JP2009105741A - 車載周辺監視装置 - Google Patents
車載周辺監視装置 Download PDFInfo
- Publication number
- JP2009105741A JP2009105741A JP2007276559A JP2007276559A JP2009105741A JP 2009105741 A JP2009105741 A JP 2009105741A JP 2007276559 A JP2007276559 A JP 2007276559A JP 2007276559 A JP2007276559 A JP 2007276559A JP 2009105741 A JP2009105741 A JP 2009105741A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- video
- recognition target
- periphery monitoring
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】ドライバーにとって重要なポイントを的確に表示することができる車載周辺監視装置を提供すること。
【解決手段】車両の周囲を撮影する撮像手段13と、前記撮像手段13により取得した映像において、予め設定された認識対象を認識する認識手段11と、前記認識手段11により認識した前記認識対象の位置に基づき、前記映像の一部を、特定領域として設定する設定手段15と、前記特定領域を表示する表示手段17と、を備えることを特徴とする車載周辺監視装置1。
【選択図】 図1
【解決手段】車両の周囲を撮影する撮像手段13と、前記撮像手段13により取得した映像において、予め設定された認識対象を認識する認識手段11と、前記認識手段11により認識した前記認識対象の位置に基づき、前記映像の一部を、特定領域として設定する設定手段15と、前記特定領域を表示する表示手段17と、を備えることを特徴とする車載周辺監視装置1。
【選択図】 図1
Description
本発明は、車両の周囲をカメラ等で撮影し、その映像を車室内で表示する車載周辺監視装置に関する。
従来より、車両の周辺をカメラで撮影し、その映像を車内のモニターに表示する技術が知られている。そして、広範囲を撮影するため、複数台のカメラを用いて撮影を行い、それぞれの画面を合成したり、魚眼レンズを用いたりする技術が提案されている。ただし、広範囲を撮影した映像をそのままモニターに表示しても、ドライバーにとって重要なポイントに対する認識度は低くなってしまう。
そこで、ナビゲーションと連携して、複数のカメラのうちから、必要なカメラを選択し、その選択したカメラの映像のみを表示する技術(特許文献1参照)や、魚眼レンズで撮影した広範囲の映像から、車両信号、ナビ情報に基づいて一部を切り出して表示する技術(特許文献2参照)が提案されている。
特開2002−117496号公報
特開平9−202180号公報
しかしながら、特許文献1、2の技術は、いずれも、車両の走行状態等、予め定められた条件に従い、広い範囲の映像の中から、表示する領域を一律に設定するものであるから、個々の具体的な状況に応じ、ドライバーにとって重要なポイントを的確に表示することは出来なかった。
本発明は以上の点に鑑みなされたものであり、ドライバーにとって重要なポイントを的確に表示することができる車載周辺監視装置を提供することを目的とする。
(1)請求項1の発明は、
撮像手段により取得した映像において、予め設定された認識対象を認識し、その認識対象の位置に基づき、映像の一部を特定領域として設定する。そして、特定領域を表示手段に表示する。そのことにより、実際の状況に応じて、車両のドライバーにとって重要な領域を的確に表示することができる。
撮像手段により取得した映像において、予め設定された認識対象を認識し、その認識対象の位置に基づき、映像の一部を特定領域として設定する。そして、特定領域を表示手段に表示する。そのことにより、実際の状況に応じて、車両のドライバーにとって重要な領域を的確に表示することができる。
前記認識対象としては、例えば、交差点(T字路の交差点、信号機のある交差点等)、歩行者、交差点手前の停止線、横断歩道、交差する本線道路、壁等の障害物等が挙げられる。
前記特定領域としては、例えば、前記認識対象に対して、一定の位置関係にある領域(例えば、認識対象を中心とする領域)が挙げられる。
(2)請求項2の発明は、
映像において認識対象が移動するとき、特定領域を、認識対象の移動に応じて更新する。このことにより、ドライバーにとって重要なポイントに対するドライバーの認識度を維持することができる。
(3)請求項3の発明は、
認識対象の位置に加えて、車両の位置及び/又は車両の走行状態に基づき、特定領域を設定する。このことにより、実際の状況に応じて、車両のドライバーにとって重要な領域を、より一層的確に表示することができる。
(4)請求項4の発明は、
認識対象の位置及び/又は速度と、車両の位置及び/又は速度とに基づいて、認識対象と車両との接触危険性を判断し、接触危険性があると判断した場合、報知を行う。そのことにより、ドライバーに注意を促し、接触を防止することができる。
(2)請求項2の発明は、
映像において認識対象が移動するとき、特定領域を、認識対象の移動に応じて更新する。このことにより、ドライバーにとって重要なポイントに対するドライバーの認識度を維持することができる。
(3)請求項3の発明は、
認識対象の位置に加えて、車両の位置及び/又は車両の走行状態に基づき、特定領域を設定する。このことにより、実際の状況に応じて、車両のドライバーにとって重要な領域を、より一層的確に表示することができる。
(4)請求項4の発明は、
認識対象の位置及び/又は速度と、車両の位置及び/又は速度とに基づいて、認識対象と車両との接触危険性を判断し、接触危険性があると判断した場合、報知を行う。そのことにより、ドライバーに注意を促し、接触を防止することができる。
接触危険性があるとは、例えば、そのままの状態であれば、認識対象と車両とが接触すること、あるいは、そのままの状態であれば、所定の基準時間以内に、認識対象と車両とが接触することをいう。
本発明の実施形態を説明する。
1.車載周辺監視装置1の構成
車載周辺監視装置1の構成を図1〜図2に基づいて説明する。車載周辺監視装置1は、図1に示すように、ハンドル角度検知器3、ハンドル速度検知器5、車両速度検知器7、ナビゲーション装置9、画像認識回路11、超広角カメラ13、映像・画像処理回路15、表示器17、音声出力回路19、入力装置21、ウインカー情報検知器22、及び演算器23から構成され、車両25(図2参照)に搭載される。
1.車載周辺監視装置1の構成
車載周辺監視装置1の構成を図1〜図2に基づいて説明する。車載周辺監視装置1は、図1に示すように、ハンドル角度検知器3、ハンドル速度検知器5、車両速度検知器7、ナビゲーション装置9、画像認識回路11、超広角カメラ13、映像・画像処理回路15、表示器17、音声出力回路19、入力装置21、ウインカー情報検知器22、及び演算器23から構成され、車両25(図2参照)に搭載される。
ハンドル角度検知器3は、車両25におけるハンドルの角度を検出する。ハンドル速度検知器5は、車両25におけるハンドルの回転速度を検出する。車両速度検知器7は、車両25の速度を検出する。ナビゲーション装置9は、GPSを用いて、車両25の位置を検出することができる。また、ナビゲーション装置9は、交差点の位置を記録した地図データを備えており、その地図データにおいて車両25の位置を特定することで、車両25を基準とした交差点の位置を取得することができる。また、ナビゲーション装置9は、通常の経路案内を行うことができる。画像認識回路11は、超広角カメラ13で撮影した映像において、周知の画像認識技術を用い、予め設定された認識対象(例えば、T字路の交差点、信号機のある交差点、歩行者、交差点手前の停止線、横断歩道、交差する本線道路等)を認識する。超広角カメラ13は、図2に示すように、車両25の前端に取り付けられ、180度魚眼レンズを備えている。そのため、超広角カメラ13は、車両25の前方を広い範囲にわたって撮影することができる。映像・画像処理回路15は、超広角カメラ13で撮影した映像データを、演算器23からの指示に応じて処理する。なお、この処理については後に詳述する。表示器17は、車両25の車室内に設置された液晶ディスプレイであり、映像・画像処理回路15で処理した映像データを用いて表示を行う。音声出力回路19は、演算器23からの指示に応じ、車両25の車室内に設置されたスピーカ(図示略)に音声信号を出力する。そのスピーカは、車両25の乗員(特にドライバー)に対する報知を音声により行う。入力装置21は、車両25のインパネに設置されたスイッチ群であり、ドライバーは、この入力装置21を用いて、各種入力を行うことができる。ウインカー情報検知器22は、車両25がウインカー表示を行っているか否か、行っているとすれば左右どちらかを検出する。演算器23は、ハンドル角度検知器3、ハンドル速度検知器5、車両速度検知器7、ナビゲーション装置9、画像認識回路11、入力装置21、及びウインカー情報検知器22からの入力信号に基づき、後述する各処理に必要な各種演算を行い、その演算結果を映像・画像処理回路15、及び音声出力回路19に出力する。
2.車載周辺監視装置1が実行する処理(その1)
車載周辺監視装置1が実行する処理を、図2及び図3、図4のフローチャートに基づいて説明する。この処理は、次に示す条件(a)〜(c)のうちの1つでも成立すると開始される。
(a)画像認識回路11が、超広角カメラ13で撮影した映像の中に、T字路の交差点を認識したとき
(b)ナビゲーション装置9が、車両25の前方にT字路の交差点があると判断したとき
(c)ドライバーが入力装置21に、この処理を開始する指示を入力したとき
ステップ10では、T字路の交差点における車両25の位置を算出する。このステップ10の処理を、図4のフローチャートに基づいて詳細に説明する。
車載周辺監視装置1が実行する処理を、図2及び図3、図4のフローチャートに基づいて説明する。この処理は、次に示す条件(a)〜(c)のうちの1つでも成立すると開始される。
(a)画像認識回路11が、超広角カメラ13で撮影した映像の中に、T字路の交差点を認識したとき
(b)ナビゲーション装置9が、車両25の前方にT字路の交差点があると判断したとき
(c)ドライバーが入力装置21に、この処理を開始する指示を入力したとき
ステップ10では、T字路の交差点における車両25の位置を算出する。このステップ10の処理を、図4のフローチャートに基づいて詳細に説明する。
ステップ110では、画像認識回路11が、超広角カメラ13で撮影した映像の中に、交差点手前の停止線27(図2参照)、交差する本線道路29(図2参照)のうちのいずれかを認識したか否かを判断する。いずれかを認識した場合はステップ120に進み、いずれも認識しなかった場合はステップ130に進む。
ステップ120では、前記ステップ110で認識したものに基づいて、T字路の交差点における車両25の位置を算出する。例えば、停止線27、及び本線道路29が所定の距離以上離れた前方に見えているときは、車両25は本線道路29に進入前の位置31(図2参照)にあると判断する。一方、停止線27は見えず(車両25の下側にあり)、本線道路29との距離が所定値以下に見えているときは、車両25は、本線道路29に進入するための準備をしている位置33(図2参照)にあると判断する。
前記ステップ110で停止線27、交差する本線道路29のいずれも認識できなかった場合はステップ130にて、車両25におけるハンドルの切れ角、車速、ウインカーの情報を取得する。
ステップ140では、前記ステップ130で取得した情報に基づき、T字路の交差点における車両25の位置を算出する。すなわち、車載周辺監視装置1は、ハンドルの切れ角、車速、及びウインカーの情報がそれぞれどのようなものであるかと、T字路の交差点における車両25の位置との対応テーブルを備えており、その対応テーブルと、前記ステップ130で取得した情報とに基づき、T字路の交差点における車両25の位置を算出する。例えば、ハンドル切れ角が小、車速が小であれば、車両25は本線道路29に進入前の位置31(図2参照)にあると判断する。一方、ハンドル切れ角が大、ウインカーの表示がなされていれば、車両25は、本線道路29に進入するための準備をしている位置33(図2参照)にあると判断する。
図3に戻り、ステップ20では、映像・画像処理回路15により、前記ステップ10で算出した車両25の位置に基づき、超広角カメラ13で撮影した映像のうち、所定の領域を切り出す。切り出す領域は、次のように設定する。例えば、車両25の位置が本線道路29に進入前の位置31である場合、図5(a)に示すように、超広角カメラ13で撮影した、未処理の映像(以下、元映像35とする)のうち、左右両端付近の領域a、b、f、gを切り出す領域とする。この領域a、b、f、gは、本線道路29における左右方向に対応し、位置31にある車両25のドライバーにとって重要な領域である。一方、車両25の位置が本線道路29に進入するための準備をしている位置33である場合は、元映像35のうち、領域b、cを切り出す領域とする。この領域b、cは、本線道路29における車両25の走行方向に対応し、位置33にある車両25のドライバーにとって重要な領域である。このように、車両25の位置や走行状態に基づき、切り出す領域を変更する。
ステップ30では、映像・画像処理回路15により、図5(b)に示すように、前記ステップ20で切り出した領域の縦横比が実際の縦横比となるように補正する。また、魚眼レンズにより生じる歪みを補正する。さらに、切り出す領域が2以上あるときは、それらを合成する。
ステップ40では、前記ステップ20で切り出し、前記ステップ30にて補正した領域の映像のみを、表示器17に出力する。
なお、上記の処理は、T字路の交差点の代わりに、信号機のある交差点においても、実行することができる。この場合、上記処理は、次に示す条件(a‘)〜(c’)のうちの1つでも成立すると開始される。
(a‘)画像認識回路11が、超広角カメラ13で撮影した映像の中に、信号機のある交差点を認識したとき
(b‘)ナビゲーション装置9が、車両25の前方に、信号機のある交差点があると判断したとき
(c‘)ドライバーが入力装置21に、この処理を開始する指示を入力したとき
また、車両25の位置を算出するとき(前記ステップ10、ステップ120に対応)は、超広角カメラ13で撮影した映像の中に、信号機のある交差点に特有の物であって、位置が定まっている物(例えば、右折レーン、交差点手前の停止線、横断歩道、信号機等)を認識し、映像におけるその物に基づいて車両25の位置を算出することができる。なお、映像に基づいて車両25の位置を算出できない場合は、ハンドルの切れ角、車速、及びウインカーの情報等に基づいて、車両25の位置を算出する(前記ステップ130〜140に対応する処理)。
なお、上記の処理は、T字路の交差点の代わりに、信号機のある交差点においても、実行することができる。この場合、上記処理は、次に示す条件(a‘)〜(c’)のうちの1つでも成立すると開始される。
(a‘)画像認識回路11が、超広角カメラ13で撮影した映像の中に、信号機のある交差点を認識したとき
(b‘)ナビゲーション装置9が、車両25の前方に、信号機のある交差点があると判断したとき
(c‘)ドライバーが入力装置21に、この処理を開始する指示を入力したとき
また、車両25の位置を算出するとき(前記ステップ10、ステップ120に対応)は、超広角カメラ13で撮影した映像の中に、信号機のある交差点に特有の物であって、位置が定まっている物(例えば、右折レーン、交差点手前の停止線、横断歩道、信号機等)を認識し、映像におけるその物に基づいて車両25の位置を算出することができる。なお、映像に基づいて車両25の位置を算出できない場合は、ハンドルの切れ角、車速、及びウインカーの情報等に基づいて、車両25の位置を算出する(前記ステップ130〜140に対応する処理)。
そして、超広角カメラ13で撮影した映像のうち、表示器17に表示する領域を切り出すとき(前記ステップ20に対応)、車両25の位置が右折レーンにある場合は、元映像35のうち、領域e、fを切り出す。この領域e,fは、対向車が見える領域であり、右折レーンにある車両25のドライバーにとって重要な領域である。
3.車載周辺監視装置1が実行する処理(その2)
車載周辺監視装置1が実行する他の処理を、図6のフローチャートに基づいて説明する。この処理は、ナビゲーション装置9が左折を案内したとき、または、ウインカー情報検知器22がウインカーの左折表示を検出したときに開始される。
車載周辺監視装置1が実行する他の処理を、図6のフローチャートに基づいて説明する。この処理は、ナビゲーション装置9が左折を案内したとき、または、ウインカー情報検知器22がウインカーの左折表示を検出したときに開始される。
ステップ210では、画像認識回路11、超広角カメラ13、及び映像・画像処理回路15の電源をONにする。なお、既にONになっている場合は特に処理を行わない。
ステップ220では、超広角カメラ13を用いて車両25の前方を広い範囲にわたって撮影する。
ステップ220では、超広角カメラ13を用いて車両25の前方を広い範囲にわたって撮影する。
ステップ230では、ナビゲーション装置9の経路案内情報や車両に関する情報(車速、ハンドル切り角等)から、左折しようとする車両25の走行方向を計算する。そして、前記ステップ220にて撮影した映像のうち、その走行方向周辺の、ある程度広い範囲(例えば、図2、図5(a)における領域a〜d)の映像を切り出す。
ステップ240では、画像認識回路11が、前記ステップ230で切り出した映像内に、ドライバーが入力装置21を用いて事前に登録していた注意ポイント(ここでは、横断断歩道)が認識できるか否かを判断する。認識できる場合はステップ250に進み、認識できない場合はステップ280に進む。なお、車載周辺監視装置1は、画像認識や音声認識により注意ポイントを入力できる構成を備えていてもよい。
ステップ250では、前記ステップ220で切り出した映像のうち、注意ポイントを中心とする一部をさらに切り出し、表示器17に表示する。よって、表示器17の中心には、注意ポイントが表示される。なお、ステップ220〜250の処理は、前記ステップ240にて、注意ポイントが認識できないと判断されるまで、所定時間ごとに繰り返し実行され、前記ステップ230で切り出した映像全体の中では、車両25の移動にともない、注意ポイントの位置は移動してゆくが、表示器17に表示される映像では、常に、注意ポイントが中心に位置する。
ステップ260では、前記ステップ230で切り出した映像内に歩行者が認識できる場合、その歩行者の位置を特定するとともに、映像上での歩行者の移動速度から、歩行者の実際の移動速度、及び移動方向を算出する。また、車両25の位置、速度、進行方向を取得する。そして、上述した各種情報に基づき、歩行者と車両25とがそのまま進行した場合、接触するか否かを判断する。接触すると判断した場合はステップ270に進み、接触しないと判断した場合はステップ220に戻る。
ステップ270では、音声出力回路19により警告の音声を出力するとともに、表示器17に警告映像を表示する。その後、ステップ220に戻る。
前記ステップ240にて注意ポイントが認識できないと判断された場合はステップ280に進み、前記ステップ230で切り出した映像をそのまま表示する。一定期間表示した後、本処理を終了する。
前記ステップ240にて注意ポイントが認識できないと判断された場合はステップ280に進み、前記ステップ230で切り出した映像をそのまま表示する。一定期間表示した後、本処理を終了する。
4.車載周辺監視装置1が奏する効果
(1)車載周辺監視装置1は、元映像35の中で、画像認識回路11が認識したもの(停止線27、交差する本線道路29、歩行者、横断歩道)に基づいて、元映像35の一部を切り出し、その切り出した映像を表示器17に表示する。そのことにより、実際の状況に応じて、車両25のドライバーにとって重要な領域を的確に表示することができる。
(1)車載周辺監視装置1は、元映像35の中で、画像認識回路11が認識したもの(停止線27、交差する本線道路29、歩行者、横断歩道)に基づいて、元映像35の一部を切り出し、その切り出した映像を表示器17に表示する。そのことにより、実際の状況に応じて、車両25のドライバーにとって重要な領域を的確に表示することができる。
また、ドライバーにとって重要な領域のみを表示器17に表示するので、元映像35をそのまま表示器17に表示する場合のように、違和感が生じ、ドライバーの認識度が低下してしまうようなことがない。
(2)車載周辺監視装置1は、車両25の移動にともない、元映像35の中での注意ポイントの位置が移動しても、常に、注意ポイントを中心とする領域を、表示器17に表示し続けることができる。このことにより、注意ポイントに対するドライバーの認識度を維持することができる。
(3)車載周辺監視装置1は、車両25の位置や走行状態に基づき、表示器17に表示する領域を変更する。このことにより、実際の状況に応じて、車両のドライバーにとって重要な領域を、より一層的確に表示することができる。
(4)車載周辺監視装置1は、車両25と注意ポイントとが接触すると判断した場合、警告を行う。そのことにより、ドライバーに注意を促し、接触を防止することができる。
(2)車載周辺監視装置1は、車両25の移動にともない、元映像35の中での注意ポイントの位置が移動しても、常に、注意ポイントを中心とする領域を、表示器17に表示し続けることができる。このことにより、注意ポイントに対するドライバーの認識度を維持することができる。
(3)車載周辺監視装置1は、車両25の位置や走行状態に基づき、表示器17に表示する領域を変更する。このことにより、実際の状況に応じて、車両のドライバーにとって重要な領域を、より一層的確に表示することができる。
(4)車載周辺監視装置1は、車両25と注意ポイントとが接触すると判断した場合、警告を行う。そのことにより、ドライバーに注意を促し、接触を防止することができる。
尚、本発明は前記実施形態になんら限定されるものではなく、本発明を逸脱しない範囲において種々の態様で実施しうることはいうまでもない。
前記実施形態において、元映像35から所定の領域を切り出す方法は、ユーザが入力装置21を用いて入力し、個別設定した方法とすることができる。また、認識対象や注意ポイントをタッチパネルを利用して特定できるように構成してもよい。
前記実施形態において、元映像35から所定の領域を切り出す方法は、ユーザが入力装置21を用いて入力し、個別設定した方法とすることができる。また、認識対象や注意ポイントをタッチパネルを利用して特定できるように構成してもよい。
超広角カメラ13の代わりに、それよりも撮影範囲が狭いカメラを用い、カメラの両側に鏡を設置することで、広範囲を撮影するようにしてもよい。
1・・・車載周辺監視装置、3・・・ハンドル角度検知器、
5・・・ハンドル速度検知器、7・・・車両速度検知器、9・・・ナビゲーション装置、
11・・・画像認識回路、13・・・超広角カメラ、15・・・映像・画像処理回路、
17・・・表示器、19・・・音声出力回路、21・・・入力装置、
22・・・ウインカー情報検知器、23・・・演算器、25・・・車両、
27・・・停止線、29・・・本線道路、35・・・元映像
5・・・ハンドル速度検知器、7・・・車両速度検知器、9・・・ナビゲーション装置、
11・・・画像認識回路、13・・・超広角カメラ、15・・・映像・画像処理回路、
17・・・表示器、19・・・音声出力回路、21・・・入力装置、
22・・・ウインカー情報検知器、23・・・演算器、25・・・車両、
27・・・停止線、29・・・本線道路、35・・・元映像
Claims (4)
- 車両の周囲を撮影する撮像手段と、
前記撮像手段により取得した映像において、予め設定された認識対象を認識する認識手段と、
前記認識手段により認識した前記認識対象の位置に基づき、前記映像の一部を、特定領域として設定する設定手段と、
前記特定領域を表示する表示手段と、
を備えることを特徴とする車載周辺監視装置。 - 前記映像において前記認識対象が移動するとき、前記設定手段は、前記特定領域を、前記認識対象の移動に応じて更新することを特徴とする請求項1記載の車載周辺監視装置。
- 前記設定手段は、前記認識対象の位置に加えて、前記車両の位置及び/又は前記車両の走行状態に基づき、前記特定領域を設定することを特徴とする請求項1又は2記載の車載周辺監視装置。
- 前記認識対象の位置及び/又は速度と、前記車両の位置及び/又は速度とに基づいて、前記認識対象と前記車両との接触危険性を判断する判断手段と、
前記接触危険性があると前記判断手段が判断した場合、報知を行う報知手段と、
を備えることを特徴とする請求項1〜3のいずれかに記載の車載周辺監視装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007276559A JP2009105741A (ja) | 2007-10-24 | 2007-10-24 | 車載周辺監視装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007276559A JP2009105741A (ja) | 2007-10-24 | 2007-10-24 | 車載周辺監視装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009105741A true JP2009105741A (ja) | 2009-05-14 |
Family
ID=40706996
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007276559A Pending JP2009105741A (ja) | 2007-10-24 | 2007-10-24 | 車載周辺監視装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009105741A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013136258A (ja) * | 2011-12-28 | 2013-07-11 | Fujitsu General Ltd | 車載カメラ装置及び車載カメラシステム |
JP2016143308A (ja) * | 2015-02-04 | 2016-08-08 | パイオニア株式会社 | 報知装置、制御方法、プログラム及び記憶媒体 |
JP2017124737A (ja) * | 2016-01-14 | 2017-07-20 | 日立オートモティブシステムズ株式会社 | 車両検出装置および配光制御装置 |
WO2019049548A1 (ja) * | 2017-09-05 | 2019-03-14 | 株式会社デンソー | 画像処理装置 |
JP2019211485A (ja) * | 2019-08-05 | 2019-12-12 | パイオニア株式会社 | 報知装置、制御方法、プログラム及び記憶媒体 |
JP2022147745A (ja) * | 2021-03-23 | 2022-10-06 | 本田技研工業株式会社 | 移動体の制御装置及び制御方法並びに車両 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10262240A (ja) * | 1997-03-17 | 1998-09-29 | Mitsubishi Motors Corp | 車両用周辺視認装置 |
JP2002321579A (ja) * | 2001-04-26 | 2002-11-05 | Sumitomo Electric Ind Ltd | 警告情報生成方法及び車両側方映像生成装置 |
JP2007102691A (ja) * | 2005-10-07 | 2007-04-19 | Denso Corp | 車両用視界支援装置 |
JP2008293122A (ja) * | 2007-05-22 | 2008-12-04 | Fujitsu Ten Ltd | 障害物監視装置 |
-
2007
- 2007-10-24 JP JP2007276559A patent/JP2009105741A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10262240A (ja) * | 1997-03-17 | 1998-09-29 | Mitsubishi Motors Corp | 車両用周辺視認装置 |
JP2002321579A (ja) * | 2001-04-26 | 2002-11-05 | Sumitomo Electric Ind Ltd | 警告情報生成方法及び車両側方映像生成装置 |
JP2007102691A (ja) * | 2005-10-07 | 2007-04-19 | Denso Corp | 車両用視界支援装置 |
JP2008293122A (ja) * | 2007-05-22 | 2008-12-04 | Fujitsu Ten Ltd | 障害物監視装置 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013136258A (ja) * | 2011-12-28 | 2013-07-11 | Fujitsu General Ltd | 車載カメラ装置及び車載カメラシステム |
JP2016143308A (ja) * | 2015-02-04 | 2016-08-08 | パイオニア株式会社 | 報知装置、制御方法、プログラム及び記憶媒体 |
JP2017124737A (ja) * | 2016-01-14 | 2017-07-20 | 日立オートモティブシステムズ株式会社 | 車両検出装置および配光制御装置 |
WO2017122535A1 (ja) * | 2016-01-14 | 2017-07-20 | 日立オートモティブシステムズ株式会社 | 車両検出装置および配光制御装置 |
US10836303B2 (en) | 2016-01-14 | 2020-11-17 | Hitachi Automotive Systems, Ltd. | Vehicle detection apparatus and light distribution control apparatus |
WO2019049548A1 (ja) * | 2017-09-05 | 2019-03-14 | 株式会社デンソー | 画像処理装置 |
US11257193B2 (en) * | 2017-09-05 | 2022-02-22 | Denso Corporation | Image processing apparatus |
JP2019211485A (ja) * | 2019-08-05 | 2019-12-12 | パイオニア株式会社 | 報知装置、制御方法、プログラム及び記憶媒体 |
JP2021170010A (ja) * | 2019-08-05 | 2021-10-28 | パイオニア株式会社 | 報知装置、制御方法、プログラム及び記憶媒体 |
JP2023086889A (ja) * | 2019-08-05 | 2023-06-22 | パイオニア株式会社 | 報知装置、制御方法、プログラム及び記憶媒体 |
JP2022147745A (ja) * | 2021-03-23 | 2022-10-06 | 本田技研工業株式会社 | 移動体の制御装置及び制御方法並びに車両 |
JP7181956B2 (ja) | 2021-03-23 | 2022-12-01 | 本田技研工業株式会社 | 移動体の制御装置及び制御方法並びに車両 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4434224B2 (ja) | 走行支援用車載装置 | |
JP5896505B2 (ja) | 車両運転支援装置 | |
JP4855158B2 (ja) | 運転支援装置 | |
EP1961613B1 (en) | Driving support method and driving support device | |
WO2017022047A1 (ja) | 表示制御装置、表示装置及び表示制御方法 | |
JP2006142888A (ja) | 車両報知装置及び車両報知方法のプログラム | |
JP2008131648A (ja) | ビデオ画像を提示する方法およびシステム | |
JP2008280026A (ja) | 運転支援装置 | |
JP2009211624A (ja) | 運転支援装置、運転支援方法及びコンピュータプログラム | |
WO2017104209A1 (ja) | 運転支援装置 | |
JP2007102691A (ja) | 車両用視界支援装置 | |
JP2008276642A (ja) | 走行車線認識装置および走行車線認識方法 | |
JP2008236711A (ja) | 運転支援方法及び運転支援装置 | |
JP2004314843A (ja) | 車両用運転支援装置 | |
JP2009105741A (ja) | 車載周辺監視装置 | |
JP2008293095A (ja) | 運転支援システム | |
JP2006209368A (ja) | 車両の運転支援装置 | |
JP2003205805A (ja) | 車両用運転支援装置 | |
JP2020065141A (ja) | 車両の俯瞰映像生成システム及びその方法 | |
JP2008021234A (ja) | 運転支援画像表示システム及び車載装置 | |
JP5156307B2 (ja) | 車載カメラシステム | |
JP2006277547A (ja) | 車両用運転補助装置 | |
JP2003016595A (ja) | 走行支援装置 | |
JP2008250453A (ja) | 運転支援装置および運転支援方法 | |
JP2006344133A (ja) | 道路区画線検出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100114 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110921 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111115 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120313 |