JP2008108118A - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP2008108118A
JP2008108118A JP2006291217A JP2006291217A JP2008108118A JP 2008108118 A JP2008108118 A JP 2008108118A JP 2006291217 A JP2006291217 A JP 2006291217A JP 2006291217 A JP2006291217 A JP 2006291217A JP 2008108118 A JP2008108118 A JP 2008108118A
Authority
JP
Japan
Prior art keywords
image
captured
hue
gabor filter
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006291217A
Other languages
English (en)
Other versions
JP4704998B2 (ja
Inventor
Morimichi Nishigaki
守道 西垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2006291217A priority Critical patent/JP4704998B2/ja
Publication of JP2008108118A publication Critical patent/JP2008108118A/ja
Application granted granted Critical
Publication of JP4704998B2 publication Critical patent/JP4704998B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】明るさの相違の影響を軽減して、撮像画像からの対象物の検出精度を高めることができる画像処理装置を提供する。
【解決手段】RGB仕様のカメラ2R,2Lから出力されるカラー画像の映像信号から、カメラ2Rによる右画像Im1と左画像Im2を取得する画像取得部10と、Im1とIm2をHSI画像に変換して各画素のH成分に対してガボールフィルタを適用した画像間で、相関演算を行って各画素の視差を算出し、該視差から各画素と車両1間の距離マップLmapを求める視差算出部11と、異なる時刻でされたIm1をHSI画像に変換して各画素のH成分に対してガボールフィルタを適用した時系列画像から、オプティカルフローOflwを求めるオプティカルフロー算出部12と、距離マップLmap及びオプティカルフローOflwを用いて対象物を検出するトラッキング部13とを備える。
【選択図】 図1

Description

本発明は、撮像手段により撮像された撮像画像から、対象物を検出する画像処理装置に関する。
従来より、例えば、車両の前部に搭載されたカメラにより撮像された車両前方の撮像画像から、道路上に所在する歩行者や他の車両等の対象物を検出する画像処理装置が提案されている(例えば、特許文献1〜3を参照)。
かかる従来の画像処理装置においては、時間的な連続性をもって撮像された撮像画像間の相関演算により、画像中の所定領域におけるオプティカルフローを算出している。そして、このように時間的な連続性をもって撮像する際に周囲の明るさが変化すると、撮像画像間の輝度の差が大きくなって相関演算による相関度の信頼性が低下するため、オプティカルフローの算出誤差が大きくなる。そのため、該オプティカルフローを用いて対象物を検出する際の誤差が大きくなるという不都合があった。
また、従来の画像処理装置においては、2台のカメラを備えて、該2台のカメラによる同一時点での撮像画像間の相関演算により同一物体の画像の視差を求め、該視差を用いて車両と物体間の距離を算出している。そして、このように2台のカメラにより同一時点で画像を取得する際に、各カメラの撮像範囲や特性の違いによって、同一物体の画像の輝度が画像間で相違する場合があり、この場合には、相関演算による相関度の信頼性が低下するため、視差の算出誤差が大きくなる。そのため、該視差に基づく距離を用いて対象物を検出する際の誤差が大きくなるという不都合があった。
特開2003−196664号公報 特開2004−54684号公報 特開2005−78528号公報
本発明は上記背景を鑑みてなされたものであり、明るさの相違の影響を軽減して、撮像画像からの対象物の検出精度を高めることができる画像処理装置を提供することを目的とする。
本発明は上記目的を達成するためになされたものであり、撮像手段により撮像されたカラーの撮像画像から対象物を検出する画像処理装置であって、前記撮像画像を、少なくとも色相H(Hue)の成分が抽出された色相抽出画像に変換する色相抽出画像変換手段と、前記色相抽出画像のH成分のみにガボールフィルタを適用し、該ガボールフィルタ適用後の画像の位相に基づいて対象物を検出する対象物検出手段とを備えたことを特徴とする。
かかる本発明によれば、前記色相抽出画像変換手段により、前記撮像手段により撮像された撮像画像が前記色相抽出画像に変換される。ここで、色相Hの成分は明るさの相違に対するレベルの変動が小さく、明るさの変化の影響を受け難い。そこで、前記対象物検出手段は、前記色相抽出画像のH成分のみにガボールフィルタを適用する。このように、明るさの相違の影響を受け難いH成分のみにガボールフィルタを適用することにより、ガボールフィルタにより特定される所定方向のエッジが画像の位相として抽出される。そのため、ガボールフィルタ適用後の画像の位相に基づいて、撮像された物体の色と柄の情報を特徴量として、明るさの相違の影響を抑制して精度良く対象物を検出することができる。
また、前記対象物検出手段は、前記撮像手段により時間的に連続して撮像された撮像画像を、前記色相抽出画像変換手段により変換した各色相抽出画像に対して、H成分のみにガボールフィルタを適用し、時間的に連続した該ガボールフィルタ適用後の各画像の位相に基づく各画像間の相関演算により、各画像の所定領域におけるオプティカルフローを求め、該オプティカルフローを用いて対象物を検出することを特徴とする。
かかる本発明によれば、前記対象物検出手段は、前記撮像手段により時間的に連続して撮像された撮像画像を、前記色相抽出画像変換手段により変換した各色相抽出画像に対して、H成分のみにガボールフィルタを適用する。そして、これにより、明るさの変化の影響を受け難いH成分についての時系列画像が得られ、該時系列画像における画像の位相に基づいて、撮像された物体の色と柄を特徴量とする相関演算によりオプティカルフローを精度良く求めることができる。
また、前記撮像手段として、撮像範囲を重複させて並設された第1の撮像手段及び第2の撮像手段とを有し、前記対象物検出手段は、同一時点で撮像された前記第1の撮像手段による第1の撮像画像及び前記第2の撮像手段による第2の撮像画像を、前記色相抽出画像変換手段によりそれぞれ変換した第1の色相抽出画像及び第2の色相抽出画像に対して、H成分のみにガボールフィルタを適用し、該ガボールフィルタ適用後の各画像の位相に基づく各画像間の相関演算により、該第1の撮像画像と該第2の撮像画像の対応する画素の視差を求め、該視差に基づく距離情報を用いて対象物を検出することを特徴とする。
かかる本発明によれば、前記対象物検出手段は、同一時点で撮像された前記第1の撮像画像及び前記第2の撮像画像を、前記色相抽出画像変換手段により変換した前記第1の色相抽出画像及び前記第2の色相抽出画像に対して、H成分のみにガボールフィルタを適用する。そして、これにより、前記第1の色相抽出画像及び前記第2の色相抽出画像から、明るさの違いの影響を受け難い色と柄の情報が位相により抽出された画像が得られる。そして、このように色と柄の情報が抽出された画像間の相関演算を行うことにより、視差を精度良く求めることができる。
次に、本発明の画像処理用プログラムは、撮像手段により撮像されたカラーの撮像画像にアクセスする手段を有するコンピュータに、該撮像画像から対象物を検出する機能を実現させるためのプログラムであって、該コンピュータを、前記撮像画像を、色相H(Hue)の成分が抽出された色相抽出画像に変換する色相抽出画像変換手段と、前記色相抽出画像のH成分のみにガボールフィルタを適用し、該ガボールフィルタ適用後の画像の位相に基づいて対象物を検出する対象物検出手段として機能させることを特徴とする。
かかる本発明の画像処理用プログラムを前記コンピュータ上で実行することにより、前記本発明の画像処理装置を構成することができる。
次に、本発明の画像処理方法は、撮像手段により撮像されたカラーの撮像画像にアクセスする手段を有するコンピュータによって、該撮像画像から対象物を検出する画像処理方法であって、前記コンピュータが、少なくとも色相H(Hue)の成分が抽出された色相抽出画像に変換する色相抽出画像変換ステップと、前記コンピュータが、前記色相抽出画像のH成分のみにガボールフィルタを適用し、該ガボールフィルタ適用後の画像の位相に基づいて対象物を検出する対象物検出ステップとを含むことを特徴とする。
かかる本発明によれば、前記コンピュータは、前記色相抽出画像変換ステップにより、前記撮像手段により撮像された撮像画像を前記色相抽出画像に変換する。そして、前記コンピュータは、前記対象物検出ステップにより、前記色相抽出画像のH成分のみにガボールフィルタを適用し、該ガボールフィルタの適用後の画像の位相に基づいて対象物を検出する。このように、明るさの相違の影響を受け難いH成分についてガボールフィルタを適用することにより、ガボールフィルタにより特定される所定方向のエッジが抽出される。そのため、ガボールフィルタ適用後の画像の位相に基づいて、撮像された物体の色と柄の情報を特徴量として、明るさの相違の影響を抑制して精度良く対象物を検出することができる。
本発明の実施の形態の一例について、図1〜図2を参照して説明する。図1は本発明の画像処理装置が搭載された車両のシステム構成を示すブロック図、図2は図1に示した画像処理装置の処理手順を示したフローチャートである。
図1を参照して、本実施の形態では、自動車等の車両1の前方に所在する歩行者等の対象物を検出するために、車両1の前部に2台のRGB仕様のカラーカメラ2R,2L(本発明の撮像手段に相当する)が搭載されている。また、カメラ2R、2Lは、その光軸を車両の前方に向けて、撮像範囲を重複させて車両1の左右方向に並設されている。なお、カメラ2R,2Lのうちのいずれか一方が本発明の第1の撮像手段に相当し、他方が本発明の第2の撮像手段に相当する。
車両1には、カメラ2R,2Lで撮像されたカラー画像の映像信号が入力される画像処理装置3が搭載されている。画像処理装置3は、CPUやメモリを有する図示しないマイクロコンピュータ(本発明のコンピュータに相当する)等を含む電子回路ユニットであり、カメラ2R,2Lから入力されたカラー画像の映像信号から、車両1の前方に所在する歩行者等の物体を認識し、該物体の車両1に対する実空間上の相対位置を検出する処理を実行する。
画像処理装置3は、そのハードウェア及びソフトウェアにより実現される機能として、画像取得部10、視差算出部11、オプティカルフロー算出部12、トラッキング部13、及び障害物判断部14を備えている。なお、視差算出部11、オプティカルフロー算出部12、及びトラッキング部13により、本発明の対象物検出手段が構成される。
また、視差算出部11及びオプティカルフロー算出部12は、本発明の色相抽出画像変換手段の機能を含む。また、画像処理装置3のマイクロコンピュータに本発明の画像処理用プログラムを実行させることによって、視差算出部11、オプティカルフロー算出部12、トラッキング部13、及び障害物判断部14の機能が実現され、該マイクロコンピュータにより本発明の画像処理方法が実施される。
次に、画像処理装置3の各部の処理内容について説明する。カメラ2R,2Lの出力(カラー画像の映像信号)は、所定の処理周期で画像取得部10に取り込まれる。画像取得部10は、入力されたカメラ2R,2Lの撮像画像の各画素の映像信号(アナログ信号)をA/D変換し、該A/D変換により得られたデジタルデータを図示しない画像メモリに記憶する。該デジタルデータは、撮像画像の各画素のRGB成分のレベル(輝度)を示すデータである。なお、以降、カメラ2Rにより得られた撮像画像を右画像Im1といい、カメラ2Lにより得られた撮像画像を左画像Im2という。
画像取得部10により画像メモリに記憶保持された右画像Im1及び左画像Im2は、視差算出部11に入力される。また、右画像Im1は、オプティカルフロー算出部12に入力される。
視差算出部11は、右画像Im1と左画像Im2を、色相H(Hue),彩度S(Saturation),明度(Intensity)の三成分によるHSI画像(本発明の色相抽出画像に相当する)に変換し、右画像Im1のHSI画像と左画像Im2のHSI画像とに基づいて、右画像Im1の各画素で捉えられている物体の視差を検出する。そして、該検出した視差に基づいて、車両1から右画像Im1の各画素で捉えられている物体までの距離を算出し、いわゆる距離マップ(算出した距離を右画像Im1の各画素に対応付けたマップ)Lmapを作成する。なお、視差と距離を算出する具体的な処理については後述する。
オプティカルフロー算出部12は、右画像Im1をHSI画像に変換し、該HSI画像の時系列データから、右画像Im1におけるオプティカルフローOflwを算出する。なお、オプティカルフローOflwを算出する具体的な処理については後述する。
トラッキング部13は、距離マップLmap及びオプティカルフローOflwに基づいて、右画像Im1中で同一運動成分を持つ領域から、車両からの距離がほぼ同一(距離の差が所定範囲内)であって、且つ、連続している画素群を対象物として検出する。そして、トラッキング部13は、異なる時点で得られた右画像Im1のHSI変換画像から検出された対象物の同一性を判断し、同一の対象物についての時刻間追跡を行う。
具体的には、トラッキング部13は、時刻k1で得られた右画像Im1_k1のHSI変換画像から検出された対象物Aと、時刻k2で得られた右画像Im1_k2のHSI変換画像から検出された対象物Bとの同一性を判断し、同一であると判断したときは対象物Aと対象物Bの識別ラベルを同一とする。この場合、対象物Aと対象物Bの同一性は、例えば、対象物Aと対象物Bの形状や輝度分布等の特徴量を基に判断される。
トラッキング部13により算出される同一の対象物についての時刻間追跡のデータTdは、障害物判断部14に入力される。そして、障害物判断部14は、時刻間追跡のデータTdから該対象物と車両1との接触可能性を判断し、接触可能性が高いと判断したときには、警報データAdを車両制御ユニット22に出力する。警報データAdには、車両1と対象物との相対位置を示すデータ等が含まれる。
車両制御ユニット22には、ヨーレートセンサ20による車両1のヨーレートの検出データYsと、車速センサ21による車両1の車速の検出データVsが入力される。そして、車両制御ユニット22は、警報データAdが入力されたときに、運転者への視覚的或いは聴覚的な報知を行う。また、車両制御ユニット22は、警報データAdとヨーレートの検出データYsと車速の検出データVsとに基づいて、車両1の補助的な運転操作(ハンドル操作、ブレーキ操作等)を、図示しないアクチュエータを介して行われる。
次に、図2に示したフローチャートに従って、視差算出部11、オプティカルフロー算出部12、及びトラッキング部13による具体的な処理内容について説明する。
先ず、図2のSTEP1で、画像取得部10により、右カメラ2Rによる右画像Im1と左カメラ2Lによる左画像Im2が取得される(ステレオ画像の取得)。続くSTEP2〜STEP4は視差算出部11による処理であり、視差算出部11は、STEP2で、右画像Im1をHSI画像Hm1に変換すると共に、左画像Im2をHSI画像Hm2に変換する。
ここで、HSI画像への変換は、右画像Im1及び左画像Im2の各画素のRGB成分(R,G,B)を、例えば6角錐モデルでは以下の式(1)〜式(7)の演算によってHSI成分(H,S,I)に変換することにより行われる。
Figure 2008108118
Figure 2008108118
Figure 2008108118
Figure 2008108118
Figure 2008108118
Figure 2008108118
Figure 2008108118
ここで、色相Hは、上記式(5)〜式(7)により、画素の輝度情報(Imax−R,Imax−G,Imax−B)を、画素の輝度の幅(Imax−Imin)で除して算出されるため、明るさの相違による輝度の変化の影響を受け難い。そこで、続くSTEP3において、視差算出部11は、HSI画像Hm1,Hm2の各画素のH成分に対してガボールフィルタを適用して、Hm1'及びHm2'を求める。ガボールフィルタは、人間の受容野の特性に似せたフィルタであり、特定方向のエッジ(輪郭線)を抽出するものである。ガボールフィルタの適用により、照度変化の影響を受け難い物体の色相Hについての該特定方向の位相を抽出することができる。
また、ガボールフィルタは、画像内の移動体に対して、中心部分よりも周辺部分のほうがオプティカルフローの特徴がより明確に現れる特性を有する。そこで、画像内の座標に応じてガボールフィルタの特性(受容野サイズである窓の大きさ)や空間周波数の最適化を行ってもよい。
次のSTEP4で、視差算出部11は、Hm1'とHm2'間の相関処理を行う。該相関処理においては、Hm1'の各画素Hm1'(x,y)に対して、その画素Hm1'(x,y)を中心とする所定サイズの相関性判断領域(例えば長方形の局所領域)が、Hm1'内に設定される。そして、Hm2'に対して、所定サイズの探索領域が設定される。この探索領域は、相関性判断領域よりもx方向(水平方向)に広い領域で、且つその内部に相関性判断領域内の画像データと同等の画像データが含まれるような領域に設定される。
そして、Hm2'の探索領域内で、Hm1'の相関性判断領域内の輝度値の分布に最も近似する輝度値の分布を有する領域(相関性判断領域と同一サイズの局所領域)を、SAD(Sum of Absolute Difference)等の公知の相関演算手法によって探索し、探索された領域の中心点に対応するHm2'の画素Hm2'(x',y)が、相関性判断領域の中心点に対応するHm1'の画素と同じ対象物を捉えている画素として決定される。
さらに、同様にして、Hm1'の各画素Hm1'(x,y)に対して決定されるHm2'(x',y)のx座標値x'と、Hm1'の画素Hm1'(x,y)のx座標値xとの差(x'−x)[ピクセル]が、Hm1'の画素Hm1'(x,y)で捉えられている物体に関するカメラ2R,2Lによる左右の画像(ステレオ画像)間の視差Δとして算出される。
さらに、視差Δから、以下の式(8)により、右画像Im1の画素Im1(x,y)で捉えられている物体の車両1からの距離zが算出される。
Figure 2008108118
但し、f:カメラ2R,2Lの焦点距離、D:カメラ2R,2Lの基線長(光軸の間隔)、p:画素ピッチ(1画素分の長さ)。
以上説明した視差算出部11の処理によって、前記距離マップLmapが作成される。
次に、視差算出部11によるSTEP2〜STEP4の処理と並行して、オプティカルフロー算出部12は、STEP10〜STEP12の処理を実行する。
STEP10で、オプティカルフロー算出部12は、上述したSTEP2の処理と同様にして、右画像Im1をHSI画像Hm1に変換する。そして、続くSTEP11で、上述したSTEP3と同様にして、HSI画像Hm1の各画素のH成分に対してガボールフィルタを適用して、Hm1'を求める。
次のSTEP12で、オプティカルフロー算出部12は、今回の処理周期で求めたガボールフィルタ適用後の画像Hm1'_tと、前回の処理周期で求めたガボールフィルタ適用後の画像Hm2'_t-1間で、局所領域についてブロックマッチング法等の公知の手法によりオプティカルフローOflwを求める。
このように、明るさの変化の影響を受け難い色相Hの成分についてガボールフィルタを適用した画像Hm1'とHm2'間でオプティカルフローを求めることにより、明るさの相違による相関演算の信頼性の低下を抑制して、精度良くオプティカルフローOflwを求めることができる。
次のSTEP5はトラッキング部13による処理であり、トラッキング部13は、距離マップLmap及びオプティカルフローOflwを用いて、車両1の走行により生じるオプティカルフローの変動分を排除したときに、所定の大きさ以上のオプティカルフローを有する局所領域内で、車両1からの距離がほぼ同一の連続する画素群を、対象物として検出する。そして、続くSTEP6で、トラッキング部13は、同一の物体の画像部分であると判断される対象物について、時刻間追跡を行う。
なお、本実施の形態では、2台のカメラ2R,2Lを備えて、上記式(8)により視差Δから各画素と車両1との距離zを算出したが、距離センサを備えて各画素と車両1との距離を検出し、該距離センサにより得られる車両と物体間の距離情報と、1台のカメラの撮像画像により得られるオプティカルフローとを用いて、対象物を検出するようにしてもよい。
また、本実施の形態では、視差ΔとオプティカルフローOflwとを用いて対象物を検出したが、HSI変換画像にガボールフィルタを適用した画像に基づいて対象物を検出する画像処理装置であれば、本発明の効果を得ることができる。
また、本実施の形態では、RGB成分からなる撮像画像をHSI成分からなるHSI画像に変換したが、必ずしも色相H(Hue),彩度S(Saturation),明度(Intensity)の三成分を全て有する画像に変換する必要はなく、少なくとも色相Hの成分を有する画像に変換すればよい。
本発明の画像処理装置が搭載された車両のシステム構成を示すブロック図。 図1に示した画像処理装置の処理手順を示したフローチャート。
符号の説明
1…車両、2R,2L…カメラ(撮像手段)、3…画像処理装置、10…画像取得部、11…視差算出部、12…オプティカルフロー算出部、13…トラッキング部、14…障害物判断部、22…車両制御ユニット

Claims (5)

  1. 撮像手段により撮像されたカラーの撮像画像から対象物を検出する画像処理装置であって、
    前記撮像画像を、少なくとも色相H(Hue)の成分が抽出された色相抽出画像に変換する色相抽出画像変換手段と、
    前記色相抽出画像のH成分のみにガボールフィルタを適用し、該ガボールフィルタ適用後の画像の位相に基づいて対象物を検出する対象物検出手段とを備えたことを特徴とする画像処理装置。
  2. 前記対象物検出手段は、前記撮像手段により時間的に連続して撮像された撮像画像を、前記色相抽出画像変換手段により変換した各色相抽出画像に対して、H成分のみにガボールフィルタを適用し、時間的に連続した該ガボールフィルタ適用後の各画像の位相に基づく各画像間の相関演算により、各画像の所定領域におけるオプティカルフローを求め、該オプティカルフローを用いて対象物を検出することを特徴とする請求項1記載の画像処理装置。
  3. 前記撮像手段として、撮像範囲を重複させて並設された第1の撮像手段及び第2の撮像手段とを有し、
    前記対象物検出手段は、同一時点で撮像された前記第1の撮像手段による第1の撮像画像及び前記第2の撮像手段による第2の撮像画像を、前記色相抽出画像変換手段によりそれぞれ変換した第1の色相抽出画像及び第2の色相抽出画像に対して、H成分のみにガボールフィルタを適用し、該ガボールフィルタ適用後の各画像の位相に基づく各画像間の相関演算により、該第1の撮像画像と該第2の撮像画像の対応する画素の視差を求め、該視差に基づく距離情報を用いて対象物を検出することを特徴とする請求項1又は請求項2記載の画像処理装置。
  4. 撮像手段により撮像されたカラーの撮像画像にアクセスする手段を有するコンピュータに、該撮像画像から対象物を検出する機能を実現させるためのプログラムであって、該コンピュータを、
    前記撮像画像を、色相H(Hue)の成分が抽出された色相抽出画像に変換する色相抽出画像変換手段と、
    前記色相抽出画像のH成分のみにガボールフィルタを適用し、該ガボールフィルタ適用後の画像の位相に基づいて対象物を検出する対象物検出手段として機能させることを特徴とする画像処理用プログラム。
  5. 撮像手段により撮像されたカラーの撮像画像にアクセスする手段を有するコンピュータによって、該撮像画像から対象物を検出する画像処理方法であって、
    前記コンピュータが、少なくとも色相H(Hue)の成分が抽出された色相抽出画像に変換する色相抽出画像変換ステップと、
    前記コンピュータが、前記色相抽出画像のH成分のみにガボールフィルタを適用し、該ガボールフィルタ適用後の画像の位相に基づいて対象物を検出する対象物検出ステップとを含むことを特徴とする画像処理方法。
JP2006291217A 2006-10-26 2006-10-26 画像処理装置 Expired - Fee Related JP4704998B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006291217A JP4704998B2 (ja) 2006-10-26 2006-10-26 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006291217A JP4704998B2 (ja) 2006-10-26 2006-10-26 画像処理装置

Publications (2)

Publication Number Publication Date
JP2008108118A true JP2008108118A (ja) 2008-05-08
JP4704998B2 JP4704998B2 (ja) 2011-06-22

Family

ID=39441409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006291217A Expired - Fee Related JP4704998B2 (ja) 2006-10-26 2006-10-26 画像処理装置

Country Status (1)

Country Link
JP (1) JP4704998B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013537661A (ja) * 2010-06-30 2013-10-03 タタ コンサルタンシー サービシズ リミテッド ステレオビジョン技術を使用することによる移動物体の自動検出
US9035964B2 (en) 2011-07-19 2015-05-19 Samsung Electronics Co., Ltd. Method and apparatus for obtaining lighting information and material information in image modeling system
JP2015138319A (ja) * 2014-01-21 2015-07-30 三菱電機株式会社 物体検出装置、物体検出方法、および物体検出プログラム
CN111445419A (zh) * 2020-04-09 2020-07-24 南京图格医疗科技有限公司 一种基于数学形态学的医学内窥镜图像增强方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07298249A (ja) * 1994-04-27 1995-11-10 Japan Radio Co Ltd 自動監視装置
JPH09226490A (ja) * 1996-02-22 1997-09-02 Nippon Soken Inc 横断物の検出装置
JP2003196664A (ja) * 2001-12-28 2003-07-11 Honda Motor Co Ltd 物体検出装置
JP2003304562A (ja) * 2002-04-10 2003-10-24 Victor Co Of Japan Ltd オブジェクト符号化方法、オブジェクト符号化装置、及びオブジェクト符号化用プログラム
JP2004054684A (ja) * 2002-07-22 2004-02-19 Honda Motor Co Ltd 物体検出装置及び方法
JP2004157932A (ja) * 2002-11-08 2004-06-03 Matsushita Electric Ind Co Ltd 物体認識装置および物体認識プログラム
JP2005078528A (ja) * 2003-09-02 2005-03-24 Honda Motor Co Ltd 物体検出装置及び方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07298249A (ja) * 1994-04-27 1995-11-10 Japan Radio Co Ltd 自動監視装置
JPH09226490A (ja) * 1996-02-22 1997-09-02 Nippon Soken Inc 横断物の検出装置
JP2003196664A (ja) * 2001-12-28 2003-07-11 Honda Motor Co Ltd 物体検出装置
JP2003304562A (ja) * 2002-04-10 2003-10-24 Victor Co Of Japan Ltd オブジェクト符号化方法、オブジェクト符号化装置、及びオブジェクト符号化用プログラム
JP2004054684A (ja) * 2002-07-22 2004-02-19 Honda Motor Co Ltd 物体検出装置及び方法
JP2004157932A (ja) * 2002-11-08 2004-06-03 Matsushita Electric Ind Co Ltd 物体認識装置および物体認識プログラム
JP2005078528A (ja) * 2003-09-02 2005-03-24 Honda Motor Co Ltd 物体検出装置及び方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013537661A (ja) * 2010-06-30 2013-10-03 タタ コンサルタンシー サービシズ リミテッド ステレオビジョン技術を使用することによる移動物体の自動検出
US9035964B2 (en) 2011-07-19 2015-05-19 Samsung Electronics Co., Ltd. Method and apparatus for obtaining lighting information and material information in image modeling system
JP2015138319A (ja) * 2014-01-21 2015-07-30 三菱電機株式会社 物体検出装置、物体検出方法、および物体検出プログラム
CN111445419A (zh) * 2020-04-09 2020-07-24 南京图格医疗科技有限公司 一种基于数学形态学的医学内窥镜图像增强方法

Also Published As

Publication number Publication date
JP4704998B2 (ja) 2011-06-22

Similar Documents

Publication Publication Date Title
JP4899424B2 (ja) 物体検出装置
US8005266B2 (en) Vehicle surroundings monitoring apparatus
US9811742B2 (en) Vehicle-surroundings recognition device
JP4173901B2 (ja) 車両周辺監視装置
JP4733756B2 (ja) 車両周辺監視装置
JP4612635B2 (ja) 低照度の深度に適応可能なコンピュータ視覚を用いた移動物体検出
JP4631096B2 (ja) 車両周辺監視装置
JP4410292B1 (ja) 車両の周辺監視装置
CN107273788B (zh) 在车辆中执行车道检测的成像系统与车辆成像系统
JP4173902B2 (ja) 車両周辺監視装置
JP4528283B2 (ja) 車両周辺監視装置
WO2010007718A1 (ja) 車両周辺監視装置
JP6617150B2 (ja) 物体検出方法及び物体検出装置
JP4704998B2 (ja) 画像処理装置
JP2008004989A (ja) 車両周囲表示装置
JP2008026999A (ja) 障害物検出システム、及び障害物検出方法
CN109923586B (zh) 停车框识别装置
JP4788399B2 (ja) 歩行者検出方法、装置、およびプログラム
US9030560B2 (en) Apparatus for monitoring surroundings of a vehicle
JP4627305B2 (ja) 車両周辺監視装置、車両周辺監視方法、及び車両周辺監視用プログラム
JP6677142B2 (ja) 駐車枠認識装置
JP2003322522A (ja) 車間距離検出装置及び検出方法
JP2008040724A (ja) 画像処理装置、及び画像処理方法
JP2012052884A (ja) 車載カメラを用いた測距装置
JP2024089320A (ja) 画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110218

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110310

LAPS Cancellation because of no payment of annual fees