JP2010224924A - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP2010224924A
JP2010224924A JP2009072148A JP2009072148A JP2010224924A JP 2010224924 A JP2010224924 A JP 2010224924A JP 2009072148 A JP2009072148 A JP 2009072148A JP 2009072148 A JP2009072148 A JP 2009072148A JP 2010224924 A JP2010224924 A JP 2010224924A
Authority
JP
Japan
Prior art keywords
pixel
image
group
image data
real space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009072148A
Other languages
English (en)
Other versions
JP5188430B2 (ja
Inventor
Toru Saito
徹 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Heavy Industries Ltd filed Critical Fuji Heavy Industries Ltd
Priority to JP2009072148A priority Critical patent/JP5188430B2/ja
Priority to US12/659,115 priority patent/US8498479B2/en
Priority to DE102010012262A priority patent/DE102010012262A1/de
Publication of JP2010224924A publication Critical patent/JP2010224924A/ja
Application granted granted Critical
Publication of JP5188430B2 publication Critical patent/JP5188430B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】画像データの情報量を有効に活用して、画像中の1つのグループとしてまとめるべき撮像対象を的確にグループ化することが可能な画像処理装置を提供する。
【解決手段】撮像手段2で撮像された画像Tを複数の領域rに分割する画像処理装置1において、画像T中の一の画素pi,jと隣接する画素pとの各画像データDの差分ΔDが第1閾値ΔDth未満である場合には一の画素pi,jを隣接する画素pとグループ化し、最終的に得られた各グループgをそれぞれの画像Tの各領域rとして画像Tを複数の領域rに分割する処理手段6と、一の画素pi,jを含むグループgにおける画像データDの平均値Daveを算出する平均値算出手段7とを備え、処理手段6は、一の画素pi,jの画像データDi,jと隣接する画素pが属するグループgの前記平均値Daveとの差分δDが第2閾値δDth以上である場合には一の画素pi,jと隣接する画素pとをグループ化しない。
【選択図】図1

Description

本発明は、画像処理装置に係り、特に、撮像された撮像対象に応じて画像を複数の領域に分割する画像処理装置に関する。
従来から、例えばCCD(Charge Coupled Device)カメラやCMOS(Complementary Metal Oxide Semiconductor)カメラ等で撮像した画像中から物体等の撮像対象を抽出する技術や、画像検索等のための画像圧縮技術、或いは画像中の特徴量等を計算するための技術として、同じような輝度等の画像データを有する画素をグループ化して画像を単純化する技術が知られている。
例えば、特許文献1に記載のカラー画像の領域分割方法では、RGB値で表された各画素の画像データから色相値(H)、明度値(L)および彩度値(S)を求め、例えば、1画素ごとに右画素、下画素との色相差や明度差、彩度差をそれぞれ算出し、全画素における色相差、明度差、彩度差の各平均値を算出して、その各平均値をHLS色空間の各軸方向の分割幅としてHLS色空間を分割する。
そして、分割されたHLS色空間の色空間分割領域に色分類番号を付し、各画素の色(H,L,S)に基づいて各画素を色分類番号でラベリングし、画像上で同じ色分類番号を有する画素群をグループ化して1つの領域とするように処理して、画像を領域分割するようになっている。特許文献1に記載のカラー画像の領域分割方法では、さらに、領域分割した各グループの情報やグループに属する画像データ等から、画像全体の色情報やテクスチャ情報、分割領域の大きさ、色情報、輪郭線の形状等を特徴量として抽出することが述べられている。
特開2000−67240号公報
ところで、特許文献1に記載された画像の領域分割方法のように、各画素における色相差の平均値等に基づいてHLS色空間等を分割し、色空間等の各分割領域に付された色分類番号等に基づいて各画素のグループ化を行う場合、例えば、画像中に撮像された同一の撮像対象に属する各画素であり、その色や明るさ等の画像データが互いに僅かに異なっているだけであっても、画素にラベリングされた色分類番号が異なれば、別のグループにまとめられてしまう。そのため、同一の撮像対象に属する各画素を同一のグループにまとめることができないといった問題が生じ得る。
また、逆に、画像中に複数の撮像対象が撮像されている境界部分で、互いに別の撮像対象に属する2つの画素が隣接している場合に、それらの画素にラベリングされた色分類番号が同一であれば、それらの画素が同じグループにまとめられてしまう。そのため、別の撮像対象に属する各画素を、別々のグループにまとめることができず、撮像対象を分離して抽出できないといった問題も生じ得る。
これは、特許文献1に記載された手法の場合に限らず、例えば画像情報の圧縮処理において各画素の画像データを有限個の離散情報に近似して量子化して同一の離散情報に近似される画像データを同一のグループにまとめるような場合にも発生し得る問題である。このように、各画素の画像データを予め一律に定められた分類のしかたで分類してグループ化しようとすると、例えば画像中に撮像された個々の撮像対象を、同一の物体等の撮像対象については1つのグループにまとめ、別の撮像対象については互いに異なるグループにまとめるといった的確なグループ化を必ずしも十分に行えない虞があった。
また、例えば画像情報の圧縮処理等では、モノクロ画像で撮像された各画素の例えば256の輝度階調の画像データや、カラー画像で撮像された各画素の256(R)×256(G)×256(B)=16777216種類の画像データを、例えば数種類或いは数十種類のデータに圧縮して処理するため、画像データの情報量が著しく低下してしまう。そのため、画像データがもともと有している豊富な情報量を有効に使うことができない虞もある。
さらに、特許文献1に記載された画像の領域分割方法のようなグループ化処理を行う場合、1画像分の全画素の画像データを取り込んだ後でなければ処理を行うことができず、処理に時間がかかり、例えば1秒間に数フレーム分或いは数十フレーム分の画像の画像データが取り込まれ、次々と処理を行わなければならないような場合に、処理が間に合わなくなる。そのため、画像処理のリアルタイム性が損なわれる虞もある。
本発明は、このような事情に鑑みてなされたものであり、画像データの情報量を有効に活用して、画像中に撮像された物体のように1つのグループとしてまとめるべき撮像対象を的確にグループ化することが可能な画像処理装置を提供することを目的とする。また、このグループ化をリアルタイムに行うことが可能な画像処理装置を提供することを目的とする。
前記の問題を解決するために、第1の発明は、
画像処理装置において、
撮像手段で撮像された画像を複数の領域に分割する画像処理装置であって、
前記画像中の一の画素とそれに隣接する画素との各画像データの差分が所定の第1閾値未満である場合には前記一の画素を前記隣接する画素とグループ化し、最終的に得られた各グループをそれぞれ前記画像の各領域として前記画像を複数の領域に分割する処理手段と、
前記一の画素を含む前記グループにおける前記画像データの平均値を算出する平均値算出手段と、
を備え、
前記処理手段は、さらに、前記一の画素の画像データと、前記隣接する画素が属する前記グループについて前記平均値算出手段で算出された前記平均値とを比較して、その差分が所定の第2閾値以上である場合には、前記一の画素と前記隣接する画素とをグループ化しないことを特徴とする。
第2の発明は、第1の発明の画像処理装置において、前記処理手段は、前記撮像手段から前記一の画素の画像データが送信されてくると、前記一の画素と同一の画像中の、前記一の画素より以前に前記画像データが送信された画素であって、前記一の画素に隣接する画素の前記画像データと、前記一の画素の画像データとを比較し、かつ、前記一の画素の画像データと、前記一の画素より以前に前記画像データが送信された前記隣接する画素が属する前記グループの前記平均値とを比較することを特徴とする。
第3の発明は、第1または第2の発明の画像処理装置において、前記処理手段は、隣接する前記画素の各画像データがいずれも所定の数値範囲内である場合には、前記一の画素と前記隣接する画素との各画像データの比較、および前記一の画素の画像データと前記グループの前記平均値との比較にかかわらず、前記画像データが前記数値範囲内にある前記隣接する画素同士を優先してグループ化することを特徴とする。
第4の発明は、第1から第3のいずれかの発明の画像処理装置において、前記処理手段は、隣接する前記画素の各画像データのうち、一方の画像データが所定の数値範囲内であり、他方の画像データが前記数値範囲外である場合には、前記一の画素と前記隣接する画素との各画像データの比較、および前記一の画素の画像データと前記グループの前記平均値との比較にかかわらず、前記隣接する画素同士をグループ化しないことを特徴とする。
第5の発明は、第1から第4のいずれかの発明の画像処理装置において、前記処理手段は、画像上で接していない2つの前記グループの画素間隔の最小値が所定の閾値以下であり、かつ、当該2つのグループの前記各平均値の差分が所定の閾値以下である場合には、当該2つのグループを1つのグループとして統合することを特徴とする。
第6の発明は、第1から第5のいずれかの発明の画像処理装置において、
前記撮像手段は、一対の画像を出力し、
前記撮像手段から出力された前記一対の画像に対してステレオマッチング処理を施して、前記一対の画像のうちの少なくとも一方の画像の画素に対応する実空間上の距離を検出する距離検出手段を備え、
前記処理手段は、前記一方の画像中の前記一の画素に対応する前記実空間上の距離と、前記一の画素に隣接する画素に対応する前記実空間上の距離との差分が、予め設定された閾値以上である場合には、前記一の画素と前記隣接する画素とをグループ化しないことを特徴とする。
第7の発明は、第6の発明の画像処理装置において、前記処理手段は、前記隣接する画素が属する前記グループに属する各画素に対応する前記実空間上の距離のうち前記一の画素に対応する前記実空間上の距離に最も近い前記実空間上の距離と、前記一の画素に対応する前記実空間上の距離との差分が前記閾値以上であるか否かを判定することを特徴とする。
第8の発明は、第6または第7の発明の画像処理装置において、前記処理手段は、前記隣接する画素が属する前記グループに属する各画素に対応する前記各実空間上の距離に基づいて前記各画素に対応する実空間上の各点の座標を算出し、前記各点の分布の傾きを算出し、前記傾きから推定される前記隣接する画素に対応する実空間上の距離と、前記一の画素に対応する前記実空間上の距離との差分が前記閾値以上であるか否かを判定することを特徴とする。
第9の発明は、第6から第8のいずれかの発明の画像処理装置において、
前記平均値算出手段は、前記グループに属する各画素に対応する前記実空間上の各距離の平均値、最大値、最小値のいずれかを算出し、
前記処理手段は、前記隣接する画素が属する前記グループについて前記平均値算出手段で算出された前記実空間上の距離の平均値、最大値、最小値のいずれかと、前記一の画素に対応する前記実空間上の距離とを比較して、その差分が所定の閾値以上である場合には、前記一の画素と前記隣接する画素とをグループ化しないことを特徴とする。
第10の発明は、第6から第9のいずれかの発明の画像処理装置において、
前記撮像手段で撮像された画像から道路面を検出する路面検出手段を備え、
前記処理手段は、前記グループに属する各画素に対応する前記実空間上の各距離に基づいて前記各画素に対応する実空間上の各点の高さを算出し、前記路面検出手段が検出した前記道路面からの前記各点の高さが、所定の閾値以上の高さである場合には、前記グループを道路面上に存在する立体物として認識し、前記所定の閾値未満の高さである場合には、前記グループを道路面上に標示されたパターンとして認識することを特徴とする。
第11の発明は、第10の発明の画像処理装置において、前記処理手段は、前記一の画素に対応する実空間上の点の前記道路面からの高さと、前記隣接する画素が属する前記グループに属する各画素に対応する前記実空間上の各点の前記道路面からの高さのうち、一方が前記所定の閾値未満であり、かつ、他方が前記所定の閾値以上である場合には、前記一の画素と前記隣接する画素とをグループ化しないことを特徴とする。
第12の発明は、第6から第11のいずれかの発明の画像処理装置において、前記処理手段は、画像上で接していない2つの前記グループに属する各画素に対応する実空間上の各点の2つの分布において、異なる分布に属する2点の実空間上の間隔の最小値が所定の閾値以下の場合で、かつ、最大値が前記閾値よりも大きな値に予め設定された閾値以下である場合には、当該2つのグループを1つのグループとして統合することを特徴とする。
第13の発明は、第12の発明の画像処理装置において、前記処理手段は、画像上で接していない2つの前記グループのうち、一方の前記グループに属する各画素に対応する前記実空間上の各点の前記道路面からの高さが前記所定の閾値以上であり、かつ、他方の前記グループに属する各画素に対応する前記実空間上の各点の前記道路面からの高さが前記所定の閾値未満の高さである場合には、当該2つのグループを統合しないことを特徴とする。
第1の発明によれば、画像データを圧縮処理する等せずに豊富な情報量を有効に使い、一の画素(注目画素)の画像データとそれに隣接する画素の画像データとの差分(エッジ強度)のみならず、一の画素の画像データと、それに隣接する画素が属するグループの各画素の画像データの平均値との差分(平均値差分)に基づいて、一の画素と隣接する画素とをグループ化するか否かを判定する。
そのため、画像データの情報量を有効に活用して、画像中に撮像された1つのグループとしてまとめるべき撮像対象(例えば1つの物体)が撮像された画素を的確にグループ化し、1つのグループとしてまとめるべきでない撮像対象(例えば異なる物体)が撮像された画素はグループ化しないようにして、画像を的確に複数の領域に分割することが可能となる。また、そのため、画像中から、撮像対象を的確に分離して抽出することが可能となる。
第2の発明によれば、前記発明の効果に加え、撮像手段から処理手段に各画素の画像データが順次入力される場合に、画像データの入力と同時並行で各処理を実施し、一の画素と、それが入力されるより以前に入力されている画像データとを比較するように構成することで、1画像分の全画素の画像データの入力を待たずに処理することが可能となり、グループ化の処理をリアルタイムに行うことが可能となる。
第3の発明によれば、画像中で、画像データが所定の数値範囲内にある領域を的確に他の領域から分離して抽出することが可能となる。そのため、信号機の点灯している信号灯や先行車両のテールランプ等の光源のように高輝度に撮像されている画像中の領域や、トンネル等のように低輝度に撮像されている画像T中の領域等のように、撮像対象がそれに特有の数値範囲の画像データとして撮像される場合に、画像データが特有の数値範囲内にある領域を画像中から優先して抽出して、それらの撮像対象を的確に抽出することが可能となり、前記各発明の効果がより有効に発揮される。
第4の発明によれば、撮像対象が特有の数値範囲の画像データとして撮像される場合、一の画素と隣接する画素の一方の画像データが上記の数値範囲内であり、他方の画像データが数値範囲外にある場合に、隣接する画素同士をグループ化しないことで、画像データが所定の数値範囲内にある画素のみを的確にグループ化することが可能となり、画像中で、画像データが所定の数値範囲内にある領域を的確に他の領域から分離して抽出することが可能となる。そのため、特有の数値範囲の画像データが撮像される撮像対象を的確に抽出することが可能となり、前記各発明の効果がより有効に発揮される。
第5の発明によれば、画像中に撮像されている1つの撮像対象に対応して1つの領域として抽出されるべき領域がノイズ等により複数の領域に分割されてしまうような場合に、ノイズ等の影響を排除して、分割された複数の領域を本来の1つの領域に統合することが可能となり、前記各発明の効果がより的確に発揮される。
第6の発明によれば、前記各発明の効果に加え、隣接する画素同士の画像データが近接していてグループ化できるような場合であっても、ステレオカメラにより撮像された一対の画像に対してステレオマッチング処理を施して画像の各画素ごとに算出された隣接する画素の実空間上の各距離が同一の撮像対象とは見なせない程度に離れている場合に、隣接する画素をグループ化しないことで、同一の撮像対象に対応する画素ではない画素同士をグループ化することが回避され、撮像対象の実空間上の位置を区別して、画像中から撮像対象を的確に分離して抽出することが可能となる。
第7の発明によれば、一の画素に隣接する画素に対応する実空間上の距離の情報が算出されていない場合などには、一の画素に対応する実空間上の距離と、隣接する画素が属するグループに属する各画素に対応する実空間上の各距離のうち、一の画素に対応する実空間上の距離に最も近い実空間上の距離との差分を算出し、それに基づいて判定処理を行うことで、前記第6の発明の効果を的確に発揮することが可能となる。
第8の発明によれば、隣接する画素が属するグループに属する各画素に対応する実空間上の各点の分布の、高さ方向に対する距離方向の傾きや水平方向に対する距離方向の傾き等の傾きを算出し、それに基づいて当該隣接する画素に対応する実空間上の距離を推定し、それと一の画素に対応する実空間上の距離との差分を算出することで、一の画素に隣接する画素に対応する実空間上の距離の情報が算出されていないような場合でも的確に判定処理を行うことが可能となり、前記各発明の効果が的確に発揮される。
第9の発明によれば、前記各発明の効果に加え、平均値算出手段で、一の画素を含むグループに属する各画素の画像データの平均値等を算出する際に、同時に、一の画素に対応する実空間上の距離を算出し、グループに属する各画素に対応する実空間上の各距離の平均値や最大値、最小値を算出しておくように構成することで、処理手段における演算負荷を軽減することが可能となる。
また、平均値算出手段が算出したグループに属する各画素に対応する実空間上の各距離の平均値や最大値、最小値を用いて、処理手段で、一の画素と隣接する画素とをグループ化するか否かの判定処理を行うことで、迅速に処理を行うことが可能となるとともに、判定処理を的確に行うことが可能となる。
第10の発明によれば、前記各発明の効果に加え、路面検出手段で道路面を検出し、道路面を基準として実空間上の高さが道路面よりも所定の閾値以上に高いグループを道路面上に存在する立体物として認識し、所定の閾値未満の高さであるグループを道路面上に標示されたパターンとして認識することで、立体物である撮像対象と道路面上に標示されたパターンである撮像対象とを異なる領域に分割し、的確に区別して抽出することが可能となる。
第11の発明によれば、立体物であると認識される画素やグループと、道路面上に標示されたパターンであると認識される画素やグループとをグループ化してしまうことが回避され、立体物である撮像対象と道路面上に標示されたパターンである撮像対象とを異なる領域に分割して的確に区別して抽出することが可能となり、前記第10の発明の効果が的確に発揮される。
第12の発明によれば、例えば実空間上の大きさが予め分かっている撮像対象に対応する各画素をグループ化する際、画像中に撮像されている当該撮像対象に対応して1つの領域として抽出されるべき領域がノイズ等により複数の領域に分割されてしまうような場合に、ノイズ等の影響を排除して、分割された複数の領域を本来の1つの領域に統合することが可能となり、前記各発明の効果がより的確に発揮される。
第13の発明によれば、前記第12の発明において、画像上で接していない2つのグループを統合する際、一方のグループが立体物である撮像対象と認識され、他方のグループが道路面上に標示されたパターンであると認識される場合に、当該2つのグループを統合しないようにすることで、立体物と道路面上に標示されたパターンとを的確に分離して抽出することが可能となり、前記第12の発明の効果がより的確に発揮される。
第1の実施形態に係る画像処理装置の構成を示すブロック図である。 撮像手段で撮像される画像の例を示す図である。 処理手段や平均値算出手段における処理手順を示すフローチャートである。 処理手段や平均値算出手段における処理手順を示すフローチャートである。 入力された一の画素と既に入力されている左に隣接する画素とを説明する図である。 一の画素と左に隣接する画素が属するグループの例とを説明する図である。 入力された一の画素と既に入力されている下に隣接する画素とを説明する図である。 一の画素と下に隣接する画素が属するグループの例とを説明する図である。 (A)2つの画素が一の画素の左および下に隣接するグループの例を説明する図であり、(B)一の画素が左に隣接する画素とグループ化されたため下に隣接する画素ともグループ化される例を説明する図である。 (A)一の画素の下に隣接する画素が属するグループと左に隣接する画素が属するグループが別のグループである例を説明する図であり、(B)2つのグループが一の画素とグループ化されて1つのグループになる例を説明する図である。 孤立した状態となったグループの例を説明する図である。 撮像手段により撮像された画像の具体例を示す写真である。 図12の画像が複数の領域に分割された具体例を示す写真である。 第2の実施形態に係る画像処理装置の構成を示すブロック図である。 距離検出手段のイメージプロセッサによるステレオマッチング処理を説明する図である。 作成された距離画像の例を示す図である。 基準画像の水平ライン上を探索して検出された車線候補点の例を説明する図である。 自車両の左右に検出された車線の例を説明する図である。 形成された車線モデルの例を説明する図であり、(A)はZ−X平面上の水平形状モデル、(B)はZ−Y平面上の道路高モデルを表す。 グループに属する各画素に対応する実空間上の各点をX−Z平面にプロットした例を説明する図である。 グループに属する各画素に対応する実空間上の各点をY−Z平面にプロットした例を説明する図である。 所定の方向に広がりを持つグループの例を説明する図である。
以下、本発明に係る画像処理装置の実施の形態について、図面を参照して説明する。
[第1の実施の形態]
第1の実施形態に係る画像処理装置1は、図1に示すように、主に撮像手段2と処理部5とで構成されている。撮像手段2は、本実施形態では、例えばCCDやCMOSセンサ等のイメージセンサが内蔵されたカメラ等の単眼の撮像手段が用いられているが、複数設けられた撮像手段のうちの単数または複数の撮像手段により撮像された単数または複数の画像に対して本発明に係る処理を施すように構成することも可能である。
なお、本実施形態では、撮像手段2を構成する図示しない各撮像素子によりモノクロ(白黒)の画像データDが取得されるようになっており、1つの撮像素子が画像中の1画素に対応する。また、本実施形態では、後述するように、撮像手段2の各撮像素子(すなわち各画素)ごとに撮像された各画像データDを、変換手段3でそれぞれ例えば256階調のグレースケールの輝度としてのデジタル値の画像データDに変換する場合について説明する。しかし、本発明はこれに限定されず、撮像手段2の各撮像素子で例えばRGB値等で表されるカラーの画像データを撮像する場合についても本発明が適用される。
また、本実施形態では、撮像手段2は、例えば図2に示すような画像Tを撮像する場合、画像Tの各水平ラインjの最も左側の撮像素子から順に右方向に走査し、また、走査する水平ラインjを最も下側のラインから順に上方に切り替えながら撮像するようにして、各撮像素子で撮像された順に各画像データDを変換手段3に順次送信するようになっている。
変換手段3は、A/Dコンバータで構成されており、撮像手段2で各撮像素子(各画素)ごとに撮像された各画像データDが順次送信されてくると、各画像データDをそれぞれデジタル値の画像データDに変換して画像補正部4に出力するようになっている。画像補正部4は、送信されてきた各画像データDに対してずれやノイズの除去、輝度の補正等の画像補正を順次行い、画像補正した各画像データDを処理部5に順次送信するようになっている。
処理部5は、本実施形態では、図示しないCPU(Central Processing Unit)やROM(Read Only Memory)、RAM(Random Access Memory)、入出力インターフェース等がバスに接続されたコンピュータで構成されている。処理部5は、処理手段6や平均値算出手段7を備えているが、さらに、他の処理を行うように構成することも可能である。
処理手段6は、本実施形態では、上記のように各撮像素子(各画素)の画像データDが順次送信されてくると、隣接する画素同士の各画像データDを比較し、また、一の画素の画像データDと、後述するように隣接する画素が属するグループに属する各画素の各画像データDについて平均値算出手段7で算出された平均値とを比較して、当該隣接する画素同士をグループ化するか否かを判定するようになっている。
そして、処理手段6は、このように、画像T中でグループ化可能な隣接画素同士をグループ化していき、画像Tの全画素について処理を終了した時点で、最終的に得られた各グループをそれぞれ画像Tの各領域とすることで、画像Tを複数の領域に分割するようになっている。
以下、この処理手段6や平均値算出手段7を含む処理部5での処理を、図3および図4に示すフローチャートに従って説明する。
なお、本実施形態では、前述したように、撮像手段2から各撮像素子(各画素)の画像データDが順次出力され、変換手段3や画像補正部4でそれぞれ処理が行われ、処理された各画像データDが、順次、処理部5に送信されるが、処理部5では、各画像データDが順次入力するのと同時並行的に以下の処理が行われる。このように構成することで、1画像分の全画素の画像データDの入力を待たず処理することが可能となるため、グループ化の処理をリアルタイムに行うことが可能となる。
また、以下の説明では、例えば図2に示した画像Tにおける画素について、画像Tの左下隅の画素を原点とし、右向きにi軸、上向きにj軸をとった場合の画素の座標(i,j)を用いて、画素pi,jのように表す。また、画素pi,jの画像データDをDi,jのように表す。
処理部5における処理では、まず、撮像手段2により撮像が開始されると(図3のステップS1)、処理手段6は、iおよびjの値をそれぞれ0に設定する(ステップS2)。前述したように、撮像手段2で撮像された水平ライン0(すなわちj座標が0の各画素からなる水平ラインj)上の左端の画素p0,0(すなわち原点の画素)の画像データD0,0の処理部5への入力が開始されると(ステップS3)、続いて、画素p1,0、p2,0、p3,0、…の画像データD1,0、D2,0、D3,0、…が順次入力される。
そして、処理手段6は、水平ラインjの右端の画素まで処理を完了していなければ(ステップS4;NO)、i座標を1ずつインクリメントして(ステップS5)、注目する一の画素(以下、注目画素という。)を水平ラインj上の右隣の画素に移動させながら(ステップS6)、処理を続ける。
また、水平ラインjの右端の画素まで処理を完了すると(ステップS4;YES)、画像Tの最上段の水平ラインまで処理が終了していなければ(ステップS7;NO)、処理を行う水平ラインjを1行上方の水平ラインj+1に移行させ、注目画素のi座標を0に設定して(ステップS8)、画素p0,j+1を注目画素として(ステップS6)処理を行い、注目画素を画素p0,j+1から順に右側に移動させながら処理を続行する。
次に、注目画素を画素pi,jに設定(ステップS6)した後の処理手段6における処理(図4のステップS9以降)について説明する。
処理手段6は、まず、注目画素pi,jと、図5に示すように注目画素pi,jが入力されるより以前に入力されていて注目画素pi,jの左に隣接する画素pi-1,jについて、下記の条件1や条件2を満たすか否かの判定を行う(ステップS9)。
[条件1]注目画素pi,jの画像データDi,jと、左に隣接する画素pi-1,jの画像データDi-1,jとの差分ΔDleft(i,j)、すなわち、
ΔDleft(i,j)=|Di,j−Di-1,j| …(1)
が、予め設定された第1閾値ΔDth未満である。なお、以下、上記のような隣接する画素間の画像データDの差分ΔDをエッジ強度という。
[条件2]図6に示すように、注目画素pi,jの画像データDi,jと、左に隣接する画素pi-1,jが属するグループgに属する各画素の画像データDの平均値Dave-leftとの差分δDleft(i,j)、すなわち、
δDleft(i,j)=|Di,j−Dave-left| …(2)
が、予め設定された第2閾値δDth未満である。
なお、以下、上記のように、注目画素pi,jの画像データDi,jと、隣接する画素が属するグループgの画像データDの平均値Daveとの差分δDを平均値差分という。また、グループgに属する各画素の画像データDの平均値Daveは、後述するように、平均値算出手段7で算出される(ステップS16参照)。さらに、左に隣接する画素pi-1,jが属するグループgが当該左に隣接する画素pi-1,jのみで構成されている場合もあり、その場合、グループgに属する各画素の画像データDの平均値Dave-leftは、当該左に隣接する画素pi-1,jの画像データDi-1,jに等しい。
処理手段6は、条件1と条件2をともに満たすと判定した場合には(ステップS9;YES)、ステップS10の判定処理に進み、条件1と条件2の少なくとも一方を満たさないと判定した場合には(ステップS9;NO)、ステップS13の判定処理に進む。なお、上記の第1閾値ΔDthと第2閾値δDthとは同じ値に設定されても異なる値に設定されてもよく、それらの閾値の値は適宜設定される。
処理手段6は、ステップS9の判定処理で、条件1と条件2をともに満たすと判定すると(ステップS9;YES)、続いて、注目画素pi,jと、図7に示すように注目画素pi,jが入力されるより以前に入力されていて注目画素pi,jの下に隣接する画素pi,j-1について、上記と同様に、下記の条件3や条件4を満たすか否かの判定を行う(ステップS10)。
[条件3]注目画素pi,jの画像データDi,jと、下に隣接する画素pi,j-1の画像データDi,j-1とのエッジ強度ΔDlower(i,j)、すなわち、
ΔDlower(i,j)=|Di,j−Di,j-1| …(3)
が、予め設定された前述した第1閾値ΔDth未満である。
[条件4]図8に示すように、注目画素pi,jの画像データDi,jと、下に隣接する画素pi,j-1が属するグループgに属する各画素の画像データDの平均値Dave-lowerとの平均値差分δDlower(i,j)、すなわち、
δDlower(i,j)=|Di,j−Dave-lower| …(4)
が、予め設定された前述した第2閾値δDth未満である。
なお、この場合も、下に隣接する画素pi,j-1が属するグループgが当該下に隣接する画素pi,j-1のみで構成されている場合もあり、その場合、グループgに属する各画素の画像データDの平均値Dave-lowerは、当該下に隣接する画素pi,j-1の画像データDi,j-1に等しい。
そして、処理手段6は、条件3と条件4の少なくとも一方を満たさないと判定した場合には(ステップS10;NO)、注目画素pi,jを、下に隣接する画素pi,j-1とはグループ化しないが、ステップS9の判定処理で上記の条件1と条件2を満たすと判定しているため、注目画素pi,jを左に隣接する画素pi-1,jとグループ化する(ステップS11)。
その際、例えば図5に示したように、左に隣接する画素pi-1,jが他の画素とグループ化されていなければ、注目画素pi,jと左に隣接する画素pi-1,jがグループ化されて、左右に隣接する2つの画素からなるグループが新たに形成される。また、例えば図6に示したように、左に隣接する画素pi-1,jが他の画素とグループ化されていてグループgに属していれば、注目画素pi,jがグループgに追加されるようにグループ化され、グループgが注目画素pi,jの分だけ1画素分拡大する。
なお、左に隣接する画素pi-1,jが属するグループgが例えば図9(A)に示すような形状である場合に、ステップS10の判定処理で、条件3と条件4の少なくとも一方を満たさないと判定されて(ステップS10;NO)、注目画素pi,jが下に隣接する画素pi,j-1とグループ化されない場合でも、図9(B)に示すように、注目画素pi,jが左に隣接する画素pi-1,jとグループ化されることで(ステップS11)、結果的に、注目画素pi,jが下に隣接する画素pi,j-1とグループ化される場合もある。
次に、処理手段6は、ステップS10の判定処理で、条件3と条件4をともに満たすと判定した場合には(ステップS10;YES)、注目画素pi,jを、下に隣接する画素pi,j-1および左に隣接する画素pi-1,jとグループ化する(ステップS12)。
その際、例えば図7に示したように、下に隣接する画素pi,j-1や左に隣接する画素pi-1,jがともに他の画素とグループ化されていなければ、注目画素pi,jと下に隣接する画素pi,j-1と左に隣接する画素pi-1,jがグループ化されて3つの画素からなるグループが新たに形成される。また、例えば図6や図8に示したように、下に隣接する画素pi,j-1または左に隣接する画素pi-1,jのいずれか一方が他の画素とグループ化されていてグループgに属していれば、注目画素pi,jとグループgに属していない方の画素とがグループgに追加されるようにグループ化されて、グループgが2画素分拡大する。
また、例えば図10(A)に示すように、左に隣接する画素pi-1,jがグループg1に属し、下に隣接する画素pi,j-1が他のグループg2に属している場合、注目画素pi,jを下に隣接する画素pi,j-1および左に隣接する画素pi-1,jとグループ化すると(ステップS12)、図10(B)に示すように、注目画素pi,jを介してグループg1とグループg2とがグループ化されて1つのグループgとなる。
一方、処理手段6は、ステップS9の判定処理で、条件1と条件2の少なくとも一方を満たさないと判定した場合には(ステップS9;NO)、ステップS13の判定処理に進み、上記と同様に、条件3や条件4を満たすか否かの判定を行う(ステップS13)。
そして、処理手段6は、条件3と条件4をともに満たすと判定した場合には(ステップS13;YES)、ステップS9の判定処理で条件1と条件2の少なくとも一方を満たさないと判定しているため(ステップS9;NO)、注目画素pi,jを、左に隣接する画素pi-1,jとはグループ化せず、下に隣接する画素pi,j-1のみとグループ化する(ステップS14)。
その際、注目画素pi,jを下に隣接する画素pi,j-1とグループ化すると(ステップS14)、結果的に、左に隣接する画素pi-1,jとグループ化される場合があることは、図9(A)、(B)に示したケースから容易に類推される。
処理手段6は、ステップS11、S12、S14の処理で、注目画素pi,jを隣接する画素とグループ化すると、拡大したグループgの画素数を更新し、グループgの左端、右端の画素の各座標や上端、下端の画素の各座標に変更があれば更新する。また、例えば図10(B)に示したように、複数のグループがグループ化されて1つのグループとされた場合には、1つにグループ化されたグループgのグループ番号を、グループ化の対象となった複数のグループの各グループ番号のうちの例えば最も小さい番号を選択して更新する(ステップS15)。
また、平均値算出手段7は、注目画素pi,jを追加して拡大したグループgや、複数のグループをグループ化して1つとしたグループgに属する各画素の画像データDの平均値Daveを算出して更新する(ステップS16)。
処理手段6は、ステップS15の処理を終了し、平均値算出手段7によりグループgに属する各画素の画像データDの平均値Daveが算出され更新されると(ステップS16)、ステップS4の判定処理以降の処理を続行する。
一方、処理手段6は、ステップS13の判定処理で、条件3と条件4の少なくとも一方を満たさないと判定した場合には(ステップS13;NO)、注目画素pi,jを、左に隣接する画素pi-1,jとも下に隣接する画素pi,j-1ともグループ化せず、注目画素pi,jのみが属する新たなグループとして登録する(ステップS17)。
そして、処理手段6は、この新規のグループに新たなグループ番号を付し、グループの画素数を1とし、左右端、上下端の画素の各座標をそれぞれ注目画素pi,jの座標(i,j)として記録する。また、平均値算出手段7は、この新規のグループの画像データDの平均値Daveとして、当該注目画素pi,jの画像データDi,jを記録する。
また、処理手段6は、ステップS13の判定処理で条件3と条件4の少なくとも一方を満たさないと判定し(ステップS13;NO)、注目画素pi,jを下に隣接する画素pi,j-1とグループ化しなかった結果、今後の処理で新たな画素が追加される可能性がなくなり、画像T上で孤立した状態となったグループgが発生したか否かを判定する(ステップS18)。
例えば、図8に示したグループgの場合、今後の処理で、注目画素が同じ水平ラインj上のさらに右側に設定された際に注目画素がグループgに追加される可能性がある。また、例えば図6に示したグループgの場合、今後の処理で、処理される水平ラインjが1行上方の水平ラインj+1に移行した際に注目画素がグループgに追加される可能性がある。そのため、これらのグループgは、画像T上で孤立した状態にはなっていない。
しかし、例えば、図11に示すようなグループgの場合、今後の処理で、注目画素が同じ水平ラインj上のさらに右側に設定されても、或いは、処理される水平ラインjが1行上方の水平ラインj+1に移行されても、もはや注目画素がグループgに追加される可能性はない。そのため、図11に示したようなグループgが、画像T上で孤立した状態となったグループgとなる。
処理手段6は、このように、画像T上で孤立した状態となったグループgが発生したと判定すると(ステップS18;YES)、続いて、そのグループgに属する全画素の画素数が予め設定された閾値以下か否かを判定し(ステップS19)、画素数が閾値以下であると判定すると(ステップS19;YES)、そのグループgを登録されたグループの中から削除する(ステップS20)。このような画素数が小さい孤立したグループは、画像T中に生じたノイズ等のように無視してよいグループであるからである。
また、処理手段6は、孤立したグループgが発生していないと判定した場合や(ステップS18;NO)、孤立したグループgが発生してもその画素数が閾値より多く、比較的大きなグループである場合には(ステップS19;NO)には、そのグループgを登録されたグループの中から削除せず、ステップS4の判定処理以降の処理を続行する。
そして、水平ラインjの右端の画素まで処理を完了し(図3のステップS4;YES)、画像Tの最上段の水平ラインまで処理が終了すると(ステップS7;YES)、処理手段6は、最終的に得られた各グループをそれぞれ画像Tの各領域として(ステップS21)、画像Tを複数の領域に分割する。
処理手段6は、画像Tの1画像分の処理を終了すると、画像Tの各画素pi,jの各画像データDi,jを図示しない記憶手段に保存するとともに、各領域(グループ)に属する各画素の各座標(i,j)や画素数、左右端の画素の各座標、上下端の画素の各座標、領域(グループ)の画像データDの平均値Dave等の情報を、画像Tと対応付けて、画像Tの各画像データDi,j等とともに記憶手段に保存する。また、必要に応じてそれらの情報を外部に出力する。
また、その際、例えば、各領域の左右端の画素位置の中間点をi座標とし、上限端の画素位置の中間点をj座標とする中心点を各領域ごとに算出し、上記の各情報とともに記憶手段に保存するとともに、必要に応じて外部に出力するように構成することも可能である。
次に、本実施形態に係る画像処理装置1の作用について説明する。
処理手段6により、注目画素pi,jと左や下に隣接する画素pi-1,j、pi,j-1とグループ化するか否かが決める際、前述した特許文献1に記載された画像の領域分割方法や従来の画像情報の圧縮処理等における手法では、予め一律に定められた分類のしかたで各画素pの画像データDを分類し、その分類に従ってグループ化するか否かを決定した。そのため、隣接する画素pの各画像データDの差異が僅かであっても、各画像データDが異なる分類に属する場合には、隣接する画素p同士を1つのグループにまとめることができない。
そのため、例えば、画像T中に物体等の同一の撮像対象が撮像されていても、隣接する画素pの各画像データDが僅かに異なっているために同一の撮像対象が撮像された領域が複数の領域に分割される場合があった。
また、逆に、画像T中に複数の撮像対象が撮像されていて、その境界部分で、互いに別の撮像対象に属する2つの画素が隣接している場合に、各画素pの画像データDが同じ分類であるとそれらの画素が1つのグループにまとめられてしまい、撮像対象を分離して抽出できない場合があった。
しかし、本実施形態に係る画像処理装置1では、予め一律に定められた分類の基準が設けられておらず、前述したように、処理手段6により、上記の条件1や条件3に従って、注目画素pi,jの画像データDi,jと左や下に隣接する画素pi-1,j、pi,j-1の画像データDi-1,j、Di,j-1とが比較され、それらのエッジ強度ΔDに基づいて隣接する画素同士をグループ化するか否かが決められる。
そのため、隣接する画素pの各画像データDの差異が僅かであれば、隣接する画素p同士を1つのグループにまとめることが可能となり、例えば、同一の撮像対象が撮像されている画像T中の領域内で、隣接する画素pの各画像データDが僅かに異なっても、同一の撮像対象が撮像された領域を1つの領域にグループ化して抽出することが可能となる。
また、CCDカメラ等の撮像手段2で撮像された画像Tでは、特に、1つの撮像対象と他の撮像対象との境界部分において、当該1つの撮像対象が撮像されている領域の辺縁部分の画素pと、その画素pに隣接する画素であるが他の撮像対象が撮像されている領域内にあり、当該1つの撮像対象が撮像されている領域には含めるべきではない画素との間で、画像データDの差異が僅かになる場合がある。
そして、このような場合に、上記の条件1や条件3のみに従って隣接する画素同士をグループ化してしまうと、1つの撮像対象に対応すべき領域が、他の撮像対象が撮像されている領域にまで拡大していき、個々の撮像対象が撮像された画像T上の領域を別々の領域に分割することができなくなる。
しかし、本実施形態に係る画像処理装置1では、上記の条件1や条件3だけでなく、条件2や条件4のように、注目画素pi,jと、左や下に隣接する画素pi-1,j、pi,j-1が属するグループgとの間で平均値差分δDを算出し、それに基づいて隣接する画素同士をグループ化するか否かを決定する。
このように構成すれば、隣接する画素同士の各画像データDの差異が僅かであり、画像T内の限定された局所における画像データDの差異が僅かであっても(すなわち、上記の条件1や条件3が満たされる場合であっても)、注目画素pi,jの画像データDi,jが、隣接する画素が属するグループg、すなわち、画像T中で比較的大きな画素数を有する一定の領域(グループgに相当する。)の画像データDの平均値Daveと有意に異なる値である場合には(すなわち、上記の条件2や条件4が満たされない場合には)、隣接する画素同士がグループ化されることが回避される。
そのため、1つの撮像対象に対応すべき領域が、他の撮像対象が撮像されている領域にまで拡大していくことが防止され、個々の撮像対象が撮像された画像T上の領域を、別々の領域に分割して的確に抽出することが可能となる。
さらに、本実施形態の画像データDのように、例えば256の輝度階調で表された画像データを、圧縮処理等せずに上記の条件1〜条件4の判定等に用いることで、画像データDが有する情報量を低下させることなく豊富な情報量を有効に使って判定を行うことが可能となり、隣接する画素同士をグループ化するか否かの判定を精密に行うことが可能となる。
そのため、例えば図12に示すように撮像された画像Tに対して本実施形態に係る画像処理装置1で画像処理を行うと、図13に示すように、複数の撮像対象が撮像された画像Tにおいて、1つの撮像対象の同じような輝度部分を的確に領域rに分割して抽出し、また、同じような輝度であっても異なる撮像対象については的確に領域rを分離して抽出することが可能となる。画像データを圧縮処理する等して情報量を低下させると、このように撮像対象を的確に分離して抽出することが困難になる。
なお、図13では、分割された各領域が濃淡を付して示されており、また、上記のステップS20の処理でグループgの登録を削除された各画素が黒く表現されている。
以上のように、本実施形態に係る画像処理装置1によれば、画像データを圧縮処理する等せずに豊富な情報量を有効に使い、注目画素(一の画素)pi,jの画像データDi,jとそれに隣接する画素pi-1,j、pi,j-1の画像データDi-1,j、Di,j-1との差分(エッジ強度)ΔDのみならず、注目画素pi,jの画像データDi,jと、それに隣接する画素pi-1,j、pi,j-1が属するグループgの各画素の画像データDの平均値Daveとの差分(平均値差分)δDに基づいて、注目画素(一の画素)pi,jと隣接する画素pi-1,j、pi,j-1とをグループ化するか否かを判定するように構成した。
そのため、画像データDの情報量を有効に活用して、画像T中に撮像された撮像対象のように、1つのグループとしてまとめるべき撮像対象(例えば1つの物体)が撮像された画素を的確にグループ化し、1つのグループとしてまとめるべきでない撮像対象(例えば異なる物体)が撮像された画素はグループ化しないようにして、画像Tを的確に複数の領域に分割することが可能となる。また、そのため、画像T中から、撮像対象を的確に分離して抽出することが可能となる。
また、本実施形態のように、撮像手段2から処理手段6に各画素pの画像データDが順次入力される場合に、画像データDの入力と同時並行で各処理を実施し、注目画素(一の画素)pi,jと、それが入力されるより以前に入力されている画像データDとを比較するように構成すれば、1画像分の全画素の画像データDの入力を待たずに入力と同時並行で処理を行うことが可能となるため、グループ化の処理をリアルタイムに行うことが可能となる。
なお、本実施形態では、撮像手段2から、例えば図2に示した画像Tの同一の水平ラインj上では左端の画素から順に各画素pの画像データDが出力され、また、最も下側の水平ラインjから順に上方に切り替えながら画像データDが出力されるように構成されているため、注目画素(一の画素)pi,jと比較される隣接する画素pを、先に入力されている左に隣接する画素pi-1,jや下に隣接する画素pi,j-1に設定したが、撮像手段2からの各画像データDの送信順に従って比較される隣接する画素pが設定されることは言うまでもない。
また、グループ化の処理にリアルタイム性が要求されない場合には、1画像分の全画素の画像データDが入力された後にグループ化の処理を行うように構成することも可能である。その場合には、注目画素(一の画素)pi,jと比較される隣接する画素pの設定のしかたが予め定められ、それに従って、上記の本実施形態と同様の処理が行われる。
さらに、本実施形態の画像処理装置1が、例えば車両に搭載されて用いられるような場合には、図12や図13に示したように、画像T中に先行車両や道路面、車線等が撮像されている領域を有効に分割して抽出することが可能となる。
また、このような場合に、さらに、信号機の点灯している信号灯や先行車両のテールランプ等の光源のように高輝度に撮像されている画像T中の領域や、反対に、トンネル等のように低輝度に撮像されている画像T中の領域等のように、撮像対象がそれに特有の輝度範囲の画像データとして撮像される場合、画像データが特有の数値範囲内にある領域を画像T中から優先して抽出すれば、それらの撮像対象を的確に抽出することが可能となり、さらに有効なものとなる。
そこで、例えば、図3および図4に示したフローチャートにおいて、注目画素を画素pi,jに設定した時点(ステップS6)で、注目画素(一の画素)pi,jの画像データDi,jや、注目画素pi,jの左や下に隣接する画素pi-1,j、pi,j-1の画像データDi-1,j、Di,j-1がいずれも所定の数値範囲内である場合には、続くステップS9の判定処理以降の各処理を行う前に、前記数値範囲内にある注目画素pi,jや隣接する画素pi-1,j、pi,j-1同士を優先してグループ化するように構成することが可能である。
すなわち、上記の信号灯やテールランプ等の光源のように、高輝度に撮像されている領域を抽出する場合には、上記の数値範囲は、例えば輝度が200以上の数値範囲として設定され、また、上記のトンネル等のように、低輝度に撮像されている領域を抽出する場合には、上記の数値範囲は、例えば輝度が50以下の数値範囲として設定される。また、数値範囲を、上限と下限とで区画された数値範囲として設定することも可能である。
また、上記のように、注目画素(一の画素)pi,jの画像データDi,jや左や下に隣接する画素pi-1,j、pi,j-1の画像データDi-1,j、Di,j-1が所定の数値範囲内である場合に、それらの隣接する画素同士を優先してグループ化するように構成する際に、逆に、隣接する画素pの各画像データDのうち、一方の画像データDが所定の数値範囲内であり、他方の画像データDが数値範囲外である場合には、それらの隣接する画素同士をグループ化しないように構成することが好ましい。
このように構成すれば、画像データDが所定の数値範囲内にある画素pのみを的確にグループ化し、画像データDが所定の数値範囲内にない画素pとはグループ化されないようにすることが可能となり、画像T中で、画像データDが所定の数値範囲内にある領域を的確に他の領域から分離して抽出することが可能となる。
一方、前述したように、本実施形態では、条件1〜条件4が満たされない場合には、隣接する画素同士をグループ化することなく的確に分割することが可能となるが、そのために、逆に、画像Tにノイズ等が入ると、例えば画像T中に撮像されている1つの撮像対象に対応して1つの領域として抽出されるべき領域が、そのノイズ等により複数の領域に分割されてしまう場合がある。
この問題を解消するためには、例えば、画像T上で接していない2つのグループg1、g2の画素間隔の最小値、すなわち2つのグループg1、g2の辺縁部分同士を直線で結んだ場合にその直線上に並ぶ画素数の最小値が、所定の閾値以下であって近接しており、かつ、当該2つのグループg1、g2に属する各画素の画像データDの各平均値の差分が所定の閾値以下であってさほど差がない場合には、当該2つのグループg1、g2を1つのグループgとして統合するように構成することが可能である。
また、本実施形態では、画像データDとして、モノクロで、例えば256階調等のグレースケールに変換された輝度の画像データDを用いる場合について説明したが、前述したように、本発明はこれに限定されず、例えばRGB値で表されるカラーの画像データを用いることも可能である。
その際、各画素pの画像データDを一般的に(R,G,B)と表し、特に注目画素pi,jの画像データDを(Ri,j,Gi,j,Bi,j)、注目画素pi,jに隣接する画素の画像データDを(R,G,B)と表す場合、例えば、上記の条件1や条件3における注目画素pi,jと隣接する画素pとの間のエッジ強度ΔD(i,j)を、例えば、
ΔD(i,j)=|Ri,j−R|+|Gi,j−G|+|Bi,j−B| …(5)
で算出することが可能である。
また、上記の条件2や条件4における注目画素pi,jの画像データDi,jと隣接する画素pが属するグループgに属する各画素の画像データDの平均値Daveとの平均値差分δD(i,j)を、例えば、
δD(i,j)=|Ri,j−ΣR/n|+|Gi,j−ΣG/n|+|Bi,j−ΣB/n|
…(6)
で算出するように構成することが可能である。
なお、上記(6)式において、Σはグループgに属する全画素についての総和を表し、nはグループgの画素数を表す。また、平均値算出手段7は、図4のステップS16の処理において、グループgに属する各画素の画像データDの平均値Daveを算出する際、平均値Daveを(ΣR/n,ΣG/n,ΣB/n)の形で算出して更新する。
このように構成すれば、上記の本実施形態に係る画像処理装置1のように、モノクロの画像データDを用いる場合と同様の有効な効果を奏することが可能となるとともに、最終的に得られた各グループに対応する画像T中の各領域に、対応するグループに属する各画素の画像データDの平均値Dave(ΣR/n,ΣG/n,ΣB/n)で表される色情報をそれぞれ対応付けることで、画像T中の各領域を色情報で把握したり分類したりすることが可能となる。
また、各領域に色情報に基づいて、各領域に対応する撮像対象の色を特定したり、その撮像対象自体(例えば、信号機の点灯している信号灯が赤信号か黄信号か青信号か等)を特定したりすることも可能となる。
[第2の実施の形態]
上記の第1の実施形態に係る画像処理装置1では、画像Tにおける画素pの輝度等の画像データDのみに基づいて注目画素(一の画素)pi,jを隣接する画素pとグループ化するか否かを判定する場合について説明したが、さらに、撮像手段2としてステレオカメラを用い、撮像された一対の画像に対してステレオマッチング処理を施して画像の各画素ごとに実空間上の距離の情報を持たせるように構成すれば、注目画素(一の画素)pi,jを隣接する画素pとグループ化するか否かを判定する際に実空間上の距離の情報を加味して判定することが可能となる。
そして、実空間上の距離の情報をも加味してグループ化の判定を行うように構成することで、画像を複数の領域に分割する際に、画像中に撮像された個々の撮像対象の実空間上の位置を区別して領域に分割することが可能となり、より的確に個々の撮像対象を区別して分割することが可能となる。第2の実施形態では、このように構成された画像処理装置10について説明する。
なお、以下では、画像処理装置10を自動車等の車両に搭載し、自車両の前方を走行する先行車両等の撮像対象を撮像する場合について説明するが、これに限定されず、種々の用途に用いることができる。
本実施形態に係る画像処理装置10は、図14に示すように、第1の実施形態における画像処理装置1(図1参照)と同様に、撮像手段2や変換手段3、画像補正部4、処理手段6や平均値算出手段7を有する処理部5等を備えて構成されるが、さらに、イメージプロセッサ12等を有する距離検出手段11等を備えている。
なお、イメージプロセッサ12等を含む処理部5の上流側の構成については、本願出願人により先に提出された特開2006−72495号公報等に詳述されており、構成の詳細な説明はそれらの公報に委ねる。以下、簡単に説明する。
本実施形態では、撮像手段2は、互いに同期が取られたCCDやCMOSセンサ等のイメージセンサがそれぞれ内蔵され、例えば車両のルームミラー近傍に車幅方向に所定の間隔をあけて取り付けられた一対のメインカメラ2aおよびサブカメラ2bからなるステレオカメラであり、所定のサンプリング周期で撮像して、一対の画像を出力するように構成されている。
一対のカメラのうち、メインカメラ2aは運転者に近い側のカメラであり、例えば図2に示したような画像Tを撮像するようになっている。なお、以下では、このメインカメラ2aで撮像された画像Tについて各画素pのグループ化の処理等を行う場合について説明する。また、サブカメラ2bで撮像された画像と区別するために、以下、メインカメラ2aで撮像された画像Tを基準画像T、サブカメラ2bで撮像された画像を比較画像という。
なお、本実施形態においても、撮像手段2のメインカメラ2aおよびサブカメラ2bでは、それぞれモノクロの画像データDが取得されるようになっているが、RGB値等で表されるカラーの画像データを撮像する撮像手段を用いることも可能であり、その場合についても本発明が適用される。
また、本実施形態においても、撮像手段2のメインカメラ2aおよびサブカメラ2bで図2に示したような基準画像Tや比較画像を撮像する場合、基準画像T等の各水平ラインjの最も左側の撮像素子から順に右方向に走査し、また、走査する水平ラインjを最も下側のラインから順に上方に切り替えながら撮像するようにして、各撮像素子で撮像された順に基準画像Tと比較画像の各画像データDがそれぞれ変換手段3に順次送信されるようになっている。
変換手段3は、一対のA/Dコンバータ3a、3bで構成されており、撮像手段2のメインカメラ2aおよびサブカメラ2bで各撮像素子(各画素)ごとに撮像された基準画像Tと比較画像の各画像データDがそれぞれ順次送信されてくると、各画像データDをそれぞれ例えば256階調のグレースケールの輝度としてのデジタル値の画像データDに変換して画像補正部4に出力するようになっている。
画像補正部4は、送信されてきた基準画像Tと比較画像の各画像データDに対してずれやノイズの除去、輝度の補正等の画像補正をそれぞれ順次行い、画像補正した基準画像Tと比較画像の各画像データDを画像データメモリ14に順次格納するとともに、処理部5に順次送信するようになっている。また、画像補正部4は、画像補正した基準画像Tと比較画像の各画像データDを距離検出手段11にも順次送信するようになっている。
距離検出手段11のイメージプロセッサ12では、基準画像Tと比較画像の各画像データに対して順次ステレオマッチング処理やフィルタリング処理を施して、実空間上の距離に対応する視差dpを基準画像Tの各画素ごとに順次算出するようになっている。
イメージプロセッサ12におけるステレオマッチング処理では、基準画像Tと比較画像Tcの各画像データDが送信されてくると、図15に示すように、基準画像T上に例えば3×3画素や4×4画素等の所定の画素数の基準画素ブロックPBを設定し、基準画素ブロックPBに対応する比較画像Tc中のエピポーララインEPL上の基準画素ブロックPBと同形の各比較画素ブロックPBcについて、下記(7)式に従って当該基準画素ブロックPBとの輝度パターンの差異であるSAD値を算出し、SAD値が最小の比較画素ブロックPBcを特定するようになっている。
SAD=Σ|D1s,t−D2s,t| …(7)
なお、上記(7)式において、D1s,tは基準画素ブロックPB中の各画素の画像データDを表し、D2s,tは比較画素ブロックPBc中の各画素の画像データDを表す。また、上記の総和は、基準画素ブロックPBや比較画素ブロックPBcが例えば3×3画素の領域として設定される場合には1≦s≦3、1≦t≦3の範囲、4×4画素の領域として設定される場合には1≦s≦4、1≦t≦4の範囲の全画素について計算される。
イメージプロセッサ12は、このようにして基準画像Tの各基準画素ブロックPBについて、特定した比較画素ブロックPBcの比較画像Tc上の位置と当該基準画素ブロックPBの基準画像T上の位置から視差dpを順次算出するようになっている。以下、基準画像Tの各画素に視差dpを割り当てた画像を距離画像という。また、このようにして各画素ごとに算出された視差dpの情報すなわち距離画像は、距離検出手段11の距離データメモリ13に順次格納されるとともに、処理部5に順次送信されるようになっている。
なお、実空間上で、前記一対のカメラ2a、2bの中央真下の道路面上の点を原点とし、自車両の車幅方向(すなわち水平方向)をX軸方向、車高方向(すなわち高さ方向)をY軸方向、車長方向(すなわち距離方向)をZ軸方向とした場合、実空間上の点(X,Y,Z)と、距離画像上の画素の座標(i,j)および視差dpとは、下記(8)〜(10)式で表される三角測量の原理に基づく座標変換により一意に対応付けることができる。
X=CD/2+Z×PW×(i−IV) …(8)
Y=CH+Z×PW×(j−JV) …(9)
Z=CD/(PW×(dp−DP)) …(10)
上記各式において、CDは一対のカメラの間隔、PWは1画素当たりの視野角、CHは一対のカメラの取り付け高さ、IVおよびJVは自車両正面の無限遠点の距離画像上のi座標およびj座標、DPは消失点視差を表す。
また、イメージプロセッサ12は、視差dpの信頼性を向上させる目的から、上記のようなステレオマッチング処理で得られた視差dpに対してフィルタリング処理を施し、有効とされた視差dpのみを出力するようになっている。
例えば、道路面の映像のみからなる特徴に乏しい4×4画素の基準画素ブロックPBに対して、比較画像Tc上でステレオマッチング処理を行っても、比較画像Tcの道路面が撮像されている部分ではすべて相関が高くなるため、対応する比較画素ブロックPBcが特定されて視差dpが算出されてもその視差dpの信頼性は低い。そのため、そのような視差dpはフィルタリング処理を施して無効とし、視差dpの値として0を出力するようになっている。
したがって、基準画像Tの各画素に、有効に算出された視差dpを割り当てて(すなわち対応付けて)距離画像Tzを作成すると、距離画像Tzは、例えば図16に示すように、基準画像T上で有意な特徴を有する部分である撮像対象の辺縁部分(エッジ部分)等に有効な視差dpが算出された画像となる。なお、距離画像Tzの作成においては、上記(10)式等に従って予め視差dpを距離Z等に換算し、距離Z等を基準画像Tの各画素に割り当てて作成するように構成することも可能である。
本実施形態では、処理部5の処理手段6や平均値算出手段7における各処理では、必要に応じて上記(10)式等に従って距離画像Tzの各画素における視差dpが実空間上の距離Zに変換されて用いられる。
本実施形態においても、処理部5は、図示しないCPUやROM、RAM、入出力インターフェース等がバスに接続されたコンピュータで構成されており、処理手段6や平均値算出手段7を備えている。そして、本実施形態では、さらに、自車両の左右に標示された車線を検出する車線検出手段15や、道路面を検出する路面検出手段16を備えている。なお、本発明では、追い越し禁止線や路側帯と車道とを区画する区画線等の道路面上に標示された連続線や破線を車線という。
処理部5に、さらに、先行車両を検出する先行車両検出手段等を設けるように構成することも可能であり、必要に応じて、車速センサやヨーレートセンサ、ステアリングホイールの舵角を測定する舵角センサ等のセンサ類からの測定値が入力されるように構成することも可能である。
ここで、本実施形態の処理部5の処理手段6や平均値算出手段7における処理について説明する前に、車線検出手段15や路面検出手段16について説明する。なお、本実施形態では、以下に説明するように、車線検出手段15で道路面に標示された車線を検出し、その検出結果に基づいて路面検出手段16で道路面を検出するように構成されているが、路面検出手段16は、道路面を検出することができるものであれば以下に説明する形態に限定されない。
車線検出手段15は、撮像手段2により撮像された基準画像T中から自車両の左側および右側の車線を検出するようになっている。具体的には、車線検出手段15は、図17に示すように、基準画像Tを用いて、その1画素幅の水平ラインj上を例えば基準画像Tの中央から左右方向に探索し、輝度値が隣接する画素の輝度値から設定された閾値以上に大きく変化する画素を車線候補点cr、clとして検出する。
そして、基準画像T上の水平ラインjを1画素分ずつ上方にシフトさせながら、同様にして各水平ラインj上に車線候補点を検出していく。その際、車線検出手段15は、検出した車線候補点の視差dp等に基づいて当該車線候補点が道路面上にないと判断した場合には当該車線候補点を車線候補点から除外する。なお、この場合の道路面は、前回のサンプリング周期で検出した道路面に基づいてその後の自車両の挙動等から今回のサンプリング周期における道路面の位置が推定される。そして、残った車線候補点のうち、自車両に近い側の車線候補点に基づいて車線をハフ変換等により直線で近似して自車両の左右にそれぞれ検出する。
その際、ハフ変換では種々の直線が候補として算出されるが、例えば自車両の一方の側(例えば右側)に複数の車線が検出される場合には、自車両の他方(例えば左側)に検出した車線との整合性がある車線や、前回のサンプリング周期で検出した車線との整合性がある車線を選ぶ等して、自車両の左右にそれぞれ直線を選別する。
このようにして、自車両に近い側に車線を直線状にそれぞれ検出すると、それより遠い側ではその直線に基づいて直線との位置関係等から車線候補点を選別して結ぶことで、図18に示すように自車両の左側および右側にそれぞれ車線LR、LLを検出するようになっている。なお、以上の車線検出手段15の処理構成については、本願出願人が先に提出した特開2006−331389号公報等に詳述されており、詳細な説明は同公報等を参照されたい。
車線検出手段15は、このようにして検出した左右の車線位置LR、LLや車線候補点cr、cl等の情報を図示しないメモリに保存するようになっている。
路面検出手段16は、車線検出手段15で検出された左右の車線位置LR、LLや車線候補点の情報に基づいて車線モデルを三次元的に形成するようになっている。本実施形態では、路面検出手段16は、図19(A)、(B)に示すように、自車両の左右の車線を所定区間ごとに三次元の直線式で近似し、それらを折れ線状に連結して表現した車線モデルを形成するようになっている。なお、図19(A)は、Z−X平面上の車線モデルすなわち水平形状モデル、図19(B)は、Z−Y平面上の車線モデルすなわち道路高モデルを表す。
具体的には、路面検出手段16は、自車両前方の実空間を自車両の位置からの例えば距離Z7までの各区間に分け、車線検出手段15が検出した車線候補点の実空間上の位置(X,Y,Z)に基づいてそれぞれの区間内の車線候補点を最小二乗法で直線近似し、各区間ごとに下記の(11)〜(14)式のパラメータaR、bR、aL、bL、cR、dR、cL、dLを算出して車線モデルを形成するようになっている。
[水平形状モデル]
右車線 X=aR・Z+bR …(11)
左車線 X=aL・Z+bL …(12)
[道路高モデル]
右車線 Y=cR・Z+dR …(13)
左車線 Y=cL・Z+dL …(14)
路面検出手段16は、このようにして車線モデルを形成して、実空間上における道路面を検出するようになっている。路面検出手段16は、このようにして形成した車線モデルすなわち算出した各区間のパラメータaR〜dLをそれぞれメモリに保存するようになっている。
処理手段6と平均値算出手段7は、本実施形態においても上記の第1の実施形態の場合と同様に、図3および図4に示すフローチャートに従って各処理を行うように構成されている。
すなわち、撮像手段2のメインカメラ2aから基準画像Tの各画素の画像データDが順次送信されてくると、注目画素(一の画素)pi,jの画像データDi,jと、左や下に隣接する画素pの画像データDを比較して、条件1や条件3に基づいて注目画素pi,jと隣接する画素pとをグループ化するか否かを判定し、また、注目画素pi,jの画像データDi,jと、隣接する画素pが属するグループgに属する各画素の各画像データDの平均値Daveとを比較して、条件2や条件4に基づいて注目画素pi,jと隣接する画素pとをグループ化するか否かを判定するようになっている。
また、本実施形態では、注目画素pi,jと隣接する画素pとをグループ化するか否かの判定処理(図4のステップS9、S10、S13)において、距離検出手段11で基準画像Tの各画素ごとに算出した視差dp(すなわち実空間上の距離Zに対応する。)の情報や、路面検出手段16により検出された実空間上における道路面の情報に基づいて、さらに厳しい条件を課してグループ化するか否かの判定を行うようになっている。
具体的には、処理手段6は、図4のステップS9、S10、S13の判定処理において、注目画素pi,jに対応する実空間上の距離Zi,jと、注目画素pi,jの左または下に隣接する画素pに対応する実空間上の距離Zpとの差分|Zi,j−Zp|が、予め設定された閾値以上である場合には、上記の条件1〜条件4が満たされる場合であっても、注目画素pi,jと隣接する画素pとをグループ化しないようになっている。
これは、基準画像T上で、注目画素pi,jと隣接する画素pとが似たような輝度等の画像データDを有する場合であっても、それらに対応する実空間上の各点が同一の撮像対象とは見なせない程度に離れている場合は、注目画素pi,jと隣接する画素pとは同一の撮像対象に対応する画素ではなく、別々の撮像対象に対応すると考えられるためである。
そして、このように構成することで、基準画像T中に撮像された撮像対象のように、1つのグループとしてまとめるべき撮像対象(例えば1つの物体)が撮像された画素を的確にグループ化し、1つのグループとしてまとめるべきでない撮像対象(例えば異なる物体)が撮像された画素はグループ化しないようにして、基準画像Tを的確に複数の領域に分割することが可能となる。また、そのため、基準画像T中から、撮像対象を的確に分離して抽出することが可能となる。
しかし、本実施形態では、前述した距離検出手段11におけるフィルタリング処理によりステレオマッチング処理で算出された視差dpが無効とされる等して、隣接する画素pに対応する実空間上の距離Zpが算出されていない場合がある。そのような場合には、以下のような手法で判定処理を行うように構成することが可能である。
[手法1]注目画素pi,jに対応する実空間上の距離Zi,jと、隣接する画素pが属するグループgに属する各画素に対応する実空間上の各距離Zのうち注目画素pi,jに対応する実空間上の距離Zi,jに最も近い実空間上の距離Zとの差分|Zi,j−Z|が、前記閾値以上であるか否かを判定する。
この場合、注目画素pi,jに対応する実空間上の距離Zi,jに最も近い距離Zが閾値以上に離れていれば、注目画素pi,jと、隣接する画素pが属するグループgとは同一の撮像対象に対応するものではなく、別々の撮像対象に対応すると考えられる。
[手法2]隣接する画素pが属するグループgに属する各画素に対応する各実空間上の距離Zに基づいて各画素に対応する実空間上の各点の座標(X,Y,Z)を算出し、各点の分布の高さ方向(Y軸方向)に対する距離方向(Z軸方向)の傾きや、水平方向(X軸方向)に対する距離方向の傾き、或いは所定の方向に対する距離方向の傾きを算出し、これらの傾きから隣接する画素pに対応する実空間上の距離Zpを推定する。そして、この推定された距離Zpと、注目画素pi,jに対応する実空間上の距離Zi,jとの差分が前記閾値以上であるか否かを判定する。
具体的には、隣接する画素pが属するグループgに属する各画素について、視差dpが算出されていれば、上記(10)式から各画素に対応する実空間上の距離Zをそれぞれ算出でき、また、距離Zと各画素の基準画像T上のi座標やj座標とに基づいて、上記(8)式や(9)式に従って各画素に対応する実空間上のX座標(水平方向の位置)やY座標(高さ)をそれぞれ算出できる。
そして、グループgに属する各画素に対応する実空間上の各点を上記のようにして算出した座標(X,Y,Z)に基づいて実空間上にプロットする。その際、各点をX−Z平面にプロットすると、例えば図20に示すようにプロットすることができ、各点の分布を直線近似する等して、各点の分布の水平方向(X軸方向)に対する距離方向(Z軸方向)の傾きθを算出することができる。
そこで、この傾きθに基づいて、隣接する画素pに対応する実空間上の点Pの距離Zpを推定し、推定された距離Zpと、注目画素pi,jに対応する実空間上の距離Zi,jとの差分が前記閾値未満で近接していれば注目画素pi,jと隣接する画素pとをグループ化し、閾値以上に離れていれば注目画素pi,jと隣接する画素pとをグループ化しない。
また、グループgに属する各画素に対応する実空間上の各点をY−Z平面にプロットすると、例えば図21に示すようにプロットすることができ、各点の分布を直線近似する等して、各点の分布の高さ方向(Y軸方向)に対する距離方向(Z軸方向)の傾きφを算出するように構成してもよい。
そして、この傾きφに基づいて、隣接する画素pに対応する実空間上の点Pの距離Zpを推定し、推定された距離Zpと、注目画素pi,jに対応する実空間上の距離Zi,jとの差分が前記閾値未満で近接していれば注目画素pi,jと隣接する画素pとをグループ化し、閾値以上に離れていれば注目画素pi,jと隣接する画素pとをグループ化しない。
なお、実空間上での水平方向(X軸方向)は基準画像T上の左右方向に対応するため、図20に示したような各点をX−Z平面にプロットして各点の分布の水平方向に対する距離方向の傾きθを算出する手法は、隣接する画素pが属するグループgが基準画像T上で水平方向に広がりを持つグループである場合の注目画素pi,jと隣接する画素pとのグループ化の判定処理に用いることができる。
また、実空間上での高さ方向(Y軸方向)は基準画像T上の上下方向に対応するため、図21に示したような各点をY−Z平面にプロットして各点の分布の高さ方向に対する距離方向の傾きφを算出する手法は、隣接する画素pが属するグループgが基準画像T上で上下方向に広がりを持つグループである場合の注目画素pi,jと隣接する画素pとのグループ化の判定処理に用いることができる。
しかし、図22に示すように、隣接する画素p(図22では下に隣接する画素pi,j-1)が属するグループgが、基準画像T上で所定の方向(図22では左下から右上に延びる方向)に広がりを持つグループである場合がある。このような場合には、上記と同様に、グループgに属する各画素に対応する実空間上の各点を前記所定の方向とZ軸とを含む平面に投影してプロットして、各点の分布の前記所定の方向に対する距離方向(Z軸方向)の傾きを算出する。
そして、この傾きに基づいて、隣接する画素pに対応する実空間上の点Pの距離Zpを推定し、推定された距離Zpと、注目画素pi,jに対応する実空間上の距離Zi,jとの差分が前記閾値未満で近接していれば注目画素pi,jと隣接する画素pとをグループ化し、閾値以上に離れていれば注目画素pi,jと隣接する画素pとをグループ化しないように構成することができる。
なお、上記の[手法1]や[手法2]は、隣接する画素pに対応する実空間上の距離Zpが算出されていない場合だけでなく、それが算出されている場合にも適用するように構成することも可能である。
また、上記の[手法2]の場合、隣接する画素pが属するグループgに属する各画素に対応する実空間上の各距離Zの最大値Zmaxと最小値Zminとの差ΔZが所定の閾値以下で小さい場合や、各画素に対応する実空間上の各距離Zの分散σzが所定の閾値以下で小さい場合には、グループgに属する各画素に対応する実空間上の各点は、撮像手段2からほとんど同じ距離Zにある。
そして、このような場合、各点の分布の水平方向(X軸方向)に対する距離方向(Z軸方向)の傾きθ(図20参照)や、高さ方向(Y軸方向)に対する距離方向の傾きφ(図21参照)はほとんど0であり、このような場合には、上記の[手法1]を用いる等して注目画素pi,jと隣接する画素pとをグループ化するか否かを十分に精度良く判定することができる。
そのため、隣接する画素pが属するグループgに属する各画素に対応する実空間上の各距離Zの最大値Zmaxと最小値Zminとの差分ΔZや各距離Zの分散σzが所定の閾値以下である場合には、前記[手法2]を実行せず、傾きθやφ等を算出しないように構成することで、処理手段6における演算負荷が軽減され、処理の高速化を図ることが可能となる。
さらに、図4のステップS9、S10、S13の判定処理を行う際に、処理手段6がその度ごとに隣接する画素pが属するグループgに属する各画素に対応する実空間上の各距離Zの最大値Zmaxや最小値Zminを求めたり、各距離Zの分散σzを演算するように構成すると、処理手段6における演算負荷が非常に大きくなる。
そのため、図4のステップS16、S17の処理で、平均値算出手段7が、新規のグループとして登録されたグループや、注目画素pi,jを追加して拡大したグループgや、複数のグループをグループ化して1つとしたグループgに属する各画素の画像データDの平均値Dave等を算出して更新する際、同時に、注目画素pi,jに対応する実空間上の距離Zi,jを算出して、グループgに属する各画素に対応する実空間上の各距離Zの分散σzを算出して更新し、また、必要に応じてグループgに属する各画素に対応する実空間上の距離Zの最大値Zmaxや最小値Zminを更新しておくように構成することが可能である。
また、その際、それらの実空間上の距離Zの平均値Zaveも算出しておき、注目画素pi,jに対応する実空間上の距離Zi,jと、隣接する画素pが属するグループgについて算出された実空間上の距離Zの平均値Zaveや最大値Zmax、最小値Zminとを比較して、その差分が所定の閾値以上である場合には、注目画素pi,jと隣接する画素pとをグループ化しないように構成することも可能である。
一方、前述した路面検出手段16により検出された実空間上における道路面の情報に基づいて、さらに厳しい条件を課してグループ化するか否かの判定を行うように構成することも可能である。この場合、例えば、以下のような手法で判定処理を行うように構成することができる。
[手法3]まず、グループgに属する各画素に対応する各実空間上の距離Zに基づいて各画素に対応する実空間上の各点の高さYを算出する。そして、路面検出手段16が検出した距離Zでの道路面の高さYに基づいて各点の道路面からの高さY−Yを算出し、その高さY−Yが所定の閾値以上の高さである場合には、グループgを道路面上に存在する立体物として認識する。また、所定の閾値未満の高さである場合には、グループgを道路面上に標示された車線や規制標示等のパターンとして認識する。
実空間上の距離Zにおける道路面の高さYは、図19(B)に示したように、各区間ごとに上記(13)式および(14)式で示される車線モデルから線形補間する等して求めることができる。また、用いられる車線モデルは、路面検出手段16によって今回のサンプリング周期における車線モデルが検出されていればそれを用い、今回のサンプリング周期での車線モデルが検出されていなければ前回のサンプリング周期で検出した車線モデルに基づいてその後の自車両の挙動等から今回のサンプリング周期における車線モデルが推定されて用いられる。
また、道路面からの高さの閾値は、画像処理装置1における車線モデルの検出精度や基準画像Tの各画素の視差dpの検出精度等に基づいて、例えば道路面から10cm等の値に適宜設定される。また、画素に対応する実空間上の点の道路面からの高さY−Yが負の値として算出される場合があるが、その場合は、その点は道路面上にあるものとして扱われる。
[手法4]そして、隣接する画素pが属するグループgに属する各画素に対応する実空間上の各点の道路面からの高さY−Yが前記所定の閾値以上の高さであり、注目画素(一の画素)pi,jに対応する実空間上の点の道路面からの高さYi,j−Yが前記所定の閾値未満である場合、または、反対に、隣接する画素pが属するグループgに属する各画素に対応する実空間上の各点の道路面からの高さY−Yが前記所定の閾値未満の高さであり、注目画素pi,jに対応する実空間上の点の道路面からの高さYi,j−Yが前記所定の閾値以上である場合には、注目画素pi,jと隣接する画素pとをグループ化しない。
このようにして、注目画素pi,jと隣接する画素pのうち、一方が道路面上に存在する立体物として認識され、他方が道路面上に標示されたパターンとして認識されている場合に、それらをグループ化しないように構成することで、隣接する画素同士の画像データDの差異が僅かであり、画像データDの差異のみでは分割し難い場合であっても、道路面上に存在する立体物の一部が撮像された領域と、道路面上に標示されたパターンの一部が撮像された領域とを、基準画像T上で的確に分割して抽出することが可能となる。
ところで、本実施形態においても、基準画像Tにノイズ等が入ると、例えば基準画像T中に撮像されている1つの撮像対象に対応して1つの領域として抽出されるべき領域が、そのノイズ等により複数の領域に分割されてしまう場合がある。
そのため、本実施形態では、例えば、基準画像T中に検出された各グループのうち、基準画像T上で接していない2つのグループg1、g2に属する各画素に対応する実空間上の各点の2つの分布において、一方の分布に属する1点と他方の分布に属する1点との実空間上の間隔を総当りして、その中の最小値が所定の閾値以下であり、また、その中の最大値がこの閾値よりも大きな値に予め設定された閾値以下である場合に、当該2つのグループg1、g2を1つのグループgとして統合するように構成することが可能である。
しかし、その際、基準画像T上で接していない2つのグループg1、g2のうち、一方のグループに属する各画素に対応する実空間上の各点の道路面からの高さY−Yが前記[手法3]や[手法4]における所定の閾値以上の高さであって道路面上に存在する立体物として認識されており、他方のグループに属する各画素に対応する実空間上の各点の道路面からの高さY−Yが前記所定の閾値未満の高さであって道路面上に標示された車線や規制標示等のパターンとして認識されている場合には、当該2つのグループを統合しないように構成することが好ましい。
上記のように構成することで、基準画像Tに入り込んだノイズ等の影響で、本来1つの撮像対象に対応した1つの領域として抽出されるべき領域が分割されている場合に、それを的確に修復して、1つの撮像対象が撮像された基準画像T中の領域を1つの領域に的確に統合して抽出することが可能となるとともに、道路面上に存在する立体物と道路面上に標示されたパターンとを的確に分離して抽出することが可能となる。
1 画像処理装置
2 撮像手段
6 処理手段
7 平均値算出手段
11 距離検出手段
16 路面検出手段
D、Di,j、Di-1,j、Di,j-1 画像データ
Dave 画像データの平均値
g、g1、g2 グループ
p、pi-1,j、pi,j-1 隣接する画素
pi,j 注目画素(一の画素)
r 領域
T 画像
T、Tc 基準画像、比較画像(一対の画像)
Y 実空間上の高さ
Y−Y、Yi,j−Y 道路面からの高さ
Z、Zi,j、Zp 実空間上の距離
Zave 実空間上の距離の平均値
Zmax 実空間上の距離の最大値
Zmin 実空間上の距離の最小値
|Zi,j−Zp| 差分
ΔD エッジ強度(差分)
ΔDth 第1閾値
δD 平均値差分(差分)
δDth 第2閾値
ΔZ 差分
θ 水平方向に対する距離方向の傾き
σz 実空間上の距離の分散
φ 高さ方向に対する距離方向の傾き

Claims (13)

  1. 撮像手段で撮像された画像を複数の領域に分割する画像処理装置であって、
    前記画像中の一の画素とそれに隣接する画素との各画像データの差分が所定の第1閾値未満である場合には前記一の画素を前記隣接する画素とグループ化し、最終的に得られた各グループをそれぞれ前記画像の各領域として前記画像を複数の領域に分割する処理手段と、
    前記一の画素を含む前記グループにおける前記画像データの平均値を算出する平均値算出手段と、
    を備え、
    前記処理手段は、さらに、前記一の画素の画像データと、前記隣接する画素が属する前記グループについて前記平均値算出手段で算出された前記平均値とを比較して、その差分が所定の第2閾値以上である場合には、前記一の画素と前記隣接する画素とをグループ化しないことを特徴とする画像処理装置。
  2. 前記処理手段は、前記撮像手段から前記一の画素の画像データが送信されてくると、前記一の画素と同一の画像中の、前記一の画素より以前に前記画像データが送信された画素であって、前記一の画素に隣接する画素の前記画像データと、前記一の画素の画像データとを比較し、かつ、前記一の画素の画像データと、前記一の画素より以前に前記画像データが送信された前記隣接する画素が属する前記グループの前記平均値とを比較することを特徴とする請求項1に記載の画像処理装置。
  3. 前記処理手段は、隣接する前記画素の各画像データがいずれも所定の数値範囲内である場合には、前記一の画素と前記隣接する画素との各画像データの比較、および前記一の画素の画像データと前記グループの前記平均値との比較にかかわらず、前記画像データが前記数値範囲内にある前記隣接する画素同士を優先してグループ化することを特徴とする請求項1または請求項2に記載の画像処理装置。
  4. 前記処理手段は、隣接する前記画素の各画像データのうち、一方の画像データが所定の数値範囲内であり、他方の画像データが前記数値範囲外である場合には、前記一の画素と前記隣接する画素との各画像データの比較、および前記一の画素の画像データと前記グループの前記平均値との比較にかかわらず、前記隣接する画素同士をグループ化しないことを特徴とする請求項1から請求項3のいずれか一項に記載の画像処理装置。
  5. 前記処理手段は、画像上で接していない2つの前記グループの画素間隔の最小値が所定の閾値以下であり、かつ、当該2つのグループの前記各平均値の差分が所定の閾値以下である場合には、当該2つのグループを1つのグループとして統合することを特徴とする請求項1から請求項4のいずれか一項に記載の画像処理装置。
  6. 前記撮像手段は、一対の画像を出力し、
    前記撮像手段から出力された前記一対の画像に対してステレオマッチング処理を施して、前記一対の画像のうちの少なくとも一方の画像の画素に対応する実空間上の距離を検出する距離検出手段を備え、
    前記処理手段は、前記一方の画像中の前記一の画素に対応する前記実空間上の距離と、前記一の画素に隣接する画素に対応する前記実空間上の距離との差分が、予め設定された閾値以上である場合には、前記一の画素と前記隣接する画素とをグループ化しないことを特徴とする請求項1から請求項5のいずれか一項に記載の画像処理装置。
  7. 前記処理手段は、前記隣接する画素が属する前記グループに属する各画素に対応する前記実空間上の距離のうち前記一の画素に対応する前記実空間上の距離に最も近い前記実空間上の距離と、前記一の画素に対応する前記実空間上の距離との差分が前記閾値以上であるか否かを判定することを特徴とする請求項6に記載の画像処理装置。
  8. 前記処理手段は、前記隣接する画素が属する前記グループに属する各画素に対応する前記各実空間上の距離に基づいて前記各画素に対応する実空間上の各点の座標を算出し、前記各点の分布の傾きを算出し、前記傾きから推定される前記隣接する画素に対応する実空間上の距離と、前記一の画素に対応する前記実空間上の距離との差分が前記閾値以上であるか否かを判定することを特徴とする請求項6または請求項7に記載の画像処理装置。
  9. 前記平均値算出手段は、前記グループに属する各画素に対応する前記実空間上の各距離の平均値、最大値、最小値のいずれかを算出し、
    前記処理手段は、前記隣接する画素が属する前記グループについて前記平均値算出手段で算出された前記実空間上の距離の平均値、最大値、最小値のいずれかと、前記一の画素に対応する前記実空間上の距離とを比較して、その差分が所定の閾値以上である場合には、前記一の画素と前記隣接する画素とをグループ化しないことを特徴とする請求項6から請求項8のいずれか一項に記載の画像処理装置。
  10. 前記撮像手段で撮像された画像から道路面を検出する路面検出手段を備え、
    前記処理手段は、前記グループに属する各画素に対応する前記実空間上の各距離に基づいて前記各画素に対応する実空間上の各点の高さを算出し、前記路面検出手段が検出した前記道路面からの前記各点の高さが、所定の閾値以上の高さである場合には、前記グループを道路面上に存在する立体物として認識し、前記所定の閾値未満の高さである場合には、前記グループを道路面上に標示されたパターンとして認識することを特徴とする請求項6から請求項9のいずれか一項に記載の画像処理装置。
  11. 前記処理手段は、前記一の画素に対応する実空間上の点の前記道路面からの高さと、前記隣接する画素が属する前記グループに属する各画素に対応する前記実空間上の各点の前記道路面からの高さのうち、一方が前記所定の閾値未満であり、かつ、他方が前記所定の閾値以上である場合には、前記一の画素と前記隣接する画素とをグループ化しないことを特徴とする請求項10に記載の画像処理装置。
  12. 前記処理手段は、画像上で接していない2つの前記グループに属する各画素に対応する実空間上の各点の2つの分布において、異なる分布に属する2点の実空間上の間隔の最小値が所定の閾値以下の場合で、かつ、最大値が前記閾値よりも大きな値に予め設定された閾値以下である場合には、当該2つのグループを1つのグループとして統合することを特徴とする請求項6から請求項11のいずれか一項に記載の画像処理装置。
  13. 前記処理手段は、画像上で接していない2つの前記グループのうち、一方の前記グループに属する各画素に対応する前記実空間上の各点の前記道路面からの高さが前記所定の閾値以上であり、かつ、他方の前記グループに属する各画素に対応する前記実空間上の各点の前記道路面からの高さが前記所定の閾値未満の高さである場合には、当該2つのグループを統合しないことを特徴とする請求項12に記載の画像処理装置。
JP2009072148A 2009-03-24 2009-03-24 画像処理装置 Active JP5188430B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009072148A JP5188430B2 (ja) 2009-03-24 2009-03-24 画像処理装置
US12/659,115 US8498479B2 (en) 2009-03-24 2010-02-25 Image processing device for dividing an image into a plurality of regions
DE102010012262A DE102010012262A1 (de) 2009-03-24 2010-03-22 Bildverarbeitungsvorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009072148A JP5188430B2 (ja) 2009-03-24 2009-03-24 画像処理装置

Publications (2)

Publication Number Publication Date
JP2010224924A true JP2010224924A (ja) 2010-10-07
JP5188430B2 JP5188430B2 (ja) 2013-04-24

Family

ID=42733416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009072148A Active JP5188430B2 (ja) 2009-03-24 2009-03-24 画像処理装置

Country Status (3)

Country Link
US (1) US8498479B2 (ja)
JP (1) JP5188430B2 (ja)
DE (1) DE102010012262A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012222533A (ja) * 2011-04-07 2012-11-12 Hitachi Automotive Systems Ltd 画像処理装置
JP2014063376A (ja) * 2012-09-21 2014-04-10 Nikon Systems Inc 画像処理装置およびプログラム
WO2018180285A1 (ja) * 2017-03-31 2018-10-04 パイオニア株式会社 3次元データ生成装置、3次元データ生成方法、3次元データ生成プログラム及び3次元データ生成プログラムを記録したコンピュータ読み取り可能な記録媒体

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9280711B2 (en) * 2010-09-21 2016-03-08 Mobileye Vision Technologies Ltd. Barrier and guardrail detection using a single camera
JP5639024B2 (ja) * 2011-09-27 2014-12-10 富士重工業株式会社 画像処理装置
WO2013054499A1 (ja) * 2011-10-11 2013-04-18 パナソニック株式会社 画像処理装置、撮像装置および画像処理方法
CN103164851B (zh) * 2011-12-09 2016-04-20 株式会社理光 道路分割物检测方法和装置
JP6013884B2 (ja) * 2012-11-08 2016-10-25 日立オートモティブシステムズ株式会社 物体検出装置及び物体検出方法
CN104166834B (zh) * 2013-05-20 2017-10-10 株式会社理光 路面检测方法和装置
US9205835B2 (en) 2014-01-30 2015-12-08 Mobileye Vision Technologies Ltd. Systems and methods for detecting low-height objects in a roadway
US9305224B1 (en) * 2014-09-29 2016-04-05 Yuan Ze University Method for instant recognition of traffic lights countdown image
JP6462544B2 (ja) * 2015-09-17 2019-01-30 株式会社東芝 推定装置、方法及びプログラム
US10962982B2 (en) * 2016-07-21 2021-03-30 Mobileye Vision Technologies Ltd. Crowdsourcing the collection of road surface information
JP7159057B2 (ja) * 2017-02-10 2022-10-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
CN107231561A (zh) * 2017-07-11 2017-10-03 Tcl移动通信科技(宁波)有限公司 一种图像数据传输方法、移动终端及存储装置
MA49853A (fr) * 2017-08-07 2021-04-21 Imago Systems Inc Système et procédé de visualisation et de caractérisation d'objets dans des images
US11202055B2 (en) * 2018-02-28 2021-12-14 Blackberry Limited Rapid ground-plane discrimination in stereoscopic images
US11182914B2 (en) * 2018-05-21 2021-11-23 Facebook Technologies, Llc Dynamic structured light for depth sensing systems based on contrast in a local area
JP7129894B2 (ja) * 2018-12-10 2022-09-02 株式会社タダノ 地表面推定方法、計測領域表示システムおよびクレーン
CN109934169A (zh) * 2019-03-13 2019-06-25 东软睿驰汽车技术(沈阳)有限公司 一种车道线识别方法及装置
CN111062911B (zh) * 2019-11-15 2023-08-18 北京中科慧眼科技有限公司 基于路面信息的成像环境评价方法、装置、系统和存储介质
CN114945960A (zh) * 2020-01-17 2022-08-26 株式会社半导体能源研究所 拍摄系统、行驶支援系统以及程序
CN113225613B (zh) * 2020-01-21 2022-07-08 北京达佳互联信息技术有限公司 图像识别、视频直播方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10283461A (ja) * 1997-04-04 1998-10-23 Fuji Heavy Ind Ltd 車外監視装置
JPH11288465A (ja) * 1998-02-06 1999-10-19 Fujitsu Ltd カラー画像処理装置及びパターン抽出装置
JP2008065634A (ja) * 2006-09-07 2008-03-21 Fuji Heavy Ind Ltd 物体検出装置および物体検出方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4207256B2 (ja) 1998-08-24 2009-01-14 コニカミノルタビジネステクノロジーズ株式会社 カラー画像の領域分割方法およびプログラム記憶媒体
US6731792B1 (en) 1998-08-24 2004-05-04 Minolta Co., Ltd. Method and apparatus for accurately dividing a color image into proper regions, and storage media storing a program for executing such a method
JP4510554B2 (ja) 2004-08-31 2010-07-28 富士重工業株式会社 立体物監視装置
JP4659631B2 (ja) 2005-04-26 2011-03-30 富士重工業株式会社 車線認識装置
US20080123959A1 (en) * 2006-06-26 2008-05-29 Ratner Edward R Computer-implemented method for automated object recognition and classification in scenes using segment-based object extraction
JP4801551B2 (ja) * 2006-09-27 2011-10-26 富士通株式会社 画像領域検出方法、該プログラム、及び該装置
US8098936B2 (en) * 2007-01-12 2012-01-17 Seiko Epson Corporation Method and apparatus for detecting objects in an image
US8055067B2 (en) * 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10283461A (ja) * 1997-04-04 1998-10-23 Fuji Heavy Ind Ltd 車外監視装置
JPH11288465A (ja) * 1998-02-06 1999-10-19 Fujitsu Ltd カラー画像処理装置及びパターン抽出装置
JP2008065634A (ja) * 2006-09-07 2008-03-21 Fuji Heavy Ind Ltd 物体検出装置および物体検出方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012222533A (ja) * 2011-04-07 2012-11-12 Hitachi Automotive Systems Ltd 画像処理装置
JP2014063376A (ja) * 2012-09-21 2014-04-10 Nikon Systems Inc 画像処理装置およびプログラム
WO2018180285A1 (ja) * 2017-03-31 2018-10-04 パイオニア株式会社 3次元データ生成装置、3次元データ生成方法、3次元データ生成プログラム及び3次元データ生成プログラムを記録したコンピュータ読み取り可能な記録媒体
JPWO2018180285A1 (ja) * 2017-03-31 2020-01-16 パイオニア株式会社 3次元データ生成装置、3次元データ生成方法、3次元データ生成プログラム及び3次元データ生成プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2021144743A (ja) * 2017-03-31 2021-09-24 パイオニア株式会社 3次元データ生成装置、3次元データ生成方法、3次元データ生成プログラム及び3次元データ生成プログラムを記録したコンピュータ読み取り可能な記録媒体
US11144747B2 (en) 2017-03-31 2021-10-12 Pioneer Corporation 3D data generating device, 3D data generating method, 3D data generating program, and computer-readable recording medium storing 3D data generating program
JP2023095975A (ja) * 2017-03-31 2023-07-06 パイオニア株式会社 3次元データ生成装置、3次元データ生成方法、3次元データ生成プログラム及び3次元データ生成プログラムを記録したコンピュータ読み取り可能な記録媒体

Also Published As

Publication number Publication date
DE102010012262A1 (de) 2010-10-14
JP5188430B2 (ja) 2013-04-24
US8498479B2 (en) 2013-07-30
US20100246896A1 (en) 2010-09-30

Similar Documents

Publication Publication Date Title
JP5188430B2 (ja) 画像処理装置
CN109034047B (zh) 一种车道线检测方法及装置
CN110569704B (zh) 一种基于立体视觉的多策略自适应车道线检测方法
JP4956452B2 (ja) 車両用環境認識装置
JP4876080B2 (ja) 環境認識装置
JP5926228B2 (ja) 自律車両用の奥行き検知方法及びシステム
JP5371725B2 (ja) 物体検出装置
JP5502448B2 (ja) 路面形状認識装置
JP5591730B2 (ja) 環境認識装置
JP5180126B2 (ja) 道路認識装置
JP5254102B2 (ja) 環境認識装置
JP5631581B2 (ja) 道路認識装置
JP4341564B2 (ja) 対象物判定装置
JP4275378B2 (ja) ステレオ画像処理装置およびステレオ画像処理方法
CN111209770A (zh) 一种车道线识别方法及装置
JP5188429B2 (ja) 環境認識装置
JP5073700B2 (ja) 物体検出装置
JP2016146118A (ja) 走行路面検出装置及び走行路面検出方法
JP6753134B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及び画像処理プログラム
WO2017115732A1 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法及び画像処理プログラム
JP2020095621A (ja) 画像処理装置および画像処理方法
JP2004028727A (ja) 監視システムおよび監視方法、当該監視システムにおける距離補正装置および距離補正方法
CN111316322B (zh) 路面区域检测装置
JP5091897B2 (ja) 停止線検出装置
JP6674959B2 (ja) 視差算出装置、ステレオカメラ装置、車両および視差算出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111012

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130122

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160201

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5188430

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250