JP2000293696A - 画像認識装置 - Google Patents

画像認識装置

Info

Publication number
JP2000293696A
JP2000293696A JP11099662A JP9966299A JP2000293696A JP 2000293696 A JP2000293696 A JP 2000293696A JP 11099662 A JP11099662 A JP 11099662A JP 9966299 A JP9966299 A JP 9966299A JP 2000293696 A JP2000293696 A JP 2000293696A
Authority
JP
Japan
Prior art keywords
edge
image
area
data
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP11099662A
Other languages
English (en)
Inventor
Eiji Takahashi
栄治 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP11099662A priority Critical patent/JP2000293696A/ja
Priority to EP00107504A priority patent/EP1043688A3/en
Priority to US09/545,580 priority patent/US6665439B1/en
Publication of JP2000293696A publication Critical patent/JP2000293696A/ja
Priority to US10/684,477 priority patent/US6885771B2/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30184Infrastructure

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)

Abstract

(57)【要約】 【課題】 衛星画像や航空写真など、複雑な画像であ
り、従来は画像認識が困難であった画像を対象として、
画像中の認識対象物の形状を効率的に精度良く抽出する
画像認識法を提供する。 【解決手段】 画像認識手段2において、カラー画像デ
ータの画素の複数のスカラデータから画素ベクトルデー
タ生成手段21で画素ベクトルデータを生成し、エッジ
テンプレートレート適用手段22にてエッジテンプレー
トを適用してエッジベクトルデータを生成し、エッジ強
さ・方向決定手段23にてエッジベクトルデータの大き
さを比較してエッジの強さと方向を決定する。カラー画
像のRGBのように画素値が複数のスカラデータをもつ
画像データであっても、それらを組み合わせることによ
って、エッジの強さのみならず、エッジの方向も正確に
求めることができるので、画像中の認識対象物の形状を
精度良く抽出することが可能となる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、画像認識システム
における画像中の認識対象物の形状の抽出を行う画像認
識装置に関するものである。
【0002】
【従来の技術】従来、画像に対する処理を行なって、画
像全体の分類、画素単位での分類、画像のシーンの状況
の説明、画像中の認識対象物の発見などを行なう画像認
識装置がある。
【0003】画像認識の精度を向上させるアプローチと
して、カメラの位置や向き、照明条件などを固定にして
毎回の撮影条件を同一にしたり、認識対象物の適切なモ
デルを設定したり、認識対象物にマーカなどを取り付け
る方法などがある。
【0004】しかし、衛星画像や航空写真における道路
や建物の形状の認識においては、これらの方法を適用す
ることができない。撮影時のカメラの位置・向き、天
候、大気の状態などの撮影条件が毎回異なっている。さ
らに一枚の画像に道路、建物、川、公園、田畑などの多
くの種類のデータが存在しており、画像が複雑である。
このため、衛星画像や航空写真の画像認識は非常に困難
であった。
【0005】画像中の認識対象物の形状を抽出するに
は、認識対象物の画素値とその周辺部の画素値が異なる
ことを利用して、エッジ検出などの画像処理が行なわれ
る。エッジ検出とは画素値が急激に変化する箇所を検出
する処理であり、その箇所を物体の輪郭として認識す
る。エッジ検出には差分型、テンプレート型、ゼロ交差
法などの種類がある。エッジ検出を行なう場合、通常は
画素値として明度のみを用いることが多い。画像データ
の画素値の表現方法としてRGB(Red:赤、Gre
en:緑、Blue:青)やHSI(Hue:色相、S
aturation:彩度、Intensity:明
度)などがあり、画像データはRGBとして記憶されて
いる場合が多いので、RGBデータから明度に変換した
後に、明度に対してエッジ検出を行なう。
【0006】しかし、衛星画像や航空写真の認識におい
ては、認識が困難であるために、画像の明度のみなら
ず、色相や彩度の情報も有効に利用する必要がある。し
かし、通常のエッジ検出は明度などのスカラデータに対
して行なわれる処理である。
【0007】特開平6―83962号公報に記載されて
いるように、エッジ検出法の1つであるゼロ交差法を利
用し、明度のみならず色相や彩度の情報も利用する方法
もある。この方法による画像認識結果を図36に示す。
図36の(a)は明度に対してエッジ検出を行なった結
果であり、同様に図36の(b)は色相、図36の
(c)は彩度に対してエッジ検出を行なった結果であ
る。図36の(d)は(a)、(b)、(c)の結果を
合成したものである。
【0008】また、エッジ検出において、画像中に雑音
を低減するために画像の平滑化が行なわれる場合があ
る。平滑化フィルタを適用して画像をぼかしてからエッ
ジ検出を行なったり、ゼロ交差法のように平滑化とエッ
ジ検出を同時に行なう方法もある。
【0009】
【発明が解決しようとする課題】エッジ検出において、
エッジの強さのみならず、エッジの方向も求めることが
重要である。エッジの強さは画像中のその位置において
画素値の変化の度合を表し、エッジの方向は画像中での
エッジの向きを表す。エッジの方向を正確に求めること
によって、エッジ画素の判定が正確に行なわれたり、エ
ッジの途切れの修正を行なうことができる。
【0010】しかしながら、特開平6―83962号公
報に記載されている方法では、ゼロ交差法のみを利用し
ているため、エッジの方向を求めることはできない。差
分型、またはテンプレート型エッジ検出は、明度、彩
度、色相を個別に処理を行なってそれぞれのエッジの方
向を求めることはできるが、それらを統合しても正確な
エッジの方向ではない。例えば、明度、彩度、色相のそ
れぞれのエッジの方向が全く異なっていた場合、それら
の平均を求めても、正確なエッジの方向ではない。つま
り、従来技術では明度、彩度、色相などの色の属性の中
の複数を対象としてエッジ検出を行なっても、正確なエ
ッジの方向を求めることができない。
【0011】また、RGBデータが離散値である場合、
画像のRGBデータからHSIデータへの変換式の性質
上、明度の値が低い部分や高い部分で彩度の値が不安定
になる。例えば、RGBが各々8ビットのデータであ
り、0から255までの値をとる時、明度の値が低いと
RGBのどれか1つの値が1増加、また1減少しただけ
で変換される彩度の値が大きく変化してしまう。彩度の
値が不安定であるとそれがエッジ検出の時に雑音となっ
て現れる。
【0012】また、雑音低減のために強い平滑化を行な
うと、画像をぼかすために検出されるエッジが丸く変形
してしまったり、近い距離にあるエッジ同士が接続して
しまったりするので抽出された形状の精度が悪化する。
逆に弱い平滑化を行なう、または平滑化を行なわないと
抽出された形状の精度は良いが雑音が多くなってしま
う。
【0013】
【課題を解決するための手段】これらの課題を解決する
ために本発明は、第1に、カラー画像データを対象と
し、明度のみではなく、RGBなどの色の属性であるス
カラデータを複数利用し、画素毎にベクトルデータ(画
素ベクトルデータ)を生成し、また、画像上でのエッジ
パターンを想定したエッジテンプレートを用意するとい
う手段を有する。ここで、用意するエッジテンプレート
は検出するエッジの方向に対応する。例えば、画像上で
左から右への方向、左下から右上への方向、下から上へ
の方向、右下から左上への方向の4種類のエッジテンプ
レートを用意する。そして、画素ベクトルデータとエッ
ジテンプレートとの積和演算を行なって各方向に対応す
るベクトルデータ(エッジベクトルデータ)を得る。こ
のエッジベクトルデータの大きさを比較し、最も大きな
もの、すなわちエッジテンプレートとの相関が最も大き
なものを選び、そのエッジベクトルデータの大きさをエ
ッジの強さ、エッジテンプレートの方向をエッジの方向
とする。
【0014】これにより、従来は明度のみに対して行な
っていたエッジ検出を、画素ベクトルデータを生成する
ことによって、画素値の複数のスカラデータを扱うこと
を可能にする。さらに、画素ベクトルデータにエッジテ
ンプレートを適用し、そこで得られたエッジベクトルデ
ータを大きさの比較を行なうことによって、簡単、かつ
正確にエッジの方向を求めることが可能にする。
【0015】第2に、認識対象とする画像データの画素
値の色空間を変換した後に、画素ベクトルデータを生成
する手段を有する。
【0016】これにより、認識の対象となる画像データ
の特徴に応じて適切な色空間座標に変換されたデータに
対したエッジ検出を行なうことができる。
【0017】第3に、認識対象とする画像データの画素
値の色空間をHSIに変換した後に、画素ベクトルデー
タを生成するという手段を有する。
【0018】これにより、人間によって感覚的に理解し
やすいHSIの色空間座標に変換されたデータに対した
エッジ検出を行なうことができる。
【0019】第4に、認識対象とする画像データの画素
値の色空間をHSIに変換する際に、明度の値によって
彩度の値を変化させるという手段を有する。
【0020】これにより、彩度の値が不安定なことによ
る雑音の発生を抑制する。
【0021】第5に、認識対象とする画像データの画素
値の色空間をHSIに変換する際に、明度が中間値付近
では変換される彩度の値が大きく、明度が中間値付近か
ら増加、または減少するにつれて変換される彩度の値が
小さくするという手段を有する。
【0022】これにより、彩度の値が不安定なことによ
る雑音の発生を抑制する。
【0023】第6に、HSIへの変換式から、彩度の不
安定さと明度との関係を算出し、彩度の不安定さが一定
になるように、明度の値によって彩度の値を変化させる
という手段を有する。
【0024】これにより、彩度の値が不安定な部分のみ
を適切に補正し、雑音の発生を抑制する。
【0025】第7に、領域によって認識対象物の形状を
表現する方法において、領域統合を行なって、小領域を
大領域へ統合することによって雑音を除去する際に、領
域内の画素値は考慮せず、領域の形状のみを考慮して領
域統合を行なう手段を有する。
【0026】これにより、認識対象物の形状の抽出の精
度を下げずに、雑音を除去することが可能となる。
【0027】第8に、小領域同士が密集している時によ
り小さな領域から統合を行なう手段を有する。
【0028】これにより、雑音を除去しつつ、小さな領
域を過剰に統合してしまうことを防ぐことが可能とな
る。
【0029】第9に、小領域同士が密集している時にそ
の内部から領域統合を行なう手段を有する。
【0030】これにより、雑音を除去しつつ、認識対象
物の形状をより精度良く抽出することが可能となる。
【0031】第10に、カラー画像データの画素値の複
数のスカラデータを利用してエッジ検出した結果を領域
画像に変換し、領域内の画素値は考慮せず、領域の形状
のみを考慮した領域統合を行なう手段を有する。
【0032】これにより、色の複数の属性を対象とした
エッジ検出結果から、認識対象物の形状の抽出精度は下
げずに雑音を除去することができる。
【0033】
【発明の実施の形態】以下、本発明の実施の形態につい
て、図面を用いて説明する。なお、本発明はこれらの実
施の形態に何ら限定されるものではなく、その要旨を逸
脱しない範囲において、種々なる態様で実施し得る。
【0034】(実施の形態1)第1の実施の形態の画像
認識装置は、図1に示すようにカラー画像データを記憶
する画像データ記憶手段1と、カラー画像データの画像
認識を行なう画像認識手段2と、画像認識手段2におい
て抽出された形状データを記憶する形状データ(エッジ
画像)記憶手段3とを備えている。
【0035】画像認識手段2では、画素ベクトルデータ
生成手段21とエッジテンプレート適用手段22とエッ
ジ強さ・方向決定手段23とエッジ画素決定手段24と
を備えている。画素ベクトルデータ生成手段21ではカ
ラー画像データの画素値の複数のスカラデータから画素
ベクトルデータを生成する。エッジテンプレート適用手
段22では、画素ベクトルデータにエッジテンプレート
を適用し、エッジベクトルデータを生成する。エッジ強
さ・方向決定手段23では、エッジベクトルデータの大
きさからエッジの大きさと方向を決定する。エッジ画素
決定手段24では、エッジの強さと方向からエッジ画素
を決定する。
【0036】画像データ記憶手段1に記憶されている画
像データは図2左側に示すように、xyの2次元の座標
系で表される。つまり、xとyの値が決まれば1つの画
素が決まる。各画素はRGB値を画素値としてもつ。つ
まり、図2右側に示すようにr、g、bがそれぞれのス
カラデータをもつ。これらのスカラデータは各々8bi
tデータであり、0から255までの値をもつ。このR
GBの色空間の座標を図3に示す。この色空間上の点が
1つの色に対応し、r、g、bの値が決まれば1つの色
が決まる。
【0037】画像データ記憶手段1には図4上段のよう
なカラー画像が記憶されている。この図では画像中に道
路、建物が存在する。この画像を対象として画像認識手
段2でエッジ検出が行なわれ、形状データ(エッジ画
像)記憶手段3に図4下段のようなエッジ画像が記憶さ
れる。エッジ画像は二値画像であり、エッジである画素
とそうでない画素が存在する。図4下段に黒い線になっ
ている部分がエッジである画素、白い部分がエッジでな
い画素である。このように画像認識手段2におけるエッ
ジ検出では道路の色とそれに隣接する領域の色、または
建物の色とそれに隣接する領域の色との変化を検出し、
その変化が大きい箇所をエッジとして判断する。このよ
うにして道路や建物の輪郭をエッジとして検出する。
【0038】この第1の実施形態の装置の動作手順を図
5のフローチャートに示す。
【0039】ステップ10:画素値から画素ベクトルデ
ータPVを生成する。各画素の画素値の複数のスカラデ
ータを組み合わせて画素ベクトルデータを生成する。画
像中のすべての画素について式(1)によって画素値r
(x,y),g(x,y),b(x,y)からベクトル
データPV(x,y)を生成する。
【0040】
【数1】
【0041】ステップ11:4双方向テンプレートh
1,h2,h3,h4とPVを局所積和演算し、エッジ
ベクトルデータEV1,EV2,EV3,EV4を生成
する。4双方向テンプレートを図6に示す。図6におい
てh1は図2の画像データの2次元構造における左ー右
方向のエッジに対応するテンプレートであり、画像中で
エッジが左右方向に存在する箇所に適用すると大きな値
を返す。同様にh2は左下ー右上方向、h3は下ー上方
向、h4は右下ー左上方向用のテンプレートである。h
1のテンプレート内の”0”、”1”、”―1”などの
値を式(2)のように表すとすると、4双方向テンプレ
ートh1,h2,h3,h4とPV(x,y)との局所
積和演算は式(3)のように表される。
【0042】
【数2】
【0043】
【数3】
【0044】図2右側の中心画素に対して図6の4双方
向テンプレートを適用した結果得られたエッジベクトル
データを図7に示す。EV1は左ー右方向、EV2は左
下ー右上方向、EV3は下ー上方向、EV4は右下ー左
上方向に対応したエッジベクトルデータである。
【0045】ステップ12:エッジベクトルデータEV
1,EV2,EV3,EV4からエッジの強さmodと
エッジの方向dirを求める。式(4)によってエッジ
の強さmod(x,y)を、式(5)によってエッジの
方向dir(x,y)を各画素毎に求める。
【0046】
【数4】
【0047】
【数5】
【0048】例えば図7のエッジベクトルデータの大き
さを比較すると、EV3の大きさが437であり、他の
エッジベクトルデータの大きさよりも大きいので、図8
のように、この画素のエッジの強さは437、エッジの
方向は下ー上方向と決定される。
【0049】ステップ13:エッジの強さの閾値tとエ
ッジの強さmodとエッジの方向dirとからエッジ画
像データedgeを生成する。あらかじめ設定された閾
値tとmodとdirとから式(6)によって各画素が
エッジである画素か、そうでない画素かを判別する。式
(6)においては、その画素のエッジの大きさがt以上
で、かつ隣接する画素との関係が図9に示す4つのパタ
ーンのいづれかを満たす時に、エッジである画素と判別
される。
【0050】
【数6】
【0051】具体的な例で説明する。図10上段の航空
写真を簡略化したカラー画像データを認識対象とする。
画像中には道路、地面、建物、建物側面1、建物側面2
が写っている。それぞれのRGB値は図中に示す通りで
ある。この画像を本発明の画像認識装置にて処理するこ
とにより、図10下段のように道路や建物の形状がエッ
ジとして検出される。
【0052】以上のように、本実施の形態では、画素値
の複数のスカラデータを組み合わせて画素ベクトルデー
タを生成することによって、画素値の複数のスカラデー
タを対象としたエッジ検出を行なうことができる。従来
の明度のみに対するエッジ検出では、物体の輪郭が存在
していても明度の違いがなければエッジを検出すること
ができなかったが、本実施の形態ではその検出が可能と
なる。
【0053】また、画素ベクトルデータにエッジテンプ
レートを適用させることにより、エッジの方向を簡単、
かつ正確に求めることが可能となる。エッジの方向はエ
ッジ画素の判定や、エッジの途切れの修正に利用される
など、エッジ検出処理において重要な役割を果たすた
め、エッジの強さだけでなく、エッジの方向も求めるこ
とは非常に重要である。
【0054】(実施の形態2)第2の実施の形態の画像
認識装置は、図11に示すように、第1の実施形態(図
1)に加え、色空間の座標変換を行なう色空間座標変換
手段25を備える。カラー画像データ記憶手段1に記憶
されたRGBデータを別の色空間座標へ変換し、変換さ
れた色の複数の属性値から画素ベクトルデータ生成手段
21にて画素ベクトルデータが生成される。
【0055】この第2の実施形態の装置の動作手順を図
12のフローチャートに示す。
【0056】ステップ11、ステップ12、およびステ
ップ13は第1の実施形態と同様である。
【0057】ステップ20:画素値を図3のRGBの色
空間から図13の色空間の座標系へ変換する。式(7)
によって画素値r(x,y),g(x,y),b(x,
y)からc1(x,y),c2(x,y),c3(x,
y)を生成する。c1は一種の明度を表し、c2はRG
Bにおけるrの割合、c3はRGBにおけるgの割合を
表している。
【0058】
【数7】
【0059】ステップ10:画素値から画素ベクトルデ
ータPVを生成する。各画素の複数の属性の値を組み合
わせて画素ベクトルデータを生成する。画像中のすべて
の画素について式(8)によって画素値c1(x,
y),c2(x,y),c3(x,y)からベクトルデ
ータPV(x,y)を生成する。式(8)におけるパラ
メータa1、a2、a3を調整することによって、c
1、c2、c3のどれに重点を置いたエッジ検出をする
のかを決定する。
【0060】
【数8】
【0061】具体的な例で説明する。図14上段の航空
写真を簡略化したカラー画像データを認識対象とする。
まず、各画素のRGB値がc1、c2、c3に変換され
る。そして図14下段のように道路や建物の形状がエッ
ジとして検出される。
【0062】以上のように、本実施の形態では、カラー
画像データに記憶されている画素値の色空間座標を変換
した後に画素ベクトルデータを生成する。これにより、
認識の対象となる画像データの特徴に応じて適切な色空
間座標に変換したり、人間にとって理解しやすい色空間
座標に変換することができる。例えば、明度、RGBに
おけるrの割合、RGBにおけるgの割合のすべてを考
慮するが、その中で特に明度に重点をおいたエッジ検出
なども可能になる。
【0063】(実施の形態3)第3の実施の形態の画像
認識装置は、第2の実施形態(図11)と変わりはな
い。
【0064】この第3の実施形態の装置の動作手順を、
第2の実施形態と同じ図12のフローチャートに示す。
【0065】ステップ11、ステップ12、およびステ
ップ13は第1の実施形態と同様である。
【0066】ステップ20:画素値を図3のRGBの色
空間から図15の円柱型の色空間の座標系へ変換する。
式(9)によって画素値r(x,y),g(x,y),
b(x,y)から色相(Hue):h(x,y),彩度
(Saturation):s(x,y),明度(In
tensity):i(x,y)に変換する。明度は色
の明るさを表す量であり、図15左側の円柱座標系の高
さ方向に相当する。
【0067】
【数9】
【0068】例えば明度が最小値の場合、それが示す色
は黒である。彩度は色の鮮やかさを表す量であり、図1
5右側の極座標系の中心からの距離で表される。例えば
彩度が最小値の場合、それが表す色は黒、白、グレーで
あり、彩度が最大値の場合、それが表す色は原色の赤、
青、緑などである。色相は赤、青、緑といった色の違い
を示す量であり、図15右側の極座標系の角度で表され
る。例えば角度0[rad]は赤、角度2/3π[ra
d]は緑、角度4/3π[rad]は青を表す。RGB
からHSIへの変換モデルにはいくつか存在するが、式
(9)では双六角錐モデルを用いた。式(9)では、
r、g、b、i、sの値域は[0..max_valu
e]、hの値域は[0..2π]であり、(x,y)は
省略して記述してある。RGBが各8bitデータであ
る場合は、max_valueの値は255である。
【0069】ステップ10:画素値から画素ベクトルデ
ータPVを生成する。画像中のすべての画素について式
(10)によって画素値h(x,y),s(x,y),
i(x,y)からベクトルデータPV(x,y)を生成
する。
【0070】
【数10】
【0071】この時、h(x,y),s(x,y)が極
座標で表されていた部分を直行座標系に変換してPVを
生成する。式(10)におけるパラメータaを調整する
ことによってHSIすべてに重点を置いた処理をするの
か、または特に明度に重点を置いた処理を行なうのかを
決定する。例えばパラメータaを1にすることで、HS
Iすべてに重点を置いたエッジ検出、パラメータaを1
より小さくすることで特に明度に重点を置いたエッジ検
出が可能になる。
【0072】具体的な例で説明する。図16の航空写真
を簡略化したカラー画像データを認識対象とする。この
画像は実際の航空写真を想定し、図10上段の画像に対
して、画素値にある程度の範囲をもたせてある。例えば
同じ道路領域でもRGB値が一定であることはなく、あ
る程度の画素値のバラつきがある。
【0073】ステップ20において各画素のRGB値が
HSIに変換される。そして図17のように道路や建物
の形状がエッジとして検出される。画素値のバラつきが
あるために雑音のエッジが検出されたり、道路や建物の
形状が途切れたりする。
【0074】以上のように、本実施の形態では、カラー
画像データに記憶されている画素値の色空間座標をHS
Iの座標系に変換した後に画素ベクトルデータを生成す
る。これにより、RGBよりも直観的にわかりやすいH
SIに変換されたデータに対する処理を行なうので、エ
ッジ検出を容易に行なうことができる。
【0075】(実施の形態4)第4の実施の形態の画像
認識装置は、第2の実施形態(図11)と変わりはな
い。
【0076】この第4の実施形態の装置の動作手順を、
第2の実施形態と同じ図12のフローチャートに示す。
【0077】ステップ11、ステップ12、およびステ
ップ13は第1の実施形態と同様である。
【0078】ステップ20:画素値を図3のRGBの色
空間から式(9)によって図15のHSI色空間の座標
系へ変換する。その後、さらに式(11)によって図1
8の逆円錐型の色空間の座標系へ変換する。
【0079】
【数11】
【0080】この式(11)によってh(x,y),s
(x,y),i(x,y)がそれぞれh’(x,y),
s’(x,y),i’(x,y)に変換されるが、h
(x,y)はh’(x,y)、i(x,y)とi’
(x,y)は変化がないが、i(x,y)の値が減少す
るにつれてs(x,y)の値を減少させたのがs’
(x,y)である。
【0081】ステップ10:画素値から画素ベクトルデ
ータPVを生成する。画像中のすべての画素について式
(12)によって画素値h’(x,y),s’(x,
y),i’(x,y)からベクトルデータPV(x,
y)を生成する。
【0082】
【数12】
【0083】この時、h’(x,y),s’(x,y)
が極座標で表されていた部分を直行座標系に変換してP
Vを生成する。式(12)におけるパラメータaを調整
することによってHSIすべてに重点を置いた処理をす
るのか、または特に明度に重点を置いた処理を行なうの
かを決定する。例えばパラメータaを1にすることで、
HSIすべてに重点を置いたエッジ検出、パラメータa
を1より小さくすることで特に明度に重点を置いたエッ
ジ検出が可能になる。
【0084】具体的な例で説明する。第3の実施形態と
同じく、図16の航空写真を簡略化したカラー画像デー
タを認識対象とする。
【0085】ステップ20において各画素のRGB値が
HSIに変換され、それがさらにH’S’I’に変換さ
れる。図19に各領域のHSIの値と、逆円錐型の色空
間座標に変換したH’S’I’の値との関係を示す。H
SIにおいては、明度の値が低いほど彩度の値のバラつ
きが大きい。これはRGBからHSIへの変換式がもつ
特徴である。例えばRGBがすべて値が小さく、明度が
低い時、RGBの中のどれかが値が1変化しただけでも
彩度の値は急激に変化してしまう。バラつきが大きい箇
所では色が急激に変化するために認識対象の輪郭でなく
てもエッジが検出されてしまう。H’S’I’において
はiの値が低いほどs’の値が小さくなるので、s’の
バラつきは抑制される。
【0086】画像認識処理結果を図20に示す。図17
では建物側面1、建物側面2などの明度の低い領域には
雑音が多いが、図20ではこれらが大幅に削減されてい
る。
【0087】以上のように、本実施の形態では、色空間
をHSIに変換する際に、明度の値によって彩度の値を
変化させる。これによって、RGBからHSIへの変換
式のもつ特徴である彩度の値が不安定になる条件を改善
し、彩度の値による雑音の発生を抑制して精度の良いエ
ッジ検出が可能になる。
【0088】(実施の形態5)第5の実施の形態の画像
認識装置は、第2の実施形態(図11)と変わりはな
い。
【0089】この第5の実施形態の装置の動作手順を、
第2の実施形態と同じ図12のフローチャートに示す。
【0090】ステップ11、ステップ12、およびステ
ップ13は第1の実施形態と同様である。ステップ10
は第4の実施形態と同様である。
【0091】ステップ20:画素値を図3のRGBの色
空間から式(9)によって図15のHSI色空間の座標
系へ変換する。その後、さらに式(13)によって図2
1の双円錐型の色空間の座標系へ変換する。
【0092】
【数13】
【0093】この式(13)によってh(x,y),s
(x,y),i(x,y)がそれぞれh’(x,y),
s’(x,y),i’(x,y)に変換される。h
(x,y)はh’(x,y)、i(x,y)とi’
(x,y)は変化がない。s’(x,y)はi(x,
y)の値が中間値付近ではs(x,y)との差はない
が、i(x,y)の値が増加、または減少するに従って
s(x,y)の値よりも小さくなる。
【0094】具体的な例で説明する。第3の実施形態と
同じく、図16の航空写真を簡略化したカラー画像デー
タを認識対象とする。
【0095】ステップ20において各画素のRGB値が
HSIに変換され、それがさらにH’S’I’に変換さ
れる。図19に各領域のHSIの値と、双円錐型の色空
間座標に変換したH’S’I’の値との関係を示す。
【0096】画像認識処理結果を図22に示す。建物側
面1や建物側面2などの明度の低い領域の雑音に加え、
および建物や道路などの明度の高い領域の雑音も大幅に
削減されている。
【0097】以上のように、本実施の形態では、色空間
をHSIに変換する際に、彩度の値が不安定となりやす
い明度の値が高い領域、および明度の値が低い領域に着
目し、特にその領域において彩度の値を減少させる。こ
れによって、RGBからHSIへの変換式のもつ特徴で
ある彩度の値が不安定になる条件を改善し、彩度の値に
よる雑音の発生を抑制して精度の良いエッジ検出が可能
になる。
【0098】(実施の形態6)第6の実施の形態の画像
認識装置は、第2の実施形態(図11)と変わりはな
い。
【0099】この第6の実施形態の装置の動作手順を、
第2の実施形態と同じ図12のフローチャートに示す。
【0100】ステップ11、ステップ12、およびステ
ップ13は第1の実施形態と同様である。ステップ10
は第4の実施形態と同様である。
【0101】ステップ20:まず、式(9)のRGBか
らHSIへの変換式を利用して式(14)により関数f
(i)を求める。
【0102】
【数14】
【0103】この関数f(i)を図23に示す。fの値
が高いほどrの値の変化に対してsの値が安定であり、
逆にfの値が低いほどrの値の変化に対してsの値が不
安定であることを示している。この例ではiが低い部分
と高い部分にsの値が不安定である部分が存在する。次
に式(15)によって図24の変形円柱型の色空間の座
標系へ変換する。この変形円柱は図23のf(i)のグ
ラフをi軸を中心として回転させた形状である。
【0104】
【数15】
【0105】具体的な例で説明する。第3の実施形態と
同じく、図16の航空写真を簡略化したカラー画像デー
タを認識対象とする。
【0106】ステップ20において各画素のRGB値が
HSIに変換され、それがさらにH’S’I’に変換さ
れる。図19に各領域のHSIの値と、変形円柱型の色
空間座標に変換したH’S’I’の値との関係を示す。
【0107】画像認識処理結果を図25に示す。建物側
面1や建物側面2などの明度の低い領域の雑音に加え、
および建物や道路などの明度の高い領域の雑音も大幅に
削減されている。さらに道路形状や建物形状などのエッ
ジが途切れなく検出されている。
【0108】以上のように、本実施の形態では、色空間
をHSIに変換する際に、RGBからHSIへの変換式
から、彩度の不安定さと明度との関係を算出し、彩度の
不安定さが一定になるように、明度の値によって彩度の
値を変化させる。
【0109】これにより、彩度の値が不安定な部分のみ
を適切に補正し、雑音の発生を抑制し、精度の良いエッ
ジ検出が可能になる。
【0110】(実施の形態7)第7の実施の形態の画像
認識装置は、図26に示すように形状データを領域デー
タとして記憶する形状データ(領域画像)記憶手段4
と、画像データの画像認識を行なう画像認識手段2と画
像認識手段2で領域統合された形状を記憶する形状デー
タ(統合後領域画像)記憶手段5とを備えている。
【0111】画像認識手段2では小領域決定手段26と
統合対象領域決定手段27と領域統合手段28とを備え
ている。小領域決定手段26で領域が選択され、小領域
決定手段26で決定された領域と統合される領域が統合
対象領域決定手段27で決定され、領域統合手段28で
統合される。統合対象領域決定手段27においては、小
領域決定手段において決定された領域と隣接するすべて
の領域との共通境界線の長さを比較し、最も共通境界線
長の長さが長い領域が選択される。
【0112】形状データ(領域画像)記憶手段4に記憶
される領域画像の例を図27に示す。各画素は図27左
側のように”1”、”2”などのラベルをもつ。同じラ
ベルをもつ画素は同じ領域に含まれる。図27左側には
ラベル1をもつ領域、ラベル2をもつ領域、ラベル3を
もつ領域が存在している。
【0113】画像を領域に分割する代表的な方法として
領域分割がある。領域分割の1つの方法である領域拡張
法では、まず各画素をそれそれ領域とし、隣接する領域
間の画素値などの特徴量の値の近さに基づいて領域を拡
張していく方法である。これにより、物体の形状を領域
として検出する。
【0114】本実施の形態では、形状データ(領域画
像)記憶手段4に記憶されている領域画像の生成過程は
特に限定しない。形状データ(領域画像)記憶手段4に
記憶されている領域画像から雑音である小領域を大領域
へ統合、あるいは小領域同士を統合することによって小
領域を削除し、その結果の領域画像を形状データ(統合
後領域画像)記憶手段5に記憶する。
【0115】この第7の実施形態の装置の動作手順を図
28のフローチャートに示す。
【0116】ステップ70:領域画像の中でその面積が
s[画素]以下の領域が存在するかどうかを調べ、存在
するならばステップ71へ、存在しないならばすべての
小領域が削除されたと判断し終了する。ここでsは閾値
として事前に与えられた値である。
【0117】ステップ71:面積がs[画素]以下の領
域rを選択する。
【0118】ステップ72:領域rと隣接する領域をr
1,r2,...,rnとした時にrとr1,r
2,...,rnとの共通境界線長をそれぞれ計算す
る。
【0119】ステップ73:領域rとの共通境界線長が
最長な領域riを選択する。
【0120】ステップ74:領域rと領域riを統合す
る。領域rと領域riの境界線を削除し、統合された領
域をri’とする。
【0121】具体的な例で説明する。図29上段のよう
な領域画像を領域統合処理の対象とする。画像中には
R、R1、R2、R3の4つの領域が存在し、Rは車、
R1は道路の領域である。領域Rの面積がs[画素]以
下であるので、この領域を削除する。
【0122】領域Rが隣接する領域はR1とR2である
が、共通境界線長を求めると、RとR1の共通境界線長
の方がRとR2の共通境界線長よりも長い。そこで領域
Rとの統合対象の領域としてはR1が選ばれ、RとR1
が統合し、新たな領域R1’が生成され、図29下段の
ようになる。
【0123】仮に領域RとR2の画素値が近い、つまり
色が似ている場合、画素値を考慮した領域の統合ではR
とR2が統合されてしまい、道路形状が不自然になって
しまう。
【0124】以上のように、本実施の形態では、既に領
域に分割された画像を対象として、画素値は考慮せず
に、領域の形状のみを考慮し、共通境界線長が最長にな
る領域同士を統合していくことにより、認識対象物の形
状の抽出の精度を下げずに、雑音である小領域を除去す
ることが可能となる。特に都市部の航空写真の画像デー
タを対象として、道路形状の抽出の精度を下げずに、道
路上の車の形状を削除することができる。
【0125】(実施の形態8)第8の実施の形態の画像
認識装置は、第7の実施形態(図26)と変わりはな
い。
【0126】この第8の実施形態の装置の動作手順を、
第7の実施形態と同じ図28のフローチャートに示す。
【0127】ステップ70、ステップ72、ステップ7
2、およびステップ74は第7の実施形態と同様であ
る。
【0128】ステップ71:領域画像中で面積が最小の
領域rを選択する。
【0129】具体的な例で説明する。図30上段のよう
な領域画像を領域統合処理の対象とする。画像中にはR
1、R2、R3、R4の4つの領域が存在し、R1は屋
上施設1、R2は屋上施設2、R3は建物屋上である。
R1とR2の面積はs[画素]以下である。これらの領
域の中でR1が面積が最小であるので、図30中段のよ
うにR1とR3を統合して領域R3’を生成する。さら
に、R2、R3’、R4の中でR2が面積が最小である
ので、図30下段のようにR2とR3’を統合して領域
R3’’を生成する。このようにして建物の屋上施設が
削除され、建物形状のみが抽出される。
【0130】仮にR2、R1の順序で領域統合を行なう
と、R2はR4へ、R1はR3へ統合してしまい、建物
形状を正確に抽出することができない。
【0131】以上のように、本実施の形態では、最小の
面積の領域から統合処理を繰り返すことにより、認識対
象物の形状の抽出の精度を下げずに、雑音である小領域
を除去することが可能となる。特に都市部の航空写真の
画像データを対象とした場合、一般の住宅の屋根と異な
り、ビルなどの建物の屋上部分には細かな屋上施設が多
数存在する場合が多いが、そのような場合でも正確に建
物形状を抽出することが可能となる。
【0132】(実施の形態9)第9の実施の形態の画像
認識装置は、第7の実施形態(図26)と変わりはな
い。
【0133】この第9の実施形態の装置の動作手順を、
第7の実施形態と同じ図28のフローチャートに示す。
【0134】ステップ70、ステップ72、ステップ7
2、およびステップ74は第7の実施形態と同様であ
る。
【0135】ステップ71:面積がs[画素]以下のす
べて領域に対して、その領域に隣接するすべての領域の
面積の合計を求め、その面積の合計が最小となる領域r
を選択する。
【0136】具体的な例で説明する。図31上段のよう
な領域画像を領域統合処理の対象とする。画像中にはR
1、R2、R3、R4の4つの領域が存在し、R1は屋
上施設1、R2は屋上施設2、R3は建物屋上である。
R1とR2の面積はs[画素]以下とする。隣接領域の
面積の合計を求めると、R1はR2、R3の面積の合
計、R2はR1、R3、R4の面積の合計であるので、
R1の方が隣接領域の面積の合計は小さい。図31中段
のようにR1とR3を統合して領域R3’を生成する。
次に図31下段のようにR2とR3’を統合して領域R
3’’を生成する。このようにして建物の屋上施設が削
除され、建物形状のみが抽出される。
【0137】仮にR2、R1の順序で領域統合を行なう
と、R2はR4へ、R1はR3へ統合してしまい、建物
形状を正確に抽出することができない。
【0138】以上のように、本実施の形態では、隣接す
る領域の面積の合計が最小の領域から統合処理を繰り返
すことにより、認識対象物の形状の抽出の精度を下げず
に、雑音である小領域を除去することが可能となる。特
に都市部の航空写真の画像データを対象とした場合、一
般の住宅の屋根と異なり、ビルなどの建物の屋上部分に
は細かな屋上施設が多数存在する場合が多い。そのよう
な場合にビルの内部から外側へ向けて統合が進むので正
確に建物形状を抽出することが可能となる。
【0139】(実施の形態10)第10の実施の形態の
画像認識装置は、図32に示すようにカラー画像データ
を記憶する画像データ記憶手段1と、カラー画像データ
の画像認識を行なう画像認識手段2と、画像認識手段2
において抽出された形状データを記憶する形状データ
(統合後領域画像)記憶手段5とを備えている。
【0140】画像認識手段2では、色空間座標変換手段
25と画素ベクトルデータ生成手段21とエッジテンプ
レート適用手段22とエッジ強さ・方向決定手段23と
エッジ画素決定手段24とエッジー領域変換手段29と
小領域決定手段26と統合対象領域決定手段27と領域
統合手段28とを備えている。
【0141】色空間座標変換手段25ではカラー画像デ
ータ記憶手段1に記憶されたRGBデータを別の色空間
座標へ変換し、画素ベクトルデータ生成手段21では変
換された画像データの画素値の複数のスカラデータから
画素ベクトルデータを生成する。エッジテンプレート適
用手段22では、画素ベクトルデータにエッジテンプレ
ートを適用し、エッジベクトルデータを生成する。エッ
ジ強さ・方向決定手段23では、エッジベクトルデータ
の大きさからエッジの強さと方向を決定する。エッジ画
素決定手段24では、エッジの強さと方向からエッジ画
素を決定する。エッジー領域変換手段29ではエッジ画
像を領域画像に変換する。小領域決定手段26では領域
が選択され、小領域決定手段26で決定された領域と統
合される領域が統合対象領域決定手段27で決定され、
領域統合手段28で統合される。統合対象領域決定手段
27においては、小領域決定手段において決定された領
域と隣接するすべての領域との共通境界線の長さを比較
し、最も共通境界線長の長さが長い領域が選択される。
【0142】この第10の実施形態の装置の動作手順を
図33のフローチャートに示す。
【0143】ステップ11、ステップ12およびステッ
プ13は第1の実施形態と同様である。ステップ20お
よびステップ10は第2、第3、第4、第5または第6
の実施形態と同様である。ステップ70、ステップ7
2、ステップ73およびステップ74は第7の実施形態
と同様である。ステップ71は第7、第8または第9の
実施形態と同様である。
【0144】ステップ100:エッジ画像を領域画像に
変換する。エッジ画素によって囲まれる連結した画素に
共通のラベルを割り当て、領域とする。
【0145】具体的な例で説明する。図34上段の航空
写真を簡略化したカラー画像データを認識対象とする。
画像中には道路、車(2台)、建物が写っている。この
画像に対し、カラー画像データの画素値の複数のスカラ
データを利用してエッジ検出した結果が図34中段のよ
うになる。道路、車、建物のそれぞれの形状のエッジが
検出される。さらにこれを領域画像に変換し、領域内の
画素値は考慮せず、領域の形状のみを考慮した領域統合
を行なった結果を図34下段に示す。車の形状が削除さ
れ、道路、建物の形状のみが検出される。
【0146】また、図35上段の実際の航空写真のカラ
ー画像データを認識対象とする。画像中には道路、建
物、多数の車が写っている。この画像に対し、カラー画
像データの画素値の複数のスカラデータを利用してエッ
ジ検出した結果が図35中段のようになる。建物の屋根
部分と地面との明度にあまり差がないため、従来の方法
では建物の形状のエッジの検出は困難であるが、本発明
の手法では建物のエッジは検出されている。さらにこれ
を領域画像に変換し、領域内の画素値は考慮せず、領域
の形状のみを考慮した領域統合を行なった結果を図35
下段に示す。建物の形状の抽出精度を下げずに多数の車
の形状が削除されている。
【0147】以上のように、本実施の形態では、まず画
素値の複数のスカラデータを対象としたエッジ検出を行
なう。そして、それに含まれる雑音を削除するために、
画素値は考慮せずに領域の形状のみを考慮し、共通境界
線長が最長になる領域同士を統合していく。
【0148】従来の平滑化を行なう方法では雑音を除去
するために認識対象物の形状にも影響を与えてしまうた
めに、道路や建物などの認識対象物の形状も丸く変形し
てしまったり、近い距離にある形状同士が接続してしま
ったりする。本実施の形態では道路や建物などの認識対
象物の形状には影響を与えずに雑音である小領域を削除
することにより、精度良く認識対象物の形状を抽出する
ことが可能である。
【0149】
【発明の効果】以上のように本発明によれば、第1に、
従来は明度のみに対して行なっていたエッジ検出を、画
素ベクトルデータを生成すること、およびエッジテンプ
レートを適用することにより、画素値の複数のスカラデ
ータを扱い、かつエッジ検出による画像中の認識対象物
の形状の抽出において重要なエッジの方向を簡単、かつ
正確に求めることができるという効果がある。
【0150】第2に、カラー画像データに記憶されてい
る画素値の色空間座標を変換した後に画素ベクトルデー
タを生成することより、認識の対象となる画像データの
特徴に応じて適切な色空間座標に変換したり、人間にと
って理解しやすい色空間座標に変換されたデータに対す
るエッジ検出ができるという効果がある。
【0151】第3に、カラー画像データに記憶されてい
る画素値の色空間座標をHSIの座標系に変換した後に
画素ベクトルデータを生成することにより、直観的にわ
かりやすいHSIに変換されたデータに対する処理を行
なうので、エッジ検出を容易に行なうことができる。
【0152】第4に、色空間をHSIに変換する際に、
明度の値によって彩度の値を変化させることにより、R
GBからHSIへの変換式のもつ特徴である彩度の値が
不安定になる条件を改善し、彩度の値による雑音の発生
を抑制して精度の良いエッジ検出が可能になるという効
果がある。
【0153】第5に、色空間をHSIに変換する際に、
彩度の値が不安定となりやすい明度の値が高い領域、お
よび明度の値が低い領域に着目し、特にその領域におい
て彩度の値を減少させることにより、RGBからHSI
への変換式のもつ特徴である彩度の値が不安定になる条
件を改善し、彩度の値による雑音の発生を抑制して精度
の良いエッジ検出が可能になるという効果がある。
【0154】第6に、色空間をHSIに変換する際に、
RGBからHSIへの変換式から、彩度の不安定さと明
度との関係を算出し、彩度の不安定さが一定になるよう
に、明度の値によって彩度の値を変化させることによ
り、彩度の値が不安定な部分のみを適切に補正し、雑音
の発生を抑制し、精度の良いエッジ検出が可能になると
いう効果がある。
【0155】第7に、画素値は考慮せずに、領域の形状
のみを考慮し、共通境界線長が最長になる領域同士を統
合していくことにより、認識対象物の形状の抽出の精度
を下げずに、雑音である小領域を除去することが可能と
なるという効果がある。
【0156】第8に、最小の面積の領域から統合処理を
繰り返すことにより、認識対象物の形状の抽出の精度を
下げずに、雑音である小領域を除去することが可能とな
るという効果がある。
【0157】第9に、隣接する領域の面積の合計が最小
の領域から統合処理を繰り返すことにより、認識対象物
の形状の抽出の精度を下げずに、雑音である小領域を除
去することが可能となるという効果がある。
【0158】第10に、まず色の複数の属性を対象とし
たエッジ検出を行なった後に、それに含まれる雑音を削
除するために、画素値は考慮せずに領域の形状のみを考
慮し、共通境界線長が最長になる領域同士を統合してい
く。これにより、従来は実現できなかった認識対象物の
形状には影響を与えずに雑音である小領域を削除するこ
とが可能となるという効果がある。
【図面の簡単な説明】
【図1】本発明の第1の実施形態の装置を示すブロック
【図2】第1の実施形態の装置の動作を説明するための
画像の座標系モデル図
【図3】第1の実施形態の装置の動作を説明するための
色空間の座標系モデル図
【図4】第1の実施形態の装置の動作を説明するための
検出された形状の例の図
【図5】第1の実施形態の装置の動作を示すフローチャ
ート
【図6】第1の実施形態の装置の動作を説明するための
エッジテンプレートの例の図
【図7】第1の実施形態の装置の動作を説明するための
エッジベクトルデータの例の図
【図8】第1の実施形態の装置の動作を説明するための
エッジの強さと方向の例の図
【図9】第1の実施形態の装置の動作を説明するための
エッジ画素の決定方法の例の図
【図10】第1の実施形態の装置の動作を説明するため
の画像認識結果の例の図
【図11】本発明の第2、第3、第4、第5、第6の実
施形態の装置を示すブロック図
【図12】第2、第3、第4、第5、第6の実施形態の
装置の動作を示すフローチャート
【図13】第2の実施形態の装置の動作を説明するため
の色空間の座標系モデル図
【図14】第2の実施形態の装置の動作を説明するため
の画像認識結果の例の図
【図15】第3の実施形態の装置の動作を説明するため
の色空間の座標系モデル図
【図16】第3、第4、第5、第6の実施形態の装置の
動作を説明するための認識対象画像の例の図
【図17】第3の実施形態の装置の動作を説明するため
の画像認識結果の例の図
【図18】第4の実施形態の装置の動作を説明するため
の色空間の座標系モデル図
【図19】第4、第5、第6の実施形態の装置の動作を
説明するための色空間座標値対応を示す図
【図20】第4の実施形態の装置の動作を説明するため
の画像認識結果の例の図
【図21】第5の実施形態の装置の動作を説明するため
の色空間の座標系モデル図
【図22】第5の実施形態の装置の動作を説明するため
の画像認識結果の例の図
【図23】第6の実施形態の装置の動作を説明するため
の彩度の不安定さと明度との関係グラフ
【図24】第6の実施形態の装置の動作を説明するため
の色空間の座標系モデル図
【図25】第6の実施形態の装置の動作を説明するため
の画像認識結果の例の図
【図26】本発明の第7、第8、第9の実施形態の装置
を示すブロック図
【図27】第7の実施形態の装置の動作を説明するため
の領域画像の例の図
【図28】第7、第8、第9の実施形態の装置の動作を
示すフローチャート
【図29】第7の実施形態の装置の動作を説明するため
の画像認識結果の例の図
【図30】第8の実施形態の装置の動作を説明するため
の画像認識結果の例の図
【図31】第9の実施形態の装置の動作を説明するため
の画像認識結果の例の図
【図32】本発明の第10の実施形態の装置を示すブロ
ック図
【図33】第10の実施形態の装置の動作を示すフロー
チャート
【図34】第10の実施形態の装置の動作を説明するた
めの画像認識結果の例の図
【図35】第10の実施形態の装置の動作を説明するた
めの航空写真の画像認識結果の例の図
【図36】従来技術の動作を説明するための画像認識結
果の例の図
【符号の説明】
1 カラー画像データ記憶手段 2 画像認識手段 3 形状データ(エッジ画像)記憶手段 4 形状データ(領域画像)記憶手段 5 形状データ(統合後領域画像)記憶手段 21 画素ベクトルデータ生成手段 22 エッジテンプレート適用手段 23 エッジ強さ・方向決定手段 24 エッジ画素決定手段 25 色空間座標変換手段 26 小領域検出手段 27 統合対象領域決定手段 28 領域統合手段 29 エッジー領域変換手段

Claims (10)

    【特許請求の範囲】
  1. 【請求項1】 カラー画像データを記憶する画像データ
    記憶手段と、前記画像データ記憶手段に記憶されたカラ
    ー画像データの画素値から画素ベクトルデータを生成す
    る画素ベクトルデータ生成手段と、前記画素ベクトルデ
    ータに対してエッジテンプレートを適用してエッジベク
    トルデータを生成するテンプレート適用手段と、前記エ
    ッジベクトルデータからエッジの強さとエッジの方向を
    決定するエッジ強さ・方向決定手段と、前記エッジの強
    さと方向からエッジの検出を行うことで形状データを抽
    出するエッジ画素決定手段とを備えることにより前記カ
    ラー画像データの画像認識を行なう画像認識手段と、 前記画像認識手段において抽出された形状データなるエ
    ッジ画像を記憶するエッジ画像記憶手段とを具備し、 前記画素ベクトルデータ生成手段によって前記カラー画
    像データの画素の複数のスカラデータから画素ベクトル
    データを生成し、前記エッジ強さ・方向決定手段によっ
    て前記エッジベクトルデータの大きさからエッジの強さ
    とエッジの方向を決定することを特徴とする画像認識装
    置。
  2. 【請求項2】 前記請求項1の構成に、前記カラー画像
    データの色空間上での座標変換を行なう色空間座標変換
    手段をさらに備え、 前記画素値の複数のスカラデータ
    は前記色空間座標変換手段によって変換されたスカラデ
    ータであることを特徴とする請求項1に記載の画像認識
    装置。
  3. 【請求項3】 前記色空間座標変換手段は、前記カラー
    画像データが、色相、彩度および明度を要素とするHS
    Iの色空間に変換されることを特徴とする請求項2に記
    載の画像認識装置。
  4. 【請求項4】 前記色空間座標変換手段は、変換される
    彩度の値を明度の値に応じて変更することを特徴とする
    請求項3に記載の画像認識装置。
  5. 【請求項5】 前記色空間座標変換手段は、明度が中間
    値付近では変換される彩度の値が大きく、明度が中間値
    付近から増加、または減少するにつれて変換される彩度
    の値が小さくなることを特徴とする請求項4に記載の画
    像認識装置。
  6. 【請求項6】 前記色空間座標変換手段は、明度の値と
    彩度の値との対応関係は前記HSIへの変換式によって
    決定することを特徴とする請求項4に記載の画像認識装
    置。
  7. 【請求項7】 形状データを領域画像として記憶する第
    1の形状データ記憶手段と、 前記領域画像が領域統合の対象となる領域を決定する小
    領域決定手段と、前記小領域決定手段で決定された領域
    と統合の対象となる領域を選択する統合対象領域決定手
    段と、前記小領域決定手段で決定された領域と前記統合
    対象領域決定手段で決定された領域とを統合する領域統
    合手段とを備えることにより前記形状データの画像認識
    を行う画像認識手段と、 前記画像認識手段で領域統合された形状データを記憶す
    る第2の形状データ記憶手段と、 前記統合対象領域決定手段において決定される領域は、
    前記小領域決定手段において決定された領域との共通境
    界線の長さによって決定することを特徴とする画像認識
    装置。
  8. 【請求項8】 前記小領域決定手段において、領域の大
    きさから統合の対象となる領域を決定することを特徴と
    する請求項7に記載の画像認識装置。
  9. 【請求項9】 前記小領域決定手段において、隣接する
    領域の大きさから統合の対象となる領域を決定すること
    を特徴とする請求項7に記載の画像認識装置。
  10. 【請求項10】 前記請求項1または前記請求項2の構
    成に加え、前記画像認識手段に、エッジ画像を領域画像
    に変換するエッジー領域変換手段と、領域統合の対象と
    なる領域を決定する小領域決定手段と、前記小領域決定
    手段で決定された領域と統合の対象となる領域を選択す
    る統合対象領域決定手段と、前記小領域決定手段で決定
    された領域と前記統合対象領域決定手段で決定された領
    域とを統合する領域統合手段とを備え、 前記統合対象領域決定手段において決定される領域は、
    前記小領域決定手段において決定された領域との共通境
    界線の長さによって決定することを特徴とする請求項1
    または請求項2に記載の画像認識装置。
JP11099662A 1999-04-07 1999-04-07 画像認識装置 Withdrawn JP2000293696A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP11099662A JP2000293696A (ja) 1999-04-07 1999-04-07 画像認識装置
EP00107504A EP1043688A3 (en) 1999-04-07 2000-04-06 Image recognition method and apparatus utilizing edge detection based on magnitudes of color vectors expressing color attributes of respective pixels of color image
US09/545,580 US6665439B1 (en) 1999-04-07 2000-04-07 Image recognition method and apparatus utilizing edge detection based on magnitudes of color vectors expressing color attributes of respective pixels of color image
US10/684,477 US6885771B2 (en) 1999-04-07 2003-10-15 Image recognition method and apparatus utilizing edge detection based on magnitudes of color vectors expressing color attributes of respective pixels of color image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11099662A JP2000293696A (ja) 1999-04-07 1999-04-07 画像認識装置

Publications (1)

Publication Number Publication Date
JP2000293696A true JP2000293696A (ja) 2000-10-20

Family

ID=14253263

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11099662A Withdrawn JP2000293696A (ja) 1999-04-07 1999-04-07 画像認識装置

Country Status (3)

Country Link
US (2) US6665439B1 (ja)
EP (1) EP1043688A3 (ja)
JP (1) JP2000293696A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009237397A (ja) * 2008-03-28 2009-10-15 Geo Technical Laboratory Co Ltd 地物抽出装置
JP2010128732A (ja) * 2008-11-27 2010-06-10 Japan Traffic Management Technology Association 車両台数密度観測装置及び車両台数密度観測装置用のプログラム
JP2011065604A (ja) * 2009-09-18 2011-03-31 Konica Minolta Business Technologies Inc 画像処理方法および画像処理装置
JP2014063377A (ja) * 2012-09-21 2014-04-10 Nikon Systems Inc 画像処理装置およびプログラム
JP2018063512A (ja) * 2016-10-12 2018-04-19 本郷飛行機株式会社 移動体の姿勢制御システム
WO2018134943A1 (ja) * 2017-01-19 2018-07-26 三菱電機株式会社 判別装置、判別システム、判別方法及びプログラム

Families Citing this family (102)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2160467C1 (ru) * 1999-07-08 2000-12-10 Яхно Владимир Григорьевич Способ адаптивного распознавания информационных образов и система для его осуществления
GB2356512B (en) * 1999-08-18 2003-12-24 Zsp Geodaetische Sys Gmbh Method for determining the edge position in colour images in particular for colour and intensity transitions
DE10020067B4 (de) * 1999-08-18 2008-04-10 Trimble Jena Gmbh Verfahren zur Bestimmung der Kantenposition in Farbbildern, insbesondere für Farb- und Intensitätsübergänge
US20010004838A1 (en) * 1999-10-29 2001-06-28 Wong Kenneth Kai Integrated heat exchanger system for producing carbon dioxide
FR2809267B1 (fr) * 2000-05-19 2002-09-27 Thomson Multimedia Sa Procede de detection de saturation d'un champ de vecteurs mouvement
JP4586241B2 (ja) * 2000-06-14 2010-11-24 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置
CA2316610A1 (en) * 2000-08-21 2002-02-21 Finn Uredenhagen System and method for interpolating a target image from a source image
US7016532B2 (en) * 2000-11-06 2006-03-21 Evryx Technologies Image capture and identification system and process
US9310892B2 (en) 2000-11-06 2016-04-12 Nant Holdings Ip, Llc Object information derived from object images
US7899243B2 (en) * 2000-11-06 2011-03-01 Evryx Technologies, Inc. Image capture and identification system and process
US8218873B2 (en) 2000-11-06 2012-07-10 Nant Holdings Ip, Llc Object information derived from object images
US8224078B2 (en) 2000-11-06 2012-07-17 Nant Holdings Ip, Llc Image capture and identification system and process
US7565008B2 (en) 2000-11-06 2009-07-21 Evryx Technologies, Inc. Data capture and identification system and process
US7680324B2 (en) 2000-11-06 2010-03-16 Evryx Technologies, Inc. Use of image-derived information as search criteria for internet and other search engines
JP3992452B2 (ja) * 2000-11-09 2007-10-17 日立ソフトウエアエンジニアリング株式会社 変化検出装置、変化検出方法及び該方法に係るプログラムを記憶した記憶媒体並びにシステム
US20020131638A1 (en) * 2001-01-10 2002-09-19 Koninklijke Philips Electronics N.V. Apparatus and method for boundary detection in vector sequences and edge detection in color image signals
JP2003061105A (ja) * 2001-06-07 2003-02-28 Seiko Epson Corp 画像処理方法、画像処理プログラム、画像処理装置およびそれを用いたディジタルスチルカメラ
US7509241B2 (en) * 2001-07-06 2009-03-24 Sarnoff Corporation Method and apparatus for automatically generating a site model
TWI263942B (en) 2001-12-05 2006-10-11 Em Microelectronic Marin Sa Method and sensing device for motion detection in an optical pointing device, such as an optical mouse
US6806458B2 (en) * 2001-12-05 2004-10-19 Em Microelectronic - Marin Sa Method, sensing device and optical pointing device including a sensing device for comparing light intensity between pixels
GB2384095B (en) * 2001-12-10 2004-04-28 Cybula Ltd Image recognition
JP4172941B2 (ja) * 2002-03-01 2008-10-29 日立ソフトウエアエンジニアリング株式会社 土地区画データ作成方法および装置
US8257967B2 (en) * 2002-04-26 2012-09-04 Board Of Regents, The University Of Texas System Method and system for the detection of cardiac risk factors
US7415153B2 (en) * 2002-09-20 2008-08-19 International Business Machines Corporation Color naming, color categorization and describing color composition of images
JP4206723B2 (ja) * 2002-10-11 2009-01-14 オムロン株式会社 画像処理方法および画像処理装置
FI115942B (fi) 2002-10-14 2005-08-15 Nokia Corp Menetelmä kuvien interpoloimiseksi ja terävöittämiseksi
KR100480781B1 (ko) * 2002-12-28 2005-04-06 삼성전자주식회사 치아영상으로부터 치아영역 추출방법 및 치아영상을이용한 신원확인방법 및 장치
JP4214459B2 (ja) * 2003-02-13 2009-01-28 ソニー株式会社 信号処理装置および方法、記録媒体、並びにプログラム
JP4143916B2 (ja) * 2003-02-25 2008-09-03 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP3772845B2 (ja) * 2003-03-24 2006-05-10 コニカミノルタホールディングス株式会社 画像処理プログラム、画像処理装置、および撮影装置
WO2004088592A2 (en) * 2003-03-25 2004-10-14 General Electric Company Methods for processing color image data employing a chroma, hue, and intensity color representation
SG115540A1 (en) * 2003-05-17 2005-10-28 St Microelectronics Asia An edge enhancement process and system
US7161586B2 (en) * 2003-07-01 2007-01-09 Em Microelectronic-Marin Sa Method of operating an optical motion sensing device and optical motion sensing device implementing this method
US7805003B1 (en) * 2003-11-18 2010-09-28 Adobe Systems Incorporated Identifying one or more objects within an image
EP1695082A2 (en) 2003-12-11 2006-08-30 Board of Regents, The University of Texas System Method and system for the analysis of saliva using a sensor array
JP4407801B2 (ja) * 2003-12-16 2010-02-03 セイコーエプソン株式会社 エッジ生成装置、エッジ生成方法およびエッジ生成プログラム
US7440016B2 (en) * 2003-12-22 2008-10-21 Hewlett-Packard Development Company, L.P. Method of processing a digital image
US7379587B2 (en) * 2004-02-12 2008-05-27 Xerox Corporation Systems and methods for identifying regions within an image having similar continuity values
US7400766B1 (en) * 2004-02-19 2008-07-15 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Image edge extraction via fuzzy reasoning
TW200528770A (en) * 2004-02-23 2005-09-01 Altek Corp Method and apparatus for determining edge inclination of an interested pixel in a color filter image array interpolation (CFAI)
US8105849B2 (en) 2004-02-27 2012-01-31 Board Of Regents, The University Of Texas System Integration of fluids and reagents into self-contained cartridges containing sensor elements
US8101431B2 (en) 2004-02-27 2012-01-24 Board Of Regents, The University Of Texas System Integration of fluids and reagents into self-contained cartridges containing sensor elements and reagent delivery systems
US7561720B2 (en) * 2004-04-30 2009-07-14 Visteon Global Technologies, Inc. Single camera system and method for range and lateral position measurement of a preceding vehicle
FR2870071B1 (fr) * 2004-05-05 2006-12-08 Centre Nat Rech Scient Cnrse Procede de traitement de donnees d'images, par reduction de bruit d'image, et camera integrant des moyens de mise en oeuvre de ce procede
TWI236901B (en) * 2004-06-11 2005-08-01 Oriental Inst Technology An apparatus and method for identifying surrounding environment by means of image processing and for outputting the resutls
US7405727B2 (en) 2004-12-15 2008-07-29 Em Microelectronic-Marin Sa Lift detection mechanism for optical mouse sensor
US7078673B1 (en) * 2004-12-27 2006-07-18 Em Microelectronic-Marin Sa Method and sensing device for motion detection in an optical pointing device, such as an optical mouse
CN1797429A (zh) * 2004-12-29 2006-07-05 鸿富锦精密工业(深圳)有限公司 二维图像分析处理系统及方法
US7689053B2 (en) * 2005-01-26 2010-03-30 Panasonic Corporation Image processing method
US7561721B2 (en) * 2005-02-02 2009-07-14 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US7899255B2 (en) 2005-02-07 2011-03-01 Imtt Svenska Ab Method for recognizing and indexing digital media
US7522782B2 (en) * 2005-04-06 2009-04-21 Hewlett-Packard Development Company, L.P. Digital image denoising
TWI267060B (en) * 2005-05-11 2006-11-21 Benq Corp Display apparatuses, methods and machine-readable storage medium for adjusting display parameter based on display content
EP1910824A4 (en) 2005-05-31 2012-11-21 Labnow Inc METHOD AND COMPOSITIONS RELATED TO THE PREPARATION AND USE OF A WHITE BLOOD IMAGE
US20070031008A1 (en) * 2005-08-02 2007-02-08 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US7623681B2 (en) * 2005-12-07 2009-11-24 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
JP2007157063A (ja) * 2005-12-08 2007-06-21 Sony Corp 画像処理装置及び画像処理方法、並びにコンピュータ・プログラム
US20070201058A1 (en) * 2006-02-28 2007-08-30 Texas Instruments Incorporated Systems and methods for indirect image data conversion
US7912296B1 (en) * 2006-05-02 2011-03-22 Google Inc. Coverage mask generation for large images
US7965902B1 (en) 2006-05-19 2011-06-21 Google Inc. Large-scale image processing using mass parallelization techniques
US8762493B1 (en) 2006-06-22 2014-06-24 Google Inc. Hierarchical spatial data structure and 3D index data versioning for generating packet data
JP4637063B2 (ja) * 2006-07-04 2011-02-23 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP4684959B2 (ja) * 2006-07-04 2011-05-18 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP4677376B2 (ja) * 2006-07-07 2011-04-27 キヤノン株式会社 画像処理装置、画像処理方法、画像処理プログラム及び記憶媒体
US20080080527A1 (en) * 2006-09-29 2008-04-03 Motorola, Inc. Method and apparatus for communication between session initiation protocol based networks and legacy networks
US7881497B2 (en) * 2007-03-08 2011-02-01 Honeywell International Inc. Vision based navigation and guidance system
US20090005948A1 (en) * 2007-06-28 2009-01-01 Faroog Abdel-Kareem Ibrahim Low speed follow operation and control strategy
JP2009194776A (ja) * 2008-02-15 2009-08-27 Fujitsu Microelectronics Ltd ノイズフィルタ
JP5356728B2 (ja) * 2008-05-26 2013-12-04 株式会社トプコン エッジ抽出装置、測量機、およびプログラム
JP5067882B2 (ja) * 2008-07-18 2012-11-07 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
KR100889026B1 (ko) * 2008-07-22 2009-03-17 김정태 이미지를 이용한 검색 시스템
DE102008052206A1 (de) * 2008-10-10 2010-04-15 Hamberger Industriewerke Gmbh Verfahren und Einrichtung zum Zuordnen einer WC-Sitzgarnitur
DE102009009572B3 (de) * 2009-02-19 2010-06-17 Eads Deutschland Gmbh Verfahren zur entropiebasierten Bestimmung von Objektrandkurven
JP5360989B2 (ja) * 2009-09-29 2013-12-04 株式会社日立ソリューションズ 地理情報生成システム及び地理情報生成方法
TWI398158B (zh) * 2009-12-01 2013-06-01 Ind Tech Res Inst 產生立體影像之影像深度的方法
JP5478268B2 (ja) * 2010-01-13 2014-04-23 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理方法および画像処理システム
US9639949B2 (en) * 2010-03-15 2017-05-02 Analog Devices, Inc. Edge orientation for second derivative edge detection methods
US8736458B2 (en) 2010-04-29 2014-05-27 Signature Research, Inc. Weigh-in-motion scale
US8300949B2 (en) 2010-05-18 2012-10-30 Sharp Laboratories Of America, Inc. Edge detection technique having improved feature visibility
JP5658931B2 (ja) * 2010-07-05 2015-01-28 オリンパス株式会社 画像処理装置、画像処理方法、および画像処理プログラム
US8553933B2 (en) * 2010-11-10 2013-10-08 Raytheon Company Edge diversity object detection
TWI450155B (zh) * 2011-02-15 2014-08-21 Wistron Corp 應用於光學式觸控裝置之校正資訊計算方法及系統
US20140081605A1 (en) * 2011-06-09 2014-03-20 Kyoto University Dtm estimation method, dtm estimation program, dtm estimation device, and method for creating 3-dimensional building model, and region extraction method, region extraction program, and region extraction device
EP2654021A3 (en) 2012-04-20 2015-06-03 Thomson Licensing Method and apparatus for image segmentation
JP2014009975A (ja) * 2012-06-28 2014-01-20 Hitachi Automotive Systems Ltd ステレオカメラ
US9547410B2 (en) 2013-03-08 2017-01-17 Adobe Systems Incorporated Selection editing using a localized level set algorithm
JP5574556B1 (ja) * 2013-09-26 2014-08-20 株式会社電通 視聴番組同定システム、方法およびプログラム
GB2528027B (en) * 2014-05-13 2016-12-14 String Labs Ltd Perimeter detection
JP6489761B2 (ja) * 2014-05-14 2019-03-27 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム
US9299164B2 (en) * 2014-07-22 2016-03-29 Xerox Corporation Method and apparatus for using super resolution encoding to provide edge enhancements for non-saturated objects
TWI512682B (zh) * 2014-09-30 2015-12-11 Quanta Comp Inc 影像處理系統及色彩飽和度補償方法
US9355457B1 (en) * 2015-04-15 2016-05-31 Adobe Systems Incorporated Edge detection using multiple color channels
US9811743B2 (en) 2015-06-29 2017-11-07 Sharp Laboratories Of America, Inc. Tracking road boundaries
CN105354805B (zh) * 2015-10-26 2020-03-06 京东方科技集团股份有限公司 深度图像的去噪方法和去噪设备
CN107452008A (zh) * 2016-06-01 2017-12-08 上海东方传媒技术有限公司 图像边缘检测方法及装置
GB201621404D0 (en) * 2016-12-15 2017-02-01 Trw Ltd A method of tracking objects in a scene
US10789495B2 (en) * 2016-12-21 2020-09-29 Volkswagen Ag System and method for 1D root association providing sparsity guarantee in image data
US10430671B2 (en) 2017-04-22 2019-10-01 Honda Motor Co., Ltd. System and method for remapping surface areas of a vehicle environment
US10740903B2 (en) * 2018-07-18 2020-08-11 Adobe Inc. Edge detection using fuzzy gradient information
US11568554B2 (en) * 2019-10-25 2023-01-31 7-Eleven, Inc. Contour-based detection of closely spaced objects
US10311577B1 (en) 2018-11-16 2019-06-04 Capital One Services, Llc Techniques to improve edge detection for images
CN113155860A (zh) * 2020-12-17 2021-07-23 华能澜沧江水电股份有限公司 一种基于流态视频监测的过水建筑物结构损伤诊断方法及系统

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5168530A (en) * 1988-08-29 1992-12-01 Raytheon Company Confirmed boundary pattern matching
US5081689A (en) * 1989-03-27 1992-01-14 Hughes Aircraft Company Apparatus and method for extracting edges and lines
EP0472782A1 (en) * 1990-08-27 1992-03-04 Koninklijke Philips Electronics N.V. Method of localizing an extreme amplitude value in multivalued amplitude data field and apparatus for performing the method
JPH0683962A (ja) 1992-05-21 1994-03-25 Sanyo Electric Co Ltd 画像認識方法
US5420971A (en) * 1994-01-07 1995-05-30 Panasonic Technologies, Inc. Image edge finder which operates over multiple picture element ranges
JP3759983B2 (ja) 1994-10-25 2006-03-29 富士機械製造株式会社 画像処理装置
JP3371614B2 (ja) 1995-05-19 2003-01-27 富士通株式会社 認識装置
US5956468A (en) * 1996-07-12 1999-09-21 Seiko Epson Corporation Document segmentation system
JP3814353B2 (ja) 1996-11-20 2006-08-30 キヤノン株式会社 画像分割方法および画像分割装置
JP2000517452A (ja) * 1997-05-05 2000-12-26 シェル オイル カンパニー 視認の方法
JP3120767B2 (ja) * 1998-01-16 2000-12-25 日本電気株式会社 外観検査装置、外観検査方法及び外観検査プログラムを記録した記録媒体

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009237397A (ja) * 2008-03-28 2009-10-15 Geo Technical Laboratory Co Ltd 地物抽出装置
JP2010128732A (ja) * 2008-11-27 2010-06-10 Japan Traffic Management Technology Association 車両台数密度観測装置及び車両台数密度観測装置用のプログラム
JP2011065604A (ja) * 2009-09-18 2011-03-31 Konica Minolta Business Technologies Inc 画像処理方法および画像処理装置
US8285036B2 (en) 2009-09-18 2012-10-09 Konica Minolta Business Technologies, Inc. Image processing method, image processing apparatus, and computer-readable storage medium for computer program
JP2014063377A (ja) * 2012-09-21 2014-04-10 Nikon Systems Inc 画像処理装置およびプログラム
JP2018063512A (ja) * 2016-10-12 2018-04-19 本郷飛行機株式会社 移動体の姿勢制御システム
WO2018134943A1 (ja) * 2017-01-19 2018-07-26 三菱電機株式会社 判別装置、判別システム、判別方法及びプログラム
JPWO2018134943A1 (ja) * 2017-01-19 2019-06-27 三菱電機株式会社 判別装置、判別システム、判別方法及びプログラム

Also Published As

Publication number Publication date
US20040081355A1 (en) 2004-04-29
EP1043688A3 (en) 2003-07-23
US6665439B1 (en) 2003-12-16
US6885771B2 (en) 2005-04-26
EP1043688A2 (en) 2000-10-11

Similar Documents

Publication Publication Date Title
JP2000293696A (ja) 画像認識装置
US7508455B2 (en) Method, system, and device for automatic determination of nominal backing color and a range thereof
JP5362878B2 (ja) 画像処理装置及び画像処理方法
CN103400150B (zh) 一种基于移动平台进行道路边缘识别的方法及装置
JP4328286B2 (ja) 顔領域推定装置、顔領域推定方法及び顔領域推定プログラム
TWI526992B (zh) 擴充實境中基於深度攝影機之遮蔽效果優化方法
CN104182949B (zh) 基于直方图特征点配准的影像匀色与融合方法及系统
US7747071B2 (en) Detecting and correcting peteye
US20150071530A1 (en) Image processing apparatus and method, and program
JP2004509486A (ja) 色かぶり検出及び除去方法
US7822224B2 (en) Terrain map summary elements
CN108876723A (zh) 一种灰度目标图像的彩色背景的构建方法
WO2007064495A2 (en) Adjusting digital image exposure and tone scale
Wang et al. Variational single nighttime image haze removal with a gray haze-line prior
CN110245199B (zh) 一种大倾角视频与2d地图的融合方法
JP2009230233A (ja) 縞模様検知システム、縞模様検知方法および縞模様検知用プログラム
JP2004310475A (ja) 画像処理装置、画像処理を行う携帯電話、および画像処理プログラム
JPH11345319A (ja) 画像の影除去方法、画像処理装置及び記録媒体
CN113744142B (zh) 图像修复方法、电子设备及存储介质
CN110717910B (zh) 基于卷积神经网络的ct图像目标检测方法及ct扫描仪
JP4496005B2 (ja) 画像処理方法および画像処理装置
WO2012153661A1 (ja) 画像補正装置、画像補正表示装置、画像補正方法、プログラム、及び、記録媒体
CN111462250A (zh) 校正系统及校正方法
JP2000357226A (ja) 濃淡画像の2値化方法および濃淡画像の2値化プログラムを記録した記録媒体
CN112070081B (zh) 一种基于高清视频的智能化车牌识别方法

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20050629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060328

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20060417