JP4907621B2 - 映像処理装置と方法及びその記録媒体 - Google Patents

映像処理装置と方法及びその記録媒体 Download PDF

Info

Publication number
JP4907621B2
JP4907621B2 JP2008235626A JP2008235626A JP4907621B2 JP 4907621 B2 JP4907621 B2 JP 4907621B2 JP 2008235626 A JP2008235626 A JP 2008235626A JP 2008235626 A JP2008235626 A JP 2008235626A JP 4907621 B2 JP4907621 B2 JP 4907621B2
Authority
JP
Japan
Prior art keywords
label
value
information
pixel
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008235626A
Other languages
English (en)
Other versions
JP2009070387A (ja
Inventor
スク キム,ミン
ヒュン キム,ヤン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Core Logic Inc
Original Assignee
Core Logic Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Core Logic Inc filed Critical Core Logic Inc
Publication of JP2009070387A publication Critical patent/JP2009070387A/ja
Application granted granted Critical
Publication of JP4907621B2 publication Critical patent/JP4907621B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、映像に含まれる被写体の各対象を区別するためにラベリングを行い、これを用いて映像からオブジェクトを検出する映像処理装置及び方法に関する。
映像信号処理の多様な応用技法の中でラベリングとは、映像内で互いに離隔されている対象体(被写体)を区別しようとする場合用いられる映像処理技法を意味する。
このようなラベリング技法は、映像内に対象体が複数個存在する場合、ラベリング(labeling)の過程を通じて対象体ごとに固有番号を付与し、以後関心対象となる特定対象体のみをプロセスしようとする場合、上記特定の対象体に付与された固有番号を用いて活用する技法を意味する。
このようなラベリング技法は、映像処理が用いられる多様な応用例に適用することができ、特にその具体的な例として出入り統制などのために用いられる顔認識システムが挙げられる。すなわち、出入認証などのための顔認識の事前段階として、所定の光学装置から獲得された映像より顔領域を検出・分離する作業を行わなければならない場合に用いられ得る。
ラベリング技法及びこれを用いた映像における特定オブジェクトの検出技法は上記のように映像から顔領域を検出・分離するプロセッシングに該当し、これとともに虹彩認識、人体の特定身体部位認識または製造業の自動化ラインで不良品を識別する過程などにおいても幅広く用いられる。
ラベリングアルゴリズムとして提示される従来の技法は、再帰アルゴリズムと反復文を用いるアルゴリズムとに大別でき、上記の方法は過度な自分呼出方式を用いるかスタック構造を用いる方法を採用しており、所望の映像に対するフレーム情報またはライン情報を全てメモリに貯蔵し貯蔵された情報を用いる方式に該当する。
このような方式はハードウェアリソースが十分な場合には多少時間が所要されても適用可能であるが、携帯端末のように携帯性、簡便性及び移動性などを固有目的とした携帯装備においては、求められるハードウェアリソース、処理時間などの面から判断すれば、非常に適用しにくにという問題点がある。
このようなラベリング技法を前提とする顔検出技法及びこのような技法がデジタルカメラなどで活用されるAF(Auto Focus)、AWB(Auto White Balance)、AE(Auto Exposure)などのアプリケーションにも上記のような問題点は依然としてあると言える。
対話型映像通話サービスが開始されている近来にはエンターテイメントの目的で顔を検出する機能が含まれた移動通信端末機が発売開始されており、このような動向はHCI(Human Communication Interact)技術に対する移動端末機への底辺拡大への動向を示していると評価されている。
このような動向によって移動通信端末機などにも対象認識技法などが適用されているが、上記のような技法が採用される端末(携帯電話、デジタルカメラ、光学装置、認証システムなど)はフレームメモリまたはラインメモリを通じて入力映像を処理する技法に該当するので、これに符合するだけのメモリリソースが求められる。
すなわち、求められるハードウェアリソースが多くなるほどハードウェア端末はその経済性面で不利になり、上述したようにメモリ貯蔵及び貯蔵された情報の活用を基本にしているので、データ貯蔵、読み出し及び演算などの処理時間が長くなるという問題点も持っている。
本発明は、上記問題点を克服するために案出されたものであって、簡単な演算及び少ないメモリの使用でも有効なラベリング技法を行い、これに基づいて映像における対象体を検出する効率的な映像処理装置及び方法を提供することに目的がある。
また、上記のような方法をコンピュータにおいて具現するために、コンピュータで認識可能であり、かつ実行されるプログラムを記録した記録媒体を提供することに目的がある。
本発明の他の目的及び長所は以下に説明し、本発明の実施形態によって分かるであろう。また、本発明の目的及び長所は特許請求の範囲に示された構成と構成の組み合わせとによって実現できる。
上記目的を達成するための映像処理装置は、ラベリング変換のための変換マトリックス領域に属する二進化映像のピクセルのうちラベリング変換の対象ピクセルに隣接した周囲ピクセルの値を検出する検出部と、上記周囲ピクセルの値に上記二進化映像を示す値のみが存在する場合、既に付与されたラベル値と異なるラベル値を上記対象ピクセルに付与し、上記周囲ピクセルの値にラベル値が存在する場合、上記周囲ピクセルに存在するラベル値を上記対象ピクセルに付与するラベリング部と、を含む。
一方、本発明の他の側面による映像処理方法は、ラベリング変換のための変換マトリックス領域に属する二進化映像のピクセルのうちラベリング変換の対象ピクセルに隣接した周囲ピクセルの値を検出する検出段階と、上記周囲ピクセルの値に上記二進化映像を示す値のみが存在する場合、既に付与されたラベル値と異なるラベル値を上記対象ピクセルに付与し、上記周囲ピクセルの値にラベル値が存在する場合、上記周囲ピクセルに存在するラベル値を上記対象ピクセルに付与するラベリング段階と、を含む。
本発明によれば、デジタルカメラなどのデジタル光学装置で用いられる自動フォーカシング機能、自動ホワイトバランス機能及び自動露出機能などは、顔領域を基準にして上記のような機能を活用することができる。
多様な機能的活用性を有している本発明によるラベリング技法及びこれを用いたオブジェクト検出技法に基づいて、より効果的でありながらも少ないリソースを占める光学装置が具現できる。
上記のように本発明の映像処理装置は、各機能の効率性を高めると同時にハードウェア的にも簡単に具現できて、今後の移動端末機などに搭載される場合高い経済性に基づいた活用度の高い装備が具現できる。
以下、添付した図面を参照しながら本発明の望ましい実施形態を詳しく説明する。これに先立って、本明細書及び請求範囲に使われた用語や単語は通常的や辞書的な意味に限定して解釈されてはならず、発明者は自らの発明を最善の方法で説明するために用語の概念を適切に定義することができるという原則に則して、本発明の技術的思想に符合する意味と概念とで解釈されなければならない。従って、本明細書に記載された実施形態は本発明の最も望ましい一実施形態に過ぎず、本発明の技術的思想の全てを代弁するものではないため、本出願時点においてこれらに代替できる多様な均等物と変形例があり得ることを理解しなければならない。
本発明の詳細な説明に先立って本発明の説明に必要な用語及び定義などに関して記述する。
通常映像処理の基本となる映像の色相空間は、色相混合の観点、人間の視覚体系との類似性など色空間を眺める観点に応じて、RGB、CMYK、HS系列、CIE、Y系列など多様な空間で表現することができ、異種の形態で表現された色空間の他の色空間への変換は簡単な数学的変換式によって変換できることは当業者間に自明であると言える。
また、入力映像は複数個のピクセルの合で表現され、上記ピクセルは該当ピクセルに関する映像情報(明度、色相、彩度など)を持つようになる。通常、上記映像情報は0から255段階まで段階的に区分され8bitの情報で示すのが一般的であるが、適用される環境に応じて上記映像情報は10、12bitなど多様な変形例が可能なのは言うまでもない。
従って、本発明を説明するにあたって一実施形態として示された一つの色空間座標系は上記のような観点から他の色空間座標にも同一または類似に適用可能であり、入力映像において一つのピクセルが持つ映像情報のbitサイズは一実施形態に過ぎないと理解されなければならない。
本発明による映像処理装置及び方法を、本発明の望ましい実施形態による映像処理装置の構成を示したブロック図である図1と、本発明の望ましい実施形態による映像処理方法の過程を示した流れ図である図3と参照して説明する。
本発明による映像処理装置100は、ブロック変換部130、検出部110、ラベリング部120及びラベル情報算出部140を含む。
検出部110は、ピクセル値が臨界値よりも小さい値に該当する第1値と、臨界値よりも大きい値に該当する第2値とからなる二進化映像のピクセルのうち、ラベリング変換の対象となる対象ピクセルを基準にしてラベリング変換のための変換マトリックス領域に属する周囲ピクセルに対する値を検出する(S320)。
上記二進化映像とは、二進化の基準となる所定臨界値を基準にして該当するピクセル値を二分化して表現した映像を意味するものであって、例えば、臨界値が50である場合50より小さい値を持つピクセルは0と、50より大きい値を持つピクセルは1と表現された映像を意味する。
二進化映像は0と1とのビットを用いて表現されることが一般的であるが、本発明においては上記0と1とで二進化映像を表現することはもちろん、基準となる臨界値を基準にして二分化されて表現され得る多様な記号的表現も可能なのはもちろん、本発明を説明するにおいて第1値は0と、第2値は1または15と説明される部分は一つの例示に過ぎず、上記0と1または上記0と15に制限されて解釈できないことは自明であると言える。
映像処理において上記変換マトリックスは、一定の長方形のマトリックスを意味するものであって、本発明の望ましい一実施形態の変換マトリックスに対するラベリングフィルターを示した図面である図6に示したように、長方形のマトリックスを意味する。
上記図6に示した変換マトリックスは3×3マトリックスを例示しているが、変換マットリックスは活用される形態や使用者が望むラベリングの程度に応じて多様な実施形態が可能なのはもちろん、上記のように3×3マトリックスの大きさを持つ場合、ピクセル間の間隔が一つずつ離隔されていても区分できるので精度面で最も望ましい形態を持つことができる。
上記図6に示した9個のピクセルのうち、bと表示されたピクセルが本発明の周囲ピクセルに該当し、aと表示されたピクセルがラベリング変換の対象となる対象ピクセルになり、対象ピクセルの周囲に存在する上記周囲ピクセルが持つ値を上記検出部110が検出するようになる。
上記検出部110が周囲ピクセル(b)に対する値を検出すれば、上記検出された周囲ピクセルのピクセル値を上記ラベリング部120に伝送する(S330)。その後、上記ラベリング部120は、上記対象ピクセル値が第2値であり、上記検出された周囲ピクセル値が上記第1値または第2値のみからなった場合、上記対象ピクセル値を既存のラベル値と区分されるラベル値に変換し、上記検出された周囲ピクセル値のうち第1値及び第2値以外のラベル値が存在する場合、上記対象ピクセル値を上記周囲ピクセルに存在する第1値及び第2値以外のラベル値に変換する(S340)。
上記S340段階は、上記周囲ピクセル値に上記二進化映像を示す値以外の値が存在するか否かによって、上記対象ピクセルのラベリング値を新しいラベル値に変換するか、上記周囲ピクセルのラベル値に変換するように二元的に運営してさらに有効で且つ簡便なラベル値の付与方法を実現することができる。
すなわち、対象ピクセル値が第2値(1)である場合、上記対象ピクセルは所定の臨界値より大きいピクセル値に該当するので、映像に存在する特定の客体に該当すると判断できる。従って、上記対象ピクセル値が第2値である場合にラベリング演算を行うことが望ましい。
もし、上記周囲ピクセルが持つピクセル値が二進化映像を示すための第1値、第2値のみから構成されていれば、すなわち、0と1の値以外の他の値がなければ、上記対象ピクセルに新しいラベル値を付与し、付与するラベル値は以前に付与されたラベル値と区分されるラベル値であるべきであることは言うまでもない。
また、もし、周囲ピクセルに0と1値以外の他のラベリング値が付与されていれば、すなわち、対象ピクセルと最寄りのピクセルにラベリング値が付与されたことがあれば、これは以前の演算でラベリング値が付与されたピクセルと隣接している客体に該当するので、上記周囲ピクセルに存在するラベル値を上記対象ピクセルに付与することで同一領域の客体としてラベリングするようになる。
このような過程は入力される映像情報を入力順序に従って順次読み取ることで演算できるので、一般的なラベリング技法で用いる再帰的用法や反復技法のようにフレームやラインを貯蔵する必要がないので、正確性を維持しながらさらに容易にラベリングを付与できるようになる。
以下、ラベリングの演算効率を維持しながら演算速度の向上及びメモリ占有をさらに低減するようにラベリング付与のための対象映像をブロック化するブロック化部に対して説明する。
本発明によるブロック変換部130は、ラベリングの対象映像をブロック化率に応じた所定個数のブロックに分割し、分割された上記各ブロック領域に該当するピクセルのうち臨界範囲に該当するピクセルの個数が基準個数より多い場合上記ブロックに第2値を付与し、小さい場合第1値を付与し、上記ブロックに付与された値を該当ピクセル値として有するブロック映像に上記対象映像を変換する(S300)。
上記のように対象映像がブロック映像に変換される場合、上述した検出部110は上記ブロック変換部130で変換されたブロック映像を上記二進化映像として入力する(S310)。
具体的な例を挙げて上記ブロック変換、ブロック化された映像の検出及びラベリング過程に対する構成を以下で説明する。
説明と理解の便宜のため、ラベリング対象映像の大きさが100×100であると仮定し、上記100×100サイズを持つ対象映像を10×10映像にブロック変換する場合、上記ブロック化率は10%になり、所定個数のブロックは100個のブロックになる。上記ブロック化率及びこれに基づいた所定個数は、ハードウェアリソースなどに基づいて応用例及び多様な使用者環境に応じて決められると解釈されることは自明である。
すなわち、図5に示したように、ブロック映像の列の大きさであるaは10となり行の大きさであるbが10となるように設定し、二進化映像を示す値は上述した例と異ならせて第1値は0と、第2値は15と設定した。
上記のようなブロック化率によりブロック化される場合、一つのブロックは100個の原映像のピクセルを代表するようになるので、100個の各ブロックはそれぞれ100個のピクセルを代表するようになって原対象映像の100,000個のピクセルを示す。
ブロック化変換過程において変換の基準となる臨界値は各ピクセルの映像情報のうち一つを用いることが望ましい。すなわち、ピクセルには上述したように色彩に対する情報、
輝度に対する情報など多様な色空間で表現される情報などを持つようになり、人体の顔に対する検出を前提とすれば、上記多様な映像情報のうち特に、Cb、Cr情報を基準にすることが望ましい。
すなわち、ピクセルの映像情報のうちCb、Crなどの値が人体の色感を示す範囲で設定された臨界範囲に該当するピクセルの個数をカウントする。上記Cb、Crの値は黄人、黒人、白人の人種に応じて特に差がないので、多くの人種に対して汎用的に使うことができるという長所がある。
従って、Cb、Cr値に対する所定の臨界範囲を設定し、該当ピクセルが上記臨界範囲に該当するか否かを判断する過程を通じて一つのブロックに該当するピクセルのうち臨界範囲に属するピクセルの数が幾つであるか判断し、上記個数を所定の基準に従って設定された基準個数と比較して上記個数が基準個数より大きい場合には第2値(15)を、小さい場合には第1値(0)を付与する方式で運用できる。
上記基準個数も、多様な映像環境、映像の対象体特性など多様な応用例に応じて変更可能な基準値として理解されることはもちろんである。
上記のような方式に従って上記ラベリングの対象映像は第2値(15)と第1値(0)が付与されたブロックを該当ピクセルとして持つ、すなわち、10×10にブロック化されたブロック映像に変換される。
上記の過程によって変換されたブロック映像を下記表1で示せば次のようである。
上記表1においては、第2値を15で示しており第1値は0で例示している。これは上述したように、二進化映像の第1値及び第2値を表現することができる多様な応用例の一つとして解釈されなければならないことを意味する。
対象映像の視覚的認知性及びラベリングによる区分のために、ブロック映像の大きさは32×24で上記ブロック化率を設定することが最も望ましい。上記の大きさで設定されたブロック映像の場合、通常の映像の特性に基づいて判断すれば、約10個程度の客体が区分でき、これは客体ごとに付与されるラベルの個数がそれくらい必要であるということを意味する。
従って、上記ラベリング部120は上述したように4ビットサイズのビット列を用いて上記ラベル値が付与されるように構成することが望ましい。二進数で表現された4ビットの場合、15個の値を持つことができるので対象体を区別して付与されるラベル値の個数として最も望ましいと言える。
また、ラベリング及びこれに基づいた対象検出の性能が低下しないように維持しながら演算処理モジュールとメモリの効率性のために、対象映像の3ないし10%くらいにブロック化率を設定することが望ましい。
図5に示すように第1値を0に、第2値を15に二進化値を付与した理由は、基準ラベル値と異なる新しいラベル値を付与するとき、0と15との間の値を付与するようにアルゴリズムを適用して重複するビットが発生しないようにし、付与されたラベリング値の重複可否を判断する演算が省略できるようにするためである。
上記表1の(2,2)に位置するピクセルが対象ピクセルである場合、上記対象ピクセルは第2値に該当し、3×3変換マトリックス領域に属する周囲ピクセルのピクセル値のうち第1値、第2値以外の値が存在しないので、上記対象ピクセルには新しいラベリング値が付与される。上記(2,2)のピクセルがラベリング演算のスタートであると仮定し、新しいラベリング値である1を例示的に付与して説明する。
上記表2は次の段階を示しており、変換マトリックスは右側に1移動されて(2,3)に位置したピクセルが対象ピクセルになり、上記ラベリング過程において(2,2)のピクセル値は「1」の値でラベリングされているので、周囲ピクセルは左上端から右下端の順で列挙すれば、0,0,0,1,15,15,15,15であって8個のピクセルになる。
上記変換マットリックス領域に属した8個のピクセルのうち第1値、第2値(0,15)以外に「1」というラベル値が存在するので、上記(2,3)対象ピクセルは「1」のラベル値に変換される。すなわち、最寄りのピクセルに付与されたラベル値が隣接ピクセルのラベル値に拡張する形式をとることになる。上記のような段階を続けて適用して2番目の行に対するラベリング演算の結果は、下記表3のようである。
上記表2及び表3に示したように、(2,8)ピクセルは対象ピクセルが15(第2値)であるので変換対象になり、(2,6)及び(2,7)ピクセルの場合対象ピクセルの値が0であるのでラベリング変換がなされない。(2,8)ピクセルの場合、周囲の8個ピクセルに0,15以外の他の値が存在せず、かつ、既にラベル「1」の値は付与されたので、新しいラベル値である「2」の値が付与される。
上記の方法により上記10×10ブロック映像がラベリングされたラベリング映像の結果は次のようである。
上記のように対象映像のすべてのピクセルを演算することになり、縁部に存在するピクセルが対象ピクセルである場合には制限された変換マトリックス領域を活用することができ、また、デフォルト(default)値に変換して運用するなど使用者の適用方式に従って多様な変形例が可能である。
以上で詳しく説明したように、対象映像で各客体が区分できるラベリング付与作業が完了した後、同一のラベリングが付与された領域に対する特性を把握することになる。
このようなラベリング領域に対する特性は本発明のラベル情報算出部140で担当し、上記ラベリング部120から上記ラベル値が付与されたラベル映像を入力し(S350)、上記ラベル領域の開始点情報、終了点情報及び面積情報のうち一つ以上を含むラベル情報をラベル領域ごとに算出する(S360)。
上記表4に示すようにラベル映像を上記ラベル情報算出部140が入力すれば、同一のラベル値が付与された領域の個数は5個になり、上記5個のラベル領域に対する映像特性情報であるラベル情報を算出することになる。
ラベル値「1」が付与されたラベル領域(ROI(Range Of Interest)領域)の場合、開始点は(2,2)になり終了点は(4,5)になる。上記終了点などに対する情報は実際にラベル値が付与された領域のみを基準にして定めることもでき、同一のラベル値が付与された最大アウトラインを用いた領域を活用することもできる。上記終了点が(4,5)になるのは最大アウトライン領域を活用した場合の例になる。
面積情報は実際にラベル値が付与された領域を基準にして定める場合10になり、最外角アウトラインを基準にする場合には12になる。上記のような方法に従ってROIごとの特性情報を算出することになり、このような情報は今後の多様な応用例で基準データとして活用される。
また、本発明のラベル情報算出部140は統合部142を含むことができ、上記統合部142は上記ラベル情報に該当する上記ラベル領域が相互重畳される場合、重畳されたラベル領域を統合しこの統合されたラベル領域のラベル情報を算出するように構成される。
もし、上記表5に示したようなラベル映像が生成される場合、同一ではないラベル値(「1」,「2」)が付与されたROI‐1とROI‐2との二つの領域が相互重畳される。このような場合、付与されたラベル値は同一ではなくても映像で表現された客体は同一の区分領域内に包摂できるように構成することが望ましい。
すなわち、「1」が付与されたラベル領域であるROI‐1と「2」が付与されたラベル領域であるROI‐2とを統合し、この統合されたラベル領域のラベル情報を新たに算出することが望ましい。統合されたROIをROI‐Mと称する場合、ROI‐Mのラベル情報の中で開始点は(2,2)、終了点は(6,8)になる。0と表現されたピクセルを除いて実際にラベル値が付与された領域のみを基準にする応用例で面積情報を算出する場合面積情報は22になる。
新しく統合されたラベル領域(ROI‐M)は「1」または「2」のラベル値にラベリングすることができ、また他の新しいラベル値を付与することもできる。1と2のラベル値は他のラベル領域で用いられなかったので、統合されたラベル領域に付与できる。統合された領域であることが約束された記号によって表現されるように、他のラベル値として用いられなかった新しいラベル値(例えば10以上の値)が付与できることは言うまでもない。
本発明の一実施形態による統合過程を示した図面である図7を参照すれば、図7の(a)映像は統合処理前の映像情報を意味し、(b)映像は統合処理後の映像情報を意味する。すなわち、図7の(a)映像に存在する二つのラベル領域(A,B)が上記の過程を通じて一つのラベル領域(C)に統合される。
以下、本発明の他の側面による映像処理装置及び方法に対する説明を図2及び図4を通じて詳しく説明する。
上記映像処理装置及び方法は上述したラベリング技法を採用する応用例であって、上述したように、人体の顔領域、身体の特定部位領域、不良品などの映像内の特定対象体を検出する技法に関するものである。
このような特定対象体を検出する内容を説明するにあたって、前述したラベリング内容と重複する説明は略し、また構成要素を示すための参照符号は説明の便宜のために異ならせて付与しただけであるので、参照符号が同一ではなくても担当する機能が同一、類似な構成要素は同一及び類似な構成を意味する。
本発明の他の望ましい実施形態による映像処理装置の構成を示したブロック図である図2及び本発明の望ましい実施形態による映像処理方法の過程を示した流れ図である図4を参照すれば、本発明による他の望ましい実施形態による映像処理装置200は、ブロック変換部230、検出部210、ラベリング部220、ラベル情報算出部240、フィルタリング部250及び検出対象判断部260を含む。
上記ブロック変換部230、検出部210、ラベリング部220、ラベル情報算出部240などに対しては前述したので、重複する範囲で具体的な説明は略する。
本発明の他の望ましい実施形態による映像処理装置200の検出対象判断部260は、上記ラベリング部220から上記ラベル値が付与されたピクセルに対する情報を入力し、上記ラベル値が付与された各ピクセルの統計的算出値を用いて検出対象を判断する。
上記ラベル値が付与された各ピクセルの統計的算出値は、平均、分散、分布図、標準偏差または上記ラベル値が付与されたピクセルの個数情報など多様な情報を活用して検出しようとする検出対象と符合するラベル値が付与されたピクセルを検出する。
上記検出の精度または効率を高めるために、上記映像処理装置200は上記ラベル値が付与されたラベル映像において同一のラベル値が付与されたラベル領域の開始点情報、終了点情報及び面積情報のうち一つ以上を含むラベル情報をラベル領域ごとに算出するラベル情報算出部240をさらに含むように構成することが望ましい。
上記のようにラベル情報算出部240がさらに構成される場合、上記検出対象判断部260は、上記ラベル情報算出部240からラベル情報の伝送を受けて検出対象を判断する基準情報に符合する程度に応じて上記各ラベル領域に対するラベル情報を分類し、上記分類されたラベル情報を用いて検出対象領域を判断する判断部262を含んで検出対象を判断する。
すなわち、同一のラベル値が付与された各ラベル領域の多様な情報を入力して所望の検出対象の検出のための基準情報を用いて上記基準情報と符合する程度に応じて検出対象領域を検出する。
上記基準情報に対する具体的な要素は後述する。上記基準情報に符合する程度に応じて各ラベル領域を分類し分類された最上位ラベル領域を検出の対象として判断するか、上位所定順番のラベル領域を検出対象領域として選別することもできる。
上述したように映像処理装置200にブロック変換部230がさらに構成される場合、上記ブロック変換部230は対象映像をブロック映像に変換し(S400)、上記検出部210は上記ブロック変換部230で変換されたブロック映像を上記二進化映像として入力して(S410)、伝送された二進化映像の対象ピクセルを基準にして周囲ピクセル値を検出する(S420)。
また、上記映像処理装置200のラベル情報算出部240は、上記ラベル情報に該当する上記ラベル領域が相互重畳される場合、重畳されたラベル領域を統合しこの統合されたラベル領域のラベル情報を算出する統合部242を含むことができる。
すなわち、ラベリング部220は、上記検出部210から検出されたピクセル値の伝送を受け(S430)、検出された周囲ピクセル値と対象ピクセル値とを用いてラベリング過程を行う(S440)。
ラベリング過程が完了すれば、上記ラベリング部220はラベル映像を上記ラベリング算出部240に伝送し(S450)、ラベリング算出部240及びラベリング算出部240に含まれる統合部242は、上記ラベル映像のラベル領域または統合されたラベル領域のラベル情報を算出する(S460)。
また、上記フィルタリング部250は、NR(Noise Reduction)に該当するブロックであって、上記ラベリング算出部240からラベル情報の伝送を受け(S470)、伝送されたラベル情報のうちフィルタリングの基準範囲を離れるラベル領域に該当するラベル情報を除去する(S480)。
上記フィルタリング部250は図8に示すように、所望の対象を検出するために基準範囲(例えば、ピクセル個数など)に符合しないラベル領域を排除する機能を担当する。
図8においては、ピクセル個数が基準範囲より少ない場合を除去する技法によって、(a)に示された5個のラベル領域が(b)のように一つのラベル領域にフィルタリングされる過程を示している。すなわち、図8の(a)映像のA,B,C,D及びEの5個のラベル領域のうち、上記A,B,C,Dのピクセル個数(大きさが象徴され得る)が基準個数より少ないのでフィルタリングされ、図8の(b)映像のようにピクセル個数が基準個数より多いEラベル領域のみが残るようになる。
顔領域の検出を一つの例として挙げて補充的に説明すれば、上述したように顔領域の臨界範囲に該当する映像情報を持つピクセルに実際の顔領域に該当するピクセルだけでなく、映像に示されている多様な背景、被写体のうち一部に上記臨界範囲に該当するピクセルが含まれる可能性がある。
このように実際の顔領域ではないにもかかわらず類似な映像情報を持つ対象体を予め排除するために、ラベル領域が基準範囲を離れる場合これに該当するラベル領域に該当するラベル情報を除去する。
フィルタリングのための基準範囲はラベル領域の個数で範囲を定めることはもちろん、多様なラベル領域の情報を用いて定められ得、検出しようとする対象の特性に符合するように多様な実験または映像で示される対象体の特性などによって客観的に算出されるように構成することが望ましい。
一例として、通常顔を検出する場合、光学機械に近接して映像を獲得するので、獲得された映像で占める大きさに対する範囲で上記基準範囲を設定することができる。また、顔を代表する客体は通常映像の中心領域に位置する場合が一般的であるので、所定大きさ以上のラベル領域が映像の中心と所定距離範囲内に存在するかなどを基準にして定めることもでき、ラベル領域の大きさのみを絶対的に比較して特定大きさ以下のラベル領域を排除する方法で定めることもできる。
上記のようにフィルタリング部250で基準範囲を離れるラベル情報が除去された後(S480)、除去されていないラベル情報のみを検出対象判断部260に伝送し、上記検出対象判断部260、特に判断部262は上記除去されたラベル情報以外のラベル情報を用いて検出対象領域を判断する(S495)。
上記判断部262を含む検出対象判断部260が上記検出対象領域を検出するとき用いる上記基準情報は、全体映像の大きさに対比されたラベル領域の大きさに対する情報、ラベル領域の全体映像における位置に対する情報、ラベル領域の縦横の割合情報、ラベル領域内に存在する第2値の個数情報のうち選択された一つ以上の情報を用いて定めるように設定できる。
上述したようにフィルタリング段階が完了した場合でも、対象検出領域と映像情報(色相など)が類似範囲にある大きい領域が残存する可能性を完全に排除できない場合もある。
従って、上記判断部262は検出対象の候補群に該当するラベル領域(ROI)のうち最寄りの検出対象を選択する過程を行う。
全体映像の大きさに対比されたラベル領域の大きさに対する情報を基準情報の一つとして用いる理由は、対象映像が全体映像において非常に小さいか非常に大きい領域を占める可能性よりは、全体映像に対比して適切な大きさを持つ確率がより高いという点に基づいている。すなわち、小さい領域であれば被写体の外部に存在する他の対象体である確率が高く、極端に大きい領域である場合には背景などに該当する対象体である確率が高いからである。
位置情報は光学装置などで顔などを撮影する場合、顔がイメージの中心に置かれる場合が縁部に置かれる場合より確率的に高いので、中心となる基準点から所定範囲離隔された距離を用いて上記のように検出対象を判断する一つの基準として設定できる。
また、ラベル領域の縦横の割合情報は検出しようとする対象体の物理的な特性を反映した情報であって、検出しようとする対象体の実際の形状的特性を反映して定められる基準情報に該当する。例えば、人体の顔が検出対象である場合には、縦横に対する割合が0.1や8内外の珍しい割合よりは、0.7ないし0.8の割合が人体の顔により符合する領域に該当するので、上記のような基準情報を用いて顔領域を検出する。
さらに、ラベル領域内に存在する第2値の個数情報またはラベル領域の大きさに対比された第2値の個数情報などを基準として用いることもできる。例えば、顔の場合、正方形状であるよりは楕円形状であるので、ラベル領域(ROI)の正方形状に対比して楕円形状が占める領域に対する割合を利用すれば、すなわち、第2値の個数情報を利用すれば、さらに顔領域検出の精度を高めることができる。
上記のような基準情報は、検出対象の物理的特性及びこれを反映した映像的特性に応じて多様な情報として設定され得、上記基準情報の選択された組み合わせによる一つ以上の基準情報を用いるように構成し得る。
上記のような基準情報によってラベル領域ごとにスコア(点数)を付与し、最上位スコアを持ったラベル領域または最上位所定番目の順番を持つラベル領域などを所望の検出対象領域として検出できるようになる。
上記本発明による映像処理装置の各構成要素は、物理的に区分される構成要素であるよりは論理的な構成要素として理解すべきである。すなわち、それぞれの構成は本発明の技術思想を実現するために論理的に区分された構成要素に該当するので、それぞれの構成要素が統合または分離して行われても本発明の論理構成が行う機能が実現できれば、本発明の範囲内にあると解釈すべきである。
上述した本発明による映像処理方法は、コンピュータで読み取りできる記録媒体にコンピュータが読み取りできるコードとして具現することができる。コンピュータが読み取りできる記録媒体は、コンピュータシステムにより読み取りできるデータが貯蔵されるすべての種類の記録媒体を含む。コンピュータが読み取りできる記録媒体の例としては、ROM、RAM、CD‐ROM、磁気テープ、フロッピーディスク、光データ貯蔵装置などがあり、また搬送波(例えば、インターネットを通じた伝送)の形態で具現されることも含む。
また、コンピュータが読み取りできる記録媒体は、ネットワークで連結されたコンピュータシステムに分散し、分散方式でコンピュータが読み取りできるコードが貯蔵され実行され得る。そして、上記映像ラベリング方法または映像オブジェクトの検出方法を具現するための機能的なプログラム、コード及びコードセグメントは本発明が属する技術分野のプログラマによって容易に推論され得る。
以上のように、本発明は、たとえ限定された実施例と図面とによって説明されたが、本発明はこれによって限定されず、本発明が属する技術分野において通常の知識を持つ者により本発明の技術思想と特許請求範囲の均等範囲内で多様な修正及び変形が可能なのは言うまでもない。
なお、本明細書に添付される下記の図面は本発明の望ましい実施形態を例示するものであって、発明の詳細な説明とともに本発明の技術思想をさらに理解させる役割を果たすものであるため、本発明はそのような図面に記載された事項にのみ限定されて解釈されてはいけない。
本発明の望ましい実施形態による映像処理装置の構成を示したブロック図である。 本発明の他の望ましい実施形態による映像処理装置の構成を示したブロック図である。 本発明の望ましい実施形態による映像処理方法を示した流れ図である。 本発明の望ましい実施形態による映像処理方法を示した流れ図である。 本発明の一実施形態によるブロック化されたブロック映像に対する図面である。 本発明の望ましい一実施形態の変換マトリックスに対するラベリングフィルターを示した図面である。 本発明の一実施形態による統合(merge)過程を示した図面である。 本発明の一実施形態によるフィルタリング過程を示した図面である。
符号の説明
100 映像処理装置、
110 検出部、
120 ラベリング部、
130 ブロック変換部、
140 ラベル情報算出部、
200 映像処理装置、
210 検出部、
220 ラベリング部、
230 ブロック変換部、
240 ラベル情報算出部。
242 統合部
250 フィルタリング部、
260 検出対象判断部、
262 判断部。

Claims (21)

  1. 二進化映像のピクセル中ラベリング変換の対象になる対象ピクセルと前記対象ピクセルに隣接した周囲ピクセルを含む変換マトリックスによって定義される前記変換マトリックス内の前記周囲ピクセルの二進化値とラベル値とを検出する検出部と、
    前記対象ピクセルにラベル値を付与し、全ての周囲ピクセルにラベル値が付与されていない場合、対象ピクセルに新しいラベル値を付与し、前記周囲ピクセルにラベル値が付与された場合、前記対象ピクセルに同一のラベル値を付与するラベリング部と、
    前記ラベリング部から出力されるラベル値が付与された映像の同一のラベル値が付与されたラベル領域の開始点情報、終了点情報及び面積情報のうち一つ以上を含むラベル情報を前記ラベル領域ごとに算出して、前記ラベル領域が相互に重なる場合、該ラベル情報に基づいて前記ラベル領域を統合し、前記統合されたラベル領域のラベル情報を算出するラベル情報算出部と、
    を含むことを特徴とする映像処理装置。
  2. 前記二進化映像のピクセルは、臨界値よりも小さい第1値または臨界値よりも大きい第2値のうちいずれか一つを有することを特徴とする請求項1に記載の映像処理装置。
  3. 前記ラベリング部は、前記対象ピクセルが第2値であり、前記周囲ピクセルの全ての値が第1値または第2値である場合、前記対象ピクセルに新しいラベル値を付与し、前記対象ピクセルが第2値であり、前記周囲ピクセルのうち一つが前記第1値または第2値以外のラベル値を有する場合、前記対象ピクセルに前記周囲ピクセルのラベル値を付与することを特徴とする請求項2に記載の映像処理装置。
  4. ラベリングの対象映像をブロック化率に応じた所定個数のブロックに分割し、分割された各ブロック領域に該当するピクセルの中で臨界範囲に該当するピクセルの個数が基準個数より多い場合には前記ブロックに第2値を付与し、少ない場合には前記ブロックに第1値を付与して、前記ブロックに付与された値を該当ピクセル値として有するブロック映像に前記対象映像を変換するブロック変換部をさらに含み、
    前記検出部は、前記ブロック変換部で変換されたブロック映像を前記二進化映像として入力することを特徴とする請求項1から3のいずれかに記載の映像処理装置。
  5. ラベル値が付与されたピクセルの統計的算出値を用いて検出対象を判断する検出対象判断部をさらに含むことを特徴とする請求項1に記載の映像処理装置。
  6. 前記検出対象判断部は、前記ラベル情報が検出対象を判断する基準情報に符合する程度に応じて前記各ラベル領域に対するラベル情報を分類し、前記分類されたラベル情報を用いて検出対象領域を判断する判断部を含むことを特徴とする請求項5に記載の映像処理装置。
  7. 前記ラベル情報算出部は、更に、前記ラベル領域が相互に重なる場合、前記ラベル情報に基づいて前記ラベル領域を統合して、前記統合されたラベル領域のラベル情報を算出する統合部を有することを特徴とする請求項に記載の映像処理装置。
  8. フィルタリングの基準範囲を離れるラベル領域を除去するフィルタリング部をさらに含み、
    前記判断部は、フィルタリング後の残されたラベル領域のみのラベル情報を用いることを特徴とする請求項に記載の映像処理装置。
  9. 前記検出対象を判断する基準情報は、全体映像の大きさに対する情報、ラベル領域の大きさに対する情報、ラベル領域の全体映像における位置情報、ラベル領域の縦横割合の情報、ラベル領域内に存在する第2値の個数情報のうち一つ以上の情報を用いて定められることを特徴とする請求項に記載の映像処理装置。
  10. 二進化映像のピクセル中ラベリング変換の対象になる対象ピクセルと前記対象ピクセルに隣接した周囲ピクセルを含む変換マトリックスによって定義される前記変換マトリックス内の前記周囲ピクセルの二進化値とラベル値とを検出する検出段階と、
    前記対象ピクセルにラベル値を付与し、全ての周囲ピクセルにラベル値が付与されていない場合、前記対象ピクセルに新しいラベル値を付与し、前記周囲ピクセルにラベル値が付与された場合、前記対象ピクセルに同一のラベル値を付与するラベリング段階と、
    前記ラベリング段階で出力されるラベル値が付与された映像の同一のラベル値が付与されたラベル領域の開始点情報、終了点情報及び面積情報のうち一つ以上を含むラベル情報を前記ラベル領域ごとに算出して、前記ラベル領域が相互に重なる場合、該ラベル情報に基づいて前記ラベル領域を統合し、前記統合されたラベル領域のラベル情報を算出するラベル情報算出段階と、
    を含むことを特徴とする映像処理方法。
  11. 前記二進化映像のピクセルは、臨界値よりも小さい第1値または臨界値よりも大きい第2値のうちいずれか一つを有することを特徴とする請求項10に記載の映像処理方法。
  12. 前記ラベリング段階は、前記対象ピクセルが第2値であり、前記周囲ピクセルの全ての値が第1値または第2値である場合、前記対象ピクセルに新しいラベル値を付与し、前記対象ピクセルが第2値であり、前記周囲ピクセルのうち一つが前記第1値または第2値以外のラベル値を有する場合、前記対象ピクセルに前記周囲ピクセルのラベル値を付与することを特徴とする請求項11に記載の映像処理方法。
  13. ラベリングの対象映像をブロック化率に応じた所定個数のブロックに分割し、分割された前記各ブロック領域に該当するピクセルの中で臨界範囲に該当するピクセルの個数が基準個数より多い場合には前記ブロックに第2値を付与し、少ない場合には前記ブロックに第1値を付与して、前記ブロックに付与された値を該当ピクセル値として有するブロック映像に前記対象映像を変換するブロック変換段階をさらに含み、
    前記検出段階は、前記ブロック変換段階で変換されたブロック映像を前記二進化映像として入力することを特徴とする請求項10乃至12のいずれかに記載の映像処理方法。
  14. ラベル値が付与されたピクセルの統計的算出値を用いて検出対象を判断する検出対象判断段階をさらに含むことを特徴とする請求項10に記載の映像処理方法。
  15. 前記検出対象判断段階は、前記ラベル情報が検出対象を判断する基準情報に符合する程度に応じて前記各ラベル領域に対するラベル情報を分類し、前記分類されたラベル情報を用いて検出対象領域を判断する判断段階を含むことを特徴とする請求項14に記載の映像処理方法。
  16. 前記ラベル情報算出段階は、更に、前記ラベル領域が相互に重なる場合、前記ラベル情報に基づいて前記ラベル領域を統合して、前記統合されたラベル領域のラベル情報を算出する統合段階を含むことを特徴とする請求項10に記載の映像処理方法。
  17. フィルタリングの基準範囲を離れるラベル領域を除去するフィルタリング段階をさらに含み、
    前記検出対象判断段階は、フィルタリング後の残されたラベル領域のみのラベル情報を用いることを特徴とする請求項15に記載の映像処理方法。
  18. 前記検出対象を判断する基準情報は、全体映像の大きさに対する情報、ラベル領域の大きさに対する情報、ラベル領域の全体映像における位置情報、ラベル領域の縦横割合の情報、ラベル領域内に存在する第2値の個数情報のうち一つ以上の情報を用いて定められることを特徴とする請求項15に記載の映像処理方法。
  19. 二進化映像のピクセル中ラベリング変換の対象になる対象ピクセルと前記対象ピクセルに隣接した周囲ピクセルを含む変換マトリックスによって定義される前記変換マトリックス内の前記周囲ピクセルの二進化値とラベル値とを検出する検出段階と、
    前記対象ピクセルにラベル値を付与し、前記全ての周囲ピクセルにラベル値が付与されていない場合、対象ピクセルに新しいラベル値を付与し、前記周囲ピクセルにラベル値が付与された場合、前記対象ピクセルに同一のラベル値を付与するラベリング段階と、
    前記ラベリング段階で出力されるラベル値が付与された映像の同一のラベル値が付与されたラベル領域の開始点情報、終了点情報及び面積情報のうち一つ以上を含むラベル情報を前記ラベル領域ごとに算出して、前記ラベル領域が相互に重なる場合、前記ラベル情報に基づいて前記ラベル領域を統合し、前記統合されたラベル領域のラベル情報を算出するラベル情報算出段階と、
    を含むことを特徴とする映像処理方法をコンピュータで実行させるためのプログラムを記録したコンピュータで読み取りできる記録媒体。
  20. 前記ラベル情報算出部は、第1の同一ラベル値が付与された第1の同一ラベル領域の第1の最大アウトラインと第2の同一ラベル値が付与された第2の同一ラベル領域の第2の最大アウトラインが重なる場合、前記統合領域を、前記第1および第2の最大アウトラインに基づいて形成することを特徴とする請求項1に記載の映像処理装置。
  21. 前記ラベル情報算出段階は、第1の同一ラベル値が付与された第1の同一ラベル領域の第1の最大アウトラインと第2の同一ラベル値が付与された第2の同一ラベル領域の第2の最大アウトラインが重なる場合、前記統合領域を前記第1および第2の最大アウトラインに基づいて形成することを特徴とする請求項10に記載の映像処理方法。
JP2008235626A 2007-09-12 2008-09-12 映像処理装置と方法及びその記録媒体 Expired - Fee Related JP4907621B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020070092540A KR101030430B1 (ko) 2007-09-12 2007-09-12 영상 처리 장치와 방법 및 그 기록매체
KR10-2007-0092540 2007-09-12

Publications (2)

Publication Number Publication Date
JP2009070387A JP2009070387A (ja) 2009-04-02
JP4907621B2 true JP4907621B2 (ja) 2012-04-04

Family

ID=40282450

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008235626A Expired - Fee Related JP4907621B2 (ja) 2007-09-12 2008-09-12 映像処理装置と方法及びその記録媒体

Country Status (5)

Country Link
US (1) US8160360B2 (ja)
EP (1) EP2037405A3 (ja)
JP (1) JP4907621B2 (ja)
KR (1) KR101030430B1 (ja)
CN (1) CN101388071A (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101030430B1 (ko) * 2007-09-12 2011-04-20 주식회사 코아로직 영상 처리 장치와 방법 및 그 기록매체
US8897489B2 (en) * 2010-01-29 2014-11-25 Rochester Institute Of Technology Methods for object-based identification, sorting and ranking of target detections and apparatuses thereof
US20130208990A1 (en) * 2010-10-22 2013-08-15 Nec Corporation Image comparison device, image comparison method, image comparison system, server, terminal, terminal control method, and terminal control program
KR101328233B1 (ko) * 2012-02-27 2013-11-14 호서대학교 산학협력단 영상처리 시스템의 라벨링 장치 및 방법
US9076034B2 (en) * 2012-12-07 2015-07-07 Analog Devices, Inc. Object localization using vertical symmetry
KR20140108417A (ko) * 2013-02-27 2014-09-11 김민준 영상정보를 이용한 건강 진단 시스템
US9292763B2 (en) 2013-07-25 2016-03-22 Analog Devices Global System, method, and medium for image object and contour feature extraction
CN104573715B (zh) * 2014-12-30 2017-07-25 百度在线网络技术(北京)有限公司 图像主体区域的识别方法及装置
CN104836974B (zh) 2015-05-06 2019-09-06 京东方科技集团股份有限公司 视频播放器、显示装置、视频播放系统和视频播放方法
CN107615333B (zh) * 2015-12-31 2021-06-08 深圳配天智能技术研究院有限公司 图像的斑点处理方法
JP2017215689A (ja) * 2016-05-30 2017-12-07 株式会社リコー 画像処理装置及び画像処理方法
CN107240101B (zh) * 2017-04-13 2021-01-29 桂林优利特医疗电子有限公司 目标区域检测方法和装置、图像分割方法和装置
KR101881705B1 (ko) 2017-11-24 2018-07-25 공간정보기술 주식회사 실내뷰 영상 기반의 파노라마 라벨링 시스템
CN110414538B (zh) * 2019-07-24 2022-05-27 京东方科技集团股份有限公司 缺陷分类方法、缺陷分类训练方法及其装置
KR102382962B1 (ko) * 2019-12-09 2022-04-06 재단법인대구경북과학기술원 영상의 세그먼트 처리 방법 및 세그먼트 처리 방법을 수행하는 장치
KR102370228B1 (ko) * 2020-04-29 2022-03-04 군산대학교 산학협력단 확률분포 간의 유사도를 이용한 다중 이동 객체 추적 방법 및 그 방법에 따른 객체 추적 시스템

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4167728A (en) * 1976-11-15 1979-09-11 Environmental Research Institute Of Michigan Automatic image processor
JPS59114687A (ja) * 1982-12-20 1984-07-02 Matsushita Electric Ind Co Ltd 画像デ−タの2値化方法
JPS60156175A (ja) * 1984-01-24 1985-08-16 Nec Corp 画像解析方法およびその装置
JPH0668761B2 (ja) * 1986-06-06 1994-08-31 住友特殊金属株式会社 小粒子除去方法
US5237626A (en) * 1991-09-12 1993-08-17 International Business Machines Corporation Universal image processing module
US5848198A (en) * 1993-10-08 1998-12-08 Penn; Alan Irvin Method of and apparatus for analyzing images and deriving binary image representations
JPH07175925A (ja) * 1993-12-17 1995-07-14 Mitsubishi Electric Corp 特徴量算出装置及び特徴量算出方法
JPH08185521A (ja) * 1994-12-28 1996-07-16 Clarion Co Ltd 移動体カウント装置
JP3471115B2 (ja) * 1995-04-21 2003-11-25 三菱電機株式会社 画像座標変換方法
US5767978A (en) * 1997-01-21 1998-06-16 Xerox Corporation Image segmentation system
JP3577875B2 (ja) * 1997-03-06 2004-10-20 松下電器産業株式会社 移動物体抽出装置
KR100253203B1 (ko) * 1997-10-29 2000-04-15 구자홍 동영상을 이용한 객체 추출방법
KR100636910B1 (ko) * 1998-07-28 2007-01-31 엘지전자 주식회사 동영상검색시스템
JP2000078564A (ja) * 1998-08-28 2000-03-14 Aiphone Co Ltd テレビカメラモニタ人物追跡方式
US6629097B1 (en) * 1999-04-28 2003-09-30 Douglas K. Keith Displaying implicit associations among items in loosely-structured data sets
JP4085844B2 (ja) * 2003-03-03 2008-05-14 松下電工株式会社 画像処理装置
JP4356371B2 (ja) * 2003-06-18 2009-11-04 富士ゼロックス株式会社 情報処理装置
CN100578545C (zh) * 2004-08-20 2010-01-06 Ip菲力股份有限公司 标记图像的生成方法和图像处理系统
JP2006185038A (ja) * 2004-12-27 2006-07-13 Ge Medical Systems Global Technology Co Llc 4次元ラベリング装置、n次元ラベリング装置、4次元空間フィルタ装置およびn次元空間フィルタ装置
JP2007228139A (ja) 2006-02-22 2007-09-06 Seiko Epson Corp ラベリング方法、ラベリング装置、ラベリングプログラム、及びディジタル画像の埃除去方法
US7675524B1 (en) * 2007-05-17 2010-03-09 Adobe Systems, Incorporated Image processing using enclosed block convolution
KR101030430B1 (ko) * 2007-09-12 2011-04-20 주식회사 코아로직 영상 처리 장치와 방법 및 그 기록매체

Also Published As

Publication number Publication date
KR20090027373A (ko) 2009-03-17
US20090067721A1 (en) 2009-03-12
US8160360B2 (en) 2012-04-17
CN101388071A (zh) 2009-03-18
JP2009070387A (ja) 2009-04-02
EP2037405A2 (en) 2009-03-18
EP2037405A3 (en) 2010-06-16
KR101030430B1 (ko) 2011-04-20

Similar Documents

Publication Publication Date Title
JP4907621B2 (ja) 映像処理装置と方法及びその記録媒体
US11423701B2 (en) Gesture recognition method and terminal device and computer readable storage medium using the same
CN108647641B (zh) 基于双路模型融合的视频行为分割方法和装置
KR100480781B1 (ko) 치아영상으로부터 치아영역 추출방법 및 치아영상을이용한 신원확인방법 및 장치
JP5775225B2 (ja) マルチレイヤ連結成分をヒストグラムと共に用いるテキスト検出
US20180322321A1 (en) Image identification method, terminal and non-volatile storage medium
JP4991923B2 (ja) 画像処理方法及び装置
EP3203417B1 (en) Method for detecting texts included in an image and apparatus using the same
US8842889B1 (en) System and method for automatic face recognition
EP2605186B1 (en) Method and apparatus for recognizing a character based on a photographed image
CN112633159B (zh) 人-物交互关系识别方法、模型训练方法及对应装置
US8290277B2 (en) Method and apparatus for setting a lip region for lip reading
JP2011511358A (ja) 自動赤目検出
US20120224789A1 (en) Noise suppression in low light images
KR20180005440A (ko) 진단분석 서비스를 제공하는 기능을 가지는 단말장치와, 진단분석 서비스를 제공하기 위한 프로그램 및 그 프로그램이 기록된 컴퓨터 판독 가능 기록매체
US9710703B1 (en) Method and apparatus for detecting texts included in a specific image
JP4990960B2 (ja) 物体識別装置、物体識別方法、および物体識別プログラム
KR20090027550A (ko) 영상 오브젝트 검출장치와 방법 및 그 기록매체
JP4967045B2 (ja) 背景判別装置、方法及びプログラム
US7734090B2 (en) Information processing device and method, and program
CN111598912A (zh) 图像分割方法及装置
US8509541B2 (en) Method for eye detection for a given face
TWI384418B (zh) 採用區域架構之影像處理方法及系統
CN113052836A (zh) 电子身份照片检测方法、装置、电子设备及存储介质
JP4587698B2 (ja) 文字成分抽出装置

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20101125

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20101207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111213

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees