JP2008171417A - 画像内の略矩形のオブジェクトを検出する方法、画像内のバックグラウンド色を推定する方法、コンピュータ可読媒体、画像内の略矩形のオブジェクトを検出する装置、および画像内のバックグラウンド色を推定する装置 - Google Patents
画像内の略矩形のオブジェクトを検出する方法、画像内のバックグラウンド色を推定する方法、コンピュータ可読媒体、画像内の略矩形のオブジェクトを検出する装置、および画像内のバックグラウンド色を推定する装置 Download PDFInfo
- Publication number
- JP2008171417A JP2008171417A JP2007331586A JP2007331586A JP2008171417A JP 2008171417 A JP2008171417 A JP 2008171417A JP 2007331586 A JP2007331586 A JP 2007331586A JP 2007331586 A JP2007331586 A JP 2007331586A JP 2008171417 A JP2008171417 A JP 2008171417A
- Authority
- JP
- Japan
- Prior art keywords
- image
- candidate
- color
- background color
- detecting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/181—Segmentation; Edge detection involving edge growing; involving edge linking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10008—Still image; Photographic image from scanner, fax or copier
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30176—Document
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Probability & Statistics with Applications (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
【課題】画像内のオブジェクトを検出する方法および装置。
【解決手段】画像内の略矩形のオブジェクトを検出する方法は、画像内の検出されたコー
ナーに基づいて画像内の候補矩形を判定するステップと、弁別ファクタの組に基づいて候
補矩形をランク付けするステップと、ランク付けされた候補矩形に基づいて画像内のオブ
ジェクトを検出するステップと、を有している。
【選択図】図1
【解決手段】画像内の略矩形のオブジェクトを検出する方法は、画像内の検出されたコー
ナーに基づいて画像内の候補矩形を判定するステップと、弁別ファクタの組に基づいて候
補矩形をランク付けするステップと、ランク付けされた候補矩形に基づいて画像内のオブ
ジェクトを検出するステップと、を有している。
【選択図】図1
Description
本発明は、一般に、画像処理に関するものであり、更に詳しくは、画像内のオブジェク
トを検出する方法及び装置に関するものである。
トを検出する方法及び装置に関するものである。
紙の文書、写真、及び/又は(例えば、デビット及びクレジットカードを含む)その他
のオブジェクトの画像をキャプチャすると共に、キャプチャした画像を電子ファイルに変
換するスキャナについては、当技術分野において周知である。このようなスキャナは、様
々な一般的且つ特定の使用法を具備しているが、最も一般的には、記録を統合し、ペーパ
ーレス作業環境を生成すると共に/又は、情報の電子的な伝送を円滑に実行するべく使用
されている。
のオブジェクトの画像をキャプチャすると共に、キャプチャした画像を電子ファイルに変
換するスキャナについては、当技術分野において周知である。このようなスキャナは、様
々な一般的且つ特定の使用法を具備しているが、最も一般的には、記録を統合し、ペーパ
ーレス作業環境を生成すると共に/又は、情報の電子的な伝送を円滑に実行するべく使用
されている。
スキャナは、その設計及び精巧度において様々なものが存在しているが、一般的には、
すべてのスキャナは、細長い光源と、スキャン対象であるオブジェクトの表面から反射さ
れた光を受光する格子状又は列状のセンサを有している。センサからのデータは、スキャ
ナソフトウェアの制御下において動作するプロセッサによって収集され、且つ、通常は、
JPEG、BMP、又はGIFフォーマットを有するデジタル画像ファイルとしてメモリ
内に保存される。スキャナがコンピュータ或いはローカル又はワイドエリアネットワーク
に対して結合されている場合には、デジタル画像ファイルは、通常、保存及び/又は更な
る処理のために、コンピュータ及び/又はネットワーク装置に対して供給されることにな
る。
すべてのスキャナは、細長い光源と、スキャン対象であるオブジェクトの表面から反射さ
れた光を受光する格子状又は列状のセンサを有している。センサからのデータは、スキャ
ナソフトウェアの制御下において動作するプロセッサによって収集され、且つ、通常は、
JPEG、BMP、又はGIFフォーマットを有するデジタル画像ファイルとしてメモリ
内に保存される。スキャナがコンピュータ或いはローカル又はワイドエリアネットワーク
に対して結合されている場合には、デジタル画像ファイルは、通常、保存及び/又は更な
る処理のために、コンピュータ及び/又はネットワーク装置に対して供給されることにな
る。
いくつかの状況においては、スキャニングプロセスにおいて、複数のオブジェクトをス
キャナベッド上に配置した後にスキャンすることにより、結果的に複数のオブジェクトを
含む単一の画像を取得している。例えば、いくつかの写真をスキャナベッド上に配置した
後にスキャンすることにより、すべての写真を含む単一の画像を生成する。複数のオブジ
ェクトを有する画像を更に処理する必要がある場合には、画像内の個々のオブジェクトを
検出及び分離できるように画像を処理することが望ましいことが理解されよう。画像内の
オブジェクトを検出する多数の技法が考案されていることは、驚くに当たらない。
キャナベッド上に配置した後にスキャンすることにより、結果的に複数のオブジェクトを
含む単一の画像を取得している。例えば、いくつかの写真をスキャナベッド上に配置した
後にスキャンすることにより、すべての写真を含む単一の画像を生成する。複数のオブジ
ェクトを有する画像を更に処理する必要がある場合には、画像内の個々のオブジェクトを
検出及び分離できるように画像を処理することが望ましいことが理解されよう。画像内の
オブジェクトを検出する多数の技法が考案されていることは、驚くに当たらない。
例えば、Sambonsugi他に付与された米国特許第6335985号明細書は、
3つの矩形を設定することによって3つの時間的に連続したフレームを取り囲む方法につ
いて開示している。現在のフレームと第1基準フレームの間、並びに、現在のフレームと
第2基準フレームの間のフレーム間の差に基づいて差分画像を取得している。バックグラ
ウンド領域を多角形において個別に判定し、且つ、残りの領域をオブジェクト領域候補と
して選択している。オブジェクト領域候補間における交差部を取得することにより、現在
のフレーム内のオブジェクト領域を抽出することが可能である。
3つの矩形を設定することによって3つの時間的に連続したフレームを取り囲む方法につ
いて開示している。現在のフレームと第1基準フレームの間、並びに、現在のフレームと
第2基準フレームの間のフレーム間の差に基づいて差分画像を取得している。バックグラ
ウンド領域を多角形において個別に判定し、且つ、残りの領域をオブジェクト領域候補と
して選択している。オブジェクト領域候補間における交差部を取得することにより、現在
のフレーム内のオブジェクト領域を抽出することが可能である。
Zhouに付与された米国特許第6898316号明細書は、デジタル画像内の画像エ
リアを検出する方法について開示している。この方法においては、バックグラウンドエリ
アを表している第1画像領域とフォアグラウンドエリアを表している第2画像領域を画像
内において識別している。デジタル画像のピクセル値を使用することにより、勾配値を演
算している。勾配値に基づいたストロークのリストを定義し、且つ、ストロークのリスト
をマージしている。ストロークのリストを使用することにより、コーナーのリストを定義
し、且つ、コーナーのリストとストロークのリストを使用することにより、画像エリアの
境界を画している画像エリア矩形を定義している。画像エリア矩形を使用することにより
、デジタル画像からフォアグラウンドエリアを抽出するための境界ボックスを定義するこ
とが可能である。
リアを検出する方法について開示している。この方法においては、バックグラウンドエリ
アを表している第1画像領域とフォアグラウンドエリアを表している第2画像領域を画像
内において識別している。デジタル画像のピクセル値を使用することにより、勾配値を演
算している。勾配値に基づいたストロークのリストを定義し、且つ、ストロークのリスト
をマージしている。ストロークのリストを使用することにより、コーナーのリストを定義
し、且つ、コーナーのリストとストロークのリストを使用することにより、画像エリアの
境界を画している画像エリア矩形を定義している。画像エリア矩形を使用することにより
、デジタル画像からフォアグラウンドエリアを抽出するための境界ボックスを定義するこ
とが可能である。
Herleyに付与された米国特許出願公開第2004/0146198号明細書は、
デジタル画像データを処理するためのオブジェクト検出及び抽出システムならびに方法に
ついて開示している。単一の画像内に含まれているオブジェクトを分離することにより、
これらのオブジェクトを個別のオブジェクトとして見なすことができるようにしている。
このオブジェクト検出及び抽出方法は、既知の形状の1つ又は複数のオブジェクト(矩形
オブジェクトなど)を含む画像を取得し、オブジェクトの数を、それらのサイズ、向き、
及び位置と共に見出している。具体的には、このオブジェクト検出及び抽出方法は、1つ
又は複数のオブジェクトを含む画像内のそれぞれのピクセルを分類することにより、ピク
セル分類データを取得している。画像関数を定義することによってピクセル分類データを
処理し、且つ、画像関数内の不一致又はギャップに基づいて画像をサブ画像に分割してい
る。サブ画像のそれぞれを処理することにより、それぞれのオブジェクトごとに、サイズ
及び向きを判定している。
デジタル画像データを処理するためのオブジェクト検出及び抽出システムならびに方法に
ついて開示している。単一の画像内に含まれているオブジェクトを分離することにより、
これらのオブジェクトを個別のオブジェクトとして見なすことができるようにしている。
このオブジェクト検出及び抽出方法は、既知の形状の1つ又は複数のオブジェクト(矩形
オブジェクトなど)を含む画像を取得し、オブジェクトの数を、それらのサイズ、向き、
及び位置と共に見出している。具体的には、このオブジェクト検出及び抽出方法は、1つ
又は複数のオブジェクトを含む画像内のそれぞれのピクセルを分類することにより、ピク
セル分類データを取得している。画像関数を定義することによってピクセル分類データを
処理し、且つ、画像関数内の不一致又はギャップに基づいて画像をサブ画像に分割してい
る。サブ画像のそれぞれを処理することにより、それぞれのオブジェクトごとに、サイズ
及び向きを判定している。
Chellapilla他に付与された米国特許出願公開第2004/0181749
号明細書は、電子画像から電子フォームに入力するコンピュータ実装された方法及び装置
について開示している。まず、電子画像内のオブジェクトのサイズ、向き、及び位置を、
そのオブジェクトに対応する画像内のピクセルからの情報要素と共に識別している。電子
フォームのフィールドを、識別された情報要素と共に、グラフィカルユーザーインターフ
ェイスを通じてユーザーに対して表示している。情報要素を、タグが付加された異なる情
報タイプのグループに解析している。タグが付加されたグループによって電子フォームの
フィールドの中の少なくともいくつかのものに入力することにより、入力済みのフォーム
を生成している。これらの入力済みのフィールドは、グラフィカルユーザーインターフェ
イスを通じて編集可能である。
号明細書は、電子画像から電子フォームに入力するコンピュータ実装された方法及び装置
について開示している。まず、電子画像内のオブジェクトのサイズ、向き、及び位置を、
そのオブジェクトに対応する画像内のピクセルからの情報要素と共に識別している。電子
フォームのフィールドを、識別された情報要素と共に、グラフィカルユーザーインターフ
ェイスを通じてユーザーに対して表示している。情報要素を、タグが付加された異なる情
報タイプのグループに解析している。タグが付加されたグループによって電子フォームの
フィールドの中の少なくともいくつかのものに入力することにより、入力済みのフォーム
を生成している。これらの入力済みのフィールドは、グラフィカルユーザーインターフェ
イスを通じて編集可能である。
Jones他に付与された米国特許出願公開第2004/0258313号明細書は、
画像内の特定のオブジェクトを検出する方法について開示している。この方法においては
、画像プレーンとの関係における任意のオブジェクトの向きを判定し、且つ、判定された
向きに従って、複数の向き及びオブジェクト固有のクラシファイアの中の1つを選択して
いる。選択された向き及びオブジェクト固有のクラシファイアにより、任意のオブジェク
トを特定のオブジェクトとして分類している。
画像内の特定のオブジェクトを検出する方法について開示している。この方法においては
、画像プレーンとの関係における任意のオブジェクトの向きを判定し、且つ、判定された
向きに従って、複数の向き及びオブジェクト固有のクラシファイアの中の1つを選択して
いる。選択された向き及びオブジェクト固有のクラシファイアにより、任意のオブジェク
トを特定のオブジェクトとして分類している。
Fesquet他に付与された米国特許出願公開第2005/0105766号明細書
は、郵便ソート設備内において単一の郵便物及び複数のオーバーラップしている郵便物を
検出する方法について開示している。この方法においては、前方から観察した郵便物を表
す画像を分析し、且つ、実質的に一定の高さのアウトラインを具備した物品を認識するべ
くアウトライン抽出プロセスをそれぞれの画像に対して適用している。
は、郵便ソート設備内において単一の郵便物及び複数のオーバーラップしている郵便物を
検出する方法について開示している。この方法においては、前方から観察した郵便物を表
す画像を分析し、且つ、実質的に一定の高さのアウトラインを具備した物品を認識するべ
くアウトライン抽出プロセスをそれぞれの画像に対して適用している。
Aradhye他に付与された米国特許出願公開第2005/0180632号明細書
は、3次元シーンの画像内における視野の歪み、回転、及び/又はスケールの影響を補正
するためのシンボルの訂正及び認識装置及びこれに付随する方法について開示している。
この方法は、共通プレーン内に位置している基準領域を認識対象のシンボルと共に見出し
ている。基準領域は、仮定された(例えば、既知の又は標準的な)形状及び寸法を具備し
た平面的なオブジェクトの画像を表している。その形状内の少なくとも4つの容易に検出
可能な対応ポイントを見出している。次いで、シンボルの変換済みの画像を生成するべく
、仮定された基準領域の寸法に従って共通プレーンの画像を3次元において訂正している
。
は、3次元シーンの画像内における視野の歪み、回転、及び/又はスケールの影響を補正
するためのシンボルの訂正及び認識装置及びこれに付随する方法について開示している。
この方法は、共通プレーン内に位置している基準領域を認識対象のシンボルと共に見出し
ている。基準領域は、仮定された(例えば、既知の又は標準的な)形状及び寸法を具備し
た平面的なオブジェクトの画像を表している。その形状内の少なくとも4つの容易に検出
可能な対応ポイントを見出している。次いで、シンボルの変換済みの画像を生成するべく
、仮定された基準領域の寸法に従って共通プレーンの画像を3次元において訂正している
。
Trifonov他に付与された米国特許出願公開第2005/0180635号明細
書は、まず、画像内のサーチ領域を識別することにより、画像内の境界を判定する方法に
ついて開示している。サーチ領域内の画像の勾配をサーチ領域内の複数のカラー領域と共
に判定している。画像の勾配及び複数のカラー領域に基づいて境界を表しているアクティ
ブな輪郭線を生成している。
書は、まず、画像内のサーチ領域を識別することにより、画像内の境界を判定する方法に
ついて開示している。サーチ領域内の画像の勾配をサーチ領域内の複数のカラー領域と共
に判定している。画像の勾配及び複数のカラー領域に基づいて境界を表しているアクティ
ブな輪郭線を生成している。
前述の参考文献は、画像内のオブジェクトを検出する様々な方法及びシステムについて
開示しているが、改善が望ましい。従って、画像内のオブジェクトを検出する新しい方法
及び装置を提供することが、本発明の1つの目的である。
開示しているが、改善が望ましい。従って、画像内のオブジェクトを検出する新しい方法
及び装置を提供することが、本発明の1つの目的である。
従って、一態様においては、画像内の略矩形のオブジェクトを検出する方法が提供され
ており、この方法は、画像内の検出されたコーナーに基づいて画像内の候補矩形を判定す
るステップと、弁別ファクタの組に基づいて候補矩形をランク付けするステップと、ラン
ク付けされた候補矩形に基づいて画像内のオブジェクトを検出するステップと、を有して
いる。
ており、この方法は、画像内の検出されたコーナーに基づいて画像内の候補矩形を判定す
るステップと、弁別ファクタの組に基づいて候補矩形をランク付けするステップと、ラン
ク付けされた候補矩形に基づいて画像内のオブジェクトを検出するステップと、を有して
いる。
一実施例においては、ランク付けステップの前に、選択済みの候補矩形を破棄している
。選択済みの候補矩形は、高位にランク付けされた候補矩形と閾値である量を上回ってオ
ーバーラップしている場合に、破棄される。ランク付けステップの前に、近接した候補矩
形をマージすることが可能であり、且つ、候補矩形の境界を調節することが可能である。
。選択済みの候補矩形は、高位にランク付けされた候補矩形と閾値である量を上回ってオ
ーバーラップしている場合に、破棄される。ランク付けステップの前に、近接した候補矩
形をマージすることが可能であり、且つ、候補矩形の境界を調節することが可能である。
一実施例においては、判定ステップは、画像のバックグラウンド色を推定するステップ
と、推定されたバックグラウンド色に基づいてオブジェクトの境界を画しているエッジを
検出するステップと、エッジを調べることによってコーナーを表す交差しているエッジを
検出するステップと、矩形の頂点を定義しているコーナーをグループ化することによって
候補矩形を判定するステップと、を有している。一実施例における弁別ファクタの組は、
候補矩形に近接したピクセルと関連付けられたエッジ及び色情報に基づいたものである。
と、推定されたバックグラウンド色に基づいてオブジェクトの境界を画しているエッジを
検出するステップと、エッジを調べることによってコーナーを表す交差しているエッジを
検出するステップと、矩形の頂点を定義しているコーナーをグループ化することによって
候補矩形を判定するステップと、を有している。一実施例における弁別ファクタの組は、
候補矩形に近接したピクセルと関連付けられたエッジ及び色情報に基づいたものである。
別の態様によれば、画像内のバックグラウンド色を推定する方法が提供されており、こ
の方法は、画像のそれぞれのスキャンラインを類似した色のラインセグメントにセグメン
ト化するステップと、類似した色のセグメントを色によってグループ化するステップと、
グループのラインセグメントに沿ったエッジピクセルに基づいてバックグラウンド色を推
定するステップと、を有している。
の方法は、画像のそれぞれのスキャンラインを類似した色のラインセグメントにセグメン
ト化するステップと、類似した色のセグメントを色によってグループ化するステップと、
グループのラインセグメントに沿ったエッジピクセルに基づいてバックグラウンド色を推
定するステップと、を有している。
一実施例においては、グループ化するステップにおいて、閾値である長さを上回る類似
した色のラインセグメントのみをグループ化している。推定ステップは、エッジピクセル
の数及び強度に基づいて実行されている。推定ステップは、閾値であるラインセグメント
数を具備した類似した色のラインセグメントのグループを判定するステップと、それぞれ
の類似した色のラインセグメントのグループの平均色を候補バックグラウンド色として指
定するステップと、それぞれの候補バックグラウンド色ごとに、その候補バックグラウン
ド色を表すグループのラインセグメントに沿ってエッジピクセルを検出するステップと、
エッジピクセルによって定義されたエッジの強度を算出するステップと、エッジピクセル
カウント及びエッジ強度に基づいて、候補バックグラウンド色の中の1つをバックグラウ
ンド色の推定値として選択するステップと、を有している。
した色のラインセグメントのみをグループ化している。推定ステップは、エッジピクセル
の数及び強度に基づいて実行されている。推定ステップは、閾値であるラインセグメント
数を具備した類似した色のラインセグメントのグループを判定するステップと、それぞれ
の類似した色のラインセグメントのグループの平均色を候補バックグラウンド色として指
定するステップと、それぞれの候補バックグラウンド色ごとに、その候補バックグラウン
ド色を表すグループのラインセグメントに沿ってエッジピクセルを検出するステップと、
エッジピクセルによって定義されたエッジの強度を算出するステップと、エッジピクセル
カウント及びエッジ強度に基づいて、候補バックグラウンド色の中の1つをバックグラウ
ンド色の推定値として選択するステップと、を有している。
更に別の態様によれば、画像内のオブジェクトを検出する装置が提供されており、この
装置は、画像を保存するメモリと、このメモリと通信している処理構造であって、画像を
処理することにより、画像内の検出されたコーナーに基づいて候補矩形を判定し、弁別フ
ァクタの組に基づいて候補矩形をランク付けすると共に、ランク付けされた候補矩形から
画像内のオブジェクトを判定する処理構造と、を有している。
装置は、画像を保存するメモリと、このメモリと通信している処理構造であって、画像を
処理することにより、画像内の検出されたコーナーに基づいて候補矩形を判定し、弁別フ
ァクタの組に基づいて候補矩形をランク付けすると共に、ランク付けされた候補矩形から
画像内のオブジェクトを判定する処理構造と、を有している。
更に別の態様によれば、画像内のバックグラウンド色を推定する装置が提供されており
、この装置は、画像を保存するメモリと、このメモリと通信している処理構造であって、
画像を処理することにより、それぞれのスキャンラインを類似した色のラインセグメント
にセグメント化し、類似した色のラインセグメントを色によってグループ化すると共に、
これらのグループのラインセグメントに沿ったエッジピクセルに基づいてバックグラウン
ド色を推定する処理構造と、を有している。
、この装置は、画像を保存するメモリと、このメモリと通信している処理構造であって、
画像を処理することにより、それぞれのスキャンラインを類似した色のラインセグメント
にセグメント化し、類似した色のラインセグメントを色によってグループ化すると共に、
これらのグループのラインセグメントに沿ったエッジピクセルに基づいてバックグラウン
ド色を推定する処理構造と、を有している。
[適用例1]前述の課題を解決するため、画像内の略矩形のオブジェクトを検出する方
法は、前記画像内の検出されたコーナーに基づいて前記画像内の候補矩形を判定するステ
ップと、弁別ファクタの組に基づいて前記候補矩形をランク付けするステップと、前記ラ
ンク付けされた候補矩形に基づいて前記画像内のオブジェクトを検出するステップとを含
むことを要旨とする。
法は、前記画像内の検出されたコーナーに基づいて前記画像内の候補矩形を判定するステ
ップと、弁別ファクタの組に基づいて前記候補矩形をランク付けするステップと、前記ラ
ンク付けされた候補矩形に基づいて前記画像内のオブジェクトを検出するステップとを含
むことを要旨とする。
[適用例2]また、画像内の略矩形のオブジェクトを検出する方法は、前記ランク付け
するステップの前に、選択された候補矩形を破棄するステップを更に含むことをその要旨
とする。
するステップの前に、選択された候補矩形を破棄するステップを更に含むことをその要旨
とする。
[適用例3]また、画像内の略矩形のオブジェクトを検出する方法は、選択された候補
矩形は、高位にランク付けされた候補矩形と閾値である量を上回ってオーバーラップして
いる場合に、破棄されることをその要旨とする。
矩形は、高位にランク付けされた候補矩形と閾値である量を上回ってオーバーラップして
いる場合に、破棄されることをその要旨とする。
[適用例4]また、画像内の略矩形のオブジェクトを検出する方法は、前記ランク付け
するステップの前に、近接する候補矩形をマージするステップを更に含むことをその要旨
とする。
するステップの前に、近接する候補矩形をマージするステップを更に含むことをその要旨
とする。
[適用例5]また、画像内の略矩形のオブジェクトを検出する方法は、前記弁別ファク
タの組は、前記候補矩形に近接したピクセルと関連付けられた少なくともエッジ及び色情
報に基づいていることをその要旨とする。
タの組は、前記候補矩形に近接したピクセルと関連付けられた少なくともエッジ及び色情
報に基づいていることをその要旨とする。
[適用例6]また、画像内の略矩形のオブジェクトを検出する方法は、前記ランク付け
するステップの前に、前記候補矩形の境界を調節するステップを更に含むことをその要旨
とする。
するステップの前に、前記候補矩形の境界を調節するステップを更に含むことをその要旨
とする。
[適用例7]また、画像内の略矩形のオブジェクトを検出する方法は、前記調節するス
テップにおいて、前記候補矩形を定義している前記コーナーの位置を前記候補矩形を取り
囲んでいる近傍部分内において調節することをその要旨とする。
テップにおいて、前記候補矩形を定義している前記コーナーの位置を前記候補矩形を取り
囲んでいる近傍部分内において調節することをその要旨とする。
[適用例8]また、画像内の略矩形のオブジェクトを検出する方法は、前記判定するス
テップは、前記画像のバックグラウンド色を推定するステップと、前記推定されたバック
グラウンド色に基づいて前記オブジェクトの境界を画しているエッジを検出するステップ
と、前記エッジを調べることにより、コーナーを表す交差しているエッジを検出するステ
ップと、矩形の頂点を定義しているコーナーをグループ化することにより、前記候補矩形
を判定するステップと、を含むことをその要旨とする。
テップは、前記画像のバックグラウンド色を推定するステップと、前記推定されたバック
グラウンド色に基づいて前記オブジェクトの境界を画しているエッジを検出するステップ
と、前記エッジを調べることにより、コーナーを表す交差しているエッジを検出するステ
ップと、矩形の頂点を定義しているコーナーをグループ化することにより、前記候補矩形
を判定するステップと、を含むことをその要旨とする。
[適用例9]また、画像内の略矩形のオブジェクトを検出する方法は、前記ランク付け
するステップの前に、前記候補矩形の境界を調節するステップを更に含むことをその要旨
とする。
するステップの前に、前記候補矩形の境界を調節するステップを更に含むことをその要旨
とする。
[適用例10]また、画像内の略矩形のオブジェクトを検出する方法は、前記ランク付
けするステップの前に、選択された候補矩形を破棄するステップを更に含むことをその要
旨とする。
けするステップの前に、選択された候補矩形を破棄するステップを更に含むことをその要
旨とする。
[適用例11]また、画像内の略矩形のオブジェクトを検出する方法は、選択された候
補矩形は、高位にランク付けされた候補矩形と閾値である量を上回ってオーバーラップし
ている際に、破棄されることをその要旨とする。
補矩形は、高位にランク付けされた候補矩形と閾値である量を上回ってオーバーラップし
ている際に、破棄されることをその要旨とする。
[適用例12]また、画像内の略矩形のオブジェクトを検出する方法は、前記ランク付
けするステップの前に、近接する候補矩形をマージするステップを更に含むことをその要
旨とする。
けするステップの前に、近接する候補矩形をマージするステップを更に含むことをその要
旨とする。
[適用例13]また、画像内のバックグラウンド色を推定する方法は、前記画像のそれ
ぞれのスキャンラインを類似した色のラインセグメントにセグメント化するステップと、
前記類似した色のラインセグメントを色によってグループ化するステップと、前記グルー
プの前記ラインセグメントに沿ったエッジピクセルに基づいて前記バックグラウンド色を
推定するステップと、を含むことをその要旨とする。
ぞれのスキャンラインを類似した色のラインセグメントにセグメント化するステップと、
前記類似した色のラインセグメントを色によってグループ化するステップと、前記グルー
プの前記ラインセグメントに沿ったエッジピクセルに基づいて前記バックグラウンド色を
推定するステップと、を含むことをその要旨とする。
[適用例14]また、画像内のバックグラウンド色を推定する方法は、前記グループ化
するステップにおいて、閾値である長さを上回る類似した色のラインセグメントのみをグ
ループ化することをその要旨とする。
するステップにおいて、閾値である長さを上回る類似した色のラインセグメントのみをグ
ループ化することをその要旨とする。
[適用例15]また、画像内のバックグラウンド色を推定する方法は、前記推定するス
テップは、エッジピクセルの数及び強度に基づいて実行されることをその要旨とする。
テップは、エッジピクセルの数及び強度に基づいて実行されることをその要旨とする。
[適用例16]また、画像内のバックグラウンド色を推定する方法であって、前記推定
するステップは、閾値であるラインセグメント数を具備した前記類似した色のラインセグ
メントのグループを判定するステップと、それぞれの前記類似した色のラインセグメント
のグループの平均色を候補バックグラウンド色として指定するステップと、それぞれの候
補バックグラウンド色ごとに、その候補バックグラウンド色を表す前記グループの前記ラ
インセグメントに沿ってエッジピクセルを検出し、且つ、前記エッジピクセルによって定
義されたエッジの強度を算出するステップと、エッジピクセルカウント及びエッジ強度に
基づいて前記候補バックグラウンド色の中の1つを前記バックグラウンド色として選択す
るステップと、を含むことをその要旨とする。
するステップは、閾値であるラインセグメント数を具備した前記類似した色のラインセグ
メントのグループを判定するステップと、それぞれの前記類似した色のラインセグメント
のグループの平均色を候補バックグラウンド色として指定するステップと、それぞれの候
補バックグラウンド色ごとに、その候補バックグラウンド色を表す前記グループの前記ラ
インセグメントに沿ってエッジピクセルを検出し、且つ、前記エッジピクセルによって定
義されたエッジの強度を算出するステップと、エッジピクセルカウント及びエッジ強度に
基づいて前記候補バックグラウンド色の中の1つを前記バックグラウンド色として選択す
るステップと、を含むことをその要旨とする。
[適用例17]また、コンピュータプログラムを含むコンピュータ可読媒体は、適用例
1に記載の前記方法を実行するプログラムコードを含むことをその要旨とする。
1に記載の前記方法を実行するプログラムコードを含むことをその要旨とする。
[適用例18]また、コンピュータプログラムを含むコンピュータ可読媒体は、適用例
13に記載の前記方法を実行するプログラムコードを含むことをその要旨とする。
13に記載の前記方法を実行するプログラムコードを含むことをその要旨とする。
[適用例19]また、画像内の略矩形のオブジェクトを検出する装置であって、前記画
像を保存するメモリと、前記メモリと通信している処理構造であって、前記画像内の検出
されたコーナーに基づいて前記画像を処理することにより、候補矩形を判定し、弁別ファ
クタの組に基づいて前記候補矩形をランク付けすると共に、前記ランク付けされた候補矩
形から前記画像内のオブジェクトを判定する処理構造と、を含むことをその要旨とする。
像を保存するメモリと、前記メモリと通信している処理構造であって、前記画像内の検出
されたコーナーに基づいて前記画像を処理することにより、候補矩形を判定し、弁別ファ
クタの組に基づいて前記候補矩形をランク付けすると共に、前記ランク付けされた候補矩
形から前記画像内のオブジェクトを判定する処理構造と、を含むことをその要旨とする。
[適用例20]また、画像内の略矩形のオブジェクトを検出する装置は、前記処理構造
は、前記ランク付けするステップの前に、画像を更に処理することにより、選択された候
補矩形の破棄、近接する候補矩形のマージ、及び候補矩形の調節の中の少なくとも1つを
実行することをその要旨とする。
は、前記ランク付けするステップの前に、画像を更に処理することにより、選択された候
補矩形の破棄、近接する候補矩形のマージ、及び候補矩形の調節の中の少なくとも1つを
実行することをその要旨とする。
[適用例21]また、画像内の略矩形のオブジェクトを検出する装置は、前記処理構造
は、前記画像を処理することにより、選択された候補矩形を破棄し、近接する候補矩形を
マージすると共に、候補矩形を調節することをその要旨とする。
は、前記画像を処理することにより、選択された候補矩形を破棄し、近接する候補矩形を
マージすると共に、候補矩形を調節することをその要旨とする。
[適用例22]また、画像内のバックグラウンド色を推定する装置は、前記画像を保存
するメモリと、前記メモリと通信している処理構造であって、前記画像を処理することに
より、前記画像のそれぞれのスキャンラインを類似した色のラインセグメントにセグメン
ト化し、前記類似した色のラインセグメントを色によってグループ化すると共に、前記グ
ループの前記ラインセグメントに沿ったエッジピクセルに基づいてバックグラウンド色を
推定する処理構造と、を含むことをその要旨とする。
するメモリと、前記メモリと通信している処理構造であって、前記画像を処理することに
より、前記画像のそれぞれのスキャンラインを類似した色のラインセグメントにセグメン
ト化し、前記類似した色のラインセグメントを色によってグループ化すると共に、前記グ
ループの前記ラインセグメントに沿ったエッジピクセルに基づいてバックグラウンド色を
推定する処理構造と、を含むことをその要旨とする。
以下、添付の図面を参照し、実施例について更に詳しく説明することとする。まず、図
1を参照すれば、入力デジタル画像内のオブジェクトを検出する装置が示されており、こ
れは、全体として装置20によって識別されている。この実施例においては、装置20は
、例えば、パーソナルコンピュータ又はその他の好適な処理装置などの処理構造によって
実施されている。装置20は、処理ユニット24、RAM(Random Access Memory)28
、不揮発性メモリ32、通信インターフェイス36、入力インターフェイス40、及び出
力インターフェイス44を有しており、これらは、いずれも、ローカルバス48上におけ
る通信状態にある。処理ユニット24は、不揮発性メモリ32内に保存されているオブジ
ェクト検出アプリケーションを実行している。装置20は、通信インターフェイス36を
介してネットワーク又はサーバーに結合可能である。入力インターフェイス40は、ユー
ザーによるオブジェクト検出アプリケーションとのやり取りを実現するべく、キーパッド
、マウス、及び/又はその他の入力装置を有している。又、入力インターフェイス40は
、オブジェクト検出のための分析対象となる画像をキャプチャするべく、スキャナをも包
含可能である。出力インターフェイス44は、オブジェクト検出の結果を視覚的に提示す
ると共に、オブジェクト検出アプリケーションの設定を表示することによってユーザーに
よるそれらの調節を実現するディスプレイを有している。
1を参照すれば、入力デジタル画像内のオブジェクトを検出する装置が示されており、こ
れは、全体として装置20によって識別されている。この実施例においては、装置20は
、例えば、パーソナルコンピュータ又はその他の好適な処理装置などの処理構造によって
実施されている。装置20は、処理ユニット24、RAM(Random Access Memory)28
、不揮発性メモリ32、通信インターフェイス36、入力インターフェイス40、及び出
力インターフェイス44を有しており、これらは、いずれも、ローカルバス48上におけ
る通信状態にある。処理ユニット24は、不揮発性メモリ32内に保存されているオブジ
ェクト検出アプリケーションを実行している。装置20は、通信インターフェイス36を
介してネットワーク又はサーバーに結合可能である。入力インターフェイス40は、ユー
ザーによるオブジェクト検出アプリケーションとのやり取りを実現するべく、キーパッド
、マウス、及び/又はその他の入力装置を有している。又、入力インターフェイス40は
、オブジェクト検出のための分析対象となる画像をキャプチャするべく、スキャナをも包
含可能である。出力インターフェイス44は、オブジェクト検出の結果を視覚的に提示す
ると共に、オブジェクト検出アプリケーションの設定を表示することによってユーザーに
よるそれらの調節を実現するディスプレイを有している。
図2は、入力デジタル画像内のオブジェクトを検出するべく、オブジェクト検出アプリ
ケーションを実行した際に装置20によって実行される概略的なステップを示している。
この実施例においては、装置20は、それぞれの入力画像を処理することにより、入力画
像内の略矩形の写真の存在を検出している。まず、入力画像のバックグラウンド領域の色
を推定し、且つ、入力画像内の写真の輪郭を描いているエッジを検出している(ステップ
S110)。次いで、検出されたエッジに沿ったエッジピクセルをグループ化することに
より、ラインセグメントを形成し、且つ、形成されたラインセグメントをリスト内に入力
している(ステップS120)。次いで、リスト内のラインセグメントをグループ化する
ことにより、直角のコーナーを形成し、且つ、候補矩形の頂点を定義している直角のコー
ナーのグループを判定している(ステップS130)。次いで、略一致している候補矩形
をマージしている(ステップS140)。次いで、残りの候補矩形を評価することにより
、真の候補矩形と偽の候補矩形を弁別し、且つ、真の候補矩形をランク付けしている(ス
テップS150)。次いで、高位にランク付けされた候補矩形とオーバーラップしている
低位にランク付けされた候補矩形を破棄している。(ステップS160)。次いで、残り
の候補矩形のラインセグメントを使用することにより、ステップS120において生成さ
れたラインセグメントリストを補完している(ステップS170)。所望のレベルの信頼
性を具備する入力画像内の写真に対応した候補矩形が判定されるまで、ステップS130
からステップS170までの間を反復的に実行している(ステップS180)。
ケーションを実行した際に装置20によって実行される概略的なステップを示している。
この実施例においては、装置20は、それぞれの入力画像を処理することにより、入力画
像内の略矩形の写真の存在を検出している。まず、入力画像のバックグラウンド領域の色
を推定し、且つ、入力画像内の写真の輪郭を描いているエッジを検出している(ステップ
S110)。次いで、検出されたエッジに沿ったエッジピクセルをグループ化することに
より、ラインセグメントを形成し、且つ、形成されたラインセグメントをリスト内に入力
している(ステップS120)。次いで、リスト内のラインセグメントをグループ化する
ことにより、直角のコーナーを形成し、且つ、候補矩形の頂点を定義している直角のコー
ナーのグループを判定している(ステップS130)。次いで、略一致している候補矩形
をマージしている(ステップS140)。次いで、残りの候補矩形を評価することにより
、真の候補矩形と偽の候補矩形を弁別し、且つ、真の候補矩形をランク付けしている(ス
テップS150)。次いで、高位にランク付けされた候補矩形とオーバーラップしている
低位にランク付けされた候補矩形を破棄している。(ステップS160)。次いで、残り
の候補矩形のラインセグメントを使用することにより、ステップS120において生成さ
れたラインセグメントリストを補完している(ステップS170)。所望のレベルの信頼
性を具備する入力画像内の写真に対応した候補矩形が判定されるまで、ステップS130
からステップS170までの間を反復的に実行している(ステップS180)。
この実施例においては、入力画像のバックグラウンド領域が略均一な色を有しており、
且つ、入力画像内の写真の境界が、画像のバックグラウンド内のエッジと識別可能な違い
を具備しており、この結果、写真の輪郭を描いているエッジが入力画像内のその他のエッ
ジとの関係において強力であるものと仮定されている。これらの仮定を利用すると共に、
入力画像内の写真の概略サイズ、形状、及び数が付与された場合に、入力画像内のそれぞ
れの写真の境界を正確に推定することが可能である。
且つ、入力画像内の写真の境界が、画像のバックグラウンド内のエッジと識別可能な違い
を具備しており、この結果、写真の輪郭を描いているエッジが入力画像内のその他のエッ
ジとの関係において強力であるものと仮定されている。これらの仮定を利用すると共に、
入力画像内の写真の概略サイズ、形状、及び数が付与された場合に、入力画像内のそれぞ
れの写真の境界を正確に推定することが可能である。
ステップS110においては、低レベルな画像の特徴の発見的な調査に基づいた5ステ
ップの単一パスの方法を使用することにより、バックグラウンド領域色を推定している。
具体的には、まず、入力画像のスキャンライン(即ち、ピクセル行及びピクセル列)を均
一に着色されたセグメントにセグメント化している。次いで、エッジの検出を実行し、且
つ、このエッジ情報を使用することによって候補バックグラウンド領域色を表すラインセ
グメント色を選択している。次いで、エッジ情報をスキャンラインセグメント化情報と組
み合わせることにより、いずれの候補バックグラウンド領域色が真のバックグラウンド領
域色であるのかを判定している。以下、図3〜図5を参照し、前述の方法に関する更なる
詳細について説明することとする。
ップの単一パスの方法を使用することにより、バックグラウンド領域色を推定している。
具体的には、まず、入力画像のスキャンライン(即ち、ピクセル行及びピクセル列)を均
一に着色されたセグメントにセグメント化している。次いで、エッジの検出を実行し、且
つ、このエッジ情報を使用することによって候補バックグラウンド領域色を表すラインセ
グメント色を選択している。次いで、エッジ情報をスキャンラインセグメント化情報と組
み合わせることにより、いずれの候補バックグラウンド領域色が真のバックグラウンド領
域色であるのかを判定している。以下、図3〜図5を参照し、前述の方法に関する更なる
詳細について説明することとする。
まず、図3を参照すれば、ステップS110におけるバックグラウンド領域色の推定及
びエッジの検出において実行されるステップが更に詳しく示されている。まず、入力画像
のスキャンラインを略同一の色のラインセグメントにパーティション化している(ステッ
プS310)。多数の長いバックグラウンド色のラインセグメントが存在するものと仮定
することにより、閾値を上回る長さを具備したラインセグメントを判定し、且つ、これら
を色によってグループ化している(ステップS312)。次いで、閾値を上回る数のライ
ンセグメントを具備したラインセグメントのグループを判定し(ステップS314)、こ
れらのラインセグメントのグループと関連付けされた色を候補バックグラウンド領域色と
して指定している(ステップS316)。それぞれの候補バックグラウンド領域色ごとに
、入力画像内のバックグラウンド領域と写真の間の境界上の関連付けられたラインセグメ
ントグループのラインセグメントに沿ったエッジピクセルを検出している(ステップS3
18)。次いで、エッジピクセルによって定義されたエッジの強度を算出している(ステ
ップS320)。次いで、指定された範囲内のエッジピクセルカウントを具備し、且つ、
その平均エッジ強度が最大であるラインセグメントグループと関連付けられた色となるよ
うに、真のバックグラウンド領域色を判定している(ステップS322)。
びエッジの検出において実行されるステップが更に詳しく示されている。まず、入力画像
のスキャンラインを略同一の色のラインセグメントにパーティション化している(ステッ
プS310)。多数の長いバックグラウンド色のラインセグメントが存在するものと仮定
することにより、閾値を上回る長さを具備したラインセグメントを判定し、且つ、これら
を色によってグループ化している(ステップS312)。次いで、閾値を上回る数のライ
ンセグメントを具備したラインセグメントのグループを判定し(ステップS314)、こ
れらのラインセグメントのグループと関連付けされた色を候補バックグラウンド領域色と
して指定している(ステップS316)。それぞれの候補バックグラウンド領域色ごとに
、入力画像内のバックグラウンド領域と写真の間の境界上の関連付けられたラインセグメ
ントグループのラインセグメントに沿ったエッジピクセルを検出している(ステップS3
18)。次いで、エッジピクセルによって定義されたエッジの強度を算出している(ステ
ップS320)。次いで、指定された範囲内のエッジピクセルカウントを具備し、且つ、
その平均エッジ強度が最大であるラインセグメントグループと関連付けられた色となるよ
うに、真のバックグラウンド領域色を判定している(ステップS322)。
次に、図4及び図5を参照し、ステップS310におけるスキャンラインの類似した色
のラインセグメントへのパーティション化について説明することとする。図4は、ピクセ
ルk1〜k3を有する模範的なスキャンライン400を示している。図示されているように
、この例におけるスキャンライン400は、それぞれ、ピクセルk2及びピクセルk2+1
によって分離された個別の色を有する2つのラインセグメントs1及びラインセグメント
s2を具備している。ラインセグメントs1は、ピクセルk1〜k2を有しており(s1=[
k1,k2])、ラインセグメントs2は、ピクセルk2+1〜k3を有している(s2=[k
2+1,k3])。それぞれのピクセルkの赤、緑、青(RGB)の色ベクトルをcolo
r(k)によって表している。ラインセグメントs1及びラインセグメントs2上のピクセ
ルkの色は、平均色Csを中心として正規分布しているものと仮定されている。又、色の
標準偏差σは、ラインセグメントs1の平均色C1とラインセグメントs2の平均色C2の間
の差よりも格段に小さいものと仮定されている。
のラインセグメントへのパーティション化について説明することとする。図4は、ピクセ
ルk1〜k3を有する模範的なスキャンライン400を示している。図示されているように
、この例におけるスキャンライン400は、それぞれ、ピクセルk2及びピクセルk2+1
によって分離された個別の色を有する2つのラインセグメントs1及びラインセグメント
s2を具備している。ラインセグメントs1は、ピクセルk1〜k2を有しており(s1=[
k1,k2])、ラインセグメントs2は、ピクセルk2+1〜k3を有している(s2=[k
2+1,k3])。それぞれのピクセルkの赤、緑、青(RGB)の色ベクトルをcolo
r(k)によって表している。ラインセグメントs1及びラインセグメントs2上のピクセ
ルkの色は、平均色Csを中心として正規分布しているものと仮定されている。又、色の
標準偏差σは、ラインセグメントs1の平均色C1とラインセグメントs2の平均色C2の間
の差よりも格段に小さいものと仮定されている。
ラインセグメントs1及びラインセグメントs2における平均色C1及び平均色C2は、そ
れぞれ、次の式(1)及び式(2)によって表現される。
れぞれ、次の式(1)及び式(2)によって表現される。
ラインセグメントs1及びラインセグメントs2における標準偏差σ1及び標準偏差σ2は
、次の式(3)及び式(4)によって表現される。
、次の式(3)及び式(4)によって表現される。
ラインセグメントs1及びラインセグメントs2の色ベクトルは、次の式(5)及び式(
6)に従って分布している。
6)に従って分布している。
ラインセグメントの色の変化を検出するべく、次の式(7)によるスパン平均関数に基
づいてスパン値ΣSPAN([i,j])を定義している。
づいてスパン値ΣSPAN([i,j])を定義している。
式(7)から、スパン差ΔSPAN=ΣSPAN([k1,j+1])−ΣSPAN([k1,j])
は、j<k2において、ゼロベクトルを中心として対称に分布していることがわかる。又
、スパン差ΔSPANは、j≧k2においては、k1(C2−C1)/j2を中心として対称に分
布している。この結果、j≧k2において、スパン差ΔSPANは、ゼロから発散している。
は、j<k2において、ゼロベクトルを中心として対称に分布していることがわかる。又
、スパン差ΔSPANは、j≧k2においては、k1(C2−C1)/j2を中心として対称に分
布している。この結果、j≧k2において、スパン差ΔSPANは、ゼロから発散している。
従って、以上ことから、大きな非ゼロのスパン差ΔSPANを識別することにより、それぞ
れのスキャンラインに沿った色の変化を検出することが可能であることが理解されよう。
次に、図5を参照すれば、スキャンラインの調査においてそれに沿った色の変化を検出す
るべく実行されるステップが示されている。まず、ピクセルiにおいて始まり、且つ、ピ
クセルjにおいて終了しているスキャンライン上においてラインセグメントsを指定して
いる(即ち、s=[i,j]である)(ステップS500)。次いで、式(7)に従って
、j=i+1においてスパン値ΣSPAN([i,j])を算出している(ステップS505
)。次いで、スパン差ΔSPAN=ΣSPAN([i,j])−ΣSPAN([i,j−1])を算出
し(ステップS510)、且つ、偏差σを推定している(ステップS515)。次いで、
現在のスパン差ΔSPANを以前の反復において算出されたスパン差ΔSPANと比較することに
より、この差がステップS515において演算された偏差σを上回っているかどうかを判
定している(ステップS520)。差が偏差σを上回っている場合には、カウントを増分
することになる(ステップS525)。次いで、チェックすることにより、カウントが閾
値に到達しているかどうかを判定している(ステップS530)。この例においては、閾
値は3に等しい。ステップS530において、カウントが閾値に等しくない場合には、ラ
インセグメントの最終ピクセル位置jを増分し(ステップS535)、本プロセスは、次
に反復のためにステップS505に戻ることになる。ステップS530において、カウン
トが閾値に到達している場合には、最終ピクセル位置j−2(即ち、差が最初に偏差σを
上回っていると判定された最終ピクセル位置)においてスキャンラインに沿った色の変化
を検出することになる(ステップS540)。この最終ピクセル位置は、スキャンライン
に沿った次のラインセグメントの開始点を指定すると共に以前のラインセグメントの終点
をマーキングしている。この時点において、カウントをゼロ化すると共に(ステップS5
45)、本プロセスは、ステップS500に戻り、ここで、次のラインセグメントを指定
することになる。ステップS520において、差が偏差σを上回っていない場合には、カ
ウントをゼロ化することになる(ステップS550)。次いで、次の反復のためにステッ
プS505に戻る前に、最終ピクセル位置jをステップS535において増分している。
れのスキャンラインに沿った色の変化を検出することが可能であることが理解されよう。
次に、図5を参照すれば、スキャンラインの調査においてそれに沿った色の変化を検出す
るべく実行されるステップが示されている。まず、ピクセルiにおいて始まり、且つ、ピ
クセルjにおいて終了しているスキャンライン上においてラインセグメントsを指定して
いる(即ち、s=[i,j]である)(ステップS500)。次いで、式(7)に従って
、j=i+1においてスパン値ΣSPAN([i,j])を算出している(ステップS505
)。次いで、スパン差ΔSPAN=ΣSPAN([i,j])−ΣSPAN([i,j−1])を算出
し(ステップS510)、且つ、偏差σを推定している(ステップS515)。次いで、
現在のスパン差ΔSPANを以前の反復において算出されたスパン差ΔSPANと比較することに
より、この差がステップS515において演算された偏差σを上回っているかどうかを判
定している(ステップS520)。差が偏差σを上回っている場合には、カウントを増分
することになる(ステップS525)。次いで、チェックすることにより、カウントが閾
値に到達しているかどうかを判定している(ステップS530)。この例においては、閾
値は3に等しい。ステップS530において、カウントが閾値に等しくない場合には、ラ
インセグメントの最終ピクセル位置jを増分し(ステップS535)、本プロセスは、次
に反復のためにステップS505に戻ることになる。ステップS530において、カウン
トが閾値に到達している場合には、最終ピクセル位置j−2(即ち、差が最初に偏差σを
上回っていると判定された最終ピクセル位置)においてスキャンラインに沿った色の変化
を検出することになる(ステップS540)。この最終ピクセル位置は、スキャンライン
に沿った次のラインセグメントの開始点を指定すると共に以前のラインセグメントの終点
をマーキングしている。この時点において、カウントをゼロ化すると共に(ステップS5
45)、本プロセスは、ステップS500に戻り、ここで、次のラインセグメントを指定
することになる。ステップS520において、差が偏差σを上回っていない場合には、カ
ウントをゼロ化することになる(ステップS550)。次いで、次の反復のためにステッ
プS505に戻る前に、最終ピクセル位置jをステップS535において増分している。
表1は、前述のラインセグメント色の変化の検出方法の擬似コード実装である。スキャ
ンラインに沿った色の変化を検出することによって雑音に起因した偽の色の変化の検出を
回避するには、3つの連続した非ゼロのスパン差ΔSPANが必要である。この非ゼロのスパ
ン差ΔSPANの数は、偽の色の変化の検出をほとんど伴わない正確な結果をもたらすことが
判明している。この方式におけるスキャンラインに沿った色の変化の検出により、雑音に
起因して誤りを生成し易いコムフィルタソリューションの使用と関連した欠点が克服され
る。
ンラインに沿った色の変化を検出することによって雑音に起因した偽の色の変化の検出を
回避するには、3つの連続した非ゼロのスパン差ΔSPANが必要である。この非ゼロのスパ
ン差ΔSPANの数は、偽の色の変化の検出をほとんど伴わない正確な結果をもたらすことが
判明している。この方式におけるスキャンラインに沿った色の変化の検出により、雑音に
起因して誤りを生成し易いコムフィルタソリューションの使用と関連した欠点が克服され
る。
候補バックグラウンド領域色を指定する際には、バックグラウンド領域色が、多数の長
い類似した色のラインセグメントによって表されるものと仮定されている。ステップS3
12において類似した色のラインセグメントを分類するべく、3つの等しいサイズのアレ
イ、即ち、投票アレイ、色アレイ、及び分散アレイを設定している。それぞれのアレイの
対応するセルをそれぞれのラインセグメントの平均色に対して割り当てている。この実施
例においては、色は、24ビットのRBGであり、且つ、([R/16],[G/16]
,[B/16])によって表現されるものと仮定している。閾値である長さよりも長いそ
れぞれのラインセグメントごとに、ラインセグメント内のピクセルの数(「votes(
投票数)」)を判定し、これをそのラインセグメントの平均色に対応した投票アレイのセ
ルに入力している。
い類似した色のラインセグメントによって表されるものと仮定されている。ステップS3
12において類似した色のラインセグメントを分類するべく、3つの等しいサイズのアレ
イ、即ち、投票アレイ、色アレイ、及び分散アレイを設定している。それぞれのアレイの
対応するセルをそれぞれのラインセグメントの平均色に対して割り当てている。この実施
例においては、色は、24ビットのRBGであり、且つ、([R/16],[G/16]
,[B/16])によって表現されるものと仮定している。閾値である長さよりも長いそ
れぞれのラインセグメントごとに、ラインセグメント内のピクセルの数(「votes(
投票数)」)を判定し、これをそのラインセグメントの平均色に対応した投票アレイのセ
ルに入力している。
更には、閾値である長さよりも長いそれぞれのラインセグメントごとに、次の式(8)
に従ってポイント推定値を算出すると共に、次の式(9)に従って色拡散推定値を算出し
ている。
に従ってポイント推定値を算出すると共に、次の式(9)に従って色拡散推定値を算出し
ている。
算出されたポイント推定値をラインセグメントの平均色に対応した色アレイのセルに入
力し、且つ、算出された色拡散推定値をラインセグメントの平均色に対応した分散アレイ
のセルに入力している。表2は、前述の手順の擬似コード実装である。
力し、且つ、算出された色拡散推定値をラインセグメントの平均色に対応した分散アレイ
のセルに入力している。表2は、前述の手順の擬似コード実装である。
閾値である長さを上回るすべてのラインセグメントの処理と、投票、色、及び分散アレ
イのセルの入力が完了したら、閾値を上回る数のラインセグメントを具備したラインセグ
メントグループを判定し(ステップS314)、且つ、これらのラインセグメントグルー
プから、投票アレイの最高位の10個の入力済みのセルを選択している。これらの選択さ
れた投票アレイのセルと関連付けられたラインセグメントグループの平均色を候補バック
グラウンド領域色として指定している(ステップS316)。色アレイの対応したセル内
のポイント推定値と分散アレイの対応したセル内の色拡散推定値を投票アレイセル内の投
票値によって除算することにより、選択された投票アレイのセルのそれぞれの平均色ベク
トル及び分散を算出している。次いで、選択された投票アレイのセルと関連付けられたラ
インセグメントグループの平均色を調べてエイリアシングを識別している。選択された投
票アレイのそれぞれのセルは、26個の隣接セルを具備している。エイリアシングの識別
においては、選択された投票アレイのそれぞれのセルと関連付けられたラインセグメント
グループの平均色をその隣接する投票アレイのそれぞれのセルと関連付けられたラインセ
グメント平均色と比較することにより、色が同一であるかどうかを判定している。隣接す
るセル内の中心に位置する2つの色Cは、次式が成立する場合に、同一の色であると見な
されている。
イのセルの入力が完了したら、閾値を上回る数のラインセグメントを具備したラインセグ
メントグループを判定し(ステップS314)、且つ、これらのラインセグメントグルー
プから、投票アレイの最高位の10個の入力済みのセルを選択している。これらの選択さ
れた投票アレイのセルと関連付けられたラインセグメントグループの平均色を候補バック
グラウンド領域色として指定している(ステップS316)。色アレイの対応したセル内
のポイント推定値と分散アレイの対応したセル内の色拡散推定値を投票アレイセル内の投
票値によって除算することにより、選択された投票アレイのセルのそれぞれの平均色ベク
トル及び分散を算出している。次いで、選択された投票アレイのセルと関連付けられたラ
インセグメントグループの平均色を調べてエイリアシングを識別している。選択された投
票アレイのそれぞれのセルは、26個の隣接セルを具備している。エイリアシングの識別
においては、選択された投票アレイのそれぞれのセルと関連付けられたラインセグメント
グループの平均色をその隣接する投票アレイのそれぞれのセルと関連付けられたラインセ
グメント平均色と比較することにより、色が同一であるかどうかを判定している。隣接す
るセル内の中心に位置する2つの色Cは、次式が成立する場合に、同一の色であると見な
されている。
投票アレイのセルがその隣接する投票アレイのセルの中の1つと同一の色であると判定
された際に、平均ラインセグメント色に対応した3つのアレイのそれぞれのセルをマージ
している。セルのマージは、次式に従って実行している。
された際に、平均ラインセグメント色に対応した3つのアレイのそれぞれのセルをマージ
している。セルのマージは、次式に従って実行している。
セルのマージが完了したら、候補バックグラウンド領域色を、それらの候補バックグラ
ウンド領域色を表すラインセグメントグループと関連付けられた投票アレイのセル内の投
票値に基づいて、順番にランク付けしている。最高位の投票値と関連付けられた候補バッ
クグラウンド領域色が、真の候補バックグラウンド領域色となる可能性が最も高いと見な
されている。低位の投票値と関連付けられた候補バックグラウンド領域色は、真の候補バ
ックグラウンド領域色となる可能性が低いと見なされている。次いで、まず、最高位にラ
ンク付けされた候補バックグラウンド領域色から始めて、それぞれの候補バックグラウン
ド領域色を表すラインセグメントグループと関連付けられた画像ピクセルを処理している
(ステップS318)。このステップにおいては、候補バックグラウンド領域色を表すグ
ループ内のラインセグメントに対応した画像ピクセルを識別している。具体的には、画像
のピクセルpは、次式が成立する場合に、バックグラウンド領域色Cを有するものと判定
されている。
ウンド領域色を表すラインセグメントグループと関連付けられた投票アレイのセル内の投
票値に基づいて、順番にランク付けしている。最高位の投票値と関連付けられた候補バッ
クグラウンド領域色が、真の候補バックグラウンド領域色となる可能性が最も高いと見な
されている。低位の投票値と関連付けられた候補バックグラウンド領域色は、真の候補バ
ックグラウンド領域色となる可能性が低いと見なされている。次いで、まず、最高位にラ
ンク付けされた候補バックグラウンド領域色から始めて、それぞれの候補バックグラウン
ド領域色を表すラインセグメントグループと関連付けられた画像ピクセルを処理している
(ステップS318)。このステップにおいては、候補バックグラウンド領域色を表すグ
ループ内のラインセグメントに対応した画像ピクセルを識別している。具体的には、画像
のピクセルpは、次式が成立する場合に、バックグラウンド領域色Cを有するものと判定
されている。
候補バックグラウンド領域色に対応した画像ピクセルの識別が完了したら、エッジの検
出を実行し、且つ、入力画像に対応したエッジマップを生成している。エッジピクセルは
、それらと左側の最も近いピクセル又は下側の最も近いピクセルの間に逆の状態(バック
グラウンド又は非バックグラウンド)を具備するものとして定義されている。具体的には
、候補バックグラウンド領域色Cが付与された場合に、ピクセルpは、次式が成立した場
合に、エッジピクセルであると見なされている。
出を実行し、且つ、入力画像に対応したエッジマップを生成している。エッジピクセルは
、それらと左側の最も近いピクセル又は下側の最も近いピクセルの間に逆の状態(バック
グラウンド又は非バックグラウンド)を具備するものとして定義されている。具体的には
、候補バックグラウンド領域色Cが付与された場合に、ピクセルpは、次式が成立した場
合に、エッジピクセルであると見なされている。
従って、ピクセルpがエッジピクセルであると見なされるためには、次の条件の中の1
つが真でなければならない。
ピクセルpは、バックグラウンド領域色を有しているが、ピクセルplは、有していな
い。
ピクセルplは、バックグラウンド領域色を有しているが、ピクセルpは、有していな
い。
ピクセルpは、バックグラウンド領域色を有しているが、ピクセルpbは、有していな
い。
ピクセルpbは、バックグラウンド領域色を有しているが、ピクセルpは、有していな
い。
つが真でなければならない。
ピクセルpは、バックグラウンド領域色を有しているが、ピクセルplは、有していな
い。
ピクセルplは、バックグラウンド領域色を有しているが、ピクセルpは、有していな
い。
ピクセルpは、バックグラウンド領域色を有しているが、ピクセルpbは、有していな
い。
ピクセルpbは、バックグラウンド領域色を有しているが、ピクセルpは、有していな
い。
図9(a)及び図9(b)は、その内部に2つの矩形写真を具備した入力画像とエッジ
検出の結果として生成された対応するエッジマップを示している。前述のプロセスは、バ
ックグラウンド色を有する及びバックグラウンド色を有していない領域の間の境界上にお
いてのみエッジが検出されることを保証している。非エッジピクセルにはゼロのエッジ強
度を割り当てている。残りのエッジピクセルについては、次の式(10)に従ってピクセ
ルのエッジ強度を算出している(ステップS320)。
検出の結果として生成された対応するエッジマップを示している。前述のプロセスは、バ
ックグラウンド色を有する及びバックグラウンド色を有していない領域の間の境界上にお
いてのみエッジが検出されることを保証している。非エッジピクセルにはゼロのエッジ強
度を割り当てている。残りのエッジピクセルについては、次の式(10)に従ってピクセ
ルのエッジ強度を算出している(ステップS320)。
候補バックグラウンド領域色を表すそれぞれのラインセグメントグループの画像ピクセ
ルを前述の方式において処理した後に、エッジピクセルの数とそれぞれの候補バックグラ
ウンド領域色と関連付けられたエッジピクセルの平均強度を使用することにより、真のバ
ックグラウンド領域色を判定している。入力画像が2つを上回る数の標準サイズの写真を
その内部に具備している際には、バックグラウンド領域色のラインセグメントは、短くな
ると共に数が少なくなる傾向を有している。この結果、ラインセグメント情報のみを使用
した場合には、信頼性が低くなる。真のバックグラウンド領域色を選択する際には、エッ
ジピクセル数及び強度情報を信頼できることが判明している。真のバックグラウンド領域
色を判定するには、まず、予想されるエッジピクセルカウント値に最も近いエッジピクセ
ルカウントを具備するラインセグメントグループによって表された候補バックグラウンド
領域色Xを選択している。例えば、79×109の画像の場合には、予想されるエッジピ
クセルカウントは、500に等しい。選択された候補バックグラウンド領域色Xにおいて
、選択された候補バックグラウンド領域色Xのエッジピクセルカウントの200以内のエ
ッジピクセルカウントを具備すると共に最高の平均エッジ強度を具備したラインセグメン
トグループによって表される候補バックグラウンド領域色を、真のバックグラウンド領域
色として判定している。
ルを前述の方式において処理した後に、エッジピクセルの数とそれぞれの候補バックグラ
ウンド領域色と関連付けられたエッジピクセルの平均強度を使用することにより、真のバ
ックグラウンド領域色を判定している。入力画像が2つを上回る数の標準サイズの写真を
その内部に具備している際には、バックグラウンド領域色のラインセグメントは、短くな
ると共に数が少なくなる傾向を有している。この結果、ラインセグメント情報のみを使用
した場合には、信頼性が低くなる。真のバックグラウンド領域色を選択する際には、エッ
ジピクセル数及び強度情報を信頼できることが判明している。真のバックグラウンド領域
色を判定するには、まず、予想されるエッジピクセルカウント値に最も近いエッジピクセ
ルカウントを具備するラインセグメントグループによって表された候補バックグラウンド
領域色Xを選択している。例えば、79×109の画像の場合には、予想されるエッジピ
クセルカウントは、500に等しい。選択された候補バックグラウンド領域色Xにおいて
、選択された候補バックグラウンド領域色Xのエッジピクセルカウントの200以内のエ
ッジピクセルカウントを具備すると共に最高の平均エッジ強度を具備したラインセグメン
トグループによって表される候補バックグラウンド領域色を、真のバックグラウンド領域
色として判定している。
予想されたサイズのシャープな境界エッジを形成するバックグラウンド領域の高度に多元
的な色を真のバックグラウンド領域色として選択している。
ステップS120におけるラインセグメントを形成するためのエッジピクセルのグルー
プ化は、エッジピクセルとしてのその特徴によって(この場合には、エッジ強度によって
)ラインセグメント上のピクセルに対して重み付けする変形TLS(Total Least Square
)法を使用して実現されている。ポイントの組からラインセグメントを判定する非変形T
LS法は、楕円をポイントの組に対して統計的にフィッティングし、楕円の長軸に対する
楕円の短軸の比率が閾値を下回っている際に楕円の長軸をラインセグメントとして指定す
るステップに類似している。0.3に等しい閾値が有効であることが証明されている。変
形TLS法は、楕円の長軸軸から離れた小さな重みを有するピクセルのコストが、重みが
大きい場合よりも小さいという点が異なっている。このピクセルの相対的に弱い固有値は
、楕円軸の比率を示している。
プ化は、エッジピクセルとしてのその特徴によって(この場合には、エッジ強度によって
)ラインセグメント上のピクセルに対して重み付けする変形TLS(Total Least Square
)法を使用して実現されている。ポイントの組からラインセグメントを判定する非変形T
LS法は、楕円をポイントの組に対して統計的にフィッティングし、楕円の長軸に対する
楕円の短軸の比率が閾値を下回っている際に楕円の長軸をラインセグメントとして指定す
るステップに類似している。0.3に等しい閾値が有効であることが証明されている。変
形TLS法は、楕円の長軸軸から離れた小さな重みを有するピクセルのコストが、重みが
大きい場合よりも小さいという点が異なっている。このピクセルの相対的に弱い固有値は
、楕円軸の比率を示している。
ステップS120におけるエッジピクセルのラインセグメントへのグループ化の際には
、まず、空間的に接続されたエッジピクセルの小さなグループを選択している(この場合
には、8つのエッジピクセルである)。前述の変形TLS法を使用することにより、エッ
ジピクセルをラインセグメントに対してフィッティングしている。この方法においては、
エッジピクセルの座標の重み付けされた共分散行列のメイジャー固有ベクトルを演算して
いる。重み付けされた共分散行列のマイナー固有値が閾値を上回る時点まで、ラインセグ
メントに近接し、且つ、これに沿って位置している隣接ピクセルをグループに追加してい
る。このプロセスは、McLaughlin他著の「The Hough Transform Versus the U
pWrite」(IEEE Trans.On PAMI,Vol.20,No 4,April 1998)という名称の出版物に開示さ
れているものに類似しており、この内容は、本引用により、本明細書に包含される。
、まず、空間的に接続されたエッジピクセルの小さなグループを選択している(この場合
には、8つのエッジピクセルである)。前述の変形TLS法を使用することにより、エッ
ジピクセルをラインセグメントに対してフィッティングしている。この方法においては、
エッジピクセルの座標の重み付けされた共分散行列のメイジャー固有ベクトルを演算して
いる。重み付けされた共分散行列のマイナー固有値が閾値を上回る時点まで、ラインセグ
メントに近接し、且つ、これに沿って位置している隣接ピクセルをグループに追加してい
る。このプロセスは、McLaughlin他著の「The Hough Transform Versus the U
pWrite」(IEEE Trans.On PAMI,Vol.20,No 4,April 1998)という名称の出版物に開示さ
れているものに類似しており、この内容は、本引用により、本明細書に包含される。
ステップS130においてコーナーを検出する際には、グループ内のラインセグメント
を調べることにより、閾値である距離内のラインセグメントのペアを検出している。この
実施例においては、閾値である距離は、25ピクセルである。それぞれの検出されたライ
ンセグメントのペアごとに、ラインセグメントを調べることにより、ラインセグメントが
略直角を形成しているかどうか(従って、コーナーを表しているかどうか)を判定してい
る。この実施例においては、コーナーを表していると見なされるためには、ペアのライン
セグメントが、直角(90度)の1/10ラジアン以内に位置していなければならない。
ラインセグメントがコーナーを表していると考えられる場合には、それらのラインセグメ
ントの実際の又は推定された交差部に、コーナーを仮定している。このコーナーに対して
、次式に従い、ラインセグメントペアの間の角度の二等分線に関連したコーナーの向きを
割り当てている。
を調べることにより、閾値である距離内のラインセグメントのペアを検出している。この
実施例においては、閾値である距離は、25ピクセルである。それぞれの検出されたライ
ンセグメントのペアごとに、ラインセグメントを調べることにより、ラインセグメントが
略直角を形成しているかどうか(従って、コーナーを表しているかどうか)を判定してい
る。この実施例においては、コーナーを表していると見なされるためには、ペアのライン
セグメントが、直角(90度)の1/10ラジアン以内に位置していなければならない。
ラインセグメントがコーナーを表していると考えられる場合には、それらのラインセグメ
ントの実際の又は推定された交差部に、コーナーを仮定している。このコーナーに対して
、次式に従い、ラインセグメントペアの間の角度の二等分線に関連したコーナーの向きを
割り当てている。
これらの複数の角度は、入力画像が最大4枚の写真をその内部に具備しており、4枚の
写真が1つの検出されたコーナーの近傍において出会っているという可能性を考慮したも
のである。
写真が1つの検出されたコーナーの近傍において出会っているという可能性を考慮したも
のである。
図6に示されているように、ステップS140においては、まず、検出されたコーナー
を使用することにより、候補矩形を判定しているステップS710。コーナーのペアの向
きが反対である場合に、候補矩形を判定している。多くの例においては、入力画像内にお
いて複数の候補矩形を判定している。候補矩形の判定が完了したら、選択された候補矩形
をマージして複写を除去している(ステップS720)。この例においては、2つの候補
矩形の対応する頂点における最大距離差が2ピクセルである場合に、候補矩形が複写であ
ると判定している。
を使用することにより、候補矩形を判定しているステップS710。コーナーのペアの向
きが反対である場合に、候補矩形を判定している。多くの例においては、入力画像内にお
いて複数の候補矩形を判定している。候補矩形の判定が完了したら、選択された候補矩形
をマージして複写を除去している(ステップS720)。この例においては、2つの候補
矩形の対応する頂点における最大距離差が2ピクセルである場合に、候補矩形が複写であ
ると判定している。
検出されたコーナーによって定義された候補矩形は、不正確である可能性があるため、
候補矩形を調節している(ステップS730)。候補矩形の調節においては、図7に示さ
れているように、候補矩形810の周りに、近傍部分820を設定している。この近傍部
分820の内部において、サーチを実行することにより、候補矩形の辺の調節済みの最良
の位置を見出している。このサーチは、候補矩形の辺近傍のエッジ強度、候補矩形の直ぐ
外側のピクセルの非バックグラウンデッドネス(non-backgroundedness)の尺度と候補矩
形の直ぐ内側のピクセルのバックグラウンデッドネス(backgroundedness)の尺度の間の
差、及び候補矩形の辺に跨る色エッジの強度に基づいたものである。
候補矩形を調節している(ステップS730)。候補矩形の調節においては、図7に示さ
れているように、候補矩形810の周りに、近傍部分820を設定している。この近傍部
分820の内部において、サーチを実行することにより、候補矩形の辺の調節済みの最良
の位置を見出している。このサーチは、候補矩形の辺近傍のエッジ強度、候補矩形の直ぐ
外側のピクセルの非バックグラウンデッドネス(non-backgroundedness)の尺度と候補矩
形の直ぐ内側のピクセルのバックグラウンデッドネス(backgroundedness)の尺度の間の
差、及び候補矩形の辺に跨る色エッジの強度に基づいたものである。
まず、それぞれの候補矩形の辺ごとに、3つの統計値としての第1統計値S1、第2統
計値S2、及び第3統計値S3を判定している。まず、エッジ検出の結果として生成され
たエッジマップを次の形態のガウスカーネルによって不鮮明化することにより、結果的に
得られる不鮮明化されたエッジマップBEM(x,y)を取得している。
計値S2、及び第3統計値S3を判定している。まず、エッジ検出の結果として生成され
たエッジマップを次の形態のガウスカーネルによって不鮮明化することにより、結果的に
得られる不鮮明化されたエッジマップBEM(x,y)を取得している。
不鮮明化されたエッジマップは、第1統計値S1を定義している。結果的に得られた不
鮮明化されたエッジマップBEM(x,y)のピクセルは、候補矩形の辺が(x,y)の
近傍を通過する尤度を表している。図9(c)は、不鮮明化が完了した後の図9(b)の
エッジマップを示している。
鮮明化されたエッジマップBEM(x,y)のピクセルは、候補矩形の辺が(x,y)の
近傍を通過する尤度を表している。図9(c)は、不鮮明化が完了した後の図9(b)の
エッジマップを示している。
ピクセルpの非バックグラウンデッドネスを次の式(11)に従って算出している。
(i)は、バックグラウンド領域のi番目のRGB色のコンポーネントであり、σiは、
バックグラウンド領域色のi番目の標準偏差のコンポーネントである。
それぞれの候補矩形の辺ごとに、候補矩形の直ぐ外側及び直ぐ内側のピクセルのペア(
a,b)の非バックグラウンデッドネススコアの平均差を判定することにより、第2統計
値S2を提供している。
a,b)の非バックグラウンデッドネススコアの平均差を判定することにより、第2統計
値S2を提供している。
次いで、すべてのピクセルのペア(a,b)のデルタの平均を判定することにより、第
3統計値S3を定義しているが、ここで、デルタは、次のように定義されている。
3統計値S3を定義しているが、ここで、デルタは、次のように定義されている。
この実施例における前述の第1統計値S1、第2統計値S2、及び第3統計値S3は、
線分描画/追跡用のBresenhamのアルゴリズムに基づいた整数計算アルゴリズム
を使用して演算されている。
線分描画/追跡用のBresenhamのアルゴリズムに基づいた整数計算アルゴリズム
を使用して演算されている。
それぞれの候補矩形の辺について演算された3つの統計値により、ローカルサーチを実
行し、それぞれの候補矩形の辺の最良の場所を判定している。このプロセスにおいては、
O(S1,S2,S3)=S1+8S2+16S3という形態の目的関数を最適化してい
る。例えば、図8は、座標格子上における候補矩形の辺を示しており、この場合には、単
純化のために、辺は、x軸に対して平行な状態において示されている。ローカルサーチに
おいては、反復的なサーチアルゴリズムを利用することにより、候補矩形の辺を移動させ
る必要があるかどうかを判定している。
行し、それぞれの候補矩形の辺の最良の場所を判定している。このプロセスにおいては、
O(S1,S2,S3)=S1+8S2+16S3という形態の目的関数を最適化してい
る。例えば、図8は、座標格子上における候補矩形の辺を示しており、この場合には、単
純化のために、辺は、x軸に対して平行な状態において示されている。ローカルサーチに
おいては、反復的なサーチアルゴリズムを利用することにより、候補矩形の辺を移動させ
る必要があるかどうかを判定している。
サーチアルゴリズムに従って、4つの変数p1〜p4を次のように定義している。
図7の候補矩形の辺を参照すれば、変数p1がゼロを大幅に上回っている場合には、こ
の状況は、エッジbがエッジcのものよりも強力であることを意味していることから、コ
ーナーポイントc1を上方に移動させて目的関数Oを最適化する必要がある。変数p2が
ゼロを大幅に上回っている場合には、この状況は、エッジdがエッジcのものよりも強力
であることを意味していることから、コーナーポイントc1を下方に移動させて目的関数
Oを最適化する必要がある。変数p3がゼロを大幅に上回っている場合には、この状況は
、エッジbがエッジcのものよりも強力であることを意味していることから、コーナーポ
イントcNを上方に移動させて目的関数Oを最適化する必要がある。変数p4がゼロを大
幅に上回っている場合には、この状況は、エッジdがエッジcのものよりも強力であるこ
とを意味していることから、コーナーポイントcNを下方に移動させて目的関数Oを最適
化する必要がある。前述の条件に基づいて、反復的な手順を実行することにより、矩形の
辺の端部を定義するコーナーポイントをプルアップ又はプルダウンして矩形の辺の位置を
調節している。
の状況は、エッジbがエッジcのものよりも強力であることを意味していることから、コ
ーナーポイントc1を上方に移動させて目的関数Oを最適化する必要がある。変数p2が
ゼロを大幅に上回っている場合には、この状況は、エッジdがエッジcのものよりも強力
であることを意味していることから、コーナーポイントc1を下方に移動させて目的関数
Oを最適化する必要がある。変数p3がゼロを大幅に上回っている場合には、この状況は
、エッジbがエッジcのものよりも強力であることを意味していることから、コーナーポ
イントcNを上方に移動させて目的関数Oを最適化する必要がある。変数p4がゼロを大
幅に上回っている場合には、この状況は、エッジdがエッジcのものよりも強力であるこ
とを意味していることから、コーナーポイントcNを下方に移動させて目的関数Oを最適
化する必要がある。前述の条件に基づいて、反復的な手順を実行することにより、矩形の
辺の端部を定義するコーナーポイントをプルアップ又はプルダウンして矩形の辺の位置を
調節している。
10回の反復が完了する時点まで、候補矩形について反復を実行する。調節済みの候補矩
形の生成が完了したら、候補矩形の隣接する辺の間の角度を調べることにより、それらが
5度超だけ直角から逸脱していないことを保証している。調節済みの矩形を形成する隣接
している辺のいずれかが5度超だけ逸脱している場合には、未調節の候補矩形を使用する
。
代替肢として、トレーニングされた機械学習プロセスを介して正確な矩形エッジを導出
することも可能である。機械学習プロセスは、変数として、前述の入力(即ち、矩形の辺
に跨った非バックグラウンドネス差)及び関連するエッジ強度を使用することが可能であ
る。
することも可能である。機械学習プロセスは、変数として、前述の入力(即ち、矩形の辺
に跨った非バックグラウンドネス差)及び関連するエッジ強度を使用することが可能であ
る。
候補矩形のそれぞれの調節が完了したら、候補矩形をランク付けしている(ステップS
740)。ランク付けステップにおいては、候補矩形に近接したピクセルと関連付けられ
た少なくともエッジ及び色情報に基づいた弁別ファクタを使用している。この実施例にお
いては、
(i)候補矩形上又はこの近傍に配置された強力なエッジポイント
(ii)候補矩形の内部に位置するラインセグメントの長さの二乗合計
(iii)候補矩形内部のバックグラウンド色を有していないピクセルの数
(iv)候補矩形内部のエッジピクセルの数及び強度
(v)候補矩形のエリア
(vi)候補矩形が画像を超えて延長している際に画像エッジが候補矩形を切り捨ててい
るバックグラウンド色を有していないピクセルの数
という弁別ファクタを使用して候補矩形を検証している。
740)。ランク付けステップにおいては、候補矩形に近接したピクセルと関連付けられ
た少なくともエッジ及び色情報に基づいた弁別ファクタを使用している。この実施例にお
いては、
(i)候補矩形上又はこの近傍に配置された強力なエッジポイント
(ii)候補矩形の内部に位置するラインセグメントの長さの二乗合計
(iii)候補矩形内部のバックグラウンド色を有していないピクセルの数
(iv)候補矩形内部のエッジピクセルの数及び強度
(v)候補矩形のエリア
(vi)候補矩形が画像を超えて延長している際に画像エッジが候補矩形を切り捨ててい
るバックグラウンド色を有していないピクセルの数
という弁別ファクタを使用して候補矩形を検証している。
不鮮明化されたエッジマップBEM(x,y)により、ファクタ(i)を判定すること
が可能である。ファクタ(ii)は、候補矩形内のピクセル行上のピクセルのColor
Scoreを使用して判定される。NxMからNに計算の数を低減する蓄積行アレイ法を
使用している。ファクタ(iv)及び(vi)は、Color Scoreをエッジ強度によ
って置換することにより、ファクタ(ii)に類似した方式において算出されている。ファ
クタ(iii)及び(v)の判定については、前述の説明から明らかである。
が可能である。ファクタ(ii)は、候補矩形内のピクセル行上のピクセルのColor
Scoreを使用して判定される。NxMからNに計算の数を低減する蓄積行アレイ法を
使用している。ファクタ(iv)及び(vi)は、Color Scoreをエッジ強度によ
って置換することにより、ファクタ(ii)に類似した方式において算出されている。ファ
クタ(iii)及び(v)の判定については、前述の説明から明らかである。
次いで、候補矩形のそれぞれごとに前述の6つのファクタを使用することにより、次の
統計値の表5を算出している。
統計値の表5を算出している。
表5の統計値は、離散型の適応ブースティング(Ada Boost)を使用してブー
ストされる決定木の切り株の機械学習クラシファイアと共に使用されている。Ada B
oost法は、弱いクラシファイアのシーケンスを学習し、弱いクラシファイアを線形で
組み合わせて単一の強力なクラシファイアを構築することにより、インジケータとして機
能する弱いクラシファイアの能力をブーストしている。すべての反復ステップにおいて、
「弱い学習者」関数(即ち、ランダムチャンスよりもわずかに良好であるに過ぎない精度
を具備しているもの)をデータによってトレーニングしている。次いで、弱い学習者の出
力を(弱い学習者の精度に比例した)なんらかの強度において学習済みの関数に対して追
加している。次いで、弱い学習者関数の将来の反復が、同一のエラーが回避される更に大
きな確率を具備することになるように、データを再重み付け又はブーストしている。
ストされる決定木の切り株の機械学習クラシファイアと共に使用されている。Ada B
oost法は、弱いクラシファイアのシーケンスを学習し、弱いクラシファイアを線形で
組み合わせて単一の強力なクラシファイアを構築することにより、インジケータとして機
能する弱いクラシファイアの能力をブーストしている。すべての反復ステップにおいて、
「弱い学習者」関数(即ち、ランダムチャンスよりもわずかに良好であるに過ぎない精度
を具備しているもの)をデータによってトレーニングしている。次いで、弱い学習者の出
力を(弱い学習者の精度に比例した)なんらかの強度において学習済みの関数に対して追
加している。次いで、弱い学習者関数の将来の反復が、同一のエラーが回避される更に大
きな確率を具備することになるように、データを再重み付け又はブーストしている。
既知のセグメントを具備した人工的に生成された画像サンプルから得られた特徴を使用
してクラシファイアを事前トレーニングすることにより、次の式(12)の定数(q,r
)を得ている。
してクラシファイアを事前トレーニングすることにより、次の式(12)の定数(q,r
)を得ている。
このタイプのクラシファイアは、通常、不信任分類(non-confidence classification
)のために使用されているが、このクラシファイアの出力スコアは、候補矩形のランクの
有用な尺度を提供している。
)のために使用されているが、このクラシファイアの出力スコアは、候補矩形のランクの
有用な尺度を提供している。
以上に続いて、矩形の境界に跨ったバックグラウンド及び非バックグラウンドピクセル
間の差s2と矩形の境界に跨った色エッジの強度s3を判定している。次いで、次の式(
13)に従って、それぞれの候補矩形のスコアを算出している。
間の差s2と矩形の境界に跨った色エッジの強度s3を判定している。次いで、次の式(
13)に従って、それぞれの候補矩形のスコアを算出している。
04及び0.002に等しい。次いで、候補矩形をスコアによってランク付けしている。
ランク付けステップが完了したら、候補矩形を調べることにより、いずれかの候補矩形が
オーバーラップしているかどうかを判定している。2つのオーバーラップしている候補矩
形において、高位にランク付けされた候補矩形が低位にランク付けされた候補矩形と30
%を上回ってオーバーラップしている場合には、低位にランク付けされた候補矩形を破棄
する。前述のように、ランク付けされた候補矩形が入力画像内の写真を表す時点まで、ス
テップS130からステップS170までの間を反復的に実行する。
このオブジェクト検出アプリケーションは、スタンドアロンのデジタル画像ツールとし
て稼動可能であり、或いは、その他の利用可能なデジタル画像処理アプリケーションに内
蔵することにより、向上した機能をそれらのデジタル画像処理アプリケーションに対して
提供することも可能である。ソフトウェアアプリケーションは、ルーチン、プログラム、
オブジェクトコンポーネント、データ構造などを含むプログラムモジュールを包含するこ
とが可能であり、且つ、コンピュータ可読媒体内に保存されたコンピュータ可読プログラ
ムコードとして実施可能である。このコンピュータ可読媒体は、データを保存することが
でき、且つ、その後に、そのコンピュータシステムによって判読可能である任意のデータ
ストレージ装置であってよい。コンピュータ可読媒体の例は、例えば、読み出し専用メモ
リ、ランダムアクセスメモリ、ハードディスクドライブ、磁気テープ、CD−ROM、及
びその他の光データストレージ装置を含んでいる。又、コンピュータ可読プログラムコー
ドを、結合されたコンピュータシステムを含むネットワーク上に分散させることにより、
分散方式でコンピュータ可読プログラムコードを保存及び実行できるようにすることも可
能である。
て稼動可能であり、或いは、その他の利用可能なデジタル画像処理アプリケーションに内
蔵することにより、向上した機能をそれらのデジタル画像処理アプリケーションに対して
提供することも可能である。ソフトウェアアプリケーションは、ルーチン、プログラム、
オブジェクトコンポーネント、データ構造などを含むプログラムモジュールを包含するこ
とが可能であり、且つ、コンピュータ可読媒体内に保存されたコンピュータ可読プログラ
ムコードとして実施可能である。このコンピュータ可読媒体は、データを保存することが
でき、且つ、その後に、そのコンピュータシステムによって判読可能である任意のデータ
ストレージ装置であってよい。コンピュータ可読媒体の例は、例えば、読み出し専用メモ
リ、ランダムアクセスメモリ、ハードディスクドライブ、磁気テープ、CD−ROM、及
びその他の光データストレージ装置を含んでいる。又、コンピュータ可読プログラムコー
ドを、結合されたコンピュータシステムを含むネットワーク上に分散させることにより、
分散方式でコンピュータ可読プログラムコードを保存及び実行できるようにすることも可
能である。
以上、特定の実施例について説明したが、当業者であれば、添付の請求項によって定義
されているその精神及び範囲を逸脱することなしに、変形及び変更を実施することが可能
であることを理解するであろう。
されているその精神及び範囲を逸脱することなしに、変形及び変更を実施することが可能
であることを理解するであろう。
24…処理ユニット、28…RAM、32…不揮発性メモリ、36…通信インターフェ
イス、40…入力インターフェイス、44…出力インターフェイス。
イス、40…入力インターフェイス、44…出力インターフェイス。
Claims (22)
- 画像内の略矩形のオブジェクトを検出する方法であって、
前記画像内の検出されたコーナーに基づいて前記画像内の候補矩形を判定するステップ
と、
弁別ファクタの組に基づいて前記候補矩形をランク付けするステップと、
前記ランク付けされた候補矩形に基づいて前記画像内のオブジェクトを検出するステッ
プとを含むことを特徴とする画像内の略矩形のオブジェクトを検出する方法。 - 前記ランク付けするステップの前に、選択された候補矩形を破棄するステップを更に含
むことを特徴とする請求項1に記載の画像内の略矩形のオブジェクトを検出する方法。 - 選択された候補矩形は、高位にランク付けされた候補矩形と閾値である量を上回ってオ
ーバーラップしている場合に、破棄されることを特徴とする請求項2に記載の画像内の略
矩形のオブジェクトを検出する方法。 - 前記ランク付けするステップの前に、近接する候補矩形をマージするステップを更に含
むことを特徴とする請求項3に記載の画像内の略矩形のオブジェクトを検出する方法。 - 前記弁別ファクタの組は、前記候補矩形に近接したピクセルと関連付けられた少なくと
もエッジ及び色情報に基づいていることを特徴とする請求項4に記載の画像内の略矩形の
オブジェクトを検出する方法。 - 前記ランク付けするステップの前に、前記候補矩形の境界を調節するステップを更に含
むことを特徴とする請求項4に記載の画像内の略矩形のオブジェクトを検出する方法。 - 前記調節するステップにおいて、前記候補矩形を定義している前記コーナーの位置を前
記候補矩形を取り囲んでいる近傍部分内において調節することを特徴とする請求項6に記
載の画像内の略矩形のオブジェクトを検出する方法。 - 前記判定するステップは、
前記画像のバックグラウンド色を推定するステップと、
前記推定されたバックグラウンド色に基づいて前記オブジェクトの境界を画しているエ
ッジを検出するステップと、
前記エッジを調べることにより、コーナーを表す交差しているエッジを検出するステッ
プと、
矩形の頂点を定義しているコーナーをグループ化することにより、前記候補矩形を判定
するステップと、を含むことを特徴とする請求項1に記載の画像内の略矩形のオブジェク
トを検出する方法。 - 前記ランク付けするステップの前に、前記候補矩形の境界を調節するステップを更に含
むことを特徴とする請求項8に記載の画像内の略矩形のオブジェクトを検出する方法。 - 前記ランク付けするステップの前に、選択された候補矩形を破棄するステップを更に含
むことを特徴とする請求項9に記載の画像内の略矩形のオブジェクトを検出する方法。 - 選択された候補矩形は、高位にランク付けされた候補矩形と閾値である量を上回ってオ
ーバーラップしている際に、破棄されることを特徴とする請求項10に記載の画像内の略
矩形のオブジェクトを検出する方法。 - 前記ランク付けするステップの前に、近接する候補矩形をマージするステップを更に含
むことを特徴とする請求項11に記載の画像内の略矩形のオブジェクトを検出する方法。 - 画像内のバックグラウンド色を推定する方法であって、
前記画像のそれぞれのスキャンラインを類似した色のラインセグメントにセグメント化
するステップと、
前記類似した色のラインセグメントを色によってグループ化するステップと、
前記グループの前記ラインセグメントに沿ったエッジピクセルに基づいて前記バックグ
ラウンド色を推定するステップと、を含むことを特徴とする画像内のバックグラウンド色
を推定する方法。 - 前記グループ化するステップにおいて、閾値である長さを上回る類似した色のラインセ
グメントのみをグループ化することを特徴とする請求項13に記載の画像内のバックグラ
ウンド色を推定する方法。 - 前記推定するステップは、エッジピクセルの数及び強度に基づいて実行されることを特
徴とする請求項14に記載の画像内のバックグラウンド色を推定する方法。 - 前記推定するステップは、
閾値であるラインセグメント数を具備した前記類似した色のラインセグメントのグルー
プを判定するステップと、
それぞれの前記類似した色のラインセグメントのグループの平均色を候補バックグラウ
ンド色として指定するステップと、
それぞれの候補バックグラウンド色ごとに、その候補バックグラウンド色を表す前記グ
ループの前記ラインセグメントに沿ってエッジピクセルを検出し、且つ、前記エッジピク
セルによって定義されたエッジの強度を算出するステップと、
エッジピクセルカウント及びエッジ強度に基づいて前記候補バックグラウンド色の中の
1つを前記バックグラウンド色として選択するステップと、を含むことを特徴とする請求
項15に記載の画像内のバックグラウンド色を推定する方法。 - 請求項1に記載の画像内の略矩形のオブジェクトを検出する方法を実行するプログラム
コードを有するコンピュータプログラムを含むことを特徴とするコンピュータ可読媒体。 - 請求項13に記載の画像内のバックグラウンド色を推定する方法を実行するプログラム
コードを有するコンピュータプログラムを含むことを特徴とするコンピュータ可読媒体。 - 画像内の略矩形のオブジェクトを検出する装置であって、
前記画像を保存するメモリと、
前記メモリと通信している処理構造であって、前記画像内の検出されたコーナーに基づ
いて前記画像を処理することにより、候補矩形を判定し、弁別ファクタの組に基づいて前
記候補矩形をランク付けすると共に、前記ランク付けされた候補矩形から前記画像内のオ
ブジェクトを判定する処理構造と、
を含むことを特徴とする画像内の略矩形のオブジェクトを検出する装置。 - 前記処理構造は、前記ランク付けするステップの前に、画像を更に処理することにより
、選択された候補矩形の破棄、近接する候補矩形のマージ、及び候補矩形の調節の中の少
なくとも1つを実行することを特徴とする請求項19に記載の画像内の略矩形のオブジェ
クトを検出する装置。 - 前記処理構造は、前記画像を処理することにより、選択された候補矩形を破棄し、近接
する候補矩形をマージすると共に、候補矩形を調節することを特徴とする請求項20に記
載の画像内の略矩形のオブジェクトを検出する装置。 - 画像内のバックグラウンド色を推定する装置であって、
前記画像を保存するメモリと、
前記メモリと通信している処理構造であって、前記画像を処理することにより、前記画
像のそれぞれのスキャンラインを類似した色のラインセグメントにセグメント化し、前記
類似した色のラインセグメントを色によってグループ化すると共に、前記グループの前記
ラインセグメントに沿ったエッジピクセルに基づいてバックグラウンド色を推定する処理
構造と、を含むことを特徴とする画像内のバックグラウンド色を推定する装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US88477607P | 2007-01-12 | 2007-01-12 | |
US11/936,865 US8098936B2 (en) | 2007-01-12 | 2007-11-08 | Method and apparatus for detecting objects in an image |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008171417A true JP2008171417A (ja) | 2008-07-24 |
Family
ID=39205003
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007331586A Withdrawn JP2008171417A (ja) | 2007-01-12 | 2007-12-25 | 画像内の略矩形のオブジェクトを検出する方法、画像内のバックグラウンド色を推定する方法、コンピュータ可読媒体、画像内の略矩形のオブジェクトを検出する装置、および画像内のバックグラウンド色を推定する装置 |
Country Status (3)
Country | Link |
---|---|
US (2) | US8098936B2 (ja) |
EP (1) | EP1944731A3 (ja) |
JP (1) | JP2008171417A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017194737A (ja) * | 2016-04-18 | 2017-10-26 | 富士通株式会社 | ベッド領域抽出プログラム、ベッド領域抽出方法、及びベッド領域抽出装置 |
JP2019050030A (ja) * | 2018-11-21 | 2019-03-28 | ウォンテッドリー株式会社 | 画像抽出装置、画像抽出装置の制御方法及びプログラム |
Families Citing this family (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4801551B2 (ja) * | 2006-09-27 | 2011-10-26 | 富士通株式会社 | 画像領域検出方法、該プログラム、及び該装置 |
US8098936B2 (en) * | 2007-01-12 | 2012-01-17 | Seiko Epson Corporation | Method and apparatus for detecting objects in an image |
DE112008003959T5 (de) * | 2008-07-31 | 2011-06-01 | Hewlett-Packard Development Co., L.P., Houston | Wahrnehmungssegmentierung von Bildern |
JP5188430B2 (ja) * | 2009-03-24 | 2013-04-24 | 富士重工業株式会社 | 画像処理装置 |
US9129340B1 (en) * | 2010-06-08 | 2015-09-08 | United Services Automobile Association (Usaa) | Apparatuses, methods and systems for remote deposit capture with enhanced image detection |
US8743139B2 (en) * | 2010-07-20 | 2014-06-03 | Apple Inc. | Automatically keying an image |
US8503813B2 (en) * | 2010-12-22 | 2013-08-06 | Arcsoft Hangzhou Co., Ltd. | Image rectification method |
US8379979B2 (en) * | 2011-02-25 | 2013-02-19 | Sony Corporation | System and method for effectively performing a scene rectification procedure |
CN102221996A (zh) * | 2011-05-20 | 2011-10-19 | 广州市久邦数码科技有限公司 | 一种动态壁纸与桌面组件进行交互的实现方法 |
US8577131B1 (en) * | 2011-07-12 | 2013-11-05 | Google Inc. | Systems and methods for visual object matching |
US8467606B2 (en) | 2011-08-25 | 2013-06-18 | Eastman Kodak Company | Method for segmenting a composite image |
JP5854774B2 (ja) * | 2011-11-11 | 2016-02-09 | 株式会社Pfu | 画像処理装置、直線検出方法及びコンピュータプログラム |
JP5822664B2 (ja) | 2011-11-11 | 2015-11-24 | 株式会社Pfu | 画像処理装置、直線検出方法及びコンピュータプログラム |
JP5871571B2 (ja) * | 2011-11-11 | 2016-03-01 | 株式会社Pfu | 画像処理装置、矩形検出方法及びコンピュータプログラム |
KR101347616B1 (ko) | 2011-12-28 | 2014-01-16 | 기초과학연구원 | 초해상도 영상복원 장치 및 방법 |
US9286668B1 (en) * | 2012-06-18 | 2016-03-15 | Amazon Technologies, Inc. | Generating a panel view for comics |
US9846707B2 (en) * | 2013-01-31 | 2017-12-19 | Bluebeam, Inc. | Method for color and size based pre-filtering for visual object searching of documents |
JP6099457B2 (ja) * | 2013-03-28 | 2017-03-22 | 株式会社Pfu | 画像処理装置、領域決定方法及びコンピュータプログラム |
US8837833B1 (en) | 2013-06-30 | 2014-09-16 | Google Inc. | Payment card OCR with relaxed alignment |
US9152858B2 (en) | 2013-06-30 | 2015-10-06 | Google Inc. | Extracting card data from multiple cards |
US20160253574A1 (en) | 2013-11-28 | 2016-09-01 | Pavel S. Smirnov | Technologies for determining local differentiating color for image feature detectors |
KR101794465B1 (ko) * | 2013-11-28 | 2017-11-06 | 인텔 코포레이션 | 이미지 특징 검출기들에 대한 국소 미분 컬러를 결정하기 위한 방법 |
US9349076B1 (en) | 2013-12-20 | 2016-05-24 | Amazon Technologies, Inc. | Template-based target object detection in an image |
JP5928748B2 (ja) * | 2014-07-31 | 2016-06-01 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 同一種類の複数の認識対象物体が検索対象画像中に存在する場合に、それぞれの認識対象物体の位置および向きを精度良く求める手法 |
WO2016018395A1 (en) | 2014-07-31 | 2016-02-04 | Hewlett-Packard Development Company, L.P. | Document region detection |
US10186029B2 (en) * | 2014-09-26 | 2019-01-22 | Wisconsin Alumni Research Foundation | Object characterization |
WO2016207875A1 (en) * | 2015-06-22 | 2016-12-29 | Photomyne Ltd. | System and method for detecting objects in an image |
CN106845508B (zh) * | 2015-12-07 | 2019-05-17 | 腾讯科技(深圳)有限公司 | 一种检测图像中信息卡的方法、装置和系统 |
US9799106B2 (en) | 2015-12-16 | 2017-10-24 | Dropbox, Inc. | Enhancing a digital image |
US9824267B2 (en) * | 2015-12-18 | 2017-11-21 | Konica Minolta Laboratory U.S.A., Inc. | Writing board detection and correction |
CN107133622B (zh) | 2016-02-29 | 2022-08-26 | 阿里巴巴集团控股有限公司 | 一种单词的分割方法和装置 |
CN107516095A (zh) * | 2016-06-16 | 2017-12-26 | 阿里巴巴集团控股有限公司 | 一种图像识别方法及装置 |
JP6887909B2 (ja) * | 2017-08-01 | 2021-06-16 | 株式会社東芝 | 画像処理装置 |
JP6887910B2 (ja) * | 2017-08-01 | 2021-06-16 | 株式会社東芝 | 画像処理装置 |
US10902277B2 (en) | 2018-09-10 | 2021-01-26 | Microsoft Technology Licensing, Llc | Multi-region detection for images |
US10331966B1 (en) * | 2018-10-19 | 2019-06-25 | Capital One Services, Llc | Image processing to detect a rectangular object |
KR102226843B1 (ko) * | 2019-02-26 | 2021-03-12 | 주식회사 핀그램 | 오브젝트 검출 시스템 및 그 방법 |
US10956791B2 (en) | 2019-07-19 | 2021-03-23 | LayerJot, Inc. | Interactive generation and publication of an augmented-reality application |
WO2021050054A1 (en) * | 2019-09-11 | 2021-03-18 | Hewlett-Packard Development Company, L.P. | Overlapped element identification within an image |
CN111768369B (zh) * | 2020-06-01 | 2023-08-25 | 湖南视比特机器人有限公司 | 钢板角点与边点定位方法和工件抓取方法及生产线 |
CN111767822B (zh) * | 2020-06-23 | 2023-04-25 | 浙江大华技术股份有限公司 | 垃圾检测方法以及相关设备、装置 |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4870500A (en) * | 1985-09-30 | 1989-09-26 | Canon Kabushiki Kaisha | Image signal processing apparatus |
JPS6482283A (en) * | 1987-09-25 | 1989-03-28 | Dainippon Screen Mfg | Image data converter having segment end point correcting function |
US5596655A (en) * | 1992-08-18 | 1997-01-21 | Hewlett-Packard Company | Method for finding and classifying scanned information |
DE69435133D1 (de) * | 1993-12-10 | 2008-10-09 | Ricoh Kk | Bildextrahierungsverfahren und Gerät, und Bilderkennungsverfahren und Gerät, zum Extrahieren und Erkennen eines bestimmten Bildes aus einem Bildeingabesignal |
EP0908848B1 (en) * | 1997-10-13 | 2006-07-19 | Matsushita Electric Industrial Co., Ltd. | A fuzzy inference method and machine |
US6335985B1 (en) * | 1998-01-07 | 2002-01-01 | Kabushiki Kaisha Toshiba | Object extraction apparatus |
JP3881439B2 (ja) * | 1998-01-23 | 2007-02-14 | シャープ株式会社 | 画像処理装置 |
JP3748164B2 (ja) * | 1998-02-06 | 2006-02-22 | 富士通株式会社 | パターン抽出装置 |
US6839466B2 (en) | 1999-10-04 | 2005-01-04 | Xerox Corporation | Detecting overlapping images in an automatic image segmentation device with the presence of severe bleeding |
JP3768052B2 (ja) * | 1999-12-14 | 2006-04-19 | 株式会社リコー | カラー画像処理方法、カラー画像処理装置、及びそのための記録媒体 |
US7738706B2 (en) * | 2000-09-22 | 2010-06-15 | Sri International | Method and apparatus for recognition of symbols in images of three-dimensional scenes |
US6778301B2 (en) * | 2000-12-06 | 2004-08-17 | Xerox Corporation | Fast preview of CCITT-compressed documents |
US6901167B2 (en) * | 2001-04-04 | 2005-05-31 | Microsoft Corporation | Detecting multiple objects in digital image data |
US7251056B2 (en) * | 2001-06-11 | 2007-07-31 | Ricoh Company, Ltd. | Image processing apparatus, image processing method and information recording medium |
US6898316B2 (en) * | 2001-11-09 | 2005-05-24 | Arcsoft, Inc. | Multiple image area detection in a digital image |
US7046840B2 (en) * | 2001-11-09 | 2006-05-16 | Arcsoft, Inc. | 3-D reconstruction engine |
JP3611321B2 (ja) * | 2002-02-20 | 2005-01-19 | インターナショナル・ビジネス・マシーンズ・コーポレーション | グラフィックス・イメージ生成方法、これを用いたプログラム及び統計データ描画装置 |
FR2841487B1 (fr) * | 2002-06-26 | 2004-08-20 | Solystic | Procede de detection de plis simples et de plis en prise multiple dans une installation de tri postal |
US7162084B2 (en) * | 2003-01-29 | 2007-01-09 | Microsoft Corporation | System and method for automatically detecting and extracting objects in digital image data |
US7272258B2 (en) * | 2003-01-29 | 2007-09-18 | Ricoh Co., Ltd. | Reformatting documents using document analysis information |
US7305129B2 (en) * | 2003-01-29 | 2007-12-04 | Microsoft Corporation | Methods and apparatus for populating electronic forms from scanned documents |
US7197186B2 (en) * | 2003-06-17 | 2007-03-27 | Mitsubishi Electric Research Laboratories, Inc. | Detecting arbitrarily oriented objects in images |
US7317829B2 (en) * | 2003-12-12 | 2008-01-08 | Microsoft Corporation | Background color estimation for scanned images |
JP4708712B2 (ja) * | 2004-02-04 | 2011-06-22 | キヤノン株式会社 | 画像処理装置及びその制御方法、プログラム |
US7840074B2 (en) * | 2004-02-17 | 2010-11-23 | Corel Corporation | Method and apparatus for selecting an object in an image |
US7623734B2 (en) * | 2004-09-30 | 2009-11-24 | Microsoft Corporation | Method and system for automatically inscribing noisy objects in scanned image data within a minimum area rectangle |
TWI309026B (en) * | 2005-04-12 | 2009-04-21 | Newsoft Technology Corp | Method for auto-cropping image objects and method for detecting image object contour |
JP2007157063A (ja) * | 2005-12-08 | 2007-06-21 | Sony Corp | 画像処理装置及び画像処理方法、並びにコンピュータ・プログラム |
US8098936B2 (en) * | 2007-01-12 | 2012-01-17 | Seiko Epson Corporation | Method and apparatus for detecting objects in an image |
-
2007
- 2007-11-08 US US11/936,865 patent/US8098936B2/en not_active Expired - Fee Related
- 2007-12-25 JP JP2007331586A patent/JP2008171417A/ja not_active Withdrawn
-
2008
- 2008-01-09 EP EP08000308A patent/EP1944731A3/en not_active Withdrawn
-
2011
- 2011-12-12 US US13/323,395 patent/US8433133B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017194737A (ja) * | 2016-04-18 | 2017-10-26 | 富士通株式会社 | ベッド領域抽出プログラム、ベッド領域抽出方法、及びベッド領域抽出装置 |
JP2019050030A (ja) * | 2018-11-21 | 2019-03-28 | ウォンテッドリー株式会社 | 画像抽出装置、画像抽出装置の制御方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US8433133B2 (en) | 2013-04-30 |
US20080170784A1 (en) | 2008-07-17 |
EP1944731A2 (en) | 2008-07-16 |
US20120087579A1 (en) | 2012-04-12 |
EP1944731A3 (en) | 2010-02-24 |
US8098936B2 (en) | 2012-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008171417A (ja) | 画像内の略矩形のオブジェクトを検出する方法、画像内のバックグラウンド色を推定する方法、コンピュータ可読媒体、画像内の略矩形のオブジェクトを検出する装置、および画像内のバックグラウンド色を推定する装置 | |
CN111814722B (zh) | 一种图像中的表格识别方法、装置、电子设备及存储介质 | |
EP2701098B1 (en) | Region refocusing for data-driven object localization | |
US9692937B1 (en) | Methods and apparatus for identifying lines in an image and using identified lines | |
CN108960229B (zh) | 一种面向多方向的文字检测方法和装置 | |
CN108596166A (zh) | 一种基于卷积神经网络分类的集装箱箱号识别方法 | |
US8811751B1 (en) | Method and system for correcting projective distortions with elimination steps on multiple levels | |
Alkoffash et al. | A survey of digital image processing techniques in character recognition | |
WO2014160433A2 (en) | Systems and methods for classifying objects in digital images captured using mobile devices | |
US10169673B2 (en) | Region-of-interest detection apparatus, region-of-interest detection method, and recording medium | |
CN111353961B (zh) | 一种文档曲面校正方法及装置 | |
US6532302B2 (en) | Multiple size reductions for image segmentation | |
CN109919149B (zh) | 基于物体检测模型的物体标注方法及相关设备 | |
CN108960221B (zh) | 基于图像的银行卡识别方法及装置 | |
CN111222507A (zh) | 数字式仪表读数的自动识别方法、计算机可读存储介质 | |
CN113723399A (zh) | 一种车牌图像矫正方法、车牌图像矫正装置和存储介质 | |
CN116342525A (zh) | 基于Lenet-5模型的SOP芯片引脚缺陷检测方法及系统 | |
JP2013037539A (ja) | 画像特徴量抽出装置およびそのプログラム | |
CN117218672A (zh) | 一种基于深度学习的病案文字识别方法及系统 | |
CN110276260B (zh) | 一种基于深度摄像头的商品检测方法 | |
CN116721294A (zh) | 一种基于层次细粒度分类的图像分类方法 | |
Krishna et al. | Digital image processing techniques in character recognition-a survey | |
Naz et al. | Challenges in baseline detection of cursive script languages | |
Vu et al. | Automatic extraction of text regions from document images by multilevel thresholding and k-means clustering | |
JP2004094427A (ja) | 帳票画像処理装置及び該装置を実現するためのプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20110301 |