JP2007531094A - カメラ写真から得られる画像から原データを抽出する方法 - Google Patents

カメラ写真から得られる画像から原データを抽出する方法 Download PDF

Info

Publication number
JP2007531094A
JP2007531094A JP2007504445A JP2007504445A JP2007531094A JP 2007531094 A JP2007531094 A JP 2007531094A JP 2007504445 A JP2007504445 A JP 2007504445A JP 2007504445 A JP2007504445 A JP 2007504445A JP 2007531094 A JP2007531094 A JP 2007531094A
Authority
JP
Japan
Prior art keywords
image
value
data
calculating
max
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007504445A
Other languages
English (en)
Inventor
マルタン ルフブール
アナ ブナビ
Original Assignee
リアルアイズスリーディー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from FR0402960A external-priority patent/FR2868184B1/fr
Application filed by リアルアイズスリーディー filed Critical リアルアイズスリーディー
Publication of JP2007531094A publication Critical patent/JP2007531094A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本進歩的方法は、写真画像から原データを抽出することを可能にする。それは、各々のピクセルに対して画像の色構成要素の組合せV0[C,L]を決定するステップと、各々のピクセルに対してV<SB>N+1</SB>[C,L]値を算出するステップと、前記算出から所定回数を繰り返すステップと、その後に各々のピクセルにおいて最終的なVNfinal[C,L]画像の値を考慮するステップと、各々のピクセルに対して差分D[C,L]=VNfinal[C,L]−V0[C,L]を算出するステップと、ノイズのコンテクストデータVSを算出するステップと、原データD[C,L]をコンテクストデータVSを用いて算出するステップと、D*[C,L]を考慮しつつ修正I*[C,L]データを算出するステップと、所望の角度で抽出されたデータを表すステップと、からなる。

Description

本発明は、カメラ写真から得られる画像から原データを抽出する方法に関する。
より詳しく述べると、光学カメラまたは映画撮影用カメラが通信装置に組み込まれているか否かに関わらずそれらによって任意の入射下で撮影されるデジタル画像から、所望の視野角に沿って画像から抽出されるデータを示す方法に関するが、これに限定されない。
本発明は特に、任意の入射下でカメラによって前もって見られるテキストデータ及びデジタル化された写真の伝送及び記憶に用いられ、次に、投影のゆがみを修正することによって及び/または任意で解像度を高めることにより処理されて、例えば、通常の入射下または任意の所定の入射下でも、カメラ写真の入射と異なる入射角で表示される、高い明瞭性を有する修正画像を得る。もちろん、本発明を用いて、有益な情報が、修正の前後に抽出されてもよい。
この種の処理は特に、例えば、携帯電話用無線送信器/受信器などの携帯用通信端末上に搭載されたカメラによって撮影されるテキスト情報及び/または写真情報を送信するのに最もよく適している。
もちろん、画像内の印刷された情報または手書きの情報に関係する原データを抽出し、データから修正されるべき区域を推測するために、出願FR2 840 093によって、出願人は、抽出された原データとして、異なる画像D(C,L)(実際は、背景の明るさレベルと抽出されるべきデータの明るさレベルとの対比)を算出することによって情報を抽出することから成る解決法をすでに提案した。閾値が、この異なる画像から抽出されるべき値を選択するために用いられる。従って、この閾値Vsは、格子状のライン(正方形のパターン)を除去するための勾配の閾値として選択されてもよい。しかしながら、この方法には、以下の欠点がある。
格子状のラインが原画像に存在しない場合、値Vsはノイズを除去するための閾値と一致する。この閾値は、満足な結果を提供しない従来のヒストグラム技術を用いて得るのは難しいということが分かる。
格子状のラインが存在する場合、パターンを見つけるための正しい閾値が決定されてもよい。しかし、この閾値が必ずしも情報を抽出するための閾値として用いられるとは限らない。実際、この閾値は必ずしも完全に格子状のラインまたはノイズのいずれかを除去しない。なんとなれば、非予測画像コントラストは、ランダムな照明状況のために、散乱性の彩度のようにかつ霧でおおわれた画像表面のように変化するからである。
カラー画像の場合、3つのチャネル(赤、緑、青)を考慮することが必要である。そして、1つのカラー画像がチャネル毎に1つの閾値を有するかまたは全てのチャネルに対して1つの閾値を有するかどうかははっきり見えない。
さらに、原文書を見るカメラによって得られる情報から再生されるテキストまたはグラフィックについて人が読み出したり判読するには、撮影が通常またはそれに近い入射下で行なわれて、(ほとんどの場合形状及び割合の観察を必要とする)テキストを構成している文字の認識及び図形の判読を可能にすると推測される。
実際に、文書が任意の入射下でもカメラで見られると、生成された画像には投影のゆがみがある。従って、カメラから特定の距離から始めると、文字を認識するために、従って文書を理解するために必要である、文字を認識し結果として文書を理解するために必要な詳細が見えなくなることが報告されている。
これらの欠点を排除するために、出願人は、カメラによって撮影される画像に存在する定義可能なコンテクストデータを抽出して、これらのコンテクストデータを用いてカメラによって供給される未加工の抽出されたデータを修正し、次に修正データがメモリに保存され、かつ/または受取人に送信されて被写体を読み込むために表示されることからなる解決法を提案した。
原データの修正を行うために用いられるコンテクストデータは、文書の中に初めに存在しているか、または前もって報告されたパターン(物理的か、プロットされているかまたは印刷された輪郭)、即ち、前もって知らされている特定のパラメータに影響を及ぼすかもしれない。
そのとき修正処理は、以下のステップを含んでいてもよい。即ち、
・カメラによって撮影される原の画像内でこのパターンを探索するステップと、
・原画像が含んでいて上述したパラメータの変化によって起こるパターンの変形から、原画像によって示される投影のゆがみを算出するステップと、
・原データになされるべき修正または投影のゆがみに従って抽出されたデータになされるべき修正を決定するステップと、
・前もって決定された修正を考慮に入れるとともに、修正データを含んでいる画像を生成するステップと、
である。
そのとき、パターン探索ステップは、
・ 画像に存在する境界を検出するステップと、
・ その長さが所定の値を超える境界を抽出するステップと、
・ (所定の値より大きい)充分な表層領域を用い、かつ、画像のエッジに触れないで、見出された境界によって区切られる区域を検出するステップと、
を含む第1の探索手順によって得られる。
見出された各々の領域について、この処理は、領域の主軸を決定しかつ主軸上で領域の外側にあるポイントを見出すための算出ステップと、外部ポイントから示される外部の円錐の作図ステップと、境界、それを接続して外部ポイントから始まるベクトルに対向している外部垂線の抽出ステップと、抽出されたポイントの主軸によって生じるラインの算出ステップと、4本のラインが見出される場合に4本のラインから得られる四辺形の4つの頂点の算出ステップと、及び次に、四辺形の表面領域が区域の表面領域の近くにある場合に、予め構築された割合を有する長方形へ四辺形を変形するホモグラフィの算出ステップと、を含む。
0014。この方法の欠点のうちの1つは、それが前もって設定される割合を含むという点にまさに存するということが分かる。もちろん、前もって設定されるこれらの割合が最初の割合でない場合、画像で実施されるホモグラフィの変換は、修正画像に含まれる被写体の割合の変化につながる。
さらに、これまでに用いられたホモグラフィの算出が特に複雑であるということが分かる。実際、最終画像の各々のピクセルに対して、最初の画像の区域が決定されることを必要とする。そして、その輝度値及びクロミナンス値が読み込まれて、このピクセルがホモグラフィの関係に従って有すべき場所に、最終画像における輝度値及びクロミナンス値を順に割り当てる。
現在、概して、画像の書込まれたテキストの一部がこの画像のピクセルの20%より多くを含まず、画像のピクセルの残り80%は重要性がない、ということが理解されている。
従って、本発明の目的は、特にこれらの課題を解決することである。
このために、まず第一に、それは抽出された原データを修正するために用いられるノイズコンテクストデータ、そして、特に、印刷または手書きの情報が、必要とされているパターンに関係なく、格子状のラインが存在するか否かを知っていることと関係なしに抽出されてもよい閾値Vsを正確に決定する方法を提供する。更に、この閾値は、パターンを探索するための勾配閾値として用いられて、ただ一つのパターン探索ステップに対する処理必要条件を減じてもよい。目的がカラー画像について情報を抽出することである場合、画像の各々の色構成要素は、色情報を抽出するために一意的な閾値を算出することが考慮されなければならない。
グレイレベルを有する画像が次に考慮される。それは、画像の3つのチャネル(赤‐緑‐青)の組合せまたはこれらのチャネルのうちの1つから成っていてもよい
より具体的には、本発明は、カメラ写真から得られる画像から原データを抽出する方法を提供する。その方法は以下のステップから成ることを特徴とする。即ち、
a)画像の第C列、第L行に位置する各々のポイントに対して、
α、β、γが、例えば以下の関係、即ち、
α+β+γ=1 かつ α,β,γ≧0
を満たす係数である式:
0[C,L]= αRed[C,L]+βGreen[C,L]+γBlue[C,L]
で表現される、画像の色の構成要素の組合せから成っている値V0[C,L]を決定するステップと、
b)画像の各々のポイントに対して、背景値VBack.(C,L)を算出するステップと、
c)画像の各々のポイントに対して、差分D[C,L]
D[C,L]=VBack.−V0[C,L](暗いデータ/明るい背景)
または、
0[C,L]=VBack.(明るいデータ/暗い背景)
を算出するステップと、
d)対比ヒストグラムからかつ/または原データD[C,L]の領域的最大がノイズを含むということの確率qから、原データを修正するために用いられるノイズコンテクストデータからなる閾値VSを算出するステップと、
e)抽出されたデータD*[C,L]をもたらしているノイズコンテクストデータVSを用いて原データD[C,L]を修正するステップと、
f)画像の各々のポイントに対して、修正された原データD*[C,L]を考慮に入れながら、修正済み値I*[C,L]を算出するステップと、
g)抽出されたデータまたは所望の角度で抽出されたデータを含んでい る画像を任意で示すステップと、
である。
有利な点は、
・背景値VBack.が、以下のステップから成る処理シーケンスによって決定されてもよい。即ち、
・ 画像の各々のポイントに対して、[C,L]に中心がある対称の構成項目にわたって、値VN[C,L]とVN値の差分平均との間の最大値(明るい背景についての暗いデータ)または最小値(暗い背景上の明るいデータ)である値VN+1[C,L]を算出するステップと、
・該算出を所定の回数(Nfinal)繰り返し、そのとき最終画像VN finalの値を背景画像VBack.の値として考慮するステップと、
・値VN+1[C,L]の算出が、
Figure 2007531094
という種類の関係によって得られてもよいステップと、である。
・背景画像VBack.も、以下のステップから成る処理シーケンスによって決定されてもよい。即ち、
・ポイント[2C+1/2,2L+1/2]を中心とする局部的平均VN(ここでは4つの隣接したピクセル)と多数のピクセルを含む少なくとも局部的な平均(ここでは16の隣接するピクセル)との間の最大(明るい背景上の暗いデータ)または最小(暗い背景上の明るいデータ)である値VN+1[C,L]の、画像の各々のポイントに対する算出を含んで、画像VNの1/4の大きさの画像VN+1を生成し、画像VN+1はそのとき画像VNの1/4であるステップと、
・該算出を所定回数VNFinal繰り返すステップと、
・画像VN finalの値を補間して最初の画像V0と同じ大きさを有する値VBack.を得るステップと、
である。
・値VN+1[C,L]は、
Figure 2007531094
を含む処理シーケンスによって決定されてもよい。
原データD[C,L]は、概して、支持媒体の前のカメラの任意の位置のために、投影のゆがみによって影響を受ける。抽出された原データの投影のゆがみは、幾何学的なコンテクストデータを抽出する公知の方法によって修正されてもよい。これらの抽出された原データも、以下のように閾値化する(thresholding)ことによって除去されてもよい輝度ノイズ及び/または電子ノイズによって影響を受ける。
画像の各々のポイントに対して、ノイズコンテクストデータVSを算出した後に、値D[C,L]と閾値VSとの比較がなされて、以下の方法で抽出されるべき値D*[ C,L ]を決定する。即ち、
D[C,L]<VSの場合、D*[ C,L ]=0
D[C,L]≧VSの場合、D[C,L]が保持される。即ち、D*[ C,L ]= D[C,L]またはそうでなければ、
D[C,L]−VS即ち、D*[C,L]=D[C,L]−VSに置換される。
減算の法則による抽出されたデータを含む画像I*(p)の生成は、例えば255に等しくてもよい明るい背景の値Imaxを有する算出I*(p)=Imax−f.D*(p)(暗いデータ/明るい背景)、またはIminが0に等しくてもよい算出I*(p)=Imin+f.D*(p)(明るいデータ/暗い背景)の結果生じる。
閾値VSは、原データD[C,L]を修正するために用いられるノイズコンテクストデータである。それは、原データの任意の領域的最大もノイズを含むということの確率qに基づく方法によって算出されてもよい。明るい背景上の暗い情報の場合、この方法は、以下の処理フェーズ(明るい背景上の暗い情報の探索についての特定の配置が括弧の間に示されている)を含む。
・グレイ画像I(色チャネルまたは輝度のいずれか)の各々のピクセルpに対して以下が実施される第1のフェーズと、
a)0<|d|<Dである各々の方向dに対して、以下の条件:
・[p−d,p+d]上のIの凸面、即ち、
任意の0≦λ≦1に対して、I(p+(1−2λ)d)≦λI(p−d)+(1−λ)I(p+d)
(暗いデータ/明るい背景)
または
・[p−d,p+d]上のIの凹面、即ち
任意の0≦λ≦1に対して、I(p+(1−2λ)d)≧λI(p−d)+(1−λ)I(p+d)(明るいデータ/暗い背景)
が満足される場合、
G(p,d)=(I(p+d)+I(p−d))/2が算出されるか、
さもなければ、G(p,d)=0
b)値S(p)が算出される。それは0<|d|<Dである全ての方向dに対して最大値G(p,d)に等しい。
S(p)についてのこの算出の変型として、S(p)が原データに一致するD(p)で置換されてもよい。
・すべてのピクセルpに対して、最大値S(p)に等しい値Smaxが算出される第2のフェーズと、
・ヒストグラムH(s)が、0とSmaxとの間のsの全ての値に対して0にリセットされす第3のフェーズと、
・排除されるべきノイズを含む領域最大ピクセルについての対比ヒストグラムの算出を行い、この算出が、
・画像S(p)における各々のピクセルpに対して、S(p)が領域最大である場合、H(S(p))はH(S(p))←H(S(p))+1に従って1増加されるステップと、
・識別S=Smax及びN=1/qが決定されて、H(s)がNより小さい限り、SはS−1で置換され、Sの最終値はSminと称され、Nが領域の最大ピクセルの最小数であってノイズを含むピクセル数の数学的な期待値が1以上であるステップと、
・値VSが、式:
1/2≦r≦1である、VS=r.Smin+(1−r).Smax
に従って算出されるステップと、
を含む第4のフェーズと、を含む。
閾値VSは、同様に以下の方法に従って算出されてもよい。
1)ピットのヒストグラムH_pitsを算出する、以下の処理フェーズを含む第1のステップ:
a)画像Iの各々のピクセルpに対して、以下が実施される。即ち、
i. 0<|d|<Dである各々の方向dに対して、
以下の条件:
・[p−d,p+d]上のIの凸面、即ち、
任意の0≦λ≦1に対して、I(p+(1−2λ)d)≦λI(p−d)+(1−λ)I(p+d)
(明るいデータ/暗い背景)
または
・[p−d,p+d]上のIの凹面、即ち
任意の0≦λ≦1に対して、I(p+(1−2λ)d)≧λI(p−d)+(1−λ)I(p+d)(明るいデータ/暗い背景)
が満足される場合に、
G(p,d)=(I(p+d)+I(p−d))/2が算出されるか、
さもなければ、G(p,d)=0
次に、G(p,d)=(I(p+d)+I(p−d))/2が算出されるか
さもなければG(p,d)=0
ii. S(p)=G(p,d)の最大値、が0<|d|<Dである全ての方向dに対して算出される。
S(p)についてのこの算出の代わりとして、S(p)が、原データに一致する値D(p)で置換されてもよい。
b)ピットの最大値、S_pits_maxが算出され、それはすべてのピクセルpに対して最大値S(p)に等しい。
c)ピットヒストグラム、H_pitsが、0とピットの最大値S_pits_maxとの間で各々のsの値に対してゼロにリセットされる。
d)画像S(p)の各々のピクセルpに対して、以下の算出が実施される。即ち、
i. S(p)が領域的最大である場合、H_pits(S(p))が以下の方法で1増加される。
H_pits(S(p))←H_pits(S(p))+1
2)以下の処理フェーズを含む、バンプのヒストグラムH_bampsを算出する第2のステップ:
a)画像Iの各々のピクセルpに対して、以下が実施される。即ち、
i. 0<|d|<Dである各々の方向dに対して、
以下の条件:
・[p−d,p+d]上のIの凸面、即ち、
任意の0≦λ≦1に対して、I(p+(1-2λ)d)≦λI(p−d)+(1−λ)I(p+d)
(明るいデータ/暗い背景)
または
・[p−d,p+d]上のIの凹面、即ち
任意の0≦λ≦1に対して、I(p+(1-2λ)d)≧λI(p−d)+(1−λ)I(p+d)(明るいデータ/暗い背景)
が満足される場合に、
G(p,d)=(I(p+d)+I(p−d))/2が算出されるか、
さもなければ、G(p,d)=0
ii.S(p)=G(p,d)の最大値、が0<|d|<Dである全ての方向dに対して算出される。
従来どおり、S(p)のこの算出の代わりとして、値S(p)が、原データに一致する値D(p)で置換されてもよい。
b)バンプの最大値、S_bumps_maxが算出され、それはすべてのピクセルpに対して最大値S(p)に等しい。
c)バンプヒストグラムH_bumps(s)が、0とバンプの最大値,S_bumps_maxとの間で各々のsに対してゼロにリセットされる。
d)画像S(p)の各々のピクセルpに対して、以下の算出が実施される。即ち、
i.S(p)が領域的最大である場合、H_bumps(S(p))が以下の方法で1増加される。
H_bumps(S(p))←H_bumps(S(p))+1
3)ピットヒストグラムH_pits及びバンプヒストグラムH_bumpsを重ね合わせる第3のステップは、以下のフェーズを含む。
a)S_maxは次式によって算出される。即ち、
S_max=Max(ピットの最大値であるS_pit_max,バンプの最大値であるS_bumps_max)
b)H_maxは次式によって算出される。即ち、
H_max=全てのSの値に対してピットH_pits(S)及びバンプH_bumps(S)のうちの最大値)
c)s0は次式に従って算出される。即ち、
s0=(H_pits(s)=H_max)または(H_bumps(s)=H_max)であるような最大値
d)s=s0+1が算出されて、
0<α<1/2であり、
|ln(1+H_pits(s)−ln(1+H_bumps(s))|<α.ln(1+H_max)である限り、
s←s+1(ここで、lnはネピアの対数関数である)が実行されるようにαが選択され、
最終的に、値Sminが1だけ増加されるsの最終値によって決定される。
4)関係:
1/2<r<1である、VS=r.Smin+(1−r).Smax
に従って抽出閾値VSを算出するステップ。
原データを抽出する方法であるステップb)が多数回繰り返され、S(p)の算出を介して先に説明した両方の方法を用いて算出される閾値は、抽出された原データが効果的に修正されることを可能にしない、ということがわかる。
この欠点は、S(p)をD(p)で置換することを含む置換を用いることによって抑制されてもよい。
よって、この場合は、原データの任意の領域的最大もノイズを含むという確率qがわかっている場合、ノイズコンテクストデータを抽出する処理は以下のステップを含んでもよい。即ち、
・値Smaxが算出され、値Smaxは、Dが修正されるべき原データの画像である、全てのピクセルp=[C,L]に対する最大値D(p)に等しい第1のステップと、
・0とSmaxとの間の全てのSの値に対して、ヒストグラムがH(S)=0にリセットされる第2のステップと、
・画像D(p)内の各々のピクセルpに対して、D(p)が領域的最大 である場合に、H(D(p))が関係:
H(D(p))←H(D(p))+1
に従って1増加される第3のステップと、
・恒等式S=Smax及びN=1/qが判定されて、H(S)がNより小である限り、SがS−1で置換され、Sの最終の値はSminと称される第4のステップと、
・ノイズコンテクストデータの値VSの値が、式:
1/2≦r≦1である、Vs=r.Smin+(1−r).Smax
に従って算出される第5のステップと、
を含む。
原データの任意の領域的最大もノイズを含むという確率qがわからない場合、ノイズコンテクストデータVSを抽出する処理は、以下のステップを含んでいてもよい。
1)ピットヒストグラムH_pitsを算出する第1のステップは、以下の処理フェーズを含む。即ち、
a)ピットの最大値S_pits_maxが算出され、それは全てのピクセルpに対してD(p)の最大値に等しい。Dは抽出された明るい背景上の暗い原データの画像である。
b)ピットヒストグラムH_pitsが0とピットの最大値S_pits_maxとの間のsの各々の値に対して0にリセットされる。
c)画像D(p)の各々のピクセルpに対して、
D(p)が領域的最大である場合に、
H_pits(D(p))は以下の方法で1増加される。即ち、
H_pits(D(p))←H_pits(D(p))+1
2)バンプヒストグラムH_bumpsを算出する第2のステップは、以下の処理フェーズを含む。
a)ピットの最大値S_bumpsmaxが算出され、それは全てのピクセルpに対して最大値D(p)に等しい。Dは暗い背景上の明るい原データの画像である。
b)ピットヒストグラムH_bumpsは、0とピットの最大値S_bumpsmaxとの間の各々のsの値に対して0にリセットされる。
c)画像D(p)の各々のピクセルに対して、
D(p)が領域的最大である場合に、
H_bumps(D(p))は以下の方法で1増加される。
H_bumps(D(p))←H_bumps(D(p))+1
3)ピットH_pitsヒストグラム及びバンプH_bumpsヒストグラムを多重する第3のステップは以下の処理ステップを含む。
a)式
max=Max(ピットの最大値S_pits_max,バンプの最大値S_bumps_max)に従ってS_maxを算出するステップと、
b)式
H_max=全ての値Sに対するピットH_pits(S)及びバンプH_bump(S)の最大値
を算出するステップと、
c)式
S0=(H_pits(s)=H_max)または(H_bumps(s)=H_max)であるようなsの最大値
を算出するステップと、
d)s=s0+1が算出され、0<α<1/2であり、
|ln(1+H_pits(s))−ln(1+H_bumps(s))|<α.ln(1+H_max)である限り
s←s+1が実施される(ここで、lnはネピアの対数関数である)ようにαが選択され、最終的に値Sminが1ずつ増加されるsの最終値によって決定される。
4)関係
1/2<r≦1である、Vs=r.Smin+(1−r).Smax
に従ってノイズコンテクストデータVSの値を算出するステップ。
もちろん、赤、緑、青のカラーチャネルを有するカラー画像からの情報が抽出されることを必要とする。先に述べた方法の各ステップは、続いて各々の色チャネルに対して各々のチャネルに対する閾値を決定する。赤、緑、青チャネルから色情報を抽出して最終的なカラー画像へそれらを組み替えることは、閾値が上回ったということがわかる各々のピクセルにおいて赤、緑、青の値を抽出することによって実施されてもよい。
さらに、パターン(物理的、プロットされた、または印刷された輪郭)を探索する方法の欠点を除去し、いくつかのコンテクストデータを表し、さらに前もって設定された割合を含むために、本発明は、プロットしたかまたは印刷したこと、コンテクスト若干のデータを表して、手回しがよく設定される規模を含んで、本発明は、画像のいくらかのコンテクストデータを決定するために用いられる輪郭の画像に存在するパターンの4つの識別されるポイントによって形成される四辺形の実際の高さ/幅の割合を決定して、同じ割合を有する文書を再構築することを可能にする、ということを提案する。
このために、任意の入射下でカメラによって撮影される画像から、所望の視野角で。上述したタイプの画像から抽出される情報を示す方法を出願人は提供する。この方法は以下のステップを含む。即ち、
・コンテクストデータを画定している、カメラで撮影される画像に存在するパターンのうちの少なくとも4つの認識可能なポイントを探索するステップと、
・予め定められた基準に従ってデータの任意の抽出を行うステップと、
・相対的な参照位置に関する4つの位置の相対的位置から、原画像、情報または抽出されたデータ上になされるべき幾何学的な変形を算出するステップと、
・原画像または幾何学的な変形に従う抽出されたデータになされるべき修正を決定するステップと、
・それによって決定された幾何学的な修正を考慮に入れて、抽出されたデータを含む画像を生成するステップと、
を含む。
この方法は、被写体と同じ割合を有する抽出されたデータを含む画像を得るために、それが、前もってあげたポイントによって画定される四辺形の実際の高さ/幅の割合を決定し、さらに修正画像を生成することにおいてこの割合rを考慮することを含むことを特徴とする。
より具体的には、四辺形(長方形)の割合の決定は、次のステップから成る処理によって実施される。
・画像に存在するパターンの4つの特定可能な特徴的ポイントを探索するステップと、
・4つのポイントによって画定される四辺形の辺から消失点を決定して、消失点に接続している水平線を決定するステップと、
・水平線上のカメラの光学的中心Oの投影ポイントFの座標を決定するステップと、
・消失点と投影ポイントFとの間の距離から、そして、この投影ポイントFと光学的中心Oとの間の距離から、カメラ基点(パターンの平面上でカメラの光学的中心の正投影)を算出するステップと、
・光学的中心、投影ポイントF及びカメラ基点との間の距離から焦点距離を算出するステップと、
・カメラ基点からの従来の(楕円系の)距離において、消失線上に位置するポイントO、O、P、Pと同様に、消失線とカメラ基点とに接続している線との間の交点M、N、M、Nの座標を算出するステップと、
・長方形O、O、P、Pがパターンの平面において伸びている正方形の投影であると考えることによって先に算出した座標から最初のパターンの辺の割合を算出するステップと、
を含む。
同じ一対の消失線だけが1つの消失点で交差し、他の消失線の両方が平行である(無限大に投影されている消失点)場合、割合rの算出は、カメラの予め予定された焦点距離fから始めることによって行われる。
全ての消失点が無限大に投影される場合、割合rは四辺形の隣接した辺の長さの割合に等しい。
この方法の重要な利点は、しばしば、四辺形が手でプロットされたパターンである場合に、四辺形の隣接した辺について直行性がないことに、あまり影響されないということにある。実際、従来の解決法は、この種の欠陥(直行性が欠如する場合の不安定性)に特に影響される。
この解決法の他の利点は、文字が整列していないテキストが再生されてもよいということにある。
特に不必要な算出を避けることによって、画像内の書かれたテキストに関連するピクセルにそれらをあてはめることだけによって、そして、すでに実施された可能な算出も再利用することによって、ホモグラフィの算出を軽減する目的で、出願人は以下のフェーズを含んでいる処理シーケンスを提案する。
・抽出されたデータを含んでいる最初の画像の有用な部分を分離して、同じバイナリの値(0または1)をこの有用な部分のピクセルに割り当てることによって、修正されるべき区域の最初の(変形された)バイナリマスクを生成するステップと、
・(任意の多角形形状も基準多角形形状へ変換することに基づく)最初のマスクの直接のホモグラフィの変換によって理想バイナリマスクを算出するステップと、
・理想バイナリマスクの有用な部分の各々のピクセル(u,v)に対し て、逆ホモグラフィによって最初の画像の(x,y)を算出し、最初の 画像の(x,y)における補間された値によってピクセル(u,v)に おける最終画像の値を決定するステップと、
を含む。
逆ホモグラフィの算出は、理想のマスクの各々のピクセルの行及び列の逆ホモグラフィによる事前の算出から成っていてもよいことが有利である。そのとき、両方の行の交点を算出することによって最初の画像の所定のピクセルの位置を推定することが可能である。
添付の図面を参照し、非制限的な実施例として、本発明の実施例についてこれから説明する。
発明を実施するための形態
図1に示した例では、カメラで撮影されることを目的とする原文書は、平らな支持媒体上に水平に配置される。
カメラは、所定の高さで、斜めである文書の方に向けられているカメラの軸(ここでは約30°の入射角)において、支持媒体、従って、文書の平面より上方に配置される。
カメラによって撮影される文書の画像は、光軸に対して垂直に延びる画像平面に位置する。
支持媒体の平面のカメラの光学的中心Cの正投影は、カメラの基準と称される。
支持媒体の平面に並行であるポイントCを通過する平面は、支持媒体の視水平線である。
文書DTの長方形のパターンは、画像において、四辺形A、B、C、D(図2)を設け、その切片
Figure 2007531094
及び
Figure 2007531094
がポイントF1で交わる2本の線(消失線)によって生じ、さらに切片
Figure 2007531094
Figure 2007531094
が、ポイントF2で交わる2本の線(消失線)によって生ずる。切片
Figure 2007531094
を生ずる線は、水平線である。
図2に示したように、
X:カメラの基準である(文書の平面において光学的中心の投影)。
1:線分(AD)と(F1X)との交点である。
1:線分(BC)と(F1X)との交点である。
2:線分(AB)と(F2X)との交点である。
2:線分(CD)と(F2X)との交点である。
σ:軸(F1,X)(F2,X)上のポイントXから測定される従来の距離を代表する正定数である。
i:入射角である。
E:(FX)に平行な長軸を備えた楕円である。その長軸は長さσ/cos(i)を有し、その短軸は長さσを有する。
O1及びP1:(F,X)と楕円Eとの交点である。
O2及びP2:(F,X)と楕円Eとの交点である。
O:画像の中心である。
F:線分(F,F)上のカメラの光学的中心Oの正射影である。
本発明の方法によれば、オリジナルパターンを形成する長方形の物理的アスペクト比r(r=水平長/垂直長)の算出が、以下の3つの処理シーケンスの1つによって実施される。
1)ポイントF及びFが存在する場合、線分AB、BC、CD、DAは並行でない。この場合、処理シーケンスは以下のフェーズを含む。
・水平線(F,F)上の画像Oの中心を投影することによってポイントFの座標を算出する第1のフェーズと、
・関係:
Figure 2007531094
を用いて、ポイントFへのその距離、dist(X,F)によってカメラ基点を算出する第2のフェーズと、
このことは、3つのステップで以下の証明の結果生じる。
a)カメラの基準と水平線との間の角度は90°であって、以下のように推論される。
Figure 2007531094
Figure 2007531094
b)FとFとの間の角度も90°であって、以下のように推論される。
Figure 2007531094
g=OF/cos(i)であり、jはF1とF2との間の角度であり、このことから以下が得られる。
Figure 2007531094
c)XFに対する最終の式は、a)iiの関係とb)iiの関係とを結合することによって得られる。
・関係:
Figure 2007531094
を用いて焦点距離を算出する第3のフェーズと、

Figure 2007531094
によって、表現される入射角iを算出する第4のフェーズと、
・先に算出された値からポイントM1、N1、O1及びP1の座標を決定する第5のフェーズと、
・先に算出された値からポイントM2、N2、O2及びP2の座標を決定する第6のフェーズと、
・交差された割合と、長方形O1、O2、P1、P2が関係:
Figure 2007531094
に従って基準の中心にあるパターンの平面で伸びている正方形の投影であるという事実と、を用いて物理的縦横比rを算出する第7のフェーズと、
である。
このことは、[O1,P1]及び[O2,P2]が同じ長さの2つの線分の投影であるという事実から得られる。[O1,P1]及び[O2,P2]は、線分として用いられてもよく、線分[M1,N1]及び[M2,N2]の相対的長さは交差された割合を用いて測定されてもよく、rはそれらから推定されてもよい。
2)線分のうちの2つが平行である場合((図3)(交点は、無限大に投影される))
この場合、割合rは、以下の関係によって得られる。即ち、
fが、(この焦点距離fが前もって算出されるという了解の下で)カメラの焦点距離である式:
Figure 2007531094
3)消失点がない場合(線分AB、BC、CD、DAが2つずつ平行である)
この場合割合rは、単に
Figure 2007531094
である。
これらの関係は、本質的に、射影幾何学の不変量、そして特に、4つのポイントの交差割合に基づく。その関係は、2つの異なる入射角を有する光学的中心O*を有するカメラによって撮影された同じ被写体の2つの見かけA****−A* 1* 1* 1* 1を示す図5に表される。
ポイントA*、B*、C*及びD*から、第1の交差割合の組:
Figure 2007531094
を得てもよい。
同様に、ポイントA* 1、B* 1、C* 1、D* 1から、第2の交差割合の組:
Figure 2007531094
を得る。
そのとき交差割合の保存が
Figure 2007531094
で表される。
例えばポイントAなどのポイントのうちの1つが無限大に投影される場合、割合A**/A**は1に等しいと考えられる。
前に述べたように、本発明は、画像がテキストを含む場合にこれまでに特に用いられた算出である、ホモグラフィの算出の複雑さを軽減することを可能にする画像の再形成の方法を提供する。
図6は、この再形成モードの様々なステップを示し、それは以下を含む。
a)フレーム(または頁)が検出されてテキスト(書かれた)部分が抽出される画像から変形されたバイナリマスクを算出する第1のステップ。このステップは、書かれた物に対応していないピクセル同様、画像の有用な部分を囲む四辺形の外側にある全てのピクセルにゼロ値を与えることからなる。
四辺形の内側または外側のあるポイントの位置は、図4に示した方法に従って決定されてもよい。
この図は、x,y座標参照平面において、この四辺形の内側の、座標xp,yp及びxo,yoの2つのポイントP及びGと同様に四辺形A‘,B’,C‘,D’を示す。ポイントGは、四辺形A‘,B’,C‘,D’の重心、またはより単純には、例えば線分B‘D’の中心など、その対角線の中心からなっていてもよい。
線分A’B’‐B’C’‐C’D’‐D’A’はそれぞれ、直線D1、D2、D3、D4によって生じる。
これらの直線の、そして、より一般的には、i=1,2,3,4である直線Diの式は、以下の種類である。即ち、
ai.x+bi.y+ci=0
ai、bi、ciは定数である。
従って、ポイントPは、四辺形の境界線に相対的にGと同じ側に常にある場合、またはその場合に限り、四辺形の内側にある(各々の限界線D1‐D4は平面を2つの部分へと分割している)。このことは結局以下のことになる。
ai.xp + bi.yp + ci及びai.xo+bi.yo+coは、集合{1,2,3,4}に属しているiに対して同じ符号を有する。このことは、以下の式で書かれる。
Figure 2007531094
b)直接のホモグラフィによって理想マスクを算出する第2のステップ。
ホモグラフィによってポイントの画像を算出するための原則を示す図7がここで参照される。この図で、先(の頁)で述べた方法を用いて決定された四辺形P1,P2,P3,P4及びこの四辺形の内側に位置する座標(u,v)が示されている。
ポイントOは、それが存在する場合、直線(P1,P2)と直線(P3、P4)との交点である。ポイントQは、直線(P1,P4)と直線(P2,P3)との交点である。ポイントIは線分
Figure 2007531094
Figure 2007531094
との交点であり、一方Jは線分
Figure 2007531094
Figure 2007531094
との交点である。
ホモグラフィは四辺形(ここでは、P1‐P4)を図8に見るような長方形H(P1)、H(P2)、H(P3)、H(P4)へ変形することを提供するということが公知である。
この図8では、座標H(I)、H(J)を有するポイント(x,y)も示され、長方形の長さDx及び幅Dyが示されている。
このとき、交差割合の保存は、以下を与える。
Figure 2007531094
Figure 2007531094
H(P)の座標は、以下から推定されてもよい。
Figure 2007531094
Figure 2007531094
直線の画像が単に元の直線の両方のポイントの画像を接続している線分から成るように、ホモグラフィによる直線の画像の算出は、明らかにこの算出の結果から生じる。
理想マスクの算出は、次の処理によって行なわれる。
(i,j)を、それを囲むその4つのサブピクセルを有する変形されたバイナリマスクでの文書と一致するピクセルとする(図9)。
Figure 2007531094
A、B、C及びDが直接のホモグラフィによってこれらのサブピクセルの画像であると仮定する(図10)。よって、A、B、C、Dは、四辺形である。この四辺形が含む最も小さい長方形を考慮する。この長方形に含まれる全てのピクセルは、例1に対して「真」の値に設定される。
理想バイナリマスクが、このことから得られてもよい。そのとき、メカニズムは、u、vがピクセルである(u±1/2,v±1/2)の形の座標を有するポイントの画像を算出するために構築されるべきである。
このため、座標面(u±1/2,v±1/2)のポイントPが考慮される。このポイントは、座標u±1/2の垂直線及び座標v±1/2の水平線である、2本の中間線の交点によって決定される。そのとき、ポイントPの画像はホモグラフィによって得られる水平線及び垂直線の画像の交点にある。
従って、これらの中間行(そして、中間列)の画像は、前もって算出される。これらの画像が前もって算出されるとすぐに、サブピクセルの画像が中間行の2つの前もって算出された画像の交点によって得られる。
c)第3の逆ホモグラフィステップ。
最終的な画像を算出するために、バイナリマスクの各々のピクセルに、強度値が割り当てられなければならない。そして、それは最初の画像においてこのピクセルの位置を見出すことによって算出される。このため、逆ホモグラフィの算出が実施される必要がある。
このように、図7及び8のコードを繰り返すことによって、(x,y)は理想マスクのピクセルであるとみなされる。このピクセルは、行yと列xとの交点にある。変形された画像のこのピクセルの位置は、そのとき逆のホモグラフィによって行及び列の画像の交点を得ることによって得られる。
それから、直線(QJ)及び直線(OI)のパラメータがそれらの交点Pを算出するために見出されなければならない。ポイントI及びJの位置が次に算出されるべきである。この結果は、例えば、距離JP3及びIP1を見出すことによって容易に得られる。
これは、交差割合の以下の式を用いることによって可能である。
Figure 2007531094
次に、ポイントPの位置を算出することが可能になる。
実際には、画像は、理想マスクの行及び列の逆ホモグラフィによって前もって算出される。次に、所定のピクセルの位置は、2本の直線(この例では、(OI)及び(QJ)付きの2本の直線)の交点を算出することによって原画像において推定される。
もちろん、本発明はこの単一の方法に限定されない。
d)最終画像を生成する第4のステップ
(u,v)を理想マスクのピクセルとする。変形された最初の画像のその位置は、行v及び列uの前もって算出された逆画像の交点によって算出される。見出されたポイントは、そのとき(x,y)と称される。強度値はそのとき、最初の画像のポイント(x,y)において補間されるピクセル(u,v)に割り当てられるべきである。この処理を行うために、例えば2本の線の補間が用いられる。
図11に示されるように、ポイント(x,y)を囲むピクセルが考慮される場合、補間された強度は,式:
I(x,y)=(y−j)[(i+1−x)I(i,j+1)+(x−i)I(i+1,j+1)]+(j+1−y)[(i+1−x)I(I,j)+(I+1,j)]
によって与えられる。
最終画像のピクセル(u,v)はそのとき、グレイレベルが最終画像において定量化されるという理解で強度I(x,y)を有する。
ノイズからの修正された抽出データを含む画像が、減算の法則に従って算出されてもよい。
輝度は基本色(赤、緑、青)の強度の組合せに等しい。例えば、L=0,5G+0,3R+0,2B、である。
よって、本発明による方法によれば、ピクセルの各々に対して、輝度を抽出するステップと、原データD*(p)を抽出するステップと、ノイズコンテクストデータVSを算出するステップと、ノイズコンテクストデータを用いてノイズ修正された原データD*(p)を抽出するステップと、次に以下の算出:
Figure 2007531094
によって修正される輝度画像を生成するステップと、が続く。
カラー画像の場合、減算の法則が、フィルタを用いてのように、決定されたクロミナンスのコントラストを背景色から取り除くことによって用いられて、最終画像に対する求められている色を得てもよい。
例えば、ノイズコンテクストデータVSが輝度画像に基づいて抽出されてもよい。次に修正された原データが、チャネルDR、DG、DBの原データを算出し、観察されたクロミナンスRGBと背景のクロミナンスRGB(VR Back.,VG Back.,VB Back.)との間のコントラスト及び閾値をVSを用いて表し、さらに、修正されたクロミナンス画像を最終的に生成することによって、色チャネルのノイズ(D* R,D* G,D* B)から抽出されてもよい。
Figure 2007531094
例として、ピクセルにおいて、支持媒体の白色領域に対応する背景の推定クロミナンスは、(VR Back.,VG Back.,VB Back.)=(160,140,110)であり、このピクセルはクロミナンス(VR 0,VG 0,VB 0)=(120,115,105)を有する青色書き込み領域を示す、と仮定する。光学的ノイズの修正された白色/青色コントラストが(D* R,D* G,D* B)=(160−120,140−115,110−105)=(40,25,5)と仮定する。支持媒体の白色領域を示す最終画像のピクセルのクロミナンスを(RB,GB,BB)=(255,255,255)に設定する。そのとき、最終画像のこのピクセルの修正されたクロミナンスが、白のクロミナンスから、f要因によって先に重みをかけられた対比を減算することによって決定され、このピクセルの最終画像の修正されたクロミナンス(R*,G*,B*)は、f=1の場合に、
(R*,G*,B*)=(RB−D* R,GB−D* G,BB−D* B)=(255-40,255-25,255−5)=(215,230,250)
になる。
先にあげたf要因を用いて、例えばテストパターン上に表示される、参照色を用いて得られた色を整列させることが有利であるだろう。
もちろん、本発明は、前に述べた実施例に限定されない。
よって、手書きのまたは印刷された情報が(原データD(p)の領域的最大がノイズによって生成される確率qを前もって知ることに基づいて)異なる画像D(p)の各々のピクセルから抽出されてもよい、閾値VSを決定するための通常の処理が、以下の2つの欠点を有するということが明らかにわかる。
・第一に、確率qは、それらの画像からの情報の抽出を行うために各々のカメラモジュールに対して実験的に知られていなければならない。これは、未知のカメラ・モジュールによって補足される画像に由来するなんらかの抽出された情報が、信頼できる情報(例えば、受取人にファックスによってそれを転送するために、サーバーで受信される画像からの情報の抽出)とみなされることを防ぐ。
・次に、情報が明るい背景上の暗い情報かまたはその逆であるかどうかについて、前もって知ることが義務付けられている。
従って、本発明は、前に述べた2つの欠点が避けられるこの方法の向上を提供する。この向上は、特に、印刷または手書きの情報がそこで異なる画像D(p)(D[C,L]に類似している)から抽出されてもよい閾値VSの正確な判断、及び、情報が、明るい背景上の暗部またはその逆の暗い背景上の輝部であるか否かの判断を提供する。
画像の3つのカラーチャネル(赤、青、緑)の組合せまたはこれらの3つのチャネルのうちの1つのいずれかであってもよいグレイレベル画像I(p)を考慮することによって、本発明による方法は、図12を参照して、次のステップを含む。
1)ピットヒストグラムH_pitsを算出する第1のステップは、以下の処理フェーズを含む。即ち、
a)画像Iの各々のピクセルpに対して、以下が実施される。
i.0<|d|<Dである各々の方向dに対して
条件:
・[p−d,p+d]上のIの凸性、即ち、
任意の0≦λ≦に対して、I(p+(1−2λ)d)≦λI(p−d)+(1−λ)I(p+d)(暗いデータ/明るい背景)
または
・[p−d,p+d]上のIの凹性、即ち、
任意の0≦λ≦に対して、I(p+(1−2λ)d)≧λI(p−d)+(1−λ)I(p+d)(明るいデータ/暗い背景)
が満足される場合、
G(p,d)=(I(p+d)+I(p−d))/2が算出されるか
またはそうでなければG(p,d)=0
ii. S(p)=G(p,d)の最大値が、0<|d|<Dであるすべての方向に対して算出される。
b)ピットの最大値S_pits_maxが算出される。それは全てのピクセルpに対する最大値S(p)に等しい。
c)ピットヒストグラムH_pitsは、0とピットの最大値S_pi ts_maxとの間の各々の値sに対して0にリセットされる。
d)画像S(p)の各々のピクセルpに対して、以下の算出が実施される。
i.S(p)が領域的最大である場合、
H_pit(S(p))が次の方法で1増加される。
H_pit(S(p))←H_pit(S(p))+1
2)バンプヒストグラムH_bumpsを算出する第2のステップは、以下の処理フェーズを含む。
a)画像Iの各々のピクセルpに対して、以下が行われる。
i.0<|d|<Dである各々の方向dに対して、
以下の条件:
・[p−d,p+d]上のIの凸性、即ち、
任意の0≦λ≦に対して、I(p+(1−2λ)d)≦λI(p−d)+(1−λ)I(p+d)(暗いデータ/明るい背景)
または、
・[p−d,p+d]上のIの凹性、即ち、
任意の0≦λ≦に対して、I(p+(1−2λ)d)≧λI(p−d)+(1−λ)I(p+d)(暗いデータ/明るい背景)
そのとき、G(p,d)=(I(p+d)+I(p−d))/2が算出されるか、
またはそうでなければ、G(p,d)=0
ii. S(p)=G(p,d)の最大値が、0<|d|<Dであるすべての方向に対して算出される。
b)バンプの最大値S_bumps_maxが算出される。それは全てのピクセルpに対する最大値S(p)に等しい。
c) バンプヒストグラムH_bumps(s)は、0とバンプの最大値S_bumps_maxとの間の各々の値sに対して0にリセットされる。
d)画像S(p)の各々のピクセルpに対して、以下の算出が実施される。
i.S(p)が領域的最大である場合、
H_bumps(S(p))が次の方法で1増加される。
H_bumps(S(p))←H_bumps(S(p))+1
3)ピットH_pitsヒストグラムとバンプH_bumpsヒストグラムとを多重する第3のステップは、以下の処理ステップを含む。
a)式:
max=Max(ピットの最大値S_pits(s)及びバンプの最大値S_bumps_max)
に従ってS_maxを算出するステップと、
b)式:
H_max=全てのSの値に対して、ピットH_pits(S)とバンプH_bumps(S)との最大値
に従ってH_maxを算出するステップと、
c)式:
s0=H_pits(s)=H_maxまたはH_bumps(s)=H_maxであるような最大値
に従ってs0を算出するステップと、
d)s=s0+1が算出され、0<α<1/2であり、
|ln(1+H_pits(s))−ln(1+H_bumps(s))|<α.ln(1+H_max)である限り、
s=s+1が実施される(lnがネピアの対数関数である)ようにαが選択され、
最終的に、値Sminは1増加されるsの最終値によって決定される。
4)関係:
1/2<r≦1であるV=r.Smin+(1−r).Smax
に従って抽出された閾値VSの値を算出するステップ。
5)H_pitsとH_bumpsとを比較するステップは、β>0についての以下の処理フェーズを含む。
a)関係:
s=Sminからs=S_pits_maxに対して、N_pits=H_pits(s)βの合計
から値N_pitsを算出するフェーズ。
b)関係:
s=Sminからs=S_bumps_maxに対して、N_bumps=H_bumps(s)βの合計
から値N_bumpsを算出するフェーズ。
c)N_pitsがN_bumpsより小である場合、明るい背景の暗い情報が抽出されるか、または暗い背景の明るい情報が抽出されるべきであるフェーズ。
6)輝度情報L(p)を抽出するステップは以下の処理フェーズを含む。
a)公知の方法に従ってDを算出するフェーズ。
b)異なる画像D(p)の各々のピクセルpに対して、
D(p)>Vである場合、D(p)が関連があるとみなされて抽出される。
i.情報が暗い背景上の明るい情報である場合、
maxは255に等しくてもよい、値L(p)=Imax−f.D(p)を算出し、
ii.さもなければ、Iminが0に等しくてもよい、値L(p)=Imin+f.D(p)を算出する。
D(p)が関係があるとみなされない場合、
i.情報が明るい背景の暗い情報である場合、L(p)の値はImaxに等しい(明るい背景)
ii.さもなければ、L(p)の値はIminに等しい(暗い背景)、
といったフェーズ。
例えば、満足な結果は、以下のパラメータによって得られてもよい。
D=3
α=20%
r= 抽出に対して85%
f=5
本発明はまた、所定の物理的な縦横比r=CD/AD、画像内の投影された長方形の所定のポイント(例えばポイントD)、及び所定の焦点距離(f)、iが入射角であってαがカメラの軸の周りの回転角であってi≠0である場合の傾斜角(π/2)−i、既存の消失点(例えばF1)の1つへの相対的な所定のスキュー角(β)を有するカメラを用いて公知の投影された距離(例えばCD)を備えた長方形(A,B,C,D)の画像のシミュレーションに関係する。これらの異なるパラメータは、その光軸及び、この焦点に結合されるox,oy,oz座標参照システムを備えた焦点を有するカメラを概略的に示す図13に示されている。
この問題の解決法は、図2及び図3、さらに図14を参照する3つの以下のステップを含む。即ち、
・生成されなければならない新しい画像において、3つの未知のポイントA、B及びC(事前に説明されているポイントD)の位置を算出する第1のステップ。該ポイントはこの新しい画像上に投影されなければならないパターンの物理的アスペクト比r及びシミュレートされなければならないカメラの位置(焦点距離、傾斜角、回転角、スキュー角)と一致しなければならない。
・ホモグラフィを算出し、シミュレーションされた画像の算出パターン上に原画像のパターンに含まれる情報を投影する第2のステップ。
・ホモグラフィの関係を有する原画像から算出した輪郭内で新しい画像の輝度及びクロミナンスを決定する第3のステップ。
パターンの3つの未知のポイントの算出は、3つの以下のケースを考慮する。
i≠0(少なくとも1つの消失点がある)場合、算出は4つの以下の処理フェーズを含む。
1.OX=f.tan(i)
2. OF=f/tan(i)
3. ポイントX及びFは画像Oの中心を通って交差し、垂直に相対的に角度αを形成する直線上に配置される。
4. ポイントF1は、
FF1=ftan(β)/sin(i)
であるように配置される。
a)β≠0(2つの消失点)である場合、
i)ポイントF2は、FF2=(OF.XF)/FF1であるように配置される。
ii)ポイントM1、C、N1、O1、P1、O2、P2及びN2は、ポイントX、F1、F2(β≠0でない場合)及び距離DCから推定される。
iii)ポイントM2は、関係:
Figure 2007531094
を得るように配置される。
b)β≠0(1つだけの消失点F1=F)(図3)の場合、
i)ポイントAが
Figure 2007531094
であるように直線(DF)上に配置される。
ii)ポイントBは、BF=CF.(AF/DF)であるように直線(FC)上に配置される。
c)i=0(消失点がない)(図14)の場合、
1)ポイントCはポイントD、距離DC及び回転角αを用いて配置される。
2)ポイントBは、(A,B,C,D)が長方形であるように配置される。
カメラによる文書の撮影の概略図であり、本発明による方法で用いられる主なパラメータがこの図を用いて示される。 文書の画像の平面図において図1に示した図の投影図である。 図2の種類の投影図であるが、2つの消失点のうちの1つが無限大に投影されている。 四辺形の内部の特徴に関する図である。 投影の幾何学的図形の不変量を示す。 修正画像を得るための本発明による画像処理過程に対する処理ステップの概略図である。 図6に示された処理によって実施される算出を示す図である。 図6に示された処理によって実施される算出を示す図である。 図6に示された処理によって実施される算出を示す図である。 図6に示された処理によって実施される算出を示す図である。 図6に示された処理によって実施される算出を示す図である。 対数関数的座標参照システムにおける1対のヒストグラムH_pits及びH_bumpsの例を示す。 カメラの主な幾何学的図形のパラメータを示す概略図である。 消失点がない場合の、定められた物理的な縦横比を有する矩形のパターンを構築するための原則を示す図である。

Claims (41)

  1. カメラショットから得られる画像から原データを抽出する方法であって、
    ・画像の第C列及び第L行で示される各々のポイントに対して、前記画像の色構成要素の組み合わせからなる値V0[C,L]を決定するステップと、
    ・前記画像の各々のポイントに対して、閾値VBack.(C,L)を算出するステップと、
    ・前記画像の各々のポイントに対して、差分D[C,L]
    D[C,L]=VBack.−V0[C,L](暗いデータ/明るい背景)
    または
    0[C,L]−VBack.(明るいデータ/暗い背景)
    を算出するステップと、
    ・前記抽出された原データD[C,L]を修正するために用いられるノイズコンテクストデータからなる閾値VSを、少なくとも1つの対比ヒストグラムからかつ/または前記原データの領域最大がノイズを含む確率qから算出するステップと、
    ・前記原データD[D,L]を前記ノイズコンテクストデータVSを用いて修正し、抽出されたデータD*[C,L]を生じさせるステップと、
    ・前記画像の各々のポイントに対して、前記修正された原データD*[C,L]を考慮に入れて修正済み値I*[C,L]を算出するステップと、
    ・前記抽出されたデータまたは所望の角度下で前記抽出されたデータを含む前記画像を任意で示すステップと、
    を含む方法
  2. 前記背景値VBack.が以下のステップ、即ち、
    ・前記画像の各々のポイントに対して、値VN[C,L]と[C,L]を中心とする対称構造項目上の値VNの異なる平均との間の最大値(明るい背景上の暗いデータ)または最小値(暗い背景上の明るいデータ)である値VN+1[C,L]を算出するステップと、
    ・前記算出を予め定められた回数(N_final)繰り返し、次に最終画像VN_finalの値を背景画像の値VBack.として考慮するステップと、
    を含む処理シーケンスによって決定されることを特徴とする請求項1記載の方法。
  3. 前記値VN+1[C,L]の算出が、
    Figure 2007531094
    の型の関係によって行なわれることを特徴とする請求項2記載の方法。
  4. 前記背景画像VBack.が、以下のステップ、即ち、
    ・ポイント[2C+1/2,2L+1/2]を中心とする局部的平均VNと少なくともより多数のピクセルを含む局部的平均との間の最大(暗い背景の明るいデータ)または最小(暗い背景の明るいデータ)である値VN+1[C,L]の、前記画像の各々のポイントに対する算出を含む、VNの1/4の画像VN+1を生成し、画像VN+1は画像VNの1/4倍であるステップと、
    ・前記算出を予め定められた回数N_final繰り返すステップと、
    ・前記画像VN_finalの値を補間して、前記最初の画像V0と同じ大きさを有する画像の値VBack.を得るステップと、
    を含む処理シーケンスによって決定されることを特徴とする請求項1記載の方法。
  5. 前記値VN+1[C,L]が、
    Figure 2007531094
    を含む処理シーケンスによって決定されることを特徴とする請求項4記載の方法。
  6. 前記原データD[C,L]に存在する発光及び/または電子ノイズを除去するフェーズを含み、このノイズ除去フェーズは、前記ノイズコンテクストデータVSを算出するフェーズと、前記画像の各々のポイントに対して前記値D[C,L]を前記閾値VSと比較して以下の方法、即ち、
    D[C,L]<VSである場合、D*{C,L}=0
    D[C,L]≧VSである場合、値D[C,L]が保持される、即ち,D*[C,L]=D[C,L]
    または
    D「C、L」−VSで置換される、即ちD*[C,L]=D[C,L]−VS
    で抽出されるべき値D*[C,L]を決定するフェーズとから成り、
    画像I*(p)の生成は、
    255に等しくてもよいImax(前記明るい背景の値)を有する、I*(p)=Imax−f.D*(p)(暗いデータ/明るい背景)
    または
    0に等しくてもよいIminを有する、I*(p)=Imin+f.D*(p)(明るいデータ/暗い背景)
    を算出する結果生じる、減算の法則に従って抽出されたデータを含む、
    請求項1記載の方法。
  7. 前記VSの算出は、以下の処理フェーズ、即ち、
    ・抽出されるべき原データD(p)を算出するフェーズと、
    ・D(p)から値Smaxを算出するフェーズと、
    ・D(p)を用いる対比ヒストグラムを算出し、前記ヒストグラム及び確率qから前記値VSを推定するフェーズと、
    を含むことを特徴とする請求項1記載の方法。
  8. D(p)が概算S(p)で置換されることを特徴とする請求項7記載の方法。
  9. 前記S(p)の算出が、以下の処理フェーズ、即ち、
    0<|d|<Dである各々の方向dに対して、
    以下の条件、即ち、
    ・[p−d,p+d]上のIの凸性、即ち、
    明るい背景上の暗いデータの場合に、任意の0≦λ≦1に対しても
    I(p+(1−2λ)d)≦λI(p−d)+(1−λ)I(p+d)
    または、
    ・[p−d,p+d]上の凹性、即ち、
    暗い背景上の明るいデータの場合に、任意の0≦λ≦に対して、
    I(p+(1−2λ)d)≧λI(p−d)+(1−λ)I(p+d)
    が満足される場合に、
    G(p,d)=(I(p+d)+I(p−d))/2が算出されるか、
    またはそうでなければG(p,d)=0であるフェーズと、
    ・0<|d|Dである全ての方向dに対して、G(p,d)の最大値に等しい値S(p)が算出されるフェーズと、
    を含むことを特徴とする請求項8記載の方法。
  10. 前記対比ヒストグラム及び値VSの前記算出が、
    ・D(p)が領域的最大である場合に、前記画像D(p)の各々のピクセルpに対して、H(D(p))が、関係:
    H(D(p))←H(D(p))+1
    に従って1増加される第1のステップと、
    ・前記識別S=Smax及びN=1/qが決定され、H(S)がNより小である限り、SがS−1で置換され、Sの最終値がSminと称され、Nが領域最大ピクセルの最小数であって、ノイズを含むピクセル数の数学的期待値が1以上である第2のステップと、
    ・値VSが式:
    1/2≦r≦1であるVS=r.Smin+(1−r).Smax
    によって算出される第3のステップと、
    を含むことを特徴とする請求項7記載の方法。
  11. Sの前記算出が、以下の処理フェーズ、即ち、
    ・抽出されるべき原データDpits(p)(暗いデータ/明るい背景)及びDbumps(p)(明るいデータ/暗い背景)を算出するフェーズと、
    ・値Spits_max(Dpits(p)のピットの最大値)及び値Sbumps_max(Dbumps(p)のバンプの最小値)を算出するフェーズと、
    ・Dpits(p)及びDbumps(p)から対比ヒストグラムH_pits及びH_bumpsを算出するフェーズと、
    ・Hpitsヒストグラム及びHbumpsヒストグラムからVSの値を推定するフェーズと、
    を含むことを特徴とする請求項1記載の方法。
  12. Dpits(p)及びDbumps(p)がSpits(p)及びSb umps(p)で置換されることを特徴とする請求項11記載の方法。
  13. Spits(p)及びSbumps(p)の値が、以下の処理シーケンス、即ち、
    Spits(p)の値の決定;
    画像Iの各々のピクセルpに対して、
    0<|d|<Dである各々の方向dに対して
    条件:
    ・[p−d,p+d]上のIの凸性、即ち、
    任意の0≦λ≦1に対して、I(p+(1−2λ)d)≦λI(p−d)+(1−λ)I(p+d)(明るい背景上の暗いデータ)
    が満足される場合に、
    G(p,d)=(I(p+d)+I(p−d))/2が算出されるか
    またはそうでなければ、G(p,d)=0
    が算出され、
    Spits(p)=G(p,d)の最大値、が0<|d|<Dである全ての方向dに対して算出される。
    Sbumps(p)の値の決定;
    画像Iの各々のピクセルpに対して、
    条件:
    [p−d,p+d]上のIの凹性、即ち、
    任意の0≦λ≦1に対して、I(p+(1−2λ)d)≧λI(p−d)+(1−λ)I(p+d)
    (暗いデータ/明るい背景)
    が満足される場合に、
    G(p,d)=(I(p+d)+I(p−d))/2が算出されるか、
    またはそうでなければ、G(p,d)=0
    が算出され、
    Sbumps(p)=G(p,d)の最大値が,0<|d|<Dである全ての方向dに対して算出される、
    といった処理シーケンスに従って決定されることを特徴とする請求項1記載の方法。
  14. Hpitsヒストグラム及びHbumpsヒストグラムの算出、並びにVSの算出が、以下のフェーズ、即ち、
    Hpits(p)の値の決定;
    ピットヒストグラムH_pitsが、0とピットの最大値S_pit_maxとの間の各々の値に対して0にリセットされ、
    画像D(p)の各々のピクセルpに対して、以下の算出、即ち、
    i.D(p)が領域的最大である場合、
    H_pits(D(p))が以下の方法、即ち、
    H_pits(D(p))←H_pits(D(p)+1
    で1増加される、
    が実施されるフェーズと、
    Hbumps(p)の値の決定;
    バンプヒストグラムH_bumpsが、0とバンプの最大値S_bumps_maxとの間の各々の値に対して0にリセットされ、
    画像D(p)の各々のピクセルpに対して、以下の算出、即ち、
    D(p)が領域的最大である場合、
    H_bumps(D(p))が以下の方法、即ち、
    H_bumps(D(p))←H_bumps(D(p))+1
    で1増加される、
    が実施されるフェーズと、
    算出VSが以下のステップ、即ち、
    ・S_maxが式:
    S_max=Max(S_pits_maxの最大値、バンプS_bumps_maxの最大値)
    に従って算出されるフェーズと、
    ・H_maxが式:
    H_max=全てのSの値に対して、ピットH_pits(S)とバンプH_bumps_maxとの最大値)
    に従って算出されるフェーズと、
    ・s0が、式:
    H_pits(s)=H_max
    または、H_bumps(s)=H_max
    であるようなs0=Sの最大値
    に従って算出され、
    ・αが0<α<1/2であり、
    |ln(1+H_pits(s)−ln(1+H_bumps))|<α.ln(1+H_max)
    である限り、
    s←s+1が実施され(lnがネピアの対数関数である)、
    最終的に、値Sminが1増加されたsの最終の値によって決定されるように、
    s=s0+1が算出されてαが選択される、
    といったフェーズを含む、
    ピットH_pitsヒストグラムとバンプH_bumpsヒストグラムとを多重するステップと、
    ・関係:
    1/2<r≦1である、VS=r.Smin+(1−r).Smax
    に従って、前記抽出閾値VSを算出するステップと、
    を含む、
    フェーズを含むことを特徴とする請求項11記載の方法。
  15. 画像から抽出されたデータまたは画像から抽出されたデータを含む画像の抽出されたデータが、任意の入射下でカメラによって撮影される画像から、所望の視野角に従って示される場合に、
    ・コンテクストデータを画定するカメラによって撮影された前記画像に存在するパターンの少なくとも4つの識別可能な特徴的なポイントを検索し、これらの特徴的なポイントは前記画像の角からなっていてもよいステップと、
    ・予め定められた基準に従って任意にデータを抽出するステップと、
    ・相対的な参照位置に関して、前記4つのポイントの相対的な位置から、前記原画像にまたは抽出されたデータにまたはそれらを含んでいる画像になされるべき幾何学的な変形を算出するステップと、
    ・前記幾何学的な変形に従って、前記原画像にまたは前記抽出されたデータにまたはそれらを含んでいる前記画像になされるべき修正を決定するステップと、
    ・このことにより決定された修正を考慮して修正画像を生成するステップと、
    を含む請求項1記載の方法。
  16. 被写体と同じ割合を有する修正画像を得るために、前記方法が前記ポイントによって画定された四辺形の実際の高さ/幅の割合の決定をするステップと、前記修正画像の生成においてこの割合rを考慮するステップとを含む、請求項15記載の方法。
  17. 前記四辺形は長方形の投影であり、前記長方形の割合の決定が、以下のステップ、即ち、
    ・前記パターンの輪郭から消失点を決定し、前記消失点に接続している水平線を決定するステップと、
    ・前記水平線上のカメラの光学的中心Oの投影ポイントFの座標を決定するステップと、
    ・前記消失点と前記投影ポイントFとの間の距離から、そして、この投影ポイントFと前記光学的中心Oとの間の距離から、カメラ基点(前記パターンの平面上の前記カメラの光学的中心の正投影)を算出するステップと、
    ・前記光学的中心、前記投影ポイントF及び前記カメラ基点の間の距離から焦点距離を算出するステップと、
    ・前記カメラ基点からの従来の距離において、前記消失線と、前記カメラ基点及び前記消失線上に位置するポイントO1、O2、P1、P2だけでなく消失点も接続する前記行との間の交点の座標を算出するステップと、
    ・前記長方形O1、O2、P1、P2が前記パターンの平面において伸びている正方形の投影であると考えることによって前もって算出される座標から最初のパターンの寸法の割合を算出するステップと、
    を含む処理に従って実施される請求項16記載の方法。
  18. 両方の消失点が存在する場合に、以下のステップ、即ち、
    ・前記水平線(F,F)上の前記画像Oの中心を投影することによって前記ポイントFの座標を算出するステップと、
    ・関係:
    Figure 2007531094
    を用いて、ポイントFまでの距離dist(X,F)によってカメラ基点を算出するステップと、
    ・関係:
    Figure 2007531094
    を用いて焦点距離を算出するステップと、
    ・前もって算出された値からポイントM、N、O、Pの座標を決定するステップと、
    ・先に算出された値からポイントM、N、O及びPの座標を決定するステップと、
    ・関係:
    Figure 2007531094
    に従って、交差割合と、長方形O、O、P、Pが前記関係に従って前記パターンの平面において伸びている正方形の投影であるという事実と、を用いて物理的アスペクト比rを算出するステップと、
    を含む請求項17記載の方法。
  19. 消失線のうちの一組だけが消失点において交差し、一方他の2本の消失線が平行である(無限大に投影された消失点)場合に、割合rの算出は前記カメラの予め設定された焦点距離fから行われることを特徴とする請求項16記載の方法。
  20. 前記割合rは、以下の関係、即ち、
    fがカメラの焦点距離(焦点距離fが前もって算出されているという理解の下に)である式:
    Figure 2007531094
    によって得られることを特徴とする請求項19記載の方法。
  21. 消失点がない場合、前記割合rが、割合:
    Figure 2007531094
    に等しいことを特徴とする請求項16記載の方法。
  22. 修正画像の生成は、以下のフェーズ、即ち、
    ・前記抽出されたデータを含む前記最初の画像の前記有用な部分を分離することによって、さらに 、同じバイナリ値(0または1)をこの有用な部分の前記ピクセルに割り当てることによって、修正されるべき前記領域の最初の(変形された)バイナリマスクを生成するフェーズと、
    ・(参照多角形形状へのあらゆる多角形形状の変形に基づく)前記最初のマスクの直接のホモグラフィの変形によって、理想バイナリマスクを算出するステップと、
    ・前記理想バイナリマスクの各々のピクセル(u,v)に対して、逆のホモグラフィによって、前記最初の画像における位置(x,y)を算出し、最初の画像において補間された(x、y)によってピクセル(u,v)において前記最初の画像の値を決定するフェーズと、
    を含む処理シーケンスを含むことを特徴とする請求項15記載の方法。
  23. バイナリマスクを生成する前記ステップが、任意に抽出されたデータと一致しないピクセルだけでなく前記画像の前記有用な部分を囲んでいる四辺形の外側にある全てのピクセルにゼロ値を割り当てるステップを含むことを特徴とする請求項22記載の方法。
  24. 前記ピクセルが、前記四辺形の限界に対して相対的に前記四辺形内部のポイントGと同じ側に常にある場合に、前記ピクセルが四辺形の範囲内にあるとみなされ、前記ポイントGは重力の中心または対角線の交点から成っていてもよいことを特徴とする請求項23記載の方法。
  25. 中間行及び中間列の画像を前もって算出して、前記中間行及び前記中間列の前もって算出された画像の交差によってサブピクセルの画像を得るステップを含む請求項1記載の方法。
  26. 前記最終的な画像の算出において、前記理想バイナリマスクの各々のピクセルに、最初の画像または前記抽出されたデータの画像においてこのピクセルの位置を見つけることによって算出される強度値が割り当てられることを特徴とする請求項22記載の方法。
  27. 前記最終的な画像を算出するフェーズにおいて、前記画像は前記理想マスクの行及び列の逆ホモグラフィによって前もって算出され、前記最初の画像の所定のピクセルの位置はそのとき2本の直線の交点を算出することによって推定されることを特徴とする請求項22乃至26記載の方法。
  28. 前記最終的な画像を生成するステップが、行v及び列uの前もって算出された逆の画像の交点、前記最初の画像のx、yポイントを画定する交点、によって、前記理想マスクのピクセルu、vの変形された画像における前記位置の前記算出を含み、さらに強度値が、前記最初の画像、または輝度画像からまたは各々のカラーチャネルから抽出されたデータの画像のx、yポイントにおいて補間されるピクセル(u,v)に割り当てられる、ということを特徴とする請求項15記載の方法。
  29. 前記補間が2本の線であることを特徴とする請求項28記載の方法。
  30. 減算の法則に従って行われる前記最終画像のピクセルの色を決定するステップを含むことを特徴とする請求項1記載の方法。
  31. 閾値VSを決定し、前記カメラによって抽出される画像に含まれる手書きまたは印刷された情報の減算の法則による抽出のために抽出されるべき値を選択するステップを含む先行する請求項に記載の方法。
  32. 前記閾値VSが、格子状ラインを除去するための勾配の閾値及び/またはノイズ除去閾値と一致することを特徴とする請求項31記載の方法。
  33. カラー画像からの情報の抽出が、赤、緑、青の色チャネルを用いて実施され、データを抽出する前記ステップに、各々の色チャネルに対する閾値の決定するステップと、前記RGBチャネルからの色情報を抽出するステップと、さらに前記閾値が上回ったということがわかる各々のピクセルにおいて赤、緑、青の値を抽出することによってなされる最終カラー画像への前記RGBチャネルの組換えのステップと、が続くことを特長とする、請求項1記載の方法。
  34. 前記ピクセルの各々に対して、輝度を抽出するステップと、前記原データD(p)を抽出するステップと、前記ノイズコンテクストデータVSを算出するステップと、前記ノイズコンテクストデータを用いて前記ノイズ修正された原データD*(p)を抽出するステップと、次に、以下の算出、即ち、
    Figure 2007531094
    によって修正される輝度画像を生成するステップと、が続くことを特徴とする請求項33記載の方法。
  35. 前記最終的な画像に対する前記色が、以下の2つのステップ、即ち、
    前記背景色が推定されるかまたは任意で設定されるステップと、次に決定されたクロミナンス対比がフィルタなどを用いて前記背景色から除去されるステップと、
    を含む減算の法則に従って得られることを特徴とする請求項33記載の方法。
  36. 前記ノイズコンテクストデータVSの抽出を行うステップと、次に、データで閾値化することによって、さらに関係:
    Figure 2007531094
    を用いて前記修正されたクロミナンス画像を生成することによって、前記観察されたクロミナンスRGBと前記背景のクロミナンス(VR Back,VG Back.,VB Back.)との間のコントラストを表すチャネルDR、DG、DBの前記原データを算出することにより前記色チャネルの前記ノイズ修正された原データ(D* R,D* G,D* B)の抽出を行うステップと、を含むことを特徴とする請求項35記載の方法。
  37. 前記原画像において、支持媒体の白色領域を表しているピクセルのクロミナンスが、(VR Back.,VG Back.,VB Back.)=(160,140,110)であり、かつ/または前記支持媒体の青色書込領域を表しているピクセルのクロミナンスが、クロミナンス(V0R,V0V,V0B)=(120,115,105)を有し、そして、前記光学的ノイズの修正された白/青色コントラストが、(D* R,D* G,D* B)=(160−120,140−115,110−105=(40,25,5)であり、さらに、前記支持媒体の前記白色領域を表している前記最終的な画像の前記ピクセルの前記クロミナンスが、(RB,GB,BB)=(255、255、255)に設定され、前記最終的な画像の前記支持媒体の青色書込領域が表している前記ピクセルの前記クロミナンスが、そのとき白のクロミナンスからのf要因によって先に重みを置かれた前記コントラストを減ずることによって決定され、このピクセルにおける前記最終画像の前記修正されたクロミナンス(R*,G*,B*)が、f=1の場合に、
    (R*,G*,B*)=(RB−D* R,GB−D* G,BB−D* B)=(255−40、255−25、255−5)=(215、230、250)
    になることを特徴とする請求項36記載の方法。
  38. グレイレベル画像I(p)が前記画像の前記3つの色チャネル(赤、青、緑)の組合せまたは、これらのチャネルのうちの1つのいずれかであってもよいという事実を考慮するとともに、以下のステップ、即ち、
    ・ピットのヒストグラムH_pitsを算出する第1のステップと、
    ・バンプのヒストグラムH_bumpsを算出する第2のステップと、
    ・前記ピットのヒストグラム及び前記バンプのヒストグラムを重ねる第3のステップと、
    ・前記H_pitsヒストグラムと前記H_bumpsヒストグラムとを比較するステップと、
    ・抽出閾値VSを算出するステップと、
    ・閾値VSによって前記原データを抽出するステップと、
    ・輝度情報L(p)を抽出するステップと、
    を含み、
    前記H_pitsヒストグラムと前記H_bumpsヒストグラムとを比較する前記ステップは、β>0に対して、以下の処理フェーズ、即ち、
    a)関係:
    s=Sminからs=S_pits_maxに対して、N_pits=H_pits(s)βの合計
    から値N_pitsを算出するフェーズと、
    b)関係:
    s=Sminからs=S_bumps_maxに対して、N_bumps=H_bumps(s)βの合計
    から値N_bumpsを算出するフェーズと、
    c)N_pitsがN_bumpsより小なる場合に、明るい背景上の暗い情報が抽出されなければならないか、または暗い背景上の明るい情報が抽出されなければならないフェーズと、
    を含むことを特徴とする請求項33記載の方法。
  39. 前記抽出閾値の前記算出が、関係:
    1/2≦r≦1である、VS=r.Smin+(1−r).Smax
    従って実施されることを特徴とする請求項38記載の方法。
  40. 輝度情報L(p)を抽出するステップは、以下の処理フェーズ、即ち、
    ・前記情報が、明るい背景上の暗い情報である場合に、Iから差分画像Dを算出するかまたはそうでなければ、Imax−IからDを算出するフェーズと、
    ・前記差分画像D(p)の各々のピクセルpに対して、D(p)<VSであって、D(p)が関連があるとみなされて抽出される場合に、
    前記情報が明るい背景上の黒い情報である場合に、
    maxが255に等しくてもよい、値L(p)=Imax−f.D(p)、またはそうでなければ、Iminが0に等しくてもよい、値L(p)=Imin+f.D(p)が算出されるフェーズと、
    ・D(p)が関連があるとみなされない場合に、
    前記情報が明るい背景上の暗い情報である場合に、
    値L(p)がImax(明るい背景)に等しく、このときImaxが255に等しくてもよく、
    またはそうでなければ、値L(p)がImin(暗い背景)に等しく、このときIminが0に等しくてもよいフェーズと、
    を含むことを特徴とする請求項38記載の方法。
  41. 前もって定められた物理的な縦横比r=CD/AB、前記画像内の前もって定められ投影ポイントD、及び公知の投影距離(CD)を有する、頂点(A,B,C,D)を備えた長方形の被写体に含まれるデータから、予め定められた焦点距離(f)、iが入射角である傾斜角((π/2)−i)、前記カメラの軸の周りの回転角α、及びi≠0である場合に、前記既存の消失点F1の1つに相対的に予め定められたスキュー角(β)を有するカメラを用いて、投影される画像のシミュレーションを含む方法が、
    以下のステップ、即ち、
    ・常に前記物理的アスペクト比rを用いて前記3つの未知のポイント(A,B,C)の位置を算出する第1のステップと、
    ・ホモグラフィの関係を算出して、前記シミュレートされた画像上へ前記元の長方形の被写体に含まれる前記情報を投影する第2のステップと、
    ・先に決定されたホモグラフィの関係を用いて前記シミュレートされた画像の輝度及びクロミナンスを決定する第3のステップと、
    を含む、請求項1記載の方法。
JP2007504445A 2004-03-23 2005-03-17 カメラ写真から得られる画像から原データを抽出する方法 Pending JP2007531094A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR0402960A FR2868184B1 (fr) 2004-03-23 2004-03-23 Procede pour la presentation d'une image selon un angle de vue souhaite, a partir d'une image prise sous incidence quelconque
FR0413047A FR2868185B1 (fr) 2004-03-23 2004-12-07 Procede d'extraction de donnees brutes d'une image resultant d'une prise de vue
PCT/FR2005/000678 WO2005098750A1 (fr) 2004-03-23 2005-03-17 Procede d'extraction de donnees brutes d'une image resultant d'une prise de vue

Publications (1)

Publication Number Publication Date
JP2007531094A true JP2007531094A (ja) 2007-11-01

Family

ID=34967748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007504445A Pending JP2007531094A (ja) 2004-03-23 2005-03-17 カメラ写真から得られる画像から原データを抽出する方法

Country Status (6)

Country Link
US (2) US7606439B2 (ja)
EP (1) EP1730692A1 (ja)
JP (1) JP2007531094A (ja)
KR (1) KR20070008652A (ja)
FR (1) FR2868185B1 (ja)
WO (1) WO2005098750A1 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060164682A1 (en) * 2005-01-25 2006-07-27 Dspv, Ltd. System and method of improving the legibility and applicability of document pictures using form based image enhancement
US9769354B2 (en) 2005-03-24 2017-09-19 Kofax, Inc. Systems and methods of processing scanned data
US20090021533A1 (en) * 2007-07-17 2009-01-22 Michael Guerzhoy Method For Extracting An Inexact Rectangular Region Into An Axis-Aligned Rectangle Image
US8139894B2 (en) 2007-12-20 2012-03-20 Intel Corporation Automatic dominant orientation estimation in text images based on steerable filters
US20090214134A1 (en) * 2008-02-27 2009-08-27 Motorola, Inc. System and method for image data extraction and assembly in digital cameras
TWI354198B (en) * 2008-04-18 2011-12-11 Primax Electronics Ltd Notebook computer and method of capturing document
US8125544B2 (en) * 2008-09-02 2012-02-28 Casio Computer Co., Ltd. Image processing apparatus for extracting quadrangle area in image
KR101035744B1 (ko) * 2008-12-08 2011-05-20 삼성전자주식회사 카메라를 이용한 문자 인식 장치 및 방법
US9576272B2 (en) 2009-02-10 2017-02-21 Kofax, Inc. Systems, methods and computer program products for determining document validity
US8958605B2 (en) 2009-02-10 2015-02-17 Kofax, Inc. Systems, methods and computer program products for determining document validity
US9767354B2 (en) 2009-02-10 2017-09-19 Kofax, Inc. Global geographic information retrieval, validation, and normalization
JP4856263B2 (ja) * 2009-08-07 2012-01-18 シャープ株式会社 撮像画像処理システム、画像出力方法、プログラムおよび記録媒体
CN102054271B (zh) * 2009-11-02 2013-11-20 富士通株式会社 文本行检测方法和装置
SG10201507715WA (en) * 2010-09-20 2015-10-29 Fraunhofer Ges Forschung Method for differentiating between background and foreground of scenery and also method for replacing a background in images of a scenery
JP5488548B2 (ja) * 2011-08-04 2014-05-14 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
US9165187B2 (en) 2012-01-12 2015-10-20 Kofax, Inc. Systems and methods for mobile image capture and processing
US10146795B2 (en) 2012-01-12 2018-12-04 Kofax, Inc. Systems and methods for mobile image capture and processing
US9058515B1 (en) 2012-01-12 2015-06-16 Kofax, Inc. Systems and methods for identification document processing and business workflow integration
US11321772B2 (en) 2012-01-12 2022-05-03 Kofax, Inc. Systems and methods for identification document processing and business workflow integration
CN102663685B (zh) * 2012-03-19 2014-08-13 宁波大学 一种基于非线性的几何校正方法
US10127636B2 (en) 2013-09-27 2018-11-13 Kofax, Inc. Content-based detection and three dimensional geometric reconstruction of objects in image and video data
US9208536B2 (en) * 2013-09-27 2015-12-08 Kofax, Inc. Systems and methods for three dimensional geometric reconstruction of captured image data
US10783615B2 (en) * 2013-03-13 2020-09-22 Kofax, Inc. Content-based object detection, 3D reconstruction, and data extraction from digital images
CN105283884A (zh) 2013-03-13 2016-01-27 柯法克斯公司 对移动设备捕获的数字图像中的对象进行分类
US9355312B2 (en) 2013-03-13 2016-05-31 Kofax, Inc. Systems and methods for classifying objects in digital images captured using mobile devices
US20140316841A1 (en) 2013-04-23 2014-10-23 Kofax, Inc. Location-based workflows and services
EP2992481A4 (en) 2013-05-03 2017-02-22 Kofax, Inc. Systems and methods for detecting and classifying objects in video captured using mobile devices
WO2015073920A1 (en) 2013-11-15 2015-05-21 Kofax, Inc. Systems and methods for generating composite images of long documents using mobile video data
US9760788B2 (en) 2014-10-30 2017-09-12 Kofax, Inc. Mobile document detection and orientation based on reference object characteristics
US10242285B2 (en) 2015-07-20 2019-03-26 Kofax, Inc. Iterative recognition-guided thresholding and data extraction
US10467465B2 (en) 2015-07-20 2019-11-05 Kofax, Inc. Range and/or polarity-based thresholding for improved data extraction
US9779296B1 (en) 2016-04-01 2017-10-03 Kofax, Inc. Content-based detection and three dimensional geometric reconstruction of objects in image and video data
US11062176B2 (en) 2017-11-30 2021-07-13 Kofax, Inc. Object detection and image cropping using a multi-detector approach
CN111965630B (zh) * 2020-08-17 2024-05-28 南京先能光电科技有限公司 一种空间定位系统
CN113470117B (zh) * 2021-06-28 2022-12-27 上海交通大学 基于圆球逆透视投影的单位姿三维结构光标定系统及方法
CN114037637B (zh) * 2022-01-10 2022-04-19 苏州浪潮智能科技有限公司 一种图像数据增强方法、装置、计算机设备和存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06215293A (ja) * 1993-01-19 1994-08-05 Hitachi Ltd 車番認識装置
JPH10210360A (ja) * 1997-01-27 1998-08-07 Minolta Co Ltd デジタルカメラ
JPH10257323A (ja) * 1997-03-14 1998-09-25 Minolta Co Ltd 画像読取り装置
JP2001005852A (ja) * 1999-06-23 2001-01-12 Canon Inc 有限要素モデル処理装置及び方法
JP2001177716A (ja) * 1999-12-17 2001-06-29 Ricoh Co Ltd 画像処理方法と画像処理装置
JP2002057879A (ja) * 2000-08-10 2002-02-22 Ricoh Co Ltd 画像処理装置と画像処理方法及びコンピュータ読み取り可能な記録媒体
JP2003331263A (ja) * 2002-05-13 2003-11-21 Nippon Telegr & Teleph Corp <Ntt> カメラ画像−実空間座標対応付けマップ生成方法、カメラ画像−実空間座標対応付けマップ生成装置、プログラムおよび記録媒体
WO2003100713A2 (fr) * 2002-05-27 2003-12-04 Real Eyes 3D Procede pour la transmission d'une information a l'aide d'une camera

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2546017B1 (fr) * 1983-05-11 1986-01-17 Thomson Csf Procede pour realiser une transformation geometrique sur une image video, et dispositifs mettant en oeuvre ce procede
EP1274252A3 (en) * 1995-08-29 2005-10-05 Sharp Kabushiki Kaisha Video coding device and video decoding device with a motion compensated interframe prediction
DE59708043D1 (de) 1996-06-17 2002-10-02 Siemens Ag Kommunikationssystem und Verfahren zur Aufnahme und Verwaltung digitaler Bilder
US6199073B1 (en) 1997-04-21 2001-03-06 Ricoh Company, Ltd. Automatic archiving of documents during their transfer between a peripheral device and a processing device
JP3935276B2 (ja) * 1998-10-21 2007-06-20 キヤノン株式会社 ネットワークデバイス管理方法、装置、記憶媒体、及び送出装置
DE69835358T2 (de) * 1998-11-06 2007-07-19 Datalogic S.P.A., Lippo Di Calderara Di Reno Verfahren zur Korrektur der Verzerrung beim Abtasten eines optischen Codes
WO2000031966A1 (en) 1998-11-23 2000-06-02 Ni4U Corporation System and method for taking, selecting and processing electronic pictures
US6963358B2 (en) * 2000-11-10 2005-11-08 Dropfire, Inc. Wireless digital camera adapter and systems and methods related thereto and for use with such an adapter
FR2818480A1 (fr) 2000-12-04 2002-06-21 Marc Jacky Labarthe Camescope numerique bas cout
US6999111B2 (en) * 2001-06-26 2006-02-14 Eastman Kodak Company Electronic camera and system for transmitting digital over a communication network
WO2003024090A1 (en) * 2001-09-07 2003-03-20 Koninklijke Philips Electronics N.V. Image device having camera and image perspective correction and possibly rotation and staggering correction
US7127271B1 (en) * 2001-10-18 2006-10-24 Iwao Fujisaki Communication device
JP2004040395A (ja) * 2002-07-02 2004-02-05 Fujitsu Ltd 画像歪み補正装置、方法及びプログラム
US7596286B2 (en) * 2003-08-06 2009-09-29 Sony Corporation Image processing apparatus, image processing system, imaging apparatus and image processing method
CN101015199B (zh) * 2004-07-07 2011-10-19 日本电气株式会社 宽视野图像输入方法和装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06215293A (ja) * 1993-01-19 1994-08-05 Hitachi Ltd 車番認識装置
JPH10210360A (ja) * 1997-01-27 1998-08-07 Minolta Co Ltd デジタルカメラ
JPH10257323A (ja) * 1997-03-14 1998-09-25 Minolta Co Ltd 画像読取り装置
JP2001005852A (ja) * 1999-06-23 2001-01-12 Canon Inc 有限要素モデル処理装置及び方法
JP2001177716A (ja) * 1999-12-17 2001-06-29 Ricoh Co Ltd 画像処理方法と画像処理装置
JP2002057879A (ja) * 2000-08-10 2002-02-22 Ricoh Co Ltd 画像処理装置と画像処理方法及びコンピュータ読み取り可能な記録媒体
JP2003331263A (ja) * 2002-05-13 2003-11-21 Nippon Telegr & Teleph Corp <Ntt> カメラ画像−実空間座標対応付けマップ生成方法、カメラ画像−実空間座標対応付けマップ生成装置、プログラムおよび記録媒体
WO2003100713A2 (fr) * 2002-05-27 2003-12-04 Real Eyes 3D Procede pour la transmission d'une information a l'aide d'une camera

Also Published As

Publication number Publication date
KR20070008652A (ko) 2007-01-17
US20050212925A1 (en) 2005-09-29
US7606439B2 (en) 2009-10-20
EP1730692A1 (fr) 2006-12-13
US20100033603A1 (en) 2010-02-11
FR2868185A1 (fr) 2005-09-30
WO2005098750A8 (fr) 2006-12-21
FR2868185B1 (fr) 2006-06-30
WO2005098750A1 (fr) 2005-10-20

Similar Documents

Publication Publication Date Title
JP2007531094A (ja) カメラ写真から得られる画像から原データを抽出する方法
CN105809667B (zh) 扩充实境中基于深度摄影机的遮蔽效果优化方法
KR101036787B1 (ko) 움직임 벡터 연산 방법과 이 방법을 이용한 손 떨림 보정장치, 촬상 장치, 및 동영상 생성 장치
JP6467787B2 (ja) 画像処理システム、撮像装置、画像処理方法およびプログラム
JP6499188B2 (ja) 飽和画像を非飽和画像に変換する方法
US9654750B2 (en) Image processing system, image processing apparatus, and image processing method to respectively display images obtained by dividing one image on first and the second display media
US20080240602A1 (en) Edge mapping incorporating panchromatic pixels
WO2018032783A1 (zh) 一种图像处理方法及装置
JP2016151955A (ja) 画像処理装置、撮像装置、距離計測装置、および画像処理方法
JP2013026938A (ja) 画像処理装置、画像処理方法およびプログラム
JP2019220887A (ja) 画像処理装置、画像処理方法およびプログラム
CN111598777A (zh) 天空云图的处理方法、计算机设备和可读存储介质
JP6056511B2 (ja) 画像処理装置、方法、及びプログラム、並びに撮像装置
CN114727073B (zh) 一种图像的投影方法、装置、可读存储介质及电子设备
CN1957370B (zh) 从照相机获取的图片中提取原始数据的方法
JP2005275447A (ja) 画像処理装置、画像処理方法及びプログラム
JP4662258B2 (ja) 画像処理方法及び装置、デジタルカメラ装置、並びに画像処理プログラムを記録した記録媒体
JP2005250628A (ja) カメラキャリブレーションパターン、装置、および方法
JP5365740B2 (ja) 画像復号装置、画像復号方法及び画像復号用コンピュータプログラム
JP5691290B2 (ja) 表示システムの設定方法、表示システムの設定装置、およびコンピューター読み取り可能な記憶媒体
JP7391502B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2017103756A (ja) 画像データ処理装置及び方法
CN114596224A (zh) 图像处理方法、装置、设备及存储介质
JP2011171991A (ja) 画像処理装置、電子機器、画像処理方法、および、画像処理プログラム
JP5181952B2 (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080111

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20110124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110302

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110727