JP2008059081A - 画像処理装置及び画像処理方法、並びにコンピュータ・プログラム - Google Patents

画像処理装置及び画像処理方法、並びにコンピュータ・プログラム Download PDF

Info

Publication number
JP2008059081A
JP2008059081A JP2006232582A JP2006232582A JP2008059081A JP 2008059081 A JP2008059081 A JP 2008059081A JP 2006232582 A JP2006232582 A JP 2006232582A JP 2006232582 A JP2006232582 A JP 2006232582A JP 2008059081 A JP2008059081 A JP 2008059081A
Authority
JP
Japan
Prior art keywords
image
area
region
processing
document
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006232582A
Other languages
English (en)
Other versions
JP2008059081A5 (ja
Inventor
Frank Nielsen
フランク ニールセン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006232582A priority Critical patent/JP2008059081A/ja
Priority to US11/895,735 priority patent/US7986831B2/en
Priority to CN200710142586A priority patent/CN100591100C/zh
Publication of JP2008059081A publication Critical patent/JP2008059081A/ja
Publication of JP2008059081A5 publication Critical patent/JP2008059081A5/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2323Non-hierarchical techniques based on graph theory, e.g. minimum spanning trees [MST] or graph cuts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/7635Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks based on graphs, e.g. graph cuts or spectral clustering

Abstract

【課題】デジタル画像に含まれる写真や名刺、本の表紙などさまざまな書画を複雑な背景画像から正確に抽出処理する。
【解決手段】入力画像を隣接グラフとして扱い、隣接するノード同士を統合すべきか否かを統計的処理アルゴリズムに基づいて判断し、ノードの統合を繰り返し実行していくことにより、画像セグメンテーションを行なう。統計的処理アルゴリズムに基づく判断式のパラメータ値を変更することで、デジタル画像に含まれる書画領域を抽出する、あるいは書画画像からなる前景領域をそれ以外の背景と分離するのにちょうどよい粗さのセグメントとなるように画像分割する。
【選択図】 図2

Description

本発明は、デジタル画像を処理する画像処理装置及び画像処理方法、並びにコンピュータ・プログラムに係り、特に、デジタルカメラにより捕捉された画像に含まれるオブジェクトの画像を処理する画像処理装置及び画像処理方法、並びにコンピュータ・プログラムに関する。
さらに詳しくは、本発明は、デジタル画像に含まれる書画情報を処理する画像処理装置及び画像処理方法、並びにコンピュータ・プログラムに係り、特に、複数の書画情報を含むデジタル画像から各書画原稿を背景イメージから分離して取り出す画像処理装置及び画像処理方法、並びにコンピュータ・プログラムに関する。
最近、CCD(Charge Coupled Device)やCMOS(Complementary Mental−Oxide Semiconductor)などの固体撮像素子で捕捉した画像をデジタル符号化するデジタルカメラが広範に普及している。デジタルカメラは、フィルムや感光板を使って撮影する銀塩カメラと比較すると、デジタル符号化された画像をメモリに記憶し、コンピュータによる画像処理や画像管理を行なうことができ、さらにフィルムの寿命という問題がないといった利点がある。
デジタルカメラは、一般には風景や人の撮影に用いるが、他の用途として、書画情報のデジタル化を挙げることができる。例えば、紙面文書や名刺などの書類、プレゼンテーションや会議などにおいて筆記された黒板若しくはホワイトボード、プロジェクタで投影されたスクリーンなどの書画情報を、デジタルカメラを通してデジタル入力し、情報の保存や管理を始めさまざまな画像処理を適用することができる。
例えば、名刺取り込み機能を備えた画像撮影装置について提案がなされている(例えば、特許文献1を参照のこと)。この画像撮影装置は、名刺を撮影する際に名刺のサイズに合わせて自動的にズームを行ない、撮影画角と同程度の大きさで名刺を撮影するようになっている。
また、名刺や看板などの被写体を撮影した画像信号から文字情報を抽出してテキスト文字列に変換し、テキスト文字列から認識される所定の項目に基づいて文字情報の項目を分類して格納する電子カメラについて提案がなされており(例えば、特許文献2を参照のこと)、初期投資や手間を掛けずに簡便に名刺データの管理を行なうことができる。
また、デジタル画像を書画などの前景オブジェクトと背景に分離して、書画の領域のみを取り出して1つの写真画像として利用することができる。本発明者らは、写真画像に含まれている別の写真画像を取り出す技術のことを“PicsInPic”と呼んでいる。
従来は、元画像を微分処理して得られるエッジ画像に基づいて書画などの画像オブジェクトの輪郭を抽出して背景画像から切り出すことが一般的である。例えば、撮影対象のエッジ画像からラドン変換を用いて直線検出を行ない、検出した直線パラメータから撮影対象の輪郭を形成する四角形を形成し、これを射影変換して撮影対象を正面から撮影したような画像を取得する画像処理装置について提案がなされている(例えば、特許文献2を参照のこと)。
しかしながら、エッジ画像を用いて輪郭抽出を行なう場合、書画と背景には絶対的なコントラストがあることが前提となり、背景や書画自体にエッジ情報が含まれている場合には、正確に輪郭を抽出することが困難となる。例えば、柄模様の絨毯の上に置かれた写真を抽出することは難しい。また、複数の書画が含まれるデジタル画像から個々の書画を1つずつ抽出することは難しい。
特開2003−283909号公報 特開2005−275447号公報
本発明の目的は、デジタルカメラにより捕捉された画像などのデジタル画像に含まれる1以上のオブジェクトの画像を好適に処理することができる、優れた画像処理装置及び画像処理方法、並びにコンピュータ・プログラムを提供することにある。
本発明のさらなる目的は、デジタル画像に含まれる1以上の書画を背景画像から分離して抽出処理することができる、優れた画像処理装置及び画像処理方法、並びにコンピュータ・プログラムを提供することにある。
本発明のさらなる目的は、デジタル画像に含まれる写真や名刺、本の表紙などさまざまな書画情報を複雑な背景画像から正確に抽出処理することができる、優れた画像処理装置及び画像処理方法、並びにコンピュータ・プログラムを提供することにある。
本発明は、上記課題を参酌してなされたものであり、その第1の側面は、画像に含まれる書画情報を抽出する画像処理装置であって、
入力画像を領域毎に分割する画像分割手段と、
分割された領域の輪郭に基づいて書画情報を含んだ書画領域を抽出する領域抽出手段と、
を具備することを特徴とする画像処理装置である。
この画像処理装置は、前記領域抽出手段により抽出された書画領域から四角形を検出する四角形検出手段と、該検出した四角形領域を正面から眺めた画像となるように逆射影変換するとともにアスペクト比を調整する画像変換手段をさらに備えていてもよい。
デジタルスチルカメラによる撮影画像から書画領域を抽出することによって、抽出した画像オブジェクトや、さらに画像に含まれるテキストなどの文字情報を認識して、さまざまなサービスを提供することができる。
しかしながら、元画像を微分処理して得られるエッジ画像に基づいて書画の輪郭を抽出して背景画像から切り出すという旧来の方法では、書画と背景には絶対的なコントラストがあることが前提となり、背景や書画自体にエッジ情報が含まれている場合には、正確に輪郭を抽出することが困難となる。例えば、柄模様の絨毯の上に置かれた写真を抽出することは難しい。また、複数の書画が含まれるデジタル画像から個々の書画を抽出することは難しい。
これに対し、本発明に係る画像処理装置では、画像分割手段は、入力画像を隣接グラフとして扱う。この隣接グラフは、ピクセル若しくはピクセルの塊からなる多角形などの画像の構成単位をノードとして扱い、隣接するノード間をエッジで接続することで画像情報を記述するものである。そして、エッジで結ばれる各ノードが持つ属性値を比較した結果に基づいて重み因子をエッジに付与し、重み値に基づいて隣接グラフ中のエッジをソーティングすると、ソートされた順に従ってエッジを挟むノードのペアを取り出し、ノード同士を統計的処理アルゴリズムに基づいて統合すべきか否かを評価し、ノードの統合処理を行なう。このような統合処理を繰り返すことによって、入力画像を複数の画像領域に分割する。
すなわち、画像分割手段は、隣接するノード同士を統合すべきか否かを統計的処理アルゴリズムに基づいて判断し、ノードの統合を繰り返し実行していくことにより、個々を知覚できない多数のノードからなる生のデータから、セグメントと呼ばれる知覚可能な少数の単位に成長させることができる。ここで言う統計的処理アルゴリズムでは、例えば各ノードがそれぞれ持つ属性情報における集中不均衡(concentration in−equality)現象から導き出される判断式に基づいて、隣接するノード同士が類似するか、言い換えればノードを統合することができるかどうかを判別する。
このような統計的処理アルゴリズムに基づくノードの統合処理は、各ノードが持つ属性情報を統計処理するという簡素な計算で構成されることから、高速化が可能である。例えば、パーソナル・コンピュータなどの一般的な計算機を用いて毎秒百万個の多角形を処理することができる。また、判断式に含まれるパラメータ値を調整することによって、ノード同士を統合する基準を自在に設定して、所望する粗さのセグメントまで成長させることができ、システムはスケーラビリティを持つ。
したがって、本発明によれば、生のデータを構成する複数のノードのトポロジを入力値とし、ノードの統合処理を統計的処理アルゴリズムに従って再帰的に行なっていく(すなわち、mesh growingを行なう)ことで、任意の粗さのセグメントを生成することができる。また、統計的処理アルゴリズムに基づく判断式のパラメータ値を変更することで、デジタル画像に含まれる書画領域を抽出する、あるいは書画画像からなる前景領域をそれ以外の背景と分離するのにちょうどよい粗さのセグメントとなるように、入力画像を画像分割することができる。
但し、書画が複雑なテクスチャを持つ、あるいは書画が載せられている背景もテクスチャを持つ場合には、書画の領域もセグメント化されて一体ではなくなる、あるいは背景もセグメント化されて書画の領域との区別がつかなくなることから、画像分割手段が良好に動作しない可能性がある。
そこで、画像分割手段は、原画像から個々の書画などからなる前景領域を抜き取る第1の画像分割処理と、原画像から書画など以外の背景領域を抜き取る第2の画像分割処理を2元的に行なうことによって、画像セグメンテーションの精度を向上させるようにしてもよい。
画像処理装置は、入力画像を微分処理する微分処理手段をさらに備える。そして、前記隣接グラフ生成手段は、前記微分処理手段から出力される微分画像のうち帯域が所定値未満となる(例えば、書画やテクスチャなどの領域の輪郭に該当しない)ピクセルに対してのみ、他のピクセルと接続するエッジを付与して、部分的隣接グラフを作成する。隣接するピクセルであっても、エッジがなければ統合されることはなく、分離されたまま画像セグメンテーションの処理が進行していくことになる。
したがって、統合処理手段は、境界に差し掛かっているノード同士を統合処理して、背景を1つの領域として統合することができる。この結果、画像処理装置としては、書画などの前景の画像領域を抜き取るとともに、書画が載せられている背景の画像領域を抜き取り、それぞれを出力することができる。
また、画像分割手段により画像セグメンテーション処理を行なった結果、セグメント化された領域の中に、さらに他の小さな領域が含まれている場合がある。しかしながら、別の領域の含まれる小領域は基本的には書画情報に含まれる個々のコンテンツに過ぎず、最外周の輪郭からなる領域しか必要がない。そこで、領域抽出手段は、このような小領域を破棄する。
また、本発明の第2の側面は、画像に含まれる書画情報を抽出するための処理をコンピュータ上で実行するようにコンピュータ可読形式で記述されたコンピュータ・プログラムであって、前記コンピュータに対し、
入力画像を領域毎に分割する画像分割手順と、
分割された領域の輪郭に基づいて書画情報を含んだ書画領域を抽出する領域抽出手順と、
前記領域抽出手順において抽出された書画領域から四角形を検出する四角形検出手順と、
該検出した四角形領域を正面から眺めた画像となるように逆射影変換するとともに、アスペクト比を調整する画像変換手順と、
を実行させることを特徴とするコンピュータ・プログラムである。
本発明の第2の側面に係るコンピュータ・プログラムは、コンピュータ・システム上で所定の処理を実現するようにコンピュータ可読形式で記述されたコンピュータ・プログラムを定義したものである。換言すれば、本発明の第2の側面に係るコンピュータ・プログラムをコンピュータ・システムにインストールすることによって、コンピュータ・システム上では協働的作用が発揮され、本発明の第1の側面に係る画像処理装置と同様の作用効果を得ることができる。
本発明によれば、デジタル画像に含まれる1以上の書画を背景画像から抽出処理することができる、優れた画像処理装置及び画像処理方法、並びにコンピュータ・プログラムを提供することができる。
また、本発明によれば、デジタル画像に含まれる写真や名刺、本の表紙などさまざまな書画を複雑な背景画像から正確に抽出処理することができる、優れた画像処理装置及び画像処理方法、並びにコンピュータ・プログラムを提供することができる。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
以下、図面を参照しながら本発明の実施形態について詳解する。
画像処理の分野では、ピクセル(若しくはピクセルの塊からなる多角形(ポリゴン)メッシュ)からなるノードで構成される画像データを、隣接するノード間の接続関係を記述した隣接グラフ(Incidence Graph若しくはRegion Adjacent Graph(RAG))の形式で表現することは一般的に行なわれている。本発明は、デジタル画像を複数のノード並びにノード間を結ぶエッジで構成される隣接グラフの形式で記述し、エッジで結ばれているノード同士の統合処理を繰り返していくことを通じて元のデジタル画像の画像分割を行ない、最終的には、デジタル画像に含まれる絵葉書や名刺、本の表紙などの書画の画像領域を背景画像から分離させるものである。例えば、元のデジタル画像が図1Aに示すような、4個の書画を含んだ8メガバイトの画像データである場合、本発明によれば、図1Bに示すように、それぞれ約1メガバイトの画像データを背景から分離して取り出すことができる。
本発明に係る画像処理方法では、隣接グラフの形式で記述された画像データを用いて、デジタル画像に含まれるそれぞれの書画(pictures in picture)を認識し、これらを1つずつ画像領域としてまとめ上げてそれぞれの絵を生成するようになっている。また、元のデジタル画像に含まれている四角形を射影変換して、適当な矩形領域にする。模様のある背景画像から個々の絵を正確に取り出すためには、システムが堅牢であることと高速処理が可能であることが必要である。
本発明は、例えばデジタルカメラに適用することで、紙面文書や名刺などの書類、プレゼンテーションや会議などにおいて筆記された黒板若しくはホワイトボード、プロジェクタで投影されたスクリーンといった書画情報を撮影して、撮影画像に含まれる書画を抽出することができる。図24には、本発明の一実施形態に係るデジタルスチルカメラの構成を示している。
図示のデジタルスチルカメラ200は、撮像素子211と、前処理部212と、カメラ・デジタル信号処理部(DSP)216で構成され、
撮像素子211は、CCDやCMOSなどの光電変換効果を持つ各画素が2次元に配列され、受光側には例えばG市松RB色コーディング単板が配設されている。各色フィルタを通した入射光量に対応する信号電荷が各画素に蓄積され、各画素から読み出される3色の各信号電荷量からその画素位置における入射光の色を再現することができる。
前処理部212は、CDS/AGC/ADCブロック213と、タイミング・ジェネレータ214と、Vドライバ215で構成される。
CDS/AGC/ADCブロック213では、画素信号中の撮像素子211から受ける信号の低雑音を高精度に抑圧した後(Correlated Double Sampling(相関二重サンプリング):CDS)、デジタル信号に変換し、さらにAGC(Automatic Gain Control:自動利得制御回路)により適正なゲイン・コントロールをかける。
タイミング・ジェネレータ214は、撮像素子211を駆動するためのタイミング・パルス信号を生成する。そして、Vドライバ215は、このタイミング・パルス信号に従って、撮像素子211の各画素の電荷を垂直方向にライン単位で出力するための駆動信号を出力する。
カメラDSP部216は、カメラ信号処理部217と、解像度変換部218と、画像コーデック処理部219と、メモリ制御部220と、表示制御部221と、メディア制御部222を備えている。
カメラ信号処理部217は、前処理部212から送られてくる画像信号に対しAWB(Auto White Balance)によりホワイトバランス・ゲインを掛けて適正な色状態を再現し、さらにデモザイク処理によりRGB画面信号を作成する。また、カメラ信号処理部217は、RGB画像信号に対してγ補正を施し、画像情報をモニタ出力、プリントアウト、又は画像記録する際に適した階調に変換する。
解像度変換部218は、画像のサイズの変更を行なう。画像コーデック処理部219は、RGB画像信号を輝度信号と色差信号(Y/Cr/Cb)に色空間変換し、JPEG(Joint Picture Experts Group)圧縮などの符号化処理を行なう。
メモリ制御部220は、撮影した画像情報などのデータを、SDRAM(Synchronous DRAM)などからなるメモリ装置224に対して書き込みや読み出しを行なうためのアクセス動作を制御する。
表示制御部221は、LCD(Liquid Crystal Display)などで構成されるモニタ・ディスプレイ225の駆動を制御し、例えばメモリ装置224に保持されている撮影画像の表示出力を行なう。
メディア制御部222は、メモリスティック(登録商標)などの着脱可能な記録メディア226を装填するためのスロットを備え、記録メディア226へのデータの書き込みや読み出しを行なう。例えばメモリ装置224に保持されている撮影画像ファイルを記録メディア226に記録する。
また、カメラDSP部216は、バス・インターフェース・ユニット(BIU)223を介して制御部227に接続されている。制御部227は、シャッターボタンやズーム、その他のカメラ・ワークなどをユーザが指示するための操作部228と、ユーザ操作に応じて当該装置全体の動作を統括的に制御するCPU229と、CPU229にとっての主記憶メモリであるRAM230と、プログラム・コードや装置情報などを不揮発的に保持するEEPROM(Electrically Erasable and Programmable ROM)231などで構成される。
図2には、図1に示したデジタルカメラに搭載される、デジタル画像から書画領域の抽出を行なう画像処理機能の構成を模式的に示している。図示の画像処理機能を構成する各機能モジュールは、実際には、CPU上で実行する所定のプログラム・コードによって実現される。
図示の画像処理機能は、専用のハードウェア装置としてデザインしてもよいが、デジタルカメラ200の組み込みアプリケーションとして実現することができる。あるいは、デジタルカメラから撮影画像を取り込むパーソナル・コンピュータ(PC)などの一般的な計算機システム上で各機能モジュール1〜4に相当する処理を実行するアプリケーション・プログラムを起動するという形態で実現することも可能である。一般的な計算機システムは、例えばプロセッサに米インテル社のPentium(登録商標)IV(1.6GHz)を使用し、1GBのRAMで構成されるメイン・メモリを備える。また、アプリケーション・プログラムは、例えばOpenGLで提供されるAPI(アプリケーション・プログラミング・インターフェース)を利用して、C++言語でコーディングすることができる。
図示の画像処理機能は、隣接グラフを用いた画像領域のセグメンテーション処理を行なう画像セグメンテーション部11と、外側の輪郭から領域を抽出する領域抽出部12と、セグメント化された画像から書画を構成する四角形領域を探索する四角形領域探索部13と、四角形領域の元のアスペクト比を推定するアスペクト比推定部14を備え、推定されたアスペクト比に応じて四角形領域を矩形領域に再割り当てして、1又は複数の絵(書画)を出力する。
図3には、複数の名刺を撮影したデジタル画像に画像セグメンテーション処理を施した画像から矩形領域を認識して、個々の名刺の画像を再マッピングする様子を示している。このようなアプリケーションは、一種のOCR(Optical Character Recognizer)の代替技術となり得る。
例えば、この技術をデジタルカメラに搭載した場合、通常の撮影モード下では、ファインダ上には図4Aに示すように複数の名刺が散在した現実の画像が表示される。一方、picsinpic(書画表示)モード下では、ファインダ上には、図4Bに示すように、認識された個々の名刺を所定のアスペクト比に再割り当てした画像が整然と並べられている。
また、図2に示した画像処理機能によれば、書画として名刺以外に、書籍の表紙(book cover)なども扱うことができる。図5Aに示すように、絨毯の上に散在する書籍を撮像したデジタル画像に対し、隣接グラフを用いた画像領域のセグメンテーション処理を施し、図5Bに示すように外側の輪郭から個々の書籍の領域を抽出する。さらに、図5Cに示すように、抽出された個々の領域の画像をコンピュータなどのネットワーク接続された情報機器に取り込んで、表紙の画像を文字認識して本のタイトルやISBN(International Styandard Book Nunber)などの文字列情報を取り出し、データベース検索を行なうことができる。さらにデータベース検索結果を基に、書籍のオンラインショッピングや、ブログ討論、その他の付加的な情報提供といった、他のサービス・アプリケーションとの連携を図ることができる。
また、さまざまな書画が散在するデジタル画像から抽出した四角形領域に含まれる文字列情報をデータベース検索した結果、書画がCDやDVDなどのメディアのジャケットであることが判明したときには、図6に示すように、抽出された四角形領域をジャケットが持つアスペクト比の矩形領域に再マッピングするようにしてもよい。
以下では、図2に示した画像処理機能を構成する各部11〜14における処理について詳解する。
画像セグメンテーション:
図7には、画像セグメンテーション部11の内部構成を示している。図示の画像セグメンテーション部11は、処理対象となる3次元画像情報を隣接グラフの形式に編集する画像情報編集部111と、入力した隣接グラフの各エッジを評価してソーティングを行なう隣接グラフ評価部112と、ソーティングされた順に従ってエッジを挟む画像領域のペアを取り出し、これらを統計的処理アルゴリズムに基づいて評価して統合処理(mesh growing)を行なう画像領域統合処理部113と、画像領域の統合処理をした結果として残された微細な領域を処理する微小領域処理部114を備えている。
画像処理の分野では、画像領域としての多角形メッシュを、その構成要素となる複数の多角形間の関係を記述した隣接グラフ(Incidence Graph若しくはRegion Adjacent Graph(RAG))の形式で表現することは一般的に行なわれている。隣接グラフの具体的な記述方法は幾つか挙げられる。隣接グラフは、複数のノードと、ノード間を結ぶエッジで構成されるが、ノード及びエッジに何を扱うかはさまざまである。例えば、多角形をノードとすると、その辺又は頂点をエッジにすることができる。あるいは、多角形の辺をノードとした場合、頂点又は多角形をエッジにすることができる。あるいは、頂点をノードとした場合、多角形の辺又は多角形をエッジにすることができる。
本実施形態では、多角形をノードとし、多角形の辺をエッジとして構成される隣接グラフを扱う。すなわち、画像情報入力部111は、多角形メッシュを構成する個々の多角形をノードとし、隣接する多角形同士が接する辺に相当するエッジを用いて対応するノード間を結んで記述される隣接グラフを入力データとする。
ここで、隣接グラフの作成方法について説明しておく。
まず、対象とする画像領域に属する各多角形TiをノードNiに関連付ける。そして、ノードNiとノードNj間において、双方に対応する多角形Ti及びTjに属する唯一の辺があれば、両ノード間を結ぶエッジeijとして生成する。
隣接グラフは、エッジの端点に従って多角形のソーティングを行なうことによって、頂点及び面のインデックス配列から直接的に構築することができる。個々の多角形に属する辺すなわちエッジは、多角形メッシュすなわち画像領域の境界となるエッジ(Boundary edge)と、多角形メッシュではなく多角形メッシュ内の隣接する他の多角形と接するエッジ(Interior Edge)に分けられる。画像領域の境界に当たるエッジは1つの多角形にしか属さないので、境界以外(すなわち画像領域の内側の)エッジのみを処理対象にする。この処理には、頂点及び面のインデックス配列があれば十分であり、half−edge、quad−edgeといった複雑な隣接データ構造は必要でない。
図8には、最も単純な隣接グラフの例を示している。同図左に示す多角形メッシュは、辺すなわちエッジeijで接する2つの3角形Ti及びTjで構成される。この多角形メッシュを記述した隣接グラフは、同図右に示すように、各3角形Ti及びTjに相当する2つのノードNi及びNjと、両ノードを結ぶエッジeijで構成される。
また、図9には、少し複雑な隣接グラフの構成例を示している。同図左に示す多角形メッシュは、7個の3角形T1〜T7で構成され、T1はT2と接し、T2はT1、T3、T4と接し、T3はT2及びT6と接し、T4はT2及びT5と接し、T5はT4及びT6と接し、T6はT3、T5、T7と接している。この多角形メッシュを記述した隣接グラフは、同図右に示すように、隣接する双方の3角形に属する辺すなわちエッジによってそれぞれの3角形に相当するノード間を結んで構成される。
なお、ノードは、初期状態では2次元イメージにおける個々のピクセルである。あるいは、多角形メッシュの最小単位の多角形(polygon)や、3次元の立体イメージであればボクセル(voxel)が1つのノードである。画像の統合処理が進むと、ノードは複数の多角形(あるいは、ピクセル又はボクセル)からなる多角形メッシュで構成される画像領域に成長する。図2に示した画像処理の過程では、各ノードNiに関して、一意に識別するための識別情報id(Ni)と、該当する画像領域(最初は1つの多角形)が持つ面積area(Ni)と、該当する画像領域すなわち多角形メッシュを構成する多角形の個数n(Ni)(初期値は1)を、「ノード統計情報」として保持している。各ノードが面積及び多角形の個数を保持するのは、ノードすなわち画像領域の統合の成否を統計的処理アルゴリズムに基づく判断式により判定処理するために必要な情報だからである。
隣接グラフ評価部112では、入力された隣接グラフの各エッジを評価してソーティングを行なう。エッジの評価は、具体的には、エッジで結ばれる各画像領域が持つ属性値を比較して比較結果に基づいて重み因子をエッジに付与し、重み値に基づいて隣接グラフ中のエッジをソーティングする。ここで言う画像領域は、最小単位である多角形と、複数の多角形を統合した多角形メッシュとして構成される画像領域を含む。
属性値として例えば画像領域が持つ面積(画像領域に統合されたすべての多角形の面積の平均値)を用い、エッジで結ばれる画像領域間の面積の相違をエッジの重み値として与えて、重み値の小さい順(increasing order)にソーティングを行なう。この場合、画像領域間の面積の差が小さいほど重み値は小さくなり、後続の画像統合処理では処理順位が高くなる。
図10には、エッジの評価を行なう処理方法を図解している。ここでは、エッジeijで接する2つの3角形Ti及びTjを想定し、その隣接グラフは、同図右に示すように、各3角形Ti及びTjに相当する2つのノードNi及びNjと、両ノードを結ぶエッジeijで構成される。ここで、多角形Pの面積を求める関数area(P)が定義されているとすると、エッジeijの重み値W(eij)は下式によって計算される。
あるいは、画像領域を構成する多角形の面積の他に、画像領域の法線方向、色などの画素属性情報(RGBのうちの少なくとも1成分の平均色)(但し、テクスチャを持つ多角形メッシュの場合)といった、隣接する頂点が持つさまざまな属性値の差分を用いてエッジの重みを与えることができる。
例えば、幅wで高さhからなるRGBカラー画像において、i行j列目の画素のノードをVi,jとし、その識別情報をRegID(Vi,j)=i×w+jとおく。内側の各画素は4つの隣接ノードを持つことになり、エッジの総数mは2wh−w−hとなる。そして、ノードVi,jとVi’,j’間の重み因子は、例えば以下の式で表すことができる。
画像領域統合処理部113では、ソーティングされた順に従ってエッジを挟む画像領域のペアを取り出し、統合処理(mesh growing)を行なう。エッジには、エッジで結ばれる画像領域間の類似度の指標となる重みが与えられるので、重みが小さい順に統合処理を行なうことは、類似する画像領域間の統合処理を優先的に実行することに相当する。
画像領域統合処理部113では、ソーティングされた順に従って取り出されたエッジで結ばれる画像領域のペアに対し、統計的処理アルゴリズムに基づいて、統合すべきかどうかを判断する。具体的には、エッジの重みが上式(1)に示したように面積情報を基に算出される場合には、エッジで結ばれる2つの画像領域Rk及びRlに関して、以下の統計的アルゴリズムに基づく判断式(Predicate)を満たすときに、画像領域Rk及びRlを統合すべきと判定する。但し、下式において、画像領域Rkは面積Skを持つとともにnk個の多角形で構成され、画像領域Rlは面積Slを持つとともにnl個の多角形で構成されるものとする。また、Aは多角形の最大面積とし、Qはセグメンテーションの粗さを制御するためのパラメータとする。
上記の判断式(3)は、画像領域を構成する多角形の面積において現れる現象である、統計的な集中不均衡から導き出されるものである。この現象は、統計学の分野では、中心極限定理として一般的である(母集団が任意の分布であるとしても、その母集団からの標本の大きさを増大するならば、標本平均の分布はやがて正規分布へと収束する)。
上式の右辺のQはセグメンテーションの粗さを制御するためのパラメータである。Qを大きくとると右辺の値が小さくなり、判断式を満たすのが困難となる結果、画像領域の統合が抑制される。逆に、Qを小さい値にすると右辺の値が大きくなり、判断式を容易に満たすようになるので、画像領域の統合が促進され、より粗いメッシュ・セグメンテーション結果を得ることができる。
あるいは、エッジの重みが上式(2)に示したようにRGB色情報を基に算出される場合には、エッジで結ばれる隣接ノードVi,j及びVi’,j’に関して、以下の統計的アルゴリズムに基づく判断式(Predicate)を満たすときにノードを統合すべきと判定する。
但し、上式中の関数b(x)は以下の通りである。下式中で、ni,j並びにni’,j’は該当するノードに含まれる画素数である。また、Qはセグメンテーションの粗さを制御するためのパラメータとなる。
ノードは、初期状態ではデジタル画像を構成する個々のピクセル、若しくは多角形メッシュの最小単位の多角形であるが、画像領域の統合処理が進むと、複数の多角形からなる多角形メッシュで構成される画像領域に成長する。ノード統計情報では、各ノードNiに関して、一意に識別するための識別情報id(Ni)と、該当する画像領域(最初は1つの多角形)が持つ面積area(Ni)と、該当する画像領域すなわち多角形メッシュを構成する多角形の個数n(Ni)(初期値は1)などを保持するレコードが設けられている。そして、画像領域統合処理部113は、ノード同士を統合したときには、新しいノードを識別するための新たなidが与え、統合により新たに生成された画像領域の面積及び多角形の個数を算出して、ノード統計情報の更新処理を行なう。新たな識別情報の生成には、Union−Findアルゴリズムを用いることができる。Union−Findアルゴリズムに関しては、例えば、T.H.Cormen,C.E.Leiserson,R.L.Rivest共著“Data Structures for Disjoint Sets”(Chapter 22,pp.440−461,Introduction to Algorithms)を参照されたい。
微小領域処理部114は、画像領域の統合処理をした結果として残された微細な領域を処理する。例えば、大きな画像領域の間あるいは内部に、統合されないまま残された微小な多角形メッシュを、判断式を満たすか否かに変わらず、隣接するいずれかの画像領域に統合し、処理結果の見栄えを良くする。ここで言う微小領域は、例えばメッシュ表面全体に対して数パーセント未満の面積しかない多角形メッシュである。
図11には、画像セグメンテーション部11においてメッシュ・セグメンテーション処理を行なうための処理手順の一例をフローチャートの形式で示している。
まず、画像情報編集部111において、処理対象となる3次元オブジェクトの画像情報を編集する(ステップS1)。本実施形態では、画像情報は、多角形をノードとし、多角形の辺をエッジとして構成される隣接グラフの形式で記述される(前述並びに図3を参照のこと)。
画像情報入力部111は、入力された隣接グラフをスキャンして、各ノードNiに識別情報id(Ni)を付与するとともに、相当する多角形の面積を求め、ノード毎の識別情報、面積、及び多角形の個数(初期値は1)をノード統計情報に登録(初期化)する。ノード統計情報を初期化する擬似プログラム・コードを以下に示しておく。但し、id()は引数で示されるノードの識別情報を格納する配列であり、area()は引数で示される識別情報のノードの面積を格納する配列であり、n()は引数で示される識別情報のノードを構成する多角形の個数を格納する配列である。
隣接グラフからi番目に取り出されたノードNiに関し、識別情報id(Ni)にiを代入し、ノードNiの面積area(i)に該当する多角形の面積area(Ti)を代入し、多角形の個数n(i)に初期値1を代入する。
次いで、隣接グラフ評価部112では、入力された隣接グラフの各エッジを評価してソーティングを行なう(ステップS2)。具体的には、エッジで結ばれる画像領域間の面積の相違をエッジの重み値として与えて、重み値の小さい順にソーティングを行なう。画像領域間の面積の差が小さいほど重み値は小さくなり、後続の画像統合処理では処理順位が高くなる。
続いて、パラメータ設定部115からセグメンテーションの粗さをコントロールするためのパラメータQを設定する(ステップS3)。
画像領域統合処理部113では、ソーティングされた順に従ってエッジを挟む画像領域のペアを取り出す(ステップS4)。そして、これらの画像領域が統計的アルゴリズムに基づく判断式を満たすかどうかに基づいて統合処理を行なう(ステップS5)。ここで用いる判断式は、画像領域を構成する多角形の面積において現れる現象である、統計的な集中不均衡から導き出されるものであり(前述)、ステップS3で設定されたパラメータQを用いる。
ノード統計情報では、各ノードNiに関して、一意に識別するための識別情報id(Ni)と、該当する画像領域(最初は1つの多角形)が持つ面積area(Ni)と、該当する画像領域すなわち多角形メッシュを構成する多角形の個数n(Ni)(初期値は1)などを保持するレコードが設けられている(前述)。画像領域統合処理部113は、画像領域同士を統合したときには、新しいノードを生成して、このノードを識別するための新たなidを与え、統合により新たに生成された画像領域の面積及び多角形の個数を算出して、ノード統計情報の更新処理を行なう(ステップS6)。
画像領域を統合し、その後にノード統計情報を更新する擬似プログラム・コードを以下に示しておく。但し、Merge()は、引数で示される各画像領域を統合処理する関数である。
まず、Merge関数の引数で示されるノードNi及びNjの統合処理を行なう。そして、各ノードNi及びNjに対し同じ新規の識別情報id´(Ni)=id´(Nj)を与えることで、両画像領域が統合され、新しいノードが生成されたことを示す。本実施形態では、新しいノードの識別情報としてNi又はNjいずれか一方の旧識別情報を用いる。新しいノードに識別情報を与える際に、Robert Endre Tarjanが考案したUnion−Findアルゴリズム(前述)を使用することができる。
続いて、新しいノードの面積area(id´(Ni))に元の各画像領域の面積の和area(Ni)+area(Nj)を代入するとともに、新しいノードの多角形の個数n(id´(Ni))に元の各画像領域の多角形の個数の和n(id(Ni))+n(id(Nj))を代入する。そして、元の各ノードNi及びNjに対し新規の識別情報id´(Ni)及びid´(Nj)をそれぞれ与えることで、ノード統計情報の更新処理を終える。
そして、隣接グラフ中のすべてのエッジについて処理を終えると(ステップS4)、微小領域処理部114は、画像領域の統合処理をした結果として残された微細な領域を処理する(ステップS7)。例えば、大きな画像領域の間あるいは内部に、統合されないまま残された微小な多角形メッシュを、判断式(3)を満たすか否かに変わらず、隣接するいずれかの画像領域に統合し、処理結果の見栄えを良くする。ここで言う微小領域は、例えばメッシュ表面全体に対して数パーセント未満の面積しかない多角形メッシュである。
上述したような統計的処理アルゴリズムに基づく画像領域の統合処理は、多角形の面積を統計処理するという簡素な計算で構成されることから高速化が可能である。例えば、一般的な計算機システム(前述)を用いて毎秒百万個程度の多角形を処理することができる。また、判断式に含まれるパラメータ値Qを調整することによって、画像領域同士を統合する基準を自在に設定して、所望する粗さの多角形メッシュを生成することができ、システムはスケーラビリティを持つ。
Qを大きくとると上式(3)の右辺の値が小さくなり、判断式(3)を満たすのが困難となる結果、画像領域の統合が抑制される(図12を参照のこと)。逆に、Qを小さい値にすると上式(3)の右辺の値が大きくなり、判断式を容易に満たすようになるので、画像領域の統合が促進され、より粗いメッシュ・セグメンテーション結果を得ることができる(図13を参照のこと)。
このように本実施形態に係る画像セグメンテーション方法によれば、判断式(3)において適正なQの値を設定することによって、撮影画像に含まれる書画の領域とそれ以外の背景領域とを分離するようなセグメンテーションを行なうことができる。例えば、図3や図5に示したように、撮影画像に含まれる名刺やブックカバー、CD/DVDのラベルのように、テクスチャ領域を持つ書画オブジェクトについては画像セグメンテーションにより原画像から取り出すことができる。
ところが、書画が複雑なテクスチャを持つ、あるいは書画が載せられている背景もテクスチャを持つ場合には、書画の領域もセグメント化されて一体ではなくなる、あるいは背景もセグメント化されて書画の領域との区別がつかなくなることから、所望の書画の領域だけを分離して取り出すことは困難である。例えば、複雑なセマンティクスからなる写真に関しては、画像セグメンテーションを行なうと、1つの書画として領域は取り出されず、図14に示すようにさらに複数の領域に分割されてしまうため、画像セグメンテーションには失敗する。
そこで、本実施形態では、複雑なテクスチャからなる背景を正確に処理するために、原画像から個々の書画などからなる前景領域を抜き取るセグメンテーション処理と、原画像から書画など以外の背景領域を抜き取るセグメンテーション処理を2元的に行なうという「2元的セグメンテーション(Binary Segmentation)」を実施するようにしている。また、2元的セグメンテーションには原画像を微分フィルタリングして得られるカラー・エッジ画像を用いる。
図15には、2元的な画像セグメンテーションを行なうための概略的な処理手順をフローチャートの形式で示している。
まず、微分フィルタリングにより原画像からカラー・エッジ画像を得る(ステップS11)。
次いで、部分的隣接グラフ(partial graph)を生成してから、図11に示した画像セグメンテーション処理を行なう(ステップS12)。
既に述べたように、隣接グラフの初期状態ではノードは2次元画像における個々のピクセルであり、隣接するノード間がエッジで接続され、エッジに付与される重み因子を統計的処理アルゴリズムに基づく判断式を用いて判定処理を行ない、ノード同士の統合を繰り返していくことで、画像セグメンテーションが進行する。ステップS12では、微分フィルタリングされたカラー・エッジ画像において、エッジ・カラーの帯域が所定値未満となる(例えば、書画やテクスチャなどの領域の輪郭に該当しない)ピクセルに対してのみ、他のピクセルと接続するエッジを付与して、部分的隣接グラフを作成する。隣接するピクセルであっても、エッジがなければ統合されることはなく、分離されたまま画像セグメンテーションの処理が進行していくことになる。
画像セグメンテーションが終了すると、続いて、例えば10ピクセル以下となるような微細な領域を周辺の領域に統合してしまう(ステップS13)。
ステップS12及びS13における画像セグメンテーション処理が終了すると、処理対象となっている画像の境界に差し掛かっている幾つかの領域を統合する(ステップS14)。この処理ステップでは、画像の4隅の領域と同様である境界に接したすべての領域を統合してしまう。例えば、画像セグメンテーション処理の結果、図16Aに示すように背景が幾つかの領域にセグメント化されている場合であっても、境界に差し掛かっている領域同士を統合していくことで、図16Bに示すように背景が1つの領域として統合される。
そして、書画などの前景の画像領域を抜き取るとともに(ステップS15)、書画が載せられている背景の画像領域を抜き取る(ステップS16)。
図17A〜Gには、画像に対して2元的画像セグメンテーションを適用した具体例を示している。図17Aに示す元の画像は、絨毯などのテクスチャを備えた背景の上に4枚の絵葉書が置かれた様子を撮影して得たものである。
図17Bには、この元画像に微分フィルタリング処理を施して得られたエッジ・カラー画像を示している。図示の例からも分るようにエッジ・カラー画像上では、各絵葉書の周縁部分や絵柄が高帯域として表出される。
図17Cには、エッジ・カラー画像を利用して部分的隣接グラフを作成し、この部分的隣接グラフに対して画像セグメンテーション処理を施した結果を示している。また、図17Dには、さらに微小な領域の統合処理を行なった結果を示している。部分的隣接グラフでは、書画やテクスチャなどの領域の輪郭に該当しないピクセルに対してのみエッジが付与されているので、言い換えれば統計的処理アルゴリズムに従ってノード間の統合処理を繰り返していっても、図17Dからも分るように輪郭をまたいで領域が統合されることはなく、書画やテクスチャなどの領域の輪郭はそのまま残される。
図17Eには、処理対象となっている画像の境界に差し掛かっている領域を統合した結果を示している。図17Dのように背景が幾つかの領域にセグメント化されている場合であっても、境界に差し掛かっている領域同士を統合していくことで、背景が1つの領域として統合される。
図17Fには、図17Dに示した画像から書画などの前景の画像領域を抜き取った結果を示している。また、図17Gには、図17Dに示した画像から背景の画像領域を抜き取った結果を示している。
領域抽出:
画像セグメンテーション処理を行なった結果、セグメント化された領域の中に、さらに他の小さな領域が含まれている場合がある。図18に示す例では、書画としての名刺の最外周の輪郭には、名刺に印刷されたロゴマークを囲む輪郭からなる小さな領域が含まれている。しかしながら、同図からも明らかなように、別の領域の含まれる小領域は基本的には書画情報に含まれる個々のコンテンツに過ぎず、最外周の輪郭からなる領域しか必要がない。そこで、領域抽出を行なう際には、このような小領域を破棄する。
画像セグメンテーションが施された画像から領域抽出を行なう際、まず水平・垂直走査線に沿って画像を走査し、閉じた輪郭を検出する。そして、各々の閉じた輪郭に対して、flood fillアルゴリズムを適用して、画像を更新する。そして、最外周の輪郭からなる領域オブジェクトのみを取り出す。
上述したような2元的な画像セグメンテーションを行なう場合には、背景に該当しないすべての領域を取り出して、所望する四角形領域の集合を生成する。
そして、各々の四角形領域について、画像を走査して、flood fillアルゴリズムを適用する。
図19A〜Cには、flood fillアルゴリズムを用いた領域抽出処理の手順を図解している。ここでは、図19Aに示すように、最外周の輪郭からなる領域(outer contour)の中に、複数の小さな輪郭からなる領域(inner contour)が含まれている。
図19Bに示すように、水平・垂直走査線に沿って画像を走査することによって、最外周の輪郭からなる領域が検出される。
ここで、最外周の輪郭からなる領域を取り出して、図19Cに示すようにflood fillアルゴリズムを適用することによって、内側に含まれる輪郭からなる領域が誤って取り出されないようにする。
なお、flood fillアルゴリズムの詳細については、例えば、ニールセン・フランク著“Visual Computing: Geometry, Graphics, and Vision”(Charles River Media, ISBN: 1−58450−427−7,2005. Chapter 2, page 26)を参照されたい。
四角形領域探索:
最外周の輪郭からからほぼ四角形となる領域を検出したとき、この領域が遠近により変形している矩形をなしているときには(図20Aを参照のこと)、さらに正面から眺めた画像となるように画像変換を施す(図20Bを参照のこと)。正面から眺めた画像へ変換するのは、2台のカメラやactive lighting(プロジェクタやホログラムAF)などを用いて平坦な表面を見たがるという人間の一般的な傾向に依拠するものである。
最外周となる輪郭を抽出する際に、その輪郭が四角形領域をなしているかどうかを判別する。具体的には、処理対象となっている輪郭の各ピクセルについて、接線の傾きを計算して5度毎に刻んで、2つの主な傾き(方向)を同定する(図21を参照のこと)。
輪郭の境界部分のピクセルを、接線の傾きによって4つの集合にまとめ、個々の集合毎に直線回帰(line regression)を行なう。そして、四角形領域を4つの半平面が交差する領域として検出する(図22を参照のこと)。
あるいは、四角形領域を探索する代替的な手法として、ダグラス&ポーカーによる頂点抽出アルゴリズム(line simplification)を適用して、最外周の輪郭(閉じたC4曲線)を構成するピクセルを抽出することができる。なお、この頂点抽出アルゴリズムの詳細については、例えば、http://geometryalgorithms.com/Archive/algorithm_0205/(平成18年7月27日現在)や、John Hershberger及びJack Snoeyink共著“Speeding Up the Douglas−Peucker Line−Simplification Algorithm”(Proc 5th Symp on Data Handling,134−143(1992))などを参照されたい。
そして、このようにして四角形領域を抽出した後、元の線分群とのハウスドルフ距離(Haussdorff distance)を計算して、該距離が所定値以内であれば抽出した領域をまさしく四角形であるとして受け容れる。
なお、Haussdorff distanceは、距離尺度を用いて形状の照合を行なう周知の手法である。
アスペクト比推定:
最後に、検出した四角形領域を正面から眺めた画像となるように逆射影変換を行なうとともに、アスペクト比を調整する。
矩形画像を逆射影する方法は数多存在し、本発明の要旨は特定の方法には限定されない。
アスペクト比が与えられている場合には、寸法効果のみを考慮すればよい。
例えば、式a=(h1+h2)/(w1+w2)に基いて、アスペクト比の平均を計算する。また、所定のアスペクト比のセットの中から最も近いものを見つけ出す。例えば、A4や写真、葉書であればアスペクト比は10:15、名刺であれば5.5:9.1である(書画が90度回転している場合には、アスペクト比はこれらの逆数となる)。
矩形画像を再マッピングする処理手順について、以下で説明しておく。
a×s2が四角形領域内の画素数と等しくなるような寸法因子sを選択する(但し、aはアスペクト比)。あるいは、逆射影変換された2点間の距離が所定値以内(例えば、1.0又は1.414)に収まるように寸法因子を選択する。
画像変換は、“homography”若しくは“collineaction”とも呼ばれ、8個の係数で決定される3×3の同次行列Hで表される。
四角形領域のピクセルpがアスペクト比aを以って縮尺が調整されたピクセルp´にマッピングされたとする。pとp´が同次座標で、p=(x,y,z)、p´=(x´,y´,z´)であれば、p´=Hpである。同次でない場合はp´=(x´/w´,y´/w´)である。
そして、図23に示すように、合成した画像を元の画像に逆方向でマッピングする。逆方向でマッピングされたピクセルPは、P=H-1p´で表される。
なお、逆方向マッピングなどに関しては、例えば、Frank Nielsen著“Visual Computing:Geometry,Graphics,and Vision”(Charles River Media,ISBN:1−58450−427−7,2005 Chapter 3,p127、Chapter 4,p203)を参照されたい。
以上、特定の実施形態を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本発明に係る画像処理技術は、デジタルカメラから撮影画像を取り込んで画像の加工を行なうパーソナル・コンピュータなどの情報機器や、デジタルスチルカメラ本体、若しくはデジタルカメラを搭載したさまざまな機器に搭載することができる。
本発明に係る画像処理技術によれば、デジタルカメラの撮影画像などに含まれる、名刺や絵葉書、本の表紙といった複数の書画を前景領域として他の背景領域から分離して取り出すことができる。また、取り出した個々の書画の画像をさらに正面から撮影したように射影変換したり、アスペクト比を調整したりして、元の書画に近い画像オブジェクトに復元することができる。これらの画像オブジェクトは、コンテンツとして再利用可能であり、さらに書画に含まれるテキストを文字認識して、得られた文字情報を画像オブジェクトの保管・整理に活用したり、文字情報を基に情報検索やその他のサービスを提供したりすることも可能である。
要するに、例示という形態で本発明を開示してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本発明の要旨を判断するためには、特許請求の範囲を参酌すべきである。
図1Aは、複数の書画画像を含んだデジタル画像の一例を示した図である。 図1Bは、図1Aに示したデジタル画像に含まれる個々の書画画像を抽出した様子を示した図である。 図2は、画像処理機能の構成を模式的に示したブロック図である。 図3は、複数の名刺を撮影したデジタル画像に画像セグメンテーション処理を施した画像から矩形領域を認識して、個々の名刺の画像を再マッピングする様子を示した図である。 図4Aは、撮影モード下で撮影したデジタル画像の表示例を示した図である。 図4Bは、書画表示モード下で撮影したデジタル画像の表示例を示した図である。 図5Aは、絨毯の上に散在する書籍を撮像したデジタル画像を示した図である。 図5Bは、図5Aに示したデジタル画像から抽出した書画画像を示した図である。 図5Cは、図5Bに示した書画画像に含まれる文字列情報を基に情報検索を行なった結果を示した図である。 図6は、抽出された四角形領域をジャケットが持つアスペクト比の矩形領域に再マッピングした様子を示した図である。 図7は、画像セグメンテーション部11の内部構成を示した図である。 図8は、最も単純な隣接グラフの例を示した図である。 図9は、少し複雑な隣接グラフの構成例を示した図である。 図10は、エッジの評価を行なう処理方法を説明するための図である。 図11は、画像セグメンテーション部11においてメッシュ・セグメンテーション処理を行なうための処理手順を示したフローチャートである。 図12は、画像領域の統合が抑制された場合の画像セグメンテーションの結果を示した図である。 図13は、画像領域の統合が促進された場合の画像セグメンテーションの結果を示した図である。 図14は、複雑なセマンティクスからなる写真に関して画像セグメンテーションに失敗した様子を示した図である。 図15は、元的な画像セグメンテーションを行なうための概略的な処理手順を示したフローチャートである。 図16Aは、背景が幾つかの領域にセグメント化されている様子を示した図である。 図16Bは、図16Aに示した背景が1つの領域として統合されている様子を示した図である。 図17Aは、絨毯などのテクスチャを備えた背景の上に4枚の絵葉書が置かれた様子を撮影して得た元画像を示した図である。 図17Bは、図17Aに示した元画像に微分フィルタリング処理を施して得られたエッジ・カラー画像を示した図である。 図17Cは、図17Bに示したエッジ・カラー画像を利用して作成された部分的隣接グラフに対して画像セグメンテーション処理を施した結果を示した図である。 図17Dは、図17Cに示した画像に対しさらに微小な領域の統合処理を行なった結果を示した図である。 図17Eは、図17Dに示した画像の境界に差し掛かっている領域を統合した結果を示した図である。 図17Fは、図17Dに示した画像から書画などの前景の画像領域を抜き取った結果を示した図である。 図17Gは、図17Dに示した画像から背景の画像領域を抜き取った結果を示した図である。 図18は、書画としての名刺の最外周の輪郭に、名刺に印刷されたロゴマークを囲む輪郭からなる小さな領域が含まれている様子を示した図である。 図19Aは、flood fillアルゴリズムを用いた領域抽出処理の手順を説明するための図である。 図19Bは、flood fillアルゴリズムを用いた領域抽出処理の手順を説明するための図である。 図19Cは、flood fillアルゴリズムを用いた領域抽出処理の手順を説明するための図である。 図20Aは、四角形領域を探索する処理手順を説明するための図である。 図20Bは、四角形領域を探索する処理手順を説明するための図である。 図21は、最外周となる輪郭の輪郭が四角形領域をなしているかどうかを判別する処理手順を説明するための図である。 図22は、最外周となる輪郭の輪郭が四角形領域をなしているかどうかを判別する処理手順を説明するための図である。 図23は、合成した画像を元の画像に逆方向でマッピングする様子を示した図である。 図24は、本発明の一実施形態に係るデジタルスチルカメラの構成を示した図である。
符号の説明
11…画像セグメンテーション部
12…領域抽出部
13…四角形領域探索部
14…アスペクト比推定部
111…画像情報編集部
112…隣接グラフ評価部
113…画像領域統合処理部
114…微小領域処理部
115…パラメータ設定部
200…デジタルスチルカメラ
211…撮像素子
212…前処理部
213…CDS/AGC/ADCブロック
214…タイミング・ジェネレータ
215…Vドライバ
216…カメラ・デジタル信号処理部
217…カメラ信号処理部
218…解像度変換部
219…画像コーデック処理部
220…メモリ制御部
221…表示制御部
222…メディア制御部
223…バス・インターフェース・ユニット
224…メモリ装置
225…モニタ・ディスプレイ
226…記録メディア
227…制御部
228…操作部
229…CPU
230…RAM
231…EEPROM

Claims (19)

  1. 画像に含まれる書画情報を抽出する画像処理装置であって、
    入力画像を領域毎に分割する画像分割手段と、
    分割された領域の輪郭に基づいて書画情報を含んだ書画領域を抽出する領域抽出手段と、
    を具備することを特徴とする画像処理装置。
  2. 前記領域抽出手段により抽出された書画領域から四角形を検出する四角形検出手段と、
    該検出した四角形領域を正面から眺めた画像となるように逆射影変換するとともに、アスペクト比を調整する画像変換手段と、
    をさらに備えることを特徴とする請求項1に記載の画像処理装置。
  3. 前記画像分割手段は、
    ピクセル(若しくはピクセルの塊からなる多角形)からなるノードで構成される入力画像から、隣接するノード間をエッジで接続する隣接グラフを生成する隣接グラフ生成手段と、
    エッジで結ばれる各ノードが持つ属性値を比較した結果に基づいて重み因子をエッジに付与し、重み値に基づいて隣接グラフ中のエッジをソーティングする隣接グラフ評価手段と、
    ソートされた順に従ってエッジを挟むノードのペアを取り出し、ノード同士を統計的処理アルゴリズムに基づいて統合すべきか否かを評価し、ノードの統合処理を行なう統合処理手段を備え、
    入力画像を、それぞれのノードからなる複数の画像領域に分割する、
    ことを特徴とする請求項1に記載の画像処理装置。
  4. 前記統合手段により画像領域の統合処理をした結果として残された微細な領域を処理する微小領域処理手段をさらに備える、
    ことを特徴とする請求項3に記載の画像処理装置。
  5. 前記隣接グラフ評価手段は、隣接グラフのエッジで結ばれる各ノードが持つ属性値の相違をエッジの重み値として与えて、重み値の小さい順にソーティングを行なう、
    ことを特徴とする請求項3に記載の画像処理装置。
  6. 前記画像領域統合処理手段は、ノードを構成する画像領域の面積における集中不均衡現象から導き出される判断式に基づいて、隣接グラフのエッジで結ばれるノード同士を統合すべきかどうかを判断する、
    ことを特徴とする請求項3に記載の画像処理装置。
  7. 前記画像分割手段は、原画像から個々の書画などからなる前景領域を抜き取る第1の画像分割処理と、原画像から書画など以外の背景領域を抜き取る第2の画像分割処理を2元的に行なう、
    ことを特徴とする請求項3に記載の画像処理装置。
  8. 入力画像を微分処理する微分処理手段をさらに備え、
    前記隣接グラフ生成手段は、前記微分処理手段から出力される微分画像のうち帯域が所定値未満となるピクセルに対してのみ、他のピクセルと接続するエッジを付与して、部分的隣接グラフを作成し、
    前記統合処理手段は、境界に差し掛かっているノード同士を統合処理して、背景を1つの領域として統合して、書画からなる前景の画像領域を抜き取るとともに、書画が載せられている背景の画像領域を抜き取る、
    ことを特徴とする請求項7に記載の画像処理装置。
  9. 前記領域抽出手段は、別の領域の含まれる小領域を破棄し、最外周の輪郭からなる領域のみを抽出する、
    ことを特徴とする請求項1に記載の画像処理装置。
  10. 画像に含まれる書画情報を抽出する画像処理方法であって、
    入力画像を領域毎に分割する画像分割ステップと、
    分割された領域の輪郭に基づいて書画情報を含んだ書画領域を抽出する領域抽出ステップと、
    を具備することを特徴とする画像処理方法。
  11. 前記領域抽出ステップにおいて抽出された書画領域から四角形を検出する四角形検出ステップと、
    該検出した四角形領域を正面から眺めた画像となるように逆射影変換するとともに、アスペクト比を調整する画像変換ステップと、
    をさらに備えることを特徴とする請求項10に記載の画像処理方法。
  12. 前記画像分割ステップは、
    ピクセル(若しくはピクセルの塊からなる多角形)からなるノードで構成される入力画像から、隣接するノード間をエッジで接続する隣接グラフを生成する隣接グラフ生成ステップと、
    エッジで結ばれる各ノードが持つ属性値を比較した結果に基づいて重み因子をエッジに付与し、重み値に基づいて隣接グラフ中のエッジをソーティングする隣接グラフ評価ステップと、
    ソートされた順に従ってエッジを挟むノードのペアを取り出し、ノード同士を統計的処理アルゴリズムに基づいて統合すべきか否かを評価し、ノードの統合処理を行なう統合処理ステップを備え、
    入力画像を、それぞれのノードからなる複数の画像領域に分割する、
    ことを特徴とする請求項10に記載の画像処理方法。
  13. 前記統合ステップにおいて画像領域の統合処理をした結果として残された微細な領域を処理する微小領域処理ステップをさらに備える、
    ことを特徴とする請求項12に記載の画像処理方法。
  14. 前記隣接グラフ評価ステップでは、隣接グラフのエッジで結ばれる各ノードが持つ属性値の相違をエッジの重み値として与えて、重み値の小さい順にソーティングを行なう、
    ことを特徴とする請求項12に記載の画像処理方法。
  15. 前記画像領域統合処理ステップでは、ノードを構成する画像領域の面積における集中不均衡現象から導き出される判断式に基づいて、隣接グラフのエッジで結ばれるノード同士を統合すべきかどうかを判断する、
    ことを特徴とする請求項12に記載の画像処理方法。
  16. 前記画像分割ステップでは、原画像から個々の書画などからなる前景領域を抜き取る第1の画像分割処理と、原画像から書画など以外の背景領域を抜き取る第2の画像分割処理を2元的に行なう、
    ことを特徴とする請求項12に記載の画像処理方法。
  17. 入力画像を微分処理する微分処理ステップをさらに備え、
    前記隣接グラフ生成ステップでは、前記微分処理ステップにより得られる微分画像のうち帯域が所定値未満となるピクセルに対してのみ、他のピクセルと接続するエッジを付与して、部分的隣接グラフを作成し、
    前記統合処理ステップでは、境界に差し掛かっているノード同士を統合処理して、背景を1つの領域として統合して、書画からなる前景の画像領域を抜き取るとともに、書画が載せられている背景の画像領域を抜き取る、
    ことを特徴とする請求項16に記載の画像処理方法。
  18. 前記領域抽出ステップでは、別の領域の含まれる小領域を破棄し、最外周の輪郭からなる領域のみを抽出する、
    ことを特徴とする請求項10に記載の画像処理方法。
  19. 画像に含まれる書画情報を抽出するための処理をコンピュータ上で実行するようにコンピュータ可読形式で記述されたコンピュータ・プログラムであって、前記コンピュータに対し、
    入力画像を領域毎に分割する画像分割手順と、
    分割された領域の輪郭に基づいて書画情報を含んだ書画領域を抽出する領域抽出手順と、
    前記領域抽出手順において抽出された書画領域から四角形を検出する四角形検出手順と、
    該検出した四角形領域を正面から眺めた画像となるように逆射影変換するとともに、アスペクト比を調整する画像変換手順と、
    を実行させることを特徴とするコンピュータ・プログラム。
JP2006232582A 2006-08-29 2006-08-29 画像処理装置及び画像処理方法、並びにコンピュータ・プログラム Pending JP2008059081A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006232582A JP2008059081A (ja) 2006-08-29 2006-08-29 画像処理装置及び画像処理方法、並びにコンピュータ・プログラム
US11/895,735 US7986831B2 (en) 2006-08-29 2007-08-27 Image processing apparatus, image processing method and computer program
CN200710142586A CN100591100C (zh) 2006-08-29 2007-08-29 图像处理装置、图像处理方法和计算机程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006232582A JP2008059081A (ja) 2006-08-29 2006-08-29 画像処理装置及び画像処理方法、並びにコンピュータ・プログラム

Publications (2)

Publication Number Publication Date
JP2008059081A true JP2008059081A (ja) 2008-03-13
JP2008059081A5 JP2008059081A5 (ja) 2009-09-17

Family

ID=39151600

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006232582A Pending JP2008059081A (ja) 2006-08-29 2006-08-29 画像処理装置及び画像処理方法、並びにコンピュータ・プログラム

Country Status (3)

Country Link
US (1) US7986831B2 (ja)
JP (1) JP2008059081A (ja)
CN (1) CN100591100C (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011141715A (ja) * 2010-01-07 2011-07-21 Fuji Xerox Co Ltd 画像処理装置及び画像処理プログラム
JP2012094126A (ja) * 2010-09-29 2012-05-17 Nikon Corp 画像処理装置及び画像処理プログラム
JP2013508692A (ja) * 2009-10-22 2013-03-07 トムトム ジャーマニー ゲーエムベーハー ウント コー. カーゲー Gps軌跡を用いた付加的マップ生成、改良および拡張
US9420137B2 (en) 2014-03-06 2016-08-16 Pfu Limited Image-reading apparatus, image-processing method, and computer program product

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006132194A1 (ja) * 2005-06-07 2006-12-14 Sony Corporation 情報処理装置及び情報処理方法、画像処理装置及び画像処理方法、並びにコンピュータ・プログラム
US20080123795A1 (en) * 2006-11-28 2008-05-29 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Controllable long term operation of a nuclear reactor
TWI345413B (en) * 2007-10-23 2011-07-11 Avermedia Information Inc Document camera and its method for sharpening partial image on projected image
JP5596938B2 (ja) * 2009-06-02 2014-09-24 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US8577146B2 (en) * 2010-04-09 2013-11-05 Sony Corporation Methods and devices that use an image-captured pointer for selecting a portion of a captured image
CN102870135B (zh) * 2010-06-29 2016-02-03 富士胶片株式会社 用于形状提取的方法和装置、尺寸测量装置和距离测量装置
US9177041B2 (en) * 2010-09-03 2015-11-03 Robert Lewis Jackson, JR. Automated stratification of graph display
WO2012031301A1 (en) 2010-09-03 2012-03-08 Jackson Robert Lewis Jr Sparse dynamic selection trees
CN102456213A (zh) * 2010-10-20 2012-05-16 上海无戒空间信息技术有限公司 照片处理方法
JP5828649B2 (ja) 2011-03-09 2015-12-09 キヤノン株式会社 画像処理装置、画像処理方法、及びコンピュータプログラム
CN102915530B (zh) * 2011-08-01 2015-11-25 佳能株式会社 用于分割输入图像的方法和装置
JP5867198B2 (ja) * 2012-03-14 2016-02-24 オムロン株式会社 領域指定方法及び領域指定装置
JP6095283B2 (ja) 2012-06-07 2017-03-15 キヤノン株式会社 情報処理装置、およびその制御方法
CN102881027A (zh) * 2012-07-26 2013-01-16 方正国际软件有限公司 一种图像中确定区域四边形的检测方法及系统
CN105264486B (zh) * 2012-12-18 2018-10-12 汤姆森路透社全球资源无限责任公司 用于智能研究平台的手机可访问系统和过程
US9213907B2 (en) 2013-06-28 2015-12-15 Google Inc. Hierarchical classification in credit card data extraction
CN103400387B (zh) * 2013-08-06 2018-10-09 上海合合信息科技发展有限公司 在图像中线段吸附的方法及装置,构造多边形的方法及装置
AT515595A2 (de) * 2014-03-27 2015-10-15 9Yards Gmbh Verfahren zur optischen Erkennung von Zeichen
JP6469731B2 (ja) * 2014-06-12 2019-02-13 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 画像をセグメント化するためのパラメータの最適化
US9342830B2 (en) 2014-07-15 2016-05-17 Google Inc. Classifying open-loop and closed-loop payment cards based on optical character recognition
US10229494B2 (en) * 2015-09-22 2019-03-12 Case Western Reserve University Automated analysis of intravascular OCT image volumes
US10097747B2 (en) * 2015-10-21 2018-10-09 Qualcomm Incorporated Multiple camera autofocus synchronization
US9799106B2 (en) * 2015-12-16 2017-10-24 Dropbox, Inc. Enhancing a digital image
CN105741308A (zh) * 2016-03-07 2016-07-06 英华达(上海)科技有限公司 一种多维视觉图像的获取方法及系统
CN107368829B (zh) * 2016-05-11 2020-08-14 富士通株式会社 确定输入图像中的矩形目标区域的方法和设备
CN105979234B (zh) * 2016-06-13 2019-03-19 Tcl集团股份有限公司 一种投影图像校正的方法及投影装置
US9934431B2 (en) * 2016-07-27 2018-04-03 Konica Minolta Laboratory U.S.A., Inc. Producing a flowchart object from an image
CN106251358B (zh) * 2016-08-08 2019-05-07 珠海赛纳打印科技股份有限公司 一种图像处理方法及装置
CN108171712B (zh) * 2016-12-07 2022-02-11 富士通株式会社 确定图像相似度的方法和装置
CN107977390B (zh) * 2017-03-09 2021-10-26 北京物灵智能科技有限公司 绘本识别方法、装置、系统及电子设备
CN107506469A (zh) * 2017-08-31 2017-12-22 北京小米移动软件有限公司 图片获取方法、装置及计算机可读存储介质
CN109784227B (zh) * 2018-12-29 2019-12-10 深圳爱莫科技有限公司 图像检测识别方法和装置
US10936178B2 (en) * 2019-01-07 2021-03-02 MemoryWeb, LLC Systems and methods for analyzing and organizing digital photos and videos
CN110163300B (zh) * 2019-05-31 2021-04-23 北京金山云网络技术有限公司 一种图像分类方法、装置、电子设备及存储介质
CN110334768B (zh) * 2019-07-08 2023-08-22 创新奇智(重庆)科技有限公司 一种冰柜陈列检测方法、系统及电子设备
CN110490132B (zh) * 2019-08-16 2020-09-29 京东城市(北京)数字科技有限公司 数据处理方法和装置
KR20220149511A (ko) * 2020-01-29 2022-11-08 유아이아머닷컴 엘엘씨 이미지 처리를 위한 시스템, 방법 및 디바이스
CN112016438B (zh) * 2020-08-26 2021-08-10 北京嘀嘀无限科技发展有限公司 一种基于图神经网络识别证件的方法及系统
CN112399236B (zh) * 2020-10-09 2022-08-26 北京达佳互联信息技术有限公司 一种视频查重方法、装置及电子设备
CN112487537A (zh) * 2020-12-08 2021-03-12 亿景智联(北京)科技有限公司 一种基于全卷积神经网络的建筑面多级优化提取方法
US11158031B1 (en) 2021-05-24 2021-10-26 ReportsNow, Inc. Systems, methods, and devices for image processing
CN114549703B (zh) * 2022-01-25 2024-04-12 华南理工大学 一种快速动画图像生成方法、系统、装置及存储介质
CN114647472B (zh) * 2022-03-24 2023-08-15 北京字跳网络技术有限公司 图片处理方法、装置、设备、存储介质和程序产品

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000228722A (ja) * 1999-02-04 2000-08-15 Seiko Epson Corp 傾き調整及び写真配置のための方法、装置および記録媒体
JP2005277732A (ja) * 2004-03-24 2005-10-06 Nippon Telegr & Teleph Corp <Ntt> 矩形画像の四隅検出方法及び装置及びプログラム及び矩形画像の四隅検出プログラムを格納した記憶媒体

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2736879B2 (ja) * 1995-10-30 1998-04-02 株式会社超高速ネットワーク・コンピュータ技術研究所 三次元図形データ削減方法
US6738154B1 (en) * 1997-01-21 2004-05-18 Xerox Corporation Locating the position and orientation of multiple objects with a smart platen
US5974199A (en) * 1997-03-31 1999-10-26 Eastman Kodak Company Method for scanning and detecting multiple photographs and removing edge artifacts
KR100294924B1 (ko) * 1999-06-24 2001-07-12 윤종용 영상분할 장치 및 방법
AUPR788101A0 (en) * 2001-09-24 2001-10-18 Canon Information Systems Research Australia Pty Ltd Scanning and detecting a number of images
US6898316B2 (en) * 2001-11-09 2005-05-24 Arcsoft, Inc. Multiple image area detection in a digital image
JP2003283909A (ja) 2002-03-20 2003-10-03 Ricoh Co Ltd 名刺取り込み機能付きカラー画像撮影装置
US7305129B2 (en) * 2003-01-29 2007-12-04 Microsoft Corporation Methods and apparatus for populating electronic forms from scanned documents
JP2005275447A (ja) 2004-03-22 2005-10-06 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
WO2006132194A1 (ja) * 2005-06-07 2006-12-14 Sony Corporation 情報処理装置及び情報処理方法、画像処理装置及び画像処理方法、並びにコンピュータ・プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000228722A (ja) * 1999-02-04 2000-08-15 Seiko Epson Corp 傾き調整及び写真配置のための方法、装置および記録媒体
JP2005277732A (ja) * 2004-03-24 2005-10-06 Nippon Telegr & Teleph Corp <Ntt> 矩形画像の四隅検出方法及び装置及びプログラム及び矩形画像の四隅検出プログラムを格納した記憶媒体

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013508692A (ja) * 2009-10-22 2013-03-07 トムトム ジャーマニー ゲーエムベーハー ウント コー. カーゲー Gps軌跡を用いた付加的マップ生成、改良および拡張
US9322660B2 (en) 2009-10-22 2016-04-26 Tomtom Germany Gmbh & Co. Kg Incremental map generation, refinement and extension with GPS traces
JP2011141715A (ja) * 2010-01-07 2011-07-21 Fuji Xerox Co Ltd 画像処理装置及び画像処理プログラム
JP2012094126A (ja) * 2010-09-29 2012-05-17 Nikon Corp 画像処理装置及び画像処理プログラム
US8792716B2 (en) 2010-09-29 2014-07-29 Nikon Corporation Image processing apparatus for region segmentation of an obtained image
US9420137B2 (en) 2014-03-06 2016-08-16 Pfu Limited Image-reading apparatus, image-processing method, and computer program product

Also Published As

Publication number Publication date
CN100591100C (zh) 2010-02-17
US20080056572A1 (en) 2008-03-06
CN101137011A (zh) 2008-03-05
US7986831B2 (en) 2011-07-26

Similar Documents

Publication Publication Date Title
JP2008059081A (ja) 画像処理装置及び画像処理方法、並びにコンピュータ・プログラム
CN101416219B (zh) 数字图像中的前景/背景分割
US10523894B2 (en) Automated selection of keeper images from a burst photo captured set
JP4772839B2 (ja) 画像識別方法および撮像装置
US7933454B2 (en) Class-based image enhancement system
US8320672B2 (en) Image processing apparatus, image processing method, and computer program
DE102021001438A1 (de) Belichtungsdefektklassifizierung von Bildern unter Nutzung eines neuronalen Netzwerkes
US10455163B2 (en) Image processing apparatus that generates a combined image, control method, and storage medium
KR101906796B1 (ko) 딥러닝 기반 영상 분석 장치 및 영상 분석 방법
Orozco et al. Techniques for source camera identification
US20130208984A1 (en) Content scene determination device
Leal et al. Smartphone camera document detection via Geodesic Object Proposals
US9995905B2 (en) Method for creating a camera capture effect from user space in a camera capture system
JP5232107B2 (ja) 画像表示方法、プログラム、画像表示装置、及び、撮像装置
JP6776532B2 (ja) 画像処理装置、撮像装置、電子機器及び画像処理プログラム
KR101636481B1 (ko) 컴파운드뷰 이미지 생성 방법 및 장치
CN111862106A (zh) 基于光场语义的图像处理方法、计算机装置、及存储介质
Kakar Passive approaches for digital image forgery detection
RU2411585C1 (ru) Способ и система генерации анимированного изображения для предварительного просмотра
Hu Novel methods for image processing, image analysis, machine learning and deep learning with applications to on-line fashion retailing, print quality assessment, and image enhancement
Forsyth et al. Computer Vision-ECCV 2008: 10th European Conference on Computer Vision, Marseille, France, October 12-18, 2008, Proceedings
Stanco et al. Virtual Restoration of Antique Books and Photographs
Pradhan et al. Residual Domain-Rich Models and their Application in Distinguishing Photo-Realistic and Photographic Images
Bhuvaneswari et al. Performance analysis on image acquisition techniques in edge detection
CN116758255A (zh) 一种自动识别视频画面走向并进行全景图像拼接方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090731

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110222

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110628