JP4910049B2 - 印刷走査チャンネルを通じて処理されたディジタル画像を再構成するための補助情報 - Google Patents

印刷走査チャンネルを通じて処理されたディジタル画像を再構成するための補助情報 Download PDF

Info

Publication number
JP4910049B2
JP4910049B2 JP2009532420A JP2009532420A JP4910049B2 JP 4910049 B2 JP4910049 B2 JP 4910049B2 JP 2009532420 A JP2009532420 A JP 2009532420A JP 2009532420 A JP2009532420 A JP 2009532420A JP 4910049 B2 JP4910049 B2 JP 4910049B2
Authority
JP
Japan
Prior art keywords
image
input image
auxiliary information
auxiliary
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009532420A
Other languages
English (en)
Other versions
JP2010507273A (ja
Inventor
サマダニ,ラミン
ムカージー,デバーハ
ファン,ジャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Publication of JP2010507273A publication Critical patent/JP2010507273A/ja
Application granted granted Critical
Publication of JP4910049B2 publication Critical patent/JP4910049B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32128Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title attached to the image data, e.g. file header, transmitted message header, information on the same page or in the same computer file as the image
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B27/00Photographic printing apparatus
    • G03B27/72Controlling or varying light intensity, spectral composition, or exposure time in photographic printing apparatus
    • G03B27/73Controlling exposure by variation of spectral composition, e.g. multicolor printers
    • G03B27/735Controlling exposure by variation of spectral composition, e.g. multicolor printers in dependence upon automatic analysis of the original
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03DAPPARATUS FOR PROCESSING EXPOSED PHOTOGRAPHIC MATERIALS; ACCESSORIES THEREFOR
    • G03D15/00Apparatus for treating processed material
    • G03D15/001Counting; Classifying; Marking
    • G03D15/003Marking, e.g. for re-printing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32128Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title attached to the image data, e.g. file header, transmitted message header, information on the same page or in the same computer file as the image
    • H04N1/32133Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title attached to the image data, e.g. file header, transmitted message header, information on the same page or in the same computer file as the image on the same paper sheet, e.g. a facsimile page header
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6027Correction or control of colour gradation or colour contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3242Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document of processing required or performed, e.g. for reproduction or before recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3274Storage or retrieval of prestored additional information
    • H04N2201/3277The additional information being stored in the same storage device as the image data

Description

背景
印刷画像は、ディジタルフォーマットへと慣例的に走査され、その結果、該印刷画像を、コンピュータによって操作することが可能になる。しかしながら、その結果として生じた走査画像は、印刷走査チャンネル内における固有の不完全性のため、印刷画像を作成するために使用されたオリジナルのディジタル画像とは異なる。具体的には、ディジタル画像を物理領域に印刷して、その印刷画像をディジタル領域へと戻すように走査するプロセスによって、歪、エラー(誤差)、及び、走査画像に現れる他の欠陥が挿入される。
印刷走査チャンネルによって挿入される、走査画像内の歪を補正するために、Adobe Photoshop(登録商標)のような市販のソフトウェアパッケージが利用可能である。しかしながら、このタイプの大抵の手動画像再構成システムは、対応する走査画像からのオリジナルのディジタル画像を手動で再構成するためにそれら手動画像再構成システムが使用可能になる前に、資金、時間、及び労力のかなりの出資を必要とする。ユーザが、手動画像再構成システムを使用することに熟練した後でさえも、走査画像を編集するプロセスは、典型的には、時間を消費し、労力集約的である。走査画像コンテンツを自動的に再構成するための幾つかのアプローチが提案されてきたが、これらのアプローチは、典型的には、オリジナルのディジタル画像に対する高品質な近似を生み出すことができない一般的な補正ルーチンを用いている。
印刷走査チャンネルを通じて処理されたディジタル画像の高品質な近似を再構成することが可能な方法及びシステムが必要とされている。
概要
一態様において、基準ピクセルの値を含む補助情報が、入力画像から抽出されることによる画像処理方法を、本発明は特徴とする。該補助情報は、補助データ構成にエンコードされる。入力画像の表現を含む出力画像データが生成される。少なくとも1つの物理記憶媒体内に、前記補助データ構成が、前記出力画像データに関連付けられて格納される。
一態様において、入力画像を含む出力画像データのハードコピーから走査画像データが取得されることによる画像処理方法を、本発明は特徴とする。前記出力画像データに関連付けられた補助データ構成がデコードされて、デコード補助情報が生成される。走査画像データ内の入力画像のコーナーのロケーションが推定される。該推定されたコーナロケーション内における走査画像データがゆがめられて(ワープされて)、走査画像データ内のサンプル点が取得される。推定されたコーナロケーション内における走査画像データの一部分が、デコード補助情報内の複数の基準ピクセル値と、走査画像データ内における対応するロケーションにおける複数のサンプル点の値との間の対応関係(相関性)に基づいて、記録される。補助データ構成内の複数の基準ピクセル値のうちの(1つ以上の)基準ピクセル値と、前記記録された画像の複数サンプル点のうちの対応する(1つ以上の)サンプル点の値との間の色変換が導出される。該色変換が、該記録された画像に対して適用されて、色補正された画像が得られる。
別の態様において、補助情報処理構成要素と、エンコーディング処理構成要素と、出力画像処理構成要素とを含む画像処理システムを、本発明は特徴とする。該補助情報処理構成要素は、基準ピクセルの値を含む補助情報を、入力画像から抽出する。エンコーディング処理構成要素は、該補助情報を、補助データ構成内へとエンコードする。出力画像処理構成要素は、入力画像の表現を含む出力画像データを生成する。該エンコーディング処理構成要素と該出力画像処理構成要素とのうちの少なくとも一方が、補助データ構成を、出力画像データに関連付けて、少なくとも1つの物理記憶媒体内に格納する。
本発明の他の特徴と利点とが、図面及び特許請求の範囲を含む以下の説明から明らかになってくるであろう。
例示的な一アプリケーション環境内における、入力画像処理システムの一実施形態、及び走査画像再構成システムの一実施形態のブロック図である。 入力画像処理方法の一実施形態の流れ図である。 補助情報処理構成要素の一実施形態のブロック図である。 入力画像全体にわたるピクセルの一定間隔のブロックの対応するセットの境界を定めるブロック境界のセットが上に重ね合わされている例示的な一入力画像の図面である。 入力画像全体にわたる一定間隔のピクセルサンプル点の対応するセットの境界を定める境界のセットが上に重ね合わされている、図4A内に示された入力画像の図面である。 入力画像をエンコードする方法の一実施形態の流れ図である。 本発明の一実施形態による、変換係数の分布、量子化された変換係数のセットについての確率質量関数、及び、量子化された変換係数から導出された剰余指数の確率質量関数を示す図である。 ブロック変換をコーディングする方法の一実施形態の概略図である。 走査画像処理方法の一実施形態の流れ図である。 走査画像データの入力画像部分を記録する方法の一実施形態の流れ図である。 本発明の一実施形態による、変換係数の分布、確率分布、及び、剰余指数のデコーディングの一例を示す図である。
詳細な説明
以下の説明において、同様の参照符号は、同様の要素を同定するために用いられる。更に、図面は、例示的な実施形態の主要な特徴を図式的に説明するように意図されている。図面は、実際の実施形態における全ての特徴を図示するようには意図されておらず、図示された要素の相対的な寸法を図示するようにも意図されておらず、一定の縮尺に従うようには描かれてはいない。破線で示された要素は、そのような要素が組み込まれた図示された実施形態内におけるオプションの要素である。
I.序論
本明細書内において詳細に説明される実施形態に従って、ディジタル入力画像から補助情報が抽出される。該補助情報は、入力画像の基準特徴(リファレンス特徴)を、記述するか又は別様には取り込む。印刷走査チャンネルを通じて処理された複数入力画像のうちの(1つ以上の)入力画像を再構成することにおいて、該補助情報は使用される。以下で詳細に説明されるように、該補助情報によって、これらの実施形態が、オリジナルのディジタル入力画像の高品質な近似を、再構成することが可能になる。
II.例示的な一アプリケーション環境内における入力画像処理システム及び走査画像処理システムの概要
図1は、データベース16と印刷走査チャンネル18とを含む例示的な一アプリケーション環境14内における入力画像処理システム10及び走査画像処理システム12の一実施形態を示す。入力画像処理システム10は、補助情報処理構成要素20、エンコーディング処理構成要素22、及び出力画像処理構成要素23を備える。走査画像処理構成要素12は、デコーディング処理構成要素24、及び画像再構成処理構成要素26を備える。印刷走査チャンネル18は、印刷ステージ28、文書ハンドリングステージ30、及び走査ステージ32を含む。
作動中、入力画像処理システム10は、ディジタル入力画像34を処理して、出力画像データ36を生成する。該出力画像データ36は、印刷走査チャンネル18の印刷ステージ28に送られる。入力画像20は、任意のタイプのディジタル画像に対応することができる。該任意のタイプのディジタル画像には、画像センサ(例えば、ディジタルビデオカメラか、ディジタル静止画像カメラか、又は光学スキャナ)によってキャプチャーされたオリジナル画像(例えば、ビデオキーフレームか、静止画像か、又は走査された画像)か、或いは、このようなオリジナル画像が処理された(例えば、サブサンプリングされたか、フィルタリングされたか、再フォーマットされたか、強調されたか、又は別様に変更された)バージョンが含まれる。
入力画像34を処理する過程において、補助情報処理構成要素20は、入力画像34の基準特徴を記述するか又は別様には取り込む補助情報38を、入力画像34から抽出する。エンコーディング処理構成要素22は、補助情報38を、補助データ構成40(例えば、テーブルか、リストか、又はエンコードされた特徴ベクトルのセット)内にエンコードする。幾つかの実施形態において、エンコーディング処理構成要素22は、補助データ構成40をデータベース16内に格納する。該補助データ構成40は、識別子(例えば、ラベルか、又はアドレス、統一資源識別子(URI)など)を含むインデックスを含む。該識別子をデータベース16内へのインデックスとして使用して、該識別子により、補助データ構成40が検索されることが可能になる。これらの実施形態において、出力画像処理構成要素23が、補助データ構成40の識別子を、出力画像データ36内へと組み込む。他の実施形態では、エンコーディング処理構成要素22が、補助データ構成40を、出力画像処理構成要素23に送り、出力画像処理構成要素23が、該補助データ構成40を出力画像データ36内へと組み込む。
印刷走査チャンネル18内において、出力画像データ36は、印刷ステージ28によって1つか又は複数のハードコピー42へと変換される。出力画像データ36のハードコピー42が印刷された後のある時に、走査ステージ32によって電子走査画像データ44へと変換される前に、ハードコピー42が、ハンドリングステージ30を通じて処理される。
出力画像データ36を、従来のプリンタ(例えば、米国カリフォルニア州パロアルトのヒューレット・パッカード・カンパニーから入手可能なLaserJet(登録商標)プリンタ)か、又は専用のラベル印刷装置によって印刷することができる。ハードコピー42は、多種多様な印刷物のうちの任意の1つの形態とすることができる。該多種多様な印刷物には、写真プリント、引き出し可能の許可署名のグラフィカルバーコードを伴った銀行為替手形(又は銀行小切手)、実物認証のグラフィカルバーコードを伴った株券又は債券、及び郵便料金別納郵便証のグラフィカルバーコードを伴った封筒が含まれる。補助データ構成40が出力画像データ36内に組み込まれる実施形態において、補助データ構成40を、(例えば、1次元又は2次元のバーコードか、グラフィカルバーコードか、又は透かし模様における)印刷画像データにエンコードすることができる。これらの実施形態のうちの幾つかにおいて、補助データ構成40に対応する出力画像データ36の一部分が、入力画像34に対応する出力画像データ36の一部分として、印刷媒体(例えば、1枚の用紙)の裏側上に印刷される。
ハンドリングステージ30を通過した後、ハードコピー42を、高品質のデスクトップ光学スキャナによって走査することができる。一般的には、該スキャナの解像度は、1つか又は複数のハードコピー42内の詳細部を解像することができるように、出力画像データ36が印刷される解像度と少なくとも一致すべきである。走査解像度は、典型的には、入力画像34上のピクセル数(例えば、5メガピクセル)と、物理的な印刷サイズ(例えば、0.1016m(4インチ)×0.1524m(6インチ)に依存する。600ドット毎インチ(dpi)の走査解像度(以下、1インチは、0.0254m)は、典型的には、走査画像処理システム12が出力画像データ36の典型的なハードコピーから入力画像34を適正に再構成するのに十分である。走査ステージ32は、走査画像データ44を、処理するために走査画像処理システム12に送る。走査画像処理システム12によって取得される走査画像データ44は、オリジナル入力34の劣化したバージョンである。これらの劣化は、印刷ステージ28(例えば、色歪)、ハンドリングステージ30(例えば、劣化部、しみ、折り目、留め金、及びマーキングをコピーすること)、並びに、走査ステージ32(例えば、色歪及び記録歪)を含む、印刷走査チャンネル18内におけるステージのうちの、1つか又は複数のステージにおいて、生じられる可能性がある。
走査画像処理システム12は、走査画像データ44を処理して、入力画像34の高品質な近似に対応する出力画像46を生成する。走査画像データ44を処理する過程において、デコーディング処理構成要素24は、エンコードされた補助データ構成40を、データベース16か又は走査画像データ44のいずれかから検索して、補助データ構成40をデコードして、デコード補助情報48を生成する。以下で詳細に説明するように、画像再構成処理構成要素26は、走査画像データ44から出力画像46を生成するプロセスにおいて、該デコード補助情報48を使用する。
一般には、入力画像処理システム10及び走査画像処理システム12の各々を、いかなる特定のハードウェア構成か、ファームウェア構成か、又はソフトウェア構成にも制限されない1つか又は複数のディスクリートな処理構成要素(又はモジュール)によって実現することができる。図示された実施形態では、処理構成要素20、22、23、24、26を、ディジタル電子回路構成(例えば、ディジタル信号プロセッサ(DSP)のような特定用途向け集積回路)におけるか或いはコンピュータハードウェアか、ファームウェアか、デバイスドライバか、若しくはソフトウェアにおけることを含む任意のコンピューティング環境内か又はデータ処理環境内において実現することができる。幾つかの実施形態において、処理構成要素20、22、23、24、26のうちの複数の処理構成要素の機能が、単一の処理構成要素に結合される。幾つかの実施形態において、1つか又は複数の処理構成要素20、22、23、24、26のうちの各々の処理構成要素の各機能は、複数の処理構成要素のそれぞれのセットによって実行される。
幾つかの実施形態において、入力画像処理システム10と走査画像処理システム12とによって実行される方法を実施するためのコンピュータ処理命令、並びに、それらシステムが生成するデータは、1つか又は複数のマシン可読媒体内に格納される。これらの命令及びデータを明白に具現化するために適合可能な記憶装置は、全ての形態の不揮発性メモリを含む。該全ての形態の不揮発性メモリには、例えば、EPROM、EEPROM、及びフラッシュメモリデバイスのような半導体メモリデバイス、内蔵ハードディスク及び着脱可能ハードディスクのような磁気ディスク、光磁気ディスク、DVD−ROM/RAM、並びにCD−ROM/RAMが含まれる。
III.入力画像処理システム及びその構成要素の例示的な実施形態
A.序論
図2は、入力画像処理システム10によって実施される方法の一実施形態を示す。この方法に従って、補助情報処理構成要素20は、(複数の)基準ピクセルの値を含む補助情報38を、入力画像34から抽出する(図2のブロック50)。エンコーディング処理構成要素22は、補助情報38を補助データ構成40内へとエンコードする(図2のブロック52)。出力画像処理構成要素23は、入力画像34の表現を含む出力画像データ36を生成する(図2のブロック54)。エンコーディング処理構成要素22と出力画像処理構成要素23とのうちの少なくとも一方が、補助データ構成40を、出力画像データ36に関連付けて、少なくとも1つの物理記憶媒体内に格納する(図2のブロック56)。該少なくとも1つの物理記憶媒体は、電子メモリデバイス(例えば、コンピュータ可読記憶媒体)か、又は1つか又は複数の印刷媒体の集まり(例えば、複数枚の用紙)のうちの少なくとも一方とすることができる。
B.入力画像からの補助情報の抽出
補助情報処理構成要素20は、(複数の)基準ピクセルの値を含む補助情報38を、入力画像34から抽出する(図2のブロック50;図1を参照)。ディジタル入力画像34から抽出されることが可能であり、且つ、印刷走査チャンネル18を通じて出力画像データ36を処理した結果として生じた走査画像データ44からディジタル入力画像34の近似を再構成することにおいて支援するために用いられることが可能な任意の情報を、一般に補助情報38は含む。
図3は、K個の特徴抽出器のセットを含む補助情報処理構成要素20の一実施形態を示す。ここで、Kは、少なくとも1つの整数値を有する。特徴抽出器のそれぞれは、ディジタル入力画像34のそれぞれの基準特徴に対応する値を抽出する。図示された実施形態において、抽出された値は、K個の特徴ベクトルのセット58の形態で出力される。これらK個の特徴ベクトルは、特徴ベクトルシーケンス60に集約され、該特徴ベクトルシーケンスは、補助情報38内に含められる。
ディジタル入力画像34の水平ピクセル寸法及び垂直ピクセル寸法と、出力画像処理構成要素23によって印刷走査チャンネル18の印刷ステージ28に対して指定される、入力画像34における1つか又は複数のハードコピー42についての物理的な印刷サイズと、入力画像34における1つか又は複数の選択された基準ピクセルの値とを、例示的な基準特徴は含む。多重解像度基準情報もまた、実現可能であり、この場合には、異なる空間解像度における入力画像の領域の平均が特徴となる。ディジタル入力画像34のピクセル寸法は、典型的には、ディジタル入力画像34が格納されている電子ファイル(例えば、JPEGファイル)に関連付けられるフレームセグメントのヘッダ、すなわち先頭から抽出される。入力画像34の物理的な印刷サイズは、典型的には、入力画像処理システム10のユーザによってか、又は幾つかの他の外部ソースによって、出力画像処理構成要素23に対して指定される。(複数の)基準ピクセルは、典型的には、ロケーションを有する入力画像34のピクセルであり、該ロケーションは、それらのピクセル座標値によってか、又は近傍ピクセルの値に対するそれらの値によって、識別されることが可能である。
幾つかの実施形態において、入力画像34にわたる一定間隔のロケーションにおける基準ピクセルの値が、1つか又は複数の特徴ベクトル内に組み込まれる。該1つか又は複数の特徴ベクトルは補助情報38に含まれる。基準ピクセルのロケーションが既知である場合にか、又は基準ピクセルのロケーションを走査画像処理システム12によって単独で決定することができる場合には、これらのロケーションの指定を補助情報38に含める必要はない。一方、基準ピクセルのロケーションが既知でなく、且つ、基準ピクセルのロケーションを走査画像処理システム12によって単独で決定することができない場合には、これらの基準ピクセルのロケーションの指定が、補助情報38内に含められる。
図4A内に示されるように、基準ピクセルは、入力画像34にわたって一定間隔のロケーションに分散された(クロスハッチングで示された)ブロック62内のピクセルに対応することができる。一般には、ピクセルブロック62のそれぞれは、A個のピクセル高×B個のピクセル幅のサイズを有する。ここで、A及びBは、少なくとも1つの整数値を有し、AとBとのうちの少なくとも一方は、少なくとも2つの値を有する。幾つかの実施形態において、入力画像34にわたる一定間隔のロケーションにおけるブロック内におけるピクセルの輝度値(例えば、YCrCb色空間の輝度値)が選択されて、補助情報38内に含まれる特徴ベクトルが形成される。図4Bに示されるように、基準ピクセルはまた、入力画像34にわたって分散される一定間隔のピクセルロケーション64における個々のピクセルに対応することもできる。幾つかの実施形態において、入力画像34にわたる一定間隔のピクセルロケーションにおけるピクセルの色値(例えば、RGB色空間のRGB値か、又は、YCrCb色空間内の赤及び青のクロミナンス値)が選択されて、補助情報38内に含まれる1つか又は複数の特徴ベクトル58が形成される。
幾つかの実施形態において、入力画像34の基準ピクセルは、各々のインタレストオペレータ(関心演算子)によって実施される複数の特徴抽出器のうちの(1つ以上の)特徴抽出器によって識別される。該特徴抽出器は、基準ピクセルを、近傍ピクセルの値に対するそれら基準ピクセルの値に基づいて識別する。これらの実施形態において、識別された基準ピクセルの値及びロケーションは、典型的には、補助情報28に含まれる1つか又は複数の特徴ベクトル58を形成する。一般に、任意のタイプのインタレストオペレータを使用して、基準ピクセルを選択することができる。幾つかの実施形態において、1つか又は複数の記録インタレストオペレータが使用されて、記録基準ピクセルが識別される。該記録基準ピクセルの値は、走査画像データ44を記録するための目印として機能する。幾つかの実施形態において、1つか又は複数の色補正インタレストオペレータが使用されて、色基準ピクセルが識別される。該色基準ピクセルの値は、走査画像データ44を色補正するための色基準の役割を果たす。
記録インタレストオペレータは、典型的には、入力画像34の顕著な(目立つ)特徴を識別するよう設計される。幾つかの実施形態において、1つか又は複数の記録インタレストオペレータを入力画像34に対して適用することによって、局所的にユニークな視覚的特徴(例えば、コーナ、テクスチャ、エッジ、及び他の構造的要素)に関連付けられる、入力画像の高顕著性領域(例えば、ブロック)を、補助情報処理構成要素20が識別する。一般に、任意の1つか又は複数の多種多様な様々なタイプの記録インタレストオペレータを、この目的のために使用することができる。記録インタレストオペレータは、統計的なものか、構造的なものか、又はシンタックス的なものとすることができる。入力画像34内のコントラストのレベルと、入力画像34内のピクセル値の大きさ(振幅)と、入力画像34内のピクセル値のエネルギーと、入力画像34内のピクセル値の分散と、入力画像内の勾配値分布の歪みと、入力画像のエッジ周波数と、のうちの1つか又は複数の検出に基づいて、記録インタレストオペレータは、高顕著性領域を識別することができる。例示的な記録インタレストオペレータは、コーナ検出インタレストオペレータ(例えば、Moravecインタレストオペレータのような輝度分散ベースのインタレストオペレータ、及び、入力画像34にわたる局所的な領域に適用される自己相関関数のピークを識別する自己相関ベースのインタレストオペレータ)と、スケール不変特徴変換(SIFTs)とを含む。記録インタレストオペレータを、個々のピクセルか、局所的な領域(例えば、ピクセルのブロック)か、又は入力画像34の全ピクセルに適用することができる。
幾つかの色補正インタレストオペレータは、入力画像34についての色範囲全体ボリュームに広がる色値を有するピクセルを識別する。これらの実施形態の幾つかにおいて、色補正インタレストオペレータは、入力画像34の低テクスチャ領域内のピクセルを識別する。任意の多種多様な様々なテクスチャ感応インタレストオペレータを使用して、入力画像34の低テクスチャ領域を識別することができ、該識別された低テクスチャ領域内の色基準ピクセルを選択することができる。
幾つかの実施形態において、補助情報処理構成要素20は、入力画像34から抽出されるコーディングされた変換係数を、補助情報38内に、追加的に含む。これらの実施形態において、走査画像データ44をサイド情報として用いて、走査画像処理システム12によって入力画像34の高品質な近似へと再構成されることが可能な入力画像34の歪バージョンを、コーティングされた変換係数が表す。これらの実施形態のうちの幾つかにおいて、コーディングされた変換係数は、Wyner−Zivソースコーディングプロセスに従って入力画像34から生成され、対応するWyner−Zivサイド情報デコーディングプロセスに従って出力画像46を生成するために使用される。
図5は、補助情報処理構成要素20によって実行されて、コーディングされた変換係数を生成する方法の一実施形態を示す。この方法に従って、補助情報処理構成要素20は、量子化された周波数領域ベクトルのシーケンスを、入力画像のブロックのシーケンスから生成する(図5のブロック70)。補助情報処理構成要素20は、周波数領域ベクトルの各々から、剰余指数(coset index)のそれぞれのセットを計算する(図5のブロック72)。補助情報処理構成要素20は、剰余指数の各セットのそれぞれのサブセットを、補助情報38と共に出力する(図5のブロック74)。
幾つかの実施形態において、入力画像34は、N個の画像ブロックの母集団へと分割される。ここで、Nは、正の整数値を有する。幾つかの実施形態において、入力画像34は、ラスタ/ブロック変換器によって8×8ピクセルの画像ブロックに分解される。該ラスタ/ブロック変換器を、補助情報処理構成要素20内において組み込むことができるか、又は、入力画像処理システム10の別個の処理構成要素とすることができる。
補助情報処理構成要素20の順方向変換モジュールは、複数画像ブロックのうちのそれぞれの(1つ以上の)画像ブロックから周波数領域ベクトルを生成する。各周波数領域ベクトルは、複数画像ブロックのうちのそれぞれの(1つ以上の)画像ブロックから導出される変換係数のそれぞれのセットを含む。周波数領域ベクトルは、入力画像内の空間周波数情報に対応する。一般に、順方向の変換モジュールは、任意の種類のブロック変換を、画像ブロックに対して適用することができる。例示的なタイプのブロック変換には、コサイン変換、フーリエ変換、アダマール変換、ハールウェーブレット変換、及びウェーブレットベースの分解変換が含まれる。
該変換を計算した後、係数が、量子化され、次いで、それぞれの剰余指数にエンコードされる。幾つかの実施形態において、補助情報処理構成要素20は、零にセンタリングされた指数での奇数モジュラス(奇数MOD)の剰余類を計算することによって、量子化された変換係数をエンコードする。例えば、xが係数であり、その量子化された値が、不感帯(デッドゾーン)を有する可能性のある量子化ステップQに基づいて、q=φ(x,Q)によって与えられる場合には、位数Mの剰余指数c=ψ(q,M)が、次の式(1)に従って計算される。
Figure 0004910049
xの分布が、一般化されたガウス分布(例えば、ラプラス分布)であると仮定すると、qの確率質量関数は、幾何学形状のようになる。具体的には、x(q)が、量子化bin qの下限を示し、x(q)が量子化bin qの上限を示し、ここで、q∈Ω={−qmax,−qmax+1,・・・,−1,0,1,・・・,qmax−1,qmax}である場合には、q番目のbinの確率は、次式のようになる。
Figure 0004910049
図6内に示されるように、奇数のMについての剰余指数ψ(q,M)の確率質量関数p(c)は、量子化された係数qの確率質量関数p(q)よりもかなり平坦であるが、それでも対称的であり、その最頻値(モード)として0を有し、大きさが増加すると共に減衰する。具体的には、次式のようになる。
Figure 0004910049
この特徴によって、標準的なJPEGエントロピー符号化器(コーダ)により剰余指数が効果的にコーディングされることが可能になる。該JPEGエントロピー符号化器を、エンコーディング処理構成要素22の幾つかの実施形態内に含めることができる。しかしながら、より良い性能は、異なるエントロピー符号化器の利用によって達成されることになる。該異なるエントロピー符号化器は、具体的には、Mの知識を使用して、伝達される文字体系(アルファベット)のサイズを制約する。
幾つかの実施形態において、変換ブロックの全ての非ゼロの剰余指数のサブセットのみが、補助データ構成40内に含まれる。詳細には、少数の低周波数係数のみが、各ブロックごとに送られる一方で、その残りは、下流の走査画像処理システム12によって実行されるサイド情報生成動作によって完全に回復させられるために、そのまま残される。ジグザグ走査順序で送られる係数の個数は、nで示される。追加的には、qの計算に使用される量子化ステップサイズQ、並びに、剰余指数ψ(q,M)の計算に使用されるMの値は、ブロック内の係数ごとに変更される。これらのステップサイズ及びモジュラス(MOD)は、Qij及びMijとしてそれぞれ示される。ここで、i,j=0,1,・・・,B−1,Bであり、ここで、Bはブロックサイズである。最も高い周波数は、所望の量に対応する量子化パラメータよりも細かく量子化され、剰余類モジュラスMijのより小さな値でエンコードされる。DC係数については、剰余類の計算がされずに真値のみが、補助情報38と共に出力される。クロミナンス成分についての係数もまた、同様にコーディングされるが、通常、輝度成分よりも、より少ない係数が伝達される。
デコーディングについては、量子化されないサイド情報y及び受け取られた剰余指数cに基づく各係数ごとの最小二乗誤差(MSE)再構成が、次式のように与えられる。
Figure 0004910049
上記の条件付き分布fx/y(x,y)を評価するために、Xと、サイド情報Yとの間の相関のための適切なモデルが仮定される。上述のように、変換係数Xを、ラプラス分布(パラメータ1によって一般化されたガウス)によって綿密に近似することができる一方で、サイド情報を、Y=X+Zとしてモデル化することができる。ここで、Zは、Xとは相関が無く、互いに独立で同一の分布に従った(i.i.d.)ガウス分布であると仮定される。Xの分散がσ であり、且つ、Zの分散がσ である場合には、上記の最適な再構成関数を、erf( )関数に対する多項式近似に基づいて、容易に近似的に計算することができる。
一般に、パラメータQij及びMijは、第ij番目の係数周波数についての期待値σx,ij及びσz,ijに基づいて最適に選択されるべきである。幾つかの実施形態において、このような最適な選択は、データの分散の予測と、デコーディング中に今後使用されることが期待されるある品質のスキャナについてのノイズの予測とに基づいて行われる。多くの場合に、このことは、量子化パラメータQPij による正規の(非Wyner−Zivの)コーディングに対応する目標品質が与えられると、量子化パラメータQPij及び剰余モジュラスMijを選択することになる。
図7は、図5の変換係数変換エンコーディングプロセスの例示的な一実施形態を示す。この実施形態では、順方向の変換モジュールは、8×8DCTを適用して、各画像ブロックごとの変換係数76を計算する。この説明例では、クロスハッチングされたブロックが、DC変換係数に対応し、灰色に満されたブロックが、非ゼロの剰余類値にマッピングされる変換係数に対応し、白色に満たされたブロックが、ゼロの剰余類値にマッピングされる変換係数に対応する。量子化モジュールは、順方向の変換係数を量子化して、量子化された変換係数78を生成する。このプロセスにおいて、第ij番目の変換係数xijに使用される量子化パラメータQPijは、QPij=fQP(QP ij,σx,ij,σz,ij)によって与えられ、一方、最適な剰余類モジュラスは、Mij=f(QP ij,σx,ij,σz,ij)によって与えられる。ここで、fQP及びfは、それぞれQP及びMについての最適パラメータ選択関数を表す。更に、ジグザグな順序で伝達された係数の個数nもまた、これらのパラメータの関数となり、間接的には、ある周波数の後以降、Mの最適な選択は1になる。これは、その係数についていかなるデータも送らないのと等価である。一般に、このことを、n=f({QP ij},{σx,ij},{σz,ij})とみなすことができる。ここで、関数fは、ブロック内の全ての目標の量子化パラメータ及び分散に依存する。
幾つかの実施形態において、走査画像処理システム12によって受け取られたサイド情報ブロックが、オリジナルの画像ブロックに対していかに近くに一致する可能性があるのかの推定に基づいて、幾つかのタイプs={0,1,2,…,S−1}のうちの1つへとブロックを、更に分類することができる。入力画像34から導出される様々なキュー(合図)を、この目的のために使用することができる。これらの実施形態の幾つかにおいて、補助情報処理構成要素20は、エッジアクティビティ量(尺度)を使用して、あるブロックをS個のクラスのうちの1つに分類する。量子化パラメータQP ijに対応する所与の目標品質のために、どのパラメータQPij(s)及びMij(s)を選択することができるかに基づき、各ブロッククラスは、各周波数と共に、一対の分散{σx,ij(s),σz,ij(s)}に対応することになる。分類インデックスもまた、n(s)と、補助情報38と共にジグザグ走査順序で出力される係数の個数とをもたらす一方で、係数の残りは、零として伝達される。
(矢印82によって示されるように)DC変換係数をコピーして、(矢印84によって示されるように)量子化された変換係数を剰余指数にマッピングして、(矢印86によって示されるように)より高い周波数の量子化された変換係数の識別されたセットの剰余指数を零にすることによって、剰余指数のブロック80が計算される。
C.補助情報の補助データ構成内へのエンコーディング
エンコーディング処理構成要素22は、補助情報38を補助データ構成40内へとエンコードする(図2のブロック52;図1を参照)。
幾つかの実施形態において、補助情報38は、特徴ベクトル58のシーケンス60の形態で、補助情報処理構成要素20から、エンコーディング処理構成要素22に送られる。ここで、各特徴ベクトルは、関係した値のセットを含む。例えば、それぞれの特徴ベクトルには、入力画像34のピクセル寸法についての値、入力画像34における指定された印刷サイズ(例えば、高さ及び幅)の値、それぞれの特徴抽出器によって入力画像から抽出されたピクセル値、及びコーディングされた変換係数(例えば、剰余指数)の値を含めることができる。
エンコーディング処理構成要素22は、1つか又は複数のエンコーディング方法を使用して、補助情報38を、補助データ構成40内へとエンコードする。幾つかの実施形態において、特徴ベクトル58は、従来の圧縮アルゴリズムに従って圧縮されて、誤り訂正符号と共にエンコードされる。誤り訂正符号化によって、印刷走査チャンネル18によって挿入される劣化に起因するエラーに対する堅牢性が提供される。バーストエラーに対する保護のために、誤り訂正符号をインターリーブすることもできる。幾つかの実施形態において、特徴ベクトル58のうちの少なくとも1つ(すなわち、コーディングされた変換係数を含んでいる特徴ベクトル)が、エントロピー・エンコーディング技法(例えば、ハフマン符号化及び算術符号化)に従ってエンコードされる。
D.出力画像データに関連付けた補助データ構成の格納
エンコーディング処理構成要素22と、出力画像処理構成要素23とのうちの少なくとも一方は、少なくとも1つの物理記憶媒体内に、補助データ構成40を、出力画像データ36に関連付けて格納する(図2のブロック56)。本明細書内において使用される時には、少なくとも1つの物理記憶媒体内に、出力画像データ36に「関連付けて」格納されている該補助データ構成40は、出力画像データ36のハードコピーから補助データ構成40が検索されることが可能になる方法で、補助データ構成40が、物理的にか又電気的にか、或いは物理的と電気的との両方で、出力画像データ36にリンクされていることを意味する。
幾つかの実施形態において、エンコーディング処理構成要素22は、補助データ構成40に割り当てられる識別子(例えば、ラベルか、又はアドレス、統一資源識別子(URI)など)を使用して補助データ構成40が検索されることが可能になる方法で、補助データ構成40をデータベース16内に格納する。これらの実施形態において、出力画像処理構成要素23は、該識別子を出力画像データ36内に組み込み、その結果、走査画像処理システム12は、走査画像データ44の再構成中に、走査画像データ44から識別子を検索することができることとなり、該検索した識別子を用いてデータベース16から補助データ構成40を検索することができることとなる。
他の実施形態において、出力画像処理構成要素23は、入力画像34と、補助データ構成40とを、出力画像データ36内へとマージし、該出力画像データ36は、コンピュータ可読記憶媒体内に格納される。これらの実施形態において、出力画像データ36は、印刷媒体における1つか又は複数のページ上の入力画像34及び補助データ構成40のレイアウトを表す。このレイアウトは、印刷媒体における単一シートの同じ面上にか、印刷媒体における単一シートの対向する両面上にか、又は印刷媒体の異なる複数のシート上に入力画像34及び補助データ構成40を提示することができる。幾つかの実施形態において、エンコーディング処理構成要素22は、補助データ構成40のグラフィカルエンコーディングに従って、入力画像34の変調に基づいて出力画像データ36を生成する。例示的なグラフィカルエンコーディング処理は、米国特許番号第6,751,352号及び第6,722,567号内に記載されている。補助データ構成40を、バイナリ画像(例えば、明暗ドットパターン)か、多重レベルの画像(例えば、灰色レベル画像)か、又は多重レベルのカラー画像の形態において、入力画像34の視覚的表現へとグラフィカルにエンコードすることができる。他の実施形態では、エンコーディング処理構成要素22は、テキストか、ボーダーか、又は入力画像34を取り囲んだ背景のグラフィカルデザインにおけるか、或いは、1次元か又は2次元のバーコードにおける、補助データ構成40をエンコードする。
IV.走査画像処理システム及びその構成要素の例示的な実施形態
A.概要
上述のように、走査画像処理システム12は、走査画像データ44と、出力画像データ36に関連付けて格納された補助データ構成40とに基づいて、オリジナルのディジタル入力画像34の高品質な近似を再構成する(図1参照)。
走査画像処理システム12によって実施されて、走査画像データ44と補助データ構成40とから入力画像34を再構成する方法の、一実施形態を図8は示す。この方法に従って、デコーディング処理構成要素24は、走査画像データ44に関連付けられた補助データ構成をデコードして、デコード補助情報48を生成する(図8のブロック90)。画像再構成処理構成要素26は、デコード補助情報38内の基準ピクセル値と、走査画像データ44内の対応するロケーションにおけるサンプル点の値との間の対応関係に基づいて、走査画像データ44の入力画像部分を記録する(図8のブロック94)。画像再構成処理構成要素26は、デコードされた補助データ構成内の複数基準ピクセル値のうちの(1つ以上の)基準ピクセル値と、記録された画像の複数サンプル点のうちの対応する(1つ以上の)サンプル点の値との間の色変換を導出する(図8のブロック96)。画像再構成処理構成要素26は、記録された画像に対して色変換を適用して、色補正された出力画像46を得る(図8のブロック98)。
幾つかの実施形態において、記録及び色補正プロセス(図8のブロック94、96、98)は、出力画像46が再構成処理構成要素26から出力される前に、指定された反復回数にわたって繰り返される。各反復の終了において、走査画像データ44の入力画像部分が記録される前に、ブロック98内において記録された画像に対して適用された色変換と同じ色変換を使用して、全ての走査画像データ44が色変換される(図8のブロック94)。
B.走査画像データの前処理
走査画像処理システム12の幾つかの実施形態は、入力画像34における走査されたバージョンのロケーションと、もしも存在するならば、補助データ構成40の走査バージョンのロケーションとを、走査画像データ44内において特定する前処理ステージを含む。この前処理ステージは、典型的には、走査画像データ44から入力画像と補助データ構成の一部分をクロッピング及びトリミングして、その結果生じた画像データを画像再構成処理構成要素26と、必要であれば、デコーディング処理構成要素24とに送る前に、走査画像データ44におけるトリミングされた部分の初期記録(例えば、スキューの除去(スキューイング))を行う。追加的には、前処理ステージは、典型的には、走査画像データ44内の入力画像のコーナのロケーションの推定値を決定する。走査画像データ44内における入力画像のコーナロケーションの初期推定値を提供するために用いられることが可能な、1つの例示的な四辺形検出方法が、米国特許出願公開番号第2005/0169531号に記載されている。該米国特許出願公開番号第2005/0169531号は、参照により本明細書内において組み込まれる。
C.走査画像データに関連付けられた補助データ構成のデコーディング
走査画像データ44の受け取りに応答して、デコーディング処理構成要素24は、出力画像データ36に関連付けられた補助データ構成40のロケーションを特定する。上述のように、補助データ構成40を、出力画像データ36内に組み込まれた識別子によってか、又は補助データ構成40の出力画像データ36内へのマージャ(マージ器)によって、出力画像データ36に関連付けることができる。デコーディング処理構成要素24が、走査画像データ44内の識別子のロケーションを特定した場合には、デコーディング処理構成要素24は、その識別子に対応するエントリをデータベース16に照会することによって、補助データ構成40を、データベース16から検索する。走査画像データ44内における補助データ構成40の表現のロケーションをデコーディング処理構成要素24が特定した場合には、該デコーディング処理構成要素24は、走査画像データ44内において補助データ構成40を表すために用いられたプロセスに依存する抽出プロセスのタイプを使用して、補助データ構成を抽出する。例えば、補助データ構成が1次元か又は2次元のバーコードによって表されている場合には、デコーディング処理構成要素24は、対応するバーコード読み取り方法を使用して、補助データ構成を抽出することができる。補助データ構成が、走査画像データ内においてグラフィカルにエンコードされている場合には、デコーディング処理構成要素24は、対応するグラフィカルデコーディングプロセスを使用して、補助データ構成を抽出することができる。
補助データ構成40を取得した後、デコーディング処理構成要素24は、補助データ構成をデコードして、デコード補助情報48を得る。デコーディング処理構成要素24は、典型的には、補助情報38を補助データ構成40内へとエンコードするためにエンコーディング処理構成要素22によって使用されたプロセスを反転させることによって、デコード補助情報48を生成する。デコーディング処理構成要素24は、デコード補助情報48を画像再構成処理構成要素26に送る。
D.走査画像データの入力画像部分の記録
画像再構成処理構成要素26によって実行されて、走査画像データ44の入力画像部分を記録する方法の一実施形態を図9は示す。
この実施形態によれば、走査画像データ44の任意の初期前処理の後、画像再構成処理構成要素26は、走査画像データ44内における入力画像のコーナのロケーションの推定値を決定する(図9のブロック100)。画像再構成処理構成要素26は、前処理データから受け取ったデータからコーナのロケーション推定値を決定することができるか、又は上述の四辺形検出処理のようなコーナ特定プロセスを走査画像データ44に提供することによってコーナのロケーション推定値を決定することができる。
画像再構成処理構成要素26は、推定されたコーナロケーション内における走査画像データ44を、入力画像34のピクセル寸法に等しいサイズにゆがめて、走査画像データ内のサンプル点を取得する(図9のブロック102)。このプロセスでは、画像再構成処理構成要素26は、デコード補助情報48から、オリジナルの入力画像34のピクセル寸法と入力画像34のハードコピーの物理的な印刷サイズとを決定する。画像再構成処理構成要素26は、走査画像データ44内における入力画像のコーナロケーションの推定値と共にこの情報を使用して、入力画像34のピクセルロケーションに対応する走査画像データ内のサンプル点のロケーションを推定する。
サンプル点のロケーションが特定された後、画像再構成処理構成要素26は、デコード補助情報38内の基準ピクセル値と、走査画像データ44内における対応するサンプル点の値との間の対応関係に基づいて、推定されたコーナのロケーション内における走査画像データ44の入力画像部分を記録する(図9のブロック104)。このプロセスにおいて、画像再構成処理構成要素26は、基準ピクセル値と、走査画像データ44内の対応するサンプル点の値との差分から誤差量(エラーメジャー)を計算する。
幾つかの実施形態において、画像再構成処理構成要素26は、次いで、走査画像データ内における入力画像のコーナの推定されるロケーション(x,y)を反復的に最適化して、誤差を最小化する。この目的のため、画像再構成処理構成要素26は、例えば、直接検索最適化プロセスを使用することができる。図9のブロック100〜104の記録プロセスは、指定された反復終了述語が満たされるまで(例えば、指定された反復回数が実行されるまでか、或いは、測定された誤差が、指定された閾値未満に収束するか又は下まわるまで)繰り返される。各反復の期間中、画像再構成処理構成要素26は、走査画像データ44内における入力画像の4つのコーナのロケーションの推定値を更新して、走査画像データ44を、オリジナルの入力画像34のピクセル寸法と等しいサイズに再度ゆがめ及び再サンプリングして、基準ピクセル値と、走査画像データ44内における対応するサンプル点の値との間の誤差に基づいて、推定されたコーナロケーション内における走査画像データの入力画像部分を再記録する。
E.記録された画像の色補正
走査画像データ44の入力画像部分が記録された(図8のブロック94)後に、画像再構成処理構成要素26は、デコードされた補助データ構成内の複数基準ピクセル値のうちの(1つ以上の)基準ピクセル値と、記録された画像のサンプル点の複数値のうちの対応する(1つ以上の)サンプル点の値との間の色変換を導出する(図8のブロック96)。
幾つかの実施形態において、画像再構成処理構成要素26は、デコード補助情報48内における色補正基準ピクセルの値を、記録された画像内における対応するロケーションにおけるサンプル点の値にマッピングする変換(T)を決定する(図7のブロック84)。基準ピクセルと、対応する記録された画像サンプル点との間の関係は、次の式(6)内に数学的に表される。
Figure 0004910049
ここで、Rref、Gref、及びBrefは、デコード補助情報内の基準ピクセルの色値を表し、Rreg、Greg、及びBregは、記録された画像における対応するサンプル点の色値を表す。変換Tの係数を、基準ピクセル値と、記録された画像の対応するサンプル点の値との間の誤差を最小化する最適化プロセスを用いて、決定することができる。幾つかの実施形態において、各色平面ごとに、色値を別のものにマッピングする1次元の参照テーブルが作成される。このプロセスでは、0〜255の範囲が一様にサンプリングされ、各サンプル点ごとに、対応するマッピングされた値が最適化される。単調性の制約条件が、最適化中に強制される。サンプル点の間に存在する色のマッピングは、滑らかな補間(例えば、スプライン補間)によって取得される。他の実施形態では、独立した1次元単調参照テーブルが、各色成分ごとに作成されて、線形変換か又は多変量多項式変換のいずれかによって後続される。
色変換が導出された(図8のブロック96)後、画像再構成処理構成要素26は、記録された画像に対して色変換(T)を適用して、色補正された出力画像46を得る(図8のブロック98)。
F.再構成の結果を改善する例示的な実施形態
幾つかの実施形態において、指定された回数の記録及び色補正の反復が実施された後に、画像再構成処理構成要素26は、記録された及び色補正された画像を、出力画像46として出力する。
他の実施形態において、画像再構成処理構成要素26は、記録された及び色補正された画像をサイド情報として用いて、デコード補助情報48内におけるコーディングされた変換係数から出力画像46を生成する。これらの実施形態では、yとして受け取られ且つその剰余指数がcとして伝達される係数xの最適な再構成を得るために、最小平均二乗誤差再構成関数が用いられる。
Figure 0004910049
ここで、
Figure 0004910049
と定義すると、最適な再構成関数を、次式のように記述することができる。
Figure 0004910049
サイド情報Yをもたらすために、互いに独立で同一の分布に従った(i.i.d.)ガウス雑音Zが加算される、ガウスか又はラプラスのソースXのような、データに関する多くの現実的なモデルについて、関数m0及びm1を容易に近似することができることが分かる。他のケースでは、m0及びm1についての事前に計算された2Dの参照テーブル上の補間を使用して、最適な再構成値を得ることができる。
図10は、伝達された剰余指数が2であった場合のケースについてのデコーディング例を示す。図示されたようなyが与えられると、最終的な再構成は、伝達された剰余指数が2であった場合の全てのbinについて上記の式(8)を計算することによって、
Figure 0004910049
として得られる。サイド情報yを使用するこの最適な再構成関数を使用することができることによって、画像再構成処理構成要素26が、目標品質よりも大きな量子化ステップサイズを使用することが可能となり、それにより、Wyner−Zivレイヤにおけるビットレートの節約が可能になる。
幾つかの実施形態において、補助情報38内に含まれなかった(すなわち、零の剰余指数値として伝達された)変換係数を、該変換係数がサイド情報(すなわち、記録された及び色補正された画像)内に現われるように、画像再構成処理構成要素26は、正確に再構成する。
V.入力画像処理システム及び走査画像処理システムの例示的な実施態様
幾つかの例示的な実施形態において、入力画像処理構成要素10は、次のような補助データ構成を生成する。
1.オリジナルのディジタル入力画像のピクセルサイズ、及び印刷画像の物理的なサイズ。この情報は、サンプル点のロケーションを推測するのに役立ち、並びに、コーナの自動検出にも役立つ。
2.入力画像全体にわたって広がるNr個のサブ画像ブロックのセットの輝度値が、それらのロケーション及びサイズと共に未処理(RAW)のまま抽出されてエンコードされる。該サブ画像ブロックを選択するための1つの例示的なプロセスでは、画像は、M×Mのグリッドにわたって、M個の等しいサイズのサブ画像に分割される。ここで、Mは、1よりも大きな整数値(例えば、3)を有する。各サブ画像ブロック内において、オーバーラッピングしていない全てのN×N個のブロック(ここで、Nは、1よりも大きな整数値(例えば8)を有する)が検索されて、最も高い輝度分散を有するブロックが選択される。Nr=M個のブロックのうちのそれぞれのサイズ及びロケーションは、これらのブロックのピクセルについての未処理(RAW)の輝度データと共に、補助データ構成にエンコードされる。
3.Nc個の単一カラーピクセルのセットが、規則的なグリッドからか、又は十分に滑らかなロケーションから、のいずれかの未処理(RAW)の入力画像データから抽出されて、それらのロケーションと共に補助データ構成内へと未処理(RAW)のままエンコードされる。
4.オプションのWyner−Zivレイヤ。ここで、オリジナル画像の少数の変換領域係数のみが、剰余類マッピングの後に補助データ構成内へとエンコードされる。
幾つかの例示的な実施形態において、走査画像処理構成要素12は、次のように出力画像46を生成する。
1.出力画像データに関連付けられた補助情報をデコードする。
2.出力画像データのハードコピーを、オリジナルの入力画像の解像度よりも高い解像度で高品質のスキャナによって走査する。
3.自動コーナ検出アルゴリズムを実行することか又は手動でのいずれかによって、前記高解像度走査において入力画像のコーナの近似のロケーションを取得する。
4.指定された反復回数の間、以下のステップ全体を繰り返す。すなわち、
(a)初期化点として上記で取得された近似のロケーションから開始して、4つのコーナにわたる座標に対応する8つの値にわたって最適化を行い、その結果、サイド情報内のオリジナルのNr個の伝達されたブロックと、走査画像をゆがめて再サンプリングすることによって取得されたブロックとの間の誤差が、最小化される。走査領域内の4つのコーナ座標のセットが与えられると、これらのコーナ内における走査画像が、オリジナルの画像サイズに等しいサイズにゆがめられて再サンプリングされる。このゆがめられて再サンプリングされた画像から、サイド情報内の伝達されたブロックと、走査画像をゆがめた後に取得したブロックとの間の誤差が得られる。次いで、直接検索最適化メカニズムが用いられて、4つのコーナピクセルの8つのサンプル全体にわたる最適化が行われる。該最適化されたサンプルは、4つのコーナロケーションを更新するために用いられる。
(b)最適な4つのコーナロケーションが取得されると、走査画像をゆがめて再サンプリングして、「記録された画像」を得る。
(c)Nc個の色変換された記録された画像ピクセルと、指定されたロケーションにおけるサイド情報チャンネル内において伝達されたオリジナルピクセルの値との間の誤差を最小化することに基づいて、記録された画像からオリジナル画像への色変換についてのモデルのパラメータを最適化する。
(d)色変換パラメータが最適化されると、記録された画像全体が、これらのパラメータが用いられて変換されて、色補正された記録された画像が得られる。
(e)指定された反復回数を超えた場合には、ステップ5に進む。
(f)ステップ4c内において最適化された色変換パラメータと同じ色変換パラメータを使用して走査画像データを変換して、この新しい変換された画像で走査画像データを更新する。
(g)プロセスを、ステップ4aから開始して繰り返す。
5.Wyner−Zivレイヤが、デコード補助情報内に含まれる場合には、記録された及び色補正された画像に基づくチャンネルデコーディングによって、Wyner−Zivレイヤをデコードする。
VI.結論
本明細書内において詳細に説明されている実施形態に従って、補助情報が入力ディジタル画像から抽出される。該補助情報は、入力画像の特徴を、記述するか又は別様には取り込む。印刷走査チャンネルを通じて処理された複数入力画像のうちの(1つ以上の)入力画像を再構成することにおいて、該補助情報が用いられる。上記において詳細に説明したように、該補助情報によって、これらの実施形態が、オリジナルのディジタル入力画像の高品質な近似を再構成することが可能になる。
他の実施形態は、特許請求の範囲の範囲内にある。

Claims (10)

  1. 複数基準ピクセルの値を含む補助情報(38)を、入力画像(34)から抽出し、
    前記補助情報(38)を、補助データ構成(40)内へとエンコードし、
    印刷を行うための出力画像データ(36)を生成し
    少なくとも1つの物理記憶媒体(16、42)内に、前記補助データ構成(40)を、前記出力画像データ(36)に関連付けて格納し、及び、
    前記出力画像データ(36)のハードコピー(42)から取得した走査画像データ(44)から前記入力画像(34)を再構成する
    ことを含む、画像処理方法であって、
    前記補助情報は、前記再構成することの支援に用いられ得る任意の情報を含み
    前記複数基準ピクセルは、前記再構成する際の、前記入力画像の基準となる特徴を表す、前記入力画像のピクセルのうちの複数ピクセルであり、
    前記補助データ構成は、前記エンコードされた補助情報の構造化されたデータであり、
    前記出力画像データは、前記入力画像を表すデータを含み、
    前記補助情報(38)を抽出することは、
    前記入力画像(34)のブロックのシーケンスから、量子化された周波数領域ベクトルのシーケンスを生成し、
    前記周波数領域ベクトルの各々から、剰余指数のセットのそれぞれを計算し、及び、
    前記剰余指数のセットのそれぞれの各サブセットを、前記補助情報(38)内に含める
    ことを更に含み、及び、
    前記量子化された周波数領域ベクトルの各々は、前記入力画像(34)の各ブロックから導出された量子化された順方向変換係数のセットを含むことからなる、画像処理方法。
  2. 前記入力画像(34)にわたる一定間隔のサンプルロケーションにおけるピクセルを、前記複数基準ピクセルのうちの1つ以上の基準ピクセルとして識別することか、或いは、前記入力画像(34)における目立つ領域を識別して、該目立つ領域内の複数ピクセルを前記複数基準ピクセルのうちの1つ以上の基準ピクセルとして選択することを、前記抽出することが含むことからなる、請求項1に記載の方法。
  3. 指定された低テクスチャ閾値を満たすそれぞれのテクスチャ量によって特徴付けられた前記入力画像(34)の領域を識別し、及び、該識別された領域内のピクセルを色基準ピクセルとして選択する、ことを前記抽出することが含み、及び、前記エンコードすることが、該色基準ピクセルの色値を前記補助データ構成(40)内へとエンコードすることを含むことからなる、請求項1又は2に記載の方法。
  4. 前記順方向変換における変換は、コサイン変換か、フーリエ変換か、アダマール変換か、ハールウェーブレット変換か、又はウェーブレットベースの変換のいずれかを含むことからなる、請求項1乃至3のいずれかに記載の方法。
  5. 前記再構成することが、
    前記出力画像データ(36)に関連付けられた前記補助データ構成(40)をデコードして、デコード補助情報(48)を生成し、
    前記走査画像データ(44)内の前記入力画像(34)のコーナのロケーションを推定し、
    前記推定されたコーナロケーション内における前記走査画像データ(44)をゆがめて、該走査画像データ(44)内のサンプル点を取得し、及び、
    前記デコード補助情報(48)内の複数基準ピクセル値と、前記走査画像データ(44)内の前記複数基準ピクセルのロケーションに対応するロケーションにおけるサンプル点のピクセル値との間の対応関係に基づいて、前記推定されたコーナロケーション内における前記走査画像データ(44)の一部分を記録する
    ことを含むことからなる、請求項1乃至のいずれかに記載の方法。
  6. 前記補助データ構成(40)内の前記複数基準ピクセル値のうちの1つ以上の基準ピクセル値と、前記記録された画像の複数サンプル点のうちの対応する1つ以上のサンプル点の値との間の色変換を導出し、及び、前記記録された画像に対して前記色変換を適用して、色補正された画像を得る、ことを前記再構成することが更に含むことからなる、請求項5に記載の方法。
  7. 前記色補正された画像をサイド情報として用いて、前記デコード補助情報(48)内の前記剰余指数の前記サブセットから出力画像(46)を生成することを、前記再構成することが更に含むことからなる、請求項6に記載の方法。
  8. 画像処理システムであって、
    基準ピクセルの値を含む補助情報(38)を、入力画像(34)から抽出する補助情報処理構成要素(20)と、
    前記補助情報(38)を補助データ構成(40)内へとエンコードするエンコーディング処理構成要素(22)と、
    印刷を行うための出力画像データ(36)を生成する出力画像処理構成要素(23)と、
    前記出力画像データ(36)のハードコピー(42)から取得した走査画像データ(44)から前記入力画像(34)を再構成するための走査画像処理システム(12)
    とを備え、
    前記補助情報は、前記再構成することの支援に用いられ得る任意の情報を含み
    前記複数基準ピクセルは、前記再構成する際の、前記入力画像の基準となる特徴を表す、前記入力画像のピクセルのうちの複数ピクセルであり、
    前記補助データ構成は、前記エンコードされた補助情報の構造化されたデータであり、
    前記出力画像データは、前記入力画像を表すデータを含み
    前記エンコーディング処理構成要素(22)と前記出力画像処理構成要素(23)とのうちの少なくとも一方が、少なくとも1つの物理記憶媒体(16、42)内に、前記補助データ構成(40)を前記出力画像データ(36)に関連付けて格納し、
    前記補助情報処理構成要素(20)が、前記補助情報を抽出することは、前記補助情報処理構成要素(20)が、前記入力画像(34)のブロックのシーケンスから、量子化された周波数領域ベクトルのシーケンスを生成して、該周波数領域ベクトルの各々から、剰余指数のセットのそれぞれを計算し、及び、該剰余指数のセットのそれぞれの各サブセットを前記補助情報(38)内に更に含めることを更に含み、及び、
    前記量子化された周波数領域ベクトルの各々は、前記入力画像(34)の各ブロックから導出された量子化された順方向変換係数のセットを含むことからなる、画像処理システム。
  9. 前記走査画像処理システムが、
    前記出力画像データ(36)に関連付けられた前記補助データ構成(40)をデコードして、デコード補助情報(48)を生成するためのデコーディング処理構成要素(24)と、
    前記デコード補助情報の複数基準ピクセル値と、前記走査画像内のサンプル点におけるピクセルの値とに基づいて、前記走査画像を再構成するための画像再構成処理構成要素(26)であって、該サンプル点は、前記入力画像内のロケーションにそれぞれ対応することからなる、画像再構成処理構成要素
    とを含むことからなる、請求項8に記載の画像処理システム。
  10. 前記順方向変換における変換は、コサイン変換か、フーリエ変換か、アダマール変換か、ハールウェーブレット変換か、又はウェーブレットベースの変換のいずれかを含むことからなる、請求項8又は9に記載の画像処理システム。
JP2009532420A 2006-10-13 2007-10-11 印刷走査チャンネルを通じて処理されたディジタル画像を再構成するための補助情報 Expired - Fee Related JP4910049B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/580,720 2006-10-13
US11/580,720 US20080144124A1 (en) 2006-10-13 2006-10-13 Auxiliary information for reconstructing digital images processed through print-scan channels
PCT/US2007/021770 WO2008048473A2 (en) 2006-10-13 2007-10-11 Auxiliary information for reconstructing digital images processed through print-scan channels

Publications (2)

Publication Number Publication Date
JP2010507273A JP2010507273A (ja) 2010-03-04
JP4910049B2 true JP4910049B2 (ja) 2012-04-04

Family

ID=39106079

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009532420A Expired - Fee Related JP4910049B2 (ja) 2006-10-13 2007-10-11 印刷走査チャンネルを通じて処理されたディジタル画像を再構成するための補助情報

Country Status (3)

Country Link
US (1) US20080144124A1 (ja)
JP (1) JP4910049B2 (ja)
WO (1) WO2008048473A2 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9183349B2 (en) 2005-12-16 2015-11-10 Nextbio Sequence-centric scientific information management
EP1964037A4 (en) 2005-12-16 2012-04-25 Nextbio SYSTEM AND METHOD FOR MANAGING SCIENTIFIC INFORMATION KNOWLEDGE
US8290921B2 (en) * 2007-06-28 2012-10-16 Microsoft Corporation Identification of similar queries based on overall and partial similarity of time series
US7685100B2 (en) * 2007-06-28 2010-03-23 Microsoft Corporation Forecasting search queries based on time dependencies
US7693908B2 (en) * 2007-06-28 2010-04-06 Microsoft Corporation Determination of time dependency of search queries
US7689622B2 (en) * 2007-06-28 2010-03-30 Microsoft Corporation Identification of events of search queries
US8090709B2 (en) * 2007-06-28 2012-01-03 Microsoft Corporation Representing queries and determining similarity based on an ARIMA model
US7693823B2 (en) * 2007-06-28 2010-04-06 Microsoft Corporation Forecasting time-dependent search queries
US7685099B2 (en) * 2007-06-28 2010-03-23 Microsoft Corporation Forecasting time-independent search queries
JP4952567B2 (ja) * 2007-12-21 2012-06-13 富士ゼロックス株式会社 画像検索システム、画像検索装置、プログラム
WO2009111581A1 (en) 2008-03-04 2009-09-11 Nextbio Categorization and filtering of scientific data
WO2010036166A1 (en) * 2008-09-23 2010-04-01 Telefonaktiebolaget Lm Ericsson (Publ) Pixel block processing
KR101323439B1 (ko) * 2008-11-12 2013-10-29 보드 오브 트러스티스 오브 더 리랜드 스탠포드 주니어 유니버시티 특징 디스크립터를 표현하고 식별하는 방법, 장치 및 컴퓨터 판독가능 저장 매체
US20110052087A1 (en) * 2009-08-27 2011-03-03 Debargha Mukherjee Method and system for coding images
AU2009243439A1 (en) * 2009-11-30 2011-06-16 Canon Kabushiki Kaisha Robust image alignment for distributed multi-view imaging systems
US20120236344A1 (en) * 2010-09-16 2012-09-20 Ricoh Company, Ltd. Image processing system and image processing apparatus
US8797414B2 (en) 2010-12-23 2014-08-05 Samsung Electronics Co., Ltd. Digital image stabilization device
EP2671374B1 (en) 2011-01-31 2015-07-22 Dolby Laboratories Licensing Corporation Systems and methods for restoring color and non-color related integrity in an image
US9870517B2 (en) * 2011-12-08 2018-01-16 Excalibur Ip, Llc Image object retrieval
CN106960351A (zh) * 2016-01-11 2017-07-18 深圳市安普盛科技有限公司 一种商品防伪、验证方法和系统及条码扫描装置
US11839448B2 (en) * 2017-06-29 2023-12-12 Dental Imaging Technologies Corporation Intraoral OCT with color texture
CN109788290A (zh) * 2017-11-13 2019-05-21 慧荣科技股份有限公司 影像处理装置及利用帧内预测的无损影像压缩方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003283805A (ja) * 2002-02-21 2003-10-03 Xerox Corp 透かしを用いて印刷された文書にカラー情報を埋めこむ方法
JP2005514810A (ja) * 2001-12-19 2005-05-19 ヒューレット・パッカード・カンパニー 埋め込み型図形符号化を用いたハーフトーン化による図形コードの生成
JP2005223574A (ja) * 2004-02-05 2005-08-18 Fuji Xerox Co Ltd 画像処理方法および画像処理装置
JP2006101521A (ja) * 2004-09-28 2006-04-13 Ricoh Co Ltd 入力メディアオブジェクトの視覚的表現を決定する方法、コンピュータプログラム及びデータ処理システム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6590996B1 (en) * 2000-02-14 2003-07-08 Digimarc Corporation Color adaptive watermarking
US6038349A (en) * 1995-09-13 2000-03-14 Ricoh Company, Ltd. Simultaneous registration of multiple image fragments
JP2924744B2 (ja) * 1995-11-15 1999-07-26 日本電気株式会社 画像の領域抽出方法及び装置
US6006226A (en) * 1997-09-24 1999-12-21 Ricoh Company Limited Method and system for document image feature extraction
US6304345B1 (en) * 1998-12-14 2001-10-16 Eastman Kodak Company Auto resoration of a print
US6590676B1 (en) * 1999-05-18 2003-07-08 Electronics For Imaging, Inc. Image reconstruction architecture
US6535617B1 (en) * 2000-02-14 2003-03-18 Digimarc Corporation Removal of fixed pattern noise and other fixed patterns from media signals
US7280697B2 (en) * 2001-02-01 2007-10-09 California Institute Of Technology Unsupervised learning of object categories from cluttered images
WO2003043490A1 (en) * 2001-11-23 2003-05-30 Infinitt Co., Ltd. Medical image segmentation apparatus and method thereof
US7054483B2 (en) * 2002-03-15 2006-05-30 Ncr Corporation Methods for selecting high visual contrast colors in user-interface design
JP2003274427A (ja) * 2002-03-15 2003-09-26 Canon Inc 画像処理装置、画像処理システム、画像処理方法、記憶媒体、及びプログラム
US7197158B2 (en) * 2002-06-28 2007-03-27 Microsoft Corporation Generation of metadata for acquired images
US7400774B2 (en) * 2002-09-06 2008-07-15 The Regents Of The University Of California Encoding and decoding of digital data using cues derivable at a decoder
US20040075851A1 (en) * 2002-10-16 2004-04-22 Hecht David L. Method and apparatus for implementing spatial pointers and labeling via self-clocking glyph codes with absolute addressing for determination and calibration of spatial distortion and image properties
US7769199B2 (en) * 2003-06-19 2010-08-03 Jeffrey Lubin Method and apparatus for providing reduced reference techniques for low frequency watermarking
US7672507B2 (en) * 2004-01-30 2010-03-02 Hewlett-Packard Development Company, L.P. Image processing methods and systems
US7880771B2 (en) * 2004-03-16 2011-02-01 Olympus Corporation Imaging apparatus, image processing apparatus, image processing system and image processing method
US8331445B2 (en) * 2004-06-01 2012-12-11 Qualcomm Incorporated Method, apparatus, and system for enhancing robustness of predictive video codecs using a side-channel based on distributed source coding techniques
WO2006028108A1 (ja) * 2004-09-07 2006-03-16 Nec Corporation 画像処理システム及びその方法と、それに用いられる端末及びサーバ
US7444030B2 (en) * 2004-11-12 2008-10-28 Micron Technology, Inc. Image encoding with dynamic buffer-capacity-level-based compression adjustment
US7669769B2 (en) * 2005-03-28 2010-03-02 Konica Minolta Systems Laboratory, Inc. Systems and methods for preserving and maintaining document integrity
EP1736928A1 (en) * 2005-06-20 2006-12-27 Mitsubishi Electric Information Technology Centre Europe B.V. Robust image registration
US8315306B2 (en) * 2006-09-08 2012-11-20 The Texas A&M University System Distributed joint source-channel coding of video using raptor codes
US7523865B2 (en) * 2006-09-29 2009-04-28 Konica Minolta Systems Laboratory, Inc. High resolution barcode and document including verification features

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005514810A (ja) * 2001-12-19 2005-05-19 ヒューレット・パッカード・カンパニー 埋め込み型図形符号化を用いたハーフトーン化による図形コードの生成
JP2003283805A (ja) * 2002-02-21 2003-10-03 Xerox Corp 透かしを用いて印刷された文書にカラー情報を埋めこむ方法
JP2005223574A (ja) * 2004-02-05 2005-08-18 Fuji Xerox Co Ltd 画像処理方法および画像処理装置
JP2006101521A (ja) * 2004-09-28 2006-04-13 Ricoh Co Ltd 入力メディアオブジェクトの視覚的表現を決定する方法、コンピュータプログラム及びデータ処理システム

Also Published As

Publication number Publication date
WO2008048473A3 (en) 2009-09-11
JP2010507273A (ja) 2010-03-04
US20080144124A1 (en) 2008-06-19
WO2008048473A2 (en) 2008-04-24

Similar Documents

Publication Publication Date Title
JP4910049B2 (ja) 印刷走査チャンネルを通じて処理されたディジタル画像を再構成するための補助情報
US6275620B2 (en) Method and apparatus for pre-processing mixed raster content planes to improve the quality of a decompressed image and increase document compression ratios
JP4000316B2 (ja) 埋め込み型図形符号化を用いたハーフトーン化による図形コードの生成
US8331671B2 (en) Image processing apparatus and image encoding method related to non-photo image regions
US7362908B2 (en) Adaptive generation of Q-table2 for improved image quality
JP5321698B2 (ja) ロバストなデジタル電子透かし入れ信号の挿入方法および電子透かし検出方法
JP4098640B2 (ja) 透かしを用いて印刷された文書にカラー情報を埋めこむ方法
US20010000314A1 (en) Iterative smoothing technique for pre-processing mixed raster content planes to improve the quality of a decompressed image and increase document compression ratios
JP4604100B2 (ja) 画像処理方法、画像処理装置、画像形成装置、プログラムおよび記憶媒体
EP1102209B1 (en) Image processing
US7058232B1 (en) Image processing apparatus, method and memory medium therefor
WO2016016040A1 (en) Digital image watermarking system and method
US8335387B2 (en) Streak compensation in compressed image paths
MXPA04006233A (es) Arquitectura de trayectoria de imagen de barrido.
JP2910000B2 (ja) 2値画像混在静止自然画像の符号化方法
JP2679769B2 (ja) 画像信号の符号化装置
EP1006714A2 (en) Method of processing mixed raster content planes
US8005305B2 (en) Method and apparatus for generating a halftoned image from a compressed image
Damera-Venkata et al. Image barcodes
Samadani et al. Photoplus: Auxiliary information for printed images based on distributed source coding
Wu Limitations and requirements of content-based multimedia authentication systems
Sadek et al. An enhanced Skin-tone Block-map Image Steganography using Integer Wavelet Transforms
EP1489830B1 (en) Method and apparatus for generating a halftoned image from a compressed image
JP5102160B2 (ja) 画像処理装置、画像処理システム、画像処理方法、および画像処理プログラム
JP4047207B2 (ja) 画像符号化装置、画像符号化方法及びプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101102

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110202

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110531

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110829

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110905

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120110

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120116

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4910049

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees