JP5491156B2 - 生ディジタル画像および前処理済ディジタル画像の処理 - Google Patents

生ディジタル画像および前処理済ディジタル画像の処理 Download PDF

Info

Publication number
JP5491156B2
JP5491156B2 JP2009283617A JP2009283617A JP5491156B2 JP 5491156 B2 JP5491156 B2 JP 5491156B2 JP 2009283617 A JP2009283617 A JP 2009283617A JP 2009283617 A JP2009283617 A JP 2009283617A JP 5491156 B2 JP5491156 B2 JP 5491156B2
Authority
JP
Japan
Prior art keywords
image data
digital image
profile
image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009283617A
Other languages
English (en)
Other versions
JP2010104015A (ja
Inventor
キャスパーキーウィクズ,トーマスズ・エス・エム
ホワイト,スティーブ・ジェイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2010104015A publication Critical patent/JP2010104015A/ja
Application granted granted Critical
Publication of JP5491156B2 publication Critical patent/JP5491156B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/603Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/40Circuit details for pick-up tubes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3242Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document of processing required or performed, e.g. for reproduction or before recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3252Image capture parameters, e.g. resolution, illumination conditions, orientation of the image capture device

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)

Description

今日のディジタル・カメラは、使用可能な画像ファイルを生成するように設計されている。使用可能な画像ファイルを生成するためには、多数の処理ステップを実行しなければならない。これらの処理ステップは、カメラにおいて実行することができ、その場合仕上がった画像ファイルが作成されるか(例えば、JPEG)、あるいはコンピュータ上で画像を編集するまで遅らせることができ、その場合生のファイルが作成される。仕上がった画像ファイルは、余分な処理を必要としないので、カメラから転送されれば直ぐに用いることができる。この理由のため、殆どのカメラは、仕上がった画像を生成する。しかしながら、生のファイルが増々普及するにつれて、ユーザは高画質化を求めるようになる。
双方の場合とも、コンピュータ上でファイルを編集して、品質(例えば、露出、色、鮮鋭度等)を向上すること、および/または創作的な仕上げ(例えば、セピア、枠縁の追加、テキストの追加などのような創作的効果)を追加することができる。しかしながら、仕上がった画像では、この処理は必然的に、カメラにおいて既に実行された処理に累加され、その結果画質が低下する可能性がある。生のファイルの場合、処理が行われていないので、最初の時点から処理を調節することができる。この場合、現在の技術的現状では、生の画像ファイルには、仕上がった画像ファイルとは異なるワークフローがユーザには強いられる。
最近まで、カメラ内部処理がコンピュータに基づく処理に対して有していた大きな利点の1つは、生のセンサ・データが線形色空間にあること、即ち、ディジタル化した色値と画像において知覚される色との間には線形な相関が存在することであった。線形色空間には、色と露出との相関が簡単に応用でき、色空間全域を通じて精度が高いという利点がある。これについては、以下で更に詳しく説明する。これが意味したのは、カメラ内部の自動調節は色空間の線形性を利用することができ、一方コンピュータに基づく処理は全て、カメラにおいて行われる階調マッピング(tone-mapping)の逆行分析(リバースエンジニアリング)を試行しなければならなかったということである。ユーザは、この制御および一貫性の欠如に苛立たしさを感じたが、比較的新しいモデルの画像編集−生画像処理において、一層優れた解決策を見出した。例えば、ダイナミック・レンジの改良や、保管用画像としての適性向上というような、先に記載した利点を超える利点もあるが、生画像編集の最も大きな利点は、線形画像調節が一層容易になりしかも精度が高くなったことである。
今日入手可能な上級者向けディジタル・カメラの中には、処理済み画像データ(例えば、JPEG)の代わりに、またはこれに加えて、生の画像データを出力することをユーザに選択させる機種もある。生画像の処理では、画像データを直接カメラ・センサから、カメラの設定値と共に取り込み、カメラが重要な処理を実行するのは、いずれにしてもその後になる。つまり、生画像データは、未修整または最小限の修正を施したセンサ・データであり、通例、線形であることを特徴とする。その後、生データは生画像編集アプリケーションに転送され、このアプリケーションが高忠実度の編集画像を生成する。生画像編集アプリケーションは、使用するのが非常に簡単であり、極上の結果が得られる。生画像処理により、前処理済画像モデルに関して利用していたステップの多く、特に、カメラ自体において行われていたステップが省かれることになる。生画像処理は、露出、ホワイト・ポイント(色)バランス、および鮮鋭度(sharpening)のような設定値および補正値をファイルと共に格納し、処理のために用いることが、従来の前処理済画像のカメラ内部処理よりも遥かに難しい。格納されている生画像自体に対してはいかなる処理もなされない。生画像処理の目標は、最少量の処理で画像データを保存すること、実際には、可能な限りディジタル化したセンサ・データを保存することである。
生画像編集アプリケーションは、本質的には、前処理済画像編集モデルのカメラ内部処理を再現する。これが意味するのは、前処理済画像のカメラ内部処理の利点の全て(例えば、反復処理による劣化がないこと、精度高くしかも管理が容易な線形モデルにおいて作業できること)を確保しつつ、生画像を編集し、細部の仕上げを行うということである。この閉じたシステムは、生画像処理の強みであるが、弱みでもある。基本的な調節のための編集の容易性および品質は、今日入手可能な殆どあらゆる生画像編集アプリケーションではすばらしいものである。しかしながら、その設計はカメラの設計と密接に結び付けられている。カメラ・モデルの設計を変更する毎に、生画像処理も変更を強いられる。販売業者は、彼らの編集アプリケーションに対して機構のサポート(feature support)を最大限提供することを躊躇っている。何故なら、それは彼らの中核となる業務ではないからであり、画像の結合、創作的入力、および印刷または出版の準備のような機構を追加することは複雑であるからである。印刷、テキストおよび画像の合成のような中核となる機構の多くは、全く提供されない。
画像の合成は、このモデルで行うには、いずれにしても非常に問題となる。例えば、ユーザはどのようにして他のカメラからの別の画像をこのモデルと合成するのか。また、ユーザはどのようにして後処理した画像を前処理した画像と合成するのか。基本的に、生画像編集アプリケーションは、一般に、(更に別の)準備ステップとして扱われ、先に述べた従来の画像編集アプリケーションの前にワークフローの中に挿入される。即ち、生画像編集アプリケーションの出力は、従来の画像編集アプリケーションに対して全く別の入力であり、生画像処理は作業の増加となり、減少にはならない。品質上の便益が得られることは変わりないが、複雑度が著しく増大する。このため、互換性がなく冗長な生画像編集モデルの増殖と相俟って、殆どの専門のそして忍耐強い実務家以外では、生画像処理モデルを選択することはいずれの人にとっても大きな障害となっている。
ユーザにとって生画像処理モデルの使いにくさを軽減する潜在的な改良の1つは、多くの生画像処理ユーザが現在2つの別個のアプリケーションを用いて手作業で行っているように、生画像編集アプリケーションおよび従来の画像編集アプリケーションを組み合わせて(エンド・ツー・エンド)、1つのアプリケーションに一体化することである。ユーザが色または露出を調節したいとき、彼らはモデルの生部分を編集することができ、従来の前処理済画像の編集(例えば、合成、ベクトルおよびテキスト編集、印刷等)を行いたい場合、その統一した「作業または出力」カラー・モデルによって、前処理済画像モデルを用いることができる。
これは実現可能な手法のように思えるが、多くの理由のために、最適という訳ではない。第1に、一方のモデルまたは他方のモデルのどちらの場合について作業しているのか理解しなければならないのは、ユーザにとって紛らわしいことである。例えば、ユーザは、どのようにして、異なるカメラからの画像、または1つのカメラからの画像とJPEGのような従来のソースとを組み合わせるのか。または、ユーザは、どのようにして、カメラ製造業者の生画像処理モデルの専門知識と、ソフトウェア販売業者の前処理済画像編集および創作ツールの専門的技術知識を、1つのアプリケーションにおいて利用するのか。2つのモデルを一緒に貼り付ける(paste)ことは、これらの問題を解決することにはならない。
恐らく、前処理済および生画像処理モデルを統一することに対する最大の障壁は、しかしながら、ワークフロー(workflow)は同様に見えるものの、これらは双方とも露出および色補正ステップを有し、例えば、ツールや基礎的な技術が実際には完全に異なることであろう。これらの各々は、異なる処理アルゴリズムを用いて、異なる結果を生成する。実際、生データ処理の補正は、前処理済画像編集アプリケーションにおいて行う編集と同一視されないことが多い。
したがって、生画像および前処理済画像双方の画像編集を統一する方法があれば、望ましいであろう。加えて、類似点のない生画像および前処理済画像編集の画像処理モデルを、共通のツールおよびワークフローを用いて、生および前処理済または線形データを相互交換可能に扱うことができる、総合的に統一した設計に融合する方法も有益であろう。
本発明の実施形態は、生および/または前処理済ディジタル画像データの統一処理に関する。その種々の実施形態では、このような統一処理は、「センサ・プロファイル」を利用することを含む。これは、処理パイプラインの終点において画像データを生状態から既処理状態に(またはその逆に)修正し、更に1つ以上の出力プロファイルによって、データを目標の出力ファイルおよび/またはデバイスにマッピングする。更に、種々の実施形態は、センサ・プロファイルを利用した、合成画像のような、追加の画像データのマッピングによって、生(線形)画像色空間と一致させることもできる。前処理済ディジタル画像データを処理するとき、本実施形態は、更に、センサ・プロファイルを用いて、入力(既処理画像)を線形生空間にマッピングすることも含むことができる。
図1は、本発明を実施する際に用いるのに適した計算環境の一例のブロック図である。 図2は、本発明の実施形態による生および/または前処理済画像処理モデルの一例を示す模式図である。 図3は、本発明の実施形態にしたがって生および/または前処理済画像を処理する方法を示すフロー図である。 図4は、本発明の実施形態にしたがって生および/または前処理済画像を処理する方法を示すフロー図である。 図5は、本発明の実施形態による、統一画像処理モデルに対するデータ・フローを示す模式図である。
以下に、添付図面を参照しながら、本発明について詳細に説明する。
本発明の主題について、これより、法定要件を満たすように、具体的に説明する。しかしながら、説明自体は、本特許の範囲を限定することを意図していない。逆に、特許請求する主題は他の方法でも具体化することもでき、本文書に記載されているステップと同様の異なるステップまたはステップの組み合わせを、その他の現在または今後の技術と共に含むことも、発明者は想定している。更に、ここでは「ステップ」および/または「ブロック」という用語を用いて、採用する方法の異なる要素を暗示することもあるが、個々のステップの順序が明示的に記載されていない限り、またはその場合を除いて、ここに開示する種々のステップ間においていずれの特定の順序をも示唆するように解釈してはならない。
本発明の実施形態は、生および/または前処理済ディジタル画像を処理するための統一方法およびシステムを提供する。本発明の実施形態のための動作環境例について以下に説明する。
図面全般、特にまず最初に図1を参照すると、本発明を実施することができる、適した動作環境の一例を示し、全体的に計算環境100と表記されている。種々の図面において、同様の参照番号は同様の構成要素を識別するものとする。計算システム環境100は、適した計算機環境の一例に過ぎず、本発明の使用範囲や機能性について限定を示唆する意図は全くない。また、計算機環境100は、動作環境例100に示す構成要素のいずれの1つまたは組み合わせに関しても、何らかの依存性や必須要件を有するという解釈は行わないこととする。
本発明は、多数のその他の汎用または特殊目的用計算システム環境や構成とでも動作する。本発明と共に用いるのに適していると思われる周知の計算システム、環境、および/または構成の例には、パーソナル・コンピュータ、サーバ・コンピュータ、ハンド・ヘルドまたはラップトップ・デバイス、マルチプロセッサ・システム、マイクロプロセッサに基づくシステム、セット・トップ・ボックス、プログラマブル消費者用電子機器、ネットワークPC、ミニコンピュータ、メインフレーム・コンピュータ、前述のシステムまたはデバイスのいずれをも含む分散型計算機環境等が含まれる。
本発明の態様についての説明は、総じて、コンピュータによって実行するプログラム・モジュールのような、コンピュータ実行可能命令との関連において行うこととする。一般に、プログラム・モジュールは、ルーチン、プログラム、オブジェクト、コンポーネント、データ構造等を含み、特定のタスクを実行するか、または特定の抽象的データ・タイプを実現する。また、本発明は、通信ネットワークを通じてリンクされているリモート処理デバイスがタスクを実行する分散型計算機環境においても実用可能である。分散型計算機環境では、プログラム・モジュールは、メモリ記憶装置を含むローカルおよびリモート・コンピュータ記憶媒体双方に配することができる。
図1を参照すると、本発明を実施するシステム例は、コンピュータ110の形態とした汎用計算機を含む。コンピュータ110の構成要素は、限定ではなく、演算装置120、システム・メモリ130、およびシステム・バス121を含むことができる。システム・バス121は、システム・メモリを含む種々のシステム構成要素を演算装置120に結合する。システム・バス121は、数種類のバス構造のいずれでもよく、メモリ・バスまたはメモリ・コントローラ、周辺バス、および種々のバス構造のいずれかを用いるローカル・バスを含む。限定ではなく一例として、このような構造には、業界標準アーキテクチャ(ISA)バス、マイクロ・チャネル・アーキテクチャ(MCA)バス、改良ISA(EISA)バス、ビデオ電子規格連合(VESA)ローカル・バス、およびMezzanine バスとしても知られている周辺素子相互接続(PCI)バスが含まれる。
コンピュータ110は、通例、種々のコンピュータ読み取り可能媒体を含む。コンピュータ読み取り可能媒体は、コンピュータ110がアクセス可能な入手可能な媒体であればいずれでも可能であり、揮発性および不揮発性の双方、リムーバブル、および非リムーバブル媒体を含む。限定ではない一例をあげると、コンピュータ読み取り可能媒体は、コンピュータ記憶媒体および通信媒体から成ると考えられる。コンピュータ記憶媒体は、コンピュータ読み取り可能命令、データ構造、プログラム・モジュール、またはその他のデータというような情報の格納のために、あらゆる方法または技術で実施される、揮発性および不揮発性の双方、リムーバブル、および非リムーバブル媒体を含む。コンピュータ記憶媒体は、RAM、ROM、EEPROM、フラッシュ・メモリまたはその他のメモリ技術、CD−ROM、ディジタル・バーサタイル・ディスク(DVD)またはその他の光ディスク・ストレージ、磁気カセット、磁気テープ、磁気ディスク・ストレージまたはその他の磁気記憶デバイス、あるいは所望の情報を格納するために用いることができ、しかもコンピュータ110がアクセス可能なその他のいずれの媒体も含むが、これらに限定されるのではない。通信媒体は、通例、コンピュータ読み取り可能命令、データ構造、プログラム・モジュール、またはその他のデータを、搬送波またはその他の移送機構のような変調データ信号において具体化し、あらゆる情報配信媒体を含む。「変調データ信号」という用語は、その特性集合の1つ以上が、情報を信号内にエンコードするようなやり方で、変化している信号を意味する。限定ではなく、一例として、通信媒体は、有線ネットワークまたは直接有線接続というような有線媒体、ならびに音響、RF、赤外線、およびその他のワイヤレス媒体というようなワイヤレス媒体を含む。前述のいずれの組み合わせも、コンピュータ読み取り可能媒体の範囲に当然含まれるものとする。
システム・メモリ130は、リード・オンリ・メモリ(ROM)131およびランダム・アクセス・メモリ(RAM)132のような揮発性および/または不揮発性メモリの形態で、コンピュータ記憶媒体を含む。基本入出力システム133(BIOS)は、起動中のように、コンピュータ20内のエレメント間におけるデータ転送を補助する基本的なルーチンを含み、通例ROM131内に格納されている。RAM132は、通例、演算装置120が直ちにアクセス可能であるデータおよび/またはプログラム・モジュール、または現在これによって処理されているデータおよび/またはプログラム・モジュールを収容する。一例として、そして限定ではなく、図1は、オペレーティング・システム134、アプリケーション・プログラム135、その他のプログラム・モジュール136、およびプログラム・データ137を示す。
また、コンピュータ110は、その他のリムーバブル/非リムーバブル揮発性/不揮発性コンピュータ記憶媒体も含むことができる。一例としてに過ぎないが、図1は、非リムーバブル不揮発性磁気媒体からの読み取りおよびこれへの書き込みを行なうハード・ディスク・ドライブ141、リムーバブル不揮発性磁気ディスク152からの読み取りおよびこれへの書き込みを行なう磁気ディスク・ドライブ151、ならびにCDROMまたはその他の光媒体のようなリムーバブル不揮発性光ディスク156からの読み取りおよびこれへの書き込みを行なう光ディスク・ドライブ155を示す。動作環境の一例において使用可能なその他のリムーバブル/非リムーバブル、揮発性/不揮発性コンピュータ記憶媒体には、限定する訳ではないが、磁気テープ・カセット、フラッシュ・メモリ・カード、ディジタル・バーサタイル・ディスク(DVD)、ディジタル・ビデオ・テープ、ソリッド・ステートRAM、ソリッド・ステートROM等が含まれる。ハード・ディスク・ドライブ141は、通例、インターフェース140のような非リムーバブル・メモリ・インターフェースを介してシステム・バス121に接続され、磁気ディスク・ドライバ151および光ディスク・ドライブ155は、通例、インターフェース150のようなリムーバブル・メモリ・インターフェースによって、システム・バス121に接続する。
先に論じ図1に示したドライブおよびそれらと連動するコンピュータ記憶媒体は、コンピュータ読み取り可能命令、データ構造、プログラム・モジュール、およびコンピュータ110のその他のデータを格納する。図1では、例えば、ハード・ディスク・ドライブ141は、オペレーティング・システム144、アプリケーション・プログラム145、その他のプログラム・モジュール146、およびプログラム・データ147を格納するように示されている。尚、これらの構成要素は、オペレーティング・システム134、アプリケーション・プログラム135、その他のプログラム・モジュール136、およびプログラム・データ137と同じでも異なっていても可能であることを注記しておく。オペレーティング・システム144、アプリケーション・プログラム145、その他のプログラム・モジュール146、およびプログラム・データ147は、ここで、少なくともこれらが異なるコピーであることを示すために、異なる番号が与えられている。ユーザは、キーボード162、および一般にマウス、トラックボールまたはタッチ・パッドと呼ばれているポインティング・デバイス161によって、コマンドおよび情報をコンピュータ110に入力することができる。他の入力デバイス(図示せず)には、マイクロフォン、ジョイスティック、ゲーム・パッド、スキャナ等を含むことができる。これらおよびその他の入力デバイスは、多くの場合、ユーザ入力インターフェース160を介して、演算装置120に接続されている。ユーザ入力インターフェース160は、システム・バスに結合されているが、パラレル・ポート、ゲーム・ポート、ユニバーサル・シリアル・バス(USBのようなその他のインターフェースおよびバス構造によって接続することも可能である。少なくとも1つのモニタ191またはその他の形式の表示装置も、ビデオ・インターフェース190のようなインターフェースを介して、システム・バス121に接続されている。また、モニタに加えて、コンピュータは、スピーカ197およびプリンタ196のような、その他の周辺出力装置も含むことができ、これらは出力周辺インターフェース195を通じて接続することができる。
コンピュータ110は、リモート・コンピュータ180のような1つ以上のリモート・コンピュータへの論理接続を用いて、ネットワーク環境において動作することも可能である。リモート・コンピュータ180は、パーソナル・コンピュータ、ハンド・ヘルド・デバイス、サーバ、ルータ、ネットワークPC、ピア・デバイス、またはその他の共通ネットワーク・ノードとすることができ、通例、コンピュータ110に関して先に説明したエレメントの多くまたは全てを含むが、図1にはメモリ記憶装置181のみを示す。図1に示す論理接続は、ローカル・エリア・ネットワーク(LAN)171およびワイド・エリア・ネットワーク(WAN)173を含むが、他のネットワークも含むことができる。このようなネットワーク環境は、事務所、企業規模のコンピュータ・ネットワーク、イントラネットおよびインターネットにおいては、一般的である。
LANネットワーク環境で用いる場合、コンピュータ110は、ネットワーク・インターフェースまたはアダプタ170を介してLAN171に接続する。WANネットワーク環境で用いる場合、コンピュータ110は、通例、モデム172、またはインターネットのようなWAN173を通じて通信を確立するその他の手段を含む。モデム172は、内蔵でも外付けでもよく、ユーザ入力インターフェース160またはその他の適切な機構を介してシステム・バス121に接続することができる。ネットワーク環境では、コンピュータ110に関して図示したプログラム・モジュール、またはその一部は、リモート・メモリ記憶装置に格納することもできる。一例として、そして限定ではなく、図1は、リモート・アプリケーション・プログラム182がメモリ素子181上に常駐するものとして示している。尚、図示のネットワーク接続は一例であり、コンピュータ間で通信リンクを確立する他の手段も使用可能であることは認められよう。
コンピュータ110の多くのその他の内部構成要素は示されていないが、このような構成要素および相互接続は周知であることは、当業者には認められよう。したがって、コンピュータ110の内部構造に関する余分な詳細は、本発明と関連付けて開示する必要はない。
コンピュータ110をオンにしたときまたはリセットしたとき、ROM131に格納されているBIOS133が、演算装置120にオペレーティング・システムまたはその必要な部分をハード・ディスク・ドライブ141からRAM132にロードするように命令する。オペレーティング・システム144と付番された、オペレーティング・システムのコピー部分が一旦RAM132にロードされると、演算装置120はオペレーティング・システムのコードを実行し、オペレーティング・システム134のユーザ・インターフェースに伴う視覚的要素を、ディスプレイ・デバイス191上に表示させる。通例、ユーザがアプリケーション・プログラム145を開くと、プログラム・コードおよび付随するデータがハード・ディスク・ドライブ141から読み出され、必要な部分がRAM132にコピーされる。コピー部分は、ここでは、参照番号135で示されている。
既に述べたように、本発明の実施形態は、生および前処理済ディジタル画像の統一処理のためのシステムおよび方法に関する。図2に移ると、本発明の実施形態にしたがって生および/または前処理済画像処理モデル200の一例を示す模式図が示されている。画像処理モデル200は、カメラ内部処理210および編集アプリケーション処理212を含む。尚、画像処理モデル200の一例の種々のモジュールは、処理しようとするディジタル画像データが生ディジタル画像データかまたは前処理済ディジタル画像データかによって、省いてもよいことは言うまでもなく、当業者には認められよう。これについては以下で更に詳しく説明する。(尚、図2における矢印はモデル全体におけるデータの流れを表すことを注記しておく。)
最初に、画像を取り込むと、カメラ・センサ214は写真画像データ(photonic image data)を受け取る。受け取った画像データが生画像データ源からである場合、ブロック228で示すように、続いて、写真画像データを(カメラ設定値と共に)生エンコーダに格納し、本発明による統一画像編集アプリケーション212に入力する。つまり、センサ214が受け取った画像データが生画像データ源からである場合、ブロック216、218、220、222、224、および226の各々を省くことができる。「生画像データ」は、この中でこの用語を利用する場合、未修正または最小限の修正を加えたセンサ・データと定義することができ、通例、線形であることを特徴とする。
しかしながら、受け取った写真画像データが前処理済画像データ源からである場合、センサ214が受け取った写真画像データは、続いて、センサ・デモザイク・モジュール(sensor de-mosaic module)216に入力される。今日のセンサは、その上に被されているカラー・マトリクス・フィルタ(例えば、ベイヤ・マトリクス)を有する強度センサを利用して、写真画像データを取り込むのが通例である。この色格子をモザイクと呼ぶことができる。センサ自体が単色センサであるので、画素位置毎に1つの値だけを測定するため、1つのチャネル画像が発生する。しかしながら、カラー画像を出力するには、画素位置毎に3つの値(例えば、赤、緑、および青)が必要となる。したがって、一旦前処理済画像データ源から写真画像データを受け取ったなら、これをセンサ・デモザイク・モジュール216に入力し、モザイク・パターンにしたがってデータを補間して、画素位置毎に3つの値を作成する。即ち、3チャネル画像を作成する。
次に、画像データの処理のために、種々の処理モジュールにデータを入力する。更に詳細には、露出モジュール218を利用して露出を調節することができ、カラー・バランス・モジュール220を利用してホワイト・バランスを調節することができ、その他の処理モジュール222を用いてその他の処理(例えば、階調補正、ノイズ低減等)を行うことができ、および/または鮮鋭化モジュール224を用いて鮮鋭度を増すことができる。これらの処理機能の各々を、当業者は知っておりそして理解しているので、これ以上ここでは説明しないことにする。尚、図2に示す種々の処理モジュール(モジュール218、220、222、および224)がデータを処理する順序は、単なる一例であり、これらの処理ステップはいかなる順序で行ってもよいことは言うまでもなく、当業者には認められよう。加えて、処理モジュール218、220、222、および224のいずれの1つ以上でも、それらによって行うことができる調節が不要であると判定された場合には、省くことができる。更にまた、鮮鋭化やノイズ低減のような処理は、望ましければ、写真画像データがセンサ・デモザイク・モジュール216に入力される前に行ってもよい。このような変形の全ては、本発明の範囲に該当することを想定している。
続いて、このように処理された画像データを色管理(CM)モジュール226に入力することができる。CMモジュールは、画像データを生から既処理に、またはその逆に変更することができる。画像データに加えて、センサ・プロファイルおよび作業または出力プロファイルもCMモジュール226に入力する。カメラ製造業者の一部では、CMモジュール226を用いてフィルム類似特性をカメラ・センサに適用して、面白い画像やある種の「ブランド」イメージ(brands image)を、特定の製造業者が製造したカメラにおいて創作されたものとして出力させる。つまり、センサ・プロファイルとは、1つの特定の色から出力される色を別の色にマッピングする特性プロファイルまたはプロファイルの集合であり、別個の外観を創作するために用いることができる。このように、CMモジュールのようなセンサ・プロファイルは、画像データを生から既処理に(またはその逆に)変更するためのモデルであり、ユーザがその画面、LCD等において画像を見るために必要となる。センサ・プロファイルは、カメラおよび/または製造業者に固有である。このマッピングは、通例、非線形である。即ち、センサ・プロファイルにおける色値間の距離は、作業プロファイルにおける色値間の距離とは異なる。以下で更に詳しく説明するが、一旦センサ・プロファイルを画像に適用したなら、高品質露出調節、色補正等を実行することは非実用的(不可能でないにしても)である。何故なら、画像データが非線形マッピング・プロセスによって歪むからである。したがって、前処理済画像データは、特に、それが線形カラー・プロファイルをもはや有さなくなるように、何らかの方法で修正された画像データである。
作業または出力プロファイルは、画像データを実際に変換しようとするカラー・プロファイルであり、即ち、画像と関連のある色空間である(例えば、sRGB、AdobeRGB等)。作業または出力プロファイルは、したがって、三次元空間(XYZ空間)と、出力画像と関連付けようとする画素値との間のマッピングである。つまり、CMモジュール226は2つのプロファイル(センサ・プロファイルおよび作業または出力プロファイル)を採用し、CIE−XYZまたはCIE−LABのような周知の接続空間を通じて、元の色空間(センサ・プロファイル)から目標の色空間(作業または出力プロファイル)に画素を変換する。
フィルムの主要な特性はその対数的応答である。絞りを1つ開く、即ち、光量を2倍にする毎に、フィルム上の粒度が比較的均一に増分し、その結果画像における明度の刻み幅が均一となる。画像の極端に明るい領域および暗い領域における応答のように、フィルムの別の特性は、画像にそれら独特の特色(character)を与える。ディジタル・カメラの画像は、特殊な階調マッピング・ステップを受けて同様の効果を得る。つまり、カメラ内部処理のパイプラインの終点において、CMモジュール226は処理済み画像データおよび2つのカラー・プロファイルを取り込み、フィルム類似応答特性を画像に適用し(即ち、センサ・プロファイルを適用する)、画像を圧縮し変換して、sRGBまたはAdobeRGBのような、標準的な国際カラー・コンソーシアム(ICC)のカラー・プロファイルを得て(即ち、画像データを作業または出力プロファイルに変換し)、前処理済画像編集アプリケーション212に入力するために、通例、JPEGエンコード228に画像ファイルを保存する。尚、画像ファイルは、ここでは一例としてJPEGを用いたに過ぎず、いずれの既処理ファイル・フォーマットとしてでも格納してもよいことは言うまでもなく、当業者には認められよう。
このように、図2のカメラ内部処理210は、部分的に、ガンマ曲線をディジタル画像データに提供する。これは、表示しようとする写真(picture)には必要である。ガンマ曲線のみを適用する場合には、その効果を逆解析するのが比較的容易である。しかしながら、他のカラー・プロファイル特性を導入すると忽ち逆転は遥かに難しくなる。導入することができる特性の分類には、誤差を最少に抑えつつ、使用可能な色の数を最大限増やし(例えば、人の目は陰影または強調よりも多い中間階調を区別することができるので、用いるビット数を増やして、固有の非線形性を生ずる中間階調を表現することは意味がある)、更に「外観」(例えば、あるカメラ製造業者は冷ややかな(green)外観を好むが、別の製造業者は暖かい外観を好む場合もある)を創作することができる特性を含む。
追加情報がない場合、開発者は、付随する作業または出力カラー・プロファイルのみを用いて、画像の画素とCIEXYZまたはLABのような明確に定義された「接続空間」との間でマッピングを行うことができる。このような場合、カメラ製造業者は、AdobeRGBまたはsRGBのような、ガンマ調節した作業または出力空間に変換する前に、画素値をこの較正空間にマッピングする必要がある。これによって、カメラの非線形フィルム類似処理を無効にし(defeat)、固定した較正を強制する。代わりに、カメラの出力は、通常、付随する出力カラー・プロファイル・マトリクスによって指定される全域判断基準(gamut criteria)に忠実であるが、カメラは故意に線形階調マッピング・モデルを「違反し」、フィルム類似特性を導入する。これは、カメラ内部CMモジュール226においてカラー・プロファイル階調応答(または再生)曲線(TRC)、即ち、図2に示すセンサ・プロファイル情報を用いて導入することができ、あるいは別個の処理ステップとして導入することもできる。いずれにしても、効果は基本的に同一であり、データはもはや線形ではなく、付随するICCプロファイルはもはや既知の線形空間にマッピングしない。これの重要性について以下で更に詳しく論ずることにする。
画像データのソースが生ファイルかまたはJPEGのような処理ファイルかには拘わらず、続いて、統一画像編集アプリケーション212に入力される。統一画像編集アプリケーション212において最初に遭遇するのは、デコード・モジュール230であり、画像を伸張し、アプリケーションが使用できるフォーマットにそれを変換する。
統一画像編集アプリケーション212への入力が生ファイルからである場合、データは続いてセンサ・デモザイク・モジュール232に入力され、ここで、ブロック216を参照して既に詳しく説明したように、カラー・マトリクス即ちモザイクによってフィルタ処理される。一方、統一画像編集アプリケーション212への入力がJPEGファイルからである場合、データは続いて色管理(CM)モジュール232に入力され、CMモジュール232は、本質的に、CMモジュール226において行われた変換の逆行分析を行う。更に詳細には、CMモジュール232には、作業または出力プロファイルおよびセンサ・プロファイルも入力される。これらは、以前にCMモジュール262に入力されたのと同じ2つのプロファイルである。CMモジュール232では、データは作業または出力プロファイルから逆にセンサ・プロファイルに変換され、次いで生状態に戻される。一旦データが生状態に戻ると、統一画像編集アプリケーション212に入力された前処理済データ入力、および統一画像編集アプリケーション212が受け取ったいずれの生データも、全く同じように処理される。尚、ブロック232で示すモジュールは、画像データ入力の種類(即ち、生または前処理済)に応じて、統一画像編集アプリケーション212と相互交換可能であることを注記しておく。
統一画像編集アプリケーション212に入力されるデータには関係なく、一旦データがブロック232を通過したなら、これは統一フォーマットになっている。このため、画像データは、必要および/または所望に応じて、続いて種々の修正モジュールに入力することができる。更に詳細には、データは、露出モジュール234、カラー・バランス・モジュール236、および/または鮮鋭化モジュール242に入力することができ、これらの修正モジュールの各々は、対応するモジュール218、220、および224と同様の機能を実行する。これらの処理機能の各々は、当業者には周知でありしかも理解されているので、ここではこれ以上説明しない。尚、図2に示す種々の処理モジュールがデータを処理する順序は、単なる一例に過ぎず、これらの処理ステップはいかなる順序で実行してもよいことは言うまでもなく、当業者には認められよう。加えて、処理モジュール234、236、および242のいずれの1つ以上も、それらによって行うことができる調節が不要であると判断された場合には、省いてもよい。更にまた、鮮鋭化およびノイズ低減のような処理は、望ましければ、写真画像データをセンサ・デモザイク・モジュール232に入力する前に行ってもよい。このような変形の全ては、本発明の範囲に該当することを想定している。
加えて、統一画像編集アプリケーション212は、多数の追加のアプリケーション、例えば、サイズ変更、枠縁の追加、テキストの追加等のような、創作的アプリケーションを実行するための編集モジュール238も含む。加えて、編集モジュール238は、異なるソースからの画像(または同じソースからの追加画像)も、生であるか前処理されているかに係わらず、受け取ることができる。このような画像は、CMモジュール240から出力することができる。画像データが前処理済データである場合、画像データに加えて、そのデータおよび所望の編集のあらゆる付加効果についての作業または出力プロファイルおよびセンサ・プロファイルもCMモジュール240に入力される。したがって、CMモジュール240の出力は、編集モジュール238が受け取る他のデータ全てと同じフォーマットとなる。
一旦所望の編集を全て行ったなら、画像データを、ディスプレイ・デバイス246に出力する前の最終処理のためにCMモジュール244に転送することができ、あるいは印刷デバイス250に出力する前の最終処理のためにCMモジュール248に転送することができ、あるいはJPEG/TIFF/等のファイルとしてエンコーダ254を介して出力する前の最終処理のためにCMモジュール252に転送することができる。また、CMモジュールがCMモジュール244、CMモジュール248、またはCMモジュール252のいずれであっても、センサ・プロファイルも入力される。また、ディスプレイ・デバイス・プロファイルもCMモジュール244に入力される。このように、最終処理のためにCMモジュール244に転送された画像データは、データに適用されるセンサ・プロファイルを有し、次いでディスプレイ・デバイス246上に標示するために、ディスプレイ・デバイス・プロファイルに変換される。また、印刷デバイス・プロファイルもCMモジュール248に入力される。このように、最終処理のためにCMモジュール248に転送された画像データは、それに適用されるセンサ・プロファイルを有し、次いでプリンタ250による印刷のために印刷デバイス・プロファイルに変換される。また、作業または出力プロファイルもCMモジュール252に入力される。このように、最終処理のためにCMモジュール252に転送された画像データは、それに適用されるセンサ・プロファイルを有し、次いで、エンコーダ254を介して、例えば、JPEG/TIFF/等のファイルに保存するために、作業または出力プロファイルに変換される。尚、余分な画像データがCMモジュール240に入力された場合、1つよりも多いセンサ・プロファイルを適用すればよく、各々が、それに付随する画像データに対して特定されている。
図2の統一画像処理モジュールは、従来の生画像エディタのような、本質的にフィルム類似処理を含み、従来の前処理済画像エディタと同様、1つのモデルのみに関与する。所望のセンサ・プロファイルであればいずれでも選択することができる(カメラ製造業者またはサード・パーティが供給するセンサ・プロファイル、オペレーティング・システムの一部としてインストールされたセンサ・プロファイル、ウェブサイトからアクセスしたセンサ・プロファイル、および/または生または既処理ファイルから抽出したセンサ・プロファイル)。実際、ユーザは、例えば、望ましければ個人プロファイル構築ツールを利用して、彼ら自身のセンサ・プロファイルを計算することもできる。
普及しつつある従来の生画像処理モデルに対する最大の課題の1つは、センサの固有色空間(native color space)にある画像が、他の画像と組み合わせるのに適した共通の色空間に正規化されていないことである。同じセンサから別の画像が導入された場合、これらの画像に対するカラー・プロファイルには一貫性があるので、互換性があることになる。しかしながら、他のカメラ・モデルからの画像、あるいはsRGBまたはその他の共通作業空間でエンコードした画像を扱う場合、これらの画像を組み合わせることは課題となる。何故なら、ユーザはどの「作業ファイル」を用いるべきか、そしてどのようにそれを適用すべきかに関して判断を行わなければならないからである。
全ての画像データを、従来のプロトタイプのディスプレイ・デバイスの作業または出力空間の1つに送り出すと、ユーザを逆戻りさせ、従来の前処理済画像編集モデルから開始することになる。この手法には、2つの問題がある。第1に、AdobeRGBやsRGBのような従来の作業プロファイルに伴って非線形性が混入することは望ましくない。第2に、いずれの作業プロファイルにマッピングする前にも、センサ・データの接続空間へのマッピングを可能にするためには、余分なデータが必要となる。
本発明の実施形態にしたがってこれらの問題に取り組む鍵の1つは、センサ・プロファイルにある。問題のあるフィルム類似TRCデータに加えて、センサ・プロファイルは、センサ対XYZ較正マトリクスも含む。このデータによって、他のセンサからまたは標準的な作業または出力空間からの画像も組み合わせることができる。したがって、以下の3つの想定場面が合成に可能となる。最初に、同じセンサからの画像を組み合わせる場合、画像を単に線形に組み合わせ、パイプラインの終点においてセンサ・プロファイルを用いて、目標のデバイスまたは作業空間にマッピングする(または、手つかずのまま残して生画像として保存する)。第2に、異なるセンサからの画像を組み合わせる場合、配合ステップを含むステップまでのいずれかの時点においても、一方または双方の画像を、マトリクス・マッピングによって、共通線形色空間に変換することができる。次いで、「基本」画像(即ち、最初にロードした画像)または後続画像、あるいはscRGBのような線形作業プロファイルを選択することができる。パイプライン・バッファにおいて適度な数値精度があれば、後者の手法は、共通作業プロファイルを確定するには望ましいと言えよう。16ビット整数のように精度を制約することは、元の画像プロファイル空間の1つに保持するには望ましいと言えよう。
第3の可能な合成の想定場面では、画像をsRGBまたはAdobeRGBのようなデバイス特性プロファイルと組み合わせることを伴う。これらの画像は、ミキシングの前にパイプラインの線形作業空間に変換することができる。
以上の合成の想定場面全てについて、図2に示した統一画像処理モデルを実施する独立したソフトウェアまたはハードウェア販売業者が、基本的に1.0のガンマを有し(即ち、線形であり)、大まかにsRGBに較正されるが広大なダイナミック・レンジおよび全域を有するscRGBのような優れた線形作業空間に変換することを常に選択することもあり得る。
従来の画像編集アプリケーションの最大の問題は、非線形性のあらゆる発生源、例えば、階調マッピングである(明確に定義したプロファイルは、他のものよりは容易に逆行可能であるが)。逆に画像をセンサ・データの線形モデルにマッピングするために必要な成分は、カメラのフィルム類似階調マッピング曲線集合を有するカメラ・プロファイル(即ち、センサ・プロファイル情報)である。この曲線集合には、潜在的に多数の情報源があり、一部は今日利用可能であり、一部は今後のカメラ、アプリケーション、プラットフォームおよび/またはファイル・フォーマットに組み込まれるかもしれない。最初に、センサ・プロファイルを画像ファイル(例えば、JPEGまたはTIFF)に埋め込むか付随させることができる。これは望ましい手法である。何故なら、各カメラ製造業者は、本発明の実施形態にしたがって画像を正確に同じ方法でいずれのプラットフォームでも扱われることを確実にすることができるからである。この埋め込みを、埋め込み作業または出力ファイル(例えば、sRGBまたはAdobeRGB)と混同してはならない。何故なら、双方共、生のセンサ空間に完全に変換し戻すために必要であるからである(図2のCMモジュール232を参照のこと)。
第2に、作業または出力プロファイルのみがファイルに埋め込まれている場合、ユーザ(またはアプリケーション)は、プラットフォーム上にインストールされている集合からしかるべきプロファイルを選択することができる。多数の独立したソフトウェア販売業者が、今日この方策を用いている。カメラ製造業者は、これを、前述した方策の代案としても用いることができる。加えて、サード・パーティは1つ以上のカメラ・モデルに対するカスタムの「フィルム」曲線を、ビジネス・モデルとして設計することができる。これは、これら企業固有の付加価値「フィルム」プロファイルを消費するメカニズムとなろう。
第3に、前述の企業固有の設計がない場合に用いて、本発明の実施形態によるモデルが、デバイスについての特定のプロファイルがあってもなくても、線形空間において作業できるようにするために、単純な包括的プロファイル(generic profile)が存在する。
センサ・プロファイルにおけるTRC曲線の使用によりCMモジュール232を用いて、画像データを、そのガンマ調節した作業値または出力値、およびフィルム類似応答の逆行値からマッピングすると、データを元のセンサ・データの線形モードまたは非常に線形に近いモードに戻すことができる。尚、センサ・プロファイルのマトリクス成分は、非線形性を混入させるTRC曲線とは全く異なるICCプロファイルから予期されるように、通常、センサ・スペクトルをXYZに正しくマッピングすることを注記しておく。センサ・プロファイル・マトリクス要素に対する単純な修正は、本発明の実施形態による処理モデルがセンサ特性とは独立して共通の作業または出力にマッピングすることを可能にするために利用することができる。例えば、恒等行列はデータをXYZでそのままの値に保つ。sRGBまたはscRGBマトリクスはこれらの空間にマッピングする。カスタムのカメラ・ミックス(camera mix)の代わりに、共通空間のいずれでもカメラ・プロファイル・マトリクスのエントリに用いることができる。
一旦画像データを共通の線形作業空間にマッピングしたなら、図3の生画像処理モデルにおいて用いたのと同じワークフローおよび制御を用いて、設定値の全てを調節することができる。図2の前処理済画像処理モデルと図3の生画像処理モデルとの間の主要な相違は、デコードおよびカラー・マッピング・ステップの他に、生データは定義上未変更センサ・データであるのに対して、前処理済データには既に調節が行われている可能性があり、そして調節が行われることになることである。露出や単純なカラー・バランスのような処理ステップの一部では、前もってどのような調節をデータに対して既に行ったかを知ることは、調節の精度に対して通常は重要ではない。しかしながら、色温度補正のように、調節の中には、プロセス設定値が入手可能であることが重要な場合もある。カメラにおいて画像を処理する場合、そのデータを画像ファイル、例えば、EXIFにエンコードし、その他のタグを画像と共に含ませる。このデータは、生および前処理済画像処理モデル双方に、補正が精度高く行われることを確認するために、入手可能である。本発明の統一処理モデルは、データが最新状態に保持されていることを確認する必要がある。
図3を参照すると、フロー図が描かれており、図2の統一モデルを利用して、生および/または前処理済ディジタル画像データのワークフローを処理する方法を示す。この方法を全体的に参照番号300で示す。最初に、ブロック310に示すように、システムがディジタル画像データを受信する。続いて、受け取ったディジタル・データが生画像データかまたは前処理済画像データか判定を行う。これはブロック312に示す通りである。
受け取ったディジタル画像データが生画像データであると判定した場合、続いて、ブロック313に示すように、このデータに適用するセンサ・プロファイルを受け取り、このデータを分解して(de-mosaiced)画素毎に3つの値を作成する。次に、システムは、分解した画像データに対して1つ以上の修正を受け取り、修正画像データを作成する。これをブロック314に示す。1つ以上の修正は、一例に過ぎないが、露出補正、ホワイト・バランス補正、鮮鋭度の補正、創作的補正等を含むことができる。
次に、センサ・プロファイルおよび出力プロファイル(例えば、ディスプレイ・デバイス・プロファイル、作業プロファイル、および/または印刷デバイス・プロファイル)を、修正した画像データに適用して、出力対応の画像データを作成する。これはブロック316に示す通りである。一旦センサ・プロファイルおよび出力プロファイルを適用したなら、得られた画像ファイルを、例えば、印刷デバイスまたはディスプレイ・デバイスに出力するか、またはJPEG、TIFF等のような既処理ファイル・フォーマットで格納することができる。これは、ブロック318に示す通りである。
しかしながら、ブロック312において、受け取ったディジタル画像データが前処理済画像データであると判定した場合、システムは、続いて、カメラ内部処理中に画像データに適用されたセンサ・プロファイル、または適用されたプロファイルに対して同様のマッピングを含む、そのプロキシを受け取る。続いて、ブロック322に示すように、センサ・プロファイルおよび既処理画像ファイルを用いて、前処理済画像データを線形画像データに変換する。
次に、システムは線形画像データに対する1つ以上の修正を受け取り、修正画像データを生成する。これはブロック314に示す通りである。1つ以上の修正は、一例に過ぎないが、露出補正、ホワイト・バランス補正、鮮鋭度の補正、創作的補正等を含むことができる。
続いて、ブロック320において既に受け取っているセンサ・プロファイル、および出力プロファイル(例えば、ディスプレイ・デバイス・プロファイル、作業プロファイル、および/または印刷デバイス・プロファイル)を修正画像データに適用して、出力対応の画像データを作成する。これは、ブロック316に示す通りである。一旦センサ・プロファイルおよび出力プロファイルを適用したなら、得られた画像ファイルを、例えば、印刷デバイスまたはディスプレイ・デバイスに出力するか、あるいはJPEG、TIFF等の既処理ファイル・フォーマットで格納することができる。これは、ブロック318に示す通りである。
ここで図4に移ると、フロー図が描かれており、図2の統一モデルを利用して、生および/または前処理済ディジタル画像データのワークフローを処理する方法の実施形態を示す。この方法を全体的に参照番号400で示す。最初に、ブロック410に示すように、システムがディジタル画像データを受け取る。続いて、受け取ったディジタル画像データが線形画像データか否か判定を行う。これはブロック412に示す通りである。
受け取ったディジタル画像データが線形ディジタル画像データでないと判定した場合、例えば、カラー・マッピングをディジタル画像データに適用することによって、ディジタル画像データを線形ディジタル画像データに変換する。これをブロック414に示す。続いて、または受け取ったディジタル画像データが線形ディジタル画像データであると判定した場合、1つ以上の処理ステップをこの線形ディジタル画像データに適用して、既処理線形ディジタル画像データを作成する。これはブロック416に示す通りである。続いて、ブロック418に示すように、センサ・プロファイルおよびデバイス・プロファイルを既処理線形ディジタル画像データに適用し、デバイス対応のディジタル画像データを作成する。
ファイルを編集し再度保存するとき、ここに記載する方法による後続の編集セッションが精度の高い基準線を有し、それに基づいて補正を行うように、ファイルの「起源」(provenance)を保存することが重要である。これによって、後続の編集セッションが同じ高忠実度の画像処理モデルを利用し、予測可能な結果が得られることを確保する。勿論、生画像の編集では、元の画像は全く変化していないので、後続の編集セッションは単にパイプライン上で「予め設定されている」設定値を用いればよい。
本発明の統一処理モデルは、この特徴を前処理済画像の編集に拡大する。カメラで撮影した前処理済画像は、「ネガ」として扱うことができ、全く変化させないことができる。これを遂行するには、まずカメラからの設定値を、パイプラインにおけるプロセス前提値(process priors)および調節設定値双方として用いる(その結果、無変化の出力が得られる)。露出または色のような設定値を修正するとき、プロセス設定値に対するこれらの調節値(図2参照)を、カメラの設定値と共に格納する。このようにして、視認または編集のために画像を開く度に、最初であろうと5回目であろうと、元の設定値を自在に再現することができ、劣化を伴うことなく以前に格納した設定を容易に調節することができる。
図5を参照すると、簡略化した模式図が、本発明のモデルの統一パイプラインがこのデータを用いてどのように動作するかを示している。最初に、ファイルの種類に応じて、生画像データを分解する(例えば、RGBに変換する)か、または前処理済画像データ(例えば、JPEG)をデコードする。ファイルにカメラからの前処理済データがある場合、カメラの処理設定値を調節用前処理済データおよびプロセス設定値の双方にロードし、事実上画像を手つかずのままにする。これらの設定値のいずれの調節も、プロセス設定値に対して行われ、カメラのEXIF設定値とは別個に格納される。続くロードでは、カメラの設定値を前処理済設定値にロードし、格納されている修正設定値をプロセス設定値にロードする。このように、元の画像データおよびカメラ設定値、即ち、カメラからの元のファイルは、手つかずのまま残される。調節データ(プロセス設定値)のみが、格納のときに、変化する。いずれの時点においても、元のカメラ設定値を元通りにすることができる。
図5は、図2とは、1つの重要な観点において相違する。即ち、図5は、既処理データの経路が二方向にパイプラインを横断するように示す。これは、カメラにおいて行われた処理を「逆転」させ、線形空間調節を適用する前に、データをその「生」状態に戻す一実施態様である。しかしながら、実際には、これは大抵の場合図2に示す処理に対しては不要な装飾である。殆どのステップは、データが線形であれば、転換可能である。即ち、データを元の(降順)順序のままにしておくことができる。CMステップにおける線形空間への再処理は、しかしながら、最初に行われなければならない。したがって、図5は理想的な処理モデルを端的に概念化しているが、図2は単に調節値に対して2つの入力を有することにより、即ち、前処理設定値(即ち、カメラ設定値)に1つ、目標のプロセス設定値に1つ有することにより、処理を精度高く複製することができる。実際に、露出のような、あるものは技術的には1つの入力、所望の露出変化(デルタ)だけを有することができる。
生画像処理は、前処理済データとほぼ同じ方式にしたがって行われるカメラ設定値を、プロセス設定値として(生画像には前処理設定値はない)、パイプラインにロードし、画像を描写する。これらの設定値に対して調節を行い、前述の前処理手法の場合と同様、ファイルと共に格納する。前処理モデルと丁度同じように、ファイルは、格納したプロセス設定値を返して、いずれの時点でも、元のカメラ設定値を元通りにして、元のスレート(slate)に戻すことができる。
本発明の実施形態は、生および/または前処理済ディジタル画像を処理するための統一方法を提供することは理解できよう。本発明の更に別の実施形態は、生および/前処理済ディジタル画像を処理するための統一システムを提供する。
以上、特定的な実施形態に関して本発明について説明したが、これらはあらゆる観点においても限定ではなく例示であることを意図している。本発明が属する分野の当業者には、代替実施形態も明白であろうが、これらも本発明の範囲から逸脱する訳ではない。
以上のことから、本発明は、先に明記した全ての目標および目的を達成し、その上前述のシステムおよび方法には明白かつ固有のその他の利点も得られるように十分に適合することがわかるであろう。尚、ある種の特徴および従属的な組み合わせ(subcombination)は有益であり、他の特徴や従属的な組み合わせを参照せずに採用できることは言うまでもない。このことは、特許請求の範囲に織り込まれており、特許請求の範囲に該当することとする。

Claims (4)

  1. 未修正または最小限の修正を施したセンサ・データであり、線形性を有する生ディジタル画像データおよび前処理済ディジタル画像データの少なくとも1つを処理する方法であって、
    ディジタル画像データを受け取るステップと、
    前記受け取ったディジタル画像データが生ディジタル画像データかまたは前処理済ディジタル画像データか判定を行うステップと、
    センサ・プロファイルを受け取るステップと、
    を備えており、前記受け取ったディジタル画像データが前処理済ディジタル画像データであると判定した場合、前記方法は、更に、
    線形ディジタル画像データを作成するために、前記前処理済ディジタル画像データに前記センサ・プロファイルを適用するステップと、
    出力対応のディジタル画像データを作成するために、前記線形ディジタル画像データに、前記センサ・プロファイルおよび出力プロファイルを適用するステップと、
    を備え、該方法は、更に、
    追加のディジタル画像データを受け取るステップと
    前記受け取った追加のディジタル画像データが線形ディジタル画像データか否か判定を行うステップと、
    前記受け取った追加のディジタル画像データが線形ディジタル画像データでないと判定した場合、追加の線形ディジタル画像データを作成するために、前記受け取った追加のディジタル画像データを線形ディジタル画像データに変換するステップと、
    合成線形ディジタル画像データを作成するために、前記追加の線形ディジタル画像データを、前記線形ディジタル画像データの少なくとも1つと合成するステップと、
    出力対応のディジタル画像データを作成するために、前記合成線形ディジタル画像データに、前記センサ・プロファイルおよび出力プロファイルを適用するステップと、
    を備えている、方法。
  2. 請求項1に記載の方法において、前記線形ディジタル画像データに前記センサ・プロファイルおよび出力プロファイルを適用するステップは、前記線形ディジタル画像データに前記センサ・プロファイルおよびディスプレイ・デバイス・プロファイルを適用することから成り、前記方法は、更に、前記出力対応ディジタル画像をディスプレイ・デバイスに出力するステップを備えている、方法。
  3. 請求項1に記載の方法において、前記線形ディジタル画像データに前記センサ・プロファイルおよび出力プロファイルを適用するステップは、前記線形ディジタル画像データに前記センサ・プロファイルおよび印刷デバイス・プロファイルを適用することから成り、前記方法は、更に、前記出力対応ディジタル画像データを印刷デバイスに出力するステップを備えている、方法。
  4. 請求項1〜の何れか1項に記載の方法を実行するためのコンピュータ実行可能命令を有する1つ又は2つ以上のコンピュータ読み取り可能媒体。
JP2009283617A 2005-06-20 2009-12-15 生ディジタル画像および前処理済ディジタル画像の処理 Expired - Fee Related JP5491156B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/156,986 US7336817B2 (en) 2005-06-20 2005-06-20 Processing raw and pre-processed digital images
US11/156,986 2005-06-20

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008518203A Division JP2008544696A (ja) 2005-06-20 2006-06-07 生ディジタル画像および前処理済ディジタル画像の処理

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013032735A Division JP2013168943A (ja) 2005-06-20 2013-02-22 生ディジタル画像および前処理済ディジタル画像の処理

Publications (2)

Publication Number Publication Date
JP2010104015A JP2010104015A (ja) 2010-05-06
JP5491156B2 true JP5491156B2 (ja) 2014-05-14

Family

ID=37573391

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2008518203A Pending JP2008544696A (ja) 2005-06-20 2006-06-07 生ディジタル画像および前処理済ディジタル画像の処理
JP2009283617A Expired - Fee Related JP5491156B2 (ja) 2005-06-20 2009-12-15 生ディジタル画像および前処理済ディジタル画像の処理
JP2013032735A Pending JP2013168943A (ja) 2005-06-20 2013-02-22 生ディジタル画像および前処理済ディジタル画像の処理

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2008518203A Pending JP2008544696A (ja) 2005-06-20 2006-06-07 生ディジタル画像および前処理済ディジタル画像の処理

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2013032735A Pending JP2013168943A (ja) 2005-06-20 2013-02-22 生ディジタル画像および前処理済ディジタル画像の処理

Country Status (6)

Country Link
US (1) US7336817B2 (ja)
EP (1) EP1897031A2 (ja)
JP (3) JP2008544696A (ja)
KR (1) KR20080019595A (ja)
CN (1) CN101180635B (ja)
WO (1) WO2007001773A2 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030035653A1 (en) * 2001-08-20 2003-02-20 Lyon Richard F. Storage and processing service network for unrendered image data
US7840067B2 (en) * 2003-10-24 2010-11-23 Arcsoft, Inc. Color matching and color correction for images forming a panoramic image
JP4720387B2 (ja) * 2005-09-07 2011-07-13 ソニー株式会社 撮像装置、画像処理装置、および方法、並びにコンピュータ・プログラム
US7612805B2 (en) 2006-07-11 2009-11-03 Neal Solomon Digital imaging system and methods for selective image filtration
JP4924274B2 (ja) * 2007-08-01 2012-04-25 セイコーエプソン株式会社 画像処理装置、画像処理方法及びそのプログラム
JP2009081709A (ja) * 2007-09-26 2009-04-16 Seiko Epson Corp 画像処理システムおよび画像処理装置
US20090109491A1 (en) * 2007-10-30 2009-04-30 Microsoft Corporation Raw-quality processing of non-raw images
US8938104B2 (en) * 2008-08-29 2015-01-20 Varian Medical Systems International Ag Systems and methods for adaptive filtering
KR20100055949A (ko) * 2008-11-18 2010-05-27 삼성전자주식회사 영상 촬영/재생 시스템 및 그의 동작 방법
US8411106B2 (en) * 2008-12-30 2013-04-02 Canon Kabushiki Kaisha Converting digital values corresponding to colors of an image from a source color space to a destination color space
EP2298455A1 (en) * 2009-09-17 2011-03-23 Borealis AG Method of coating pipes or pipe sections
US8675086B1 (en) * 2010-03-26 2014-03-18 Ambarella, Inc. Architecture for video, fast still and high quality still picture processing
JP6355595B2 (ja) * 2015-06-02 2018-07-11 キヤノン株式会社 撮像素子、撮像装置、撮像素子の制御方法、プログラムおよび記憶媒体
US11493670B2 (en) 2017-10-09 2022-11-08 Iphysicist Ltd. Lens design with tolerance of fabrication errors
JP7283155B2 (ja) * 2019-03-19 2023-05-30 富士フイルムビジネスイノベーション株式会社 データ収集システム及びデータ収集方法
CN113836996B (zh) * 2021-08-10 2024-02-02 中国地质大学(武汉) 高光谱遥感图像部分迁移方法及系统
JP2023077358A (ja) * 2021-11-24 2023-06-05 一誠 藤池 メーカの表現の仕組みを表すアプリケーションソフト

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04321388A (ja) * 1991-04-19 1992-11-11 A G Technol Kk 液晶テレビ装置
US5623281A (en) * 1994-09-30 1997-04-22 Texas Instruments Incorporated Error diffusion filter for DMD display
CN1156104C (zh) * 1998-09-14 2004-06-30 三星电子株式会社 公用信道发送数据的处理方法
JP4369585B2 (ja) * 2000-02-07 2009-11-25 富士フイルム株式会社 画像処理装置
EP1158484A3 (en) * 2000-05-25 2008-12-31 Seiko Epson Corporation Processing of image data supplied to image display apparatus
JP3428589B2 (ja) * 2001-03-30 2003-07-22 ミノルタ株式会社 画像処理プログラムが格納された記録媒体、画像処理プログラム、画像処理装置
JP2003299116A (ja) * 2002-04-01 2003-10-17 Minolta Co Ltd 画像処理装置、およびプログラム
JP3800192B2 (ja) * 2002-05-21 2006-07-26 カシオ計算機株式会社 撮像装置、画像合成方法及び画像合成プログラム
JP4066737B2 (ja) * 2002-07-29 2008-03-26 セイコーエプソン株式会社 画像処理システム
JP2005033255A (ja) * 2003-07-07 2005-02-03 Fuji Photo Film Co Ltd デジタル画像の画像処理方法、デジタルカメラ及びプリントシステム
JP4241228B2 (ja) * 2003-07-11 2009-03-18 キヤノン株式会社 撮像装置
JP2005130281A (ja) * 2003-10-24 2005-05-19 Canon Inc 画像処理システム、画像処理方法及びプログラム
JP2005208817A (ja) * 2004-01-21 2005-08-04 Konica Minolta Photo Imaging Inc 画像処理方法、画像処理装置及び画像記録装置
JP4338551B2 (ja) * 2004-03-04 2009-10-07 富士フイルム株式会社 画像再生方法、画像再生装置及び画像再生プログラム
US20050212914A1 (en) * 2004-03-25 2005-09-29 Fuji Photo Film Co., Ltd. Method, apparatus, system, and computer executable program for image processing
JP4466378B2 (ja) * 2005-01-11 2010-05-26 株式会社ニコン 履歴付加装置、電子カメラ、および画像処理プログラム

Also Published As

Publication number Publication date
CN101180635B (zh) 2011-11-23
JP2010104015A (ja) 2010-05-06
WO2007001773A2 (en) 2007-01-04
JP2008544696A (ja) 2008-12-04
KR20080019595A (ko) 2008-03-04
US20060285761A1 (en) 2006-12-21
EP1897031A2 (en) 2008-03-12
WO2007001773A3 (en) 2007-11-08
JP2013168943A (ja) 2013-08-29
US7336817B2 (en) 2008-02-26
CN101180635A (zh) 2008-05-14

Similar Documents

Publication Publication Date Title
JP5491156B2 (ja) 生ディジタル画像および前処理済ディジタル画像の処理
CN103503429B (zh) 高动态范围图像处理方法
RU2738693C1 (ru) Способы кодирования, декодирования и представления изображений высокого динамического диапазона
US6285784B1 (en) Method of applying manipulations to an extended color gamut digital image
WO2005027040A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP4523193B2 (ja) 拡張色域デジタル画像の処理方法及びコンピュータ保存用製品
US6462748B1 (en) System and method for processing color objects in integrated dual color spaces
US6748106B1 (en) Method for representing an extended color gamut digital image on a hard-copy output medium
JP4210397B2 (ja) 拡張色域ディジタル画像に対して操作を行なう方法
US20080007748A1 (en) Compositing image data in a linear-light color space that preserves a desired look
US20050190388A1 (en) Color conversion system, color conversion apparatus and color conversion program storage medium
JP2007013475A (ja) 画像処理装置および方法
JP4338190B2 (ja) 画像処理装置、方法、プログラム及び記録媒体
Jones Images, An Overview
JP2003032618A (ja) 処理制御データ付き画像ファイルの生成装置
JP2004064464A (ja) 画像処理方法及び装置並びに記憶媒体
US20050134608A1 (en) Method, and related system, for overlaying a graphics object on a digital picture
Fisher The Anti-HDR HDR Photography Book: A Guide to Photorealistic HDR and Image Blending
Lynch The Hidden Power of Photoshop Elements 4
Spaulding et al. Color encodings: sRGB and beyond
McMahon et al. Apple Aperture 2: A workflow guide for digital photographers
JP2002016821A (ja) 画像処理方法および装置並びにそのためのプログラムを記録した記録媒体
JP2002016875A (ja) 階調設定方法および装置並びに記録媒体
JP2007151197A (ja) 画像処理装置および画像処理方法
JP2003087723A (ja) 画像処理装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111020

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120120

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120125

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120220

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120223

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120319

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120417

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140227

R150 Certificate of patent or registration of utility model

Ref document number: 5491156

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees