JP2004240732A - Image compositing method, image compositing device, image compositing program and image recording device - Google Patents

Image compositing method, image compositing device, image compositing program and image recording device Download PDF

Info

Publication number
JP2004240732A
JP2004240732A JP2003029394A JP2003029394A JP2004240732A JP 2004240732 A JP2004240732 A JP 2004240732A JP 2003029394 A JP2003029394 A JP 2003029394A JP 2003029394 A JP2003029394 A JP 2003029394A JP 2004240732 A JP2004240732 A JP 2004240732A
Authority
JP
Japan
Prior art keywords
image
image data
conversion
synthesis
distortion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003029394A
Other languages
Japanese (ja)
Inventor
Takeshi Hattori
毅 服部
Shoichi Nomura
庄一 野村
Tsukasa Ito
司 伊藤
Chizuko Ikeda
千鶴子 池田
Jo Nakajima
丈 中嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2003029394A priority Critical patent/JP2004240732A/en
Publication of JP2004240732A publication Critical patent/JP2004240732A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To alleviate the artificiality of a composite image by a method having a small number of steps. <P>SOLUTION: An image compositing means 30 composites image data G1 and G2 of an original image to create image data P of a composite image, and creates composite end part information. A post-composite processing means 40 determines image converting conditions for conversion to the image data P of the composite image using the composite end part information obtained by the image compositing means 30, and converts the image data P of the composite image based on the determined image converting conditions to create image data P' of the composite image after post-processing. For example, the blurring processing by a space filter is conducted in an image position described in the composite end part information. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、画像合成方法、画像合成装置、画像合成プログラム及び画像記録装置に関し、自然な印象の合成画像を作成するための処理に関する。
【0002】
【従来の技術】
近年、デジタルカメラやスキャナ等の普及により、デジタル画像データを扱う機会が増えている。これらの画像データは、複数の画像データの全体又は一部を合わせて1つの画像データに合成する等、加工が容易である。例えば、画像から人物等の特定部分を抜き出して背景画像に貼り付けたり、車や飛行機等のCG(Computer Graphics)画像を自然画の背景画像に貼り付けたり、自然画から人物等の特定部分を抜き出して架空の室内や未来都市等のCGの背景画像に貼り付けたり、店舗写真の看板のデザインを変えたりすることができる。ここで、自然画とは、実在するものを撮影した画像をいう。画像の合成方法としては、画像の一部を置き換える置き換え合成や、一方の画像の一部を他方の画像に重ねる透かし合成等がある。
【0003】
画像を合成する際には、いかに違和感なく自然な印象の画質にするかが問題となる。例えば、ある画像から人物を抜き出して、別の背景画像へ貼り付けた合成画像において、元画像の粒状特性や鮮鋭度特性を予め調整してから画像を合成する方法が提案されている(例えば、特許文献1参照。)。これにより、合成画像中の領域毎に粒状や鮮鋭度が異なることによる見た目の違和感が解消される。
【0004】
【特許文献1】
特開平11−275343号公報
【0005】
【発明が解決しようとする課題】
しかしながら、特許文献1に記載の方法では、合成された境界部分に関して画像が調整されていないので、境界の不自然さが残ってしまう。また、合成前に特許文献1に記載の方法のような前処理がなされていても、適切でなかったり、不十分であったりする場合がある。また、合成前の調整には限界があり、合成した後の全体の印象に不自然さが残る場合がある。
合成後の処理として、合成の境界部にぼかし等の画像処理を手作業で行う方法が知られているが、作業工数が多くかかるという問題がある。
【0006】
本発明は上記の従来技術における問題に鑑みてなされたものであって、作業工数が少ない方法で、合成画像の不自然さを軽減させることができる画像合成方法、画像合成装置、画像合成プログラム及び画像記録装置を提供することを課題とする。
【0007】
【課題を解決するための手段】
上記の課題を解決するための請求項1に記載の発明は、2つ以上の画像を用いて合成画像を作成する画像合成方法において、前記2つ以上の画像が互いに接する境界に関する合成端部情報を用いて合成後の画像データへの画像変換条件を決定し、前記決定された画像変換条件に基づいて前記合成後の画像データを変換する合成後処理工程を含むことを特徴とする画像合成方法である。
【0008】
請求項1に記載の発明によれば、合成端部情報を用いることにより、合成画像の各領域毎に適切な変換ができるので、合成画像の不自然さを軽減させることができる。特に、合成画像の境界部やその周辺に対して合成後の画像データを変換することができるので、合成画像の境界部の不自然さを軽減させることができる。したがって、極めて少ない作業工数で合成画像を自然な画像にすることができる。
【0009】
請求項2に記載の発明は、2つ以上の画像を用いて合成画像を作成する画像合成方法において、合成後の画像データから歪み量を算出する歪み量算出工程と、前記算出された歪み量に基づいて前記合成後の画像データへの画像変換条件を決定し、前記決定された画像変換条件に基づいて前記合成後の画像データを変換する画像データ変換工程と、を含むことを特徴とする画像合成方法である。
【0010】
請求項2に記載の発明によれば、歪み量に基づいて画像データを変換するので、必要な部分に必要な程度の処理を行うことができる。そのため、極めて少ない作業工数で合成画像の不自然さを軽減させることができる。
【0011】
請求項3に記載の発明は、請求項2に記載の画像合成方法において、前記歪み量算出工程において、前記2つ以上の画像が互いに接する境界に関する合成端部情報を用いて歪み量を算出することを特徴とする画像合成方法である。
【0012】
請求項3に記載の発明によれば、合成端部情報を用いて歪み量を算出するので、効率よく歪み量を算出することができる。したがって、より精度よく合成画像の不自然さを軽減させることができる。
【0013】
請求項4に記載の発明は、請求項3に記載の画像合成方法において、前記歪み量算出工程は、多重解像度変換を含むことを特徴とする画像合成方法である。
【0014】
請求項4に記載の発明によれば、多重解像度変換により、解像度が異なる複数の画像データを用いて、より精度よく歪み量を算出することができる。したがって、より精度よく合成画像の不自然さを軽減させることができる。
【0015】
請求項5に記載の発明は、請求項4に記載の画像合成方法において、前記画像データ変換工程における合成後の画像データへの変換は、前記多重解像度変換後の画像データへの変換であることを特徴とする画像合成方法である。
【0016】
請求項5に記載の発明によれば、多重解像度変換された画像データを、合成画像データの歪み量の算出に用いるとともに、歪み量に基づく画像データ変換に用いることにより、処理を効率化することができる。
【0017】
請求項6に記載の発明は、請求項1〜5のいずれか一項に記載の画像合成方法において、合成前に少なくとも1つの画像に対して、多重解像度変換を用いた合成前処理を行う合成前処理工程を含むことを特徴とする画像合成方法である。
【0018】
請求項6に記載の発明によれば、合成前に画像の基本特性をそろえておき、合成後に合成境界部の不自然さを修正するので、合成前と合成後の両方の処理による複合効果により、合成画像をより自然な印象にすることができる。
【0019】
請求項7に記載の発明は、2つ以上の画像を用いて合成画像を作成する画像合成装置において、前記2つ以上の画像が互いに接する境界に関する合成端部情報を用いて合成後の画像データへの画像変換条件を決定し、前記決定された画像変換条件に基づいて前記合成後の画像データを変換する合成後処理手段を備えたことを特徴とする画像合成装置である。
【0020】
請求項7に記載の発明によれば、合成端部情報を用いることにより、合成画像の各領域毎に適切な変換ができるので、合成画像の不自然さを軽減させることができる。特に、合成画像の境界部やその周辺に対して合成後の画像データを変換することができるので、合成画像の境界部の不自然さを軽減させることができる。したがって、極めて少ない作業工数で合成画像を自然な画像にすることができる。
【0021】
請求項8に記載の発明は、2つ以上の画像を用いて合成画像を作成する画像合成装置において、合成後の画像データから歪み量を算出する歪み量算出手段と、前記算出された歪み量に基づいて前記合成後の画像データへの画像変換条件を決定し、前記決定された画像変換条件に基づいて前記合成後の画像データを変換する画像データ変換手段と、を備えたことを特徴とする画像合成装置である。
【0022】
請求項8に記載の発明によれば、歪み量に基づいて画像データを変換するので、必要な部分に必要な程度の処理を行うことができる。そのため、極めて少ない作業工数で合成画像の不自然さを軽減させることができる。
【0023】
請求項9に記載の発明は、請求項8に記載の画像合成装置において、前記歪み量算出手段は、前記2つ以上の画像が互いに接する境界に関する合成端部情報を用いて歪み量を算出することを特徴とする画像合成装置である。
【0024】
請求項9に記載の発明によれば、合成端部情報を用いて歪み量を算出するので、効率よく歪み量を算出することができる。したがって、より精度よく合成画像の不自然さを軽減させることができる。
【0025】
請求項10に記載の発明は、請求項9に記載の画像合成装置において、前記歪み量算出手段は、多重解像度変換を行うことを特徴とする画像合成装置である。
【0026】
請求項10に記載の発明によれば、多重解像度変換により、解像度が異なる複数の画像データを用いて、より精度よく歪み量を算出することができる。したがって、より精度よく合成画像の不自然さを軽減させることができる。
【0027】
請求項11に記載の発明は、請求項10に記載の画像合成装置において、前記画像データ変換手段における合成後の画像データへの変換は、前記多重解像度変換後の画像データへの変換であることを特徴とする画像合成装置である。
【0028】
請求項11に記載の発明によれば、多重解像度変換された画像データを、合成画像データの歪み量の算出に用いるとともに、歪み量に基づく画像データ変換に用いることにより、処理を効率化することができる。
【0029】
請求項12に記載の発明は、請求項7〜11のいずれか一項に記載の画像合成装置において、合成前に少なくとも1つの画像に対して、多重解像度変換を用いた合成前処理を行う合成前処理手段を備えたことを特徴とする画像合成装置である。
【0030】
請求項12に記載の発明によれば、合成前に画像の基本特性をそろえておき、合成後に合成境界部の不自然さを修正するので、合成前と合成後の両方の処理による複合効果により、合成画像をより自然な印象にすることができる。
【0031】
請求項13に記載の発明は、2つ以上の画像を用いて合成画像を作成する処理を実行するためのコンピュータに、前記2つ以上の画像が互いに接する境界に関する合成端部情報を用いて合成後の画像データへの画像変換条件を決定し、前記決定された画像変換条件に基づいて前記合成後の画像データを変換する合成後処理機能を実現させるための画像合成プログラムである。
【0032】
請求項13に記載の発明によれば、合成端部情報を用いることにより、合成画像の各領域毎に適切な変換ができるので、合成画像の不自然さを軽減させることができる。特に、合成画像の境界部やその周辺に対して合成後の画像データを変換することができるので、合成画像の境界部の不自然さを軽減させることができる。したがって、極めて少ない作業工数で合成画像を自然な画像にすることができる。
【0033】
請求項14に記載の発明は、2つ以上の画像を用いて合成画像を作成する処理を実行するためのコンピュータに、合成後の画像データから歪み量を算出する歪み量算出機能と、前記算出された歪み量に基づいて前記合成後の画像データへの画像変換条件を決定し、前記決定された画像変換条件に基づいて前記合成後の画像データを変換する画像データ変換機能と、を実現させるための画像合成プログラムである。
【0034】
請求項14に記載の発明によれば、歪み量に基づいて画像データを変換するので、必要な部分に必要な程度の処理を行うことができる。そのため、極めて少ない作業工数で合成画像の不自然さを軽減させることができる。
【0035】
請求項15に記載の発明は、請求項14に記載の画像合成プログラムにおいて、前記歪み量算出機能は、前記2つ以上の画像が互いに接する境界に関する合成端部情報を用いて歪み量を算出することを特徴とする画像合成プログラムである。
【0036】
請求項15に記載の発明によれば、合成端部情報を用いて歪み量を算出するので、効率よく歪み量を算出することができる。したがって、より精度よく合成画像の不自然さを軽減させることができる。
【0037】
請求項16に記載の発明は、請求項15に記載の画像合成プログラムにおいて、前記歪み量算出機能は、多重解像度変換を含むことを特徴とする画像合成プログラムである。
【0038】
請求項16に記載の発明によれば、多重解像度変換により、解像度が異なる複数の画像データを用いて、より精度よく歪み量を算出することができる。したがって、より精度よく合成画像の不自然さを軽減させることができる。
【0039】
請求項17に記載の発明は、請求項16に記載の画像合成プログラムにおいて、前記画像データ変換機能における合成後の画像データへの変換は、前記多重解像度変換後の画像データへの変換であることを特徴とする画像合成プログラムである。
【0040】
請求項17に記載の発明によれば、多重解像度変換された画像データを、合成画像データの歪み量の算出に用いるとともに、歪み量に基づく画像データ変換に用いることにより、処理を効率化することができる。
【0041】
請求項18に記載の発明は、請求項13〜17のいずれか一項に記載の画像合成プログラムにおいて、前記コンピュータに、合成前に少なくとも1つの画像に対して、多重解像度変換を用いた合成前処理を行う合成前処理機能を実現させることを特徴とする画像合成プログラムである。
【0042】
請求項18に記載の発明によれば、合成前に画像の基本特性をそろえておき、合成後に合成境界部の不自然さを修正するので、合成前と合成後の両方の処理による複合効果により、合成画像をより自然な印象にすることができる。
【0043】
請求項19に記載の発明は、2つ以上の画像を用いて合成画像を作成し、合成画像を記録媒体に記録する画像記録装置において、前記2つ以上の画像が互いに接する境界に関する合成端部情報を用いて合成後の画像データへの画像変換条件を決定し、前記決定された画像変換条件に基づいて前記合成後の画像データを変換する合成後処理手段を備えたことを特徴とする画像記録装置である。
【0044】
請求項19に記載の発明によれば、合成端部情報を用いることにより、合成画像の各領域毎に適切な変換ができるので、合成画像の不自然さを軽減させることができる。特に、合成画像の境界部やその周辺に対して合成後の画像データを変換することができるので、合成画像の境界部の不自然さを軽減させることができる。したがって、極めて少ない作業工数で合成画像を自然な画像にすることができる。
【0045】
請求項20に記載の発明は、2つ以上の画像を用いて合成画像を作成し、合成画像を記録媒体に記録する画像記録装置において、合成後の画像データから歪み量を算出する歪み量算出手段と、前記算出された歪み量に基づいて前記合成後の画像データへの画像変換条件を決定し、前記決定された画像変換条件に基づいて前記合成後の画像データを変換する画像データ変換手段と、を備えたことを特徴とする画像記録装置である。
【0046】
請求項20に記載の発明によれば、歪み量に基づいて画像データを変換するので、必要な部分に必要な程度の処理を行うことができる。そのため、極めて少ない作業工数で合成画像の不自然さを軽減させることができる。
【0047】
請求項21に記載の発明は、請求項20に記載の画像記録装置において、前記歪み量算出手段は、前記2つ以上の画像が互いに接する境界に関する合成端部情報を用いて歪み量を算出することを特徴とする画像記録装置である。
【0048】
請求項21に記載の発明によれば、合成端部情報を用いて歪み量を算出するので、効率よく歪み量を算出することができる。したがって、より精度よく合成画像の不自然さを軽減させることができる。
【0049】
請求項22に記載の発明は、請求項21に記載の画像記録装置において、前記歪み量算出手段は、多重解像度変換を行うことを特徴とする画像記録装置である。
【0050】
請求項22に記載の発明によれば、多重解像度変換により、解像度が異なる複数の画像データを用いて、より精度よく歪み量を算出することができる。したがって、より精度よく合成画像の不自然さを軽減させることができる。
【0051】
請求項23に記載の発明は、請求項22に記載の画像記録装置において、前記画像データ変換手段における合成後の画像データへの変換は、前記多重解像度変換後の画像データへの変換であることを特徴とする画像記録装置である。
【0052】
請求項23に記載の発明によれば、多重解像度変換された画像データを、合成画像データの歪み量の算出に用いるとともに、歪み量に基づく画像データ変換に用いることにより、処理を効率化することができる。
【0053】
請求項24に記載の発明は、請求項19〜23のいずれか一項に記載の画像記録装置において、合成前に少なくとも1つの画像に対して、多重解像度変換を用いた合成前処理を行う合成前処理手段を備えたことを特徴とする画像記録装置である。
【0054】
請求項24に記載の発明によれば、合成前に画像の基本特性をそろえておき、合成後に合成境界部の不自然さを修正するので、合成前と合成後の両方の処理による複合効果により、合成画像をより自然な印象にすることができる。
【0055】
【発明の実施の形態】
以下に本発明の一実施の形態につき図面を参照して説明する。
まず、図1に、本実施の形態の画像記録装置1の概観構成を示す。
図1に示すように、画像記録装置1は、操作部5、フィルムスキャナ部6、反射原稿入力部7、画像読込部8、CRT(Cathode Ray Tube)9、プリント作成部10、画像書込部11、トレー15、マガジン16を備える。
【0056】
次に、図2に、画像記録装置1の機能構成を示す。
図2に示すように、画像記録装置1は、CPU(Central Processing Unit)2、ROM(Read Only Memory)3、RAM(Random Access Memory)4、操作部5、フィルムスキャナ部6、反射原稿入力部7、画像読込部8、CRT9、プリント作成部10、画像書込部11、記憶部12、通信部13、画像処理部14、を備えて構成される。
【0057】
CPU2は、操作部5や通信部13から入力される信号に応答して、ROM3、あるいは記憶部12に記憶された各種制御プログラムを読み出してRAM4に展開し、展開された各制御プログラムとの協働によって各種処理を実行し、画像記録装置1の各部を機能させる。
【0058】
ROM3は、読み出し専用の半導体メモリであり、CPU2が実行するプログラムやデータ等が記憶される。
RAM4は、データが一時的に保存される記憶媒体であり、CPU2が実行するためのプログラムを展開するためのプログラムエリア、操作部5や通信部13から入力されるデータやCPU2による各種処理結果等を保存するためのデータエリア、フィルムスキャナ部6、反射原稿入力部7、画像読込部8又は通信部13から入力される画像データを保存するための画像データエリア、等が形成される。ここで、画像データとは、画像を多数の小領域(画素)に分割して、その画素毎に各色成分の明るさ等を信号強度で表した、各画素のデータをいう。
【0059】
操作部5は、数字キーや各種機能キーを備え、例えば、タッチパネル等で構成される。これらのキーが押下された場合には、その押下信号をCPU2に出力する。
【0060】
フィルムスキャナ部6は、透過原稿を読み込む装置である。フィルムスキャナ部6は、CPU2の制御に従って、アナログカメラにより撮影され、現像されたカラーネガフィルムやカラーリバーサルフィルム等から画像データを読み込む。反射原稿入力部7は、反射原稿から画像を読み込む装置である。反射原稿入力部7は、CPU2の制御に従って、カラー写真プリントや印刷物等の反射原稿から画像データを読み込む。
【0061】
画像読込部8には、PCカード用アダプタ8a、フロッピー(登録商標)ディスク用アダプタ8b、光ディスク用アダプタ8cが備えられ、PCカード、フロッピーディスク、光ディスクが差し込み可能になっている。メディアはこれらに限定されず、MO(Magneto Optical disk)やZip(登録商標)等でもよく、対応するアダプタを備えればよい。各種メディアには、例えば、デジタルカメラで撮像した複数の画像データや画像付属データやオーダー情報(例えば、DPOF(Digital Print Order Format)等)等が記憶されている。画像付属データとは、画像データに付属するヘッダやタグ等のデータをいう。画像読込部8は、CPU2の制御に従って、各種メディアに記録された画像データや画像付属データ等を読み込む。
【0062】
CRT9は、CPU2の制御に従って、フィルムスキャナ部6、反射原稿入力部7、画像読込部8から読み込んだ画像データや、通信部13から受信した画像データを画面に表示する。
【0063】
プリント作成部10は、CPU2の制御に従って、画像データに基づいてマガジン16から引き出された写真用感光材料に露光し、露光された写真用感光材料を現像処理してプリントを作成する。作成されたプリントはトレー15に排出される。プリント作成部10は、読み込んだ画像データから画像を形成するものであればよく、例えば、インクジェット方式、電子写真方式、感熱方式、昇華方式のプリント作成装置であってもよい。
【0064】
画像書込部11は、フロッピーディスク用アダプタ11a、MO用アダプタ11b、光ディスク用アダプタ11cが備えられ、フロッピーディスク、MO、光ディスクが差し込み可能になっている。メディアはこれらに限定されず、PCカードやZip等でもよく、対応するアダプタを備えればよい。画像書込部11は、CPU2の制御に従って、画像データや画像付属データ等を画像記録メディアに書き込む。なお、画像読込部8と画像書込部11が1つのアダプタで読み書き兼用になっていてもよい。
【0065】
記憶部12は、例えばHDD(Hard Disk Drive)を備えて構成され、CPU2の制御に従って、このHDD内にプログラムやデータ等を記録する。また、CPU2からプログラムやデータの読み出し指示がなされると、その指示された情報をHDDから読み出してCPU2へ出力する。
【0066】
通信部13は、施設内のコンピュータやインターネット等を介した遠方のコンピュータから画像データや画像付属データやプリント命令等を受信する。すなわち、画像記録装置1は、ネットワークプリンタとして機能することが可能である。また、通信部13は、画像データや画像付属データや付帯するオーダー情報等を、施設内の別のコンピュータや他のネットワークプリンタやインターネット等を介した遠方のコンピュータ等に対して送信する。
【0067】
画像処理部14は、フィルムスキャナ部6、反射原稿入力部7又は画像読込部8から読み込んだ画像データや通信部13から受信された画像データに必要に応じて適切な画像処理を行う。例えば、各入力方法に適した校正処理、グレーバランス調整、コントラスト調整、ネガ原稿の場合にはネガポジ反転処理等が行われる。画像データは、RGBカラー画像データ、モノクロ画像データ、YMCK4色画像データ等、何でもよい。また、階調数も任意であって、例えば、RGBカラー画像データの場合、各色8bit、各色12bit等、任意の画像データを用いることができる。画像のフォーマット(JPEG,Tiff,bmp等)も何でもよい。JPEGやTiff等、画像データと画像付属データがあるフォーマットの場合は、画像データと画像付属データを分離したり、画像付属データから必要な情報を取り出したりする各フォーマットに対応する処理が行われる。
【0068】
この画像処理部14は、ROM3に格納された画像処理プログラムとCPU2との協働によってソフトウェア処理で実現される。本発明に係る処理の例の詳細は後述する(図3、図7、図9、図24)。
【0069】
また、画像処理部14では、出力先に対応した画像処理が行われ、画像処理された画像データは、CRT9に表示されたり、プリント作成部10でプリントされたり、画像書込部11で画像記録メディアに記録されたり、通信部13から他の機器等に送信されたりする。例えば、各出力方法に適した校正処理、カラーマッチング、画素数変更処理等が行われる。画像データは、RGBカラー画像データ、モノクロ画像データ、YMCK4色画像データ等、何でもよい。また、階調数も任意であって、例えば、RGBカラー画像データの場合、各色8bit、各色12bit等、任意の画像データを用いることができる。画像のフォーマット(JPEG,Tiff,bmp等)も何でもよい。JPEGやTiff等、画像データと画像付属データがあるフォーマットの場合は、画像データと画像付属データを対応するように用い、各フォーマットに対応した処理が行われる。
【0070】
なお、図1に示す画像記録装置1は、操作部5、CRT9、フィルムスキャナ部6、反射原稿入力部7、画像読込部8、プリント作成部10が、一体となっている装置の構造をとっているが、いずれか1つ以上を別体として設けてもよい。また、他のフィルムスキャナや反射原稿入力装置やプリンタ等を接続してもよい。その場合は、各装置毎の固有の処理が画像処理部14で行われる。
【0071】
次に、画像記録装置1の画像処理部14で実行される画像処理について説明する。
【0072】
[実施の形態1]
図3に、実施の形態1として画像合成処理の例を示す。図3に示す画像処理部140は、図2における画像記録装置1の画像処理部14の一例である。
図3に示すように、画像処理部140は、入力画像変換手段20と、画像合成手段30と、合成後処理手段40と、出力画像変換手段50と、を備える。
【0073】
入力画像変換手段20は、フィルムスキャナ部6、反射原稿入力部7、画像読込部8又は通信部13から入力される元画像F1を、それぞれの画像に対応する手段で変換して、元画像の画像データG1を生成する。同様に、元画像F2に対応する手段で変換して、元画像の画像データG2を生成する。元画像の画像データG1,G2がRGBの3色であれば、それぞれに対応して以下の処理が行われる。
【0074】
画像合成手段30は、元画像の画像データG1,G2を合成して合成画像の画像データPを生成するとともに、合成端部情報を生成する。
ここで、合成端部とは、合成画像の境界部又は境界部とその周辺をいう。例えば、図4(a)に示すように、背景画像に人物が合成されている場合は、図4(b)に示す人物と背景の境界が合成端部である。
合成端部情報とは、合成端部の画像データ上の画素位置情報(座標)を含むものである。例えば、検出された合成端部以外の画像データを0とした画像データでもよいし、合成端部の画像データを1とし、合成端部以外の画像データを0とした2値画像データでもよい。
【0075】
図5に、背景画像に人物を貼り付ける場合の例を示す。図5(a)に示すような人物が入っている元画像F1から人物を抽出し、図5(b)に示す元画像F2の所定位置に、人物画像を重ねて、1枚の画像にする。
人物の抽出方法としては、例えば、予め定められた人物パターンとのマッチング等の手法による自動抽出や、CRT9に表示された画像を見て、操作部5から指示をする、手動抽出等、種々の方法があり、限定されない。いずれかの方法により人物を抽出し(図5(c))、抽出時の輪郭の情報等から、合成端部の形状(相対位置)を求める(図5(d))。相対位置は、輪郭上の点Qからの相対座標で表す。
上記の画像合成手段30は、合成端部情報を生成する場合の例であり、これに限定されない。
【0076】
貼り付け位置の決定方法は、例えば、予め貼り付ける位置を定めておく自動決定や、CRT9に表示された画像を見て、操作部5から指示をする、手動位置調整等、種々の方法があり、限定されない。いずれかの方法により貼り付け位置を決定し(図5(e))、合成端部の形状と貼り付け位置より、合成端部情報を求める(図5(f))。輪郭上の点Qからの相対座標で表されていた合成端部の形状を原点(0,0)からの座標に変換する。
【0077】
以上のように、画像合成手段30は、合成画像を作成する(図5(g))。
合成方法としては、置き換え合成や、透かし合成等、種々の方法があるが、これらに限定されない。
また、合成後、CRT9で仕上がりを確認してもよく、やり直しや、位置等の修正を行ってもよい。
【0078】
合成後処理手段40は、画像合成手段30により得られた合成端部情報を用いて合成画像の画像データPへの画像変換条件を決定し、決定された画像変換条件に基づいて合成画像の画像データPを変換して、後処理後の合成画像の画像データP’を生成する。この変換は、合成端部及びその周辺等への部分処理や、全体をぼかす等の全体処理がある。
【0079】
図6に、図4の合成画像における部分処理の処理領域の例を示す。図6(a)〜(d)において、網点で示す部分に処理が実行されるものとする。図6(a)は人物の内部、図6(b)は人物と背景の境界及びその周辺部、図6(c)は背景部を示す。また、図6(d)に示すように、人物の内部は鮮鋭度を上げる処理、背景部は鮮鋭度を下げる処理を実行する等、領域によって異なる部分処理を実行してもよい。
【0080】
合成後処理手段40における画像データ変換として、空間フィルタを用いることができる。合成端部情報に記された画素位置及びその周辺において、合成画像の画像データPを空間フィルタでぼかす処理を行う。空間フィルタとしては、平滑化フィルタ等の当業界で知られた種々のフィルタを目的に合うように適宜使用すればよい。
【0081】
出力画像変換手段50は、後処理後の合成画像の画像データP’に対して出力先に対応した変換を行い、後処理後の合成画像D’をCRT9、プリント作成部10、画像書込部11又は通信部13に出力する。
【0082】
実施の形態1では、合成端部情報を用いることにより、合成画像の各領域毎に適切な変換ができるので、合成画像の不自然さを軽減させることができる。特に、合成画像の境界部やその周辺に対して合成後の画像データを変換することができるので、合成画像の境界部の不自然さを軽減させることができる。したがって、極めて少ない作業工数で合成画像を自然な画像にすることができる。また、部分処理であるので、画像全体の印象を保つことができ、合成画像の微修正に適している。
【0083】
[実施の形態2]
図7に、実施の形態2として画像合成処理の例を示す。図7に示す画像処理部141は、図2における画像記録装置1の画像処理部14の一例である。
図7に示すように、画像処理部141は、入力画像変換手段20と、画像合成手段30と、合成後処理手段40と、出力画像変換手段50と、を備える。
【0084】
実施の形態1では、合成端部情報を用いて合成画像の画像データPへの画像変換条件を決定したが、実施の形態2では、合成端部情報を用いずに、合成画像の画像データPから求められた歪み情報に基づいて合成画像の画像データPを変換する。
入力画像変換手段20、出力画像変換手段50については、実施の形態1と同様であるので、説明を省略する。
【0085】
画像合成手段30は、元画像の画像データG1,G2を合成して合成画像の画像データPを生成する。実施の形態2では、画像合成手段30は、合成端部情報を生成しないが、他の部分は実施の形態1と同様であるので、説明を省略する。
【0086】
合成後処理手段40は、合成画像の画像データPから歪み量を算出し、歪み情報を生成する。そして、その歪み情報を用いて、合成画像の画像データPへの画像変換条件を決定し、決定された画像変換条件に基づいて合成画像の画像データPを変換し、後処理後の合成画像の画像データP’を生成する。
【0087】
歪み量とは、画像の不自然さと関係したもので、画像データの変化、画像データの勾配の変化、S/N比の変化、鮮鋭度の変化等の大きさによって算出されるもの等がある。歪み量が大きいほど、画像は不自然に見える。歪み量が大きいときに不連続という言い方がされることもある。
歪み情報とは、画像データ上の画素位置情報(座標)と、その画素位置での歪み量を含むものである。
【0088】
(合成後処理手段40の詳細例1)
図8に、合成後処理手段40の一例として、合成後処理手段40の詳細例1を示す。合成後処理手段40は、歪み量算出手段420と、画像データ変換手段430と、を備える。
【0089】
歪み量算出手段420は、合成画像の画像データPから歪み量を算出し、歪み情報を生成する。歪み量算出手段420として、微分フィルタを用いた例を説明する。微分フィルタとしては、ラプラシアンフィルタ等、当業界で知られた種々のフィルタを、目的に合うように適宜使用すればよい。例えば、合成画像の画像データPを各画素位置において微分フィルタ等で変換し、勾配を求める。求めた勾配量をランク分けして、歪み量とする。例えば、勾配量k未満をランク値1とし、勾配量k以上をランク値2とする。kの値は、合成画像のサイズや、目的や用途等に応じて適宜設定する。
なお、勾配量のランク分けは2ランクだけでなく、nランクにランク分けすることとしてもよい。
また、勾配量をそのままランク値としても良い。
また、歪み量算出手段420は、微分フィルタを用いた処理に限らず、他の方法によって歪み量を算出することとしてもよい。
【0090】
画像データ変換手段430は、歪み量算出手段420により得られた歪み情報を用いて、合成画像の画像データPへの画像変換条件を決定し、その画像変換条件に基づいて合成画像の画像データPを変換し、後処理後の合成画像の画像データP’を生成する。
ここで、合成画像の画像データPは、歪み量に基づいて変換される。歪み量に基づく変換とは、歪み量と対応した変換条件で行われる変換をいうが、歪み量自身が変換条件であってもよい。歪み量に基づく変換は、歪み量を軽減、除去する変換だけでなく、歪み量は軽減、除去されなくても、見た目に歪み量が減ったように自然に見えるような変換でもよい。
【0091】
画像データ変換手段430として、空間フィルタを用いた例を説明する。例えば、歪み情報に記された画素位置において、合成画像の画像データPを空間フィルタでぼかす処理を行う。このとき、歪み量のランクに応じてぼかし量を決定する。例えば、5×5のフィルタでぼかす場合は、歪み量のランクに応じてフィルタ係数を変える。空間フィルタとしては、平滑化フィルタ等の当業界で知られた種々のフィルタを目的に合うように適宜使用し、ランクに応じてフィルタ係数等を変えて用いればよい。
また、画像データ変換手段430として、空間フィルタを用いた処理を説明したが、他の方法を用いることとしてもよい。
【0092】
実施の形態2では、合成画像の画像データPから歪み量を算出し、歪み量と画素位置情報を含む歪み情報に基づいて合成画像の画像データPを変換することにより、合成画像の不自然さを精度よく軽減させることができる。
また、歪み量に基づいて画像データを変換するので、必要な部分に必要な程度の処理を行うことができる。そのため、極めて少ない作業工数で合成画像の不自然さを修正することができる。また、部分処理であるので、画像全体の印象を保つことができ、合成画像の微修正に適している。
【0093】
[実施の形態3]
図9に、実施の形態3として画像合成処理の例を示す。図9に示す画像処理部142は、図2における画像記録装置1の画像処理部14の一例である。
図9に示すように、画像処理部142は、入力画像変換手段20と、画像合成手段30と、合成後処理手段40と、出力画像変換手段50と、を備える。
【0094】
実施の形態2では、合成端部情報を用いずに、合成画像の画像データPから歪み量を算出したが、実施の形態3では、合成端部情報を用いて合成画像の画像データPから歪み量を算出する。
入力画像変換手段20、画像合成手段30と、出力画像変換手段50については、実施の形態1と同様であるので、説明を省略する。
【0095】
合成後処理手段40は、歪み量算出手段420と、画像データ変換手段430と、を備える。
歪み量算出手段420は、画像合成手段30により得られた合成端部情報を用いて、合成画像の画像データPから歪み量を算出し、歪み情報を生成する。例えば、合成端部以外の画像データを0とし、合成端部の画像データを歪み量に対応したランク値とした画像データとしてもよい。
画像データ変換手段430は、歪み情報を用いて、合成画像の画像データPへの画像変換条件を決定し、決定された画像変換条件に基づいて合成画像の画像データPを変換して後処理後の合成画像の画像データP’を生成する。
【0096】
以下、合成後処理手段40の例として、詳細例2〜7を説明する。なお、歪み量算出手段420、画像データ変換手段430で扱うデータは、合成画像の画像データPに限らず、合成画像の画像データPを変換したデータも含むこととする。
【0097】
(合成後処理手段40の詳細例2)
図10に、合成後処理手段40の詳細例2を示す。合成後処理手段40は、輝度/色差変換手段410と、歪み量算出手段420と、画像データ変換手段430と、輝度/色差逆変換手段440と、を備える。
【0098】
合成後処理手段40の詳細例2では、合成画像の画像データPを輝度データBと色差データCに変換後、輝度データBを用いて歪み情報を生成し、輝度データBに対して歪み量に基づく変換を行う。
【0099】
まず、輝度/色差変換手段410について説明する。輝度/色差変換手段410は、合成画像の画像データPを輝度データBと色差データCに変換する。合成画像の画像データPを輝度データBと色差データCに変換する輝度/色差変換としては、画像データがsRGB規格に基づくデータの場合、CIE(Commission Internationale de l’Eclairage:国際照明委員会)が1976年に推奨したL*a*b*基底やL*u*v*基底等に変換する操作がある。この場合、L*が輝度に相当する。また、sRGBの平均値を輝度データBとし、これに直交する2軸を色差信号とするような変換を行ってもよい。また、sRGBからsYCCへ変換してもよい。この場合、Yが輝度に相当する。
【0100】
歪み量算出手段420は、合成画像の輝度データBと、画像合成手段30により得られた合成端部情報とを用いて、歪み量を算出し、歪み情報を生成する。具体的には、合成端部情報に記された合成端部の画素位置において、合成画像の輝度データBを微分フィルタ等で変換し、勾配を求める。扱うデータが輝度データBであることと、合成端部情報を用いること以外は、実施の形態2における合成後処理手段40の詳細例1と同様であるので、説明を省略する。
【0101】
また、歪み情報の画素位置情報としては、合成端部情報に記された合成端部の画素位置と同じでもよいし、合成端部情報に記された合成端部の画素位置のとぎれた部分をつなぐ等、輪郭の形の整形をして、画素位置を変更してもよい。
【0102】
画像データ変換手段430は、歪み量算出手段420により得られた歪み情報を用いて、合成画像の輝度データBを変換し、修正後の輝度データB’を生成する。変換するデータが輝度データBであること以外は、実施の形態2における合成後処理手段40の詳細例1と同様であるので、説明を省略する。
【0103】
輝度/色差逆変換手段440は、修正後の輝度データB’と色差データCに輝度/色差逆変換を施し、後処理後の合成画像の画像データP’を生成する。この輝度/色差逆変換は、輝度/色差変換手段410における輝度/色差変換の逆変換である。
【0104】
合成後処理手段40の詳細例2では、合成端部情報を用いて歪み量を算出するので、効率よく歪み量を算出することができる。また、歪み量算出手段420及び画像データ変換手段430において、輝度データBのみを扱うことにより、合成画像の修正処理を簡素化することができる。そのため、高速に処理することができ、好ましい。
【0105】
(合成後処理手段40の詳細例3)
図11に、合成後処理手段40の詳細例3を示す。合成後処理手段40は、輝度/色差変換手段410と、歪み量算出手段420と、画像データ変換手段430と、輝度/色差逆変換手段440と、を備える。
【0106】
合成後処理手段40の詳細例2では、合成画像の画像データPを輝度データBと色差データCに変換後、輝度データBと合成端部情報を用いて歪み情報を生成し、輝度データBに対して歪み量に基づく変換を行ったが、合成後処理手段40の詳細例3では、輝度データBと合成端部情報を用いて歪み情報を生成し、歪み情報を得るために生成された輝度データBの中間データBtmp1に対して歪み量に基づく変換を行う。
輝度/色差変換手段410、歪み量算出手段420、輝度/色差逆変換手段440については、合成後処理手段40の詳細例2と同様であるので、説明を省略する。
【0107】
画像データ変換手段430は、歪み量算出手段420により得られた歪み情報を用いて、歪み量算出手段420によって歪み情報を得るために生成された中間データBtmp1を変換し、修正後の輝度データB’を生成する。変換するデータが中間データBtmp1であること以外は、合成後処理手段40の詳細例2と同様であるので、説明を省略する。
【0108】
合成後処理手段40の詳細例3では、歪み量算出手段420において輝度データBを扱い、画像データ変換手段430において輝度データBの中間データBtmp1を扱うことにより、前工程の結果を用いることで、合成画像の修正処理を簡素化することができる。そのため、高速かつ効率的に処理することができ、好ましい。
【0109】
(合成後処理手段40の詳細例4)
図12に、合成後処理手段40の詳細例4を示す。合成後処理手段40は、輝度/色差変換手段410と、歪み量算出手段420と、画像データ変換手段430と、輝度/色差逆変換手段440と、を備える。
【0110】
合成後処理手段40の詳細例4は、合成後処理手段40の詳細例3における輝度データBの中間データBtmp1として、多重解像度変換の1つである直交ウェーブレット変換を施して得られた高周波数帯域成分Wv,Wh,Wdを用いた例である。
輝度/色差変換手段410、輝度/色差逆変換手段440については、合成後処理手段40の詳細例2と同様であるので、説明を省略する。
【0111】
まず、多重解像度変換について説明する。
多重解像度変換とは、ウェーブレット変換、完全再構成フィルタバンク、ラプラシアンピラミッド等で代表される手法の総称をいい、1回の変換操作により入力信号を低周波数帯域成分信号と高周波数帯域成分信号とに分離し、得られた低周波数帯域成分信号に対して同様の操作を行い、周波数帯域が異なる複数の信号からなる多重解像度信号を得る手法である。得られた多重解像度信号を加工せずにそのまま逆多重解像度変換した場合、元の信号が再構成される(“Wavelet and Filter Banks”by G. Strang & T. Nguyen, Wellesley−Cambridge Press(邦訳「ウェーブレット解析とフィルタバンク」, G.ストラング・T.グエン共著,培風館)参照。)。ここでは、代表的な多重解像度変換であるウェーブレット変換の概要を説明する。
【0112】
ウェーブレット変換とは、図13に例示されるような有限範囲で振動するウェーブレット関数(下記式(1)参照。)を用いて、入力信号f(x)に対するウェーブレット変換係数<f,ψa,b>を下記式(2)で求めることにより、入力信号を下記式(3)で示されるウェーブレット関数の総和に分解する変換である。
【数1】

Figure 2004240732
【数2】
Figure 2004240732
【数3】
Figure 2004240732
上記式(3)で、aはウェーブレット関数のスケールを表し、bはウェーブレット関数の位置を示す。図13に例示するように、スケールaの値が大きいほどウェーブレット関数ψa,b(x)の周波数は小さくなり、また位置bの値に従ってウェーブレット関数ψa,b(x)が振動する位置が移動する。従って上記式(3)は、入力信号f(x)を種々のスケールと位置を持つウェーブレット関数ψa,b(x)の総和に分解することを意味している。
【0113】
ウェーブレット変換を行う際に用いられるウェーブレット関数としては、多くのものが知られているが、画像処理分野では特に計算を高速に行うことができる直交ウェーブレット(orthogonal wavelet)変換、双直交ウェーブレット(biorthogonal wavelet)変換が広く用いられている。
【0114】
以下、直交ウェーブレット変換、双直交ウェーブレット変換の概要を説明する。直交ウェーブレット変換及び双直交ウェーブレット変換のウェーブレット関数は下記式(4)のように定義される。
【数4】
Figure 2004240732
ただし、iは自然数である。
【0115】
前記式(4)と前記式(1)とを比較すると、直交ウェーブレット変換、双直交ウェーブレット変換では、スケールaの値が2のi乗で離散的に定義され、また位置bの最小移動単位が2で離散的に定義されていることが判る。このiの値はレベルと呼ばれる。
【0116】
また実用的にはレベルiを有限な上限Nまでに制限して、入力信号を下記式(5)、式(6)、式(7)のように変換することが行われる。
【数5】
Figure 2004240732
【数6】
Figure 2004240732
【数7】
Figure 2004240732
【0117】
上記式(5)の第2項は、レベル1のウェーブレット関数ψ1,j(x)の総和で表せない残差の低周波数帯域成分を、レベル1のスケーリング関数φ1,j(x)の総和で表したものである。スケーリング関数はウェーブレット関数に対応して適切なものを用いる。上記式(5)に示す1レベルのウェーブレット変換により入力信号f(x)≡Sは、レベル1の高周波数帯域成分Wと低周波数帯域成分Sに信号分解されたことになる。
【0118】
なお、画像においては、高周波数帯域成分は、例えば、髪の毛やまつ毛のような微細な構造を表現する成分であり、低周波数帯域成分は、例えば、頬のように信号強度の変化の緩やかな構造を示す成分である。
【0119】
ウェーブレット関数ψi,j(x)の最小移動単位単位は2なので、入力信号Sの信号量に対して高周波数帯域成分Wと低周波数帯域成分Sの信号量は各々1/2となり、高周波数帯域成分Wと低周波数帯域成分Sの信号量の総和は、入力信号Sの信号量と等しくなる。レベル1の低周波数帯域成分Sは式(6)において、レベル2の高周波数帯域成分Wと低周波数帯域成分Sに分解され、以下同様にレベルN迄の変換を繰り返すことで、入力信号Sは、式(7)に示すように各レベル1〜Nの高周波数帯域成分の総和とレベルNの低周波数帯域成分の和に分解される。
【0120】
ここで、前記式(6)で示す1レベルのウェーブレット変換は、図14に示すようなフィルタ処理で計算することができる。図14において、LPFはローパスフィルタ、HPFはハイパスフィルタを示している。ローパスフィルタLPFとハイパスフィルタHPFのフィルタ係数は、ウェーブレット関数に応じて適切に定められる。また、2↓は、信号を1つおきに間引くダウンサンプリング処理を示す。
【0121】
画像信号のような2次元信号における1レベルのウェーブレット変換は、図15に示すようなフィルタ処理で計算される。図15に示すように、まず低周波数帯域成分Sn−1をx方向のローパスフィルタLPFx、ハイパスフィルタHPFxによりフィルタ処理を行い、x方向にダウンサンプリング処理を行う。これにより入力信号Sn−1はSXとWXとに分解される。このSXとWXに対して、それぞれy方向のローパスフィルタLPFy、ハイパスフィルタHPFyによるフィルタ処理を行い、y方向にダウンサンプリング処理を行う。
【0122】
この1レベルのウェーブレット変換により、低周波数帯域成分Sn−1は3つの高周波数帯域成分Wv,Wh,Wdと1つの低周波数帯域成分Sに分解される。1回のウェーブレット変換により生成されるWv,Wh,Wd,Sの各々の信号量は、分解前のSn−1に比べて縦横ともに1/2となるので、分解後の4成分の信号量の総和は、分解前のSn−1の信号と等しくなる。
【0123】
なお、図15において、LPFx,HPFx,2↓xのように添え字で示したxはx方向の処理を示し、LPFy,HPFy,2↓yのように添え字で示したyはy方向の処理を示す。
【0124】
図16に、入力信号Sが3レベルのウェーブレット変換で信号分解される過程の模式図を示す。レベル数iが増えるに従って、ダウンサンプリング処理により画像信号が間引かれ、分解画像が小さくなっていくことがわかる。
【0125】
また、図17に示すように、分解で生成したWv,Wh,Wd,Sにフィルタ処理で計算されるウェーブレット逆変換をほどこすことにより、分解前の信号Sn−1を完全再構成できることが知られている。図17において、LPF’は逆変換用のローパスフィルタ、HPF’は逆変換用のハイパスフィルタを示している。また、2↑は、信号に1つおきにゼロを挿入するアップサンプリング処理を示す。また、LPF’x,HPF’x,2↑xのように添え字で示したxはx方向の処理を示し、LPF’y,HPF’y,2↑yのように添え字で示したyはy方向の処理を示す。
【0126】
図17に示すように、Sをy方向にアップサンプリング処理及び逆変換用のローパスフィルタLPF’yによるフィルタ処理を施すことにより得られる信号と、Whをy方向にアップサンプリング処理及び逆変換用のハイパスフィルタHPF’yによるフィルタ処理を施すことにより得られる信号とを加算してSXを得る。これと同様にして、WvとWdからWXを生成する。
【0127】
さらに、SXをx方向にアップサンプリング処理及び逆変換用のローパスフィルタLPF’xによるフィルタ処理を施すことにより得られる信号と、WXをx方向にアップサンプリング処理及び逆変換用のハイパスフィルタHPF’xによるフィルタ処理を施すことにより得られる信号とを加算することにより分解前の信号Sn−1を得ることができる。
【0128】
この逆変換の際に用いられるフィルタ係数は、直交ウェーブレットの場合にはウェーブレット変換に用いた係数と同じ係数が使用されるが、双直交ウェーブレットの場合にはウェーブレット変換に用いた係数とは異なる係数が使用される。
【0129】
図12に示すように、歪み量算出手段420は、直交ウェーブレット変換手段421と、歪みデータ抽出手段422と、歪み量ランク分け手段423と、から構成される。
直交ウェーブレット変換手段421は、合成画像の輝度データBに2レベルの直交ウェーブレット変換を施す。すなわち、図15に示すような直交ウェーブレット変換を2回繰り返すことにより、レベル1の高周波数帯域成分Wv,Wh,Wdと、レベル2の高周波数帯域成分Wv,Wh,Wdと低周波数帯域成分Sが得られる。
【0130】
歪みデータ抽出手段422は、輝度データBから求められた高周波数帯域成分Wv,Wh,Wd,Wv,Wh,Wdから歪みデータを抽出する。歪みデータとは、例えば、合成端部情報に記された合成端部の画素位置における高周波数帯域成分Wv,Wh,Wd,Wv,Wh,Wdの画像データ値である。
【0131】
歪み量ランク分け手段423は、この高周波数帯域成分Wv,Wh,Wd,Wv,Wh,Wdの画像データ値に応じてランク分けし、歪み量とする。なお、画像データ値をそのままランク値としてもよい。
【0132】
画像データ変換手段430は、ランク別画像データ変換手段431と、直交ウェーブレット逆変換手段432と、から構成される。
【0133】
ランク別画像データ変換手段431は、例えば、歪み情報に記された画素位置において、高周波数帯域成分Wv,Wh,Wd,Wv,Wh,Wdの画像データを減少させる処理を行う。このとき、高周波数帯域成分Wv,Wh,Wd,Wv,Wh,Wdの画像データの減少比は、歪み量のランクに応じて変える。高周波数帯域成分Wv,Wh,Wd,Wv,Wh,Wdは、それぞれ、変換後の高周波数帯域成分Wv’,Wh’,Wd’,Wv’,Wh’,Wd’に変換される。
【0134】
次に、直交ウェーブレット逆変換手段432は、前記変換後の高周波数帯域成分Wv’,Wh’,Wd’と低周波数帯域成分Sに対して、図17に示すような直交ウェーブレット逆変換を行い、低周波数帯域成分S’を得る。続いて、変換後の高周波数帯域成分Wv’,Wh’,Wd’と低周波数帯域成分S’に対して直交ウェーブレット逆変換を行い、修正後の輝度データB’を得ることができる。
【0135】
合成後処理手段40の詳細例4では、直交ウェーブレット変換により得られた解像度が異なる複数の画像データを用いて、特定の位置に特定の周波数帯域への処理を行うことで、より精度よく、歪みを修正することができる。そのため、画像全体の印象を保ったまま効率的に合成端部の不自然さを軽減させるのに効果的であり、好ましい。また、直交ウェーブレット変換を用いているため、処理を高速に行うことができ、好ましい。
また、直交ウェーブレット変換された画像データを、合成画像データの歪み量の算出に用いるとともに、歪み量に基づく画像データ変換に用いることにより、処理を効率化することができる。
【0136】
なお、合成後処理手段40の詳細例4において行われる直交ウェーブレット変換は双直交ウェーブレット変換でもよい。
【0137】
(合成後処理手段40の詳細例5)
図18に、合成後処理手段40の詳細例5を示す。合成後処理手段40は、輝度/色差変換手段410と、歪み量算出手段420と、画像データ変換手段430と、輝度/色差逆変換手段440と、を備える。
【0138】
合成後処理手段40の詳細例5は、合成後処理手段40の詳細例3における輝度データBの中間データBtmp1として、二項ウェーブレット変換を施して得られた高周波数帯域成分Wx,Wyを用いた例である。
輝度/色差変換手段410、輝度/色差逆変換手段440については、合成後処理手段40の詳細例2と同様であるので、説明を省略する。
【0139】
ここで、二項ウェーブレット変換について概要を説明する。二項ウェーブレット(Dyadic Wavelet)変換は、直交ウェーブレット変換や双直交ウェーブレットと比較すると、画像を間引くことがないので、より高精細に画像を処理することができる。二項ウェーブレット変換については“Singularity detection and processing with wavelets” by S.Mallat and W.L.Hwang, IEEE Trans. Inform. Theory 38 617 (1992)や“Characterization of signals from multiscale edges” by S.Mallat and S.Zhong, IEEE Trans. Pattern Anal. Machine Intel. 14710 (1992) や“A wavelet tour of signal processing 2ed” by S.Mallat, Academic Pressに詳細な説明がある。
【0140】
二項ウェーブレット変換のウェーブレット関数は下記式(8)のように定義される。
【数8】
Figure 2004240732
ただし、iは自然数である。
【0141】
前述した直交ウェーブレット変換や双直交ウェーブレット変換のウェーブレット関数はレベルiにおける位置の最小移動単位が2で離散的に定義されていたのに対し、二項ウェーブレット変換のウェーブレット関数はレベルiにかかわらず位置の最小移動単位が一定である。この相違により、二項ウェーブレット変換には下記の特徴が生じる。
【0142】
第一の特徴として、下記式(9)に示す1レベルの二項ウェーブレット変換で生成する、高周波数帯域成分Wと低周波数帯域成分Sの各々の信号量は、変換前の信号Si−1と同一である。
【数9】
Figure 2004240732
【0143】
第二の特徴として、スケーリング関数φi,j(x)とウェーブレット関数ψi,j(x)の間に下記式(10)の関係が成立する。
【数10】
Figure 2004240732
したがって、二項ウェーブレット変換で生成される高周波数帯域成分Wは、低周波数帯域成分Sの一回微分(勾配)を表す。
【0144】
第三の特徴として、ウェーブレット変換のレベルiに応じて定められた係数γを高周波数帯域成分に乗じたW・γ(以下、これを補正済高周波数帯域成分という。)について、入力信号の信号変化の特異性(singularity)に応じて、該変換後の補正済高周波数帯域成分W・γの信号強度のレベル間の関係が一定の法則に従う。すなわち、図19の“1”や“4”に示すようななだらかな(微分可能な)信号変化に対応する補正済高周波数帯域成分W・γはレベル数iが増大するほど信号強度が増大するのに対して、図19の“2”に示すステップ状の信号変化に対応する補正済高周波数帯域成分W・γはレベル数iに関わらず信号強度が一定となり、図19の“3”に示すδ関数状の信号変化に対応する補正済高周波数帯域成分W・γはレベル数iが増大するほど信号強度が減少する。
【0145】
第四の特徴として、画像信号のような2次元信号における1レベルの二項ウェーブレット変換の方法は、前述の直交ウェーブレット変換や双直交ウェーブレット変換の方法と異なり、図20に示すような方法で行われる。図20に示すように、1レベルのウェーブレット変換において、低周波数帯域成分Sn−1をx方向のローパスフィルタLPFx及びy方向のローパスフィルタLPFyで処理することにより、低周波数帯域成分Sが得られる。また、低周波数帯域成分Sn−1をx方向のハイパスフィルタHPFxで処理することにより、高周波数帯域成分Wxが得られ、y方向のハイパスフィルタHPFyで処理することにより、高周波数帯域成分Wyが得られる。
【0146】
このように、1レベルの二項ウェーブレット変換により、低周波数帯域成分Sn−1は、2つの高周波数帯域成分Wx,Wyと1つの低周波数帯域成分Sに分解される。2つの高周波数帯域成分Wx,Wyは低周波数帯域成分Sの2次元における変化ベクトルVのx成分とy成分に相当する。変化ベクトルVの大きさMと偏角Aは下記式(11)、式(12)で与えられる。
【数11】
Figure 2004240732
【数12】
Figure 2004240732
【0147】
二項ウェーブレット変換で得られた2つの高周波数帯域成分Wx,Wyと1つの低周波数帯域成分Sに、図21に示す二項ウェーブレット逆変換を施すことにより、変換前のSn−1を再構成することができる。すなわち、低周波数帯域成分Sに対してx方向におけるローパスフィルタLPFx及びy方向におけるローパスフィルタLPFyで処理することにより得られる信号と、高周波数帯域成分Wxに対してx方向における逆変換用のハイパスフィルタHPF’x及びy方向における逆変換用のローパスフィルタLPF’yで処理することにより得られる信号と、高周波数帯域成分Wyに対してx方向における逆変換用のローパスフィルタLPF’x及びy方向における逆変換用のハイパスフィルタHPF’yで処理することにより得られる信号と加算することにより分解前の信号Sn−1を得ることができる。
【0148】
図18に示すように、歪み量算出手段420は、二項ウェーブレット変換手段424と、歪みデータ抽出手段422と、歪み量ランク分け手段423と、から構成される。
画像データ変換手段430は、ランク別画像データ変換手段431と、二項ウェーブレット逆変換手段433と、から構成される。
【0149】
合成後処理手段40の詳細例5は、合成後処理手段40の詳細例4における直交ウェーブレット変換を二項ウェーブレット変換に置き換えたもので、扱うデータが、二項ウェーブレット変換を施して得られた高周波数帯域成分Wx,Wyであること以外は、合成後処理手段40の詳細例4と同様であるので、説明を省略する。
【0150】
合成後処理手段40の詳細例5では、二項ウェーブレット変換により得られた解像度が異なる複数の画像データを用いて、特定の位置に特定の周波数帯域への処理を行うことで、より精度よく、歪みを修正することができる。そのため、より精度よく合成画像の不自然さを軽減させることができ、好ましい。また、部分処理であるから、画像全体の印象を保つことができ、合成画像の微修正に適しているとともに、極めて少ない作業工数で効率的に処理することができる。
【0151】
また、合成後処理手段40の詳細例5で用いた二項ウェーブレット変換は、変換時に画像を間引くことがないので、画像を再構成するのに好ましい。そのため、画像を逆変換して戻した後の画像に、アーティファクトが出現しにくく、好ましい。
【0152】
(合成後処理手段40の詳細例6)
図22に、合成後処理手段40の詳細例6を示す。合成後処理手段40は、歪み量算出手段420と、画像データ変換手段430と、を備える。
【0153】
合成後処理手段40の詳細例6は、合成画像の画質評価値に基づいて歪み情報を生成する場合である。ここで、画質評価値とは、階調性、鮮鋭性、粒状性等をいう。
【0154】
歪み量算出手段420として、画質評価値に基づいて、歪み情報を生成する方法を用いる。
歪み量算出手段420は、画質評価手段425と、歪み情報算出手段426と、から構成される。
【0155】
画質評価手段425は、合成端部情報を用いて、適宜目的に応じた画像領域において、合成画像の画像データPから画質評価値を求める。画質評価値として、階調性については、例えば、合成画像の画像データPのヒストグラムからコントラストを求める。また、鮮鋭性については、例えば、合成画像の画像データPをウェーブレット変換して得られた複数の高周波数帯域成分の画像データの大きさを比較して求める。また、粒状性については、例えば、合成画像の画像データPをウェーブレット変換して得られた複数の高周波数帯域成分の画像データの大きさを比較して求める。なお、画質評価値として階調性、鮮鋭性、粒状性等を求める際に、他の可能な方法を用いてもよい。
【0156】
歪み情報算出手段426は、画質評価手段425により求められた画質評価値に基づいて、歪み情報を算出する。
【0157】
画像データ変換手段430は、各画質評価値に基づく歪み情報に基づき変換を行う。例えば、階調性についていえば、階調変換等を行い、鮮鋭性、粒状性についていえば、例えば、スムージング処理や、アンシャープマスキング処理等の変換を行う。
【0158】
合成後処理手段40の詳細例6では、合成画像の階調性、鮮鋭性、粒状性等の画質評価値に基づいて歪み情報を生成し、合成画像の不自然さを軽減することができ、好ましい。
【0159】
(合成後処理手段40の詳細例7)
図23に、合成後処理手段40の詳細例7を示す。合成後処理手段40は、輝度/色差変換手段410と、歪み量算出手段420と、画像データ変換手段430と、輝度/色差逆変換手段440と、を備える。
【0160】
合成後処理手段40の詳細例7は、合成後処理手段40の詳細例5と同様に、二項ウェーブレット変換を用いた例である。また、合成後処理手段40の詳細例7は、合成後処理手段40の詳細例6と同様に、画質評価値に基づいて歪み情報を生成する例であり、合成後処理手段40の詳細例5において、歪みデータ抽出手段422に、粒状性評価を用いる場合の例である。
輝度/色差変換手段410と、輝度/色差逆変換手段440については、合成後処理手段40の詳細例2と同様であるので、説明を省略する。
【0161】
歪み量算出手段420は、二項ウェーブレット変換手段424と、歪みデータ抽出手段422と、歪み量ランク分け手段423と、から構成される。合成後処理手段40の詳細例7では、歪みデータ抽出手段422として、粒状性評価手段427を用いる。この例では、合成端部情報により合成画像データを複数の領域に分けて、領域毎に別の処理を行う方法を用いる。例えば、図6(d)において背景と人物に領域分けして別々の処理を行う方法が挙げられる。
二項ウェーブレット変換手段424については、合成後処理手段40の詳細例5と同様であるので、説明を省略する。
【0162】
粒状性評価手段427について説明する。
合成画像の輝度データBを二項ウェーブレット変換して得られたレベル1の高周波数帯域成分Wx,Wyの画像データと、レベル2の高周波数帯域成分Wx,Wyの画像データの大きさを比較して、合成端部情報に記された領域毎の粒状性の特性値を求める。
【0163】
レベル1の高周波数帯域成分Wx,Wyの画像データの大きさをAH1とし、レベル2の高周波数帯域成分Wx,Wyの画像データの大きさをAH2とする。AH1>AH2×α(0<α<1)を満たす画素を、粒状評価画素として各領域毎に抽出する。そして、領域毎に粒状評価画素におけるレベル1の高周波数帯域成分Wx,Wyの画像データの大きさAH1の平均値を、粒状性評価値ARiとして求める(iは領域の番号)。
次に、すべての領域iにおける粒状性評価値ARiの平均を取り、粒状性評価平均値ARavgを算出する。粒状性評価値ARiの粒状性評価平均値ARavgに対する割合を比粒状性評価値RRi=ARi/ARavgとして、各領域毎に求める。
なお、粒状性評価手段427は、この方法に限定されない。
【0164】
歪み量ランク分け手段423は、比粒状性評価値RRiに応じてランク分けして、各領域毎の歪み量とする。そして、歪み情報として、領域i毎の粒状評価画素の位置と領域i毎の歪み量を生成する。
【0165】
画像データ変換手段430は、ランク別画像データ変換手段431と、二項ウェーブレット逆変換手段433と、から構成される。
ランク別画像データ変換手段431は、歪み量のランクに応じて画像データを変換する。この例においては、領域i毎の歪み量に応じて領域i毎に粒状評価画素の高周波数帯域成分Wx,Wy,Wx,Wyに所定の変換を行い、各領域i毎の比粒状性評価値RRiが所定の値内に入るようにする。
二項ウェーブレット逆変換手段433については、合成後処理手段40の詳細例5と同様であるので、説明を省略する。
【0166】
合成後処理手段40の詳細例7では、合成端部情報を利用して合成画像のデータを領域に分けて、領域毎に別の処理を行うことができるので、各領域に適した処理を行うことができる。したがって、合成画像をより自然に修正することができ、好ましい。
なお、この例では、粒状性を評価したが、鮮鋭性、階調性等、他の画質評価値に基づいて歪み量を求め、対応する画像データ変換を行ってもよい。
【0167】
合成後処理手段40の詳細例4,5,7では、直交ウェーブレット変換、二項ウェーブレット変換において、レベル2までの高周波数帯域成分を用いた場合を説明したが、レベル1だけでもよいし、より多いレベルまでの高周波数帯域成分を用いて歪み量を算出することとしてもよい。例えば、nレベルまでの高周波数帯域成分を用いる場合、1〜m(n<m)レベルまでは直交エーブレット変換又は双直交ウェーブレット変換を用い、m+1〜nレベルに二項ウェーブレット変換を用いると、精度を大きく落とすことなく、処理速度の低下を抑えることができる。よって、精度と処理速度の両立の点で好ましい。
また、多重解像度変換での例として、ウェーブレット変換を示したが、他の多重解像度変換でもよい。また、複数の多重解像度変換の併用でもよい。
【0168】
[実施の形態4]
図24に、実施の形態4として画像合成処理の例を示す。図24に示す画像処理部143は、図2における画像記録装置1の画像処理部14の一例である。
図24に示すように、画像処理部143は、入力画像変換手段20と、合成前処理手段60と、画像合成手段30と、合成後処理手段40と、出力画像変換手段50と、を備える。
【0169】
実施の形態4では、元画像の画像データG1,G2を合成する前に、元画像間の特性の違いを軽減させるための前処理を行う。
入力画像変換手段20、合成後処理手段40、出力画像変換手段50については、実施の形態1と同様であるので、説明を省略する。
【0170】
合成前処理手段60は、元画像の画像データG1,G2に、元画像間の特性の違いを軽減させるための画像処理を行い、前処理後の画像データG1’,G2’を生成する。ここで、特性とは、主に画質に関する特性をいい、色、階調性、鮮鋭性、粒状性等をいう。
【0171】
合成前処理としては、種々の処理があるが、例えば、画質評価値の違いを求め、特性を近づける処理を行う。
画質評価値として、階調性については、例えば、元画像の画像データG1,G2のヒストグラムからコントラストを求める。また、鮮鋭性については、例えば、元画像の画像データG1,G2をウェーブレット変換して得られた複数の高周波数帯域成分の画像データの大きさを比較して求める。また、粒状性については、例えば、元画像の画像データG1,G2をウェーブレット変換して得られた複数の高周波数帯域成分の画像データの大きさを比較して求める。なお、画質評価値として階調性、鮮鋭性、粒状性等を求める際に、他の可能な方法を用いてもよい。
【0172】
元画像の画像データG1,G2から求めた画質評価値の違いに基づいて、元画像の画像データG1,G2に画像処理を行う。例えば、階調性についていえば、階調変換等を行い、鮮鋭性、粒状性についていえば、例えば、スムージング処理や、アンシャープマスキング処理等の変換を行う。元画像の画像データG1,G2の両方に対して変換を行うこととしてもよいし、元画像の画像データG1,G2のうち、一方を他方に合わせるように変換を行うこととしてもよい。
【0173】
画像合成手段30は、前処理後の画像データG1’,G2’を合成して合成画像の画像データPを生成するとともに、合成端部情報を生成する。扱うデータが前処理後の画像データG1’,G2’であること以外は、実施の形態1と同様であるので、説明を省略する。
【0174】
(合成前処理手段60の詳細例1)
図25に、二項ウェーブレット変換を用いた合成前処理手段60の例として、合成前処理手段60の詳細例1を示す。合成前処理手段60は、輝度/色差変換手段610と、二項ウェーブレット変換手段620と、前処理用画像データ変換手段630と、二項ウェーブレット逆変換手段640と、輝度/色差逆変換手段650と、を備える。
【0175】
輝度/色差変換手段610は、元画像の画像データG1を輝度データV1と色差データU1に変換し、元画像の画像データG2を輝度データV2と色差データU2に変換する。
【0176】
二項ウェーブレット変換手段620は、輝度データV1を二項ウェーブレット変換して、レベル1の高周波数帯域成分Wx11,Wy11と、レベル2の高周波数帯域成分Wx21,Wy21と、低周波数帯域成分S21を生成する。同様に、輝度データV2を二項ウェーブレット変換して、レベル1の高周波数帯域成分Wx12,Wy12と、レベル2の高周波数帯域成分Wx22,Wy22と、低周波数帯域成分S22を生成する。
【0177】
前処理用画像データ変換手段630は、高周波数帯域成分Wx11,Wy11,Wx21,Wy21と、低周波数帯域成分S21を変換して、高周波数帯域成分Wx11’,Wy11’,Wx21’,Wy21’と、低周波数帯域成分S21’を生成する。同様に、高周波数帯域成分Wx12,Wy12,Wx22,Wy22と、低周波数帯域成分S22を変換して、高周波数帯域成分Wx12’,Wy12’,Wx22’,Wy22’と、低周波数帯域成分S22’を生成する。
【0178】
図26に、前処理用画像データ変換手段630として、粒状性に基づいて変換を行う例を示す。前処理用画像データ変換手段630は、粒状性評価手段631と、画像変換手段632と、から構成される。
【0179】
粒状性評価手段631は、輝度データV1を二項ウェーブレット変換して得られたレベル1の高周波数帯域成分Wx11,Wy11の画像データの大きさをBH1とし、レベル2の高周波数帯域成分Wx21,Wy21の画像データの大きさをBH2として、BH1>BH2×β(0<β<1)を満たす画素を、粒状評価画素として抽出する。そして、粒状評価画素におけるレベル1の高周波数帯域成分Wx11,Wy11の画像データの大きさBH1の平均値を、粒状性評価値BR1として求める。
同様に、輝度データV2を二項ウェーブレット変換して得られたレベル1の高周波数帯域成分Wx12,Wy12の画像データ、レベル2の高周波数帯域成分Wx22,Wy22の画像データについても処理を行い、粒状性評価値BR2を求める。
【0180】
次に、2つの元画像における粒状性評価値BR1,BR2の平均を取り、粒状性評価平均値BRavgを算出する。粒状性評価値BR1,BR2の粒状性評価平均値BRavgに対する割合を比粒状性評価値BRR1=BR1/BRavg,BRR2=BR2/BRavgとして求める。
そして、粒状性評価手段631は、比粒状性評価値BRR1,BRR2に応じて、それぞれの元画像に対する画像変換条件を算出し、各画像の画像変換条件を画像変換手段632に送る。
なお、粒状性評価手段631は、この方法に限定されない。
【0181】
画像変換手段632は、粒状性評価手段631により求められた各画像の画像変換条件に基づいて高周波数帯域成分Wx11,Wy11,Wx21,Wy21と、低周波数帯域成分S21を変換して、高周波数帯域成分Wx11’,Wy11’,Wx21’,Wy21’と、低周波数帯域成分S21’を生成する。同様に、高周波数帯域成分Wx12,Wy12,Wx22,Wy22と、低周波数帯域成分S22を変換して、高周波数帯域成分Wx12’,Wy12’,Wx22’,Wy22’と、低周波数帯域成分S22’を生成する。この変換により、比粒状性評価値BRR1,BRR2が所定の値内に入るようにする。
【0182】
図25に示すように、二項ウェーブレット逆変換手段640は、高周波数帯域成分Wx11’,Wy11’,Wx21’,Wy21’と、低周波数帯域成分S21’を用いて二項ウェーブレット逆変換を行い、前処理後の輝度データV1’を生成する。同様に、高周波数帯域成分Wx12’,Wy12’,Wx22’,Wy22’と、低周波数帯域成分S22’を用いて二項ウェーブレット逆変換を行い、前処理後の輝度データV2’を生成する。
【0183】
輝度/色差逆変換手段650は、二項ウェーブレット逆変換手段640において生成された前処理後の輝度データV1’と色差データU1に輝度/色差逆変換を施し、前処理後の画像データG1’を生成する。同様に、前処理後の輝度データV2’と色差データU2から前処理後の画像データG2’を生成する。この輝度/色差逆変換は、輝度/色差変換手段610における輝度/色差変換の逆変換である。
【0184】
実施の形態4では、合成前に画像の基本特性をそろえておき、合成後に合成境界部の不自然さを修正するため、合成前と合成後の両方の処理による複合効果により、合成画像をより自然な印象にすることができる。
【0185】
なお、実施の形態1〜4においては、2つの元画像から合成画像を作成する例を示したが、3つ以上の元画像から合成画像を作成することとしてもよい。また、合成完了後の画像に、さらに追加合成してもよい。
また、実施の形態1〜4においては、画像データのみを用いているが、必要に応じて、画像データ以外の画像付属データを用いてもよい。
【0186】
また、実施の形態1〜4において、画像データ変換処理は、変換する画像全体への処理でもよいし、部分処理でもよい。部分処理としては、合成端部及びその周辺だけに処理を行う方法や、合成領域に分離してそれぞれの領域に別の処理を行う方法等がある。また、画像データを輝度データと色差データに分け、輝度は部分処理し、色差は全体処理する等、部分処理と全体処理の組み合わせでもよい。また、合成画像の画像データや中間データを任意に組み合わせて用いてもよい。
【0187】
また、実施の形態1〜4において、変換するデータとしては、画像データや、画像データから変換された輝度データや、輝度データから変換された中間データ等の例を挙げたが、色差データや、色差データから変換された中間データ等、他のデータを目的に応じて用いればよく、限定されるものではない。
【0188】
また、実施の形態1〜4の各ブロックは、画像処理部の機能の理解を助けるために設けたブロックであり、必ずしも物理的に独立している必要はなく、例えば、単一のCPUにおけるソフトウェア処理の種類のブロックとして実現されてもよい。
【0189】
【発明の効果】
上述したように、請求項1、7、13又は19に記載の発明によれば、合成端部情報を用いることにより、合成画像の各領域毎に適切な変換ができるので、合成画像の不自然さを軽減させることができる。特に、合成画像の境界部やその周辺に対して合成後の画像データを変換することができるので、合成画像の境界部の不自然さを軽減させることができる。したがって、極めて少ない作業工数で合成画像を自然な画像にすることができる。
【0190】
上述したように、請求項2、8、14又は20に記載の発明によれば、歪み量に基づいて画像データを変換するので、必要な部分に必要な程度の処理を行うことができる。そのため、極めて少ない作業工数で合成画像の不自然さを軽減させることができる。
【0191】
上述したように、請求項3、9、15又は21に記載の発明によれば、合成端部情報を用いて歪み量を算出するので、効率よく歪み量を算出することができる。したがって、より精度よく合成画像の不自然さを軽減させることができる。
【0192】
上述したように、請求項4、10、16又は22に記載の発明によれば、多重解像度変換により、解像度が異なる複数の画像データを用いて、より精度よく歪み量を算出することができる。したがって、より精度よく合成画像の不自然さを軽減させることができる。
【0193】
上述したように、請求項5、11、17又は23に記載の発明によれば、多重解像度変換された画像データを、合成画像データの歪み量の算出に用いるとともに、歪み量に基づく画像データ変換に用いることにより、処理を効率化することができる。
【0194】
上述したように、請求項6、12、18又は24に記載の発明によれば、合成前に画像の基本特性をそろえておき、合成後に合成境界部の不自然さを修正するので、合成前と合成後の両方の処理による複合効果により、合成画像をより自然な印象にすることができる。
【図面の簡単な説明】
【図1】本実施の形態の画像記録装置の概観構成を示す図である。
【図2】画像記録装置の機能構成を示すブロック図である。
【図3】実施の形態1の画像合成処理を示す図である。
【図4】合成画像の合成端部を説明するための図である。
【図5】背景画像に人物を貼り付ける場合の例を示す図である。
【図6】図4の合成画像における部分処理の処理領域の例を示す図である。
【図7】実施の形態2の画像合成処理を示す図である。
【図8】合成後処理手段40の詳細例1を示す図である。
【図9】実施の形態3の画像合成処理を示す図である。
【図10】合成後処理手段40の詳細例2を示す図である。
【図11】合成後処理手段40の詳細例3を示す図である。
【図12】合成後処理手段40の詳細例4を示す図である。
【図13】ウェーブレット変換において用いられるウェーブレット関数を示した図である。
【図14】直交ウェーブレット変換又は双直交ウェーブレット変換におけるフィルタ処理を示す図である。
【図15】2次元信号における1レベルの直交ウェーブレット変換又は双直交ウェーブレット変換を示す図である。
【図16】3レベルの直交ウェーブレット変換又は双直交ウェーブレット変換で信号分解される過程を示す模式図である。
【図17】直交ウェーブレット変換又は双直交ウェーブレット変換で分解された信号をウェーブレット逆変換により再構成する方法を示す図である。
【図18】合成後処理手段40の詳細例5を示す図である。
【図19】ウェーブレット変換される信号の特性を示す図である。
【図20】二項ウェーブレット変換を示す図である。
【図21】二項ウェーブレット逆変換を示す図である。
【図22】合成後処理手段40の詳細例6を示す図である。
【図23】合成後処理手段40の詳細例7を示す図である。
【図24】実施の形態4の画像合成処理を示す図である。
【図25】合成前処理手段60の詳細例1を示す図である。
【図26】前処理用画像データ変換手段630の例を示す図である。
【符号の説明】
1 画像記録装置
2 CPU
3 ROM
4 RAM
5 操作部
6 フィルムスキャナ部
7 反射原稿入力部
8 画像読込部
9 CRT
10 プリント作成部
11 画像書込部
12 記憶部
13 通信部
14 画像処理部
15 トレー
16 マガジン
20 入力画像変換手段
30 画像合成手段
40 合成後処理手段
50 出力画像変換手段
60 合成前処理手段
410 輝度/色差変換手段
420 歪み量算出手段
421 直交ウェーブレット変換手段
422 歪みデータ抽出手段
423 歪み量ランク分け手段
424 二項ウェーブレット変換手段
425 画質評価手段
426 歪み情報算出手段
427 粒状性評価手段
430 画像データ変換手段
431 ランク別画像データ変換手段
432 直交ウェーブレット逆変換手段
433 二項ウェーブレット逆変換手段
440 輝度/色差逆変換手段
610 輝度/色差変換手段
620 二項ウェーブレット変換手段
630 前処理用画像データ変換手段
631 粒状性評価手段
632 画像変換手段
640 二項ウェーブレット逆変換手段
650 輝度/色差逆変換手段[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image synthesizing method, an image synthesizing device, an image synthesizing program, and an image recording device, and relates to a process for creating a synthetic image having a natural impression.
[0002]
[Prior art]
In recent years, with the spread of digital cameras and scanners, opportunities for handling digital image data have been increasing. These image data are easy to process, such as combining all or a part of the plurality of image data into one image data. For example, a specific portion such as a person is extracted from an image and pasted on a background image, a CG (Computer Graphics) image of a car or an airplane is pasted on a background image of a natural image, or a specific portion such as a person is extracted from a natural image. It can be extracted and pasted on a background image of a CG such as an imaginary room or a futuristic city, or the design of a signboard of a store photograph can be changed. Here, the natural image is an image obtained by photographing a real thing. As a method of synthesizing images, there are replacement synthesis that replaces a part of an image, watermark synthesis that overlaps a part of one image on another image, and the like.
[0003]
When synthesizing images, there is a problem how to make the image quality of a natural impression without discomfort. For example, there has been proposed a method of extracting a person from a certain image and pasting it to another background image to adjust the granularity and sharpness characteristics of the original image before combining the images (for example, See Patent Document 1.). This eliminates the apparent discomfort due to the different granularity and sharpness of each region in the composite image.
[0004]
[Patent Document 1]
JP-A-11-275343
[0005]
[Problems to be solved by the invention]
However, in the method described in Patent Literature 1, since the image is not adjusted with respect to the synthesized boundary portion, unnaturalness of the boundary remains. Further, even if pre-processing such as the method described in Patent Document 1 is performed before synthesis, it may be inappropriate or insufficient. In addition, there is a limit in adjustment before synthesis, and unnaturalness may remain in the overall impression after synthesis.
As a post-synthesis process, a method of manually performing image processing such as blurring on a boundary portion of the synthesis is known, but there is a problem that a large number of work steps are required.
[0006]
The present invention has been made in view of the above-described problems in the related art, and has an image combining method, an image combining apparatus, an image combining program, and an image combining method capable of reducing unnaturalness of a combined image with a small number of work steps. It is an object to provide an image recording device.
[0007]
[Means for Solving the Problems]
According to a first aspect of the present invention, there is provided an image combining method for creating a combined image using two or more images, the combined edge information relating to a boundary where the two or more images are in contact with each other. A post-synthesis processing step of determining an image conversion condition for the synthesized image data using the image conversion method, and converting the synthesized image data based on the determined image conversion condition. It is.
[0008]
According to the first aspect of the present invention, by using the composite edge information, appropriate conversion can be performed for each region of the composite image, so that unnaturalness of the composite image can be reduced. In particular, since the synthesized image data can be converted into and around the boundary of the composite image, the unnaturalness of the boundary of the composite image can be reduced. Therefore, the synthesized image can be made a natural image with a very small number of work steps.
[0009]
According to a second aspect of the present invention, in the image combining method of creating a combined image using two or more images, a distortion amount calculating step of calculating a distortion amount from the combined image data, and the calculated distortion amount An image data conversion step of determining an image conversion condition for the image data after synthesis based on the image conversion condition, and converting the image data after synthesis based on the determined image conversion condition. This is an image synthesis method.
[0010]
According to the second aspect of the present invention, since image data is converted based on the amount of distortion, necessary processing can be performed on a required portion. Therefore, the unnaturalness of the composite image can be reduced with a very small number of work steps.
[0011]
According to a third aspect of the present invention, in the image synthesizing method according to the second aspect, in the distortion amount calculating step, the distortion amount is calculated using synthesized edge information regarding a boundary where the two or more images are in contact with each other. An image synthesizing method characterized in that:
[0012]
According to the third aspect of the present invention, since the distortion amount is calculated using the combined edge information, the distortion amount can be calculated efficiently. Therefore, it is possible to more accurately reduce the unnaturalness of the composite image.
[0013]
The invention according to claim 4 is the image composition method according to claim 3, wherein the distortion amount calculating step includes a multi-resolution conversion.
[0014]
According to the fourth aspect of the present invention, it is possible to more accurately calculate the distortion amount by using a plurality of image data having different resolutions by the multi-resolution conversion. Therefore, it is possible to more accurately reduce the unnaturalness of the composite image.
[0015]
According to a fifth aspect of the present invention, in the image synthesizing method according to the fourth aspect, the conversion to the image data after the combination in the image data conversion step is conversion to the image data after the multi-resolution conversion. This is an image synthesizing method characterized by the following.
[0016]
According to the fifth aspect of the present invention, the image data subjected to the multi-resolution conversion is used for calculating the amount of distortion of the combined image data and used for image data conversion based on the amount of distortion, thereby increasing the efficiency of processing. Can be.
[0017]
According to a sixth aspect of the present invention, in the image synthesizing method according to any one of the first to fifth aspects, a pre-synthesis process using multi-resolution conversion is performed on at least one image before the synthesis. An image synthesizing method including a preprocessing step.
[0018]
According to the sixth aspect of the present invention, the basic characteristics of the images are aligned before the synthesis, and the unnaturalness of the synthesis boundary is corrected after the synthesis. Thus, the synthesized image can be made more natural.
[0019]
8. The image synthesizing apparatus according to claim 7, wherein the image combining device creates a combined image by using two or more images. An image synthesizing apparatus comprising: a post-synthesis processing unit that determines an image conversion condition for the image data and converts the synthesized image data based on the determined image conversion condition.
[0020]
According to the seventh aspect of the present invention, since the appropriate conversion can be performed for each area of the composite image by using the composite edge information, the unnaturalness of the composite image can be reduced. In particular, since the synthesized image data can be converted into and around the boundary of the composite image, the unnaturalness of the boundary of the composite image can be reduced. Therefore, the synthesized image can be made a natural image with a very small number of work steps.
[0021]
The invention according to claim 8, wherein in an image synthesizing apparatus that creates a composite image using two or more images, a distortion amount calculation unit that calculates a distortion amount from image data after synthesis, and the calculated distortion amount. An image data conversion unit that determines an image conversion condition to the combined image data based on the image data, and converts the combined image data based on the determined image conversion condition. Image synthesizing device.
[0022]
According to the eighth aspect of the present invention, since image data is converted based on the amount of distortion, necessary processing can be performed on a required portion. Therefore, the unnaturalness of the composite image can be reduced with a very small number of work steps.
[0023]
According to a ninth aspect of the present invention, in the image synthesizing apparatus according to the eighth aspect, the distortion amount calculating means calculates the amount of distortion using synthesized edge information regarding a boundary where the two or more images are in contact with each other. An image synthesizing apparatus characterized in that:
[0024]
According to the ninth aspect of the present invention, since the distortion amount is calculated using the combined edge information, the distortion amount can be efficiently calculated. Therefore, it is possible to more accurately reduce the unnaturalness of the composite image.
[0025]
According to a tenth aspect of the present invention, in the image synthesizing apparatus according to the ninth aspect, the distortion amount calculating means performs multi-resolution conversion.
[0026]
According to the tenth aspect, it is possible to more accurately calculate the amount of distortion by using a plurality of image data having different resolutions by the multi-resolution conversion. Therefore, it is possible to more accurately reduce the unnaturalness of the composite image.
[0027]
According to an eleventh aspect of the present invention, in the image synthesizing apparatus according to the tenth aspect, the conversion to the image data after the synthesis by the image data conversion means is conversion to the image data after the multi-resolution conversion. An image synthesizing apparatus characterized by the following.
[0028]
According to the eleventh aspect of the present invention, the image data subjected to the multi-resolution conversion is used for calculating the amount of distortion of the combined image data and is used for image data conversion based on the amount of distortion, thereby improving the efficiency of the processing. Can be.
[0029]
According to a twelfth aspect of the present invention, in the image synthesizing apparatus according to any one of the seventh to eleventh aspects, a pre-synthesis process using multi-resolution conversion is performed on at least one image before the synthesis. An image synthesizing apparatus comprising a preprocessing means.
[0030]
According to the twelfth aspect of the present invention, the basic characteristics of the images are aligned before the synthesis, and the unnaturalness of the synthesis boundary portion is corrected after the synthesis. Thus, the synthesized image can be made more natural.
[0031]
According to a thirteenth aspect of the present invention, a computer for executing a process of creating a composite image using two or more images is composed using composite edge information relating to a boundary where the two or more images contact each other. An image synthesizing program for realizing a post-synthesis processing function of determining image conversion conditions for post-image data and converting the synthesized image data based on the determined image conversion conditions.
[0032]
According to the thirteenth aspect, by using the composite edge information, an appropriate conversion can be performed for each region of the composite image, so that the unnaturalness of the composite image can be reduced. In particular, since the synthesized image data can be converted into and around the boundary of the composite image, the unnaturalness of the boundary of the composite image can be reduced. Therefore, the synthesized image can be made a natural image with a very small number of work steps.
[0033]
A computer for executing a process of creating a composite image using two or more images includes a distortion amount calculation function of calculating a distortion amount from image data after synthesis, An image data conversion function of determining image conversion conditions for the combined image data based on the determined distortion amount, and converting the combined image data based on the determined image conversion conditions. Image synthesizing program.
[0034]
According to the fourteenth aspect of the present invention, since image data is converted based on the amount of distortion, necessary processing can be performed on a required portion. Therefore, the unnaturalness of the composite image can be reduced with a very small number of work steps.
[0035]
According to a fifteenth aspect of the present invention, in the image synthesizing program according to the fourteenth aspect, the distortion amount calculating function calculates the amount of distortion using synthesized edge information on a boundary where the two or more images are in contact with each other. An image synthesizing program characterized in that:
[0036]
According to the fifteenth aspect, since the distortion amount is calculated using the combined edge information, the distortion amount can be efficiently calculated. Therefore, it is possible to more accurately reduce the unnaturalness of the composite image.
[0037]
The invention according to claim 16 is the image composition program according to claim 15, wherein the distortion amount calculation function includes multi-resolution conversion.
[0038]
According to the sixteenth aspect, it is possible to more accurately calculate the amount of distortion by using a plurality of image data having different resolutions by the multi-resolution conversion. Therefore, it is possible to more accurately reduce the unnaturalness of the composite image.
[0039]
According to a seventeenth aspect of the present invention, in the image synthesizing program according to the sixteenth aspect, the conversion to the image data after the combination in the image data conversion function is conversion to the image data after the multi-resolution conversion. An image synthesizing program characterized by the following.
[0040]
According to the seventeenth aspect, the multi-resolution converted image data is used for calculating the amount of distortion of the combined image data, and is used for image data conversion based on the amount of distortion, thereby improving processing efficiency. Can be.
[0041]
According to an eighteenth aspect of the present invention, in the image composing program according to any one of the thirteenth to seventeenth aspects, the computer is configured to provide the computer with at least one image before synthesis using multi-resolution conversion before synthesis. This is an image synthesis program that realizes a pre-synthesis processing function for performing processing.
[0042]
According to the eighteenth aspect of the present invention, the basic characteristics of the images are aligned before the synthesis, and the unnaturalness of the synthesis boundary portion is corrected after the synthesis. Thus, the synthesized image can be made more natural.
[0043]
20. An image recording apparatus according to claim 19, wherein a composite image is created by using two or more images, and the composite image is recorded on a recording medium. An image characterized by comprising post-synthesis processing means for determining image conversion conditions for image data after synthesis using information and converting the image data after synthesis based on the determined image conversion conditions. It is a recording device.
[0044]
According to the nineteenth aspect, by using the composite edge information, appropriate conversion can be performed for each region of the composite image, so that the unnaturalness of the composite image can be reduced. In particular, since the synthesized image data can be converted into and around the boundary of the composite image, the unnaturalness of the boundary of the composite image can be reduced. Therefore, the synthesized image can be made a natural image with a very small number of work steps.
[0045]
According to the twentieth aspect of the present invention, in an image recording apparatus for creating a composite image using two or more images and recording the composite image on a recording medium, a distortion amount calculation is performed from the image data after the combination. Means for determining image conversion conditions for the combined image data based on the calculated amount of distortion, and converting the combined image data based on the determined image conversion conditions And an image recording apparatus.
[0046]
According to the twentieth aspect, the image data is converted based on the distortion amount, so that a necessary degree of processing can be performed on a necessary portion. Therefore, the unnaturalness of the composite image can be reduced with a very small number of work steps.
[0047]
According to a twenty-first aspect of the present invention, in the image recording apparatus according to the twentieth aspect, the distortion amount calculating means calculates the distortion amount using composite edge information on a boundary where the two or more images are in contact with each other. An image recording apparatus characterized in that:
[0048]
According to the twenty-first aspect, since the distortion amount is calculated using the combined edge information, the distortion amount can be calculated efficiently. Therefore, it is possible to more accurately reduce the unnaturalness of the composite image.
[0049]
The invention according to claim 22 is the image recording apparatus according to claim 21, wherein the distortion amount calculating means performs multi-resolution conversion.
[0050]
According to the invention described in claim 22, the amount of distortion can be calculated with higher accuracy by using a plurality of image data having different resolutions by the multi-resolution conversion. Therefore, it is possible to more accurately reduce the unnaturalness of the composite image.
[0051]
According to a twenty-third aspect of the present invention, in the image recording device according to the twenty-second aspect, the conversion to the image data after the combination by the image data conversion means is conversion to the image data after the multi-resolution conversion. An image recording apparatus characterized in that:
[0052]
According to the twenty-third aspect, the multi-resolution converted image data is used for calculating the amount of distortion of the combined image data and used for image data conversion based on the amount of distortion, thereby increasing the efficiency of processing. Can be.
[0053]
According to a twenty-fourth aspect of the present invention, in the image recording apparatus according to any one of the nineteenth to twenty-third aspects, a synthesis pre-process using multi-resolution conversion is performed on at least one image before the synthesis. An image recording apparatus comprising a preprocessing unit.
[0054]
According to the invention described in claim 24, the basic characteristics of the images are aligned before the synthesis, and the unnaturalness of the synthesis boundary portion is corrected after the synthesis. Thus, the synthesized image can be made more natural.
[0055]
BEST MODE FOR CARRYING OUT THE INVENTION
An embodiment of the present invention will be described below with reference to the drawings.
First, FIG. 1 shows an outline configuration of an image recording apparatus 1 according to the present embodiment.
As shown in FIG. 1, the image recording apparatus 1 includes an operation unit 5, a film scanner unit 6, a reflection original input unit 7, an image reading unit 8, a CRT (Cathode Ray Tube) 9, a print creation unit 10, and an image writing unit. 11, a tray 15, and a magazine 16 are provided.
[0056]
Next, FIG. 2 shows a functional configuration of the image recording apparatus 1.
As shown in FIG. 2, the image recording apparatus 1 includes a CPU (Central Processing Unit) 2, a ROM (Read Only Memory) 3, a RAM (Random Access Memory) 4, an operation unit 5, a film scanner unit 6, and a reflection document input unit. 7, an image reading unit 8, a CRT 9, a print creation unit 10, an image writing unit 11, a storage unit 12, a communication unit 13, and an image processing unit 14.
[0057]
The CPU 2 reads various control programs stored in the ROM 3 or the storage unit 12 in response to signals input from the operation unit 5 and the communication unit 13 and expands the control programs in the RAM 4, and cooperates with the developed control programs. Various processes are executed by the operation, and each unit of the image recording apparatus 1 is made to function.
[0058]
The ROM 3 is a read-only semiconductor memory, and stores programs executed by the CPU 2, data, and the like.
The RAM 4 is a storage medium in which data is temporarily stored, a program area for expanding a program to be executed by the CPU 2, data input from the operation unit 5 and the communication unit 13, various processing results by the CPU 2, and the like. , A data area for storing image data input from the film scanner unit 6, the reflection document input unit 7, the image reading unit 8 or the communication unit 13, and the like. Here, the image data refers to data of each pixel obtained by dividing an image into a number of small regions (pixels) and expressing the brightness and the like of each color component by signal intensity for each pixel.
[0059]
The operation unit 5 includes numeric keys and various function keys, and includes, for example, a touch panel. When any of these keys is pressed, a signal indicating that the key is pressed is output to the CPU 2.
[0060]
The film scanner unit 6 is a device that reads a transparent original. The film scanner unit 6 reads image data from a color negative film, a color reversal film, or the like, which is photographed and developed by an analog camera under the control of the CPU 2. The reflection document input unit 7 is a device that reads an image from a reflection document. The reflection document input unit 7 reads image data from a reflection document such as a color photographic print or a printed matter under the control of the CPU 2.
[0061]
The image reading section 8 includes a PC card adapter 8a, a floppy (registered trademark) disk adapter 8b, and an optical disk adapter 8c, and a PC card, a floppy disk, and an optical disk can be inserted therein. The media is not limited to these, and may be an MO (Magneto Optical disk), Zip (registered trademark), or the like, as long as a corresponding adapter is provided. Various media stores, for example, a plurality of image data, image attached data, order information (for example, DPOF (Digital Print Order Format), etc.) captured by a digital camera, and the like. The image attached data refers to data such as a header and a tag attached to the image data. The image reading unit 8 reads image data, image attached data, and the like recorded on various media under the control of the CPU 2.
[0062]
The CRT 9 displays image data read from the film scanner unit 6, the reflection original input unit 7, the image reading unit 8 and image data received from the communication unit 13 on the screen under the control of the CPU 2.
[0063]
Under the control of the CPU 2, the print creating unit 10 exposes the photographic photosensitive material drawn from the magazine 16 based on the image data, and develops the exposed photographic photosensitive material to create a print. The created print is discharged to the tray 15. The print creation unit 10 may be any device that forms an image from the read image data, and may be, for example, an inkjet, electrophotographic, heat-sensitive, or sublimation print creation device.
[0064]
The image writing unit 11 includes a floppy disk adapter 11a, an MO adapter 11b, and an optical disk adapter 11c, so that a floppy disk, an MO, and an optical disk can be inserted. The media is not limited to these, and may be a PC card, Zip, or the like, as long as a corresponding adapter is provided. The image writing unit 11 writes image data, image attached data, and the like on an image recording medium under the control of the CPU 2. Note that the image reading unit 8 and the image writing unit 11 may be used for both reading and writing with one adapter.
[0065]
The storage unit 12 includes, for example, an HDD (Hard Disk Drive), and records programs, data, and the like in the HDD under the control of the CPU 2. Further, when an instruction to read a program or data is issued from the CPU 2, the instructed information is read from the HDD and output to the CPU 2.
[0066]
The communication unit 13 receives image data, image-attached data, print commands, and the like from a computer in the facility or a distant computer via the Internet or the like. That is, the image recording device 1 can function as a network printer. In addition, the communication unit 13 transmits image data, image attached data, accompanying order information, and the like to another computer in the facility, another network printer, a distant computer via the Internet, or the like.
[0067]
The image processing unit 14 performs appropriate image processing on the image data read from the film scanner unit 6, the reflection document input unit 7 or the image reading unit 8 and the image data received from the communication unit 13 as necessary. For example, calibration processing, gray balance adjustment, contrast adjustment suitable for each input method, and negative / positive reversal processing for a negative original are performed. The image data may be any of RGB color image data, monochrome image data, YMCK 4-color image data, and the like. The number of gradations is also arbitrary. For example, in the case of RGB color image data, arbitrary image data such as 8 bits for each color and 12 bits for each color can be used. The image may be in any format (JPEG, Tiff, bmp, etc.). In the case of a format having image data and image attached data, such as JPEG and Tiff, processing corresponding to each format for separating the image data and image attached data and extracting necessary information from the image attached data is performed.
[0068]
The image processing unit 14 is realized by software processing in cooperation with an image processing program stored in the ROM 3 and the CPU 2. Details of an example of the processing according to the present invention will be described later (FIGS. 3, 7, 9, and 24).
[0069]
Further, the image processing unit 14 performs image processing corresponding to the output destination, and the image data subjected to the image processing is displayed on the CRT 9, printed by the print creation unit 10, or image-recorded by the image writing unit 11. It is recorded on a medium or transmitted from the communication unit 13 to another device or the like. For example, calibration processing, color matching, pixel number change processing, etc., suitable for each output method are performed. The image data may be any of RGB color image data, monochrome image data, YMCK 4-color image data, and the like. The number of gradations is also arbitrary. For example, in the case of RGB color image data, arbitrary image data such as 8 bits for each color and 12 bits for each color can be used. The image may be in any format (JPEG, Tiff, bmp, etc.). In the case of a format having image data and image attached data, such as JPEG and Tiff, processing corresponding to each format is performed using the image data and image attached data in correspondence.
[0070]
The image recording apparatus 1 shown in FIG. 1 has a structure in which an operation unit 5, a CRT 9, a film scanner unit 6, a reflection document input unit 7, an image reading unit 8, and a print creation unit 10 are integrated. However, one or more of them may be provided separately. Further, another film scanner, a reflection original input device, a printer, or the like may be connected. In that case, the image processing unit 14 performs a process unique to each device.
[0071]
Next, image processing performed by the image processing unit 14 of the image recording device 1 will be described.
[0072]
[Embodiment 1]
FIG. 3 shows an example of the image synthesis processing as the first embodiment. The image processing unit 140 shown in FIG. 3 is an example of the image processing unit 14 of the image recording device 1 in FIG.
As shown in FIG. 3, the image processing unit 140 includes an input image conversion unit 20, an image synthesis unit 30, a post-synthesis processing unit 40, and an output image conversion unit 50.
[0073]
The input image converting means 20 converts the original image F1 input from the film scanner section 6, the reflection original input section 7, the image reading section 8 or the communication section 13 by means corresponding to each image, and converts the original image F1. The image data G1 is generated. Similarly, conversion is performed by means corresponding to the original image F2 to generate image data G2 of the original image. If the image data G1 and G2 of the original image are three colors of RGB, the following processing is performed for each of them.
[0074]
The image combining means 30 combines the image data G1 and G2 of the original image to generate image data P of the combined image, and also generates combined edge information.
Here, the composite edge refers to the boundary of the composite image or the boundary and its periphery. For example, as shown in FIG. 4A, when a person is combined with the background image, the boundary between the person and the background shown in FIG. 4B is the combining end.
The composite edge information includes pixel position information (coordinates) on the image data of the composite edge. For example, the image data may be image data in which the detected image data other than the composite end is 0, or may be binary image data in which the image data of the composite end is 1 and the image data other than the composite end is 0.
[0075]
FIG. 5 shows an example in which a person is pasted on a background image. A person is extracted from an original image F1 including a person as shown in FIG. 5A, and a person image is superimposed on a predetermined position of the original image F2 shown in FIG. .
As a method for extracting a person, for example, various methods such as automatic extraction by a method such as matching with a predetermined person pattern, manual extraction by giving an instruction from the operation unit 5 while looking at an image displayed on the CRT 9, and the like are described. There are methods and are not limited. A person is extracted by one of the methods (FIG. 5C), and the shape (relative position) of the composite end is obtained from the information on the contour at the time of extraction (FIG. 5D). The relative position is represented by relative coordinates from a point Q on the contour.
The above-described image synthesizing unit 30 is an example of generating the synthesized edge information, and is not limited to this.
[0076]
There are various methods for determining the position to be pasted, such as automatic determination in which the position to be pasted is determined in advance, and manual position adjustment, such as giving an instruction from the operation unit 5 while looking at the image displayed on the CRT 9. , But not limited to. The attachment position is determined by one of the methods (FIG. 5E), and the combined edge information is obtained from the shape of the combined edge and the attached position (FIG. 5F). The shape of the composite end portion represented by the relative coordinates from the point Q on the contour is converted into coordinates from the origin (0,0).
[0077]
As described above, the image combining means 30 creates a combined image (FIG. 5G).
As the synthesizing method, there are various methods such as replacement synthesis and watermark synthesis, but it is not limited thereto.
After the combination, the finish may be confirmed on the CRT 9, and a redo or a correction of the position or the like may be performed.
[0078]
The post-synthesis processing unit 40 determines an image conversion condition of the synthesized image into the image data P using the synthesized edge information obtained by the image synthesis unit 30, and based on the determined image conversion condition, The data P is converted to generate image data P ′ of the composite image after the post-processing. This conversion includes partial processing on the composite end and its surroundings, and overall processing such as blurring the whole.
[0079]
FIG. 6 shows an example of the processing area of the partial processing in the composite image of FIG. In FIGS. 6A to 6D, it is assumed that a process is executed on a portion indicated by a halftone dot. FIG. 6A shows the inside of a person, FIG. 6B shows the boundary between the person and the background and its peripheral portion, and FIG. 6C shows the background portion. Further, as shown in FIG. 6D, different partial processes may be executed depending on regions, such as executing a process of increasing sharpness inside a person and executing a process of decreasing sharpness of a background portion.
[0080]
As the image data conversion in the post-synthesis processing means 40, a spatial filter can be used. At the pixel position described in the combined edge information and its surroundings, a process of blurring the image data P of the combined image with a spatial filter is performed. As the spatial filter, various filters known in the art, such as a smoothing filter, may be appropriately used according to the purpose.
[0081]
The output image conversion unit 50 performs conversion corresponding to the output destination on the image data P ′ of the post-processed composite image, and converts the post-processed composite image D ′ into the CRT 9, the print creation unit 10, the image writing unit 11 or the communication unit 13.
[0082]
In the first embodiment, by using the composite edge information, appropriate conversion can be performed for each region of the composite image, so that the unnaturalness of the composite image can be reduced. In particular, since the synthesized image data can be converted into and around the boundary of the composite image, the unnaturalness of the boundary of the composite image can be reduced. Therefore, the synthesized image can be made a natural image with a very small number of work steps. In addition, since the partial processing is performed, the impression of the entire image can be maintained, which is suitable for fine correction of the composite image.
[0083]
[Embodiment 2]
FIG. 7 shows an example of an image synthesis process according to the second embodiment. The image processing unit 141 illustrated in FIG. 7 is an example of the image processing unit 14 of the image recording device 1 in FIG.
As shown in FIG. 7, the image processing unit 141 includes an input image conversion unit 20, an image synthesis unit 30, a post-synthesis processing unit 40, and an output image conversion unit 50.
[0084]
In the first embodiment, the image conversion condition of the composite image into the image data P is determined using the composite edge information. In the second embodiment, the image data P of the composite image is determined without using the composite edge information. The image data P of the composite image is converted based on the distortion information obtained from.
Since the input image conversion means 20 and the output image conversion means 50 are the same as those in the first embodiment, the description will be omitted.
[0085]
The image combining means 30 combines the image data G1 and G2 of the original image to generate image data P of the combined image. In the second embodiment, the image synthesizing unit 30 does not generate the synthesizing edge information, but the other parts are the same as those in the first embodiment, and thus the description is omitted.
[0086]
The post-synthesis processing unit 40 calculates the amount of distortion from the image data P of the synthesized image and generates distortion information. Then, using the distortion information, an image conversion condition of the synthesized image into the image data P is determined, and the image data P of the synthesized image is converted based on the determined image conversion condition. Generate image data P '.
[0087]
The distortion amount is related to the unnaturalness of an image, and may be calculated based on the magnitude of a change in image data, a change in gradient of image data, a change in S / N ratio, a change in sharpness, or the like. . The larger the amount of distortion, the more unnatural the image looks. When the amount of distortion is large, it is sometimes called discontinuity.
The distortion information includes pixel position information (coordinates) on the image data and a distortion amount at the pixel position.
[0088]
(Detailed example 1 of post-synthesis processing means 40)
FIG. 8 shows a detailed example 1 of the post-synthesis processing means 40 as an example of the post-synthesis processing means 40. The post-synthesis processing unit 40 includes a distortion amount calculation unit 420 and an image data conversion unit 430.
[0089]
The distortion amount calculation means 420 calculates a distortion amount from the image data P of the composite image and generates distortion information. An example in which a differential filter is used as the distortion amount calculation means 420 will be described. As the differential filter, various filters known in the art, such as a Laplacian filter, may be used as appropriate for the purpose. For example, the gradient is obtained by converting the image data P of the composite image at each pixel position by a differential filter or the like. The obtained gradient amounts are ranked and used as distortion amounts. For example, a rank value 1 is set below the gradient amount k, and a rank value 2 is set above the gradient amount k. The value of k is appropriately set according to the size of the composite image, the purpose, the use, and the like.
Note that the gradient amount may be classified not only into two ranks but also into n ranks.
Further, the gradient amount may be directly used as the rank value.
Further, the distortion amount calculation means 420 is not limited to the processing using the differential filter, and may calculate the distortion amount by another method.
[0090]
The image data conversion unit 430 determines the image conversion condition of the composite image into the image data P using the distortion information obtained by the distortion amount calculation unit 420, and based on the image conversion condition, determines the image data P of the composite image. To generate image data P ′ of the composite image after the post-processing.
Here, the image data P of the composite image is converted based on the distortion amount. The conversion based on the distortion amount refers to a conversion performed under a conversion condition corresponding to the distortion amount, but the distortion amount itself may be the conversion condition. The conversion based on the amount of distortion may be not only a conversion for reducing or removing the amount of distortion, but also a conversion that does not reduce or remove the amount of distortion but looks natural as if the amount of distortion is reduced.
[0091]
An example in which a spatial filter is used as the image data conversion unit 430 will be described. For example, at the pixel position described in the distortion information, a process of blurring the image data P of the composite image with a spatial filter is performed. At this time, the blur amount is determined according to the rank of the distortion amount. For example, when blurring with a 5 × 5 filter, the filter coefficient is changed according to the rank of the distortion amount. As the spatial filter, various filters known in the art such as a smoothing filter may be appropriately used according to the purpose, and the filter coefficient may be changed according to the rank.
Further, the processing using the spatial filter has been described as the image data conversion means 430, but another method may be used.
[0092]
In the second embodiment, the amount of distortion is calculated from the image data P of the combined image, and the image data P of the combined image is converted based on the distortion information including the amount of distortion and the pixel position information. Can be accurately reduced.
Further, since image data is converted based on the amount of distortion, necessary processing can be performed on a required portion. Therefore, the unnaturalness of the composite image can be corrected with a very small number of work steps. In addition, since the partial processing is performed, the impression of the entire image can be maintained, which is suitable for fine correction of the composite image.
[0093]
[Embodiment 3]
FIG. 9 shows an example of an image combining process according to the third embodiment. The image processing unit 142 illustrated in FIG. 9 is an example of the image processing unit 14 of the image recording device 1 in FIG.
As shown in FIG. 9, the image processing unit 142 includes an input image conversion unit 20, an image synthesis unit 30, a post-synthesis processing unit 40, and an output image conversion unit 50.
[0094]
In the second embodiment, the amount of distortion is calculated from the image data P of the composite image without using the composite edge information. In the third embodiment, however, the distortion is calculated from the image data P of the composite image using the composite edge information. Calculate the amount.
The input image converting means 20, the image synthesizing means 30, and the output image converting means 50 are the same as those in the first embodiment, and thus the description is omitted.
[0095]
The post-synthesis processing unit 40 includes a distortion amount calculation unit 420 and an image data conversion unit 430.
The distortion amount calculating unit 420 calculates the amount of distortion from the image data P of the synthesized image using the synthesized edge information obtained by the image synthesizing unit 30, and generates distortion information. For example, image data other than the composite end may be set to 0, and image data of the composite end may be set as image data having a rank value corresponding to the distortion amount.
The image data conversion means 430 determines an image conversion condition of the composite image into the image data P using the distortion information, converts the image data P of the composite image based on the determined image conversion condition, and performs post-processing. Is generated.
[0096]
Hereinafter, detailed examples 2 to 7 will be described as examples of the post-synthesis processing unit 40. It should be noted that the data handled by the distortion amount calculation means 420 and the image data conversion means 430 is not limited to the image data P of the composite image, but includes data obtained by converting the image data P of the composite image.
[0097]
(Detailed example 2 of post-synthesis processing means 40)
FIG. 10 shows a detailed example 2 of the post-synthesis processing means 40. The post-synthesis processing unit 40 includes a luminance / color difference conversion unit 410, a distortion amount calculation unit 420, an image data conversion unit 430, and a luminance / color difference inverse conversion unit 440.
[0098]
In the detailed example 2 of the post-synthesis processing means 40, after converting the image data P of the synthesized image into the luminance data B and the color difference data C, the distortion information is generated using the luminance data B, and the distortion amount is calculated for the luminance data B. Perform a conversion based on
[0099]
First, the luminance / color difference conversion unit 410 will be described. The luminance / color difference conversion unit 410 converts the image data P of the composite image into luminance data B and color difference data C. As the luminance / color difference conversion for converting the image data P of the composite image into the luminance data B and the color difference data C, when the image data is data based on the sRGB standard, CIE (Commission Internationale de l'Eclairage: International Commission on Illumination). There is an operation of converting to an L * a * b * base or an L * u * v * base recommended in 1976. In this case, L * corresponds to luminance. Alternatively, conversion may be performed such that the average value of sRGB is luminance data B and two axes orthogonal to the luminance data B are color difference signals. Moreover, you may convert from sRGB to sYCC. In this case, Y corresponds to luminance.
[0100]
The distortion amount calculation unit 420 calculates the distortion amount using the luminance data B of the composite image and the composite edge information obtained by the image composition unit 30, and generates distortion information. Specifically, the luminance data B of the composite image is converted by a differential filter or the like at the pixel position of the composite edge described in the composite edge information to obtain a gradient. Except for the fact that the data to be handled is the luminance data B and the use of the combined edge information, this is the same as the detailed example 1 of the post-synthesis processing means 40 in the second embodiment, and the description is omitted.
[0101]
In addition, the pixel position information of the distortion information may be the same as the pixel position of the combined edge described in the combined edge information, or may be a portion where the pixel position of the combined edge described in the combined edge information is broken. The shape of the contour, such as connection, may be shaped to change the pixel position.
[0102]
The image data conversion unit 430 converts the luminance data B of the composite image using the distortion information obtained by the distortion amount calculation unit 420, and generates corrected luminance data B '. Except that the data to be converted is the luminance data B, it is the same as the detailed example 1 of the post-synthesis processing means 40 in the second embodiment, and the description is omitted.
[0103]
The luminance / color difference inverse conversion means 440 performs the luminance / color difference inverse conversion on the corrected luminance data B ′ and color difference data C, and generates image data P ′ of the post-processed composite image. This inverse luminance / color difference conversion is an inverse conversion of the luminance / color difference conversion in the luminance / color difference conversion unit 410.
[0104]
In the detailed example 2 of the post-synthesis processing means 40, since the distortion amount is calculated using the synthesized edge information, the distortion amount can be calculated efficiently. In addition, the distortion amount calculation unit 420 and the image data conversion unit 430 handle only the luminance data B, thereby simplifying the process of correcting the composite image. Therefore, processing can be performed at high speed, which is preferable.
[0105]
(Detailed example 3 of post-synthesis processing means 40)
FIG. 11 shows a detailed example 3 of the post-synthesis processing means 40. The post-synthesis processing unit 40 includes a luminance / color difference conversion unit 410, a distortion amount calculation unit 420, an image data conversion unit 430, and a luminance / color difference inverse conversion unit 440.
[0106]
In the detailed example 2 of the post-synthesis processing means 40, after converting the image data P of the synthesized image into luminance data B and color difference data C, distortion information is generated using the luminance data B and the synthesized edge information, and the luminance data B On the other hand, the conversion based on the distortion amount was performed, but in the detailed example 3 of the post-synthesis processing means 40, the distortion information is generated using the luminance data B and the synthesized edge information, and the luminance generated to obtain the distortion information is generated. The conversion based on the distortion amount is performed on the intermediate data Btmp1 of the data B.
The luminance / color difference conversion unit 410, the distortion amount calculation unit 420, and the luminance / color difference inverse conversion unit 440 are the same as those in the detailed example 2 of the post-synthesis processing unit 40, and a description thereof will be omitted.
[0107]
The image data conversion unit 430 converts the intermediate data Btmp1 generated to obtain the distortion information by the distortion amount calculation unit 420 using the distortion information obtained by the distortion amount calculation unit 420, and outputs the corrected luminance data B 'Is generated. Except that the data to be converted is the intermediate data Btmp1, it is the same as the detailed example 2 of the post-synthesis processing means 40, and the description is omitted.
[0108]
In the detailed example 3 of the post-synthesis processing unit 40, the distortion amount calculation unit 420 handles the luminance data B, and the image data conversion unit 430 handles the intermediate data Btmp1 of the luminance data B, thereby using the result of the previous process. The correction processing of the composite image can be simplified. Therefore, processing can be performed quickly and efficiently, which is preferable.
[0109]
(Detailed example 4 of post-synthesis processing means 40)
FIG. 12 shows a detailed example 4 of the post-synthesis processing means 40. The post-synthesis processing unit 40 includes a luminance / color difference conversion unit 410, a distortion amount calculation unit 420, an image data conversion unit 430, and a luminance / color difference inverse conversion unit 440.
[0110]
The detailed example 4 of the post-synthesis processing means 40 is a high-frequency band obtained by performing orthogonal wavelet transform, which is one of multiple resolution conversions, as the intermediate data Btmp1 of the luminance data B in the detailed example 3 of the post-synthesis processing means 40. Component Wv n , Wh n , Wd n This is an example using.
The luminance / color difference conversion unit 410 and the luminance / color difference inverse conversion unit 440 are the same as those in the detailed example 2 of the post-synthesis processing unit 40, and thus description thereof is omitted.
[0111]
First, the multi-resolution conversion will be described.
The multi-resolution conversion is a general term of a method represented by a wavelet transform, a complete reconstruction filter bank, a Laplacian pyramid, etc., and converts an input signal into a low frequency band component signal and a high frequency band component signal by one conversion operation. This is a technique in which the same operation is performed on the separated and obtained low frequency band component signals to obtain a multi-resolution signal including a plurality of signals having different frequency bands. If the obtained multi-resolution signal is subjected to inverse multi-resolution conversion without processing, the original signal is reconstructed (“Wavelet and Filter Banks” by G. Strang & T. Nguyen, Wellesley-Cambridge Press (Japanese translation) Wavelet Analysis and Filter Bank ", G. Strang and T. Nguyen, Baifukan).) Here, an outline of a wavelet transform that is a typical multi-resolution transform will be described.
[0112]
The wavelet transform refers to a wavelet function that oscillates in a finite range as illustrated in FIG. 13 (see the following equation (1)), and a wavelet transform coefficient <f, に 対 す る for the input signal f (x). a, b > By the following equation (2) to decompose the input signal into a sum of wavelet functions represented by the following equation (3).
(Equation 1)
Figure 2004240732
(Equation 2)
Figure 2004240732
[Equation 3]
Figure 2004240732
In the above equation (3), a represents the scale of the wavelet function, and b represents the position of the wavelet function. As illustrated in FIG. 13, as the value of the scale a increases, the wavelet function ψ a, b The frequency of (x) becomes smaller, and the wavelet function ψ a, b The position where (x) vibrates moves. Therefore, the above equation (3) shows that the input signal f (x) has a wavelet function を 持 つ having various scales and positions. a, b (X) is decomposed into the sum.
[0113]
There are many known wavelet functions used for performing the wavelet transform. In the image processing field, in particular, orthogonal wavelet (orthogonal wavelet) transform and biorthogonal wavelet (bioorthogonal wavelet) capable of performing calculation at high speed. ) Transforms are widely used.
[0114]
Hereinafter, the outline of the orthogonal wavelet transform and the biorthogonal wavelet transform will be described. The wavelet functions of the orthogonal wavelet transform and the biorthogonal wavelet transform are defined as in the following equation (4).
(Equation 4)
Figure 2004240732
Here, i is a natural number.
[0115]
Comparing Expression (4) with Expression (1), in the orthogonal wavelet transform and the biorthogonal wavelet transform, the value of the scale a is discretely defined by the power of 2 and the minimum movement unit of the position b is 2 i It can be seen that is defined discretely by. This value of i is called a level.
[0116]
In practice, the level i is limited to a finite upper limit N, and the input signal is converted as in the following equations (5), (6), and (7).
(Equation 5)
Figure 2004240732
(Equation 6)
Figure 2004240732
(Equation 7)
Figure 2004240732
[0117]
The second term of the above equation (5) is a wavelet function of level 1 1 1, j The low frequency band component of the residual that cannot be expressed by the sum of (x) is converted to a level 1 scaling function φ. 1, j (X). An appropriate scaling function is used corresponding to the wavelet function. The input signal f (x) ≡S by the one-level wavelet transform shown in the above equation (5) 0 Is the level 1 high frequency band component W 1 And low frequency band component S 1 That is, the signal is decomposed into
[0118]
In the image, the high-frequency band component is a component that expresses a fine structure such as hair or eyelashes, and the low-frequency band component is a structure with a gradual change in signal intensity such as a cheek, for example. It is a component which shows.
[0119]
Wavelet function ψ i, j The minimum movement unit of (x) is 2 i Therefore, the input signal S 0 High frequency band component W 1 And low frequency band component S 1 Are の each, and the high frequency band component W 1 And low frequency band component S 1 Is the sum of the input signals S 0 Signal amount. Level 1 low frequency band component S 1 Is the high frequency band component W of level 2 in equation (6). 2 And low frequency band component S 2 , And by repeating the conversion up to the level N in the same manner, the input signal S 0 Is decomposed into the sum of the high frequency band components of levels 1 to N and the low frequency band component of level N as shown in equation (7).
[0120]
Here, the one-level wavelet transform represented by the equation (6) can be calculated by a filter process as shown in FIG. In FIG. 14, LPF indicates a low-pass filter, and HPF indicates a high-pass filter. The filter coefficients of the low-pass filter LPF and the high-pass filter HPF are appropriately determined according to the wavelet function. 2 ↓ indicates a downsampling process for thinning out every other signal.
[0121]
One-level wavelet transform in a two-dimensional signal such as an image signal is calculated by a filter process as shown in FIG. As shown in FIG. 15, first, the low frequency band component S n-1 Is filtered by a low-pass filter LPFx and a high-pass filter HPFx in the x direction, and downsampling is performed in the x direction. Thereby, the input signal S n-1 Is SX n And WX n And is decomposed into This SX n And WX n , A filter process is performed by a low-pass filter LPFy and a high-pass filter HPFy in the y-direction, and a down-sampling process is performed in the y-direction.
[0122]
By this one-level wavelet transform, the low frequency band component S n-1 Are the three high frequency band components Wv n , Wh n , Wd n And one low frequency band component S n Is decomposed into Wv generated by one wavelet transform n , Wh n , Wd n , S n Are the signal amounts before decomposition. n-1 , The sum of the signal amounts of the four components after decomposition is S n-1 Signal.
[0123]
In FIG. 15, x indicated by a suffix such as LPFx, HPFx, 2 ↓ x indicates processing in the x direction, and y indicated by a suffix such as LPFy, HPFy, 2 ↓ y indicates a process in the y direction. Indicates processing.
[0124]
FIG. 16 shows the input signal S 0 Is a schematic diagram showing a process in which the signal is decomposed by a three-level wavelet transform. It can be seen that as the number of levels i increases, the image signal is thinned out by the downsampling process, and the decomposed image becomes smaller.
[0125]
In addition, as shown in FIG. n , Wh n , Wd n , S n Is subjected to the inverse wavelet transform calculated by the filter processing to obtain the signal S before decomposition. n-1 It is known that can be completely reconstructed. In FIG. 17, LPF ′ indicates a low-pass filter for inverse transform, and HPF ′ indicates a high-pass filter for inverse transform. In addition, 2 ア ッ プ indicates an upsampling process of inserting a zero into every other signal. X indicated by a suffix such as LPF′x, HPF′x, 2 ↑ x indicates processing in the x direction, and y indicated by a suffix such as LPF′y, HPF′y, 2 ↑ y Indicates processing in the y direction.
[0126]
As shown in FIG. n Is obtained by performing up-sampling processing in the y direction and filtering processing by a low-pass filter LPF′y for inverse conversion, and Wh n And a signal obtained by performing up-sampling processing in the y-direction and filtering processing by a high-pass filter HPF'y for inverse conversion, and SX n Get. Similarly, Wv n And Wd n From WX n Generate
[0127]
Furthermore, SX n And a signal obtained by performing up-sampling processing in the x direction and filtering processing by a low-pass filter LPF′x for inverse conversion, and WX n Is added to a signal obtained by performing an up-sampling process in the x direction and a filter process by a high-pass filter HPF'x for inverse conversion to obtain a signal S before decomposition. n-1 Can be obtained.
[0128]
The filter coefficients used in the inverse transform are the same as those used in the wavelet transform in the case of the orthogonal wavelet, but are different from the coefficients used in the wavelet transform in the case of the bi-orthogonal wavelet. Is used.
[0129]
As shown in FIG. 12, the distortion amount calculation unit 420 includes an orthogonal wavelet transformation unit 421, a distortion data extraction unit 422, and a distortion amount ranking unit 423.
The orthogonal wavelet transform unit 421 performs two-level orthogonal wavelet transform on the luminance data B of the composite image. That is, by repeating the orthogonal wavelet transform twice as shown in FIG. 15, the level 1 high frequency band component Wv 1 , Wh 1 , Wd 1 And the high frequency band component Wv of level 2 2 , Wh 2 , Wd 2 And low frequency band component S 2 Is obtained.
[0130]
The distortion data extracting means 422 outputs the high frequency band component Wv obtained from the luminance data B. 1 , Wh 1 , Wd 1 , Wv 2 , Wh 2 , Wd 2 From the distortion data. The distortion data is, for example, the high-frequency band component Wv at the pixel position of the combining edge described in the combining edge information. 1 , Wh 1 , Wd 1 , Wv 2 , Wh 2 , Wd 2 Is the image data value.
[0131]
The distortion amount ranking means 423 calculates the high frequency band component Wv 1 , Wh 1 , Wd 1 , Wv 2 , Wh 2 , Wd 2 Are classified according to the image data value of the image data, and are set as distortion amounts. Note that the image data value may be directly used as the rank value.
[0132]
The image data conversion means 430 includes rank-specific image data conversion means 431 and orthogonal wavelet inverse transformation means 432.
[0133]
The rank-based image data conversion unit 431 may, for example, use a high-frequency band component Wv at a pixel position described in the distortion information. 1 , Wh 1 , Wd 1 , Wv 2 , Wh 2 , Wd 2 Of the image data is reduced. At this time, the high frequency band component Wv 1 , Wh 1 , Wd 1 , Wv 2 , Wh 2 , Wd 2 Is changed according to the rank of the distortion amount. High frequency band component Wv 1 , Wh 1 , Wd 1 , Wv 2 , Wh 2 , Wd 2 Are the converted high frequency band components Wv, respectively. 1 ', Wh 1 ', Wd 1 ', Wv 2 ', Wh 2 ', Wd 2 Is converted to '.
[0134]
Next, the orthogonal wavelet inverse transform means 432 outputs the converted high frequency band component Wv. 2 ', Wh 2 ', Wd 2 'And low frequency band component S 2 Is subjected to an inverse orthogonal wavelet transform as shown in FIG. 1 Get ' Subsequently, the converted high frequency band component Wv 1 ', Wh 1 ', Wd 1 'And low frequency band component S 1 ′ Is subjected to an inverse orthogonal wavelet transform to obtain corrected luminance data B ′.
[0135]
In the detailed example 4 of the post-synthesis processing means 40, the processing to a specific frequency band is performed at a specific position using a plurality of image data having different resolutions obtained by the orthogonal wavelet transform, so that the distortion can be improved with higher accuracy. Can be modified. Therefore, it is effective and preferable to efficiently reduce the unnaturalness of the combined edge while maintaining the impression of the entire image. Further, since the orthogonal wavelet transform is used, the processing can be performed at high speed, which is preferable.
Further, by using the orthogonal wavelet-transformed image data for calculating the distortion amount of the composite image data and using the image data for the image data conversion based on the distortion amount, the processing can be made more efficient.
[0136]
The orthogonal wavelet transform performed in the detailed example 4 of the post-synthesis processing means 40 may be a bi-orthogonal wavelet transform.
[0137]
(Detailed example 5 of post-synthesis processing means 40)
FIG. 18 shows a detailed example 5 of the post-synthesis processing means 40. The post-synthesis processing unit 40 includes a luminance / color difference conversion unit 410, a distortion amount calculation unit 420, an image data conversion unit 430, and a luminance / color difference inverse conversion unit 440.
[0138]
The detailed example 5 of the post-synthesis processing means 40 is a high-frequency band component Wx obtained by performing a binomial wavelet transform as the intermediate data Btmp1 of the luminance data B in the detailed example 3 of the post-synthesis processing means 40. n , Wy n This is an example using.
The luminance / color difference conversion unit 410 and the luminance / color difference inverse conversion unit 440 are the same as those in the detailed example 2 of the post-synthesis processing unit 40, and thus description thereof is omitted.
[0139]
Here, the outline of the binomial wavelet transform will be described. Compared with the orthogonal wavelet transform and the bi-orthogonal wavelet, the binomial wavelet (Dyadic Wavelet) transform does not thin out the image, so that the image can be processed with higher definition. For the binomial wavelet transform, see “Singularity detection and processing with wavelengths” by S.H. Mallat and W.M. L. Hwang, IEEE Trans. Inform. Theory 38 617 (1992) and "Characterization of signals from multiscale edges" by S.E. Mallat and S.M. Zhong, IEEE Trans. Pattern Anal. Machine Intel. 14710 (1992) and "A wavelet tour of signal processing 2ed" by S.M. Mallat, Academic Press has a detailed description.
[0140]
The wavelet function of the binomial wavelet transform is defined as the following equation (8).
(Equation 8)
Figure 2004240732
Here, i is a natural number.
[0141]
The wavelet function of the above-described orthogonal wavelet transform and biorthogonal wavelet transform has a minimum movement unit of the position at level i of 2 i In the wavelet function of the binomial wavelet transform, the minimum movement unit of the position is constant regardless of the level i. This difference results in the following features of the binomial wavelet transform:
[0142]
As a first feature, a high-frequency band component W generated by a one-level binomial wavelet transform represented by the following equation (9) i And low frequency band component S i Is the signal S before conversion. i-1 Is the same as
(Equation 9)
Figure 2004240732
[0143]
As a second feature, the scaling function φ i, j (X) and wavelet function ψ i, j The relationship of the following expression (10) is established between (x).
(Equation 10)
Figure 2004240732
Therefore, the high frequency band component W generated by the binomial wavelet transform i Is the low frequency band component S i Represents the first derivative (gradient).
[0144]
The third feature is that the coefficient γ is determined according to the level i of the wavelet transform. i Multiplied by the high frequency band component i ・ Γ i (Hereinafter, this is referred to as a corrected high-frequency band component.) In accordance with the singularity of the signal change of the input signal, the converted corrected high-frequency band component W i ・ Γ i The relationship between the signal strength levels follows a certain law. That is, the corrected high frequency band component W corresponding to a gentle (differentiable) signal change as shown by "1" or "4" in FIG. i ・ Γ i 19 shows that the signal intensity increases as the number of levels i increases, whereas the corrected high frequency band component W corresponding to the step-like signal change shown in "2" of FIG. i ・ Γ i Is the corrected high frequency band component W corresponding to the signal change of the δ function shown in “3” in FIG. 19, regardless of the level number i. i ・ Γ i The signal intensity decreases as the number of levels i increases.
[0145]
As a fourth feature, the one-level binomial wavelet transform method for a two-dimensional signal such as an image signal is different from the above-described orthogonal wavelet transform or biorthogonal wavelet transform method in that a method shown in FIG. Is As shown in FIG. 20, in the one-level wavelet transform, the low frequency band component S n-1 Is processed by the low-pass filter LPFx in the x direction and the low-pass filter LPFy in the y direction to obtain a low-frequency band component S n Is obtained. Further, the low frequency band component S n-1 Is processed by a high-pass filter HPFx in the x direction to obtain a high frequency band component Wx n Is processed by the y-direction high-pass filter HPFy to obtain the high-frequency band component Wy. n Is obtained.
[0146]
Thus, the low-frequency band component S is obtained by the one-level binomial wavelet transform. n-1 Are two high frequency band components Wx n , Wy n And one low frequency band component S n Is decomposed into Two high frequency band components Wx n , Wy n Is the low frequency band component S n Change vector V in two dimensions n X component and y component. Change vector V n Size M n And declination A n Is given by the following equations (11) and (12).
[Equation 11]
Figure 2004240732
(Equation 12)
Figure 2004240732
[0147]
Two high frequency band components Wx obtained by the binomial wavelet transform n , Wy n And one low frequency band component S n Is subjected to the inverse binomial wavelet transform shown in FIG. n-1 Can be reconstructed. That is, the low frequency band component S n And a high-frequency band component Wx obtained by processing with a low-pass filter LPFx in the x-direction and a low-pass filter LPFy in the y-direction. n And a high-frequency band component Wy obtained by processing with a high-pass filter HPF′x for inverse transformation in the x direction and a low-pass filter LPF′y for inverse transformation in the y direction. n Is added to a signal obtained by processing with a low-pass filter LPF′x for inverse transformation in the x direction and a high-pass filter HPF′y for inverse transformation in the y direction to obtain a signal S before decomposition. n-1 Can be obtained.
[0148]
As shown in FIG. 18, the distortion amount calculating unit 420 includes a binomial wavelet transform unit 424, a distortion data extracting unit 422, and a distortion amount ranking unit 423.
The image data conversion means 430 includes rank-based image data conversion means 431 and inverse binomial wavelet conversion means 433.
[0149]
The detailed example 5 of the post-synthesis processing means 40 is obtained by replacing the orthogonal wavelet transform in the detailed example 4 of the post-synthesis processing means 40 with the binomial wavelet transform. Frequency band component Wx n , Wy n Other than that, since it is the same as the detailed example 4 of the post-synthesis processing means 40, the description is omitted.
[0150]
In the detailed example 5 of the post-synthesis processing means 40, by using a plurality of image data having different resolutions obtained by the binomial wavelet transform and performing processing to a specific frequency band at a specific position, more accurate The distortion can be corrected. Therefore, the unnaturalness of the composite image can be more accurately reduced, which is preferable. In addition, since the partial processing is performed, the impression of the entire image can be maintained, which is suitable for fine correction of the synthesized image, and the processing can be efficiently performed with extremely few work steps.
[0151]
The binomial wavelet transform used in the detailed example 5 of the post-synthesis processing means 40 is preferable for reconstructing an image because the image is not thinned out at the time of conversion. Therefore, artifacts are less likely to appear in the image after the image is converted back and returned, which is preferable.
[0152]
(Detailed example 6 of post-synthesis processing means 40)
FIG. 22 shows a detailed example 6 of the post-synthesis processing means 40. The post-synthesis processing unit 40 includes a distortion amount calculation unit 420 and an image data conversion unit 430.
[0153]
The detailed example 6 of the post-synthesis processing means 40 is a case where distortion information is generated based on the image quality evaluation value of the synthesized image. Here, the image quality evaluation value refers to gradation, sharpness, granularity, and the like.
[0154]
As the distortion amount calculating means 420, a method of generating distortion information based on the image quality evaluation value is used.
The distortion amount calculation unit 420 includes an image quality evaluation unit 425 and a distortion information calculation unit 426.
[0155]
The image quality evaluation unit 425 obtains an image quality evaluation value from the image data P of the composite image in an image region appropriately corresponding to the purpose using the composite edge information. As the image quality evaluation value, for the gradation, for example, the contrast is obtained from the histogram of the image data P of the composite image. Further, the sharpness is determined, for example, by comparing the sizes of image data of a plurality of high frequency band components obtained by performing a wavelet transform on the image data P of the composite image. The granularity is determined, for example, by comparing the sizes of image data of a plurality of high frequency band components obtained by performing a wavelet transform on the image data P of the composite image. It should be noted that other possible methods may be used when obtaining gradation, sharpness, granularity, and the like as image quality evaluation values.
[0156]
The distortion information calculation unit 426 calculates distortion information based on the image quality evaluation value obtained by the image quality evaluation unit 425.
[0157]
The image data conversion means 430 performs conversion based on distortion information based on each image quality evaluation value. For example, in terms of gradation, gradation conversion is performed, and in terms of sharpness and granularity, for example, conversion such as smoothing processing and unsharp masking processing is performed.
[0158]
In the detailed example 6 of the post-synthesis processing unit 40, distortion information is generated based on image quality evaluation values such as gradation, sharpness, and graininess of a synthesized image, and unnaturalness of the synthesized image can be reduced. preferable.
[0159]
(Detailed example 7 of post-synthesis processing means 40)
FIG. 23 shows a detailed example 7 of the post-synthesis processing means 40. The post-synthesis processing unit 40 includes a luminance / color difference conversion unit 410, a distortion amount calculation unit 420, an image data conversion unit 430, and a luminance / color difference inverse conversion unit 440.
[0160]
The detailed example 7 of the post-synthesis processing means 40 is an example using the binomial wavelet transform, similarly to the detailed example 5 of the post-synthesis processing means 40. Further, the detailed example 7 of the post-synthesis processing unit 40 is an example of generating distortion information based on the image quality evaluation value, similarly to the detailed example 6 of the post-synthesis processing unit 40. Is an example in which graininess evaluation is used for the distortion data extraction means 422.
The luminance / color difference conversion unit 410 and the luminance / color difference inverse conversion unit 440 are the same as those in the detailed example 2 of the post-synthesis processing unit 40, and a description thereof will be omitted.
[0161]
The distortion amount calculation unit 420 includes a binomial wavelet transformation unit 424, a distortion data extraction unit 422, and a distortion amount ranking unit 423. In the detailed example 7 of the post-synthesis processing unit 40, a graininess evaluation unit 427 is used as the distortion data extraction unit 422. In this example, a method is used in which the combined image data is divided into a plurality of regions based on the combined edge information, and another process is performed for each region. For example, in FIG. 6D, there is a method in which a region is divided into a background and a person and different processes are performed.
Since the binomial wavelet transform unit 424 is the same as the detailed example 5 of the post-synthesis processing unit 40, the description is omitted.
[0162]
The graininess evaluation means 427 will be described.
Level 1 high frequency band component Wx obtained by performing binomial wavelet transform on luminance data B of the composite image 1 , Wy 1 Image data and the level 2 high frequency band component Wx 2 , Wy 2 By comparing the size of the image data, the characteristic value of the granularity for each area described in the composite edge information is obtained.
[0163]
High frequency band component Wx of level 1 1 , Wy 1 Is the size of the image data of AH1, and the level 2 high frequency band component Wx 2 , Wy 2 Is AH2. Pixels satisfying AH1> AH2 × α (0 <α <1) are extracted for each area as granular evaluation pixels. Then, the high-frequency band component Wx of level 1 in the granularity evaluation pixel for each region 1 , Wy 1 The average value of the size AH1 of the image data is obtained as the graininess evaluation value ARi (i is the number of the area).
Next, an average of the graininess evaluation values ARi in all the regions i is calculated, and a graininess evaluation average value ARavg is calculated. The ratio of the granularity evaluation value ARi to the average granularity evaluation value ARavg is determined for each region as a specific granularity evaluation value RRi = ARi / ARavg.
The granularity evaluation means 427 is not limited to this method.
[0164]
The distortion amount ranking means 423 performs a ranking according to the specific granularity evaluation value RRi to obtain a distortion amount for each region. Then, as the distortion information, the position of the granular evaluation pixel for each region i and the distortion amount for each region i are generated.
[0165]
The image data conversion means 430 includes rank-specific image data conversion means 431 and inverse binomial wavelet conversion means 433.
The rank-specific image data conversion means 431 converts the image data according to the rank of the distortion amount. In this example, the high frequency band component Wx of the granular evaluation pixel is set for each region i according to the distortion amount for each region i. 1 , Wy 1 , Wx 2 , Wy 2 Is performed so that the specific graininess evaluation value RRi for each region i falls within the predetermined value.
The binomial wavelet inverse transform unit 433 is the same as the detailed example 5 of the post-synthesis processing unit 40, and thus the description is omitted.
[0166]
In the detailed example 7 of the post-synthesis processing unit 40, the data of the synthesized image can be divided into regions by using the synthesized edge information, and different processing can be performed for each region, so that processing suitable for each region is performed. be able to. Therefore, the synthesized image can be corrected more naturally, which is preferable.
In this example, the graininess is evaluated. However, the amount of distortion may be obtained based on other image quality evaluation values such as sharpness and gradation, and corresponding image data conversion may be performed.
[0167]
In the detailed examples 4, 5, and 7 of the post-synthesis processing unit 40, in the orthogonal wavelet transform and the binomial wavelet transform, the case where the high frequency band components up to the level 2 are used has been described, but only the level 1 may be used. The distortion amount may be calculated using high frequency band components up to a large number of levels. For example, when a high frequency band component up to n levels is used, an orthogonal wavelet transform or a bi-orthogonal wavelet transform is used up to 1 to m (n <m) levels, and a binomial wavelet transform is used at m + 1 to n levels. It is possible to suppress a decrease in processing speed without greatly reducing accuracy. Therefore, it is preferable in terms of both accuracy and processing speed.
Although the wavelet transform has been described as an example of the multi-resolution conversion, another multi-resolution conversion may be used. Further, a plurality of multi-resolution conversions may be used in combination.
[0168]
[Embodiment 4]
FIG. 24 shows an example of the image synthesis processing as the fourth embodiment. The image processing unit 143 illustrated in FIG. 24 is an example of the image processing unit 14 of the image recording device 1 in FIG.
As shown in FIG. 24, the image processing unit 143 includes an input image conversion unit 20, a pre-synthesis processing unit 60, an image synthesis unit 30, a post-synthesis processing unit 40, and an output image conversion unit 50.
[0169]
In the fourth embodiment, before combining the image data G1 and G2 of the original image, preprocessing for reducing the difference in characteristics between the original images is performed.
The input image conversion means 20, the post-synthesis processing means 40, and the output image conversion means 50 are the same as those in the first embodiment, and a description thereof will be omitted.
[0170]
The pre-synthesis processing unit 60 performs image processing on the image data G1 and G2 of the original image to reduce the difference in characteristics between the original images, and generates pre-processed image data G1 ′ and G2 ′. Here, the characteristics mainly refer to characteristics relating to image quality, such as color, gradation, sharpness, and granularity.
[0171]
As the pre-synthesis process, there are various processes. For example, a process of obtaining a difference between image quality evaluation values and bringing characteristics close to each other is performed.
As the image quality evaluation value, for the gradation, for example, the contrast is obtained from the histogram of the image data G1 and G2 of the original image. The sharpness is obtained by comparing the sizes of image data of a plurality of high frequency band components obtained by performing wavelet transform on the image data G1 and G2 of the original image, for example. The graininess is obtained by comparing the sizes of image data of a plurality of high frequency band components obtained by performing wavelet transform on the image data G1 and G2 of the original image, for example. It should be noted that other possible methods may be used when obtaining gradation, sharpness, granularity, and the like as image quality evaluation values.
[0172]
Image processing is performed on the image data G1 and G2 of the original image based on the difference between the image quality evaluation values obtained from the image data G1 and G2 of the original image. For example, in terms of gradation, gradation conversion is performed, and in terms of sharpness and granularity, for example, conversion such as smoothing processing and unsharp masking processing is performed. The conversion may be performed on both the image data G1 and G2 of the original image, or the conversion may be performed such that one of the image data G1 and G2 of the original image is adjusted to the other.
[0173]
The image synthesizing means 30 synthesizes the preprocessed image data G1 'and G2' to generate image data P of a synthesized image and also generates synthesized edge information. Except that the data to be handled is the preprocessed image data G1 'and G2', the description is omitted because it is the same as that of the first embodiment.
[0174]
(Detailed example 1 of synthesis pre-processing means 60)
FIG. 25 shows a detailed example 1 of the pre-synthesis processing means 60 as an example of the pre-synthesis processing means 60 using the binomial wavelet transform. The pre-synthesis unit 60 includes a luminance / color difference conversion unit 610, a binomial wavelet conversion unit 620, a preprocessing image data conversion unit 630, a binomial wavelet inverse conversion unit 640, and a luminance / color difference inverse conversion unit 650. , Is provided.
[0175]
The luminance / color difference conversion unit 610 converts the image data G1 of the original image into luminance data V1 and color difference data U1, and converts the image data G2 of the original image into luminance data V2 and color difference data U2.
[0176]
The binomial wavelet transform unit 620 performs a binomial wavelet transform of the luminance data V1 to obtain a level 1 high frequency band component Wx 11 , Wy 11 And the high frequency band component Wx of level 2 21 , Wy 21 And the low frequency band component S 21 Generate Similarly, the luminance data V2 is subjected to a binomial wavelet transform to obtain a level 1 high frequency band component Wx 12 , Wy 12 And the high frequency band component Wx of level 2 22 , Wy 22 And the low frequency band component S 22 Generate
[0177]
The pre-processing image data conversion means 630 outputs the high-frequency band component Wx 11 , Wy 11 , Wx 21 , Wy 21 And the low frequency band component S 21 Is converted to a high frequency band component Wx 11 ', Wy 11 ', Wx 21 ', Wy 21 'And the low frequency band component S 21 'Is generated. Similarly, the high frequency band component Wx 12 , Wy 12 , Wx 22 , Wy 22 And the low frequency band component S 22 Is converted to a high frequency band component Wx 12 ', Wy 12 ', Wx 22 ', Wy 22 'And the low frequency band component S 22 'Is generated.
[0178]
FIG. 26 shows an example in which the pre-processing image data conversion unit 630 performs conversion based on granularity. The preprocessing image data conversion unit 630 includes a graininess evaluation unit 631 and an image conversion unit 632.
[0179]
The granularity evaluation means 631 calculates the level 1 high frequency band component Wx obtained by performing binomial wavelet transform on the luminance data V1. 11 , Wy 11 Is the size of the image data of BH1, and the level 2 high frequency band component Wx 21 , Wy 21 Assuming that the size of the image data of BH2 is BH2, pixels satisfying BH1> BH2 × β (0 <β <1) are extracted as granular evaluation pixels. Then, the level 1 high frequency band component Wx in the granularity evaluation pixel 11 , Wy 11 The average value of the image data size BH1 is determined as the graininess evaluation value BR1.
Similarly, a high frequency band component Wx of level 1 obtained by performing a binomial wavelet transform on the luminance data V2 12 , Wy 12 Image data, high frequency band component Wx of level 2 22 , Wy 22 The processing is also performed on the image data of No. to obtain the graininess evaluation value BR2.
[0180]
Next, an average of the graininess evaluation values BR1 and BR2 in the two original images is calculated, and a graininess evaluation average value BRavg is calculated. The ratio of the granularity evaluation values BR1 and BR2 to the average granularity evaluation value BRavg is determined as a specific granularity evaluation value BRR1 = BR1 / BRavg and BRR2 = BR2 / BRavg.
Then, the granularity evaluation unit 631 calculates image conversion conditions for each original image according to the specific granularity evaluation values BRR1 and BRR2, and sends the image conversion conditions of each image to the image conversion unit 632.
Note that the graininess evaluation means 631 is not limited to this method.
[0181]
The image conversion unit 632 performs the high frequency band component Wx based on the image conversion condition of each image obtained by the granularity evaluation unit 631. 11 , Wy 11 , Wx 21 , Wy 21 And the low frequency band component S 21 Is converted to a high frequency band component Wx 11 ', Wy 11 ', Wx 21 ', Wy 21 'And the low frequency band component S 21 'Is generated. Similarly, the high frequency band component Wx 12 , Wy 12 , Wx 22 , Wy 22 And the low frequency band component S 22 Is converted to a high frequency band component Wx 12 ', Wy 12 ', Wx 22 ', Wy 22 'And the low frequency band component S 22 'Is generated. By this conversion, the specific graininess evaluation values BRR1 and BRR2 are set to fall within predetermined values.
[0182]
As shown in FIG. 25, the inverse binomial wavelet transform unit 640 outputs the high frequency band component Wx 11 ', Wy 11 ', Wx 21 ', Wy 21 'And the low frequency band component S 21 Is used to perform inverse binomial wavelet transform to generate pre-processed luminance data V1 '. Similarly, the high frequency band component Wx 12 ', Wy 12 ', Wx 22 ', Wy 22 'And the low frequency band component S 22 ′ Is used to perform an inverse binomial wavelet transform to generate pre-processed luminance data V2 ′.
[0183]
The luminance / chrominance inverse transform unit 650 performs luminance / chrominance inverse transform on the pre-processed luminance data V1 ′ and chrominance data U1 generated by the binomial wavelet inverse transform unit 640, and converts the pre-processed image data G1 ′. Generate. Similarly, pre-processed image data G2 'is generated from pre-processed luminance data V2' and color difference data U2. This inverse luminance / color difference conversion is an inverse conversion of the luminance / color difference conversion in the luminance / color difference conversion unit 610.
[0184]
In the fourth embodiment, in order to adjust the basic characteristics of the image before the synthesis and to correct the unnaturalness of the synthesis boundary portion after the synthesis, the synthesized image is improved by the combined effect of both the processing before and after the synthesis. It can give a natural impression.
[0185]
In the first to fourth embodiments, an example has been described in which a composite image is created from two original images. However, a composite image may be created from three or more original images. Further, additional synthesis may be performed on the image after the synthesis is completed.
Further, in the first to fourth embodiments, only the image data is used. However, if necessary, image attached data other than the image data may be used.
[0186]
In the first to fourth embodiments, the image data conversion processing may be processing for the entire image to be converted or partial processing. As the partial processing, there are a method in which processing is performed only on the synthesis end portion and the periphery thereof, a method in which the processing is separated into synthesis regions, and another processing is performed on each region. Further, the image data may be divided into luminance data and color difference data, the luminance may be partially processed, and the color difference may be entirely processed. Further, the image data and the intermediate data of the composite image may be arbitrarily combined and used.
[0187]
In the first to fourth embodiments, examples of data to be converted include image data, luminance data converted from image data, intermediate data converted from luminance data, and the like. Other data such as intermediate data converted from the color difference data may be used according to the purpose, and is not limited.
[0188]
Further, each block of the first to fourth embodiments is a block provided to help understanding of the function of the image processing unit, and does not necessarily have to be physically independent. It may be implemented as a processing type block.
[0189]
【The invention's effect】
As described above, according to the first, seventh, thirteenth, or nineteenth aspects of the present invention, the appropriate conversion can be performed for each area of the composite image by using the composite edge information, so that the unnatural Can be reduced. In particular, since the synthesized image data can be converted into and around the boundary of the composite image, the unnaturalness of the boundary of the composite image can be reduced. Therefore, the synthesized image can be made a natural image with a very small number of work steps.
[0190]
As described above, according to the second, eighth, fourteenth, or twenty-second aspect, image data is converted based on the amount of distortion, so that necessary processing can be performed on required portions. Therefore, the unnaturalness of the composite image can be reduced with a very small number of work steps.
[0191]
As described above, according to the third, ninth, fifteenth, or twenty-first aspect, the amount of distortion is calculated using the combined edge information, so that the amount of distortion can be calculated efficiently. Therefore, it is possible to more accurately reduce the unnaturalness of the composite image.
[0192]
As described above, according to the invention as set forth in claim 4, 10, 16 or 22, it is possible to more accurately calculate the amount of distortion by using a plurality of image data having different resolutions by the multi-resolution conversion. Therefore, it is possible to more accurately reduce the unnaturalness of the composite image.
[0193]
As described above, according to the fifth, eleventh, seventeenth, or twenty-third aspect of the present invention, the multi-resolution converted image data is used for calculating the distortion amount of the composite image data, and the image data conversion based on the distortion amount , The processing can be made more efficient.
[0194]
As described above, according to the invention as set forth in claim 6, 12, 18 or 24, the basic characteristics of the images are aligned before the synthesis, and the unnaturalness of the synthesis boundary portion is corrected after the synthesis. The combined effect of both the post-combination and post-combination processes can make the combined image look more natural.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a general configuration of an image recording apparatus according to an embodiment.
FIG. 2 is a block diagram illustrating a functional configuration of the image recording apparatus.
FIG. 3 is a diagram illustrating an image synthesis process according to the first embodiment;
FIG. 4 is a diagram for explaining a composite end of a composite image.
FIG. 5 is a diagram illustrating an example in which a person is pasted on a background image.
FIG. 6 is a diagram illustrating an example of a processing area of a partial process in the composite image of FIG. 4;
FIG. 7 is a diagram illustrating an image combining process according to the second embodiment.
FIG. 8 is a diagram showing a detailed example 1 of the post-synthesis processing means 40;
FIG. 9 is a diagram illustrating an image combining process according to the third embodiment;
10 is a diagram showing a detailed example 2 of the post-synthesis processing means 40. FIG.
11 is a diagram illustrating a third detailed example of the post-synthesis processing unit 40. FIG.
12 is a diagram showing a detailed example 4 of the post-synthesis processing means 40. FIG.
FIG. 13 is a diagram showing a wavelet function used in the wavelet transform.
FIG. 14 is a diagram illustrating filter processing in orthogonal wavelet transform or bi-orthogonal wavelet transform.
FIG. 15 is a diagram illustrating one-level orthogonal wavelet transform or bi-orthogonal wavelet transform in a two-dimensional signal.
FIG. 16 is a schematic diagram showing a process of signal decomposition by three-level orthogonal wavelet transform or bi-orthogonal wavelet transform.
FIG. 17 is a diagram illustrating a method of reconstructing a signal decomposed by orthogonal wavelet transform or biorthogonal wavelet transform by inverse wavelet transform.
FIG. 18 is a diagram illustrating a detailed example 5 of the post-synthesis processing means 40.
FIG. 19 is a diagram illustrating characteristics of a signal subjected to wavelet transform.
FIG. 20 is a diagram showing a binomial wavelet transform.
FIG. 21 is a diagram showing an inverse binomial wavelet transform.
22 is a diagram illustrating a detailed example 6 of the post-synthesis processing unit 40. FIG.
FIG. 23 is a diagram showing a detailed example 7 of the post-synthesis processing means 40.
FIG. 24 is a diagram illustrating an image combining process according to the fourth embodiment.
FIG. 25 is a diagram showing a detailed example 1 of the pre-synthesis processing means 60.
FIG. 26 is a diagram illustrating an example of a preprocessing image data conversion unit 630.
[Explanation of symbols]
1 Image recording device
2 CPU
3 ROM
4 RAM
5 Operation section
6 Film scanner
7 Reflection document input section
8 Image reading unit
9 CRT
10 Print making section
11 Image writing unit
12 Storage unit
13 Communication unit
14 Image processing unit
15 trays
16 Magazine
20 Input image conversion means
30 Image synthesis means
40 Post-synthesis processing means
50 Output image conversion means
60 synthesis preprocessing means
410 brightness / color difference conversion means
420 distortion amount calculation means
421 orthogonal wavelet transform means
422 distortion data extraction means
423 Distortion amount ranking means
424 Binomial wavelet transform means
425 Image quality evaluation means
426 Distortion information calculation means
427 Graininess evaluation means
430 Image data conversion means
431 Image data conversion means by rank
432 Orthogonal wavelet inverse transform means
433 Binomial wavelet inverse transform means
440 luminance / color difference inverse conversion means
610 luminance / color difference conversion means
620 Binomial wavelet transform means
630 Preprocessing image data conversion means
631 Graininess evaluation means
632 Image conversion means
640 Binary wavelet inverse transform means
650 luminance / color difference inverse conversion means

Claims (24)

2つ以上の画像を用いて合成画像を作成する画像合成方法において、
前記2つ以上の画像が互いに接する境界に関する合成端部情報を用いて合成後の画像データへの画像変換条件を決定し、前記決定された画像変換条件に基づいて前記合成後の画像データを変換する合成後処理工程を含むことを特徴とする画像合成方法。
In an image composition method for creating a composite image using two or more images,
Determining an image conversion condition for the synthesized image data using the synthesized edge information regarding a boundary where the two or more images are in contact with each other; and converting the synthesized image data based on the determined image conversion condition. An image synthesizing method, comprising a post-synthesis processing step.
2つ以上の画像を用いて合成画像を作成する画像合成方法において、
合成後の画像データから歪み量を算出する歪み量算出工程と、
前記算出された歪み量に基づいて前記合成後の画像データへの画像変換条件を決定し、前記決定された画像変換条件に基づいて前記合成後の画像データを変換する画像データ変換工程と、
を含むことを特徴とする画像合成方法。
In an image composition method for creating a composite image using two or more images,
A distortion amount calculating step of calculating a distortion amount from the image data after synthesis,
An image data conversion step of determining an image conversion condition to the synthesized image data based on the calculated distortion amount, and converting the synthesized image data based on the determined image conversion condition,
An image synthesizing method comprising:
請求項2に記載の画像合成方法において、
前記歪み量算出工程において、前記2つ以上の画像が互いに接する境界に関する合成端部情報を用いて歪み量を算出することを特徴とする画像合成方法。
The image synthesizing method according to claim 2,
An image combining method, wherein in the distortion amount calculation step, an amount of distortion is calculated using composite edge information on a boundary where the two or more images are in contact with each other.
請求項3に記載の画像合成方法において、
前記歪み量算出工程は、多重解像度変換を含むことを特徴とする画像合成方法。
The image synthesizing method according to claim 3,
The image synthesizing method, wherein the distortion amount calculating step includes a multi-resolution conversion.
請求項4に記載の画像合成方法において、
前記画像データ変換工程における合成後の画像データへの変換は、前記多重解像度変換後の画像データへの変換であることを特徴とする画像合成方法。
The image synthesizing method according to claim 4,
An image synthesizing method, wherein the conversion into image data after synthesis in the image data conversion step is conversion into image data after multi-resolution conversion.
請求項1〜5のいずれか一項に記載の画像合成方法において、
合成前に少なくとも1つの画像に対して、多重解像度変換を用いた合成前処理を行う合成前処理工程を含むことを特徴とする画像合成方法。
The image synthesizing method according to any one of claims 1 to 5,
An image synthesizing method, comprising: a pre-synthesis processing step of performing pre-synthesis processing using multi-resolution conversion on at least one image before synthesis.
2つ以上の画像を用いて合成画像を作成する画像合成装置において、
前記2つ以上の画像が互いに接する境界に関する合成端部情報を用いて合成後の画像データへの画像変換条件を決定し、前記決定された画像変換条件に基づいて前記合成後の画像データを変換する合成後処理手段を備えたことを特徴とする画像合成装置。
In an image synthesizing apparatus that creates a synthetic image using two or more images,
Determining an image conversion condition for the synthesized image data using the synthesized edge information regarding a boundary where the two or more images are in contact with each other; and converting the synthesized image data based on the determined image conversion condition. An image synthesizing apparatus, comprising: a post-synthesis processing unit that performs a synthesizing process.
2つ以上の画像を用いて合成画像を作成する画像合成装置において、
合成後の画像データから歪み量を算出する歪み量算出手段と、
前記算出された歪み量に基づいて前記合成後の画像データへの画像変換条件を決定し、前記決定された画像変換条件に基づいて前記合成後の画像データを変換する画像データ変換手段と、
を備えたことを特徴とする画像合成装置。
In an image synthesizing apparatus that creates a synthetic image using two or more images,
Distortion amount calculating means for calculating the distortion amount from the image data after the combination,
Image data conversion means for determining an image conversion condition to the combined image data based on the calculated distortion amount, and converting the combined image data based on the determined image conversion condition,
An image synthesizing apparatus comprising:
請求項8に記載の画像合成装置において、
前記歪み量算出手段は、前記2つ以上の画像が互いに接する境界に関する合成端部情報を用いて歪み量を算出することを特徴とする画像合成装置。
The image synthesizing device according to claim 8,
The image synthesizing apparatus, wherein the distortion amount calculating means calculates an amount of distortion by using synthesized edge information regarding a boundary where the two or more images are in contact with each other.
請求項9に記載の画像合成装置において、
前記歪み量算出手段は、多重解像度変換を行うことを特徴とする画像合成装置。
The image synthesizing device according to claim 9,
The image synthesizing device, wherein the distortion amount calculating means performs multi-resolution conversion.
請求項10に記載の画像合成装置において、
前記画像データ変換手段における合成後の画像データへの変換は、前記多重解像度変換後の画像データへの変換であることを特徴とする画像合成装置。
The image synthesizing device according to claim 10,
An image synthesizing apparatus, wherein the conversion into the image data after the synthesis by the image data conversion means is the conversion into the image data after the multi-resolution conversion.
請求項7〜11のいずれか一項に記載の画像合成装置において、
合成前に少なくとも1つの画像に対して、多重解像度変換を用いた合成前処理を行う合成前処理手段を備えたことを特徴とする画像合成装置。
The image synthesizing device according to any one of claims 7 to 11,
An image synthesizing apparatus, comprising: a pre-synthesis processing unit that performs pre-synthesis processing using multi-resolution conversion on at least one image before synthesis.
2つ以上の画像を用いて合成画像を作成する処理を実行するためのコンピュータに、
前記2つ以上の画像が互いに接する境界に関する合成端部情報を用いて合成後の画像データへの画像変換条件を決定し、前記決定された画像変換条件に基づいて前記合成後の画像データを変換する合成後処理機能を実現させるための画像合成プログラム。
A computer for executing a process of creating a composite image using two or more images,
The image conversion condition to the synthesized image data is determined using the synthesized edge information regarding the boundary where the two or more images are in contact with each other, and the synthesized image data is converted based on the determined image conversion condition. An image composition program for realizing the post-composition processing function.
2つ以上の画像を用いて合成画像を作成する処理を実行するためのコンピュータに、
合成後の画像データから歪み量を算出する歪み量算出機能と、
前記算出された歪み量に基づいて前記合成後の画像データへの画像変換条件を決定し、前記決定された画像変換条件に基づいて前記合成後の画像データを変換する画像データ変換機能と、
を実現させるための画像合成プログラム。
A computer for executing a process of creating a composite image using two or more images,
A distortion amount calculation function for calculating a distortion amount from the image data after synthesis;
An image data conversion function of determining an image conversion condition to the combined image data based on the calculated distortion amount, and converting the combined image data based on the determined image conversion condition,
An image synthesis program for realizing.
請求項14に記載の画像合成プログラムにおいて、
前記歪み量算出機能は、前記2つ以上の画像が互いに接する境界に関する合成端部情報を用いて歪み量を算出することを特徴とする画像合成プログラム。
The image composition program according to claim 14,
An image synthesis program, wherein the distortion amount calculation function calculates an amount of distortion using synthesized edge information on a boundary where the two or more images are in contact with each other.
請求項15に記載の画像合成プログラムにおいて、
前記歪み量算出機能は、多重解像度変換を含むことを特徴とする画像合成プログラム。
The image composing program according to claim 15, wherein
The image synthesis program, wherein the distortion amount calculation function includes a multi-resolution conversion.
請求項16に記載の画像合成プログラムにおいて、
前記画像データ変換機能における合成後の画像データへの変換は、前記多重解像度変換後の画像データへの変換であることを特徴とする画像合成プログラム。
The image synthesizing program according to claim 16,
An image synthesizing program, wherein the conversion into image data after synthesis in the image data conversion function is conversion into image data after multi-resolution conversion.
請求項13〜17のいずれか一項に記載の画像合成プログラムにおいて、
前記コンピュータに、
合成前に少なくとも1つの画像に対して、多重解像度変換を用いた合成前処理を行う合成前処理機能を実現させることを特徴とする画像合成プログラム。
The image synthesizing program according to any one of claims 13 to 17,
To the computer,
An image synthesizing program for realizing a pre-synthesis processing function of performing pre-synthesis processing using multi-resolution conversion on at least one image before synthesis.
2つ以上の画像を用いて合成画像を作成し、合成画像を記録媒体に記録する画像記録装置において、
前記2つ以上の画像が互いに接する境界に関する合成端部情報を用いて合成後の画像データへの画像変換条件を決定し、前記決定された画像変換条件に基づいて前記合成後の画像データを変換する合成後処理手段を備えたことを特徴とする画像記録装置。
In an image recording apparatus that creates a composite image using two or more images and records the composite image on a recording medium,
Determining an image conversion condition for the synthesized image data using the synthesized edge information regarding a boundary where the two or more images are in contact with each other; and converting the synthesized image data based on the determined image conversion condition. An image recording apparatus, comprising: a post-synthesis processing unit that performs the processing.
2つ以上の画像を用いて合成画像を作成し、合成画像を記録媒体に記録する画像記録装置において、
合成後の画像データから歪み量を算出する歪み量算出手段と、
前記算出された歪み量に基づいて前記合成後の画像データへの画像変換条件を決定し、前記決定された画像変換条件に基づいて前記合成後の画像データを変換する画像データ変換手段と、
を備えたことを特徴とする画像記録装置。
In an image recording apparatus that creates a composite image using two or more images and records the composite image on a recording medium,
Distortion amount calculating means for calculating the distortion amount from the image data after the combination,
Image data conversion means for determining an image conversion condition to the combined image data based on the calculated distortion amount, and converting the combined image data based on the determined image conversion condition,
An image recording apparatus comprising:
請求項20に記載の画像記録装置において、
前記歪み量算出手段は、前記2つ以上の画像が互いに接する境界に関する合成端部情報を用いて歪み量を算出することを特徴とする画像記録装置。
The image recording apparatus according to claim 20,
The image recording apparatus according to claim 1, wherein the distortion amount calculating unit calculates the amount of distortion using combined edge information regarding a boundary where the two or more images are in contact with each other.
請求項21に記載の画像記録装置において、
前記歪み量算出手段は、多重解像度変換を行うことを特徴とする画像記録装置。
The image recording apparatus according to claim 21,
The image recording apparatus according to claim 1, wherein the distortion amount calculation unit performs multi-resolution conversion.
請求項22に記載の画像記録装置において、
前記画像データ変換手段における合成後の画像データへの変換は、前記多重解像度変換後の画像データへの変換であることを特徴とする画像記録装置。
The image recording apparatus according to claim 22,
The image recording apparatus according to claim 1, wherein the conversion into the image data after the synthesis by the image data conversion means is a conversion into the image data after the multi-resolution conversion.
請求項19〜23のいずれか一項に記載の画像記録装置において、
合成前に少なくとも1つの画像に対して、多重解像度変換を用いた合成前処理を行う合成前処理手段を備えたことを特徴とする画像記録装置。
The image recording apparatus according to any one of claims 19 to 23,
An image recording apparatus comprising: a pre-synthesis processing unit that performs pre-synthesis processing using multi-resolution conversion on at least one image before synthesis.
JP2003029394A 2003-02-06 2003-02-06 Image compositing method, image compositing device, image compositing program and image recording device Pending JP2004240732A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003029394A JP2004240732A (en) 2003-02-06 2003-02-06 Image compositing method, image compositing device, image compositing program and image recording device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003029394A JP2004240732A (en) 2003-02-06 2003-02-06 Image compositing method, image compositing device, image compositing program and image recording device

Publications (1)

Publication Number Publication Date
JP2004240732A true JP2004240732A (en) 2004-08-26

Family

ID=32956587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003029394A Pending JP2004240732A (en) 2003-02-06 2003-02-06 Image compositing method, image compositing device, image compositing program and image recording device

Country Status (1)

Country Link
JP (1) JP2004240732A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014215694A (en) * 2013-04-23 2014-11-17 国立大学法人電気通信大学 Image processing apparatus, image processing method, program, and imaging apparatus
JP2016192059A (en) * 2015-03-31 2016-11-10 株式会社モルフォ Image synthesizer, image synthesis method, image synthesis program, and recording medium
JP2017097798A (en) * 2015-11-27 2017-06-01 日本電信電話株式会社 Image processor, image processing method and computer program
WO2020031742A1 (en) * 2018-08-10 2020-02-13 ソニー株式会社 Image processing device, image processing method, and program
WO2021070443A1 (en) * 2019-10-09 2021-04-15 ソニー株式会社 Image processing device, image processing method, program, and electronic device
JP2021528784A (en) * 2018-07-03 2021-10-21 影石創新科技股▲ふん▼有限公司Arashi Vision Inc. Sky filter method for panoramic images and mobile terminals

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014215694A (en) * 2013-04-23 2014-11-17 国立大学法人電気通信大学 Image processing apparatus, image processing method, program, and imaging apparatus
JP2016192059A (en) * 2015-03-31 2016-11-10 株式会社モルフォ Image synthesizer, image synthesis method, image synthesis program, and recording medium
JP2017097798A (en) * 2015-11-27 2017-06-01 日本電信電話株式会社 Image processor, image processing method and computer program
JP2021528784A (en) * 2018-07-03 2021-10-21 影石創新科技股▲ふん▼有限公司Arashi Vision Inc. Sky filter method for panoramic images and mobile terminals
JP7247236B2 (en) 2018-07-03 2023-03-28 影石創新科技股▲ふん▼有限公司 Panoramic image sky filter method and mobile terminal
US11887362B2 (en) 2018-07-03 2024-01-30 Arashi Vision Inc. Sky filter method for panoramic images and portable terminal
WO2020031742A1 (en) * 2018-08-10 2020-02-13 ソニー株式会社 Image processing device, image processing method, and program
WO2021070443A1 (en) * 2019-10-09 2021-04-15 ソニー株式会社 Image processing device, image processing method, program, and electronic device

Similar Documents

Publication Publication Date Title
US7260266B2 (en) Image processing method, image processing apparatus, image processing program and image recording apparatus
US7181086B2 (en) Multiresolution method of spatially filtering a digital image
US7983511B1 (en) Methods and apparatus for noise reduction in digital images
JP2003134352A (en) Image processing method and apparatus, and program therefor
JP4443064B2 (en) Method and apparatus for performing local color correction
JP2004318423A (en) Image processing method, image processor, and image processing program
JP2002269556A (en) Method for removing noise from digital image based on multiresolution
JP2000115539A (en) Method and device for processing image and recording medium
JPH10187966A (en) Method and device for filtering image
US7548656B2 (en) Method and apparatus for processing image signals by applying a multi-resolution conversion processing for reducing the image size and applying a dyadic wavelet transform
JPH08294001A (en) Image processing method and image processing unit
JP2005196270A (en) Image processing method, image processing equipment, and image processing program
US20050281458A1 (en) Noise-reducing a color filter array image
JP2004240622A (en) Image processing method, image processor and image processing program
JP2004240732A (en) Image compositing method, image compositing device, image compositing program and image recording device
JP7296745B2 (en) Image processing device, image processing method, and program
JP2004193957A (en) Image processing apparatus, image processing method, image processing program, and image recording apparatus
JP4687667B2 (en) Image processing program and image processing apparatus
JP2004194225A (en) Image processing method, image processing device, program, and image recording device
JP2000307868A (en) Method and device for image processing
JP4019239B2 (en) Image sharpening method and image sharpening device
JP4337386B2 (en) Image processing method, image processing apparatus, image processing program, and image recording apparatus
JP2004240955A (en) Image processing method, image processing device, image processing program, and image recording device
JP4237555B2 (en) Image correction method and image correction apparatus
JP2004326325A (en) Method, device and program for processing image and image recording device