JP2005228104A - Image processing device, method, and program - Google Patents

Image processing device, method, and program Download PDF

Info

Publication number
JP2005228104A
JP2005228104A JP2004036773A JP2004036773A JP2005228104A JP 2005228104 A JP2005228104 A JP 2005228104A JP 2004036773 A JP2004036773 A JP 2004036773A JP 2004036773 A JP2004036773 A JP 2004036773A JP 2005228104 A JP2005228104 A JP 2005228104A
Authority
JP
Japan
Prior art keywords
image
area
defocus
extracted
synthesis target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004036773A
Other languages
Japanese (ja)
Inventor
Chizuko Ikeda
千鶴子 池田
Shoichi Nomura
庄一 野村
Toru Kawabe
徹 川邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Photo Imaging Inc
Original Assignee
Konica Minolta Photo Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Photo Imaging Inc filed Critical Konica Minolta Photo Imaging Inc
Priority to JP2004036773A priority Critical patent/JP2005228104A/en
Publication of JP2005228104A publication Critical patent/JP2005228104A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To keep quality of each image and to create a composite image giving a natural impression in creation of the composite image consisting of a plurality of images. <P>SOLUTION: In an image processing part 70, data analysis is carried out on a first image inputted by a control part 7, and an image area of a principal object serving as a composite object area is extracted. A defocus area, which is a band-shaped area within a predetermined area from the principal object in the vicinity of a boundary between the principal object and its back ground, that is, in the vicinity of the principal object, is extracted from the first image. When the defocus area is extracted, a second image of the composite object inputted by a control part 7 and an image of the principal object area are combined together, and based on image information of the defocus area, image processing is carried out for creating the composite image. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、複数画像の合成処理を行って合成画像を作成する画像処理装置、画像処理方法及び画像処理プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program that perform composite processing of a plurality of images to create a composite image.

今日、デジタルカメラ等の撮影機器で撮影されたデジタル画像データは、CD−R(Compact Disk-Recoderble)、フロッピー(登録商標)ディスク(以下、FDという)、メモリーカード等の各種記録メディアやインターネット経由等で配信され、CRT(Cathode Ray Tube)、LCD(Liquid Crystal Display)、プラズマディスプレイ等の表示手段に表示出力(ソフトコピー)されたり、電子写真方式のプリンタ、インクジェットプリンタ、サーマルプリンタ等の印刷手段により記録媒体上に印刷出力(ハードコピー)される等、その出力方法は多種多様化している。   Today, digital image data taken with a photographing device such as a digital camera is recorded on various recording media such as a CD-R (Compact Disk-Recoderble), a floppy (registered trademark) disk (hereinafter referred to as FD), a memory card, and the like via the Internet. Etc., and display output (soft copy) on display means such as CRT (Cathode Ray Tube), LCD (Liquid Crystal Display), and plasma display, and printing means such as electrophotographic printers, inkjet printers, thermal printers, etc. The output methods are diversified, such as printing on a recording medium (hard copy).

また、デジタル画像データを出力する際には、出力するデバイス上でそのデバイス特性に応じて所望の画質が得られるように、階調調整、輝度調整、カラーバランス調整、鮮鋭性強調等の種々の画像処理が行われることが一般的であり、その画像処理技術の発展は著しい。   Also, when outputting digital image data, various adjustments such as gradation adjustment, brightness adjustment, color balance adjustment, sharpness enhancement, etc. are performed so that a desired image quality can be obtained according to the device characteristics on the output device. Image processing is generally performed, and the development of the image processing technology is remarkable.

こうした画像出力方法の多様化、画像処理技術の発達を背景に、近年では一般の個人ユーザが、デジタルカメラ等で撮影したデジタル画像や、銀塩カメラで撮影したフィルム画像をスキャナ等により読み取って取得したデジタル画像に画像処理や画像加工を施し、インターネット上のホームページに掲載したり、ポストカードに印刷に利用したりと、デジタル画像の利用機会が増えてきている。   In recent years, with the diversification of image output methods and the development of image processing technology, general individual users have obtained digital images taken with digital cameras, etc., and film images taken with silver halide cameras, using scanners. Opportunities for using digital images are increasing, such as performing image processing and image processing on such digital images and posting them on homepages on the Internet or using them for printing on postcards.

画像加工処理としては様々なものがあるが、その一つとしては画像中の主要被写体の画像と、他の背景画像とを合成して一つの画像を作成する合成処理が挙げられる。通常、単に画像中から主要被写体の画像領域を切り出して背景画像に貼り付けた場合、主要被写体と背景との一体感がなく、いかにも貼り付けたという不自然な印象を与える。これは、前景(主要被写体を指す)と背景の双方にピントが合った画像を使用しており、奥行き感や立体感が感じられないためである。そこで、従来からこのような不自然さを解消するために様々な画像処理方法が開発されている。   There are various types of image processing, and one of them is a composition process in which an image of a main subject in an image and another background image are combined to create one image. Usually, when the image area of the main subject is simply cut out from the image and pasted on the background image, there is no sense of unity between the main subject and the background, giving an unnatural impression that the main subject has been pasted. This is because an image in which both the foreground (pointing to the main subject) and the background are in focus is used, and a sense of depth and stereoscopic effect are not felt. Accordingly, various image processing methods have been developed in order to eliminate such unnaturalness.

例えば、デフォーカスと呼ばれるぼかし処理もその一つである。これは前景、背景の双方にピントが合っている不自然な画像に対し、背景側の画像をぼかす(デフォーカス)ことにより距離感や奥行き感を出して自然な画像に見せるものである(例えば非特許文献1参照)。また、原画像の一部にぼかし処理を施した非鮮鋭画像を作成し、この非鮮鋭画像とぼかし処理が施されていない原画像とを合成処理することにより、被写界深度が浅いレンズで撮影した画像のように背景がぼけた自然な画像を得ることができる画像処理方法も提案されている(例えば特許文献1、2参照)
特開平9−172600号公報 特開平9−116770号公報 「背景合成用デフォーカス装置」電子情報通信学会技術研究報告(林、下田、金次)、IE88−10、pp.69−75、1988
For example, blur processing called defocus is one of them. In contrast to an unnatural image in which both the foreground and the background are in focus, the background image is blurred (defocused) to give a sense of distance and depth and make it appear natural (for example, Non-patent document 1). Also, by creating a non-sharp image in which a part of the original image has been blurred, and combining this unsharp image with the original image that has not been blurred, a lens with a shallow depth of field can be used. There has also been proposed an image processing method capable of obtaining a natural image with a blurred background such as a photographed image (see, for example, Patent Documents 1 and 2).
JP-A-9-172600 JP-A-9-116770 "Defocusing device for background synthesis" IEICE Technical Report (Hayashi, Shimoda, Kinji), IE88-10, pp.69-75, 1988

最近の研究により、3次元に配置される主要被写体やその背景の構造物を2次元に圧縮して描画するにも関わらず、その画像に違和感が無いのは主要被写体周辺にぼけた領域があり、この領域におけるぼけ感によるものであることがわかった。しかしながら、上記文献1〜3による従来の画像処理方法では、主要被写体と合成された背景との距離感のバランスはとれるが、主要被写体を抽出する際に鮮明な主要被写体領域のみを抽出して背景画像に合成しているため、主要被写体と背景の境界付近の連続性が無く、やはり貼り付けたという不自然な印象が残ってしまう。また、距離感を出すために背景をぼかすと、背景画像の鮮鋭性が失われるため合成画像の用途が限られてしまう。   According to recent research, the main subject placed in three dimensions and the background structure are compressed and drawn in two dimensions, but the image has no sense of incongruity because there is a blurred area around the main subject. It was found that this was due to the blur in this area. However, in the conventional image processing methods according to the above documents 1 to 3, the distance between the main subject and the synthesized background can be balanced, but when the main subject is extracted, only the clear main subject region is extracted and the background is extracted. Since it is combined with the image, there is no continuity near the boundary between the main subject and the background, leaving an unnatural impression of pasting. Further, if the background is blurred to give a sense of distance, the sharpness of the background image is lost, and the use of the composite image is limited.

本発明の課題は、複数画像の合成画像を作成する際に、各画像の画質を保持し、かつ自然な印象を与える合成画像を作成することである。   An object of the present invention is to create a composite image that retains the image quality of each image and gives a natural impression when creating a composite image of a plurality of images.

請求項1に記載の発明は、画像処理装置において、
合成対象の第1画像及び第2画像を取得する画像取得手段と、
前記取得された第1画像から合成対象領域を抽出する合成対象領域抽出手段と、
前記抽出された合成対象領域に係るデフォーカス領域を前記第1画像から抽出するデフォーカス領域抽出手段と、
前記抽出された合成対象領域、デフォーカス領域及び前記取得された第2画像を用いて合成画像を作成する合成処理手段と、
を備えることを特徴とする。
The invention according to claim 1 is an image processing apparatus,
Image acquisition means for acquiring a first image and a second image to be combined;
A synthesis target area extracting means for extracting a synthesis target area from the acquired first image;
Defocus area extracting means for extracting a defocus area related to the extracted synthesis target area from the first image;
Combining processing means for generating a combined image using the extracted combining target region, the defocused region, and the acquired second image;
It is characterized by providing.

請求項2に記載の発明は、請求項1に記載の画像処理装置において、
前記デフォーカス領域抽出手段は、前記合成対象領域抽出手段により抽出された合成対象領域の周辺において、合成対象領域のエッジ部分から所定範囲内の画像領域をデフォーカス領域として抽出することを特徴とする。
The invention according to claim 2 is the image processing apparatus according to claim 1,
The defocus area extracting unit extracts, as a defocus area, an image area within a predetermined range from an edge portion of the synthesis target area around the synthesis target area extracted by the synthesis target area extraction unit. .

請求項3に記載の発明は、請求項1に記載の画像処理装置において、
前記デフォーカス領域抽出手段は、前記合成対象領域抽出手段により規定の抽出条件で抽出された合成対象領域と、規定の抽出条件を緩和した抽出条件により前記第1画像から抽出された許容領域との差分をデフォーカス領域として抽出することを特徴とする。
The invention according to claim 3 is the image processing apparatus according to claim 1,
The defocus area extraction means includes a composition target area extracted by the composition target area extraction means under a prescribed extraction condition, and an allowable area extracted from the first image by an extraction condition that relaxes the prescribed extraction condition. The difference is extracted as a defocus area.

請求項4に記載の発明は、請求項1に記載の画像処理装置において、
前記デフォーカス領域抽出手段は、前記第1画像から合成対象領域の背景領域を抽出し、当該背景領域及び前記合成対象領域を前記第1画像領域から差し引いて得られる画像領域をデフォーカス領域として抽出することを特徴とする。
According to a fourth aspect of the present invention, in the image processing apparatus according to the first aspect,
The defocus area extraction unit extracts a background area of a synthesis target area from the first image, and extracts an image area obtained by subtracting the background area and the synthesis target area from the first image area as a defocus area. It is characterized by doing.

請求項5に記載の発明は、請求項1に記載の画像処理装置において、
前記第1画像において画像領域を指定するための操作手段を備え、
前記デフォーカス領域抽出手段は、前記操作手段を介して指定された画像領域をデフォーカス領域として抽出することを特徴とする。
The invention according to claim 5 is the image processing apparatus according to claim 1,
An operation means for designating an image area in the first image;
The defocus area extracting unit extracts an image area designated through the operation unit as a defocus area.

請求項6に記載の発明は、請求項1〜5の何れか一項に記載の画像処理装置において、
前記合成処理手段は、前記第2画像上で指定された位置に前記合成対象領域及び前記デフォーカス領域の画像を配置した合成画像を作成することを特徴とする。
The invention according to claim 6 is the image processing apparatus according to any one of claims 1 to 5,
The composition processing unit creates a composite image in which images of the composition target area and the defocus area are arranged at positions designated on the second image.

請求項7に記載の発明は、請求項1〜5の何れか一項に記載の画像処理装置において、
前記合成処理手段は、第2画像上で位置が指定されたデフォーカス領域画像に対応する第2画像領域にデフォーカス処理を施し、当該デフォーカス処理された領域により囲まれる第2画像領域に前記合成対象領域画像を配置して合成画像を作成することを特徴とする。
The invention according to claim 7 is the image processing apparatus according to any one of claims 1 to 5,
The synthesis processing means performs a defocus process on a second image area corresponding to a defocus area image whose position is specified on the second image, and the second image area surrounded by the defocused area is subjected to the defocus process. The composition target region image is arranged to create a composite image.

請求項8に記載の発明は、請求項7に記載の画像処理装置において、
前記デフォーカス処理は、非鮮鋭化処理であり、
前記合成処理手段は、前記デフォーカス領域の周波数特性を算出し、当該算出されたデフォーカス領域における周波数特性に応じて、非鮮鋭化処理による非鮮鋭化の程度を決定することを特徴とする。
The invention according to claim 8 is the image processing apparatus according to claim 7,
The defocus processing is unsharpening processing,
The synthesis processing unit calculates a frequency characteristic of the defocus area, and determines a degree of unsharpening by the unsharpening process according to the calculated frequency characteristic in the defocus area.

請求項9に記載の発明は、請求項7に記載の画像処理装置において
前記デフォーカス処理は、前記第2画像と前記デフォーカス領域画像を所定の割合で混合する処理であることを特徴とする。
The invention according to claim 9 is the image processing apparatus according to claim 7, wherein the defocusing process is a process of mixing the second image and the defocused area image at a predetermined ratio. .

請求項10に記載の発明は、画像処理方法において、
合成対象の第1画像及び第2画像を取得する画像取得工程と、
前記取得された第1画像から合成対象領域を抽出する合成対象領域抽出工程と、
前記抽出された合成対象領域に係るデフォーカス領域を前記第1画像から抽出するデフォーカス領域抽出工程と、
前記抽出された合成対象領域、デフォーカス領域及び前記取得された第2画像を用いて合成画像を作成する合成処理工程と、
を含むことを特徴とする。
The invention according to claim 10 is an image processing method,
An image acquisition step of acquiring a first image and a second image to be combined;
A synthesis target area extracting step of extracting a synthesis target area from the acquired first image;
A defocus area extracting step of extracting a defocus area related to the extracted synthesis target area from the first image;
A synthesis processing step of creating a synthesized image using the extracted synthesis target area, the defocus area, and the acquired second image;
It is characterized by including.

請求項11に記載の発明は、請求項10に記載の画像処理方法において、
前記デフォーカス領域抽出工程では、前記合成対象領域抽出工程で抽出された合成対象領域の周辺において、合成対象領域のエッジ部分から所定範囲内の画像領域をデフォーカス領域として抽出することを特徴とする。
The invention according to claim 11 is the image processing method according to claim 10,
In the defocus area extraction step, an image area within a predetermined range is extracted as a defocus area from an edge portion of the synthesis target area around the synthesis target area extracted in the synthesis target area extraction step. .

請求項12に記載の発明は、請求項10に記載の画像処理方法において、
前記デフォーカス領域抽出工程では、前記合成対象領域抽出工程において規定の抽出条件で抽出された合成対象領域と、規定の抽出条件を緩和した抽出条件により前記第1画像から抽出された許容領域との差分をデフォーカス領域として抽出することを特徴とする。
The invention according to claim 12 is the image processing method according to claim 10,
In the defocus area extraction step, a synthesis target area extracted under a specified extraction condition in the synthesis target area extraction step and an allowable area extracted from the first image under an extraction condition that relaxes the specified extraction condition The difference is extracted as a defocus area.

請求項13に記載の発明は、請求項10に記載の画像処理方法において、
前記デフォーカス領域抽出工程では、前記第1画像から合成対象領域の背景領域を抽出し、当該背景領域及び前記合成対象領域を前記第1画像領域から差し引いて得られる画像領域をデフォーカス領域として抽出することを特徴とする。
The invention according to claim 13 is the image processing method according to claim 10,
In the defocus area extraction step, a background area of a synthesis target area is extracted from the first image, and an image area obtained by subtracting the background area and the synthesis target area from the first image area is extracted as a defocus area. It is characterized by doing.

請求項14に記載の発明は、請求項10に記載の画像処理方法において、
前記デフォーカス領域抽出工程では、操作手段を介して指定された画像領域をデフォーカス領域として抽出することを特徴とする。
The invention according to claim 14 is the image processing method according to claim 10,
In the defocus area extracting step, the image area designated via the operation means is extracted as a defocus area.

請求項15に記載の発明は、請求項10〜14の何れか一項に記載の画像処理方法において、
前記合成処理工程では、前記第2画像上で指定された位置に前記合成対象領域及び前記デフォーカス領域の画像を配置した合成画像を作成することを特徴とする。
The invention according to claim 15 is the image processing method according to any one of claims 10 to 14,
In the synthesizing process step, a synthesized image is created in which the images of the synthesis target area and the defocus area are arranged at positions designated on the second image.

請求項16に記載の発明は、請求項10〜14の何れか一項に記載の画像処理方法において、
前記合成処理工程では、第2画像上で位置が指定されたデフォーカス領域画像に対応する第2画像領域にデフォーカス処理を施し、当該デフォーカス処理された領域により囲まれる第2画像領域に前記合成対象領域画像を配置して合成画像を作成することを特徴とする。
The invention according to claim 16 is the image processing method according to any one of claims 10 to 14,
In the composition processing step, a defocus process is performed on a second image area corresponding to a defocus area image whose position is specified on the second image, and the second image area surrounded by the defocused area is The composition target region image is arranged to create a composite image.

請求項17に記載の発明は、請求項16に記載の画像処理方法において、
前記デフォーカス処理は、非鮮鋭化処理であり、
前記合成処理工程では、前記デフォーカス領域の周波数特性を算出し、当該算出されたデフォーカス領域における周波数特性に応じて、非鮮鋭化処理による非鮮鋭化の程度を決定することを特徴とする。
The invention according to claim 17 is the image processing method according to claim 16,
The defocus processing is unsharpening processing,
In the synthesizing process step, the frequency characteristic of the defocus area is calculated, and the degree of unsharpening by the unsharpening process is determined according to the calculated frequency characteristic in the defocus area.

請求項18に記載の発明は、請求項16に記載の画像処理方法において、
前記デフォーカス処理は、前記第2画像と前記デフォーカス領域画像を所定の割合で混合する処理であることを特徴とする。
The invention according to claim 18 is the image processing method according to claim 16,
The defocus process is a process of mixing the second image and the defocus area image at a predetermined ratio.

請求項19に記載の発明は、
コンピュータに、
合成対象の第1画像及び第2画像を取得させる画像取得機能と、
前記取得された第1画像から合成対象領域を抽出する合成対象領域抽出機能と、
前記抽出された合成対象領域に係るデフォーカス領域を前記第1画像から抽出するデフォーカス領域抽出機能と、
前記抽出された合成対象領域、デフォーカス領域及び前記取得された第2画像を用いて合成画像を作成する合成処理機能と、
を実現させるための画像処理プログラムであることを特徴とする。
The invention according to claim 19 is
On the computer,
An image acquisition function for acquiring a first image and a second image to be combined;
A synthesis target area extraction function for extracting a synthesis target area from the acquired first image;
A defocus area extraction function for extracting a defocus area related to the extracted synthesis target area from the first image;
A composition processing function for creating a composite image using the extracted composition target region, the defocus region, and the acquired second image;
It is an image processing program for realizing the above.

請求項20に記載の発明は、請求項19に記載の画像処理プログラムにおいて、
前記デフォーカス領域抽出機能は、前記合成対象領域抽出機能により抽出された合成対象領域の周辺において、合成対象領域のエッジ部分から所定範囲内の画像領域をデフォーカス領域として抽出することを特徴とする。
The invention according to claim 20 is the image processing program according to claim 19,
The defocus area extraction function extracts an image area within a predetermined range from an edge portion of the synthesis target area as a defocus area around the synthesis target area extracted by the synthesis target area extraction function. .

請求項21に記載の発明は、請求項19に記載の画像処理プログラムにおいて、
前記デフォーカス領域抽出機能は、前記合成対象領域抽出機能により規定の抽出条件で抽出された合成対象領域と、規定の抽出条件を緩和した抽出条件により前記第1画像から抽出された許容領域との差分をデフォーカス領域として抽出することを特徴とする。
The invention according to claim 21 is the image processing program according to claim 19,
The defocus area extraction function includes: a synthesis target area extracted under a specified extraction condition by the synthesis target area extraction function; and an allowable area extracted from the first image according to an extraction condition that relaxes the specified extraction condition. The difference is extracted as a defocus area.

請求項22に記載の発明は、請求項19に記載の画像処理プログラムにおいて、
前記デフォーカス領域抽出機能は、前記第1画像から合成対象領域の背景領域を抽出し、当該背景領域及び前記合成対象領域を前記第1画像領域から差し引いて得られる画像領域をデフォーカス領域として抽出することを特徴とする。
The invention according to claim 22 is the image processing program according to claim 19,
The defocus area extraction function extracts a background area of a synthesis target area from the first image, and extracts an image area obtained by subtracting the background area and the synthesis target area from the first image area as a defocus area. It is characterized by doing.

請求項23に記載の発明は、請求項19に記載の画像処理プログラムにおいて、
前記デフォーカス領域抽出機能は、操作手段を介して指定された画像領域をデフォーカス領域として抽出することを特徴とする。
The invention according to claim 23 is the image processing program according to claim 19,
The defocus area extraction function is characterized in that an image area designated via the operation means is extracted as a defocus area.

請求項24に記載の発明は、請求項19〜23の何れか一項に記載の画像処理プログラムにおいて、
前記合成処理機能は、前記第2画像上で指定された位置に前記合成対象領域及び前記デフォーカス領域の画像を配置した合成画像を作成することを特徴とする。
The invention described in claim 24 is the image processing program according to any one of claims 19-23,
The composition processing function creates a composite image in which images of the composition target area and the defocus area are arranged at positions designated on the second image.

請求項25に記載の発明は、請求項19〜23の何れか一項に記載の画像処理プログラムにおいて、
前記合成処理機能は、第2画像上で位置が指定されたデフォーカス領域画像に対応する第2画像領域にデフォーカス処理を施し、当該デフォーカス処理された領域により囲まれる第2画像領域に前記合成対象領域画像を配置して合成画像を作成することを特徴とする。
The invention described in claim 25 is the image processing program according to any one of claims 19-23,
The composition processing function performs a defocus process on a second image area corresponding to a defocus area image whose position is specified on a second image, and applies the defocus process to the second image area surrounded by the defocused area. The composition target region image is arranged to create a composite image.

請求項26に記載の発明は、請求項25に記載の画像処理プログラムにおいて、
前記デフォーカス処理は、非鮮鋭化処理であり、
前記合成処理機能は、前記デフォーカス領域の周波数特性を算出し、当該算出されたデフォーカス領域における周波数特性に応じて、非鮮鋭化処理による非鮮鋭化の程度を決定することを特徴とする。
The invention described in claim 26 is the image processing program according to claim 25,
The defocus processing is unsharpening processing,
The synthesis processing function calculates a frequency characteristic of the defocus area, and determines a degree of unsharpening by the unsharpening process according to the calculated frequency characteristic in the defocus area.

請求項27に記載の発明は、請求項25に記載の画像処理プログラムにおいて、
前記デフォーカス処理は、前記第2画像と前記デフォーカス領域画像を所定の割合で混合する処理であることを特徴とする。
The invention described in claim 27 is the image processing program according to claim 25,
The defocus process is a process of mixing the second image and the defocus area image at a predetermined ratio.

請求項1に記載の発明によれば、合成対象領域に係るデフォーカス領域を用いて合成画像を作成するので、合成画像において合成対象領域周辺に非鮮鋭な領域を作ることができる。従って、合成対象領域とその背景となる第2画像領域との境界部分において連続性が保たれ、自然な印象の合成画像を得ることができる。また、第2画像全体を非鮮鋭にする必要がないので、原画像の画質を保持することができる。   According to the first aspect of the present invention, since the synthesized image is created using the defocus area related to the synthesis target area, an unsharp area can be created around the synthesis target area in the synthesized image. Therefore, continuity is maintained at the boundary portion between the synthesis target area and the second image area as the background, and a synthesized image with a natural impression can be obtained. In addition, since it is not necessary to unsharp the entire second image, the image quality of the original image can be maintained.

請求項2に記載の発明によれば、デフォーカス領域の抽出方法として、合成対象領域のエッジ部分から所定範囲内の画像領域をデフォーカス領域として抽出する方法を適用することができる。   According to the second aspect of the present invention, as a method for extracting a defocus area, a method for extracting an image area within a predetermined range from an edge portion of the composition target area as a defocus area can be applied.

請求項3に記載の発明によれば、デフォーカス領域の抽出方法として、規定の抽出条件で抽出された合成対象領域と、規定の条件を緩和した抽出条件で抽出された許容領域との差分をデフォーカス領域として抽出する方法を適用することができる。   According to the third aspect of the present invention, as a method for extracting the defocus area, the difference between the synthesis target area extracted under the specified extraction condition and the allowable area extracted under the extraction condition with the specified condition relaxed is calculated. A method of extracting as a defocus area can be applied.

請求項4に記載の発明によれば、デフォーカス領域の抽出方法として、第1画像領域から背景領域と合成対象領域とを差し引いて得られた画像領域をデフォーカス領域として抽出する方法を適用することができる。   According to the fourth aspect of the present invention, as a method for extracting the defocus area, a method for extracting the image area obtained by subtracting the background area and the synthesis target area from the first image area as the defocus area is applied. be able to.

請求項5に記載の発明によれば、デフォーカス領域の抽出方法として、操作手段を介して指定された領域をデフォーカス領域として抽出する方法を適用することができる。   According to the fifth aspect of the present invention, as a method for extracting the defocus area, a method for extracting the area designated via the operation means as the defocus area can be applied.

請求項6に記載の発明によれば、合成画像の作成方法として、第2画像において指定された位置に合成対象領域画像及びデフォーカス領域画像を配置する方法を適用することができる。   According to the sixth aspect of the present invention, a method of arranging the composition target region image and the defocus region image at the position designated in the second image can be applied as a method of creating the composite image.

請求項7に記載の発明によれば、合成画像の作成方法として、デフォーカス領域画像に対応する第2画像領域にデフォーカス処理を施し、当該デフォーカス処理された領域により囲まれる第2画像領域に前記合成対象領域画像を配置する方法を適用することができる。従って、デフォーカス領域が有するぼけ感のみを合成画像に移植することができ、より自然な合成画像を作成することができる。   According to the seventh aspect of the present invention, as a method of creating a composite image, the second image region that is defocused on the second image region corresponding to the defocused region image and is surrounded by the defocused region It is possible to apply the method of arranging the composition target region image to the above. Therefore, only the blurring feeling of the defocus area can be transplanted to the composite image, and a more natural composite image can be created.

請求項8に記載の発明によれば、デフォーカス領域の周波数特性に応じてデフォーカス領域画像に対応する第2画像領域に非鮮鋭化処理を施すので、デフォーカス領域が元々有するぼけ感を合成画像において再現することができる。   According to the eighth aspect of the invention, since the second image area corresponding to the defocus area image is subjected to the non-sharpening process according to the frequency characteristic of the defocus area, the blur feeling originally possessed by the defocus area is synthesized. Can be reproduced in the image.

請求項9に記載の発明によれば、デフォーカス領域画像に対応する第2画像領域において、デフォーカス領域画像と第2画像領域とを混合して合成画像を作成する方法を適用することができる。従って、デフォーカス領域が有するぼけ感を合成画像に移植することができる。   According to the ninth aspect of the present invention, it is possible to apply a method of creating a composite image by mixing the defocus area image and the second image area in the second image area corresponding to the defocus area image. . Therefore, it is possible to transplant the blurring feeling of the defocus area into the composite image.

本実施の形態では、プリントラボシステムを想定し、画像記録装置と本発明に係る画像処理装置とが一体化してなるプリント作成システムの例を説明する。   In the present embodiment, a print lab system is assumed, and an example of a print creation system in which an image recording apparatus and an image processing apparatus according to the present invention are integrated will be described.

まず、構成を説明する。
図1に、本実施の形態におけるプリント作成システム1の外観を示す。
図1に示すように、プリント作成システム1は、本体部2、マガジン装填部3を備えて構成される。本体部2内には、記録媒体である感光材料に露光する露光処理部4、露光された感光材料を現像処理して乾燥しプリントを作成するプリント作成部5、プリント作成システム1の各部を統括的に制御する制御部7が備えられる。また、本体部2の右側面には、作成されたプリントを排出するトレー6が設けられる。
First, the configuration will be described.
FIG. 1 shows an appearance of a print creation system 1 according to the present embodiment.
As shown in FIG. 1, the print creation system 1 includes a main body unit 2 and a magazine loading unit 3. In the main body 2, an exposure processing unit 4 that exposes a photosensitive material that is a recording medium, a print creation unit 5 that develops the exposed photosensitive material and dries to create a print, and a print creation system 1 are integrated. The control part 7 which controls automatically is provided. In addition, a tray 6 for discharging the created print is provided on the right side surface of the main body 2.

本体部2の上部には、オペレータのプリント操作用にCRT8、操作部11が設けられている。なお、CRT8にタッチパネルを併設することとしてもよい。また、CRT8の左側には透過原稿読み込み装置であるフィルムスキャナ部9が配置され、右側にフラッドベッドスキャナ等の反射原稿入力装置10が設置される。   A CRT 8 and an operation unit 11 are provided on the upper part of the main body unit 2 for an operator's print operation. In addition, it is good also as providing a touch panel with CRT8. Further, a film scanner unit 9 which is a transparent document reading device is disposed on the left side of the CRT 8, and a reflective document input device 10 such as a flood bed scanner is disposed on the right side.

フィルムスキャナ部9や反射原稿入力装置10から読み込まれる原稿としては写真感光材料があり、この写真感光材料としては、アナログカメラにより撮影したコマ画像が記録されたカラーネガフィルム、カラーリバーサルフィルム、白黒ネガフィルム、白黒リバーサルフィルム等が挙げられる。フィルムスキャナ部9は、これら写真感光材料に記録されたコマ画像を読み取ってデジタル情報に変換し、コマ画像データを得る。また、写真感光材料が印画紙等のカラーペーパーの場合、反射原稿入力装置10によりコマ画像を読み取ってコマ画像データを得ることができる。   An original read from the film scanner unit 9 or the reflection original input device 10 includes a photographic photosensitive material. As the photographic photosensitive material, a color negative film, a color reversal film, a black and white negative film on which a frame image taken by an analog camera is recorded, Examples include black and white reversal films. The film scanner unit 9 reads the frame images recorded on these photographic photosensitive materials and converts them into digital information to obtain frame image data. When the photographic photosensitive material is color paper such as photographic paper, the frame image data can be obtained by reading the frame image with the reflective original input device 10.

また、本体部2の前面には、画像読込部14が設けられている。画像読込部14にはPCカード用アダプタ14a、FD用アダプタ14bが備えられ、PCカード13aやFD13bが差し込み可能になっている。PCカード13aは、デジタルカメラで撮影して複数のコマ画像データが記憶されたメモリを有する。FD13bは、例えばデジタルカメラの撮影により得られた複数のコマ画像データを記憶する。   An image reading unit 14 is provided on the front surface of the main body unit 2. The image reading unit 14 includes a PC card adapter 14a and an FD adapter 14b, and the PC card 13a and the FD 13b can be inserted therein. The PC card 13a has a memory in which a plurality of frame image data is stored by photographing with a digital camera. The FD 13b stores, for example, a plurality of frame image data obtained by photographing with a digital camera.

なお、図1では、操作部11、CRT8、フィルムスキャナ部9、反射原稿入力装置10、画像読込部14は本体部2と一体的に構成された例を示したが、別体として設けることとしてもよい。   1 shows an example in which the operation unit 11, the CRT 8, the film scanner unit 9, the reflective document input device 10, and the image reading unit 14 are configured integrally with the main body unit 2, but are provided separately. Also good.

同じく、本体部2の前面には画像書込部15が設けられている。画像書込部15にはFD用アダプタ15a、MO(Magneto Optical disk)用アダプタ15b、光ディスク用アダプタ15cが備えられ、FD16a、MO16b、CD16cが差し込み可能になっており、本発明における画像処理方法によって作成された合成画像等の画像データやその他の各種データを各記録メディアに書き込むことができるようになっている。なお、画像読取部14、画像書込部15では、上記記録メディアの他、マルチメディアカード、メモリースティック、MD(Mini Disk)、CD(Compact Disk)等、その他の記録メディアを適用可能な構成としてもよい。   Similarly, an image writing unit 15 is provided on the front surface of the main body unit 2. The image writing unit 15 is provided with an FD adapter 15a, an MO (Magneto Optical disk) adapter 15b, and an optical disk adapter 15c. The created image data such as a composite image and other various data can be written to each recording medium. The image reading unit 14 and the image writing unit 15 may be configured to apply other recording media such as a multimedia card, a memory stick, an MD (Mini Disk), and a CD (Compact Disk) in addition to the above recording media. Good.

さらに、制御部7には通信部(図1では図示せず。通信部については後述する)が設けられており、施設内の別のコンピュータやインターネット等を介した遠方のコンピュータから直接、撮影画像のデータとプリント指示情報を受信し、いわゆるネットワークプリンタ装置として機能することも可能である。
また、本発明における画像処理方法によって生成された画像データの一部または全てを、商業的なサービスの一環として、ユーザにインターネット等を介して送付することが可能である。
Further, the control unit 7 is provided with a communication unit (not shown in FIG. 1; the communication unit will be described later), and the captured image is directly taken from another computer in the facility or a distant computer via the Internet. It is also possible to function as a so-called network printer device.
Also, part or all of the image data generated by the image processing method according to the present invention can be sent to the user via the Internet or the like as part of a commercial service.

次に、図2を参照して、プリント作成システム1の機能的構成について説明する。
図2に示すように、プリント作成システム1は、操作部11からの指示に従って、フィルムスキャナ部9、反射原稿入力装置10、画像読込部14により原稿情報の読み込みを行い、本体部2において制御部7による画像データ処理を経た後、露光処理部4、プリント作成部5により各種プリントP1、P2、P3を作成するものである。
Next, the functional configuration of the print creation system 1 will be described with reference to FIG.
As shown in FIG. 2, the print creation system 1 reads document information by the film scanner unit 9, the reflective document input device 10, and the image reading unit 14 in accordance with an instruction from the operation unit 11. After the image data processing according to 7, various prints P 1, P 2, and P 3 are created by the exposure processing unit 4 and the print creation unit 5.

本体部2は、制御部7、露光処理部4、プリント作成部5の他、通信部32、データ記憶部71を備える。通信部32は、ネットワークインターフェイスカードやモデム等の通信用インターフェイスを備えて構成され、通信ネットワーク上の外部機器と相互に情報の送受信を行う。また、データ記憶部71は、画像データのデータ群とそのプリント指示情報(プリント指示された画像のコマ番号、そのプリントサイズ等の情報)とを記憶し順次蓄積するものである。   The main unit 2 includes a control unit 7, an exposure processing unit 4, a print creation unit 5, a communication unit 32, and a data storage unit 71. The communication unit 32 includes a communication interface such as a network interface card or a modem, and transmits / receives information to / from an external device on the communication network. The data storage unit 71 stores and sequentially accumulates a data group of image data and print instruction information thereof (information such as a frame number of the image instructed to be printed and its print size).

以下、図2を参照してプリント作成システム1におけるプリント処理の流れを説明する。
まず、フィルムスキャナ部9、反射原稿入力装置10、画像読込部14又は通信部32により、画像データの入力が行われる。フィルムスキャナ部9の場合、アナログカメラQ1により撮影されたネガフィルムを現像して得られる現像済のネガフィルムNからのコマ画像データが入力される。反射原稿入力装置10の場合、コマ画像を印画紙に焼き付けて現像処理したプリントPからのコマ画像データが入力される。画像読込部14の場合、デジタルカメラQ2の撮影により得られた画像データが各記録メディア13a、13bに記録され、各アダプタ14a、14bに挿入されたこれら記録メディア13a、13bから画像データが読み出されて入力される。通信部32の場合、インターネット等の通信ネットワークを介して遠方のコンピュータから直接、画像データとプリント等の作業指示情報が受信される。
The flow of print processing in the print creation system 1 will be described below with reference to FIG.
First, image data is input by the film scanner unit 9, the reflective document input device 10, the image reading unit 14, or the communication unit 32. In the case of the film scanner unit 9, frame image data from the developed negative film N obtained by developing the negative film taken by the analog camera Q1 is input. In the case of the reflective original input device 10, frame image data from a print P obtained by developing a frame image on a photographic printing paper is input. In the case of the image reading unit 14, image data obtained by photographing with the digital camera Q2 is recorded on the recording media 13a and 13b, and image data is read from the recording media 13a and 13b inserted in the adapters 14a and 14b. Input. In the case of the communication unit 32, work instruction information such as image data and printing is received directly from a distant computer via a communication network such as the Internet.

入力された画像データは制御部7に出力される。そして、制御部7の制御により、入力された画像データがデータ記憶部71に一旦記憶されるとともに、この画像データがCRT8に表示出力される。そして、操作部11を介して入力される指示に応じて画像処理部70により画像データ処理が行われる。   The input image data is output to the control unit 7. Under the control of the control unit 7, the input image data is temporarily stored in the data storage unit 71, and this image data is displayed and output on the CRT 8. Then, image data processing is performed by the image processing unit 70 in accordance with an instruction input via the operation unit 11.

次いで、画像データをプリントする場合には制御部7において露光用画像データが作成されて露光処理部4に出力される。露光処理部4では、入力された露光用画像データに基づき感光材料に対して露光が行われ、露光処理を終えるとこの感光材料がプリント作成部5に出力される。プリント作成部5では露光された感光材料が現像処理されて乾燥され、プリントP1、P2、P3が作成される。プリントP1はサービスサイズ、ハイビジョンサイズ、パノラマサイズ等のプリントであり、プリントP2はA4サイズのプリント、プリントP3は名刺サイズのプリントである。   Next, when printing image data, the control unit 7 creates exposure image data and outputs it to the exposure processing unit 4. In the exposure processing unit 4, the photosensitive material is exposed based on the input exposure image data. When the exposure processing is completed, the photosensitive material is output to the print creating unit 5. In the print creating unit 5, the exposed photosensitive material is developed and dried, and prints P1, P2, and P3 are created. The print P1 is a service size, a high-vision size, a panorama size, etc., the print P2 is an A4 size print, and the print P3 is a business card size print.

一方、画像データを記録メディアに記録する場合には、画像処理部70から画像処理された画像データが画像書込部15に出力され、画像書込部15では入力された画像データが各アダプタ15a〜15cに挿入された記録メディアに書き込まれる。   On the other hand, when recording image data on a recording medium, the image processing unit 70 outputs the image data subjected to image processing to the image writing unit 15, and the image writing unit 15 receives the input image data as each adapter 15a. To the recording medium inserted in .about.15c.

制御部7は、内部に画像処理部70を備え、この画像処理部70により入力された画像データのデータ処理を行う。また、制御部7は、データ記憶部71に格納された画像合成処理プログラムを読み出し、当該合成画像処理プログラムに従って後述する合成画像処理(図4参照)を画像処理部70により実行させる。   The control unit 7 includes an image processing unit 70 therein, and performs data processing on the image data input by the image processing unit 70. In addition, the control unit 7 reads out the image composition processing program stored in the data storage unit 71 and causes the image processing unit 70 to execute a composite image process (see FIG. 4) described later according to the composite image processing program.

図3に、画像処理部70の内部構成を示す。
図3に示すように、画像処理部70は、画像データ処理部70a、フィルムスキャンデータ処理部70b、反射原稿スキャンデータ処理部70c、画像データ書式解読処理部70d、CRT固有処理部70f、プリンタ固有処理部70g、画像データ書式作成処理部70hを備えて構成される。
FIG. 3 shows an internal configuration of the image processing unit 70.
As shown in FIG. 3, the image processing unit 70 includes an image data processing unit 70a, a film scan data processing unit 70b, a reflection original scan data processing unit 70c, an image data format decoding processing unit 70d, a CRT specific processing unit 70f, and a printer specific. A processing unit 70g and an image data format creation processing unit 70h are provided.

画像データ処理部70aは、フィルムスキャンデータ処理部70b、反射原稿スキャンデータ処理部70c、画像データ書式解読処理部70dにより入力された画像データに対し、CRT8、プリントペーパー等の各種出力メディア上で最適な画質となるように色変換処理、階調変換処理等の画像処理を行い、CRT固有処理部70f、プリンタ固有処理部70g、画像データ書式作成処理部70h、データ記憶部71へ処理済みの画像データを送出する。また、操作部11を介して入力される指示に従って、画像データに各種画像処理を施す、各種画像処理としては、色変換処理、階調変換処理、トリミング処理、回転処理、拡大縮小処理等が挙げられる。   The image data processing unit 70a is optimal on various output media such as CRT8 and print paper for the image data input by the film scan data processing unit 70b, the reflection original scan data processing unit 70c, and the image data format decoding processing unit 70d. Image processing such as color conversion processing and gradation conversion processing so as to obtain a satisfactory image quality, and processed images to the CRT specific processing unit 70f, printer specific processing unit 70g, image data format creation processing unit 70h, and data storage unit 71 Send data. Various image processing is performed on the image data in accordance with an instruction input via the operation unit 11. Examples of various image processing include color conversion processing, gradation conversion processing, trimming processing, rotation processing, enlargement / reduction processing, and the like. It is done.

また、画像データ処理部70aは、制御部7の指示に従って後述する画像合成処理を実行する。画像合成処理では、制御部7により入力された第1画像のデータ解析を行って合成対象領域である主要被写体の画像領域を抽出する。抽出方法としては以下に示す公知の手法を適用することができる。
(1)ラインプロセス法により画像の不連続情報を検出し、当該不連続情報に基づいて特定領域を抽出する方法(特開2000−201358号公報、特開2000−207569号公報)
(2)予め特定領域から求められた画像特徴量を教師データとして構築されたニューラルネットワークに、特定領域の抽出対象である撮影画像から求められた画像特徴量を入力し、得られた出力値に基づいて特定領域を抽出する方法(特開平7−234856号公報、特開平8−87589号公報)
(3)部分パーツを抽出し、合成して主要被写体領域候補として判定する方法(特開平11−316845号公報)
(4)個々に重み係数を設定した複数の抽出方法の結果を、その重み係数により重み付けした結果に基づいて主要被写体に相当する領域である可能性が高い画像領域を抽出する方法(特開平9−1387470号公報)
なお、ここで挙げた抽出方法はその一例であり、その他の手法であっても適用可能である。例えば、マウス12や操作部11を介してオペレータにより指定された主要被写体の画像領域を抽出することとしてもよいし、これを補助手段として上記に挙げた抽出方法と併用することとしてもよい。また、Exifに代表されるタグ情報に含まれる主要被写体位置情報や主要被写体領域情報等を利用して抽出を行うこととしてもよい。
Further, the image data processing unit 70a executes an image composition process to be described later in accordance with an instruction from the control unit 7. In the image composition processing, data analysis of the first image input by the control unit 7 is performed to extract the image area of the main subject that is the composition target area. As the extraction method, the following known methods can be applied.
(1) A method of detecting discontinuity information of an image by a line process method and extracting a specific area based on the discontinuity information (Japanese Patent Laid-Open Nos. 2000-201358 and 2000-207569)
(2) An image feature amount obtained from a captured image that is an extraction target of the specific region is input to a neural network that is preliminarily constructed from the image feature amount obtained from the specific region as teacher data, and the obtained output value Method for extracting a specific region based on the method (Japanese Patent Laid-Open Nos. 7-234856 and 8-87589)
(3) Method of extracting partial parts and combining them to determine as a main subject region candidate (Japanese Patent Laid-Open No. 11-316845)
(4) A method of extracting an image region that is likely to be a region corresponding to the main subject based on the result of weighting the results of a plurality of extraction methods in which weighting factors are individually set based on the weighting factor (Japanese Patent Laid-Open No. Hei 9). No. 1387470)
Note that the extraction method mentioned here is an example, and other methods can be applied. For example, the image area of the main subject specified by the operator via the mouse 12 or the operation unit 11 may be extracted, or this may be used in combination with the extraction method described above as an auxiliary means. Further, extraction may be performed using main subject position information, main subject region information, and the like included in tag information represented by Exif.

また、第1画像からデフォーカス領域を抽出する。デフォーカス領域とは、主要被写体とその背景との境界付近、つまり主要被写体周辺において主要被写体から所定範囲内の帯状の領域をいう。デフォーカス領域が抽出されると、制御部7により入力された合成対象の第2画像と主要被写体領域の画像とを合成し、さらに主要被写体領域周辺に抽出されたデフォーカス領域を合成する、或いはデフォーカス領域の画像情報に基づいてデフォーカス処理を施して合成画像を作成する。ここで、デフォーカス処理とは、合成画像において主要被写体領域周辺に非鮮鋭な領域、すなわちデフォーカス領域を作り出す処理をいう。デフォーカス処理としては、例えば鮮鋭度を低下させる非鮮鋭化処理、非鮮鋭な領域の画像情報を所定の割合で混合させる処理等が適用可能である。   A defocus area is extracted from the first image. The defocus area is a band-like area within a predetermined range from the main subject near the boundary between the main subject and the background thereof, that is, around the main subject. When the defocus area is extracted, the second image to be combined input by the control unit 7 and the image of the main subject area are combined, and the defocus area extracted around the main subject area is combined, or A defocus process is performed based on the image information of the defocus area to create a composite image. Here, the defocus processing refers to processing that creates a non-sharp area around the main subject area, that is, a defocus area, in the composite image. As the defocus processing, for example, non-sharpening processing for reducing sharpness, processing for mixing image information of unsharp areas at a predetermined ratio, and the like can be applied.

フィルムスキャンデータ処理部70bは、フィルムスキャナ部9から入力された画像データに対し、フィルムスキャナ部9固有の校正操作、ネガ原稿の場合のネガポジ反転、ゴミキズ除去、グレーバランス調整、コントラスト調整、粒状ノイズ除去、鮮鋭化強調等の各種画像処理を施す者である。また、フィルムに記録された、フィルムサイズ、ネガポジ種別、主要被写体に関わる情報、撮影条件に関する情報(例えばAPSの記載情報内容)等を取得して、画像データとともに画像データ処理部70aに出力する。   The film scan data processing unit 70b performs a calibration operation specific to the film scanner unit 9, negative / positive reversal in the case of a negative document, dust flaw removal, gray balance adjustment, contrast adjustment, and granular noise on the image data input from the film scanner unit 9. A person who performs various image processing such as removal and sharpening enhancement. In addition, the film size, the negative / positive type, the information related to the main subject, the information related to the shooting conditions (for example, the description information content of APS), etc. recorded on the film are acquired and output to the image data processing unit 70a together with the image data.

反射原稿スキャンデータ処理部70cは、反射原稿入力装置10により入力された画像データに対し、反射原稿入力装置10固有の校正操作、ネガ原稿の場合のネガポジ反転、ゴミキズ除去、グレーバランス調整、コントラスト調整、ノイズ除去、鮮鋭化強調等の画像処理を施し、当該画像処理された画像データを画像データ処理部70aに出力する。   The reflection original scan data processing unit 70c performs a calibration operation unique to the reflection original input device 10, negative / positive reversal in the case of a negative original, dust flaw removal, gray balance adjustment, and contrast adjustment for the image data input by the reflection original input device 10. Image processing such as noise removal and sharpening enhancement is performed, and the image data subjected to the image processing is output to the image data processing unit 70a.

画像データ書式解読処理部70dは、画像読込部14又は通信部32により入力された画像データに対し、必要に応じてそのデータ書式に従い圧縮符号の復元・色信号の表現方法の変換等を行い、画像処理部70内の演算に適したデータ形式に変換して画像データ処理部70aに出力する。また、画像データの例えばExif規格に代表されるヘッダ情報、タグ情報等から撮影条件等の撮影情報などが取得された場合には、当該撮影情報とともに画像データを画像データ処理部70aに出力する。   The image data format decoding processing unit 70d performs, for the image data input by the image reading unit 14 or the communication unit 32, decompression of the compression code and conversion of the color signal expression method according to the data format, if necessary. The data is converted into a data format suitable for calculation in the image processing unit 70 and output to the image data processing unit 70a. Further, when shooting information such as shooting conditions is acquired from header information represented by, for example, Exif standard, tag information, or the like of image data, the image data is output to the image data processing unit 70a together with the shooting information.

出力画像の大きさについての指定は操作部11から入力されるが、この他に通信部32を介して出力画像の大きさについての指定情報が受信された場合や、画像読込部14が取得した画像データのヘッダ情報、タグ情報等に出力画像の大きさについての指定情報が含まれる場合には、画像データ書式解読処理部70dが当該指定情報を検出し、画像データ処理部70aへ出力する。   Although the designation about the size of the output image is input from the operation unit 11, the designation information about the size of the output image is received via the communication unit 32, or the image reading unit 14 acquires the designation. When the designation information about the size of the output image is included in the header information and tag information of the image data, the image data format decoding processing unit 70d detects the designation information and outputs it to the image data processing unit 70a.

CRT固有処理部70fは、画像データ処理部70bから受け取った画像データに対して、必要に応じて画素数変更、カラーマッチング、輝度調整等の処理を行い、制御情報等表示が必要な情報と合成した表示用の信号をCRT8に送出する。   The CRT specific processing unit 70f performs processing such as changing the number of pixels, color matching, and brightness adjustment as necessary on the image data received from the image data processing unit 70b, and synthesizes the information with information that needs to be displayed such as control information. The displayed signal is sent to the CRT 8.

プリンタ固有処理部70fは、画像データ処理部70aから入力された画像データに対して、必要に応じてプリンタ固有の校正処理、カラーマッチング、画素数変更等を行って露光用画像データを作成し、露光処理部4に送出する。なお、プリント作成システム1にさらにインクジェットプリンタ等、他の外部プリンタ装置を接続する場合には、接続するプリンタ装置ごとにプリンタ固有処理部70fを設け、各装置特性に応じた適正な校正処理、カラーマッチング、画素数変更等を行うこととする。   The printer-specific processing unit 70f performs exposure processing for the image data input from the image data processing unit 70a as necessary by performing printer-specific calibration processing, color matching, pixel number change, and the like. It is sent to the exposure processing unit 4. When another external printer device such as an ink jet printer is further connected to the print creation system 1, a printer specific processing unit 70f is provided for each connected printer device, and an appropriate calibration process or color corresponding to each device characteristic is provided. Matching, changing the number of pixels, etc. are performed.

画像データ書式作成処理部70hは、画像データ処理部70aから入力された画像データに対して、必要に応じてJPEG、TIFF、Exif等に代表される各種の汎用画像フォーマットへの変換を行い、画像書込部15や通信部32に画像データを出力する。   The image data format creation processing unit 70h converts the image data input from the image data processing unit 70a into various general-purpose image formats typified by JPEG, TIFF, Exif, and the like as necessary. The image data is output to the writing unit 15 and the communication unit 32.

以上のフィルムスキャンデータ処理部70a、反射原稿スキャンデータ処理部70c、画像データ書式解読処理部70d、画像データ処理部70a、CRT固有処理部70f、プリンタ固有処理部70g、画像データ書式作成処理部70hという構成部は、本実施形態の画像処理部70の機能的構成を示すものであり、必ずしも物理的に独立したデバイスとして実現される必要はなく、例えば単一のCPUにおけるソフトウエア処理における処理工程の区分として実現されてもよい。   The film scan data processing unit 70a, the reflection original scan data processing unit 70c, the image data format decoding processing unit 70d, the image data processing unit 70a, the CRT specific processing unit 70f, the printer specific processing unit 70g, and the image data format creation processing unit 70h. The configuration unit indicates a functional configuration of the image processing unit 70 of the present embodiment, and is not necessarily realized as a physically independent device. For example, a processing step in software processing in a single CPU It may be realized as a section of

次に、本実施の形態における動作を説明する。
図4は、プリント作成システム1により実行される画像合成処理を説明するフローチャートである。以下の説明では、第1画像に含まれる主要被写体の画像領域を合成対象領域として抽出し、この主要被写体の画像領域を、第2の画像である背景画像に合成する例を説明する。
Next, the operation in the present embodiment will be described.
FIG. 4 is a flowchart for explaining image composition processing executed by the print creation system 1. In the following description, an example in which the image area of the main subject included in the first image is extracted as the composition target area and the image area of the main subject is combined with the background image that is the second image will be described.

図4に示す画像合成処理では、まず合成対象の第1画像のデータがデータ記憶部71から取得される(ステップS1)。この第1画像は、主要被写体の画像領域(以下、主要被写体領域という)を含む画像である。第1画像が取得されると、当該第1画像から主要被写体の画像領域が抽出される(ステップS2)。この抽出された主要被写体領域は、鮮鋭度の高いエッジ部分により囲まれる領域である。   In the image composition processing shown in FIG. 4, first, data of a first image to be synthesized is acquired from the data storage unit 71 (step S1). The first image is an image including an image area of a main subject (hereinafter referred to as a main subject area). When the first image is acquired, the image area of the main subject is extracted from the first image (step S2). The extracted main subject area is an area surrounded by an edge portion with high sharpness.

次いで、第1画像からデフォーカス領域が抽出される(ステップS3)。デフォーカス領域とは、主要被写体とその背景との境界付近、つまり主要被写体周辺において収容被写体から所定範囲内の帯状の領域をいう。この領域は鮮鋭度が低く、視覚的には主要被写体のエッジ付近がぼやけたように見える。   Next, a defocus area is extracted from the first image (step S3). The defocus area refers to a band-like area within a predetermined range from the accommodated subject in the vicinity of the boundary between the main subject and its background, that is, around the main subject. This area has low sharpness, and visually, the vicinity of the edge of the main subject appears to be blurred.

デフォーカス領域の抽出方法としては、公知公用の手法を適用可能であるが、以下に具体例を示して4つの手法について説明する。
(1)主要被写体領域から所定範囲内の画像領域をデフォーカス領域として抽出する方法。
この方法では、例えば図5に示すように、第1画像a1が取得され、この第1画像a1から主要被写体領域a2が抽出された場合、この主要被写体領域a2のエッジ部分から例えば3画素分等、主要被写体領域a2を取り囲む所定範囲の領域a3がデフォーカス領域として抽出される。
As a method for extracting the defocus area, a publicly known method can be applied, but the following describes four methods with specific examples.
(1) A method of extracting an image area within a predetermined range from a main subject area as a defocus area.
In this method, for example, as shown in FIG. 5, when the first image a1 is acquired and the main subject area a2 is extracted from the first image a1, for example, three pixels from the edge portion of the main subject area a2, etc. A region a3 within a predetermined range surrounding the main subject region a2 is extracted as a defocus region.

(2)規定の抽出条件で抽出された主要被写体領域と、規定の抽出条件を緩和して抽出した許容領域との差分をデフォーカス領域として抽出する方法。
この方法では、例えば図6に示すように、第1画像b1が取得され、この第1画像b1から規定の抽出条件で主要被写体領域b3が抽出された場合、主要被写体領域b3が抽出された規定の抽出条件を緩和した抽出条件により第1画像bから許容領域b2の抽出が行われる。抽出された許容領域b2は、抽出条件が緩和されているため主要被写体領域b3より領域範囲が大きいと推測される。次いで、抽出された共用領域b2と主要被写体領域b3の差分がデフォーカス領域b4として求められる。
(2) A method of extracting a difference between a main subject area extracted under a specified extraction condition and an allowable area extracted by relaxing the specified extraction condition as a defocus area.
In this method, for example, as shown in FIG. 6, when the first image b1 is acquired and the main subject region b3 is extracted from the first image b1 with the specified extraction condition, the specified subject from which the main subject region b3 is extracted. The allowable area b2 is extracted from the first image b under the extraction condition that relaxes the extraction condition. The extracted allowable area b2 is estimated to have a larger area range than the main subject area b3 because the extraction conditions are relaxed. Next, a difference between the extracted shared area b2 and main subject area b3 is obtained as a defocus area b4.

例えば、ラインプロセス法は、隣接する画素間における色差を検出し、この色差が所定範囲を超えていれば異なる色情報を有する不連続な境界部分であると判別し、その不連続部分をつないだ領域を同じ色情報を有する特定領域として検出する手法であるが、例えばラインプロセス法による規定の抽出条件が、隣接する画素間における色差が±5%以内であれば同じ色情報を有する領域として判別するという条件であった場合、この既定条件で主要被写体領域を抽出し、さらに色差が±10%以内であれば同じ色情報を有する領域として判別するというように規定条件を緩和した抽出条件で許容領域を抽出する。   For example, in the line process method, a color difference between adjacent pixels is detected, and if the color difference exceeds a predetermined range, it is determined as a discontinuous boundary portion having different color information, and the discontinuous portion is connected. This is a technique for detecting an area as a specific area having the same color information. For example, if a specified extraction condition by the line process method has a color difference of ± 5% or less between adjacent pixels, it is determined as an area having the same color information. If the condition is, the main subject area is extracted under this default condition, and if the color difference is within ± 10%, it is determined as an area having the same color information. Extract regions.

なお、同一の第1画像に対して、異なる抽出方法を適用して主要被写体領域を抽出し、一方の抽出方法で抽出された領域を第1の主要被写体領域、他方を第2の主要被写体領域とすると、この第1の主要被写体領域と第2の主要被写体領域との差分をデフォーカス領域として求めることとしてもよい。   Note that the main subject region is extracted from the same first image by applying different extraction methods, the region extracted by one of the extraction methods is the first main subject region, and the other is the second main subject region. Then, the difference between the first main subject area and the second main subject area may be obtained as the defocus area.

(3)主要被写体領域の背景領域を抽出し、主要被写体領域周辺で背景領域として抽出されなかった領域をデフォーカス領域として抽出する方法。
この方法では、例えば図7に示すように、第1画像c1が取得され、この第1画像c1から例えばラインプロセス法により主要被写体領域c3が抽出された場合、同様にラインプロセス法により第1画像c1から背景領域c2の抽出が行われる。背景領域、主要被写体領域は、鮮鋭度の高い領域のみが抽出されるので、非鮮鋭でかつ背景領域と主要被写体領域の画像が徐々に混ざり合う、主要被写体領域と背景領域との境界部分の領域は、背景領域、主要被写体領域としては抽出されないことが推測される。従って、第1画像c1から背景領域c2及び主要被写体領域c3を差し引いて得られた領域がデフォーカス領域c4として求められる。
(3) A method of extracting a background region of the main subject region and extracting a region not extracted as a background region around the main subject region as a defocus region.
In this method, for example, as shown in FIG. 7, when the first image c1 is acquired and the main subject region c3 is extracted from the first image c1 by, for example, the line process method, the first image is similarly obtained by the line process method. The background area c2 is extracted from c1. Since only the areas with high sharpness are extracted from the background area and the main subject area, the boundary area between the main subject area and the background area is unsharp and the images of the background area and the main subject area are gradually mixed. Is not extracted as a background area or a main subject area. Accordingly, an area obtained by subtracting the background area c2 and the main subject area c3 from the first image c1 is obtained as the defocus area c4.

(4)オペレータにより指定された領域をデフォーカス領域として抽出する方法。
この方法では、例えば図8に示すように、第1画像d1が取得された場合、この第1画像d1とともに、デフォーカス領域を指定するためのポインタd2がCRT8上に表示される。オペレータにより、マウス12を介してこのポインタd2が操作され、主要被写体領域周辺のデフォーカス領域が指定されると、当該指定された領域がデフォーカス領域として抽出される。なお、全てをオペレータの指定操作にまかせるのではなく、オペレータにより指定された領域情報を補助情報として上記(1)〜(3)に挙げたような方法と組み合わせることとしてもよい。
(4) A method of extracting an area designated by the operator as a defocus area.
In this method, for example, as shown in FIG. 8, when the first image d1 is acquired, a pointer d2 for designating a defocus area is displayed on the CRT 8 together with the first image d1. When the pointer d2 is operated by the operator via the mouse 12 and a defocus area around the main subject area is designated, the designated area is extracted as a defocus area. Instead of leaving everything to the operator's designation operation, the area information designated by the operator may be combined with the methods as described in the above (1) to (3) as auxiliary information.

以上、デフォーカス領域の抽出方法について具体的な例を挙げながら説明したが、その他の抽出方法であってもよく、特に上記手法に限定しない。   The defocus area extraction method has been described above with specific examples. However, other extraction methods may be used, and the method is not particularly limited to the above method.

このようにしてデフォーカス領域が抽出されると、合成対象の第2画像である背景画像のデータがデータ記憶部71から取得される(ステップS4)。次いで、取得された第2画像に主要被写体領域及びデフォーカス領域が合成された合成画像が作成され(ステップS5)、本処理を終了する。   When the defocus area is extracted in this way, data of the background image that is the second image to be combined is acquired from the data storage unit 71 (step S4). Next, a composite image in which the main subject region and the defocus region are combined with the acquired second image is created (step S5), and this process ends.

合成方法としては、公知公用の手法を適用可能であるが、以下に具体例を示して3つの手法を説明する。
(1)主要被写体領域及びデフォーカス領域の画像を第2画像上の指定された位置に配置合成する方法。
この方法では、例えば図9に示すように、第2画像e1が取得され、主要被写体領域e2、デフォーカス領域e3が抽出されている場合、第2画像e1上でオペレータにより主要被写体領域e2の配置位置が指定されると、当該指定された位置に主要被写体領域e2が配置され、その主要被写体領域e2の周辺領域にデフォーカス領域e3が配置され、合成画像e4が作成される。
As a synthesis method, publicly known and publicly available methods can be applied, but three methods will be described below with specific examples.
(1) A method of arranging and synthesizing images of the main subject area and the defocus area at designated positions on the second image.
In this method, for example, as shown in FIG. 9, when the second image e1 is acquired and the main subject area e2 and the defocus area e3 are extracted, the operator arranges the main subject area e2 on the second image e1. When the position is designated, the main subject area e2 is arranged at the designated position, the defocus area e3 is arranged in the peripheral area of the main subject area e2, and the composite image e4 is created.

(2)第2画像においてデフォーカス領域に対応する画像領域を非鮮鋭化(デフォーカス処理)した画像に主要被写体領域の画像を合成する方法。
この方法では、例えば図10に示すように、第2画像f1が取得され、主要被写体領域f2、デフォーカス領域f3が抽出されている場合、まず第2画像f1においてオペレータにより主要被写体領域f2の配置位置が指定されると、当該指定された主要被写体領域f2の位置に応じてデフォーカス領域f3の位置が決定される。次いで、デフォーカス領域f3の位置が決定された第2画像f4において、デフォーカス領域f3の位置に対応する第2画像の画像領域が非鮮鋭化される。次いで、デフォーカス領域f3に対応する領域が非鮮鋭化された背景処理済み画像f5において予め指定された位置に主要被写体領域f2が配置され、合成画像f6が作成される。つまり、デフォーカス領域はそのまま貼り付け合成されるのではなく、その領域情報のみが利用されることとなる。
(2) A method of synthesizing an image of the main subject area with an image obtained by unsharpening (defocusing processing) an image area corresponding to the defocus area in the second image.
In this method, for example, as shown in FIG. 10, when the second image f1 is acquired and the main subject region f2 and the defocus region f3 are extracted, the operator first arranges the main subject region f2 in the second image f1. When the position is designated, the position of the defocus area f3 is determined according to the position of the designated main subject area f2. Next, in the second image f4 in which the position of the defocus area f3 is determined, the image area of the second image corresponding to the position of the defocus area f3 is unsharpened. Next, the main subject area f2 is arranged at a position designated in advance in the background processed image f5 in which the area corresponding to the defocus area f3 is unsharpened, and a composite image f6 is created. That is, the defocus area is not pasted and synthesized as it is, but only the area information is used.

なお、上記(2)の合成方法において、第1画像から抽出されたデフォーカス領域の周波数特性を求め、このデフォーカス領域の周波数特性と同じ周波数特性となるように、第2画像におけるデフォーカス領域に対応する画像領域を非鮮鋭化することとしてもよい。   In the synthesis method of (2) above, the frequency characteristic of the defocus area extracted from the first image is obtained, and the defocus area in the second image is set to have the same frequency characteristic as the frequency characteristic of the defocus area It is also possible to unsharp the image area corresponding to.

(3)第2画像においてデフォーカス領域に対応する画像領域において、第2画像とデフォーカス領域の画像を所定の割合で混合し(デフォーカス処理)、その画像に主要被写体領域画像を合成する方法。
この方法では、図11に示すように、まず第2画像g1においてオペレータにより主要被写体領域g2の配置位置が指定されると、当該指定された主要被写体領域g2の位置に応じてデフォーカス領域g3の位置が決定される。次いで、デフォーカス領域g3の位置が決定された第2画像g4において、デフォーカス領域g3の位置に対応する第2画像の画像領域の画素情報(RGB情報)と、デフォーカス領域g3の画素情報とが1:1で混合された、つまり平均が求められ、その平均値がデフォーカス領域g3に対応する第2画像の画像領域に設定される。次いで、画素情報が1:1の割合で混合された背景処理済み画像g4において予め指定された位置に主要被写体領域g2が配置され、合成画像g5が作成される。
(3) A method of mixing the second image and the image of the defocus area at a predetermined ratio in the image area corresponding to the defocus area in the second image (defocus processing), and synthesizing the main subject area image with the image .
In this method, as shown in FIG. 11, first, when the arrangement position of the main subject region g2 is designated by the operator in the second image g1, the defocus region g3 is changed according to the designated position of the main subject region g2. The position is determined. Next, in the second image g4 in which the position of the defocus area g3 is determined, the pixel information (RGB information) of the image area of the second image corresponding to the position of the defocus area g3, the pixel information of the defocus area g3, Are mixed by 1: 1, that is, an average is obtained, and the average value is set in the image area of the second image corresponding to the defocus area g3. Next, the main subject region g2 is arranged at a position designated in advance in the background processed image g4 in which the pixel information is mixed at a ratio of 1: 1, and a composite image g5 is created.

なお、ここでは1:1の混合比で第2画像とデフォーカス領域画像の画素情報が混合された例を説明したが、混合比はこれに限定しない。また、画素情報を混合するのではなく、第2画像とデフォーカス領域画像の画素を所定の割合で混在させることとしてもよい。   In addition, although the example in which the pixel information of the second image and the defocus area image is mixed at a 1: 1 mixing ratio has been described here, the mixing ratio is not limited to this. Further, instead of mixing pixel information, the pixels of the second image and the defocus area image may be mixed at a predetermined ratio.

以上、合成方法について具体的な例を挙げながら説明したが、その他の合成方法であってもよく、特に上記手法に限定しない。   While the synthesis method has been described with specific examples, other synthesis methods may be used, and the method is not particularly limited to the above method.

作成された合成画像のデータはデータ記憶部71に記憶され、指示に応じて合成画像のプリント作成、或いは記録メディアへのデータ書込等が行われる。   The generated composite image data is stored in the data storage unit 71, and prints of the composite image, data writing to a recording medium, or the like is performed in accordance with an instruction.

以上のように、本実施形態では、第1画像と第2画像とを用いて合成画像を作成する際に、第1画像から合成対象の主要被写体領域を抽出するとともに、その主要被写体領域周辺のデフォーカス領域をも抽出し、このデフォーカス領域の情報を利用して主要被写体領域画像と第2画像との合成画像を作成するので、焦点が合った鮮鋭度の高い主要被写体領域画像の周辺に非鮮鋭な領域を作ることができ、第1画像が有するぼけ感を移植することができる。   As described above, in the present embodiment, when creating a composite image using the first image and the second image, the main subject area to be synthesized is extracted from the first image, and the area around the main subject area is extracted. A defocus area is also extracted, and a composite image of the main subject area image and the second image is created using the information on the defocus area, so that the focus is on the periphery of the main subject area image with high sharpness. Unsharp areas can be created and the blurring feeling of the first image can be transplanted.

従って、合成画像において主要被写体領域とその背景画像との境界の連続性を保つことができ、自然な印象の合成画像を作成することができる。また、背景画像を必要以上に非鮮鋭化することがないので、合成する原画像の画質を保持することができる。   Therefore, the continuity of the boundary between the main subject region and the background image can be maintained in the composite image, and a composite image with a natural impression can be created. In addition, since the background image is not unsharpened more than necessary, the image quality of the original image to be synthesized can be maintained.

なお、本実施形態における記述内容は、本発明を適用したプリント作成システムの好適な一例であり、これに限定されるものではない。   Note that the description in this embodiment is a preferred example of a print creation system to which the present invention is applied, and is not limited to this.

例えば、上述した例では、主要被写体の画像と背景画像とを合成する例を説明したが、合成対象領域の画像は特に限定せず、例えば主要被写体の画像と主要被写体の画像を合成することとしてもよいし、画像中の構成物と背景画像とを合成することとしてもよい。   For example, in the above-described example, the example in which the image of the main subject and the background image are combined has been described. However, the image of the region to be combined is not particularly limited. For example, the image of the main subject and the image of the main subject are combined. Alternatively, the component in the image and the background image may be synthesized.

その他、本実施形態におけるプリント作成システムの細部構成及び細部動作に関しても、本発明の趣旨を逸脱することのない範囲で適宜変更可能である。   In addition, the detailed configuration and detailed operation of the print creation system in the present embodiment can be changed as appropriate without departing from the spirit of the present invention.

本実施の形態におけるプリント作成システム1外観図である。1 is an external view of a print creation system 1 in the present embodiment. プリント作成システム1の機能的構成を示す図である。1 is a diagram illustrating a functional configuration of a print creation system 1. FIG. 画像処理部70の機能的構成を示す図である。2 is a diagram illustrating a functional configuration of an image processing unit 70. FIG. プリント作成システムにより実行される画像合成処理を説明するフローチャートである。6 is a flowchart illustrating image composition processing executed by the print creation system. デフォーカス領域の抽出方法の一例を示す図である。It is a figure which shows an example of the extraction method of a defocus area | region. デフォーカス領域の抽出方法の一例を示す図である。It is a figure which shows an example of the extraction method of a defocus area | region. デフォーカス領域の抽出方法の一例を示す図である。It is a figure which shows an example of the extraction method of a defocus area | region. デフォーカス領域の抽出方法の一例を示す図である。It is a figure which shows an example of the extraction method of a defocus area | region. 合成方法の一例を示す図である。It is a figure which shows an example of the synthetic | combination method. 合成方法の一例を示す図である。It is a figure which shows an example of the synthetic | combination method. 合成方法の一例を示す図である。It is a figure which shows an example of the synthetic | combination method.

符号の説明Explanation of symbols

1 プリント作成システム
2 本体部
4 露光処理部
5 プリント作成部
7 制御部
70 画像処理部
71 データ記憶部
70a 画像データ処理部
8 CRT
9 フィルムスキャナ部
10 反射原稿入力装置
11 操作部
12 マウス
14 画像読込部
15 画像書込部
32 通信部
DESCRIPTION OF SYMBOLS 1 Print production system 2 Main body part 4 Exposure processing part 5 Print production part 7 Control part 70 Image processing part 71 Data storage part 70a Image data processing part 8 CRT
DESCRIPTION OF SYMBOLS 9 Film scanner part 10 Reflective original input device 11 Operation part 12 Mouse 14 Image reading part 15 Image writing part 32 Communication part

Claims (27)

合成対象の第1画像及び第2画像を取得する画像取得手段と、
前記取得された第1画像から合成対象領域を抽出する合成対象領域抽出手段と、
前記抽出された合成対象領域に係るデフォーカス領域を前記第1画像から抽出するデフォーカス領域抽出手段と、
前記抽出された合成対象領域、デフォーカス領域及び前記取得された第2画像を用いて合成画像を作成する合成処理手段と、
を備えることを特徴とする画像処理装置。
Image acquisition means for acquiring a first image and a second image to be combined;
A synthesis target area extracting means for extracting a synthesis target area from the acquired first image;
Defocus area extracting means for extracting a defocus area related to the extracted synthesis target area from the first image;
Combining processing means for generating a combined image using the extracted combining target region, the defocused region, and the acquired second image;
An image processing apparatus comprising:
前記デフォーカス領域抽出手段は、前記合成対象領域抽出手段により抽出された合成対象領域の周辺において、合成対象領域のエッジ部分から所定範囲内の画像領域をデフォーカス領域として抽出することを特徴とする請求項1に記載の画像処理装置。   The defocus area extracting unit extracts, as a defocus area, an image area within a predetermined range from an edge portion of the synthesis target area around the synthesis target area extracted by the synthesis target area extraction unit. The image processing apparatus according to claim 1. 前記デフォーカス領域抽出手段は、前記合成対象領域抽出手段により規定の抽出条件で抽出された合成対象領域と、規定の抽出条件を緩和した抽出条件により前記第1画像から抽出された許容領域との差分をデフォーカス領域として抽出することを特徴とする請求項1に記載の画像処理装置。   The defocus area extraction means includes a composition target area extracted by the composition target area extraction means under a prescribed extraction condition, and an allowable area extracted from the first image by an extraction condition that relaxes the prescribed extraction condition. The image processing apparatus according to claim 1, wherein the difference is extracted as a defocus area. 前記デフォーカス領域抽出手段は、前記第1画像から合成対象領域の背景領域を抽出し、当該背景領域及び前記合成対象領域を前記第1画像領域から差し引いて得られる画像領域をデフォーカス領域として抽出することを特徴とする請求項1に記載の画像処理装置。   The defocus area extraction unit extracts a background area of a synthesis target area from the first image, and extracts an image area obtained by subtracting the background area and the synthesis target area from the first image area as a defocus area. The image processing apparatus according to claim 1, wherein: 前記第1画像において画像領域を指定するための操作手段を備え、
前記デフォーカス領域抽出手段は、前記操作手段を介して指定された画像領域をデフォーカス領域として抽出することを特徴とする請求項1に記載の画像処理装置。
An operation means for designating an image area in the first image;
The image processing apparatus according to claim 1, wherein the defocus area extracting unit extracts an image area designated through the operation unit as a defocus area.
前記合成処理手段は、前記第2画像上で指定された位置に前記合成対象領域及び前記デフォーカス領域の画像を配置した合成画像を作成することを特徴とする請求項1〜5の何れか一項に記載の画像処理装置。   6. The composition processing unit according to claim 1, wherein the composition processing unit creates a composite image in which images of the composition target area and the defocus area are arranged at positions designated on the second image. The image processing apparatus according to item. 前記合成処理手段は、第2画像上で位置が指定されたデフォーカス領域画像に対応する第2画像領域にデフォーカス処理を施し、当該デフォーカス処理された領域により囲まれる第2画像領域に前記合成対象領域画像を配置して合成画像を作成することを特徴とする請求項1〜5の何れか一項に記載の画像処理装置。   The synthesis processing means performs a defocus process on a second image area corresponding to a defocus area image whose position is specified on the second image, and the second image area surrounded by the defocused area is subjected to the defocus process. The image processing apparatus according to claim 1, wherein a composite image is created by arranging composite region images. 前記デフォーカス処理は、非鮮鋭化処理であり、
前記合成処理手段は、前記デフォーカス領域の周波数特性を算出し、当該算出されたデフォーカス領域における周波数特性に応じて、非鮮鋭化処理による非鮮鋭化の程度を決定することを特徴とする請求項7に記載の画像処理装置。
The defocus processing is unsharpening processing,
The synthesis processing unit calculates a frequency characteristic of the defocus area, and determines a degree of unsharpening by the unsharpening process according to the calculated frequency characteristic in the defocus area. Item 8. The image processing device according to Item 7.
前記デフォーカス処理は、前記第2画像と前記デフォーカス領域画像を所定の割合で混合する処理であることを特徴とする請求項7に記載の画像処理装置。   The image processing apparatus according to claim 7, wherein the defocus process is a process of mixing the second image and the defocus area image at a predetermined ratio. 合成対象の第1画像及び第2画像を取得する画像取得工程と、
前記取得された第1画像から合成対象領域を抽出する合成対象領域抽出工程と、
前記抽出された合成対象領域に係るデフォーカス領域を前記第1画像から抽出するデフォーカス領域抽出工程と、
前記抽出された合成対象領域、デフォーカス領域及び前記取得された第2画像を用いて合成画像を作成する合成処理工程と、
を含むことを特徴とする画像処理方法。
An image acquisition step of acquiring a first image and a second image to be combined;
A synthesis target area extracting step of extracting a synthesis target area from the acquired first image;
A defocus area extracting step of extracting a defocus area related to the extracted synthesis target area from the first image;
A synthesis processing step of creating a synthesized image using the extracted synthesis target area, the defocus area, and the acquired second image;
An image processing method comprising:
前記デフォーカス領域抽出工程では、前記合成対象領域抽出工程で抽出された合成対象領域の周辺において、合成対象領域のエッジ部分から所定範囲内の画像領域をデフォーカス領域として抽出することを特徴とする請求項10に記載の画像処理方法。   In the defocus area extraction step, an image area within a predetermined range is extracted as a defocus area from an edge portion of the synthesis target area around the synthesis target area extracted in the synthesis target area extraction step. The image processing method according to claim 10. 前記デフォーカス領域抽出工程では、前記合成対象領域抽出工程において規定の抽出条件で抽出された合成対象領域と、規定の抽出条件を緩和した抽出条件により前記第1画像から抽出された許容領域との差分をデフォーカス領域として抽出することを特徴とする請求項10に記載の画像処理方法。   In the defocus area extraction step, a synthesis target area extracted under a specified extraction condition in the synthesis target area extraction step and an allowable area extracted from the first image under an extraction condition that relaxes the specified extraction condition The image processing method according to claim 10, wherein the difference is extracted as a defocus area. 前記デフォーカス領域抽出工程では、前記第1画像から合成対象領域の背景領域を抽出し、当該背景領域及び前記合成対象領域を前記第1画像領域から差し引いて得られる画像領域をデフォーカス領域として抽出することを特徴とする請求項10に記載の画像処理方法。   In the defocus area extraction step, a background area of a synthesis target area is extracted from the first image, and an image area obtained by subtracting the background area and the synthesis target area from the first image area is extracted as a defocus area. The image processing method according to claim 10. 前記デフォーカス領域抽出工程では、操作手段を介して指定された画像領域をデフォーカス領域として抽出することを特徴とする請求項10に記載の画像処理方法。   The image processing method according to claim 10, wherein, in the defocus area extraction step, an image area designated via an operation unit is extracted as a defocus area. 前記合成処理工程では、前記第2画像上で指定された位置に前記合成対象領域及び前記デフォーカス領域の画像を配置した合成画像を作成することを特徴とする請求項10〜14の何れか一項に記載の画像処理方法。   15. The composition process according to claim 10, wherein the composition processing step creates a composite image in which the image of the composition target area and the defocus area is arranged at a position designated on the second image. The image processing method according to item. 前記合成処理工程では、第2画像上で位置が指定されたデフォーカス領域画像に対応する第2画像領域にデフォーカス処理を施し、当該デフォーカス処理された領域により囲まれる第2画像領域に前記合成対象領域画像を配置して合成画像を作成することを特徴とする請求項10〜14の何れか一項に記載の画像処理方法。   In the composition processing step, a defocus process is performed on the second image area corresponding to the defocus area image whose position is specified on the second image, and the second image area surrounded by the defocused area is The image processing method according to claim 10, wherein a composite image is created by arranging composite region images. 前記デフォーカス処理は、非鮮鋭化処理であり、
前記合成処理工程では、前記デフォーカス領域の周波数特性を算出し、当該算出されたデフォーカス領域における周波数特性に応じて、非鮮鋭化処理による非鮮鋭化の程度を決定することを特徴とする請求項16に記載の画像処理方法。
The defocus processing is unsharpening processing,
In the synthesis processing step, a frequency characteristic of the defocus area is calculated, and a degree of unsharpening by the unsharpening process is determined according to the calculated frequency characteristic in the defocus area. Item 17. The image processing method according to Item 16.
前記デフォーカス処理は、前記第2画像と前記デフォーカス領域画像を所定の割合で混合する処理であることを特徴とする請求項16に記載の画像処理方法。   The image processing method according to claim 16, wherein the defocusing process is a process of mixing the second image and the defocused area image at a predetermined ratio. コンピュータに、
合成対象の第1画像及び第2画像を取得させる画像取得機能と、
前記取得された第1画像から合成対象領域を抽出する合成対象領域抽出機能と、
前記抽出された合成対象領域に係るデフォーカス領域を前記第1画像から抽出するデフォーカス領域抽出機能と、
前記抽出された合成対象領域、デフォーカス領域及び前記取得された第2画像を用いて合成画像を作成する合成処理機能と、
を実現させるための画像処理プログラム。
On the computer,
An image acquisition function for acquiring a first image and a second image to be combined;
A synthesis target area extraction function for extracting a synthesis target area from the acquired first image;
A defocus area extraction function for extracting a defocus area related to the extracted synthesis target area from the first image;
A composition processing function for creating a composite image using the extracted composition target region, the defocus region, and the acquired second image;
An image processing program for realizing
前記デフォーカス領域抽出機能は、前記合成対象領域抽出機能により抽出された合成対象領域の周辺において、合成対象領域のエッジ部分から所定範囲内の画像領域をデフォーカス領域として抽出することを特徴とする請求項19に記載の画像処理プログラム。   The defocus area extraction function extracts an image area within a predetermined range from an edge portion of the synthesis target area as a defocus area around the synthesis target area extracted by the synthesis target area extraction function. The image processing program according to claim 19. 前記デフォーカス領域抽出機能は、前記合成対象領域抽出機能により規定の抽出条件で抽出された合成対象領域と、規定の抽出条件を緩和した抽出条件により前記第1画像から抽出された許容領域との差分をデフォーカス領域として抽出することを特徴とする請求項19に記載の画像処理プログラム。   The defocus area extraction function includes: a synthesis target area extracted under a specified extraction condition by the synthesis target area extraction function; and an allowable area extracted from the first image according to an extraction condition that relaxes the specified extraction condition. The image processing program according to claim 19, wherein the difference is extracted as a defocus area. 前記デフォーカス領域抽出機能は、前記第1画像から合成対象領域の背景領域を抽出し、当該背景領域及び前記合成対象領域を前記第1画像領域から差し引いて得られる画像領域をデフォーカス領域として抽出することを特徴とする請求項19に記載の画像処理プログラム。   The defocus area extraction function extracts a background area of a synthesis target area from the first image, and extracts an image area obtained by subtracting the background area and the synthesis target area from the first image area as a defocus area. The image processing program according to claim 19, wherein: 前記デフォーカス領域抽出機能は、操作手段を介して指定された画像領域をデフォーカス領域として抽出することを特徴とする請求項19に記載の画像処理プログラム。   The image processing program according to claim 19, wherein the defocus area extraction function extracts an image area designated via an operation unit as a defocus area. 前記合成処理機能は、前記第2画像上で指定された位置に前記合成対象領域及び前記デフォーカス領域の画像を配置した合成画像を作成することを特徴とする請求項19〜23の何れか一項に記載の画像処理プログラム。   The composite processing function creates a composite image in which images of the composition target region and the defocus region are arranged at positions designated on the second image. The image processing program according to item. 前記合成処理機能は、第2画像上で位置が指定されたデフォーカス領域画像に対応する第2画像領域にデフォーカス処理を施し、当該デフォーカス処理された領域により囲まれる第2画像領域に前記合成対象領域画像を配置して合成画像を作成することを特徴とする請求項19〜23の何れか一項に記載の画像処理プログラム。   The composition processing function performs a defocus process on a second image area corresponding to a defocus area image whose position is specified on a second image, and applies the defocus process to the second image area surrounded by the defocused area. The image processing program according to any one of claims 19 to 23, wherein a composition target region image is arranged to create a composite image. 前記デフォーカス処理は、非鮮鋭化処理であり、
前記合成処理機能は、前記デフォーカス領域の周波数特性を算出し、当該算出されたデフォーカス領域における周波数特性に応じて、非鮮鋭化処理による非鮮鋭化の程度を決定することを特徴とする請求項25に記載の画像処理プログラム。
The defocus processing is unsharpening processing,
The composition processing function calculates a frequency characteristic of the defocus area, and determines a degree of unsharpening by the unsharpening process according to the calculated frequency characteristic in the defocus area. Item 26. The image processing program according to Item 25.
前記デフォーカス処理は、前記第2画像と前記デフォーカス領域画像を所定の割合で混合する処理であることを特徴とする請求項25に記載の画像処理プログラム。   The image processing program according to claim 25, wherein the defocusing process is a process of mixing the second image and the defocused area image at a predetermined ratio.
JP2004036773A 2004-02-13 2004-02-13 Image processing device, method, and program Pending JP2005228104A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004036773A JP2005228104A (en) 2004-02-13 2004-02-13 Image processing device, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004036773A JP2005228104A (en) 2004-02-13 2004-02-13 Image processing device, method, and program

Publications (1)

Publication Number Publication Date
JP2005228104A true JP2005228104A (en) 2005-08-25

Family

ID=35002771

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004036773A Pending JP2005228104A (en) 2004-02-13 2004-02-13 Image processing device, method, and program

Country Status (1)

Country Link
JP (1) JP2005228104A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013070274A (en) * 2011-09-22 2013-04-18 Sharp Corp Image processing device, image processing method, image processing program, and imaging device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013070274A (en) * 2011-09-22 2013-04-18 Sharp Corp Image processing device, image processing method, image processing program, and imaging device

Similar Documents

Publication Publication Date Title
US20040247175A1 (en) Image processing method, image capturing apparatus, image processing apparatus and image recording apparatus
US20070103731A1 (en) Method and system for generating contone encoded binary print data streams
JP5014284B2 (en) Image processing apparatus, image processing method, and program
JP2005190435A (en) Image processing method, image processing apparatus and image recording apparatus
JP2009296439A (en) Image compositing method and image compositing apparatus
WO2006123492A1 (en) Image processing method, image processing device, imaging device and image processing program
US20040041920A1 (en) Image forming method, image processing apparatus, and image recording apparatus
JPH11261797A (en) Image processing method
WO2005112428A1 (en) Image processing method, image processing device, image recorder, and image processing program
JP2004096505A (en) Image processing method, image processing apparatus, image recording apparatus, program, and recording medium
JP2006318255A (en) Image processing method, image processor and image processing program
JP2005192162A (en) Image processing method, image processing apparatus, and image recording apparatus
US20040036892A1 (en) Image processing method, image processing apparatus, image recording apparatus and recording medium
JP2005228104A (en) Image processing device, method, and program
JP2004096508A (en) Image processing method, image processing apparatus, image recording apparatus, program, and recording medium
JP2006203573A (en) Imaging apparatus, image processor, and image recording apparatus
JP4228579B2 (en) Image processing method and image processing apparatus
US7613340B2 (en) Image processing method, image processor, and program for causing a computer to execute the processing method
JP2001346043A (en) Image processor and image processing method
JP2004242066A (en) Image recorder, image recording method and image processing program
JP2005209012A (en) Image processing method, apparatus and program
JP2005332054A (en) Image processing method, image processor, image recording device and image processing program
JP2006261881A (en) Image-forming apparatus and image-forming method
JP2024049159A (en) IMAGE PROCESSING METHOD, IMAGE PROCESSING APPARATUS, PRINTING METHOD, AND PRINT OUTPUT SYSTEM
JP2006092137A (en) Image processing method, image processor, imaging device and image processing program