JPH07274067A - Human body picture background synthesis device - Google Patents

Human body picture background synthesis device

Info

Publication number
JPH07274067A
JPH07274067A JP6064006A JP6400694A JPH07274067A JP H07274067 A JPH07274067 A JP H07274067A JP 6064006 A JP6064006 A JP 6064006A JP 6400694 A JP6400694 A JP 6400694A JP H07274067 A JPH07274067 A JP H07274067A
Authority
JP
Japan
Prior art keywords
background
image
person
input
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6064006A
Other languages
Japanese (ja)
Inventor
Midori Goto
みどり 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP6064006A priority Critical patent/JPH07274067A/en
Publication of JPH07274067A publication Critical patent/JPH07274067A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Circuits (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PURPOSE:To provide a human body picture background synthesis device capable of performing background synthesis using the human body picture of an optional background, eliminating a patchy unnatural feeling and performing the natural background synthesis. CONSTITUTION:A scanner 1 inputs the human body pictures and background pictures to be synthesized, a contour extraction part 12 extracts the contour information of a human body from the inputted human body pictures and an area division part 13 divides the inputted human body pictures into three areas of the human body, the background and a boundary based on the extracted contour information of the human body. A background synthesis part 14, by successively scanning pictures obtained as the result of dividing the areas from an upper left end, outputs the inputted human body pictures when the pertinent picture element is in a human body area, outputs the inputted background pictures in the case of a background area, synthesizes the inputted human body pictures and background pictures based on the density values of the respective picture elements inside the boundary area in the case of the boundary area and outputs the synthesized result. A controller 6 outputs the synthesized result for which the output results of the three areas of the human body, the background and the boundary obtained by the background synthesis are added in a printer 4.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、たとえば、別々の場所
で撮影した人物画像と背景を画像処理的に合成し、その
人物画像をあたかもその背景の前で撮影したように見せ
る人物画像背景合成装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates, for example, to a person image background composition in which a person image and a background photographed at different places are combined by image processing and the person image is displayed as if it was photographed in front of the background. Regarding the device.

【0002】[0002]

【従来の技術】別々の場所で撮影した物体と背景を画像
処理的に合成し、その物体をあたかもその背景の前で撮
影したように見せる背景合成技術は、クロマキーと呼ば
れる技術が一般的であり、テレビジョンや映画の特殊技
法として用いられている。
2. Description of the Related Art A background keying technique for synthesizing an object and a background photographed at different places by image processing and displaying the object as if it was photographed in front of the background is generally called a chroma key technique. , Is used as a special technique in television and movies.

【0003】クロマキー技術を用いるときには、1台の
テレビカメラでクロマキーバックと呼ばれる均一な青色
の背景の前で被写体を撮影し、もう1台のテレビカメラ
で背景となるシーンを撮影する。そして、被写体の写っ
ている映像の青色の部分には合成する背景を、それ以外
の部分には背景に嵌め込む被写体の映像を出力すること
によって、背景と被写体とを合成する。
When using the chroma key technology, one TV camera shoots a subject in front of a uniform blue background called a chroma key back, and another TV camera shoots a background scene. Then, the background and the subject are synthesized by outputting the background to be synthesized in the blue portion of the image in which the subject is captured and outputting the image of the subject to be fitted into the background in the other portions.

【0004】[0004]

【発明が解決しようとする課題】一般的なクロマキー技
術の場合、背景の除去を行ない、人物領域の特定をする
ためには、撮影を行なう背景の色が画像全体で均一であ
り、また、照明による背景に色むらのないことが必要で
ある。したがって、特定の背景と良好な条件での撮影が
要求されるのが現状であり、一般的な状況下で撮影され
た画像への対応は難しい。
In the case of general chroma key technology, in order to remove the background and identify the human area, the background color to be photographed is uniform over the entire image, and the illumination is lit. It is necessary for the background to have uniform color. Therefore, under the present circumstances, it is difficult to deal with images taken under general conditions, because it is required to take images under a specific background and favorable conditions.

【0005】また、クロマキーバックの前で撮影した画
像から背景除去を行なうためには、背景の色成分と同じ
成分を持つ領域を抽出して画像を背景と被写体とに分割
し、背景領域に新しい背景を嵌め込むことによって合成
を行なう。この切り貼り的な処理は、直線部分の輪郭が
多かったり、輪郭線がはっきりしている物体には効果的
だが、人物のように輪郭のはっきりしない部分(髪と背
景との境界など)を多く含む物体の場合には、それらの
部分が鋏で切り抜いたような不自然な合成結果になると
いう欠点がある。
Further, in order to remove the background from the image photographed in front of the chroma keyback, an area having the same component as the background color component is extracted, the image is divided into a background and a subject, and a new background area is created. Synthesis is performed by embedding the background. This cut-and-paste process is effective for objects that have many straight line contours or whose contours are clear, but include many areas where the contours are not clear (such as the boundary between the hair and the background) like humans. In the case of an object, there is a drawback in that those parts result in an unnatural composite result as if they were cut out with scissors.

【0006】そこで、本発明は、任意の背景の人物画像
を用いた背景合成が行なえ、しかも、切り貼り的な違和
感がなくなり、自然な背景合成が行なえる人物画像背景
合成装置を提供することを目的とする。
Therefore, an object of the present invention is to provide a person image background synthesizing apparatus which can perform background synthesizing using a person image of an arbitrary background, and can eliminate natural feeling of cut and paste and perform natural background synthesizing. And

【0007】[0007]

【課題を解決するための手段】本発明の人物画像背景合
成装置は、人物画像および合成する背景画像をそれぞれ
入力する画像入力手段と、この画像入力手段で入力され
た人物画像から人物の輪郭情報を抽出する輪郭抽出手段
と、この輪郭抽出手段で抽出された人物の輪郭情報に基
づき、前記入力された人物画像を人物、背景、境界の3
領域に分割する領域分割手段と、この領域分割手段で領
域分割した結果得られる画像を一端から順次走査するこ
とにより、該当画素が人物領域の場合は前記入力された
人物画像を出力し、背景領域の場合は前記入力された背
景画像を出力し、境界領域の場合はその境界領域内の各
画素の濃淡値に基づき前記入力された人物画像と背景画
像とを合成して、その合成結果を出力する合成手段と、
この合成手段によって求めた人物、背景、境界の3領域
の出力結果を加算した合成結果を出力する出力手段とを
具備している。
A person image background synthesizing apparatus according to the present invention includes image input means for inputting a person image and a background image to be synthesized, and person outline information from the person image input by the image input means. Based on the contour information of the person extracted by the contour extracting means and the contour information of the person extracted by the contour extracting means.
When the corresponding pixel is a human region, the input human image is output by sequentially scanning the image obtained as a result of the region division by the region dividing unit and the region dividing unit, and the background region In the case of, the input background image is output, and in the case of a boundary area, the input person image and the background image are combined based on the gray value of each pixel in the boundary area, and the combined result is output. Synthesizing means,
The output means outputs the combined result obtained by adding the output results of the three areas of the person, the background, and the boundary obtained by the combining means.

【0008】また、本発明の人物画像背景合成装置は、
人物画像および合成する背景画像をそれぞれ入力する画
像入力手段と、この画像入力手段で入力された人物画像
から人物の輪郭情報を抽出する輪郭抽出手段と、この輪
郭抽出手段で抽出された人物の輪郭情報に基づき、前記
入力された人物画像を人物、背景、境界の3領域に分割
する領域分割手段と、この領域分割手段で領域分割した
結果得られる画像を一端から順次走査することにより、
該当画素が人物領域の場合は前記入力された人物画像を
出力し、背景領域の場合は前記入力された背景画像を出
力し、境界領域の場合はその境界領域内の各画素の背景
からの距離に基づき前記入力された人物画像と背景画像
とを合成して、その合成結果を出力する合成手段と、こ
の合成手段によって求めた人物、背景、境界の3領域の
出力結果を加算した合成結果を出力する出力手段とを具
備している。
The person image background synthesizing apparatus of the present invention is
Image input means for inputting a person image and a background image to be combined, contour extraction means for extracting contour information of a person from the person image input by the image input means, and contour of the person extracted by the contour extraction means Based on the information, by dividing the input person image into three areas of a person, a background and a boundary, and an image obtained as a result of the area division by the area dividing means, sequentially scanning from one end,
If the corresponding pixel is a person area, the input person image is output, if it is a background area, the input background image is output, and in the case of a boundary area, the distance of each pixel in the boundary area from the background Based on the above, the input person image and the background image are combined, and the combining result for outputting the combined result and the combined result obtained by adding the output results of the three areas of the person, the background and the boundary obtained by this combining means are obtained. And output means for outputting.

【0009】さらに、本発明の人物画像背景合成装置
は、人物画像および合成する背景画像をそれぞれ入力す
る画像入力手段と、この画像入力手段で入力された人物
画像から人物の輪郭情報を抽出する輪郭抽出手段と、こ
の輪郭抽出手段で抽出された人物の輪郭情報に基づき、
前記入力された人物画像を人物、背景、境界の3領域に
分割する領域分割手段と、この領域分割手段で領域分割
した結果得られる画像を一端から順次走査することによ
り、該当画素が人物領域の場合は前記入力された人物画
像を出力し、背景領域の場合は前記入力された背景画像
を出力し、境界領域の場合は、その境界領域内の各画素
の濃淡値に基づき前記入力された人物画像と背景画像と
を合成して、その合成結果を出力する第1の合成処理を
行ない、さらに、境界領域の場合は、その境界領域内の
各画素の背景からの距離に基づき前記入力された人物画
像と前記第1の合成処理の処理結果とを合成して、その
合成結果を出力する第2の合成処理を行なう合成手段
と、この合成手段によって求めた人物、背景、境界の3
領域の出力結果を加算した合成結果を出力する出力手段
とを具備している。
Further, the person image background synthesizing apparatus of the present invention includes image input means for inputting a person image and a background image to be synthesized, and a contour for extracting contour information of a person from the person image input by the image input means. Based on the extraction means and the contour information of the person extracted by the contour extraction means,
A region dividing unit that divides the input person image into three regions of a person, a background, and a boundary, and an image obtained as a result of the region division by the region dividing unit are sequentially scanned from one end, so that the corresponding pixel is a person region. In the case of a background area, the input background image is output, and in the case of a boundary area, the input person image is output based on the gray value of each pixel in the boundary area. A first combining process of combining the image and the background image and outputting the combined result is performed. Further, in the case of a boundary area, the input is performed based on the distance from the background of each pixel in the boundary area. A synthesizing unit for synthesizing the person image and the processing result of the first synthesizing process and performing a second synthesizing process for outputting the synthesizing result, and a person, background, and boundary 3 obtained by this synthesizing unit.
And an output unit that outputs a combined result obtained by adding the output results of the regions.

【0010】[0010]

【作用】本発明によれば、一般的な状況において撮影さ
れたカラーまたはモノクロの人物静止画像を処理するこ
とができ、切り貼り的な閾値処理による境界部分におけ
る違和感が発生しない背景合成が可能となる。しかも、
画像処理では、人物画像を人物、背景、境界の3領域に
分割し、それぞれの領域において別々の処理方法で出力
値を決定する。特に、境界部分においては、濃淡情報と
距離情報を用いて入力画像における人物と背景との濃度
値の関係をできるだけ保つ処理を行なうために、切り貼
り的な違和感がなくなり、自然な背景合成結果を出力す
ることができる。
According to the present invention, it is possible to process a color or monochrome still image of a person photographed in a general situation, and it is possible to perform background composition without causing a sense of discomfort at the boundary portion due to cut-and-paste threshold processing. . Moreover,
In image processing, a person image is divided into three areas of a person, a background, and a boundary, and output values are determined by different processing methods in each area. Especially, in the boundary part, since the process of keeping the relationship of the density value between the person and the background in the input image as much as possible is performed by using the grayscale information and the distance information, there is no sense of cut and paste and the natural background composition result is output. can do.

【0011】[0011]

【実施例】本実施例では、一例として証明写真の背景合
成について説明する。現在では、たとえば、キャッシュ
カードやクレジットカードを初めとする多くのカードが
発行されており、これらのカードには登録番号や名義、
暗証番号などの文字情報が記録されているが、さらに、
個人を特定し易くするために、顔写真を貼ったカードも
多く使われている。
[Embodiment] In this embodiment, as an example, background composition of an ID photograph will be described. Currently, many cards such as cash cards and credit cards are issued, and these cards have registration numbers, names,
Although character information such as a personal identification number is recorded,
Many cards with facial photographs are also used to make it easier to identify individuals.

【0012】さて、これらの証明写真の撮影手段として
は、特定の背景の前で撮影したり、証明写真用の自動撮
影機を利用したり、自宅の白い壁の前で撮影したりする
など、色々な場合が考えられる。そして、このように異
なる状況で撮影された人物写真は、多様な背景になるこ
とが予想される。
As means for photographing these ID photographs, such as photographing in front of a specific background, using an automatic photographer for ID photographs, or photographing in front of a white wall at home, Various cases are possible. And it is expected that portraits taken in such different situations will have various backgrounds.

【0013】このように、同じ用途の個人識別カードに
様々な背景が存在すれば、偽造の可能性があるばかりで
なく、偽造カードであっても見分けが困難にもなる。そ
こで、背景をあらかじめ定められた同一のものに入れ替
える処理を行なうことができる装置があれば、偽造を防
止することができると考えられる。
As described above, if various backgrounds exist for personal identification cards for the same purpose, not only there is a possibility of forgery, but even forgery cards are difficult to distinguish. Therefore, it is considered that forgery can be prevented if there is a device that can perform the process of replacing the background with the same one that is predetermined.

【0014】本実施例では、白黒の証明写真と合成する
背景をスキャナで読込み、合成画像をプリンタによって
印刷出力する場合について説明する。以下、本発明の一
実施例について図面を参照して説明する。
In this embodiment, a case will be described in which a scanner reads a background to be combined with a black-and-white ID photo and a composite image is printed out by a printer. An embodiment of the present invention will be described below with reference to the drawings.

【0015】図1は、本実施例に係る人物画像背景合成
装置の構成を概略的に示すものである。図において、1
は画像入力手段としてのカラースキャナで、人物の写真
を光学的な走査によって光電変換し、それをR(赤),
G(緑),B(青)のデジタル信号に変換して、R,
G,Bの画像データとして出力する。なお、スキャナ1
は、図示しないスイッチの切換えによりモノクロ画像を
入力することも可能になっている。スキャナ1で取込ま
れたR,G,Bの画像データ(あるいは、モノクロ画像
データ)は、フレームメモリ2に一時的に保存される。
FIG. 1 schematically shows the configuration of a person image background synthesizing apparatus according to this embodiment. In the figure, 1
Is a color scanner as an image input means, photoelectrically converts a photograph of a person by optical scanning, and converts it into R (red),
Converted to G (green), B (blue) digital signals, R,
It is output as G and B image data. The scanner 1
It is also possible to input a monochrome image by switching a switch (not shown). The R, G, B image data (or monochrome image data) captured by the scanner 1 is temporarily stored in the frame memory 2.

【0016】D/A変換器3は、フレームメモリ2から
のR,G,Bの画像データ、あるいは、後述する画像メ
モリ11からの画像データをアナログ信号に変換し、カ
ラープリンタ4およびカラーモニタディスプレイ5に送
る。プリンタ4は、合成した画像を印刷出力するもので
あり、モニタディスプレイ5は、処理中の画像および出
力画像を表示するものである。
The D / A converter 3 converts the R, G, B image data from the frame memory 2 or the image data from the image memory 11 described later into an analog signal, and the color printer 4 and the color monitor display. Send to 5. The printer 4 prints out the combined image, and the monitor display 5 displays the image being processed and the output image.

【0017】これらスキャナ1、フレームメモリ2、D
/A変換器3、プリンタ4、および、ディスプレイ5
は、それぞれ本装置全体を制御するコントローラ6に接
続されている。
These scanner 1, frame memory 2 and D
/ A converter 3, printer 4, and display 5
Are connected to a controller 6 that controls the entire apparatus.

【0018】また、コントローラ6には、オペレータが
動作指示と画像領域の選択に用いるマウス7、オペレー
タが画像領域の指示と選択に用いるタブレット8、オペ
レータが動作指示と数値入力に用いるキーボード9、演
算時のデータやマウス7、タブレット8、キーボード9
からの入力情報を一時的に記憶するメモリ10、入力画
像、処理中の画像、出力画像などの画像データを一時的
に記憶する画像メモリ11、入力画像から輪郭情報を抽
出する輪郭抽出部12、輪郭抽出部12の出力を用いて
画像を領域分割する領域分割部13、入力画像、領域分
割結果画像、合成背景画像を用いて背景の合成を行なう
背景合成部14、および、入力されたカラー画像をモノ
クロ濃淡画像に変換するカラー・モノクロ変換部15が
それぞれ接続されている。
The controller 6 includes a mouse 7 used by the operator for operation instruction and image area selection, a tablet 8 used by the operator for image area instruction and selection, a keyboard 9 used by the operator for operation instruction and numerical input, and calculation. Time data and mouse 7, tablet 8, keyboard 9
A memory 10 for temporarily storing input information from the input device, an image memory 11 for temporarily storing image data such as an input image, an image being processed, and an output image, a contour extracting unit 12 for extracting contour information from the input image, A region dividing unit 13 that divides an image into regions by using the output of the contour extracting unit 12, an input image, a region division result image, a background synthesizing unit 14 that synthesizes a background using a synthetic background image, and an input color image. Is connected to a color / monochrome conversion unit 15 for converting the image into a monochrome grayscale image.

【0019】次に、上記のような構成において、図2な
いし図5に示すフローチャートを参照して動作を説明す
る。なお、この動作例は、白黒写真を入力画像とした場
合であり、したがって、スキャナ1はモノクロ画像を入
力することになる。
Next, the operation of the above configuration will be described with reference to the flow charts shown in FIGS. It should be noted that this operation example is a case where a monochrome photograph is used as the input image, and therefore the scanner 1 inputs a monochrome image.

【0020】図2のフローチャートは処理全体の流れを
示し、図3のフローチャートは合成処理の流れを示し、
図4のフローチャートは合成処理中の濃淡値に基づいた
背景合成処理の流れを示し、図5のフローチャートは合
成処理中の背景からの距離に基づいた背景合成処理の流
れを示す。なお、各図において、Aは入力画像、Bは合
成する背景画像、Cは輪郭抽出後の画像、Dは領域分割
後の画像、Eは濃淡値に基づく合成処理後の画像、Fは
背景からの距離に基づく合成処理後の画像(出力画像)
を示す。
The flow chart of FIG. 2 shows the flow of the entire processing, and the flow chart of FIG. 3 shows the flow of the combining processing.
The flowchart of FIG. 4 shows the flow of the background synthesizing process based on the gray value during the synthesizing process, and the flowchart of FIG. 5 shows the flow of the background synthesizing process based on the distance from the background during the synthesizing process. In each figure, A is an input image, B is a background image to be combined, C is an image after contour extraction, D is an image after region division, E is an image after combining processing based on gray values, and F is from the background. Image after composite processing (output image)
Indicates.

【0021】まず、ステップS1において、入力画像お
よび背景画像を取込む入力処理を行なう。すなわち、ス
キャナ1を用いて、入力する人物画像の写真および合成
する背景画像の写真を走査することにより取込み、それ
ぞれの画像データを人物画像A(x,y)および合成す
る背景画像B(x,y)として画像メモリ11に格納す
る。
First, in step S1, an input process for capturing an input image and a background image is performed. That is, the scanner 1 is used to scan and capture a photograph of an input person image and a photograph of a background image to be combined, and the respective image data are captured as a person image A (x, y) and a background image B (x, y) to be combined. y) and stores it in the image memory 11.

【0022】次に、ステップS2において、人物の輪郭
情報抽出処理を行なう。すなわち、入力画像の人物部分
を特定するために、オペレータは、マウス7またはタブ
レット8などによって人物の輪郭情報を指定するための
指示を入力する。こうして指定されると、輪郭抽出部1
2は、その指定された人物の輪郭情報を、画像メモリ1
1内の入力画像から抽出し、C(x,y)として画像メ
モリ11に格納する。この場合の輪郭情報とは、人物と
背景との境目の周辺部分のことであり、細かい部分の指
定は必要でなく、ある程度太い滑らかな帯の中に人物部
分と背景部分の両方が含まれていればよい。抽出された
輪郭情報C(x,y)は、たとえば、図6に示すように
なる。
Next, in step S2, a person contour information extraction process is performed. That is, in order to specify the person portion of the input image, the operator inputs an instruction for specifying the contour information of the person using the mouse 7 or the tablet 8. When specified in this way, the contour extraction unit 1
The image memory 1 stores the contour information of the designated person.
It is extracted from the input image in 1 and stored in the image memory 11 as C (x, y). In this case, the contour information is the peripheral part of the boundary between the person and the background, and it is not necessary to specify the fine part, and both the person part and the background part are included in a somewhat thick and smooth band. Just do it. The extracted contour information C (x, y) is as shown in FIG. 6, for example.

【0023】次に、ステップS3において、領域分割処
理を行なう。すなわち、領域分割部13は、輪郭抽出部
12で抽出された人物の輪郭情報を基に、画像をおおま
かに人物、背景、境界の3領域に分割し、分割後の画像
D(x,y)を画像メモリ11に格納する。ここで、人
物領域とは人物の輪郭線の内側で背景を一切含まない部
分、背景領域とは輪郭線の外側で人物領域を含まない部
分、境界領域とは輪郭線の周辺の領域で背景も人物の両
方含む部分を指す(図7参照)。各領域の指定は、輪郭
を指定したときのように、オペレータがマウス7などに
よって指示する。
Next, in step S3, area division processing is performed. That is, the region dividing unit 13 roughly divides the image into three regions of a person, a background, and a boundary based on the contour information of the person extracted by the contour extracting unit 12, and then divides the image D (x, y) into three regions. Are stored in the image memory 11. Here, the person region is a portion inside the contour of the person that does not include any background, the background region is a portion outside the contour that does not include a person region, and the boundary region is a region around the contour that also includes the background. Refers to the part that includes both persons (see FIG. 7). The operator designates each area with the mouse 7 or the like, as when the contour is designated.

【0024】次に、ステップS4において、合成処理を
行なう。この合成処理は、図3に示すフローチャートに
したがって行なわれる。すなわち、背景合成部14は、
領域分割部13によって人物領域と背景領域と境界領域
の3領域に分割した結果画像D(x,y)を左上端(x
=0,y=0)から走査し、該当画素が人物領域の場合
には、人物画像A(x,y)の値を無変換で出力する処
理を行ない、背景領域の場合には、合成する背景画像B
(x,y)の値を出力する処理を行ない、背景と人物と
が混合した境界領域の場合には、濃淡値に基づいた背景
合成処理と背景からの距離に基づいた背景合成処理を順
次行なう。
Next, in step S4, a combining process is performed. This combining process is performed according to the flowchart shown in FIG. That is, the background synthesis unit 14
The result image D (x, y) divided into three areas, that is, the person area, the background area, and the boundary area by the area dividing unit 13, is located at the upper left corner (x
= 0, y = 0), and if the corresponding pixel is a human region, the value of the human image A (x, y) is output without conversion, and if it is a background region, it is combined. Background image B
A process of outputting the value of (x, y) is performed, and in the case of a boundary region in which the background and the person are mixed, the background synthesizing process based on the gray value and the background synthesizing process based on the distance from the background are sequentially performed. .

【0025】そして、上記と同様の処理を画像中の全て
の画素について行なう。ここで、境界領域において行な
う、濃淡値に基づいた背景合成処理と、背景からの距離
に基づいた背景合成処理の概略を説明する。
Then, the same processing as described above is performed for all the pixels in the image. Here, an outline of the background synthesizing process based on the gray value and the background synthesizing process based on the distance from the background, which is performed in the boundary region, will be described.

【0026】まず、境界領域中の画素の濃淡値に基づい
た背景合成処理は、図4に示すフローチャートにしたが
って行なわれる。すなわち、領域分割後の画像D(x,
y)の最上列(y=0)から開始し、各列の各境界領域
において次のような処理を行なう。図8に示すように、
たとえば、y=y1 の列において、まず、領域分割後の
画像D(x,y)の左端(x=0,y=y1 )から境界
の画素に当たるまで走査し、その境界画素と連続した境
界領域の左端と右端の画素のx座標を求め、それぞれx
1 ,x2 としてメモリ10に記憶する。左右の端点とも
背景に接していない場合は、その境界領域は入力画像の
値を無変換で出力し、次の境界領域の探索を開始する。
First, the background synthesizing process based on the gray value of the pixels in the boundary area is performed according to the flowchart shown in FIG. That is, the image D (x,
Starting from the top row (y = 0) of y), the following processing is performed in each boundary area of each row. As shown in FIG.
For example, in the column of y = y1, first, scanning is performed from the left end (x = 0, y = y1) of the image D (x, y) after the region division until it reaches a boundary pixel, and a boundary region continuous with the boundary pixel. X-coordinates of the left and right edge pixels of
It is stored in the memory 10 as 1, x2. If neither the left or right end point is in contact with the background, the boundary area outputs the value of the input image without conversion, and the search for the next boundary area is started.

【0027】たとえば、図8の列L1のように、左また
は右端点が背景領域に接していた場合、その画素の入力
画像での値を入力背景値biとしてメモリ10に記憶す
る。図8の列L2のように、両端点が背景に接している
場合は、どちらかの端点の入力画像での値を選択し、入
力背景値biとする。
For example, when the left or right end point is in contact with the background area as in the column L1 in FIG. 8, the value of the pixel in the input image is stored in the memory 10 as the input background value bi. When both end points are in contact with the background as in the column L2 of FIG. 8, the value in the input image of either end point is selected and set as the input background value bi.

【0028】境界中の各画素の合成背景画像中の画素値
を出力背景値boとする。ここで、合成する背景画像を
一律な濃淡値のプレーン背景だと仮定すると、出力背景
値は画像中のどの画素についても一定である。
The pixel value in the composite background image of each pixel in the boundary is set as the output background value bo. Here, assuming that the background image to be synthesized is a plain background of uniform gray value, the output background value is constant for every pixel in the image.

【0029】上記入力背景値biと出力背景値boに基
づいて、図10に示すような濃淡値変換テーブルを作成
する。これは、入力値が入力背景値biと等しければ出
力背景値boを出力するように、図10の点Aを設定
し、原点OとA、Aと最大点B(入力値=出力値=最大
濃淡値=255)とをそれぞれ直線で結んだものであ
る。
Based on the input background value bi and the output background value bo, a gray value conversion table as shown in FIG. 10 is created. The point A in FIG. 10 is set so that the output background value bo is output if the input value is equal to the input background value bi, and the origins O and A, A and the maximum point B (input value = output value = maximum The light and shade values = 255) are connected by straight lines.

【0030】このようにして作成した変換テーブルを用
いて、x=x1 からx=x2 までの境界領域中の各画素
において、それぞれの入力画像における値A(x,y)
が入力の場合の出力値を求め、濃淡値に基づいた背景合
成処理の出力値E(x,y)とする。
Using the conversion table created in this way, the value A (x, y) in each input image is obtained at each pixel in the boundary area from x = x1 to x = x2.
When the input is, the output value is obtained and is set as the output value E (x, y) of the background synthesizing process based on the gray value.

【0031】このようにして境界の終りx=x2 まで変
換したら、次の境界領域の走査を行ない、上述と同様の
処理を繰り返す。この動作を画像中の前列全てに対して
行なう。
After the conversion to the end x = x2 of the boundary is performed in this way, the next boundary area is scanned and the same processing as described above is repeated. This operation is performed for all the front rows in the image.

【0032】なお、上記説明では、合成する背景画像は
一律な濃淡値の画像としたが、一律でない場合には、出
力背景値boを画素ごとに求め、データ変換を行なう必
要がある。
In the above description, the background image to be combined is an image of uniform gray value, but if it is not uniform, it is necessary to obtain the output background value bo for each pixel and perform data conversion.

【0033】この濃淡値に基づいた背景合成処理によっ
て、境界部分において入力画像中で背景の濃淡値に近か
った画素は、出力においても背景値と近い値になり、逆
に入力画像で人物の値に近かった画素は、余り変換され
ず、人物値に近い出力値となる。たとえば、人物の髪の
間から背景が透けて見えるような、背景と人物との中間
の値を持つ部分は、出力においても合成する背景と人物
部分の中間色になる。
By the background synthesizing process based on the gray value, the pixel which is close to the gray value of the background in the input image at the boundary portion becomes a value close to the background value in the output, and conversely the value of the person in the input image. Pixels that are close to are not converted so much and have an output value close to the human value. For example, a portion having an intermediate value between the background and the person, in which the background can be seen through the person's hair, becomes an intermediate color between the background and the person portion to be combined in the output.

【0034】具体的には、入力背景値と出力背景値を基
に、図10のようなデータ変換が行なわれる。画像が濃
淡の256階調で、たとえば、入力背景値が「10
0」、出力背景値が「200」のときの、境界中のある
画素の入力値が「150」だったとすると、出力は「2
18」となる。
Specifically, data conversion as shown in FIG. 10 is performed based on the input background value and the output background value. The image has 256 shades of gray and the input background value is "10".
If the input value of a pixel in the boundary is "150" when the output background value is "0" and the output background value is "200", the output is "2".
18 ".

【0035】入力画像において、背景と似た色の服、た
とえば、白い背景の前で白いワイシャツを着て撮影した
人物が対象である場合、上記のような濃淡情報のみを用
いた変換方法では、輪郭部分がほとんど全てが合成する
背景値となってしまう。これを防止するために、背景か
らの距離に基づいた背景合成処理を行なう。ただし、こ
のような事態が発生しないとわかっている場合は、この
処理は不要である。
In the input image, when the target is a person who is dressed in a color similar to the background, for example, a person wearing a white shirt in front of a white background, the conversion method using only the grayscale information as described above, Almost all of the outline becomes the background value to be combined. In order to prevent this, background synthesis processing is performed based on the distance from the background. However, if it is known that such a situation will not occur, this processing is unnecessary.

【0036】背景からの距離に基づいた背景合成処理
は、図5に示すフローチャートにしたがって行なわれ
る。すなわち、上述した濃淡値に基づいた背景合成処理
と同様に、たとえば、y=y1 の列において、領域分割
後の画像D(x,y)の左端(x=0,y=y1 )から
の境界の画素に当たるまで走査し、その境界画素と連続
した境界領域の左端と右端の画素のx座標を求め、それ
ぞれx1 ,x2 としてメモリ10に記憶する。
The background composition processing based on the distance from the background is performed according to the flowchart shown in FIG. That is, similar to the background synthesizing process based on the gray value described above, for example, in the column of y = y1, the boundary from the left end (x = 0, y = y1) of the image D (x, y) after the region division. Scanning is performed until the pixel reaches the pixel, and the x-coordinates of the pixels at the left end and the right end of the boundary area continuous with the boundary pixel are obtained and stored in the memory 10 as x1 and x2, respectively.

【0037】左右の端点とも背景に接していない場合
は、その境界領域は入力画像の値を無変換で出力し、次
の境界領域の探索を開始する。左右のどちらかの端点が
背景と接していた場合には、端点のx座標x1 とx2 か
ら境界の幅の画素の画素数Lを求める。
When neither the left or right end point is in contact with the background, the boundary area outputs the value of the input image without conversion, and the search for the next boundary area is started. When one of the left and right end points is in contact with the background, the number of pixels L of the width of the boundary is obtained from the x coordinates x1 and x2 of the end points.

【0038】次に、境界領域中の各画素(x,y)につ
いて、人物側の端点画素のx座標と該当画素との間の距
離wを求め、境界の幅Lと比較することにより、距離係
数(=w/L)を求める。この距離係数と、前述した濃
淡値に基づいた背景合成処理の結果画像値E(x,y)
と人物画像A(x,y)との差の積をとったものが、該
当画素(x,y)の変換値となる。したがって、この変
換値([E(x,y)−A(x,y)]*w/L)と入
力画像の値A(x,y)とを足した値を合成結果F
(x,y)として出力する。
Next, for each pixel (x, y) in the boundary area, the distance w between the x coordinate of the end point pixel on the person side and the corresponding pixel is obtained and compared with the width L of the boundary to obtain the distance. Calculate the coefficient (= w / L). The image value E (x, y) which is the result of the background synthesizing process based on the distance coefficient and the gray value described above.
And the person image A (x, y), the product of the differences is the converted value of the corresponding pixel (x, y). Therefore, a value obtained by adding the converted value ([E (x, y) -A (x, y)] * w / L) and the value A (x, y) of the input image is the combined result F.
Output as (x, y).

【0039】上記処理をx=x1 からx=x2 までの境
界領域中の各画素において行ない、境界の終りx=x2
まで変換したら次の境界領域の走査を行ない、同様の処
理を繰り返す。この動作を画像中の全列に対して行な
う。
The above process is performed for each pixel in the boundary region from x = x1 to x = x2, and the end of the boundary x = x2.
After conversion to, the next boundary area is scanned and the same processing is repeated. This operation is performed for all columns in the image.

【0040】これは、境界領域内の各画素の内輪郭(人
物側)からの距離と境界の幅を用いて、背景側に近い場
所に位置する画素であれば濃淡値に基づいた変換結果に
近い値を、逆に人物側に近い場所に位置すれば変換をほ
とんど行なわず、入力値に近い値を出力する処理であ
る。これによって、濃淡値のみに基づいた変換処理では
同じ値を出力する画素でも、人物側から背景側にかけて
徐々に合成する背景値に変化して行き、出力画像におい
て背景が自然に人物部分に溶け込む結果となる。
This is because the distance from the inner contour (person side) of each pixel in the boundary area and the width of the boundary are used to obtain a conversion result based on the gray value if the pixel is located near the background side. This is a process of outputting a value close to the input value with almost no conversion if a value close to the person is located near the person. As a result, even if pixels that output the same value in the conversion process based only on the gray value, the background value gradually changes from the person side to the background side, and the background value naturally blends into the person part in the output image. Becomes

【0041】たとえば、図9に示すような境界部分があ
り、入力背景値と境界内の画素値が全て「100」だっ
たとする。出力背景値が「200」の場合、前述の濃淡
値に基づいた変換によって境界内の画素は全て「20
0」に変換されることになる(図10参照)。この出力
値「200」と入力値「100」との差「100」を変
換値とする。
For example, it is assumed that there is a boundary portion as shown in FIG. 9, and the input background value and the pixel value within the boundary are all "100". When the output background value is "200", all the pixels within the boundary are "20" by the conversion based on the gray value described above.
Will be converted to "0" (see FIG. 10). The difference "100" between the output value "200" and the input value "100" is the converted value.

【0042】次に、ステップS5において、出力処理を
行なう。すなわち、背景合成部14によって求めた人
物、背景、境界の3領域の出力結果を足し合わせた出力
画像F(x,y)のをD/A変換器3によってアナログ
信号に変換し、ディスプレイ5に表示することにより、
オペレータに処理結果の評価を求める。ここで、オペレ
ータがキーボード9によって処理結果が成功したことを
示す情報を入力した場合、カラープリンタ4が動作して
上記合成結果を印刷出力する。
Next, in step S5, output processing is performed. That is, the output image F (x, y) obtained by adding the output results of the three regions of the person, the background, and the boundary obtained by the background synthesizing unit 14 is converted into an analog signal by the D / A converter 3 and displayed on the display 5. By displaying
Ask the operator to evaluate the processing results. Here, when the operator inputs information indicating that the processing result has succeeded by the keyboard 9, the color printer 4 operates and prints out the above-mentioned composition result.

【0043】次に、本発明の他の実施例について説明す
る。この実施例は、前記実施例における輪郭抽出部12
および領域分割部13のマニュアル指定による処理を一
般的な画像処理技術を用いて自動化したものである。
Next, another embodiment of the present invention will be described. In this embodiment, the contour extraction unit 12 in the above embodiment is used.
Further, the processing by the manual designation of the area dividing unit 13 is automated by using a general image processing technique.

【0044】たとえば、証明写真のように背景が単純な
ものは、画像中の走査方向での画素濃淡変化が大きい箇
所を検出することによって、人物の輪郭を求めることが
できる。これは、走査方向において該当画素と前の画素
との差分をとり、その差が一定の値よりも大きければ輪
郭とみなす処理である。
For example, in the case of a simple background such as an identification photograph, the contour of a person can be obtained by detecting a portion in the image where the change in pixel shade in the scanning direction is large. This is a process in which the difference between the relevant pixel and the previous pixel in the scanning direction is calculated, and if the difference is larger than a certain value, it is regarded as a contour.

【0045】この輪郭抽出後の画像中の連結したそれぞ
れの領域について、人物の輪郭線の内側で背景を一切含
まない人物領域か、輪郭線の外側で人物領域を含まない
背景領域か、輪郭線の周辺で背景も人物も両方含む境界
領域かをあらかじめ設定した条件に基づいて判断するこ
とによって、自動的に画像を分割することができる。こ
の判定方法とは、たとえば、証明写真の場合は、画像の
最上部の連結領域は背景であることが一般的であるの
で、画像を左上端から走査し、最初の輪郭以外の画素を
みつけたら、その画素に連結した輪郭以外の画素を探索
していくことによって、背景領域を求める。
For each of the connected regions in the image after the contour extraction, a person region that does not include any background inside the contour line of the person, a background region that does not include the person region outside the contour line, or the contour line The image can be automatically divided by determining whether it is the boundary area including both the background and the person around the area based on a preset condition. This judgment method is, for example, in the case of an ID photo, the connected area at the top of the image is generally the background, so if you scan the image from the upper left corner and find pixels other than the first outline, , The background area is obtained by searching for pixels other than the contour connected to the pixel.

【0046】また、輪郭は境界領域、背景でも輪郭でも
ない部分は人物領域とすることによって、領域分割を行
なう。別の判定方法としては、画像の左上端または右上
端のある領域を背景領域と仮定し、原画像におけるその
領域の平均値を入力画像の背景平均値として記憶してお
き、輪郭画像中の各連結領域における入力画像の平均値
が前述の背景平均値と近ければ、背景領域とみなすこと
ができる。
Area division is performed by defining the contour as the boundary area and the portion that is neither the background nor the contour as the human area. As another determination method, an area at the upper left corner or the upper right corner of the image is assumed to be the background area, and the average value of the area in the original image is stored as the background average value of the input image, and each area in the contour image is stored. If the average value of the input images in the connected area is close to the background average value, it can be regarded as the background area.

【0047】なお、上記実施例では、白黒写真を入力画
像とした背景合成処理を説明したが、カラー画像でも実
施できる。その場合、入力画像をスキャナ1によってカ
ラーで取込み、画像メモリ11に記憶した後、カラー・
モノクロ変換部15によって白黒濃淡画像に変換し、こ
のモノクロ画像を用いて前記実施例と同様に輪郭抽出処
理を行ない、画像メモリ11に記憶したR,G,Bの各
カラー画像に対して合成処理を施し、それぞれを出力画
像のカラー画像とし、プリンタ4によって出力する。
In the above embodiment, the background synthesizing process using the black-and-white photograph as the input image has been described, but a color image can also be carried out. In that case, the input image is captured by the scanner 1 in color, stored in the image memory 11,
The monochrome conversion unit 15 converts the image into a monochrome gray-scale image, the contour extraction process is performed using the monochrome image in the same manner as in the above-described embodiment, and the R, G, B color images stored in the image memory 11 are combined. Then, each is converted into a color image of an output image and is output by the printer 4.

【0048】また、画像入力手段は、処理の対象となる
人物画像および合成する背景画像を取込む手段であり、
前記実施例においてはスキャナを用いて説明したが、こ
れ以外にビデオカメラからの映像や、CD−ROMなど
に記録された画像情報を用いることによっても実現でき
る。
Further, the image input means is means for taking in the person image to be processed and the background image to be combined,
In the above-described embodiment, the scanner was used for the description, but it is also possible to use an image from a video camera or image information recorded on a CD-ROM or the like.

【0049】同様に、合成画像の出力手段としては、合
成した画像を画像メモリ11に保存することによって、
使用者の希望に合わせて様々な出力形式を取ることがで
きるが、たとえば、前記実施例のようにプリンタ4への
出力の外に、フロッピーディスクや光ディスクなど、画
像情報を記録できる記録媒体に保存することも可能であ
る。
Similarly, as the output means of the composite image, by storing the composite image in the image memory 11,
Although various output formats can be adopted according to the wishes of the user, for example, in addition to the output to the printer 4 as in the above-described embodiment, it is stored in a recording medium capable of recording image information such as a floppy disk or an optical disk. It is also possible to do so.

【0050】以上説明したように上記実施例によれば、
人物画像を人物領域、背景領域、境界領域の3領域に分
割し、それぞれの領域において別々の処理方法で出力値
を決定する。特に、境界部分においては、濃淡情報と距
離情報とを用いて入力画像における人物と背景の濃度値
の関係をできるだけ保つ処理を行なうために、切り貼り
的な違和感がなくなり、自然な背景合成結果を出力す
る。
As described above, according to the above embodiment,
The person image is divided into three areas, that is, a person area, a background area, and a boundary area, and the output value is determined by a different processing method in each area. In particular, in the boundary portion, since the processing for maintaining the relationship between the density value of the person and the background in the input image as much as possible is performed by using the grayscale information and the distance information, the cut-and-paste discomfort is eliminated and the natural background synthesis result is output. To do.

【0051】また、濃淡値に基づいた背景合成を行なう
ので、背景と人物との境界部分の各画素の入力値、合成
する背景値、および、入力画像中の背景値の比較によっ
て入力画像における各画素の背景との関係を保つような
値を出力する。たとえば、人物の髪の部分においては、
入力画像の髪の間から背景が透けて見える部分には、出
力でも合成する背景と人物部分の中間色に見えるような
変換を行なう。
Further, since the background synthesis is performed based on the gray value, the input value of each pixel at the boundary portion between the background and the person, the background value to be synthesized, and the background value in the input image are compared to obtain the respective values in the input image. Outputs a value that maintains the relationship between the pixel and the background. For example, in the hair part of a person,
For the part where the background can be seen through between the hairs of the input image, conversion is performed so that it appears as an intermediate color between the background and the person part to be combined in the output.

【0052】さらに、入力において背景と服の色が似て
いる場合などは、濃淡値に基づいた背景合成処理を行な
うと、境界部分がほとんど合成する背景と同じ値に変換
されることになる。これを防ぐために、背景と境界の入
力値が近い場合には、濃淡値に加えて背景からの距離に
基づいた背景合成処理を行なう。これは、境界領域内の
各画素の内輪郭(人物側)からの距離を用い、背景側に
近い場所に位置する画素であれば、濃淡値に基づいた背
景合成処理の処理結果に近い値を、逆に人物側に近い場
所に位置すれば、入力に近い値を出力する。すなわち、
濃淡値に基づいた背景合成処理では、境界内の画素の出
力が全て合成する背景値になった場合でも、この変換処
理を加えることによって、人物側からの背景側にかけて
徐々に値が変化していき、出力画像において背景が自然
に人物部分に溶け込む結果となる。
Further, when the background and the clothing color are similar to each other in the input, if the background synthesizing process based on the gray value is performed, the boundary portion is converted into the same value as the background to be almost synthesized. In order to prevent this, when the input values of the background and the boundary are close to each other, background synthesis processing is performed based on the distance from the background in addition to the gray value. This uses the distance from the inner contour (person side) of each pixel in the boundary area, and if the pixel is located near the background side, a value close to the processing result of the background synthesis processing based on the gray value is used. Conversely, if it is located near the person, a value close to the input is output. That is,
In the background synthesis processing based on the gray value, even if the output of all the pixels within the boundary becomes the background value to be synthesized, by adding this conversion processing, the value gradually changes from the person side to the background side. The result is that the background naturally blends into the person portion in the output image.

【0053】したがって、任意の背景の人物画像を用い
た背景合成が行なえる。すなわち、クロマキーによる背
景合成と違い、特定の背景の前での撮影を必要とせず、
任意の背景前の人物画像の合成が可能である。
Therefore, it is possible to perform background composition using a human image with an arbitrary background. In other words, unlike background synthesis with chroma key, it does not require shooting in front of a specific background,
A person image in front of an arbitrary background can be combined.

【0054】また、違和感のない背景合成が行なえる。
すなわち、人物の髪の周りのように、背景と明確な境界
で区切られていない輪郭を持つ物体の背景合成におい
て、切り貼り的な処理結果ではない、自然な合成結果を
出力できる。
Further, the background synthesis can be performed without any discomfort.
That is, in the background synthesis of an object having a contour that is not separated from the background by a clear boundary, such as around a person's hair, a natural synthesis result that is not a cut-and-paste processing result can be output.

【0055】[0055]

【発明の効果】以上詳述したように本発明によれば、任
意の背景の人物画像を用いた背景合成が行なえ、しか
も、切り貼り的な違和感がなくなり、自然な背景合成が
行なえる人物画像背景合成装置を提供できる。
As described above in detail, according to the present invention, it is possible to perform background composition using a human image of an arbitrary background, and to eliminate the feeling of strangeness caused by cut and paste, and to perform natural background composition. A synthesizer can be provided.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例に係る人物画像背景合成装置
の構成を概略的に示すブロック図。
FIG. 1 is a block diagram schematically showing the configuration of a person image background composition device according to an embodiment of the present invention.

【図2】処理全体の流れを示すフローチャート。FIG. 2 is a flowchart showing the overall flow of processing.

【図3】合成処理の流れを示すフローチャート。FIG. 3 is a flowchart showing a flow of synthesizing processing.

【図4】合成処理中の濃淡値に基づいた背景合成処理の
流れを示すフローチャート。
FIG. 4 is a flowchart showing a flow of background synthesizing processing based on a gray value during the synthesizing processing.

【図5】合成処理中の背景からの距離に基づいた背景合
成処理の流れを示すフローチャート。
FIG. 5 is a flowchart showing the flow of background synthesizing processing based on the distance from the background during the synthesizing processing.

【図6】輪郭情報抽出処理後の画像を示す図。FIG. 6 is a diagram showing an image after contour information extraction processing.

【図7】領域分割処理後の画像を示す図。FIG. 7 is a diagram showing an image after region division processing.

【図8】背景合成処理のパラメータを説明する図。FIG. 8 is a diagram for explaining parameters of background synthesis processing.

【図9】境界領域内のパラメータを説明する図。FIG. 9 is a diagram illustrating parameters in a boundary area.

【図10】濃淡値に基づく背景合成処理用のデータ変換
テーブルを説明する図。
FIG. 10 is a diagram illustrating a data conversion table for background synthesis processing based on grayscale values.

【符号の説明】[Explanation of symbols]

1……スキャナ、2……フレームメモリ、3……D/A
変換器、4……プリンタ、5……ディスプレイ、6……
コントローラ、7……マウス、8……タブレット、9…
…キーボード、10……メモリ、11……画像メモリ、
12……輪郭抽出部、13……領域分割部、14……背
景合成部、15……カラー・モノクロ変換部。
1 ... Scanner, 2 ... Frame memory, 3 ... D / A
Converter, 4 ... Printer, 5 ... Display, 6 ...
Controller, 7 ... Mouse, 8 ... Tablet, 9 ...
... keyboard, 10 ... memory, 11 ... image memory,
12 ... contour extraction unit, 13 ... region division unit, 14 ... background synthesis unit, 15 ... color / monochrome conversion unit.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 人物画像および合成する背景画像をそれ
ぞれ入力する画像入力手段と、 この画像入力手段で入力された人物画像から人物の輪郭
情報を抽出する輪郭抽出手段と、 この輪郭抽出手段で抽出された人物の輪郭情報に基づ
き、前記入力された人物画像を人物、背景、境界の3領
域に分割する領域分割手段と、 この領域分割手段で領域分割した結果得られる画像を一
端から順次走査することにより、該当画素が人物領域の
場合は前記入力された人物画像を出力し、背景領域の場
合は前記入力された背景画像を出力し、境界領域の場合
はその境界領域内の各画素の濃淡値に基づき前記入力さ
れた人物画像と背景画像とを合成して、その合成結果を
出力する合成手段と、 この合成手段によって求めた人物、背景、境界の3領域
の出力結果を加算した合成結果を出力する出力手段と、 を具備したことを特徴とする人物画像背景合成装置。
1. An image input means for inputting a person image and a background image to be combined, a contour extracting means for extracting contour information of a person from the person image input by the image input means, and the contour extracting means. Area dividing means for dividing the input person image into three areas of a person, a background, and a boundary based on the contour information of the person, and an image obtained as a result of the area division by the area dividing means is sequentially scanned from one end. Thus, when the corresponding pixel is the human area, the input human image is output, when the pixel is the background area, the input background image is output, and when the pixel is the boundary area, the grayscale of each pixel in the boundary area is output. A synthesizing unit that synthesizes the input person image and the background image based on the value and outputs the synthesis result, and the output results of the three areas of the person, the background, and the boundary obtained by the synthesizing unit. People image background synthesis apparatus characterized by comprising output means for outputting the added synthetic result.
【請求項2】 人物画像および合成する背景画像をそれ
ぞれ入力する画像入力手段と、 この画像入力手段で入力された人物画像から人物の輪郭
情報を抽出する輪郭抽出手段と、 この輪郭抽出手段で抽出された人物の輪郭情報に基づ
き、前記入力された人物画像を人物、背景、境界の3領
域に分割する領域分割手段と、 この領域分割手段で領域分割した結果得られる画像を一
端から順次走査することにより、該当画素が人物領域の
場合は前記入力された人物画像を出力し、背景領域の場
合は前記入力された背景画像を出力し、境界領域の場合
はその境界領域内の各画素の背景からの距離に基づき前
記入力された人物画像と背景画像とを合成して、その合
成結果を出力する合成手段と、 この合成手段によって求めた人物、背景、境界の3領域
の出力結果を加算した合成結果を出力する出力手段と、 を具備したことを特徴とする人物画像背景合成装置。
2. An image input means for inputting a person image and a background image to be combined, a contour extracting means for extracting contour information of a person from the person image input by the image input means, and the contour extracting means for extracting the contour information. Area dividing means for dividing the input person image into three areas of a person, a background, and a boundary based on the contour information of the person, and an image obtained as a result of the area division by the area dividing means is sequentially scanned from one end. Thus, when the corresponding pixel is a person area, the input person image is output, when the pixel is a background area, the input background image is output, and when the pixel is a boundary area, the background of each pixel in the boundary area is output. A combination means for combining the input person image and the background image based on the distance from, and outputting the combined result, and a person, background, and boundary three areas obtained by the combining means. People image background synthesizer to output means for outputting a synthesized result of adding the force results, characterized by comprising a.
【請求項3】 人物画像および合成する背景画像をそれ
ぞれ入力する画像入力手段と、 この画像入力手段で入力された人物画像から人物の輪郭
情報を抽出する輪郭抽出手段と、 この輪郭抽出手段で抽出された人物の輪郭情報に基づ
き、前記入力された人物画像を人物、背景、境界の3領
域に分割する領域分割手段と、 この領域分割手段で領域分割した結果得られる画像を一
端から順次走査することにより、該当画素が人物領域の
場合は前記入力された人物画像を出力し、背景領域の場
合は前記入力された背景画像を出力し、境界領域の場合
は、その境界領域内の各画素の濃淡値に基づき前記入力
された人物画像と背景画像とを合成して、その合成結果
を出力する第1の合成処理を行ない、さらに、境界領域
の場合は、その境界領域内の各画素の背景からの距離に
基づき前記入力された人物画像と前記第1の合成処理の
処理結果とを合成して、その合成結果を出力する第2の
合成処理を行なう合成手段と、 この合成手段によって求めた人物、背景、境界の3領域
の出力結果を加算した合成結果を出力する出力手段と、 を具備したことを特徴とする人物画像背景合成装置。
3. An image input unit for inputting a person image and a background image to be combined, a contour extracting unit for extracting contour information of a person from the person image input by the image input unit, and an extraction by the contour extracting unit. Area dividing means for dividing the input person image into three areas of a person, a background, and a boundary based on the contour information of the person, and an image obtained as a result of the area division by the area dividing means is sequentially scanned from one end. Thus, when the corresponding pixel is the person area, the input person image is output, in the case of the background area, the input background image is output, and in the case of the boundary area, each pixel in the boundary area is output. A first combining process of combining the input human image and the background image based on the gray value and outputting the combined result is performed, and in the case of a boundary area, each pixel in the boundary area The input person image and the processing result of the first combining processing based on the distance from the background, and a second combining processing for outputting the combined result, and the combining means A person image background synthesizing apparatus comprising: an output unit that outputs a synthesizing result obtained by adding output results of the obtained three regions of a person, a background, and a boundary.
JP6064006A 1994-03-31 1994-03-31 Human body picture background synthesis device Pending JPH07274067A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6064006A JPH07274067A (en) 1994-03-31 1994-03-31 Human body picture background synthesis device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6064006A JPH07274067A (en) 1994-03-31 1994-03-31 Human body picture background synthesis device

Publications (1)

Publication Number Publication Date
JPH07274067A true JPH07274067A (en) 1995-10-20

Family

ID=13245680

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6064006A Pending JPH07274067A (en) 1994-03-31 1994-03-31 Human body picture background synthesis device

Country Status (1)

Country Link
JP (1) JPH07274067A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09311944A (en) * 1996-05-21 1997-12-02 Canon Inc Image editing device and its method and document editing system
JP2007249132A (en) * 2006-03-20 2007-09-27 Casio Comput Co Ltd Imaging apparatus, automatic focusing method, and program
US7626743B2 (en) 2001-12-11 2009-12-01 Minolta Co., Ltd. Image processing apparatus, image processing method and image processing program for rendering pixels transparent in circumscribed areas
JP2013219668A (en) * 2012-04-11 2013-10-24 Dainippon Printing Co Ltd Printed matter creation device and printed matter creation method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09311944A (en) * 1996-05-21 1997-12-02 Canon Inc Image editing device and its method and document editing system
US7626743B2 (en) 2001-12-11 2009-12-01 Minolta Co., Ltd. Image processing apparatus, image processing method and image processing program for rendering pixels transparent in circumscribed areas
JP2007249132A (en) * 2006-03-20 2007-09-27 Casio Comput Co Ltd Imaging apparatus, automatic focusing method, and program
JP2013219668A (en) * 2012-04-11 2013-10-24 Dainippon Printing Co Ltd Printed matter creation device and printed matter creation method

Similar Documents

Publication Publication Date Title
JP4718952B2 (en) Image correction method and image correction system
US8111946B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US20070247474A1 (en) Method, apparatus and recording medium for image processing
US20060251299A1 (en) Image processing method
JP2005176230A (en) Image processor and print system
US8421900B2 (en) Image capturing apparatus, an image capturing method and a machine readable medium storing thereon a computer program for capturing an image of a range wider than an image capture designation range
JP4752941B2 (en) Image composition apparatus and program
US7212674B1 (en) Method, apparatus and recording medium for face extraction
US20030234876A1 (en) Apparatus and method for generating multiple images from a single image
JP5272775B2 (en) Electronic still camera
EP1443458A2 (en) Image processing method, apparatus and computer program
JP2010092094A (en) Image processing apparatus, image processing program, and digital camera
KR100850460B1 (en) Method for improving face image within digital camera
JPH07274067A (en) Human body picture background synthesis device
JP4595660B2 (en) Imaging apparatus, captured image processing method, and program
JP2006350621A (en) Image processor and image processing program
JP4779883B2 (en) Electronic camera
JP4467231B2 (en) Image processing device
KR20020084321A (en) real-time character composition method using template
JPH1083033A (en) Method for printing moving image
JP2002208013A (en) Device for extracting image area and method for the same
JP5310782B2 (en) Electronic camera
JP2010263519A (en) Image reproducing apparatus, digital camera and program
JP7191514B2 (en) Image processing device, image processing method, and program
JP3321184B2 (en) Video photo printing equipment