JP2005284685A - Image composing device, image copying device and program - Google Patents

Image composing device, image copying device and program Download PDF

Info

Publication number
JP2005284685A
JP2005284685A JP2004097252A JP2004097252A JP2005284685A JP 2005284685 A JP2005284685 A JP 2005284685A JP 2004097252 A JP2004097252 A JP 2004097252A JP 2004097252 A JP2004097252 A JP 2004097252A JP 2005284685 A JP2005284685 A JP 2005284685A
Authority
JP
Japan
Prior art keywords
image
straight line
color information
intersection
gap
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004097252A
Other languages
Japanese (ja)
Other versions
JP4500083B2 (en
Inventor
Teruki Suzuki
輝基 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
RUMINE KK
Original Assignee
RUMINE KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by RUMINE KK filed Critical RUMINE KK
Priority to JP2004097252A priority Critical patent/JP4500083B2/en
Publication of JP2005284685A publication Critical patent/JP2005284685A/en
Application granted granted Critical
Publication of JP4500083B2 publication Critical patent/JP4500083B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To compose divided images in fine appearance so that a boundary line is not conspicuous. <P>SOLUTION: An image input means 2 receives the input of a first image and a second image which are divided images, and an image composing means 3 forms a composite image with the first image and second image composed in a state of a clearance existing between the first image and the second image. A straight line setting means 4 sets a plurality of straight lines L passing an examination point γ in the clearance provided in the composite image. An intersection computing means 5 computes intersections P between a clearance side edge part α of the first image and the straight lines L and intersections Q between a clearance side edge part β of the second image and the straight lines L. A straight line selecting means 6 selects a straight line L' minimizing the difference of color information of the intersections P, Q, out of the straight lines L. A color information determining means 7 determines color information of the examination point γ using the color information of the intersections P', Q' of the selected straight line L'. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像処理分野に関し、特に、複数に分割された画像の合成を行う画像合成装置、画像複写装置及びプログラムに関する。   The present invention relates to the field of image processing, and more particularly, to an image composition device, an image copying device, and a program for composing a plurality of divided images.

近年、パーソナルコンピュータ、スキャナー、デジタルカメラ等の普及に伴い、個人ユーザが自らデジタル画像編集を行うことが一般的となってきた。このような画像編集は、通常、画像編集ソフトウェアを用いて行われ、その多彩な編集機能を用いることにより、専門的な知識を有しない個人ユーザでも簡単に高度が画像編集を行うことが可能となっている(例えば、非特許文献1参照。)。
Adobe Systems、“AdobePhotoshop”、[online]、[平成16年3月26日検索]、インターネット<URL:http://www.adobe.co.jp/products/photoshop/csnfh/main.html>
In recent years, with the spread of personal computers, scanners, digital cameras, and the like, it has become common for individual users to perform digital image editing themselves. Such image editing is normally performed using image editing software, and by using its various editing functions, it is possible for an individual user who does not have specialized knowledge to easily perform image editing at a high level. (For example, refer nonpatent literature 1.).
Adobe Systems, “Adobe Photoshop”, [online], [March 26, 2004 search], Internet <URL: http: // www. Adobe. co. jp / products / photoshop / csnfh / main. html>

しかし、従来、専門的な知識を有しない者が、複数に分割された画像を見栄えよく合成するための手法は存在しなかった。   However, conventionally, there has been no method for a person who does not have specialized knowledge to synthesize a picture that has been divided into a plurality of parts.

例えば、雑誌等の見開きページにおいて、中央の綴じ込み部分を避け、左右の画像を別々にスキャナーで読み込み、それらを合成して一枚の画像を生成する場合、この2枚の画像の結合部分は不連続となり、見栄えのよい合成画像とはならない。また、航空写真のように、1枚の写真に納まりきらない被写体をエリアごとに分割して撮影し、それらを合成する場合も、それらの結合部分において不連続な部分が発生し、見栄えのよい合成画像とはならない。   For example, in a spread page of a magazine or the like, when the left and right images are read separately with a scanner and a single image is generated by avoiding the center binding portion, the combined portion of the two images is not acceptable. It will be continuous and will not look good composite images. Also, even when shooting subjects that do not fit in a single photograph, such as aerial photographs, divided into areas and combining them, a discontinuous part occurs in the combined part, and it looks good It is not a composite image.

通常、このような不連続部分を適切に補正し、その境目を目立たなくするためには、画像処理に関する専門的な知識が必要である。そのため、そのような専門知識を有していない一般的なユーザにとって、このように複数に分割された画像を見栄えよく合成することは困難である。   Usually, in order to appropriately correct such discontinuous portions and make the boundaries inconspicuous, specialized knowledge about image processing is required. For this reason, it is difficult for a general user who does not have such expertise to synthesize the image divided into a plurality of images in such a manner.

本発明はこのような点に鑑みてなされたものであり、専門的な知識を有しない者であっても、分割された画像を見栄えよく合成することが可能な画像合成装置を提供することである。
また、本発明の他の目的は、この画像合成装置を応用した画像複写装置を提供することである。
The present invention has been made in view of the above points, and by providing an image composition device that enables a person who does not have specialized knowledge to synthesize a divided image with a good appearance. is there.
Another object of the present invention is to provide an image copying apparatus to which this image composition apparatus is applied.

第1の本発明では上記課題を解決するために、第1の画像と第2の画像の入力を受け付ける画像入力手段と、第1の画像と第2の画像の間に空隙が存在する状態で当該第1の画像と第2の画像を合成した合成画像を生成する画像合成手段と、空隙内の調査点γを通る直線Lを複数設定する直線設定手段と、第1の画像の空隙側エッジ部αと直線Lとの交点P、及び第2の画像の空隙側エッジ部βと当該直線Lとの交点Q、を算出する交点算出手段と、直線Lから、交点P,Qの色情報の差が最小となる直線L’を選択する直線選択手段と、直線選択手段において選択された直線L’の交点P’,Q’の色情報を用い、調査点γの色情報を決定する色情報決定手段と、を有する画像合成装置が提供される。   In the first aspect of the present invention, in order to solve the above-described problem, the image input means for receiving the input of the first image and the second image, and a gap exists between the first image and the second image. Image combining means for generating a combined image obtained by combining the first image and the second image, straight line setting means for setting a plurality of straight lines L passing through the investigation point γ in the air gap, and the air gap side edge of the first image Intersection point calculating means for calculating the intersection point P between the part α and the straight line L and the intersection point Q between the gap-side edge part β of the second image and the straight line L; Color information for determining the color information of the survey point γ using the straight line selection means for selecting the straight line L ′ that minimizes the difference and the color information of the intersections P ′ and Q ′ of the straight line L ′ selected by the straight line selection means. And an image synthesizing apparatus.

ここで、画像合成手段において、第1の画像と第2の画像の間に空隙が存在する合成画像を生成することにより、画像の不連続部分を排除した画像情報を用いて合成画像を生成することができる。
また、直線選択手段において、直線Lから交点P,Qの色情報の差が最小となる直線L’を選択し、色情報決定手段において、この直線L’の交点P’,Q’の色情報を用いて空隙内の調査点γの色情報を決定することにより、空隙をより適切に補完できる。
以上より、分割された画像を見栄えよく合成することができる。
Here, in the image composition means, a composite image in which a gap exists between the first image and the second image is generated, and a composite image is generated using image information from which the discontinuous portion of the image is excluded. be able to.
Further, the straight line selection means selects a straight line L ′ that minimizes the color information difference between the intersection points P and Q from the straight line L, and the color information determination means selects the color information of the intersection points P ′ and Q ′ of the straight line L ′. By determining the color information of the investigation point γ in the gap using, the gap can be complemented more appropriately.
As described above, it is possible to combine the divided images with a good appearance.

また、第2の本発明では、画像の入力を受け付け画像入力手段と、画像の中心部分を通り、当該画像を横断する矩形状の空隙を生成し、この画像を第1の画像と第2の画像に分割する空隙生成手段と、空隙内の調査点γを通る直線Lを複数設定する直線設定手段と、第1の画像の空隙側エッジ部αと直線Lとの交点P、及び第2の画像の空隙側エッジ部βと当該直線Lとの交点Q、を算出する交点算出手段と、直線Lから、交点P,Qの色情報の差が最小となる直線L’を選択する直線選択手段と、直線選択手段において選択された直線L’の交点P’,Q’の色情報を用い、調査点γの色情報を決定する色情報決定手段と、を有する画像複写装置が提供される。   In the second aspect of the present invention, the input of an image is received, and an image input means and a rectangular gap that passes through the central portion of the image and crosses the image are generated. This image is converted into the first image and the second image. A gap generating means for dividing the image into an image; a straight line setting means for setting a plurality of straight lines L passing through the investigation points γ in the gap; an intersection P between the gap-side edge α of the first image and the straight line L; An intersection calculation means for calculating the intersection point Q between the gap side edge portion β of the image and the straight line L, and a straight line selection means for selecting, from the straight line L, a straight line L ′ that minimizes the color information difference between the intersection points P and Q. And color information determining means for determining the color information of the investigation point γ using the color information of the intersections P ′ and Q ′ of the straight line L ′ selected by the straight line selecting means.

ここで、画像入力手段において、画像の入力を受け付け、空隙生成手段において、画像の中心部分を通り、画像を横断する矩形状の空隙を生成することにより、画像の中心部分を横断する不連続部分(例えば、見開きページの綴じ込み部分等)を排除できる。
また、直線選択手段において、直線Lから交点P,Qの色情報の差が最小となる直線L’を選択し、色情報決定手段において、この直線L’の交点P’,Q’の色情報を用いて空隙内の調査点γの色情報を決定することにより、生成した空隙をより適切に補完できる。
以上より、読み込み画像から綴じ込み部分等の不連続部分を排除し、なおかつ見栄えのよい複写画像を生成できる。
Here, the image input means accepts the input of the image, and the gap generation means generates a rectangular gap that passes through the central portion of the image and crosses the image, thereby discontinuous portions that cross the central portion of the image. (For example, a binding portion of a spread page) can be eliminated.
Further, the straight line selection means selects a straight line L ′ that minimizes the color information difference between the intersection points P and Q from the straight line L, and the color information determination means selects the color information of the intersection points P ′ and Q ′ of the straight line L ′. By determining the color information of the investigation point γ in the gap, the generated gap can be complemented more appropriately.
As described above, it is possible to eliminate a discontinuous portion such as a binding portion from a read image and generate a good-looking copy image.

本発明では、直線Lから交点P,Qの色情報の差が最小となる直線L’を選択し、この直線L’の交点P’,Q’の色情報を用いて空隙内の調査点γの色情報を決定することにより、分割画像間の間隙をより適切に補完できる。その結果、専門的な知識を有しない者であっても、分割された画像を見栄えよく合成することができる。
また、これを応用することにより、読み込み画像から不連続部分を排除し、なおかつ見栄えのよい複写画像を生成することができる。
In the present invention, a straight line L ′ that minimizes the difference in color information between the intersection points P and Q is selected from the straight line L, and the investigation point γ in the gap is used using the color information of the intersection points P ′ and Q ′ of the straight line L ′. By determining the color information, it is possible to more appropriately complement the gap between the divided images. As a result, even a person who does not have specialized knowledge can synthesize the divided images with good appearance.
Also, by applying this, it is possible to eliminate the discontinuous portion from the read image and generate a good-looking copy image.

以下、本発明の実施の形態を図面を参照して説明する。
〔第1の実施の形態〕
まず、本発明における第1の実施の形態について説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[First Embodiment]
First, a first embodiment of the present invention will be described.

<概要>
図1は、本形態における画像合成装置1の概要を説明するための図である。以下、この図を用いて、本形態における画像合成装置1の概要について説明する。
画像合成装置1は、入力された複数の画像(第1の画像と第2の画像)の合成画像を生成する。
この画像合成を行う場合、まず画像合成装置1は、画像入力手段2において、第1の画像と第2の画像の入力を受け付け、これらを画像合成手段3に送り、画像合成手段3において、第1の画像と第2の画像の間に空隙(隙間)が存在する状態で当該第1の画像と第2の画像を合成した合成画像を生成する。そして、直線設定手段4において、この合成画像を受け取り、この合成画像が具備する空隙内の調査点γを通る直線Lを複数設定する。合成画像及び設定された複数の直線Lは交点算出手段5に送られ、交点算出手段5は、これらの情報から第1の画像の空隙側エッジ部αと直線Lとの交点P、及び第2の画像の空隙側エッジ部βと当該直線Lとの交点Qを算出する。算出された交点P,Qの情報は直線選択手段に送られ、直線選択手段6は、直線Lから、交点P,Qの色情報の差が最小となる直線L’を選択する。そして、色情報決定手段7において、この選択された直線L’の交点P’,Q’の色情報を受け取り、これらを用いて調査点γの色情報を決定する。
同様に、空隙内の各調査点γの色情報を順次決定し、決定された色情報で空隙を補完する。
以上の処理により分割画像間の間隙をより適切に補完できる。その結果、専門的な知識を有しない者であっても、分割された画像を見栄えよく(画像の連結部分が目立たないように)合成できる。
<Overview>
FIG. 1 is a diagram for explaining an outline of an image composition device 1 according to the present embodiment. Hereinafter, the outline of the image composition device 1 according to this embodiment will be described with reference to FIG.
The image composition device 1 generates a composite image of a plurality of input images (first image and second image).
When performing this image composition, first, the image composition device 1 receives the input of the first image and the second image in the image input means 2, sends them to the image composition means 3, and in the image composition means 3, A composite image is generated by combining the first image and the second image in a state where a gap (gap) exists between the first image and the second image. Then, the straight line setting means 4 receives this composite image, and sets a plurality of straight lines L passing through the investigation points γ in the gaps included in the composite image. The composite image and the set plurality of straight lines L are sent to the intersection calculation means 5, and the intersection calculation means 5 determines the intersection P between the gap-side edge portion α of the first image and the straight line L and the second from the information. The intersection point Q between the gap side edge portion β of the image and the straight line L is calculated. Information on the calculated intersection points P and Q is sent to the straight line selection means, and the straight line selection means 6 selects a straight line L ′ from the straight line L that minimizes the difference in color information between the intersection points P and Q. Then, the color information determination means 7 receives the color information of the intersections P ′ and Q ′ of the selected straight line L ′ and uses these to determine the color information of the survey point γ.
Similarly, the color information of each investigation point γ in the gap is sequentially determined, and the gap is complemented with the determined color information.
The gap between the divided images can be more appropriately complemented by the above processing. As a result, even a person who does not have specialized knowledge can synthesize the divided images with good appearance (so that connected portions of the images are not conspicuous).

<詳細>
次に、本形態における詳細について説明する。
<Details>
Next, details in this embodiment will be described.

<ハードウェア構成>
図2は、本形態における画像合成装置100のハードウェア構成を例示したブロック図である。
図2に例示するように、この例の画像合成装置100は、CPU(Central Processing Unit)10、RAM(Random Access Memory)30、ROM(Read Only Memory)40、ハードディスク(HD)装置50、スキャナー61、マウス62、キーボード63及びディスプレイ70を有しており、バス80を通じ相互に通信可能なように接続されている。そして、CPU10は、ハードディスク(HD)装置50に格納されたプログラムを読み出し、それに従った処理を実行することによって、以下に示す各処理機能を実現する。
<Hardware configuration>
FIG. 2 is a block diagram illustrating a hardware configuration of the image composition device 100 according to this embodiment.
As illustrated in FIG. 2, the image composition device 100 of this example includes a CPU (Central Processing Unit) 10, a RAM (Random Access Memory) 30, a ROM (Read Only Memory) 40, a hard disk (HD) device 50, and a scanner 61. , A mouse 62, a keyboard 63, and a display 70, and are connected to each other through a bus 80 so that they can communicate with each other. The CPU 10 implements the following processing functions by reading a program stored in the hard disk (HD) device 50 and executing processing according to the program.

<機能構成>
図3は、CPU10に上述のプログラムを実行させることにより構築される処理機能及びRAM30内のデータ構成を例示したブロック図である。
<Functional configuration>
FIG. 3 is a block diagram illustrating a processing function constructed by causing the CPU 10 to execute the above-described program and a data configuration in the RAM 30.

図3に例示するように、このプログラムの実行により、CPU10には、画像入力手段12、画像出力手段13、境界情報入力手段14、調整情報入力手段15、画像調整手段16、画像合成手段17、画像複製手段18、フィルタ手段19、直線設定手段20、交点算出手段21、直線選択手段22、色情報決定手段23、補完手段24、特異点画像生成手段25、画像切り取り手段26、特異点付加手段27及び制御手段28が構築される。なお、これら各手段は、制御手段28の制御により連携して各演算処理を行う。また、図3の矢印は情報の流れを示しているが、制御手段28からの制御情報の流れは省略してある。また、このCPU10の各処理の過程において、RAM30内の各データ領域30a〜30jに各データが格納され、このCPU10の各処理に利用される。   As illustrated in FIG. 3, by executing this program, the CPU 10 causes the image input unit 12, the image output unit 13, the boundary information input unit 14, the adjustment information input unit 15, the image adjustment unit 16, the image composition unit 17, Image duplicating means 18, filter means 19, straight line setting means 20, intersection calculating means 21, straight line selecting means 22, color information determining means 23, complementing means 24, singular point image generating means 25, image cutting means 26, singular point adding means 27 and control means 28 are constructed. Each of these means performs each calculation process in cooperation with the control of the control means 28. 3 indicates the flow of information, but the flow of control information from the control means 28 is omitted. In the course of each process of the CPU 10, each data is stored in each data area 30 a to 30 j in the RAM 30 and used for each process of the CPU 10.

図4は、画像調整手段16の詳細機能構成を例示したブロック図である。
図4に例示するように、この例の画像調整手段16は、ヒストグラム生成手段16a、明るさ調整手段16b、コントラスト調整手段16c、トリム手段16d及び画像位置調整手段16eからなる。
FIG. 4 is a block diagram illustrating a detailed functional configuration of the image adjustment unit 16.
As illustrated in FIG. 4, the image adjusting unit 16 in this example includes a histogram generating unit 16a, a brightness adjusting unit 16b, a contrast adjusting unit 16c, a trimming unit 16d, and an image position adjusting unit 16e.

<処理>
次に本形態における画像合成装置100の処理について説明する。
<Processing>
Next, processing of the image composition device 100 in this embodiment will be described.

<前処理>
まず、利用者は、スキャナー61を用い、第1の画像及び第2の画像を読み込む。ここで、第1の画像及び第2の画像は、1つの画像の分割画像である。すなわち、例えば、雑誌の見開きページ等の綴じ込み部分を挟んだ左右のページの画像等が第1の画像(例えば左ページ)及び第2の画像(例えば右ページ)に該当する。
このように読み込まれた第1の画像及び第2の画像は、バス80を通じてハードディスク装置50に送られ、そこに格納される。
<Pretreatment>
First, the user reads the first image and the second image using the scanner 61. Here, the first image and the second image are divided images of one image. That is, for example, the images of the left and right pages sandwiching the binding portion such as a magazine spread page correspond to the first image (for example, the left page) and the second image (for example, the right page).
The first image and the second image read in this way are sent to the hard disk device 50 through the bus 80 and stored therein.

<全体の処理>
図5から図7は、画像合成装置100の全体処理を説明するためのフローチャートである。以下、これらの図に沿って、画像合成装置100の処理の全体について説明する。
<Overall processing>
5 to 7 are flowcharts for explaining the overall processing of the image composition apparatus 100. FIG. The overall processing of the image composition device 100 will be described below with reference to these drawings.

[ステップS1]
制御手段28(図3)の制御のもと、RAM30内及びCPU10内の各データを初期化する。
[Step S1]
Under the control of the control means 28 (FIG. 3), each data in the RAM 30 and the CPU 10 is initialized.

[ステップS2]
そして、画像出力手段13においてメイン画面を構成する情報を生成し、これを、バス80を通じディスプレイ70に表示させる。
[Step S2]
Then, the image output unit 13 generates information constituting the main screen and displays it on the display 70 through the bus 80.

図16は、これによりディスプレイ70に表示されるメイン画面200の構成を例示した図である。
図16に例示するように、この例のメイン画面200の上部には、「画像1」のボタン201、「画像2」のボタン202、「トリム1」のボタン203、「トリム2」のボタン204、「合成」のボタン205、「クリア」のボタン206、「境界」のボタン207、「追加」のボタン208、「削除」のボタン209が表示される。
また、この例のメイン画面200の中央部には、第1の画像及び第2の画像を並べて表示する画像表示部210が配置される。
FIG. 16 is a diagram illustrating the configuration of the main screen 200 displayed on the display 70 as a result.
As illustrated in FIG. 16, an “image 1” button 201, an “image 2” button 202, a “trim 1” button 203, and a “trim 2” button 204 are displayed at the top of the main screen 200 in this example. , A “composite” button 205, a “clear” button 206, a “boundary” button 207, an “add” button 208, and a “delete” button 209.
In addition, an image display unit 210 that displays the first image and the second image side by side is arranged at the center of the main screen 200 in this example.

さらに、この例のメイン画面200の下部には、第1の画像コントラスト・明るさ調整部220及び第2の画像コントラスト・明るさ調整部230が表示される。ここで、第1の画像コントラスト・明るさ調整部220には、ヒストグラム表示部221、種類部222、調整部223、表示部224、調整レバー225、自動調整ボタン226(「自動コントラスト・明るさ調整」)が表示され、第2の画像コントラスト・明るさ調整部230には、ヒストグラム表示部231、種類部232、調整部233、表示部234、調整レバー235、自動調整ボタン236(「自動コントラスト・明るさ調整」)が表示される。また、各種類部222、232には「輝度」「赤」「緑」「青」の欄が表示され、それぞれに対応するアクティブ部分222a〜222d及び232a〜232dが表示される。また、各調整部223、233には、「コントラスト」「明るさ」の欄が表示され、それぞれに対応するアクティブ部分223a、223b、233a、233bが表示される。さらに、各表示部224、234には、「全体」「接続場所」の欄が表示され、それぞれに対応するアクティブ部分224a、224b、234a、234bが表示される。   Further, a first image contrast / brightness adjustment unit 220 and a second image contrast / brightness adjustment unit 230 are displayed at the bottom of the main screen 200 in this example. Here, the first image contrast / brightness adjustment unit 220 includes a histogram display unit 221, a type unit 222, an adjustment unit 223, a display unit 224, an adjustment lever 225, an automatic adjustment button 226 (“automatic contrast / brightness adjustment”). ”) Is displayed, and the second image contrast / brightness adjustment unit 230 includes a histogram display unit 231, a type unit 232, an adjustment unit 233, a display unit 234, an adjustment lever 235, and an automatic adjustment button 236 (“ automatic contrast / brightness ”). Brightness adjustment ") is displayed. In addition, in each type portion 222, 232, "brightness", "red", "green", and "blue" columns are displayed, and corresponding active portions 222a to 222d and 232a to 232d are displayed. In addition, in each of the adjustment units 223 and 233, columns of “contrast” and “brightness” are displayed, and corresponding active portions 223a, 223b, 233a, and 233b are displayed. Further, in each of the display units 224 and 234, columns of “entire” and “connection place” are displayed, and corresponding active portions 224a, 224b, 234a, and 234b are displayed.

[ステップS3]
制御手段28(図3)の制御のもと、マウス62及びキーボード63における入力操作を受け付ける。
[Step S3]
Under the control of the control means 28 (FIG. 3), an input operation on the mouse 62 and the keyboard 63 is accepted.

[ステップS4]
制御手段28において、マウス62の操作によって「画像1」のボタン201或いは「画像2」のボタン202(図16)がクリックされたか否かを判断する。ここで、「画像1」のボタン201がクリックされたと判断された場合にはステップS5に進み、「画像2」のボタン202がクリックされたと判断された場合にはステップS7に進み、それ以外の場合にはステップS10に進む。
[Step S4]
In the control means 28, it is determined whether or not the “image 1” button 201 or the “image 2” button 202 (FIG. 16) is clicked by the operation of the mouse 62. If it is determined that the “image 1” button 201 has been clicked, the process proceeds to step S5. If it is determined that the “image 2” button 202 has been clicked, the process proceeds to step S7. If so, the process proceeds to step S10.

[ステップS5]
制御手段28(図3)の制御のもと、マウス62において第1の画像(g)の選択情報(例えばファイル名)の入力を受け付け、その選択情報を画像入力手段12に送り、ステップS6に進む。
[Step S5]
Under the control of the control means 28 (FIG. 3), input of selection information (for example, file name) of the first image (g 1 ) is received by the mouse 62, and the selection information is sent to the image input means 12, and step S6. Proceed to

[ステップS6]
画像入力手段12は、マウス62から送られた選択情報に基づき、バス80を通じてハードディスク装置50にアクセスし、そこに格納されている第1の画像(g)を抽出し、その入力を受け付ける。入力された第1の画像(g)はRAM30に送られ、その記憶領域30bに記憶される。その後、ステップS9に進む。
[Step S6]
The image input means 12 accesses the hard disk device 50 through the bus 80 based on the selection information sent from the mouse 62, extracts the first image (g 1 ) stored therein, and accepts the input. The input first image (g 1 ) is sent to the RAM 30 and stored in the storage area 30b. Thereafter, the process proceeds to step S9.

[ステップS7]
制御手段28(図3)の制御のもと、マウス62において第2の画像(g2)の選択情報(例えばファイル名)の入力を受け付け、その選択情報を画像入力手段12に送り、ステップS8に進む。
[Step S7]
Under the control of the control means 28 (FIG. 3), input of selection information (for example, a file name) of the second image (g 2 ) is received by the mouse 62, and the selection information is sent to the image input means 12, and step S8. Proceed to

[ステップS8]
画像入力手段12は、マウス62から送られた送られた選択情報に基づき、バス80を通じてハードディスク装置50にアクセスし、そこに格納されている第2の画像(g)を抽出し、その入力を受け付ける。入力された第2の画像(g)はRAM30に送られ、その記憶領域30bに記憶される。その後、ステップS9に進む。
[Step S8]
Based on the selection information sent from the mouse 62, the image input means 12 accesses the hard disk device 50 through the bus 80, extracts the second image (g 2 ) stored therein, and inputs it. Accept. The input second image (g 2 ) is sent to the RAM 30 and stored in the storage area 30b. Thereafter, the process proceeds to step S9.

[ステップS9]
画像調整手段16において、RAM30の記憶領域30bから第1の画像(g)及び第2の画像(g)を抽出し、ヒストグラム生成手段16aにおいて、第1の画像及び第2の画像について、輝度とその輝度を有するピクセルの数(カウント数)とのヒストグラム(H、H)(例えば、横軸を輝度とし、縦軸をカウント数とするヒストグラム)を生成する。生成されたヒストグラム(H、H)はRAM30に送られ、その記憶領域30cに記憶される。
[Step S9]
The image adjusting means 16 extracts the first image (g 1 ) and the second image (g 2 ) from the storage area 30b of the RAM 30, and the histogram generating means 16a extracts the first image and the second image. A histogram (H 1 , H 2 ) of the luminance and the number of pixels having the luminance (count number) (for example, a histogram having the horizontal axis as the luminance and the vertical axis as the count number) is generated. The generated histograms (H 1 , H 2 ) are sent to the RAM 30 and stored in the storage area 30c.

その後ステップS2に進み、画像出力手段13において、RAM30の記憶領域30cから第1の画像(g)及び第2の画像(g)、ヒストグラム(H、H)を抽出し、それらを、バス80を通じディスプレイ70に出力し表示させる。具体的には、例えば、メイン画面200の画像表示部210(図16)に第1の画像(g)及び第2の画像(g)を規定の位置関係(初期位置関係)で表示させ、ヒストグラム表示部221に第1の画像のヒストグラム(H)を、ヒストグラム表示部231に第2の画像のヒストグラム(H)を、それぞれ表示させる。 Thereafter, the process proceeds to step S2, and the image output means 13 extracts the first image (g 1 ), the second image (g 2 ), and the histogram (H 1 , H 2 ) from the storage area 30c of the RAM 30, and extracts them. , Output and display on the display 70 through the bus 80. Specifically, for example, the first image (g 1 ) and the second image (g 2 ) are displayed in a specified positional relationship (initial positional relationship) on the image display unit 210 (FIG. 16) of the main screen 200. The histogram display unit 221 displays the first image histogram (H 1 ), and the histogram display unit 231 displays the second image histogram (H 2 ).

[ステップS10]
制御手段28において、マウス62の操作によって「トリム1」のボタン203或いは「トリム2」のボタン203(図16)がクリックされたか否かを判断する。ここで、「トリム1」のボタン203がクリックされたと判断された場合にはステップS11に進み、「トリム2」のボタン204がクリックされたと判断された場合にはステップS13に進み、それ以外の場合にはステップS15に進む。
[Step S10]
In the control means 28, it is determined whether or not the “trim 1” button 203 or the “trim 2” button 203 (FIG. 16) is clicked by the operation of the mouse 62. If it is determined that the “trim 1” button 203 has been clicked, the process proceeds to step S11. If it is determined that the “trim 2” button 204 has been clicked, the process proceeds to step S13. If so, the process proceeds to step S15.

[ステップS11]
まず、制御手段28(図3)の制御のもと、マウス62或いはキーボード63において第1の画像(g)のトリム情報(ad)の入力を受け付ける。入力されたトリム情報(ad)は、バス80を通じて調整情報入力手段15に送られ、そこから画像調整手段16のトリム手段16d(図4)に送られる。そして、ステップS12に進む。なお、「トリム情報」とは、画像の削除領域(トリミング領域)を特定するための情報である。例えば、雑誌の見開きページの例であれば、ページの縁部分等が「トリム領域」として指定される。
[Step S11]
First, under the control of the control means 28 (FIG. 3), the mouse 62 or the keyboard 63 receives input of trim information (ad 5 ) of the first image (g 1 ). The input trim information (ad 5 ) is sent to the adjustment information input means 15 through the bus 80, and from there to the trim means 16d (FIG. 4) of the image adjustment means 16. Then, the process proceeds to step S12. The “trim information” is information for specifying an image deletion area (trimming area). For example, in the case of a magazine spread page, the edge portion of the page is designated as a “trim area”.

[ステップS12]
トリム手段16dにおいて、RAM30の記憶領域30bから第1の画像(g)を抽出し、この第1の画像(g)を、ステップS11で送られたトリム情報(ad)に従いトリミングする。以下、所定処理が行われた第1の画像を「g'」と表現する。この第1の画像(g')は、RAM30に送られ、その記憶領域30dに記憶される。そして、ステップS2に戻る。
[Step S12]
The trim unit 16d extracts the first image (g 1 ) from the storage area 30b of the RAM 30, and trims the first image (g 1 ) according to the trim information (ad 5 ) sent in step S11. Hereinafter, the first image on which the predetermined process has been performed is expressed as “g 1 ′”. The first image (g 1 ′) is sent to the RAM 30 and stored in the storage area 30d. Then, the process returns to step S2.

[ステップS13]
まず、制御手段28(図3)の制御のもと、マウス62或いはキーボード63において第2の画像(g)のトリム情報(ad)の入力を受け付ける。入力されたトリム情報(ad)は、バス80を通じて調整情報入力手段15に送られ、そこから画像調整手段16のトリム手段16d(図4)に送られる。そして、ステップS13に進む。
[Step S13]
First, under the control of the control means 28 (FIG. 3), input of trim information (ad 6 ) of the second image (g 2 ) is accepted by the mouse 62 or the keyboard 63. The input trim information (ad 6 ) is sent to the adjustment information input means 15 through the bus 80 and from there to the trim means 16 d (FIG. 4) of the image adjustment means 16. Then, the process proceeds to step S13.

[ステップS14]
トリム手段16dにおいて、RAM30の記憶領域30bから第2の画像(g)を抽出し、この第2の画像(g)を、ステップS13で送られたトリム情報(ad)に従いトリミングする。以下、所定処理が行われた第2の画像を「g'」と表現する。この第2の画像(g')は、RAM30に送られ、その記憶領域30dに記憶される。そして、ステップS2に戻る。
[Step S14]
The trim means 16d extracts the second image (g 2 ) from the storage area 30b of the RAM 30, and trims the second image (g 2 ) according to the trim information (ad 6 ) sent in step S13. Hereinafter, the second image on which the predetermined process has been performed is expressed as “g 2 ′”. The second image (g 2 ′) is sent to the RAM 30 and stored in the storage area 30d. Then, the process returns to step S2.

[ステップS15]
制御手段28において、キーボード63の方向キーが操作されたか否かを判断する。ここで、方向キーが操作されたと判断された場合には、ステップS16に進み、方向キーが操作されていないと判断された場合には、ステップS17に進む。
[Step S15]
In the control means 28, it is determined whether or not the direction key of the keyboard 63 has been operated. If it is determined that the direction key has been operated, the process proceeds to step S16. If it is determined that the direction key has not been operated, the process proceeds to step S17.

[ステップS16]
調整情報入力手段15において、バス80を通じ、キーボード63の方向キーの入力情報(ad)を受け取り、それを画像調整手段16の画像位置調整手段16e(図4)に送る。画像位置調整手段16eは、受け取った方向キーの入力情報(ad)に応じ、第2の画像の第1の画像に対する既定位置関係(初期位置関係)からの変動分(LC)を設定し、RAM30の記憶領域30dに記憶する。そして、ステップS2に戻る。なお、これ以降、画像出力手段13から出力される第1の画像及び第2の画像は、ディスプレイ70において、初期位置関係+変動分(LC)の相対位置関係で表示される。
[Step S16]
The adjustment information input means 15 receives the direction key input information (ad 7 ) of the keyboard 63 through the bus 80 and sends it to the image position adjustment means 16 e (FIG. 4) of the image adjustment means 16. The image position adjusting unit 16e sets a variation (LC) from the default position relationship (initial position relationship) of the second image to the first image in accordance with the received direction key input information (ad 7 ). The data is stored in the storage area 30d of the RAM 30. Then, the process returns to step S2. Thereafter, the first image and the second image output from the image output unit 13 are displayed on the display 70 in the relative positional relationship of the initial positional relationship + the variation (LC).

[ステップS17]
制御手段28において、利用者のマウス62の操作により、「追加」のボタン208(図16)がクリックされたか否かを判断する。ここで、「追加」のボタン208がクリックされたと判断された場合には、ステップS18に進み、そうでない場合には、ステップS20に進む。
[Step S17]
In the control means 28, it is determined whether or not the “add” button 208 (FIG. 16) has been clicked by the user's operation of the mouse 62. If it is determined that the “add” button 208 has been clicked, the process proceeds to step S18. If not, the process proceeds to step S20.

[ステップS18]
制御手段28(図3)の制御のもと、マウス62において境界情報(BL)の入力を受け付ける。入力された境界情報(BL)は、バス80を通じて境界情報入力手段14に送られ、境界情報入力手段14は、これを受け付ける。
[Step S18]
Under the control of the control means 28 (FIG. 3), the mouse 62 receives input of boundary information (BL). The input boundary information (BL) is sent to the boundary information input means 14 through the bus 80, and the boundary information input means 14 receives this.

ここで、「境界情報」とは、第1の画像及び第2の画像におけるオブジェクトの境界を示す情報を意味する。そして、この境界情報は、特定の調査点γを通る直線Lの傾き範囲を制限するために用いられる(後述)。   Here, “boundary information” means information indicating the boundary of an object in the first image and the second image. And this boundary information is used in order to restrict | limit the inclination range of the straight line L which passes along the specific investigation point (gamma) (after-mentioned).

図17は、このように入力される境界情報(BL)を視覚的に示した図である。
この例では、メイン画面200の画像表示部210(図16)に、図17のように、第1の画像301と第2の画像302が空隙303を介して配置されているものとする。この例の第1の画像301及び第2の画像302は、それぞれオブジェクト301a、302a及び背景301b、302bから構成される。ここで、第1の画像301及び第2の画像302は、1つの画像を分割した画像であり、オブジェクト301a、302aは、本来一体である。したがって、本来、オブジェクト301a−背景301b間の境界301cと、オブジェクト302a−背景302b間の境界302cとは連結している。そして、空隙303の幅wが十分小さい場合、この連結部分は直線で近似できる。境界情報(BL)は、この連結部分を直線によって指定する情報である。また、境界情報(BL)の設定は、利用者がマウス62を操作し、境界301cの空隙303側の端点304aと、境界302cの空隙側の端点304bとを指定(クリック)することににより行われる。すなわち、これらの端点304aと端点304bを結ぶ直線304が境界情報(BL)である。
境界情報入力手段14が、境界情報(BL)の入力を受け付けるとステップS19に進む。
FIG. 17 is a diagram visually showing boundary information (BL) input in this way.
In this example, it is assumed that the first image 301 and the second image 302 are arranged on the image display unit 210 (FIG. 16) of the main screen 200 with a gap 303 as shown in FIG. The first image 301 and the second image 302 in this example are composed of objects 301a and 302a and backgrounds 301b and 302b, respectively. Here, the first image 301 and the second image 302 are images obtained by dividing one image, and the objects 301a and 302a are originally integrated. Therefore, the boundary 301c between the object 301a and the background 301b and the boundary 302c between the object 302a and the background 302b are originally connected. If the width w of the gap 303 is sufficiently small, this connecting portion can be approximated by a straight line. The boundary information (BL) is information for designating the connected portion by a straight line. The boundary information (BL) is set by the user operating the mouse 62 and designating (clicking) the end point 304a on the gap 303 side of the boundary 301c and the end point 304b on the gap side of the boundary 302c. Is called. That is, the straight line 304 connecting these end points 304a and 304b is the boundary information (BL).
When the boundary information input unit 14 receives the input of boundary information (BL), the process proceeds to step S19.

[ステップS19]
境界情報入力手段14に入力された境界情報(BL)はRAM30に送られ、その記憶領域30aに記憶される。また、画像出力手段13は、記憶領域30aから境界情報(BL)を抽出し、ディスプレイ70に送り、表示させる。その後、ステップS2に戻る。
[Step S19]
The boundary information (BL) input to the boundary information input means 14 is sent to the RAM 30 and stored in the storage area 30a. Further, the image output means 13 extracts boundary information (BL) from the storage area 30a, sends it to the display 70, and displays it. Then, it returns to step S2.

[ステップS20]
制御手段28において、利用者のマウス62の操作により、「削除」のボタン209(図16)がクリックされたか否かを判断する。ここで、「削除」のボタン209がクリックされたと判断された場合には、ステップS21に進み、そうでない場合には、ステップS23に進む。
[Step S20]
In the control means 28, it is determined whether or not the “delete” button 209 (FIG. 16) is clicked by the user's operation of the mouse 62. If it is determined that the “delete” button 209 has been clicked, the process proceeds to step S21. If not, the process proceeds to step S23.

[ステップS21]
制御手段28(図3)の制御のもと、マウス62において境界情報(BL)を指定する情報(例えば、クリック等により決定される図17の直線304を指定する情報)の入力を受け付ける。入力された境界情報(BL)を指定する情報は、バス80を通じて境界情報入力手段14に送られ、境界情報入力手段14は、これを受け付ける。その後、ステップS22に送る。
[Step S21]
Under the control of the control means 28 (FIG. 3), input of information specifying boundary information (BL) with the mouse 62 (for example, information specifying the straight line 304 of FIG. 17 determined by clicking or the like) is accepted. Information specifying the input boundary information (BL) is sent to the boundary information input means 14 through the bus 80, and the boundary information input means 14 accepts the information. Then, it sends to step S22.

[ステップS22]
境界情報(BL)を指定する情報を受け取った境界情報入力手段14は、RAM30にアクセスし、この情報によって指定される境界情報(BL)を記憶領域30aから削除する。その後、ステップS2に戻る。
[Step S22]
The boundary information input means 14 that has received the information specifying the boundary information (BL) accesses the RAM 30 and deletes the boundary information (BL) specified by this information from the storage area 30a. Then, it returns to step S2.

[ステップS23]
制御手段28において、利用者のマウス62の操作により、「境界」のボタン207(図16)がクリックされたか否かを判断する。ここで、「境界」のボタン207がクリックされたと判断された場合には、ステップS24に進み、そうでない場合には、ステップS29に進む。
[Step S23]
In the control means 28, it is determined whether or not the “boundary” button 207 (FIG. 16) has been clicked by the user's operation of the mouse 62. If it is determined that the “boundary” button 207 has been clicked, the process proceeds to step S24. If not, the process proceeds to step S29.

[ステップS24]
制御手段28において、RAM30の記憶領域30jに記憶されている変数fが0であるか否かを判断する。ここで、変数f=0であった場合(記憶領域30jに変数fが記憶されていない初期状態も含む)、ステップS25に進み、そうでない場合には、ステップS27に進む。
[Step S24]
In the control unit 28 determines whether the variable f 1 is 0 stored in the storage area 30j of the RAM 30. If the variable f 1 = 0 (including the initial state in which the variable f 1 is not stored in the storage area 30j), the process proceeds to step S25. Otherwise, the process proceeds to step S27.

[ステップS25]
画像出力手段13において、ディスプレイ70に表示されている境界情報(BL)を非表示とし、ステップS26に進む。
[Step S25]
In the image output means 13, the boundary information (BL) displayed on the display 70 is not displayed, and the process proceeds to step S26.

[ステップS26]
制御手段28において、変数fに1を代入し、それをRAM30の記憶領域30jに格納する。その後、ステップS2に戻る。
[Step S26]
In the control means 28, 1 is substituted into the variable f 1 and stored in the storage area 30j of the RAM 30. Then, it returns to step S2.

[ステップS27]
画像出力手段13において、ディスプレイ70に境界情報(BL)を表示し、ステップS28に進む。
[Step S27]
In the image output means 13, the boundary information (BL) is displayed on the display 70, and the process proceeds to step S28.

[ステップS28]
制御手段28において、変数fに0を代入し、それをRAM30の記憶領域30jに格納する。その後、ステップS2に戻る。
[Step S28]
In the control means 28, 0 is substituted into the variable f 1 and stored in the storage area 30j of the RAM 30. Then, it returns to step S2.

[ステップS29]
制御手段28において、利用者のマウス62の操作により、第1の画像コントラスト・明るさ調整部220内の何れかのアクティブ部分がクリックされたか否かを判断する。ここで、第1の画像コントラスト・明るさ調整部220内の何れかのアクティブ部分がクリックされたと判断された場合、ステップS30に進み、そうでない場合には、ステップS31に進む。
[Step S29]
In the control unit 28, it is determined whether any active part in the first image contrast / brightness adjustment unit 220 is clicked by the user's operation of the mouse 62. If it is determined that any active part in the first image contrast / brightness adjustment unit 220 has been clicked, the process proceeds to step S30. If not, the process proceeds to step S31.

[ステップS30]
第1の画像のコントラスト・明るさを調整し、ステップS2に戻る。なお、この処理の詳細は後述する。
[Step S30]
The contrast and brightness of the first image are adjusted, and the process returns to step S2. Details of this process will be described later.

[ステップS31]
制御手段28において、利用者のマウス62の操作により、第2の画像コントラスト・明るさ調整部230内の何れかのアクティブ部分がクリックされたか否かを判断する。ここで、第2の画像コントラスト・明るさ調整部230内の何れかのアクティブ部分がクリックされたと判断された場合、ステップS32に進み、そうでない場合には、ステップS33に進む。
[Step S31]
In the control means 28, it is determined whether any active part in the second image contrast / brightness adjusting unit 230 has been clicked by the user's operation of the mouse 62. If it is determined that any active part in the second image contrast / brightness adjustment unit 230 has been clicked, the process proceeds to step S32. Otherwise, the process proceeds to step S33.

[ステップS32]
第2の画像のコントラスト・明るさを調整し、ステップS2に戻る。なお、この処理の詳細は後述する。
[Step S32]
The contrast and brightness of the second image are adjusted, and the process returns to step S2. Details of this process will be described later.

[ステップS33]
制御手段28において、利用者のマウス62の操作により、「合成」のボタン205(図16)がクリックされたか否かを判断する。ここで、「合成」のボタン205がクリックされたと判断された場合にはステップS34に進み、そうでない場合にはステップS35に進む。
[Step S33]
In the control means 28, it is determined whether or not the “composite” button 205 (FIG. 16) has been clicked by the user's operation of the mouse 62. If it is determined that the “composite” button 205 has been clicked, the process proceeds to step S34. If not, the process proceeds to step S35.

[ステップS34]
画像合成処理を行い、ステップS2に戻る。なお、画像合成処理の詳細については後述する。
[Step S34]
Image composition processing is performed, and the process returns to step S2. Details of the image composition processing will be described later.

[ステップS35]
制御手段28において、利用者のマウス62の操作により、「クリア」のボタン206(図16)がクリックされたか否かを判断する。ここで、「クリア」のボタン206がクリックされたと判断された場合にはステップS36に進み、そうでない場合にはステップS2に戻る。
[Step S35]
In the control means 28, it is determined whether or not the “clear” button 206 (FIG. 16) has been clicked by the user's operation of the mouse 62. If it is determined that the “clear” button 206 has been clicked, the process proceeds to step S36. If not, the process returns to step S2.

[ステップS36]
ステップS34で行われた画像合成処理結果をクリア(RAM30の記憶領域30e〜30iを初期化)してステップS2に戻る。
[Step S36]
The result of the image composition processing performed in step S34 is cleared (the storage areas 30e to 30i of the RAM 30 are initialized), and the process returns to step S2.

<第1の画像のコントラスト・明るさ調整処理>
次に、第1の画像のコントラスト・明るさ調整処理(図7:ステップS30)の詳細について説明する。
図8及び図9は、この第1の画像のコントラスト・明るさ調整処理の詳細を説明するためのフローチャートである。以下このフローチャートに沿って説明を行う。
<First image contrast / brightness adjustment processing>
Next, details of the first image contrast / brightness adjustment process (FIG. 7: step S30) will be described.
8 and 9 are flowcharts for explaining the details of the contrast / brightness adjustment processing of the first image. Hereinafter, description will be given along this flowchart.

[ステップS41]
制御手段28において、利用者のマウス62の操作により、調整部223(図16)のアクティブ部分がクリックされたか否かを判断する。ここで、「コントラスト」に対応するアクティブ部分223aがクリックされた場合にはステップS42に進み、「明るさ」に対応するアクティブ部分223bがクリックされた場合にはステップS43に進み、それ以外の場合にはステップS44に進む。
[Step S41]
In the control means 28, it is determined whether or not the active part of the adjustment unit 223 (FIG. 16) has been clicked by the user's operation of the mouse 62. If the active part 223a corresponding to “contrast” is clicked, the process proceeds to step S42. If the active part 223b corresponding to “brightness” is clicked, the process proceeds to step S43. Then, the process proceeds to step S44.

[ステップS42]
制御手段28において、変数fに0を代入し、この変数fをRAM30の記憶領域30jに記憶させる。そして、第1の画像のコントラスト・明るさ調整処理(ステップS30)を終了する。
[Step S42]
In the control unit 28 substitutes 0 for the variable f 2, and stores the variable f 2 in the storage area 30j of the RAM 30. Then, the contrast / brightness adjustment processing (step S30) of the first image ends.

[ステップS43]
制御手段28において、変数fに1を代入し、この変数fをRAM30の記憶領域30jに記憶させる。そして、第1の画像のコントラスト・明るさ調整処理(ステップS30)を終了する。
[Step S43]
In the control unit 28 substitutes 1 into the variable f 2, and stores the variable f 2 in the storage area 30j of the RAM 30. Then, the contrast / brightness adjustment processing (step S30) of the first image ends.

[ステップS44]
制御手段28において、利用者のマウス62の操作により、表示部224(図16)のアクティブ部分がクリックされたか否かを判断する。ここで、「全体」に対応するアクティブ部分224aがクリックされた場合にはステップS45に進み、「接続場所」に対応するアクティブ部分224bがクリックされた場合にはステップS46に進み、それ以外の場合にはステップS47に進む。
[Step S44]
In the control means 28, it is determined whether or not the active part of the display unit 224 (FIG. 16) has been clicked by the user's operation of the mouse 62. If the active part 224a corresponding to “whole” is clicked, the process proceeds to step S45. If the active part 224b corresponding to “connection place” is clicked, the process proceeds to step S46. Then, the process proceeds to step S47.

[ステップS45]
制御手段28において、変数fに0を代入し、この変数fをRAM30の記憶領域30jに記憶させる。そして、ステップS54に進む。
[Step S45]
In the control unit 28 substitutes 0 for the variable f 3, and stores the variable f 3 in the storage area 30j of the RAM 30. Then, the process proceeds to step S54.

[ステップS46]
制御手段28において、変数fに1を代入し、この変数fをRAM30の記憶領域30jに記憶させる。そして、ステップS54に進む。
[Step S46]
In the control unit 28 substitutes 1 into the variable f 3, and stores the variable f 3 in the storage area 30j of the RAM 30. Then, the process proceeds to step S54.

[ステップS47]
制御手段28において、利用者のマウス62の操作により、種類部222(図16)のアクティブ部分がクリックされたか否かを判断する。ここで、何れかの種類部222のアクティブ部分がクリックされていた場合にはステップS48に進み、そうでない場合には、ステップS55に進む。
[Step S47]
In the control means 28, it is determined whether or not the active portion of the type portion 222 (FIG. 16) has been clicked by the user's operation of the mouse 62. Here, when the active part of any kind part 222 is clicked, it progresses to step S48, and when that is not right, it progresses to step S55.

[ステップS48]
制御手段28において、種類部222のどのアクティブ部分がクリックされたかを判断する。ここで、「輝度」に対応するアクティブ部分222aがクリックされた場合にはステップS49に進み、「赤」に対応するアクティブ部分222bがクリックされた場合にはステップS50に進み、それ以外の場合にはステップS51に進む。
[Step S48]
The control means 28 determines which active part of the type part 222 has been clicked. If the active part 222a corresponding to “luminance” is clicked, the process proceeds to step S49. If the active part 222b corresponding to “red” is clicked, the process proceeds to step S50. Advances to step S51.

[ステップS49]
制御手段28において、変数fに0を代入し、この変数fをRAM30の記憶領域30jに記憶させる。そして、ステップS54に進む。
[Step S49]
In the control unit 28 substitutes 0 for the variable f 4, and stores the variable f 4 in a storage area 30j of the RAM 30. Then, the process proceeds to step S54.

[ステップS50]
制御手段28において、変数fに1を代入し、この変数fをRAM30の記憶領域30jに記憶させる。そして、ステップS54に進む。
[Step S50]
In the control unit 28 substitutes 1 into the variable f 4, and stores the variable f 4 in a storage area 30j of the RAM 30. Then, the process proceeds to step S54.

[ステップS51]
制御手段28において、種類部222のどのアクティブ部分がクリックされたかを判断する。ここで、「緑」に対応するアクティブ部分222cがクリックされた場合にはステップS52に進み、「青」に対応するアクティブ部分222dがクリックされた場合にはステップS53に進む。
[Step S51]
The control means 28 determines which active part of the type part 222 has been clicked. If the active portion 222c corresponding to “green” is clicked, the process proceeds to step S52. If the active portion 222d corresponding to “blue” is clicked, the process proceeds to step S53.

[ステップS52]
制御手段28において、変数fに2を代入し、この変数fをRAM30の記憶領域30jに記憶させる。そして、ステップS54に進む。
[Step S52]
In the control unit 28 substitutes 2 for the variable f 4, and stores the variable f 4 in a storage area 30j of the RAM 30. Then, the process proceeds to step S54.

[ステップS53]
制御手段28において、変数fに3を代入し、この変数fをRAM30の記憶領域30jに記憶させる。そして、ステップS54に進む。
[Step S53]
In the control unit 28 substitutes the variable f 4 to 3, and stores the variable f 4 in a storage area 30j of the RAM 30. Then, the process proceeds to step S54.

[ステップS54]
ヒストグラム生成手段16a(図4)において、第1の画像(g(第1の画像の処理後はg’))をRAM30の記憶領域30b或いは30dから抽出し、変数f,fをRAM30の記憶領域30jから抽出する。そして、変数f,fの値に応じ以下のようなヒストグラム(H)を生成し、RAM30の記憶領域30cに記憶させる。
[Step S54]
In the histogram generating means 16a (FIG. 4), the first image (g 1 (g 1 ′ after processing the first image)) is extracted from the storage area 30b or 30d of the RAM 30, and the variables f 3 and f 4 are set. Extracted from the storage area 30j of the RAM 30. Then, the following histogram (H 1 ) is generated according to the values of the variables f 3 and f 4 and stored in the storage area 30 c of the RAM 30.

=0:第1の画像全体のヒストグラム(H)を生成。
=1:第1の画像における、第2の画像との接続部分(空隙側エッジ部分)のヒストグラム(H)を生成。
=0:第1の画像の全色相のヒストグラム(H)を生成。
=1:第1の画像の赤の要素のヒストグラム(H)を生成。
=2:第1の画像の緑の要素のヒストグラム(H)を生成。
=3:第1の画像の青の要素のヒストグラム(H)を生成。
記憶領域30cに記憶されたヒストグラム(H)は、画像出力手段13において抽出され、ディスプレイ70に対して出力される。そして、ディスプレイ70は、このヒストグラム(H)を、図16に例示したヒストグラム表示部221に表示する。その後、第1の画像のコントラスト・明るさ調整処理(ステップS30)を終了する。
f 3 = 0: A histogram (H 1 ) of the entire first image is generated.
f 3 = 1: A histogram (H 1 ) of a connection portion (gap side edge portion) with the second image in the first image is generated.
f 4 = 0: A histogram (H 1 ) of all hues of the first image is generated.
f 4 = 1: A histogram (H 1 ) of the red element of the first image is generated.
f 4 = 2: A histogram (H 1 ) of the green element of the first image is generated.
f 4 = 3: A histogram (H 1 ) of the blue element of the first image is generated.
The histogram (H 1 ) stored in the storage area 30 c is extracted by the image output means 13 and output to the display 70. The display 70 displays the histogram (H 1 ) on the histogram display unit 221 illustrated in FIG. Thereafter, the contrast / brightness adjustment processing (step S30) of the first image is ended.

[ステップS55]
制御手段28において、利用者のマウス62の操作により、調整レバー225(図16)がドラッグされたか否かを判断する。ここで、制御手段28において、調整レバー225がドラッグされていないと判断された場合は、ステップS60に進む。一方、調整レバー225がドラッグされていると判断された場合は、制御手段28において、RAM30に記憶の記憶領域30jに格納された変数fの値を抽出し、それが0であった場合(変数fが記憶されていない場合も含む)にはステップS56に進み、1であった場合には、ステップS58に進む。
[Step S55]
In the control means 28, it is determined whether or not the adjustment lever 225 (FIG. 16) has been dragged by the user's operation of the mouse 62. If the control means 28 determines that the adjustment lever 225 is not dragged, the process proceeds to step S60. On the other hand, when the adjustment lever 225 is determined to be dragged, the control unit 28 extracts the value of the variable f 2 stored in the storage area 30j of the memory in the RAM 30, when it is 0 ( the included) if the variable f 2 is not stored proceeds to step S56, in the case was 1, the process proceeds to step S58.

[ステップS56]
調整情報入力手段15において、調整レバー225のドラックに関する情報(「画像の明るさを変化させるための調整情報」に相当)を、バス80を通じてマウス62から受け取る(入力を受け付ける)。そして、調整情報入力手段15は、この調整情報に基づき、画像の明るさを決定し、それを明るさ調整情報(ad)とし、画像調整手段16に送る。そして、ステップS57に進む。
[Step S56]
In the adjustment information input means 15, information related to the drag of the adjustment lever 225 (corresponding to “adjustment information for changing the brightness of the image”) is received from the mouse 62 (accepts input) through the bus 80. Then, the adjustment information input means 15 determines the brightness of the image based on this adjustment information, sends it to the image adjustment means 16 as brightness adjustment information (ad 1 ). Then, the process proceeds to step S57.

[ステップS57]
画像調整手段16の明るさ調整手段16bにおいて、明るさ調整情報(ad)を受け取る。さらに、明るさ調整手段16bは、第1の画像(g(第1の画像の処理後はg’))をRAM30の記憶領域30b或いは30dから抽出し、この第1の画像の明るさを、明るさ調整情報(ad)が示す明るさに変化させる(すなわち、「調整情報に基づき第1の画像の明るさを変化させる」)。そして、明るさ調整手段16bは、その明るさを変化させた第1の画像(g’)をRAM30に送り、その記憶領域30dに記憶させる。そして、ステップS61に進む。
[Step S57]
The brightness adjustment unit 16b of the image adjustment unit 16 receives the brightness adjustment information (ad 1 ). Further, the brightness adjustment unit 16b extracts the first image (g 1 (g 1 ′ after processing the first image)) from the storage area 30b or 30d of the RAM 30, and the brightness of the first image. Is changed to the brightness indicated by the brightness adjustment information (ad 1 ) (that is, “the brightness of the first image is changed based on the adjustment information”). Then, the brightness adjusting unit 16b sends the first image (g 1 ′) whose brightness has been changed to the RAM 30 and stores it in the storage area 30d. Then, the process proceeds to step S61.

[ステップS58]
調整情報入力手段15において、調整レバー225のドラックに関する情報(「画像のコントラストを変化させるための調整情報」に相当)を、バス80を通じてマウス62から受け取る(入力を受け付ける)。そして、調整情報入力手段15は、この調整情報に基づき、画像のコントラストを決定し、それをコントラスト調整情報(ad)とし、画像調整手段16に送る。そして、ステップS59に進む。
[Step S58]
In the adjustment information input means 15, information related to the drag of the adjustment lever 225 (corresponding to “adjustment information for changing the contrast of the image”) is received from the mouse 62 through the bus 80 (input is received). Then, the adjustment information input means 15 determines the contrast of the image based on this adjustment information, sends it as contrast adjustment information (ad 3 ), and sends it to the image adjustment means 16. Then, the process proceeds to step S59.

[ステップS59]
画像調整手段16のコントラスト調整手段16cにおいて、コントラスト調整情報(ad)を受け取る。さらに、コントラスト調整手段16cは、第1の画像(g(第1の画像の処理後はg’))をRAM30の記憶領域30b或いは30dから抽出し、この第1の画像のコントラストをコントラスト調整情報(ad)が示すコントラストに変化させる(すなわち、「調整情報に基づき第1の画像のコントラストを変化させる」)。そして、コントラスト調整手段16cは、そのコントラスト変化させた第1の画像(g’)をRAM30に送り、その記憶領域30dに記憶させる。そして、ステップS61に進む。
[Step S59]
The contrast adjustment unit 16c of the image adjustment unit 16 receives the contrast adjustment information (ad 3 ). Further, the contrast adjusting unit 16c extracts the first image (g 1 (g 1 ′ after processing the first image)) from the storage area 30b or 30d of the RAM 30, and the contrast of the first image is determined as the contrast. Change to the contrast indicated by the adjustment information (ad 3 ) (that is, “change the contrast of the first image based on the adjustment information”). Then, the contrast adjusting means 16c sends the first image (g 1 ′) whose contrast has been changed to the RAM 30 and stores it in the storage area 30d. Then, the process proceeds to step S61.

[ステップS60]
このステップに進むのは、自動調整ボタン226(図16)がクリックされている場合である。本ステップでは、画像調整手段16において、第1の画像の自動調整を行い、ステップS61に進む。この処理の詳細は後述する。
[Step S60]
The process proceeds to this step when the automatic adjustment button 226 (FIG. 16) is clicked. In this step, the image adjustment unit 16 performs automatic adjustment of the first image, and the process proceeds to step S61. Details of this processing will be described later.

[ステップS61]
画像出力手段13(図3)において、RAM30の記憶領域30dから第1の画像(g1')及び第2の画像(g')を抽出し、これらを、バス80を通じてディスプレイ70に対して出力する。そして、ディスプレイ70において、これら第1の画像(g1')及び第2の画像(g')を画像表示部210(図16)に表示する。
[Step S61]
In the image output means 13 (FIG. 3), the first image (g 1 ′) and the second image (g 2 ′) are extracted from the storage area 30 d of the RAM 30, and these are extracted to the display 70 through the bus 80. Output. Then, the display 70 displays the first image (g 1 ′) and the second image (g 2 ′) on the image display unit 210 (FIG. 16).

<第1の画像の自動調整>
次に、第1の画像の自動調整処理(図9:ステップS60)の詳細について説明する。
<Automatic adjustment of the first image>
Next, details of the first image automatic adjustment process (FIG. 9: step S60) will be described.

図10は、この第1の画像の自動調整の詳細を説明するためのフローチャートである。以下このフローチャートに沿って説明を行う。   FIG. 10 is a flowchart for explaining the details of the automatic adjustment of the first image. Hereinafter, description will be given along this flowchart.

[ステップS71]
画像調整手段16のヒストグラム生成手段16a(図4)において、第1の画像(g(第1の画像の処理後はg’))及び第2の画像(g(第2の画像の処理後はg’))を、RAM30の記憶領域30b或いは30dから抽出し、第1の画像及び第2の画像について、輝度とその輝度を有するピクセルの数(カウント数)とのヒストグラム(H、H)を生成する。
[Step S71]
In the histogram generation means 16a (FIG. 4) of the image adjustment means 16, the first image (g 1 (g 1 ′ after processing the first image)) and the second image (g 2 (second image After processing, g 2 ′)) is extracted from the storage area 30b or 30d of the RAM 30, and for the first image and the second image, a histogram of the luminance and the number of pixels having the luminance (count number) (H 1 , H 2 ).

なお、これらのヒストグラム(H、H)は、第1の画像の明るさとコントラストを調整するためのものであり、その調整の目的は、第1の画像と第2の画像とを見栄えよく(結合部分が目立たないように)合成することである。したがって、これらのヒストグラム(H、H)は、第1の画像及び第2の画像の連結部分側(接続部分)のヒストグラムであることが望ましい。すなわち、例えば、第1の画像及び第2の画像が、雑誌の見開きページの綴じ込み部分を挟んだ左右のページがある場合、これらのヒストグラム(H、H)は、左ページの綴じ込み部分側画像のヒストグラム及び右ページの綴じ込み部分側画像のヒストグラムであることが望ましい。 These histograms (H 1 , H 2 ) are for adjusting the brightness and contrast of the first image, and the purpose of the adjustment is to make the first image and the second image look good. Synthesizing (so that the binding part is not noticeable). Therefore, it is desirable that these histograms (H 1 , H 2 ) are histograms on the connection portion side (connection portion) of the first image and the second image. That is, for example, when the first image and the second image have left and right pages sandwiching the binding portion of the magazine spread page, these histograms (H 1 , H 2 ) are displayed on the binding portion side of the left page. The histogram of the image and the histogram of the binding portion side image on the right page are desirable.

ヒストグラム生成手段16aにおいて生成されたヒストグラム(H、H)は、明るさ調整手段16b及びコントラスト調整手段16cに送られ、ステップS72に進む。 The histograms (H 1 , H 2 ) generated by the histogram generation unit 16a are sent to the brightness adjustment unit 16b and the contrast adjustment unit 16c, and the process proceeds to step S72.

[ステップS72]
コントラスト調整手段16cにおいて、第1の画像に対応するヒストグラムHの幅(a)と、第2の画像に対応するヒストグラムHの幅(b)との差が許容範囲(p≧0)内であるか否かを判断する。すなわち、
|Hの幅(a)−Hの幅(b)|≦p
であるか否かを判断する。なお、「ヒストグラムの幅」とは、カウント数が閾値以上となっている輝度の最大値から、カウント数が閾値以上となっている輝度の最小値を引いた値を意味する。
[Step S72]
In the contrast adjusting unit 16c, the difference between the width (a 3 ) of the histogram H 1 corresponding to the first image and the width (b 3 ) of the histogram H 2 corresponding to the second image is within an allowable range (p 1 ≧ 0) is determined. That is,
| Width of H 1 (a 3 ) −Width of H 2 (b 3 ) | ≦ p 1
It is determined whether or not. The “histogram width” means a value obtained by subtracting the minimum luminance value with the count number equal to or greater than the threshold value from the maximum luminance value with the count number equal to or greater than the threshold value.

図18の(a)は、第1の画像に対応するヒストグラムHの例示であり、(b)は、第2の画像に対応するヒストグラムHの例示である。なお、これらのヒストグラムの横軸は輝度であり、縦軸はその輝度を有するピクセルの数(カウント数)である(後述する図18の(c)(d)についても同様)。 (A) of FIG. 18 is illustrative of the histogram H 1 corresponding to the first image, (b) are exemplary of a histogram H 2 corresponding to the second image. Note that the horizontal axis of these histograms is the luminance, and the vertical axis is the number of pixels having the luminance (count number) (the same applies to (c) and (d) of FIG. 18 described later).

この例のヒストグラムHの場合、カウント数が閾値以上となっている輝度の最大値はaであり、カウント数が閾値以上となっている輝度の最小値はaであり、その幅aは、a=a−aである(図18の(a))。また、この例のヒストグラムHの場合、カウント数が閾値以上となっている輝度の最大値はbであり、カウント数が閾値以上となっている輝度の最小値はbであり、その幅bは、b=b−bである(図18の(b))。 In the case of the histogram H 1 in this example, the maximum value of the luminance with the count number equal to or greater than the threshold is a 2 , the minimum value of the luminance with the count number equal to or greater than the threshold is a 1 , and its width a 3 is a 3 = a 2 −a 1 ((a) of FIG. 18). In the case of the histogram H 2 in this example, the maximum value of the luminance with the count number equal to or greater than the threshold is b 2 , and the minimum value of the luminance with the count number equal to or greater than the threshold is b 1 , The width b 3 is b 3 = b 2 −b 1 ((b) in FIG. 18).

ここで、コントラスト調整手段16cにおいて、|Hの幅(a)−Hの幅(b)|≦pを満たすと判断された場合には、ステップS75に進む。一方、これを満たさず、Hの幅(a)−Hの幅(b)>pであった場合には、ステップS73に進み、Hの幅(b)−Hの幅(a)>pであった場合には、ステップS74に進む。 Here, the contrast adjustment unit 16c, | H 1 having a width (a 3) -H 2 width (b 3) | When it is determined that satisfy ≦ p 1, the process proceeds to step S75. On the other hand, if this is not satisfied and the width of H 1 (a 3 ) −the width of H 2 (b 3 )> p 1 , the process proceeds to step S73 and the width of H 2 (b 3 ) −H 1. If the width (a 3 )> p 1 is satisfied, the process proceeds to step S74.

例えば、図18の(a)(b)の例の場合、許容範囲p=0とすると、Hの幅(a)−Hの幅(b)>pであるため、ステップS73に進む。 For example, in the example of FIGS. 18A and 18B, if the allowable range p 1 = 0, the width of H 1 (a 3 ) −the width of H 2 (b 3 )> p 1 , Proceed to S73.

[ステップS73]
コントラスト調整手段16cにおいて、第1の画像(g(第1の画像の処理後はg’))を、RAM30の記憶領域30b或いは30dから抽出し、そのコントラストを既定の値だけ下げる(減じる)。そして、コントラスト調整手段16cにおいて、その第1の画像(g’)がRAM30の記憶領域30dに格納され、ステップS71に戻る。
[Step S73]
In the contrast adjusting unit 16c, the first image (g 1 (g 1 ′ after processing the first image)) is extracted from the storage area 30b or 30d of the RAM 30, and the contrast is reduced (reduced) by a predetermined value. ). Then, in the contrast adjusting unit 16c, the first image (g 1 ′) is stored in the storage area 30d of the RAM 30, and the process returns to step S71.

[ステップS74]
コントラスト調整手段16cにおいて、第1の画像(g(第1の画像の処理後はg’))を、RAM30の記憶領域30b或いは30dから抽出し、そのコントラストを既定の値だけ上げる(加算する)。そして、コントラスト調整手段16cにおいて、その第1の画像(g’)がRAM30の記憶領域30dに格納され、ステップS71に戻る。
[Step S74]
In the contrast adjusting means 16c, the first image (g 1 (g 1 ′ after processing the first image)) is extracted from the storage area 30b or 30d of the RAM 30, and the contrast is increased by a predetermined value (addition). To do). Then, in the contrast adjusting unit 16c, the first image (g 1 ′) is stored in the storage area 30d of the RAM 30, and the process returns to step S71.

[ステップS75]
明るさ調整手段16bにおいて、ヒストグラムHの位置とヒストグラムHの位置との差が許容範囲(p≧0)内であるか否かを判断する。すなわち、
|Hの位置(a)−Hの位置(b)|≦p
であるか否かを判断する。なお、この例の「ヒストグラムの位置」とは、カウント数が閾値以上となっている輝度の最小値を意味する。
[Step S75]
In the brightness adjusting unit 16b, the difference between the position of the histogram of H 2 histograms H 1 determines whether it is within the allowable range (p 2 ≧ 0). That is,
| H 1 position (a 1 ) −H 2 position (b 1 ) | ≦ p 2
It is determined whether or not. Note that the “histogram position” in this example means the minimum value of luminance at which the count number is equal to or greater than a threshold value.

図18の(c)は、(a)(b)に例示したヒストグラム(H,H)の第1の画像及び第2の画像に対し、ステップS71〜S74の処理を繰り返し、ステップS72において|Hの幅(a)−Hの幅(b)|≦pであると判断された第1の画像のヒストグラムHの例示である。 (C) in FIG. 18, with respect to the first image and the second image of (a) histogram illustrated in (b) (H 1, H 2), repeats the processing of steps S71 to S74, in step S72 | H 1 width (a 3 ) −H 2 width (b 3 ) | ≦ p 1 is an illustration of the histogram H 1 of the first image determined to be p 1 .

図18の(c)の例の場合、ヒストグラムHの位置は、カウント数が閾値以上となっている輝度の最小値aである。また、(b)に例示したヒストグラムHの位置は、カウント数が閾値以上となっている輝度の最小値bである。 For example (c) of FIG. 18, the position of the histogram H 1 is the minimum value a 1 of luminance count is equal to or greater than a threshold value. The position of the histogram H 2 illustrated in (b) is the minimum value b 1 of the luminance count is equal to or greater than a threshold value.

ここで、明るさ調整手段16bにおいて、|Hの位置(a)−Hの位置(b)|≦pを満たすと判断された場合には、第1の画像の自動生成処理(ステップS60)を終了する。一方、これを満たさず、Hの位置(a)−Hの位置(b)>pであった場合には、ステップS76に進み、Hの位置(b)−Hの位置(a)>pであった場合には、ステップS77に進む。 Here, the brightness adjusting unit 16b, | position of H 1 (a 1) position of -H 2 (b 1) | When it is determined that satisfy ≦ p 2, the automatic generation processing of the first image (Step S60) is terminated. On the other hand, if this is not satisfied and the position of H 1 (a 1 ) −the position of H 2 (b 1 )> p 2 , the process proceeds to step S76 and the position of H 2 (b 1 ) −H 1. If the position (a 1 )> p 2 , the process proceeds to step S77.

例えば、図18の(b)(c)の例の場合、許容範囲p=0とすると、Hの位置(b)−Hの位置(a)>pであるため、ステップS77に進む。
また、この例において、|Hの位置(a)−Hの位置(b)|≦pを満たすと判断された第1の画像のヒストグラムHは、図18の(d)のように、(b)に例示する第2の画像のヒストグラムHと、コントラスト及び明るさが許容範囲内(この例では一致)となっている。
For example, in the example of FIGS. 18B and 18C, if the allowable range p 2 = 0, the position of H 2 (b 1 ) −the position of H 1 (a 1 )> p 2 , Proceed to S77.
In this example, the histogram H 1 of the first image determined to satisfy the position of | H 1 (a 1 ) −the position of H 2 (b 1 ) | ≦ p 2 is shown in FIG. As described above, the histogram H2 of the second image illustrated in (b), the contrast, and the brightness are within the allowable range (in this example, coincident).

なお、この例では、カウント数が閾値以上となっている輝度の最小値を「ヒストグラムの位置」とするが、カウント数が閾値以上となっている輝度の最大値(図18の(b)(c)におけるa、b2)を「ヒストグラムの位置」として取り扱うこととしてもよい。 In this example, the minimum luminance value with a count number equal to or greater than the threshold value is defined as “histogram position”, but the maximum luminance value with the count number equal to or greater than the threshold value ((b) in FIG. 18 ( It is possible to treat a 2 and b2) in c) as “histogram positions”.

[ステップS76]
明るさ調整手段16bにおいて、第1の画像(g’)を、RAM30の記憶領域30dから抽出し、その明るさを既定の値だけ下げる(減じる)。そして、明るさ調整手段16bにおいて、その第1の画像(g’)がRAM30の記憶領域30dに格納され、ステップS71に戻る。
[Step S76]
In the brightness adjustment means 16b, the first image (g 1 ′) is extracted from the storage area 30d of the RAM 30, and the brightness is reduced (reduced) by a predetermined value. Then, the brightness adjusting means 16b stores the first image (g 1 ′) in the storage area 30d of the RAM 30, and the process returns to step S71.

[ステップS77]
明るさ調整手段16bにおいて、第1の画像(g’)を、RAM30の記憶領域30dから抽出し、その明るさを既定の値だけ上げる(加算する)。そして、明るさ調整手段16bにおいて、その第1の画像(g’)がRAM30の記憶領域30dに格納され、ステップS71に戻る。
[Step S77]
In the brightness adjustment unit 16b, the first image (g 1 ′) is extracted from the storage area 30d of the RAM 30, and the brightness is increased (added) by a predetermined value. Then, the brightness adjusting means 16b stores the first image (g 1 ′) in the storage area 30d of the RAM 30, and the process returns to step S71.

<第2の画像のコントラスト・明るさ調整処理>
次に、第2の画像のコントラスト・明るさ調整処理(図7:ステップS32)の詳細について説明する。
<Second image contrast / brightness adjustment processing>
Next, details of the second image contrast / brightness adjustment process (FIG. 7: step S32) will be described.

図11及び図12は、この第2の画像のコントラスト・明るさ調整処理の詳細を説明するためのフローチャートである。以下このフローチャートに沿って説明を行う。   11 and 12 are flowcharts for explaining details of the contrast / brightness adjustment processing of the second image. Hereinafter, description will be given along this flowchart.

[ステップS81]
制御手段28において、利用者のマウス62の操作により、調整部233(図16)のアクティブ部分がクリックされたか否かを判断する。ここで、「コントラスト」に対応するアクティブ部分233aがクリックされた場合にはステップS82に進み、「明るさ」に対応するアクティブ部分233bがクリックされた場合にはステップS83に進み、それ以外の場合にはステップS84に進む。
[Step S81]
In the control means 28, it is determined whether or not the active part of the adjustment unit 233 (FIG. 16) has been clicked by the user's operation of the mouse 62. If the active part 233a corresponding to “contrast” is clicked, the process proceeds to step S82. If the active part 233b corresponding to “brightness” is clicked, the process proceeds to step S83. Then, the process proceeds to step S84.

[ステップS82]
制御手段28において、変数fに0を代入し、この変数fをRAM30の記憶領域30jに記憶させる。そして、第2の画像のコントラスト・明るさ調整処理(ステップS32)を終了する。
[Step S82]
In the control unit 28 substitutes the variable f 5 to 0, and stores the variable f 5 in the storage area 30j of the RAM 30. Then, the contrast / brightness adjustment process (step S32) of the second image ends.

[ステップS83]
制御手段28において、変数fに1を代入し、この変数fをRAM30の記憶領域30jに記憶させる。そして、第2の画像のコントラスト・明るさ調整処理(ステップS32)を終了する。
[Step S83]
In the control unit 28 substitutes 1 into the variable f 5, and stores the variable f 5 in the storage area 30j of the RAM 30. Then, the contrast / brightness adjustment process (step S32) of the second image ends.

[ステップS84]
制御手段28において、利用者のマウス62の操作により、表示部234(図16)のアクティブ部分がクリックされたか否かを判断する。ここで、「全体」に対応するアクティブ部分234aがクリックされた場合にはステップS85に進み、「接続場所」に対応するアクティブ部分234bがクリックされた場合にはステップS86に進み、それ以外の場合にはステップS87に進む。
[Step S84]
In the control means 28, it is determined whether or not the active part of the display unit 234 (FIG. 16) has been clicked by the user's operation of the mouse 62. If the active part 234a corresponding to “whole” is clicked, the process proceeds to step S85. If the active part 234b corresponding to “connection place” is clicked, the process proceeds to step S86. Then, the process proceeds to step S87.

[ステップS85]
制御手段28において、変数fに0を代入し、この変数fをRAM30の記憶領域30jに記憶させる。そして、ステップS94に進む。
[Step S85]
In the control unit 28 substitutes 0 for the variable f 6, and stores the variable f 6 in the storage area 30j of the RAM 30. Then, the process proceeds to step S94.

[ステップS86]
制御手段28において、変数fに1を代入し、この変数fをRAM30の記憶領域30jに記憶させる。そして、ステップS94に進む。
[Step S86]
In the control unit 28 substitutes 1 into the variable f 6, and stores the variable f 6 in the storage area 30j of the RAM 30. Then, the process proceeds to step S94.

[ステップS87]
制御手段28において、利用者のマウス62の操作により、種類部232(図16)のアクティブ部分がクリックされたか否かを判断する。ここで、何れかの種類部232のアクティブ部分がクリックされていた場合にはステップS88に進み、そうでない場合には、ステップS95に進む。
[Step S87]
In the control means 28, it is determined whether or not the active portion of the type portion 232 (FIG. 16) has been clicked by the user's operation of the mouse 62. Here, when the active part of any kind part 232 is clicked, it progresses to step S88, and when that is not right, it progresses to step S95.

[ステップS88]
制御手段28において、種類部232のどのアクティブ部分がクリックされたかを判断する。ここで、「輝度」に対応するアクティブ部分232aがクリックされた場合にはステップS89に進み、「赤」に対応するアクティブ部分232bがクリックされた場合にはステップS90に進み、それ以外の場合にはステップS91に進む。
[Step S88]
The control means 28 determines which active part of the type part 232 has been clicked. If the active part 232a corresponding to “luminance” is clicked, the process proceeds to step S89. If the active part 232b corresponding to “red” is clicked, the process proceeds to step S90. Advances to step S91.

[ステップS89]
制御手段28において、変数fに0を代入し、この変数fをRAM30の記憶領域30jに記憶させる。そして、ステップS94に進む。
[Step S89]
In the control unit 28 substitutes 0 for the variable f 7, and stores the variable f 7 in the storage area 30j of the RAM 30. Then, the process proceeds to step S94.

[ステップS90]
制御手段28において、変数fに1を代入し、この変数fをRAM30の記憶領域30jに記憶させる。そして、ステップS94に進む。
[Step S90]
In the control unit 28 substitutes 1 into the variable f 7, and stores the variable f 7 in the storage area 30j of the RAM 30. Then, the process proceeds to step S94.

[ステップS91]
制御手段28において、種類部232のどのアクティブ部分がクリックされたかを判断する。ここで、「緑」に対応するアクティブ部分232cがクリックされた場合にはステップS92に進み、「青」に対応するアクティブ部分232dがクリックされた場合にはステップS93に進む。
[Step S91]
The control means 28 determines which active part of the type part 232 has been clicked. If the active part 232c corresponding to “green” is clicked, the process proceeds to step S92. If the active part 232d corresponding to “blue” is clicked, the process proceeds to step S93.

[ステップS92]
制御手段28において、変数fに2を代入し、この変数fをRAM30の記憶領域30jに記憶させる。そして、ステップS94に進む。
[Step S92]
In the control unit 28 substitutes 2 for the variable f 7, and stores the variable f 7 in the storage area 30j of the RAM 30. Then, the process proceeds to step S94.

[ステップS93]
制御手段28において、変数fに3を代入し、この変数fをRAM30の記憶領域30jに記憶させる。そして、ステップS94に進む。
[Step S93]
In the control unit 28 substitutes 3 to the variable f 7, and stores the variable f 7 in the storage area 30j of the RAM 30. Then, the process proceeds to step S94.

[ステップS94]
ヒストグラム生成手段16a(図4)において、第2の画像(g(第2の画像の処理後はg’))をRAM30の記憶領域30b或いは30dから抽出し、変数f,fをRAM30の記憶領域30jから抽出する。そして、変数f,fの値に応じ以下のようなヒストグラム(H)を生成し、RAM30の記憶領域30cに記憶させる。
[Step S94]
In the histogram generation means 16a (FIG. 4), the second image (g 2 (g 2 ′ after the processing of the second image)) is extracted from the storage area 30b or 30d of the RAM 30, and the variables f 6 and f 7 are set. Extracted from the storage area 30j of the RAM 30. Then, the following histogram (H 2 ) is generated according to the values of the variables f 6 and f 7 and stored in the storage area 30 c of the RAM 30.

=0:第2の画像全体のヒストグラム(H)を生成。
=1:第2の画像における、第1の画像との接続部分(空隙側エッジ部分)のヒストグラム(H)を生成。
=0:第2の画像の全色相のヒストグラム(H)を生成。
=1:第2の画像の赤の要素のヒストグラム(H)を生成。
=2:第2の画像の緑の要素のヒストグラム(H)を生成。
=3:第2の画像の青の要素のヒストグラム(H)を生成。
記憶領域30cに記憶されたヒストグラム(H)は、画像出力手段13において抽出され、ディスプレイ70に対して出力される。ディスプレイ70は、このヒストグラム(H)を、図16に例示したヒストグラム表示部231に表示する。その後、第1の画像のコントラスト・明るさ調整処理(ステップS32)が終了する。
f 6 = 0: A histogram (H 2 ) of the entire second image is generated.
f 6 = 1: A histogram (H 2 ) of a connection portion (gap side edge portion) with the first image in the second image is generated.
f 7 = 0: A histogram (H 2 ) of all hues of the second image is generated.
f 7 = 1: A histogram (H 2 ) of the red element of the second image is generated.
f 7 = 2: A histogram (H 2 ) of the green element of the second image is generated.
f 7 = 3: A histogram (H 2 ) of the blue element of the second image is generated.
The histogram (H 2 ) stored in the storage area 30 c is extracted by the image output means 13 and output to the display 70. The display 70 displays the histogram (H 2 ) on the histogram display unit 231 illustrated in FIG. Thereafter, the contrast / brightness adjustment processing (step S32) of the first image ends.

[ステップS95]
制御手段28において、利用者のマウス62の操作により、調整レバー235(図16)がドラッグされたか否かを判断する。ここで、制御手段28において、調整レバー235がドラッグされていないと判断された場合は、ステップS100に進む。一方、調整レバー235がドラッグされていると判断された場合は、制御手段28において、RAM30に記憶の記憶領域30jに格納された変数f5の値を抽出し、それが0であった場合(変数f5が記憶されていない場合も含む)にはステップS96に進み、1であった場合には、ステップS98に進む。
[Step S95]
In the control means 28, it is determined whether or not the adjustment lever 235 (FIG. 16) has been dragged by the user's operation of the mouse 62. If the control means 28 determines that the adjustment lever 235 has not been dragged, the process proceeds to step S100. On the other hand, if it is determined that the adjustment lever 235 is dragged, the control means 28 extracts the value of the variable f 5 stored in the storage area 30j of the RAM 30 and if it is 0 ( the included) if the variable f 5 is not stored proceeds to step S96, in the case were 1 proceeds to step S98.

[ステップS96]
調整情報入力手段15において、調整レバー235のドラックに関する情報(「画像の明るさを変化させるための調整情報」に相当)を、バス80を通じてマウス62から受け取る(入力を受け付ける)。そして、調整情報入力手段15は、この調整情報に基づき、画像の明るさを決定し、それを明るさ調整情報(ad)とし、画像調整手段16に送る。そして、ステップS97に進む。
[Step S96]
In the adjustment information input means 15, information related to the drag of the adjustment lever 235 (corresponding to “adjustment information for changing the brightness of the image”) is received from the mouse 62 via the bus 80 (input is received). Then, the adjustment information input means 15 determines the brightness of the image based on this adjustment information, sends it to the image adjustment means 16 as brightness adjustment information (ad 2 ). Then, the process proceeds to step S97.

[ステップS97]
画像調整手段16の明るさ調整手段16bにおいて、明るさ調整情報(ad)を受け取る。さらに、明るさ調整手段16bは、第2の画像(g(第2の画像の処理後はg’))をRAM30の記憶領域30b或いは30dから抽出し、この第2の画像の明るさを、明るさ調整情報(ad)が示す明るさに変化させる(すなわち、「調整情報に基づき第2の画像の明るさを変化させる」)。そして、明るさ調整手段16bは、その明るさを変化させた第2の画像(g’)をRAM30に送り、その記憶領域30dに記憶させる。そして、ステップS101に進む。
[Step S97]
The brightness adjustment unit 16b of the image adjustment unit 16 receives the brightness adjustment information (ad 2 ). Further, the brightness adjusting unit 16b extracts the second image (g 2 (g 2 ′ after processing the second image)) from the storage area 30b or 30d of the RAM 30, and the brightness of the second image. Is changed to the brightness indicated by the brightness adjustment information (ad 2 ) (that is, “the brightness of the second image is changed based on the adjustment information”). Then, the brightness adjustment unit 16b sends the second image (g 2 ′) whose brightness is changed to the RAM 30 and stores it in the storage area 30d. Then, the process proceeds to step S101.

[ステップS98]
調整情報入力手段15において、調整レバー235のドラックに関する情報(「画像のコントラストを変化させるための調整情報」に相当)を、バス80を通じてマウス62から受け取る(入力を受け付ける)。そして、調整情報入力手段15は、この調整情報に基づき、画像のコントラストを決定し、それをコントラスト調整情報(ad)とし、画像調整手段16に送る。そして、ステップS99に進む。
[Step S98]
In the adjustment information input means 15, information related to the drag of the adjustment lever 235 (corresponding to “adjustment information for changing the contrast of the image”) is received from the mouse 62 through the bus 80 (input is received). Then, the adjustment information input means 15 determines the contrast of the image based on this adjustment information, sends it as contrast adjustment information (ad 4 ), and sends it to the image adjustment means 16. Then, the process proceeds to step S99.

[ステップS99]
画像調整手段16のコントラスト調整手段16cにおいて、コントラスト調整情報(ad)を受け取る。さらに、コントラスト調整手段16cは、第2の画像(g(第2の画像の処理後はg’))をRAM30の記憶領域30b或いは30dから抽出し、この第2の画像のコントラストをコントラスト調整情報(ad)が示すコントラストに変化させる(すなわち、「調整情報に基づき第2の画像のコントラストを変化させる」)。そして、コントラスト調整手段16cは、そのコントラスト変化させた第2の画像(g’)をRAM30に送り、その記憶領域30dに記憶させる。そして、ステップS101に進む。
[Step S99]
The contrast adjustment means 16c of the image adjustment means 16 receives the contrast adjustment information (ad 4 ). Further, the contrast adjusting unit 16c extracts the second image (g 2 (g 2 ′ after processing the second image)) from the storage area 30b or 30d of the RAM 30, and the contrast of the second image is determined as the contrast. Change to the contrast indicated by the adjustment information (ad 4 ) (that is, “change the contrast of the second image based on the adjustment information”). Then, the contrast adjusting unit 16c sends the second image (g 2 ′) whose contrast has been changed to the RAM 30 and stores it in the storage area 30d. Then, the process proceeds to step S101.

[ステップS100]
このステップに進むのは、自動調整ボタン236(図16)がクリックされている場合である。本ステップでは、画像調整手段16において、第2の画像の自動調整を行い、ステップS101に進む。この処理の詳細は後述する。
[Step S100]
The process proceeds to this step when the automatic adjustment button 236 (FIG. 16) is clicked. In this step, the image adjustment unit 16 performs automatic adjustment of the second image, and the process proceeds to step S101. Details of this processing will be described later.

[ステップS101]
画像出力手段13(図3)において、RAM30の記憶領域30dから第1の画像(g1')及び第2の画像(g')を抽出し、これらを、バス80を通じてディスプレイ70に対して出力する。そして、ディスプレイ70において、これら第1の画像(g1')及び第2の画像(g')を画像表示部210(図16)に表示する。
[Step S101]
In the image output means 13 (FIG. 3), the first image (g 1 ′) and the second image (g 2 ′) are extracted from the storage area 30 d of the RAM 30, and these are extracted to the display 70 through the bus 80. Output. Then, the display 70 displays the first image (g 1 ′) and the second image (g 2 ′) on the image display unit 210 (FIG. 16).

<第2の画像の自動調整>
次に、第2の画像の自動調整処理(図12:ステップS100)の詳細について説明する。
図13は、この第2の画像の自動調整の詳細を説明するためのフローチャートである。以下このフローチャートに沿って説明を行う。
<Automatic adjustment of second image>
Next, details of the second image automatic adjustment process (FIG. 12: step S100) will be described.
FIG. 13 is a flowchart for explaining details of the automatic adjustment of the second image. Hereinafter, description will be given along this flowchart.

[ステップS111]
画像調整手段16のヒストグラム生成手段16a(図4)において、第1の画像(g(第1の画像の処理後はg’))及び第2の画像(g(第2の画像の処理後はg’))を、RAM30の記憶領域30b或いは30dから抽出し、第1の画像及び第2の画像について、輝度とその輝度を有するピクセルの数(カウント数)とのヒストグラム(H、H)を生成する。
[Step S111]
In the histogram generation means 16a (FIG. 4) of the image adjustment means 16, the first image (g 1 (g 1 ′ after processing the first image)) and the second image (g 2 (second image After processing, g 2 ′)) is extracted from the storage area 30b or 30d of the RAM 30, and for the first image and the second image, a histogram of the luminance and the number of pixels having the luminance (count number) (H 1 , H 2 ).

ヒストグラム生成手段16aにおいて生成されたヒストグラム(H、H)は、明るさ調整手段16b及びコントラスト調整手段16cに送られ、ステップS112に進む。 The histograms (H 1 , H 2 ) generated by the histogram generation unit 16a are sent to the brightness adjustment unit 16b and the contrast adjustment unit 16c, and the process proceeds to step S112.

[ステップS112]
コントラスト調整手段16cにおいて、第1の画像に対応するヒストグラムHの幅(a)と、第2の画像に対応するヒストグラムHの幅(b)との差が許容範囲(p≧0)内であるか否かを判断する。すなわち、
|Hの幅(a)−Hの幅(b)|≦p
であるか否かを判断する。
[Step S112]
In the contrast adjusting unit 16c, the difference between the width (a 3 ) of the histogram H 1 corresponding to the first image and the width (b 3 ) of the histogram H 2 corresponding to the second image is within an allowable range (p 1 ≧ 0) is determined. That is,
| Width of H 1 (a 3 ) −Width of H 2 (b 3 ) | ≦ p 1
It is determined whether or not.

ここで、コントラスト調整手段16cにおいて、|Hの幅(a)−Hの幅(b)|≦pを満たすと判断された場合には、ステップS115に進む。一方、これを満たさず、Hの幅(b)−Hの幅(a)>pであった場合には、ステップS113に進み、Hの幅(a)−Hの幅(b)>pであった場合には、ステップS114に進む。 Here, the contrast adjustment unit 16c, | H 1 having a width (a 3) -H 2 width (b 3) | When it is determined that satisfy ≦ p 1, the process proceeds to step S115. On the other hand, if this is not satisfied and if the width of H 2 (b 3 ) −the width of H 1 (a 3 )> p 1 , the process proceeds to step S113 and the width of H 1 (a 3 ) −H 2. If the width (b 3 )> p 1 is satisfied, the process proceeds to step S114.

[ステップS113]
コントラスト調整手段16cにおいて、第2の画像(g(第2の画像の処理後はg’))を、RAM30の記憶領域30b或いは30dから抽出し、そのコントラストを既定の値だけ下げる(減じる)。そして、コントラスト調整手段16cにおいて、その第2の画像(g’)がRAM30の記憶領域30dに格納され、ステップS111に戻る。
[Step S113]
In the contrast adjusting unit 16c, the second image (g 2 (g 2 ′ after processing the second image)) is extracted from the storage area 30b or 30d of the RAM 30, and the contrast is lowered (reduced) by a predetermined value. ). Then, the second image (g 2 ′) is stored in the storage area 30d of the RAM 30 in the contrast adjusting unit 16c, and the process returns to step S111.

[ステップS114]
コントラスト調整手段16cにおいて、第2の画像(g(第2の画像の処理後はg’))を、RAM30の記憶領域30b或いは30dから抽出し、そのコントラストを既定の値だけ上げる(加算する)。そして、コントラスト調整手段16cにおいて、その第2の画像(g’)がRAM30の記憶領域30dに格納され、ステップS111に戻る。
[Step S114]
In the contrast adjusting unit 16c, the second image (g 2 (g 2 ′ after processing the second image)) is extracted from the storage area 30b or 30d of the RAM 30, and the contrast is increased by a predetermined value (addition). To do). Then, the second image (g 2 ′) is stored in the storage area 30d of the RAM 30 in the contrast adjusting unit 16c, and the process returns to step S111.

[ステップS115]
明るさ調整手段16bにおいて、ヒストグラムHの位置とヒストグラムHの位置との差が許容範囲(p≧0)内であるか否かを判断する。すなわち、
|Hの位置(a)−Hの位置(b)|≦p
であるか否かを判断する。
[Step S115]
In the brightness adjusting unit 16b, the difference between the position of the histogram of H 2 histograms H 1 determines whether it is within the allowable range (p 2 ≧ 0). That is,
| H 1 position (a 1 ) −H 2 position (b 1 ) | ≦ p 2
It is determined whether or not.

ここで、明るさ調整手段16bにおいて、|Hの位置(a)−Hの位置(b)|≦pを満たすと判断された場合には、第2の画像の自動生成処理(ステップS100)を終了する。一方、これを満たさず、Hの位置(b)−Hの位置(a)>pであった場合には、ステップS116に進み、Hの位置(a)−Hの位置(b)>pであった場合には、ステップS117に進む。 Here, the brightness adjusting unit 16b, | position of H 1 (a 1) position of -H 2 (b 1) | When it is determined that satisfy ≦ p 2, the automatic generation processing of the second image (Step S100) is terminated. On the other hand, if this is not satisfied and the position of H 2 (b 1 ) −the position of H 1 (a 1 )> p 2 , the process proceeds to step S116 and the position of H 1 (a 1 ) −H 2. If the position (b 1 )> p 2 , the process proceeds to step S117.

[ステップS116]
明るさ調整手段16bにおいて、第2の画像(g’)を、RAM30の記憶領域30dから抽出し、その明るさを既定の値だけ下げる(減じる)。そして、明るさ調整手段16bにおいて、その第2の画像(g’)がRAM30の記憶領域30dに格納され、ステップS111に戻る。
[Step S116]
In the brightness adjustment means 16b, the second image (g 2 ′) is extracted from the storage area 30d of the RAM 30, and the brightness is lowered (reduced) by a predetermined value. Then, the brightness adjusting unit 16b stores the second image (g 2 ′) in the storage area 30d of the RAM 30, and the process returns to step S111.

[ステップS117]
明るさ調整手段16bにおいて、第2の画像(g’)を、RAM30の記憶領域30dから抽出し、その明るさを既定の値だけ上げる(加算する)。そして、明るさ調整手段16bにおいて、その第2の画像(g’)がRAM30の記憶領域30dに格納され、ステップS111に戻る。
[Step S117]
In the brightness adjustment unit 16b, the second image (g 2 ′) is extracted from the storage area 30d of the RAM 30, and the brightness is increased (added) by a predetermined value. Then, the brightness adjusting unit 16b stores the second image (g 2 ′) in the storage area 30d of the RAM 30, and the process returns to step S111.

<画像合成処理>
次に、画像合成処理(図7:ステップS34)の詳細について説明する。
図14は、この画像合成処理の詳細を説明するためのフローチャートである。以下、このフローチャートに沿って説明を行っていく。
<Image composition processing>
Next, details of the image composition processing (FIG. 7: step S34) will be described.
FIG. 14 is a flowchart for explaining the details of this image composition processing. Hereinafter, description will be made along this flowchart.

[ステップS121]
画像合成手段17(図3)において、RAM30の記憶領域30b或いは30dから、第1の画像(g(第1の画像の処理後はg’))、第2の画像(g(第2の画像の処理後はg’))及び変動分(LC)を抽出し、第1の画像と第2の画像の間に空隙が存在する状態で当該第1の画像と第2の画像を合成した合成画像Aを生成する。
[Step S121]
In the image composition means 17 (FIG. 3), the first image (g 1 (g 1 ′ after processing the first image)) and the second image (g 2 ( first ) are stored from the storage area 30b or 30d of the RAM 30. After processing the second image, g 2 ′)) and the variation (LC) are extracted, and the first image and the second image in a state where there is a gap between the first image and the second image. To generate a composite image A.

図19の(a)は、この処理を概念的に例示した図である。この図に例示するように、本ステップでは、第1の画像311及び第2の画像312が、空隙313の介して配置され、これにより合成画像(A)310が構成される。なお、第1の画像311と第2の画像312の位置関係、空隙313の幅等は、標準値として設定された既定値及びRAM30の記憶領域30dから抽出された変動分(LC)を用いて設定される。
生成された合成画像Aは、RAM30に送られ、その記憶領域30eに記憶されるとともに、画像複製手段18(図3)に送られ、次のステップS122に進む。
FIG. 19A is a diagram conceptually illustrating this process. As illustrated in this figure, in this step, the first image 311 and the second image 312 are arranged via the gap 313, thereby forming a composite image (A) 310. Note that the positional relationship between the first image 311 and the second image 312, the width of the gap 313, and the like are determined using a predetermined value set as a standard value and a variation (LC) extracted from the storage area 30 d of the RAM 30. Is set.
The generated composite image A is sent to the RAM 30, stored in the storage area 30e, and sent to the image duplicating means 18 (FIG. 3), and the process proceeds to the next step S122.

[ステップS122]
画像複製手段18において、受け取った合成画像Aの複製データである複製合成画像B(「合成画像」に相当)を生成する。
[Step S122]
In the image duplicating means 18, a duplicate composite image B (corresponding to “composite image”), which is duplicate data of the received composite image A, is generated.

図19の(b)は、この処理を概念的に例示した図である。この図に例示するように、本ステップでは、合成画像(A)310の複製データである、第1の画像321、第2の画像322及び空隙323からなる複製合成画像(B)320が生成される。
生成された複製合成画像Bは、フィルタ手段19(図3)に送られ、次のステップS123に進む。
FIG. 19B is a diagram conceptually illustrating this process. As illustrated in this figure, in this step, a duplicated composite image (B) 320 composed of a first image 321, a second image 322, and a gap 323, which is duplicated data of the composite image (A) 310, is generated. The
The generated duplicate composite image B is sent to the filter means 19 (FIG. 3) and proceeds to the next step S123.

[ステップS123]
フィルタ手段19において、受け取った複製合成画像Bの特異点(ノイズ)を除去した特異点除去画像B’(「合成画像」に相当)を生成する。具体的には、例えば、複製合成画像Bにメディアンフィルタ(例えば「安居院猛、長尾智晴、“画像の処理と認識”、昭晃堂、1992年11月25日初版発行」等参照。)を適用し、特異点除去画像B’を生成する。
[Step S123]
The filter means 19 generates a singularity-removed image B ′ (corresponding to “composite image”) from which the singularity (noise) of the received duplicate composite image B has been removed. Specifically, for example, a median filter (for example, “Takeshi Aoiin, Tomoharu Nagao,“ Image processing and recognition ”, Shosodo, first published on November 25, 1992), etc.) is applied to the duplicate composite image B. Then, the singularity removal image B ′ is generated.

図19の(c)は、この処理を概念的に例示した図である。この図に例示するように、本ステップでは、複製合成画像Bの特異点(ノイズ)を除去した、第1の画像331、第2の画像332及び空隙333からなる特異点除去画像(B’)330が生成される。   FIG. 19C conceptually illustrates this process. As illustrated in this figure, in this step, the singular point removed image (B ′) including the first image 331, the second image 332, and the gap 333, from which the singular point (noise) of the duplicate composite image B is removed. 330 is generated.

生成された特異点除去画像B’は、RAM30(図3)に送られ、その記憶領域30fに記憶される。   The generated singularity-removed image B ′ is sent to the RAM 30 (FIG. 3) and stored in the storage area 30f.

[ステップS124]
直線設定手段20において、まず、RAM30の記憶領域30fから特異点除去画像B’を、記憶領域30aから境界情報BLを(記憶領域30aに境界情報BLが記憶されている場合)、それぞれ抽出する。そして、直線設定手段20は、空隙内の各調査点γ,...,γを特定する。ここで「調査点」とは、空隙内の各ピクセルを意味し、nは空隙内のピクセル数を示す。
[Step S124]
In the straight line setting means 20, first, the singular point removal image B ′ is extracted from the storage area 30f of the RAM 30, and the boundary information BL is extracted from the storage area 30a (when the boundary information BL is stored in the storage area 30a). And the straight line setting means 20 specifies each investigation point (gamma) 1 , ..., (gamma) n in a space | gap. Here, “investigation point” means each pixel in the air gap, and n indicates the number of pixels in the air gap.

図20は、特異点除去画像(B’)330を概念的に例示した図である。
この図に示すように、この例の特異点除去画像(B’)330は、17列(X1〜X17)9行(Y1〜Y9)のピルセル330aがマトリックス状に配置され構成される。そして、(X1,Y1)〜(X6,Y9)のピクセル330aによって第1の画像331が構成され、(X7,Y1)〜(X11,Y9)のピクセル330aによって空隙333が構成され、(X12,Y9)〜(X17,Y9)のピクセル330aによって第2の画像332が構成される。ここで、第1の画像331のX6行(X6,Y1〜Y9)の領域をエッジ部(α)331b(「第1の画像の空隙側エッジ部α」に相当)と呼び、第2の画像332のX12行(X12,Y1〜Y9)の領域をエッジ部(β)332b(「第2の画像の空隙側エッジ部β」に相当)と呼ぶこととする。本ステップでは、このエッジ部(α)331bとエッジ部(β)332bとに挟まれた空隙333内((X7,Y1)〜(X11,Y9))の各ピクセル330aを調査点として特定する。図20の例では、5×9=45個の調査点を特定し、各調査点をγ〜γ45とする。
調査点γ,...,γが特定されると、次のステップS125に進む。
FIG. 20 is a diagram conceptually illustrating the singularity removal image (B ′) 330.
As shown in this figure, the singular point removal image (B ′) 330 in this example is configured by 17 columns (X1 to X17) and 9 rows (Y1 to Y9) of pill cells 330a arranged in a matrix. The first image 331 is configured by the pixels 330a of (X1, Y1) to (X6, Y9), and the air gap 333 is configured by the pixels 330a of (X7, Y1) to (X11, Y9), and (X12, The second image 332 is constituted by the pixels 330a of Y9) to (X17, Y9). Here, the region of X6 rows (X6, Y1 to Y9) of the first image 331 is referred to as an edge portion (α) 331b (corresponding to “a gap side edge portion α of the first image”), and the second image An area of X12 rows (X12, Y1 to Y9) 332 is referred to as an edge part (β) 332b (corresponding to “a gap side edge part β of the second image”). In this step, each pixel 330a in the gap 333 ((X7, Y1) to (X11, Y9)) sandwiched between the edge portion (α) 331b and the edge portion (β) 332b is specified as an investigation point. In the example of FIG. 20, 5 × 9 = 45 survey points are specified, and each survey point is designated as γ 1 to γ 45 .
When the investigation points γ 1 ,..., Γ n are specified, the process proceeds to the next step S125.

[ステップS125]
直線設定手段20において、変数iに1を代入し、ステップS126に進む。なお、この変数iの値は、例えば、CPU10内の図示していないキャッシュメモリに格納しておく。
[Step S125]
In the straight line setting means 20, 1 is substituted into the variable i, and the process proceeds to step S126. Note that the value of the variable i is stored in a cache memory (not shown) in the CPU 10, for example.

[ステップS126]
直線設定手段20において、特異点除去画像(B’)330の空隙333内の調査点γを通る直線Lを複数設定する。
[Step S126]
The straight line setting means 20 sets a plurality of straight lines L passing through the investigation points γ i in the gap 333 of the singular point removal image (B ′) 330.

図21は、1つの調査点333a(X8,Y5)について設定される複数の直線(L)401〜405を例示した概念図である。   FIG. 21 is a conceptual diagram illustrating a plurality of straight lines (L) 401 to 405 set for one survey point 333a (X8, Y5).

この例の場合、調査点(γ)333a(X8,Y5)に対し、この調査点(γ)333a(X8,Y5)を通る複数の直線(L)401〜405が設定される。なお、各直線(L)は、調査点(γ)の座標と直線の傾きuによって特定される。この処理の詳細については後述する。 In this example, to survey point (γ i) 333a (X8, Y5), the survey point (gamma i) 333a plurality of straight lines (L) 401 to 405 through the (X8, Y5) is set. Each straight line (L) is specified by the coordinates of the survey point (γ i ) and the slope u of the straight line. Details of this processing will be described later.

設定された調査点γを通る直線L(例えば、調査点(γ)の座標と直線の傾きuの情報)及び特異点除去画像(B’)330は、交点算出手段21(図3)に送られ、次のステップS127に進む。 The straight line L (for example, information on the coordinates of the survey point (γ i ) and the slope u of the straight line) and the singular point removal image (B ′) 330 passing through the set survey point γ i are the intersection calculation means 21 (FIG. 3). The process proceeds to the next step S127.

[ステップS127]
交点算出手段21において、第1の画像(特異点除去画像B’における)の空隙側エッジ部αと直線Lとの交点P、及び第2の画像(特異点除去画像B’における)の空隙側エッジ部βと当該直線Lとの交点Q、を算出する。
[Step S127]
In the intersection calculation means 21, the intersection P between the gap-side edge portion α of the first image (in the singular point removal image B ′) and the straight line L, and the gap side in the second image (in the singular point removal image B ′). An intersection point Q between the edge portion β and the straight line L is calculated.

また、交点算出手段21は、求めた交点P、Qの色情報を特定する。ここで、「交点P、Qの色情報」とは、例えば、交点P、Qの座標の小数点以下を切り捨てた整数座標におけるピクセルの色情報を意味する。なお、小数点以下を切り捨てる代わりに四捨五入や切り上げによって交点P、Qのピクセルを特定してもよい。   Further, the intersection calculation means 21 specifies the color information of the obtained intersections P and Q. Here, “color information of intersections P and Q” means, for example, color information of pixels in integer coordinates obtained by rounding down the decimal points of the coordinates of intersections P and Q. Note that the pixels at the intersections P and Q may be specified by rounding off or rounding up instead of rounding off the decimal part.

図21の例の場合、直線(L)401〜405とエッジ部331bとの交点(P)401a〜405a、及び直線(L)401〜405とエッジ部332bとの交点(Q)401b〜405bを算出する。そして、以下のように各交点P、Qの色情報を特定する。   In the case of the example of FIG. 21, the intersections (P) 401a to 405a between the straight lines (L) 401 to 405 and the edge portion 331b, and the intersections (Q) 401b to 405b between the straight lines (L) 401 to 405 and the edge portion 332b. calculate. And the color information of each intersection P and Q is specified as follows.

交点(P)401a:(X6,Y7)のピクセルの色情報
交点(P)402a:(X6,Y6)のピクセルの色情報
交点(P)403a:(X6,Y5)のピクセルの色情報
交点(P)404a:(X6,Y4)のピクセルの色情報
交点(P)405a:(X6,Y3)のピクセルの色情報
交点(Q)401b:(X12,Y1)のピクセルの色情報
交点(Q)402b:(X12,Y3)のピクセルの色情報
交点(Q)403b:(X12,Y5)のピクセルの色情報
交点(Q)404b:(X12,Y7)のピクセルの色情報
交点(Q)405b:(X12,Y9)のピクセルの色情報
各直線L、算出された交点P、Q及びそれぞれの色情報は、直線選択手段22(図3)に送られ、次のステップS128に進む。
Intersection (P) 401a: Color information of pixel at (X6, Y7) Intersection (P) 402a: Color information of pixel at (X6, Y6) Intersection (P) 403a: Color information of pixel at (X6, Y5) Intersection ( P) 404a: Color information of pixel of (X6, Y4) Intersection (P) 405a: Color information of pixel of (X6, Y3) Intersection (Q) 401b: Color information of pixel of (X12, Y1) Intersection (Q) 402b: Color information of pixel (X12, Y3) Intersection (Q) 403b: Color information of pixel of (X12, Y5) Intersection (Q) 404b: Color information of pixel of (X12, Y7) Intersection (Q) 405b: Color information of the pixel of (X12, Y9) Each straight line L, the calculated intersection points P and Q, and the respective color information are sent to the straight line selection means 22 (FIG. 3), and the process proceeds to the next step S128.

[ステップS128]
直線選択手段22において、送られた直線Lから、交点P,Qの色情報の差が最小となる直線L’を選択する。
これは、調査点(γ)を通る直線Lの傾きuを所定のステップで動かして、交点Pの色情報(pixelP)と交点Qの色情報(pixelQ)の各成分(赤、緑、青)の差の合計(nHensa)が最小となる時の傾きuを求めることに相当する。なお、nHensaは以下のように示される。
nHensa=abs(pixelP[R]-pixelQ[R])+abs(pixelP[G]-pixelQ[G])+abs(pixelP[B]-pixelQ[B])
ただし、absは絶対値、pixelP[R]は交点Pの赤色成分、pixelP[G]は交点Pの緑色成分、pixelP[B]は交点Pの青色成分、pixelQ[R]は交点Qの赤色成分、pixelQ[G]は交点Qの緑色成分、pixelQ[B]は交点Qの青色成分を示している。
[Step S128]
The straight line selection unit 22 selects a straight line L ′ that minimizes the difference in color information between the intersections P and Q from the sent straight line L.
This is because the slope u of the straight line L passing through the investigation point (γ i ) is moved in a predetermined step, and each component (red, green, blue) of the color information (pixelP) at the intersection P and the color information (pixelQ) at the intersection Q ) Is equivalent to obtaining the slope u when the sum of the differences (nHensa) is minimized. NHensa is expressed as follows.
nHensa = abs (pixelP [R] -pixelQ [R]) + abs (pixelP [G] -pixelQ [G]) + abs (pixelP [B] -pixelQ [B])
Where abs is an absolute value, pixelP [R] is the red component at the intersection P, pixelP [G] is the green component at the intersection P, pixelP [B] is the blue component at the intersection P, and pixelQ [R] is the red component at the intersection Q , PixelQ [G] indicates the green component at the intersection Q, and pixelQ [B] indicates the blue component at the intersection Q.

図21の例の場合、交点(P)401aと交点(Q)401bの色情報の差(直線(L)401に対応)、交点(P)402aと交点(Q)402bの色情報の差(直線(L)402に対応)、交点(P)403aと交点(Q)403bの色情報の差(直線(L)403に対応)、交点(P)404aと交点(Q)404bの色情報の差(直線(L)404に対応)、交点(P)405aと交点(Q)405bの色情報の差(直線(L)405に対応)を算出し、算出された色情報の差が最少となる直線(L)401〜405(直線L’)を、公知の並び替えアルゴリズム等によって算出する。この例では、図22に示すように、直線(L)404が直線L’として算出されたものとする。   In the case of the example in FIG. 21, the difference in color information between the intersection (P) 401a and the intersection (Q) 401b (corresponding to the straight line (L) 401), and the difference in color information between the intersection (P) 402a and the intersection (Q) 402b ( The color information of the intersection (P) 403a and the intersection (Q) 403b (corresponding to the straight line (L) 403), the color information of the intersection (P) 404a and the intersection (Q) 404b. The difference (corresponding to the straight line (L) 404), the color information difference between the intersection (P) 405a and the intersection (Q) 405b (corresponding to the straight line (L) 405) is calculated, and the difference between the calculated color information is the smallest. Straight lines (L) 401 to 405 (straight line L ′) are calculated by a known rearrangement algorithm or the like. In this example, it is assumed that a straight line (L) 404 is calculated as a straight line L ′ as shown in FIG.

直線L’が選択されると、その直線L’の交点P’,Q’及びその色情報が色情報決定手段23(図3)に送られる。図22の例の場合、交点(P)404a、交点(Q)404b、及び交点(P)404aに対応する(X6,Y4)のピクセル331baの色情報、交点(Q)404bに対応する(X12,Y7)のピクセル332baの色情報が色情報決定手段23に送られる。そして、次のステップS129に進む。   When the straight line L ′ is selected, the intersections P ′ and Q ′ of the straight line L ′ and the color information thereof are sent to the color information determining means 23 (FIG. 3). In the case of the example in FIG. 22, the intersection (P) 404a, the intersection (Q) 404b, and the color information of the pixel 331ba at (X6, Y4) corresponding to the intersection (P) 404a, corresponding to the intersection (Q) 404b (X12). , Y7), the color information of the pixel 332ba is sent to the color information determination means 23. Then, the process proceeds to next Step S129.

[ステップS129]
色情報決定手段23において、直線選択手段22において選択された直線L’の交点P’,Q’の色情報を用い、調査点γの色情報Cを決定する。この際、色情報決定手段23は、調査点γと交点P,Qとの距離に応じ、当該交点P,Qの色情報に重み付けを行い、調査点γの色情報を決定する。そして、この交点P,Qの色情報に付される重みは、当該交点P,Qが調査点γに近いほど大きい。具体的には、例えば、以下のような重み付けを行い、調査点γの色情報C=(赤成分pixelγ[R],緑成分pixelγ[G],青成分pixelγ[B])を決定する。
調査点γの赤成分(pixelγ[R]):
pixelγ[R]={pixelP[R]・(w-(x-α))/w}+{pixelQ[R]・(w-(β-x))/w}
調査点γの緑成分(pixelγ[G]):
pixelγ[G]={pixelP[G]・(w-(x-α))/w}+{pixelQ[G]・(w-(β-x))/w}
調査点γの青成分(pixelγ[B]):
pixelγ[B]={pixelP[B]・(w-(x-α))/w}+{pixelQ[B]・(w-(β-x))/w}
ただし、xは調査点γのx座標を示し、αは第1の画像の空隙側エッジ部αのx座標を示し、βは第2の画像の空隙側エッジ部βのx座標を示し、wは空隙の幅(w=β)を示す。
[Step S129]
In the color information determination unit 23, 'the intersection P' of the straight line L which is selected in the linear selecting means 22, using the color information of the Q ', determines the color information C i survey points gamma i. At this time, the color information determination unit 23 weights the color information of the intersections P and Q according to the distance between the survey point γ i and the intersections P and Q, and determines the color information of the survey point γ i . The weight assigned to the color information of the intersection points P and Q is larger as the intersection points P and Q are closer to the survey point γ i . Specifically, for example, performs weighting such as: study point gamma i of color information C i = (red component pixelγ i [R], green component pixelγ i [G], and blue components pixelγ i [B]) To decide.
Red component (pixel γ [R]) of survey point γ i :
pixelγ i [R] = {pixelP [R] · (w- (x-α x )) / w} + {pixelQ [R] · (w- (β x -x)) / w}
Green component (pixel γ [G]) of survey point γ i :
pixelγ i [G] = {pixelP [G] · (w- (x-α x )) / w} + {pixelQ [G] · (w- (β x -x)) / w}
Blue component (pixel γ [B]) of survey point γ i :
pixelγ i [B] = {pixelP [B] · (w- (x-α x )) / w} + {pixelQ [B] · (w- (β x -x)) / w}
Where x represents the x coordinate of the survey point γ i , α x represents the x coordinate of the air gap side edge portion α of the first image, and β x represents the x coordinate of the air gap side edge portion β of the second image. W represents the width of the air gap (w = β xx ).

なお、以上の処理によって、特異点(ノイズ)成分が除去された特異点除去画像B’の色情報を用いて、調査点γの色情報Cが決定されたことになる。したがって、特異点成分をもとに調査点γの色情報Cが決定されることもなく、調査点γの色情報Cとして、不自然な色が選択されることもない(その結果、補完部分にノイズで線が走ってしまうことがない)。
このように設定された調査点γの色情報Cは、RAM30に送られ、その記憶領域30gに記憶される。そして、次のステップS130に進む。
Incidentally, the above processing, by using the color information of the singular point (noise) components are removed singular point removal image B ', so that the color information C i survey points gamma i is determined. Therefore, without the color information C i survey points gamma i based on singularity component is determined, as the color information C i survey points gamma i, nor that unnatural color is selected (the As a result, the line does not run due to noise in the complement part).
The color information C i of the survey point γ i set in this way is sent to the RAM 30 and stored in the storage area 30g. Then, the process proceeds to next Step S130.

[ステップS130]
直線設定手段20において、前述(ステップS125)の図示していないキャッシュメモリ等に格納された変数iの値がnであるか否かを判断する。ここで、i=nであった場合には、ステップS132に進み、そうでなければステップS131に進む。
[Step S130]
In the straight line setting means 20, it is determined whether or not the value of the variable i stored in the cache memory (not shown) described above (step S125) is n. If i = n, the process proceeds to step S132; otherwise, the process proceeds to step S131.

[ステップS131]
直線設定手段20において、変数iにi+1を代入し、その代入値iを、例えば、図示していないキャッシュメモリ等に格納する。そして、ステップS126に戻る。
[Step S131]
In the straight line setting means 20, i + 1 is substituted into the variable i, and the substituted value i is stored in, for example, a cache memory (not shown). Then, the process returns to step S126.

[ステップS132]
補完手段24(図3)において、RAM30の記憶領域30gから各調査点γ,...,γの色情報C1,...,(「決定された調査点γの色情報の集合」に相当)を抽出し、記憶領域30eから合成画像Aを抽出する。そして、補完手段24は、この各調査点γ,...,γの色情報C1,...,によって、合成画像Aの空隙を補完した補完画像A’を生成する。
[Step S132]
In complementing means 24 (FIG. 3), each survey point gamma 1 from the storage area 30g of the RAM 30, ..., gamma color information C 1 of n, ..., the color information of C n ( "determined investigated point gamma And a composite image A is extracted from the storage area 30e. Then, the complementary means 24, the respective survey point gamma 1, ..., the color information C 1 of gamma n, ..., by C n, to generate a complementary image A 'which complements the voids of the composite image A.

図25の(a)は、このように生成された補完画像(A’)340の例示である。
この図に例示するように、補完画像(A’)340は、特異点除去前の第1の画像311及び第2の画像312と、その空隙に配置された補完情報343(各調査点γ,...,γの色情報C1,...,)とからなる。なお、前述のように、補完情報343は、フィルタ手段19で特異点成分が除去された特異点除去画像B’の色情報を用いて決定されたものである。したがって、この補完情報343には、第1の画像311及び第2の画像312が通常有する程度の特異点成分が存在しない。
生成された補完画像A’は、RAM30に送られ、その記憶領域30hに記憶される。そして、次のステップS133に進む。
FIG. 25A shows an example of the complementary image (A ′) 340 generated in this way.
As illustrated in this figure, the complementary image (A ′) 340 includes a first image 311 and a second image 312 before singular point removal, and complementary information 343 (each investigation point γ 1) arranged in the gap. , ..., γ n color information C 1, ..., C n ). As described above, the complementary information 343 is determined using the color information of the singular point removed image B ′ from which the singular point component has been removed by the filter unit 19. Therefore, the complementary information 343 does not have a singular point component that the first image 311 and the second image 312 normally have.
The generated complementary image A ′ is sent to the RAM 30 and stored in the storage area 30h. Then, the process proceeds to next Step S133.

[ステップS133]
特異点画像生成手段25において、第1の画像或いは第2の画像の特異点成分からなる特異点画像Dを生成する。
具体的には、例えば、特異点画像生成手段25において、RAM30の記憶領域30dから第1の画像g’(特異点除去前画像)を抽出し、メディアンフィルタ等によりその特異点(ノイズ)成分を除去したフィルタ画像g’’を生成する。生成されたフィルタ画像g’’は、例えば、CPU10内の図示していないキャッシュメモリに格納され、特異点画像生成手段25は、再び、RAM30の記憶領域30dから第1の画像g’(特異点除去前画像)を抽出する。そして、特異点画像生成手段25は、例えば、記憶領域30dから抽出した第1の画像g’(特異点除去前画像)から、図示していないキャッシュメモリに格納されたフィルタ画像g’’を減じ、特異点成分のみからなる、特異点画像Dを生成する。
生成された特異点画像(D)は、画像切り取り手段26(図3)に送られ、次のステップS134に進む。
[Step S133]
The singular point image generation means 25 generates a singular point image D composed of the singular point components of the first image or the second image.
Specifically, for example, in the singularity image generation means 25, the first image g 1 ′ (image before singularity removal) is extracted from the storage area 30d of the RAM 30, and the singularity (noise) component is extracted by a median filter or the like. A filtered image g 1 ″ from which is removed is generated. The generated filter image g 1 ″ is stored, for example, in a cache memory (not shown) in the CPU 10, and the singular point image generation means 25 again returns the first image g 1 ′ (from the storage area 30 d of the RAM 30. Image before singular point removal) is extracted. Then, the singular point image generation means 25, for example, from the first image g 1 ′ (image before singular point removal) extracted from the storage area 30d, the filter image g 1 ″ stored in a cache memory (not shown). To generate a singularity image D consisting only of singularity components.
The generated singular point image (D) is sent to the image cutout means 26 (FIG. 3), and proceeds to the next step S134.

[ステップS134]
画像切り取り手段26において、特異点画像Dから、空隙(例えば、合成画像Aの空隙)と同じ形状の画像(以下「付加画像E」という。)を切り取る。
[Step S134]
The image cutout means 26 cuts out an image (hereinafter referred to as “additional image E”) having the same shape as a gap (for example, a gap in the composite image A) from the singular point image D.

図25の(b)は、この様子を示した概念図である。
この図に例示するように、画像切り取り手段26は、好ましくは、特異点画像(D)350の空隙側エッジ部分351を付加画像(E)352として切り取る。これにより、もともとの画像(復元する画像)が空隙部分に有するであろう特異点の分布に近い付加画像(E)352が得られる。なお、図25の(b)は、第1の画像(第2の画像の向かって左側に配置される画像)をもとに特異点画像(D)を生成した場合の例である。この場合、第1の画像と第2の画像との間に存在する空隙の位置は、特異点画像(D)の右側の位置に対応する。したがって、この例の場合、「空隙側エッジ部分」とは、図25の(b)の向かって右側エッジ部分の領域を意味する。
以上のように生成された付加画像Eは、特異点付加手段27(図3)に送られ、次のステップS135に進む。
FIG. 25B is a conceptual diagram showing this state.
As illustrated in this figure, the image cutout means 26 preferably cuts out the gap side edge portion 351 of the singular point image (D) 350 as the additional image (E) 352. As a result, an additional image (E) 352 that is close to the distribution of singular points that the original image (the image to be restored) will have in the void portion is obtained. FIG. 25B shows an example in which the singular point image (D) is generated based on the first image (image arranged on the left side of the second image). In this case, the position of the gap existing between the first image and the second image corresponds to the position on the right side of the singular point image (D). Therefore, in the case of this example, the “air gap side edge portion” means a region of the right edge portion toward (b) in FIG.
The additional image E generated as described above is sent to the singular point adding means 27 (FIG. 3) and proceeds to the next step S135.

[ステップS135]
特異点付加手段27において、RAM30の記憶領域30hから補完画像A’を抽出し、画像切り取り手段26から送られた付加画像Eを、この補完画像A’の補完部分に合成した補完合成画像A’’を生成する。なお、「補完部分」とは、補完手段24において、各調査点γ,...,γの色情報C1,...,によって補完された(ステップS132)元空隙であった部分を意味する。
[Step S135]
In the singularity adding means 27, the complementary image A ′ is extracted from the storage area 30h of the RAM 30, and the additional image E sent from the image cutting means 26 is combined with the complementary portion of the complementary image A ′. Generate '. Note that "complementary part", the complementary means 24, each survey point gamma 1, ..., the color information C 1 of gamma n, ..., there in complemented by C n (step S132) based on the air gap Means the part.

図25の(c)は、生成された補完合成画像(A’’)360を例示した概念図である。
この図に示すように、第1の画像311と第2の画像312の間の補完部分に付加画像Eが付加され(特異点付加画像363を構成)、補完合成画像(A’’)360が完成する。
なお、より好ましくは、特異点付加手段27は、付加画像Eの輝度値を減じた後、当該付加画像Eを補完画像A’の補完部分に合成する。具体的には、特異点付加手段27は、例えば、各行(同一y座標)ごとに、付加画像Eの各ピクセルの輝度の最大値を求め、(付加画像Eの各ピクセルの輝度)−(各行ごとの最大値)/2の付加画像を補完画像A’の補完部分に合成する。
FIG. 25C is a conceptual diagram illustrating the generated complementary composite image (A ″) 360.
As shown in this figure, an additional image E is added to a complementary portion between the first image 311 and the second image 312 (a singularity added image 363 is formed), and a complementary composite image (A ″) 360 is obtained. Complete.
More preferably, the singularity adding unit 27 reduces the luminance value of the additional image E, and then synthesizes the additional image E with the complementary portion of the complementary image A ′. Specifically, for example, the singular point adding means 27 obtains the maximum value of the luminance of each pixel of the additional image E for each row (same y coordinate), and (the luminance of each pixel of the additional image E) − (each row The additional image of the maximum value) / 2 is synthesized with the complementary portion of the complementary image A ′.

つまり、例えば、付加画像Eの輝度データが、
X7 X8 X9 X10 X11
Y1 2 5 3 6 1
であった場合、この行の輝度の最大値は6となり、その1/2は3となる。そのため、このY1行に付加される付加画像Eの輝度データは、
X7 X8 X9 X10 X11
Y1 −1 2 0 3 −2
となる。これにより、プラスだけでなくマイナスの特異点(ノイズ)も付加でき、より自然な特異点付加ができる。
That is, for example, the luminance data of the additional image E is
X7 X8 X9 X10 X11
Y1 2 5 3 6 1
In this case, the maximum value of the luminance of this row is 6, and half of that is 3. Therefore, the luminance data of the additional image E added to the Y1 row is
X7 X8 X9 X10 X11
Y1 -1 2 0 3 -2
It becomes. As a result, not only positive but also negative singularities (noise) can be added, and more natural singularities can be added.

<調査点Xに関する直線L設定処理の詳細>
調査点Xに関する直線L設定処理の詳細(ステップS126)について説明する。
<Details of the straight line L setting process on the survey point X i>
Details of the straight line L setting process relating to the survey point X i (step S126) will be described.

図15は、この調査点Xに関する直線L設定処理の詳細の詳細を説明するためのフローチャートである。以下、このフローチャートに沿って説明を行う。 Figure 15 is a flowchart for illustrating details line L setting process Details regarding this study point X i. Hereinafter, description will be given along this flowchart.

[ステップS141]
直線設定手段20(図3)において、境界情報が設定されているか否かを判断する。具体的には、例えば、RAM30の記憶領域30aに境界情報BLが格納されているか否かを判断する。ここで、境界情報が設定されていると判断された場合にはステップS148に進み、そうでない場合にはステップS142に進む。
[Step S141]
In the straight line setting means 20 (FIG. 3), it is determined whether or not boundary information is set. Specifically, for example, it is determined whether the boundary information BL is stored in the storage area 30 a of the RAM 30. If it is determined that the boundary information is set, the process proceeds to step S148. If not, the process proceeds to step S142.

[ステップS142]
直線設定手段20において、傾き変数uに傾き最小値uminを代入し、その値を、例えば図示していないキャッシュメモリに格納する。ここで、傾き最小値uminとしては、例えば−3を例示できる。そして、ステップS143に進む。
[Step S142]
In the straight line setting means 20, the minimum inclination value u min is substituted into the inclination variable u j and the value is stored in a cache memory (not shown), for example. Here, as the minimum inclination value u min , for example, −3 can be exemplified. Then, the process proceeds to step S143.

[ステップS143]
直線設定手段20において、例えば図示していないキャッシュメモリから傾きuを抽出し、調査点Xを通る傾きuの直線L(y=u・x+v(x,yは、変数、vは、傾き変数u及び調査点Xによって定まる定数))を設定し、それを例えば図示していないキャッシュメモリに格納する。そして、ステップS144に進む。
[Step S143]
In the straight line setting means 20, for example, a slope u j is extracted from a cache memory (not shown), and a straight line L (y = u j · x + v (x, y are variables, v is a variable) of the slope u j passing through the investigation point X i. , A constant determined by the slope variable u j and the survey point X i )) and set it in a cache memory (not shown), for example. Then, the process proceeds to step S144.

[ステップS144]
直線設定手段20において、例えば図示していないキャッシュメモリに格納された傾き変数uが傾き最大値umaxを越えているか(u>umin)否かを判断する。なお、最大値umaxとしては、例えば3を例示できる。
ここで、u>uminであると判断された場合は調査点Xに関する直線L設定処理を終了し、そうでないと判断された場合には、ステップS145に進む。
[Step S144]
In the straight line setting means 20, for example, it is determined whether or not an inclination variable u j stored in a cache memory (not shown) exceeds an inclination maximum value u max (u j > u min ). The maximum value u max can be exemplified by 3, for example.
If it is determined that u j > u min , the straight line L setting process for the survey point X i is terminated. If it is determined that u j > u min , the process proceeds to step S145.

[ステップS145]
直線設定手段20において、例えば図示していないキャッシュメモリに格納された傾き変数uにus(usは定数であり、例えば、0.1を例示できる)を加算した値を傾き変数uに代入し、これを、例えば図示していないキャッシュメモリに格納する。そして、ステップS143に戻る。
[Step S145]
In the straight line setting means 20, for example, a value obtained by adding us (us is a constant, for example, 0.1 can be exemplified) to an inclination variable u j stored in a cache memory (not shown) is assigned to the inclination variable u j . This is stored in a cache memory (not shown), for example. Then, the process returns to step S143.

[ステップS148]
直線設定手段20において、調査点γが直線である境界情報BL上にあるか否かを判断する。ここで、調査点γが境界情報上にあると判断された場合には、ステップS149に進み、そうでないと判断された場合には、ステップS150に進む。
[Step S148]
In the straight line setting means 20, it is determined whether or not the investigation point γ i is on the boundary information BL that is a straight line. If it is determined that the survey point γ i is on the boundary information, the process proceeds to step S149, and if not, the process proceeds to step S150.

[ステップS149]
直線設定手段20において、境界情報である境界情報BLを調査点γに対応する直線Lとする。
[Step S149]
In the straight line setting means 20, the boundary information BL which is the boundary information is set as a straight line L corresponding to the investigation point γ i .

図23は、この様子を例示した概念図である。
図23の例では、座標(X8,Y5)の調査点(γ)333aが、直線である境界情報(BL)500上に存在している。この場合、境界情報(BL)500が調査点(γ)333aに対応する直線Lとされる。
これにより、前述のステップS129の処理において、オブジェクトの境界にふさわしい色が、調査点γの色情報Cとして選択されることになる。
設定された直線Lは交点算出手段21に送られ、調査点Xに関する直線L設定処理を終了する。
FIG. 23 is a conceptual diagram illustrating this situation.
In the example of FIG. 23, the investigation point (γ i ) 333a of the coordinates (X8, Y5) exists on the boundary information (BL) 500 that is a straight line. In this case, the boundary information (BL) 500 is a straight line L corresponding to the investigation point (γ i ) 333a.
As a result, in the process of step S129 described above, a color suitable for the boundary of the object is selected as the color information C i of the survey point γ i .
The set straight line L is sent to the intersection calculation means 21 and the straight line L setting process for the survey point X i is terminated.

[ステップS150]
直線設定手段20において、傾き変数uに傾き最小値uminを代入し、その値を、例えば図示していないキャッシュメモリに格納する。そして、ステップS151に進む。
[Step S150]
In the straight line setting means 20, the minimum inclination value u min is substituted into the inclination variable u j and the value is stored in a cache memory (not shown), for example. Then, the process proceeds to step S151.

[ステップS151]
直線設定手段20において、例えば図示していないキャッシュメモリから傾きuを抽出し、調査点Xを通る傾きuの直線L(y=u・x+v(x,yは、変数、vは、傾き変数u及び調査点Xによって定まる定数))を設定する。そして、ステップS152に進む。
[Step S151]
In the straight line setting means 20, for example, a slope u j is extracted from a cache memory (not shown), and a straight line L (y = u j · x + v (x, y are variables, v is a variable) of the slope u j passing through the investigation point X i. , A constant determined by the slope variable u j and the survey point X i )). Then, the process proceeds to step S152.

[ステップS152]
直線設定手段20において、空隙内で、ステップS151で設定された直線Lと、直線である境界情報BLと、が交差するか否かを判断する。ここで、空隙内で直線Lと境界情報BLとが交差しないと判断された場合にはステップS153に進む。一方、空隙内で直線Lと境界情報BLとが交差すると判断された場合にはステップS154に進む。
[Step S152]
In the straight line setting means 20, it is determined whether or not the straight line L set in step S151 and the boundary information BL that is a straight line intersect each other in the gap. Here, if it is determined that the straight line L and the boundary information BL do not intersect within the gap, the process proceeds to step S153. On the other hand, if it is determined that the straight line L and the boundary information BL intersect within the gap, the process proceeds to step S154.

図24は、この様子を説明するための概念図である。
図24の例では、座標(X8,Y3)調査点(γ)333bが、境界情報(BL)500上に位置していない。ここで、ステップS152において直線(L)406が生成されたとする。この場合、直線(L)406は、空隙333内で境界情報(BL)500と交差していない。そのため、直線設定手段20は、ステップS153の処理に進むと判断する。一方、ステップS152において直線(L)407が生成されたとする。この場合、直線(L)407は、空隙333内で境界情報(BL)500と交差している。そのため、直線設定手段20は、ステップS154の処理に進むと判断する。
[ステップS153]
ステップS151で設定された直線Lを、例えば図示していないキャッシュメモリに格納し、ステップS155に進む。
FIG. 24 is a conceptual diagram for explaining this situation.
In the example of FIG. 24, the coordinate (X8, Y3) survey point (γ i ) 333 b is not located on the boundary information (BL) 500. Here, it is assumed that a straight line (L) 406 is generated in step S152. In this case, the straight line (L) 406 does not intersect the boundary information (BL) 500 within the gap 333. Therefore, the straight line setting unit 20 determines to proceed to the process of step S153. On the other hand, it is assumed that a straight line (L) 407 is generated in step S152. In this case, the straight line (L) 407 intersects the boundary information (BL) 500 within the gap 333. Therefore, the straight line setting unit 20 determines to proceed to the process of step S154.
[Step S153]
The straight line L set in step S151 is stored in a cache memory (not shown), for example, and the process proceeds to step S155.

[ステップS154]
ステップS151で設定された直線Lを、破棄し、ステップS155に進む。
[Step S154]
The straight line L set in step S151 is discarded, and the process proceeds to step S155.

以上のステップS152〜S154の処理により、直線設定手段20は、境界情報BLが特定する制限範囲内で、特定の調査点γを通る直線Lを設定することになる。これにより、前述のステップS129の処理において、オブジェクトの境界をはっきりとさせる調査点γの色情報Cが選択されることになる。 Through the processes in steps S152 to S154 described above, the straight line setting unit 20 sets the straight line L passing through the specific investigation point γ i within the limit range specified by the boundary information BL. Thereby, in the process of step S129 described above, the color information C i of the survey point γ i that makes the boundary of the object clear is selected.

[ステップS155]
直線設定手段20において、例えば図示していないキャッシュメモリに格納された傾き変数uが傾き最大値umaxを越えているか(u>umin)否かを判断する。ここで、u>uminであると判断された場合は調査点Xに関する直線L設定処理を終了し、そうでないと判断された場合には、ステップS156に進む。
[Step S155]
In the straight line setting means 20, for example, it is determined whether or not an inclination variable u j stored in a cache memory (not shown) exceeds an inclination maximum value u max (u j > u min ). If it is determined that u j > u min , the straight line L setting process for the survey point X i is terminated. If it is determined that u j > u min , the process proceeds to step S156.

[ステップS156]
直線設定手段20において、例えば図示していないキャッシュメモリに格納された傾き変数uにus(usは定数であり、例えば、0.1を例示できる)を加算した値を傾き変数uに代入し、これを例えば図示していないキャッシュメモリに格納する。そして、ステップS151に戻る。
[Step S156]
In the straight line setting means 20, for example, a value obtained by adding us (us is a constant, for example, 0.1 can be exemplified) to an inclination variable u j stored in a cache memory (not shown) is assigned to the inclination variable u j . This is stored in a cache memory (not shown), for example. Then, the process returns to step S151.

<本形態の特徴>
以上説明した通り、本形態では、画像入力手段12において、画像の不連続部分(例えば見開きページの綴じ込み部分等)を含まない第1の画像と第2の画像の入力を受け付け、画像合成手段17において、第1の画像と第2の画像の間に空隙が存在する合成画像を生成する。そのため、画像の不連続部分を排除した画像情報を用いて合成画像を生成することができる。
<Features of this embodiment>
As described above, in the present embodiment, the image input unit 12 receives the input of the first image and the second image that do not include the discontinuous portion of the image (for example, the binding portion of the spread page), and the image composition unit 17. , A composite image in which a gap exists between the first image and the second image is generated. Therefore, a composite image can be generated using image information that excludes discontinuous portions of the image.

また、直線選択手段20において、直線Lから交点P,Qの色情報の差が最小となる直線L’を選択し、色情報決定手段23において、この直線L’の交点P’,Q’の色情報を用いて空隙内の調査点γの色情報を決定することとした。そのため、空隙をより適切に補完できる。
以上より、分割された画像を見栄えよく合成することができる。
Further, the straight line selection means 20 selects a straight line L ′ that minimizes the difference in color information between the intersection points P and Q from the straight line L, and the color information determination means 23 selects the intersection points P ′ and Q ′ of the straight line L ′. The color information is used to determine the color information of the investigation point γ in the gap. Therefore, a space | gap can be complemented more appropriately.
As described above, it is possible to combine the divided images with a good appearance.

〔第2の実施の形態〕
次に、本発明における第2の実施の形態について説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described.

本形態は、第1の実施の形態の変形例であり、画像の複写を行う画像複写装置に本発明を適用した例である。以下では、第1の実施の形態との相違点を中心に説明し、第1の実施の形態と共通する事項については、説明を省略する。   This embodiment is a modification of the first embodiment, and is an example in which the present invention is applied to an image copying apparatus for copying an image. Below, it demonstrates centering on difference with 1st Embodiment, and abbreviate | omits description about the matter which is common in 1st Embodiment.

<ハードウェア構成>
図26は、本形態における画像複写装置600のハードウェア構成を例示したブロック図である。
図26に例示するように、この例の画像複写装置600は、CPU610、RAM630、ROM640、スキャナー650、入力キー660及びプリンター670を有しており、バス680を通じ相互に通信可能なように接続されている。そして、CPU610は、ROM640に格納されたプログラムを読み出し、それに従った処理を実行することによって、以下に示す各処理機能を実現する。
<Hardware configuration>
FIG. 26 is a block diagram illustrating a hardware configuration of the image copying apparatus 600 according to this embodiment.
As illustrated in FIG. 26, the image copying apparatus 600 of this example includes a CPU 610, a RAM 630, a ROM 640, a scanner 650, an input key 660, and a printer 670, which are connected so as to communicate with each other via a bus 680. ing. The CPU 610 reads the program stored in the ROM 640 and executes processing according to the program, thereby realizing each processing function shown below.

<機能構成>
図27は、CPU610に上述のプログラムを実行させることにより構築される処理機能及びRAM630内のデータ構成を例示したブロック図である。なお、図27において、図3と共通する機能構成については、図3と同じ符号を付した。
<Functional configuration>
FIG. 27 is a block diagram illustrating a processing function constructed by causing the CPU 610 to execute the above-described program and a data configuration in the RAM 630. In FIG. 27, the same reference numerals as those in FIG.

図27に例示するように、上述のプログラムの実行によりCPU610には、画像入力手段612、画像出力手段613、空隙生成手段617、画像複製手段18、フィルタ手段19、直線設定手段20、交点算出手段21、直線選択手段22、色情報決定手段23、補完手段24、特異点画像生成手段25、画像切り取り手段26、特異点付加手段27及び制御手段28が構築される。なお、これら各手段は、制御手段28の制御により連携して各演算処理を行う。また、図27の矢印は情報の流れを示しているが、制御手段28からの制御情報の流れは省略してある。   As illustrated in FIG. 27, by executing the above-described program, the CPU 610 causes the image input unit 612, the image output unit 613, the gap generation unit 617, the image duplication unit 18, the filter unit 19, the straight line setting unit 20, and the intersection calculation unit. 21, a straight line selection unit 22, a color information determination unit 23, a complementing unit 24, a singular point image generation unit 25, an image cutout unit 26, a singular point addition unit 27, and a control unit 28 are constructed. Each of these means performs each calculation process in cooperation with the control of the control means 28. Further, the arrows in FIG. 27 indicate the flow of information, but the flow of control information from the control means 28 is omitted.

<処理>
図28の(a)は、画像複写装置600の処理を説明するためのフローチャートである。以下、これらの図に沿って、画像複写装置600の処理について説明する。
<Processing>
FIG. 28A is a flowchart for explaining processing of the image copying apparatus 600. Hereinafter, the processing of the image copying apparatus 600 will be described with reference to these drawings.

[ステップS161]
スキャナー650(図26)において画像を読み込む。読み込まれた画像Aはバス680を通じCPU610に送られ、CPU610の画像入力手段612(図27)は、この画像Aの入力を受け付ける。そして、画像入力手段612は、この画像AをRAM630の記憶領域630aに格納し、次のステップS162に移る。
[Step S161]
The image is read by the scanner 650 (FIG. 26). The image A 0 read sent to CPU 610 via the bus 680, the image input unit 612 of CPU 610 (FIG. 27) receives an input of the image A 0. Then, the image input unit 612 stores the image A 0 in the storage area 630a of the RAM 630, and proceeds to the next step S162.

[ステップS162]
空隙生成手段617において、RAM630の記憶領域630aから画像Aを抽出し、この画像Aの中心部分を通り、当該画像Aを横断する矩形状の空隙を生成し、画像Aを第1の画像gと第2の画像gに分割する。また、第1の画像g、第2の画像g及び空隙からなる画像を合成画像Aとする。
図28の(b)は、本ステップの処理を説明するための概念図である。
[Step S162]
In the void generation unit 617 extracts the image A 0 from the storage area 630a of the RAM 630, through the center portion of the image A 0, and generates a rectangular gap across the image A 0, the image A 0 first image g 1 between the split second in the image g 2. In addition, an image including the first image g 1 , the second image g 2, and the gap is referred to as a composite image A.
FIG. 28B is a conceptual diagram for explaining the processing of this step.

この図に例示するように、空隙生成手段617は、画像(A)700の中心部分730(例えば、見開きページの綴じ込み部分)を通り、当該画像Aを横断する矩形状の空隙720を生成する。そして、この空隙720により、画像Aを第1の画像(g)711と第2の画像(g)712に分割し、第1の画像(g)711、第2の画像(g)712及び空隙720からなる合成画像(A)710を生成する。 As illustrated in this figure, the gap generation means 617 generates a rectangular gap 720 that passes through the center portion 730 of the image (A 0 ) 700 (for example, the binding portion of the spread page) and crosses the image A 0. To do. The gap A 720 divides the image A 0 into a first image (g 1 ) 711 and a second image (g 2 ) 712, and the first image (g 1 ) 711 and the second image (g 2 ) A composite image (A) 710 composed of 712 and a gap 720 is generated.

生成された合成画像Aは、RAM630の記憶領域30eに格納される他、画像複製手段18に送られる。また、第1の画像g及び第2の画像gそれぞれもRAM630の記憶領域30bに格納される。そして、次のステップS163に進む。 The generated composite image A is sent to the image duplicating unit 18 in addition to being stored in the storage area 30e of the RAM 630. The first image g 1 and the second image g 2 are also stored in the storage area 30 b of the RAM 630. Then, the process proceeds to next Step S163.

[ステップS163]
画像複製手段18、フィルタ手段19、直線設定手段20、交点算出手段21、直線選択手段22、色情報決定手段23、補完手段24、特異点画像生成手段25、画像切り取り手段26及び特異点付加手段27における、図14のステップS122〜S135と同様な処理により、空隙を補完する画像合成処理を行う(ただし、ステップS133の処理において、記憶領域30bに格納された第1の画像gを用いる点が相違する。)。
[Step S163]
Image duplicating means 18, filter means 19, straight line setting means 20, intersection calculating means 21, straight line selecting means 22, color information determining means 23, complementing means 24, singular point image generating means 25, image cutting means 26 and singular point adding means in 27, by the same process as step S122~S135 of FIG. 14, performs image combining processing to complement a gap (although, in the process of step S133, the point of using the first image g 1 stored in the storage area 30b Is different.)

そして、このように生成された補完合成画像A’’はRAM630の記憶領域30iに格納され、次のステップS164に進む。   The complementary composite image A ″ thus generated is stored in the storage area 30i of the RAM 630, and the process proceeds to the next step S164.

[ステップS164]
画像出力手段613において、RAM630の記憶領域30iから補完合成画像A’’を抽出し、バス680を通じてプリンター670に送る。プリンター670は、この補完合成画像A’’を用紙にプリントし、出力する。
[Step S164]
The image output unit 613 extracts the complementary composite image A ″ from the storage area 30 i of the RAM 630 and sends it to the printer 670 through the bus 680. The printer 670 prints this complementary composite image A ″ on paper and outputs it.

<本形態の特徴>
以上説明したとおり、本形態では、画像入力手段612において、スキャナー650で読み込まれた画像の入力を受け付け、空隙生成手段617において、この入力された画像の中心部分を通り、画像を横断する矩形状の空隙を生成することとした。これにより、スキャナー650で読み込んだ画像の中心部分を横断する不連続部分(例えば、見開きページの綴じ込み部分等)を排除することができる。
<Features of this embodiment>
As described above, in the present embodiment, the image input unit 612 receives an input of an image read by the scanner 650, and the gap generation unit 617 passes through the central portion of the input image and crosses the image. It was decided to generate a void. Thereby, a discontinuous portion (for example, a binding portion of a spread page) that crosses the center portion of the image read by the scanner 650 can be eliminated.

また、直線選択手段20において、直線Lから交点P,Qの色情報の差が最小となる直線L’を選択し、色情報決定手段において、この直線L’の交点P’,Q’の色情報を用いて空隙内の調査点γの色情報を決定する。これにより、空隙生成手段617において生成した空隙をより適切に補完できる。
以上より、読み込み画像から綴じ込み部分等の不連続部分を排除し、なおかつ見栄えのよい複写画像を生成できる。
Further, the straight line selection means 20 selects a straight line L ′ that minimizes the color information difference between the intersection points P and Q from the straight line L, and the color information determination means selects the color of the intersection points P ′ and Q ′ of the straight line L ′. The information is used to determine the color information of the survey point γ in the gap. Thereby, the space | gap produced | generated in the space | gap production | generation means 617 can be complemented more appropriately.
As described above, it is possible to eliminate a discontinuous portion such as a binding portion from a read image and generate a good-looking copy image.

なお、本発明は上述の各実施の形態に限定されるものではなく、本発明の趣旨を遺脱しない範囲で適宜変更が可能であることはいうまでもない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。   Note that the present invention is not limited to the above-described embodiments, and it is needless to say that modifications can be made as appropriate without departing from the spirit of the present invention. For example, the various processes described above are not only executed in time series according to the description, but may also be executed in parallel or individually as required by the processing capability of the apparatus that executes the processes.

また、上述の構成をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。   Further, when the above-described configuration is realized by a computer, processing contents of functions that each device should have are described by a program. The processing functions are realized on the computer by executing the program on the computer.

この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよいが、具体的には、例えば、磁気記録装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(Digital Versatile Disc)、DVD−RAM(Random Access Memory)、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto-Optical disc)等を、半導体メモリとしてEEP−ROM(Electronically Erasable and Programmable-Read Only Memory)等を用いることができる。   The program describing the processing contents can be recorded on a computer-readable recording medium. The computer-readable recording medium may be any medium such as a magnetic recording device, an optical disk, a magneto-optical recording medium, or a semiconductor memory. Specifically, for example, the magnetic recording device may be a hard disk device or a flexible Discs, magnetic tapes, etc. as optical disks, DVD (Digital Versatile Disc), DVD-RAM (Random Access Memory), CD-ROM (Compact Disc Read Only Memory), CD-R (Recordable) / RW (ReWritable), etc. As the magneto-optical recording medium, MO (Magneto-Optical disc) or the like can be used, and as the semiconductor memory, EEP-ROM (Electronically Erasable and Programmable-Read Only Memory) or the like can be used.

また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。   The program is distributed by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Furthermore, the program may be distributed by storing the program in a storage device of the server computer and transferring the program from the server computer to another computer via a network.

このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。   A computer that executes such a program first stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its storage device. When executing the process, the computer reads the program stored in its own recording medium and executes the process according to the read program. As another execution form of the program, the computer may directly read the program from the portable recording medium and execute processing according to the program, and the program is transferred from the server computer to the computer. Each time, the processing according to the received program may be executed sequentially. Also, the program is not transferred from the server computer to the computer, and the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes the processing function only by the execution instruction and result acquisition. It may be Note that the program in this embodiment includes information that is used for processing by an electronic computer and that conforms to the program (data that is not a direct command to the computer but has a property that defines the processing of the computer).

また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。   In this embodiment, the present apparatus is configured by executing a predetermined program on a computer. However, at least a part of these processing contents may be realized by hardware.

本発明の産業上の利用分野としては、上述した雑誌等の見開きページや航空写真の合成を行うソフトウェアや、カラー見開きページの綴じ込み部分を自動的に修復するカラーデジタルコピー機等を例示できる。また、本発明の画像合成装置と、パーソナルコンピュータ等の端末装置と、をインターネット等で接続し、この端末装置から送られた画像を、本発明の画像合成装置において合成し、端末装置に返送するサービス形態も考えられる。   Examples of the industrial application field of the present invention include software for synthesizing spread pages such as magazines described above and aerial photographs, and a color digital copier that automatically repairs a binding portion of a color spread page. In addition, the image composition device of the present invention and a terminal device such as a personal computer are connected via the Internet or the like, and an image sent from the terminal device is composed by the image composition device of the present invention and returned to the terminal device. Service forms are also conceivable.

第1の実施の形態における画像合成装置の概要を説明するための図。The figure for demonstrating the outline | summary of the image synthesizing | combining apparatus in 1st Embodiment. 第1の実施の形態における画像合成装置のハードウェア構成を例示したブロック図。1 is a block diagram illustrating a hardware configuration of an image composition device according to a first embodiment. 第1の実施の形態においてCPUにプログラムを実行させることにより構築される処理機能及びRAM内のデータ構成を例示したブロック図。The block diagram which illustrated the processing function constructed | assembled by making CPU execute a program in 1st Embodiment, and the data structure in RAM. 第1の実施の形態における画像調整手段の詳細機能構成を例示したブロック図。The block diagram which illustrated the detailed functional composition of the image adjustment means in a 1st embodiment. 第1の実施の形態における画像合成装置の全体処理を説明するためのフローチャート。3 is a flowchart for explaining overall processing of the image composition device according to the first embodiment. 第1の実施の形態における画像合成装置の全体処理を説明するためのフローチャート。3 is a flowchart for explaining overall processing of the image composition device according to the first embodiment. 第1の実施の形態における画像合成装置の全体処理を説明するためのフローチャート。3 is a flowchart for explaining overall processing of the image composition device according to the first embodiment. 第1の画像のコントラスト・明るさ調整処理の詳細を説明するためのフローチャート。6 is a flowchart for explaining details of contrast / brightness adjustment processing of a first image. 第1の画像のコントラスト・明るさ調整処理の詳細を説明するためのフローチャート。6 is a flowchart for explaining details of contrast / brightness adjustment processing of a first image. 第1の画像の自動調整の詳細を説明するためのフローチャート。The flowchart for demonstrating the detail of the automatic adjustment of a 1st image. 第2の画像のコントラスト・明るさ調整処理の詳細を説明するためのフローチャート。12 is a flowchart for explaining details of contrast / brightness adjustment processing of a second image. 第2の画像のコントラスト・明るさ調整処理の詳細を説明するためのフローチャート。12 is a flowchart for explaining details of contrast / brightness adjustment processing of a second image. 第2の画像の自動調整の詳細を説明するためのフローチャート。12 is a flowchart for explaining details of automatic adjustment of a second image. 画像合成処理の詳細を説明するためのフローチャート。The flowchart for demonstrating the detail of an image composition process. 調査点Xに関する直線L設定処理の詳細の詳細を説明するためのフローチャート。Flowchart for explaining details regarding investigation points X i straight line L of the set processing details. 第1の実施の形態においてディスプレイに表示されるメイン画面の構成を例示した図。The figure which illustrated the composition of the main screen displayed on a display in a 1st embodiment. 境界情報(BL)を視覚的に示した図。The figure which showed boundary information (BL) visually. 第1の画像に対応するヒストグラムH、及び第2の画像に対応するヒストグラムHの例示。An example of a histogram H 1 corresponding to the first image and a histogram H 2 corresponding to the second image. 画像合成処理を概念的に例示した図。The figure which illustrated image composition processing notionally. 特異点除去画像(B’)を概念的に例示した図。The figure which illustrated the singular point removal image (B ') notionally. 1つの調査点について設定される複数の直線(L)を例示した概念図。The conceptual diagram which illustrated the some straight line (L) set about one investigation point. 選択された直線L’を例示した概念図。The conceptual diagram which illustrated the selected straight line L '. ステップS149の処理を説明するための概念図。The conceptual diagram for demonstrating the process of step S149. ステップS152の処理を説明するための概念図。The conceptual diagram for demonstrating the process of step S152. 画像合成処理を概念的に例示した図。The figure which illustrated image composition processing notionally. 第2の実施の形態における画像複写装置のハードウェア構成を例示したブロック図。FIG. 6 is a block diagram illustrating a hardware configuration of an image copying apparatus according to a second embodiment. 第2の実施の形態においてCPUに所定のプログラムを実行させることにより構築される処理機能及びRAM内のデータ構成を例示したブロック図。FIG. 6 is a block diagram illustrating a processing function constructed by causing a CPU to execute a predetermined program and a data configuration in a RAM according to the second embodiment. (a)は、第2の実施の形態における画像複写装置の処理を説明するためのフローチャート。(b)は、ステップS162の処理を説明するための概念図。FIG. 6A is a flowchart for explaining processing of the image copying apparatus according to the second embodiment. (B) is a conceptual diagram for demonstrating the process of step S162.

符号の説明Explanation of symbols

1,100画像合成装置
600 画像複写装置
1,100 image synthesizing apparatus 600 image copying apparatus

Claims (12)

複数の画像を合成する画像合成装置であって、
第1の画像と第2の画像の入力を受け付ける画像入力手段と、
上記第1の画像と第2の画像の間に空隙が存在する状態で当該第1の画像と第2の画像を合成した合成画像を生成する画像合成手段と、
上記空隙内の調査点γを通る直線Lを複数設定する直線設定手段と、
上記第1の画像の空隙側エッジ部αと上記直線Lとの交点P、及び上記第2の画像の空隙側エッジ部βと当該直線Lとの交点Q、を算出する交点算出手段と、
上記直線Lから、上記交点P,Qの色情報の差が最小となる直線L’を選択する直線選択手段と、
上記直線選択手段において選択された上記直線L’の交点P’,Q’の色情報を用い、上記調査点γの色情報を決定する色情報決定手段と、
を有することを特徴とする画像合成装置。
An image composition device for compositing a plurality of images,
Image input means for receiving input of the first image and the second image;
Image synthesizing means for generating a synthesized image obtained by synthesizing the first image and the second image in a state where a gap exists between the first image and the second image;
Straight line setting means for setting a plurality of straight lines L passing through the investigation point γ in the gap;
An intersection calculation means for calculating an intersection P between the gap-side edge portion α of the first image and the straight line L and an intersection point Q of the gap-side edge portion β of the second image and the straight line L;
Straight line selection means for selecting, from the straight line L, a straight line L ′ that minimizes the difference in color information between the intersection points P and Q;
Color information determination means for determining color information of the survey point γ using color information of intersections P ′ and Q ′ of the straight line L ′ selected by the straight line selection means;
An image synthesizing apparatus comprising:
請求項1記載の画像合成装置であって、
上記色情報決定手段は、
上記調査点γと上記交点P,Qとの距離に応じ、当該交点P,Qの色情報に重み付けを行い、上記調査点γの色情報を決定する手段であり、
上記交点P,Qの色情報に付される重みは、
当該交点P,Qが上記調査点γに近いほど大きい、
ことを特徴とする画像合成装置。
The image composition apparatus according to claim 1,
The color information determining means is
A means for weighting the color information of the intersection points P and Q according to the distance between the investigation point γ and the intersection points P and Q, and determining the color information of the investigation point γ,
The weight given to the color information of the intersections P and Q is
The intersections P and Q are larger as they are closer to the survey point γ.
An image composition device characterized by the above.
請求項1記載の画像合成装置であって、
上記第1の画像及び第2の画像を出力する画像出力手段と、
画像のコントラスト或いは明るさを変化させるための調整情報の入力を受け付ける調整情報入力手段と、
上記調整情報に基づき、上記第1の画像及び第2の画像の少なくとも一方の、コントラスト及び明るさの少なくとも一方を変化させる画像調整手段と、
をさらに有し、
上記画像合成手段は、
上記画像調整手段においてコントラスト及び明るさの少なくとも一方を変化させた上記第1の画像或いは第2の画像を用い、上記合成画像を生成する手段である、
ことを特徴とする画像合成装置。
The image composition apparatus according to claim 1,
Image output means for outputting the first image and the second image;
Adjustment information input means for receiving input of adjustment information for changing the contrast or brightness of the image;
Image adjusting means for changing at least one of contrast and brightness of at least one of the first image and the second image based on the adjustment information;
Further comprising
The image composition means
Means for generating the composite image using the first image or the second image in which at least one of contrast and brightness is changed in the image adjusting means;
An image composition device characterized by the above.
請求項1記載の画像合成装置であって、
上記第1の画像及び上記第2の画像について、輝度とその輝度を有するピクセルの数(カウント数)とのヒストグラムを生成するヒストグラム生成手段と、
上記第1の画像に対応する上記ヒストグラムHの幅(上記カウント数が閾値以上となっている輝度の最大値から、上記カウント数が閾値以上となっている輝度の最小値を引いた値)と、上記第2の画像に対応する上記ヒストグラムHの幅と、の差が許容範囲内となるまで、上記第1の画像及び第2の画像の少なくとも一方のコントラストを変化させるコントラスト調整手段と、
上記ヒストグラムHの位置(上記カウント数が閾値以上となっている輝度の最小値或いは最大値)と、上記ヒストグラムHの位置と、の差が許容範囲内となるまで、上記第1の画像及び第2の画像の少なくとも一方の明るさを変化させる明るさ調整手段と、
さらに有し、
上記画像合成手段は、
上記コントラスト調整手段及び上記明るさ調整手段において、コントラスト及び明るさの少なくとも一方を変化させた上記第1の画像或いは第2の画像を用い、上記合成画像を生成する手段である、
ことを特徴とする画像合成装置。
The image composition apparatus according to claim 1,
Histogram generation means for generating a histogram of the luminance and the number of pixels having the luminance (count number) for the first image and the second image;
The first image to the histogram H 1 corresponding width (the maximum value of the luminance has become the count number is equal to or greater than the threshold, minus the minimum value of the luminance which the count is greater than or equal to the threshold value) If, until the width of the histogram H 2 corresponding to the second image, the difference is made within an allowable range, a contrast adjusting means for changing at least one of contrast of the first image and the second image ,
Position of the histogram H 1 and (minimum value or maximum value of the luminance that is the above-mentioned counted number threshold or more), until the difference, and the position of the histogram H 2 is within the allowable range, the first image Brightness adjusting means for changing the brightness of at least one of the second image, and
In addition,
The image composition means
In the contrast adjustment unit and the brightness adjustment unit, the first image or the second image in which at least one of contrast and brightness is changed is used to generate the composite image.
An image composition device characterized by the above.
請求項1記載の画像合成装置であって、
特定の調査点γを通る直線Lの傾き範囲を制限する境界情報の入力を受け付ける境界情報入力手段をさらに有し、
上記直線設定手段は、
上記境界情報が特定する制限範囲内で、上記特定の調査点γを通る直線Lを設定する手段である、
ことを特徴とする画像合成装置。
The image composition apparatus according to claim 1,
Boundary information input means for receiving input of boundary information that limits the inclination range of the straight line L passing through the specific survey point γ,
The straight line setting means includes:
A means for setting a straight line L passing through the specific investigation point γ within the limit range specified by the boundary information.
An image composition device characterized by the above.
複数の画像を合成する画像合成装置であって、
第1の画像と第2の画像の入力を受け付ける画像入力手段と、
上記第1の画像と第2の画像の間に空隙が存在する状態で当該第1の画像と第2の画像を合成した合成画像Aを生成する画像合成手段と、
上記合成画像Aの複製データである複製合成画像Bを生成する画像複製手段と、
上記複製合成画像Bの特異点を除去した特異点除去画像B’を生成するフィルタ手段と、
上記特異点除去画像B’の空隙内の調査点γを通る直線Lを複数設定する直線設定手段と、
上記第1の画像(上記特異点除去画像B’における)の空隙側エッジ部αと上記直線Lとの交点P、及び上記第2の画像(上記特異点除去画像B’における)の空隙側エッジ部βと当該直線Lとの交点Q、を算出する交点算出手段と、
上記直線Lから、上記交点P,Qの色情報の差が最小となる直線L’を選択する直線選択手段と、
上記直線選択手段において選択された上記直線L’の交点P’,Q’の色情報を用い、上記調査点γの色情報を決定する色情報決定手段と、
決定された上記調査点γの色情報の集合によって、上記合成画像Aの空隙を補完した補完画像A’を生成する補完手段と、
を有することを特徴とする画像合成装置。
An image composition device for compositing a plurality of images,
Image input means for receiving input of the first image and the second image;
Image synthesizing means for generating a synthesized image A obtained by synthesizing the first image and the second image in a state where a gap exists between the first image and the second image;
Image duplicating means for creating a duplicate composite image B which is duplicate data of the composite image A;
Filter means for generating a singularity-removed image B ′ from which the singularity of the duplicate composite image B has been removed;
Straight line setting means for setting a plurality of straight lines L passing through the investigation points γ in the gap of the singular point removal image B ′;
The intersection P between the air gap side edge portion α of the first image (in the singular point removal image B ′) and the straight line L, and the air gap side edge of the second image (in the singular point removal image B ′). Intersection calculating means for calculating an intersection Q between the part β and the straight line L;
Straight line selection means for selecting, from the straight line L, a straight line L ′ that minimizes the difference in color information between the intersection points P and Q;
Color information determination means for determining color information of the survey point γ using color information of intersections P ′ and Q ′ of the straight line L ′ selected by the straight line selection means;
Complementing means for generating a complementary image A ′ that complements the gap of the composite image A by the set of color information of the determined survey point γ,
An image synthesizing apparatus comprising:
請求項6記載の画像合成装置であって、
上記第1の画像或いは上記第2の画像の特異点成分からなる特異点画像Dを生成する特異点画像生成手段と、
上記特異点画像Dから、上記空隙と同じ形状の画像(以下「付加画像E」という。)を切り取る画像切り取り手段と、
上記付加画像Eを上記補完画像A’の補完部分に合成する特異点付加手段と、
をさらに有することを特徴とする画像合成装置。
The image composition apparatus according to claim 6,
Singularity image generation means for generating a singularity image D comprising the singularity component of the first image or the second image;
Image cutting means for cutting an image having the same shape as the void (hereinafter referred to as “additional image E”) from the singular point image D;
Singularity adding means for synthesizing the additional image E with a complementary portion of the complementary image A ′;
An image synthesizing apparatus further comprising:
請求項7記載の画像合成装置であって、
上記付加画像Eは、
上記特異点画像Dの空隙側エッジ部分である、
ことを特徴とする画像合成装置。
The image composition device according to claim 7,
The additional image E is
The gap side edge portion of the singular point image D,
An image composition device characterized by the above.
請求項7記載の画像合成装置であって、
上記特異点付加手段は、
上記付加画像Eの輝度値を減じた後、当該付加画像Eを上記補完画像A’の補完部分に合成する手段である、
ことを特徴とする画像合成装置。
The image composition device according to claim 7,
The singularity adding means is
Means for reducing the luminance value of the additional image E and then combining the additional image E with a complementary portion of the complementary image A ′;
An image composition device characterized by the above.
画像の複写を行う画像複写装置であって、
画像の入力を受け付ける画像入力手段と、
上記画像の中心部分を通り、当該画像を横断する矩形状の空隙を生成し、上記画像を第1の画像と第2の画像に分割する空隙生成手段と、
上記空隙内の調査点γを通る直線Lを複数設定する直線設定手段と、
上記第1の画像の空隙側エッジ部αと上記直線Lとの交点P、及び上記第2の画像の空隙側エッジ部βと当該直線Lとの交点Q、を算出する交点算出手段と、
上記直線Lから、上記交点P,Qの色情報の差が最小となる直線L’を選択する直線選択手段と、
上記直線選択手段において選択された上記直線L’の交点P’,Q’の色情報を用い、上記調査点γの色情報を決定する色情報決定手段と、
を有することを特徴とする画像複写装置。
An image copying apparatus for copying an image,
Image input means for receiving image input;
A void generating means for generating a rectangular void passing through the central portion of the image and crossing the image, and dividing the image into a first image and a second image;
Straight line setting means for setting a plurality of straight lines L passing through the investigation point γ in the gap;
An intersection calculation means for calculating an intersection P between the gap-side edge portion α of the first image and the straight line L and an intersection point Q of the gap-side edge portion β of the second image and the straight line L;
Straight line selection means for selecting, from the straight line L, a straight line L ′ that minimizes the difference in color information between the intersection points P and Q;
Color information determination means for determining color information of the survey point γ using color information of intersections P ′ and Q ′ of the straight line L ′ selected by the straight line selection means;
An image copying apparatus comprising:
請求項1から9の何れかに記載の画像合成装置としてコンピュータを機能させるためのプログラム。 A program for causing a computer to function as the image composition device according to claim 1. 請求項10記載の画像複写装置としてコンピュータを機能させるためのプログラム。 A program for causing a computer to function as the image copying apparatus according to claim 10.
JP2004097252A 2004-03-29 2004-03-29 Image composition apparatus and program Expired - Fee Related JP4500083B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004097252A JP4500083B2 (en) 2004-03-29 2004-03-29 Image composition apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004097252A JP4500083B2 (en) 2004-03-29 2004-03-29 Image composition apparatus and program

Publications (2)

Publication Number Publication Date
JP2005284685A true JP2005284685A (en) 2005-10-13
JP4500083B2 JP4500083B2 (en) 2010-07-14

Family

ID=35182997

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004097252A Expired - Fee Related JP4500083B2 (en) 2004-03-29 2004-03-29 Image composition apparatus and program

Country Status (1)

Country Link
JP (1) JP4500083B2 (en)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05153562A (en) * 1991-12-02 1993-06-18 Matsushita Electric Ind Co Ltd Correlation detection interpolation method and device
JP2754954B2 (en) * 1991-06-14 1998-05-20 松下電器産業株式会社 Image signal correlation detection and interpolation device
JPH1141565A (en) * 1997-07-23 1999-02-12 Sharp Corp Image data interpolation device
JPH11289447A (en) * 1998-04-02 1999-10-19 Fuji Photo Film Co Ltd Picture processing method and picture processor
JP2001094951A (en) * 1999-09-21 2001-04-06 Sanyo Electric Co Ltd Scanning line interpolation method
JP2001103351A (en) * 1999-09-29 2001-04-13 Fuji Photo Film Co Ltd Camera with printer
JP3438032B2 (en) * 1994-03-15 2003-08-18 松下電器産業株式会社 Spatial frequency adaptive interpolation method and spatial frequency adaptive interpolation device
JP3455784B2 (en) * 1992-02-15 2003-10-14 鐘淵化学工業株式会社 Creating a panoramic electronic photograph
JP2004072528A (en) * 2002-08-07 2004-03-04 Sharp Corp Method and program for interpolation processing, recording medium with the same recorded thereon, image processor and image forming device provided with the same
WO2004051575A1 (en) * 2002-12-05 2004-06-17 Seiko Epson Corporation Characteristic region extraction device, characteristic region extraction method, and characteristic region extraction program
JP2004312549A (en) * 2003-04-09 2004-11-04 Sharp Corp Panoramic image photographing apparatus and panoramic image photographing method
JP2004334843A (en) * 2003-04-15 2004-11-25 Seiko Epson Corp Method of composting image from two or more images
JP2005191894A (en) * 2003-12-25 2005-07-14 Casio Comput Co Ltd Camera device and program
JP2005223905A (en) * 2004-02-04 2005-08-18 Hewlett-Packard Development Co Lp Digital camera and method for making still panorama photograph and combined photograph

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK501585A (en) * 1984-11-05 1986-05-06 Dow Chemical Co MEMBRANE UNIT FOR AN ELECTROLYCLE CELL

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2754954B2 (en) * 1991-06-14 1998-05-20 松下電器産業株式会社 Image signal correlation detection and interpolation device
JPH05153562A (en) * 1991-12-02 1993-06-18 Matsushita Electric Ind Co Ltd Correlation detection interpolation method and device
JP3455784B2 (en) * 1992-02-15 2003-10-14 鐘淵化学工業株式会社 Creating a panoramic electronic photograph
JP3438032B2 (en) * 1994-03-15 2003-08-18 松下電器産業株式会社 Spatial frequency adaptive interpolation method and spatial frequency adaptive interpolation device
JPH1141565A (en) * 1997-07-23 1999-02-12 Sharp Corp Image data interpolation device
JPH11289447A (en) * 1998-04-02 1999-10-19 Fuji Photo Film Co Ltd Picture processing method and picture processor
JP2001094951A (en) * 1999-09-21 2001-04-06 Sanyo Electric Co Ltd Scanning line interpolation method
JP2001103351A (en) * 1999-09-29 2001-04-13 Fuji Photo Film Co Ltd Camera with printer
JP2004072528A (en) * 2002-08-07 2004-03-04 Sharp Corp Method and program for interpolation processing, recording medium with the same recorded thereon, image processor and image forming device provided with the same
WO2004051575A1 (en) * 2002-12-05 2004-06-17 Seiko Epson Corporation Characteristic region extraction device, characteristic region extraction method, and characteristic region extraction program
JP2004312549A (en) * 2003-04-09 2004-11-04 Sharp Corp Panoramic image photographing apparatus and panoramic image photographing method
JP2004334843A (en) * 2003-04-15 2004-11-25 Seiko Epson Corp Method of composting image from two or more images
JP2005191894A (en) * 2003-12-25 2005-07-14 Casio Comput Co Ltd Camera device and program
JP2005223905A (en) * 2004-02-04 2005-08-18 Hewlett-Packard Development Co Lp Digital camera and method for making still panorama photograph and combined photograph

Also Published As

Publication number Publication date
JP4500083B2 (en) 2010-07-14

Similar Documents

Publication Publication Date Title
JP4892558B2 (en) Image fusion
US8401284B2 (en) Color correcting method and apparatus
Liu et al. Optimizing photo composition
US8391593B2 (en) Image processing methods and systems
JP3690391B2 (en) Image editing apparatus, image trimming method, and program
JP2004348211A (en) Data-editing device, data-editing method, and program
JP2008052326A (en) Electronic album generation apparatus, electronic album generation method, and its program
CN101276363A (en) Document image retrieval device and document image retrieval method
US20010004258A1 (en) Method, apparatus and recording medium for generating composite image
JP2007158824A (en) Image processor, flesh tone adjusting method, and program
CN107636728A (en) For the method and apparatus for the depth map for determining image
KR20220084136A (en) Learning Support Devices, Learning Devices, Learning Support Methods and Learning Support Programs
JP4348956B2 (en) Image layout apparatus, image layout method, and program in image layout apparatus
JP7195220B2 (en) LEARNING DEVICE, METHOD OF OPERATION OF LEARNING DEVICE, AND OPERATION PROGRAM OF LEARNING DEVICE
JP4500083B2 (en) Image composition apparatus and program
JPH09190546A (en) Automatic image editing device
US8086060B1 (en) Systems and methods for three-dimensional enhancement of two-dimensional images
JP3584179B2 (en) Image processing method, image processing device, and storage medium
JP4057102B2 (en) Digital image articulated rendering method
JP3570236B2 (en) Image processing method and storage medium storing the program
JP5158974B2 (en) Attention area extraction method, program, and image evaluation apparatus
WO2000033207A1 (en) Digital image improvement through genetic image evolution
JP6750094B2 (en) Image evaluation apparatus, image evaluation method, and image evaluation program
JP4184061B2 (en) Stereoscopic image editing apparatus and stereoscopic image editing program
EP1206117A2 (en) Method and apparatus for image capture, selection and copying

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20040331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040621

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070320

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20070320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20070320

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100330

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100416

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130423

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4500083

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160423

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees