JP2005284685A - Image composing device, image copying device and program - Google Patents
Image composing device, image copying device and program Download PDFInfo
- Publication number
- JP2005284685A JP2005284685A JP2004097252A JP2004097252A JP2005284685A JP 2005284685 A JP2005284685 A JP 2005284685A JP 2004097252 A JP2004097252 A JP 2004097252A JP 2004097252 A JP2004097252 A JP 2004097252A JP 2005284685 A JP2005284685 A JP 2005284685A
- Authority
- JP
- Japan
- Prior art keywords
- image
- straight line
- color information
- intersection
- gap
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000002131 composite material Substances 0.000 claims abstract description 46
- 239000000203 mixture Substances 0.000 claims description 54
- 238000011835 investigation Methods 0.000 claims description 32
- 230000000295 complement effect Effects 0.000 claims description 31
- 230000002194 synthesizing effect Effects 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 12
- 239000011800 void material Substances 0.000 claims description 6
- 238000005520 cutting process Methods 0.000 claims description 5
- 238000000034 method Methods 0.000 description 174
- 230000008569 process Effects 0.000 description 173
- 238000003860 storage Methods 0.000 description 97
- 238000012545 processing Methods 0.000 description 82
- 238000010586 diagram Methods 0.000 description 27
- 239000000284 extract Substances 0.000 description 17
- 230000006870 function Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000009966 trimming Methods 0.000 description 2
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000006187 pill Substances 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
Description
本発明は、画像処理分野に関し、特に、複数に分割された画像の合成を行う画像合成装置、画像複写装置及びプログラムに関する。 The present invention relates to the field of image processing, and more particularly, to an image composition device, an image copying device, and a program for composing a plurality of divided images.
近年、パーソナルコンピュータ、スキャナー、デジタルカメラ等の普及に伴い、個人ユーザが自らデジタル画像編集を行うことが一般的となってきた。このような画像編集は、通常、画像編集ソフトウェアを用いて行われ、その多彩な編集機能を用いることにより、専門的な知識を有しない個人ユーザでも簡単に高度が画像編集を行うことが可能となっている(例えば、非特許文献1参照。)。
しかし、従来、専門的な知識を有しない者が、複数に分割された画像を見栄えよく合成するための手法は存在しなかった。 However, conventionally, there has been no method for a person who does not have specialized knowledge to synthesize a picture that has been divided into a plurality of parts.
例えば、雑誌等の見開きページにおいて、中央の綴じ込み部分を避け、左右の画像を別々にスキャナーで読み込み、それらを合成して一枚の画像を生成する場合、この2枚の画像の結合部分は不連続となり、見栄えのよい合成画像とはならない。また、航空写真のように、1枚の写真に納まりきらない被写体をエリアごとに分割して撮影し、それらを合成する場合も、それらの結合部分において不連続な部分が発生し、見栄えのよい合成画像とはならない。 For example, in a spread page of a magazine or the like, when the left and right images are read separately with a scanner and a single image is generated by avoiding the center binding portion, the combined portion of the two images is not acceptable. It will be continuous and will not look good composite images. Also, even when shooting subjects that do not fit in a single photograph, such as aerial photographs, divided into areas and combining them, a discontinuous part occurs in the combined part, and it looks good It is not a composite image.
通常、このような不連続部分を適切に補正し、その境目を目立たなくするためには、画像処理に関する専門的な知識が必要である。そのため、そのような専門知識を有していない一般的なユーザにとって、このように複数に分割された画像を見栄えよく合成することは困難である。 Usually, in order to appropriately correct such discontinuous portions and make the boundaries inconspicuous, specialized knowledge about image processing is required. For this reason, it is difficult for a general user who does not have such expertise to synthesize the image divided into a plurality of images in such a manner.
本発明はこのような点に鑑みてなされたものであり、専門的な知識を有しない者であっても、分割された画像を見栄えよく合成することが可能な画像合成装置を提供することである。
また、本発明の他の目的は、この画像合成装置を応用した画像複写装置を提供することである。
The present invention has been made in view of the above points, and by providing an image composition device that enables a person who does not have specialized knowledge to synthesize a divided image with a good appearance. is there.
Another object of the present invention is to provide an image copying apparatus to which this image composition apparatus is applied.
第1の本発明では上記課題を解決するために、第1の画像と第2の画像の入力を受け付ける画像入力手段と、第1の画像と第2の画像の間に空隙が存在する状態で当該第1の画像と第2の画像を合成した合成画像を生成する画像合成手段と、空隙内の調査点γを通る直線Lを複数設定する直線設定手段と、第1の画像の空隙側エッジ部αと直線Lとの交点P、及び第2の画像の空隙側エッジ部βと当該直線Lとの交点Q、を算出する交点算出手段と、直線Lから、交点P,Qの色情報の差が最小となる直線L’を選択する直線選択手段と、直線選択手段において選択された直線L’の交点P’,Q’の色情報を用い、調査点γの色情報を決定する色情報決定手段と、を有する画像合成装置が提供される。 In the first aspect of the present invention, in order to solve the above-described problem, the image input means for receiving the input of the first image and the second image, and a gap exists between the first image and the second image. Image combining means for generating a combined image obtained by combining the first image and the second image, straight line setting means for setting a plurality of straight lines L passing through the investigation point γ in the air gap, and the air gap side edge of the first image Intersection point calculating means for calculating the intersection point P between the part α and the straight line L and the intersection point Q between the gap-side edge part β of the second image and the straight line L; Color information for determining the color information of the survey point γ using the straight line selection means for selecting the straight line L ′ that minimizes the difference and the color information of the intersections P ′ and Q ′ of the straight line L ′ selected by the straight line selection means. And an image synthesizing apparatus.
ここで、画像合成手段において、第1の画像と第2の画像の間に空隙が存在する合成画像を生成することにより、画像の不連続部分を排除した画像情報を用いて合成画像を生成することができる。
また、直線選択手段において、直線Lから交点P,Qの色情報の差が最小となる直線L’を選択し、色情報決定手段において、この直線L’の交点P’,Q’の色情報を用いて空隙内の調査点γの色情報を決定することにより、空隙をより適切に補完できる。
以上より、分割された画像を見栄えよく合成することができる。
Here, in the image composition means, a composite image in which a gap exists between the first image and the second image is generated, and a composite image is generated using image information from which the discontinuous portion of the image is excluded. be able to.
Further, the straight line selection means selects a straight line L ′ that minimizes the color information difference between the intersection points P and Q from the straight line L, and the color information determination means selects the color information of the intersection points P ′ and Q ′ of the straight line L ′. By determining the color information of the investigation point γ in the gap using, the gap can be complemented more appropriately.
As described above, it is possible to combine the divided images with a good appearance.
また、第2の本発明では、画像の入力を受け付け画像入力手段と、画像の中心部分を通り、当該画像を横断する矩形状の空隙を生成し、この画像を第1の画像と第2の画像に分割する空隙生成手段と、空隙内の調査点γを通る直線Lを複数設定する直線設定手段と、第1の画像の空隙側エッジ部αと直線Lとの交点P、及び第2の画像の空隙側エッジ部βと当該直線Lとの交点Q、を算出する交点算出手段と、直線Lから、交点P,Qの色情報の差が最小となる直線L’を選択する直線選択手段と、直線選択手段において選択された直線L’の交点P’,Q’の色情報を用い、調査点γの色情報を決定する色情報決定手段と、を有する画像複写装置が提供される。 In the second aspect of the present invention, the input of an image is received, and an image input means and a rectangular gap that passes through the central portion of the image and crosses the image are generated. This image is converted into the first image and the second image. A gap generating means for dividing the image into an image; a straight line setting means for setting a plurality of straight lines L passing through the investigation points γ in the gap; an intersection P between the gap-side edge α of the first image and the straight line L; An intersection calculation means for calculating the intersection point Q between the gap side edge portion β of the image and the straight line L, and a straight line selection means for selecting, from the straight line L, a straight line L ′ that minimizes the color information difference between the intersection points P and Q. And color information determining means for determining the color information of the investigation point γ using the color information of the intersections P ′ and Q ′ of the straight line L ′ selected by the straight line selecting means.
ここで、画像入力手段において、画像の入力を受け付け、空隙生成手段において、画像の中心部分を通り、画像を横断する矩形状の空隙を生成することにより、画像の中心部分を横断する不連続部分(例えば、見開きページの綴じ込み部分等)を排除できる。
また、直線選択手段において、直線Lから交点P,Qの色情報の差が最小となる直線L’を選択し、色情報決定手段において、この直線L’の交点P’,Q’の色情報を用いて空隙内の調査点γの色情報を決定することにより、生成した空隙をより適切に補完できる。
以上より、読み込み画像から綴じ込み部分等の不連続部分を排除し、なおかつ見栄えのよい複写画像を生成できる。
Here, the image input means accepts the input of the image, and the gap generation means generates a rectangular gap that passes through the central portion of the image and crosses the image, thereby discontinuous portions that cross the central portion of the image. (For example, a binding portion of a spread page) can be eliminated.
Further, the straight line selection means selects a straight line L ′ that minimizes the color information difference between the intersection points P and Q from the straight line L, and the color information determination means selects the color information of the intersection points P ′ and Q ′ of the straight line L ′. By determining the color information of the investigation point γ in the gap, the generated gap can be complemented more appropriately.
As described above, it is possible to eliminate a discontinuous portion such as a binding portion from a read image and generate a good-looking copy image.
本発明では、直線Lから交点P,Qの色情報の差が最小となる直線L’を選択し、この直線L’の交点P’,Q’の色情報を用いて空隙内の調査点γの色情報を決定することにより、分割画像間の間隙をより適切に補完できる。その結果、専門的な知識を有しない者であっても、分割された画像を見栄えよく合成することができる。
また、これを応用することにより、読み込み画像から不連続部分を排除し、なおかつ見栄えのよい複写画像を生成することができる。
In the present invention, a straight line L ′ that minimizes the difference in color information between the intersection points P and Q is selected from the straight line L, and the investigation point γ in the gap is used using the color information of the intersection points P ′ and Q ′ of the straight line L ′. By determining the color information, it is possible to more appropriately complement the gap between the divided images. As a result, even a person who does not have specialized knowledge can synthesize the divided images with good appearance.
Also, by applying this, it is possible to eliminate the discontinuous portion from the read image and generate a good-looking copy image.
以下、本発明の実施の形態を図面を参照して説明する。
〔第1の実施の形態〕
まず、本発明における第1の実施の形態について説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[First Embodiment]
First, a first embodiment of the present invention will be described.
<概要>
図1は、本形態における画像合成装置1の概要を説明するための図である。以下、この図を用いて、本形態における画像合成装置1の概要について説明する。
画像合成装置1は、入力された複数の画像(第1の画像と第2の画像)の合成画像を生成する。
この画像合成を行う場合、まず画像合成装置1は、画像入力手段2において、第1の画像と第2の画像の入力を受け付け、これらを画像合成手段3に送り、画像合成手段3において、第1の画像と第2の画像の間に空隙(隙間)が存在する状態で当該第1の画像と第2の画像を合成した合成画像を生成する。そして、直線設定手段4において、この合成画像を受け取り、この合成画像が具備する空隙内の調査点γを通る直線Lを複数設定する。合成画像及び設定された複数の直線Lは交点算出手段5に送られ、交点算出手段5は、これらの情報から第1の画像の空隙側エッジ部αと直線Lとの交点P、及び第2の画像の空隙側エッジ部βと当該直線Lとの交点Qを算出する。算出された交点P,Qの情報は直線選択手段に送られ、直線選択手段6は、直線Lから、交点P,Qの色情報の差が最小となる直線L’を選択する。そして、色情報決定手段7において、この選択された直線L’の交点P’,Q’の色情報を受け取り、これらを用いて調査点γの色情報を決定する。
同様に、空隙内の各調査点γの色情報を順次決定し、決定された色情報で空隙を補完する。
以上の処理により分割画像間の間隙をより適切に補完できる。その結果、専門的な知識を有しない者であっても、分割された画像を見栄えよく(画像の連結部分が目立たないように)合成できる。
<Overview>
FIG. 1 is a diagram for explaining an outline of an
The
When performing this image composition, first, the
Similarly, the color information of each investigation point γ in the gap is sequentially determined, and the gap is complemented with the determined color information.
The gap between the divided images can be more appropriately complemented by the above processing. As a result, even a person who does not have specialized knowledge can synthesize the divided images with good appearance (so that connected portions of the images are not conspicuous).
<詳細>
次に、本形態における詳細について説明する。
<Details>
Next, details in this embodiment will be described.
<ハードウェア構成>
図2は、本形態における画像合成装置100のハードウェア構成を例示したブロック図である。
図2に例示するように、この例の画像合成装置100は、CPU(Central Processing Unit)10、RAM(Random Access Memory)30、ROM(Read Only Memory)40、ハードディスク(HD)装置50、スキャナー61、マウス62、キーボード63及びディスプレイ70を有しており、バス80を通じ相互に通信可能なように接続されている。そして、CPU10は、ハードディスク(HD)装置50に格納されたプログラムを読み出し、それに従った処理を実行することによって、以下に示す各処理機能を実現する。
<Hardware configuration>
FIG. 2 is a block diagram illustrating a hardware configuration of the
As illustrated in FIG. 2, the
<機能構成>
図3は、CPU10に上述のプログラムを実行させることにより構築される処理機能及びRAM30内のデータ構成を例示したブロック図である。
<Functional configuration>
FIG. 3 is a block diagram illustrating a processing function constructed by causing the
図3に例示するように、このプログラムの実行により、CPU10には、画像入力手段12、画像出力手段13、境界情報入力手段14、調整情報入力手段15、画像調整手段16、画像合成手段17、画像複製手段18、フィルタ手段19、直線設定手段20、交点算出手段21、直線選択手段22、色情報決定手段23、補完手段24、特異点画像生成手段25、画像切り取り手段26、特異点付加手段27及び制御手段28が構築される。なお、これら各手段は、制御手段28の制御により連携して各演算処理を行う。また、図3の矢印は情報の流れを示しているが、制御手段28からの制御情報の流れは省略してある。また、このCPU10の各処理の過程において、RAM30内の各データ領域30a〜30jに各データが格納され、このCPU10の各処理に利用される。
As illustrated in FIG. 3, by executing this program, the
図4は、画像調整手段16の詳細機能構成を例示したブロック図である。
図4に例示するように、この例の画像調整手段16は、ヒストグラム生成手段16a、明るさ調整手段16b、コントラスト調整手段16c、トリム手段16d及び画像位置調整手段16eからなる。
FIG. 4 is a block diagram illustrating a detailed functional configuration of the
As illustrated in FIG. 4, the
<処理>
次に本形態における画像合成装置100の処理について説明する。
<Processing>
Next, processing of the
<前処理>
まず、利用者は、スキャナー61を用い、第1の画像及び第2の画像を読み込む。ここで、第1の画像及び第2の画像は、1つの画像の分割画像である。すなわち、例えば、雑誌の見開きページ等の綴じ込み部分を挟んだ左右のページの画像等が第1の画像(例えば左ページ)及び第2の画像(例えば右ページ)に該当する。
このように読み込まれた第1の画像及び第2の画像は、バス80を通じてハードディスク装置50に送られ、そこに格納される。
<Pretreatment>
First, the user reads the first image and the second image using the
The first image and the second image read in this way are sent to the
<全体の処理>
図5から図7は、画像合成装置100の全体処理を説明するためのフローチャートである。以下、これらの図に沿って、画像合成装置100の処理の全体について説明する。
<Overall processing>
5 to 7 are flowcharts for explaining the overall processing of the
[ステップS1]
制御手段28(図3)の制御のもと、RAM30内及びCPU10内の各データを初期化する。
[Step S1]
Under the control of the control means 28 (FIG. 3), each data in the
[ステップS2]
そして、画像出力手段13においてメイン画面を構成する情報を生成し、これを、バス80を通じディスプレイ70に表示させる。
[Step S2]
Then, the
図16は、これによりディスプレイ70に表示されるメイン画面200の構成を例示した図である。
図16に例示するように、この例のメイン画面200の上部には、「画像1」のボタン201、「画像2」のボタン202、「トリム1」のボタン203、「トリム2」のボタン204、「合成」のボタン205、「クリア」のボタン206、「境界」のボタン207、「追加」のボタン208、「削除」のボタン209が表示される。
また、この例のメイン画面200の中央部には、第1の画像及び第2の画像を並べて表示する画像表示部210が配置される。
FIG. 16 is a diagram illustrating the configuration of the
As illustrated in FIG. 16, an “
In addition, an
さらに、この例のメイン画面200の下部には、第1の画像コントラスト・明るさ調整部220及び第2の画像コントラスト・明るさ調整部230が表示される。ここで、第1の画像コントラスト・明るさ調整部220には、ヒストグラム表示部221、種類部222、調整部223、表示部224、調整レバー225、自動調整ボタン226(「自動コントラスト・明るさ調整」)が表示され、第2の画像コントラスト・明るさ調整部230には、ヒストグラム表示部231、種類部232、調整部233、表示部234、調整レバー235、自動調整ボタン236(「自動コントラスト・明るさ調整」)が表示される。また、各種類部222、232には「輝度」「赤」「緑」「青」の欄が表示され、それぞれに対応するアクティブ部分222a〜222d及び232a〜232dが表示される。また、各調整部223、233には、「コントラスト」「明るさ」の欄が表示され、それぞれに対応するアクティブ部分223a、223b、233a、233bが表示される。さらに、各表示部224、234には、「全体」「接続場所」の欄が表示され、それぞれに対応するアクティブ部分224a、224b、234a、234bが表示される。
Further, a first image contrast /
[ステップS3]
制御手段28(図3)の制御のもと、マウス62及びキーボード63における入力操作を受け付ける。
[Step S3]
Under the control of the control means 28 (FIG. 3), an input operation on the
[ステップS4]
制御手段28において、マウス62の操作によって「画像1」のボタン201或いは「画像2」のボタン202(図16)がクリックされたか否かを判断する。ここで、「画像1」のボタン201がクリックされたと判断された場合にはステップS5に進み、「画像2」のボタン202がクリックされたと判断された場合にはステップS7に進み、それ以外の場合にはステップS10に進む。
[Step S4]
In the control means 28, it is determined whether or not the “
[ステップS5]
制御手段28(図3)の制御のもと、マウス62において第1の画像(g1)の選択情報(例えばファイル名)の入力を受け付け、その選択情報を画像入力手段12に送り、ステップS6に進む。
[Step S5]
Under the control of the control means 28 (FIG. 3), input of selection information (for example, file name) of the first image (g 1 ) is received by the
[ステップS6]
画像入力手段12は、マウス62から送られた選択情報に基づき、バス80を通じてハードディスク装置50にアクセスし、そこに格納されている第1の画像(g1)を抽出し、その入力を受け付ける。入力された第1の画像(g1)はRAM30に送られ、その記憶領域30bに記憶される。その後、ステップS9に進む。
[Step S6]
The image input means 12 accesses the
[ステップS7]
制御手段28(図3)の制御のもと、マウス62において第2の画像(g2)の選択情報(例えばファイル名)の入力を受け付け、その選択情報を画像入力手段12に送り、ステップS8に進む。
[Step S7]
Under the control of the control means 28 (FIG. 3), input of selection information (for example, a file name) of the second image (g 2 ) is received by the
[ステップS8]
画像入力手段12は、マウス62から送られた送られた選択情報に基づき、バス80を通じてハードディスク装置50にアクセスし、そこに格納されている第2の画像(g2)を抽出し、その入力を受け付ける。入力された第2の画像(g2)はRAM30に送られ、その記憶領域30bに記憶される。その後、ステップS9に進む。
[Step S8]
Based on the selection information sent from the
[ステップS9]
画像調整手段16において、RAM30の記憶領域30bから第1の画像(g1)及び第2の画像(g2)を抽出し、ヒストグラム生成手段16aにおいて、第1の画像及び第2の画像について、輝度とその輝度を有するピクセルの数(カウント数)とのヒストグラム(H1、H2)(例えば、横軸を輝度とし、縦軸をカウント数とするヒストグラム)を生成する。生成されたヒストグラム(H1、H2)はRAM30に送られ、その記憶領域30cに記憶される。
[Step S9]
The image adjusting means 16 extracts the first image (g 1 ) and the second image (g 2 ) from the
その後ステップS2に進み、画像出力手段13において、RAM30の記憶領域30cから第1の画像(g1)及び第2の画像(g2)、ヒストグラム(H1、H2)を抽出し、それらを、バス80を通じディスプレイ70に出力し表示させる。具体的には、例えば、メイン画面200の画像表示部210(図16)に第1の画像(g1)及び第2の画像(g2)を規定の位置関係(初期位置関係)で表示させ、ヒストグラム表示部221に第1の画像のヒストグラム(H1)を、ヒストグラム表示部231に第2の画像のヒストグラム(H2)を、それぞれ表示させる。
Thereafter, the process proceeds to step S2, and the image output means 13 extracts the first image (g 1 ), the second image (g 2 ), and the histogram (H 1 , H 2 ) from the
[ステップS10]
制御手段28において、マウス62の操作によって「トリム1」のボタン203或いは「トリム2」のボタン203(図16)がクリックされたか否かを判断する。ここで、「トリム1」のボタン203がクリックされたと判断された場合にはステップS11に進み、「トリム2」のボタン204がクリックされたと判断された場合にはステップS13に進み、それ以外の場合にはステップS15に進む。
[Step S10]
In the control means 28, it is determined whether or not the “
[ステップS11]
まず、制御手段28(図3)の制御のもと、マウス62或いはキーボード63において第1の画像(g1)のトリム情報(ad5)の入力を受け付ける。入力されたトリム情報(ad5)は、バス80を通じて調整情報入力手段15に送られ、そこから画像調整手段16のトリム手段16d(図4)に送られる。そして、ステップS12に進む。なお、「トリム情報」とは、画像の削除領域(トリミング領域)を特定するための情報である。例えば、雑誌の見開きページの例であれば、ページの縁部分等が「トリム領域」として指定される。
[Step S11]
First, under the control of the control means 28 (FIG. 3), the
[ステップS12]
トリム手段16dにおいて、RAM30の記憶領域30bから第1の画像(g1)を抽出し、この第1の画像(g1)を、ステップS11で送られたトリム情報(ad5)に従いトリミングする。以下、所定処理が行われた第1の画像を「g1'」と表現する。この第1の画像(g1')は、RAM30に送られ、その記憶領域30dに記憶される。そして、ステップS2に戻る。
[Step S12]
The
[ステップS13]
まず、制御手段28(図3)の制御のもと、マウス62或いはキーボード63において第2の画像(g2)のトリム情報(ad6)の入力を受け付ける。入力されたトリム情報(ad6)は、バス80を通じて調整情報入力手段15に送られ、そこから画像調整手段16のトリム手段16d(図4)に送られる。そして、ステップS13に進む。
[Step S13]
First, under the control of the control means 28 (FIG. 3), input of trim information (ad 6 ) of the second image (g 2 ) is accepted by the
[ステップS14]
トリム手段16dにおいて、RAM30の記憶領域30bから第2の画像(g2)を抽出し、この第2の画像(g2)を、ステップS13で送られたトリム情報(ad6)に従いトリミングする。以下、所定処理が行われた第2の画像を「g2'」と表現する。この第2の画像(g2')は、RAM30に送られ、その記憶領域30dに記憶される。そして、ステップS2に戻る。
[Step S14]
The trim means 16d extracts the second image (g 2 ) from the
[ステップS15]
制御手段28において、キーボード63の方向キーが操作されたか否かを判断する。ここで、方向キーが操作されたと判断された場合には、ステップS16に進み、方向キーが操作されていないと判断された場合には、ステップS17に進む。
[Step S15]
In the control means 28, it is determined whether or not the direction key of the
[ステップS16]
調整情報入力手段15において、バス80を通じ、キーボード63の方向キーの入力情報(ad7)を受け取り、それを画像調整手段16の画像位置調整手段16e(図4)に送る。画像位置調整手段16eは、受け取った方向キーの入力情報(ad7)に応じ、第2の画像の第1の画像に対する既定位置関係(初期位置関係)からの変動分(LC)を設定し、RAM30の記憶領域30dに記憶する。そして、ステップS2に戻る。なお、これ以降、画像出力手段13から出力される第1の画像及び第2の画像は、ディスプレイ70において、初期位置関係+変動分(LC)の相対位置関係で表示される。
[Step S16]
The adjustment information input means 15 receives the direction key input information (ad 7 ) of the
[ステップS17]
制御手段28において、利用者のマウス62の操作により、「追加」のボタン208(図16)がクリックされたか否かを判断する。ここで、「追加」のボタン208がクリックされたと判断された場合には、ステップS18に進み、そうでない場合には、ステップS20に進む。
[Step S17]
In the control means 28, it is determined whether or not the “add” button 208 (FIG. 16) has been clicked by the user's operation of the
[ステップS18]
制御手段28(図3)の制御のもと、マウス62において境界情報(BL)の入力を受け付ける。入力された境界情報(BL)は、バス80を通じて境界情報入力手段14に送られ、境界情報入力手段14は、これを受け付ける。
[Step S18]
Under the control of the control means 28 (FIG. 3), the
ここで、「境界情報」とは、第1の画像及び第2の画像におけるオブジェクトの境界を示す情報を意味する。そして、この境界情報は、特定の調査点γを通る直線Lの傾き範囲を制限するために用いられる(後述)。 Here, “boundary information” means information indicating the boundary of an object in the first image and the second image. And this boundary information is used in order to restrict | limit the inclination range of the straight line L which passes along the specific investigation point (gamma) (after-mentioned).
図17は、このように入力される境界情報(BL)を視覚的に示した図である。
この例では、メイン画面200の画像表示部210(図16)に、図17のように、第1の画像301と第2の画像302が空隙303を介して配置されているものとする。この例の第1の画像301及び第2の画像302は、それぞれオブジェクト301a、302a及び背景301b、302bから構成される。ここで、第1の画像301及び第2の画像302は、1つの画像を分割した画像であり、オブジェクト301a、302aは、本来一体である。したがって、本来、オブジェクト301a−背景301b間の境界301cと、オブジェクト302a−背景302b間の境界302cとは連結している。そして、空隙303の幅wが十分小さい場合、この連結部分は直線で近似できる。境界情報(BL)は、この連結部分を直線によって指定する情報である。また、境界情報(BL)の設定は、利用者がマウス62を操作し、境界301cの空隙303側の端点304aと、境界302cの空隙側の端点304bとを指定(クリック)することににより行われる。すなわち、これらの端点304aと端点304bを結ぶ直線304が境界情報(BL)である。
境界情報入力手段14が、境界情報(BL)の入力を受け付けるとステップS19に進む。
FIG. 17 is a diagram visually showing boundary information (BL) input in this way.
In this example, it is assumed that the
When the boundary information input unit 14 receives the input of boundary information (BL), the process proceeds to step S19.
[ステップS19]
境界情報入力手段14に入力された境界情報(BL)はRAM30に送られ、その記憶領域30aに記憶される。また、画像出力手段13は、記憶領域30aから境界情報(BL)を抽出し、ディスプレイ70に送り、表示させる。その後、ステップS2に戻る。
[Step S19]
The boundary information (BL) input to the boundary information input means 14 is sent to the
[ステップS20]
制御手段28において、利用者のマウス62の操作により、「削除」のボタン209(図16)がクリックされたか否かを判断する。ここで、「削除」のボタン209がクリックされたと判断された場合には、ステップS21に進み、そうでない場合には、ステップS23に進む。
[Step S20]
In the control means 28, it is determined whether or not the “delete” button 209 (FIG. 16) is clicked by the user's operation of the
[ステップS21]
制御手段28(図3)の制御のもと、マウス62において境界情報(BL)を指定する情報(例えば、クリック等により決定される図17の直線304を指定する情報)の入力を受け付ける。入力された境界情報(BL)を指定する情報は、バス80を通じて境界情報入力手段14に送られ、境界情報入力手段14は、これを受け付ける。その後、ステップS22に送る。
[Step S21]
Under the control of the control means 28 (FIG. 3), input of information specifying boundary information (BL) with the mouse 62 (for example, information specifying the
[ステップS22]
境界情報(BL)を指定する情報を受け取った境界情報入力手段14は、RAM30にアクセスし、この情報によって指定される境界情報(BL)を記憶領域30aから削除する。その後、ステップS2に戻る。
[Step S22]
The boundary information input means 14 that has received the information specifying the boundary information (BL) accesses the
[ステップS23]
制御手段28において、利用者のマウス62の操作により、「境界」のボタン207(図16)がクリックされたか否かを判断する。ここで、「境界」のボタン207がクリックされたと判断された場合には、ステップS24に進み、そうでない場合には、ステップS29に進む。
[Step S23]
In the control means 28, it is determined whether or not the “boundary” button 207 (FIG. 16) has been clicked by the user's operation of the
[ステップS24]
制御手段28において、RAM30の記憶領域30jに記憶されている変数f1が0であるか否かを判断する。ここで、変数f1=0であった場合(記憶領域30jに変数f1が記憶されていない初期状態も含む)、ステップS25に進み、そうでない場合には、ステップS27に進む。
[Step S24]
In the control unit 28 determines whether the variable f 1 is 0 stored in the storage area 30j of the
[ステップS25]
画像出力手段13において、ディスプレイ70に表示されている境界情報(BL)を非表示とし、ステップS26に進む。
[Step S25]
In the image output means 13, the boundary information (BL) displayed on the
[ステップS26]
制御手段28において、変数f1に1を代入し、それをRAM30の記憶領域30jに格納する。その後、ステップS2に戻る。
[Step S26]
In the control means 28, 1 is substituted into the variable f 1 and stored in the storage area 30j of the
[ステップS27]
画像出力手段13において、ディスプレイ70に境界情報(BL)を表示し、ステップS28に進む。
[Step S27]
In the image output means 13, the boundary information (BL) is displayed on the
[ステップS28]
制御手段28において、変数f1に0を代入し、それをRAM30の記憶領域30jに格納する。その後、ステップS2に戻る。
[Step S28]
In the control means 28, 0 is substituted into the variable f 1 and stored in the storage area 30j of the
[ステップS29]
制御手段28において、利用者のマウス62の操作により、第1の画像コントラスト・明るさ調整部220内の何れかのアクティブ部分がクリックされたか否かを判断する。ここで、第1の画像コントラスト・明るさ調整部220内の何れかのアクティブ部分がクリックされたと判断された場合、ステップS30に進み、そうでない場合には、ステップS31に進む。
[Step S29]
In the control unit 28, it is determined whether any active part in the first image contrast /
[ステップS30]
第1の画像のコントラスト・明るさを調整し、ステップS2に戻る。なお、この処理の詳細は後述する。
[Step S30]
The contrast and brightness of the first image are adjusted, and the process returns to step S2. Details of this process will be described later.
[ステップS31]
制御手段28において、利用者のマウス62の操作により、第2の画像コントラスト・明るさ調整部230内の何れかのアクティブ部分がクリックされたか否かを判断する。ここで、第2の画像コントラスト・明るさ調整部230内の何れかのアクティブ部分がクリックされたと判断された場合、ステップS32に進み、そうでない場合には、ステップS33に進む。
[Step S31]
In the control means 28, it is determined whether any active part in the second image contrast /
[ステップS32]
第2の画像のコントラスト・明るさを調整し、ステップS2に戻る。なお、この処理の詳細は後述する。
[Step S32]
The contrast and brightness of the second image are adjusted, and the process returns to step S2. Details of this process will be described later.
[ステップS33]
制御手段28において、利用者のマウス62の操作により、「合成」のボタン205(図16)がクリックされたか否かを判断する。ここで、「合成」のボタン205がクリックされたと判断された場合にはステップS34に進み、そうでない場合にはステップS35に進む。
[Step S33]
In the control means 28, it is determined whether or not the “composite” button 205 (FIG. 16) has been clicked by the user's operation of the
[ステップS34]
画像合成処理を行い、ステップS2に戻る。なお、画像合成処理の詳細については後述する。
[Step S34]
Image composition processing is performed, and the process returns to step S2. Details of the image composition processing will be described later.
[ステップS35]
制御手段28において、利用者のマウス62の操作により、「クリア」のボタン206(図16)がクリックされたか否かを判断する。ここで、「クリア」のボタン206がクリックされたと判断された場合にはステップS36に進み、そうでない場合にはステップS2に戻る。
[Step S35]
In the control means 28, it is determined whether or not the “clear” button 206 (FIG. 16) has been clicked by the user's operation of the
[ステップS36]
ステップS34で行われた画像合成処理結果をクリア(RAM30の記憶領域30e〜30iを初期化)してステップS2に戻る。
[Step S36]
The result of the image composition processing performed in step S34 is cleared (the
<第1の画像のコントラスト・明るさ調整処理>
次に、第1の画像のコントラスト・明るさ調整処理(図7:ステップS30)の詳細について説明する。
図8及び図9は、この第1の画像のコントラスト・明るさ調整処理の詳細を説明するためのフローチャートである。以下このフローチャートに沿って説明を行う。
<First image contrast / brightness adjustment processing>
Next, details of the first image contrast / brightness adjustment process (FIG. 7: step S30) will be described.
8 and 9 are flowcharts for explaining the details of the contrast / brightness adjustment processing of the first image. Hereinafter, description will be given along this flowchart.
[ステップS41]
制御手段28において、利用者のマウス62の操作により、調整部223(図16)のアクティブ部分がクリックされたか否かを判断する。ここで、「コントラスト」に対応するアクティブ部分223aがクリックされた場合にはステップS42に進み、「明るさ」に対応するアクティブ部分223bがクリックされた場合にはステップS43に進み、それ以外の場合にはステップS44に進む。
[Step S41]
In the control means 28, it is determined whether or not the active part of the adjustment unit 223 (FIG. 16) has been clicked by the user's operation of the
[ステップS42]
制御手段28において、変数f2に0を代入し、この変数f2をRAM30の記憶領域30jに記憶させる。そして、第1の画像のコントラスト・明るさ調整処理(ステップS30)を終了する。
[Step S42]
In the control unit 28
[ステップS43]
制御手段28において、変数f2に1を代入し、この変数f2をRAM30の記憶領域30jに記憶させる。そして、第1の画像のコントラスト・明るさ調整処理(ステップS30)を終了する。
[Step S43]
In the control unit 28
[ステップS44]
制御手段28において、利用者のマウス62の操作により、表示部224(図16)のアクティブ部分がクリックされたか否かを判断する。ここで、「全体」に対応するアクティブ部分224aがクリックされた場合にはステップS45に進み、「接続場所」に対応するアクティブ部分224bがクリックされた場合にはステップS46に進み、それ以外の場合にはステップS47に進む。
[Step S44]
In the control means 28, it is determined whether or not the active part of the display unit 224 (FIG. 16) has been clicked by the user's operation of the
[ステップS45]
制御手段28において、変数f3に0を代入し、この変数f3をRAM30の記憶領域30jに記憶させる。そして、ステップS54に進む。
[Step S45]
In the control unit 28
[ステップS46]
制御手段28において、変数f3に1を代入し、この変数f3をRAM30の記憶領域30jに記憶させる。そして、ステップS54に進む。
[Step S46]
In the control unit 28
[ステップS47]
制御手段28において、利用者のマウス62の操作により、種類部222(図16)のアクティブ部分がクリックされたか否かを判断する。ここで、何れかの種類部222のアクティブ部分がクリックされていた場合にはステップS48に進み、そうでない場合には、ステップS55に進む。
[Step S47]
In the control means 28, it is determined whether or not the active portion of the type portion 222 (FIG. 16) has been clicked by the user's operation of the
[ステップS48]
制御手段28において、種類部222のどのアクティブ部分がクリックされたかを判断する。ここで、「輝度」に対応するアクティブ部分222aがクリックされた場合にはステップS49に進み、「赤」に対応するアクティブ部分222bがクリックされた場合にはステップS50に進み、それ以外の場合にはステップS51に進む。
[Step S48]
The control means 28 determines which active part of the
[ステップS49]
制御手段28において、変数f4に0を代入し、この変数f4をRAM30の記憶領域30jに記憶させる。そして、ステップS54に進む。
[Step S49]
In the control unit 28
[ステップS50]
制御手段28において、変数f4に1を代入し、この変数f4をRAM30の記憶領域30jに記憶させる。そして、ステップS54に進む。
[Step S50]
In the control unit 28
[ステップS51]
制御手段28において、種類部222のどのアクティブ部分がクリックされたかを判断する。ここで、「緑」に対応するアクティブ部分222cがクリックされた場合にはステップS52に進み、「青」に対応するアクティブ部分222dがクリックされた場合にはステップS53に進む。
[Step S51]
The control means 28 determines which active part of the
[ステップS52]
制御手段28において、変数f4に2を代入し、この変数f4をRAM30の記憶領域30jに記憶させる。そして、ステップS54に進む。
[Step S52]
In the control unit 28
[ステップS53]
制御手段28において、変数f4に3を代入し、この変数f4をRAM30の記憶領域30jに記憶させる。そして、ステップS54に進む。
[Step S53]
In the control unit 28 substitutes the variable f 4 to 3, and stores the variable f 4 in a storage area 30j of the
[ステップS54]
ヒストグラム生成手段16a(図4)において、第1の画像(g1(第1の画像の処理後はg1’))をRAM30の記憶領域30b或いは30dから抽出し、変数f3,f4をRAM30の記憶領域30jから抽出する。そして、変数f3,f4の値に応じ以下のようなヒストグラム(H1)を生成し、RAM30の記憶領域30cに記憶させる。
[Step S54]
In the histogram generating means 16a (FIG. 4), the first image (g 1 (g 1 ′ after processing the first image)) is extracted from the
f3=0:第1の画像全体のヒストグラム(H1)を生成。
f3=1:第1の画像における、第2の画像との接続部分(空隙側エッジ部分)のヒストグラム(H1)を生成。
f4=0:第1の画像の全色相のヒストグラム(H1)を生成。
f4=1:第1の画像の赤の要素のヒストグラム(H1)を生成。
f4=2:第1の画像の緑の要素のヒストグラム(H1)を生成。
f4=3:第1の画像の青の要素のヒストグラム(H1)を生成。
記憶領域30cに記憶されたヒストグラム(H1)は、画像出力手段13において抽出され、ディスプレイ70に対して出力される。そして、ディスプレイ70は、このヒストグラム(H1)を、図16に例示したヒストグラム表示部221に表示する。その後、第1の画像のコントラスト・明るさ調整処理(ステップS30)を終了する。
f 3 = 0: A histogram (H 1 ) of the entire first image is generated.
f 3 = 1: A histogram (H 1 ) of a connection portion (gap side edge portion) with the second image in the first image is generated.
f 4 = 0: A histogram (H 1 ) of all hues of the first image is generated.
f 4 = 1: A histogram (H 1 ) of the red element of the first image is generated.
f 4 = 2: A histogram (H 1 ) of the green element of the first image is generated.
f 4 = 3: A histogram (H 1 ) of the blue element of the first image is generated.
The histogram (H 1 ) stored in the
[ステップS55]
制御手段28において、利用者のマウス62の操作により、調整レバー225(図16)がドラッグされたか否かを判断する。ここで、制御手段28において、調整レバー225がドラッグされていないと判断された場合は、ステップS60に進む。一方、調整レバー225がドラッグされていると判断された場合は、制御手段28において、RAM30に記憶の記憶領域30jに格納された変数f2の値を抽出し、それが0であった場合(変数f2が記憶されていない場合も含む)にはステップS56に進み、1であった場合には、ステップS58に進む。
[Step S55]
In the control means 28, it is determined whether or not the adjustment lever 225 (FIG. 16) has been dragged by the user's operation of the
[ステップS56]
調整情報入力手段15において、調整レバー225のドラックに関する情報(「画像の明るさを変化させるための調整情報」に相当)を、バス80を通じてマウス62から受け取る(入力を受け付ける)。そして、調整情報入力手段15は、この調整情報に基づき、画像の明るさを決定し、それを明るさ調整情報(ad1)とし、画像調整手段16に送る。そして、ステップS57に進む。
[Step S56]
In the adjustment information input means 15, information related to the drag of the adjustment lever 225 (corresponding to “adjustment information for changing the brightness of the image”) is received from the mouse 62 (accepts input) through the
[ステップS57]
画像調整手段16の明るさ調整手段16bにおいて、明るさ調整情報(ad1)を受け取る。さらに、明るさ調整手段16bは、第1の画像(g1(第1の画像の処理後はg1’))をRAM30の記憶領域30b或いは30dから抽出し、この第1の画像の明るさを、明るさ調整情報(ad1)が示す明るさに変化させる(すなわち、「調整情報に基づき第1の画像の明るさを変化させる」)。そして、明るさ調整手段16bは、その明るさを変化させた第1の画像(g1’)をRAM30に送り、その記憶領域30dに記憶させる。そして、ステップS61に進む。
[Step S57]
The
[ステップS58]
調整情報入力手段15において、調整レバー225のドラックに関する情報(「画像のコントラストを変化させるための調整情報」に相当)を、バス80を通じてマウス62から受け取る(入力を受け付ける)。そして、調整情報入力手段15は、この調整情報に基づき、画像のコントラストを決定し、それをコントラスト調整情報(ad3)とし、画像調整手段16に送る。そして、ステップS59に進む。
[Step S58]
In the adjustment information input means 15, information related to the drag of the adjustment lever 225 (corresponding to “adjustment information for changing the contrast of the image”) is received from the
[ステップS59]
画像調整手段16のコントラスト調整手段16cにおいて、コントラスト調整情報(ad3)を受け取る。さらに、コントラスト調整手段16cは、第1の画像(g1(第1の画像の処理後はg1’))をRAM30の記憶領域30b或いは30dから抽出し、この第1の画像のコントラストをコントラスト調整情報(ad3)が示すコントラストに変化させる(すなわち、「調整情報に基づき第1の画像のコントラストを変化させる」)。そして、コントラスト調整手段16cは、そのコントラスト変化させた第1の画像(g1’)をRAM30に送り、その記憶領域30dに記憶させる。そして、ステップS61に進む。
[Step S59]
The
[ステップS60]
このステップに進むのは、自動調整ボタン226(図16)がクリックされている場合である。本ステップでは、画像調整手段16において、第1の画像の自動調整を行い、ステップS61に進む。この処理の詳細は後述する。
[Step S60]
The process proceeds to this step when the automatic adjustment button 226 (FIG. 16) is clicked. In this step, the
[ステップS61]
画像出力手段13(図3)において、RAM30の記憶領域30dから第1の画像(g1')及び第2の画像(g2')を抽出し、これらを、バス80を通じてディスプレイ70に対して出力する。そして、ディスプレイ70において、これら第1の画像(g1')及び第2の画像(g2')を画像表示部210(図16)に表示する。
[Step S61]
In the image output means 13 (FIG. 3), the first image (g 1 ′) and the second image (g 2 ′) are extracted from the
<第1の画像の自動調整>
次に、第1の画像の自動調整処理(図9:ステップS60)の詳細について説明する。
<Automatic adjustment of the first image>
Next, details of the first image automatic adjustment process (FIG. 9: step S60) will be described.
図10は、この第1の画像の自動調整の詳細を説明するためのフローチャートである。以下このフローチャートに沿って説明を行う。 FIG. 10 is a flowchart for explaining the details of the automatic adjustment of the first image. Hereinafter, description will be given along this flowchart.
[ステップS71]
画像調整手段16のヒストグラム生成手段16a(図4)において、第1の画像(g1(第1の画像の処理後はg1’))及び第2の画像(g2(第2の画像の処理後はg2’))を、RAM30の記憶領域30b或いは30dから抽出し、第1の画像及び第2の画像について、輝度とその輝度を有するピクセルの数(カウント数)とのヒストグラム(H1、H2)を生成する。
[Step S71]
In the histogram generation means 16a (FIG. 4) of the image adjustment means 16, the first image (g 1 (g 1 ′ after processing the first image)) and the second image (g 2 (second image After processing, g 2 ′)) is extracted from the
なお、これらのヒストグラム(H1、H2)は、第1の画像の明るさとコントラストを調整するためのものであり、その調整の目的は、第1の画像と第2の画像とを見栄えよく(結合部分が目立たないように)合成することである。したがって、これらのヒストグラム(H1、H2)は、第1の画像及び第2の画像の連結部分側(接続部分)のヒストグラムであることが望ましい。すなわち、例えば、第1の画像及び第2の画像が、雑誌の見開きページの綴じ込み部分を挟んだ左右のページがある場合、これらのヒストグラム(H1、H2)は、左ページの綴じ込み部分側画像のヒストグラム及び右ページの綴じ込み部分側画像のヒストグラムであることが望ましい。 These histograms (H 1 , H 2 ) are for adjusting the brightness and contrast of the first image, and the purpose of the adjustment is to make the first image and the second image look good. Synthesizing (so that the binding part is not noticeable). Therefore, it is desirable that these histograms (H 1 , H 2 ) are histograms on the connection portion side (connection portion) of the first image and the second image. That is, for example, when the first image and the second image have left and right pages sandwiching the binding portion of the magazine spread page, these histograms (H 1 , H 2 ) are displayed on the binding portion side of the left page. The histogram of the image and the histogram of the binding portion side image on the right page are desirable.
ヒストグラム生成手段16aにおいて生成されたヒストグラム(H1、H2)は、明るさ調整手段16b及びコントラスト調整手段16cに送られ、ステップS72に進む。
The histograms (H 1 , H 2 ) generated by the
[ステップS72]
コントラスト調整手段16cにおいて、第1の画像に対応するヒストグラムH1の幅(a3)と、第2の画像に対応するヒストグラムH2の幅(b3)との差が許容範囲(p1≧0)内であるか否かを判断する。すなわち、
|H1の幅(a3)−H2の幅(b3)|≦p1
であるか否かを判断する。なお、「ヒストグラムの幅」とは、カウント数が閾値以上となっている輝度の最大値から、カウント数が閾値以上となっている輝度の最小値を引いた値を意味する。
[Step S72]
In the
| Width of H 1 (a 3 ) −Width of H 2 (b 3 ) | ≦ p 1
It is determined whether or not. The “histogram width” means a value obtained by subtracting the minimum luminance value with the count number equal to or greater than the threshold value from the maximum luminance value with the count number equal to or greater than the threshold value.
図18の(a)は、第1の画像に対応するヒストグラムH1の例示であり、(b)は、第2の画像に対応するヒストグラムH2の例示である。なお、これらのヒストグラムの横軸は輝度であり、縦軸はその輝度を有するピクセルの数(カウント数)である(後述する図18の(c)(d)についても同様)。 (A) of FIG. 18 is illustrative of the histogram H 1 corresponding to the first image, (b) are exemplary of a histogram H 2 corresponding to the second image. Note that the horizontal axis of these histograms is the luminance, and the vertical axis is the number of pixels having the luminance (count number) (the same applies to (c) and (d) of FIG. 18 described later).
この例のヒストグラムH1の場合、カウント数が閾値以上となっている輝度の最大値はa2であり、カウント数が閾値以上となっている輝度の最小値はa1であり、その幅a3は、a3=a2−a1である(図18の(a))。また、この例のヒストグラムH2の場合、カウント数が閾値以上となっている輝度の最大値はb2であり、カウント数が閾値以上となっている輝度の最小値はb1であり、その幅b3は、b3=b2−b1である(図18の(b))。 In the case of the histogram H 1 in this example, the maximum value of the luminance with the count number equal to or greater than the threshold is a 2 , the minimum value of the luminance with the count number equal to or greater than the threshold is a 1 , and its width a 3 is a 3 = a 2 −a 1 ((a) of FIG. 18). In the case of the histogram H 2 in this example, the maximum value of the luminance with the count number equal to or greater than the threshold is b 2 , and the minimum value of the luminance with the count number equal to or greater than the threshold is b 1 , The width b 3 is b 3 = b 2 −b 1 ((b) in FIG. 18).
ここで、コントラスト調整手段16cにおいて、|H1の幅(a3)−H2の幅(b3)|≦p1を満たすと判断された場合には、ステップS75に進む。一方、これを満たさず、H1の幅(a3)−H2の幅(b3)>p1であった場合には、ステップS73に進み、H2の幅(b3)−H1の幅(a3)>p1であった場合には、ステップS74に進む。
Here, the
例えば、図18の(a)(b)の例の場合、許容範囲p1=0とすると、H1の幅(a3)−H2の幅(b3)>p1であるため、ステップS73に進む。 For example, in the example of FIGS. 18A and 18B, if the allowable range p 1 = 0, the width of H 1 (a 3 ) −the width of H 2 (b 3 )> p 1 , Proceed to S73.
[ステップS73]
コントラスト調整手段16cにおいて、第1の画像(g1(第1の画像の処理後はg1’))を、RAM30の記憶領域30b或いは30dから抽出し、そのコントラストを既定の値だけ下げる(減じる)。そして、コントラスト調整手段16cにおいて、その第1の画像(g1’)がRAM30の記憶領域30dに格納され、ステップS71に戻る。
[Step S73]
In the
[ステップS74]
コントラスト調整手段16cにおいて、第1の画像(g1(第1の画像の処理後はg1’))を、RAM30の記憶領域30b或いは30dから抽出し、そのコントラストを既定の値だけ上げる(加算する)。そして、コントラスト調整手段16cにおいて、その第1の画像(g1’)がRAM30の記憶領域30dに格納され、ステップS71に戻る。
[Step S74]
In the contrast adjusting means 16c, the first image (g 1 (g 1 ′ after processing the first image)) is extracted from the
[ステップS75]
明るさ調整手段16bにおいて、ヒストグラムH1の位置とヒストグラムH2の位置との差が許容範囲(p2≧0)内であるか否かを判断する。すなわち、
|H1の位置(a1)−H2の位置(b1)|≦p2
であるか否かを判断する。なお、この例の「ヒストグラムの位置」とは、カウント数が閾値以上となっている輝度の最小値を意味する。
[Step S75]
In the
| H 1 position (a 1 ) −H 2 position (b 1 ) | ≦ p 2
It is determined whether or not. Note that the “histogram position” in this example means the minimum value of luminance at which the count number is equal to or greater than a threshold value.
図18の(c)は、(a)(b)に例示したヒストグラム(H1,H2)の第1の画像及び第2の画像に対し、ステップS71〜S74の処理を繰り返し、ステップS72において|H1の幅(a3)−H2の幅(b3)|≦p1であると判断された第1の画像のヒストグラムH1の例示である。 (C) in FIG. 18, with respect to the first image and the second image of (a) histogram illustrated in (b) (H 1, H 2), repeats the processing of steps S71 to S74, in step S72 | H 1 width (a 3 ) −H 2 width (b 3 ) | ≦ p 1 is an illustration of the histogram H 1 of the first image determined to be p 1 .
図18の(c)の例の場合、ヒストグラムH1の位置は、カウント数が閾値以上となっている輝度の最小値a1である。また、(b)に例示したヒストグラムH2の位置は、カウント数が閾値以上となっている輝度の最小値b1である。 For example (c) of FIG. 18, the position of the histogram H 1 is the minimum value a 1 of luminance count is equal to or greater than a threshold value. The position of the histogram H 2 illustrated in (b) is the minimum value b 1 of the luminance count is equal to or greater than a threshold value.
ここで、明るさ調整手段16bにおいて、|H1の位置(a1)−H2の位置(b1)|≦p2を満たすと判断された場合には、第1の画像の自動生成処理(ステップS60)を終了する。一方、これを満たさず、H1の位置(a1)−H2の位置(b1)>p2であった場合には、ステップS76に進み、H2の位置(b1)−H1の位置(a1)>p2であった場合には、ステップS77に進む。
Here, the
例えば、図18の(b)(c)の例の場合、許容範囲p2=0とすると、H2の位置(b1)−H1の位置(a1)>p2であるため、ステップS77に進む。
また、この例において、|H1の位置(a1)−H2の位置(b1)|≦p2を満たすと判断された第1の画像のヒストグラムH1は、図18の(d)のように、(b)に例示する第2の画像のヒストグラムH2と、コントラスト及び明るさが許容範囲内(この例では一致)となっている。
For example, in the example of FIGS. 18B and 18C, if the allowable range p 2 = 0, the position of H 2 (b 1 ) −the position of H 1 (a 1 )> p 2 , Proceed to S77.
In this example, the histogram H 1 of the first image determined to satisfy the position of | H 1 (a 1 ) −the position of H 2 (b 1 ) | ≦ p 2 is shown in FIG. As described above, the histogram H2 of the second image illustrated in (b), the contrast, and the brightness are within the allowable range (in this example, coincident).
なお、この例では、カウント数が閾値以上となっている輝度の最小値を「ヒストグラムの位置」とするが、カウント数が閾値以上となっている輝度の最大値(図18の(b)(c)におけるa2、b2)を「ヒストグラムの位置」として取り扱うこととしてもよい。 In this example, the minimum luminance value with a count number equal to or greater than the threshold value is defined as “histogram position”, but the maximum luminance value with the count number equal to or greater than the threshold value ((b) in FIG. 18 ( It is possible to treat a 2 and b2) in c) as “histogram positions”.
[ステップS76]
明るさ調整手段16bにおいて、第1の画像(g1’)を、RAM30の記憶領域30dから抽出し、その明るさを既定の値だけ下げる(減じる)。そして、明るさ調整手段16bにおいて、その第1の画像(g1’)がRAM30の記憶領域30dに格納され、ステップS71に戻る。
[Step S76]
In the brightness adjustment means 16b, the first image (g 1 ′) is extracted from the
[ステップS77]
明るさ調整手段16bにおいて、第1の画像(g1’)を、RAM30の記憶領域30dから抽出し、その明るさを既定の値だけ上げる(加算する)。そして、明るさ調整手段16bにおいて、その第1の画像(g1’)がRAM30の記憶領域30dに格納され、ステップS71に戻る。
[Step S77]
In the
<第2の画像のコントラスト・明るさ調整処理>
次に、第2の画像のコントラスト・明るさ調整処理(図7:ステップS32)の詳細について説明する。
<Second image contrast / brightness adjustment processing>
Next, details of the second image contrast / brightness adjustment process (FIG. 7: step S32) will be described.
図11及び図12は、この第2の画像のコントラスト・明るさ調整処理の詳細を説明するためのフローチャートである。以下このフローチャートに沿って説明を行う。 11 and 12 are flowcharts for explaining details of the contrast / brightness adjustment processing of the second image. Hereinafter, description will be given along this flowchart.
[ステップS81]
制御手段28において、利用者のマウス62の操作により、調整部233(図16)のアクティブ部分がクリックされたか否かを判断する。ここで、「コントラスト」に対応するアクティブ部分233aがクリックされた場合にはステップS82に進み、「明るさ」に対応するアクティブ部分233bがクリックされた場合にはステップS83に進み、それ以外の場合にはステップS84に進む。
[Step S81]
In the control means 28, it is determined whether or not the active part of the adjustment unit 233 (FIG. 16) has been clicked by the user's operation of the
[ステップS82]
制御手段28において、変数f5に0を代入し、この変数f5をRAM30の記憶領域30jに記憶させる。そして、第2の画像のコントラスト・明るさ調整処理(ステップS32)を終了する。
[Step S82]
In the control unit 28 substitutes the variable f 5 to 0, and stores the variable f 5 in the storage area 30j of the
[ステップS83]
制御手段28において、変数f5に1を代入し、この変数f5をRAM30の記憶領域30jに記憶させる。そして、第2の画像のコントラスト・明るさ調整処理(ステップS32)を終了する。
[Step S83]
In the control unit 28
[ステップS84]
制御手段28において、利用者のマウス62の操作により、表示部234(図16)のアクティブ部分がクリックされたか否かを判断する。ここで、「全体」に対応するアクティブ部分234aがクリックされた場合にはステップS85に進み、「接続場所」に対応するアクティブ部分234bがクリックされた場合にはステップS86に進み、それ以外の場合にはステップS87に進む。
[Step S84]
In the control means 28, it is determined whether or not the active part of the display unit 234 (FIG. 16) has been clicked by the user's operation of the
[ステップS85]
制御手段28において、変数f6に0を代入し、この変数f6をRAM30の記憶領域30jに記憶させる。そして、ステップS94に進む。
[Step S85]
In the control unit 28
[ステップS86]
制御手段28において、変数f6に1を代入し、この変数f6をRAM30の記憶領域30jに記憶させる。そして、ステップS94に進む。
[Step S86]
In the control unit 28
[ステップS87]
制御手段28において、利用者のマウス62の操作により、種類部232(図16)のアクティブ部分がクリックされたか否かを判断する。ここで、何れかの種類部232のアクティブ部分がクリックされていた場合にはステップS88に進み、そうでない場合には、ステップS95に進む。
[Step S87]
In the control means 28, it is determined whether or not the active portion of the type portion 232 (FIG. 16) has been clicked by the user's operation of the
[ステップS88]
制御手段28において、種類部232のどのアクティブ部分がクリックされたかを判断する。ここで、「輝度」に対応するアクティブ部分232aがクリックされた場合にはステップS89に進み、「赤」に対応するアクティブ部分232bがクリックされた場合にはステップS90に進み、それ以外の場合にはステップS91に進む。
[Step S88]
The control means 28 determines which active part of the
[ステップS89]
制御手段28において、変数f7に0を代入し、この変数f7をRAM30の記憶領域30jに記憶させる。そして、ステップS94に進む。
[Step S89]
In the control unit 28
[ステップS90]
制御手段28において、変数f7に1を代入し、この変数f7をRAM30の記憶領域30jに記憶させる。そして、ステップS94に進む。
[Step S90]
In the control unit 28
[ステップS91]
制御手段28において、種類部232のどのアクティブ部分がクリックされたかを判断する。ここで、「緑」に対応するアクティブ部分232cがクリックされた場合にはステップS92に進み、「青」に対応するアクティブ部分232dがクリックされた場合にはステップS93に進む。
[Step S91]
The control means 28 determines which active part of the
[ステップS92]
制御手段28において、変数f7に2を代入し、この変数f7をRAM30の記憶領域30jに記憶させる。そして、ステップS94に進む。
[Step S92]
In the control unit 28
[ステップS93]
制御手段28において、変数f7に3を代入し、この変数f7をRAM30の記憶領域30jに記憶させる。そして、ステップS94に進む。
[Step S93]
In the control unit 28
[ステップS94]
ヒストグラム生成手段16a(図4)において、第2の画像(g2(第2の画像の処理後はg2’))をRAM30の記憶領域30b或いは30dから抽出し、変数f6,f7をRAM30の記憶領域30jから抽出する。そして、変数f6,f7の値に応じ以下のようなヒストグラム(H2)を生成し、RAM30の記憶領域30cに記憶させる。
[Step S94]
In the histogram generation means 16a (FIG. 4), the second image (g 2 (g 2 ′ after the processing of the second image)) is extracted from the
f6=0:第2の画像全体のヒストグラム(H2)を生成。
f6=1:第2の画像における、第1の画像との接続部分(空隙側エッジ部分)のヒストグラム(H2)を生成。
f7=0:第2の画像の全色相のヒストグラム(H2)を生成。
f7=1:第2の画像の赤の要素のヒストグラム(H2)を生成。
f7=2:第2の画像の緑の要素のヒストグラム(H2)を生成。
f7=3:第2の画像の青の要素のヒストグラム(H2)を生成。
記憶領域30cに記憶されたヒストグラム(H2)は、画像出力手段13において抽出され、ディスプレイ70に対して出力される。ディスプレイ70は、このヒストグラム(H2)を、図16に例示したヒストグラム表示部231に表示する。その後、第1の画像のコントラスト・明るさ調整処理(ステップS32)が終了する。
f 6 = 0: A histogram (H 2 ) of the entire second image is generated.
f 6 = 1: A histogram (H 2 ) of a connection portion (gap side edge portion) with the first image in the second image is generated.
f 7 = 0: A histogram (H 2 ) of all hues of the second image is generated.
f 7 = 1: A histogram (H 2 ) of the red element of the second image is generated.
f 7 = 2: A histogram (H 2 ) of the green element of the second image is generated.
f 7 = 3: A histogram (H 2 ) of the blue element of the second image is generated.
The histogram (H 2 ) stored in the
[ステップS95]
制御手段28において、利用者のマウス62の操作により、調整レバー235(図16)がドラッグされたか否かを判断する。ここで、制御手段28において、調整レバー235がドラッグされていないと判断された場合は、ステップS100に進む。一方、調整レバー235がドラッグされていると判断された場合は、制御手段28において、RAM30に記憶の記憶領域30jに格納された変数f5の値を抽出し、それが0であった場合(変数f5が記憶されていない場合も含む)にはステップS96に進み、1であった場合には、ステップS98に進む。
[Step S95]
In the control means 28, it is determined whether or not the adjustment lever 235 (FIG. 16) has been dragged by the user's operation of the
[ステップS96]
調整情報入力手段15において、調整レバー235のドラックに関する情報(「画像の明るさを変化させるための調整情報」に相当)を、バス80を通じてマウス62から受け取る(入力を受け付ける)。そして、調整情報入力手段15は、この調整情報に基づき、画像の明るさを決定し、それを明るさ調整情報(ad2)とし、画像調整手段16に送る。そして、ステップS97に進む。
[Step S96]
In the adjustment information input means 15, information related to the drag of the adjustment lever 235 (corresponding to “adjustment information for changing the brightness of the image”) is received from the
[ステップS97]
画像調整手段16の明るさ調整手段16bにおいて、明るさ調整情報(ad2)を受け取る。さらに、明るさ調整手段16bは、第2の画像(g2(第2の画像の処理後はg2’))をRAM30の記憶領域30b或いは30dから抽出し、この第2の画像の明るさを、明るさ調整情報(ad2)が示す明るさに変化させる(すなわち、「調整情報に基づき第2の画像の明るさを変化させる」)。そして、明るさ調整手段16bは、その明るさを変化させた第2の画像(g2’)をRAM30に送り、その記憶領域30dに記憶させる。そして、ステップS101に進む。
[Step S97]
The
[ステップS98]
調整情報入力手段15において、調整レバー235のドラックに関する情報(「画像のコントラストを変化させるための調整情報」に相当)を、バス80を通じてマウス62から受け取る(入力を受け付ける)。そして、調整情報入力手段15は、この調整情報に基づき、画像のコントラストを決定し、それをコントラスト調整情報(ad4)とし、画像調整手段16に送る。そして、ステップS99に進む。
[Step S98]
In the adjustment information input means 15, information related to the drag of the adjustment lever 235 (corresponding to “adjustment information for changing the contrast of the image”) is received from the
[ステップS99]
画像調整手段16のコントラスト調整手段16cにおいて、コントラスト調整情報(ad4)を受け取る。さらに、コントラスト調整手段16cは、第2の画像(g2(第2の画像の処理後はg2’))をRAM30の記憶領域30b或いは30dから抽出し、この第2の画像のコントラストをコントラスト調整情報(ad4)が示すコントラストに変化させる(すなわち、「調整情報に基づき第2の画像のコントラストを変化させる」)。そして、コントラスト調整手段16cは、そのコントラスト変化させた第2の画像(g2’)をRAM30に送り、その記憶領域30dに記憶させる。そして、ステップS101に進む。
[Step S99]
The contrast adjustment means 16c of the image adjustment means 16 receives the contrast adjustment information (ad 4 ). Further, the
[ステップS100]
このステップに進むのは、自動調整ボタン236(図16)がクリックされている場合である。本ステップでは、画像調整手段16において、第2の画像の自動調整を行い、ステップS101に進む。この処理の詳細は後述する。
[Step S100]
The process proceeds to this step when the automatic adjustment button 236 (FIG. 16) is clicked. In this step, the
[ステップS101]
画像出力手段13(図3)において、RAM30の記憶領域30dから第1の画像(g1')及び第2の画像(g2')を抽出し、これらを、バス80を通じてディスプレイ70に対して出力する。そして、ディスプレイ70において、これら第1の画像(g1')及び第2の画像(g2')を画像表示部210(図16)に表示する。
[Step S101]
In the image output means 13 (FIG. 3), the first image (g 1 ′) and the second image (g 2 ′) are extracted from the
<第2の画像の自動調整>
次に、第2の画像の自動調整処理(図12:ステップS100)の詳細について説明する。
図13は、この第2の画像の自動調整の詳細を説明するためのフローチャートである。以下このフローチャートに沿って説明を行う。
<Automatic adjustment of second image>
Next, details of the second image automatic adjustment process (FIG. 12: step S100) will be described.
FIG. 13 is a flowchart for explaining details of the automatic adjustment of the second image. Hereinafter, description will be given along this flowchart.
[ステップS111]
画像調整手段16のヒストグラム生成手段16a(図4)において、第1の画像(g1(第1の画像の処理後はg1’))及び第2の画像(g2(第2の画像の処理後はg2’))を、RAM30の記憶領域30b或いは30dから抽出し、第1の画像及び第2の画像について、輝度とその輝度を有するピクセルの数(カウント数)とのヒストグラム(H1、H2)を生成する。
[Step S111]
In the histogram generation means 16a (FIG. 4) of the image adjustment means 16, the first image (g 1 (g 1 ′ after processing the first image)) and the second image (g 2 (second image After processing, g 2 ′)) is extracted from the
ヒストグラム生成手段16aにおいて生成されたヒストグラム(H1、H2)は、明るさ調整手段16b及びコントラスト調整手段16cに送られ、ステップS112に進む。
The histograms (H 1 , H 2 ) generated by the
[ステップS112]
コントラスト調整手段16cにおいて、第1の画像に対応するヒストグラムH1の幅(a3)と、第2の画像に対応するヒストグラムH2の幅(b3)との差が許容範囲(p1≧0)内であるか否かを判断する。すなわち、
|H1の幅(a3)−H2の幅(b3)|≦p1
であるか否かを判断する。
[Step S112]
In the
| Width of H 1 (a 3 ) −Width of H 2 (b 3 ) | ≦ p 1
It is determined whether or not.
ここで、コントラスト調整手段16cにおいて、|H1の幅(a3)−H2の幅(b3)|≦p1を満たすと判断された場合には、ステップS115に進む。一方、これを満たさず、H2の幅(b3)−H1の幅(a3)>p1であった場合には、ステップS113に進み、H1の幅(a3)−H2の幅(b3)>p1であった場合には、ステップS114に進む。
Here, the
[ステップS113]
コントラスト調整手段16cにおいて、第2の画像(g2(第2の画像の処理後はg2’))を、RAM30の記憶領域30b或いは30dから抽出し、そのコントラストを既定の値だけ下げる(減じる)。そして、コントラスト調整手段16cにおいて、その第2の画像(g2’)がRAM30の記憶領域30dに格納され、ステップS111に戻る。
[Step S113]
In the
[ステップS114]
コントラスト調整手段16cにおいて、第2の画像(g2(第2の画像の処理後はg2’))を、RAM30の記憶領域30b或いは30dから抽出し、そのコントラストを既定の値だけ上げる(加算する)。そして、コントラスト調整手段16cにおいて、その第2の画像(g2’)がRAM30の記憶領域30dに格納され、ステップS111に戻る。
[Step S114]
In the
[ステップS115]
明るさ調整手段16bにおいて、ヒストグラムH1の位置とヒストグラムH2の位置との差が許容範囲(p2≧0)内であるか否かを判断する。すなわち、
|H1の位置(a1)−H2の位置(b1)|≦p2
であるか否かを判断する。
[Step S115]
In the
| H 1 position (a 1 ) −H 2 position (b 1 ) | ≦ p 2
It is determined whether or not.
ここで、明るさ調整手段16bにおいて、|H1の位置(a1)−H2の位置(b1)|≦p2を満たすと判断された場合には、第2の画像の自動生成処理(ステップS100)を終了する。一方、これを満たさず、H2の位置(b1)−H1の位置(a1)>p2であった場合には、ステップS116に進み、H1の位置(a1)−H2の位置(b1)>p2であった場合には、ステップS117に進む。
Here, the
[ステップS116]
明るさ調整手段16bにおいて、第2の画像(g2’)を、RAM30の記憶領域30dから抽出し、その明るさを既定の値だけ下げる(減じる)。そして、明るさ調整手段16bにおいて、その第2の画像(g2’)がRAM30の記憶領域30dに格納され、ステップS111に戻る。
[Step S116]
In the brightness adjustment means 16b, the second image (g 2 ′) is extracted from the
[ステップS117]
明るさ調整手段16bにおいて、第2の画像(g2’)を、RAM30の記憶領域30dから抽出し、その明るさを既定の値だけ上げる(加算する)。そして、明るさ調整手段16bにおいて、その第2の画像(g2’)がRAM30の記憶領域30dに格納され、ステップS111に戻る。
[Step S117]
In the
<画像合成処理>
次に、画像合成処理(図7:ステップS34)の詳細について説明する。
図14は、この画像合成処理の詳細を説明するためのフローチャートである。以下、このフローチャートに沿って説明を行っていく。
<Image composition processing>
Next, details of the image composition processing (FIG. 7: step S34) will be described.
FIG. 14 is a flowchart for explaining the details of this image composition processing. Hereinafter, description will be made along this flowchart.
[ステップS121]
画像合成手段17(図3)において、RAM30の記憶領域30b或いは30dから、第1の画像(g1(第1の画像の処理後はg1’))、第2の画像(g2(第2の画像の処理後はg2’))及び変動分(LC)を抽出し、第1の画像と第2の画像の間に空隙が存在する状態で当該第1の画像と第2の画像を合成した合成画像Aを生成する。
[Step S121]
In the image composition means 17 (FIG. 3), the first image (g 1 (g 1 ′ after processing the first image)) and the second image (g 2 ( first ) are stored from the
図19の(a)は、この処理を概念的に例示した図である。この図に例示するように、本ステップでは、第1の画像311及び第2の画像312が、空隙313の介して配置され、これにより合成画像(A)310が構成される。なお、第1の画像311と第2の画像312の位置関係、空隙313の幅等は、標準値として設定された既定値及びRAM30の記憶領域30dから抽出された変動分(LC)を用いて設定される。
生成された合成画像Aは、RAM30に送られ、その記憶領域30eに記憶されるとともに、画像複製手段18(図3)に送られ、次のステップS122に進む。
FIG. 19A is a diagram conceptually illustrating this process. As illustrated in this figure, in this step, the
The generated composite image A is sent to the
[ステップS122]
画像複製手段18において、受け取った合成画像Aの複製データである複製合成画像B(「合成画像」に相当)を生成する。
[Step S122]
In the image duplicating means 18, a duplicate composite image B (corresponding to “composite image”), which is duplicate data of the received composite image A, is generated.
図19の(b)は、この処理を概念的に例示した図である。この図に例示するように、本ステップでは、合成画像(A)310の複製データである、第1の画像321、第2の画像322及び空隙323からなる複製合成画像(B)320が生成される。
生成された複製合成画像Bは、フィルタ手段19(図3)に送られ、次のステップS123に進む。
FIG. 19B is a diagram conceptually illustrating this process. As illustrated in this figure, in this step, a duplicated composite image (B) 320 composed of a
The generated duplicate composite image B is sent to the filter means 19 (FIG. 3) and proceeds to the next step S123.
[ステップS123]
フィルタ手段19において、受け取った複製合成画像Bの特異点(ノイズ)を除去した特異点除去画像B’(「合成画像」に相当)を生成する。具体的には、例えば、複製合成画像Bにメディアンフィルタ(例えば「安居院猛、長尾智晴、“画像の処理と認識”、昭晃堂、1992年11月25日初版発行」等参照。)を適用し、特異点除去画像B’を生成する。
[Step S123]
The filter means 19 generates a singularity-removed image B ′ (corresponding to “composite image”) from which the singularity (noise) of the received duplicate composite image B has been removed. Specifically, for example, a median filter (for example, “Takeshi Aoiin, Tomoharu Nagao,“ Image processing and recognition ”, Shosodo, first published on November 25, 1992), etc.) is applied to the duplicate composite image B. Then, the singularity removal image B ′ is generated.
図19の(c)は、この処理を概念的に例示した図である。この図に例示するように、本ステップでは、複製合成画像Bの特異点(ノイズ)を除去した、第1の画像331、第2の画像332及び空隙333からなる特異点除去画像(B’)330が生成される。
FIG. 19C conceptually illustrates this process. As illustrated in this figure, in this step, the singular point removed image (B ′) including the
生成された特異点除去画像B’は、RAM30(図3)に送られ、その記憶領域30fに記憶される。
The generated singularity-removed image B ′ is sent to the RAM 30 (FIG. 3) and stored in the
[ステップS124]
直線設定手段20において、まず、RAM30の記憶領域30fから特異点除去画像B’を、記憶領域30aから境界情報BLを(記憶領域30aに境界情報BLが記憶されている場合)、それぞれ抽出する。そして、直線設定手段20は、空隙内の各調査点γ1,...,γnを特定する。ここで「調査点」とは、空隙内の各ピクセルを意味し、nは空隙内のピクセル数を示す。
[Step S124]
In the straight line setting means 20, first, the singular point removal image B ′ is extracted from the
図20は、特異点除去画像(B’)330を概念的に例示した図である。
この図に示すように、この例の特異点除去画像(B’)330は、17列(X1〜X17)9行(Y1〜Y9)のピルセル330aがマトリックス状に配置され構成される。そして、(X1,Y1)〜(X6,Y9)のピクセル330aによって第1の画像331が構成され、(X7,Y1)〜(X11,Y9)のピクセル330aによって空隙333が構成され、(X12,Y9)〜(X17,Y9)のピクセル330aによって第2の画像332が構成される。ここで、第1の画像331のX6行(X6,Y1〜Y9)の領域をエッジ部(α)331b(「第1の画像の空隙側エッジ部α」に相当)と呼び、第2の画像332のX12行(X12,Y1〜Y9)の領域をエッジ部(β)332b(「第2の画像の空隙側エッジ部β」に相当)と呼ぶこととする。本ステップでは、このエッジ部(α)331bとエッジ部(β)332bとに挟まれた空隙333内((X7,Y1)〜(X11,Y9))の各ピクセル330aを調査点として特定する。図20の例では、5×9=45個の調査点を特定し、各調査点をγ1〜γ45とする。
調査点γ1,...,γnが特定されると、次のステップS125に進む。
FIG. 20 is a diagram conceptually illustrating the singularity removal image (B ′) 330.
As shown in this figure, the singular point removal image (B ′) 330 in this example is configured by 17 columns (X1 to X17) and 9 rows (Y1 to Y9) of
When the investigation points γ 1 ,..., Γ n are specified, the process proceeds to the next step S125.
[ステップS125]
直線設定手段20において、変数iに1を代入し、ステップS126に進む。なお、この変数iの値は、例えば、CPU10内の図示していないキャッシュメモリに格納しておく。
[Step S125]
In the straight line setting means 20, 1 is substituted into the variable i, and the process proceeds to step S126. Note that the value of the variable i is stored in a cache memory (not shown) in the
[ステップS126]
直線設定手段20において、特異点除去画像(B’)330の空隙333内の調査点γiを通る直線Lを複数設定する。
[Step S126]
The straight line setting means 20 sets a plurality of straight lines L passing through the investigation points γ i in the
図21は、1つの調査点333a(X8,Y5)について設定される複数の直線(L)401〜405を例示した概念図である。
FIG. 21 is a conceptual diagram illustrating a plurality of straight lines (L) 401 to 405 set for one
この例の場合、調査点(γi)333a(X8,Y5)に対し、この調査点(γi)333a(X8,Y5)を通る複数の直線(L)401〜405が設定される。なお、各直線(L)は、調査点(γi)の座標と直線の傾きuによって特定される。この処理の詳細については後述する。
In this example, to survey point (γ i) 333a (X8, Y5), the survey point (
設定された調査点γiを通る直線L(例えば、調査点(γi)の座標と直線の傾きuの情報)及び特異点除去画像(B’)330は、交点算出手段21(図3)に送られ、次のステップS127に進む。 The straight line L (for example, information on the coordinates of the survey point (γ i ) and the slope u of the straight line) and the singular point removal image (B ′) 330 passing through the set survey point γ i are the intersection calculation means 21 (FIG. 3). The process proceeds to the next step S127.
[ステップS127]
交点算出手段21において、第1の画像(特異点除去画像B’における)の空隙側エッジ部αと直線Lとの交点P、及び第2の画像(特異点除去画像B’における)の空隙側エッジ部βと当該直線Lとの交点Q、を算出する。
[Step S127]
In the intersection calculation means 21, the intersection P between the gap-side edge portion α of the first image (in the singular point removal image B ′) and the straight line L, and the gap side in the second image (in the singular point removal image B ′). An intersection point Q between the edge portion β and the straight line L is calculated.
また、交点算出手段21は、求めた交点P、Qの色情報を特定する。ここで、「交点P、Qの色情報」とは、例えば、交点P、Qの座標の小数点以下を切り捨てた整数座標におけるピクセルの色情報を意味する。なお、小数点以下を切り捨てる代わりに四捨五入や切り上げによって交点P、Qのピクセルを特定してもよい。 Further, the intersection calculation means 21 specifies the color information of the obtained intersections P and Q. Here, “color information of intersections P and Q” means, for example, color information of pixels in integer coordinates obtained by rounding down the decimal points of the coordinates of intersections P and Q. Note that the pixels at the intersections P and Q may be specified by rounding off or rounding up instead of rounding off the decimal part.
図21の例の場合、直線(L)401〜405とエッジ部331bとの交点(P)401a〜405a、及び直線(L)401〜405とエッジ部332bとの交点(Q)401b〜405bを算出する。そして、以下のように各交点P、Qの色情報を特定する。
In the case of the example of FIG. 21, the intersections (P) 401a to 405a between the straight lines (L) 401 to 405 and the
交点(P)401a:(X6,Y7)のピクセルの色情報
交点(P)402a:(X6,Y6)のピクセルの色情報
交点(P)403a:(X6,Y5)のピクセルの色情報
交点(P)404a:(X6,Y4)のピクセルの色情報
交点(P)405a:(X6,Y3)のピクセルの色情報
交点(Q)401b:(X12,Y1)のピクセルの色情報
交点(Q)402b:(X12,Y3)のピクセルの色情報
交点(Q)403b:(X12,Y5)のピクセルの色情報
交点(Q)404b:(X12,Y7)のピクセルの色情報
交点(Q)405b:(X12,Y9)のピクセルの色情報
各直線L、算出された交点P、Q及びそれぞれの色情報は、直線選択手段22(図3)に送られ、次のステップS128に進む。
Intersection (P) 401a: Color information of pixel at (X6, Y7) Intersection (P) 402a: Color information of pixel at (X6, Y6) Intersection (P) 403a: Color information of pixel at (X6, Y5) Intersection ( P) 404a: Color information of pixel of (X6, Y4) Intersection (P) 405a: Color information of pixel of (X6, Y3) Intersection (Q) 401b: Color information of pixel of (X12, Y1) Intersection (Q) 402b: Color information of pixel (X12, Y3) Intersection (Q) 403b: Color information of pixel of (X12, Y5) Intersection (Q) 404b: Color information of pixel of (X12, Y7) Intersection (Q) 405b: Color information of the pixel of (X12, Y9) Each straight line L, the calculated intersection points P and Q, and the respective color information are sent to the straight line selection means 22 (FIG. 3), and the process proceeds to the next step S128.
[ステップS128]
直線選択手段22において、送られた直線Lから、交点P,Qの色情報の差が最小となる直線L’を選択する。
これは、調査点(γi)を通る直線Lの傾きuを所定のステップで動かして、交点Pの色情報(pixelP)と交点Qの色情報(pixelQ)の各成分(赤、緑、青)の差の合計(nHensa)が最小となる時の傾きuを求めることに相当する。なお、nHensaは以下のように示される。
nHensa=abs(pixelP[R]-pixelQ[R])+abs(pixelP[G]-pixelQ[G])+abs(pixelP[B]-pixelQ[B])
ただし、absは絶対値、pixelP[R]は交点Pの赤色成分、pixelP[G]は交点Pの緑色成分、pixelP[B]は交点Pの青色成分、pixelQ[R]は交点Qの赤色成分、pixelQ[G]は交点Qの緑色成分、pixelQ[B]は交点Qの青色成分を示している。
[Step S128]
The straight
This is because the slope u of the straight line L passing through the investigation point (γ i ) is moved in a predetermined step, and each component (red, green, blue) of the color information (pixelP) at the intersection P and the color information (pixelQ) at the intersection Q ) Is equivalent to obtaining the slope u when the sum of the differences (nHensa) is minimized. NHensa is expressed as follows.
nHensa = abs (pixelP [R] -pixelQ [R]) + abs (pixelP [G] -pixelQ [G]) + abs (pixelP [B] -pixelQ [B])
Where abs is an absolute value, pixelP [R] is the red component at the intersection P, pixelP [G] is the green component at the intersection P, pixelP [B] is the blue component at the intersection P, and pixelQ [R] is the red component at the intersection Q , PixelQ [G] indicates the green component at the intersection Q, and pixelQ [B] indicates the blue component at the intersection Q.
図21の例の場合、交点(P)401aと交点(Q)401bの色情報の差(直線(L)401に対応)、交点(P)402aと交点(Q)402bの色情報の差(直線(L)402に対応)、交点(P)403aと交点(Q)403bの色情報の差(直線(L)403に対応)、交点(P)404aと交点(Q)404bの色情報の差(直線(L)404に対応)、交点(P)405aと交点(Q)405bの色情報の差(直線(L)405に対応)を算出し、算出された色情報の差が最少となる直線(L)401〜405(直線L’)を、公知の並び替えアルゴリズム等によって算出する。この例では、図22に示すように、直線(L)404が直線L’として算出されたものとする。 In the case of the example in FIG. 21, the difference in color information between the intersection (P) 401a and the intersection (Q) 401b (corresponding to the straight line (L) 401), and the difference in color information between the intersection (P) 402a and the intersection (Q) 402b ( The color information of the intersection (P) 403a and the intersection (Q) 403b (corresponding to the straight line (L) 403), the color information of the intersection (P) 404a and the intersection (Q) 404b. The difference (corresponding to the straight line (L) 404), the color information difference between the intersection (P) 405a and the intersection (Q) 405b (corresponding to the straight line (L) 405) is calculated, and the difference between the calculated color information is the smallest. Straight lines (L) 401 to 405 (straight line L ′) are calculated by a known rearrangement algorithm or the like. In this example, it is assumed that a straight line (L) 404 is calculated as a straight line L ′ as shown in FIG.
直線L’が選択されると、その直線L’の交点P’,Q’及びその色情報が色情報決定手段23(図3)に送られる。図22の例の場合、交点(P)404a、交点(Q)404b、及び交点(P)404aに対応する(X6,Y4)のピクセル331baの色情報、交点(Q)404bに対応する(X12,Y7)のピクセル332baの色情報が色情報決定手段23に送られる。そして、次のステップS129に進む。 When the straight line L ′ is selected, the intersections P ′ and Q ′ of the straight line L ′ and the color information thereof are sent to the color information determining means 23 (FIG. 3). In the case of the example in FIG. 22, the intersection (P) 404a, the intersection (Q) 404b, and the color information of the pixel 331ba at (X6, Y4) corresponding to the intersection (P) 404a, corresponding to the intersection (Q) 404b (X12). , Y7), the color information of the pixel 332ba is sent to the color information determination means 23. Then, the process proceeds to next Step S129.
[ステップS129]
色情報決定手段23において、直線選択手段22において選択された直線L’の交点P’,Q’の色情報を用い、調査点γiの色情報Ciを決定する。この際、色情報決定手段23は、調査点γiと交点P,Qとの距離に応じ、当該交点P,Qの色情報に重み付けを行い、調査点γiの色情報を決定する。そして、この交点P,Qの色情報に付される重みは、当該交点P,Qが調査点γiに近いほど大きい。具体的には、例えば、以下のような重み付けを行い、調査点γiの色情報Ci=(赤成分pixelγi[R],緑成分pixelγi[G],青成分pixelγi[B])を決定する。
調査点γiの赤成分(pixelγ[R]):
pixelγi[R]={pixelP[R]・(w-(x-αx))/w}+{pixelQ[R]・(w-(βx-x))/w}
調査点γiの緑成分(pixelγ[G]):
pixelγi[G]={pixelP[G]・(w-(x-αx))/w}+{pixelQ[G]・(w-(βx-x))/w}
調査点γiの青成分(pixelγ[B]):
pixelγi[B]={pixelP[B]・(w-(x-αx))/w}+{pixelQ[B]・(w-(βx-x))/w}
ただし、xは調査点γiのx座標を示し、αxは第1の画像の空隙側エッジ部αのx座標を示し、βxは第2の画像の空隙側エッジ部βのx座標を示し、wは空隙の幅(w=βx-αx)を示す。
[Step S129]
In the color
Red component (pixel γ [R]) of survey point γ i :
pixelγ i [R] = {pixelP [R] · (w- (x-α x )) / w} + {pixelQ [R] · (w- (β x -x)) / w}
Green component (pixel γ [G]) of survey point γ i :
pixelγ i [G] = {pixelP [G] · (w- (x-α x )) / w} + {pixelQ [G] · (w- (β x -x)) / w}
Blue component (pixel γ [B]) of survey point γ i :
pixelγ i [B] = {pixelP [B] · (w- (x-α x )) / w} + {pixelQ [B] · (w- (β x -x)) / w}
Where x represents the x coordinate of the survey point γ i , α x represents the x coordinate of the air gap side edge portion α of the first image, and β x represents the x coordinate of the air gap side edge portion β of the second image. W represents the width of the air gap (w = β x -α x ).
なお、以上の処理によって、特異点(ノイズ)成分が除去された特異点除去画像B’の色情報を用いて、調査点γiの色情報Ciが決定されたことになる。したがって、特異点成分をもとに調査点γiの色情報Ciが決定されることもなく、調査点γiの色情報Ciとして、不自然な色が選択されることもない(その結果、補完部分にノイズで線が走ってしまうことがない)。
このように設定された調査点γiの色情報Ciは、RAM30に送られ、その記憶領域30gに記憶される。そして、次のステップS130に進む。
Incidentally, the above processing, by using the color information of the singular point (noise) components are removed singular point removal image B ', so that the color information C i survey points gamma i is determined. Therefore, without the color information C i survey points gamma i based on singularity component is determined, as the color information C i survey points gamma i, nor that unnatural color is selected (the As a result, the line does not run due to noise in the complement part).
The color information C i of the survey point γ i set in this way is sent to the
[ステップS130]
直線設定手段20において、前述(ステップS125)の図示していないキャッシュメモリ等に格納された変数iの値がnであるか否かを判断する。ここで、i=nであった場合には、ステップS132に進み、そうでなければステップS131に進む。
[Step S130]
In the straight line setting means 20, it is determined whether or not the value of the variable i stored in the cache memory (not shown) described above (step S125) is n. If i = n, the process proceeds to step S132; otherwise, the process proceeds to step S131.
[ステップS131]
直線設定手段20において、変数iにi+1を代入し、その代入値iを、例えば、図示していないキャッシュメモリ等に格納する。そして、ステップS126に戻る。
[Step S131]
In the straight line setting means 20, i + 1 is substituted into the variable i, and the substituted value i is stored in, for example, a cache memory (not shown). Then, the process returns to step S126.
[ステップS132]
補完手段24(図3)において、RAM30の記憶領域30gから各調査点γ1,...,γnの色情報C1,...,Cn(「決定された調査点γの色情報の集合」に相当)を抽出し、記憶領域30eから合成画像Aを抽出する。そして、補完手段24は、この各調査点γ1,...,γnの色情報C1,...,Cnによって、合成画像Aの空隙を補完した補完画像A’を生成する。
[Step S132]
In complementing means 24 (FIG. 3), each survey point gamma 1 from the
図25の(a)は、このように生成された補完画像(A’)340の例示である。
この図に例示するように、補完画像(A’)340は、特異点除去前の第1の画像311及び第2の画像312と、その空隙に配置された補完情報343(各調査点γ1,...,γnの色情報C1,...,Cn)とからなる。なお、前述のように、補完情報343は、フィルタ手段19で特異点成分が除去された特異点除去画像B’の色情報を用いて決定されたものである。したがって、この補完情報343には、第1の画像311及び第2の画像312が通常有する程度の特異点成分が存在しない。
生成された補完画像A’は、RAM30に送られ、その記憶領域30hに記憶される。そして、次のステップS133に進む。
FIG. 25A shows an example of the complementary image (A ′) 340 generated in this way.
As illustrated in this figure, the complementary image (A ′) 340 includes a
The generated complementary image A ′ is sent to the
[ステップS133]
特異点画像生成手段25において、第1の画像或いは第2の画像の特異点成分からなる特異点画像Dを生成する。
具体的には、例えば、特異点画像生成手段25において、RAM30の記憶領域30dから第1の画像g1’(特異点除去前画像)を抽出し、メディアンフィルタ等によりその特異点(ノイズ)成分を除去したフィルタ画像g1’’を生成する。生成されたフィルタ画像g1’’は、例えば、CPU10内の図示していないキャッシュメモリに格納され、特異点画像生成手段25は、再び、RAM30の記憶領域30dから第1の画像g1’(特異点除去前画像)を抽出する。そして、特異点画像生成手段25は、例えば、記憶領域30dから抽出した第1の画像g1’(特異点除去前画像)から、図示していないキャッシュメモリに格納されたフィルタ画像g1’’を減じ、特異点成分のみからなる、特異点画像Dを生成する。
生成された特異点画像(D)は、画像切り取り手段26(図3)に送られ、次のステップS134に進む。
[Step S133]
The singular point image generation means 25 generates a singular point image D composed of the singular point components of the first image or the second image.
Specifically, for example, in the singularity image generation means 25, the first image g 1 ′ (image before singularity removal) is extracted from the
The generated singular point image (D) is sent to the image cutout means 26 (FIG. 3), and proceeds to the next step S134.
[ステップS134]
画像切り取り手段26において、特異点画像Dから、空隙(例えば、合成画像Aの空隙)と同じ形状の画像(以下「付加画像E」という。)を切り取る。
[Step S134]
The image cutout means 26 cuts out an image (hereinafter referred to as “additional image E”) having the same shape as a gap (for example, a gap in the composite image A) from the singular point image D.
図25の(b)は、この様子を示した概念図である。
この図に例示するように、画像切り取り手段26は、好ましくは、特異点画像(D)350の空隙側エッジ部分351を付加画像(E)352として切り取る。これにより、もともとの画像(復元する画像)が空隙部分に有するであろう特異点の分布に近い付加画像(E)352が得られる。なお、図25の(b)は、第1の画像(第2の画像の向かって左側に配置される画像)をもとに特異点画像(D)を生成した場合の例である。この場合、第1の画像と第2の画像との間に存在する空隙の位置は、特異点画像(D)の右側の位置に対応する。したがって、この例の場合、「空隙側エッジ部分」とは、図25の(b)の向かって右側エッジ部分の領域を意味する。
以上のように生成された付加画像Eは、特異点付加手段27(図3)に送られ、次のステップS135に進む。
FIG. 25B is a conceptual diagram showing this state.
As illustrated in this figure, the image cutout means 26 preferably cuts out the gap side edge portion 351 of the singular point image (D) 350 as the additional image (E) 352. As a result, an additional image (E) 352 that is close to the distribution of singular points that the original image (the image to be restored) will have in the void portion is obtained. FIG. 25B shows an example in which the singular point image (D) is generated based on the first image (image arranged on the left side of the second image). In this case, the position of the gap existing between the first image and the second image corresponds to the position on the right side of the singular point image (D). Therefore, in the case of this example, the “air gap side edge portion” means a region of the right edge portion toward (b) in FIG.
The additional image E generated as described above is sent to the singular point adding means 27 (FIG. 3) and proceeds to the next step S135.
[ステップS135]
特異点付加手段27において、RAM30の記憶領域30hから補完画像A’を抽出し、画像切り取り手段26から送られた付加画像Eを、この補完画像A’の補完部分に合成した補完合成画像A’’を生成する。なお、「補完部分」とは、補完手段24において、各調査点γ1,...,γnの色情報C1,...,Cnによって補完された(ステップS132)元空隙であった部分を意味する。
[Step S135]
In the singularity adding means 27, the complementary image A ′ is extracted from the
図25の(c)は、生成された補完合成画像(A’’)360を例示した概念図である。
この図に示すように、第1の画像311と第2の画像312の間の補完部分に付加画像Eが付加され(特異点付加画像363を構成)、補完合成画像(A’’)360が完成する。
なお、より好ましくは、特異点付加手段27は、付加画像Eの輝度値を減じた後、当該付加画像Eを補完画像A’の補完部分に合成する。具体的には、特異点付加手段27は、例えば、各行(同一y座標)ごとに、付加画像Eの各ピクセルの輝度の最大値を求め、(付加画像Eの各ピクセルの輝度)−(各行ごとの最大値)/2の付加画像を補完画像A’の補完部分に合成する。
FIG. 25C is a conceptual diagram illustrating the generated complementary composite image (A ″) 360.
As shown in this figure, an additional image E is added to a complementary portion between the
More preferably, the
つまり、例えば、付加画像Eの輝度データが、
X7 X8 X9 X10 X11
Y1 2 5 3 6 1
であった場合、この行の輝度の最大値は6となり、その1/2は3となる。そのため、このY1行に付加される付加画像Eの輝度データは、
X7 X8 X9 X10 X11
Y1 −1 2 0 3 −2
となる。これにより、プラスだけでなくマイナスの特異点(ノイズ)も付加でき、より自然な特異点付加ができる。
That is, for example, the luminance data of the additional image E is
X7 X8 X9 X10 X11
In this case, the maximum value of the luminance of this row is 6, and half of that is 3. Therefore, the luminance data of the additional image E added to the Y1 row is
X7 X8 X9 X10 X11
Y1 -1 2 0 3 -2
It becomes. As a result, not only positive but also negative singularities (noise) can be added, and more natural singularities can be added.
<調査点Xiに関する直線L設定処理の詳細>
調査点Xiに関する直線L設定処理の詳細(ステップS126)について説明する。
<Details of the straight line L setting process on the survey point X i>
Details of the straight line L setting process relating to the survey point X i (step S126) will be described.
図15は、この調査点Xiに関する直線L設定処理の詳細の詳細を説明するためのフローチャートである。以下、このフローチャートに沿って説明を行う。 Figure 15 is a flowchart for illustrating details line L setting process Details regarding this study point X i. Hereinafter, description will be given along this flowchart.
[ステップS141]
直線設定手段20(図3)において、境界情報が設定されているか否かを判断する。具体的には、例えば、RAM30の記憶領域30aに境界情報BLが格納されているか否かを判断する。ここで、境界情報が設定されていると判断された場合にはステップS148に進み、そうでない場合にはステップS142に進む。
[Step S141]
In the straight line setting means 20 (FIG. 3), it is determined whether or not boundary information is set. Specifically, for example, it is determined whether the boundary information BL is stored in the
[ステップS142]
直線設定手段20において、傾き変数ujに傾き最小値uminを代入し、その値を、例えば図示していないキャッシュメモリに格納する。ここで、傾き最小値uminとしては、例えば−3を例示できる。そして、ステップS143に進む。
[Step S142]
In the straight line setting means 20, the minimum inclination value u min is substituted into the inclination variable u j and the value is stored in a cache memory (not shown), for example. Here, as the minimum inclination value u min , for example, −3 can be exemplified. Then, the process proceeds to step S143.
[ステップS143]
直線設定手段20において、例えば図示していないキャッシュメモリから傾きujを抽出し、調査点Xiを通る傾きujの直線L(y=uj・x+v(x,yは、変数、vは、傾き変数uj及び調査点Xiによって定まる定数))を設定し、それを例えば図示していないキャッシュメモリに格納する。そして、ステップS144に進む。
[Step S143]
In the straight line setting means 20, for example, a slope u j is extracted from a cache memory (not shown), and a straight line L (y = u j · x + v (x, y are variables, v is a variable) of the slope u j passing through the investigation point X i. , A constant determined by the slope variable u j and the survey point X i )) and set it in a cache memory (not shown), for example. Then, the process proceeds to step S144.
[ステップS144]
直線設定手段20において、例えば図示していないキャッシュメモリに格納された傾き変数ujが傾き最大値umaxを越えているか(uj>umin)否かを判断する。なお、最大値umaxとしては、例えば3を例示できる。
ここで、uj>uminであると判断された場合は調査点Xiに関する直線L設定処理を終了し、そうでないと判断された場合には、ステップS145に進む。
[Step S144]
In the straight line setting means 20, for example, it is determined whether or not an inclination variable u j stored in a cache memory (not shown) exceeds an inclination maximum value u max (u j > u min ). The maximum value u max can be exemplified by 3, for example.
If it is determined that u j > u min , the straight line L setting process for the survey point X i is terminated. If it is determined that u j > u min , the process proceeds to step S145.
[ステップS145]
直線設定手段20において、例えば図示していないキャッシュメモリに格納された傾き変数ujにus(usは定数であり、例えば、0.1を例示できる)を加算した値を傾き変数ujに代入し、これを、例えば図示していないキャッシュメモリに格納する。そして、ステップS143に戻る。
[Step S145]
In the straight line setting means 20, for example, a value obtained by adding us (us is a constant, for example, 0.1 can be exemplified) to an inclination variable u j stored in a cache memory (not shown) is assigned to the inclination variable u j . This is stored in a cache memory (not shown), for example. Then, the process returns to step S143.
[ステップS148]
直線設定手段20において、調査点γiが直線である境界情報BL上にあるか否かを判断する。ここで、調査点γiが境界情報上にあると判断された場合には、ステップS149に進み、そうでないと判断された場合には、ステップS150に進む。
[Step S148]
In the straight line setting means 20, it is determined whether or not the investigation point γ i is on the boundary information BL that is a straight line. If it is determined that the survey point γ i is on the boundary information, the process proceeds to step S149, and if not, the process proceeds to step S150.
[ステップS149]
直線設定手段20において、境界情報である境界情報BLを調査点γiに対応する直線Lとする。
[Step S149]
In the straight line setting means 20, the boundary information BL which is the boundary information is set as a straight line L corresponding to the investigation point γ i .
図23は、この様子を例示した概念図である。
図23の例では、座標(X8,Y5)の調査点(γi)333aが、直線である境界情報(BL)500上に存在している。この場合、境界情報(BL)500が調査点(γi)333aに対応する直線Lとされる。
これにより、前述のステップS129の処理において、オブジェクトの境界にふさわしい色が、調査点γiの色情報Ciとして選択されることになる。
設定された直線Lは交点算出手段21に送られ、調査点Xiに関する直線L設定処理を終了する。
FIG. 23 is a conceptual diagram illustrating this situation.
In the example of FIG. 23, the investigation point (γ i ) 333a of the coordinates (X8, Y5) exists on the boundary information (BL) 500 that is a straight line. In this case, the boundary information (BL) 500 is a straight line L corresponding to the investigation point (γ i ) 333a.
As a result, in the process of step S129 described above, a color suitable for the boundary of the object is selected as the color information C i of the survey point γ i .
The set straight line L is sent to the intersection calculation means 21 and the straight line L setting process for the survey point X i is terminated.
[ステップS150]
直線設定手段20において、傾き変数ujに傾き最小値uminを代入し、その値を、例えば図示していないキャッシュメモリに格納する。そして、ステップS151に進む。
[Step S150]
In the straight line setting means 20, the minimum inclination value u min is substituted into the inclination variable u j and the value is stored in a cache memory (not shown), for example. Then, the process proceeds to step S151.
[ステップS151]
直線設定手段20において、例えば図示していないキャッシュメモリから傾きujを抽出し、調査点Xiを通る傾きujの直線L(y=uj・x+v(x,yは、変数、vは、傾き変数uj及び調査点Xiによって定まる定数))を設定する。そして、ステップS152に進む。
[Step S151]
In the straight line setting means 20, for example, a slope u j is extracted from a cache memory (not shown), and a straight line L (y = u j · x + v (x, y are variables, v is a variable) of the slope u j passing through the investigation point X i. , A constant determined by the slope variable u j and the survey point X i )). Then, the process proceeds to step S152.
[ステップS152]
直線設定手段20において、空隙内で、ステップS151で設定された直線Lと、直線である境界情報BLと、が交差するか否かを判断する。ここで、空隙内で直線Lと境界情報BLとが交差しないと判断された場合にはステップS153に進む。一方、空隙内で直線Lと境界情報BLとが交差すると判断された場合にはステップS154に進む。
[Step S152]
In the straight line setting means 20, it is determined whether or not the straight line L set in step S151 and the boundary information BL that is a straight line intersect each other in the gap. Here, if it is determined that the straight line L and the boundary information BL do not intersect within the gap, the process proceeds to step S153. On the other hand, if it is determined that the straight line L and the boundary information BL intersect within the gap, the process proceeds to step S154.
図24は、この様子を説明するための概念図である。
図24の例では、座標(X8,Y3)調査点(γi)333bが、境界情報(BL)500上に位置していない。ここで、ステップS152において直線(L)406が生成されたとする。この場合、直線(L)406は、空隙333内で境界情報(BL)500と交差していない。そのため、直線設定手段20は、ステップS153の処理に進むと判断する。一方、ステップS152において直線(L)407が生成されたとする。この場合、直線(L)407は、空隙333内で境界情報(BL)500と交差している。そのため、直線設定手段20は、ステップS154の処理に進むと判断する。
[ステップS153]
ステップS151で設定された直線Lを、例えば図示していないキャッシュメモリに格納し、ステップS155に進む。
FIG. 24 is a conceptual diagram for explaining this situation.
In the example of FIG. 24, the coordinate (X8, Y3) survey point (γ i ) 333 b is not located on the boundary information (BL) 500. Here, it is assumed that a straight line (L) 406 is generated in step S152. In this case, the straight line (L) 406 does not intersect the boundary information (BL) 500 within the
[Step S153]
The straight line L set in step S151 is stored in a cache memory (not shown), for example, and the process proceeds to step S155.
[ステップS154]
ステップS151で設定された直線Lを、破棄し、ステップS155に進む。
[Step S154]
The straight line L set in step S151 is discarded, and the process proceeds to step S155.
以上のステップS152〜S154の処理により、直線設定手段20は、境界情報BLが特定する制限範囲内で、特定の調査点γiを通る直線Lを設定することになる。これにより、前述のステップS129の処理において、オブジェクトの境界をはっきりとさせる調査点γiの色情報Ciが選択されることになる。
Through the processes in steps S152 to S154 described above, the straight
[ステップS155]
直線設定手段20において、例えば図示していないキャッシュメモリに格納された傾き変数ujが傾き最大値umaxを越えているか(uj>umin)否かを判断する。ここで、uj>uminであると判断された場合は調査点Xiに関する直線L設定処理を終了し、そうでないと判断された場合には、ステップS156に進む。
[Step S155]
In the straight line setting means 20, for example, it is determined whether or not an inclination variable u j stored in a cache memory (not shown) exceeds an inclination maximum value u max (u j > u min ). If it is determined that u j > u min , the straight line L setting process for the survey point X i is terminated. If it is determined that u j > u min , the process proceeds to step S156.
[ステップS156]
直線設定手段20において、例えば図示していないキャッシュメモリに格納された傾き変数ujにus(usは定数であり、例えば、0.1を例示できる)を加算した値を傾き変数ujに代入し、これを例えば図示していないキャッシュメモリに格納する。そして、ステップS151に戻る。
[Step S156]
In the straight line setting means 20, for example, a value obtained by adding us (us is a constant, for example, 0.1 can be exemplified) to an inclination variable u j stored in a cache memory (not shown) is assigned to the inclination variable u j . This is stored in a cache memory (not shown), for example. Then, the process returns to step S151.
<本形態の特徴>
以上説明した通り、本形態では、画像入力手段12において、画像の不連続部分(例えば見開きページの綴じ込み部分等)を含まない第1の画像と第2の画像の入力を受け付け、画像合成手段17において、第1の画像と第2の画像の間に空隙が存在する合成画像を生成する。そのため、画像の不連続部分を排除した画像情報を用いて合成画像を生成することができる。
<Features of this embodiment>
As described above, in the present embodiment, the
また、直線選択手段20において、直線Lから交点P,Qの色情報の差が最小となる直線L’を選択し、色情報決定手段23において、この直線L’の交点P’,Q’の色情報を用いて空隙内の調査点γの色情報を決定することとした。そのため、空隙をより適切に補完できる。
以上より、分割された画像を見栄えよく合成することができる。
Further, the straight line selection means 20 selects a straight line L ′ that minimizes the difference in color information between the intersection points P and Q from the straight line L, and the color information determination means 23 selects the intersection points P ′ and Q ′ of the straight line L ′. The color information is used to determine the color information of the investigation point γ in the gap. Therefore, a space | gap can be complemented more appropriately.
As described above, it is possible to combine the divided images with a good appearance.
〔第2の実施の形態〕
次に、本発明における第2の実施の形態について説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described.
本形態は、第1の実施の形態の変形例であり、画像の複写を行う画像複写装置に本発明を適用した例である。以下では、第1の実施の形態との相違点を中心に説明し、第1の実施の形態と共通する事項については、説明を省略する。 This embodiment is a modification of the first embodiment, and is an example in which the present invention is applied to an image copying apparatus for copying an image. Below, it demonstrates centering on difference with 1st Embodiment, and abbreviate | omits description about the matter which is common in 1st Embodiment.
<ハードウェア構成>
図26は、本形態における画像複写装置600のハードウェア構成を例示したブロック図である。
図26に例示するように、この例の画像複写装置600は、CPU610、RAM630、ROM640、スキャナー650、入力キー660及びプリンター670を有しており、バス680を通じ相互に通信可能なように接続されている。そして、CPU610は、ROM640に格納されたプログラムを読み出し、それに従った処理を実行することによって、以下に示す各処理機能を実現する。
<Hardware configuration>
FIG. 26 is a block diagram illustrating a hardware configuration of the
As illustrated in FIG. 26, the
<機能構成>
図27は、CPU610に上述のプログラムを実行させることにより構築される処理機能及びRAM630内のデータ構成を例示したブロック図である。なお、図27において、図3と共通する機能構成については、図3と同じ符号を付した。
<Functional configuration>
FIG. 27 is a block diagram illustrating a processing function constructed by causing the
図27に例示するように、上述のプログラムの実行によりCPU610には、画像入力手段612、画像出力手段613、空隙生成手段617、画像複製手段18、フィルタ手段19、直線設定手段20、交点算出手段21、直線選択手段22、色情報決定手段23、補完手段24、特異点画像生成手段25、画像切り取り手段26、特異点付加手段27及び制御手段28が構築される。なお、これら各手段は、制御手段28の制御により連携して各演算処理を行う。また、図27の矢印は情報の流れを示しているが、制御手段28からの制御情報の流れは省略してある。
As illustrated in FIG. 27, by executing the above-described program, the
<処理>
図28の(a)は、画像複写装置600の処理を説明するためのフローチャートである。以下、これらの図に沿って、画像複写装置600の処理について説明する。
<Processing>
FIG. 28A is a flowchart for explaining processing of the
[ステップS161]
スキャナー650(図26)において画像を読み込む。読み込まれた画像A0はバス680を通じCPU610に送られ、CPU610の画像入力手段612(図27)は、この画像A0の入力を受け付ける。そして、画像入力手段612は、この画像A0をRAM630の記憶領域630aに格納し、次のステップS162に移る。
[Step S161]
The image is read by the scanner 650 (FIG. 26). The image A 0 read sent to
[ステップS162]
空隙生成手段617において、RAM630の記憶領域630aから画像A0を抽出し、この画像A0の中心部分を通り、当該画像A0を横断する矩形状の空隙を生成し、画像A0を第1の画像g1と第2の画像g2に分割する。また、第1の画像g1、第2の画像g2及び空隙からなる画像を合成画像Aとする。
図28の(b)は、本ステップの処理を説明するための概念図である。
[Step S162]
In the
FIG. 28B is a conceptual diagram for explaining the processing of this step.
この図に例示するように、空隙生成手段617は、画像(A0)700の中心部分730(例えば、見開きページの綴じ込み部分)を通り、当該画像A0を横断する矩形状の空隙720を生成する。そして、この空隙720により、画像A0を第1の画像(g1)711と第2の画像(g2)712に分割し、第1の画像(g1)711、第2の画像(g2)712及び空隙720からなる合成画像(A)710を生成する。
As illustrated in this figure, the gap generation means 617 generates a
生成された合成画像Aは、RAM630の記憶領域30eに格納される他、画像複製手段18に送られる。また、第1の画像g1及び第2の画像g2それぞれもRAM630の記憶領域30bに格納される。そして、次のステップS163に進む。
The generated composite image A is sent to the
[ステップS163]
画像複製手段18、フィルタ手段19、直線設定手段20、交点算出手段21、直線選択手段22、色情報決定手段23、補完手段24、特異点画像生成手段25、画像切り取り手段26及び特異点付加手段27における、図14のステップS122〜S135と同様な処理により、空隙を補完する画像合成処理を行う(ただし、ステップS133の処理において、記憶領域30bに格納された第1の画像g1を用いる点が相違する。)。
[Step S163]
Image duplicating means 18, filter means 19, straight line setting means 20, intersection calculating means 21, straight
そして、このように生成された補完合成画像A’’はRAM630の記憶領域30iに格納され、次のステップS164に進む。
The complementary composite image A ″ thus generated is stored in the
[ステップS164]
画像出力手段613において、RAM630の記憶領域30iから補完合成画像A’’を抽出し、バス680を通じてプリンター670に送る。プリンター670は、この補完合成画像A’’を用紙にプリントし、出力する。
[Step S164]
The
<本形態の特徴>
以上説明したとおり、本形態では、画像入力手段612において、スキャナー650で読み込まれた画像の入力を受け付け、空隙生成手段617において、この入力された画像の中心部分を通り、画像を横断する矩形状の空隙を生成することとした。これにより、スキャナー650で読み込んだ画像の中心部分を横断する不連続部分(例えば、見開きページの綴じ込み部分等)を排除することができる。
<Features of this embodiment>
As described above, in the present embodiment, the image input unit 612 receives an input of an image read by the
また、直線選択手段20において、直線Lから交点P,Qの色情報の差が最小となる直線L’を選択し、色情報決定手段において、この直線L’の交点P’,Q’の色情報を用いて空隙内の調査点γの色情報を決定する。これにより、空隙生成手段617において生成した空隙をより適切に補完できる。
以上より、読み込み画像から綴じ込み部分等の不連続部分を排除し、なおかつ見栄えのよい複写画像を生成できる。
Further, the straight line selection means 20 selects a straight line L ′ that minimizes the color information difference between the intersection points P and Q from the straight line L, and the color information determination means selects the color of the intersection points P ′ and Q ′ of the straight line L ′. The information is used to determine the color information of the survey point γ in the gap. Thereby, the space | gap produced | generated in the space | gap production | generation means 617 can be complemented more appropriately.
As described above, it is possible to eliminate a discontinuous portion such as a binding portion from a read image and generate a good-looking copy image.
なお、本発明は上述の各実施の形態に限定されるものではなく、本発明の趣旨を遺脱しない範囲で適宜変更が可能であることはいうまでもない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。 Note that the present invention is not limited to the above-described embodiments, and it is needless to say that modifications can be made as appropriate without departing from the spirit of the present invention. For example, the various processes described above are not only executed in time series according to the description, but may also be executed in parallel or individually as required by the processing capability of the apparatus that executes the processes.
また、上述の構成をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。 Further, when the above-described configuration is realized by a computer, processing contents of functions that each device should have are described by a program. The processing functions are realized on the computer by executing the program on the computer.
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよいが、具体的には、例えば、磁気記録装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(Digital Versatile Disc)、DVD−RAM(Random Access Memory)、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto-Optical disc)等を、半導体メモリとしてEEP−ROM(Electronically Erasable and Programmable-Read Only Memory)等を用いることができる。 The program describing the processing contents can be recorded on a computer-readable recording medium. The computer-readable recording medium may be any medium such as a magnetic recording device, an optical disk, a magneto-optical recording medium, or a semiconductor memory. Specifically, for example, the magnetic recording device may be a hard disk device or a flexible Discs, magnetic tapes, etc. as optical disks, DVD (Digital Versatile Disc), DVD-RAM (Random Access Memory), CD-ROM (Compact Disc Read Only Memory), CD-R (Recordable) / RW (ReWritable), etc. As the magneto-optical recording medium, MO (Magneto-Optical disc) or the like can be used, and as the semiconductor memory, EEP-ROM (Electronically Erasable and Programmable-Read Only Memory) or the like can be used.
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。 The program is distributed by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Furthermore, the program may be distributed by storing the program in a storage device of the server computer and transferring the program from the server computer to another computer via a network.
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。 A computer that executes such a program first stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its storage device. When executing the process, the computer reads the program stored in its own recording medium and executes the process according to the read program. As another execution form of the program, the computer may directly read the program from the portable recording medium and execute processing according to the program, and the program is transferred from the server computer to the computer. Each time, the processing according to the received program may be executed sequentially. Also, the program is not transferred from the server computer to the computer, and the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes the processing function only by the execution instruction and result acquisition. It may be Note that the program in this embodiment includes information that is used for processing by an electronic computer and that conforms to the program (data that is not a direct command to the computer but has a property that defines the processing of the computer).
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。 In this embodiment, the present apparatus is configured by executing a predetermined program on a computer. However, at least a part of these processing contents may be realized by hardware.
本発明の産業上の利用分野としては、上述した雑誌等の見開きページや航空写真の合成を行うソフトウェアや、カラー見開きページの綴じ込み部分を自動的に修復するカラーデジタルコピー機等を例示できる。また、本発明の画像合成装置と、パーソナルコンピュータ等の端末装置と、をインターネット等で接続し、この端末装置から送られた画像を、本発明の画像合成装置において合成し、端末装置に返送するサービス形態も考えられる。 Examples of the industrial application field of the present invention include software for synthesizing spread pages such as magazines described above and aerial photographs, and a color digital copier that automatically repairs a binding portion of a color spread page. In addition, the image composition device of the present invention and a terminal device such as a personal computer are connected via the Internet or the like, and an image sent from the terminal device is composed by the image composition device of the present invention and returned to the terminal device. Service forms are also conceivable.
1,100画像合成装置
600 画像複写装置
1,100
Claims (12)
第1の画像と第2の画像の入力を受け付ける画像入力手段と、
上記第1の画像と第2の画像の間に空隙が存在する状態で当該第1の画像と第2の画像を合成した合成画像を生成する画像合成手段と、
上記空隙内の調査点γを通る直線Lを複数設定する直線設定手段と、
上記第1の画像の空隙側エッジ部αと上記直線Lとの交点P、及び上記第2の画像の空隙側エッジ部βと当該直線Lとの交点Q、を算出する交点算出手段と、
上記直線Lから、上記交点P,Qの色情報の差が最小となる直線L’を選択する直線選択手段と、
上記直線選択手段において選択された上記直線L’の交点P’,Q’の色情報を用い、上記調査点γの色情報を決定する色情報決定手段と、
を有することを特徴とする画像合成装置。 An image composition device for compositing a plurality of images,
Image input means for receiving input of the first image and the second image;
Image synthesizing means for generating a synthesized image obtained by synthesizing the first image and the second image in a state where a gap exists between the first image and the second image;
Straight line setting means for setting a plurality of straight lines L passing through the investigation point γ in the gap;
An intersection calculation means for calculating an intersection P between the gap-side edge portion α of the first image and the straight line L and an intersection point Q of the gap-side edge portion β of the second image and the straight line L;
Straight line selection means for selecting, from the straight line L, a straight line L ′ that minimizes the difference in color information between the intersection points P and Q;
Color information determination means for determining color information of the survey point γ using color information of intersections P ′ and Q ′ of the straight line L ′ selected by the straight line selection means;
An image synthesizing apparatus comprising:
上記色情報決定手段は、
上記調査点γと上記交点P,Qとの距離に応じ、当該交点P,Qの色情報に重み付けを行い、上記調査点γの色情報を決定する手段であり、
上記交点P,Qの色情報に付される重みは、
当該交点P,Qが上記調査点γに近いほど大きい、
ことを特徴とする画像合成装置。 The image composition apparatus according to claim 1,
The color information determining means is
A means for weighting the color information of the intersection points P and Q according to the distance between the investigation point γ and the intersection points P and Q, and determining the color information of the investigation point γ,
The weight given to the color information of the intersections P and Q is
The intersections P and Q are larger as they are closer to the survey point γ.
An image composition device characterized by the above.
上記第1の画像及び第2の画像を出力する画像出力手段と、
画像のコントラスト或いは明るさを変化させるための調整情報の入力を受け付ける調整情報入力手段と、
上記調整情報に基づき、上記第1の画像及び第2の画像の少なくとも一方の、コントラスト及び明るさの少なくとも一方を変化させる画像調整手段と、
をさらに有し、
上記画像合成手段は、
上記画像調整手段においてコントラスト及び明るさの少なくとも一方を変化させた上記第1の画像或いは第2の画像を用い、上記合成画像を生成する手段である、
ことを特徴とする画像合成装置。 The image composition apparatus according to claim 1,
Image output means for outputting the first image and the second image;
Adjustment information input means for receiving input of adjustment information for changing the contrast or brightness of the image;
Image adjusting means for changing at least one of contrast and brightness of at least one of the first image and the second image based on the adjustment information;
Further comprising
The image composition means
Means for generating the composite image using the first image or the second image in which at least one of contrast and brightness is changed in the image adjusting means;
An image composition device characterized by the above.
上記第1の画像及び上記第2の画像について、輝度とその輝度を有するピクセルの数(カウント数)とのヒストグラムを生成するヒストグラム生成手段と、
上記第1の画像に対応する上記ヒストグラムH1の幅(上記カウント数が閾値以上となっている輝度の最大値から、上記カウント数が閾値以上となっている輝度の最小値を引いた値)と、上記第2の画像に対応する上記ヒストグラムH2の幅と、の差が許容範囲内となるまで、上記第1の画像及び第2の画像の少なくとも一方のコントラストを変化させるコントラスト調整手段と、
上記ヒストグラムH1の位置(上記カウント数が閾値以上となっている輝度の最小値或いは最大値)と、上記ヒストグラムH2の位置と、の差が許容範囲内となるまで、上記第1の画像及び第2の画像の少なくとも一方の明るさを変化させる明るさ調整手段と、
さらに有し、
上記画像合成手段は、
上記コントラスト調整手段及び上記明るさ調整手段において、コントラスト及び明るさの少なくとも一方を変化させた上記第1の画像或いは第2の画像を用い、上記合成画像を生成する手段である、
ことを特徴とする画像合成装置。 The image composition apparatus according to claim 1,
Histogram generation means for generating a histogram of the luminance and the number of pixels having the luminance (count number) for the first image and the second image;
The first image to the histogram H 1 corresponding width (the maximum value of the luminance has become the count number is equal to or greater than the threshold, minus the minimum value of the luminance which the count is greater than or equal to the threshold value) If, until the width of the histogram H 2 corresponding to the second image, the difference is made within an allowable range, a contrast adjusting means for changing at least one of contrast of the first image and the second image ,
Position of the histogram H 1 and (minimum value or maximum value of the luminance that is the above-mentioned counted number threshold or more), until the difference, and the position of the histogram H 2 is within the allowable range, the first image Brightness adjusting means for changing the brightness of at least one of the second image, and
In addition,
The image composition means
In the contrast adjustment unit and the brightness adjustment unit, the first image or the second image in which at least one of contrast and brightness is changed is used to generate the composite image.
An image composition device characterized by the above.
特定の調査点γを通る直線Lの傾き範囲を制限する境界情報の入力を受け付ける境界情報入力手段をさらに有し、
上記直線設定手段は、
上記境界情報が特定する制限範囲内で、上記特定の調査点γを通る直線Lを設定する手段である、
ことを特徴とする画像合成装置。 The image composition apparatus according to claim 1,
Boundary information input means for receiving input of boundary information that limits the inclination range of the straight line L passing through the specific survey point γ,
The straight line setting means includes:
A means for setting a straight line L passing through the specific investigation point γ within the limit range specified by the boundary information.
An image composition device characterized by the above.
第1の画像と第2の画像の入力を受け付ける画像入力手段と、
上記第1の画像と第2の画像の間に空隙が存在する状態で当該第1の画像と第2の画像を合成した合成画像Aを生成する画像合成手段と、
上記合成画像Aの複製データである複製合成画像Bを生成する画像複製手段と、
上記複製合成画像Bの特異点を除去した特異点除去画像B’を生成するフィルタ手段と、
上記特異点除去画像B’の空隙内の調査点γを通る直線Lを複数設定する直線設定手段と、
上記第1の画像(上記特異点除去画像B’における)の空隙側エッジ部αと上記直線Lとの交点P、及び上記第2の画像(上記特異点除去画像B’における)の空隙側エッジ部βと当該直線Lとの交点Q、を算出する交点算出手段と、
上記直線Lから、上記交点P,Qの色情報の差が最小となる直線L’を選択する直線選択手段と、
上記直線選択手段において選択された上記直線L’の交点P’,Q’の色情報を用い、上記調査点γの色情報を決定する色情報決定手段と、
決定された上記調査点γの色情報の集合によって、上記合成画像Aの空隙を補完した補完画像A’を生成する補完手段と、
を有することを特徴とする画像合成装置。 An image composition device for compositing a plurality of images,
Image input means for receiving input of the first image and the second image;
Image synthesizing means for generating a synthesized image A obtained by synthesizing the first image and the second image in a state where a gap exists between the first image and the second image;
Image duplicating means for creating a duplicate composite image B which is duplicate data of the composite image A;
Filter means for generating a singularity-removed image B ′ from which the singularity of the duplicate composite image B has been removed;
Straight line setting means for setting a plurality of straight lines L passing through the investigation points γ in the gap of the singular point removal image B ′;
The intersection P between the air gap side edge portion α of the first image (in the singular point removal image B ′) and the straight line L, and the air gap side edge of the second image (in the singular point removal image B ′). Intersection calculating means for calculating an intersection Q between the part β and the straight line L;
Straight line selection means for selecting, from the straight line L, a straight line L ′ that minimizes the difference in color information between the intersection points P and Q;
Color information determination means for determining color information of the survey point γ using color information of intersections P ′ and Q ′ of the straight line L ′ selected by the straight line selection means;
Complementing means for generating a complementary image A ′ that complements the gap of the composite image A by the set of color information of the determined survey point γ,
An image synthesizing apparatus comprising:
上記第1の画像或いは上記第2の画像の特異点成分からなる特異点画像Dを生成する特異点画像生成手段と、
上記特異点画像Dから、上記空隙と同じ形状の画像(以下「付加画像E」という。)を切り取る画像切り取り手段と、
上記付加画像Eを上記補完画像A’の補完部分に合成する特異点付加手段と、
をさらに有することを特徴とする画像合成装置。 The image composition apparatus according to claim 6,
Singularity image generation means for generating a singularity image D comprising the singularity component of the first image or the second image;
Image cutting means for cutting an image having the same shape as the void (hereinafter referred to as “additional image E”) from the singular point image D;
Singularity adding means for synthesizing the additional image E with a complementary portion of the complementary image A ′;
An image synthesizing apparatus further comprising:
上記付加画像Eは、
上記特異点画像Dの空隙側エッジ部分である、
ことを特徴とする画像合成装置。 The image composition device according to claim 7,
The additional image E is
The gap side edge portion of the singular point image D,
An image composition device characterized by the above.
上記特異点付加手段は、
上記付加画像Eの輝度値を減じた後、当該付加画像Eを上記補完画像A’の補完部分に合成する手段である、
ことを特徴とする画像合成装置。 The image composition device according to claim 7,
The singularity adding means is
Means for reducing the luminance value of the additional image E and then combining the additional image E with a complementary portion of the complementary image A ′;
An image composition device characterized by the above.
画像の入力を受け付ける画像入力手段と、
上記画像の中心部分を通り、当該画像を横断する矩形状の空隙を生成し、上記画像を第1の画像と第2の画像に分割する空隙生成手段と、
上記空隙内の調査点γを通る直線Lを複数設定する直線設定手段と、
上記第1の画像の空隙側エッジ部αと上記直線Lとの交点P、及び上記第2の画像の空隙側エッジ部βと当該直線Lとの交点Q、を算出する交点算出手段と、
上記直線Lから、上記交点P,Qの色情報の差が最小となる直線L’を選択する直線選択手段と、
上記直線選択手段において選択された上記直線L’の交点P’,Q’の色情報を用い、上記調査点γの色情報を決定する色情報決定手段と、
を有することを特徴とする画像複写装置。 An image copying apparatus for copying an image,
Image input means for receiving image input;
A void generating means for generating a rectangular void passing through the central portion of the image and crossing the image, and dividing the image into a first image and a second image;
Straight line setting means for setting a plurality of straight lines L passing through the investigation point γ in the gap;
An intersection calculation means for calculating an intersection P between the gap-side edge portion α of the first image and the straight line L and an intersection point Q of the gap-side edge portion β of the second image and the straight line L;
Straight line selection means for selecting, from the straight line L, a straight line L ′ that minimizes the difference in color information between the intersection points P and Q;
Color information determination means for determining color information of the survey point γ using color information of intersections P ′ and Q ′ of the straight line L ′ selected by the straight line selection means;
An image copying apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004097252A JP4500083B2 (en) | 2004-03-29 | 2004-03-29 | Image composition apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004097252A JP4500083B2 (en) | 2004-03-29 | 2004-03-29 | Image composition apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005284685A true JP2005284685A (en) | 2005-10-13 |
JP4500083B2 JP4500083B2 (en) | 2010-07-14 |
Family
ID=35182997
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004097252A Expired - Fee Related JP4500083B2 (en) | 2004-03-29 | 2004-03-29 | Image composition apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4500083B2 (en) |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05153562A (en) * | 1991-12-02 | 1993-06-18 | Matsushita Electric Ind Co Ltd | Correlation detection interpolation method and device |
JP2754954B2 (en) * | 1991-06-14 | 1998-05-20 | 松下電器産業株式会社 | Image signal correlation detection and interpolation device |
JPH1141565A (en) * | 1997-07-23 | 1999-02-12 | Sharp Corp | Image data interpolation device |
JPH11289447A (en) * | 1998-04-02 | 1999-10-19 | Fuji Photo Film Co Ltd | Picture processing method and picture processor |
JP2001094951A (en) * | 1999-09-21 | 2001-04-06 | Sanyo Electric Co Ltd | Scanning line interpolation method |
JP2001103351A (en) * | 1999-09-29 | 2001-04-13 | Fuji Photo Film Co Ltd | Camera with printer |
JP3438032B2 (en) * | 1994-03-15 | 2003-08-18 | 松下電器産業株式会社 | Spatial frequency adaptive interpolation method and spatial frequency adaptive interpolation device |
JP3455784B2 (en) * | 1992-02-15 | 2003-10-14 | 鐘淵化学工業株式会社 | Creating a panoramic electronic photograph |
JP2004072528A (en) * | 2002-08-07 | 2004-03-04 | Sharp Corp | Method and program for interpolation processing, recording medium with the same recorded thereon, image processor and image forming device provided with the same |
WO2004051575A1 (en) * | 2002-12-05 | 2004-06-17 | Seiko Epson Corporation | Characteristic region extraction device, characteristic region extraction method, and characteristic region extraction program |
JP2004312549A (en) * | 2003-04-09 | 2004-11-04 | Sharp Corp | Panoramic image photographing apparatus and panoramic image photographing method |
JP2004334843A (en) * | 2003-04-15 | 2004-11-25 | Seiko Epson Corp | Method of composting image from two or more images |
JP2005191894A (en) * | 2003-12-25 | 2005-07-14 | Casio Comput Co Ltd | Camera device and program |
JP2005223905A (en) * | 2004-02-04 | 2005-08-18 | Hewlett-Packard Development Co Lp | Digital camera and method for making still panorama photograph and combined photograph |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DK501585A (en) * | 1984-11-05 | 1986-05-06 | Dow Chemical Co | MEMBRANE UNIT FOR AN ELECTROLYCLE CELL |
-
2004
- 2004-03-29 JP JP2004097252A patent/JP4500083B2/en not_active Expired - Fee Related
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2754954B2 (en) * | 1991-06-14 | 1998-05-20 | 松下電器産業株式会社 | Image signal correlation detection and interpolation device |
JPH05153562A (en) * | 1991-12-02 | 1993-06-18 | Matsushita Electric Ind Co Ltd | Correlation detection interpolation method and device |
JP3455784B2 (en) * | 1992-02-15 | 2003-10-14 | 鐘淵化学工業株式会社 | Creating a panoramic electronic photograph |
JP3438032B2 (en) * | 1994-03-15 | 2003-08-18 | 松下電器産業株式会社 | Spatial frequency adaptive interpolation method and spatial frequency adaptive interpolation device |
JPH1141565A (en) * | 1997-07-23 | 1999-02-12 | Sharp Corp | Image data interpolation device |
JPH11289447A (en) * | 1998-04-02 | 1999-10-19 | Fuji Photo Film Co Ltd | Picture processing method and picture processor |
JP2001094951A (en) * | 1999-09-21 | 2001-04-06 | Sanyo Electric Co Ltd | Scanning line interpolation method |
JP2001103351A (en) * | 1999-09-29 | 2001-04-13 | Fuji Photo Film Co Ltd | Camera with printer |
JP2004072528A (en) * | 2002-08-07 | 2004-03-04 | Sharp Corp | Method and program for interpolation processing, recording medium with the same recorded thereon, image processor and image forming device provided with the same |
WO2004051575A1 (en) * | 2002-12-05 | 2004-06-17 | Seiko Epson Corporation | Characteristic region extraction device, characteristic region extraction method, and characteristic region extraction program |
JP2004312549A (en) * | 2003-04-09 | 2004-11-04 | Sharp Corp | Panoramic image photographing apparatus and panoramic image photographing method |
JP2004334843A (en) * | 2003-04-15 | 2004-11-25 | Seiko Epson Corp | Method of composting image from two or more images |
JP2005191894A (en) * | 2003-12-25 | 2005-07-14 | Casio Comput Co Ltd | Camera device and program |
JP2005223905A (en) * | 2004-02-04 | 2005-08-18 | Hewlett-Packard Development Co Lp | Digital camera and method for making still panorama photograph and combined photograph |
Also Published As
Publication number | Publication date |
---|---|
JP4500083B2 (en) | 2010-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4892558B2 (en) | Image fusion | |
US8401284B2 (en) | Color correcting method and apparatus | |
Liu et al. | Optimizing photo composition | |
US8391593B2 (en) | Image processing methods and systems | |
JP3690391B2 (en) | Image editing apparatus, image trimming method, and program | |
JP2004348211A (en) | Data-editing device, data-editing method, and program | |
JP2008052326A (en) | Electronic album generation apparatus, electronic album generation method, and its program | |
CN101276363A (en) | Document image retrieval device and document image retrieval method | |
US20010004258A1 (en) | Method, apparatus and recording medium for generating composite image | |
JP2007158824A (en) | Image processor, flesh tone adjusting method, and program | |
CN107636728A (en) | For the method and apparatus for the depth map for determining image | |
KR20220084136A (en) | Learning Support Devices, Learning Devices, Learning Support Methods and Learning Support Programs | |
JP4348956B2 (en) | Image layout apparatus, image layout method, and program in image layout apparatus | |
JP7195220B2 (en) | LEARNING DEVICE, METHOD OF OPERATION OF LEARNING DEVICE, AND OPERATION PROGRAM OF LEARNING DEVICE | |
JP4500083B2 (en) | Image composition apparatus and program | |
JPH09190546A (en) | Automatic image editing device | |
US8086060B1 (en) | Systems and methods for three-dimensional enhancement of two-dimensional images | |
JP3584179B2 (en) | Image processing method, image processing device, and storage medium | |
JP4057102B2 (en) | Digital image articulated rendering method | |
JP3570236B2 (en) | Image processing method and storage medium storing the program | |
JP5158974B2 (en) | Attention area extraction method, program, and image evaluation apparatus | |
WO2000033207A1 (en) | Digital image improvement through genetic image evolution | |
JP6750094B2 (en) | Image evaluation apparatus, image evaluation method, and image evaluation program | |
JP4184061B2 (en) | Stereoscopic image editing apparatus and stereoscopic image editing program | |
EP1206117A2 (en) | Method and apparatus for image capture, selection and copying |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20040331 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040621 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070320 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20070320 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20070320 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100223 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100304 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100330 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100416 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130423 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4500083 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160423 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |