JPH03182976A - Joining method for digital picture - Google Patents

Joining method for digital picture

Info

Publication number
JPH03182976A
JPH03182976A JP1321731A JP32173189A JPH03182976A JP H03182976 A JPH03182976 A JP H03182976A JP 1321731 A JP1321731 A JP 1321731A JP 32173189 A JP32173189 A JP 32173189A JP H03182976 A JPH03182976 A JP H03182976A
Authority
JP
Japan
Prior art keywords
image
images
joining
density
pictures
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1321731A
Other languages
Japanese (ja)
Inventor
Tsugio Itagaki
次男 板垣
Makoto Kobayashi
信 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Steel Corp
Original Assignee
Sumitomo Metal Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Metal Industries Ltd filed Critical Sumitomo Metal Industries Ltd
Priority to JP1321731A priority Critical patent/JPH03182976A/en
Publication of JPH03182976A publication Critical patent/JPH03182976A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To attain the automatic joint of pictures by extracting two particle parts formed by means of the specified number of picture elements as characteristic particles and joining two pictures by means of a straight line connecting the centroid coordinates of two characteristic particles in two pictures. CONSTITUTION:Two digital pictures 1MA and 1MB which are overlapped and image-picked up are density-converted so that density becomes equal, and are binarized. In respective pictures, two particle parts composed of the specified number of the picture elements are automatically extracted as the characteristic particles (a), (b), a' and b'. Then the pictures are joined with the straight line as a joining line. For generating what is called a panoramic photograph by joining plural digital pictures which are overlapped and are continuously image- picked up, the difference of gradation, the incontinuity of a joining part and the like can be excluded and automatic joint is attained.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は画像の接合、即ちオーバラップして連続的に撮
像された複数のディジタル画像を接合して所謂パノラマ
写真を作成する方法に関し、特に金属Mi織検査のため
の結晶写真あるいは鋳片断面写真を階調の差、接合部の
不連続性等を排除して接合する方法に関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to image joining, that is, a method for creating a so-called panoramic photograph by joining a plurality of overlapping and continuously captured digital images. This invention relates to a method for joining crystal photographs or slab cross-sectional photographs for inspecting metal Mi textures while eliminating gradation differences, discontinuities in joints, etc.

〔従来の技術〕[Conventional technology]

従来、風景写真であると顕微鏡写真であるとを問わず複
数の写真を接合して所謂パノラマ写真を作成する際には
、光学写真機及び銀塩フィルムを使用して被写体を撮像
し、それぞれの画像を印画紙に引伸して焼付、現像して
得られる写真を切り貼りにより接合していた。
Traditionally, when creating a so-called panoramic photograph by joining multiple photographs, whether landscape photographs or microscopic photographs, an optical camera and silver halide film are used to image the subject, and each The images were enlarged onto photographic paper, printed, developed, and the resulting photographs were joined together by cutting and pasting.

一方、所謂ディジタル画像処理技術の発展により、テレ
ビジョンカメラあるいは走査型電子顕微鏡(SEM:S
canning Electron Microsco
pe)等で得られた画像を電子情報として得ることが出
来る撮像装置が背反している。
On the other hand, with the development of so-called digital image processing technology, television cameras and scanning electron microscopes (SEM)
canning Electron Microsco
Imaging devices that can obtain images obtained with pe) and the like as electronic information are at odds.

このようなディジタルの撮像装置では、たとえば金属M
i織検査に使用される写真の品質としては、256階調
で5cm四方のサイズで1024 X 1024画素(
1■当たり約20画素)の原画像が得られれば実用上の
問題が無いことが実験的に確認されている。更に、上述
のようにしてディジタル処理された画像情報を最終的に
印画紙に焼付けた際の写真画像においては、256階調
でA4サイズ印画紙に2400万画素以上あれば実用上
の問題が無いことが判っている。
In such a digital imaging device, for example, a metal M
The quality of the photo used for i-weave inspection is 1024 x 1024 pixels (5cm square size) with 256 gradations (
It has been experimentally confirmed that there are no practical problems if an original image of approximately 20 pixels per square inch is obtained. Furthermore, when the image information digitally processed as described above is finally printed on photographic paper, there is no practical problem as long as the photographic image has 256 gradations and 24 million pixels or more on A4 size photographic paper. It is known that.

ところで、ディジタル画像処理に際しては、被写体はテ
レビジョンカメラあるいは電子顕微鏡等により撮像され
、その際の撮像倍率と画像のサイズとは印画紙に焼付け
られるまでその関係が保持される必要がある。撮像され
た各画像は露出量の相異に起因する明暗差、撮像装置の
光学系の周辺光量の不足に起因する同一画像上での明暗
の不均一性、光学系の収差による像の形状及び大きさの
歪等を有する。このため、従来の通常の写真によるパノ
ラマ写真の作成に際しても、撮像された写真をトリミン
グしてその中央部分のみを使用して接合することが一般
的である。
By the way, in digital image processing, an object is imaged by a television camera, an electron microscope, etc., and the relationship between the imaging magnification and the size of the image must be maintained until it is printed on photographic paper. Each captured image has differences in brightness due to differences in exposure amount, non-uniformity in brightness on the same image due to lack of peripheral light in the optical system of the imaging device, image shape due to aberration of the optical system, and It has size distortion, etc. For this reason, even when creating a panoramic photograph using conventional ordinary photographs, it is common to trim the taken photographs and join them together using only the central portion.

以」二のように、たとえば金属′a織検査をする目的で
接合される従来の通常の写真は、検査対象部分の露出及
び画質不良等の原因により撮像及び焼付けを再実行する
必要に迫られることが多い。更に、従来の手法ではフィ
ルム現像、引伸、焼付等には熟練技術が要求され、更に
写真の接合作業ばかなり細かい手作業になる。このため
、充分な階調及び解像度を有する画像をディジタル処理
により接合することが可能になれば、アフィン変換ラプ
ラシアン等により階調、鮮映度2画像歪、明暗等の改善
が容易になる。
As mentioned above, for example, conventional ordinary photographs that are spliced together for the purpose of inspecting metal abrasion fabrics have to be photographed and printed again due to exposure of the inspection target area and poor image quality. There are many things. Furthermore, in the conventional method, skilled techniques are required for film development, enlargement, printing, etc., and furthermore, the work of joining photographs requires quite detailed manual work. Therefore, if it becomes possible to join images having sufficient gradation and resolution through digital processing, it becomes easy to improve gradation, sharpness, image distortion, brightness, etc. using affine transformation Laplacian or the like.

このような観点から、本願発明者らは先に複数のディジ
タル画像を接合する方法の提供を目的として特願平1−
85939号の発明を提案している。
From this point of view, the inventors of the present application first published Japanese Patent Application No.
The invention of No. 85939 is proposed.

この特願”F l−85939号の発明は、端的には「
 階調を有し、相互にオーバラップして撮像された複数
のディジクル画像を接合する方法において、 接合対象の二つの画像それぞれにおける共通の2点を任
意に抽出し、 それぞれの画像において前記2点間を結ぶ直線を接合線
として両画像を接合すると共に、接合対象の各画像の明
暗分布の平均を求めて各画像の階調補正を行うこと」 を特徴とする。
The invention of this patent application No. Fl-85939 can be summarized as “
In a method of joining a plurality of digital images that have gradation and are taken in an overlapping manner, two common points in each of the two images to be joined are arbitrarily extracted, and the two points are combined in each image. The two images are joined using a straight line connecting them as a joining line, and the gradation of each image is corrected by calculating the average of the brightness distribution of each image to be joined.

〔発明が解決しようとする課題) ところで、上述の特願平1−85939号の発明の実施
に際して、「接合対象の二つの画像それぞれにおける共
通の2点を任意に抽出」する作業を実行した場合、以下
のような問題があることが判明した。
[Problem to be Solved by the Invention] By the way, when carrying out the invention of the above-mentioned Japanese Patent Application No. 1-85939, if the work of "arbitrarily extracting two common points in each of two images to be joined" is carried out, The following problems were found.

(1)二つの画像相互間の濃度差が大きい場合は、21
通点の抽出が非常に困難である。就中、画像処理装置に
よる自動抽出は現実的に不可能である。
(1) If the density difference between two images is large, 21
Extracting points is extremely difficult. In particular, automatic extraction by an image processing device is practically impossible.

(2)共通点をオペレータが任意に選択して画面」二で
操作するため、共通点の座標値が検出されない。
(2) Since the operator arbitrarily selects a common point and operates it on screen 2, the coordinate values of the common point are not detected.

このような問題の存在のために自動接合は事実上不可能
である。
Due to the existence of such problems, automatic joining is virtually impossible.

本発明はこのような事情に鑑みてなされたものであり、
画像の自動接合を可能にしたディジタル画像の接合方法
の提供を目的とする。
The present invention was made in view of these circumstances, and
The purpose of this invention is to provide a digital image joining method that enables automatic joining of images.

〔課題を解決するための手段〕[Means to solve the problem]

本発明のディジタル画像の接合方法は、テレビジョンカ
メラあるいは電子顕微鏡等により得られた画像情報をデ
ィジタルデータ化し、このディジタルデータ化された画
像をたとえば本願発明者らがディジタル画像の濃度均一
化、即ち二つの画像の濃度が等しくなるように双方の画
像または一方の画像の濃度を変換することを目的として
先に特願平1−110615号の発明で提案している画
像処理手法により画像間の濃度を均一化し、更に2値化
し、接合の直接の対象である二つの画像において特定画
素数にて形成される粒子状部分を特徴粒子として2個抽
出し、この2個の特徴粒子の重心座標を結ぶ直線で二つ
の画像を接合するものである。
The digital image joining method of the present invention converts image information obtained by a television camera or an electron microscope into digital data, and the inventors of the present invention convert the digital image into digital data by, for example, making the density of the digital images uniform. For the purpose of converting the density of both images or one of the images so that the density of the two images becomes equal, the density between the images is changed using an image processing method previously proposed in the invention of Japanese Patent Application No. 1-110615. is equalized, further binarized, two particulate parts formed by a specific number of pixels in the two images that are the direct targets of joining are extracted as characteristic particles, and the barycentric coordinates of these two characteristic particles are calculated. It joins two images with a connecting straight line.

〔作用〕[Effect]

本発明方法では、オーパラ・7プして撮像されたつのデ
ィジタル画像の濃度が等しくなるように濃度変換された
後に2値化され、それぞれの画像におい゛ζ特疋の画素
数にてB6威される粒子状部分が特徴粒子として自動的
に2個抽出され、両者を結ぶ直線を接合線として画像が
接合される。
In the method of the present invention, two digital images taken in an optical system are converted into two digital images so that their densities are equal, and then binarized. Two particulate parts are automatically extracted as characteristic particles, and the images are joined using a straight line connecting the two as a joining line.

〔発明の原理〕[Principle of the invention]

以下、本発明の原理についてまず説明する。 Hereinafter, the principle of the present invention will first be explained.

いまたとえば第1図に示す如く、二つのディジタル画像
IMAとIMBとを接合するとする。この場合、両者は
それぞれの一部分が互いにオーバラップしてたとえば2
56階調で撮像されている。
For example, suppose two digital images IMA and IMB are to be joined as shown in FIG. In this case, both parts overlap each other, for example, 2
The image is captured with 56 gradations.

まず一方の画像IMAを画像処理装置に入力し、たとえ
ば特願平1−110615−qの発明の手法に従って濃
度の均一化処理、即ち双方の画像の濃度を等しくするた
めの処理を実施する。次に、画像IMAの画像IFnと
オーハラツブしている範囲内において濃度レヘルの10
0階調(=1近を閾植として2値化処理を施す。
First, one image IMA is input to an image processing apparatus, and a density equalization process, that is, a process for making the densities of both images equal, is performed, for example, according to the method of the invention of Japanese Patent Application No. 1-110615-q. Next, within the range overlapping with the image IFn of the image IMA, the density level is 10.
Binarization processing is performed using the 0 gradation (=near 1) as a threshold.

この後、オーバランプ範囲内での抽出粒子が2個になる
ように粒子カッI・を実施する。この粒子カットとは、
2値化後の画像上で粒子状に表現されている部分の画素
数を特定範囲に限定することにより、粒子を抽出するも
のであり、最終的に2個の粒子が抽出される。
After this, particle cutting is performed so that two particles are extracted within the overlamp range. What is this particle cut?
Particles are extracted by limiting the number of pixels in a portion expressed in a particle form on a binarized image to a specific range, and ultimately two particles are extracted.

たとえば、画像IMAが第2図[alに示す如きである
とする。この画像IMAは256階調であるので、これ
を100階調付近で2値化処理すると第2図(blに示
す如く比較的濃度が濃い部分のみが残った画像が得られ
る。この第2図(blに示す如き画像上に散在するそれ
ぞれの粒子状部分を形成する画素数が計数され、特定の
画素数範囲の部分のみが抽出される。抽出された粒子状
部分が2個より多ければ画素数範囲が狭められ、最後の
2個の粒子が抽出されるまで反復される。第2図fc)
は2個の粒子が特徴粒子A、 Bとして抽出された状態
を示している。なお、第2図(al及び(blには特徴
粒子A、 Bとして抽出されべき粒子を(A)、 (I
I)として示しである。
For example, assume that the image IMA is as shown in FIG. 2 [al]. This image IMA has 256 gradations, so if it is binarized at around 100 gradations, an image in which only relatively high-density parts remain, as shown in Figure 2 (bl), is obtained. (The number of pixels forming each particulate part scattered on the image as shown in bl is counted, and only parts within a specific pixel number range are extracted. If the number of extracted particulate parts is more than 2, the number of pixels The number range is narrowed and iterated until the last two particles are extracted (Fig. 2 fc).
shows a state in which two particles are extracted as characteristic particles A and B. In addition, in Figure 2 (al and (bl), the particles to be extracted as characteristic particles A and B are shown as (A), (I
It is shown as I).

そして、抽出された2個の粒子の重心座標を求め、画像
の完了情報として格納し、マスターCPUへ送信する。
Then, the barycenter coordinates of the two extracted particles are determined, stored as image completion information, and transmitted to the master CPU.

他方の画像IMBについても同様の処理を施す。Similar processing is performed on the other image IMB.

つの画像IMA、IMBからそれぞれ抽出された2個の
粒子の重心座標をそれぞれa、b及びa’、 b“とす
る。
The barycentric coordinates of two particles extracted from two images IMA and IMB are respectively a, b and a', b''.

次に、それぞれの画像IMA及びIMBを一方の重心座
標、たとえばaとaoとを一致さセて両画像IMA及び
IMBを重合わせる。そして、両画像IMA及びIMB
それぞれのもう一方の重心座標すとb゛とを一致させる
べく、いずれかの画像IMA又はIMBを点aを中心と
して回転させる。ここで ab−a’b” であるから、三角形abb’は二等辺三角形である。
Next, the center of gravity coordinates of one of the images IMA and IMB, for example, a and ao, are made to match and the images IMA and IMB are superimposed. And both images IMA and IMB
Either image IMA or IMB is rotated around point a in order to match the other barycentric coordinates and b'. Here, since ab-a'b'', triangle abb' is an isosceles triangle.

更に、画像rMAの表示画面上への正射投影位置と画像
TMBの表示画面上への正射投影位置との関係からbb
’間の距離が判明するので、点すと点b゛とを一致させ
るために必要な回転角θは第3図か但し、e:abの長
さ r : bb’の長さ にて求められる。
Furthermore, from the relationship between the orthogonal projection position of image rMA onto the display screen and the orthogonal projection position of image TMB onto the display screen, bb
Since the distance between ' is known, the rotation angle θ necessary to make the point and point b coincide with each other can be found as shown in Figure 3. However, e: length of ab: r: length of bb' .

このようにして画像IMAとI[3とを重ね合わせた後
、両画像TMA及びTMBの線分abを境界とするいず
れの部分を選択して接合するかを決定する。
After images IMA and I[3 are superimposed in this way, it is determined which part of both images TMA and TMB, with line segment ab as the boundary, should be selected and joined.

即ち、第4図に示す如く、 (11画画像MAの斜線部を採用して両画像TMA及び
IMBを接合する、 (2)画像rMBの斜線部を採用して両画像IMA及び
IMBを接合する、 (3)両画像IMA及びIMBの斜線部を捨てて接合す
る。
That is, as shown in FIG. 4, (The shaded area of the 11th image MA is used to join both images TMA and IMB. (2) The shaded area of image rMB is used to join both images IMA and IMB. , (3) Discard the shaded parts of both images IMA and IMB and join them.

以上により両画像IMA及びIMBが接合され、つの画
像が得られる。
As described above, both images IMA and IMB are joined to obtain one image.

〔発明の実施例〕[Embodiments of the invention]

以下、本発明をその実施例を示す図面に基づいて詳述す
る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described in detail below based on drawings showing embodiments thereof.

第5図は本発明に係るディジタル画像の接合方法の実施
に使用される画像処理装置のシステム構成を示す模式図
である。なお、本実施例では金属試験に適用される構成
を採っている。
FIG. 5 is a schematic diagram showing the system configuration of an image processing apparatus used to implement the digital image joining method according to the present invention. Note that this embodiment adopts a configuration that is applied to metal tests.

第5図中、参照符号1はホストcPUであり、撮影情報
入力手段として使用される。ホス+−cp旧ば32ビッ
ト幅の中央処理機構を備えている。またホスl−CPU
Iは後述する画像入力手段4にて被写体を撮像するオペ
レータに対する撮影依頼の撮影情報の登録及び後述する
マスタCPU2からの情報を処理する。
In FIG. 5, reference numeral 1 is a host cPU, which is used as photographing information input means. The old HOS+-CP has a 32-bit wide central processing unit. Also, the host l-CPU
I registers photographing information of a photographing request to an operator who photographs a subject using an image input means 4, which will be described later, and processes information from a master CPU 2, which will be described later.

ホス) CPUIからの撮影情報は主処理部であるマス
クCPU2にたとえばNEC社標準標準ヘル2B手順に
て与えられる。
The photographing information from the CPU is given to the mask CPU 2, which is the main processing section, according to, for example, the NEC standard HEL 2B procedure.

マスクCPU2は各部の制御を司り、光ケーブルネット
ワーク5を介して撮影情報を画像人力手段である7組の
画像人力部41〜47へ送る。
The mask CPU 2 controls each section, and sends photographing information via the optical cable network 5 to seven sets of image human power units 41 to 47, which are image human power means.

画像入力部41は、CCDカメラによる被写体の大型マ
クロ撮影を、同42はTTVカメラによる被写体の外観
撮影を、同43及び44は顕微鏡の画像をITVカメラ
により撮影した被写体のミクロ撮影を、同45はSEM
撮影を、同46はEPMA (Electron  r
’robeχ−Ray Microanalyzer:
電子線マイクロアナライザ)撮影を、同47は分析電顕
撮影をそれぞれ行う。
The image input unit 41 takes a large macro photograph of the subject using a CCD camera, 42 takes an external photograph of the subject using a TTV camera, 43 and 44 take a micro photograph of the subject obtained by taking a microscope image with an ITV camera, and 45 is SEM
The photograph was taken using an EPMA (Electron r
'robeχ-Ray Microanalyzer:
The electron beam microanalyzer (electron beam microanalyzer) is used for imaging, and the microanalyzer (47) is used for analytical electron microscopy.

マスクCPU2は各画像人力部41〜47により撮影さ
れた画像を受信し、光デイスク装置6に格納する。
The mask CPU 2 receives images photographed by each of the image processing units 41 to 47, and stores them in the optical disk device 6.

また、マスクCPU2は出力キューに格納されている組
立情報に基づいて画像を組立て、フォトプリンタ8の制
御CPUであるパーソナルコンピュータ7に送る。
Further, the mask CPU 2 assembles an image based on the assembly information stored in the output queue, and sends it to the personal computer 7, which is the control CPU of the photo printer 8.

フォトプリンタ8では、画像情報をレーザ出力に変換し
て感光紙上に潜像を形威し、この潜像を現像機9で現像
して顕像化する。
The photo printer 8 converts the image information into laser output to form a latent image on photosensitive paper, and the developing device 9 develops this latent image into a visible image.

第6図、第7図及び第8図は本発明のディジタル画像の
接合方法の処理手順を示すシステムフローチャーI・で
ある。以下、このフローチャートを参照して本発明方法
の手順について説明する。
FIGS. 6, 7, and 8 are system flowcharts I showing the processing procedure of the digital image joining method of the present invention. Hereinafter, the procedure of the method of the present invention will be explained with reference to this flowchart.

第6図は装置に作業指示を与える依頼票の入力手順を示
すフローチャートである。
FIG. 6 is a flowchart showing the procedure for inputting a request form for giving work instructions to the apparatus.

まず、オペレータがポストCPUIを操作することによ
り、画像接合要求の要否項目を含む依頼票を人力する(
ステップSl)。
First, by operating the post CPUI, the operator manually fills out a request form that includes items on whether or not an image joining request is required (
Step Sl).

次に、文字列情報の入力の要否が判定され(ステップS
2)、必要であると判定された場合には文字列情報が人
力される(ステップS3)。そして、2 人力された文字列情報と依頼票との自動編集に関する情
報がマスクCPU2内の自動編集ファイルに書込まれる
(ステップS4)。
Next, it is determined whether it is necessary to input character string information (step S
2) If it is determined that it is necessary, the character string information is entered manually (step S3). Then, information regarding the automatic editing of the manually entered character string information and the request form is written to the automatic editing file in the mask CPU 2 (step S4).

ステップS2において文字列情報の入力が不要であると
判定された場合は、ヘッダ情報、サンプル管理情報及び
指示情報のみがマスタCPU2内のそれぞれのファイル
に書込まれ(ステップ35)、依頼票の入力作業が終了
する。
If it is determined in step S2 that the input of character string information is unnecessary, only the header information, sample management information, and instruction information are written to the respective files in the master CPU 2 (step 35), and the request form is input. The work is finished.

第7図はフォーマットの登録作業の手順を示すフローチ
ャートである。
FIG. 7 is a flowchart showing the procedure of format registration work.

まず、フォーマントの修正が行われるのか新規登録が行
われるのかが判定される(ステップ511)。
First, it is determined whether the formant is to be modified or newly registered (step 511).

フォーマットが修正される場合はマスクCI’l+2か
ら光ケーブルネットワーク5を介して修正対象の登録済
みのフォーマットが画像編集装置3へ送られ(ステップ
512)、新規人力の場合はフォーマントが新たに作成
される (ステップ514)。
When the format is to be modified, the registered format to be modified is sent from the mask CI'l+2 to the image editing device 3 via the optical cable network 5 (step 512), and in the case of new manual editing, a new formant is created. (Step 514).

修正されたフォーマントまたは新規登録されたフォーマ
ットは光ケーブルネットワーク5を介してマスクCPU
2へ送られ、そのフォーマット管理情報ファイルに登録
される (ステップ515)。
The modified formant or newly registered format is sent to the mask CPU via the optical cable network 5.
2 and registered in its format management information file (step 515).

第8図は画像接合の実際の手順を示すフローチャートで
ある。この処理は画像入力部42〜45.47で行われ
る。
FIG. 8 is a flowchart showing the actual procedure of image joining. This processing is performed in the image input units 42 to 45 and 47.

まず、画像人力部42〜45.47は撮影に関する予定
表と撮影指示情報とをマスクCPU2から受信する(ス
テップ521)。各画像入力部42〜45.47は受信
した情報に従って画像を撮影して画像処理装置に人力し
くステップ522)、画像の濃度均一化処理を行う (
ステップ523)。
First, the image processing units 42 to 45.47 receive a schedule and shooting instruction information regarding shooting from the mask CPU 2 (step 521). Each of the image input units 42 to 45 and 47 captures an image according to the received information and manually sends the image to the image processing device (step 522) to perform image density uniformization processing (
Step 523).

このステップS23の画像濃度均一化の処理は第9図、
第10図及び第11図にそのフローチャートを示す如き
本願発明者らが先に出願している特願平1−11061
5号の発明の手順を利用する。
The image density uniformization process in step S23 is shown in FIG.
Japanese Patent Application No. 1-11061 previously filed by the present inventors, the flowchart of which is shown in FIGS. 10 and 11.
Utilize the procedure of invention No. 5.

第9図に示す手順は、領域固定濃度補正法と称される。The procedure shown in FIG. 9 is called a region-fixed density correction method.

まず、濃度補正が行われていない最初の生画像データが
入力される(ステップ5ill)。この生画像データは
一つのイメージフォーマツ!何二に配置されるべき複数
の画像の内の最初−枚であり、以下基準画像と称す。
First, the first raw image data that has not been subjected to density correction is input (step 5ill). This raw image data is one image format! This is the first image among a plurality of images to be placed in the second position, and is hereinafter referred to as a reference image.

次にこの基準画像全体の濃度分布が測定され、最適画像
濃度に変換される(ステップ5112)。
Next, the density distribution of this entire reference image is measured and converted to an optimal image density (step 5112).

次に基準画像の任意の所定位置に濃度比較のための領域
(以下、ウィンドと称す)が設定され、このウィンド内
の平均濃度値Aoが求められる(ステップS 113)
Next, an area for density comparison (hereinafter referred to as a window) is set at an arbitrary predetermined position of the reference image, and the average density value Ao within this window is determined (step S113).
.

ウィンド内で求められた基準画像の平均濃度値Aoは基
準画像の平均濃度値として記憶手段に格納される(ステ
ップS 114)。以上により基準画像に対する処理が
終了する。
The average density value Ao of the reference image found within the window is stored in the storage means as the average density value of the reference image (step S114). With the above steps, the processing for the reference image is completed.

次に、基準画像以外の生画像(以下、変換画像と称す)
が処理される。即ち、ステップ5111及び5113同
様に、画像データが人力され(ステップ5115)、基
準画像と同一の領域にウィンドを設定してその内部の平
均濃度値ACが求められる(ステップ5116)。そし
て、両画像のウィンド内の平均濃度値の差Sが求められ
(ステップ5l17)、変換画像の全画素の濃度が補正
される(ステップ3118)。
Next, raw images other than the reference image (hereinafter referred to as converted images)
is processed. That is, similarly to steps 5111 and 5113, the image data is input manually (step 5115), a window is set in the same area as the reference image, and the average density value AC within the window is determined (step 5116). Then, the difference S between the average density values within the window of both images is determined (step 5117), and the density of all pixels of the converted image is corrected (step 3118).

同一のイメージフォーマットに組込まれるべき5 全画像の濃度補正が完了するまでステップ5115から
5119までの処理が反復されることにより、画像濃度
の均一化処理が行われる。
By repeating the processing from steps 5115 to 5119 until the density correction of all five images to be incorporated into the same image format is completed, image density uniformization processing is performed.

第1O図は拡大率固定濃度補正法と称される手法の手順
を示すフローチャートである。
FIG. 1O is a flowchart showing the procedure of a method called a fixed magnification density correction method.

まず、一つの生画像データが入力され(ステップ5ll
l)、これが既に入力されている画像データと同一の拡
大率であるか否かが判定される(ステップ5121)。
First, one piece of raw image data is input (step 5ll).
l), it is determined whether this is the same enlargement ratio as the image data that has already been input (step 5121).

同一拡大率の画像データが過去に入力されていない場合
には、その画像データはその拡大率の画像群の基準画像
として前述の領域固定濃度補正法の場合同様にステップ
5112.5112.5114の処理が実施され、基準
画像ウィンド内の平均濃度値Aoが求められる。
If image data with the same magnification rate has not been input in the past, that image data is used as the reference image of the image group with that magnification rate and is processed in steps 5112, 5112, and 5114 in the same way as in the case of the area fixed density correction method described above. is performed, and the average density value Ao within the reference image window is determined.

ステップ5illにおいて人力された画像データの拡大
率が過去に人力された画像データのそれと同一である場
合、換言すればその画像データの拡大率と同一の拡大率
の画像データの平均濃度値が既に求めれている場合には
、前述の領域固定濃度補6 正洗のステップ5116.5117.5118の処理が
行われ、全画素について濃度補正が行われる。
In step 5ill, if the magnification rate of the image data manually inputted is the same as that of image data manually inputted in the past, in other words, the average density value of the image data with the same magnification rate as the magnification rate of the image data has already been calculated. If so, steps 5116, 5117, and 5118 of the area fixed density correction 6 normal cleaning described above are performed, and density correction is performed for all pixels.

以上により、同一拡大率の画像群に関して濃度均一化が
行われる。
As described above, density uniformization is performed for a group of images having the same magnification.

第11図は密度固定濃度補正法と称される手法の手順を
示すフローチャー1・である。
FIG. 11 is a flowchart 1 showing the procedure of a method called a fixed density concentration correction method.

この手法では、第9図に示した領域固定濃度補正法の場
合と同様に、ステップ5ill、 5112.5113
S114の順に処理されて基準画像の平均濃度値Aoが
求められる。
In this method, steps 5ill, 5112.5113 are performed similarly to the area fixed density correction method shown in FIG.
The process is performed in the order of S114 to obtain the average density value Ao of the reference image.

次に、やはり領域固定濃度補正法の場合と同様に、ステ
ップ5115にて変換画像が人力され、この画像のウィ
ンド設定係数が求められる(ステップS 131)。こ
れは、ステップ5111において人力された基準画像と
ステップ5115において入力された変換画像との拡大
率が異なる場合に、変換画像上で拡大率に応したウィン
ドを設定するための処理である。
Next, similarly to the area-fixed density correction method, the transformed image is manually input in step 5115, and the window setting coefficients for this image are determined (step S131). This is a process for setting a window corresponding to the enlargement ratio on the converted image when the reference image manually input in step 5111 and the converted image inputted in step 5115 have different enlargement ratios.

このようにして変換画像上にウィンドが設定されると、
以降は領域固定濃度補正法と同様にステップ5116.
5117.5118.5119の順に処理されて変換画
像の濃度補正が行われる。
When a window is set on the converted image in this way,
Thereafter, step 5116 is performed as in the area fixed density correction method.
5117.5118.5119 are processed in the order of density correction of the converted image.

以上のいずれか適当な手法により画像の濃度均一化処理
が完了すると、濃度均一化された各画像と処理が完了し
たことを示す完了情報とが原画像として各画像人力部4
2〜45.47のハードディスクに一時的に格納される
 (ステップ524)。
When the image density uniformization process is completed using any of the above-described appropriate methods, each density-uniformed image and completion information indicating that the process has been completed are transferred to each image human-powered unit 4 as an original image.
2 to 45.47 are temporarily stored on the hard disk (step 524).

次に、人力された画像が接合対象の画像であるか否かが
判定され(ステップ525)、接合対象の画像でない場
合にはステップS26〜S31のステップが省略される
Next, it is determined whether the manually created image is an image to be joined (step 525), and if it is not an image to be joined, steps S26 to S31 are omitted.

入力された画像が接合対象の画像である場合は、その画
像を濃度階調の100レヘル前後を闇値として2値化処
理が施され(ステップ326)、特定サイズ、即ち特定
の画素数にて構成されている粒子のみを抽出するために
、特定の画素数以外の画素数で構成されている粒子、即
ち範囲外粒子がカントされる (ステップ527)。ス
テ、ブS29では残っている粒子数が2個であるか否か
が判定され、2個になっていなければカット範囲が拡張
される(ステップ828)。
If the input image is an image to be spliced, the image is binarized with the density gradation of around 100 levels as the dark value (step 326), and the image is binarized with a specific size, that is, a specific number of pixels. In order to extract only particles that are composed of pixels, particles that are composed of a number of pixels other than a specific number of pixels, that is, particles that are outside the range, are canted (step 527). In step S29, it is determined whether the number of remaining particles is two, and if it is not two, the cutting range is expanded (step 828).

そして、カッI−後の粒子数が2個になるまでステップ
S27〜S29の処理が反復され、粒子数が2個になっ
た時点で抽出された粒子の重心座標が求められて完了情
報の一つとして各画像入力部42〜4547のハードデ
ィスクに格納される (ステップ531)。
Then, the processes of steps S27 to S29 are repeated until the number of particles after cutting becomes two, and when the number of particles reaches two, the centroid coordinates of the extracted particles are calculated and included in the completion information. The image data is stored as one in the hard disk of each image input unit 42 to 4547 (step 531).

この後、原画像と完了情報とは光ケーブルネットワーク
5を介してマス501口2に送信される (ステップ5
32)。マスクCI’l12は原画像と完了情報とを受
信すると(ステップ533)、光デイスク装置6に格納
しくステップ534)、完了情報及び自動編集情報を更
新する (ステップ535)。
After this, the original image and completion information are transmitted to the mass 501 port 2 via the optical cable network 5 (step 5
32). When the mask CI'12 receives the original image and the completion information (step 533), it stores them in the optical disk device 6 (step 534), and updates the completion information and automatic editing information (step 535).

次に、同一フオーマット内の画像の撮影が総て完了して
いるか否かが判定され(ステップ336)、完了してい
な場合にはステップS22へ処理が戻され、完了してい
る場合には自動編集タスクによりイメージ組立て情報が
作成され(ステップ537)、マスクCPU2内の出力
キューに登録される (ステップ338)。
Next, it is determined whether or not all images in the same format have been captured (step 336). If not, the process returns to step S22, and if it has been completed, the process is automatically Image assembly information is created by the editing task (step 537) and registered in the output queue within the mask CPU 2 (step 338).

9 次のステップS39では、イメージ組立−C情報に丞づ
いてイメージが組立てられる。このステップS39の処
理の一部としてステップS40.  S41で両像の接
合処理が行われる。ここで行われる画像の接合処理は、
ステップ326〜331に恥いて抽出された211通粒
子の重心座標を桔ふ直線を接合線として、必要があれば
直線移動及び四輪移動を行って両画像が接合される。
9 In the next step S39, an image is assembled based on the image assembly-C information. As part of the process of step S39, step S40. In S41, the two images are joined together. The image joining process performed here is
Using a straight line passing through the barycenter coordinates of the 211 particles extracted in steps 326 to 331 as a joining line, both images are joined by performing linear movement and four-wheel movement if necessary.

このようにして組立てられたイメージはフォトプリンタ
8に転送されて印画紙に焼(=1けられ(ステップ54
2)、現像機9に自動的に搬送されて現像処理される 
(ステップ543)。
The image assembled in this way is transferred to the photo printer 8 and printed on photographic paper (step 54).
2), automatically transported to the developing machine 9 and processed for development
(Step 543).

〔発明の効果] 以」二に詳述したり11<本発明によれば、接合列数の
二つの画像が自動的に接合されるので、フィルJ1.処
理薬晶雰の消耗品が不要となり、更に作業に熟練をそれ
程は要さない等の優れた効果を奏する。
[Effects of the Invention] As described in detail below, according to the present invention, two images of the number of joining rows are automatically joined, so that the fill J1. It has excellent effects such as eliminating the need for consumables for processing chemical crystals and not requiring much skill in the work.

【図面の簡単な説明】[Brief explanation of drawings]

第1図乃至第4図は本発明の詳細な説明図であ0 す、第1図は接合対象となる二つの画像及びその上に存
在する2個の特徴粒子を示す模式図、第2図は各画像上
で2個の特徴粒子を抽出する手順を示す模式図、第3図
は二つの画像をそれぞれの画像上の2個の特徴粒子の内
の−・方で重合わセた状態を示す模式図、第4図は二つ
の画像を接合する際にそれぞれのいずれの領域を選択す
るかを示す模式図、第5図は本発明方法を実部するため
の装置構成を示ずブロック図、第6図乃至第11図は本
発明方法の手順を示すフローチャー1・である。 IMA、 IMB・・・接合対象の画像  a、a’、
b、h’−・・特徴粒子
1 to 4 are detailed explanatory diagrams of the present invention. FIG. 1 is a schematic diagram showing two images to be joined and two characteristic particles existing thereon, and FIG. Figure 3 is a schematic diagram showing the procedure for extracting two characteristic particles from each image, and Figure 3 shows a state where the two images are superimposed on one of the two characteristic particles on each image. FIG. 4 is a schematic diagram showing which region is selected when joining two images, and FIG. 5 is a block diagram showing the configuration of an apparatus for implementing the method of the present invention. , FIGS. 6 to 11 are flowcharts 1 showing the steps of the method of the present invention. IMA, IMB...Images to be joined a, a',
b, h'--characteristic particles

Claims (1)

【特許請求の範囲】 1、階調を有し、相互にオーバラップして撮像された複
数のディジタル画像を接合する方法において、 接合対象の二つの画像の濃度が均しくなるよに濃度変換
し、 濃度変換後のそれぞれの画像の濃度を2値化処理し、 2値化処理後のそれぞれの画像において特定の画素数に
て形成される粒子状部分を抽出することにより2個の特
徴粒子を選択し、 それぞれの画像において選択された2個の特徴粒子を結
ぶ直線を接合線として接合対象の二つの画像を接続する
こと を特徴とするディジタル画像の接合方法。
[Claims] 1. In a method for joining a plurality of digital images having gradations and captured mutually overlapping, the density is converted so that the density of the two images to be joined becomes equal. , Binarize the density of each image after density conversion, and extract two characteristic particles by extracting a particulate part formed by a specific number of pixels in each image after the binarization process. A method for joining two images to be joined, the method comprising connecting two images to be joined using a straight line connecting two characteristic particles selected in each image as a joining line.
JP1321731A 1989-12-11 1989-12-11 Joining method for digital picture Pending JPH03182976A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1321731A JPH03182976A (en) 1989-12-11 1989-12-11 Joining method for digital picture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1321731A JPH03182976A (en) 1989-12-11 1989-12-11 Joining method for digital picture

Publications (1)

Publication Number Publication Date
JPH03182976A true JPH03182976A (en) 1991-08-08

Family

ID=18135815

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1321731A Pending JPH03182976A (en) 1989-12-11 1989-12-11 Joining method for digital picture

Country Status (1)

Country Link
JP (1) JPH03182976A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07193746A (en) * 1993-10-20 1995-07-28 Philips Electron Nv Image processing system
US6005987A (en) * 1996-10-17 1999-12-21 Sharp Kabushiki Kaisha Picture image forming apparatus
US6128416A (en) * 1993-09-10 2000-10-03 Olympus Optical Co., Ltd. Image composing technique for optimally composing a single image from a plurality of digital images
US6148118A (en) * 1995-07-05 2000-11-14 Minolta Co., Ltd. Image processing apparatus capable of reproducing large-sized document
JP2001274973A (en) * 2000-03-24 2001-10-05 Sanyo Electric Co Ltd Device and method for synthesizing microscopic image and computer-readable recording medium with microscopic image synthesizing processing program recorded thereon
JP2003234968A (en) * 1992-04-09 2003-08-22 Olympus Optical Co Ltd Image processor and imaging apparatus
US6865289B1 (en) * 2000-02-07 2005-03-08 Canon Kabushiki Kaisha Detection and removal of image occlusion errors
US7142725B2 (en) 1992-04-09 2006-11-28 Olympus Optical Co., Ltd. Image processing apparatus
JP2011221350A (en) * 2010-04-12 2011-11-04 Advantest Corp Mask inspection device and image generation method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003234968A (en) * 1992-04-09 2003-08-22 Olympus Optical Co Ltd Image processor and imaging apparatus
US7142725B2 (en) 1992-04-09 2006-11-28 Olympus Optical Co., Ltd. Image processing apparatus
US7415167B2 (en) 1992-04-09 2008-08-19 Olympus Optical Co., Ltd. Image processing apparatus
US6128416A (en) * 1993-09-10 2000-10-03 Olympus Optical Co., Ltd. Image composing technique for optimally composing a single image from a plurality of digital images
JPH07193746A (en) * 1993-10-20 1995-07-28 Philips Electron Nv Image processing system
US6148118A (en) * 1995-07-05 2000-11-14 Minolta Co., Ltd. Image processing apparatus capable of reproducing large-sized document
US6005987A (en) * 1996-10-17 1999-12-21 Sharp Kabushiki Kaisha Picture image forming apparatus
US6865289B1 (en) * 2000-02-07 2005-03-08 Canon Kabushiki Kaisha Detection and removal of image occlusion errors
JP2001274973A (en) * 2000-03-24 2001-10-05 Sanyo Electric Co Ltd Device and method for synthesizing microscopic image and computer-readable recording medium with microscopic image synthesizing processing program recorded thereon
JP2011221350A (en) * 2010-04-12 2011-11-04 Advantest Corp Mask inspection device and image generation method

Similar Documents

Publication Publication Date Title
JP4152340B2 (en) Image processing system and method
US7024053B2 (en) Method of image processing and electronic camera
EP2571261B1 (en) Method and device for multi-camera image calibration
US7961983B2 (en) Generating gigapixel images
US20060239579A1 (en) Non Uniform Blending of Exposure and/or Focus Bracketed Photographic Images
CN110782394A (en) Panoramic video rapid splicing method and system
JP2007525770A (en) Technology to form a single image from multiple overlapping images
Majumder et al. Immersive teleconferencing: a new algorithm to generate seamless panoramic video imagery
CN102567976A (en) Tone mapping of very large aerial image mosaic
JP2017143390A (en) Image processing apparatus and method thereof
CN108833785A (en) Fusion method, device, computer equipment and the storage medium of multi-view image
JPH09181913A (en) Camera system
CN110730296A (en) Image processing apparatus, image processing method, and computer readable medium
TWI361889B (en) Defect inspection apparatus, pattern drawing apparatus, pattern drawing system and recording medium storing defect inspection program
JP2007074578A (en) Image processor, photography instrument, and program
CN110915193B (en) Image processing system, server device, image processing method, and recording medium
RU2580473C1 (en) Device to seamlessly merge the images into a single composition with automatic contrast adjustment and gradients
JPH11261797A (en) Image processing method
JPH03182976A (en) Joining method for digital picture
CN111986106A (en) High dynamic image reconstruction method based on neural network
JP2008171756A (en) Distortion measuring method and luminance correction method of electron microscope
CN112648935A (en) Image processing method and device and three-dimensional scanning system
JP2000069277A (en) Image processing unit
CN112085803B (en) Multi-lens multi-detector spliced camera color consistency processing method
JPH02264372A (en) Joining method for digital picture