JP4271648B2 - Image composition apparatus, imaging means, and program - Google Patents

Image composition apparatus, imaging means, and program Download PDF

Info

Publication number
JP4271648B2
JP4271648B2 JP2004327016A JP2004327016A JP4271648B2 JP 4271648 B2 JP4271648 B2 JP 4271648B2 JP 2004327016 A JP2004327016 A JP 2004327016A JP 2004327016 A JP2004327016 A JP 2004327016A JP 4271648 B2 JP4271648 B2 JP 4271648B2
Authority
JP
Japan
Prior art keywords
image data
image
unit
data
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004327016A
Other languages
Japanese (ja)
Other versions
JP2006140646A (en
Inventor
孝義 能勢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2004327016A priority Critical patent/JP4271648B2/en
Publication of JP2006140646A publication Critical patent/JP2006140646A/en
Application granted granted Critical
Publication of JP4271648B2 publication Critical patent/JP4271648B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Description

本発明は、取得した複数の画像データを合成して1つの画像データを生成する画像合成装置、撮像手段、およびプログラムに関する。   The present invention relates to an image synthesizing apparatus, an imaging unit, and a program for synthesizing a plurality of acquired image data to generate one image data.

従来、カメラ等の撮像機器において広範囲にピントの合った画像を得るために、レンズの絞り調節による被写界深度の調整などに加え、撮像装置が取得した画像データに画像処理を施すことが行われている。画像処理により、同一画像内に存在する遠景と近景の距離が大きい場合や画像に高い鮮鋭度が求められる場合など、レンズの絞り調節など光学的手法による調節のみでは得られない品質の高い画像を得ることができる。   Conventionally, in order to obtain an image focused on a wide range in an imaging device such as a camera, in addition to adjusting the depth of field by adjusting the aperture of a lens, image processing has been performed on image data acquired by an imaging device. It has been broken. High-quality images that cannot be obtained only by adjustment using an optical method such as lens aperture adjustment, such as when the distance between distant and close-up scenes in the same image is large due to image processing, or when high sharpness is required for the image. Obtainable.

広範囲にピントの合った画像を取得する画像処理方法としては、従来、同一被写体を撮像した複数枚の元画像の画像データについて、画像データ中の特定位置の画素または特定の被写体が撮像された領域(以下「被写体領域」と称する。)を注目画素または注目領域として特定し、RGBの各色領域からエッジ検出フィルタなどを用いて注目画素または注目領域の周辺画素または周辺領域に対する画像データの変化量を検出し、変化量の最も大きい画素または領域をピントの合った元画像として選択し、選択した画素または領域の画像データを画面全体にわたって合成し合成画像を生成する方法が知られている(たとえば特許文献1参照)。   Conventionally, as an image processing method for acquiring an image that is in focus over a wide range, conventionally, with respect to image data of a plurality of original images obtained by imaging the same subject, a pixel at a specific position in the image data or a region where a specific subject is captured (Hereinafter referred to as “subject region”) is specified as the target pixel or the target region, and the amount of change in image data with respect to the target pixel or the peripheral pixel of the target region or the peripheral region is determined from each of the RGB color regions using an edge detection filter or the like. A method is known in which a pixel or region having the largest amount of change is detected and selected as a focused original image, and image data of the selected pixel or region is synthesized over the entire screen to generate a composite image (for example, a patent) Reference 1).

特開平6−70212号公報JP-A-6-70212

しかし、上記特許文献1に記載された発明は、被写体ごとに合焦判定を行ったうえで合成画像を形成することになるため、特に画像データ内に被写体が複数存在する場合には、必要な精度の合焦判定を行うために相当枚数の画像データの撮像が必要となる。そのため、画像データを一時的に保存するためのメモリの容量を多く必要とする。また、画像データ内では被写体ごとに領域を形成し領域ごとに合焦判定などの処理を行うため、CPUの処理量が多くなり、CPUの処理負担の増大や、処理時間の長大化を招く恐れがある。   However, since the invention described in Patent Document 1 forms a composite image after performing in-focus determination for each subject, it is necessary particularly when there are a plurality of subjects in the image data. In order to perform accurate focus determination, it is necessary to capture a considerable number of image data. Therefore, a large memory capacity for temporarily storing image data is required. In addition, since an area is formed for each subject in the image data and processing such as focusing is performed for each area, the processing amount of the CPU increases, which may increase the processing load on the CPU and increase the processing time. There is.

一方、被写体領域ごとの合焦判定を行わずに複数の画像データをもとに画像合成を行い、画像処理に要するCPUの処理負担を減少させる方法も考えられるが、その場合であっても全体として違和感のある合成画像が生成されることを防ぐにはなんらかの画像処理が必要となる。   On the other hand, a method of reducing the processing load on the CPU required for image processing by combining images based on a plurality of image data without performing focus determination for each subject area is conceivable. In order to prevent the generation of a composite image with a sense of incongruity, some image processing is required.

本発明は上記課題に基づいてなされたものであり、本発明の目的は、画像全体にわたってピントの合った品質の高い画像データを、少ない数の画像データを元に、少ない処理負荷や少ないメモリ容量において形成できる画像合成装置、撮像手段、およびプログラムを提供するものである。   The present invention has been made on the basis of the above problems, and an object of the present invention is to provide high-quality image data focused on the entire image, a small processing load and a small memory capacity based on a small number of image data. Providing an image synthesizing device, an imaging means, and a program.

本発明の上記課題は、撮像装置が同一の被写体をピントを変えて連続的に撮影し取得した複数の画像データに基づいて一の合成画像データを形成する画像合成装置であって、前記各画像データに含まれる特徴量情報を所定の画素群単位に形成した処理領域ごとに抽出する特徴量情報抽出手段と、前記特徴量情報抽出手段が抽出した前記特徴量情報を前記複数の画像データそれぞれの対応する前記処理領域ごとに対比し前記処理領域ごとの前記特徴量情報が最も多い画像データの処理領域データの集合を比較結果として抽出する比較手段と、前記比較結果のうち、異なる画像データの処理領域同士が隣接する箇所を抽出して周辺領域として形成する周辺領域形成手段と、前記周辺領域に相当する処理領域に存在する特徴量情報の連続性の有無を判断し、特徴量情報の連続性が有ると判断された処理領域については、当該処理領域において前記特徴量情報が最も多い画像データの対応する処理領域データの集合を判断結果として出力する連続性判断手段と、前記比較結果と前記判断結果とを対比して前記比較結果を修正した修正結果を出力する修正手段と、前記修正結果を用いて前記処理領域単位で前記複数の画像データの中の対応する画像データの処理領域データを合成して前記合成画像データを形成する画像データ合成手段とを有する画像合成装置によって達成される。 The above object of the present invention is an image synthesizing apparatus for forming a one composite image data based on the plurality of image data acquired continuously shooting imaging device by changing the focus of the same object, each image Feature amount information extracting means for extracting feature amount information included in the data for each processing region formed in a predetermined pixel group unit, and the feature amount information extracted by the feature amount information extracting means for each of the plurality of image data compared for each of the processing regions corresponding, comparison means for extracting as a comparison result a set of processing area data of the most common image data and the feature amount information of each of the processing region, among the comparison result, different image data Peripheral area forming means for extracting a part where processing areas are adjacent to each other and forming it as a peripheral area, and presence / absence of continuity of feature amount information existing in the processing area corresponding to the peripheral area Determination, and for been processed region it determined that the continuity of the feature amount information is present, the continuity determination to output as a result determine a corresponding set of processing area data of the most common image data and the feature amount information in the processing region Means for comparing the comparison result with the determination result and outputting a correction result obtained by correcting the comparison result, and a correspondence among the plurality of image data for each processing region using the correction result The image synthesizing apparatus includes image data synthesizing means for synthesizing the processing area data of the image data to be synthesized to form the synthesized image data.

上記画像合成装置によれば、複数取得した画像データを複数の処理領域に区分し、処理領域単位で複数の画像データを合成し合成画像データを形成することにより、CPUに重い処理負担をかけることなく画像合成処理を行うことができる。   According to the image composition device, a plurality of acquired image data is divided into a plurality of processing areas, and a plurality of image data is synthesized in units of processing areas to form composite image data, thereby placing a heavy processing burden on the CPU. Image composition processing can be performed.

上記画像合成装置によれば、異なる画像データの対応する処理領域において特徴量情報の多い方を合成画像データの形成に用いることにより、処理領域ごとにより鮮明な画像を用いて画像データの合成を行うことができる。   According to the above image composition device, the image data is synthesized using a clearer image for each processing region by using the one with more feature amount information in the processing region corresponding to the different image data for forming the composite image data. be able to.

上記画像合成装置によれば、隣接する処理領域に含まれる特徴量情報の連続性の有無を判断した結果を画像データの合成に用いることにより、近景被写体と遠景被写体との境界領域など特徴量情報が連続する部分において位置ずれや大きさのずれ等が生じにくいため、視覚上もほぼ違和感のない合成画像データを形成できる。   According to the image composition device, feature amount information such as a boundary region between a foreground subject and a distant subject is obtained by using the result of determining the continuity of feature amount information included in adjacent processing regions for image data composition. Therefore, it is possible to form composite image data that is almost visually uncomfortable because it is difficult for position shifts, size shifts, and the like to occur in a continuous portion.

本発明の画像合成装置において、複数の画像データは、撮像部とシャッタ駆動手段とを備えた撮像装置の、利用者による前記撮像部のシャッタボタンの操作によるシャッタの稼働を検知するシャッタ検知手段と、前記シャッタ検知手段による前記シャッタの稼働の検知を受けて前記撮像部のレンズ部のピントを調節するピント調節手段と、前記ピント調節手段による前記レンズ部のピントの調節を受けて前記撮像部のシャッタを稼働させるシャッタ稼働手段とを有する前記シャッタ駆動手段によって、利用者による前記撮像部のシャッタボタンの操作を受けて、撮像部に同一の被写体を連続で撮影させ、ピントを変えた同一の被写体の複数の画像データを取得させる。 In the image composition device according to the present invention , the plurality of pieces of image data include: a shutter detection unit that detects an operation of a shutter by an operation of a shutter button of the imaging unit by a user of an imaging device including an imaging unit and a shutter driving unit; A focus adjusting unit that adjusts a focus of the lens unit of the imaging unit in response to detection of the operation of the shutter by the shutter detecting unit, and a focus adjustment unit that adjusts a focus of the lens unit by the focus adjusting unit. The same subject in which the same subject is continuously photographed by the imaging unit in response to the operation of the shutter button of the imaging unit by the user by the shutter driving unit having the shutter operating unit for operating the shutter, and the focus is changed. A plurality of image data is acquired.

上記撮像手段によれば、1回のシャッタボタンの操作でふたつの画像データを連続して取得することが可能になり、ふたつの画像データで画像合成を行う画像合成装置に用いる画像データの取得を実現できる。   According to the imaging means, it is possible to continuously acquire two image data by operating the shutter button once, and it is possible to acquire image data to be used for an image composition apparatus that performs image composition using the two image data. realizable.

本発明によれば、一の画像データ中に近景と遠景が並存する場合においても、近景と遠景との境界部分に違和感の無い、画面全体にわたって焦点の合った品質の高い合成画像の形成をCPU等の処理負荷やメモリ容量の少ない状態で行うことが可能となり、カメラ付き携帯電話など処理能力の小さいCPUや容量の少ないメモリを内蔵した小型端末機器においても容易に実現可能となる。   According to the present invention, even when a foreground and a distant view coexist in one image data, the CPU can form a high-quality composite image that is focused on the entire screen without causing a sense of incongruity at the boundary between the foreground and the distant view. Thus, it can be easily realized even in a small terminal device incorporating a CPU with a small processing capacity and a memory with a small capacity, such as a mobile phone with a camera.

以下、本発明の一の実施の形態を図1の構成ブロック図を参照して説明する。また、図1の各構成ブロックによって取得されるデータのイメージを図9から図21に示すイメージ図を参照して説明する。   Hereinafter, one embodiment of the present invention will be described with reference to the block diagram of FIG. 1 will be described with reference to the image diagrams shown in FIGS. 9 to 21. FIG.

図1は、本発明に係る撮像装置および画像合成装置の構成を示す構成ブロック図である。本発明に係る撮像装置1Aは、カメラ付き携帯電話機やカメラ付きPHS(Personal Handy-Phone System)やカメラ付き携帯情報端末のような各種撮像装置を内蔵した各種の携帯端末に内蔵されている。撮像装置1Aは、画像合成装置1と、撮像部2と、シャッタ駆動手段3と、AD変換部4とを備えている。   FIG. 1 is a configuration block diagram showing configurations of an imaging apparatus and an image composition apparatus according to the present invention. The imaging device 1A according to the present invention is built in various mobile terminals including various imaging devices such as a camera-equipped mobile phone, a camera-equipped PHS (Personal Handy-Phone System), and a camera-equipped personal digital assistant. The imaging device 1A includes an image composition device 1, an imaging unit 2, a shutter drive unit 3, and an AD conversion unit 4.

撮像部2は画像撮影用のCCDカメラであり、レンズ部2aと撮像素子部2bとを備える。撮像部2はオートフォーカス機構を有し、ピントを調整することができる。ピントの調整は、レンズの開口絞りにより被写界深度を深くするものでもよいし、ズームレンズによる焦点距離の調整によるものでもよい。   The imaging unit 2 is a CCD camera for taking an image, and includes a lens unit 2a and an imaging element unit 2b. The imaging unit 2 has an autofocus mechanism and can adjust the focus. The focus adjustment may be performed by increasing the depth of field by the aperture stop of the lens or by adjusting the focal length using the zoom lens.

撮像部2のレンズ部2aは複数枚のレンズを有し、たとえばズームレンズのように焦点距離を調整する手段、または、開口絞りのように被写界深度を調節する手段を有する。撮像素子部2bはCCD(change coupled device)撮像デバイスであって、レンズ部2a側のレンズに対向する面である受光面2cに集積した画素領域を設け、画素領域がレンズ部2aの集光した光を受光し結像する。   The lens unit 2a of the imaging unit 2 includes a plurality of lenses, and includes, for example, a unit that adjusts the focal length like a zoom lens, or a unit that adjusts the depth of field like an aperture stop. The imaging element unit 2b is a CCD (change coupled device) imaging device, and a pixel region integrated on the light receiving surface 2c, which is a surface facing the lens on the lens unit 2a side, is provided, and the pixel region is collected by the lens unit 2a. Receives light and forms an image.

受光面2cの画素領域には画素がマトリクス状に多数配列されている。画素領域を形成する画素はホトダイオードのような受光素子にて形成されており、画素の表面にはそれぞれ光の3原色である赤(R)、緑(G)、青(B)の色フィルタが貼り付けられている。各画素が受けた光の強さは表面に貼り付けられたフィルタの色ごとに電気信号の大きさに変換され(光電変換)、変換された電気信号は信号量に応じた電荷として一定時間画素内に蓄積されたのち、CCD転送により縦または横方向の画素のラインごとに信号電荷として出力される。   A large number of pixels are arranged in a matrix in the pixel region of the light receiving surface 2c. The pixels forming the pixel region are formed by light receiving elements such as photodiodes, and color filters of red (R), green (G), and blue (B), which are the three primary colors of light, are provided on the surface of the pixel. It is pasted. The intensity of light received by each pixel is converted into the magnitude of an electric signal for each color of the filter attached to the surface (photoelectric conversion), and the converted electric signal is a pixel for a certain period of time as a charge corresponding to the signal amount. After being stored therein, it is output as signal charges for each pixel line in the vertical or horizontal direction by CCD transfer.

図1に示すシャッタ駆動手段3は、撮像部2のレンズ部2aとシャッタ(図示せず)とを自動的に稼働させるための制御手段であり、撮像部2のシャッタのスイッチ(図示せず)が1回操作されたことを受けて撮像部2に同一の被写体を2回連続で撮影させ、撮像部2に2回連続で画像データを取得させる。シャッタ駆動手段3は、シャッタ検知部3aと、ピント調節部3bと、シャッタ稼働部3cとを有している。   The shutter drive unit 3 shown in FIG. 1 is a control unit for automatically operating the lens unit 2a and the shutter (not shown) of the imaging unit 2, and the shutter switch (not shown) of the imaging unit 2. Is operated once, the image pickup unit 2 is caused to photograph the same subject twice consecutively, and the image pickup unit 2 is caused to acquire image data twice consecutively. The shutter driving unit 3 includes a shutter detection unit 3a, a focus adjustment unit 3b, and a shutter operating unit 3c.

シャッタ検知部3aは利用者の手動操作に基づくシャッタの稼働を検知するセンサであって、利用者が手動操作で撮像部2のシャッタのスイッチ(図示せず)を押すと、シャッタの稼働信号や開閉動作を検知し、シャッタのスイッチ(図示せず)が押されたことを知らせる検知信号を出力する。   The shutter detection unit 3a is a sensor that detects the operation of the shutter based on the manual operation of the user. When the user presses a shutter switch (not shown) of the image pickup unit 2 by the manual operation, the shutter operation signal or An opening / closing operation is detected, and a detection signal notifying that a shutter switch (not shown) has been pressed is output.

ピント調節部3bはシャッタ検知部3aが出力した検知信号を受けて、レンズ部2aの開口絞りの大きさまたはズームレンズの位置を予め設定された所定の状態(以下「設定状態」と称する。)に移動させ、レンズ部2aのピントを調節する。本実施の形態における設定状態は、通常のカメラは遠方の被写体に対する被写界深度を深くとれることに鑑み、レンズ部2aが開口絞りを有する場合には開口絞りが小さくなって遠方まで被写界深度が深まった状態に設定され、レンズ部2aがズームレンズである場合には焦点が遠方に合った状態に設定されている。ただし、撮像装置1Aの状態や撮像対象によっては、設定状態はレンズ部2aの開口絞りが大きくなった状態やズームレンズの焦点距離が撮像部2から近い位置であってもよい。また、レンズ部2aの調節に要する時間は、同一の被写体を撮影する必要があることに鑑み、極めて短時間であることが望ましい。ピント調節部3bはレンズ部2aの調節が終了すると調節が終了したことを通知する信号を出力する。   The focus adjustment unit 3b receives the detection signal output from the shutter detection unit 3a, and sets the size of the aperture stop of the lens unit 2a or the position of the zoom lens in a predetermined state (hereinafter referred to as “setting state”). To adjust the focus of the lens unit 2a. In the setting state in the present embodiment, in view of the fact that a normal camera can take a deep depth of field with respect to a distant subject, when the lens unit 2a has an aperture stop, the aperture stop becomes small and the subject field is far away. When the depth is set to be deep, and the lens unit 2a is a zoom lens, the focus is set to a distance. However, depending on the state of the imaging apparatus 1A and the imaging target, the setting state may be a state where the aperture stop of the lens unit 2a is large or a position where the focal length of the zoom lens is close to the imaging unit 2. In addition, it is desirable that the time required for adjusting the lens unit 2a is extremely short in view of the need to photograph the same subject. When the adjustment of the lens unit 2a is completed, the focus adjustment unit 3b outputs a signal notifying that the adjustment has been completed.

シャッタ稼働部3cは焦点調節部3bから調節が終了した旨の信号を受信すると撮像部2に対してシャッタの稼働信号を送信する。撮像部2はシャッタ稼働部3cからシャッタの稼働信号を受信すると自動的にシャッタを再度開閉させて2回目の写真撮影を行い、2回目の画像データの取得を行う。本明細書においては、利用者によって撮像部2のシャッタのスイッチが押されたのちに最初に撮影された写真により撮像部2が生成する画像データを「第1画像データ」と称し、最初の撮影の後連続して撮影された写真により撮像部2が生成する画像データを「第2画像データ」と称する。   When the shutter operating unit 3c receives a signal indicating that the adjustment has been completed from the focus adjusting unit 3b, the shutter operating unit 3c transmits a shutter operating signal to the imaging unit 2. When the imaging unit 2 receives a shutter operation signal from the shutter operating unit 3c, the image capturing unit 2 automatically opens and closes the shutter again to take a second photo, and acquires the second image data. In this specification, the image data generated by the imaging unit 2 from the first photograph taken after the user presses the shutter switch of the imaging unit 2 is referred to as “first image data”, and the first photographing is performed. Thereafter, the image data generated by the imaging unit 2 from photographs taken continuously is referred to as “second image data”.

図9に撮像部2が取得した第1画像データのイメージ図を示し、図10に撮像部2が取得した第2画像データのイメージ図を示す。図9に示す第1画像データ21は、焦点が撮像部2から近距離に合った状態で撮像された画像データであり、実線が焦点の合った鮮鋭な輪郭線を示し、点線が焦点の外れたぼけた輪郭線を示している。図9においては、円柱状の近景被写体22が鮮鋭な輪郭線で撮像され、自由曲線(山の稜線を示す)の遠景被写体23がぼけた輪郭線で撮像されている。図10においては、遠景被写体23が鮮鋭な輪郭線で撮像され、近景被写体22がぼけた輪郭線で撮像されている。   FIG. 9 shows an image diagram of the first image data acquired by the imaging unit 2, and FIG. 10 shows an image diagram of the second image data acquired by the imaging unit 2. The first image data 21 shown in FIG. 9 is image data captured in a state where the focus is close to the imaging unit 2, and the solid line indicates a sharp contour line in focus, and the dotted line is out of focus. A blurred outline is shown. In FIG. 9, a cylindrical near-field subject 22 is captured with a sharp outline, and a free-form subject (showing a ridgeline of a mountain) is captured with a blurred outline. In FIG. 10, the distant subject 23 is imaged with a sharp outline, and the foreground subject 22 is imaged with a blurred outline.

図1に戻り、AD変換部4は量子化器であり、撮像素子部2bから出力された画像データの信号を受信して赤(R)、緑(G)、青(B)ごとに量子化し、アナログ信号からディジタル信号に変換する。   Returning to FIG. 1, the AD conversion unit 4 is a quantizer, which receives the image data signal output from the imaging device unit 2 b and quantizes it for each of red (R), green (G), and blue (B). Convert from analog signal to digital signal.

画像合成装置1は、撮像装置1Aが内蔵されたカメラ付き携帯電話機やカメラ付きPHSなどに組み込まれたCPUや各種画像処理プロセッサ、およびCPUの演算処理によって実行されるコンピュータプログラムなどによって形成され、特徴量情報抽出部7と、比較部8と、ラベリング部9と、周辺領域形成部10と、連続性判断部11と、修正部12と、画像データ合成部13と、記憶手段14とを備えている。   The image synthesizer 1 is formed by a CPU or various image processors incorporated in a camera-equipped mobile phone or a camera-equipped PHS in which the image pickup apparatus 1A is incorporated, and a computer program executed by the arithmetic processing of the CPU. A quantity information extraction unit 7, a comparison unit 8, a labeling unit 9, a peripheral region forming unit 10, a continuity determination unit 11, a correction unit 12, an image data synthesis unit 13, and a storage unit 14 are provided. Yes.

特徴量情報抽出部7は、AD変換部4から出力された第1画像データおよび第2画像データを受信し、第1画像データおよび第2画像データのそれぞれに含まれる特徴量情報を抽出する。特徴量情報抽出部7が抽出する特徴量としては、第1画像データおよび第2画像データに含まれるエッジ情報や、RGBなどの色情報などが考えられる。   The feature amount information extraction unit 7 receives the first image data and the second image data output from the AD conversion unit 4, and extracts feature amount information included in each of the first image data and the second image data. The feature amount extracted by the feature amount information extraction unit 7 may be edge information included in the first image data and the second image data, color information such as RGB, and the like.

特徴量情報抽出部7は、所定の画素群ごとに形成された処理領域を単位にして特徴量を抽出する。   The feature amount information extraction unit 7 extracts feature amounts in units of processing regions formed for each predetermined pixel group.

図2に処理領域の模式図を示す。処理領域2dはr行×s列(rおよびsは1以上の整数である。)のマトリクス状の画素群によって形成され、処理領域2d群はp行×q列(pおよびqは1以上の整数であり、図2においてはp=10かつq=14である。)のマトリクス格子状を形成する。各処理領域2dには行番号と列番号で形成された番地情報(i,j)が関連付けられる。ここでiは行番号、jは列番号であって、1≦i≦pかつ1≦j≦qである。画像合成装置1における処理を正しく行うためには、各処理領域2dを形成する画素の数はすべて同一であり、各処理領域2dの面積がすべて等しいことが望ましい。   FIG. 2 shows a schematic diagram of the processing area. The processing region 2d is formed by a matrix pixel group of r rows × s columns (r and s are integers of 1 or more), and the processing region 2d group has p rows × q columns (p and q are 1 or more). It is an integer, and in FIG. 2, p = 10 and q = 14). Each processing area 2d is associated with address information (i, j) formed by a row number and a column number. Here, i is a row number, j is a column number, and 1 ≦ i ≦ p and 1 ≦ j ≦ q. In order to correctly perform the processing in the image composition device 1, it is desirable that the number of pixels forming each processing region 2d is the same, and the areas of the processing regions 2d are all equal.

図1に戻り、特徴量情報抽出部7において特徴量情報として第1画像データおよび第2画像データに含まれるエッジ情報を用いる場合には、第1画像データおよび第2画像データのそれぞれに対し畳み込みオペレータを適用した演算処理を行い、第1画像データおよび第2画像データのそれぞれに含まれる特徴量情報を抽出する。抽出されたエッジ量は、処理領域2dごとに具体的な数値により算出される。   Returning to FIG. 1, when the edge information included in the first image data and the second image data is used as the feature amount information in the feature amount information extraction unit 7, the first image data and the second image data are convolved with each other. Calculation processing using an operator is performed to extract feature amount information included in each of the first image data and the second image data. The extracted edge amount is calculated by a specific numerical value for each processing region 2d.

図3に特徴量情報抽出部7が特徴量としてエッジ情報を抽出する場合に用いる畳み込みオペレータの具体例を示す。図3のa-1およびa-2はPrewittのエッジ検出オペレータ(a-1はx方向の差分、a-2はy方向の差分を求めるオペレータ)であり、b-1およびb-2はSobelのエッジ検出オペレータ(b-1はx方向の差分、b-2はy方向の差分を求めるオペレータ)である。a-1,a-2,b-1,b-2のオペレータはいずれも3×3画素の9画素に対する畳み込みフィルタであり、中央の値が注目画素に対する重み付け係数の値であり、周辺の8つの値が注目画素の8近傍の周辺画素に対する重み付け係数の値である。特徴量情報抽出部7は図3(a-1)および(a-2)、または(b-1)および(b-2)のいずれかを画像データに適用して注目画素の画像データと周辺画素の画像データとの濃度値の差分を求め、注目画素をずらしながら処理を繰り返し行うことにより、処理領域2d全体や画像データ全体の特徴量部分を抽出できる。   FIG. 3 shows a specific example of a convolution operator used when the feature quantity information extraction unit 7 extracts edge information as a feature quantity. In FIG. 3, a-1 and a-2 are Prewitt edge detection operators (a-1 is an x direction difference, a-2 is an y direction difference operator), and b-1 and b-2 are Sobel. Edge detection operators (b-1 is an x direction difference and b-2 is an y direction difference operator). The operators a-1, a-2, b-1, and b-2 are all convolution filters for 9 pixels of 3 × 3 pixels, the center value is the value of the weighting coefficient for the pixel of interest, and the surrounding 8 One value is a value of a weighting coefficient for neighboring pixels in the vicinity of 8 of the target pixel. The feature amount information extraction unit 7 applies any of FIGS. 3A-1 and 3A-2, or B-1 and B-2 to the image data, and the image data of the pixel of interest and the surrounding area. By calculating the density value difference from the image data of the pixel and repeatedly performing the process while shifting the target pixel, it is possible to extract the feature amount portion of the entire processing region 2d and the entire image data.

図3の(c)は3行×3列の移動平均オペレータであり、図3の(d)(e)は3行×3列の加重平均オペレータであって、本実施の形態においては選択的に用いられる。図3(c)(d)(e)のオペレータは、それぞれ中央の値が注目画素に対する重み付け係数の値であり、周辺の8つの値が注目画素の8近傍の周辺画素に対する重み付け係数の値である。図3(c)(d)(e)に示すいずれかのオペレータを画像データに適用し、注目画素をずらしながら注目画素の画像データと周辺画素の画像データとの濃度値の差分を求めることにより、画像データを平滑化し、ノイズが存在する部分や主被写体と背景被写体との境界部分などに、ノイズの除去や境界部分の不自然な接合状態をぼかすことができる。   3C is a moving average operator of 3 rows × 3 columns, and FIGS. 3D and 3E are weighted average operators of 3 rows × 3 columns, which are selectively used in this embodiment. Used for. The operators in FIGS. 3C, 3D, and 3E each have a center value as a weighting coefficient value for the target pixel, and eight neighboring values as weighting coefficient values for the neighboring pixels in the vicinity of the target pixel. is there. By applying one of the operators shown in FIGS. 3C, 3D, and 3E to the image data, and obtaining the difference in density value between the image data of the pixel of interest and the image data of the surrounding pixels while shifting the pixel of interest Further, it is possible to smooth the image data, and to remove noise and blur an unnatural connection state of the boundary portion in a portion where noise exists or a boundary portion between the main subject and the background subject.

なお、図3に示すオペレータはいずれも3×3画素に適用するサイズであるが、オペレータのサイズは3×3画素に限定されず、たとえば5×5画素や7×7画素など、他のサイズであってもよい。   Note that all of the operators shown in FIG. 3 are sizes applicable to 3 × 3 pixels, but the size of the operator is not limited to 3 × 3 pixels, and other sizes such as 5 × 5 pixels and 7 × 7 pixels, for example. It may be.

図11に特徴量情報抽出部7が第1画像データからエッジ成分を抽出したデータのイメージ図を示し、図12に特徴量情報抽出部7が第2画像データからエッジ成分を抽出したデータのイメージ図を示す。図11および図12においては、実線が強いエッジ成分のエッジ情報を示し、点線が弱いエッジ成分のエッジ情報を示している。図11に示す第1画像データのエッジ成分抽出データ25においては近景被写体22から強いエッジ成分が抽出されて遠景被写体23から弱いエッジ成分が抽出されている。図12に示す第2画像データのエッジ成分抽出データ26においては近景被写体22から弱いエッジ成分が抽出されて遠景被写体23から強いエッジ成分が抽出されている。   FIG. 11 shows an image diagram of data obtained by extracting the edge component from the first image data by the feature amount information extracting unit 7. FIG. 12 shows an image diagram of data obtained by extracting the edge component from the second image data by the feature amount information extracting unit 7. Show. In FIGS. 11 and 12, the solid line indicates edge information of a strong edge component, and the dotted line indicates edge information of a weak edge component. In the edge component extraction data 25 of the first image data shown in FIG. 11, a strong edge component is extracted from the foreground subject 22 and a weak edge component is extracted from the distant subject 23. In the edge component extraction data 26 of the second image data shown in FIG. 12, weak edge components are extracted from the foreground subject 22 and strong edge components are extracted from the distant subject 23.

なお、図1に示す特徴量情報抽出部7においてRGBなどの色情報を抽出する場合には、抽出する色のフィルタ等を用いて所望の色情報を抽出する。   When color information such as RGB is extracted by the feature amount information extraction unit 7 shown in FIG. 1, desired color information is extracted using a filter of the color to be extracted.

図1において、比較部8は、第1画像データと第2画像データとに含まれる特徴量情報の量を処理領域2dごとに比較し、比較の結果特徴量成分が多く含まれている方の処理領域2dを選択し、選択した処理領域2dの集合により選択したデータを比較結果として出力する。   In FIG. 1, the comparison unit 8 compares the amount of feature amount information included in the first image data and the second image data for each processing region 2 d, and the comparison result indicates that the feature amount component is larger. The processing area 2d is selected, and the data selected by the set of the selected processing areas 2d is output as a comparison result.

図13に比較部8が出力した比較結果データのイメージ図を示す。比較結果データ27の各マス目は図2に示す処理領域2dであり、斜線で示された処理領域2dは第1画像データ21の方がエッジ量が多いと判断された第1画像データ推定領域28であり、斜線以外の処理領域2dは第2画像データ24の方がエッジ量が多いと判断された第2画像データ推定領域29である。図13においては、遠景被写体23のエッジ情報はすべて第2画像データ推定領域29に含まれており、近景被写体22のエッジ情報は大部分が第1画像データ推定領域28に含まれているが両上端部のエッジ情報は第2画像データ推定領域29に含まれている。   FIG. 13 shows an image diagram of comparison result data output by the comparison unit 8. Each square of the comparison result data 27 is the processing area 2d shown in FIG. 2, and the processing area 2d indicated by diagonal lines is the first image data estimation area in which the first image data 21 is determined to have a larger edge amount. 28, the processing area 2d other than the hatched area is the second image data estimation area 29 in which it is determined that the second image data 24 has a larger edge amount. In FIG. 13, all edge information of the distant subject 23 is included in the second image data estimation area 29, and most of the edge information of the foreground subject 22 is included in the first image data estimation area 28. The edge information of the upper end is included in the second image data estimation area 29.

図1に戻り、ラベリング部9は、比較部8が出力した比較結果のデータを形成する各処理領域2dの番地情報を抽出し、処理領域2dごとの番地情報に画像識別子を関連付ける。画像識別子は第1画像データおよび第2画像データを識別するための文字や記号などであり、本実施の形態においては、第1画像データの画像識別子に「A」の文字を適用し、第2画像データの画像識別子に「B」の文字を適用する。本明細書においては、画像データを形成する処理領域2dの番地情報に各画像データの画像識別子を関連付けることを「ラベリング」と称し、ラベリングによって形成したデータを「ラベリングデータ」と称する。ラベリング部9は、処理領域2dごとに「A」または「B」のラベリングがされた第1ラベリングデータおよび比較部8から供給された比較結果のデータを出力する。   Returning to FIG. 1, the labeling unit 9 extracts the address information of each processing area 2d forming the comparison result data output from the comparison unit 8, and associates the image identifier with the address information for each processing area 2d. The image identifier is a character or symbol for identifying the first image data and the second image data. In the present embodiment, the character “A” is applied to the image identifier of the first image data, and the second The character “B” is applied to the image identifier of the image data. In this specification, associating the image identifier of each image data with the address information of the processing area 2d forming the image data is referred to as “labeling”, and the data formed by labeling is referred to as “labeling data”. The labeling unit 9 outputs the first labeling data labeled “A” or “B” for each processing region 2 d and the data of the comparison result supplied from the comparison unit 8.

図14にラベリング部9が形成する第1ラベリングデータのイメージ図を示す。第1ラベリングデータ30においては、第1画像データ推定領域28(ドット表示された領域)には処理領域2dごとに画像識別子「A」がラベリングされ、第2画像データ推定領域29(無地で表示された部分)には処理領域2dごとに画像識別子「B」がラベリングされている。   FIG. 14 shows an image diagram of the first labeling data formed by the labeling unit 9. In the first labeling data 30, the image identifier “A” is labeled in the first image data estimation area 28 (dot display area) for each processing area 2d, and the second image data estimation area 29 (solid color is displayed). The image identifier “B” is labeled for each processing area 2d.

図1に戻り、周辺領域形成部10は、ラベリング部9が出力した比較結果のデータにおける第1画像データを元に形成された処理領域2d(すなわちラベリング部9が画像識別子「A」をラベリングした処理領域2d)と第2画像データを元に形成された処理領域2d(すなわちラベリング部9が画像識別子「B」をラベリングした処理領域2d)とが隣接している境界の箇所を抽出し、境界の箇所に隣接する処理領域2dが形成する領域である周辺領域を形成する。ここで処理領域2dが「隣接」している状態とは2つの処理領域2dが共有する一辺を有する状態のことをいい、一の処理領域2dを注目領域としたとき注目領域の上下左右にある処理領域2d(つまり、注目領域の番地情報が(x,y)であった場合における、番地情報が(x-1,y),(x+1,y),(x,y-1),(x,y+1)のいずれかである処理領域2d)が隣接する処理領域2dに該当する。   Returning to FIG. 1, the peripheral region forming unit 10 labels the processing region 2 d formed based on the first image data in the comparison result data output from the labeling unit 9 (that is, the labeling unit 9 labels the image identifier “A”). A boundary region where the processing region 2d) and the processing region 2d formed based on the second image data (that is, the processing region 2d in which the labeling unit 9 labels the image identifier “B”) is adjacent is extracted, A peripheral region, which is a region formed by the processing region 2d adjacent to the portion, is formed. Here, the state in which the processing area 2d is “adjacent” means a state having one side shared by the two processing areas 2d, and is located above, below, left and right of the attention area when the one processing area 2d is the attention area. The processing area 2d (that is, the address information in the case where the address information of the attention area is (x, y)) is (x-1, y), (x + 1, y), (x, y-1), The processing area 2d) that is any of (x, y + 1) corresponds to the adjacent processing area 2d.

図15に周辺領域形成部10において形成された周辺領域データのイメージ図を示す。図15中、ドット表示された処理領域2dが図14において画像識別子「A」と画像識別子「B」とが隣接している処理領域2dであり、かかる領域が周辺領域データ31を形成する。なお、本明細書においては、図15に示すとおり、周辺領域形成部10が形成した周辺領域に含まれるデータを「周辺領域データ」と称する。   FIG. 15 shows an image diagram of the peripheral area data formed in the peripheral area forming unit 10. In FIG. 15, the processing area 2 d displayed in dots is the processing area 2 d in which the image identifier “A” and the image identifier “B” are adjacent to each other in FIG. 14, and this area forms the peripheral area data 31. In this specification, as shown in FIG. 15, data included in the peripheral area formed by the peripheral area forming unit 10 is referred to as “peripheral area data”.

図1に戻り、連続性判断部11は、特徴量情報抽出部7が出力した第1画像データおよび第2画像データの特徴量情報の供給と周辺領域形成部10が形成した周辺領域データとの供給を受け、第1画像データおよび第2画像データにおいて周辺領域に相当する処理領域2dに存在する特徴量情報の連続性の有無を判断する。なお、連続性判断部11において有無が判断される連続性とは、隣接する処理領域2d同士にわたって連続した特徴量情報が含まれる可能性のことである。連続性判断部11は判断結果のデータに連続性があると判断した部分に「A」または「B」の画像識別子のうち適切な方をラベリングして第2ラベリングデータを形成して出力する。「A」「B」いずれの画像識別子が適切であるかは、連続性があると判断した処理領域2dにおいて第1画像データおよび第2画像データのうち特徴量情報が多い方を選択することで決定する。   Returning to FIG. 1, the continuity determination unit 11 supplies the feature amount information of the first image data and the second image data output from the feature amount information extraction unit 7 and the peripheral region data formed by the peripheral region formation unit 10. In response to the supply, it is determined whether or not there is continuity of the feature amount information existing in the processing area 2d corresponding to the peripheral area in the first image data and the second image data. Note that the continuity in which presence / absence is determined by the continuity determination unit 11 refers to a possibility that feature quantity information continuous over adjacent processing regions 2d is included. The continuity determination unit 11 forms the second labeling data by labeling the appropriate one of the image identifiers “A” or “B” in the portion where the determination result data is determined to have continuity. Which one of the image identifiers “A” and “B” is appropriate is determined by selecting the first image data and the second image data having the larger amount of feature information in the processing region 2d determined to be continuous. decide.

図16に連続性判断部11による連続性の判断結果のイメージ図を示す。連続性判断部11が周辺領域データ31を対象に連続性の判断を行った結果は、周辺領域データ31中の近景被写体22のエッジ情報が連続している部分が連続性があると判断される。図16において、連続性があると判断された領域32は、ドット表示された領域として表示されている。   FIG. 16 shows an image diagram of the continuity determination result by the continuity determination unit 11. As a result of the continuity determination unit 11 determining the continuity for the surrounding area data 31, it is determined that the portion where the edge information of the foreground subject 22 in the surrounding area data 31 is continuous is continuous. . In FIG. 16, the region 32 determined to have continuity is displayed as a dot-displayed region.

図17に第2ラベリングデータのイメージ図を示す。図16おいて連続性があると判断された領域32に対応する領域に第2ラベリングデータ33が形成されている。図16に示す連続性があると判断された領域32においては第2画像データよりも第1画像データの方がエッジ量が多いため、第2ラベリングデータ33を形成する各処理領域2dには、第1画像データを意味する画像識別子「A」が関連付けられている。 FIG. 17 shows an image diagram of the second labeling data. Second labeling data 33 in the region corresponding to the region 32 where it is determined that there is Oite continuity in Figure 16 are formed. In the region 32 determined to have continuity shown in FIG. 16, the first image data has a larger amount of edges than the second image data. Therefore, each processing region 2 d forming the second labeling data 33 includes An image identifier “A” meaning the first image data is associated.

図1に戻り、修正部12は、連続性判断部11が出力した第2ラベリングデータの画像識別子とラベリング部9が形成した第1ラベリングデータの画像識別子とを対比し、双方の画像識別子が異なる箇所を抽出する。双方の画像識別子が異なる処理領域2dが存在する場合、第1ラベリングデータの異なる画像識別子を第2ラベリングデータの画像識別子に置き換える。修正部12による修正結果は第3ラベリングデータとして出力される。   Returning to FIG. 1, the correction unit 12 compares the image identifier of the second labeling data output from the continuity determination unit 11 with the image identifier of the first labeling data formed by the labeling unit 9, and the image identifiers of both are different. Extract the location. When there is a processing area 2d in which both the image identifiers are different, the image identifier of the first labeling data is replaced with the image identifier of the second labeling data. The correction result by the correction unit 12 is output as third labeling data.

図18に第3ラベリングデータのイメージ図を示す。第3ラベリングデータ34は、第1画像データ推定領域28(図18中ドット表示された領域)の左右上端部分の処理領域2d(図18中斜線表示された領域)が第2画像データ推定領域29から第1画像データ推定領域28に置き換えられ(以下置き換えられた領域を「置換領域」と称する。)置換領域35a,35bは第1画像データ推定領域28の一部を形成している。   FIG. 18 shows an image diagram of the third labeling data. In the third labeling data 34, the processing area 2d (the area indicated by diagonal lines in FIG. 18) at the upper left and right portions of the first image data estimation area 28 (area indicated by dots in FIG. 18) is the second image data estimation area 29. To the first image data estimation area 28 (hereinafter, the replaced area is referred to as “replacement area”). The replacement areas 35 a and 35 b form a part of the first image data estimation area 28.

図1に戻り、画像データ合成部13は、修正部12が出力した第3ラベリングデータとAD変換部4が出力した第1画像データおよび第2画像データとの供給を受け、第3ラベリングデータの番地情報および画像識別子をもとに第1画像データと第2画像データを合成して合成画像データを形成する。合成画像データはメインメモリや伝送手段やフラッシュメモリなどの各種記録媒体に出力される。   Returning to FIG. 1, the image data synthesis unit 13 receives the third labeling data output from the correction unit 12 and the first image data and the second image data output from the AD conversion unit 4, and receives the third labeling data. Based on the address information and the image identifier, the first image data and the second image data are synthesized to form synthesized image data. The composite image data is output to various recording media such as a main memory, transmission means, and flash memory.

図19は第3ラベリングデータに基づいて第1画像データと第2画像データとの合成を行う過程を示すイメージ図である。図19において、ドット表示された領域36は図18に示す第3ラベリングデータの34の第1画像データ推定領域28(ドット表示された領域)に相当し、斜線表示された領域37a,37bは図18に示す第3ラベリングデータ34の置換領域35a,35b(斜線表示された領域)に相当し、両領域36、37a37bによって第1画像データ21が合成される。図19において無地で表示された領域は図18に示す第3ラベリングデータ34の第2画像データ推定領域29(無地で表示された領域)に相当し、第2画像データ24が合成される。 FIG. 19 is an image diagram illustrating a process of combining the first image data and the second image data based on the third labeling data. In FIG. 19, a dot-displayed area 36 corresponds to the first image data estimation area 28 (dot-displayed area) 34 of the third labeling data shown in FIG. 18, and hatched areas 37a and 37b are shown in FIG. 18 corresponds to replacement areas 35a, 35b (hatched areas) of the third labeling data 34 shown in FIG. 18, and the first image data 21 is synthesized by both areas 36, 37a , 37b . In FIG. 19, the area displayed as plain corresponds to the second image data estimation area 29 (area displayed as plain) of the third labeling data 34 shown in FIG. 18, and the second image data 24 is synthesized.

図20は、画像データ合成部13によって合成された合成画像データのイメージ図である。   FIG. 20 is an image diagram of the composite image data synthesized by the image data synthesis unit 13.

図20に示す合成画像データ38の近景被写体22はすべて第1画像データが合成されたものであり、遠景被写体23はすべて第2画像データが合成されたものである。   All the foreground subjects 22 in the composite image data 38 shown in FIG. 20 are composed of the first image data, and all the distant subjects 23 are composed of the second image data.

なお、図20の合成画像データ38との比較のため、図21に比較結果データ27のみにより合成された場合に形成される仮想合成画像データのイメージ図を示す。図21示す仮想合成画像データ39は、大半の被写体がより鮮明な輪郭情報を含む画像データが合成されているが、近景被写体22の一部(図21においては近景被写体22の左右上端部近傍)に第2画像データが合成されており、図20に示す合成画像データ38に比べると一部違和感のある画像データとなっている。   For comparison with the synthesized image data 38 in FIG. 20, FIG. 21 shows an image diagram of virtual synthesized image data formed when synthesized only by the comparison result data 27. In FIG. In the virtual composite image data 39 shown in FIG. 21, image data including clear outline information is synthesized for most subjects, but a part of the foreground subject 22 (in the vicinity of the left and right upper ends of the foreground subject 22 in FIG. 21). The second image data is synthesized, and the image data is somewhat uncomfortable compared to the synthesized image data 38 shown in FIG.

図1に戻り、記憶手段14はDRAMなどの各種内蔵メモリであって、画像処理に利用されるデータや処理途中のデータを一時的に記憶する。本実施の形態においては、AD変換部4が出力した第1画像データおよび第2画像データと、ラベリング部9が出力する第1ラベリングデータとが保存される。   Returning to FIG. 1, the storage means 14 is various built-in memories such as DRAMs, and temporarily stores data used for image processing and data being processed. In the present embodiment, the first image data and second image data output from the AD conversion unit 4 and the first labeling data output from the labeling unit 9 are stored.

なお、ピント調節部3bにおける調節がレンズ部2aのズームレンズの位置である場合には、特徴量情報抽出部7や、連続性判断部11や、画像データ合成部13などが、第1画像データと第2画像データにおける被写体の大きさの違いを補正するための機能を有していることが望ましい。   When the adjustment in the focus adjustment unit 3b is the position of the zoom lens of the lens unit 2a, the feature amount information extraction unit 7, the continuity determination unit 11, the image data synthesis unit 13, and the like perform the first image data. It is desirable to have a function for correcting the difference in the size of the subject in the second image data.

ここで、図1に示す連続性判断部11における連続性の判断方法の具体例を説明する。   Here, a specific example of a continuity determination method in the continuity determination unit 11 shown in FIG. 1 will be described.

(第1の方法)
第1の方法は特徴量情報抽出部7が特徴量としてエッジ情報を抽出した場合に用いられる。図4は第1の方法の処理手順を示すフローチャートであり、図5は第1の方法による処理の模式を示す図である。以下図4および図5に基づいて第1の方法における連続性の判断方法を説明する。
(First method)
The first method is used when the feature amount information extraction unit 7 extracts edge information as a feature amount. FIG. 4 is a flowchart showing a processing procedure of the first method, and FIG. 5 is a diagram showing a model of processing by the first method. The continuity determination method in the first method will be described below with reference to FIGS. 4 and 5.

図4に示すとおり、特徴量情報抽出部7にてエッジ抽出処理が施された第1画像データおよび第2画像データに対しては、各画素のエッジ量が所定のしきい値以上かしきい値未満かを判定することで2値化が行われる。たとえば、しきい値未満のエッジ量を0(エッジなし)の画素データとし、しきい値以上のエッジ量を1(エッジあり)の画素データとして形成される(ステップP1)。   As shown in FIG. 4, for the first image data and the second image data that have been subjected to the edge extraction process by the feature amount information extraction unit 7, the edge amount of each pixel is greater than or equal to a predetermined threshold value. Binarization is performed by determining whether it is less than the value. For example, the amount of edge less than the threshold is formed as pixel data of 0 (no edge), and the amount of edge greater than the threshold is formed as pixel data of 1 (with edge) (step P1).

エッジ量を2値化した第1画像データおよび第2画像データからは、周辺領域形成部10において周辺領域とされた処理領域2dから周辺領域データが抽出される(ステップP2)。   From the first image data and the second image data obtained by binarizing the edge amount, the peripheral area data is extracted from the processing area 2d that is set as the peripheral area in the peripheral area forming unit 10 (step P2).

周辺領域として抽出された処理領域2dのうち、一の処理領域が注目領域として形成される(ステップP3)。注目領域が形成されると、注目領域と注目領域に隣接する処理領域2dとにまたがって形成したエッジの連続性判断のための所定の範囲(以下「判定領域」と称する。)が形成される(ステップP4)。   Of the processing regions 2d extracted as the peripheral region, one processing region is formed as the attention region (step P3). When the attention area is formed, a predetermined range (hereinafter referred to as “determination area”) for determining the continuity of the edge formed across the attention area and the processing area 2d adjacent to the attention area is formed. (Step P4).

図5に、ステップP3において形成された注目領域およびステップP4において形成された判定領域の模式を示す。注目領域2gと注目領域2gに隣接する一の処理領域2dとが共有する一辺2hにまたがって形成された所定の範囲が判定領域2iである。   FIG. 5 schematically shows the attention area formed in step P3 and the determination area formed in step P4. A predetermined range formed over one side 2h shared by the attention area 2g and one processing area 2d adjacent to the attention area 2g is the determination area 2i.

図4に示すとおり、連続性判断部11は判定領域2i中に含まれる「エッジあり」を示す数値1のデータの数を計測し(ステップP5)、判定領域2i中に数値1のデータの数が所定量以上存在するか否かを判定する(ステップP6)。判定の結果、数値1のデータが所定量以上存在すると判定されれば注目領域2gと注目領域2gに隣接する処理領域2dとの間には含まれるデータにエッジ情報の連続性があるものと判断する(ステップP7)。 As shown in FIG. 4, the continuity determination unit 11 measures the number of data of numerical value 1 indicating “with edge” included in the determination region 2i (step P5), and the number of data of numerical value 1 in the determination region 2i. Is determined to be present in a predetermined amount or more (step P6). As a result of the determination, as the data numbers 1 is in the continuity of the edge information to the data contained between the processing region 2d adjacent to the target region 2g region of interest 2 g if it is judged that there more than a predetermined amount Judgment is made (step P7).

たとえば図5においては、判定領域2iが縦6画素データ×横6画素データ(うち注目領域2gに3画素データ、処理領域2dに3画素データ)の計36画素データの範囲であり、判定領域2iのうちエッジ量1の画素データが60パーセント(すなわち21個)以上の画素データがエッジ量1のデータであるか否かを判定する。判定の結果、21個以上の画素データがエッジ量1のデータであった場合には、注目領域2gと隣接する処理領域2dとの間にはデータ中に連続性のあるエッジを含むものと判断する。   For example, in FIG. 5, the determination area 2 i is a range of 36 pixel data in total of 6 vertical pixel data × 6 horizontal pixel data (including 3 pixel data in the attention area 2 g and 3 pixel data in the processing area 2 d). It is determined whether or not pixel data having edge amount 1 of 60% (that is, 21) or more is edge amount 1 data. As a result of the determination, if 21 or more pieces of pixel data are data of edge amount 1, it is determined that the data includes a continuous edge between the attention area 2g and the adjacent processing area 2d. To do.

図4に示すとおり、ステップP7の処理を行ったのち、まだ隣接する処理領域2dとの間でエッジ情報の連続性の有無を判断していない処理領域2dが存在する場合には(ステップP8)注目領域2gの番地情報のうちxまたはyのうち少なくともいずれか一方を1繰上げて注目領域2gを1だけずらし(ステップP9)ステップP4以降の処理を繰り返す。ステップP6において数値1のデータが所定量以上存在しないと判定された場合には、判定領域2i中のデータには注目領域2gと注目領域2gに隣接する処理領域2dとの間にはエッジ情報の連続性がないものと判定する(ステップP10)。注目領域2gと注目領域2gに隣接する処理領域2dにおいてまだ判定を行っていない領域がある場合には(ステップP11)判定領域2iを1画素列共有する一辺に沿って移動させ(ステップP12)ステップP5以降の処理を繰り返す。すなわち、判定の結果ひとつでも数値1の画素データが所定量以上存在する箇所があった場合(たとえば図5において数値1の画素データが21個以上存在する判定領域2iがあった場合)には判定対象の注目領域2gと当該注目領域2gに隣接する判定対象の処理領域2dとの間には連続するエッジが存在し、注目領域2gと注目領域2gに隣接する処理領域2dとの間にはエッジ情報の連続性があるものと判断する。   As shown in FIG. 4, after performing the process of step P7, if there is a processing area 2d for which the presence / absence of continuity of edge information has not yet been determined with respect to the adjacent processing area 2d (step P8). At least one of x and y in the address information of the attention area 2g is incremented by 1 to shift the attention area 2g by 1 (step P9), and the processes after step P4 are repeated. When it is determined in step P6 that the data of the numerical value 1 does not exist in a predetermined amount or more, the data in the determination area 2i includes edge information between the attention area 2g and the processing area 2d adjacent to the attention area 2g. It is determined that there is no continuity (step P10). If there is an area that has not been determined yet in the attention area 2g and the processing area 2d adjacent to the attention area 2g (step P11), the determination area 2i is moved along one side sharing one pixel row (step P12). The processes after P5 are repeated. That is, if even one determination result shows that there is a location where pixel data with a numerical value 1 exists in a predetermined amount or more (for example, there is a determination region 2i in which there are 21 or more pixel data with a numerical value 1 in FIG. 5). A continuous edge exists between the target attention area 2g and the determination target processing area 2d adjacent to the attention area 2g, and an edge exists between the attention area 2g and the processing area 2d adjacent to the attention area 2g. Judge that there is continuity of information.

ステップP11において注目領域2gと注目領域2gに隣接する処理領域2dにおいてすべての領域にわたって判定を行ったと判断された場合には、注目領域2gの番地情報のうちxまたはyのうち少なくともいずれか一方を1繰り上げて注目領域2gを1だけずらして新たな注目領域2gを形成し(ステップP9)、ステップP4以降の処理を繰り返す。   If it is determined in step P11 that the determination has been made for all the areas in the attention area 2g and the processing area 2d adjacent to the attention area 2g, at least one of x and y in the address information of the attention area 2g is determined. The attention area 2g is moved up by 1 and shifted by 1 to form a new attention area 2g (step P9), and the processes after step P4 are repeated.

ステップP8において、すべての処理領域2dが隣接する処理領域2dとのエッジ情報の連続性の判断を行ったと判断された場合には、含まれるデータに連続性があると判断された処理領域2dについて、ラベリング部9が形成したラベリングデータを抽出し、画像識別子「A」「B」の個数を対比して「A」「B」いずれの個数が多いかを計測する(ステップP13)。計測の結果、画像識別子「A」の方が多いと判定された場合には、エッジ情報の連続性があると判断された処理領域2dにはすべて画像識別子「A」を関連付け(ステップP15)、画像識別子「B」の方が多いと判定された場合には、エッジ情報の連続性があると判断された処理領域2dにはすべて画像識別子「B」を関連付ける(ステップP16)。ステップP15またはステップP16で画像識別子を関連付けられた処理領域2dは第2ラベリングデータを形成する(ステップP17)。   If it is determined in step P8 that all the processing areas 2d have been subjected to the determination of the continuity of the edge information with the adjacent processing area 2d, the processing area 2d in which the included data is determined to be continuous is determined. Then, the labeling data formed by the labeling unit 9 is extracted, and the number of the image identifiers “A” and “B” is compared with each other to measure which number “A” or “B” is larger (step P13). As a result of the measurement, if it is determined that there are more image identifiers “A”, all the processing regions 2d determined to have edge information continuity are associated with the image identifier “A” (step P15). If it is determined that there are more image identifiers “B”, the image identifier “B” is associated with all the processing areas 2d determined to have continuity of edge information (step P16). The processing area 2d associated with the image identifier in step P15 or step P16 forms second labeling data (step P17).

第1の方法によれば、判定領域2i中のエッジ情報の量によって連続性を判断することにより、隣接する処理領域2d同士に含まれるエッジ情報の連続性の判断を高い確実性をもって行うことができる。   According to the first method, by determining the continuity based on the amount of edge information in the determination area 2i, it is possible to determine the continuity of the edge information included in the adjacent processing areas 2d with high certainty. it can.

(第2の方法)
第2の方法は特徴量情報抽出部7が特徴量情報としてエッジ情報を抽出した場合に用いられる。図6は第2の方法の処理手順を示すフローチャートである。以下図6に基づいて第2の方法における連続性の判断方法を説明する。
(Second method)
The second method is used when the feature amount information extraction unit 7 extracts edge information as feature amount information. FIG. 6 is a flowchart showing the processing procedure of the second method. The continuity determination method in the second method will be described below with reference to FIG.

特徴量情報抽出部7にてエッジ抽出処理が施された第1画像データおよび第2画像データの各画素データのエッジ量に対し、2値よりも細分した量子化を行う。たとえば第1画像データおよび第2画像データ中のエッジ量の最大値255とし、最小値を0として256段階に変換(8ビット量子化)し、各画素データのエッジ量を0から255までとする(ステップP21)。   The feature amount information extraction unit 7 performs quantization that is subdivided into binary values for the edge amounts of the pixel data of the first image data and the second image data subjected to the edge extraction processing. For example, the maximum value 255 of the edge amount in the first image data and the second image data is set, the minimum value is set to 0, and 256 steps are converted (8-bit quantization), and the edge amount of each pixel data is set from 0 to 255. (Step P21).

エッジ量を量子化した各画素データは、値の大きさをパラメータとした複数の処理ブロックに区分する。たとえば8ビット量子化したエッジ量を4等分し、エッジ量0〜63の画素データの集合(第1ブロック)、エッジ量64〜127の画素データの集合(第2ブロック)、エッジ量128〜191の画素データの集合(第3ブロック)、エッジ量192〜255の画素データの集合(第4ブロック)という4つの処理ブロックを形成する(ステップP22)。   Each pixel data obtained by quantizing the edge amount is divided into a plurality of processing blocks using the value size as a parameter. For example, an 8-bit quantized edge amount is divided into four equal parts, a set of pixel data with an edge amount of 0 to 63 (first block), a set of pixel data with an edge amount of 64 to 127 (second block), and an edge amount of 128 to Four processing blocks are formed, a set of 191 pixel data (third block) and a set of pixel data with edge amounts 192 to 255 (fourth block) (step P22).

次に、処理ブロックごとに所定のしきい値を設け、しきい値を用いてブロックごとのエッジ量の値を2値化する(ステップP23)。たとえば上記の第1〜第4ブロックの中央値(第1ブロックの31、第2ブロックの95、第3ブロックの159、第4ブロックの223)をしきい値とし、第1〜第4ブロックごとにすべての画素データのエッジ量の値をしきい値と比較し、しきい値未満のエッジ量を0(エッジなし)、しきい値以上のエッジ量を1(エッジあり)とする。   Next, a predetermined threshold value is provided for each processing block, and the value of the edge amount for each block is binarized using the threshold value (step P23). For example, the median value of the first to fourth blocks (31 for the first block, 95 for the second block, 159 for the third block, 223 for the fourth block) is used as the threshold value, and for each of the first to fourth blocks The edge amount values of all the pixel data are compared with a threshold value, an edge amount less than the threshold value is 0 (no edge), and an edge amount equal to or greater than the threshold value is 1 (with edge).

そして、処理ブロックごとに「第1の方法」のステップP2〜P16と同じ処理を行い、注目領域2gと注目領域2gに隣接する処理領域2dとのエッジ情報の連続性の有無を判断する(ステップP24)。   Then, the same processing as Steps P2 to P16 of the “first method” is performed for each processing block, and it is determined whether or not there is continuity of the edge information between the attention area 2g and the processing area 2d adjacent to the attention area 2g (Step). P24).

処理ブロックごとの連続性の有無の判断がすべて終了したら、判断結果をもとに各処理ブロックごとに仮ラベリングデータを形成する(ステップP25)。図6においては第1〜第4処理ブロックごとに合計4種類の仮ラベリングデータが形成される。   When all the determinations of the presence or absence of continuity for each processing block are completed, temporary labeling data is formed for each processing block based on the determination result (step P25). In FIG. 6, a total of four types of temporary labeling data are formed for each of the first to fourth processing blocks.

処理ブロックごとの仮ラベリングデータが形成されると、すべての仮ラベリングデータの対比が行われる(ステップP27)。対比は、たとえばすべての仮ラベリングデータにおいてエッジ情報の連続性ありと判断された処理領域2dについて、論理積の算出や、論理和の算出や、平均の算出などの方法が考えられる。   When provisional labeling data for each processing block is formed, all provisional labeling data are compared (step P27). For the comparison, for example, for the processing area 2d determined to have continuity of edge information in all the provisional labeling data, a method such as calculation of logical product, calculation of logical sum, or calculation of average can be considered.

仮ラベリングデータの対比の結果に基づいて、第2ラベリングデータが形成される(ステップP28)。   Based on the comparison result of the temporary labeling data, second labeling data is formed (step P28).

第2の方法によれば、画像データを複数の段階に区分した上で2値化を行い、段階ごとに行った判断の結果を総合して連続性の判断を行うことにより、第1の方法による連続性の判断よりも高い精度で処理領域2dごとの連続性の判断を行うことができる。   According to the second method, the image data is binarized after being divided into a plurality of stages, and the result of the determination made for each stage is comprehensively determined to determine the continuity. Therefore, it is possible to determine the continuity for each processing region 2d with higher accuracy than the determination of continuity according to the above.

(第3の方法)
第3の方法は特徴量情報抽出部7が特徴量情報としてエッジ情報を抽出した場合に用いられる。特徴量情報抽出部7にてエッジ抽出処理が施された第1画像データおよび第2画像データに対し、第1の方法と同様にエッジ量0、エッジ量1の2値化を行い、周辺領域形成部10において周辺領域データとされた処理領域2dを抽出する。
(Third method)
The third method is used when the feature amount information extraction unit 7 extracts edge information as feature amount information. Similar to the first method, the edge amount 0 and the edge amount 1 are binarized for the first image data and the second image data that have been subjected to the edge extraction processing by the feature amount information extraction unit 7, and the peripheral region The forming area 10 extracts the processing area 2d that is the peripheral area data.

処理領域2dのエッジ量1の任意の点を数点抽出し、ハフ変換(Hough変換)を利用して個々の直線を抽出してエッジ情報の連続性を判断する。   Several arbitrary points of edge amount 1 in the processing area 2d are extracted, and individual straight lines are extracted using the Hough transform (Hough transform) to determine the continuity of the edge information.

図7(a)(b)は第3の方法において用いるハフ変換の原理の説明図である。図7(a)に示すように、X−Y平面に任意の直線lが存在する場合、原点Oから直線lに下ろした垂線の足をHとし、OH=ρ,OHとX軸のなす角度をθ,Hの座標を(x,y)とすれば、直線lは下記式(1)であらわすことができる。   FIGS. 7A and 7B are explanatory diagrams of the principle of Hough transform used in the third method. As shown in FIG. 7 (a), when an arbitrary straight line 1 exists on the XY plane, the perpendicular foot drawn from the origin O to the straight line 1 is H, and OH = ρ, the angle formed by OH and the X axis Where θ and H are coordinates (x, y), the straight line 1 can be expressed by the following equation (1).

ρ=xcosθ+ysinθ…(1) ρ = x cos θ + ysin θ (1)

式(1)はX−Y平面上のすべての直線に適用できる。そしてρ、θの値が定まれば、X−Y平面上の唯一本の直線を特定できる。   Equation (1) can be applied to all straight lines on the XY plane. If the values of ρ and θ are determined, only one straight line on the XY plane can be specified.

X−Y平面上の任意の点(xi,yi)は、ρ−θ平面上においては式(2)および図7(b)に示す正弦波に変換される。 An arbitrary point (xi, yi) on the XY plane is converted into a sine wave shown in Expression (2) and FIG. 7B on the ρ-θ plane.

ρ=Asin(θ+α)・・・(2)
ただしA=(x +y 1/2であり、α=cos(y/A)である。
ρ = Asin (θ + α) (2)
However, A = (x i 2 + y i 2 ) 1/2 and α = cos (y i / A).

そして図7(b)に示すように、X−Y平面上で一の直線上にある点はρ−θ平面上唯一の通過点を必ず通過し、通過点Qの値(θ,ρ)は、X−Y平面上の直線が(1)式である場合の直線に一致する。   Then, as shown in FIG. 7B, a point on one straight line on the XY plane always passes through a unique passing point on the ρ-θ plane, and the value (θ, ρ) of the passing point Q is , The straight line on the XY plane coincides with the straight line in the case of the expression (1).

したがって、X−Y平面上の未知の任意の直線l上に既知の複数の点(x,y)、(x,y)、・・・(x,y)が存在する場合、点(x,y)、(x,y)、・・・(x,y)の値を式(2)に代入して通過点Q(ρ)の値を求めることで、直線lの値を求めることができる。 Accordingly, there are a plurality of known points (x 1 , y 1 ), (x 2 , y 2 ),... (X n , y n ) on an arbitrary arbitrary straight line l 0 on the XY plane. In this case, the values of the points (x 1 , y 1 ), (x 2 , y 2 ),... (X n , y n ) are substituted into the equation (2), and the passing point Q 00 , θ by obtaining a value of 0), it is possible to determine the value of the linear l 0.

ここで、図7(a)のX−Y平面を画像空間とし、X−Y平面上に2値化の結果エッジ量1とされた複数の点101、点102、点103、点104、点105が分布しており、点101、点102、点103、点104、点105が未知の直線l上に存在する場合、上述の理論に従い、点101、点102、点103、点104、点105のx座標とy座標(すなわち画素の番地情報)を式(2)に代入すれば通過点Q(ρ)の値が求まり、直線lが求められる。検出された直線が存在する領域は、エッジ情報の連続性があるものと判断する。なお実際にはさまざまな要因の誤差が生ずることに鑑み、ρ−θ平面上の複数の曲線が最も多く交差する点を通過点Q(ρ)として選択することが望ましい。 Here, the XY plane of FIG. 7A is an image space, and a plurality of points 101, 102, 103, 104, 104, which are set to an edge amount 1 as a result of binarization on the XY plane, are obtained. 105 are distributed, and the points 101, 102, 103, 104, and 105 exist on the unknown straight line l, the points 101, 102, 103, 104, and 104 are in accordance with the above theory. By substituting the x and y coordinates of 105 (that is, the address information of the pixels) into Equation (2), the value of the passing point Q jj , θ j ) is obtained, and the straight line l is obtained. A region where the detected straight line exists is determined to have continuity of edge information. In view of the fact that errors of various factors actually occur, it is desirable to select a point where a plurality of curves on the ρ-θ plane intersect most frequently as the passing point Q jj , θ j ).

ハフ変換によって画像データ中に複数のエッジ情報が抽出され、エッジ情報によって囲まれる領域を形成できた場合には、領域を囲むエッジ情報が連続しているものと判断できる。   When a plurality of edge information is extracted from the image data by the Hough transform and a region surrounded by the edge information can be formed, it can be determined that the edge information surrounding the region is continuous.

第3の方法に示す、ハフ変換を用いて連続性の判断をおこなうことにより、隣接する処理領域2dにわたって存在するエッジ情報の連続性を確実に判断できる。特に、輪郭が直線で形成された被写体を多く含む画像データにおいて、高い確実性をもってエッジ情報の連続性を判断できる。また、実際には連続した輪郭情報から取得されたエッジ情報でありながらエッジ成分が弱いためにところどころでエッジ情報が途切れてしまっている場合であっても、途切れた部分を補完して、元の輪郭情報に正しく対応した連続性を判断することができる。   By determining the continuity using the Hough transform shown in the third method, it is possible to reliably determine the continuity of the edge information existing over the adjacent processing region 2d. In particular, it is possible to determine the continuity of edge information with high certainty in image data including a large number of subjects whose contours are formed with straight lines. In addition, even if the edge information is actually cut off in some places because the edge component is weak even though it is edge information obtained from continuous contour information, the broken part is complemented and the original It is possible to determine continuity that correctly corresponds to the contour information.

(第4の方法)
第4の方法は特徴量情報抽出部7が特徴量情報としてエッジ情報を抽出した場合に用いられる。
(Fourth method)
The fourth method is used when the feature amount information extraction unit 7 extracts edge information as feature amount information.

第4の方法は、図5に示すような注目領域2gと注目領域2gに隣接する処理領域2dとを判定領域2iを用いた判定により行う。   In the fourth method, the attention area 2g and the processing area 2d adjacent to the attention area 2g as shown in FIG. 5 are determined by using the determination area 2i.

第4の方法は、第1、第3の方法と同様に、特徴量情報抽出部7にてエッジ抽出処理が施された第1画像データおよび第2画像データに対し、エッジ量0、エッジ量1の2値化を行う。ただし、しきい値は十分に高い値に設定し、強いエッジのみがエッジ量1になる状態とする。   In the fourth method, as in the first and third methods, the edge amount 0 and the edge amount are applied to the first image data and the second image data subjected to the edge extraction processing by the feature amount information extraction unit 7. 1 is binarized. However, the threshold value is set to a sufficiently high value so that only a strong edge has an edge amount of 1.

エッジ量を2値化した第1画像データおよび第2画像データについて、周辺領域形成部10において周辺領域データとされた処理領域2dを抽出する。   With respect to the first image data and the second image data in which the edge amount is binarized, the processing region 2d that is the peripheral region data is extracted by the peripheral region forming unit 10.

抽出した処理領域2dのうち一の領域を注目領域2gとし、注目領域2gに隣接する処理領域2d中の特定のエッジ量1の隣接する処理領域2dにまたがる所定の領域(たとえば縦10画素データ×横10画素データの範囲)に判定領域2iを形成する。判定領域内2iの範囲内において、注目領域2gと処理領域2dとにそれぞれエッジ量1の画素データが存在すると判定されれば、注目領域2gと注目領域2gに隣接する処理領域2dには連続性があると判断する。   One of the extracted processing areas 2d is set as the attention area 2g, and a predetermined area (for example, vertical 10 pixel data ×× 2) extending over the adjacent processing area 2d having a specific edge amount 1 in the processing area 2d adjacent to the attention area 2g. The determination area 2i is formed in the range of the horizontal 10 pixel data. If it is determined that pixel data of edge amount 1 exists in the attention area 2g and the processing area 2d within the determination area 2i, the processing area 2d adjacent to the attention area 2g and the attention area 2g is continuous. Judge that there is.

第4の方法によれば、注目領域2i内にエッジ情報が存在するか否かを判定するだけで注目領域2gと注目領域2gに隣接する処理領域2dとに含まれるエッジ情報の連続性が判断できるので、連続性の判断を非常に少ない処理量で行うことができる。   According to the fourth method, the continuity of the edge information included in the attention area 2g and the processing area 2d adjacent to the attention area 2g is determined only by determining whether or not the edge information exists in the attention area 2i. Therefore, determination of continuity can be performed with a very small processing amount.

(第5の方法)
第5の方法は特徴量情報抽出部7が特徴量としてRGBなどの色情報を抽出した場合に用いられる。
(Fifth method)
The fifth method is used when the feature amount information extraction unit 7 extracts color information such as RGB as a feature amount.

第5の方法は、図5に示すような注目領域2gと注目領域2gに隣接する処理領域2dとの対比によって行う。ただし図5に示す判定領域2iは設けない。特徴量情報抽出部7にてRGBなどの色情報が抽出された第1画像データおよび第2画像データに対しては、注目領域2gと注目領域2gに隣接する処理領域2dとの間に注目する色情報がどの程度存在するかを用いて判断を行う。注目領域2gに含まれる画素データ中のうち注目する色情報と、注目領域2gに隣接する処理領域2dに含まれる画素データ中のうち注目する色情報とを対比した際の比率について、上限のしきい値と下限のしきい値とを設け、比率がしきい値以内であれば注目領域2gと注目領域2gに隣接する処理領域2dとの間には連続性があるものと判断する。   The fifth method is performed by comparing the attention area 2g as shown in FIG. 5 with the processing area 2d adjacent to the attention area 2g. However, the determination area 2i shown in FIG. 5 is not provided. The first image data and the second image data from which color information such as RGB is extracted by the feature amount information extraction unit 7 is noted between the attention area 2g and the processing area 2d adjacent to the attention area 2g. A determination is made using how much color information exists. An upper limit is set for the ratio of the noticed color information in the pixel data contained in the attention area 2g and the noticed color information in the pixel data contained in the processing area 2d adjacent to the attention area 2g. A threshold value and a lower limit threshold value are provided, and if the ratio is within the threshold value, it is determined that there is continuity between the attention area 2g and the processing area 2d adjacent to the attention area 2g.

第5の方法によれば、特徴量情報に色情報を用いたCPU処理に基づく連続性の判断を実現できる。また、特徴量情報にRGBなどの色情報を用いることにより、撮像部2から画像処理手段4に入力された画像データをそのまま特徴量情報の抽出に用いることができるため、特徴量抽出のために行われる処理を軽減することができる。   According to the fifth method, determination of continuity based on CPU processing using color information as feature amount information can be realized. In addition, by using color information such as RGB for the feature amount information, the image data input from the imaging unit 2 to the image processing unit 4 can be used as it is for extracting the feature amount information. The processing performed can be reduced.

なお上述した第1〜第5の方法以外であっても周辺領域として特定された箇所において特徴量の連続性を判断できる手法であればどのような方法を用いてもよい。   Note that any method other than the first to fifth methods described above may be used as long as it is a method that can determine the continuity of the feature amount at the location specified as the peripheral region.

図8は画像合成装置1において、特徴量情報として画像データに含まれるエッジ情報を用いた場合の画像合成処理のフローチャートであり、図9から図19までは図8に示す画像合成処理の過程において生成されるデータのイメージ図である。以下、図8に基づいて、特徴量情報として画像データに含まれるエッジ情報を用いた場合の撮像装置1Aによる画像データ取得処理および画像合成装置1による画像合成処理を説明する。なお、説明に際し、構成ならびにデータに付す番号および記号は図1、図2、図5、図9から図21において用いた番号および記号と同じものを使用する。   FIG. 8 is a flowchart of the image composition process when the edge information included in the image data is used as the feature amount information in the image composition apparatus 1. FIGS. 9 to 19 are steps in the image composition process shown in FIG. It is an image figure of the data produced | generated. Hereinafter, an image data acquisition process performed by the imaging apparatus 1A and an image composition process performed by the image composition apparatus 1 when edge information included in the image data is used as feature amount information will be described with reference to FIG. In the description, the same numbers and symbols used in the configuration and data are the same as the numbers and symbols used in FIGS. 1, 2, 5, and 9 to 21.

図8において、まず撮像装置1Aの利用者は、撮像部2のシャッタのスイッチを押して被写体を撮影し、第1画像データを取得する(ステップS1)。第2画像データ取得部3のシャッタ検知部3aが利用者の操作に基づくシャッタの稼働を検知するとピント調節部2bはすぐにレンズ部2aを設定状態に調節する(ステップS2)。レンズ部2aが設定状態に調節されるとピント調節部3bはレンズ部2aの調節が終了すると調節が終了したことを通知する信号をシャッタ稼働部3cに送信し、シャッタ稼働部3cは撮像部2にシャッタの稼働信号を送り、撮像部2は第2画像データを取得する(ステップS3)。   In FIG. 8, first, the user of the imaging apparatus 1A presses the shutter switch of the imaging unit 2 to photograph the subject and obtains first image data (step S1). When the shutter detection unit 3a of the second image data acquisition unit 3 detects the operation of the shutter based on the user's operation, the focus adjustment unit 2b immediately adjusts the lens unit 2a to the set state (step S2). When the lens unit 2a is adjusted to the set state, the focus adjusting unit 3b transmits a signal notifying that the adjustment is completed to the shutter operating unit 3c when the adjustment of the lens unit 2a is completed. A shutter operation signal is sent to the imaging unit 2 to acquire second image data (step S3).

撮像部2が取得した第1画像データおよび第2画像データはAD変換部4でディジタル信号に変換されたのち画像合成装置1に送信される。   The first image data and the second image data acquired by the imaging unit 2 are converted into digital signals by the AD conversion unit 4 and then transmitted to the image composition device 1.

画像合成装置1の特徴量情報抽出部7は第1画像データおよび第2画像データのそれぞれに対し畳み込みオペレータを用いたエッジ成分の抽出処理を行う。エッジ情報は、処理領域2dを単位として抽出される。(ステップS4)。   The feature amount information extraction unit 7 of the image composition apparatus 1 performs edge component extraction processing using a convolution operator on each of the first image data and the second image data. The edge information is extracted with the processing area 2d as a unit. (Step S4).

特徴量情報抽出部7はステップS4において抽出されたエッジ成分について処理領域2dごとに具体的な数値としてエッジ量を算出する(ステップS5)。   The feature amount information extraction unit 7 calculates the edge amount as a specific numerical value for each processing region 2d for the edge component extracted in step S4 (step S5).

特徴量情報抽出部7が第1画像データおよび第2画像データについて算出したエッジ量はそれぞれ比較部8に送信される。比較部8は第1画像データと第2画像データとに含まれるエッジ成分の量を処理領域2dごとに比較し、エッジ成分が多く含まれている方の画像データを処理領域2dごとに選択した比較結果データを形成する(ステップS5)。   The edge amounts calculated by the feature amount information extraction unit 7 for the first image data and the second image data are respectively transmitted to the comparison unit 8. The comparison unit 8 compares the amount of edge components included in the first image data and the second image data for each processing region 2d, and selects the image data containing more edge components for each processing region 2d. Comparison result data is formed (step S5).

ステップS5における比較部8が形成した比較結果データ27は、ラベリング部9に送信される。ラベリング部9はすべての処理領域2dについて画像データ識別信号が第1画像データであれば「A」の文字を画像識別子とし、画像データ識別信号が第2画像データであれば「B」の文字を画像識別子としてラベリングを行い、第1ラベリングデータを形成する。   The comparison result data 27 formed by the comparison unit 8 in step S5 is transmitted to the labeling unit 9. If the image data identification signal is the first image data for all the processing areas 2d, the labeling unit 9 uses the character “A” as the image identifier, and if the image data identification signal is the second image data, the labeling unit 9 selects the character “B”. Labeling is performed as an image identifier to form first labeling data.

ステップS5においてラベリング部9が形成した第1ラベリングデータ30は記憶手段14に送信されて記録される(ステップS6)。また、ラベリング部9は第1ラベリングデータ30および比較結果データ27を周辺領域形成部10に送信する。   The first labeling data 30 formed by the labeling unit 9 in step S5 is transmitted to the storage means 14 and recorded (step S6). In addition, the labeling unit 9 transmits the first labeling data 30 and the comparison result data 27 to the peripheral region forming unit 10.

周辺領域形成部10は、ラベリング部9から受信した比較結果データ27において第1画像データ21を元に形成された処理領域2dと第2画像データ24を元に形成された処理領域2dとが隣接している境界の箇所を抽出し、境界の箇所に隣接する処理領域2dを周辺領域とし、周辺領域に存在する画像データに基づいて周辺領域データを形成する(ステップS8)。   In the peripheral area forming unit 10, the processing area 2 d formed based on the first image data 21 and the processing area 2 d formed based on the second image data 24 in the comparison result data 27 received from the labeling unit 9 are adjacent to each other. Then, the boundary area is extracted, the processing area 2d adjacent to the boundary area is set as the peripheral area, and the peripheral area data is formed based on the image data existing in the peripheral area (step S8).

ステップS8において周辺領域形成部10が形成した周辺領域データ31は連続性判断部11に供給される。連続性判断部11はエッジ情報抽出部7が出力した第1画像データ21および第2画像データ24の供給を受け、第1画像データ21および第2画像データ24のうち周辺領域データの番地情報を含む処理領域2dのデータを抽出し、周辺領域データ31において隣接する処理領域2d同士に存在するエッジ情報同士の連続性の有無を判断する(ステップS9)。連続性の有無の判断には、上述の第1の方法から第4の方法までに示したような判断方法を用いる。   The peripheral area data 31 formed by the peripheral area forming unit 10 in step S8 is supplied to the continuity determining unit 11. The continuity determination unit 11 receives the first image data 21 and the second image data 24 output from the edge information extraction unit 7, and obtains the address information of the peripheral region data of the first image data 21 and the second image data 24. The data of the processing area 2d included is extracted, and it is determined whether or not there is continuity between the edge information existing in the adjacent processing areas 2d in the peripheral area data 31 (step S9). For the determination of the presence or absence of continuity, the determination methods as shown in the first method to the fourth method are used.

連続性判断部11は、連続性があると判断された領域32に対し、処理領域2dごとに判断結果に基づいた適切な画像識別子をラベリングし、第2ラベリングデータを形成する(ステップS10)。   The continuity determination unit 11 labels the region 32 determined to have continuity with an appropriate image identifier based on the determination result for each processing region 2d to form second labeling data (step S10).

ステップS10にて連続性抽出部11が形成した第2ラベリングデータは修正部12に供給される。修正部にはさらに記憶手段14に記憶されたラベリング部9が形成した第1ラベリングデータが供給され、修正部12は第1および第2ラベリングデータを対比し、異なる画面識別子が関連付けられた処理領域2dがあるか否かを確認する(ステップS11)。異なる画面識別子が関連付けられた処理領域2dが存在する場合には、第1ラベリングデータにおける第2ラベリングデータと異なる画面識別子を第2ラベリングデータの画面識別子に置き換える(ステップS12)。なお、連続性判断部11が形成したラベリングデータの画像識別子とラベリング部9が形成したラベリングデータの画像識別子とが完全に一致する場合には、修正部12はステップS12の処理を行わない。第2判断部12による第1ラベリングデータと第2ラベリングデータとの対比の結果形成されるラベリングデータは画面識別子の置き換えの如何にかかわらず修正結果としての第3ラベリングデータとして出力される。   The second labeling data formed by the continuity extraction unit 11 in step S10 is supplied to the correction unit 12. The correction unit is further supplied with the first labeling data formed by the labeling unit 9 stored in the storage unit 14, and the correction unit 12 compares the first and second labeling data and is associated with a different screen identifier. It is confirmed whether there is 2d (step S11). If there is a processing area 2d associated with a different screen identifier, a screen identifier different from the second labeling data in the first labeling data is replaced with the screen identifier of the second labeling data (step S12). When the image identifier of the labeling data formed by the continuity determining unit 11 and the image identifier of the labeling data formed by the labeling unit 9 completely match, the correcting unit 12 does not perform the process of step S12. The labeling data formed as a result of the comparison between the first labeling data and the second labeling data by the second determination unit 12 is output as the third labeling data as the correction result regardless of the replacement of the screen identifier.

修正部12は第3ラベリングデータ34を出力し、第3ラベリングデータ34は画像データ合成部13に供給される。画像データ供給部13はさらに記憶手段14から第1画像データおよび第2画像データの供給を受け、第3ラベリングデータ34の処理領域2dごとの番地情報と画像識別子情報とに基づいて第1画像データと第2画像データを処理領域2dごとに合成し、合成画像データを生成する(ステップS13)。   The correction unit 12 outputs the third labeling data 34, and the third labeling data 34 is supplied to the image data synthesis unit 13. The image data supply unit 13 further receives the supply of the first image data and the second image data from the storage unit 14, and the first image data based on the address information and the image identifier information for each processing region 2d of the third labeling data 34. And the second image data are synthesized for each processing region 2d to generate synthesized image data (step S13).

なお、図8から図21に示す実施の形態おいては特徴量情報抽出部7において画像データに含まれるエッジ量を抽出することで合成画像データを形成したが、RGBなどの色情報を用いる場合においても同様のステップにより処理を行う。ただし特徴量情報抽出部7は色情報を抽出し、連続性判断部11は上記(第5の方法)に示すような方法を用いて隣接する処理領域2dごとの色情報が連続する可能性について判断する。   In the embodiment shown in FIGS. 8 to 21, the composite image data is formed by extracting the edge amount included in the image data in the feature amount information extraction unit 7. However, when color information such as RGB is used. The same processing is performed in step. However, the feature amount information extraction unit 7 extracts color information, and the continuity determination unit 11 uses the method as described above (fifth method) for the possibility that the color information for each adjacent processing region 2d is continuous. to decide.

以上、本実施の形態に係る画像合成装置1においては、画像データを複数の処理領域2dに区分して処理領域2dごとに品質の高い画像データを選択して合成画像データ38を形成できるため、第1画像データ21および第2画像データ24という2つの画像データのみを用いて品質の高い合成画像データ38を取得することができる。   As described above, in the image composition device 1 according to the present embodiment, the image data can be divided into a plurality of processing regions 2d, and high-quality image data can be selected for each processing region 2d to form the composite image data 38. High-quality composite image data 38 can be acquired using only the two image data of the first image data 21 and the second image data 24.

本実施の形態に係る画像合成装置1においては、異なる画像データの対応する処理領域2dに含まれる特徴量情報の多少に基づく比較結果と、同一の画像データの隣接する処理領域2dに含まれる特徴量情報の連続性の判断結果の判断結果という異なるふたつの基準を用いて合成画像データ38を形成する処理領域2dを選択するため、より品質の高い合成画像データ38を形成できる。   In the image composition device 1 according to the present embodiment, the comparison result based on the amount of feature amount information included in the corresponding processing area 2d of different image data and the characteristics included in the adjacent processing area 2d of the same image data. Since the processing region 2d for forming the composite image data 38 is selected using two different criteria, ie, the determination result of the determination result of the continuity of the quantity information, the composite image data 38 with higher quality can be formed.

本実施の形態に係る画像合成装置1においては、比較結果のうち異なる画像データに基づいて形成された処理領域2dが隣接する箇所を周辺領域とし、周辺領域データ31のうち連続性があると判断された領域32を判断結果とすることにより、特徴量情報の比較結果を連続性の判断結果で補正する形で合成画像データを形成し、近景被写体22と遠景被写体23との境界領域を形成する画像データを第1画像データまたは第2画像データのうちいずれか一方に揃える事が出来るので、被写体の位置ずれや大きさのずれ等が生じにくいため、視覚上もほぼ違和感の無い合成画像データ38を形成できる。   In the image composition device 1 according to the present embodiment, it is determined that the processing region 2d formed based on different image data in the comparison result is adjacent to the peripheral region, and the peripheral region data 31 has continuity. By using the determined region 32 as a determination result, composite image data is formed in such a manner that the comparison result of the feature amount information is corrected by the determination result of continuity, and a boundary region between the foreground subject 22 and the distant subject 23 is formed. Since the image data can be aligned with either the first image data or the second image data, it is difficult for the subject to shift in position or size, so that the composite image data 38 that is almost visually uncomfortable. Can be formed.

本実施の形態に係る画像合成装置1においては、比較部8における比較結果と、連続性判定部11における判定結果と、修正部12における修正結果を画像識別子によるラベリングデータとして形成することにより、比較結果と連続性の判断結果との対比や画像データ合成部13に対する対比結果の送信を簡素な処理によって確実に行うことができる。   In the image composition device 1 according to the present embodiment, the comparison result in the comparison unit 8, the determination result in the continuity determination unit 11, and the correction result in the correction unit 12 are formed as labeling data based on image identifiers. The comparison between the result and the determination result of continuity and the transmission of the comparison result to the image data synthesizing unit 13 can be reliably performed by simple processing.

本発明の一の実施の形態に係る撮像装置および画像合成装置の構成を示す構成ブロック図である。1 is a configuration block diagram illustrating configurations of an imaging device and an image composition device according to an embodiment of the present invention. 同上画像合成装置において形成される処理領域のイメージ図である。It is an image figure of the processing area formed in an image composition device same as the above. 同上画像合成装置の特徴量情報抽出部が用いる畳み込みオペレータの具体例である。It is a specific example of the convolution operator which the feature-value information extraction part of an image composition apparatus same as the above uses. 同上画像合成装置の連続性判断部の第1の方法による処理手順を示すフローチャートである。It is a flowchart which shows the process sequence by the 1st method of the continuity judgment part of an image composition apparatus same as the above. 同上連続性判断部の第1の方法による処理の模式を示す図である。It is a figure which shows the model of the process by the 1st method of a continuity judgment part same as the above. 同上連続性判断部の第2の方法による処理手順を示すフローチャートである。It is a flowchart which shows the process sequence by the 2nd method of a continuity judgment part same as the above. 同上連続性判断部の第3の方法において用いるハフ変換の原理の説明図である。It is explanatory drawing of the principle of the Hough transform used in the 3rd method of a continuity judgment part same as the above. 同上画像合成装置における画像合成処理のフローチャートである。It is a flowchart of the image composition process in an image composition apparatus same as the above. 同上画像合成装置の取得した第1画像データのイメージ図である。It is an image figure of the 1st image data which the image composition apparatus same as the above acquired. 同上画像合成装置の取得した第2画像データのイメージ図である。It is an image figure of the 2nd image data which the image composition apparatus same as the above acquired. 同上画像合成装置において第1画像データからエッジ成分を抽出したデータのイメージ図である。It is an image figure of the data which extracted the edge component from 1st image data in the image composition apparatus same as the above. 同上画像合成装置において第2画像データからエッジ成分を抽出したデータのイメージ図である。It is an image figure of the data which extracted the edge component from 2nd image data in the image composition apparatus same as the above. 同上画像合成装置において形成される比較結果データのイメージ図である。It is an image figure of the comparison result data formed in an image composition apparatus same as the above. 同上画像合成装置において形成される第1ラベリングデータのイメージ図である。It is an image figure of the 1st labeling data formed in an image composition apparatus same as the above. 同上画像合成装置において形成される周辺領域データのイメージ図である。It is an image figure of the peripheral region data formed in an image composition apparatus same as the above. 同上画像合成装置における連続性判断部の連続性の判断結果のイメージ図である。It is an image figure of the judgment result of the continuity of the continuity judgment part in an image composition apparatus same as the above. 同上画像合成装置において形成される第2ラベリングデータのイメージ図である。It is an image figure of the 2nd labeling data formed in an image composition apparatus same as the above. 同上画像合成装置において形成される第3ラベリングデータのイメージ図である。It is an image figure of the 3rd labeling data formed in an image composition apparatus same as the above. 同上画像合成装置において第1画像データと第2画像データとの合成を行う過程を示すイメージ図である。It is an image figure which shows the process which synthesize | combines 1st image data and 2nd image data in an image composition apparatus same as the above. 同上画像合成装置において合成された合成画像データのイメージ図である。It is an image figure of the synthesized image data synthesize | combined in the image synthesizer same as the above. 同上画像合成装置において比較結果データのみにより合成された場合に形成される仮想合成画像データのイメージ図である。It is an image figure of the virtual synthetic | combination image data formed when it synthesize | combines only by the comparison result data in an image synthesis apparatus same as the above.

符号の説明Explanation of symbols

1A・・・撮像装置、1・・・画像合成装置、2・・・撮像部、2a・・・レンズ部、2d・・・処理領域、2i・・・判定領域、3・・・シャッタ駆動手段、3a・・・シャッタ検知部、3b・・・ピント調節部、3c・・・シャッタ稼働部、7・・・特徴量情報抽出部、8・・・比較部、9・・・ラベリング部、10・・・周辺領域形成部、11・・・連続性判断部、12・・・修正部、13・・・画像データ合成部、21・・・第1画像データ、24・・・第2画像データ、30・・・第1ラベリングデータ、33・・・第2ラベリングデータ、34・・・第3ラベリングデータ、38・・・合成画像データ DESCRIPTION OF SYMBOLS 1A ... Imaging device, 1 ... Image composition apparatus, 2 ... Imaging part, 2a ... Lens part, 2d ... Processing area, 2i ... Determination area, 3 ... Shutter drive means 3a ... shutter detection unit, 3b ... focus adjustment unit, 3c ... shutter operating unit, 7 ... feature quantity information extraction unit, 8 ... comparison unit, 9 ... labeling unit, 10 ... peripheral area forming unit, 11 ... continuity determination unit, 12 ... correction unit, 13 ... image data synthesis unit, 21 ... first image data, 24 ... second image data 30 ... first labeling data, 33 ... second labeling data, 34 ... third labeling data, 38 ... composite image data

Claims (9)

撮像装置が同一の被写体をピントを変えて連続的に撮影し取得した複数の画像データに基づいて一の合成画像データを形成する画像合成装置であって、
前記各画像データに含まれる特徴量情報を所定の画素群単位に形成した処理領域ごとに抽出する特徴量情報抽出手段と、
前記特徴量情報抽出手段が抽出した前記特徴量情報を前記複数の画像データそれぞれの対応する前記処理領域ごとに対比し前記処理領域ごとの前記特徴量情報が最も多い画像データの処理領域データの集合を比較結果として抽出する比較手段と、
前記比較結果のうち、異なる画像データの処理領域同士が隣接する箇所を抽出して周辺領域として形成する周辺領域形成手段と、
前記周辺領域に相当する処理領域に存在する特徴量情報の連続性の有無を判断し、特徴量情報の連続性が有ると判断された処理領域については、当該処理領域において前記特徴量情報が最も多い画像データの対応する処理領域データの集合を判断結果として出力する連続性判断手段と、
前記比較結果と前記判断結果とを対比して前記比較結果を修正した修正結果を出力する修正手段と、
前記修正結果を用いて前記処理領域単位で前記複数の画像データの中の対応する画像データの処理領域データを合成して前記合成画像データを形成する画像データ合成手段と
を有することを特徴とする画像合成装置。
An image synthesizing apparatus for forming a one composite image data based on the plurality of images data that the imaging device is acquired continuously shooting by changing the focus of the same subject,
Feature amount information extracting means for extracting feature amount information included in each image data for each processing region formed in a predetermined pixel group unit;
It compared the feature amount information in which the feature amount information extraction means has extracted for each of the processing regions corresponding of the plurality image data of each of each of the processing region and the feature amount information of processing area data of the most common image data A comparison means for extracting a set as a comparison result;
Out of the comparison results, a peripheral region forming unit that extracts a portion where processing regions of different image data are adjacent to each other, and forms a peripheral region;
It is determined whether or not the feature amount information existing in the processing region corresponding to the peripheral region is continuous. For a processing region that is determined to have continuity of feature amount information, the feature amount information is the most in the processing region. Continuity determination means for outputting a set of processing area data corresponding to a large amount of image data as a determination result;
Correction means for outputting a correction result obtained by correcting the comparison result by comparing the comparison result and the determination result;
Image data synthesizing means for synthesizing processing area data of corresponding image data in the plurality of image data in the processing area unit using the correction result to form the synthesized image data. Image composition device.
前記特徴量情報はエッジ成分情報であり、
前記連続性は、隣接する前記処理領域にそれぞれ含まれるエッジ成分情報が連続する可能性である
ことを特徴とする請求項に記載の画像合成装置。
The feature amount information is an edge component information,
The image synthesizer according to claim 1 , wherein the continuity is a possibility that edge component information included in each of the adjacent processing regions is continuous.
前記特徴量情報は色情報であり、
前記連続性は、隣接する前記処理領域にそれぞれ含まれる色情報が連続する可能性である
ことを特徴とする請求項に記載の画像合成装置。
The feature amount information is color information,
The image synthesizer according to claim 1 , wherein the continuity is a possibility that color information included in each of the adjacent processing regions is continuous.
前記連続性判断手段は、周辺領域に含まれる隣接する2つの処理領域に含まれる特徴量情報を画素データ単位で計測する判定領域を形成し、
前記判定領域中に前記特徴量情報が所定量以上存在するか否かによって隣接する前記処理領域同士の特徴量情報の連続性の判断を行う
ことを特徴とする請求項に記載の画像合成装置。
The continuity determination unit forms a determination region for measuring feature amount information included in two adjacent processing regions included in a peripheral region in units of pixel data,
The image synthesizing apparatus according to claim 1 , wherein continuity of feature amount information between adjacent processing regions is determined based on whether or not the feature amount information is present in a predetermined amount or more in the determination region. .
前記連続性判断手段は、2値化した特徴量情報について隣接する前記処理領域同士の特徴量情報の連続性の判断を行うことを特徴とする請求項に記載の画像合成装置。 The image synthesizer according to claim 4 , wherein the continuity determination unit determines continuity of feature amount information between adjacent processing regions with respect to binarized feature amount information. 前記連続性判断手段は、前記画素データごとの特徴量情報を特徴量情報の階調に依存した複数の段階に区分するとともに、当該段階ごとに区分された前記特徴量情報を2値化する
ことを特徴とする請求項に記載の画像合成装置。
The continuity determination means may be divided into a plurality of stages that depends feature amount information of each of the pixel data to the tone of the feature amount information, binarizing the feature amount information divided per the steps The image synthesizing device according to claim 5 .
前記連続性判断手段は、ハフ変換を用いることにより、周辺領域に含まれる隣接する2つの処理領域同士の特徴量情報の連続性を判断する
ことを特徴とする請求項に記載の画像合成装置。
The image synthesizer according to claim 1 , wherein the continuity determination unit determines continuity of feature amount information between two adjacent processing regions included in a peripheral region by using a Hough transform. .
前記撮像装置は、
撮像部と、
シャッタ駆動手段と
を備え、
前記シャッタ駆動手段は、
利用者による前記撮像部のシャッタボタンの操作によるシャッタの稼働を検知するシャッタ検知手段と、
前記シャッタ検知手段による前記シャッタの稼働の検知を受けて前記撮像部のレンズ部のピントを調節するピント調節手段bと、
前記ピント調節手段による前記レンズ部のピントの調節を受けて前記撮像部のシャッタを稼働させるシャッタ稼働手段と
を有し、
利用者による前記撮像部のシャッタボタンの操作を受けて、撮像部に同一の被写体を連続で撮影させ、ピントを変えた同一の被写体の複数の画像データを取得させる
ことを特徴とする請求項1に記載の画像合成装置。
The imaging device
An imaging unit;
Shutter driving means and
With
The shutter driving means includes
Shutter detection means for detecting the operation of the shutter by the operation of the shutter button of the imaging unit by the user;
A focus adjusting unit b that adjusts the focus of the lens unit of the imaging unit in response to detection of the operation of the shutter by the shutter detecting unit;
In response to adjustment of focus of the lens unit by said focusing means have a shutter operating means for operating the shutter of the imaging unit,
Receiving the operation of the shutter button of the imaging unit by a user, causing the imaging unit to continuously capture the same subject, and acquiring a plurality of image data of the same subject with the focus changed. The image composition device according to claim 1.
請求項1から請求項9までのいずれか1項に記載の画像合成装置をコンピュータに実施させることを特徴とするプログラム。   A program for causing a computer to execute the image composition apparatus according to any one of claims 1 to 9.
JP2004327016A 2004-11-10 2004-11-10 Image composition apparatus, imaging means, and program Expired - Fee Related JP4271648B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004327016A JP4271648B2 (en) 2004-11-10 2004-11-10 Image composition apparatus, imaging means, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004327016A JP4271648B2 (en) 2004-11-10 2004-11-10 Image composition apparatus, imaging means, and program

Publications (2)

Publication Number Publication Date
JP2006140646A JP2006140646A (en) 2006-06-01
JP4271648B2 true JP4271648B2 (en) 2009-06-03

Family

ID=36621152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004327016A Expired - Fee Related JP4271648B2 (en) 2004-11-10 2004-11-10 Image composition apparatus, imaging means, and program

Country Status (1)

Country Link
JP (1) JP4271648B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5888899B2 (en) * 2011-08-10 2016-03-22 キヤノン株式会社 Video processing apparatus, video processing method, and program
JP5850365B2 (en) * 2011-12-01 2016-02-03 国立大学法人電気通信大学 Image processing program and image processing apparatus
CN105659287B (en) * 2013-08-28 2018-08-17 株式会社理光 Image processing apparatus, image processing method and imaging system
JP6594039B2 (en) * 2015-05-20 2019-10-23 株式会社東芝 Image processing apparatus, method, and program

Also Published As

Publication number Publication date
JP2006140646A (en) 2006-06-01

Similar Documents

Publication Publication Date Title
KR102306283B1 (en) Image processing method and device
KR101265358B1 (en) Method of controlling an action, such as a sharpness modification, using a colour digital image
JP6347675B2 (en) Image processing apparatus, imaging apparatus, image processing method, imaging method, and program
JP2022093341A (en) Imaging apparatus
JP2005309559A (en) Image processing method, device and program
JP2013005091A (en) Imaging apparatus and distance information acquisition method
JP6755787B2 (en) Image processing equipment, image processing methods and programs
CN108462830A (en) The control method of photographic device and photographic device
JP5619124B2 (en) Image processing apparatus, imaging apparatus, image processing program, and image processing method
JP2005309560A (en) Image processing method, device and program
JP2018107526A (en) Image processing device, imaging apparatus, image processing method and computer program
US20090290041A1 (en) Image processing device and method, and computer readable recording medium containing program
JP2017060010A (en) Imaging device, method of controlling imaging device, and program
JP2010141814A (en) Image processing apparatus, imaging apparatus, program, and method of image processing
JP2019047365A (en) Image processing apparatus, image processing apparatus control method, imaging apparatus, and program
JP4271648B2 (en) Image composition apparatus, imaging means, and program
JP5387341B2 (en) Imaging device
JP3643203B2 (en) Digital camera
JPH10210360A (en) Digital camera
JP2007249526A (en) Imaging device, and face area extraction method
JP6003974B2 (en) Image processing apparatus, image processing method, and program
CN115086558B (en) Focusing method, image pickup apparatus, terminal apparatus, and storage medium
JP2011147076A (en) Image processing apparatus, image capturing apparatus and program
JP6833772B2 (en) Image processing equipment, imaging equipment, image processing methods and programs
JP3631577B2 (en) Digital camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090210

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090225

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees