JP2006003982A - Image processor, image processing method, recording medium, and program - Google Patents

Image processor, image processing method, recording medium, and program Download PDF

Info

Publication number
JP2006003982A
JP2006003982A JP2004177122A JP2004177122A JP2006003982A JP 2006003982 A JP2006003982 A JP 2006003982A JP 2004177122 A JP2004177122 A JP 2004177122A JP 2004177122 A JP2004177122 A JP 2004177122A JP 2006003982 A JP2006003982 A JP 2006003982A
Authority
JP
Japan
Prior art keywords
image
images
graph structure
nodes
edges
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004177122A
Other languages
Japanese (ja)
Other versions
JP4552115B2 (en
Inventor
Nielsen Frank
ニールセン フランク
Shigeru Owada
茂 大和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004177122A priority Critical patent/JP4552115B2/en
Publication of JP2006003982A publication Critical patent/JP2006003982A/en
Application granted granted Critical
Publication of JP4552115B2 publication Critical patent/JP4552115B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To connect two images, where the sampling point of a pixel is not coincident, without performing re-sampling processing. <P>SOLUTION: A graphic structure is set in the inputted images X, Y in a step S1. In a step S2, an average density in the node of the graphic structure is calculated so as to obtain the images A1, A2 in response to each value of the average density. In a step S3, an area which is superimposed on the image A2 in the graphic structure of the image A1, is defined as A3. A source/sink node is set in a step S4 and connected to each node which is positioned on the outer periphery of the area A3 in a step S5. In a step S6, a cost is calculated concerning each node and edge of the area A3 and an edge connected to the source/sink node. In a step S7, the problem of Min-cut and Max-flow, is solved based on the costs. The present invention is applied to image processing such as image retouch, panoramic image generation, and texture generation. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像処理装置および方法、記録媒体、並びにプログラムに関し、特に、複数の画像を結合して新たな画像を生成する場合に用いて好適な画像処理装置および方法、記録媒体、並びにプログラムに関する。   The present invention relates to an image processing apparatus and method, a recording medium, and a program, and more particularly, to an image processing apparatus and method, a recording medium, and a program that are suitable for use when a plurality of images are combined to generate a new image. .

例えば、山頂から眼下を見回したときの景色を1枚の画像(いわゆる、パノラマ画像)として生成する場合等においては、異なる方向を向けて撮影した複数の画像を結合して、パノラマ画像を生成することになる。また、パノラマ画像に限らず、複数の画像を連結して新たに画像を生成することは、一般的な画像処理としては非常に頻繁に行われている。   For example, in the case of generating a landscape when looking down from the top of the mountain as one image (so-called panoramic image), a panoramic image is generated by combining a plurality of images taken in different directions. It will be. In addition to panoramic images, a plurality of images are connected to generate a new image very frequently as general image processing.

図1に示すように、2枚の画像X,Yを結合する場合、画像X,Yにおける被写体の大きさを揃えたり、被写体の向きを調整したりする必要があるので、例えば、図2に示すように、画像を拡大または縮小、変形、回転等の処理(以下、単に変形処理と記述する)が行われる。ただし、図2の場合は、画像Bだけを比較的規則性をもって回転・変形させているが、実際の変形処理においては、より複雑な形状に変形されることも多い。ここで、変形処理が施された画像をY’とする。   As shown in FIG. 1, when two images X and Y are combined, it is necessary to adjust the size of the subject in the images X and Y and adjust the direction of the subject. As shown, the image is subjected to processing such as enlargement or reduction, deformation, and rotation (hereinafter simply referred to as deformation processing). However, in the case of FIG. 2, only the image B is rotated and deformed with relatively regularity, but in an actual deformation process, it is often deformed into a more complicated shape. Here, it is assumed that the image subjected to the deformation process is Y ′.

この回転・変形させる処理では、当該処理以前において通常では図1の画像Y上に黒点で示されるサンプリング点の正方格子構造が、図2の画像Y’上に黒点で示されるように、非正方格子構造に変形されることになる。なお、画像Xも同様に変形されることがある。   In this rotation / deformation process, a square lattice structure of sampling points indicated by black dots on the image Y in FIG. 1 is usually non-square before the process, as indicated by black dots on the image Y ′ in FIG. It will be transformed into a lattice structure. Note that the image X may be similarly deformed.

ところで、従来確立されている2枚の画像を結合する方法(例えば、Graphcut法。非特許文献1参照)では、重なった領域の格子点(サンプリング点)の位置が一致している場合にのみ、2枚の画像を結合することができる。したがって、図2に示された状態では、画像Y’のサンプリング点が非正方格子構造なので結合することができないので、画像Xのサンプリング点に重なるように、図3に示すように、画像Y’のサンプリング点を正方格子構造に変換して(以下、この変換の処理をリサンプリング処理と記述する)画像Y”を生成し、Min-cut Max-flow問題を解くことにより、結合ラインを決定して画像X,Y”を結合することになる。   By the way, in the conventional method for combining two images (for example, the Graphcut method; see Non-Patent Document 1), only when the positions of the lattice points (sampling points) in the overlapped region match. Two images can be combined. Therefore, in the state shown in FIG. 2, since the sampling points of the image Y ′ are non-square lattice structures, they cannot be combined, so that the image Y ′ overlaps with the sampling points of the image X as shown in FIG. The sampling points are converted to a square lattice structure (hereinafter, this conversion process is referred to as resampling process) to generate an image Y ”and solve the Min-cut Max-flow problem to determine the connection line. Thus, the images X and Y ″ are combined.

Kwatra et al.“Graphcut textures: image and video synthesis using graph cuts” Siggraph2003 proceedings p.277-286Kwatra et al. “Graphcut textures: image and video synthesis using graph cuts” Siggraph2003 proceedings p.277-286

しかしながら、上述したように、画像Y’にリサンプリング処理を施した場合、生成された画像Y”の画質が劣化してしまうという課題があった。   However, as described above, when the resampling process is performed on the image Y ′, there is a problem that the image quality of the generated image Y ″ is deteriorated.

この画像Y”の画像劣化という問題を解決する方法としては、元の画像Yの解像度をできるだけ高くしておくという方法もあるが、その場合、画像Y,Y’,Y”等を記憶するメモリの容量を大きくしなければならなかったり、解像度の高い画像Yを用意することができなかったりすることもあり得る等の課題があった。   As a method for solving the problem of the image degradation of the image Y ″, there is a method of keeping the resolution of the original image Y as high as possible. In that case, a memory for storing the images Y, Y ′, Y ″, etc. There is a problem that it may be necessary to increase the capacity of the image or to prepare an image Y having a high resolution.

本発明はこのような状況に鑑みてなされたものであり、サンプリング点が一致していない2枚の画像を、リサンプリング処理を施すことなく結合できるようにすることを目的とする。   The present invention has been made in view of such a situation, and an object of the present invention is to allow two images whose sampling points do not match to be combined without performing a resampling process.

本発明の画像処理装置は、2枚の画像の重複領域において、原画像中に存在するピクセルをノードとし、それらがエッジで連結されたグラフ構造を設定するグラフ構造設定手段と、2枚の画像のピクセルの画素値に基づき、重複領域のノードおよびエッジにそれぞれ対応するコストを算出する算出手段と、算出手段によって算出されたコストに基づき、重複領域を分断する分断ラインを取得する取得手段と、分断ラインを境として、第1および第2の画像を結合する結合手段とを含むことを特徴とする。   The image processing apparatus according to the present invention includes a graph structure setting unit for setting a graph structure in which pixels existing in an original image are nodes and connected by edges in an overlapping region of two images, and two images Calculation means for calculating a cost corresponding to each node and edge of the overlap area based on the pixel value of the pixel, and an acquisition means for acquiring a dividing line for dividing the overlap area based on the cost calculated by the calculation means, And a coupling means for coupling the first and second images with the dividing line as a boundary.

前記グラフ構造決定手段は、2枚の画像に対してそれぞれ、各ピクセルをノードとし、それらがエッジで連結されたグラフ構造を設定するグラフ構造設定手段と、グラフ構造が設定された2枚の画像の一方を第1の画像、他方を第2の画像に指定する指定手段と、第1および第2の画像を結合する位置に配置したとき、第1の画像に設けられたグラフ構造の領域であって、かつ、第2の画像と重なり合う領域を重複領域に決定する決定手段とを含むようにすることができる。   The graph structure determining means is a graph structure setting means for setting a graph structure in which each pixel is a node and connected by an edge with respect to two images, and two images in which the graph structure is set. When the first image and the second image are arranged at a position where the first image and the second image are combined, the graph structure region provided in the first image And determining means for determining an area overlapping the second image as an overlapping area.

前記グラフ構造設定手段は、2枚の画像に対してそれぞれ、三角形の領域の組み合わせであってノードとエッジから成るグラフ構造を設定するようにすることができる。   The graph structure setting means can set a graph structure composed of nodes and edges, each of which is a combination of triangular regions for two images.

前記グラフ構造設定手段は、2枚の画像に対してそれぞれ、アルファシェープを三角形分割したものを求め、三角形の領域の組み合わせであってノードとエッジから成るグラフ構造を設定するようにすることができる。   The graph structure setting means obtains a triangulated alpha shape for each of two images, and can set a graph structure composed of nodes and edges, which is a combination of triangular regions. .

前記グラフ構造設定手段は、2枚の画像をノードの平均密度について比較し、比較結果に基づいて2枚の画像の一方を第1の画像、他方を第2の画像に指定し、第1の画像のノードのみをエッジで連結しグラフ構造を設定することができる。   The graph structure setting unit compares the two images with respect to the average density of the nodes, and designates one of the two images as the first image and the other as the second image based on the comparison result, It is possible to set a graph structure by connecting only image nodes with edges.

前記グラフ構造設定手段は、2枚の画像を前記ノードの平均密度について比較し、2枚の画像の平均密度の高い方を第1の画像、低い方を第2の画像に指定することができる。   The graph structure setting means can compare two images with respect to the average density of the nodes, and can designate the higher average density of the two images as the first image and the lower image as the second image. .

前記算出手段は、重複領域のノードのコストとして、ノードに相当する第1の画像のサンプリング点の画素値と、第2の画像のサンプリング点のうちのノードに最近接のサンプリング点の画素値との差を算出するようにすることができる。   The calculation means calculates, as the cost of the node in the overlapping region, the pixel value of the sampling point of the first image corresponding to the node, and the pixel value of the sampling point closest to the node among the sampling points of the second image The difference can be calculated.

第2の画像のサンプリング点のうちのノードに最近接の前記サンプリング点の決定には、ボロノイ多角形から構成されるボロノイ図を用いるようにすることができる。   A Voronoi diagram composed of Voronoi polygons can be used to determine the sampling point closest to the node of the sampling points of the second image.

前記取得手段は、算出手段によって算出されたコストに基づき、Min-cut Max-flow問題を解くことによって、重複領域を分断する分断ラインを取得するようにすることができる。   The acquisition unit can acquire a dividing line that divides the overlapping region by solving the Min-cut Max-flow problem based on the cost calculated by the calculating unit.

本発明の画像処理方法は、2枚の画像の重複領域において、原画像中に存在するピクセルをノードとし、それらがエッジで連結されたグラフ構造を設定するグラフ構造設定ステップと、2枚の画像のピクセルの画素値に基づき、重複領域のノードおよびエッジにそれぞれ対応するコストを算出する算出ステップと、算出ステップの処理で算出されたコストに基づき、重複領域を分断する分断ラインを取得する取得ステップと、分断ラインを境として、2枚の画像を結合する結合ステップとを含むことを特徴とする。   The image processing method of the present invention includes a graph structure setting step for setting a graph structure in which pixels existing in an original image are used as nodes in an overlapping region of two images and connected by edges, and two images A calculation step for calculating a cost corresponding to each node and edge of the overlapping region based on the pixel value of the pixel, and an acquisition step for acquiring a dividing line for dividing the overlapping region based on the cost calculated in the processing of the calculation step And a combining step of combining two images with the dividing line as a boundary.

本発明の記録媒体のプログラムは、2枚の画像の重複領域において、原画像中に存在するピクセルをノードとし、それらがエッジで連結されたグラフ構造を設定するグラフ構造設定ステップと、2枚の画像のピクセルのサンプリング点の画素値に基づき、重複領域のノードおよびエッジにそれぞれ対応するコストを算出する算出ステップと、算出ステップの処理で算出されたコストに基づき、重複領域を分断する分断ラインを取得する取得ステップと、分断ラインを境として、2枚の画像を結合する結合ステップとを含むことを特徴とする。   The program of the recording medium of the present invention includes a graph structure setting step for setting a graph structure in which pixels existing in an original image are nodes and connected by edges in an overlapping region of two images, Based on the pixel value of the sampling point of the pixel of the image, a calculation step for calculating a cost corresponding to each node and edge of the overlap region, and a dividing line for dividing the overlap region based on the cost calculated in the processing of the calculation step It includes an acquisition step of acquiring, and a combining step of combining two images with the dividing line as a boundary.

本発明のプログラムは、2枚の画像が重なり合う領域において、原画像中に存在するピクセルをノードとし、それらがエッジで連結されたグラフ構造を設定するグラフ構造設定ステップと、2枚の画像のピクセルの画素値に基づき、重複領域のノードおよびエッジにそれぞれ対応するコストを算出する算出ステップと、算出ステップの処理で算出されたコストに基づき、重複領域を分断する分断ラインを取得する取得ステップと、分断ラインを境として、第1および第2の画像を結合する結合ステップとを含む処理をコンピュータに実行させることを特徴とする。   The program of the present invention includes a graph structure setting step for setting a graph structure in which pixels existing in an original image are nodes and connected by edges in a region where two images overlap, and pixels of two images A calculation step for calculating a cost corresponding to each of the nodes and edges of the overlapping region based on the pixel value, and an acquisition step for acquiring a dividing line for dividing the overlapping region based on the cost calculated in the processing of the calculation step; A computer is caused to execute processing including a combining step of combining the first and second images with the dividing line as a boundary.

本発明においては、2枚の画像に対してそれぞれ、各ピクセルをノードとし、それらがエッジで連結されたグラフ構造が設定され、グラフ構造が設定された2枚の画像の一方が第1の画像、他方が第2の画像に指定され、第1および第2の画像を結合する位置に配置したとき、第1の画像に設けられたグラフ構造の領域であって、かつ、第2の画像と重なり合う領域が重複領域に決定される。さらに、第1および第2の画像のサンプリング点の画素値に基づき、重複領域のノードおよびエッジにそれぞれ対応するコストが算出され、算出されたコストに基づき、重複領域を分断する分断ラインが取得され、分断ラインを境として、第1および第2の画像が結合される。   In the present invention, a graph structure in which each pixel is a node and connected by an edge is set for each of the two images, and one of the two images with the graph structure set is the first image. When the other is designated as the second image and is arranged at a position where the first and second images are combined, the area of the graph structure provided in the first image, and the second image The overlapping area is determined as the overlapping area. Further, based on the pixel values of the sampling points of the first and second images, costs corresponding to the nodes and edges of the overlapping region are calculated, and a dividing line for dividing the overlapping region is acquired based on the calculated costs. The first and second images are combined with the dividing line as a boundary.

本発明によれば、ピクセルのサンプリング点が一致していない2枚の画像を、リサンプリング処理を施すことなく結合することが可能となる。   According to the present invention, two images whose pixel sampling points do not match can be combined without performing resampling processing.

以下に本発明の実施の形態を説明するが、請求項に記載の構成要件と、発明の実施の形態における具体例との対応関係を例示すると、次のようになる。この記載は、請求項に記載されている発明をサポートする具体例が、発明の実施の形態に記載されていることを確認するためのものである。従って、発明の実施の形態中には記載されているが、構成要件に対応するものとして、ここには記載されていない具体例があったとしても、そのことは、その具体例が、その構成要件に対応するものではないことを意味するものではない。逆に、具体例が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その具体例が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between constituent elements described in the claims and specific examples in the embodiments of the present invention are exemplified as follows. This description is to confirm that specific examples supporting the invention described in the claims are described in the embodiments of the invention. Therefore, even if there are specific examples that are described in the embodiment of the invention but are not described here as corresponding to the configuration requirements, the specific examples are not included in the configuration. It does not mean that it does not correspond to a requirement. On the contrary, even if a specific example is described here as corresponding to a configuration requirement, this means that the specific example does not correspond to a configuration requirement other than the configuration requirement. not.

さらに、この記載は、発明の実施の形態に記載されている具体例に対応する発明が、請求項に全て記載されていることを意味するものではない。換言すれば、この記載は、発明の実施の形態に記載されている具体例に対応する発明であって、この出願の請求項には記載されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加されたりする発明の存在を否定するものではない。   Further, this description does not mean that all the inventions corresponding to the specific examples described in the embodiments of the invention are described in the claims. In other words, this description is an invention corresponding to the specific example described in the embodiment of the invention, and the existence of an invention not described in the claims of this application, that is, in the future, a divisional application will be made. It does not deny the existence of an invention that is added by correction.

請求項1に記載の画像処理装置(例えば、図4の画像処理装置1)は、
前記2枚の画像の重複領域において原画中に存在するピクセルをノードとし、それらがエッジで連結されたグラフ構造(例えば、図5に示すグラフ構造)を設定するグラフ構造設定手段(例えば、図4のグラフ構造設定部2)と、
前記グラフ構造が設定された前記2枚の画像の一方を第1の画像(例えば、図6の画像A1)、他方を第2の画像(例えば、図6の画像A2)に指定する指定手段(例えば、図8のステップS2を実行する図4のグラフ構造設定部3)と、
前記第1および第2の画像を結合する位置に配置したとき、前記第1の画像に設けられたグラフ構造の領域であって、かつ、前記第2の画像と重なり合う領域を重複領域(例えば、図6の領域A3)に決定する決定手段(例えば、図8のステップS3を実行する図4のグラフ構造設定部3)と、
前記第1および第2の画像のサンプリング点の画素値に基づき、前記重複領域のノードおよびエッジにそれぞれ対応するコストを算出する算出手段(例えば、図4のコスト算出部5)と、
前記算出手段によって算出された前記コストに基づき、前記重複領域を分断する分断ライン(例えば、結合ライン)を取得する取得手段(例えば、図4の結合ライン決定部)と、
前記分断ラインを境として、前記第1および第2の画像を結合する結合手段(例えば、図4の結合部7)と
を含むことを特徴とする。
The image processing apparatus according to claim 1 (for example, the image processing apparatus 1 in FIG. 4)
Graph structure setting means (for example, FIG. 4) sets a graph structure (for example, the graph structure shown in FIG. 5) in which the pixels existing in the original image in the overlapping area of the two images are nodes and are connected by edges. Graph structure setting unit 2),
Designating means for designating one of the two images set with the graph structure as a first image (for example, image A1 in FIG. 6) and the other as a second image (for example, image A2 in FIG. 6). For example, the graph structure setting unit 3 in FIG. 4 for executing step S2 in FIG.
When the first image and the second image are arranged at a position where the first image and the second image are combined, an area of the graph structure provided in the first image and an area overlapping the second image is an overlapping area (for example, A determination unit (for example, the graph structure setting unit 3 in FIG. 4 that executes step S3 in FIG. 8) to determine the area A3 in FIG. 6;
Calculation means (for example, the cost calculation unit 5 in FIG. 4) for calculating costs corresponding to the nodes and edges of the overlapping region based on the pixel values of the sampling points of the first and second images,
Based on the cost calculated by the calculation means, an acquisition means (for example, a combined line determination unit in FIG. 4) for acquiring a dividing line (for example, a combined line) that divides the overlapping area;
And a coupling means (for example, a coupling unit 7 in FIG. 4) for coupling the first and second images with the dividing line as a boundary.

請求項9に記載の画像処理方法は、
前記2枚の画像の重複領域において原画中に存在するピクセルをノードとし、それらがエッジで連結されたグラフ構造を設定するグラフ構造設定ステップ(例えば、図8のステップS1)と、
前記グラフ構造が設定された前記2枚の画像の一方を第1の画像、他方を第2の画像に指定する指定ステップ(例えば、図8のステップS2)と、
前記第1および第2の画像を結合する位置に配置したとき、前記第1の画像に設けられたグラフ構造の領域であって、かつ、前記第2の画像と重なり合う領域を重複領域に決定する決定ステップ(例えば、図8のステップS3)と、
前記第1および第2の画像のサンプリング点の画素値に基づき、前記重複領域のノードおよびエッジにそれぞれ対応するコストを算出する算出ステップ(例えば、図8のステップS6)と、
前記算出ステップの処理で算出された前記コストに基づき、前記重複領域を分断する分断ラインを取得する取得ステップ(例えば、図8のステップS7)と、
前記分断ラインを境として、前記第1および第2の画像を結合する結合ステップ(例えば、図8のステップS8)と
を含むことを特徴とする。
The image processing method according to claim 9 comprises:
A graph structure setting step (for example, step S1 in FIG. 8) for setting a graph structure in which pixels existing in the original image in the overlapping region of the two images are nodes and connected by edges;
A designation step (for example, step S2 in FIG. 8) of designating one of the two images set with the graph structure as a first image and the other as a second image;
When the first image and the second image are arranged at a position where the first image and the second image are combined, a region having a graph structure provided in the first image and overlapping with the second image is determined as an overlapping region. A determination step (eg, step S3 in FIG. 8);
A calculation step (for example, step S6 in FIG. 8) for calculating costs corresponding to the nodes and edges of the overlapping region based on the pixel values of the sampling points of the first and second images,
An acquisition step (for example, step S7 in FIG. 8) for acquiring a dividing line that divides the overlapping region based on the cost calculated in the processing of the calculating step;
A combination step (for example, step S8 in FIG. 8) for combining the first and second images with the dividing line as a boundary.

なお、本発明の記録媒体に記録されているプログラム、および本発明のプログラムの請求項に記載の構成要件と、発明の実施の形態における具体例との対応関係は、上述した本発明の画像処理方法のものと同様であるので、その記載は省略する。   Note that the correspondence relationship between the program recorded in the recording medium of the present invention and the constituent elements described in the claims of the program of the present invention and the specific examples in the embodiment of the present invention is the image processing of the present invention described above. Since it is the same as that of the method, its description is omitted.

以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.

図4は、本発明の一実施の形態である画像処理装置の構成例を示している。この画像処理装置1は、入力される2枚の画像X,Yを結合して画像Zを生成するものであり、グラフ構造設定部2、点密度決定部3、ソース/シンクノード設定部4、コスト算出部5、結合ライン決定部6、および結合部7から構成される。   FIG. 4 shows a configuration example of an image processing apparatus according to an embodiment of the present invention. The image processing apparatus 1 generates an image Z by combining two input images X and Y, and includes a graph structure setting unit 2, a point density determination unit 3, a source / sink node setting unit 4, The cost calculation unit 5, the combination line determination unit 6, and the combination unit 7 are included.

なお、画像処理装置1に入力される画像X,Yは、既に変形処理が施されたものであり、画像上に設けられているサンプリング点は正方格子構造を有していないものとする。以下、サンプリング点が正方格子構造を有していない画像をISI(Irregularly Sampled Image)と称する。当然ながら、画像X,Yの両方または一方がISIではなくても構わない。   It is assumed that the images X and Y input to the image processing apparatus 1 have been subjected to deformation processing, and sampling points provided on the image do not have a square lattice structure. Hereinafter, an image in which sampling points do not have a square lattice structure is referred to as ISI (Irregularly Sampled Image). Of course, both or one of the images X and Y may not be ISI.

グラフ構造設定部2は、入力される画像X,Yのそれぞれを、画像上のサンプリング点をノード(node)と見なしてノード間をエッジ(edge)で繋ぎ、ノードを頂点とする三角形の領域に分割することにより、グラフ構造(ノードがエッジによって結ばれている構造)を設定して、点密度決定部3に出力する。   The graph structure setting unit 2 regards each of the input images X and Y as a triangular region having nodes as vertices by regarding the sampling points on the image as nodes and connecting the nodes with edges. By dividing, a graph structure (a structure in which nodes are connected by edges) is set and output to the point density determination unit 3.

画像X,Yをそれぞれ三角形の領域に分割する方法には、例えば、点集合(いまの場合、サンプリング点の集合)のAlpha Shapeをドローネ三角形分割したものを適用する。Alpha Shapeとは、点集合を構成する点を全て含む領域を表す数学的概念であり、入力値alphaを変えることで様々な形になるが、点集合の形を表す概念として用いられる用語である。一般には、点集合をドローネ三角形分割した構造から求めることができ、ここで必要とする「点集合のAlpha Shapeをドローネ三角形分割したもの」は、Alpha Shapeが求まった時点で得られていることになる。   As a method for dividing each of the images X and Y into triangular regions, for example, an Alpha Shape of a point set (in this case, a set of sampling points) obtained by dividing a Delaunay triangle is applied. Alpha Shape is a mathematical concept that represents an area that includes all the points that make up a point set. It can be changed into various forms by changing the input value alpha, but it is a term used as a concept that represents the shape of a point set. . In general, the point set can be obtained from the Delaunay triangulation structure, and the required "A set of point Alpha shape obtained by Delaunay triangulation" is obtained when the Alpha Shape is obtained. Become.

なお、グラフ構造設定部2において、ドローネ三角形分割ではなく、その他の方法で、画像X,Yを三角形の領域に分割するようにしてもよい。ただし、ドローネ三角形分割を用いることにより、得られる三角形の形状が比較的均等になるという利点がある。あるいは、画像X,Yを三角形以外の形状の領域に分割して、グラフ構造を設定するようにしてもよい。ただし、三角形以外の形状の領域に分割することは、点の配置によっては不可能となることも生じ得るが、三角形の領域に分割することは、点の配置に拘わらず常に可能であるという利点がある。   Note that the graph structure setting unit 2 may divide the images X and Y into triangular regions by other methods instead of Delaunay triangulation. However, the use of Delaunay triangulation has the advantage that the resulting triangle shapes are relatively uniform. Alternatively, the graph structure may be set by dividing the images X and Y into regions having shapes other than triangles. However, dividing into regions of shapes other than triangles may be impossible depending on the arrangement of points, but it is always possible to divide into regions of triangles regardless of the arrangement of points. There is.

点密度決定部3は、グラフ構造が設定された画像X,Yそれぞれのノード(サンプリング点)の平均密度を算出して、その値が大きい方の画像をA1、小さい方の画像をA2に決定する。また、点密度決定部3は、図5に示すように、ユーザからの設定に基づいて画像A1とA2の位置関係を決定した上で、画像A1のグラフ構造のうち、画像A2に重なっている領域を特定してその領域をA3に決定し、画像A1,A2と領域A3をソース/シンクノード設定部4に出力する。なお当然ながら、この領域A3もグラフ構造を有している。またこのとき、画像A1とA2の位置関係はユーザの任意であり、それぞれのサンプリング点は非正方格子構造であるので、画像A1のサンプリング点と画像A2のサンプリング点は重なっていなくてもよい。   The point density determination unit 3 calculates the average density of the nodes (sampling points) of the images X and Y for which the graph structure is set, and determines the larger image as A1 and the smaller image as A2. To do. Further, as shown in FIG. 5, the point density determination unit 3 determines the positional relationship between the images A1 and A2 based on the setting from the user, and then overlaps the image A2 in the graph structure of the image A1. The region is specified, the region is determined as A3, and the images A1 and A2 and the region A3 are output to the source / sink node setting unit 4. Of course, this region A3 also has a graph structure. At this time, the positional relationship between the images A1 and A2 is arbitrary by the user, and each sampling point has a non-square lattice structure. Therefore, the sampling points of the image A1 and the sampling points of the image A2 do not have to overlap.

ソース/シンクノード設定部4は、図6に示すように、画像A1の領域のうち、領域A3に含まれない領域を表すソース(Source)ノードを設定する。また、画像A2の領域のうち、領域A3に含まれない領域を表すシンク(Sink)ノードを設定する。さらに、ソース/シンクノード設定部4は、領域A3の外周上に位置する各ノードについて、領域A3以外の画像A1上のノードに繋がっているものはソースノードに連結し、領域A3以外の画像A1上のノードに繋がっていないものはシンクノードに連結する。   As shown in FIG. 6, the source / sink node setting unit 4 sets a source (Source) node that represents an area not included in the area A <b> 3 among the areas of the image A <b> 1. In addition, a sink node representing an area not included in the area A3 in the area of the image A2 is set. Further, the source / sink node setting unit 4 connects each node located on the outer periphery of the area A3 to the node on the image A1 other than the area A3 and connects to the source node, and the image A1 other than the area A3. Those not connected to the upper node are connected to the sink node.

コスト算出部5は、領域A3の各ノードおよび各エッジ、並びにソース/シンクノードに連結したエッジのコストを算出する。領域A3のノードのコストとしては、当該ノード(すなわち、画像A1のサンプリング点)の画素値と、画像A2のサンプリング点(図5および6には図示されていない)のうちの当該ノードに最も距離が近いものの画素値との差が算出される。   The cost calculation unit 5 calculates the cost of each node and each edge of the area A3 and the edge connected to the source / sink node. As the cost of the node in the area A3, the distance from the pixel value of the node (that is, the sampling point of the image A1) and the sampling point of the image A2 (not shown in FIGS. 5 and 6) to the node The difference from the pixel value of those close to is calculated.

なお、画素値の差は、具体的には例えば、RGB各色それぞれについての差の2乗の加算値((R−R+(G−G+(B−B)を採用する。ここで、R,G,Bは、画像A1のサンプリング点の画素値であり、R,G,Bは、画像A2のサンプリング点の画素値である。 Specifically, the difference in pixel value is, for example, an addition value of the square of the difference for each RGB color ((R 1 −R 2 ) 2 + (G 1 −G 2 ) 2 + (B 1 −B) 2 ) Adopt 2 ). Here, R 1 , G 1 , B 1 are pixel values at the sampling points of the image A 1, and R 2 , G 2 , B 2 are pixel values at the sampling points of the image A 2.

また、領域A3のノード(すなわち、画像A1のサンプリング点)と、画像A2のサンプリング点のうちの当該ノードに最も距離が近いものを検出する方法(以下、最近点探索法と記述する)としては、例えば、図7に示すような、画像A2をボロノイ多角形に分割したボロノイ図を用いる方法がある。このボロノイ図は、画像A2の領域を、最も近いサンプリング点が共通となるように分割したものである。   In addition, as a method of detecting a node closest to the node of the region A3 (that is, the sampling point of the image A1) and the sampling point of the image A2 (hereinafter referred to as the nearest point search method) For example, there is a method using a Voronoi diagram obtained by dividing the image A2 into Voronoi polygons as shown in FIG. This Voronoi diagram is obtained by dividing the region of the image A2 so that the nearest sampling points are common.

したがって、領域A3のノードが、ボロノイ図を構成するボロノイ多角形のうちのどれに属するかを判定すれば、画像A2のサンプリング点のうち、領域A3の当該ノードに最も距離が近いものを検出することができる。   Therefore, if it is determined to which of the Voronoi polygons constituting the Voronoi diagram the node in the region A3 belongs, the sampling point of the image A2 that is closest to the node in the region A3 is detected. be able to.

なお、最近点探索法には、ボロノイ図を用いる方法以外の方法を適用してもよい。ただし、グラフ構造設定部2において、アルファシェープを求めるアルゴリズムではその過程でドローネ三角形分割を行う場合が多いため、ボロノイ図を用いる方法を用いれば、この結果を利用して容易にボロノイ図を求めることができるという利点がある。   Note that a method other than a method using a Voronoi diagram may be applied to the nearest point search method. However, in the graph structure setting unit 2, an algorithm for obtaining an alpha shape often performs Delaunay triangulation in the process. Therefore, if a method using a Voronoi diagram is used, a Voronoi diagram can be easily obtained using this result. There is an advantage that can be.

領域A3のエッジのコストとしては、当該エッジの両端のノードのコストを加算して算出する。ソース/シンクノードに連結したエッジのコストとしては、無限大の値を設定する。   The cost of the edge of the area A3 is calculated by adding the costs of the nodes at both ends of the edge. An infinite value is set as the cost of the edge connected to the source / sink node.

結合ライン決定部6は、コスト算出部5によって算出された領域A3の各ノードおよび各エッジ、並びにソース/シンクノードに連結したエッジのコストに基づき、Min-cut Max-flow問題を解くことにより、エッジの集合(Max-flowを与えるMin-cut)が、全ノードをソースに連結したもの(ソース集合)と、シンクに連結したもの(シンク集合)とに分類する結合ラインを得る。   The combined line determination unit 6 solves the Min-cut Max-flow problem on the basis of the cost of each node and each edge of the region A3 calculated by the cost calculation unit 5 and the edge connected to the source / sink node. An edge set (Min-cut that gives Max-flow) obtains a connection line that classifies all nodes connected to the source (source set) and one connected to the sink (sink set).

結合部7は、領域A3について、決定された結合ラインよりもソースノード側については画像A1を採用し、決定された結合ラインよりもシンクノード側については画像A2を採用することにより画像Zを生成する。   For the region A3, the combining unit 7 generates the image Z by using the image A1 on the source node side of the determined combined line and the image A2 on the sink node side of the determined combined line. To do.

次に、画像処理装置1による画像結合処理について、図8のフローチャートを参照して説明する。   Next, image combining processing by the image processing apparatus 1 will be described with reference to the flowchart of FIG.

ステップS1において、グラフ構造設定部2は、入力された画像X,Yのそれぞれを、画像上のサンプリング点をノードと見なしてノード間をエッジで繋ぎ、ノードを頂点とする三角形の領域に分割することによりグラフ構造を設定して、点密度決定部3に出力する。   In step S1, the graph structure setting unit 2 divides each of the input images X and Y into triangular regions having the nodes as vertices by regarding the sampling points on the images as nodes and connecting the nodes with edges. Thus, the graph structure is set and output to the point density determination unit 3.

ステップS2において、点密度決定部3は、グラフ構造が設定された画像X,Yそれぞれのノードの平均密度を算出して、その値が大きい方の画像をA1、小さい方の画像をA2に決定する。ステップS3において、点密度決定部3は、ユーザからの設定に基づいて画像A1とA2の位置関係を決定した上で、画像A1のグラフ構造のうち、画像A2に重なっている領域を特定してその領域をA3に決定し、画像A1,A2と領域A3をソース/シンクノード設定部4に出力する。   In step S2, the point density determination unit 3 calculates the average density of each node of the images X and Y in which the graph structure is set, and determines the larger image as A1 and the smaller image as A2. To do. In step S3, the point density determination unit 3 determines the positional relationship between the images A1 and A2 based on the setting from the user, and then identifies a region overlapping the image A2 in the graph structure of the image A1. The region is determined as A3, and the images A1 and A2 and the region A3 are output to the source / sink node setting unit 4.

ステップS4において、ソース/シンクノード設定部4は、画像A1の領域のうち、領域A3に含まれない領域を表すソースノードを設定する。また、画像A2の領域のうち、領域A3に含まれない領域を表すシンクノードを設定する。ステップS5において、ソース/シンクノード設定部4は、領域A3の外周上に位置する各ノードについて、領域A3以外の画像A1上のノードに繋がっているものはソースノードに連結し、領域A3以外の画像A1上のノードに繋がっていないものはシンクノードに連結する。   In step S4, the source / sink node setting unit 4 sets a source node representing an area not included in the area A3 in the area of the image A1. In addition, a sync node representing an area not included in the area A3 in the area of the image A2 is set. In step S5, the source / sink node setting unit 4 connects the nodes connected to the nodes on the image A1 other than the region A3 to the source nodes for each node located on the outer periphery of the region A3. Those not connected to the node on the image A1 are connected to the sink node.

ステップS6において、コスト算出部5は、領域A3の各ノードおよび各エッジ、並びにソース/シンクノードに連結したエッジのコストを算出する。具体的には、領域A3のノードのコストとしては、当該ノード(すなわち、画像A1のサンプリング点)の画素値と、画像A2のサンプリング点(図5および6には図示されていない)のうちの当該ノードに最も距離が近いものの画素値との差を算出する。領域A3のエッジのコストとしては、当該エッジの両端のノードのコストを加算して算出する。ソース/シンクノードに連結したエッジのコストとしては、無限大の値を設定する。   In step S6, the cost calculation unit 5 calculates the cost of each node and each edge of the region A3 and the edge connected to the source / sink node. Specifically, the cost of the node in the area A3 includes the pixel value of the node (that is, the sampling point of the image A1) and the sampling point of the image A2 (not shown in FIGS. 5 and 6). The difference from the pixel value closest to the node is calculated. The cost of the edge of the area A3 is calculated by adding the costs of the nodes at both ends of the edge. An infinite value is set as the cost of the edge connected to the source / sink node.

ステップS7において、結合ライン決定部6は、コスト算出部5によって算出された領域A3の各ノードおよび各エッジ、並びにソース/シンクノードに連結したエッジのコストに基づき、Min-cut Max-flow問題を解くことにより、エッジの集合(Max-flowを与えるMin-cut)が、全ノードをソースに連結したもの(ソース集合)と、シンクに連結したもの(シンク集合)とに分類する結合ラインを得る。   In step S7, the combined line determination unit 6 solves the Min-cut Max-flow problem based on the cost of each node and each edge of the area A3 calculated by the cost calculation unit 5 and the edge connected to the source / sink node. By solving, we obtain a connection line that classifies the edge set (Min-cut giving Max-flow) into one that connects all nodes to the source (source set) and one that connects to the sink (sink set). .

ステップS8において、結合部7は、領域A3について、決定された結合ラインよりもソースノード側については画像A1を採用し、決定された結合ラインよりもシンクノード側については画像A2を採用することにより画像Zを生成する。   In step S8, for the region A3, the combining unit 7 adopts the image A1 for the source node side with respect to the determined combined line, and the image A2 for the sink node side with respect to the determined combined line. An image Z is generated.

このようにして生成された画像Zは、リサンプリグ処理が施されていない、すなわち、画質が劣化されていない画像A,Bが結合ラインを境に結合されたものであるので、そのつなぎ目が最も目立たない状態となっていることが期待できる。以上、画像処理装置1による画像結合処理の説明を終了する。   The image Z generated in this way has not been subjected to the resampling process, that is, the images A and B whose image quality is not deteriorated are combined at the connection line, so that the joint is most noticeable. It can be expected that there is no state. This is the end of the description of the image combining process performed by the image processing apparatus 1.

なお、本実施の形態である画像処理装置1は、画像レタッチ、パノラマ画像生成、テクスチャ生成等の画像処理に適用することが可能である。   The image processing apparatus 1 according to the present embodiment can be applied to image processing such as image retouching, panoramic image generation, texture generation, and the like.

ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば図9に示すよう構成される汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。   By the way, the series of processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, a general-purpose personal computer configured as shown in FIG. 9 is installed from the recording medium.

このパーソナルコンピュータ20は、CPU(Central Processing Unit)21を内蔵している。CPU21にはバス24を介して、入出力インタフェース25が接続されている。バス24には、ROM(Read Only Memory)22およびRAM(Random Access Memory)23が接続されている。   The personal computer 20 includes a CPU (Central Processing Unit) 21. An input / output interface 25 is connected to the CPU 21 via the bus 24. A ROM (Read Only Memory) 22 and a RAM (Random Access Memory) 23 are connected to the bus 24.

入出力インタフェース25には、ユーザが操作コマンドを入力するキーボード、マウス、等の入力デバイスよりなる入力部26、結合処理結果等の画像を表示するCRT(Cathode Ray Tube)またはLCD(Liquid Crystal Display)等のディスプレイよりなる出力部27、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部28、およびモデム、LAN(Local Area Network)アダプタなどよりなり、インタネットに代表されるネットワークを介した通信処理を実行する通信部29が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどの記録媒体31に対してデータを読み書きするドライブ30が接続されている。   The input / output interface 25 includes an input unit 26 including an input device such as a keyboard and a mouse for a user to input operation commands, a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display) for displaying an image such as a combined processing result. Communication unit via a network typified by the Internet, which includes an output unit 27 such as a display, a storage unit 28 such as a hard disk drive for storing programs and various data, a modem, a LAN (Local Area Network) adapter, etc. Is connected to the communication unit 29. Also, a magnetic disk (including a flexible disk), an optical disk (including a CD-ROM (Compact Disc-Read Only Memory), a DVD (Digital Versatile Disc)), a magneto-optical disk (including an MD (Mini Disc)), or a semiconductor A drive 30 for reading / writing data from / to a recording medium 31 such as a memory is connected.

このパーソナルコンピュータ20に上述した一連の処理を実行させるプログラムは、記録媒体31に格納された状態でパーソナルコンピュータ20に供給され、ドライブ30によって読み出されて記憶部28に内蔵されるハードディスクドライブにインストールされている。記憶部28にインストールされているプログラムは、入力部26に入力されるユーザからのコマンドに対応するCPU21の指令によって、記憶部28からRAM23にロードされて実行される。   A program for causing the personal computer 20 to execute the above-described series of processing is supplied to the personal computer 20 while being stored in the recording medium 31, read by the drive 30, and installed in a hard disk drive built in the storage unit 28. Has been. The program installed in the storage unit 28 is loaded from the storage unit 28 to the RAM 23 and executed by a command of the CPU 21 corresponding to a command from the user input to the input unit 26.

なお、本明細書において、プログラムに基づいて実行されるステップは、記載された順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In this specification, the steps executed based on the program are executed in parallel or individually even if they are not necessarily processed in time series, as well as processes executed in time series according to the described order. It also includes processing.

また、プログラムは、1台のコンピュータにより処理されるものであってもよいし、複数のコンピュータによって分散処理されるものであってもよい。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであってもよい。   The program may be processed by a single computer, or may be distributedly processed by a plurality of computers. Furthermore, the program may be transferred to a remote computer and executed.

本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   In this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

2枚の画像を連結する従来の方法を説明するための図である。It is a figure for demonstrating the conventional method of connecting two images. 2枚の画像を連結する従来の方法を説明するための図である。It is a figure for demonstrating the conventional method of connecting two images. 2枚の画像を連結する従来の方法を説明するための図である。It is a figure for demonstrating the conventional method of connecting two images. 本発明を適用した画像処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image processing apparatus to which this invention is applied. 画像A1,A2と領域A3の関係を示す図である。It is a figure which shows the relationship between image A1, A2 and area | region A3. ソース/シンクノードを示す図である。It is a figure which shows a source / sink node. ボロノイ図の一例を示す図である。It is a figure which shows an example of a Voronoi diagram. 画像結合処理を説明するフローチャートである。It is a flowchart explaining an image combination process. パーソナルコンピュータの構成例を示すブロック図である。And FIG. 16 is a block diagram illustrating a configuration example of a personal computer.

符号の説明Explanation of symbols

1 画像処理装置, 2 グラフ構造設定部, 3 点密度決定部, 4 ソース/シンクノード設定部, 5 コスト設定部, 6 結合ライン決定部, 7 結合部, 20 パーソナルコンピュータ, 21 CPU,31 記録媒体   DESCRIPTION OF SYMBOLS 1 Image processing apparatus, 2 Graph structure setting part, 3 Point density determination part, 4 Source / sink node setting part, 5 Cost setting part, 6 Connection line determination part, 7 Connection part, 20 Personal computer, 21 CPU, 31 Recording medium

Claims (11)

ピクセルのサンプリング点が一致していない2枚の画像を結合する画像処理装置において、
前記2枚の画像の重複領域において、原画像中に存在するピクセルをノードとし、それらがエッジで連結されたグラフ構造を設定するグラフ構造設定手段と、
前記2枚の画像のピクセルの画素値に基づき、前記重複領域のノードおよびエッジにそれぞれ対応するコストを算出する算出手段と、
前記算出手段によって算出された前記コストに基づき、前記重複領域を分断する分断ラインを取得する取得手段と、
前記分断ラインを境として、前記2枚の画像を結合する結合手段と
を含むことを特徴とする画像処理装置。
In an image processing apparatus that combines two images whose pixel sampling points do not match,
In the overlapping region of the two images, a graph structure setting means for setting a graph structure in which pixels existing in the original image are nodes and connected by edges;
Calculation means for calculating costs corresponding to the nodes and edges of the overlapping region based on pixel values of pixels of the two images,
Obtaining means for obtaining a dividing line for dividing the overlapping area based on the cost calculated by the calculating means;
An image processing apparatus comprising: a combining unit that combines the two images with the dividing line as a boundary.
前記グラフ構造設定手段は、前記2枚の画像に対してそれぞれ、三角形の領域の組み合わせであってノードとエッジから成るグラフ構造を設定する
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the graph structure setting unit sets a graph structure that is a combination of triangular regions and includes nodes and edges for each of the two images.
前記グラフ構造設定手段は、前記2枚の画像に対してそれぞれ、アルファシェープを三角形分割したものを求め、三角形の領域の組み合わせであってノードとエッジから成るグラフ構造を設定する
ことを特徴とする請求項2に記載の画像処理装置。
The graph structure setting means obtains an alpha shape obtained by triangulating each of the two images, and sets a graph structure that is a combination of triangular regions and includes nodes and edges. The image processing apparatus according to claim 2.
前記グラフ構造設定手段は、前記2枚の画像を前記ノードの平均密度について比較し、比較結果に基づいて前記2枚の画像の一方を第1の画像、他方を第2の画像に指定し、前記第1の画像のノードのみをエッジで連結しグラフ構造を設定する
ことを特徴とする請求項1に記載の画像処理装置。
The graph structure setting means compares the two images with respect to the average density of the nodes, and designates one of the two images as a first image and the other as a second image based on the comparison result, The image processing apparatus according to claim 1, wherein only the nodes of the first image are connected by edges to set a graph structure.
前記グラフ構造設定手段は、前記2枚の画像を前記ノードの平均密度について比較し、前記2枚の画像の前記平均密度の高い方を前記第1の画像、低い方を前記第2の画像に指定する
ことを特徴とする請求項4に記載の画像処理装置。
The graph structure setting unit compares the two images with respect to the average density of the nodes, and the higher average density of the two images is the first image, and the lower image is the second image. The image processing apparatus according to claim 4, wherein the image processing apparatus is specified.
前記算出手段は、前記重複領域のノードのコストとして、前記ノードに相当する前記第1の画像のピクセルの画素値と、前記第2の画像のピクセルのうちの前記ノードに最近接のピクセルの画素値との差を算出する
ことを特徴とする請求項4に記載の画像処理装置。
The calculation means calculates, as the cost of the node of the overlap region, the pixel value of the pixel of the first image corresponding to the node and the pixel of the pixel closest to the node among the pixels of the second image The image processing apparatus according to claim 4, wherein a difference from the value is calculated.
前記第2の画像のピクセルのうちの前記ノードに最近接の前記ピクセルの決定には、ボロノイ多角形から構成されるボロノイ図を用いる
ことを特徴とする請求項6に記載の画像処理装置。
The image processing apparatus according to claim 6, wherein a Voronoi diagram composed of Voronoi polygons is used to determine the pixel closest to the node among the pixels of the second image.
前記取得手段は、前記算出手段によって算出された前記コストに基づき、Min-cut Max-flow問題を解くことによって、前記重複領域を分断する前記分断ラインを取得する
ことを特徴とする請求項1に記載の画像処理装置。
The acquisition unit acquires the dividing line that divides the overlapping region by solving a Min-cut Max-flow problem based on the cost calculated by the calculating unit. The image processing apparatus described.
ピクセルのサンプリング点が一致していない2枚の画像を結合する画像処理方法において、
前記2枚の画像の重複領域において、原画像中に存在するピクセルをノードとし、それらがエッジで連結されたグラフ構造を設定するグラフ構造設定ステップと、
前記2枚の画像のピクセルの画素値に基づき、前記重複領域のノードおよびエッジにそれぞれ対応するコストを算出する算出ステップと、
前記算出ステップの処理で算出された前記コストに基づき、前記重複領域を分断する分断ラインを取得する取得ステップと、
前記分断ラインを境として、前記2枚の画像を結合する結合ステップと
を含むことを特徴とする画像処理方法。
In an image processing method for combining two images whose pixel sampling points do not match,
A graph structure setting step for setting a graph structure in which pixels existing in the original image are nodes and connected by edges in the overlapping region of the two images; and
A calculation step of calculating costs corresponding to nodes and edges of the overlapping region based on pixel values of pixels of the two images,
Based on the cost calculated in the processing of the calculation step, an acquisition step of acquiring a dividing line that divides the overlapping area;
An image processing method comprising: combining the two images with the dividing line as a boundary.
ピクセルのサンプリング点が一致していない2枚の画像を結合するためのプログラムであって、
前記2枚の画像の重複領域において、原画像中に存在するピクセルをノードとし、それらがエッジで連結されたグラフ構造を設定するグラフ構造設定ステップと、
前記2枚の画像のピクセルの画素値に基づき、前記重複領域のノードおよびエッジにそれぞれ対応するコストを算出する算出ステップと、
前記算出ステップの処理で算出された前記コストに基づき、前記重複領域を分断する分断ラインを取得する取得ステップと、
前記分断ラインを境として、前記2枚の画像を結合する結合ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。
A program for combining two images whose pixel sampling points do not match,
A graph structure setting step for setting a graph structure in which pixels existing in the original image are nodes and connected by edges in the overlapping region of the two images; and
A calculation step of calculating costs corresponding to nodes and edges of the overlapping region based on pixel values of pixels of the two images,
Based on the cost calculated in the processing of the calculation step, an acquisition step of acquiring a dividing line that divides the overlapping area;
And a combining step of combining the two images with the dividing line as a boundary. A recording medium on which a computer-readable program is recorded.
ピクセルのサンプリング点が一致していない2枚の画像を結合するためのプログラムであって、
前記2枚の画像の重複領域において、原画像中に存在するピクセルをノードとし、それらがエッジで連結されたグラフ構造を設定するグラフ構造設定ステップと、
前記2枚の画像のピクセルの画素値に基づき、前記重複領域のノードおよびエッジにそれぞれ対応するコストを算出する算出ステップと、
前記算出ステップの処理で算出された前記コストに基づき、前記重複領域を分断する分断ラインを取得する取得ステップと、
前記分断ラインを境として、前記2枚の画像を結合する結合ステップと
を含む処理をコンピュータに実行させることを特徴とするプログラム。
A program for combining two images whose pixel sampling points do not match,
A graph structure setting step for setting a graph structure in which pixels existing in the original image are nodes and connected by edges in the overlapping region of the two images; and
A calculation step of calculating costs corresponding to nodes and edges of the overlapping region based on pixel values of pixels of the two images,
Based on the cost calculated in the processing of the calculation step, an acquisition step of acquiring a dividing line that divides the overlapping area;
A program that causes a computer to execute processing including a combining step of combining the two images with the dividing line as a boundary.
JP2004177122A 2004-06-15 2004-06-15 Image processing apparatus and method, recording medium, and program Expired - Fee Related JP4552115B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004177122A JP4552115B2 (en) 2004-06-15 2004-06-15 Image processing apparatus and method, recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004177122A JP4552115B2 (en) 2004-06-15 2004-06-15 Image processing apparatus and method, recording medium, and program

Publications (2)

Publication Number Publication Date
JP2006003982A true JP2006003982A (en) 2006-01-05
JP4552115B2 JP4552115B2 (en) 2010-09-29

Family

ID=35772356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004177122A Expired - Fee Related JP4552115B2 (en) 2004-06-15 2004-06-15 Image processing apparatus and method, recording medium, and program

Country Status (1)

Country Link
JP (1) JP4552115B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106296577B (en) * 2015-05-19 2019-11-29 富士通株式会社 Image split-joint method and image mosaic device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000215317A (en) * 1998-11-16 2000-08-04 Sony Corp Image processing method and image processor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000215317A (en) * 1998-11-16 2000-08-04 Sony Corp Image processing method and image processor

Also Published As

Publication number Publication date
JP4552115B2 (en) 2010-09-29

Similar Documents

Publication Publication Date Title
RU2419881C2 (en) Anisometric texture synthesis
US7889949B2 (en) Joint bilateral upsampling
JP2011176748A (en) Image processing apparatus and method, and program
KR20190026876A (en) Method and apparatus for mapping to spherical panoramic images
JP2017130929A (en) Correction method and correction device for document image acquired by imaging apparatus
JP2004334843A (en) Method of composting image from two or more images
JP2010171976A (en) Method and system for correcting distorted document image
JP2002064704A (en) Image processing unit and method, and recording medium
JP2006222965A (en) Image processing method and image processor
US12106460B2 (en) Information processing apparatus, information processing method, and non- transitory computer-readable storage medium
JP2019528627A (en) Panorama video compression method and apparatus
JP5257044B2 (en) Image processing apparatus, image processing method, and program
JP7193728B2 (en) Information processing device and stored image selection method
JP6075294B2 (en) Image processing system and image processing method
US20200334890A1 (en) Systems and Methods for Fast Texture Mapping of 3D Models
JP6975665B2 (en) Texture mapping device and texture mapping program
JP2000011167A (en) Method and device for interpolating pixel based on gradient
JP4552115B2 (en) Image processing apparatus and method, recording medium, and program
JP4568692B2 (en) Image correction system, image correction method, and program for the method
JP2010193154A (en) Image processor and method
JP2007081611A (en) Method of setting display screen correction parameter
KR100587979B1 (en) Interpolation method for image enlargement based on edge and corner
JP3491830B2 (en) Image processing apparatus and image processing method
JP4507677B2 (en) Image processing method and apparatus, and program
JP6157234B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100323

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100617

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100630

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees