JP4617726B2 - Image processing system, image processing apparatus, image processing method, and program - Google Patents

Image processing system, image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP4617726B2
JP4617726B2 JP2004168836A JP2004168836A JP4617726B2 JP 4617726 B2 JP4617726 B2 JP 4617726B2 JP 2004168836 A JP2004168836 A JP 2004168836A JP 2004168836 A JP2004168836 A JP 2004168836A JP 4617726 B2 JP4617726 B2 JP 4617726B2
Authority
JP
Japan
Prior art keywords
image
region
edge
repetitive
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004168836A
Other languages
Japanese (ja)
Other versions
JP2005346650A (en
Inventor
泉 浦野
夏雄 香田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004168836A priority Critical patent/JP4617726B2/en
Priority to US11/130,390 priority patent/US7627172B2/en
Priority to KR1020050047521A priority patent/KR101217906B1/en
Priority to EP05012163A priority patent/EP1605401A3/en
Priority to CNB2005100764020A priority patent/CN100378759C/en
Publication of JP2005346650A publication Critical patent/JP2005346650A/en
Application granted granted Critical
Publication of JP4617726B2 publication Critical patent/JP4617726B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理システム、画像処理装置および画像処理方法、並びにプログラムに関し、特に、画像の特徴に基づいて画像を処理できるようにした画像処理システム、画像処理装置および画像処理方法、並びにプログラムに関する。   The present invention relates to an image processing system, an image processing apparatus, an image processing method, and a program, and more particularly to an image processing system, an image processing apparatus, an image processing method, and a program that can process an image based on image characteristics. .

従来、デジタルスチルカメラにより撮影された画像から建物を切り取り、画像として出力することで、地図を作成する方法がある。   Conventionally, there is a method of creating a map by cutting a building from an image taken by a digital still camera and outputting it as an image.

また、3次元地図を作成する技術の1つに、ユーザが調査用の地図を作成するための2次元入力を行い、建物の高さを算出するための高さ判別を行い、対象となる建造物の参考写真の撮影を行い、これらの調査結果に基づいて、2次元地図データに建造物の高さを追加した汎用データベースを作成し、オプションを追加し、これらを統合して3次元都市データベースを作成する技術がある(例えば、特許文献1)。
特許第3267590号公報
In addition, as one of the technologies for creating a 3D map, a user performs 2D input for creating a map for investigation, performs height discrimination for calculating the height of a building, and the target building Take a reference photo of the object, create a general-purpose database that adds the height of the building to the 2D map data based on these survey results, add options, and integrate these to create a 3D city database There is a technique for creating (for example, Patent Document 1).
Japanese Patent No. 3267590

しかしながら、デジタルスチルカメラにより撮影された画像から建物を切り取った場合、電線や木、影などの多くの余分な情報が含まれるという課題があった。   However, when a building is cut out from an image taken by a digital still camera, there is a problem that a lot of extra information such as electric wires, trees, and shadows is included.

また、特許文献1に記載の方法では、上述した手順に手間がかかるとともに、データベースのデータ量が多く、莫大な費用がかかるという課題があった。   In addition, the method described in Patent Document 1 has a problem that the above-described procedure is troublesome, the amount of data in the database is large, and enormous costs are required.

このように、画像を処理する場合に、その画像の特徴に基づいて処理を行うことが困難であった。   As described above, when an image is processed, it is difficult to perform the processing based on the characteristics of the image.

本発明はこのような状況に鑑みてなされたものであり、画像の特徴に基づいて、画像を処理できるようにするものである。   The present invention has been made in view of such a situation, and enables an image to be processed based on the characteristics of the image.

本発明の画像処理装置は、画像に繰り返し表われ類似する画像の成分である繰り返し成分を画像から抽出する繰り返し抽出手段と、繰り返し抽出手段により抽出された繰り返し成分の画面上の距離を均等に配置することで、繰り返し成分の配置を調整する繰り返し成分配置調整手段と、画像のうちの繰り返し成分を含まない領域の画像の色分布の代表値を、繰り返し成分配置調整手段により繰り返し成分の配置が調整された画像のうちの繰り返し成分を含まない領域に配置する領域配置手段と、領域配置手段により色分布の代表値が配置された画像における繰り返し成分およびその配置の特徴を示す特徴情報を生成する特徴情報生成手段とを備えることを特徴とする。 The image processing apparatus according to the present invention has an iterative extraction unit that extracts a repetitive component that is a component of an image that repeatedly appears and is similar to the image, and a distance on the screen of the repetitive component extracted by the repetitive extraction unit. The repetitive component arrangement adjusting means for adjusting the arrangement of the repetitive components, and the representative value of the color distribution of the image in the region not including the repetitive components in the image, the arrangement of the repetitive components is adjusted by the repetitive component arrangement adjusting means. A region arrangement unit that arranges the image in a region that does not include a repetitive component, and a feature that generates feature information indicating a repetitive component and a characteristic of the arrangement in the image in which the representative value of the color distribution is arranged by the region arrangement unit And an information generating means.

繰り返し成分配置調整手段は、さらに、繰り返し成分の画面上の出現間隔が均等になるように繰り返し成分の配置を調整するものとすることができる。 Repeat component placement adjustment unit further like appearance interval on the screen of the repeating component is equalized, it can be made to adjust the placement of repeated components.

繰り返し成分配置調整手段は、繰り返し成分の画面上の距離および繰り返し成分の画面上の出現間隔を、それぞれ、最頻値で配置することで、繰り返し成分の配置を調整するものとすることができる。 The repetitive component arrangement adjusting means can adjust the arrangement of the repetitive components by arranging the distance on the screen of the repetitive components and the appearance interval of the repetitive components on the screen, respectively.

特徴情報生成手段は、特徴情報として、繰り返し成分の出現位置に関する情報、繰り返し成分の繰り返し方向に垂直な方向の長さに関する情報、繰り返し成分の繰り返し回数に関する情報、繰り返し成分の出現間隔に関する情報、並びに、繰り返し成分を構成する、画像の部分画像であるブロックに関する情報を生成するものとすることができる。   The feature information generating means includes, as feature information, information on the appearance position of the repetitive component, information on the length of the repetitive component in the direction perpendicular to the repeat direction, information on the number of repetitions of the repetitive component, information on the appearance interval of the repetitive component, and In addition, it is possible to generate information relating to blocks that constitute a repetitive component and are partial images of an image.

特徴情報生成手段は、ブロックに関する情報として、ブロックの位置に関する情報、ブロックの繰り返し方向に垂直な方向の長さに関する情報、並びに、ブロックの色に関する情報を生成するものとすることができる。   The feature information generating means may generate information regarding the position of the block, information regarding the length in the direction perpendicular to the repeat direction of the block, and information regarding the color of the block as information regarding the block.

入力された入力画像から、略水平方向および略垂直方向のうち少なくとも一方向のエッジを抽出するエッジ抽出手段と、エッジ抽出手段により抽出された複数のエッジのうち、同一方向の任意の2本のエッジで構成される全てのエッジ対について、各エッジ対を構成する2本のエッジの画像上の間隔の最頻値を算出する最頻値算出手段と、最頻値算出手段により算出された最頻値の画像上の間隔で抽出された2本のエッジにより構成されるエッジ対からなり、2本のエッジで挟まれる領域が互いに連続するように隣接するエッジ対の集合により構成されるエッジ対の連鎖を検出し、さらに、各エッジ対の連鎖について、エッジ対を構成する2本のエッジの間隔の統計的な代表値を、エッジの抽出に関する繰返し周期として算出する繰返し周期算出手段と、入力画像を、エッジの出現の繰り返し方向に、エッジの出現の繰り返し周期で分割し、入力画像が分割された小領域である複数の第1のブロックを生成し、各第1のブロックの色に、第1のブロック内の統計的な代表色を設定する画像分割手段と、画像分割手段により入力画像が分割されて生成された複数の第1のブロックの内、互いに隣接し、互いの色の差が予め定められた所定の範囲内となる複数のブロックの各領域を結合して1つの新たな第2のブロックとするとともに、第2のブロック画像の色に、結合した第1のブロックの色の統計的な代表色を設定することにより、複数の第1のブロックを統合して第2のブロックを生成するブロック統合手段とブロック統合手段により複数の第1のブロックが統合されて生成された第2のブロックの略水平方向または略垂直方向の境界線により入力画像を分割して、色を置き換えるための領域を生成する領域生成手段と、領域生成手段により生成された複数の領域の内、各領域の予め定められた所定の統計的代表色の割合が最も大きい領域で、他の領域を置き換える領域置き換え手段と、領域置き換え手段により置き換えられた領域の内、予め定められた所定の大きさ以上の領域を抽出する領域抽出手段とをさらに備え、繰り返し抽出手段は、領域抽出手段により抽出された所定の大きさ以上の領域により構成される画像から繰り返し成分を抽出するものとすることができる。 An edge extraction unit that extracts an edge in at least one of a substantially horizontal direction and a substantially vertical direction from an input image, and any two of the plurality of edges extracted by the edge extraction unit in the same direction For all edge pairs composed of edges, the mode value calculating means for calculating the mode value of the interval between the two edges constituting each edge pair, and the mode value calculated by the mode value calculating means. An edge pair composed of a pair of edge pairs composed of two edges extracted at intervals on a modest value image so that regions sandwiched between the two edges are continuous with each other. In addition, for each chain of edge pairs, a repetition period for calculating a statistical representative value of the interval between two edges constituting the edge pair as a repetition period for edge extraction And an output unit that divides the input image in a repetition direction of the appearance of the edges at a repetition cycle of the appearance of the edges, generates a plurality of first blocks that are small regions into which the input image is divided, An image dividing unit that sets a statistical representative color in the first block as a block color, and a plurality of first blocks generated by dividing the input image by the image dividing unit, are adjacent to each other, A plurality of blocks each having a color difference within a predetermined range are combined into one new second block, and the second block image is combined with the second block image color. By setting a statistical representative color of the color of one block, a plurality of first blocks are integrated by a block integration unit that integrates a plurality of first blocks to generate a second block and a block integration unit. Has been generated An area generation unit that generates an area for replacing the color by dividing the input image by a substantially horizontal or substantially vertical boundary line of the second block, and a plurality of areas generated by the area generation unit, A region where the ratio of a predetermined predetermined statistical representative color of each region is the largest, a region replacement unit that replaces another region, and a predetermined predetermined size among the regions replaced by the region replacement unit It further includes a region extracting unit that extracts the above region, and the repeated extracting unit can extract a repeated component from an image composed of regions having a predetermined size or more extracted by the region extracting unit. .

本発明の画像処理方法は、画像に繰り返し表われ類似する画像の成分である繰り返し成分を画像から抽出する繰り返し抽出ステップと、繰り返し抽出ステップの処理により抽出された繰り返し成分の画面上の距離を均等に配置することで、繰り返し成分の配置を調整する繰り返し成分配置調整ステップと、画像のうちの繰り返し成分を含まない領域の画像の色分布の代表値を、繰り返し成分配置調整ステップの処理により繰り返し成分の配置が調整された画像のうちの繰り返し成分を含まない領域に配置する領域配置ステップと、領域配置ステップの処理により色分布の代表値が配置された画像における繰り返し成分およびその配置の特徴を示す特徴情報を生成する特徴情報生成ステップとを含むことを特徴とする。 According to the image processing method of the present invention, the repetitive extraction step of extracting a repetitive component that is a component of an image that repeatedly appears and is similar to the image from the image, and the distance on the screen of the repetitive component extracted by the processing of the repetitive extraction step are equalized. The repetitive component placement adjustment step for adjusting the placement of the repetitive component by placing the repetitive component and the representative value of the color distribution of the image in the region not including the repetitive component in the image by the processing of the repetitive component placement adjustment step. An area placement step for placing in a region that does not include a repetitive component in an image whose placement has been adjusted, a repetitive component in an image in which a representative value of color distribution is placed by the processing of the area placement step, and features of the placement And a feature information generation step for generating feature information.

本発明のプログラムは、画像に繰り返し表われ類似する画像の成分である繰り返し成分を画像から抽出する繰り返し抽出ステップと、繰り返し抽出ステップの処理により抽出された繰り返し成分の画面上の距離を均等に配置することで、繰り返し成分の配置を調整する繰り返し成分配置調整ステップと、画像のうちの繰り返し成分を含まない領域の画像の色分布の代表値を、繰り返し成分配置調整ステップの処理により繰り返し成分の配置が調整された画像のうちの繰り返し成分を含まない領域に配置する領域配置ステップと、領域配置ステップの処理により色分布の代表値が配置された画像における繰り返し成分およびその配置の特徴を示す特徴情報を生成する特徴情報生成ステップとを含む処理をコンピュータに実行させることを特徴とする。 The program of the present invention equally arranges the repetitive extraction step of extracting a repetitive component, which is a repetitive image component that appears repeatedly in the image, from the image, and the on-screen distance of the repetitive component extracted by the processing of the repetitive extraction step. The repetitive component placement adjustment step for adjusting the placement of the repetitive component, and the representative value of the color distribution of the image in the region not including the repetitive component in the image , the repetitive component placement by the processing of the repetitive component placement adjustment step. Region placement step for placing in a region that does not include a repetitive component in the image adjusted for the image, and feature information indicating the repetitive component in the image in which the representative value of the color distribution is placed by the processing of the region placement step and the feature of the placement And causing a computer to execute a process including a feature information generation step for generating That.

第1の本発明によれば、画像に繰り返し表われ類似する画像の成分である繰り返し成分
が画像から抽出され、抽出された繰り返し成分の画面上の距離を均等に配置することで、
繰り返し成分の配置が調整され、画像のうちの繰り返し成分を含まない領域の画像の色分布の代表値が、繰り返し成分の配置が調整された画像のうちの繰り返し成分を含まない領域に配置され、色分布の代表値が配置された画像における繰り返し成分およびその配置の特徴を示す特徴情報が生成される。
According to the first aspect of the present invention, a repetitive component that is a component of an image that repeatedly appears and is similar to the image is extracted from the image, and the distances on the screen of the extracted repetitive component are arranged uniformly,
The arrangement of the repetitive component is adjusted, and the representative value of the color distribution of the image in the area not including the repetitive component in the image is arranged in the area not including the repetitive component in the image in which the arrangement of the repetitive component is adjusted . Feature information indicating a repetitive component and an arrangement feature of the image in which the representative value of the color distribution is arranged is generated.

本発明の画像処理システムは、入力された入力画像から、略水平方向および略垂直方向のうち少なくとも一方向のエッジを抽出するエッジ抽出手段と、エッジ抽出手段により抽出された複数のエッジのうち、同一方向の任意の2本のエッジで構成される全てのエッジ対について、各エッジ対を構成する2本のエッジの画像上の間隔の最頻値を算出する最頻値算出手段と、最頻値算出手段により算出された最頻値の画像上の間隔で抽出された2本のエッジにより構成されるエッジ対からなり、2本のエッジで挟まれる領域が互いに連続するように隣接するエッジ対の集合により構成されるエッジ対の連鎖を検出し、さらに、各エッジ対の連鎖について、エッジ対を構成する2本のエッジの間隔の統計的な代表値を、エッジの抽出に関する繰返し周期として算出する繰返し周期算出手段と、入力画像を、エッジの出現の繰り返し方向に、エッジの出現の繰り返し周期で分割し、入力画像が分割された小領域である複数の第1のブロックを生成し、各第1のブロックの色に、第1のブロック内の統計的な代表色を設定する画像分割手段と、画像分割手段により入力画像が分割されて生成された複数の第1のブロックの内、互いに隣接し、互いの色の差が予め定められた所定の範囲内となる複数のブロックの各領域を結合して1つの新たな第2のブロックとするとともに、第2のブロック画像の色に、結合した第1のブロックの色の統計的な代表色を設定することにより、複数の第1のブロックを統合して第2のブロックを生成するブロック統合手段と、ブロック統合手段により複数の第1のブロックが統合されて生成された第2のブロックの略水平方向または略垂直方向の境界線により入力画像を分割して、色を置き換えるための領域を生成する領域生成手段と、領域生成手段により生成された複数の領域の内、各領域の予め定められた所定の統計的代表色の割合が最も大きい領域で、他の領域を置き換える領域置き換え手段と、領域置き換え手段により置き換えられた領域の内、予め定められた所定の大きさ以上の領域を抽出する領域抽出手段と、領域抽出手段により抽出された領域により構成される画像に繰り返し表われ類似する画像の成分である繰り返し成分を画像から抽出する繰り返し抽出手段と、繰り返し抽出手段により抽出された繰り返し成分の画面上の距離を均等に配置することで、繰り返し成分の配置を調整する繰り返し成分配置調整手段と、画像のうちの繰り返し成分を含まない領域の画像の色分布の代表値を、繰り返し成分配置調整手段により繰り返し成分の配置が調整された画像のうちの繰り返し成分を含まない領域に配置する領域配置手段と、領域配置手段により色分布の代表値が配置された画像における繰り返し成分およびその配置の特徴を示す特徴情報を生成する特徴情報生成手段と、特徴情報生成手段により生成された特徴情報を取得する取得手段と、取得手段により取得された特徴情報に基づいて、画像を再現する再現手段とを備えることを特徴とする。 An image processing system according to the present invention includes an edge extraction unit that extracts an edge in at least one of a substantially horizontal direction and a substantially vertical direction from an input image, and a plurality of edges extracted by the edge extraction unit, A mode value calculating means for calculating a mode value of an interval on an image of two edges constituting each edge pair, for all edge pairs composed of arbitrary two edges in the same direction; An edge pair composed of two pairs of edges extracted at intervals on the mode value image calculated by the value calculating means and adjacent to each other so that regions sandwiched by the two edges are continuous with each other A pair of edge pairs constituted by a set of the edge pairs, and for each edge pair chain, a statistical representative value of the interval between the two edges constituting the edge pair is repeated for the edge extraction. A repetition period calculating means for calculating the period, and dividing the input image in the repetition direction of the edge appearance by the repetition period of the appearance of the edge, and generating a plurality of first blocks which are small regions into which the input image is divided An image dividing unit that sets a statistical representative color in the first block as the color of each first block, and a plurality of first blocks generated by dividing the input image by the image dividing unit Of the plurality of blocks which are adjacent to each other and whose color difference is within a predetermined range are combined into one new second block, and the second block image By setting a statistical representative color of the color of the combined first block to the color, a block integration unit that integrates a plurality of first blocks to generate a second block, and a plurality of blocks by the block integration unit The first of An area generation unit that generates an area for replacing a color by dividing an input image by a substantially horizontal or substantially vertical boundary line of a second block generated by integrating the blocks, and generated by the area generation unit Among the plurality of regions that have been determined, a region where the ratio of a predetermined predetermined statistical representative color of each region is the largest, a region replacement unit that replaces another region, and a region replaced by the region replacement unit, A region extracting unit that extracts a region having a predetermined size or larger, and a repetitive component that is a component of an image that repeatedly appears and is similar to the image constituted by the region extracted by the region extracting unit. The arrangement of the repeated components is adjusted by equally arranging the distance on the screen of the repeated extraction means and the repeated components extracted by the repeated extraction means. The repetitive component arrangement adjusting means and the representative value of the color distribution of the image in the region not including the repetitive component of the image do not include the repetitive component of the image whose repetitive component arrangement is adjusted by the repetitive component arrangement adjusting means. Generated by the feature information generating means, the feature information generating means for generating the feature information indicating the repetitive component and the feature of the arrangement in the image in which the representative value of the color distribution is arranged by the area arranging means, and the feature information generating means The image processing apparatus includes an acquisition unit that acquires the acquired feature information, and a reproduction unit that reproduces an image based on the feature information acquired by the acquisition unit.

第2の本発明によれば、入力された入力画像から、略水平方向および略垂直方向のうち少なくとも一方向のエッジが抽出され、抽出された複数のエッジのうち、同一方向の任意の2本のエッジで構成される全てのエッジ対について、各エッジ対を構成する2本のエッジの画像上の間隔の最頻値が算出され、最頻値の画像上の間隔で抽出された2本のエッジにより構成されるエッジ対からなり、2本のエッジで挟まれる領域が互いに連続するように隣接するエッジ対の集合により構成されるエッジ対の連鎖が検出され、さらに、各エッジ対の連鎖について、エッジ対を構成する2本のエッジの間隔の統計的な代表値が、エッジの抽出に関する繰返し周期として算出される。また、入力画像が、エッジの出現の繰り返し方向に、エッジの出現の繰り返し周期で分割され、分割された小領域である複数の第1のブロックが生成され、各第1のブロックの色に、第1のブロック内の統計的な代表色が設定され、入力画像が分割されて生成された複数の第1のブロックの内、互いに隣接し、互いの色の差が予め定められた所定の範囲内となる複数のブロックの各領域が結合されて1つの新たな第2のブロックとされるとともに、第2のブロック画像の色に、結合した第1のブロックの色の統計的な代表色が設定されることにより、複数の第1のブロックが統合されて第2のブロックが生成される。さらに、複数の第1のブロックが統合されて生成された第2のブロックの略水平方向または略垂直方向の境界線により入力画像が分割されて、色を置き換えるための領域が生成され、生成された複数の領域の内、各領域の予め定められた所定の統計的代表色の割合が最も大きい領域で、他の領域が置き換えられ、置き換えられた領域の内、予め定められた所定の大きさ以上の領域が抽出され、抽出された領域により構成される画像に繰り返し表われ類似する画像の成分である繰り返し成分が画像から抽出され、抽出された繰り返し成分の画面上の距離が均等に配置されることで、繰り返し成分の配置が調整され、画像のうちの繰り返し成分を含まない領域の画像の色分布の代表値が、繰り返し成分の配置が調整された画像のうちの繰り返し成分を含まない領域に配置される。また、色分布の代表値が配置された画像における繰り返し成分およびその配置の特徴を示す特徴情報が生成され、生成された特徴情報が取得され、取得された特徴情報に基づいて、画像が再現される。 According to the second aspect of the present invention, at least one edge in the substantially horizontal direction and the substantially vertical direction is extracted from the input image, and any two of the extracted edges in the same direction are extracted. For all edge pairs composed of edges, the mode value of the interval on the image of the two edges constituting each edge pair is calculated, and the two mode values extracted at the mode value interval are calculated. Consisting of edge pairs composed of edges, a chain of edge pairs composed of a set of adjacent edge pairs is detected such that a region sandwiched between two edges is continuous with each other. The statistical representative value of the interval between the two edges constituting the edge pair is calculated as a repetition period related to edge extraction. In addition, the input image is divided in the repetition direction of the appearance of the edge by the repetition period of the appearance of the edge, and a plurality of first blocks which are divided small areas are generated, and the color of each first block is A predetermined range in which a statistical representative color in the first block is set and a plurality of first blocks generated by dividing the input image are adjacent to each other and a color difference between them is predetermined. The areas of the plurality of inner blocks are combined to form one new second block, and a statistical representative color of the color of the combined first block is added to the color of the second block image. By setting, a plurality of first blocks are integrated to generate a second block. Further, the input image is divided by the substantially horizontal or substantially vertical boundary line of the second block generated by integrating the plurality of first blocks, and an area for replacing the color is generated and generated. Among the plurality of areas, the area where the ratio of the predetermined predetermined statistical representative color of each area is the largest is replaced with another area, and the predetermined predetermined size among the replaced areas is replaced. The above regions are extracted, the repeated components that are components of the image that appear repeatedly in the image composed of the extracted regions are extracted from the image, and the distances on the screen of the extracted repeated components are evenly arranged. in Rukoto, it adjusts the arrangement of the repeating components, the representative value of the color distribution of the image of the region not including the repeating component of the image, repeated formation of an image arrangement of the repeating component is adjusted They are arranged in a region that does not contain. Further, feature information indicating the repetitive component and the feature of the arrangement in the image in which the representative value of the color distribution is arranged is generated, the generated feature information is acquired, and the image is reproduced based on the acquired feature information. The

第1の本発明によれば、画像の特徴に基づいて、画像を処理することができる。特に、第1の本発明によれば、色分布の類似するグループの位置を調整し、より、画像の特徴を生かして画像を処理することができる。   According to the first aspect of the present invention, an image can be processed based on the feature of the image. In particular, according to the first aspect of the present invention, it is possible to adjust the position of a group having a similar color distribution, and to process an image by utilizing the characteristics of the image.

第2の本発明によれば、画像の特徴に基づいて、画像を処理することができる。特に、第2の本発明によれば、類似する複数のグループ画像のデータに基づいて、画像の再現位置を特定するとともに、グループ画像のデータを展開することができる。また、画像のデータの展開の処理を迅速に行うことができる。   According to the second aspect of the present invention, an image can be processed based on the feature of the image. In particular, according to the second aspect of the present invention, it is possible to specify the reproduction position of an image based on the data of a plurality of similar group images and to develop the group image data. In addition, it is possible to quickly perform image data expansion processing.

第2の本発明によれば、画像の特徴に基づいて、画像を処理することができる。特に、第の本発明によれば、画像を任意のサイズにブロック化することができる。また、類似するグループ画像の位置を調整し、より、画像の特徴を生かして画像を処理することができる。さらに、画像の特徴を生かして画像を再現することができる。 According to the second aspect of the present invention, an image can be processed based on the feature of the image. In particular, according to the second aspect of the present invention, an image can be blocked into an arbitrary size. Further, the positions of similar group images can be adjusted, and the images can be processed using the characteristics of the images. Furthermore, the image can be reproduced by making use of the feature of the image.

以下に本発明の実施の形態を説明するが、本明細書に記載の発明と、発明の実施の形態との対応関係を例示すると、次のようになる。この記載は、本明細書に記載されている発明をサポートする実施の形態が、本明細書に記載されていることを確認するためのものである。したがって、発明の実施の形態中には記載されているが、発明に対応するものとして、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その発明に対応するものではないことを意味するものではない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その発明以外の発明には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. The correspondence relationship between the invention described in this specification and the embodiments of the invention is exemplified as follows. This description is intended to confirm that the embodiments supporting the invention described in this specification are described in this specification. Therefore, even if there is an embodiment that is described in the embodiment of the invention but is not described here as corresponding to the invention, the fact that the embodiment is not It does not mean that it does not correspond to the invention. Conversely, even if an embodiment is described herein as corresponding to an invention, that means that the embodiment does not correspond to an invention other than the invention. Absent.

更に、この記載は、本明細書に記載されている発明の全てを意味するものでもない。換言すれば、この記載は、本明細書に記載されている発明であって、この出願では請求されていない発明の存在、すなわち、将来、分割出願されたり、補正により出現、追加される発明の存在を否定するものではない。   Further, this description does not mean all the inventions described in this specification. In other words, this description is for the invention described in the present specification, which is not claimed in this application, that is, for the invention that will be applied for in the future or that will appear and be added by amendment. It does not deny existence.

請求項1に記載の画像処理装置は、
画像を処理する画像処理装置(例えば、図34のテクスチャ生成装置14)において、
前記画像に繰り返し表われ類似する画像の成分である繰り返し成分を前記画像から抽出する繰り返し抽出手段(例えば、図34の繰り返し抽出部402)と、
前記繰り返し抽出手段により抽出された前記繰り返し成分の画面上の距離を均等に配置することで、前記繰り返し成分の配置を調整する繰り返し成分配置調整手段(例えば、図34の繰り返し調整部403)と、
前記画像のうちの前記繰り返し成分を含まない領域の画像の色分布の代表値を、前記繰り返し成分配置調整手段により前記繰り返し成分の配置が調整された前記画像のうちの前記繰り返し成分を含まない領域に配置する領域配置手段(例えば、図34の残り領域補間部404)と、
前記領域配置手段により前記色分布の代表値が配置された画像における繰り返し成分およびその配置の特徴を示す特徴情報を生成する特徴情報生成手段(例えば、図34のファイル生成部405)と
を備えることを特徴とする。
The image processing apparatus according to claim 1,
In an image processing device that processes an image (for example, the texture generation device 14 in FIG. 34),
Repetitive extraction means (for example, a repetitive extraction unit 402 in FIG. 34) for extracting repetitive components that are components of an image repetitively appearing and similar to the image from the image;
A repetitive component arrangement adjusting unit (for example, a repetitive adjusting unit 403 in FIG. 34) that adjusts the arrangement of the repetitive components by uniformly arranging the distances on the screen of the repetitive components extracted by the repetitive extraction unit;
A region that does not include the repetitive component of the image in which the repetitive component arrangement is adjusted by the representative value of the color distribution of the image of the region that does not include the repetitive component of the image. Area placement means (for example, the remaining area interpolation unit 404 in FIG. 34) to be placed in
And feature information generation means (for example, file generation unit 405 in FIG. 34) for generating feature information indicating repetitive components in the image in which representative values of the color distribution are arranged by the area arrangement means and characteristics of the arrangement. It is characterized by.

請求項6に記載の画像処理装置は、
入力された入力画像から、略水平方向および略垂直方向のうち少なくとも一方向のエッジを抽出するエッジ抽出手段(例えば、図3のエッジ抽出部52)と、
前記エッジ抽出手段により抽出された複数のエッジのうち、同一方向の任意の2本のエッジで構成される全てのエッジ対について、各エッジ対を構成する2本のエッジの画像上の間隔の最頻値を算出する最頻値算出手段(例えば、図3のエッジ出現区間算出部53)と、
前記最頻値算出手段により算出された前記最頻値の画像上の間隔で抽出された2本のエッジにより構成されるエッジ対からなり、前記2本のエッジで挟まれる領域が互いに連続するように隣接するエッジ対の集合により構成されるエッジ対の連鎖を検出し、さらに、各エッジ対の連鎖について、前記エッジ対を構成する2本のエッジの間隔の統計的な代表値を、前記エッジの抽出に関する繰返し周期として算出する繰返し周期算出手段(例えば、図3の繰り返し周期算出部54)と
前記入力画像を、前記エッジの出現の繰り返し方向に、前記エッジの出現の繰り返し周期で分割し、前記入力画像が分割された小領域である複数の第1のブロックを生成し、各第1のブロックの色に、前記第1のブロック内の統計的な代表色を設定する画像分割手段(例えば、図12の画像分割部183)と、
前記画像分割手段により前記入力画像が分割されて生成された複数の第1のブロックの内、互いに隣接し、互いの色の差が予め定められた所定の範囲内となる複数のブロックの各領域を結合して1つの新たな第2のブロックとするとともに、前記第2のブロック画像の色に、結合した前記第1のブロックの色の統計的な代表色を設定することにより、複数の前記第1のブロックを統合して前記第2のブロックを生成するブロック統合手段(例えば、図12の類似色統合部184)と
前記ブロック統合手段により複数の第1のブロックが統合されて生成された前記第2のブロックの略水平方向または略垂直方向の境界線により前記入力画像を分割して、色を置き換えるための領域を生成する領域生成手段(例えば、図17の領域生成部302)と、
前記領域生成手段により生成された複数の前記領域の内、各領域の予め定められた所定の統計的代表色の割合が最も大きい領域で、他の前記領域を置き換える領域置き換え手段(例えば、図17の類似領域置き換え部303)と、
前記領域置き換え手段により置き換えられた前記領域の内、予め定められた所定の大きさ以上の領域を抽出する領域抽出手段(例えば、図17の連続領域抽出部304)と
をさらに備え、
前記繰り返し抽出手段は、前記領域抽出手段により抽出された所定の大きさ以上の領域により構成される前記画像から前記繰り返し成分を抽出する
ことを特徴とする。
An image processing apparatus according to claim 6 is provided.
Edge extraction means (for example, the edge extraction unit 52 in FIG. 3) for extracting an edge in at least one of a substantially horizontal direction and a substantially vertical direction from the input image;
Among all of the plurality of edges extracted by the edge extracting means, for all edge pairs formed of arbitrary two edges in the same direction, the interval between the two edges constituting each edge pair on the image is the maximum. A mode value calculating means for calculating a mode value (for example, the edge appearance section calculating unit 53 in FIG. 3);
It is composed of an edge pair composed of two edges extracted at intervals on the mode value image calculated by the mode value calculating means, and the regions sandwiched between the two edges are continuous with each other. A chain of edge pairs constituted by a set of edge pairs adjacent to each other, and for each chain of edge pairs, a statistical representative value of the interval between two edges constituting the edge pair is determined as the edge pair. A repetition period calculating means (for example, a repetition period calculating unit 54 in FIG. 3) that calculates the repetition period related to the extraction of the input image, and dividing the input image in the repetition direction of the appearance of the edge by the repetition period of the appearance of the edge, Image division that generates a plurality of first blocks that are small regions into which the input image is divided, and sets a statistical representative color in the first block as the color of each first block Means (for example, the image dividing unit 183 in FIG. 12);
Among the plurality of first blocks generated by dividing the input image by the image dividing unit, the areas of the plurality of blocks which are adjacent to each other and whose color difference is within a predetermined range. Are combined into one new second block, and a statistical representative color of the color of the combined first block is set as the color of the second block image. A block integration unit (for example, the similar color integration unit 184 in FIG. 12) that integrates the first blocks to generate the second block and a plurality of first blocks are generated by the block integration unit. Area generation means for generating an area for replacing the color by dividing the input image by a substantially horizontal or substantially vertical boundary line of the second block (for example, an area generation unit 302 in FIG. 17). When,
Of the plurality of regions generated by the region generation unit, a region replacement unit (for example, FIG. 17) that replaces the other region with a region having the largest ratio of a predetermined predetermined statistical representative color of each region. Similar region replacement unit 303),
A region extracting unit (for example, a continuous region extracting unit 304 in FIG. 17) that extracts a region having a predetermined size or larger from the regions replaced by the region replacing unit;
The iterative extraction unit is characterized in that the repetitive component is extracted from the image composed of regions of a predetermined size or more extracted by the region extraction unit.

請求項7に記載の画像処理方法は、
画像を処理する画像処理装置の画像処理方法において、
前記画像に繰り返し表われ類似する画像の成分である繰り返し成分を前記画像から抽出する繰り返し抽出ステップ(例えば、図36のステップS92)と、
前記繰り返し抽出ステップの処理により抽出された前記繰り返し成分の画面上の距離を均等に配置することで、前記繰り返し成分の配置を調整する繰り返し成分配置調整ステップ(例えば、図36のステップS95)と、
前記画像のうちの前記繰り返し成分を含まない領域の画像の色分布の代表値を、前記繰り返し成分配置調整ステップの処理により前記繰り返し成分の配置が調整された前記画像のうちの前記繰り返し成分を含まない領域に配置する領域配置ステップ(例えば、図36のステップS99)と、
前記領域配置ステップの処理により前記色分布の代表値が配置された画像における繰り返し成分およびその配置の特徴を示す特徴情報を生成する特徴情報生成ステップ(例えば、図36のステップS100)と
を含むことを特徴とする。
The image processing method according to claim 7 comprises:
In an image processing method of an image processing apparatus for processing an image,
A repetitive extraction step (for example, step S92 in FIG. 36) for extracting a repetitive component that is a component of an image that repeatedly appears and is similar to the image from the image;
A repetitive component placement adjustment step (for example, step S95 in FIG. 36) for adjusting the placement of the repetitive component by uniformly arranging the distances on the screen of the repetitive component extracted by the processing of the repetitive extraction step;
The representative value of the color distribution of the image in the region not including the repetitive component of the image includes the repetitive component of the image in which the repetitive component arrangement is adjusted by the processing of the repetitive component arrangement adjusting step. A region placement step (eg, step S99 in FIG. 36) for placing in a region that does not exist;
A feature information generation step (for example, step S100 in FIG. 36) for generating feature information indicating a repetitive component and an arrangement feature in the image in which the representative value of the color distribution is arranged by the processing of the region arrangement step . It is characterized by.

請求項8に記載のプログラムは、
画像を処理するプログラムであって、
前記画像に繰り返し表われ類似する画像の成分である繰り返し成分を前記画像から抽出する繰り返し抽出ステップ(例えば、図36のステップS92)と、
前記繰り返し抽出ステップの処理により抽出された前記繰り返し成分の画面上の距離を均等に配置することで、前記繰り返し成分の配置を調整する繰り返し成分配置調整ステップ(例えば、図36のステップS95)と、
前記画像のうちの前記繰り返し成分を含まない領域の画像の色分布の代表値を、前記繰り返し成分配置調整ステップの処理により前記繰り返し成分の配置が調整された前記画像のうちの前記繰り返し成分を含まない領域に配置する領域配置ステップ(例えば、図36のステップS99)と、
前記領域配置ステップの処理により前記色分布の代表値が配置された画像における繰り返し成分およびその配置の特徴を示す特徴情報を生成する特徴情報生成ステップ(例えば、図36のステップS100)と
を含む処理をコンピュータに実行させることを特徴とする。
The program according to claim 8 is:
A program for processing images,
A repetitive extraction step (for example, step S92 in FIG. 36) for extracting a repetitive component that is a component of an image that repeatedly appears and is similar to the image from the image;
A repetitive component placement adjustment step (for example, step S95 in FIG. 36) for adjusting the placement of the repetitive component by uniformly arranging the distances on the screen of the repetitive component extracted by the processing of the repetitive extraction step;
The representative value of the color distribution of the image in the region not including the repetitive component of the image includes the repetitive component of the image in which the repetitive component arrangement is adjusted by the processing of the repetitive component arrangement adjusting step. A region placement step (eg, step S99 in FIG. 36) for placing in a region that does not exist;
A feature information generation step (for example, step S100 in FIG. 36) that generates feature information indicating the repetitive component and the feature of the placement in the image in which the representative value of the color distribution is placed by the processing of the region placement step . Is executed by a computer.

請求項9に記載の画像処理システムは、
画像を処理する画像処理システム(図1の画像処理システム1)において、
入力された入力画像から、略水平方向および略垂直方向のうち少なくとも一方向のエッジを抽出するエッジ抽出手段(例えば、図3のエッジ抽出部52)と、
前記エッジ抽出手段により抽出された複数のエッジのうち、同一方向の任意の2本のエッジで構成される全てのエッジ対について、各エッジ対を構成する2本のエッジの画像上の間隔の最頻値を算出する最頻値算出手段(例えば、図3のエッジ出現区間算出部53)と、
前記最頻値算出手段により算出された前記最頻値の画像上の間隔で抽出された2本のエッジにより構成されるエッジ対からなり、前記2本のエッジで挟まれる領域が互いに連続するように隣接するエッジ対の集合により構成されるエッジ対の連鎖を検出し、さらに、各エッジ対の連鎖について、前記エッジ対を構成する2本のエッジの間隔の統計的な代表値を、前記エッジの抽出に関する繰返し周期として算出する繰返し周期算出手段(例えば、図3の繰り返し周期算出部54)と、
前記入力画像を、前記エッジの出現の繰り返し方向に、前記エッジの出現の繰り返し周期で分割し、前記入力画像が分割された小領域である複数の第1のブロックを生成し、各第1のブロックの色に、前記第1のブロック内の統計的な代表色を設定する画像分割手段(例えば、図12の画像分割部183)と、
前記画像分割手段により前記入力画像が分割されて生成された複数の第1のブロックの内、互いに隣接し、互いの色の差が予め定められた所定の範囲内となる複数のブロックの各領域を結合して1つの新たな第2のブロックとするとともに、前記第2のブロック画像の色に、結合した前記第1のブロックの色の統計的な代表色を設定することにより、複数の前記第1のブロックを統合して前記第2のブロックを生成するブロック統合手段(例えば、図12の類似色統合部184)と、
前記ブロック統合手段により複数の第1のブロックが統合されて生成された前記第2のブロックの略水平方向または略垂直方向の境界線により前記入力画像を分割して、色を置き換えるための領域を生成する領域生成手段(例えば、図17の領域生成部302)と、
前記領域生成手段により生成された複数の前記領域の内、各領域の予め定められた所定の統計的代表色の割合が最も大きい領域で、他の前記領域を置き換える領域置き換え手段(例えば、図17の類似領域置き換え部303)と、
前記画像のうちの前記繰り返し成分を含まない領域の画像の代表値を配置する領域配置手段(例えば、図17の連続領域抽出部304)と、
前記領域抽出手段により抽出された前記領域により構成される画像に繰り返し表われ類似する画像の成分である繰り返し成分を前記画像から抽出する繰り返し抽出手段(例えば、図34の繰り返し抽出部402)と、
前記繰り返し抽出手段により抽出された前記繰り返し成分の画面上の距離を均等に配置することで、前記繰り返し成分の配置を調整する繰り返し成分配置調整手段(例えば、図34の繰り返し調整部403)と、
前記画像のうちの前記繰り返し成分を含まない領域の画像の色分布の代表値を、前記繰り返し成分配置調整手段により前記繰り返し成分の配置が調整された前記画像のうちの前記繰り返し成分を含まない領域に配置する領域配置手段(例えば、図34の残り領域補間部404)と、
前記領域配置手段により前記色分布の代表値が配置された画像における繰り返し成分およびその配置の特徴を示す特徴情報を生成する特徴情報生成手段(例えば、図34のファイル生成部405)と、
前記特徴情報生成手段により生成された特徴情報を取得する取得手段(例えば、図35の入力部431)と、
前記取得手段により取得された前記特徴情報に基づいて、前記画像を再現する再現手段(例えば、図35の再現位置特定部432)と
を備えることを特徴とする。
An image processing system according to claim 9 is provided.
In an image processing system (image processing system 1 in FIG. 1) for processing an image,
Edge extraction means (for example, the edge extraction unit 52 in FIG. 3) for extracting an edge in at least one of a substantially horizontal direction and a substantially vertical direction from the input image;
Among all of the plurality of edges extracted by the edge extracting means, for all edge pairs formed of arbitrary two edges in the same direction, the interval between the two edges constituting each edge pair on the image is the maximum. A mode value calculating means for calculating a mode value (for example, the edge appearance section calculating unit 53 in FIG. 3);
It is composed of an edge pair composed of two edges extracted at intervals on the mode value image calculated by the mode value calculating means, and the regions sandwiched between the two edges are continuous with each other. A chain of edge pairs constituted by a set of edge pairs adjacent to each other, and for each chain of edge pairs, a statistical representative value of the interval between two edges constituting the edge pair is determined as the edge pair. A repetition period calculation means (for example, a repetition period calculation unit 54 in FIG. 3) for calculating as a repetition period for extraction of
The input image is divided in a repetition direction of the appearance of the edge at a repetition cycle of the appearance of the edge, and a plurality of first blocks that are small regions into which the input image is divided are generated, Image dividing means (for example, the image dividing unit 183 in FIG. 12) for setting a statistical representative color in the first block as the color of the block;
Among the plurality of first blocks generated by dividing the input image by the image dividing unit, the areas of the plurality of blocks which are adjacent to each other and whose color difference is within a predetermined range. Are combined into one new second block, and a statistical representative color of the color of the combined first block is set as the color of the second block image. A block integration unit (for example, the similar color integration unit 184 in FIG. 12) that integrates a first block to generate the second block;
A region for replacing the color by dividing the input image by a substantially horizontal or substantially vertical boundary line of the second block generated by integrating the plurality of first blocks by the block integrating means. An area generating means for generating (for example, the area generating unit 302 in FIG. 17);
Of the plurality of regions generated by the region generation unit, a region replacement unit (for example, FIG. 17) that replaces the other region with a region having the largest ratio of a predetermined predetermined statistical representative color of each region. Similar region replacement unit 303),
An area arrangement unit (for example, a continuous area extraction unit 304 in FIG. 17) that arranges representative values of an image of an area that does not include the repetitive component of the image;
Repetitive extraction means (for example, repetitive extraction unit 402 in FIG. 34) that extracts repetitive components that are components of an image that appears repeatedly and is similar to the image composed of the regions extracted by the region extracting means;
A repetitive component arrangement adjusting unit (for example, a repetitive adjusting unit 403 in FIG. 34) that adjusts the arrangement of the repetitive components by uniformly arranging the distances on the screen of the repetitive components extracted by the repetitive extraction unit;
Region wherein the representative value of the color distribution of the image of the region not including the repeating components, not including the repetitive component of the image arrangement of the repetitive component has been adjusted by the repetitive component arrangement adjusting means of the image Area placement means (for example, the remaining area interpolation unit 404 in FIG. 34) to be placed in
Feature information generating means (for example, the file generating unit 405 in FIG. 34) that generates repetitive components in the image in which the representative values of the color distribution are arranged by the region arranging means and characteristic information indicating the characteristics of the arrangement;
Acquisition means (for example, the input unit 431 in FIG. 35) for acquiring the feature information generated by the feature information generation means;
Reproduction means (for example, reproduction position specifying unit 432 in FIG. 35) for reproducing the image based on the feature information acquired by the acquisition means is provided.

以下、図を参照して、本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明を適用した画像処理システムの全体の構成例を示す図である。   FIG. 1 is a diagram showing an example of the overall configuration of an image processing system to which the present invention is applied.

この画像処理システム1には、繰り返し周期抽出装置11、ブロック化装置12、連続領域抽出装置13、テクスチャ作成装置14、および画像再現装置15が設けられている。   The image processing system 1 is provided with a repetition period extracting device 11, a blocking device 12, a continuous area extracting device 13, a texture creating device 14, and an image reproducing device 15.

繰り返し周期抽出装置11は、繰り返し成分を含む画像(図4乃至図6を参照して後述する繰り返し成分を含む画像)の画像データに基づいて、画像の主要なエッジの出現に関する繰り返し周期を抽出し、これを繰り返し周期のデータ21として出力する。繰り返し周期のデータ21は、水平方向エッジの繰り返し周期のデータと垂直方向エッジの繰り返し周期のデータとを含む。ブロック化装置12は、画像の繰り返し成分に基づいて、画像を任意の大きさのブロックに分割し、これをブロック画像データ22として出力する。ブロック画像データ22は、任意のサイズのブロックに分割された複数のブロック画像からなる画像のデータを少なくとも含む。連続領域抽出装置13は、ブロック化された画像データに基づいて、画像を複数の領域に分割し、類似する領域をその代表値で置き換えるとともに、連続する領域を抽出し、これを連続領域データ23として出力する。連続領域データ23は、連続する領域のデータを少なくとも含む。テクスチャ作成装置14は、画像の繰り返し成分を抽出するとともにその繰り返し成分の位置を調整し、調整した結果の画像を補間してテクスチャデータ24として出力する。テクスチャデータ24は、画像の特徴を有するデータを含む。画像再現装置15は、テクスチャデータ24に基づいて、画像を再現する。   The repetition period extraction device 11 extracts a repetition period related to the appearance of main edges of an image based on image data of an image including a repetition component (an image including a repetition component described later with reference to FIGS. 4 to 6). This is output as data 21 of the repetition period. The repetition period data 21 includes horizontal edge repetition period data and vertical edge repetition period data. The blocking device 12 divides the image into blocks of an arbitrary size based on the repetitive components of the image, and outputs this as block image data 22. The block image data 22 includes at least image data composed of a plurality of block images divided into blocks of an arbitrary size. The continuous area extraction device 13 divides the image into a plurality of areas based on the blocked image data, replaces similar areas with their representative values, extracts continuous areas, and extracts the continuous areas 23. Output as. The continuous area data 23 includes at least data of continuous areas. The texture creation device 14 extracts the repetitive component of the image, adjusts the position of the repetitive component, interpolates the image as a result of adjustment, and outputs it as texture data 24. The texture data 24 includes data having image characteristics. The image reproduction device 15 reproduces an image based on the texture data 24.

図2は、図1の画像処理システム1における画像処理を説明するフローチャートである。なお、この処理は、画像処理システム1の繰り返し周期抽出装置11に繰り返し成分(すなわち、繰り返し表われ、類似する画像の成分である繰り返し成分)を含む画像の画像データが入力されたとき開始される。   FIG. 2 is a flowchart illustrating image processing in the image processing system 1 of FIG. This process is started when image data of an image including a repetitive component (that is, a repetitive component that appears repeatedly and is a component of a similar image) is input to the repetitive cycle extracting device 11 of the image processing system 1. .

ステップS11において、繰り返し周期抽出装置11は、繰り返し周期抽出処理を実行する。例えば、繰り返し周期抽出装置11は、繰り返し成分を含む画像の画像データから画像の主要なエッジの繰り返し成分の周期を抽出し、繰り返し周期のデータ21として出力する。なお、この処理の詳細は、図7を参照して後述する。   In step S11, the repetition period extraction device 11 performs a repetition period extraction process. For example, the repetition period extracting device 11 extracts the period of the repetition component of the main edge of the image from the image data of the image including the repetition component, and outputs it as the repetition period data 21. Details of this processing will be described later with reference to FIG.

ステップS12において、ブロック化装置12は、ブロック化処理を実行する。例えば、ブロック化装置12は、繰り返し周期抽出装置11から出力された繰り返し周期のデータ21に含まれる画像の繰り返し成分に基づいて、画像を任意の大きさのブロックに分割することでブロック化し(画像をブロックに分割し)、ブロック画像データ22として出力する。なお、この処理の詳細は、図13を参照して後述する。   In step S12, the blocking device 12 performs a blocking process. For example, the blocking device 12 blocks the image by dividing the image into blocks of an arbitrary size based on the repetition component of the image included in the data 21 of the repetition cycle output from the repetition cycle extraction device 11 (image Are divided into blocks) and output as block image data 22. Details of this processing will be described later with reference to FIG.

ステップS13において、連続領域抽出装置13は、連続領域抽出処理を実行する。例えば、連続領域抽出装置13は、ブロック画像データ22に基づいて、画像を複数の領域に分割し、類似する領域をその代表値で置き換えるとともに、連続する領域を抽出し、これを連続領域データ23として出力する。なお、この処理の詳細は、図18を参照して後述する。   In step S13, the continuous area extraction device 13 executes a continuous area extraction process. For example, the continuous area extraction device 13 divides an image into a plurality of areas based on the block image data 22, replaces similar areas with the representative values, extracts continuous areas, and extracts the continuous areas 23. Output as. Details of this process will be described later with reference to FIG.

ステップS14において、テクスチャ生成装置14は、テクスチャ生成処理を実行する。例えば、テクスチャ生成装置14は、画像の繰り返し成分を抽出するとともにその繰り返し成分の位置を調整し、調整した結果の画像を補間してテクスチャデータ24として出力する。なお、この処理の詳細は、図36を参照して後述する。   In step S14, the texture generation device 14 executes texture generation processing. For example, the texture generation device 14 extracts a repetitive component of the image, adjusts the position of the repetitive component, interpolates the adjusted image, and outputs it as texture data 24. Details of this processing will be described later with reference to FIG.

ステップS15において、画像再現装置15は、画像再現処理を実行する。例えば、画像再現装置15は、テクスチャデータ24に基づいて、画像の繰り返しを再現し、画像を再現する。なお、この処理の詳細は、図46を参照して後述する。その後、処理は終了される。   In step S15, the image reproduction device 15 performs an image reproduction process. For example, the image reproduction device 15 reproduces the repetition of the image based on the texture data 24 and reproduces the image. Details of this processing will be described later with reference to FIG. Thereafter, the process is terminated.

図2の処理により、繰り返し成分を含む画像の画像データから、その主要なエッジの画像上の間隔に関する繰り返し周期が抽出され、これに基づいて画像が任意の大きさのブロックに分割され(ブロック化され)、ブロックに分割された画像に基づいて、画像が複数の領域に分割されるとともに連続する領域が連続領域として抽出され、画像の繰り返しが抽出されるとともに調整され、テクスチャデータ24が生成される。そして、このテクスチャデータ24に基づいて画像の繰り返しが再現され、画像が再現される。   With the processing in FIG. 2, the repetition period related to the interval on the image of the main edge is extracted from the image data of the image including the repetitive component, and based on this, the image is divided into blocks of an arbitrary size (blocking). Based on the image divided into blocks, the image is divided into a plurality of regions and continuous regions are extracted as continuous regions, and repetitions of the images are extracted and adjusted to generate texture data 24. The Then, the repetition of the image is reproduced based on the texture data 24, and the image is reproduced.

これにより、画像の特徴(繰り返しという特徴)に基づいて、画像を処理することができる。また、画像を任意のサイズ(大きさ)にブロック化することができる。さらに、類似する領域の画像の位置を調整し、より、画像の特徴を生かして画像を処理することができる。また、画像の特徴を生かして画像を再現することができる。   Thereby, the image can be processed based on the feature of the image (feature called repetition). Also, the image can be blocked into an arbitrary size (size). Furthermore, it is possible to adjust the position of the image in the similar region and further process the image by utilizing the feature of the image. In addition, the image can be reproduced by making use of the feature of the image.

次に、図1の繰り返し周期抽出装置11の構成と処理の流れについて説明する。   Next, the configuration and processing flow of the repetition period extraction device 11 in FIG. 1 will be described.

図3は、図1の繰り返し周期抽出装置11の機能的構成例を説明する図である。   FIG. 3 is a diagram for explaining a functional configuration example of the repetition period extraction device 11 of FIG.

繰り返し周期抽出装置11には、画像入力部51、エッジ抽出部52、エッジ出現区間算出部53、繰り返し周期算出部54、および出力部55が設けられている。   The repetition period extraction device 11 is provided with an image input unit 51, an edge extraction unit 52, an edge appearance section calculation unit 53, a repetition period calculation unit 54, and an output unit 55.

画像入力部51は、繰り返し成分を含む画像の画像データを取得し(読み込み)、画像を色の3原色であるR,G,Bのディジタル画像データに変換し、エッジ抽出部52に供給する。なお、本実施の形態では、R,G,Bのディジタルデータに変換するようにしたが、YCrCbなどの表色系に変換するようにしてもよい。   The image input unit 51 acquires (reads) image data of an image including repetitive components, converts the image into digital image data of R, G, and B, which are the three primary colors, and supplies the digital data to the edge extraction unit 52. In this embodiment, the digital data is converted into R, G, B digital data, but may be converted into a color system such as YCrCb.

エッジ抽出部52は、供給されたRGBのディジタル画像データに基づいて、画像の水平方向と垂直方向のエッジを抽出する。例えば、エッジ抽出部52は、Hough変換法によりエッジを抽出する。なお、水平方向および垂直方向のうち少なくともいずれか一方向のエッジを抽出するようにしてもよい。また、水平方向と垂直方向は、略水平方向と略垂直方向であってもよい。   The edge extraction unit 52 extracts horizontal and vertical edges of the image based on the supplied RGB digital image data. For example, the edge extraction unit 52 extracts edges by the Hough transform method. Note that an edge in at least one of the horizontal direction and the vertical direction may be extracted. Further, the horizontal direction and the vertical direction may be a substantially horizontal direction and a substantially vertical direction.

エッジ出現区間算出部53は、エッジ抽出部52により検出された画像の水平方向エッジと垂直方向エッジに基づいて、水平方向のエッジと垂直方向のエッジの出現間隔の最頻値を検出する。具体的には、エッジ出現区間算出部53は、水平方向のエッジと垂直方向のエッジから2本のエッジの組を全て選択し、2本のエッジの出現間隔(2本間の距離)の最頻の値(最頻間隔における値)を求めることで、水平方向のエッジと垂直方向のエッジの出現間隔の最頻値を検出する。   The edge appearance section calculation unit 53 detects the mode value of the appearance interval between the horizontal edge and the vertical edge based on the horizontal edge and the vertical edge of the image detected by the edge extraction unit 52. Specifically, the edge appearance section calculation unit 53 selects all the sets of two edges from the horizontal edge and the vertical edge, and the most frequent appearance interval (distance between the two edges) of the two edges. Is obtained (the value at the most frequent interval) to detect the most frequent value of the appearance interval between the horizontal edge and the vertical edge.

繰り返し周期算出部54は、エッジの出現区間の最頻値に該当する2本のエッジの組み合わせを全て検出し、検出したエッジの組の中から連鎖(2直線のうち1本が重なり合っている箇所)を検索し、連鎖の最頻値、中央値または平均値となる統計的な代表の長さを画像の主要なエッジの出現に関する繰り返し周期とする。ここで、連鎖とは、最頻値の出現間隔で出現する2本のエッジにより構成されるエッジ対からなり、2本のエッジで挟まれる領域が互いに連続するように隣接するエッジ対の集合により構成されるエッジ対群のことであり、連鎖の長さとは、上述したエッジの出現の繰り返し周期のことである。すなわち、連鎖となる最頻値、中央値または平均値(すなわち統計的代表値)が、エッジの出現の繰り返し周期となる。   The repetition period calculation unit 54 detects all combinations of two edges corresponding to the mode value of the edge appearance section, and a chain (one of two straight lines is overlapped) from the detected pair of edges. ) And the length of the statistical representative that is the mode, median, or average of the chain is taken as the repetition period for the appearance of the main edge of the image. Here, a chain consists of an edge pair composed of two edges that appear at the appearance interval of the mode value, and is a set of adjacent edge pairs so that the area between the two edges is continuous with each other. It is a group of edge pairs to be configured, and the chain length is a repetition cycle of the appearance of the edge described above. That is, the mode value, median value, or average value (that is, the statistical representative value) that becomes a chain becomes the repetition cycle of the appearance of the edge.

出力部55は、繰り返し周期算出部54により検出された画像の主要なエッジの出現に関する繰り返し周期のデータを出力する。具体的には、出力部55は、「最頻の繰り返し連鎖の長さ」および「最頻の繰り返しを構成するエッジの位置」を、繰り返し周期のデータ21として出力する。ここで位置とは、垂直方向の場合、画像のx座標を指し、水平方向の場合、画像のy座標を指す。   The output unit 55 outputs data of the repetition period related to the appearance of the main edge of the image detected by the repetition period calculation unit 54. Specifically, the output unit 55 outputs “the most frequent repetition chain length” and “the position of the edge constituting the most frequent repetition” as the repetition period data 21. Here, the position indicates the x coordinate of the image in the vertical direction, and the y coordinate of the image in the horizontal direction.

ここで、繰り返し成分を含む画像について、図4乃至図6を参照して説明する。   Here, an image including a repetitive component will be described with reference to FIGS.

図4は、デジタルスチルカメラ等により撮影された都市建築物(例えば、マンション)の正面画像から、カメラレンズのゆがみを取り除いたの画像例を示している。この画像71の領域72−1乃至72−10(図5)は、水平方向に外壁や影が繰り返している領域であり、領域73−1乃至73−4(図5)は、垂直方向に窓枠が繰り返している領域である。例えば、図4の画像71から図5の領域72−1乃至72−10、並びに領域73−1乃至73−4で示される窓枠、壁、外壁などの主要エッジを抽出した場合、図6に示されるような画像74となる。図6の例の場合、画像74は、領域72−1乃至72−10が水平方向に周期的に繰り返して出現しており、領域73−1乃至73−4が垂直方向に周期的に繰り返して出現している。このことは、図4の画像71が繰り返し成分を含む画像であることを示す。   FIG. 4 shows an example of an image obtained by removing the distortion of the camera lens from a front image of an urban building (for example, a condominium) photographed by a digital still camera or the like. Regions 72-1 to 72-10 (FIG. 5) of the image 71 are regions where outer walls and shadows are repeated in the horizontal direction, and regions 73-1 to 73-4 (FIG. 5) are windows in the vertical direction. This is an area where the frame repeats. For example, when main edges such as window frames, walls, and outer walls indicated by the areas 72-1 to 72-10 and the areas 73-1 to 73-4 in FIG. 5 are extracted from the image 71 in FIG. The image 74 is as shown. In the case of the example in FIG. 6, in the image 74, the regions 72-1 to 72-10 appear periodically repeating in the horizontal direction, and the regions 73-1 to 73-4 are periodically repeated in the vertical direction. Has appeared. This indicates that the image 71 in FIG. 4 is an image including a repetitive component.

このように、水平方向または垂直方向にエッジが周期的に繰り返して出現する画像が、繰り返し成分を含む画像である。換言すれば、繰り返し成分とは、画像に繰り返し表われ、類似する画像の成分を示す。   Thus, an image in which edges appear periodically and repeatedly in the horizontal direction or the vertical direction is an image including a repetitive component. In other words, the repeated component is a component of an image that appears repeatedly in the image and is similar.

次に、図7のフローチャートを参照して、図2のステップS11の繰り返し周期抽出処理の詳細を説明する。なお、この処理は、図3の繰り返し周期抽出装置11が実行する処理である。   Next, details of the repetition cycle extraction process in step S11 of FIG. 2 will be described with reference to the flowchart of FIG. This process is a process executed by the repetition period extraction device 11 of FIG.

ステップS31において、画像入力部51は、繰り返し成分を含む画像の画像データの入力を受け付ける。具体的には、図4乃至図6を用いて上述したような繰り返し成分を含む画像(例えば、画像71)の画像データの入力が受け付けられる。   In step S31, the image input unit 51 receives an input of image data of an image including a repetitive component. Specifically, input of image data of an image (for example, image 71) including a repetitive component as described above with reference to FIGS. 4 to 6 is accepted.

ステップS32において、画像入力部51は、画像を構成する各画素の色成分を抽出する。具体的には、画像入力部51は、画像を色の3原色であるR,G,Bのディジタル画像データに変換することで、各画素の色成分を抽出する。画像入力部51は、抽出したR,G,Bの色成分のディジタル画像データを、エッジ抽出部52に供給する。   In step S32, the image input unit 51 extracts the color component of each pixel constituting the image. Specifically, the image input unit 51 extracts the color component of each pixel by converting the image into digital image data of R, G, and B that are the three primary colors. The image input unit 51 supplies the extracted digital image data of R, G, and B color components to the edge extraction unit 52.

ステップS33において、エッジ抽出部52は、R,G,Bの色成分のディジタル画像データに基づいて、画像の水平方向のエッジを検出する。例えば、エッジ抽出部52は、直線を検出する方法であるHough変換法を用いて水平方向エッジを抽出する。この具体的な例を、図8を用いて説明する。図8では、エッジ抽出部52により抽出された水平方向のエッジを、エッジ92−1乃至92−12で示している。すなわち、エッジ92−1乃至92−12は、それぞれ水平方向に外壁や影が繰り返している位置(直線)である。なお、実際には、図5に示されるように背景の画像が表示されるが、図8の例では、説明のために背景の画像を表示していない画像91となっている(以下の図においても同様)。エッジ抽出部52は、図8のエッジ92−1乃至92−12で示されるような、水平方向エッジのデータ(抽出したデータ)をエッジ出現区間算出部53に供給する。   In step S33, the edge extraction unit 52 detects the horizontal edge of the image based on the digital image data of the R, G, and B color components. For example, the edge extraction unit 52 extracts a horizontal edge using a Hough transform method that is a method of detecting a straight line. A specific example of this will be described with reference to FIG. In FIG. 8, edges in the horizontal direction extracted by the edge extraction unit 52 are indicated by edges 92-1 to 92-12. That is, the edges 92-1 to 92-12 are positions (straight lines) where the outer wall and the shadow are repeated in the horizontal direction. In practice, a background image is displayed as shown in FIG. 5, but in the example of FIG. 8, for the sake of explanation, the image 91 is not displayed (see the following figure). The same applies to). The edge extraction unit 52 supplies horizontal edge data (extracted data) as indicated by the edges 92-1 to 92-12 in FIG.

ステップS34において、エッジ抽出部52は、R,G,Bの色成分のディジタル画像データに基づいて、画像の垂直方向のエッジを検出する。例えば、エッジ抽出部52は、直線を検出する方法であるHough変換法を用いて垂直方向エッジを抽出する。具体的には、エッジ抽出部52は、ステップS33の処理と同様に、垂直方向エッジを抽出する。エッジ抽出部52は、抽出した垂直方向エッジのデータをエッジ出現区間算出部53に供給する。   In step S34, the edge extraction unit 52 detects the vertical edge of the image based on the digital image data of the R, G, B color components. For example, the edge extraction unit 52 extracts vertical edges using a Hough transform method that is a method of detecting a straight line. Specifically, the edge extraction unit 52 extracts vertical edges as in the process of step S33. The edge extraction unit 52 supplies the extracted vertical edge data to the edge appearance section calculation unit 53.

ステップS35において、エッジ出現区間算出部53は、水平方向のエッジと垂直方向のエッジに基づいて、水平方向と垂直方向のエッジの出現間隔を算出する。具体的には、エッジ出現区間算出部53は、水平方向のエッジと垂直方向のエッジのうち、任意の2本のエッジで構成されるすべてのエッジの組(エッジ対)について、各エッジ対を構成する2本のエッジの出現間隔(2本間の距離)を算出する。換言すれば、エッジ出現区間算出部53は、図8のエッジ92−1乃至92−12の中から2本のエッジの組み合わせの出現間隔を全て算出する。例えば、エッジ出現区間算出部53は、エッジ92−2乃至92−12のうちのいずれか1つのエッジと、エッジ92−1との組み合わせであるエッジ対を構成する2本のエッジの出現間隔を算出する。具体的な例を、図9を用いて説明する。   In step S35, the edge appearance section calculation unit 53 calculates the appearance interval between the horizontal and vertical edges based on the horizontal edge and the vertical edge. Specifically, the edge appearance section calculation unit 53 calculates each edge pair for all edge pairs (edge pairs) composed of two arbitrary edges among horizontal edges and vertical edges. The appearance interval (distance between the two) of the two edges constituting is calculated. In other words, the edge appearance section calculation unit 53 calculates all the appearance intervals of combinations of two edges from the edges 92-1 to 92-12 in FIG. For example, the edge appearance section calculation unit 53 calculates the appearance interval between two edges that constitute an edge pair that is a combination of any one of the edges 92-2 to 92-12 and the edge 92-1. calculate. A specific example will be described with reference to FIG.

図9においては、エッジ92−1とエッジ92−2の2本のエッジの組の出現間隔(2本間の距離)が間隔101−1で示されている。また、エッジ92−1とエッジ92−3の出現間隔が間隔101−2で示され、エッジ92−1とエッジ92−4の出現間隔が間隔101−3で示され、エッジ92−1とエッジ92−5の出現間隔が間隔101−4で示され、エッジ92−1とエッジ92−6の出現間隔が間隔101−5で示され、エッジ92−1とエッジ92−7の出現間隔が間隔101−6で示され、同様にして、エッジ92−1とエッジ92−11の出現間隔が間隔101−10で示され、エッジ92−1とエッジ92−12の出現間隔が間隔101−11で示されている(間隔101−7乃至101−9の図示は省略している)。なお、図示は省略しているが、間隔101−1乃至101−11で表されるエッジ92−1と、その他のエッジ92−2乃至92−12との2本の組み合わせによる出現間隔だけでなく、全てのエッジについてそれぞれ組み合わせられる2本のエッジの組の出現間隔も検出される。換言すれば、エッジ出現区間算出部53は、検出された12本のエッジ92−1乃至92−12の中から、任意の2本のエッジの組み合わせを全て検出するとともに、検出した2本のエッジの間隔を(エッジの出現区間として)それぞれ算出する。   In FIG. 9, the appearance interval (distance between two) of a pair of two edges of the edge 92-1 and the edge 92-2 is indicated by an interval 101-1. Also, the appearance interval between the edge 92-1 and the edge 92-3 is indicated by an interval 101-2, the appearance interval between the edge 92-1 and the edge 92-4 is indicated by an interval 101-3, and the edge 92-1 and the edge The appearance interval of 92-5 is indicated by the interval 101-4, the appearance interval of the edge 92-1 and the edge 92-6 is indicated by the interval 101-5, and the appearance interval of the edge 92-1 and the edge 92-7 is the interval. Similarly, the appearance interval between the edge 92-1 and the edge 92-11 is indicated by the interval 101-10, and the appearance interval between the edge 92-1 and the edge 92-12 is indicated by the interval 101-11. (The illustration of the intervals 101-7 to 101-9 is omitted). In addition, although illustration is abbreviate | omitted, not only the appearance interval by 2 combinations of the edge 92-1 represented by the space | interval 101-1 thru | or 101-11, and the other edge 92-2 thru | or 92-12 is not only. , The appearance interval of a set of two edges that are combined with each other is also detected. In other words, the edge appearance section calculation unit 53 detects all combinations of two arbitrary edges from the detected twelve edges 92-1 to 92-12, and detects the two detected edges. Are respectively calculated (as edge appearance intervals).

例えば、図9に示されるように、エッジ92−9とエッジ92−10の2本のエッジの組の出現間隔(2本間の距離)102−1が算出され、エッジ92−9とエッジ92−11の出現間隔102−2が算出され、エッジ92−9とエッジ92−12の出現間隔102−3が算出される。また、例えば、エッジ92−10に関しても、エッジ92−10とエッジ92−11の出現間隔103−1が算出され、エッジ92−10とエッジ92−12の出現間隔103−2が算出される。さらに、エッジ92−11に関しても、エッジ92−11とエッジ92−12の出現間隔104−1が算出される。なお、図9は、水平方向のエッジの出現間隔を説明する図であるが、エッジ出現区間算出部53は、同様にして垂直方向のエッジ出現間隔を算出する。   For example, as shown in FIG. 9, the appearance interval (distance between two) of the pair of two edges 92-9 and 92-10 is calculated, and the edge 92-9 and the edge 92− are calculated. 11 appearance intervals 102-2 are calculated, and the appearance intervals 102-3 of the edges 92-9 and 92-12 are calculated. For example, for the edge 92-10, the appearance interval 103-1 between the edges 92-10 and 92-11 is calculated, and the appearance interval 103-2 between the edges 92-10 and 92-12 is calculated. Further, with respect to the edge 92-11, the appearance interval 104-1 between the edge 92-11 and the edge 92-12 is calculated. Although FIG. 9 is a diagram for explaining the appearance intervals of horizontal edges, the edge appearance section calculation unit 53 similarly calculates the vertical edge appearance intervals.

ステップS36において、エッジ出現区間算出部53は、最頻の出現間隔を算出する。具体的には、エッジ出現区間算出部53は、ステップS35で算出したエッジの出現間隔の中から最頻値を求める。例えば、エッジ出現区間算出部53は、抽出された複数のエッジのうち、任意の2本のエッジで構成される全てのエッジ対(2本のエッジの組み合わせ)について、各エッジ対を構成する2本のエッジの間隔を求め、求めた間隔の長さをヒストグラム化し、最も頻度の高い間隔のエッジ対を最頻のエッジ対とし、その間隔の長さを最頻値として求める。図9の例の場合、出現間隔の最頻値は、図10に示されるような間隔121乃至127となる。エッジ出現区間算出部53は、算出した最頻の出現間隔の情報を繰り返し周期算出部54に供給する。なお、最頻値として特定の値を用いる場合、該当するエッジ対(最頻のエッジ対)の数が少なすぎる場合も考えられ、実用上不都合が生じる恐れもある。従って、実際には、ヒストグラム上において、所定の幅に含まれる値(間隔の長さ)を全て最頻値(最頻値群)とし、それらの間隔のエッジ対を全て最頻のエッジ対としている。なお、最頻値を算出する方法の一例は、図47と図48を参照して後述する。   In step S36, the edge appearance section calculation unit 53 calculates the most frequent appearance interval. Specifically, the edge appearance section calculation unit 53 obtains the mode value from the edge appearance intervals calculated in step S35. For example, the edge appearance section calculation unit 53 configures each edge pair with respect to all edge pairs (combinations of two edges) composed of arbitrary two edges among the plurality of extracted edges. The interval between the book edges is obtained, the length of the obtained interval is made into a histogram, the edge pair having the most frequent interval is set as the most frequent edge pair, and the length of the interval is obtained as the mode value. In the case of the example of FIG. 9, the mode value of the appearance interval is the intervals 121 to 127 as shown in FIG. The edge appearance section calculation unit 53 supplies the calculated most frequent appearance interval information to the repetition period calculation unit 54. When a specific value is used as the mode value, there may be a case where the number of applicable edge pairs (modest edge pairs) is too small, which may cause inconvenience in practice. Therefore, in practice, on the histogram, the values (interval lengths) included in the predetermined width are all mode values (mode values group), and the edge pairs of those intervals are all mode edge pairs. Yes. An example of a method for calculating the mode value will be described later with reference to FIGS. 47 and 48.

ステップS37において、繰り返し周期算出部54は、連鎖の長さ(統計的な代表値)を繰り返し周期として算出する。具体的には、繰り返し周期算出部54は、エッジの出現区間の最頻値に該当する2本のエッジの組み合わせを全て検出し、検出したエッジの組の中から連鎖(2直線のうち1本が重なり合っている箇所)を検索し、連鎖の平均値(中央値または最頻値)をエッジの出現の繰り返し周期とする。ここで、連鎖とは、最頻値の出現間隔で出現する2本のエッジにより構成されるエッジ対からなり、2本のエッジで挟まれる領域が互いに連続するように隣接するエッジ対の集合により構成されるエッジ対群のことであり、連鎖の長さとは、上述したエッジの出現の、繰り返し周期のことである。例えば、図10の間隔121乃至127が、エッジの出現区間の最頻値に該当する2本のエッジの全ての組み合わせである場合、繰り返し周期算出部54は、図11に示されるように、検出したエッジの組の中から連鎖として間隔(直線)141−1乃至141−4を算出するとともに、間隔142−1乃至142−3を算出する。なお、図11の間隔141−1乃至141−4は、それぞれ図10の間隔121、123、125、および127に対応しており、図11の間隔142−1乃至142−3は、それぞれ図10の間隔122、124、および126に対応している。繰り返し周期算出部54は、算出した連鎖の長さを、繰り返し周期として出力部55に供給する。図11の例の場合、間隔141−1乃至141−4の長さの平均値(中央値または最頻値)、または間隔142−1乃至142−3の長さの平均値(中央値または最頻値)が、連鎖の長さ(すなわち、繰り返し周期)として出力部55に供給される。すなわち、間隔141−1乃至141−3の長さの平均値、中央値または最頻値(統計的な代表値)が、連鎖の長さとなる。   In step S37, the repetition period calculation unit 54 calculates the chain length (statistical representative value) as the repetition period. Specifically, the repetition period calculation unit 54 detects all combinations of two edges corresponding to the mode value of the edge appearance section, and selects a chain (one of the two straight lines) from the detected pair of edges. Are searched), and the average value (median or mode) of the chain is used as the repetition cycle of the appearance of the edge. Here, a chain consists of an edge pair composed of two edges that appear at the appearance interval of the mode value, and is a set of adjacent edge pairs so that the area between the two edges is continuous with each other. This is a group of edge pairs to be configured, and the chain length is a repetition period of the appearance of the edge described above. For example, when the intervals 121 to 127 in FIG. 10 are all combinations of two edges corresponding to the mode value of the edge appearance section, the repetition period calculation unit 54 detects as shown in FIG. The intervals (straight lines) 141-1 to 141-4 are calculated as a chain from the set of edges, and the intervals 142-1 to 142-3 are calculated. Note that the intervals 141-1 to 141-4 in FIG. 11 correspond to the intervals 121, 123, 125, and 127 in FIG. 10, respectively, and the intervals 142-1 to 142-3 in FIG. Corresponding to the intervals 122, 124, and 126. The repetition period calculation unit 54 supplies the calculated chain length to the output unit 55 as a repetition period. In the example of FIG. 11, the average value (median or mode) of the lengths of the intervals 141-1 to 141-4, or the average value (median or maximum) of the lengths of the intervals 142-1 to 142-3. Frequency value) is supplied to the output unit 55 as the length of the chain (that is, the repetition period). That is, the average value, median value, or mode value (statistical representative value) of the lengths of the intervals 141-1 to 141-3 is the chain length.

ステップS38において、出力部55は、繰り返し周期のデータ(上述した繰り返し周期のデータ21)を出力する。具体的には、出力部55は、繰り返し周期算出部54により算出された繰り返し周期を、繰り返し周期のデータ21として出力する。その後、処理は終了され、処理は図2のステップS11に戻る。このとき、繰り返し周期のデータ21は、水平方向エッジの繰り返し周期のデータと垂直方向エッジの繰り返し周期のデータとを少なくとも含む。   In step S <b> 38, the output unit 55 outputs the repetition cycle data (the above-described repetition cycle data 21). Specifically, the output unit 55 outputs the repetition cycle calculated by the repetition cycle calculation unit 54 as the data 21 of the repetition cycle. Thereafter, the process is terminated, and the process returns to step S11 in FIG. At this time, the repetition period data 21 includes at least horizontal edge repetition period data and vertical edge repetition period data.

図7の処理により、繰り返し周期抽出装置11は、繰り返し成分を含む画像データから、その画像に含まれるエッジを抽出するとともに、抽出したエッジから最頻のエッジ出現間隔を算出し、連鎖部分を検出し、さらに、連鎖となる2本のエッジの組み合わせの平均値(中央値または最頻値)をエッジの出現に関する繰り返し周期とするようにしたので、画像の主要なエッジ(最頻のエッジ)の繰り返しに基づいて、エッジの出現に関する繰り返し周期を求めることができる。また、繰り返し周期の位置を抽出することができる。さらに、画像の繰り返し成分を求めることができる。   Through the processing in FIG. 7, the repetition period extraction device 11 extracts edges included in the image from image data including repetition components, calculates the most frequent edge appearance interval from the extracted edges, and detects a chained portion. In addition, since the average value (median or mode) of the combination of two edges forming a chain is used as the repetition period for the appearance of the edge, the main edge (mode) of the image Based on the repetition, the repetition period regarding the appearance of the edge can be obtained. Further, the position of the repetition cycle can be extracted. Furthermore, the repetitive component of the image can be obtained.

また、画像の主要なエッジの出現に関する繰り返し周期を求めることができる。   Further, it is possible to obtain a repetition period regarding the appearance of main edges of the image.

この画像入力部51に入力される繰り返し成分を含む画像に対してDCT(Discrete Cosine Transform)方式を用いて演算した場合、周波数成分の検出を行うことができるが、図7の処理によれば、繰り返し成分の繰り返し周期に加え、さらに、繰り返し周期の位置を検出することができる。   When an image including a repetitive component input to the image input unit 51 is calculated using a DCT (Discrete Cosine Transform) method, a frequency component can be detected. According to the processing of FIG. In addition to the repetition period of the repetition component, the position of the repetition period can be detected.

以上の図3乃至図7で説明した繰り返し周期抽出装置11によれば、エッジ抽出部52が入力された画像から、水平方向および垂直方向のうち少なくとも一方向のエッジを抽出し、エッジ出現区間算出部53が、抽出された複数のエッジのうち、同一方向の任意の2本のエッジで構成される全てのエッジ対について、各エッジ対を構成する2本のエッジの画像上の間隔の最頻の値を算出し、繰り返し周期算出部54が、算出された最頻値の画像上の間隔で抽出された2本のエッジにより構成されるエッジ対からなり、2本のエッジで挟まれる領域が互いに連続するように隣接するエッジ対の集合により構成されるエッジ対の連鎖を検出し、さらに、各エッジ対の連鎖について、エッジ対を構成する2本のエッジの間隔の統計的な代表値(平均値、中央値または最頻値)を、エッジの抽出に関する繰返し周期として算出するようにしたので、繰り返し成分を含む画像の繰り返し成分を抽出することができる。また、繰り返し周期の位置を抽出することができる。   3 to 7 described above, the edge extraction unit 52 extracts at least one edge in the horizontal direction and the vertical direction from the input image, and calculates an edge appearance section. For all edge pairs formed by arbitrary two edges in the same direction among the plurality of extracted edges, the unit 53 sets the most frequent interval on the image of the two edges constituting each edge pair. The repetition period calculation unit 54 includes an edge pair composed of two edges extracted at intervals on the calculated mode value image, and a region sandwiched between the two edges is obtained. A chain of edge pairs constituted by a set of adjacent edge pairs so as to be continuous with each other is detected. Further, for each chain of edge pairs, a statistical representative value of an interval between two edges constituting the edge pair ( average The median or mode), since the calculated as the repetition period on extraction of the edge, it is possible to extract the repetition components of the image comprising a repeating component. Further, the position of the repetition cycle can be extracted.

次に、図1のブロック化装置12の構成と処理の流れについて説明する。   Next, the configuration of the blocking device 12 in FIG. 1 and the flow of processing will be described.

図12は、図1のブロック化装置12の機能的構成例を示すブロック図である。   FIG. 12 is a block diagram illustrating a functional configuration example of the blocking device 12 of FIG.

ブロック化装置12には、画像入力部181、繰り返し周期延長部182、画像分割部183、類似色統合部184、および出力部185が設けられている。   The blocking device 12 includes an image input unit 181, a repetition period extension unit 182, an image division unit 183, a similar color integration unit 184, and an output unit 185.

画像入力部181は、供給されてきた画像データを取得し、後段の繰り返し周期延長部182に供給する。図1の例の場合、繰り返し周期抽出装置11から出力された繰り返し周期のデータ21がブロック化装置12に入力されるので、画像入力部181は、繰り返し周期のデータ21に含まれる、水平方向エッジと垂直方向エッジのそれぞれの繰り返し成分の周期を、後段の繰り返し周期延長部182に供給する。   The image input unit 181 acquires the supplied image data and supplies the acquired image data to the subsequent repetition period extending unit 182. In the case of the example in FIG. 1, since the data 21 of the repetition period output from the repetition period extraction device 11 is input to the blocking device 12, the image input unit 181 includes the horizontal edge included in the data 21 of the repetition cycle. And the period of each repetitive component of the vertical edge is supplied to the repetitive period extension unit 182 in the subsequent stage.

繰り返し周期延長部182は、水平方向エッジの繰り返し成分の周期に基づいて、その繰り返し成分の長さを水平方向に画像の両端まで延長するとともに、垂直方向エッジの繰り返し成分の周期に基づいて、その繰り返し成分の長さを、垂直方向に画像の両端まで延長する。すなわち、繰り返し周期延長部182は、水平方向エッジと垂直方向エッジのそれぞれの繰り返し成分の周期(長さ)に基づいて、その間隔(長さ)を、それぞれ水平方向と垂直方向に画像の両端まで延長する。これにより、繰り返し成分の周期と同じ長さの補助線が追加される。   The repetition period extension unit 182 extends the length of the repetition component in the horizontal direction to both ends of the image based on the period of the repetition component of the horizontal edge, and based on the period of the repetition component of the vertical edge, Extend the length of the repeating component vertically to both ends of the image. That is, the repetition period extension unit 182 sets the interval (length) to both ends of the image in the horizontal direction and the vertical direction based on the period (length) of each repetition component of the horizontal edge and the vertical edge. Extend. Thereby, an auxiliary line having the same length as the cycle of the repetitive component is added.

画像分割部183は、繰り返し周期のデータ21に含まれる(すなわち、繰り返し周期抽出装置11により抽出された)画像のエッジと、繰り返し周期延長部182により追加された補助線(延長された補助線)を用いて画像をブロック分割する。また、画像分割部183は、ブロック分割したブロック毎の代表色を決定し、塗りつぶす(代表色で統一する)。   The image dividing unit 183 includes an edge of an image included in the repetition period data 21 (that is, extracted by the repetition period extracting device 11), and an auxiliary line (extended auxiliary line) added by the repetition period extending unit 182. To divide the image into blocks. Further, the image dividing unit 183 determines a representative color for each block obtained by dividing the block, and paints it (unify it with the representative color).

類似色統合部184は、ブロック分割されたそれぞれのブロックのうち、隣接するブロックの色が類似する場合にはそのブロックを統合し、代表色に置き換える(すなわち、類似色を統合する)。具体的には、類似色統合部184は、ブロック分割されたそれぞれの画像のブロックを全走査し、隣接するブロック毎に色の比較を行い、隣接するブロックの色が類似している場合には2つのブロックを統合し、代表色に置き換える。   The similar color integration unit 184 integrates the adjacent blocks among the blocks divided into blocks, and replaces them with representative colors (that is, integrates similar colors). Specifically, the similar color integration unit 184 scans each block of each image divided into blocks, compares the colors for each adjacent block, and when the colors of the adjacent blocks are similar. Integrate two blocks and replace with representative colors.

出力部185は、類似色統合部184により統合された画像のブロック(すなわち、ブロック画像)を出力する。   The output unit 185 outputs a block of an image (that is, a block image) integrated by the similar color integration unit 184.

次に、図13のフローチャートを参照して、図2のステップS12のブロック化処理の詳細を説明する。なお、この処理は、図12のブロック化装置12が実行する処理である。   Next, details of the blocking process in step S12 of FIG. 2 will be described with reference to the flowchart of FIG. This process is a process executed by the blocking device 12 in FIG.

ステップS51において、画像入力部181は、画像の入力を受け付ける。この例の場合、図2のステップS11の処理により繰り返し周期抽出装置11から出力された繰り返し周期のデータ21の入力を受け付ける。そして、画像入力部181は、繰り返し周期のデータ21に含まれる、水平方向エッジと垂直方向エッジのそれぞれの繰り返し成分の周期を、繰り返し周期延長部182に供給する。   In step S51, the image input unit 181 receives an input of an image. In the case of this example, the input of the data 21 of the repetition period output from the repetition period extraction apparatus 11 by the process of step S11 of FIG. 2 is received. Then, the image input unit 181 supplies the repetition period of the horizontal edge and the vertical edge included in the repetition period data 21 to the repetition period extension unit 182.

ステップS52において、繰り返し周期延長部182は、画像の繰り返し周期を延長する。具体的には、繰り返し周期延長部182は、水平方向エッジの繰り返し成分の周期に基づいて、水平方向に画像の両端まで延長するとともに、垂直方向エッジの繰り返し成分の周期に基づいて、その間隔(長さ)を、垂直方向に画像の両端まで延長する。この水平方向エッジに関する詳細を、図14と図15を用いて説明する。なお、間隔141−1乃至141−4はそれぞれ同じ長さであり、間隔142−1乃至142−3はそれぞれ同じ長さである。   In step S52, the repetition period extension unit 182 extends the repetition period of the image. Specifically, the repetition period extension unit 182 extends horizontally to both ends of the image based on the period of the horizontal edge repetition component and also determines the interval (based on the period of the vertical edge repetition component. Length) to the edges of the image in the vertical direction. Details regarding the horizontal edge will be described with reference to FIGS. 14 and 15. FIG. The intervals 141-1 to 141-4 have the same length, and the intervals 142-1 to 142-3 have the same length.

例えば、ステップS51の処理で受け付けられた繰り返し周期のデータ21に基づく画像が、上述した図11に示されるような画像91である場合、図14に示されるように、間隔141−1乃至141−4の最頻の値(中央値または平均値)と同じ長さの間隔201−1乃至201−3が、画像91の両端まで延長される。また、図14に示されるように、間隔142−1乃至142−3から算出された最頻の値(中央値または平均値)と同じ長さの間隔202−1乃至202−4が、画像91の両端まで延長(追加)される。そして、その間隔201−1乃至201−3(図14)の追加の結果、追加された新しい補助線が図15の補助線211で示され、間隔202−1乃至202−4(図14)の追加の結果、追加された新しい補助線が図15の補助線212および補助線213で示される。すなわち、これらの補助線211乃至213が追加された新しいエッジである。換言すると、元々画像のエッジが抽出されていない箇所に、新しいエッジ(補助線)が抽出エッジとして追加される。これにより、繰り返し成分の周期と同じ長さの補助線が追加される。なお、垂直方向エッジについても同様であるので、その説明は省略する。   For example, when the image based on the data 21 of the repetition period received in the process of step S51 is the image 91 as shown in FIG. 11 described above, as shown in FIG. 14, the intervals 141-1 to 141- The intervals 201-1 to 201-3 having the same length as the most frequent value (median value or average value) of 4 are extended to both ends of the image 91. Further, as shown in FIG. 14, intervals 202-1 to 202-4 having the same length as the most frequent value (median value or average value) calculated from the intervals 142-1 to 142-3 are represented by an image 91. Is extended (added) to both ends. Then, as a result of the addition of the intervals 201-1 to 201-3 (FIG. 14), the added new auxiliary line is indicated by the auxiliary line 211 of FIG. 15, and the intervals 202-1 to 202-4 (FIG. 14). As a result of the addition, the new auxiliary line added is indicated by auxiliary line 212 and auxiliary line 213 in FIG. That is, it is a new edge to which these auxiliary lines 211 to 213 are added. In other words, a new edge (auxiliary line) is added as an extracted edge at a location where the edge of the image is not originally extracted. Thereby, an auxiliary line having the same length as the cycle of the repetitive component is added. Since the same applies to the vertical edge, the description thereof is omitted.

ステップS53において、画像分割部183は、補助線と抽出エッジで画像を分割する。具体的には、画像分割部183は、繰り返し周期のデータ21に含まれる画像のエッジと、繰り返し周期延長部182により追加された補助線(延長された補助線)を用いて画像をブロック分割する。例えば、図8を用いて説明したエッジ92−1乃至92−12(繰り返し周期のデータ21に含まれる画像のエッジ)と、図15の補助線(追加されたエッジ)211乃至213(繰り返し周期延長部182により追加された補助線)を用いて画像をブロック分割する。また、画像分割部183は、ブロック分割したブロック毎に代表色を決定し、塗りつぶす。この代表色は、最頻色、中央色、または平均色とされる。図16は、画像91が画像分割部183により分割された様子を示している。画像91は、水平方向のエッジ92−1乃至92−12と、補助線211乃至213の他、垂直方向のエッジ241−1乃至241−5(図2のステップS11の処理により抽出された垂直方向のエッジ)と、補助線242−1乃至242−9(ステップS52の処理で追加された垂直方向の補助線)によりブロック分割されている。このように、画像分割部183は、図16に示されるように、補助線211乃至213,242−1乃至242−9、並びに抽出エッジ92−1乃至92−12,241−1乃至241−5で画像91を分割する。   In step S53, the image dividing unit 183 divides the image with the auxiliary line and the extraction edge. Specifically, the image dividing unit 183 divides the image into blocks using the edge of the image included in the repetition period data 21 and the auxiliary line (extended auxiliary line) added by the repetition period extending unit 182. . For example, the edges 92-1 to 92-12 (the edge of the image included in the data 21 of the repetition period) described with reference to FIG. 8 and the auxiliary lines (added edges) 211 to 213 (extension of the repetition period) in FIG. The auxiliary line added by the unit 182 is used to divide the image into blocks. Further, the image dividing unit 183 determines a representative color for each block obtained by dividing the block, and paints it. The representative color is the most frequent color, the center color, or the average color. FIG. 16 shows a state where the image 91 is divided by the image dividing unit 183. The image 91 includes horizontal edges 92-1 to 92-12 and auxiliary lines 211 to 213, as well as vertical edges 241-1 to 241-5 (the vertical direction extracted by the processing in step S 11 in FIG. 2). ) And auxiliary lines 242-1 to 242-9 (vertical auxiliary lines added in the process of step S52). As described above, the image dividing unit 183 includes the auxiliary lines 211 to 213, 242-1 to 242-2, and the extraction edges 92-1 to 92-12, 241-1 to 241-5 as illustrated in FIG. The image 91 is divided by.

ステップS54において、類似色統合部184は、類似色の隣接ブロックを統合する。具体的には、ステップS53の処理によりブロック分割されたそれぞれのブロックのうち、隣接するブロックの色が類似する場合にはそのブロックを統合し(とりまとめ)、代表色に置き換える。また、類似色統合部184は、ブロック分割されたそれぞれの画像のブロックを全走査し、隣接するブロック毎に色の比較を行い、隣接するブロックの色が類似している場合には2つのブロックを統合し(1つのブロックにまとめ)、代表色に置き換える。代表色とは、例えば最頻色、中央色、または平均色のうちのいずれかである。すなわち、代表色とは、統計的代表色である。   In step S54, the similar color integration unit 184 integrates adjacent blocks of similar colors. Specifically, among the blocks divided by the process of step S53, if the colors of adjacent blocks are similar, the blocks are integrated (combined) and replaced with a representative color. In addition, the similar color integration unit 184 scans the blocks of each image divided into blocks, performs color comparison for each adjacent block, and if the colors of the adjacent blocks are similar, the two blocks Are integrated (combined into one block) and replaced with a representative color. The representative color is, for example, one of the most frequent color, the center color, or the average color. That is, the representative color is a statistical representative color.

ステップS55において、出力部185は、ブロック画像データ22を出力する。具体的には、出力部185は、最初に画像ブロックを上部から水平方向に走査し、ブロック毎に「ブロックサイズ(縦、横)、色(R,G,B)」を出力する。次に、出力部185は、隣接するブロックの「開始位置、ブロックサイズ(縦、横)、色(R,G,B)」を出力し、水平方向が終了した後、下部に向かって出力する。   In step S55, the output unit 185 outputs the block image data 22. Specifically, the output unit 185 first scans the image block in the horizontal direction from above, and outputs “block size (vertical, horizontal), color (R, G, B)” for each block. Next, the output unit 185 outputs the “start position, block size (vertical, horizontal), color (R, G, B)” of adjacent blocks, and outputs them toward the bottom after the horizontal direction is finished. .

図13の処理により、画像の特徴が考慮されてブロック分割することができる。特に、繰り返し成分を含む画像に対して図13の処理が施されることで、画像の特徴をより考慮したブロック分割を行うことができる。また、任意のサイズのブロックからなる画像を出力することができる。   With the processing in FIG. 13, it is possible to perform block division in consideration of image characteristics. In particular, by performing the processing of FIG. 13 on an image including a repetitive component, block division can be performed in consideration of image characteristics. In addition, it is possible to output an image composed of blocks of an arbitrary size.

具体的には、単一サイズに画像を分割した場合には、画像の特徴は考慮されないが、任意のサイズにブロック分割した場合、画像の特徴(画像の繰り返し周期の特徴)を考慮したブロック分割を行うことができる。また、画像を特徴に分けてブロック化することで、画像データの容量を小さくして保存することができる。   Specifically, when an image is divided into a single size, image features are not considered, but when a block is divided into arbitrary sizes, block division considering image features (image repetition period features) is considered. It can be performed. Further, by dividing the image into features and making them into blocks, the image data capacity can be reduced and stored.

なお、図12のブロック化装置12に入力される画像データは、図3の繰り返し周期抽出装置11からの出力データを含まなくてもよい。例えば、図12のブロック化装置12に、モザイク状の低解像度化された画像のデータが入力された場合であっても、図12のブロック化装置12によれば、画像を、画像の特徴を考慮したブロック(ブロック画像)に分割することができる。なお、このモザイク状の低解像度化された画像のデータの詳細については、図57乃至図72を参照して後述する。   Note that the image data input to the blocking device 12 in FIG. 12 may not include the output data from the repetition period extracting device 11 in FIG. For example, even when mosaic-type low-resolution image data is input to the blocking device 12 of FIG. 12, the blocking device 12 of FIG. It is possible to divide into considered blocks (block images). Note that details of the data of the mosaic-like reduced-resolution image will be described later with reference to FIGS.

以上のように、図13乃至図16で説明したブロック化装置12によれば、画像分割部183が、水平方向または垂直方向のうちの同一方向(例えば、水平方向)の複数のエッジが所定の間隔で繰り返し出現する画像である入力画像を、エッジの出現の繰り返し方向に、エッジの出現の繰り返し周期で分割し、入力画像が分割された小領域である複数の第1のブロックを生成し、各第1のブロックの色に、第1のブロック内の統計的な代表色を設定し、類似色統合部184が、入力画像が分割されて生成された、内部領域の色が統一された複数の第1のブロックの内、互いに隣接し、互いの色の差が予め定められた所定の範囲内となる複数のブロックの各領域を結合して1つの新たな第2のブロックとするとともに、結合して得られた第2のブロック画像の色に、第2のブロックに含まれる結合した第1のブロックの色の統計的な代表色を設定することにより、複数の第1のブロックを統合して第2のブロックを生成するようにしたので、画像の繰り返し成分に基づいて画像をブロック分割することができる。また、画像を任意の大きさのブロックで分割することができる。   As described above, according to the blocking device 12 described with reference to FIGS. 13 to 16, the image dividing unit 183 has a plurality of edges in the same direction (for example, the horizontal direction) in the horizontal direction or the vertical direction. Dividing the input image, which is an image that repeatedly appears at intervals, in the repetition direction of the appearance of the edge at a repetition period of the appearance of the edge, and generating a plurality of first blocks that are small regions into which the input image is divided; A statistical representative color in the first block is set as the color of each first block, and the similar color integration unit 184 generates a plurality of internal region colors that are generated by dividing the input image. Among the first blocks, the areas of a plurality of blocks that are adjacent to each other and have a color difference within a predetermined range are combined to form a new second block, Second obtained by combining By setting a statistical representative color of the color of the combined first block included in the second block to the color of the lock image, the second block is generated by integrating the plurality of first blocks. Thus, the image can be divided into blocks based on the repetitive components of the image. In addition, an image can be divided into blocks having an arbitrary size.

次に、図1の連続領域抽出装置13の構成と処理の流れについて説明する。   Next, the configuration and processing flow of the continuous area extraction apparatus 13 in FIG. 1 will be described.

図17は、図1の連続領域抽出装置13の機能的構成例を示すブロック図である。   FIG. 17 is a block diagram illustrating an example of a functional configuration of the continuous area extracting apparatus 13 of FIG.

連続領域抽出装置13には、画像入力部301、領域生成部302、類似領域置き換え部303、連続領域抽出部304、連続領域統合部305、および出力部306が設けられている。   The continuous area extraction apparatus 13 includes an image input unit 301, an area generation unit 302, a similar area replacement unit 303, a continuous area extraction unit 304, a continuous region integration unit 305, and an output unit 306.

画像入力部301は、供給されてきた画像データを取得し、後段の領域生成部302に供給する。図1の例の場合、ブロック化装置12から出力されたブロック画像データ22が連続領域抽出装置13に入力されるので、画像入力部301は、ブロック画像データ22を読み込み、ブロック画像の情報(すなわち、開始位置、ブロックサイズ(縦、横)、および色(R,G,B)の情報)を展開する。そして、画像入力部301は、展開したブロック画像の情報(開始位置、ブロックサイズ(縦、横)、および色(R,G,B))を、領域生成部302に供給する。   The image input unit 301 acquires the supplied image data and supplies it to the subsequent area generation unit 302. In the case of the example in FIG. 1, the block image data 22 output from the blocking device 12 is input to the continuous region extraction device 13, so that the image input unit 301 reads the block image data 22 and performs block image information (that is, , Start position, block size (vertical, horizontal), and color (R, G, B) information). Then, the image input unit 301 supplies the expanded block image information (start position, block size (vertical, horizontal), and color (R, G, B)) to the region generation unit 302.

領域生成部302は、画像ブロックを走査し、水平方向と垂直方向に画像を複数の領域に分割する(すなわち、画像中に複数の領域を生成する)。具体的には、領域生成部302は、最初に、水平方向と垂直方向のブロック画像の境界を検出し、その境界で画像を複数の領域に分割する。例えば、領域生成部302は、ブロック画像を右端または左端から水平方向に走査することで、各ブロックの垂直方向の開始位置(ブロック画像の境界)を検出し、検出したブロック開始位置のx座標の値をブロックの分割位置として、画像を垂直方向に分割する(図20を用いて後述する)。また、領域生成部302は、ブロック画像を上部または下部から垂直方向に走査することで、各ブロックの水平方向の開始位置を検出し、検出したブロック開始位置のy座標の値をブロックの分割位置として、画像を水平方向に分割する。なお、領域生成部302は、画像を複数の領域に分割する場合、分割位置でブロックが切れていないときには、左右または上下に新しい分割位置でブロックを分割する。このようにして、領域生成部302は、領域を生成する。領域生成部302は、生成した領域の情報を類似領域置き換え部303に供給する。   The area generation unit 302 scans the image block and divides the image into a plurality of areas in the horizontal direction and the vertical direction (that is, generates a plurality of areas in the image). Specifically, the region generation unit 302 first detects the boundary between the horizontal and vertical block images, and divides the image into a plurality of regions at the boundary. For example, the area generation unit 302 scans the block image in the horizontal direction from the right end or the left end, thereby detecting the vertical start position (boundary of the block image) of each block, and the x coordinate of the detected block start position. The image is divided in the vertical direction using the value as a block division position (to be described later with reference to FIG. 20). In addition, the region generation unit 302 detects the start position in the horizontal direction of each block by scanning the block image in the vertical direction from the upper part or the lower part, and determines the y coordinate value of the detected block start position as the block division position. The image is divided in the horizontal direction. Note that when the image is divided into a plurality of regions, the region generation unit 302 divides the block at new division positions left and right or up and down when the block is not cut at the division position. In this way, the region generation unit 302 generates a region. The region generation unit 302 supplies the generated region information to the similar region replacement unit 303.

類似領域置き換え部303は、領域生成部302から供給された、全領域の色分布を比較し、色分布が類似している領域を置き換える。色分布の比較は、異なる要素数の物を比較する際に最小限の計算で比較するアルゴリズムであるDPマッチング(dynamic programing matching)等を用いて行うことができる。類似領域置き換え部303は、領域の色の情報を、その領域の長さの情報とともに配列に格納し、配列の類似度を比較する。そして、類似領域置き換え部303は、色分布を比較した結果、色分布のパターンが似ている(例えば、2つの領域の色分布の差分情報が予め定められた所定の閾値より小さい(異なる点が少ない))と判定された領域は、代表の色分布(領域)で置き換える(図25を用いて後述する)。その後、類似領域置き換え部303は、全ブロック(画像)を、水平方向と垂直方向に走査し、類似色の隣接する小ブロック(ブロック画像の境界と、領域生成時に領域とされた境界により分割されたブロックを、以下、小ブロックと称する)を統合する。類似領域置き換え部303は、処理の結果得られた画像の情報(すなわち、類似する領域を置き換え、類似色の隣接する小ブロックを統合した画像の情報)を連続領域抽出部304に供給する。   The similar region replacement unit 303 compares the color distributions of all regions supplied from the region generation unit 302 and replaces regions having similar color distributions. The comparison of color distributions can be performed using DP matching (dynamic programing matching), which is an algorithm that compares with a minimum number of calculations when comparing objects having different numbers of elements. The similar area replacement unit 303 stores the color information of the area together with the length information of the area in the array, and compares the similarity of the arrays. Then, as a result of comparing the color distributions, the similar region replacement unit 303 has a similar color distribution pattern (for example, the difference information of the color distributions of the two regions is smaller than a predetermined threshold value (the difference is that The area determined to be less) is replaced with a representative color distribution (area) (to be described later with reference to FIG. 25). After that, the similar region replacement unit 303 scans all blocks (images) in the horizontal direction and the vertical direction, and is divided by adjacent small blocks of similar colors (the boundary of the block image and the boundary that was made the region when the region was generated). Are hereinafter referred to as small blocks). The similar region replacement unit 303 supplies information of the image obtained as a result of the processing (that is, information of an image obtained by replacing similar regions and integrating adjacent small blocks of similar colors) to the continuous region extraction unit 304.

連続領域抽出部304は、類似する領域が置き換えられ、類似色の隣接する小ブロックが統合された画像の情報に基づいて、同じ色が連続している領域を連続領域として抽出する。具体的には、連続領域抽出部304は、類似する領域が置き換えられ、類似色の隣接する小ブロックが統合された画像(複数の小ブロックで構成される画像)の中から、垂直方向/水平方向にある一定以上の長さ(または幅)の領域があった場合に、その領域を連続領域として抽出する。   The continuous region extraction unit 304 extracts a region where the same color is continuous as a continuous region based on information of an image in which similar regions are replaced and adjacent small blocks of similar colors are integrated. Specifically, the continuous area extraction unit 304 replaces similar areas and integrates adjacent small blocks of similar colors (images composed of a plurality of small blocks) in the vertical direction / horizontal direction. When there is an area having a certain length (or width) in the direction, the area is extracted as a continuous area.

連続領域統合部305は、連続領域抽出部304により抽出された連続領域を統合し、その結果を出力部306に供給する。   The continuous region integration unit 305 integrates the continuous regions extracted by the continuous region extraction unit 304 and supplies the result to the output unit 306.

出力部306は、連続領域が統合されたブロック画像のデータ(連続領域のデータ23を含むブロック画像のデータ)を出力する。また、出力部306は、連続領域抽出部304により抽出された連続領域の情報を、連続領域のデータ23として出力する。すなわち、連続領域抽出部13(の出力部306)からは、連続領域のデータ23が少なくとも出力される。   The output unit 306 outputs block image data (block image data including the continuous region data 23) in which the continuous regions are integrated. Further, the output unit 306 outputs the information on the continuous area extracted by the continuous area extraction unit 304 as the data 23 of the continuous area. That is, at least the continuous region data 23 is output from the continuous region extraction unit 13 (the output unit 306 thereof).

次に、図18のフローチャートを参照して、図2のステップS13の連続領域抽出処理の詳細を説明する。なお、この処理は、図17の連続領域抽出装置13が実行する処理である。   Next, the details of the continuous area extraction processing in step S13 in FIG. 2 will be described with reference to the flowchart in FIG. This process is a process executed by the continuous area extracting device 13 in FIG.

ステップS61において、画像入力部301は、画像の入力を受け付ける。具体的には、画像入力部301は、ブロック化装置12から供給されたブロック画像データ22の入力を受け付け、ブロック画像の情報(すなわち、開始位置、ブロックサイズ(縦、横)、および色(R,G,B)の情報)を展開する。そして、画像入力部301は、展開したブロック画像の情報(開始位置、ブロックサイズ(縦、横)、および色(R,G,B))を、領域生成部302に供給する。画像入力部301は、例えば、ブロック画像データ22として、図19に示されるような画像331のデータを受け付け、ブロック画像の情報を展開する。画像331は、上述したブロック化装置12における処理により複数のブロックに分割されている。   In step S61, the image input unit 301 receives an input of an image. Specifically, the image input unit 301 receives the input of the block image data 22 supplied from the blocking device 12 and receives block image information (that is, start position, block size (vertical, horizontal), and color (R). , G, B)). Then, the image input unit 301 supplies the expanded block image information (start position, block size (vertical, horizontal), and color (R, G, B)) to the region generation unit 302. For example, the image input unit 301 accepts data of an image 331 as shown in FIG. 19 as the block image data 22 and develops information of the block image. The image 331 is divided into a plurality of blocks by the processing in the blocking device 12 described above.

ステップS62において、領域生成部302は、水平方向走査により画像を垂直方向に分割する処理を実行することで、図19に示されるような複数のブロックに分割されている画像331を、垂直方向の複数の領域に分割することができる。この処理の詳細を図20のフローチャートを参照して説明する。   In step S62, the region generation unit 302 performs processing for dividing the image in the vertical direction by horizontal scanning, thereby converting the image 331 divided into a plurality of blocks as illustrated in FIG. 19 into the vertical direction. It can be divided into a plurality of regions. Details of this processing will be described with reference to the flowchart of FIG.

図20のステップS71において、領域生成部302は、図19の画像331を画像の右端または左端から水平方向に走査することで、図21に示されるような垂直方向のブロックの開始位置のx座標(ブロック画像の境界)341−1乃至341−10を検出する。   In step S71 of FIG. 20, the region generation unit 302 scans the image 331 of FIG. 19 in the horizontal direction from the right end or the left end of the image, so that the x coordinate of the start position of the vertical block as shown in FIG. (Block image boundaries) 341-1 to 341-10 are detected.

ステップS72において、領域生成部302は、ステップS71の処理で検出したブロック開始位置のx座標(分割位置341−1乃至341−10)を分割位置とし、垂直方向に画像を分割する。図21の例の場合、領域生成部302は、位置341−1乃至341−10のx座標の値を分割位置とし、この10個の分割位置で、画像を垂直方向に分割する。より具体的には、領域生成部302は、ブロック開始位置のx座標の値(位置341−1乃至341−10)で画像を垂直方向に分割する。これにより、図22に示されるように、垂直方向に画像が分割されて、領域351−1乃至351−11が生成される。領域351−1は、画像331の左端から分割位置341−1までの領域を示し、領域351−2は、分割位置341−1から341−2までの領域を示し、以下同様に、領域351−11は、分割位置341−10から画像331の右端までの領域を示す。なお、領域生成部302は、分割位置でブロックが切れていないときには、上下に新しい分割位置で画像を分割する。ここで、図22の領域351−1乃至351−11の境界(位置341−1乃至341−10)と、図19のブロック画像のブロックで区切られるさらに小さいブロックが、小ブロックである。   In step S72, the region generation unit 302 divides the image in the vertical direction using the x coordinate (division positions 341-1 to 341-10) of the block start position detected in the process of step S71 as a division position. In the case of the example in FIG. 21, the region generation unit 302 uses the x-coordinate values of the positions 341-1 to 341-10 as the division positions, and divides the image in the vertical direction at these ten division positions. More specifically, the area generation unit 302 divides the image in the vertical direction by the x coordinate value (positions 341-1 to 341-10) of the block start position. As a result, as shown in FIG. 22, the image is divided in the vertical direction, and areas 351-1 to 351-11 are generated. An area 351-1 indicates an area from the left end of the image 331 to the division position 341-1, an area 351-2 indicates an area from the division positions 341-1 to 341-2, and similarly the area 351- Reference numeral 11 denotes an area from the division position 341-10 to the right end of the image 331. Note that the area generation unit 302 divides the image at a new division position vertically when the block is not cut at the division position. Here, a smaller block divided by the boundaries (positions 341-1 to 341-10) of the regions 351-1 to 351-11 in FIG. 22 and the block of the block image in FIG. 19 is a small block.

ステップS73において、領域生成部302は、分割した画像の情報を類似領域置き換え部303に供給し、処理は図18のステップS62に戻る。   In step S73, the region generation unit 302 supplies the divided image information to the similar region replacement unit 303, and the process returns to step S62 in FIG.

この処理により、水平方向に画像が任意の領域で分割される。すなわち、「水平方向走査により画像を垂直方向に分割する」とは、水平方向に画像331を走査し、画像331において分割されている個々のブロックの開始位置(境界)のx座標で画像を垂直方向に分割することを示す。   By this process, the image is divided into arbitrary regions in the horizontal direction. That is, “dividing the image in the vertical direction by horizontal scanning” means that the image 331 is scanned in the horizontal direction, and the image is vertically aligned at the x coordinate of the start position (boundary) of each block divided in the image 331. Indicates to divide in the direction.

図18に戻って、ステップS63において、領域生成部302は、垂直方向走査により画像を水平方向に分割する処理を実行することで、図19に示されるような複数のブロックに分割されている画像331を、水平方向の複数の領域に分割することができる。なお、この処理の詳細は、上述した図20の処理と同様である。ただし、この場合、図20のステップS71の処理では、画像が垂直方向に走査され、ステップS72の処理では、ブロック開始位置のy座標が分割位置とされ、水平方向に画像が分割される。すなわち、この場合、図20において水平方向が垂直方向に読み替えられ、x座標がy座標に読み替えられる。この処理により、垂直方向に画像が分割され、上述した図21および図22で説明したような領域351−1乃至351−11が水平方向のブロックについても生成される。すなわち、「垂直方向走査により画像を水平方向に分割する」とは、垂直方向に画像331を走査し、画像331において分割されている個々のブロックの開始位置(境界)のy座標で画像を水平方向に分割することを示す。   Returning to FIG. 18, in step S <b> 63, the region generation unit 302 executes processing for dividing the image in the horizontal direction by vertical scanning, thereby dividing the image into a plurality of blocks as shown in FIG. 19. 331 can be divided into a plurality of horizontal regions. The details of this process are the same as the process of FIG. 20 described above. However, in this case, in the process of step S71 in FIG. 20, the image is scanned in the vertical direction, and in the process of step S72, the y coordinate of the block start position is set as the division position, and the image is divided in the horizontal direction. That is, in this case, the horizontal direction in FIG. 20 is read as the vertical direction, and the x coordinate is read as the y coordinate. By this processing, the image is divided in the vertical direction, and the areas 351-1 to 351-11 described with reference to FIGS. 21 and 22 are also generated for the horizontal blocks. That is, “dividing the image in the horizontal direction by vertical scanning” means that the image 331 is scanned in the vertical direction, and the image is horizontal at the y-coordinate of the start position (boundary) of each block divided in the image 331. Indicates to divide in the direction.

ステップS64において、類似領域置き換え部303は、水平方向走査により垂直方向の色分布が類似する領域を置き換える処理である、水平方向走査により垂直方向の類似領域置き換え処理を実行する。この処理の詳細を図23のフローチャートを参照して説明する。   In step S64, the similar area replacement unit 303 executes a similar area replacement process in the vertical direction by horizontal scanning, which is a process of replacing areas having similar color distributions in the vertical direction by horizontal scanning. Details of this processing will be described with reference to the flowchart of FIG.

図23のステップS81において、類似領域置き換え部303は、図18のステップS62の処理で複数の領域に分割された図22の画像において、水平方向走査により垂直方向の領域の色分布を比較し、色分布が類似する領域を検出する。例えば、類似領域置き換え部303は、DPマッチングにより、垂直方向の各領域において領域の配列の類似度が似ている領域を類似領域として検出する。類似領域置き換え部303は、例えば、図24に示されるように、水平方向の色分布が類似する領域を、領域351−1,351−3,351−8、および351−11として検出する。   In step S81 of FIG. 23, the similar region replacement unit 303 compares the color distribution of the vertical region by horizontal scanning in the image of FIG. 22 divided into a plurality of regions in the process of step S62 of FIG. Regions with similar color distribution are detected. For example, the similar region replacement unit 303 detects, as a similar region, a region in which the similarity of the region arrangement is similar in each region in the vertical direction by DP matching. For example, as shown in FIG. 24, the similar region replacement unit 303 detects regions having similar color distributions in the horizontal direction as regions 351-1, 351-3, 351-8, and 351-11.

ステップS82において、類似領域置き換え部303は、色分布が類似する領域を代表の色分布で置き換える。具体的には、類似領域置き換え部303は、ステップS81の処理で検出した類似する領域のそれぞれにおいて、色分布の代表色を求め、代表色を最も含む領域の色分布を、他の類似する領域に置き換える。例えば、図24において、領域351−8が、代表の色分布であった場合、類似領域置き換え部303は、図25に示されるように、他の類似する領域351−1,351−3、および351−11を、領域351−8の色分布に置き換える。すなわち、類似する複数の領域を、代表となる領域で置き換える。これにより、領域351−1,351−3、および351−11の色分布が、領域351−8の色分布と同じとなる。   In step S82, the similar area replacement unit 303 replaces an area having a similar color distribution with a representative color distribution. Specifically, the similar area replacement unit 303 obtains a representative color of the color distribution in each of the similar areas detected in the process of step S81, and sets the color distribution of the area including the representative color to other similar areas. Replace with For example, in FIG. 24, when the region 351-8 has a representative color distribution, the similar region replacement unit 303 performs other similar regions 351-1, 351-3, and 351-11 is replaced with the color distribution of the region 351-8. That is, a plurality of similar regions are replaced with representative regions. As a result, the color distributions of the regions 351-1, 351-3, and 351-11 are the same as the color distribution of the region 351-8.

このステップS82の処理を、図26および図27を参照してより詳細に説明する。   The process of step S82 will be described in more detail with reference to FIGS.

図26は、領域361−1乃至361−3の例を示す図である。これらの領域361−1乃至361−3は垂直方向の領域を示している。また、これらの領域361−1乃至361−3は、ステップS81の処理で、それぞれ(DPマッチング等により)類似する領域として検出された領域である。図26,図27においては、領域361−1乃至361−3のそれぞれ全体の比率を20として定義する。具体的には、図26,図27における比率(単位)は、1(単位)の大きさが等しいものとし、その単位の数は、領域361−1乃至361−3のそれぞれに対する比率である。   FIG. 26 is a diagram illustrating an example of the regions 361-1 to 361-3. These regions 361-1 to 361-3 indicate vertical regions. These areas 361-1 to 361-3 are areas detected as similar areas (by DP matching or the like) in the process of step S81. In FIG. 26 and FIG. 27, the total ratio of each of the regions 361-1 to 361-3 is defined as 20. Specifically, the ratio (unit) in FIGS. 26 and 27 is assumed to be equal in size of 1 (unit), and the number of units is the ratio to each of the regions 361-1 to 361-3.

領域361−1は、上から比率5(単位)が黄色であり、8(単位)がオレンジであり、2(単位)が黄色であり、5(単位)がオレンジである。領域361−2は、上から5(単位)が黄色であり、9(単位)がオレンジであり、2(単位)が黄色であり、4(単位)がオレンジである。領域361−3は、上から3(単位)が黄色であり、9(単位)がオレンジであり、2(単位)が黄色であり、6(単位)がオレンジである。   In the region 361-1, from the top, the ratio 5 (unit) is yellow, 8 (unit) is orange, 2 (unit) is yellow, and 5 (unit) is orange. In the region 361-2, 5 (unit) from the top is yellow, 9 (unit) is orange, 2 (unit) is yellow, and 4 (unit) is orange. In the region 361-3, 3 (unit) from the top is yellow, 9 (unit) is orange, 2 (unit) is yellow, and 6 (unit) is orange.

このとき、領域361−1の黄色の比率は7(=5+2)(すなわち7/20)であり、オレンジの比率は13(=8+5)(すなわち13/20)である。領域361−2の黄色の比率は7(=5+2)(すなわち7/20)であり、オレンジの比率は13(=9+4)(すなわち13/20)である。領域361−3の黄色の比率は5(=3+2)(すなわち5/20)であり、オレンジの比率は15(=9+6)(すなわち15/20)である。   At this time, the yellow ratio of the region 361-1 is 7 (= 5 + 2) (that is, 7/20), and the orange ratio is 13 (= 8 + 5) (that is, 13/20). In the region 361-2, the yellow ratio is 7 (= 5 + 2) (ie, 7/20), and the orange ratio is 13 (= 9 + 4) (ie, 13/20). In the region 361-3, the yellow ratio is 5 (= 3 + 2) (ie, 5/20), and the orange ratio is 15 (= 9 + 6) (ie, 15/20).

類似領域置き換え部303は、ステップS82において、類似するグループを構成する単位の各色に対する比率を求め、比率が最も多い色を代表色とする。図26の例の場合、類似領域置き換え部303は、類似する領域361−1乃至361−3のそれぞれの代表色をオレンジとする。   In step S82, the similar region replacement unit 303 obtains the ratio of the units constituting the similar group to each color, and sets the color having the highest ratio as the representative color. In the case of the example of FIG. 26, the similar region replacement unit 303 sets the representative color of each of the similar regions 361-1 to 361-3 to orange.

そして、類似領域置き換え部303は、代表色が同じ色(図26の例の場合、オレンジ色)である領域361−1乃至361−3のうち、代表の色を最も含むグループの色分布を検出する。図26の例の場合、オレンジ色を最も含む領域は、領域361−3である(オレンジの比率が他の色の比率より多く、15である)ので、領域361−3を代表の色分布とし、これを、他の類似する領域に置き換える。すなわち、領域361−3の色分布が、領域361−1および361−2に置き換えられ、図27に示されるように、領域361−1'乃至361−3'とされる。   Then, the similar area replacement unit 303 detects the color distribution of the group including the representative color most in the areas 361-1 to 361-3 having the same representative color (in the example of FIG. 26, orange). To do. In the case of the example in FIG. 26, the region most including orange is the region 361-3 (the ratio of orange is larger than the ratio of other colors and is 15), so the region 361-3 is set as a representative color distribution. This is replaced with other similar areas. That is, the color distribution of the area 361-3 is replaced with the areas 361-1 and 361-2, and as shown in FIG. 27, areas 361-1 ′ to 361-3 ′ are obtained.

図23に戻って、ステップS83において、類似領域置き換え部303は、全ブロック(画像、すなわち、複数の小ブロックからなる画像)を水平方向に走査し、ステップS84において、類似色の隣接ブロック(隣接する小ブロック)を統合する。例えば、類似領域置き換え部303は、ステップS82の処理で色分布が類似する領域が代表の色分布で置き換えられた結果、隣接する小ブロックが類似色となった小ブロックを統合する。   Referring back to FIG. 23, in step S83, the similar region replacement unit 303 scans all blocks (image, that is, an image composed of a plurality of small blocks) in the horizontal direction, and in step S84, adjacent blocks (adjacent to similar colors) Integrate small blocks). For example, the similar region replacement unit 303 integrates small blocks in which adjacent small blocks have similar colors as a result of replacement of regions having similar color distributions by the representative color distribution in the process of step S82.

ステップS85において、類似領域置き換え部303は、処理の結果、得られた画像の情報(すなわち、類似する領域が置き換えられ、隣接する類似色の小ブロックが統合された画像)を連続領域抽出部304に出力し、処理は、図18のステップS64に戻る。   In step S <b> 85, the similar region replacement unit 303 converts the information of the image obtained as a result of the processing (that is, an image in which similar regions are replaced and adjacent small blocks of similar colors are integrated) into a continuous region extraction unit 304. The process returns to step S64 in FIG.

図23の処理により、水平方向走査により垂直方向の類似する領域を代表の色分布で置き換えるとともに、類似する色の隣接する小ブロックを統合することができる。なお、「水平方向走査により垂直方向の色分布が類似する領域を置き換える」とは、水平方向に画像331を走査し、画像331において分割されている領域が垂直方向に類似する場合に置き換えることを示す。   With the processing in FIG. 23, similar regions in the vertical direction can be replaced with the representative color distribution by horizontal scanning, and adjacent small blocks of similar colors can be integrated. “Replace a region with a similar color distribution in the vertical direction by horizontal scanning” means to replace the region when the image 331 is scanned in the horizontal direction and the regions divided in the image 331 are similar in the vertical direction. Show.

図18のステップS65において、類似領域置き換え部303は、垂直方向走査により水平方向の色分布が類似する領域を置き換える処理である、垂直方向走査により水平方向の類似領域置き換え処理を実行する。この処理の詳細は、上述した図23の処理と同様である。ただし、この場合、図23のステップS81の処理では、垂直方向の領域の色分布が比較され、ステップS83では、全ブロック(複数の小ブロックからなる画像)の走査が垂直方向に走査される。すなわち、この場合、図23において水平方向が垂直方向に読み替えられる。この処理により、垂直方向における、類似する領域が代表の色分布で置き換えられるとともに、類似する色の隣接する小ブロックが統合される。すなわち、上述した図26と図27で説明したような色分布の置き換えが、垂直方向についても行われる。このように、垂直方向の類似する領域が置き換えられ、隣接する類似色の小ブロックを統合することができる。なお、「垂直方向走査により水平方向の色分布が類似する領域を置き換える」とは、垂直方向に画像331を走査し、画像331において分割されている領域が水平方向に類似する場合に置き換えることを示す。この処理の結果得られた情報(すなわち、類似する領域が置き換えられ、隣接する類似色の小ブロックが統合された画像)は、後段の連続領域抽出部304に供給される。   In step S65 of FIG. 18, the similar region replacement unit 303 executes a similar region replacement process in the horizontal direction by the vertical scanning, which is a processing for replacing a region having a similar color distribution in the horizontal direction by the vertical scanning. Details of this processing are the same as the processing of FIG. 23 described above. However, in this case, in the process of step S81 in FIG. 23, the color distributions of the regions in the vertical direction are compared, and in step S83, all blocks (images composed of a plurality of small blocks) are scanned in the vertical direction. That is, in this case, the horizontal direction in FIG. 23 is read as the vertical direction. By this processing, similar areas in the vertical direction are replaced with the representative color distribution, and adjacent small blocks of similar colors are integrated. That is, the color distribution replacement described with reference to FIGS. 26 and 27 is performed also in the vertical direction. In this way, similar areas in the vertical direction are replaced, and adjacent small blocks of similar colors can be integrated. Note that “replace a region with a similar color distribution in the horizontal direction by vertical scanning” means that the image 331 is scanned in the vertical direction and the region divided in the image 331 is replaced when the region is similar in the horizontal direction. Show. Information obtained as a result of this processing (that is, an image in which similar regions are replaced and adjacent small blocks of similar colors are integrated) is supplied to the subsequent continuous region extraction unit 304.

ステップS66において、連続領域抽出部304は、ステップS64,ステップS65の処理により供給された情報(類似する領域が置き換えられ、隣接する類似色の小ブロックが統合された画像の情報)に基づいて、同じ色が連続している領域(1つのブロックの長さがある一定以上の長さである領域、例えば、図26,図27で説明した領域の色が連続する場合の領域)を、連続領域として抽出する。具体的には、連続領域抽出部304は、類似する領域が代表の色分布で置き換えられ、隣接する類似色の小ブロックが統合された画像の中から、水平方向、垂直方向にある一定以上の長さ(または幅)の領域があった場合に、その領域を連続領域として抽出する。   In step S66, the continuous area extraction unit 304, based on the information supplied by the processes in steps S64 and S65 (information of an image in which similar areas are replaced and adjacent small blocks of similar colors are integrated), An area in which the same color is continuous (an area in which the length of one block is a certain length or more, for example, an area when the colors of the areas described in FIGS. 26 and 27 are continuous) is a continuous area. Extract as Specifically, the continuous area extraction unit 304 replaces a similar area with a representative color distribution, and from an image in which adjacent small blocks of similar colors are integrated, exceeds a certain level in the horizontal and vertical directions. If there is a region of length (or width), that region is extracted as a continuous region.

連続領域抽出の具体的な例をここで説明する。   A specific example of continuous area extraction will now be described.

例えば、上述した図1の画像処理システム1(繰り返し周期抽出部11)に図28に示されるような画像370のデータが入力された場合、繰り返し周期抽出部11による処理、ブロック化装置12による処理、および連続領域抽出装置13による図23のステップS63までの処理によって、その画像370は、図29に示されるような画像370となる。すなわち、図29の画像370は、繰り返し周期に基づいてブロック化された画像の色分布に基づいて、さらにブロック画像が複数の領域に分割されたものである。そして、図23の処理で、水平方向の走査により類似する領域が代表の色分布で置き換えられ、類似色の隣接する小ブロックが統合された結果(ステップS64の結果)が、図30の領域371−1乃至371−4で示され、垂直方向の走査により類似する領域が代表の色分布で置き換えられ、類似色の隣接する小ブロックが統合された結果(ステップS65の結果)が、図30の領域372−1乃至372−3で示される。   For example, when data of an image 370 as shown in FIG. 28 is input to the above-described image processing system 1 (repetition period extraction unit 11) of FIG. 1, processing by the repetition period extraction unit 11 and processing by the blocking device 12 are performed. , And the processing up to step S63 in FIG. 23 by the continuous area extracting device 13 makes the image 370 an image 370 as shown in FIG. That is, the image 370 in FIG. 29 is obtained by further dividing the block image into a plurality of regions based on the color distribution of the image that is blocked based on the repetition period. Then, in the processing of FIG. 23, a similar area is replaced with a representative color distribution by horizontal scanning, and the result of integrating adjacent small blocks of similar colors (result of step S64) is the area 371 of FIG. -1 to 371-4, the similar region is replaced by the representative color distribution by vertical scanning, and the adjacent small blocks of similar colors are integrated (result of step S65) is shown in FIG. Regions 372-1 through 372-3 are shown.

そして、連続領域抽出部304は、図30の垂直方向の連続領域371−1乃至371−4に対し、垂直方向にある一定以上の長さの領域を、図31に示されるように、連続領域373−1乃至373−4として抽出する。また、連続領域抽出部304は、図30の水平方向の連続領域372−1乃至372−3に対し、水平方向にある一定以上の長さの領域を、図32に示されるように、連続領域374−1乃至374−13として抽出する。これにより、垂直方向の連続領域(図31の連続領域373−1乃至373−4)、および水平方向の連続領域(図32の連続領域374−1乃至374−13)が抽出される。   Then, the continuous area extraction unit 304 adds a certain length or longer area in the vertical direction to the vertical continuous areas 371-1 to 371-4 in FIG. 30, as shown in FIG. Extracted as 373-1 to 373-4. In addition, the continuous area extraction unit 304, as shown in FIG. 32, converts an area having a certain length or more in the horizontal direction to the horizontal continuous areas 372-1 to 372-3 in FIG. Extracted as 374-1 to 374-13. Thereby, the continuous area in the vertical direction (continuous areas 373-1 to 373-4 in FIG. 31) and the continuous area in the horizontal direction (continuous areas 374-1 to 374-13 in FIG. 32) are extracted.

図18に戻って、ステップS67において、連続領域統合部305は、ステップS66の処理で抽出された連続領域を統合する。具体的には、連続領域として抽出された複数個の領域を、1つの連続領域の情報とする。   Returning to FIG. 18, in step S67, the continuous area integration unit 305 integrates the continuous areas extracted in the process of step S66. Specifically, a plurality of areas extracted as continuous areas are used as information about one continuous area.

ステップS68において、出力部306は、ステップS67の処理により統合された連続領域の情報(連続領域データ23を少なくとも含むデータ)を出力する。出力部306により出力される連続領域の情報に基づく画像は、図32に示されるようなブロック画像(例えば、ブロック化装置12によりブロック化された画像がさらに、画像の特徴を生かして大きなブロックにまとめられた画像)となる。なお、ステップS67の処理をスキップして、ステップS66の処理で抽出された連続領域のデータ(連続領域データ22)とともに、ステップS62乃至ステップS65の処理により算出された画像のデータを、出力部306が出力するようにしてもよい。   In step S68, the output unit 306 outputs the information on the continuous area integrated by the process of step S67 (data including at least the continuous area data 23). An image based on the continuous area information output by the output unit 306 is a block image as shown in FIG. 32 (for example, an image blocked by the blocking device 12 is further converted into a large block by making use of image characteristics. A combined image). Note that the processing of step S67 is skipped, and the image data calculated by the processing of steps S62 to S65 is output together with the continuous region data extracted by the processing of step S66 (continuous region data 22). May be output.

図18の処理により、繰り返し成分を含む画像の中の水平方向と垂直方向の連続領域を抽出することができる。また、ブロック化画像から水平方向と垂直方向の連続領域を抽出することができる。   With the processing in FIG. 18, it is possible to extract continuous regions in the horizontal direction and the vertical direction in an image including repetitive components. In addition, continuous regions in the horizontal direction and the vertical direction can be extracted from the block image.

さらに、画像の特徴を考慮して、ブロック分割された画像(例えば、複数の第1のブロックからなる画像)から連続領域を抽出し、連続領域を統合した画像(ブロック画像)(例えば、複数の第2のブロックからなる画像)を生成することができる。また、連続領域の対象となるブロックについては、画像データの容量を小さくして保存することができる。   Further, in consideration of image characteristics, continuous regions are extracted from the block-divided image (for example, an image made up of a plurality of first blocks), and the continuous region is integrated (block image) (for example, a plurality of blocks). An image consisting of the second block) can be generated. In addition, the blocks that are the target of the continuous area can be stored with the image data capacity reduced.

図18乃至図32で説明した連続領域抽出装置13によれば、ブロック化装置12から出力されるブロック画像のデータに対し、領域生成部302が、複数の第1のブロックが統合されて生成された第2のブロックの水平方向または垂直方向の境界線により入力画像を分割して、色を置き換えるための領域を生成するようにし(例えば、図18のステップS62,ステップS63)、類似領域置き換え部303が、生成された複数の領域の内、各領域の予め定められた所定の統計的代表色(例えば、最頻値、中央値または平均値)の割合が最も大きい領域で、他の領域を置き換え(例えば、図18のステップS64,ステップS65)、連続領域抽出部304が、置き換えられた領域の内、予め定められた所定の大きさ以上の領域を抽出する(例えば、図18のステップS66)ようにしたので、繰り返し成分を含む画像の中の水平方向と垂直方向の連続領域を抽出することができる。また、ブロック画像の連続領域を抽出することができる。なお、連続領域抽出部304は、類似領域置き換え部303により置き換えられた領域の内でなくとも、単に、予め定められた所定の大きさ以上の領域を抽出するようにしてもよい。連続領域抽出装置13から出力される連続領域のデータ23とブロック画像データ22により、連続領域を考慮したブロック画像を生成することができる。   According to the continuous region extraction device 13 described with reference to FIGS. 18 to 32, the region generation unit 302 generates a plurality of first blocks by integrating the block image data output from the blocking device 12. The input image is divided by the horizontal or vertical boundary line of the second block to generate a color replacement region (for example, step S62 and step S63 in FIG. 18), and a similar region replacement unit 303 is an area where the ratio of a predetermined predetermined statistical representative color (for example, mode value, median value or average value) of each area is the largest among the plurality of generated areas. Replacement (for example, step S64 and step S65 in FIG. 18), the continuous area extraction unit 304 extracts an area having a predetermined size or more from among the replaced areas. For example, since the step S66) as shown in FIG. 18, it is possible to extract the continuous area in the horizontal direction and the vertical direction in the image comprising a repeating component. In addition, a continuous area of the block image can be extracted. Note that the continuous region extraction unit 304 may simply extract a region having a predetermined size or more, instead of the region replaced by the similar region replacement unit 303. Based on the continuous area data 23 and the block image data 22 output from the continuous area extraction device 13, a block image in consideration of the continuous area can be generated.

次に、図1のテクスチャ生成装置14と画像再現装置15の構成と処理の流れについて説明する。   Next, the configuration and processing flow of the texture generation device 14 and the image reproduction device 15 in FIG. 1 will be described.

図33は、テクスチャ処理システム380の構成例を示す図である。   FIG. 33 is a diagram illustrating a configuration example of the texture processing system 380.

このテクスチャ処理システム380には、テクスチャ生成装置14と画像再現装置15の他に、テクスチャデータ記憶部381が設けられている。   The texture processing system 380 includes a texture data storage unit 381 in addition to the texture generation device 14 and the image reproduction device 15.

テクスチャ生成装置14は、画像の繰り返し成分を抽出するとともに調整して、テクスチャデータ24を生成し、テクスチャデータ記憶部381に供給する。テクスチャデータ記憶部381は、テクスチャデータ24(または、テクスチャデータ24に基づくファイル)を記憶する。画像再現装置15は、テクスチャデータ記憶部381に記憶されたテクスチャデータ24(または、テクスチャデータ24に基づくファイル)に基づいて、ブロック画像を再現する。以下の例では、テクスチャデータ24に基づくファイルを扱う場合について説明する。   The texture generation device 14 extracts and adjusts the repetitive components of the image, generates texture data 24, and supplies the texture data storage unit 381. The texture data storage unit 381 stores the texture data 24 (or a file based on the texture data 24). The image reproduction device 15 reproduces a block image based on the texture data 24 (or a file based on the texture data 24) stored in the texture data storage unit 381. In the following example, a case where a file based on the texture data 24 is handled will be described.

次に、図33のテクスチャ生成装置14と画像再現装置15の構成について説明する。   Next, the configuration of the texture generation device 14 and the image reproduction device 15 in FIG. 33 will be described.

図34は、図33のテクスチャ生成装置14の機能的構成例を示す図である。   FIG. 34 is a diagram illustrating a functional configuration example of the texture generation device 14 of FIG.

テクスチャ生成装置14には、画像入力部401、繰り返し抽出部402、繰り返し調整部403、残り領域補間部404、ファイル生成部405、および出力部405が設けられている。   The texture generation device 14 includes an image input unit 401, a repetition extraction unit 402, a repetition adjustment unit 403, a remaining area interpolation unit 404, a file generation unit 405, and an output unit 405.

画像入力部401は、画像データを読み込み、画像のブロックの情報(ブロックの開始位置、縦と横のブロックサイズ、色(例えばR,G,B))を展開する。この画像のブロックの情報には、上述した図18の処理で出力された連続領域データ23が含まれている。すなわち、ブロック画像データ22の連続領域がまとめられた画像データである、連続領域データ23が、画像入力部401に入力される。   The image input unit 401 reads image data and develops information on the block of the image (block start position, vertical and horizontal block sizes, colors (for example, R, G, B)). The block information of the image includes the continuous area data 23 output by the above-described processing of FIG. That is, continuous area data 23, which is image data in which continuous areas of the block image data 22 are collected, is input to the image input unit 401.

繰り返し抽出部402は、画像ブロックを、水平方向と垂直方向にグループ化し、色分布の類似するグループを抽出する。繰り返し抽出部402は、抽出した類似するグループを、後段の繰り返し調整部403に供給する。   The iterative extraction unit 402 groups image blocks in the horizontal direction and the vertical direction, and extracts groups having similar color distributions. The repetition extraction unit 402 supplies the extracted similar groups to the subsequent repetition adjustment unit 403.

繰り返し調整部403は、抽出された類似するグループから代表の高さと、代表の出現間隔(ブロックが離れている間隔)を求める。そして、求めた代表の高さと出現間隔に基づいて、グループの位置と長さを調整し、再配置する。   The iterative adjustment unit 403 obtains a representative height and representative appearance intervals (intervals at which blocks are separated) from the extracted similar groups. Then, based on the obtained representative height and appearance interval, the position and length of the group are adjusted and rearranged.

繰り返し抽出部402は、繰り返し数の多い繰り返しを優先的に抽出し、次に、繰り返し調整部403による処理に移る。繰り返し抽出部402は、画像の繰り返しがなくなるまで処理を実行するが、繰り返し調整部403は、繰り返し数が最も多い繰り返しの場合、その代表の高さと出現間隔をもとにグループの位置と長さを調整するとともに再配置をし、その他の繰り返しの場合、代表の高さと出現間隔とを、すでに配置されているグループとの位置関係(上下)に基づいて再配置する。   The repetition extraction unit 402 preferentially extracts repetitions having a large number of repetitions, and then proceeds to processing by the repetition adjustment unit 403. The iterative extraction unit 402 performs processing until there are no more image repeats, but the iterative adjustment unit 403 determines the position and length of the group based on the representative height and the appearance interval in the case of the iteration with the largest number of iterations. In the case of other repetitions, the representative height and the appearance interval are rearranged based on the positional relationship (up and down) with the already arranged group.

残り領域補間部404は、繰り返し調整部403によりグループが配置されなかった領域、すなわり、残り領域にグループを配置する。具体的には、残り領域補間部404は、まずグループが配置されていない領域の位置関係(上下を囲んでいるグループ)を検出する。そして、残り領域補間部404は、上下を囲んでいるグループと、グループが配置されなかった領域の高さに基づいて、ブロック画像から最適なグループ(画像の繰り返し成分を含まない領域の画像の代表値)を抽出し、配置する。なお、詳細は後述するが、残り領域には、繰り返す残り領域と、繰り返さない残り領域があり、以下の例では、残り領域補間部404は、その2種類の残り領域の両方を補間する。   The remaining area interpolation unit 404 arranges the group in the area where the group is not arranged by the repeat adjustment unit 403, that is, in the remaining area. Specifically, the remaining area interpolation unit 404 first detects the positional relationship (groups surrounding the top and bottom) of areas where no groups are arranged. Then, the remaining area interpolation unit 404 represents an optimum group (a representative image of an area that does not include a repetitive component of the image) from the block image based on the group surrounding the top and bottom and the height of the area where the group is not arranged. Value) and extract. Although details will be described later, the remaining areas include a remaining area that is repeated and a remaining area that is not repeated. In the following example, the remaining area interpolation unit 404 interpolates both of the two types of remaining areas.

ファイル生成部405は、繰り返し調整部403により調整されたグループのデータと、残り領域補間部404により補間され、配置された残り領域により生成されたグループのデータからなるテクスチャデータに基づいて、(テクスチャデータの)ファイルを生成し、出力部406に供給する。   The file generation unit 405 (texture) is based on the texture data including the group data adjusted by the repetition adjustment unit 403 and the group data generated by the remaining region interpolation unit 404 generated by the remaining region. A data file is generated and supplied to the output unit 406.

出力部406は、ファイル生成部405から供給されたテクスチャデータのファイルをテクスチャデータ記憶部381に出力する。   The output unit 406 outputs the texture data file supplied from the file generation unit 405 to the texture data storage unit 381.

これに対して、テクスチャデータ記憶部381は、供給されたテクスチャデータのファイルを記憶する。これにより、テクスチャデータ記憶部381には、テクスチャデータがファイルとして記憶されることになる。   On the other hand, the texture data storage unit 381 stores the supplied texture data file. Thereby, the texture data storage unit 381 stores the texture data as a file.

なお、本実施の形態では、図34の画像入力部401に、連続領域抽出装置13から出力される連続領域データ23を含むデータを入力するようにしたが、連続領域データ23を含まないようにし、ブロック化装置12から出力されるブロック画像データ22のみを入力するようにしてもよい。   In the present embodiment, data including the continuous area data 23 output from the continuous area extraction device 13 is input to the image input unit 401 in FIG. 34, but the continuous area data 23 is not included. Only the block image data 22 output from the blocking device 12 may be input.

図35は、図33の画像再現装置15の機能的構成例を示す図である。   FIG. 35 is a diagram illustrating a functional configuration example of the image reproduction device 15 of FIG.

画像再現装置15には、入力部431、再現位置特定部432、テクスチャ展開部433、および画像出力部434が設けられている。   The image reproduction device 15 is provided with an input unit 431, a reproduction position specifying unit 432, a texture development unit 433, and an image output unit 434.

入力部431は、テクスチャデータのファイルを(例えば、図33のテクスチャデータ記憶部381から)読み込み、ファイルに書き込まれている情報を抽出する。また、入力部431は、抽出した情報を再現位置特定部432に供給する。再現位置特定部432は、抽出されたファイルに書き込まれている情報(グループの情報)が、繰り返しグループ(または繰り返す残り領域のグループ)の場合であって、まだグループがメモリに展開されて無いときは、繰り返し情報に基づいて再現位置を特定する。また、再現位置特定部432は、特定した再現位置のグループに対し、ブロック情報に基づいて、ブロックの再現位置を特定する。テクスチャ展開部433は、再現位置特定部432により特定されたそれぞれのグループの再現位置に基づいて、ブロックを展開することで、メモリ上にブロックのアドレスや色情報を展開する。また、抽出された情報(グループ)が繰り返しグループの場合であって、既に再現位置が特定されていたときは、テクスチャ展開部433は、メモリに展開されているグループ情報の開始位置のみを参照し、ブロックの情報を展開する。   The input unit 431 reads a texture data file (for example, from the texture data storage unit 381 in FIG. 33), and extracts information written in the file. Further, the input unit 431 supplies the extracted information to the reproduction position specifying unit 432. The reproduction position specifying unit 432 is a case where the information (group information) written in the extracted file is a repeated group (or a group of remaining areas to be repeated), and the group has not yet been expanded in the memory. Specifies the reproduction position based on the repetition information. Further, the reproduction position specifying unit 432 specifies the block reproduction position based on the block information for the specified group of reproduction positions. The texture development unit 433 develops the block address and color information on the memory by developing the block based on the reproduction position of each group specified by the reproduction position specification unit 432. When the extracted information (group) is a repeated group and the reproduction position has already been specified, the texture development unit 433 refers only to the start position of the group information developed in the memory. , Expand the block information.

グループのメモリへの展開は、グループの開始位置と高さをもとにグループの再現場所を特定し、その後、グループ内のブロックに関する情報を走査することで行われる。再現位置特定部432は、ブロックの開始位置と長さによりブロックの再現位置を特定し、テクスチャ展開部433は、特定された再現位置のアドレスと、ブロック情報に含まれる色情報をメモリ上に展開する。画像出力部434は、メモリに展開された情報に基づいて、表示する画像を生成し、このテクスチャに基づく画像を出力する。   The expansion of the group into the memory is performed by specifying the reproduction position of the group based on the start position and height of the group, and then scanning information regarding the blocks in the group. The reproduction position specifying unit 432 specifies the block reproduction position based on the start position and length of the block, and the texture development unit 433 develops the address of the specified reproduction position and the color information included in the block information on the memory. To do. The image output unit 434 generates an image to be displayed based on the information developed in the memory, and outputs an image based on the texture.

次に、図36のフローチャートを参照して、図2のステップS14のテクスチャ生成処理の詳細を説明する。なお、この処理は、図34のテクスチャ生成装置14が実行する処理である。   Next, details of the texture generation processing in step S14 in FIG. 2 will be described with reference to the flowchart in FIG. This process is a process executed by the texture generation device 14 of FIG.

ステップS91において、画像入力部401は、画像の入力を受け付ける。例えば、画像入力部401は、供給されてきた画像データを読み込み、画像のブロックの情報(ブロックの開始位置、縦と横のブロックサイズ、色(例えばR,G,B))を展開する。この画像のブロックの情報には、上述した図18の処理で出力された連続領域データ23が含まれている。すなわち、画像入力部401は、ブロック画像データ22の連続領域がまとめられた、連続領域データ23の入力を受け付け、画像のブロック情報を展開する。画像入力部401は、展開した画像のブロック情報を、繰り返し抽出部402に供給する。   In step S91, the image input unit 401 receives an input of an image. For example, the image input unit 401 reads the supplied image data and develops image block information (block start position, vertical and horizontal block sizes, and colors (eg, R, G, B)). The block information of the image includes the continuous area data 23 output by the above-described processing of FIG. That is, the image input unit 401 receives input of continuous area data 23 in which continuous areas of block image data 22 are collected, and develops block information of the image. The image input unit 401 supplies the extracted image block information to the iterative extraction unit 402.

ステップS92において、繰り返し抽出部402は、画像入力部401により展開された画像のブロック情報に基づいて、画像ブロックを、水平方向と垂直方向にグループ化し、繰り返しを抽出する。具体的には、繰り返し抽出部402は、画像のブロック情報から、繰り返し数が多い繰り返しを水平方向と垂直方向にグループ化し、優先的に抽出する。1回目のステップS92の処理では、1番繰り返し数が多い繰り返しをグループ化し、抽出する。例えば、繰り返し抽出部402は、展開された画像である図37に示されるような画像71において、繰り返し数が1番多い繰り返しである、領域74−1乃至74−13をグループ化し、抽出する。なお、以下において、領域74−1乃至74−13を個々に区別する必要がない場合、単に領域74と称する。   In step S92, the iterative extraction unit 402 groups the image blocks in the horizontal direction and the vertical direction based on the block information of the image developed by the image input unit 401, and extracts repetitions. Specifically, the repetition extracting unit 402 groups repetitions having a large number of repetitions in the horizontal direction and the vertical direction from the block information of the image and preferentially extracts them. In the first process of step S92, repetitions having the largest number of repetitions are grouped and extracted. For example, the iterative extraction unit 402 groups and extracts areas 74-1 to 74-13, which are repetitions having the largest number of repetitions, in the image 71 as shown in FIG. In the following, the regions 74-1 to 74-13 are simply referred to as regions 74 when it is not necessary to distinguish them individually.

ステップS93において、繰り返し抽出部402は、ステップS92の処理により繰り返しを抽出したか否かを判定する。繰り返しを抽出したと判定された場合、処理はステップS94に進む。   In step S93, the iterative extraction unit 402 determines whether or not repetitions are extracted by the process of step S92. If it is determined that the repetition has been extracted, the process proceeds to step S94.

ステップS94において、繰り返し調整部403は、抽出された画像の繰り返し間隔を算出する。例えば、繰り返し調整部403は、その代表の高さと出現間隔を算出する。1回目のステップS94の処理では、1回目のステップS92の処理で、1番繰り返し数が多い繰り返しが抽出されているので、繰り返し調整部403は、その抽出された繰り返しの代表の高さと出現間隔を算出する。代表の高さとは、例えば、図37の領域74−1乃至74−13のそれぞれの縦方向(垂直方向)の高さの平均値、中央値または最頻値(すなわち、統計的な代表値)であり、代表の出現間隔は、例えば、図37の領域74−1乃至74−13のそれぞれが出現する間隔の平均値、中央値または最頻値(すなわち、統計的な代表値)である。   In step S94, the repetition adjustment unit 403 calculates the repetition interval of the extracted images. For example, the repetition adjustment unit 403 calculates the representative height and appearance interval. In the first process of step S94, since the repetition with the largest number of repetitions is extracted in the first process of step S92, the repetition adjustment unit 403 determines the representative height and appearance interval of the extracted repetition. Is calculated. The representative height is, for example, an average value, a median value, or a mode value (that is, a statistical representative value) of the heights in the vertical direction (vertical direction) of the regions 74-1 to 74-13 in FIG. The representative appearance interval is, for example, an average value, a median value, or a mode value (that is, a statistical representative value) of intervals at which the regions 74-1 to 74-13 in FIG. 37 appear.

ステップS95において、繰り返し調整部403は、繰り返しを再配置する。具体的には、ステップS94の処理で計算した繰り返しの代表の高さと出現間隔に基づいて、繰り返しを再配置する。これにより、図37の領域74−1乃至74−13が、図38の領域461−1乃至461−14に示されるように再配置される。図38に示される画像は、1番繰り返し数が多い領域(グループ)が、その代表の高さと出現間隔に基づいて、再配置された画像である。   In step S95, the repetition adjustment unit 403 rearranges the repetitions. Specifically, the repetitions are rearranged based on the representative height and appearance interval of the repetitions calculated in the process of step S94. Thereby, the areas 74-1 to 74-13 in FIG. 37 are rearranged as indicated by the areas 461-1 to 461-14 in FIG. The image shown in FIG. 38 is an image in which the region (group) with the largest number of repetitions is rearranged based on the representative height and appearance interval.

その後、処理はステップS92に戻り、同様の処理が繰り返される。すなわち、2回目のステップS92の処理では、繰り返し抽出部402は、展開された図37の画像71から繰り返し数が2番目に多い領域72−1乃至72−11を抽出する。そして、ステップS93(2回目のステップS93)において、繰り返し抽出部402は繰り返しを抽出したと判定し、ステップS94において、繰り返し調整部403は、抽出された画像の繰り返し間隔を算出する。すなわち、図37の領域72−1乃至72−11の代表の高さと出現間隔を算出する。その後、ステップS95において、繰り返し調整部403は、繰り返しを再配置する。2回目のステップS95の処理では、ステップS94の処理で計算された代表の高さと出現間隔の他に、すでに1回目のステップS95の処理で再配置されたグループとの位置関係に基づいて調整し、再配置する。これにより、図39に示されるように、1回目の処理で再配置された領域461−1乃至461−14との位置が調整され、領域466−1乃至466−13が再配置される。画像465は、2番目に繰り返し数が多い領域(グループ)である領域466−1乃至466−13が、その代表の高さ、出現間隔、および再配置されたグループ(1番目に繰り返し数が多い領域(グループ)である領域461−1乃至461−14)との位置関係に基づいて再配置された画像である。その後、処理はステップS92に戻り、同様の処理が繰り返されるが、図37にはこれ以上繰り返しが存在しないため、ステップS93では、繰り返しを抽出していない(NO)と判定される。   Thereafter, the process returns to step S92, and the same process is repeated. That is, in the second process of step S92, the iterative extraction unit 402 extracts the regions 72-1 to 72-11 having the second largest number of repetitions from the developed image 71 of FIG. In step S93 (second step S93), the repetition extraction unit 402 determines that the repetition has been extracted, and in step S94, the repetition adjustment unit 403 calculates the repetition interval of the extracted image. That is, the representative height and appearance interval of the regions 72-1 to 72-11 in FIG. 37 are calculated. Thereafter, in step S95, the repetition adjustment unit 403 rearranges the repetitions. In the second processing in step S95, adjustment is made based on the positional relationship with the groups already rearranged in the first processing in step S95, in addition to the representative height and appearance interval calculated in the processing in step S94. Rearrange. As a result, as shown in FIG. 39, the positions of the areas 461-1 to 461-14 rearranged in the first process are adjusted, and the areas 466-1 to 466-13 are rearranged. In the image 465, the regions 466-1 to 466-13, which are the regions (groups) with the second largest number of repetitions, are representative heights, appearance intervals, and rearranged groups (the number with the first largest number of repetitions). The images are rearranged based on the positional relationship with the regions (groups) 461-1 to 461-14). Thereafter, the process returns to step S92, and the same process is repeated. However, since there are no more repetitions in FIG. 37, it is determined in step S93 that no repetitions are extracted (NO).

ステップS93において、繰り返しを抽出してないと判定された場合、すなわち、これ以上画像に繰り返しが存在しないと判定された場合、ステップS96において、残り領域補間部404は、ステップS95の処理の処理により再配置されていない領域の位置関係を検出する。例えば、残り領域補間部404は、グループが配置されていない領域の、上下を囲んでいるグループを検出する。図40の例の場合、残り領域補間部404は、領域471−1乃至471−13を残り領域として検出するとともに、その残り領域が、1番繰り返し数が多い領域74のグループと、2番目に繰り返し数が多い領域72のグループとの間の位置(位置関係)であることを検出する。また、例えば、残り領域補間部404は、再配置されていない領域として、後述する図41の領域491と領域492と、その領域の位置関係をそれぞれ検出する。   If it is determined in step S93 that no repetition has been extracted, that is, if it is determined that there are no more repetitions in the image, in step S96, the remaining area interpolation unit 404 performs processing in step S95. The positional relationship of the areas that are not rearranged is detected. For example, the remaining area interpolation unit 404 detects a group surrounding the upper and lower sides of an area where no group is arranged. In the case of the example in FIG. 40, the remaining area interpolation unit 404 detects the areas 471-1 to 471-13 as remaining areas, and the remaining areas are second and second groups of areas 74 having the largest number of repetitions. It is detected that the position (positional relationship) is between a group of regions 72 having a large number of repetitions. For example, the remaining area interpolation unit 404 detects areas 491 and 492 in FIG. 41, which will be described later, as the areas that are not rearranged, and the positional relationship between the areas.

ステップS97において、残り領域補間部404は、ステップS96の処理で検出した残り領域が、繰り返す残り領域であるか否かを判定する。具体的には、残り領域補間部404は、繰り返しでないとされた領域のうち、繰り返しと繰り返しの間の領域があるか否かを判定する。例えば、図37の例の場合、領域74−1乃至74−13と、領域72−1乃至72−11の間の領域が(すなわち、図41の領域471−1乃至471−13)、繰り返しと繰り返しの間の、繰り返す残り領域であると判定される。ステップS97において、繰り返す残り領域であると判定された場合、ステップS98において、残り領域補間部404は、繰り返す残り領域であると判定された領域(すなわち、図41の領域471−1乃至471−13)を、繰り返しとして再配置する。このとき、再配置される領域は、例えば、元の画像となる図37の画像71のうち、繰り返しと繰り返しの間の領域であって、幅(高さ)的に、近い領域となる。すなわち、この再配置されるグループ(領域)は1つとは限らない(例えば、2つのグループとされる)。ステップS98の処理の後、処理はステップS96に戻り、それ以降の処理が繰り返される。すなわち、繰り返す残り領域が再配置し終わるまで処理は繰り返される。   In step S97, the remaining area interpolation unit 404 determines whether the remaining area detected in the process of step S96 is a repeated remaining area. Specifically, the remaining area interpolation unit 404 determines whether there is an area between repetitions among the areas determined not to be repetitions. For example, in the case of the example in FIG. 37, the regions 74-1 to 74-13 and the regions between the regions 72-1 to 72-11 (that is, the regions 471-1 to 471-13 in FIG. 41) are repeated. It is determined that the remaining area is repeated between repetitions. If it is determined in step S97 that the remaining area is to be repeated, the remaining area interpolation unit 404 determines in step S98 that the remaining area is to be repeated (that is, the areas 471-1 to 471-13 in FIG. 41). ) As a repeat. At this time, the rearranged region is, for example, a region between repetitions of the image 71 of FIG. 37 that is the original image, and is a region that is close in width (height). That is, the number of groups (areas) to be rearranged is not necessarily one (for example, two groups). After the process of step S98, the process returns to step S96, and the subsequent processes are repeated. That is, the process is repeated until the remaining remaining areas are rearranged.

ステップS97において、繰り返す残り領域でないと判定された場合、ステップS99において、残り領域補間部404は、ステップS96の処理で検出した、グループが再配置されなかった領域の位置関係に基づいて、ブロック画像(例えば、図37の画像71)から最適なグループを抽出し、配置する。図40の例の場合、グループが再配置された領域は、領域74のグループ、領域72のグループ、並びに領域471−1乃至471−13のグループ(繰り返す残り領域のグループ)である。残り領域補間部404は、上述したステップS96の処理で、図37の画像71と図40の画像470を比較し、画像470にはない領域のグループを図37から検出しているので、このステップS99の処理で、図41に示されるように領域491と領域492を配置する。これにより、図41に示されるように、領域491と領域492にグループが配置された、画像490が生成される。ここまでの処理により、画像の繰り返し成分とその配置の特徴を示す特徴の情報を含むテクスチャ(データ)が生成される。   If it is determined in step S97 that the region is not a repetitive remaining region, in step S99, the remaining region interpolation unit 404 detects the block image based on the positional relationship of the regions in which the group is not rearranged, which is detected in step S96. An optimal group is extracted from (for example, the image 71 in FIG. 37) and arranged. In the example of FIG. 40, the areas in which the groups are rearranged are a group of areas 74, a group of areas 72, and a group of areas 471-1 to 471-13 (a group of remaining areas to be repeated). The remaining area interpolation unit 404 compares the image 71 in FIG. 37 with the image 470 in FIG. 40 in the process of step S96 described above, and detects a group of areas not in the image 470 from FIG. In the process of S99, an area 491 and an area 492 are arranged as shown in FIG. As a result, as shown in FIG. 41, an image 490 in which groups are arranged in the region 491 and the region 492 is generated. Through the processing so far, texture (data) including feature information indicating the repetitive component of the image and the feature of the arrangement is generated.

ステップS100において、ファイル生成部405は、ファイル生成処理を実行する。これにより、テクスチャデータのファイルが生成される。なお、この処理の詳細は、図42のフローチャートを参照して後述する。ファイル生成部405により生成されたファイルは、出力部406に供給される。   In step S100, the file generation unit 405 executes file generation processing. As a result, a texture data file is generated. Details of this processing will be described later with reference to the flowchart of FIG. The file generated by the file generation unit 405 is supplied to the output unit 406.

ステップS101において、出力部406は、ステップS100の処理で生成されたファイルを出力し、処理を終了する。その後、処理は図2のステップS14に戻る。   In step S101, the output unit 406 outputs the file generated by the process of step S100 and ends the process. Thereafter, the process returns to step S14 in FIG.

図36の処理により、繰り返しに基づいて再配置された画像データ(テクスチャデータ24)のファイルが生成され、出力される。ステップS99までの処理で、繰り返し間隔に基づいて再配置されることで生成された画像(例えば、図41の画像490)を、以下においてはテクスチャとも称する。   36, a file of image data (texture data 24) rearranged based on repetition is generated and output. In the process up to step S99, an image (for example, the image 490 in FIG. 41) generated by rearrangement based on the repetition interval is also referred to as a texture below.

なお、図36の処理では、繰り返す領域と、繰り返す残り領域とを区別して処理したが、ともに、繰り返す領域として区別せずに処理してもよい。具体的には、図36のステップS92で、「繰り返す残り領域」を抽出した場合、ステップS93で繰り返しを抽出したと判定するようにし、ステップS94,ステップS95の処理で再配置するようにしてもよい。この場合、ステップS97,ステップS98の処理はスキップされる。   In the processing of FIG. 36, the repeated region and the remaining remaining region are distinguished and processed, but both may be processed without distinction as the repeated region. Specifically, if “remaining area to be repeated” is extracted in step S92 of FIG. 36, it is determined that the repetition has been extracted in step S93, and rearranged in the processes of steps S94 and S95. Good. In this case, the process of step S97 and step S98 is skipped.

次に、図42のフローチャートを参照して、図36のステップS100のファイル生成処理の詳細を説明する。なお、この処理は、図34のファイル生成部405が実行する処理であり、図36のステップS91乃至ステップS99の処理で生成されたテクスチャデータが入力されたとき開始される。   Next, the details of the file generation processing in step S100 in FIG. 36 will be described with reference to the flowchart in FIG. This process is a process executed by the file generation unit 405 in FIG. 34 and is started when the texture data generated in the processes in steps S91 to S99 in FIG. 36 is input.

ステップS121において、ファイル生成部405は、グループを検出する。具体的には、ファイル生成部405は、テクスチャの画像(繰り返し調整部403により調整されたグループと、残り領域補間部404により補間され、配置された繰り返し残り領域および残り領域により生成されたグループからなる画像、例えば、図41の画像490)を垂直方向に走査し(例えば、上部より走査し)、水平方向のグループを検出する。図41の例の場合、領域461−1乃至461−14、領域466−1乃至466−13、領域471−1乃至471−13、領域491、並びに領域492のそれぞれが、グループとして検出される。具体的には、領域461−1は、複数のブロックからなる1つのグループとして定義される。   In step S121, the file generation unit 405 detects a group. Specifically, the file generation unit 405 generates a texture image (from the group adjusted by the repetition adjustment unit 403 and the group generated by the remaining remaining region and the remaining region interpolated by the remaining region interpolation unit 404 and arranged. The resulting image, for example, the image 490 in FIG. 41, is scanned in the vertical direction (for example, scanned from the top), and the horizontal group is detected. In the case of the example of FIG. 41, each of the regions 461-1 to 461-14, the regions 466-1 to 466-13, the regions 471-1 to 471-13, the region 491, and the region 492 is detected as a group. Specifically, the region 461-1 is defined as one group including a plurality of blocks.

ステップS122において、ファイル生成部405は、ステップS121の処理で検出した複数の水平方向のグループ(領域461−1乃至461−14、領域466−1乃至466−13、領域471−1乃至471−13、領域491、並びに領域492のそれぞれのグループ)のうち、対象となるグループを決定する。ファイル生成部405は、例えば対象となるグループを図41の領域461−1とする。   In step S122, the file generation unit 405 determines a plurality of horizontal groups (regions 461-1 to 461-14, regions 466-1 to 466-13, regions 471-1 to 471-13) detected in the process of step S121. , Region 491 and region 492), a target group is determined. For example, the file generation unit 405 sets the target group as an area 461-1 in FIG.

ステップS123において、ファイル生成部405は、ステップS122の処理で決定した対象となる水平方向のグループに繰り返しがあるか否かを判定する。いまの例の場合、図41の領域461−1が対象となる水平方向のグループであるので、ファイル生成部405は、そのグループに繰り返しがあるか否かを判定する。図41の例の場合、領域461−1は、領域461−1乃至461−14に渡って繰り返しているので、繰り返しがあると判定される。   In step S123, the file generation unit 405 determines whether there is a repetition in the horizontal group to be determined in the process of step S122. In the present example, since the region 461-1 in FIG. 41 is the target horizontal group, the file generation unit 405 determines whether or not there is repetition in the group. In the example of FIG. 41, since the region 461-1 is repeated over the regions 461-1 to 461-14, it is determined that there is a repetition.

ステップS123において、対象となる水平方向のグループに繰り返しがあると判定された場合、ステップS124において、ファイル生成部405は、グループの開始位置、長さ、繰り返し回数、および繰り返し間隔をファイルに書き込む。例えば、図41の領域461−1乃至461−14の場合、グループの開始位置が領域461−1の開始位置(例えば、図41の領域461−1における左上部の位置)とされ、繰り返し回数が14回(例えば、領域461−1乃至461−14の個数)とされ、繰り返し間隔が領域461−1乃至461−14のそれぞれの間隔とされる。なお、繰り返し間隔は、上述した図36のステップS94で算出されたものを用いてもよい。   If it is determined in step S123 that the target horizontal group has repetition, the file generation unit 405 writes the group start position, length, number of repetitions, and repetition interval to the file in step S124. For example, in the case of the areas 461-1 to 461-14 in FIG. 41, the start position of the group is the start position of the area 461-1 (for example, the upper left position in the area 461-1 in FIG. 41), and the number of repetitions is 14 times (for example, the number of the regions 461-1 to 461-14), and the repetition interval is the interval between the regions 461-1 to 461-14. Note that the repetition interval may be the one calculated in step S94 in FIG.

ステップS125において、ファイル生成部405は、対象となるグループ内のブロックを水平方向に走査し、ブロック毎に開始位置、長さ、および色をファイルに書き込む。例えば、ファイル生成部405は、図41の領域(グループ)461−1を水平方向に走査し、個々のブロック毎に開始位置、長さ、および色をファイルに書き込む。色は領域461−1のグループの色を、例えばR,G,Bにより表したものとされる。1つのグループ(例えば、領域461−1)は、複数のブロックにより構成されているので(上述した処理により複数のブロックとされているので)、ファイル生成部405は、検出したブロックのそれぞれについて、ブロックの開始位置、長さ、および色をファイルに書き込む。   In step S125, the file generation unit 405 scans the blocks in the target group in the horizontal direction, and writes the start position, length, and color for each block in the file. For example, the file generation unit 405 scans the area (group) 461-1 in FIG. 41 in the horizontal direction, and writes the start position, length, and color for each block in the file. The color represents the color of the group in the region 461-1 by, for example, R, G, B. Since one group (for example, the region 461-1) is configured by a plurality of blocks (because it is a plurality of blocks by the above-described processing), the file generation unit 405, for each detected block, Write the block start position, length, and color to the file.

ステップS124とステップS125の処理により、図41の領域461−1乃至461−14のテクスチャの情報がファイルとして書き込まれたことになる。すなわち、ステップS124の処理で、図41の領域461−1乃至461−14のそれぞれの配置や長さが書き込まれる。ここで、図41の領域461−1乃至461−14は、同じ繰り返しとして検出されたものであるので、それぞれのグループの内部のブロックの構成は同一である。そのため、図41の領域461−1乃至461−14のうちの代表として、いまの例の場合には、領域461−1(ステップS122の処理で対象とされたグループ)の内部のブロックの開始位置、長さ、および色がファイルに書き込まれる。これにより、図41の領域461−1乃至461−14の全てのテクスチャを再現するようなテクスチャ情報をファイルに書き込んだことになる。   Through the processing in steps S124 and S125, the texture information in the areas 461-1 to 461-14 in FIG. 41 is written as a file. That is, in the process of step S124, the arrangement and length of each of the areas 461-1 to 461-14 in FIG. 41 are written. Here, since the areas 461-1 to 461-14 in FIG. 41 are detected as the same repetition, the configuration of the blocks inside each group is the same. Therefore, as a representative of the areas 461-1 to 461-14 in FIG. 41, in the present example, the start position of the block inside the area 461-1 (the group targeted in the process of step S 122). , Length, and color are written to the file. As a result, texture information that reproduces all the textures in the areas 461-1 to 461-14 in FIG. 41 is written in the file.

ステップS125の処理の後、ステップS126において、ファイル生成部405は、全てのグループのテクスチャ情報が全てファイルに書き込まれたか否かを判定する。図41の例の場合、領域461−1乃至461−14のグループのテクスチャ情報を書き込み終えているが、まだ、領域491,領域492、領域466−1乃至466−13、並びに領域471−1乃至471−13のグループのテクスチャ情報を書き込んでいないので、ファイル生成部405は、全てのグループのテクスチャ情報を全てファイルに書き込んでいないと判定する。   After step S125, in step S126, the file generation unit 405 determines whether all texture information of all groups has been written to the file. In the example of FIG. 41, the texture information of the groups of the areas 461-1 to 461-14 has been written, but the area 491, the area 492, the areas 466-1 to 466-13, and the areas 471-1 to 471-1 are still written. Since the texture information of the group 471-13 is not written, the file generation unit 405 determines that all the texture information of all the groups is not written in the file.

ステップS126において、全てのグループのテクスチャ情報が全てファイルに書き込まれていないと判定された場合、すなわち、まだ書き込んでいないグループのテクスチャ情報があると判定された場合、ステップS127において、ファイル生成部405は、次の対象となる水平方向のグループを決定する。例えば、図41の領域466−1が次の対象となる水平方向のグループとして決定される。   If it is determined in step S126 that all the texture information of all groups has not been written to the file, that is, if it is determined that there is texture information of a group that has not been written yet, in step S127, the file generation unit 405 Determines the next group of horizontal targets. For example, the region 466-1 in FIG. 41 is determined as the horizontal group to be the next target.

その後、処理はステップS123に戻り、同様の処理が繰り返される。例えば、2回目のステップS123においては、対象となる図41の領域466−1のグループに、領域466−1乃至466−13の繰り返しがあると判定され、ステップS124およびステップS125の処理で、領域466−1乃至466−13の全てのテクスチャを再現するようなテクスチャ情報をファイルに書き込まれる。そして、2回目のステップS126で全てのグループのテクスチャ情報が全てファイルに書き込まれていないと判定され、ステップS127では、さらに次の(3回目の)対象となる水平方向のグループが、例えば、図41の領域471−1として決定される。   Thereafter, the process returns to step S123, and the same process is repeated. For example, in the second step S123, it is determined that there are repetitions of the regions 466-1 to 466-13 in the target group of the region 466-1 of FIG. 41, and the region of the region 466-1 of FIG. Texture information that reproduces all the textures 466-1 to 466-13 is written in the file. Then, in the second step S126, it is determined that not all the texture information of all the groups has been written in the file. In step S127, the next (third) target horizontal group is, for example, shown in FIG. Forty-one regions 471-1 are determined.

その後、処理はステップS123に戻り、対象となる水平方向のグループに繰り返しがあるか否かが判定される。ここでは、図41の領域471−1が図36のステップS97、ステップS98の処理で繰り返す残り領域として配置された領域であり、この処理によって、繰り返しとして再配置されたので、繰り返しがあると判定される。そして、3回目のステップS124およびステップS125の処理で、領域471−1乃至471−13の全てのテクスチャを再現するようなテクスチャ情報がファイルに書き込まれる。ここで、例えば、領域471−1乃至471−13がそれぞれ2つのグループにより構成されていた場合、代表となる領域471−1に関するグループ情報は2つとなる(後述する図43の繰り返す残り領域513が2つとなる)。そして、3回目のステップS126で全てのグループのテクスチャ情報が全てファイルに書き込まれていないと判定され、ステップS127では、さらに次の(4回目の)対象となる水平方向のグループが、例えば、図41の領域491として決定される。   Thereafter, the process returns to step S123, and it is determined whether or not there is a repetition in the target horizontal group. Here, the region 471-1 in FIG. 41 is a region that is arranged as a remaining region that is repeated in the processing of step S97 and step S98 in FIG. 36, and is re-arranged as repetition by this processing. Is done. Then, texture information that reproduces all the textures in the regions 471-1 to 471-13 is written to the file in the third processing of step S124 and step S125. Here, for example, if the areas 471-1 to 471-13 are each composed of two groups, the group information relating to the representative area 471-1 is two (the repetitive remaining area 513 in FIG. 2). Then, in step S126 for the third time, it is determined that all the texture information of all groups has not been written in the file. In step S127, the next (fourth) target horizontal group is, for example, shown in FIG. 41 area 491 is determined.

その後、処理はステップ123に戻り、同様の処理が繰り返される。4回目のステップS123においては、対象となる図41の領域491のグループが繰り返しを含まないため(すなわち、領域491は、図36のステップS99の処理で残り領域として配置された領域であり、繰り返しではない領域であるので)、繰り返しがないと判定される。その後、処理はステップS128に進む。   Thereafter, the process returns to step 123, and the same process is repeated. In the fourth step S123, since the target group of the area 491 in FIG. 41 does not include repetition (that is, the area 491 is an area arranged as a remaining area in the process in step S99 in FIG. It is determined that there is no repetition. Thereafter, the process proceeds to step S128.

ステップS128において、ファイル生成部405は、水平方向のグループの開始位置と長さをファイルに書き込む。例えば、領域491の水平方向グループの開始位置と長さが書き込まれる。   In step S128, the file generation unit 405 writes the start position and length of the horizontal group in the file. For example, the start position and length of the horizontal group in the area 491 are written.

ステップS129において、ファイル生成部405は、対象となるグループ内のブロックを水平方向に走査し、ブロック毎に開始位置、長さ、および色をファイルに書き込む。例えば、ファイル生成部405は、図41の領域(グループ)491を水平方向に走査し、個々のブロック毎に開始位置、長さ、および色をファイルに書き込む。色は領域491のグループの色を、例えばR,G,Bにより表したものとされる。1つのグループ(例えば、領域491)は、複数のブロックにより構成されているので(上述した処理により複数のブロックとされているので)、ファイル生成部405は、検出したブロックのそれぞれについて、ブロックの開始位置、長さ、および色をファイルに書き込む。   In step S129, the file generation unit 405 scans the blocks in the target group in the horizontal direction, and writes the start position, length, and color for each block in the file. For example, the file generation unit 405 scans the area (group) 491 in FIG. 41 in the horizontal direction, and writes the start position, length, and color for each block in the file. The color is the color of the group in the region 491 expressed by, for example, R, G, B. Since one group (for example, the region 491) is configured by a plurality of blocks (because it is a plurality of blocks by the above-described processing), the file generation unit 405 performs block detection for each detected block. Write the start position, length, and color to the file.

ステップS128とステップS129の処理により、図41の領域491(残り領域)のテクスチャの情報がファイルとして書き込まれたことになる。すなわち、ステップS128の処理で、図41の領域491の配置や長さが書き込まれる。そして、ステップS129の処理で、領域491の内部のブロックの開始位置、長さ、および色がファイルに書き込まれる。これにより、図41の領域491のテクスチャを再現するようなテクスチャ情報をファイルに書き込んだことになる。すなわち、対象となる水平方向のグループに繰り返しがない場合、そのグループの繰り返し回数、繰り返し間隔は必要ないため、ファイルには書き込まれないことになる。   Through the processing in steps S128 and S129, the texture information in the area 491 (remaining area) in FIG. 41 is written as a file. That is, the arrangement and length of the area 491 in FIG. 41 are written in the process of step S128. In the process of step S129, the start position, length, and color of the block inside the area 491 are written into the file. As a result, texture information that reproduces the texture in the area 491 in FIG. 41 is written in the file. In other words, when there is no repetition in the target horizontal group, the number of repetitions and the repetition interval of the group are not necessary, and thus the data is not written to the file.

ステップS129の処理の後、処理はステップS126に進み、全てのグループのテクスチャ情報が全てファイルに書き込まれたか否かが判定される。いまの例の場合、まだ領域492のテクスチャ情報がファイルに書き込まれていないので、NOと判定される。その後、処理はステップS127に進み、次の対象となる水平方向のグループ(例えば、図41の領域492)が決定され、処理はステップS123に戻る。   After the process of step S129, the process proceeds to step S126, and it is determined whether all the texture information of all groups has been written to the file. In the case of the present example, since the texture information of the area 492 has not been written in the file, it is determined as NO. Thereafter, the process proceeds to step S127, a horizontal group to be the next target (for example, the region 492 in FIG. 41) is determined, and the process returns to step S123.

水平方向のグループとして、図41の領域492が決定された後のステップS129までの処理は、基本的に領域491の場合の処理と同様であるので、その説明を省略する。この領域492に対するステップS129までの処理によって、全てのグループの情報がファイルに書き込まれたことになるので、次のステップS126の処理では、YESと判定され、処理はステップS130に進む。   Since the processing up to step S129 after the determination of the region 492 in FIG. 41 as the horizontal group is basically the same as the processing in the region 491, description thereof is omitted. By the processing up to step S129 for this area 492, the information of all the groups has been written in the file, so in the processing of the next step S126, it is determined YES, and the processing proceeds to step S130.

ステップS130において、ファイル生成部405は、ステップS121乃至ステップS129の処理の繰り返しによりファイルに書き込まれたものを1つのファイルとして出力部406に供給する。その後、処理は図36のステップS100に戻る。   In step S130, the file generation unit 405 supplies the file written in the file by repeating the processing in steps S121 to S129 to the output unit 406 as one file. Thereafter, the processing returns to step S100 in FIG.

図42の処理により、テクスチャ情報を、繰り返しを含むグループ毎に分けてファイルを生成することができる。このファイルは、例えば、図43に示されるような構成となる。   By the process of FIG. 42, the texture information can be divided into groups including repetitions to generate a file. This file has a structure as shown in FIG. 43, for example.

図43に示されるファイル510には、繰り返し情報511−1および511−2(以下、個々に区別する必要がない場合、繰り返し情報511と称する)、繰り返し残り領域情報513−1および513−2(以下、個々に区別する必要がない場合、繰り返し残り領域情報513と称する)、並びに残り領域情報515−1および515−2(以下、個々に区別する必要がない場合、繰り返し情報515と称する)が書き込まれている。また、繰り返し情報511−1には、ブロック情報512−1−1乃至512−1−3が関連付けられて書き込まれており、繰り返し情報511−2には、ブロック情報512−2−1乃至512−2−4が関連付けられて書き込まれている。また、繰り返し残り領域情報513−1に、ブロック情報514−1−1乃至514−1−7が関連付けられて書き込まれており、繰り返し残り領域情報513−2に、ブロック情報514−2−1乃至514−2−4が関連付けられて書き込まれている。また、残り領域情報515−1に、ブロック情報516−1−1乃至516−1−5が関連付けられて書き込まれており、残り領域情報515−2に、ブロック情報516−2−1乃至516−2−3が関連付けられて書き込まれている。なお、以下において、ブロック情報512−1−1乃至512−1−3、並びに512−2−1乃至512−2−4を個々に区別する必要がない場合、ブロック情報512と称し、ブロック情報514−1−1乃至514−1−7、並びにブロック情報514−2−1乃至514−2−4を個々に区別する必要がない場合、ブロック情報514と称し、ブロック情報516−1−1乃至516−1−5、並びにブロック情報516−2−1乃至516−2−3を個々に区別する必要がない場合、ブロック情報516と称する。   The file 510 shown in FIG. 43 includes repetition information 511-1 and 511-2 (hereinafter, referred to as repetition information 511 when there is no need to distinguish between them), repetition remaining area information 513-1 and 513-2 ( Hereinafter, when there is no need to distinguish each other, it is referred to as repetitive remaining area information 513), and remaining area information 515-1 and 515-2 (hereinafter, when there is no need to distinguish each other, it is referred to as repetitive information 515). Has been written. The block information 512-1-1 to 512-1-3 is written in association with the repetition information 511-1 and the block information 512-2-1 to 512- 2 is stored in the repetition information 511-2. 2-4 are written in association with each other. Further, block information 514-1-1 to 514-1-7 are written in association with the repetitive remaining area information 513-1 and block information 514-1-1 to 514-1 are stored in the repetitive remaining area information 513-2. 514-2-4 is associated and written. Further, block information 516-1-1 to 516-1-5 are written in association with the remaining area information 515-1, and block information 516-2-1 to 516-16 are written to the remaining area information 515-2. 2-3 are written in association with each other. In the following description, the block information 512-1-1 to 512-1-3 and 512-2-1 to 512-2-4 are referred to as block information 512 and block information 514 when it is not necessary to distinguish them individually. -1-1 to 514-1-7 and block information 514-2-1 to 514-2-4 are referred to as block information 514, and block information 516-1-1 to 516 are not required to be individually distinguished. -1-5 and block information 516-2-1 to 516-2-3 are referred to as block information 516 when it is not necessary to distinguish them individually.

これらのブロック情報512、514、並びに516には、図44に示されるように、開始位置情報、長さ情報、および色情報が含まれている。なお、以下においては、図44に示されるブロック情報が、図43のブロック情報512−1−1乃至512−1−3、512−2−1乃至512−2−4、514−1−1乃至514−1−7、514−2−1乃至514−2−4、516−1−1乃至516−1−5、並びに516−2−1乃至516−2−3のそれぞれに書き込まれているものとして説明する。   As shown in FIG. 44, the block information 512, 514, and 516 include start position information, length information, and color information. In the following, the block information shown in FIG. 44 is the block information 512-1-1 to 512-1-3, 512-2-1 to 512-2-4, and 514-1-1 to 514-1-1 of FIG. Writes to 514-1-7, 5142-1 to 514-2-4, 516-1-1 to 516-1-5, and 516-2-1 to 516-2-3, respectively Will be described.

このファイル510は、図42の処理を、図41の画像490について実行した場合の例を示している。具体的には、上述した図42の1回目のステップS124の処理では、図41の領域461−1乃至461−14のグループの開始位置、長さ、繰り返し回数、および繰り返し間隔が、開始位置情報、長さ情報、および繰り返し情報として図43の繰り返し情報511−1に書き込まれる。そして、1回目のステップS125の処理で、例えば、領域461−1(グループ)に含まれるブロック毎の開始位置、長さ、および色が、開始位置情報、長さ情報、および色情報(図44)として、図43のブロック情報512−1−1乃至512−1−3に書き込まれる。ブロック情報512−1−1乃至512−1−3には、図44に示されるような開始位置情報、長さ情報、および色情報がそれぞれ書き込まれている。すなわち、領域461−1のグループには、垂直方向のブロックが3個あり、3個のブロックの情報が、それぞれブロック情報512−1−1乃至512−1−3として書き込まれる。上述したように、図41の領域461−1乃至461−14は、同じ繰り返しとして検出されたものであるので、それぞれのグループの内部のブロックの構成は同一である。そのため、繰り返し情報511−1に対応するブロック情報を関連付けて記憶させるだけで、図41の領域461−1乃至461−14のテクスチャを再現するようなテクスチャ情報がファイルに書き込まれたことになる。   This file 510 shows an example when the processing of FIG. 42 is executed for the image 490 of FIG. Specifically, in the first process of step S124 in FIG. 42 described above, the start position, length, number of repetitions, and repetition interval of the groups of the regions 461-1 to 461-14 in FIG. The length information and the repetition information are written in the repetition information 511-1 in FIG. In the first process of step S125, for example, the start position, length, and color of each block included in the region 461-1 (group) are changed to start position information, length information, and color information (FIG. 44). ) As block information 512-1-1 to 512-1-3 in FIG. In the block information 512-1-1 to 512-1-3, start position information, length information, and color information as shown in FIG. 44 are written, respectively. That is, the group in the region 461-1 has three blocks in the vertical direction, and information on the three blocks is written as block information 512-1-1 to 512-1-3, respectively. As described above, since the areas 461-1 to 461-14 in FIG. 41 are detected as the same repetition, the configuration of the blocks inside each group is the same. For this reason, texture information that reproduces the texture in the areas 461-1 to 461-14 in FIG. 41 is written in the file only by associating and storing the block information corresponding to the repetition information 511-1.

同様にして、図42の2回目のステップS124の処理では、領域466−1乃至466−13の開始位置、長さ、繰り返し回数、および繰り返し間隔が、図43に示されるように繰り返し情報511−2として書き込まれ、2回目のステップS125の処理で、繰り返し情報511−2に関連付けられて、ブロックの開始位置、長さ、および色が、開始位置情報、長さ情報、および色情報として、ブロック情報512−2−1乃至512−2−4に書き込まれる。この場合、領域466−1乃至466−13には、垂直方向に4個のブロックが含まれている。   Similarly, in the process of step S124 for the second time in FIG. 42, the start position, length, number of repetitions, and repetition interval of the areas 466-1 to 466-13 are repeated information 511- as shown in FIG. 2 is written, and in the second processing of step S125, the start position, length, and color of the block are associated with the repetition information 511-2 as the start position information, length information, and color information. Information 512-2-1 to 512-2-4 is written. In this case, the areas 466-1 to 466-13 include four blocks in the vertical direction.

そして、図42の3回目のステップS124の処理では、図41の領域471−1乃至471−13の開始位置、長さ、繰り返し回数、および繰り返し間隔が、図43に示されるように、開始位置情報、長さ情報、繰り返し回数情報、および繰り返し間隔情報として繰り返し残り領域情報513−1,513−2に書き込まれ、その次の(3回目の)ステップS125の処理で、残り領域情報513−1,513−2にそれぞれ関連付けられて、ブロックの開始位置、長さ、および色が、開始位置情報、長さ情報、および色情報として、ブロック情報514−1−1乃至514−1−7,ブロック情報514−2−1乃至514−2−4が書き込まれる。この場合、領域471−1には、垂直方向に7個のブロックが含まれているグループ(繰り返し残り領域情報513−1)、および垂直方向に4個のブロックが含まれているグループ(繰り返し残り領域513−2)の2つのグループからなる。   In the third process of step S124 in FIG. 42, the start position, length, number of repetitions, and repetition interval of the regions 471-1 to 471-13 in FIG. Information, length information, repetition count information, and repetition interval information are written in the remaining repetition area information 513-1 and 513-2, and the remaining area information 513-1 is processed in the next (third) step S125. , 513-2, the block start position, the length, and the color are block position 514-1-1 to 514-1-7 as the start position information, the length information, and the color information. Information 514-2-1 to 514-2-4 is written. In this case, the area 471-1 includes a group including seven blocks in the vertical direction (repetition remaining area information 513-1) and a group including four blocks in the vertical direction (repetition remaining). It consists of two groups of areas 513-2).

その後、1回目のステップS128(3回のステップS124の処理の後の1回目のステップS128)およびステップS129の処理により、図41の領域491の情報が、残り領域情報515−1、ブロック情報516−1−1乃至516−1−5として書き込まれ、2回目のステップS128およびステップS129の処理により、図41の領域492の情報が、残り領域515−2、ブロック情報516−2−1乃至516−2−3として書き込まれる。その後、図42のステップS130の処理で、図43に示されるようなファイル510が、1つのファイルとして出力部406に供給される。   Thereafter, by the first step S128 (first step S128 after the third step S124) and step S129, the information of the area 491 in FIG. 41 is changed to the remaining area information 515-1 and the block information 516. 41 to 516-1-5, the information of the area 492 in FIG. 41 is changed to the remaining area 515-2 and the block information 516-2-1 to 516 by the processing of the second step S128 and step S129. It is written as -2-3. Thereafter, the file 510 as shown in FIG. 43 is supplied to the output unit 406 as one file in the process of step S130 of FIG.

図42の処理により、繰り返しの要素を含むグループは、その開始位置情報、長さ情報、繰り返し回数情報、および繰り返し間隔情報を書き込むことで、1つのグループ(領域)に対応するブロック情報(例えば、ブロック情報512−1−1乃至512−1−3)だけを書き込めばテクスチャ画像を再現可能となるため、ファイル510に書き込む情報の量を減らすことができる。すなわち、全ての領域についてブロック情報をファイルに書き込んだ場合に比べて、繰り返しの領域のブロック情報はその代表となる領域のみのブロック情報をファイルに書き込めばよいため、書き込む情報量を減らすことができる。   With the processing of FIG. 42, a group including a repetition element writes its start position information, length information, repetition count information, and repetition interval information, so that block information corresponding to one group (area) (for example, If only the block information 512-1-1 to 512-1-3) is written, the texture image can be reproduced, so that the amount of information written to the file 510 can be reduced. That is, as compared with the case where block information is written to a file for all areas, the block information of a repeated area only needs to be written to the file, and the amount of information to be written can be reduced. .

なお、1つの領域が2つのグループにより構成されている場合、一度のステップS124とステップS125の処理、またはステップS128とステップS129の処理で、その領域に対応する情報をファイルに書き込むようにしたが、グループ毎に処理を繰り返して、ファイルに書き込むようにしてもよい。このようにした場合、例えば、1つの領域が5つのグループにより構成されていたとき、その領域に対応する情報をファイルに書き込むには、ステップS124とステップS125の処理、またはステップS128とステップS129の処理が5回繰り返される。   When one area is composed of two groups, the information corresponding to the area is written to the file by the process of step S124 and step S125 or the process of step S128 and step S129. The processing may be repeated for each group and written to the file. In this case, for example, when one area is composed of five groups, in order to write the information corresponding to the area to the file, the process in step S124 and step S125 or the process in step S128 and step S129 is performed. The process is repeated 5 times.

次に、図45のフローチャートを参照して、図33のテクスチャデータ記憶部381におけるファイル記憶処理について説明する。この処理は、テクスチャ生成装置14における図36の処理の後に実行される処理である。すなわち、テクスチャ生成装置14によりテクスチャ情報がファイルに書き込まれ、出力された後に実行される処理である。   Next, a file storage process in the texture data storage unit 381 in FIG. 33 will be described with reference to the flowchart in FIG. This process is a process executed after the process of FIG. 36 in the texture generation device 14. That is, it is a process executed after the texture information is written in the file by the texture generation device 14 and output.

ステップS141において、テクスチャデータ記憶部381は、テクスチャデータのファイルの入力を受け付ける。例えば、テクスチャデータ記憶部381は、図43を用いて上述したファイル510の入力を受け付ける。   In step S141, the texture data storage unit 381 accepts input of a texture data file. For example, the texture data storage unit 381 receives the input of the file 510 described above with reference to FIG.

ステップS142において、テクスチャデータ記憶部381は、テクスチャデータのファイルを記憶し、処理を終了する。   In step S142, the texture data storage unit 381 stores the texture data file and ends the process.

このように、テクスチャデータのファイルは、テクスチャデータ記憶部381に記憶される。   As described above, the texture data file is stored in the texture data storage unit 381.

次に、図46のフローチャートを参照して、テクスチャデータ記憶部381に記憶されたテクスチャデータのファイルに基づいて、画像を再現する処理について説明する。なお、この処理は、図35の画像再現装置15により実行される処理であって、図45の処理の後(テクスチャデータ記憶部381にテクスチャデータが記憶された状態)に実行される処理である。   Next, processing for reproducing an image based on a texture data file stored in the texture data storage unit 381 will be described with reference to a flowchart of FIG. This process is a process executed by the image reproduction device 15 in FIG. 35 and is executed after the process in FIG. 45 (a state in which texture data is stored in the texture data storage unit 381). .

ステップS181において、入力部431は、ファイル(テクスチャデータのファイル)を読み込む。例えば、入力部431は、図43を用いて上述したファイル510を、テクスチャデータ記憶部381から読み込む(読み出す)。   In step S181, the input unit 431 reads a file (texture data file). For example, the input unit 431 reads (reads) the file 510 described above with reference to FIG. 43 from the texture data storage unit 381.

ステップS182において、入力部431は、読み込んだファイルに書き込まれている情報を抽出する。例えば、図43のファイル510の繰り返し情報511−1と、それに関連付けられたブロック情報512−1−1乃至512−1−3とを抽出する。   In step S182, the input unit 431 extracts information written in the read file. For example, the repetition information 511-1 of the file 510 of FIG. 43 and the block information 512-1-1 to 512-1-3 associated therewith are extracted.

ステップS183において、再現位置特定部432は、ステップ182の処理で抽出された情報が繰り返し情報であるか否かを判定する。例えば、再現位置特定部432は、図43のファイル510の繰り返し情報511−1と、それに関連付けられたブロック情報512−1−1乃至512−1−3とが抽出された場合や、ファイル510の繰り返し残り領域情報513−1と、それに関連付けられたブロック情報514−1−1乃至514−1−7とが抽出された場合には、その情報の中に、繰り返し回数情報と繰り返し間隔情報が設定されているので繰り返し情報であると判定する。また、例えば、残り領域情報515−1と、それに関連付けられたブロック情報516−1−1乃至516−1−5とが抽出された場合、その情報の中に、繰り返し回数情報と繰り返し間隔情報が設定されていないので、繰り返し情報でないと判定する。すなわち、ステップS182の処理で読み出される情報としては、繰り返しであるとされる、繰り返し情報および繰り返し残り領域情報と、繰り返し情報ではないとされる、残り領域情報とがある。   In step S183, the reproduction position specifying unit 432 determines whether the information extracted in the process of step 182 is repetitive information. For example, the reproduction position specifying unit 432 extracts the repetition information 511-1 of the file 510 in FIG. 43 and the block information 512-1-1 to 512-1-3 associated therewith, When the repetitive remaining area information 513-1 and the block information 514-1-1 to 514-1-7 associated therewith are extracted, the repetitive count information and the repetitive interval information are set in the information. Therefore, it is determined that the information is repeated. For example, when the remaining area information 515-1 and the block information 516-1-1 to 516-1-5 associated therewith are extracted, the number of repetitions information and the repetition interval information are included in the information. Since it is not set, it is determined that the information is not repeated. That is, the information read out in the process of step S182 includes repetition information and repetition remaining area information that are repeated, and remaining area information that is not repetition information.

ステップS183において、抽出された情報が繰り返し情報であると判定された場合、処理はステップS184に進み、再現位置特定部432は、ステップS182の処理で抽出された情報、すなわち、繰り返し情報とそれに関連付けられたブロック情報とを読み出す。例えば、図43の繰り返し情報511−1と、それに関連付けられたブロック情報512−1−1乃至512−1−3とが読み出される。   If it is determined in step S183 that the extracted information is repetitive information, the process proceeds to step S184, and the reproduction position specifying unit 432 associates the information extracted in the process of step S182, that is, the repetitive information and the related information. And read block information. For example, the repetition information 511-1 in FIG. 43 and the block information 512-1-1 to 512-1-3 associated therewith are read out.

ステップS185において、再現位置特定部432は、繰り返し情報に基づいて、グループの再現位置を特定する。図43の例の場合、繰り返し情報511−1に基づいて、複数のグループの再現位置を特定する。具体的には、繰り返し情報511−1の開始位置情報、長さ情報、繰り返し回数情報、および繰り返し間隔情報に基づいて、複数のグループの再現位置を特定する。これにより、例えば、図41の領域461−1乃至461−14の位置を特定することができる。   In step S185, the reproduction position specifying unit 432 specifies the reproduction position of the group based on the repetition information. In the case of the example of FIG. 43, the reproduction positions of a plurality of groups are specified based on the repetition information 511-1. Specifically, the reproduction positions of a plurality of groups are specified based on the start position information, length information, repetition count information, and repetition interval information of the repetition information 511-1. Thereby, for example, the positions of the regions 461-1 to 461-14 in FIG. 41 can be specified.

ステップS186において、再現位置特定部432は、ブロック情報に基づいて、ブロックの再現位置を特定する。図43の例の場合、ブロック情報512−1−1乃至512−1−3に基づいて、グループ(領域461−1乃至461−14)を構成するブロックの再現位置を特定する。具体的には、ブロック情報512−1−1乃至512−1−3のそれぞれに書き込まれている開始位置情報と長さ情報に基づいて、ブロックの再現位置を特定する。   In step S186, the reproduction position specifying unit 432 specifies the reproduction position of the block based on the block information. In the case of the example in FIG. 43, the reproduction positions of the blocks constituting the group (areas 461-1 to 461-14) are specified based on the block information 512-1-1 to 512-1-3. Specifically, the reproduction position of the block is specified based on the start position information and length information written in each of the block information 512-1-1 to 512-1-3.

ステップS187において、テクスチャ展開部433は、ステップS186およびステップS187の処理で特定されたグループの再現位置に、ブロック情報を展開する。図41の例の場合、領域461−1を構成する3個のブロック(図43の繰り返し情報511−1に対応するブロック情報が3個であるので、ここでは仮に3個と定義される)に、それぞれ色情報(ブロック情報512−1−1並びにブロック情報512−1−3に書き込まれている色情報)を、メモリに展開する。ここでいう展開は、再現するアドレスや色情報を指定することであり、実際画面上に表示させるような画像を作成する処理ではない。また、領域461−1乃至461−14についても、ステップS186の処理でグループの再現位置として特定されているので、テクスチャ展開部433は、同様にして色情報を展開する。これにより、図41の領域461−1乃至461−14が再現されたことになる。   In step S187, the texture development unit 433 develops block information at the reproduction position of the group specified by the processing in steps S186 and S187. In the case of the example in FIG. 41, the three blocks constituting the region 461-1 (there are three pieces of block information corresponding to the repetition information 511-1 in FIG. 43, so here it is defined as three). The color information (the color information written in the block information 512-1-1 and the block information 512-1-3) is developed in the memory. Development here refers to designating the address and color information to be reproduced, and is not a process of creating an image that is actually displayed on the screen. Further, since the regions 461-1 to 461-14 are also specified as the group reproduction position in the process of step S186, the texture development unit 433 similarly develops the color information. As a result, the regions 461-1 to 461-14 in FIG. 41 are reproduced.

ステップS188において、テクスチャ展開部433は、ファイルの中の全ての要素(情報)をメモリに展開したか否かを判定する。いまの例の場合、繰り返し情報511−2、繰り返し残り領域情報513−1および513−2、並びに、残り領域情報515−1および515−2がメモリに展開されていないので、NOと判定される。   In step S188, the texture development unit 433 determines whether all elements (information) in the file have been developed in the memory. In the case of the present example, since the repetition information 511-2, the repetition remaining area information 513-1 and 513-2, and the remaining area information 515-1 and 515-2 are not expanded in the memory, it is determined as NO. .

ステップS188において、ファイルの中の全ての要素をメモリに展開していないと判定された場合、処理はステップS182に戻り、入力部431は、ファイルに書き込まれている情報を抽出する。入力部431はこのとき、まだ展開されていない情報を抽出するようにする。例えば、入力部431は、図43の繰り返し情報511−2と、それに関連付けられたブロック情報512−2−1乃至512−2−4を抽出する。図43の繰り返し情報511−2と、それに関連付けられたブロック情報512−2−1乃至512−2−4が抽出された場合、それ以降のステップS183乃至ステップS188の処理は、上述した1回目のステップS183乃至ステップS188の処理と同様であるので、その説明は省略する。2回目のステップS187までの処理により、図41の領域461−1乃至461−14の他に、さらに、領域466−1乃至466−13が再現されたことになる。   If it is determined in step S188 that all the elements in the file have not been expanded in the memory, the process returns to step S182, and the input unit 431 extracts the information written in the file. At this time, the input unit 431 extracts information that has not been developed yet. For example, the input unit 431 extracts the repetition information 511-2 of FIG. 43 and the block information 512-2-1 to 512-2-4 associated therewith. When the repetition information 511-2 of FIG. 43 and the block information 512-2-1 to 512-2-4 associated therewith are extracted, the processing of the subsequent steps S183 to S188 is the first time described above. Since this is the same as the processing in steps S183 to S188, the description thereof is omitted. By the processing up to step S187 for the second time, regions 466-1 to 466-13 are reproduced in addition to the regions 461-1 to 461-14 in FIG.

そして、ステップS188でファイルの中の全ての要素をまだメモリに展開していないと判定され、処理はステップS182に戻る。3回目のステップS182の処理では、まだメモリに展開されていない情報として、図43の繰り返し残り領域情報513−1と、それに関連付けられたブロック情報514−1−1乃至514−1−7とが抽出される。それ以降の処理は、上述した繰り返し情報511の処理と同様であるので、その説明は省略する。   In step S188, it is determined that all elements in the file have not yet been expanded in the memory, and the process returns to step S182. In the third process of step S182, as the information that has not yet been developed in the memory, the repetitive remaining area information 513-1 in FIG. 43 and the block information 514-1-1 to 514-1-7 associated therewith are included. Extracted. Since the subsequent processing is the same as the processing of the repetition information 511 described above, description thereof is omitted.

そして、ステップS188でファイルの中の全ての要素をまだメモリに展開していないと判定され、処理はステップS182に戻る。4回目のステップS182の処理では、まだメモリに展開されていない情報として、図43の繰り返し残り領域情報513−2と、それに関連付けられたブロック情報514−2−1乃至514−2−4とが抽出される。それ以降の処理は、上述した繰り返し情報511の処理と同様であるので、その説明は省略する。3回目のステップS182乃至ステップS188の処理、並びに4回目のステップS182乃至ステップS187の処理により、領域461−1乃至461−14、並びに領域466−1乃至466−13の他に、領域471−1乃至471−13がさらに再現されたことになる。すなわち、領域471は、2つのグループ(すなわち、2つの繰り返し残り領域情報513−1と513−2)により構成されているため、ステップS182乃至ステップS188の処理を2回繰り返す(3回目と4回目)ことで、再現することができる。そして、ステップS188で、ファイルの中の全ての要素をまだメモリに展開していないと判定され、処理はステップS182に戻る。   In step S188, it is determined that all elements in the file have not yet been expanded in the memory, and the process returns to step S182. In the process of the fourth step S182, as the information that has not yet been developed in the memory, the repetitive remaining area information 513-2 in FIG. 43 and the block information 514-2-1 to 514-2-4 associated therewith are included. Extracted. Since the subsequent processing is the same as the processing of the repetition information 511 described above, description thereof is omitted. In addition to the regions 461-1 to 461-14 and the regions 466-1 to 466-13, the region 471-1 is obtained by the third step S182 to step S188 and the fourth step S182 to step S187. Through 471-13 are further reproduced. That is, since the area 471 is composed of two groups (that is, two repetitive remaining area information 513-1 and 513-2), the processing from step S182 to step S188 is repeated twice (third and fourth times). ) And can be reproduced. In step S188, it is determined that all the elements in the file have not been expanded in the memory, and the process returns to step S182.

5回目のステップS182の処理では、入力部431は、まだメモリに展開されていない情報として、例えば、図43の残り領域情報515−1と、それに関連付けられたブロック情報516−1−1乃至516−1−5とを抽出する。そして、ステップS183において、再現位置特定部432は、ステップS182の処理で抽出された情報、いまの例の場合、残り領域情報515−1とそれに関連付けられたブロック情報516−1−1乃至516−1−5とが、繰り返し情報であるか否かを判定する。この場合、残り領域情報515−1とそれに関連付けられたブロック情報516−1−1乃至516−1−5とは繰り返し情報でない(繰り返し回数情報と繰り返し間隔情報が設定されておらず、残り領域情報である)ので、NOと判定される。   In the process of step S182 for the fifth time, the input unit 431, for example, the remaining area information 515-1 in FIG. 43 and the block information 516-1-1 to 516 associated therewith as information that has not yet been expanded in the memory. -1-5 is extracted. In step S183, the reproduction position specifying unit 432 extracts the information extracted in the process of step S182, in the present example, the remaining area information 515-1 and the block information 516-1-1 to 516-related thereto. It is determined whether 1-5 is repetition information. In this case, the remaining area information 515-1 and the block information 516-1-1 to 516-1-5 associated therewith are not repetition information (repetition number information and repetition interval information are not set, and remaining area information Therefore, it is determined as NO.

ステップS183において、抽出された情報が繰り返し情報でない、すなわち、残り領域情報であると判定された場合、処理はステップS189に進み、再現位置特定部432は、ステップS182の処理で抽出された情報、すなわち、残り領域情報とそれに関連付けられたブロック情報とを読み出す。図43の例の場合、残り領域情報515−1と、それに関連付けられたブロック情報516−1−1乃至516−1−5とが読み出される。   If it is determined in step S183 that the extracted information is not repetitive information, that is, the remaining area information, the process proceeds to step S189, and the reproduction position specifying unit 432 includes the information extracted in the process of step S182, That is, the remaining area information and block information associated therewith are read out. In the case of the example in FIG. 43, the remaining area information 515-1 and the block information 516-1-1 to 516-1-5 associated therewith are read out.

ステップS190において、再現位置特定部432は、残り領域情報に基づいて、グループの再現位置を特定する。具体的には、残り領域情報515−1の開始位置情報、および長さ情報に基づいて、そのグループ(領域)の再現位置が特定される。これにより、例えば、図41の領域91の位置を特定することができる。   In step S190, the reproduction position specifying unit 432 specifies the reproduction position of the group based on the remaining area information. Specifically, the reproduction position of the group (area) is specified based on the start position information and length information of the remaining area information 515-1. Thereby, for example, the position of the region 91 in FIG. 41 can be specified.

ステップS191において、再現位置特定部432は、ブロック情報に基づいて、ブロックの再現位置を特定する。図43の例の場合、再現位置特定部432は、ブロック情報516−1−1乃至516−1−5に基づいて、グループ(領域491)を構成するブロックの再現位置を特定する。具体的には、ブロック情報516−1−1乃至516−1−5のそれぞれに書き込まれている開始位置情報と長さ情報に基づいて、ブロックの再現位置を特定する。   In step S191, the reproduction position specifying unit 432 specifies the reproduction position of the block based on the block information. In the case of the example in FIG. 43, the reproduction position specifying unit 432 specifies the reproduction positions of the blocks constituting the group (area 491) based on the block information 516-1-1 to 516-1-5. Specifically, the reproduction position of the block is specified based on the start position information and the length information written in each of the block information 516-1-1 to 516-1-5.

ステップS192において、テクスチャ展開部433は、ステップS190およびステップS191の処理で特定されたグループの再現位置に、ブロック情報をメモリ展開する。図41の例の場合、領域491を構成する5個のブロック(図43の残り領域情報515−1に対応するブロック情報が5個であるので、ここでは仮に5個と定義される)に、それぞれ色情報(ブロック情報516−1−1乃至ブロック情報516−1−5に書き込まれている色情報)を、メモリに展開する。ここでいう展開は、再現するアドレスや色情報を指定することであり、実際画面上に表示させるような画像を作成する処理ではない。これにより、図41の領域491が再現されたことになる。   In step S192, the texture development unit 433 develops the block information in the memory at the reproduction position of the group specified by the processes in steps S190 and S191. In the case of the example in FIG. 41, the five blocks constituting the region 491 (the block information corresponding to the remaining region information 515-1 in FIG. 43 is five, so it is defined here as five). Each color information (the color information written in the block information 516-1-1 to the block information 516-1-5) is expanded in the memory. Development here refers to designating the address and color information to be reproduced, and is not a process of creating an image that is actually displayed on the screen. As a result, the region 491 in FIG. 41 is reproduced.

ステップS192の処理の後、ステップS188に進み、テクスチャ展開部433は、ファイルの中の全ての要素(情報)をメモリに展開したか否かを判定する。いまの例の場合、まだ残り領域情報515−2と、それに関連付けられたブロック情報516−2−1乃至516−2−3が展開されていないので、NOと判定される。そして、処理はステップS182に戻る。   After the process of step S192, the process proceeds to step S188, where the texture development unit 433 determines whether all elements (information) in the file have been developed in the memory. In the case of the present example, since the remaining area information 515-2 and the block information 516-2-1 to 516-2-3 associated therewith are not expanded yet, it is determined as NO. Then, the process returns to step S182.

そして、6回目のステップS182の処理で、まだメモリに展開していない情報として、図43の残り領域情報515−2と、それに関連付けられたブロック情報516−2−1乃至516−2−3とが抽出される。残り領域情報515−2と、それに関連付けられたブロック情報516−2−1乃至516−2−3とが抽出された場合、それ以降のステップS183、ステップS189乃至192、並びにステップS188の処理は、上述した残り領域情報515−1が抽出された場合における処理と同様であるので、その説明は省略する。この処理により、図41の領域492が再現される。ここまでの処理で、図43のファイル510の情報は全てメモリに展開されたことになるので、ステップS188において、テクスチャ展開部433は、ファイルの中の全ての要素をメモリに展開したと判定し、処理をステップS193に進める。   Then, as information that has not yet been developed in the memory in the process of step S182 for the sixth time, the remaining area information 515-2 of FIG. 43 and the block information 516-2-1 to 516-2-3 associated therewith Is extracted. When the remaining area information 515-2 and the block information 516-2-1 to 516-2-3 associated therewith are extracted, the processing of the subsequent steps S183, S189 to 192, and step S188 is as follows: Since this is the same as the process in the case where the remaining area information 515-1 is extracted, the description thereof is omitted. By this processing, the region 492 in FIG. 41 is reproduced. In the processing so far, all the information in the file 510 in FIG. 43 has been expanded in the memory. Therefore, in step S188, the texture expansion unit 433 determines that all the elements in the file have been expanded in the memory. Then, the process proceeds to step S193.

ステップS193において、画像出力部434は、テクスチャ展開部433によりメモリに展開されたテクスチャ(グループおよびブロックの情報)に基づく画像を出力する。すなわち、ここまでの処理によりメモリに展開された、再現するアドレスや色情報に基づいて、実際に、画面上に表示されるような表示画像のデータが生成され、出力される。この例の場合、図41に示されるような画像490(テクスチャ)が出力される。その後、処理は上述した図2のステップS15に戻る。   In step S193, the image output unit 434 outputs an image based on the texture (group and block information) developed in the memory by the texture development unit 433. That is, display image data that is actually displayed on the screen is generated and output based on the address and color information to be reproduced, which are expanded in the memory by the processing so far. In this example, an image 490 (texture) as shown in FIG. 41 is output. Thereafter, the process returns to step S15 in FIG.

図46の処理により、テクスチャデータのファイルに基づいて、画像を再現することができる。   With the processing in FIG. 46, an image can be reproduced based on a texture data file.

図33乃至図46によれば、繰り返し成分と対称成分によって、テクスチャの特徴を残してテクスチャを生成および加工することができる。また、繰り返しに基づいて構成されたテクスチャに基づくファイルを生成することで、メモリの節約、処理コストの削減を図ることができる。   According to FIGS. 33 to 46, a texture can be generated and processed by using a repetitive component and a symmetric component while leaving a texture feature. Further, by generating a file based on a texture configured based on repetition, it is possible to save memory and reduce processing costs.

図33乃至図46のテクスチャ生成装置14によれば、繰り返し抽出部402が画像に繰り返し表われ類似する画像の成分である繰り返し成分を画像から抽出し(例えば、図36のステップS92)、繰り返し調整部403が、抽出された繰り返し成分の画面上の距離を均等に配置することで、繰り返し成分の配置を調整し(例えば、図36のステップS94とステップS95)、残り領域補間部404が、画像のうちの一部の領域であって、繰り返し成分の配置が調整されていない他の領域の画像に、画像の繰り返し成分を含まない領域の画像の代表値を補間し(例えば、図36のステップS98、ステップS99)、ファイル生成部405が、補間された画像における繰り返し成分およびその配置の特徴を示す特徴情報を生成する(例えば、図36のステップS100)ようにしたので、テクスチャの特徴を残してテクスチャ(わかりやすい画像)を生成および加工することができる。   According to the texture generation device 14 of FIGS. 33 to 46, the repetitive extraction unit 402 extracts repetitive components that are repetitively appearing in the image and are similar image components from the image (for example, step S92 of FIG. 36), and repetitive adjustments are performed. The unit 403 adjusts the arrangement of the repetitive components by uniformly arranging the distances of the extracted repetitive components on the screen (for example, step S94 and step S95 in FIG. 36). 36. The representative value of the image of the region that does not include the repetitive component of the image is interpolated to the image of the other region in which the arrangement of the repetitive component is not adjusted (for example, step of FIG. 36). (S98, Step S99), the file generation unit 405 generates feature information indicating the repetitive components in the interpolated image and the feature of the arrangement (for example, , Since the step S100) as shown in FIG. 36, it is possible to generate and process the texture (descriptive image) leaving the characteristics of the texture.

また、図33乃至図46の画像再現装置15によれば、画像における、画像に繰り返し表われ類似する画像の成分である繰り返し成分、およびその配置の特徴を示す特徴情報を取得し、取得した特徴情報に基づいて、画像を再現するようにしたので、繰り返し成分と対称成分によって、テクスチャの特徴を残してテクスチャを生成および加工することができる。また、繰り返しに基づいて構成されたテクスチャに基づくファイルを生成することで、メモリの節約、処理コストの削減を図ることができる。さらに、画像再現装置15によれば、繰り返し成分と対称成分によって、テクスチャの特徴から構成される、わかりやすい画像を再現することができる。   In addition, according to the image reproduction device 15 in FIGS. 33 to 46, it acquires the repetitive component that is a component of an image that appears repeatedly in the image and is similar, and the feature information that indicates the feature of the arrangement, and acquires the acquired feature. Since the image is reproduced based on the information, the texture can be generated and processed by leaving the feature of the texture by the repetitive component and the symmetric component. Further, by generating a file based on a texture configured based on repetition, it is possible to save memory and reduce processing costs. Furthermore, according to the image reproduction device 15, it is possible to reproduce an easy-to-understand image composed of texture features by the repetitive component and the symmetric component.

なお、図33のテクスチャ生成装置14がテクスチャデータのファイルを生成し、テクスチャデータ記憶部381が生成されたテクスチャデータのファイルを記憶するようにしたが、テクスチャデータ記憶部381に記憶させるものは、ファイルでなくとも、単に、テクスチャデータ(すなわち、図36のステップS99までの処理で生成された、画像の繰り返し成分とその配置の特徴を示す特徴情報を含むテクスチャデータ)でもよい。この場合、図36のステップS100の処理が省略され、図45の処理では、テクスチャデータのファイルではなく、テクスチャデータそのものが扱われる。また、図46のステップS181で読み込まれるものがファイルではなく、テクスチャデータ記憶部381に記憶されるテクスチャデータそのものとなる。   33 generates a texture data file and the texture data storage unit 381 stores the generated texture data file. However, what is stored in the texture data storage unit 381 is as follows. Even if it is not a file, it may simply be texture data (that is, texture data including feature information indicating the repetitive component of the image and the feature of the arrangement generated by the processing up to step S99 in FIG. 36). In this case, the processing in step S100 in FIG. 36 is omitted, and in the processing in FIG. 45, the texture data itself is handled instead of the texture data file. Also, what is read in step S181 in FIG. 46 is not a file but the texture data itself stored in the texture data storage unit 381.

次に、最頻値の算出方法の例を、図47と図48を参照して説明する。図47は、最頻値算出処理を説明するフローチャートである。なお、ここでは具体例として、図7のステップS36の処理で算出される最頻値について説明する。   Next, an example of a mode value calculation method will be described with reference to FIGS. 47 and 48. FIG. 47 is a flowchart for explaining the mode value calculation process. Here, as a specific example, the mode value calculated in the process of step S36 in FIG. 7 will be described.

ステップS201において、エッジ出現区間算出部53は、データ総数aを算出する。図9の例の場合、エッジ出現区間算出部53は、複数のエッジのうち、任意の2本のエッジで構成される全てのエッジ対(2本のエッジの組み合わせ)の数を、データ総数aとして算出する。   In step S201, the edge appearance section calculation unit 53 calculates the total number of data a. In the case of the example in FIG. 9, the edge appearance section calculation unit 53 calculates the number of all edge pairs (combination of two edges) composed of any two edges from among a plurality of edges as the total number of data a. Calculate as

ステップS202において、エッジ出現区間算出部53は、区間数bを決定する。具体的には、エッジ出現区間算出部53は、ツェラーの公式を用いて、分割数(区間数b)を決定する。例えば、図48で示されるようなヒストグラムを作成する場合、区間数b(分割数)は11として決定される。   In step S202, the edge appearance section calculation unit 53 determines the number of sections b. Specifically, the edge appearance section calculation unit 53 determines the number of divisions (section number b) using the Zeller formula. For example, when creating a histogram as shown in FIG. 48, the number of sections b (number of divisions) is determined to be 11.

ステップS203において、エッジ出現区間算出部53は、最小値c、最大値d、および区間幅eを決定する。例えば、図9の例の場合、間隔101−1が最小値cとされ、区間101−11が最大値dとされる。また、最小値cから最大値dまでの幅が、ステップS202の処理で決定された区間数bで割算されることで、区間幅eが決定される。   In step S203, the edge appearance interval calculation unit 53 determines the minimum value c, the maximum value d, and the interval width e. For example, in the example of FIG. 9, the interval 101-1 is set to the minimum value c, and the section 101-11 is set to the maximum value d. Further, the section width e is determined by dividing the width from the minimum value c to the maximum value d by the section number b determined in the process of step S202.

ステップS204において、エッジ出現区間算出部53は、データを区間に割り振る。これにより、図48に示されるように、図9の間隔(間隔101−1乃至101−11,102−1乃至102−3,103−1,103−2,並びに104−1)がそれぞれ割り振られる。   In step S204, the edge appearance section calculation unit 53 allocates data to the sections. As a result, as shown in FIG. 48, the intervals in FIG. 9 (intervals 101-1 to 101-11, 102-1 to 102-3, 103-1, 103-2, and 104-1) are allocated. .

そして、ステップS205において、エッジ出現区間算出部53は、最頻区間を検出する。図48の例の場合、最もその区間に入っている間隔(エッジ対の長さ)が多い区間における間隔を、最頻区間fとされる。すなわち、この最頻区間fに入る間隔には、所定の幅が設けられており、その間隔は全て等しい訳ではない。   In step S205, the edge appearance section calculation unit 53 detects the most frequent section. In the example of FIG. 48, the interval in the interval with the largest interval (length of edge pair) in the interval is set as the most frequent interval f. That is, a predetermined width is provided in the interval entering the most frequent section f, and the intervals are not all equal.

ステップS206において、エッジ出現区間算出部53は、最頻値を算出する。具体的には、エッジ出現区間算出部53は、最頻値=最小値c+2.5×区間幅e(最小値c+2×区間幅e<最頻値<最小値c+3×区間幅e)として算出する。その後、処理は終了される。   In step S206, the edge appearance section calculation unit 53 calculates the mode value. Specifically, the edge appearance section calculation unit 53 calculates mode value = minimum value c + 2.5 × section width e (minimum value c + 2 × section width e <mode value <minimum value c + 3 × section width e). . Thereafter, the process is terminated.

図47、図48の処理により、ヒストグラムにより最頻値を算出することができる。最頻値は、図48に示されるように、ヒストグラム上において、所定の幅に含まれる値(間隔の長さ)を全て最頻値(最頻値群)としているため、所定の幅で設定される。   47 and 48, the mode value can be calculated from the histogram. As shown in FIG. 48, the mode values are set with a predetermined width because all the values (interval lengths) included in the predetermined width on the histogram are the mode values (mode value group). Is done.

以上の処理を、図1と図49を用いて説明する。   The above processing will be described with reference to FIGS.

画像処理システム1の繰り返し周期抽出装置11には、図49の繰り返し領域を含む画像601の情報が入力される。繰り返し周期抽出装置11は、この繰り返し領域を含む画像601から、水平方向エッジの繰り返し周期のデータ611と垂直方向エッジの繰り返し周期のデータ612を抽出し、繰り返し周期のデータ602(図1の繰り返し周期のデータ21)としてブロック化装置12に出力する。ブロック化装置12は、水平方向エッジの繰り返し周期のデータ611と垂直方向エッジの繰り返し周期のデータ612を少なくとも含む繰り返し周期のデータ602(繰り返し周期のデータ21)に基づいて、画像をブロック化し、ブロック画像603のデータ(ブロック画像データ22)として、連続領域抽出装置13に出力する。連続領域抽出装置13は、ブロック画像603のデータ(ブロック画像データ22)に基づいて、ブロックを領域に分割するとともに類似する領域を統合し、連続領域をまとめた画像604のデータ(連続領域データ23)をテクスチャ生成装置14に出力する。   Information of the image 601 including the repetition region of FIG. 49 is input to the repetition period extraction device 11 of the image processing system 1. The repetition period extracting device 11 extracts the horizontal edge repetition period data 611 and the vertical edge repetition period data 612 from the image 601 including the repetition area, and the repetition period data 602 (repetition period in FIG. 1). The data 21) is output to the blocking device 12. The blocking device 12 blocks the image based on the repetition period data 602 (repetition period data 21) including at least the horizontal edge repetition period data 611 and the vertical edge repetition period data 612. The data is output to the continuous area extraction device 13 as data of the image 603 (block image data 22). The continuous area extraction device 13 divides the block into areas based on the data of the block image 603 (block image data 22), integrates similar areas, and stores data of the image 604 (continuous area data 23). ) Is output to the texture generator 14.

テクスチャ生成装置14は、連続領域の画像604のデータ(連続領域データ23)に基づいて、繰り返しを考慮したテクスチャデータの画像605のファイル(テクスチャデータ24)を生成する。なお、このとき、図33のテクスチャデータ記憶部381がテクスチャデータのファイルを記憶するようにしてもよい。そして、画像再現装置15は、テクスチャデータの画像605のファイル(テクスチャデータ24)に基づいて、画像を再現する。   The texture generation device 14 generates a texture data image 605 file (texture data 24) in consideration of repetition based on the data of the continuous area image 604 (continuous area data 23). At this time, the texture data storage unit 381 of FIG. 33 may store the texture data file. Then, the image reproduction device 15 reproduces the image based on the texture data image 605 file (texture data 24).

このように、繰り返し周期抽出装置11では、画像の主要なエッジの繰り返しに基づいて繰り返し周期を抽出することができる。また、ブロック化装置12では、画像の繰り返しの成分の特徴を含んだ、任意のサイズのブロックからなるブロック画像画像を生成することができ、画像データの容量を小さくすることができる。さらに、連続領域抽出装置13では、画像中の連続領域を抽出することができ、もって、連続領域をまとめた画像を生成することができる。また、テクスチャ生成装置14では、繰り返しを考慮したテクスチャデータの画像のファイルを生成することができ、もって、メモリを節約することができる。また、処理コストを削減することができる。さらに、入力画像と比較し、テクスチャデータの画像のファイルのサイズを小さくすることができる。また、画像再現装置15では、テクスチャデータに基づいて画像を再現するので、テクスチャの特徴を生かした画像を作成することができる。画像の再現を迅速に行うことができる。   Thus, the repetition period extraction device 11 can extract the repetition period based on the repetition of the main edge of the image. Further, the blocking device 12 can generate a block image image composed of blocks of an arbitrary size including features of repeated components of the image, and the capacity of image data can be reduced. Furthermore, the continuous area extraction device 13 can extract continuous areas in the image, and thus can generate an image in which the continuous areas are collected. Further, the texture generation device 14 can generate a texture data image file in consideration of repetition, thereby saving memory. In addition, the processing cost can be reduced. Furthermore, the size of the texture data image file can be reduced compared to the input image. In addition, since the image reproduction device 15 reproduces an image based on the texture data, it is possible to create an image that makes use of the features of the texture. Images can be reproduced quickly.

例えば、図50に示されるような、画像入力部661、フーリエ変換部662、およびピーク検出部663を備える繰り返し周期抽出装置651においては、図51の処理が実行されることで、繰り返し周期が抽出される。   For example, in the repetition period extraction device 651 including the image input unit 661, the Fourier transform unit 662, and the peak detection unit 663 as shown in FIG. 50, the repetition period is extracted by executing the processing of FIG. Is done.

具体的には、画像入力部661がステップS231において、画像データの入力を受け付け、ステップS232において、各画素の色成分を抽出する。フーリエ変換部662は、ステップS233において画像を2次元フーリエ変換する。ピーク検出部663は、ステップS234においてピークを取り出し、ステップS235において周期を計算する。   Specifically, the image input unit 661 accepts input of image data in step S231, and extracts the color component of each pixel in step S232. The Fourier transform unit 662 performs two-dimensional Fourier transform on the image in step S233. The peak detection unit 663 extracts a peak in step S234 and calculates a cycle in step S235.

図50および図51によれば、主要なエッジ周期を1つ求めることはできるが、図3乃至図11を用いて説明した繰り返し周期抽出装置11によれば、主要な複数のエッジ周期を求めることができる。   According to FIGS. 50 and 51, one main edge period can be obtained, but according to the repetition period extraction device 11 described with reference to FIGS. 3 to 11, a plurality of main edge periods can be obtained. Can do.

また例えば、図52に示されるような、画像入力部691、分割数決定部692、画像分割部693、および色付け画像出力部694を備えるブロック化装置681においては、図53の処理が実行されることで、画像がブロック化される。   Further, for example, in the blocking device 681 including the image input unit 691, the division number determining unit 692, the image dividing unit 693, and the colored image output unit 694 as shown in FIG. 52, the processing of FIG. 53 is executed. Thus, the image is blocked.

具体的には、図53のステップS261において、分割数決定部692は、画像入力部691に入力された画像に基づいて、水平方向と垂直方向の分割数を決定し、ステップS262において、画像分割部693は、分割数をもとに等間隔の分割位置を決定する。   Specifically, in step S261 of FIG. 53, the division number determination unit 692 determines the number of divisions in the horizontal direction and the vertical direction based on the image input to the image input unit 691, and in step S262, the image division The unit 693 determines equally spaced division positions based on the number of divisions.

図52および図53によれば、画像を等間隔に分割することはできるが、図12乃至図16を用いて説明したブロック化装置12によれば、画像の特徴を考慮してブロックに分割し、任意の大きさのブロックを出力することができる。また、図17乃至図32を用いて説明した連続領域抽出装置13によれば、画像の中の水平方向と垂直方向の連続領域を抽出することができる。また、連続領域に基づいて画像をブロック化することができる。さらに、これを建物の画像に適用した場合、窓や壁などのパーツに分解したり、再利用することができる。   According to FIGS. 52 and 53, the image can be divided at equal intervals, but according to the blocking device 12 described with reference to FIGS. 12 to 16, the image is divided into blocks in consideration of the characteristics of the image. , Any size block can be output. In addition, according to the continuous area extracting apparatus 13 described with reference to FIGS. 17 to 32, it is possible to extract horizontal and vertical continuous areas in an image. Further, the image can be blocked based on the continuous area. Furthermore, when this is applied to a building image, it can be disassembled into parts such as windows and walls or reused.

また、例えば、図54に示されるような画像切り出し部721からテクスチャデータ722が出力され、テクスチャ展開部723に入力されるような構成においては、図55および図56の処理が行われることで、画像の切り出しとテクスチャの展開が行われる。   Further, for example, in the configuration in which the texture data 722 is output from the image cutout unit 721 as illustrated in FIG. 54 and input to the texture development unit 723, the processing of FIGS. 55 and 56 is performed. Image segmentation and texture development are performed.

具体的には、画像切り出し部721がステップS291において、各画素の色成分を抽出し、ステップS292において、ユーザの指令に基づいてテクスチャを修正する。その後画像切り出し部721は、修正したテクスチャをテクスチャデータ722として出力する。   Specifically, the image cutout unit 721 extracts the color component of each pixel in step S291, and corrects the texture based on a user instruction in step S292. Thereafter, the image cutout unit 721 outputs the corrected texture as texture data 722.

テクスチャ展開部723は、ステップS311において、このテクスチャデータ722を読み込み、ステップS312において、全画素をメモリ上に展開する。   The texture development unit 723 reads the texture data 722 in step S311 and develops all pixels on the memory in step S312.

図54と図55によれば、各画素について、ユーザからの指令に基づいてテクスチャの修正を行うことはできるが、図33乃至図46を用いて説明したテクスチャ生成装置14によれば、画像に含まれる繰り返しの成分に基づいてテクスチャデータを生成することができる。また、繰り返しをもとにテクスチャデータのファイルを生成するため、メモリの容量を節約することができる。さらに、図33乃至図46を用いて説明した画像再現装置15によれば、テクスチャデータに基づいて、画像を再現することができる。また、テクスチャ生成装置14および画像再現装置15によれば、例えば、画像に基づいて地図を作成する場合に、建物の雰囲気を損なうことなく、わかりやすい地図を作成することができる。さらに、繰り返しに基づいてテクスチャのファイルを生成することで、メモリの容量を節約するとともに、処理コストを削減することができる。また、入力画像を保存した場合に比べて、ファイルサイズを小さくすることができる。   According to FIGS. 54 and 55, the texture can be corrected for each pixel based on a command from the user. However, according to the texture generation device 14 described with reference to FIGS. Texture data can be generated based on the included repetitive components. In addition, since the texture data file is generated based on the repetition, the memory capacity can be saved. Furthermore, according to the image reproduction device 15 described with reference to FIGS. 33 to 46, an image can be reproduced based on the texture data. Further, according to the texture generation device 14 and the image reproduction device 15, for example, when creating a map based on an image, an easy-to-understand map can be created without impairing the atmosphere of the building. Furthermore, by generating a texture file based on repetition, the memory capacity can be saved and the processing cost can be reduced. Further, the file size can be reduced as compared with the case where the input image is stored.

また、テクスチャ生成装置14によれば、3次元地図を作成する場合に、デジタルスチルカメラにより撮影された画像の繰り返しに基づいてテクスチャデータを生成するため、画像に含まれる不要な情報(例えば、電線、木、または影)を除いたテクスチャデータを生成することができる。すなわち、ユーザが電線や木、影などを操作入力によって取り除く必要がなく3次元地図の作成に手間をかけることもなく、費用を抑えることができる。画像再現装置15においても、このテクスチャデータに基づいて、画像に含まれる不要な情報を除いた画像を再現できるので、わかりやすい地図を作成することができる。また、テクスチャ生成装置14は、繰り返しの特徴に基づいて生成したテクスチャデータのファイルを生成するようにし、そのファイルには、繰り返しの部分(グループ)については、そのデータを重複して書き込むこともないため、データベースのデータ量を抑えることができる。さらに、例えば、一般的な地図に用いる画像を作成する場合、地図上に文字情報やアイコン等を付加するとき、通常の画像に対して、特徴のみにより構成された画像の方が、ユーザにとって、わかりやすい画像とすることができる。よって、より、ユーザにわかりやすい地図を提供することができる。   In addition, according to the texture generation device 14, when creating a three-dimensional map, texture data is generated based on repetition of images taken by a digital still camera, so unnecessary information included in the image (for example, electric wires) , Trees, or shadows) can be generated. That is, it is not necessary for the user to remove electric wires, trees, shadows, and the like by operation input, and it is not necessary to take time to create a three-dimensional map, thereby reducing costs. Also in the image reproduction device 15, an image excluding unnecessary information included in the image can be reproduced based on the texture data, so that an easy-to-understand map can be created. In addition, the texture generation device 14 generates a texture data file generated based on the repetitive characteristics, and the repeated portion (group) is not written repeatedly in the file. Therefore, the data amount of the database can be suppressed. Furthermore, for example, when creating an image to be used for a general map, when adding character information, an icon, or the like on the map, an image composed only of features is more appropriate for the user than a normal image. Easy-to-understand images. Therefore, it is possible to provide a user-friendly map.

なお、以上の例では、図1の画像処理システム1において、ブロック化装置12に繰り返し周期抽出装置11からの繰り返し周期のデータ21が供給され、ブロック化装置12が、繰り返し周期のデータ21に基づいて画像をブロック化するようにしたが、ブロック化装置12に、デジタルスチルカメラなどにより撮像されたモザイク画像などを入力し、ブロック化するようにしてもよい。このモザイク状画像のデータの具体的な例として、モザイク状の低解像度化された画像データを、図57乃至図72を参照して説明する。   In the above example, in the image processing system 1 of FIG. 1, the data 21 of the repetition period from the repetition period extraction apparatus 11 is supplied to the blocking apparatus 12, and the blocking apparatus 12 is based on the data 21 of the repetition period. However, the image may be blocked by inputting a mosaic image captured by a digital still camera or the like to the blocking device 12. As a specific example of the data of the mosaic image, mosaic-shaped image data with reduced resolution will be described with reference to FIGS.

図57は、画像を変換する画像変換装置の構成例を示すブロック図である。   FIG. 57 is a block diagram illustrating a configuration example of an image conversion apparatus that converts an image.

この画像変換装置821は、入力画像を人の目で認識できる低解像度化画像に変換して出力する装置である。   The image conversion device 821 is a device that converts an input image into a reduced resolution image that can be recognized by human eyes and outputs the reduced image.

画像入力部831は、入力画像を取得し、その画像サイズ(水平方向および垂直方向の画素数)を検出し、分割数決定部838に出力すると共に、入力画像をRGB(Red Green Blue)成分に分離して、輝度を求めてエッジ強調部832に出力する。さらに、画像入力部811は、取得した入力画像を画像分割部839に出力する。   The image input unit 831 acquires an input image, detects the image size (number of pixels in the horizontal direction and vertical direction), outputs the input image to the division number determination unit 838, and converts the input image into an RGB (Red Green Blue) component. The luminance is obtained by separation and output to the edge enhancement unit 832. Further, the image input unit 811 outputs the acquired input image to the image dividing unit 839.

エッジ強調部832は、入力画像にエッジ強調フィルタによる処理を施し、入力画像のエッジを強調し、エッジ抽出部833に出力する。このエッジ強調フィルタは、例えば、ラプラシアンフィルタなどであるが、これに限るものではなく、エッジが強調できればラプラシアンフィルタ以外のフィルタでもよい。尚、エッジ強調フィルタについては後述する。   The edge enhancement unit 832 performs processing using an edge enhancement filter on the input image, enhances the edge of the input image, and outputs the result to the edge extraction unit 833. The edge enhancement filter is, for example, a Laplacian filter, but is not limited thereto, and may be a filter other than the Laplacian filter as long as the edge can be enhanced. The edge enhancement filter will be described later.

エッジ抽出部833は、エッジ強調部832より入力された、エッジが強調された、画像に、エッジ抽出フィルタ処理を施し、エッジが強調された画像からエッジのみを抽出した画像(例えば、エッジ部の画素の画素値を1、それ以外の画素を0とした2値画像)を生成し、エッジ判定部834に出力する。エッジ抽出フィルタは、例えば、Robertsのエッジ検出フィルタ、Prewittのエッジ検出フィルタ、または、Sobelのエッジ検出フィルタなどであるが、エッジが抽出できるものであれば、それ以外のフィルタであってもよい。尚、エッジ抽出フィルタについては詳細を後述する。   The edge extraction unit 833 performs edge extraction filter processing on the image with the edge enhanced, which is input from the edge enhancement unit 832, and extracts only the edge from the image with the edge enhanced (for example, an image of the edge portion). A binary image in which the pixel value of the pixel is 1 and the other pixels are 0) is generated and output to the edge determination unit 834. The edge extraction filter is, for example, a Roberts edge detection filter, a Prewitt edge detection filter, or a Sobel edge detection filter, but may be any other filter as long as the edge can be extracted. Details of the edge extraction filter will be described later.

エッジ判定部834は、エッジ抽出部833より入力された、エッジ抽出フィルタによりエッジが抽出されている画像の各画素についてエッジの可能性の高い画素(エッジが強調された後の入力画像の画素から抽出されたエッジを用いているので、エッジが強調される前の入力画像上におけるエッジの可能性が高い画素と言う意味で、ここでは、エッジの可能性の高い画素と称している)であるか否かを判定し、エッジの可能性が高い画素の情報をエッジカウント部835に出力する。より詳細には、エッジ部の画素の画素値を1、それ以外の画素を0とした2値画像とした場合、入力画像中においてエッジである可能性の高い画素の画素値は、エッジ強調部832、および、エッジ抽出部833の処理により画素値が1となっているはずなので、エッジ判定部834は、各画素の画素値が、1であるとき、その画素はエッジ部の可能性の高い画素であるとみなし、その情報をエッジカウント部835に出力する。   The edge determination unit 834 receives from the pixels input from the edge extraction unit 833 and has a high possibility of edge for each pixel of the image from which the edge is extracted by the edge extraction filter (from the pixel of the input image after the edge is enhanced). Since the extracted edge is used, it means a pixel having a high possibility of the edge on the input image before the edge is emphasized, and is referred to as a pixel having a high possibility of the edge here). Whether or not the pixel is highly likely to be edged is output to the edge count unit 835. More specifically, in the case of a binary image in which the pixel value of the pixel in the edge portion is 1 and the other pixels are 0, the pixel value of the pixel that is likely to be an edge in the input image is the edge enhancement portion. Since the pixel value should be 1 by the processing of 832 and the edge extraction unit 833, when the pixel value of each pixel is 1, the edge determination unit 834 is highly likely to be an edge portion. The pixel is regarded as a pixel, and the information is output to the edge count unit 835.

エッジカウント部835は、エッジ部である可能性の高い画素からなる画像の水平方向、および、垂直方向の各座標位置について、それぞれのエッジ部である可能性の高い画素数をカウントし、水平方向、および、垂直方向のそれぞれについて各座標位置毎のエッジである可能性の高い画素数のカウント結果をDFT(Descrete Fourier Transform:離散フーリエ変換)部836に出力する。   The edge counting unit 835 counts the number of pixels that are highly likely to be edge portions for each coordinate position in the horizontal direction and the vertical direction of an image that includes pixels that are likely to be edge portions. , And the count result of the number of pixels that are likely to be edges for each coordinate position in each of the vertical directions is output to a DFT (Descrete Fourier Transform) unit 836.

DFT部836は、エッジカウント部835より入力される水平方向、および、垂直方向のそれぞれについて各座標位置毎のエッジである可能性の高い画素のカウント結果を、水平方向、および、垂直方向のそれぞれについて、離散フーリエ変換処理を施して、水平方向、および、垂直方向のそれぞれについて、エッジの周期(エッジの発生する空間的な周期(間隔))に対応する空間周波数((エッジの発生する空間的な周期(間隔)の逆数)の水平方向、および、垂直方向のそれぞれについてのパワースペクトル(フーリエ変換した際のフーリエ級数組(実部の係数と虚部の係数の組)のそれぞれの2乗の和)を生成し、ピーク抽出部837に出力する。   The DFT unit 836 counts a pixel that is likely to be an edge for each coordinate position in each of the horizontal direction and the vertical direction, which is input from the edge count unit 835, in each of the horizontal direction and the vertical direction. Is subjected to discrete Fourier transform processing, and in each of the horizontal direction and the vertical direction, the spatial frequency corresponding to the edge period (the spatial period (interval) in which the edge occurs) ((the spatial in which the edge occurs) Power spectrum for each of the horizontal direction and the vertical direction (reciprocal number of the interval (interval)) (the square of each of the Fourier series set (the set of coefficients of the real part and the imaginary part)) Is generated and output to the peak extraction unit 837.

ピーク抽出部837は、DFT部836より入力された、水平方向、および、垂直方向のそれぞれについて、パワースペクトルから、そのピーク位置となる空間周波数を検出し、水平方向、および、垂直方向についてそれぞれ検出し、検出したピークとなる空間周波数の情報を分割数決定部838に出力する。   The peak extraction unit 837 detects the spatial frequency at the peak position from the power spectrum for each of the horizontal direction and the vertical direction input from the DFT unit 836, and detects each of the horizontal direction and the vertical direction. Then, information on the spatial frequency that becomes the detected peak is output to the division number determination unit 838.

分割数決定部838は、画像入力部831より入力された画像サイズの情報と、ピークとなる空間周波数の情報から分割数を決定し、画像分割部839に出力する。すなわち、空間周波数は、エッジの発生する周期の逆数であるので、分割数決定部838は、発生するエッジに対応したモザイクのブロックを発生するように画像の分割数を決定する。より具体的には、分割数決定部838は、空間周波数の逆数を求めることにより周期(エッジの発生する間隔を示す画素数)を求め、画像サイズにおける水平方向と垂直方向の画素数を、その周期の画素数でそれぞれ割ることにより分割数を決定する。   The division number determination unit 838 determines the division number from the information on the image size input from the image input unit 831 and the information on the spatial frequency at the peak, and outputs it to the image division unit 839. That is, since the spatial frequency is the reciprocal of the period in which the edge is generated, the division number determining unit 838 determines the number of image divisions so as to generate a mosaic block corresponding to the generated edge. More specifically, the division number determination unit 838 obtains the period (number of pixels indicating the interval at which edges occur) by obtaining the reciprocal of the spatial frequency, and calculates the number of pixels in the horizontal and vertical directions in the image size. The number of divisions is determined by dividing each by the number of pixels in the period.

画像分割部839は、分割数決定部838より入力された、水平方向、および、垂直方向の分割数で、入力画像を分割し、分割した画像を色付画像出力部840に出力する。すなわち、画像分割部839は、入力された水平方向、および、垂直方向の分割数で、入力画像をモザイク状のブロック単位の画像に分割する。   The image dividing unit 839 divides the input image by the number of divisions in the horizontal direction and the vertical direction input from the division number determining unit 838 and outputs the divided image to the colored image output unit 840. That is, the image dividing unit 839 divides the input image into mosaic block-unit images based on the input horizontal and vertical division numbers.

色付画像出力部840は、画像分割部839より入力された、モザイク状のブロックに分割されている各画像に含まれている全画素の画素値の、例えば、中央値、または、最頻値(最も頻度の高い画素値)を代表画素値として、そのブロックに含まれている全ての画素の画素値を代表画素値とし、これらの処理を、入力画像の全てのブロックについて実行することで、入力画像を低解像度化し、モザイク画像に変換して、出力する。   The colored image output unit 840 receives, for example, the median value or the mode value of the pixel values of all the pixels included in each image divided into mosaic-like blocks input from the image dividing unit 839. By using (the most frequent pixel value) as the representative pixel value and the pixel values of all the pixels included in the block as the representative pixel value, and executing these processes for all the blocks of the input image, Reduce the resolution of the input image, convert it to a mosaic image, and output it.

次に、図58のフローチャートを参照して、図57の画像変換装置821によるモザイク画像変換処理について説明する。   Next, a mosaic image conversion process by the image conversion apparatus 821 in FIG. 57 will be described with reference to the flowchart in FIG.

ステップS421において、画像入力部831は、入力画像を取得して、画像サイズを検出して、分割数決定部838に出力すると共に、入力画像を画像分割部839に出力する。   In step S421, the image input unit 831 acquires the input image, detects the image size, outputs the input image to the division number determination unit 838, and outputs the input image to the image division unit 839.

ステップS422において、画像入力部831は、入力画像を各画素の画素値をRGB成分に分離して、輝度を求めてエッジ強調部832に出力する。   In step S <b> 422, the image input unit 831 separates the pixel value of each pixel from the input image into RGB components, obtains luminance, and outputs the luminance to the edge enhancement unit 832.

ステップS423において、エッジ強調部832は、輝度値からなる入力画像の情報にエッジ強調フィルタによるエッジ強調処理を施し、入力画像のエッジを強調してエッジ抽出部833に出力する。   In step S <b> 423, the edge enhancement unit 832 performs edge enhancement processing using an edge enhancement filter on the input image information including the luminance value, emphasizes the edge of the input image, and outputs the result to the edge extraction unit 833.

ここで、エッジ強調部832の処理に用いられるエッジ強調フィルタについて説明する。   Here, the edge enhancement filter used for the processing of the edge enhancement unit 832 will be described.

エッジ強調フィルタは、例えば、上述のようにラプラシアンフィルタである。ラプラシアンフィルタの動作原理は、以下のようなものである。すなわち、例えば、図59Aで示されるように、入力画像の輝度値f(x)が空間方向xに対してエッジ部分を構成している場合(図59Aで示されるように段差が生じている場合)、このf(x)が1次微分されることにより、図59Bで示されるように1次微分値f(x)'は、上に凸の曲線が得られる。さらに、2次微分値f(x)''は、図59Cで示されるように、sin波形のような曲線となる。この2次微分値f(x)''を、元の輝度値f(x)から減算することにより、図59Dで示されるような波形が得られる。この結果、原画像のエッジ部分には存在しなかった、輝度値の変化が開始される部分に凹部と、変化が終了する部分に凸部がそれぞれ生じることとなる。この結果、エッジ部分の濃度変化が強調される。   The edge enhancement filter is, for example, a Laplacian filter as described above. The operating principle of the Laplacian filter is as follows. That is, for example, as shown in FIG. 59A, when the luminance value f (x) of the input image forms an edge portion with respect to the spatial direction x (when there is a step as shown in FIG. 59A) ), F (x) is first-order differentiated, and as shown in FIG. 59B, a first-order derivative value f (x) ′ is obtained as a convex curve. Further, the secondary differential value f (x) ″ becomes a curve like a sin waveform as shown in FIG. 59C. By subtracting the secondary differential value f (x) ″ from the original luminance value f (x), a waveform as shown in FIG. 59D is obtained. As a result, a concave portion is generated at a portion where the change in luminance value is started and a convex portion is generated at a portion where the change is finished, which is not present in the edge portion of the original image. As a result, the density change in the edge portion is emphasized.

さらに、ラプラシアンフィルタによるエッジ強調の処理の画素値の計算方法について説明する。   Further, a method of calculating pixel values for edge enhancement processing using a Laplacian filter will be described.

画像のディジタル処理においては、1次微分値は、画素間の輝度値の差分により求められる。すなわち、水平方向に図60Aで示されるように画素f(i,j),f(i+1,j)が配置され、垂直方向に図60Bで示されるように画素f(i,j),f(i,j+1)が配置されていた場合、水平方向の画素間の1次微分値をfx(i,j)とし、垂直方向の画素間の1次微分値をfy(i,j)とするとき、以下の式(1),式(2)のような関係から、1次微分値は演算される。 In the digital processing of an image, the primary differential value is obtained from the difference in luminance value between pixels. That is, the pixels f (i, j), f (i + 1, j) are arranged in the horizontal direction as shown in FIG. 60A, and the pixels f (i, j), f (in the vertical direction as shown in FIG. 60B. i, j + 1) is arranged, the primary differential value between pixels in the horizontal direction is f x (i, j), and the primary differential value between pixels in the vertical direction is f y (i, j). When this is done, the primary differential value is calculated from the relationship shown in the following equations (1) and (2).

fx(i,j)=f(i+1,j)−f(i,j)
・・・(1)
fy(i,j)=f(i,j+1)−f(i,j)
・・・(2)
f x (i, j) = f (i + 1, j) −f (i, j)
... (1)
f y (i, j) = f (i, j + 1) −f (i, j)
... (2)

さらに、2次微分値は、この際、1次微分値の差分が用いられる。すなわち、水平方向に図60Cで示されるように画素f(i−1,j),f(i,j),f(i+1,j)が配置され、垂直方向に図60Dで示されるように画素f(i,j−1),f(i,j),f(i,j+1)が配置されていた場合、水平方向の画素間の2次微分値をfxxとし、垂直方向の画素間の2次微分値をfyyとするとき、以下の式(3),式(4)のような関係から、2次微分値は演算される。 Further, as the secondary differential value, the difference of the primary differential value is used at this time. That is, pixels f (i−1, j), f (i, j), f (i + 1, j) are arranged in the horizontal direction as shown in FIG. 60C, and pixels are arranged in the vertical direction as shown in FIG. 60D. When f (i, j−1), f (i, j), f (i, j + 1) are arranged, the second order differential value between pixels in the horizontal direction is f xx, and When the secondary differential value is f yy , the secondary differential value is calculated from the relationship as in the following formulas (3) and (4).

fxx(i,j)=fx(i,j)−fx(i+1,j)
={f(i+1,j)−f(i,j)}−{f(i,j)−f(i−1,j)}
=f(i+1,j)−2×f(i,j)+f(i−1,j)
・・・(3)
fyy(i,j)=fy(i,j+1)−fy(i,j)
={f(i,j+1)−f(i,j)}−{f(i,j)−f(i,j−1)}
=f(i,j+1)−2×f(i,j)+f(i,j−1)
・・・(4)
f xx (i, j) = f x (i, j) −f x (i + 1, j)
= {F (i + 1, j) -f (i, j)}-{f (i, j) -f (i-1, j)}
= F (i + 1, j) -2 × f (i, j) + f (i-1, j)
... (3)
f yy (i, j) = f y (i, j + 1) −f y (i, j)
= {F (i, j + 1) -f (i, j)}-{f (i, j) -f (i, j-1)}
= F (i, j + 1) -2 × f (i, j) + f (i, j-1)
... (4)

ラプラシアン▽2f(i,j)は、以上の関係から以下の式(5)で示されるように定義される。 Laplacian ▽ 2 f (i, j) is defined as shown by the following formula (5) from the above relationship.

2f(i,j)=fxx(i,j)+fyy(i,j)
=f(i+1,j)−2×f(i,j)+f(i−1,j)+f(i,j+1)−2×f(i,j)+f(i,j−1)
=f(i+1,j)+f(i−1,j)+f(i,j+1)+f(i,j−1)−4×f(i,j)
・・・(5)
2 f (i, j) = f xx (i, j) + f yy (i, j)
= F (i + 1, j) -2 * f (i, j) + f (i-1, j) + f (i, j + 1) -2 * f (i, j) + f (i, j-1)
= F (i + 1, j) + f (i−1, j) + f (i, j + 1) + f (i, j−1) −4 × f (i, j)
... (5)

従って、原画像f(i,j)からラプラシアン▽2f(i,j)を差し引くことで、以下の式(6)よりエッジ強調された画像の画素値g(i,j)が導出されることになる。 Therefore, by subtracting Laplacian ▽ 2 f (i, j) from the original image f (i, j), the pixel value g (i, j) of the edge-enhanced image is derived from the following equation (6). It will be.

g(i,j)=f(i,j)−▽2f(i,j)
=f(i,j)−(f(i+1,j)+f(i−1,j)+f(i,j+1)+f(i,j−1)−4×f(i,j))
=−f(i+1,j)−f(i−1,j)−f(i,j+1)−f(i,j−1)+5×f(i,j))
・・・(6)
g (i, j) = f (i, j) − ▽ 2 f (i, j)
= F (i, j) − (f (i + 1, j) + f (i−1, j) + f (i, j + 1) + f (i, j−1) −4 × f (i, j))
= −f (i + 1, j) −f (i−1, j) −f (i, j + 1) −f (i, j−1) + 5 × f (i, j))
... (6)

上述の式(6)は、図61Aで示されるように、注目画素(図中中央の画素)について、上下左右に存在する合計4画素(注目画素を含めて5画素)についての2次微分値を用いたフィルタによる具体的な演算である。ここで、図61Aにおいては、上段から下段に向かって、かつ、左から右に向って0,−1,0,−1,5,−1,0,−1,0の3画素×3画素のフィルタ(ラプラシアンフィルタ)であるが、斜め方向は、全て0が配置されているため、実質的に注目画素と上下左右の5画素についてのフィルタとなっている。   As shown in FIG. 61A, the above-described formula (6) is a second-order differential value for a total of four pixels (5 pixels including the target pixel) that exist vertically and horizontally for the target pixel (center pixel in the figure). This is a specific calculation by a filter using. Here, in FIG. 61A, 3 pixels × 3 pixels of 0, −1, 0, −1, 5, −1, 0, −1, 0 from the top to the bottom and from the left to the right. However, since all 0s are arranged in the oblique direction, the filter is substantially for the pixel of interest and the top, bottom, left, and right pixels.

そこで、斜め方向も考慮するような場合、図61Bで示されるように、上段から下段に向かって、かつ、左から右に向かって−1,−1,−1,−1,5,−1,−1,−1,−1の3画素×3画素の実質的に注目画素を含む9画素のフィルタとしてもよい。   Therefore, when the oblique direction is also taken into consideration, as shown in FIG. 61B, -1, -1, -1, -1, -1,5, -1 from the upper stage to the lower stage and from the left to the right , −1, −1, −1, 3 pixels × 3 pixels, a 9-pixel filter that substantially includes the target pixel.

尚、エッジ強調部832によるエッジ強調の処理は、以上のようにラプラシアンフィルタを用いた処理に限るものではなく、入力画像のエッジ部を強調する処理が実現できればよく、例えば、入力画像をFFT(Fast Fourier Transform)により変換し、空間周波数領域で高周波成分により強調した後、逆FFTにより空間領域に戻すことによりエッジを強調するようにしてもよい。   Note that the edge enhancement processing by the edge enhancement unit 832 is not limited to the processing using the Laplacian filter as described above, and it is only necessary to realize the processing for enhancing the edge portion of the input image. After transforming by Fast Fourier Transform) and emphasizing with a high frequency component in the spatial frequency domain, the edge may be enhanced by returning to the spatial domain by inverse FFT.

ここで、図58のフローチャートの説明に戻る。   Now, the description returns to the flowchart of FIG.

ステップS424において、エッジ抽出部833は、エッジ強調部832より入力されたエッジが強調されている入力画像からエッジ抽出フィルタを用いて、エッジを抽出した画像(エッジ部のみから構成される画像)を生成し、エッジ判定部834に出力する。より詳細には、例えば、エッジ抽出部833は、エッジ部の画素を1として、それ以外の部分の画素を0としたエッジ部分のみを認識することができる2値画像を生成する。   In step S424, the edge extraction unit 833 uses the edge extraction filter from the input image in which the edge input from the edge enhancement unit 832 is emphasized to extract an image (image including only the edge portion). Generate and output to the edge determination unit 834. More specifically, for example, the edge extraction unit 833 generates a binary image that can recognize only the edge portion in which the pixel in the edge portion is 1 and the pixels in other portions are 0.

ここで、エッジ抽出フィルタについて説明する。   Here, the edge extraction filter will be described.

エッジ部は、上述のように隣接する画素間の画素値(今の処理では、輝度値)が急激に変化している部分である。そこで、エッジ抽出部833は、隣接する画素間で求められる画素値の差分、すなわち微分値から以下の式(7)で定義される値を閾値と比較し、閾値以上であればエッジ部であると判定する。   The edge portion is a portion where the pixel value between adjacent pixels (in the current processing, the luminance value) changes rapidly as described above. Therefore, the edge extraction unit 833 compares the difference between pixel values obtained between adjacent pixels, that is, a value defined by the following expression (7) from the differential value, and if it is equal to or greater than the threshold, it is an edge part. Is determined.

|▽f(i,j)|=√(fx 2(i,j)+fy 2(i,j))
・・・(7)
| ▽ f (i, j) | = √ (f x 2 (i, j) + f y 2 (i, j))
... (7)

ここで、式(7)において、fx(i,j)およびfy(i,j)は、上述の式(1),(2)と同様である。すなわち、水平方向の1次微分値fx(i,j)は、図62Aで示されるような隣接する画素の画素値(輝度値)に図中の値(各マス目は、画素を示し、左のマス目から−1,1)を乗じて加算したものであり、同様にして、垂直方向の1次微分値fy(i,j)は、図62Bで示されるような隣接する画素の画素値(輝度値)に図中の値(各マス目は、画素を示し、上のマス目から−1,1)を乗じて加算したものである。尚、注目画素は、図62A中の左右どちらでもよく、また、図62B中の上下のいずれであってもよい。 Here, in Expression (7), f x (i, j) and f y (i, j) are the same as Expressions (1) and (2) described above. That is, the horizontal differential value f x (i, j) in the horizontal direction is the same as the pixel value (luminance value) of an adjacent pixel as shown in FIG. 62A (each square represents a pixel, In the same way, the first-order differential value f y (i, j) in the vertical direction is obtained by multiplying the adjacent pixels as shown in FIG. The pixel value (luminance value) is multiplied by the value in the figure (each square represents a pixel, and -1, 1 from the upper square) and added. Note that the pixel of interest may be either the left or right in FIG. 62A, or may be either the upper or lower in FIG. 62B.

尚、式(7)で示した演算処理は、全画素について演算するには、処理時間がかなり必要となるため、処理の高速化を図るため、以下の式(8)、または、式(9)を近似式として代用するようにしてもよい。   In addition, since the processing time shown in Expression (7) requires a considerable processing time to calculate all pixels, the following Expression (8) or Expression (9) is used in order to increase the processing speed. ) May be substituted as an approximate expression.

|▽f(i,j)|≒|fx(i,j)|+|fy(i,j)|
・・・(8)
|▽f(i,j)|≒Max(|fx(i,j)|,|fy(i,j)|)
・・・(9)
| ▽ f (i, j) | ≒ | f x (i, j) | + | f y (i, j) |
... (8)
| ▽ f (i, j) | ≒ Max (| f x (i, j) |, | f y (i, j) |)
... (9)

ここで、Max(A,B)は、A,Bのうち、いずれか大きい方の値を示す。   Here, Max (A, B) indicates a larger value of A and B.

以上においては、隣接画素として注目画素の左右のいずれか、および、上下のいずれかの画素を選択した場合のエッジ抽出方法であるが、例えば、図63で示すように、注目画素に対して斜め方向に隣接する画素との画素値の差分からエッジを抽出するようにしてもよい。図63Aにおいて、注目画素は、左下の画素、または、右上の画素のいずれかであり、図63Bにおいては、左上の画素、または、右下の画素である。また、各画素の画素値に対して乗じる係数は、図63Aの場合、上から下に、かつ、左から右に、0,1,0,−1であり、また、図63Bの場合、上から下に、かつ、左から右に、1,0,−1,0である。   In the above description, the edge extraction method is performed when either the left or right pixel of the target pixel and the upper or lower pixel are selected as the adjacent pixels. For example, as shown in FIG. You may make it extract an edge from the difference of the pixel value with the pixel adjacent to a direction. 63A, the target pixel is either the lower left pixel or the upper right pixel, and in FIG. 63B, the upper left pixel or the lower right pixel. Further, the coefficients to be multiplied with the pixel values of the respective pixels are 0, 1, 0, −1 from the top to the bottom and from the left to the right in the case of FIG. 63A, and in the case of FIG. 1, 0, -1, 0 from left to right and from left to right.

この斜め方向に隣接する画素間の画素値の差分からエッジを抽出するフィルタをRobertsのエッジ検出フィルタ(以下、ロベルツフィルタとも称する)という。   A filter that extracts an edge from a difference in pixel values between pixels adjacent in the oblique direction is referred to as a Roberts edge detection filter (hereinafter also referred to as a Roberts filter).

このロベルツフィルタを用いた場合、上述の式(7)に対応する式は、以下の式(10)となる。   When this Roberts filter is used, the equation corresponding to the above equation (7) is the following equation (10).

|▽f(i,j)|=√((f(i,j)−f(i+1,j+1))2+(f(i+1,j)−f(i,j+1))2)
・・・(10)
| ▽ f (i, j) | = √ ((f (i, j) −f (i + 1, j + 1)) 2 + (f (i + 1, j) −f (i, j + 1 )) 2 )
... (10)

従って、ロベルツフィルタを使用する場合、上述の式(10)の関係を用いてエッジが検出されることになる。さらに、同様にして、上述の式(10)の演算をより高速化させるため、以下の式(11),式(12)で示されるような簡易式を用いるようにしてもよい。   Therefore, when the Roberts filter is used, the edge is detected using the relationship of the above formula (10). Furthermore, similarly, in order to speed up the calculation of the above formula (10), simple formulas as shown in the following formulas (11) and (12) may be used.

|▽f(i,j)|≒|(f(i,j)−f(i+1,j+1)|+|f(i+1,j)−f(i,j+1)|
・・・(11)
|▽f(i,j)|≒Max(|(f(i,j)−f(i+1,j+1)|,|f(i+1,j)−f(i,j+1)|)
・・・(12)
| ▽ f (i, j) | ≒ | (f (i, j) −f (i + 1, j + 1) | + | f (i + 1, j) −f (i, j + 1) |
(11)
| ▽ f (i, j) | ≒ Max (| (f (i, j) −f (i + 1, j + 1) |, | f (i + 1, j) −f (i, j + 1) ) |)
(12)

さらに、以上の方法で、エッジを求めるようにしてもよいが、例えば、以上の式(1)におけるfx(i,j)は、厳密な意味において、(i,j)の座標上に存在する注目画素の1次微分値を求めているのではなく、fx(i+05,j)の1次微分値を求めていることに他ならない。そこで、図64Aで示されるように、注目画素(図64A中の中央の画素)に対して水平方向に隣接する左右の画素間、および、図64Bで示されるように、注目画素(図64B中の中央の画素)に対して垂直方向に隣接する上下の画素間の差分からそれぞれ注目画素位置の水平方向、および、垂直方向の1次微分値を求めるようにしてもよい。すなわち、図64Aにおいては、3画素×3画素の合計9画素に対してかけられるフィルタであるが、実質的には、注目画素の左右に隣接する画素間の差分が注目画素の水平方向の1次微分値として得られることになる。また、同様に、図64Bにおいても、3画素×3画素の合計9画素に対してかけられるフィルタであるが、実質的には、注目画素の上下に隣接する画素間の差分が注目画素の垂直方向の1次微分値として得られることになる。このフィルタによる処理により、差分を求める画素間の距離が大きくなる分、ノイズによる影響を小さくすることができる。 Further, the edge may be obtained by the above method. For example, f x (i, j) in the above equation (1) exists on the coordinates of (i, j) in a strict sense. In other words, the first-order differential value of f x (i + 05, j) is obtained instead of the first-order differential value of the target pixel. Therefore, as shown in FIG. 64A, the pixel of interest (in FIG. 64B) as shown in FIG. 64B and between the left and right pixels adjacent to the pixel of interest (center pixel in FIG. 64A) in the horizontal direction. The first-order differential values in the horizontal direction and the vertical direction of the target pixel position may be obtained from the difference between the upper and lower pixels adjacent to each other in the vertical direction. That is, in FIG. 64A, the filter is applied to a total of 9 pixels of 3 pixels × 3 pixels, but the difference between pixels adjacent to the left and right of the target pixel is substantially 1 in the horizontal direction of the target pixel. It will be obtained as a second derivative value. Similarly, in FIG. 64B, the filter is applied to a total of 9 pixels of 3 pixels × 3 pixels, but the difference between adjacent pixels above and below the target pixel is substantially the vertical of the target pixel. It is obtained as a first-order differential value in the direction. By the processing by this filter, the influence of noise can be reduced as the distance between pixels for which the difference is obtained increases.

さらに、図65Aで示されるように、注目画素について、左上、左側、および左下に隣接する画素の画素値の和と、右上、右側、および右下に隣接する画素の画素値の和との差分を求めてもよく、この場合、平滑化された水平方向の1次微分値を求める事が可能となる。図65Aにおいては、各画素の画素値に係数として上から下に向かって、かつ、左から右に向かって、−1,0,1,−1,0,1,−1,0,1の係数を乗じて和を取る処理がなされる。   Furthermore, as shown in FIG. 65A, for the target pixel, the difference between the sum of the pixel values of the pixels adjacent to the upper left, the left side, and the lower left and the sum of the pixel values of the pixels adjacent to the upper right, the right side, and the lower right In this case, a smoothed first-order differential value in the horizontal direction can be obtained. In FIG. 65A, the pixel value of each pixel is −1, 0, 1, −1, 0, 1, −1, 0, 1 as a coefficient from top to bottom and from left to right. A process of taking the sum by multiplying the coefficient is performed.

同様に、図65Bで示されるように、注目画素について、左上、上側、および右上に隣接する画素の画素値の和と、右下、下側、および左下に隣接する画素の画素値の和との差分を求めるようにしてもよく、この場合、平滑化された垂直方向の1次微分値を求めることが可能となる。図65Bにおいては、各画素の画素値に係数として上から下に向かって、かつ、左から右に向かって、−1,−1,−1,0,0,0,1,1,1の係数を乗じて和を取る処理がなされる。尚、図65A,Bで示されるようなフィルタは、一般に、Prewittのエッジ検出フィルタ(以下、プレウィットフィルタとも称する)と呼ばれる。   Similarly, as shown in FIG. 65B, for the target pixel, the sum of the pixel values of the pixels adjacent to the upper left, the upper side, and the upper right, and the sum of the pixel values of the pixels adjacent to the lower right, the lower side, and the lower left In this case, the smoothed first-order differential value can be obtained. In FIG. 65B, the pixel value of each pixel is −1, −1, −1, 0, 0, 0, 1, 1, 1 as coefficients from top to bottom and from left to right. A process of taking the sum by multiplying the coefficient is performed. The filters as shown in FIGS. 65A and 65B are generally called Prewitt edge detection filters (hereinafter also referred to as prewitt filters).

また、図66Aで示されるように、注目画素の水平方向に隣接する画素の画素値に対してのみ重みをつけて、係数を設定するようにしてもよい。すなわち、図66Aにおいては、各画素の画素値に係数として上から下に向かって、かつ、左から右に向かって、−1,0,1,−2,0,2,−1,0,1の係数を乗じて和を取る処理がなされる。   Also, as shown in FIG. 66A, the coefficient may be set by weighting only the pixel values of the pixels adjacent to the target pixel in the horizontal direction. That is, in FIG. 66A, the pixel value of each pixel is −1,0,1, −2,0,2, −1,0, from the top to the bottom as the coefficient and from the left to the right. A process of taking the sum by multiplying by a coefficient of 1 is performed.

同様にして、図66Bで示されるように、注目画素の垂直方向に隣接する画素の画素値に対してのみ重みをつけて、係数を設定するようにしてもよい。すなわち、図66Bにおいては、各画素の画素値に係数として上から下に向かって、かつ、左から右に向かって、−1,−2,−1,0,0,0,1,2,1の係数を乗じて和を取る処理がなされる。   Similarly, as shown in FIG. 66B, a coefficient may be set by weighting only the pixel values of pixels adjacent in the vertical direction of the target pixel. That is, in FIG. 66B, the pixel value of each pixel is −1, −2, −1, 0, 0, 0, 1, 2, 2, as coefficients from the top to the bottom and from the left to the right. A process of taking the sum by multiplying by a coefficient of 1 is performed.

図66A,Bで示されるようなフィルタの処理により、最も近い位置に隣接する画素の画素値に対して大きな重み付けを施す処理が可能となり、より正確なエッジ検出が可能となる。尚、図66A,Bで示されるようなフィルタは、一般に、Sobelのエッジ検出フィルタ(以下、ソーベルフィルタとも称する)と呼ばれる。   66A and 66B makes it possible to apply a large weight to the pixel value of the pixel adjacent to the closest position, and to perform more accurate edge detection. The filters as shown in FIGS. 66A and 66B are generally called Sobel edge detection filters (hereinafter also referred to as Sobel filters).

以上のようなエッジ検出フィルタを用いた処理により、例えば、図67で示されるような建築物の画像が入力画像である場合、図68の右部で示されるようにエッジ部(画素値が変化する部分)のみが、図中「白色」で表示され、それ以外の部分が「黒色」で表示された画像が生成され、これにより、エッジ部のみが抽出された画像が生成される。   By the processing using the edge detection filter as described above, for example, when a building image as shown in FIG. 67 is an input image, the edge portion (pixel value changes as shown in the right part of FIG. 68). Image in which only the edge portion is displayed in “white” in the figure and the other portions in “black” are generated, thereby generating an image in which only the edge portion is extracted.

ここで、図58のフローチャートの説明に戻る。   Now, the description returns to the flowchart of FIG.

ステップS425において、エッジ判定部834は、入力されたエッジ抽出フィルタにより処理された画像の各画素について、入力画像のエッジ上に存在する可能性の高い画素であるか否かを判定して、各画素毎の判定結果をエッジカウント部835に出力する。より具体的には、エッジ抽出された画像が、上述の2値画像である場合、エッジ部の画素値が1で、それ以外の部分の画素値が0であるとき、エッジ判定部834は、入力画像の各画素について、画素値が1であるか否かを判定し、判定結果をエッジカウント部835に出力する。   In step S425, the edge determination unit 834 determines whether each pixel of the image processed by the input edge extraction filter is a pixel that is highly likely to exist on the edge of the input image. The determination result for each pixel is output to the edge count unit 835. More specifically, when the edge extracted image is the above-described binary image, when the pixel value of the edge portion is 1 and the pixel value of the other portion is 0, the edge determination unit 834 For each pixel of the input image, it is determined whether or not the pixel value is 1, and the determination result is output to the edge count unit 835.

ステップS426において、エッジカウント部835は、エッジ判定部834より入力されたエッジの判定結果に基づいて、画像の水平方向、および、垂直方向のそれぞれの位置毎にエッジの可能性の高い画素の数をカウントし、カウント結果をDFT部836に出力する。すなわち、例えば、図68の右部に示されるエッジ抽出された画像の場合、図中、水平方向の右方向をx方向とし、また、垂直方向の下方向をy方向としたとき、図中右下部で示されるように、x方向の各座標位置と、その座標位置毎にエッジである可能性の高い画素(図中の白色の画素(画素値が1の画素))の数(図中の頻度)がカウントされ、そのカウント結果がDFT部836に出力される。   In step S426, the edge count unit 835 determines the number of pixels having a high possibility of edge for each of the horizontal and vertical positions of the image based on the edge determination result input from the edge determination unit 834. And the count result is output to the DFT unit 836. That is, for example, in the case of the edge extracted image shown in the right part of FIG. 68, when the right direction in the horizontal direction is the x direction and the downward direction in the vertical direction is the y direction, As shown in the lower part, each coordinate position in the x direction and the number of pixels (white pixels in the figure (pixels with a pixel value of 1)) that are likely to be edges for each coordinate position (in the figure Frequency) is counted, and the count result is output to the DFT unit 836.

図68中の右下部で示されるように、エッジが存在するx方向の各座標位置(図中では、建物の窓枠のエッジ部が存在するx方向の座標位置)上でエッジが繰り返しているので、エッジの可能性の高い画素の頻度も繰り返している。また、同様にして、図68中の左部で示されるように、エッジが存在するy方向の各座標位置(図中では、建物の窓枠のエッジ部が存在するy方向の座標位置)上でエッジが繰り返しているので、エッジの可能性の高い画素の頻度も繰り返している。   As shown in the lower right part of FIG. 68, the edge is repeated on each coordinate position in the x direction where the edge exists (in the figure, the coordinate position in the x direction where the edge portion of the window frame of the building exists). Therefore, the frequency of pixels having a high possibility of edge is also repeated. Similarly, as shown in the left part of FIG. 68, on each coordinate position in the y direction where the edge exists (in the figure, the coordinate position in the y direction where the edge part of the window frame of the building exists) Since the edge repeats, the frequency of pixels having a high possibility of the edge is also repeated.

結果として、水平方向と垂直方向のそれぞれの位置とエッジの発生頻度の関係が示されることになる。   As a result, the relationship between the position in the horizontal direction and the vertical direction and the occurrence frequency of the edge is shown.

ステップS427において、DFT部836は、エッジカウント部835より入力された水平方向と垂直方向のそれぞれの位置とエッジの可能性の高い画素の発生頻度の関係にDFT(離散フーリエ変換)処理を施して、その変換結果をピーク抽出部837に出力する。   In step S427, the DFT unit 836 performs DFT (discrete Fourier transform) processing on the relationship between the horizontal position and the vertical direction input from the edge count unit 835 and the occurrence frequency of pixels with a high possibility of edge. The conversion result is output to the peak extraction unit 837.

例えば、図68の右下部に示されている水平方向のエッジの発生頻度の関係は、DFT処理が施されることにより、図69で示されるようなx方向の空間周波数とフーリエ係数との関係に変換される。すなわち、図69において、横軸Fxは、x方向の空間周波数である。また、縦軸Pは、フーリエ変換された際の各空間周波数に対応するフーリエ級数組(実部と虚部の係数の組)のそれぞれの2乗の和である。一般に、図69で示されるような関係はパワースペクトルと呼ばれており、DFT部836は、図68の右下部に示されている水平(x)方向のエッジの可能性の高い画素の発生頻度の関係を、x方向についてのパワースペクトルに変換する。   For example, the relationship between the horizontal edge occurrence frequencies shown in the lower right part of FIG. 68 is the relationship between the spatial frequency in the x direction and the Fourier coefficient as shown in FIG. 69 by performing DFT processing. Is converted to That is, in FIG. 69, the horizontal axis Fx is the spatial frequency in the x direction. The vertical axis P is the sum of the squares of each of the Fourier series sets (a set of coefficients of the real part and the imaginary part) corresponding to each spatial frequency when Fourier transformed. In general, the relationship as shown in FIG. 69 is called a power spectrum, and the DFT unit 836 generates a pixel occurrence frequency with a high possibility of an edge in the horizontal (x) direction shown in the lower right part of FIG. Is converted into a power spectrum in the x direction.

また、同様にして、例えば、図68の左部に示されている垂直方向のエッジの可能性の高い画素の発生頻度の関係は、DFT処理が施されることにより、図70で示されるようなy方向の空間周波数とフーリエ係数との関係に変換される。すなわち、図70において、横軸は、y方向の空間周波数である。また、縦軸は、フーリエ変換された際の各空間周波数に対応するフーリエ級数組(実部と虚部の係数の組)のそれぞれの2乗の和である。すなわち、DFT部836は、図68の左部に示されている垂直(y)方向のエッジの可能性の高い画素の発生頻度の関係を、y方向についてのパワースペクトルに変換する。   Similarly, for example, the relationship between the occurrence frequencies of pixels with a high possibility of vertical edges shown in the left part of FIG. 68 is shown in FIG. 70 by performing DFT processing. It is converted into the relationship between the spatial frequency in the y direction and the Fourier coefficient. That is, in FIG. 70, the horizontal axis represents the spatial frequency in the y direction. The vertical axis represents the sum of the squares of the Fourier series group (a set of coefficients of the real part and the imaginary part) corresponding to each spatial frequency when Fourier transformed. That is, the DFT unit 836 converts the relationship between the occurrence frequencies of pixels having a high possibility of an edge in the vertical (y) direction shown in the left part of FIG. 68 into a power spectrum in the y direction.

ステップS428において、ピーク抽出部837は、DFT部836より入力されたx方向およびy方向についてのそれぞれのパワースペクトルのそれぞれのピーク位置となるx方向、および、y方向の空間周波数を抽出し、抽出したピーク位置となるx方向、および、y方向の空間周波数の値を分割数決定部838に出力する。   In step S428, the peak extraction unit 837 extracts and extracts the spatial frequencies in the x direction and the y direction that are the respective peak positions of the respective power spectra in the x direction and the y direction input from the DFT unit 836. The values of the spatial frequencies in the x direction and the y direction, which are the peak positions, are output to the division number determining unit 838.

すなわち、図69,図70で示されるようなx方向、および、y方向のパワースペクトルが検出された場合、ピーク抽出部837は、図69のx方向のパワースペクトルにおけるピーク値をとるx方向の空間周波数Fx-max、および、図70のy方向のパワースペクトルにおけるピーク値をとるy方向の空間周波数Fy-maxをそれぞれ抽出し、抽出した空間周波数Fx-max,Fy-maxを分割数決定部838に出力する。   That is, when the power spectrum in the x direction and the y direction as shown in FIG. 69 and FIG. 70 is detected, the peak extraction unit 837 takes the peak value in the power spectrum in the x direction in FIG. Spatial frequency Fx-max and y-direction spatial frequency Fy-max taking a peak value in the y-direction power spectrum of FIG. 70 are extracted, and the extracted spatial frequencies Fx-max and Fy-max are divided into number determining units. 838.

ステップS429において、分割数決定部838は、ピーク抽出部837より入力されたx方向と、y方向のそれぞれのパワースペクトルのピーク値をとる空間周波数Fx-max,Fy-maxに基づいて、x方向とy方向のそれぞれについての画像上に発生するエッジの周期を求める。空間周波数が、x方向、または、y方向の単位長さ当たりのエッジの発生頻度であるから、エッジの発生する周期は、その逆数であり、エッジの発生するx方向、または、y方向の距離の間隔(距離の単位は画素数)である。そこで、分割数決定部838は、x方向と、y方向のそれぞれのパワースペクトルのピーク値をとる空間周波数Fx-max,Fy-maxのそれぞれの逆数を取って、x方向のエッジの発生する周期(1/Fx-max)(エッジの発生するx方向の間隔を示す画素数)、および、y方向のエッジの発生する周期(1/Fy-max)(エッジの発生するy方向の間隔を示す画素数)を求める。   In step S429, the division number determination unit 838 determines the x direction based on the spatial frequencies Fx-max and Fy-max that take the peak values of the respective power spectra in the x direction and y direction input from the peak extraction unit 837. And a cycle of edges generated on the image in each of the y direction. Since the spatial frequency is the frequency of occurrence of edges per unit length in the x-direction or y-direction, the period in which the edges are generated is the reciprocal thereof, and the distance in the x-direction or y-direction in which the edges are generated (The unit of distance is the number of pixels). Therefore, the division number determination unit 838 takes the reciprocal of each of the spatial frequencies Fx-max and Fy-max that take the peak values of the power spectrum in the x direction and the y direction, and the period in which the edge in the x direction occurs. (1 / Fx-max) (number of pixels indicating the interval in the x direction where an edge occurs) and the cycle (1 / Fy-max) where the edge in the y direction occurs (indicating the interval in the y direction where the edge occurs) The number of pixels).

ステップS430において、分割数決定部838は、エッジの発生周期に基づいて、入力画像のx方向とy方向の(水平方向、および、垂直方向の)それぞれの分割数を決定し、決定したx方向の分割数Dx、および、y方向の分割数Dyの情報を画像分割部839に出力する。すなわち、分割数決定部838は、画像入力部831より入力される画像サイズの情報である入力画像のx方向の画素数と、y方向の画素数を、それぞれx方向のエッジの発生周期(1/Fx-max)、および、y方向のエッジの発生周期(1/Fy-max)で割ることにより、x方向、および、y方向の入力画像の分割数Dx,Dyを決定する。   In step S430, the division number determination unit 838 determines the number of divisions in the x direction and the y direction (horizontal direction and vertical direction) of the input image based on the edge generation period, and determines the determined x direction. Information of the number of divisions Dx and the number of divisions Dy in the y direction are output to the image dividing unit 839. That is, the division number determination unit 838 determines the number of pixels in the x direction and the number of pixels in the y direction, which are information of the image size input from the image input unit 831, respectively, as the edge generation period (1 / Fx-max) and the edge generation period (1 / Fy-max) in the y direction, the division numbers Dx and Dy of the input image in the x direction and the y direction are determined.

ステップS431において、画像分割部839は、分割数決定部838より入力された分割数Dx,Dyの情報に基づいて、画像入力部831より入力される入力画像を分割し、分割した複数の画像を色付画像出力部840に出力する。すなわち、画像分割部839は、図67で示されるような画像が入力画像である場合、図71で示されるように、x方向については、(1/Fx-max)の間隔(図中のx軸の真上に示されている実線の矢印の間隔)で、y方向については、(1/Fy-max)の間隔(図中のy軸の左横に示されている破線の矢印の間隔)で、画像をブロック状に分割して、分割したブロック状の画像を色付画像出力部840に出力する。従って、画像分割部839は、入力画像を、x方向に(1/Fx-max)×y方向に(1/Fy-max)のサイズからなる、総数(Dx×Dy)個のブロックに分割して出力する。   In step S431, the image dividing unit 839 divides the input image input from the image input unit 831 based on the information on the division numbers Dx and Dy input from the division number determining unit 838, and the divided plurality of images. The image is output to the colored image output unit 840. That is, when the image as shown in FIG. 67 is an input image, the image dividing unit 839 has an interval of (1 / Fx-max) (x in the figure) in the x direction as shown in FIG. In the y direction, (1 / Fy-max) interval (interval of dashed arrows shown on the left side of the y axis in the figure) ), The image is divided into blocks, and the divided block images are output to the colored image output unit 840. Therefore, the image dividing unit 839 divides the input image into a total number (Dx × Dy) blocks having a size of (1 / Fx-max) × (1 / Fy-max) in the y direction. Output.

ステップS432において、色付画像出力部840は、画像分割部839より入力された、分割されているブロック状の画像毎に、そのブロック状の画像に含まれた全画素の画素値(輝度値)の平均画素値を代表画素値として求め、各ブロック状の画像毎に、そのブロック状の画像に属する全ての画素を、その代表画素値に設定して順次出力する。その結果、色付画像出力部840は、図67で示されるような入力画像が入力された場合、入力画像を図72で示されるようなモザイク状の画像に変換して出力する。すなわち、図67で示されたような入力画像は、総数(Dx×Dy)個のブロックからなるモザイク状の低解像度化された画像に変換される。   In step S432, the colored image output unit 840 inputs the pixel values (luminance values) of all the pixels included in the block-shaped image for each divided block-shaped image input from the image dividing unit 839. Are obtained as representative pixel values, and for each block-like image, all pixels belonging to the block-like image are set to the representative pixel value and sequentially output. As a result, when the input image as shown in FIG. 67 is input, the colored image output unit 840 converts the input image into a mosaic-like image as shown in FIG. 72 and outputs it. That is, the input image as shown in FIG. 67 is converted into a mosaic-like image with reduced resolution, which is composed of a total of (Dx × Dy) blocks.

ステップS433において、画像入力部831は、次の画像が入力されたか否かを判定し、次の入力画像が入力されたと判定された場合、その処理は、ステップS421に戻り、それ以降の処理が繰り返される。すなわち、入力画像が順次入力されている限り、ステップS421乃至S433の処理が繰り返される。   In step S433, the image input unit 831 determines whether or not the next image has been input. If it is determined that the next input image has been input, the processing returns to step S421, and the subsequent processing is performed. Repeated. That is, as long as input images are sequentially input, the processes in steps S421 to S433 are repeated.

ステップS433において、次の画像が入力されてきていないと判定された場合、その処理は、終了する。   If it is determined in step S433 that the next image has not been input, the process ends.

すなわち、図57の画像変換装置821は、入力画像上のエッジの周期に基づいて、水平方向と垂直方向の分割数を決定することができるので、画像を認識するために必要な情報を残せるようにモザイク状のブロックの大きさを設定し、そのブロックの大きさで、入力画像を低解像度化するように変換させることができる。その結果、変換された画像は、人の目で認識することができる状態で、低解像度化されることになる。   That is, the image conversion apparatus 821 in FIG. 57 can determine the number of divisions in the horizontal direction and the vertical direction based on the period of the edge on the input image, so that information necessary for recognizing the image can be left. The size of the mosaic block can be set in the input image, and the input image can be converted to reduce the resolution with the size of the block. As a result, the resolution of the converted image is reduced in a state where it can be recognized by human eyes.

従って、高解像度画像として処理する必要のない画像(例えば、高解像度の画像として表示したり、保存したりする必要のない画像)については、上述の手法により、人の目で認識することができる状態で、低解像度化させることができるので、各種の処理(例えば、転送、表示、または、記録など)にかかる負荷を低減させることができ、さらに、低解像度化された状態で表示しても、人の目で何が表示されているかを認識することが可能となる。   Therefore, an image that does not need to be processed as a high-resolution image (for example, an image that does not need to be displayed or stored as a high-resolution image) can be recognized by the human eye using the above-described method. Since the resolution can be reduced in the state, the load on various processes (for example, transfer, display, or recording) can be reduced, and even when the resolution is reduced, the display can be performed. It becomes possible to recognize what is displayed by the human eye.

なお、ステップS432の処理において、色付画像出力部840が、各ブロックの平均画素値を代表画素値として設定する例について説明してきたが、その他の方法で代表画素値を設定するようにしてもよく、例えば、各ブロックの最頻値、各ブロックの中央値、各ブロックの最大値と最小値の平均値、または、各ブロックの重心位置に存在する画素の画素値などを代表値として設定するようにしてもよい。   In the processing of step S432, the example in which the colored image output unit 840 sets the average pixel value of each block as the representative pixel value has been described, but the representative pixel value may be set by other methods. For example, the mode value of each block, the median value of each block, the average value of the maximum and minimum values of each block, or the pixel value of a pixel existing at the center of gravity of each block is set as a representative value. You may do it.

図57乃至図72の処理によれば、エッジ強調部832が、入力画像よりエッジを強調し(ステップS423の処理)、エッジ抽出部833が、入力画像のエッジを抽出し(ステップS424の処理)、エッジ判定部834によりエッジと判定された画素がエッジカウント部835により水平方向、および、垂直方向の位置毎にカウントされ(ステップS426の処理)、DFT部836が、カウントされた水平方向、および、垂直方向の位置毎の画素数の結果を離散フーリエ変換してパワースペクトルを生成し(ステップS427の処理)、ピーク抽出部837が、パワースペクトルのピークの空間周波数を抽出し(ステップS428の処理)、分割数決定部838が、ピーク抽出された空間周波数に基づいて、入力画像のエッジの周期を検出し(ステップS429)、さらに検出されたエッジの周期に基づいて、入力画像の分割数を決定し(ステップS430)、画像分割部839が、入力画像を決定された分割数で複数のブロックに分割し(ステップS431)、色付画像出力部840が、分割されたブロック(状の画像)毎に全ての画素の画素値を、所定の画素値(ブロックの全画素の平均画素値)に変換して出力するようにしたので、入力画像を人の目で認識することができる状態で、低解像度化させることが可能となる。   57 to 72, the edge enhancement unit 832 emphasizes edges from the input image (step S423), and the edge extraction unit 833 extracts edges of the input image (step S424). The pixels determined as edges by the edge determination unit 834 are counted for each position in the horizontal direction and the vertical direction by the edge counting unit 835 (processing in step S426), and the DFT unit 836 The result of the number of pixels for each position in the vertical direction is subjected to discrete Fourier transform to generate a power spectrum (processing in step S427), and the peak extraction unit 837 extracts the spatial frequency of the peak of the power spectrum (processing in step S428). ), The division number determination unit 838 detects the edge period of the input image based on the peak extracted spatial frequency. (Step S429) Further, based on the detected edge cycle, the number of divisions of the input image is determined (Step S430), and the image dividing unit 839 divides the input image into a plurality of blocks with the determined number of divisions. (Step S431), the colored image output unit 840 converts the pixel value of all pixels into a predetermined pixel value (average pixel value of all pixels of the block) for each divided block (like image). Since the output is performed, the resolution can be reduced in a state where the input image can be recognized by human eyes.

このようにして画像変換装置821から出力された、モザイク状の低解像度化された画像データを、図1のブロック化装置12に入力するようにしてもよい。この場合、図13のステップS54の処理により、類似色の隣接ブロックが統合されるので、画像を任意の大きさのブロックに分割することができる。すなわち、ブロック画像を生成することができる。   In this way, the image data with a reduced resolution in a mosaic shape output from the image conversion device 821 may be input to the blocking device 12 in FIG. In this case, the adjacent blocks of similar colors are integrated by the process of step S54 in FIG. 13, so that the image can be divided into blocks of an arbitrary size. That is, a block image can be generated.

なお、以上の例では、テクスチャ生成装置14が、連続領域抽出装置13から供給された連続領域データ23に基づいて、テクスチャデータを生成するようにしたが、連続領域データ23に限らず、テクスチャ生成装置14にデジタルスチルカメラなどにより撮像されたモザイク画像などを入力し、テクスチャデータを生成するようにしてもよい。   In the above example, the texture generation device 14 generates the texture data based on the continuous region data 23 supplied from the continuous region extraction device 13, but the texture generation is not limited to the continuous region data 23. A mosaic image captured by a digital still camera or the like may be input to the device 14 to generate texture data.

さらに、図12乃至図16を用いて説明したブロック化装置12においては、ブロック化した画像データをそのまま出力するようにしたが、図34のファイル生成部405を、図12のブロック化装置の類似色統合部184の後段にさらに設けるようにして、ブロック化した画像データを、ファイルとして出力するようにしてもよい。この場合、ブロック化装置12に設けられたファイル生成部は、上述した図42を用いて説明した処理を実行することで、ブロック画像データの繰り返し成分に基づいてファイルを生成することができる。   Further, in the blocking device 12 described with reference to FIGS. 12 to 16, the blocked image data is output as it is. However, the file generation unit 405 in FIG. 34 is similar to the blocking device in FIG. Block image data may be output as a file by further providing it after the color integration unit 184. In this case, the file generation unit provided in the blocking device 12 can generate a file based on the repetitive component of the block image data by executing the processing described with reference to FIG.

また、図12乃至図16を用いて説明したブロック化装置12により生成されたブロック画像を、ブロックフォーマットとして扱うようにしてもよいし、図17乃至図32を用いて説明した連続領域抽出装置13により生成された連続領域がまとめられたブロック画像を、ブロックフォーマットとして扱うようにしてもよい。   Also, the block image generated by the blocking device 12 described with reference to FIGS. 12 to 16 may be handled as a block format, or the continuous region extracting device 13 described with reference to FIGS. The block image in which the continuous areas generated by the above are collected may be handled as a block format.

なお、以上において、各部において最頻の値を求めている個所があるが、最頻の値に限らず、平均値や中央値であってもよい。また、逆に、平均値を求めている個所についても、平均値に限らず、最頻の値や中央値であってもよい。さらに、最頻値、中央値および平均値をまとめて統計的代表値としてもよい。   In the above, there is a place where the most frequent value is obtained in each part. However, the value is not limited to the most frequent value, and may be an average value or a median value. Conversely, the location where the average value is obtained is not limited to the average value, and may be the most frequent value or the median value. Further, the mode value, the median value, and the average value may be collected as a statistical representative value.

また、水平方向と垂直方向は、それぞれ略水平方向と略垂直方向と読み替えてもよい。   Further, the horizontal direction and the vertical direction may be read as a substantially horizontal direction and a substantially vertical direction, respectively.

上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。この場合、上述した図2、図7、図13、図18、図20、図23、図36、図42、図45、および図46の処理は、図73に示されるようなパーソナルコンピュータ900により実行される。   The series of processes described above can be executed by hardware or can be executed by software. In this case, the processing shown in FIGS. 2, 7, 13, 18, 20, 23, 36, 42, 45, and 46 is performed by a personal computer 900 as shown in FIG. Executed.

図73において、CPU901は、ROM902に記憶されているプログラム、または、記憶部908からRAM903にロードされたプログラムに従って各種の処理を実行する。RAM903にはまた、CPU901が各種の処理を実行する上において必要なデータなどが適宜記憶される。   In FIG. 73, the CPU 901 executes various processes according to a program stored in the ROM 902 or a program loaded from the storage unit 908 to the RAM 903. The RAM 903 also appropriately stores data necessary for the CPU 901 to execute various processes.

CPU901、ROM902、およびRAM903は、内部バス904を介して相互に接続されている。この内部バス904にはまた、入出力インターフェース905も接続されている。   The CPU 901, ROM 902, and RAM 903 are connected to each other via an internal bus 904. An input / output interface 905 is also connected to the internal bus 904.

入出力インターフェース905には、キーボード、マウスなどよりなる入力部906、CRT,LCDなどよりなるディスプレイ、スピーカなどよりなる出力部907、ハードディスクなどより構成される記憶部908、並びに、モデム、ターミナルアダプタなどより構成される通信部909が接続されている。通信部909は、電話回線やCATVを含む各種のネットワークを介しての通信処理を行う。   The input / output interface 905 includes an input unit 906 including a keyboard and a mouse, a display including a CRT and an LCD, an output unit 907 including a speaker, a storage unit 908 including a hard disk, a modem, a terminal adapter, and the like. A communication unit 909 is connected. The communication unit 909 performs communication processing via various networks including a telephone line and CATV.

入出力インターフェース905にはまた、必要に応じてドライブ910が接続され、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリなどによりなるリムーバブルメディア921が適宜装着され、それから読み出されたコンピュータプログラムが、必要に応じて記憶部908にインストールされる。   A drive 910 is also connected to the input / output interface 905 as necessary, and a removable medium 921 composed of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted, and a computer program read therefrom is It is installed in the storage unit 908 as necessary.

一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、ネットワークや記録媒体からインストールされる。   When a series of processing is executed by software, a program constituting the software is installed from a network or a recording medium.

この記録媒体は、図73に示されるように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されているリムーバブルメディア921よりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM902や記憶部908が含まれるハードディスクなどで構成される。   As shown in FIG. 73, this recording medium is not only composed of a package medium consisting of a removable medium 921 on which a program is recorded, which is distributed to provide a program to the user, separately from the computer. , A ROM 902 in which a program is recorded and a hard disk including a storage unit 908 provided to the user in a state of being pre-installed in the apparatus main body.

なお、本明細書において、コンピュータプログラムを記述するステップは、記載された順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing a computer program includes not only processing performed in time series according to the described order but also processing executed in parallel or individually even if not necessarily processed in time series. Is also included.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表わすものである。   Further, in this specification, the system represents the entire apparatus composed of a plurality of apparatuses.

本発明を適用した画像処理システムの全体の構成例を示す図である。1 is a diagram illustrating an example of the overall configuration of an image processing system to which the present invention is applied. 図1の画像処理システムにおける画像処理を説明するフローチャートである。2 is a flowchart illustrating image processing in the image processing system of FIG. 1. 図1の繰り返し周期抽出装置の機能的構成例を説明する図である。It is a figure explaining the functional structural example of the repetition period extracting device of FIG. 処理の対象となる画像の例を説明する図である。It is a figure explaining the example of the image used as the object of a process. 図4の画像の繰り返しの領域を説明する図である。It is a figure explaining the area | region of a repetition of the image of FIG. 図5の画像から主要エッジを抽出した場合の画像を説明する図である。It is a figure explaining the image at the time of extracting a main edge from the image of FIG. 図2のステップS11の繰り返し周期抽出処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of the repetition period extraction process of step S11 of FIG. 抽出された水平方向のエッジを説明する図である。It is a figure explaining the edge of the extracted horizontal direction. 2本のエッジの出現間隔を説明する図である。It is a figure explaining the appearance interval of two edges. エッジの出現間隔の最頻値を説明する図である。It is a figure explaining the mode value of the appearance interval of an edge. 連鎖と連鎖の長さを説明する図である。It is a figure explaining the length of a chain and a chain. 図1のブロック化装置の機能的構成例を説明する図である。It is a figure explaining the functional structural example of the blocking apparatus of FIG. 図2のステップS12のブロック化処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of the blocking process of step S12 of FIG. 繰り返し周期の延長を説明する図である。It is a figure explaining extension of a repetition period. 追加する補助線を説明する図である。It is a figure explaining the auxiliary line to add. 分割された画像を説明する図である。It is a figure explaining the divided | segmented image. 図1の連続領域抽出装置の機能的構成例を示す図である。It is a figure which shows the functional structural example of the continuous area | region extraction apparatus of FIG. 図2のステップS13の連続領域抽出処置の詳細を説明するフローチャートである。It is a flowchart explaining the detail of the continuous area | region extraction treatment of step S13 of FIG. 図17の画像入力部が受け付けるブロック画像の例を説明する図である。It is a figure explaining the example of the block image which the image input part of FIG. 17 accepts. 図18のステップS62の水平方向走査により画像を垂直方向に分割する処理の詳細を説明するフローチャートである。FIG. 19 is a flowchart for explaining details of processing for dividing an image in the vertical direction by horizontal scanning in step S62 in FIG. 18; FIG. 垂直方向の画像の分割位置を説明する図である。It is a figure explaining the division | segmentation position of the image of a perpendicular direction. 垂直方向に分割された領域を説明する図である。It is a figure explaining the area | region divided | segmented into the perpendicular direction. 図18のステップS64の水平方向走査により垂直方向の類似領域を置き換える処理の詳細を説明するフローチャートである。FIG. 19 is a flowchart for explaining details of processing for replacing a similar region in the vertical direction by horizontal scanning in step S64 of FIG. 18. FIG. 色分布が類似する領域の検出を説明する図である。It is a figure explaining the detection of the area | region where color distribution is similar. 代表の色分布で置き換えた領域を説明する図である。It is a figure explaining the area | region replaced by the representative color distribution. 代表の色を説明する図である。It is a figure explaining a representative color. 代表の色分布で置き換える領域を説明する図である。It is a figure explaining the area | region replaced with a representative color distribution. 入力される画像の例を示す図である。It is a figure which shows the example of the image input. 画像の色分布に基づいて複数の領域に分割されたブロックを説明する図である。It is a figure explaining the block divided | segmented into the several area | region based on the color distribution of an image. 水平方向と垂直方向の類似するブロックの統合を説明する図である。It is a figure explaining integration of the similar block of a horizontal direction and a perpendicular direction. 垂直方向の連続領域の統合を説明する図である。It is a figure explaining integration of the continuous area | region of a perpendicular direction. 水平方向の連続領域の統合を説明する図である。It is a figure explaining integration of the continuous area of a horizontal direction. 本発明を適用したテクスチャ処理システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the texture processing system to which this invention is applied. テクスチャ生成装置の機能的構成例を示すブロック図である。It is a block diagram which shows the functional structural example of a texture production | generation apparatus. 画像再現装置の機能的構成例を示すブロック図である。It is a block diagram which shows the functional structural example of an image reproduction apparatus. 図2のステップS14のテクスチャ生成処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of the texture production | generation process of step S14 of FIG. 抽出される画像の繰り返しを説明する図である。It is a figure explaining the repetition of the image extracted. 再配置した繰り返し領域を説明する図である。It is a figure explaining the rearranged rearranged area. 画像の繰り返し領域の再配置を説明する図である。It is a figure explaining rearrangement of the repetition area | region of an image. 再配置される、繰り返す残り領域を説明する図である。It is a figure explaining the remaining area to be rearranged and repeated. 残り領域に配置される領域を説明する図である。It is a figure explaining the area | region arrange | positioned at a remaining area. 図36のステップS100のファイル生成処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of the file generation process of step S100 of FIG. ファイルの構成を説明する図である。It is a figure explaining the structure of a file. ブロック情報の構成を説明する図である。It is a figure explaining the structure of block information. テクスチャ記憶処理を説明するフローチャートである。It is a flowchart explaining a texture memory | storage process. 図2のステップS15の画像再現処理を説明するフローチャートである。It is a flowchart explaining the image reproduction process of step S15 of FIG. 最頻値算出処理を説明するフローチャートである。It is a flowchart explaining the mode value calculation process. 最頻値の算出について説明する図である。It is a figure explaining calculation of the mode value. 本発明の処理の流れを説明する図である。It is a figure explaining the flow of processing of the present invention. 繰り返し周期抽出装置の機能的構成例を示すブロック図である。It is a block diagram which shows the functional structural example of a repetition period extraction apparatus. 繰り返し周期抽出処理を説明するフローチャートである。It is a flowchart explaining a repetition period extraction process. ブロック化装置の機能的構成例を示すブロック図である。It is a block diagram which shows the functional structural example of a blocking apparatus. ブロック化処理を説明するフローチャートである。It is a flowchart explaining a blocking process. 画像の切り出しとテクスチャの展開を説明する図である。It is a figure explaining extraction of an image and development of a texture. 画像切り出し処理を説明するフローチャートである。It is a flowchart explaining an image cut-out process. テクスチャ展開処理を説明するフローチャートである。It is a flowchart explaining a texture expansion process. 画像変換装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of an image converter. 図57の画像変換装置による画像変換処理を説明するフローチャートである。58 is a flowchart for describing image conversion processing by the image conversion apparatus in FIG. 57. ラプラシアンフィルタを説明する図である。It is a figure explaining a Laplacian filter. 1次微分値、および、2次微分値の求め方を説明する図である。It is a figure explaining how to obtain a primary differential value and a secondary differential value. ラプラシアンフィルタを説明する図である。It is a figure explaining a Laplacian filter. エッジ検出フィルタを説明する図である。It is a figure explaining an edge detection filter. エッジ検出フィルタを説明する図である。It is a figure explaining an edge detection filter. エッジ検出フィルタを説明する図である。It is a figure explaining an edge detection filter. エッジ検出フィルタを説明する図である。It is a figure explaining an edge detection filter. エッジ検出フィルタを説明する図である。It is a figure explaining an edge detection filter. 入力画像の例を示す図である。It is a figure which shows the example of an input image. 図67の入力画像のエッジ抽出フィルタによる処理例を示す図である。FIG. 68 is a diagram illustrating a processing example of the input image of FIG. 67 using an edge extraction filter. 水平方向のパワースペクトルを示す図である。It is a figure which shows the power spectrum of a horizontal direction. 垂直方向のパワースペクトルを示す図である。It is a figure which shows the power spectrum of a perpendicular direction. 図67の入力画像を分割した例を示す図である。FIG. 68 is a diagram illustrating an example in which the input image of FIG. 67 is divided. 図67の入力画像を低解像度化して変換した例を示す図である。FIG. 68 is a diagram illustrating an example in which the input image of FIG. 67 is converted by reducing the resolution. パーソナルコンピュータの構成例を示す図である。It is a figure which shows the structural example of a personal computer.

符号の説明Explanation of symbols

1 画像処理システム, 11 繰り返し周期抽出装置, 12 ブロック化装置, 13 連続領域抽出装置, 14 テクスチャ生成装置, 15 画像再現装置, 21 繰り返し周期のデータ, 22 ブロック画像データ, 23 連続領域データ, 24 テクスチャデータ, 52 エッジ抽出部, 53 エッジ出現区間算出部, 54 繰り返し周期算出部, 182 繰り返し周期延長部, 183 画像分割部, 184 類似色統合部, 302 領域生成部, 303 類似領域置き換え部, 304 連続領域抽出部, 305 連続領域統合部, 381 テクスチャデータ記憶部, 402 繰り返し抽出部, 403 繰り返し調整部, 404 残り領域補間部, 405 ファイル生成部, 432 再現位置特定部, 433 テクスチャ展開部, 434 画像出力部, 510 ファイル, 511−1,511−2 繰り返し情報, 512−1−1乃至512−1−3,512−2−1乃至512−2−4 ブロック情報, 513−1,513−2 繰り返し残り領域情報, 514−1−1乃至514−1−7,514−2−1乃至514−2−4 ブロック情報, 515−1,515−2 残り領域情報, 516−1−1乃至516−1−5,516−2−1乃至516−2−3 ブロック情報   DESCRIPTION OF SYMBOLS 1 Image processing system, 11 Repeat period extraction apparatus, 12 Blocking apparatus, 13 Continuous area extraction apparatus, 14 Texture generation apparatus, 15 Image reproduction apparatus, 21 Repeat period data, 22 Block image data, 23 Continuous area data, 24 Texture Data, 52 edge extraction unit, 53 edge appearance interval calculation unit, 54 repetition period calculation unit, 182 repetition period extension unit, 183 image division unit, 184 similar color integration unit, 302 region generation unit, 303 similar region replacement unit, 304 continuous Region extraction unit, 305 continuous region integration unit, 381 texture data storage unit, 402 repetition extraction unit, 403 repetition adjustment unit, 404 remaining region interpolation unit, 405 file generation unit, 432 reproduction position specifying unit, 433 text Development unit, 434 image output unit, 510 file, 511-1, 511-2 repetition information, 512-1-1 through 5121-2-3, 512-2-1 through 512-2-4 block information, 513- 1,513-2 Repetitive remaining area information, 514-1-1 to 514-1-7, 5142-1 to 514-2-4 Block information, 515-1, 515-2 Remaining area information, 516-1 -1 to 516-1-5, 516-2-1 to 516-2-3 Block information

Claims (9)

画像を処理する画像処理装置において、
前記画像に繰り返し表われ類似する画像の成分である繰り返し成分を前記画像から抽出する繰り返し抽出手段と、
前記繰り返し抽出手段により抽出された前記繰り返し成分の画面上の距離を均等に配置することで、前記繰り返し成分の配置を調整する繰り返し成分配置調整手段と、
前記画像のうちの前記繰り返し成分を含まない領域の画像の色分布の代表値を、前記繰り返し成分配置調整手段により前記繰り返し成分の配置が調整された前記画像のうちの前記繰り返し成分を含まない領域に配置する領域配置手段と、
前記領域配置手段により前記色分布の代表値が配置された画像における繰り返し成分およびその配置の特徴を示す特徴情報を生成する特徴情報生成手段と
を備えることを特徴とする画像処理装置。
In an image processing apparatus that processes an image,
Repetitive extraction means for extracting a repetitive component that is a component of an image repetitively appearing and similar to the image from the image;
Repetitive component arrangement adjusting means for adjusting the arrangement of the repetitive components by uniformly arranging the distances on the screen of the repetitive components extracted by the repetitive extraction means;
A region that does not include the repetitive component of the image in which the repetitive component arrangement is adjusted by the representative value of the color distribution of the image of the region that does not include the repetitive component of the image. Area arranging means to be arranged in,
An image processing apparatus, comprising: feature information generating means for generating feature information indicating a repetitive component and an arrangement feature in an image in which the representative value of the color distribution is arranged by the region arranging means .
前記繰り返し成分配置調整手段は、さらに、前記繰り返し成分の画面上の出現間隔が均等になるように、前記繰り返し成分の配置を調整する
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the repetitive component arrangement adjusting unit further adjusts the arrangement of the repetitive components such that appearance intervals of the repetitive components on the screen are uniform.
前記繰り返し成分配置調整手段は、前記繰り返し成分の画面上の距離および前記繰り返し成分の画面上の出現間隔を、それぞれ、統計的な代表値で配置することで、前記繰り返し成分の配置を調整する
ことを特徴とする請求項2に記載の画像処理装置。
The repetitive component arrangement adjusting means adjusts the arrangement of the repetitive components by arranging the distance on the screen of the repetitive components and the appearance interval of the repetitive components on the screen with respective statistical representative values. The image processing apparatus according to claim 2.
前記特徴情報生成手段は、前記特徴情報として、前記繰り返し成分の出現位置に関する情報、前記繰り返し成分の繰り返し方向に垂直な方向の長さに関する情報、前記繰り返し成分の繰り返し回数に関する情報、前記繰り返し成分の出現間隔に関する情報、並びに、前記繰り返し成分を構成する、前記画像の部分画像であるブロックに関する情報を生成する
ことを特徴とする請求項1に記載の画像処理装置。
The feature information generating means includes, as the feature information, information about the appearance position of the repetitive component, information about the length of the repetitive component in a direction perpendicular to the repetitive direction, information about the number of repetitions of the repetitive component, 2. The image processing apparatus according to claim 1, wherein information about an appearance interval and information about a block that is a partial image of the image and that constitutes the repetitive component are generated.
前記特徴情報生成手段は、前記ブロックに関する情報として、前記ブロックの位置に関する情報、前記ブロックの繰り返し方向に垂直な方向の長さに関する情報、並びに、前記ブロックの色に関する情報を生成する
ことを特徴とする請求項4に記載の画像処理装置。
The feature information generation means generates information on the block, information on the position of the block, information on a length in a direction perpendicular to the repetition direction of the block, and information on a color of the block. The image processing apparatus according to claim 4.
入力された入力画像から、略水平方向および略垂直方向のうち少なくとも一方向のエッジを抽出するエッジ抽出手段と、
前記エッジ抽出手段により抽出された複数のエッジのうち、同一方向の任意の2本のエッジで構成される全てのエッジ対について、各エッジ対を構成する2本のエッジの画像上の間隔の最頻値を算出する最頻値算出手段と、
前記最頻値算出手段により算出された前記最頻値の画像上の間隔で抽出された2本のエッジにより構成されるエッジ対からなり、前記2本のエッジで挟まれる領域が互いに連続するように隣接するエッジ対の集合により構成されるエッジ対の連鎖を検出し、さらに、各エッジ対の連鎖について、前記エッジ対を構成する2本のエッジの間隔の統計的な代表値を、前記エッジの抽出に関する繰返し周期として算出する繰返し周期算出手段と、
前記入力画像を、前記エッジの出現の繰り返し方向に、前記エッジの出現の繰り返し周期で分割し、前記入力画像が分割された小領域である複数の第1のブロックを生成し、各第1のブロックの色に、前記第1のブロック内の統計的な代表色を設定する画像分割手段と、
前記画像分割手段により前記入力画像が分割されて生成された複数の第1のブロックの内、互いに隣接し、互いの色の差が予め定められた所定の範囲内となる複数のブロックの各領域を結合して1つの新たな第2のブロックとするとともに、前記第2のブロック画像の色に、結合した前記第1のブロックの色の統計的な代表色を設定することにより、複数の前記第1のブロックを統合して前記第2のブロックを生成するブロック統合手段と、
前記ブロック統合手段により複数の第1のブロックが統合されて生成された前記第2のブロックの略水平方向または略垂直方向の境界線により前記入力画像を分割して、色を置き換えるための領域を生成する領域生成手段と、
前記領域生成手段により生成された複数の前記領域の内、各領域の予め定められた所定の統計的代表色の割合が最も大きい領域で、他の前記領域を置き換える領域置き換え手段と、
前記領域置き換え手段により置き換えられた前記領域の内、予め定められた所定の大きさ以上の領域を抽出する領域抽出手段と
をさらに備え、
前記繰り返し抽出手段は、前記領域抽出手段により抽出された所定の大きさ以上の領域により構成される前記画像から前記繰り返し成分を抽出する
ことを特徴とする請求項1に記載の画像処理装置。
Edge extraction means for extracting an edge in at least one direction from a substantially horizontal direction and a substantially vertical direction from the input image;
Among all of the plurality of edges extracted by the edge extracting means, for all edge pairs formed of arbitrary two edges in the same direction, the interval between the two edges constituting each edge pair on the image is the maximum. A mode value calculating means for calculating a mode value;
It is composed of an edge pair composed of two edges extracted at intervals on the mode value image calculated by the mode value calculating means, and the regions sandwiched between the two edges are continuous with each other. A chain of edge pairs constituted by a set of edge pairs adjacent to each other, and for each chain of edge pairs, a statistical representative value of the interval between two edges constituting the edge pair is determined as the edge pair. A repetition period calculating means for calculating as a repetition period related to extraction of
The input image is divided in a repetition direction of the appearance of the edge at a repetition cycle of the appearance of the edge, and a plurality of first blocks that are small regions into which the input image is divided are generated, Image dividing means for setting a statistical representative color in the first block to a block color;
Among the plurality of first blocks generated by dividing the input image by the image dividing unit, the areas of the plurality of blocks which are adjacent to each other and whose color difference is within a predetermined range. Are combined into one new second block, and a statistical representative color of the color of the combined first block is set as the color of the second block image. Block integration means for generating a second block by integrating a first block;
A region for replacing the color by dividing the input image by a substantially horizontal or substantially vertical boundary line of the second block generated by integrating the plurality of first blocks by the block integrating means. A region generating means for generating;
Of the plurality of regions generated by the region generation means, a region replacement unit that replaces the other region with a region having the largest ratio of a predetermined predetermined statistical representative color of each region;
A region extracting unit for extracting a region having a predetermined size or more from the region replaced by the region replacing unit;
The image processing apparatus according to claim 1, wherein the repetitive extraction unit extracts the repetitive component from the image including a region having a predetermined size or more extracted by the region extraction unit.
画像を処理する画像処理装置の画像処理方法において、
前記画像に繰り返し表われ類似する画像の成分である繰り返し成分を前記画像から抽出する繰り返し抽出ステップと、
前記繰り返し抽出ステップの処理により抽出された前記繰り返し成分の画面上の距離を均等に配置することで、前記繰り返し成分の配置を調整する繰り返し成分配置調整ステップと、
前記画像のうちの前記繰り返し成分を含まない領域の画像の色分布の代表値を、前記繰り返し成分配置調整ステップの処理により前記繰り返し成分の配置が調整された前記画像のうちの前記繰り返し成分を含まない領域に配置する領域配置ステップと、
前記領域配置ステップの処理により前記色分布の代表値が配置された画像における繰り返し成分およびその配置の特徴を示す特徴情報を生成する特徴情報生成ステップと
を含むことを特徴とする画像処理方法。
In an image processing method of an image processing apparatus for processing an image,
A repetitive extraction step of extracting a repetitive component that is a component of an image repetitively appearing and similar to the image from the image;
A repetitive component arrangement adjusting step of adjusting the arrangement of the repetitive components by uniformly arranging the distances on the screen of the repetitive components extracted by the processing of the repetitive extraction step;
The representative value of the color distribution of the image in the region not including the repetitive component of the image includes the repetitive component of the image in which the repetitive component arrangement is adjusted by the processing of the repetitive component arrangement adjusting step. A region placement step to place in a non-region ,
An image processing method comprising: a feature information generation step of generating feature information indicating a repetitive component and an arrangement feature of an image in which a representative value of the color distribution is arranged by the processing of the region arrangement step .
画像を処理するプログラムであって、
前記画像に繰り返し表われ類似する画像の成分である繰り返し成分を前記画像から抽出する繰り返し抽出ステップと、
前記繰り返し抽出ステップの処理により抽出された前記繰り返し成分の画面上の距離を均等に配置することで、前記繰り返し成分の配置を調整する繰り返し成分配置調整ステップと、
前記画像のうちの前記繰り返し成分を含まない領域の画像の色分布の代表値を、前記繰り返し成分配置調整ステップの処理により前記繰り返し成分の配置が調整された前記画像のうちの前記繰り返し成分を含まない領域に配置する領域配置ステップと、
前記領域配置ステップの処理により前記色分布の代表値が配置された画像における繰り返し成分およびその配置の特徴を示す特徴情報を生成する特徴情報生成ステップと
を含む処理をコンピュータに実行させることを特徴とするプログラム。
A program for processing images,
A repetitive extraction step of extracting a repetitive component that is a component of an image repetitively appearing and similar to the image from the image;
A repetitive component arrangement adjusting step of adjusting the arrangement of the repetitive components by uniformly arranging the distances on the screen of the repetitive components extracted by the processing of the repetitive extraction step;
The representative value of the color distribution of the image in the region not including the repetitive component of the image includes the repetitive component of the image in which the repetitive component arrangement is adjusted by the processing of the repetitive component arrangement adjusting step. A region placement step to place in a non-region ,
And a feature information generating step of generating feature information indicating a repetitive component in the image in which the representative value of the color distribution is arranged by the processing of the region arranging step and the feature information of the arrangement. Program to do.
画像を処理する画像処理システムにおいて、
入力された入力画像から、略水平方向および略垂直方向のうち少なくとも一方向のエッジを抽出するエッジ抽出手段と、
前記エッジ抽出手段により抽出された複数のエッジのうち、同一方向の任意の2本のエッジで構成される全てのエッジ対について、各エッジ対を構成する2本のエッジの画像上の間隔の最頻値を算出する最頻値算出手段と、
前記最頻値算出手段により算出された前記最頻値の画像上の間隔で抽出された2本のエッジにより構成されるエッジ対からなり、前記2本のエッジで挟まれる領域が互いに連続するように隣接するエッジ対の集合により構成されるエッジ対の連鎖を検出し、さらに、各エッジ対の連鎖について、前記エッジ対を構成する2本のエッジの間隔の統計的な代表値を、前記エッジの抽出に関する繰返し周期として算出する繰返し周期算出手段と、
前記入力画像を、前記エッジの出現の繰り返し方向に、前記エッジの出現の繰り返し周期で分割し、前記入力画像が分割された小領域である複数の第1のブロックを生成し、各第1のブロックの色に、前記第1のブロック内の統計的な代表色を設定する画像分割手段と、
前記画像分割手段により前記入力画像が分割されて生成された複数の第1のブロックの内、互いに隣接し、互いの色の差が予め定められた所定の範囲内となる複数のブロックの各領域を結合して1つの新たな第2のブロックとするとともに、前記第2のブロック画像の色に、結合した前記第1のブロックの色の統計的な代表色を設定することにより、複数の前記第1のブロックを統合して前記第2のブロックを生成するブロック統合手段と、
前記ブロック統合手段により複数の第1のブロックが統合されて生成された前記第2のブロックの略水平方向または略垂直方向の境界線により前記入力画像を分割して、色を置き換えるための領域を生成する領域生成手段と、
前記領域生成手段により生成された複数の前記領域の内、各領域の予め定められた所定の統計的代表色の割合が最も大きい領域で、他の前記領域を置き換える領域置き換え手段と、
前記領域置き換え手段により置き換えられた前記領域の内、予め定められた所定の大きさ以上の領域を抽出する領域抽出手段と、
前記領域抽出手段により抽出された前記領域により構成される画像に繰り返し表われ類似する画像の成分である繰り返し成分を前記画像から抽出する繰り返し抽出手段と、
前記繰り返し抽出手段により抽出された前記繰り返し成分の画面上の距離を均等に配置することで、前記繰り返し成分の配置を調整する繰り返し成分配置調整手段と、
前記画像のうちの前記繰り返し成分を含まない領域の画像の色分布の代表値を、前記繰り返し成分配置調整手段により前記繰り返し成分の配置が調整された前記画像のうちの前記繰り返し成分を含まない領域に配置する領域配置手段と、
前記領域配置手段により前記色分布の代表値が配置された画像における繰り返し成分およびその配置の特徴を示す特徴情報を生成する特徴情報生成手段と、
前記特徴情報生成手段により生成された特徴情報を取得する取得手段と、
前記取得手段により取得された前記特徴情報に基づいて、前記画像を再現する再現手段と
を備えることを特徴とする画像処理システム。
In an image processing system for processing an image,
Edge extraction means for extracting an edge in at least one direction from a substantially horizontal direction and a substantially vertical direction from the input image;
Among all of the plurality of edges extracted by the edge extracting means, for all edge pairs formed of arbitrary two edges in the same direction, the interval between the two edges constituting each edge pair on the image is the maximum. A mode value calculating means for calculating a mode value;
It is composed of an edge pair composed of two edges extracted at intervals on the mode value image calculated by the mode value calculating means, and the regions sandwiched between the two edges are continuous with each other. A chain of edge pairs constituted by a set of edge pairs adjacent to each other, and for each chain of edge pairs, a statistical representative value of the interval between two edges constituting the edge pair is determined as the edge pair. A repetition period calculating means for calculating as a repetition period related to extraction of
The input image is divided in a repetition direction of the appearance of the edge at a repetition cycle of the appearance of the edge, and a plurality of first blocks that are small regions into which the input image is divided are generated, Image dividing means for setting a statistical representative color in the first block to a block color;
Among the plurality of first blocks generated by dividing the input image by the image dividing unit, the areas of the plurality of blocks which are adjacent to each other and whose color difference is within a predetermined range. Are combined into one new second block, and a statistical representative color of the color of the combined first block is set as the color of the second block image. Block integration means for generating a second block by integrating a first block;
A region for replacing the color by dividing the input image by a substantially horizontal or substantially vertical boundary line of the second block generated by integrating the plurality of first blocks by the block integrating means. A region generating means for generating;
Of the plurality of regions generated by the region generation means, a region replacement unit that replaces the other region with a region having the largest ratio of a predetermined predetermined statistical representative color of each region;
A region extracting unit for extracting a region having a predetermined size or more from the region replaced by the region replacing unit;
Repetitive extraction means for extracting a repetitive component that is a component of an image repetitively appearing and similar to the image constituted by the area extracted by the area extracting means;
Repetitive component arrangement adjusting means for adjusting the arrangement of the repetitive components by uniformly arranging the distances on the screen of the repetitive components extracted by the repetitive extraction means;
A region that does not include the repetitive component of the image in which the repetitive component arrangement is adjusted by the representative value of the color distribution of the image of the region that does not include the repetitive component of the image. Area arranging means to be arranged in,
Feature information generating means for generating feature information indicating repetitive components in the image in which representative values of the color distribution are arranged by the area arranging means and characteristics of the arrangement;
Obtaining means for obtaining feature information generated by the feature information generating means;
An image processing system comprising: reproduction means for reproducing the image based on the feature information acquired by the acquisition means.
JP2004168836A 2004-06-07 2004-06-07 Image processing system, image processing apparatus, image processing method, and program Expired - Fee Related JP4617726B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2004168836A JP4617726B2 (en) 2004-06-07 2004-06-07 Image processing system, image processing apparatus, image processing method, and program
US11/130,390 US7627172B2 (en) 2004-06-07 2005-05-17 Image processing apparatus and method, and program
KR1020050047521A KR101217906B1 (en) 2004-06-07 2005-06-03 Image processing apparatus and method, and recording medium
EP05012163A EP1605401A3 (en) 2004-06-07 2005-06-06 Image processing apparatus and method, and programm
CNB2005100764020A CN100378759C (en) 2004-06-07 2005-06-07 Image processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004168836A JP4617726B2 (en) 2004-06-07 2004-06-07 Image processing system, image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2005346650A JP2005346650A (en) 2005-12-15
JP4617726B2 true JP4617726B2 (en) 2011-01-26

Family

ID=35498934

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004168836A Expired - Fee Related JP4617726B2 (en) 2004-06-07 2004-06-07 Image processing system, image processing apparatus, image processing method, and program

Country Status (2)

Country Link
JP (1) JP4617726B2 (en)
CN (1) CN100378759C (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7567346B2 (en) * 2006-03-01 2009-07-28 General Electric Company System and method for multimode imaging
JP4165580B2 (en) * 2006-06-29 2008-10-15 トヨタ自動車株式会社 Image processing apparatus and image processing program
JP4569837B2 (en) * 2007-03-30 2010-10-27 アイシン・エィ・ダブリュ株式会社 Feature information collecting apparatus and feature information collecting method
KR101526866B1 (en) * 2009-01-21 2015-06-10 삼성전자주식회사 Method of filtering depth noise using depth information and apparatus for enabling the method
FI127117B (en) * 2009-06-17 2017-11-30 Gurulogic Microsystems Oy Image processors and computer programs
JP5455237B2 (en) * 2010-09-30 2014-03-26 Kddi株式会社 Three-dimensional map creation device and its window area detection device
JP6105950B2 (en) 2012-02-27 2017-03-29 キヤノン株式会社 Image processing apparatus and method
CN110246001B (en) * 2019-04-24 2023-04-07 维沃移动通信有限公司 Image display method and terminal equipment
CN113538384B (en) * 2021-07-19 2024-03-26 凌云光技术股份有限公司 Feature positioning method and device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002342703A (en) * 2002-03-13 2002-11-29 Olympus Optical Co Ltd Information reproduction system
JP2003196588A (en) * 2002-08-28 2003-07-11 Olympus Optical Co Ltd Information reproducer, and method of reproducing information
JP2003329609A (en) * 2002-05-09 2003-11-19 Matsushita Electric Ind Co Ltd Method of deleting pattern and method of inspecting defect

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09167240A (en) * 1995-12-15 1997-06-24 Sony Corp Digital image signal processing device and method therefor
CN1162806C (en) * 2002-03-07 2004-08-18 上海交通大学 Shooting, formation, transmission and display method of road overall view image tape
CN1152341C (en) * 2002-08-27 2004-06-02 上海交通大学 Automatic generation method for digital house map
CN1152343C (en) * 2002-12-05 2004-06-02 上海交通大学 Method for fast preparing vector map of house through man-machine interactive

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002342703A (en) * 2002-03-13 2002-11-29 Olympus Optical Co Ltd Information reproduction system
JP2003329609A (en) * 2002-05-09 2003-11-19 Matsushita Electric Ind Co Ltd Method of deleting pattern and method of inspecting defect
JP2003196588A (en) * 2002-08-28 2003-07-11 Olympus Optical Co Ltd Information reproducer, and method of reproducing information

Also Published As

Publication number Publication date
JP2005346650A (en) 2005-12-15
CN1707520A (en) 2005-12-14
CN100378759C (en) 2008-04-02

Similar Documents

Publication Publication Date Title
EP1605401A2 (en) Image processing apparatus and method, and programm
JP5260635B2 (en) Noise-reduced color image using panchromatic image
KR101694292B1 (en) Apparatus for matching stereo image and method thereof
KR101342806B1 (en) Interpolation of panchromatic and color pixels
JP5156022B2 (en) Noise reduction for panchromatic and color images
CN113228628B (en) System and method for converting non-bayer pattern color filter array image data
JP4617726B2 (en) Image processing system, image processing apparatus, image processing method, and program
JP3944738B2 (en) Image processing apparatus and method, recording medium, and program
EP2753082A1 (en) Image processing device, image processing method, and program
JP2014110633A (en) Apparatus and method for processing image
JP2004343685A (en) Weighted gradient based and color corrected interpolation
JP2015011585A (en) Image processing apparatus, image forming apparatus, image forming system, image processing method, and program
JP4543765B2 (en) Image processing apparatus, image processing method, and program
KR101875532B1 (en) Apparatus and method for hierarchical stereo matching
JP4479359B2 (en) Image processing apparatus, image processing method, and program
JP2010016812A (en) Image processing apparatus and method, and computer-readable medium
Wang et al. No-reference stereoscopic image quality assessment using quaternion wavelet transform and heterogeneous ensemble learning
JP5843474B2 (en) Image processing apparatus, image processing method, and program
CN103426146B (en) Image processing equipment, image processing method
JP4248947B2 (en) Image color reduction device, image color reduction method, and image color reduction program
KR102517326B1 (en) Apparatus for detecting the damage location of forest pests based on multifactorial images
EP4343678A1 (en) Method and apparatus for processing array image
Xia et al. Consistent tonal correction for multi-view remote sensing image mosaicking
Hernandez et al. Color image segmentation using multispectral random field texture model & color content features
CN106899776B (en) A kind of detection method and device of half tone image feature

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100316

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100608

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100928

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101011

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131105

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131105

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees