JP4724799B2 - Image processing system and program - Google Patents

Image processing system and program Download PDF

Info

Publication number
JP4724799B2
JP4724799B2 JP2010014628A JP2010014628A JP4724799B2 JP 4724799 B2 JP4724799 B2 JP 4724799B2 JP 2010014628 A JP2010014628 A JP 2010014628A JP 2010014628 A JP2010014628 A JP 2010014628A JP 4724799 B2 JP4724799 B2 JP 4724799B2
Authority
JP
Japan
Prior art keywords
area
color
region
candidate
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010014628A
Other languages
Japanese (ja)
Other versions
JP2010191956A5 (en
JP2010191956A (en
Inventor
広行 遠藤
真幸 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shift Co Ltd
Original Assignee
Shift Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shift Co Ltd filed Critical Shift Co Ltd
Priority to JP2010014628A priority Critical patent/JP4724799B2/en
Publication of JP2010191956A publication Critical patent/JP2010191956A/en
Publication of JP2010191956A5 publication Critical patent/JP2010191956A5/ja
Application granted granted Critical
Publication of JP4724799B2 publication Critical patent/JP4724799B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、1以上の識別対象領域を含む領域が撮影されてなる画像について画像処理を行う画像処理システムに関する。   The present invention relates to an image processing system that performs image processing on an image obtained by photographing an area including one or more identification target areas.

従来から、識別対象領域としての二次元コードを示す画像から二次元コードの領域を特定し、その二次元コードにてコード化された情報を識別する技術が用いられている(特許文献1参照)。   2. Description of the Related Art Conventionally, a technique has been used in which a region of a two-dimensional code is specified from an image showing a two-dimensional code as an identification target region, and information encoded by the two-dimensional code is identified (see Patent Document 1). .

特開2001−195536号公報JP 2001-195536 A

しかし、従来の技術においては、情報を識別する際に取得される画像が、1つの識別対象領域が画像領域の大部分にわたって収まっている画像を用いるように構成されているため、1以上,特に複数の識別対象領域が領域内に収まっている画像から、この画像に含まれる識別対象領域それぞれを特定することができなかった。   However, in the conventional technique, an image acquired when identifying information is configured to use an image in which one identification target region is included in a large part of the image region. Each of the identification target areas included in the image cannot be identified from the image in which the plurality of identification target areas are included in the area.

本発明は、このような課題を解決するためになされたものであり、その目的は、画像に含まれる1以上の識別対象領域それぞれを特定するための技術を提供することである。   The present invention has been made to solve such a problem, and an object thereof is to provide a technique for specifying each of one or more identification target regions included in an image.

上記課題を解決するためには、1以上の識別対象領域を含む領域が撮影されてなる画像について画像処理を行う画像処理システムを以下に示す第1の構成(請求項1)のようにするとよい。   In order to solve the above-described problem, an image processing system that performs image processing on an image in which an area including one or more identification target areas is photographed may be configured as shown in a first configuration (claim 1) below. .

この構成においては、1以上の識別対象領域を含む領域が撮影されてなる画像を取得する画像取得手段と、該画像取得手段により取得された画像を、該画像に含まれる明るさを示す成分のうち所定のしきい値以上の成分である特定の成分の分布を示す成分画像に変換する成分変換手段と、該成分変換手段により変換された成分画像から、あらかじめ定められた規則であって、前記識別対象領域の候補領域となるべきか否かを前記識別対象領域の外形形状のパラメータに基づいて判定するための規則に従って形成されている領域を前記識別対象領域からなる候補領域として抽出する領域抽出手段と、前記画像取得手段により取得された画像のうち、前記領域抽出手段により抽出された候補領域に対応する対応領域それぞれについて、該対応領域を形成する要素に、該対応領域内に形成されているパターンが前記識別対象領域であるか否かを決定するためのパターンである特徴的なパターンが含まれているか否かを判定するパターン判定手段と、該パターン判定手段により特徴的なパターンが含まれていると判定された対応領域を、前記識別対象領域として検出する領域検出手段と、前記成分変換手段による画像の成分画像への変換を種類以上の成分それぞれについて順に実施させると共に、各成分について変換された成分画像それぞれに対し、前記領域抽出手段による候補領域の抽出,前記パターン判定手段による特徴的なパターンの判定,および,前記領域検出手段による識別対象領域の検出,を繰り返し実施させる繰り返し実施手段と、特定の前記成分画像に対して、前記領域抽出手段により抽出された候補領域それぞれが、別の成分画像について前記領域抽出手段が抽出した候補領域(以降「抽出済み候補領域」という)と一致するか否かを、両方の候補領域に基づいて判定する一致判定手段と、を備えている。 In this configuration, an image acquisition unit that acquires an image obtained by capturing an area including one or more identification target regions, and an image acquired by the image acquisition unit is converted into a component that indicates brightness included in the image . Component conversion means for converting into a component image indicating a distribution of a specific component that is a component equal to or greater than a predetermined threshold , and a rule determined in advance from the component image converted by the component conversion means , Region extraction for extracting a region formed according to a rule for determining whether or not to be a candidate region for the identification target region based on a parameter of an outer shape of the identification target region as a candidate region composed of the identification target region And the corresponding region corresponding to the candidate region extracted by the region extracting unit among the images acquired by the image acquiring unit. The formation elements, said pattern being formed in the corresponding area is a pattern for determining whether or not the identification target region characteristic pattern determined pattern determination means for determining whether contains If the corresponding area is determined to contain a characteristic pattern by the pattern determination means, a detection region detecting means as the recognition target area, the conversion of component image of the image by said component conversion means 2 For each component image converted for each component, the candidate region is extracted by the region extracting unit, the characteristic pattern is determined by the pattern determining unit, and the region is detected. Repetitive execution means for repeatedly detecting the identification target area by the means, and for the specific component image, the area Based on both candidate areas, whether each candidate area extracted by the output means matches a candidate area extracted by the area extracting means for another component image (hereinafter referred to as “extracted candidate area”). And a coincidence judging means for judging.

そして、前記繰り返し実施手段は、前記パターン判定手段による特徴的なパターンを有しているか否かの判定,および,前記領域検出手段による識別対象領域の検出,を、前記領域抽出手段により抽出された候補領域のうち、前記一致判定手段により前記抽出済み候補領域と一致しないと判定された候補領域についてのみ実施させる。   Then, the repetitive execution means is extracted by the area extracting means for determining whether or not it has a characteristic pattern by the pattern determining means and for detecting the identification target area by the area detecting means. Of the candidate areas, the process is performed only on the candidate areas that are determined not to match the extracted candidate areas by the match determination unit.

この構成では、外部から取得された画像(原画像)から生成された成分画像に基づき、この成分画像中における候補領域の抽出,この抽出した候補領域に対応する原画像中の対応領域それぞれに特徴的なパターンが含まれているか否かの判定を経て、原画像中から識別対象領域の領域を検出することができる。   In this configuration, based on a component image generated from an externally acquired image (original image), extraction of candidate regions in the component image and features corresponding to the corresponding regions in the original image corresponding to the extracted candidate regions are performed. Through the determination of whether or not a typical pattern is included, it is possible to detect the area of the identification target area from the original image.

このように、原画像の領域において、成分画像の候補領域に対応する対応領域のうち、特徴的なパターンが含まれる対応領域を、原画像中における識別対象領域の領域として検出することにより、原画像に含まれる1以上の識別対象領域それぞれを特定することができるようになる。   As described above, in the original image area, the corresponding area including the characteristic pattern among the corresponding areas corresponding to the candidate areas of the component image is detected as the area of the identification target area in the original image. Each of the one or more identification target areas included in the image can be specified.

また、この構成では、原画像に基づいて生成される複数種類の成分画像それぞれについて、候補領域の抽出,この抽出した候補領域に特徴的なパターンが含まれているか否かの判定,および,識別対象領域の検出を繰り返し実施している。   Further, in this configuration, for each of a plurality of types of component images generated based on the original image, extraction of candidate regions, determination of whether or not the extracted candidate regions include a characteristic pattern, and identification The target area is repeatedly detected.

これにより、特定の成分画像に基づいて識別対象領域の領域を検出できなかったとしても、別の成分画像に基づいて検出されることが期待でき、その結果、原画像における識別対象領域の検出精度を高めることができる。   As a result, even if the region of the identification target region cannot be detected based on the specific component image, it can be expected to be detected based on another component image. As a result, the detection accuracy of the identification target region in the original image is expected. Can be increased.

また、この繰り返しの過程では、特定の成分画像について新たに抽出された候補領域が、先に参照された成分画像について抽出された抽出済み候補領域と、原画像の領域において一致している場合も想定される。ところが、上記構成では、このように一致する抽出済み候補領域について、抽出した候補領域に特徴的なパターンが含まれているか否かの判定,および,識別対象領域の検出を実施しない。   Also, in this iterative process, the candidate area newly extracted for a specific component image may match the extracted candidate area extracted for the previously referenced component image in the area of the original image. is assumed. However, in the above configuration, for the extracted candidate regions that match in this way, the determination as to whether or not the extracted candidate region includes a characteristic pattern and the detection of the identification target region are not performed.

そのため、複数の成分画像それぞれに基づいて検出された各識別対象領域について、この識別対象領域にて示される情報を識別するに際し、本来同じものであるはずの識別対象領域を繰り返し識別してしまうといった無用な処理負担をなくすことができる。   Therefore, for each identification target area detected based on each of the plurality of component images, when identifying the information indicated in the identification target area, the identification target area that should originally be the same is repeatedly identified. Unnecessary processing burden can be eliminated.

また、上記構成では、外部から取得された画像から、識別対象領域からなる候補領域を抽出したうえで、この領域から識別対象領域を検出して情報の識別を行うことができる。そのため、候補領域を抽出することなく識別対象領域を検出しようとする場合と比べて、抽出した候補領域という限定的な範囲から識別対象領域の検出を行うことができることから、識別対象領域から情報の識別を行うまでに要する処理負荷および処理時間を抑えることができる。   Further, in the above configuration, it is possible to extract a candidate area consisting of an identification target area from an image acquired from the outside, and then identify the identification target area from this area to identify information. Therefore, compared to the case where the identification target region is to be detected without extracting the candidate region, the identification target region can be detected from the limited range of the extracted candidate region. The processing load and processing time required until identification can be suppressed.

この構成において、原画像から変換される成分画像は、原画像に含まれる特定の成分の分布を示すものであればよく、例えば、原画像における輝度,明度,彩度,特定色など特定の成分のみを分布させた画像、これら成分における所定のしきい値以上の成分のみを抽出(具体的にはしきい値で二値化)した画像などのことである。   In this configuration, the component image converted from the original image only needs to indicate the distribution of specific components included in the original image. For example, specific components such as luminance, brightness, saturation, and specific colors in the original image are included. An image in which only the components above the predetermined threshold value are extracted (specifically, binarized by the threshold value).

また、成分画像から候補領域を抽出する際の「あらかじめ定められた規則」とは、識別対象領域からなる候補領域を規定するものであればよく、例えば、識別対象領域の外形形状,外形形状が多角形である場合における各辺の長さや各辺で形成される角度,外形形状が多角形である場合における各辺の長さの比率,成分画像に識別対象領域が含まれている場合における成分の分布パターン(成分の分布状態,分布されている成分の配置など),などを規定しておけばよい。   In addition, the “predetermined rule” for extracting candidate regions from the component image only needs to define a candidate region consisting of identification target regions. For example, the outer shape and outer shape of the identification target region are The length of each side when it is a polygon, the angle formed by each side, the ratio of the length of each side when the outer shape is a polygon, and the component when the identification target area is included in the component image The distribution pattern (component distribution state, arrangement of distributed components, etc.), etc. may be specified.

また、原画像から識別対象領域の領域を検出する際に参照される「特徴的なパターン」とは、識別対象領域について定められた特徴的なパターンであればよく、例えば、識別対象領域が二次元コードである場合であれば、二次元コードにおいてコード化のシンボルとなるセルの配置パターンや、二次元コードであることを識別するために配置された特定シンボルの配置パターンや、二次元コードであることを識別するために配置されたマークのパターンなどのことである。   In addition, the “characteristic pattern” referred to when detecting the area of the identification target area from the original image may be a characteristic pattern determined for the identification target area. In the case of a two-dimensional code, if the two-dimensional code is used, the arrangement pattern of a cell that becomes a coding symbol in the two-dimensional code, the arrangement pattern of a specific symbol arranged to identify the two-dimensional code, or the two-dimensional code A pattern of marks arranged to identify a certain thing.

また、上記構成は、以下に示す第2の構成(請求項2)のようにするとよい。
この構成においては、前記領域検出手段により検出された識別対象領域それぞれについて、該識別対象領域にて示される情報を識別する情報識別手段,を備えている。
Moreover, the said structure is good to make it like the 2nd structure (Claim 2) shown below.
In this configuration, for each identification target area detected by the area detection means, information identification means for identifying information indicated in the identification target area is provided.

この構成であれば、複数の成分画像それぞれに基づいて検出された各識別対象領域について、この識別対象領域にて示される情報を識別することができる。
また、上記構成においては、識別対象領域にて示される情報を識別するための具体的な構成は特に限定されないが、例えば、識別対象領域が、複数のセルが配列され、各セルに色を付すことで該色または色の組合せに応じた1以上の情報それぞれをコード化した二次元コードである場合、以下に示す第3の構成(請求項3)のようにするとよい。
With this configuration, for each identification target area detected based on each of the plurality of component images, information indicated in the identification target area can be identified.
In the above configuration, the specific configuration for identifying the information indicated in the identification target area is not particularly limited. For example, in the identification target area, a plurality of cells are arranged and each cell is colored. Thus, when the two-dimensional code is obtained by coding each of one or more pieces of information corresponding to the color or the combination of colors, the third configuration (Claim 3) described below may be used.

第3の構成において、前記情報識別手段は、前記識別対象領域である二次元コードにおける各セルに付された色または色の組合せに基づいて情報を識別する。
この構成であれば、二次元コードに付された色に基づいて、識別対象領域で示される情報を識別することができる。
In the third configuration, the information identification unit identifies information based on a color or a combination of colors assigned to each cell in the two-dimensional code that is the identification target region.
With this configuration, it is possible to identify the information indicated in the identification target area based on the color attached to the two-dimensional code.

また、この構成では、二次元コード全体が正常に画像として生成されていれば問題はないが、画像の生成(具体的には撮影)状態によっては、一部のセルに対応する領域が欠けてしまうなど正常に画像として生成されていないことも考えられ、この場合、情報の識別そのものができなくなってしまう。   In this configuration, there is no problem as long as the entire two-dimensional code is normally generated as an image. However, depending on the image generation (specifically, shooting) state, an area corresponding to some cells may be missing. It is also possible that the image is not normally generated as an image, and in this case, the information itself cannot be identified.

このような問題に対しては、一部のセルに対応する領域が欠けてしまったような場合であっても、これを補償して適切な情報の識別が実現できるようにしておくことが望ましい。このための具体的な構成としては、例えば、上記構成を以下に示す第4の構成(請求項4)のようにすることが考えられる。   For such a problem, it is desirable that even if a region corresponding to a part of cells is missing, this can be compensated so that appropriate information can be identified. . As a specific configuration for this purpose, for example, the fourth configuration (claim 4) shown below can be considered.

第4の構成においては、前記識別対象領域は、前記複数のセルそれぞれに付される色が、複数種類の色のうち、該セルにてコード化すべき情報、および、該セルと隣接するセルに付された色に応じた着色規則に従って定められている。   In the fourth configuration, in the identification target area, a color assigned to each of the plurality of cells is information to be encoded in the cell, and a cell adjacent to the cell among a plurality of types of colors. It is determined according to the coloring rules corresponding to the attached colors.

さらに、前記領域検出手段により検出された識別対象領域それぞれについて、該識別対象領域である二次元コードにおける各セルのうち、該セルに対して前記着色規則に従って付されるべき色、および、前記二次元コードにおいて使用されるべき色、以外の色が付されているセルにつき、該セルに本来付されるべき色を前記着色規則に従って推定する色推定手段、を備えている。そして、前記情報識別手段は、前記識別対象領域である二次元コードにおける各セルのうち、前記色推定手段により色が推定されたセルに該推定された色が付されているものとして、各セルに付された色または色の組合せに基づいて情報を識別する。   Further, for each identification target region detected by the region detection means, out of each cell in the two-dimensional code that is the identification target region, the color to be assigned to the cell according to the coloring rule, and the two Color estimation means for estimating a color to be originally assigned to the cell according to the coloring rule for a cell having a color other than the color to be used in the dimension code. Then, the information identifying means is assumed that, among the cells in the two-dimensional code that is the identification target area, the cells whose color is estimated by the color estimating means are assigned with the estimated color. The information is identified based on the color or color combination attached to the.

この構成であれば、二次元コードにおける各セルのうち、一部のセルに対応する領域が欠けてしまっていたとしても、そのセルに本来付されるべき色を着色規則に従って推定し、その色に基づいて情報を識別することができるため、情報の識別そのものができなくなってしまうことを防止することができる。   With this configuration, even if an area corresponding to some of the cells in the two-dimensional code is missing, the color to be originally assigned to the cell is estimated according to the coloring rule, and the color Since the information can be identified based on the information, it is possible to prevent the information itself from being identified.

なお、この構成において、着色規則に従って推定されるセルの色として、複数の色が推定されるような場合には、そのうちのいずれかの色を、例えば、推定結果の確からしさなどといったパラメータに基づいて選択し、そうして選択した色が付されていると推定することとすればよい。また、複数の色が推定されるような場合、複数の色が付されているパターンそれぞれについて情報を識別し、そうして識別した情報の中から、いずれかの情報をユーザに選択させるようにしてもよい。   In this configuration, when a plurality of colors are estimated as the cell color estimated according to the coloring rule, any one of the colors is selected based on parameters such as the probability of the estimation result. And then presume that the selected color is attached. When a plurality of colors are estimated, information is identified for each of the patterns with a plurality of colors, and the user is allowed to select one of the identified information. May be.

また、識別対象領域が二次元コードである場合には、各セルの色を判定する必要があり、このための構成としては、例えば、以下に示す第5の構成(請求項5)のようにすることが考えられる。  Further, when the identification target region is a two-dimensional code, it is necessary to determine the color of each cell. For example, a fifth configuration (Claim 5) shown below can be used for this purpose. It is possible to do.

第5の構成においては、前記領域検出手段により検出された識別対象領域それぞれについて、該識別対象領域である二次元コードにおける各セルに付されている色を、該二次元コードにおいて使用される複数の色それぞれを中心に拡がる色空間上の判定領域のいずれに含まれているかにより判定する色判定手段、を備えている。そして、前記情報識別手段は、前記識別対象領域である二次元コードにおける各セルに、該セルについて前記色判定手段が判定した色が付されているものとして、各セルに付された色または色の組合せに基づいて情報を識別する。   In the fifth configuration, for each identification target region detected by the region detection means, a plurality of colors used in the two-dimensional code are assigned to each cell in the two-dimensional code that is the identification target region. Color determination means for determining whether the color is included in a determination region on a color space that extends centering on each of the colors. Then, the information identifying unit assumes that each cell in the two-dimensional code that is the identification target region is assigned the color determined by the color determining unit for the cell, and the color or color assigned to each cell. The information is identified based on the combination.

この構成であれば、二次元コードにおける各セルに付されている色を、色空間におけるいずれの判定領域に含まれているかにより判定することができる。
ただ、この構成においては、画像の生成条件によっては多くのセルに付された色がいずれの判定領域にも含まれないことも考えられ、この場合、情報の識別そのものができなくなってしまう。
With this configuration, the color assigned to each cell in the two-dimensional code can be determined based on which determination region in the color space is included.
However, in this configuration, depending on the image generation conditions, it may be considered that colors assigned to many cells are not included in any of the determination regions, and in this case, information identification itself cannot be performed.

このような問題に対しては、多くのセルに付された色がいずれの判定領域にも含まれない場合であっても、これを補償して適切な情報の識別が実現できるようにしておくことが望ましい。このための具体的な構成としては、例えば、第6の構成(請求項6)、第7の構成(請求項7)のようにすることが考えられる。   For such a problem, even if the colors given to many cells are not included in any of the determination areas, this is compensated so that appropriate information can be identified. It is desirable. As a specific configuration for this purpose, for example, a sixth configuration (Claim 6) and a seventh configuration (Claim 7) may be considered.

第6の構成において、前記色判定手段は、複数の色それぞれに対応する前記判定領域のいずれにも含まれていないと判定したセルが一定数以上存在する識別対象領域に対し、前記判定領域を一定領域だけ拡げたうえで、再度、各セルに付されている色を判定する。   In the sixth configuration, the color determination unit may determine the determination region for an identification target region including a predetermined number or more of cells that are determined not to be included in any of the determination regions corresponding to a plurality of colors. After expanding a certain area, the color assigned to each cell is determined again.

この構成であれば、画像の生成条件が悪く、適切に色の判定ができない場合であっても、判定領域を拡げることで判定の感度を上げて再度色を判定することにより、色の判定確率を高めることができる。   With this configuration, even if the image generation conditions are poor and the color cannot be determined properly, the color determination probability can be increased by increasing the determination sensitivity and determining the color again by expanding the determination area. Can be increased.

この構成において、判定領域を拡げる際の拡張幅は、他の判定領域と干渉しない範囲を上限として拡げることとすればよく、判定領域のいずれにも含まれていないと判定したセルが一定数未満となるまで、判定領域を徐々に拡げて再度の判定を繰り返すこととしてもよい。   In this configuration, the expansion width when expanding the determination area may be expanded up to a range that does not interfere with other determination areas, and the number of cells determined not to be included in any of the determination areas is less than a certain number. The determination area may be gradually expanded until the determination is repeated.

第7の構成において、前記色判定手段は、複数の色それぞれに対応する前記判定領域のいずれにも含まれていないと判定したセルが一定数以上存在する識別対象領域に対し、該識別対象領域における色の分布に応じて前記判定領域を色空間上で変移させたうえで、再度、各セルに付されている色を判定する。   In the seventh configuration, the color determination unit is configured to determine, for an identification target area where a predetermined number or more cells are determined not to be included in any of the determination areas corresponding to each of a plurality of colors. The determination area is shifted in the color space in accordance with the color distribution in, and the color assigned to each cell is determined again.

この構成であれば、画像の生成条件が悪く、適切に色の判定ができない場合であっても、判定領域を色の分布に応じた適切な位置まで変移させて再度色を判定することにより、色の判定確率を高めることができる。   With this configuration, even when the image generation conditions are poor and the color cannot be determined appropriately, the color is determined again by shifting the determination region to an appropriate position according to the color distribution, The color determination probability can be increased.

この構成において、判定領域は、識別対象領域における色成分の偏りを打ち消すことのできる色空間上の位置へと変移させることとすればよい。より具体的には、識別対象領域において特定の色成分が全体的に大きくなっている場合に、この色成分を小さくする方向に判定領域を変移させることが考えられる。   In this configuration, the determination area may be shifted to a position on the color space where the deviation of the color component in the identification target area can be canceled. More specifically, when a specific color component is increased as a whole in the identification target region, it can be considered that the determination region is shifted in a direction of decreasing the color component.

なお、上記第6,第7の構成において、「判定領域のいずれにも含まれていないと判定したセルが一定数以上存在する」における「一定数」については、全てのセルに占める該当セルの割合であってもよいし、該当セルの絶対数であってもよい。また、二次元コードにおいて該当セルが特定パターンで配置されている数であってよい。   In the sixth and seventh configurations, the “certain number” in “there are more than a certain number of cells determined not to be included in any of the determination areas” is the number of the corresponding cell in all cells. It may be a ratio or the absolute number of corresponding cells. In addition, the number of corresponding cells arranged in a specific pattern in the two-dimensional code may be used.

また、上記各構成において、成分画像から抽出された候補領域それぞれが、別の成分画像における抽出済み候補領域と一致するか否かは、例えば、両方の候補領域における重複度合に応じて判定することとすればよい。   In each of the above configurations, whether each candidate area extracted from the component image matches the extracted candidate area in another component image is determined according to, for example, the degree of overlap in both candidate areas. And it is sufficient.

このための構成としては、上記各構成を以下に示す第8の構成(請求項8)のように構成するとよい。
この構成において、前記一致判定手段は、特定の前記成分画像に対して、前記領域抽出手段により抽出された候補領域それぞれが、別の成分画像における前記抽出済み候補領域と一致するか否かを、両方の候補領域における重複度合に応じて判定する。
As a configuration for this purpose, each of the above configurations may be configured as an eighth configuration (claim 8) shown below.
In this configuration, the coincidence determining unit determines whether each of the candidate regions extracted by the region extracting unit matches the extracted candidate region in another component image with respect to the specific component image. The determination is made according to the degree of overlap in both candidate areas.

この構成であれば、特定の成分画像から抽出された候補領域と、別の成分画像における抽出済み候補領域との重複度合に応じ、その重複度合が一定以上であることをもって、両候補領域が一致すると判定することができる。   With this configuration, both candidate areas coincide with each other if the degree of overlap between the candidate area extracted from the specific component image and the extracted candidate area in another component image is greater than or equal to a certain level. Then it can be determined.

また、成分画像から抽出された候補領域それぞれが、別の成分画像における抽出済み候補領域と一致するか否かは、両方の候補領域のうちの一方の候補領域が他方の候補領域に包摂されているか否かに応じて判定することとしてもよい。   Also, whether each candidate area extracted from the component image matches the extracted candidate area in another component image is determined by one candidate area included in the other candidate area being included in the other candidate area. It may be determined according to whether or not there is.

このための構成としては、上記各構成を以下に示す第9の構成(請求項9)のように構成するとよい。
この構成において、前記一致判定手段は、特定の前記成分画像に対して、前記領域抽出手段により抽出された候補領域それぞれが、別の成分画像における前記抽出済み候補領域と一致するか否かを、両方の識別対象領域のうちの一方の候補領域が他方の候補領域に包摂されているか否かに応じて判定する。
As a configuration for this purpose, each of the above configurations may be configured as a ninth configuration (claim 9) described below.
In this configuration, the coincidence determining unit determines whether each of the candidate regions extracted by the region extracting unit matches the extracted candidate region in another component image with respect to the specific component image. The determination is made according to whether one candidate region of both identification target regions is included in the other candidate region.

この構成であれば、特定の成分画像から抽出され候補領域,および,別の成分画像における抽出済み候補領域のうち、一方の候補領域が他方の候補領域に包摂されていることをもって、両候補領域が一致すると判定することができる。   With this configuration, one candidate area extracted from a specific component image and one candidate area out of the extracted candidate areas in another component image are included in the other candidate area. Can be determined to match.

また、候補領域が多角形である場合であれば、成分画像から抽出された候補領域それぞれが、別の成分画像における抽出済み候補領域と一致するか否かは、候補領域として形成された多角形における1以上の頂点が抽出済み候補領域として形成された多角形におけるいずれかの頂点から一定範囲内に位置しているか否かに応じて判定することとしてもよい。   In addition, if the candidate area is a polygon, whether each candidate area extracted from the component image matches the extracted candidate area in another component image is determined as a polygon formed as a candidate area. The determination may be made according to whether or not one or more vertices in is located within a certain range from any vertex in the polygon formed as the extracted candidate region.

このための構成としては、上記各構成を以下に示す第10の構成(請求項10)のように構成するとよい。
この構成において、前記一致判定手段は、特定の前記成分画像において前記領域抽出手段により抽出された候補領域それぞれについて、該候補領域として形成された多角形における1以上の頂点が、前記抽出済み候補領域として形成された多角形におけるいずれかの頂点から一定範囲内に位置しているか否かに応じて、前記領域抽出手段により抽出された候補領域それぞれが、別の成分画像における前記抽出済み候補領域と一致するか否かを判定する。
As a configuration for this purpose, each of the above configurations may be configured as a tenth configuration (claim 10) described below.
In this configuration, the coincidence determination unit is configured such that, for each candidate region extracted by the region extraction unit in the specific component image, one or more vertices in a polygon formed as the candidate region are the extracted candidate region. Each of the candidate areas extracted by the area extracting means is different from the extracted candidate area in another component image depending on whether or not it is located within a certain range from any vertex in the polygon formed as It is determined whether or not they match.

この構成であれば、特定の成分画像から抽出された候補領域における1以上の頂点が、抽出済み候補領域におけるいずれかの頂点から一定範囲内に位置していることをもって、両候補領域が一致すると判定することができる。   With this configuration, when one or more vertices in a candidate area extracted from a specific component image are located within a certain range from any one of the extracted candidate areas, the two candidate areas match. Can be determined.

ここでいう「いずれかの頂点から一定範囲内」とは、特定の成分画像から抽出された候補領域と、別の成分画像における抽出済み候補領域とが一致する場合における両者の位置関係で決まる範囲内とすればよい。   Here, “within a certain range from any vertex” means a range determined by the positional relationship between a candidate area extracted from a specific component image and an extracted candidate area in another component image. It should be inside.

また、両候補領域が一致すると判定する条件としては、特定の成分画像から抽出された候補領域における少なくとも1の頂点が、別の成分画像における抽出済み候補領域におけるいずれかの頂点から一定範囲内に位置していればよい。また、両候補領域が一致すると判定するに際しては、いくつの頂点が一定範囲内に位置していることを条件としてもよく、識別対象領域を検出するまでの処理負担や処理速度などに応じて適宜変更することが考えられる。   As a condition for determining that both candidate areas match, at least one vertex in a candidate area extracted from a specific component image is within a certain range from any vertex in an extracted candidate area in another component image. It only has to be located. Further, when it is determined that both candidate areas match, it may be a condition that a number of vertices are located within a certain range, and depending on the processing load and the processing speed until the identification target area is detected, etc. It is possible to change.

また、上記構成における領域抽出手段は、以下に示す第11の構成(請求項11)のように、前記識別対象領域の形成に係る規則を規定するテンプレートに基づいて、前記成分変換手段により変換された成分画像から、そのテンプレートにて定められた規則に従って形成されている領域を候補領域として抽出する、こととしてもよい。   Further, the area extracting means in the above configuration is converted by the component converting means on the basis of a template that defines rules for forming the identification target area, as in an eleventh configuration (claim 11) described below. An area formed in accordance with a rule defined in the template may be extracted from the component image as a candidate area.

このように構成すれば、テンプレートで規定される規則に従って候補領域を抽出することができるため、このテンプレートと共に規則を変更することにより、任意の規則に従って形成された識別対象領域として検出できるようにすることができる。   With this configuration, candidate areas can be extracted in accordance with the rules defined in the template. Therefore, by changing the rules together with this template, it can be detected as an identification target area formed in accordance with an arbitrary rule. be able to.

この構成において、テンプレートは、以下に示す第12の構成(請求項12)のように、前記候補領域として、所定の情報をコード化してなる二次元コードの領域を形成する規則を規定している、ものを用いることが考えられる。   In this configuration, as in the twelfth configuration (Claim 12) described below, the template defines a rule for forming a two-dimensional code region obtained by encoding predetermined information as the candidate region. It is possible to use a thing.

この構成であれば、二次元コードの領域を識別対象領域として検出し、この二次元コードでコード化された情報を識別することができるようになる。
なお、上述した画像処理システムは、単体の装置により構成してもよいし、複数の装置が協調して動作するシステムとして構成してもよい。
With this configuration, it is possible to detect a region of the two-dimensional code as an identification target region and identify information encoded with the two-dimensional code.
Note that the image processing system described above may be configured as a single device, or may be configured as a system in which a plurality of devices operate in cooperation.

また、上記課題を解決するための構成としては、上記第1から第12のいずれかの構成における全ての手段として機能させるための各種処理手順を、コンピュータシステムに実行させるためのプログラム(請求項13)としてもよい。   Further, as a configuration for solving the above problems, a program for causing a computer system to execute various processing procedures for causing all the means in any one of the first to twelfth configurations to function as the means (claim 13). ).

このようなプログラムにより制御されるコンピュータシステムは、上記各構成に係る画像処理システムの一部を構成することができる。
なお、上述した各プログラムは、コンピュータシステムによる処理に適した命令の順番付けられた列からなるものであって、各種記録媒体や通信回線を介して画像処理システムや、これを利用するユーザに提供されるものである。
A computer system controlled by such a program can constitute a part of the image processing system according to each of the above-described configurations.
Each program described above consists of an ordered sequence of instructions suitable for processing by a computer system, and is provided to the image processing system and users who use it via various recording media and communication lines. It is what is done.

画像処理システムの全体構成を示すブロック図Block diagram showing the overall configuration of the image processing system 二次元コードの構成を示す図Diagram showing the structure of a two-dimensional code 情報識別処理を示すフローチャートFlow chart showing information identification processing 成分画像から抽出された候補領域それぞれが抽出済み候補領域と一致するか否かを判定するための別手法を示す図The figure which shows another method for determining whether each candidate area | region extracted from the component image corresponds with the extracted candidate area | region. 色判定処理を示すフローチャートFlow chart showing color determination processing

以下に本発明の実施形態を図面と共に説明する。
(1)全体構成
画像処理システム1は、図1に示すように、1以上のカメラ2それぞれとネットワーク100を介して通信可能な単体のサーバとして構成されたものである。
Embodiments of the present invention will be described below with reference to the drawings.
(1) Overall Configuration As shown in FIG. 1, the image processing system 1 is configured as a single server that can communicate with each of one or more cameras 2 via a network 100.

カメラ2は、それぞれが、所定の撮影領域の画像を示す画像データを生成して順次画像処理システム1へ送信するように構成された周知のカメラである。なお、このカメラ2は、所定のタイミングで撮影した静止画像を示す画像データを送信するものであればよいし、時間軸に沿って動画像として連続的に撮影された静止画像それぞれを示す画像データを随時送信するものであってもよい。   Each of the cameras 2 is a well-known camera configured to generate image data indicating an image of a predetermined shooting area and sequentially transmit the image data to the image processing system 1. The camera 2 only needs to transmit image data indicating a still image captured at a predetermined timing, and image data indicating each still image continuously captured as a moving image along the time axis. May be transmitted at any time.

画像処理システム1は、画像処理システム1全体を制御する制御部11,各種情報を記憶する記憶部13,操作部や表示部などからなるユーザインタフェース(UI)15,外部からのデータの入出力を制御する入出力インタフェース(I/O)17,ネットワーク100を介した通信を制御する通信部19などを備えた周知のコンピュータシステムである。   The image processing system 1 includes a control unit 11 that controls the entire image processing system 1, a storage unit 13 that stores various information, a user interface (UI) 15 including an operation unit and a display unit, and input / output of data from the outside. This is a well-known computer system including an input / output interface (I / O) 17 for controlling, a communication unit 19 for controlling communication via the network 100, and the like.

本実施形態における画像処理システム1は、1以上の識別対象領域が含まれた画像を示す画像データに基づいて、その画像中の識別対象領域により示される情報を識別して取得するシステムとして構成されたものである。なお、以下の説明では、識別対象領域として二次元コードによりコード化された情報を識別してシステムの構成を例示する。   The image processing system 1 in the present embodiment is configured as a system that identifies and acquires information indicated by an identification target area in the image based on image data indicating an image including one or more identification target areas. It is a thing. In the following description, the system configuration is illustrated by identifying information encoded by a two-dimensional code as an identification target region.

本実施形態における二次元コードは、図2に示すように、黒色の背景領域10上に複数のセルC11〜Cpq(2≦p,2≦q)が一定間隔で配列され、所定の情報が各セルの色および色の組み合わせによりコード化されたものである。つまり、この二次元コードは、セルそれぞれ,または,組み合わせに係るセル群それぞれが、そこに付された複数の色(多色),または,色の組み合わせパターンにより、数字や文字など複数種類の値(多値)を表現可能となっている。 Two-dimensional code in the present embodiment, as shown in FIG. 2, a plurality of cells C11~Cpq (2 ≦ p, 2 ≦ q) are arranged at regular intervals on the background area 2 10 black, the predetermined information It is coded by the color and color combination of each cell. In other words, this two-dimensional code is used for each cell or each group of cells related to a combination of multiple colors (multicolors) or multiple combinations of color values such as numbers and letters. (Multi-value) can be expressed.

ここで、この二次元コードを構成する1行目(図2における最上部の行)のセルC11〜C1qは、二次元コードの各セルCに付けられうるマークの色により、順番にマークが付けられた(セルCが塗りつぶされた)ヘッダー領域となっている。 Mark where the cell C11~C1q of the first line constituting the two-dimensional code (uppermost row in FIG. 2) is the color of the attaching et Leu Ru mark to each cell C of the two-dimensional code, in order The header area is marked with (cell C is filled).

本実施形態においては、セルCに付けられうるマークの色として、黒(k)を除く1色以上の色が、黒(k)でマークが付けられたセルCとセットで配列されている。
また、各行のセルCのうち、先頭(図2における左端の列))に位置するセルC11〜Cp1は、二次元コードの位置を特定するための特定セルとして配置されたものである。そして、この特定セルに付けられた色(本実施形態では、黒(k))と背景領域10とにより、二次元コードの領域を示す特徴的なパターンが形成されている。なお、この特徴的なパターンとしては、別の構成により実現するものとしてもよい。
In the present embodiment, as colors of marks that can be attached to the cell C, one or more colors excluding black (k) are arranged in a set with the cell C marked with black (k).
Also, among the cells C in each row, the cells C11 to Cp1 located at the head (the leftmost column in FIG. 2) are arranged as specific cells for specifying the position of the two-dimensional code. Then, (in the present embodiment, black (k)) obtained color applied to the specific cell by the background area 2 10, a characteristic pattern indicating the area of the two-dimensional code is formed. This characteristic pattern may be realized by another configuration.

そして、2行目以降のセルC11〜Cpq(先頭のセルC11〜Cp1を除く)は、行毎に、それぞれ1以上のセルCからなるセル群に分けられており、そのセル群で示すべき単位情報(1以上の文字)の対応づけられた色または色の組み合わせでマークが付けられる。こうして、各セルそれぞれ,または,1以上の組み合わせに係るセル群それぞれが、複数種類の文字のいずれかや多進数の数字で示されるいずれかの値からなる情報を持つことができるようになっている。
(2)制御部11による処理
以下に、制御部11が内部メモリまたは記憶部13に記憶されたプログラムに従って実行する各種処理の手順について順次説明する。
(2−1)情報識別処理
はじめに、画像処理システム1が、カメラ2から画像データを受信する毎,または,入出力インタフェース17を介して画像データが入力された際に起動される情報識別処理の処理手順を、図3に基づいて説明する。
The cells C11 to Cpq in the second and subsequent rows (excluding the leading cells C11 to Cp1) are divided into cell groups each including one or more cells C for each row, and the unit to be indicated by the cell group A mark is attached with a color or a combination of colors associated with information (one or more characters). In this way, each cell or each cell group related to one or more combinations can have information consisting of any one of a plurality of types of characters or any value represented by a multi-digit number. Yes.
(2) Processing by Control Unit 11 Hereinafter, procedures of various processes executed by the control unit 11 according to a program stored in the internal memory or the storage unit 13 will be sequentially described.
(2-1) Information Identification Processing First, an information identification processing that is started whenever the image processing system 1 receives image data from the camera 2 or when image data is input via the input / output interface 17. The processing procedure will be described with reference to FIG.

この情報識別処理は、外部から取得された画像の成分画像それぞれに基づき、原画像に含まれる候補領域の抽出,それが二次元コードであるか否か,および,それが二次元コードである場合の情報の識別,といった手順を経て情報を識別する処理である。   This information identification processing is based on each component image of an image acquired from the outside, extraction of candidate areas included in the original image, whether or not it is a two-dimensional code, and when it is a two-dimensional code In this process, information is identified through a procedure such as identification of information.

この情報識別処理が起動されると、まず、二次元コードを特徴づける情報を規定したテンプレートが記憶部13から読み出される(s110)。ここでいうテンプレートは、二次元コードからなる領域を規定する領域規則,二次元コードにおける特徴的なパターン,二次元コードにマークとして付けられる色(色数,色の種類)の着色規則などを示す情報である。   When this information identification process is activated, first, a template defining information characterizing the two-dimensional code is read from the storage unit 13 (s110). Here, the template indicates a region rule that defines a region composed of a two-dimensional code, a characteristic pattern in the two-dimensional code, a coloring rule of a color (number of colors, types of colors) attached to the two-dimensional code as a mark, and the like. Information.

これらのうち、「領域規則」とは、例えば、二次元コードの外形形状,外形形状が多角形である場合における各辺の長さや各辺で形成される角度,外形形状が多角形である場合における各辺の長さの比率,成分画像に二次元コードが含まれている場合における成分の分布パターン(成分の分布状態,分布されている成分の配置など),などのうち、1以上を規定するものであればよい。ただ、以降の処理による候補領域の抽出などに要する処理負担を軽減するためには、複数の項目を選択して規定したものとすることが望ましく、この場合、候補領域としての抽出数が少なくなる結果、処理負担の軽減に伴って処理時間の短縮が実現されることとなる。   Among these, the “region rule” means, for example, the outer shape of the two-dimensional code, the length of each side when the outer shape is a polygon, the angle formed by each side, and the outer shape is a polygon. Specifies one or more of the ratio of the length of each side in the component, the distribution pattern of the component when the component image contains a two-dimensional code (component distribution state, arrangement of distributed components, etc.) Anything to do. However, in order to reduce the processing burden required for the extraction of candidate areas by the subsequent processes, it is desirable that a plurality of items be selected and defined. In this case, the number of extractions as candidate areas is reduced. As a result, a reduction in processing time is realized with a reduction in processing load.

また、「特徴的なパターン」とは、例えば、二次元コードにおいてコード化のシンボルとなるセルの配置パターンや、二次元コードであることを識別するために配置された特定シンボルの配置パターンや、二次元コードであることを識別するために配置されたマーク(本実施形態でいえばヘッダー領域のマーク)のパターンなどのことである。   In addition, the “characteristic pattern” is, for example, a cell arrangement pattern that is a coding symbol in a two-dimensional code, a specific symbol arrangement pattern arranged to identify a two-dimensional code, This is a pattern of marks (a header area mark in this embodiment) arranged to identify a two-dimensional code.

また、「着色規則」とは、二次元コードにおける複数のセルそれぞれに付すべき色の規則であり、該当セルにてコード化すべき情報、および、該当セルと隣接するセルに付された色に応じて決められるものである。   In addition, the “coloring rule” is a color rule to be assigned to each of a plurality of cells in a two-dimensional code, and depends on information to be coded in the corresponding cell and colors assigned to cells adjacent to the corresponding cell. Can be determined.

次に、以降の処理で参照する変数X,Yが初期化(0→X,1→Y)される(s120)。
次に、外部から受信または入力された画像データが取得される(s130)。ここでは、外部から画像データが取得されると共に、この画像データで示される画像の複製が作成され、この複製となる画像の領域のうち、上述した領域規則に従って、二次元コードの外形形状となる境界部分(具体的な例としては直線部分)を抽出(例えば強調)する処理もあわせて行われる。なお、ここでは、領域規則に従った境界部分だけでなく、外形形状となる部分として許容される誤差範囲のパラメータで形成された部分についても抽出される。
Next, variables X and Y to be referred to in the subsequent processing are initialized (0 → X, 1 → Y) (s120).
Next, image data received or input from the outside is acquired (s130). Here, image data is acquired from the outside, and a copy of the image indicated by this image data is created, and the outer shape of the two-dimensional code is formed in accordance with the region rule described above among the regions of the image to be copied. A process of extracting (for example, emphasizing) a boundary portion (a straight line portion as a specific example) is also performed. Here, not only the boundary portion according to the region rule but also the portion formed by the parameter of the error range allowed as the portion to be the outer shape is extracted.

こうして、画像データが取得された以降は、この画像データで示される画像の複製となる画像(原画像)が成分画像に変換され、この成分画像について以降の処理が行われる。この成分画像は、原画像に含まれる成分を二値化してなる画像であり、最大、第1〜n番目(nは任意の数)の成分画像それぞれに対して、以降の処理が行われることになる。   Thus, after the image data is acquired, an image (original image) that is a copy of the image indicated by the image data is converted into a component image, and the subsequent processing is performed on the component image. This component image is an image obtained by binarizing components included in the original image, and the subsequent processing is performed on each of the first to nth (n is an arbitrary number) component images. become.

本実施形態において、成分画像とは、第1〜第m番目(m<n)の成分画像までが、それぞれ異なるしきい値で原画像を二値化した画像であり、第m+1〜第n番目の成分画像までが、n−m種類の色成分それぞれのみで原画像を二値化してなる画像である。ここでいう「」は、変数にセットされた値であり、本実施形態では、ユーザが要求する二次元コードの検出精度に応じた値(本実施形態では最大値6)を任意にセット可能に構成されている。 In the present embodiment, the component image is an image obtained by binarizing the original image with different threshold values from the first to m-th (m <n) component images, and the m + 1-th to n-th images. The component image is an image obtained by binarizing the original image using only nm color components. Here, “ n ” is a value set in the variable n . In this embodiment, a value (maximum value 6 in this embodiment) corresponding to the detection accuracy of the two-dimensional code requested by the user is arbitrarily set. It is configured to be possible.

より具体的にいえば、第1〜第3番目の成分画像までが、輝度120/255,150/255,200/255というように、順番に大きくなるしきい値により二値化した画像として定められており、第4〜第6番目の成分画像までが、赤色(R),緑色(G),青色(B)の順番でそれぞれ二値化した画像として定められている。この二値化のしきい値は、二次元コードの「領域規則」および「特徴的なパターン」に応じ、以降の処理において有効な候補領域を抽出し、適切に二次元コードを識別するのに適した値として定められたものである。   More specifically, the first to third component images are determined as binarized images with thresholds that increase in order, such as luminance 120/255, 150/255, 200/255. The fourth to sixth component images are defined as binarized images in the order of red (R), green (G), and blue (B). This threshold value for binarization is used to extract effective candidate areas in the subsequent processing according to the "region rules" and "characteristic patterns" of the two-dimensional code, and to identify the two-dimensional code appropriately. It is determined as a suitable value.

なお、ここでは、あらかじめ定められた輝度のしきい値および色成分により二値化する例を示したが、輝度以外に、明度,彩度のしきい値により二値化することとしてもよく、色成分についても、赤色,緑色,青色以外の色成分により二値化することとしてもよい。また、二値化により成分画像を生成する他、例えば、原画像における輝度,明度,彩度,特定色など特定の成分のみを分布させた画像を成分画像として生成することとしてもよい。   In addition, although the example which binarized with the threshold value of a predetermined brightness | luminance and a color component was shown here, it is good also as binarization with the threshold value of brightness and saturation other than a brightness | luminance, The color components may be binarized using color components other than red, green, and blue. In addition to generating a component image by binarization, for example, an image in which only specific components such as luminance, brightness, saturation, and specific color in the original image are distributed may be generated as the component image.

上記s130により画像データが取得された後、この画像データに基づいて、第1〜n番目の成分画像のうち、現時点で変数Yにセットされた値で示される番号の成分画像(第Y番目の成分画像)が生成される(s140)。ここでは、上記原画像を、第Y番目の成分画像への変換を実現するためのしきい値で二値化することにより、第Y番目の成分画像が生成される。   After the image data is acquired in s130, based on this image data, among the first to n-th component images, the component image having the number indicated by the value currently set in the variable Y (the Y-th component image) Component image) is generated (s140). Here, the Y-th component image is generated by binarizing the original image with a threshold value for realizing conversion to the Y-th component image.

次に、上記s140にて生成された成分画像に基づいて、この成分画像から、二次元コードからなる候補領域それぞれが特定される(s150)。ここでは、上記s110にて読み出されたテンプレートにおける「領域規則」に基づいて、第Y番目の成分画像から、二次元コードからなる候補領域(を規定する画像中の座標)それぞれが特定される。この「領域規則に従った領域」には、領域規則に従った領域だけでなく、その領域として許容される誤差範囲のパラメータで形成された領域も含まれる。   Next, on the basis of the component image generated in s140, each candidate region consisting of a two-dimensional code is specified from this component image (s150). Here, based on the “region rule” in the template read out in s110, each candidate region (coordinates in the image defining the two-dimensional code) is specified from the Yth component image. . The “region according to the region rule” includes not only a region according to the region rule but also a region formed with parameters of an error range allowed as the region.

次に、上記s150により特定された候補領域それぞれがリストに登録される(s160)。なお、このs160では、上記s150により候補領域が特定されなければ、何らの処理も行われない。   Next, each candidate area specified in s150 is registered in the list (s160). In s160, if no candidate area is specified in s150, no processing is performed.

次に、上記s160においてリストに登録された候補領域のうち、以降の処理で処理対象となっていない(未処理の)候補領域があるか否かがチェックされる(s170)。ここでは、リストに候補領域が登録されていない場合にも、未処理の候補領域がないと判定される。   Next, it is checked whether or not there is a candidate area that has not been processed (unprocessed) in the subsequent processing among the candidate areas registered in the list in s160 (s170). Here, even if no candidate area is registered in the list, it is determined that there is no unprocessed candidate area.

このs170で未処理の候補領域があると判定された場合には(s170:YES)、リストに登録されている未処理の候補領域のうち、いずれかの候補領域が選択される(s180)。   If it is determined in s170 that there is an unprocessed candidate area (s170: YES), any candidate area is selected from the unprocessed candidate areas registered in the list (s180).

次に、上記s180により選択された候補領域が有効なものであるか否かがチェックされる(s190)。ここでは、選択された候補領域が、領域規則に従った領域として任意に設定された誤差範囲内の候補領域である場合に、有効なものであると判定される。   Next, it is checked whether the candidate area selected in s180 is valid (s190). Here, when the selected candidate region is a candidate region within an error range arbitrarily set as a region according to the region rule, it is determined that the selected candidate region is effective.

このs190で二次元コードの領域が有効なものではないと判定された場合には(s190:NO)、プロセスがs170へ戻り、以降、別の候補領域について同様の処理が行われる。   If it is determined in s190 that the area of the two-dimensional code is not valid (s190: NO), the process returns to s170, and thereafter, the same process is performed for another candidate area.

一方、上記s190で二次元コードの領域が有効なものであると判定された場合には(s190:YES)、直前に行われた上記s150において特定された候補領域が、過去に行われた上記s150において特定された候補領域と同じであるか否かがチェックされる(s200)。   On the other hand, if it is determined in s190 that the two-dimensional code area is valid (s190: YES), the candidate area specified in s150 performed immediately before is the above-described candidate area. It is checked whether it is the same as the candidate area specified in s150 (s200).

ここでは、上記s150において特定された候補領域(新規候補領域)が、過去に行われた上記s150において特定されて内蔵メモリまたは記憶部13に格納されたいずれかの候補領域(抽出済み候補領域)に領域として所定割合以上重複している場合、または、新規候補領域および抽出済み候補領域の一方が他方に包摂されている場合に、新規候補領域が抽出済み候補領域と同じであると判定される。   Here, the candidate area identified in s150 (new candidate area) is any candidate area (extracted candidate area) identified in s150 performed in the past and stored in the internal memory or the storage unit 13. If a region overlaps with a predetermined ratio or more, or if one of the new candidate region and the extracted candidate region is included in the other, it is determined that the new candidate region is the same as the extracted candidate region. .

本実施形態では、候補領域が多角形となるため、成分画像から抽出された候補領域それぞれが、別の成分画像における抽出済み候補領域と一致するか否かは、候補領域として形成された多角形における1以上の頂点Pnが抽出済み候補領域として形成された多角形におけるいずれかの頂点Poから一定範囲(例えば一定の半径r距離)内に位置しているか否かに応じて判定することとしてもよい(図4参照)。   In this embodiment, since the candidate area is a polygon, whether each candidate area extracted from the component image matches the extracted candidate area in another component image is determined as a polygon formed as a candidate area. It is also possible to make a determination according to whether one or more vertices Pn in is located within a certain range (for example, a certain radius r distance) from any vertex Po in the polygon formed as the extracted candidate region Good (see FIG. 4).

なお、ここでいう「いずれかの頂点から一定範囲内」とは、特定の成分画像から抽出された候補領域と、別の成分画像における抽出済み候補領域とが一致する場合に、両方の候補領域が位置しうる位置関係で決まる範囲内とすればよく、上記一定の半径r距離内に限られない。   Here, “within a certain range from any one of the vertices” means that both candidate areas when a candidate area extracted from a specific component image matches an extracted candidate area in another component image. May be within a range determined by the positional relationship in which the position can be located, and is not limited to the above-described constant radius r distance.

このs200で、新規候補領域が抽出済み候補領域と同じであると判定された場合には(s200:YES)、プロセスがs170へ戻り、以降、別の候補領域について同様の処理が行われる。   If it is determined in s200 that the new candidate area is the same as the extracted candidate area (s200: YES), the process returns to s170, and the same process is performed for another candidate area thereafter.

一方、上記s200で、新規候補領域が抽出済み候補領域と同じではないと判定された場合には(s200:NO)、この時点における新規候補領域が情報の識別に適したものとなるように補正される(s210)。   On the other hand, when it is determined in s200 that the new candidate area is not the same as the extracted candidate area (s200: NO), the new candidate area at this time is corrected so as to be suitable for information identification. (S210).

ここでは、新規候補領域における二次元コードの形状,角度が補正される。具体的には、例えば、処理対象の領域が斜めに配置されていた場合や、正方形になっていない歪んだ形状となっている場合に、そのようなズレを補正すべく回転や、座標軸に合わせた延長・短縮などが行われる。なお、領域そのものを補正するのではなく、これ以降の処理で二次元コードか否かの判定,および,ここからの情報の識別を行う際に基準とする座標軸の角度や長さを補正することとしてもよい。さらに、このs210では、新規候補領域における二次元コードの色成分が、各セルにおける色の識別性を高めるべく補正される。   Here, the shape and angle of the two-dimensional code in the new candidate region are corrected. Specifically, for example, when the region to be processed is arranged obliquely or has a distorted shape that is not a square, it is rotated or adjusted to the coordinate axis to correct such a shift. Extensions and shortenings are made. In addition, the area itself is not corrected, but the angle and length of the coordinate axis used as a reference when determining whether or not the code is a two-dimensional code and identifying information from here are corrected. It is good. Further, in this s210, the color component of the two-dimensional code in the new candidate area is corrected so as to enhance the color discrimination in each cell.

次に、上記s130にて取得された画像データで示される原画像のうち、上記s210により補正された候補領域に対応する対応領域に、二次元コードとしての特徴的なパターンが含まれているか否かがチェックされる(s220)。   Next, in the original image indicated by the image data acquired in s130, a corresponding pattern corresponding to the candidate area corrected in s210 includes a characteristic pattern as a two-dimensional code. Is checked (s220).

ここでは、上記s210により補正された候補領域を単位領域(1以上のドットからなる領域)ずつ走査していき、そうして特定されたセル(特にヘッダー領域)やマークのパターンが、上記s110にて読み出されたテンプレートにおける「特徴的なパターン」で規定されたセルの配置パターンやマークのパターンと一致している場合に、コード領域に二次元コードとしての特徴的なパターンが含まれていると判定される。   Here, the candidate area corrected in the above s210 is scanned for each unit area (area composed of one or more dots), and the cell (particularly the header area) and mark pattern thus identified are displayed in the above s110. The code area contains a characteristic pattern as a two-dimensional code when it matches the cell layout pattern or mark pattern specified by the “characteristic pattern” in the template read out It is determined.

このs220で二次元コードとしての特徴的なパターンが含まれていないと判定された場合(s220:NO)、プロセスがs170へ戻り、以降、別のコード領域について同様の処理が行われる。   If it is determined in s220 that a characteristic pattern as a two-dimensional code is not included (s220: NO), the process returns to s170, and thereafter the same processing is performed for another code area.

一方、上記s220で二次元コードとしての特徴的なパターンが含まれていると判定された場合(s220:YES)、この時点における新規候補領域が二次元コードの領域として検出される(s230)。   On the other hand, when it is determined in s220 that a characteristic pattern as a two-dimensional code is included (s220: YES), a new candidate area at this point is detected as a two-dimensional code area (s230).

次に、上記s230にて検出された二次元コードの領域につき、その二次元コードにおけるセルそれぞれに付された色を特定するための色判定処理が行われる(s232)。
この色判定処理は、上記s230にて検出された二次元コードの領域を引数として実行され、この二次元コードにおけるセルそれぞれに付された色が戻り値となる。なお、この色判定処理における具体的な処理手順については後述する。
Next, for the area of the two-dimensional code detected in s230, a color determination process for specifying the color assigned to each cell in the two-dimensional code is performed (s232).
This color determination process is executed using the area of the two-dimensional code detected in s230 as an argument, and the color assigned to each cell in the two-dimensional code becomes a return value. A specific processing procedure in this color determination processing will be described later.

次に、上記s230にて検出された二次元コードの領域につき、上記s232にて特定された色に基づいて、その二次元コードで示される情報が、セルCそれぞれに付された色およびその組み合わせに基づいて識別され(s240)、こうして識別された情報が制御部11の内蔵メモリまたは記憶部13に格納される(s250)。   Next, for the area of the two-dimensional code detected in s230, based on the color specified in s232, the information indicated by the two-dimensional code is the color assigned to each cell C and the combination thereof. (S240), and the information thus identified is stored in the built-in memory of the control unit 11 or the storage unit 13 (s250).

次に、変数Xがインクリメント(X+1→X)される(s260)。
ここまで示したように、上述したs180〜s250までが行われるのは、s150にて特定された候補領域が二次元コードの体をなしていたことを意味している。そのため、このs260では、この変数Xをインクリメントすることにより、二次元コードとして検出,識別された候補領域の数を積算していることになる。
Next, the variable X is incremented (X + 1 → X) (s260).
As described so far, the above-described processing from s180 to s250 means that the candidate region specified in s150 forms a two-dimensional code body. Therefore, in this s260, by incrementing this variable X, the number of candidate areas detected and identified as a two-dimensional code is integrated.

次に、この時点で変数Xが所定数以上になっている,つまり所定数以上の候補領域が二次元コードの体をなしていたか否かがチェックされる(s262)。
このs262で変数Xが所定数以上になっていると判定された場合には(s262:YES)、そのまま本情報識別処理が終了する。
Next, at this time, it is checked whether or not the variable X is equal to or greater than a predetermined number, that is, whether or not a predetermined number or more of candidate areas form a body of a two-dimensional code (s262).
If it is determined in s262 that the variable X is greater than or equal to the predetermined number (s262: YES), the information identification process is terminated.

一方、上記s262で変数Xが所定数以上になっていないと判定された場合には(s262:NO)、プロセスがs170へ戻り、以降、別の候補領域について同様の処理が行われる。   On the other hand, when it is determined in s262 that the variable X is not equal to or greater than the predetermined number (s262: NO), the process returns to s170, and thereafter, the same processing is performed for another candidate region.

こうして、上記s170〜s262は、二次元コードとして検出,識別された候補領域の数が所定数以上とならない限り、リストに登録された全てのコード領域について繰り返し行われ、その後、全ての候補領域についてs170〜s262が行われたら、上記s170で未処理の候補領域がないと判定されて(s170:NO)、この時点での変数Yの値が、変数にセットされている値より大きい値(<Y)となっているか否かがチェックされる(s270)。 In this way, the above s170 to s262 are repeated for all the code areas registered in the list unless the number of candidate areas detected and identified as two-dimensional codes exceeds a predetermined number, and thereafter for all candidate areas. When s170 to s262 are performed, it is determined that there is no unprocessed candidate area in s170 (s170: NO), and the value of the variable Y at this time is a value larger than the value n set in the variable n It is checked whether ( n <Y) or not (s270).

このs270で変数Yの値が値より大きい値となっていないと判定された場合には(s260:NO)、この時点で変数Xが所定数以上になっている,つまり所定数以上の候補領域が二次元コードの体をなしていたか否かがチェックされる(s280)。 If it is determined in s270 that the value of the variable Y is not greater than the value n (s260: NO), the variable X is greater than or equal to a predetermined number at this point, that is, more than a predetermined number of candidates. It is checked whether or not the area has a body of a two-dimensional code (s280).

このs280で変数Xが所定数以上になっていると判定された場合には(s280:YES)、そのまま本情報識別処理が終了する。
一方、上記s280で変数Xが所定数以上になっていないと判定された場合には(s280:NO)、変数Yがインクリメント(Y+1→Y)された後(s290)、プロセスがs140へ戻り、次の成分画像に基づいて、上記s140〜s290が行われる。
If it is determined in s280 that the variable X is greater than or equal to the predetermined number (s280: YES), the information identification process is terminated.
On the other hand, when it is determined in s280 that the variable X is not greater than or equal to the predetermined number (s280: NO), after the variable Y is incremented (Y + 1 → Y) (s290), the process returns to s140. The above steps s140 to s290 are performed based on the next component image.

これ以降は、次の成分画像に基づいて上記s140〜s290が行われ、その処理の中で変数Xが所定数以上になれば、上記s280で「YES」と判定されて本情報識別処理が終了する一方、その処理の中で変数Xが所定数以上にならなければ、その次の成分画像についての処理が繰り返し行われることとなる。   Thereafter, the above s140 to s290 are performed based on the next component image, and if the variable X becomes a predetermined number or more in the process, it is determined as “YES” in the above s280 and the information identification process is completed. On the other hand, if the variable X does not become a predetermined number or more during the process, the process for the next component image is repeated.

そして、全ての成分画像に基づいて上記s140〜s290が行われた後は、変数Yの値が値より大きくなるため、上記s170で変数Yの値が値より大きい値になっていると判定され(s270:YES)、この場合も、本情報識別処理が終了する。 Then, after the s140~s290 is performed based on all of the component images, the value of the variable Y is greater than the value n, the value of the variable Y in the s170 is in the value n greater than In this case, the information identification process is also terminated.

この色判定処理では、まず、情報識別処理から渡された二次元コードの領域について、この二次元コードにおけるセルCのうち、以降の処理で処理対象となっていないいずれかのセルC(未処理のセル)が選択される(s310)。   In this color determination process, first, regarding the area of the two-dimensional code passed from the information identification process, one of the cells C in this two-dimensional code that has not been processed in the subsequent processes (unprocessed) Cell) is selected (s310).

次に、上記s310にて選択されたセルCに付けられた色が判定される(s320)。ここでは、上記s310にて選択されたセルCに付されている色が、二次元コードにおいて使用される複数の色それぞれを中心座標として拡がる色空間上の判定領域のうち、いずれの判定領域に含まれている(いずれの判定領域内に位置する)か否かにより判定される。   Next, the color assigned to the cell C selected in s310 is determined (s320). Here, in any of the determination areas on the color space in which the color assigned to the cell C selected in the above s310 spreads around each of a plurality of colors used in the two-dimensional code as a central coordinate, It is determined by whether or not it is included (located in any determination region).

そして、上記s310にて選択されたセルCと、このs320にて判定された色とが対応づけてデータテーブルに登録される。ここでは、データテーブルに登録済のセルCに対して色が判定された場合、このセルCに対応する色として、こうして判定された最新の色に更新される。   Then, the cell C selected in s310 and the color determined in s320 are associated with each other and registered in the data table. Here, when a color is determined for the cell C registered in the data table, the color corresponding to the cell C is updated to the latest color thus determined.

なお、このs320にていずれの判定領域のいずれにも含まれていないと判定された場合には、上記s310にて選択されたセルCに対し、判定領域外の色である旨が対応づけられる。   If it is determined in s320 that it is not included in any of the determination areas, the cell C selected in s310 is associated with a color outside the determination area. .

次に、この時点で処理対象となっていない未処理のセルCが残っているか否かがチェックされ(s330)、未処理のセルCが残っていると判定された場合には(s330:YES)、プロセスがs310へと戻り、以降、未処理のセルCがなくなるまでの間、s310〜s330が繰り返される。   Next, it is checked whether or not an unprocessed cell C that is not a processing target remains at this time (s330), and when it is determined that an unprocessed cell C remains (s330: YES). ), The process returns to s310, and thereafter s310 to s330 are repeated until there is no unprocessed cell C.

その後、未処理のセルCが残っていないと判定されたら(s330:NO)、上記s320にて色が判定されたセルCの中に、着色規則に従っていない色の付されたセルCが一定数以上存在しているか否かがチェックされる(s340)。ここでは、この時点でセルCと色とが対応づけて登録されたデータテーブルの中に、判定領域外の色である旨が対応づけられたセルCが一定数(例えば全体の3割)以上存在していることをもって、着色規則に従っていない色の付されたセルCが所定割合以上存在していると判定される。   Thereafter, when it is determined that there is no unprocessed cell C remaining (s330: NO), a certain number of cells C that are colored in accordance with the coloring rule among the cells C whose color is determined in s320. It is checked whether or not it exists (s340). Here, in the data table in which the cells C and colors are registered in association with each other at this time, a certain number (for example, 30% of the total) of cells C associated with colors outside the determination region It is determined that there are more than a predetermined percentage of colored cells C that do not comply with the coloring rules.

なお、ここでは、着色規則に従っていない色の付されたセルCが一定数以上存在しているか否かを、二次元コードのセルCに占める相対的な数(つまり割合)により判定するように構成しているが、二次元コードのセルCに占める絶対数により判定するように構成してもよいし、着色規則に従っていないセルCが特定のパターン(例えば、このセルCが2つ以上連続しているなど)で配置されている場合におけるこのパターンの数により判定するように構成してもよい。   Here, it is configured so as to determine whether or not there are a certain number or more of colored cells C that do not comply with the coloring rule based on the relative number (that is, the ratio) of the cells C in the two-dimensional code. However, the determination may be made based on the absolute number in the cell C of the two-dimensional code, or the cell C that does not comply with the coloring rule may have a specific pattern (for example, two or more consecutive cells C). Or the like) may be determined based on the number of patterns.

このs340で、着色規則に従っていない色の付されたセルCが一定数以上存在していると判定された場合には(s340:YES)、判定領域を変更して再度の色判定が可能な状態であるか否かがチェックされる(s350)。ここでは、直前に行われたs320における判定で参照された判定領域が、あらかじめ定められた上限まで変更されている場合に、判定領域を変更して再度の色判定が可能な状態ではないと判定される。   When it is determined in s340 that there are more than a certain number of colored cells C that do not comply with the coloring rule (s340: YES), the determination region can be changed and color determination can be performed again It is checked whether or not (s350). Here, when the determination area referred to in the determination in s320 performed immediately before is changed to a predetermined upper limit, it is determined that the determination area is changed and the color determination is not possible again. Is done.

この「あらかじめ定められた上限」とは、各判定領域が他の判定領域と干渉しないように変更できる範囲として定められたものであり、後述のように、判定領域を単純に拡げていく場合であれば、各判定領域を他の領域と干渉する程度まで拡張した状態となっていることをもって「あらかじめ定められた上限まで変更されている」こととすればよい。また、判定領域を変移させていく場合であれば、判定領域で規定される色が別の色成分になる直前の位置(境界)まで変移した状態となっていることをもって、「あらかじめ定められた上限まで変更されている」こととすればよい。   This “predetermined upper limit” is defined as a range in which each determination area can be changed so as not to interfere with other determination areas. As will be described later, the determination area is simply expanded. If there is, it can be determined that “the change has been made to a predetermined upper limit” that each determination area has been expanded to such an extent that it interferes with other areas. Further, in the case of shifting the determination area, it is in a state where the color defined in the determination area has shifted to a position (boundary) immediately before it becomes another color component. It has only to be changed to the upper limit.

このs350で、再度の色判定が可能であると判定された場合には(s350:YES)、上記s320における判定で参照された判定領域が変更される(s360)。ここでは、各判定領域を色空間上で一定領域だけ拡げる、または、各判定領域を色空間上で一定距離だけ変移させることにより判定領域それぞれが変更される。   If it is determined in s350 that the color determination can be performed again (s350: YES), the determination area referred to in the determination in s320 is changed (s360). Here, each determination area is changed by expanding each determination area by a certain distance in the color space or by shifting each determination area by a certain distance in the color space.

なお、この後者の場合、判定領域は、二次元コードの画像領域における色成分の偏りを打ち消すことのできる色空間上の位置へと変移させるように構成するとよい。具体的には、二次元コードの画像領域における色の分布を参照し、その分布において特定の色成分が全体的に大きくなっている場合に、この色成分を小さくする方向に各判定領域を変移させる。   In the latter case, the determination area may be configured to shift to a position on the color space where the deviation of the color component in the image area of the two-dimensional code can be canceled. Specifically, referring to the color distribution in the image area of the two-dimensional code, when a specific color component is increased overall in the distribution, each determination area is shifted in the direction of decreasing this color component. Let

こうして、s360を終えた後、プロセスがs310へと戻り、再度、各セルの色が判定される。
以降、再度色が判定されたセルそれぞれの中に、着色規則に従っていない色の付されたセルCが一定数以上存在していないと判定されるまで(s340:NO)、判定領域の変更および再度の色判定が繰り返される(s310〜s360)。
Thus, after finishing s360, the process returns to s310, and the color of each cell is determined again.
Thereafter, until it is determined that there are not a certain number or more of cells C that are not colored according to the coloring rule in each cell whose color has been determined again (s340: NO), the determination region is changed and again. The color determination is repeated (s310 to s360).

ただし、上記s350で、再度の色判定が不可能であると判定された場合には(s350:NO)、エラー処理が行われた後(s370)、本色判定処理が終了し、情報識別処理(図3のs240)へと戻る。このエラー処理では、いずれのセルCの色についても判定できなかったものとし、データテーブルに登録されていた全ての対応関係を消去され、こうして空のデータテーブルが戻り値として情報識別処理へ戻る。この場合、情報識別処理では、s240,s250で何らの処理も行われることなく、s260以降の処理が行われる。   However, when it is determined in s350 that the color determination is impossible again (s350: NO), after the error process is performed (s370), the main color determination process is ended and the information identification process ( Returning to s240) of FIG. In this error process, it is assumed that the color of any cell C could not be determined, and all the correspondence relationships registered in the data table are deleted, and thus an empty data table is returned to the information identification process as a return value. In this case, in the information identification processing, the processing after s260 is performed without performing any processing in s240 and s250.

そして、上記s310〜s360までの処理中に、上記s340にて、着色規則に従っていない色の付されたセルCが一定数以上存在していないと判定された場合には(s340:YES)、着色規則に従っていない色の付されたセルCが存在しているか否かがチェックされる(s380)。   During the processing from s310 to s360, if it is determined in s340 that there are no more than a certain number of colored cells C that do not comply with the coloring rule (s340: YES), coloring is performed. It is checked whether there is a colored cell C that does not comply with the rules (s380).

このs380で、該当セルCが存在していると判定された場合には(s380:YES)、二次元コードの中から該当セルCが特定される(s390)。ここでは、この時点でデータテーブルに登録されているセルCのうち、着色規則に従っていない色の付されたセルCが特定され、このセルCが二次元コードの中から特定される。   If it is determined in s380 that the corresponding cell C exists (s380: YES), the corresponding cell C is specified from the two-dimensional code (s390). Here, among the cells C registered in the data table at this time, a cell C that is colored that does not comply with the coloring rule is specified, and this cell C is specified from the two-dimensional code.

次に、上記s390にて特定されたセルCそれぞれについて、着色規則に従って本来付されるべき色が推定される(s400)。ここでは、上記s390にて特定されたセルCに対し、着色規則に従って本来付されるべき色の候補として、そのセルCに隣接するセルCに付された色との関係で考えられる色が選出され、その候補の中から最も確からしい色が、そのセルCに付されるべき色であるとして推定される。   Next, for each cell C specified in the above s390, the color to be originally attached is estimated according to the coloring rule (s400). Here, for the cell C identified in the above s390, a color that is considered in relation to the color assigned to the cell C adjacent to the cell C is selected as a candidate for the color that should be originally assigned according to the coloring rule. Then, the most probable color among the candidates is estimated as the color to be assigned to the cell C.

次に、上記s390にて特定されたセルCそれぞれについて、該セルCの色が、上記s400にて推定された色であると判定される(s410)。ここでは、上記s390にて特定されたセルCそれぞれについてのみ、データテーブルにおける色の更新がなされる。   Next, for each cell C identified in s390, it is determined that the color of the cell C is the color estimated in s400 (s410). Here, the color in the data table is updated only for each cell C identified in s390.

そして、s410を終えた後、または、上記s380で該当セルCが存在していないと判定された場合(s380:NO)、本色判定処理が終了し、情報識別処理(図3のs240)へと戻る。これらの場合、この時点でセルCと色との対応関係が登録されたデータテーブルが戻り値として情報識別処理へ戻る。この場合、情報識別処理では、データテーブルに基づいて各セルCに付された色を認識したうえで、s240による情報の識別を行うこととなる。
(3)作用,効果
上記実施形態における画像処理システム1であれば、外部から取得された画像(原画像)から生成された成分画像に基づき(図3のs140)、この成分画像中における候補領域の抽出(同図s150),この抽出した候補領域に対応する原画像中の対応領域それぞれに特徴的なパターンが含まれているか否かの判定(同図s220)を経て、原画像中から二次元コードの領域を検出することができる(同図s230)。
Then, after s410 is completed or when it is determined in s380 that the corresponding cell C does not exist (s380: NO), the color determination process ends, and the process proceeds to the information identification process (s240 in FIG. 3). Return. In these cases, the data table in which the correspondence relationship between the cell C and the color is registered at this point returns to the information identification process as a return value. In this case, in the information identification process, information is identified by s240 after recognizing the color assigned to each cell C based on the data table.
(3) Action and Effect In the image processing system 1 in the above embodiment, based on the component image generated from the image (original image) acquired from the outside (s140 in FIG. 3), the candidate area in this component image 2 (s150 in the figure), and whether or not each of the corresponding areas in the original image corresponding to the extracted candidate area includes a characteristic pattern (s220 in the figure) The area of the dimension code can be detected (s230 in the figure).

このように、原画像の領域において、成分画像の候補領域に対応する対応領域のうち、特徴的なパターンが含まれている対応領域を、原画像中における二次元コードの領域として検出することにより、原画像に含まれる1以上の二次元コードそれぞれを特定することができるようになる。   In this way, by detecting a corresponding area including a characteristic pattern among the corresponding areas corresponding to the candidate areas of the component image in the original image area as a two-dimensional code area in the original image. Each of the one or more two-dimensional codes included in the original image can be specified.

また、上記実施形態では、原画像に基づいて生成される複数種類の成分画像それぞれについて、候補領域の抽出,この抽出した候補領域に特徴的なパターンが含まれているか否かの判定,および,二次元コードの領域の検出を繰り返し実施している(図3のs140〜s290)。   In the above embodiment, for each of a plurality of types of component images generated based on the original image, extraction of candidate regions, determination of whether or not a characteristic pattern is included in the extracted candidate regions, and The detection of the two-dimensional code area is repeatedly performed (s140 to s290 in FIG. 3).

これにより、特定の成分画像に基づいて二次元コードの領域を検出できなかったとしても、別の成分画像に基づいて検出されることが期待でき、その結果、原画像における二次元コードの検出精度を高めることができる。   As a result, even if the region of the two-dimensional code cannot be detected based on the specific component image, it can be expected to be detected based on another component image, and as a result, the detection accuracy of the two-dimensional code in the original image Can be increased.

また、この繰り返しの過程では、特定の成分画像について新たに抽出された候補領域が、先に参照された成分画像について抽出された抽出済み候補領域と、原画像の領域において一致している場合も想定される。ところが、上記構成では、このような抽出済み領域について、抽出した候補領域に特徴的なパターンが含まれているか否かの判定,および,二次元コードの領域の検出を実施しない(同図s200「YES」)。   Also, in this iterative process, the candidate area newly extracted for a specific component image may match the extracted candidate area extracted for the previously referenced component image in the area of the original image. is assumed. However, in the above configuration, for such an extracted region, it is not determined whether or not a characteristic pattern is included in the extracted candidate region, and detection of the region of the two-dimensional code is not performed (s200 in FIG. YES ").

そのため、複数の成分画像それぞれに基づいて検出された各二次元コードの領域について、この二次元コードにてコード化された情報を識別するに際し、本来同じものであるはずの二次元コードを繰り返し識別してしまうといった無用な処理負担をなくすことができる。   Therefore, when identifying the information encoded by the two-dimensional code for each two-dimensional code area detected based on each of the plurality of component images, the two-dimensional code that should originally be the same is repeatedly identified. It is possible to eliminate an unnecessary processing burden such as.

また、上記実施形態では、原画像から、二次元コードからなる候補領域を抽出したうえで(図3のs150)、この候補領域から二次元コードを検出して情報の識別を行っている(同図s17〜s240)。そのため、候補領域を抽出することなく二次元コードを検出しようとする場合と比べて、抽出した候補領域という限定的な範囲から二次元コードの検出を行うことができることから、二次元コードから情報の識別を行うまでに要する処理負荷および処理時間を抑えることができる。 Further, in the above embodiment, after extracting a candidate area consisting of a two-dimensional code from the original image (s150 in FIG. 3), the two-dimensional code is detected from the candidate area to identify information (same as above). Figure s17 0 -s240). Therefore, compared with the case where a two-dimensional code is to be detected without extracting a candidate area, a two-dimensional code can be detected from a limited range of extracted candidate areas. The processing load and processing time required until identification can be suppressed.

また、上記実施形態では、複数の成分画像それぞれに基づいて検出された各二次元コードの領域について、この二次元コードにてコード化された情報を識別することができる(図3のs240)。   Further, in the above-described embodiment, information encoded by the two-dimensional code can be identified for each two-dimensional code region detected based on each of the plurality of component images (s240 in FIG. 3).

また、上記実施形態においては、特定の成分画像から抽出された候補領域と、別の成分画像における抽出済み候補領域との重複度合に応じ、その重複度合が一定以上であることをもって、両候補領域が一致すると判定することができる。   Further, in the above-described embodiment, both candidate areas have a certain degree of overlap according to the degree of overlap between a candidate area extracted from a specific component image and an extracted candidate area in another component image. Can be determined to match.

また、上記実施形態においては、特定の成分画像から抽出され候補領域,および,別の成分画像における抽出済み候補領域のうち、一方の候補領域が他方の候補領域に包摂されていることをもって、両候補領域が一致すると判定することができる。 In the embodiment described above, the candidate region extracted from a particular component image, and, among the already extracted candidate region in another component image, with that one of the candidate region is subsumed in the other candidate region, It can be determined that both candidate areas match.

また、上記実施形態においては、特定の成分画像から抽出された候補領域における1以上の頂点が、抽出済み候補領域におけるいずれかの頂点から一定範囲内に位置していることをもって、両候補領域が一致すると判定することもできる。   Further, in the above embodiment, both candidate regions are located when one or more vertices in the candidate region extracted from the specific component image are located within a certain range from any vertex in the extracted candidate region. It can also be determined that they match.

また、上記実施形態においては、テンプレートで規定される規則に従って候補領域を抽出することができるため、このテンプレートと共に規則を変更することにより、任意の規則に従って形成された識別対象領域として検出できるようにすることができる。   Further, in the above embodiment, candidate areas can be extracted according to the rules defined in the template. Therefore, by changing the rules together with this template, it can be detected as an identification target area formed according to an arbitrary rule. can do.

また、上記実施形態では、二次元コードの領域を識別対象領域として検出し、この二次元コードでコード化された情報を識別することができるようになる。
また、上記実施形態においては、二次元コードの各セルCに付された色に基づいて、二次元コードで示される情報を識別することができる(図のs232〜s240)。
In the above-described embodiment, a two-dimensional code area is detected as an identification target area, and information encoded by the two-dimensional code can be identified.
Moreover, in the said embodiment, the information shown by a two-dimensional code can be identified based on the color attached | subjected to each cell C of a two-dimensional code (s232-s240 of FIG. 3 ).

また、上記実施形態では、画像の生成(具体的には撮影)状態により、二次元コードにおける各セルCのうち、一部のセルCに対応する領域が欠けてしまっていたとしても、そのセルに本来付されるべき色を着色規則に従って推定し(図5のs400)、その色に基づいて情報を識別することができるため、情報の識別そのものができなくなってしまうことを防止することができる。   In the above embodiment, even if an area corresponding to a part of the cells C is missing among the cells C in the two-dimensional code due to the generation (specifically, shooting) state of the image, the cells The color that should be originally attached to the image can be estimated according to the coloring rule (s400 in FIG. 5), and information can be identified based on the color, so that it is possible to prevent the information itself from being identified. .

また、上記実施形態では、二次元コードにおける各セルCに付されている色を、色空間におけるいずれの判定領域に含まれているかにより判定することができる(図のs320)。 Further, in the above embodiment, the color assigned to each cell C in the two-dimensional code can be determined based on which determination region in the color space is included (s320 in FIG. 5 ).

また、この構成においては、各セルCの色を判定するに際し、多くのセルCに付された色がいずれの判定領域にも含まれず、情報の識別そのものができなくなるような場合であっても、そのようなことを防止できるように構成されている。   Further, in this configuration, even when the color of each cell C is determined, even if the color assigned to many cells C is not included in any determination region, and the information itself cannot be identified. It is configured to prevent such a situation.

具体的には、複数の色それぞれに対応する判定領域のいずれにも含まれていないと判定したセルが一定数以上存在する場合に(図のs340「YES」)、判定領域を一定領域だけ拡げる、または、変移させたうえで、再度、各セルに付されている色を判定している(同図s360〜s320)。 Specifically, when there are a predetermined number or more of cells that are determined not to be included in any of the determination regions corresponding to each of the plurality of colors (s340 “YES” in FIG. 5 ), the determination region is only the fixed region. After expanding or shifting, the color assigned to each cell is determined again (s360 to s320 in the figure).

この構成であれば、画像の生成条件が悪く、適切に色の判定ができない場合であっても、判定領域を拡げることで判定の感度を上げて再度色を判定する、または、判定領域を色の分布に応じた適切な位置まで変移させて再度色を判定することにより、色の判定確率を高めることができる。
(4)変形例
以上、本発明の実施形態について説明したが、本発明は、上記実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の形態をとり得ることはいうまでもない。
With this configuration, even if the image generation conditions are poor and the color cannot be determined properly, the determination area can be expanded to increase the determination sensitivity and determine the color again. By shifting to an appropriate position according to the distribution of the color and determining the color again, the color determination probability can be increased.
(4) Modifications The embodiment of the present invention has been described above. However, the present invention is not limited to the above embodiment, and can take various forms as long as it belongs to the technical scope of the present invention. Needless to say.

例えば、上記実施形態においては、画像処理システム1が単体の装置により構成されている場合を例示したが、この画像処理システム1は、複数の装置が協調して動作するシステムとして構成してもよい。   For example, in the above-described embodiment, the case where the image processing system 1 is configured by a single device has been exemplified. However, the image processing system 1 may be configured as a system in which a plurality of devices operate in cooperation. .

また、上記実施形態においては、本願発明でいう識別対象領域が二次元コードである場合を例示したが、識別対象領域としては、上述したような二次元コードに限らず、特定の画像(例えば、ロゴなど)を示す領域としてもよい。   Moreover, in the said embodiment, although the case where the identification object area | region said by this invention was a two-dimensional code was illustrated, as an identification object area | region, not only a two-dimensional code as mentioned above but a specific image (for example, It may be a region showing a logo or the like.

また、上記実施形態では、着色規則に従って付されるべき色の候補を選出し、その中から最も確からしい単一の色を、着色規則に従って本来付されるべき色と推定しているが、こうして色の候補を選出した段階で、これら候補のいずれかをユーザに選択させることとしてもよい。   Further, in the above embodiment, a candidate for a color to be attached according to the coloring rule is selected, and the most probable single color is estimated as a color that should be originally attached according to the coloring rule. At the stage where color candidates are selected, any of these candidates may be selected by the user.

また、候補として選出した色それぞれについて情報の識別までも行うようにし、そうして識別した情報の中からいずれかをユーザに選択させることとしてもよい。この場合、図5のs400では何らの処理も行わず、s410にて候補の色それぞれを、該当するセルCに付された色と判定する。そして、図のs240では、セルCに付された色として判定された色が複数存在していれば、各色について、または、各色の組合せに基づいて情報を識別し、そうして識別した情報の中から、いずれかをユーザに選択させる、といった構成を考えることができる。
(5)本発明との対応関係
以上説明した実施形態において、図3のs130が本発明における画像取得手段であり、同図s140が本発明における成分変換手段であり、同図s150が本発明における領域抽出手段であり、同図s220が本発明におけるパターン判定手段であり、同図s230が本発明における領域検出手段であり、同図s140〜s290(特にs140,s270,s290)が本発明における繰り返し実施手段であり、同図s200が本発明における一致判定手段であり、同図s240が本発明における情報識別手段である。
In addition, information may be identified for each color selected as a candidate, and the user may be allowed to select one of the identified information. In this case, no processing is performed in s400 of FIG. 5, and each candidate color is determined as a color assigned to the corresponding cell C in s410. 3 , if there are a plurality of colors determined as the colors assigned to the cell C, information is identified for each color or based on a combination of the colors, and the information thus identified is identified. It is possible to consider a configuration in which the user selects one of the items.
(5) Correspondence with the Present Invention In the embodiment described above, s130 in FIG. 3 is an image acquisition unit in the present invention, s140 in FIG. 3 is a component conversion unit in the present invention, and s150 in FIG. S220 is a pattern determining unit in the present invention, s230 is a region detecting unit in the present invention, and s140 to s290 (especially s140, s270, s290) are repeated in the present invention. FIG. S200 is the coincidence determining means in the present invention, and s240 in the figure is the information identifying means in the present invention.

また、図におけるs400が本発明における色推定手段であり、同図s30およびs410が本発明における色判定手段である。 Further, s400 in FIG. 5 is the color estimation means in the present invention, and s3 20 and s410 in the figure are the color determination means in the present invention.

1…画像処理システム、2…カメラ、11…制御部、13…記憶部、17…入出力インタフェース、19…通信部、100…ネットワーク、C…セル。   DESCRIPTION OF SYMBOLS 1 ... Image processing system, 2 ... Camera, 11 ... Control part, 13 ... Memory | storage part, 17 ... Input-output interface, 19 ... Communication part, 100 ... Network, C ... Cell.

Claims (13)

1以上の識別対象領域を含む領域が撮影されてなる画像を取得する画像取得手段と、
該画像取得手段により取得された画像を、該画像に含まれる明るさを示す成分のうち所定のしきい値以上の成分である特定の成分の分布を示す成分画像に変換する成分変換手段と、
該成分変換手段により変換された成分画像から、あらかじめ定められた規則であって、前記識別対象領域の候補領域となるべきか否かを前記識別対象領域の外形形状のパラメータに基づいて判定するための規則に従って形成されている領域を前記識別対象領域からなる候補領域として抽出する領域抽出手段と、
前記画像取得手段により取得された画像のうち、前記領域抽出手段により抽出された候補領域に対応する対応領域それぞれについて、該対応領域を形成する要素に、該対応領域内に形成されているパターンが前記識別対象領域であるか否かを決定するためのパターンである特徴的なパターンが含まれているか否かを判定するパターン判定手段と、
該パターン判定手段により特徴的なパターンが含まれていると判定された対応領域を、前記識別対象領域として検出する領域検出手段と、
前記成分変換手段による画像の成分画像への変換を種類以上の成分それぞれについて順に実施させると共に、各成分について変換された成分画像それぞれに対し、前記領域抽出手段による候補領域の抽出,前記パターン判定手段による特徴的なパターンの判定,および,前記領域検出手段による識別対象領域の検出,を繰り返し実施させる繰り返し実施手段と、
特定の前記成分画像に対して、前記領域抽出手段により抽出された候補領域それぞれが、別の成分画像について前記領域抽出手段が抽出した候補領域(以降「抽出済み候補領域」という)と一致するか否かを、両方の候補領域に基づいて判定する一致判定手段と、を備えており、
前記繰り返し実施手段は、前記パターン判定手段による特徴的なパターンを有しているか否かの判定,および,前記領域検出手段による識別対象領域の検出,を、前記領域抽出手段により抽出された候補領域のうち、前記一致判定手段により前記抽出済み候補領域と一致しないと判定された候補領域についてのみ実施させる
ことを特徴とする画像処理システム。
Image acquisition means for acquiring an image obtained by photographing an area including one or more identification target areas;
Component conversion means for converting the image acquired by the image acquisition means into a component image indicating a distribution of a specific component that is a component equal to or higher than a predetermined threshold among the components indicating brightness included in the image;
In order to determine whether or not to be a candidate area of the identification target area based on a parameter of the outer shape of the identification target area from the component image converted by the component conversion means A region extracting means for extracting a region formed in accordance with the rules as a candidate region consisting of the identification target region;
Among the images acquired by the image acquisition means, for each corresponding area corresponding to the candidate area extracted by the area extraction means, the pattern formed in the corresponding area is an element that forms the corresponding area. Pattern determination means for determining whether or not a characteristic pattern that is a pattern for determining whether or not the identification target region is included;
A region detecting unit for detecting, as the identification target region, a corresponding region determined to include a characteristic pattern by the pattern determining unit;
The conversion of the image into the component image by the component conversion unit is sequentially performed for each of two or more types of components, and for each component image converted for each component, extraction of candidate regions by the region extraction unit and the pattern determination Repetitive execution means for repeatedly performing characteristic pattern determination by the means and detection of the identification target area by the area detection means;
Whether each of the candidate areas extracted by the area extracting unit for a specific component image matches the candidate area extracted by the area extracting unit for another component image (hereinafter referred to as “extracted candidate area”) A determination unit for determining whether or not based on both candidate areas,
The repetitive execution means includes a candidate area extracted by the area extracting means for determining whether or not the pattern determining means has a characteristic pattern and detecting the identification target area by the area detecting means. Of these, only the candidate area determined not to match the extracted candidate area by the match determination means is executed.
前記領域検出手段により検出された識別対象領域それぞれについて、該識別対象領域にて示される情報を識別する情報識別手段,を備えている
ことを特徴とする請求項1に記載の画像処理システム。
The image processing system according to claim 1, further comprising: an information identification unit that identifies information indicated by the identification target region for each identification target region detected by the region detection unit.
前記識別対象領域は、複数のセルが配列され、各セルに色を付すことで該色または色の組合せに応じた1以上の情報それぞれをコード化した二次元コードであり、
前記情報識別手段は、前記識別対象領域である二次元コードにおける各セルに付された色または色の組合せに基づいて情報を識別する
ことを特徴とする請求項2に記載の画像処理システム。
The identification target area is a two-dimensional code in which a plurality of cells are arranged, and each cell is colored to code one or more pieces of information according to the color or a combination of colors,
The image processing system according to claim 2, wherein the information identification unit identifies information based on a color or a combination of colors assigned to each cell in the two-dimensional code that is the identification target region.
前記識別対象領域は、前記複数のセルそれぞれに付される色が、複数種類の色のうち、該セルにてコード化すべき情報、および、該セルと隣接するセルに付された色に応じた着色規則に従って定められており、
さらに、
前記領域検出手段により検出された識別対象領域それぞれについて、該識別対象領域である二次元コードにおける各セルのうち、該セルに対して前記着色規則に従って付されるべき色、および、前記二次元コードにおいて使用されるべき色、以外の色が付されているセルにつき、該セルに本来付されるべき色を前記着色規則に従って推定する色推定手段、を備えており、
前記情報識別手段は、前記識別対象領域である二次元コードにおける各セルのうち、前記色推定手段により色が推定されたセルに該推定された色が付されているものとして、各セルに付された色または色の組合せに基づいて情報を識別する
ことを特徴とする請求項3に記載の画像処理システム。
In the identification target area, the color assigned to each of the plurality of cells corresponds to information to be encoded in the cell and the color attached to the cell adjacent to the cell among the plurality of types of colors. It is determined according to coloring rules,
further,
For each identification target region detected by the region detection means, out of each cell in the two-dimensional code that is the identification target region, the color to be assigned to the cell according to the coloring rule, and the two-dimensional code A color estimation means for estimating a color to be originally assigned to the cell according to the coloring rule for a cell having a color other than the color to be used in the cell,
The information identification unit is attached to each cell on the assumption that the color estimated by the color estimation unit is attached to each cell in the two-dimensional code that is the identification target region. The image processing system according to claim 3, wherein the information is identified based on the selected color or combination of colors.
前記領域検出手段により検出された識別対象領域それぞれについて、該識別対象領域である二次元コードにおける各セルに付されている色を、該二次元コードにおいて使用される複数の色それぞれを中心に拡がる色空間上の判定領域のいずれに含まれているかにより判定する色判定手段、を備えており、
前記情報識別手段は、前記識別対象領域である二次元コードにおける各セルに、該セルについて前記色判定手段が判定した色が付されているものとして、各セルに付された色または色の組合せに基づいて情報を識別する
ことを特徴とする請求項3または請求項4に記載の画像処理システム。
For each identification target area detected by the area detection means, the color assigned to each cell in the two-dimensional code that is the identification target area is spread around each of a plurality of colors used in the two-dimensional code. Color judging means for judging according to which of the judgment areas on the color space is included,
The information identification unit assumes that each cell in the two-dimensional code that is the identification target region is given the color determined by the color determination unit for the cell, and the color or combination of colors assigned to each cell. The image processing system according to claim 3 or 4, wherein the information is identified based on the information.
前記色判定手段は、複数の色それぞれに対応する前記判定領域のいずれにも含まれていないと判定したセルが一定数以上存在する識別対象領域に対し、前記判定領域を一定領域だけ拡げたうえで、再度、各セルに付されている色を判定する
ことを特徴とする請求項5に記載の画像処理システム。
The color determination means expands the determination area by a certain area with respect to an identification target area where a certain number or more of cells determined not to be included in any of the determination areas corresponding to a plurality of colors are present. The image processing system according to claim 5, wherein the color assigned to each cell is determined again.
前記色判定手段は、複数の色それぞれに対応する前記判定領域のいずれにも含まれていないと判定したセルが一定数以上存在する識別対象領域に対し、該識別対象領域における色の分布に応じて前記判定領域を色空間上で変移させたうえで、再度、各セルに付されている色を判定する
ことを特徴とする請求項5に記載の画像処理システム。
The color determination means responds to a color distribution in the identification target region for a recognition target region having a predetermined number or more of cells determined not to be included in any of the determination regions corresponding to each of a plurality of colors. The image processing system according to claim 5, wherein the color assigned to each cell is determined again after the determination area is shifted in a color space.
前記一致判定手段は、特定の前記成分画像に対して、前記領域抽出手段により抽出された候補領域それぞれが、別の成分画像における前記抽出済み候補領域と一致するか否かを、両方の候補領域における重複度合に応じて判定する
ことを特徴とする請求項1から7のいずれか一項に記載の画像処理システム。
The match determination unit determines whether each candidate region extracted by the region extraction unit matches the extracted candidate region in another component image with respect to a specific component image. The image processing system according to claim 1, wherein the determination is made according to a degree of duplication.
前記一致判定手段は、特定の前記成分画像に対して、前記領域抽出手段により抽出された候補領域それぞれが、別の成分画像における前記抽出済み候補領域と一致するか否かを、両方の識別対象領域のうちの一方の候補領域が他方の候補領域に包摂されているか否かに応じて判定する
ことを特徴とする請求項1からのいずれか一項に記載の画像処理システム。
The coincidence determining unit determines whether each of the candidate regions extracted by the region extracting unit matches the extracted candidate region in another component image with respect to a specific component image. The image processing system according to any one of claims 1 to 8 , wherein one of the regions is determined according to whether or not one of the candidate regions is included in the other candidate region.
前記識別対象領域が多角形である場合において、
前記一致判定手段は、特定の前記成分画像において前記領域抽出手段により抽出された候補領域それぞれについて、該候補領域として形成された多角形における1以上の頂点が、前記抽出済み候補領域として形成された多角形におけるいずれかの頂点から一定範囲内に位置しているか否かに応じて、前記領域抽出手段により抽出された候補領域それぞれが、別の成分画像における前記抽出済み候補領域と一致するか否かを判定する
ことを特徴とする請求項1から9のいずれか一項に記載の画像処理システム。
In the case where the identification target area is a polygon,
The coincidence determining unit has one or more vertices in the polygon formed as the candidate region formed as the extracted candidate region for each candidate region extracted by the region extracting unit in the specific component image. Whether each of the candidate areas extracted by the area extracting means matches the extracted candidate area in another component image, depending on whether or not it is located within a certain range from any vertex in the polygon The image processing system according to claim 1, wherein the image processing system is determined.
前記領域抽出手段は、前記識別対象領域の形成に係る規則を規定するテンプレートに基づいて、前記成分変換手段により変換された成分画像から、そのテンプレートにて定められた規則に従って形成されている領域を候補領域として抽出する
ことを特徴とする請求項1から10のいずれか一項に記載の画像処理システム。
The area extracting means is configured to extract an area formed according to a rule defined in the template from a component image converted by the component converting means based on a template that defines a rule relating to the formation of the identification target area. It extracts as a candidate area | region. The image processing system as described in any one of Claim 1 to 10 characterized by the above-mentioned.
前記テンプレートは、前記候補領域として、所定の情報をコード化してなる二次元コードの領域を形成する規則を規定している
ことを特徴とする請求項11に記載の画像処理システム。
The image processing system according to claim 11, wherein the template defines a rule for forming a two-dimensional code region obtained by encoding predetermined information as the candidate region.
請求項1から12のいずれかに記載の全ての手段として機能指させるための各種処理手順をコンピュータシステムに実行させるためのプログラム。   A program for causing a computer system to execute various processing procedures for causing a function to be specified as all means according to any one of claims 1 to 12.
JP2010014628A 2009-01-26 2010-01-26 Image processing system and program Active JP4724799B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010014628A JP4724799B2 (en) 2009-01-26 2010-01-26 Image processing system and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009014666 2009-01-26
JP2009014666 2009-01-26
JP2010014628A JP4724799B2 (en) 2009-01-26 2010-01-26 Image processing system and program

Publications (3)

Publication Number Publication Date
JP2010191956A JP2010191956A (en) 2010-09-02
JP2010191956A5 JP2010191956A5 (en) 2010-11-04
JP4724799B2 true JP4724799B2 (en) 2011-07-13

Family

ID=42817882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010014628A Active JP4724799B2 (en) 2009-01-26 2010-01-26 Image processing system and program

Country Status (1)

Country Link
JP (1) JP4724799B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5319637B2 (en) * 2010-09-30 2013-10-16 株式会社シフト Two-dimensional code, encoding device, encoding program, and two-dimensional code reader

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000148797A (en) * 1998-08-31 2000-05-30 Sony Corp Image processor and method for image processing and image processing program storage medium
JP2006134337A (en) * 2004-11-05 2006-05-25 Colorzip Media Inc Method and apparatus for decoding mixed code, and recording medium
JP2008027036A (en) * 2006-07-19 2008-02-07 B-Core Inc Optical symbol, article therewith method of attaching optical symbol to article, and method of decoding optical symbol
JP2008282339A (en) * 2007-05-14 2008-11-20 Konica Minolta Business Technologies Inc Code detection program, code detection method, and image forming apparatus

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0950472A (en) * 1995-06-02 1997-02-18 Asahi Optical Co Ltd Data symbol reader

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000148797A (en) * 1998-08-31 2000-05-30 Sony Corp Image processor and method for image processing and image processing program storage medium
JP2006134337A (en) * 2004-11-05 2006-05-25 Colorzip Media Inc Method and apparatus for decoding mixed code, and recording medium
JP2008027036A (en) * 2006-07-19 2008-02-07 B-Core Inc Optical symbol, article therewith method of attaching optical symbol to article, and method of decoding optical symbol
JP2008282339A (en) * 2007-05-14 2008-11-20 Konica Minolta Business Technologies Inc Code detection program, code detection method, and image forming apparatus

Also Published As

Publication number Publication date
JP2010191956A (en) 2010-09-02

Similar Documents

Publication Publication Date Title
JP4724802B1 (en) 2D code reader and program
KR101701170B1 (en) Two-dimensional code, two-dimensional code reader, and program
JP4724801B1 (en) 2D code reader and program
US9219841B2 (en) Image-processing device identifying object in image specified by encircling line
US10339657B2 (en) Character detection apparatus and method
US20120140996A1 (en) Striped pattern image examination support device, striped pattern image examination support method and program
US9131193B2 (en) Image-processing device removing encircling lines for identifying sub-regions of image
JP2009134587A (en) Image processing device
JP2018120445A (en) Car number recognition apparatus
JP2019057066A (en) Line drawing automated coloring program, line drawing automated coloring device, and line drawing automated coloring method
CN115082888B (en) Lane line detection method and device
JP6569734B2 (en) Image processing apparatus, image processing method, and program
JP4724799B2 (en) Image processing system and program
US8150185B2 (en) Image processing for generating a thin line binary image and extracting vectors
KR101660476B1 (en) Metod for recognizing payment information in printed credit card
JP4910635B2 (en) Image processing apparatus and image processing program
US20160284106A1 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium
JP7117177B2 (en) Area identification device and program
US8599457B2 (en) Image processing device, method, system and the associated program for generating a composite image
JP7160162B2 (en) Image processing system
JP4471202B2 (en) Image processing apparatus, image processing method, and program used therefor
JP2017207837A (en) Image inspection device, image inspection method and program
CN109117844B (en) Password determination method and device
JP2008250582A (en) Three-dimensional shape data generation method
JP6732428B2 (en) Image processing device, halftone dot determination method, and program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100902

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100902

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20100902

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20100902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100902

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20101025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110201

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20110303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110314

R150 Certificate of patent or registration of utility model

Ref document number: 4724799

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140422

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250