JP2021184125A - Verification system - Google Patents

Verification system Download PDF

Info

Publication number
JP2021184125A
JP2021184125A JP2020088635A JP2020088635A JP2021184125A JP 2021184125 A JP2021184125 A JP 2021184125A JP 2020088635 A JP2020088635 A JP 2020088635A JP 2020088635 A JP2020088635 A JP 2020088635A JP 2021184125 A JP2021184125 A JP 2021184125A
Authority
JP
Japan
Prior art keywords
verification
area
processing unit
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020088635A
Other languages
Japanese (ja)
Other versions
JP6936529B1 (en
Inventor
成吉 谷井
Seikichi Tanii
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Marketvision Co Ltd
Original Assignee
Marketvision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Marketvision Co Ltd filed Critical Marketvision Co Ltd
Priority to JP2020088635A priority Critical patent/JP6936529B1/en
Priority to JP2021127336A priority patent/JP7231165B2/en
Application granted granted Critical
Publication of JP6936529B1 publication Critical patent/JP6936529B1/en
Publication of JP2021184125A publication Critical patent/JP2021184125A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a verification system for image recognition processing.SOLUTION: A verification system includes an image recognition processing section for executing first comparison processing of a part or all of an area in image information, and a verification processing section for executing second comparison processing of a part or all of the recognition result by the image recognition processing section. The verification processing section executes, as the second comparison processing, processing by a processing method that is not same as the first comparison processing, or a processing method in which all of elements for use in the first comparison processing and elements for use in the second comparison processing are not common.SELECTED DRAWING: Figure 1

Description

本発明は,画像認識処理用の検証システムに関する。 The present invention relates to a verification system for image recognition processing.

ある画像情報に,判定対象とする対象物が写っているかを判定することが求められる場合がある。たとえば商品の陳列棚を撮影した画像情報に,判定対象とする商品が写っているかを判定することで,その商品が陳列されていたかを判定する場合などがその一例としてあげられる。 It may be required to determine whether or not an object to be determined is reflected in a certain image information. For example, there is a case where it is determined whether or not the product is displayed by determining whether or not the product to be determined is reflected in the image information obtained by photographing the display shelf of the product.

このように,画像情報に対象物が写っているかを判定する場合には,通常,処理対象となる画像情報と,対象物の画像情報との画像認識処理(マッチング処理)を実行することが一般的である。たとえば,下記特許文献1には,商品ごとの登録画像をもとに,自動販売機を撮影した画像情報に対して画像認識処理を実行することで,自動販売機が取り扱う商品を把握するシステムが開示されている。 In this way, when determining whether an object is reflected in the image information, it is common to execute an image recognition process (matching process) between the image information to be processed and the image information of the object. It is a target. For example, in Patent Document 1 below, there is a system for grasping products handled by vending machines by executing image recognition processing on image information taken by vending machines based on registered images for each product. It has been disclosed.

特開2014−191423号公報Japanese Unexamined Patent Publication No. 2014-191423

特許文献1の具体的な処理は,複数の方向から自動販売機を撮影し,撮影した各画像の位置関係を合わせた後,撮影した各画像を重畳することで合成画像を生成する。そして,生成した合成画像に,自動販売機に陳列される可能性のある商品を表す登録画像を照合(画像認識処理)することで,自動販売機が取り扱う商品を特定している。 The specific processing of Patent Document 1 is to shoot a vending machine from a plurality of directions, align the positional relationships of the shot images, and then superimpose the shot images to generate a composite image. Then, the product handled by the vending machine is specified by collating the generated composite image with the registered image representing the product that may be displayed on the vending machine (image recognition processing).

合成画像と,商品を表す登録画像との照合処理(画像認識処理)の際には,それぞれの特徴量を用いることで処理を実行することが一般的である。このような画像認識処理の精度は完全ではないため,その精度を向上させるため,さまざまな研究,開発が行われている。 In the collation process (image recognition process) between the composite image and the registered image representing the product, it is common to execute the process by using each feature amount. Since the accuracy of such image recognition processing is not perfect, various studies and developments have been conducted to improve the accuracy.

しかしながら,現時点では,最新の画像認識処理の技術を利用したとしても,その認識精度は人間の認識能力には達しておらず,たとえば上述のように,商品の陳列棚を撮影した画像情報に,判定対象とする商品が写っているかを判定することで,その商品が陳列されていたかを判定するような場合には,その認識精度は高いとはいえない。 However, at present, even if the latest image recognition processing technology is used, its recognition accuracy has not reached the human recognition ability. When it is determined whether or not the product to be determined is displayed by determining whether or not the product is displayed, the recognition accuracy cannot be said to be high.

また,従来の画像認識システムは,あらかじめ登録されている画像のうち,どれがもっとも類似しているかを判定するシステムのため,相対的順位の優劣を比較して,もっとも順位が高い画像を第一候補として特定している。しかし画像認識システムの判定結果が正解か否かは不明であり,画像認識システムの第一候補の正誤を人間が判断する作業が必要となる場合がある。 In addition, since the conventional image recognition system is a system that determines which of the pre-registered images is the most similar, the superiority or inferiority of the relative ranking is compared, and the image with the highest ranking is the first. It has been identified as a candidate. However, it is unclear whether the judgment result of the image recognition system is correct or not, and it may be necessary for a human to judge the correctness of the first candidate of the image recognition system.

このように,従来の画像認識システムでは,認識結果に対して,人間による確認,修正作業が必要となる。そして人間による確認,修正作業は,作業の省力化のボトルネックになるとともに,その負担は著しく重い。 As described above, in the conventional image recognition system, it is necessary for humans to confirm and correct the recognition result. Confirmation and correction work by humans becomes a bottleneck for labor saving and the burden is extremely heavy.

このようなことから,画像認識処理をした認識結果に対する人間による確認,修正作業の省力化をすることが求められている。 For these reasons, it is required to save labor for human confirmation and correction work for the recognition result of image recognition processing.

また,画像認識処理の精度を向上させるほか,複数の画像認識処理の技術を並行して利用し,もっとも確度が高い判定結果を,画像認識処理の結果として利用することも考えられている。 In addition to improving the accuracy of image recognition processing, it is also considered to use multiple image recognition processing techniques in parallel and use the most accurate judgment result as the result of image recognition processing.

しかしこの場合,複数の画像認識処理を同等に取り扱い,それぞれの画像認識処理システムで出力結果を出力するため,画像認識処理システムの数だけ処理負荷,処理時間を要することとなる。たとえば,画像情報のある領域に写っている商品を,10,000標本の中から探索する場合であって,3つの画像認識処理システムを用いてそのうちもっとも確度の高い出力結果を採用するシステムとした場合,それぞれの画像認識処理システムで,画像情報の領域と10,000標本との画像認識処理を行う必要がある。そのため,合計で30,000標本に対する画像認識処理を行うこととなり,大幅な処理負荷,処理時間の増大となる課題がある。 However, in this case, since a plurality of image recognition processes are treated equally and the output result is output by each image recognition processing system, processing load and processing time are required for each image recognition processing system. For example, in the case of searching for a product in an area with image information from 10,000 samples, the system uses three image recognition processing systems and adopts the most accurate output result. In this case, it is necessary to perform image recognition processing on the image information area and 10,000 samples in each image recognition processing system. Therefore, the image recognition processing is performed on a total of 30,000 specimens, which causes a problem that the processing load and the processing time are significantly increased.

そこで本発明者は上記課題に鑑み,画像認識処理システムでの認識結果に対して,検証を行う検証システムを発明した。 Therefore, in view of the above problems, the present inventor has invented a verification system that verifies the recognition result in the image recognition processing system.

第1の発明は,画像情報における一部または全部の領域に対して第1の比較処理を実行する画像認識処理部と,前記画像認識処理部による認識結果の一部または全部に対して第2の比較処理を実行する検証処理部と,を有する検証システムであって,前記検証処理部は,前記第2の比較処理として,前記第1の比較処理とは同一ではない処理方式,または,前記第1の比較処理に用いる要素と前記第2の比較処理に用いる要素の全部が共通ではない処理方式による処理を実行する,検証システムである。 The first invention is a second aspect of an image recognition processing unit that executes a first comparison process for a part or all areas of image information, and a part or all of recognition results by the image recognition processing unit. A verification processing unit having a verification processing unit for executing the comparison processing of the above, wherein the verification processing unit has a processing method that is not the same as the first comparison processing as the second comparison processing, or the above. This is a verification system that executes processing by a processing method in which all the elements used in the first comparison processing and the elements used in the second comparison processing are not common.

本発明のように構成することで,第1の比較処理と第2の比較処理のそれぞれの独立性を確保することができる。また,第2の比較処理では,第1の比較処理とは異なり,画像認識処理部の判定結果に対して比較処理を実行するので,単に複数の比較処理を併存させる場合とは異なり,処理負荷を大幅に軽減させることもでき,また,人間による判断を介在させることなく,正誤判定を行いやすくなる。 By configuring as in the present invention, the independence of the first comparison process and the second comparison process can be ensured. Further, in the second comparison process, unlike the first comparison process, the comparison process is executed for the judgment result of the image recognition processing unit, so that the processing load is different from the case where a plurality of comparison processes are simply coexisted. Can be significantly reduced, and it becomes easier to make a correct / incorrect judgment without intervening human judgment.

上述の発明において,前記検証処理部は,前記第2の比較処理として,前記第1の比較処理とは異なる処理方式,または,前記第1の比較処理に用いる要素と前記第2の比較処理に用いる要素の全部が異なる処理方式による処理を実行する,検証システムのように構成することができる。 In the above-described invention, the verification processing unit uses a processing method different from that of the first comparison processing, or an element used in the first comparison processing and the second comparison processing as the second comparison processing. It can be configured like a verification system in which all the elements used execute processing by different processing methods.

本発明のように構成することで,第1の比較処理と第2の比較処理のそれぞれの独立性をより確保することができ,検証処理の精度を向上させることができる。 By configuring as in the present invention, the independence of the first comparison process and the second comparison process can be further ensured, and the accuracy of the verification process can be improved.

上述の発明において,前記検証システムは,対象物の標本情報を記憶する標本情報記憶部と,前記検証処理部における第2の比較処理の判定結果に対する処理を実行する検証結果処理部と,を有しており,前記画像認識処理部における前記第1の比較処理は,前記画像情報における処理対象とする領域と,前記標本情報における標本情報とを比較することで,前記処理対象とする領域に写っている対象物を特定し,前記検証処理部における前記第2の比較処理は,前記第1の比較処理において特定した対象物のうち一部または全部の対象物の対応する情報と,前記処理対象とする領域との比較結果が所定条件を充足する場合には前記第1の比較処理の結果が正しいと判定し,前記検証結果処理部は,前記検証処理部において正しいと判定した場合には,前記第1の比較処理の結果を,前記処理対象とする領域に写っている対象物として特定する,検証システムのように構成することができる。 In the above-described invention, the verification system includes a sample information storage unit that stores sample information of an object, and a verification result processing unit that executes processing for a determination result of a second comparison processing in the verification processing unit. In the first comparison process in the image recognition processing unit, the area to be processed in the image information is compared with the sample information in the sample information, and the image is reflected in the area to be processed. In the second comparison process in the verification processing unit, the corresponding information of a part or all of the objects specified in the first comparison process and the processing target are performed. When the comparison result with the region is satisfied with the predetermined conditions, it is determined that the result of the first comparison process is correct, and when the verification result processing unit determines that the verification result processing unit is correct, the verification result processing unit determines that the result is correct. It can be configured like a verification system that specifies the result of the first comparison process as an object reflected in the area to be processed.

本発明のような処理を実行することで,処理対象とする領域において,検証処理部で正解と判定した場合には,そのままそこに写っている対象物を特定することができるので,人手による検証作業を省力化することができる。 By executing the processing as in the present invention, if the verification processing unit determines that the answer is correct in the area to be processed, the object reflected in the correct answer can be identified as it is, so that the verification is performed manually. The work can be saved.

上述の発明において,前記検証処理部における前記第2の比較処理は,前記比較結果が所定条件を充足しない場合には前記第1の比較処理の結果が誤りと判定し,前記検証結果処理部は,前記検証処理部において誤りと判定した場合には,所定の通知を行う,検証システムのように構成することができる。 In the above-described invention, in the second comparison process in the verification processing unit, if the comparison result does not satisfy a predetermined condition, the result of the first comparison process is determined to be an error, and the verification result processing unit determines that the result is an error. , If the verification processing unit determines that an error has occurred, it can be configured like a verification system that gives a predetermined notification.

本発明のような処理を実行することで,処理対象とする領域において,検証処理部で誤りと判定した場合には,この通知がなされるので,この通知がなされた領域のみ,人手による検証作業を行えばよい。そのため,人手による検証作業を省力化することができる。 By executing the process as in the present invention, if the verification processing unit determines that an error has occurred in the area to be processed, this notification is given. Therefore, only the area to which this notification is given is manually verified. You just have to do. Therefore, the manual verification work can be saved.

上述の発明において,前記標本情報記憶部は,対象物を特徴付ける検証領域を示す情報,その検証領域を抽出する画像フィルタの種別の情報,その検証領域の画像情報を含む検証キーを少なくとも一以上備える検証ディスクリプタを,少なくとも対象物ごとに一以上記憶しており,前記検証処理部は,前記第1の比較処理において特定した対象物のうち一部または全部の対象物の対応する前記検証ディスクリプタを特定し,前記特定した検証ディスクリプタにおける各検証キーについて,その検証キーの情報を用いて前記処理対象とする領域から前記検証領域に対応する領域を抽出できるかを判定し,前記領域を抽出できた場合には,前記抽出した領域の画像情報と,前記検証キーの画像情報との一致度を算出し,前記算出した一致度と所定の閾値とを比較し,比較結果が所定条件を充足する場合には前記第1の比較処理の結果が正しいとして前記処理対象とする領域に写っている対象物として特定する,検証システムのように構成することができる。 In the above-described invention, the sample information storage unit includes at least one verification key including information indicating a verification area that characterizes an object, information on the type of image filter that extracts the verification area, and image information of the verification area. At least one or more verification descriptors are stored for each object, and the verification processing unit specifies the verification descriptor corresponding to some or all of the objects specified in the first comparison process. Then, for each verification key in the specified verification descriptor, it is determined whether the area corresponding to the verification area can be extracted from the area to be processed by using the information of the verification key, and the area can be extracted. When the degree of matching between the image information of the extracted area and the image information of the verification key is calculated, the calculated degree of matching is compared with a predetermined threshold, and the comparison result satisfies the predetermined condition. Can be configured like a verification system that specifies that the result of the first comparison process is correct as an object reflected in the area to be processed.

上述の発明において,前記検証処理部は,前記第1の比較処理において特定した対象物のうち一部または全部の対象物の対応する前記検証ディスクリプタを特定し,前記特定した検証ディスクリプタにおける各検証キーについて,前記処理対象とする領域のうち,その検証キーにおける検証領域に対応する領域から,その検証キーにおける画像フィルタを用いて領域を抽出できるかを判定し,領域を抽出できた場合には,前記抽出した領域と前記検証キーの画像情報との一致度を算出し,前記算出した一致度と所定の閾値とを比較し,比較結果が所定条件を充足する場合には前記第1の比較処理の結果が正しいとして前記処理対象とする領域に写っている対象物として特定する,検証システムのように構成することができる。 In the above-described invention, the verification processing unit specifies the verification descriptor corresponding to a part or all of the objects specified in the first comparison process, and each verification key in the specified verification descriptor. Of the areas to be processed, it is determined whether the area can be extracted from the area corresponding to the verification area in the verification key by using the image filter in the verification key, and if the area can be extracted, if the area can be extracted. The degree of matching between the extracted area and the image information of the verification key is calculated, the calculated degree of matching is compared with a predetermined threshold value, and when the comparison result satisfies the predetermined condition, the first comparison process is performed. It can be configured like a verification system that identifies the object in the area to be processed as the result of the above is correct.

第2の比較処理としてはさまざまな処理方式を用いることができるが,本発明のように構成する処理方式を用いることで,人手による作業を極力減らし,精度よく第2の比較処理を実行することができる。 Various processing methods can be used as the second comparison processing, but by using the processing method configured as in the present invention, the manual work is reduced as much as possible, and the second comparison processing is executed with high accuracy. Can be done.

上述の発明において,前記検証処理部は,前記標本情報とする対象物の画像情報または標本情報から,前記対象物を特徴付ける閉領域を検証領域として受け付け,前記検証領域と前記検証領域に対する周辺領域とを区別する画像フィルタを選択し,前記検証領域における画像情報とを,検証キーにおける情報として,前記標本情報記憶部に記憶させる,検証システムのように構成することができる。 In the above-described invention, the verification processing unit accepts a closed region that characterizes the object as a verification region from the image information or the sample information of the object as the sample information, and sets the verification region and the peripheral region with respect to the verification region. It can be configured like a verification system in which an image filter that distinguishes between the above is selected and the image information in the verification area is stored in the sample information storage unit as information in the verification key.

検証ディスクリプタにおける検証キーは,本発明のように構成することができる。 The verification key in the verification descriptor can be configured as in the present invention.

上述の発明において,前記検証処理部は,あらかじめ登録してある画像フィルタのうち,前記検証領域の内部でもっとも広い面積で適合となり,前記周辺領域のもっとも広い面積で非適合となる画像フィルタを探索することで,画像フィルタを選択する,検証システムのように構成することができる。 In the above-mentioned invention, the verification processing unit searches for an image filter that is compatible in the widest area inside the verification area and is incompatible in the widest area of the peripheral area among the image filters registered in advance. By doing so, it can be configured like a verification system that selects an image filter.

上述の発明において,前記検証処理部は,あらかじめ登録してある画像フィルタのうち,前記検証領域の適合ピクセル数/前記検証領域のピクセル数をAT,前記周辺領域の非適合ピクセル数/前記周辺領域のピクセル数をBFとしたとき,ATとBFの調和平均を最大化する画像フィルタを選択する,検証システムのように構成することができる。 In the above-described invention, the verification processing unit sets the number of conforming pixels in the verification area / the number of pixels in the verification area to AT, and the number of non-conforming pixels in the peripheral area / the peripheral area among the image filters registered in advance. When the number of pixels of is BF, it can be configured like a verification system that selects an image filter that maximizes the harmonic mean of AT and BF.

検証ディスクリプタにおける検証キーで用いる画像フィルタを人手で特定する作業は負担が大きい。そこで,本発明のように構成することで,検証キーで用いる画像フィルタを自動的に特定することができる。 The work of manually specifying the image filter used for the verification key in the verification descriptor is burdensome. Therefore, by configuring as in the present invention, the image filter used for the verification key can be automatically specified.

上述の発明において,前記検証領域,前記周辺領域について,二値画像の膨張または収縮処理をした後に,前記検証領域と前記検証領域に対する周辺領域とを区別する画像フィルタを選択する,検証システムのように構成することができる。 In the above invention, like a verification system that selects an image filter that distinguishes between the verification region and the peripheral region with respect to the verification region after the binary image is expanded or contracted with respect to the verification region and the peripheral region. Can be configured in.

検証領域,周辺領域内に画像フィルタを適用して検出される結果は,内部のピクセルが埋まっていない,いわゆる抜けのある画像となる場合がある。そのため,本発明のように二値画像の膨張・収縮処理をして抜けピクセルを埋めた後に,上述の適合・非適合のピクセルの算出を行うことが好ましい。これによって,結果が安定し,より適切な画像フィルタの選択が可能となる。 The result detected by applying the image filter in the verification area and the peripheral area may be a so-called missing image in which the internal pixels are not filled. Therefore, it is preferable to calculate the conforming / non-conforming pixels described above after filling the missing pixels by expanding / contracting the binary image as in the present invention. This stabilizes the results and allows the selection of a more appropriate image filter.

上述の発明において,前記標本情報記憶部は,前記対象物を特徴付ける部分を類型化した特徴情報と優位度とを検証ディスクリプタとして,少なくとも対象物ごとに一以上記憶しており,前記特徴情報として,対象物を特徴付ける部分である対象と,前記対象の属性,前記属性に対する属性値とを有しており,前記検証処理部は,前記第1の比較処理において特定した対象物のうち一部または全部の対象物の対応する前記検証ディスクリプタを特定し,前記特定した検証ディスクリプタにおける各特徴情報について,優位度の高い特徴情報の順に,前記処理対象とする領域が,前記特徴情報における属性および属性値を充足しているかを判定し,所定条件を充足した場合には,前記第1の比較処理の結果が正しいとして前記処理対象とする領域に写っている対象物として特定する,検証システムのように構成することができる。 In the above-described invention, the sample information storage unit stores at least one or more feature information categorizing the portion that characterizes the object and the superiority as a verification descriptor, and the feature information is as the feature information. It has an object that is a part that characterizes the object, the attribute of the object, and the attribute value for the attribute, and the verification processing unit has a part or all of the object specified in the first comparison process. The verification descriptor corresponding to the object of the object is specified, and for each feature information in the specified verification descriptor, the area to be processed sets the attributes and attribute values in the feature information in the order of the feature information having the highest degree of superiority. It is configured like a verification system that determines whether it is satisfied, and if the predetermined condition is satisfied, identifies it as an object reflected in the area to be processed, assuming that the result of the first comparison process is correct. can do.

本発明のように構成することで,検証ディスクリプタをより簡便に構成し,またその処理も簡便にできる。 By configuring as in the present invention, the verification descriptor can be configured more easily and its processing can be simplified.

上述の発明において,前記標本情報記憶部は,画像情報における対象物の形状を代表する部分領域の情報を含むプロファイルデータを,少なくとも対象物ごとに一以上記憶しており,前記検証処理部は,前記処理対象とする領域を所定色数に減色し,前記減色した画像情報に対して色ごとの領域に分割をして,特定した領域を構成要素として特定することで,処理対象とする領域のプロファイルデータを生成し,前記処理対象とする領域のプロファイルデータと,前記第1の比較処理において特定した対象物のうち一または全部の対象物のプロファイルデータとを用いて類似性を比較し,前記類似性が所定条件を充足した場合には,前記第1の比較処理の結果が正しいとして前記処理対象とする領域に写っている対象物として特定する,検証システムのように構成することができる。 In the above-described invention, the sample information storage unit stores at least one profile data including information of a partial region representing the shape of the object in the image information, and the verification processing unit stores at least one profile data for each object. By reducing the color of the area to be processed to a predetermined number of colors, dividing the reduced image information into areas for each color, and specifying the specified area as a component, the area to be processed can be obtained. Profile data is generated, and the similarity is compared between the profile data of the area to be processed and the profile data of one or all of the objects specified in the first comparison process. When the similarity satisfies a predetermined condition, it can be configured like a verification system that identifies the object as being reflected in the area to be processed as the result of the first comparison processing is correct.

上述の発明において,前記検証処理部は,前記処理対象とする領域のプロファイルデータの構成要素のうち面積が大きい所定数の構成要素と,前記第1の比較処理において特定した対象物のうち一または全部の対象物のプロファイルデータの構成要素のうち面積が大きい所定数の構成要素をそれぞれ核として特定し,それぞれの前記プロファイルデータにおける,核とした構成要素のうち隣り合う構成要素を重心同士で連結したパターンを用いて類似性を算出し,前記算出した類似性が所定条件を充足する場合には,前記パターンに含まれていない構成要素のうち,それぞれの前記プロファイルデータで対応する構成要素を特定して前記パターンに追加し,それぞれの前記プロファイルデータの前記パターンにおける構成要素同士の対応関係から類似度を算出して,その類似度が所定条件を充足した場合には,前記第1の比較処理の結果が正しいとして前記処理対象とする領域に写っている対象物として特定する,検証システムのように構成することができる。 In the above-described invention, the verification processing unit is one of a predetermined number of components having a large area among the components of the profile data of the area to be processed and one of the objects specified in the first comparison processing. A predetermined number of components having a large area among the components of the profile data of all the objects are specified as nuclei, and the adjacent components of the core components in each of the profile data are connected by the centers of gravity. When the similarity is calculated using the pattern and the calculated similarity satisfies the predetermined condition, the corresponding component is specified in each of the profile data among the components not included in the pattern. Then, it is added to the pattern, the similarity is calculated from the correspondence between the components in the pattern of each profile data, and when the similarity satisfies a predetermined condition, the first comparison process is performed. It can be configured like a verification system that identifies the object in the area to be processed as the result of the above is correct.

第2の比較処理としてはさまざまな処理方式を用いることができるが,本発明のように構成する処理方式を用いることで,人手による作業を極力減らし,精度よく第2の比較処理を実行することができる。 Various processing methods can be used as the second comparison processing, but by using the processing method configured as in the present invention, the manual work is reduced as much as possible, and the second comparison processing is executed with high accuracy. Can be done.

上述の発明において,前記検証処理部は,対象物の画像情報または標本情報について所定色数に減色し,前記減色した画像情報に対して色ごとの領域に分割をして,特定した領域を構成要素として特定し,前記特定した構成要素ごとに,その形状の領域を示す情報とその領域の画像情報とをプロファイルデータとして前記標本情報記憶部に記憶させる,検証システムのように構成することができる。 In the above-described invention, the verification processing unit reduces the image information or sample information of the object to a predetermined number of colors, divides the reduced image information into regions for each color, and constitutes a specified region. It can be configured like a verification system that is specified as an element and stores the information indicating the area of the shape and the image information of the area as profile data in the sample information storage unit for each of the specified components. ..

本発明のように構成することで,プロファイルデータを自動的に生成することができるので,人手による作業を減らし,省力化を図ることができる。 By configuring as in the present invention, profile data can be automatically generated, so that manual work can be reduced and labor can be saved.

第1の発明は,本発明のように,陳列棚を撮影した画像情報から,陳列棚に陳列されている商品を特定する場合に用いる場合に適用することができる。すなわち,陳列棚を撮影した画像情報から特定したフェイス領域に対して,標本情報記憶部に記憶する商品の標本情報を用いて第1の比較処理を実行することで,前記フェイス領域に写っている対象物を特定する画像認識処理部と,前記画像認識処理部による認識結果の一部または全部に対して,第2の比較処理を実行する検証処理部と,を有する検証システムであって,前記検証処理部は,前記第2の比較処理として,前記画像認識処理とは同一ではない処理,または,前記第1の比較処理に用いる要素と前記第2の比較処理に用いる要素の全部が共通ではない処理を実行する,検証システムである。 The first invention can be applied to the case where the product displayed on the display shelf is specified from the image information obtained by photographing the display shelf as in the present invention. That is, the face area specified from the image information obtained by photographing the display shelf is reflected in the face area by performing the first comparison process using the sample information of the product stored in the sample information storage unit. A verification system including an image recognition processing unit that identifies an object and a verification processing unit that executes a second comparison process for a part or all of the recognition results by the image recognition processing unit. In the verification processing unit, as the second comparison processing, processing that is not the same as the image recognition processing, or that all the elements used in the first comparison processing and the elements used in the second comparison processing are common. It is a verification system that executes no processing.

上述の発明において,前記検証処理部における前記第2の比較処理は,前記第1の比較処理において特定した対象物のうち一部または全部の対象物の情報と,前記フェイス領域とを比較し,比較結果が所定条件を充足する場合には前記第1の比較処理の結果が正しいとして前記フェイス領域に写っている対象物として特定する,検証システムのように構成することができる。 In the above-described invention, the second comparison process in the verification processing unit compares the information of a part or all of the objects specified in the first comparison process with the face region. When the comparison result satisfies a predetermined condition, it can be configured like a verification system in which the result of the first comparison process is regarded as correct and specified as an object reflected in the face region.

商品のマーケティング情報の一つとして,店舗の陳列棚に商品がどの程度陳列されているかを把握することは重要である。そのため,従来は,各店舗に担当者が赴き,手作業でそれぞれ特定をしていた。しかし,その作業は極めて負担が重く,限度もある。そこで,画像処理技術を用いて自動的に特定することが検討をされている。しかしながら,現時点では,最新の画像認識処理の技術を利用したとしても,その認識精度は人間の認識能力には達していないため,認識結果に対して,結局,人手による確認,修正作業が必要となってしまう。 As one of the product marketing information, it is important to understand how much the product is displayed on the display shelf of the store. Therefore, in the past, the person in charge went to each store and manually specified each. However, the work is extremely burdensome and limited. Therefore, it is being considered to automatically identify it using image processing technology. However, at present, even if the latest image recognition processing technology is used, the recognition accuracy has not reached the human recognition ability, so it is necessary to manually confirm and correct the recognition result. turn into.

そこで,これらの発明のように構成することで,コンピュータによる処理負荷を著しく増大させることなく,人間による確認,修正作業を大幅に省力化することができるので,商品の陳列状況の把握に要する作業負担を大幅に軽減することができる。 Therefore, by configuring as in these inventions, it is possible to significantly reduce the labor for human confirmation and correction work without significantly increasing the processing load by the computer, and thus the work required for grasping the display status of the product. The burden can be greatly reduced.

第1の発明は,本発明のプログラムをコンピュータに読み込ませて実行することで,実現することができる。すなわち,コンピュータを,画像情報における一部または全部の領域に対して第1の比較処理を実行する画像認識処理部,前記画像認識処理部による認識結果の一部または全部に対して第2の比較処理を実行する検証処理部,として機能させる検証プログラムであって,前記検証処理部は,前記第2の比較処理として,前記画像認識処理とは同一ではない処理,または,前記第1の比較処理に用いる要素と前記第2の比較処理に用いる要素の全部が共通ではない処理を実行する,検証プログラムである。 The first invention can be realized by loading and executing the program of the present invention in a computer. That is, the computer is subjected to the first comparison processing for a part or all of the area in the image information, and the second comparison with respect to a part or all of the recognition result by the image recognition processing unit. A verification program that functions as a verification processing unit that executes processing, and the verification processing unit performs processing that is not the same as the image recognition processing or the first comparison processing as the second comparison processing. This is a verification program that executes a process in which all the elements used in the above-mentioned second comparison process and the elements used in the second comparison process are not common.

第15の発明は,本発明のプログラムをコンピュータに読み込ませて実行することで,実現することができる。すなわち,コンピュータを,陳列棚を撮影した画像情報から特定したフェイス領域に対して,所定の記憶領域に記憶する商品の標本情報を用いて第1の比較処理を実行することで,前記フェイス領域に写っている対象物を特定する画像認識処理部,前記画像認識処理部による認識結果の一部または全部に対して,第2の比較処理を実行する検証処理部,として機能させる検証プログラムであって,前記検証処理部は,前記第2の比較処理として,前記画像認識処理とは同一ではない処理,または,前記第1の比較処理に用いる要素と前記第2の比較処理に用いる要素の全部が共通ではない処理を実行する,検証プログラムである。 The fifteenth invention can be realized by loading and executing the program of the present invention in a computer. That is, the computer performs the first comparison process on the face area specified from the image information obtained by photographing the display shelf by using the sample information of the product stored in the predetermined storage area, thereby performing the first comparison process in the face area. It is a verification program that functions as an image recognition processing unit that identifies an object in the image, and a verification processing unit that executes a second comparison process for a part or all of the recognition results by the image recognition processing unit. In the verification processing unit, as the second comparison processing, processing that is not the same as the image recognition processing, or all of the elements used in the first comparison processing and the elements used in the second comparison processing are all. A verification program that executes non-common processing.

本発明の検証システムを用いることによって,画像認識処理システムでの認識結果に対しての検証を,省力化することができる。そのため,従来の人手による作業を大幅に減らす,あるいはなくすことができる。 By using the verification system of the present invention, it is possible to save labor in the verification of the recognition result in the image recognition processing system. Therefore, the conventional manual work can be significantly reduced or eliminated.

本発明の検証システムの全体の処理機能の一例を模式的に示すブロック図である。It is a block diagram schematically showing an example of the whole processing function of the verification system of this invention. 本発明の検証システムで用いるコンピュータのハードウェア構成の一例を模式的に示すブロック図である。It is a block diagram schematically showing an example of the hardware configuration of the computer used in the verification system of this invention. 撮影画像情報の一例を模式的に示す図である。It is a figure which shows an example of the photographed image information schematically. 標本情報の一例を示す図である。It is a figure which shows an example of a sample information. 図3の撮影画像情報に対して正置化処理を実行した状態の画像情報の一例を模式的に示す図である。It is a figure which shows typically an example of the image information in the state which performed the orthotopic process with respect to the photographed image information of FIG. 撮影画像情報から切り出したフェイス領域の画像情報の一例を示す図である。It is a figure which shows an example of the image information of the face area cut out from the photographed image information. 画像特徴量の要素を分類し,体系づけた場合の一例を模式的に示す図である。It is a figure which shows typically an example of the case where the elements of the image feature amount are classified and systematized. 検証ディスクリプタの生成処理の一例を示すフローチャートである。It is a flowchart which shows an example of the generation process of a verification descriptor. 本発明の検証システムにおける全体処理の処理プロセスの一例を示すフローチャートである。It is a flowchart which shows an example of the processing process of the whole processing in the verification system of this invention. 検証処理の一例を示すフローチャートである。It is a flowchart which shows an example of the verification process. 実施例1における検証ディスクリプタの一例を模式的に示す図である。It is a figure which shows an example of the verification descriptor in Example 1 schematically. 標本情報に設定される検証領域の一例を示す図である。It is a figure which shows an example of the verification area set in the sample information. 比較対象とした領域における画像情報を二値化した画像情報と,検証キーに対応づけた抽出図形情報との一致度を算出する処理を模式的に示す図である。It is a figure which shows typically the process of calculating the degree of coincidence between the image information obtained by binarizing the image information in the area to be compared, and the extracted graphic information corresponding to the verification key. 実施例2における検証ディスクリプタの一例を模式的に示す図である。It is a figure which shows an example of the verification descriptor in Example 2 schematically. 実施例2における検証ディスクリプタのほかの一例を模式的に示す図である。It is a figure which shows the other example of the verification descriptor in Example 2 schematically. 実施例2における検証処理の一例を示すフローチャートである。It is a flowchart which shows an example of the verification process in Example 2. FIG. 実施例2における検証処理を模式的に示す図である。It is a figure which shows typically the verification process in Example 2. プロファイルデータの一例を模式的に示す図である。It is a figure which shows an example of profile data schematically. 実施例3における標本情報に対応するプロファイルデータを生成する処理プロセスの一例を示すフローチャートである。It is a flowchart which shows an example of the processing process which generates the profile data corresponding to the sample information in Example 3. FIG. 標本情報とする商品の画像情報とそれに対応するプロファイルの一例を模式的に示す図である。It is a figure which shows typically an example of the image information of a product as a sample information and the corresponding profile. 実施例3におけるフェイス領域の画像情報からプロファイルデータを生成する処理プロセスの一例を示すフローチャートである。It is a flowchart which shows an example of the processing process which generates profile data from the image information of a face area in Example 3. FIG. 実施例3における検証処理の一例を模式的に示すフローチャートである。It is a flowchart which shows an example of the verification process in Example 3 schematically. フェイス領域の画像情報の一例を示す図である。It is a figure which shows an example of the image information of a face area. 図23(a)のフェイス領域の画像情報に対して生成したプロファイルの一例を模式的に示す図である。It is a figure which shows an example of the profile generated with respect to the image information of the face area of FIG. 23A schematically. フェイス領域の画像情報に基づくプロファイルと,処理対象とするフェイス領域に写っている商品に類似している商品の商品識別情報が対応する標本情報に関連付けられたプロファイルとを用いて,その類似性を評価する処理を模式的に示す図である。The similarity is determined by using a profile based on the image information of the face area and a profile in which the product identification information of the product similar to the product reflected in the face area to be processed is associated with the corresponding sample information. It is a figure which shows typically the process to evaluate. 図20の標本情報およびそのプロファイルと,図23のフェイス領域の画像および図24のそのプロファイルにおけるそれぞれの構成要素同士の対応付けを模式的に示す図である。It is a figure which shows typically the correspondence between the sample information of FIG. 20 and the profile, the image of the face area of FIG. 23, and the respective components in the profile of FIG. 24. 画像フィルタとそのパラメータのリストの一例を示す図である。It is a figure which shows an example of the image filter and the list of the parameter.

本発明の検証システム1の全体の処理機能の一例のブロック図を図1に示す。検証システム1は,管理端末2と入力端末3とを用いる。 FIG. 1 shows a block diagram of an example of the overall processing function of the verification system 1 of the present invention. The verification system 1 uses a management terminal 2 and an input terminal 3.

管理端末2は,検証システム1の中心的な処理機能を実現するコンピュータである。入力端末3は,店舗の陳列棚などの撮影対象を撮影した画像情報を取得する端末である。入力端末3は,後述する比較処理(画像認識処理)で用いる標本とする商品などの対象物を撮影し,取得してもよい。 The management terminal 2 is a computer that realizes the core processing function of the verification system 1. The input terminal 3 is a terminal for acquiring image information of a photographed object such as a display shelf of a store. The input terminal 3 may photograph and acquire an object such as a product as a sample used in the comparison process (image recognition process) described later.

検証システム1における管理端末2,入力端末3は,コンピュータを用いて実現される。図2にコンピュータのハードウェア構成の一例を模式的に示す。コンピュータは,プログラムの演算処理を実行するCPUなどの演算装置70と,情報を記憶するRAMやハードディスクなどの記憶装置71と,情報を表示するディスプレイなどの表示装置72と,情報の入力が可能なキーボードやマウスなどの入力装置73と,演算装置70の処理結果や記憶装置71に記憶する情報をインターネットやLANなどのネットワークを介して送受信する通信装置74とを有している。 The management terminal 2 and the input terminal 3 in the verification system 1 are realized by using a computer. FIG. 2 schematically shows an example of a computer hardware configuration. The computer can input information into an arithmetic unit 70 such as a CPU that executes arithmetic processing of a program, a storage device 71 such as a RAM or a hard disk for storing information, a display device 72 such as a display for displaying information, and information. It has an input device 73 such as a keyboard and a mouse, and a communication device 74 that transmits / receives the processing result of the arithmetic unit 70 and the information stored in the storage device 71 via a network such as the Internet or LAN.

コンピュータがタッチパネルディスプレイを備えている場合には,表示装置72と入力装置73とが一体的に構成されていてもよい。タッチパネルディスプレイは,たとえばタブレット型コンピュータやスマートフォンなどの可搬型通信端末などで利用されることが多いが,それに限定するものではない。 When the computer is provided with a touch panel display, the display device 72 and the input device 73 may be integrally configured. Touch panel displays are often used in portable communication terminals such as tablet computers and smartphones, but are not limited thereto.

タッチパネルディスプレイは,そのディスプレイ上で,直接,所定の入力デバイス(タッチパネル用のペンなど)や指などによって入力を行える点で,表示装置72と入力装置73の機能が一体化した装置である。 The touch panel display is a device in which the functions of the display device 72 and the input device 73 are integrated in that input can be performed directly on the display with a predetermined input device (such as a pen for a touch panel) or a finger.

入力端末3は,上記の各装置のほか,カメラなどの撮影装置を備えていてもよい。入力端末3として,携帯電話,スマートフォン,タブレット型コンピュータなどの可搬型通信端末を用いることもできる。入力端末3は,撮影装置で可視光などによる画像情報(後述する撮影画像情報または対象物画像情報)を撮影する。 The input terminal 3 may include a photographing device such as a camera in addition to the above-mentioned devices. As the input terminal 3, a portable communication terminal such as a mobile phone, a smartphone, or a tablet computer can also be used. The input terminal 3 captures image information (photographed image information or object image information described later) by visible light or the like with a photographing device.

本発明における各手段は,その機能が論理的に区別されているのみであって,物理上あるいは事実上は同一の領域を為していてもよい。本発明の各手段における処理は,その処理順序を適宜変更することもできる。また,処理の一部を省略してもよい。また,管理端末2における機能の一部または全部を入力端末3で実行してもよい。 Each means in the present invention has only a logical distinction in its function, and may form the same area physically or substantially. The processing in each means of the present invention may be appropriately changed in the processing order. In addition, a part of the processing may be omitted. Further, a part or all of the functions in the management terminal 2 may be executed in the input terminal 3.

検証システム1は,画像情報入力受付処理部20と画像情報記憶部21と標本情報記憶部22と画像情報処理部23と画像認識処理部24と検証処理部25と検証結果処理部26とを有する。 The verification system 1 includes an image information input reception processing unit 20, an image information storage unit 21, a sample information storage unit 22, an image information processing unit 23, an image recognition processing unit 24, a verification processing unit 25, and a verification result processing unit 26. ..

画像情報入力受付処理部20は,入力端末3で撮影した画像情報(撮影画像情報)の入力を受け付け,後述する画像情報記憶部21に記憶させる。たとえば店舗の陳列棚の撮影画像情報の入力を受け付け,画像情報記憶部21に記憶させる。入力端末3からは,撮影画像情報のほか,撮影日時,撮影対象を示す情報,たとえば店舗名などの店舗識別情報,画像情報を識別する画像情報識別情報などをあわせて入力を受け付けるとよい。図3に撮影画像情報の一例を模式的に示す。図3では,陳列棚に3段の棚段があり,そこに商品が陳列されている状態を撮影した撮影画像情報を模式的に示すものである。 The image information input reception processing unit 20 receives input of image information (photographed image information) taken by the input terminal 3 and stores it in the image information storage unit 21 described later. For example, the input of the photographed image information of the display shelf of the store is accepted and stored in the image information storage unit 21. In addition to the captured image information, the input terminal 3 may accept input together with information indicating the shooting date and time and the shooting target, for example, store identification information such as a store name, image information identification information for identifying image information, and the like. FIG. 3 schematically shows an example of captured image information. FIG. 3 schematically shows photographed image information obtained by photographing a state in which products are displayed on three shelves on the display shelf.

画像情報記憶部21は,入力端末3から受け付けた撮影画像情報,撮影日時,画像情報識別情報などを対応づけて記憶する。 The image information storage unit 21 stores the captured image information received from the input terminal 3, the shooting date and time, the image information identification information, and the like in association with each other.

標本情報記憶部22は,撮影画像情報に写っている対象物を特定するために,対象物の標本情報を記憶する。標本情報とは対象物の一部または全部を撮影した画像情報(対象物画像情報)および/またはその特徴量の情報である。標本情報には,対象物の識別情報,たとえば商品名,型番,JANコードなどの商品コード,対象物画像情報としては,対象物全体の画像情報であってもよいし,対象物の一部分,たとえば対象物がペットボトル飲料の場合にはラベル部分の画像情報であってもよい。なお,標本情報として,対象物画像情報の特徴量の情報を用いる場合には,処理の都度,特徴量を抽出する必要がなくなる。 The sample information storage unit 22 stores the sample information of the object in order to identify the object reflected in the photographed image information. The sample information is image information (object image information) obtained by photographing a part or all of an object and / or information on a feature amount thereof. The sample information may be the identification information of the object, for example, the product code such as the product name, model number, JAN code, and the image information of the object may be the image information of the entire object, or a part of the object, for example. When the object is a PET bottle beverage, it may be the image information of the label portion. When the feature amount information of the object image information is used as the sample information, it is not necessary to extract the feature amount each time the processing is performed.

標本情報記憶部22には,一つの対象物について一つの標本情報を生成してもよいし,一つの対象物について複数の角度,たとえば商品を正対化して撮影する場合に,写らない位置にある表面を写すため,正面,背面,上面,下面,両側面程度の角度からの標本情報を記憶していてもよい。また,一つの対象物に複数の外装(パッケージなど)がある場合には,一つの対象物にそれぞれの外装の場合の標本情報を対応づけても良い。図4に標本情報の一例を示す。図4では,商品の外装の画像情報を標本情報とした一例である。 The sample information storage unit 22 may generate one sample information for one object, or may generate one sample information for one object at a plurality of angles, for example, at a position that does not appear when the product is photographed in a face-to-face manner. In order to capture a certain surface, sample information from front, back, top, bottom, and both sides may be stored. Further, when one object has a plurality of exteriors (packages, etc.), the sample information for each exterior may be associated with one object. FIG. 4 shows an example of sample information. FIG. 4 is an example in which the image information of the exterior of the product is used as the sample information.

なお,標本情報とする対象物は,通常,正対した位置から撮影するので,後述する正置化処理,歪み補正処理は行わなくてもよいが,行ってもよい。 Since the object to be used as sample information is usually photographed from the position facing it, it is not necessary to perform the orthostatic processing and the distortion correction processing described later, but it may be performed.

画像情報処理部23は,画像情報入力受付処理部20で受け付けた撮影画像情報または画像情報記憶部21に記憶した撮影画像情報について,撮影画像情報を正対した状態とする正置化処理,撮影画像情報から標本情報と比較処理(画像認識処理)を実行する領域(フェイス領域)を特定するフェイス処理を実行する。 The image information processing unit 23 sets the photographed image information received by the image information input reception processing unit 20 or the photographed image information stored in the image information storage unit 21 into a state of facing the photographed image information, and photographs. Face processing is executed to specify the area (face area) to execute the comparison processing (image recognition processing) with the sample information from the image information.

正置化処理とは,一般的に,単に撮影対象物を撮影した場合には,撮影対象物を正対した状態で撮影することは困難であることから,それを正対した状態に補正する処理であり,撮影装置のレンズの光軸を撮影対象である平面の垂線方向に沿って,十分に遠方から撮影した場合と同じになるように画像情報を変形させる処理である。このような補正処理の一例として台形補正処理がある。なお,画像情報に歪みがある場合,歪み補正処理を付加してもよい。図5に,図3の撮影画像情報に対して正置化処理を実行した状態の画像情報を示す。 In general, when the object to be photographed is simply photographed, it is difficult to shoot the object in the orthotopic position in the face-to-face state. This is a process of transforming the image information so that the optical axis of the lens of the photographing device is the same as when the image is taken from a sufficient distance along the perpendicular direction of the plane to be photographed. An example of such correction processing is trapezoidal correction processing. If the image information is distorted, distortion correction processing may be added. FIG. 5 shows the image information in a state in which the orthostatic processing is executed on the captured image information of FIG.

なお,撮影画像情報が正対した状態で撮影された画像情報である場合,あるいは歪みがない場合には,正置化処理,歪み補正処理を実行しなくてもよい。 If the captured image information is the image information captured in a facing state, or if there is no distortion, it is not necessary to execute the orthostatic processing and the distortion correction processing.

撮影画像情報とは,本発明の処理対象となる画像情報であればよい。正置化処理などの撮影画像情報に対する補正処理が実行された後の画像情報も撮影画像情報に含まれる。 The captured image information may be any image information to be processed by the present invention. The captured image information also includes the image information after the correction processing for the captured image information such as the orthostatic processing is executed.

また,画像情報処理部23は,撮影対象を撮影する際に,複数枚で撮影した場合,それを一つの画像情報に合成する処理を実行し,合成処理を実行した画像情報に対して,正置化処理,フェイス処理を実行してもよい。複数枚の画像情報を一つの画像情報に合成する処理としては,公知の手法を用いることもできる。 Further, when the image information processing unit 23 shoots a plurality of images, the image information processing unit 23 executes a process of synthesizing the images into one image information, and the image information obtained by the synthesizing process is positive. Placement processing and face processing may be executed. A known method can also be used as a process of synthesizing a plurality of image information into one image information.

フェイス処理とは、撮影画像情報において,後述する標本情報と比較処理を実行するための領域(フェイス領域)を特定する。たとえば商品の陳列棚を撮影した撮影画像情報であって,標本情報が商品である場合,フェイス領域として,陳列棚に陳列されている商品の領域や商品のラベルの領域を特定する。商品がペットボトル飲料の場合には,商品のラベルの領域をフェイス領域とし,商品が箱に入った商品(たとえばお菓子)の場合には,商品のパッケージ全体をフェイス領域とするなど,商品に応じて,適宜,フェイス領域を設定できる。なお,商品がペットボトル飲料の場合にも,商品の領域をフェイス領域としてもよい。 The face processing specifies an area (face area) for executing comparison processing with sample information described later in the captured image information. For example, in the case of photographed image information obtained by photographing a product display shelf and the sample information is a product, the area of the product displayed on the display shelf or the area of the product label is specified as the face area. If the product is a plastic bottle beverage, the area of the product label is the face area, and if the product is a boxed product (for example, sweets), the entire product package is the face area. Depending on the situation, the face area can be set as appropriate. Even when the product is a PET bottle beverage, the product area may be the face area.

フェイス領域の特定方法はさまざまな方法があり,標本情報の特性に合わせて任意に設定することができる。標本情報が商品(たとえばペットボトル飲料)であって,陳列棚を撮影した撮影画像情報から商品のラベルの領域をフェイス領域として特定する場合には,たとえば,陳列棚の棚段と棚段の間の領域(棚段領域)における商品と商品との間に生じる縦の細く狭い陰影を特定する,画像の繰り返しパターンを特定する,パッケージの上辺の段差を特定する,商品幅が同一であるなどの制約に基づいて区切り位置を特定する,などによって,商品の領域を特定する。そして,その商品の領域の中から,所定の矩形領域をラベルの領域として特定し,その領域をフェイス領域として特定する。 There are various methods for specifying the face area, and it can be set arbitrarily according to the characteristics of the sample information. When the sample information is a product (for example, a PET bottle beverage) and the area of the product label is specified as the face area from the photographed image information of the display shelf, for example, between the shelves of the display shelf. Identify the vertical thin and narrow shadows that occur between products in the area (shelf area), identify the repeating pattern of the image, identify the step on the upper side of the package, the product width is the same, etc. Specify the product area by specifying the delimiter position based on the constraint. Then, from the area of the product, a predetermined rectangular area is specified as a label area, and that area is specified as a face area.

フェイス領域の特定方法は,商品のカテゴリや商品の形態によって任意の方法を採用可能であり,上記に限定するものではない。また,自動的に特定したフェイス領域に対して,オペレータによる修正入力を受け付けてもよい。さらに,オペレータからフェイス領域の位置の入力を受け付けるのでもよい。 As the method for specifying the face area, any method can be adopted depending on the product category and the product form, and the method is not limited to the above. Further, the correction input by the operator may be accepted for the automatically specified face area. Further, the input of the position of the face area may be accepted from the operator.

さらに画像情報処理部23は,深層学習(ディープラーニング)を用いてフェイス領域を特定してもよい。この場合,中間層が多数の層からなるニューラルネットワークの各層のニューロン間の重み付け係数が最適化された学習モデルに対して,上記撮影画像情報を入力し,その出力値に基づいて,フェイス領域を特定してもよい。また学習モデルとしては,さまざまな撮影画像情報にフェイス領域を正解データとして与えたものを用いることができる。 Further, the image information processing unit 23 may specify the face region by using deep learning. In this case, the above captured image information is input to the learning model in which the weighting coefficient between the neurons of each layer of the neural network consisting of many layers is optimized, and the face area is set based on the output value. It may be specified. Further, as the learning model, it is possible to use various captured image information in which the face region is given as correct answer data.

画像情報処理部23は,以上のように特定したフェイス領域を切り出す。フェイス領域を切り出すとは,撮影画像情報から特定したフェイス領域を実際に切り出してもよいし,それ以降の処理の処理対象としてその領域を設定することも含まれる。 The image information processing unit 23 cuts out the face region specified as described above. Cutting out the face area may actually cut out the face area specified from the captured image information, and also includes setting the area as a processing target for subsequent processing.

フェイス領域を切り出す場合には,上述の各処理で特定したフェイス領域をそのまま切り出してもよいし,複数の方法によりフェイス領域の特定を行い,各方法で特定したフェイス領域の結果を用いて切り出す対象とするフェイス領域を特定してもよい。たとえば,陳列棚の棚段と棚段の間の領域(棚段領域)における商品と商品との間に生じる縦の細く狭い陰影を特定することで商品の領域を特定し,その領域から所定の矩形領域を特定する方法と,深層学習によりフェイス領域を特定する方法とを行い,それらの各方法で特定したフェイス領域の結果同士について,あらかじめ定めた演算によって,最終的に切り出す対象とするフェイス領域を特定してもよい。切り出すフェイス領域の特定方法は,上記に限定するものではなく,任意に設定することができる。図6に,撮影画像情報から切り出したフェイス領域の画像情報の一例を示す。 When cutting out the face area, the face area specified in each of the above processes may be cut out as it is, or the face area may be specified by a plurality of methods and the target to be cut out using the result of the face area specified by each method. You may specify the face area to be. For example, the area of a product is specified by identifying the vertical thin and narrow shadows that occur between the products in the area between the shelves of the display shelf (shelf area), and a predetermined area is specified from that area. A method of specifying a rectangular area and a method of specifying a face area by deep learning are performed, and the results of the face areas specified by each of these methods are finally cut out by a predetermined calculation. May be specified. The method for specifying the face area to be cut out is not limited to the above, and can be set arbitrarily. FIG. 6 shows an example of the image information of the face region cut out from the captured image information.

画像認識処理部24は,画像情報処理部23で特定したフェイス領域と,標本情報記憶部22に記憶する各対象物の各標本情報とを比較することで画像認識処理(第1の比較処理)を実行する。たとえばフェイス領域の画像情報の特徴量を抽出し,抽出した特徴量と,標本情報の特徴量との比較処理を実行することで,フェイス領域の画像情報と標本情報との類似性を判定し,そのフェイス領域に含まれる対象物の識別情報,たとえば商品名などを判定する。 The image recognition processing unit 24 performs image recognition processing (first comparison processing) by comparing the face area specified by the image information processing unit 23 with each sample information of each object stored in the sample information storage unit 22. To execute. For example, by extracting the feature amount of the image information in the face area and executing the comparison processing between the extracted feature amount and the feature amount of the sample information, the similarity between the image information in the face area and the sample information is determined. The identification information of the object included in the face area, for example, the product name, is determined.

なお比較処理としては,フェイス領域の画像情報の全体と標本情報とをマッチングするのみならず,フェイス領域の画像情報の一部の領域の特徴量を抽出し,標本情報の特徴量と比較処理を実行してもよい。 As the comparison process, not only the entire image information in the face area is matched with the sample information, but also the feature amount of a part of the image information in the face area is extracted, and the feature amount of the sample information and the comparison process are performed. You may do it.

また,特徴量以外の方法により比較処理を行ってもよい。 Further, the comparison process may be performed by a method other than the feature amount.

さらに,画像認識処理部24は,深層学習(ディープラーニング)を用いて標本情報との比較処理を実行してもよい。この場合,中間層が多数の層からなるニューラルネットワークの各層のニューロン間の重み付け係数が最適化された学習モデルに対して,上記フェイス領域の画像情報の全部または一部を入力し,その出力値に基づいて,類似する標本情報を特定してもよい。学習モデルとしては,さまざまなフェイス領域の画像情報に標本情報を正解データとして与えたものを用いることができる。 Further, the image recognition processing unit 24 may execute a comparison process with the sample information by using deep learning. In this case, all or part of the image information in the face region is input to the learning model in which the weighting coefficient between neurons in each layer of the neural network consisting of many layers is optimized, and the output value thereof. Similar sample information may be identified based on. As the learning model, it is possible to use image information of various face regions with sample information given as correct answer data.

なお,上述では,画像情報処理部23で特定したフェイス領域の画像情報に対して画像認識処理部24で画像認識処理を行う場合を説明したが,画像情報処理部23を用いずに,撮影画像情報に対して画像認識処理部24で画像認識処理を行うようにしてもよい。 In the above description, the case where the image recognition processing unit 24 performs image recognition processing on the image information in the face region specified by the image information processing unit 23 has been described, but the captured image is taken without using the image information processing unit 23. The image recognition processing unit 24 may perform image recognition processing on the information.

検証処理部25は,画像認識処理部24で判定した,処理対象としたフェイス領域に含まれる対象物の識別情報が正しいか否かを検証する検証処理としては,画像認識処理部24において判定した対象物の識別情報が対応する標本情報を標本情報記憶部22から特定し,特定した標本情報と,処理対象としたフェイス領域の画像情報との比較処理(第2の比較処理)を実行することによって行う。また,第2の比較処理では,画像認識処理部24において判定した対象物の識別情報が対応する標本情報と,処理対象としたフェイス領域の画像情報との比較処理を実行するので,画像認識処理部24における画像認識処理(第1の比較処理)とは異なり,標本情報記憶部22に記憶するすべての標本情報と比較処理を実行する必要はなく,画像認識処理部24で判定したうち,所定範囲の対象物の識別情報と比較処理を実行すればよい。たとえば画像認識処理部24で判定した上位3位までの対象物の標本情報と,処理対象とするフェイス領域の画像情報との比較処理を実行すればよい。好ましくは最上位の標本情報と,処理対象とするフェイス領域の画像情報との比較処理であってもよい。 The verification processing unit 25 determines in the image recognition processing unit 24 as the verification processing for verifying whether or not the identification information of the object included in the face area to be processed is correct, which is determined by the image recognition processing unit 24. The sample information corresponding to the identification information of the object is specified from the sample information storage unit 22, and the comparison process (second comparison process) between the specified sample information and the image information of the face area to be processed is executed. Do by. Further, in the second comparison processing, the comparison processing is executed between the sample information corresponding to the identification information of the object determined by the image recognition processing unit 24 and the image information of the face region to be processed, so that the image recognition processing is performed. Unlike the image recognition process (first comparison process) in the image recognition process unit 24, it is not necessary to execute the comparison process with all the sample information stored in the sample information storage unit 22. The identification information of the objects in the range and the comparison process may be executed. For example, a comparison process may be performed between the sample information of the top three objects determined by the image recognition processing unit 24 and the image information of the face region to be processed. It may be preferable to perform a comparison process between the top-level sample information and the image information of the face region to be processed.

画像認識処理部24における画像認識処理(第1の比較処理)と,検証処理における比較処理(第2の比較処理)とは,同一ではない処理方式,または画像認識処理部24における画像認識処理(第1の比較処理)に用いる要素と検証処理部25における検証処理(第2の比較処理)に用いる要素の全部が共通ではない処理方式を用いる。要素とは,画像認識処理において画像情報の類否を判定するために用いる基準である。 The image recognition process (first comparison process) in the image recognition processing unit 24 and the comparison process (second comparison process) in the verification process are not the same processing method, or the image recognition process (image recognition process) in the image recognition processing unit 24. A processing method is used in which all the elements used for the verification process (second comparison process) in the verification process unit 25 and the elements used for the first comparison process) are not common. An element is a standard used in image recognition processing to determine the similarity of image information.

具体的には,たとえば,画像認識処理部24における第1の比較処理(画像認識処理)において,局所特徴量とEMDの2要素を用いる場合,検証処理部25における第2の比較処理(検証処理)では,局所特徴量とEMDの2要素の全部を用いない比較処理の方法を用いる。さらに好ましくは,画像認識処理部24における第1の比較処理と,検証処理部25における第2の比較処理とでは,同一の要素を用いないことがよい。 Specifically, for example, when the two elements of the local feature amount and the EMD are used in the first comparison processing (image recognition processing) in the image recognition processing unit 24, the second comparison processing (verification processing) in the verification processing unit 25 In), a comparison processing method that does not use all of the two elements of local features and EMD is used. More preferably, the same element may not be used in the first comparison process in the image recognition processing unit 24 and the second comparison process in the verification processing unit 25.

たとえば画像特徴量を体系づける方法の一例として,図7に示すようにその要素を分類したとする。この場合,画像認識処理部24における第1の比較処理での要素として,局所特徴量とEMDとを用いるとした場合,検証処理部25における第2の比較処理での要素としては,たとえば,領域の配置情報,ドミナントカラー,オブジェクトの領域の形状および色を要素として用いるような比較処理を用いる。 For example, as an example of a method for systematizing image features, it is assumed that the elements are classified as shown in FIG. In this case, when the local feature amount and the EMD are used as the elements in the first comparison processing in the image recognition processing unit 24, the elements in the second comparison processing in the verification processing unit 25 are, for example, regions. Use comparison processing that uses the layout information, dominant color, shape and color of the object area as elements.

このように,画像認識処理部24における第1の比較処理と,検証処理部25における第2の比較処理とで,同一ではない処理方式,または要素の全部が共通ではない処理を用いることで,比較処理の独立性を確保することができる。なお,さらに,画像認識処理部24における第1の比較処理と検証処理部25における第2の比較処理とで,共通性のない処理方式,または要素の大半が共通ではない処理方式を用いるようにすることで,第1の比較処理と第2の比較処理との間の独立性を確保し,第1の比較処理で含まれているエラーが第2の比較処理でも生じることを最小限に抑え,第1の比較処理で生じた不正解を,偶然によって第2の比較処理で正解としてしまう可能性を低減することができる。 In this way, the first comparison process in the image recognition processing unit 24 and the second comparison process in the verification processing unit 25 use a processing method that is not the same or a process in which all the elements are not common. The independence of the comparison process can be ensured. Further, the first comparison processing in the image recognition processing unit 24 and the second comparison processing in the verification processing unit 25 should use a processing method having no commonality or a processing method in which most of the elements are not common. By doing so, the independence between the first comparison process and the second comparison process is ensured, and the error included in the first comparison process is minimized to occur in the second comparison process as well. , It is possible to reduce the possibility that an incorrect answer generated in the first comparison process is accidentally turned into a correct answer in the second comparison process.

また,第2の比較処理では,第1の比較処理とは異なり,画像認識処理部24で判定した判定結果に対してだけ比較処理を実行するので,単に複数の比較処理を併存させる場合とは異なり,処理負荷を大幅に軽減させることもできる。 Further, in the second comparison process, unlike the first comparison process, the comparison process is executed only for the determination result determined by the image recognition processing unit 24, so that the case where a plurality of comparison processes are simply coexisted is not possible. Unlike this, the processing load can be significantly reduced.

第2の比較処理は一つではなく,複数の比較処理を用いてもよい。 The second comparison process is not limited to one, and a plurality of comparison processes may be used.

検証処理部25における第2の比較処理については,画像認識処理部24における第1の比較処理と上述のような制約を満たしていれば,さまざまな処理を用いることができ,後述するそれぞれの実施例において説明をする。 As for the second comparison process in the verification processing unit 25, various processes can be used as long as the above-mentioned restrictions are satisfied with the first comparison process in the image recognition processing unit 24, and each of them will be described later. An example will be given.

検証結果処理部26は,検証処理部25において,画像認識処理部24における判定結果を「正解」と判定した場合には,画像認識処理部24で判定した対象物の識別情報を,そのまま当該フェイス領域に写っている対象物の識別情報として特定し,所定の記憶領域に,当該フェイス領域に対応づけて記憶させる。また検証処理部25において,画像認識処理部24における判定結果を「誤り」と判定した場合には,画像認識処理部24で判定した対象物の識別情報について,修正が必要であることの通知などを行い,修正を行わせる。たとえば,撮影画像情報において,当該フェイス領域をマーキングする,修正が必要であることの強調表示を行う,など各種の通知方法がある。この通知を確認した担当者は,当該フェイス領域の画像情報を目視して,修正を行う。修正の入力を受け付けた場合,所定の記憶領域に,入力を受け付けた対象物の識別情報を,当該フェイス領域に対応づけて記憶させる。 When the verification result processing unit 26 determines that the determination result in the image recognition processing unit 24 is "correct" in the verification processing unit 25, the verification result processing unit 26 directly uses the identification information of the object determined by the image recognition processing unit 24 as the face. It is specified as the identification information of the object reflected in the area, and is stored in a predetermined storage area in association with the face area. Further, when the verification processing unit 25 determines that the determination result in the image recognition processing unit 24 is "error", the notification that the identification information of the object determined by the image recognition processing unit 24 needs to be corrected is notified. To make corrections. For example, there are various notification methods such as marking the face area in the captured image information and highlighting that correction is necessary. The person in charge who confirms this notification visually checks the image information of the face area and makes corrections. When a correction input is received, the identification information of the object for which the input is received is stored in a predetermined storage area in association with the face area.

つぎに本発明の検証システム1を用いた処理プロセスの一例を図8乃至図10のフローチャートを用いて説明する。図8は,本実施例における検証処理(第2の比較処理)を実行するにあたっての事前処理となる検証ディスクリプタの生成処理の処理プロセスの一例を示すフローチャートであり,図9は本発明の全体の処理プロセスの一例を示すフローチャートであり,図10は,本実施例における検証処理(第2の比較処理)の処理プロセスの一例を示すフローチャートである。 Next, an example of the processing process using the verification system 1 of the present invention will be described with reference to the flowcharts of FIGS. 8 to 10. FIG. 8 is a flowchart showing an example of a processing process of a verification descriptor generation process which is a pre-process for executing the verification process (second comparison process) in the present embodiment, and FIG. 9 shows the entire process of the present invention. It is a flowchart which shows an example of a processing process, and FIG. 10 is a flowchart which shows an example of the processing process of the verification process (second comparison process) in this Example.

以下の各実施例では,店舗の陳列棚を撮影し,陳列棚にある商品を特定する場合を説明する。そのため,撮影画像情報としては商品が陳列されている店舗の陳列棚であり,標本情報における対象物としては陳列される可能性のある商品となる。 In each of the following examples, a case where a display shelf of a store is photographed and a product on the display shelf is specified will be described. Therefore, the photographed image information is the display shelf of the store where the product is displayed, and the product may be displayed as the object in the sample information.

まず事前処理となる検証ディスクリプタの生成処理を,図8のフローチャートを用いて説明する。検証ディスクリプタとは,画像認識処理部24で判定した対象物の識別情報が対応する標本情報と,撮影画像情報におけるフェイス領域の画像情報との検証処理(第2の比較処理)を実行するにあたり,2つの画像情報が類似しているか否かの判定を行うための基準を示す情報である。検証ディスクリプタの一例を図11に示す。 First, the process of generating the verification descriptor, which is the pre-process, will be described with reference to the flowchart of FIG. The verification descriptor is used to execute verification processing (second comparison processing) between the sample information corresponding to the identification information of the object determined by the image recognition processing unit 24 and the image information of the face region in the captured image information. This is information indicating a standard for determining whether or not two image informations are similar. An example of the verification descriptor is shown in FIG.

検証ディスクリプタは,対象物となる標本情報に対応づけて設定される当該対象物を特徴付ける領域(検証領域)に関する情報であり,一つの標本情報に対して一以上,好ましくは複数設定される。個々の検証領域に関する情報は検証キーとして表現される。検証キーには,検証領域の位置座標(基準となる点のx座標,y座標)およびその位置座標からの大きさ(x軸方向,y軸方向の大きさ),各検証領域を抽出する画像フィルタの種別と,場合によっては抽出するパラメータの情報,当該検証領域の画像情報などの一部または全部の情報を対応づけている。検証ディスクリプタは,当該対象物の標本情報に対応づけて記憶されていてもよいし,異なる記憶装置71で記憶されていてもよい。 The verification descriptor is information about an area (verification area) that characterizes the object, which is set in association with the sample information to be the object, and one or more, preferably a plurality, are set for one sample information. Information about each validation area is represented as a validation key. The verification keys include the position coordinates of the verification area (x-coordinates and y-coordinates of the reference point), the size from the position coordinates (size in the x-axis direction and y-axis direction), and the image for extracting each verification area. The type of filter is associated with some or all of the information such as the information of the parameters to be extracted and the image information of the verification area in some cases. The verification descriptor may be stored in association with the sample information of the object, or may be stored in a different storage device 71.

図12に標本情報に設定される検証領域の一例を示す。図12の標本情報において,ノズル付近の領域(検証領域1),中心付近のロゴマークの領域(検証領域2),パッケージ上の図柄の領域(検証領域3)がそれぞれ検証領域として設定されている。図12における検証領域は実線で示される領域であり,破線部分の領域については後述する。 FIG. 12 shows an example of the verification area set in the sample information. In the sample information of FIG. 12, the area near the nozzle (verification area 1), the area of the logo mark near the center (verification area 2), and the area of the design on the package (verification area 3) are set as verification areas, respectively. .. The verification region in FIG. 12 is a region shown by a solid line, and the region of the broken line portion will be described later.

オペレータは,入力端末3を用いて標本情報とする商品を正対位置から撮影し,撮影した対象物画像情報,識別情報,商品名,商品コードの入力を管理端末2で受け付け,それらを対応づけて標本情報記憶部22に記憶させておく(S100)。そして画像認識処理部24における画像認識処理で用いるための標本情報を抽出し,記憶しておく。たとえば局所特徴量とEMDなどを画像特徴量として抽出し,標本情報記憶部22に記憶させる。 The operator photographs the product as sample information from the opposite position using the input terminal 3, receives the input of the captured object image information, identification information, product name, and product code on the management terminal 2, and associates them. It is stored in the sample information storage unit 22 (S100). Then, the sample information to be used in the image recognition processing in the image recognition processing unit 24 is extracted and stored. For example, a local feature amount and an EMD are extracted as an image feature amount and stored in the sample information storage unit 22.

このような標本情報に対する処理を,複数の商品,好ましくは陳列棚に陳列される可能性のあるすべての商品についてあらかじめ実行しておく。 Processing for such sample information is performed in advance for a plurality of products, preferably all products that may be displayed on a display shelf.

また,対象物の画像情報または標本情報から,不要な情報,たとえば背景部分を除去する(S110)。背景部分の除去などは自動に除去しても,手動で除去してもよい。そして,当該対象物を特徴付ける一以上の閉領域を検証領域(図12の実線部分の閉領域)として入力を受け付ける(S120)。そして,検証領域と,検証領域の近傍の周辺領域(図12の破線部分の閉領域から検証領域を除外した領域)とを区別し,各検証領域を抽出する画像フィルタを自動的に選択させる(S130)。周辺領域は,検証領域を所定範囲,たとえば20%ずつ外側に膨らませたロの字型の領域として設定できる。画像フィルタの選択処理としては,あらかじめ複数の画像フィルタを用意しておき,それらの画像フィルタを当該検証領域に逐次適用して,当該検証領域とその近傍の周辺領域とを分離する画像フィルタを探索することで,もっとも分離する画像フィルタを選択させる。 Further, unnecessary information, for example, a background portion is removed from the image information or the sample information of the object (S110). The background part may be removed automatically or manually. Then, input is accepted by using one or more closed regions that characterize the object as a verification region (closed region of the solid line portion in FIG. 12) (S120). Then, the verification area and the peripheral area near the verification area (the area excluding the verification area from the closed area of the broken line in FIG. 12) are distinguished, and the image filter for extracting each verification area is automatically selected (). S130). The peripheral area can be set as a square-shaped area in which the verification area is expanded outward by a predetermined range, for example, 20%. As an image filter selection process, a plurality of image filters are prepared in advance, and these image filters are sequentially applied to the verification area to search for an image filter that separates the verification area from the peripheral area in the vicinity thereof. By doing so, the image filter to be separated most is selected.

検証領域とその近傍の領域とをもっとも分離するとは,検証領域の内部にもっとも広い面積で反応し,検証領域の近傍の外部の領域で反応しないということを意味する。なお,色域抽出のような画像フィルタの一部では,パラメータが必要なものもあるが,その場合にはどのパラメータのときに分離できるかも合わせて記憶する。図12の場合,検証領域1はノズル部分の形状が特徴的なので,適用型二値化の画像フィルタが選択され,検証領域2は明度の画像フィルタが選択され,検証領域3は色域抽出の画像フィルタのうちパラメータがオレンジ相当色が選択された場合を示している。 The most separation between the verification region and the region in the vicinity means that the reaction occurs in the widest area inside the verification region and does not react in the outer region near the verification region. Some image filters such as color gamut extraction require parameters, but in that case, the parameters that can be separated are also stored. In the case of FIG. 12, since the shape of the nozzle portion is characteristic in the verification area 1, the applicable binarization image filter is selected, the brightness image filter is selected in the verification area 2, and the verification area 3 is the color gamut extraction. It shows the case where the color corresponding to orange is selected as the parameter in the image filter.

検証領域とその近傍の周辺領域とを分離する画像フィルタの探索方法としては,検証領域内のなるべく大きな面積(ピクセル数)が適合となり,周辺領域のなるべく大きな面積(ピクセル数)が非適合となるような画像フィルタの探索およびそのパラメータ設定を行えばよい。たとえば画像フィルタとそのパラメータとして,図27に示すように,あらかじめリストを用意しておき,画像フィルタを順に選択し,さらにパラメータとして取り得る値の範囲の中で値を変更しながら,すべての組み合わせを実施する。なお,組み合わせ数が膨大になる場合には,まず大きな範囲で試行し,そのうちよい結果が得られた範囲についてはより少ない範囲で再試行するといった方法で実施時間の効率化が図れる。 As a method of searching for an image filter that separates the verification area and the peripheral area in the vicinity thereof, as large an area (number of pixels) as possible in the verification area is suitable, and as large as possible area (number of pixels) in the peripheral area is not suitable. It suffices to search for such an image filter and set its parameters. For example, as an image filter and its parameters, as shown in FIG. 27, a list is prepared in advance, the image filters are selected in order, and all combinations are made while changing the values within the range of possible values as parameters. To carry out. If the number of combinations is enormous, the implementation time can be improved by first trying in a large range and then retrying in a smaller range for the range where good results are obtained.

そしてこの試行の中で,検証領域の適合するピクセル数が最大であって,かつ周辺領域の適合するピクセル数が最小となる画像フィルタおよびパラメータを選択する。そしてこれらの二者間にはトレードオフがあるので,(検証領域の適合ピクセル数/検証領域のピクセル数)をAT,(周辺領域の非適合ピクセル数/周辺領域のピクセル数)をBFとしたとき,ATとBFの調和平均を最大化するものを選択すればよい。すなわち,
I=2×(AT×BF)/(AT+BF)
を最大化する画像フィルタおよびパラメータを選択すればよい。なお,検証領域と周辺領域の面積比を1:1としていればATとBFに重み付けをせずそのまま調和平均を算出してよいが,面積比が相違する場合にはAT,BFに重み付けをして調和平均を算出する。
Then, in this trial, the image filter and parameters that have the maximum number of matching pixels in the verification area and the minimum number of matching pixels in the peripheral area are selected. Since there is a trade-off between these two, (the number of conforming pixels in the verification area / the number of pixels in the verification area) is AT, and (the number of non-conforming pixels in the peripheral area / the number of pixels in the peripheral area) is BF. Then, the one that maximizes the harmonic mean of AT and BF may be selected. That is,
I = 2 × (AT × BF) / (AT + BF)
You can select the image filter and parameters that maximize. If the area ratio between the verification area and the peripheral area is 1: 1, the harmonic mean may be calculated as it is without weighting AT and BF, but if the area ratios are different, AT and BF are weighted. To calculate the harmonic mean.

なお,検証領域,周辺領域内に画像フィルタを適用して検出される結果は,内部のピクセルが埋まっていない,いわゆる抜けのある画像となる場合がある。そのため,二値画像の膨張・収縮処理をして抜けピクセルを埋めた後に,上述の適合・非適合のピクセルの算出を行うことが好ましい。それによって,結果が安定し,より適切な画像フィルタおよびパラメータの選択が可能となる。 The result detected by applying the image filter in the verification area and the peripheral area may be a so-called missing image in which the internal pixels are not filled. Therefore, it is preferable to perform the expansion / contraction processing of the binary image to fill in the missing pixels, and then calculate the conforming / non-conforming pixels described above. This stabilizes the results and allows the selection of more appropriate image filters and parameters.

画像フィルタとしては,たとえば適用型二値化,色域抽出,暖色抽出などの公知の画像フィルタを用いることができる。 As the image filter, known image filters such as applicable binarization, color gamut extraction, and warm color extraction can be used.

以上のように画像フィルタを選択すると,各検証領域について,検証キーとして,検証領域と検証領域に対応する領域を抽出するための画像フィルタおよびパラメータと,抽出図形情報とを対応づけて登録する。そして各検証領域の検証キーをまとめた検証ディスクリプタを,標本情報記憶部22を含む所定の記憶領域に,当該対象物または標本情報に記憶させることで登録する(S140)。このように生成された検証ディスクリプタの一例が図11である。なお,図11の検証ディスクリプタにおける抽出図形情報とは,検証領域の画像情報を画像フィルタで抽出した結果の二値化画像である。 When the image filter is selected as described above, the image filter and parameters for extracting the verification area and the area corresponding to the verification area are registered as the verification key in association with the extracted graphic information for each verification area. Then, a verification descriptor that summarizes the verification keys of each verification area is registered in a predetermined storage area including the sample information storage unit 22 by storing the object or the sample information in the object (S140). FIG. 11 is an example of the verification descriptor generated in this way. The extracted graphic information in the verification descriptor of FIG. 11 is a binarized image as a result of extracting the image information in the verification area with an image filter.

以上のような処理を実行することで,検証ディスクリプタの生成処理を実行することができる。 By executing the above processing, the verification descriptor generation processing can be executed.

つぎに本発明の全体の処理プロセスの一例を図9のフローチャートを用いて説明する。 Next, an example of the entire processing process of the present invention will be described with reference to the flowchart of FIG.

店舗の陳列棚を撮影した撮影画像情報を,入力端末3から管理端末2の画像情報入力受付処理部20が受け付けると(S200),画像情報記憶部21に,撮影日時,撮影画像情報の識別情報などと対応づけて記憶させる。 When the image information input reception processing unit 20 of the management terminal 2 receives the photographed image information obtained by photographing the display shelf of the store from the input terminal 3 (S200), the image information storage unit 21 receives the photographed date and time and the identification information of the photographed image information. And memorize it in association with.

受け付けた撮影画像情報に対して,画像情報処理部23は,撮影画像情報が正対した状態となるように補正する正置化処理を実行する。また,正置化した撮影画像情報からフェイス領域を特定するフェイス処理を実行する。 The image information processing unit 23 executes an orthostatic processing for correcting the received captured image information so that the captured image information faces each other. In addition, face processing is performed to specify the face area from the image information that has been placed upright.

そして,画像認識処理部24は,画像情報処理部23で特定したフェイス領域と,標本情報記憶部22に記憶する各標本情報との画像認識処理(第1の比較処理)を実行する(S210)。第1の比較処理としては,たとえばフェイス領域の画像情報から抽出した特徴量と,標本情報の特徴量との比較処理を実行することで,フェイス領域の画像情報と標本情報との類似性を判定し,そのフェイス領域に含まれる対象物の識別情報,たとえば商品名などを判定する。また,第1の比較処理の別の方法としては,深層学習を用いた方法などであってもよい。この場合,中間層が多数の層からなるニューラルネットワークの各層のニューロン間の重み付け係数が最適化された学習モデルに対して,フェイス領域の画像情報の全部または一部を入力し,その出力値に基づいて,類似する標本情報を特定してもよい。 Then, the image recognition processing unit 24 executes an image recognition process (first comparison process) between the face region specified by the image information processing unit 23 and each sample information stored in the sample information storage unit 22 (S210). .. As the first comparison process, for example, by executing a comparison process between the feature amount extracted from the image information of the face area and the feature amount of the sample information, the similarity between the image information of the face area and the sample information is determined. Then, the identification information of the object included in the face area, for example, the product name, is determined. Further, as another method of the first comparison processing, a method using deep learning may be used. In this case, all or part of the image information in the face region is input to the learning model in which the weighting coefficient between neurons in each layer of the neural network consisting of many layers is optimized, and the output value is used. Based on this, similar sample information may be identified.

画像認識処理部24において出力する結果としては,処理対象とするフェイス領域にある画像情報に写っている商品として,もっとも類似している商品の商品識別情報を特定するほか,類似性が高いものから順に複数の商品の商品識別情報を特定してもよい。 As a result output by the image recognition processing unit 24, the product identification information of the most similar product as the product reflected in the image information in the face area to be processed is specified, and the product with high similarity is selected first. Product identification information of a plurality of products may be specified in order.

以上のように,撮影画像情報の各フェイス領域について,画像認識処理部24における画像認識処理を実行する。 As described above, the image recognition processing unit 24 executes the image recognition processing for each face area of the captured image information.

撮影画像情報の各フェイス領域について,フェイス領域に写っている商品に類似している商品の商品識別情報を特定すると,検証処理部25において,その商品識別情報の特定が正しいかの検証処理を実行する(S220)。 When the product identification information of a product similar to the product shown in the face area is specified for each face area of the photographed image information, the verification processing unit 25 executes verification processing as to whether or not the product identification information is specified correctly. (S220).

検証処理部25における検証処理の処理プロセスの一例を図10のフローチャートを用いて説明する。 An example of the processing process of the verification processing in the verification processing unit 25 will be described with reference to the flowchart of FIG.

まず処理対象とするフェイス領域の画像情報から不要な情報,たとえば背景部分を除去して,処理対象とする画像情報を切り出す(S300)。また,パラメータACCを初期値0に設定する(S310)。 First, unnecessary information, for example, a background portion is removed from the image information of the face area to be processed, and the image information to be processed is cut out (S300). Further, the parameter ACC is set to the initial value 0 (S310).

そして画像認識処理部24における画像認識処理の認識結果に基づいて,処理対象とするフェイス領域に写っている商品に類似している商品の商品識別情報が対応する標本情報に関連付けられた検証ディスクリプタを特定する。そして,特定した検証ディスクリプタにおける検証キーの検証領域の情報と抽出方法とを用いて,S300で切り出した画像情報から上記検証領域に対応する領域の画像情報を抽出する(S320)。なお,この際に,商品の回転や撮影角度の揺らぎなどに起因する位置ずれに追随できるように,抽出範囲の調整,リトライを行ってもよい。すなわち,抽出に失敗した場合には,抽出する領域を上下左右に移動する,領域を拡大する上でリトライするなどの方法により,検証領域に対応する領域を抽出してもよい。 Then, based on the recognition result of the image recognition processing in the image recognition processing unit 24, the verification descriptor in which the product identification information of the product similar to the product shown in the face area to be processed is associated with the corresponding sample information is generated. Identify. Then, using the information of the verification area of the verification key in the specified verification descriptor and the extraction method, the image information of the area corresponding to the verification area is extracted from the image information cut out in S300 (S320). At this time, the extraction range may be adjusted and retries may be performed so that the position shift due to the rotation of the product or the fluctuation of the shooting angle can be followed. That is, if the extraction fails, the area corresponding to the verification area may be extracted by moving the area to be extracted up / down / left / right or retrying to expand the area.

以上のようにして比較対象とする領域の抽出に成功した場合には(S330),当該領域における画像情報を二値化した画像情報と,検証キーに対応づけた抽出図形情報との一致度を算出する(S340)。 When the area to be compared is successfully extracted as described above (S330), the degree of matching between the image information obtained by binarizing the image information in the area and the extracted graphic information associated with the verification key is determined. Calculate (S340).

上記抽出した領域における画像情報と,検証キーに対応づけた抽出図形情報との一致度を算出処理にはさまざまな方法を用いることができるが,たとえば以下のような方法を用いることができる。この処理の一例を図13に示す。図13では,画像情報AがS320で抽出した領域の画像情報を模したものであり,画像情報Bが抽出図形情報を模したものである。 Various methods can be used for the process of calculating the degree of matching between the image information in the extracted area and the extracted graphic information associated with the verification key. For example, the following method can be used. An example of this process is shown in FIG. In FIG. 13, the image information A imitates the image information of the region extracted by S320, and the image information B imitates the extracted graphic information.

まず2つの画像情報において対応する要素を特定する。対応する要素がない要素は,処理から除外する。そして検証キーごとに,上記抽出した領域における画像情報と,検証キーに対応づけた抽出図形情報との一致度を,以下の数式を演算することで算出する。
一致度=w1×Σ(対応する要素同士の一致度)−w2×Σ(対応しない要素の面積)
First, the corresponding elements are specified in the two image information. Elements that do not have a corresponding element are excluded from processing. Then, for each verification key, the degree of matching between the image information in the extracted area and the extracted graphic information associated with the verification key is calculated by calculating the following mathematical formula.
Match = w1 x Σ (match between corresponding elements) -w2 x Σ (area of non-corresponding elements)

ここでw1,w2は所定の重み付けであり,任意の値として設定することが可能である。またw2は0として設定することもできる。すなわち,無関係の物が写り込んでいる場合など,対応しない要素の面積を考慮することが相当ではない場合には,w2を0として設定することで,その影響を排除することができる。 Here, w1 and w2 are predetermined weights and can be set as arbitrary values. W2 can also be set as 0. That is, when it is not appropriate to consider the area of the uncorresponding element, such as when an unrelated object is reflected, the influence can be eliminated by setting w2 as 0.

また,上述の一致度を算出する数式において,対応する要素同士の一致度は,2つの画像情報の大きさの尺度を合わせて,2つのプロファイルにおける要素の重心を合わせて,以下の数式を演算することで算出できる。
対応する要素同士の一致度=(フェイスのプロファイルと標本情報のプロファイルの要素の共通部分の面積−(フェイスのプロファイルではあり標本情報のプロファイルがない部分の要素の面積+標本情報のプロファイルではありフェイスのプロファイルではない部分の要素の面積)/2)/フェイスのプロファイルの面積
Further, in the above-mentioned formula for calculating the degree of matching, the degree of matching between the corresponding elements is calculated by matching the scales of the sizes of the two image information and the centers of gravity of the elements in the two profiles. It can be calculated by doing.
Match between corresponding elements = (Area of common part of elements of face profile and sample information profile- (Area of element of face profile but no sample information profile + Area of sample information profile and face Area of the element that is not the profile of) / 2) / Area of the profile of the face

この際に,商品の傾き(画像情報の要素の傾き)に対応するため,一方を微小な角度で回転させながら,上述の数式の演算を行い,もっとも値が大きいものを採用するようにしてもよい。さらに,2つのプロファイルにおいて対応する要素の組の個数が多いものを重視するようにしてもよい。 At this time, in order to correspond to the inclination of the product (the inclination of the element of the image information), the above formula is calculated while rotating one of them at a minute angle, and the one with the largest value is adopted. good. Further, it may be possible to emphasize the one in which the number of corresponding element sets is large in the two profiles.

以上のように算出した一致度をパラメータACCに加算する(S350)。そして検証ディスクリプタに,ほかに検証キーがある場合には,残りの検証キーについてもS320からS350までの処理を繰り返す(S360)。 The degree of matching calculated as described above is added to the parameter ACC (S350). If the verification descriptor has another verification key, the processes from S320 to S350 are repeated for the remaining verification keys (S360).

そして処理対象とするフェイス領域に写っている商品に類似している商品の商品識別情報が対応する標本情報に関連付けられた検証ディスクリプタにおけるすべての検証キーについて上述の処理を実行すると,パラメータACCとあらかじめ定めた閾値とを比較し(S370),パラメータACCが閾値以上であれば,検証処理部25は,当該処理対象とするフェイス領域に写っている商品について,画像認識処理部24における画像認識処理で特定した商品の商品識別情報は「正解」と判定する(S380)。一方,パラメータACCが閾値未満であれば,検証処理部25は,当該処理対象とするフェイス領域に写っている商品について,画像認識処理部24における画像認識処理で特定した商品の商品識別情報は「誤り」と判定する(S390)。 Then, when the above processing is executed for all the verification keys in the verification descriptor associated with the product identification information of the product similar to the product shown in the face area to be processed and the corresponding sample information, the parameter ACC and the parameter ACC are executed in advance. Compared with the determined threshold (S370), if the parameter ACC is equal to or greater than the threshold, the verification processing unit 25 performs image recognition processing in the image recognition processing unit 24 for the product shown in the face region to be processed. The product identification information of the specified product is determined to be "correct answer" (S380). On the other hand, if the parameter ACC is less than the threshold value, the verification processing unit 25 describes the product identification information of the product specified by the image recognition processing in the image recognition processing unit 24 for the product shown in the face area to be processed. It is determined as "error" (S390).

なお,画像認識処理部24における画像認識処理で特定した商品の商品識別情報が複数ある場合には,そのすべての商品識別情報について検証処理を実行し,「正解」と判定した商品の商品識別情報のうち,画像認識処理において,もっとも高い確度またはもっとも高い順位で特定された商品の商品識別情報を,当該処理対象とするフェイス領域に写っている商品の商品識別情報として特定する。 If there is a plurality of product identification information of the product specified by the image recognition processing in the image recognition processing unit 24, the verification processing is executed for all the product identification information, and the product identification information of the product determined to be "correct" is executed. Of these, the product identification information of the product specified with the highest accuracy or the highest order in the image recognition processing is specified as the product identification information of the product shown in the face area to be processed.

以上の検証処理を,撮影画像情報における各フェイス領域について実行することで,画像認識処理部24における画像認識処理の結果を検証する。 By executing the above verification processing for each face area in the captured image information, the result of the image recognition processing in the image recognition processing unit 24 is verified.

以上のようにして検証処理を実行することができる。 The verification process can be executed as described above.

そして,正解と判定したフェイス領域については,検証結果処理部26は,画像認識処理部24で判定した対象物の識別情報を,そのまま当該フェイス領域に写っている対象物の識別情報として特定し,所定の記憶領域に,当該フェイス領域に対応づけて記憶させる(S250)。 Then, for the face area determined to be the correct answer, the verification result processing unit 26 identifies the identification information of the object determined by the image recognition processing unit 24 as the identification information of the object reflected in the face area as it is. It is stored in a predetermined storage area in association with the face area (S250).

一方,検証処理部25において,画像認識処理部24における判定結果を「誤り」と判定した場合には,検証結果処理部26は,画像認識処理部24で判定した対象物の識別情報について,修正が必要であることの通知などを行い,オペレータに修正を行わせる(S260)。オペレータがこの通知を確認すると,当該フェイス領域の画像情報を目視して,修正入力を行う。修正入力を受け付けた場合,所定の記憶領域に,入力を受け付けた対象物の識別情報を,当該フェイス領域に対応づけて記憶させる。 On the other hand, when the verification processing unit 25 determines that the determination result in the image recognition processing unit 24 is "error", the verification result processing unit 26 corrects the identification information of the object determined by the image recognition processing unit 24. Is required, and the operator is made to make corrections (S260). When the operator confirms this notification, he / she visually checks the image information of the face area and makes a correction input. When a correction input is received, the identification information of the object for which the input is received is stored in a predetermined storage area in association with the face area.

このように,撮影画像情報におけるフェイス領域について,画像認識処理部24における画像認識処理(第1の比較処理)を実行し,その認識結果に対して,検証処理部25で検証処理(第2の比較処理)を実行することで,従来のように複数の画像認識処理システムを並列的に用いた場合よりも,大幅に処理負荷を軽減することができる。 In this way, the image recognition processing unit 24 executes the image recognition processing (first comparison processing) for the face region in the captured image information, and the verification processing unit 25 verifies the recognition result (second comparison processing). By executing the comparison process), the processing load can be significantly reduced as compared with the case where a plurality of image recognition processing systems are used in parallel as in the conventional case.

つぎに本発明の検証システム1において,実施例1の検証処理とは異なる検証処理を用いた場合を説明する。本実施例2における検証処理の処理プロセスの一例を図16のフローチャートを用いて説明する。本実施例における検証処理は,検証ディスクリプタとしてより簡便な設定を設ける場合を説明する。 Next, a case where a verification process different from the verification process of the first embodiment is used in the verification system 1 of the present invention will be described. An example of the processing process of the verification process in the second embodiment will be described with reference to the flowchart of FIG. In the verification process in this embodiment, a case where a simpler setting is provided as a verification descriptor will be described.

本実施例では,フェイス領域の画像情報における局部的な特徴を抽出し,あらかじめ設定した条件(検証ディスクリプタに設定した条件)を充足しているかを検証処理部25における検証処理で検証するものである。 In this embodiment, local features in the image information of the face region are extracted, and whether or not the preset conditions (conditions set in the verification descriptor) are satisfied is verified by the verification process in the verification processing unit 25. ..

検証ディスクリプタは,標本情報における対象物を特徴付ける部分を類型化した特徴情報である。検証ディスクリプタには一以上の特徴情報と,優位度(重み付け)とが対応づけて記憶される。特徴情報とは,標本情報における対象物を特徴付ける部分である対象と,対象の色,外形などを示す「属性」,属性の具体的な色や形状などを示す「属性値」とを有している。たとえば標本情報における対象物が飲料のペットボトルであれば,「特徴情報」における「対象」として「キャップ」,その属性として「色」,その属性値として「白」などが対応づけて設定される。一つの対象物に対して一以上の特徴情報が検証ディスクリプタとして設定される。優位度とは,検証ディスクリプタにおける検証の順位付けをする情報であるが,優位度は設定しなくてもよい。 The verification descriptor is characteristic information that categorizes the part of the sample information that characterizes the object. The verification descriptor stores one or more feature information in association with the superiority (weighting). The feature information has an object that is a part that characterizes the object in the sample information, an "attribute" that indicates the color and outer shape of the object, and an "attribute value" that indicates the specific color and shape of the attribute. There is. For example, if the object in the sample information is a PET bottle of beverage, "cap" is set as the "object" in "characteristic information", "color" is set as the attribute, and "white" is set as the attribute value. .. One or more feature information is set as a verification descriptor for one object. The superiority is information that ranks the verification in the verification descriptor, but the superiority does not have to be set.

本実施例における検証ディスクリプタの一例を図14および図15に示す。図14はペットボトル飲料に関しての検証ディスクリプタの一例を示している。図14の検証ディスクリプタでは,飲料のペットボトルの外形について1つの特徴情報,マークについて2つの特徴情報,キャップについて2の特徴情報の合計5つの特徴情報が設定されており,それぞれの特徴情報について,属性,属性値および優位度が設定されている。図14では,特徴情報「ボトル外形」について,属性「ボトル肩」とその属性値「いかり肩」,優先度(重み)「0.4」が設定されており,特徴情報「マーク」の「属性」について「レイアウト」とその属性「ラベル上中央」,優先度「0.3」が設定されており,特徴情報「マーク」について属性「ベースカラー」とその属性値「白」,優先度「0.1」が設定されており,特徴情報「キャップ」について属性「色」とその属性値「白」,優先度「0.1」が設定されており,特徴情報「キャップ」について属性「形」とその属性値「標準」,優先度「0.1」が設定されている。 14 and 15 show an example of the verification descriptor in this embodiment. FIG. 14 shows an example of a verification descriptor for a PET bottled beverage. In the verification descriptor of FIG. 14, one characteristic information is set for the outer shape of the PET bottle of the beverage, two characteristic information for the mark, and two characteristic information for the cap, for a total of five characteristic information. Attributes, attribute values and superiority are set. In FIG. 14, the attribute "bottle shoulder", its attribute value "Ikari shoulder", and the priority (weight) "0.4" are set for the feature information "bottle outer shape", and the "attribute" of the feature information "mark" is set. "Layout" and its attribute "center on the label" and priority "0.3" are set for, and the attribute "base color" and its attribute value "white" and priority "0." for the feature information "mark". 1 ”is set, the attribute“ color ”and its attribute value“ white ”, and the priority“ 0.1 ”are set for the feature information“ cap ”, and the attribute“ shape ”is set for the feature information“ cap ”. The attribute value "standard" and priority "0.1" are set.

図15は図14とは異なる商品のペットボトル飲料に関しての検証ディスクリプタの一例を示している。図15の検証ディスクリプタでも,飲料のペットボトルの外形について1つの特徴情報,マークについて2つの特徴情報,キャップについて2の特徴情報の合計5つの特徴情報が設定されており,それぞれの特徴情報について,属性,属性値および優位度が設定されている。図15では,特徴情報「ボトル外形」について,属性「ボトル肩」とその属性値「なで肩」,優先度(重み)「0.4」が設定されており,特徴情報「マーク」の「属性」について「レイアウト」とその属性「ラベル上左」,優先度「0.3」が設定されており,特徴情報「マーク」について属性「ベースカラー」とその属性値「白」,優先度「0.1」が設定されており,特徴情報「キャップ」について属性「色」とその属性値「白」,優先度「0.1」が設定されており,特徴情報「キャップ」について属性「形」とその属性値「標準」,優先度「0.1」が設定されている。 FIG. 15 shows an example of a verification descriptor for a PET bottled beverage of a product different from that of FIG. Also in the verification descriptor of FIG. 15, a total of five characteristic information is set, one characteristic information for the outer shape of the PET bottle of the beverage, two characteristic information for the mark, and two characteristic information for the cap. Attributes, attribute values and superiority are set. In FIG. 15, the attribute "bottle shoulder", its attribute value "stroke shoulder", and the priority (weight) "0.4" are set for the feature information "bottle outer shape", and the "attribute" of the feature information "mark" is set. "Layout" and its attribute "left on the label" and priority "0.3" are set for, and the attribute "base color" and its attribute value "white" and priority "0." for the feature information "mark". 1 ”is set, the attribute“ color ”and its attribute value“ white ”, and the priority“ 0.1 ”are set for the feature information“ cap ”, and the attribute“ shape ”is set for the feature information“ cap ”. The attribute value "standard" and priority "0.1" are set.

検証ディスクリプタは,標本情報記憶部22に記憶する対象物の標本情報に対応づけて記憶されている。また検証ディスクリプタでは,同一種類の商品,たとえば飲料のペットボトルについては,各特徴情報における属性は同様の属性が設定されているとよい。 The verification descriptor is stored in association with the sample information of the object stored in the sample information storage unit 22. In the verification descriptor, the same attributes should be set for the same type of product, for example, PET bottles for beverages, as the attributes in each characteristic information.

本実施例の検証処理の処理プロセスの一例を図8,図10および図16のフローチャートを用いて説明する。なお,S210までの処理は,実施例1と同様なので説明を省略する。また,本実施例の検証処理を模式的に図17に示す。 An example of the processing process of the verification process of this embodiment will be described with reference to the flowcharts of FIGS. 8, 10 and 16. Since the processing up to S210 is the same as that in the first embodiment, the description thereof will be omitted. Further, the verification process of this embodiment is schematically shown in FIG.

まず処理対象とするフェイス領域の画像情報から不要な情報,たとえば背景部分を除去して,処理対象とする画像情報を切り出す(S400)。また,パラメータACCを初期値0に設定する(S410)。 First, unnecessary information, for example, a background portion is removed from the image information of the face area to be processed, and the image information to be processed is cut out (S400). Further, the parameter ACC is set to the initial value 0 (S410).

そしてS210の画像認識処理部24における画像認識処理の認識結果に基づいて,処理対象とするフェイス領域に写っている商品に類似している商品の商品識別情報が対応する標本情報に関連付けられた検証ディスクリプタを特定する(S420)。 Then, based on the recognition result of the image recognition processing in the image recognition processing unit 24 of S210, the verification that the product identification information of the product similar to the product shown in the face area to be processed is associated with the corresponding sample information. The descriptor is specified (S420).

S400でフェイス領域の画像から切り出した画像情報と,S420で特定した検証ディスクリプタのうち,優位度の高い特徴情報の順番に比較をし(S430),特徴情報における各対象の属性およびその属性値を,当該画像情報が充足しているかを判定する(S440)。そして,その属性および属性値を充足している場合には,パラメータACCに当該特徴情報に対応する優位度を加算する(S450)。 The image information cut out from the image in the face area in S400 and the feature information having the highest superiority among the verification descriptors specified in S420 are compared in order (S430), and the attributes of each target in the feature information and their attribute values are compared. , It is determined whether the image information is satisfied (S440). Then, when the attribute and the attribute value are satisfied, the superiority corresponding to the feature information is added to the parameter ACC (S450).

パラメータACCがあらかじめ設定した閾値以上であれば,検証処理部25は,当該処理対象とするフェイス領域に写っている商品について,画像認識処理部24における画像認識処理で特定した商品の商品識別情報は「正解」と判定する(S470)。一方,パラメータACCが閾値未満であって,当該検証ディスクリプタにまだほかの特徴情報がある場合には(S480),当該検証ディスクリプタのうち,つぎに優位度に高い特徴情報と,S400でフェイス領域の画像から切り出した画像情報とを比較し(S430),S430以降の処理を反復する。 If the parameter ACC is equal to or higher than the preset threshold value, the verification processing unit 25 can obtain the product identification information of the product specified by the image recognition processing in the image recognition processing unit 24 for the product shown in the face area to be processed. It is determined as "correct answer" (S470). On the other hand, when the parameter ACC is less than the threshold value and the verification descriptor still has other feature information (S480), the feature information having the next highest priority among the verification descriptors and the face region in S400 are used. The image information cut out from the image is compared (S430), and the processing after S430 is repeated.

そして,当該検証ディスクリプタにおけるもっとも優位度の低い特徴情報についてまでS460の判定処理を実行した結果,パラメータACCが閾値以上ではない場合には,当該検証ディスクリプタにおけるすべての特徴情報についての処理を実行しているので,検証処理部25は,当該処理対象とするフェイス領域に写っている商品について,画像認識処理部24における画像認識処理で特定した商品の商品識別情報は「誤り」と判定する(S490)。 Then, as a result of executing the determination processing of S460 up to the feature information having the lowest superiority in the verification descriptor, if the parameter ACC is not equal to or higher than the threshold value, the processing for all the feature information in the verification descriptor is executed. Therefore, the verification processing unit 25 determines that the product identification information of the product specified by the image recognition processing in the image recognition processing unit 24 is "error" for the product reflected in the face area to be processed (S490). ..

以上の検証処理を,撮影画像情報における各フェイス領域について実行することで,画像認識処理部24における画像認識処理の結果を検証する。 By executing the above verification processing for each face area in the captured image information, the result of the image recognition processing in the image recognition processing unit 24 is verified.

以上のようにして検証処理を実行することができる。そして検証処理(S220)以降の処理は,S230以降と同様なので,説明を省略する。 The verification process can be executed as described above. Since the processing after the verification processing (S220) is the same as that after S230, the description thereof will be omitted.

なお,上述の説明ではパラメータACCに条件を充足した特徴情報に対応する優位度を加算し,パラメータACCがあらかじめ設定した閾値以上となった場合に,「正解」と判定する処理としたが,パラメータACCに優位度を加算するのではなく,条件を充足した特徴情報の数を加算するようにしてもよい。この場合,パラメータACCがあらかじめ設定した閾値(条件を充足した特徴情報の数に対する閾値)以上となった場合に,「正解」と判定するように構成することもできる。 In the above explanation, the superiority corresponding to the feature information satisfying the condition is added to the parameter ACC, and when the parameter ACC exceeds the preset threshold value, the process is determined as "correct answer". Instead of adding the superiority to the ACC, the number of feature information satisfying the conditions may be added. In this case, when the parameter ACC becomes equal to or more than a preset threshold value (threshold value for the number of feature information satisfying the condition), it may be configured to be determined as "correct answer".

また,上述のS440では,検証ディスクリプタの特徴情報における属性およびその属性値を,当該画像情報が充足しているかを判定する際に,充足していれば優位度を加算し,充足していなければそのまま次の特徴情報の処理としていたが,必ずしも,当該画像情報において特徴情報を発見できるかは限らない。そのため,検証ディスクリプタの特徴情報における属性およびその属性値を,当該画像情報が充足していれば優位度を加算し,充足していなければ優位度を減算し,当該画像情報で当該特徴情報そのものを見つけられなければそのまま次の特徴情報の処理を行う,というように,3段階で処理をしてもよい。 Further, in the above-mentioned S440, when determining whether the attribute and the attribute value in the feature information of the verification descriptor are satisfied, the superiority is added if the image information is satisfied, and if the image information is not satisfied, the superiority is added. The processing of the next feature information was performed as it was, but it is not always possible to find the feature information in the image information. Therefore, for the attributes and their attribute values in the feature information of the verification descriptor, the superiority is added if the image information is satisfied, the superiority is subtracted if the image information is not satisfied, and the feature information itself is used in the image information. If it cannot be found, the next feature information may be processed as it is, and so on, in three steps.

S440における条件の充足の有無,特徴情報の発見の有無についての演算は任意の演算を採用することができ,上述に限定するものではない。 Any calculation can be adopted for the calculation regarding whether or not the condition is satisfied and whether or not the feature information is found in S440, and the calculation is not limited to the above.

本実施例における検証ディスクリプタは,同じシリーズの別商品と区分する程度に対象,属性および属性値を設定すればよい。 For the verification descriptor in this embodiment, the target, the attribute, and the attribute value may be set to the extent that the verification descriptor is classified from another product of the same series.

つぎに本発明の検証システム1において,実施例1および実施例2の検証処理とは異なる検証処理を用いた場合を説明する。本実施例3における検証処理ではプロファイルデータを用いた場合の処理を説明する。プロファイルデータとは,画像情報内の対象物を構成する領域とその形状を代表する部分を表現したデータである。プロファイルデータは,図18に示すように,画像上のどの位置にどのような形が存在するかを示すデータである。 Next, a case where a verification process different from the verification processes of the first and second embodiments is used in the verification system 1 of the present invention will be described. In the verification process in the third embodiment, the process when the profile data is used will be described. Profile data is data that expresses a region constituting an object in image information and a portion that represents the shape. As shown in FIG. 18, the profile data is data showing what kind of shape exists at which position on the image.

プロファイルデータは,標本情報に対応づけて標本情報記憶部22に記憶される。プロファイルデータは,標本情報もしくはフェイス領域の画像情報を示す「元ファイル」,少なくとも一以上の構成要素を有している。構成要素には,閉領域の所定の頂点(たとえば左上)の位置,その閉領域の重心の位置,面積,当該閉領域の二値画像のファイル名などを含む。 The profile data is stored in the sample information storage unit 22 in association with the sample information. The profile data has at least one component, which is an "original file" showing sample information or image information of the face area. The components include the position of a predetermined vertex (for example, upper left) of the closed area, the position and area of the center of gravity of the closed area, the file name of the binary image of the closed area, and the like.

まず標本情報に対応するプロファイルデータを生成する処理プロセスの一例を図19のフローチャートを用いて説明する。 First, an example of a processing process for generating profile data corresponding to sample information will be described with reference to the flowchart of FIG.

オペレータは,入力端末3を用いて標本情報とする商品を正対位置から撮影し,撮影した対象物画像情報,識別情報,商品名,商品コードの入力を管理端末2で受け付け,それらを対応づけて標本情報記憶部22に記憶させておく(S500)。そして画像認識処理部24における画像認識処理で用いるための標本情報を抽出し,記憶しておく。たとえば局所特徴量とEMDなどを画像特徴量として抽出し,標本情報記憶部22に記憶させる。 The operator photographs the product as sample information from the opposite position using the input terminal 3, receives the input of the captured object image information, identification information, product name, and product code on the management terminal 2, and associates them. It is stored in the sample information storage unit 22 (S500). Then, the sample information to be used in the image recognition processing in the image recognition processing unit 24 is extracted and stored. For example, a local feature amount and an EMD are extracted as an image feature amount and stored in the sample information storage unit 22.

このような標本情報に対する処理を,複数の商品,好ましくは陳列棚に陳列される可能性のあるすべての商品についてあらかじめ実行しておく。 Processing for such sample information is performed in advance for a plurality of products, preferably all products that may be displayed on a display shelf.

また,対象物の画像情報または標本情報について,所定色数,たとえば5色や10色以下に減色をする(S510)。これは,たとえば当該画像情報について,所定色数のドミナントカラー(支配色)を特定後,それらの色で各ピクセルを置き換えることで行える。 Further, the image information or the sample information of the object is reduced to a predetermined number of colors, for example, 5 colors or 10 colors or less (S510). This can be done, for example, by specifying dominant colors (dominant colors) of a predetermined number of colors for the image information and then replacing each pixel with those colors.

減色した画像情報について,同一色の連続領域に区分けをすることで,色ごとの領域に分割をする(S520)。そして,面積が所定の大きさ以下の領域(小さすぎる領域),全体の面積が大きすぎる領域(対象物の地色など),画像情報の縁への密着度の高い領域(背景部分),重心がほかの要素の内部に含まれている領域(内部にデザインがある囲み図形),細くかつ屈曲が激しい領域(繊細な文字列)などの領域を除外して,残った領域を構成要素として特定する(S530)。そして残った領域である構成要素ごとに,その形状の情報(閉領域の所定の頂点の位置,重心の位置,面積)と二値画像とを,プロファイルデータに追加することで,プロファイルデータを生成する(S540)。 The color-reduced image information is divided into continuous regions of the same color to divide the image information into regions for each color (S520). Then, an area where the area is smaller than a predetermined size (area that is too small), an area where the total area is too large (such as the ground color of the object), an area where the degree of adhesion to the edge of the image information is high (background part), and the center of gravity. Excludes areas such as areas contained inside other elements (enclosed figures with an internal design) and areas that are thin and severely bent (delicate character strings), and the remaining areas are specified as components. (S530). Then, profile data is generated by adding the shape information (position of a predetermined vertex of the closed region, the position of the center of gravity, the area) and the binary image to the profile data for each component that is the remaining region. (S540).

図20に,標本情報とする商品の画像情報(対象物画像情報)とそれに対応するプロファイルの一例を模式的に示す。図20(a)は対象物画像情報の一例であり,図20(b)は当該標本情報に対応するプロファイルの一例である。図20(b)のプロファイルにおける各構成要素の位置などをテキストデータとして示したのが,プロファイルデータである。 FIG. 20 schematically shows an example of the image information (object image information) of the product as the sample information and the corresponding profile. FIG. 20A is an example of object image information, and FIG. 20B is an example of a profile corresponding to the sample information. The profile data shows the positions of each component in the profile of FIG. 20B as text data.

以上のように生成したプロファイルデータを用いて,検証処理部25における検証処理を実行することとなる。 The verification process in the verification process unit 25 is executed using the profile data generated as described above.

本実施例の検証処理の処理プロセスの一例を図8,図10,図21および図22のフローチャートを用いて説明する。なお,S210までの処理は,実施例1と同様なので説明を省略する。 An example of the processing process of the verification process of this embodiment will be described with reference to the flowcharts of FIGS. 8, 10, 21, and 22. Since the processing up to S210 is the same as that in the first embodiment, the description thereof will be omitted.

処理対象とするフェイス領域の画像情報から,図19と同様の処理を実行することで,プロファイルデータを生成する。フェイス領域の画像情報からプロファイルデータを生成する処理プロセスの一例を示すフローチャートを図21に示す。 Profile data is generated by executing the same processing as in FIG. 19 from the image information of the face area to be processed. FIG. 21 shows a flowchart showing an example of a processing process for generating profile data from image information in the face region.

まずフェイス領域の画像情報について,所定色数,たとえば5色以下に減色をする(S600)。フェイス領域の画像情報の一例を図23(a)に,減色したフェイス領域の画像情報の一例を図23(b)に示す。 First, the image information in the face region is reduced to a predetermined number of colors, for example, 5 colors or less (S600). An example of the image information of the face region is shown in FIG. 23 (a), and an example of the image information of the reduced color of the face region is shown in FIG. 23 (b).

減色した画像情報について,同一色の連続領域に区分けをすることで,色ごとの領域に分割をする(S610)。そして,面積が所定の大きさ以下の領域(小さすぎる領域),全体の面積が大きすぎる領域(対象物の地色など),画像情報の縁への密着度の高い領域(背景部分),重心が他の要素の内部に含まれている領域(内部にデザインがある囲み図形),細くかつ屈曲が激しい領域(繊細な文字列)などの領域を除外して,残った領域を構成要素として特定する(S620)。そして残った領域である構成要素ごとに,その形状の情報(閉領域の所定の頂点の位置,重心の位置,面積)と二値画像とを,プロファイルデータに追加することで,プロファイルデータを生成する(S630)。図24に,図23(a)のフェイス領域の画像情報に対して生成したプロファイルの一例を示す。 The color-reduced image information is divided into continuous regions of the same color to divide the image information into regions for each color (S610). Then, an area where the area is smaller than a predetermined size (area that is too small), an area where the total area is too large (such as the ground color of the object), an area where the degree of adhesion to the edge of the image information is high (background part), and the center of gravity. Excludes areas such as areas that are contained inside other elements (enclosed figures with an internal design) and areas that are thin and severely bent (delicate character strings), and specify the remaining areas as components. (S620). Then, profile data is generated by adding the shape information (position of a predetermined vertex of the closed region, the position of the center of gravity, the area) and the binary image to the profile data for each component that is the remaining region. (S630). FIG. 24 shows an example of the profile generated for the image information in the face region of FIG. 23 (a).

以上のように生成したフェイス領域の画像情報に基づくプロファイルと,処理対象とするフェイス領域に写っている商品に類似している商品の商品識別情報が対応する標本情報に関連付けられたプロファイルとを用いて,その類似性を評価することで,検証処理を検証処理部25が実行する(S230)。この処理を図25に模式的に示す。図25は左側が標本情報に関連付けられたプロファイルの一例であり,右側がフェイス領域の画像情報に基づくプロファイルの一例である。なお,図25では,説明の簡略化のため,構成要素を円で示しているが,実際は閉領域であれば足り,不定形である。 Using the profile based on the image information of the face area generated as described above, and the profile in which the product identification information of the product similar to the product reflected in the face area to be processed is associated with the corresponding sample information. Then, by evaluating the similarity, the verification processing unit 25 executes the verification processing (S230). This process is schematically shown in FIG. In FIG. 25, the left side is an example of a profile associated with the sample information, and the right side is an example of a profile based on the image information of the face area. In FIG. 25, the components are shown by circles for the sake of simplification of the explanation, but in reality, a closed region is sufficient and the shape is indeterminate.

まず標本情報のプロファイルと,フェイス領域のプロファイルのそれぞれにおける構成要素のうち,面積が大きい構成要素から2以上の構成要素を特定する。たとえば面積が上位4個の構成要素を特定する(S700)。ここで特定した構成要素を「核」とする。この状態を模式的に示すのが図25(a)である。 First, among the components in each of the sample information profile and the face area profile, two or more components are specified from the components having a large area. For example, the components having the top four areas are specified (S700). The component specified here is referred to as the "core". FIG. 25 (a) schematically shows this state.

そしてそれぞれのプロファイルについて,S700で特定した核となる構成要素のうち,隣り合う構成要素を重心同士で連結する。この際に,一通りに定まるように,左回り,下降が優先,といったようにあらかじめ定めたルールに従って連結をする。この状態を模式的に示すのが図25(b)である。なお,隣り合う構成要素を重心同士で連結したものを星座と呼ぶこととする。 Then, for each profile, among the core components specified in S700, adjacent components are connected by the centers of gravity. At this time, concatenation is performed according to predetermined rules such as counterclockwise rotation and descending priority so that the rules are fixed. FIG. 25 (b) schematically shows this state. A constellation is a combination of adjacent components connected by their centers of gravity.

隣り合う構成要素のパターン(星座のパターン)が,標本情報のプロファイルとフェイス領域のプロファイルとで一致するかを示す一致性の評価をする(S720)。すなわち,各プロファイルにおいて,連結した構成要素の重心を結ぶことで生成される折れ線の類似度を評価する。これは,折れ線が折れ曲がるたびに,一つ前の線分との長さの比の類似度,角度の類似度を積算することで算出できる。そしてこの類似度があらかじめ設定した閾値以上であれば,一致すると判定し,閾値未満であれば類似しないと判定する。 Consistency is evaluated to indicate whether the patterns of adjacent components (constellation patterns) match the profile of the sample information and the profile of the face region (S720). That is, in each profile, the similarity of the polygonal line generated by connecting the centers of gravity of the connected components is evaluated. This can be calculated by integrating the similarity of the length ratio with the previous line segment and the similarity of the angle each time the polygonal line bends. If the similarity is equal to or higher than the preset threshold value, it is determined that they match, and if it is less than the threshold value, it is determined that they are not similar.

そして類似すると判定した場合,いずれか一方のプロファイルを拡縮することで,双方のプロファイルを重ね合わせ,縮尺,位相を合わせる(S730)。これは,各プロファイルにおける折れ線の総延長距離が同じとなるように拡縮すればよく,また折れ線の重心同士を一致するように平行移動すればよい。 If it is determined that they are similar, one of the profiles is scaled up or down so that both profiles are overlapped, and the scale and phase are matched (S730). This may be expanded or contracted so that the total extension distance of the polygonal lines in each profile is the same, or the centers of gravity of the polygonal lines may be translated so as to coincide with each other.

以上のようにして,S700で特定した核となるプロファイル以外の構成要素について,それぞれのプロファイルで対応する構成要素があるかを特定し,特定したら,その構成要素を星座に追加する(S740)。すなわち,一方のプロファイルのうち,星座にまだ入っていない構成要素を特定し,その重心から一定距離の範囲で,他方のプロファイルの要素の重心がもっとも近いものを探索し,もっとも近いものがあれば,対応する構成要素があるとして特定する。この状態を模式的に示すのが図25(c)である。星座に追加した構成要素については,隣り合う構成要素の重心と連結する。また,図20の標本情報およびそのプロファイルと,図23のフェイス領域の画像および図24のそのプロファイルにおけるそれぞれの構成要素同士の対応付けを模式的に示すのが図26である。 As described above, for the components other than the core profile specified in S700, it is specified whether or not there is a corresponding component in each profile, and after the specification, the component is added to the constellation (S740). That is, among the one profile, the components that are not yet in the constellation are identified, the one with the closest center of gravity of the element of the other profile is searched within a certain distance from the center of gravity, and if there is the closest one. , Identify as having a corresponding component. FIG. 25 (c) schematically shows this state. The components added to the constellation are connected to the centers of gravity of adjacent components. Further, FIG. 26 schematically shows the correspondence between the sample information of FIG. 20 and its profile, the image of the face region of FIG. 23, and the respective components in the profile of FIG. 24.

そして,それぞれのプロファイルの構成要素同士の対応関係から類似度を算出する処理を実行する(S750)。類似度の算出処理は以下の数式を演算することで算出できる。
類似度=w1×Σ(対応する要素同士の一致度)−w2×Σ(対応しない要素の面積)
Then, a process of calculating the similarity from the correspondence between the components of each profile is executed (S750). The similarity calculation process can be calculated by calculating the following formula.
Similarity = w1 x Σ (matching degree between corresponding elements) -w2 x Σ (area of non-corresponding elements)

ここでw1,w2は所定の重み付けであり,任意の値として設定することが可能である。またw2は0として設定することもできる。すなわち,無関係の物が写り込んでいる場合など,対応しない要素の面積を考慮することが相当ではない場合には,w2を0として設定することで,その影響を排除することができる。 Here, w1 and w2 are predetermined weights and can be set as arbitrary values. W2 can also be set as 0. That is, when it is not appropriate to consider the area of the uncorresponding element, such as when an unrelated object is reflected, the influence can be eliminated by setting w2 as 0.

また,上述の類似度を算出する数式において,対応する要素同士の一致度は,2つのプロファイルの大きさの尺度を合わせて,2つのプロファイルにおける構成要素の重心を合わせて,以下の数式を演算することで算出できる。
対応する要素同士の一致度=(フェイスのプロファイルと標本情報のプロファイルの構成要素の共通部分の面積−(フェイスのプロファイルではあり標本情報のプロファイルがない部分の構成要素の面積+標本情報のプロファイルではありフェイスのプロファイルではない部分の構成要素の面積)/2)/フェイスのプロファイルの面積
Further, in the above-mentioned formula for calculating the similarity, the degree of matching between the corresponding elements is calculated by matching the scales of the sizes of the two profiles and the centers of gravity of the components in the two profiles. It can be calculated by doing.
Matching degree between corresponding elements = (Area of common part of component of face profile and sample information profile- (Area of component of face profile but no sample information profile + sample information profile Area of components that are not the profile of the face) / 2) / Area of the profile of the face

この際に,商品の傾き(画像情報の要素の傾き)に対応するため,一方を微小な角度で回転させながら,上述の数式の演算を行い,もっとも値が大きいものを採用するようにしてもよい。さらに,2つのプロファイルにおいて対応する構成要素の組の個数が多いものを重視するようにしてもよい。 At this time, in order to correspond to the inclination of the product (the inclination of the element of the image information), the above formula is calculated while rotating one of them at a minute angle, and the one with the largest value is adopted. good. Further, the two profiles may be emphasized when the number of corresponding component sets is large.

以上のようにして類似度を算出後,その類似度が所定値以上であれば(S760),検証処理部25は,画像認識処理部24における画像認識処理での認識結果が「正解」と判定する(S770)。一方,算出した類似度が所定値未満であれば(S760),検証処理部25は,画像認識処理部24における画像認識処理での認識結果が「誤り」と判定する(S780)。 After calculating the similarity as described above, if the similarity is equal to or higher than a predetermined value (S760), the verification processing unit 25 determines that the recognition result in the image recognition processing in the image recognition processing unit 24 is "correct". (S770). On the other hand, if the calculated similarity is less than a predetermined value (S760), the verification processing unit 25 determines that the recognition result in the image recognition processing in the image recognition processing unit 24 is “error” (S780).

以上の検証処理を,撮影画像情報における各フェイス領域について実行することで,画像認識処理部24における画像認識処理の結果を検証する。 By executing the above verification processing for each face area in the captured image information, the result of the image recognition processing in the image recognition processing unit 24 is verified.

以上のようにして検証処理を実行することができる。そして検証処理(S220)以降の処理は,S230以降と同様なので,説明を省略する。 The verification process can be executed as described above. Since the processing after the verification processing (S220) is the same as that after S230, the description thereof will be omitted.

上述の各実施例における各処理については,本発明の明細書に記載した順序に限定するものではなく,その目的を達成する限度において適宜,変更することが可能である。 The processing in each of the above-mentioned examples is not limited to the order described in the specification of the present invention, and can be appropriately changed as long as the object is achieved.

また,各値を比較する場合,「以上」,「未満」と実施例で記載している場合であっても,「より大きい」,「以下」と比較条件を適宜,変更してもよい。 Further, when comparing each value, even if "greater than or equal to" and "less than" are described in the examples, the comparison conditions may be appropriately changed to "greater than or equal to" and "less than or equal to".

また,本発明の検証システム1は,店舗の陳列棚を撮影した撮影画像情報から,陳列棚に陳列した商品を対象物として,その商品の陳列状況を特定する場合に有効であるが,それに限定するものではない。すなわち,ある撮影対象物を撮影した場合に,その所望の対象物が写っている領域を撮影した画像情報から特定する際に,広く用いることができる。 Further, the verification system 1 of the present invention is effective when specifying the display status of a product displayed on the display shelf from the photographed image information obtained by photographing the display shelf of the store, but the present invention is limited to this. It's not something to do. That is, when a certain object to be photographed is photographed, it can be widely used when specifying the area in which the desired object is captured from the photographed image information.

本発明の検証システム1を用いることによって,画像認識処理システムでの認識結果に対しての検証を,省力化することができる。そのため,従来の人手による作業を大幅に減らす,あるいはなくすことができる。 By using the verification system 1 of the present invention, it is possible to save labor in the verification of the recognition result in the image recognition processing system. Therefore, the conventional manual work can be significantly reduced or eliminated.

1:検証システム
2:管理端末
3:入力端末
20:画像情報入力受付処理部
21:画像情報記憶部
22:標本情報記憶部
23:画像情報処理部
24:画像認識処理部
25:検証処理部
26:検証結果処理部
70:演算装置
71:記憶装置
72:表示装置
73:入力装置
74:通信装置
1: Verification system 2: Management terminal 3: Input terminal 20: Image information input reception processing unit 21: Image information storage unit 22: Sample information storage unit 23: Image information processing unit 24: Image recognition processing unit 25: Verification processing unit 26 : Verification result processing unit 70: Arithmetic device 71: Storage device 72: Display device 73: Input device 74: Communication device

第1の発明は,画像情報における一部または全部の領域に対して第1の比較処理を実行する画像認識処理部と,前記画像認識処理部による認識結果の一部または全部に対して第2の比較処理を実行する検証処理部と,対象物の標本情報を記憶する標本情報記憶部と,を有する検証システムであって,前記標本情報記憶部は,対象物を特徴付ける検証領域を示す情報,その検証領域を抽出する画像フィルタの種別の情報,その検証領域の画像情報を含む検証キーを少なくとも一以上備える検証ディスクリプタを,少なくとも対象物ごとに一以上記憶しており,前記検証処理部は,前記第1の比較処理において特定した対象物のうち一部または全部の対象物の対応する前記検証ディスクリプタを特定し,前記特定した検証ディスクリプタにおける各検証キーについて,その検証キーの情報を用いて処理対象とする領域から前記検証領域に対応する領域を抽出できるかを判定し,前記領域を抽出できた場合には,前記抽出した領域の画像情報と,前記検証キーの画像情報との一致度を算出し,前記算出した一致度と所定の閾値とを比較し,比較結果が所定条件を充足する場合には前記第1の比較処理の結果が正しいとして前記処理対象とする領域に写っている対象物として特定する,検証システムである。
The first invention is a second aspect of an image recognition processing unit that executes a first comparison process for a part or all areas of image information, and a part or all of recognition results by the image recognition processing unit. It is a verification system having a verification processing unit that executes comparison processing and a sample information storage unit that stores sample information of an object, and the sample information storage unit is information indicating a verification area that characterizes an object. The verification processing unit stores at least one verification descriptor having at least one verification key including the information of the type of the image filter for extracting the verification area and the image information of the verification area for each object. The verification descriptor corresponding to a part or all of the objects specified in the first comparison process is specified, and each verification key in the specified verification descriptor is processed by using the information of the verification key. It is determined whether the area corresponding to the verification area can be extracted from the target area, and if the area can be extracted, the degree of matching between the image information of the extracted area and the image information of the verification key is determined. Calculated, the calculated degree of agreement is compared with a predetermined threshold, and if the comparison result satisfies the predetermined condition, the result of the first comparison process is regarded as correct and the object is reflected in the area to be processed. It is a verification system that identifies things as objects.

第7の発明は,画像情報における一部または全部の領域に対して第1の比較処理を実行する画像認識処理部と,前記画像認識処理部による認識結果の一部または全部に対して第2の比較処理を実行する検証処理部と,対象物の標本情報を記憶する標本情報記憶部と,を有する検証システムであって,前記標本情報記憶部は,前記対象物を特徴付ける部分を類型化した特徴情報と優位度とを検証ディスクリプタとして,少なくとも対象物ごとに一以上記憶しており,前記特徴情報として,対象物を特徴付ける部分である対象と,前記対象の属性,前記属性に対する属性値とを有しており,前記検証処理部は,前記第1の比較処理において特定した対象物のうち一部または全部の対象物の対応する前記検証ディスクリプタを特定し,前記特定した検証ディスクリプタにおける各特徴情報について,優位度の高い特徴情報の順に,前記処理対象とする領域が,前記特徴情報における属性および属性値を充足しているかを判定し,所定条件を充足した場合には,前記第1の比較処理の結果が正しいとして前記処理対象とする領域に写っている対象物として特定する,検証システムである。
The seventh invention is a second aspect of an image recognition processing unit that executes a first comparison process for a part or all areas of image information, and a part or all of recognition results by the image recognition processing unit. It is a verification system having a verification processing unit that executes the comparison processing of the object and a sample information storage unit that stores the sample information of the object, and the sample information storage unit categorizes the part that characterizes the object. At least one or more feature information and superiority are stored as a verification descriptor for each object, and as the feature information, the target that is the part that characterizes the object, the attribute of the target, and the attribute value for the attribute are stored. The verification processing unit has specified the verification descriptor corresponding to a part or all of the objects specified in the first comparison process, and each feature information in the specified verification descriptor. It is determined whether the area to be processed satisfies the attributes and attribute values in the feature information in the order of the feature information having the highest degree of superiority, and if the predetermined conditions are satisfied, the first comparison is made. It is a verification system that identifies the object in the area to be processed as the result of processing is correct.

第8の発明は,画像情報における一部または全部の領域に対して第1の比較処理を実行する画像認識処理部と,前記画像認識処理部による認識結果の一部または全部に対して第2の比較処理を実行する検証処理部と,対象物の標本情報を記憶する標本情報記憶部と,を有する検証システムであって,前記標本情報記憶部は,画像情報における対象物の形状を代表する部分領域の情報を含むプロファイルデータを,少なくとも対象物ごとに一以上記憶しており,前記検証処理部は,処理対象とする領域を所定色数に減色し,前記減色した画像情報に対して色ごとの領域に分割をして,特定した領域を構成要素として特定することで,処理対象とする領域のプロファイルデータを生成し,前記処理対象とする領域のプロファイルデータと,前記第1の比較処理において特定した対象物のうち一または全部の対象物のプロファイルデータとを用いて類似性を比較し,前記類似性が所定条件を充足した場合には,前記第1の比較処理の結果が正しいとして前記処理対象とする領域に写っている対象物として特定する,検証システムである。
The eighth invention is an image recognition processing unit that executes a first comparison process for a part or all areas of image information, and a second aspect for a part or all of recognition results by the image recognition processing unit. It is a verification system having a verification processing unit that executes comparison processing and a sample information storage unit that stores sample information of an object, and the sample information storage unit represents the shape of an object in image information. At least one profile data including information on a partial area is stored for each object, and the verification processing unit reduces the color of the area to be processed to a predetermined number of colors and colors the reduced image information. By dividing into each area and specifying the specified area as a component, the profile data of the area to be processed is generated, and the profile data of the area to be processed is compared with the first comparison process. The similarity is compared with the profile data of one or all of the objects specified in the above, and if the similarity satisfies a predetermined condition, the result of the first comparison process is assumed to be correct. This is a verification system that identifies an object in the area to be processed.

第1の発明は,本発明のプログラムをコンピュータに読み込ませて実行することで,実現することができる。すなわち,対象物を特徴付ける検証領域を示す情報,その検証領域を抽出する画像フィルタの種別の情報,その検証領域の画像情報を含む検証キーを少なくとも一以上備える検証ディスクリプタを,少なくとも対象物ごとに一以上記憶しているコンピュータを,画像情報における一部または全部の領域に対して第1の比較処理を実行する画像認識処理部,前記画像認識処理部による認識結果の一部または全部に対して第2の比較処理を実行する検証処理部,として機能させる検証プログラムであって,前記検証処理部は,前記第1の比較処理において特定した対象物のうち一部または全部の対象物の対応する前記検証ディスクリプタを特定し,前記特定した検証ディスクリプタにおける各検証キーについて,その検証キーの情報を用いて処理対象とする領域から前記検証領域に対応する領域を抽出できるかを判定し,前記領域を抽出できた場合には,前記抽出した領域の画像情報と,前記検証キーの画像情報との一致度を算出し,前記算出した一致度と所定の閾値とを比較し,比較結果が所定条件を充足する場合には前記第1の比較処理の結果が正しいとして前記処理対象とする領域に写っている対象物として特定する,検証プログラムである。
The first invention can be realized by loading and executing the program of the present invention in a computer. That is, at least one verification descriptor having at least one verification key including information indicating the verification area that characterizes the object, information on the type of image filter that extracts the verification area, and image information of the verification area is provided for each object. The computer that stores the above is the first for an image recognition processing unit that executes the first comparison processing for a part or all areas of image information, and for a part or all of the recognition results by the image recognition processing unit. A verification program that functions as a verification processing unit that executes the comparison processing of 2, wherein the verification processing unit corresponds to a part or all of the objects specified in the first comparison processing. The verification descriptor is specified, and for each verification key in the specified verification descriptor, it is determined whether the area corresponding to the verification area can be extracted from the area to be processed by using the information of the verification key, and the area is extracted. If it can be done, the degree of matching between the image information of the extracted area and the image information of the verification key is calculated, the calculated degree of matching is compared with a predetermined threshold, and the comparison result satisfies the predetermined condition. In this case, it is a verification program that identifies the object as being reflected in the area to be processed, assuming that the result of the first comparison process is correct.

第7の発明は,本発明のプログラムをコンピュータに読み込ませて実行することで,実現することができる。すなわち,対象物を特徴付ける部分を類型化した特徴情報と優位度とを検証ディスクリプタとして,少なくとも対象物ごとに一以上記憶しているコンピュータを,画像情報における一部または全部の領域に対して第1の比較処理を実行する画像認識処理部,前記画像認識処理部による認識結果の一部または全部に対して第2の比較処理を実行する検証処理部,として機能させる検証プログラムであって,前記特徴情報として,対象物を特徴付ける部分である対象と,前記対象の属性,前記属性に対する属性値とを有しており,前記検証処理部は前記第1の比較処理において特定した対象物のうち一部または全部の対象物の対応する前記検証ディスクリプタを特定し,前記特定した検証ディスクリプタにおける各特徴情報について,優位度の高い特徴情報の順に,前記処理対象とする領域が,前記特徴情報における属性および属性値を充足しているかを判定し,所定条件を充足した場合には,前記第1の比較処理の結果が正しいとして前記処理対象とする領域に写っている対象物として特定する,検証プログラムである。
第8の発明は,本発明のプログラムをコンピュータに読み込ませて実行することで,実現することができる。すなわち,画像情報における対象物の形状を代表する部分領域の情報を含むプロファイルデータを,少なくとも対象物ごとに一以上記憶しているコンピュータを,画像情報における一部または全部の領域に対して第1の比較処理を実行する画像認識処理部,前記画像認識処理部による認識結果の一部または全部に対して第2の比較処理を実行する検証処理部,として機能させる検証プログラムであって,前記検証処理部は,処理対象とする領域を所定色数に減色し,前記減色した画像情報に対して色ごとの領域に分割をして,特定した領域を構成要素として特定することで,処理対象とする領域のプロファイルデータを生成し,前記処理対象とする領域のプロファイルデータと,前記第1の比較処理において特定した対象物のうち一または全部の対象物のプロファイルデータとを用いて類似性を比較し,前記類似性が所定条件を充足した場合には,前記第1の比較処理の結果が正しいとして前記処理対象とする領域に写っている対象物として特定する,検証プログラムである。
The seventh invention can be realized by loading and executing the program of the present invention in a computer. That is, a computer that stores at least one or more objects for each object is used as a verification descriptor using feature information that categorizes the parts that characterize the object and the superiority, and is the first for a part or all of the area in the image information. It is a verification program that functions as an image recognition processing unit that executes the comparison processing of the above, and a verification processing unit that executes a second comparison processing for a part or all of the recognition results by the image recognition processing unit. As information, it has an object that is a part that characterizes the object, the attribute of the object, and the attribute value for the attribute, and the verification processing unit is a part of the object specified in the first comparison process. Alternatively, the verification descriptor corresponding to all the objects is specified, and for each feature information in the specified verification descriptor, the area to be processed is the attribute and attribute in the feature information in the order of the feature information having the highest degree of superiority. It is a verification program that determines whether a value is satisfied, and if a predetermined condition is satisfied, identifies the object as being reflected in the area to be processed, assuming that the result of the first comparison process is correct. ..
The eighth invention can be realized by loading and executing the program of the present invention in a computer. That is, a computer that stores at least one profile data including information of a partial region representing the shape of the object in the image information for each object is first for a part or all of the regions in the image information. It is a verification program that functions as an image recognition processing unit that executes the comparison processing of the above, and a verification processing unit that executes a second comparison processing for a part or all of the recognition results by the image recognition processing unit. The processing unit reduces the color of the area to be processed to a predetermined number of colors, divides the reduced image information into areas for each color, and specifies the specified area as a component, thereby making it a processing target. The profile data of the area to be processed is generated, and the similarity is compared between the profile data of the area to be processed and the profile data of one or all the objects specified in the first comparison process. However, when the similarity satisfies a predetermined condition, it is a verification program that identifies the object as being reflected in the area to be processed, assuming that the result of the first comparison processing is correct.

Claims (18)

画像情報における一部または全部の領域に対して第1の比較処理を実行する画像認識処理部と,
前記画像認識処理部による認識結果の一部または全部に対して第2の比較処理を実行する検証処理部と,を有する検証システムであって,
前記検証処理部は,
前記第2の比較処理として,前記第1の比較処理とは同一ではない処理方式,または,前記第1の比較処理に用いる要素と前記第2の比較処理に用いる要素の全部が共通ではない処理方式による処理を実行する,
ことを特徴とする検証システム。
An image recognition processing unit that executes the first comparison processing for a part or all of the image information, and
A verification system having a verification processing unit that executes a second comparison processing on a part or all of the recognition results by the image recognition processing unit.
The verification processing unit
As the second comparison process, a processing method that is not the same as the first comparison process, or a process in which all the elements used in the first comparison process and the elements used in the second comparison process are not common. Execute processing by method,
A verification system characterized by that.
前記検証処理部は,
前記第2の比較処理として,前記第1の比較処理とは異なる処理方式,または,前記第1の比較処理に用いる要素と前記第2の比較処理に用いる要素の全部が異なる処理方式による処理を実行する,
ことを特徴とする請求項1に記載の検証システム。
The verification processing unit
As the second comparison process, a process method different from that of the first comparison process, or a process in which all the elements used in the first comparison process and the elements used in the second comparison process are different. Run,
The verification system according to claim 1, wherein the verification system is characterized in that.
前記検証システムは,
対象物の標本情報を記憶する標本情報記憶部と,
前記検証処理部における第2の比較処理の判定結果に対する処理を実行する検証結果処理部と,を有しており,
前記画像認識処理部における前記第1の比較処理は,
前記画像情報における処理対象とする領域と,前記標本情報における標本情報とを比較することで,前記処理対象とする領域に写っている対象物を特定し,
前記検証処理部における前記第2の比較処理は,
前記第1の比較処理において特定した対象物のうち一部または全部の対象物の対応する情報と,前記処理対象とする領域との比較結果が所定条件を充足する場合には前記第1の比較処理の結果が正しいと判定し,
前記検証結果処理部は,
前記検証処理部において正しいと判定した場合には,前記第1の比較処理の結果を,前記処理対象とする領域に写っている対象物として特定する,
ことを特徴とする請求項1または請求項2に記載の検証システム。
The verification system is
A sample information storage unit that stores sample information of an object,
It has a verification result processing unit that executes processing for the determination result of the second comparison processing in the verification processing unit.
The first comparison process in the image recognition processing unit is
By comparing the area to be processed in the image information with the sample information in the sample information, the object reflected in the area to be processed is identified.
The second comparison processing in the verification processing unit is
When the comparison result between the corresponding information of a part or all of the objects specified in the first comparison process and the area to be processed satisfies the predetermined condition, the first comparison is performed. Judging that the processing result is correct,
The verification result processing unit
If the verification processing unit determines that the result is correct, the result of the first comparison processing is specified as an object reflected in the area to be processed.
The verification system according to claim 1 or 2, wherein the verification system is characterized in that.
前記検証処理部における前記第2の比較処理は,
前記比較結果が所定条件を充足しない場合には前記第1の比較処理の結果が誤りと判定し,
前記検証結果処理部は,
前記検証処理部において誤りと判定した場合には,所定の通知を行う,
ことを特徴とする請求項3に記載の検証システム。
The second comparison processing in the verification processing unit is
If the comparison result does not satisfy the predetermined conditions, it is determined that the result of the first comparison process is an error.
The verification result processing unit
If the verification processing unit determines that an error has occurred, a predetermined notification is given.
The verification system according to claim 3, wherein the verification system is characterized in that.
前記標本情報記憶部は,
対象物を特徴付ける検証領域を示す情報,その検証領域を抽出する画像フィルタの種別の情報,その検証領域の画像情報を含む検証キーを少なくとも一以上備える検証ディスクリプタを,少なくとも対象物ごとに一以上記憶しており,
前記検証処理部は,
前記第1の比較処理において特定した対象物のうち一部または全部の対象物の対応する前記検証ディスクリプタを特定し,
前記特定した検証ディスクリプタにおける各検証キーについて,その検証キーの情報を用いて前記処理対象とする領域から前記検証領域に対応する領域を抽出できるかを判定し,前記領域を抽出できた場合には,前記抽出した領域の画像情報と,前記検証キーの画像情報との一致度を算出し,
前記算出した一致度と所定の閾値とを比較し,比較結果が所定条件を充足する場合には前記第1の比較処理の結果が正しいとして前記処理対象とする領域に写っている対象物として特定する,
ことを特徴とする請求項1から請求項4のいずれかに記載の検証システム。
The sample information storage unit is
At least one verification descriptor containing at least one verification key including information indicating the verification area that characterizes the object, information on the type of image filter that extracts the verification area, and image information of the verification area is stored. And
The verification processing unit
The verification descriptor corresponding to a part or all of the objects specified in the first comparison process is specified.
For each verification key in the specified verification descriptor, it is determined whether the area corresponding to the verification area can be extracted from the area to be processed by using the information of the verification key, and if the area can be extracted, the area can be extracted. , Calculate the degree of matching between the image information of the extracted area and the image information of the verification key.
The calculated degree of agreement is compared with a predetermined threshold value, and if the comparison result satisfies the predetermined condition, the result of the first comparison process is regarded as correct and the object is specified as an object reflected in the area to be processed. do,
The verification system according to any one of claims 1 to 4, wherein the verification system is characterized in that.
前記検証処理部は,
前記第1の比較処理において特定した対象物のうち一部または全部の対象物の対応する前記検証ディスクリプタを特定し,
前記特定した検証ディスクリプタにおける各検証キーについて,前記処理対象とする領域のうち,その検証キーにおける検証領域に対応する領域から,その検証キーにおける画像フィルタを用いて領域を抽出できるかを判定し,領域を抽出できた場合には,前記抽出した領域と前記検証キーの画像情報との一致度を算出し,
前記算出した一致度と所定の閾値とを比較し,比較結果が所定条件を充足する場合には前記第1の比較処理の結果が正しいとして前記処理対象とする領域に写っている対象物として特定する,
ことを特徴とする請求項5に記載の検証システム。
The verification processing unit
The verification descriptor corresponding to a part or all of the objects specified in the first comparison process is specified.
For each verification key in the specified verification descriptor, it is determined whether or not the area corresponding to the verification area in the verification key can be extracted from the area to be processed by using the image filter in the verification key. If the area can be extracted, the degree of matching between the extracted area and the image information of the verification key is calculated.
The calculated degree of agreement is compared with a predetermined threshold value, and if the comparison result satisfies the predetermined condition, the result of the first comparison process is regarded as correct and the object is specified as an object reflected in the area to be processed. do,
The verification system according to claim 5, wherein the verification system is characterized in that.
前記検証処理部は,
前記標本情報とする対象物の画像情報または標本情報から,前記対象物を特徴付ける閉領域を検証領域として受け付け,
前記検証領域と前記検証領域に対する周辺領域とを区別する画像フィルタを選択し,
前記検証領域における画像情報とを,検証キーにおける情報として,前記標本情報記憶部に記憶させる,
ことを特徴とする請求項5または請求項6に記載の検証システム。
The verification processing unit
From the image information or sample information of the object to be the sample information, the closed area that characterizes the object is accepted as the verification area.
Select an image filter that distinguishes between the verification area and the peripheral area for the verification area.
The image information in the verification area is stored in the sample information storage unit as information in the verification key.
The verification system according to claim 5 or 6, wherein the verification system is characterized in that.
前記検証処理部は,あらかじめ登録してある画像フィルタのうち,
前記検証領域の内部でもっとも広い面積で適合となり,前記周辺領域のもっとも広い面積で非適合となる画像フィルタを探索することで,画像フィルタを選択する,
ことを特徴とする請求項7に記載の検証システム。
The verification processing unit is one of the image filters registered in advance.
An image filter is selected by searching for an image filter that fits in the widest area inside the verification area and does not fit in the widest area of the peripheral area.
The verification system according to claim 7, wherein the verification system is characterized in that.
前記検証処理部は,あらかじめ登録してある画像フィルタのうち,
前記検証領域の適合ピクセル数/前記検証領域のピクセル数をAT,前記周辺領域の非適合ピクセル数/前記周辺領域のピクセル数をBFとしたとき,ATとBFの調和平均を最大化する画像フィルタを選択する,
ことを特徴とする請求項7に記載の検証システム。
The verification processing unit is one of the image filters registered in advance.
An image filter that maximizes the harmonic mean of AT and BF when the number of conforming pixels in the verification area / the number of pixels in the verification area is AT and the number of non-conforming pixels in the peripheral area / the number of pixels in the peripheral area is BF. To select,
The verification system according to claim 7, wherein the verification system is characterized in that.
前記検証領域,前記周辺領域について,二値画像の膨張または収縮処理をした後に,前記検証領域と前記検証領域に対する周辺領域とを区別する画像フィルタを選択する,
ことを特徴とする請求項7から請求項9のいずれかに記載の検証システム。
After the binary image is expanded or contracted for the verification region and the peripheral region, an image filter that distinguishes the verification region from the peripheral region with respect to the verification region is selected.
The verification system according to any one of claims 7 to 9, wherein the verification system is characterized in that.
前記標本情報記憶部は,
前記対象物を特徴付ける部分を類型化した特徴情報と優位度とを検証ディスクリプタとして,少なくとも対象物ごとに一以上記憶しており,
前記特徴情報として,対象物を特徴付ける部分である対象と,前記対象の属性,前記属性に対する属性値とを有しており,
前記検証処理部は
前記第1の比較処理において特定した対象物のうち一部または全部の対象物の対応する前記検証ディスクリプタを特定し,
前記特定した検証ディスクリプタにおける各特徴情報について,優位度の高い特徴情報の順に,前記処理対象とする領域が,前記特徴情報における属性および属性値を充足しているかを判定し,
所定条件を充足した場合には,前記第1の比較処理の結果が正しいとして前記処理対象とする領域に写っている対象物として特定する,
ことを特徴とする請求項1から請求項4のいずれかに記載の検証システム。
The sample information storage unit is
At least one or more of the characteristic information categorizing the parts that characterize the object and the superiority are stored as verification descriptors for each object.
The feature information includes an object that is a part that characterizes the object, an attribute of the object, and an attribute value for the attribute.
The verification processing unit identifies the corresponding verification descriptor of a part or all of the objects specified in the first comparison process.
For each feature information in the specified verification descriptor, it is determined whether the area to be processed satisfies the attributes and attribute values in the feature information in the order of the feature information having the highest degree of superiority.
When a predetermined condition is satisfied, the result of the first comparison process is regarded as correct and the object is specified as an object reflected in the area to be processed.
The verification system according to any one of claims 1 to 4, wherein the verification system is characterized in that.
前記標本情報記憶部は,
画像情報における対象物の形状を代表する部分領域の情報を含むプロファイルデータを,少なくとも対象物ごとに一以上記憶しており,
前記検証処理部は,
前記処理対象とする領域を所定色数に減色し,
前記減色した画像情報に対して色ごとの領域に分割をして,特定した領域を構成要素として特定することで,処理対象とする領域のプロファイルデータを生成し,
前記処理対象とする領域のプロファイルデータと,前記第1の比較処理において特定した対象物のうち一または全部の対象物のプロファイルデータとを用いて類似性を比較し,
前記類似性が所定条件を充足した場合には,前記第1の比較処理の結果が正しいとして前記処理対象とする領域に写っている対象物として特定する,
ことを特徴とする請求項1から請求項4のいずれかに記載の検証システム。
The sample information storage unit is
At least one profile data including information on a partial area representing the shape of the object in the image information is stored for each object.
The verification processing unit
The area to be processed is reduced to a predetermined number of colors, and the color is reduced.
By dividing the color-reduced image information into areas for each color and specifying the specified area as a component, profile data of the area to be processed is generated.
Similarities are compared using the profile data of the region to be processed and the profile data of one or all of the objects specified in the first comparison process.
When the similarity satisfies a predetermined condition, the result of the first comparison process is regarded as correct and the object is specified as an object reflected in the area to be processed.
The verification system according to any one of claims 1 to 4, wherein the verification system is characterized in that.
前記検証処理部は,
前記処理対象とする領域のプロファイルデータの構成要素のうち面積が大きい所定数の構成要素と,前記第1の比較処理において特定した対象物のうち一または全部の対象物のプロファイルデータの構成要素のうち面積が大きい所定数の構成要素をそれぞれ核として特定し,
それぞれの前記プロファイルデータにおける,核とした構成要素のうち隣り合う構成要素を重心同士で連結したパターンを用いて類似性を算出し,
前記算出した類似性が所定条件を充足する場合には,前記パターンに含まれていない構成要素のうち,それぞれの前記プロファイルデータで対応する構成要素を特定して前記パターンに追加し,
それぞれの前記プロファイルデータの前記パターンにおける構成要素同士の対応関係から類似度を算出して,その類似度が所定条件を充足した場合には,前記第1の比較処理の結果が正しいとして前記処理対象とする領域に写っている対象物として特定する,
ことを特徴とする請求項12に記載の検証システム。
The verification processing unit
Of the components of the profile data of the area to be processed, a predetermined number of components having a large area and the components of the profile data of one or all of the objects specified in the first comparison process. Identify a predetermined number of components with a large area as the core, and identify them as the core.
In each of the profile data, the similarity was calculated using the pattern in which the adjacent components of the core components were connected by the centers of gravity.
When the calculated similarity satisfies a predetermined condition, among the components not included in the pattern, the corresponding component is specified by each of the profile data and added to the pattern.
When the similarity is calculated from the correspondence between the components in the pattern of the profile data and the similarity satisfies a predetermined condition, the result of the first comparison process is regarded as correct and the processing target is Identify as an object in the area to be
The verification system according to claim 12, wherein the verification system is characterized in that.
前記検証処理部は,
対象物の画像情報または標本情報について所定色数に減色し,
前記減色した画像情報に対して色ごとの領域に分割をして,特定した領域を構成要素として特定し,
前記特定した構成要素ごとに,その形状の領域を示す情報とその領域の画像情報とをプロファイルデータとして前記標本情報記憶部に記憶させる,
ことを特徴とする請求項12または請求項13に記載の検証システム。
The verification processing unit
The image information or sample information of the object is reduced to the specified number of colors,
The color-reduced image information is divided into areas for each color, and the specified area is specified as a component.
For each of the specified components, the information indicating the region of the shape and the image information of the region are stored in the sample information storage unit as profile data.
12. The verification system according to claim 12 or 13.
陳列棚を撮影した画像情報から特定したフェイス領域に対して,標本情報記憶部に記憶する商品の標本情報を用いて第1の比較処理を実行することで,前記フェイス領域に写っている対象物を特定する画像認識処理部と,
前記画像認識処理部による認識結果の一部または全部に対して,第2の比較処理を実行する検証処理部と,を有する検証システムであって,
前記検証処理部は,
前記第2の比較処理として,前記画像認識処理とは同一ではない処理,または,前記第1の比較処理に用いる要素と前記第2の比較処理に用いる要素の全部が共通ではない処理を実行する,
ことを特徴とする検証システム。
By executing the first comparison process using the sample information of the product stored in the sample information storage unit for the face area specified from the image information obtained by photographing the display shelf, the object reflected in the face area is executed. Image recognition processing unit that identifies
A verification system including a verification processing unit that executes a second comparison processing for a part or all of the recognition results by the image recognition processing unit.
The verification processing unit
As the second comparison process, a process that is not the same as the image recognition process, or a process in which all the elements used in the first comparison process and the elements used in the second comparison process are not common is executed. , ,
A verification system characterized by that.
前記検証処理部における前記第2の比較処理は,
前記第1の比較処理において特定した対象物のうち一部または全部の対象物の情報と,前記フェイス領域とを比較し,
比較結果が所定条件を充足する場合には前記第1の比較処理の結果が正しいとして前記フェイス領域に写っている対象物として特定する,
ことを特徴とする請求項15に記載の検証システム。
The second comparison processing in the verification processing unit is
The information of a part or all of the objects specified in the first comparison process is compared with the face area.
When the comparison result satisfies a predetermined condition, the result of the first comparison process is regarded as correct and the object is specified as an object reflected in the face area.
The verification system according to claim 15, wherein the verification system is characterized in that.
コンピュータを,
画像情報における一部または全部の領域に対して第1の比較処理を実行する画像認識処理部,
前記画像認識処理部による認識結果の一部または全部に対して第2の比較処理を実行する検証処理部,として機能させる検証プログラムであって,
前記検証処理部は,
前記第2の比較処理として,前記画像認識処理とは同一ではない処理,または,前記第1の比較処理に用いる要素と前記第2の比較処理に用いる要素の全部が共通ではない処理を実行する,
ことを特徴とする検証プログラム。
Computer,
Image recognition processing unit that executes the first comparison processing for a part or all of the area in the image information,
It is a verification program that functions as a verification processing unit that executes a second comparison processing on a part or all of the recognition results by the image recognition processing unit.
The verification processing unit
As the second comparison process, a process that is not the same as the image recognition process, or a process in which all the elements used in the first comparison process and the elements used in the second comparison process are not common is executed. , ,
A verification program characterized by that.
コンピュータを,
陳列棚を撮影した画像情報から特定したフェイス領域に対して,所定の記憶領域に記憶する商品の標本情報を用いて第1の比較処理を実行することで,前記フェイス領域に写っている対象物を特定する画像認識処理部,
前記画像認識処理部による認識結果の一部または全部に対して,第2の比較処理を実行する検証処理部,として機能させる検証プログラムであって,
前記検証処理部は,
前記第2の比較処理として,前記画像認識処理とは同一ではない処理,または,前記第1の比較処理に用いる要素と前記第2の比較処理に用いる要素の全部が共通ではない処理を実行する,
ことを特徴とする検証プログラム。
Computer,
By executing the first comparison process using the sample information of the product stored in the predetermined storage area for the face area specified from the image information obtained by photographing the display shelf, the object reflected in the face area. Image recognition processing unit, which identifies
It is a verification program that functions as a verification processing unit that executes a second comparison processing for a part or all of the recognition results by the image recognition processing unit.
The verification processing unit
As the second comparison process, a process that is not the same as the image recognition process, or a process in which all the elements used in the first comparison process and the elements used in the second comparison process are not common is executed. , ,
A verification program characterized by that.
JP2020088635A 2020-05-21 2020-05-21 Verification system Active JP6936529B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020088635A JP6936529B1 (en) 2020-05-21 2020-05-21 Verification system
JP2021127336A JP7231165B2 (en) 2020-05-21 2021-08-03 Verification system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020088635A JP6936529B1 (en) 2020-05-21 2020-05-21 Verification system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021127336A Division JP7231165B2 (en) 2020-05-21 2021-08-03 Verification system

Publications (2)

Publication Number Publication Date
JP6936529B1 JP6936529B1 (en) 2021-09-15
JP2021184125A true JP2021184125A (en) 2021-12-02

Family

ID=77657944

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020088635A Active JP6936529B1 (en) 2020-05-21 2020-05-21 Verification system
JP2021127336A Active JP7231165B2 (en) 2020-05-21 2021-08-03 Verification system

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021127336A Active JP7231165B2 (en) 2020-05-21 2021-08-03 Verification system

Country Status (1)

Country Link
JP (2) JP6936529B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7339630B1 (en) 2022-05-19 2023-09-06 株式会社マーケットヴィジョン Information processing system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018139062A (en) * 2017-02-24 2018-09-06 株式会社マーケットヴィジョン Commodity information acquisition system
JP6440043B1 (en) * 2017-06-27 2018-12-19 株式会社マーケットヴィジョン Product identification system
JP2019046484A (en) * 2018-10-16 2019-03-22 株式会社マーケットヴィジョン Image recognition system
JP6536707B1 (en) * 2018-03-07 2019-07-03 株式会社マーケットヴィジョン Image recognition system
JP2019219901A (en) * 2018-06-20 2019-12-26 株式会社マーケットヴィジョン Information processing system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6137905A (en) 1995-08-31 2000-10-24 Canon Kabushiki Kaisha System for discriminating document orientation
JP2002344952A (en) 2001-05-22 2002-11-29 Fujitsu Ltd License plate recognition device and method
JP2015108974A (en) 2013-12-04 2015-06-11 Book World Consulting株式会社 Book management system, book management method, and computer program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018139062A (en) * 2017-02-24 2018-09-06 株式会社マーケットヴィジョン Commodity information acquisition system
JP6440043B1 (en) * 2017-06-27 2018-12-19 株式会社マーケットヴィジョン Product identification system
JP6536707B1 (en) * 2018-03-07 2019-07-03 株式会社マーケットヴィジョン Image recognition system
JP2019219901A (en) * 2018-06-20 2019-12-26 株式会社マーケットヴィジョン Information processing system
JP2019046484A (en) * 2018-10-16 2019-03-22 株式会社マーケットヴィジョン Image recognition system

Also Published As

Publication number Publication date
JP6936529B1 (en) 2021-09-15
JP2021184281A (en) 2021-12-02
JP7231165B2 (en) 2023-03-01

Similar Documents

Publication Publication Date Title
US9116925B2 (en) Hierarchical ranking of facial attributes
EP3274921B1 (en) Multi-layer skin detection and fused hand pose matching
US8639058B2 (en) Method of generating a normalized digital image of an iris of an eye
US20160371537A1 (en) Method, system, and computer program product for recognizing face
CN108875542B (en) Face recognition method, device and system and computer storage medium
JP6569532B2 (en) Management system, list creation device, list creation method, management method, and management program
US10217083B2 (en) Apparatus, method, and program for managing articles
US9171195B1 (en) Recognizing three-dimensional objects
JP2015506045A (en) Image indexing based on similarity of image features
JP6458239B1 (en) Image recognition system
CN110717366A (en) Text information identification method, device, equipment and storage medium
JP6831951B2 (en) Image recognition system
CN111401326B (en) Target identity recognition method based on picture recognition, server and storage medium
US11783192B2 (en) Hybrid deep learning method for recognizing facial expressions
US20220415012A1 (en) Image processing based methods and apparatus for planogram compliance
CN112036400B (en) Method for constructing network for target detection and target detection method and system
JP7231165B2 (en) Verification system
JP6875760B1 (en) Filtering processing system
JP7449505B2 (en) information processing system
CN111339884A (en) Image recognition method and related equipment and device
CN113343987B (en) Text detection processing method and device, electronic equipment and storage medium
JP6861421B2 (en) Image processing system
JP6890849B2 (en) Information processing system
JP6092012B2 (en) Object identification system and object identification method
JP6788877B2 (en) Image processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210819

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210820

R150 Certificate of patent or registration of utility model

Ref document number: 6936529

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150