JP6746123B2 - Image recognition system - Google Patents

Image recognition system Download PDF

Info

Publication number
JP6746123B2
JP6746123B2 JP2019078184A JP2019078184A JP6746123B2 JP 6746123 B2 JP6746123 B2 JP 6746123B2 JP 2019078184 A JP2019078184 A JP 2019078184A JP 2019078184 A JP2019078184 A JP 2019078184A JP 6746123 B2 JP6746123 B2 JP 6746123B2
Authority
JP
Japan
Prior art keywords
image information
identification information
information
product
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019078184A
Other languages
Japanese (ja)
Other versions
JP2019160328A (en
Inventor
成吉 谷井
成吉 谷井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Marketvision Co Ltd
Original Assignee
Marketvision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Marketvision Co Ltd filed Critical Marketvision Co Ltd
Priority to JP2019078184A priority Critical patent/JP6746123B2/en
Publication of JP2019160328A publication Critical patent/JP2019160328A/en
Application granted granted Critical
Publication of JP6746123B2 publication Critical patent/JP6746123B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Display Racks (AREA)
  • Image Analysis (AREA)

Description

本発明は,画像情報に写っている商品などの対象物の識別情報の特定を精度よく行うための画像認識システムに関する。 The present invention relates to an image recognition system for accurately identifying identification information of an object such as a product shown in image information.

小売業界においては,商品の陳列状況が商品の販売に影響することが知られている。そのため,商品の製造会社,販売会社としては,自社または他社のどのような商品が店舗に陳列されているのかを把握することで,自社商品の開発戦略,販売戦略につなげることができる。 In the retail industry, it is known that the display status of products affects the sales of products. Therefore, as a product manufacturing company or a sales company, by grasping what kind of products of its own company or other companies are displayed in the store, it is possible to connect to the development strategy and sales strategy of its own products.

一方,その実現のためには,店頭に陳列されている商品の正確な特定が重要である。そこで,店舗の陳列棚を撮影し,その画像情報から陳列されている商品を,人間が手作業で特定をすることが考えられる。この場合,ほぼ正確に商品を特定することができる。しかし,商品の陳列状況を継続的に把握するためには,一定期間ごとにその陳列状況を把握しなければならないが,店舗の陳列棚を撮影した画像情報から毎回,人間が商品を特定するのは負担が大きく,また非効率である。 On the other hand, to realize this, it is important to accurately identify the products displayed in the store. Therefore, it is conceivable that a person manually photographs the display shelves of the store and manually identifies the displayed products from the image information. In this case, the product can be specified almost accurately. However, in order to continuously grasp the display situation of the product, it is necessary to grasp the display condition at regular intervals, but humans specify the product every time from the image information of the display shelves of the store. Is burdensome and inefficient.

そこで店舗の陳列棚を撮影した画像情報から,そこに陳列されている商品を自動的に特定し,商品の陳列状況を把握することが求められる。たとえば商品ごとの標本画像をもとに,店舗の陳列棚を撮影した画像に対して画像認識技術を用いる方法がある。これらの従来技術として,たとえば,下記特許文献1乃至特許文献3に示すような技術を用いて,商品の陳列状況を管理するシステムが存在する。 Therefore, it is required to automatically identify the products displayed on the display shelf from the image information of the display shelves and grasp the display status of the products. For example, there is a method of using image recognition technology for an image of a store display shelf based on a sample image of each product. As these conventional techniques, for example, there are systems that manage the display status of products by using the techniques described in Patent Documents 1 to 3 below.

また小売業界以外においても,何らかの対象物を撮影し,撮影した画像情報に写っている対象物を特定することが求められる場合もある。 In addition to the retail industry, there are cases where it is required to photograph an object and identify the object in the photographed image information.

特開平5−342230号公報JP-A-5-342230 特開平5−334409号公報JP-A-5-334409 国際公開2012/029548International publication 2012/029548

特許文献1の発明は,商品をどの陳列棚に陳列すべきかが知識のない者にもできるように支援するシステムである。そのため,実際に陳列されている商品を把握することはできない。また特許文献2は,商品の陳列を支援する棚割支援システムにおいて,商品画像の入力を支援するシステムである。しかし特許文献2のシステムでは,棚割支援システムを利用する際の商品画像の入力を支援するのみであって,このシステムを用いたとしても,実際に陳列されている商品を把握することはできない。 The invention of Patent Document 1 is a system that assists even a person who does not have knowledge of which display shelf to display a product. Therefore, it is not possible to grasp the products actually displayed. Patent Document 2 is a system that supports input of product images in a shelf allocation support system that supports display of products. However, the system of Patent Document 2 only supports the input of product images when using the shelving allocation support system, and even if this system is used, it is not possible to grasp the products that are actually displayed. ..

特許文献3は,陳列棚に空き空間がある場合に,その空き空間に陳列すべき商品を特定したり,陳列棚に陳列すべき商品を置き間違えた場合にそれを通知する発明である。この発明でも,商品と,陳列棚に陳列されている商品との画像マッチング処理を行って,陳列棚に陳列されている商品を特定しているが,認識精度が低いのが実情である。 Patent Document 3 is an invention that specifies a product to be displayed in the empty space when there is an empty space in the display shelf or notifies when the product to be displayed in the display shelf is misplaced. In the present invention as well, the image matching processing between the product and the product displayed on the display shelf is performed to specify the product displayed on the display shelf. However, the recognition accuracy is low.

陳列棚を撮影した画像に対して,商品の標本画像をもとに画像認識技術を用いる場合,標本画像と,陳列棚を撮影した画像における商品の陳列部分の部分画像との画像特徴量同士の類似性を利用して商品を認識する。一方,陳列棚を撮影した画像または標本画像においては,商品パッケージの表面が光を反射する場合,店舗内の照明や外光,撮影者や撮影装置などの不要な物体が,撮影装置との位置関係によって商品の表面に写り込む場合がある。このようなことは,本来の画像特徴量を得られないため,画像認識の精度低下に影響を及ぼす要因となる。 When the image recognition technology is used for the image of the display shelf based on the sample image of the product, the image feature amounts of the sample image and the partial image of the display part of the product in the image of the display shelf are compared. Recognize products using similarities. On the other hand, in the image of the display shelf or the sample image, when the surface of the product package reflects light, unnecessary objects such as lighting and outside light in the store and the photographer or the photographing device are located with respect to the photographing device. Depending on the relationship, it may be reflected on the surface of the product. This is a factor that affects the accuracy of image recognition because the original image feature amount cannot be obtained.

また陳列棚に陳列されている商品の特定に限らず,同様の問題は,一般的な対象物を撮影した画像情報から,その対象物を特定する場合にも該当する。そして,上述の各特許文献を用いたとしても,光の写り込み等による課題を解決することはできない。 Further, the same problem applies not only to the identification of the product displayed on the display shelf but also to the identification of the general object from the image information obtained by photographing the general object. And even if each of the above-mentioned patent documents is used, it is not possible to solve the problem caused by the reflection of light.

本発明者は上記課題に鑑み,光等が画像に写り込んでいる場合でも,従来よりも精度よく商品などの対象物の識別情報の特定が行える画像認識システムを発明した。 In view of the above problems, the inventor of the present invention has invented an image recognition system that can identify identification information of a target object such as a product more accurately than before even when light or the like is reflected in the image.

請求項1に記載の発明は,商品を陳列した陳列棚を複数の角度から撮影した画像情報のそれぞれについて,その画像情報に写っている商品の商品識別情報の候補を特定する画像情報処理部と,異なる角度で撮影した対応する画像情報において,前記特定した商品識別情報の候補の尤度を用いて前記画像情報に写っている商品の商品識別情報を特定する識別情報比較処理部と,を有しており,前記識別情報比較処理部は,前記異なる角度で撮影した対応する画像情報において,前記特定した商品識別情報の候補が複数ある場合,前記尤度を用いて所定の演算をすることで前記商品識別情報を特定する,画像認識システムである。
The invention according to claim 1 is an image information processing unit that specifies, for each piece of image information obtained by photographing a display shelf displaying a product from a plurality of angles, a candidate for product identification information of the product shown in the image information. An identification information comparison processing unit that identifies the product identification information of the product shown in the image information by using the likelihoods of the identified product identification information candidates in the corresponding image information captured at different angles. Therefore, when there are a plurality of candidates for the identified product identification information in the corresponding image information captured at the different angles, the identification information comparison processing unit performs a predetermined calculation using the likelihood. It is an image recognition system that specifies the product identification information .

本発明のように構成することで,陳列棚を撮影した画像情報に,光等の写り込みがあったとしても,従来よりも精度よく商品の認識を行うことができる。 With the configuration according to the present invention, it is possible to recognize the product more accurately than before even if light or the like is reflected in the image information of the display shelf.

各画像情報における商品識別情報の候補から,商品識別情報を特定する場合,本発明のように特定することが好ましい。すなわち,商品識別情報の候補が特定されている場合と,特定されていない場合があれば,特定されている商品識別情報の候補を商品識別情報として特定する。また,それぞれに商品識別情報の候補がある場合,もっとも尤度が高い商品識別情報を特定することができる。また候補が尤度に応じて複数ある場合には,尤度に基づく値より商品識別情報を特定することができる。 When the product identification information is specified from the product identification information candidates in each image information, it is preferable to specify it as in the present invention. That is, if there are cases where the product identification information candidates are specified and cases where they are not specified, the specified product identification information candidates are specified as the product identification information. Further, when there is a candidate for the product identification information, the product identification information with the highest likelihood can be specified. Further, when there are a plurality of candidates according to the likelihood, the product identification information can be specified from the value based on the likelihood.

上述の発明において,前記画像情報処理部は,前記陳列棚を撮影した画像情報に対して正値化処理を実行した画像情報を生成する処理部と,前記正置化した画像情報に写っている前記陳列棚における一部の領域の画像情報と,商品の標本情報とを比較することで,前記領域に写っている商品の商品識別情報の候補を特定する識別情報特定処理部と,を有する画像認識システムのように構成することができる。 In the above-mentioned invention, the image information processing unit is included in the processing unit that generates image information by performing the positive value conversion process on the image information of the display shelf, and the image information that is normalized. An image having an identification information specifying processing unit for specifying a candidate of the product identification information of the product shown in the region by comparing the image information of a partial region of the display shelf with the sample information of the product. It can be configured like a recognition system.

陳列棚を撮影した画像情報は,ゆがみ等が発生しているので,正値化処理を実行した上で処理を行うと認識精度が高くなる。また,陳列棚には複数の商品が陳列されていることが多いので,たとえば商品ごとの領域について標本情報と比較処理を実行することで,商品識別情報の候補を特定することが好ましい。 Since the image information of the display shelf is distorted or the like, the recognition accuracy increases when the positive value processing is performed and then the processing is performed. In addition, since a plurality of products are often displayed on the display shelf, it is preferable to specify the product identification information candidates by, for example, performing the comparison process with the sample information on the area for each product.

上述の発明において,前記識別情報特定処理部は,前記領域に写っている商品の商品識別情報の候補を特定できなかった場合には,商品識別情報の入力を受け付け,少なくとも前記商品識別情報の入力を受け付けた領域について,前記識別情報比較処理部における処理を実行せずに,前記受け付けた商品識別情報を,その領域の商品識別情報として特定する,画像認識システムのように構成することができる。 In the above-mentioned invention, the identification information specifying processing unit accepts input of the product identification information and inputs at least the product identification information when the candidate of the product identification information of the product shown in the area cannot be specified. It is possible to configure the image recognition system such that the received product identification information is specified as the product identification information of the area without performing the process in the identification information comparison processing unit for the area.

商品識別情報の候補を特定できなかった場合には,その入力を受け付けてもよい。その場合,入力される商品識別情報は,確度が高いと考えられるので,比較処理を実行せずに,そのまま特定した(確定した)商品識別情報とすると,処理時間の軽減等につなげられる。 If the product identification information candidate cannot be specified, the input may be accepted. In this case, since the input product identification information is considered to have high accuracy, if the product identification information is specified (fixed) as it is without performing the comparison process, the processing time can be reduced.

請求項に記載の発明は,撮影対象物を複数の角度から撮影した画像情報のそれぞれについて,その画像情報に写っている特定対象物の識別情報の候補を特定する第1の処理部と,異なる角度で撮影した対応する画像情報において,前記特定した識別情報の候補の尤度を用いて前記画像情報に写っている特定対象物の識別情報を特定する第2の処理部と,前記第2の処理部は,前記異なる角度で撮影した対応する画像情報において,前記特定した識別情報の候補が複数ある場合,前記尤度を用いて所定の演算をすることで前記画像情報に写っている特定対象物の識別情報を特定する,画像認識システムである。
According to a fourth aspect of the present invention, for each piece of image information obtained by photographing the object to be photographed from a plurality of angles, a first processing unit that identifies candidates for identification information of the specific object included in the image information, in image information corresponding taken at different angles, and a second processing unit for identifying the identification information of the specific object that is reflected in the image information using the likelihood of the candidate of the specific identification information, the second When there are a plurality of candidates for the identified identification information in the corresponding image information captured at the different angles, the processing unit of (1) performs a predetermined calculation using the likelihood to identify the image captured in the image information. It is an image recognition system that identifies the identification information of an object .

請求項1に記載の発明では,陳列棚に陳列されている商品の識別情報を特定する画像認識システムであったが,それに限定するものではなく,撮影対象物を複数の角度から撮影した画像情報において,その画像情報に写っている特定対象物の識別情報を特定する場合であっても適用することができる。すなわち,請求項1に記載の発明と同様に,撮影した画像情報に,光等の写り込みがあったとしても,従来よりも精度よく特定対象物の識別情報の認識を行うことができる。 In the invention according to claim 1, the image recognition system specifies the identification information of the product displayed on the display shelf, but the invention is not limited to this. The image information obtained by shooting the shooting target from a plurality of angles. In the above, it can be applied even in the case of identifying the identification information of the specific object shown in the image information. That is, similarly to the invention described in claim 1, even if the captured image information has a reflection of light or the like, it is possible to recognize the identification information of the specific object more accurately than in the past.

請求項1に記載の発明は,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,コンピュータを,商品を陳列した陳列棚を複数の角度から撮影した画像情報のそれぞれについて,その画像情報に写っている商品の商品識別情報の候補を特定する画像情報処理部,異なる角度で撮影した対応する画像情報において,前記特定した商品識別情報の候補の尤度を用いて前記画像情報に写っている商品の商品識別情報を特定する識別情報比較処理部,として機能させる画像認識プログラムであって,前記識別情報比較処理部は,前記異なる角度で撮影した対応する画像情報において,前記特定した商品識別情報の候補が複数ある場合,前記尤度を用いて所定の演算をすることで前記商品識別情報を特定する,画像認識プログラムのように構成することができる。
The invention according to claim 1 can be realized by causing a computer to read and execute the program of the present invention. That is, for each of the image information obtained by photographing the display shelves displaying the products from a plurality of angles, the computer uses an image information processing unit that identifies candidates for the product identification information of the product shown in the image information. In the corresponding image information, the image recognition program that functions as an identification information comparison processing unit that identifies the product identification information of the product shown in the image information by using the likelihood of the identified candidate of the product identification information. Then, the identification information comparison processing unit performs a predetermined operation using the likelihood when the identified product identification information candidates are plural in corresponding image information captured at different angles. It can be configured like an image recognition program that identifies identification information .

請求項に記載の発明は,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,コンピュータを,撮影対象物を複数の角度から撮影した画像情報のそれぞれについて,その画像情報に写っている特定対象物の識別情報の候補を特定する第1の処理部,異なる角度で撮影した対応する画像情報において,前記特定した識別情報の候補の尤度を用いて前記画像情報に写っている特定対象物の識別情報を特定する第2の処理部,として機能させる画像認識プログラムであって,前記第2の処理部は,前記異なる角度で撮影した対応する画像情報において,前記特定した識別情報の候補が複数ある場合,前記尤度を用いて所定の演算をすることで前記画像情報に写っている特定対象物の識別情報を特定する,画像認識プログラムのように構成することができる。
The invention according to claim 4 can be realized by causing a computer to read and execute the program of the present invention. That is, for each of the image information obtained by shooting the imaged object from a plurality of angles, the computer takes a first processing unit that identifies candidates for the identification information of the specific object shown in the image information. An image recognition program that causes the corresponding image information to function as a second processing unit that identifies the identification information of the specific object shown in the image information by using the likelihood of the identified identification information candidate. When the plurality of candidates of the identified identification information are present in the corresponding image information captured at the different angles, the second processing unit performs a predetermined calculation using the likelihood to obtain the image information. It can be configured like an image recognition program for identifying the identification information of the specific object in the image.

本発明の画像認識システムを用いることによって,光等が画像情報に写り込んでいる場合でも,従来よりも精度よく,商品などの対象物の特定が行える。 By using the image recognition system of the present invention, even when light or the like is reflected in the image information, it is possible to specify an object such as a product more accurately than before.

本発明の画像認識システムの構成の一例を模式的に示すブロック図である。It is a block diagram which shows typically an example of a structure of the image recognition system of this invention. 本発明の画像認識システムにおける画像情報処理部の構成の一例を模式的に示すブロック図である。It is a block diagram which shows typically an example of a structure of the image information processing part in the image recognition system of this invention. 本発明の画像認識システムで用いるコンピュータのハードウェア構成の一例を模式的に示すブロック図である。It is a block diagram which shows typically an example of the hardware constitutions of the computer used with the image recognition system of this invention. 本発明の画像認識システムにおける全体の処理プロセスの一例を示すフローチャートである。It is a flow chart which shows an example of the whole processing process in the image recognition system of the present invention. 本発明の画像情報処理部における処理プロセスの一例を示すフローチャートである。It is a flow chart which shows an example of a processing process in an image information processing part of the present invention. 本発明の識別情報比較処理部における処理プロセスの一例を示すフローチャートである。It is a flow chart which shows an example of the processing process in the discernment information comparison processing part of the present invention. 標本情報記憶部の一例を模式的に示す図である。It is a figure which shows an example of a sample information storage part typically. 店舗の陳列棚について,同一の機会に異なる角度から撮影した撮影画像情報の一例を示す図である。It is a figure which shows an example of the captured image information which image|photographed the display shelf of a store from the different angle at the same opportunity. 店舗の陳列棚について,同一の機会に異なる角度から撮影した撮影画像情報のほかの一例を示す図である。It is a figure which shows another example of the captured image information which image|photographed the display shelf of a store from the different angle at the same opportunity. 図8の撮影画像情報について,台形補正処理が実行された正置画像情報の一例を示す図である。It is a figure which shows an example of the normal image information by which the keystone correction process was performed about the picked-up image information of FIG. 図9の撮影画像情報について,台形補正処理が実行された正置画像情報の一例を示す図である。FIG. 10 is a diagram showing an example of orthotopic image information on which the trapezoidal correction processing has been performed on the captured image information of FIG. 図10の撮影画像情報において,棚段領域が特定された状態を示す図である。It is a figure which shows the state by which the shelf area was specified in the picked-up image information of FIG. 図11の撮影画像情報において,棚段領域が特定された状態を示す図である。It is a figure which shows the state by which the shelf area was specified in the picked-up image information of FIG. 本発明の画像認識システムにおける代表的な処理の一例のイメージ図である。It is an image figure of an example of typical processing in the image recognition system of the present invention. N−1回目の撮影画像情報に対して特徴量採取領域を設定した状態の一例を示す図である。It is a figure which shows an example of the state which set the feature-value extraction area with respect to the captured image information of the N-1st time. N回目の撮影画像情報に対して特徴量採取領域を設定した状態の一例を示す図である。It is a figure which shows an example of the state which set the feature-value extraction area with respect to the captured image information of the Nth time. N−1回目の特徴量採取領域と,N回目の特徴量採取領域とのペアの関係を示す図である。It is a figure which shows the relationship of the pair of the feature-value extraction area|region of the N-1th time, and the feature-value extraction area of the N-th time. N−1回目の撮影画像情報における棚位置Cを,関数Fにより,N回目の撮影画像情報における棚位置Dとして射影する状態を示す図である。It is a figure which shows the state which projects the shelf position C in the captured image information of the N-1st time as the shelf position D in the captured image information of the Nth time by the function F. 撮影画像情報の一例を示す図である。It is a figure which shows an example of captured image information. N−1回目の撮影画像情報に特徴量採取領域を設定した状態を示す図である。It is a figure which shows the state which set the feature-value extraction area|region in the captured image information of the N-1st time. N回目の撮影画像情報に特徴量採取領域を設定した状態を示す図である。It is a figure which shows the state which set the feature-value extraction area|region in the captured image information of the Nth time. N回目の撮影が自乗法において,棚位置D1乃至D4を特定した状態の一例を示す図である。It is a figure which shows an example of the state which specified shelf position D1 thru|or D4 in the square method by the Nth photography. 識別情報特定処理部におけるN回目の処理を模式的に示す図である。It is a figure which shows typically the process of the Nth time in an identification information specific processing part. 実施例5における画像認識システムの構成の一例を模式的に示すブロック図である。13 is a block diagram schematically showing an example of the configuration of an image recognition system in Example 5. FIG. 実施例5における画像情報処理部の構成の一例を模式的に示すブロック図である。FIG. 14 is a block diagram schematically showing an example of the configuration of an image information processing unit in Example 5. 実施例5における画像認識システムの全体の処理プロセスの一例を示すフローチャートである。16 is a flowchart showing an example of the overall processing process of the image recognition system in Embodiment 5. 実施例5における加工済正置画像情報の生成処理の処理プロセスの一例を示すフローチャートである。16 is a flowchart illustrating an example of a processing process of generating processed fixed image information according to the fifth exemplary embodiment. 正置画像情報において,所定の基準単位ごとにメッシュで区切った状態の一例を示す図である。FIG. 6 is a diagram showing an example of a state in which the normal image information is divided by a mesh for each predetermined reference unit. 所定の条件を充足することで特定されたメッシュの領域の画像情報を並べて配置することで加工済正置画像情報を生成する処理を模式的に示す図である。It is a figure which shows typically the process which produces|generates the processed normal image information by arranging the image information of the area|region of the mesh specified by satisfy|filling a predetermined condition. 商品を撮影する状態を上方からみた場合の一例を示す図である。It is a figure which shows an example at the time of seeing the state which image|photographs a product from above. 撮影した複数の画像情報において,写り込みが生じていない部分を切り出して互いに合成することで,適切な標本情報を生成する処理を模式的に示す図である。It is a figure which shows typically the process which generate|occur|produces suitable sample information by cutting out the part which does not produce a reflection in the several image information image|photographed, and synthesize|combining it. 標本とする商品の外観の一例を模式的に示す図である。It is a figure which shows typically an example of the external appearance of the product used as a sample. 商品の外観の形状が第1のケースの場合の撮影方法の一例を示す図である。It is a figure which shows an example of the imaging method in case the external shape of a product is a 1st case. 商品の外観の形状が第2のケースの場合の撮影方法の一例を示す図である。It is a figure which shows an example of the imaging method in case the external shape of a product is a 2nd case. 商品の外観の形状が第3のケースの場合の撮影方法の一例を示す図である。It is a figure which shows an example of the imaging method in case the external shape of goods is a 3rd case.

本発明の画像認識システム1のシステム構成の一例を図1に示す。画像認識システム1は,管理端末2と撮影画像情報入力端末3とを用いる。 An example of the system configuration of the image recognition system 1 of the present invention is shown in FIG. The image recognition system 1 uses a management terminal 2 and a captured image information input terminal 3.

管理端末2は,画像認識システム1を運営する企業等の組織が利用するコンピュータである。また,撮影画像情報入力端末3は,店舗の陳列棚を撮影した画像情報の入力を行う端末である。 The management terminal 2 is a computer used by an organization such as a company that operates the image recognition system 1. The photographed image information input terminal 3 is a terminal for inputting image information of photographed display shelves of a store.

画像認識システム1における管理端末2,撮影画像情報入力端末3は,コンピュータを用いて実現される。図3にコンピュータのハードウェア構成の一例を模式的に示す。コンピュータは,プログラムの演算処理を実行するCPUなどの演算装置70と,情報を記憶するRAMやハードディスクなどの記憶装置71と,情報を表示するディスプレイなどの表示装置72と,情報の入力が可能なキーボードやマウスなどの入力装置73と,演算装置70の処理結果や記憶装置71に記憶する情報をインターネットやLANなどのネットワークを介して送受信する通信装置74とを有している。 The management terminal 2 and the captured image information input terminal 3 in the image recognition system 1 are realized by using a computer. FIG. 3 schematically shows an example of the hardware configuration of the computer. The computer is capable of inputting information, such as an arithmetic device 70 such as a CPU that executes arithmetic processing of a program, a storage device 71 such as a RAM or a hard disk that stores information, a display device 72 such as a display that displays information. It has an input device 73 such as a keyboard and a mouse, and a communication device 74 for transmitting and receiving the processing result of the arithmetic device 70 and information stored in the storage device 71 via a network such as the Internet or a LAN.

コンピュータがタッチパネルディスプレイを備えている場合には,表示装置72と入力装置73とが一体的に構成されていてもよい。タッチパネルディスプレイは,たとえばタブレット型コンピュータやスマートフォンなどの可搬型通信端末などで利用されることが多いが,それに限定するものではない。 When the computer includes a touch panel display, the display device 72 and the input device 73 may be integrally configured. The touch panel display is often used in, for example, a portable communication terminal such as a tablet computer or a smartphone, but is not limited thereto.

タッチパネルディスプレイは,そのディスプレイ上で,直接,所定の入力デバイス(タッチパネル用のペンなど)や指などによって入力を行える点で,表示装置72と入力装置73の機能が一体化した装置である。 The touch panel display is a device in which the functions of the display device 72 and the input device 73 are integrated in that the input can be directly performed on the display with a predetermined input device (such as a pen for a touch panel) or a finger.

撮影画像情報入力端末3は,上記の各装置のほか,カメラなどの撮影装置を備えていてもよい。撮影画像情報入力端末3として,携帯電話,スマートフォン,タブレット型コンピュータなどの可搬型通信端末を用いることもできる。 The photographed image information input terminal 3 may be provided with a photographing device such as a camera in addition to the above devices. As the captured image information input terminal 3, a portable communication terminal such as a mobile phone, a smart phone, or a tablet computer can be used.

本発明における各手段は,その機能が論理的に区別されているのみであって,物理上あるいは事実上は同一の領域を為していても良い。本発明の各手段における処理は,その処理順序を適宜変更することもできる。また,処理の一部を省略してもよい。たとえば後述する正置化処理を省略することもできる。その場合,正置化処理をしていない画像情報に対する処理を実行することができる。 The functions of the respective means in the present invention are logically distinguished from each other, and may physically or virtually form the same area. The processing order of the processing in each means of the present invention can be appropriately changed. Also, part of the processing may be omitted. For example, the orthodontic process described below can be omitted. In that case, it is possible to execute processing for image information that has not been subjected to orthonormalization processing.

画像認識システム1は,撮影画像情報記憶部20と標本情報記憶部21と識別情報候補記憶部22と識別情報記憶部23と画像情報処理部24と識別情報比較処理部25とを有する。 The image recognition system 1 includes a captured image information storage unit 20, a sample information storage unit 21, an identification information candidate storage unit 22, an identification information storage unit 23, an image information processing unit 24, and an identification information comparison processing unit 25.

撮影画像情報記憶部20は,撮影画像情報入力端末3から受け付けた撮影画像情報,撮影日時,店舗識別情報,画像情報識別情報などを対応づけて記憶する。撮影画像情報とは,台形補正処理を実行する対象となる画像情報であればよく,一つの陳列棚を複数枚で撮影した場合に,それが一つの画像情報として合成された画像情報も含まれる。また,歪み補正処理が実行された後の画像情報も撮影画像情報に含まれる。 The photographed image information storage unit 20 stores the photographed image information received from the photographed image information input terminal 3, the photographing date and time, the store identification information, the image information identification information, and the like in association with each other. The captured image information may be any image information to be subjected to the trapezoidal correction process, and also includes image information that is combined as one image information when one display shelf is photographed by a plurality of sheets. .. Further, the image information after the distortion correction processing is executed is also included in the captured image information.

標本情報記憶部21は,正置画像情報に写っている陳列棚の棚段における各フェイスの商品がどの商品であるかを識別するための標本情報を記憶する。標本情報は,陳列棚に陳列される可能性のある商品を,上下,左右,斜めなど複数の角度から撮影をした画像情報である。図7に標本情報記憶部21に記憶される標本情報の一例を示す。図7では,標本情報として,缶ビールをさまざまな角度から撮影をした場合を示しているが,缶ビールに限られない。標本情報記憶部21は,標本情報と,商品識別情報とを対応付けて記憶する。 The sample information storage unit 21 stores sample information for identifying which product is the product of each face on the shelf of the display shelf shown in the normal image information. The sample information is image information obtained by photographing a product that may be displayed on a display shelf from a plurality of angles such as vertical, horizontal, and diagonal. FIG. 7 shows an example of the sample information stored in the sample information storage unit 21. FIG. 7 shows the case where canned beer is photographed from various angles as the sample information, but it is not limited to canned beer. The sample information storage unit 21 stores the sample information and the product identification information in association with each other.

なお,標本情報記憶部21には,標本情報とともに,または標本情報に代えて,標本情報から抽出された,類似性の算出に必要となる情報,たとえば画像特徴量とその位置のペアの情報を記憶していてもよい。標本情報には,類似性の算出に必要となる情報も含むとする。この場合,識別情報特定処理部246は,フェイスの領域の画像情報と,標本情報とのマッチング処理を行う際に,標本情報について毎回,画像特徴量を算出せずともよくなり,計算時間を短縮することができる。 It should be noted that the sample information storage unit 21 stores, together with the sample information or in place of the sample information, information necessary for calculating the similarity extracted from the sample information, for example, information on a pair of an image feature amount and its position. You may remember. It is assumed that the sample information also includes the information necessary for calculating the similarity. In this case, the identification information identification processing unit 246 does not have to calculate the image feature amount for each sample information when performing the matching process between the image information of the face area and the sample information, and the calculation time is shortened. can do.

識別情報候補記憶部22は,撮影画像情報ごとに,陳列棚の棚段の各フェイスに表示されている商品の商品識別情報の候補を記憶する。たとえば,商品識別情報の候補に対応付けて,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報に対応づけて識別情報候補記憶部22に記憶する。ここで記憶する商品識別情報の候補は,撮影画像情報ごとに記憶している。そのため,同一の陳列棚について複数の撮影画像情報があるので,同一の陳列棚の棚段の対応するフェイスには,撮影画像情報ごとに特定した商品識別情報の候補が記憶されていることとなる。 The identification information candidate storage unit 22 stores the candidate of the product identification information of the product displayed on each face of the shelf of the display shelf for each captured image information. For example, in association with product identification information candidates, in association with shooting date/time information, store information, image information identification information of captured image information, image identification information of upright image information, face identification information for identifying a face. It is stored in the identification information candidate storage unit 22. The product identification information candidates stored here are stored for each captured image information. Therefore, since there are a plurality of captured image information items for the same display shelf, the corresponding face of the shelf of the same display shelf stores the candidate of the product identification information specified for each captured image information item. ..

識別情報記憶部23は,陳列棚の棚段の各フェイスに表示されている商品の特定(確定)した商品識別情報を記憶する。たとえば,商品識別情報に対応付けて,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報に対応づけて識別情報記憶部23に記憶する。 The identification information storage unit 23 stores the identified (confirmed) product identification information of the product displayed on each face of the shelf of the display shelf. For example, in association with product identification information, shooting date/time information, store information, image information identification information of captured image information, image identification information of orthotopic image information, face identification information for identifying a face, identification information. It is stored in the storage unit 23.

画像情報処理部24は,撮影画像情報入力端末3から受け付けた撮影画像情報において,その撮影画像情報に写っている陳列棚における棚段に陳列されている商品の商品識別情報の候補を特定する処理を実行する。 In the captured image information received from the captured image information input terminal 3, the image information processing unit 24 identifies a candidate for the product identification information of the product displayed on the shelf in the display shelf shown in the captured image information. To execute.

画像情報処理部24は,撮影画像情報入力受付処理部241と撮影画像情報正置化処理部242と棚段位置特定処理部243と棚段領域切出処理部244とフェイス特定処理部245と識別情報特定処理部246と棚段画像マッチング処理部247とを有する。 The image information processing unit 24 distinguishes the photographed image information input reception processing unit 241, the photographed image information normalization processing unit 242, the shelf position specifying processing unit 243, the shelf region cutting processing unit 244, and the face specifying processing unit 245. It has an information identification processing unit 246 and a shelf image matching processing unit 247.

撮影画像情報入力受付処理部241は,撮影画像情報入力端末3で撮影した店舗の陳列棚の画像情報(撮影画像情報)の入力を受け付け,撮影画像情報記憶部20に記憶させる。撮影画像情報入力端末3からは,撮影画像情報のほか,撮影日時,店舗名などの店舗識別情報,画像情報を識別する画像情報識別情報などをあわせて入力を受け付けるとよい。図8,図9に撮影画像情報の一例を示す。図8,図9では,陳列棚に3段の棚段があり,そこに商品が陳列されている撮影画像情報である。 The captured image information input reception processing unit 241 receives input of image information (captured image information) of the display shelf of the store captured by the captured image information input terminal 3, and stores it in the captured image information storage unit 20. From the photographed image information input terminal 3, in addition to the photographed image information, it is preferable to accept input together with photographed date and time, store identification information such as a store name, image information identification information for identifying image information, and the like. 8 and 9 show examples of photographed image information. In FIG. 8 and FIG. 9, there are three shelves on the display shelves, and the photographed image information in which products are displayed there.

撮影画像情報正置化処理部242は,撮影画像情報記憶部20に記憶した撮影画像情報に対して台形補正処理を実行して正置化した,正置画像情報を生成する。台形補正処理は,撮影画像情報に写っている陳列棚の棚段が水平に,そこに陳列されている商品に対する商品タグが垂直になるように行う補正処理である。正置化とは,撮影装置のレンズの光軸を撮影対象である平面の垂線方向に沿って,十分に遠方から撮影した場合と同じになるように画像情報を変形させることであり,たとえば台形補正処理がある。 The captured image information normalization processing unit 242 performs trapezoidal correction processing on the captured image information stored in the captured image information storage unit 20 to generate normal image information, which is orthonormalized. The trapezoidal correction process is a correction process performed so that the shelves of the display shelves shown in the photographed image information are horizontal and the product tags for the products displayed there are vertical. Orthogonalization is to transform the image information so that the optical axis of the lens of the image capturing device is the same as when the image is captured from a sufficient distance along the perpendicular direction of the plane to be imaged. There is a correction process.

撮影画像情報正置化処理部242が実行する台形補正処理は,撮影画像情報において4頂点の指定の入力を受け付け,その各頂点を用いて台形補正処理を実行する。指定を受け付ける4頂点としては,陳列棚の棚段の4頂点であってもよいし,陳列棚の棚位置の4頂点であってもよい。また,2段,3段の棚段のまとまりの4頂点であってもよい。4頂点としては任意の4点を指定できる。図10および図11に正置化処理がされた撮影画像情報(正置画像情報)の一例を示す。 The trapezoidal correction processing executed by the captured image information orthotopic processing unit 242 receives an input of designation of four vertices in the captured image information, and executes the trapezoidal correction processing using each of the vertices. The four vertices for receiving the designation may be the four vertices of the shelves of the display rack or the four vertices of the rack position of the display rack. Further, it may be four apexes of a set of two or three shelves. Any four points can be designated as the four vertices. 10 and 11 show an example of photographed image information (orthogonal image information) that has been orthostatically processed.

棚段位置特定処理部243は,撮影画像情報または正置画像情報から棚段の領域(棚段領域)を特定する。すなわち,撮影画像情報および正置画像情報に写っている陳列棚には,商品が陳列される棚段領域と,そこに陳列される商品に対する商品タグが取り付けられている商品タグ配置領域とがある。そのため,正置画像情報から棚段領域を特定する。棚段領域の特定としては,管理端末2の操作者が手動で棚段領域を指定し,それを棚段位置特定処理部243が受け付けてもよいし,初回に手動で入力を受け付けた棚段領域の情報に基づいて,二回目以降は自動で棚段領域を特定してもよい。図12,図13に棚段領域が特定された状態を示す。 The shelf position specifying processing unit 243 specifies the shelf area (shelf area) from the captured image information or the normal image information. That is, the display shelf shown in the photographed image information and the normal image information has a shelf area where products are displayed and a product tag arrangement area where product tags for the products displayed are attached. .. Therefore, the shelf area is specified from the fixed image information. To specify the shelf area, the operator of the management terminal 2 may manually specify the shelf area and the shelf position specifying processing unit 243 may accept it, or the shelf for which the input was manually accepted for the first time. The shelf area may be automatically specified after the second time based on the area information. 12 and 13 show a state in which the shelf area is specified.

棚段領域切出処理部244は,棚段位置特定処理部243で特定した棚段の領域の画像情報を棚段領域画像情報として切り出す。棚段領域切出処理部244は,実際に,画像情報として切り出してもよいし,実際には画像情報としては切り出さずに,棚段領域を構成する座標を特定することで,仮想的に切り出すのでもよい。なお,陳列棚に棚段が複数ある場合には,それぞれが棚段領域画像情報として切り出される。また棚段の領域を示す座標としては,その領域を特定するために必要な頂点の座標であり,正置画像情報におけるたとえば4点,右上と左下,左上と右下の2点の座標などでよい。また,正置画像情報における陳列棚など,画像情報における所定箇所(たとえば陳列棚の左上の頂点)を基準とした相対座標である。 The shelf area cutout processing unit 244 cuts out the image information of the shelf area specified by the shelf position specification processing unit 243 as shelf area image information. The shelf area cutout processing unit 244 may actually cut out the image information, or may actually cut out the image information by specifying the coordinates forming the shelf area without cutting out the image information. May be When there are a plurality of shelves on the display shelf, each of them is cut out as shelf area image information. Further, the coordinates indicating the area of the shelf are the coordinates of the vertices necessary for specifying the area, and are, for example, the coordinates of four points in the normal image information, the coordinates of the upper right and lower left, and the upper left and lower right. Good. Further, the relative coordinates are based on a predetermined position in the image information (for example, the upper left apex of the display shelf) such as a display shelf in the normal image information.

フェイス特定処理部245は,正置画像情報における棚段領域における棚段ごとに,商品が置かれているフェイス(商品が置かれている領域)を特定する。フェイス特定処理部245は,初回のフェイスの特定処理と,二回目以降のフェイスの特定処理とに分かれる。 The face identification processing unit 245 identifies the face on which the product is placed (the region in which the product is placed) for each shelf in the shelf area in the normal image information. The face identification processing unit 245 is divided into a first face identification process and a second and subsequent face identification process.

フェイス特定処理部245における初回のフェイスの特定処理は,棚段位置特定処理部243で特定した棚段の座標で構成される領域(好ましくは矩形領域)の範囲内において,商品が置かれている領域(フェイス)を特定する。具体的には,商品と商品との間に生じる細く狭い陰影を特定する,画像の繰り返しパターンを特定する,パッケージの上辺の段差を特定する,商品幅が同一であるなどの制約に基づいて区切り位置を特定する,などによって,フェイスの領域を特定する。フェイスの特定処理としては,商品のカテゴリや商品の形態によって,任意の方法を採用可能であり,上記に限定するものではない。また,自動的に特定したフェイスに対して,担当者による修正入力を受け付けてもよい。さらに,担当者からフェイスの位置の入力を受け付けるのでもよい。特定したフェイスを構成する領域の座標は,正置画像情報におけるフェイスの領域の座標に,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報とを対応づけて管理する。またフェイスの領域を示す座標としては,矩形領域を特定するために必要な頂点の座標であり,正置画像情報におけるたとえば4点,右上と左下,左上と右下の2点の座標などでよい。また,正置画像情報における陳列棚など,画像情報における所定箇所(たとえば陳列棚の左上の頂点)を基準とした相対座標である。 In the first face specifying processing in the face specifying processing unit 245, the product is placed within the area (preferably rectangular area) constituted by the coordinates of the shelf specified by the shelf position specifying processing unit 243. Specify the area (face). Specifically, it is based on constraints such as identifying thin and narrow shadows that occur between products, identifying repeating patterns of images, identifying steps on the top side of the package, and having the same product width. The face area is specified by specifying the position. As the face identifying process, any method can be adopted depending on the category of the product and the form of the product, and is not limited to the above. Further, correction input by a person in charge may be accepted for the automatically identified face. Further, the input of the face position may be accepted from the person in charge. The coordinates of the area forming the identified face are the shooting date/time information, the store information, the image information identification information of the captured image information, the image identification information of the orthostatic image information, and the face at the coordinates of the area of the face in the regular image information. The face identification information for identification is associated and managed. The coordinates indicating the face area are the coordinates of the vertices necessary for specifying the rectangular area, and may be, for example, the coordinates of four points in the orthonormal image information, the upper right and lower left, and the upper left and lower right. .. Further, the relative coordinates are based on a predetermined position in the image information (for example, the upper left apex of the display shelf) such as a display shelf in the normal image information.

フェイス特定処理部245における二回目以降のフェイスの特定処理は,同一の陳列棚の同一の棚段について,前回(N−1回目)の正置画像情報で特定したフェイスの領域の座標を今回(N回目)の正置画像情報で特定したフェイスの領域の座標とするようにしてもよい。 In the second and subsequent face identification processes in the face identification processing unit 245, the coordinates of the face area identified by the previous (N-1)th fixed image information for the same shelf on the same display shelf are set this time (( The coordinates of the face area specified by the Nth (normal) image information may be used.

識別情報特定処理部246は,陳列棚の棚段ごとに,フェイスに表示されている商品の商品識別情報の候補を特定する。商品識別情報としては,商品名のほか,その商品に対して割り当てられているJANコードなどがあるが,それに限定されない。商品を識別することができる情報であればいかなるものでもよい。 The identification information identification processing unit 246 identifies a candidate for the item identification information of the item displayed on the face for each shelf of the display shelf. The merchandise identification information includes, but is not limited to, the merchandise name and the JAN code assigned to the merchandise. Any information may be used as long as it can identify the product.

識別情報特定処理部246は,以下のような処理を実行する。すなわち,フェイスごとに,フェイスの画像情報と,標本情報記憶部21に記憶する商品の標本情報とマッチングすることで,そのフェイスに表示されている商品の商品識別情報の候補を特定する。具体的には,まず,処理対象となるフェイスの座標で構成される領域の画像情報と,標本情報記憶部21に記憶する標本情報との類似性を判定し,その類似性がもっとも高い標本情報に対応する商品識別情報を特定し,上記座標で構成されるフェイスに表示されている商品の商品識別情報の候補として特定をする。 The identification information identification processing unit 246 executes the following processing. That is, by matching the image information of the face with the sample information of the product stored in the sample information storage unit 21 for each face, the candidate of the product identification information of the product displayed on the face is specified. Specifically, first, the similarity between the image information of the area formed by the coordinates of the face to be processed and the sample information stored in the sample information storage unit 21 is determined, and the sample information having the highest similarity is determined. The product identification information corresponding to is specified, and is specified as a candidate for the product identification information of the product displayed on the face composed of the coordinates.

ここでフェイスの画像情報と標本情報との類似性を判定するには,以下のような処理を行う。まず,識別情報特定処理部246における商品識別情報の候補の特定処理の前までの処理において,正置画像情報の棚段におけるフェイスの領域の画像情報と,標本情報との方向が同じ(横転や倒立していない)となっており,また,それぞれの画像情報の大きさが概略同じとなっている(所定範囲以上で画像情報の大きさが異なる場合には,類似性の判定の前にそれぞれの画像情報の大きさが所定範囲内となるようにサイズ合わせをしておく)。 Here, in order to determine the similarity between the face image information and the sample information, the following processing is performed. First, in the processing up to the identification processing of the product identification information candidates in the identification information identification processing unit 246, the image information of the face area in the shelf of the normal image information and the sample information have the same direction (rollover or rollover). It is not inverted, and the size of each image information is almost the same (when the size of the image information is different in a predetermined range or more, before the similarity determination, The size is adjusted so that the size of the image information is within a predetermined range).

識別情報特定処理部246は,フェイスの画像情報と,標本情報との類似性を判定するため,フェイスの画像情報の画像特徴量(たとえば局所特徴量)に基づく特徴点と,標本情報との画像特徴量(たとえば局所特徴量)に基づく特徴点を,それぞれ抽出する。そして,フェイスの画像情報の特徴点と,標本情報の特徴点とでもっとも類似性が高いペアを検出し,それぞれで対応する点の座標の差を求める。そして,差の平均値を求める。差の平均値は,フェイスの画像情報と,標本情報との全体の平均移動量を示している。そして,すべての特徴点のペアの座標差を平均の座標差と比較し,外れ度合いの大きなペアを除外する。そして,残った対応点の数で類似性を順位付ける。 The identification information identification processing unit 246 determines the similarity between the face image information and the sample information, and therefore, the image of the feature information based on the image feature amount (for example, local feature amount) of the face image information and the image of the sample information. Feature points based on the feature amount (for example, local feature amount) are extracted. Then, the pair having the highest similarity between the feature points of the image information of the face and the feature points of the sample information is detected, and the difference between the coordinates of the corresponding points is found. Then, the average value of the differences is obtained. The average value of the differences indicates the total average movement amount between the face image information and the sample information. Then, the coordinate difference of all pairs of feature points is compared with the average coordinate difference, and the pairs having a large deviation degree are excluded. Then, the similarities are ranked according to the number of remaining corresponding points.

以上のような方法でフェイスの画像情報と,標本情報との類似性を算出できる。また,その精度を向上させるため,さらに,色ヒストグラム同士のEMD(Earth Movers Distance)を求め,類似性の尺度としてもよい。これによって,撮影された画像情報の明度情報等の環境変化に比較的強い類似性の比較を行うことができ,高精度で特定をすることができる。 The similarity between the face image information and the sample information can be calculated by the above method. Further, in order to improve the accuracy, the EMD (Earth Moves Distance) between the color histograms may be obtained and used as a measure of similarity. As a result, it is possible to perform comparative comparison of similarities relatively strong to environmental changes such as brightness information of photographed image information, and to specify with high accuracy.

類似性の判定としては,ほかにも,各フェイスの領域の画像情報のシグネチャ(画像特徴量と重みの集合)同士のEMDを求め,類似性の尺度としてもよい。シグネチャの画像特徴量としては,たとえばフェイス領域の画像情報のHSV色空間内の頻度分布を求め,色相と彩度に関してグルーピングを行って,特徴の個数とHSV色空間内の領域による画像特徴量とすることができる。色相と彩度についてグルーピングを行うのは,撮影条件に大きく左右されないように,明度への依存度を下げるためである。 In addition, as the determination of the similarity, the EMD between the signatures (the set of the image feature amount and the weight) of the image information of the area of each face may be obtained and used as the similarity measure. As the image feature amount of the signature, for example, the frequency distribution of the image information of the face region in the HSV color space is obtained, and the hue and saturation are grouped to determine the number of features and the image feature amount of the region in the HSV color space. can do. The reason for grouping the hue and the saturation is to reduce the dependence on the lightness so as not to be largely influenced by the shooting conditions.

また,処理の高速化のため,シグネチャとEMDの代わりに,適宜の色空間内での画像情報の色コリログラムや色ヒストグラムなどの画像特徴量間のL2距離等の類似性を用いることもできる。 Further, in order to speed up the processing, instead of the signature and the EMD, the similarity such as the L2 distance between the image feature amounts such as the color correlogram and the color histogram of the image information in an appropriate color space can be used.

類似性の判定は,上述に限定をするものではない。特定した商品識別情報の候補は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報に対応づけて識別情報候補記憶部22に記憶する。なお,ここで特定した商品識別情報の候補は,ある撮影画像情報に基づく正置画像情報におけるフェイスに写っている商品の商品識別情報の候補であるので,確定した商品識別情報ではない。 The determination of similarity is not limited to the above. The identified product identification information candidates are identification information candidates in association with shooting date/time information, store information, image information identification information of captured image information, image identification information of upright image information, and face identification information for identifying a face. It is stored in the storage unit 22. The candidate of the product identification information specified here is not the confirmed product identification information because it is the candidate of the product identification information of the product shown on the face in the normal image information based on a certain captured image information.

以上のようにして特定した商品識別情報の候補は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報に対応づけて識別情報候補記憶部22に記憶する。 The candidate product identification information identified as described above corresponds to the shooting date/time information, the shop information, the image information identification information of the shot image information, the image identification information of the upright image information, and the face identification information for identifying the face. It is also stored in the identification information candidate storage unit 22.

棚段画像マッチング処理部247は,前回(N−1回目)の正置画像情報における棚段の領域の画像情報と,今回(N回目)の正置画像情報における棚段の領域の画像情報とに基づいて,その類似性が高ければその棚段における各フェイスの商品識別情報の候補は同一と判定する。この類似性の判定処理は,上述のように,前回(N−1回目)の正置画像情報における棚段の領域の画像情報の画像特徴量と,今回(N回目)の正置画像情報における棚段の領域の画像情報とに基づく類似性の判定でもよいし,色ヒストグラム同士のEMDを用いたものであってもよい。また,それらに限定するものではない。そして,識別情報特定処理部246におけるフェイス単位ごとの特定処理ではなく,識別情報特定処理部246に,N回目の正置画像情報におけるその棚段における各フェイスの商品識別情報の候補を,N−1回目の同一の棚段における各フェイスの商品識別情報の候補と同一として,識別情報候補記憶部22に記憶させる。これによって,あまり商品の動きがない棚段や逆にきわめて短いサイクルで管理される棚段など,変化がほとんど生じない棚段についての処理を省略することができる。なお,棚段画像マッチング処理部247による処理は設けなくてもよい。 The shelf image matching processing unit 247 stores the image information of the shelf area in the previous (N−1)th normal image information and the image information of the shelf area in the current (Nth) normal image information. If the similarity is high, the product identification information candidates of each face in the shelf are determined to be the same. As described above, this similarity determination processing is performed on the image feature amount of the image information of the shelf area in the previous (N-1)th normal image information and the current (Nth) normal image information. Similarity determination may be performed based on the image information of the shelf area, or EMD between color histograms may be used. Moreover, it is not limited to them. Then, instead of the identification processing for each face in the identification information identification processing unit 246, the identification information identification processing unit 246 sends N-th candidate product identification information of each face in the shelf in the normal image information. It is stored in the identification information candidate storage unit 22 as the same as the candidate of the product identification information of each face in the same first shelf. As a result, it is possible to omit processing for a shelf that hardly changes, such as a shelf that does not move much or a shelf that is managed in an extremely short cycle. Note that the processing by the shelf image matching processing unit 247 may not be provided.

棚段画像マッチング処理部247における処理は,N回目とN−1回目の比較の際に用いるほか,N回目に同一の陳列棚を異なる角度で撮影した正置画像情報の比較の処理の際に用いてもよい。 The processing in the shelf image matching processing unit 247 is used not only in the Nth comparison and the N-1th comparison, but also in the Nth comparison of the normal image information obtained by photographing the same display shelf at different angles. You may use.

識別情報比較処理部25は,識別情報特定処理部246で特定した商品識別情報の候補に基づいて,同一の陳列棚を同一の機会に異なる角度で撮影した撮影画像情報(正置画像情報)において,対応するフェイス同士の商品識別情報の候補を比較し,そのフェイスに写っている商品の商品識別情報を特定(確定)する処理を実行する。識別情報比較処理部25の処理のイメージ図を図14に示す。 Based on the product identification information candidates identified by the identification information identification processing unit 246, the identification information comparison processing unit 25 uses the captured image information (normal image information) obtained by capturing the same display shelf at different angles on the same occasion. A process of comparing the product identification information candidates of the corresponding faces and identifying (determining) the product identification information of the product shown in the face is executed. An image diagram of the processing of the identification information comparison processing unit 25 is shown in FIG.

識別情報比較処理部25は,同一の陳列棚を同一の機会,たとえば同一日に撮影した異なる撮影画像情報に基づく正置画像情報において,画像情報処理部24で特定したフェイスごとの商品識別情報の候補を,それぞれ識別情報候補記憶部22から特定する。たとえば同一のフェイス識別情報に対応する商品識別情報の候補を,それぞれ特定する。そして,それぞれの商品識別情報の候補について,所定の条件と比較し,当該フェイスに対応する商品識別情報を特定(確定)する。たとえば,図14に示すように,同一の陳列棚を同一の機会に撮影した,角度が異なる2つの撮影画像情報(撮影画像情報1,撮影画像情報2)があるとする。このとき,撮影画像情報1を正置化した正置画像情報1におけるフェイスAには商品識別情報の候補として商品識別情報1が対応づけられており,撮影画像情報2を正置化した正置画像情報2におけるフェイスAには商品識別情報の候補が存在していない(正置画像情報2に基づいてはフェイスAの商品識別情報が特定できなかった)場合とする。この場合には,正置画像情報1に基づく商品識別情報1をフェイスAの商品識別情報として特定する。また,別の例として,撮影画像情報1を正置化した正置画像情報1におけるフェイスAには商品識別情報の候補として商品識別情報1が尤度40%で対応づけられており,撮影画像情報2を正置化した正置画像情報2におけるフェイスAには商品識別情報の候補として商品識別情報2が尤度90%で対応づけられていた場合には,尤度がもっとも高い商品識別情報2をフェイスAの商品識別情報として特定する。 The identification information comparison processing unit 25 displays the product identification information for each face identified by the image information processing unit 24 in the normal image information based on different photographed image information photographed on the same display shelf at the same opportunity, for example, on the same day. Each candidate is specified from the identification information candidate storage unit 22. For example, each candidate of product identification information corresponding to the same face identification information is specified. Then, with respect to each candidate of the product identification information, the product identification information corresponding to the face is specified (determined) by comparing with a predetermined condition. For example, as shown in FIG. 14, it is assumed that there are two pieces of photographed image information (photographed image information 1 and photographed image information 2) that are photographed at the same opportunity on the same display shelf but at different angles. At this time, the face A in the normal image information 1 obtained by normalizing the photographed image information 1 is associated with the product identification information 1 as a candidate for the product identification information, and the normal image obtained by normalizing the photographed image information 2 is arranged. It is assumed that the face A in the image information 2 has no candidate for the product identification information (the product identification information of the face A could not be specified based on the normal image information 2). In this case, the product identification information 1 based on the normal image information 1 is specified as the product identification information of the face A. Further, as another example, the face A in the orthonormal image information 1 obtained by orthonormalizing the photographed image information 1 is associated with the product identification information 1 as a candidate of the product identification information with a likelihood of 40%. If the product identification information 2 is associated with the likelihood A of 90% as a candidate of the product identification information to the face A in the orthotopic image information 2 obtained by normalizing the information 2, the product identification information with the highest likelihood. 2 is specified as the product identification information of face A.

このように識別情報比較処理部25は,同一の陳列棚を同一の機会に撮影した異なる角度の画像情報において,それぞれ特定した商品識別情報の候補を,商品識別情報の候補の有無,商品識別情報の候補の尤度に基づいて,当該フェイスに対応する商品識別情報として特定をする。なお,一つの画像情報における一つのフェイスに,尤度に応じた複数の商品識別情報の候補がある場合,尤度をそれぞれ演算してもよい。たとえば撮影画像情報1を正置化した正置画像情報1におけるフェイスAには商品識別情報の候補として商品識別情報1が尤度65%,商品識別情報2が尤度30%で対応づけられており,撮影画像情報2を正置化した正置画像情報2におけるフェイスAには商品識別情報の候補として商品識別情報2が尤度70%,商品識別情報1が尤度25%で対応づけられていた場合,同一の商品識別情報については,尤度に基づく値同士を加算,乗算等の演算をして値を算出し,その値に基づいていずれか一つの商品識別情報に特定をしてもよい。たとえば上述の場合,商品識別情報1を90,商品識別情報2を100として比較して,商品識別情報2に特定してもよい。このように,識別情報比較処理部25は,同一の撮影対象物である陳列棚を同一の機会に撮影した異なる角度による複数の画像情報から特定した商品識別情報の候補を,所定条件で比較し,当該フェイスに対応する商品識別情報を特定する。なお,フェイス単位で処理を実行すると精度が向上するが,それに限定するものではなく,商品識別情報の候補を比較さえすればよい。 In this way, the identification information comparison processing unit 25 identifies the identified product identification information candidates in the image information of different angles obtained by photographing the same display shelf at the same opportunity, whether or not there is a product identification information candidate, and product identification information. Based on the likelihood of the candidate, the product identification information corresponding to the face is specified. When one face in one image information has a plurality of product identification information candidates according to the likelihood, the likelihoods may be calculated respectively. For example, product identification information 1 is associated with a likelihood of 65% and product identification information 2 is associated with a likelihood of 30% as a face of the face A in the orthotopic image information 1 obtained by orientating the photographed image information 1. Therefore, the face A in the normal image information 2 obtained by normalizing the photographed image information 2 is associated with the product identification information 2 as a candidate of the product identification information with a likelihood of 70% and the product identification information 1 with a likelihood of 25%. In the case of the same product identification information, the values based on the likelihood are added to each other, a calculation such as multiplication is performed to calculate a value, and one of the product identification information is specified based on the value. Good. For example, in the above case, the product identification information 1 may be 90 and the product identification information 2 may be 100, and the product identification information 2 may be specified. In this way, the identification information comparison processing unit 25 compares the candidates of the product identification information specified from the plurality of image information at different angles of the display shelf, which is the same image capturing object, at the same opportunity under predetermined conditions. The product identification information corresponding to the face is specified. It should be noted that the accuracy is improved by executing the process for each face, but the present invention is not limited to this, and it is only necessary to compare the candidates of the product identification information.

なお,本明細書における画像認識システム1は,陳列棚に陳列した商品を撮影した画像情報から,そこに写っている商品の商品識別情報を特定する処理に適用することができるが,それに限定するものではなく,何らかの対象物が写っている画像情報から,その対象物の識別情報を特定する場合にも適用することができる。 Note that the image recognition system 1 in the present specification can be applied to the process of specifying the product identification information of the product displayed on the image information of the product displayed on the display shelf, but is not limited thereto. It can also be applied to the case where the identification information of an object is specified based on the image information of the object, not the object.

本発明の画像認識システム1を用いた処理プロセスを,図1および図2のブロック図,図4乃至図6のフローチャートを用いて説明する。なお,以下の説明では,同一の陳列棚について,2方向から撮影した2枚の撮影画像情報を用いる場合を説明するが,3枚以上であっても,同様に処理が実行できる。 A processing process using the image recognition system 1 of the present invention will be described with reference to the block diagrams of FIGS. 1 and 2 and the flowcharts of FIGS. 4 to 6. It should be noted that in the following description, the case where two pieces of photographed image information photographed from two directions are used for the same display shelf will be described, but the same processing can be executed even when there are three or more pieces.

店舗の陳列棚の撮影担当者は,同一の陳列棚について,同一の機会に,光等の写り込みが重ならないように,複数の角度から撮影を行う。そして店舗の陳列棚について,同一の機会に異なる角度から撮影された撮影画像情報(図8,図9)は,撮影画像情報入力端末3から入力され,管理端末2の画像情報処理部24における撮影画像情報入力受付処理部241でその入力を受け付ける(S100,S110)。また,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報の入力を受け付ける。そして,撮影画像情報入力受付処理部241は,入力を受け付けた撮影画像情報,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報を対応づけて撮影画像情報記憶部20に記憶させる。 The person in charge of shooting the display shelves of the store shoots the same display shelf from a plurality of angles at the same opportunity so that the reflection of light or the like does not overlap. Then, the photographed image information (FIGS. 8 and 9) photographed from different angles at the same opportunity on the display shelf of the store is input from the photographed image information input terminal 3 and photographed by the image information processing unit 24 of the management terminal 2. The image information input reception processing unit 241 receives the input (S100, S110). Further, the input of image information identification information such as shooting date/time, store identification information, and shot image information is accepted. Then, the photographed image information input reception processing unit 241 stores the photographed image information, the photographing date and time, the store identification information, and the image information identification information of the photographed image information, which have been input, in the photographed image information storage unit 20 in association with each other.

管理端末2において所定の操作入力を受け付けると,撮影画像情報正置化処理部242は,撮影画像情報記憶部20に記憶する撮影画像情報を抽出し,台形補正処理を行うための頂点である棚位置(陳列棚の位置)の4点の入力を受け付け,台形補正処理を実行する(S120)。このようにして台形補正処理が実行された撮影画像情報(正置画像情報)の一例が,図10,図11である。 When the management terminal 2 receives a predetermined operation input, the photographed image information normalization processing unit 242 extracts the photographed image information stored in the photographed image information storage unit 20 and performs a trapezoidal correction process on a shelf. The four inputs of the position (position of the display shelf) are accepted, and the keystone correction process is executed (S120). 10 and 11 show an example of the captured image information (normal image information) on which the trapezoidal correction process is executed in this manner.

そして,正置画像情報に対して,管理端末2において所定の操作入力を受け付けることで,棚段位置特定処理部243は,棚段領域を特定する(S130)。すなわち,正置画像情報における棚段領域の入力を受け付ける。図12および図13が,棚段領域が特定された状態を示す図である。 Then, by receiving a predetermined operation input in the management terminal 2 with respect to the fixed image information, the shelf position specifying processing unit 243 specifies the shelf area (S130). That is, the input of the shelf area in the normal image information is accepted. 12 and 13 are diagrams showing a state in which the shelf area is specified.

以上のようにして,棚段領域を特定すると,棚段領域切出処理部244は,S130で入力を受け付けた棚段の領域に基づいて,正置画像情報から棚段領域の画像情報を切り出す(S140)。そして,棚段領域画像情報における棚段ごとに,フェイスを特定する処理を実行する(S150)。具体的には,棚段領域における棚段について,4点の座標で構成される矩形領域の範囲内において,商品と商品との間に生ずる細く狭い陰影を特定する,画像の繰り返しパターンを特定する,パッケージの上辺の段差を特定する,商品幅が同一であるなどの制約に基づいて区切り位置を特定する,などによって,フェイスを特定する。特定したフェイスには,フェイスを識別するためのフェイス識別情報を付す。このフェイス識別情報は,同一の陳列棚を撮影した画像情報については,異なる画像情報であっても,対応するフェイスであることを識別可能とするため,同一のフェイス識別情報とするか,あるいはフェイス識別情報の対応関係を記憶しておく。 When the shelf area is specified as described above, the shelf area cut-out processing unit 244 cuts out the image information of the shelf area from the normal image information based on the shelf area received in S130. (S140). Then, a process for identifying a face is executed for each shelf in the shelf area image information (S150). Specifically, for a shelf in the shelf area, a repeating pattern of images is specified that specifies a thin and narrow shadow that occurs between products within a rectangular area formed by the coordinates of four points. The face is specified by specifying the step on the upper side of the package, specifying the separation position based on the constraint that the product width is the same, and the like. Face identification information for identifying the face is attached to the identified face. The face identification information is the same face identification information for the image information obtained by photographing the same display shelf even if the image information is different, so that it can be identified as the corresponding face. The correspondence of the identification information is stored.

そして,特定した各フェイスの座標は,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像情報識別情報,フェイスを識別するためのフェイス識別情報と対応付けて記憶させる。なお,フェイスの座標は4点を記憶せずとも,矩形領域を特定可能な2点であってもよい。 The identified coordinates of each face are stored in association with the shooting date and time, the store identification information, the image information identification information of the captured image information, the image information identification information of the normal image information, and the face identification information for identifying the face. Let It should be noted that the face coordinates may be two points that can specify a rectangular area without storing four points.

以上のように正置画像情報の棚段領域画像情報における各棚段の各フェイスを特定すると,識別情報特定処理部246は,フェイスごとに,標本情報記憶部21に記憶する標本情報とマッチング処理を実行し,類似性が最も高い標本情報に対応する商品識別情報を特定する。そして,そのフェイスに表示されている商品の商品識別情報の候補として特定する(S160)。すなわち,ある棚段のフェイスの矩形領域(この領域のフェイスのフェイス識別情報をXとする)における画像情報と,標本情報記憶部21に記憶する各標本情報とから,それぞれの画像特徴量を算出し,特徴点のペアを求めることで,類似性を判定する。そして,もっとも類似性の高い標本情報を特定し,そのときの類似性があらかじめ定められた閾値以上であれば,その標本情報に対応する商品識別情報を標本情報記憶部21に基づいて特定する。そして,特定した商品識別情報を,そのフェイス識別情報Xのフェイスに表示されている商品の商品識別情報の候補とする。そして識別情報特定処理部246は,特定した商品識別情報の候補を,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像情報識別情報,フェイス識別情報に対応づけて識別情報候補記憶部22に記憶する(S170)。 When each face of each shelf in the shelf area image information of the normal image information is specified as described above, the identification information specifying processing unit 246 performs a matching process with the sample information stored in the sample information storage unit 21 for each face. Then, the product identification information corresponding to the sample information having the highest similarity is specified. Then, it is specified as a candidate for the product identification information of the product displayed on the face (S160). That is, each image feature amount is calculated from the image information in the rectangular area of the face of a certain shelf (X is the face identification information of the face in this area) and each piece of sample information stored in the sample information storage unit 21. Then, the similarity is judged by finding a pair of feature points. Then, the sample information having the highest similarity is specified, and if the similarity at that time is equal to or more than a predetermined threshold value, the product identification information corresponding to the sample information is specified based on the sample information storage unit 21. Then, the identified product identification information is set as a candidate for the product identification information of the product displayed on the face of the face identification information X. Then, the identification information identification processing unit 246 associates the identified product identification information candidates with the shooting date and time, the store identification information, the image information identification information of the shot image information, the image information identification information of the upright image information, and the face identification information. And stores it in the identification information candidate storage unit 22 (S170).

なお,すべてのフェイスの商品識別情報を特定できるとは限らない。そこで,特定できていないフェイス(もっとも高い類似性が所定の閾値未満のフェイスなど)については,商品識別情報の入力を受け付け,入力を受け付けた商品識別情報を,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像情報識別情報,フェイス識別情報に対応づけて,商品識別情報の候補として識別情報候補記憶部22に記憶してもよい。また,特定した商品識別情報の候補の修正処理についても同様に,入力を受け付けてもよい。なお,このようなフェイスについては,もともと確実性が高いので,後述の識別情報比較処理部25の処理を実行せずに,商品識別情報として確定し,識別情報候補記憶部22,識別情報記憶部23に記憶させてもよい。このとき,識別情報候補記憶部22には,手入力を受け付けたことを示すフラグを付し,そのフラグがある場合には識別情報比較処理部25の処理をスキップするなどができる。 Note that it is not always possible to specify the product identification information for all faces. Therefore, for faces that have not been identified (such as faces whose highest similarity is less than a predetermined threshold value), input of product identification information is accepted, and the product identification information for which the input is accepted is taken as the shooting date, store identification information, and taken image. The image information identification information of information, the image information identification information of orthostatic image information, and the face identification information may be associated with each other and stored in the identification information candidate storage unit 22 as a candidate of the product identification information. Further, the input of the correction processing of the identified product identification information candidate may be similarly received. Since such a face has a high degree of certainty from the beginning, it is decided as the product identification information without executing the process of the identification information comparison processing unit 25 described later, and the identification information candidate storage unit 22 and the identification information storage unit are executed. 23 may be stored. At this time, a flag indicating that the manual input is accepted can be added to the identification information candidate storage unit 22, and if there is such a flag, the processing of the identification information comparison processing unit 25 can be skipped.

以上のような処理を行うことで,撮影画像情報に写っている陳列棚の棚段に陳列されている商品の商品識別情報の候補を特定することができる。 By performing the above-described processing, it is possible to specify the product identification information candidate of the product displayed on the shelf of the display shelf shown in the photographed image information.

そして各撮影画像情報に基づく正置画像情報におけるフェイスについて,商品識別情報の候補が特定できると,識別情報比較処理部25は,対応するフェイス同士の商品識別情報の候補を識別情報候補記憶部22から特定し,それらを所定条件に基づいて比較することで,当該フェイスにおける商品識別情報として特定する(S200)。 When the product identification information candidate can be specified for the face in the normal image information based on each captured image information, the identification information comparison processing unit 25 determines the product identification information candidates of the corresponding faces as the identification information candidate storage unit 22. The product identification information of the face is identified by comparing the above items based on a predetermined condition (S200).

具体的には,まず識別情報比較処理部25は,同一の陳列棚を同一の機会に撮影した角度の異なる複数の正置画像情報において,対応するフェイスを特定する(S210)。対応するフェイスの特定では,同一のフェイス識別情報に基づいて特定する,フェイスとして対応づけられているフェイスを特定するなどの方法がある。 Specifically, first, the identification information comparison processing unit 25 identifies a corresponding face in a plurality of pieces of normal image information having different angles taken on the same display shelf at the same opportunity (S210). For identifying the corresponding face, there are methods such as identifying based on the same face identification information and identifying a face associated as a face.

そして特定したフェイスについての商品識別情報の候補を,識別情報候補記憶部22から抽出し,対応するフェイス同士の商品識別情報の候補について,所定の条件を充足するか比較し(S220),当該フェイスについての商品識別情報として特定する(S230)。そして,特定した商品識別情報を,識別情報記憶部23に記憶させる(S240)。 Then, the product identification information candidates for the identified face are extracted from the identification information candidate storage unit 22, and the product identification information candidates for the corresponding faces are compared with each other to determine whether a predetermined condition is satisfied (S220). (S230). Then, the identified product identification information is stored in the identification information storage unit 23 (S240).

以上のような処理を行うことで,撮影画像情報に写っている陳列棚の棚段に陳列されている商品の商品識別情報を特定することができる。また,複数の角度で撮影した撮影画像情報に基づいて特定しているので,光などの写り込みの影響を排除しやすくなり,商品の特定の精度を向上させることができる。 By performing the above-described processing, it is possible to specify the product identification information of the product displayed on the shelf of the display shelf shown in the photographed image information. Further, since the identification is performed based on the captured image information captured at a plurality of angles, it becomes easy to eliminate the influence of the reflection of light or the like, and the accuracy of identifying the product can be improved.

また,2回目または2枚目以降の処理においては,適宜,棚段画像マッチング処理部247における処理を実行することができる。 In the second or subsequent processing, the processing in the shelf image matching processing unit 247 can be appropriately executed.

上述した実施例1では,4点を指定することで台形補正処理を実行することとしたが,その基準となる頂点を毎回,指定して入力することは負担が大きい。そこで,台形補正処理の基準となる頂点を自動的に特定するように構成してもよい。この場合の処理を説明する。 In the above-described first embodiment, the trapezoidal correction process is executed by designating four points, but it is a heavy burden to designate and input the reference vertices every time. Therefore, it may be configured to automatically identify the apex serving as the reference of the trapezoidal correction process. The processing in this case will be described.

この場合の撮影画像情報正置化処理部242は,初回の台形補正処理と,二回目以降の台形補正処理とに分かれる。なお,初回とは一回目のほか,頂点を自動的に特定する際のずれを修正するため,任意のタイミングで手動で行う場合も含まれる。二回目以降とは初回以外である。また,本発明では,同一の陳列棚について同一の機会に,複数の角度から撮影を行う。そのため,最初の一枚(N−1回目)について頂点を指定することで台形補正処理を実行し,二枚目以降(N回目)については,台形補正処理の基準となる頂点を自動的に特定するようにしてもよい。 In this case, the captured image information normalization processing unit 242 is divided into a first trapezoidal correction process and a second and subsequent trapezoidal correction processes. In addition to the first time, it also includes the case of performing the operation manually at an arbitrary timing in order to correct the deviation when the vertices are automatically specified. The second and subsequent times are other than the first time. Further, in the present invention, the same display shelf is photographed from a plurality of angles at the same opportunity. Therefore, the trapezoidal correction process is executed by designating the vertices for the first sheet (N-1), and the vertices that are the reference for the trapezoidal correction process are automatically specified for the second and subsequent sheets (Nth). You may do so.

撮影画像情報正置化処理部242における初回の台形補正処理は,実施例1と同様に,陳列棚の長方形の領域の4頂点の指定の入力を受け付ける。陳列棚の長方形の領域の4頂点としては,陳列棚の棚位置の4頂点であってもよいし,棚段の4頂点や商品タグを取り付ける領域の4頂点であってもよい。また,2段,3段の棚段のまとまりの4頂点であってもよい。ここで指定を受け付けた4頂点は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報と対応づけて記憶させる。そして撮影画像情報正置化処理部242は,指定を受け付けた4頂点の座標に基づいて,撮影画像情報に対して台形補正処理を実行し,正置画像情報とする。 In the first trapezoidal correction process in the captured image information normalization processing unit 242, as in the first embodiment, the input of designation of the four vertices of the rectangular area of the display shelf is accepted. The four vertices of the rectangular area of the display shelf may be the four vertices of the shelf position of the display shelf, the four vertices of the shelf, or the four vertices of the area to which the product tag is attached. Further, it may be four apexes of a set of two or three shelves. The four vertices for which the designation has been accepted here are stored in association with the image date/time information, the store information, and the image information identification information of the captured image information. Then, the captured image information normalization processing unit 242 performs trapezoidal correction processing on the captured image information based on the coordinates of the four vertices for which designation has been received, and obtains the normal image information.

撮影画像情報正置化処理部242は,二回目以降の台形補正処理を以下のように実行をする。 The captured image information normalization processing unit 242 executes the trapezoidal correction processing after the second time as follows.

まず,撮影画像情報正置化処理部242は,N回目の撮影画像情報に対応する同じ(ほぼ同じ)領域を撮影したN−1回目の撮影画像情報の頂点座標を,前回の処理の際に記憶した情報から特定する。N回目の撮影画像情報に対応する同じ(ほぼ同じ)領域を撮影したN−1回目の撮影画像情報の頂点座標は,撮影画像情報に対応する店舗識別情報,画像識別情報,撮影日時情報などに基づいて特定をする。そして,N−1回目の撮影画像情報に対して,特定をした4頂点の頂点座標を含む所定の大きさの矩形領域,たとえば棚段の幅の1/5程度の正方形を特徴量採取領域2420として設定をする。N−1回目の撮影画像情報に対して,特徴量採取領域2420を設定した状態の一例を図15に示す。特徴量採取領域2420は,頂点座標を含む矩形領域であればよい。一方,陳列棚の背景同士がマッチングをしてしまうと,撮影位置が少しずれるだけで背景が大きくずれてしまう。そこで,特徴量採取領域2420は,なるべく陳列棚の内側を多く含む位置に設定することが好ましい。つまり,頂点座標は,特徴量採取領域2420において,特徴量採取領域2420の中心点よりも陳列棚の外側方向に位置していることが好ましい。 First, the captured image information normalization processing unit 242 determines the vertex coordinates of the (N-1)th captured image information obtained by capturing the same (substantially the same) region corresponding to the Nth captured image information, in the previous processing. Identify from stored information. The vertex coordinates of the (N-1)th captured image information obtained by capturing the same (almost the same) area corresponding to the Nth captured image information are stored in the store identification information, the image identification information, the shooting date/time information, etc. Identify based on Then, with respect to the (N-1)th captured image information, a rectangular area having a predetermined size including the identified vertex coordinates of the four vertices, for example, a square having a width of about 1/5 of the shelf is used as the feature amount collection area 2420. Set as. FIG. 15 shows an example of a state in which the feature amount collection area 2420 is set for the (N-1)th captured image information. The feature amount collection area 2420 may be a rectangular area including vertex coordinates. On the other hand, if the backgrounds of the display shelves are matched with each other, the backgrounds are greatly shifted even if the shooting position is slightly shifted. Therefore, it is preferable to set the feature amount collection area 2420 to a position that includes as much the inside of the display shelf as possible. That is, it is preferable that the vertex coordinates are located in the feature amount collection area 2420 in a direction outward of the display shelf with respect to the center point of the feature amount collection area 2420.

たとえば,頂点座標の4点は左上,右上,左下,右下に位置する。そして,特徴量採取領域2420の矩形領域を縦横の中心でそれぞれ2分割した合計4領域に分割すると,左上の頂点座標を含む特徴量採取領域2420では,その頂点座標が矩形領域のうち左上の領域に位置するように特徴量採取領域2420を設定する。同様に,右上の頂点座標を含む特徴量採取領域2420では,その頂点座標が矩形領域のうち右上の領域に位置するように特徴量採取領域2420を設定し,左下の頂点座標を含む特徴量採取領域2420では,その頂点座標が矩形領域のうち左下の領域に位置するように特徴量採取領域2420を設定し,右下の頂点座標を含む特徴量採取領域2420では,その頂点座標が矩形領域のうち右下の領域に位置するように特徴量採取領域2420を設定する。これによって,頂点座標は,特徴量採取領域2420において,特徴量採取領域2420の中心点よりも陳列棚の外側方向に位置することとなる。 For example, four vertex coordinates are located at the upper left, upper right, lower left, and lower right. Then, when the rectangular area of the feature amount collection area 2420 is divided into a total of four areas by dividing the rectangular area in the vertical and horizontal centers into two areas, in the feature quantity collection area 2420 including the upper left vertex coordinates, the vertex coordinates of the upper left area The feature amount collection area 2420 is set so as to be located at. Similarly, in the feature amount collection area 2420 including the upper right vertex coordinates, the feature amount collection area 2420 is set so that the vertex coordinates are located in the upper right area of the rectangular region, and the feature amount collection area including the lower left vertex coordinates is set. In the area 2420, the feature amount sampling area 2420 is set so that its vertex coordinates are located in the lower left area of the rectangular area, and in the feature amount collecting area 2420 including the lower right vertex coordinates, the vertex coordinates are in the rectangular area. The feature amount collection area 2420 is set so as to be located in the lower right area. As a result, the vertex coordinates are located in the feature amount collection area 2420 in a direction outward of the display shelf from the center point of the feature amount collection area 2420.

つぎに,撮影画像情報正置化処理部242は,N回目の撮影画像情報において,N−1回目の撮影画像情報に設定した特徴量採取領域2420を内包し,N−1回目の撮影画像情報の特徴量採取領域2420以上の大きさの特徴量採取領域2421を設定する。N回目の撮影画像情報に設定する特徴量採取領域2421は,短辺の1/2の大きさは超えない。さらに,撮影画像情報よりも外側に出る場合には,その範囲をトリミングする。N回目の撮影画像情報に対して特徴量採取領域2421を設定した状態の一例を図16に示す。 Next, the captured image information orthotopicization processing unit 242 includes the feature amount collection area 2420 set in the N-1th captured image information in the Nth captured image information, and the N-1th captured image information. A feature amount collection area 2421 having a size equal to or larger than the feature amount collection area 2420 is set. The feature amount collection area 2421 set in the Nth captured image information does not exceed the size of 1/2 of the short side. Further, when it goes outside the photographed image information, the range is trimmed. FIG. 16 shows an example of a state in which the feature amount collection area 2421 is set for the Nth captured image information.

そして撮影画像情報正置化処理部242は,N−1回目の撮影画像情報に対して設定した各特徴量採取領域2420において,局所特徴量を採取し,局所特徴量による特徴点とその座標のセットとを記憶する。また,N回目の撮影画像情報に対して設定した各特徴量採取領域2421において,局所特徴量を採取し,局所特徴量による特徴点とその座標のセットとを記憶する。 Then, the captured image information normalization processing unit 242 collects the local feature amount in each feature amount collection area 2420 set for the (N-1)th captured image information, and extracts the feature point and the coordinates of the feature point by the local feature amount. Remember the set and. In addition, the local feature quantity is collected in each feature quantity collection area 2421 set for the Nth captured image information, and the feature point and the set of coordinates of the local feature quantity are stored.

撮影画像情報正置化処理部242は,N−1回目の撮影画像情報の特徴量採取領域2420における特徴点の局所特徴量と,N−1回目の撮影画像情報の特徴量採取領域2420に対応する位置にあるN回目の撮影画像情報の特徴量採取領域2421における特徴点の局所特徴量とを比較する。そして,N−1回目の撮影画像情報の各特徴点の各局所特徴量にもっとも近い,N回目の撮影画像情報の各局所特徴量の特徴点を特定する。そしてもっとも近い局所特徴量同士の特徴点をペアとし,ペアとなる局所特徴量による特徴点の座標を対応づける。なお,この際に,局所特徴量同士の近さ(類似性)があらかじめ定められた閾値未満のペアは除外をする。これによって,N−1回目の特徴量採取領域2420における局所特徴量の特徴点と,N回目の特徴量採取領域2421におけるもっとも近い局所特徴量の特徴点同士のペアを特定できる。N−1回目の特徴量採取領域2420の局所特徴量の特徴点と,N回目の特徴量採取領域2421の局所特徴量の特徴点とのペアの関係を図17に示す。図17では,N−1回目の特徴量採取領域2420における局所特徴量による特徴点の点群をA,N回目の特徴量採取領域2421における局所特徴量による特徴点の点群をB,N−1回目の台形補正処理に用いた頂点をCで示している。 The captured image information normalization processing unit 242 corresponds to the local feature amount of the feature point in the feature amount collection area 2420 of the N−1th shot image information and the feature amount collection area 2420 of the N−1th shot image information. The local feature amount of the feature point in the feature amount sampling area 2421 of the Nth captured image information at the position is compared. Then, the feature point of each local feature amount of the N-th captured image information that is closest to each local feature amount of each feature point of the N-1th captured image information is specified. Then, the feature points of the closest local feature quantities are paired, and the coordinates of the feature points according to the paired local feature quantities are associated. At this time, pairs in which the closeness (similarity) between the local feature quantities is less than a predetermined threshold value are excluded. As a result, it is possible to specify a pair of local feature amount feature points in the (N-1)th feature amount collection region 2420 and closest feature points of the local feature amount in the Nth feature amount collection region 2421. FIG. 17 shows a pair relationship between the feature points of the local feature quantity of the N-1th feature quantity collection area 2420 and the feature points of the local feature quantity of the Nth feature quantity collection area 2421. In FIG. 17, the point cloud of feature points by the local feature quantity in the N-1th feature quantity collection area 2420 is A, the point cloud of feature points by the local feature quantity in the Nth feature quantity collection area 2421 is B, N−. The vertex used in the first trapezoidal correction process is indicated by C.

N−1回目の特徴量採取領域2420における局所特徴量による特徴点の点群Aの座標と,点群Aに対応するN回目の特徴量採取領域2421における局所特徴量による特徴点の点群Bの座標とに基づいて,点群Aを点群Bに射影する関数F(透視変換・ホモグラフィー)を求める。関数Fは,サンプリング推定を反復する,ロバスト推定の一種であるOpenCVのRANSACを利用するなどの方法があるが,それらに限定しない。なお,射影の関係にある関係線からずれが大きいペアは処理対象から除外をする。 The coordinates of the point group A of the feature points by the local feature amount in the (N-1)th feature amount sampling area 2420 and the point group B of the feature points by the local feature amount in the Nth feature amount sampling area 2421 corresponding to the point group A. Then, a function F (perspective transformation/homography) for projecting the point group A onto the point group B is obtained based on the coordinates of. The function F includes, but is not limited to, methods such as repeating sampling estimation and using RANSAC of OpenCV which is a kind of robust estimation. It should be noted that pairs that have a large deviation from the relational line having a projective relationship are excluded from the processing target.

撮影画像情報正置化処理部242において関数Fを求めたのち,撮影画像情報正置化処理部242は,N−1回目の台形補正処理で用いた頂点Cの座標を,関数Fに基づいてN回目の撮影画像情報に射影し,N回目の台形補正処理のための頂点Dの座標として特定する。これを模式的に示すのが図18である。 After obtaining the function F in the captured image information normalization processing unit 242, the captured image information normalization processing unit 242 calculates the coordinates of the vertex C used in the (N-1)th trapezoidal correction processing based on the function F. It is projected onto the Nth captured image information, and is specified as the coordinates of the vertex D for the Nth trapezoidal correction process. FIG. 18 schematically shows this.

以上の処理を各特徴量採取領域2420,2421に対して行うことで,N回目の撮影画像情報における台形補正処理のための棚位置の4頂点を特定する。そして,撮影画像情報正置化処理部242は,特定した4頂点に基づいて,N回目の撮影画像情報に対する台形補正処理を実行して正置化し,正置画像情報を生成し,記憶する。この際に,撮影画像情報正置化処理部242は,正置画像情報に対応付けて,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報と対応づけて記憶をさせる。特定したN回目の撮影画像情報に対応する頂点の座標は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報と対応づけて記憶させる。 By performing the above processing on each of the feature amount collection areas 2420 and 2421, the four vertices of the shelf position for the trapezoidal correction processing in the Nth captured image information are specified. Then, the captured image information normalization processing unit 242 performs trapezoidal correction processing on the Nth captured image information based on the identified four vertices to perform normalization, and generates and stores normal image information. At this time, the captured image information normalization processing unit 242 is associated with the normal image information, and is associated with the shooting date/time information, store information, image information identification information of the captured image information, and image identification information of the normal image information. Let them remember. The identified coordinates of the vertex corresponding to the Nth captured image information are stored in association with the image date/time information, the store information, and the image information identification information of the captured image information.

なお,撮影画像情報正置化処理部242における台形補正処理で用いる頂点の特定処理は,本発明のように陳列棚を撮影した画像情報から商品を特定する場合に限らず,同一の撮影対象物を撮影した複数の画像情報を正置化し,正置画像情報を生成する画像認識システム1にも適用することができる。これによって,同一の撮影対象物を撮影した複数の画像情報について,それぞれ正置化して,その撮影対象物の正置画像情報を生成することができる。 The apex identification process used in the trapezoidal correction process in the captured image information orthotopic processing unit 242 is not limited to the case in which the product is identified from the image information of the display shelf image as in the present invention, and the same image capturing target object is used. It can also be applied to the image recognition system 1 that orients a plurality of image information of captured images to generate orthotopic image information. As a result, a plurality of pieces of image information of the same imaged object can be orthonormalized to generate orthotopic image information of the imaged object.

また,N回目の撮影画像情報における台形補正処理のための棚位置の4頂点を特定するため,上述では,N−1回目の撮影画像情報における特徴量採取領域2420での局所特徴量による特徴点の点群Aと,N回目の撮影画像情報における特徴量採取領域2421での局所特徴量による特徴点の点群Bとを用いて関数Fを求め,N−1回目の台形補正処理で用いた頂点Cの座標を,関数FによりN回目の撮影画像情報に射影し,N回目の台形補正処理のための頂点Dの座標として特定する処理を説明した。しかし,かかる処理では,N−1回目の撮影画像情報と,N回目の撮影画像情報とにおいて,類似する画像情報の対応点の座標(位置)を見つければよいので,上記の方法にするものではなく,画像情報内の箇所を特定するタイプの特徴量であればいかなるものであってもよい。たとえば,画像情報内における尖った箇所,ハイライトのポイントなどがある。本明細書では,局所特徴量などの,画像情報内の箇所を特定する特徴量を画像特徴量(位置特定型画像特徴量)という。なお,本明細書の説明では,画像特徴量として,上述のように局所特徴量を用いる場合を説明する。 Further, in order to identify the four vertices of the shelf position for the trapezoidal correction processing in the Nth captured image information, in the above description, the feature points based on the local feature amount in the feature amount collection area 2420 in the N−1th captured image information. Of the feature point by the local feature amount in the feature amount sampling area 2421 in the Nth captured image information and the function F is obtained and used in the N-1th trapezoidal correction process. The process of projecting the coordinates of the vertex C onto the captured image information of the Nth time by the function F and specifying the coordinates of the vertex D for the trapezoidal correction process of the Nth time has been described. However, in such processing, it is sufficient to find the coordinates (position) of the corresponding points of similar image information in the (N-1)th captured image information and the Nth captured image information. However, any feature amount may be used as long as it is a type of feature amount that specifies a location in the image information. For example, there are sharp points and highlight points in the image information. In this specification, a feature amount such as a local feature amount that specifies a location in image information is referred to as an image feature amount (position specific image feature amount). In the description of this specification, the case where the local feature amount is used as the image feature amount as described above will be described.

つぎに,実施例2における台形補正処理を行うための頂点の特定処理を説明する。この場合,任意の陳列棚を撮影した撮影画像情報において台形補正処理を行うための頂点がすでに特定されており,同一の陳列棚について,同一の機会に異なる角度で撮影した撮影画像情報について行う場合を説明する。 Next, the vertex specifying process for performing the trapezoidal correction process according to the second embodiment will be described. In this case, the apex for performing trapezoidal correction processing has already been specified in the captured image information obtained by capturing an arbitrary display shelf, and the captured image information captured at different angles on the same display shelf at the same opportunity Will be explained.

店舗の陳列棚が撮影された撮影画像情報は,撮影画像情報入力端末3から入力され,管理端末2の撮影画像情報入力受付処理部241でその入力を受け付ける。図19に,撮影画像情報の一例を示す。また,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報の入力を受け付ける。そして,撮影画像情報入力受付処理部241は,入力を受け付けた撮影画像情報,撮影日時,店舗識別情報,画像情報識別情報を対応づけて撮影画像情報記憶部20に記憶させる。 The captured image information of the display shelves of the store is input from the captured image information input terminal 3, and the captured image information input reception processing unit 241 of the management terminal 2 receives the input. FIG. 19 shows an example of photographed image information. Further, the input of image information identification information such as shooting date/time, store identification information, and shot image information is accepted. Then, the photographed image information input reception processing unit 241 stores the photographed image information, the photographing date and time, the store identification information, and the image information identification information, which have been input, in the photographed image information storage unit 20 in association with each other.

管理端末2において所定の操作入力を受け付けると,撮影画像情報正置化処理部242は撮影画像情報記憶部20に記憶する撮影画像情報を抽出し,台形補正処理を実行するための,棚位置の頂点D(D1乃至D4)を特定する処理を実行する。 When the management terminal 2 receives a predetermined operation input, the photographed image information normalization processing unit 242 extracts the photographed image information stored in the photographed image information storage unit 20 and determines the rack position for executing the keystone correction process. The process of identifying the vertex D (D1 to D4) is executed.

今回(N回目)の撮影画像情報(図19)に対応する同じまたはほぼ同じ領域を撮影した前回(N−1回目)の撮影画像情報(図20)の頂点座標(たとえば頂点座標C1乃至C4とする)を特定する。前回の撮影画像情報の頂点座標は,撮影日時,店舗識別情報,撮影画像情報の画像識別情報などに基づいて特定をすればよい。 The vertex coordinates (eg, vertex coordinates C1 to C4) of the previous (N-1)th captured image information (FIG. 20) of capturing the same or almost the same area corresponding to the captured image information of this time (Nth) (FIG. 19). Specify). The vertex coordinates of the last captured image information may be specified based on the capturing date and time, the store identification information, the image identification information of the captured image information, and the like.

撮影画像情報正置化処理部242は,撮影画像情報記憶部20からN−1回目の撮影画像情報を抽出し,それぞれの頂点C1乃至C4について,頂点を一つずつ含む所定の大きさの矩形領域を特徴量採取領域2420として,N−1回目の撮影画像情報に設定する。N−1回目の撮影画像情報に特徴量採取領域2420を設定した状態を図20に示す。 The captured image information normalization processing unit 242 extracts the captured image information of the (N-1)th time from the captured image information storage unit 20, and for each of the vertices C1 to C4, a rectangle of a predetermined size including one vertex. The region is set as the feature amount collection region 2420 and set in the (N-1)th captured image information. FIG. 20 shows a state in which the feature amount collection area 2420 is set in the (N-1)th captured image information.

また,撮影画像情報正置化処理部242は,撮影画像情報記憶部20からN回目の撮影画像情報(図19)を抽出し,N−1回目の特徴量採取領域2420よりも広い範囲の特徴量採取領域2421を,N回目の撮影画像情報に設定する。N回目の撮影画像情報に特徴量採取領域2421を設定した状態を図21に示す。N回目の撮影画像情報におけるそれぞれの特徴量採取領域2421は,N−1回目の特徴量採取領域2420を一つずつ含む。図21では,N回目の特徴量採取領域2421に,N−1回目の特徴量採取領域2420を示すことで,その包含関係を示している。 Further, the photographed image information normalization processing unit 242 extracts the Nth photographed image information (FIG. 19) from the photographed image information storage unit 20 and features in a wider range than the N-1th feature amount collection area 2420. The volume sampling area 2421 is set to the Nth captured image information. FIG. 21 shows a state in which the feature amount collection area 2421 is set in the Nth captured image information. Each feature amount collection area 2421 in the Nth captured image information includes one N-1th feature amount collection area 2420. In FIG. 21, the N-th feature amount collection area 2421 is shown as the (N-1)th feature amount collection region 2420 to show the inclusion relation.

そして撮影画像情報正置化処理部242は,N−1回目の撮影画像情報に対して設定した各特徴量採取領域2420において局所特徴量を採取し,局所特徴量による特徴点と座標のセットとを記憶する。また,N回目の撮影画像情報に対して設定した各特徴量採取領域2421において局所特徴量を採取し,局所特徴量による特徴点と座標のセットとを記憶する。 Then, the captured image information normalization processing unit 242 collects the local feature amount in each feature amount collection area 2420 set for the (N-1)th captured image information, and sets a set of feature points and coordinates according to the local feature amount. Memorize In addition, local feature quantities are collected in each feature quantity collection area 2421 set for the Nth captured image information, and a set of feature points and coordinates based on the local feature quantities is stored.

撮影画像情報正置化処理部242は,N−1回目の撮影画像情報の特徴量採取領域2420での各特徴点の各局所特徴量にもっとも近いN回目の撮影画像情報の特徴量採取領域2421での局所特徴量の特徴点を特定し,それらをペアとなる局所特徴量の特徴点として,それぞれの座標を対応付ける。図17に示すのがN−1回目のN−1回目の特徴量採取領域2420と,N回目の特徴量採取領域2421とのペアの関係である。 The captured image information orthotopicization processing unit 242 uses the feature amount collection area 2421 of the Nth captured image information closest to each local feature amount of each feature point in the feature amount collection area 2420 of the N−1th captured image information. The feature points of the local feature quantity at are identified, and the coordinates are associated with each other as the feature point of the local feature quantity forming a pair. FIG. 17 shows a pair relationship between the (N-1)th N-1th feature amount collection area 2420 and the Nth feature amount collection area 2421.

そして,N−1回目の特徴量採取領域2420における局所特徴量による特徴点の点群をA,N回目の特徴量採取領域2421における局所特徴量による特徴点の点群をB,N−1回目の台形補正処理に用いた頂点をC(C1乃至C4)とすると,撮影画像情報正置化処理部242は,点群Aと点群Bの座標とに基づいて,点群Aを点群Bに射影する関数F(透視変換・ホモグラフィー)を求める。 Then, the point cloud of feature points by the local feature quantity in the N-1th feature quantity collection area 2420 is A, the point cloud of feature points by the local feature quantity in the Nth feature quantity collection area 2421 is B, and the N-1th time. Assuming that the vertices used for the trapezoidal correction processing of C are C (C1 to C4), the captured image information orthotopic processing unit 242 determines the point group A to the point group B based on the coordinates of the point group A and the point group B. A function F (perspective transformation/homography) that is projected onto is obtained.

そして撮影画像情報正置化処理部242は,N−1回目の台形補正処理で用いた頂点C(C1乃至C4)の座標を,求めた関数Fに基づいて射影し,N回目の台形補正処理のための頂点D(D1乃至D4)の座標として特定する。 Then, the captured image information normalization processing unit 242 projects the coordinates of the vertices C (C1 to C4) used in the (N-1)th keystone correction processing based on the obtained function F, and performs the Nth keystone correction processing. Is specified as the coordinates of the vertex D (D1 to D4).

以上の処理を各特徴量採取領域2420,2421に対して行うことで,N回目の台形補正処理のための4頂点D(D1乃至D4)が自動的に特定できる。特定したN回目の頂点D(D1乃至D4)の座標は,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報に対応づけて記憶させる。特定された頂点D1乃至D4を示すのが図22である。 By performing the above processing on each of the feature amount collection areas 2420 and 2421, the four vertices D (D1 to D4) for the Nth trapezoidal correction processing can be automatically specified. The specified coordinates of the N-th vertex D (D1 to D4) are stored in association with the shooting date/time, the store identification information, and the image information identification information of the shot image information. FIG. 22 shows the identified vertices D1 to D4.

以上のようにして,N回目の撮影画像情報に対する台形補正処理のための棚位置の頂点D(D1乃至D4)を特定すると,撮影画像情報正置化処理部24222は,頂点D(D1乃至D4)に基づいて,N回目の撮影画像情報に対して台形補正処理を実行する。 As described above, when the vertices D (D1 to D4) of the shelf position for the trapezoidal correction processing for the Nth captured image information are specified, the captured image information normalization processing unit 24222 determines that the vertices D (D1 to D4). ), the trapezoidal correction process is performed on the Nth captured image information.

以上のような処理を実行することで,二回目以降の台形補正処理について,台形補正処理で用いる4頂点を指定せずとも,対応する頂点を自動的に特定することができるようになり,担当者の負担を軽減することができる。 By performing the above processing, it becomes possible to automatically identify the corresponding vertices for the second and subsequent trapezoidal correction processes without specifying the four vertices used in the trapezoidal correction process. The burden on the person can be reduced.

さらに実施例1のフェイス特定処理部245におけるフェイスの特定処理の変形例を説明する。本実施例では,実施例1のフェイスの特定処理を初回の処理として,二回目以降のフェイスの特定処理として,自動的にフェイスを特定する処理を行うようにしてもよい。この場合の処理を説明する。 Further, a modified example of the face identification processing in the face identification processing unit 245 of the first embodiment will be described. In the present embodiment, the face identifying process of the first embodiment may be performed as the first process, and the face identifying process may be automatically performed as the second and subsequent face identifying processes. The processing in this case will be described.

なお,初回とは一回目のほか,自動的に特定する際のずれを修正するため,任意のタイミングで実施例1の処理を行う場合も含まれる。二回目以降とは初回以外である。また,二回目以降には,同一の陳列棚を同一の機会に撮影した撮影画像情報,正置画像情報について,異なる角度で撮影した撮影画像情報,正置画像情報に対する処理を行う場合も含まれる。 In addition to the first time, the case of performing the process of the first embodiment at an arbitrary timing is also included in order to correct the deviation in the automatic identification. The second and subsequent times are other than the first time. In addition, the second and subsequent times also include the case where the processing is performed on the captured image information and the normal image information obtained by capturing the same display shelf at the same opportunity on the same occasion. ..

フェイス特定処理部245は,実施例1の処理と同様の処理を初回のフェイスの特定処理として実行する。そして,フェイス特定処理部245における二回目以降のフェイスの特定処理は,同一の陳列棚の同一の棚段について,前回(N−1回目)の正置画像情報で特定したフェイスの領域の座標を抽出し,その座標を今回(N回目)の正置画像情報で特定したフェイスの領域の座標とする。 The face identification processing unit 245 executes the same processing as that of the first embodiment as the initial face identification processing. Then, in the second and subsequent face identification processes in the face identification processing unit 245, the coordinates of the face area identified by the previous (N-1)th fixed image information are set for the same shelf of the same display shelf. The extracted coordinates are used as the coordinates of the area of the face specified by the current (N-th) orthographic image information.

フェイスの領域の座標は,棚段の位置の座標と同様に,正置画像情報における,陳列棚内での所定箇所(たとえば陳列棚の左上の頂点C1)を基準とした相対座標である。 The coordinates of the face area are, like the coordinates of the positions of the shelves, relative coordinates based on a predetermined position in the display shelf (for example, the top left apex C1 of the display shelf) in the normal image information.

さらに実施例1の変形例として,識別情報特定処理部246における,陳列棚の棚段ごとに,フェイスに表示されている商品の商品識別情報を特定する処理として,実施例1の処理を初回の商品識別情報の特定処理とし,二回目以降の商品識別情報の特定処理として,以下のような処理を実行する。 Further, as a modified example of the first embodiment, the processing of the first embodiment is performed as the processing in the identification information specifying processing unit 246 for specifying the product identification information of the product displayed on the face for each shelf of the display shelf. The following process is executed as the product identification information identification process and the product identification information identification process from the second time onward.

識別情報特定処理部246は,N回目の正置画像情報におけるフェイスの商品識別情報の特定処理は,まず処理対象となるフェイスのフェイス識別情報を特定する。特定したフェイス識別情報をXとする。そして,N回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と,フェイス識別情報Xに対応する位置にあるN−1回目の正置画像情報における領域の画像情報とを比較する。類似性の判定については,上述の実施例1乃至実施例3の処理のほか,各フェイスの領域の画像情報のシグネチャ(画像特徴量と重みの集合)同士のEMDを求め,類似性の尺度とすることができる。シグネチャの画像特徴量としては,たとえばフェイス領域の画像情報のHSV色空間内の頻度分布を求め,色相と彩度に関してグルーピングを行って,特徴の個数とHSV色空間内の領域による画像特徴量とすることができる。色相と彩度についてグルーピングを行うのは,撮影条件に大きく左右されないように,明度への依存度を下げるためである。 The identification information identification processing unit 246 first identifies the face identification information of the face to be processed in the identification process of the product identification information of the face in the Nth normal image information. Let X be the identified face identification information. Then, the image information of the area of the face identification information X in the Nth normal image information is compared with the image information of the area in the N-1th normal image information at the position corresponding to the face identification information X. To determine the similarity, in addition to the processing of the above-described first to third embodiments, the EMD between the signatures (the set of image feature amounts and weights) of the image information of the area of each face is obtained, and the similarity measure is obtained. can do. As the image feature amount of the signature, for example, the frequency distribution of the image information of the face region in the HSV color space is obtained, and the hue and saturation are grouped to determine the number of features and the image feature amount of the region in the HSV color space. can do. The reason for grouping the hue and the saturation is to reduce the dependence on the lightness so as not to be largely influenced by the shooting conditions.

また,処理の高速化のため,シグネチャとEMDの代わりに,適宜の色空間内での画像情報の色コリログラムや色ヒストグラムなどの画像特徴量間のL2距離等の類似性を用いることもできる。 Further, in order to speed up the processing, instead of the signature and the EMD, the similarity such as the L2 distance between the image feature amounts such as the color correlogram and the color histogram of the image information in an appropriate color space can be used.

フェイス領域の画像情報の類似性が一定の閾値以上であれば,N−1回目の正置画像情報におけるその領域のフェイスに対応する商品識別情報の候補を識別情報候補記憶部22から抽出し,N回目の正置画像情報におけるフェイス識別情報Xの商品識別情報の候補とする。これによって,処理対象となるN回目の正置画像情報におけるフェイス識別情報Xの商品識別情報の候補を特定できる。もし類似性が一定の閾値未満であれば,初回の場合と同様に,N回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と,標本情報記憶部21に記憶する標本情報とを比較して,類似性が所定の閾値以上で,かつ,もっとも類似性が高い商品識別情報を,N回目の正置画像情報におけるフェイス識別情報Xのフェイスの商品識別情報の候補として特定をする。 If the similarity of the image information of the face area is equal to or more than a certain threshold value, the product identification information candidates corresponding to the face of the area in the N-1th fixed image information are extracted from the identification information candidate storage unit 22, The face identification information X in the Nth normal image information is used as a candidate for the product identification information. As a result, it is possible to identify a candidate for the product identification information of the face identification information X in the Nth normal image information to be processed. If the similarity is less than a certain threshold value, as in the case of the first time, the image information of the area of the face identification information X in the Nth normal image information and the sample information stored in the sample information storage unit 21 are obtained. By comparison, the product identification information whose similarity is greater than or equal to a predetermined threshold value and which has the highest similarity is specified as a candidate for the product identification information of the face of the face identification information X in the Nth normal image information.

なお,N−1回目の正置画像情報におけるフェイスの領域の画像情報との比較において,対応するフェイスの位置との比較のみならず,所定範囲のフェイスを比較対象として含めてもよい。たとえばN回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と比較する場合,比較対象としては,N−1回目の正置画像情報におけるフェイス識別情報Xの領域のほか,その領域から所定範囲にあるフェイスの領域,たとえばその左右方向に一または複数離隔している位置にあるフェイス,上下の棚段に位置するフェイスの領域も含めてもよい。さらに,N−1回目の正置画像情報におけるフェイス識別情報Xの領域のほか,フェイス識別情報X−2,X−1,X,X+1,X+2のように,複数の隣接するフェイスの領域を含めてもよい。 In comparison with the image information of the area of the face in the N-1th normal position image information, not only the comparison with the position of the corresponding face but also a face within a predetermined range may be included as a comparison target. For example, when comparing with the image information of the area of the face identification information X in the Nth normal position image information, the comparison target is the area of the face identification information X in the N-1th normal position image information, and from that area. Areas of faces within a predetermined range, for example, faces at positions separated by one or more in the left-right direction, and face areas at upper and lower shelves may be included. Further, in addition to the area of the face identification information X in the N-1th fixed image information, a plurality of adjacent face areas such as face identification information X-2, X-1, X, X+1, X+2 are included. May be.

この場合,N回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と,N−1回目の正置画像情報における,比較対象となる範囲のフェイスの範囲の領域のそれぞれの画像情報とを比較し,もっとも類似性が高いN−1回目の正置画像情報のフェイス識別情報を特定する。なお,類似性は一定の閾値以上であることを条件としてもよい。そして特定したN−1回目の正置画像情報のフェイス識別情報に対応する商品識別情報の候補を識別情報候補記憶部22から抽出し,N回目の正置画像情報におけるフェイス識別情報Xの商品識別情報の候補とする。この処理を模式的に示すのが図23である。図23(a)は前回(N−1回目)の正置画像情報であり,図23(b)は今回(N回目)の正置画像情報である。そして,N回目の正置画像情報の棚段1の各フェイスの領域の画像情報と,N−1回目の正置画像情報の棚段1の各フェイスの領域の画像情報とをそれぞれ比較することで類似性を判定し,もっとも類似性が高いN−1回目の正置画像情報の棚段1のフェイスの商品識別情報の候補を,N回目の正置画像情報の棚段1のフェイスの商品識別情報の候補として特定をすることを示す。図23では,N回目の正置画像情報のフェイスに対応する位置にあるN−1回目の正置画像情報のフェイスに加え,その左右2つずつのフェイスとの比較を行う場合を示している。なお同一棚段のみならず,上下の棚段のフェイス位置の画像情報との比較を行ってもよい。たとえば図23の場合,N回目の正置画像情報の棚段2の中心のフェイス位置の商品識別情報の候補を特定する際に,N−1回目の正置画像情報の棚段2の中心およびその左右2つずつのフェイスの領域の画像情報と比較するのみならず,N−1回目の正置画像情報の棚段1の中心およびその左右2つずつのフェイスの領域の画像情報,N−1回目の正置画像情報の棚段3の中心およびその左右2つずつのフェイスの領域の画像情報と類似性の比較を行ってもよい。 In this case, the image information of the area of the face identification information X in the Nth normal image information, and the image information of each area of the face range of the comparison target in the N-1th normal image information. Are compared, and the face identification information of the N-1th orthotopic image information having the highest similarity is specified. The similarity may be a condition that it is equal to or more than a certain threshold. Then, a product identification information candidate corresponding to the identified face identification information of the N-1th normal image information is extracted from the identification information candidate storage unit 22, and the product identification of the face identification information X in the Nth normal image information is performed. Make it a candidate for information. FIG. 23 schematically shows this processing. FIG. 23A shows the last (N-1)th fixed image information, and FIG. 23B shows the current (Nth) fixed image information. Then, the image information of the area of each face of the shelf 1 of the Nth normal image information is compared with the image information of the area of each face of the shelf 1 of the N-1th normal image information. The similarity is determined with, and the product identification information candidate of the face of the shelf 1 of the N-1th normal image information having the highest similarity is identified as the product of the face of the shelf 1 of the Nth normal image information. Indicates that identification is performed as a candidate for identification information. In FIG. 23, a case is shown in which, in addition to the face of the (N-1)th regular image information at the position corresponding to the face of the Nth regular image information, two faces on the left and right sides of the face are compared. .. It should be noted that not only the same shelf but also the image information of the face positions of the upper and lower shelves may be compared. For example, in the case of FIG. 23, when specifying the candidate of the product identification information of the face position at the center of the shelf 2 of the Nth normal image information, the center of the shelf 2 of the N-1th normal image information and Not only is it compared with the image information of the two face areas on the left and right sides, but also the image information of the center of the shelf 1 of the N-1th fixed image information and the image information of the two face areas on the left and right sides, N- The similarity may be compared with the image information of the center of the shelf 3 of the first normal image information and the image information of two face regions on the left and right sides thereof.

N−1回目の正置画像情報のフェイスの画像情報との比較の結果,類似性が閾値を充足しないなどによって商品識別情報の候補を特定できなかった場合には,N回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と,標本情報記憶部21に記憶する標本情報とを比較して,類似性が所定の閾値以上で,かつ,もっとも類似性が高い商品識別情報を,N回目の正置画像情報におけるフェイス識別情報Xのフェイスの商品識別情報の候補として特定をする。この場合の類似性の判定処理は,初回の商品識別情報の特定処理と同様に行える。 As a result of the comparison of the N-1th normal image information with the face image information, if the product identification information candidate cannot be specified because the similarity does not satisfy the threshold value, the Nth normal image information. The image information in the area of the face identification information X in the above is compared with the sample information stored in the sample information storage unit 21, and the product identification information whose similarity is equal to or higher than a predetermined threshold value and which has the highest similarity is N. It is specified as a candidate of the product identification information of the face of the face identification information X in the normal image information for the first time. The similarity determination process in this case can be performed in the same manner as the initial product identification information identification process.

以上のようにして特定した商品識別情報の候補は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報に対応づけて識別情報候補記憶部22に記憶する。 The candidate product identification information identified as described above corresponds to the shooting date/time information, the shop information, the image information identification information of the shot image information, the image identification information of the upright image information, and the face identification information for identifying the face. It is also stored in the identification information candidate storage unit 22.

実施例1乃至実施例4では,同一の陳列棚を同一の機会に異なる角度で撮影した画像情報のそれぞれにおいて,フェイスにおける商品識別情報の候補を特定し,対応するフェイス同士を比較することで,当該フェイスにおける商品識別情報を確定した。本実施例では,異なる角度で撮影した画像情報のそれぞれについてフェイスにおける商品識別情報の候補を特定するのではなく,異なる角度で撮影した画像情報を先に合成して光等の写り込み部分を消し込んだ上で得られた一枚の画像情報に対して,フェイスにおける商品識別情報の特定処理を実行する場合を説明する。この場合の画像認識システム1のシステム構成のブロック図の一例を図24および図25に示す。 In each of the first to fourth embodiments, by identifying the candidate of the product identification information on the face and comparing the corresponding faces with each other in each of the image information of the same display shelf taken at the same opportunity at different angles. The product identification information on the face is confirmed. In this embodiment, the candidates of the product identification information on the face are not specified for each of the image information captured at different angles, but the image information captured at different angles is first combined to eliminate the reflected portion such as light. A case will be described in which the identification processing of the product identification information on the face is performed on the one piece of image information obtained by incorporating. An example of a block diagram of the system configuration of the image recognition system 1 in this case is shown in FIGS. 24 and 25.

本実施例の画像認識システム1においては,撮影画像情報記憶部20と標本情報記憶部21と識別情報記憶部23と画像情報処理部24とを有する。撮影画像情報記憶部20,標本情報記憶部21,識別情報記憶部23は,実施例1乃至実施例4と同様の構成である。 The image recognition system 1 of the present embodiment includes a photographed image information storage unit 20, a sample information storage unit 21, an identification information storage unit 23, and an image information processing unit 24. The photographed image information storage unit 20, the sample information storage unit 21, and the identification information storage unit 23 have the same configurations as those in the first to fourth embodiments.

画像情報処理部24は,撮影画像情報入力受付処理部241と撮影画像情報正値化処理部と棚段位置特定処理部243と棚段領域切出処理部244とフェイス特定処理部245と識別情報特定処理部246と棚段画像マッチング処理部247と画像情報加工処理部248とを有する。 The image information processing unit 24 includes a captured image information input reception processing unit 241, a captured image information positive value conversion processing unit, a shelf position specifying processing unit 243, a shelf area cutout processing unit 244, a face specifying processing unit 245, and identification information. It has a specific processing unit 246, a shelf image matching processing unit 247, and an image information processing unit 248.

撮影画像情報入力受付処理部241と撮影画像情報正値化処理部とは実施例1乃至実施例4と同様の処理を実行する。すなわち,撮影画像情報入力受付処理部241は,撮影画像情報入力端末3で撮影した店舗の陳列棚の画像情報(撮影画像情報)の入力を受け付け,撮影画像情報記憶部20に記憶させる。また,撮影画像情報正置化処理部242は,撮影画像情報記憶部20に記憶した撮影画像情報に対して台形補正処理を実行して正置化した,正置画像情報を生成する。 The captured image information input acceptance processing unit 241 and the captured image information positive value conversion processing unit execute the same processing as that in the first to fourth embodiments. That is, the captured image information input reception processing unit 241 receives the input of image information (captured image information) of the display shelf of the store captured by the captured image information input terminal 3 and stores it in the captured image information storage unit 20. Further, the photographed image information emplacement processing unit 242 generates trapezoidal image information in which the photographed image information stored in the photographed image information storage unit 20 is subjected to trapezoidal correction processing to be orthonormalized.

画像情報加工処理部248は,撮影画像情報に基づいて正値化処理を実行した正置画像情報の一部または全部の範囲について,それぞれ一つの画像情報に合成する処理を実行する。すなわち,同一の陳列棚を同一の機会に異なる角度で撮影した各正置画像情報の一部または全部の範囲について,所定の基準単位,たとえば10ピクセルから100ピクセル程度を基準単位としてメッシュで区切る。そして,各メッシュの領域の画像情報の明度の平均値を算出する。この明度の平均値を,異なる角度で撮影した各正置画像情報で対応するメッシュごとに比較し,明度の平均値がもっとも小さい画像情報のメッシュを特定する。この処理をすべてのメッシュについて行う。特定したメッシュの領域の画像情報を一枚の画像情報(加工済正置画像情報)として縦または横方向に並べて合成すれば,光の写り込みによる影響を低減した画像情報を生成することができる。なお,メッシュ領域の画像情報については,明度の平均値に限らず,明度についてのほかの評価基準による指標値を用いて,合成するメッシュを特定すればよい。また,画像情報加工処理部248で処理対象とする画像情報は,それらの画像情報間で,シャッター速度,絞り値等の撮影条件が同一または同等となるように補正されていることが好ましい。撮影条件が相違するまたは同等に補正されていない画像情報間で上述の明度を用いた処理を実行した場合,写り込みがない部分については,明度に基づく指標値が低い(暗い)画像情報が選ばれることとなる。この場合であっても写り込み自体は除去できるが,生成する画像情報全体のコントラスト,明度が低くなる,あるいは荒れが目立つなどの問題が生じやすくなり,認識精度に影響を与える可能性があるからである。 The image information processing unit 248 performs a process of synthesizing a part or the entire range of the orthonormal image information, which is subjected to the positive value conversion process based on the captured image information, into one image information. That is, a part or the whole range of each normal image information obtained by photographing the same display shelf at the same occasion at different angles is divided by a mesh using a predetermined reference unit, for example, about 10 to 100 pixels as a reference unit. Then, the average value of the brightness of the image information in the area of each mesh is calculated. The average value of the lightness is compared for each mesh corresponding to the orthonormal image information captured at different angles, and the mesh of the image information having the smallest average value of the lightness is specified. This process is performed for all meshes. If the image information of the specified mesh region is arranged side by side in the vertical or horizontal direction as one piece of image information (processed normal image information), it is possible to generate image information in which the influence of light reflection is reduced. .. It should be noted that the image information of the mesh area is not limited to the average value of lightness, and the mesh to be combined may be specified by using the index value according to another evaluation standard for lightness. Further, it is preferable that the image information to be processed by the image information processing unit 248 is corrected such that the image information such as the shutter speed and the aperture value is the same or equivalent between the image information. When the above-mentioned processing using lightness is performed between image information that has different shooting conditions or is not corrected equivalently, image information with a low lightness-based index value (dark) is selected for the part without reflection. Will be done. Even in this case, the reflection itself can be removed, but problems such as a decrease in contrast and brightness of the entire image information to be generated or a noticeable roughness are likely to occur, which may affect recognition accuracy. Is.

フェイス特定処理部245と識別情報特定処理部246と棚段画像マッチング処理部247における各処理は,実施例1乃至実施例4と同様であるが,その処理対象は正置画像情報の棚段領域ではなく,画像情報加工処理部248で生成した加工済正置画像情報に対して行う。また,識別情報特定処理部246は,実施例1乃至実施例4ではフェイス領域における商品の商品識別情報の候補を特定し,識別情報候補記憶部22に記憶させていたが,本実施例では,フェイス領域における商品の商品識別情報を特定し,識別情報記憶部23に特定した情報を記憶させる。 The respective processes in the face identification processing unit 245, the identification information identification processing unit 246, and the shelf image matching processing unit 247 are the same as those in the first to fourth embodiments, but the processing target is the shelf region of the normal image information. Instead, the processing is performed on the processed normal image information generated by the image information processing unit 248. Further, the identification information identification processing unit 246 identifies the candidate of the product identification information of the product in the face area in the first to fourth embodiments and stores the candidate in the identification information candidate storage unit 22, but in the present embodiment, The product identification information of the product in the face area is specified, and the specified information is stored in the identification information storage unit 23.

このように加工済正置画像情報に対して処理を実行することで,実施例1乃至実施例4のように,フェイスにおける商品識別情報の候補を特定せずとも,棚段領域の範囲の画像情報について,画像情報加工処理部248による合成処理が実行されるので,棚段領域について光の写り込みによる影響を低減することができる。そのため,精度よく,フェイスにおける商品識別情報を直接特定することができる。 By performing the processing on the processed fixed image information in this way, the image of the range of the shelf area can be obtained without specifying the candidate of the product identification information on the face as in the first to fourth embodiments. Since the image information processing unit 248 performs the combining process on the information, it is possible to reduce the influence of the reflection of light on the shelf area. Therefore, the product identification information on the face can be directly specified accurately.

画像情報加工処理部248における正置画像情報に対する処理は,棚段位置特定処理部243で特定した棚段位置の領域の画像情報,棚段領域切出処理部244で切り出した棚段領域の画像情報に対して実行することが好ましいが,それに限定されず,撮影画像情報正値化処理部で生成した正置画像情報の一部または全体の範囲に対して実行してもよい。 The image information processing unit 248 processes the normal image information by the image information of the area at the shelf position specified by the shelf position specifying processing unit 243 and the image of the shelf area cut out by the shelf area cutting processing unit 244. Although it is preferable to execute it for information, the present invention is not limited to this, and may be executed for a part or the entire range of the orthonormal image information generated by the captured image information positive value conversion processing unit.

つぎに本実施例における処理プロセスの一例を図26および図27のフローチャートを用いて説明する。 Next, an example of the processing process in this embodiment will be described with reference to the flowcharts of FIGS. 26 and 27.

店舗の陳列棚の撮影担当者は,同一の陳列棚について,光等の写り込みが重ならないように,複数の角度から撮影を行う。そして店舗の陳列棚について,同一の機会に異なる角度から撮影された撮影画像情報(図8,図9)は,撮影画像情報入力端末3から入力され,管理端末2の画像情報処理部24における撮影画像情報入力受付処理部241でその入力を受け付ける(S300)。また,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報の入力を受け付ける。そして,撮影画像情報入力受付処理部241は,入力を受け付けた撮影画像情報,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報を対応づけて撮影画像情報記憶部20に記憶させる。 The person in charge of photographing the display shelves of the store photographs the same display shelf from a plurality of angles so that the reflection of light or the like does not overlap. Then, the photographed image information (FIGS. 8 and 9) photographed from different angles at the same opportunity on the display shelf of the store is input from the photographed image information input terminal 3 and photographed by the image information processing unit 24 of the management terminal 2. The image information input reception processing unit 241 receives the input (S300). Further, the input of image information identification information such as shooting date/time, store identification information, and shot image information is accepted. Then, the photographed image information input reception processing unit 241 stores the photographed image information, the photographing date and time, the store identification information, and the image information identification information of the photographed image information, which have been input, in the photographed image information storage unit 20 in association with each other.

管理端末2において所定の操作入力を受け付けると,撮影画像情報正置化処理部242は,撮影画像情報記憶部20に記憶する撮影画像情報を抽出し,台形補正処理を行うための頂点である棚位置(陳列棚の位置)の4点の入力を受け付け,台形補正処理を実行する(S310)。このようにして台形補正処理が実行された撮影画像情報(正置画像情報)の一例が,図10,図11である。 When the management terminal 2 receives a predetermined operation input, the photographed image information normalization processing unit 242 extracts the photographed image information stored in the photographed image information storage unit 20 and performs a trapezoidal correction process on a shelf. Input of four points of position (position of display shelf) is accepted, and keystone correction processing is executed (S310). 10 and 11 show an example of the captured image information (normal image information) on which the trapezoidal correction process is executed in this manner.

そして,正置画像情報に対して,管理端末2において所定の操作入力を受け付けることで,棚段位置特定処理部243は,棚段領域を特定する(S320)。すなわち,正置画像情報における棚段領域の入力を受け付ける。図12および図13が,棚段領域が特定された状態を示す図である。 Then, by receiving a predetermined operation input in the management terminal 2 with respect to the fixed image information, the shelf position specifying processing unit 243 specifies the shelf area (S320). That is, the input of the shelf area in the normal image information is accepted. 12 and 13 are diagrams showing a state in which the shelf area is specified.

以上のようにして,棚段領域を特定すると,棚段領域切出処理部244は,S320で入力を受け付けた棚段の領域に基づいて,正置画像情報から棚段領域の画像情報を切り出す(S330)。 When the shelf area is specified as described above, the shelf area cutout processing unit 244 cuts out the image information of the shelf area from the normal image information based on the shelf area input in S320. (S330).

画像情報加工処理部248は,S330で棚段領域切出処理部244が切り出した棚段領域の画像情報について,加工済正置画像情報生成処理を実行する(S340)。 The image information processing unit 248 executes the processed normal position image information generation process for the image information of the shelf area cut out by the shelf area cutout processing unit 244 in S330 (S340).

まず画像情報加工処理部248は,切り出した棚段領域の正置画像情報に対して,対応する棚段領域ごとに縦,横のサイズが一致または略一致するように,倍率を変更するなどしてサイズをそろえておく。そして,切り出した棚段領域の正置画像情報に対して,所定の基準単位,たとえば10ピクセルごとにメッシュで区切る(S400)。この状態を模式的に示すのが図28である。図28(a)が図12,図28(b)が図13の正置画像情報の棚段領域に対してメッシュ化した状態を示している。 First, the image information processing unit 248 changes the magnification so that the normal image information of the cut out shelf area is matched or substantially matched in vertical and horizontal size for each corresponding shelf area. And arrange the sizes. Then, the normal image information of the cut out shelf area is divided into meshes in predetermined reference units, for example, every 10 pixels (S400). FIG. 28 schematically shows this state. FIG. 28A shows a state in which meshing is performed on the shelf area of the normal image information in FIG. 12 and FIG. 28B in FIG.

そして画像情報加工処理部248は,各メッシュについて,メッシュの領域の画像情報ごとの明度の平均値を算出する(S410)。なお平均値としては単純平均でもよいし,加重平均などでもよく,またメッシュの領域の画像情報ごとの明度に基づく基準値であれば,平均以外の演算による値であってもよい。 Then, the image information processing unit 248 calculates, for each mesh, an average value of brightness for each image information in the area of the mesh (S410). The average value may be a simple average, a weighted average, or the like, and may be a value other than the average as long as it is a reference value based on the brightness of each image information in the area of the mesh.

そして,画像情報加工処理部248は,対応するメッシュごとに,明度の平均値(基準値)を比較し(S420),比較したうち,もっとも明度の小さいメッシュの画像情報を特定する(S430)。図28であれば,図28(a),図28(b)の各正置画像情報において,それぞれの正置画像情報の棚段領域における各メッシュについて,メッシュの領域の画像情報ごとの明度の平均値を算出する。そして,メッシュA1(図28(a))とメッシュA2(図28(b))とが対応するので,メッシュA1の明度の平均値とメッシュA2の明度の平均値とを比較する。たとえばメッシュA1の明度の平均値が小さければ,メッシュA1を特定する。また,メッシュB1(図28(a))とメッシュB2(図28(b))とが対応するので,メッシュB1の明度の平均値とメッシュB2の明度の平均値とを比較する。たとえばメッシュB2の明度の平均値が小さければ,メッシュB2を特定する。このように,対応するメッシュについての明度の比較,特定処理をすべてのメッシュについて行う。 Then, the image information processing unit 248 compares the average value (reference value) of the brightness for each corresponding mesh (S420), and specifies the image information of the mesh having the smallest brightness among the comparisons (S430). In the case of FIG. 28, in each of the normal image information of FIGS. 28(a) and 28(b), for each mesh in the shelf area of the respective normal image information, the brightness of each image information of the mesh area is calculated. Calculate the average value. Since the mesh A1 (FIG. 28(a)) and the mesh A2 (FIG. 28(b)) correspond to each other, the average value of the brightness of the mesh A1 and the average value of the brightness of the mesh A2 are compared. For example, if the average value of the brightness of the mesh A1 is small, the mesh A1 is specified. Since the mesh B1 (FIG. 28(a)) and the mesh B2 (FIG. 28(b)) correspond to each other, the average value of the brightness of the mesh B1 and the average value of the brightness of the mesh B2 are compared. For example, if the average value of the brightness of the mesh B2 is small, the mesh B2 is specified. In this way, the comparison of the brightness of the corresponding meshes and the specific processing are performed for all the meshes.

そして特定したメッシュを縦,横に並べて配置することで,一つの画像情報(加工済正置画像情報)を生成する(S440)。上述の例では,メッシュA1,メッシュB2などが特定されているので,メッシュA1,メッシュB2など,S430の処理で特定したメッシュを縦,横に並べて配置することで,当該棚段領域における一つの画像情報として合成し,生成する。この処理を模式的に示すのが図29である。なお,図29では,わかりやすさのため,図28の棚段領域のうち,最上位の棚段領域に対する処理を一例として示している。 By arranging the identified meshes side by side vertically and horizontally, one piece of image information (processed normal image information) is generated (S440). In the above example, since the meshes A1, B2, etc. are specified, by arranging the meshes A1, B2, etc. specified in the process of S430 side by side vertically and horizontally, one It is synthesized and generated as image information. FIG. 29 schematically shows this processing. Note that, in FIG. 29, for ease of understanding, the processing for the highest shelf area of the shelf areas in FIG. 28 is shown as an example.

以上のような処理を実行することで,棚段領域について光の写り込みを減らした画像情報を生成できる。 By performing the above-described processing, it is possible to generate image information with reduced light reflection in the shelf area.

このように加工済正置画像情報に対して,実施例1乃至実施例4と同様に,フェイス特定処理部245がフェイスの特定処理,識別情報特定処理部246がフェイス単位での商品識別情報の特定処理を実行する(S350,S360)。すなわち,フェイス特定処理部245が,加工済正置画像情報においてフェイスの領域を特定し,識別情報特定処理部246が,標本情報記憶部21に記憶する標本情報と,フェイスの領域における画像情報との画像マッチング処理による商品識別情報の特定処理を実行することで,当該フェイスの領域における商品の商品識別情報を特定する。そして,特定した商品識別情報を,実施例1乃至実施例4と同様に,識別情報記憶部23に記憶させる(S370)。 As described above, the face identification processing unit 245 performs face identification processing, and the identification information identification processing unit 246 displays the product identification information in units of faces with respect to the processed normal image information as in the first to fourth embodiments. Specific processing is executed (S350, S360). That is, the face identification processing unit 245 identifies the face area in the processed normal image information, and the identification information identification processing unit 246 stores the sample information stored in the sample information storage unit 21 and the image information in the face area. The product identification information of the product in the area of the face is specified by executing the product identification information specifying process by the image matching process. Then, the identified product identification information is stored in the identification information storage unit 23 as in the first to fourth embodiments (S370).

なお,本実施例による処理を用いたとしても,すべてのフェイスの商品識別情報を特定できるとは限らない。そこで,特定できていないフェイスについては,商品識別情報の入力を受け付け,入力を受け付けた商品識別情報を,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像情報識別情報,フェイス識別情報に対応づけて,商品識別情報の候補として識別情報候補記憶部22に記憶してもよい。また,特定した商品識別情報の候補の修正処理についても同様に,入力を受け付けてもよい。 Even if the processing according to the present embodiment is used, it is not always possible to specify the product identification information of all faces. Therefore, for a face that cannot be identified, the input of product identification information is accepted, and the product identification information that has been input is used as the shooting date/time, store identification information, image information identification information of captured image information, image information of orthostatic image information. The identification information and face identification information may be associated with each other and stored in the identification information candidate storage unit 22 as candidates for the product identification information. Further, the input of the correction processing of the identified product identification information candidate may be similarly received.

以上のような処理を行うことで,撮影画像情報に写っている陳列棚の棚段に陳列されている商品の商品識別情報を特定することができる。 By performing the above-described processing, it is possible to specify the product identification information of the product displayed on the shelf of the display shelf shown in the photographed image information.

なお本実施例においても,実施例1乃至実施例4における各処理部の変形処理を用いることができる。 Also in this embodiment, the modification process of each processing unit in the first to fourth embodiments can be used.

標本情報記憶部21に記憶する標本情報に,光や周囲の色の写り込みなどがあるとその商品の外観(たとえばパッケージや包装)の画像的特徴(画像特徴量)に影響があるので,画像マッチング処理の精度に影響を与える。そのため,標本情報として用いる画像情報には,光や周囲の色の写り込みによって,商品の本来の色が損なわれないように撮影した画像情報を用いることが好ましい。しかし,商品の外観の形状や素材などによっては,光の反射によって,写り込みが避けがたい場合がある。たとえば,金属製の缶の場合,反射率が高いので照明の光の反射が写真に写り込むことが避けられない。 If the sample information stored in the sample information storage unit 21 includes reflection of light or surrounding colors, the image characteristics (image characteristic amount) of the appearance of the product (for example, package or packaging) will be affected. Affects the accuracy of the matching process. Therefore, it is preferable to use, as the image information used as the sample information, image information captured so that the original color of the product is not damaged by the reflection of light or surrounding colors. However, depending on the shape and material of the appearance of the product, it may be difficult to avoid reflection due to the reflection of light. For example, in the case of a metal can, it is inevitable that the reflection of the light of the illumination is reflected in the photograph because of its high reflectance.

商品の標本情報を撮影するときの写り込み等の外乱を与える要素としては,商品の撮影環境と,商品の外観の形状がある。撮影環境には,照明装置などの光源に加え,商品の背景や商品を載置する面の状態などがある。また商品の外観の形状は,商品の外観を構成する面の方向によって,撮影装置や,照明装置などの光の写り込みを生じる。 Factors that give rise to disturbances such as glare when photographing sample information of a product include the photographing environment of the product and the external shape of the product. In the shooting environment, in addition to the light source such as a lighting device, there are the background of the product and the condition of the surface on which the product is placed. In addition, depending on the direction of the surface that constitutes the appearance of the product, the appearance shape of the product causes reflection of light from a photographing device, a lighting device, or the like.

そこで,本実施例では,写り込みのない標本情報を得るための処理を説明する。本実施例における処理は,実施例1乃至実施例5の標本情報に対しても適用可能である。 Therefore, in this embodiment, a process for obtaining sample information without reflection will be described. The processing in this embodiment can be applied to the sample information in the first to fifth embodiments.

撮影環境による写り込みに対する方法としては,以下の撮影方法を適用できる。 The following shooting methods can be applied as a method for imprinting depending on the shooting environment.

標本情報のゆがみを防止するため,撮影装置での撮影は,商品の水平方向の正対方向から行う。この場合,反射などにより商品の外観に写り込みが生じることは避けがたい場合もあることから,写り込むものが白色や灰色などの特定の色相を持たない平板なものを写り込ませる。具体的には,特定の色相を持たない白色や灰色を背景とし,標本情報とする商品の撮影をする。商品の背景としては,白色や灰色の紙,布などを用いることがよい。そして背景とした白色や灰色の紙,布などは,商品を載置する面にも折り目なく,写り込みの結果が平板になる程度まで,商品の前面にまで広げておく。これによって,撮影環境による写り込みによる影響を軽減できる。 In order to prevent distortion of sample information, shooting with the shooting device is performed from the horizontal facing direction of the product. In this case, it may be unavoidable that the appearance of the product is reflected due to reflection or the like. Therefore, a flat object that does not have a specific hue such as white or gray is reflected. Specifically, a product that is used as sample information is photographed against a background of white or gray that does not have a specific hue. White or gray paper or cloth should be used as the background of the product. The white or gray paper or cloth used as the background should be spread to the front of the product to the extent that the result of reflection is flat, without creases on the surface on which the product is placed. As a result, it is possible to reduce the influence of reflection in the shooting environment.

商品の外観の形状による写り込みに対する方法としては,以下の撮影方法を適用できる。 The following shooting methods can be applied as a method for imprinting on the appearance of the product.

標本情報の撮影対象となる商品について,商品と撮影装置との相対的な位置(たとえば撮影装置で撮影される商品の面と,撮影装置との相対的位置)を変更せずに,商品と照明などの光源との相対的位置(たとえば光源により光が照射される商品の面と,光源との相対的位置)を変更して,商品を複数回撮影する。換言すれば,商品と撮影装置との相対的位置を変更せず,撮影装置と光源との相対的位置を変更して,商品を複数回撮影する。つまり撮影した画像情報において同じ位置,同じ大きさ(サイズ),同じ角度で商品が写るようにし,照明などの光源からの光が商品に異なる角度から照射されるようにして,複数回,撮影を行い,画像認識システム1はその入力を受け付ける。図30に商品を撮影する状態を上方からみた場合の一例を示す。図30(a)は商品の左側から照明を当てて撮影する状態の一例を示す図であり,図30(b)は商品の右側から照明を当てて撮影する状態の一例を示す図である。図30では,撮影装置を挟んで左右2カ所から撮影する場合を示しているが,3カ所以上から撮影をしてもよい。図30では,光源のもっとも撮影装置寄りから出射した光によって,商品の中心軸にもっとも近い箇所に生じる写り込みの光路を破線矢印で示している。この場合,入射光の角度(入射角)と反射光の角度(反射角)とは,商品の面に対する垂線を対称軸として同一となる。 Regarding the product for which the sample information is captured, the product and the illumination are changed without changing the relative position between the product and the image capturing device (for example, the relative position between the surface of the product captured by the image capturing device and the image capturing device). The relative position with respect to the light source (such as the relative position between the surface of the product illuminated by the light source and the light source) is changed, and the product is photographed multiple times. In other words, the relative position between the product and the photographing device is not changed, but the relative position between the photographing device and the light source is changed, and the product is photographed a plurality of times. In other words, in the captured image information, the product is captured at the same position, the same size (size), and the same angle, and the light from the light source such as the illumination is applied to the product from different angles, so that the image is captured multiple times. Then, the image recognition system 1 receives the input. FIG. 30 shows an example of a state in which a product is photographed as seen from above. FIG. 30(a) is a diagram showing an example of a state in which a product is illuminated and illuminated from the left side, and FIG. 30(b) is a diagram showing an example of a state in which a product is illuminated and photographed from the right side. Although FIG. 30 shows a case where images are taken from two places on the left and right sides of the image taking device, the images may be taken from three places or more. In FIG. 30, an optical path of a reflection that occurs at a position closest to the central axis of the product due to the light emitted from the light source closest to the photographing device is indicated by a dashed arrow. In this case, the angle of incident light (incident angle) and the angle of reflected light (reflection angle) are the same with the perpendicular to the surface of the product as the axis of symmetry.

そして,画像認識システム1は,入力を受け付けた複数の画像情報において,写り込みが生じていない部分を切り出して互いに合成することで,適切な標本情報を得る。適切な標本情報は,標本情報記憶部21に記憶される。図31にこの処理を模式的に示す。図31(a)は図30(a)の状態で撮影した画像情報であり,図31(b)は図30(b)の状態で撮影した画像情報であり,図31(c)は,図31(a),(b)の画像情報を合成した適切な標本情報である。すなわち,図30(a)は右側から光を当てて商品を撮影しているので,商品の右側に光の写り込みが発生しやすい。また,図30(b)は左側から光を当てて商品を撮影しているので,商品の左側に光の写り込みが発生しやすい。換言すれば,図31(a)では商品の左側(A)には光の写り込みがなく,図31(b)では商品の右側(B)には光の写り込みがない。そのため,図31(a)の商品の左側(A)の領域の画像情報と,図31(b)の商品の右側(B)の領域の画像情報とをそれぞれ切り出し,一つの画像情報に合成をする(図31(c))。これによって,光の写り込みがない適切な標本情報を合成することができる。 Then, the image recognition system 1 obtains appropriate sample information by cutting out portions of the plurality of input image information that are not reflected and combining them with each other. Appropriate sample information is stored in the sample information storage unit 21. FIG. 31 schematically shows this processing. FIG. 31(a) is image information taken in the state of FIG. 30(a), FIG. 31(b) is image information taken in the state of FIG. 30(b), and FIG. It is appropriate sample information obtained by combining the image information of 31(a) and 31(b). That is, in FIG. 30A, since the product is photographed by shining light from the right side, light is likely to be reflected on the right side of the product. Further, in FIG. 30(b), since the product is photographed by shining light from the left side, light is likely to be reflected on the left side of the product. In other words, there is no light reflection on the left side (A) of the product in FIG. 31(a), and no light reflection on the right side (B) of the product in FIG. 31(b). Therefore, the image information of the area on the left side (A) of the product in FIG. 31(a) and the image information of the area on the right side (B) of the product in FIG. 31(b) are respectively cut out and combined into one image information. (FIG. 31(c)). This makes it possible to synthesize appropriate sample information without the reflection of light.

なお,図30(a),(b)において,入射角と反射角の和α,βは,同一または略同一となることが好ましい。それによって,撮影した画像情報において,商品が画像情報の横方向の中心付近に写るようになっていれば,撮影した画像情報における写り込みが発生していない左半分または右半分同士をそれぞれ切り出して合成すればよいので画像の合成処理が簡単となる。入射角と反射角の和α,βは,同一または略同一の場合,画像情報の合成処理の精度を向上させることができるが,角度α,βは同一または略同一でなくてもよい。 In addition, in FIGS. 30A and 30B, the sums α and β of the incident angle and the reflection angle are preferably the same or substantially the same. As a result, if the photographed image information shows the product near the horizontal center of the image information, the left half or the right half where no reflection in the photographed image information occurs is cut out. Since the images may be combined, the image combining process becomes simple. When the sums α and β of the incident angle and the reflection angle are the same or substantially the same, the accuracy of the image information combining process can be improved, but the angles α and β do not have to be the same or substantially the same.

図30および図31の処理をより具体的に説明すると,以下のようになる。撮影対象となる商品の外観の形状は,一般的には,商品の水平断面図が凸状または略凸状であることから,概略,図32に示す3種類に大別できる。すなわち,箱に入った商品のように,直方体または略直方体の場合(正面が平面)(図32(a)),飲料缶のように,円柱状等であり,側面が垂直である場合(図32(b)),ワインの瓶のように,上部に球面等の曲面があるなど,側面の一部が垂直ではない場合(図32(c))である。便宜的に,図32(a)を第1ケース,図32(b)を第2ケース,図32(c)を第3ケースとする。 The process of FIGS. 30 and 31 will be described more specifically as follows. The external shape of the product to be photographed can be roughly classified into three types shown in FIG. 32, since the horizontal cross-sectional view of the product is generally convex or substantially convex. That is, when the product is a rectangular parallelepiped or a substantially rectangular parallelepiped like a boxed product (the front surface is flat) (Fig. 32(a)), like a beverage can, it is cylindrical and the side faces are vertical (Fig. 32(b)), a case where a part of the side surface is not vertical such as a wine bottle having a curved surface such as a spherical surface (FIG. 32(c)). For convenience, FIG. 32A is a first case, FIG. 32B is a second case, and FIG. 32C is a third case.

図33は,第1のケースを撮影装置で撮影する場合を示す図である。図33(a)は商品を撮影する場合の上方からの図,図33(b)は商品を撮影する場合の側方からの図である。第1のケースの場合,撮影装置を商品に対して正対させ,商品を照らす光が一方向から来るように,照明などの光源は,たとえば1灯とする。そして,照明装置などの光源から出射した光は,商品における撮影装置に正対している面(一点鎖線で示される範囲の反射面)に反射し,撮影装置の焦点に入射する。 FIG. 33 is a diagram showing a case where the first case is photographed by a photographing device. FIG. 33A is a view from above when photographing a product, and FIG. 33B is a side view when photographing a product. In the case of the first case, the light source such as a lighting is, for example, one light so that the photographing device is directly faced to the product and the light illuminating the product comes from one direction. Then, the light emitted from the light source such as the illumination device is reflected on the surface of the product facing the image capturing device (the reflecting surface in the range indicated by the alternate long and short dash line) and enters the focal point of the image capturing device.

そうすると,撮影装置の焦点と商品の反射面の右辺または左辺とを結ぶ直線を,商品の反射面から撮影装置に対する垂線を対称軸として直線を想定した場合,その直線の外側(撮影装置とは反対側)の領域(領域X,領域Y)のいずれかの位置に光源を設置すれば,商品に写り込みは生じない。ここで,撮影装置の焦点と商品の反射面の右辺または左辺とを結ぶ直線と当該垂線とから構成される角度と,領域X,Yの境界線となる線と当該垂線との角度は,入射角と反射角との関係から,ともに角度aである。したがって,領域X,領域Yのいずれか一カ所から撮影をすればよい(合成はしなくてもよい)。あるいは,図33(b)のように,商品の頂部からの水平線と撮影装置から商品の頂部に対する角度bと同一の角度bである直線(水平線を対称軸とした線)よりも上方の領域を領域Zとし,その領域Zに光源を設置して撮影を行う。第1のケースの場合,図33(a)または図33(b)のように撮影をすれば,商品への光源の写り込みはなくなる。 Then, if a straight line connecting the focal point of the photographing device and the right side or the left side of the reflection surface of the product is assumed to be a straight line with the perpendicular line from the reflection surface of the product to the photographing device as the axis of symmetry, the outside of that straight line If the light source is installed at any position of the (side) area (area X, area Y), no reflection occurs in the product. Here, the angle formed by the straight line connecting the focal point of the photographing device and the right side or the left side of the reflecting surface of the product and the perpendicular, and the angle between the line serving as the boundary line between the regions X and Y and the perpendicular are the incident angles. From the relationship between the angle and the reflection angle, both are the angle a. Therefore, it suffices to photograph from either one of the area X and the area Y (it is not necessary to combine the images). Alternatively, as shown in FIG. 33(b), a region above the horizontal line from the top of the product and the straight line (line with the horizontal line as the axis of symmetry) which is the same angle b as the angle b to the top of the product from the imaging device An area Z is set, and a light source is installed in the area Z to take an image. In the case of the first case, if the image is taken as shown in FIG. 33(a) or FIG. 33(b), the light source is not reflected on the product.

図34は,第2のケースを撮影装置で撮影する場合を示す図である。第2のケースにおいては,図34(a)のように,図33(b)の場合と同様に,商品の頂部からの水平線と撮影装置から商品の頂部に対する角度bと同一の角度bである直線(水平線を対称軸とした線)よりも上方の領域を領域Zとし,その領域Zに光源を設置して撮影を行う。そして図34(a)のように撮影できない場合,図34(b)のように撮影を行う。図34(b)は,商品を撮影する場合の上方からの図である。図34(b)では,図30と同様に,商品と撮影装置との相対的な位置(たとえば撮影装置で撮影される商品の面と,撮影装置との相対的位置)を変更せずに,商品と照明などの光源との相対的位置(たとえば光源により光が照射される商品の面と,光源との相対的位置)を変更して,商品を複数回撮影する。そして,それぞれの位置で撮影した画像情報を,それぞれ写り込みのない部分を合成して,標本画像情報とする。 FIG. 34 is a diagram showing a case where the second case is photographed by a photographing device. In the second case, as in FIG. 34(a), as in the case of FIG. 33(b), the angle b is the same as the horizontal line from the top of the product and the angle b from the photographing device to the top of the product. An area above a straight line (a line having a horizontal line as an axis of symmetry) is defined as an area Z, and a light source is installed in the area Z to perform photographing. If the image cannot be captured as shown in FIG. 34(a), the image is captured as shown in FIG. 34(b). FIG. 34B is a view from above when a product is photographed. In FIG. 34(b), similar to FIG. 30, the relative position between the product and the photographing device is not changed (for example, the relative position between the surface of the product photographed by the photographing device and the photographing device), The relative position between the product and a light source such as illumination (for example, the relative position between the surface of the product illuminated by the light source and the light source) is changed, and the product is photographed multiple times. Then, the image information captured at each position is combined with the non-reflective portion to obtain sample image information.

すなわち,照明から出射した光は,商品の反射面で反射し,それが撮影装置の焦点に入射する。そのため,商品の左側の領域(領域X)に照明を設置した場合,その照明から出射した光は商品の左側に写り込みを生じさせ,商品の右側の領域(領域Y)に照明を設置した場合,その照明から出射した光は商品の右側に写り込みを生じさせる。そのため,商品の左側に光源を位置させた場合の画像情報ではその右側を,商品の右側に光源を位置させた場合の画像情報ではその左側を,それぞれ特定し,一つの画像情報に合成して標本情報とする。 That is, the light emitted from the illumination is reflected by the reflecting surface of the product and enters the focal point of the photographing device. Therefore, when the illumination is installed in the area on the left side of the product (area X), the light emitted from the illumination causes reflection on the left side of the product, and the illumination is installed in the area on the right side of the product (area Y). , The light emitted from the illumination causes a reflection on the right side of the product. Therefore, in the image information when the light source is located on the left side of the product, the right side is specified, and in the image information when the light source is located on the right side of the product, the left side is specified and combined into one image information. Use as sample information.

図35は,第3のケースを撮影装置で撮影する場合を示す図である。図35は,図30および図34(b)と同様に,商品と撮影装置との相対的な位置(たとえば撮影装置で撮影される商品の面と,撮影装置との相対的位置)を変更せずに,商品と照明などの光源との相対的位置(たとえば光源により光が照射される商品の面と,光源との相対的位置)を変更して,商品を複数回撮影する。そして,それぞれの位置で撮影した画像情報を,それぞれ写り込みのない部分を合成して,標本画像情報とする。 FIG. 35 is a diagram showing a case where the third case is photographed by a photographing device. 35 is similar to FIGS. 30 and 34(b), the relative position between the product and the photographing device (for example, the surface of the product photographed by the photographing device and the relative position between the photographing device) can be changed. Instead, the relative position between the product and a light source such as illumination (for example, the relative position between the surface of the product illuminated by the light source and the light source) is changed, and the product is photographed multiple times. Then, the image information captured at each position is combined with the non-reflective portion to obtain sample image information.

以上のように,商品の標本情報を撮影する場合には,その商品の外観の形状に応じて,第1のケース乃至第3のケースに対応する撮影方法を適用すればよい。しかし,一般的に商品の外観の形状はさまざまであるから,3つのケースに分類するのではなく,第3のケース(つまり上述の図30,図34(b),図35と同様の撮影方法)を用いることで,汎用的に適用することができる。 As described above, when the sample information of the product is photographed, the photographing method corresponding to the first case to the third case may be applied according to the shape of the appearance of the product. However, since the shapes of the appearances of the products are generally different, the products are not classified into three cases, but the third case (that is, the imaging method similar to those in FIG. 30, FIG. 34B, and FIG. 35 described above). ) Can be used for general purposes.

以上のような撮影方法により商品の標本情報を撮影することで,撮影条件および商品の外観の形状の双方による外乱を軽減した標本情報を得ることができる。 By photographing the sample information of the product by the above-described photographing method, it is possible to obtain the sample information in which the disturbance caused by both the photographing condition and the appearance shape of the product is reduced.

実施例6の変形例として,実施例5の処理を用いてもよい。すなわち,適切な標本情報を生成するために,商品と撮影装置との相対的位置関係を変更せずに,光源の位置を変更して撮影をした複数の画像情報について,実施例5と同様の処理を実行する。具体的には,実施例5のように商品を撮影した複数の画像情報のうち,画像情報の全部または一部(商品を含む領域)をメッシュに区切り,そのメッシュにおける明度の平均値を算出する。そして対応するメッシュごとに,明度の平均値を算出して,もっとも値が小さいメッシュの画像情報を特定する。このように特定したメッシュの画像情報を縦,横に並べて配置することで,適切な標本情報とする。 As a modified example of the sixth embodiment, the process of the fifth embodiment may be used. That is, in order to generate appropriate sample information, a plurality of pieces of image information captured by changing the position of the light source without changing the relative positional relationship between the product and the image capturing apparatus are the same as in the fifth embodiment. Execute the process. Specifically, as in the fifth embodiment, all or a part of the image information (a region including the product) is divided into meshes among a plurality of pieces of image information obtained by photographing the product, and the average value of the brightness in the mesh is calculated. .. Then, the average value of the brightness is calculated for each corresponding mesh, and the image information of the mesh having the smallest value is specified. Appropriate sample information can be obtained by arranging the image information of the mesh thus identified in a vertical and horizontal manner.

本実施例における処理を用いて生成した標本情報は,実施例1乃至実施例5と同様の処理を実行することで,画像情報に写っている商品の商品識別情報を特定するほか,撮影画像情報または正置画像情報と,標本情報とを単純に画像マッチング処理を実行することで,商品識別情報を特定する処理を実行する画像認識システム1のように構成してもよい。 The sample information generated using the processing in this embodiment performs the same processing as that of the first to fifth embodiments to specify the product identification information of the product shown in the image information, and also the captured image information. Alternatively, the image recognition system 1 may be configured to execute the process of specifying the product identification information by simply executing the image matching process between the normal image information and the sample information.

上述の実施例1乃至実施例6では,店舗などの陳列棚に陳列されている商品の商品識別情報を,陳列棚を撮影した画像情報から特定する場合を説明したが,商品の識別情報の特定処理に限らず,画像情報から特定対象物の識別情報を特定する場合にも用いることができる。すなわち,撮影対象物(たとえば特定対象物を複数配置等する物)または特定対象物(識別情報の特定対象となる物)を,同一の機会に複数の角度から撮影した画像情報と,標本情報との類似性を比較することで,画像情報に写っている特定対象物の識別情報を特定する画像認識システム1に適用することができる。その場合の具体的な処理として実施例1乃至実施例6の処理を適用することができる。この場合,陳列棚に対する処理は撮影対象物に対する処理,商品に対する処理は特定対象物に対する処理として読み替えればよい。 In the first to sixth embodiments described above, the case where the product identification information of the product displayed on the display shelf of the store or the like is specified from the image information of the image of the display shelf has been described. However, the identification information of the product is specified. It can be used not only for processing but also for identifying identification information of a specific object from image information. That is, image information (samples in which a plurality of specific objects are arranged, etc.) or specific objects (objects to be specified in the identification information) are taken from a plurality of angles at the same opportunity, and sample information. It can be applied to the image recognition system 1 that identifies the identification information of the specific object shown in the image information by comparing the similarities. As the specific processing in that case, the processing of the first to sixth embodiments can be applied. In this case, the process for the display shelf may be read as the process for the photographing target object, and the process for the product may be read as the process for the specific target object.

本発明の画像認識システム1を用いることによって,光等が画像情報に写り込んでいる場合でも,従来よりも精度よく,商品などの対象物の特定が行える。 By using the image recognition system 1 of the present invention, even when light or the like is reflected in the image information, it is possible to identify an object such as a product more accurately than before.

1:画像認識システム
2:管理端末
3:撮影画像情報入力端末
20:撮影画像情報記憶部
21:標本情報記憶部
22:識別情報候補記憶部
23:識別情報記憶部
24:画像情報処理部
25:識別情報比較処理部
70:演算装置
71:記憶装置
72:表示装置
73:入力装置
74:通信装置
241:撮影画像情報入力受付処理部
242:撮影画像情報正置化処理部
243:棚段位置特定処理部
244:棚段領域切出処理部
245:フェイス特定処理部
246:識別情報特定処理部
247:棚段画像マッチング処理部
248:画像情報加工処理部
2420:N−1回目の画像情報における特徴量採取領域
2421:N回目の画像情報における特徴量採取領域
1: Image recognition system 2: Management terminal 3: Photographed image information input terminal 20: Photographed image information storage unit 21: Specimen information storage unit 22: Identification information candidate storage unit 23: Identification information storage unit 24: Image information processing unit 25: Identification information comparison processing unit 70: arithmetic device 71: storage device 72: display device 73: input device 74: communication device 241: photographed image information input acceptance processing unit 242: photographed image information emplacement processing unit 243: shelf position specification Processing unit 244: Shelf region cutout processing unit 245: Face identification processing unit 246: Identification information identification processing unit 247: Shelf image matching processing unit 248: Image information processing unit 2420: Features in the (N-1)th image information Quantity collection area 2421: Feature quantity collection area in Nth image information

Claims (6)

商品を陳列した陳列棚を複数の角度から撮影した画像情報のそれぞれについて,その画像情報に写っている商品の商品識別情報の候補を特定する画像情報処理部と,
異なる角度で撮影した対応する画像情報において,前記特定した商品識別情報の候補の尤度を用いて前記画像情報に写っている商品の商品識別情報を特定する識別情報比較処理部と,を有しており,
前記識別情報比較処理部は,
前記異なる角度で撮影した対応する画像情報において,前記特定した商品識別情報の候補が複数ある場合,前記尤度を用いて所定の演算をすることで前記商品識別情報を特定する,
ことを特徴とする画像認識システム。
An image information processing unit that specifies a candidate of product identification information of a product shown in the image information for each of the image information of the display shelves displaying the product from a plurality of angles,
In image information corresponding taken at different angles, have a, an identification information comparing unit for identifying the merchandise identification information item that is reflected in the image information using the likelihood of the candidate of the specified merchandise identification information The
The identification information comparison processing unit,
In the corresponding image information captured at different angles, when there are a plurality of candidates for the specified product identification information, the product identification information is specified by performing a predetermined calculation using the likelihood.
An image recognition system characterized by the above.
前記画像情報処理部は,
前記陳列棚を撮影した画像情報に対して正置化処理を実行した画像情報を生成する処理部と,
前記正置化した画像情報に写っている前記陳列棚における一部の領域の画像情報と,商品の標本情報とを比較することで,前記領域に写っている商品の商品識別情報の候補を特定する識別情報特定処理部と,
を有することを特徴とする請求項1に記載の画像認識システム。
The image information processing unit is
A processing unit for generating image information of executing the Sei置 processing the image information obtained by photographing the display shelf,
By comparing the image information of a part of the display shelf in the orthographic image information with the sample information of the product, a candidate for the product identification information of the product shown in the region is identified. An identification information specifying processing unit
The image recognition system according to claim 1, further comprising:
前記識別情報特定処理部は,
前記領域に写っている商品の商品識別情報の候補を特定できなかった場合には,商品識別情報の入力を受け付け,
少なくとも前記商品識別情報の入力を受け付けた領域について,前記識別情報比較処理部における処理を実行せずに,前記受け付けた商品識別情報を,その領域の商品識別情報として特定する,
ことを特徴とする請求項2に記載の画像認識システム。
The identification information identification processing unit,
When the candidate of the product identification information of the product shown in the area cannot be specified, the input of the product identification information is accepted,
For at least the area for which the input of the product identification information is accepted, the accepted product identification information is specified as the product identification information of the area without performing the process in the identification information comparison processing unit.
The image recognition system according to claim 2, wherein:
撮影対象物を複数の角度から撮影した画像情報のそれぞれについて,その画像情報に写っている特定対象物の識別情報の候補を特定する第1の処理部と,
異なる角度で撮影した対応する画像情報において,前記特定した識別情報の候補の尤度を用いて前記画像情報に写っている特定対象物の識別情報を特定する第2の処理部と,
前記第2の処理部は,
前記異なる角度で撮影した対応する画像情報において,前記特定した識別情報の候補が複数ある場合,前記尤度を用いて所定の演算をすることで前記画像情報に写っている特定対象物の識別情報を特定する,
ことを特徴とする画像認識システム。
A first processing unit that specifies candidates for identification information of the specific target imaged in the image information, for each of the image information of the imaged target imaged from a plurality of angles;
A second processing unit that, in corresponding image information captured at different angles, uses the likelihood of the identified identification information candidate to identify the identification information of the specific object shown in the image information;
The second processing unit is
In the corresponding image information captured at the different angles, when there are a plurality of identified identification information candidates, the identification information of the specific target imaged in the image information is obtained by performing a predetermined calculation using the likelihood. Identify,
An image recognition system characterized by the above.
コンピュータを,
商品を陳列した陳列棚を複数の角度から撮影した画像情報のそれぞれについて,その画像情報に写っている商品の商品識別情報の候補を特定する画像情報処理部,
異なる角度で撮影した対応する画像情報において,前記特定した商品識別情報の候補の尤度を用いて前記画像情報に写っている商品の商品識別情報を特定する識別情報比較処理部,として機能させる画像認識プログラムであって,
前記識別情報比較処理部は,
前記異なる角度で撮影した対応する画像情報において,前記特定した商品識別情報の候補が複数ある場合,前記尤度を用いて所定の演算をすることで前記商品識別情報を特定する,
ことを特徴とする画像認識プログラム。
Computer,
An image information processing unit that specifies, for each piece of image information obtained by photographing a display shelf on which products are displayed from a plurality of angles, candidates for product identification information of the product shown in the image information,
An image that functions as an identification information comparison processing unit that identifies the product identification information of the product shown in the image information by using the likelihood of the identified product identification information candidates in the corresponding image information captured at different angles. A recognition program,
The identification information comparison processing unit,
In the corresponding image information captured at different angles, when there are a plurality of candidates for the specified product identification information, the product identification information is specified by performing a predetermined calculation using the likelihood.
An image recognition program characterized by the above.
コンピュータを,
撮影対象物を複数の角度から撮影した画像情報のそれぞれについて,その画像情報に写っている特定対象物の識別情報の候補を特定する第1の処理部,
異なる角度で撮影した対応する画像情報において,前記特定した識別情報の候補の尤度を用いて前記画像情報に写っている特定対象物の識別情報を特定する第2の処理部,として機能させる画像認識プログラムであって,
前記第2の処理部は,
前記異なる角度で撮影した対応する画像情報において,前記特定した識別情報の候補が複数ある場合,前記尤度を用いて所定の演算をすることで前記画像情報に写っている特定対象物の識別情報を特定する,
ことを特徴とする画像認識プログラム。
Computer,
A first processing unit that specifies, for each of image information obtained by shooting the shooting target from a plurality of angles, candidates for identification information of the specific target shown in the image information,
An image that functions as a second processing unit that identifies the identification information of the specific object shown in the image information by using the likelihood of the identified identification information candidates in the corresponding image information captured at different angles. A recognition program,
The second processing unit is
In the corresponding image information captured at the different angles, when there are a plurality of identified identification information candidates, the identification information of the specific target imaged in the image information is obtained by performing a predetermined calculation using the likelihood. Identify,
An image recognition program characterized by the above.
JP2019078184A 2019-04-16 2019-04-16 Image recognition system Active JP6746123B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019078184A JP6746123B2 (en) 2019-04-16 2019-04-16 Image recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019078184A JP6746123B2 (en) 2019-04-16 2019-04-16 Image recognition system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018041332A Division JP6536707B1 (en) 2018-03-07 2018-03-07 Image recognition system

Publications (2)

Publication Number Publication Date
JP2019160328A JP2019160328A (en) 2019-09-19
JP6746123B2 true JP6746123B2 (en) 2020-08-26

Family

ID=67997085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019078184A Active JP6746123B2 (en) 2019-04-16 2019-04-16 Image recognition system

Country Status (1)

Country Link
JP (1) JP6746123B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6875760B1 (en) * 2020-01-29 2021-05-26 株式会社マーケットヴィジョン Filtering processing system
WO2021229754A1 (en) * 2020-05-14 2021-11-18 日本電気株式会社 Product identification device, product identification method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5431429B2 (en) * 2011-09-06 2014-03-05 東芝テック株式会社 Information processing apparatus and program
JP6236825B2 (en) * 2013-03-26 2017-11-29 日本電気株式会社 Vending machine sales product recognition apparatus, sales product recognition method, and computer program
JP2015068668A (en) * 2013-09-27 2015-04-13 株式会社Screenホールディングス Appearance inspection device

Also Published As

Publication number Publication date
JP2019160328A (en) 2019-09-19

Similar Documents

Publication Publication Date Title
CN106952402B (en) A kind of data processing method and device
US9972158B2 (en) Method and device of automatically determining a planogram in vending
US11494573B2 (en) Self-checkout device to which hybrid product recognition technology is applied
JP5818327B2 (en) Method and apparatus for creating image database for 3D object recognition
US20230063197A1 (en) System and method for identifying items
EP3563345B1 (en) Automatic detection, counting, and measurement of lumber boards using a handheld device
WO2019003858A1 (en) Product identification system
JP6746123B2 (en) Image recognition system
JP6458239B1 (en) Image recognition system
JP2019046484A (en) Image recognition system
JP6536707B1 (en) Image recognition system
JP2019185684A (en) Display state determination system
CN110705363B (en) Commodity specification identification method and device
JP6664675B2 (en) Image recognition system
JP6890849B2 (en) Information processing system
JP6737446B2 (en) Product identification system
JP6861421B2 (en) Image processing system
JP2021184281A (en) Verification system
JP2020115380A (en) Commodity specifying system
JP6717769B2 (en) Information processing device and program
JP2020187438A (en) Image processing system
JP6887167B2 (en) Image processing system
JP6966749B2 (en) Image processing system
RU2805760C1 (en) Method and device for retail goods identification
JP7339630B1 (en) Information processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200729

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200729

R150 Certificate of patent or registration of utility model

Ref document number: 6746123

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150