JP6664675B2 - Image recognition system - Google Patents

Image recognition system Download PDF

Info

Publication number
JP6664675B2
JP6664675B2 JP2019078183A JP2019078183A JP6664675B2 JP 6664675 B2 JP6664675 B2 JP 6664675B2 JP 2019078183 A JP2019078183 A JP 2019078183A JP 2019078183 A JP2019078183 A JP 2019078183A JP 6664675 B2 JP6664675 B2 JP 6664675B2
Authority
JP
Japan
Prior art keywords
image information
information
product
identification information
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019078183A
Other languages
Japanese (ja)
Other versions
JP2019160327A (en
Inventor
成吉 谷井
成吉 谷井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Marketvision Co Ltd
Original Assignee
Marketvision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Marketvision Co Ltd filed Critical Marketvision Co Ltd
Priority to JP2019078183A priority Critical patent/JP6664675B2/en
Publication of JP2019160327A publication Critical patent/JP2019160327A/en
Application granted granted Critical
Publication of JP6664675B2 publication Critical patent/JP6664675B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Display Racks (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は,画像情報に写っている商品などの対象物の識別情報の特定を精度よく行うための画像認識システムに関する。   The present invention relates to an image recognition system for accurately specifying identification information of an object such as a product shown in image information.

小売業界においては,商品の陳列状況が商品の販売に影響することが知られている。そのため,商品の製造会社,販売会社としては,自社または他社のどのような商品が店舗に陳列されているのかを把握することで,自社商品の開発戦略,販売戦略につなげることができる。   In the retail industry, it is known that the display status of a product affects the sale of the product. Therefore, as a product manufacturing company or a sales company, knowing what kind of product of the company or another company is displayed in the store can be linked to the development strategy and sales strategy of the product.

一方,その実現のためには,店頭に陳列されている商品の正確な特定が重要である。そこで,店舗の陳列棚を撮影し,その画像情報から陳列されている商品を,人間が手作業で特定をすることが考えられる。この場合,ほぼ正確に商品を特定することができる。しかし,商品の陳列状況を継続的に把握するためには,一定期間ごとにその陳列状況を把握しなければならないが,店舗の陳列棚を撮影した画像情報から毎回,人間が商品を特定するのは負担が大きく,また非効率である。   On the other hand, in order to realize this, it is important to accurately identify products displayed at stores. Therefore, it is conceivable that a display shelf of a store is photographed, and a displayed product is manually specified by a human based on the image information. In this case, the product can be specified almost accurately. However, in order to keep track of the display status of a product, it is necessary to know the display status at regular intervals. However, every time a human identifies a product from image information obtained by photographing a store display shelf. Is burdensome and inefficient.

そこで店舗の陳列棚を撮影した画像情報から,そこに陳列されている商品を自動的に特定し,商品の陳列状況を把握することが求められる。たとえば商品ごとの標本画像をもとに,店舗の陳列棚を撮影した画像に対して画像認識技術を用いる方法がある。これらの従来技術として,たとえば,下記特許文献1乃至特許文献3に示すような技術を用いて,商品の陳列状況を管理するシステムが存在する。   Therefore, it is required to automatically identify the products displayed there from image information obtained by photographing the display shelves of the store, and to grasp the display status of the products. For example, there is a method of using an image recognition technique for an image of a display shelf in a store based on a sample image of each product. As these prior arts, for example, there is a system that manages the display status of commodities by using the technologies described in Patent Documents 1 to 3 below.

また小売業界以外においても,何らかの対象物を撮影し,撮影した画像情報に写っている対象物を特定することが求められる場合もある。   In some cases other than the retail industry, there is a case where it is required to take an image of an object and specify the object in the image information of the imaged object.

特開平5−342230号公報JP-A-5-342230 特開平5−334409号公報JP-A-5-334409 国際公開2012/029548International Publication 2012/029548

特許文献1の発明は,商品をどの陳列棚に陳列すべきかが知識のない者にもできるように支援するシステムである。そのため,実際に陳列されている商品を把握することはできない。また特許文献2は,商品の陳列を支援する棚割支援システムにおいて,商品画像の入力を支援するシステムである。しかし特許文献2のシステムでは,棚割支援システムを利用する際の商品画像の入力を支援するのみであって,このシステムを用いたとしても,実際に陳列されている商品を把握することはできない。   The invention of Patent Literature 1 is a system for assisting a person who does not have knowledge of which display shelf to display a product on. Therefore, it is not possible to grasp the products actually displayed. Patent Document 2 discloses a shelf layout support system that supports display of products, which is a system that supports input of product images. However, the system of Patent Document 2 only supports the input of a product image when using the shelf allocation support system, and even if this system is used, it is not possible to grasp the products actually displayed. .

特許文献3は,陳列棚に空き空間がある場合に,その空き空間に陳列すべき商品を特定したり,陳列棚に陳列すべき商品を置き間違えた場合にそれを通知する発明である。この発明でも,商品と,陳列棚に陳列されている商品との画像マッチング処理を行って,陳列棚に陳列されている商品を特定しているが,認識精度が低いのが実情である。   Patent Literature 3 is an invention in which, when there is an empty space in a display shelf, a product to be displayed in the empty space is specified, or when a product to be displayed on the display shelf is misplaced, the notification is made. In the present invention as well, the product displayed on the display shelf is specified by performing image matching processing between the product and the product displayed on the display shelf, but the recognition accuracy is actually low.

陳列棚を撮影した画像に対して,商品の標本画像をもとに画像認識技術を用いる場合,標本画像と,陳列棚を撮影した画像における商品の陳列部分の部分画像との画像特徴量同士の類似性を利用して商品を認識する。一方,陳列棚を撮影した画像または標本画像においては,商品パッケージの表面が光を反射する場合,店舗内の照明や外光,撮影者や撮影装置などの不要な物体が,撮影装置との位置関係によって商品の表面に写り込む場合がある。このようなことは,本来の画像特徴量を得られないため,画像認識の精度低下に影響を及ぼす要因となる。   When image recognition technology is used for an image of a display shelf based on a sample image of a product, the image feature between the sample image and the partial image of the product display portion in the image of the display shelf is displayed. Recognize a product using similarity. On the other hand, in the image of the display shelf or the specimen image, if the surface of the product package reflects light, unnecessary objects such as lighting and outside light in the store, the photographer and the photographing device may be located at the position of the photographing device. Depending on the relationship, it may be reflected on the surface of the product. Such a factor is a factor that affects the accuracy of image recognition because the original image feature amount cannot be obtained.

また陳列棚に陳列されている商品の特定に限らず,同様の問題は,一般的な対象物を撮影した画像情報から,その対象物を特定する場合にも該当する。そして,上述の各特許文献を用いたとしても,光の写り込み等による課題を解決することはできない。   The same problem applies not only to the identification of the products displayed on the display shelf, but also to the case where the target is specified from image information obtained by photographing a general target. And even if each of the above-mentioned patent documents is used, it is not possible to solve the problem due to reflection of light or the like.

本発明者は上記課題に鑑み,光等が画像に写り込んでいる場合でも,従来よりも精度よく商品などの対象物の識別情報の特定が行える画像認識システムを発明した。   In view of the above problems, the present inventor has invented an image recognition system capable of specifying identification information of an object such as a product with higher accuracy than before even when light or the like is reflected in an image.

請求項1に記載の発明は,商品と撮影装置との相対位置を変更せずに商品と光源との相対位置を変更して撮影した複数の画像情報の一部を切り出して一つの画像情報に合成することで生成した前記商品の標本情報を記憶する標本情報記憶部と,商品を陳列した陳列棚が写っている画像情報の一部または全部と,前記標本情報記憶部に記憶する商品の標本情報とを比較することで,前記陳列棚が写っている画像情報における商品の商品識別情報を特定する識別情報特定処理部と,を有する画像認識システムである。
According to the first aspect of the present invention, a part of a plurality of pieces of image information photographed by changing the relative position between a product and a light source without changing the relative position between the product and a photographing device is cut out into one piece of image information. A sample information storage unit that stores the sample information of the product generated by combining, a part or all of the image information showing the display shelf displaying the product, and a sample of the product that is stored in the sample information storage unit An identification information identification processing unit that identifies the product identification information of the product in the image information in which the display shelf is captured by comparing the information with the information.

比較処理において用いる商品の標本情報は,光等の写り込みがないものを利用することが精度向上につながる。そこで,商品と撮影装置との相対位置を変更せずに光源との相対位置を変更して撮影した複数の画像情報に基づいた商品の標本情報を用いることで,比較処理における精度の向上につなげることができる。   As the sample information of the product used in the comparison processing, the use of information without reflection of light or the like leads to an improvement in accuracy. Therefore, by using the sample information of the product based on a plurality of pieces of image information obtained by changing the relative position of the light source without changing the relative position of the product and the photographing device, it is possible to improve accuracy in the comparison process. be able to.

請求項2に記載の発明は,水平断面が凸状または略凸状である商品と撮影装置との相対位置を変更せずに,前記撮影装置を挟んで左右に位置する光源からそれぞれ照明を当てて撮影した画像情報の入力を受け付け,入力を受け付けた前記画像情報のうち,前記撮影装置を挟んで右側に光源が位置して撮影した画像情報についてはその画像情報の中心線から左側の領域を切り出し,前記撮影装置を挟んで左側に光源が位置して撮影した画像情報についてはその画像情報の中心線から右側の領域を切り出し,前記切り出した左側の領域および右側の領域の画像情報を一つの画像情報に合成することで,前記商品の標本情報を生成する,画像認識システムである。
According to the second aspect of the present invention, illumination is applied from light sources located on the left and right sides of the photographing device without changing the relative position between the product and the photographing device whose horizontal cross section is convex or substantially convex. accepting an input of the captured image information Te, among the image information the input of which is accepted, the image information sources on the right across the imaging device is taken to position the left area from the center line of the image information For image information obtained by cutting out and photographing with the light source positioned on the left side of the photographing device, the right side region is cut out from the center line of the image information, and the image information of the cut out left side region and right side region is combined into one. This is an image recognition system that generates sample information of the product by combining with image information.

比較処理において用いる商品の標本情報は,光等の写り込みがないものを利用することが精度向上につながる。そこで,商品の標本情報は,本発明のように生成することが好ましい。   As the sample information of the product used in the comparison processing, the use of information without reflection of light or the like leads to an improvement in accuracy. Therefore, it is preferable that the sample information of the product is generated as in the present invention.

請求項1に記載の発明は,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,商品と撮影装置との相対位置を変更せずに商品と光源との相対位置を変更して撮影した複数の画像情報の一部を切り出して一つの画像情報に合成することで生成した前記商品の標本情報を記憶する標本情報記憶部を利用するコンピュータを,商品を陳列した陳列棚が写っている画像情報の一部または全部と,前記標本情報記憶部に記憶する商品の標本情報とを比較することで,前記陳列棚が写っている画像情報における商品の商品識別情報を特定する識別情報特定処理部,として機能させる画像認識プログラムのように構成することができる。 The invention described in claim 1 can be realized by causing a computer to read and execute the program of the present invention. That is, the above-described method is performed by changing a relative position between a product and a light source without changing a relative position between a product and a photographing device, cutting out a part of a plurality of pieces of image information captured and combining the pieces of image information into one piece of image information. A computer that uses a sample information storage unit that stores sample information of a product is used to convert a part or all of the image information showing the display shelf displaying the product and the sample information of the product that is stored in the sample information storage unit. By performing the comparison, an image recognition program can be configured to function as an identification information specifying processing unit that specifies product identification information of a product in the image information in which the display shelf is captured.

請求項2に記載の発明は,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,コンピュータに,水平断面が凸状または略凸状である商品と撮影装置との相対位置を変更せずに,前記撮影装置を挟んで左右に位置する光源からそれぞれ照明を当てて撮影した画像情報の入力を受け付ける機能,入力を受け付けた前記画像情報のうち,前記撮影装置を挟んで右側に光源が位置して撮影した画像情報についてはその画像情報の中心線から左側の領域を切り出し,前記撮影装置を挟んで左側に光源が位置して撮影した画像情報についてはその画像情報の中心線から右側の領域を切り出す機能,前記切り出した左側の領域および右側の領域の画像情報を一つの画像情報に合成することで,前記商品の標本情報を生成する機能,を実現させる画像認識プログラムのように構成することができる。
The invention described in claim 2 can be realized by causing a computer to read and execute the program of the present invention. That is, an image obtained by irradiating a computer with illumination from light sources located on the left and right sides of the photographing device without changing the relative positions of the product and the photographing device whose horizontal cross section is convex or substantially convex. A function of accepting input of information, of the image information having received the input, with respect to image information photographed with the light source positioned on the right side of the photographing device, a left region is cut out from a center line of the image information, A function of cutting out the right side area from the center line of the image information with respect to the image information shot with the light source positioned on the left side of the photographing device, and combining the cut out left side area and right side area image information into one image information Thus, the function of generating the sample information of the product can be realized as an image recognition program.

本発明の画像認識システムを用いることによって,光等が画像情報に写り込んでいる場合でも,従来よりも精度よく,商品などの対象物の特定が行える。   By using the image recognition system of the present invention, even when light or the like is reflected in image information, an object such as a product can be specified with higher accuracy than before.

本発明の画像認識システムの構成の一例を模式的に示すブロック図である。1 is a block diagram schematically illustrating an example of a configuration of an image recognition system according to the present invention. 本発明の画像認識システムにおける画像情報処理部の構成の一例を模式的に示すブロック図である。FIG. 2 is a block diagram schematically illustrating an example of a configuration of an image information processing unit in the image recognition system of the present invention. 本発明の画像認識システムで用いるコンピュータのハードウェア構成の一例を模式的に示すブロック図である。FIG. 3 is a block diagram schematically illustrating an example of a hardware configuration of a computer used in the image recognition system of the present invention. 本発明の画像認識システムにおける全体の処理プロセスの一例を示すフローチャートである。5 is a flowchart illustrating an example of an entire processing process in the image recognition system of the present invention. 本発明の画像情報処理部における処理プロセスの一例を示すフローチャートである。5 is a flowchart illustrating an example of a processing process in an image information processing unit according to the present invention. 本発明の識別情報比較処理部における処理プロセスの一例を示すフローチャートである。5 is a flowchart illustrating an example of a processing process in an identification information comparison processing unit according to the present invention. 標本情報記憶部の一例を模式的に示す図である。It is a figure which shows an example of a sample information storage part typically. 店舗の陳列棚について,同一の機会に異なる角度から撮影した撮影画像情報の一例を示す図である。It is a figure which shows an example of the photographic image information which image | photographed the display shelf of a store from the different angle on the same opportunity. 店舗の陳列棚について,同一の機会に異なる角度から撮影した撮影画像情報のほかの一例を示す図である。It is a figure which shows another example of the captured image information which image | photographed about the display shelf of a store from the different angle at the same opportunity. 図8の撮影画像情報について,台形補正処理が実行された正置画像情報の一例を示す図である。FIG. 9 is a diagram illustrating an example of normal image information obtained by performing a trapezoidal correction process on the captured image information of FIG. 8. 図9の撮影画像情報について,台形補正処理が実行された正置画像情報の一例を示す図である。FIG. 10 is a diagram illustrating an example of normal image information obtained by performing a trapezoidal correction process on the captured image information of FIG. 9. 図10の撮影画像情報において,棚段領域が特定された状態を示す図である。FIG. 11 is a diagram illustrating a state where a shelf area is specified in the captured image information in FIG. 10. 図11の撮影画像情報において,棚段領域が特定された状態を示す図である。FIG. 12 is a diagram illustrating a state where a shelf area is specified in the captured image information of FIG. 11. 本発明の画像認識システムにおける代表的な処理の一例のイメージ図である。It is an image figure of an example of the typical processing in the image recognition system of the present invention. N−1回目の撮影画像情報に対して特徴量採取領域を設定した状態の一例を示す図である。FIG. 9 is a diagram illustrating an example of a state in which a feature amount collection area is set for the (N-1) th captured image information; N回目の撮影画像情報に対して特徴量採取領域を設定した状態の一例を示す図である。FIG. 14 is a diagram illustrating an example of a state in which a feature amount collection area is set for Nth captured image information. N−1回目の特徴量採取領域と,N回目の特徴量採取領域とのペアの関係を示す図である。It is a figure which shows the relationship of the pair of the feature-value collection area | region of N-1 time, and the N-th feature-quantity collection area. N−1回目の撮影画像情報における棚位置Cを,関数Fにより,N回目の撮影画像情報における棚位置Dとして射影する状態を示す図である。FIG. 11 is a diagram illustrating a state where a shelf position C in the (N-1) th captured image information is projected as a shelf position D in the Nth captured image information by a function F. 撮影画像情報の一例を示す図である。FIG. 4 is a diagram illustrating an example of captured image information. N−1回目の撮影画像情報に特徴量採取領域を設定した状態を示す図である。FIG. 11 is a diagram illustrating a state in which a feature amount collection area is set in the (N−1) th captured image information. N回目の撮影画像情報に特徴量採取領域を設定した状態を示す図である。FIG. 14 is a diagram illustrating a state in which a feature amount collection area is set in N-th captured image information. N回目の撮影が自乗法において,棚位置D1乃至D4を特定した状態の一例を示す図である。FIG. 13 is a diagram illustrating an example of a state in which shelf positions D1 to D4 are specified in an N-th imaging in the square method; 識別情報特定処理部におけるN回目の処理を模式的に示す図である。It is a figure which shows typically the N-th process in an identification information identification processing part. 実施例5における画像認識システムの構成の一例を模式的に示すブロック図である。FIG. 14 is a block diagram schematically illustrating an example of a configuration of an image recognition system according to a fifth embodiment. 実施例5における画像情報処理部の構成の一例を模式的に示すブロック図である。FIG. 19 is a block diagram schematically illustrating an example of a configuration of an image information processing unit according to a fifth embodiment. 実施例5における画像認識システムの全体の処理プロセスの一例を示すフローチャートである。19 is a flowchart illustrating an example of an overall processing process of an image recognition system according to a fifth embodiment. 実施例5における加工済正置画像情報の生成処理の処理プロセスの一例を示すフローチャートである。19 is a flowchart illustrating an example of a processing process of a process of generating processed normal image information according to the fifth embodiment. 正置画像情報において,所定の基準単位ごとにメッシュで区切った状態の一例を示す図である。FIG. 9 is a diagram illustrating an example of a state in which normal image information is divided into meshes for each predetermined reference unit. 所定の条件を充足することで特定されたメッシュの領域の画像情報を並べて配置することで加工済正置画像情報を生成する処理を模式的に示す図である。It is a figure which shows typically the process which produces | generates processed normal image information by arranging the image information of the area | region of the mesh specified by satisfy | filling a predetermined condition. 商品を撮影する状態を上方からみた場合の一例を示す図である。It is a figure which shows an example when the state which image | photographs goods is seen from above. 撮影した複数の画像情報において,写り込みが生じていない部分を切り出して互いに合成することで,適切な標本情報を生成する処理を模式的に示す図である。FIG. 9 is a diagram schematically illustrating a process of generating appropriate sample information by cutting out portions where no reflection occurs in a plurality of pieces of captured image information and combining them with each other. 標本とする商品の外観の一例を模式的に示す図である。It is a figure which shows an example of the external appearance of the goods used as a sample typically. 商品の外観の形状が第1のケースの場合の撮影方法の一例を示す図である。It is a figure showing an example of the photography method in case the shape of the appearance of the product is the first case. 商品の外観の形状が第2のケースの場合の撮影方法の一例を示す図である。It is a figure showing an example of the photography method in case the appearance of goods is the 2nd case. 商品の外観の形状が第3のケースの場合の撮影方法の一例を示す図である。It is a figure showing an example of a photography method in case the shape of the appearance of goods is the third case.

本発明の画像認識システム1のシステム構成の一例を図1に示す。画像認識システム1は,管理端末2と撮影画像情報入力端末3とを用いる。   FIG. 1 shows an example of a system configuration of the image recognition system 1 of the present invention. The image recognition system 1 uses a management terminal 2 and a captured image information input terminal 3.

管理端末2は,画像認識システム1を運営する企業等の組織が利用するコンピュータである。また,撮影画像情報入力端末3は,店舗の陳列棚を撮影した画像情報の入力を行う端末である。   The management terminal 2 is a computer used by an organization such as a company that operates the image recognition system 1. Further, the photographed image information input terminal 3 is a terminal for inputting image information of a photographed display shelf of a store.

画像認識システム1における管理端末2,撮影画像情報入力端末3は,コンピュータを用いて実現される。図3にコンピュータのハードウェア構成の一例を模式的に示す。コンピュータは,プログラムの演算処理を実行するCPUなどの演算装置70と,情報を記憶するRAMやハードディスクなどの記憶装置71と,情報を表示するディスプレイなどの表示装置72と,情報の入力が可能なキーボードやマウスなどの入力装置73と,演算装置70の処理結果や記憶装置71に記憶する情報をインターネットやLANなどのネットワークを介して送受信する通信装置74とを有している。   The management terminal 2 and the captured image information input terminal 3 in the image recognition system 1 are realized using a computer. FIG. 3 schematically shows an example of a hardware configuration of a computer. The computer includes an arithmetic device 70 such as a CPU for executing arithmetic processing of a program, a storage device 71 such as a RAM or a hard disk for storing information, a display device 72 such as a display for displaying information, and a computer capable of inputting information. It has an input device 73 such as a keyboard and a mouse, and a communication device 74 for transmitting and receiving processing results of the arithmetic device 70 and information stored in the storage device 71 via a network such as the Internet or a LAN.

コンピュータがタッチパネルディスプレイを備えている場合には,表示装置72と入力装置73とが一体的に構成されていてもよい。タッチパネルディスプレイは,たとえばタブレット型コンピュータやスマートフォンなどの可搬型通信端末などで利用されることが多いが,それに限定するものではない。   When the computer has a touch panel display, the display device 72 and the input device 73 may be integrally configured. Touch panel displays are often used in portable communication terminals such as tablet computers and smartphones, for example, but are not limited thereto.

タッチパネルディスプレイは,そのディスプレイ上で,直接,所定の入力デバイス(タッチパネル用のペンなど)や指などによって入力を行える点で,表示装置72と入力装置73の機能が一体化した装置である。   The touch panel display is a device in which the functions of the display device 72 and the input device 73 are integrated in that input can be directly performed on the display by a predetermined input device (such as a touch panel pen) or a finger.

撮影画像情報入力端末3は,上記の各装置のほか,カメラなどの撮影装置を備えていてもよい。撮影画像情報入力端末3として,携帯電話,スマートフォン,タブレット型コンピュータなどの可搬型通信端末を用いることもできる。   The photographed image information input terminal 3 may include a photographing device such as a camera in addition to the above devices. As the captured image information input terminal 3, a portable communication terminal such as a mobile phone, a smartphone, and a tablet computer can be used.

本発明における各手段は,その機能が論理的に区別されているのみであって,物理上あるいは事実上は同一の領域を為していても良い。本発明の各手段における処理は,その処理順序を適宜変更することもできる。また,処理の一部を省略してもよい。たとえば後述する正置化処理を省略することもできる。その場合,正置化処理をしていない画像情報に対する処理を実行することができる。   Each means in the present invention is only logically distinguished in its function, and may physically or virtually have the same area. The processing order in each means of the present invention can be appropriately changed. Further, a part of the processing may be omitted. For example, a normalization process described later can be omitted. In that case, it is possible to execute processing on image information that has not been subjected to normalization processing.

画像認識システム1は,撮影画像情報記憶部20と標本情報記憶部21と識別情報候補記憶部22と識別情報記憶部23と画像情報処理部24と識別情報比較処理部25とを有する。   The image recognition system 1 includes a captured image information storage unit 20, a sample information storage unit 21, an identification information candidate storage unit 22, an identification information storage unit 23, an image information processing unit 24, and an identification information comparison processing unit 25.

撮影画像情報記憶部20は,撮影画像情報入力端末3から受け付けた撮影画像情報,撮影日時,店舗識別情報,画像情報識別情報などを対応づけて記憶する。撮影画像情報とは,台形補正処理を実行する対象となる画像情報であればよく,一つの陳列棚を複数枚で撮影した場合に,それが一つの画像情報として合成された画像情報も含まれる。また,歪み補正処理が実行された後の画像情報も撮影画像情報に含まれる。   The photographed image information storage unit 20 stores the photographed image information received from the photographed image information input terminal 3, the photographing date and time, the shop identification information, the image information identification information, and the like in association with each other. The photographed image information may be image information for which the keystone correction processing is executed, and includes image information obtained by combining a plurality of pieces of one display shelf as one piece of image information. . The image information after the distortion correction processing has been executed is also included in the captured image information.

標本情報記憶部21は,正置画像情報に写っている陳列棚の棚段における各フェイスの商品がどの商品であるかを識別するための標本情報を記憶する。標本情報は,陳列棚に陳列される可能性のある商品を,上下,左右,斜めなど複数の角度から撮影をした画像情報である。図7に標本情報記憶部21に記憶される標本情報の一例を示す。図7では,標本情報として,缶ビールをさまざまな角度から撮影をした場合を示しているが,缶ビールに限られない。標本情報記憶部21は,標本情報と,商品識別情報とを対応付けて記憶する。   The sample information storage unit 21 stores sample information for identifying the product of each face in the shelf of the display shelf shown in the normal image information. The sample information is image information obtained by photographing a product that may be displayed on a display shelf from a plurality of angles such as up, down, left, right, and oblique. FIG. 7 shows an example of the sample information stored in the sample information storage unit 21. FIG. 7 shows a case where canned beer is photographed from various angles as specimen information, but is not limited to canned beer. The sample information storage unit 21 stores sample information and product identification information in association with each other.

なお,標本情報記憶部21には,標本情報とともに,または標本情報に代えて,標本情報から抽出された,類似性の算出に必要となる情報,たとえば画像特徴量とその位置のペアの情報を記憶していてもよい。標本情報には,類似性の算出に必要となる情報も含むとする。この場合,識別情報特定処理部246は,フェイスの領域の画像情報と,標本情報とのマッチング処理を行う際に,標本情報について毎回,画像特徴量を算出せずともよくなり,計算時間を短縮することができる。   The sample information storage unit 21 stores information necessary for calculating similarity, such as information of a pair of an image feature amount and its position, extracted from the sample information together with or instead of the sample information. You may memorize it. It is assumed that the sample information also includes information necessary for calculating the similarity. In this case, when performing the matching process between the image information of the face area and the sample information, the identification information specifying processing unit 246 does not have to calculate the image feature amount for the sample information every time, and shortens the calculation time. can do.

識別情報候補記憶部22は,撮影画像情報ごとに,陳列棚の棚段の各フェイスに表示されている商品の商品識別情報の候補を記憶する。たとえば,商品識別情報の候補に対応付けて,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報に対応づけて識別情報候補記憶部22に記憶する。ここで記憶する商品識別情報の候補は,撮影画像情報ごとに記憶している。そのため,同一の陳列棚について複数の撮影画像情報があるので,同一の陳列棚の棚段の対応するフェイスには,撮影画像情報ごとに特定した商品識別情報の候補が記憶されていることとなる。   The identification information candidate storage unit 22 stores, for each captured image information, a candidate for product identification information of a product displayed on each face of the shelf of the display shelf. For example, in association with a candidate for product identification information, image date / time information, store information, image information identification information of captured image information, image identification information of normal image information, and face identification information for identifying a face are associated. The information is stored in the identification information candidate storage unit 22. The candidates for the product identification information stored here are stored for each piece of captured image information. Therefore, since there are a plurality of pieces of photographed image information for the same display shelf, the product identification information candidates specified for each photographed image information are stored in the corresponding faces of the shelf of the same display shelf. .

識別情報記憶部23は,陳列棚の棚段の各フェイスに表示されている商品の特定(確定)した商品識別情報を記憶する。たとえば,商品識別情報に対応付けて,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報に対応づけて識別情報記憶部23に記憶する。   The identification information storage unit 23 stores the specified (confirmed) product identification information of the product displayed on each face of the shelf of the display shelf. For example, in correspondence with product identification information, identification information in association with shooting date / time information, store information, image information identification information of captured image information, image identification information of normal image information, and face identification information for identifying a face. The information is stored in the storage unit 23.

画像情報処理部24は,撮影画像情報入力端末3から受け付けた撮影画像情報において,その撮影画像情報に写っている陳列棚における棚段に陳列されている商品の商品識別情報の候補を特定する処理を実行する。   The image information processing unit 24 specifies, in the photographed image information received from the photographed image information input terminal 3, a candidate of the commodity identification information of the commodity displayed on the shelf in the display shelf shown in the photographed image information Execute

画像情報処理部24は,撮影画像情報入力受付処理部241と撮影画像情報正置化処理部242と棚段位置特定処理部243と棚段領域切出処理部244とフェイス特定処理部245と識別情報特定処理部246と棚段画像マッチング処理部247とを有する。   The image information processing unit 24 identifies the captured image information input reception processing unit 241, the captured image information normalization processing unit 242, the shelf position identification processing unit 243, the shelf area extraction processing unit 244, and the face identification processing unit 245. It has an information specifying processor 246 and a shelf image matching processor 247.

撮影画像情報入力受付処理部241は,撮影画像情報入力端末3で撮影した店舗の陳列棚の画像情報(撮影画像情報)の入力を受け付け,撮影画像情報記憶部20に記憶させる。撮影画像情報入力端末3からは,撮影画像情報のほか,撮影日時,店舗名などの店舗識別情報,画像情報を識別する画像情報識別情報などをあわせて入力を受け付けるとよい。図8,図9に撮影画像情報の一例を示す。図8,図9では,陳列棚に3段の棚段があり,そこに商品が陳列されている撮影画像情報である。   The photographed image information input reception processing unit 241 receives input of image information (photographed image information) of a display shelf of a store photographed by the photographed image information input terminal 3 and stores the image information in the photographed image information storage unit 20. From the photographed image information input terminal 3, it is preferable to receive input together with photographed date and time, store identification information such as a store name, image information identification information for identifying image information, and the like, in addition to the photographed image information. 8 and 9 show examples of the photographed image information. FIGS. 8 and 9 show captured image information in which there are three shelves on the display shelf, and goods are displayed there.

撮影画像情報正置化処理部242は,撮影画像情報記憶部20に記憶した撮影画像情報に対して台形補正処理を実行して正置化した,正置画像情報を生成する。台形補正処理は,撮影画像情報に写っている陳列棚の棚段が水平に,そこに陳列されている商品に対する商品タグが垂直になるように行う補正処理である。正置化とは,撮影装置のレンズの光軸を撮影対象である平面の垂線方向に沿って,十分に遠方から撮影した場合と同じになるように画像情報を変形させることであり,たとえば台形補正処理がある。   The photographed image information emplacement processing unit 242 performs trapezoidal correction processing on the photographed image information stored in the photographed image information storage unit 20 to generate the imposed image information. The trapezoidal correction process is a correction process performed so that the shelf of the display shelf shown in the captured image information is horizontal and the product tag for the product displayed there is vertical. Normalization is to transform the image information so that the optical axis of the lens of the photographing device is taken along the direction perpendicular to the plane to be photographed so as to be the same as when photographed from a far distance. There is a correction process.

撮影画像情報正置化処理部242が実行する台形補正処理は,撮影画像情報において4頂点の指定の入力を受け付け,その各頂点を用いて台形補正処理を実行する。指定を受け付ける4頂点としては,陳列棚の棚段の4頂点であってもよいし,陳列棚の棚位置の4頂点であってもよい。また,2段,3段の棚段のまとまりの4頂点であってもよい。4頂点としては任意の4点を指定できる。図10および図11に正置化処理がされた撮影画像情報(正置画像情報)の一例を示す。   The trapezoidal correction process executed by the captured image information normalization processing unit 242 receives an input of designation of four vertices in the captured image information, and executes the trapezoidal correction process using each vertex. The four vertices for receiving the designation may be the four vertices of the shelf of the display shelf or the four vertices of the shelf position of the display shelf. Alternatively, four vertices of a set of two or three shelves may be used. Any four points can be designated as the four vertices. FIG. 10 and FIG. 11 show examples of photographed image information (normal image information) on which normalization processing has been performed.

棚段位置特定処理部243は,撮影画像情報または正置画像情報から棚段の領域(棚段領域)を特定する。すなわち,撮影画像情報および正置画像情報に写っている陳列棚には,商品が陳列される棚段領域と,そこに陳列される商品に対する商品タグが取り付けられている商品タグ配置領域とがある。そのため,正置画像情報から棚段領域を特定する。棚段領域の特定としては,管理端末2の操作者が手動で棚段領域を指定し,それを棚段位置特定処理部243が受け付けてもよいし,初回に手動で入力を受け付けた棚段領域の情報に基づいて,二回目以降は自動で棚段領域を特定してもよい。図12,図13に棚段領域が特定された状態を示す。   The shelf position specification processing unit 243 identifies a shelf area (shelf area) from the captured image information or the normal image information. That is, the display shelves shown in the photographed image information and the normal image information include a shelf area where products are displayed and a product tag placement area where product tags for the products displayed there are attached. . Therefore, the shelf area is specified from the normal image information. As for the identification of the shelf area, the operator of the management terminal 2 may manually designate the shelf area, and the shelf position specification processing unit 243 may accept the designation, or the shelf manual that has been manually received for the first time may be used. Based on the area information, the shelf area may be automatically specified for the second and subsequent times. 12 and 13 show a state where the shelf area is specified.

棚段領域切出処理部244は,棚段位置特定処理部243で特定した棚段の領域の画像情報を棚段領域画像情報として切り出す。棚段領域切出処理部244は,実際に,画像情報として切り出してもよいし,実際には画像情報としては切り出さずに,棚段領域を構成する座標を特定することで,仮想的に切り出すのでもよい。なお,陳列棚に棚段が複数ある場合には,それぞれが棚段領域画像情報として切り出される。また棚段の領域を示す座標としては,その領域を特定するために必要な頂点の座標であり,正置画像情報におけるたとえば4点,右上と左下,左上と右下の2点の座標などでよい。また,正置画像情報における陳列棚など,画像情報における所定箇所(たとえば陳列棚の左上の頂点)を基準とした相対座標である。   The shelf area cutout processing section 244 cuts out image information of the area of the shelf identified by the shelf position specifying processing section 243 as shelf area image information. The shelf area cutout processing unit 244 may actually cut out as image information, or virtually cut out by specifying coordinates forming the shelf area without actually cutting out the image information. May be. If the display shelf has a plurality of shelves, each is cut out as shelf area image information. The coordinates indicating the area of the shelf are the coordinates of the vertices required to specify the area, and are, for example, four points in the normal image information, the coordinates of two points of upper right and lower left, upper left and lower right, and the like. Good. Further, the coordinates are relative coordinates with respect to a predetermined location (for example, the upper left vertex of the display shelf) in the image information such as the display shelf in the normal image information.

フェイス特定処理部245は,正置画像情報における棚段領域における棚段ごとに,商品が置かれているフェイス(商品が置かれている領域)を特定する。フェイス特定処理部245は,初回のフェイスの特定処理と,二回目以降のフェイスの特定処理とに分かれる。   The face specification processing unit 245 specifies a face where a product is placed (an area where a product is placed) for each shelf in the shelf area in the normal image information. The face identification processing unit 245 is divided into first face identification processing and second and subsequent face identification processing.

フェイス特定処理部245における初回のフェイスの特定処理は,棚段位置特定処理部243で特定した棚段の座標で構成される領域(好ましくは矩形領域)の範囲内において,商品が置かれている領域(フェイス)を特定する。具体的には,商品と商品との間に生じる細く狭い陰影を特定する,画像の繰り返しパターンを特定する,パッケージの上辺の段差を特定する,商品幅が同一であるなどの制約に基づいて区切り位置を特定する,などによって,フェイスの領域を特定する。フェイスの特定処理としては,商品のカテゴリや商品の形態によって,任意の方法を採用可能であり,上記に限定するものではない。また,自動的に特定したフェイスに対して,担当者による修正入力を受け付けてもよい。さらに,担当者からフェイスの位置の入力を受け付けるのでもよい。特定したフェイスを構成する領域の座標は,正置画像情報におけるフェイスの領域の座標に,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報とを対応づけて管理する。またフェイスの領域を示す座標としては,矩形領域を特定するために必要な頂点の座標であり,正置画像情報におけるたとえば4点,右上と左下,左上と右下の2点の座標などでよい。また,正置画像情報における陳列棚など,画像情報における所定箇所(たとえば陳列棚の左上の頂点)を基準とした相対座標である。   In the first face identification processing by the face identification processing unit 245, commodities are placed within an area (preferably a rectangular area) constituted by the coordinates of the shelf identified by the shelf position identification processing unit 243. Specify the area (face). Specifically, it is used to identify narrow and narrow shadows that occur between products, to specify repetitive patterns of images, to specify steps on the top side of a package, and to divide based on constraints such as the same product width. The face area is specified by specifying the position. As the face identification processing, any method can be adopted depending on the category of the product and the form of the product, and is not limited to the above method. In addition, a correction input by a person in charge may be received for the face automatically specified. Further, the input of the position of the face may be received from the person in charge. The coordinates of the area constituting the identified face are the coordinates of the face area in the normal image information, the shooting date and time information, the store information, the image information identification information of the shooting image information, the image identification information of the normal image information, and the face. The information is managed in association with face identification information for identification. Further, the coordinates indicating the face area are coordinates of vertices necessary for specifying the rectangular area, and may be, for example, four points in the normal image information, coordinates of two points of upper right and lower left, upper left and lower right, and the like. . Further, the coordinates are relative coordinates with respect to a predetermined location (for example, the upper left vertex of the display shelf) in the image information such as the display shelf in the normal image information.

フェイス特定処理部245における二回目以降のフェイスの特定処理は,同一の陳列棚の同一の棚段について,前回(N−1回目)の正置画像情報で特定したフェイスの領域の座標を今回(N回目)の正置画像情報で特定したフェイスの領域の座標とするようにしてもよい。   The face identification processing of the second and subsequent faces by the face identification processing unit 245 is based on the coordinates of the area of the face identified by the previous (N−1) th normal image information for the same shelf on the same display shelf. The coordinates of the face area specified by the (Nth) normal image information may be used.

識別情報特定処理部246は,陳列棚の棚段ごとに,フェイスに表示されている商品の商品識別情報の候補を特定する。商品識別情報としては,商品名のほか,その商品に対して割り当てられているJANコードなどがあるが,それに限定されない。商品を識別することができる情報であればいかなるものでもよい。   The identification information specification processing unit 246 specifies, for each shelf of the display shelf, a candidate for the product identification information of the product displayed on the face. The product identification information includes, but is not limited to, a product name, a JAN code assigned to the product, and the like. Any information may be used as long as it can identify the product.

識別情報特定処理部246は,以下のような処理を実行する。すなわち,フェイスごとに,フェイスの画像情報と,標本情報記憶部21に記憶する商品の標本情報とマッチングすることで,そのフェイスに表示されている商品の商品識別情報の候補を特定する。具体的には,まず,処理対象となるフェイスの座標で構成される領域の画像情報と,標本情報記憶部21に記憶する標本情報との類似性を判定し,その類似性がもっとも高い標本情報に対応する商品識別情報を特定し,上記座標で構成されるフェイスに表示されている商品の商品識別情報の候補として特定をする。   The identification information specifying processing unit 246 performs the following processing. That is, by matching the image information of the face with the sample information of the product stored in the sample information storage unit 21 for each face, the candidate of the product identification information of the product displayed on the face is specified. Specifically, first, the similarity between the image information of the area constituted by the coordinates of the face to be processed and the sample information stored in the sample information storage unit 21 is determined, and the sample information having the highest similarity is determined. Is specified and identified as a candidate for the product identification information of the product displayed on the face constituted by the coordinates.

ここでフェイスの画像情報と標本情報との類似性を判定するには,以下のような処理を行う。まず,識別情報特定処理部246における商品識別情報の候補の特定処理の前までの処理において,正置画像情報の棚段におけるフェイスの領域の画像情報と,標本情報との方向が同じ(横転や倒立していない)となっており,また,それぞれの画像情報の大きさが概略同じとなっている(所定範囲以上で画像情報の大きさが異なる場合には,類似性の判定の前にそれぞれの画像情報の大きさが所定範囲内となるようにサイズ合わせをしておく)。   Here, the following processing is performed to determine the similarity between the image information of the face and the sample information. First, in the processing up to the processing for specifying the candidate of the product identification information in the identification information specifying processing unit 246, the direction of the image information of the face area on the shelf of the normal image information and the direction of the sample information are the same (overturning and And the size of each image information is approximately the same (if the size of the image information is different over a predetermined range, the size of each Are adjusted so that the size of the image information is within a predetermined range).

識別情報特定処理部246は,フェイスの画像情報と,標本情報との類似性を判定するため,フェイスの画像情報の画像特徴量(たとえば局所特徴量)に基づく特徴点と,標本情報との画像特徴量(たとえば局所特徴量)に基づく特徴点を,それぞれ抽出する。そして,フェイスの画像情報の特徴点と,標本情報の特徴点とでもっとも類似性が高いペアを検出し,それぞれで対応する点の座標の差を求める。そして,差の平均値を求める。差の平均値は,フェイスの画像情報と,標本情報との全体の平均移動量を示している。そして,すべての特徴点のペアの座標差を平均の座標差と比較し,外れ度合いの大きなペアを除外する。そして,残った対応点の数で類似性を順位付ける。   The identification information specifying processing unit 246 determines the similarity between the image information of the face and the sample information by using a feature point based on the image feature amount (for example, a local feature amount) of the image information of the face and the image of the sample information. Feature points based on feature amounts (for example, local feature amounts) are respectively extracted. Then, a pair having the highest similarity between the feature points of the image information of the face and the feature points of the sample information is detected, and the difference between the coordinates of the corresponding points is calculated. Then, an average value of the differences is obtained. The average value of the difference indicates the average moving amount of the entire image information of the face and the sample information. Then, the coordinate difference between all feature point pairs is compared with the average coordinate difference, and pairs having a large degree of deviation are excluded. Then, similarity is ranked according to the number of remaining corresponding points.

以上のような方法でフェイスの画像情報と,標本情報との類似性を算出できる。また,その精度を向上させるため,さらに,色ヒストグラム同士のEMD(Earth Movers Distance)を求め,類似性の尺度としてもよい。これによって,撮影された画像情報の明度情報等の環境変化に比較的強い類似性の比較を行うことができ,高精度で特定をすることができる。   The similarity between the image information of the face and the sample information can be calculated by the above method. In addition, in order to improve the accuracy, an EMD (Earth Movements Distance) between the color histograms may be obtained and used as a similarity measure. This makes it possible to compare the similarity relatively strong to environmental changes such as the brightness information of the captured image information, and to specify with high accuracy.

類似性の判定としては,ほかにも,各フェイスの領域の画像情報のシグネチャ(画像特徴量と重みの集合)同士のEMDを求め,類似性の尺度としてもよい。シグネチャの画像特徴量としては,たとえばフェイス領域の画像情報のHSV色空間内の頻度分布を求め,色相と彩度に関してグルーピングを行って,特徴の個数とHSV色空間内の領域による画像特徴量とすることができる。色相と彩度についてグルーピングを行うのは,撮影条件に大きく左右されないように,明度への依存度を下げるためである。   As a similarity determination, an EMD between signatures (a set of image feature amounts and weights) of image information of each face area may be obtained and used as a similarity measure. As the signature image feature amount, for example, the frequency distribution of the image information of the face area in the HSV color space is obtained, the hue and the saturation are grouped, and the number of features and the image feature amount by the area in the HSV color space are determined. can do. The reason why the hue and the saturation are grouped is to reduce the dependence on the lightness so that the hue and the saturation are not largely influenced by the photographing conditions.

また,処理の高速化のため,シグネチャとEMDの代わりに,適宜の色空間内での画像情報の色コリログラムや色ヒストグラムなどの画像特徴量間のL2距離等の類似性を用いることもできる。   Further, in order to speed up the processing, similarity such as L2 distance between image features such as color correlogram and color histogram of image information in an appropriate color space can be used instead of signature and EMD.

類似性の判定は,上述に限定をするものではない。特定した商品識別情報の候補は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報に対応づけて識別情報候補記憶部22に記憶する。なお,ここで特定した商品識別情報の候補は,ある撮影画像情報に基づく正置画像情報におけるフェイスに写っている商品の商品識別情報の候補であるので,確定した商品識別情報ではない。   The determination of similarity is not limited to the above. The identified product identification information candidates are identification information candidates associated with shooting date and time information, store information, image information identification information of shot image information, image identification information of normal image information, and face identification information for identifying a face. The information is stored in the storage unit 22. Note that the candidate for the product identification information specified here is not the determined product identification information because it is a candidate for the product identification information of the product appearing in the face in the normal image information based on certain photographed image information.

以上のようにして特定した商品識別情報の候補は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報に対応づけて識別情報候補記憶部22に記憶する。   The product identification information candidates identified as described above correspond to shooting date and time information, store information, image information identification information of captured image information, image identification information of normal image information, and face identification information for identifying a face. In addition, it is stored in the identification information candidate storage unit 22.

棚段画像マッチング処理部247は,前回(N−1回目)の正置画像情報における棚段の領域の画像情報と,今回(N回目)の正置画像情報における棚段の領域の画像情報とに基づいて,その類似性が高ければその棚段における各フェイスの商品識別情報の候補は同一と判定する。この類似性の判定処理は,上述のように,前回(N−1回目)の正置画像情報における棚段の領域の画像情報の画像特徴量と,今回(N回目)の正置画像情報における棚段の領域の画像情報とに基づく類似性の判定でもよいし,色ヒストグラム同士のEMDを用いたものであってもよい。また,それらに限定するものではない。そして,識別情報特定処理部246におけるフェイス単位ごとの特定処理ではなく,識別情報特定処理部246に,N回目の正置画像情報におけるその棚段における各フェイスの商品識別情報の候補を,N−1回目の同一の棚段における各フェイスの商品識別情報の候補と同一として,識別情報候補記憶部22に記憶させる。これによって,あまり商品の動きがない棚段や逆にきわめて短いサイクルで管理される棚段など,変化がほとんど生じない棚段についての処理を省略することができる。なお,棚段画像マッチング処理部247による処理は設けなくてもよい。   The shelf image matching processing unit 247 compares the image information of the shelf area in the previous (N-1) -th normal image information, the image information of the shelf area in the current (N-th) normal image information, and If the similarity is high, it is determined that the candidates for the product identification information of each face in the shelf are the same. As described above, this similarity determination process is performed by comparing the image feature amount of the image information of the shelf area in the previous (N−1) th normal image information with the current (Nth) normal image information. The similarity may be determined based on the image information of the shelf area, or the EMD of the color histograms may be used. It is not limited to them. Then, instead of the identification processing for each face unit in the identification information identification processing unit 246, the identification information identification processing unit 246 sends the N-th candidate image identification information of each face in the shelf in the normal image information to the N- It is stored in the identification information candidate storage unit 22 as the same as the candidate for the product identification information of each face in the same shelf at the first time. As a result, it is possible to omit a process for a shelf that hardly changes, such as a shelf where the product does not move much or a shelf managed in a very short cycle. The processing by the shelf image matching processing section 247 may not be provided.

棚段画像マッチング処理部247における処理は,N回目とN−1回目の比較の際に用いるほか,N回目に同一の陳列棚を異なる角度で撮影した正置画像情報の比較の処理の際に用いてもよい。   The processing in the shelf image matching processing unit 247 is used for the N-th and N-1th comparisons, and for the N-th comparison of the normal image information obtained by photographing the same display shelf at different angles. May be used.

識別情報比較処理部25は,識別情報特定処理部246で特定した商品識別情報の候補に基づいて,同一の陳列棚を同一の機会に異なる角度で撮影した撮影画像情報(正置画像情報)において,対応するフェイス同士の商品識別情報の候補を比較し,そのフェイスに写っている商品の商品識別情報を特定(確定)する処理を実行する。識別情報比較処理部25の処理のイメージ図を図14に示す。   The identification information comparison processing unit 25 uses the image information (normal image information) obtained by photographing the same display shelf at the same opportunity at different angles based on the product identification information candidates identified by the identification information identification processing unit 246. Then, a process of comparing the candidates for the product identification information of the corresponding faces and specifying (determining) the product identification information of the product shown in the face is executed. FIG. 14 shows an image diagram of the processing of the identification information comparison processing unit 25.

識別情報比較処理部25は,同一の陳列棚を同一の機会,たとえば同一日に撮影した異なる撮影画像情報に基づく正置画像情報において,画像情報処理部24で特定したフェイスごとの商品識別情報の候補を,それぞれ識別情報候補記憶部22から特定する。たとえば同一のフェイス識別情報に対応する商品識別情報の候補を,それぞれ特定する。そして,それぞれの商品識別情報の候補について,所定の条件と比較し,当該フェイスに対応する商品識別情報を特定(確定)する。たとえば,図14に示すように,同一の陳列棚を同一の機会に撮影した,角度が異なる2つの撮影画像情報(撮影画像情報1,撮影画像情報2)があるとする。このとき,撮影画像情報1を正置化した正置画像情報1におけるフェイスAには商品識別情報の候補として商品識別情報1が対応づけられており,撮影画像情報2を正置化した正置画像情報2におけるフェイスAには商品識別情報の候補が存在していない(正置画像情報2に基づいてはフェイスAの商品識別情報が特定できなかった)場合とする。この場合には,正置画像情報1に基づく商品識別情報1をフェイスAの商品識別情報として特定する。また,別の例として,撮影画像情報1を正置化した正置画像情報1におけるフェイスAには商品識別情報の候補として商品識別情報1が尤度40%で対応づけられており,撮影画像情報2を正置化した正置画像情報2におけるフェイスAには商品識別情報の候補として商品識別情報2が尤度90%で対応づけられていた場合には,尤度がもっとも高い商品識別情報2をフェイスAの商品識別情報として特定する。   The identification information comparison processing unit 25 receives the same display shelf at the same opportunity, for example, in the case of normal image information based on different photographed image information photographed on the same day, the merchandise identification information of each face identified by the image information processing unit 24. Each candidate is specified from the identification information candidate storage unit 22. For example, a candidate for product identification information corresponding to the same face identification information is specified. Then, each of the candidates for the product identification information is compared with a predetermined condition, and the product identification information corresponding to the face is specified (determined). For example, as shown in FIG. 14, it is assumed that there are two pieces of photographed image information (photographed image information 1 and photographed image information 2) that photograph the same display shelf at the same opportunity and have different angles. At this time, the product identification information 1 is associated with the face A in the fixed image information 1 obtained by normalizing the photographed image information 1 as a candidate for the product identification information. It is assumed that there is no product identification information candidate for face A in image information 2 (the product identification information for face A could not be identified based on normal image information 2). In this case, the product identification information 1 based on the normal image information 1 is specified as the product identification information of the face A. As another example, product identification information 1 is associated with face A in normal image information 1 obtained by normalizing captured image information 1 with a likelihood of 40% as a candidate for product identification information. If the product identification information 2 is associated with the face A in the fixed image information 2 obtained by normalizing the information 2 with the likelihood of 90% as the product identification information candidate, the product identification information having the highest likelihood 2 is specified as face A product identification information.

このように識別情報比較処理部25は,同一の陳列棚を同一の機会に撮影した異なる角度の画像情報において,それぞれ特定した商品識別情報の候補を,商品識別情報の候補の有無,商品識別情報の候補の尤度に基づいて,当該フェイスに対応する商品識別情報として特定をする。なお,一つの画像情報における一つのフェイスに,尤度に応じた複数の商品識別情報の候補がある場合,尤度をそれぞれ演算してもよい。たとえば撮影画像情報1を正置化した正置画像情報1におけるフェイスAには商品識別情報の候補として商品識別情報1が尤度65%,商品識別情報2が尤度30%で対応づけられており,撮影画像情報2を正置化した正置画像情報2におけるフェイスAには商品識別情報の候補として商品識別情報2が尤度70%,商品識別情報1が尤度25%で対応づけられていた場合,同一の商品識別情報については,尤度に基づく値同士を加算,乗算等の演算をして値を算出し,その値に基づいていずれか一つの商品識別情報に特定をしてもよい。たとえば上述の場合,商品識別情報1を90,商品識別情報2を100として比較して,商品識別情報2に特定してもよい。このように,識別情報比較処理部25は,同一の撮影対象物である陳列棚を同一の機会に撮影した異なる角度による複数の画像情報から特定した商品識別情報の候補を,所定条件で比較し,当該フェイスに対応する商品識別情報を特定する。なお,フェイス単位で処理を実行すると精度が向上するが,それに限定するものではなく,商品識別情報の候補を比較さえすればよい。   As described above, the identification information comparison processing unit 25 determines whether or not there is a candidate for the product identification information, whether or not there is a candidate for the product identification information, in the image information at different angles obtained by photographing the same display shelf at the same opportunity. Is specified as the product identification information corresponding to the face based on the likelihood of the candidate. If one face in one piece of image information has a plurality of product identification information candidates corresponding to the likelihood, the likelihood may be calculated. For example, the face A in the fixed image information 1 obtained by normalizing the photographed image information 1 is associated with the product identification information 1 as a candidate for the product identification information with a likelihood of 65% and the product identification information 2 with a likelihood of 30%. The face A in the fixed image information 2 obtained by normalizing the photographed image information 2 is associated with the product identification information 2 as a candidate for the product identification information with a likelihood of 70% and the product identification information 1 with a likelihood of 25%. If the same product identification information is used, the values based on the likelihood are calculated by adding or multiplying the values based on the likelihood, and based on the value, one of the product identification information is specified. Is also good. For example, in the case described above, the product identification information 1 may be specified as 90, and the product identification information 2 may be determined as 100 by comparing the product identification information 2 with 100. As described above, the identification information comparison processing unit 25 compares, under a predetermined condition, the candidates for the product identification information specified from a plurality of pieces of image information at different angles when the same display target, that is, the display shelf, is photographed at the same opportunity. Then, the product identification information corresponding to the face is specified. The accuracy is improved by executing the processing in units of faces. However, the present invention is not limited to this, and it is only necessary to compare the candidates for the product identification information.

なお,本明細書における画像認識システム1は,陳列棚に陳列した商品を撮影した画像情報から,そこに写っている商品の商品識別情報を特定する処理に適用することができるが,それに限定するものではなく,何らかの対象物が写っている画像情報から,その対象物の識別情報を特定する場合にも適用することができる。   Note that the image recognition system 1 in the present specification can be applied to a process of specifying the product identification information of the product shown in the image information of the product displayed on the display shelf, but is not limited thereto. Instead, the present invention can be applied to a case where identification information of an object is specified from image information in which an object is captured.

本発明の画像認識システム1を用いた処理プロセスを,図1および図2のブロック図,図4乃至図6のフローチャートを用いて説明する。なお,以下の説明では,同一の陳列棚について,2方向から撮影した2枚の撮影画像情報を用いる場合を説明するが,3枚以上であっても,同様に処理が実行できる。   A processing process using the image recognition system 1 of the present invention will be described with reference to block diagrams of FIGS. 1 and 2 and flowcharts of FIGS. In the following description, a case will be described in which two pieces of photographed image information photographed from two directions are used for the same display shelf. However, the same processing can be performed with three or more pieces.

店舗の陳列棚の撮影担当者は,同一の陳列棚について,同一の機会に,光等の写り込みが重ならないように,複数の角度から撮影を行う。そして店舗の陳列棚について,同一の機会に異なる角度から撮影された撮影画像情報(図8,図9)は,撮影画像情報入力端末3から入力され,管理端末2の画像情報処理部24における撮影画像情報入力受付処理部241でその入力を受け付ける(S100,S110)。また,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報の入力を受け付ける。そして,撮影画像情報入力受付処理部241は,入力を受け付けた撮影画像情報,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報を対応づけて撮影画像情報記憶部20に記憶させる。   The person in charge of photographing the display shelves of the store photographs the same display shelves at the same opportunity from a plurality of angles so that the reflection of light or the like does not overlap. The photographed image information (FIGS. 8 and 9) of the display shelf of the store photographed from different angles at the same opportunity is input from the photographed image information input terminal 3 and photographed by the image information processing unit 24 of the management terminal 2. The image information input reception processing unit 241 receives the input (S100, S110). In addition, input of image capturing date and time, store identification information, and image information identification information of captured image information is received. Then, the captured image information input reception processing unit 241 stores the captured image information, the captured date and time, the shop identification information, and the image information identification information of the captured image information in the captured image information storage unit 20 in association with each other.

管理端末2において所定の操作入力を受け付けると,撮影画像情報正置化処理部242は,撮影画像情報記憶部20に記憶する撮影画像情報を抽出し,台形補正処理を行うための頂点である棚位置(陳列棚の位置)の4点の入力を受け付け,台形補正処理を実行する(S120)。このようにして台形補正処理が実行された撮影画像情報(正置画像情報)の一例が,図10,図11である。   When a predetermined operation input is received in the management terminal 2, the photographed image information normalization processing unit 242 extracts the photographed image information stored in the photographed image information storage unit 20, and is a vertex for performing a trapezoidal correction process. Input of four points (positions of display shelves) is received, and trapezoidal correction processing is executed (S120). FIGS. 10 and 11 show examples of photographed image information (normal image information) on which the trapezoidal correction processing has been performed in this manner.

そして,正置画像情報に対して,管理端末2において所定の操作入力を受け付けることで,棚段位置特定処理部243は,棚段領域を特定する(S130)。すなわち,正置画像情報における棚段領域の入力を受け付ける。図12および図13が,棚段領域が特定された状態を示す図である。   Then, the shelf position identification processing unit 243 identifies a shelf area by receiving a predetermined operation input in the management terminal 2 for the normal image information (S130). That is, the input of the shelf area in the normal image information is accepted. FIG. 12 and FIG. 13 are diagrams showing a state where the shelf area is specified.

以上のようにして,棚段領域を特定すると,棚段領域切出処理部244は,S130で入力を受け付けた棚段の領域に基づいて,正置画像情報から棚段領域の画像情報を切り出す(S140)。そして,棚段領域画像情報における棚段ごとに,フェイスを特定する処理を実行する(S150)。具体的には,棚段領域における棚段について,4点の座標で構成される矩形領域の範囲内において,商品と商品との間に生ずる細く狭い陰影を特定する,画像の繰り返しパターンを特定する,パッケージの上辺の段差を特定する,商品幅が同一であるなどの制約に基づいて区切り位置を特定する,などによって,フェイスを特定する。特定したフェイスには,フェイスを識別するためのフェイス識別情報を付す。このフェイス識別情報は,同一の陳列棚を撮影した画像情報については,異なる画像情報であっても,対応するフェイスであることを識別可能とするため,同一のフェイス識別情報とするか,あるいはフェイス識別情報の対応関係を記憶しておく。   When the shelf area is specified as described above, the shelf area cutout processing unit 244 cuts out the image information of the shelf area from the normal image information based on the area of the shelf that has received the input in S130. (S140). Then, a process of specifying a face is executed for each shelf in the shelf area image information (S150). More specifically, for a shelf in the shelf area, a repetitive pattern of an image is specified, which specifies a narrow narrow shadow between products within a rectangular area formed by coordinates of four points. The face is specified by specifying the step on the upper side of the package, specifying the break position based on constraints such as the same product width, and the like. The identified face is provided with face identification information for identifying the face. This face identification information may be the same face identification information so that image information obtained by photographing the same display shelf can be identified as a corresponding face even if the image information is different. The correspondence of the identification information is stored.

そして,特定した各フェイスの座標は,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像情報識別情報,フェイスを識別するためのフェイス識別情報と対応付けて記憶させる。なお,フェイスの座標は4点を記憶せずとも,矩形領域を特定可能な2点であってもよい。   The identified coordinates of each face are stored in association with the photographing date and time, store identification information, image information identification information of photographed image information, image information identification information of normal image information, and face identification information for identifying a face. Let it. The coordinates of the face may be two points that can specify a rectangular area without storing four points.

以上のように正置画像情報の棚段領域画像情報における各棚段の各フェイスを特定すると,識別情報特定処理部246は,フェイスごとに,標本情報記憶部21に記憶する標本情報とマッチング処理を実行し,類似性が最も高い標本情報に対応する商品識別情報を特定する。そして,そのフェイスに表示されている商品の商品識別情報の候補として特定する(S160)。すなわち,ある棚段のフェイスの矩形領域(この領域のフェイスのフェイス識別情報をXとする)における画像情報と,標本情報記憶部21に記憶する各標本情報とから,それぞれの画像特徴量を算出し,特徴点のペアを求めることで,類似性を判定する。そして,もっとも類似性の高い標本情報を特定し,そのときの類似性があらかじめ定められた閾値以上であれば,その標本情報に対応する商品識別情報を標本情報記憶部21に基づいて特定する。そして,特定した商品識別情報を,そのフェイス識別情報Xのフェイスに表示されている商品の商品識別情報の候補とする。そして識別情報特定処理部246は,特定した商品識別情報の候補を,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像情報識別情報,フェイス識別情報に対応づけて識別情報候補記憶部22に記憶する(S170)。   As described above, when each face of each shelf in the shelf area image information of the normal image information is specified, the identification information specifying processing unit 246 performs, for each face, the sample information stored in the sample information storage unit 21 and the matching process. Is performed, and the product identification information corresponding to the sample information having the highest similarity is specified. Then, it is specified as a candidate for product identification information of the product displayed on the face (S160). That is, each image feature amount is calculated from the image information in the rectangular area of the face of a certain shelf (X is the face identification information of the face in this area) and the sample information stored in the sample information storage unit 21. Then, similarity is determined by obtaining a pair of feature points. Then, the sample information having the highest similarity is specified. If the similarity at that time is equal to or greater than a predetermined threshold, the product identification information corresponding to the sample information is specified based on the sample information storage unit 21. Then, the specified product identification information is set as a candidate for the product identification information of the product displayed on the face of the face identification information X. Then, the identification information identification processing unit 246 associates the identified candidates for the product identification information with the shooting date and time, the store identification information, the image information identification information of the shot image information, the image information identification information of the normal image information, and the face identification information. Then, it is stored in the identification information candidate storage unit 22 (S170).

なお,すべてのフェイスの商品識別情報を特定できるとは限らない。そこで,特定できていないフェイス(もっとも高い類似性が所定の閾値未満のフェイスなど)については,商品識別情報の入力を受け付け,入力を受け付けた商品識別情報を,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像情報識別情報,フェイス識別情報に対応づけて,商品識別情報の候補として識別情報候補記憶部22に記憶してもよい。また,特定した商品識別情報の候補の修正処理についても同様に,入力を受け付けてもよい。なお,このようなフェイスについては,もともと確実性が高いので,後述の識別情報比較処理部25の処理を実行せずに,商品識別情報として確定し,識別情報候補記憶部22,識別情報記憶部23に記憶させてもよい。このとき,識別情報候補記憶部22には,手入力を受け付けたことを示すフラグを付し,そのフラグがある場合には識別情報比較処理部25の処理をスキップするなどができる。   Note that not all face product identification information can be specified. Therefore, for a face that cannot be identified (such as a face whose highest similarity is less than a predetermined threshold), input of product identification information is accepted, and the received product identification information is used as the shooting date and time, store identification information, and captured image. The image information identification information of the information, the image information identification information of the normal image information, and the face identification information may be stored in the identification information candidate storage unit 22 as candidates for the product identification information in association with each other. Similarly, an input may be received for the process of correcting the identified product identification information candidate. Since such a face is originally highly reliable, the face is determined as the product identification information without executing the processing of the identification information comparison processing unit 25 described later, and the identification information candidate storage unit 22 and the identification information storage unit 23. At this time, a flag indicating that the manual input has been received is attached to the identification information candidate storage unit 22, and if the flag is present, the processing of the identification information comparison processing unit 25 can be skipped.

以上のような処理を行うことで,撮影画像情報に写っている陳列棚の棚段に陳列されている商品の商品識別情報の候補を特定することができる。   By performing the processing described above, it is possible to specify a candidate for the product identification information of the product displayed on the shelf of the display shelf shown in the captured image information.

そして各撮影画像情報に基づく正置画像情報におけるフェイスについて,商品識別情報の候補が特定できると,識別情報比較処理部25は,対応するフェイス同士の商品識別情報の候補を識別情報候補記憶部22から特定し,それらを所定条件に基づいて比較することで,当該フェイスにおける商品識別情報として特定する(S200)。   When a candidate for product identification information can be identified for a face in the normal image information based on each piece of captured image information, the identification information comparison processing unit 25 stores the candidate for product identification information between the corresponding faces in the identification information candidate storage unit 22. Then, by comparing them based on a predetermined condition, they are specified as the product identification information of the face (S200).

具体的には,まず識別情報比較処理部25は,同一の陳列棚を同一の機会に撮影した角度の異なる複数の正置画像情報において,対応するフェイスを特定する(S210)。対応するフェイスの特定では,同一のフェイス識別情報に基づいて特定する,フェイスとして対応づけられているフェイスを特定するなどの方法がある。   More specifically, first, the identification information comparison processing unit 25 specifies a corresponding face in a plurality of pieces of normal image information having different angles photographed on the same display shelf at the same opportunity (S210). The method of specifying the corresponding face includes a method of specifying the face based on the same face identification information and a method of specifying the face associated as the face.

そして特定したフェイスについての商品識別情報の候補を,識別情報候補記憶部22から抽出し,対応するフェイス同士の商品識別情報の候補について,所定の条件を充足するか比較し(S220),当該フェイスについての商品識別情報として特定する(S230)。そして,特定した商品識別情報を,識別情報記憶部23に記憶させる(S240)。   Then, the candidate of the product identification information for the identified face is extracted from the identification information candidate storage unit 22, and the candidate of the product identification information of the corresponding face is compared with a predetermined condition or not (S220). (S230). Then, the specified product identification information is stored in the identification information storage unit 23 (S240).

以上のような処理を行うことで,撮影画像情報に写っている陳列棚の棚段に陳列されている商品の商品識別情報を特定することができる。また,複数の角度で撮影した撮影画像情報に基づいて特定しているので,光などの写り込みの影響を排除しやすくなり,商品の特定の精度を向上させることができる。   By performing the above processing, it is possible to specify the product identification information of the product displayed on the shelf of the display shelf shown in the captured image information. In addition, since the identification is performed based on the image information captured at a plurality of angles, the influence of the reflection of light or the like can be easily eliminated, and the accuracy of specifying the product can be improved.

また,2回目または2枚目以降の処理においては,適宜,棚段画像マッチング処理部247における処理を実行することができる。   Also, in the second or subsequent processing, the processing in the shelf image matching processing unit 247 can be executed as appropriate.

上述した実施例1では,4点を指定することで台形補正処理を実行することとしたが,その基準となる頂点を毎回,指定して入力することは負担が大きい。そこで,台形補正処理の基準となる頂点を自動的に特定するように構成してもよい。この場合の処理を説明する。   In the above-described first embodiment, the trapezoidal correction process is executed by designating four points. However, it is burdensome to designate and input the vertices that are the references each time. Therefore, a configuration may be adopted in which a vertex serving as a reference for the trapezoidal correction processing is automatically specified. The processing in this case will be described.

この場合の撮影画像情報正置化処理部242は,初回の台形補正処理と,二回目以降の台形補正処理とに分かれる。なお,初回とは一回目のほか,頂点を自動的に特定する際のずれを修正するため,任意のタイミングで手動で行う場合も含まれる。二回目以降とは初回以外である。また,本発明では,同一の陳列棚について同一の機会に,複数の角度から撮影を行う。そのため,最初の一枚(N−1回目)について頂点を指定することで台形補正処理を実行し,二枚目以降(N回目)については,台形補正処理の基準となる頂点を自動的に特定するようにしてもよい。   In this case, the captured image information normalization processing unit 242 is divided into a first keystone correction process and a second and subsequent keystone correction processes. In addition to the first time, the first time includes a case where the operation is manually performed at an arbitrary timing in order to correct a deviation when the vertex is automatically specified. The second and subsequent times are other than the first time. In the present invention, the same display shelf is photographed at the same opportunity from a plurality of angles. Therefore, trapezoidal correction processing is executed by specifying the vertices for the first one (N-1st), and the vertices that are the reference of the trapezoidal correction processing are automatically specified for the second and subsequent sheets (N-th). You may make it.

撮影画像情報正置化処理部242における初回の台形補正処理は,実施例1と同様に,陳列棚の長方形の領域の4頂点の指定の入力を受け付ける。陳列棚の長方形の領域の4頂点としては,陳列棚の棚位置の4頂点であってもよいし,棚段の4頂点や商品タグを取り付ける領域の4頂点であってもよい。また,2段,3段の棚段のまとまりの4頂点であってもよい。ここで指定を受け付けた4頂点は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報と対応づけて記憶させる。そして撮影画像情報正置化処理部242は,指定を受け付けた4頂点の座標に基づいて,撮影画像情報に対して台形補正処理を実行し,正置画像情報とする。   In the first trapezoidal correction process in the photographed image information normalization processing unit 242, similarly to the first embodiment, an input of designation of four vertexes of a rectangular area of the display shelf is received. The four vertices of the rectangular area of the display shelf may be the four vertices of the shelf position of the display shelf, the four vertices of the shelf, or the four vertices of the area where the product tag is attached. Alternatively, four vertices of a set of two or three shelves may be used. Here, the four vertices whose specification has been accepted are stored in association with the image date and time information, the store information, and the image information identification information of the captured image information. Then, the photographed image information normalization processing unit 242 executes trapezoidal correction processing on the photographed image information based on the coordinates of the four vertexes for which the designation has been received, and sets the trapezoidal correction image information.

撮影画像情報正置化処理部242は,二回目以降の台形補正処理を以下のように実行をする。   The photographed image information normalization processing unit 242 executes the second and subsequent trapezoidal correction processing as follows.

まず,撮影画像情報正置化処理部242は,N回目の撮影画像情報に対応する同じ(ほぼ同じ)領域を撮影したN−1回目の撮影画像情報の頂点座標を,前回の処理の際に記憶した情報から特定する。N回目の撮影画像情報に対応する同じ(ほぼ同じ)領域を撮影したN−1回目の撮影画像情報の頂点座標は,撮影画像情報に対応する店舗識別情報,画像識別情報,撮影日時情報などに基づいて特定をする。そして,N−1回目の撮影画像情報に対して,特定をした4頂点の頂点座標を含む所定の大きさの矩形領域,たとえば棚段の幅の1/5程度の正方形を特徴量採取領域2420として設定をする。N−1回目の撮影画像情報に対して,特徴量採取領域2420を設定した状態の一例を図15に示す。特徴量採取領域2420は,頂点座標を含む矩形領域であればよい。一方,陳列棚の背景同士がマッチングをしてしまうと,撮影位置が少しずれるだけで背景が大きくずれてしまう。そこで,特徴量採取領域2420は,なるべく陳列棚の内側を多く含む位置に設定することが好ましい。つまり,頂点座標は,特徴量採取領域2420において,特徴量採取領域2420の中心点よりも陳列棚の外側方向に位置していることが好ましい。   First, the photographed image information normalization processing unit 242 calculates the vertex coordinates of the (N−1) -th photographed image information obtained by photographing the same (substantially the same) region corresponding to the N-th photographed image information in the previous processing. Identify from stored information. The vertex coordinates of the (N−1) -th photographed image information obtained by photographing the same (substantially the same) region corresponding to the N-th photographed image information are stored in store identification information, image identification information, photographing date / time information, and the like corresponding to the photographed image information. Specify based on. Then, for the (N-1) th captured image information, a rectangular area of a predetermined size including the specified vertex coordinates of the four vertices, for example, a square having a width of about 1/5 of the width of the shelf, is taken as the feature amount collection area 2420. Set as FIG. 15 shows an example of a state in which the feature amount collection area 2420 is set for the (N-1) th captured image information. The feature amount collection area 2420 may be a rectangular area including vertex coordinates. On the other hand, if the backgrounds of the display shelves are matched, the background will be greatly displaced even if the photographing position is slightly shifted. Therefore, it is preferable to set the feature amount collection area 2420 at a position that includes as much of the inside of the display shelf as possible. That is, it is preferable that the vertex coordinates are located outside the display shelf in the feature amount collection area 2420 with respect to the center point of the feature amount collection area 2420.

たとえば,頂点座標の4点は左上,右上,左下,右下に位置する。そして,特徴量採取領域2420の矩形領域を縦横の中心でそれぞれ2分割した合計4領域に分割すると,左上の頂点座標を含む特徴量採取領域2420では,その頂点座標が矩形領域のうち左上の領域に位置するように特徴量採取領域2420を設定する。同様に,右上の頂点座標を含む特徴量採取領域2420では,その頂点座標が矩形領域のうち右上の領域に位置するように特徴量採取領域2420を設定し,左下の頂点座標を含む特徴量採取領域2420では,その頂点座標が矩形領域のうち左下の領域に位置するように特徴量採取領域2420を設定し,右下の頂点座標を含む特徴量採取領域2420では,その頂点座標が矩形領域のうち右下の領域に位置するように特徴量採取領域2420を設定する。これによって,頂点座標は,特徴量採取領域2420において,特徴量採取領域2420の中心点よりも陳列棚の外側方向に位置することとなる。   For example, the four points of the vertex coordinates are located at the upper left, upper right, lower left, and lower right. Then, when the rectangular region of the feature amount collection region 2420 is divided into two regions each of which is divided into two at the vertical and horizontal centers, the feature amount collection region 2420 including the upper left vertex coordinates has the vertex coordinates of the upper left region of the rectangular region. Is set so as to be located at. Similarly, in the feature quantity collection area 2420 including the upper right vertex coordinates, the feature quantity collection area 2420 is set so that the vertex coordinates are located in the upper right area of the rectangular area, and the feature quantity collection area including the lower left vertex coordinates is set. In the region 2420, the feature amount collection region 2420 is set such that the vertex coordinates are located in the lower left region of the rectangular region. In the feature amount collection region 2420 including the lower right vertex coordinates, the vertex coordinates are set in the rectangular region. The feature amount collection area 2420 is set so as to be located in the lower right area. Thus, the vertex coordinates are located outside the display shelf in the feature amount collection area 2420 with respect to the center point of the feature amount collection area 2420.

つぎに,撮影画像情報正置化処理部242は,N回目の撮影画像情報において,N−1回目の撮影画像情報に設定した特徴量採取領域2420を内包し,N−1回目の撮影画像情報の特徴量採取領域2420以上の大きさの特徴量採取領域2421を設定する。N回目の撮影画像情報に設定する特徴量採取領域2421は,短辺の1/2の大きさは超えない。さらに,撮影画像情報よりも外側に出る場合には,その範囲をトリミングする。N回目の撮影画像情報に対して特徴量採取領域2421を設定した状態の一例を図16に示す。   Next, the photographed image information normalization processing unit 242 includes the feature amount collection area 2420 set in the (N-1) th photographed image information in the Nth photographed image information, and performs the (N-1) th photographed image information A feature amount collection area 2421 having a size equal to or larger than the feature amount collection area 2420 is set. The feature amount collection area 2421 set in the N-th captured image information does not exceed half the size of the short side. Further, when the image is outside the captured image information, the range is trimmed. FIG. 16 shows an example of a state in which the feature amount collection area 2421 is set for the N-th captured image information.

そして撮影画像情報正置化処理部242は,N−1回目の撮影画像情報に対して設定した各特徴量採取領域2420において,局所特徴量を採取し,局所特徴量による特徴点とその座標のセットとを記憶する。また,N回目の撮影画像情報に対して設定した各特徴量採取領域2421において,局所特徴量を採取し,局所特徴量による特徴点とその座標のセットとを記憶する。   Then, the photographed image information normalization processing unit 242 collects a local feature amount in each of the feature amount collection regions 2420 set for the (N-1) th photographed image information, and calculates a feature point based on the local feature amount and its coordinates. Set and memorize. In addition, in each feature amount collection area 2421 set for the N-th captured image information, a local feature amount is collected, and a feature point based on the local feature amount and a set of its coordinates are stored.

撮影画像情報正置化処理部242は,N−1回目の撮影画像情報の特徴量採取領域2420における特徴点の局所特徴量と,N−1回目の撮影画像情報の特徴量採取領域2420に対応する位置にあるN回目の撮影画像情報の特徴量採取領域2421における特徴点の局所特徴量とを比較する。そして,N−1回目の撮影画像情報の各特徴点の各局所特徴量にもっとも近い,N回目の撮影画像情報の各局所特徴量の特徴点を特定する。そしてもっとも近い局所特徴量同士の特徴点をペアとし,ペアとなる局所特徴量による特徴点の座標を対応づける。なお,この際に,局所特徴量同士の近さ(類似性)があらかじめ定められた閾値未満のペアは除外をする。これによって,N−1回目の特徴量採取領域2420における局所特徴量の特徴点と,N回目の特徴量採取領域2421におけるもっとも近い局所特徴量の特徴点同士のペアを特定できる。N−1回目の特徴量採取領域2420の局所特徴量の特徴点と,N回目の特徴量採取領域2421の局所特徴量の特徴点とのペアの関係を図17に示す。図17では,N−1回目の特徴量採取領域2420における局所特徴量による特徴点の点群をA,N回目の特徴量採取領域2421における局所特徴量による特徴点の点群をB,N−1回目の台形補正処理に用いた頂点をCで示している。   The captured image information normalization processing unit 242 corresponds to the local feature amount of the feature point in the feature amount collection region 2420 of the (N-1) th captured image information and the feature amount collection region 2420 of the (N-1) th captured image information. Then, the local feature amount of the feature point in the feature amount collection area 2421 of the N-th captured image information at the position to be compared is compared. Then, a feature point of each local feature amount of the N-th shot image information that is closest to each local feature amount of each feature point of the (N-1) th shot image information is specified. Then, the feature points of the closest local feature quantities are paired, and the coordinates of the feature points based on the paired local feature quantities are associated with each other. Note that, at this time, pairs in which the proximity (similarity) between the local feature values is less than a predetermined threshold are excluded. As a result, a pair of a feature point of a local feature amount in the (N−1) th feature amount collection region 2420 and a feature point of the closest local feature amount in the N-th feature amount collection region 2421 can be specified. FIG. 17 shows a pair relationship between the feature points of the local feature amounts of the (N−1) th feature amount collection region 2420 and the feature points of the local feature amounts of the N-th feature amount collection region 2421. In FIG. 17, the point group of the feature points by the local feature amount in the (N−1) th feature amount collection region 2420 is A, the point group of the feature point by the local feature amount in the Nth feature amount collection region 2421 is B, N− The vertex used in the first trapezoidal correction process is indicated by C.

N−1回目の特徴量採取領域2420における局所特徴量による特徴点の点群Aの座標と,点群Aに対応するN回目の特徴量採取領域2421における局所特徴量による特徴点の点群Bの座標とに基づいて,点群Aを点群Bに射影する関数F(透視変換・ホモグラフィー)を求める。関数Fは,サンプリング推定を反復する,ロバスト推定の一種であるOpenCVのRANSACを利用するなどの方法があるが,それらに限定しない。なお,射影の関係にある関係線からずれが大きいペアは処理対象から除外をする。   The coordinates of the point group A of the feature points based on the local feature amounts in the (N-1) th feature amount collection region 2420 and the point group B of the feature points based on the local feature amounts in the N-th feature amount collection region 2421 corresponding to the point group A A function F (perspective transformation / homography) for projecting the point group A onto the point group B is obtained based on the coordinates of the point group A and the point group A. The function F includes, but is not limited to, a method of repeating sampling estimation and using RANSAC of OpenCV which is a kind of robust estimation. Note that a pair having a large deviation from the relationship line in the projection relationship is excluded from the processing target.

撮影画像情報正置化処理部242において関数Fを求めたのち,撮影画像情報正置化処理部242は,N−1回目の台形補正処理で用いた頂点Cの座標を,関数Fに基づいてN回目の撮影画像情報に射影し,N回目の台形補正処理のための頂点Dの座標として特定する。これを模式的に示すのが図18である。   After obtaining the function F in the captured image information normalization processing unit 242, the captured image information normalization processing unit 242 calculates the coordinates of the vertex C used in the (N-1) -th keystone correction process based on the function F. The image is projected onto the Nth captured image information and specified as the coordinates of the vertex D for the Nth trapezoidal correction process. This is schematically shown in FIG.

以上の処理を各特徴量採取領域2420,2421に対して行うことで,N回目の撮影画像情報における台形補正処理のための棚位置の4頂点を特定する。そして,撮影画像情報正置化処理部242は,特定した4頂点に基づいて,N回目の撮影画像情報に対する台形補正処理を実行して正置化し,正置画像情報を生成し,記憶する。この際に,撮影画像情報正置化処理部242は,正置画像情報に対応付けて,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報と対応づけて記憶をさせる。特定したN回目の撮影画像情報に対応する頂点の座標は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報と対応づけて記憶させる。   By performing the above processing on each of the feature amount collection areas 2420 and 2421, the four vertices of the shelf position for the trapezoidal correction processing in the Nth captured image information are specified. Then, the photographed image information normalization processing unit 242 performs trapezoidal correction processing on the Nth photographed image information based on the specified four vertices to perform normalization, generates and stores the normal image information. At this time, the photographed image information normalization processing unit 242 associates the photographed date and time information, the store information, the image information identification information of the photographed image information, and the image identification information of the fixed image information with the corresponding image information. Then let me remember. The coordinates of the specified vertex corresponding to the N-th photographed image information are stored in association with the photographing date and time information, store information, and image information identification information of the photographed image information.

なお,撮影画像情報正置化処理部242における台形補正処理で用いる頂点の特定処理は,本発明のように陳列棚を撮影した画像情報から商品を特定する場合に限らず,同一の撮影対象物を撮影した複数の画像情報を正置化し,正置画像情報を生成する画像認識システム1にも適用することができる。これによって,同一の撮影対象物を撮影した複数の画像情報について,それぞれ正置化して,その撮影対象物の正置画像情報を生成することができる。   Note that the process of specifying the vertices used in the trapezoidal correction process in the photographed image information normalization processing unit 242 is not limited to the case where a product is specified from image information obtained by photographing a display shelf as in the present invention. It can also be applied to the image recognition system 1 that normalizes a plurality of pieces of image information obtained by shooting and generates normal image information. This makes it possible to normalize a plurality of pieces of image information obtained by photographing the same photographing target object, and generate normal image information of the photographing target object.

また,N回目の撮影画像情報における台形補正処理のための棚位置の4頂点を特定するため,上述では,N−1回目の撮影画像情報における特徴量採取領域2420での局所特徴量による特徴点の点群Aと,N回目の撮影画像情報における特徴量採取領域2421での局所特徴量による特徴点の点群Bとを用いて関数Fを求め,N−1回目の台形補正処理で用いた頂点Cの座標を,関数FによりN回目の撮影画像情報に射影し,N回目の台形補正処理のための頂点Dの座標として特定する処理を説明した。しかし,かかる処理では,N−1回目の撮影画像情報と,N回目の撮影画像情報とにおいて,類似する画像情報の対応点の座標(位置)を見つければよいので,上記の方法にするものではなく,画像情報内の箇所を特定するタイプの特徴量であればいかなるものであってもよい。たとえば,画像情報内における尖った箇所,ハイライトのポイントなどがある。本明細書では,局所特徴量などの,画像情報内の箇所を特定する特徴量を画像特徴量(位置特定型画像特徴量)という。なお,本明細書の説明では,画像特徴量として,上述のように局所特徴量を用いる場合を説明する。   In addition, in order to specify the four vertices of the shelf position for the trapezoidal correction processing in the N-th captured image information, in the above description, the feature points based on the local feature amount in the feature amount collection area 2420 in the (N-1) -th captured image information A function F is obtained using the point group A of the above and the point group B of the feature points based on the local feature amounts in the feature amount collection area 2421 in the N-th captured image information, and is used in the (N-1) -th keystone correction process. The process of projecting the coordinates of the vertex C onto the N-th captured image information using the function F and specifying the coordinates as the coordinates of the vertex D for the N-th trapezoidal correction process has been described. However, in such processing, the coordinates (positions) of corresponding points of similar image information may be found in the (N-1) th captured image information and the Nth captured image information. Instead, any feature amount may be used as long as it is a type of feature amount that specifies a location in the image information. For example, there are sharp points and highlight points in the image information. In this specification, a feature amount that specifies a location in image information, such as a local feature amount, is referred to as an image feature amount (position specifying image feature amount). In the description of the present specification, a case where the local feature value is used as described above as the image feature value will be described.

つぎに,実施例2における台形補正処理を行うための頂点の特定処理を説明する。この場合,任意の陳列棚を撮影した撮影画像情報において台形補正処理を行うための頂点がすでに特定されており,同一の陳列棚について,同一の機会に異なる角度で撮影した撮影画像情報について行う場合を説明する。   Next, a vertex specifying process for performing the trapezoidal correction process according to the second embodiment will be described. In this case, when the vertex for performing the trapezoidal correction processing is already specified in the photographed image information obtained by photographing an arbitrary display shelf, and the photographed image information is photographed at the same opportunity and at a different angle on the same display shelf. Will be described.

店舗の陳列棚が撮影された撮影画像情報は,撮影画像情報入力端末3から入力され,管理端末2の撮影画像情報入力受付処理部241でその入力を受け付ける。図19に,撮影画像情報の一例を示す。また,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報の入力を受け付ける。そして,撮影画像情報入力受付処理部241は,入力を受け付けた撮影画像情報,撮影日時,店舗識別情報,画像情報識別情報を対応づけて撮影画像情報記憶部20に記憶させる。   The photographed image information obtained by photographing the display shelf of the store is input from the photographed image information input terminal 3, and the input is received by the photographed image information input reception processing unit 241 of the management terminal 2. FIG. 19 shows an example of captured image information. In addition, input of image capturing date and time, store identification information, and image information identification information of captured image information is received. Then, the photographed image information input reception processing unit 241 causes the photographed image information storage unit 20 to store the photographed image information, the photographing date and time, the shop identification information, and the image information identification information that have received the input in association with each other.

管理端末2において所定の操作入力を受け付けると,撮影画像情報正置化処理部242は撮影画像情報記憶部20に記憶する撮影画像情報を抽出し,台形補正処理を実行するための,棚位置の頂点D(D1乃至D4)を特定する処理を実行する。   When a predetermined operation input is received at the management terminal 2, the photographed image information normalization processing unit 242 extracts the photographed image information stored in the photographed image information storage unit 20, and determines the shelf position for executing the trapezoidal correction process. A process for specifying the vertex D (D1 to D4) is executed.

今回(N回目)の撮影画像情報(図19)に対応する同じまたはほぼ同じ領域を撮影した前回(N−1回目)の撮影画像情報(図20)の頂点座標(たとえば頂点座標C1乃至C4とする)を特定する。前回の撮影画像情報の頂点座標は,撮影日時,店舗識別情報,撮影画像情報の画像識別情報などに基づいて特定をすればよい。   The vertex coordinates (for example, vertex coordinates C1 to C4 and the vertex coordinates C1 to C4) of the previous (N-1) th photographed image information (FIG. 20) that photographed the same or almost the same area corresponding to the photographed image information this time (Nth time) (FIG. 19). To do). The vertex coordinates of the previous shot image information may be specified based on the shooting date and time, store identification information, image identification information of the shot image information, and the like.

撮影画像情報正置化処理部242は,撮影画像情報記憶部20からN−1回目の撮影画像情報を抽出し,それぞれの頂点C1乃至C4について,頂点を一つずつ含む所定の大きさの矩形領域を特徴量採取領域2420として,N−1回目の撮影画像情報に設定する。N−1回目の撮影画像情報に特徴量採取領域2420を設定した状態を図20に示す。   The photographed image information normalization processing unit 242 extracts the (N-1) th photographed image information from the photographed image information storage unit 20, and for each of the vertices C1 to C4, a rectangle of a predetermined size including one vertex at a time. The area is set as the (N−1) th captured image information as a feature amount collection area 2420. FIG. 20 shows a state in which the feature amount collection area 2420 is set in the (N-1) th captured image information.

また,撮影画像情報正置化処理部242は,撮影画像情報記憶部20からN回目の撮影画像情報(図19)を抽出し,N−1回目の特徴量採取領域2420よりも広い範囲の特徴量採取領域2421を,N回目の撮影画像情報に設定する。N回目の撮影画像情報に特徴量採取領域2421を設定した状態を図21に示す。N回目の撮影画像情報におけるそれぞれの特徴量採取領域2421は,N−1回目の特徴量採取領域2420を一つずつ含む。図21では,N回目の特徴量採取領域2421に,N−1回目の特徴量採取領域2420を示すことで,その包含関係を示している。   Further, the photographed image information normalization processing unit 242 extracts the N-th photographed image information (FIG. 19) from the photographed image information storage unit 20, and extracts a feature of a wider range than the (N−1) -th feature amount collection area 2420. The quantity collection area 2421 is set as the Nth captured image information. FIG. 21 shows a state in which the feature amount collection area 2421 is set in the N-th captured image information. Each feature amount collection region 2421 in the N-th captured image information includes one N-1th feature amount collection region 2420. In FIG. 21, the inclusion relationship is shown by showing the (N−1) -th feature amount collection region 2420 in the N-th feature amount collection region 2421.

そして撮影画像情報正置化処理部242は,N−1回目の撮影画像情報に対して設定した各特徴量採取領域2420において局所特徴量を採取し,局所特徴量による特徴点と座標のセットとを記憶する。また,N回目の撮影画像情報に対して設定した各特徴量採取領域2421において局所特徴量を採取し,局所特徴量による特徴点と座標のセットとを記憶する。   Then, the photographed image information normalization processing unit 242 collects a local feature amount in each of the feature amount collection regions 2420 set for the (N-1) th photographed image information, and sets a set of feature points and coordinates by the local feature amount. Is stored. In addition, a local feature amount is collected in each feature amount collection region 2421 set for the Nth captured image information, and a set of feature points and coordinates based on the local feature amount is stored.

撮影画像情報正置化処理部242は,N−1回目の撮影画像情報の特徴量採取領域2420での各特徴点の各局所特徴量にもっとも近いN回目の撮影画像情報の特徴量採取領域2421での局所特徴量の特徴点を特定し,それらをペアとなる局所特徴量の特徴点として,それぞれの座標を対応付ける。図17に示すのがN−1回目のN−1回目の特徴量採取領域2420と,N回目の特徴量採取領域2421とのペアの関係である。   The photographed image information normalization processing unit 242 generates a feature amount collection area 2421 of the N-th photographed image information closest to each local feature amount of each feature point in the feature amount collection area 2420 of the (N-1) th photographed image information. , The feature points of the local feature amounts are specified, and these coordinates are associated with each other as the feature points of the local feature amounts forming a pair. FIG. 17 shows the relationship between the pair of the (N-1) th N-1th feature amount collection area 2420 and the Nth feature amount collection area 2421.

そして,N−1回目の特徴量採取領域2420における局所特徴量による特徴点の点群をA,N回目の特徴量採取領域2421における局所特徴量による特徴点の点群をB,N−1回目の台形補正処理に用いた頂点をC(C1乃至C4)とすると,撮影画像情報正置化処理部242は,点群Aと点群Bの座標とに基づいて,点群Aを点群Bに射影する関数F(透視変換・ホモグラフィー)を求める。   The point group of the feature points based on the local feature amounts in the (N−1) th feature amount collection area 2420 is A, the point group of the feature points based on the local feature amounts in the Nth feature amount collection area 2421 is B, and the (N−1) th time. Let C (C1 to C4) be the vertices used in the trapezoidal correction processing of, the photographed image information emplacement processing unit 242 converts the point group A into the point group B based on the coordinates of the point group A and the point group B. A function F (perspective transformation / homography) to be projected on is obtained.

そして撮影画像情報正置化処理部242は,N−1回目の台形補正処理で用いた頂点C(C1乃至C4)の座標を,求めた関数Fに基づいて射影し,N回目の台形補正処理のための頂点D(D1乃至D4)の座標として特定する。   Then, the photographed image information normalization processing unit 242 projects the coordinates of the vertices C (C1 to C4) used in the (N-1) th trapezoidal correction processing based on the obtained function F, and performs the Nth trapezoidal correction processing. Are specified as the coordinates of the vertex D (D1 to D4).

以上の処理を各特徴量採取領域2420,2421に対して行うことで,N回目の台形補正処理のための4頂点D(D1乃至D4)が自動的に特定できる。特定したN回目の頂点D(D1乃至D4)の座標は,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報に対応づけて記憶させる。特定された頂点D1乃至D4を示すのが図22である。   By performing the above processing on each of the feature amount collection areas 2420 and 2421, the four vertices D (D1 to D4) for the Nth trapezoidal correction processing can be automatically specified. The coordinates of the specified N-th vertex D (D1 to D4) are stored in association with the photographing date and time, the store identification information, and the image information identification information of the photographed image information. FIG. 22 shows the specified vertices D1 to D4.

以上のようにして,N回目の撮影画像情報に対する台形補正処理のための棚位置の頂点D(D1乃至D4)を特定すると,撮影画像情報正置化処理部24222は,頂点D(D1乃至D4)に基づいて,N回目の撮影画像情報に対して台形補正処理を実行する。   As described above, when the apex D (D1 to D4) of the shelf position for the trapezoidal correction processing on the Nth captured image information is specified, the captured image information emplacement processing unit 24222 specifies the vertex D (D1 to D4). ), A trapezoidal correction process is performed on the Nth captured image information.

以上のような処理を実行することで,二回目以降の台形補正処理について,台形補正処理で用いる4頂点を指定せずとも,対応する頂点を自動的に特定することができるようになり,担当者の負担を軽減することができる。   By executing the above processing, the corresponding vertices can be automatically specified for the second and subsequent keystone correction processing without specifying the four vertices used in the keystone correction processing. The burden on the person can be reduced.

さらに実施例1のフェイス特定処理部245におけるフェイスの特定処理の変形例を説明する。本実施例では,実施例1のフェイスの特定処理を初回の処理として,二回目以降のフェイスの特定処理として,自動的にフェイスを特定する処理を行うようにしてもよい。この場合の処理を説明する。   Further, a modified example of the face specification processing in the face specification processing unit 245 according to the first embodiment will be described. In this embodiment, the face identification processing of the first embodiment may be performed as the first processing, and the face identification processing may be automatically performed as the second and subsequent face identification processing. The processing in this case will be described.

なお,初回とは一回目のほか,自動的に特定する際のずれを修正するため,任意のタイミングで実施例1の処理を行う場合も含まれる。二回目以降とは初回以外である。また,二回目以降には,同一の陳列棚を同一の機会に撮影した撮影画像情報,正置画像情報について,異なる角度で撮影した撮影画像情報,正置画像情報に対する処理を行う場合も含まれる。   Note that, in addition to the first time, the case of performing the processing of the first embodiment at an arbitrary timing in order to correct a shift at the time of automatic identification is also included. The second and subsequent times are other than the first time. The second and subsequent times also include cases in which processing is performed on photographed image information and normal image information of photographed image information and normal image information obtained by photographing the same display shelf at the same opportunity and at different angles. .

フェイス特定処理部245は,実施例1の処理と同様の処理を初回のフェイスの特定処理として実行する。そして,フェイス特定処理部245における二回目以降のフェイスの特定処理は,同一の陳列棚の同一の棚段について,前回(N−1回目)の正置画像情報で特定したフェイスの領域の座標を抽出し,その座標を今回(N回目)の正置画像情報で特定したフェイスの領域の座標とする。   The face identification processing unit 245 executes the same processing as the processing of the first embodiment as the first face identification processing. Then, the face specification processing unit 245 performs the face specification processing for the second and subsequent faces by using, for the same shelf on the same display shelf, the coordinates of the area of the face specified by the previous (N−1) th normal image information. The extracted coordinates are set as the coordinates of the face area specified by the current (N-th) normal image information.

フェイスの領域の座標は,棚段の位置の座標と同様に,正置画像情報における,陳列棚内での所定箇所(たとえば陳列棚の左上の頂点C1)を基準とした相対座標である。   Similar to the coordinates of the position of the shelf, the coordinates of the face area are relative coordinates with respect to a predetermined location (for example, the upper left vertex C1 of the display shelf) in the display shelf in the normal image information.

さらに実施例1の変形例として,識別情報特定処理部246における,陳列棚の棚段ごとに,フェイスに表示されている商品の商品識別情報を特定する処理として,実施例1の処理を初回の商品識別情報の特定処理とし,二回目以降の商品識別情報の特定処理として,以下のような処理を実行する。   Further, as a modified example of the first embodiment, the process of the first embodiment is performed as the process of specifying the product identification information of the product displayed on the face for each shelf of the display shelf in the identification information specifying processing unit 246. The following process is executed as the process for specifying the product identification information for the second and subsequent times as the process for specifying the product identification information.

識別情報特定処理部246は,N回目の正置画像情報におけるフェイスの商品識別情報の特定処理は,まず処理対象となるフェイスのフェイス識別情報を特定する。特定したフェイス識別情報をXとする。そして,N回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と,フェイス識別情報Xに対応する位置にあるN−1回目の正置画像情報における領域の画像情報とを比較する。類似性の判定については,上述の実施例1乃至実施例3の処理のほか,各フェイスの領域の画像情報のシグネチャ(画像特徴量と重みの集合)同士のEMDを求め,類似性の尺度とすることができる。シグネチャの画像特徴量としては,たとえばフェイス領域の画像情報のHSV色空間内の頻度分布を求め,色相と彩度に関してグルーピングを行って,特徴の個数とHSV色空間内の領域による画像特徴量とすることができる。色相と彩度についてグルーピングを行うのは,撮影条件に大きく左右されないように,明度への依存度を下げるためである。   The identification information identification processing unit 246 first identifies the face identification information of the face to be processed in the identification processing of the product identification information of the face in the N-th normal image information. Let X be the identified face identification information. Then, the image information of the area of the face identification information X in the N-th normal image information is compared with the image information of the area in the (N-1) -th normal image information at the position corresponding to the face identification information X. For the determination of the similarity, in addition to the processing of the first to third embodiments described above, a signature (a set of image feature amounts and weights) of the image information of the area of each face is obtained, and a similarity measure and a similarity measure are obtained. can do. As the signature image feature amount, for example, the frequency distribution of the image information of the face area in the HSV color space is obtained, the hue and the saturation are grouped, and the number of features and the image feature amount by the area in the HSV color space are determined. can do. The reason why the hue and the saturation are grouped is to reduce the dependence on the lightness so that the hue and the saturation are not largely influenced by the photographing conditions.

また,処理の高速化のため,シグネチャとEMDの代わりに,適宜の色空間内での画像情報の色コリログラムや色ヒストグラムなどの画像特徴量間のL2距離等の類似性を用いることもできる。   Further, in order to speed up the processing, similarity such as L2 distance between image features such as color correlogram and color histogram of image information in an appropriate color space can be used instead of signature and EMD.

フェイス領域の画像情報の類似性が一定の閾値以上であれば,N−1回目の正置画像情報におけるその領域のフェイスに対応する商品識別情報の候補を識別情報候補記憶部22から抽出し,N回目の正置画像情報におけるフェイス識別情報Xの商品識別情報の候補とする。これによって,処理対象となるN回目の正置画像情報におけるフェイス識別情報Xの商品識別情報の候補を特定できる。もし類似性が一定の閾値未満であれば,初回の場合と同様に,N回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と,標本情報記憶部21に記憶する標本情報とを比較して,類似性が所定の閾値以上で,かつ,もっとも類似性が高い商品識別情報を,N回目の正置画像情報におけるフェイス識別情報Xのフェイスの商品識別情報の候補として特定をする。   If the similarity of the image information of the face area is equal to or more than a certain threshold, a candidate for the product identification information corresponding to the face of the area in the (N-1) th normal image information is extracted from the identification information candidate storage unit 22, It is a candidate for the product identification information of the face identification information X in the N-th normal image information. As a result, it is possible to specify the candidate of the product identification information of the face identification information X in the N-th normal image information to be processed. If the similarity is less than a certain threshold value, the image information of the area of the face identification information X in the N-th normal image information and the sample information stored in the sample information storage unit 21 are similar to the case of the first time. In comparison, the product identification information having the similarity equal to or higher than the predetermined threshold value and having the highest similarity is specified as the candidate of the product identification information of the face of the face identification information X in the N-th normal image information.

なお,N−1回目の正置画像情報におけるフェイスの領域の画像情報との比較において,対応するフェイスの位置との比較のみならず,所定範囲のフェイスを比較対象として含めてもよい。たとえばN回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と比較する場合,比較対象としては,N−1回目の正置画像情報におけるフェイス識別情報Xの領域のほか,その領域から所定範囲にあるフェイスの領域,たとえばその左右方向に一または複数離隔している位置にあるフェイス,上下の棚段に位置するフェイスの領域も含めてもよい。さらに,N−1回目の正置画像情報におけるフェイス識別情報Xの領域のほか,フェイス識別情報X−2,X−1,X,X+1,X+2のように,複数の隣接するフェイスの領域を含めてもよい。   In comparison with the image information of the face area in the N-1th normal image information, not only the comparison with the corresponding face position but also a face in a predetermined range may be included as a comparison target. For example, when comparing with the image information of the area of the face identification information X in the N-th normal image information, the comparison target is not only the area of the face identification information X in the (N-1) th normal image information but also that area. A face area within a predetermined range, for example, a face located at a position separated by one or more in the left-right direction, and a face area located on the upper and lower shelves may be included. Furthermore, in addition to the area of the face identification information X in the N-1th normal image information, the area of a plurality of adjacent faces such as face identification information X-2, X-1, X, X + 1, and X + 2 is included. You may.

この場合,N回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と,N−1回目の正置画像情報における,比較対象となる範囲のフェイスの範囲の領域のそれぞれの画像情報とを比較し,もっとも類似性が高いN−1回目の正置画像情報のフェイス識別情報を特定する。なお,類似性は一定の閾値以上であることを条件としてもよい。そして特定したN−1回目の正置画像情報のフェイス識別情報に対応する商品識別情報の候補を識別情報候補記憶部22から抽出し,N回目の正置画像情報におけるフェイス識別情報Xの商品識別情報の候補とする。この処理を模式的に示すのが図23である。図23(a)は前回(N−1回目)の正置画像情報であり,図23(b)は今回(N回目)の正置画像情報である。そして,N回目の正置画像情報の棚段1の各フェイスの領域の画像情報と,N−1回目の正置画像情報の棚段1の各フェイスの領域の画像情報とをそれぞれ比較することで類似性を判定し,もっとも類似性が高いN−1回目の正置画像情報の棚段1のフェイスの商品識別情報の候補を,N回目の正置画像情報の棚段1のフェイスの商品識別情報の候補として特定をすることを示す。図23では,N回目の正置画像情報のフェイスに対応する位置にあるN−1回目の正置画像情報のフェイスに加え,その左右2つずつのフェイスとの比較を行う場合を示している。なお同一棚段のみならず,上下の棚段のフェイス位置の画像情報との比較を行ってもよい。たとえば図23の場合,N回目の正置画像情報の棚段2の中心のフェイス位置の商品識別情報の候補を特定する際に,N−1回目の正置画像情報の棚段2の中心およびその左右2つずつのフェイスの領域の画像情報と比較するのみならず,N−1回目の正置画像情報の棚段1の中心およびその左右2つずつのフェイスの領域の画像情報,N−1回目の正置画像情報の棚段3の中心およびその左右2つずつのフェイスの領域の画像情報と類似性の比較を行ってもよい。   In this case, the image information of the area of the face identification information X in the N-th normal image information and the image information of the area of the face to be compared in the (N−1) -th normal image information are And identifies the face identification information of the (N−1) th normal image information having the highest similarity. Note that the similarity may be a condition that the similarity is equal to or more than a certain threshold. Then, the candidate of the product identification information corresponding to the identified face identification information of the (N-1) th normal image information is extracted from the identification information candidate storage unit 22, and the product identification of the face identification information X in the Nth normal image information is performed. Information candidates. FIG. 23 schematically shows this processing. FIG. 23A shows the previous (N-1) -th normal image information, and FIG. 23B shows the current (N-th) normal-image information. Then, the image information of the area of each face of the shelf 1 of the N-th regular image information is compared with the image information of the area of each face of the shelf 1 of the N-1th regular image information. To determine the candidate of the product identification information of the face of the shelf 1 of the (N-1) -th normal image information having the highest similarity, and the product of the face of the shelf 1 of the N-th normal image information. Indicates that the identification information is specified as a candidate. FIG. 23 shows a case in which, in addition to the face of the (N−1) -th regular image information located at a position corresponding to the face of the N-th regular image information, comparison is performed with two faces each on the left and right sides. . Note that not only the same shelf but also the image information of the face positions of the upper and lower shelf may be compared. For example, in the case of FIG. 23, when specifying the candidate of the product identification information at the face position at the center of the shelf 2 of the N-th normal image information, the center of the shelf 2 of the N-1th normal image information and Not only is it compared with the image information of the two face areas on the left and right sides, but also the image information of the center of the shelf 1 and the face area on the left and right sides of the N-1th regular image information, A comparison may be made between the image information of the center of the shelf 3 and the image information of two faces on the left and right sides of the shelf 3 in the first normal image information.

N−1回目の正置画像情報のフェイスの画像情報との比較の結果,類似性が閾値を充足しないなどによって商品識別情報の候補を特定できなかった場合には,N回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と,標本情報記憶部21に記憶する標本情報とを比較して,類似性が所定の閾値以上で,かつ,もっとも類似性が高い商品識別情報を,N回目の正置画像情報におけるフェイス識別情報Xのフェイスの商品識別情報の候補として特定をする。この場合の類似性の判定処理は,初回の商品識別情報の特定処理と同様に行える。   If the candidate of the product identification information cannot be specified due to the similarity not satisfying the threshold value as a result of the comparison of the N-1th normal image information with the face image information, the Nth normal image information Is compared with the sample information stored in the sample information storage unit 21, and the product identification information having the similarity equal to or more than a predetermined threshold value and having the highest similarity is identified by N It is specified as a candidate for the product identification information of the face of the face identification information X in the second regular image information. In this case, the similarity determination process can be performed in the same manner as the first process of specifying the product identification information.

以上のようにして特定した商品識別情報の候補は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報に対応づけて識別情報候補記憶部22に記憶する。   The product identification information candidates identified as described above correspond to shooting date and time information, store information, image information identification information of captured image information, image identification information of normal image information, and face identification information for identifying a face. In addition, it is stored in the identification information candidate storage unit 22.

実施例1乃至実施例4では,同一の陳列棚を同一の機会に異なる角度で撮影した画像情報のそれぞれにおいて,フェイスにおける商品識別情報の候補を特定し,対応するフェイス同士を比較することで,当該フェイスにおける商品識別情報を確定した。本実施例では,異なる角度で撮影した画像情報のそれぞれについてフェイスにおける商品識別情報の候補を特定するのではなく,異なる角度で撮影した画像情報を先に合成して光等の写り込み部分を消し込んだ上で得られた一枚の画像情報に対して,フェイスにおける商品識別情報の特定処理を実行する場合を説明する。この場合の画像認識システム1のシステム構成のブロック図の一例を図24および図25に示す。   In the first to fourth embodiments, in each piece of image information obtained by photographing the same display shelf at the same opportunity and at different angles, the candidates of the product identification information in the face are specified, and the corresponding faces are compared. The product identification information on the face has been determined. In the present embodiment, for each piece of image information photographed at different angles, a candidate for product identification information on the face is not specified, but image information photographed at different angles is first synthesized to eliminate the reflected portion of light or the like. A description will be given of a case where the identification processing of the product identification information on the face is performed on one piece of image information obtained after the insertion. An example of a block diagram of the system configuration of the image recognition system 1 in this case is shown in FIGS.

本実施例の画像認識システム1においては,撮影画像情報記憶部20と標本情報記憶部21と識別情報記憶部23と画像情報処理部24とを有する。撮影画像情報記憶部20,標本情報記憶部21,識別情報記憶部23は,実施例1乃至実施例4と同様の構成である。   The image recognition system 1 according to the present embodiment includes a captured image information storage unit 20, a specimen information storage unit 21, an identification information storage unit 23, and an image information processing unit 24. The photographed image information storage unit 20, the specimen information storage unit 21, and the identification information storage unit 23 have the same configuration as the first to fourth embodiments.

画像情報処理部24は,撮影画像情報入力受付処理部241と撮影画像情報正値化処理部と棚段位置特定処理部243と棚段領域切出処理部244とフェイス特定処理部245と識別情報特定処理部246と棚段画像マッチング処理部247と画像情報加工処理部248とを有する。   The image information processing unit 24 includes a photographed image information input reception processing unit 241, a photographed image information positive value processing unit, a shelf position identification processing unit 243, a shelf area cutout processing unit 244, a face identification processing unit 245, and identification information. It has a specific processing unit 246, a shelf image matching processing unit 247, and an image information processing processing unit 248.

撮影画像情報入力受付処理部241と撮影画像情報正値化処理部とは実施例1乃至実施例4と同様の処理を実行する。すなわち,撮影画像情報入力受付処理部241は,撮影画像情報入力端末3で撮影した店舗の陳列棚の画像情報(撮影画像情報)の入力を受け付け,撮影画像情報記憶部20に記憶させる。また,撮影画像情報正置化処理部242は,撮影画像情報記憶部20に記憶した撮影画像情報に対して台形補正処理を実行して正置化した,正置画像情報を生成する。   The photographed image information input reception processing unit 241 and the photographed image information positive value processing unit execute the same processing as in the first to fourth embodiments. That is, the photographed image information input reception processing unit 241 receives input of image information (photographed image information) of the display shelf of the store photographed by the photographed image information input terminal 3 and stores the image information in the photographed image information storage unit 20. Further, the photographed image information normalization processing unit 242 performs trapezoidal correction processing on the photographed image information stored in the photographed image information storage unit 20 to generate normal image information.

画像情報加工処理部248は,撮影画像情報に基づいて正値化処理を実行した正置画像情報の一部または全部の範囲について,それぞれ一つの画像情報に合成する処理を実行する。すなわち,同一の陳列棚を同一の機会に異なる角度で撮影した各正置画像情報の一部または全部の範囲について,所定の基準単位,たとえば10ピクセルから100ピクセル程度を基準単位としてメッシュで区切る。そして,各メッシュの領域の画像情報の明度の平均値を算出する。この明度の平均値を,異なる角度で撮影した各正置画像情報で対応するメッシュごとに比較し,明度の平均値がもっとも小さい画像情報のメッシュを特定する。この処理をすべてのメッシュについて行う。特定したメッシュの領域の画像情報を一枚の画像情報(加工済正置画像情報)として縦または横方向に並べて合成すれば,光の写り込みによる影響を低減した画像情報を生成することができる。なお,メッシュ領域の画像情報については,明度の平均値に限らず,明度についてのほかの評価基準による指標値を用いて,合成するメッシュを特定すればよい。また,画像情報加工処理部248で処理対象とする画像情報は,それらの画像情報間で,シャッター速度,絞り値等の撮影条件が同一または同等となるように補正されていることが好ましい。撮影条件が相違するまたは同等に補正されていない画像情報間で上述の明度を用いた処理を実行した場合,写り込みがない部分については,明度に基づく指標値が低い(暗い)画像情報が選ばれることとなる。この場合であっても写り込み自体は除去できるが,生成する画像情報全体のコントラスト,明度が低くなる,あるいは荒れが目立つなどの問題が生じやすくなり,認識精度に影響を与える可能性があるからである。   The image information processing unit 248 executes a process of synthesizing one or more ranges of part or all of the normal image information that has been subjected to the positive value conversion process based on the captured image information. That is, a part or the entire range of each piece of normal image information obtained by photographing the same display shelf at different angles at the same opportunity is divided into meshes using a predetermined reference unit, for example, about 10 to 100 pixels as a reference unit. Then, the average value of the brightness of the image information of the area of each mesh is calculated. The average value of the brightness is compared for each of the corresponding meshes in the normal image information photographed at different angles, and the mesh of the image information with the smallest average value of the brightness is specified. This process is performed for all meshes. By arranging the image information of the specified mesh area in the vertical or horizontal direction as one piece of image information (processed normal image information) and synthesizing the image information, it is possible to generate image information in which the influence of light reflection is reduced. . It should be noted that the image information of the mesh area is not limited to the average value of the brightness, and the mesh to be combined may be specified using an index value based on another evaluation criterion for the brightness. Further, it is preferable that the image information to be processed by the image information processing unit 248 is corrected so that the photographing conditions such as the shutter speed and the aperture value are the same or equal among the image information. When the above-described processing using the lightness is executed between image information having different shooting conditions or not being corrected equivalently, image information having a low index value based on lightness (dark) is selected for a portion where no image is reflected. It will be. Even in this case, the reflection itself can be removed, but problems such as a reduction in contrast and brightness of the generated image information or a noticeable roughness are likely to occur, which may affect recognition accuracy. It is.

フェイス特定処理部245と識別情報特定処理部246と棚段画像マッチング処理部247における各処理は,実施例1乃至実施例4と同様であるが,その処理対象は正置画像情報の棚段領域ではなく,画像情報加工処理部248で生成した加工済正置画像情報に対して行う。また,識別情報特定処理部246は,実施例1乃至実施例4ではフェイス領域における商品の商品識別情報の候補を特定し,識別情報候補記憶部22に記憶させていたが,本実施例では,フェイス領域における商品の商品識別情報を特定し,識別情報記憶部23に特定した情報を記憶させる。   Each processing in the face identification processing unit 245, the identification information identification processing unit 246, and the shelf image matching processing unit 247 is the same as that in the first to fourth embodiments, but the processing target is the shelf area of the normal image information. Instead, it is performed on the processed normal image information generated by the image information processing unit 248. In the first to fourth embodiments, the identification information identification processing unit 246 identifies the candidate for the product identification information of the product in the face area and stores the candidate in the identification information candidate storage unit 22. The product identification information of the product in the face area is specified, and the specified information is stored in the identification information storage unit 23.

このように加工済正置画像情報に対して処理を実行することで,実施例1乃至実施例4のように,フェイスにおける商品識別情報の候補を特定せずとも,棚段領域の範囲の画像情報について,画像情報加工処理部248による合成処理が実行されるので,棚段領域について光の写り込みによる影響を低減することができる。そのため,精度よく,フェイスにおける商品識別情報を直接特定することができる。   By executing the processing on the processed normal image information in this manner, the image in the range of the shelf area can be identified without specifying the candidate for the product identification information on the face as in the first to fourth embodiments. Since the information is subjected to the synthesis processing by the image information processing unit 248, the influence of the reflection of light on the shelf area can be reduced. Therefore, the product identification information on the face can be directly specified with high accuracy.

画像情報加工処理部248における正置画像情報に対する処理は,棚段位置特定処理部243で特定した棚段位置の領域の画像情報,棚段領域切出処理部244で切り出した棚段領域の画像情報に対して実行することが好ましいが,それに限定されず,撮影画像情報正値化処理部で生成した正置画像情報の一部または全体の範囲に対して実行してもよい。   The processing for the normal image information in the image information processing unit 248 includes the image information of the area of the shelf position specified by the shelf position identification processing unit 243 and the image of the shelf area extracted by the shelf area extraction processing unit 244. It is preferable to execute the processing on the information, but the present invention is not limited to this. The processing may be executed on a part or the entire range of the normal image information generated by the photographed image information positive value processing unit.

つぎに本実施例における処理プロセスの一例を図26および図27のフローチャートを用いて説明する。   Next, an example of a processing process according to the present embodiment will be described with reference to the flowcharts of FIGS.

店舗の陳列棚の撮影担当者は,同一の陳列棚について,光等の写り込みが重ならないように,複数の角度から撮影を行う。そして店舗の陳列棚について,同一の機会に異なる角度から撮影された撮影画像情報(図8,図9)は,撮影画像情報入力端末3から入力され,管理端末2の画像情報処理部24における撮影画像情報入力受付処理部241でその入力を受け付ける(S300)。また,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報の入力を受け付ける。そして,撮影画像情報入力受付処理部241は,入力を受け付けた撮影画像情報,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報を対応づけて撮影画像情報記憶部20に記憶させる。   The person in charge of photographing the display shelves in the store photographs the same display shelves from a plurality of angles so that the reflection of light or the like does not overlap. The photographed image information (FIGS. 8 and 9) of the display shelf of the store photographed from different angles at the same opportunity is input from the photographed image information input terminal 3 and photographed by the image information processing unit 24 of the management terminal 2. The image information input reception processing unit 241 receives the input (S300). In addition, input of image capturing date and time, store identification information, and image information identification information of captured image information is received. Then, the captured image information input reception processing unit 241 stores the captured image information, the captured date and time, the shop identification information, and the image information identification information of the captured image information in the captured image information storage unit 20 in association with each other.

管理端末2において所定の操作入力を受け付けると,撮影画像情報正置化処理部242は,撮影画像情報記憶部20に記憶する撮影画像情報を抽出し,台形補正処理を行うための頂点である棚位置(陳列棚の位置)の4点の入力を受け付け,台形補正処理を実行する(S310)。このようにして台形補正処理が実行された撮影画像情報(正置画像情報)の一例が,図10,図11である。   When a predetermined operation input is received in the management terminal 2, the photographed image information normalization processing unit 242 extracts the photographed image information stored in the photographed image information storage unit 20, and is a vertex for performing a trapezoidal correction process. The input of four positions (display shelf positions) is received, and trapezoidal correction processing is executed (S310). FIGS. 10 and 11 show examples of photographed image information (normal image information) on which the trapezoidal correction processing has been performed in this manner.

そして,正置画像情報に対して,管理端末2において所定の操作入力を受け付けることで,棚段位置特定処理部243は,棚段領域を特定する(S320)。すなわち,正置画像情報における棚段領域の入力を受け付ける。図12および図13が,棚段領域が特定された状態を示す図である。   Then, the shelf position identification processing unit 243 identifies a shelf area by receiving a predetermined operation input in the management terminal 2 with respect to the normal image information (S320). That is, the input of the shelf area in the normal image information is accepted. FIG. 12 and FIG. 13 are diagrams showing a state where the shelf area is specified.

以上のようにして,棚段領域を特定すると,棚段領域切出処理部244は,S320で入力を受け付けた棚段の領域に基づいて,正置画像情報から棚段領域の画像情報を切り出す(S330)。   When the shelf area is specified as described above, the shelf area cutout processing unit 244 cuts out the image information of the shelf area from the normal image information based on the area of the shelf that has received the input in S320. (S330).

画像情報加工処理部248は,S330で棚段領域切出処理部244が切り出した棚段領域の画像情報について,加工済正置画像情報生成処理を実行する(S340)。   The image information processing unit 248 executes a processed normal image information generation process on the image information of the shelf area extracted by the shelf area extraction processing unit 244 in S330 (S340).

まず画像情報加工処理部248は,切り出した棚段領域の正置画像情報に対して,対応する棚段領域ごとに縦,横のサイズが一致または略一致するように,倍率を変更するなどしてサイズをそろえておく。そして,切り出した棚段領域の正置画像情報に対して,所定の基準単位,たとえば10ピクセルごとにメッシュで区切る(S400)。この状態を模式的に示すのが図28である。図28(a)が図12,図28(b)が図13の正置画像情報の棚段領域に対してメッシュ化した状態を示している。   First, the image information processing unit 248 changes the magnification of the cut-out shelf area information so that the vertical and horizontal sizes of the corresponding shelf area coincide or substantially coincide with each other. And keep the size. Then, the normal image information of the cut-out shelf area is sectioned by a predetermined reference unit, for example, every 10 pixels with a mesh (S400). FIG. 28 schematically shows this state. FIG. 28A shows a state in which the shelf area of the normal image information in FIG. 13 is meshed with FIG.

そして画像情報加工処理部248は,各メッシュについて,メッシュの領域の画像情報ごとの明度の平均値を算出する(S410)。なお平均値としては単純平均でもよいし,加重平均などでもよく,またメッシュの領域の画像情報ごとの明度に基づく基準値であれば,平均以外の演算による値であってもよい。   Then, the image information processing unit 248 calculates, for each mesh, an average value of brightness for each piece of image information in the mesh area (S410). Note that the average value may be a simple average, a weighted average, or the like, or may be a value other than the average as long as it is a reference value based on the brightness of each image information of the mesh area.

そして,画像情報加工処理部248は,対応するメッシュごとに,明度の平均値(基準値)を比較し(S420),比較したうち,もっとも明度の小さいメッシュの画像情報を特定する(S430)。図28であれば,図28(a),図28(b)の各正置画像情報において,それぞれの正置画像情報の棚段領域における各メッシュについて,メッシュの領域の画像情報ごとの明度の平均値を算出する。そして,メッシュA1(図28(a))とメッシュA2(図28(b))とが対応するので,メッシュA1の明度の平均値とメッシュA2の明度の平均値とを比較する。たとえばメッシュA1の明度の平均値が小さければ,メッシュA1を特定する。また,メッシュB1(図28(a))とメッシュB2(図28(b))とが対応するので,メッシュB1の明度の平均値とメッシュB2の明度の平均値とを比較する。たとえばメッシュB2の明度の平均値が小さければ,メッシュB2を特定する。このように,対応するメッシュについての明度の比較,特定処理をすべてのメッシュについて行う。   Then, the image information processing unit 248 compares the average value (reference value) of the brightness for each corresponding mesh (S420), and specifies the image information of the mesh with the smallest brightness among the comparisons (S430). In the case of FIG. 28, in each of the normal image information of FIGS. 28 (a) and 28 (b), for each mesh in the shelf area of the normal image information, the brightness of each image information of the mesh area is determined. Calculate the average value. Since the mesh A1 (FIG. 28A) and the mesh A2 (FIG. 28B) correspond, the average value of the brightness of the mesh A1 and the average value of the brightness of the mesh A2 are compared. For example, if the average value of the brightness of the mesh A1 is small, the mesh A1 is specified. Further, since the mesh B1 (FIG. 28A) and the mesh B2 (FIG. 28B) correspond, the average value of the brightness of the mesh B1 is compared with the average value of the brightness of the mesh B2. For example, if the average value of the brightness of the mesh B2 is small, the mesh B2 is specified. In this manner, the brightness comparison and the specific processing for the corresponding meshes are performed for all the meshes.

そして特定したメッシュを縦,横に並べて配置することで,一つの画像情報(加工済正置画像情報)を生成する(S440)。上述の例では,メッシュA1,メッシュB2などが特定されているので,メッシュA1,メッシュB2など,S430の処理で特定したメッシュを縦,横に並べて配置することで,当該棚段領域における一つの画像情報として合成し,生成する。この処理を模式的に示すのが図29である。なお,図29では,わかりやすさのため,図28の棚段領域のうち,最上位の棚段領域に対する処理を一例として示している。   Then, by arranging the specified meshes vertically and horizontally, one image information (processed normal image information) is generated (S440). In the above example, since the meshes A1 and B2 are specified, the meshes specified in the processing of S430, such as the meshes A1 and B2, are arranged vertically and horizontally to arrange one mesh in the shelf area. It is synthesized and generated as image information. FIG. 29 schematically shows this processing. In FIG. 29, for the sake of simplicity, the processing for the highest shelf area in the shelf area of FIG. 28 is shown as an example.

以上のような処理を実行することで,棚段領域について光の写り込みを減らした画像情報を生成できる。   By executing the above-described processing, it is possible to generate image information with reduced reflection of light in the shelf area.

このように加工済正置画像情報に対して,実施例1乃至実施例4と同様に,フェイス特定処理部245がフェイスの特定処理,識別情報特定処理部246がフェイス単位での商品識別情報の特定処理を実行する(S350,S360)。すなわち,フェイス特定処理部245が,加工済正置画像情報においてフェイスの領域を特定し,識別情報特定処理部246が,標本情報記憶部21に記憶する標本情報と,フェイスの領域における画像情報との画像マッチング処理による商品識別情報の特定処理を実行することで,当該フェイスの領域における商品の商品識別情報を特定する。そして,特定した商品識別情報を,実施例1乃至実施例4と同様に,識別情報記憶部23に記憶させる(S370)。   As in the first to fourth embodiments, the face identification processing unit 245 performs face identification processing on the processed normal image information, and the identification information identification processing unit 246 outputs the product identification information on a face-by-face basis. A specific process is executed (S350, S360). That is, the face specifying processing unit 245 specifies the face area in the processed normal image information, and the identification information specifying processing unit 246 determines the sample information stored in the sample information storage unit 21 and the image information in the face area. By executing the process of specifying the product identification information by the image matching process, the product identification information of the product in the face area is specified. Then, the specified product identification information is stored in the identification information storage unit 23 as in the first to fourth embodiments (S370).

なお,本実施例による処理を用いたとしても,すべてのフェイスの商品識別情報を特定できるとは限らない。そこで,特定できていないフェイスについては,商品識別情報の入力を受け付け,入力を受け付けた商品識別情報を,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像情報識別情報,フェイス識別情報に対応づけて,商品識別情報の候補として識別情報候補記憶部22に記憶してもよい。また,特定した商品識別情報の候補の修正処理についても同様に,入力を受け付けてもよい。   Even if the processing according to the present embodiment is used, it is not always possible to specify the product identification information of all faces. Therefore, for the face that cannot be identified, the input of the product identification information is received, and the received product identification information is used as the shooting date and time, the store identification information, the image information identification information of the shot image information, and the image information of the normal image information. The identification information and the face identification information may be stored in the identification information candidate storage unit 22 as candidates for the product identification information in association with each other. Similarly, an input may be received for the process of correcting the identified product identification information candidate.

以上のような処理を行うことで,撮影画像情報に写っている陳列棚の棚段に陳列されている商品の商品識別情報を特定することができる。   By performing the above processing, it is possible to specify the product identification information of the product displayed on the shelf of the display shelf shown in the captured image information.

なお本実施例においても,実施例1乃至実施例4における各処理部の変形処理を用いることができる。   Also in this embodiment, the modification processing of each processing unit in the first to fourth embodiments can be used.

標本情報記憶部21に記憶する標本情報に,光や周囲の色の写り込みなどがあるとその商品の外観(たとえばパッケージや包装)の画像的特徴(画像特徴量)に影響があるので,画像マッチング処理の精度に影響を与える。そのため,標本情報として用いる画像情報には,光や周囲の色の写り込みによって,商品の本来の色が損なわれないように撮影した画像情報を用いることが好ましい。しかし,商品の外観の形状や素材などによっては,光の反射によって,写り込みが避けがたい場合がある。たとえば,金属製の缶の場合,反射率が高いので照明の光の反射が写真に写り込むことが避けられない。   If the specimen information stored in the specimen information storage unit 21 includes reflection of light or surrounding colors, the image characteristics (image characteristic amount) of the appearance (eg, package or packaging) of the product are affected. Affects the accuracy of the matching process. Therefore, it is preferable to use, as the image information used as the sample information, image information captured so that the original color of the product is not impaired by reflection of light or surrounding colors. However, depending on the external shape of the product and the material, it is sometimes difficult to avoid reflection due to light reflection. For example, in the case of a metal can, since the reflectance is high, it is inevitable that the reflection of the illumination light is reflected in the photograph.

商品の標本情報を撮影するときの写り込み等の外乱を与える要素としては,商品の撮影環境と,商品の外観の形状がある。撮影環境には,照明装置などの光源に加え,商品の背景や商品を載置する面の状態などがある。また商品の外観の形状は,商品の外観を構成する面の方向によって,撮影装置や,照明装置などの光の写り込みを生じる。   Factors that cause disturbance such as reflection when photographing specimen information of a product include the photographing environment of the product and the shape of the appearance of the product. The shooting environment includes the background of the product and the state of the surface on which the product is placed, in addition to the light source such as a lighting device. In addition, depending on the direction of the surface constituting the appearance of the product, the appearance of the product reflects light such as a photographing device and a lighting device.

そこで,本実施例では,写り込みのない標本情報を得るための処理を説明する。本実施例における処理は,実施例1乃至実施例5の標本情報に対しても適用可能である。   Therefore, in the present embodiment, a process for obtaining sample information without reflection will be described. The processing in the present embodiment is also applicable to the sample information of the first to fifth embodiments.

撮影環境による写り込みに対する方法としては,以下の撮影方法を適用できる。   The following shooting method can be applied as a method for reflection in the shooting environment.

標本情報のゆがみを防止するため,撮影装置での撮影は,商品の水平方向の正対方向から行う。この場合,反射などにより商品の外観に写り込みが生じることは避けがたい場合もあることから,写り込むものが白色や灰色などの特定の色相を持たない平板なものを写り込ませる。具体的には,特定の色相を持たない白色や灰色を背景とし,標本情報とする商品の撮影をする。商品の背景としては,白色や灰色の紙,布などを用いることがよい。そして背景とした白色や灰色の紙,布などは,商品を載置する面にも折り目なく,写り込みの結果が平板になる程度まで,商品の前面にまで広げておく。これによって,撮影環境による写り込みによる影響を軽減できる。   In order to prevent distortion of the sample information, the photographing by the photographing device is performed from the horizontal facing direction of the product. In this case, since it is sometimes unavoidable that reflection is caused on the appearance of the product due to reflection or the like, the reflection is performed on a flat object having no specific hue such as white or gray. Specifically, an image of a product with sample information is set against a white or gray background having no specific hue. As the background of the product, white or gray paper, cloth, or the like is preferably used. The white or gray paper or cloth used as the background is not folded on the surface on which the product is to be placed, and is spread out to the front of the product until the reflected image becomes a flat plate. Thereby, the influence of the reflection due to the shooting environment can be reduced.

商品の外観の形状による写り込みに対する方法としては,以下の撮影方法を適用できる。   The following photographing method can be applied as a method for reflection by the appearance shape of the product.

標本情報の撮影対象となる商品について,商品と撮影装置との相対的な位置(たとえば撮影装置で撮影される商品の面と,撮影装置との相対的位置)を変更せずに,商品と照明などの光源との相対的位置(たとえば光源により光が照射される商品の面と,光源との相対的位置)を変更して,商品を複数回撮影する。換言すれば,商品と撮影装置との相対的位置を変更せず,撮影装置と光源との相対的位置を変更して,商品を複数回撮影する。つまり撮影した画像情報において同じ位置,同じ大きさ(サイズ),同じ角度で商品が写るようにし,照明などの光源からの光が商品に異なる角度から照射されるようにして,複数回,撮影を行い,画像認識システム1はその入力を受け付ける。図30に商品を撮影する状態を上方からみた場合の一例を示す。図30(a)は商品の左側から照明を当てて撮影する状態の一例を示す図であり,図30(b)は商品の右側から照明を当てて撮影する状態の一例を示す図である。図30では,撮影装置を挟んで左右2カ所から撮影する場合を示しているが,3カ所以上から撮影をしてもよい。図30では,光源のもっとも撮影装置寄りから出射した光によって,商品の中心軸にもっとも近い箇所に生じる写り込みの光路を破線矢印で示している。この場合,入射光の角度(入射角)と反射光の角度(反射角)とは,商品の面に対する垂線を対称軸として同一となる。   For a product to be photographed for sample information, the product and the lighting are changed without changing the relative position between the product and the photographing device (for example, the relative position between the surface of the product photographed by the photographing device and the photographing device). By changing the relative position with respect to the light source (for example, the surface of the product irradiated with light by the light source and the relative position with respect to the light source), the product is photographed a plurality of times. In other words, the relative position between the imaging device and the light source is changed without changing the relative position between the product and the imaging device, and the product is imaged a plurality of times. In other words, the product is captured at the same position, the same size (size), and the same angle in the captured image information, and the light from the light source such as illumination is radiated to the product from different angles, so that the product is photographed multiple times. Then, the image recognition system 1 receives the input. FIG. 30 shows an example of a state in which a product is imaged when viewed from above. FIG. 30A is a diagram illustrating an example of a state in which an image is shot from the left side of a product with illumination, and FIG. 30B is a diagram illustrating an example of a state in which an image is shot with illumination from the right side of the product. Although FIG. 30 shows a case where images are taken from two places on the left and right across the image taking device, images may be taken from three or more places. In FIG. 30, the light path of the reflection generated at the position closest to the center axis of the product by the light emitted from the light source closest to the photographing device is indicated by a broken arrow. In this case, the angle of the incident light (incident angle) and the angle of the reflected light (reflection angle) are the same, with the perpendicular to the surface of the product as the axis of symmetry.

そして,画像認識システム1は,入力を受け付けた複数の画像情報において,写り込みが生じていない部分を切り出して互いに合成することで,適切な標本情報を得る。適切な標本情報は,標本情報記憶部21に記憶される。図31にこの処理を模式的に示す。図31(a)は図30(a)の状態で撮影した画像情報であり,図31(b)は図30(b)の状態で撮影した画像情報であり,図31(c)は,図31(a),(b)の画像情報を合成した適切な標本情報である。すなわち,図30(a)は右側から光を当てて商品を撮影しているので,商品の右側に光の写り込みが発生しやすい。また,図30(b)は左側から光を当てて商品を撮影しているので,商品の左側に光の写り込みが発生しやすい。換言すれば,図31(a)では商品の左側(A)には光の写り込みがなく,図31(b)では商品の右側(B)には光の写り込みがない。そのため,図31(a)の商品の左側(A)の領域の画像情報と,図31(b)の商品の右側(B)の領域の画像情報とをそれぞれ切り出し,一つの画像情報に合成をする(図31(c))。これによって,光の写り込みがない適切な標本情報を合成することができる。   Then, the image recognition system 1 obtains appropriate sample information by cutting out portions where no reflection has occurred in the plurality of pieces of image information whose input has been received and combining them with each other. Appropriate sample information is stored in the sample information storage unit 21. FIG. 31 schematically shows this processing. FIG. 31A shows image information shot in the state of FIG. 30A, FIG. 31B shows image information shot in the state of FIG. 30B, and FIG. 31 (a) and 31 (b) are appropriate sample information obtained by synthesizing the image information. That is, in FIG. 30A, since the product is photographed by irradiating light from the right side, the reflection of light is likely to occur on the right side of the product. In addition, in FIG. 30B, since the product is photographed by irradiating light from the left side, reflection of light is likely to occur on the left side of the product. In other words, no light is reflected on the left side (A) of the product in FIG. 31A, and no light is reflected on the right side (B) of the product in FIG. 31B. Therefore, the image information of the left side (A) of the product in FIG. 31A and the image information of the right side (B) of the product in FIG. 31B are cut out and combined into one piece of image information. (FIG. 31C). Thereby, it is possible to synthesize appropriate sample information without reflection of light.

なお,図30(a),(b)において,入射角と反射角の和α,βは,同一または略同一となることが好ましい。それによって,撮影した画像情報において,商品が画像情報の横方向の中心付近に写るようになっていれば,撮影した画像情報における写り込みが発生していない左半分または右半分同士をそれぞれ切り出して合成すればよいので画像の合成処理が簡単となる。入射角と反射角の和α,βは,同一または略同一の場合,画像情報の合成処理の精度を向上させることができるが,角度α,βは同一または略同一でなくてもよい。   In FIGS. 30A and 30B, it is preferable that the sums α and β of the incident angle and the reflection angle be the same or substantially the same. As a result, in the photographed image information, if the product is located near the center of the image information in the horizontal direction, the left half or the right half where no reflection occurs in the photographed image information is cut out. Since it is sufficient to combine the images, the image combining process is simplified. When the sums α and β of the incident angle and the reflection angle are the same or substantially the same, the accuracy of the image information synthesizing process can be improved, but the angles α and β need not be the same or substantially the same.

図30および図31の処理をより具体的に説明すると,以下のようになる。撮影対象となる商品の外観の形状は,一般的には,商品の水平断面図が凸状または略凸状であることから,概略,図32に示す3種類に大別できる。すなわち,箱に入った商品のように,直方体または略直方体の場合(正面が平面)(図32(a)),飲料缶のように,円柱状等であり,側面が垂直である場合(図32(b)),ワインの瓶のように,上部に球面等の曲面があるなど,側面の一部が垂直ではない場合(図32(c))である。便宜的に,図32(a)を第1ケース,図32(b)を第2ケース,図32(c)を第3ケースとする。   The processing of FIGS. 30 and 31 will be described more specifically as follows. In general, the appearance of a product to be imaged can be roughly classified into three types shown in FIG. 32 since the horizontal sectional view of the product is convex or substantially convex. That is, in the case of a rectangular parallelepiped or a substantially rectangular parallelepiped (a front is flat) as in a product in a box (FIG. 32 (a)), and in the case of a beverage can having a columnar shape or the like and a vertical side (see FIG. 32 (b)), a case where a part of the side surface is not vertical, such as a wine bottle having a curved surface such as a spherical surface at the top (FIG. 32 (c)). For convenience, FIG. 32A is a first case, FIG. 32B is a second case, and FIG. 32C is a third case.

図33は,第1のケースを撮影装置で撮影する場合を示す図である。図33(a)は商品を撮影する場合の上方からの図,図33(b)は商品を撮影する場合の側方からの図である。第1のケースの場合,撮影装置を商品に対して正対させ,商品を照らす光が一方向から来るように,照明などの光源は,たとえば1灯とする。そして,照明装置などの光源から出射した光は,商品における撮影装置に正対している面(一点鎖線で示される範囲の反射面)に反射し,撮影装置の焦点に入射する。   FIG. 33 is a diagram illustrating a case where the first case is photographed by the photographing device. FIG. 33 (a) is a view from above when shooting a product, and FIG. 33 (b) is a view from the side when shooting a product. In the case of the first case, the light source such as illumination is, for example, one light so that the photographing device is directly opposed to the product and the light illuminating the product comes from one direction. The light emitted from a light source such as a lighting device is reflected on a surface (reflection surface in a range indicated by a one-dot chain line) facing the photographing device in the product, and is incident on a focal point of the photographing device.

そうすると,撮影装置の焦点と商品の反射面の右辺または左辺とを結ぶ直線を,商品の反射面から撮影装置に対する垂線を対称軸として直線を想定した場合,その直線の外側(撮影装置とは反対側)の領域(領域X,領域Y)のいずれかの位置に光源を設置すれば,商品に写り込みは生じない。ここで,撮影装置の焦点と商品の反射面の右辺または左辺とを結ぶ直線と当該垂線とから構成される角度と,領域X,Yの境界線となる線と当該垂線との角度は,入射角と反射角との関係から,ともに角度aである。したがって,領域X,領域Yのいずれか一カ所から撮影をすればよい(合成はしなくてもよい)。あるいは,図33(b)のように,商品の頂部からの水平線と撮影装置から商品の頂部に対する角度bと同一の角度bである直線(水平線を対称軸とした線)よりも上方の領域を領域Zとし,その領域Zに光源を設置して撮影を行う。第1のケースの場合,図33(a)または図33(b)のように撮影をすれば,商品への光源の写り込みはなくなる。   Then, assuming a straight line connecting the focal point of the photographing device and the right or left side of the reflecting surface of the product and a straight line with the perpendicular line from the reflecting surface of the product to the photographing device as the axis of symmetry, outside the straight line (opposite to the photographing device) If the light source is installed at any position in the region (region X, region Y) of the (side), no reflection occurs on the product. Here, the angle formed by a straight line connecting the focal point of the photographing apparatus and the right side or the left side of the reflection surface of the product and the perpendicular, and the angle between the perpendicular line and the boundary line between the regions X and Y are the incident angles. From the relationship between the angle and the reflection angle, both are angles a. Therefore, it is only necessary to take an image from any one of the area X and the area Y (composition does not need to be performed). Alternatively, as shown in FIG. 33 (b), an area above a horizontal line from the top of the product and a straight line (a line with the horizontal line as a symmetric axis) having the same angle b as the angle b with respect to the top of the product from the photographing device is defined. A region Z is set, and a light source is set in the region Z to perform photographing. In the case of the first case, if the image is taken as shown in FIG. 33 (a) or FIG. 33 (b), the light source is not reflected on the product.

図34は,第2のケースを撮影装置で撮影する場合を示す図である。第2のケースにおいては,図34(a)のように,図33(b)の場合と同様に,商品の頂部からの水平線と撮影装置から商品の頂部に対する角度bと同一の角度bである直線(水平線を対称軸とした線)よりも上方の領域を領域Zとし,その領域Zに光源を設置して撮影を行う。そして図34(a)のように撮影できない場合,図34(b)のように撮影を行う。図34(b)は,商品を撮影する場合の上方からの図である。図34(b)では,図30と同様に,商品と撮影装置との相対的な位置(たとえば撮影装置で撮影される商品の面と,撮影装置との相対的位置)を変更せずに,商品と照明などの光源との相対的位置(たとえば光源により光が照射される商品の面と,光源との相対的位置)を変更して,商品を複数回撮影する。そして,それぞれの位置で撮影した画像情報を,それぞれ写り込みのない部分を合成して,標本画像情報とする。   FIG. 34 is a diagram illustrating a case where the second case is photographed by the photographing device. In the second case, as shown in FIG. 34 (a), the angle b is the same as the angle b from the horizontal line from the top of the product to the top of the product from the photographing device, as in the case of FIG. 33 (b). A region above a straight line (a line having a horizontal line as a symmetry axis) is defined as a region Z, and a light source is installed in the region Z to perform photographing. When photographing cannot be performed as shown in FIG. 34A, photographing is performed as shown in FIG. FIG. 34 (b) is a view from above when a product is photographed. In FIG. 34 (b), as in FIG. 30, the relative position between the product and the photographing device (for example, the relative position between the product photographed by the photographing device and the photographing device) is not changed. The product is photographed a plurality of times by changing the relative position between the product and a light source such as lighting (for example, the surface of the product irradiated with light by the light source and the relative position to the light source). Then, the image information photographed at each position is combined with a part without reflection to obtain sample image information.

すなわち,照明から出射した光は,商品の反射面で反射し,それが撮影装置の焦点に入射する。そのため,商品の左側の領域(領域X)に照明を設置した場合,その照明から出射した光は商品の左側に写り込みを生じさせ,商品の右側の領域(領域Y)に照明を設置した場合,その照明から出射した光は商品の右側に写り込みを生じさせる。そのため,商品の左側に光源を位置させた場合の画像情報ではその右側を,商品の右側に光源を位置させた場合の画像情報ではその左側を,それぞれ特定し,一つの画像情報に合成して標本情報とする。   That is, the light emitted from the illumination is reflected by the reflection surface of the product, and is incident on the focal point of the photographing device. Therefore, when lighting is installed in the left area (area X) of the product, light emitted from the lighting causes reflection on the left side of the product, and lighting is installed in the right area (area Y) of the product. The light emitted from the illumination causes reflection on the right side of the product. Therefore, the right side is specified in the image information when the light source is located on the left side of the product, and the left side is specified in the image information when the light source is positioned on the right side of the product. Sample information.

図35は,第3のケースを撮影装置で撮影する場合を示す図である。図35は,図30および図34(b)と同様に,商品と撮影装置との相対的な位置(たとえば撮影装置で撮影される商品の面と,撮影装置との相対的位置)を変更せずに,商品と照明などの光源との相対的位置(たとえば光源により光が照射される商品の面と,光源との相対的位置)を変更して,商品を複数回撮影する。そして,それぞれの位置で撮影した画像情報を,それぞれ写り込みのない部分を合成して,標本画像情報とする。   FIG. 35 is a diagram illustrating a case where the third case is photographed by the photographing device. FIG. 35 shows a case where the relative position between the product and the photographing device (for example, the relative position between the surface of the product photographed by the photographing device and the photographing device) is changed similarly to FIGS. 30 and 34B. Instead, the merchandise is photographed a plurality of times by changing the relative position between the merchandise and a light source such as lighting (for example, the surface of the merchandise irradiated with light by the light source and the relative position to the light source). Then, the image information photographed at each position is combined with a part without reflection to obtain sample image information.

以上のように,商品の標本情報を撮影する場合には,その商品の外観の形状に応じて,第1のケース乃至第3のケースに対応する撮影方法を適用すればよい。しかし,一般的に商品の外観の形状はさまざまであるから,3つのケースに分類するのではなく,第3のケース(つまり上述の図30,図34(b),図35と同様の撮影方法)を用いることで,汎用的に適用することができる。   As described above, when photographing the specimen information of a product, a photographing method corresponding to the first to third cases may be applied according to the shape of the appearance of the product. However, since the appearance of the product generally has various shapes, the product is not classified into three cases, but is classified into a third case (that is, a photographing method similar to that of FIGS. 30, 34 (b), and 35 described above). ) Can be used for general purposes.

以上のような撮影方法により商品の標本情報を撮影することで,撮影条件および商品の外観の形状の双方による外乱を軽減した標本情報を得ることができる。   By photographing the specimen information of the product by the photographing method as described above, it is possible to obtain the specimen information in which disturbance due to both the photographing conditions and the appearance of the commodity is reduced.

実施例6の変形例として,実施例5の処理を用いてもよい。すなわち,適切な標本情報を生成するために,商品と撮影装置との相対的位置関係を変更せずに,光源の位置を変更して撮影をした複数の画像情報について,実施例5と同様の処理を実行する。具体的には,実施例5のように商品を撮影した複数の画像情報のうち,画像情報の全部または一部(商品を含む領域)をメッシュに区切り,そのメッシュにおける明度の平均値を算出する。そして対応するメッシュごとに,明度の平均値を算出して,もっとも値が小さいメッシュの画像情報を特定する。このように特定したメッシュの画像情報を縦,横に並べて配置することで,適切な標本情報とする。   As a modification of the sixth embodiment, the processing of the fifth embodiment may be used. In other words, in order to generate appropriate sample information, a plurality of pieces of image information obtained by changing the position of the light source without changing the relative positional relationship between the product and the image capturing apparatus are used. Execute the process. More specifically, of the plurality of pieces of image information obtained by photographing the product as in the fifth embodiment, all or a part of the image information (region including the product) is divided into meshes, and the average value of brightness in the mesh is calculated. . Then, the average value of the brightness is calculated for each corresponding mesh, and the image information of the mesh having the smallest value is specified. By arranging the image information of the mesh thus specified vertically and horizontally, appropriate sample information is obtained.

本実施例における処理を用いて生成した標本情報は,実施例1乃至実施例5と同様の処理を実行することで,画像情報に写っている商品の商品識別情報を特定するほか,撮影画像情報または正置画像情報と,標本情報とを単純に画像マッチング処理を実行することで,商品識別情報を特定する処理を実行する画像認識システム1のように構成してもよい。   The sample information generated by using the processing in the present embodiment performs the same processing as in the first to fifth embodiments to specify the product identification information of the product shown in the image information and to obtain the photographed image information. Alternatively, the image recognition system 1 may be configured to execute the process of specifying the product identification information by simply executing the image matching process on the normal image information and the sample information.

上述の実施例1乃至実施例6では,店舗などの陳列棚に陳列されている商品の商品識別情報を,陳列棚を撮影した画像情報から特定する場合を説明したが,商品の識別情報の特定処理に限らず,画像情報から特定対象物の識別情報を特定する場合にも用いることができる。すなわち,撮影対象物(たとえば特定対象物を複数配置等する物)または特定対象物(識別情報の特定対象となる物)を,同一の機会に複数の角度から撮影した画像情報と,標本情報との類似性を比較することで,画像情報に写っている特定対象物の識別情報を特定する画像認識システム1に適用することができる。その場合の具体的な処理として実施例1乃至実施例6の処理を適用することができる。この場合,陳列棚に対する処理は撮影対象物に対する処理,商品に対する処理は特定対象物に対する処理として読み替えればよい。   In the above-described first to sixth embodiments, the case has been described in which the product identification information of the product displayed on the display shelf of a store or the like is specified from the image information obtained by photographing the display shelf. The present invention can be used not only for processing but also for specifying identification information of a specific target object from image information. That is, an image object (for example, an object in which a plurality of specific objects are arranged, etc.) or a specific object (an object to be identified in identification information) is photographed from a plurality of angles at the same opportunity, By comparing the similarities of the above, the present invention can be applied to the image recognition system 1 that specifies the identification information of the specific target object appearing in the image information. In that case, the processing of the first to sixth embodiments can be applied as specific processing. In this case, the processing on the display shelf may be read as the processing on the photographing target, and the processing on the product may be read as the processing on the specific target.

本発明の画像認識システム1を用いることによって,光等が画像情報に写り込んでいる場合でも,従来よりも精度よく,商品などの対象物の特定が行える。   By using the image recognition system 1 of the present invention, even when light or the like is reflected in image information, an object such as a product can be specified with higher accuracy than before.

1:画像認識システム
2:管理端末
3:撮影画像情報入力端末
20:撮影画像情報記憶部
21:標本情報記憶部
22:識別情報候補記憶部
23:識別情報記憶部
24:画像情報処理部
25:識別情報比較処理部
70:演算装置
71:記憶装置
72:表示装置
73:入力装置
74:通信装置
241:撮影画像情報入力受付処理部
242:撮影画像情報正置化処理部
243:棚段位置特定処理部
244:棚段領域切出処理部
245:フェイス特定処理部
246:識別情報特定処理部
247:棚段画像マッチング処理部
248:画像情報加工処理部
2420:N−1回目の画像情報における特徴量採取領域
2421:N回目の画像情報における特徴量採取領域
1: image recognition system 2: management terminal 3: photographed image information input terminal 20: photographed image information storage unit 21: sample information storage unit 22: identification information candidate storage unit 23: identification information storage unit 24: image information processing unit 25: Identification information comparison processing unit 70: Arithmetic device 71: Storage device 72: Display device 73: Input device 74: Communication device 241: Photographed image information input reception processing unit 242: Photographed image information normalization processing unit 243: Shelf stage position identification Processing unit 244: shelf area cutout processing unit 245: face identification processing unit 246: identification information identification processing unit 247: shelf image matching processing unit 248: image information processing processing unit 2420: feature in N-1st image information Quantity sampling area 2421: Feature quantity sampling area in N-th image information

Claims (4)

商品と撮影装置との相対位置を変更せずに商品と光源との相対位置を変更して撮影した複数の画像情報の一部を切り出して一つの画像情報に合成することで生成した前記商品の標本情報を記憶する標本情報記憶部と,
商品を陳列した陳列棚が写っている画像情報の一部または全部と,前記標本情報記憶部に記憶する商品の標本情報とを比較することで,前記陳列棚が写っている画像情報における商品の商品識別情報を特定する識別情報特定処理部と,
を有することを特徴とする画像認識システム。
Without changing the relative position between the product and the photographing device, changing the relative position between the product and the light source, cutting out a part of a plurality of pieces of image information taken and combining them into one piece of image information, A sample information storage unit for storing sample information;
By comparing a part or all of the image information showing the display shelf displaying the product with the sample information of the product stored in the sample information storage unit, the product information in the image information showing the display shelf is compared. An identification information identification processing unit that identifies product identification information;
An image recognition system comprising:
水平断面が凸状または略凸状である商品と撮影装置との相対位置を変更せずに,前記撮影装置を挟んで左右に位置する光源からそれぞれ照明を当てて撮影した画像情報の入力を受け付け,
入力を受け付けた前記画像情報のうち,前記撮影装置を挟んで右側に光源が位置して撮影した画像情報についてはその画像情報の中心線から左側の領域を切り出し,前記撮影装置を挟んで左側に光源が位置して撮影した画像情報についてはその画像情報の中心線から右側の領域を切り出し,
前記切り出した左側の領域および右側の領域の画像情報を一つの画像情報に合成することで,前記商品の標本情報を生成する,
ことを特徴とする画像認識システム。
Accepts input of image information photographed by illuminating each of the light sources located on the left and right sides of the photographing device without changing the relative position between the product whose horizontal cross section is convex or substantially convex and the photographing device. ,
Of the image information for which input has been received, for image information in which a light source is positioned on the right side of the imaging device, a region on the left side is cut out from the center line of the image information, and the region on the left side of the imaging device is cut out. For image information captured with the light source positioned, cut out the area to the right from the center line of the image information,
Generating the sample information of the product by synthesizing the image information of the cut-out left region and the right region into one image information;
An image recognition system, characterized in that:
商品と撮影装置との相対位置を変更せずに商品と光源との相対位置を変更して撮影した複数の画像情報の一部を切り出して一つの画像情報に合成することで生成した前記商品の標本情報を記憶する標本情報記憶部を利用するコンピュータを,
商品を陳列した陳列棚が写っている画像情報の一部または全部と,前記標本情報記憶部に記憶する商品の標本情報とを比較することで,前記陳列棚が写っている画像情報における商品の商品識別情報を特定する識別情報特定処理部,
として機能させることを特徴とする画像認識プログラム。
Without changing the relative position between the product and the photographing device, changing the relative position between the product and the light source, cutting out a part of a plurality of pieces of image information taken and combining them into one piece of image information, A computer that uses a sample information storage unit that stores sample information
By comparing a part or all of the image information showing the display shelf displaying the product with the sample information of the product stored in the sample information storage unit, the product information in the image information showing the display shelf is compared. Identification information identification processing unit for identifying product identification information,
An image recognition program characterized by functioning as a computer.
コンピュータに,
水平断面が凸状または略凸状である商品と撮影装置との相対位置を変更せずに,前記撮影装置を挟んで左右に位置する光源からそれぞれ照明を当てて撮影した画像情報の入力を受け付ける機能,
入力を受け付けた前記画像情報のうち,前記撮影装置を挟んで右側に光源が位置して撮影した画像情報についてはその画像情報の中心線から左側の領域を切り出し,前記撮影装置を挟んで左側に光源が位置して撮影した画像情報についてはその画像情報の中心線から右側の領域を切り出す機能,
前記切り出した左側の領域および右側の領域の画像情報を一つの画像情報に合成することで,前記商品の標本情報を生成する機能,
を実現させることを特徴とする画像認識プログラム。
On the computer,
Accepts input of image information captured by illuminating each of the light sources located on the left and right sides of the photographing device without changing the relative position between the product whose horizontal cross section is convex or substantially convex and the photographing device. function,
Of the image information for which input has been received, for image information in which a light source is positioned on the right side of the imaging device, a region on the left side is cut out from the center line of the image information, and the region on the left side of the imaging device is cut out. For image information captured with the light source positioned, a function to cut out the right area from the center line of the image information,
A function of generating the sample information of the product by combining the extracted image information of the left region and the right region with one image information;
An image recognition program characterized by realizing:
JP2019078183A 2019-04-16 2019-04-16 Image recognition system Active JP6664675B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019078183A JP6664675B2 (en) 2019-04-16 2019-04-16 Image recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019078183A JP6664675B2 (en) 2019-04-16 2019-04-16 Image recognition system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018041332A Division JP6536707B1 (en) 2018-03-07 2018-03-07 Image recognition system

Publications (2)

Publication Number Publication Date
JP2019160327A JP2019160327A (en) 2019-09-19
JP6664675B2 true JP6664675B2 (en) 2020-03-13

Family

ID=67997027

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019078183A Active JP6664675B2 (en) 2019-04-16 2019-04-16 Image recognition system

Country Status (1)

Country Link
JP (1) JP6664675B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6236825B2 (en) * 2013-03-26 2017-11-29 日本電気株式会社 Vending machine sales product recognition apparatus, sales product recognition method, and computer program
JP2015068668A (en) * 2013-09-27 2015-04-13 株式会社Screenホールディングス Appearance inspection device

Also Published As

Publication number Publication date
JP2019160327A (en) 2019-09-19

Similar Documents

Publication Publication Date Title
US10552933B1 (en) Image processing methods and arrangements useful in automated store shelf inspections
US10083522B2 (en) Image based measurement system
CN106952402B (en) A kind of data processing method and device
JP5984096B2 (en) Method and mechanism for identifying an object
US8805077B2 (en) Subject region detecting apparatus
JP2001283224A (en) Face collating method, recording medium stored with the collating method and face collator
CN110264645A (en) A kind of self-service cash method and equipment of commodity
JP6440043B1 (en) Product identification system
JP6458239B1 (en) Image recognition system
Rosado et al. Supervised learning for out-of-stock detection in panoramas of retail shelves
US20120257822A1 (en) Image processing apparatus, image processing method, and computer readable medium
JP6746123B2 (en) Image recognition system
JP6536707B1 (en) Image recognition system
JP6651169B2 (en) Display status judgment system
JP6628336B2 (en) Information processing system
JP6664675B2 (en) Image recognition system
Martinel et al. Robust painting recognition and registration for mobile augmented reality
US20060204091A1 (en) System and method for analyzing and processing two-dimensional images
JP6885563B2 (en) Display status judgment system
JP6890849B2 (en) Information processing system
JP6737446B2 (en) Product identification system
JP6887167B2 (en) Image processing system
US20240046597A1 (en) System that calculates available shelf space based on images projected onto the shelf surface
RU2805760C1 (en) Method and device for retail goods identification
JP2020115380A (en) Commodity specifying system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190520

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190905

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190917

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200203

R150 Certificate of patent or registration of utility model

Ref document number: 6664675

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150