JP6628336B2 - Information processing system - Google Patents

Information processing system Download PDF

Info

Publication number
JP6628336B2
JP6628336B2 JP2018116678A JP2018116678A JP6628336B2 JP 6628336 B2 JP6628336 B2 JP 6628336B2 JP 2018116678 A JP2018116678 A JP 2018116678A JP 2018116678 A JP2018116678 A JP 2018116678A JP 6628336 B2 JP6628336 B2 JP 6628336B2
Authority
JP
Japan
Prior art keywords
information
depth
product
image
face area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018116678A
Other languages
Japanese (ja)
Other versions
JP2019219901A (en
Inventor
成吉 谷井
成吉 谷井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Marketvision Co Ltd
Original Assignee
Marketvision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Marketvision Co Ltd filed Critical Marketvision Co Ltd
Priority to JP2018116678A priority Critical patent/JP6628336B2/en
Priority to JP2019203567A priority patent/JP6890849B2/en
Publication of JP2019219901A publication Critical patent/JP2019219901A/en
Application granted granted Critical
Publication of JP6628336B2 publication Critical patent/JP6628336B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は,撮影した画像情報において領域を特定するための情報処理システムに関する。   The present invention relates to an information processing system for specifying an area in captured image information.

小売業界においては,商品の陳列状況が商品の販売に影響することが知られている。そのため,商品の製造会社,販売会社としては,自社または他社のどのような商品が店舗に陳列されているのかを把握することで,自社商品の開発戦略,販売戦略につなげることができる。   In the retail industry, it is known that the display status of a product affects the sale of the product. Therefore, as a product manufacturing company and a sales company, it is possible to link to a development strategy and a sales strategy of the company's product by grasping what kind of product of the company or another company is displayed in the store.

一方,その実現のためには,店頭に陳列されている商品の正確な特定が重要である。そこで,店舗の陳列棚を撮影し,その画像情報から陳列されている商品を,人間が手作業で特定をすることが考えられる。この場合,ほぼ正確に商品を特定することができる。しかし,商品の陳列状況を継続的に把握するためには,一定期間ごとにその陳列状況を把握しなければならないが,店舗の陳列棚を撮影した画像情報から毎回,人間が商品を特定するのは負担が大きく,また非効率である。   On the other hand, in order to achieve this, it is important to accurately identify the products displayed at stores. Therefore, it is conceivable that a human may manually specify the displayed product from the image information of the display shelf of the store. In this case, the product can be specified almost accurately. However, in order to continuously grasp the display status of products, it is necessary to grasp the display status at regular intervals. However, every time a human identifies a product from image information obtained by photographing the display shelf of a store. Is burdensome and inefficient.

そこで店舗の陳列棚を撮影した画像情報から,そこに陳列されている商品や商品タグを自動的に特定し,陳列している商品に関する情報を把握することが求められる。たとえば商品ごとの標本画像をもとに,店舗の陳列棚を撮影した画像に対して画像認識技術を用いる方法がある。これらの従来技術として,たとえば,下記特許文献1乃至特許文献3に示すような技術を用いて,商品の陳列状況を管理するシステムが存在する。   Therefore, it is necessary to automatically identify the products and product tags displayed there from image information obtained by photographing the display shelves of the store, and to grasp information on the displayed products. For example, there is a method of using an image recognition technique for an image of a display shelf of a store based on a sample image of each product. As these prior arts, for example, there is a system that manages the display status of commodities by using the technologies described in Patent Literatures 1 to 3 below.

特開平5−342230号公報JP-A-5-342230 特開平5−334409号公報JP-A-5-334409 国際公開2012/029548International Publication 2012/029548

特許文献1の発明は,商品をどの陳列棚に陳列すべきかの知識がない者であっても,商品の陳列ができるように支援するシステムである。そのため,実際に陳列されている商品の情報を把握することはできない。また特許文献2は,商品の陳列を支援する棚割支援システムにおいて,商品画像の入力を支援するシステムである。しかし特許文献2のシステムでは,棚割支援システムを利用する際の商品画像の入力を支援するのみであって,このシステムを用いたとしても,実際に陳列されている商品の情報を把握することはできない。   The invention of Patent Literature 1 is a system that supports even a person who does not have knowledge of a display shelf on which a product should be displayed, so that the product can be displayed. Therefore, it is not possible to grasp the information of the actually displayed product. Patent Document 2 discloses a shelf layout support system that supports display of products, which is a system that supports input of product images. However, the system of Patent Document 2 only supports input of a product image when using the shelf layout support system, and even if this system is used, it is necessary to grasp the information of the products actually displayed. Can not.

特許文献3は,陳列棚に空き空間がある場合に,その空き空間に陳列すべき商品を特定したり,陳列棚に陳列すべき商品を置き間違えた場合にそれを通知する発明である。この発明でも,商品と,陳列棚に陳列されている商品との画像マッチング処理を行って,陳列棚に陳列されている商品を特定しているが,認識精度が低いのが実情である。   Patent Literature 3 is an invention in which, when there is an empty space in a display shelf, a product to be displayed in the empty space is specified, or when a product to be displayed on the display shelf is misplaced, the notification is made. In this invention as well, the product displayed on the display shelf is specified by performing image matching processing between the product and the product displayed on the display shelf, but the actual situation is that the recognition accuracy is low.

陳列棚を撮影した画像に対して,商品の標本画像をもとに画像認識技術を用いる場合,標本画像と,陳列棚を撮影した画像における商品の陳列部分の領域との画像特徴量同士の類似性を利用して商品を認識する。商品の陳列部分の領域の画像特徴量は,陳列棚を撮影した画像から,商品の陳列部分として特定する領域の範囲によって変わりうる。そのため,部分画像をより正確に特定できれば,標本画像とのマッチングの際の精度向上につなげることができる。また陳列棚を撮影した画像から,商品タグに記載されている情報をOCR認識する場合も,商品タグとして認識する領域の正確性によって,認識精度が変わりうる。   When using image recognition technology based on a sample image of a product on an image of a display shelf, the similarity between the image features of the sample image and the area of the display portion of the product in the image of the display shelf Recognize products by using their characteristics. The image feature amount of the region of the display portion of the product may vary depending on the range of the region specified as the display portion of the product from the image of the display shelf. Therefore, if the partial image can be specified more accurately, it is possible to improve the accuracy in matching with the sample image. Also, in the case where the information described in the product tag is OCR-recognized from the image of the display shelf, the recognition accuracy may vary depending on the accuracy of the area to be recognized as the product tag.

本発明者は,陳列棚を撮影した画像情報における商品が陳列されている領域または商品タグの領域を精度よく特定するための情報処理システムを発明した。   The inventor of the present invention has invented an information processing system for accurately specifying an area where products are displayed or an area of a product tag in image information obtained by photographing a display shelf.

請求項1の発明は,画像情報と深さ情報とを用いる情報処理システムであって,前記情報処理システムは,前記深さ情報を用いて商品面または深さフェイス領域を特定する深さ処理部と,前記特定した商品面または深さフェイス領域を用いて,前記画像情報における画像フェイス領域を特定する画像認識処理部と,を有しており,前記深さ処理部は,前記深さ情報に基づいて面を検出し,前記検出した面の前後関係を用いて面の種別を特定し,前記面の種別が商品面である面において,パッケージタイプごとの深さフェイス領域の判定条件で比較することで,前記深さフェイス領域を特定する,情報処理システムである。
The invention according to claim 1 is an information processing system that uses image information and depth information, wherein the information processing system specifies a product surface or a depth face area using the depth information. When, using said identified product surface or depth face area, and an image recognition processing unit that specifies an image face area in the image information, which have a, the depth processing unit, the depth information A surface is detected based on the detected surface, the type of the surface is specified using the context of the detected surface, and the surface type is a product surface, and a comparison is made based on a determination condition of a depth face area for each package type. Thus, the information processing system specifies the depth face area .

本発明では,物理的な深さ情報により商品面または深さフェイス領域を特定し,それを用いて,画像情報における画像フェイス領域を特定することから,画像情報のみから特定をする従来の方法よりも,精度よく特定することができる。また,深さフェイス領域を特定するためには,さまざまな方法があるが,本発明の処理を用いることで,精度よく特定できる。
In the present invention, since the product surface or the depth face area is specified by physical depth information and the image face area in the image information is specified using the same, the conventional method of specifying only the image information is used. Can also be specified with high accuracy. Further, there are various methods for specifying the depth face area, but by using the processing of the present invention, the depth face area can be specified with high accuracy.

上述の発明において,前記判定条件は,前記パッケージタイプが缶または瓶の場合には,一定の大きさの範囲内にある円筒の領域を缶または瓶の深さフェイス領域として特定する,前記パッケージタイプが缶と瓶の併存であった場合には,一定の大きさの範囲内に円筒があり,上方に小さな円筒がない領域を缶の深さフェイス領域,一定の大きさの範囲内に円筒があり,上方に小さな円筒がある領域を瓶の深さフェイス領域として特定する,前記パッケージタイプが箱物であった場合,一定の大きさの範囲内にある垂直の長方形の平面の領域を箱物の深さフェイス領域として特定する,または,前記パッケージタイプが吊るし商品であった場合,一定のサイズの範囲内にある長方形の平面または凹凸面の領域を,吊るし商品の深さフェイス領域として特定する,のうちいずれか一以上を含む,情報処理システムのように構成することができる。   In the above invention, the determination condition is that, when the package type is a can or a bottle, the cylindrical area within a predetermined size is specified as a depth face area of the can or the bottle. If both were cans and bottles, there was a cylinder within a certain size range, the area without a small cylinder above it was the depth face area of the can, and the cylinder was within a certain size range. If the package type is a box, the area with a small cylinder above it is identified as the depth face area of the bottle. If the package type is a hanging product, or if the package type is a hanging product, an area of a rectangular flat surface or uneven surface within a certain size range is used as the depth face area of the hanging product. Identified as including one or more one of the can be configured as an information processing system.

判定条件としてはさまざまな条件があるが,本発明の判定条件とすることで,汎用的に対応することができる。   Although there are various conditions for the determination, the determination conditions of the present invention can be used for general purposes.

請求項3の発明は,画像情報と深さ情報とを用いる情報処理システムであって,前記情報処理システムは,前記深さ情報を用いて商品面または深さフェイス領域を特定する深さ処理部と,前記特定した商品面または深さフェイス領域を用いて,前記画像情報における画像フェイス領域を特定する画像認識処理部と,を有しており,前記画像認識処理部は,前記深さ処理部において,前記商品面または深さフェイス領域が特定できなかった,または前記深さフェイス領域が所定の幅以上であった場合に,前記画像情報において,商品と商品との間の陰影,画像の繰り返しパターン,パッケージの上辺の段差,商品幅のいずれか一以上に基づいて,画像フェイス領域を特定し,前記特定した画像フェイス領域と標本情報との類似性を判定することで,前記画像フェイス領域に陳列されている商品の商品識別情報を特定する,情報処理システムである。
The invention according to claim 3 is an information processing system using image information and depth information, wherein the information processing system uses a depth processing unit that specifies a product surface or a depth face area using the depth information. If the identified using a product surface or depth face area, and an image recognition processing unit that specifies an image face area in the image information, which have a, the image recognition processing unit, the depth processor In the above, if the product surface or the depth face area could not be specified, or if the depth face area was equal to or larger than a predetermined width, the image information may include a shadow between the products and the repetition of the image. Identifying an image face area based on at least one of a pattern, a step on an upper side of a package, and a product width, and determining a similarity between the identified image face area and specimen information. , To identify the product identification information of commodities displayed on the image face area, an information processing system.

深さ情報を用いた場合でも,商品面または深さフェイス領域が常に特定できるとは限らない。そこで,画像情報から画像フェイス領域を特定する方法と併存させてもよい。   Even when the depth information is used, the product surface or the depth face area cannot always be specified. Therefore, the method may coexist with a method of specifying an image face area from image information.

請求項1の発明は,本発明のプログラムを、コンピュータに読み込ませて実行することで実現できる。すなわち,コンピュータを,深さ情報を用いて商品面または深さフェイス領域を特定する深さ処理部,前記特定した商品面または深さフェイス領域を用いて,画像情報における画像フェイス領域を特定する画像認識処理部,として機能させる情報処理プログラムであって,前記深さ処理部は,前記深さ情報に基づいて面を検出し,前記検出した面の前後関係を用いて面の種別を特定し,前記面の種別が商品面である面において,パッケージタイプごとの深さフェイス領域の判定条件で比較することで,前記深さフェイス領域を特定する,情報処理プログラムのように構成することができる。
The invention of claim 1 can be realized by causing a computer to read and execute the program of the present invention. That is, a computer is used to execute a depth processing unit that specifies a product surface or a depth face area using depth information, and an image that specifies an image face area in image information using the specified product surface or depth face area. An information processing program functioning as a recognition processing unit, wherein the depth processing unit detects a surface based on the depth information, specifies a type of the surface using the context of the detected surface, The information processing program can be configured as an information processing program that specifies the depth face region by comparing the surface type, which is the product type, with the determination condition of the depth face region for each package type .

請求項3の発明は,本発明のプログラムを、コンピュータに読み込ませて実行することで実現できる。すなわち,コンピュータを,深さ情報を用いて商品面または深さフェイス領域を特定する深さ処理部,前記特定した商品面または深さフェイス領域を用いて,画像情報における画像フェイス領域を特定する画像認識処理部,として機能させる情報処理プログラムであって,前記画像認識処理部は,前記深さ処理部において,前記商品面または深さフェイス領域が特定できなかった,または前記深さフェイス領域が所定の幅以上であった場合に,前記画像情報において,商品と商品との間の陰影,画像の繰り返しパターン,パッケージの上辺の段差,商品幅のいずれか一以上に基づいて,画像フェイス領域を特定し,前記特定した画像フェイス領域と標本情報との類似性を判定することで,前記画像フェイス領域に陳列されている商品の商品識別情報を特定する,情報処理プログラムのように構成することができる。
The invention of claim 3 can be realized by causing a computer to read and execute the program of the present invention. That is, a computer is used to execute a depth processing unit that specifies a product surface or a depth face area using depth information, and an image that specifies an image face area in image information using the specified product surface or depth face area. An information processing program functioning as a recognition processing section , wherein the image recognition processing section has failed to identify the product surface or the depth face area in the depth processing section, or has determined that the depth face area has a predetermined depth. If the width is not less than the width of the image, the image face area is specified in the image information based on at least one of a shadow between products, a repetition pattern of the image, a step on the upper side of the package, and a product width. Then, by determining the similarity between the specified image face area and the specimen information, the product identification of the product displayed in the image face area is determined. Specifying the information, it can be configured as an information processing program.

本発明の情報処理システムを用いることによって,撮影対象物を撮影した画像情報から,所定の領域を精度よく特定することができる。とくに,陳列棚を撮影した画像における商品の陳列部分,商品タグの領域を精度よく特定することができる。   By using the information processing system of the present invention, a predetermined area can be specified with high accuracy from image information obtained by photographing an object to be photographed. In particular, it is possible to accurately specify a product display portion and a product tag area in an image of a display shelf.

本発明の情報処理システムの処理機能の一例を模式的に示すブロック図である。It is a block diagram which shows an example of the processing function of the information processing system of this invention typically. 本発明の情報処理システムにおける深さ処理部の処理機能の一例を模式的に示すブロック図である。It is a block diagram which shows an example of the processing function of the depth processing part in the information processing system of this invention typically. 本発明の情報処理システムにおける画像認識処理部の処理機能の一例を模式的に示すブロック図である。It is a block diagram which shows an example of the processing function of the image recognition processing part in the information processing system of this invention typically. 本発明の情報処理システムで用いるコンピュータのハードウェア構成の一例を模式的に示すブロック図である。FIG. 3 is a block diagram schematically illustrating an example of a hardware configuration of a computer used in the information processing system of the present invention. 本発明の情報処理システムにおける全体の処理プロセスの一例を示すフローチャートである。5 is a flowchart illustrating an example of an entire processing process in the information processing system of the present invention. 撮影画像情報と深さ情報による深さマップとの対応関係を模式的に示す図である。It is a figure which shows typically the correspondence of the captured image information and the depth map by depth information. 撮影画像情報の一例を示す図である。FIG. 4 is a diagram illustrating an example of captured image information. 深さ情報をマッピングした深さマップの一例を模式的に示す図である。It is a figure which shows an example of the depth map which mapped depth information typically. 図7の撮影画像情報を正置化した正置画像情報の一例を示す図である。FIG. 8 is a diagram illustrating an example of normal image information obtained by normalizing the captured image information of FIG. 7. 深さマップについて,撮影画像情報に対して実行した正置化処理と同様の正置化処理を実行することを模式的に示す図である。It is a figure which shows typically performing the same emplacement process as the emplacement process performed with respect to the captured image information about a depth map. 図8の深さマップに対して,正置化処理を実行した状態の深さマップの一例を模式的に示す図である。FIG. 9 is a diagram schematically illustrating an example of a depth map in a state where normalization processing has been performed on the depth map of FIG. 8. 面種別特定処理部での面種別の特定処理の一例を示す図である。FIG. 6 is a diagram illustrating an example of a surface type specifying process in a surface type specifying processing unit. パッケージタイプが缶の場合のフェイスを特定するイメージ図である。It is an image figure which specifies a face when a package type is a can. パッケージタイプが瓶の場合のフェイスを特定するイメージ図である。It is an image figure which specifies a face when a package type is a bottle. パッケージタイプが箱物の場合のフェイスを特定するイメージ図である。It is an image figure which specifies a face when a package type is a box. パッケージタイプがつるし商品の場合のフェイスを特定するイメージ図である。It is an image figure which specifies a face when a package type is a hanging product. 商品タグ領域の画像情報を二値化した画像情報を示す図である。It is a figure which shows the image information which binarized the image information of the goods tag area | region. ボックスを生成した状態を示す図である。It is a figure showing the state where a box was generated. ブロックを生成した状態を示す図である。FIG. 7 is a diagram illustrating a state in which a block is generated. 商品タグに表記された商品名,OCR認識の結果,商品辞書に記憶する商品名のうち編集距離が最小の商品名,編集距離の一例を示す図である。It is a figure which shows an example of the product name described in the product tag, the product name with the shortest edit distance among the product names stored in a product dictionary as a result of OCR recognition, and the edit distance. 最終候補の文字数ごとの確定してよい編集距離の対応関係の表の一例を示す図である。It is a figure showing an example of a table of correspondence of edit distance which may be decided for every character number of the last candidate. 標本情報記憶部に記憶される標本情報の一例を示す図である。FIG. 4 is a diagram illustrating an example of sample information stored in a sample information storage unit. 陳列棚におけるフェイス領域を模式的に示す図である。It is a figure which shows the face area in a display shelf typically. 撮影画像情報の一例を示す図である。FIG. 4 is a diagram illustrating an example of captured image information. 撮影画像情報に対して,正置化処理が実行された撮影画像情報正置画像情報の一例を示す図である。FIG. 9 is a diagram illustrating an example of photographed image information placed image information obtained by performing a normalization process on photographed image information. 実施例2における画像認識処理部の処理機能の一例を示すブロック図である。FIG. 13 is a block diagram illustrating an example of a processing function of an image recognition processing unit according to the second embodiment. 実施例3における画像認識処理部の処理機能の一例を示すブロック図である。FIG. 13 is a block diagram illustrating an example of a processing function of an image recognition processing unit according to a third embodiment. 図25の正置画像情報から商品タグ領域を切り出した状態を示す図である。FIG. 26 is a diagram illustrating a state where a product tag area is cut out from the normal image information of FIG. 25. 正置化した商品タグ領域の画像情報を示す図である。It is a figure which shows the image information of the product tag area | region which was set as the normal. 実施例4において商品タグ領域,商品面などを模式的に示す図である。It is a figure in Example 4 which shows a goods tag area | region, a goods surface, etc. typically. 実施例4における処理を模式的に示す図である。FIG. 14 is a diagram schematically illustrating a process according to a fourth embodiment. パッケージタイプが缶,瓶の場合に,深さフェイス領域に対応する画像フェイス領域を切り出す処理の一例を模式的に示す図である。FIG. 11 is a diagram schematically illustrating an example of a process of cutting out an image face area corresponding to a depth face area when the package type is a can or a bottle. パッケージタイプが箱物,吊るし商品の場合に,深さフェイス領域に対応する画像フェイス領域を切り出す処理の一例を模式的に示す図である。It is a figure which shows typically an example of the process which cuts out the image face area | region corresponding to a depth face area | region when a package type is a box or a hanging product.

本発明の情報処理システム1の処理機能の一例をブロック図で図1乃至図3に示す。情報処理システム1は,管理端末2と入力端末3とを用いる。図1は情報処理システム1の全体の処理機能の一例を示すブロック図であり,図2は後述する深さ処理部23の処理機能の一例を示すブロック図であり,図3は後述する画像認識処理部24の処理機能の一例を示すブロック図である。   Examples of the processing functions of the information processing system 1 of the present invention are shown in block diagrams in FIGS. The information processing system 1 uses a management terminal 2 and an input terminal 3. FIG. 1 is a block diagram showing an example of an overall processing function of the information processing system 1, FIG. 2 is a block diagram showing an example of a processing function of a depth processing unit 23 described later, and FIG. FIG. 3 is a block diagram illustrating an example of a processing function of a processing unit 24.

管理端末2は,情報処理システム1を運営する企業等の組織が利用するコンピュータである。また,入力端末3は,店舗の陳列棚を撮影した画像情報,深さ情報の入力を行う端末である。   The management terminal 2 is a computer used by an organization such as a company that operates the information processing system 1. The input terminal 3 is a terminal for inputting image information and depth information of a display shelf of a store.

情報処理システム1における管理端末2,入力端末3は,コンピュータを用いて実現される。図4にコンピュータのハードウェア構成の一例を模式的に示す。コンピュータは,プログラムの演算処理を実行するCPUなどの演算装置70と,情報を記憶するRAMやハードディスクなどの記憶装置71と,情報を表示するディスプレイなどの表示装置72と,情報の入力が可能なキーボードやマウスなどの入力装置73と,演算装置70の処理結果や記憶装置71に記憶する情報をインターネットやLANなどのネットワークを介して送受信する通信装置74とを有している。   The management terminal 2 and the input terminal 3 in the information processing system 1 are realized using a computer. FIG. 4 schematically shows an example of a hardware configuration of a computer. The computer includes an arithmetic unit 70 such as a CPU that executes arithmetic processing of a program, a storage unit 71 such as a RAM or a hard disk that stores information, a display unit 72 such as a display that displays information, and a computer that can input information. It has an input device 73 such as a keyboard and a mouse, and a communication device 74 for transmitting and receiving processing results of the arithmetic device 70 and information stored in the storage device 71 via a network such as the Internet or a LAN.

コンピュータがタッチパネルディスプレイを備えている場合には,表示装置72と入力装置73とが一体的に構成されていてもよい。タッチパネルディスプレイは,たとえばタブレット型コンピュータやスマートフォンなどの可搬型通信端末などで利用されることが多いが,それに限定するものではない。   When the computer has a touch panel display, the display device 72 and the input device 73 may be integrally configured. Touch panel displays are often used in portable communication terminals such as tablet computers and smartphones, for example, but are not limited thereto.

タッチパネルディスプレイは,そのディスプレイ上で,直接,所定の入力デバイス(タッチパネル用のペンなど)や指などによって入力を行える点で,表示装置72と入力装置73の機能が一体化した装置である。   The touch panel display is a device in which the functions of the display device 72 and the input device 73 are integrated in that an input can be directly performed on the display by a predetermined input device (such as a touch panel pen) or a finger.

入力端末3は,上記の各装置のほか,カメラなどの撮影装置を備えている。入力端末3として,携帯電話,スマートフォン,タブレット型コンピュータなどの可搬型通信端末を用いることもできる。入力端末3は,撮影装置で可視光による画像情報(撮影画像情報)を撮影するほか,撮影対象と撮影装置との距離情報(深さ情報)を2次元情報として取得する。深さ情報がマッピングされた情報を,本明細書では深さマップとよぶ。深さマップは,撮影画像情報に対応しており,撮影画像情報に写っている各対象物までの深さ情報が,撮影画像情報と対応する位置にマッピングされている。深さマップは,少なくとも撮影画像情報に対応する範囲をメッシュ状に区切り,そのメッシュごとに深さ情報が与えられている。メッシュの縦,横の大きさは,取得できる深さ情報の精度に依存するが,メッシュの縦,横の大きさが小さいほど精度が上げられる。通常は,1mmから数mmの範囲であるが,1mm未満,あるいは1cm以上であってもよい。   The input terminal 3 includes an image capturing device such as a camera in addition to the devices described above. As the input terminal 3, a portable communication terminal such as a mobile phone, a smartphone, and a tablet computer can be used. The input terminal 3 captures image information (photographed image information) using visible light with the photographing device, and acquires distance information (depth information) between the photographing target and the photographing device as two-dimensional information. The information to which the depth information is mapped is called a depth map in this specification. The depth map corresponds to the photographed image information, and the depth information to each object shown in the photographed image information is mapped to a position corresponding to the photographed image information. In the depth map, at least a range corresponding to the captured image information is divided into meshes, and depth information is given to each mesh. The vertical and horizontal sizes of the mesh depend on the accuracy of the depth information that can be obtained. The smaller the vertical and horizontal sizes of the mesh, the higher the accuracy. Usually, the range is from 1 mm to several mm, but may be less than 1 mm or 1 cm or more.

深さ情報を取得する場合,撮影装置における陳列棚の撮影の際に,特定の波長の光線,たとえば赤外線を照射してそれぞれの方向からの反射光の量や反射光が到達するまでの時間を計測することで撮影対象までの距離情報(深さ情報)を取得する,あるいは特定の波長の光線,たとえば赤外線のドットパターンを照射し,反射のパターンから撮影対象までの距離情報(深さ情報)を計測するもののほか,ステレオカメラの視差を利用する方法があるが,これらに限定されない。なお,深さ情報が撮影装置(三次元上の一点)からの距離で与えられる場合には,かかる深さ情報を,撮影装置の撮影面(平面)からの深さ情報に変換をしておく。このように深さ情報を取得するための装置(深さ検出装置)を入力端末3は備えている。   When depth information is acquired, the amount of reflected light from each direction and the amount of time required for reflected light to reach when irradiating a light beam of a specific wavelength, for example, infrared light, when photographing a display shelf in the photographing device are measured. Obtain distance information (depth information) to the imaging target by measuring, or irradiate a light beam of a specific wavelength, for example, an infrared dot pattern, and distance information (depth information) from the reflection pattern to the imaging target In addition to the method of measuring the parallax, there is a method of using the parallax of the stereo camera, but the method is not limited thereto. If the depth information is given by the distance from the imaging device (one point on three dimensions), the depth information is converted into depth information from the imaging surface (plane) of the imaging device. . The input terminal 3 includes a device (depth detecting device) for acquiring depth information in this manner.

撮影画像情報と深さ情報とはその位置関係が対応をしている。撮影画像情報と深さ情報による深さマップとの対応関係を図6(a),(b)に模式的に示す。   The positional relationship between the captured image information and the depth information corresponds to each other. FIGS. 6A and 6B schematically show the correspondence between the captured image information and the depth map based on the depth information.

本発明における各手段は,その機能が論理的に区別されているのみであって,物理上あるいは事実上は同一の領域を為していても良い。本発明の各手段における処理は,その処理順序を適宜変更することもできる。また,処理の一部を省略してもよい。たとえば後述する正置化処理を省略することもできる。その場合,正置化処理をしていない画像情報に対する処理を実行することができる。   Each means in the present invention is only logically distinguished in its function, and may have the same physical or practical area. The processing order in each means of the present invention can be changed as appropriate. Also, part of the processing may be omitted. For example, a normalization process described later can be omitted. In that case, it is possible to execute processing on image information that has not been subjected to normalization processing.

情報処理システム1は,撮影画像情報入力受付処理部20と深さ入力受付処理部21と正置化処理部22と深さ処理部23と画像認識処理部24と画像情報記憶部25と標本情報記憶部26と商品識別情報記憶部27とを有する。   The information processing system 1 includes a photographed image information input reception processing unit 20, a depth input reception processing unit 21, a normalization processing unit 22, a depth processing unit 23, an image recognition processing unit 24, an image information storage unit 25, and sample information. It has a storage unit 26 and a product identification information storage unit 27.

撮影画像情報入力受付処理部20は,入力端末3で撮影した店舗の陳列棚の画像情報(撮影画像情報)の入力を受け付け,後述する画像情報記憶部25に記憶させる。入力端末3からは,撮影画像情報のほか,撮影日時,店舗名などの店舗識別情報,画像情報を識別する画像情報識別情報などをあわせて入力を受け付けるとよい。図7に撮影画像情報の一例を示す。図7では,陳列棚に3段の棚段があり,そこに商品が陳列されている撮影画像情報である。   The photographed image information input reception processing unit 20 receives input of image information (photographed image information) of a display shelf of a store photographed by the input terminal 3 and stores the image information in an image information storage unit 25 described later. The input terminal 3 may receive an input together with the photographed image information, the photographing date and time, store identification information such as a store name, image information identification information for identifying image information, and the like. FIG. 7 shows an example of photographed image information. In FIG. 7, there are three shelves on the display shelf, and this is the photographed image information in which products are displayed.

深さ入力受付処理部21は,入力端末3で撮影した店舗の陳列棚に対する深さ情報や深さマップの入力を受け付け,撮影画像情報入力受付処理部20で入力を受け付けた撮影画像情報に対応づけて,後述する画像情報記憶部25に記憶させる。図8に,深さ情報をマッピングした深さマップの一例を模式的に示す。なお,入力端末3から深さマップではなく,深さ情報を受け付けた場合には,それをマッピングして深さマップを生成する。   The depth input reception processing unit 21 receives input of depth information and a depth map for the display shelf of the store photographed by the input terminal 3, and corresponds to the captured image information received by the captured image information input reception processing unit 20. In addition, it is stored in an image information storage unit 25 described later. FIG. 8 schematically shows an example of a depth map in which depth information is mapped. When depth information is received from the input terminal 3 instead of the depth map, the depth information is mapped to generate a depth map.

正置化処理部22は,画像情報記憶部25に記憶した撮影画像情報に対して,撮影対象物が正対した状態になるように補正する処理(正置化処理),たとえば台形補正処理を実行した正置画像情報を生成する。台形補正処理は,撮影画像情報に写っている陳列棚の棚段が水平に,そこに陳列されている商品に対する商品タグが垂直になるように行う補正処理である。正置化とは,撮影装置のレンズの光軸を撮影対象である平面の垂線方向に沿って,十分に遠方から撮影した場合と同じになるように画像情報を変形させることであり,たとえば台形補正処理がある。   The normalization processing unit 22 performs processing (correction processing) for correcting the photographed image information stored in the image information storage unit 25 so that the object to be photographed faces directly, for example, trapezoidal correction processing. Generate the executed normal image information. The trapezoidal correction process is a correction process performed so that the shelf of the display shelf shown in the captured image information is horizontal and the product tag for the product displayed there is vertical. Orientation is to transform the image information so that the optical axis of the lens of the imaging device is along the direction perpendicular to the plane to be imaged so as to be the same as when the image is taken from a sufficiently long distance. There is a correction process.

正置化処理部22が実行する台形補正処理は,撮影画像情報において4頂点の指定の入力を受け付け,その各頂点を用いて台形補正処理を実行する。指定を受け付ける4頂点としては,陳列棚の棚段の4頂点であってもよいし,陳列棚の棚位置の4頂点であってもよい。また,2段,3段の棚段のまとまりの4頂点であってもよい。4頂点としては任意の4点を指定できる。図9に図7の撮影画像情報を正置化した撮影画像情報(正置画像情報)の一例を示す。   The trapezoid correction processing executed by the normalization processing unit 22 receives an input of designation of four vertices in the captured image information, and executes the trapezoid correction processing using each of the vertices. The four vertices for receiving the designation may be the four vertices of the shelf of the display shelf or the four vertices of the shelf position of the display shelf. Alternatively, four vertices of a set of two or three shelves may be used. Any four points can be designated as the four vertices. FIG. 9 shows an example of photographed image information (normal image information) obtained by normalizing the photographed image information of FIG.

また正置化処理部22は,撮影画像情報に対して実行した正置化処理と同様の正置化処理(同一の変換処理)を深さマップに対しても実行する。これを模式的に示すのが図10(a),(b)である。図10(a)は,図6(a)の撮影画像情報に対して正置化処理を実行した正置画像情報である。図10(b)は,図6(b)の深さマップについて,図10(a)の正置化処理と同様の正置化処理を施した状態の深さマップを示す図である。図11に,図8の深さマップに対して,正置化処理を実行した状態の深さマップの一例を模式的に示す。   The normalization processing unit 22 also performs the same normalization processing (the same conversion processing) as the normalization processing performed on the captured image information on the depth map. FIGS. 10A and 10B schematically show this. FIG. 10A shows the normal image information obtained by performing the normalization process on the captured image information of FIG. 6A. FIG. 10B is a diagram illustrating a depth map obtained by performing the same emplacement processing as the emplacement processing of FIG. 10A on the depth map of FIG. 6B. FIG. 11 schematically shows an example of a depth map in a state where the normalization processing has been performed on the depth map of FIG.

このように深さマップに対しても正置画像情報と同様の処理を実行することで,正置画像情報と同じ位置関係で深さ情報を特定することができる。   By performing the same processing as that for the normal image information on the depth map as described above, the depth information can be specified with the same positional relationship as the normal image information.

深さ処理部23は,深さマップに基づいて,商品が陳列される可能性のある領域(深さフェイス領域)を特定する。また,商品タグが配置される可能性のある領域(商品タグ配置領域)を特定する。   The depth processing unit 23 specifies an area (depth face area) where a product may be displayed based on the depth map. In addition, an area where a product tag is likely to be placed (a product tag placement area) is specified.

深さ処理部23は,異常値除去処理部230と面種別特定処理部231と深さフェイス特定処理部232とを有する。   The depth processing unit 23 includes an abnormal value removal processing unit 230, a surface type specification processing unit 231, and a depth face specification processing unit 232.

異常値除去処理部230は,深さマップにおける深さ情報の異常値を除去する。異常値としては,たとえば深さ情報の平均値から所定範囲以上乖離しているなどによって判定できる。また異常値として判定した場合,そのメッシュにおける深さ情報は,当該メッシュの周囲の深さ情報の平均値をとるなどすればよい。   The abnormal value removal processing unit 230 removes an abnormal value of the depth information in the depth map. The abnormal value can be determined, for example, by deviating from the average value of the depth information by a predetermined range or more. When it is determined as an abnormal value, the depth information in the mesh may be an average value of the depth information around the mesh.

面種別特定処理部231は,深さマップにおける深さ情報に基づいて面(平面のほか曲面も含む)を検出し,検出した面の種別,たとえば棚段の前面,商品タグ面,商品面,棚段の後板面などを特定する。図12に面種別特定処理部231での面種別の特定処理の一例を示す。図12(a)は,深さ情報に基づいて検出した面を斜め上方からイメージ化した図であり,図12(b)は,深さ情報に基づいて検出した面を側面からイメージ化した図である。   The surface type identification processing unit 231 detects a surface (including a curved surface as well as a flat surface) based on the depth information in the depth map, and detects the type of the detected surface, for example, the front surface of the shelf, the product tag surface, the product surface, and the like. Identify the rear plate surface of the shelf. FIG. 12 shows an example of the process of specifying the surface type in the surface type specifying processing unit 231. FIG. 12A is a diagram in which a surface detected based on depth information is imaged obliquely from above, and FIG. 12B is a diagram in which a surface detected based on depth information is imaged from a side surface. It is.

面種別特定処理部231は,微細な凹凸を除外するために高周波をフィルタアウトした上で,深さ情報に基づいて3次元の表面モデルを形成することで,垂直に近い,正対した一定以上の面積を持つ面,直立した円筒の面,全体に凸のゆがんだ多面体の領域の面を検出し,3次元空間内の位置と範囲を特定する。たとえば,深さ情報が一定の範囲内であり,法線が安定して正面を向いていれば平面,深さ情報について垂直方向の相関性が強く,水平方向に凸であれば円筒,水平方向および垂直方向のいずれも凸,または法線が安定していなければ凸のゆがんだ多面体の領域の面のように特定をする。そして,検出した各面をラベリングをする。図12では5つの面を検出し,それぞれ1から5のラベリングをした状態を示している。そして検出した面について,たとえば深さ情報の平均値などに基づいて,最前面から,順に最前面からの距離(これをレベルとする)を算出する。そして算出したレベルに基づいて,各面の前後関係を特定する。図12では,1,2の面のレベルは0cmであり,3,4の面のレベルは3cm,5の面のレベルは20cmのように算出をする。そして,最前面が1,2の面,その次に奥に位置するのが3,4の面,最背面が5の面として,5つの面の前後関係を特定する。   The surface type identification processing unit 231 filters out high frequencies in order to exclude fine irregularities, and then forms a three-dimensional surface model based on the depth information, so as to be close to a vertical, facing, and a certain level. Surface, an upright cylindrical surface, and a surface of a polyhedron region that is entirely convex and distorted, and a position and range in a three-dimensional space are specified. For example, if the depth information is within a certain range and the normal is stably facing the front, there is a strong correlation in the vertical direction with respect to the depth information. In both the vertical direction and the convex direction, or if the normal is not stable, the surface is specified as a surface of a convexly distorted polyhedron region. Then, each detected surface is labeled. FIG. 12 shows a state in which five surfaces are detected and labeled with 1 to 5, respectively. Then, with respect to the detected surface, the distance from the foreground to the foreground (this is referred to as a level) is calculated in order from the foreground based on, for example, the average value of the depth information. Then, the front-rear relationship of each surface is specified based on the calculated level. In FIG. 12, the levels of the planes 1 and 2 are 0 cm, the levels of the planes 3 and 4 are 3 cm, and the level of the plane 5 is 20 cm. Then, the front and rear relations of the five planes are specified, with the frontmost plane being 1, 2, the next rearmost plane being 3, 4 and the rearmost plane being 5.

面種別特定処理部231は,このように特定した面の前後関係を用いて,面の種別を特定する。すなわち,最前面であって,深さマップにある狭い横長の平面を,棚板の前面および商品タグ面,最背面を棚段の後板面,また,棚段の前面と深さ情報が同一または近接(一定範囲,たとえば数cm以内)しており,中空にある垂直の長方形は商品タグの面として特定をする。そして,好ましくは,それ以外の面を商品面(商品が陳列される可能性のある面)として特定をする。したがって,図12の例では,1,2の面を棚板の前面および商品タグ面,3,4の面を商品面,5の面を棚体の後板面として特定をする。   The surface type specification processing unit 231 specifies the type of the surface using the context of the surface specified in this way. In other words, the front and the narrow horizontal plane in the depth map are the same as the front of the shelf and the product tag surface, the rear is the rear plate of the shelf, and the depth information is the same as the front of the shelf. Or, it is close to (a certain range, for example, within several cm), and a vertical rectangle in the hollow is specified as the surface of the product tag. Then, preferably, the other surface is specified as the product surface (the surface on which the product may be displayed). Therefore, in the example of FIG. 12, the surfaces 1 and 2 are specified as the front surface of the shelf and the product tag surface, the surfaces 3 and 4 as the product surface, and the surface 5 as the rear plate surface of the shelf.

深さフェイス特定処理部232は,面種別特定処理部231で特定した商品面において,深さフェイス領域を特定する処理を実行する。   The depth face specification processing unit 232 performs a process of specifying a depth face area on the product surface specified by the surface type specification processing unit 231.

深さフェイス特定処理部232における深さフェイス領域の特定処理としては以下のように実行をする。   The processing of specifying the depth face area in the depth face specification processing unit 232 is performed as follows.

まず,いずれかのタイミングにおいて入力を受け付けた商品のパッケージタイプに基づいて,対応する処理を実行する。パッケージタイプとしては,缶,瓶(ペットボトルを含む。以下同様),缶と瓶の併存,箱物,吊るし商品などがあるが,それらに限定をするものではない。   First, corresponding processing is executed based on the package type of the product whose input has been received at any timing. Package types include, but are not limited to, cans, bottles (including PET bottles; the same applies hereinafter), coexistence of cans and bottles, boxes, and hanging products.

パッケージタイプが缶または瓶であった場合,一定の大きさの範囲内にある円筒の領域を缶または瓶の深さフェイス領域として特定する。これを模式的に示すのが,図13および図14である。図13はパッケージタイプが缶の場合を示すイメージ図であり,図14はパッケージタイプが瓶の場合を示すイメージ図である。   If the package type is a can or bottle, specify the area of the cylinder within a certain size range as the depth face area of the can or bottle. FIG. 13 and FIG. 14 schematically show this. FIG. 13 is an image diagram showing a case where the package type is a can, and FIG. 14 is an image diagram showing a case where the package type is a bottle.

パッケージタイプが缶と瓶の併存であった場合,一定の大きさの範囲内に円筒があり,上方に小さな円筒がない領域を缶の深さフェイス領域,一定の大きさの範囲内に円筒があり,上方に小さな円筒がある領域を瓶の深さフェイス領域として特定をする。   If the package type includes both cans and bottles, there is a cylinder within a certain size, the area without a small cylinder above is the depth face area of the can, and the cylinder is within a certain size. Yes, the area with a small cylinder above it is specified as the bottle depth face area.

パッケージタイプが箱物であった場合,一定の大きさの範囲内にある垂直の長方形の平面の領域を箱物の深さフェイス領域として特定をする。これを模式的に示すのが図15である。   If the package type is a box, the area of the vertical rectangular plane within a certain size is specified as the depth face area of the box. This is schematically shown in FIG.

また,パッケージタイプが吊るし商品であった場合,一定のサイズの範囲内にあり,中空に浮いた長方形の平面または凹凸面の領域を,吊るし商品の深さフェイス領域として特定をする。これを模式的に示すのが図16である。   If the package type is a hanging product, a rectangular flat or uneven surface area within a certain size and floating in the air is specified as a depth face region of the hanging product. This is schematically shown in FIG.

なお,深さマップ特定処理部は,パッケージタイプの選択を受け付けず深さフェイス領域を特定してもよい。この場合,商品面の領域と,パッケージタイプごとの判定処理をそれぞれ実行することで,深さフェイス領域としての条件が成立するかを判定する。そして,深さフェイス領域を構成する面が存在する場合には,その面が構成する深さフェイス領域を特定し,あらかじめ定められたパッケージタイプの優先条件に基づいて,深さフェイス領域がどのようなパッケージタイプであるかを特定する。   The depth map specification processing unit may specify the depth face area without accepting the selection of the package type. In this case, it is determined whether or not the condition as the depth face area is satisfied by executing the determination process for each of the product surface area and each package type. If there is a face constituting the depth face area, the depth face area constituted by the face is specified, and the depth face area is determined based on a predetermined package type priority condition. The package type.

画像認識処理部24は,撮影画像情報入力受付処理部20で受け付けた撮影画像情報または正置画像情報と,深さ処理部23で特定した面とに基づいて,陳列棚の商品タグ配置領域面にある商品タグに記載されている商品識別情報を認識する。また,撮影画像情報入力受付処理部20で受け付けた撮影画像情報または正置画像情報と,深さ処理部23で特定した商品面または深さフェイス領域とに基づいて,撮影画像情報情報または正置画像情報に写っている陳列棚の棚段に陳列されている商品の商品識別情報を認識する処理を実行する。商品識別情報としては,商品名のほか,その商品に対して割り当てられているJANコードなどがあるが,それに限定されない。商品を識別することができる情報であればいかなるものでもよい。   The image recognition processing unit 24 is based on the photographed image information or the normal image information received by the photographed image information input reception processing unit 20 and the surface specified by the depth processing unit 23, and displays the product tag placement area on the display shelf. Recognize the product identification information described in the product tag in. Further, based on the photographed image information or the normal image information received by the photographed image information input reception processing unit 20 and the product surface or the depth face area specified by the depth processing unit 23, the photographed image information information or the normal face A process is executed for recognizing the product identification information of the product displayed on the shelf of the display shelf shown in the image information. The product identification information includes, but is not limited to, a product name and a JAN code assigned to the product. Any information may be used as long as it can identify the product.

画像認識処理部24は,商品タグ内情報特定処理部240と商品識別情報特定処理部241とを有する。   The image recognition processing unit 24 includes a product tag information specification processing unit 240 and a product identification information specification processing unit 241.

商品タグ内情報特定処理部240は,深さ処理部23で特定した商品タグ面の領域に対応する撮影画像情報の領域(商品タグ領域)を切り出し,商品タグ領域に記載されている情報をOCR認識などにより特定する処理を実行する。OCR認識をする場合には,商品タグ領域として特定した領域のすべてまたは一部について行うことができる。商品タグ領域として特定したすべての領域に行うとノイズなどにより誤認識が発生する可能性が高いので,OCR認識をする対象領域を限定することが好ましい。商品タグ領域に対してOCR認識するにはさまざまな方法を用いることができるが,たとえば以下の2つの方法のいずれかを用いることができる。なお,本明細書において,画像情報を切り出すとは,実際に処理対象として画像情報から分離するほか,その領域の画像情報を分離せずに,処理対象の範囲として特定する場合も含まれる。   The product tag information specification processing unit 240 cuts out a region (product tag region) of the photographed image information corresponding to the product tag surface region specified by the depth processing unit 23, and converts the information described in the product tag region into an OCR. A process specified by recognition or the like is executed. The OCR recognition can be performed for all or a part of the area specified as the product tag area. If it is performed on all the areas specified as the product tag areas, there is a high possibility that erroneous recognition will occur due to noise or the like. Therefore, it is preferable to limit the target area for OCR recognition. Various methods can be used to perform OCR recognition on the product tag area. For example, one of the following two methods can be used. Note that in this specification, extracting image information includes not only separating the image information from the image information as an actual processing target, but also specifying the image information of the area as a processing target range without separating the image information.

第1の方法としては,特定した商品タグ領域において,まず二値化処理を行う。二値化処理としては,HSV色空間の明度を用いる方法,大津の手法,赤色を抽出する手法(商品タグの数字や文字列には黒色のほか赤色も使用頻度が高い)などのうち一または複数を組み合わせて抽出したものを候補として選定する方法がある。   As a first method, first, binarization processing is performed in the specified product tag area. As the binarization processing, one of a method using the lightness of the HSV color space, a method of Otsu, and a method of extracting red (a black and a red are frequently used for numbers and character strings of product tags) are used. There is a method of selecting, as candidates, those extracted by combining a plurality of them.

そして,二値化した画像情報においてラベリング処理を実行する。ラベリング処理とは,二値画像情報において,白または黒が連続した画素に同一の番号(識別情報)を割り振る処理を実行することで,連続する画素同士を一つの島(グループ)化する処理である。そしてラベリング処理によって検出した島を含む矩形領域(ボックス)を生成し,ボックスの高さ,幅,ベースラインを求める。ボックスを生成する際には,同一番号にラベリングされた領域を囲む最小の,垂直,水平の線分で囲まれた長方形を生成することが好ましいが,それに限定しない。なおボックスを生成する際に,あらかじめ定めた閾値となる高さ,幅を充足しない島はノイズとしてボックスを生成せず,そのまま処理対象から除去する。たとえば高さが小さすぎる島は横罫線や画像上のゴミの可能性があり,幅が広すぎる島はロゴなどの可能性があり,これらはノイズとして除去をする。   Then, a labeling process is performed on the binarized image information. The labeling process is a process of assigning the same number (identification information) to continuous white or black pixels in binary image information, thereby forming continuous islands into one island (group). is there. Then, a rectangular area (box) including the island detected by the labeling process is generated, and the height, width, and baseline of the box are obtained. When generating a box, it is preferable, but not limited to, to generate a rectangle enclosed by the smallest, vertical and horizontal line segments surrounding the area labeled with the same number. When a box is generated, an island that does not satisfy a predetermined threshold height and width is not generated as a noise but is removed from the processing target without generating a box. For example, islands that are too small may be horizontal ruled lines or dust on the image, while islands that are too wide may be logos, which are removed as noise.

商品タグで使用される文字は,一般的には,太字のゴシック体など文字全体の輪郭が明確な字体が用いられることが多い。そのため,画像情報に多少のピンぼけがある場合でも,一つの文字列を形成する文字群は,ベースラインと高さがそろった島として検出することができる。   In general, characters used in a product tag are often used in a font such as a bold Gothic font in which the outline of the entire character is clear. Therefore, even if the image information has some blur, the character group forming one character string can be detected as an island having the same height as the baseline.

そして商品タグ内情報特定処理部240は,所定の類似性を有する隣接したボックス同士を併合し,ブロックを構成する。すなわち,ベースラインと高さが所定範囲内で一致し,高さおよび幅が一定の閾値の範囲内にある連続するボックスを併合し,ブロックを構成する。この際に,併合するブロックの間にある小さいボックスなどもまとめて一つのブロックとして構成する。これによって,濁点,半濁点,ハイフンなども一つのブロックに取り込まれることとなる。ブロックは,OCR認識の対象となる領域である。そして,ブロックのうち,高さがもっとも高いブロックを価格領域(税抜価格領域)と推定し,OCR認識を行う。また,ほかのブロックについても同様に,OCR認識を行う。以上のような処理を実行することで,商品タグ領域において複数行にわたって自由にレイアウトされた原稿部分に対しOCR認識を行うよりも精度よく,文字認識処理を実行することができる。この処理を模式的に示すのが図17乃至図19である。図17は二値化した画像情報であり,図18はボックス(破線で示す領域)を生成した状態を示す図である。また図19はブロック(破線で示す領域)を生成した状態を示す図である。   Then, the information-in-product-tag identification processing unit 240 merges adjacent boxes having a predetermined similarity to form a block. That is, a continuous box whose height coincides with the height of the base line within a predetermined range and whose height and width are within a certain threshold range is merged to form a block. At this time, small boxes between blocks to be merged are also collectively configured as one block. As a result, a cloud point, a semi-voice point, a hyphen, and the like are also taken into one block. A block is an area to be subjected to OCR recognition. Then, of the blocks, the block having the highest height is estimated as a price area (price area without tax), and OCR recognition is performed. OCR recognition is similarly performed for the other blocks. By performing the above-described processing, the character recognition processing can be performed with higher accuracy than when performing OCR recognition on a document portion freely laid out over a plurality of lines in the product tag area. 17 to 19 schematically show this processing. FIG. 17 shows binarized image information, and FIG. 18 shows a state in which a box (region indicated by a broken line) is generated. FIG. 19 is a diagram showing a state in which blocks (regions indicated by broken lines) have been generated.

以上のようにして商品タグ内情報特定処理部240は,商品タグに記載した情報をOCR認識することができる。   As described above, the information specification processing unit 240 within a product tag can perform OCR recognition on the information described in the product tag.

第2の方法としては,商品タグの画像情報をテンプレートとして保持しておき,テンプレートとした画像情報と商品タグ領域の画像情報とを比較する処理である。テンプレートとした商品タグの画像情報には,あらかじめ税抜価格,税込価格,メーカー名,商品名などの商品識別情報,定格が表記されるそれぞれの文字枠の位置,大きさ(高さ,幅)が設定される。そして,商品タグ特定処理部で特定した商品タグ領域から,該当箇所の画像情報を切り出し,OCR認識処理を実行する。この際に,価格,メーカー名,商品名などの商品識別情報,定格によって使用される文字種別(たとえば数字,ローマ字,記号,かな漢字のどれを含むかなど)を制約条件として定めておくことで,OCR認識処理の精度を向上させることができる。   The second method is a process of holding image information of a product tag as a template and comparing the image information used as a template with the image information of a product tag area. The image information of the product tag used as a template includes the product identification information such as the tax-excluded price, tax-included price, manufacturer name, product name, etc., and the position and size (height, width) of each character frame on which the rating is written. Is set. Then, the image information of the corresponding portion is cut out from the product tag area specified by the product tag specifying processing unit, and the OCR recognition processing is executed. At this time, product identification information such as price, manufacturer name, product name, etc., and the character type used by the rating (for example, whether it contains numbers, Roman characters, symbols, or Kana-Kanji characters) are defined as constraints. The accuracy of the OCR recognition processing can be improved.

以上のように商品タグ内情報特定処理部240は,読み取った情報の整合性を確認する処理を実行してもよい。整合性確認処理としては,辞書照合による整合性の確認処理,ロジカルチェックの2種類を行うことが好ましい。   As described above, the in-product-tag information specification processing unit 240 may execute the process of checking the consistency of the read information. As the consistency check processing, it is preferable to perform two types of consistency check processing by dictionary matching and logical check.

辞書照合による整合性の確認処理は,たとえば以下のように実行する。情報処理システム1には,陳列棚に陳列される可能性のある商品の商品名などの商品識別情報と,それに対応するコード情報(たとえばJANコード)とを対応づけて記憶する商品辞書(図示せず)を備えている。そして,商品タグ内情報特定処理部240で認識した価格を示す領域から読み取った文字列以外の文字列と,商品辞書に登録されたすべての商品名などの商品識別情報との文字列類似度評価を行う。たとえば編集距離(レーベンシュタイン距離)やジャロ・ウィンクラー距離などを用いることができる。   The process of checking the consistency by dictionary matching is executed, for example, as follows. The information processing system 1 stores a product dictionary (not shown) in which product identification information such as a product name of a product that may be displayed on a display shelf is associated with code information (for example, a JAN code) corresponding thereto. Zu). Then, character string similarity evaluation between a character string other than the character string read from the area indicating the price recognized by the information-in-product-tag processing unit 240 and the product identification information such as all the product names registered in the product dictionary I do. For example, an edit distance (Levenshtein distance), a Jaro-Winkler distance, or the like can be used.

上記で求めた文字列類似度の最大値が一つであるならば,その商品名などの商品識別情報を最終候補とする。そして最終候補となった商品名などの商品識別情報の文字列の長さに対して,許容できる類似度をあらかじめ定めておき,許容できる類似度以上であれば商品名などの商品識別情報を同定する。許容できる類似度に達していなければ,読み取った文字列は未確定とする。また,最大値の類似度の商品が複数ある場合には,読み取った文字列は未確定とする。   If the maximum value of the character string similarity calculated above is one, the product identification information such as the product name is determined as the final candidate. The allowable similarity is determined in advance for the length of the character string of the product identification information such as the product name as the final candidate, and if the similarity is equal to or greater than the allowable similarity, the product identification information such as the product name is identified. I do. If the allowable similarity has not been reached, the read character string is not determined. If there are a plurality of products having the maximum similarity, the read character string is not determined.

文字列類似度評価の一つである編集距離とは,二つの文字列がどの程度異なっているかを示す距離の一種であって,具体的には,一文字の挿入,削除,置換によって,一方の文字列をもう一方の文字列に変形するのに必要な手順の最小回数である。図20に商品タグに表記された商品名,OCR認識の結果,商品辞書に記憶する商品名のうち編集距離が最小の商品名,編集距離の一例を示す。また,図21に,最終候補の文字数ごとの確定してよい編集距離の対応関係の表を示す。なお,本明細書では編集距離を用いて処理をする場合を説明するが,置換が挿入,削除よりも類似度が大きくなるよう定義された字列類似度評価であってもよい。   The edit distance, which is one of the character string similarity evaluations, is a type of distance that indicates how different two character strings are. Specifically, the edit distance is determined by inserting, deleting, or replacing one character. The minimum number of steps required to transform one string into another. FIG. 20 shows an example of the product name described in the product tag, the product name with the smallest editing distance among the product names stored in the product dictionary as a result of OCR recognition, and the editing distance. FIG. 21 is a table showing the correspondence between edit distances that may be determined for each final candidate character number. In this specification, a case in which the processing is performed using the edit distance will be described. However, a character string similarity evaluation defined so that the substitution has a larger similarity than the insertion or deletion may be used.

そして,上記の最小の編集距離の商品名などの商品識別情報を求めた後,OCR認識結果から商品名などの商品識別情報の該当部分を除いた文字列に対し,別に備える定格辞書(図示せず)に記憶する各定格との編集距離,メーカー名辞書(図示せず)に記憶する各メーカー名との編集距離をそれぞれ求める。たとえば図20における「のどごし 生 350ml」の例では,「350ml」の部分に対し,定格の辞書における「350ml」と編集距離0で一致し,定格部分の文字列であることを同定する。同様に,メーカー名についても編集距離を求め,最小の編集距離にある文字列をメーカー名であることを同定する。そしてOCR認識結果から定格部分,メーカー名部分の各文字列を取り除いて,取り除いた残りの文字列に対し,商品名辞書における最短の編集距離にある文字列を求め,許容できる編集距離であるか否かを判定する。許容できる編集距離内であれば,商品名などの商品識別情報,メーカー名,定格を確定する。このような処理をすることで,商品名などの商品識別情報に定格,メーカー名が含まれる場合にも適切に確定をすることができる。なお,定格辞書とは,陳列棚に陳列される可能性のある商品の定格(容量など)を記憶する辞書である。メーカー名辞書とは,陳列棚に陳列される可能性のある商品のメーカー名を記憶する辞書である。   After obtaining the product identification information such as the product name of the minimum edit distance, a rating dictionary (not shown) is provided separately for the character string obtained by removing the relevant part of the product identification information such as the product name from the OCR recognition result. ), And the edit distance to each maker name stored in a maker name dictionary (not shown). For example, in the example of "350 ml of throat raw" in FIG. 20, "350 ml" matches with "350 ml" in the rated dictionary at an editing distance of 0, and identifies the character string of the rated part. Similarly, the editing distance is obtained for the maker name, and the character string at the minimum editing distance is identified as the maker name. Then, the character strings of the rated part and the manufacturer name part are removed from the OCR recognition result, and the character string at the shortest edit distance in the product name dictionary is obtained for the remaining character strings, and is the edit distance allowable? Determine whether or not. If the editing distance is within the allowable range, the product identification information such as the product name, the manufacturer name, and the rating are determined. By performing such processing, it is possible to appropriately determine even when the rating and the manufacturer name are included in the product identification information such as the product name. The rating dictionary is a dictionary that stores ratings (capacity, etc.) of products that may be displayed on the display shelf. The maker name dictionary is a dictionary that stores maker names of products that are likely to be displayed on display shelves.

商品タグ内情報特定処理部240による認識結果を最終的に利用者が判断,承認するため,認識結果の選択等の入力を受け付ける表示を行う際には,確定した文字列,未確定の文字列が特定可能な方法で表示が行われているとよい。たとえば確定した文字列と未確定の文字列との色を分ける,確定の文字列および/または未確定の文字列には確定または未確定を示す情報を付するなどがある。未確定の文字列については,最小の編集距離となった商品名などの商品識別情報が複数ある場合には,各商品識別情報を表示してもよい。   In order to allow the user to finally judge and approve the recognition result by the information identification processing unit 240 in the product tag, when performing display for accepting an input such as selection of the recognition result, a confirmed character string, an unconfirmed character string Is preferably displayed in a manner that can be specified. For example, the colors of the determined character string and the undetermined character string are divided, and the determined character string and / or the undetermined character string are attached with information indicating the determined or undetermined character string. For an undetermined character string, if there is a plurality of product identification information such as a product name having the minimum editing distance, each product identification information may be displayed.

商品タグ内情報特定処理部240におけるロジカルチェック(認識した情報の論理的整合性の判定処理)は以下のように行うことができる。たとえば価格領域として2つの価格を読み取った場合,一つは税抜価格,一つは税込価格となるが,税抜価格が税込価格よりも高くなっている場合には,それらを逆転して認識させる。また,税抜価格に消費税率を乗算して得た値が税込価格とは一致しない場合には,いずれかまたは双方に誤認識があるとする。さらに,商品名などの商品識別情報を認識した場合には,その商品または商品カテゴリの通常の価格帯に収まっているか,を判定する。また,商品名などの商品識別情報,メーカー名,定格の対応関係が一致しているかを判定してもよい。   The logical check (the process of determining the logical consistency of the recognized information) in the product tag information specification processing unit 240 can be performed as follows. For example, when two prices are read as price areas, one is the tax-excluded price and one is the tax-included price, but if the tax-excluded price is higher than the tax-included price, they are reversed and recognized. Let it. If the value obtained by multiplying the tax-excluded price by the consumption tax rate does not match the tax-included price, it is determined that one or both of the tax-recognitions are erroneously recognized. Further, when the product identification information such as the product name is recognized, it is determined whether the product or the product category falls within the normal price range. Further, it may be determined whether the correspondence between the product identification information such as the product name, the maker name, and the rating match.

以上のように商品タグ内の情報の整合性を確認することで,撮影画像情報に写っている商品タグに記載される情報を確定することができる。このように確定した情報は,たとえば表形式で出力をすることができる。   As described above, by checking the consistency of the information in the product tag, the information described in the product tag in the captured image information can be determined. The information determined in this way can be output in, for example, a table format.

商品識別情報特定処理部241は,深さ処理部23で特定した深さフェイス領域に対応する正置画像情報の領域(画像フェイス領域)を切り出す。これを模式的に示すのが図32および図33である。図32(a)は商品のパッケージタイプが缶の場合に,深さフェイス領域に対応する画像フェイス領域を切り出す状態を模式的に示す図である。図32(b)は商品のパッケージタイプが瓶の場合に,深さフェイス領域に対応する画像フェイス領域を切り出す状態を模式的に示す図である。また図33(a)は商品のパッケージタイプが箱物の場合に,深さフェイス領域に対応する画像フェイス領域を切り出す状態を模式的に示す図である。図33(b)は商品のパッケージタイプが吊るし商品の場合に,深さフェイス領域に対応する画像フェイス領域を切り出す状態を模式的に示す図である。なお,商品のパッケージタイプによって,切り出しの際のルールをテンプレートとしてあらかじめ設定しておくことが好ましい。たとえば商品のパッケージタイプが瓶の場合には,瓶本体からキャップの位置までを一つとして切り出すルールを設定しておけばよい。   The product identification information specifying processing unit 241 cuts out the area of the normal image information (image face area) corresponding to the depth face area specified by the depth processing unit 23. This is schematically shown in FIGS. 32 and 33. FIG. FIG. 32A is a diagram schematically showing a state where an image face area corresponding to a depth face area is cut out when the package type of a product is a can. FIG. 32B is a diagram schematically illustrating a state where an image face area corresponding to a depth face area is cut out when the package type of the product is a bottle. FIG. 33A is a diagram schematically showing a state where an image face area corresponding to a depth face area is cut out when the package type of the product is a box. FIG. 33B is a diagram schematically illustrating a state where an image face area corresponding to a depth face area is cut out when the package type of the product is a hanging product. Note that it is preferable to set in advance a rule for clipping as a template depending on the package type of the product. For example, when the package type of the product is a bottle, a rule may be set to cut out from the bottle body to the position of the cap as one.

このように正置画像情報から切り出した画像フェイス領域と,後述する標本情報記憶部26に記憶する標本情報とのマッチング処理を行うことで,陳列棚の棚段に陳列されている商品の商品識別情報を特定する。具体的には,まず,処理対象となる画像フェイス領域の画像情報と,標本情報記憶部26に記憶する標本情報との類似性を判定し,その類似性がもっとも高い標本情報に対応する商品識別情報を特定し,特定した類似性があらかじめ定めた閾値以上であれば,画像フェイス領域の各座標で構成されるフェイスに表示されている商品の商品識別情報として特定をする。   By performing the matching process between the image face area cut out from the normal image information and the sample information stored in the sample information storage unit 26 described later, the product identification of the product displayed on the shelf of the display shelf is performed. Identify information. Specifically, first, the similarity between the image information of the image face area to be processed and the sample information stored in the sample information storage unit 26 is determined, and the product identification corresponding to the sample information having the highest similarity is determined. The information is specified, and if the specified similarity is equal to or greater than a predetermined threshold, the information is specified as the product identification information of the product displayed on the face constituted by the coordinates of the image face area.

なお,自動的に特定した画像フェイス領域について,担当者による修正入力を受け付けてもよい。さらに,担当者から画像フェイス領域の位置の入力を受け付けるのでもよい。特定した画像フェイス領域の座標は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,深さ情報や深さマップ,フェイスを識別するためのフェイス識別情報とを対応づけて管理する。また画像フェイス領域を示す座標としては,その領域を特定するための各点の座標であり,画像フェイス領域が矩形の場合には,正置画像情報におけるたとえば4点,右上と左下,左上と右下の2点の座標などでよい。画像フェイス領域が多角形のときには,各頂点の座標であるとよい。また,正置画像情報における陳列棚など,画像情報における所定箇所(たとえば陳列棚の左上の頂点)を基準とした相対座標である。   It should be noted that a correction input by a person in charge may be received for the automatically specified image face area. Further, the input of the position of the image face area from the person in charge may be received. The coordinates of the specified image face area are as follows: shooting date and time information, store information, image information identification information of shot image information, image identification information of normal image information, depth information and depth map, face identification for face identification Manage by associating with information. The coordinates indicating the image face area are the coordinates of each point for specifying the area. When the image face area is rectangular, for example, four points in the normal image information, upper right and lower left, upper left and right The coordinates of the lower two points may be used. When the image face area is a polygon, the coordinates of each vertex may be used. In addition, the coordinates are relative coordinates with respect to a predetermined location (for example, an upper left vertex of the display shelf) in the image information such as a display shelf in the normal image information.

正置画像情報における画像フェイス領域と標本情報との類似性を判定するには,以下のような処理を行う。まず,商品識別情報特定処理部241における商品識別情報の特定処理の前までの処理において,正置画像情報の棚段における画像フェイス領域と,標本情報との方向が同じ(横転や倒立していない)となっており,また,それぞれの大きさが概略同じとなっている(所定範囲以上で画像情報の大きさが異なる場合には,類似性の判定の前にそれぞれの大きさが所定範囲内となるようにサイズ合わせをしておく)。   The following processing is performed to determine the similarity between the image face area and the specimen information in the normal image information. First, in the processing up to the processing for specifying the product identification information in the product identification information specifying processing unit 241, the direction of the image face area in the shelf of the normal image information and the direction of the sample information are the same (they are not turned over or inverted). ), And their sizes are substantially the same (when the sizes of the image information are different from each other over a predetermined range, the respective sizes are within the predetermined range before the similarity determination). Adjust the size so that it becomes).

商品識別情報特定処理部241は,正置画像情報における画像フェイス領域と,標本情報との類似性を判定するため,正置画像情報における画像フェイス領域の画像特徴量(たとえば局所特徴量)に基づく特徴点と,標本情報との画像特徴量(たとえば局所特徴量)に基づく特徴点を,それぞれ抽出する。そして,画像フェイス領域の特徴点と,標本情報の特徴点とでもっとも類似性が高いペアを検出し,それぞれで対応する点の座標の差を求める。そして,差の平均値を求める。差の平均値は,画像フェイス領域の画像情報と,標本情報との全体の平均移動量を示している。そして,すべての特徴点のペアの座標差を平均の座標差と比較し,外れ度合いの大きなペアを除外する。そして,残った対応点の数で類似性を順位付ける。   The product identification information specifying processing unit 241 determines the similarity between the image face area in the normal image information and the sample information based on the image feature amount (for example, local feature amount) of the image face area in the normal image information. A feature point and a feature point based on an image feature amount (for example, a local feature amount) of the sample information are respectively extracted. Then, a pair having the highest similarity between the feature point of the image face area and the feature point of the sample information is detected, and the difference between the coordinates of the corresponding points is calculated. Then, an average value of the differences is obtained. The average value of the difference indicates the average moving amount of the entire image information of the image face area and the sample information. Then, the coordinate difference between all feature point pairs is compared with the average coordinate difference, and pairs having a large degree of deviation are excluded. Then, similarity is ranked based on the number of remaining corresponding points.

以上のような方法で正置画像情報の画像フェイス領域と,標本情報との類似性を算出できる。また,その精度を向上させるため,さらに,色ヒストグラム同士のEMD(Earth Movers Distance)を求め,類似性の尺度としてもよい。これによって,撮影された画像情報の明度情報等の環境変化に比較的強い類似性の比較を行うことができ,高精度で特定をすることができる。   The similarity between the image face area of the normal image information and the specimen information can be calculated by the above method. In addition, in order to improve the accuracy, an EMD (Earth Movers Distance) between the color histograms may be obtained and used as a similarity measure. This makes it possible to compare the similarity relatively strong to environmental changes such as the brightness information of the captured image information, and to specify with high accuracy.

類似性の判定としては,ほかにも,各画像フェイス領域の画像情報のシグネチャ(画像特徴量と重みの集合)同士のEMDを求め,類似性の尺度としてもよい。シグネチャの画像特徴量としては,たとえば画像フェイス領域のHSV色空間内の頻度分布を求め,色相と彩度に関してグルーピングを行って,特徴の個数とHSV色空間内の領域による画像特徴量とすることができる。色相と彩度についてグルーピングを行うのは,撮影条件に大きく左右されないように,明度への依存度を下げるためである。   As a similarity determination, an EMD between signatures (a set of image feature amounts and weights) of image information of each image face area may be obtained and used as a similarity measure. As the signature image feature amount, for example, a frequency distribution of the image face area in the HSV color space is obtained, and hue and saturation are grouped to obtain an image feature amount based on the number of features and the area in the HSV color space. Can be. The reason why the hue and the saturation are grouped is to reduce the dependence on the lightness so as not to be largely influenced by the photographing conditions.

また,処理の高速化のため,シグネチャとEMDの代わりに,適宜の色空間内での画像情報の色コリログラムや色ヒストグラムなどの画像特徴量間のL2距離等の類似性を用いることもできる。   Further, in order to speed up the processing, similarity such as L2 distance between image features such as a color correlogram and a color histogram of image information in an appropriate color space can be used instead of the signature and the EMD.

類似性の判定は,上述に限定をするものではない。特定した商品識別情報は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報に対応づけて商品識別情報記憶部27に記憶する。   The determination of similarity is not limited to the above. The identified product identification information is associated with shooting date / time information, store information, image information identification information of shot image information, image identification information of normal image information, and face identification information for identifying a face, and a product identification information storage unit. 27.

画像情報記憶部25は,入力端末3から受け付けた撮影画像情報,深さ情報や深さマップ,撮影日時,店舗識別情報,画像情報識別情報などを対応づけて記憶する。撮影画像情報とは,本発明の処理対象となる画像情報であればよい。一般的には,単に撮影した場合,撮影対象物を正対した状態で撮影することが困難であることから,それを正対した状態に補正する補正処理,たとえば台形補正処理などを実行することがよい。一つの陳列棚を複数枚で撮影した場合に,それが一つの画像情報として合成された画像情報も含まれる。また,歪み補正処理が実行された後の画像情報も撮影画像情報に含まれる。   The image information storage unit 25 stores the photographed image information, depth information and depth map, photographing date and time, store identification information, image information identification information, etc. received from the input terminal 3 in association with each other. The captured image information may be any image information to be processed by the present invention. In general, it is difficult to take a photographing object with the photographing object directly facing when simply photographing. Therefore, it is necessary to execute a correction process for correcting the photographing object to the facing state, for example, a trapezoidal correction process. Is good. When one display shelf is photographed with a plurality of images, image information obtained by synthesizing it as one image information is also included. The image information after the distortion correction processing has been executed is also included in the captured image information.

標本情報記憶部26は,正置画像情報に写っている陳列棚の棚段に陳列されている商品がどの商品であるかを識別するための標本情報を記憶する。標本情報は,陳列棚に陳列される可能性のある商品を,上下,左右,斜めなど複数の角度から撮影をした画像情報である。図22に標本情報記憶部26に記憶される標本情報の一例を示す。図22では,標本情報として,缶ビールをさまざまな角度から撮影をした場合を示しているが,缶ビールに限られない。標本情報記憶部26は,標本情報と,商品識別情報とを対応付けて記憶する。   The specimen information storage unit 26 stores specimen information for identifying which commodity is displayed on the shelf of the display shelf shown in the normal image information. The sample information is image information obtained by photographing a product that may be displayed on a display shelf from a plurality of angles such as up, down, left, right, and oblique. FIG. 22 shows an example of the sample information stored in the sample information storage unit 26. FIG. 22 shows a case where canned beer is photographed from various angles as specimen information, but is not limited to canned beer. The sample information storage unit 26 stores sample information and product identification information in association with each other.

なお,標本情報記憶部26には,商品の標本画像情報とともに,または標本画像情報に代えて,標本画像情報から抽出された,類似性の算出に必要となる情報,たとえば画像特徴量とその位置のペアの情報を記憶していてもよい。標本情報は,標本画像情報のほか,類似性の算出に必要となる情報であってもよい。この場合,商品識別情報特定処理部241は,画像フェイス領域と,標本情報とのマッチング処理を行う際に,標本情報について毎回,画像特徴量を算出せずともよくなり,計算時間を短縮することができる。   The sample information storage unit 26 stores information necessary for calculating similarity extracted from the sample image information together with the sample image information of the product or instead of the sample image information, such as an image feature amount and its position. May be stored. The sample information may be information necessary for calculating the similarity in addition to the sample image information. In this case, the product identification information identification processing unit 241 does not have to calculate the image feature amount for each sample information every time the matching process is performed between the image face area and the sample information, thereby shortening the calculation time. Can be.

商品識別情報記憶部27は,陳列棚の棚段の各フェイスに表示されている商品の商品識別情報を記憶する。たとえば,商品識別情報に対応付けて,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,深さ情報や深さマップの識別情報,フェイスを識別するためのフェイス識別情報に対応づけて商品識別情報記憶部27に記憶する。図23に陳列棚を撮影した撮影画像情報における画像フェイス領域を模式的に示す。   The product identification information storage unit 27 stores the product identification information of the product displayed on each face of the display shelf. For example, image date and time information, store information, image information identification information of photographed image information, image identification information of normal image information, identification information of depth information and depth map, and face identification are associated with product identification information. In the product identification information storage unit 27 in association with the face identification information. FIG. 23 schematically shows an image face area in the photographed image information of the display shelf.

つぎに本発明の情報処理システム1の処理プロセスの一例を図5のフローチャートを用いて説明する。   Next, an example of a processing process of the information processing system 1 of the present invention will be described with reference to a flowchart of FIG.

店舗の陳列棚が撮影された撮影画像情報,深さ情報をマッピングした深さマップは,入力端末3から入力され,管理端末2の撮影画像情報入力受付処理部20,深さ入力受付処理部21でその入力を受け付ける(S100)。また,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報の入力を受け付ける。図24に撮影画像情報の一例を示す。深さマップの一例が図8である。そして,撮影画像情報入力受付処理部20,深さ入力受付処理部21は,入力を受け付けた撮影画像情報,深さ情報や深さマップ,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報を対応づけて画像情報記憶部25に記憶させる。   A depth map in which the photographed image information of the display shelves of the store and the depth information are mapped is input from the input terminal 3 and the photographed image information input reception processing section 20 and the depth input reception processing section 21 of the management terminal 2. Accepts the input (S100). In addition, the input of the photographing date and time, store identification information, and image information identification information of the photographed image information is received. FIG. 24 shows an example of captured image information. FIG. 8 shows an example of the depth map. Then, the photographed image information input reception processing unit 20 and the depth input reception processing unit 21 perform the input of received photographed image information, depth information and depth map, photographing date and time, store identification information, and image information identification of photographed image information. The information is stored in the image information storage unit 25 in association with the information.

管理端末2において所定の操作入力を受け付けると,正置化処理部22は,画像情報記憶部25に記憶する撮影画像情報を抽出し,台形補正処理などの正置化処理を行うための頂点である棚位置(陳列棚の位置)の4点の入力を受け付け,正置化処理を実行する(S110)。このようにして正置化処理が実行された撮影画像情報(正置画像情報)の一例が,図25である。   When a predetermined operation input is received at the management terminal 2, the normalization processing unit 22 extracts the photographed image information stored in the image information storage unit 25, and uses the vertex for performing the normalization processing such as the trapezoidal correction processing. The input of four points at a certain shelf position (display shelf position) is received, and a normalization process is executed (S110). FIG. 25 shows an example of photographed image information (normal image information) on which the normalization processing has been executed in this manner.

また正置化処理部22は,上述で正置化処理をした撮影画像情報に対応する深さマップに対して,同様の正置化処理を実行する(S110)。これによって,正置画像情報と深さマップとを同じ位置関係で対応づけることができる。   The normalization processing unit 22 performs the same normalization processing on the depth map corresponding to the captured image information subjected to the normalization processing as described above (S110). Thus, the normal image information and the depth map can be associated with the same positional relationship.

以上のように撮影画像情報,深さマップに対する正置化処理の実行後,深さ処理部23における異常値除去処理部230は,深さ情報の平均値から所定範囲以上乖離している深さ情報を異常値として除去する(S120)。   As described above, after performing the normalization process on the captured image information and the depth map, the abnormal value removal processing unit 230 in the depth processing unit 23 determines the depth that deviates from the average value of the depth information by a predetermined range or more. The information is removed as an abnormal value (S120).

そして,深さ処理部23における面種別特定処理部231は,深さマップの深さ情報に基づいて面を検出し,面種別を特定する(S130)。   Then, the surface type identification processing unit 231 in the depth processing unit 23 detects the surface based on the depth information of the depth map, and identifies the surface type (S130).

すなわち,面種別特定処理部231は,ローパスフィルタリングをした上で,深さ情報に基づいて3次元の表面モデルを形成し,平面,円筒の面,凸のゆがんだ多面体の領域の面を特定する。そして,検出した各面をラベリングし,各面の深さ情報に基づいてレベルを算出する。そして算出したレベルに基づいて,各面の前後関係を特定する。このように特定した面の前後関係を用いて,各面について,棚段の前面,商品タグ面,棚段の後板面,商品面として面の種別を特定する。   That is, the surface type specifying processing unit 231 forms a three-dimensional surface model based on the depth information after performing low-pass filtering, and specifies a plane, a cylindrical surface, and a surface of a convexly distorted polyhedral region. . Then, each detected surface is labeled, and a level is calculated based on the depth information of each surface. Then, based on the calculated level, the context of each surface is specified. Using the front-back relation of the surfaces specified in this way, the type of each surface is specified as a front surface of the shelf, a product tag surface, a rear plate surface of the shelf, and a product surface.

このように各面を特定すると,深さフェイス特定処理部232は,管理端末2において入力を受け付けた,陳列棚の棚段に陳列される商品のパッケージタイプに基づいて(S140),面種別特定処理部231で特定した商品面に対し,深さフェイス領域を特定する処理を実行する(S150)。   When each surface is specified in this way, the depth face specification processing unit 232 specifies the type of the surface based on the package type of the product displayed on the shelf of the display shelf, which has been received by the management terminal 2 (S140). The processing for specifying the depth face area is performed on the product surface specified by the processing unit 231 (S150).

そして深さフェイス特定処理部232が商品面についての深さフェイス領域を特定すると,画像認識処理部24の商品識別情報特定処理部241が,特定した深さフェイス領域に対応する正置画像情報の領域を画像フェイス領域として切り出し(S160),標本情報記憶部26に記憶する標本情報とマッチング処理を行うことで,当該画像フェイス領域における商品の商品識別情報を特定する(S170)。これを画像フェイス領域ごとに行うことで,陳列棚の棚段に陳列されている商品の商品識別情報が特定できる。   Then, when the depth face specification processing unit 232 specifies the depth face area for the product surface, the product identification information specification processing unit 241 of the image recognition processing unit 24 determines the depth image area corresponding to the specified depth face area. The region is cut out as an image face region (S160), and by performing matching processing with the sample information stored in the sample information storage unit 26, the product identification information of the product in the image face region is specified (S170). By performing this for each image face area, the product identification information of the products displayed on the shelf of the display shelf can be specified.

すなわち,処理対象となる正置画像情報における画像フェイス領域と,標本情報記憶部26に記憶する標本情報との類似性を判定し,その類似性がもっとも高い標本情報に対応する商品識別情報を特定し,特定した類似性があらかじめ定めた閾値以上であれば,上記座標で構成される画像フェイス領域に表示されている商品の商品識別情報として特定をする。そして,商品識別情報特定処理部241は,特定した商品識別情報を,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,深さ情報や深さマップ,フェイスを識別するためのフェイス識別情報に対応づけて商品識別情報記憶部27に記憶する。   That is, the similarity between the image face area in the normal image information to be processed and the sample information stored in the sample information storage unit 26 is determined, and the product identification information corresponding to the sample information having the highest similarity is identified. If the specified similarity is equal to or greater than a predetermined threshold, the similarity is specified as the product identification information of the product displayed in the image face area including the coordinates. Then, the product identification information specifying processing unit 241 converts the specified product identification information into shooting date / time information, store information, image information identification information of shot image information, image identification information of normal image information, depth information and depth map. , Are stored in the product identification information storage unit 27 in association with face identification information for identifying faces.

以上のような処理を実行することで,撮影した画像情報において商品が陳列されている領域を適切に設定することができるので,標本情報と類似性の比較をする際の精度を高めることができる。   By executing the above-described processing, it is possible to appropriately set an area in which the product is displayed in the captured image information, so that it is possible to improve accuracy in comparing the similarity with the sample information. .

一方,面種別特定処理部231において商品タグ面を特定すると,画像認識処理部24における商品タグ内情報特定処理部240が,特定した商品タグ面に対応する正置画像情報の領域(商品タグ領域)を切り出し(S180),商品タグ領域に記載されている情報をOCR認識などにより特定する処理を実行する(S190)。   On the other hand, when the product tag surface is specified by the surface type specification processing unit 231, the in-product tag information specification processing unit 240 of the image recognition processing unit 24 determines the area of the normal image information (product tag area) corresponding to the specified product tag surface. ) Is cut out (S180), and processing for specifying information described in the product tag area by OCR recognition or the like is executed (S190).

すなわち,処理対象となる正置画像情報の商品タグ領域に対してOCR認識を行い,商品タグに記載された商品識別情報,価格などの情報を特定する処理を実行する。そして特定した商品タグに記載された情報を,商品タグ内情報特定処理部240は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,深さ情報や深さマップ,フェイスを識別するためのフェイス識別情報に対応づけて商品識別情報記憶部27に記憶する。なお,商品識別情報については,商品識別情報特定処理部241でも認識しているので,2つの認識結果が一致している場合にはそのまま登録をし,認識結果が相違している場合にはエラー表示を行うようにしてもよい。また,優先度を設け,いずれかの認識結果を優先して登録をするようにしてもよい。   That is, OCR recognition is performed on the product tag area of the normal image information to be processed, and processing for specifying information such as product identification information and price described on the product tag is executed. Then, the information described in the specified product tag is processed by the information specification processing unit 240 within the product tag to obtain the shooting date / time information, the store information, the image information identification information of the shot image information, the image identification information of the normal image information, and the depth information. The information is stored in the product identification information storage unit 27 in association with the image data, the depth map, and the face identification information for identifying the face. Note that the product identification information is also recognized by the product identification information identification processing unit 241. Therefore, if the two recognition results match, the registration is performed as it is, and if the recognition results are different, an error occurs. Display may be performed. Further, priorities may be set, and any of the recognition results may be registered with priority.

以上のような処理を実行することで,撮影した画像情報において商品タグの領域を適切に設定することができるので,OCR認識による商品タグに記載されている情報の認識精度を向上させることができる。   By executing the above-described processing, the area of the product tag can be appropriately set in the captured image information, so that the recognition accuracy of the information described on the product tag by OCR recognition can be improved. .

上述の実施例1では,商品識別情報特定処理部241が,深さフェイス特定処理部232で特定した深さフェイス領域に対応する正置画像情報の画像フェイス領域と,標本情報との類否判定処理を行う場合を説明したが,それに代えてまたはそれに加えて,面種別特定処理部231で特定した商品面の領域に基づいて,正置画像情報で対応する領域を特定し,そこから画像フェイス領域を特定して標本情報との類否の判定処理を実行するように構成してもよい。   In the above-described first embodiment, the product identification information specifying processing unit 241 determines whether or not the image face area of the normal image information corresponding to the depth face area specified by the depth face specifying processing unit 232 and the sample information are similar. Although the processing has been described, instead of or in addition to this, the corresponding area is specified by the normal image information based on the area of the product surface specified by the surface type specifying processing unit 231, and the image face You may comprise so that the area | region may be specified and the determination process of similarity with sample information may be performed.

本実施例における画像認識処理部24の処理機能の一例を図26のブロック図に示す。本実施例の画像認識処理部24では,さらに画像フェイス特定処理部242を備える。   An example of the processing function of the image recognition processing unit 24 in the present embodiment is shown in the block diagram of FIG. The image recognition processing unit 24 of the present embodiment further includes an image face specification processing unit 242.

画像フェイス特定処理部242は,深さフェイス特定処理部232で特定した商品面の領域に基づいて,正置画像情報で対応する領域(商品陳列領域)を特定する。画像フェイス特定処理部242における画像フェイス領域の特定処理は,深さフェイス特定処理部232で特定した商品面に対応する正置画像情報の商品陳列領域において,商品と商品との間に生じる細く狭い陰影を特定する,画像の繰り返しパターンを特定する,パッケージの上辺の段差を特定する,商品幅が同一であるなどの制約に基づいて区切り位置を特定する,などによって,画像フェイス領域を特定する。   The image face specification processing unit 242 specifies a corresponding area (product display area) in the normal image information based on the product surface area specified by the depth face specification processing unit 232. The image face area specifying processing in the image face specifying processing unit 242 is performed in the product display area of the normal image information corresponding to the product surface specified by the depth face specifying processing unit 232, in a narrow and narrow area generated between the products. The image face area is specified by specifying a shadow, specifying a repetitive pattern of an image, specifying a step on the upper side of a package, specifying a break position based on constraints such as the same product width, and the like.

画像フェイス領域の特定処理としては,商品のカテゴリや商品の形態によって,任意の方法を採用可能であり,上記に限定するものではない。   As the process of specifying the image face area, an arbitrary method can be adopted depending on the category of the product and the form of the product, and is not limited to the above method.

一般的には,一つの棚段には,同じような種類の商品が置かれることが多い。その場合,商品の大きさもほぼ同じ大きさである。そこで,商品陳列領域において一つの画像フェイス領域を特定した場合,その領域を棚段において反復して設定することで,当該商品陳列領域における画像フェイス領域を特定してもよい。   In general, one shelf often contains similar types of products. In that case, the size of the product is almost the same size. Therefore, when one image face area is specified in the product display area, the image face area in the product display area may be specified by repeatedly setting the area in the shelf.

画像フェイス特定処理部242における二回目以降の画像フェイス領域の特定処理は,同一の陳列棚の同一の棚段の商品陳列領域について,前回(N−1回目)の正置画像情報で特定した画像フェイス領域の座標を,今回(N回目)の正置画像情報で特定した画像フェイス領域の座標とするようにしてもよい。   The second and subsequent image face area specification processing by the image face specification processing unit 242 is performed for the product display area of the same shelf on the same display shelf using the image specified by the previous (N-1) -th normal image information. The coordinates of the face area may be the coordinates of the image face area specified by the current (N-th) normal image information.

そして商品識別情報特定処理部241は,画像フェイス特定処理部242で特定した画像フェイス領域と,標本情報記憶部26に記憶する標本情報との類否判定を行うことで,当該画像フェイス領域にある商品の商品識別情報を特定する。   The product identification information specifying processing unit 241 determines whether the image face area specified by the image face specifying processing unit 242 is similar to the sample information stored in the sample information storage unit 26, and thereby determines whether the image face area is in the image face area. Specify the product identification information of the product.

本実施例のように,画像フェイス特定処理部242における,深さマップに基づいて特定した商品面を用いて正置画像情報における画像フェイス領域を特定する処理は,たとえば深さフェイス特定処理部232で深さフェイス領域を特定できなかった場合に実行してもよいし,深さフェイス特定処理部232の処理と併存させてもよい。処理を併存させる場合としては,たとえば深さフェイス特定処理部232で特定した深さフェイス領域が所定の幅以上であった場合がある。この場合,商品面の全体(商品陳列領域の全体)にわたって画像フェイス特定処理部242の処理を実行してもよいし,所定の幅以上であった深さフェイス領域に対して画像フェイス特定処理部242の処理を実行してもよい。   As in the present embodiment, the process of specifying the image face area in the normal image information using the product surface specified based on the depth map in the image face specification processing unit 242 is performed by, for example, the depth face specification processing unit 232. May be executed when the depth face area cannot be specified by the processing described above, or may coexist with the processing of the depth face specification processing unit 232. As a case where the processes coexist, for example, there is a case where the depth face area specified by the depth face specification processing unit 232 is equal to or larger than a predetermined width. In this case, the processing of the image face specification processing unit 242 may be executed over the entire product surface (the entire product display area), or the image face specification processing unit may be executed on a depth face area having a predetermined width or more. 242 may be executed.

上述の実施例1では,深さ処理部23が特定した商品タグ面に対応する領域(商品タグ領域)を正置画像情報からそのまま特定をする処理を実行していた。しかし商品タグは,商品の購入者から視認しやすいように,棚段の前面にやや上方に傾いて取り付けられていることも多い。その場合,撮影画像情報を正置化処理しただけでは,商品タグが棚段の前面でやや上方に傾いた状態となる。そのため,商品タグ内情報特定処理部240におけるOCR認識処理を行う場合の認識精度に影響を与える可能性がある。そこで,本実施例では,正置画像情報における商品タグ面に対応する領域(商品タグ領域)について,さらに正置化することで,商品タグを正対した状態に補正する場合を説明する。   In the above-described first embodiment, the processing for directly specifying the area (product tag area) corresponding to the product tag surface specified by the depth processing unit 23 from the normal image information is executed. However, in many cases, the product tag is attached to the front of the shelf so as to be slightly inclined upward so as to be easily recognized by the purchaser of the product. In this case, the product tag is slightly inclined upward at the front of the shelf only if the photographed image information is subjected to the normalization processing. Therefore, there is a possibility that the recognition accuracy when performing the OCR recognition process in the product tag information specification processing unit 240 may be affected. Therefore, in the present embodiment, a case will be described in which an area (product tag area) corresponding to the product tag surface in the normal image information is further set to correct the product tag so that the product tag faces directly.

本実施例における画像認識処理部24の処理機能の一例を図27のブロック図に示す。本実施例の画像認識処理部24では,さらに,商品タグ領域正置化処理部243を有する。   An example of the processing function of the image recognition processing unit 24 in the present embodiment is shown in the block diagram of FIG. The image recognition processing unit 24 of this embodiment further includes a product tag area normalization processing unit 243.

商品タグ領域正置化処理部243は,面種別特定処理部231で特定した商品タグ面に対応する正置画像情報の領域(商品タグ領域)を切り出し,商品タグ領域の画像情報を正置化する正置化処理を実行する。図28に,図25の正置画像情報から商品タグ領域を切り出した状態を示す図である。図28(a)が図25の上段にある商品タグ領域,図28(b)が図25の下段にある商品タグ領域である。なお,図28において,一点鎖線で示しているのが棚段の前面に対応する正置画像情報の領域であり,実線で示しているのが商品タグ領域の画像情報である。なお,以下の説明では,商品タグ面に対して正置化処理を実行する場合であるが,商品タグは棚段の前面に位置することが多い。そのため,棚段の前面および/または商品タグ領域に対して正置化処理をすることでもよい。その場合は,商品タグ領域を棚段の前面に対応する正置画像情報の領域に読み替えればよい。   The product tag area normalization processing unit 243 cuts out the area (product tag area) of the normal image information corresponding to the product tag surface specified by the surface type specifying processing unit 231 and normalizes the image information of the product tag area. Execute the normalization process. FIG. 28 is a diagram showing a state where a product tag area is cut out from the normal image information of FIG. FIG. 28A shows the product tag area in the upper part of FIG. 25, and FIG. 28B shows the product tag area in the lower part of FIG. In FIG. 28, the one-dot chain line indicates the area of the normal image information corresponding to the front of the shelf, and the solid line indicates the image information of the product tag area. In the following description, the normalization process is performed on the product tag surface, but the product tag is often located on the front of the shelf. Therefore, a normalization process may be performed on the front surface of the shelf and / or the product tag area. In that case, the product tag area may be replaced with a normal image information area corresponding to the front of the shelf.

商品タグ領域正置化処理部243は,以下のような処理を実行することで,正置画像情報における商品タグ領域を正置化する。すなわち,正置画像情報における商品タグ領域において,エッジ検出を行い,左右の両端に近い箇所で,一定の長さ以上の垂直に近い輪郭線(たとえば70度から110度のように,垂直(90度)から所定範囲の角度内の輪郭線)を特定する。なお,左右の両端に近い箇所の輪郭線を抽出することが好ましいが,それに限定しない。図28の正置画像情報の商品タグ領域の場合,L1乃至L4をそれぞれ特定する。なお,特定する輪郭線L1乃至L4は,実際に商品タグ領域に描画するわけではない。そして図28(a)のL1,L2,図28(b)のL3,L4が,それぞれ垂直線となるように,商品タグ領域に対する台形補正処理をそれぞれ実行する。   The product tag area normalization processing unit 243 performs the following processing to normalize the product tag area in the normal image information. That is, edge detection is performed in the product tag area in the normal image information, and near a right or left end, a nearly vertical contour line having a certain length or more (for example, a vertical (90 From (degree), a contour line within a predetermined range of angle is specified. In addition, it is preferable to extract the contour lines near the left and right ends, but the present invention is not limited to this. In the case of the product tag area of the normal image information in FIG. 28, L1 to L4 are specified respectively. Note that the specified contour lines L1 to L4 are not actually drawn in the product tag area. Then, trapezoid correction processing is performed on the product tag area such that L1 and L2 in FIG. 28A and L3 and L4 in FIG. 28B respectively become vertical lines.

このような処理を実行することで,商品タグ領域の画像情報を正置化し,図29に示す正置化した商品タグ領域の画像情報を得られる。なお,商品タグ領域正置化処理部243の処理を実行することで,商品タグ内情報特定処理部240のOCR認識の精度を向上させることができる。   By executing such a process, the image information of the product tag area is normalized, and the image information of the normalized product tag area shown in FIG. 29 can be obtained. By executing the process of the product tag area normalization processing unit 243, the accuracy of OCR recognition by the product tag information specification processing unit 240 can be improved.

そして,商品タグ内情報特定処理部240は,正置化処理をした商品タグ領域に対して,実施例1におけるOCR認識処理を実行する。   Then, the in-product-tag information specifying processing unit 240 executes the OCR recognition process in the first embodiment on the product tag area subjected to the normalization process.

上述の実施例3では,商品タグが棚段の前面でやや上方に傾いた状態で取り付けられている状態を補正するため,商品タグ領域について正置化処理を実行する一例を示した。本実施例では別の正置化処理として,面種別特定処理部231で特定した商品タグ面の法線が視点方向を向くように,商品タグ面に対応する正置画像情報の領域である商品タグ領域を3次元空間上で回転させることにより,より正確に正置化処理を実行することができる。   In the above-described third embodiment, an example in which the normalization process is performed on the product tag area in order to correct a state in which the product tag is attached to the front of the shelf in a slightly upwardly inclined state has been described. In the present embodiment, as another normalization processing, a product which is an area of the normal image information corresponding to the product tag surface such that the normal line of the product tag surface specified by the surface type specifying processing unit 231 faces the viewpoint direction. By rotating the tag area in the three-dimensional space, the normalization processing can be executed more accurately.

商品タグ領域,商品面などを模式的に示すのが図30である。図30(a)は,商品タグ面,商品面を斜め上方からイメージ化した図であり,図30(b)は,商品タグ面,商品面を側面からイメージ化した図である。   FIG. 30 schematically shows a product tag area, a product surface, and the like. FIG. 30A is a diagram in which the product tag surface and the product surface are imaged obliquely from above, and FIG. 30B is a diagram in which the product tag surface and the product surface are imaged from the side.

商品タグ領域正置化処理部243は,面種別特定処理部231で特定した商品タグ面の法線ベクトルを算出し,その法線ベクトルが,撮影装置における深さ情報を取得するための深さ検出装置,たとえば赤外線照射装置やステレオカメラを向くように,商品タグ面を3次元空間上で垂直方向および/または水平方向へ回転させる変換を特定する。そして,面種別特定処理部231で特定した商品タグ面に対応する正置画像情報における商品タグ領域に,特定した垂直方向および/または水平方向へ回転させる変換を実施する。これを模式的に示すのが図31である。図31(a)は正面からの図であり,図31(b)は側面からの図である。   The product tag area normalization processing unit 243 calculates a normal vector of the product tag surface specified by the surface type specifying processing unit 231, and the normal vector is a depth for acquiring depth information in the imaging device. A conversion is specified that rotates the product tag surface in a three-dimensional space vertically and / or horizontally so as to face a detection device, for example, an infrared irradiation device or a stereo camera. Then, conversion for rotating in the specified vertical and / or horizontal direction is performed on the product tag area in the normal image information corresponding to the product tag surface specified by the surface type specifying processing unit 231. This is schematically shown in FIG. FIG. 31A is a view from the front, and FIG. 31B is a view from the side.

本実施例のような正置化処理を実行することで,商品タグ面の輪郭がいびつな形状である場合や商品タグが陳列棚の前面に左右方向に傾いて設置されている場合でも,より精度よく正置化することができる。   By performing the normalization processing as in the present embodiment, even when the contour of the product tag surface is irregular, or when the product tag is installed at the front of the display shelf in the left and right direction, it is more effective. It can be accurately positioned.

なお,上述における商品タグ面の特定としては,面種別特定処理部231において検出した面と,その面のレベルによる前後関係とに基づいて,商品識別情報特定処理部241において深さ処理部23で特定した深さフェイス領域における面よりも前側の面(レベルが小さい面)を商品タグ面として特定してもよい。たとえば前回(N−1回目)の処理で特定した深さフェイス領域における面を用いて,今回(N回目)の処理における商品タグ面,商品面の特定に用いてもよい。   Note that the product tag surface is specified by the depth processing unit 23 in the product identification information specification processing unit 241 based on the surface detected by the surface type specification processing unit 231 and the context of the level of the surface. A surface on the front side (a surface with a lower level) than the surface in the specified depth face area may be specified as the product tag surface. For example, the surface in the depth face area specified in the previous (N-1st) process may be used to specify the product tag surface and the product surface in the current (Nth) process.

本発明の情報処理システムにおいて,さらに陳列棚に陳列されている商品の欠品を特定できるように構成してもよい。この場合,深さ処理部23において,深さ情報を用いて面種別特定処理部231が検出した商品面よりも所定値または所定割合だけレベルが後方(レベルが大きい)の面の部分であって,商品面と水平方向がそろっている領域を「空」として判定をする。そして画像認識処理部24は,深さ処理部23において「空」と判定した領域に対応する正置画像情報における領域について,陳列棚において商品が陳列されていない領域として判定をする。   The information processing system according to the present invention may be configured so that a missing item of a product displayed on the display shelf can be specified. In this case, in the depth processing unit 23, the surface is a portion of the surface whose level is later (larger) by a predetermined value or a predetermined ratio than the product surface detected by the surface type specifying processing unit 231 using the depth information. , An area in which the product surface and the horizontal direction are aligned is determined as “sky”. Then, the image recognition processing unit 24 determines a region in the normal image information corresponding to the region determined to be “empty” by the depth processing unit 23 as a region where no merchandise is displayed on the display shelf.

このような処理を実行することによって,陳列棚に商品の抜け(「空」である)があることを判定することができる。   By executing such a process, it is possible to determine that the display shelf has a missing product ("empty").

通常,画像情報のみから「空」を判定するためには,本来,商品があるべき位置が周囲よりも暗い,背景色と同じ色であるなどに基づいて特定をするが,照明の状態や撮影の角度によっては精度を保つことが難しい場合がある。しかし,本実施例のように,撮影画像情報または正置画像情報に対応した深さ情報を用いて商品面のレベルを特定し,特定した商品面よりも一定程度後退している領域を「空」として判定することで,画像情報のみから「空」を判定するよりも高い精度で判定をすることができる。   Usually, in order to determine “sky” only from image information, the position where the product should be originally is specified based on the darker position than the surroundings, the same color as the background color, etc. It may be difficult to maintain accuracy depending on the angle of the camera. However, as in the present embodiment, the level of the product surface is specified using the depth information corresponding to the captured image information or the normal image information, and the area that is receded to a certain extent from the specified product surface is defined as “empty”. , It is possible to make a determination with higher accuracy than to determine “sky” from only image information.

上述の実施例1乃至実施例5の処理を,適宜,組み合わせることもできる。またその各処理については,本発明の明細書に記載した順序に限定するものではなく,その目的を達成する限度において適宜,変更することが可能である。また,深さ処理部23,画像認識処理部24における各処理は,撮影画像情報に対して正置化処理を実行した正置画像情報に対して実行したが,撮影画像情報に対して実行をしてもよい。その場合,正置画像情報を,撮影画像情報と読み替えればよい。また撮影画像情報,正置画像情報を総称して,単に画像情報とする。   The processes of the above-described first to fifth embodiments can be appropriately combined. In addition, the respective processes are not limited to the order described in the specification of the present invention, and can be appropriately changed as long as the object is achieved. In addition, each processing in the depth processing unit 23 and the image recognition processing unit 24 is performed on the fixed image information that has been subjected to the normalization processing on the captured image information. May be. In that case, the normal image information may be replaced with the photographed image information. Further, the photographed image information and the normal image information are collectively referred to simply as image information.

さらに,本発明の情報処理システムは,店舗の陳列棚を撮影した撮影画像情報の場合に有効であるが,それに限定するものではない。すなわち,ある撮影対象物を撮影した場合に,その所望の対象物が写っている領域を撮影した画像情報から特定する際に,広く用いることができる。そして,上述の各処理を実行することで,精度よく,所望の対象物が写っている領域を画像情報から特定することができる。   Further, the information processing system of the present invention is effective in the case of image information obtained by photographing a display shelf of a store, but is not limited thereto. That is, when a certain photographing target is photographed, it can be widely used when specifying a region where the desired target is photographed from the photographed image information. By executing each of the above-described processes, a region where a desired target object is captured can be specified with high accuracy from the image information.

本発明の情報処理システム1を用いることによって,撮影対象物を撮影した画像情報から,所定の領域を精度よく特定することができる。とくに,陳列棚を撮影した画像における商品の陳列部分,商品タグの領域を精度よく特定することができる。   By using the information processing system 1 of the present invention, a predetermined area can be specified with high accuracy from image information obtained by photographing an object to be photographed. In particular, it is possible to accurately specify a product display portion and a product tag area in an image of a display shelf.

1:情報処理システム
2:管理端末
3:入力端末
20:撮影画像情報入力受付処理部
21:深さ入力受付処理部
22:正置化処理部
23:深さ処理部
24:画像認識処理部
25:画像情報記憶部
26:標本情報記憶部
27:商品識別情報記憶部
70:演算装置
71:記憶装置
72:表示装置
73:入力装置
74:通信装置
230:異常値除去処理部
231:面種別特定処理部
232:深さフェイス特定処理部
240:商品タグ内情報特定処理部
241:商品識別情報特定処理部
242:画像フェイス特定処理部
243:商品タグ領域正置化処理部
1: information processing system 2: management terminal 3: input terminal 20: photographed image information input reception processing unit 21: depth input reception processing unit 22: normalization processing unit 23: depth processing unit 24: image recognition processing unit 25 : Image information storage unit 26: Specimen information storage unit 27: Product identification information storage unit 70: Arithmetic device 71: Storage device 72: Display device 73: Input device 74: Communication device 230: Abnormal value removal processing unit 231: Surface type identification Processing unit 232: depth face specification processing unit 240: product tag information specification processing unit 241: product identification information specification processing unit 242: image face specification processing unit 243: product tag area normalization processing unit

Claims (5)

画像情報と深さ情報とを用いる情報処理システムであって,
前記情報処理システムは,
前記深さ情報を用いて商品面または深さフェイス領域を特定する深さ処理部と,
前記特定した商品面または深さフェイス領域を用いて,前記画像情報における画像フェイス領域を特定する画像認識処理部と,を有しており,
前記深さ処理部は,
前記深さ情報に基づいて面を検出し,
前記検出した面の前後関係を用いて面の種別を特定し,
前記面の種別が商品面である面において,パッケージタイプごとの深さフェイス領域の判定条件で比較することで,前記深さフェイス領域を特定する,
ことを特徴とする情報処理システム。
An information processing system using image information and depth information,
The information processing system comprises:
A depth processing unit that specifies a product surface or a depth face area using the depth information;
Using said identified product surface or depth face region, and have a, and an image recognition processing unit that specifies an image face area in the image information,
The depth processing unit comprises:
Detecting a surface based on the depth information;
Identify the type of surface using the context of the detected surface,
On the side where the type of the side is a product side, the depth face area is specified by comparing with the determination condition of the depth face area for each package type.
An information processing system, comprising:
前記判定条件は,
前記パッケージタイプが缶または瓶の場合には,一定の大きさの範囲内にある円筒の領域を缶または瓶の深さフェイス領域として特定する,
前記パッケージタイプが缶と瓶の併存であった場合には,一定の大きさの範囲内に円筒があり,上方に小さな円筒がない領域を缶の深さフェイス領域,一定の大きさの範囲内に円筒があり,上方に小さな円筒がある領域を瓶の深さフェイス領域として特定する,
前記パッケージタイプが箱物であった場合,一定の大きさの範囲内にある垂直の長方形の平面の領域を箱物の深さフェイス領域として特定する,
または,前記パッケージタイプが吊るし商品であった場合,一定のサイズの範囲内にある長方形の平面または凹凸面の領域を,吊るし商品の深さフェイス領域として特定する,
のうちいずれか一以上を含む,
ことを特徴とする請求項に記載の情報処理システム。
The judgment condition is
If the package type is a can or bottle, specify the cylindrical area within a certain size range as the depth face area of the can or bottle;
If the package type includes both cans and bottles, there is a cylinder within a certain size, and the area without a small cylinder above is the depth face area of the can, within the certain size. The area with the cylinder at the top and the small cylinder above is identified as the bottle depth face area,
If the package type is a box, the area of a vertical rectangular plane within a certain size is specified as the depth face area of the box.
Alternatively, when the package type is a hanging product, a rectangular flat surface or an uneven surface area within a certain size range is specified as a depth face region of the hanging product.
Including one or more of
The information processing system according to claim 1 , wherein:
画像情報と深さ情報とを用いる情報処理システムであって,
前記情報処理システムは,
前記深さ情報を用いて商品面または深さフェイス領域を特定する深さ処理部と,
前記特定した商品面または深さフェイス領域を用いて,前記画像情報における画像フェイス領域を特定する画像認識処理部と,を有しており,
前記画像認識処理部は,
前記深さ処理部において,前記商品面または深さフェイス領域が特定できなかった,または前記深さフェイス領域が所定の幅以上であった場合に,前記画像情報において,商品と商品との間の陰影,画像の繰り返しパターン,パッケージの上辺の段差,商品幅のいずれか一以上に基づいて,画像フェイス領域を特定し,
前記特定した画像フェイス領域と標本情報との類似性を判定することで,前記画像フェイス領域に陳列されている商品の商品識別情報を特定する,
ことを特徴とする情報処理システム。
An information processing system using image information and depth information,
The information processing system comprises:
A depth processing unit that specifies a product surface or a depth face area using the depth information;
Using said identified product surface or depth face region, and have a, and an image recognition processing unit that specifies an image face area in the image information,
The image recognition processing unit includes:
In the depth processing unit, if the product surface or the depth face area could not be specified, or if the depth face area was equal to or larger than a predetermined width, the image information indicates that a product Identify the image face area based on at least one of shading, image repetition pattern, step on top of package, and product width,
By determining the similarity between the specified image face area and the specimen information, the product identification information of the product displayed in the image face area is specified.
An information processing system, comprising:
コンピュータを,
深さ情報を用いて商品面または深さフェイス領域を特定する深さ処理部,
前記特定した商品面または深さフェイス領域を用いて,画像情報における画像フェイス領域を特定する画像認識処理部,として機能させる情報処理プログラムであって,
前記深さ処理部は,
前記深さ情報に基づいて面を検出し,
前記検出した面の前後関係を用いて面の種別を特定し,
前記面の種別が商品面である面において,パッケージタイプごとの深さフェイス領域の判定条件で比較することで,前記深さフェイス領域を特定する,
ことを特徴とする情報処理プログラム。
Computer
A depth processing unit that specifies a product surface or a depth face area using the depth information;
An information processing program that functions as an image recognition processing unit that specifies an image face area in image information using the specified product surface or depth face area,
The depth processing unit comprises:
Detecting a surface based on the depth information;
Identify the type of surface using the context of the detected surface,
On the side where the type of the side is a product side, the depth face area is specified by comparing with the determination condition of the depth face area for each package type.
An information processing program characterized by the following.
コンピュータを,
深さ情報を用いて商品面または深さフェイス領域を特定する深さ処理部,
前記特定した商品面または深さフェイス領域を用いて,画像情報における画像フェイス領域を特定する画像認識処理部,として機能させる情報処理プログラムであって,
前記画像認識処理部は,
前記深さ処理部において,前記商品面または深さフェイス領域が特定できなかった,または前記深さフェイス領域が所定の幅以上であった場合に,前記画像情報において,商品と商品との間の陰影,画像の繰り返しパターン,パッケージの上辺の段差,商品幅のいずれか一以上に基づいて,画像フェイス領域を特定し,
前記特定した画像フェイス領域と標本情報との類似性を判定することで,前記画像フェイス領域に陳列されている商品の商品識別情報を特定する,
ことを特徴とする情報処理プログラム。
Computer
A depth processing unit that specifies a product surface or a depth face area using the depth information;
An information processing program that functions as an image recognition processing unit that specifies an image face area in image information using the specified product surface or depth face area,
The image recognition processing unit includes:
In the depth processing unit, if the product surface or the depth face area could not be specified, or if the depth face area was equal to or larger than a predetermined width, the image information indicates that a product Identify the image face area based on at least one of shading, image repetition pattern, step on top of package, and product width,
By determining the similarity between the specified image face area and the specimen information, the product identification information of the product displayed in the image face area is specified.
An information processing program characterized by the following.
JP2018116678A 2018-06-20 2018-06-20 Information processing system Active JP6628336B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018116678A JP6628336B2 (en) 2018-06-20 2018-06-20 Information processing system
JP2019203567A JP6890849B2 (en) 2018-06-20 2019-11-08 Information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018116678A JP6628336B2 (en) 2018-06-20 2018-06-20 Information processing system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019203567A Division JP6890849B2 (en) 2018-06-20 2019-11-08 Information processing system

Publications (2)

Publication Number Publication Date
JP2019219901A JP2019219901A (en) 2019-12-26
JP6628336B2 true JP6628336B2 (en) 2020-01-08

Family

ID=69096660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018116678A Active JP6628336B2 (en) 2018-06-20 2018-06-20 Information processing system

Country Status (1)

Country Link
JP (1) JP6628336B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6936529B1 (en) * 2020-05-21 2021-09-15 株式会社マーケットヴィジョン Verification system
JPWO2022244176A1 (en) * 2021-05-20 2022-11-24
JP7386446B2 (en) 2022-04-13 2023-11-27 株式会社マーケットヴィジョン information processing system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6318557B2 (en) * 2013-11-11 2018-05-09 日本電気株式会社 POS terminal device, POS system, image processing method and program
JP6222345B2 (en) * 2014-03-20 2017-11-01 日本電気株式会社 POS terminal device, POS system, image processing method and program
JP6322603B2 (en) * 2015-06-23 2018-05-09 東芝テック株式会社 Image processing apparatus, image processing program, and display status determination apparatus

Also Published As

Publication number Publication date
JP2019219901A (en) 2019-12-26

Similar Documents

Publication Publication Date Title
KR102208683B1 (en) Character recognition method and apparatus thereof
JP6366024B2 (en) Method and apparatus for extracting text from an imaged document
US8590794B2 (en) Barcode recognion method and computer product thereof
US8805077B2 (en) Subject region detecting apparatus
JP6458239B1 (en) Image recognition system
US9959475B2 (en) Table data recovering in case of image distortion
JP6628336B2 (en) Information processing system
JP6831951B2 (en) Image recognition system
US8538170B2 (en) System and method for document location and recognition
CN107330430B (en) Tibetan character recognition device and method
CN111461133B (en) Express delivery surface single item name identification method, device, equipment and storage medium
JP6651169B2 (en) Display status judgment system
JP7449505B2 (en) information processing system
JP6579456B1 (en) Search target information narrowing system
JP6885563B2 (en) Display status judgment system
JP6890849B2 (en) Information processing system
US11712807B2 (en) Image processing apparatus, robot and robot system
JP7031389B2 (en) Information processing equipment and programs
JP7231165B2 (en) Verification system
JP7343115B1 (en) information processing system
WO2023171132A1 (en) Information processing system
JP6941331B2 (en) Image recognition system
JP2023170655A (en) information processing system
JP2020198138A (en) Image processing system
JP4719491B2 (en) Object extraction method, object extraction apparatus, and object extraction program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180816

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191128

R150 Certificate of patent or registration of utility model

Ref document number: 6628336

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250