JP6788877B2 - Image processing system - Google Patents

Image processing system Download PDF

Info

Publication number
JP6788877B2
JP6788877B2 JP2019090148A JP2019090148A JP6788877B2 JP 6788877 B2 JP6788877 B2 JP 6788877B2 JP 2019090148 A JP2019090148 A JP 2019090148A JP 2019090148 A JP2019090148 A JP 2019090148A JP 6788877 B2 JP6788877 B2 JP 6788877B2
Authority
JP
Japan
Prior art keywords
information
region
image information
candidate
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019090148A
Other languages
Japanese (ja)
Other versions
JP2020187438A (en
Inventor
成吉 谷井
成吉 谷井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Marketvision Co Ltd
Original Assignee
Marketvision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Marketvision Co Ltd filed Critical Marketvision Co Ltd
Priority to JP2019090148A priority Critical patent/JP6788877B2/en
Publication of JP2020187438A publication Critical patent/JP2020187438A/en
Application granted granted Critical
Publication of JP6788877B2 publication Critical patent/JP6788877B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は,画像処理システムに関する。 The present invention relates to an image processing system.

ある画像情報に,判定対象とする対象物が写っているかを判定することが求められる場合がある。たとえば商品の陳列棚を撮影した画像情報に,判定対象とする商品が写っているかを判定することで,その商品が陳列されていたかを判定する場合などがその一例としてあげられる。 It may be required to determine whether or not an object to be determined is reflected in a certain image information. For example, there is a case where it is determined whether or not the product to be determined is displayed in the image information obtained by photographing the display shelf of the product.

このように,画像情報に対象物が写っているかを判定する場合には,通常,処理対象となる画像情報と,対象物の画像情報との画像マッチング処理を実行することが一般的である。たとえば,下記特許文献1には,商品ごとの登録画像をもとに,自動販売機を撮影した画像情報に対して画像認識技術を用いることで,自動販売機が取り扱う商品を把握するシステムが開示されている。 In this way, when determining whether or not an object is reflected in the image information, it is common to execute an image matching process between the image information to be processed and the image information of the object. For example, Patent Document 1 below discloses a system for grasping products handled by vending machines by using image recognition technology for image information taken by vending machines based on registered images for each product. Has been done.

特開2014−191423号公報Japanese Unexamined Patent Publication No. 2014-191423

特許文献1の具体的な処理は,複数の方向から自動販売機を撮影し,撮影した各画像の位置関係を合わせた後,撮影した各画像を重畳することで合成画像を生成する。そして,生成した合成画像に,自動販売機に陳列される可能性のある商品を表す登録画像を照合することで,自動販売機が取り扱う商品を特定している。 The specific processing of Patent Document 1 is to photograph a vending machine from a plurality of directions, align the positional relationships of the photographed images, and then superimpose the photographed images to generate a composite image. Then, the products handled by the vending machine are specified by collating the generated composite image with the registered image representing the products that may be displayed on the vending machine.

合成画像と,商品を表す登録画像との照合処理(マッチング処理)の際には,それぞれの特徴量を用いることで処理を実行することが一般的である。しかし,比較対象とする商品が多くなる場合,登録画像の数が多くなり,照合処理(マッチング処理)の精度を高めることはできない。また計算時間が膨大にかかる課題がある。 In the collation process (matching process) between the composite image and the registered image representing the product, it is common to execute the process by using each feature amount. However, when the number of products to be compared increases, the number of registered images increases, and the accuracy of the matching process (matching process) cannot be improved. In addition, there is a problem that the calculation time is enormous.

そこで本発明者は上記課題に鑑み,陳列棚などを撮影した画像情報に写っている商品などの対象物を特定する際に,計算時間を従来よりも要することなく,マッチング処理の精度を向上させる画像処理システムを発明した。 Therefore, in view of the above problems, the present inventor improves the accuracy of the matching process without requiring more calculation time than before when identifying an object such as a product shown in image information obtained by photographing a display shelf or the like. Invented an image processing system.

第1の発明は,画像情報に写っている対象物を特定する画像処理システムであって,前記画像処理システムは,処理対象の画像情報における第1の領域において所定条件を充足する第2の領域の情報と,標本とする対象物の標本情報とブロック情報とを記憶する標本情報記憶部に記憶されたブロック情報とを用いて類似検索処理を実行し,比較処理の候補とする対象物を特定する候補処理部と,前記処理対象の画像情報の第1の領域と,前記候補処理部で候補として特定した対象物の標本情報とを用いて比較処理をすることで,前記第1の領域に写っている対象物を特定する比較処理部と,を有しており,前記候補処理部は,前記第1の領域の画像情報において,前記第1の領域の画像情報について所定の色数に減色し,前記第1の領域の画像情報を所定の大きさのメッシュに分割して前記減色した色ごとの分布マップを生成し,前記色ごとの分布マップについて,所定の範囲に収まるグループを検出し,各グループについて,その領域に含まれる色の数が所定数以内であって,かつエッジが所定の閾値以上あるグループを囲む領域を,前記第2の領域として特定する,画像処理システムである。
The first invention is an image processing system that identifies an object reflected in image information, and the image processing system is a second region that satisfies a predetermined condition in a first region of the image information to be processed. The similarity search process is executed using the information of the above and the block information stored in the sample information storage unit that stores the sample information and the block information of the object to be sampled, and the target object to be the candidate for the comparison process is specified. By performing comparison processing using the candidate processing unit, the first region of the image information of the processing target, and the sample information of the object specified as a candidate by the candidate processing unit, the first region can be obtained. It has a comparison processing unit that identifies an object in the image, and the candidate processing unit reduces the number of colors of the image information in the first region to a predetermined number in the image information in the first region. Then, the image information of the first region is divided into meshes of a predetermined size to generate a distribution map for each of the reduced colors, and for the distribution map for each color, a group that falls within a predetermined range is detected. This is an image processing system that specifies, as the second region, an region surrounding a group in which the number of colors contained in the region is within a predetermined number and the edges are equal to or greater than a predetermined threshold for each group .

第2の発明は,画像情報に写っている対象物を特定する画像処理システムであって,前記画像処理システムは,処理対象の画像情報における第1の領域において所定条件を充足する第2の領域の情報と,標本とする対象物の標本情報とブロック情報とを記憶する標本情報記憶部に記憶されたブロック情報とを用いて類似検索処理を実行し,比較処理の候補とする対象物を特定する候補処理部と,前記処理対象の画像情報の第1の領域と,前記候補処理部で候補として特定した対象物の標本情報とを用いて比較処理をすることで,前記第1の領域に写っている対象物を特定する比較処理部と,を有しており,前記候補処理部は,前記第1の領域の画像情報から特徴量を抽出することで,所定以上の広さの範囲にわたって共通の特徴が分布している領域を検出してその領域を消し込み,残った領域について,共通の特徴量が分布している領域を特定して,その領域を囲む領域を前記第2の領域として特定する,画像処理システムである。
The second invention is an image processing system that identifies an object reflected in image information, and the image processing system is a second region that satisfies a predetermined condition in a first region of the image information to be processed. The similarity search process is executed using the information of the above and the block information stored in the sample information storage unit that stores the sample information and the block information of the object to be sampled, and the object to be a candidate for the comparison process is specified. By performing comparison processing using the candidate processing unit, the first region of the image information of the processing target, and the sample information of the object specified as a candidate by the candidate processing unit, the first region can be obtained. It has a comparison processing unit that identifies the object in the image, and the candidate processing unit extracts the feature amount from the image information in the first region to cover a range of a predetermined size or more. The area where the common features are distributed is detected, the area is erased, the area where the common feature amount is distributed is specified for the remaining area, and the area surrounding the area is the second area. It is an image processing system specified as .

第3の発明は,画像情報に写っている対象物を特定する画像処理システムであって,前記画像処理システムは,処理対象の画像情報における第1の領域において所定条件を充足する第2の領域の情報と,標本とする対象物の標本情報とブロック情報とを記憶する標本情報記憶部に記憶されたブロック情報とを用いて類似検索処理を実行し,比較処理の候補とする対象物を特定する候補処理部と,前記処理対象の画像情報の第1の領域と,前記候補処理部で候補として特定した対象物の標本情報とを用いて比較処理をすることで,前記第1の領域に写っている対象物を特定する比較処理部と,を有しており,前記候補処理部は,さまざまな第1の領域の画像情報に第2の領域を正解データとして与えた,中間層が多数の層からなるニューラルネットワークの各層のニューロン間の重み付け係数が最適化された学習モデルに対して,前記処理対象の画像情報における第1の領域の画像情報を入力し,その出力値に基づいて,前記第2の領域を特定する,画像処理システムである。
A third invention is an image processing system that identifies an object reflected in image information, and the image processing system is a second region that satisfies a predetermined condition in a first region of the image information to be processed. The similarity search process is executed using the information of the above and the block information stored in the sample information storage unit that stores the sample information and the block information of the object to be sampled, and the object to be the candidate for the comparison process is specified. By performing comparison processing using the candidate processing unit, the first region of the image information of the processing target, and the sample information of the object specified as a candidate by the candidate processing unit, the first region can be obtained. It has a comparison processing unit that identifies the object in the picture, and the candidate processing unit has a large number of intermediate layers in which the second region is given as correct answer data to the image information of various first regions. The image information of the first region in the image information to be processed is input to the learning model in which the weighting coefficient between the neurons of each layer of the neural network consisting of the above layers is optimized, and based on the output value, the image information is input. This is an image processing system that specifies the second region .

第4の発明は,画像情報に写っている対象物を特定する画像処理システムであって,前記画像処理システムは,処理対象の画像情報における第1の領域において所定条件を充足する第2の領域の情報と,標本とする対象物の標本情報とブロック情報とを記憶する標本情報記憶部に記憶されたブロック情報とを用いて類似検索処理を実行し,比較処理の候補とする対象物を特定する候補処理部と,前記処理対象の画像情報の第1の領域と,前記候補処理部で候補として特定した対象物の標本情報とを用いて比較処理をすることで,前記第1の領域に写っている対象物を特定する比較処理部と,を有しており,前記候補処理部は,あらかじめ学習モデルとして,さまざまな第1の領域の画像情報における第2の領域内の特徴量を正例とし,さまざまな第1の領域の画像情報における第2の領域外の特徴量を負例として与えた判定処理部に対して,前記処理対象の画像情報における第1の領域の画像情報を分割したメッシュにおける各点を入力し,その各点について,前記第2の領域に属しているかを前記判定処理部に判定させ,その判定結果において,前記第2の領域に属していると判定したメッシュを囲む領域を前記第2の領域として特定する,画像処理システムである。
A fourth invention is an image processing system that identifies an object reflected in image information, and the image processing system is a second region that satisfies a predetermined condition in a first region of the image information to be processed. The similarity search process is executed using the information of the above and the block information stored in the sample information storage unit that stores the sample information and the block information of the object to be sampled, and the object to be a candidate for the comparison process is specified. By performing comparison processing using the candidate processing unit, the first region of the image information of the processing target, and the sample information of the object specified as a candidate by the candidate processing unit, the first region can be obtained. It has a comparison processing unit that identifies the object in the image, and the candidate processing unit positively corrects the feature amount in the second region in the image information of various first regions as a learning model in advance. As an example, the image information of the first region in the image information to be processed is divided into the determination processing unit in which the feature amount outside the second region in the image information of various first regions is given as a negative example. Each point in the mesh is input, and the determination processing unit is made to determine whether each point belongs to the second region, and in the determination result, the mesh determined to belong to the second region. This is an image processing system that specifies the area surrounding the area as the second area .

これらの発明のように構成することで,比較処理(マッチング処理)において比較対象とする標本の対象物を減らすことができるので,計算時間を従来よりも減らすことができる。また,これらの発明に記載の処理を実行することで,対象物を特定し得る情報がある領域を第2の領域として特定することができる。そして,候補対象とする対象物を適切に絞り込むことができる。
By configuring as in these inventions, it is possible to reduce the objects of the sample to be compared in the comparison process (matching process), so that the calculation time can be reduced as compared with the conventional case. Further, by executing the processes described in these inventions, a region having information capable of identifying an object can be specified as a second region. Then, the target objects can be appropriately narrowed down.

第5の発明は,画像情報に写っている対象物を特定する画像処理システムであって,前記画像処理システムは,処理対象の画像情報における第1の領域において所定条件を充足する第2の領域の情報と,標本とする対象物の標本情報とブロック情報とを記憶する標本情報記憶部に記憶されたブロック情報とを用いて類似検索処理を実行し,比較処理の候補とする対象物を特定する候補処理部と,前記処理対象の画像情報の第1の領域と,前記候補処理部で候補として特定した対象物の標本情報とを用いて比較処理をすることで,前記第1の領域に写っている対象物を特定する比較処理部と,を有しており,前記候補処理部は,前記第2の領域の情報と,前記対象物のブロック情報との類似検索処理において,それぞれの大きさ,縮尺,回転のいずれか一以上についてそのままで類似検索処理を実行し,前記比較処理部は,前記第1の領域の情報と,前記候補として特定した対象物の標本情報との比較処理において,その大きさ,縮尺,回転のうちいずれか一以上について揃えて比較処理を実行する,画像処理システムである。
A fifth invention is an image processing system that identifies an object reflected in image information, and the image processing system is a second region that satisfies a predetermined condition in a first region of the image information to be processed. The similarity search process is executed using the information of the above and the block information stored in the sample information storage unit that stores the sample information and the block information of the object to be sampled, and the object to be a candidate for the comparison process is specified. By performing comparison processing using the candidate processing unit, the first region of the image information of the processing target, and the sample information of the object specified as a candidate by the candidate processing unit, the first region can be obtained. It has a comparison processing unit that identifies the object in the image, and the candidate processing unit has a size of each in the similarity search processing between the information in the second region and the block information of the object. The similarity search process is executed as it is for any one or more of the scale, the scale, and the rotation, and the comparison processing unit performs the comparison processing between the information in the first region and the sample information of the object specified as the candidate. , It is an image processing system that executes comparison processing by aligning any one or more of its size, scale, and rotation .

本発明のように構成することで,比較処理(マッチング処理)において比較対象とする標本の対象物を減らすことができるので,計算時間を従来よりも減らすことができる。
処理対象とする画像情報の第2の領域の情報と,対象物のブロック情報との類似検索処理では,対象となる対象物の数が多いことや,類似検索処理の目的が候補を絞り込むための処理であるので,その計算時間を重視して厳密なマッチング処理を行う必要はない。一方,第1の領域の情報と,候補として特定した対象物の標本情報との比較処理では,比較対象となる対象物の標本情報の数が少ないことや,第1の領域の情報に写っている対象物を特定する必要があることから,上記の類似検索処理よりは厳密なマッチング処理を行う必要がある。そこで,本発明のように構成することが好ましい。
By configuring as in the present invention, it is possible to reduce the number of objects to be compared in the sample in the comparison process (matching process), so that the calculation time can be reduced as compared with the conventional case.
In the similarity search processing between the information in the second area of the image information to be processed and the block information of the target object, the number of target objects is large and the purpose of the similar search process is to narrow down the candidates. Therefore, it is not necessary to perform strict matching processing with an emphasis on the calculation time. On the other hand, in the comparison process between the information in the first area and the sample information of the object specified as a candidate, the number of sample information of the object to be compared is small, and the information in the first area is reflected. Since it is necessary to identify the target object, it is necessary to perform a stricter matching process than the above-mentioned similar search process. Therefore, it is preferable to configure it as in the present invention.

第6の発明は,画像情報に写っている対象物を特定する画像処理システムであって,前記画像処理システムは,画像情報とそれに対応する深さ情報を用いて生成した3次元モデルの一部または全部について,平面に展開する平面展開画像情報を生成し,前記生成した平面展開画像情報の一部または全部を,処理対象の画像情報とする画像情報処理部と,前記処理対象の画像情報における第1の領域において所定条件を充足する第2の領域の情報と,標本とする対象物の標本情報とブロック情報とを記憶する標本情報記憶部に記憶されたブロック情報とを用いて類似検索処理を実行し,比較処理の候補とする対象物を特定する候補処理部と,前記処理対象の画像情報の第1の領域と,前記候補処理部で候補として特定した対象物の標本情報とを用いて比較処理をすることで,前記第1の領域に写っている対象物を特定する比較処理部と,を有する画像処理システムである。
A sixth invention is an image processing system that identifies an object reflected in image information, and the image processing system is a part of a three-dimensional model generated by using the image information and the corresponding depth information. Alternatively, in an image information processing unit that generates plane-expanded image information that expands on a plane and uses a part or all of the generated plane-expanded image information as image information to be processed, and the image information to be processed. Similar search processing using the information of the second area that satisfies the predetermined condition in the first area and the block information stored in the sample information storage unit that stores the sample information and the block information of the object to be sampled. Is executed, and the candidate processing unit that identifies the target object to be the candidate for the comparison processing, the first area of the image information of the processing target, and the sample information of the object specified as the candidate by the candidate processing unit are used. This is an image processing system having a comparison processing unit for identifying an object in the first region by performing comparison processing.

本発明のように構成することで,比較処理(マッチング処理)において比較対象とする標本の対象物を減らすことができるので,計算時間を従来よりも減らすことができる。
処理対象とする画像情報は,陳列棚などを撮影した画像情報を2次元のまま取り扱う画像情報のほか,一度,3次元モデルを生成し,それを平面展開した画像情報としてもよい。それによって,より精度よく処理を実行することができる。
By configuring as in the present invention, it is possible to reduce the number of objects to be compared in the sample in the comparison process (matching process), so that the calculation time can be reduced as compared with the conventional case.
The image information to be processed may be image information in which image information obtained by photographing a display shelf or the like is handled as it is in two dimensions, or image information in which a three-dimensional model is once generated and the image information is expanded in a plane. As a result, the processing can be executed more accurately.

上述の発明において,前記候補処理部は,前記特定した第1の領域において,対象物を特定し得る情報がある領域を第2の領域として特定する,画像処理システムのように構成することができる。
In the above-described invention, the candidate processing unit can be configured like an image processing system that specifies a region having information capable of identifying an object as a second region in the specified first region. ..

本発明の特徴を有する領域を第2の領域として特定することが好ましい。これによって,候補対象とする対象物を適切に絞り込むことができる。
It is preferable to specify the region having the characteristics of the present invention as the second region. As a result, the target objects can be appropriately narrowed down.

第1の発明は,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,コンピュータを,処理対象の画像情報における第1の領域において所定条件を充足する第2の領域の情報と,標本とする対象物の標本情報とブロック情報とを記憶する標本情報記憶部に記憶された対象物のブロック情報とを用いて類似検索処理を実行し,比較処理の候補とする対象物を特定する候補処理部,前記処理対象の画像情報の第1の領域と,前記候補処理部で候補として特定した対象物の標本情報とを用いて比較処理をすることで,前記第1の領域に写っている対象物を特定する比較処理部,として機能させる画像処理プログラムであって,前記候補処理部は,前記第1の領域の画像情報において,前記第1の領域の画像情報について所定の色数に減色し,前記第1の領域の画像情報を所定の大きさのメッシュに分割して前記減色した色ごとの分布マップを生成し,前記色ごとの分布マップについて,所定の範囲に収まるグループを検出し,各グループについて,その領域に含まれる色の数が所定数以内であって,かつエッジが所定の閾値以上あるグループを囲む領域を,前記第2の領域として特定する,画像処理プログラムである。
第2の発明は,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,コンピュータを,処理対象の画像情報における第1の領域において所定条件を充足する第2の領域の情報と,標本とする対象物の標本情報とブロック情報とを記憶する標本情報記憶部に記憶された対象物のブロック情報とを用いて類似検索処理を実行し,比較処理の候補とする対象物を特定する候補処理部,前記処理対象の画像情報の第1の領域と,前記候補処理部で候補として特定した対象物の標本情報とを用いて比較処理をすることで,前記第1の領域に写っている対象物を特定する比較処理部,として機能させる画像処理プログラムであって,前記候補処理部は,前記第1の領域の画像情報から特徴量を抽出することで,所定以上の広さの範囲にわたって共通の特徴が分布している領域を検出してその領域を消し込み,残った領域について,共通の特徴量が分布している領域を特定して,その領域を囲む領域を前記第2の領域として特定する,画像処理プログラムである。
第3の発明は,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,コンピュータを,処理対象の画像情報における第1の領域において所定条件を充足する第2の領域の情報と,標本とする対象物の標本情報とブロック情報とを記憶する標本情報記憶部に記憶された対象物のブロック情報とを用いて類似検索処理を実行し,比較処理の候補とする対象物を特定する候補処理部,前記処理対象の画像情報の第1の領域と,前記候補処理部で候補として特定した対象物の標本情報とを用いて比較処理をすることで,前記第1の領域に写っている対象物を特定する比較処理部,として機能させる画像処理プログラムであって,前記候補処理部は,さまざまな第1の領域の画像情報に第2の領域を正解データとして与えた,中間層が多数の層からなるニューラルネットワークの各層のニューロン間の重み付け係数が最適化された学習モデルに対して,前記処理対象の画像情報における第1の領域の画像情報を入力し,その出力値に基づいて,前記第2の領域を特定する,画像処理プログラムである。
第4の発明は,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,コンピュータを,処理対象の画像情報における第1の領域において所定条件を充足する第2の領域の情報と,標本とする対象物の標本情報とブロック情報とを記憶する標本情報記憶部に記憶された対象物のブロック情報とを用いて類似検索処理を実行し,比較処理の候補とする対象物を特定する候補処理部,前記処理対象の画像情報の第1の領域と,前記候補処理部で候補として特定した対象物の標本情報とを用いて比較処理をすることで,前記第1の領域に写っている対象物を特定する比較処理部,として機能させる画像処理プログラムであって,前記候補処理部は,あらかじめ学習モデルとして,さまざまな第1の領域の画像情報における第2の領域内の特徴量を正例とし,さまざまな第1の領域の画像情報における第2の領域外の特徴量を負例として与えた判定処理部に対して,前記処理対象の画像情報における第1の領域の画像情報を分割したメッシュにおける各点を入力し,その各点について,前記第2の領域に属しているかを前記判定処理部に判定させ,その判定結果において,前記第2の領域に属していると判定したメッシュを囲む領域を前記第2の領域として特定する,画像処理プログラムである。
The first invention can be realized by loading the program of the present invention into a computer and executing it. That is, the computer is stored in the sample information storage unit that stores the information in the second area that satisfies the predetermined condition in the first area in the image information to be processed, and the sample information and the block information of the object to be sampled. A candidate processing unit that executes a similar search process using the block information of the target object and identifies an object as a candidate for comparison processing, a first area of image information of the processing target, and the candidate processing unit. An image processing program that functions as a comparison processing unit that identifies an object in the first region by performing comparison processing using the sample information of the object specified as a candidate in the above. In the image information of the first region, the candidate processing unit reduces the color of the image information of the first region to a predetermined number of colors, and divides the image information of the first region into meshes of a predetermined size. The distribution map for each of the reduced colors is generated, the groups that fall within a predetermined range are detected in the distribution map for each color, and the number of colors included in the area is within the predetermined number for each group. This is an image processing program that specifies a region surrounding a group whose edges are equal to or greater than a predetermined threshold as the second region .
The second invention can be realized by loading the program of the present invention into a computer and executing it. That is, the computer is stored in the sample information storage unit that stores the information in the second area that satisfies the predetermined condition in the first area in the image information to be processed, and the sample information and the block information of the object to be sampled. A candidate processing unit that executes a similar search process using the block information of the processed object and identifies an object as a candidate for comparison processing, a first area of image information of the processing target, and the candidate processing unit. An image processing program that functions as a comparison processing unit that identifies an object in the first region by performing comparison processing using the sample information of the object specified as a candidate in the above. By extracting the feature amount from the image information of the first region, the candidate processing unit detects a region in which common features are distributed over a range of a predetermined size or more, erases the region, and remains. This is an image processing program that specifies a region in which a common feature amount is distributed, and specifies a region surrounding the region as the second region .
The third invention can be realized by loading the program of the present invention into a computer and executing it. That is, the computer is stored in the sample information storage unit that stores the information in the second area that satisfies the predetermined condition in the first area in the image information to be processed, and the sample information and the block information of the object to be sampled. A candidate processing unit that executes a similar search process using the block information of the target object and identifies an object as a candidate for comparison processing, a first area of the image information of the processing target, and the candidate processing unit. An image processing program that functions as a comparison processing unit that identifies an object appearing in the first region by performing comparison processing using sample information of the object specified as a candidate in the above. The candidate processing unit gives the image information of various first regions the second region as correct answer data, and the learning in which the weighting coefficient between the neurons of each layer of the neural network consisting of many intermediate layers is optimized. This is an image processing program that inputs the image information of the first region in the image information to be processed to the model and specifies the second region based on the output value .
The fourth invention can be realized by loading the program of the present invention into a computer and executing it. That is, the computer is stored in the sample information storage unit that stores the information in the second area that satisfies the predetermined condition in the first area in the image information to be processed, and the sample information and the block information of the object to be sampled. A candidate processing unit that executes a similar search process using the block information of the target object and identifies an object as a candidate for comparison processing, a first area of image information of the processing target, and the candidate processing unit. An image processing program that functions as a comparison processing unit that identifies an object in the first region by performing comparison processing using the sample information of the object specified as a candidate in the above. As a learning model in advance, the candidate processing unit takes the feature amount in the second region in the image information of various first regions as a positive example, and features outside the second region in the image information of various first regions. Each point in the mesh obtained by dividing the image information of the first region in the image information to be processed is input to the determination processing unit in which the amount is given as a negative example, and each point is set in the second region. This is an image processing program that causes the determination processing unit to determine whether or not it belongs, and in the determination result, specifies a region surrounding a mesh that is determined to belong to the second region as the second region .

第5の発明は,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,コンピュータを,処理対象の画像情報における第1の領域において所定条件を充足する第2の領域の情報と,標本とする対象物の標本情報とブロック情報とを記憶する標本情報記憶部に記憶された対象物のブロック情報とを用いて類似検索処理を実行し,比較処理の候補とする対象物を特定する候補処理部,前記処理対象の画像情報の第1の領域と,前記候補処理部で候補として特定した対象物の標本情報とを用いて比較処理をすることで,前記第1の領域に写っている対象物を特定する比較処理部,として機能させる画像処理プログラムであって,前記候補処理部は,前記第2の領域の情報と,前記対象物のブロック情報との類似検索処理において,それぞれの大きさ,縮尺,回転のいずれか一以上についてそのままで類似検索処理を実行し,前記比較処理部は,前記第1の領域の情報と,前記候補として特定した対象物の標本情報との比較処理において,その大きさ,縮尺,回転のうちいずれか一以上について揃えて比較処理を実行する,画像処理プログラムである。
第6の発明は,本発明のプログラムをコンピュータに読み込ませて実行することで実現できる。すなわち,コンピュータを,画像情報とそれに対応する深さ情報を用いて生成した3次元モデルの一部または全部について,平面に展開する平面展開画像情報を生成し,前記生成した平面展開画像情報の一部または全部を,処理対象の画像情報とする画像情報処理部,前記処理対象の画像情報における第1の領域において所定条件を充足する第2の領域の情報と,標本とする対象物の標本情報とブロック情報とを記憶する標本情報記憶部に記憶された対象物のブロック情報とを用いて類似検索処理を実行し,比較処理の候補とする対象物を特定する候補処理部,前記処理対象の画像情報の第1の領域と,前記候補処理部で候補として特定した対象物の標本情報とを用いて比較処理をすることで,前記第1の領域に写っている対象物を特定する比較処理部,として機能させる画像処理プログラムである。
The fifth invention can be realized by loading the program of the present invention into a computer and executing it. That is, the computer is stored in the sample information storage unit that stores the information in the second area that satisfies the predetermined condition in the first area in the image information to be processed, and the sample information and the block information of the object to be sampled. A candidate processing unit that executes a similar search process using the block information of the target object and identifies an object as a candidate for comparison processing, a first area of image information of the processing target, and the candidate processing unit. An image processing program that functions as a comparison processing unit that identifies an object in the first region by performing comparison processing using the sample information of the object specified as a candidate in the above. In the similarity search processing between the information in the second area and the block information of the object, the candidate processing unit executes the similarity search processing as it is for any one or more of the respective sizes, scales, and rotations. In the comparison processing between the information in the first region and the sample information of the object specified as the candidate, the comparison processing unit performs the comparison processing by aligning any one or more of the size, scale, and rotation. It is an image processing program to be executed.
The sixth invention can be realized by loading the program of the present invention into a computer and executing it. That is, the computer generates plane-expanded image information that expands on a plane for a part or all of the three-dimensional model generated by using the image information and the corresponding depth information, and one of the generated plane-expanded image information. The image information processing unit whose part or all is the image information to be processed, the information of the second area which satisfies the predetermined condition in the first area of the image information to be processed, and the sample information of the object to be sampled. A candidate processing unit that executes a similarity search process using the block information of the object stored in the sample information storage unit that stores the information and the block information, and identifies the target object to be the candidate for the comparison processing, the processing target Comparison processing to identify the object in the first area by performing comparison processing using the first area of the image information and the sample information of the object specified as a candidate by the candidate processing unit. It is an image processing program that functions as a part.

本発明の画像処理システムを用いることによって,陳列棚などを撮影した画像情報に写っている商品などの対象物を特定する際に,計算時間を従来よりも要することなく,マッチング処理の精度を向上させることが可能となる。 By using the image processing system of the present invention, the accuracy of matching processing is improved without requiring more calculation time than before when identifying an object such as a product shown in image information obtained by photographing a display shelf or the like. It becomes possible to make it.

本発明の画像処理システムの全体の処理機能の一例を模式的に示すブロック図である。It is a block diagram which shows typically an example of the whole processing function of the image processing system of this invention. 本発明の画像処理システムで用いるコンピュータのハードウェア構成の一例を模式的に示すブロック図である。It is a block diagram which shows typically an example of the hardware composition of the computer used in the image processing system of this invention. 本発明の画像処理システムにおける全体処理の処理プロセスの一例を示すフローチャートである。It is a flowchart which shows an example of the processing process of the whole processing in the image processing system of this invention. 撮影画像情報の一例を示す図である。It is a figure which shows an example of photographed image information. 図4の撮影画像情報に対して正置化処理を実行した画像情報の一例を示す図である。It is a figure which shows an example of the image information which performed the orthotopic processing on the photographed image information of FIG. 撮影画像情報からフェイス領域を特定した状態の一例を示す図である。It is a figure which shows an example of the state which specified the face area from the photographed image information. フェイス領域からブロックを特定した状態の一例を示す図である。It is a figure which shows an example of the state which specified the block from a face area. 本発明の画像処理システムにおける処理の概念図を示す。The conceptual diagram of the processing in the image processing system of this invention is shown. ブロックを特定する処理の処理プロセスの一例を示すフローチャートである。It is a flowchart which shows an example of the processing process of the process of specifying a block. 撮影した画像情報と深さ情報による深さマップとの対応関係を模式的に示す図である。It is a figure which shows typically the correspondence relationship between the photographed image information and the depth map by depth information. 撮影した画像情報と深さマップに基づく3次元モデル化の処理の一例を示す図である。It is a figure which shows an example of the process of 3D modeling based on photographed image information and a depth map. 平面展開の処理の一例を模式的に示す図である。It is a figure which shows an example of the plane development process typically. 3次元モデル化の後に実行するスティッチング処理を模式的に示す図である。It is a figure which shows typically the stitching process which is executed after 3D modeling. 3次元モデル化の後に実行するスティッチング処理を模式的に示す図である。It is a figure which shows typically the stitching process which is executed after 3D modeling. 視点方向決定処理において,基準を特定する処理を模式的に示す図である。It is a figure which shows typically the process of specifying a reference in the viewpoint direction determination process. 各面をラベリングする処理の一例を模式的に示す図である。It is a figure which shows typically an example of the process of labeling each surface. パッケージタイプが缶の場合のフェイスを特定するイメージ図である。It is an image diagram which identifies the face when the package type is a can. パッケージタイプが瓶の場合のフェイスを特定するイメージ図である。It is an image diagram which identifies the face when the package type is a bottle. パッケージタイプが箱物の場合のフェイスを特定するイメージ図である。It is an image diagram which identifies the face when the package type is a box. パッケージタイプが吊るし商品の場合のフェイスを特定するイメージ図である。It is an image diagram which identifies the face when the package type is a hanging product.

本発明の画像処理システム1の全体の処理機能の一例のブロック図を図1に示す。画像処理システム1は,管理端末2と入力端末3とを用いる。 FIG. 1 shows a block diagram of an example of the overall processing function of the image processing system 1 of the present invention. The image processing system 1 uses a management terminal 2 and an input terminal 3.

管理端末2は,画像処理システム1の中心的な処理機能を実現するコンピュータである。また,入力端末3は,店舗の陳列棚などを撮影した画像情報を取得する端末である。また,後述する比較処理(マッチング処理)で用いる標本とする商品などの対象物を撮影し,取得してもよい。 The management terminal 2 is a computer that realizes the core processing function of the image processing system 1. Further, the input terminal 3 is a terminal for acquiring image information obtained by photographing a display shelf of a store or the like. In addition, an object such as a product used as a sample used in the comparison process (matching process) described later may be photographed and acquired.

画像処理システム1における管理端末2,入力端末3は,コンピュータを用いて実現される。図2にコンピュータのハードウェア構成の一例を模式的に示す。コンピュータは,プログラムの演算処理を実行するCPUなどの演算装置70と,情報を記憶するRAMやハードディスクなどの記憶装置71と,情報を表示するディスプレイなどの表示装置72と,情報の入力が可能なキーボードやマウスなどの入力装置73と,演算装置70の処理結果や記憶装置71に記憶する情報をインターネットやLANなどのネットワークを介して送受信する通信装置74とを有している。 The management terminal 2 and the input terminal 3 in the image processing system 1 are realized by using a computer. FIG. 2 schematically shows an example of the hardware configuration of the computer. The computer can input information from an arithmetic unit 70 such as a CPU that executes arithmetic processing of a program, a storage device 71 such as a RAM or a hard disk that stores information, and a display device 72 such as a display that displays information. It has an input device 73 such as a keyboard and a mouse, and a communication device 74 that transmits and receives processing results of the arithmetic unit 70 and information stored in the storage device 71 via a network such as the Internet or LAN.

コンピュータがタッチパネルディスプレイを備えている場合には,表示装置72と入力装置73とが一体的に構成されていてもよい。タッチパネルディスプレイは,たとえばタブレット型コンピュータやスマートフォンなどの可搬型通信端末などで利用されることが多いが,それに限定するものではない。 When the computer includes a touch panel display, the display device 72 and the input device 73 may be integrally configured. Touch panel displays are often used, for example, in portable communication terminals such as tablet computers and smartphones, but are not limited thereto.

タッチパネルディスプレイは,そのディスプレイ上で,直接,所定の入力デバイス(タッチパネル用のペンなど)や指などによって入力を行える点で,表示装置72と入力装置73の機能が一体化した装置である。 The touch panel display is a device in which the functions of the display device 72 and the input device 73 are integrated in that input can be performed directly on the display with a predetermined input device (such as a pen for a touch panel) or a finger.

入力端末3は,上記の各装置のほか,カメラなどの撮影装置を備えていてもよい。入力端末3として,携帯電話,スマートフォン,タブレット型コンピュータなどの可搬型通信端末を用いることもできる。入力端末3は,撮影装置で可視光などによる画像情報(後述する撮影画像情報または対象物画像情報)を撮影する。 The input terminal 3 may include a photographing device such as a camera in addition to the above-mentioned devices. As the input terminal 3, a portable communication terminal such as a mobile phone, a smartphone, or a tablet computer can also be used. The input terminal 3 captures image information (photographed image information or object image information described later) by visible light or the like with a photographing device.

本発明における各手段は,その機能が論理的に区別されているのみであって,物理上あるいは事実上は同一の領域を為していてもよい。本発明の各手段における処理は,その処理順序を適宜変更することもできる。また,処理の一部を省略してもよい。たとえば後述する視点方向を決定する処理を省略することもできる。その場合,視点方向を決定する処理をしていない画像情報に対する処理を実行することができる。また,管理端末2における機能の一部または全部を入力端末3で実行してもよい。 Each means in the present invention has only a logical distinction in its function, and may form the same area physically or substantially. The processing order of the processing in each means of the present invention may be changed as appropriate. In addition, a part of the processing may be omitted. For example, the process of determining the viewpoint direction, which will be described later, can be omitted. In that case, it is possible to execute processing on the image information that has not been processed to determine the viewpoint direction. Further, a part or all of the functions in the management terminal 2 may be executed in the input terminal 3.

画像処理システム1は,画像情報入力受付処理部20と画像情報記憶部21と画像情報処理部22と候補処理部23と比較処理部24と標本情報処理部25と標本情報記憶部26とを有する。 The image processing system 1 includes an image information input reception processing unit 20, an image information storage unit 21, an image information processing unit 22, a candidate processing unit 23, a comparison processing unit 24, a sample information processing unit 25, and a sample information storage unit 26. ..

画像情報入力受付処理部20は,入力端末3で撮影した画像情報(撮影画像情報)の入力を受け付け,後述する画像情報記憶部21に記憶させる。たとえば店舗の陳列棚の撮影画像情報の入力を受け付け,画像情報記憶部21に記憶させる。入力端末3からは,撮影画像情報のほか,撮影日時,撮影対象を示す情報,たとえば店舗名などの店舗識別情報,画像情報を識別する画像情報識別情報などをあわせて入力を受け付けるとよい。図4に,撮影画像情報の一例を示す。図4では,陳列棚に3段の棚段があり,そこに商品が陳列されている状態を撮影した撮影画像情報を模式的に示すものである。 The image information input reception processing unit 20 receives input of image information (captured image information) photographed by the input terminal 3 and stores it in the image information storage unit 21 described later. For example, the input of the photographed image information of the display shelf of the store is accepted and stored in the image information storage unit 21. In addition to the captured image information, the input terminal 3 may accept input including information indicating the shooting date and time and the shooting target, for example, store identification information such as a store name, and image information identification information for identifying the image information. FIG. 4 shows an example of captured image information. FIG. 4 schematically shows photographed image information obtained by photographing a state in which products are displayed on a display shelf having three shelves.

画像情報記憶部21は,入力端末3から受け付けた撮影画像情報,撮影日時,画像情報識別情報などを対応づけて記憶する。 The image information storage unit 21 stores the captured image information received from the input terminal 3, the shooting date and time, the image information identification information, and the like in association with each other.

画像情報処理部22は,画像情報入力受付処理部20で受け付けた撮影画像情報について,撮影画像情報を正対した状態とする正置化処理,撮影画像情報から標本情報と比較処理(マッチング処理)を実行する領域(フェイス領域)を特定するフェイス処理,フェイス領域において所定の条件を充足する特徴領域(ブロック)を特定するブロック特定処理を実行する。 The image information processing unit 22 sets the captured image information received by the image information input reception processing unit 20 in a state of facing each other, and compares the captured image information with the sample information (matching processing). The face processing for specifying the area (face area) to execute the above, and the block identification processing for specifying the feature area (block) satisfying a predetermined condition in the face area are executed.

正置化処理とは,一般的に,単に撮影対象物を撮影した場合には,撮影対象物を正対した状態で撮影することは困難であることから,それを正対した状態に補正する処理であり,撮影装置のレンズの光軸を撮影対象である平面の垂線方向に沿って,十分に遠方から撮影した場合と同じになるように画像情報を変形させる処理である。このような補正処理の一例として台形補正処理がある。なお,画像情報に歪みがある場合,歪み補正処理を付加してもよい。図5に,図4の撮影画像情報に対して正置化処理を実行した状態の画像情報を示す。 In general, when the object to be photographed is simply photographed, it is difficult to take the image in the state of facing the object to be photographed, so the erecting process is corrected to the state of facing the object to be photographed. This is a process of transforming the image information so that the optical axis of the lens of the photographing device is the same as when the image is photographed from a sufficient distance along the perpendicular direction of the plane to be photographed. An example of such correction processing is trapezoidal correction processing. If the image information is distorted, distortion correction processing may be added. FIG. 5 shows the image information in a state in which the emplacement processing is executed on the captured image information of FIG.

なお,撮影画像情報が正対した状態で撮影された画像情報である場合,あるいは歪みがない場合には,正置化処理,歪み補正処理を実行しなくてもよい。 If the captured image information is the image information captured in the face-to-face state, or if there is no distortion, it is not necessary to execute the emplacement processing and the distortion correction processing.

撮影画像情報とは,本発明の処理対象となる画像情報であればよい。正置化処理などの撮影画像情報に対する補正処理が実行された後の画像情報も撮影画像情報に含まれる。 The captured image information may be any image information to be processed according to the present invention. The captured image information also includes the image information after the correction processing for the captured image information such as the emplacement processing is executed.

また,画像情報処理部22は,撮影対象を撮影する際に,複数枚で撮影した場合,それを一つの画像情報に合成する処理を実行し,合成処理を実行した画像情報に対して,正置化処理,フェイス処理,ブロック特定処理を実行してもよい。複数枚の画像情報をいつの画像情報に合成する処理としては,公知の手法を用いることもできる。 Further, when the image information processing unit 22 shoots a shooting target, when a plurality of images are shot, the image information processing unit 22 executes a process of synthesizing the images into one image information, and the image information obtained by the synthesizing process is positive. Placement processing, face processing, and block identification processing may be executed. A known method can also be used as a process of synthesizing a plurality of image information into any image information.

フェイス処理とは、撮影画像情報において,後述する標本情報と比較処理を実行するための領域(フェイス領域)を特定する。たとえば商品の陳列棚を撮影した撮影画像情報であって,標本情報が商品である場合,フェイス領域として,陳列棚に陳列されている商品の領域や商品のラベルの領域を特定する。商品がペットボトル飲料の場合には,商品のラベルの領域をフェイス領域とし,商品が箱に入った商品(たとえばお菓子)の場合には,商品のパッケージ全体をフェイス領域とするなど,商品に応じて,適宜,フェイス領域を設定できる。なお,商品がペットボトル飲料の場合にも,商品の領域をフェイス領域としてもよい。 The face processing specifies an area (face area) for executing comparison processing with sample information described later in the captured image information. For example, when the sample information is a product in the photographed image information obtained by photographing the product display shelf, the area of the product displayed on the display shelf or the area of the product label is specified as the face area. When the product is a PET bottle beverage, the area of the product label is the face area, and when the product is a boxed product (for example, sweets), the entire product package is the face area. The face area can be set as appropriate. Even when the product is a PET bottle beverage, the product area may be the face area.

フェイス領域の特定方法はさまざまな方法があり,標本情報の特性に合わせて任意に設定することができる。標本情報が商品(たとえばペットボトル飲料)であって,陳列棚を撮影した撮影画像情報から商品のラベルの領域をフェイス領域として特定する場合には,たとえば,陳列棚の棚段と棚段の間の領域(棚段領域)における商品と商品との間に生じる細く狭い陰影を特定する,画像の繰り返しパターンを特定する,パッケージの上辺の段差を特定する,商品幅が同一であるなどの制約に基づいて区切り位置を特定する,などによって,商品の領域を特定する。そして,その商品の領域の中から,所定の矩形領域をラベルの領域として特定し,その領域をフェイス領域として特定する。 There are various methods for specifying the face area, which can be arbitrarily set according to the characteristics of the sample information. When the sample information is a product (for example, a PET bottle beverage) and the area of the product label is specified as the face area from the photographed image information of the display shelf, for example, between the shelves of the display shelf. For restrictions such as identifying narrow and narrow shadows that occur between products in the area (shelf area), identifying repeating patterns of images, identifying steps on the upper side of the package, and having the same product width. The area of the product is specified by specifying the division position based on the above. Then, from the product area, a predetermined rectangular area is specified as a label area, and that area is specified as a face area.

フェイス領域の特定方法は,商品のカテゴリや商品の形態によって任意の方法を採用可能であり,上記に限定するものではない。また,自動的に特定したフェイス領域に対して,担当者による修正入力を受け付けてもよい。さらに,担当者からフェイス領域の位置の入力を受け付けるのでもよい。 As the method for specifying the face area, any method can be adopted depending on the product category and the product form, and the method is not limited to the above. In addition, the person in charge may accept correction input for the automatically specified face area. Further, the person in charge may input the position of the face area.

さらに画像情報処理部22は,深層学習(ディープラーニング)を用いてフェイス領域を特定してもよい。この場合,中間層が多数の層からなるニューラルネットワークの各層のニューロン間の重み付け係数が最適化された学習モデルに対して,上記撮影画像情報を入力し,その出力値に基づいて,フェイス領域を特定してもよい。また学習モデルとしては,さまざまな撮影画像情報にフェイス領域を正解データとして与えたものを用いることができる。 Further, the image information processing unit 22 may specify the face region by using deep learning. In this case, the above captured image information is input to the learning model in which the weighting coefficient between the neurons of each layer of the neural network consisting of many layers is optimized, and the face region is set based on the output value. It may be specified. Further, as the learning model, it is possible to use various captured image information in which the face region is given as correct answer data.

画像情報処理部22は,以上のように特定したフェイス領域を切り出す。フェイス領域を切り出すとは,撮影画像情報から特定したフェイス領域を実際に切り出してもよいし,後述の処理の処理対象としてその領域を設定することも含まれる。 The image information processing unit 22 cuts out the face region specified as described above. Cutting out the face area may actually cut out the face area specified from the captured image information, and also includes setting the area as the processing target of the processing described later.

フェイス領域を切り出す場合には,上述の各処理で特定したフェイス領域をそのまま切り出してもよいし,複数の方法によりフェイス領域の特定を行い,各方法で特定したフェイス領域の結果を用いて切り出す対象とするフェイス領域を特定してもよい。たとえば,陳列棚の棚段と棚段の間の領域(棚段領域)における商品と商品との間に生じる細く狭い陰影を特定することで商品の領域を特定し,その領域から所定の矩形領域を特定する方法と,深層学習によりフェイス領域を特定する方法とを行い,あらかじめ定めた演算によって,最終的に切り出す対象とするフェイス領域を特定してもよい。切り出すフェイス領域の特定方法は,上記に限定するものではなく,任意に設定することができる。 When cutting out the face area, the face area specified by each of the above processes may be cut out as it is, or the face area may be specified by a plurality of methods and the target to be cut out using the result of the face area specified by each method. The face area to be used may be specified. For example, the area of a product is specified by specifying a narrow and narrow shadow generated between the products in the area between the shelves of the display shelf (shelf area), and a predetermined rectangular area is specified from that area. A method of specifying the face area and a method of specifying the face area by deep learning may be performed, and the face area to be finally cut out may be specified by a predetermined calculation. The method for specifying the face area to be cut out is not limited to the above, and can be set arbitrarily.

図6に,撮影画像情報からフェイス領域として,商品(ペットボトル飲料のラベル部分)を切り出した場合の一例を示す。 FIG. 6 shows an example of a case where a product (label portion of a PET bottle beverage) is cut out as a face area from the photographed image information.

画像情報処理部22がフェイス領域を特定すると,画像情報処理部22は,そのフェイス領域のうち,商品を特定し得る情報がある矩形領域を,フェイス領域の画像を特徴付ける特徴的な領域(ブロック)として特定する。ブロックとして特定する領域には,商品名や商品のロゴなどが表示された領域となる。 When the image information processing unit 22 specifies the face area, the image information processing unit 22 sets a rectangular area having information that can identify the product in the face area as a characteristic area (block) that characterizes the image of the face area. Identify as. The area specified as a block is the area where the product name, product logo, etc. are displayed.

画像情報処理部22がフェイス領域からブロックを特定するための方法としては,たとえば3つの方法があるが,それに限定するものではないし,それらを複数組み合わせてもよい。 There are, for example, three methods for the image information processing unit 22 to identify a block from the face area, but the method is not limited to these, and a plurality of methods may be combined.

第1の方法としては,対象物のブロックに共通する画像的な特徴を抽出して判定する方法である。すなわち,フェイス領域の画像情報内で,互いに明確に弁別可能な限定された個数の色で構成され,かつ色と色の境界が明確である(エッジが明瞭)という特徴を有する矩形領域を,ブロックとして特定する方法である。 The first method is a method of extracting and determining image features common to blocks of an object. That is, in the image information of the face region, a rectangular region having a feature of being composed of a limited number of colors that can be clearly distinguished from each other and having a clear color-to-color boundary (clear edges) is blocked. It is a method to specify as.

まずフェイス領域の画像情報を構成する各画素の色について,所定の色数のパレット色に色数を減色して検出する。またフェイス領域の画像情報を,所定の大きさのメッシュに分割し,パレット色ごとの分布マップを生成する。そして各パレットで,一定の密度以上で分布しており,かつ縦横の大きさが所定の閾値内に収まる局所的なグループを検出することで,矩形領域を特定する。 First, the colors of each pixel constituting the image information in the face region are detected by reducing the number of colors to a predetermined number of palette colors. In addition, the image information of the face area is divided into meshes of a predetermined size, and a distribution map for each palette color is generated. Then, in each pallet, a rectangular area is specified by detecting a local group that is distributed at a certain density or higher and whose vertical and horizontal sizes fall within a predetermined threshold value.

そして各グループについて,全パレット色の分布マップを参照し,その矩形領域に含まれるパレットの数が所定数,たとえば3以内であるかを判定し,所定数以内である場合には,そのグループ領域内にエッジが所定の閾値以上あるかを判定する。エッジの判定については,フェイス領域の画像情報に対して,エッジ検出処理を行っておき,それに基づいて閾値以上あるかを判定できる。そして,これらの条件を充足するグループを囲む矩形領域をブロックとして特定をする。 Then, for each group, the distribution map of all palette colors is referred to, and it is determined whether the number of palettes contained in the rectangular area is within a predetermined number, for example, 3, and if it is within the predetermined number, the group area. It is determined whether or not there is an edge inside a predetermined threshold value or more. For edge determination, edge detection processing is performed on the image information in the face area, and it is possible to determine whether or not the image information is equal to or greater than the threshold value. Then, the rectangular area surrounding the group that satisfies these conditions is specified as a block.

以上のような方法によって,フェイス領域からブロックを特定することができる。 The block can be identified from the face area by the above method.

フェイス領域からブロックを特定するための第2の方法としては,フェイス領域の画像情報から局所特徴量等の特徴量を抽出する。そして,広い範囲(所定以上の広さの範囲)にわたって共通の特徴が分布している領域を検出し,その領域をフェイス領域の「地」の部分として消し込む。そして残った領域について,互いに共通の特徴量が分布している領域を特定し,それらを囲む矩形領域をブロックとして特定をする。 As a second method for identifying a block from the face area, a feature amount such as a local feature amount is extracted from the image information of the face area. Then, a region in which common features are distributed over a wide range (a range of a predetermined size or more) is detected, and that region is erased as the "ground" part of the face region. Then, for the remaining areas, the areas where the features common to each other are distributed are specified, and the rectangular area surrounding them is specified as a block.

フェイス領域からブロックを特定するための第3の方法としては,機械学習あるいは深層学習(ディープラーニング)などのAI技術によってフェイス領域の画像情報からブロックを検出することもできる。この場合,中間層が多数の層からなるニューラルネットワークの各層のニューロン間の重み付け係数が最適化された学習モデルに対して,フェイス領域の画像情報を入力し,その出力値に基づいて,ブロックを特定してもよい。また学習モデルとしては,さまざまなフェイス領域の画像情報にブロックを正解データとして与えたものを用いることができる。なお,撮影画像情報からフェイス領域の特定とブロックの特定とを同時に行っても良い。 As a third method for identifying a block from the face region, the block can be detected from the image information of the face region by AI technology such as machine learning or deep learning. In this case, the image information of the face region is input to the learning model in which the weighting coefficient between the neurons of each layer of the neural network consisting of many layers is optimized, and the block is created based on the output value. It may be specified. As the learning model, it is possible to use image information of various face regions in which blocks are given as correct answer data. Note that the face area and the block may be specified at the same time from the captured image information.

なお,第3の方法における機械学習あるいは深層学習などのAI技術を用いるほかの例として,次のようなものがある。あらかじめ,上述の学習モデルとして与える正解データ(さまざまなフェイス領域の画像情報にブロックを与えたもの)におけるブロック領域内の特徴量(この特徴量は色,局所特徴量など複数でも良い)と,ブロック領域外の特徴量とを抽出しておき,それぞれを正例,負例として,SVM(サポートベクターマシン support vector machine)などの判定モジュール(判定機)を構成する。そしてこのSVMなどの判定モジュールに対して,フェイス領域の画像情報の各点,たとえばフェイス領域の画像情報を所定の大きさのメッシュに分割してそのメッシュ内の点を入力し,各点についてブロックの領域に属しているか否かを判定させる。この判定結果において,ブロックの領域に属していると判定したメッシュの領域を囲む領域をブロックとして特定をする。 In addition, as another example of using AI technology such as machine learning or deep learning in the third method, there are the following. In advance, the feature amount in the block area (the feature amount may be a plurality of colors, local feature amounts, etc.) in the correct answer data (a block is given to the image information of various face areas) given as the above-mentioned learning model, and the block. A judgment module (judgment machine) such as SVM (support vector machine) is constructed by extracting the features outside the region and using each as a positive example and a negative example. Then, for this judgment module such as SVM, each point of the image information in the face area, for example, the image information in the face area is divided into a mesh of a predetermined size, points in the mesh are input, and each point is blocked. It is made to judge whether or not it belongs to the area of. In this determination result, the area surrounding the mesh area determined to belong to the block area is specified as a block.

フェイス領域からブロックを特定する処理としては上記の3つの方法に限定されず,ほかの方法を用いてもよい。また上記の3つあるいはほかの方法のうち複数を組み合わせて特定しても良い。 The process of identifying the block from the face area is not limited to the above three methods, and other methods may be used. Further, a plurality of the above three methods or a plurality of other methods may be combined and specified.

図7にフェイス領域からブロックを特定した場合の一例を模式的に示す。図7では,図6のフェイス領域からブロックを特定した場合を示している。図7における矩形領域が特定したブロックである。 FIG. 7 schematically shows an example when a block is specified from the face area. FIG. 7 shows a case where the block is specified from the face area of FIG. The rectangular area in FIG. 7 is the specified block.

以上のように画像情報処理部22でフェイス領域の画像情報からブロックを特定すると,候補処理部23は,当該特定したブロックと,後述する標本情報記憶部26に記憶するブロックとの間の類似検索処理を実行する。類似検索としては,たとえばフェイス領域の画像情報から特定したブロックの画像情報の特徴量と,標本情報記憶部26に記憶する対象物ごとのブロックの画像情報の特徴量とを比較し,判定を行う。なお特徴量には,局所特徴量のほか,各色の配色の一致度,エッジの分布の一致度,それらを組み合わせたものも含まれる。フェイス領域の画像情報から特定したブロックの数をm,対象物一つあたりのブロックの数をnとした場合,それらの比較回数は,単純比較ではm×n回となるが,LSH(Locality Sensitive Hashing)などの高速化手法を用いた場合には,比較回数を減らすことができ,高速化を実現することができる。 When the image information processing unit 22 specifies a block from the image information in the face area as described above, the candidate processing unit 23 searches for a similarity between the specified block and the block stored in the sample information storage unit 26 described later. Execute the process. As a similar search, for example, the feature amount of the image information of the block specified from the image information of the face area is compared with the feature amount of the image information of the block for each object stored in the sample information storage unit 26, and a determination is made. .. In addition to the local features, the features include the degree of matching of the color scheme of each color, the degree of matching of the edge distribution, and a combination of these. When the number of blocks specified from the image information of the face area is m and the number of blocks per object is n, the number of comparisons between them is m × n in a simple comparison, but LSH (Locality Sensitive) When a high-speed method such as Hashing) is used, the number of comparisons can be reduced and high-speed can be realized.

候補処理部23は,上述の類似検索の結果をあらかじめ定めた基準でソートをし,そのうち上位所定数,たとえば上位10件の標本情報を候補として特定する。 The candidate processing unit 23 sorts the results of the above-mentioned similar search according to a predetermined criterion, and identifies the upper predetermined number, for example, the upper 10 sample information as a candidate.

比較処理部24は,候補処理部23で特定した候補とした標本情報と,フェイス領域の画像情報との比較処理(マッチング処理)を実行する。たとえばフェイス領域の画像情報の特徴量を抽出し,抽出した特徴量と,候補とした標本情報の特徴量との比較処理を実行することで,フェイス領域の画像情報と標本情報との類似性を判定し,そのフェイス領域に含まれる対象物の識別情報,たとえば商品名などを判定する。 The comparison processing unit 24 executes a comparison processing (matching processing) between the sample information as a candidate specified by the candidate processing unit 23 and the image information of the face region. For example, by extracting the feature amount of the image information in the face area and executing the comparison processing between the extracted feature amount and the feature amount of the sample information as a candidate, the similarity between the image information in the face area and the sample information can be obtained. Judgment is made, and the identification information of the object included in the face area, for example, the product name is judged.

なお比較処理としては,フェイス領域の画像情報の全体と標本情報とをマッチングするのみならず,フェイス領域の画像情報の一部,たとえば特徴領域(ブロック)の画像情報の特徴量を抽出し,標本情報の特徴量と比較処理を実行してもよい。 As the comparison process, not only the entire image information in the face area is matched with the sample information, but also a part of the image information in the face area, for example, the feature amount of the image information in the feature area (block) is extracted and sampled. Information feature quantities and comparison processing may be executed.

また,特徴量以外の方法により比較処理を行ってもよい。 In addition, the comparison process may be performed by a method other than the feature amount.

さらに,比較処理部24は,深層学習(ディープラーニング)を用いて標本情報との比較処理を実行してもよい。この場合,中間層が多数の層からなるニューラルネットワークの各層のニューロン間の重み付け係数が最適化された学習モデルに対して,上記フェイス領域の画像情報の全部または一部を入力し,その出力値に基づいて,類似する標本情報を特定してもよい。学習モデルとしては,さまざまなフェイス領域の画像情報に標本情報を正解データとして与えたものを用いることができる。 Further, the comparison processing unit 24 may execute the comparison processing with the sample information by using deep learning. In this case, all or part of the image information of the face region is input to the learning model in which the weighting coefficient between the neurons of each layer of the neural network consisting of many layers is optimized, and the output value thereof. Similar sample information may be identified based on. As the learning model, it is possible to use image information of various face regions in which sample information is given as correct answer data.

標本情報処理部25は,撮影画像情報に写っている対象物を特定するための比較処理の際に用いる対象物の標本情報を生成し,後述する標本情報記憶部26に記憶させる。標本情報とは対象物を撮影した画像情報(対象物画像情報)および/またはその特徴量の情報である。標本情報には,対象物の識別情報,例えば商品名,型番,JANコードなどの商品コード,対象物画像情報におけるブロックの画像情報やその特徴量(ブロック情報)を記憶している。対象物画像情報としては,対象物全体の画像情報であってもよいし,対象物の一部分,たとえば対象物がペットボトル飲料の場合にはラベル部分の画像情報であってもよい。なお,標本情報として,対象物画像情報の特徴量の情報を用いる場合には,処理の都度,特徴量を抽出する必要がなくなる。ブロックとしては,当該対象物画像情報を特徴付ける特徴的な領域であって,たとえば商品名,ロゴなどを囲む矩形領域が該当する。 The sample information processing unit 25 generates sample information of the object to be used in the comparison process for identifying the object reflected in the captured image information, and stores it in the sample information storage unit 26 described later. The sample information is image information (object image information) obtained by photographing an object and / or information on a feature amount thereof. In the sample information, identification information of the object, for example, a product code such as a product name, a model number, and a JAN code, image information of a block in the image information of the object, and its feature amount (block information) are stored. The image information of the object may be the image information of the entire object, or may be the image information of a part of the object, for example, the label portion when the object is a PET bottle beverage. When the feature amount information of the object image information is used as the sample information, it is not necessary to extract the feature amount each time the processing is performed. The block is a characteristic area that characterizes the image information of the object, and corresponds to, for example, a rectangular area that surrounds a product name, a logo, or the like.

標本情報処理部25は,一つの対象物について一つの標本情報を生成してもよいし,一つの対象物について複数の角度,たとえば商品を正対化して撮影する場合に,写らない位置にある表面を写すため,正面,背面,上面,下面,両側面程度の角度からの標本情報を生成してもよい。また,一つの対象物に複数の外装(パッケージなど)がある場合には,一つの対象物にそれぞれの外装の場合の標本情報やブロックを対応づけても良い。また,標本情報に対応づけるブロックとしては,一つであってもよいが,複数のブロックが対応づけられていると良い。 The sample information processing unit 25 may generate one sample information for one object, or is in a position where it cannot be captured when shooting a product at a plurality of angles, for example, facing each other for one object. In order to capture the surface, sample information may be generated from angles such as front, back, top, bottom, and both sides. In addition, when one object has a plurality of exteriors (packages, etc.), the sample information and blocks for each exterior may be associated with one object. Moreover, although one block may be associated with the sample information, it is preferable that a plurality of blocks are associated with each other.

標本情報は,標本とする対象物を撮影した対象物画像情報に対して,上述の画像情報処理部22と同様の処理を実行することで,ブロックを抽出してもよいし,抽出したブロックからオペレータが商品の特定のために必要なブロックのみを取捨選択しても良い。また画像情報処理部22のように自動的に抽出処理を実行するのではなく,読み込んだ対象物の画像情報からオペレータがブロックを指定しても良い。 The sample information may be extracted from the extracted block by executing the same processing as the above-mentioned image information processing unit 22 on the object image information obtained by photographing the object to be sampled. The operator may select only the blocks necessary for identifying the product. Further, the operator may specify a block from the image information of the read object, instead of automatically executing the extraction process as in the image information processing unit 22.

標本情報記憶部26は,標本情報処理部25において生成した標本情報を,対象物の識別情報,例えば商品名,型番,JANコードなどの商品コード,対象物画像情報におけるブロックの画像情報および/またはその特徴量(ブロック情報)などに対応づけて記憶する。 The sample information storage unit 26 uses the sample information generated by the sample information processing unit 25 as object identification information, such as a product code such as a product name, model number, and JAN code, block image information in the object image information, and / or. It is stored in association with the feature amount (block information).

つぎに本発明の画像処理システム1を用いた処理プロセスの一例を図3のフローチャートを用いて説明する。また図8に本発明の画像処理システム1における処理の概念図を示す。また,本実施例では,店舗の陳列棚を撮影し,陳列棚にある商品を特定する場合を説明する。そのため,撮影画像情報としては商品が陳列されている店舗の陳列棚であり,標本情報における対象物としては陳列される可能性のある商品となる。 Next, an example of the processing process using the image processing system 1 of the present invention will be described with reference to the flowchart of FIG. Further, FIG. 8 shows a conceptual diagram of processing in the image processing system 1 of the present invention. Further, in this embodiment, a case where a display shelf of a store is photographed and a product on the display shelf is specified will be described. Therefore, the photographed image information is the display shelf of the store where the product is displayed, and the product may be displayed as the object in the sample information.

まずオペレータは,標本情報とする商品を正対位置から撮影し,撮影した対象物画像情報,識別情報,商品名,商品コードを対応づけて標本情報記憶部26に記憶させておく。また,対象物画像情報に対して画像情報処理部22における処理と同様の処理を標本情報処理部25が実行し,ブロックを抽出する。そして抽出したブロックのうち,標本情報として用いるブロック,たとえば商品名,ロゴなどの含まれたブロックのみを標本情報に対応づけるブロックとして標本情報記憶部26に記憶させておく。また,対象物画像情報から所定の処理を実行することで,局所特徴量などの特徴量を抽出し,対象物画像情報に対応づけて記憶させておく。 First, the operator photographs the product as the sample information from the opposite position, and stores the photographed object image information, identification information, product name, and product code in the sample information storage unit 26 in association with each other. Further, the sample information processing unit 25 executes the same processing as the processing in the image information processing unit 22 on the object image information, and extracts the block. Then, among the extracted blocks, only the blocks used as the sample information, for example, the blocks including the product name, the logo, etc., are stored in the sample information storage unit 26 as the blocks associated with the sample information. In addition, by executing a predetermined process from the object image information, a feature amount such as a local feature amount is extracted and stored in association with the object image information.

このような標本情報に対する処理を,複数の商品についてあらかじめ実行しておく。 Processing for such sample information is executed in advance for a plurality of products.

そして店舗の陳列棚を撮影した撮影画像情報を入力端末3から管理端末2の画像情報入力受付処理部20が受け付けると(S100),画像情報記憶部21に,撮影日時,撮影画像情報の識別情報などと対応づけて記憶させる。 Then, when the image information input reception processing unit 20 of the management terminal 2 receives the photographed image information obtained by photographing the display shelf of the store from the input terminal 3 (S100), the image information storage unit 21 receives the photographed date and time and the identification information of the photographed image information. And memorize it in association with.

受け付けた撮影画像情報に対して,画像情報処理部22は,撮影画像情報が正対した状態となるように補正する正置化処理を実行する(S110)。そして,正置化した撮影画像情報からフェイス領域を特定するフェイス処理を実行し(S120),特定したフェイス領域からブロックを特定する(S130)。 The image information processing unit 22 executes the orthostatic processing for correcting the received captured image information so that the captured image information faces each other (S110). Then, face processing for specifying the face area from the emplaced captured image information is executed (S120), and the block is specified from the specified face area (S130).

上述のように,フェイス領域からブロックを特定するためには,上述のようにたとえば第1の方法から第3の方法のような各種の方法があるが,たとえば第1の方法による場合には,以下のような処理を実行する。この場合の処理プロセスの一例を図9のフローチャートを用いて説明する。 As described above, in order to identify the block from the face area, there are various methods such as the first method to the third method as described above, but in the case of the first method, for example, Execute the following processing. An example of the processing process in this case will be described with reference to the flowchart of FIG.

まずフェイス領域の画像情報を構成する各画素の色について,たとえば全体を代表する16色など,所定の色数のパレット色に色数を減色して,パレット色を検出する(S200)。また,フェイス領域の短辺をたとえば64分割する正方形のメッシュで分割し,各メッシュがどのパレット色となるかを定め,パレット色ごとのその色の有無の分布マップを生成する(S210)。 First, with respect to the color of each pixel constituting the image information of the face region, the number of colors is reduced to a predetermined number of palette colors such as 16 colors representing the whole, and the palette color is detected (S200). Further, the short side of the face region is divided by, for example, a square mesh that divides into 64, which palette color is used for each mesh, and a distribution map of the presence or absence of that color is generated for each palette color (S210).

そして,フェイス領域の画像情報の各メッシュに対して,一定の距離にある飛び地を候補とするよう膨張処理を分布マップに対して行い,その分布マップが,所定の範囲に収まるグループを検出する(S220)。所定の範囲としては,たとえば,横幅が全体の1/10〜2/3,縦の高さが全体の1/20〜1/2,面積が全体の1/100〜1/10の閾値の条件に収まる分布マップ(膨張処理を施した分布マップ)のグループを検出する。 Then, for each mesh of the image information in the face region, expansion processing is performed on the distribution map so as to select a jumping place at a certain distance as a candidate, and a group in which the distribution map falls within a predetermined range is detected ( S220). The predetermined range is, for example, a threshold condition in which the width is 1/10 to 2/3 of the whole, the height is 1/2 to 1/2 of the whole, and the area is 1/100 to 1/10 of the whole. Detects a group of distribution maps (distribution maps that have undergone expansion processing) that fit in.

そして各グループについて,全パレット色の分布マップを参照し,その領域に含まれるパレットの数が所定数,たとえば3以内であるかを判定する(S230)。すなわち,グループの領域における全パレット色の分布マップを参照し,グループの領域内に多くの色数を含む場合にはイメージイラストである可能性が高く,商品を特定するような特徴的な領域であるロゴなどではないと考えられるので,そのようなグループを除外する。 Then, for each group, the distribution map of all palette colors is referred to, and it is determined whether the number of palettes included in the area is a predetermined number, for example, 3 or less (S230). That is, referring to the distribution map of all palette colors in the group area, if a large number of colors are included in the group area, it is highly likely that it is an image illustration, and it is a characteristic area that identifies the product. Exclude such groups as they are not considered to be certain logos.

S230において,グループの領域内に含まれるパレットの数が所定数以内である場合には,そのグループ領域内にエッジが所定の閾値以上あるかを判定する(S240)。エッジの判定については,フェイス領域の画像情報に対して,あらかじめエッジ検出処理を行っておき,それに基づいて閾値以上あるかを判定できる。グループ領域内にエッジが閾値以上に存在しない場合には,ロゴではない可能性が高いので,そのグループを除外する。 In S230, when the number of pallets included in the group area is within a predetermined number, it is determined whether or not the edge is equal to or more than a predetermined threshold value in the group area (S240). Regarding the edge determination, it is possible to perform edge detection processing on the image information in the face area in advance and determine whether or not the image information is equal to or greater than the threshold value. If the edge does not exist above the threshold value in the group area, it is highly possible that it is not a logo, so that group is excluded.

そして,これらの条件を充足するグループを囲む矩形領域をブロックとして特定をする(S250)。 Then, the rectangular area surrounding the group satisfying these conditions is specified as a block (S250).

この処理を,S220でグルーピングしたグループに対して実行する(S260)。 This process is executed for the group grouped in S220 (S260).

以上のような方法によって,フェイス領域からブロックを特定することができる。 The block can be identified from the face area by the above method.

画像情報処理部22でフェイス領域の画像情報からブロックを特定すると,候補処理部23は,当該特定したブロックの領域の画像情報の特徴量を抽出し,抽出した特徴量と,標本情報記憶部26に記憶する各商品の各ブロックの領域の画像情報の特徴量とを比較してその類似度の判定を行う。この際の類似度の判定は,候補の絞り込みであることから,当該特定したブロックの領域の画像情報と,標本情報記憶部26に記憶する各商品の各ブロックの領域の画像情報の大きさ,縮尺,回転などは考慮せずに(極力近づけなくてもよく,そのままの状態で)処理を実行してもよい。そして類似度が高い順に,商品をソートし,上位の所定件数,たとえば10件程度の商品を候補として特定する(S140)。 When the image information processing unit 22 specifies a block from the image information in the face area, the candidate processing unit 23 extracts the feature amount of the image information in the specified block area, and the extracted feature amount and the sample information storage unit 26 The degree of similarity is determined by comparing with the feature amount of the image information of the area of each block of each product stored in. Since the determination of the degree of similarity at this time is to narrow down the candidates, the size of the image information of the area of the specified block and the image information of the area of each block of each product stored in the sample information storage unit 26. The process may be executed without considering the scale, rotation, etc. (it does not have to be as close as possible and remains as it is). Then, the products are sorted in descending order of similarity, and the top predetermined number of products, for example, about 10 products are specified as candidates (S140).

S140において候補処理部23が,比較処理の候補となる商品を特定すると,比較処理部24は,フェイス領域の画像情報の特徴量を抽出し,抽出した特徴量と,候補として特定した商品の標本情報の特徴量(ブロックの特徴量ではなくフェイス領域に対応する領域の画像情報の特徴量)とを比較することで比較処理を行う(S150)。この比較の際には,フェイス領域の画像情報の大きさと,標本情報における画像情報の大きさ,縮尺,回転なども極力近づけた上で比較処理を行う。この比較処理を候補として特定した各商品について行う。 When the candidate processing unit 23 specifies a product that is a candidate for comparison processing in S140, the comparison processing unit 24 extracts the feature amount of the image information in the face region, and the extracted feature amount and the sample of the product specified as the candidate. The comparison process is performed by comparing with the feature amount of the information (the feature amount of the image information of the area corresponding to the face area, not the feature amount of the block) (S150). In this comparison, the size of the image information in the face area and the size, scale, rotation, etc. of the image information in the sample information are made as close as possible before the comparison process is performed. This comparison process is performed for each product specified as a candidate.

そしてこの比較処理の結果,候補として特定した商品のうち,もっとも類似度が高いと判定した商品を,当該フェイス領域の商品として特定し,当該フェイス領域と,商品識別情報,商品名,商品コードなどと対応づける(S160)。 Then, as a result of this comparison processing, among the products identified as candidates, the product determined to have the highest degree of similarity is identified as a product in the face area, and the face area, product identification information, product name, product code, etc. (S160).

撮影画像情報に写っている陳列棚には,複数の商品が陳列されていることが一般的であるから,陳列されている商品に応じたフェイス領域が切り出されていることが一般的である。そのため,それぞれのフェイス領域について,上述の各処理を実行することで,陳列棚に陳列されている商品や陳列位置を特定することができる。商品の陳列位置は,フェイス領域の縦,横方向の順番などで特定することができるほか,撮影画像情報における座標として特定することもできる。 Since a plurality of products are generally displayed on the display shelf shown in the photographed image information, it is common that a face area corresponding to the displayed products is cut out. Therefore, by executing each of the above-mentioned processes for each face area, it is possible to identify the products displayed on the display shelf and the display position. The display position of the product can be specified by the order of the vertical and horizontal directions of the face area, and can also be specified as the coordinates in the captured image information.

実施例1では撮影画像情報として,2次元の画像情報のまま撮影をした場合を説明したが,撮影対象と撮影装置との距離情報を考慮して,撮影画像情報から3次元モデル化をし,さらに,そこから2次元の画像情報に投影した場合の画像情報を,本発明の画像処理システム1で処理対象とする撮影画像情報としてもよい。なお,この場合,標本情報における対象物の画像情報についても同様の処理が実行されている。この場合の処理を以下に説明する。 In the first embodiment, the case where the image is photographed with the two-dimensional image information as the photographed image information has been described, but the three-dimensional model is made from the photographed image information in consideration of the distance information between the photographed object and the photographing device. Further, the image information when projected onto the two-dimensional image information from there may be used as the captured image information to be processed by the image processing system 1 of the present invention. In this case, the same processing is executed for the image information of the object in the sample information. The processing in this case will be described below.

本実施例の入力端末3では,カメラなどの撮影装置で可視光などによる画像情報を撮影するほか,撮影対象と撮影装置との距離情報(深さ情報)を2次元情報として取得する。深さ情報がマッピングされた情報を,本明細書では深さマップとよぶ。深さマップは,撮影装置で撮影した画像情報に対応しており,撮影した画像情報に写っている物までの深さ情報が,撮影した画像情報と対応する位置にマッピングされている。深さマップは,少なくとも撮影した画像情報に対応する範囲をメッシュ状に区切り,そのメッシュごとに深さ情報が与えられている。メッシュの縦,横の大きさは,取得できる深さ情報の精度に依存するが,メッシュの縦,横の大きさが小さいほど精度が上げられる。通常は,1mmから数mmの範囲であるが,1mm未満,あるいは1cm以上であってもよい。 In the input terminal 3 of this embodiment, in addition to photographing image information by visible light or the like with a photographing device such as a camera, distance information (depth information) between the imaged object and the photographing device is acquired as two-dimensional information. The information to which the depth information is mapped is referred to as a depth map in this specification. The depth map corresponds to the image information taken by the photographing device, and the depth information up to the object reflected in the photographed image information is mapped to the position corresponding to the photographed image information. In the depth map, at least the range corresponding to the captured image information is divided into meshes, and the depth information is given to each mesh. The vertical and horizontal sizes of the mesh depend on the accuracy of the depth information that can be acquired, but the smaller the vertical and horizontal sizes of the mesh, the higher the accuracy. Usually, it is in the range of 1 mm to several mm, but it may be less than 1 mm or 1 cm or more.

深さ情報を取得する場合,撮影対象の撮影の際に,特定の波長の光線,たとえば赤外線を照射してそれぞれの方向からの反射光の量や反射光が到達するまでの時間を計測することで撮影対象までの距離情報(深さ情報)を取得する,あるいは特定の波長の光線,たとえば赤外線のドットパターンを照射し,反射のパターンから撮影対象までの距離情報(深さ情報)を計測するもののほか,ステレオカメラの視差を利用する方法があるが,これらに限定されない。なお,深さ情報が撮影装置(三次元上の一点)からの距離で与えられる場合には,かかる深さ情報を,撮影装置の撮影面(平面)からの深さ情報に変換をしておく。このように深さ情報を取得するための装置(深さ検出装置)を入力端末3は備えていてもよい。 When acquiring depth information, it is necessary to measure the amount of reflected light from each direction and the time until the reflected light arrives by irradiating light with a specific wavelength, for example, infrared rays, when shooting the subject. Acquires distance information (depth information) to the shooting target, or irradiates a light beam of a specific wavelength, for example, an infrared dot pattern, and measures the distance information (depth information) from the reflection pattern to the shooting target. In addition to the above, there is a method of using the parallax of a stereo camera, but the method is not limited to these. If the depth information is given by the distance from the photographing device (one point in three dimensions), the depth information is converted into the depth information from the photographing surface (plane) of the photographing device. .. The input terminal 3 may be provided with a device (depth detection device) for acquiring depth information in this way.

画像情報と深さ情報とはその位置関係が対応をしている。図10では,陳列棚を撮影対象として撮影した画像情報と深さ情報による深さマップとの対応関係を示している。図10(a)が撮影した画像情報,図10(b)がそれに対応する深さマップを模式的に示した図である。 The positional relationship between the image information and the depth information corresponds to each other. FIG. 10 shows the correspondence between the image information taken with the display shelf as the shooting target and the depth map based on the depth information. FIG. 10 (a) is a diagram schematically showing image information taken, and FIG. 10 (b) is a diagram schematically showing a corresponding depth map.

画像情報入力受付処理部20は,入力端末3で撮影した,陳列棚などの撮影対象の画像情報の入力を受け付け,画像情報記憶部21に記憶させる。また,画像情報入力受付処理部20は,入力端末3で撮影した画像情報に対する深さ情報や深さマップの入力を受け付け,撮影した画像情報に対応づけて,画像情報記憶部21に記憶させる。なお,入力端末3から深さマップではなく,深さ情報を受け付けた場合には,それをマッピングして深さマップを生成する。 The image information input reception processing unit 20 receives input of image information to be photographed such as a display shelf taken by the input terminal 3 and stores it in the image information storage unit 21. Further, the image information input reception processing unit 20 receives the input of the depth information and the depth map for the image information photographed by the input terminal 3, and stores the image information in the image information storage unit 21 in association with the photographed image information. When the depth information is received from the input terminal 3 instead of the depth map, it is mapped to generate the depth map.

撮影対象を撮影した画像情報と深さ情報,深さマップは,画像情報を撮影する際に同時に撮影,情報が取得され,その情報の入力を受け付けるようにすることが好ましい。 It is preferable that the image information, the depth information, and the depth map of the photographed object are photographed and the information is acquired at the same time when the image information is photographed, and the input of the information is accepted.

画像情報処理部22は,陳列棚などを撮影した画像情報と深さマップに基づいて3次元モデルに変換をする。すなわち,撮影した画像情報と深さマップとは対応しているので,まず深さマップにおける深さ情報に基づいて3次元モデルに変換をし,そこに撮影した画像情報を対応づけてテクスチャマッピングをする。図11に撮影した画像情報と深さマップに基づく3次元モデル化の処理の一例を示す。なお,図11では飲料のペットボトルを3次元モデル化する場合を示している。図11(a)は撮影した画像情報である。画像情報処理部22は,同時に深さマップを取得しているので,深さマップにおける各メッシュの深さ情報に基づいて,3次元モデルに変換をする。そして深さマップにおける各メッシュの位置に,撮影した画像情報の対応する画素の色情報などを貼り付けるテクスチャマッピングをすることで,図11(b)乃至(d)のように3次元モデル化をすることができる。図11(b)は左方向からの視点,図11(c)は正面からの視点,図11(d)は右方向からの視点を示している。 The image information processing unit 22 converts the display shelf or the like into a three-dimensional model based on the photographed image information and the depth map. That is, since the captured image information and the depth map correspond to each other, first, the image information captured is converted into a three-dimensional model based on the depth information in the depth map, and the captured image information is associated with the texture mapping. To do. FIG. 11 shows an example of the three-dimensional modeling process based on the captured image information and the depth map. Note that FIG. 11 shows a case where a PET bottle of a beverage is three-dimensionally modeled. FIG. 11A shows the captured image information. Since the image information processing unit 22 acquires the depth map at the same time, it converts it into a three-dimensional model based on the depth information of each mesh in the depth map. Then, by performing texture mapping in which the color information of the corresponding pixel of the captured image information is pasted at the position of each mesh in the depth map, three-dimensional modeling is performed as shown in FIGS. 11 (b) to 11 (d). can do. FIG. 11B shows a viewpoint from the left, FIG. 11C shows a viewpoint from the front, and FIG. 11D shows a viewpoint from the right.

画像情報処理部22は,陳列棚などを撮影した画像情報と深さマップに基づいて,3次元モデルを生成すると,それを平面展開する平面展開処理を実行する。平面展開とは,3次元モデルを平面(2次元)に展開することを意味する。3次元モデルを平面展開する方法はさまざまな方法があり,限定するものではない。 When the image information processing unit 22 generates a three-dimensional model based on the image information obtained by photographing the display shelf or the like and the depth map, the image information processing unit 22 executes a plane expansion process for deploying the three-dimensional model. Planar expansion means expanding a three-dimensional model into a plane (two-dimensional). There are various methods for expanding the three-dimensional model in a plane, and the method is not limited.

平面展開の方法の一例としては,3次元モデルの内側に投影の中心を定め,そこから投影をすることで,平面に展開する方法がある。画像情報処理部22における平面展開の処理の一例を図12を用いて説明する。図12(a)はペットボトルを撮影した画像情報であり,その上面図は,略六角形状になっている。なお実際の形状はより細かく凹凸があるが,ここでは説明のため,六角形で示す。そして,図12(a)の画像情報をその深さマップを用いて3次元モデル化した場合に,上方から見た場合の位置関係が図12(b)である。この場合,撮影装置(カメラ)の陰になっている箇所の深さ情報は存在しないので,図12(b)に示すように,上方から見た場合,空白がある。そして,平面展開する対象物の任意の箇所に投影の中心軸を特定する。たとえば陳列棚に陳列される商品であって,その形状が箱形,袋型ではなく,円柱型,ボトル型などの表面が平面ではなく規則的な曲面の場合には,その横幅とその表面の形状から,回転軸の中心点を求め,投影の中心軸として特定する。なお,投影の中心軸を特定するためには,上記のように限らず,任意の方法であってよい。投影の中心軸を特定した状態が図12(c)である。そして,特定した投影の中心軸から,対象物の表面を,任意に設定した投影面に投影する。これを模式的に示すのが図12(d)である。なお,図12(d)のように,3次元モデルの面と投影面との位置が一致しない場合,その離間する距離に応じた投影結果の画像情報の縦横の大きさを,適宜の縮尺率によって調整する。一方,図12(e)のように,3次元モデルの面と投影面との位置を一致させる場合には,その縮尺率の調整処理は設けなくてもよい。なお,図12(b)乃至(e)は,いずれも上方からの図である。 As an example of the plane expansion method, there is a method of expanding to a plane by defining the center of projection inside the three-dimensional model and projecting from there. An example of the plane expansion process in the image information processing unit 22 will be described with reference to FIG. FIG. 12A shows image information obtained by photographing a PET bottle, and the top view thereof has a substantially hexagonal shape. The actual shape is finer and uneven, but for the sake of explanation, it is shown as a hexagon. Then, when the image information of FIG. 12 (a) is three-dimensionally modeled using the depth map, the positional relationship when viewed from above is shown in FIG. 12 (b). In this case, since there is no depth information of the part behind the photographing device (camera), there is a blank when viewed from above as shown in FIG. 12B. Then, the central axis of the projection is specified at an arbitrary position of the object to be developed in a plane. For example, if a product is displayed on a display shelf and its shape is not a box shape or a bag shape but a cylindrical shape or a bottle shape and the surface is a regular curved surface instead of a flat surface, its width and its surface From the shape, find the center point of the rotation axis and specify it as the center axis of the projection. Note that the central axis of projection may be specified by any method, not limited to the above. FIG. 12C shows a state in which the central axis of projection is specified. Then, from the central axis of the specified projection, the surface of the object is projected onto an arbitrarily set projection surface. This is schematically shown in FIG. 12 (d). As shown in FIG. 12D, when the positions of the surface of the three-dimensional model and the projection surface do not match, the vertical and horizontal dimensions of the image information of the projection result according to the distance between them are set to an appropriate scale ratio. Adjust by. On the other hand, when the positions of the plane and the projection plane of the three-dimensional model are matched as shown in FIG. 12 (e), it is not necessary to provide the adjustment processing of the scale ratio. Note that FIGS. 12 (b) to 12 (e) are views from above.

画像情報処理部22は,このような平面展開の処理を行うことで,3次元モデルを2次元(平面)に展開し,2次元の画像情報(平面展開画像情報)に変換することができる。なお,上述では,投影による処理で3次元モデルから平面展開画像情報に変換する処理を行ったが,平面展開処理において,3次元モデルから平面展開画像情報に変換する処理はほかの処理によってもよい。 The image information processing unit 22 can expand the three-dimensional model into two dimensions (plane) and convert it into two-dimensional image information (plane expansion image information) by performing such a plane expansion process. In the above description, the process of converting the 3D model to the plane-expanded image information is performed by the process of projection, but in the plane-expanded process, the process of converting the 3D model to the plane-expanded image information may be performed by another process. ..

画像情報処理部22は,このように生成した平面展開画像情報を,上述の実施例1における撮影画像情報として取り扱い,フェイス処理以降の処理を実行すれば,実施例1と同様の処理を実行できる。 If the image information processing unit 22 handles the plane-developed image information generated in this way as the captured image information in the above-described first embodiment and executes the processing after the face processing, the same processing as in the first embodiment can be executed. ..

また標本情報処理部25は,上述の画像情報処理部22と同様に,対象物を撮影した画像情報と深さマップとから3次元モデルを生成し,その3次元モデルに基づいて平面展開画像情報を生成する。そして平面展開画像情報の全部または一部(たとえばラベル部分)を標本情報として標本情報記憶部26に記憶させることで,実施例1と同様の処理を実行できる。 Further, the sample information processing unit 25 generates a three-dimensional model from the image information obtained by photographing the object and the depth map, and the plane development image information based on the three-dimensional model, similarly to the image information processing unit 22 described above. To generate. Then, by storing all or a part (for example, a label portion) of the plane-developed image information as sample information in the sample information storage unit 26, the same processing as in the first embodiment can be executed.

実施例2の処理の変形例として,スティッチング処理を実行する場合を説明する。 A case where the stitching process is executed will be described as a modification of the process of the second embodiment.

画像情報処理部22は,撮影対象を撮影する際に,複数枚で撮影した場合,それを一つの画像情報に合成するスティッチング処理を実行してもよい。スティッチング処理は,3次元モデル化の前であってもよいし,3次元モデル化の後であってもよい。3次元モデル化の前のスティッチング処理,3次元モデル化の後のスティッチング処理のいずれも公知の手法を用いることもできる。 When a plurality of images are photographed, the image information processing unit 22 may execute a stitching process for synthesizing a plurality of images into one image information. The stitching process may be performed before the 3D modeling or after the 3D modeling. A known method can be used for both the stitching process before the three-dimensional modeling and the stitching process after the three-dimensional modeling.

3次元モデル化の前に行う場合には,各撮影画像情報間で対応点を検出することでスティッチング処理を実行する。この際に,撮影画像情報同士で対応点が特定できるので,特定した対応点の位置に対応する深さマップ同士も同様に対応づける。これによって,3次元モデル化の前にスティッチング処理を実行できる。 If it is performed before the three-dimensional modeling, the stitching process is executed by detecting the corresponding points between the captured image information. At this time, since the corresponding points can be specified between the captured image information, the depth maps corresponding to the positions of the specified corresponding points are also associated with each other in the same manner. As a result, the stitching process can be executed before the 3D modeling.

また,3次元モデル化の後に行う場合には,2つの3次元モデルにおける凹凸形状の類似性を深さ情報から特定し,形状が類似(深さ情報に基づく凹凸のパターンが所定範囲内に含まれている)している領域内において,その領域に対応する,当該3次元モデルの元となった撮影画像情報同士で対応点を検索することで,3次元モデル化の後にスティッチング処理を実行できる。これを模式的に示すのが図13である。図13(a)および(b)は横に並ぶ棚段を撮影した撮影画像情報であり,図13(c)は図13(a)に基づく3次元モデル,図13(d)は図13(b)に基づく3次元モデルである。この場合,図14に示すように,たとえば撮影画像情報において,スティッチング処理のための基準101,たとえば棚段を写り込むように撮影をしておけば,その基準101が同一の視点方向になるように3次元モデルを回転する。そして深さ情報に基づく凹凸形状の類似を判定する。そして特定した類似する領域100内における対応点を検索することで,スティッチング処理を実行できる。図14(a)は図13(a)の3次元モデルを,図13(b)と同一の視点方向となるように回転させた状態である。そして図14(a)と図14(b)の破線領域100が,深さ情報に基づいて判定した凹凸形状の類似の領域100である。また,一点鎖線領域101が,同一の視点方向になるように3次元モデルを回転させるための基準とする棚段である。なお基準101とするものは撮影対象によって任意に特定することができるが、好ましくは2以上の直線で構成されるものであることがよい。 In addition, when performing after 3D modeling, the similarity of the uneven shape in the two 3D models is specified from the depth information, and the shapes are similar (the pattern of the unevenness based on the depth information is included in the predetermined range. The stitching process is executed after the 3D modeling by searching for the corresponding points between the captured image information that is the source of the 3D model that corresponds to that area. it can. This is schematically shown in FIG. 13 (a) and 13 (b) are photographed image information obtained by photographing the shelves arranged side by side, FIG. 13 (c) is a three-dimensional model based on FIG. 13 (a), and FIG. 13 (d) is FIG. 13 ( It is a three-dimensional model based on b). In this case, as shown in FIG. 14, for example, in the captured image information, if the reference 101 for stitching processing, for example, the shelf step is captured so as to be reflected, the reference 101 is in the same viewpoint direction. Rotate the 3D model as in. Then, the similarity of the uneven shape is determined based on the depth information. Then, the stitching process can be executed by searching for the corresponding points in the specified similar area 100. FIG. 14A shows a state in which the three-dimensional model of FIG. 13A is rotated so as to have the same viewpoint direction as that of FIG. 13B. The broken line region 100 in FIGS. 14 (a) and 14 (b) is a region 100 having a concave-convex shape determined based on the depth information. Further, the alternate long and short dash line region 101 is a shelf stage that serves as a reference for rotating the three-dimensional model so that the three-dimensional model is oriented in the same viewpoint direction. The reference 101 can be arbitrarily specified depending on the object to be photographed, but it is preferably composed of two or more straight lines.

以上のような処理を実行することで,3次元モデル化の前または後のいずれであってもスティッチング処理を実行することができる。また,複数枚の撮影画像情報を用いない場合にはスティッチング処理は実行しなくてもよい。 By executing the above processing, the stitching processing can be executed either before or after the three-dimensional modeling. Further, when the information of a plurality of captured images is not used, the stitching process may not be executed.

実施例2の処理の変形例として,画像情報処理部22は,3次元モデル化処理を実行した後,撮影対象とした3次元モデルが正対する位置となるように,その視点方向を決定する処理を実行し,その後,平面展開をする処理を実行してもよい。たとえば撮影対象が商品の陳列棚やそこにある商品である場合,陳列棚や商品が正対する位置(正面となる位置)になるように視点方向を決定する。 As a modification of the process of the second embodiment, the image information processing unit 22 executes the three-dimensional modeling process and then determines the viewpoint direction so that the three-dimensional model to be photographed faces the position. May be executed, and then the process of plane expansion may be executed. For example, when the object to be photographed is a product display shelf or a product located there, the viewpoint direction is determined so that the display shelf or the product faces the position (front position).

視点方向を決定する処理としては,3次元モデルにおける基準が,正対する位置となるためのあらかじめ定めた条件を充足するように視点方向を決定すればよい。基準および条件は撮影対象などに応じて任意に設定することができる。たとえば陳列棚を撮影する際には,陳列棚の棚段の前面102を基準とし,条件としては,陳列棚の複数の棚段の前面102がいずれも水平となり,かつ互いに垂直の位置となるように,視点を撮影範囲の上下左右で中央に移動させることで,実現できる。棚段の前面102は,通常,商品の陳列棚を撮影した場合,陳列棚の前面が一番手前に位置する(もっとも前に位置している)ので3次元モデルの深さ情報から棚段の前面102を特定することができる。この処理を模式的に示すのが図15である。図15(a)は陳列棚を撮影した撮影画像情報であり,図15(b)はその陳列棚の深さマップにおいて,深さ情報を白黒の濃度で表現した図であり(黒の場合が手前に位置する(深さ情報の値が小さい)),図15(c)は深さマップに基づく3次元モデルであり,深さ情報を色に変換したものである。そして画像情報処理部22は,深さ情報に基づいて陳列棚の棚段の前面を特定し,その棚段が上述の条件を充足するように視点方向を決定する。また視点方向の決定処理で用いた基準と,上述の3次元モデル化後のスティッチング処理における基準とは同一の基準を用いてもよい。たとえばいずれの場合も陳列棚の棚段の前面を基準として用いることができる。 As a process for determining the viewpoint direction, the viewpoint direction may be determined so that the reference in the three-dimensional model satisfies a predetermined condition for the position to face each other. The criteria and conditions can be arbitrarily set according to the shooting target and the like. For example, when photographing a display shelf, the front 102 of the shelf of the display shelf is used as a reference, and the condition is that the front 102 of the plurality of shelves of the display shelf are all horizontal and perpendicular to each other. This can be achieved by moving the viewpoint to the center in the vertical and horizontal directions of the shooting range. Normally, when the product display shelf is photographed, the front surface 102 of the shelf is located in the foreground (the frontmost position) of the display shelf, so the depth information of the three-dimensional model indicates that the shelf is in front of the shelf. The front surface 102 can be specified. FIG. 15 schematically shows this process. FIG. 15 (a) is photographed image information obtained by photographing the display shelf, and FIG. 15 (b) is a diagram expressing the depth information in black and white density in the depth map of the display shelf (in the case of black). Located in the foreground (the value of the depth information is small), FIG. 15C is a three-dimensional model based on the depth map, in which the depth information is converted into colors. Then, the image information processing unit 22 identifies the front surface of the shelf of the display shelf based on the depth information, and determines the viewpoint direction so that the shelf satisfies the above-mentioned conditions. Further, the same standard may be used for the standard used in the determination process of the viewpoint direction and the standard in the stitching process after the above-mentioned three-dimensional modeling. For example, in either case, the front surface of the shelf of the display shelf can be used as a reference.

図15(c)ではわかりやすさのため,撮影画像情報をテクスチャマッピングする前の状態で処理をする場合を示しているが,テクスチャマッピングをした後の3次元モデルに対して視点方向の決定処理を実行してもよい。なお,視点方向の決定処理は,上述に限らず,任意の処理で実現することができる。 FIG. 15C shows a case where the captured image information is processed in the state before texture mapping for the sake of clarity. However, the viewpoint direction determination processing is executed for the three-dimensional model after the texture mapping. You may. The process of determining the viewpoint direction is not limited to the above, and can be realized by any process.

なお,もともと撮影画像情報が正対した位置から撮影されているなどの場合には,視点方向の決定処理は実行しなくてもよい。 If the captured image information is originally captured from a position facing it, the viewpoint direction determination process does not have to be executed.

実施例2乃至実施例4の処理では,平面展開画像情報に対してフェイス処理を実行することで,フェイス領域の画像情報を特定していたが,3次元モデルからフェイス領域を特定し,特定したフェイス領域について平面展開処理を実行して平面展開画像情報としても良い。 In the processing of Examples 2 to 4, the image information of the face region was specified by executing the face processing on the plane development image information, but the face region was specified and specified from the three-dimensional model. The plane expansion process may be executed for the face region to obtain the plane expansion image information.

3次元モデルからフェイス領域の特定方法はさまざまな方法があり,標本情報の特性に合わせて任意に設定することができる。たとえば,3次元モデルにおいて所定条件を充足する面の位置と範囲を特定し,その面と,あらかじめ定めた標本情報の表面モデルのタイプに応じた条件を充足するかをマッチングし,条件を充足する面をフェイス領域として特定する。たとえば上述と同様に,標本情報が商品であり,陳列棚を撮影した撮影画像情報から3次元モデルを生成し,商品のフェイス領域を特定する処理の場合には,以下のような処理が実行できる。 There are various methods for specifying the face region from the three-dimensional model, and it can be arbitrarily set according to the characteristics of the sample information. For example, in a 3D model, the position and range of a surface that satisfies a predetermined condition are specified, and the surface is matched with whether or not the condition corresponding to the type of the surface model of the predetermined sample information is satisfied, and the condition is satisfied. Specify the face as a face area. For example, as described above, in the case where the sample information is a product, a three-dimensional model is generated from the photographed image information obtained by photographing the display shelf, and the face area of the product is specified, the following processing can be executed. ..

まず,微細な凹凸を除外するために高周波をフィルタアウトした上で,垂直に近い,正対した一定以上の面積を持つ面,直立した円筒の面,全体に凸のゆがんだ多面体の領域の面を検出し,3次元空間内の位置と範囲を特定する。たとえば,深さ情報が一定の範囲内であり,法線が安定して正面を向いていれば平面,深さ情報について垂直方向の相関性が強く,水平方向に凸であれば円筒,水平方向および垂直方向のいずれも凸,または法線が安定していなければ凸のゆがんだ多面体の領域の面のように特定をする。そして,検出した各面をラベリングをする。図16では5つの面を検出し,それぞれ1から5のラベリングをした状態を示している。そして検出した面について,たとえば深さ情報の平均値などに基づいて,最前面から,順に最前面からの距離(これをレベルとする)を算出する。そして算出したレベルに基づいて,各面の前後関係を特定する。図16では,1,2の面のレベルは0cmであり,3,4の面のレベルは3cm,5の面のレベルは20cmのように算出をする。そして,最前面が1,2の面,その次に奥に位置するのが3,4の面,最背面が5の面として,5つの面の前後関係を特定する。 First, after filtering out the high frequency to exclude fine irregularities, a surface that is close to vertical and has an area above a certain level facing directly, an upright cylindrical surface, and a surface of a polyhedral region that is convex and distorted as a whole. Is detected, and the position and range in the three-dimensional space are specified. For example, if the depth information is within a certain range and the normal is stable and facing the front, there is a strong vertical correlation between the plane and depth information, and if it is convex in the horizontal direction, it is a cylinder or horizontal direction. And in either the vertical direction, it is specified as a plane in the region of a convex or distorted polyhedron if the normal is not stable. Then, each detected surface is labeled. FIG. 16 shows a state in which five surfaces are detected and labeled from 1 to 5 respectively. Then, for the detected surface, the distance from the foreground (this is used as the level) is calculated in order from the foreground based on, for example, the average value of the depth information. Then, based on the calculated level, the context of each surface is specified. In FIG. 16, the level of the surfaces 1 and 2 is 0 cm, the level of the surfaces 3 and 4 is 3 cm, and the level of the surface 5 is 20 cm. Then, the front-back relationship of the five faces is specified, with the frontmost faces being the faces 1 and 2, the next being located in the back being the faces 3 and 4, and the backmost being the face 5.

そして画像情報処理部22は,このように特定した面の前後関係を用いて,面の種別を特定する。すなわち,最前面であって,深さマップにある狭い横長の平面を,棚板の前面および商品タグ面,最背面を棚段の後板面,また,棚段の前面と深さ情報が同一または近接(一定範囲,たとえば数cm以内)しており,中空にある垂直の長方形は商品タグの面として特定をする。そして,好ましくは,それ以外の面を商品面(商品が陳列される可能性のある面)として特定をする。したがって,図16の例では,1,2の面を棚板の前面および商品タグ面,3,4の面を商品面,5の面を棚体の後板面として特定をする。 Then, the image information processing unit 22 specifies the type of surface by using the context of the surface specified in this way. That is, the depth information is the same as the front surface of the shelf, the product tag surface, the back surface of the shelf, and the front surface of the shelf on the narrow horizontal plane on the depth map. Alternatively, a vertical rectangle that is close (within a certain range, for example, within a few centimeters) and is hollow is specified as the surface of the product tag. Then, preferably, the other side is specified as a product side (a side on which the product may be displayed). Therefore, in the example of FIG. 16, the surfaces 1 and 2 are specified as the front surface and the product tag surface of the shelf board, the surfaces 3 and 4 are specified as the product surface, and the surface 5 is specified as the rear plate surface of the shelf body.

このように特定した商品面において,いずれかのタイミングにおいて入力を受け付けた商品のパッケージタイプに基づいて,対応する処理を実行する。パッケージタイプとしては,缶,瓶(ペットボトルを含む。以下同様),缶と瓶の併存,箱物,吊るし商品などがあるが,それらに限定をするものではない。 On the product side specified in this way, the corresponding process is executed based on the package type of the product for which input is accepted at any timing. Package types include cans, bottles (including PET bottles; the same applies hereinafter), coexistence of cans and bottles, boxes, hanging products, etc., but are not limited to these.

パッケージタイプが缶または瓶であった場合,一定の大きさの範囲内にある円筒の領域を缶または瓶のフェイス領域として特定する。これを模式的に示すのが,図17および図18である。図17はパッケージタイプが缶の場合を示すイメージ図であり,図18はパッケージタイプが瓶の場合を示すイメージ図である。 If the package type is a can or bottle, the area of the cylinder within a certain size range is specified as the face area of the can or bottle. This is schematically shown in FIGS. 17 and 18. FIG. 17 is an image diagram showing the case where the package type is a can, and FIG. 18 is an image diagram showing the case where the package type is a bottle.

パッケージタイプが缶と瓶の併存であった場合,一定の大きさの範囲内に円筒があり,上方に小さな円筒がない領域を缶のフェイス領域,一定の大きさの範囲内に円筒があり,上方に小さな円筒がある領域を瓶のフェイス領域として特定をする。 When the package type is a coexistence of a can and a bottle, there is a cylinder within a certain size range, an area without a small cylinder above is the face area of the can, and there is a cylinder within a certain size range. The area with a small cylinder above is specified as the face area of the bottle.

パッケージタイプが箱物であった場合,一定の大きさの範囲内にある垂直の長方形の平面の領域を箱物のフェイス領域として特定をする。これを模式的に示すのが図19である。 If the package type is a box, the area of the vertical rectangular plane within a certain size range is specified as the face area of the box. This is schematically shown in FIG.

また,パッケージタイプが吊るし商品であった場合,一定のサイズの範囲内にあり,中空に浮いた長方形の平面または凹凸面の領域を,吊るし商品のフェイス領域として特定をする。これを模式的に示すのが図20である。 If the package type is a hanging product, the area of a rectangular flat surface or uneven surface that is within a certain size range and floats in the air is specified as the face area of the hanging product. This is schematically shown in FIG.

なお,画像情報処理部22は,パッケージタイプの選択を受け付けずフェイス領域を特定してもよい。この場合,商品面の領域と,パッケージタイプごとの判定処理をそれぞれ実行することで,フェイス領域としての条件が成立するかを判定する。そして,フェイス領域を構成する面が存在する場合には,その面が構成するフェイス領域を特定し,あらかじめ定められたパッケージタイプの優先条件に基づいて,フェイス領域がどのようなパッケージタイプであるかを特定する。 The image information processing unit 22 may specify the face area without accepting the selection of the package type. In this case, it is determined whether or not the condition as the face area is satisfied by executing the determination process for each of the product surface area and the package type. Then, if there is a surface that constitutes the face area, the face area that the surface constitutes is specified, and what kind of package type the face area is based on the predetermined package type priority condition. To identify.

3次元モデルからフェイス領域を特定する処理は,商品などのカテゴリや形状などによって任意の方法を採用可能であり,上記に限定するものではない。また,自動的に特定したフェイス領域に対して,担当者による修正入力を受け付けてもよい。さらに,担当者からフェイス領域の位置の入力を受け付けるのでもよい。 The process of specifying the face region from the three-dimensional model can adopt any method depending on the category and shape of the product, and is not limited to the above. In addition, the person in charge may accept correction input for the automatically specified face area. Further, the person in charge may input the position of the face area.

さらに画像情報処理部22は,深層学習(ディープラーニング)を用いてフェイス領域を特定してもよい。この場合,中間層が多数の層からなるニューラルネットワークの各層のニューロン間の重み付け係数が最適化された学習モデルに対して,上記3次元モデルを入力し,その出力値に基づいて,フェイス領域を特定してもよい。また学習モデルとしては,さまざまな3次元モデルにフェイス領域を与えたもの正解データとして用いることができる。 Further, the image information processing unit 22 may specify the face region by using deep learning. In this case, the above three-dimensional model is input to the learning model in which the weighting coefficient between the neurons of each layer of the neural network consisting of many layers is optimized, and the face region is set based on the output value. It may be specified. Further, as a learning model, various three-dimensional models with face regions can be used as correct answer data.

画像情報処理部22は,以上のように特定したフェイス領域を切り出す。フェイス領域を切り出すとは,3次元モデルから特定したフェイス領域を実際に切り出してもよいし,後述の処理の処理対象としてその領域を設定することも含まれる。 The image information processing unit 22 cuts out the face region specified as described above. Cutting out the face area may actually cut out the face area specified from the three-dimensional model, and also includes setting the area as the processing target of the processing described later.

フェイス領域を切り出す場合には,上述の各処理で特定したフェイス領域をそのまま切り出してもよいし,複数の方法によりフェイス領域の特定を行い,各方法で特定したフェイス領域の結果を用いて切り出す対象とするフェイス領域を特定してもよい。たとえば,3次元モデルから所定条件を充足する面の位置と範囲を特定し,表面モデルのタイプに応じた条件を充足するかをマッチングしてフェイス領域を特定する方法と,深層学習によりフェイス領域を特定する方法とを行い,あらかじめ定めた演算によって,最終的に切り出す対象とするフェイス領域を特定してもよい。切り出すフェイス領域の特定方法は,上記に限定するものではなく,任意に設定することができる。 When cutting out the face area, the face area specified by each of the above processes may be cut out as it is, or the face area may be specified by a plurality of methods and the target to be cut out using the result of the face area specified by each method. The face area to be used may be specified. For example, a method of specifying the position and range of a surface that satisfies a predetermined condition from a three-dimensional model and matching whether the condition is satisfied according to the type of the surface model to specify the face region, and a method of specifying the face region by deep learning. The face area to be finally cut out may be specified by a method of specifying and a predetermined calculation. The method for specifying the face area to be cut out is not limited to the above, and can be set arbitrarily.

画像情報処理部22は,画像情報処理部22において切り出したフェイス領域について,実施例2と同様の平面展開処理を実行し,フェイス領域についての平面展開画像情報を生成する。そして,このように生成した平面展開画像情報を,上述の実施例1における撮影画像情報として取り扱い,ブロック特定処理以降の処理を実行すれば,実施例1と同様の処理を実行できる。 The image information processing unit 22 executes the same plane expansion processing as in the second embodiment on the face region cut out by the image information processing unit 22, and generates plane expansion image information for the face region. Then, if the plane development image information generated in this way is treated as the captured image information in the above-described first embodiment and the processing after the block identification processing is executed, the same processing as in the first embodiment can be executed.

また標本情報処理部25は,上述の画像情報処理部22と同様に,対象物を撮影した画像情報と深さマップとから3次元モデルを生成し,その3次元モデルに基づいてフェイス領域を切り出す。そして切り出したフェイス領域から平面展開画像情報を生成し,平面展開画像情報を標本情報として標本情報記憶部26に記憶させることで,実施例1と同様の処理を実行できる。 Further, the sample information processing unit 25 generates a three-dimensional model from the image information obtained by photographing the object and the depth map, and cuts out the face region based on the three-dimensional model, similarly to the image information processing unit 22 described above. .. Then, the same processing as in the first embodiment can be executed by generating the plane development image information from the cut out face area and storing the plane development image information as the sample information in the sample information storage unit 26.

上述の各実施例における各処理については,本発明の明細書に記載した順序に限定するものではなく,その目的を達成する限度において適宜,変更することが可能である。 Each process in each of the above-described examples is not limited to the order described in the specification of the present invention, and can be appropriately changed as long as the object is achieved.

また,本発明の画像処理システム1は,店舗の陳列棚を撮影した撮影画像情報から,陳列棚に陳列した商品を対象物として,その商品の陳列状況を特定する場合に有効であるが,それに限定するものではない。すなわち,ある撮影対象物を撮影した場合に,その所望の対象物が写っている領域を撮影した画像情報から特定する際に,広く用いることができる。 Further, the image processing system 1 of the present invention is effective in specifying the display status of a product displayed on the display shelf from the photographed image information obtained by photographing the display shelf of the store. It is not limited. That is, when a certain object to be photographed is photographed, it can be widely used when specifying the area in which the desired object is captured from the photographed image information.

本発明の画像処理システム1を用いることによって,陳列棚などを撮影した画像情報に写っている商品などの対象物を特定する際に,計算時間を従来よりも要することなく,比較処理の精度を向上させることが可能となる。 By using the image processing system 1 of the present invention, when identifying an object such as a product shown in image information obtained by photographing a display shelf or the like, the accuracy of comparison processing can be improved without requiring more calculation time than before. It is possible to improve.

1:画像処理システム
2:管理端末
3:入力端末
20:画像情報入力受付処理部
21:画像情報記憶部
22:画像情報処理部
23:候補処理部
24:比較処理部
25:標本情報処理部
26:標本情報記憶部
70:演算装置
71:記憶装置
72:表示装置
73:入力装置
74:通信装置
1: Image processing system 2: Management terminal 3: Input terminal 20: Image information input reception processing unit 21: Image information storage unit 22: Image information processing unit 23: Candidate processing unit 24: Comparison processing unit 25: Sample information processing unit 26 : Specimen information storage unit 70: Arithmetic device 71: Storage device 72: Display device 73: Input device 74: Communication device

Claims (13)

画像情報に写っている対象物を特定する画像処理システムであって,
前記画像処理システムは,
処理対象の画像情報における第1の領域において所定条件を充足する第2の領域の情報と,標本とする対象物の標本情報とブロック情報とを記憶する標本情報記憶部に記憶されたブロック情報とを用いて類似検索処理を実行し,比較処理の候補とする対象物を特定する候補処理部と,
前記処理対象の画像情報の第1の領域と,前記候補処理部で候補として特定した対象物の標本情報とを用いて比較処理をすることで,前記第1の領域に写っている対象物を特定する比較処理部と,を有しており,
前記候補処理部は,
前記第1の領域の画像情報において,
前記第1の領域の画像情報について所定の色数に減色し,
前記第1の領域の画像情報を所定の大きさのメッシュに分割して前記減色した色ごとの分布マップを生成し,
前記色ごとの分布マップについて,所定の範囲に収まるグループを検出し,
各グループについて,その領域に含まれる色の数が所定数以内であって,かつエッジが所定の閾値以上あるグループを囲む領域を,前記第2の領域として特定する,
ことを特徴とする画像処理システム。
An image processing system that identifies an object reflected in image information.
The image processing system is
Information in a second area that satisfies a predetermined condition in the first area in the image information to be processed, and block information stored in a sample information storage unit that stores sample information and block information of the object to be sampled. A candidate processing unit that executes similar search processing using and identifies the target object to be a candidate for comparison processing, and
By performing comparison processing using the first region of the image information of the processing target and the sample information of the object specified as a candidate by the candidate processing unit, the object reflected in the first region can be obtained. It has a comparison processing unit to specify,
The candidate processing unit
In the image information of the first region,
The image information in the first region is reduced to a predetermined number of colors.
The image information of the first region is divided into meshes of a predetermined size to generate a distribution map for each of the reduced colors.
For the distribution map for each color, a group that fits within a predetermined range is detected.
For each group, the area surrounding the group in which the number of colors included in the area is within a predetermined number and the edge is equal to or more than a predetermined threshold value is specified as the second area.
An image processing system characterized by this.
画像情報に写っている対象物を特定する画像処理システムであって,
前記画像処理システムは,
処理対象の画像情報における第1の領域において所定条件を充足する第2の領域の情報と,標本とする対象物の標本情報とブロック情報とを記憶する標本情報記憶部に記憶されたブロック情報とを用いて類似検索処理を実行し,比較処理の候補とする対象物を特定する候補処理部と,
前記処理対象の画像情報の第1の領域と,前記候補処理部で候補として特定した対象物の標本情報とを用いて比較処理をすることで,前記第1の領域に写っている対象物を特定する比較処理部と,を有しており,
前記候補処理部は,
前記第1の領域の画像情報から特徴量を抽出することで,所定以上の広さの範囲にわたって共通の特徴が分布している領域を検出してその領域を消し込み,
残った領域について,共通の特徴量が分布している領域を特定して,その領域を囲む領域を前記第2の領域として特定する,
ことを特徴とする画像処理システム。
An image processing system that identifies an object reflected in image information.
The image processing system is
Information in a second area that satisfies a predetermined condition in the first area in the image information to be processed, and block information stored in a sample information storage unit that stores sample information and block information of the object to be sampled. A candidate processing unit that executes similar search processing using and identifies the target object to be a candidate for comparison processing, and
By performing comparison processing using the first region of the image information of the processing target and the sample information of the object specified as a candidate by the candidate processing unit, the object reflected in the first region can be obtained. It has a comparison processing unit to specify,
The candidate processing unit
By extracting the feature amount from the image information of the first region, a region in which common features are distributed over a range of a predetermined size or more is detected and the region is erased.
For the remaining region, a region in which common features are distributed is specified, and a region surrounding the region is specified as the second region.
An image processing system characterized by this.
画像情報に写っている対象物を特定する画像処理システムであって,
前記画像処理システムは,
処理対象の画像情報における第1の領域において所定条件を充足する第2の領域の情報と,標本とする対象物の標本情報とブロック情報とを記憶する標本情報記憶部に記憶されたブロック情報とを用いて類似検索処理を実行し,比較処理の候補とする対象物を特定する候補処理部と,
前記処理対象の画像情報の第1の領域と,前記候補処理部で候補として特定した対象物の標本情報とを用いて比較処理をすることで,前記第1の領域に写っている対象物を特定する比較処理部と,を有しており,
前記候補処理部は,
さまざまな第1の領域の画像情報に第2の領域を正解データとして与えた,中間層が多数の層からなるニューラルネットワークの各層のニューロン間の重み付け係数が最適化された学習モデルに対して,前記処理対象の画像情報における第1の領域の画像情報を入力し,その出力値に基づいて,前記第2の領域を特定する,
ことを特徴とする画像処理システム。
An image processing system that identifies an object reflected in image information.
The image processing system is
Information in a second area that satisfies a predetermined condition in the first area in the image information to be processed, and block information stored in a sample information storage unit that stores sample information and block information of the object to be sampled. A candidate processing unit that executes similar search processing using and identifies the target object to be a candidate for comparison processing, and
By performing comparison processing using the first region of the image information of the processing target and the sample information of the object specified as a candidate by the candidate processing unit, the object reflected in the first region can be obtained. It has a comparison processing unit to specify,
The candidate processing unit
For a learning model in which the weighting coefficient between neurons in each layer of a neural network consisting of many layers is optimized, in which the second area is given as correct data to the image information of various first areas. The image information of the first region in the image information to be processed is input, and the second region is specified based on the output value.
An image processing system characterized by this.
画像情報に写っている対象物を特定する画像処理システムであって,
前記画像処理システムは,
処理対象の画像情報における第1の領域において所定条件を充足する第2の領域の情報と,標本とする対象物の標本情報とブロック情報とを記憶する標本情報記憶部に記憶されたブロック情報とを用いて類似検索処理を実行し,比較処理の候補とする対象物を特定する候補処理部と,
前記処理対象の画像情報の第1の領域と,前記候補処理部で候補として特定した対象物の標本情報とを用いて比較処理をすることで,前記第1の領域に写っている対象物を特定する比較処理部と,を有しており,
前記候補処理部は,
あらかじめ学習モデルとして,さまざまな第1の領域の画像情報における第2の領域内の特徴量を正例とし,さまざまな第1の領域の画像情報における第2の領域外の特徴量を負例として与えた判定処理部に対して,前記処理対象の画像情報における第1の領域の画像情報を分割したメッシュにおける各点を入力し,
その各点について,前記第2の領域に属しているかを前記判定処理部に判定させ,
その判定結果において,前記第2の領域に属していると判定したメッシュを囲む領域を前記第2の領域として特定する,
ことを特徴とする画像処理システム。
An image processing system that identifies an object reflected in image information.
The image processing system is
Information in a second area that satisfies a predetermined condition in the first area in the image information to be processed, and block information stored in a sample information storage unit that stores sample information and block information of the object to be sampled. A candidate processing unit that executes similar search processing using and identifies the target object to be a candidate for comparison processing, and
By performing comparison processing using the first region of the image information of the processing target and the sample information of the object specified as a candidate by the candidate processing unit, the object reflected in the first region can be obtained. It has a comparison processing unit to specify,
The candidate processing unit
As a learning model in advance, the feature amount in the second region in the image information of various first regions is used as a positive example, and the feature amount outside the second region in the image information of various first regions is used as a negative example. Each point in the mesh obtained by dividing the image information of the first region in the image information to be processed is input to the given determination processing unit.
For each of the points, the determination processing unit is made to determine whether or not it belongs to the second region.
In the determination result, the region surrounding the mesh determined to belong to the second region is specified as the second region.
An image processing system characterized by this.
画像情報に写っている対象物を特定する画像処理システムであって,
前記画像処理システムは,
処理対象の画像情報における第1の領域において所定条件を充足する第2の領域の情報と,標本とする対象物の標本情報とブロック情報とを記憶する標本情報記憶部に記憶されたブロック情報とを用いて類似検索処理を実行し,比較処理の候補とする対象物を特定する候補処理部と,
前記処理対象の画像情報の第1の領域と,前記候補処理部で候補として特定した対象物の標本情報とを用いて比較処理をすることで,前記第1の領域に写っている対象物を特定する比較処理部と,を有しており,
前記候補処理部は,
前記第2の領域の情報と,前記対象物のブロック情報との類似検索処理において,それぞれの大きさ,縮尺,回転のいずれか一以上についてそのままで類似検索処理を実行し,
前記比較処理部は,
前記第1の領域の情報と,前記候補として特定した対象物の標本情報との比較処理において,その大きさ,縮尺,回転のうちいずれか一以上について揃えて比較処理を実行する,
ことを特徴とする画像処理システム。
An image processing system that identifies an object reflected in image information.
The image processing system is
Information in a second area that satisfies a predetermined condition in the first area in the image information to be processed, and block information stored in a sample information storage unit that stores sample information and block information of the object to be sampled. A candidate processing unit that executes similar search processing using and identifies the target object to be a candidate for comparison processing, and
By performing comparison processing using the first region of the image information of the processing target and the sample information of the object specified as a candidate by the candidate processing unit, the object reflected in the first region can be obtained. It has a comparison processing unit to specify,
The candidate processing unit
In the similarity search process between the information in the second region and the block information of the object, the similarity search process is executed as it is for any one or more of the respective sizes, scales, and rotations.
The comparison processing unit
In the comparison process between the information in the first region and the sample information of the object specified as the candidate, the comparison process is executed by aligning any one or more of the size, scale, and rotation.
An image processing system characterized by this.
画像情報に写っている対象物を特定する画像処理システムであって,
前記画像処理システムは,
画像情報とそれに対応する深さ情報を用いて生成した3次元モデルの一部または全部について,平面に展開する平面展開画像情報を生成し,前記生成した平面展開画像情報の一部または全部を,処理対象の画像情報とする画像情報処理部と,
前記処理対象の画像情報における第1の領域において所定条件を充足する第2の領域の情報と,標本とする対象物の標本情報とブロック情報とを記憶する標本情報記憶部に記憶されたブロック情報とを用いて類似検索処理を実行し,比較処理の候補とする対象物を特定する候補処理部と,
前記処理対象の画像情報の第1の領域と,前記候補処理部で候補として特定した対象物の標本情報とを用いて比較処理をすることで,前記第1の領域に写っている対象物を特定する比較処理部と,
を有することを特徴とする画像処理システム。
An image processing system that identifies an object reflected in image information.
The image processing system is
For a part or all of the three-dimensional model generated by using the image information and the corresponding depth information, the plane-expanded image information developed on a plane is generated, and a part or all of the generated plane-developed image information is displayed. The image information processing unit that uses the image information to be processed ,
Block information stored in a sample information storage unit that stores information in a second area that satisfies a predetermined condition in the first area of the image information to be processed, and sample information and block information of the object to be sampled. A candidate processing unit that executes similar search processing using and and identifies objects to be candidates for comparison processing, and
By performing comparison processing using the first region of the image information of the processing target and the sample information of the object specified as a candidate by the candidate processing unit, the object reflected in the first region can be obtained. The comparison processing unit to be specified and
An image processing system characterized by having.
前記候補処理部は,
前記特定した第1の領域において,対象物を特定し得る情報がある領域を第2の領域として特定する,
ことを特徴とする請求項1から請求項6のいずれかに記載の画像処理システム。
The candidate processing unit
In the specified first region, a region having information capable of identifying an object is specified as a second region.
The image processing system according to any one of claims 1 to 6, wherein the image processing system is characterized in that.
コンピュータを,
処理対象の画像情報における第1の領域において所定条件を充足する第2の領域の情報と,標本とする対象物の標本情報とブロック情報とを記憶する標本情報記憶部に記憶された対象物のブロック情報とを用いて類似検索処理を実行し,比較処理の候補とする対象物を特定する候補処理部,
前記処理対象の画像情報の第1の領域と,前記候補処理部で候補として特定した対象物の標本情報とを用いて比較処理をすることで,前記第1の領域に写っている対象物を特定する比較処理部,として機能させる画像処理プログラムであって,
前記候補処理部は,
前記第1の領域の画像情報において,
前記第1の領域の画像情報について所定の色数に減色し,
前記第1の領域の画像情報を所定の大きさのメッシュに分割して前記減色した色ごとの分布マップを生成し,
前記色ごとの分布マップについて,所定の範囲に収まるグループを検出し,
各グループについて,その領域に含まれる色の数が所定数以内であって,かつエッジが所定の閾値以上あるグループを囲む領域を,前記第2の領域として特定する,
ことを特徴とする画像処理プログラム。
Computer,
An object stored in a sample information storage unit that stores information in a second area that satisfies a predetermined condition in the first area of image information to be processed, and sample information and block information of the object to be sampled. Candidate processing unit that executes similar search processing using block information and identifies objects to be candidates for comparison processing,
By performing comparison processing using the first region of the image information of the processing target and the sample information of the object specified as a candidate by the candidate processing unit, the object reflected in the first region can be obtained. An image processing program that functions as a specific comparison processing unit.
The candidate processing unit
In the image information of the first region,
The image information in the first region is reduced to a predetermined number of colors.
The image information of the first region is divided into meshes of a predetermined size to generate a distribution map for each of the reduced colors.
For the distribution map for each color, a group that fits within a predetermined range is detected.
For each group, the area surrounding the group in which the number of colors contained in the area is within a predetermined number and the edge is equal to or more than a predetermined threshold value is specified as the second area.
An image processing program characterized by this.
コンピュータを,
処理対象の画像情報における第1の領域において所定条件を充足する第2の領域の情報と,標本とする対象物の標本情報とブロック情報とを記憶する標本情報記憶部に記憶された対象物のブロック情報とを用いて類似検索処理を実行し,比較処理の候補とする対象物を特定する候補処理部,
前記処理対象の画像情報の第1の領域と,前記候補処理部で候補として特定した対象物の標本情報とを用いて比較処理をすることで,前記第1の領域に写っている対象物を特定する比較処理部,として機能させる画像処理プログラムであって,
前記候補処理部は,
前記第1の領域の画像情報から特徴量を抽出することで,所定以上の広さの範囲にわたって共通の特徴が分布している領域を検出してその領域を消し込み,
残った領域について,共通の特徴量が分布している領域を特定して,その領域を囲む領域を前記第2の領域として特定する,
ことを特徴とする画像処理プログラム。
Computer,
An object stored in a sample information storage unit that stores information in a second area that satisfies a predetermined condition in the first area of image information to be processed, and sample information and block information of the object to be sampled. Candidate processing unit that executes similar search processing using block information and identifies objects to be candidates for comparison processing,
By performing comparison processing using the first region of the image information of the processing target and the sample information of the object specified as a candidate by the candidate processing unit, the object reflected in the first region can be obtained. An image processing program that functions as a specific comparison processing unit.
The candidate processing unit
By extracting the feature amount from the image information of the first region, a region in which common features are distributed over a range of a predetermined size or more is detected and the region is erased.
For the remaining region, a region in which common features are distributed is specified, and a region surrounding the region is specified as the second region.
An image processing program characterized by this.
コンピュータを,
処理対象の画像情報における第1の領域において所定条件を充足する第2の領域の情報と,標本とする対象物の標本情報とブロック情報とを記憶する標本情報記憶部に記憶された対象物のブロック情報とを用いて類似検索処理を実行し,比較処理の候補とする対象物を特定する候補処理部,
前記処理対象の画像情報の第1の領域と,前記候補処理部で候補として特定した対象物の標本情報とを用いて比較処理をすることで,前記第1の領域に写っている対象物を特定する比較処理部,として機能させる画像処理プログラムであって,
前記候補処理部は,
さまざまな第1の領域の画像情報に第2の領域を正解データとして与えた,中間層が多数の層からなるニューラルネットワークの各層のニューロン間の重み付け係数が最適化された学習モデルに対して,前記処理対象の画像情報における第1の領域の画像情報を入力し,その出力値に基づいて,前記第2の領域を特定する,
ことを特徴とする画像処理プログラム。
Computer,
An object stored in a sample information storage unit that stores information in a second area that satisfies a predetermined condition in the first area of image information to be processed, and sample information and block information of the object to be sampled. Candidate processing unit that executes similar search processing using block information and identifies objects to be candidates for comparison processing,
By performing comparison processing using the first region of the image information of the processing target and the sample information of the object specified as a candidate by the candidate processing unit, the object reflected in the first region can be obtained. An image processing program that functions as a specific comparison processing unit.
The candidate processing unit
For a learning model in which the weighting coefficient between neurons in each layer of a neural network consisting of many layers is optimized, in which the second area is given as correct data to the image information of various first areas. The image information of the first region in the image information to be processed is input, and the second region is specified based on the output value.
An image processing program characterized by this.
コンピュータを,
処理対象の画像情報における第1の領域において所定条件を充足する第2の領域の情報と,標本とする対象物の標本情報とブロック情報とを記憶する標本情報記憶部に記憶された対象物のブロック情報とを用いて類似検索処理を実行し,比較処理の候補とする対象物を特定する候補処理部,
前記処理対象の画像情報の第1の領域と,前記候補処理部で候補として特定した対象物の標本情報とを用いて比較処理をすることで,前記第1の領域に写っている対象物を特定する比較処理部,として機能させる画像処理プログラムであって,
前記候補処理部は,
あらかじめ学習モデルとして,さまざまな第1の領域の画像情報における第2の領域内の特徴量を正例とし,さまざまな第1の領域の画像情報における第2の領域外の特徴量を負例として与えた判定処理部に対して,前記処理対象の画像情報における第1の領域の画像情報を分割したメッシュにおける各点を入力し,
その各点について,前記第2の領域に属しているかを前記判定処理部に判定させ,
その判定結果において,前記第2の領域に属していると判定したメッシュを囲む領域を前記第2の領域として特定する,
ことを特徴とする画像処理プログラム。
Computer,
An object stored in a sample information storage unit that stores information in a second area that satisfies a predetermined condition in the first area of image information to be processed, and sample information and block information of the object to be sampled. Candidate processing unit that executes similar search processing using block information and identifies objects to be candidates for comparison processing,
By performing comparison processing using the first region of the image information of the processing target and the sample information of the object specified as a candidate by the candidate processing unit, the object reflected in the first region can be obtained. An image processing program that functions as a specific comparison processing unit.
The candidate processing unit
As a learning model in advance, the feature amount in the second region in the image information of various first regions is used as a positive example, and the feature amount outside the second region in the image information of various first regions is used as a negative example. Each point in the mesh obtained by dividing the image information of the first region in the image information to be processed is input to the given determination processing unit.
For each of the points, the determination processing unit is made to determine whether or not it belongs to the second region.
In the determination result, the region surrounding the mesh determined to belong to the second region is specified as the second region.
An image processing program characterized by this.
コンピュータを,
処理対象の画像情報における第1の領域において所定条件を充足する第2の領域の情報と,標本とする対象物の標本情報とブロック情報とを記憶する標本情報記憶部に記憶された対象物のブロック情報とを用いて類似検索処理を実行し,比較処理の候補とする対象物を特定する候補処理部,
前記処理対象の画像情報の第1の領域と,前記候補処理部で候補として特定した対象物の標本情報とを用いて比較処理をすることで,前記第1の領域に写っている対象物を特定する比較処理部,として機能させる画像処理プログラムであって,
前記候補処理部は,
前記第2の領域の情報と,前記対象物のブロック情報との類似検索処理において,それぞれの大きさ,縮尺,回転のいずれか一以上についてそのままで類似検索処理を実行し,
前記比較処理部は,
前記第1の領域の情報と,前記候補として特定した対象物の標本情報との比較処理において,その大きさ,縮尺,回転のうちいずれか一以上について揃えて比較処理を実行する,
ことを特徴とする画像処理プログラム。
Computer,
An object stored in a sample information storage unit that stores information in a second area that satisfies a predetermined condition in the first area of image information to be processed, and sample information and block information of the object to be sampled. Candidate processing unit that executes similar search processing using block information and identifies objects to be candidates for comparison processing,
By performing comparison processing using the first region of the image information of the processing target and the sample information of the object specified as a candidate by the candidate processing unit, the object reflected in the first region can be obtained. An image processing program that functions as a specific comparison processing unit.
The candidate processing unit
In the similarity search process between the information in the second region and the block information of the object, the similarity search process is executed as it is for any one or more of the respective sizes, scales, and rotations.
The comparison processing unit
In the comparison process between the information in the first region and the sample information of the object specified as the candidate, the comparison process is executed by aligning any one or more of the size, scale, and rotation.
An image processing program characterized by this.
コンピュータを,
画像情報とそれに対応する深さ情報を用いて生成した3次元モデルの一部または全部について,平面に展開する平面展開画像情報を生成し,前記生成した平面展開画像情報の一部または全部を,処理対象の画像情報とする画像情報処理部,
前記処理対象の画像情報における第1の領域において所定条件を充足する第2の領域の情報と,標本とする対象物の標本情報とブロック情報とを記憶する標本情報記憶部に記憶された対象物のブロック情報とを用いて類似検索処理を実行し,比較処理の候補とする対象物を特定する候補処理部,
前記処理対象の画像情報の第1の領域と,前記候補処理部で候補として特定した対象物の標本情報とを用いて比較処理をすることで,前記第1の領域に写っている対象物を特定する比較処理部,
として機能させることを特徴とする画像処理プログラム。
Computer,
For a part or all of the three-dimensional model generated by using the image information and the corresponding depth information, the plane-expanded image information developed on a plane is generated, and a part or all of the generated plane-developed image information is displayed. Image information processing unit, which is the image information to be processed,
An object stored in a sample information storage unit that stores information in a second area that satisfies a predetermined condition in the first area of the image information to be processed, and sample information and block information of the object to be sampled. Candidate processing unit that executes similar search processing using the block information of and identifies the target object to be the candidate for comparison processing.
By performing comparison processing using the first region of the image information of the processing target and the sample information of the object specified as a candidate by the candidate processing unit, the object reflected in the first region can be obtained. Comparison processing unit to identify,
An image processing program characterized by functioning as.
JP2019090148A 2019-05-10 2019-05-10 Image processing system Active JP6788877B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019090148A JP6788877B2 (en) 2019-05-10 2019-05-10 Image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019090148A JP6788877B2 (en) 2019-05-10 2019-05-10 Image processing system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020155083A Division JP7037777B2 (en) 2020-09-16 2020-09-16 Image processing system

Publications (2)

Publication Number Publication Date
JP2020187438A JP2020187438A (en) 2020-11-19
JP6788877B2 true JP6788877B2 (en) 2020-11-25

Family

ID=73221733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019090148A Active JP6788877B2 (en) 2019-05-10 2019-05-10 Image processing system

Country Status (1)

Country Link
JP (1) JP6788877B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7059666B2 (en) * 2018-02-07 2022-04-26 株式会社三洋物産 Pachinko machine

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5319828B1 (en) * 2012-07-31 2013-10-16 楽天株式会社 Article estimation system, article estimation method, and article estimation program
JP2015210651A (en) * 2014-04-25 2015-11-24 サントリーシステムテクノロジー株式会社 Merchandise identification system
JP2016024596A (en) * 2014-07-18 2016-02-08 日本電気株式会社 Information processor

Also Published As

Publication number Publication date
JP2020187438A (en) 2020-11-19

Similar Documents

Publication Publication Date Title
US10803292B2 (en) Separation of objects in images from three-dimensional cameras
CN108734087B (en) Object automatic identification method and system, shopping equipment and storage medium
US20200372626A1 (en) Systems and methods for object dimensioning based on partial visual information
US20200134857A1 (en) Determining positions and orientations of objects
US20140241570A1 (en) Using a combination of 2d and 3d image data to determine hand features information
WO2020134528A1 (en) Target detection method and related product
CN110717366A (en) Text information identification method, device, equipment and storage medium
US20230063197A1 (en) System and method for identifying items
TW200539069A (en) Apparatus, method and program for preventing unauthorized copying
US20170076428A1 (en) Information processing apparatus
JP2019192022A (en) Image processing apparatus, image processing method, and program
US11281888B2 (en) Separation of objects in images from three-dimensional cameras
CN112036400A (en) Method for constructing network for target detection and target detection method and system
US20200379485A1 (en) Method for positioning a movable platform, and related device and system
JP6788877B2 (en) Image processing system
JP6746123B2 (en) Image recognition system
JP6628336B2 (en) Information processing system
JP6844803B1 (en) Method and calculation system for object recognition or object registration based on image classification
JP7037777B2 (en) Image processing system
JP6536707B1 (en) Image recognition system
JP6890849B2 (en) Information processing system
JP6966749B2 (en) Image processing system
KR20160148806A (en) Object Detecter Generation Method Using Direction Information, Object Detection Method and Apparatus using the same
JP6936529B1 (en) Verification system
JP6887167B2 (en) Image processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200806

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201009

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201023

R150 Certificate of patent or registration of utility model

Ref document number: 6788877

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150