JP7279755B2 - Information processing device, information processing system, control method, and program - Google Patents
Information processing device, information processing system, control method, and program Download PDFInfo
- Publication number
- JP7279755B2 JP7279755B2 JP2021143146A JP2021143146A JP7279755B2 JP 7279755 B2 JP7279755 B2 JP 7279755B2 JP 2021143146 A JP2021143146 A JP 2021143146A JP 2021143146 A JP2021143146 A JP 2021143146A JP 7279755 B2 JP7279755 B2 JP 7279755B2
- Authority
- JP
- Japan
- Prior art keywords
- feature points
- information processing
- captured image
- area
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 179
- 238000000034 method Methods 0.000 title claims description 51
- 238000001514 detection method Methods 0.000 claims description 38
- 238000003384 imaging method Methods 0.000 claims description 15
- 238000010079 rubber tapping Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 description 24
- 238000010586 diagram Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000008901 benefit Effects 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000013441 quality evaluation Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Description
本発明は物品の管理に関する。 The present invention relates to item management.
撮像画像の画質を評価する技術が開発されている。例えば特許文献1は、撮像画像の輝度信号に対してヒストグラムを生成し、このヒストグラムに基づいて、コントラストと露出を評価する技術を開示している。その他にも例えば、特許文献2は、画像の明暗の分布を色成分ごとに生成し、このヒストグラムに基づいて、色成分ごとの画質不良レベルを判定する技術を開示している。
Techniques for evaluating image quality of captured images have been developed. For example,
画像解析の活用方法の一つとして、物品の管理がある。例えば物品には、店舗の商品棚に陳列されている商品や、自動販売機に陳列される商品サンプルなどがある。例えば特許文献3は、陳列場所が撮像された撮像画像から商品と値札を認識することで、陳列場所に置かれている商品と、陳列場所に付されている棚札との関係が正しいかどうかを自動的に判定する技術を開示している。 One of the utilization methods of image analysis is the management of articles. For example, articles include products displayed on product shelves in stores, product samples displayed in vending machines, and the like. For example, in Patent Document 3, by recognizing products and price tags from a captured image of a display location, it is possible to determine whether the relationship between the products placed in the display location and the shelf labels attached to the display location is correct. A technology for automatically determining is disclosed.
この点、特許文献1や特許文献2では、画質評価後の撮像画像に対して画像解析を行うことは想定されておらず、物品の管理のために画像解析される撮像画像に求められる画質については言及されていない。また、特許文献3は、解析する撮像画像の画質については言及していない。
In this regard, in
本願発明は上記の課題に鑑みてなされたものであり、その目的の一つは、物品の管理のために解析される撮像画像の画質を評価する技術を提供することである。 The present invention has been made in view of the above problems, and one of its purposes is to provide a technique for evaluating the image quality of captured images that are analyzed for managing articles.
本発明の情報処理装置は、1)物品の陳列場所を撮像することで生成された撮像画像に含まれる領域であって、かつ、物品を含む領域である部分領域から、特徴点を検出する検出部と、2)検出された特徴点の数と、前記特徴点の数の基準値との関係が、所定の条件を満たすか否かを判定する判定部と、3)所定の条件が満たされていない場合、所定の通知を出力する出力部と、を有する。
前記部分領域は、ユーザによって指定された領域または予め定められた領域であり、前記ユーザによって指定された領域は、ディスプレイ装置へのタップまたはドラッグにより範囲を指定された領域である。
前記所定の条件は、(A)複数の前記部分領域それぞれから検出された特徴点の数の合計が前記基準値以上であること、(B)複数の前記部分領域それぞれから検出された特徴点の数がいずれも前記基準値以上であること、(C)複数の前記部分領域のうち、所定数以上の部分領域において検出された特徴点の数がいずれも前記基準値以上であること、のいずれかである。
The information processing apparatus of the present invention includes: 1) Detection for detecting feature points from a partial area that is an area that is included in a captured image that is generated by capturing an image of an item display place and that includes the item. 2) a determination unit that determines whether the relationship between the number of detected feature points and the reference value for the number of feature points satisfies a predetermined condition; 3) if the predetermined condition is satisfied; and an output unit for outputting a predetermined notification if not.
The partial area is an area specified by a user or a predetermined area, and the area specified by the user is an area whose range is specified by tapping or dragging to the display device.
The predetermined conditions are (A) that the total number of feature points detected from each of the plurality of partial areas is equal to or greater than the reference value, and (B) the number of feature points detected from each of the plurality of partial areas. (C) the number of feature points detected in a predetermined number or more of the plurality of partial areas is equal to or greater than the reference value. or
本発明の情報処理システムは、第1情報処理装置と第2情報処理装置を有する。
第1情報処理装置は、1)物品の陳列場所を撮像することで生成された撮像画像に含まれる領域であって、かつ、物品を含む領域である部分領域から、特徴点を検出する検出部と、2)検出された特徴点の数と、前記特徴点の数の基準値との関係が、所定の条件を満たすか否かを判定する判定部と、3)所定の条件が満たされていない場合には所定の通知を出力し、所定の条件が満たされている場合には撮像画像を出力する出力部と、を有する。
第2情報処理装置は、第1情報処理装置によって出力された撮像画像から検出される特徴点を用いて、その撮像画像に含まれる物品の認識を行う。
前記部分領域は、ユーザによって指定された領域または予め定められた領域であり、前記ユーザによって指定された領域は、ディスプレイ装置へのタップまたはドラッグにより範囲を指定された領域である。
前記所定の条件は、(A)複数の前記部分領域それぞれから検出された特徴点の数の合計が前記基準値以上であること、(B)複数の前記部分領域それぞれから検出された特徴点の数がいずれも前記基準値以上であること、(C)複数の前記部分領域のうち、所定数以上の部分領域において検出された特徴点の数がいずれも前記基準値以上であること、のいずれかである。
An information processing system of the present invention has a first information processing device and a second information processing device.
The first information processing device includes: 1) a detection unit that detects feature points from a partial area that is an area that is included in a captured image that is generated by capturing an image of an item display place and that is an area that includes the item; 2) a determination unit for determining whether or not the relationship between the number of detected feature points and the reference value for the number of feature points satisfies a predetermined condition; and 3) whether the predetermined condition is satisfied. and an output unit that outputs a predetermined notification when there is no image, and outputs the captured image when a predetermined condition is satisfied.
The second information processing device uses feature points detected from the captured image output by the first information processing device to recognize an article included in the captured image.
The partial area is an area specified by a user or a predetermined area, and the area specified by the user is an area whose range is specified by tapping or dragging to the display device.
The predetermined conditions are (A) that the total number of feature points detected from each of the plurality of partial areas is equal to or greater than the reference value, and (B) the number of feature points detected from each of the plurality of partial areas. (C) the number of feature points detected in a predetermined number or more of the plurality of partial areas is equal to or greater than the reference value. or
本発明の制御方法は、コンピュータによって実行される制御方法である。当該制御方法は、1)物品の陳列場所を撮像することで生成された撮像画像に含まれる領域であって、かつ、物品を含む領域である部分領域から、特徴点を検出する検出ステップと、2)検出された特徴点の数と、前記特徴点の数の基準値との関係が、所定の条件を満たすか否かを判定する判定ステップと、3)所定の条件が満たされていない場合、所定の通知を出力する出力ステップと、を有する。
前記部分領域は、ユーザによって指定された領域または予め定められた領域であり、前記ユーザによって指定された領域は、ディスプレイ装置へのタップまたはドラッグにより範囲を指定された領域である。
前記所定の条件は、(A)複数の前記部分領域それぞれから検出された特徴点の数の合計が前記基準値以上であること、(B)複数の前記部分領域それぞれから検出された特徴点の数がいずれも前記基準値以上であること、(C)複数の前記部分領域のうち、所定数以上の部分領域において検出された特徴点の数がいずれも前記基準値以上であること、のいずれかである。
The control method of the present invention is a control method executed by a computer. The control method includes: 1) a detection step of detecting feature points from a partial area that is an area that is included in a captured image generated by imaging a display place of an item and that is an area that includes the item; 2) a determination step of determining whether or not the relationship between the number of detected feature points and the reference value of the number of feature points satisfies a predetermined condition; and 3) when the predetermined condition is not satisfied. , and an output step of outputting a predetermined notification.
The partial area is an area specified by a user or a predetermined area, and the area specified by the user is an area whose range is specified by tapping or dragging to the display device.
The predetermined conditions are (A) that the total number of feature points detected from each of the plurality of partial areas is equal to or greater than the reference value, and (B) the number of feature points detected from each of the plurality of partial areas. (C) the number of feature points detected in a predetermined number or more of the plurality of partial areas is equal to or greater than the reference value. or
本発明のプログラムは、本発明の制御方法が有する各ステップをコンピュータに実行させる。 The program of the present invention causes a computer to execute each step of the control method of the present invention.
本発明によれば、物品の管理のために解析される撮像画像の画質を評価する技術が提供される。 ADVANTAGE OF THE INVENTION According to this invention, the technique which evaluates the image quality of the picked-up image analyzed for management of articles|goods is provided.
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また、特に説明する場合を除き、各ブロック図において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。 BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. In addition, in all the drawings, the same constituent elements are denoted by the same reference numerals, and the description thereof will be omitted as appropriate. Moreover, in each block diagram, each block does not represent a configuration in units of hardware, but a configuration in units of functions, unless otherwise specified.
以下の説明において、特に説明しない限り、各種の基準値や所定値は、これらを利用する機能構成部からアクセス可能な記憶装置に予め記憶させておく。 In the following description, unless otherwise specified, various reference values and predetermined values are stored in advance in a storage device that can be accessed from the functional component that uses them.
[実施形態1]
<概要>
図1は、実施形態1に係る情報処理システム4000の動作を概念的に例示する図である。ここで、図1を用いて説明する情報処理システム4000の動作は、情報処理システム4000の理解を容易にするための例示であり、情報処理システム4000の動作を限定するものではない。情報処理システム4000の動作の詳細やバリエーションについては後述する。
[Embodiment 1]
<Overview>
FIG. 1 is a diagram conceptually illustrating the operation of an
情報処理システム4000は、第1情報処理装置2000と第2情報処理装置3000を有する。第1情報処理装置2000は、物品が陳列されている陳列場所が撮像された撮像画像の生成に利用される。図1では、第1情報処理装置2000に設けられているカメラ10によって陳列場所20が撮像された結果、撮像画像12が生成されている。撮像画像12には、陳列場所20及び陳列場所20に陳列されている物品が含まれている。例えば物品は、商品棚に陳列される商品や、自動販売機に陳列されている商品サンプルなどである。なお、前者の場合には商品棚が陳列場所20となり、後者の場合には自動販売機が陳列場所20となる。
The
第1情報処理装置2000が対象とする陳列場所は、物品が陳列される場所であればよく、図1に示されるような複数の段を持つものに限定されない。例えば、机に商品が平積みにされるようなケースでは、この机が陳列場所として扱われる。
The display place targeted by the first
第1情報処理装置2000は、撮像画像12を出力する。第2情報処理装置3000は、第1情報処理装置2000から出力された撮像画像12に対してオブジェクト認識処理を行う。これにより、第2情報処理装置3000は、陳列場所20に陳列されている物品を認識する。ここで、「物品の認識」とは、その物品が何であるか(例えば物品の識別子)を特定することを意味する。
The first
オブジェクト認識処理の手法の一つとして、画像から検出される特徴点を利用してオブジェクト認識を行う手法がある。例えば特徴点は、コーナー、エッジ、又はブロブなどである。例えば、データベースに予め登録されている物品の特徴点群と、撮像画像12から検出される特徴点群とのマッチングを行うことで、撮像画像12から検出された特徴点群がその物品を表しているかどうかの判定が行われる。そして、データベースに登録されている物品の中に、その特徴点群と撮像画像12から検出される特徴点群とが十分にマッチするものがある場合、撮像画像12からその物品が認識される。
As one method of object recognition processing, there is a method of performing object recognition using feature points detected from an image. For example, feature points are corners, edges, or blobs. For example, by matching a feature point group of an article registered in advance in a database with a feature point group detected from the captured
ここで、撮像画像12に物品が含まれているにもかかわらず、撮像画像12に対して特徴点を利用したオブジェクト認識処理を行っても、その物品を認識できないことがある。このような事態が生じる原因には、例えば、撮像画像12においてぶれ、ボケ、白とび、又は黒つぶれなどが生じているといった原因がある。ぶれやボケが生じている画像領域からは、ぶれやボケなどが生じていない画像領域と比較し、検出できる特徴点の数が少なくなる。その結果、前述した特徴点のマッチングによる物品の認識が難しくなる。
Here, even if the captured
撮像画像12から物品を認識できないという事態が生じないように、第2情報処理装置3000が利用する撮像画像12は、オブジェクト認識処理に適したものであることが好適である。すなわち、第1情報処理装置2000には、オブジェクト認識処理に適した撮像画像12を出力することが求められる。
It is preferable that the captured
そこで第1情報処理装置2000は、撮像画像12がオブジェクト認識処理に適したものであるか否かを判定する機能を有する。具体的には、第1情報処理装置2000は、撮像画像12から特徴点を検出し、検出した特徴点の数が所定の条件を満たすか否かを判定する。そして、特徴点の数が所定の条件を満たさない場合、第1情報処理装置2000は所定の通知40を出力する。通知40は、撮像画像12がオブジェクト認識処理に適した画像でないことを第1情報処理装置2000のユーザが把握できるようにするための通知である。例えば通知40は、撮影のやり直しを促す通知である。通知40の出力先は、例えば、情報処理装置2000に設けられているディスプレイ装置である。
Therefore, the first
一方、特徴点の数が所定の条件を満たす場合、第1情報処理装置2000は撮像画像12を出力する。第2情報処理装置3000は、この撮像画像12について、特徴点を用いたオブジェクト認識処理を行うことにより、物品の認識を行う。撮像画像12から検出される特徴点の数が所定の条件を満たしているため、撮像画像12から検出される特徴点の数が所定の条件を満たさない場合と比較し、撮像画像12から物品を認識できる蓋然性が高くなる。
On the other hand, when the number of feature points satisfies a predetermined condition, the first
<作用効果>
本実施形態の情報処理システム4000は、撮像画像12から検出される特徴点の数が所定の条件を満たしているかを判定し、所定の条件が満たされていない場合には通知40を出力する。これにより、撮像画像12がオブジェクト認識処理に適したものでない場合に、そのことを第1情報処理装置2000のユーザが把握できるようになる。
<Effect>
The
ここで、撮像画像12の画質を評価する指標として、撮像画像12の輝度の分布に着目したり、輝度の分布から導き出される明るさやコントラストに着目したりする方法も考えられる。これに対し、情報処理システム4000は、撮像画像12から検出される特徴点の数に着目している。このように、特徴点という物品の認識に直接利用される情報に着目して撮像画像12を評価することにより、撮像画像12が物品の認識に適したものであるか否かをより高い精度で判定できる。すなわち、情報処理システム4000によれば、画像解析(物品の認識)に利用される撮像画像12の画質を高い精度で評価することができる。
Here, as an index for evaluating the image quality of the captured
また、情報処理システム4000には、物品を管理する作業の効率を高くするという利点もある。撮像画像12を利用して物品を管理する方法として、カメラ10が陳列場所20を生成したタイミングで第2情報処理装置3000に物品認識を行わせ、第2情報処理装置3000が撮像画像12から物品を認識できたことを確認してから次の撮像を行うという方法が考えられる。しかしながらこの方法では、第2情報処理装置3000が物品の認識を完了するまで陳列場所20を撮像する作業が遅延する。そのため、作業全体に要する時間が長くなる。
The
その他の方法として、撮像の際には撮像画像12の画質をチェックせず、複数の撮像画像12について後でまとめて(例えば、夜間のバッチ処理で)第2情報処理装置3000による物品認識を行うという方法も考えられる。しかしながらこの方法では、第2情報処理装置3000が撮像画像12から物品を認識できなかった場合に、陳列場所20の撮像をやり直すという手戻りが発生する。作業における手戻りの発生は、作業効率を下げる要因となる。特に、店舗にラウンダー等の作業員が出向して陳列場所20を撮像する作業を行う場合、後日再度ラウンダーがその店舗に出向しなければならない事態が生じ、作業効率が大きく下がる。
As another method, the image quality of the captured
これに対し、本実施形態の情報処理システム4000では、第1情報処理装置2000が撮像画像12の画質をチェックして出力し、チェック後の撮像画像12を第2情報処理装置3000が利用する。ここで、第1情報処理装置2000が行う処理は特徴点の検出及びその数のチェックであり、物品を認識する処理と比較して処理に要する時間が短い。よって、第1情報処理装置2000による撮像画像12のチェックが完了するのを待っても、陳列場所20の撮像を行う作業に与える影響は小さいと言える。また、撮像画像12の特徴点の数が所定の条件を満たさなければ通知40が出力されるため、第1情報処理装置2000のユーザはその場で陳列場所20の撮像をやり直すことができる。そのため、作業の手戻りが発生することを防ぐことができる。
In contrast, in the
このように、情報処理システム4000によれば、特徴点の数のチェックという比較的短い時間で完了する処理で撮像画像12の画質をチェックすることにより、陳列場所20を撮像する作業に遅延が生じることを避けつつ、作業の手戻りの発生を防ぐことができる。よって、物品の管理作業全体の効率が高くなる。
As described above, according to the
以下、情報処理システム4000についてより詳細に説明する。
The
<機能構成の例>
図2は、情報処理システム4000の機能構成を例示する図である。情報処理システム4000は、第1情報処理装置2000及び第2情報処理装置3000を有する。第1情報処理装置2000は、検出部2020、判定部2040、及び出力部2060を有する。検出部2020は、撮像画像12から特徴点を検出する。判定部2040は、検出された特徴点が所定の条件を満たすか否かを判定する。出力部2060は、検出された特徴点が所定の条件を満たさない場合、通知40を出力する。一方で、出力部2060は、検出された特徴点が所定の条件を満たす場合、撮像画像12を出力する。
<Example of functional configuration>
FIG. 2 is a diagram illustrating the functional configuration of the
第2情報処理装置3000は、第1情報処理装置2000によって出力された撮像画像12を取得する。そして、第2情報処理装置3000は、撮像画像12から検出される特徴点を用いてオブジェクト認識処理を行うことで、撮像画像12に含まれる物品の認識を行う。
The second
<第1情報処理装置2000のハードウエア構成の例>
第1情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、第1情報処理装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
<Example of Hardware Configuration of First
Each functional configuration unit of the first
図3は、第1情報処理装置2000を実現する計算機1000の構成を例示する図である。計算機1000は種々の計算機である。例えば計算機1000は、タブレット端末、スマートフォン、又なヘッドマウントディスプレイなどの可搬型の計算機である。計算機1000は、第1情報処理装置2000を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。
FIG. 3 is a diagram illustrating the configuration of the
計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。プロセッサ1040は、CPU (Central Processing Unit) や GPU (Graphics Processing Unit) などで実現されるプロセッサである。メモリ1060は、RAM (Random Access Memory) などで実現される主記憶装置である。ストレージデバイス1080は、ハードディスク、SSD (Solid State Drive)、メモリカード、又は ROM (Read Only Memory) などで実現される補助記憶装置である。
入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース1100には、キーボードなどの入力装置や、ディスプレイ装置などの出力装置が接続される。その他にも例えば、入出力インタフェース1100には、カメラ10が接続される。
The input/
ネットワークインタフェース1120は、計算機1000をネットワークに接続するためのインタフェースである。この通信網は、例えば LAN(Local Area Network)や WAN(Wide Area Network)である。ネットワークインタフェース1120がネットワークに接続する方法は、無線接続であってもよいし、有線接続であってもよい。
A
ストレージデバイス1080は第1情報処理装置2000の各機能を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールを実行することで、そのプログラムモジュールに対応する各機能を実現する。
The
<カメラ10について>
カメラ10は、撮像を行い、撮像結果を表す画像を生成することができる任意の撮像装置である。例えば第1情報処理装置2000がスマートフォン等の可搬型の端末で実現される場合、カメラ10には、第1情報処理装置2000と一体として設けられるカメラを利用することができる。ただし、カメラ10は、第1情報処理装置2000と別体として設けられてもよい。
<About
<第2情報処理装置3000のハードウエア構成の例>
第2情報処理装置3000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、第2情報処理装置3000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
<Example of Hardware Configuration of Second
Each functional configuration unit of the second
図4は、第2情報処理装置3000を実現する計算機5000の構成を例示する図である。計算機5000は種々の計算機である。例えば計算機5000は、Personal Computer(PC)やサーバマシンなどである。計算機5000は、第2情報処理装置3000を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。
FIG. 4 is a diagram illustrating the configuration of a
計算機5000は、バス5020、プロセッサ5040、メモリ5060、ストレージデバイス5080、入出力インタフェース5100、及びネットワークインタフェース5120を有する。バス5020、プロセッサ5040、メモリ5060、ストレージデバイス5080、入出力インタフェース5100、及びネットワークインタフェース5120が有する機能はそれぞれ、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120が有する機能と同様である。
ただし、ストレージデバイス5080には、第2情報処理装置3000の各機能を実現するためのプログラムモジュールが記憶される。プロセッサ5040は、これら各プログラムモジュールを実行することで、そのプログラムモジュールに対応する各機能を実現する。
However, the
<処理の流れ>
図5は、実施形態1の情報処理システム4000によって実行される処理の流れを例示するフローチャートである。検出部2020は、撮像画像12を取得する(S102)。検出部2020は、撮像画像12から特徴点を検出する(S104)。出力部2060は、撮像画像12から検出された特徴点の数が所定の条件を満たすか否かを判定する(S106)。所定の条件が満たされない場合(S106:NO)、出力部2060は通知40を出力する(S108)。一方、所定の条件が満たされる場合(S106:YES)、出力部2060は、撮像画像12を出力する(S110)。
<Process flow>
FIG. 5 is a flowchart illustrating the flow of processing executed by the
第2情報処理装置3000は、出力部2060によって出力された撮像画像12を取得する(S112)。第2情報処理装置3000は、撮像画像12から検出される特徴点を用いて、撮像画像12に含まれる物品を認識する(S114)。
The second
第1情報処理装置2000が図5に示す一連の処理を実行する契機は様々である。例えば、カメラ10が撮像画像12を生成したことに応じて検出部2020がこの撮像画像12を取得することにより、上記一連の処理が実行される。その他にも例えば、撮像画像12を指定する入力操作を受け付け、指定された撮像画像12について図5に示す一連の処理を実行してもよい。この場合、第1情報処理装置2000は、ユーザから入力操作を受け付けたことを契機として、図5に示す一連の処理を実行する。
There are various opportunities for the first
第2情報処理装置3000が図5に示す一連の処理を実行する契機は様々である。例えば第2情報処理装置3000は、第1情報処理装置2000によって撮像画像12が出力されたことに応じ、その撮像画像12を対象として、上記図5に示す処理を実行する。その他にも例えば、第2情報処理装置3000は、所定のタイミングで、1つ以上の撮像画像12を対象に、上記一連の処理を実行してもよい。この場合、例えば、第1情報処理装置2000から出力される1つ以上の撮像画像12を記憶装置に記憶させておき、第2情報処理装置3000がこの記憶装置から撮像画像12を読み出すようにする。すなわち、記憶装置に記憶されている1つ以上の撮像画像12が、所定のタイミングでバッチ処理される。
There are various opportunities for the second
<撮像画像12の取得:S102>
検出部2020は、撮像画像12を取得する(S102)。例えば検出部2020は、撮像画像12が記憶されている記憶装置から撮像画像12を取得する。撮像画像12が記憶されている記憶装置は、検出部2020の内部に設けられていてもよいし、外部に設けられていてもよい。その他にも例えば、検出部2020は、ユーザによる入力操作によって入力される撮像画像12を取得する。その他にも例えば、検出部2020は、他の装置によって送信される撮像画像12を受信することで、撮像画像12を取得する。
<Acquisition of captured image 12: S102>
The
ここで、検出部2020が取得する撮像画像12は、カメラ10によって生成された撮像画像そのものであってもよいし、カメラ10によって生成された撮像画像に何らかの処理が施されたものであってもよい。後者の場合、例えば、カメラ10によって生成された撮像画像に対してトリミングを行って不要な画像領域を取り除いたり、カメラ10によって生成された撮像画像に対して手ぶれ補正や色調補正を施したりすることで、撮像画像12が生成される。
Here, the captured
<特徴点の検出:S104>
検出部2020は、撮像画像12から特徴点を検出する(S104)。ここで、画像からエッジ、コーナー、又はブロブなどの特徴点を検出する技術には、既存の技術を利用することができる。
<Detection of Feature Points: S104>
The
<判定部2040による判定:S106>
判定部2040は、撮像画像12から検出された特徴点の数が所定の条件を満たすか否かを判定する(S106)。ここで、概念的には、所定の条件は、撮像画像12が物品の認識に利用することに適しているものである場合に満たされる条件である。以下、そのような条件のバリエーションについて例示する。
<Determination by Determination Unit 2040: S106>
The
<<撮像画像12全体における特徴点の数>>
例えば所定の条件は、「撮像画像12全体から検出される特徴点の数が基準値以上である」という条件である。この場合、検出部2020は、撮像画像12全体について、特徴点を検出する処理を行う。そして、判定部2040は、撮像画像12全体から検出された特徴点の数が基準値以上であるか否かを判定する。検出された特徴点の数が基準値以上であれば所定の条件が満たされていることになり、検出された特徴点の数が基準値未満であれば所定の条件が満たされていないことになる。
<<The number of feature points in the entire captured
For example, the predetermined condition is that "the number of feature points detected from the entire captured
<<撮像画像12の特定の領域から検出される特徴点の数>>
例えば所定の条件は、「撮像画像12に含まれる部分領域から検出される特徴点の数が基準値以上である」という条件である。検出部2020は、撮像画像12内の部分領域について、特徴点を検出する処理を行う。そして判定部2040は、部分領域から検出された特徴点の数が基準値以上であるか否かを判定する。
<<Number of Feature Points Detected from Specific Region of Captured
For example, the predetermined condition is that "the number of feature points detected from the partial area included in the captured
特徴点検出の対象とする部分領域は、ユーザによって指定されてもよいし、予め定められていてもよい。以下、それぞれのケースについて説明する。 The partial area targeted for feature point detection may be specified by the user or may be determined in advance. Each case will be described below.
<<<部分領域をユーザが指定するケース>>>
例えば第1情報処理装置2000は、第1情報処理装置2000に設けられているディスプレイ装置に撮像画像12を表示させ、このディスプレイ装置に表示された撮像画像12に対して部分領域を指定する入力を受け付ける。指定できる部分領域は1つであってもよいし、複数であってもよい。
<<<Case where the user specifies a partial area>>>
For example, the first
図6は、部分領域を指定する入力を受け付ける様子を例示する図である。図6において、第1情報処理装置2000に設けられているディスプレイ装置30には、タッチパネルが備えられている。
FIG. 6 is a diagram illustrating how an input designating a partial area is received. In FIG. 6, the
図6の上段の例において、ユーザは、ディスプレイ装置30をタップしている。第1情報処理装置2000は、タップされた位置を中心とする所定サイズの領域を、部分領域14として定義する。一方、図6の下段の例において、ユーザは、ディスプレイ装置30をドラッグしている。例えば、第1情報処理装置2000は、ドラッグ位置の始点から終点まで所定サイズの領域を移動させた場合にその領域が通過する範囲全体を、部分領域14として定義する。
In the upper example of FIG. 6, the user taps the
ここで、部分領域14は、物品を含む領域であることが好ましい。撮像画像12から物品を認識できるためには、物品を含む領域において十分な数の特徴点が検出されることが必要であるため、特徴点の数についての検証は、物品を含む領域を対象として行われることが好適である。
Here, the
そこでユーザは、入力操作において物品を含む領域を指定することが好適である。例えば図6の上段の例では、ユーザは、物品の位置をタップすることで、物品が含まれる領域を指定している。また、図6の下段の例では、ユーザは、商品棚のうち、物品が陳列される領域をドラッグすることで、物品が含まれる領域を指定している。 Therefore, it is preferable for the user to specify the area including the article in the input operation. For example, in the example in the upper part of FIG. 6, the user designates an area including the item by tapping the position of the item. Further, in the example shown in the lower part of FIG. 6, the user designates an area including the article by dragging the area where the article is displayed in the product shelf.
<<<部分領域が予め決められているケース>>>
検出部2020は、予め定められている部分領域14から特徴点を検出する。部分領域14を定義する情報は、検出部2020からアクセス可能な記憶装置に予め記憶させておく。
<<<Case where the partial area is predetermined>>>
The
部分領域14は、任意の領域とすることができる。図7は、部分領域が予め定められているケースを例示する図である。左側の例では、部分領域14が1つあり、撮像画像12の中央に位置する。中央の例では、部分領域14が3つあり、それぞれ撮像画像12の左上、中央、及び右下に位置する。右側の例では、部分領域14が3つあり、それぞれ撮像画像12において物品が陳列されると推測される領域である。
The
ここで、撮像画像12において物品が陳列される領域を推測する方法について説明する。前提として、第1情報処理装置2000のユーザは、横方向に位置をずらしながら陳列場所20を繰り返し撮像することで、陳列場所20に陳列されている物品を撮像していくとする。図8は、横方向に位置をずらしながら行う撮像を概念的に例示する図である。図8では、横方向に長い陳列場所20が、横方向に位置を5回ずらして撮像される。なお、撮像されない物品がないように、撮像範囲を一部重複させている。
Here, a method for estimating an area where articles are displayed in the captured
このように横方向に位置をずらしながら撮像する場合、2回目以降に生成される撮像画像12において物品が陳列される高さ方向の位置は、1回目の撮像画像12と同じであると推測できる。そこで、第1情報処理装置2000は、1回目の撮像画像12について、ユーザから、物品が陳列されている領域を指定する入力を受け付ける。例えばこの入力は、図6の下段に示した入力と同様である。そして、第1情報処理装置2000は、以降に生成される撮像画像12については自動的に、上記指定された領域と同じ領域を部分領域14として設定する。
When images are captured while shifting the position in the horizontal direction in this way, it can be assumed that the position in the height direction where the article is displayed in the captured
<<物品の種類ごとの基準値>>
撮像画像12全体や部分領域14について定められる基準値は、陳列される物品の種類に応じて異なっていてもよい。形状や模様が複雑な物品ほど、物品の認識に必要となる基準値が多くなる傾向があるためである。例えば、物品の種類と基準値とを対応づけた情報を、予め記憶装置に記憶させておく。情報処理装置2000は、陳列場所20に陳列されている物品の種類を指定する入力を受け付け、指定された種類に対応する基準値を記憶装置から取得し、この基準値を利用する。
<<Standard values for each type of goods>>
The reference value determined for the entire captured
<<複数存在する部分領域14の基準値について>>
部分領域14が複数存在する場合、基準値は、各部分領域14から検出される特徴点の合計数について定められていてもよいし、個々の部分領域14から検出される特徴点の数について定められていてもよい。前者の場合、所定の条件は、「各部分領域14から検出される特徴点の合計数が基準値以上である」という条件となる。例えば判定部2040は、各部分領域14に含まれる画素を合計した値に単位基準値を乗じることで得られる値を基準値とする。
<<Regarding Reference Values of Multiple
When there are a plurality of
各部分領域14から検出される特徴点の合計数について基準値を定めることには、検出される特徴点の数が少ない部分領域14があったとしても、他の部分領域14から十分な数の特徴点が検出されれば、所定の条件が満たされることになるという利点がある。例えば図7の真ん中の例のように、予め定められた部分領域14から特徴点を検出する場合、複数の部分領域14の中に、物品が含まれない領域(例えば商品棚の枠)が存在しうる。このように物品が含まれない領域は、物品が含まれる領域と比較し、検出される特徴点の数が少ない蓋然性が高い。しかしながら、物品が含まれる領域から十分な数の特徴点が得られれば物品の認識には支障がないため、このように物品が含まれない領域から検出される特徴点の数は少なくてもよい。そこで、部分領域14から検出される特徴点の合計数について基準値を定めておくことにより、物品を内部に含まない部分領域14があったとしても、他の部分領域14から十分な数の特徴点が検出されれば、所定の条件が満たされるようにしておく。
In order to set a reference value for the total number of feature points detected from each
個々の部分領域14から検出される特徴点の数について基準値を定める場合、例えば判定部2040は、特徴点の数が基準値未満である部分領域14が1つでも存在すれば、通知40を出力する。すなわち、「全ての部分領域14において、特徴点の数が基準値以上である」を所定の条件とする。例えばユーザが物品の位置を複数指定することで複数の部分領域14が定められた場合、これらの部分領域14はいずれも物品の認識に利用できる必要がある。そこで、全ての部分領域14について十分な数の特徴点が検出されるようにする。
When setting a reference value for the number of feature points detected from each
ただし、特徴点の数が基準値以上となる部分領域14の数にも、基準値を設けるようにしてもよい。具体的には、判定部2040は、特徴点の数が基準値以上である部分領域14の数が所定数未満である場合に、通知40を出力する。すなわち、「所定数以上の部分領域14において、特徴点の数が基準値以上である」を所定の条件とうる。
However, a reference value may also be set for the number of
なお、個々の部分領域14から検出される特徴点の数について基準値を定める場合、例えば判定部2040は、各部分領域14の基準値を、その部分領域14に含まれる画素の数に単位基準値を乗じることで得られる値とする。
When determining the reference value for the number of feature points detected from each
<<複数の撮像画像12の一部を重複させるケースについて>>
図8に示したように、第1情報処理装置2000のユーザが、横方向に位置をずらしながら陳列場所20を繰り返し撮像することで、陳列場所20に陳列されている物品を撮像していくケースがある。そしてこの場合、図8に示すように、隣接する撮像範囲を一部重複させることが好適である。
<<Regarding a case where a part of a plurality of captured
As shown in FIG. 8, the user of the first
ここで、隣接する撮像範囲を一部重複させると、或る撮像画像12とその次に生成される撮像画像12とにおいて、一部の領域が、略同一の場所を撮像した領域となる。以下、この領域を、共通領域と呼ぶ。これら2つの撮像画像12がいずれもブレなどがない適切な画像であれば、共通領域から検出される特徴点の数の差は小さいと考えられる。
Here, if adjacent imaging ranges are partially overlapped, a certain captured
そこで、このように横方向に位置をずらしながら撮像を行うという方法で第1情報処理装置2000を運用する場合、第1情報処理装置2000は、部分領域14の一つとして前述した共通領域を設定してもよい。ただし、共通領域を部分領域14として設定できるのは、2回目以降の撮像で生成される撮像画像12である。
Therefore, when the first
この場合、共通領域に対応する部分領域14から検出される特徴点の数については、基準値を、前の撮像画像12の共通領域から検出された特徴点の数に基づいて設定してもよい。例えば、前の撮像画像12の共通領域から検出された特徴点の数 N に所定の係数αを乗じたαN を基準値とする。α=1の場合、前の撮像画像12の共通領域から検出された特徴点の数を基準値とすることになる。一方、α<1の場合、前の撮像画像12の共通領域から検出された特徴点の数よりも小さい値を基準値とすることになる。αを1に近い1未満の値(例えば、0.9など)に設定することにより、特徴点の数の多少の減少を許容することができる。
In this case, for the number of feature points detected from the
<通知40の出力:S108>
出力部2060は、撮像画像12から検出される特徴点の数が所定の条件を満たさない場合に(S106:NO)、通知40を出力する(S108)。通知40は、撮像画像12が物品認識に適していないものであることを第1情報処理装置2000のユーザに把握させるための通知である。
<Output of notification 40: S108>
When the number of feature points detected from the captured
例えば前述したように、通知40は、撮像のやり直しをユーザに促す通知である。この通知により、ユーザは、撮像のやり直し(すなわち、撮像画像12の生成のやり直し)をすべきことを把握することができる。ユーザは、第1情報処理装置2000を操作してカメラ10による撮像を再度行う。第1情報処理装置2000は、この結果として生成される撮像画像を新たに撮像画像12として扱って、一連の処理を実行する。
For example, as described above, the
図9は、撮像のやり直しを促す通知を例示する図である。図9では、第1情報処理装置2000に設けられているディスプレイ装置30に、撮像のやり直しを促す通知40が表示されている。ユーザによって通知40に含まれる「カメラ起動」というボタンを押されると、第1情報処理装置2000は、カメラ10による撮像を行える状態に切り替わる。
FIG. 9 is a diagram exemplifying a notification prompting re-imaging. In FIG. 9, the
その他にも例えば、所定の通知は、撮像画像12が適切なものであるか否かをチェックするように促す通知である。図10は、撮像画像12のチェックを促す通知である。問題があると判断した場合、ユーザは、「カメラ起動」というボタンを押すことで撮像をやり直す。一方、第1情報処理装置2000のユーザは、撮像画像12を目で見て確認し、問題がないと判断したら「問題なし」というボタンを押す。この場合、出力部2060は、撮像画像12の出力を行う。
In addition, for example, the predetermined notification is a notification prompting to check whether the captured
撮像画像12が適切なものであるか否かをチェックするように促す通知を利用する形態には、例えば次のような利点がある。まず、複数設定されている部分領域14の中に、物品が含まれていない部分領域14があるとする。この場合、その部分領域14から検出される特徴点の数は少なくなるため、特徴点の数が所定の条件を満たさない可能性がある。しかしながらこの場合、物品が含まれる他の部分領域14から検出される特徴点の数が十分多ければ、撮像画像12は問題なく物品認識に利用できる蓋然性が高いと考えられる。
The form of using the notification prompting to check whether the captured
そこで、撮像画像12が適切なものであるか否かをチェックするように促す通知を出力するようにすれば、ユーザが各部分領域14を確認して、上述したように撮像画像12が問題なく物品認識に利用できるものであるかどうかを確認することができる。そして、撮像画像12が問題なく物品認識に利用できるならば「問題なし」ボタンを押すようにすることで、撮像のやり直しを避けることができる。
Therefore, by outputting a notification prompting the user to check whether the captured
ここで、判定部2040が部分領域14について判定を行った場合、出力部2060は、特徴点の数が基準値未満である部分領域14を強調表示することが好適である。図11は、特徴点の数が基準値未満である部分領域14が強調表示される様子を例示する図である。
Here, when the
図11の上段では、枠50により、特徴点の数が基準値未満である部分領域14が強調表示されている。また、図11の下段では、特徴点の数が基準値未満である部分領域14を拡大して表示(符号60)することにより、この部分領域14を強調表示している。なお、実際には、部分領域14を表す点線は表示されなくてもよい。
In the upper part of FIG. 11 , the
強調表示の方法は、上述した方法に限定されない。例えば、マークを付したり色を変えたりするといった様々な方法を採用することができる。 The highlighting method is not limited to the method described above. For example, various methods such as marking or changing colors can be employed.
<撮像画像12の出力:S110>
出力部2060は、撮像画像12から検出される特徴点の数が所定の条件を満たす場合に(S106:YES)、撮像画像12を出力する(S110)。ここで出力される撮像画像12は第2情報処理装置3000によって利用されるため、撮像画像12は、第2情報処理装置3000が利用可能な態様で出力される必要がある。
<Output of captured image 12: S110>
When the number of feature points detected from the captured
例えば出力部2060は、第2情報処理装置3000からアクセス可能な所定の記憶装置(例えば、第1情報処理装置2000と第2情報処理装置3000の双方と通信可能に接続されている NAS(Network Attached Storage))に、撮像画像12を記憶させる。その他にも例えば、出力部2060は、第2情報処理装置3000に対して撮像画像12を送信してもよい。
For example, the
<第2情報処理装置3000による撮像画像12の取得:S108>
第2情報処理装置3000は、出力部2060によって出力された撮像画像12を取得する(S108)。例えば出力部2060が撮像画像12を記憶装置に記憶させる場合、第2情報処理装置3000は、この記憶装置から撮像画像12を読み出すことで、撮像画像12を取得する。その他にも例えば、第1情報処理装置2000が第2情報処理装置3000に対して撮像画像12を送信する場合、第2情報処理装置3000は、この撮像画像12を受信することで、撮像画像12を取得する。
<Acquisition of Captured
The second
<物品の認識:S110>
第2情報処理装置3000は、撮像画像12から検出された特徴点を用いて、物品の認識を行う(S110)。特徴点を用いたオブジェクト認識には、既存の技術を利用することができる。
<Recognition of goods: S110>
The second
第2情報処理装置3000は、検出部2020によって撮像画像12から検出された特徴点を物品の認識に利用してもよい。この場合、出力部2060は、撮像画像12に対応づけて、撮像画像12から検出された特徴点を表す情報を出力する。こうすることで、撮像画像12から特徴点を検出する処理を重複して実行することがなくなるため、情報処理システム4000全体の処理を効率化できる。ただし、検出部2020によって特徴点が検出された領域が撮像画像12の一部である場合、第2情報処理装置3000は、少なくとも残りの領域については、特徴点の検出を行う。
The second
第2情報処理装置3000は、検出部2020によって撮像画像12から検出された特徴点を用いなくてもよい。この場合、第2情報処理装置3000は、撮像画像12から特徴点を検出する処理を行う。第2情報処理装置3000でも特徴点の検出を行う場合、第1情報処理装置2000が特徴点検出に利用するアルゴリズムと、第2情報処理装置3000が特徴点検出に利用するアルゴリズムとは、互いに同一であることが好適である。これらのアルゴリズムを異なるものにすると、第1情報処理装置2000で検出された特徴点が第2情報処理装置3000において検出されなくなり、第2情報処理装置3000において特徴点の数が不足する可能性があるためである。
The second
ただし、第2情報処理装置3000で検出される特徴点の数が第1情報処理装置2000で検出される特徴点の数より多くなればよいため、そのように第1情報処理装置2000と第2情報処理装置3000のそれぞれで利用する特徴点検出のアルゴリズムを決めてもよい。
However, since the number of feature points detected by the second
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。 Although the embodiments of the present invention have been described above with reference to the drawings, these are examples of the present invention, and various configurations other than those described above can also be adopted.
例えば、上述した情報処理システム4000は第1情報処理装置2000と第2情報処理装置3000を有しているが、第1情報処理装置2000が第2情報処理装置3000の役割も担うようにしてもよい。すなわち、撮像画像12から物品を認識する処理を第1情報処理装置2000が行うようにしてもよい。この場合、情報処理システム4000は第1情報処理装置2000のみを有すればよく、第2情報処理装置3000を有する必要はない。
For example, the
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
1. 物品の陳列場所を撮像することで生成された撮像画像から特徴点を検出する検出部と、
前記検出された特徴点の数が所定の条件を満たすか否かを判定する判定部と、
前記検出された特徴点の数が所定の条件を満たさない場合、所定の通知を出力する出力部と、を有する情報処理装置。
2. 前記所定の条件は、前記撮像画像全体から検出された特徴点の数が基準値以上であることである、1.に記載の情報処理装置。
3. 前記検出部は、前記撮像画像に含まれる1つ以上の各部分領域から特徴点を検出し、
前記所定の条件は、
複数の部分領域それぞれから検出された特徴点の数の合計が基準値以上であることであること、
複数の部分領域それぞれから検出された特徴点の数がいずれも基準値以上であること、又は、
複数の部分領域のうち、所定数以上の部分領域において検出された特徴点の数がいずれも基準値以上であることである、1.に記載の情報処理装置。
4. 前記撮像画像に含まれる物品の種類の入力を受け付け、
前記判定部は、物品の種類に対応づけて前記特徴点の数の基準値を記憶している記憶装置から、前記入力された物品の種類に対応する前記特徴点の数の基準値を取得し、前記取得した基準値を用いて、前記検出された特徴点の数が前記所定の条件を満たすか否かを判定する、2.又は3.に記載の情報処理装置。
5. 前記所定の通知は、前記陳列場所を再度撮像することを促す通知を含む、1.乃至4.いずれか一つに記載の情報処理装置。
6. 前記所定の通知は、検出された特徴点の数が基準値未満である部分領域を表す表示を含む、1.乃至5.いずれか一つに記載の情報処理装置。
7. 前記所定の通知は、検出された特徴点の数が基準値未満である部分領域を拡大した表示を含む、6.に記載の情報処理装置。
8. 前記出力部は、前記検出された特徴点の数が所定の条件を満たす場合に前記撮像画像を出力し、
前記出力された撮像画像から検出される特徴点を用いて、その撮像画像に含まれる物品の認識が行われる、1.乃至7.いずれか一つに記載の情報処理装置。
Some or all of the above-described embodiments can also be described in the following supplementary remarks, but are not limited to the following.
1. a detection unit that detects feature points from a captured image generated by capturing an image of a display place of an article;
a determination unit that determines whether or not the number of detected feature points satisfies a predetermined condition;
and an output unit that outputs a predetermined notification when the number of detected feature points does not satisfy a predetermined condition.
2. 1. The predetermined condition is that the number of feature points detected from the entire captured image is equal to or greater than a reference value. The information processing device according to .
3. The detection unit detects feature points from each of one or more partial regions included in the captured image,
The predetermined condition is
The total number of feature points detected from each of the plurality of partial areas is equal to or greater than a reference value;
The number of feature points detected from each of the plurality of partial areas is equal to or greater than a reference value, or
1. The number of feature points detected in a predetermined number or more of partial areas among the plurality of partial areas is equal to or greater than a reference value. The information processing device according to .
4. Receiving an input of the type of article included in the captured image;
The determination unit acquires the reference value of the number of characteristic points corresponding to the input type of article from a storage device that stores the reference value of the number of characteristic points in association with the type of article. 2. determining whether or not the number of detected feature points satisfies the predetermined condition using the obtained reference value; or 3. The information processing device according to .
5. 1. The predetermined notification includes a notification prompting the display place to be photographed again. to 4. The information processing device according to any one of the above.
6. 1. The predetermined notification includes an indication representing a partial area in which the number of detected feature points is less than a reference value; to 5. The information processing device according to any one of the above.
7. 5. The predetermined notification includes an enlarged display of a partial area in which the number of detected feature points is less than a reference value; The information processing device according to .
8. The output unit outputs the captured image when the number of detected feature points satisfies a predetermined condition,
1. Recognizing an article included in the captured image by using the feature points detected from the output captured image; to 7. The information processing device according to any one of the above.
9. 第1情報処理装置と第2情報処理装置を有する情報処理システムであって、
前記第1情報処理装置は、
物品の陳列場所を撮像することで生成された撮像画像から特徴点を検出する検出部と、
前記検出された特徴点の数が所定の条件を満たすか否かを判定する判定部と、
前記検出された特徴点の数が所定の条件を満たさない場合には所定の通知を出力し、前記検出された特徴点が所定の条件を満たさない場合には前記撮像画像を出力する出力部と、を有し、
前記第2情報処理装置は、前記第1情報処理装置によって出力された撮像画像から検出される特徴点を用いて、その撮像画像に含まれる物品の認識を行う、情報処理システム。
10. 前記所定の条件は、前記撮像画像全体から検出された特徴点の数が基準値以上であることである、9.に記載の情報処理システム。
11. 前記検出部は、前記撮像画像に含まれる1つ以上の各部分領域から特徴点を検出し、
前記所定の条件は、
複数の部分領域それぞれから検出された特徴点の数の合計が基準値以上であることであること、
複数の部分領域それぞれから検出された特徴点の数がいずれも基準値以上であること、又は、
複数の部分領域のうち、所定数以上の部分領域において検出された特徴点の数がいずれも基準値以上であることである、9.に記載の情報処理システム。
12. 前記撮像画像に含まれる物品の種類の入力を受け付け、
前記判定部は、物品の種類に対応づけて前記特徴点の数の基準値を記憶している記憶装置から、前記入力された物品の種類に対応する前記特徴点の数の基準値を取得し、前記取得した基準値を用いて、前記検出された特徴点の数が前記所定の条件を満たすか否かを判定する、10.又は11.に記載の情報処理システム。
13. 前記所定の通知は、前記陳列場所を再度撮像することを促す通知を含む、9.乃至12.いずれか一つに記載の情報処理システム。
14. 前記所定の通知は、検出された特徴点の数が基準値未満である部分領域を表す表示を含む、9.乃至13.いずれか一つに記載の情報処理システム。
15. 前記所定の通知は、検出された特徴点の数が基準値未満である部分領域を拡大した表示を含む、14.に記載の情報処理システム。
9. An information processing system having a first information processing device and a second information processing device,
The first information processing device is
a detection unit that detects feature points from a captured image generated by capturing an image of a display place of an article;
a determination unit that determines whether or not the number of detected feature points satisfies a predetermined condition;
an output unit that outputs a predetermined notification when the number of the detected feature points does not satisfy a predetermined condition, and outputs the captured image when the detected feature points do not satisfy the predetermined condition; , has
The information processing system, wherein the second information processing device recognizes an article included in the captured image using feature points detected from the captured image output by the first information processing device.
10. 8. The predetermined condition is that the number of feature points detected from the entire captured image is equal to or greater than a reference value; The information processing system according to .
11. The detection unit detects feature points from each of one or more partial regions included in the captured image,
The predetermined condition is
The total number of feature points detected from each of the plurality of partial areas is equal to or greater than a reference value;
The number of feature points detected from each of the plurality of partial areas is equal to or greater than a reference value, or
8. The number of feature points detected in a predetermined number or more of partial areas among the plurality of partial areas is equal to or greater than a reference value; The information processing system according to .
12. Receiving an input of the type of article included in the captured image;
The determination unit acquires the reference value of the number of characteristic points corresponding to the input type of article from a storage device that stores the reference value of the number of characteristic points in association with the type of article. 10. determining whether or not the number of detected feature points satisfies the predetermined condition using the obtained reference value; or 11. The information processing system according to .
13. 9. The predetermined notification includes a notification prompting the display place to be photographed again; 12. The information processing system according to any one of the above.
14. 9. The predetermined notification includes an indication representing a partial area in which the number of detected feature points is less than a reference value; to 13. The information processing system according to any one of the above.
15. 14. The predetermined notification includes an enlarged display of a partial area in which the number of detected feature points is less than a reference value; The information processing system according to .
16. コンピュータによって実行される制御方法であって、
物品の陳列場所を撮像することで生成された撮像画像から特徴点を検出する検出ステップと、
前記検出された特徴点の数が所定の条件を満たすか否かを判定する判定ステップと、
前記検出された特徴点の数が所定の条件を満たさない場合、所定の通知を出力する出力ステップと、を有する制御方法。
17. 前記所定の条件は、前記撮像画像全体から検出された特徴点の数が基準値以上であることである、16.に記載の制御方法。
18. 前記検出ステップにおいて、前記撮像画像に含まれる1つ以上の各部分領域から特徴点を検出し、
前記所定の条件は、
複数の部分領域それぞれから検出された特徴点の数の合計が基準値以上であることであること、
複数の部分領域それぞれから検出された特徴点の数がいずれも基準値以上であること、又は、
複数の部分領域のうち、所定数以上の部分領域において検出された特徴点の数がいずれも基準値以上であることである、16.に記載の制御方法。
19. 前記撮像画像に含まれる物品の種類の入力を受け付け、
前記判定ステップにおいて、物品の種類に対応づけて前記特徴点の数の基準値を記憶している記憶装置から、前記入力された物品の種類に対応する前記特徴点の数の基準値を取得し、前記取得した基準値を用いて、前記検出された特徴点の数が前記所定の条件を満たすか否かを判定する、17.又は18.に記載の制御方法。
20. 前記所定の通知は、前記陳列場所を再度撮像することを促す通知を含む、16.乃至19.いずれか一つに記載の制御方法。
21. 前記所定の通知は、検出された特徴点の数が基準値未満である部分領域を表す表示を含む、16.乃至20.いずれか一つに記載の制御方法。
22. 前記所定の通知は、検出された特徴点の数が基準値未満である部分領域を拡大した表示を含む、21.に記載の制御方法。
23. 前記出力ステップにおいて、前記検出された特徴点の数が所定の条件を満たす場合に前記撮像画像を出力し、
前記出力された撮像画像から検出される特徴点を用いて、その撮像画像に含まれる物品の認識が行われる、16.乃至22.いずれか一つに記載の制御方法。
16. A control method implemented by a computer, comprising:
a detection step of detecting feature points from a captured image generated by capturing an image of a display place of an article;
a determination step of determining whether or not the number of detected feature points satisfies a predetermined condition;
and an output step of outputting a predetermined notification when the number of detected feature points does not satisfy a predetermined condition.
17. 16. The predetermined condition is that the number of feature points detected from the entire captured image is equal to or greater than a reference value; The control method described in .
18. In the detection step, detecting feature points from each of one or more partial regions included in the captured image;
The predetermined condition is
The total number of feature points detected from each of the plurality of partial areas is equal to or greater than a reference value;
The number of feature points detected from each of the plurality of partial areas is equal to or greater than a reference value, or
16. The number of feature points detected in a predetermined number or more of partial areas among the plurality of partial areas is equal to or greater than a reference value; The control method described in .
19. Receiving an input of the type of article included in the captured image;
In the determination step, the reference value of the number of characteristic points corresponding to the input type of article is obtained from a storage device that stores the reference value of the number of characteristic points in association with the type of article. 17. determining whether or not the number of detected feature points satisfies the predetermined condition using the obtained reference value; or 18. The control method described in .
20. 16. The predetermined notification includes a notification prompting the display place to be imaged again; to 19. A control method according to any one of the preceding claims.
21. 16. The predetermined notification includes a display representing a partial area in which the number of detected feature points is less than a reference value; 20. A control method according to any one of the preceding claims.
22. 21. The predetermined notification includes an enlarged display of a partial area in which the number of detected feature points is less than a reference value; The control method described in .
23. In the output step, outputting the captured image when the number of detected feature points satisfies a predetermined condition;
16. Recognition of an article included in the captured image is performed using the feature points detected from the output captured image; 22. A control method according to any one of the preceding claims.
24. 16.乃至23.いずれか一つに記載の制御方法の各ステップをコンピュータに実行させるプログラム。 24. 16. 23. A program that causes a computer to execute each step of the control method described in any one.
10 カメラ
12 撮像画像
14 部分領域
20 陳列場所
30 ディスプレイ装置
40 通知
50 枠
1000 計算機
1020 バス
1040 プロセッサ
1060 メモリ
1080 ストレージデバイス
1100 入出力インタフェース
1120 ネットワークインタフェース
2000 第1情報処理装置
2000 情報処理装置
2020 検出部
2040 判定部
2060 出力部
3000 第2情報処理装置
4000 情報処理システム
5000 計算機
5020 バス
5040 プロセッサ
5060 メモリ
5080 ストレージデバイス
5100 入出力インタフェース
5120 ネットワークインタフェース
10
Claims (5)
前記検出された特徴点の数と、前記特徴点の数の基準値との関係が、所定の条件を満たすか否かを判定する判定部と、
前記所定の条件が満たされていない場合、所定の通知を出力する出力部と、を有し、
前記部分領域は、ユーザによって指定された領域または予め定められた領域であり、
前記ユーザによって指定された領域は、ディスプレイ装置へのタップまたはドラッグにより範囲を指定された領域であり、
前記所定の条件は、(A)複数の前記部分領域それぞれから検出された特徴点の数の合計が前記基準値以上であること、(B)複数の前記部分領域それぞれから検出された特徴点の数がいずれも前記基準値以上であること、(C)複数の前記部分領域のうち、所定数以上の部分領域において検出された特徴点の数がいずれも前記基準値以上であること、のいずれかである、情報処理装置。 a detection unit that detects feature points from a partial area that is an area that is included in a captured image that is generated by capturing an image of an item display place and that includes the item;
a determination unit that determines whether the relationship between the number of detected feature points and a reference value for the number of feature points satisfies a predetermined condition;
an output unit that outputs a predetermined notification when the predetermined condition is not satisfied,
the partial area is an area designated by a user or a predetermined area;
The area specified by the user is an area whose range is specified by tapping or dragging to the display device,
The predetermined conditions are (A) that the total number of feature points detected from each of the plurality of partial areas is equal to or greater than the reference value, and (B) the number of feature points detected from each of the plurality of partial areas. (C) the number of feature points detected in a predetermined number or more of the plurality of partial areas is equal to or greater than the reference value. Information processing device.
前記出力された撮像画像から検出される特徴点を用いて、その撮像画像に含まれる物品の認識が行われる、請求項1に記載の情報処理装置。 The output unit outputs the captured image when the predetermined condition is satisfied,
2. The information processing apparatus according to claim 1 , wherein an article included in the captured image is recognized using feature points detected from the output captured image.
前記第1情報処理装置は、
物品の陳列場所を撮像することで生成された撮像画像に含まれる領域であって、かつ、物品を含む領域である部分領域から、特徴点を検出する検出部と、
前記検出された特徴点の数と、前記特徴点の数の基準値との関係が、所定の条件を満たすか否かを判定する判定部と、
前記所定の条件が満たされていない場合には所定の通知を出力し、前記所定の条件が満たされている場合には前記撮像画像を出力する出力部と、を有し、
前記第2情報処理装置は、前記第1情報処理装置によって出力された撮像画像から検出される特徴点を用いて、その撮像画像に含まれる物品の認識を行い、
前記部分領域は、ユーザによって指定された領域または予め定められた領域であり、
前記ユーザによって指定された領域は、ディスプレイ装置へのタップまたはドラッグにより範囲を指定された領域であり、
前記所定の条件は、(A)複数の前記部分領域それぞれから検出された特徴点の数の合計が前記基準値以上であること、(B)複数の前記部分領域それぞれから検出された特徴点の数がいずれも前記基準値以上であること、(C)複数の前記部分領域のうち、所定数以上の部分領域において検出された特徴点の数がいずれも前記基準値以上であること、のいずれかである、情報処理システム。 An information processing system having a first information processing device and a second information processing device,
The first information processing device is
a detection unit that detects feature points from a partial area that is an area that is included in a captured image that is generated by capturing an image of an item display place and that includes the item;
a determination unit that determines whether the relationship between the number of detected feature points and a reference value for the number of feature points satisfies a predetermined condition;
an output unit that outputs a predetermined notification when the predetermined condition is not satisfied, and outputs the captured image when the predetermined condition is satisfied;
The second information processing device uses feature points detected from the captured image output by the first information processing device to recognize an article included in the captured image,
the partial area is an area designated by a user or a predetermined area;
The area specified by the user is an area whose range is specified by tapping or dragging to the display device,
The predetermined conditions are (A) that the total number of feature points detected from each of the plurality of partial areas is equal to or greater than the reference value, and (B) the number of feature points detected from each of the plurality of partial areas. (C) the number of feature points detected in a predetermined number or more of the plurality of partial areas is equal to or greater than the reference value. information processing system .
物品の陳列場所を撮像することで生成された撮像画像に含まれる領域であって、かつ、物品を含む領域である部分領域から、特徴点を検出する検出ステップと、
前記検出された特徴点の数と、前記特徴点の数の基準値との関係が、所定の条件を満たすか否かを判定する判定ステップと、
前記所定の条件が満たされている場合、所定の通知を出力する出力ステップと、を有し、
前記部分領域は、ユーザによって指定された領域または予め定められた領域であり、
前記ユーザによって指定された領域は、ディスプレイ装置へのタップまたはドラッグにより範囲を指定された領域であり、
前記所定の条件は、(A)複数の前記部分領域それぞれから検出された特徴点の数の合計が前記基準値以上であること、(B)複数の前記部分領域それぞれから検出された特徴点の数がいずれも前記基準値以上であること、(C)複数の前記部分領域のうち、所定数以上の部分領域において検出された特徴点の数がいずれも前記基準値以上であること、のいずれかである、制御方法。 A control method implemented by a computer, comprising:
a detection step of detecting feature points from a partial area that is an area that is included in a captured image generated by imaging a display place of the article and that is an area that includes the article;
a determination step of determining whether the relationship between the detected number of feature points and a reference value for the number of feature points satisfies a predetermined condition;
an output step of outputting a predetermined notification if the predetermined condition is satisfied;
the partial area is an area designated by a user or a predetermined area;
The area specified by the user is an area whose range is specified by tapping or dragging to the display device,
The predetermined conditions are (A) that the total number of feature points detected from each of the plurality of partial areas is equal to or greater than the reference value, and (B) the number of feature points detected from each of the plurality of partial areas. (C) the number of feature points detected in a predetermined number or more of the plurality of partial areas is equal to or greater than the reference value. or the control method.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021143146A JP7279755B2 (en) | 2019-08-22 | 2021-09-02 | Information processing device, information processing system, control method, and program |
JP2023074252A JP2023095926A (en) | 2019-08-22 | 2023-04-28 | Information processing device, information processing system, control method, and program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019151774A JP6939855B2 (en) | 2018-03-30 | 2019-08-22 | Information processing equipment, information processing systems, control methods, and programs |
JP2021143146A JP7279755B2 (en) | 2019-08-22 | 2021-09-02 | Information processing device, information processing system, control method, and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019151774A Division JP6939855B2 (en) | 2018-03-30 | 2019-08-22 | Information processing equipment, information processing systems, control methods, and programs |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023074252A Division JP2023095926A (en) | 2019-08-22 | 2023-04-28 | Information processing device, information processing system, control method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021192275A JP2021192275A (en) | 2021-12-16 |
JP7279755B2 true JP7279755B2 (en) | 2023-05-23 |
Family
ID=78945789
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021143146A Active JP7279755B2 (en) | 2019-08-22 | 2021-09-02 | Information processing device, information processing system, control method, and program |
JP2023074252A Pending JP2023095926A (en) | 2019-08-22 | 2023-04-28 | Information processing device, information processing system, control method, and program |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023074252A Pending JP2023095926A (en) | 2019-08-22 | 2023-04-28 | Information processing device, information processing system, control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7279755B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011118790A (en) | 2009-12-07 | 2011-06-16 | Nippon Telegr & Teleph Corp <Ntt> | Similar image retrieval device, similar image retrieval method and similar image retrieval program |
JP2014127168A (en) | 2012-12-27 | 2014-07-07 | Nec Corp | Vending machine management device, data processing method of the same and program |
JP2014153779A (en) | 2013-02-05 | 2014-08-25 | Nk Works Co Ltd | Image processing program and image processing apparatus |
WO2014147917A1 (en) | 2013-03-19 | 2014-09-25 | 日本電気株式会社 | Processing apparatus, data processing method employed by processing apparatus, and program |
JP2016115305A (en) | 2014-12-18 | 2016-06-23 | 富士通テン株式会社 | Object detection apparatus, object detection system, object detection method, and program |
US20170337508A1 (en) | 2016-05-19 | 2017-11-23 | Simbe Robotics, Inc. | Method for tracking placement of products on shelves in a store |
-
2021
- 2021-09-02 JP JP2021143146A patent/JP7279755B2/en active Active
-
2023
- 2023-04-28 JP JP2023074252A patent/JP2023095926A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011118790A (en) | 2009-12-07 | 2011-06-16 | Nippon Telegr & Teleph Corp <Ntt> | Similar image retrieval device, similar image retrieval method and similar image retrieval program |
JP2014127168A (en) | 2012-12-27 | 2014-07-07 | Nec Corp | Vending machine management device, data processing method of the same and program |
JP2014153779A (en) | 2013-02-05 | 2014-08-25 | Nk Works Co Ltd | Image processing program and image processing apparatus |
WO2014147917A1 (en) | 2013-03-19 | 2014-09-25 | 日本電気株式会社 | Processing apparatus, data processing method employed by processing apparatus, and program |
JP2016115305A (en) | 2014-12-18 | 2016-06-23 | 富士通テン株式会社 | Object detection apparatus, object detection system, object detection method, and program |
US20170337508A1 (en) | 2016-05-19 | 2017-11-23 | Simbe Robotics, Inc. | Method for tracking placement of products on shelves in a store |
Also Published As
Publication number | Publication date |
---|---|
JP2023095926A (en) | 2023-07-06 |
JP2021192275A (en) | 2021-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6549558B2 (en) | Sales registration device, program and sales registration method | |
CN102034074B (en) | Image processing method and device for positioning and capturing bar code region in image | |
US20150042817A1 (en) | Thermal imaging device and thermal image photographing method | |
US20150009226A1 (en) | Color chart detection apparatus, color chart detection method, and color chart detection computer program | |
JP2017521011A (en) | Symbol optical detection method | |
US9208383B2 (en) | Commodity recognition apparatus and method for recognizing commodity by the same | |
JP5264457B2 (en) | Object detection device | |
JP6575628B1 (en) | Information processing apparatus, information processing system, control method, and program | |
CN112532884B (en) | Identification method and device and electronic equipment | |
JP7279755B2 (en) | Information processing device, information processing system, control method, and program | |
US10373329B2 (en) | Information processing apparatus, information processing method and storage medium for determining an image to be subjected to a character recognition processing | |
JP2008009938A (en) | Moving image data processor, moving image data processing method, moving image data processing program and storage medium recording the program | |
JP6939855B2 (en) | Information processing equipment, information processing systems, control methods, and programs | |
JPWO2019181441A1 (en) | Information processing device and control method | |
US20180240093A1 (en) | Information processing apparatus and information processing method | |
KR102505705B1 (en) | Image analysis server, object counting method using the same and object counting system | |
CN116993654A (en) | Camera module defect detection method, device, equipment, storage medium and product | |
JP2022093466A (en) | Information processing device, information processing system, and program | |
JP6947283B2 (en) | Store equipment, store systems, image acquisition methods, and programs | |
US10660731B2 (en) | Intraoral scanning system and intraoral scanning method | |
JP2018005612A (en) | Image processing device, image processing method, and program | |
JP6875061B2 (en) | A recording medium for recording an image judgment system, an image judgment method, an image judgment program, and an image judgment program. | |
US20230222802A1 (en) | Processing apparatus, pre-processing apparatus, processing method, and non-transitory storage mediu | |
US20180063471A1 (en) | Adjusting times of capture of digital images | |
US20230306630A1 (en) | Image analysis server, object counting method using image analysis server, and object counting syste |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211001 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211001 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230113 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230411 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230424 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7279755 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |