JP6930389B2 - Image collectors, programs, and methods - Google Patents
Image collectors, programs, and methods Download PDFInfo
- Publication number
- JP6930389B2 JP6930389B2 JP2017220734A JP2017220734A JP6930389B2 JP 6930389 B2 JP6930389 B2 JP 6930389B2 JP 2017220734 A JP2017220734 A JP 2017220734A JP 2017220734 A JP2017220734 A JP 2017220734A JP 6930389 B2 JP6930389 B2 JP 6930389B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- frame image
- reference frame
- label
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、画像収集装置、プログラム、及び方法に係り、特に、物体識別に用いられる訓練画像を効率的に収集するための画像収集装置、プログラム、及び方法に関する。 The present invention relates to image acquisition devices, programs, and methods, and more particularly to image collection devices, programs, and methods for efficiently collecting training images used for object identification.
画像に写り込む物体が、物体の識別のために事前に用意された画像、すなわち「訓練画像」に含まれる物体に該当するのか、或いは訓練画像に含まれる何れの物体にも該当しないのかを推定することで、画像に写り込む物体の種類を識別する物体識別技術は、画像をインタフェースとして物体の情報検索及び情報管理を実現する上で重要な要素技術であり、幅広い産業分野で用いられている。 Estimate whether the object reflected in the image corresponds to the object prepared in advance for identifying the object, that is, the object included in the "training image", or does not correspond to any object included in the training image. The object identification technology for identifying the type of object reflected in an image is an important elemental technology for realizing information search and information management of an object using an image as an interface, and is used in a wide range of industrial fields. ..
例えば、ユーザがスマートフォン等で撮影した食品の商品パッケージの画像から商品を特定し、インターネット上のデータベースからアレルギー情報等の商品詳細情報を取得することができれば、商品パッケージに記載されている説明文の言語を母国語とないユーザであっても、容易にデータベースからユーザの母国語で記載された商品詳細情報を得ることができる。 For example, if the user can identify the product from the image of the product package of the food taken with a smartphone or the like and obtain the detailed product information such as allergy information from the database on the Internet, the description described in the product package Even a user whose native language is not the language can easily obtain detailed product information described in the user's native language from the database.
そのため、訓練画像を予め学習し、物体の局所特徴量を用いて物体を識別する物体識別技術(例えば特許文献1参照)や、類似する物体であっても物体間の差異を示すキーポイント(「弁別的キーポイント」と呼ばれる)を用いて、精度よく物体を識別する物体識別技術(例えば非特許文献1参照)が提案されている。 Therefore, an object identification technique (see, for example, Patent Document 1) in which a training image is learned in advance and an object is identified by using a local feature amount of the object, and a key point indicating a difference between objects even if they are similar objects ("" An object identification technique (see, for example, Non-Patent Document 1) for accurately identifying an object by using (called a discriminative key point) has been proposed.
一方、特許文献1及び非特許文献1に示した物体識別技術で精度よく物体を識別するには、識別しようとする物体の撮影条件に近い訓練画像を予め準備しておく必要がある。例えば物体の撮影角度及び撮影距離の変化に伴う、撮影した画像内での物体の見え方の変化に対応するためには、図11に示すように、物体を様々な方向及び距離で撮影した複数の訓練画像を予め準備しておかなければならない。
On the other hand, in order to accurately identify an object by the object identification techniques shown in
また、物体の訓練画像には、例えば図12に示すように、当該訓練画像に含まれる物体の種別を一意に識別するための商品名や一般名詞といった情報(以降、「ラベル情報」という)を予め対応付けておく必要があるが、訓練画像に誤ったラベル情報が対応付けられた場合、物体の識別精度が低下することになる。 Further, in the training image of the object, for example, as shown in FIG. 12, information such as a product name and a general noun for uniquely identifying the type of the object included in the training image (hereinafter referred to as "label information") is provided in the training image. Although it is necessary to associate them in advance, if incorrect label information is associated with the training image, the identification accuracy of the object will be lowered.
更に、訓練画像に対応付けられたラベル情報で表される物体と異なる物体が、ラベル情報で表される物体と共に訓練画像に含まれる場合、このままでは何れの物体がラベル情報で表される物体であるのかわからないため、物体の識別精度が低下することになる。したがって、この場合、例えば図13に示すように、訓練画像からラベル情報で表される物体の位置情報(図13の例では点線枠で示されている)を取得するといった事前作業が必要になることがある。 Further, when an object different from the object represented by the label information associated with the training image is included in the training image together with the object represented by the label information, any object is the object represented by the label information as it is. Since it is not known whether it exists, the identification accuracy of the object will decrease. Therefore, in this case, for example, as shown in FIG. 13, prior work such as acquiring the position information of the object represented by the label information (indicated by the dotted line frame in the example of FIG. 13) from the training image is required. Sometimes.
このように、訓練画像の準備には非常に手間を要するため、物体識別技術の導入及び維持管理に係るコストが増大する。 As described above, since it takes a lot of time and effort to prepare the training image, the cost related to the introduction and maintenance of the object identification technique increases.
こうした問題を解決するため、これまでにも訓練画像を効率よく収集する手法が提案されている。例えば非特許文献2では、インターネット上で物体の名前(ラベル情報に相当)を検索することで、検索したラベル情報に対応した訓練画像を収集する手法が提案されている。
In order to solve these problems, methods for efficiently collecting training images have been proposed so far. For example, Non-Patent
[非特許文献2]:Micheal Rubinstein, Armand Joulin, Johannes Kopf, Ce Liu. "Unsupervised Joint Object Discovery and Segmentation in internet Images" in CVPR, 2013 [Non-Patent Document 2]: Michel Rubinstein, Armand Joulin, Johannes Kopf, Ce Liu. "Unsupervised Joint Object Discovery and Segmentation in internet Images" in CVPR, 2013
しかしながら、非特許文献2に示される手法では、例えば店舗でしか取り扱いがなくインターネットで流通していない物体、及び特殊な分野で使用される工業用部品等、インターネット上の記憶装置に蓄積されにくい物体の画像は取得し難くなり、訓練画像の画像量が不足する傾向が見られる。したがって、こうした物体の識別精度は低下する場合がある。
However, in the method shown in Non-Patent
また、非特許文献3には、特定の物体の訓練画像を用いて物体の識別を実行した結果、推定対象の物体が当該訓練画像で表される物体であると推定された場合、推定対象の物体が含まれる画像を新たに訓練画像に追加することで、訓練画像を収集する手法が提案されている。
Further, in Non-Patent
[非特許文献3]:出口大輔、道満恵介、井手一郎、村瀬洋著、「遡及型追跡に基づく標識画像の自動収集を用いた標識検出器の高精度化」、電子情報通信学会論文誌、Vol.J95-D、No.1、pp.76-84、2012 [Non-Patent Document 3]: Daisuke Deguchi, Keisuke Michimitsu, Ichiro Ide, Hiroshi Murase, "Higher accuracy of marker detectors using automatic collection of marker images based on retrospective tracking", IEICE Transactions, Vol.J95-D, No.1, pp.76-84, 2012
しかしながら、非特許文献3に示される手法は、訓練画像を用いた物体の識別に誤りが生じないという前提が置かれている。実際には物体を誤って識別する場合もあるため、非特許文献3に示される手法において物体が誤って識別されると、特定の物体の訓練画像に、異なる種類の物体の訓練画像が追加されることになる。以降、当該訓練画像を用いて物体の識別を実行した場合、連鎖的に特定の物体とは異なる種類の物体の訓練画像が追加されやすくなるため、こうした訓練画像を用いた場合、物体の識別精度が低下することになる。
However, the method shown in Non-Patent
本発明は、上記問題点を解決するために成されたものであり、物体を識別するためのラベル情報が正しく対応付けられた、より多くの訓練画像を効率的に収集することができる画像収集装置、プログラム、及び方法を提供することを目的とする。 The present invention has been made to solve the above problems, and is capable of efficiently collecting more training images to which label information for identifying an object is correctly associated. It is intended to provide equipment, programs, and methods.
上記目的を達成するために、第1の発明に係る画像収集装置は、物体に接近させることで前記物体に付与された前記物体の種別を示すラベル情報を取得するラベル特定装置から前記物体のラベル情報を取得し、前記物体の種別を特定するラベル特定部と、前記ラベル特定装置を用いた前記物体のラベル情報の取得状況を撮影する少なくとも1台の撮影装置が撮影した撮影画像の各々から、前記ラベル特定部で前記物体の種別の特定に用いられた前記物体のラベル情報が取得された瞬間の基準フレーム画像を取得し、取得した前記基準フレーム画像から前記物体が含まれる物体領域を推定する物体領域推定部と、前記ラベル特定部で特定した前記物体の種別、前記物体領域推定部で前記物体の物体領域の推定に用いられた前記基準フレーム画像、及び前記物体領域推定部で推定された前記基準フレーム画像における前記物体の物体領域をそれぞれ対応づけ、訓練画像として記憶装置に登録する訓練画像登録部と、前記撮影装置が撮影した撮影画像の前記基準フレーム画像の各々から、前記ラベル特定装置が含まれる装置領域を推定するラベル特定装置推定部を備え、前記物体領域推定部は、前記ラベル特定装置推定部で推定された前記ラベル特定装置の装置領域の位置に基づいて、前記基準フレーム画像から前記物体が含まれる物体領域を推定する。 In order to achieve the above object, the image collecting device according to the first invention is a label of the object from a label specifying device that acquires label information indicating the type of the object given to the object by approaching the object. From each of the label specifying unit that acquires information and specifies the type of the object, and the captured image captured by at least one imaging device that captures the acquisition status of the label information of the object using the label identifying device. The reference frame image at the moment when the label information of the object used for specifying the type of the object is acquired by the label specifying unit is acquired, and the object region including the object is estimated from the acquired reference frame image. The object area estimation unit, the type of the object specified by the label identification unit, the reference frame image used to estimate the object area of the object by the object area estimation unit, and the object area estimation unit estimated. From each of the training image registration unit that associates the object regions of the objects in the reference frame image and registers them in the storage device as training images and the reference frame image of the captured image captured by the imaging device, the label specifying device. The object area estimation unit includes a label identification device estimation unit that estimates the device area including the above, and the object area estimation unit is based on the position of the device area of the label identification device estimated by the label identification device estimation unit. The object area including the object is estimated from.
また、第1の発明に係る画像収集装置は、前記撮影画像の各々から、前記物体領域推定部で取得された前記基準フレーム画像より前及び後の少なくとも一方の範囲で撮影された画像である隣接フレーム画像を時系列に沿って取得し、取得した前記隣接フレーム画像の各々から前記基準フレーム画像に含まれる前記物体を追跡し、前記物体が含まれる前記隣接フレーム画像の各々から前記物体が含まれる物体領域を推定する物体追跡部を更に備え、前記訓練画像登録部は、前記ラベル特定部で特定した前記物体の種別、前記物体追跡部で前記物体の物体領域の推定に用いられた前記隣接フレーム画像、及び前記物体追跡部で推定された前記隣接フレーム画像における前記物体の物体領域をそれぞれ対応付け、訓練画像として前記記憶装置に登録する。 Further, the image collecting device according to the first invention is an adjacent image taken from each of the captured images in at least one range before and after the reference frame image acquired by the object area estimation unit. The frame images are acquired in chronological order, the object included in the reference frame image is tracked from each of the acquired adjacent frame images, and the object is included from each of the adjacent frame images including the object. The training image registration unit further includes an object tracking unit that estimates an object area, and the training image registration unit includes the type of the object specified by the label specifying unit and the adjacent frame used by the object tracking unit to estimate the object area of the object. The image and the object area of the object in the adjacent frame image estimated by the object tracking unit are associated with each other and registered in the storage device as a training image.
また、第1の発明に係る画像収集装置において、前記ラベル特定部は、光又は電波を利用して前記物体のラベル情報を読み取る前記ラベル特定装置から前記物体のラベル情報を取得する。 Further, in the image collecting device according to the first invention, the label specifying unit acquires the label information of the object from the label specifying device that reads the label information of the object by using light or radio waves.
第2の発明に係るプログラムは、コンピュータを、請求項1〜請求項3の何れか1項に記載の画像収集装置の各部として機能させる。
The program according to the second invention causes the computer to function as each part of the image collecting device according to any one of
第3の発明に係る画像収集方法は、物体に接近させることで前記物体に付与された前記物体の種別を示すラベル情報を取得するラベル特定装置から前記物体のラベル情報を取得し、前記物体の種別を特定するステップと、前記ラベル特定装置を用いた前記物体のラベル情報の取得状況を撮影する少なくとも1台の撮影装置が撮影した撮影画像の各々から、前記物体の種別の特定に用いられた前記物体のラベル情報が取得された瞬間の基準フレーム画像を取得し、取得した前記基準フレーム画像から前記物体が含まれる物体領域を推定するステップと、前記特定された前記物体の種別、前記物体の物体領域の推定に用いられた前記基準フレーム画像、及び前記基準フレーム画像における前記物体の物体領域をそれぞれ対応づけ、訓練画像として記憶装置に登録するステップと、前記撮影装置が撮影した撮影画像の前記基準フレーム画像の各々から、前記ラベル特定装置が含まれる装置領域を推定するステップを含み、前記基準フレーム画像から前記物体が含まれる物体領域を推定するステップにおいて、推定された前記ラベル特定装置の装置領域の位置に基づいて、前記基準フレーム画像から前記物体が含まれる物体領域を推定する。 In the image collecting method according to the third invention, the label information of the object is acquired from a label specifying device that acquires the label information indicating the type of the object given to the object by approaching the object, and the object of the object is obtained. It was used to identify the type of the object from each of the step of specifying the type and the photographed image taken by at least one photographing device for photographing the acquisition status of the label information of the object using the label specifying device. A step of acquiring a reference frame image at the moment when the label information of the object is acquired and estimating an object region including the object from the acquired reference frame image, the specified type of the object, and the object of the object. The step of associating the reference frame image used for estimating the object region and the object region of the object in the reference frame image and registering them in the storage device as a training image, and the step of registering the captured image captured by the imaging device in the storage device. The device of the label specifying device estimated in the step of estimating the device area including the label specifying device from each of the reference frame images and estimating the object area including the object from the reference frame image. Based on the position of the region, the object region including the object is estimated from the reference frame image.
また、第3の発明に係る画像収集方法は、前記撮影画像の各々から、前記基準フレーム画像より前及び後の少なくとも一方の範囲で撮影された画像である隣接フレーム画像を時系列に沿って取得し、取得した前記隣接フレーム画像の各々から前記基準フレーム画像に含まれる前記物体を追跡し、前記物体が含まれる前記隣接フレーム画像の各々から前記物体が含まれる物体領域を推定するステップと、前記特定された前記物体の種別、前記物体の物体領域の推定に用いられた前記隣接フレーム画像、及び前記隣接フレーム画像における前記物体の物体領域をそれぞれ対応付け、訓練画像として前記記憶装置に登録するステップと、を更に備える。 Further, in the image collecting method according to the third invention, adjacent frame images, which are images taken in at least one range before and after the reference frame image, are acquired from each of the captured images in chronological order. A step of tracking the object included in the reference frame image from each of the acquired adjacent frame images and estimating an object region including the object from each of the adjacent frame images including the object. A step of associating the specified type of the object, the adjacent frame image used for estimating the object area of the object, and the object area of the object in the adjacent frame image, and registering the object area as a training image in the storage device. And further prepare.
本発明の画像収集装置、プログラム、及び方法によれば、物体を識別するためのラベル情報が正しく対応付けられた、より多くの訓練画像を効率的に収集することができる、という効果が得られる。 According to the image collecting device, the program, and the method of the present invention, it is possible to efficiently collect more training images to which the label information for identifying the object is correctly associated. ..
以下、図面を参照して本発明の実施形態を詳細に説明する。なお、機能が同じ構成要素及び処理には、全図面を通して同じ符合を付与し、重複する説明を省略するものとする。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. It should be noted that components and processes having the same function shall be given the same code throughout the drawings, and duplicate explanations shall be omitted.
<第1実施形態>
<画像収集システムの構成>
まず、図1を用いて、本発明に係る画像収集システム1の構成について説明する。
<First Embodiment>
<Configuration of image collection system>
First, the configuration of the
画像収集システム1は、画像収集装置2、ラベル特定装置4、及び撮影装置6を含み、物体8の訓練画像を収集する。
The
物体8には物体の種別を示すラベル情報が予め付与されており、ユーザが例えばラベル特定装置4に設けられた操作ボタンを押下したり、物体8にラベル特定装置4を予め定めた距離まで接近させたりすることで、ラベル特定装置4は、物体8に付与されたラベル情報を取得する。
Label information indicating the type of the object is given to the
具体的には、物体8にラベル情報を示すバーコードが付与されている場合、照射した光の反射光を用いてバーコードで示される物体8のラベル情報を読み取るバーコードリーダーがラベル特定装置4として用いられる。なお、ラベル情報を示すバーコードは、1次元バーコード及び2次元バーコードの何れであってもよい。
Specifically, when a bar code indicating label information is given to the
また、物体8にラベル情報を記憶した電子タグが付与されている場合、電波を利用して電子タグと通信を行い、電子タグに記憶された物体8のラベル情報を読み取るRFID(Radio Frequency IDentification)リーダーがラベル特定装置4として用いられる。なお、電子タグは、RFタグ、ICタグ、非接触タグ、又は無線タグと呼ばれることがあるが、ここでは「電子タグ」と称することにする。
When an electronic tag that stores label information is attached to the
ラベル特定装置4は画像収集装置2と接続され、ラベル特定装置4は取得したラベル情報を画像収集装置2に送信する。
The
撮影装置6は画像収集装置2と接続され、ユーザがラベル特定装置4を用いて物体8のラベル情報を取得する状況を撮影する。画像収集システム1で用いられる撮影装置6の台数に制約はなく、少なくとも1台の撮影装置6が含まれればよいが、ユーザがラベル特定装置4を用いて物体8のラベル情報を取得する状況が複数の方向から撮影できるように、複数の撮影装置6を用いる方が好ましい。図1の例では3台の撮影装置6が用いられ、それぞれ異なる方向から、ユーザがラベル特定装置4を用いて物体8のラベル情報を取得する状況を撮影している。物体8と各々の撮影装置6の距離が同じになるように撮影装置6を設置してもよいが、当該距離がそれぞれ異なるように各々の撮影装置6を設置してもよい。
The photographing
なお、時系列に沿って画像を撮影することができれば撮影装置6の種類に制約はなく、例えばスマートフォンに内蔵されたカメラや、ウェブカメラ等の監視カメラを利用することができる。また、撮影装置6で撮影される画像は白黒画像であってもカラー画像であってもよいが、白黒画像よりカラー画像の方が物体8の色情報を含めて撮影することができるため、カラー画像で撮影可能な撮影装置6を用いる方が好ましい。また、物体8が確認でき、かつ、ユーザがラベル特定装置4を用いて物体8のラベル情報を取得する状況が確認できる程度の解像度があれば、撮影装置6の解像度にも特に制約はないが、解像度が高くなるほど撮影画像が鮮明になることから解像度の高い撮影装置6を用いる方が好ましい。
There are no restrictions on the type of the photographing
<第1実施形態に係る画像収集装置の構成>
次に、画像収集装置2の構成について説明する。本発明の実施形態に係る画像収集装置2は、CPUと、RAMと、後述する画像収集ルーチンを実行するための画像収集プログラムや各種データを記憶したROMと、閾値等のデータを記憶する不揮発性メモリを含むコンピュータで構成することができる。画像収集装置2は、機能的には図2に示すように入力部10と、演算部20とを備えている。
<Structure of the image collecting device according to the first embodiment>
Next, the configuration of the
入力部10は、ラベル特定装置4で取得されたラベル情報を受け付けると共に、各々の撮影装置6で撮影された撮影画像を受け付け、演算部20に通知する。
The
演算部20は、ラベル特定部22、物体領域推定部24、訓練画像登録部26、及び訓練画像記憶部28を含んで構成される。
The
ラベル特定部22は、ラベル特定装置4で取得されたラベル情報を受け付けると、受け付けたラベル情報を解析して物体8の種別を特定する。そして、ラベル特定部22は、特定した物体8の種別を訓練画像登録部26に通知する。一方、ラベル特定部22は、物体領域推定部24に対して処理開始命令を通知する。
When the
物体領域推定部24は、ラベル特定部22から処理開始命令を受け付けると、ユーザがラベル特定装置4を用いて物体8のラベル情報を取得する状況を撮影した撮影装置6の撮影画像の各々から、ラベル特定部22で物体8の種別の特定に用いられた物体8のラベル情報が取得された瞬間の画像(以降、「基準フレーム画像30A」という)を取得する。そして、物体領域推定部24は、取得した各々の基準フレーム画像30Aから、ラベル特定部22で種別が特定された物体8が含まれる物体領域32を推定する。
When the object
物体領域推定部24は、物体領域32の推定に用いた各々の基準フレーム画像30A、及び各々の基準フレーム画像30Aから推定した物体8の物体領域32の位置情報を、訓練画像登録部26に通知する。
The object
訓練画像登録部26は、物体領域推定部24から基準フレーム画像30A及び物体領域32の位置情報を受け付けると共に、ラベル特定部22から物体8の種別を受け付けると、ラベル特定部22で特定された物体8の種別、物体領域推定部24で物体領域32の推定に用いられた基準フレーム画像30A、及び基準フレーム画像30Aにおける物体8の物体領域32を基準フレーム画像30A毎に対応付ける。そして、訓練画像登録部26は、物体8の種別及び物体領域32が対応付けられた各々の基準フレーム画像30Aを、それぞれ訓練画像として訓練画像記憶部28に記憶することで、訓練画像記憶部28に訓練画像を登録する。
When the training
訓練画像記憶部28は、訓練画像記憶部28に供給される電力が遮断されても記憶した情報を維持する記憶部の一例であり、例えば半導体メモリ又はハードディスクが用いられる。
The training
<第1実施形態に係る画像収集装置の作用>
次に、本実施形態に係る画像収集装置2の作用について説明する。入力部10において、物体8のラベル情報を受け付けると、画像収集装置2は、図3に示す画像収集ルーチンを実行する。なお、入力部10は、各撮影装置6で撮影された撮影画像を常時受け付け、撮影装置6毎に撮影画像をRAMに記憶するものとする。
<Operation of the image collecting device according to the first embodiment>
Next, the operation of the
まず、ステップS10において、CPUは、入力部10で受け付けたラベル特定装置4からのラベル情報を取得して、取得したラベル情報をRAMに記憶する。
First, in step S10, the CPU acquires the label information from the
ステップS20において、CPUは、ステップS10でRAMに記憶したラベル情報を解析して、ラベル情報によって示される物体8の種別を特定する。具体的には、CPUは、ラベル情報と物体8の種別を対応付けた種別テーブルを参照することで、ラベル情報によって示される物体8の種別を特定する。なお、種別テーブルは、例えば画像収集装置2に実装される不揮発性メモリに予め記憶しておき、これを参照してもよいが、インターネットに接続された種別テーブルを記憶するデータベースを参照して、ラベル情報によって示される物体8の種別を特定してもよい。
In step S20, the CPU analyzes the label information stored in the RAM in step S10 and identifies the type of the
ステップS30において、CPUは、入力部10で受け付けた各撮影装置6の撮影画像をRAMから取得する。
In step S30, the CPU acquires the captured image of each photographing
撮影画像は時系列に沿った複数のフレーム画像で構成されているため、ステップS40において、CPUは、ステップS30で取得した撮影装置6毎の撮影画像から、それぞれ基準フレーム画像30Aを取得する。具体的には、CPUは、ステップS10でラベル情報を取得した際に撮影された画像を、基準フレーム画像30Aとして撮影画像から抽出する。撮影画像に含まれる各々のフレーム画像に時刻情報が付与されている場合には、当該時刻情報を参照して、ステップS10でラベル情報を取得した時刻に対応する時刻情報が付与されているフレーム画像を、基準フレーム画像30Aとして取得するようにしてもよい。
Since the captured image is composed of a plurality of frame images in chronological order, in step S40, the CPU acquires the
ステップS50において、CPUは、ステップS40で取得したそれぞれの基準フレーム画像30Aに対して、ステップS20で種別が特定された物体8が含まれる物体領域32を推定する。この際、物体領域32の推定手法には、公知の手法を用いることができる。
In step S50, the CPU estimates an
例えば各々の撮影装置6の設置場所及び撮影方向が固定され、撮影装置6の撮影範囲が変わらない場合には、物体8が写っていない背景画像だけを撮影装置6毎に予め撮影して、画像収集装置2の不揮発性メモリ等に予め記憶しておき、撮影装置6毎に基準フレーム画像30Aと背景画像の差分を算出することで、基準フレーム画像30Aから物体領域32を推定するようにしてもよい。
For example, when the installation location and shooting direction of each
また、例えばスーパーやコンビニエンスストアのレジにおける商品決済時のように、ユーザが物体8(この場合、商品)を手に持った状態でラベル特定装置4を物体8に近づけ、物体8の価格及び品名を含んだラベル情報を取得する場合には、まず基準フレーム画像30Aから物体8をつかむユーザの手領域を抽出し、抽出した手領域の位置から物体8が含まれる物体領域32を推定するようにしてもよい(例えば非特許文献4参照)。
Further, for example, when the product is settled at the cash register of a supermarket or a convenience store, the
[非特許文献4]:Xiaolong Zhu, Wei Liu, Xuhui Jia ,Kwan-Yee K.Wong. "A Two-stage Detector for Hand Detection in Ego-centric Videos" in WACV, 2016 [Non-Patent Document 4]: Xiaolong Zhu, Wei Liu, Xuhui Jia, Kwan-Yee K.Wong. "A Two-stage Detector for Hand Detection in Ego-centric Videos" in WACV, 2016
図4は、基準フレーム画像30Aからユーザの手領域31を抽出し、抽出した手領域31の位置から物体領域32を推定する過程の一例を示す図である。
FIG. 4 is a diagram showing an example of a process of extracting a user's
画像収集装置2は、各々の撮影装置6で撮影された基準フレーム画像30A毎に手領域31を抽出する。
The
ここで、i(この場合、i=1〜3)番目の撮影装置6で撮影された基準フレーム画像30Aから抽出された手領域31の中心座標を^ciとする。また、物体8を手に持った場合の物体8の中心座標(すなわち、物体領域32の中心座標)は、手領域31の中心座標^ciからずれた位置となるため、予め様々な物体8を持った手が含まれる基準フレーム画像30Aを用いて、物体領域32の中心座標^x' iと手領域31の中心座標^ciのずれ量の平均値を実験的に求めた値をオフセット量^biとして記憶しておけば、各基準フレーム画像30Aにおける物体領域32の中心座標^x' iは(1)式で表される。
Here, let ^ c i be the center coordinate of the
(数1)
^x'i=^ci+^bi ・・・(1)
(Number 1)
^ x 'i = ^ c i + ^ b i ··· (1)
また、予め様々な物体8を持った手が含まれる基準フレーム画像30Aを用いて、実験的に求めた物体領域32の幅の平均値をwi、物体領域32の高さの平均値をhiとして記憶しておけば、図4に示すように、各基準フレーム画像30Aにおける物体領域32の範囲は、座標^x' iを中心とした幅wi、高さhiの矩形によって表される。
Further, by using the
なお、基準フレーム画像30Aからは左右の手に対応する2つの手領域31が抽出されることになる。しかし、ユーザは予め定めた一方の手で物体8をつかむとの条件を定めておけば、CPUは物体領域32の中心座標^x' iを推定する際、何れの手領域31の中心座標^ciを用いればよいかを判断することができる。
Two
また、物体領域32の形状は矩形に限られず、例えば円、楕円、多角形等の他の形状を用いて物体領域32を表すようにしてもよい。
Further, the shape of the
ステップS60において、CPUは、ステップS50で物体領域32の推定に用いられた基準フレーム画像30Aに対して、ステップS20で特定された物体領域32に含まれる物体8の種別と、基準フレーム画像30Aにおける物体領域32の位置情報、すなわち、物体領域32の中心座標^x' i、幅wi、及び高さhiとを、基準フレーム画像30A毎に対応付ける。そして、CPUは、物体8の種別及び物体領域32の位置情報が対応付けられた基準フレーム画像30A、すなわち、訓練画像の各々を、例えば画像収集装置2に実装される不揮発性メモリに記憶する。
In step S60, the CPU determines the type of the
なお、訓練画像の記憶先に制約はなく、例えばインターネットに接続されたデータベースに訓練画像を記憶するようにしてもよい。 There are no restrictions on the storage destination of the training image, and the training image may be stored in a database connected to the Internet, for example.
以上により、図3に示した画像収集ルーチンを終了する。 As a result, the image collection routine shown in FIG. 3 is completed.
このように本実施形態に係る画像収集装置2によれば、ユーザがラベル特定装置4で物体8のラベル情報を取得する瞬間の基準フレーム画像30Aに対して、物体8のラベル情報から得られた物体8の種別と、基準フレーム画像30Aから推定された物体領域32を対応付けて訓練画像とする。
As described above, according to the
バーコードリーダーやRFIDリーダーのように、光や電波を利用してラベル情報を読み取るラベル特定装置4は、例えば物体8の決済手段及び検品手段として用いられることからもわかるように、他の手法に比べてラベル情報の読み取りミスが低い。したがって、ラベル特定装置4から取得したラベル情報を用いて物体8の種別を特定する場合、例えば物体を撮影した撮影画像に対して画像認識を行うことで物体8の種別を特定する場合と比較して、物体8の種別に対する誤認識率が低くなる。
As can be seen from the fact that the
すなわち、画像収集装置2では、画像認識を用いて物体8の種別を特定する場合と比較して、訓練画像に正しい物体8の種別を対応付けることができる。
That is, in the
また、画像収集装置2は、ユーザがラベル特定装置4で物体8のラベル情報を取得する瞬間の画像である基準フレーム画像30Aを訓練画像として用いるため、ラベル情報を用いて特定した種別の物体8が、基準フレーム画像30Aに含まれる物体8であることが保証される。
Further, since the
更に、ユーザがラベル特定装置4を用いて物体8のラベル情報を取得する状況を複数の撮影装置6で撮影することで、1度のラベル情報の取得作業によって、様々な方向及び距離で撮影した複数の訓練画像が得られるため、より多くの訓練画像を効率的に収集することができる。
Further, by photographing the situation in which the user acquires the label information of the
<第2実施形態>
第1実施形態に係る画像収集装置2は、ユーザがラベル特定装置4で物体8のラベル情報を取得する瞬間の画像である基準フレーム画像30Aを訓練画像として用いた。しかしながら、撮影装置6で撮影した撮影画像のうち、物体8が含まれている画像は基準フレーム画像30Aに限られない。
<Second Embodiment>
The
したがって、第2実施形態では、基準フレーム画像30Aを基準として、基準フレーム画像30Aより前及び後の少なくとも一方の範囲で撮影された画像である隣接フレーム画像のうち、物体8が含まれる隣接フレーム画像も訓練画像として収集する画像収集装置2Aについて説明する。
Therefore, in the second embodiment, among the adjacent frame images which are images taken in at least one range before and after the
なお、画像収集装置2Aを含む画像収集システム1の構成は、図1と同じ構成が用いられる。
The configuration of the
<第2実施形態に係る画像収集装置の構成>
図5は、画像収集装置2Aの構成例を示す図である。
<Structure of the image collecting device according to the second embodiment>
FIG. 5 is a diagram showing a configuration example of the
図5に示す画像収集装置2Aの構成が、図2に示した画像収集装置2の構成と異なる点は、物体追跡部25が追加され、訓練画像登録部26が訓練画像登録部26Aに置き換えられた点である。
The configuration of the
物体追跡部25は、物体領域推定部24から基準フレーム画像30A及び物体領域32の位置情報を受け付けると、基準フレーム画像30Aに隣接するフレーム画像から時系列に沿ってフレーム画像を順次取得し、時系列に沿った各フレーム画像、すなわち、隣接フレーム画像の各々に対して、物体領域推定部24から受け付けた物体領域32に含まれる物体8と同じ物体8が含まれているか否かを判定する物体追跡を行う。なお、物体追跡部25は、物体追跡によって物体8が含まれると判定した隣接フレーム画像に対して、物体領域32の推定を行う。
When the
そして、物体追跡部25は、物体領域推定部24から受け付けた物体領域32に含まれる物体8と同じ物体8が含まれている隣接フレーム画像に、当該隣接フレーム画像から推定した物体8の物体領域32の位置情報を付加して訓練画像登録部26Aに通知する。また、物体追跡部25は、物体領域推定部24から受け付けた基準フレーム画像30A及び基準フレーム画像30Aにおける物体領域32の位置情報を訓練画像登録部26Aに通知する。
Then, the
なお、物体追跡部25は、撮影装置6が複数存在するために基準フレーム画像30Aを複数受け付けた場合、各基準フレーム画像30Aに対応するそれぞれの撮影装置6で撮影された撮影画像から隣接フレーム画像を取得して物体追跡を行う。
When the
訓練画像登録部26Aは訓練画像登録部26と同様に、物体追跡部25から基準フレーム画像30A及び基準フレーム画像30Aにおける物体領域32の位置情報を受け付けると共に、ラベル特定部22から物体8の種別を受け付けると、ラベル特定部22で特定された物体8の種別、物体領域推定部24で物体領域32の推定に用いられた基準フレーム画像30A、及び基準フレーム画像30Aにおける物体8の物体領域32を基準フレーム画像30A毎に対応付ける。
Similar to the training
また、訓練画像登録部26Aは、物体追跡部25から隣接フレーム画像及び隣接フレーム画像における物体領域32の位置情報を受け付けると共に、ラベル特定部22から物体8の種別を受け付けると、ラベル特定部22で特定された物体8の種別、物体追跡部25で物体8が含まれると判定された隣接フレーム画像、及び物体8が含まれると判定された隣接フレーム画像における物体8の物体領域32を隣接フレーム画像毎に対応付ける。そして、訓練画像登録部26Aは、物体8の種別及び物体領域32が対応付けられた各々の基準フレーム画像30A及び各々の隣接フレーム画像を、それぞれ訓練画像として訓練画像記憶部28に記憶する。
Further, when the training
<第2実施形態に係る画像収集装置の作用>
次に、本実施形態に係る画像収集装置2Aの作用について説明する。入力部10において、物体8のラベル情報を受け付けると、画像収集装置2Aは、図6に示す画像収集ルーチンを実行する。なお、入力部10は、各撮影装置6で撮影された撮影画像を常時受け付け、撮影装置6毎に撮影画像をRAMに記憶するものとする。したがって、RAMには物体8のラベル情報を受け付ける前の撮影画像、及び物体8のラベル情報を受け付けた後の撮影画像が記憶されている。
<Operation of the image collecting device according to the second embodiment>
Next, the operation of the
図6に示す画像収集ルーチンが図3に示した画像収集装置2の画像収集ルーチンと異なる点は、ステップS52〜S58が新たに追加され、ステップS60がステップS60Aに置き換えられた点である。
The difference between the image collection routine shown in FIG. 6 and the image collection routine of the
ステップS50で、基準フレーム画像30Aに対してステップS20で種別が特定された物体8が含まれる物体領域32が推定されるとステップS52が実行される。
In step S50, when the
ステップS52において、CPUは、物体領域32が推定された基準フレーム画像30Aのうち、何れか1つの基準フレーム画像30Aを選択し、選択した基準フレーム画像30Aが含まれる撮影画像から、時系列に従って基準フレーム画像30Aに隣接する隣接フレーム画像を1枚取得する。この際、CPUは、基準フレーム画像30Aが撮影された時刻より前に撮影された過去方向の時系列に沿って隣接フレーム画像を取得してもよいし、基準フレーム画像30Aが撮影された時刻より後に撮影された未来方向の時系列に沿って隣接フレーム画像を取得してもよい。ここでは一例として、過去方向の時系列に沿って隣接フレーム画像を取得するものとして説明を行う。
In step S52, the CPU selects any one of the
ステップS54において、CPUは、ステップS52で取得した隣接フレーム画像に、ステップS50で推定した基準フレーム画像30Aの物体領域32に含まれる物体8と同じ物体8が含まれるか否かを判定する物体追跡を行う。
In step S54, the CPU determines whether or not the adjacent frame image acquired in step S52 includes the
隣接フレーム画像における物体追跡には、例えば非特許文献5に示すような公知の手法を用いることができる。 For tracking an object in an adjacent frame image, for example, a known method as shown in Non-Patent Document 5 can be used.
[非特許文献5]:Michael Isard, Andrew Blake. "CONDENSATION-Conditional Density Propagation for Visual Tracking" International Journal of Computer Vision, Vol29, No.1, pp.5-28, 1998 [Non-Patent Document 5]: Michael Isard, Andrew Blake. "CONDENSATION-Conditional Density Propagation for Visual Tracking" International Journal of Computer Vision, Vol29, No.1, pp.5-28, 1998
非特許文献5には、尤度を持つ多数の仮説群により離散的な確率密度として追跡対象(この場合、物体8)を表現し、状態遷移モデルを用いて物体8の動きの変動や観測のノイズに対して頑健な追跡を実現する手法が開示されている。したがって、隣接フレーム画像において、物体8が存在する確率である尤度が予め定めた閾値以上となった場合には、隣接フレーム画像に物体8が含まれると判定され、尤度が予め定めた閾値未満となった場合には、隣接フレーム画像には物体8が含まれないと判定される。
In Non-Patent Document 5, the tracked object (in this case, the object 8) is expressed as a discrete probability density by a large number of hypothesis groups having likelihoods, and the movement fluctuation and observation of the
CPUは、隣接フレーム画像に物体8が含まれる場合、ステップS50と同じ手法を用いて、隣接フレーム画像に対して物体8が含まれる物体領域32を推定する。
When the
ステップS56において、CPUは、ステップS52で取得した隣接フレーム画像に物体領域32が含まれるか否かを判定する。隣接フレーム画像に物体領域32が含まれる場合には、当該隣接フレーム画像に隣接する過去方向の時系列に沿った隣接フレーム画像にも物体8が含まれる可能性があるため、ステップS52に移行する。
In step S56, the CPU determines whether or not the
そして、ステップS52において、直前に取得した隣接フレーム画像が含まれる撮影画像から、直前に取得した隣接フレーム画像と隣接する過去方向の時系列に沿った隣接フレーム画像を1枚取得する。以降、ステップS56の判定処理において、ステップS52で取得した隣接フレーム画像に物体領域32が含まれていないと判定されるまで、ステップS52〜S56を繰り返し実行することで、基準フレーム画像30Aから過去方向に遡った範囲の隣接フレーム画像のうち、物体8が含まれている隣接フレーム画像と当該隣接フレーム画像における物体領域32を取得することができる。
Then, in step S52, one adjacent frame image along the time series in the past direction adjacent to the adjacent frame image acquired immediately before is acquired from the captured image including the adjacent frame image acquired immediately before. After that, in the determination process of step S56, steps S52 to S56 are repeatedly executed until it is determined that the adjacent frame image acquired in step S52 does not include the
一方、ステップS56の判定処理が否定判定の場合、すなわち、ステップS52で取得した隣接フレーム画像に物体領域32が含まれていないと判定された場合には、ステップS58に移行する。
On the other hand, if the determination process in step S56 is a negative determination, that is, if it is determined that the adjacent frame image acquired in step S52 does not include the
ステップS58において、CPUは、物体領域32が推定された基準フレーム画像30Aのうち、未選択の基準フレーム画像30Aが存在するか否かを判定する。未選択の基準フレーム画像30Aが存在する場合、ステップS52に移行する。
In step S58, the CPU determines whether or not there is an unselected
そして、ステップS52において、未選択の基準フレーム画像30Aの中から基準フレーム画像を1枚選択し、選択した基準フレーム画像30Aが含まれる撮影画像から、時系列に従って基準フレーム画像30Aに隣接する隣接フレーム画像を1枚取得する。以降、ステップS58の判定処理で未選択の基準フレーム画像30Aが存在しないと判定されるまでステップS52〜S58を繰り返し実行することで、複数の撮影装置6で撮影された各々の撮影画像から、物体8が含まれている隣接フレーム画像と当該隣接フレーム画像における物体領域32を取得することができる。
Then, in step S52, one reference frame image is selected from the unselected
ステップS60Aにおいて、CPUは、ステップS50で物体領域32の推定に用いられた基準フレーム画像30Aに対して、ステップS20で特定された物体領域32に含まれる物体8の種別と、基準フレーム画像30Aにおける物体領域32の位置情報とを、基準フレーム画像30A毎に対応付ける。また、CPUは、物体領域32が含まれる隣接フレーム画像の各々に対して、ステップS20で特定された物体領域32に含まれる物体8の種別と、各隣接フレーム画像における物体領域32の位置情報とを、隣接フレーム画像毎に対応付ける。
In step S60A, the CPU determines the type of the
そして、CPUは、物体8の種別及び物体領域32の位置情報が対応付けられた基準フレーム画像30A及び隣接フレーム画像の各々を訓練画像として、例えば画像収集装置2Aに実装される不揮発性メモリに記憶する。
Then, the CPU stores each of the
以上により、図6に示した画像収集ルーチンを終了する。 As a result, the image collection routine shown in FIG. 6 is completed.
図6に示した画像収集ルーチンでは、基準フレーム画像30Aから過去方向に遡った範囲の隣接フレーム画像を用いて訓練画像を収集するか、基準フレーム画像30Aから未来方向に向かった範囲の隣接フレーム画像を用いて訓練画像を収集するかの何れかの例を示したが、基準フレーム画像30Aから過去方向に遡った範囲の隣接フレーム画像を用いて訓練画像を収集した後、更に、基準フレーム画像30Aから未来方向に向かった範囲の隣接フレーム画像を用いて訓練画像を収集するようにしてもよい。具体的には、図6のステップS58の処理が終了した後、それまで隣接フレーム画像を取得した時系列の方向とは逆の方向に隣接フレーム画像を取得するようにして、ステップS52〜S58の処理を再度実行すればよい。
In the image collection routine shown in FIG. 6, the training image is collected using the adjacent frame image in the range retroactive from the
この場合、基準フレーム画像30Aを基準として未来方向又は過去方向の何れか1方向に沿った隣接フレーム画像から訓練画像を収集する場合と比較して、1つの撮影画像からより多くの訓練画像を効率よく収集することができる。
In this case, more training images can be efficiently obtained from one captured image as compared with the case of collecting training images from adjacent frame images along either one of the future direction and the past direction with reference to the
図7は、基準フレーム画像30Aを基準として未来方向及び過去方向の両方向に沿った隣接フレーム画像から訓練画像を収集する例を示す図である。図7では、基準フレーム画像30Aから過去方向の時系列に沿った隣接フレーム画像を「隣接フレーム画像30B」で表し、基準フレーム画像30Aから未来方向の時系列に沿った隣接フレーム画像を「隣接フレーム画像30C」で表している。また、隣接フレーム画像30B、30Cに続く符合「−n(n=1〜3)」は、基準フレーム画像30Aからの時系列順を示しており、“n”の値が大きくなるに従って、基準フレーム画像30Aからの時間間隔が大きいことを示している。
FIG. 7 is a diagram showing an example of collecting training images from adjacent frame images along both the future direction and the past direction with reference to the
すなわち、隣接フレーム画像30B−3→隣接フレーム画像30B−2→隣接フレーム画像30B−1→基準フレーム画像30A→隣接フレーム画像30C−1→隣接フレーム画像30C−2→隣接フレーム画像30C−3の順に各画像が撮影されている。
That is, the order of
図7の例では、隣接フレーム画像30B−3及び隣接フレーム画像30C−3に物体領域32が存在しないため、隣接フレーム画像30B−2、隣接フレーム画像30B−1、基準フレーム画像30A、隣接フレーム画像30C−1、及び隣接フレーム画像30C−2が訓練画像として収集されることになる。
In the example of FIG. 7, since the
このように本実施形態に係る画像収集装置2Aによれば、基準フレーム画像30Aだけでなく、基準フレーム画像30Aの未来方向及び過去方向の少なくとも一方の範囲で撮影された、物体8を含む隣接フレーム画像も訓練画像として収集することができる。したがって、基準フレーム画像30Aだけを訓練画像として収集する場合と比較して、1つの撮影画像からより多くの訓練画像を効率よく収集することができる。
As described above, according to the
<第3実施形態>
第1実施形態に係る画像収集装置2は、基準フレーム画像30Aからユーザの手領域31を抽出し、抽出した手領域31の位置から物体領域32を推定した。しかしながら、基準フレーム画像30Aにおける物体領域32は他の方法を用いても推定することができる。
<Third Embodiment>
The
したがって、第3実施形態では、基準フレーム画像30Aに含まれるラベル特定装置4の位置から物体領域32を推定する画像収集装置2Bについて説明する。
Therefore, in the third embodiment, the
なお、画像収集装置2Bを含む画像収集システム1の構成は、図1と同じ構成が用いられる。
The configuration of the
<第3実施形態に係る画像収集装置の構成>
図8は、画像収集装置2Bの構成例を示す図である。
<Structure of the image collecting device according to the third embodiment>
FIG. 8 is a diagram showing a configuration example of the
図8に示す画像収集装置2Bの構成が、図2に示した画像収集装置2の構成と異なる点は、ラベル特定装置推定部23が追加され、物体領域推定部24が物体領域推定部24Bに置き換えられた点である。
The configuration of the
ラベル特定部22がラベル特定装置推定部23に対して処理開始命令を通知すると、ラベル特定装置推定部23は、撮影装置6で撮影された撮影画像の各々から、基準フレーム画像30Aを取得する。そして、ラベル特定装置推定部23は、取得した各々の基準フレーム画像30Aから、ラベル特定装置4が含まれる装置領域34を推定する。
When the
そして、ラベル特定装置推定部23は、推定した基準フレーム画像30A毎の装置領域34の位置情報を、物体領域推定部24Bに通知する。
Then, the label specifying device estimation unit 23 notifies the object
物体領域推定部24Bは、ラベル特定装置推定部23から基準フレーム画像30A毎の装置領域34の位置情報を受け付けると、装置領域34の位置情報から物体8が含まれる物体領域32を基準フレーム画像30A毎に推定する。
When the object
そして、物体領域推定部24Bは、物体領域32の推定に用いた各々の基準フレーム画像30A、及び各々の基準フレーム画像30Aから推定した物体8の物体領域32の位置情報を、訓練画像登録部26に通知する。
Then, the object
<第3実施形態に係る画像収集装置の作用>
次に、本実施形態に係る画像収集装置2Bの作用について説明する。入力部10において、物体8のラベル情報を受け付けると、画像収集装置2Bは、図9に示す画像収集ルーチンを実行する。
<Operation of the image collecting device according to the third embodiment>
Next, the operation of the
図9に示す画像収集ルーチンが図3に示した画像収集装置2の画像収集ルーチンと異なる点は、ステップS42が新たに追加され、ステップS50がステップS50Aに置き換えられた点である。
The difference between the image collection routine shown in FIG. 9 and the image collection routine of the
ステップS40で、各々の撮影画像からそれぞれ基準フレーム画像30Aが取得されるとステップS42が実行される。
In step S40, when the
ステップS42において、CPUは、ステップS40で取得された基準フレーム画像30Aの各々から、ラベル特定装置4が含まれる装置領域34を推定する。この際、装置領域34の推定手法には、公知の手法を用いることができる。
In step S42, the CPU estimates the
例えばラベル特定装置4を様々な方向及び距離で撮影したラベル特定装置4の訓練画像を予め準備しておき、特許文献1に示した物体識別技術を用いて、各々の基準フレーム画像30Aからラベル特定装置4を含む装置領域34を推定してもよい。
For example, training images of the
ステップS50Aにおいて、CPUは、ステップS42で推定したそれぞれの基準フレーム画像30Aにおける装置領域34の位置情報に基づいて、ステップS20で種別が特定された物体8が含まれる物体領域32を推定する。装置領域34から物体領域32を推定する際には、公知の推定手法を用いることができる。
In step S50A, the CPU estimates the
例えば物体8のラベル情報を取得する場合、ユーザはラベル特定装置4を物体8に近づける動作を行うため、ラベル特定装置4の近傍に物体8が存在する場合が多い。
For example, when acquiring the label information of the
したがって、ユーザがラベル特定装置4を物体8に近づけてラベル情報を取得しようとした場合のラベル特定装置4に対する物体8の相対位置、及び物体8の平均的な大きさ(すなわち、物体領域32の大きさ)を、予め実験によって各撮影装置6における基準フレーム画像30A毎に統計的に求めておく。そして、図10に示すように、装置領域34を予め求めておいた物体8の相対位置に基づいて移動させると共に、予め求めておいた物体領域32の大きさまで装置領域34を拡大又は縮小することで、各撮影装置6における基準フレーム画像30A毎に物体領域32を推定することができる。
Therefore, the relative position of the
なお、非特許文献6に記載された手法を用いて、装置領域34を移動、拡大、及び縮小することで、物体領域32を推定するようにしてもよい。
The
[非特許文献6]:Carstern Rother, Vladimir Kolmogorov, Andrew Blake. "GrabCut-Interactive Foreground Extraction using Iterated Graph Cuts" in SIGGRAPH, 2014 [Non-Patent Document 6]: Carstern Rother, Vladimir Kolmogorov, Andrew Blake. "GrabCut-Interactive Foreground Extraction using Iterated Graph Cuts" in SIGGRAPH, 2014
後は、既に説明したステップS60において、ステップS50Aで物体領域32の推定に用いられた基準フレーム画像30Aに対して、ステップS20で特定された物体領域32に含まれる物体8の種別と、基準フレーム画像30Aにおける物体領域32の位置情報とを、基準フレーム画像30A毎に対応付けて、訓練画像とすればよい
After that, in step S60 already described, the type of the
このように本実施形態に係る画像収集装置2Bによれば、基準フレーム画像30Aからユーザの手領域31を推定する代わりに、ラベル特定装置4が含まれる装置領域34を推定し、推定した装置領域34に基づいて物体8が含まれる物体領域32を推定する。
As described above, according to the
手の形状は様々に変化するがラベル特定装置4の形状は不変であるため、手領域31の推定精度より装置領域34の推定精度の方が高くなる場合がある。したがって、装置領域34の推定精度の向上に伴って、物体領域32の推定精度を向上させることができる。
Since the shape of the hand changes variously but the shape of the
なお、ここでは基準フレーム画像30Aから装置領域34を推定した上で、物体領域32を推定する例について説明したが、隣接フレーム画像から物体領域32を推定する場合にも適用できることは言うまでもない。
Here, an example of estimating the
本発明は、上述した各実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。 The present invention is not limited to the above-described embodiments, and various modifications and applications are possible without departing from the gist of the present invention.
例えば、上述した各実施形態では、画像収集ルーチンをソフトウエアで実現する例について示したが、ASIC(Application Specific Integrated Circuit)等のハードウエアを用いて実現してもよい。 For example, in each of the above-described embodiments, an example in which the image acquisition routine is realized by software is shown, but it may be realized by using hardware such as an ASIC (Application Specific Integrated Circuit).
また、上述した各実施形態では、画像収集プログラムがROMにインストールされている形態について説明したが、これに限定されるものではない。本発明に係る画像収集プログラムは、コンピュータ読み取り可能な記憶媒体に記録された形態で提供することも可能である。例えば、本発明に係る画像収集プログラムを、CD(Compact Disc)−ROM、又はDVD(Digital Versatile Disc)−ROM等の光ディスクに記録した形態で提供してもよい。また、本発明に係る画像収集プログラムを、USB(Universal Serial Bus)メモリ及びフラッシュメモリ等の半導体メモリに記録した形態で提供してもよい。更に、画像収集装置がインターネット等の通信回線に接続される場合、通信回線に接続されたサーバ等の端末装置から、本発明に係る画像収集プログラムを取得するようにしてもよい。 Further, in each of the above-described embodiments, the mode in which the image acquisition program is installed in the ROM has been described, but the present invention is not limited to this. The image acquisition program according to the present invention can also be provided in a form recorded on a computer-readable storage medium. For example, the image acquisition program according to the present invention may be provided in the form of being recorded on an optical disk such as a CD (Compact Disc) -ROM or a DVD (Digital Versatile Disc) -ROM. Further, the image acquisition program according to the present invention may be provided in a form of being recorded in a semiconductor memory such as a USB (Universal Serial Bus) memory and a flash memory. Further, when the image collecting device is connected to a communication line such as the Internet, the image collecting program according to the present invention may be acquired from a terminal device such as a server connected to the communication line.
1・・・画像収集システム
2(2A、2B)・・・画像収集装置
4・・・ラベル特定装置
6・・・撮影装置
8・・・物体
10・・・入力部
20・・・演算部
22・・・ラベル特定部
23・・・ラベル特定装置推定部
24(24B)・・・物体領域推定部
25・・・物体追跡部
26(26A)・・・訓練画像登録部
28・・・訓練画像記憶部
30A・・・基準フレーム画像
30B(30C)・・・隣接フレーム画像
31・・・手領域
32・・・物体領域
34・・・装置領域
1 ... Image collection system 2 (2A, 2B) ...
Claims (6)
前記ラベル特定装置を用いた前記物体のラベル情報の取得状況を撮影する少なくとも1台の撮影装置が撮影した撮影画像の各々から、前記ラベル特定部で前記物体の種別の特定に用いられた前記物体のラベル情報が取得された瞬間の基準フレーム画像を取得し、取得した前記基準フレーム画像から前記物体が含まれる物体領域を推定する物体領域推定部と、
前記ラベル特定部で特定した前記物体の種別、前記物体領域推定部で前記物体の物体領域の推定に用いられた前記基準フレーム画像、及び前記物体領域推定部で推定された前記基準フレーム画像における前記物体の物体領域をそれぞれ対応づけ、訓練画像として記憶装置に登録する訓練画像登録部と、
前記撮影装置が撮影した撮影画像の前記基準フレーム画像の各々から、前記ラベル特定装置が含まれる装置領域を推定するラベル特定装置推定部を備え、
前記物体領域推定部は、前記ラベル特定装置推定部で推定された前記ラベル特定装置の装置領域の位置に基づいて、前記基準フレーム画像から前記物体が含まれる物体領域を推定する
画像収集装置。 A label specifying unit that acquires label information of the object from a label specifying device that acquires label information indicating the type of the object given to the object by approaching the object, and specifies the type of the object.
The object used to identify the type of the object in the label specifying unit from each of the captured images taken by at least one photographing device that photographs the acquisition status of the label information of the object using the label specifying device. An object area estimation unit that acquires a reference frame image at the moment when the label information of is acquired and estimates an object area including the object from the acquired reference frame image.
The type of the object specified by the label specifying unit, the reference frame image used for estimating the object area of the object by the object area estimation unit, and the reference frame image estimated by the object area estimation unit. A training image registration unit that associates the object areas of objects with each other and registers them in the storage device as training images.
A label specifying device estimation unit that estimates a device area including the label specifying device from each of the reference frame images of the captured image taken by the shooting device is provided.
The object area estimation unit is an image collecting device that estimates an object area including the object from the reference frame image based on the position of the device area of the label identification device estimated by the label identification device estimation unit.
前記訓練画像登録部は、前記ラベル特定部で特定した前記物体の種別、前記物体追跡部で前記物体の物体領域の推定に用いられた前記隣接フレーム画像、及び前記物体追跡部で推定された前記隣接フレーム画像における前記物体の物体領域をそれぞれ対応付け、訓練画像として前記記憶装置に登録する
請求項1記載の画像収集装置。 From each of the captured images, adjacent frame images, which are images captured in at least one range before and after the reference frame image acquired by the object area estimation unit, were acquired and acquired in chronological order. Further provided is an object tracking unit that tracks the object included in the reference frame image from each of the adjacent frame images and estimates an object region including the object from each of the adjacent frame images including the object.
The training image registration unit includes the type of the object specified by the label specifying unit, the adjacent frame image used by the object tracking unit to estimate the object area of the object, and the estimated object tracking unit. The image collecting device according to claim 1, wherein the object regions of the objects in the adjacent frame images are associated with each other and registered in the storage device as a training image.
請求項1又は請求項2に記載の画像収集装置。 The image collecting device according to claim 1 or 2 , wherein the label specifying unit acquires label information of the object from the label specifying device that reads the label information of the object using light or radio waves.
前記ラベル特定装置を用いた前記物体のラベル情報の取得状況を撮影する少なくとも1台の撮影装置が撮影した撮影画像の各々から、前記物体の種別の特定に用いられた前記物体のラベル情報が取得された瞬間の基準フレーム画像を取得し、取得した前記基準フレーム画像から前記物体が含まれる物体領域を推定するステップと、
前記特定された前記物体の種別、前記物体の物体領域の推定に用いられた前記基準フレーム画像、及び前記基準フレーム画像における前記物体の物体領域をそれぞれ対応づけ、訓練画像として記憶装置に登録するステップと、
前記撮影装置が撮影した撮影画像の前記基準フレーム画像の各々から、前記ラベル特定装置が含まれる装置領域を推定するステップを含み、
前記基準フレーム画像から前記物体が含まれる物体領域を推定するステップにおいて、推定された前記ラベル特定装置の装置領域の位置に基づいて、前記基準フレーム画像から前記物体が含まれる物体領域を推定する
画像収集方法。 A step of acquiring label information of the object from a label specifying device for acquiring label information indicating the type of the object given to the object by approaching the object and specifying the type of the object.
The label information of the object used for identifying the type of the object is acquired from each of the captured images taken by at least one photographing device for photographing the acquisition status of the label information of the object using the label specifying device. A step of acquiring a reference frame image at the moment when the object is created and estimating an object region including the object from the acquired reference frame image.
A step of associating the specified type of the object, the reference frame image used for estimating the object area of the object, and the object area of the object in the reference frame image, and registering them in the storage device as a training image. When,
A step of estimating the device area including the label specifying device from each of the reference frame images of the captured image captured by the photographing device is included.
In the step of estimating the object area including the object from the reference frame image, the image that estimates the object area including the object from the reference frame image based on the estimated position of the device area of the label specifying device. Collection method.
前記特定された前記物体の種別、前記物体の物体領域の推定に用いられた前記隣接フレーム画像、及び前記隣接フレーム画像における前記物体の物体領域をそれぞれ対応付け、訓練画像として前記記憶装置に登録するステップと、
を更に備えた
請求項5記載の画像収集方法。 Adjacent frame images, which are images taken in at least one range before and after the reference frame image, are acquired from each of the captured images in chronological order, and the reference is obtained from each of the acquired adjacent frame images. A step of tracking the object included in the frame image and estimating an object region containing the object from each of the adjacent frame images including the object.
The identified type of the object, the adjacent frame image used for estimating the object area of the object, and the object area of the object in the adjacent frame image are associated with each other and registered in the storage device as a training image. Steps and
5. The image collecting method according to claim 5, further comprising.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017220734A JP6930389B2 (en) | 2017-11-16 | 2017-11-16 | Image collectors, programs, and methods |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017220734A JP6930389B2 (en) | 2017-11-16 | 2017-11-16 | Image collectors, programs, and methods |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019091339A JP2019091339A (en) | 2019-06-13 |
JP6930389B2 true JP6930389B2 (en) | 2021-09-01 |
Family
ID=66836508
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017220734A Active JP6930389B2 (en) | 2017-11-16 | 2017-11-16 | Image collectors, programs, and methods |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6930389B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7290602B2 (en) | 2020-04-27 | 2023-06-13 | Kddi株式会社 | LEARNING DEVICE, METHOD AND PROGRAM |
CN117271819B (en) * | 2023-11-17 | 2024-03-01 | 上海闪马智能科技有限公司 | Image data processing method and device, storage medium and electronic device |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6320112B2 (en) * | 2014-03-27 | 2018-05-09 | キヤノン株式会社 | Information processing apparatus and information processing method |
-
2017
- 2017-11-16 JP JP2017220734A patent/JP6930389B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019091339A (en) | 2019-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10628648B2 (en) | Systems and methods for tracking optical codes | |
US10417773B2 (en) | Method and apparatus for detecting object in moving image and storage medium storing program thereof | |
US9877012B2 (en) | Image processing apparatus for estimating three-dimensional position of object and method therefor | |
US8345101B2 (en) | Automatically calibrating regions of interest for video surveillance | |
US9390506B1 (en) | Selective object filtering and tracking | |
Winlock et al. | Toward real-time grocery detection for the visually impaired | |
Pelapur et al. | Persistent target tracking using likelihood fusion in wide-area and full motion video sequences | |
Klippenstein et al. | Quantitative evaluation of feature extractors for visual slam | |
CN109727275B (en) | Object detection method, device, system and computer readable storage medium | |
WO2019205727A1 (en) | Object identification method and object identification device | |
JP2005011005A (en) | Information processor | |
JP6947508B2 (en) | Moving object detection device, moving object detection system, and moving object detection method | |
KR101130963B1 (en) | Apparatus and method for tracking non-rigid object based on shape and feature information | |
Rosado et al. | Supervised learning for out-of-stock detection in panoramas of retail shelves | |
WO2021072699A1 (en) | Irregular scan detection for retail systems | |
JP5656768B2 (en) | Image feature extraction device and program thereof | |
JP6930389B2 (en) | Image collectors, programs, and methods | |
JP2010157093A (en) | Motion estimation device and program | |
CN112308879A (en) | Image processing apparatus, method of tracking target object, and storage medium | |
JP2013016171A (en) | Method, device, and program for identifying human behavior cycle and recognizing human behavior | |
JP2024016287A (en) | System and method for detecting lines in a vision system | |
Bartl et al. | PersonGONE: Image inpainting for automated checkout solution | |
US20210142064A1 (en) | Image processing apparatus, method of processing image, and storage medium | |
KR101595334B1 (en) | Method and apparatus for movement trajectory tracking of moving object on animal farm | |
JP6659095B2 (en) | Image processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210209 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210309 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210713 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210726 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6930389 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |