JP2019091339A - 画像収集装置、プログラム、及び方法 - Google Patents

画像収集装置、プログラム、及び方法 Download PDF

Info

Publication number
JP2019091339A
JP2019091339A JP2017220734A JP2017220734A JP2019091339A JP 2019091339 A JP2019091339 A JP 2019091339A JP 2017220734 A JP2017220734 A JP 2017220734A JP 2017220734 A JP2017220734 A JP 2017220734A JP 2019091339 A JP2019091339 A JP 2019091339A
Authority
JP
Japan
Prior art keywords
image
frame image
reference frame
label
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017220734A
Other languages
English (en)
Other versions
JP6930389B2 (ja
Inventor
峻司 細野
Shunji Hosono
峻司 細野
周平 田良島
Shuhei Tarashima
周平 田良島
隆行 黒住
Takayuki Kurozumi
隆行 黒住
杵渕 哲也
Tetsuya Kinebuchi
哲也 杵渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017220734A priority Critical patent/JP6930389B2/ja
Publication of JP2019091339A publication Critical patent/JP2019091339A/ja
Application granted granted Critical
Publication of JP6930389B2 publication Critical patent/JP6930389B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】物体を識別するためのラベル情報が正しく対応付けられた、より多くの訓練画像を効率的に収集する。【解決手段】画像収集装置2は、ラベル特定装置4を物体8に接近させることで物体8のラベル情報を取得して物体8の種別を特定し、物体8のラベル情報の取得状況を撮影する少なくとも1台の撮影装置6が撮影した撮影画像の各々から、物体8のラベル情報が取得された瞬間の基準フレーム画像30Aを取得して、基準フレーム画像30Aから物体8が含まれる物体領域32を推定し、物体8の種別、基準フレーム画像30A、及び基準フレーム画像30Aにおける物体8の物体領域32をそれぞれ対応づけ、訓練画像として記憶装置に登録する。【選択図】図2

Description

本発明は、画像収集装置、プログラム、及び方法に係り、特に、物体識別に用いられる訓練画像を効率的に収集するための画像収集装置、プログラム、及び方法に関する。
画像に写り込む物体が、物体の識別のために事前に用意された画像、すなわち「訓練画像」に含まれる物体に該当するのか、或いは訓練画像に含まれる何れの物体にも該当しないのかを推定することで、画像に写り込む物体の種類を識別する物体識別技術は、画像をインタフェースとして物体の情報検索及び情報管理を実現する上で重要な要素技術であり、幅広い産業分野で用いられている。
例えば、ユーザがスマートフォン等で撮影した食品の商品パッケージの画像から商品を特定し、インターネット上のデータベースからアレルギー情報等の商品詳細情報を取得することができれば、商品パッケージに記載されている説明文の言語を母国語とないユーザであっても、容易にデータベースからユーザの母国語で記載された商品詳細情報を得ることができる。
そのため、訓練画像を予め学習し、物体の局所特徴量を用いて物体を識別する物体識別技術(例えば特許文献1参照)や、類似する物体であっても物体間の差異を示すキーポイント(「弁別的キーポイント」と呼ばれる)を用いて、精度よく物体を識別する物体識別技術(例えば非特許文献1参照)が提案されている。
特開2015−201123号公報
渡邉之人、入江豪、黒住隆行、杵渕哲也著、「弁別的キーポイントの選択に基づく類似物体群からの特定物体認識」、映像情報メディア学会誌、Vol.71、No.2、pp.J93-J100、2017
一方、特許文献1及び非特許文献1に示した物体識別技術で精度よく物体を識別するには、識別しようとする物体の撮影条件に近い訓練画像を予め準備しておく必要がある。例えば物体の撮影角度及び撮影距離の変化に伴う、撮影した画像内での物体の見え方の変化に対応するためには、図11に示すように、物体を様々な方向及び距離で撮影した複数の訓練画像を予め準備しておかなければならない。
また、物体の訓練画像には、例えば図12に示すように、当該訓練画像に含まれる物体の種別を一意に識別するための商品名や一般名詞といった情報(以降、「ラベル情報」という)を予め対応付けておく必要があるが、訓練画像に誤ったラベル情報が対応付けられた場合、物体の識別精度が低下することになる。
更に、訓練画像に対応付けられたラベル情報で表される物体と異なる物体が、ラベル情報で表される物体と共に訓練画像に含まれる場合、このままでは何れの物体がラベル情報で表される物体であるのかわからないため、物体の識別精度が低下することになる。したがって、この場合、例えば図13に示すように、訓練画像からラベル情報で表される物体の位置情報(図13の例では点線枠で示されている)を取得するといった事前作業が必要になることがある。
このように、訓練画像の準備には非常に手間を要するため、物体識別技術の導入及び維持管理に係るコストが増大する。
こうした問題を解決するため、これまでにも訓練画像を効率よく収集する手法が提案されている。例えば非特許文献2では、インターネット上で物体の名前(ラベル情報に相当)を検索することで、検索したラベル情報に対応した訓練画像を収集する手法が提案されている。
[非特許文献2]:Micheal Rubinstein, Armand Joulin, Johannes Kopf, Ce Liu. "Unsupervised Joint Object Discovery and Segmentation in internet Images" in CVPR, 2013
しかしながら、非特許文献2に示される手法では、例えば店舗でしか取り扱いがなくインターネットで流通していない物体、及び特殊な分野で使用される工業用部品等、インターネット上の記憶装置に蓄積されにくい物体の画像は取得し難くなり、訓練画像の画像量が不足する傾向が見られる。したがって、こうした物体の識別精度は低下する場合がある。
また、非特許文献3には、特定の物体の訓練画像を用いて物体の識別を実行した結果、推定対象の物体が当該訓練画像で表される物体であると推定された場合、推定対象の物体が含まれる画像を新たに訓練画像に追加することで、訓練画像を収集する手法が提案されている。
[非特許文献3]:出口大輔、道満恵介、井手一郎、村瀬洋著、「遡及型追跡に基づく標識画像の自動収集を用いた標識検出器の高精度化」、電子情報通信学会論文誌、Vol.J95-D、No.1、pp.76-84、2012
しかしながら、非特許文献3に示される手法は、訓練画像を用いた物体の識別に誤りが生じないという前提が置かれている。実際には物体を誤って識別する場合もあるため、非特許文献3に示される手法において物体が誤って識別されると、特定の物体の訓練画像に、異なる種類の物体の訓練画像が追加されることになる。以降、当該訓練画像を用いて物体の識別を実行した場合、連鎖的に特定の物体とは異なる種類の物体の訓練画像が追加されやすくなるため、こうした訓練画像を用いた場合、物体の識別精度が低下することになる。
本発明は、上記問題点を解決するために成されたものであり、物体を識別するためのラベル情報が正しく対応付けられた、より多くの訓練画像を効率的に収集することができる画像収集装置、プログラム、及び方法を提供することを目的とする。
上記目的を達成するために、第1の発明に係る画像収集装置は、物体に接近させることで前記物体に付与された前記物体の種別を示すラベル情報を取得するラベル特定装置から前記物体のラベル情報を取得し、前記物体の種別を特定するラベル特定部と、前記ラベル特定装置を用いた前記物体のラベル情報の取得状況を撮影する少なくとも1台の撮影装置が撮影した撮影画像の各々から、前記ラベル特定部で前記物体の種別の特定に用いられた前記物体のラベル情報が取得された瞬間の基準フレーム画像を取得し、取得した前記基準フレーム画像から前記物体が含まれる物体領域を推定する物体領域推定部と、前記ラベル特定部で特定した前記物体の種別、前記物体領域推定部で前記物体の物体領域の推定に用いられた前記基準フレーム画像、及び前記物体領域推定部で推定された前記基準フレーム画像における前記物体の物体領域をそれぞれ対応づけ、訓練画像として記憶装置に登録する訓練画像登録部と、を備える。
また、第1の発明に係る画像収集装置は、前記撮影画像の各々から、前記物体領域推定部で取得された前記基準フレーム画像より前及び後の少なくとも一方の範囲で撮影された画像である隣接フレーム画像を時系列に沿って取得し、取得した前記隣接フレーム画像の各々から前記基準フレーム画像に含まれる前記物体を追跡し、前記物体が含まれる前記隣接フレーム画像の各々から前記物体が含まれる物体領域を推定する物体追跡部を更に備え、前記訓練画像登録部は、前記ラベル特定部で特定した前記物体の種別、前記物体追跡部で前記物体の物体領域の推定に用いられた前記隣接フレーム画像、及び前記物体追跡部で推定された前記隣接フレーム画像における前記物体の物体領域をそれぞれ対応付け、訓練画像として前記記憶装置に登録する。
また、第1の発明に係る画像収集装置は、前記撮影装置が撮影した撮影画像の前記基準フレーム画像の各々から、前記ラベル特定装置が含まれる装置領域を推定するラベル特定装置推定部を備え、前記物体領域推定部は、前記ラベル特定装置推定部で推定された前記ラベル特定装置の装置領域の位置に基づいて、前記基準フレーム画像から前記物体が含まれる物体領域を推定する。
また、第1の発明に係る画像収集装置において、前記ラベル特定部は、光又は電波を利用して前記物体のラベル情報を読み取る前記ラベル特定装置から前記物体のラベル情報を取得する。
第2の発明に係るプログラムは、コンピュータを、請求項1〜請求項4の何れか1項に記載の画像収集装置の各部として機能させる。
第3の発明に係る画像収集方法は、物体に接近させることで前記物体に付与された前記物体の種別を示すラベル情報を取得するラベル特定装置から前記物体のラベル情報を取得し、前記物体の種別を特定するステップと、前記ラベル特定装置を用いた前記物体のラベル情報の取得状況を撮影する少なくとも1台の撮影装置が撮影した撮影画像の各々から、前記物体の種別の特定に用いられた前記物体のラベル情報が取得された瞬間の基準フレーム画像を取得し、取得した前記基準フレーム画像から前記物体が含まれる物体領域を推定するステップと、前記特定された前記物体の種別、前記物体の物体領域の推定に用いられた前記基準フレーム画像、及び前記基準フレーム画像における前記物体の物体領域をそれぞれ対応づけ、訓練画像として記憶装置に登録するステップと、を含む。
また、第3の発明に係る画像収集方法は、前記撮影画像の各々から、前記基準フレーム画像より前及び後の少なくとも一方の範囲で撮影された画像である隣接フレーム画像を時系列に沿って取得し、取得した前記隣接フレーム画像の各々から前記基準フレーム画像に含まれる前記物体を追跡し、前記物体が含まれる前記隣接フレーム画像の各々から前記物体が含まれる物体領域を推定するステップと、前記特定された前記物体の種別、前記物体の物体領域の推定に用いられた前記隣接フレーム画像、及び前記隣接フレーム画像における前記物体の物体領域をそれぞれ対応付け、訓練画像として前記記憶装置に登録するステップと、を更に備える。
また、第3の発明に係る画像収集方法は、前記撮影装置が撮影した撮影画像の前記基準フレーム画像の各々から、前記ラベル特定装置が含まれる装置領域を推定するステップを備え、前記基準フレーム画像から前記物体が含まれる物体領域を推定するステップにおいて、推定された前記ラベル特定装置の装置領域の位置に基づいて、前記基準フレーム画像から前記物体が含まれる物体領域を推定する。
本発明の画像収集装置、プログラム、及び方法によれば、物体を識別するためのラベル情報が正しく対応付けられた、より多くの訓練画像を効率的に収集することができる、という効果が得られる。
画像収集システムの構成例を示す図である。 第1実施形態に係る画像収集装置の構成例を示す図である。 第1実施形態に係る画像収集ルーチンの流れの一例を示すフローチャートである。 手領域の位置から物体領域を推定する過程の一例を示す図である。 第2実施形態に係る画像収集装置の構成例を示す図である。 第2実施形態に係る画像収集ルーチンの流れの一例を示すフローチャートである。 隣接フレーム画像から訓練画像を収集する過程の一例を示す図である。 第3実施形態に係る画像収集装置の構成例を示す図である。 第3実施形態に係る画像収集ルーチンの流れの一例を示すフローチャートである。 装置領域から物体領域を推定する過程の一例を示す図である。 訓練画像の一例を示す図である。 ラベル情報を対応付けた訓練画像の一例を示す図である。 ラベル情報及び物体の位置情報を対応付けた訓練画像の一例を示す図である。
以下、図面を参照して本発明の実施形態を詳細に説明する。なお、機能が同じ構成要素及び処理には、全図面を通して同じ符合を付与し、重複する説明を省略するものとする。
<第1実施形態>
<画像収集システムの構成>
まず、図1を用いて、本発明に係る画像収集システム1の構成について説明する。
画像収集システム1は、画像収集装置2、ラベル特定装置4、及び撮影装置6を含み、物体8の訓練画像を収集する。
物体8には物体の種別を示すラベル情報が予め付与されており、ユーザが例えばラベル特定装置4に設けられた操作ボタンを押下したり、物体8にラベル特定装置4を予め定めた距離まで接近させたりすることで、ラベル特定装置4は、物体8に付与されたラベル情報を取得する。
具体的には、物体8にラベル情報を示すバーコードが付与されている場合、照射した光の反射光を用いてバーコードで示される物体8のラベル情報を読み取るバーコードリーダーがラベル特定装置4として用いられる。なお、ラベル情報を示すバーコードは、1次元バーコード及び2次元バーコードの何れであってもよい。
また、物体8にラベル情報を記憶した電子タグが付与されている場合、電波を利用して電子タグと通信を行い、電子タグに記憶された物体8のラベル情報を読み取るRFID(Radio Frequency IDentification)リーダーがラベル特定装置4として用いられる。なお、電子タグは、RFタグ、ICタグ、非接触タグ、又は無線タグと呼ばれることがあるが、ここでは「電子タグ」と称することにする。
ラベル特定装置4は画像収集装置2と接続され、ラベル特定装置4は取得したラベル情報を画像収集装置2に送信する。
撮影装置6は画像収集装置2と接続され、ユーザがラベル特定装置4を用いて物体8のラベル情報を取得する状況を撮影する。画像収集システム1で用いられる撮影装置6の台数に制約はなく、少なくとも1台の撮影装置6が含まれればよいが、ユーザがラベル特定装置4を用いて物体8のラベル情報を取得する状況が複数の方向から撮影できるように、複数の撮影装置6を用いる方が好ましい。図1の例では3台の撮影装置6が用いられ、それぞれ異なる方向から、ユーザがラベル特定装置4を用いて物体8のラベル情報を取得する状況を撮影している。物体8と各々の撮影装置6の距離が同じになるように撮影装置6を設置してもよいが、当該距離がそれぞれ異なるように各々の撮影装置6を設置してもよい。
なお、時系列に沿って画像を撮影することができれば撮影装置6の種類に制約はなく、例えばスマートフォンに内蔵されたカメラや、ウェブカメラ等の監視カメラを利用することができる。また、撮影装置6で撮影される画像は白黒画像であってもカラー画像であってもよいが、白黒画像よりカラー画像の方が物体8の色情報を含めて撮影することができるため、カラー画像で撮影可能な撮影装置6を用いる方が好ましい。また、物体8が確認でき、かつ、ユーザがラベル特定装置4を用いて物体8のラベル情報を取得する状況が確認できる程度の解像度があれば、撮影装置6の解像度にも特に制約はないが、解像度が高くなるほど撮影画像が鮮明になることから解像度の高い撮影装置6を用いる方が好ましい。
<第1実施形態に係る画像収集装置の構成>
次に、画像収集装置2の構成について説明する。本発明の実施形態に係る画像収集装置2は、CPUと、RAMと、後述する画像収集ルーチンを実行するための画像収集プログラムや各種データを記憶したROMと、閾値等のデータを記憶する不揮発性メモリを含むコンピュータで構成することができる。画像収集装置2は、機能的には図2に示すように入力部10と、演算部20とを備えている。
入力部10は、ラベル特定装置4で取得されたラベル情報を受け付けると共に、各々の撮影装置6で撮影された撮影画像を受け付け、演算部20に通知する。
演算部20は、ラベル特定部22、物体領域推定部24、訓練画像登録部26、及び訓練画像記憶部28を含んで構成される。
ラベル特定部22は、ラベル特定装置4で取得されたラベル情報を受け付けると、受け付けたラベル情報を解析して物体8の種別を特定する。そして、ラベル特定部22は、特定した物体8の種別を訓練画像登録部26に通知する。一方、ラベル特定部22は、物体領域推定部24に対して処理開始命令を通知する。
物体領域推定部24は、ラベル特定部22から処理開始命令を受け付けると、ユーザがラベル特定装置4を用いて物体8のラベル情報を取得する状況を撮影した撮影装置6の撮影画像の各々から、ラベル特定部22で物体8の種別の特定に用いられた物体8のラベル情報が取得された瞬間の画像(以降、「基準フレーム画像30A」という)を取得する。そして、物体領域推定部24は、取得した各々の基準フレーム画像30Aから、ラベル特定部22で種別が特定された物体8が含まれる物体領域32を推定する。
物体領域推定部24は、物体領域32の推定に用いた各々の基準フレーム画像30A、及び各々の基準フレーム画像30Aから推定した物体8の物体領域32の位置情報を、訓練画像登録部26に通知する。
訓練画像登録部26は、物体領域推定部24から基準フレーム画像30A及び物体領域32の位置情報を受け付けると共に、ラベル特定部22から物体8の種別を受け付けると、ラベル特定部22で特定された物体8の種別、物体領域推定部24で物体領域32の推定に用いられた基準フレーム画像30A、及び基準フレーム画像30Aにおける物体8の物体領域32を基準フレーム画像30A毎に対応付ける。そして、訓練画像登録部26は、物体8の種別及び物体領域32が対応付けられた各々の基準フレーム画像30Aを、それぞれ訓練画像として訓練画像記憶部28に記憶することで、訓練画像記憶部28に訓練画像を登録する。
訓練画像記憶部28は、訓練画像記憶部28に供給される電力が遮断されても記憶した情報を維持する記憶部の一例であり、例えば半導体メモリ又はハードディスクが用いられる。
<第1実施形態に係る画像収集装置の作用>
次に、本実施形態に係る画像収集装置2の作用について説明する。入力部10において、物体8のラベル情報を受け付けると、画像収集装置2は、図3に示す画像収集ルーチンを実行する。なお、入力部10は、各撮影装置6で撮影された撮影画像を常時受け付け、撮影装置6毎に撮影画像をRAMに記憶するものとする。
まず、ステップS10において、CPUは、入力部10で受け付けたラベル特定装置4からのラベル情報を取得して、取得したラベル情報をRAMに記憶する。
ステップS20において、CPUは、ステップS10でRAMに記憶したラベル情報を解析して、ラベル情報によって示される物体8の種別を特定する。具体的には、CPUは、ラベル情報と物体8の種別を対応付けた種別テーブルを参照することで、ラベル情報によって示される物体8の種別を特定する。なお、種別テーブルは、例えば画像収集装置2に実装される不揮発性メモリに予め記憶しておき、これを参照してもよいが、インターネットに接続された種別テーブルを記憶するデータベースを参照して、ラベル情報によって示される物体8の種別を特定してもよい。
ステップS30において、CPUは、入力部10で受け付けた各撮影装置6の撮影画像をRAMから取得する。
撮影画像は時系列に沿った複数のフレーム画像で構成されているため、ステップS40において、CPUは、ステップS30で取得した撮影装置6毎の撮影画像から、それぞれ基準フレーム画像30Aを取得する。具体的には、CPUは、ステップS10でラベル情報を取得した際に撮影された画像を、基準フレーム画像30Aとして撮影画像から抽出する。撮影画像に含まれる各々のフレーム画像に時刻情報が付与されている場合には、当該時刻情報を参照して、ステップS10でラベル情報を取得した時刻に対応する時刻情報が付与されているフレーム画像を、基準フレーム画像30Aとして取得するようにしてもよい。
ステップS50において、CPUは、ステップS40で取得したそれぞれの基準フレーム画像30Aに対して、ステップS20で種別が特定された物体8が含まれる物体領域32を推定する。この際、物体領域32の推定手法には、公知の手法を用いることができる。
例えば各々の撮影装置6の設置場所及び撮影方向が固定され、撮影装置6の撮影範囲が変わらない場合には、物体8が写っていない背景画像だけを撮影装置6毎に予め撮影して、画像収集装置2の不揮発性メモリ等に予め記憶しておき、撮影装置6毎に基準フレーム画像30Aと背景画像の差分を算出することで、基準フレーム画像30Aから物体領域32を推定するようにしてもよい。
また、例えばスーパーやコンビニエンスストアのレジにおける商品決済時のように、ユーザが物体8(この場合、商品)を手に持った状態でラベル特定装置4を物体8に近づけ、物体8の価格及び品名を含んだラベル情報を取得する場合には、まず基準フレーム画像30Aから物体8をつかむユーザの手領域を抽出し、抽出した手領域の位置から物体8が含まれる物体領域32を推定するようにしてもよい(例えば非特許文献4参照)。
[非特許文献4]:Xiaolong Zhu, Wei Liu, Xuhui Jia ,Kwan-Yee K.Wong. "A Two-stage Detector for Hand Detection in Ego-centric Videos" in WACV, 2016
図4は、基準フレーム画像30Aからユーザの手領域31を抽出し、抽出した手領域31の位置から物体領域32を推定する過程の一例を示す図である。
画像収集装置2は、各々の撮影装置6で撮影された基準フレーム画像30A毎に手領域31を抽出する。
ここで、i(この場合、i=1〜3)番目の撮影装置6で撮影された基準フレーム画像30Aから抽出された手領域31の中心座標を^ciとする。また、物体8を手に持った場合の物体8の中心座標(すなわち、物体領域32の中心座標)は、手領域31の中心座標^ciからずれた位置となるため、予め様々な物体8を持った手が含まれる基準フレーム画像30Aを用いて、物体領域32の中心座標^x' iと手領域31の中心座標^ciのずれ量の平均値を実験的に求めた値をオフセット量^biとして記憶しておけば、各基準フレーム画像30Aにおける物体領域32の中心座標^x' iは(1)式で表される。
(数1)
^x'i=^ci+^bi ・・・(1)
また、予め様々な物体8を持った手が含まれる基準フレーム画像30Aを用いて、実験的に求めた物体領域32の幅の平均値をwi、物体領域32の高さの平均値をhiとして記憶しておけば、図4に示すように、各基準フレーム画像30Aにおける物体領域32の範囲は、座標^x' iを中心とした幅wi、高さhiの矩形によって表される。
なお、基準フレーム画像30Aからは左右の手に対応する2つの手領域31が抽出されることになる。しかし、ユーザは予め定めた一方の手で物体8をつかむとの条件を定めておけば、CPUは物体領域32の中心座標^x' iを推定する際、何れの手領域31の中心座標^ciを用いればよいかを判断することができる。
また、物体領域32の形状は矩形に限られず、例えば円、楕円、多角形等の他の形状を用いて物体領域32を表すようにしてもよい。
ステップS60において、CPUは、ステップS50で物体領域32の推定に用いられた基準フレーム画像30Aに対して、ステップS20で特定された物体領域32に含まれる物体8の種別と、基準フレーム画像30Aにおける物体領域32の位置情報、すなわち、物体領域32の中心座標^x' i、幅wi、及び高さhiとを、基準フレーム画像30A毎に対応付ける。そして、CPUは、物体8の種別及び物体領域32の位置情報が対応付けられた基準フレーム画像30A、すなわち、訓練画像の各々を、例えば画像収集装置2に実装される不揮発性メモリに記憶する。
なお、訓練画像の記憶先に制約はなく、例えばインターネットに接続されたデータベースに訓練画像を記憶するようにしてもよい。
以上により、図3に示した画像収集ルーチンを終了する。
このように本実施形態に係る画像収集装置2によれば、ユーザがラベル特定装置4で物体8のラベル情報を取得する瞬間の基準フレーム画像30Aに対して、物体8のラベル情報から得られた物体8の種別と、基準フレーム画像30Aから推定された物体領域32を対応付けて訓練画像とする。
バーコードリーダーやRFIDリーダーのように、光や電波を利用してラベル情報を読み取るラベル特定装置4は、例えば物体8の決済手段及び検品手段として用いられることからもわかるように、他の手法に比べてラベル情報の読み取りミスが低い。したがって、ラベル特定装置4から取得したラベル情報を用いて物体8の種別を特定する場合、例えば物体を撮影した撮影画像に対して画像認識を行うことで物体8の種別を特定する場合と比較して、物体8の種別に対する誤認識率が低くなる。
すなわち、画像収集装置2では、画像認識を用いて物体8の種別を特定する場合と比較して、訓練画像に正しい物体8の種別を対応付けることができる。
また、画像収集装置2は、ユーザがラベル特定装置4で物体8のラベル情報を取得する瞬間の画像である基準フレーム画像30Aを訓練画像として用いるため、ラベル情報を用いて特定した種別の物体8が、基準フレーム画像30Aに含まれる物体8であることが保証される。
更に、ユーザがラベル特定装置4を用いて物体8のラベル情報を取得する状況を複数の撮影装置6で撮影することで、1度のラベル情報の取得作業によって、様々な方向及び距離で撮影した複数の訓練画像が得られるため、より多くの訓練画像を効率的に収集することができる。
<第2実施形態>
第1実施形態に係る画像収集装置2は、ユーザがラベル特定装置4で物体8のラベル情報を取得する瞬間の画像である基準フレーム画像30Aを訓練画像として用いた。しかしながら、撮影装置6で撮影した撮影画像のうち、物体8が含まれている画像は基準フレーム画像30Aに限られない。
したがって、第2実施形態では、基準フレーム画像30Aを基準として、基準フレーム画像30Aより前及び後の少なくとも一方の範囲で撮影された画像である隣接フレーム画像のうち、物体8が含まれる隣接フレーム画像も訓練画像として収集する画像収集装置2Aについて説明する。
なお、画像収集装置2Aを含む画像収集システム1の構成は、図1と同じ構成が用いられる。
<第2実施形態に係る画像収集装置の構成>
図5は、画像収集装置2Aの構成例を示す図である。
図5に示す画像収集装置2Aの構成が、図2に示した画像収集装置2の構成と異なる点は、物体追跡部25が追加され、訓練画像登録部26が訓練画像登録部26Aに置き換えられた点である。
物体追跡部25は、物体領域推定部24から基準フレーム画像30A及び物体領域32の位置情報を受け付けると、基準フレーム画像30Aに隣接するフレーム画像から時系列に沿ってフレーム画像を順次取得し、時系列に沿った各フレーム画像、すなわち、隣接フレーム画像の各々に対して、物体領域推定部24から受け付けた物体領域32に含まれる物体8と同じ物体8が含まれているか否かを判定する物体追跡を行う。なお、物体追跡部25は、物体追跡によって物体8が含まれると判定した隣接フレーム画像に対して、物体領域32の推定を行う。
そして、物体追跡部25は、物体領域推定部24から受け付けた物体領域32に含まれる物体8と同じ物体8が含まれている隣接フレーム画像に、当該隣接フレーム画像から推定した物体8の物体領域32の位置情報を付加して訓練画像登録部26Aに通知する。また、物体追跡部25は、物体領域推定部24から受け付けた基準フレーム画像30A及び基準フレーム画像30Aにおける物体領域32の位置情報を訓練画像登録部26Aに通知する。
なお、物体追跡部25は、撮影装置6が複数存在するために基準フレーム画像30Aを複数受け付けた場合、各基準フレーム画像30Aに対応するそれぞれの撮影装置6で撮影された撮影画像から隣接フレーム画像を取得して物体追跡を行う。
訓練画像登録部26Aは訓練画像登録部26と同様に、物体追跡部25から基準フレーム画像30A及び基準フレーム画像30Aにおける物体領域32の位置情報を受け付けると共に、ラベル特定部22から物体8の種別を受け付けると、ラベル特定部22で特定された物体8の種別、物体領域推定部24で物体領域32の推定に用いられた基準フレーム画像30A、及び基準フレーム画像30Aにおける物体8の物体領域32を基準フレーム画像30A毎に対応付ける。
また、訓練画像登録部26Aは、物体追跡部25から隣接フレーム画像及び隣接フレーム画像における物体領域32の位置情報を受け付けると共に、ラベル特定部22から物体8の種別を受け付けると、ラベル特定部22で特定された物体8の種別、物体追跡部25で物体8が含まれると判定された隣接フレーム画像、及び物体8が含まれると判定された隣接フレーム画像における物体8の物体領域32を隣接フレーム画像毎に対応付ける。そして、訓練画像登録部26Aは、物体8の種別及び物体領域32が対応付けられた各々の基準フレーム画像30A及び各々の隣接フレーム画像を、それぞれ訓練画像として訓練画像記憶部28に記憶する。
<第2実施形態に係る画像収集装置の作用>
次に、本実施形態に係る画像収集装置2Aの作用について説明する。入力部10において、物体8のラベル情報を受け付けると、画像収集装置2Aは、図6に示す画像収集ルーチンを実行する。なお、入力部10は、各撮影装置6で撮影された撮影画像を常時受け付け、撮影装置6毎に撮影画像をRAMに記憶するものとする。したがって、RAMには物体8のラベル情報を受け付ける前の撮影画像、及び物体8のラベル情報を受け付けた後の撮影画像が記憶されている。
図6に示す画像収集ルーチンが図3に示した画像収集装置2の画像収集ルーチンと異なる点は、ステップS52〜S58が新たに追加され、ステップS60がステップS60Aに置き換えられた点である。
ステップS50で、基準フレーム画像30Aに対してステップS20で種別が特定された物体8が含まれる物体領域32が推定されるとステップS52が実行される。
ステップS52において、CPUは、物体領域32が推定された基準フレーム画像30Aのうち、何れか1つの基準フレーム画像30Aを選択し、選択した基準フレーム画像30Aが含まれる撮影画像から、時系列に従って基準フレーム画像30Aに隣接する隣接フレーム画像を1枚取得する。この際、CPUは、基準フレーム画像30Aが撮影された時刻より前に撮影された過去方向の時系列に沿って隣接フレーム画像を取得してもよいし、基準フレーム画像30Aが撮影された時刻より後に撮影された未来方向の時系列に沿って隣接フレーム画像を取得してもよい。ここでは一例として、過去方向の時系列に沿って隣接フレーム画像を取得するものとして説明を行う。
ステップS54において、CPUは、ステップS52で取得した隣接フレーム画像に、ステップS50で推定した基準フレーム画像30Aの物体領域32に含まれる物体8と同じ物体8が含まれるか否かを判定する物体追跡を行う。
隣接フレーム画像における物体追跡には、例えば非特許文献5に示すような公知の手法を用いることができる。
[非特許文献5]:Michael Isard, Andrew Blake. "CONDENSATION-Conditional Density Propagation for Visual Tracking" International Journal of Computer Vision, Vol29, No.1, pp.5-28, 1998
非特許文献5には、尤度を持つ多数の仮説群により離散的な確率密度として追跡対象(この場合、物体8)を表現し、状態遷移モデルを用いて物体8の動きの変動や観測のノイズに対して頑健な追跡を実現する手法が開示されている。したがって、隣接フレーム画像において、物体8が存在する確率である尤度が予め定めた閾値以上となった場合には、隣接フレーム画像に物体8が含まれると判定され、尤度が予め定めた閾値未満となった場合には、隣接フレーム画像には物体8が含まれないと判定される。
CPUは、隣接フレーム画像に物体8が含まれる場合、ステップS50と同じ手法を用いて、隣接フレーム画像に対して物体8が含まれる物体領域32を推定する。
ステップS56において、CPUは、ステップS52で取得した隣接フレーム画像に物体領域32が含まれるか否かを判定する。隣接フレーム画像に物体領域32が含まれる場合には、当該隣接フレーム画像に隣接する過去方向の時系列に沿った隣接フレーム画像にも物体8が含まれる可能性があるため、ステップS52に移行する。
そして、ステップS52において、直前に取得した隣接フレーム画像が含まれる撮影画像から、直前に取得した隣接フレーム画像と隣接する過去方向の時系列に沿った隣接フレーム画像を1枚取得する。以降、ステップS56の判定処理において、ステップS52で取得した隣接フレーム画像に物体領域32が含まれていないと判定されるまで、ステップS52〜S56を繰り返し実行することで、基準フレーム画像30Aから過去方向に遡った範囲の隣接フレーム画像のうち、物体8が含まれている隣接フレーム画像と当該隣接フレーム画像における物体領域32を取得することができる。
一方、ステップS56の判定処理が否定判定の場合、すなわち、ステップS52で取得した隣接フレーム画像に物体領域32が含まれていないと判定された場合には、ステップS58に移行する。
ステップS58において、CPUは、物体領域32が推定された基準フレーム画像30Aのうち、未選択の基準フレーム画像30Aが存在するか否かを判定する。未選択の基準フレーム画像30Aが存在する場合、ステップS52に移行する。
そして、ステップS52において、未選択の基準フレーム画像30Aの中から基準フレーム画像を1枚選択し、選択した基準フレーム画像30Aが含まれる撮影画像から、時系列に従って基準フレーム画像30Aに隣接する隣接フレーム画像を1枚取得する。以降、ステップS58の判定処理で未選択の基準フレーム画像30Aが存在しないと判定されるまでステップS52〜S58を繰り返し実行することで、複数の撮影装置6で撮影された各々の撮影画像から、物体8が含まれている隣接フレーム画像と当該隣接フレーム画像における物体領域32を取得することができる。
ステップS60Aにおいて、CPUは、ステップS50で物体領域32の推定に用いられた基準フレーム画像30Aに対して、ステップS20で特定された物体領域32に含まれる物体8の種別と、基準フレーム画像30Aにおける物体領域32の位置情報とを、基準フレーム画像30A毎に対応付ける。また、CPUは、物体領域32が含まれる隣接フレーム画像の各々に対して、ステップS20で特定された物体領域32に含まれる物体8の種別と、各隣接フレーム画像における物体領域32の位置情報とを、隣接フレーム画像毎に対応付ける。
そして、CPUは、物体8の種別及び物体領域32の位置情報が対応付けられた基準フレーム画像30A及び隣接フレーム画像の各々を訓練画像として、例えば画像収集装置2Aに実装される不揮発性メモリに記憶する。
以上により、図6に示した画像収集ルーチンを終了する。
図6に示した画像収集ルーチンでは、基準フレーム画像30Aから過去方向に遡った範囲の隣接フレーム画像を用いて訓練画像を収集するか、基準フレーム画像30Aから未来方向に向かった範囲の隣接フレーム画像を用いて訓練画像を収集するかの何れかの例を示したが、基準フレーム画像30Aから過去方向に遡った範囲の隣接フレーム画像を用いて訓練画像を収集した後、更に、基準フレーム画像30Aから未来方向に向かった範囲の隣接フレーム画像を用いて訓練画像を収集するようにしてもよい。具体的には、図6のステップS58の処理が終了した後、それまで隣接フレーム画像を取得した時系列の方向とは逆の方向に隣接フレーム画像を取得するようにして、ステップS52〜S58の処理を再度実行すればよい。
この場合、基準フレーム画像30Aを基準として未来方向又は過去方向の何れか1方向に沿った隣接フレーム画像から訓練画像を収集する場合と比較して、1つの撮影画像からより多くの訓練画像を効率よく収集することができる。
図7は、基準フレーム画像30Aを基準として未来方向及び過去方向の両方向に沿った隣接フレーム画像から訓練画像を収集する例を示す図である。図7では、基準フレーム画像30Aから過去方向の時系列に沿った隣接フレーム画像を「隣接フレーム画像30B」で表し、基準フレーム画像30Aから未来方向の時系列に沿った隣接フレーム画像を「隣接フレーム画像30C」で表している。また、隣接フレーム画像30B、30Cに続く符合「−n(n=1〜3)」は、基準フレーム画像30Aからの時系列順を示しており、“n”の値が大きくなるに従って、基準フレーム画像30Aからの時間間隔が大きいことを示している。
すなわち、隣接フレーム画像30B−3→隣接フレーム画像30B−2→隣接フレーム画像30B−1→基準フレーム画像30A→隣接フレーム画像30C−1→隣接フレーム画像30C−2→隣接フレーム画像30C−3の順に各画像が撮影されている。
図7の例では、隣接フレーム画像30B−3及び隣接フレーム画像30C−3に物体領域32が存在しないため、隣接フレーム画像30B−2、隣接フレーム画像30B−1、基準フレーム画像30A、隣接フレーム画像30C−1、及び隣接フレーム画像30C−2が訓練画像として収集されることになる。
このように本実施形態に係る画像収集装置2Aによれば、基準フレーム画像30Aだけでなく、基準フレーム画像30Aの未来方向及び過去方向の少なくとも一方の範囲で撮影された、物体8を含む隣接フレーム画像も訓練画像として収集することができる。したがって、基準フレーム画像30Aだけを訓練画像として収集する場合と比較して、1つの撮影画像からより多くの訓練画像を効率よく収集することができる。
<第3実施形態>
第1実施形態に係る画像収集装置2は、基準フレーム画像30Aからユーザの手領域31を抽出し、抽出した手領域31の位置から物体領域32を推定した。しかしながら、基準フレーム画像30Aにおける物体領域32は他の方法を用いても推定することができる。
したがって、第3実施形態では、基準フレーム画像30Aに含まれるラベル特定装置4の位置から物体領域32を推定する画像収集装置2Bについて説明する。
なお、画像収集装置2Bを含む画像収集システム1の構成は、図1と同じ構成が用いられる。
<第3実施形態に係る画像収集装置の構成>
図8は、画像収集装置2Bの構成例を示す図である。
図8に示す画像収集装置2Bの構成が、図2に示した画像収集装置2の構成と異なる点は、ラベル特定装置推定部23が追加され、物体領域推定部24が物体領域推定部24Bに置き換えられた点である。
ラベル特定部22がラベル特定装置推定部23に対して処理開始命令を通知すると、ラベル特定装置推定部23は、撮影装置6で撮影された撮影画像の各々から、基準フレーム画像30Aを取得する。そして、ラベル特定装置推定部23は、取得した各々の基準フレーム画像30Aから、ラベル特定装置4が含まれる装置領域34を推定する。
そして、ラベル特定装置推定部23は、推定した基準フレーム画像30A毎の装置領域34の位置情報を、物体領域推定部24Bに通知する。
物体領域推定部24Bは、ラベル特定装置推定部23から基準フレーム画像30A毎の装置領域34の位置情報を受け付けると、装置領域34の位置情報から物体8が含まれる物体領域32を基準フレーム画像30A毎に推定する。
そして、物体領域推定部24Bは、物体領域32の推定に用いた各々の基準フレーム画像30A、及び各々の基準フレーム画像30Aから推定した物体8の物体領域32の位置情報を、訓練画像登録部26に通知する。
<第3実施形態に係る画像収集装置の作用>
次に、本実施形態に係る画像収集装置2Bの作用について説明する。入力部10において、物体8のラベル情報を受け付けると、画像収集装置2Bは、図9に示す画像収集ルーチンを実行する。
図9に示す画像収集ルーチンが図3に示した画像収集装置2の画像収集ルーチンと異なる点は、ステップS42が新たに追加され、ステップS50がステップS50Aに置き換えられた点である。
ステップS40で、各々の撮影画像からそれぞれ基準フレーム画像30Aが取得されるとステップS42が実行される。
ステップS42において、CPUは、ステップS40で取得された基準フレーム画像30Aの各々から、ラベル特定装置4が含まれる装置領域34を推定する。この際、装置領域34の推定手法には、公知の手法を用いることができる。
例えばラベル特定装置4を様々な方向及び距離で撮影したラベル特定装置4の訓練画像を予め準備しておき、特許文献1に示した物体識別技術を用いて、各々の基準フレーム画像30Aからラベル特定装置4を含む装置領域34を推定してもよい。
ステップS50Aにおいて、CPUは、ステップS42で推定したそれぞれの基準フレーム画像30Aにおける装置領域34の位置情報に基づいて、ステップS20で種別が特定された物体8が含まれる物体領域32を推定する。装置領域34から物体領域32を推定する際には、公知の推定手法を用いることができる。
例えば物体8のラベル情報を取得する場合、ユーザはラベル特定装置4を物体8に近づける動作を行うため、ラベル特定装置4の近傍に物体8が存在する場合が多い。
したがって、ユーザがラベル特定装置4を物体8に近づけてラベル情報を取得しようとした場合のラベル特定装置4に対する物体8の相対位置、及び物体8の平均的な大きさ(すなわち、物体領域32の大きさ)を、予め実験によって各撮影装置6における基準フレーム画像30A毎に統計的に求めておく。そして、図10に示すように、装置領域34を予め求めておいた物体8の相対位置に基づいて移動させると共に、予め求めておいた物体領域32の大きさまで装置領域34を拡大又は縮小することで、各撮影装置6における基準フレーム画像30A毎に物体領域32を推定することができる。
なお、非特許文献6に記載された手法を用いて、装置領域34を移動、拡大、及び縮小することで、物体領域32を推定するようにしてもよい。
[非特許文献6]:Carstern Rother, Vladimir Kolmogorov, Andrew Blake. "GrabCut-Interactive Foreground Extraction using Iterated Graph Cuts" in SIGGRAPH, 2014
後は、既に説明したステップS60において、ステップS50Aで物体領域32の推定に用いられた基準フレーム画像30Aに対して、ステップS20で特定された物体領域32に含まれる物体8の種別と、基準フレーム画像30Aにおける物体領域32の位置情報とを、基準フレーム画像30A毎に対応付けて、訓練画像とすればよい
このように本実施形態に係る画像収集装置2Bによれば、基準フレーム画像30Aからユーザの手領域31を推定する代わりに、ラベル特定装置4が含まれる装置領域34を推定し、推定した装置領域34に基づいて物体8が含まれる物体領域32を推定する。
手の形状は様々に変化するがラベル特定装置4の形状は不変であるため、手領域31の推定精度より装置領域34の推定精度の方が高くなる場合がある。したがって、装置領域34の推定精度の向上に伴って、物体領域32の推定精度を向上させることができる。
なお、ここでは基準フレーム画像30Aから装置領域34を推定した上で、物体領域32を推定する例について説明したが、隣接フレーム画像から物体領域32を推定する場合にも適用できることは言うまでもない。
本発明は、上述した各実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、上述した各実施形態では、画像収集ルーチンをソフトウエアで実現する例について示したが、ASIC(Application Specific Integrated Circuit)等のハードウエアを用いて実現してもよい。
また、上述した各実施形態では、画像収集プログラムがROMにインストールされている形態について説明したが、これに限定されるものではない。本発明に係る画像収集プログラムは、コンピュータ読み取り可能な記憶媒体に記録された形態で提供することも可能である。例えば、本発明に係る画像収集プログラムを、CD(Compact Disc)−ROM、又はDVD(Digital Versatile Disc)−ROM等の光ディスクに記録した形態で提供してもよい。また、本発明に係る画像収集プログラムを、USB(Universal Serial Bus)メモリ及びフラッシュメモリ等の半導体メモリに記録した形態で提供してもよい。更に、画像収集装置がインターネット等の通信回線に接続される場合、通信回線に接続されたサーバ等の端末装置から、本発明に係る画像収集プログラムを取得するようにしてもよい。
1・・・画像収集システム
2(2A、2B)・・・画像収集装置
4・・・ラベル特定装置
6・・・撮影装置
8・・・物体
10・・・入力部
20・・・演算部
22・・・ラベル特定部
23・・・ラベル特定装置推定部
24(24B)・・・物体領域推定部
25・・・物体追跡部
26(26A)・・・訓練画像登録部
28・・・訓練画像記憶部
30A・・・基準フレーム画像
30B(30C)・・・隣接フレーム画像
31・・・手領域
32・・・物体領域
34・・・装置領域

Claims (8)

  1. 物体に接近させることで前記物体に付与された前記物体の種別を示すラベル情報を取得するラベル特定装置から前記物体のラベル情報を取得し、前記物体の種別を特定するラベル特定部と、
    前記ラベル特定装置を用いた前記物体のラベル情報の取得状況を撮影する少なくとも1台の撮影装置が撮影した撮影画像の各々から、前記ラベル特定部で前記物体の種別の特定に用いられた前記物体のラベル情報が取得された瞬間の基準フレーム画像を取得し、取得した前記基準フレーム画像から前記物体が含まれる物体領域を推定する物体領域推定部と、
    前記ラベル特定部で特定した前記物体の種別、前記物体領域推定部で前記物体の物体領域の推定に用いられた前記基準フレーム画像、及び前記物体領域推定部で推定された前記基準フレーム画像における前記物体の物体領域をそれぞれ対応づけ、訓練画像として記憶装置に登録する訓練画像登録部と、
    を備えた画像収集装置。
  2. 前記撮影画像の各々から、前記物体領域推定部で取得された前記基準フレーム画像より前及び後の少なくとも一方の範囲で撮影された画像である隣接フレーム画像を時系列に沿って取得し、取得した前記隣接フレーム画像の各々から前記基準フレーム画像に含まれる前記物体を追跡し、前記物体が含まれる前記隣接フレーム画像の各々から前記物体が含まれる物体領域を推定する物体追跡部を更に備え、
    前記訓練画像登録部は、前記ラベル特定部で特定した前記物体の種別、前記物体追跡部で前記物体の物体領域の推定に用いられた前記隣接フレーム画像、及び前記物体追跡部で推定された前記隣接フレーム画像における前記物体の物体領域をそれぞれ対応付け、訓練画像として前記記憶装置に登録する
    請求項1記載の画像収集装置。
  3. 前記撮影装置が撮影した撮影画像の前記基準フレーム画像の各々から、前記ラベル特定装置が含まれる装置領域を推定するラベル特定装置推定部を備え、
    前記物体領域推定部は、前記ラベル特定装置推定部で推定された前記ラベル特定装置の装置領域の位置に基づいて、前記基準フレーム画像から前記物体が含まれる物体領域を推定する
    請求項1又は請求項2記載の画像収集装置。
  4. 前記ラベル特定部は、光又は電波を利用して前記物体のラベル情報を読み取る前記ラベル特定装置から前記物体のラベル情報を取得する
    請求項1〜請求項3の何れか1項に記載の画像収集装置。
  5. コンピュータを、請求項1〜請求項4の何れか1項に記載の画像収集装置の各部として機能させるためのプログラム。
  6. 物体に接近させることで前記物体に付与された前記物体の種別を示すラベル情報を取得するラベル特定装置から前記物体のラベル情報を取得し、前記物体の種別を特定するステップと、
    前記ラベル特定装置を用いた前記物体のラベル情報の取得状況を撮影する少なくとも1台の撮影装置が撮影した撮影画像の各々から、前記物体の種別の特定に用いられた前記物体のラベル情報が取得された瞬間の基準フレーム画像を取得し、取得した前記基準フレーム画像から前記物体が含まれる物体領域を推定するステップと、
    前記特定された前記物体の種別、前記物体の物体領域の推定に用いられた前記基準フレーム画像、及び前記基準フレーム画像における前記物体の物体領域をそれぞれ対応づけ、訓練画像として記憶装置に登録するステップと、
    を含む画像収集方法。
  7. 前記撮影画像の各々から、前記基準フレーム画像より前及び後の少なくとも一方の範囲で撮影された画像である隣接フレーム画像を時系列に沿って取得し、取得した前記隣接フレーム画像の各々から前記基準フレーム画像に含まれる前記物体を追跡し、前記物体が含まれる前記隣接フレーム画像の各々から前記物体が含まれる物体領域を推定するステップと、
    前記特定された前記物体の種別、前記物体の物体領域の推定に用いられた前記隣接フレーム画像、及び前記隣接フレーム画像における前記物体の物体領域をそれぞれ対応付け、訓練画像として前記記憶装置に登録するステップと、
    を更に備えた
    請求項6記載の画像収集方法。
  8. 前記撮影装置が撮影した撮影画像の前記基準フレーム画像の各々から、前記ラベル特定装置が含まれる装置領域を推定するステップを備え、
    前記基準フレーム画像から前記物体が含まれる物体領域を推定するステップにおいて、推定された前記ラベル特定装置の装置領域の位置に基づいて、前記基準フレーム画像から前記物体が含まれる物体領域を推定する
    請求項6又は請求項7記載の画像収集方法。
JP2017220734A 2017-11-16 2017-11-16 画像収集装置、プログラム、及び方法 Active JP6930389B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017220734A JP6930389B2 (ja) 2017-11-16 2017-11-16 画像収集装置、プログラム、及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017220734A JP6930389B2 (ja) 2017-11-16 2017-11-16 画像収集装置、プログラム、及び方法

Publications (2)

Publication Number Publication Date
JP2019091339A true JP2019091339A (ja) 2019-06-13
JP6930389B2 JP6930389B2 (ja) 2021-09-01

Family

ID=66836508

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017220734A Active JP6930389B2 (ja) 2017-11-16 2017-11-16 画像収集装置、プログラム、及び方法

Country Status (1)

Country Link
JP (1) JP6930389B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7290602B2 (ja) 2020-04-27 2023-06-13 Kddi株式会社 学習装置、方法及びプログラム
CN117271819A (zh) * 2023-11-17 2023-12-22 上海闪马智能科技有限公司 图像数据的处理方法和装置、存储介质及电子装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015191334A (ja) * 2014-03-27 2015-11-02 キヤノン株式会社 情報処理装置、情報処理方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015191334A (ja) * 2014-03-27 2015-11-02 キヤノン株式会社 情報処理装置、情報処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
白坂洋平,外4名: "RFIDによる画像識別モデルパラメータの自動学習", 2007年度人工知能学会全国大会(第21回)論文集 [CD−ROM], JPN6021004194, 2007, ISSN: 0004442693 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7290602B2 (ja) 2020-04-27 2023-06-13 Kddi株式会社 学習装置、方法及びプログラム
CN117271819A (zh) * 2023-11-17 2023-12-22 上海闪马智能科技有限公司 图像数据的处理方法和装置、存储介质及电子装置
CN117271819B (zh) * 2023-11-17 2024-03-01 上海闪马智能科技有限公司 图像数据的处理方法和装置、存储介质及电子装置

Also Published As

Publication number Publication date
JP6930389B2 (ja) 2021-09-01

Similar Documents

Publication Publication Date Title
US9877012B2 (en) Image processing apparatus for estimating three-dimensional position of object and method therefor
CN105512587B (zh) 用于追踪光代码的系统和方法
US8345101B2 (en) Automatically calibrating regions of interest for video surveillance
JP6143111B2 (ja) 物体識別装置、物体識別方法、及びプログラム
US20160260226A1 (en) Method and apparatus for detecting object in moving image and storage medium storing program thereof
US11699283B2 (en) System and method for finding and classifying lines in an image with a vision system
US20150104106A1 (en) Method, system and apparatus for determining a contour segment for an object in an image captured by a camera
JP6278276B2 (ja) 物体識別装置、物体識別方法、及びプログラム
US10540532B2 (en) System and method for detecting optical codes with damaged or incomplete finder patterns
JP2017187988A (ja) コード認識装置
JP6947508B2 (ja) 移動物体検出装置、移動物体検出システム、及び移動物体検出方法
JP2017103748A (ja) 画像処理方法およびプログラム
JP5656768B2 (ja) 画像特徴量抽出装置およびそのプログラム
Tribak et al. QR code recognition based on principal components analysis method
Brylka et al. Camera based barcode localization and decoding in real-world applications
JP6930389B2 (ja) 画像収集装置、プログラム、及び方法
JP2024016287A (ja) ビジョンシステムでラインを検出するためのシステム及び方法
JP6659095B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR101595334B1 (ko) 농장에서의 움직임 개체의 이동 궤적 트래킹 방법 및 장치
JP2007140729A (ja) 物品の位置及び姿勢を検出する方法および装置
KR102557912B1 (ko) 관심영역 이미지 추출장치 및 이를 포함하는 로봇 프로세스 자동화 시스템
JP4812743B2 (ja) 顔認識装置、顔認識方法、顔認識プログラムおよびそのプログラムを記録した記録媒体
JP2017016592A (ja) 主被写体検出装置、主被写体検出方法及びプログラム
CN110570439B (zh) 使用视觉系统在图像中查找和分类线的系统和方法
EP4198895A1 (en) Planar object tracking method and system, computer program, computer-readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210726

R150 Certificate of patent or registration of utility model

Ref document number: 6930389

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150