JP2020107170A - アノテーション装置、学習モデル、画像センサ、アノテーション方法、及びコンピュータプログラム - Google Patents

アノテーション装置、学習モデル、画像センサ、アノテーション方法、及びコンピュータプログラム Download PDF

Info

Publication number
JP2020107170A
JP2020107170A JP2018246787A JP2018246787A JP2020107170A JP 2020107170 A JP2020107170 A JP 2020107170A JP 2018246787 A JP2018246787 A JP 2018246787A JP 2018246787 A JP2018246787 A JP 2018246787A JP 2020107170 A JP2020107170 A JP 2020107170A
Authority
JP
Japan
Prior art keywords
image data
learning
target
coordinate information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018246787A
Other languages
English (en)
Inventor
伸哉 田窪
Shinya Takubo
伸哉 田窪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2018246787A priority Critical patent/JP2020107170A/ja
Publication of JP2020107170A publication Critical patent/JP2020107170A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】識別器の学習用データを効率的に生成することができるアノテーション装置を提供する。【解決手段】画像データ中の対象物を識別する識別器の学習に用いられる学習用データを生成するアノテーション装置は、学習対象の画像データである対象画像データを画面に表示させる表示制御部と、対象画像データ上でユーザが指定した位置の座標情報を取得する座標情報取得部と、取得された座標情報に基づいて、座標情報ごとに対象画像データから対象物を含む領域である対象物領域の画像データである学習用画像データを抽出し、学習用画像データと対象物のラベルとを含む学習用データを生成する学習用データ生成部とを備え、対象物領域のサイズは、対象物を撮像する撮像装置から対象物までの距離が遠いほど小さい。【選択図】図2

Description

本発明は、アノテーション装置、学習モデル、画像センサ、アノテーション方法、及びコンピュータプログラムに関する。
従来、画像データから対象物を識別する識別器が知られている。識別器のパラメータは、対象物を含む画像データである学習用画像データに対象物のラベルが付与された学習用データを用いて学習(例えば、教師有り学習)を行うことにより求められる。学習用データの生成作業はアノテーション処理と呼ばれる。
例えば、特許文献1にはアノテーション処理を削減するために、動画像データから、移動体を含む画像データを抽出し、抽出した画像データに対してアノテーション処理を行う構成が開示されている。
特開2018-81545号公報
しかしながら、特許文献1のようにアノテーション処理の対象となる画像データを削減しても、ユーザによる画像データ中の移動体領域の指定は作業負荷が大きいという課題がある。
例えば、移動体を含む矩形領域を指定するために、ユーザは、矩形領域の左上の点をマウスボタンでクリックし、マウスをドラッグさせながら矩形領域のサイズを変化させ、矩形領域の右下の点でマウスボタンを離すという一連の作業を行わなければならない。
特に、動画像データから抽出された画像データは枚数が膨大であるため、作業の効率化が望まれる。
本発明は、このような事情に鑑みてなされたものであり、識別器の学習用データを効率的に生成することができるアノテーション装置、学習モデル、画像センサ、アノテーション方法、及びコンピュータプログラムを提供することを目的とする。
(1)上記目的を達成するために、本発明の一実施態様に係るアノテーション装置は、画像データ中の対象物を識別する識別器の学習に用いられる学習用データを生成するアノテーション装置であって、学習対象の画像データである対象画像データを画面に表示させる表示制御部と、前記対象画像データ上でユーザが指定した位置の座標情報を取得する座標情報取得部と、取得された前記座標情報に基づいて、前記座標情報ごとに前記対象画像データから前記対象物を含む領域である対象物領域の画像データである学習用画像データを抽出し、前記学習用画像データと前記対象物のラベルとを含む前記学習用データを生成する学習用データ生成部とを備え、前記対象物領域のサイズは、前記対象物を撮像する撮像装置から前記対象物までの距離が遠いほど小さい。
(9)本発明の他の実施態様に係る学習モデルは、画像データに基づいて、当該画像データから対象物を識別するよう、コンピュータを機能させるための学習モデルであって、上述のアノテーション装置により生成された学習用データを用いてパラメータが学習されている。
(10)本発明の他の実施態様に係る画像センサは、対象領域を撮像する撮像部と、前記撮像部により撮像された前記対象領域の画像データに基づいて、当該画像データから対象物を識別する識別部とを備え、前記識別部は、上述のアノテーション装置により生成された学習用データを用いてパラメータが学習されている。
(11)本発明の他の実施態様に係るアノテーション方法は、画像データ中の対象物を識別する識別器の学習に用いられる学習用データを生成するアノテーション方法であって、学習対象の画像データである対象画像データを画面に表示させるステップと、前記対象画像データ上でユーザが指定した位置の座標情報を取得するステップと、取得された前記座標情報に基づいて、前記座標情報ごとに前記対象画像データから前記対象物を含む領域である対象物領域の画像データである学習用画像データを抽出し、前記学習用画像データと前記対象物のラベルとを含む前記学習用データを生成するステップとを含み、前記対象物領域のサイズは、前記対象物を撮像する撮像装置から前記対象物までの距離が遠いほど小さい。
(12)本発明の他の実施態様に係るコンピュータプログラムは、コンピュータを、画像データ中の対象物を識別する識別器の学習に用いられる学習用データを生成するアノテーション装置として機能させるためのコンピュータプログラムであって、前記コンピュータを、学習対象の画像データである対象画像データを画面に表示させる表示制御部と、前記対象画像データ上でユーザが指定した位置の座標情報を取得する座標情報取得部と、取得された前記座標情報に基づいて、前記座標情報ごとに前記対象画像データから前記対象物を含む領域である対象物領域の画像データである学習用画像データを抽出し、前記学習用画像データと前記対象物のラベルとを含む前記学習用データを生成する学習用データ生成部として機能させ、前記対象物領域のサイズは、前記対象物を撮像する撮像装置から前記対象物までの距離が遠いほど小さい。
なお、本発明は、アノテーション装置の一部又は全部を実現する半導体集積回路として実現したり、アノテーション装置を含む画像識別システムとして実現したりすることもできる。
本発明によると、識別器の学習用データを効率的に生成することができる。
本発明の実施の形態1に係る画像識別システムの構成の一例を示すブロック図である。 本発明の実施の形態1に係るアノテーション装置の構成の一例を示すブロック図である。 動画像データのうちの1枚の画像データの一例を示す図である。 関係情報の一例を示す図である。 学習用データの一例を示す図である。 ワールド座標系と画像センサ(カメラ)のカメラ座標系との関係を示す図である。 関係情報生成部による関係情報の生成処理の一例を示すフローチャートである。 関係情報生成部による関係情報の生成処理を説明するための図である。 本発明の実施の形態1に係るアノテーション装置の処理手順の一例を示すフローチャートである。 表示装置の画面の表示例を示す図である。 表示装置の画面の表示例を示す図である。 表示装置の画面の表示例を示す図である。 表示装置の画面の表示例を示す図である。 表示装置の画面の表示例を示す図である。 本発明の実施の形態2に係るアノテーション装置の構成の一例を示すブロック図である。 背景画像データの一例を示す図である。 差分画像データの一例を示す図である。 本発明の実施の形態2に係るアノテーション装置の処理手順の一例を示すフローチャートである。 表示装置の画面の表示例を示す図である。 表示装置の画面の表示例を示す図である。 表示装置の画面の表示例を示す図である。 表示装置の画面の表示例を示す図である。 本発明の実施の形態3に係るアノテーション装置の処理手順の一例を示すフローチャートである。 表示装置の画面の表示例を示す図である。 表示装置の画面の表示例を示す図である。
[本願発明の実施形態の概要]
最初に本発明の実施形態の概要を列記して説明する。
(1)本発明の一実施形態に係るアノテーション装置は、画像データ中の対象物を識別する識別器の学習に用いられる学習用データを生成するアノテーション装置であって、学習対象の画像データである対象画像データを画面に表示させる表示制御部と、前記対象画像データ上でユーザが指定した位置の座標情報を取得する座標情報取得部と、取得された前記座標情報に基づいて、前記座標情報ごとに前記対象画像データから前記対象物を含む領域である対象物領域の画像データである学習用画像データを抽出し、前記学習用画像データと前記対象物のラベルとを含む前記学習用データを生成する学習用データ生成部とを備え、前記対象物領域のサイズは、前記対象物を撮像する撮像装置から前記対象物までの距離が遠いほど小さい。
この構成によると、ユーザが対象画像データ上で1つの位置を指定するだけで、学習用画像データが抽出され、学習用データが生成される。このため、識別器の学習用データを効率的に生成することができる。
(2)好ましくは、前記学習用データ生成部は、前記撮像装置で撮像された画像データ上の各座標と当該座標に対応する3次元空間中の座標に対象物が存在する場合の当該対象物の前記画像データ上の対象物領域との関係を示す関係情報に基づいて、前記対象画像データから前記座標情報取得部が取得した各前記座標情報に対応する対象物領域の画像データを、前記学習用画像データとして抽出する。
この構成によると、関係情報を参照することにより、対象画像データ上でユーザが指定した位置に対応する3次元空間中の位置に対象物が存在する場合の対象画像データ上での対象物領域を正確に決定することができる。このため、対象物を含む学習用画像データを正確に抽出することができる。
(3)さらに好ましくは、前記関係情報は、対象物の種類ごとに設けられており、前記アノテーション装置は、さらに、ユーザが指定した対象物の種類の情報を受け付ける種類情報受付部を備え、前記学習用データ生成部は、指定された前記対象物の種類に対応する前記関係情報に基づいて前記学習用画像データを抽出し、前記学習用画像データと指定された前記対象物の種類に対応する前記対象物のラベルとを含む前記学習用データを生成する。
この構成によると、対象物の種類ごとに3次元空間中での対象物のサイズが異なる場合であっても、種類に応じた学習用データを生成することができる。
(4)また、前記表示制御部は、前記対象画像データと背景画像データとの差分画像データを前記画面に表示させ、前記座標情報取得部は、表示された前記差分画像データ上で前記ユーザが指定した位置の座標情報を取得してもよい。
差分画像データは、背景部分が除去された画像データである。このため、ユーザは、効率的に対象物の位置を指定することができる。
(5)また、前記背景画像データは、複数の前記対象画像データの平均画像データであってもよい。
この構成によると、例えば、交通量の多い道路のように対象物である車両が映っていない背景画像データを準備することが困難な場合であっても、背景画像データを生成することができる。これにより、識別器の学習用データを効率的に生成することができる。
(6)また、前記表示制御部は、前記対象画像データ及び前記差分画像データを同時に表示し、前記座標情報取得部は、表示された前記対象画像データ及び前記差分画像データの一方の画像データ上で前記ユーザが指定した位置の座標情報を取得してもよい。
この構成によると、ユーザは、対象画像データ及び差分画像データを対比しながら、見やすい方の画像データ上で位置を指定することができる。
(7)また、前記座標情報取得部は、前記ユーザが指定した位置の座標情報を、前記対象物の下端位置の座標情報として取得してもよい。
3次元空間中の地面上の位置と、画像データ上の位置とは、事前にカメラキャリブレーション等により対応付けられている。また、対象物の下端位置は、地面上の位置とみなすことができる。このため、ユーザが指定した位置の座標情報を、対象物の下端位置の座標情報とすることにより、3次元空間中での対象物の下端位置を正確に決定することができる。これにより、学習用画像データを正確に抽出することができる。
(8)また、上述のアノテーション装置は、さらに、前記対象物領域のユーザによる変更の指示を受け付ける変更指示受付部を備え、前記学習用データ生成部は、前記指示に基づいて、前記対象画像データから変更後の前記対象物領域の画像データを前記学習用画像データとして抽出してもよい。
この構成によると、対象物が対象物領域からはみ出していることにより学習用画像データの抽出が不正確な場合などに、対象物領域を変更し、学習用画像データを抽出し直すことができる。
(9)本発明の他の実施形態に係る学習モデルは、画像データに基づいて、当該画像データから対象物を識別するよう、コンピュータを機能させるための学習モデルであって、上述のアノテーション装置により生成された学習用データを用いてパラメータが学習されている。
この構成によると、ユーザが対象画像データ上で1つの位置を指定することにより効率的に生成された学習用データに基づいて、学習モデルのパラメータが学習される。このため、効率的に学習モデルのパラメータを学習することができる。これにより、より多くの学習用データに基づいてパラメータを学習することができる。よって、汎化能力の高い学習モデルを提供することができる。
(10)本発明の他の実施形態に係る画像センサは、対象領域を撮像する撮像部と、前記撮像部により撮像された前記対象領域の画像データに基づいて、当該画像データから対象物を識別する識別部とを備え、前記識別部は、上述のアノテーション装置により生成された学習用データを用いてパラメータが学習されている。
この構成によると、ユーザが対象画像データ上で1つの位置を指定することにより効率的に生成された学習用データに基づいて、パラメータが学習される。このため、効率的にパラメータを学習することができる。よって、汎化能力の高い識別器を備える画像センサを提供することができる。
(11)本発明の他の実施形態に係るアノテーション方法は、画像データ中の対象物を識別する識別器の学習に用いられる学習用データを生成するアノテーション方法であって、学習対象の画像データである対象画像データを画面に表示させるステップと、前記対象画像データ上でユーザが指定した位置の座標情報を取得するステップと、取得された前記座標情報に基づいて、前記座標情報ごとに前記対象画像データから前記対象物を含む領域である対象物領域の画像データである学習用画像データを抽出し、前記学習用画像データと前記対象物のラベルとを含む前記学習用データを生成するステップとを含み、前記対象物領域のサイズは、前記対象物を撮像する撮像装置から前記対象物までの距離が遠いほど小さい。
この構成は、上述のアノテーション装置が備える特徴的な処理部に対応するステップを含む。このため、この構成によると、上述のアノテーション装置と同様の作用および効果を奏することができる。
(12)本発明の他の実施形態に係るコンピュータプログラムは、コンピュータを、画像データ中の対象物を識別する識別器の学習に用いられる学習用データを生成するアノテーション装置として機能させるためのコンピュータプログラムであって、前記コンピュータを、学習対象の画像データである対象画像データを画面に表示させる表示制御部と、前記対象画像データ上でユーザが指定した位置の座標情報を取得する座標情報取得部と、取得された前記座標情報に基づいて、前記座標情報ごとに前記対象画像データから前記対象物を含む領域である対象物領域の画像データである学習用画像データを抽出し、前記学習用画像データと前記対象物のラベルとを含む前記学習用データを生成する学習用データ生成部として機能させ、前記対象物領域のサイズは、前記対象物を撮像する撮像装置から前記対象物までの距離が遠いほど小さい。
この構成によると、コンピュータを、上述のアノテーション装置として機能させることができる。このため、上述のアノテーション装置と同様の作用および効果を奏することができる。
[本願発明の実施形態の詳細]
以下、本発明の実施の形態について、図面を用いて詳細に説明する。なお、以下で説明する実施の形態は、いずれも本発明の好ましい一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。本発明は、特許請求の範囲によって特定される。よって、以下の実施の形態における構成要素のうち、本発明の最上位概念を示す独立請求項に記載されていない構成要素については、本発明の課題を達成するのに必ずしも必要ではないが、より好ましい形態を構成するものとして説明される。
また、同一の構成要素には同一の符号を付す。それらの機能および名称も同様であるため、それらの説明は適宜省略する。
[実施の形態1]
<画像識別システムの全体構成>
図1は、本発明の実施の形態1に係る画像識別システムの構成の一例を示すブロック図である。
図1を参照して、画像識別システム1は、画像センサ2と、アノテーション装置3とを備える。
画像センサ2は、撮像装置の一例であり、所定の領域を撮像し、学習モデル23に基づいて、当該領域の画像データ中に存在する対象物を識別する。
アノテーション装置3は、画像センサ2の学習モデル23を学習するための学習用データを生成する。学習用データは、対象物を含む領域(以下、「対象物領域」という。)の画像データ(以下、「学習用画像データ」という。)と、対象物のラベルとを含む。
画像センサ2は、撮像部21と、識別部22とを備える。
撮像部21は、例えば、CMOS(Complementary metal-oxide-semiconductor)イメージセンサや、CCD(Charged-coupled device)イメージセンサなどの固体撮像素子を含んで構成され、所定の領域を撮像した結果である画像データを、識別部22に出力する。
識別部22は、撮像部21から画像データを取得し、学習モデル23に基づいて、取得した画像データ中に含まれる対象物を識別する。具体的には、識別部22は、画像データから、対象物の領域と、対象物ラベルとを識別する。対象物ラベルは、例えば、対象物の種類ごとに設けられており、道路上を走行する車両に対して、普通車、トラック、バスおよび二輪車などのラベルが設けられている。
学習モデル23は、例えば、SSD(Single Shot MultiBox Detector)、YOLO(You Only Look Once)、RCNN(Regions with Convolutional Neural Networks)、またはFaster RCNNなどの識別器により構成することができる。アノテーション装置3が生成した学習用データに基づいて、深層学習等の手法を用いて学習モデル23のパラメータを機械学習することによって、学習モデル23は構築される。
<アノテーション装置の構成>
図2は、本発明の実施の形態1に係るアノテーション装置3の構成の一例を示すブロック図である。
アノテーション装置3は、記憶部30と、表示制御部34と、座標情報取得部35と、学習用データ生成部36と、車種情報受付部37と、変更指示受付部38と、関係情報生成部39とを備える。
アノテーション装置3は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)および通信インタフェース等を備える一般的なコンピュータにより構成される。各処理部34〜39は、HDDまたはROM等に記憶されたコンピュータプログラムをRAMに読み出し、読み出したコンピュータプログラムをCPU上で実行することにより機能的に実現される。なお、各処理部34〜39の一部または全部がハードウェアにより構成されていてもよい。
記憶部30は、HDDまたはRAM等のメモリであり、画像データ31と、関係情報32と、学習用データ33とを記憶している。
画像データ31は、学習用データの生成の対象となる画像データであり、例えば、動画像データを構成する時系列の画像データである。画像データ31は、例えば、画像センサ2が対象領域を撮像することにより得られる。
図3は、動画像データのうちの1枚の画像データ31の一例を示す図である。
画像データ31は、道路11を含む領域を撮像することにより得られる画像データである。画像データ31は、道路11上を走行する車両6A〜6Dを示している。
関係情報32は、画像データ31上の各座標と、当該座標に対象物が存在する場合の当該対象物の画像データ31上の対象物領域との関係を示す情報である。
図4は、関係情報32の一例を示す図である。
関係情報32は、対象物の種類(対象物ラベル)ごとに設けられており、図4は、普通車用の関係情報32を示している。
例えば、画像データ31上の座標(U1,V1)に対象物である普通車が存在とした場合、矩形で表した対象物領域の左上隅座標は(UL1,VL1)であり、右下隅座標は(UR1,VR1)である。また、画像データ31上の座標(U1,V2)に対象物である普通車が存在とした場合、矩形で表した対象物領域の左上隅座標は(UL2,VL2)であり、右下隅座標は(UR2,VR2)である。このようなレコードが、画像データ31上の座標(画像座標)毎に設けられている。なお、関係情報32には、画像データ31上の座標と、対象物領域の左上隅座および右下隅座標のそれぞれとの関係が数式で示されていてもよい。なお、関係情報32の生成方法については後述する。
学習用データ33は、学習モデル23のパラメータの学習に用いられるデータであり、上述したように学習用画像データと、対象物ラベルとを含む。
図5は、学習用データ33の一例を示す図である。
学習用データ33は、例えば、学習用画像データと対象物のラベル「普通車」との組、および、学習用画像データと対象物のラベル「トラック」との組などを含む。
関係情報生成部39は、記憶部30に記憶される関係情報32を生成する。
ここで、図6〜図8を参照して、関係情報32の生成処理について詳細に説明する。
図6は、ワールド座標系と画像センサ2(カメラ)のカメラ座標系との関係を示す図である。
図6に示すように、所定のワールド座標系(Xw,Yw,Zw)の3次元空間中に画像センサ2が固定的に設置される。また、画像センサ2を原点(例えば、画像センサ2のレンズ中心を原点)とし、画像センサ2の光軸をZ方向とするカメラ座標系(Xcam,Ycam,Zcam)が設定される。また、画像センサ2が生成する画像データの画像座標系を(U,V)とする。
画像センサ2のカメラパラメータは、焦点距離f、俯角α(Xw軸周りの角)、回転角β(Yw軸周りの角度)および水平角γ(Zw軸周りの角度)を含む。
このとき、画像座標(U,V)は、以下の式1および式2で算出される。
Figure 2020107170
ここで、回転行列は、以下の式3で示すことができる。
Figure 2020107170
画像センサ2を交通信号機などに設置した場合には画像センサ2の位置は固定である。また、画像センサ2のカメラパラメータや、画像センサ2と道路11との位置関係も事前にカメラキャリブレーションにより決定することができる。
このため、式1および式2より、画像座標系の座標とワールド座標系の座標とを相互に変換することができる。なお、変換手法については、“「ディジタル画像処理[改訂新版](CG-ARTS協会)」p308-312”に詳細に記載されている。このため、ここではその詳細な説明は省略する。
図7は、関係情報生成部39による関係情報32の生成処理の一例を示すフローチャートである。図8は、関係情報生成部39による関係情報32の生成処理を説明するための図である。
関係情報生成部39は、画像データ31上の各位置について以下に説明するステップS1〜S5の処理を繰り返す(ループA)。
つまり、関係情報生成部39は、式1および式2に従い、処理対象位置の画像座標をワールド座標に変換する(S1)。例えば、図8の(A)に示す画像データ31上の位置7の画像座標をワールド座標に変換すると、図8の(B)に示す位置7のワールド座標が求められる。
関係情報生成部39は、位置7のワールド座標を基点として3次元空間中に所定のサイズの直方体8を当てはめ、直方体8の8頂点のワールド座標を算出する(S2)。ここで、対象物を普通車とし、普通車を前方から撮影するものとする。また、位置7は、普通車の前方下部端の中央位置とする。また、直方体8のサイズは、普通車を囲うのに十分な所定のサイズとする。例えば、図8の(B)に示すように、関係情報生成部39は、位置7を普通車の前方下部端の中央位置し、位置7を基点として、幅w、高さhおよび奥行dの直方体8をワールド座標系に当てはめる。なお、直方体8の底面が地面と平行なり、直方体8の奥行き方向が普通車の進行方向と平行となるように、直方体8を当てはめるのが望ましい。また、関係情報生成部39は、直方体8の8頂点のワールド座標を算出する。
関係情報生成部39は、直方体の8頂点のワールド座標を、式1および式2に従い、画像座標に変換する(S3)。例えば、関係情報生成部39は、図8の(B)に示した直方体8を、図8の(C)に示す画像座標9に変換する。
関係情報生成部39は、8頂点の画像座標を全て内包する外接矩形を画像データ31上の対象物領域として算出する(S4)。例えば、関係情報生成部39は、図8の(C)に示す8つの画像座標9を内包する外接矩形を算出することにより、図8の(D)に示す対象物領域10を生成することができる。
関係情報生成部39は、処理対象位置の画像座標と、対象物領域の左上隅座標および右下隅座標とを関係情報32に登録する(S5)。例えば、関係情報生成部39は、図8の(A)に示した位置7の画像座標と、図8の(D)に示した対象物領域10の左上隅座標および右下隅座標とを、関係情報32に登録する。
なお、関係情報32に登録する対象物領域10の情報は、左上隅座標および右下隅座標に限定されるものではなく、対象物領域10が特定できる情報であれば他の情報であってもよい。例えば、対象物領域10の左上隅座標と、対象物領域10のU軸方向およびV軸方向のサイズとを、関係情報32に登録してもよい。
以上説明した処理により、図4に示したような関係情報32が生成される。関係情報32に示される対象物領域のサイズは、画像センサ2から対象物の距離が遠いほど小さくなる。
このような関係情報32の生成処理を、対象物を普通車、トラック、バス、または二輪車とした場合のそれぞれについて行うことにより、普通車用、トラック用、バス用および二輪車用の関係情報32が生成される。
再度図2を参照して、表示制御部34は、学習対象の画像データ31(対象画像データ)を表示装置4の画面に表示させる制御を行う。
座標情報取得部35は、表示装置4の画面に表示された画像データ31上でユーザが指定した位置の座標情報を取得する。ユーザによる位置の指定は、入力装置5により行われる。例えば、入力装置5はマウスであり、ユーザは、画像データ31上でマウスのボタンをクリックすることにより位置指定を行う。なお、入力装置5は、マウスに限定されるものではなく、例えば、キーボードやタッチペンなどであってもよい。
学習用データ生成部36は、関係情報32に基づいて、座標情報取得部35が取得した画像データ31上の位置の座標情報に対応する対象物領域を特定する。ここで、対象物の種類に対応した関係情報32が、対象物領域の特定に用いられる。例えば、対象物の種類が普通車である場合には普通車用の関係情報32が用いられる。
学習用データ生成部36は、画像データ31から、特定した対象物領域内の画像データを、学習用画像データとして抽出する。学習用データ生成部36は、抽出した学習用画像データと対象物ラベルとを含む学習用データ33を生成する。学習用データ生成部36は、生成した学習用データ33を、記憶部30に書き込む。
表示制御部34は、画像データ31上に、学習用データ生成部36が特定した対象物領域を重畳させて、表示装置4の画面に表示させる。例えば、表示制御部34は、対象物領域を矩形の枠で表示させる。
車種情報受付部37は、種類情報受付部として機能し、ユーザが指定した対象物の種類(ここでは、車種)の情報を受け付ける。例えば、ユーザは、入力装置5を操作し、表示装置4に表示されたメニュー画面から車種を選択する。車種情報受付部37は、選択された車種の情報を受け付ける。学習用データ生成部36は、車種情報受付部37が受け付けた車種に対応する関係情報32を記憶部30から読み出し、学習用画像データの抽出に用いる。
変更指示受付部38は、表示装置4に表示された対象物領域のユーザによる変更の指示を受け付ける。例えば、ユーザが、入力装置5を操作して、対象物領域の矩形の枠を移動させたり、枠のサイズを変更したりすることにより、対象物領域の変更を指示する。変更指示受付部38は、例えば、変更後の対象物領域の左上隅座標および右下隅座標を、対象物領域の変更の指示として受け付ける。
表示制御部34は、当該指示に基づいて、変更後の対象物領域の枠を画像データ31に重畳させて、表示装置4の画面に表示させる。
また、学習用データ生成部36は、画像データ31から、変更後の対象物領域内の画像データを、学習用画像データとして抽出し、抽出された学習用画像データで学習用データ33を更新する。
<アノテーション装置の処理>
図9は、本発明の実施の形態1に係るアノテーション装置3の処理手順の一例を示すフローチャートである。
表示制御部34は、記憶部30から、学習用データの生成処理が未処理の画像データ31を読み出し、読み出した画像データ31を表示装置4の画面に表示させる制御を行う(S11)。例えば、図3に示す画像データ31が画面表示されたものとして以下の説明を行う。また、デフォルトの設定では、普通車が対象物として設定されているものとする。
画像データ31上でユーザによる位置指定があった場合には(S12でYES)、座標情報取得部35は、指定された位置の座標情報を取得する(S13)。
表示制御部34は、座標情報取得部35から、座標情報取得部35が取得した位置の座標情報を取得し、当該位置にマーカーを重畳させて表示する(S14)。
図10は、表示装置4の画面の表示例を示す図である。
例えば、表示制御部34は、図10に示される位置7Aをユーザが指定した場合には、位置7Aに「×」印のマーカーを重畳表示する。
学習用データ生成部36は、座標情報取得部35から、座標情報取得部35が取得した位置の座標情報を取得する。学習用データ生成部36は、対象物の関係情報32に基づいて、取得した座標情報から、画像データ31上の対象物領域の位置を特定する(S15)。
表示制御部34は、画像データ31上に、学習用データ生成部36が特定した対象物領域を重畳させて、表示装置4の画面に表示させる(S16)。
図11は、表示装置4の画面の表示例を示す図である。
例えば、図11に示すように、表示制御部34は、対象物領域10Aを矩形で表示させる。なお、表示制御部34は、対象物領域が抽出されるにつれ、対象物領域の矩形を追加表示するようにしてもよい。
図12は、表示装置4の画面の表示例を示す図である。
例えば、図12に示すように、表示制御部34は、画像データ31上にこれまでに特定した3つの対象物領域10A〜10Cを重畳表示させる。
ユーザが入力装置5を操作していずれかの対象物領域の変更を指示した場合には(S17でYES)、変更指示受付部38は、対象物領域のユーザによる変更の指示を取得する(S18)。
表示制御部34は、取得した指示に基づいて、画像データ31上に変更後の対象物領域10を重畳させて、表示装置4の画面に表示させる(S19)。
図13は、表示装置4の画面の表示例を示す図である。
例えば、図12に示した画像データ31上でユーザが対象物領域10Bの変更を指示した場合には、表示制御部34は、図13に示すように、対象物領域10Bの位置を変更して表示させる。その後、ステップS17に戻る。
対象物領域の変更の指示が無い場合には(S17でNO)、ステップS20以降の処理が実行される。対象物領域の変更の指示が無い場合とは、例えば、表示装置4の画面上に表示された図示しない確定ボタンをユーザがクリックすることにより、対象物領域を確定させた場合などである。
ステップS20では、学習用データ生成部36は、画像データ31から、対象物領域内の画像データを、学習用画像データとして抽出する(S20)。例えば、学習用データ生成部36は、図13に示した対象物領域10A〜10Cの画像データを、学習用画像データとして抽出する。
学習用データ生成部36は、抽出した学習用画像データと対象物のラベルとを含む学習用データ33を生成する(S21)。これにより、図5に示すような学習用データ33が生成される。なお、デフォルトでは、対象物は普通車とされているため、学習用データ33のラベルは普通車とされる。
一方、ユーザが入力装置5を操作することにより車種を指定し、車種情報受付部37がユーザの指定した車種の情報を受け付けた場合(S12でNO、S22でYES)、学習用データ生成部36は、指定された車種の関係情報32を記憶部30から読み出し、対象物の関係情報32を変更する(S23)。その後、ステップS12に戻る。
例えば、ユーザは、画面上に設けられたメニュー画面より車種を指定する。
図14は、表示装置4の画面の表示例を示す図である。
例えば、ユーザは、入力装置5を操作して、カーソル12を画面の左上上部に移動させると、表示制御部34は、画面上に車種を選択するためのメニュー画面を表示させる。ここでは、車種として、普通車、トラック、バスおよび二輪車のいずれかを指定可能なメニュー画面が表示される。
ユーザは、入力装置5を操作して、いずれかの車種上にカーソル12を移動させ、クリックをすることにより、車種を指定することができる。例えば、図14では、車種としてトラックが指定される。
その後、学習用データ生成部36は、対象物をトラックに変更し、トラック用の関係情報32を読み出す。
以降の処理で、例えば、ユーザが車両6Dの前部下部端の中央位置を指定すると、ステップS13以降の処理が実行される。つまり、学習用データ生成部36は、トラック用の関係情報32に基づいて、指定された位置に対応する対象物領域10Dの位置を特定する。また、表示制御部34は、画像データ31上に対象物領域10Dを重畳させて、表示装置4の画面に表示させる。
アノテーション装置3は、図9に示した処理を記憶部30に記憶されている未処理の画像データ31に対して順次繰り返し実行する。
<実施の形態1の効果>
以上説明したように、本発明の実施の形態1によると、ユーザが画像データ31上で1つの位置を指定するだけで、学習用画像データが抽出され、学習用データ33が生成される。このため、学習モデル23のパラメータの学習用データ33を効率的に生成することができる。
また、学習用データ生成部36は、関係情報32を参照することにより、画像データ31上でユーザが指定した位置に対応する3次元空間中の位置に対象物が存在する場合の画像データ31上での対象物領域を正確に決定することができる。このため、対象物を含む学習用画像データを正確に抽出することができる。
また、関係情報32は、対象物の種類ごとに設けられている。このため、対象物の種類ごとに3次元空間中での対象物のサイズが異なる場合であっても、種類に応じた学習用データ33を生成することができる。
また、対象物を指定する位置は、対象物の前方下部端の中央位置としている。3次元空間中の地面上の位置と、画像データ31上の位置とは、事前にカメラキャリブレーション等により対応付けられている。また、対象物の下端位置は、地面上の位置とみなすことができる。このため、ユーザが指定した位置の座標情報を、対象物の下端位置の座標情報とすることにより、3次元空間中での対象物の下端位置を正確に決定することができる。これにより、学習用画像データを正確に抽出することができる。
また、ユーザは、対象物領域を変更することができる。このため、対象物が対象物領域からはみ出していることにより学習用画像データの抽出が不正確な場合などに、対象物領域を変更し、学習用画像データを抽出し直すことができる。
また、上述のアノテーション装置3により生成された学習用データ33を用いて、学習モデル23のパラメータが学習される。つまり、ユーザが画像データ31上で1つの位置を指定することにより効率的に生成された学習用データ33に基づいて、学習モデル23のパラメータが学習される。このため、効率的に学習モデル23のパラメータを学習することができる。これにより、より多くの学習用データ33に基づいてパラメータを学習することができる。よって、汎化能力の高い学習モデル23を提供することができる。
また、汎化能力の高い学習モデル23を備える画像センサ2を提供することもできる。
[実施の形態2]
次に、本発明の実施の形態2について説明する。実施の形態2では、実施の形態1と異なり、画像データと背景画像データとの差分画像データを用いて学習用データを生成する。
実施の形態2に係る画像識別システムの構成は、図1に示した実施の形態1に係る画像識別システム1の構成と同様である。
<アノテーション装置の構成>
図15は、本発明の実施の形態2に係るアノテーション装置3の構成の一例を示すブロック図である。
アノテーション装置3は、記憶部30と、表示制御部34と、座標情報取得部35と、学習用データ生成部36と、車種情報受付部37と、変更指示受付部38と、関係情報生成部39と、背景画像データ生成部41と、差分画像データ生成部42とを備える。
アノテーション装置3は、例えば、CPU、ROM、RAM、HDDおよび通信インタフェース等を備える一般的なコンピュータにより構成される。各処理部34〜39、41および42は、HDDまたはROM等に記憶されたコンピュータプログラムをRAMに読み出し、読み出したコンピュータプログラムをCPU上で実行することにより機能的に実現される。なお、各処理部34〜39、41および42の一部または全部がハードウェアにより構成されていてもよい。
記憶部30は、画像データ31と、関係情報32と、学習用データ33と、背景画像データ40とを記憶している。
背景画像データ40は、画像データ31と同じ対象領域の画像データであるが、学習モデル23による識別の対象物が映っていない画像データである。
図16は、背景画像データの一例を示す図である。
背景画像データ40は、図3に示した画像データ31と同じ対象領域の画像データであるが、対象物である6A〜6Dが含まれていない。
背景画像データ生成部41は、背景画像データ40を生成する。具体的には、背景画像データ生成部41は、記憶部30に記憶されている複数の画像データ31から背景画像データ40を生成し、記憶部30に書き込む。例えば、背景画像データ生成部41は、学習用データの生成の対象となるすべての画像データ31の平均画像データを、背景画像データ40として生成する。つまり、背景画像データ生成部41は、学習用データの生成の対象となるすべての画像データ31について、画素ごとに画素値の平均値を算出する。背景画像データ生成部41は、各画素の画素値が算出した平均値からなる平均画像データを、背景画像データ40として生成する。道路11上を走行する車両を含む画像データ31から背景画像データ40を生成する場合を考えると、車両の渋滞時等を除き、車両がスムーズに走行している場合には、各画素で車両の画素値が占める時間よりも道路11の画素値が占める時間の方が圧倒的に大きくなる。このため、平均画像データを算出することにより、道路11の画素値に近い背景画像データ40を生成することができる。なお、背景画像データ生成部41は、車両の渋滞時等は、渋滞していない時間帯の画像データ31から背景画像データ40を生成するようにしてもよい。
差分画像データ生成部42は、記憶部30から、学習用データの生成の対象となるすべての画像データ31と、背景画像データ40とを読み出し、画像データ31と、背景画像データ40との差分画像データを作成する。例えば、差分画像データ生成部42は、画像データ31および背景画像データ40の画素毎の画素値の差分の絶対値を算出する。差分画像データ生成部42は、各画素の画素値が算出した差分の絶対値から構成される差分画像データを生成する。
図17は、差分画像データの一例を示す図である。
例えば、差分画像データ生成部42は、図3に示した画像データ31と、図16に示した背景画像データ40とから、図17に示す差分画像データ51を生成する。
表示制御部34は、差分画像データ生成部42が生成した差分画像データ51を、表示装置4の画面に表示させる制御を行う。
座標情報取得部35は、表示装置4の画面に表示された差分画像データ51上でユーザが指定した位置の座標情報を取得する。ユーザによる位置の指定は、実施の形態1と同様に入力装置5により行われる。
<アノテーション装置の処理>
図18は、本発明の実施の形態2に係るアノテーション装置3の処理手順の一例を示すフローチャートである。
図18に示す処理は、記憶部30に記憶されている複数の画像データ31の各々について繰り返し実行される。各画像データ31から学習用データ33が生成される。
それら複数の画像データ31の最初の画像データ31についての処理である場合には(S31でYES)、背景画像データ生成部41は、複数の画像データ31を記憶部30から読み出し、読み出した複数の画像データ31から平均画像データを作成することにより、背景画像データ40を生成する。背景画像データ生成部41は、生成した背景画像データ40を記憶部30に書き込む(S32)。
2枚目以降の画像データ31についての処理である場合には(S31でNO)、背景画像データ40は生成済みである。このため、ステップS32の処理は実行されない。
背景画像データ40が生成された後は、差分画像データ生成部42は、記憶部30から、処理対象の画像データ31と、背景画像データ40とを読み出し、読み出した画像データ31および背景画像データ40の差分画像データ51を生成する(S33)。
表示制御部34は、差分画像データ生成部42が生成した差分画像データ51を表示装置4の画面に表示させる制御を行う(S34)。これにより、図17に示すような差分画像データ51が画面に表示される。
差分画像データ51上でユーザによる位置指定があった場合には(S12でYES)、座標情報取得部35は、指定された位置の座標情報を取得する(S13)。
表示制御部34は、座標情報取得部35から、座標情報取得部35が取得した位置の座標情報を取得し、当該位置にマーカーを重畳させて表示する(S14)。
図19は、表示装置4の画面の表示例を示す図である。
例えば、表示制御部34は、図19に示される位置7Aをユーザが指定した場合には、位置7Aに「×」印のマーカーを重畳表示する。
学習用データ生成部36は、座標情報取得部35から、座標情報取得部35が取得した位置の座標情報を取得する。学習用データ生成部36は、対象物の関係情報32に基づいて、取得した座標情報から、画像データ31上の対象物領域の位置を特定する(S15)。
表示制御部34は、画像データ31上に、学習用データ生成部36が特定した対象物領域を重畳して、表示装置4の画面に表示させる(S16)。
図20は、表示装置4の画面の表示例を示す図である。
例えば、図20に示すように、表示制御部34は、対象物領域10Aを矩形で表示させる。
ステップS17〜S19の処理は、実施の形態1で説明したものと同様である。ただし、ステップS19の処理において対象物領域10を重畳表示させる対象の画像データは、差分画像データ51である。
ステップS20では、学習用データ生成部36は、画像データ31から、対象物領域の画像データを、学習用画像データとして抽出する(S20)。表示装置4は、差分画像データ51に対象物領域を重畳表示するが、対象物領域の画像データは、差分画像データ51ではなく、画像データ31から抽出される。これは、識別部22による識別対象の画像データは、差分画像データ51ではなく、撮像部21により撮像された画像データだからである。
ステップS21〜S23の処理は、実施の形態1で説明したものと同様である。
図21は、表示装置4の画面の表示例を示す図である。
図18に示した処理を処理対象の画像データ31に対して行うことにより、最終的に図21に示す差分画像データ51上に、対象物である車両6A〜6Dのそれぞれの対象物領域10A〜10Dが表示され、各対象物領域の画像データが抽出される。
<実施の形態2の効果>
以上説明したように、本発明の実施の形態2によると、ユーザが差分画像データ51上で対象物の位置を指定することにより、学習用データが生成される。差分画像データ51は、背景部分が除去された画像データである。このため、ユーザは、効率的に対象物の位置を指定することができる。
また、差分画像データ生成部42は、複数の画像データ31の平均画像データを、差分画像データ51の生成のための背景画像データとして生成する。このため、例えば、交通量の多い道路のように対象物である車両が映っていない背景画像データを準備することが困難な場合であっても、背景画像データを生成することができる。これにより、学習モデル23の学習用データを効率的に生成することができる。
[実施の形態3]
次に、本発明の実施の形態3について説明する。実施の形態2では差分画像データを表示装置の画面に表示することとしたが、実施の形態3では、差分画像データとオリジナルの画像データとを表示する点が実施の形態2とは異なる。
実施の形態3に係る画像識別システムの構成は、図1に示した実施の形態1に係る画像識別システム1の構成と同様である。
<アノテーション装置の構成>
実施の形態3に係るアノテーション装置の構成は、図15に示した実施の形態2に係るアノテーション装置3の構成と同様である。
ただし、表示制御部34は、差分画像データ生成部42が生成した差分画像データ51とともに、差分画像データ51の作成に用いたオリジナルの画像データ31を、表示装置4の画面に表示させる制御を行う。
図22は、表示装置4の画面の表示例を示す図である。
表示制御部34は、表示装置4の画面の左側にオリジナルの画像データ31を表示させ、右側にその画像データ31と背景画像データ40とから生成された差分画像データ51を表示させる。
<アノテーション装置の処理>
図23は、本発明の実施の形態3に係るアノテーション装置3の処理手順の一例を示すフローチャートである。
図23に示す処理は、記憶部30に記憶されている複数の画像データ31の各々について繰り返し実行される。各画像データ31から学習用データ33が生成される。
ステップS31〜S33の処理は、実施の形態2で説明したものと同様である。
表示制御部34は、図22に示したように、画像データ31と、画像データ31を用いて生成された差分画像データ51とを表示装置4の画面に表示させる(S41)。
差分画像データ上でユーザによる位置指定があった場合には(S12でYES)、座標情報取得部35は、指定された位置の座標情報を取得する(S13)。ここで、ユーザは、画像データ31上で位置を指定することもできるし、差分画像データ51上で位置を指定することもできる。
表示制御部34は、座標情報取得部35から、座標情報取得部35が取得した位置の座標情報を取得し、当該位置にマーカーを重畳させて表示する(S14)。
図24は、表示装置4の画面の表示例を示す図である。
例えば、表示制御部34は、図24に示される差分画像データ51上の位置7Aをユーザが指定した場合には、位置7Aに「×」印のマーカーを重畳表示する。なお、ユーザが画像データ31上の位置を指定した場合には、表示制御部34は、当該位置にマーカーを重畳表示する。また、ユーザが画像データ31および差分画像データ51のいずれか一方の画像上の位置を指定した場合には、表示制御部34は、当該位置のみならず、他方の画像の対応する位置にもマーカーを重畳表示するようにしてもよい。
学習用データ生成部36は、座標情報取得部35から、座標情報取得部35が取得した位置の座標情報を取得する。学習用データ生成部36は、対象物の関係情報32に基づいて、取得した座標情報から、画像データ31上の対象物領域の位置を特定する(S15)。
表示制御部34は、画像データ31上および差分画像データ51に、学習用データ生成部36が特定した対象物領域を重畳して、表示装置4の画面に表示させる(S16)。
図25は、表示装置4の画面の表示例を示す図である。
例えば、表示制御部34は、画像データ31上および差分画像データ51上のそれぞれの車両6Aに対して対象物領域10Aを重畳して、画面に表示させる。なお、画像データ31および差分画像データ51のいずれか一方のみに対象物領域10Aを表示させてもよい。
ステップS17〜S19の処理は、実施の形態1で説明したものと同様である。ただし、ステップS19の処理において対象物領域10を重畳表示させる対象の画像データは、画像データ31および差分画像データ51である。なお、いずれか一方のみに対象物領域10を重畳表示させてもよい。
ステップS20では、学習用データ生成部36は、画像データ31から、対象物領域の画像データを、学習用画像データとして抽出する(S20)。表示装置4は、画像データ31および差分画像データ51の少なくとも一方に対象物領域10を重畳表示するが、対象物領域10の画像データは、差分画像データ51ではなく、画像データ31から抽出される。これは、識別部22による識別対象の画像データは、差分画像データ51ではなく、撮像部21により撮像された画像データだからである。
ステップS21〜S23の処理は、実施の形態1で説明したものと同様である。
<実施の形態3の効果>
以上説明したように、本発明の実施の形態3によると、ユーザは、画像データ31および差分画像データ51のいずれか一方の画像データ上で位置を指定することにより、画面上に対象物領域10を表示させ、学習用画像データを抽出させることができる。このため、ユーザは、処理対象の画像データ31および差分画像データ51を対比しながら、見やすい方の画像データ上で位置を指定することができる。これにより、効率的に学習用データを生成することができる。
[付記]
以上、本発明の実施の形態に係る画像識別システム1について説明したが、本発明は、これらの実施の形態に限定されるものではない。
例えば、上述の実施の形態では、画像データから道路上を走行する車両を識別するシステムについて説明したが、画像識別システム1の適用対象はこれに限定されるものではない。固定された画像センサ2が撮像した画像データから対象物を識別するシステムにも本開示は適用可能である。例えば、監視カメラで撮像された対象エリアの画像データから、対象物である人物を識別するシステムにも本開示は適用可能である。
また、上記したコンピュータプログラムを、コンピュータ読取可能な非一時的な記録媒体、例えば、HDD、CD−ROM、半導体メモリなどに記録して流通させてもよい。また、コンピュータプログラムを、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送して流通させてもよい。
また、アノテーション装置3は、複数のコンピュータにより実現されてもよい。
また、アノテーション装置3の一部または全部の機能がクラウドコンピューティングによって提供されてもよい。つまり、アノテーション装置3の一部または全部の機能がクラウドサーバにより実現されていてもよい。例えば、関係情報生成部39の機能がクラウドサーバにより実現され、アノテーション装置3は、クラウドサーバに対して画像データ31を送信し、クラウドサーバから関係情報32を取得する構成であってもよい。
さらに、上記実施の形態の少なくとも一部を任意に組み合わせるとしてもよい。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 画像識別システム
2 画像センサ
3 アノテーション装置
4 表示装置
5 入力装置
6A 車両
6B 車両
6C 車両
6D 車両
8 直方体
9 画像座標
10 対象物領域
10A 対象物領域
10B 対象物領域
10C 対象物領域
10D 対象物領域
11 道路
12 カーソル
21 撮像部
22 識別部
23 学習モデル
30 記憶部
31 画像データ
32 関係情報
33 学習用データ
34 表示制御部
35 座標情報取得部
36 学習用データ生成部
37 車種情報受付部
38 変更指示受付部
39 関係情報生成部
40 背景画像データ
41 背景画像データ生成部
42 差分画像データ生成部
51 差分画像データ

Claims (12)

  1. 画像データ中の対象物を識別する識別器の学習に用いられる学習用データを生成するアノテーション装置であって、
    学習対象の画像データである対象画像データを画面に表示させる表示制御部と、
    前記対象画像データ上でユーザが指定した位置の座標情報を取得する座標情報取得部と、
    取得された前記座標情報に基づいて、前記座標情報ごとに前記対象画像データから前記対象物を含む領域である対象物領域の画像データである学習用画像データを抽出し、前記学習用画像データと前記対象物のラベルとを含む前記学習用データを生成する学習用データ生成部とを備え、
    前記対象物領域のサイズは、前記対象物を撮像する撮像装置から前記対象物までの距離が遠いほど小さい
    アノテーション装置。
  2. 前記学習用データ生成部は、前記撮像装置で撮像された画像データ上の各座標と当該座標に対応する3次元空間中の座標に対象物が存在する場合の当該対象物の前記画像データ上の対象物領域との関係を示す関係情報に基づいて、前記対象画像データから前記座標情報取得部が取得した各前記座標情報に対応する対象物領域の画像データを、前記学習用画像データとして抽出する、請求項1に記載のアノテーション装置。
  3. 前記関係情報は、対象物の種類ごとに設けられており、
    前記アノテーション装置は、さらに、ユーザが指定した対象物の種類の情報を受け付ける種類情報受付部を備え、
    前記学習用データ生成部は、指定された前記対象物の種類に対応する前記関係情報に基づいて前記学習用画像データを抽出し、前記学習用画像データと指定された前記対象物の種類に対応する前記対象物のラベルとを含む前記学習用データを生成する、請求項2に記載のアノテーション装置。
  4. 前記表示制御部は、前記対象画像データと背景画像データとの差分画像データを前記画面に表示させ、
    前記座標情報取得部は、表示された前記差分画像データ上で前記ユーザが指定した位置の座標情報を取得する、請求項1〜請求項3のいずれか1項に記載のアノテーション装置。
  5. 前記背景画像データは、複数の前記対象画像データの平均画像データである、請求項4に記載のアノテーション装置。
  6. 前記表示制御部は、前記対象画像データ及び前記差分画像データを同時に表示し、
    前記座標情報取得部は、表示された前記対象画像データ及び前記差分画像データの一方の画像データ上で前記ユーザが指定した位置の座標情報を取得する、請求項4または請求項5に記載のアノテーション装置。
  7. 前記座標情報取得部は、前記ユーザが指定した位置の座標情報を、前記対象物の下端位置の座標情報として取得する、請求項1〜請求項6のいずれか1項に記載のアノテーション装置。
  8. さらに、
    前記対象物領域のユーザによる変更の指示を受け付ける変更指示受付部を備え、
    前記学習用データ生成部は、前記指示に基づいて、前記対象画像データから変更後の前記対象物領域の画像データを前記学習用画像データとして抽出する、請求項1〜請求項7のいずれか1項に記載のアノテーション装置。
  9. 画像データに基づいて、当該画像データから対象物を識別するよう、コンピュータを機能させるための学習モデルであって、
    請求項1〜請求項8のいずれか1項に記載のアノテーション装置により生成された学習用データを用いてパラメータが学習された、学習モデル。
  10. 対象領域を撮像する撮像部と、
    前記撮像部により撮像された前記対象領域の画像データに基づいて、当該画像データから対象物を識別する識別部とを備え、
    前記識別部は、請求項1〜請求項8のいずれか1項に記載のアノテーション装置により生成された学習用データを用いてパラメータが学習されている、画像センサ。
  11. 画像データ中の対象物を識別する識別器の学習に用いられる学習用データを生成するアノテーション方法であって、
    学習対象の画像データである対象画像データを画面に表示させるステップと、
    前記対象画像データ上でユーザが指定した位置の座標情報を取得するステップと、
    取得された前記座標情報に基づいて、前記座標情報ごとに前記対象画像データから前記対象物を含む領域である対象物領域の画像データである学習用画像データを抽出し、前記学習用画像データと前記対象物のラベルとを含む前記学習用データを生成するステップとを含み、
    前記対象物領域のサイズは、前記対象物を撮像する撮像装置から前記対象物までの距離が遠いほど小さい
    アノテーション方法。
  12. コンピュータを、画像データ中の対象物を識別する識別器の学習に用いられる学習用データを生成するアノテーション装置として機能させるためのコンピュータプログラムであって、
    前記コンピュータを、
    学習対象の画像データである対象画像データを画面に表示させる表示制御部と、
    前記対象画像データ上でユーザが指定した位置の座標情報を取得する座標情報取得部と、
    取得された前記座標情報に基づいて、前記座標情報ごとに前記対象画像データから前記対象物を含む領域である対象物領域の画像データである学習用画像データを抽出し、前記学習用画像データと前記対象物のラベルとを含む前記学習用データを生成する学習用データ生成部として機能させ、
    前記対象物領域のサイズは、前記対象物を撮像する撮像装置から前記対象物までの距離が遠いほど小さい
    コンピュータプログラム。
JP2018246787A 2018-12-28 2018-12-28 アノテーション装置、学習モデル、画像センサ、アノテーション方法、及びコンピュータプログラム Pending JP2020107170A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018246787A JP2020107170A (ja) 2018-12-28 2018-12-28 アノテーション装置、学習モデル、画像センサ、アノテーション方法、及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018246787A JP2020107170A (ja) 2018-12-28 2018-12-28 アノテーション装置、学習モデル、画像センサ、アノテーション方法、及びコンピュータプログラム

Publications (1)

Publication Number Publication Date
JP2020107170A true JP2020107170A (ja) 2020-07-09

Family

ID=71449190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018246787A Pending JP2020107170A (ja) 2018-12-28 2018-12-28 アノテーション装置、学習モデル、画像センサ、アノテーション方法、及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP2020107170A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022025927A (ja) * 2020-07-30 2022-02-10 カシオ計算機株式会社 教師データの生成方法、教師データの生成装置、画像処理装置及びプログラム
JP2022123104A (ja) * 2020-07-30 2022-08-23 カシオ計算機株式会社 教師データの生成方法、教師データの生成装置及びプログラム
WO2023100282A1 (ja) * 2021-12-01 2023-06-08 株式会社安川電機 データ生成システム、モデル生成システム、推定システム、学習済みモデルの製造方法、ロボット制御システム、データ生成方法、およびデータ生成プログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022025927A (ja) * 2020-07-30 2022-02-10 カシオ計算機株式会社 教師データの生成方法、教師データの生成装置、画像処理装置及びプログラム
JP2022123104A (ja) * 2020-07-30 2022-08-23 カシオ計算機株式会社 教師データの生成方法、教師データの生成装置及びプログラム
JP7124852B2 (ja) 2020-07-30 2022-08-24 カシオ計算機株式会社 教師データの生成方法、教師データの生成装置及びプログラム
JP7294505B2 (ja) 2020-07-30 2023-06-20 カシオ計算機株式会社 教師データの生成方法、教師データの生成装置及びプログラム
WO2023100282A1 (ja) * 2021-12-01 2023-06-08 株式会社安川電機 データ生成システム、モデル生成システム、推定システム、学習済みモデルの製造方法、ロボット制御システム、データ生成方法、およびデータ生成プログラム

Similar Documents

Publication Publication Date Title
US10474918B2 (en) Image processing apparatus, image processing method, and storage medium
JP2011505610A (ja) 画像センサデータに距離センサデータをマッピングする方法及び装置
JP4416039B2 (ja) 縞模様検知システム、縞模様検知方法および縞模様検知用プログラム
JP5975598B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6726052B2 (ja) 画像処理方法およびプログラム
JP2020107170A (ja) アノテーション装置、学習モデル、画像センサ、アノテーション方法、及びコンピュータプログラム
JP2019114821A (ja) 監視システム、装置、方法およびプログラム
JP6762570B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
CN109242900B (zh) 焦平面定位方法、处理装置、焦平面定位系统及存储介质
JP6031819B2 (ja) 画像処理装置、画像処理方法
JP2016212784A (ja) 画像処理装置、画像処理方法
JP4427052B2 (ja) 画像処理装置および領域追跡プログラム
JP2020013206A (ja) 動画・カメラからの二輪車検知装置、プログラム及びシステム
CN116051736A (zh) 一种三维重建方法、装置、边缘设备和存储介质
JP2022167992A (ja) 物体追跡装置、物体追跡方法、およびプログラム
US9392146B2 (en) Apparatus and method for extracting object
JP6991045B2 (ja) 画像処理装置、画像処理装置の制御方法
CN109657729B (zh) 图像特征融合、特征图处理及姿态识别方法、装置及系统
US20170344820A1 (en) Method and system of identifying fillable fields of an electronic form
JP2020144686A (ja) モデル作成システム、モデル作成方法
JP2010193154A (ja) 画像処理装置および画像処理方法
CN110059681B (zh) 信息处理装置、信息处理方法和存储介质
JP2018092507A (ja) 画像処理装置、画像処理方法及びプログラム
JP2021051530A (ja) 画像処理プログラム及び画像処理装置
WO2023042604A1 (ja) 寸法計測装置、寸法計測方法及びプログラム