JP6932758B2 - 物体検出装置、物体検出方法、物体検出プログラム、学習装置、学習方法及び学習プログラム - Google Patents
物体検出装置、物体検出方法、物体検出プログラム、学習装置、学習方法及び学習プログラム Download PDFInfo
- Publication number
- JP6932758B2 JP6932758B2 JP2019196150A JP2019196150A JP6932758B2 JP 6932758 B2 JP6932758 B2 JP 6932758B2 JP 2019196150 A JP2019196150 A JP 2019196150A JP 2019196150 A JP2019196150 A JP 2019196150A JP 6932758 B2 JP6932758 B2 JP 6932758B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- object detection
- target
- learning
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 172
- 238000000034 method Methods 0.000 title claims description 45
- 238000013075 data extraction Methods 0.000 claims description 32
- 239000000284 extract Substances 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 11
- 238000003384 imaging method Methods 0.000 claims description 7
- 238000012986 modification Methods 0.000 description 16
- 230000004048 modification Effects 0.000 description 16
- 230000010354 integration Effects 0.000 description 13
- 238000012545 processing Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 10
- 238000013135 deep learning Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 239000002131 composite material Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/235—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/32—Normalisation of the pattern dimensions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
この発明は、小さく映った物体についても物体検出モデルにより検出可能にすることを目的とする。
撮影装置によって撮影領域が撮影されて得られた画像データのうち検出対象領域を含む領域の画像データを対象データとして抽出するとともに、前記対象データのうち拡大領域の画像データを部分データとして抽出するデータ抽出部と、
前記データ抽出部によって抽出された前記対象データ及び前記部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更するサイズ変更部と、
前記サイズ変更部によってサイズ変更された前記対象データ及び前記部分データそれぞれを前記物体検出モデルに入力して、前記対象データ及び前記部分データそれぞれから対象の物体を検出する物体検出部と
を備える。
前記物体検出部によって前記対象データから検出された結果を示す第1結果データと、前記部分データから検出された第2結果データとを、同一の物体については1つの物体になるように統合した統合結果データを生成する統合部
を備える。
前記対象データ及び前記部分データそれぞれを学習データとして前記物体検出モデルに与えて学習させる学習部
を備える。
データ抽出部が、撮影装置によって撮影領域が撮影されて得られた画像データのうち検出対象領域を含む領域の画像データを対象データとして抽出するとともに、前記対象データのうち拡大領域の画像データを部分データとして抽出し、
サイズ変更部が、前記対象データ及び前記部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更し、
物体検出部が、サイズ変更された前記対象データ及び前記部分データそれぞれを前記物体検出モデルに入力して、前記対象データ及び前記部分データそれぞれから対象の物体を検出する。
撮影装置によって撮影領域が撮影されて得られた画像データのうち検出対象領域を含む領域の画像データを対象データとして抽出するとともに、前記対象データのうち拡大領域の画像データを部分データとして抽出するデータ抽出処理と、
前記データ抽出処理によって抽出された前記対象データ及び前記部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更するサイズ変更処理と、
前記サイズ変更処理によってサイズ変更された前記対象データ及び前記部分データそれぞれを前記物体検出モデルに入力して、前記対象データ及び前記部分データそれぞれから対象の物体を検出する物体検出処理と
を行う物体検出装置としてコンピュータを機能させる。
撮影装置によって得られた画像データのうち検出対象領域を含む領域の画像データを対象データとして抽出するとともに、前記対象データのうち拡大領域の画像データを部分データとして抽出するデータ抽出部と、
前記データ抽出部によって抽出された前記対象データ及び前記部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更するサイズ変更部と、
前記サイズ変更部によってサイズ変更された前記対象データ及び前記部分データそれぞれを学習データとして前記物体検出モデルを生成する学習部と
を備える。
撮影装置によって撮影領域が撮影されて得られた画像データから、前記画像データにおける位置に応じたサイズの拡大領域の画像データを部分データとして複数抽出するデータ抽出部と、
前記データ抽出部によって抽出された複数の部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更するサイズ変更部と、
前記サイズ変更部によってサイズ変更された前記複数の部分データそれぞれを前記物体検出モデルに入力して、前記対象データ及び前記部分データそれぞれから対象の物体を検出する物体検出部と
を備える。
前記物体検出部によって前記複数の部分データそれぞれから検出された結果データを、同一の物体については1つの物体になるように統合した統合結果データを生成する統合部
を備える。
前記複数の部分データそれぞれを学習データとして前記物体検出モデルに与えて学習させる学習部
を備える。
データ抽出部が、撮影装置によって撮影領域が撮影されて得られた画像データから、前記画像データにおける位置に応じたサイズの拡大領域の画像データを部分データとして複数抽出し、
サイズ変更部が、抽出された複数の部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更し、
物体検出部が、サイズ変更された前記複数の部分データそれぞれを前記物体検出モデルに入力して、前記対象データ及び前記部分データそれぞれから対象の物体を検出する。
撮影装置によって撮影領域が撮影されて得られた画像データから、前記画像データにおける位置に応じたサイズの拡大領域の画像データを部分データとして複数抽出するデータ抽出処理と、
前記データ抽出処理によって抽出された複数の部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更するサイズ変更処理と、
前記サイズ変更処理によってサイズ変更された前記複数の部分データそれぞれを前記物体検出モデルに入力して、前記対象データ及び前記部分データそれぞれから対象の物体を検出する物体検出処理と
を行う物体検出装置としてコンピュータを機能させる。
撮影装置によって撮影領域が撮影されて得られた画像データから、前記画像データにおける位置に応じたサイズの拡大領域の画像データを部分データとして複数抽出するデータ抽出部と、
前記データ抽出部によって抽出された複数の部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更するサイズ変更部と、
前記サイズ変更部によってサイズ変更された前記複数の部分データそれぞれを学習データとして前記物体検出モデルを生成する学習部と
を備える。
***構成の説明***
図1を参照して、実施の形態1に係る物体検出装置10の構成を説明する。
物体検出装置10は、コンピュータである。
物体検出装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
ストレージ13には、物体検出装置10の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、物体検出装置10の各機能構成要素の機能が実現される。
図2から図5を参照して、実施の形態1に係る物体検出装置10の動作を説明する。
実施の形態1に係る物体検出装置10の動作手順は、実施の形態1に係る物体検出方法に相当する。また、実施の形態1に係る物体検出装置10の動作を実現するプログラムは、実施の形態1に係る物体検出プログラムに相当する。
設定読込部21は、検出対象領域33及び拡大領域34を示す設定データ32をストレージ13から読み込む。
検出対象領域33は、撮影装置41によって撮影される撮影領域のうち対象の物体を検出する領域である。
拡大領域34は、検出対象領域33のうち小さく映った物体を検出する領域である。実施の形態1では、図3に示すように、拡大領域34は、画像データの奥の方の領域である。つまり、実施の形態1では、拡大領域34は、検出対象領域33における撮影装置41の撮影領域のうち奥行方向の距離が基準距離以上の領域を含む領域である。なお、奥行方向の手前側の領域であっても小さな物体を対象の物体として扱う領域については、拡大領域34として設定される可能性もある。また、検出対象領域33のうち拡大領域34を複数設定してもよい。
画像取得部22は、通信インタフェース14を介して、撮影装置41によって撮影領域が撮影されて得られた最新のフレームの画像データを取得する。
データ抽出部23は、ステップS12で取得された画像データのうち、ステップS11で読み込まれた設定データ32が示す検出対象領域33を含む領域の画像データを対象データ35として抽出する。実施の形態1では、データ抽出部23は、ステップS12で取得された画像データをそのまま対象データ35に設定する。また、データ抽出部23は、対象データのうち、ステップS11で読み込まれた設定データ32が示す拡大領域34の画像データを部分データ36として抽出する。
具体例としては、ステップS12で図4に示す画像データが取得された場合には、データ抽出部23は、図4に示す画像データをそのまま対象データ35に設定し、図4に示す画像データのうち拡大領域34部分の画像データを部分データ36として抽出する。
サイズ変更部24は、抽出された対象データ35及び部分データ36それぞれを物体検出モデル31によって要求される要求サイズにサイズ変更する。物体検出モデル31は、ディープラーニングといった手法によって生成されたモデルであり、画像データから対象の物体を検出するモデルである。
具体例としては、図5に示すように、対象データ35が横1920ピクセル×縦1200ピクセルの画像データであり、部分データ36が横320ピクセル×縦240ピクセルの画像データであったとする。また、要求サイズが横512ピクセル×縦512ピクセルであったとする。この場合には、サイズ変更部24は、対象データ35を縮小して、横512ピクセル×縦512ピクセルの画像データに変換する。また、サイズ変更部24は、部分データ36を拡大して、横512ピクセル×縦512ピクセルの画像データに変換する。
なお、対象データ35については、原則として縮小されることを想定する。つまり、要求サイズは、対象データ35のサイズよりも小さいことを想定する。しかし、部分データ36については、拡大領域34の大きさによって拡大される場合と縮小される場合とがある。但し、部分データ36は、対象データ35の一部の画像データであるため、縮小される場合であっても対象データ35ほどの倍率で縮小されることはない。
物体検出部25は、ステップS14でサイズ変更された対象データ35及び部分データ36それぞれを物体検出モデル31に入力して、対象データ35及び部分データ36それぞれから対象の物体を検出する。そして、物体検出部25は、対象データ35から検出された結果を第1結果データ37とし、部分データ36から検出された結果を第2結果データ38とする。
具体例としては、物体検出部25は、図5に示すように横512ピクセル×縦512ピクセルの画像データに変換された対象データ35及び部分データ36それぞれを物体検出モデル31に入力する。すると、対象データ35からは物体Xが検出される。また、部分データ36からは物体Yが検出される。なお、対象データ35にも物体Yは含まれている。しかし、対象データ35では物体Yは非常に小さいため、対象データ35から物体Yは検出されない可能性がある。
統合部26は、対象データ35から抽出された結果を示す第1結果データ37と、部分データ36から抽出された第2結果データ38とを統合した統合結果データを生成する。
この際、第1結果データ37及び第2結果データ38に同一の物体が含まれている可能性がある。具体例としては、図5に示す対象データ35からも物体Yが検出された場合には、対象データ35及び部分データ36から同一の物体Yが検出されることになる。そこで、統合部26は、同一の物体については1つの物体になるように、第1結果データ37と第2結果データ38とを統合する。つまり、統合部26は、対象データ35及び部分データ36から同一の物体Yが検出された場合であっても、統合結果データには物体Yが1つだけ含まれるように、第1結果データ37と第2結果データ38とを統合する。
例えば、統合部26は、NMS(Non Maximum Suppression)といった手法を用いて、第1結果データ37と第2結果データ38とを統合する。
以上のように、実施の形態1に係る物体検出装置10は、対象データ35だけでなく部分データ36も要求サイズにサイズ変更した上で、物体検出モデル31に入力して対象の物体を検出する。これにより、画像データの奥の方に映った物体のように、小さく映った物体についても物体検出モデル31により検出可能になる。
しかし、対象データ35とは別に部分データ36についても要求サイズにサイズ変更された上で、物体検出モデル31に入力される。部分データ36は、対象データ35の一部の画像データである。したがって、サイズ変更された後の部分データ36に含まれる物体Yは、サイズ変更された後の対象データ35に含まれる物体Yに比べ大きい。そのため、部分データ36からは物体Yが検出しやすくなる。
<変形例1>
撮影装置41と物体を検知したい領域との距離又は角度等により、拡大領域34は画像データの奥の方の領域に限定されずに、中央付近の領域とする場合が考えられる。また撮影装置41の撮影領域によっては、拡大領域34を複数設定する場合もある。
つまり小さく映った物体を検出する領域として、拡大領域34は画像データ上の任意の領域を範囲として、任意の数の設定を行うことができる。それらの個別の条件を撮影装置41ごとの設定データ32に設定することにより、撮影装置41ごとに部分データ36の抽出が可能となる。
実施の形態1では、各機能構成要素がソフトウェアで実現された。しかし、変形例2として、各機能構成要素はハードウェアで実現されてもよい。この変形例2について、実施の形態1と異なる点を説明する。
各機能構成要素がハードウェアで実現される場合には、物体検出装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、電子回路15を備える。電子回路15は、各機能構成要素と、メモリ12と、ストレージ13との機能とを実現する専用の回路である。
各機能構成要素を1つの電子回路15で実現してもよいし、各機能構成要素を複数の電子回路15に分散させて実現してもよい。
変形例3として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
実施の形態2は、部分データ36のみを物体検出モデル31に入力する点が実施の形態1と異なる。実施の形態2では、この異なる点を説明し、同一の点については説明を省略する。
図2及び図7を参照して、実施の形態2に係る物体検出装置10の動作を説明する。
実施の形態2に係る物体検出装置10の動作手順は、実施の形態2に係る物体検出方法に相当する。また、実施の形態2に係る物体検出装置10の動作を実現するプログラムは、実施の形態2に係る物体検出プログラムに相当する。
設定読込部21は、実施の形態1と同様に、検出対象領域33及び拡大領域34を示す設定データ32をストレージ13から読み込む。
実施の形態2では、図7に示すように、検出対象領域33を概ね覆うように複数の拡大領域34が設定されている。各拡大領域34は、撮影装置41によって得られる画像データの位置に応じたサイズの領域が設定される。つまり、拡大領域34は、対象の物体が小さい位置ほど、小さい領域が設定される。例えば、拡大領域34は、画像データの奥の方の領域ほど小さいサイズの領域が設定され、画像データの手前の方の領域ほど大きいサイズの領域が設定される。
データ抽出部23は、ステップS12で取得された画像データのうち、ステップS11で読み込まれた設定データ32が示す複数の拡大領域34それぞれの画像データを部分データ36として抽出する。
サイズ変更部24は、抽出された複数の部分データ36それぞれを物体検出モデル31によって要求される要求サイズにサイズ変更する。
物体検出部25は、ステップS14でサイズ変更された複数の部分データ36それぞれを物体検出モデル31に入力して、複数の部分データ36それぞれから対象の物体を検出する。そして、物体検出部25は、複数の部分データ36それぞれから検出された結果を第2結果データ38とする。
統合部26は、複数の部分データ36それぞれから抽出された第2結果データ38を統合した統合結果データを生成する。この際、複数の第2結果データ38に同一の物体が含まれている可能性がある。そこで、統合部26は、同一の物体については1つの物体になるように、複数の第2結果データ38を統合する。
以上のように、実施の形態2に係る物体検出装置10は、画像データにおける位置に応じたサイズの複数の拡大領域34を設定し、各拡大領域34の部分データ36を入力として対象の物体を検出する。これにより、画像データにおける位置に応じた適切なサイズの画像データから物体検出モデル31により検出が行われることになる。その結果、検出精度が高くなる可能性がある。
なお図7を用いて説明した拡大領域34は、検出対象領域33を概ね覆うように複数設定されているが、必ずしも拡大領域34で検出対象領域33を覆う必要はない。撮影装置41の撮影領域に応じて、検出対象領域33上に重点的に検出すべき領域や物体がある場合、逆に検出対象領域33上に検出不要とする領域がある場合、撮影装置41毎に検出対象領域33の一部に複数の拡大領域34を設定するように、設定データ32を設定してもよい。
実施の形態3は、物体検出モデル31を生成する点が実施の形態1,2と異なる。実施の形態2では、この異なる点を説明し、同一の点については説明を省略する。
実施の形態3では、実施の形態1に対応した物体検出モデル31を生成する場合について説明する。
図8を参照して、実施の形態3に係る物体検出装置10の構成を説明する。
物体検出装置10は、機能構成要素として、学習部27を備える点が実施の形態1と異なる。学習部27は、他の機能構成要素と同様に、ソフトウェア又はハードウェアによって実現される。
図9を参照して、実施の形態3に係る物体検出装置10の動作を説明する。
実施の形態3に係る物体検出装置10の動作手順は、実施の形態3に係る物体検出方法に相当する。また、実施の形態3に係る物体検出装置10の動作を実現するプログラムは、実施の形態3に係る物体検出プログラムに相当する。
学習部27は、ステップS23でサイズ変更された対象データ35及び部分データ36それぞれを学習データとして与えることにより、ディープラーニングといった処理により物体検出モデル31を生成する。ここで、対象データ35及び部分データ36は、図2で説明した処理における対象データ35及び部分データ36と同じ領域の画像データである。
なお、対象データ35及び部分データ36それぞれについて、含まれる対象の物体が人手等で特定され教師付きの学習データが生成されてもよい。そして、学習部27は、教師付きの学習データを与えて学習させてもよい。
以上のように、実施の形態3に係る物体検出装置10は、対象データ35だけでなく部分データ36も学習データとして与えることにより、物体検出モデル31を生成する。部分データ36は、サイズの拡大に伴い、対象データ35と比較すると、一部又は全体の画像が不鮮明になる可能性がある。拡大に伴い、不鮮明な部分を含む画像データが学習データとして与えられていない場合には、不鮮明な部分を含む画像データからの検出精度が低くなってしまう場合がある。
そのため、対象データ35だけを学習データとして与え物体検出モデル31を生成すると、部分データ36から物体を検出する処理の精度が低くなる可能性がある。しかし、実施の形態3に係る物体検出装置10は、部分データ36も学習データとして与えることにより、部分データ36から物体を検出する処理の精度を高くすることができる。
<変形例4>
実施の形態3では、実施の形態1に対応した物体検出モデル31を生成する場合について説明した。実施の形態2に対応した物体検出モデル31を生成することも可能である。
この場合には、ステップS21からステップS24の処理は、実施の形態2における図2のステップS11からステップS14の処理と同じである。図9のステップS25では、学習部27は、ステップS23でサイズ変更された複数の部分データ36それぞれを学習データとして与えることにより、ディープラーニングといった処理により物体検出モデル31を生成する。これにより、実施の形態3と同様の効果を奏する。
実施の形態3及び変形例4では、物体検出装置10が物体検出モデル31を生成した。しかし、物体検出装置10とは別の学習装置50が物体検出モデル31を生成してもよい。
図10に示すように、学習装置50は、コンピュータである。学習装置50は、プロセッサ51と、メモリ52と、ストレージ53と、通信インタフェース54とのハードウェアを備える。プロセッサ51とメモリ52とストレージ53と通信インタフェース54とは、物体検出装置10のプロセッサ11とメモリ12とストレージ13と通信インタフェース14と同じである。
学習装置50は、機能構成要素として、設定読込部61と、画像取得部62と、データ抽出部63と、サイズ変更部64と、学習部65とを備える。学習装置50の各機能構成要素の機能はソフトウェアにより実現される。設定読込部61と画像取得部62とデータ抽出部63とサイズ変更部64と学習部65とは、物体検出装置10の設定読込部21と画像取得部22とデータ抽出部23とサイズ変更部24と学習部27と同じである。
Claims (8)
- 撮影装置によって検出対象領域が撮影されて得られた画像データを対象データとして設定するとともに、前記対象データのうち拡大領域の画像データを部分データとして抽出するデータ抽出部と、
前記データ抽出部によって抽出された前記対象データ及び前記部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更するサイズ変更部と、
前記サイズ変更部によってサイズ変更された前記対象データ及び前記部分データそれぞれを前記物体検出モデルに入力して、前記対象データ及び前記部分データそれぞれから対象の物体を検出する物体検出部と
を備える物体検出装置。 - 前記物体検出装置は、さらに、
前記物体検出部によって前記対象データから検出された結果を示す第1結果データと、前記部分データから検出された第2結果データとを、同一の物体については1つの物体になるように統合した統合結果データを生成する統合部
を備える請求項1に記載の物体検出装置。 - 前記物体検出装置は、さらに、
前記対象データ及び前記部分データそれぞれを学習データとして前記物体検出モデルに与えて学習させる学習部
を備える請求項1又は2に記載の物体検出装置。 - データ抽出部が、撮影装置によって検出対象領域が撮影されて得られた画像データを対象データとして設定するとともに、前記対象データのうち拡大領域の画像データを部分データとして抽出し、
サイズ変更部が、前記対象データ及び前記部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更し、
物体検出部が、サイズ変更された前記対象データ及び前記部分データそれぞれを前記物体検出モデルに入力して、前記対象データ及び前記部分データそれぞれから対象の物体を検出する物体検出方法。 - 撮影装置によって検出対象領域が撮影されて得られた画像データを対象データとして設定するとともに、前記対象データのうち拡大領域の画像データを部分データとして抽出するデータ抽出処理と、
前記データ抽出処理によって抽出された前記対象データ及び前記部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更するサイズ変更処理と、
前記サイズ変更処理によってサイズ変更された前記対象データ及び前記部分データそれぞれを前記物体検出モデルに入力して、前記対象データ及び前記部分データそれぞれから対象の物体を検出する物体検出処理と
を行う物体検出装置としてコンピュータを機能させる物体検出プログラム。 - 撮影装置によって得られた画像データを対象データとして設定するとともに、前記対象データのうち拡大領域の画像データを部分データとして抽出するデータ抽出部と、
前記データ抽出部によって抽出された前記対象データ及び前記部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更するサイズ変更部と、
前記サイズ変更部によってサイズ変更された前記対象データ及び前記部分データそれぞれを学習データとして前記物体検出モデルを生成する学習部と
を備える学習装置。 - データ抽出部が、撮影装置によって得られた画像データを対象データとして設定するとともに、前記対象データのうち拡大領域の画像データを部分データとして抽出し、
サイズ変更部が、前記対象データ及び前記部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更し、
学習部が、サイズ変更された前記対象データ及び前記部分データそれぞれを学習データとして前記物体検出モデルを生成する学習方法。 - 撮影装置によって得られた画像データを対象データとして設定するとともに、前記対象データのうち拡大領域の画像データを部分データとして抽出するデータ抽出処理と、
前記データ抽出処理によって抽出された前記対象データ及び前記部分データそれぞれを画像データから物体を検出するモデルである物体検出モデルによって要求される要求サイズにサイズ変更するサイズ変更処理と、
前記サイズ変更処理によってサイズ変更された前記対象データ及び前記部分データそれぞれを学習データとして前記物体検出モデルを生成する学習処理と
を行う学習装置としてコンピュータを機能させる学習プログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019196150A JP6932758B2 (ja) | 2019-10-29 | 2019-10-29 | 物体検出装置、物体検出方法、物体検出プログラム、学習装置、学習方法及び学習プログラム |
EP20881785.8A EP4024333B1 (en) | 2019-10-29 | 2020-06-30 | Object detection device, object detection method, object detection program, learning device, learning method and learning program |
PCT/JP2020/025708 WO2021084797A1 (ja) | 2019-10-29 | 2020-06-30 | 物体検出装置、物体検出方法、物体検出プログラム及び学習装置 |
CN202080071977.6A CN114556415A (zh) | 2019-10-29 | 2020-06-30 | 物体检测装置、物体检测方法、物体检测程序以及学习装置 |
US17/690,335 US20220198679A1 (en) | 2019-10-29 | 2022-03-09 | Object detection device, learning device and computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019196150A JP6932758B2 (ja) | 2019-10-29 | 2019-10-29 | 物体検出装置、物体検出方法、物体検出プログラム、学習装置、学習方法及び学習プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021071757A JP2021071757A (ja) | 2021-05-06 |
JP6932758B2 true JP6932758B2 (ja) | 2021-09-08 |
Family
ID=75713142
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019196150A Active JP6932758B2 (ja) | 2019-10-29 | 2019-10-29 | 物体検出装置、物体検出方法、物体検出プログラム、学習装置、学習方法及び学習プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220198679A1 (ja) |
EP (1) | EP4024333B1 (ja) |
JP (1) | JP6932758B2 (ja) |
CN (1) | CN114556415A (ja) |
WO (1) | WO2021084797A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102631452B1 (ko) * | 2021-06-30 | 2024-01-30 | 주식회사 에이리스 | 인공 지능 기반 검출 모델에 대한 학습 데이터를 생성하기 위한 방법, 시스템 및 기록 매체 |
CN115063647A (zh) * | 2022-05-18 | 2022-09-16 | 浙江工商大学 | 基于深度学习的分布式异构数据处理方法、装置和设备 |
WO2024204704A1 (ja) * | 2023-03-31 | 2024-10-03 | 株式会社堀場製作所 | 供試体表示認識装置、供試体試験システム、供試体表示設定装置、供試体表示認識方法、及び、供試体表示認識プログラム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0792369B2 (ja) * | 1993-01-14 | 1995-10-09 | 株式会社エイ・ティ・アール通信システム研究所 | 画像計測装置 |
JP2009123081A (ja) * | 2007-11-16 | 2009-06-04 | Fujifilm Corp | 顔検出方法及び撮影装置 |
JP5911165B2 (ja) * | 2011-08-05 | 2016-04-27 | 株式会社メガチップス | 画像認識装置 |
JP5690688B2 (ja) * | 2011-09-15 | 2015-03-25 | クラリオン株式会社 | 外界認識方法,装置,および車両システム |
US11074495B2 (en) * | 2013-02-28 | 2021-07-27 | Z Advanced Computing, Inc. (Zac) | System and method for extremely efficient image and pattern recognition and artificial intelligence platform |
US20170206426A1 (en) * | 2016-01-15 | 2017-07-20 | Ford Global Technologies, Llc | Pedestrian Detection With Saliency Maps |
JP2019003396A (ja) | 2017-06-15 | 2019-01-10 | コニカミノルタ株式会社 | 目的物体検出装置、該方法およびプログラム |
JP6688277B2 (ja) * | 2017-12-27 | 2020-04-28 | 本田技研工業株式会社 | プログラム、学習処理方法、学習モデル、データ構造、学習装置、および物体認識装置 |
-
2019
- 2019-10-29 JP JP2019196150A patent/JP6932758B2/ja active Active
-
2020
- 2020-06-30 EP EP20881785.8A patent/EP4024333B1/en active Active
- 2020-06-30 CN CN202080071977.6A patent/CN114556415A/zh active Pending
- 2020-06-30 WO PCT/JP2020/025708 patent/WO2021084797A1/ja unknown
-
2022
- 2022-03-09 US US17/690,335 patent/US20220198679A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4024333A1 (en) | 2022-07-06 |
EP4024333A4 (en) | 2022-11-02 |
CN114556415A (zh) | 2022-05-27 |
US20220198679A1 (en) | 2022-06-23 |
EP4024333B1 (en) | 2023-10-11 |
WO2021084797A1 (ja) | 2021-05-06 |
JP2021071757A (ja) | 2021-05-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021084797A1 (ja) | 物体検出装置、物体検出方法、物体検出プログラム及び学習装置 | |
JP6935522B2 (ja) | 物体検出装置、物体検出方法及び物体検出プログラム | |
JP6094775B2 (ja) | ビデオコンテンツ処理方法及びシステム | |
US20130163854A1 (en) | Image processing method and associated apparatus | |
US20190095741A1 (en) | Region-of-interest detection apparatus, region-of-interest detection method, and recording medium | |
US10455163B2 (en) | Image processing apparatus that generates a combined image, control method, and storage medium | |
US9256792B2 (en) | Image processing apparatus, image processing method, and program | |
JP6570370B2 (ja) | 画像処理方法、画像処理装置、プログラム及び記録媒体 | |
US20160093046A1 (en) | Apparatus and method for supporting computer aided diagnosis | |
JP6110174B2 (ja) | 画像検出装置及び制御プログラム並びに画像検出方法 | |
JP7333520B2 (ja) | 学習プログラム、学習方法、及び情報処理装置 | |
JP6530432B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US11250581B2 (en) | Information processing apparatus, information processing method, and storage medium | |
US20160027183A1 (en) | Image processing apparatus, image processing method and program | |
US9171227B2 (en) | Apparatus and method extracting feature information of a source image | |
US10834281B2 (en) | Document size detecting by matching between image of entire document and read size image | |
US9684844B1 (en) | Method and apparatus for normalizing character included in an image | |
JP2016053763A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP6922690B2 (ja) | 文字領域抽出プログラム、文字領域抽出装置及び文字領域抽出方法 | |
JP6364182B2 (ja) | 文字列認識装置および文字列認識方法 | |
US10380463B2 (en) | Image processing device, setting support method, and non-transitory computer-readable media | |
JP2021043774A (ja) | 通知判定装置、通知判定方法及び通知判定プログラム | |
JP6877501B2 (ja) | 滞留検知装置、滞留検知方法及び滞留検知プログラム | |
KR20200137839A (ko) | Vr 학습 영상 제공 방법 및 장치 | |
WO2019225239A1 (ja) | 画像解析装置、画像解析システムおよび画像解析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210315 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210315 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210401 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210406 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210521 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210803 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210818 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6932758 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |