JP7138158B2 - OBJECT CLASSIFIER, OBJECT CLASSIFICATION METHOD, AND PROGRAM - Google Patents
OBJECT CLASSIFIER, OBJECT CLASSIFICATION METHOD, AND PROGRAM Download PDFInfo
- Publication number
- JP7138158B2 JP7138158B2 JP2020217297A JP2020217297A JP7138158B2 JP 7138158 B2 JP7138158 B2 JP 7138158B2 JP 2020217297 A JP2020217297 A JP 2020217297A JP 2020217297 A JP2020217297 A JP 2020217297A JP 7138158 B2 JP7138158 B2 JP 7138158B2
- Authority
- JP
- Japan
- Prior art keywords
- classification
- image
- unit
- model
- object region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、物体分類装置、物体分類方法、およびプログラムに関する。 The present invention relates to an object classification device, an object classification method, and a program.
従来より、車載カメラによって撮像される画像を蓄積し、当該画像に含まれるマンホールや道路標示等の金属物を識別することが可能な技術が知られている。例えば、特許文献1に記載された物体認識装置は、蓄積された車載カメラからの画像から俯瞰画像を生成し、当該俯瞰画像に生じる輝度差を利用して路面上に存在する金属物を識別する。具体的に、物体認識装置は、デジタル画像処理の条件を設定し、車載カメラからの画像を俯瞰画像に変換し、俯瞰画像に含まれる金属物を検出し、金属物からの相対的な自車両の位置を特定している。
2. Description of the Related Art Conventionally, there has been known a technique capable of accumulating images captured by an in-vehicle camera and identifying metal objects such as manholes and road markings included in the images. For example, the object recognition device described in
上述した物体認識装置のように車載カメラを用いてマンホール等や公共設備などを検出することが行われているが、情報の利用目的などに応じて、さらに高い精度で物体を分類することが望まれている。 As in the object recognition device described above, car-mounted cameras are used to detect manholes and public facilities. It is rare.
本発明は、上記の課題に鑑みてなされたものであって、物体を高い精度で分類することができる物体分類装置、物体分類方法、およびプログラムを提供することを目的としている。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an object classification device, an object classification method, and a program capable of classifying objects with high accuracy.
(1)本発明の一態様は、撮像画像から物体領域を検出する検出部と、前記物体領域に含まれる物体を第1の要素に基づいて分類する第1の処理と、前記第1の処理により分類された物体を第2の要素に基づいて分類する第2の処理とを実行する分類部と、を備え、前記分類部は、前記第1の要素に基づく第1の分類結果を教師データとして機械学習され、前記物体領域の画像を入力した場合に前記物体領域の画像に含まれる前記第1の要素に基づく第1の分類結果を出力する第1のモデルを用いて前記第1の処理を実行し、前記第2の要素に基づく第2の分類結果を教師データとして機械学習され、前記物体領域の画像を入力した場合に前記物体領域の画像に含まれる前記第2の要素に基づく第2の分類結果を出力する第2のモデルを用いて前記第2の処理を実行し、前記第1の要素は、前記物体の模様および記号のうちの少なくとも一つであり、前記第2の要素は、前記物体の穴部の形状、位置、および大きさのうちの少なくとも一つである、物体分類装置である。
(1) One aspect of the present invention includes a detection unit that detects an object region from a captured image, a first process that classifies an object included in the object region based on a first element, and the first process. a classifying unit that classifies objects classified by the second element based on the second element, the classifying unit classifying the first classification result based on the first element as teacher data and the first processing using a first model that outputs a first classification result based on the first element included in the image of the object region when the image of the object region is input. is machine-learned using the second classification result based on the second element as teacher data, and when the image of the object area is input, the second classification based on the second element included in the image of the object area is performed. executing the second process using a second model that outputs 2 classification results, the first element being at least one of a pattern and a symbol of the object, and the second element is at least one of shape, location and size of a hole in said object .
(2)本発明の一態様は、上記の物体分類装置であって、前記分類部は、前記検出部により検出された前記物体領域を台形補正し、台形補正された物体領域に基づいて前記第1の処理および前記第2の処理を実行してよい。
( 2 ) An aspect of the present invention is the above-described object classification device, wherein the classification unit trapezoidally corrects the object region detected by the detection unit, and performs the trapezoidal correction based on the object region. 1 and the second process may be performed.
(3)本発明の一態様は、撮像画像から物体領域を検出する検出部と、前記物体領域に含まれる物体を、模様および記号のうちの少なくとも一つに基づいて分類する第1の分類部と、前記第1の分類部により分類された物体を、穴部の形状に基づいて分類する第2の分類部と、前記第1の分類部により分類された物体を、穴部の位置に基づいて分類する第3の分類部と、前記第2の分類部により分類された物体を大きさに基づいて分類し、前記第3の分類部により分類された物体を大きさに基づいて分類する第4の分類部と、を備え、前記第1の分類部は、前記模様および記号のうちの少なくとも一つに基づく第1の分類結果を教師データとして機械学習され、前記物体領域の画像に含まれる模様および記号のうちの少なくとも一つを入力した場合に第1の分類結果を出力する第1のモデルに基づく処理を行い、前記第2の分類部は、前記穴部の形状に基づく第2の分類結果を教師データとして機械学習され、前記第1の分類部による分類結果に基づく前記物体領域の画像を入力した場合に第2の分類結果を出力する第2のモデルに基づく処理を行い、前記第3の分類部は、前記穴部の位置に基づく第3の分類結果を教師データとして機械学習され、前記第1の分類部による分類結果に基づく前記物体領域の画像を入力した場合に第3の分類結果を出力する第3のモデルに基づく処理を行い、前記第4の分類部は、前記物体の大きさに基づいて、前記第2の分類部により分類された物体を分類し、前記第3の分類部により分類された物体を分類する、物体分類装置である。
( 3 ) An aspect of the present invention is a detection unit that detects an object region from a captured image, and a first classification unit that classifies objects included in the object region based on at least one of patterns and symbols. and a second classification unit that classifies the objects classified by the first classification unit based on the shape of the hole; and the objects classified by the first classification unit based on the position of the hole. a third classifying unit that classifies the objects classified by the second classifying unit based on size; and a third classifying unit that classifies the objects classified by the third classifying unit based on size. 4 classification units, wherein the first classification unit performs machine learning using a first classification result based on at least one of the pattern and the symbol as teacher data, and is included in the image of the object region. A process based on a first model that outputs a first classification result when at least one of a pattern and a symbol is input, and the second classification unit performs a second classification based on the shape of the hole. performing machine learning using the classification result as teacher data, performing processing based on a second model for outputting a second classification result when an image of the object region based on the classification result by the first classification unit is input, A third classification unit performs machine learning using a third classification result based on the position of the hole as teacher data, and when an image of the object region based on the classification result of the first classification unit is input, a third classification result is obtained. The fourth classification unit classifies the objects classified by the second classification unit based on the size of the objects, It is an object classification device that classifies objects classified by three classification units .
(4)本発明の一態様は、撮像画像から物体領域を検出するステップと、前記物体領域に含まれる物体を第1の要素に基づいて分類する第1の処理と、前記第1の処理により分類された物体を第2の要素に基づいて分類する第2の処理とを実行するステップと、を含み、前記第1の要素に基づく第1の分類結果を教師データとして機械学習され、前記物体領域の画像を入力した場合に前記物体領域の画像に含まれる前記第1の要素に基づく第1の分類結果を出力する第1のモデルを用いて前記第1の処理を実行し、前記第2の要素に基づく第2の分類結果を教師データとして機械学習され、前記物体領域の画像を入力した場合に前記物体領域の画像に含まれる前記第2の要素に基づく第2の分類結果を出力する第2のモデルを用いて前記第2の処理を実行し、前記第1の要素は、前記物体の模様および記号のうちの少なくとも一つであり、前記第2の要素は、前記物体の穴部の形状、位置、および大きさのうちの少なくとも一つである、物体分類方法である。
( 4 ) One aspect of the present invention is a step of detecting an object region from a captured image, a first process of classifying an object included in the object region based on a first element, and and a second process of classifying the classified objects based on a second element, wherein machine learning is performed using a first classification result based on the first element as teacher data, and the object is executing the first processing using a first model that outputs a first classification result based on the first element contained in the image of the object region when an image of the region is input; Machine learning is performed using a second classification result based on the elements of as teacher data, and when an image of the object area is input, a second classification result based on the second element contained in the image of the object area is output. performing the second process using a second model, wherein the first element is at least one of a pattern and a symbol of the object; and the second element is a hole portion of the object; is at least one of the shape, position, and size of the object classification method.
(5)本発明の一態様は、撮像画像から物体領域を検出するステップと、前記物体領域に含まれる物体を、模様および記号のうちの少なくとも一つに基づいて分類する第1分類ステップと、前記第1分類ステップにより分類された物体を、穴部の形状に基づいて分類する第2分類ステップと、前記第1分類ステップにより分類された物体を、穴部の位置に基づいて分類する第3分類ステップと、前記第2分類ステップにより分類された物体を大きさに基づいて分類し、前記第3分類ステップにより分類された物体を大きさに基づいて分類する第4分類ステップと、を含み、前記第1分類ステップは、前記模様および記号のうちの少なくとも一つに基づく第1の分類結果を教師データとして機械学習され、前記物体領域の画像に含まれる模様および記号のうちの少なくとも一つを入力した場合に第1の分類結果を出力する第1のモデルに基づく処理を行い、前記第2分類ステップは、前記穴部の形状に基づく第2の分類結果を教師データとして機械学習され、前記第1分類ステップによる分類結果に基づく前記物体領域の画像を入力した場合に第2の分類結果を出力する第2のモデルに基づく処理を行い、前記第3分類ステップは、前記穴部の位置に基づく第3の分類結果を教師データとして機械学習され、前記第1分類ステップによる分類結果に基づく前記物体領域の画像を入力した場合に第3の分類結果を出力する第3のモデルに基づく処理を行い、前記第4分類ステップは、前記物体の大きさに基づいて、前記第2分類ステップにより分類された物体を分類し、前記第3分類ステップにより分類された物体を分類する、物体分類方法である。
( 5 ) An aspect of the present invention is a step of detecting an object region from a captured image, a first classification step of classifying an object included in the object region based on at least one of a pattern and a symbol, a second classification step of classifying the objects classified by the first classification step based on the shape of the hole; and a third classification step of classifying the objects classified by the first classification step based on the position of the hole. and a fourth classification step of classifying the objects classified by the second classification step based on size, and classifying the objects classified by the third classification step based on size. , in the first classification step, machine learning is performed using a first classification result based on at least one of the pattern and the symbol as teacher data, and at least one of the pattern and the symbol included in the image of the object region is performed based on a first model for outputting a first classification result when is input, and in the second classification step, machine learning is performed using the second classification result based on the shape of the hole as teacher data, Processing is performed based on a second model for outputting a second classification result when an image of the object region based on the classification result of the first classification step is input, and the third classification step includes: A process based on a third model, which is machine-learned using a third classification result based on the above as teacher data, and outputs a third classification result when an image of the object region based on the classification result of the first classification step is input. wherein the fourth classification step classifies the objects classified by the second classification step and classifies the objects classified by the third classification step based on the size of the objects. is.
(6)本発明の一態様は、コンピュータに、撮像画像から物体領域を検出するステップと、前記物体領域に含まれる物体を第1の要素に基づいて分類する第1の処理と、前記第1の処理により分類された物体を第2の要素に基づいて分類する第2の処理とを実行するステップと、を含む処理を実行させ、前記第1の要素に基づく第1の分類結果を教師データとして機械学習され、前記物体領域の画像を入力した場合に前記物体領域の画像に含まれる前記第1の要素に基づく第1の分類結果を出力する第1のモデルを用いて前記第1の処理を実行させ、前記第2の要素に基づく第2の分類結果を教師データとして機械学習され、前記物体領域の画像を入力した場合に前記物体領域の画像に含まれる前記第2の要素に基づく第2の分類結果を出力する第2のモデルを用いて前記第2の処理を実行させ、前記第1の要素は、前記物体の模様および記号のうちの少なくとも一つであり、前記第2の要素は、前記物体の穴部の形状、位置、および大きさのうちの少なくとも一つである、プログラムである。
( 6 ) An aspect of the present invention provides a computer with a step of detecting an object region from a captured image, a first process of classifying an object included in the object region based on a first element, the first a second process of classifying the objects classified by the process of (1) based on a second element, and the first classification result based on the first element is converted to teacher data and the first processing using a first model that outputs a first classification result based on the first element included in the image of the object region when the image of the object region is input. is performed, machine learning is performed using the second classification result based on the second element as teacher data, and when the image of the object area is input, the second classification based on the second element included in the image of the object area is performed. executing the second process using a second model that outputs two classification results, the first element being at least one of a pattern and a symbol of the object, and the second element is at least one of shape, position and size of a hole in said object .
(7)本発明の一態様は、コンピュータに、撮像画像から物体領域を検出するステップと、前記物体領域に含まれる物体を、模様および記号のうちの少なくとも一つに基づいて分類する第1分類ステップと、前記第1分類ステップにより分類された物体を、穴部の形状に基づいて分類する第2分類ステップと、前記第1分類ステップにより分類された物体を、穴部の位置に基づいて分類する第3分類ステップと、前記第2分類ステップにより分類された物体を大きさに基づいて分類し、前記第3分類ステップにより分類された物体を大きさに基づいて分類する第4分類ステップと、を含む処理を実行させるプログラムであって、前記第1分類ステップは、前記模様および記号のうちの少なくとも一つに基づく第1の分類結果を教師データとして機械学習され、前記物体領域の画像に含まれる模様および記号のうちの少なくとも一つを入力した場合に第1の分類結果を出力する第1のモデルに基づく処理を行い、前記第2分類ステップは、前記穴部の形状に基づく第2の分類結果を教師データとして機械学習され、前記第1分類ステップによる分類結果に基づく前記物体領域の画像を入力した場合に第2の分類結果を出力する第2のモデルに基づく処理を行い、前記第3分類ステップは、前記穴部の位置に基づく第3の分類結果を教師データとして機械学習され、前記第1分類ステップによる分類結果に基づく前記物体領域の画像を入力した場合に第3の分類結果を出力する第3のモデルに基づく処理を行い、前記第4分類ステップは、前記物体の大きさに基づいて、前記第2分類ステップにより分類された物体を分類し、前記第3分類ステップにより分類された物体を分類する、プログラムである。 ( 7 ) An aspect of the present invention provides a computer with a step of detecting an object area from a captured image, and classifying an object included in the object area based on at least one of a pattern and a symbol. a second classification step of classifying the objects classified by the first classification step based on the shape of the hole; and classifying the objects classified by the first classification step based on the position of the hole. a fourth classification step of classifying the objects classified by the second classification step based on size, and classifying the objects classified by the third classification step based on size; wherein the first classification step is machine-learned using a first classification result based on at least one of the pattern and the symbol as teacher data, and is included in the image of the object region. performing processing based on a first model for outputting a first classification result when at least one of a pattern and a symbol is input, wherein the second classification step includes a second classification based on the shape of the hole; performing machine learning using the classification result as teacher data, performing processing based on a second model for outputting a second classification result when an image of the object region based on the classification result of the first classification step is input, and In the third classification step, machine learning is performed using the third classification result based on the position of the hole as teacher data, and when the image of the object region based on the classification result in the first classification step is input, the third classification result is and the fourth classification step classifies the objects classified by the second classification step based on the size of the objects, and classifies the objects classified by the third classification step It is a program that classifies objects that have been drawn .
本発明の一態様によれば、物体を高い精度で分類することができる。 According to one aspect of the present invention, objects can be classified with high accuracy.
以下、本発明を適用した物体分類装置、物体分類方法、およびプログラムを、図面を参照して説明する。 An object classification device, an object classification method, and a program to which the present invention is applied will be described below with reference to the drawings.
[実施形態の概要]
実施形態の物体検出システム1は、一または複数の車載装置10から送信された撮像画像を収集し、収集した撮像画像に含まれた物体を検出する。物体検出システム1は、検出した物体の位置を推定する処理や、検出した物体を分類する処理を実行する。物体検出システム1は、物体の位置情報や物体の分類情報を含む情報を作成し、作成した情報を他のシステム(不図示)に提供する。以下の実施形態において、撮像画像は、例えば、車両の右前方部に設置されたカメラにより撮像された右側画像、および車両の左前方部に設置されたカメラにより撮像された左側画像を含む。撮像画像は、右側画像および左側画像に限定されず、車両に搭載された1台のカメラにより撮像された画像であってもよく、車両の後方を撮像した画像であってもよく、さらには、車両に搭載されていない種々のカメラにより撮像された画像であってもよい。以下の実施形態において、物体がマンホールであることについて説明するが、物体検出システム1は、これに限定されず、位置の推定や、物体の分類の対象となりうる種々の物体に適用可能である。例えば、物体検出システム1は、道路に沿って設けられている電柱等にも適用可能である。
[Overview of embodiment]
The
[物体検出システム1の構成]
図1は、実施形態の物体検出システム1の一構成例を示すブロック図である。物体検出システム1は、例えば、一又は複数の車載装置10と、データ収集装置20と、物体検出装置100とを備える。車載装置10、データ収集装置20、および物体検出装置100は、例えば、通信ネットワークに接続される。通信ネットワークに接続される各装置は、NIC(Network Interface Card)や無線通信モジュールなどの通信インターフェースを備えている(図1では不図示)。通信ネットワークは、例えば、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)、セルラー網などを含む。
[Configuration of object detection system 1]
FIG. 1 is a block diagram showing a configuration example of an
車載装置10は、カメラおよびデータ送信装置等を備え、右側画像および左側画像を含む左右画像をデータ収集装置20に送信する。データ収集装置20は、右側画像および左側画像を収集し、当該右側画像および左側画像を撮像した位置情報に対応付けて記憶する。なお、以下の説明において、右側画像および左側画像を総称して撮像画像と記載する。
The in-
物体検出装置100は、例えば、検出部110と、位置推定部120と、分類部130と、情報提供部140とを備える。検出部110、位置推定部120、分類部130、および情報提供部140といった機能部は、例えばCPU(Central Processing Unit)等のプロセッサがプログラムメモリに格納されたプログラムを実行することにより実現される。また、これらの機能部のうち一部または全部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、またはFPGA(Field-Programmable Gate Array)等のハードウェアにより実現されてもよいし、ソフトウェアとハードウェアが協働することで実現されてもよい。プログラムは、例えば、予め物体検出装置100のHDDやフラッシュメモリなどの記憶装置に格納される。
The
検出部110は、撮像画像に含まれる物体領域を検出する。物体領域は、撮像画像のうち物体を表す領域を示す情報である。位置推定部120は、物体の位置を推定する。分類部130は、物体を分類する。情報提供部140は、位置推定部120により推定された物体の位置、および分類部130により求められた物体の分類を含む情報を提供する。なお、情報提供部140は、右側画像および左側画像のそれぞれで推定された位置および分類を含む情報を提供する。
The
[物体検出システム1の処理]
図2は、実施形態の物体検出装置100における処理手順の一例を示すフローチャートである。物体検出装置100は、先ず、データ収集装置20から処理対象の撮像画像を取得する(ステップS100)。次に物体検出装置100は、撮像画像から検出された物体の一部が他の物体により隠れているか否かを判定する(ステップS102)。物体検出装置100は、撮像画像から検出された物体の一部が他の物体により隠れている場合、検出された物体を以降の処理対象から除外する。次に物体検出装置100は、処理対象の物体の位置を推定する(ステップS104)。実施形態の位置推定処理は、撮像画像内における物体の位置を推定する。次に物体検出装置100は、右側画像を用いて位置が推定された物体と、左側画像を用いて位置が推定された物体とが一致するか否かを判定する(ステップS106)。次に物体検出装置100は、撮像画像から検出された物体を分類する(ステップS108)。次に物体検出装置100は、物体の位置、および分類を含む情報を提供する(ステップS110)。物体検出装置100は、例えば、一致性が判定された物体ごとに、位置および分類を含む情報を提供する。位置情報の提供処理は、位置推定処理により推定された撮像画像内の位置および当該撮像画像に対応した緯度経度を含む位置情報を提供してもよく、撮像画像に対応した緯度経度および撮像画像内の位置に基づいて計算した物体の緯度経度情報を提供してもよい。なお、実施形態は、隠れ判定処理(ステップS102)、位置推定処理(ステップS104)、および一致性判定処理(ステップS106)の順で処理を実行したが、これに限定されず、どの順序で実行してもよい。
[Processing of object detection system 1]
FIG. 2 is a flow chart showing an example of a processing procedure in the
なお、物体検出装置100は、物体の位置の推定を行い、物体の分類を行わなくてもよい。この場合、物体検出装置100は、物体の位置を含み分類を含まない情報を提供する。また、物体検出装置100は、物体の分類を行い、物体の位置の推定を行わなくてもよい。この場合、物体検出装置100は、物体の分類を含み位置を含まない情報を提供してもよい。
Note that the
[隠れ判定処理(ステップS102)]
以下、隠れ判定処理(ステップS102)について説明する。図3は、実施形態における撮像画像の一例を示す図である。図3に示した撮像画像は、車両の右側に設けられたカメラにより撮像された画像である。撮像画像には、2つのマンホールに対応した2つの物体領域A1,A2が含まれる。
[Hidden determination process (step S102)]
The hiding determination process (step S102) will be described below. FIG. 3 is a diagram showing an example of a captured image according to the embodiment. The captured image shown in FIG. 3 is an image captured by a camera provided on the right side of the vehicle. The captured image includes two object areas A1 and A2 corresponding to two manholes.
図4は、実施形態の検出部110の一例を示すブロック図である。検出部110は、検出処理部112と、モデル構築部114とを備える。検出処理部112は、検出用モデル112Aに撮像画像を入力し、検出用モデル112Aから物体領域の推定結果を出力する。物体領域の推定結果には物体領域の形状および位置を示す情報が含まれる。検出用モデルは、機械学習モデルであり、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)である。
FIG. 4 is a block diagram showing an example of the
モデル構築部114は、検出用モデル112Aを構築する。モデル構築部114は、教師データとして撮像画像および物体領域を示す情報を取得する。モデル構築部114は、学習時において、検出用モデル112Aに撮像画像を入力する。検出用モデル112Aは、撮像画像が入力された場合に、撮像画像に含まれる物体領域Aの物体領域を示す推定結果を出力する。モデル構築部114は、検出用モデル112Aから出力された物体領域を示す情報が、教師データとしての物体領域を示す情報と一致するように検出用モデル112Aの処理パラメータを再帰的に更新する。処理パラメータは、例えば、畳み込みニューラルネットワークにおける、層数、各層のノード数、各層間のノードの結合方式、活性化関数、誤差関数、及び勾配降下アルゴリズム、プーリングの領域、カーネル、重み係数、および重み行列の少なくとも一つである。これにより、モデル構築部114は、処理パラメータを取得するために、例えば、深層学習を行う。深層学習とは、多層構造、特に3層以上のニューラルネットワークを用いた機械学習である。なお、モデル構築部114は、検出部110に含まれていなくてもよく、物体検出装置100の初期設定時やメンテナンス時に検出用モデル112Aを検出処理部112に導入することができればよい。検出用モデル112Aは、推定時において、撮影画像を入力し、物体領域の形状や位置を示す推定結果を出力する。検出処理部112は、例えば推定結果に対応したタグを付与した撮影画像を出力する。
The
図5は、実施形態における隠れ判定処理の一例を示す図である。検出部110は、検出処理部112により取得された物体領域を用いて、隠れ判定処理(ステップS102)を行う。例えば図5(a)に示すように、マンホールに対応した物体領域Aの一部が、障害物に対応した障害物領域Bによって隠れている場合がある。検出部110は、障害物領域Bによって一部が隠れている物体領域Aを処理対象から除外するために、以下の処理を行う。
FIG. 5 is a diagram illustrating an example of hidden determination processing in the embodiment. The
まず、検出部110は、図5(b)に示す物体領域Aを検出する。次に検出部110は、物体領域Aに対してマンホールを真上からみた領域になるように台形補正を行うことで、図5(c)に示すような領域A’に変換する。次に検出部110は、領域A’を、図5(d)に示す真円領域A’’に変換する。次に検出部110は、領域A’と真円領域A’’との面積比率を算出する。次に検出部110は、算出した面積比率と所定値との比較に基づいて物体領域Aが障害物領域Bによって隠れているか否かを判定する。以下、各処理について説明する。
First, the
(物体領域Aから領域A’への変換処理)
図6は、実施形態における台形補正について説明するための図であり、(a)は補正前の領域Aを示し、(b)は補正後の領域A’を示す。図6(a)において、(x0,y0)は撮像画像の収束点の座標である。(x1,y1)、(x2,y2)、(x3,y3)、および(x4,y4)は物体領域Aを囲む矩形の端部座標である。wは2つの縦方向中間点(xc1,yc1)および(xc2,yc2)を結んだ物体領域Aの幅である。(x1’,y1’)、(x2’,y2’)、(x3’,y3’)、および(x4’,y4’)は物体領域Aと接する台形領域の端部座標である。台形領域は、X方向に平行な2本の底辺と、縦方向中間点(xc1,yc1)と収束点とを結ぶ直線と、縦方向中間点(xc2,yc2)と収束点とを結ぶ直線とにより定義される。図6(b)において、補正後の領域A’は、wを直径とした円領域である。補正後の領域A’は、正方形領域に接する。正方形領域は、(x1’’,y1’’)、(x2’’,y2’’)、(x3’’,y3’’)、および(x4’’,y4’’)を持つ。
(Conversion processing from object area A to area A')
FIG. 6 is a diagram for explaining trapezoidal correction according to the embodiment, in which (a) shows area A before correction and (b) shows area A′ after correction. In FIG. 6A, (x0, y0) are the coordinates of the convergence point of the captured image. (x1, y1), (x2, y2), (x3, y3), and (x4, y4) are the edge coordinates of a rectangle enclosing object region A. w is the width of the object area A connecting the two longitudinal midpoints (xc1, yc1) and (xc2, yc2). (x1', y1'), (x2', y2'), (x3', y3'), and (x4', y4') are the edge coordinates of the trapezoidal region in contact with the object region A. The trapezoidal area has two bases parallel to the X direction, a straight line connecting the vertical midpoint (xc1, yc1) and the convergence point, and a straight line connecting the vertical midpoint (xc2, yc2) and the convergence point. defined by In FIG. 6B, the corrected area A' is a circular area with a diameter w. The area A' after correction touches the square area. The square regions have (x1'', y1''), (x2'', y2''), (x3'', y3''), and (x4'', y4'').
検出部110は、物体領域Aの端部座標(x1,y1)、(x2,y2)、(x3,y3)、および(x4,y4)と、収束点(x0,y0)とを用いて、台形領域の端部座標(x1’,y1’)、(x2’,y2’)、(x3’,y3’)、および(x4’,y4’)を求める。検出部110は、例えば、下記の式1を用いる。
次に検出部110は、正方形領域の座標(x1’’,y1’’)、(x2’’,y2’’)、(x3’’,y3’’)、および(x4’’,y4’’)を求める。検出部110は、例えば、下記の式2を用いる。
次に検出部110は、台形領域を正方形領域に射影変換する公式により、台形補正の関数P1を求める。検出部110は、例えば、下記の式3および式4のように定義される関数P1を求める。式3は、関数P1により台形領域の座標(xi’,yi’)を変換することで、正方形領域の座標(xi’’,yi’’)を求める式である。式4は、P1を定義する行列である。
次に検出部110は、物体領域Aを関数P1に代入することで、台形補正した領域A’を求めることができる。図7は、実施形態において物体領域Aを関数P1により領域A‘に補正(変換)することを示す図である。
Next, the
(領域A’から真円領域A’’への変換処理)
図8は、実施形態における台形補正された領域A’から真円領域A’’へ変換する処理を説明するための図であり、(a)は物体領域Aを示し、(b)は領域A’を示し、(c)は真円領域A’’を示す。
先ず検出部110は、領域AのX方向最小点z1、X方向最大点z3、Y方向最小点z4、およびY方向最大点z2を検出する。これらの検出した点z1~z4は、領域A’の外周点の座標である。次に検出部110は、外周点を用いてX方向中間点(幅方向の中心)およびY方向中間点(高さ方向の中心)を求め、幅方向の中心および高さ方向の中心である領域Aの中心点z0を求める。次に検出部110は、X方向最小点z1、X方向最大点z3、Y方向最小点z2、Y方向最大点z4、および中心点z0を、関数P1を用いて台形補正する。すなわち、検出部110は、zn’=P1(zn)を用いて、台形補正後のzn’を求める。次に検出部110は、中心点z0’と外周点z1’との距離d1、中心点z0’と外周点z2’との距離d2、中心点z0’と外周点z3’との距離d3、中心点z0’と外周点z4’との距離d4を求める(dn=d(z0’-zn’))。検出部110は、距離d1,d2,d3,d4のうち最大値を真円領域A’’の半径rとして設定する(r=max(d1,d2,d3,d4))。
(Conversion processing from area A' to perfect circle area A'')
8A and 8B are diagrams for explaining the process of converting from a trapezoidally corrected area A' to a perfect circle area A'' in the embodiment, where (a) shows the object area A and (b) shows the area A ', and (c) shows a perfect circular region A''.
First, the
(隠れ判定処理)
検出部110は、領域A’に含まれる画素数N1をカウントする。検出部110は、真円領域A’’に含まれる画素数N2をカウントする。検出部110は、N2を、π×r2を用いてカウントしてもよい。検出部110は、画素数N1と画素数N2の割合が所定数以下であるか否かを判定し、割合が所定数以下である場合、物体領域Aが障害物により隠された物体に対応すると判定する。検出部110は、割合が所定数以下ではない場合、物体領域Aが障害物により隠されていない物体に対応すると判定する。検出部110は、障害物により隠された物体に対応した物体領域Aを以降の処理対象から除外し、障害物により隠されていない物体に対応した物体領域Aを以降の処理対象として選別する。所定値は、予め設定された値であり、例えば、後段の位置推定が高い精度で実行できるような物体領域Aを選別するように設定された値であり、例えば、物体領域Aの80%が障害物で隠されていない物体を選別するように設定される。
(Hidden judgment processing)
The
(その他の物体領域Aの選別処理)
図9は、実施形態における撮像画像の一例を示す図である。検出部110は、物体領域Aの画像内位置に基づく撮像位置から物体までの距離に基づいて、物体領域Aに対応した物体を選別してよい。検出部110は、撮像画像のうち所定の範囲を物体領域Aの検出領域として設定する。検出部110は、例えば、撮像画像のY方向における位置Rminから位置Rmaxまでに含まれる領域を、検出領域として設定する。位置Rminおよび位置Rmaxは、後段の位置推定が高い精度で実行できるように、例えば、カメラの撮像可能範囲のうち鮮明且つ適切な大きさの画像を撮像することができる範囲に基づいて設定される。検出部110は、検出領域に含まれる物体領域Aである場合、当該物体領域Aを後段の処理対象に設定し、検出領域に含まれる物体領域Aではない場合、当該物体領域Aを後段の処理対象から除外する。
(Selection processing of other object regions A)
FIG. 9 is a diagram showing an example of a captured image in the embodiment. The
図10は、実施形態における撮像画像の一例を示す図であり、(a)は物体全体を含む物体領域A1を示し、(b)は見切れた物体領域A2を示す。検出部110は、物体領域の幅と所定の物体領域幅との比較に基づいて、物体領域に対応した物体を選別してよい。検出部110は、例えば、左側画像から検出した物体領域A1の幅W1と、右側画像から検出した物体領域A2の幅W2との差が所定値以上であるか否かを判定する。物体領域の幅は、撮像画像のX方向(横方向)における最小値(最右座標)と最大値(最左座標)との差である。検出部110は、幅W2が幅W1よりも所定値以上小さいと判定することにより、物体領域A2を後段の処理対象から除外する。所定値は、例えば、撮像画像にマンホールの全体が含まれていない、撮像画像から見切れたマンホール(物体)を除外するような値が設定される。
FIG. 10 is a diagram showing an example of a captured image according to the embodiment, (a) showing an object area A1 including the entire object, and (b) showing a cut-out object area A2. The
[位置推定処理(ステップS104)]
以下、位置推定処理(ステップS104)について説明する。図11は、物体の中心点を求めるときの課題を説明するための図であり、(a)は撮像画像の一例であり、(b)は物体領域の平面図である。検出部110により検出された物体領域Aを上から見た平面に変換すると、物体領域Aから計算した中心点Cが、中心点C#にずれてしまう。すなわち、図11(a)に示す物体領域Aの横方向における最左座標aと最右座標bの中間点と、物体領域Aの縦方向における最上座標cと最下座標dの中間点とから中心点Cを計算しても、中心点C#は、物体領域A#の横方向における最左座標a#と最右座標b#の中間点と、物体領域A#の縦方向における最上座標c#と最下座標d#の中間点とから計算した点からずれてしまう。
[Position estimation process (step S104)]
The position estimation process (step S104) will be described below. FIGS. 11A and 11B are diagrams for explaining a problem when obtaining the center point of an object. FIG. 11A is an example of a captured image, and FIG. 11B is a plan view of an object area. When the object area A detected by the
(矩形200から台形300への変換処理)
図12は、実施形態における矩形から台形への変換を説明するための図であり、(a)は矩形を示し、(b)は台形を示す。位置推定部120は、物体領域Aの画像内位置を基準とした形状を有する矩形200から物体領域Aの画像内位置を基準とした形状を有する台形300への変換関数に基づいて、矩形200の中心点Cを変換する。矩形200は、例えば、物体領域Aの中心点Cを重心とする正方形であって、一辺が物体領域AのX方向の幅と同じ長さを持つ正方形である。物体領域Aの幅は、物体領域Aの最左座標aから最右座標までの距離である。台形300は、矩形200により変換された図形であり、各辺が最左座標a、最右座標b、最上座標c、および最下座標dに接する図形である。
(Conversion processing from
12A and 12B are diagrams for explaining conversion from a rectangle to a trapezoid in the embodiment, where (a) shows a rectangle and (b) shows a trapezoid. The
図13は、実施形態における台形補正について説明するための図であり、(a)は補正前の矩形200を示し、(b)は補正後の台形300を示す。図13(a)において、矩形200は、物体領域Aの幅wの長さである辺を持つ正方形である。幅wは、物体領域Aの縦方向中間点(xc1,yc1)と物体領域Aの縦方向中間点(xc2,yc2)との距離である。矩形200は、(x1’’,y1’’)、(x2’’,y2’’)、(x3’’,y3’’)、および(x4’’,y4’’)を端部座標として持つ。図13(b)において、(x0,y0)は撮像画像の収束点の座標である。(x1,y1)、(x2,y2)、(x3,y3)、および(x4,y4)は物体領域Aを囲む矩形の端部座標である。(x1’,y1’)、(x2’,y2’)、(x3’,y3’)、および(x4’,y4’)は台形300の端部座標である。台形300は、X方向に平行な2本の底辺と、縦方向中間点(xc1,yc1)と収束点とを結ぶ直線と、縦方向中間点(xc2,yc2)と収束点とを結ぶ直線とにより定義される。
13A and 13B are diagrams for explaining trapezoidal correction in the embodiment, in which FIG. 13A shows a
位置推定部120は、平面を仮定した矩形(正方形)200を求める。位置推定部120は、例えば、下記の式5に、xc1、yc1、およびwを代入することで、矩形200の端部座標(x1’’,y1’’)、(x2’’,y2’’)、(x3’’,y3’’)、および(x4’’,y4’’)を計算する。
位置推定部120は、物体領域Aの端部座標(x1,y1)、(x2,y2)、(x3,y3)、および(x4,y4)と、収束点(x0,y0)とを用いて、台形300の端部座標(x1’,y1’)、(x2’,y2’)、(x3’,y3’)、および(x4’,y4’)を求める。位置推定部120は、例えば、下記の式6を用いて、台形300の端部座標(x1’,y1’)、(x2’,y2’)、(x3’,y3’)、および(x4’,y4’)を計算する。
次に位置推定部120は、矩形200の座標(x1’’,y1’’)、(x2’’,y2’’)、(x3’’,y3’’)、および(x4’’,y4’’)と、台形300の端部座標(x1’,y1’)、(x2’,y2’)、(x3’,y3’)、および(x4’,y4’)とを用いて、台形補正の関数P2を求める。位置推定部120は、例えば、下記の式7を用いる。式8は、P2を定義する行列である。
次に位置推定部120は、矩形200の中心点Cを関数P2を用いて変換することにより、台形300の中心点C#を求めることができる。図14は、実施形態において矩形200の中心点Cを台形300の中心点C#に変換することを示す図である。位置推定部120は、中心点C#を、物体領域Aの位置として推定する。
Next, the
[一致性の判定処理(ステップS106)]
図15は、右側画像および左側画像の一例を示す図である。例えば、撮像画像に複数のマンホールが含まれる場合、右側画像に含まれるマンホールと、左側画像に含まれるマンホールとが同一であると誤判定してしまう可能性がある。これを抑制するため、物体検出システム1は、右側画像に含まれる物体領域と左側画像に含まれる物体領域とが同一であるか否かを判定する一致性の判定処理を行う。
[Consistency determination processing (step S106)]
FIG. 15 is a diagram showing an example of a right image and a left image. For example, when a plurality of manholes are included in the captured image, there is a possibility of erroneously determining that the manhole included in the right image and the manhole included in the left image are the same. In order to suppress this, the
図16は、実施形態において右側画像の物体領域と左側画像の物体領域との一致性を判定する処理を説明するための図である。位置推定部120は、例えば、右側画像と左側画像とを重ね合わせた状態において、右側画像の物体領域ARの中心点CRと左側画像の物体領域ALの中心点CLとの距離を算出する。位置推定部120は、算出した中心点の距離が第1の所定値以内かつ第2の所定値以上である場合に、中心点CRを持つ物体領域ARに対応した物体と中心点CLを持つ物体領域ALに対応した物体とが同じであると判定する。
16A and 16B are diagrams for explaining the process of determining the matching between the object area of the right image and the object area of the left image in the embodiment. For example, the
第1の所定値は、例えば、上述した右側画像と左側画像との位置ずれの最大値である。第2の所定値は、例えば、上述した右側画像と左側画像との位置ずれの最小値である。位置ずれの最大値は、例えば、左側画像の位置Rmin上の最端点x10に対応した右側画像内の位置x10#と、左側画像の位置Rmin上の最端点x20との距離Daである。位置ズレの最小点は、例えば、左側画像の位置Rmax上の中央点x11に対応した右側画像内の位置x11#と、左側画像の位置Rmax上の中央x21との距離Dbである。 The first predetermined value is, for example, the maximum value of positional deviation between the right image and the left image described above. The second predetermined value is, for example, the minimum value of positional deviation between the right image and the left image described above. The maximum positional deviation is, for example, the distance Da between the position x10# in the right image corresponding to the extreme point x10 on the position Rmin of the left image and the extreme point x20 on the position Rmin of the left image. The minimum positional deviation point is, for example, the distance Db between the position x11# in the right image corresponding to the central point x11 on the position Rmax of the left image and the center x21 on the position Rmax of the left image.
なお、位置推定部120は、一致性の判定において、右側画像の物体領域ARの中心点CRと左側画像の物体領域ALの中心点CLとの距離を判定したが、これに限定されず、撮像画像の遠近方向(Y方向)における距離および撮像画像の横方向(X方向)の距離のそれぞれについて一致性判定のための所定値を設定しておき、右側画像および左側画像のY方向の距離と所定値との比較、および右側画像および左側画像のX方向の距離と所定値との比較に基づいて一致性を判定してもよい。この場合の所定値は、Y方向における右側画像および左側画像の位置ズレに基づいて設定し、X方向における右側画像および左側画像の位置ズレに基づいて設定してよい。
Note that the
[分類処理(ステップS108)]
図17は、実施形態におけるマンホールの一例を示す平面図である。図17(a)、(b)、(c)、および(d)に示すように、マンホールは、模様、記号またはマーク、鍵穴の形状、鍵穴の位置、大きさが異なり、これらの要素によって特徴付けられている。これらの要素は、例えば、マンホールに適用された規格、マンホールの所有者や管理者を表す模様や記号、マンホールを開けるための鍵穴の形状や位置、マンホールの種類やタイプや用途、マンホールの大きさや形状などが挙げられるが、これに限定されず、他のマンホールと区別するための要素であればよい。
[Classification process (step S108)]
Drawing 17 is a top view showing an example of a manhole in an embodiment. As shown in Figures 17(a), (b), (c), and (d), manholes differ in pattern, symbol or mark, keyhole shape, keyhole position, and size, and are characterized by these elements. attached. These elements are, for example, the standards applied to manholes, the patterns and symbols that represent the manhole owners and managers, the shape and position of the keyholes used to open the manholes, the types, types and uses of the manholes, the size of the manholes and their use. Examples include a shape, but the present invention is not limited to this, and any element for distinguishing the manhole from other manholes may be used.
図18は、実施形態における分類部130の一構成例を示すブロック図である。分類部130は、例えば、変換部132と、複数の分類処理部134A、134Bおよび134Cと、直径分類部136と、モデル構築部138とを備える。変換部132、複数の分類処理部134A、134Bおよび134C、および直径分類部136といった機能部は、例えば、CPU等によりプログラムを実行することにより実現される。変換部132は、物体領域Aを表す画像を平面画像に変換する。変換部132は、位置推定部120により変換された平面画像を取得してもよい。複数の分類処理部134A、134Bおよび134Cは、互いに異なる要素に基づいて物体を分類する。直径分類部136は、直径に基づいて物体を分類する。
FIG. 18 is a block diagram showing a configuration example of the
分類処理部134Aは、物体領域Aに含まれる物体を第1の要素に基づいて分類する第1の処理を行う。分類処理部134B、分類処理部134Cおよび直径分類部136は、第1の処理により分類された物体を第2の要素に基づいて分類する第2の処理を行う。第1の要素は、物体の模様および記号のうちの少なくとも一つであり、第2の要素は、物体の穴部の形状、位置、および大きさのうちの少なくとも一つである。分類部130は、分類処理部134Aと、分類処理部134B、分類処理部134Cおよび直径分類部136のうち何れか一つを備えていればよい。
The
分類処理部134Aは、模様・マーク用モデル1341に従った分類処理を行う。模様・マーク用モデル1341は、例えば、物体の模様を示すタグが付与された撮像画像を教師データとして機械学習されたモデルである。実施形態における機械学習モデルは、例えば畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)であるが、これに限定されず、パーセプトロンのニューラルネットワーク、再起型ニューラルネットワーク(RNN:Recurrent Neural Network)、残差ネットワーク(ResNet:Residual Network)等の他のニューラルネットワークを設定してもよい。また、模様・マーク用モデル1341は、決定木、回帰木、ランダムフォレスト、勾配ブースティング木、線形回帰、ロジスティック回帰、又は、SVM(サポートベクターマシン)等の教師あり学習の推定モデルを一部或いは全部に設定してもよい。
The
模様・マーク用モデル1341は、学習時において、撮像画像が入力された場合に、撮像画像に含まれる物体領域Aの模様やマークを示す推定結果を出力する。分類処理部134Aは、推定結果が、教師データとしてのタグと一致するように模様・マーク用モデル1341の処理パラメータを更新する。処理パラメータは、例えば、畳み込みニューラルネットワークにおける、層数、各層のノード数、各層間のノードの結合方式、活性化関数、誤差関数、及び勾配降下アルゴリズム、プーリングの領域、カーネル、重み係数、および重み行列の少なくとも一つである。分類処理部134Aは、推定時において、変換部132から供給された物体領域Aの画像を入力し、分類結果を出力する。分類処理部134Aは、例えば分類結果に対応したタグを付与した物体領域Aの画像を分類処理部134Bおよび分類処理部134Cに出力する。
The pattern/
分類処理部134Bは、形状用モデル1342に従った分類処理を行う。形状用モデル1342は、例えば、鍵穴の形状を示すタグが付与された撮像画像を教師データとして機械学習されたモデルである。実施形態における機械学習モデルは、例えば畳み込みニューラルネットワーク(CNN)であるが、模様・マーク用モデル1341と同様にこれに限定されず、パーセプトロンのニューラルネットワーク、再起型ニューラルネットワーク(RNN)、残差ネットワーク(ResNet)等の他のニューラルネットワークを設定してもよい。また、形状用モデル1342は、決定木、回帰木、ランダムフォレスト、勾配ブースティング木、線形回帰、ロジスティック回帰、又は、SVM(サポートベクターマシン)等の教師あり学習の推定モデルを一部或いは全部に設定してもよい。形状用モデル1342は、学習時において、撮像画像が入力された場合に、撮像画像に含まれる鍵穴の形状を示す推定結果を出力する。分類処理部134Bは、推定結果が、教師データとしてのタグと一致するように形状用モデル1341の処理パラメータを更新する。処理パラメータは、例えば、畳み込みニューラルネットワークにおける、層数、各層のノード数、各層間のノードの結合方式、活性化関数、誤差関数、及び勾配降下アルゴリズム、プーリングの領域、カーネル、重み係数、および重み行列の少なくとも一つである。分類処理部134Bは、推定時において、分類処理部134Aから供給された物体領域Aの画像を入力し、分類結果を出力する。分類処理部134Bは、例えば分類結果に対応したタグを付与した物体領域Aの画像を直径分類部136に出力する。分類処理部134Bは、例えば図17(a)および(b)に示した楕円形の鍵穴の形状と、図17(c)に示した円形の鍵穴の形状とで、2種類に分類する。
The
分類処理部134Cは、位置用モデル1343に従った分類処理を行う。位置用モデル1343は、例えば、鍵穴の位置を示すタグが付与された撮像画像を教師データとして機械学習されたモデルである。実施形態における機械学習モデルは、例えば畳み込みニューラルネットワークであるが、模様・マーク用モデル1341と同様にこれに限定されず、パーセプトロンのニューラルネットワーク、再起型ニューラルネットワーク(RNN)、残差ネットワーク(ResNet)等の他のニューラルネットワークを設定してもよい。また、形状用モデル1342は、決定木、回帰木、ランダムフォレスト、勾配ブースティング木、線形回帰、ロジスティック回帰、又は、SVM(サポートベクターマシン)等の教師あり学習の推定モデルを一部或いは全部に設定してもよい。位置用モデル1343は、学習時において、撮像画像が入力された場合に、撮像画像に含まれる鍵穴の位置を示す推定結果を出力する。分類処理部134Bは、推定結果が、教師データとしてのタグと一致するように形状用モデル1341の処理パラメータを更新する。処理パラメータは、例えば、畳み込みニューラルネットワークにおける、層数、各層のノード数、各層間のノードの結合方式、活性化関数、誤差関数、及び勾配降下アルゴリズム、プーリングの領域、カーネル、重み係数、および重み行列の少なくとも一つである。分類処理部134Cは、推定時において、分類処理部134Aから供給された物体領域Aの画像を入力し、分類結果を出力する。分類処理部134Cは、例えば分類結果に対応したタグを付与した物体領域Aの画像を直径分類部136に出力する。分類処理部134Cは、例えば図17(a)および(b)に示した鍵穴の位置と、図17(c)に示した鍵穴の位置とで、2種類に分類する。
The
直径分類部136は、物体領域Aが示す物体の直径に従った分類処理を行う。直径分類部136は、位置推定部120により求めた物体領域Aの幅wを示す情報を取得する。直径分類部136は、物体領域Aの幅wが所定値以上であるか否かを判定し、判定結果に応じて、分類結果に対応したタグを付与する。所定値は、例えば、マンホールの規格により設定されている直径である。直径分類部136は、タグを付与した物体領域Aの画像を分類結果として出力する。なお、物体検出システム1により取得した物体領域Aの幅wに関する情報を他のシステムに提供し、直径分類部136は、当該他のシステムにより取得した物体領域Aの幅wを用いて分類を行ってもよい。これにより、物体検出システム1は、他のシステムにより計算された正確な物体領域Aの幅wを用いて、高い精度で分類を行うことができる。
The
モデル構築部138は、模様・マーク用モデル1341、形状用モデル1342、および位置用モデル1343を構築する。モデル構築部138は、模様・マーク用モデル1341に教師データを入力し、模様・マーク用モデル1341から出力された分類結果が、教師データとしてのタグとなるように模様・マーク用モデル1341の処理パラメータを再帰的に更新する。モデル構築部138は、形状用モデル1342に教師データを入力し、形状用モデル1342から出力された分類結果が、教師データとしてのタグとなるように形状用モデル1342の処理パラメータを再帰的に更新する。モデル構築部138は、位置用モデル1343に教師データを入力し、位置用モデル1343から出力された分類結果が、教師データとしてのタグとなるように位置用モデル1343の処理パラメータを再帰的に更新する。なお、モデル構築部138は、分類部130に含まれていなくてもよく、物体検出装置100の初期設定時やメンテナンス時に各モデルを分類部130に導入することができればよい。
The
<実施形態の効果>
以上説明したように、実施形態の物体検出システム1によれば、撮像画像から物体領域Aを検出する検出部110と、物体領域Aに対応した物体の位置を推定する位置推定部120と、を備え、位置推定部120により、物体領域Aの画像内位置を基準とした形状を有する矩形200から物体領域Aの画像内位置を基準とした形状を有する台形300への変換関数に基づいて矩形200の中心点Cを変換し、変換した中心点C#を物体の位置として推定する物体検出装置100を実現することができる。変換関数は、例えば、物体領域Aの幅wに対応した長さの辺を有する矩形200を、物体領域Aの端部座標および撮像画像の収束点に基づいて台形300に変換する関数である。実施形態の物体検出装置100によれば、高い精度で物体の位置を検出することができる。実施形態の物体検出装置100によれば、例えば、撮像画像に含まれる物体領域Aを平面座標に変換して物体の位置を推定した場合のように、変換時に生ずる位置のズレを抑制することができる。
<Effects of Embodiment>
As described above, according to the
実施形態の物体検出システム1によれば、位置推定部120により、物体領域Aを台形補正し、台形補正された物体領域A’を円領域A’’に変換し、台形補正された物体領域A’と、円領域A’’との比較に基づいて、物体領域Aに対応した物体を選別することができる。これにより、物体検出システム1によれば、物体が障害物により隠された場合に、当該物体に対応した物体領域Aを位置推定の対象から除外することができる。この結果、物体検出システム1によれば、位置推定の精度を高くすることができる。
According to the
実施形態の物体検出システム1によれば、位置推定部120により、物体領域Aの画像内位置に基づく撮像位置から物体までの距離(Rmin~Rmax)に基づいて、物体領域Aに対応した物体を選別することができる。これにより、実施形態の物体検出システム1によれば、車載装置10から遠い位置の物体に対応した物体領域Aの位置を推定する処理を回避することができる。この結果、物体検出システム1によれば、位置推定の精度を高くすることができる。
According to the
実施形態の物体検出システム1によれば、位置推定部120により、検出部110により検出された物体領域Aの幅と所定の物体領域幅との比較に基づいて、物体領域Aに対応した物体を選別することができる。これにより、物体検出システム1によれば、例えば、撮像画像の端で見切れた物体領域Aを位置推定の処理対象から除外することができる。この結果、物体検出システム1によれば、位置推定の精度を高くすることができる。
According to the
実施形態の物体検出システム1によれば、位置推定部により、撮像画像のうち左側画像に基づいて検出された第1の中心点CLと撮像画像のうち右側画像に基づいて検出された第2の中心点CRとの距離が、第1の所定値以内Daかつ第2の所定値Db以上である場合に、第1の中心点CLを持つ物体領域Aに対応した物体と第2の中心点CRを持つ物体領域Aに対応した物体とが同じであると判定することができる。これにより、物体検出システム1によれば、右側画像および左側画像における物体のズレにより物体の同一性の誤りを抑制することができる。この結果、物体検出システム1によれば、同一であると判定された物体について、左側画像を用いて推定した位置と右側画像を用いて推定した位置とを対応付けた情報を提供することができる。
According to the
実施形態の物体検出システム1によれば、撮像画像から物体領域Aを検出する検出部110と、物体領域Aに含まれる物体を第1の要素に基づいて分類する第1の処理を実行する分類処理部134Aと、第1の処理により分類された物体を第2の要素に基づいて分類する第2の処理とを実行する分類処理部134Bおよび分類処理部134Cと、を備える分類部130(物体分類装置)を実現することできる。第1の要素は、物体の模様および記号のうちの少なくとも一つであり、第2の要素は、物体の穴部の形状、位置、および大きさのうちの少なくとも一つである。実施形態の物体検出システム1によれば、複数の段階に分けて物体を分類するので分類精度を高くすることができる。また、実施形態の物体検出システム1によれば、複数の段階に分けて物体を分類するので分類を詳細化することができる。
According to the
実施形態の物体検出システム1によれば、分類部130が、第1の要素および第1の分類結果(タグ)を教師データとして機械学習され、物体領域Aに含まれる第1の要素を入力した場合に第1の分類結果を出力する第1のモデル(1341)と、第2の要素および第2の分類結果を教師データとして機械学習され、物体領域Aに含まれる第2の要素を入力した場合に第2の分類結果を出力する第2のモデル(1342または1343)とを含む。実施形態の物体検出システム1によれば、複数の段階に分けて機械学習モデルを構築したので、各機械学習モデルの分類精度を高くすることができる。
According to the
実施形態の物体検出システム1によれば、分類部130により、検出部110により検出された物体領域Aを台形補正し、台形補正された物体領域Aに基づいて第1の処理および第2の処理を実行するので、分類精度を高くすることができる。
According to the
実施形態の物体検出システム1によれば、撮像画像から物体領域を検出する検出部110と、物体領域Aに含まれる物体を、模様および記号のうちの少なくとも一つに基づいて分類する分類処理部134A(第1の分類部)と、分類処理部134Aにより分類された物体を、穴部の形状に基づいて分類する分類処理部134B(第2の分類部)と、分類処理部134Bにより分類された物体を、穴部の位置に基づいて分類する分類処理部134C(第3の分類部)と、分類処理部134Bにより分類された物体を大きさに基づいて分類し、分類処理部134Cにより分類された物体を大きさに基づいて分類する直径分類部136と、を備える、分類部130を実現することができる。実施形態の物体検出システム1によれば、物体の模様および記号と、穴部の形状と、穴部の位置と、物体を大きさとに分けて多段階で分類処理を行うことができるので、分類精度を高くすることができる。
According to the
実施形態の物体検出システム1によれば、分類処理部134Aにより、模様および記号のうちの少なくとも一つおよび第1の分類結果を教師データとして機械学習され、物体領域Aに含まれる模様および記号のうちの少なくとも一つを入力した場合に第1の分類結果を出力する模様・マーク用モデル1341(第1のモデル)に基づく処理を行い、分類処理部134Bにより、穴部の形状および第2の分類結果を教師データとして機械学習され、分類処理部134Aにより分類された物体に対応した穴部の形状を入力した場合に第2の分類結果を出力する形状用モデル1342(第2のモデル)に基づく処理を行い、分類処理部134Cにより、穴部の位置および第3の分類結果を教師データとして機械学習され、分類処理部134Aにより分類された物体の穴部の位置を入力した場合に第3の分類結果を出力する位置用モデル1343(第3のモデル)に基づく処理を行い、直径分類部136により、物体の大きさに基づいて、分類処理部134Bにより分類された物体を分類し、分類処理部134Cにより分類された物体を分類する。これにより、実施形態の物体検出システム1によれば、物体の模様および記号と、穴部の形状と、穴部の位置とに分けて機械学習モデルを構築したので、各機械学習モデルの分類精度を高くすることができる。
According to the
なお、各実施形態および変形例について説明したが、一例であってこれらに限られず、例えば、各実施形態や各変形例のうちのいずれかや、各実施形態の一部や各変形例の一部を、他の1または複数の実施形態や他の1または複数の変形例と組み合わせて本発明の一態様を実現させてもよい。 Although each embodiment and modifications have been described, these are only examples and are not limited to these. A section may be combined with one or more other embodiments or one or more other modifications to realize one aspect of the present invention.
なお、本実施形態における物体検出装置100の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムを、コンピュータシステムに読み込ませ、実行することにより、物体検出装置100に係る上述した種々の処理を行ってもよい。
Note that a program for executing each process of the
なお、ここでいう「コンピュータシステム」とは、OSや周辺機器などのハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリなどの書き込み可能な不揮発性メモリ、CD-ROMなどの可搬媒体、コンピュータシステムに内蔵されるハードディスクなどの記憶装置のことをいう。 Note that the “computer system” referred to here may include hardware such as an OS and peripheral devices. The "computer system" also includes the home page providing environment (or display environment) if the WWW system is used. In addition, "computer-readable recording medium" means writable non-volatile memory such as flexible disk, magneto-optical disk, ROM, flash memory, portable medium such as CD-ROM, hard disk built in computer system, etc. storage device.
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネットなどのネットワークや電話回線などの通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic
Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置などに格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。
Furthermore, "computer-readable recording medium" means a volatile memory (e.g., DRAM (Dynamic
Random Access Memory)), which holds a program for a certain period of time. Also, the program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium.
ここで、プログラムを伝送する「伝送媒体」は、インターネットなどのネットワーク(通信網)や電話回線などの通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 Here, the "transmission medium" for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. Further, the program may be for realizing part of the functions described above. Further, it may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.
1 物体検出システム
10 車載装置
100 物体検出装置
110 検出部
120 位置推定部
130 分類部
132 変換部
134A、134B、134C 分類処理部
1341、模様・マーク用モデル
1342 形状用モデル
1343 位置用モデル
136 直径分類部
138 モデル構築部
140 情報提供部
1 object
Claims (7)
前記物体領域に含まれる物体を第1の要素に基づいて分類する第1の処理と、前記第1の処理により分類された物体を第2の要素に基づいて分類する第2の処理とを実行する分類部と、を備え、
前記分類部は、前記第1の要素に基づく第1の分類結果を教師データとして機械学習され、前記物体領域の画像を入力した場合に前記物体領域の画像に含まれる前記第1の要素に基づく第1の分類結果を出力する第1のモデルを用いて前記第1の処理を実行し、前記第2の要素に基づく第2の分類結果を教師データとして機械学習され、前記物体領域の画像を入力した場合に前記物体領域の画像に含まれる前記第2の要素に基づく第2の分類結果を出力する第2のモデルを用いて前記第2の処理を実行し、
前記第1の要素は、前記物体の模様および記号のうちの少なくとも一つであり、
前記第2の要素は、前記物体の穴部の形状、位置、および大きさのうちの少なくとも一つである、
物体分類装置。 a detection unit that detects an object area from a captured image;
executing a first process of classifying the objects contained in the object region based on a first element and a second process of classifying the objects classified by the first process based on a second element; and a classifier for
The classification unit is machine-learned using a first classification result based on the first element as teacher data, and based on the first element included in the image of the object area when the image of the object area is input. The first process is executed using a first model that outputs a first classification result, machine learning is performed using a second classification result based on the second element as teacher data, and an image of the object region is obtained. performing the second processing using a second model that, when input, outputs a second classification result based on the second element contained in the image of the object region;
the first element is at least one of a pattern and a symbol of the object;
the second element is at least one of the shape, position, and size of a hole in the object;
Object classifier.
前記検出部により検出された前記物体領域を台形補正し、
台形補正された物体領域に基づいて前記第1の処理および前記第2の処理を実行する、請求項1に記載の物体分類装置。 The classification unit
trapezoidally correcting the object region detected by the detection unit;
2. The object classification device according to claim 1 , wherein said first process and said second process are performed based on a keystone-corrected object region.
前記物体領域に含まれる物体を、模様および記号のうちの少なくとも一つに基づいて分類する第1の分類部と、
前記第1の分類部により分類された物体を、穴部の形状に基づいて分類する第2の分類部と、
前記第1の分類部により分類された物体を、穴部の位置に基づいて分類する第3の分類部と、
前記第2の分類部により分類された物体を大きさに基づいて分類し、前記第3の分類部により分類された物体を大きさに基づいて分類する第4の分類部と、を備え、
前記第1の分類部は、前記模様および記号のうちの少なくとも一つに基づく第1の分類結果を教師データとして機械学習され、前記物体領域の画像に含まれる模様および記号のうちの少なくとも一つを入力した場合に第1の分類結果を出力する第1のモデルに基づく処理を行い、
前記第2の分類部は、前記穴部の形状に基づく第2の分類結果を教師データとして機械学習され、前記第1の分類部による分類結果に基づく前記物体領域の画像を入力した場合に第2の分類結果を出力する第2のモデルに基づく処理を行い、
前記第3の分類部は、前記穴部の位置に基づく第3の分類結果を教師データとして機械学習され、前記第1の分類部による分類結果に基づく前記物体領域の画像を入力した場合に第3の分類結果を出力する第3のモデルに基づく処理を行い、
前記第4の分類部は、前記物体の大きさに基づいて、前記第2の分類部により分類された物体を分類し、前記第3の分類部により分類された物体を分類する、
物体分類装置。 a detection unit that detects an object area from a captured image;
a first classification unit that classifies objects included in the object region based on at least one of patterns and symbols;
a second classification unit that classifies the objects classified by the first classification unit based on the shape of the hole;
a third classification unit that classifies the objects classified by the first classification unit based on the positions of the holes;
a fourth classification unit that classifies the objects classified by the second classification unit based on size, and classifies the objects classified by the third classification unit based on size;
The first classification unit is machine-learned using a first classification result based on at least one of the pattern and the symbol as teacher data, and performs at least one of the pattern and the symbol included in the image of the object region. Perform processing based on a first model that outputs a first classification result when inputting
The second classification unit is machine-learned using a second classification result based on the shape of the hole as teacher data. Perform processing based on a second model that outputs the classification result of 2,
The third classification unit is machine-learned using a third classification result based on the position of the hole as teacher data. Perform processing based on a third model that outputs the classification result of 3,
The fourth classification unit classifies the objects classified by the second classification unit and classifies the objects classified by the third classification unit based on the size of the objects.
Object classifier.
前記物体領域に含まれる物体を第1の要素に基づいて分類する第1の処理と、前記第1の処理により分類された物体を第2の要素に基づいて分類する第2の処理とを実行するステップと、を含み、
前記第1の要素に基づく第1の分類結果を教師データとして機械学習され、前記物体領域の画像を入力した場合に前記物体領域の画像に含まれる前記第1の要素に基づく第1の分類結果を出力する第1のモデルを用いて前記第1の処理を実行し、前記第2の要素に基づく第2の分類結果を教師データとして機械学習され、前記物体領域の画像を入力した場合に前記物体領域の画像に含まれる前記第2の要素に基づく第2の分類結果を出力する第2のモデルを用いて前記第2の処理を実行し、
前記第1の要素は、前記物体の模様および記号のうちの少なくとも一つであり、
前記第2の要素は、前記物体の穴部の形状、位置、および大きさのうちの少なくとも一つである、
物体分類方法。 detecting an object region from the captured image;
executing a first process of classifying the objects contained in the object region based on a first element and a second process of classifying the objects classified by the first process based on a second element; and
Machine learning is performed using a first classification result based on the first element as teacher data, and a first classification result based on the first element included in the image of the object area when the image of the object area is input. machine learning is performed using a first model that outputs a second classification result based on the second element as teacher data, and when an image of the object region is input, the performing the second processing using a second model that outputs a second classification result based on the second element included in the image of the object region;
the first element is at least one of a pattern and a symbol of the object;
the second element is at least one of the shape, position, and size of a hole in the object;
Object classification method.
前記物体領域に含まれる物体を、模様および記号のうちの少なくとも一つに基づいて分類する第1分類ステップと、
前記第1分類ステップにより分類された物体を、穴部の形状に基づいて分類する第2分類ステップと、
前記第1分類ステップにより分類された物体を、穴部の位置に基づいて分類する第3分類ステップと、
前記第2分類ステップにより分類された物体を大きさに基づいて分類し、前記第3分類ステップにより分類された物体を大きさに基づいて分類する第4分類ステップと、
を含み、
前記第1分類ステップは、前記模様および記号のうちの少なくとも一つに基づく第1の分類結果を教師データとして機械学習され、前記物体領域の画像に含まれる模様および記号のうちの少なくとも一つを入力した場合に第1の分類結果を出力する第1のモデルに基づく処理を行い、
前記第2分類ステップは、前記穴部の形状に基づく第2の分類結果を教師データとして機械学習され、前記第1分類ステップによる分類結果に基づく前記物体領域の画像を入力した場合に第2の分類結果を出力する第2のモデルに基づく処理を行い、
前記第3分類ステップは、前記穴部の位置に基づく第3の分類結果を教師データとして機械学習され、前記第1分類ステップによる分類結果に基づく前記物体領域の画像を入力した場合に第3の分類結果を出力する第3のモデルに基づく処理を行い、
前記第4分類ステップは、前記物体の大きさに基づいて、前記第2分類ステップにより分類された物体を分類し、前記第3分類ステップにより分類された物体を分類する、
物体分類方法。 detecting an object region from the captured image;
a first classification step of classifying objects included in the object region based on at least one of patterns and symbols;
a second classification step of classifying the objects classified by the first classification step based on the shape of the hole;
a third classification step of classifying the objects classified by the first classification step based on the positions of the holes;
a fourth classification step of classifying the objects classified by the second classification step based on size, and classifying the objects classified by the third classification step based on size;
including
In the first classification step, machine learning is performed using a first classification result based on at least one of the pattern and the symbol as teacher data, and at least one of the pattern and the symbol included in the image of the object region is determined. perform processing based on a first model that outputs a first classification result when input;
In the second classification step, machine learning is performed using a second classification result based on the shape of the hole as teacher data. performing processing based on a second model that outputs a classification result;
In the third classification step, machine learning is performed using the third classification result based on the position of the hole as teacher data, and when the image of the object region based on the classification result in the first classification step is input, the third classification is performed. perform processing based on a third model that outputs a classification result;
The fourth classification step classifies the objects classified by the second classification step and classifies the objects classified by the third classification step based on the size of the objects.
Object classification method.
撮像画像から物体領域を検出するステップと、
前記物体領域に含まれる物体を第1の要素に基づいて分類する第1の処理と、前記第1の処理により分類された物体を第2の要素に基づいて分類する第2の処理とを実行するステップと、を含む処理を実行させ、
前記第1の要素に基づく第1の分類結果を教師データとして機械学習され、前記物体領域の画像を入力した場合に前記物体領域の画像に含まれる前記第1の要素に基づく第1の分類結果を出力する第1のモデルを用いて前記第1の処理を実行させ、前記第2の要素に基づく第2の分類結果を教師データとして機械学習され、前記物体領域の画像を入力した場合に前記物体領域の画像に含まれる前記第2の要素に基づく第2の分類結果を出力する第2のモデルを用いて前記第2の処理を実行させ、
前記第1の要素は、前記物体の模様および記号のうちの少なくとも一つであり、
前記第2の要素は、前記物体の穴部の形状、位置、および大きさのうちの少なくとも一つである、
プログラム。 to the computer,
detecting an object region from the captured image;
executing a first process of classifying the objects contained in the object region based on a first element and a second process of classifying the objects classified by the first process based on a second element; causing a process to be performed including the step of
Machine learning is performed using a first classification result based on the first element as teacher data, and a first classification result based on the first element included in the image of the object area when the image of the object area is input. machine learning is performed using a first model that outputs a second classification result based on the second element as teacher data, and when an image of the object region is input, the executing the second process using a second model that outputs a second classification result based on the second element included in the image of the object region;
the first element is at least one of a pattern and a symbol of the object;
the second element is at least one of the shape, position, and size of a hole in the object;
program.
撮像画像から物体領域を検出するステップと、
前記物体領域に含まれる物体を、模様および記号のうちの少なくとも一つに基づいて分類する第1分類ステップと、
前記第1分類ステップにより分類された物体を、穴部の形状に基づいて分類する第2分類ステップと、
前記第1分類ステップにより分類された物体を、穴部の位置に基づいて分類する第3分類ステップと、
前記第2分類ステップにより分類された物体を大きさに基づいて分類し、前記第3分類ステップにより分類された物体を大きさに基づいて分類する第4分類ステップと、
を含む処理を実行させるプログラムであって、
前記第1分類ステップは、前記模様および記号のうちの少なくとも一つに基づく第1の分類結果を教師データとして機械学習され、前記物体領域の画像に含まれる模様および記号のうちの少なくとも一つを入力した場合に第1の分類結果を出力する第1のモデルに基づく処理を行い、
前記第2分類ステップは、前記穴部の形状に基づく第2の分類結果を教師データとして機械学習され、前記第1分類ステップによる分類結果に基づく前記物体領域の画像を入力した場合に第2の分類結果を出力する第2のモデルに基づく処理を行い、
前記第3分類ステップは、前記穴部の位置に基づく第3の分類結果を教師データとして機械学習され、前記第1分類ステップによる分類結果に基づく前記物体領域の画像を入力した場合に第3の分類結果を出力する第3のモデルに基づく処理を行い、
前記第4分類ステップは、前記物体の大きさに基づいて、前記第2分類ステップにより分類された物体を分類し、前記第3分類ステップにより分類された物体を分類する、
プログラム。 to the computer,
detecting an object region from the captured image;
a first classification step of classifying objects included in the object region based on at least one of patterns and symbols;
a second classification step of classifying the objects classified by the first classification step based on the shape of the hole;
a third classification step of classifying the objects classified by the first classification step based on the positions of the holes;
a fourth classification step of classifying the objects classified by the second classification step based on size, and classifying the objects classified by the third classification step based on size;
A program that executes a process including
In the first classification step, machine learning is performed using a first classification result based on at least one of the pattern and the symbol as teacher data, and at least one of the pattern and the symbol included in the image of the object region is determined. perform processing based on a first model that outputs a first classification result when input;
In the second classification step, machine learning is performed using a second classification result based on the shape of the hole as teacher data. performing processing based on a second model that outputs a classification result;
In the third classification step, machine learning is performed using the third classification result based on the position of the hole as teacher data, and when the image of the object region based on the classification result in the first classification step is input, the third classification is performed. perform processing based on a third model that outputs a classification result;
The fourth classification step classifies the objects classified by the second classification step and classifies the objects classified by the third classification step based on the size of the objects.
program .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020217297A JP7138158B2 (en) | 2020-12-25 | 2020-12-25 | OBJECT CLASSIFIER, OBJECT CLASSIFICATION METHOD, AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020217297A JP7138158B2 (en) | 2020-12-25 | 2020-12-25 | OBJECT CLASSIFIER, OBJECT CLASSIFICATION METHOD, AND PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022102516A JP2022102516A (en) | 2022-07-07 |
JP7138158B2 true JP7138158B2 (en) | 2022-09-15 |
Family
ID=82273676
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020217297A Active JP7138158B2 (en) | 2020-12-25 | 2020-12-25 | OBJECT CLASSIFIER, OBJECT CLASSIFICATION METHOD, AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7138158B2 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003263216A (en) | 2002-03-11 | 2003-09-19 | Toshiba Corp | Process design method and its device |
JP2004157932A (en) | 2002-11-08 | 2004-06-03 | Matsushita Electric Ind Co Ltd | Object recognition apparatus and object recognition program |
JP2007122494A (en) | 2005-10-28 | 2007-05-17 | Glory Ltd | Image sorting device and image sorting method |
JP2015062128A (en) | 2014-10-29 | 2015-04-02 | 沖電気工業株式会社 | Server device, terminal support system, and program |
JP2015191572A (en) | 2014-03-28 | 2015-11-02 | 株式会社パスコ | Manhole detection device, manhole detection method and program |
JP2019008638A (en) | 2017-06-27 | 2019-01-17 | オムロン株式会社 | Watching support system and method for controlling the same |
JP2019046007A (en) | 2017-08-31 | 2019-03-22 | 株式会社Pfu | Coordinate detection device and learnt model |
JP2020021378A (en) | 2018-08-02 | 2020-02-06 | パナソニックIpマネジメント株式会社 | Article identification system, shopping support system, shopping support method, article identification method, and program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3109620B2 (en) * | 1992-03-26 | 2000-11-20 | 豊田工機株式会社 | Object identification device |
-
2020
- 2020-12-25 JP JP2020217297A patent/JP7138158B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003263216A (en) | 2002-03-11 | 2003-09-19 | Toshiba Corp | Process design method and its device |
JP2004157932A (en) | 2002-11-08 | 2004-06-03 | Matsushita Electric Ind Co Ltd | Object recognition apparatus and object recognition program |
JP2007122494A (en) | 2005-10-28 | 2007-05-17 | Glory Ltd | Image sorting device and image sorting method |
JP2015191572A (en) | 2014-03-28 | 2015-11-02 | 株式会社パスコ | Manhole detection device, manhole detection method and program |
JP2015062128A (en) | 2014-10-29 | 2015-04-02 | 沖電気工業株式会社 | Server device, terminal support system, and program |
JP2019008638A (en) | 2017-06-27 | 2019-01-17 | オムロン株式会社 | Watching support system and method for controlling the same |
JP2019046007A (en) | 2017-08-31 | 2019-03-22 | 株式会社Pfu | Coordinate detection device and learnt model |
JP2020021378A (en) | 2018-08-02 | 2020-02-06 | パナソニックIpマネジメント株式会社 | Article identification system, shopping support system, shopping support method, article identification method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2022102516A (en) | 2022-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110348297B (en) | Detection method, system, terminal and storage medium for identifying stereo garage | |
CN105335955B (en) | Method for checking object and object test equipment | |
CN110892760B (en) | Positioning terminal equipment based on deep learning | |
US8995714B2 (en) | Information creation device for estimating object position and information creation method and program for estimating object position | |
US20150347478A1 (en) | Systems and methods for context-aware and personalized access to visualizations of road events | |
CN112084869A (en) | Compact quadrilateral representation-based building target detection method | |
CN110443159A (en) | Digit recognition method, device, electronic equipment and storage medium | |
CN111652230B (en) | License plate recognition method, electronic device and storage medium | |
CN109543493A (en) | A kind of detection method of lane line, device and electronic equipment | |
CN114611635B (en) | Object identification method and device, storage medium and electronic device | |
CN112132892B (en) | Target position labeling method, device and equipment | |
CN113989626B (en) | Multi-class garbage scene distinguishing method based on target detection model | |
CN112699711A (en) | Lane line detection method, lane line detection device, storage medium, and electronic apparatus | |
JP7138158B2 (en) | OBJECT CLASSIFIER, OBJECT CLASSIFICATION METHOD, AND PROGRAM | |
JP7138157B2 (en) | OBJECT DETECTION DEVICE, OBJECT DETECTION METHOD, AND PROGRAM | |
CN112733652B (en) | Image target recognition method, device, computer equipment and readable storage medium | |
US8005261B2 (en) | Model-based object classification and target recognition | |
CN110738229B (en) | Fine-grained image classification method and device and electronic equipment | |
CN113743293B (en) | Fall behavior detection method and device, electronic equipment and storage medium | |
CN115497075A (en) | Traffic target detection method based on improved convolutional neural network and related device | |
CN112464938A (en) | License plate detection and identification method, device, equipment and storage medium | |
JP2011090465A (en) | Object position estimation device and object position estimation program | |
CN112861581A (en) | Method and system for analyzing number of people | |
CN116645661B (en) | Method and system for detecting duplicate prevention code | |
CN111507286B (en) | Dummy detection method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220301 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220712 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220830 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220905 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7138158 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |