JP7320307B1 - 知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法 - Google Patents
知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法 Download PDFInfo
- Publication number
- JP7320307B1 JP7320307B1 JP2022077903A JP2022077903A JP7320307B1 JP 7320307 B1 JP7320307 B1 JP 7320307B1 JP 2022077903 A JP2022077903 A JP 2022077903A JP 2022077903 A JP2022077903 A JP 2022077903A JP 7320307 B1 JP7320307 B1 JP 7320307B1
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- target
- detection
- prediction
- class
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 350
- 230000002123 temporal effect Effects 0.000 claims description 13
- 230000004927 fusion Effects 0.000 claims description 11
- 238000012549 training Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 5
- 238000000034 method Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Geophysics And Detection Of Objects (AREA)
Abstract
Description
時間類、天気類、目標類の3つの1次元シーンのそれぞれに対してYOLOv3を学習し、1次元シーン向けの3種類の目標検出モデルである1次元時間検出モデル、1次元天気検出モデル、1次元目標検出モデルを得るステップ1と、
1次元時間検出モデル、1次元天気検出モデルおよび1次元目標検出モデルに基づいて、それぞれ検出対象画像に対して目標検出を行うステップ2と、
ステップ2の目標検出結果を階層的に結合し、検出対象画像の最終検出結果を出力するステップ3とを含む。
(1)必要に応じて、時間類1次元シーンをm1種類、天気類1次元シーンをm2種類、目標類1次元シーンをm3+1種類に分類する。
(2)時間類1次元シーンの各類別に対して、各類別の学習サンプルをラベリングし、YOLOv3を学習し、m1個の1次元時間検出モデルを得る。
天気類1次元シーンの各類別に対して、各類別の学習サンプルをラベリングし、YOLOv3を学習し、m2個の1次元天気検出モデルを得る。
目標類1次元シーンの各類別に対して、各類別の学習サンプルをラベリングし、YOLOv3を学習し、m3個の1次元目標検出モデルを得る。
ここで、1次元時間検出モデルおよび1次元天気検出モデルは、いずれもm3種類の目標および1種類のその他に対応するm3+1個の出力を含み、1次元目標検出モデルは、1種類の目標および1種類のその他に対応する2個の出力を含む。
(1)第1階層的結合:m3個の1次元目標検出モデルの出力結果をそれぞれ1次元時間検出モデルの出力結果と融合させるとともに、m3個の1次元目標検出モデルを1次元天気検出モデルの出力結果と融合させる。
(2)第2階層的結合:第1階層的結合の2つの融合結果をさらに融合させる。
(ア)互いに重複している予測枠を1つの予測枠に合併し、重複していない他の予測枠をそのまま保持する。前記合併の原則は、以下のとおりである。
(1)互いに重複している予測枠のうち、1次元時間検出モデル/1次元天気検出モデルに対応する予測枠と、1次元目標検出モデルに対応するいずれかの予測枠とは、属する類別が同一であり、かつ、属する類別がその他でなければ、合併後の予測枠が属する類別は、その同一類別である。
(2)互いに重複している予測枠のうち、1次元時間検出モデル/1次元天気検出モデルに対応する予測枠と、1次元目標検出モデルに対応する全ての予測枠とは、属する類別がいずれもその他であれば、合併後の予測枠が属する類別は、その他である。
(3)互いに重複している予測枠のうち、1次元時間検出モデル/1次元天気検出モデルに対応する予測枠と、いずれかの1次元目標検出モデルに対応する予測枠とは、属する類別がいずれも一致しなければ、
(4)互いに重複している予測枠のうち、1次元時間検出モデル/1次元天気検出モデルに対応する予測枠がなければ、(a)全ての予測枠の属する類別が同一であると、合併後の予測枠の属する類別は、その他であり、(b)所属類別が他の予測枠と異なる予測枠Bが1つ存在する場合、合併後の予測枠の属する類別は、その予測枠Bの所属類別である。
(イ)ほかと重ならない単一の予測枠について、その予測枠を一時的に保存し、その所属類別の確率をそのまま保持する。
(ア)互いに重複している予測枠について、それらを1つの予測枠に合併し、次の規則にしたがって、合併後の予測枠の属する類別を判断する。
(1)互いに重複している予測枠の属する類別が同一であれば、合併後の予測枠の属する類別は、その同一類別である。
(2)互いに重複している予測枠の属する類別が異なるであれば、予測枠に対応する適合度を比較する。
(a)適合度が異なれば、合併後の予測枠の所属類別および確率は、対応適合度が小さい予測枠の所属類別および確率となる。
(b)適合度が同じであれば、合併後の予測枠の所属類別および確率は、対応確率が大きい予測枠の所属類別および確率となる。
(イ)ほかと重ならない単一の予測枠について、その予測枠の属する類別の確率が誤検出閾値未満であればその予測枠を削除し、そうでなければその予測枠を保持し、確率をそのまま保持する。
ここで、qは、互いに重複している予測枠のうち、属する類別が同じである予測枠の数を示し、
前記誤検出閾値d1の式は、以下のように定義される。
d1=d+δ×BV
ここで、dは、誤検出ベース閾値であり、δは、係数であり、BVは、背景差分であり、
検出対象画像の時間類1次元シーン適合度
APMTCurrent>APMWCurrentであれば、合併後の予測枠の属する類別は、1次元天気検出モデルの出力結果に対応する類別であり、そうでなければ、合併後の予測枠の属する類別は、1次元時間検出モデルの出力結果に対応する類別である。
前記時間類/天気類1次元シーンの平均動的変化率は、連続する3つのフレーム画像のいくつかのセットの間の動的変化率の平均値である。
ステップ1において、時間類、天気類、目標類の3つの1次元シーンのそれぞれに対してYOLOv3を学習し、1次元シーン向けの3種類の目標検出モデルである1次元時間検出モデル、1次元天気検出モデル、1次元目標検出モデルを得る。
ステップ2において、1次元時間検出モデル、1次元天気検出モデルおよび1次元目標検出モデルに基づいて、それぞれ検出対象画像に対して目標検出を行う。
ステップ3において、ステップ2の目標検出結果を階層的に結合し、検出対象画像の最終検出結果を出力する。
(1)必要に応じて、時間類1次元シーンをm1種類、天気類1次元シーンをm2種類、目標類1次元シーンをm3+1種類に分類する。
(2)時間類1次元シーンの各類別に対して、各類別の学習サンプルをラベリングし、YOLOv3を学習し、m1個の1次元時間検出モデルを得る。
天気類1次元シーンの各類別に対して、各類別の学習サンプルをラベリングし、YOLOv3を学習し、m2個の1次元天気検出モデルを得る。
目標類1次元シーンの各類別に対して、各類別の学習サンプルをラベリングし、YOLOv3を学習し、m3個の1次元目標検出モデルを得る。
ここで、1次元時間検出モデルおよび1次元天気検出モデルは、いずれもm3種類の目標および1種類のその他に対応するm3+1個の出力を含み、1次元目標検出モデルは、1種類の目標および1種類のその他に対応する2個の出力を含む。
昼/夜/未明/夕方などの異なる時間シーン、晴れ/曇り/雨/雪などの異なる天気シーンの交通の複雑な環境、および、自動車、非自動車、歩行者、その他などの目標タイプの交通多目標に対して、3次元シーン空間を構築する思想方法を提案する。この3つの次元のシーンは、それぞれ、時間、天気、目標類の1次元シーンであり、そのうち、時間類の1次元シーンは、未明/夕方/…の計m1種類に分けられ、天気類の1次元シーンは、晴れ/曇り/…の計m2種類に分けられ、目標類の1次元シーンは、自動車/非自動車/歩行者/…/その他の計m3+1種類に分けられる。
時間類、天気類、目標類の1次元シーンに対して、それぞれ、対応するサンプルデータを選択する。
データラベリングツールlabelimgを用いて、S102で収集したサンプルデータに対してサンプルラベリングを行う。
ラベリングしたデータセットをYOLOv3モデルの学習に用いると、全部でm1個の1次元時間検出モデル、m2個の1次元天気検出モデル、m3個の1次元目標検出モデルを得ることができる。そのうち、1次元時間検出モデル/1次元天気検出モデルの出力は、いずれも自動車/非自動車/歩行者/…/その他の計m3+1個の出力であり、1次元目標検出モデルの出力は「自動車/その他」、「非自動車/その他」、「歩行者/その他」・・・の1つである。
m3個の1次元目標検出モデルの出力結果を1次元時間検出モデルの出力結果と融合させるとともに、m3個の1次元目標検出モデルの出力結果を1次元天気検出モデルの出力結果と融合させる。これは、第1階層的結合である。
第1階層的結合の2つの融合結果をさらに融合させて出力する。これは、第2階層的結合である。
(a)適合度が異なれば、合併後の予測枠の所属類別および確率は、対応適合度が小さい予測枠の所属類別および確率となる。
(b)適合度が同じであれば、合併後の予測枠の所属類別および確率は、対応確率が大きい予測枠の所属類別および確率となる。
d1=d+δ×BV
ここで、dは、誤検出ベース閾値であり、δは、係数であり、BVは、背景差分であり、
(付記1)
時間類、天気類、目標類のシーンを含む3次元シーン空間である知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法であって、具体的には、
時間類、天気類、目標類の3つの1次元シーンのそれぞれに対してYOLOv3を学習し、1次元シーン向けの3種類の目標検出モデルである1次元時間検出モデル、1次元天気検出モデル、1次元目標検出モデルを得るステップ1と、
1次元時間検出モデル、1次元天気検出モデルおよび1次元目標検出モデルに基づいて、それぞれ検出対象画像に対して目標検出を行うステップ2と、
ステップ2の目標検出結果を階層的に結合し、検出対象画像の最終検出結果を出力するステップ3とを含むことを特徴とする、
知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法。
付記1に記載の知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法であって、
前記ステップ1で、1次元シーン向けの3種類の目標検出モデルを構築し、具体的には、以下のとおりであることを特徴とする、
知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法。
(1)必要に応じて、時間類1次元シーンをm1種類、天気類1次元シーンをm2種類、目標類1次元シーンをm3+1種類に分類する。
(2)時間類1次元シーンの各類別に対して、各類別の学習サンプルをラベリングし、YOLOv3を学習し、m1個の1次元時間検出モデルを得る。
天気類1次元シーンの各類別に対して、各類別の学習サンプルをラベリングし、YOLOv3を学習し、m2個の1次元天気検出モデルを得る。
目標類1次元シーンの各類別に対して、各類別の学習サンプルをラベリングし、YOLOv3を学習し、m3個の1次元目標検出モデルを得る。
ここで、1次元時間検出モデルおよび1次元天気検出モデルは、いずれもm3種類の目標および1種類のその他に対応するm3+1個の出力を含み、1次元目標検出モデルは、1種類の目標および1種類のその他に対応する2個の出力を含む。
付記2に記載の知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法であって、
前記ステップ2で、検出対象画像の時間類1次元シーンおよび天気類1次元シーンにおける類別に基づいて、対応する1次元時間検出モデル、1次元天気検出モデルを選択し、検出対象画像に対して目標検出を行うことを特徴とする、
知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法。
付記3に記載の知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法であって、
前記ステップ3における階層的結合は、具体的には、以下のとおりであることを特徴とする、
知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法。
(1)第1階層的結合:m3個の1次元目標検出モデルの出力結果をそれぞれ1次元時間検出モデルの出力結果と融合させるとともに、m3個の1次元目標検出モデルを1次元天気検出モデルの出力結果と融合させる。
(2)第2階層的結合:第1階層的結合の2つの融合結果をさらに融合させる。
付記4に記載の知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法であって、
前記第1階層的結合に際して、m3個の1次元目標検出モデルと1次元時間検出モデル/1次元天気検出モデルの出力結果を重ね合わせ、重ね合わせた結果に対して以下の処理を行って融合結果を出力することを特徴とする、
知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法。
(ア)互いに重複している予測枠を1つの予測枠に合併し、重複していない他の予測枠をそのまま保持する。前記合併の原則は、以下のとおりである。
(1)互いに重複している予測枠のうち、1次元時間検出モデル/1次元天気検出モデルに対応する予測枠と、1次元目標検出モデルに対応するいずれかの予測枠とは、属する類別が同一であり、かつ、属する類別がその他でなければ、合併後の予測枠が属する類別は、その同一類別である。
(2)互いに重複している予測枠のうち、1次元時間検出モデル/1次元天気検出モデルに対応する予測枠と、1次元目標検出モデルに対応する全ての予測枠とは、属する類別がいずれもその他であれば、合併後の予測枠が属する類別は、その他である。
(3)互いに重複している予測枠のうち、1次元時間検出モデル/1次元天気検出モデルに対応する予測枠と、いずれかの1次元目標検出モデルに対応する予測枠とは、属する類別がいずれも一致しなければ、
(4)互いに重複している予測枠のうち、1次元時間検出モデル/1次元天気検出モデルに対応する予測枠がなければ、(a)全ての予測枠の属する類別が同一であると、合併後の予測枠の属する類別は、その他である。(b)所属類別が他の予測枠と異なる予測枠Bが1つ存在する場合、合併後の予測枠の属する類別は、その予測枠Bの所属類別である。
(イ)ほかと重ならない単一の予測枠について、その予測枠を一時的に保存し、その所属類別の確率をそのまま保持する。
付記4に記載の知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法であって、
前記第2階層的結合は、具体的には、第1階層的結合の2つの融合結果を重ね合わせ、重ね合わせた結果を以下のように処理して最終検出結果を出力することを特徴とする、
知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法。
(ア)互いに重複している予測枠について、それらを1つの予測枠に合併し、次の規則にしたがって、合併後の予測枠の属する類別を判断する。
(1)互いに重複している予測枠の属する類別が同一であれば、合併後の予測枠の属する類別は、その同一類別である。
(2)互いに重複している予測枠の属する類別が異なるであれば、予測枠に対応する適合度を比較する。
(a)適合度が異なれば、合併後の予測枠の所属類別および確率は、対応適合度が小さい予測枠の所属類別および確率となる。
(b)適合度が同じであれば、合併後の予測枠の所属類別および確率は、対応確率が大きい予測枠の所属類別および確率となる。
(イ)ほかと重ならない単一の予測枠について、その予測枠の属する類別の確率が誤検出閾値未満であればその予測枠を削除し、そうでなければその予測枠を保持し、確率をそのまま保持する。
付記5または6に記載の知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法であって、
第1階層/第2階層的結合の際に、互いに重複している予測枠のうち、属する類別が同じものが存在する場合には、合併後の予測枠の属する類別の確率を更新し、更新後の確率は、
ここで、qは、互いに重複している予測枠のうち、属する類別が同じである予測枠の数を示し、
知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法。
付記7に記載の知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法であって、
前記誤検出閾値d1の式は、以下のように定義されることを特徴とする、
知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法。
d1=d+δ×BV
ここで、dは、誤検出ベース閾値であり、δは、係数であり、BVは、背景差分であり、
HCurrenti、SCurrenti、VCurrentiは、それぞれ、検出対象画像の色相H、彩度S、明度Vの3つの成分がiの値をとる個数を示し、HBasei、SBasei、VBaseiは、基準画像のH、S、Vの3成分がiの値をとる個数を示し、H+S+Vは、検出対象画像および基準画像におけるH、S、Vの3成分の合計個数を示す。
付記7に記載の知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法であって、
前記適合度は、時間類1次元シーン適合度と天気類1次元シーン適合度の2種類に分けられ、
検出対象画像の時間類1次元シーン適合度
APMTCurrent>APMWCurrentであれば、合併後の予測枠の属する類別は、1次元天気検出モデルの出力結果に対応する類別であり、そうでなければ、合併後の予測枠の属する類別は、1次元時間検出モデルの出力結果に対応する類別であることを特徴とする、
知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法。
付記9に記載の知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法であって、
前記動的変化率は、検出対象画像とその前後2フレーム画像との間の階調分布変化率の平均値であり、検出対象画像と前/後フレーム画像との間の階調分布変化率は、以下であり、
前記時間類/天気類1次元シーンの平均動的変化率は、連続する3つのフレーム画像のいくつかのセットの間の動的変化率の平均値であることを特徴とする、
知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法。
Claims (9)
- 時間類、天気類、目標類のシーンを含む3次元シーン空間である知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法であって、具体的には、
時間類、天気類、目標類の3つの1次元シーンのそれぞれに対してYOLOv3を学習し、1次元シーン向けの3種類の目標検出モデルである1次元時間検出モデル、1次元天気検出モデル、1次元目標検出モデルを得るステップ1と、
1次元時間検出モデル、1次元天気検出モデルおよび1次元目標検出モデルに基づいて、それぞれ検出対象画像に対して目標検出を行うステップ2と、
ステップ2の目標検出結果を階層的に結合し、検出対象画像の最終検出結果を出力するステップ3とを含み、
前記ステップ1で、1次元シーン向けの3種類の目標検出モデルを構築し、具体的には、以下のとおりであることを特徴とする、
知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法。
(1)必要に応じて、時間類1次元シーンをm1種類、天気類1次元シーンをm2種類、目標類1次元シーンをm3+1種類に分類する。
(2)時間類1次元シーンの各類別に対して、各類別の学習サンプルをラベリングし、YOLOv3を学習し、m1個の1次元時間検出モデルを得る。
天気類1次元シーンの各類別に対して、各類別の学習サンプルをラベリングし、YOLOv3を学習し、m2個の1次元天気検出モデルを得る。
目標類1次元シーンの各類別に対して、各類別の学習サンプルをラベリングし、YOLOv3を学習し、m3個の1次元目標検出モデルを得る。
ここで、1次元時間検出モデルおよび1次元天気検出モデルは、いずれもm3種類の目標および1種類のその他に対応するm3+1個の出力を含み、1次元目標検出モデルは、1種類の目標および1種類のその他に対応する2個の出力を含む。 - 請求項1に記載の知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法であって、
前記ステップ2で、検出対象画像の時間類1次元シーンおよび天気類1次元シーンにおける類別に基づいて、対応する1次元時間検出モデル、1次元天気検出モデルを選択し、検出対象画像に対して目標検出を行うことを特徴とする、
知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法。 - 請求項2に記載の知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法であって、
前記ステップ3における階層的結合は、具体的には、以下のとおりであることを特徴とする、
知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法。
(1)第1階層的結合:m3個の1次元目標検出モデルの出力結果をそれぞれ1次元時間検出モデルの出力結果と融合させるとともに、m3個の1次元目標検出モデルを1次元天気検出モデルの出力結果と融合させる。
(2)第2階層的結合:第1階層的結合の2つの融合結果をさらに融合させる。 - 請求項3に記載の知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法であって、
前記第1階層的結合に際して、m3個の1次元目標検出モデルと1次元時間検出モデル/1次元天気検出モデルの出力結果を重ね合わせ、重ね合わせた結果に対して以下の処理を行って融合結果を出力することを特徴とする、
知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法。
(ア)互いに重複している予測枠を1つの予測枠に合併し、重複していない他の予測枠をそのまま保持する。前記合併の原則は、以下のとおりである。
(1)互いに重複している予測枠のうち、1次元時間検出モデル/1次元天気検出モデルに対応する予測枠と、1次元目標検出モデルに対応するいずれかの予測枠とは、属する類別が同一であり、かつ、属する類別がその他でなければ、合併後の予測枠が属する類別は、その同一類別である。
(2)互いに重複している予測枠のうち、1次元時間検出モデル/1次元天気検出モデルに対応する予測枠と、1次元目標検出モデルに対応する全ての予測枠とは、属する類別がいずれもその他であれば、合併後の予測枠が属する類別は、その他である。
(3)互いに重複している予測枠のうち、1次元時間検出モデル/1次元天気検出モデルに対応する予測枠と、いずれかの1次元目標検出モデルに対応する予測枠とは、属する類別がいずれも一致しなければ、
(4)互いに重複している予測枠のうち、1次元時間検出モデル/1次元天気検出モデルに対応する予測枠がなければ、(a)全ての予測枠の属する類別が同一であると、合併後の予測枠の属する類別は、その他である。(b)所属類別が他の予測枠と異なる予測枠Bが1つ存在する場合、合併後の予測枠の属する類別は、その予測枠Bの所属類別である。
(イ)ほかと重ならない単一の予測枠について、その予測枠を一時的に保存し、その所属類別の確率をそのまま保持する。 - 請求項3に記載の知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法であって、
前記第2階層的結合は、具体的には、第1階層的結合の2つの融合結果を重ね合わせ、重ね合わせた結果を以下のように処理して最終検出結果を出力することを特徴とする、
知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法。
(ア)互いに重複している予測枠について、それらを1つの予測枠に合併し、次の規則にしたがって、合併後の予測枠の属する類別を判断する。
(1)互いに重複している予測枠の属する類別が同一であれば、合併後の予測枠の属する類別は、その同一類別である。
(2)互いに重複している予測枠の属する類別が異なるであれば、予測枠に対応する適合度を比較する。
(a)適合度が異なれば、合併後の予測枠の所属類別および確率は、対応適合度が小さい予測枠の所属類別および確率となる。
(b)適合度が同じであれば、合併後の予測枠の所属類別および確率は、対応確率が大きい予測枠の所属類別および確率となる。
(イ)ほかと重ならない単一の予測枠について、その予測枠の属する類別の確率が誤検出閾値未満であればその予測枠を削除し、そうでなければその予測枠を保持し、確率をそのまま保持する。 - 請求項5に記載の知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法であって、
前記誤検出閾値の式は、以下のように定義されることを特徴とする、
知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法。
d1=d+δ×BV
ここで、dは、誤検出ベース閾値であり、δは、係数であり、BVは、背景差分であり、
HCurrenti、SCurrenti、VCurrentiは、それぞれ、検出対象画像の色相H、彩度S、明度Vの3つの成分がiの値をとる個数を示し、HBasei、SBasei、VBaseiは、基準画像のH、S、Vの3成分がiの値をとる個数を示し、H+S+Vは、検出対象画像および基準画像におけるH、S、Vの3成分の合計個数を示す。 - 請求項4から6のいずれか1項に記載の知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法であって、
第1階層/第2階層的結合の際に、互いに重複している予測枠のうち、属する類別が同じものが存在する場合には、合併後の予測枠の属する類別の確率を更新し、更新後の確率は、
ここで、qは、互いに重複している予測枠のうち、属する類別が同じである予測枠の数を示し、
知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法。 - 請求項5に記載の知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法であって、
前記適合度は、時間類1次元シーン適合度と天気類1次元シーン適合度の2種類に分けられ、
検出対象画像の時間類1次元シーン適合度
APMTCurrent>APMWCurrentであれば、合併後の予測枠の属する類別は、1次元天気検出モデルの出力結果に対応する類別であり、そうでなければ、合併後の予測枠の属する類別は、1次元時間検出モデルの出力結果に対応する類別であることを特徴とする、
知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法。 - 請求項8に記載の知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法であって、
前記検出対象画像の動的変化率は、検出対象画像とその前後2フレーム画像との間の階調分布変化率の平均値であり、検出対象画像と前/後フレーム画像との間の階調分布変化率は、以下であり、
前記時間類/天気類1次元シーンの平均動的変化率は、連続する3つのフレーム画像のいくつかのセットの間の動的変化率の平均値であることを特徴とする、
知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210337923.0A CN114842428A (zh) | 2022-03-31 | 2022-03-31 | 面向智慧交通的复杂多目标分层分级联合精准检测方法 |
CN202210337923.0 | 2022-03-31 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7320307B1 true JP7320307B1 (ja) | 2023-08-03 |
JP2023152231A JP2023152231A (ja) | 2023-10-16 |
Family
ID=82564816
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022077903A Active JP7320307B1 (ja) | 2022-03-31 | 2022-05-11 | 知的交通に向けた複雑な多目標の精密な階層的等級的結合検出方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7320307B1 (ja) |
CN (1) | CN114842428A (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111047879A (zh) | 2019-12-24 | 2020-04-21 | 苏州奥易克斯汽车电子有限公司 | 一种车辆超速检测方法 |
KR102122850B1 (ko) | 2020-03-03 | 2020-06-15 | (주)사라다 | 딥 러닝 기반의 교통분석 및 차량번호 인식 솔루션 |
CN112487911A (zh) | 2020-11-24 | 2021-03-12 | 中国信息通信科技集团有限公司 | 智能监控环境下基于改进yolov3的实时行人检测方法及装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108960266B (zh) * | 2017-05-22 | 2022-02-08 | 阿里巴巴集团控股有限公司 | 图像目标检测方法及装置 |
CN107481327B (zh) * | 2017-09-08 | 2019-03-15 | 腾讯科技(深圳)有限公司 | 关于增强现实场景的处理方法、装置、终端设备及系统 |
CN111222574B (zh) * | 2020-01-07 | 2022-04-05 | 西北工业大学 | 基于多模型决策级融合的舰船与民船目标检测与分类方法 |
-
2022
- 2022-03-31 CN CN202210337923.0A patent/CN114842428A/zh active Pending
- 2022-05-11 JP JP2022077903A patent/JP7320307B1/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111047879A (zh) | 2019-12-24 | 2020-04-21 | 苏州奥易克斯汽车电子有限公司 | 一种车辆超速检测方法 |
KR102122850B1 (ko) | 2020-03-03 | 2020-06-15 | (주)사라다 | 딥 러닝 기반의 교통분석 및 차량번호 인식 솔루션 |
CN112487911A (zh) | 2020-11-24 | 2021-03-12 | 中国信息通信科技集团有限公司 | 智能监控环境下基于改进yolov3的实时行人检测方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN114842428A (zh) | 2022-08-02 |
JP2023152231A (ja) | 2023-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109977812B (zh) | 一种基于深度学习的车载视频目标检测方法 | |
CN111368687B (zh) | 一种基于目标检测和语义分割的人行道车辆违停检测方法 | |
CN109447018B (zh) | 一种基于改进Faster R-CNN的道路环境视觉感知方法 | |
CN111860274B (zh) | 基于头部朝向与上半身骨架特征的交警指挥手势识别方法 | |
CN113762209A (zh) | 一种基于yolo的多尺度并行特征融合路标检测方法 | |
CN112990065B (zh) | 一种基于优化的YOLOv5模型的车辆分类检测方法 | |
CN112364855A (zh) | 一种基于多尺度特征融合的视频目标检测方法及系统 | |
CN116484971A (zh) | 车辆的自动驾驶感知自学习方法、装置及电子设备 | |
CN113361528B (zh) | 一种多尺度目标检测方法及系统 | |
CN115376108A (zh) | 一种复杂天气下障碍物检测方法及装置 | |
CN113205107A (zh) | 一种基于改进高效率网络的车型识别方法 | |
CN112669615B (zh) | 一种基于摄像头的停车位检测方法和系统 | |
CN114627437B (zh) | 一种交通目标识别方法及系统 | |
CN114913498A (zh) | 一种基于关键点估计的并行多尺度特征聚合车道线检测方法 | |
CN116630702A (zh) | 一种基于语义分割网络的路面附着系数预测方法 | |
CN114419603A (zh) | 一种自动驾驶车辆控制方法、系统和自动驾驶车辆 | |
CN114898243A (zh) | 基于视频流的交通场景解析方法以及装置 | |
CN116071747A (zh) | 一种基于3d点云数据和2d图像数据融合匹配语义分割方法 | |
CN118155183A (zh) | 一种深度多模态感知的非结构化场景自动驾驶网络架构方法 | |
CN114863122A (zh) | 一种基于人工智能的智能化高精度路面病害识别方法 | |
CN112785610B (zh) | 一种融合低层特征的车道线语义分割方法 | |
CN110909656A (zh) | 一种雷达与摄像机融合的行人检测方法和系统 | |
CN112634289B (zh) | 一种基于非对称空洞卷积的快速可行域分割方法 | |
CN114255450A (zh) | 一种基于前向全景图像的近场车辆加塞行为预测方法 | |
CN113269119A (zh) | 一种夜间车辆检测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220711 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230623 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230711 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230714 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7320307 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |