JP2021051530A - 画像処理プログラム及び画像処理装置 - Google Patents

画像処理プログラム及び画像処理装置 Download PDF

Info

Publication number
JP2021051530A
JP2021051530A JP2019173772A JP2019173772A JP2021051530A JP 2021051530 A JP2021051530 A JP 2021051530A JP 2019173772 A JP2019173772 A JP 2019173772A JP 2019173772 A JP2019173772 A JP 2019173772A JP 2021051530 A JP2021051530 A JP 2021051530A
Authority
JP
Japan
Prior art keywords
layers
feature information
image
region
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019173772A
Other languages
English (en)
Inventor
原 英之
Hideyuki Hara
英之 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Isuzu Motors Ltd
Original Assignee
Isuzu Motors Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Isuzu Motors Ltd filed Critical Isuzu Motors Ltd
Priority to JP2019173772A priority Critical patent/JP2021051530A/ja
Publication of JP2021051530A publication Critical patent/JP2021051530A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】処理負荷を軽減しつつ、従来と同程度以上の精度で領域分割及び物体検出を同時に行う画像処理プログラム及び画像処理装置を提供する。【解決手段】画像処理装置において制御部は、第1の層数の層を有するダウンサンプリングネットワークを構成し、第1の層数の層のそれぞれに対応して、入力された撮像画像の特徴を示す複数の第1特徴情報を抽出するエンコーダ、第2の層数の層を有するアップサンプリングネットワークを構成し、複数の第1特徴情報の入力に対して、第2の層数の層の夫々に対応して、撮像画像を、検出対象の物体を示す物体領域を含む複数の領域に分割するために用いられる複数の第2特徴情報を生成し、撮像画像を複数の領域に分割した分割領域画像を生成して出力するデコーダ及びデコーダが第2の層数の層のそれぞれに対して生成した複数の第2特徴情報に基づいて、検出対象の物体を示す矩形領域を検出する領域検出部を有する。【選択図】図2

Description

本発明は、画像処理プログラム及び画像処理装置に関する。
近年、深層学習モデルを用いて撮像画像を解析することが行われている。例えば、非特許文献1及び非特許文献2には、撮像画像から、深層学習モデルを用いて検出対象の物体を検出することが開示されている。また、非特許文献3には、撮像画像を複数の領域に分割することで、検出対象の領域を検出することが開示されている。
W. Liu, et al. "SSD: Single Shot Multibox Detector" European Conference on Computer Vision (ECCV), 2016, p.21-37 T. Lin, et al. "Focal Loss for Dense Object Detection" The IEEE International Conference on Computer Vision, 2017, p.2980-2988 O. Ronneberger, et al."U-net:Convolutional Networks for Biomedical Image Segmentation" Medical Image Computing and Computer-Assisted Intervention (MICCAI), 2015, p.234-241
図4は、従来の領域分割及び物体検出に係るシングルタスク深層学習モデルを示す図である。図5は、図4の二つのタスクの深層学習モデルを組み合わせた、従来の領域分割及び物体検出に係るマルチタスク深層学習モデルを示す図である。従来の領域分割及び物体検出は、図4に示すように、領域分割及び物体検出のそれぞれに対応するシングルタスク深層学習モデルを個別に実行するか、図5に示すように、撮像画像の特徴情報を抽出するエンコーダのみを共通化したマルチタスク深層学習モデルを実行することで行われる。しかしながら、従来の領域分割及び物体検出に係るタスク実行手法では双方の結果を得るのに、多くの計算資源が必要となる又は物体検出の精度を向上させにくいという問題があった。
そこで、本発明はこれらの点に鑑みてなされたものであり、処理負荷を軽減しつつ従来の手法と同程度以上の精度で領域分割及び物体検出を同時に行うことができる画像処理プログラム及び画像処理装置を提供することを目的とする。
本発明の第1の態様に係る画像処理プログラムは、コンピュータを、第1の層数の層を有するダウンサンプリングネットワークを構成し、前記ダウンサンプリングネットワークにより、撮像装置が撮像した撮像画像の入力に対して、前記第1の層数の層のそれぞれに対応して、前記撮像画像の特徴を示す複数の第1特徴情報を抽出する抽出部、第2の層数の層を有するアップサンプリングネットワークを構成し、前記アップサンプリングネットワークにより、前記抽出部が抽出した前記複数の第1特徴情報の入力に対して、前記第2の層数の層のそれぞれに対応して、前記撮像画像を、検出対象の物体を示す物体領域と、前記物体領域とは異なる非物体領域とを含む複数の領域に分割するために用いられる複数の第2特徴情報を生成し、前記複数の第2特徴情報に基づいて、前記撮像画像を前記複数の領域に分割した分割領域画像を生成して出力する画像生成部、及び、前記画像生成部が前記第2の層数の層のそれぞれに対応して生成した前記複数の第2特徴情報に基づいて、前記検出対象の物体を示す矩形領域を検出する領域検出部、として機能させる。
前記画像生成部は、前記アップサンプリングネットワークにより、前記複数の第2特徴情報に基づいて前記分割領域画像を生成して出力するとともに、前記複数の第2特徴情報に基づいて、前記撮像画像を構成する複数の画素のそれぞれについて、当該画素に対応する被写体と、前記撮像装置との距離を推測した距離画像を生成して出力してもよい。
前記領域検出部は、前記抽出部が前記第1の層数の層のそれぞれに対応して抽出した前記複数の第1特徴情報と、前記画像生成部が前記第2の層数の層のそれぞれに対応して生成した前記複数の第2特徴情報とに基づいて、前記検出対象の物体を示す矩形領域を検出してもよい。
本発明の第2の態様に係る画像処理装置は、第1の層数の層を有するダウンサンプリングネットワークを構成し、前記ダウンサンプリングネットワークにより、撮像装置が撮像した撮像画像の入力に対して、前記第1の層数の層のそれぞれに対応して、前記撮像画像の特徴を示す複数の第1特徴情報を抽出する抽出部と、第2の層数の層を有するアップサンプリングネットワークを構成し、前記アップサンプリングネットワークにより、前記抽出部が抽出した前記複数の第1特徴情報の入力に対して、前記第2の層数の層のそれぞれに対応して、前記撮像画像を、検出対象の物体を示す物体領域と、前記物体領域とは異なる非物体領域とを含む複数の領域に分割するために用いられる複数の第2特徴情報を生成し、前記複数の第2特徴情報に基づいて、前記撮像画像を前記複数の領域に分割した分割領域画像を生成して出力する画像生成部と、前記画像生成部が前記第2の層数の層のそれぞれに対応して生成した前記複数の第2特徴情報に基づいて、前記検出対象の物体を示す矩形領域を検出する領域検出部と、を備える。
本発明によれば、処理負荷を軽減しつつ、従来の手法と同程度以上の精度で領域分割及び物体検出を同時に行うことができるという効果を奏する。
第1実施形態に係るマルチタスク深層学習モデルを説明する図である。 第1実施形態に係る画像処理装置の構成を示す図である。 第2実施形態に係るマルチタスク深層学習モデルを説明する図である。 従来の領域分割及び物体検出に係るシングルタスク深層学習モデルを示す図である。 従来の領域分割及び物体検出に係るマルチタスク深層学習モデルを示す図である。
<第1実施形態>
図1は、第1実施形態に係るマルチタスク深層学習モデルMを説明する図である。マルチタスク深層学習モデルMは、例えば、乗用車、バス、トラック等の車両に搭載された撮像装置が撮像した撮像画像に対して、領域分割処理及び物体検出処理を同時に実行する画像処理プログラムである。
領域分割処理は、撮像画像を、検出対象の物体を示す物体領域と、当該物体領域とは異なる領域である非物体領域とを含む複数の領域に分割した分割領域画像を生成する処理である。ここで、検出対象の物体は、車両の周辺を走行する他の車両や、当該車両の周辺に存在する障害物等であり、物体領域は、これらの他の車両及び障害物を示す領域である。図1に示す例では、分割領域画像における黒色の領域が、物体領域を示している。非物体領域には、例えば、車両が走行可能な道路を示す道路領域、道路上の白線を示す白線領域、歩道を示す歩道領域、風景を示す風景領域などが含まれる。
物体検出処理は、撮像画像から、検出対象の物体の少なくとも一部を囲む矩形領域を検出する処理である。図1に示す例では、矩形領域として、3つの矩形領域Obj1〜Obj3が検出されている。
図1に示すように、マルチタスク深層学習モデルMは、抽出部としてのエンコーダ11、画像生成部としてのデコーダ12、及び領域検出部13として機能する。なお、マルチタスク深層学習モデルMは、予め収集された、領域分割及び物体検出用の学習データセットにより、予め学習されているものとする。また、図1に示すマルチタスク深層学習モデルMでは、説明を簡単にするために、エンコーダ11及びデコーダ12が多数の層から構成される5つのブロックを有し、領域検出部13が3つのブロックを有するものとする。なお、エンコーダ11、デコーダ12、及び、領域検出部13は、実際には図1に示すよりも多くの層又は少ない層を有してもよい。
エンコーダ11は、第1の層数の層を有し、複数の畳み込み層及び複数のプーリング層を重ねたダウンサンプリングネットワークを構成している。エンコーダ11は、ダウンサンプリングネットワークにより、撮像装置が撮像した撮像画像の入力に対して、畳み込み及びプーリングを行うことにより、撮像画像の特徴抽出及びダウンサンプリングを行う。エンコーダ11は、第1の層数の層のそれぞれに対応して、撮像画像の特徴を示す複数の第1特徴情報を抽出する。
デコーダ12は、第2の層数の層を有し、エンコーダ11のダウンサンプリングネットワークと対称になるように複数の畳み込み層及び複数のアップサンプリング層(アンプーリング層)を重ねたアップサンプリングネットワークを構成している。なお、第1実施形態において、エンコーダとデコーダが対称であり、第1の層数と、第2の層数とは同じ層数であるものとするが、これに限らず、第2の層数が、第1の層数に比べて少なくてもよい。また、エンコーダとデコーダが非対称な形状であってもよい。例えば、デコーダ12の上位層側の複数の処理ブロック又は層を削除することにより、第2の層数を第1の層数よりも少なくしてもよい。このようにすることで、デコーダ12における計算時間を短縮することができる。
デコーダ12は、アップサンプリングネットワークにより、エンコーダ11から入力された第1特徴情報について、畳み込み及びアップサンプリング(アンプーリング)を行うことにより、撮像画像を複数の領域に分割するために用いられる複数の第2特徴情報を生成する。なお、第1実施形態において、アップサンプリングを実施する手段は畳み込み及びアンプーリングに限らない。例えば、畳み込み及びアンプーリングの代わりに転置畳み込み処理を適用してもよい。そして、デコーダ12は、複数の第2特徴情報に基づいて、撮像画像を複数の領域に分割した分割領域画像を生成して出力する。
具体的には、アップサンプリングネットワークにおける最も低解像度の層には、エンコーダ11が有するダウンサンプリングネットワークの最も低解像度の層において抽出された第1特徴情報が入力される。アップサンプリングネットワークにおける最も低解像度の層では、第1特徴情報に基づいて第2特徴情報を生成し、生成した第2特徴情報を最も低解像度の層よりも1つ上位の解像度の層に出力する。
アップサンプリングネットワークにおける最も低解像度の層以外の層には、エンコーダ11が有するダウンサンプリングネットワークの同様の解像度の階層の層において抽出された第1特徴情報と、一つ下の解像度の層において生成された第2特徴情報とが入力される。アップサンプリングネットワークにおける最も低解像度の層以外の層では、入力された第1特徴情報と第2特徴情報とを統合し、畳み込み又はアップサンプリングを行うことにより、新たに第2特徴情報を生成し、1つ上位の解像度の層に出力する。アップサンプリングネットワークの最上位の解像度の層は、撮像画像を複数の領域に分割した分割領域画像を出力する。
領域検出部13は、第1の層数及び第2の層数とは異なる第3の層数の層を有するニューラルネットワークである。領域検出部13は、第3の層数の層の畳み込み層により構成されており、デコーダ12が有するアップサンプリングネットワークにおける第2の層数の層のそれぞれに対応して生成した複数の第2特徴情報の少なくともいずれかに基づいて、検出対象の物体を示す矩形領域を検出することにより、検出対象の物体を検出する。
マルチタスク深層学習モデルMでは、デコーダ12が、領域分割と物体検出とに共用される。これにより、マルチタスク深層学習モデルMは、図4に示す従来のシングルタスク深層学習モデル、又は図5に示す従来のマルチタスク深層学習モデルを用いる場合に比べて、処理負荷を軽減して、領域分割及び物体検出を行うことができる。また、領域分割及び物体検出は、いずれも同一の検出対象の物体を検出することから、デコーダ12が生成する第2特徴情報に基づいて物体検出を行っても、図4に示す従来の物体検出のシングルタスク深層学習モデルにおいて物体検出を行う場合と同等以上の精度で物体が検出されることが期待できる。したがって、マルチタスク深層学習モデルMは、処理負荷を軽減しつつ従来の手法と同程度以上の精度で物体の検出及び領域の分割を行うことができる。
[画像処理装置1の構成]
続いて、マルチタスク深層学習モデルMを用いた領域分割及び物体検出を行うためのハードウェア構成及び当該ハードウェア構成を用いた場合の領域分割及び物体検出の実行例について説明する。本実施形態において、マルチタスク深層学習モデルMは、画像処理装置1において実行される。図2は、第1実施形態に係る画像処理装置1の構成を示す図である。画像処理装置1は、記憶部2と、制御部3とを備えている。
記憶部2は、例えば、ROM(Read Only Memory)又はRAM(Random Access Memory)である。記憶部2は、制御部3を機能させるための各種のプログラムを記憶する。記憶部2は、制御部3を、エンコーダ11、デコーダ12及び領域検出部13として機能させる画像処理プログラムとして、マルチタスク深層学習モデルMを記憶する。
制御部3は、図示しないCPU(Central Processing Unit)又はGPU(Graphics Processing Unit)等のプロセッサを含む計算リソースである。制御部3は、記憶部2に記憶されているプログラムを実行することにより、取得部14として機能する。また、制御部3は、記憶部2に記憶されているマルチタスク深層学習モデルMとしての画像処理プログラムを実行することにより、エンコーダ11、デコーダ12及び領域検出部13として機能する。
取得部14は、車両に搭載され、当該車両の周辺を撮像する撮像装置20から、予め定められたタイムステップで撮像画像を取得する。取得部14は、予め定められたタイムステップで撮像画像を取得すると、当該撮像画像をエンコーダ11に入力する。
エンコーダ11は、上述したように、第1の層数の層を有するダウンサンプリングネットワークを構成している。エンコーダ11は、ダウンサンプリングネットワークにより、撮像装置20が撮像した撮像画像の入力に対して、第1の層数の層のそれぞれに対応して、撮像画像の特徴を示す複数の第1特徴情報を抽出する。エンコーダ11は、第1の層数の層のそれぞれに対して抽出した第1特徴情報をデコーダ12に出力する。
デコーダ12は、上述したように、第2の層数の層を有するアップサンプリングネットワークを構成している。デコーダ12は、エンコーダ11から複数の第1特徴情報が入力されると、第2の層数の層のそれぞれに対応して複数の第2特徴情報を生成する。デコーダ12は、生成した複数の第2特徴情報を領域検出部13に出力するとともに、当該複数の第2特徴情報に基づいて、撮像画像を複数の領域に分割した分割領域画像を生成して出力する。
領域検出部13は、デコーダ12から複数の第2特徴情報が入力されると、当該複数の第2特徴情報に基づいて、検出対象の物体を示す矩形領域を検出する。領域検出部13は、矩形領域の位置及びサイズを示す矩形領域情報を出力する。
[第1実施形態の効果]
以上説明したように、第1実施形態に係るマルチタスク深層学習モデルMは、コンピュータを、第1の層数の層を有するダウンサンプリングネットワークを構成し、撮像装置20が撮像した撮像画像の入力に対して、第1の層数の層のそれぞれに対応して、撮像画像の特徴を示す複数の第1特徴情報を抽出するエンコーダ11、第2の層数の層を有するアップサンプリングネットワークを構成し、エンコーダ11が抽出した複数の第1特徴情報の入力に対して、第2の層数の層のそれぞれに対応して複数の第2特徴情報を生成し、複数の第2特徴情報に基づいて、撮像画像を複数の領域に分割した分割領域画像を生成して出力するデコーダ12、及び、デコーダ12が第2の層数の層のそれぞれに対応して生成した複数の第2特徴情報に基づいて、検出対象の物体を示す矩形領域を検出する領域検出部13として機能させる。このようにすることで、デコーダ12が生成した複数の第2特徴情報には、画素単位の解像度で検出対象物体の領域分割を実施するための情報が含まれていることから、領域検出部13による同一の検出対象の物体の矩形領域の検出の精度が向上することが期待できる。同時に、マルチタスク深層学習モデルMは、物体検出及び領域分割のタスクでエンコーダ11とデコーダ12の双方を共有しているため、処理負荷を軽減しつつ、従来の手法と同程度以上の精度で領域分割及び物体検出を同時に行うことができる。
<第2実施形態>
[距離画像をさらに生成する]
続いて、第2実施形態について説明する。第2実施形態に係るマルチタスク深層学習モデルMは、撮像画像を構成する複数の画素のそれぞれについて、当該画素に対応する被写体と、撮像装置20との距離を推測した距離画像を生成して出力する点で第1実施形態と異なる。
第2実施形態に係るマルチタスク深層学習モデルMは、予め収集された、領域分割、物体検出、距離画像生成用の学習データセットにより、予め学習されているものとする。
図3は、第2実施形態に係るマルチタスク深層学習モデルMを説明する図である。図3に示すように、マルチタスク深層学習モデルMのデコーダ12は、アップサンプリングネットワークにより、複数の第2特徴情報に基づいて分割領域画像を生成して出力するとともに、複数の第2特徴情報に基づいて、撮像画像を構成する複数の画素のそれぞれについて、当該画素に対応する被写体と撮像装置20との距離を推測した距離画像を生成して出力する。
ここで、例えば、車両として領域分割された撮像画像の領域の複数の画素は撮像装置20から同一の距離に位置している可能性が高いことが推測される。同様に、道路面として領域分割された撮像画像の領域は、撮像画像上部の領域ほど撮像装置20から遠ざかっていくと推測される。このように、分割領域画像に含まれる複数の領域のそれぞれと、これらの領域に対応する距離とは、相関関係を有しているといえる。したがって、デコーダ12を領域分割と、距離画像の生成とで共通化しても、領域分割及び距離画像の生成における精度を維持できることが期待できる。さらに、撮像画像を構成する複数の画素のそれぞれにおける被写体と撮像装置20との位置関係を推測する情報がデコーダ12によって生成される複数の第2特徴情報に含有されることによって、複数の第2特徴情報に基づいて実施される領域検出部13による物体検出の精度が向上することが期待できる。よって、第2実施形態に係るマルチタスク深層学習モデルMは、処理負荷を軽減しつつ、従来の手法と同程度以上の精度で領域分割、物体検出、及び距離画像の生成を同時に行うことができる。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、上述の実施形態では、領域検出部13は、デコーダ12が生成した複数の第2特徴情報に基づいて検出対象の物体を示す矩形領域を検出したが、これに限らない。領域検出部13は、エンコーダ11が第1の層数の層のそれぞれに対応して抽出した複数の第1特徴情報と、デコーダ12が生成した複数の第2特徴情報とに基づいて検出対象の物体を示す矩形領域を検出してもよい。
また、例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。
1 画像処理装置
2 記憶部
3 制御部
11 エンコーダ
12 デコーダ
13 領域検出部
14 取得部
20 撮像装置
M マルチタスク深層学習モデル

Claims (4)

  1. コンピュータを、
    第1の層数の層を有するダウンサンプリングネットワークを構成し、前記ダウンサンプリングネットワークにより、撮像装置が撮像した撮像画像の入力に対して、前記第1の層数の層のそれぞれに対応して、前記撮像画像の特徴を示す複数の第1特徴情報を抽出する抽出部、
    第2の層数の層を有するアップサンプリングネットワークを構成し、前記アップサンプリングネットワークにより、前記抽出部が抽出した前記複数の第1特徴情報の入力に対して、前記第2の層数の層のそれぞれに対応して、前記撮像画像を、検出対象の物体を示す物体領域と、前記物体領域とは異なる非物体領域とを含む複数の領域に分割するために用いられる複数の第2特徴情報を生成し、前記複数の第2特徴情報に基づいて、前記撮像画像を前記複数の領域に分割した分割領域画像を生成して出力する画像生成部、及び、
    前記画像生成部が前記第2の層数の層のそれぞれに対応して生成した前記複数の第2特徴情報に基づいて、前記検出対象の物体を示す矩形領域を検出する領域検出部、
    として機能させる画像処理プログラム。
  2. 前記画像生成部は、前記アップサンプリングネットワークにより、前記複数の第2特徴情報に基づいて前記分割領域画像を生成して出力するとともに、前記複数の第2特徴情報に基づいて、前記撮像画像を構成する複数の画素のそれぞれについて、当該画素に対応する被写体と、前記撮像装置との距離を推測した距離画像を生成して出力する、
    請求項1に記載の画像処理プログラム。
  3. 前記領域検出部は、前記抽出部が前記第1の層数の層のそれぞれに対応して抽出した前記複数の第1特徴情報と、前記画像生成部が前記第2の層数の層のそれぞれに対応して生成した前記複数の第2特徴情報とに基づいて、前記検出対象の物体を示す矩形領域を検出する、
    請求項1又は2に記載の画像処理プログラム。
  4. 第1の層数の層を有するダウンサンプリングネットワークを構成し、前記ダウンサンプリングネットワークにより、撮像装置が撮像した撮像画像の入力に対して、前記第1の層数の層のそれぞれに対応して、前記撮像画像の特徴を示す複数の第1特徴情報を抽出する抽出部と、
    第2の層数の層を有するアップサンプリングネットワークを構成し、前記アップサンプリングネットワークにより、前記抽出部が抽出した前記複数の第1特徴情報の入力に対して、前記第2の層数の層のそれぞれに対応して、前記撮像画像を、検出対象の物体を示す物体領域と、前記物体領域とは異なる非物体領域とを含む複数の領域に分割するために用いられる複数の第2特徴情報を生成し、前記複数の第2特徴情報に基づいて、前記撮像画像を前記複数の領域に分割した分割領域画像を生成して出力する画像生成部と、
    前記画像生成部が前記第2の層数の層のそれぞれに対応して生成した前記複数の第2特徴情報に基づいて、前記検出対象の物体を示す矩形領域を検出する領域検出部と、
    を備える画像処理装置。
JP2019173772A 2019-09-25 2019-09-25 画像処理プログラム及び画像処理装置 Pending JP2021051530A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019173772A JP2021051530A (ja) 2019-09-25 2019-09-25 画像処理プログラム及び画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019173772A JP2021051530A (ja) 2019-09-25 2019-09-25 画像処理プログラム及び画像処理装置

Publications (1)

Publication Number Publication Date
JP2021051530A true JP2021051530A (ja) 2021-04-01

Family

ID=75157310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019173772A Pending JP2021051530A (ja) 2019-09-25 2019-09-25 画像処理プログラム及び画像処理装置

Country Status (1)

Country Link
JP (1) JP2021051530A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115292541A (zh) * 2022-08-04 2022-11-04 腾讯科技(深圳)有限公司 媒体数据的排重方法、目标模型的训练方法和装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115292541A (zh) * 2022-08-04 2022-11-04 腾讯科技(深圳)有限公司 媒体数据的排重方法、目标模型的训练方法和装置

Similar Documents

Publication Publication Date Title
US20210350168A1 (en) Image segmentation method and image processing apparatus
KR102108953B1 (ko) 센서 품질 저하에 강인한 딥러닝 기반 카메라, 라이더 센서 융합 인지 방법 및 시스템
KR102073162B1 (ko) 딥러닝 기반의 소형 물체 검출 기법
JP7012880B2 (ja) ターゲット検出方法及び装置、機器並びに記憶媒体
KR102399017B1 (ko) 이미지 생성 방법 및 장치
JP5975598B2 (ja) 画像処理装置、画像処理方法及びプログラム
WO2017015390A1 (en) Deep multi-task learning framework for face detection, landmark localization, pose estimation, and gender recognition
JP2019061658A (ja) 領域判別器訓練方法、領域判別装置、領域判別器訓練装置及びプログラム
JP4416039B2 (ja) 縞模様検知システム、縞模様検知方法および縞模様検知用プログラム
WO2018051459A1 (ja) 物体検出装置および物体検出方法
RU2012145349A (ru) Способ и устройство обработки изображений для устранения артефактов глубины
KR20210025942A (ko) 종단간 컨볼루셔널 뉴럴 네트워크를 이용한 스테레오 매칭 방법
WO2018168539A1 (ja) 学習方法およびプログラム
KR20230070253A (ko) 포인트 클라우드들로부터의 효율적인 3차원 객체 검출
KR102311796B1 (ko) 지역적 신체영역 정보를 이용한 휴먼 모션 디블러링 방법 및 장치
JP5935435B2 (ja) 画像処理装置、画像処理方法
CN115496923A (zh) 一种基于不确定性感知的多模态融合目标检测方法及装置
JP2019091169A (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
CN114842035A (zh) 基于深度学习的车牌脱敏方法、装置、设备及存储介质
WO2018143277A1 (ja) 画像特徴量出力装置、画像認識装置、画像特徴量出力プログラム、及び画像認識プログラム
JP2021051530A (ja) 画像処理プログラム及び画像処理装置
CN115937825B (zh) 在线俯仰角估计的bev下鲁棒车道线生成方法及装置
JP2013164643A (ja) 画像認識装置、画像認識方法および画像認識プログラム
JP2019220174A (ja) 人工ニューラルネットワークを用いた画像処理
CN116228850A (zh) 物体姿态估计方法、装置、电子设备及可读存储介质