JP7139369B2 - 検出結果分析装置、検出結果分析方法及び検出結果分析プログラム - Google Patents
検出結果分析装置、検出結果分析方法及び検出結果分析プログラム Download PDFInfo
- Publication number
- JP7139369B2 JP7139369B2 JP2020040424A JP2020040424A JP7139369B2 JP 7139369 B2 JP7139369 B2 JP 7139369B2 JP 2020040424 A JP2020040424 A JP 2020040424A JP 2020040424 A JP2020040424 A JP 2020040424A JP 7139369 B2 JP7139369 B2 JP 7139369B2
- Authority
- JP
- Japan
- Prior art keywords
- activity
- evaluation value
- layer
- layers
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Description
なお、2ステージタイプのモデルについても、RoIを絞り込んだ後のプーリング層がGradCAMによる可視化に最も適しているとは限らない。
本開示は、物体検出モデルによる判断根拠となった箇所を可視化するのに適した層を特定可能にすることを目的とする。
画像データに含まれる対象物体を検出する物体検出モデルであって、ニューラルネットワークを用いて構成された物体検出モデルにおける複数の層それぞれを対象の層として、対象の層の出力結果から得られる前記画像データにおける画素毎の活性度を表すヒートマップと、前記対象物体が検出された検出領域とから、前記対象の層の評価値を計算する評価値計算部と、
前記評価値計算部によって計算された前記評価値に基づき、前記複数の層から少なくとも一部の層を選択する層選択部と
を備える。
前記層選択部によって選択された層についての前記ヒートマップを合成して合成マップを生成する合成部
を備える。
評価値計算部が、画像データに含まれる対象物体を検出する物体検出モデルであって、ニューラルネットワークを用いて構成された物体検出モデルにおける複数の層それぞれを対象の層として、対象の層の出力結果から得られる前記画像データにおける画素毎の活性度を表すヒートマップと、前記対象物体が検出された検出領域とから、前記対象の層の評価値を計算し、
層選択部が、前記評価値に基づき、前記複数の層から少なくとも一部の層を選択する。
画像データに含まれる対象物体を検出する物体検出モデルであって、ニューラルネットワークを用いて構成された物体検出モデルにおける複数の層それぞれを対象の層として、対象の層の出力結果から得られる前記画像データにおける画素毎の活性度を表すヒートマップと、前記対象物体が検出された検出領域とから、前記対象の層の評価値を計算する評価値計算処理と、
前記評価値計算処理によって計算された前記評価値に基づき、前記複数の層から少なくとも一部の層を選択する層選択処理と
を行う検出結果分析装置としてコンピュータを機能させる。
***構成の説明***
図1を参照して、実施の形態1に係る検出結果分析装置10の構成を説明する。
検出結果分析装置10は、物体検出モデルによる判断根拠となった箇所を可視化するのに適した層を特定するコンピュータである。
検出結果分析装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
ストレージ13には、検出結果分析装置10の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、検出結果分析装置10の各機能構成要素の機能が実現される。
図2から図6を参照して、実施の形態1に係る検出結果分析装置10の動作を説明する。
実施の形態1に係る検出結果分析装置10の動作手順は、実施の形態1に係る検出結果分析方法に相当する。また、実施の形態1に係る検出結果分析装置10の動作を実現するプログラムは、実施の形態1に係る検出結果分析プログラムに相当する。
物体検出モデルは、画像データに含まれる対象物体を検出するモデルである。物体検出モデルは、ニューラルネットワークを用いて構成されたモデルである。ニューラルネットワークを用いて構成されているため、物体検出モデルは、複数の層から構成される。
画像取得部21は、処理対象とする画像データ31を取得する。
具体的には、画像取得部21は、検出結果分析装置10の利用者によってストレージ13に設定された画像データ31を読み込むことにより、画像データ31を取得する。
評価値計算部22は、物体検出モデルを構成する複数の層それぞれを対象の層として、対象の層の評価値を計算する。
この際、評価値計算部22は、対象の層の出力結果から得られる画像データ31における画素毎の活性度を表すヒートマップ33と、ステップS11で取得された画像データ31から対象物体が検出された検出領域32とから、評価値を計算する。
(図3のステップS21:物体検出処理)
評価値計算部22は、ステップS11で取得された画像データ31を入力として物体検出モデルにより、対象物体を検出する。ここでは、対象物体の種類は事前に指定されていてもよいし、利用者によって指定されてもよい。図4では、対象物体の種類として瓶が指定された場合を示している。
評価値計算部22は、ステップS21で対象物体を検出することによって特定された、対象物体が検出された領域である検出領域32を特定する。
評価値計算部22は、物体検出モデルを構成する複数の層それぞれを対象の層として、ヒートマップ33を生成する。
具体的には、評価値計算部22は、ステップS21で対象物体を検出する際において得られた対象の層の出力結果から、対象の層についてのヒートマップ33を生成する。ヒートマップ33は、ステップS11で取得された画像データ31における画素毎の活性度を表す。ここでは、ヒートマップ33は、活性度が高い画素ほど大きい値を示すとする。
実施の形態1では、ヒートマップ33を生成可能な全ての層それぞれが対象の層として設定されるものとする。しかし、ヒートマップ33を生成可能な全ての層のうち一部の層だけが対象の層として設定されてもよい。例えば、ヒートマップ33を生成可能な全ての層のうち、ある層以降の層のみが対象の層として設定されてもよい。
例えば、ある層では、画素数がステップS11で取得された画像データ31の1/4になっている場合がある。この場合には、1つの画素が、画像データ31の4つの画素を表しているので、評価値計算部22は、1つの画素が画像データ31の4つの画素を表しているとしてヒートマップ33を生成する。
また物体検出モデルによっては、複数の層のうち後に処理される層であっても、出力結果の画像データの画素数が増える場合もある。層により出力結果の画素数が変動する可能性があるが、いずれの場合も画像データ31の画素数に合うように、出力結果の画素数を拡大または縮小すればよい。
評価値計算部22は、ヒートマップ33が生成された複数の層それぞれを対象の層として、対象の層についてステップS23で生成されたヒートマップ33と、ステップS22で特定された検出領域32とから評価値を計算する。
具体的には、評価値計算部22は、対象の層についてのヒートマップが表す活性度の検出領域32の内側と外側との比率から評価値を計算する。実施の形態1では、評価値計算部22は、検出領域32の外側における活性度の合計値に対する、検出領域32の内側における活性度の合計値の割合を評価値として計算する。
図4では、濃いハッチングが付された画素ほど活性度が高いとする。図4では、検出領域32の内側に濃いハッチングが付された画素が多く存在しており、検出領域32の外側には薄めのハッチングが付された画素が少し存在している。そのため、検出領域32の外側における活性度の合計値よりも、検出領域32の内側における活性度の合計値の方が大きな値になり、評価値は1以上の値になる。
層選択部23は、ステップS12で計算された評価値に基づき、物体検出モデルを構成する複数の層から少なくとも一部の層を選択する。
具体的には、層選択部23は、評価値が評価閾値よりも高い層のうち、基準個の層を選択する。したがって、評価値が評価閾値よりも高い層が基準個以上存在する場合には、基準個の層が選択される。一方、評価値が評価閾値よりも高い層が基準個未満しか存在しない場合には、評価値が評価閾値よりも高い全ての層が選択される。
評価閾値は、対象物体の検出にどの程度貢献した層であれば分析対象とするか等に応じて、事前に設定される値である。基準個は、物体検出モデルを構成する層の数等に応じて、事前に設定される値である。
図5では、基準個が5であることが想定されており、層conv11と層conv13と層conv14_1と層conv14_2との4つ全てが選択されている。
合成部24は、ステップS13で選択された層についてのヒートマップ33を合成して合成マップ34を生成する
具体的には、合成部24は、画像データ31の各画素を対象の画素として、ステップS13選択された複数の層それぞれについてのヒートマップが表す対象の画素の活性度のうち、最も高い活性度を、合成マップ34における対象の画素の活性度に設定することにより、合成マップ34を生成する。
例えば、図6に示すように、ある画素pi,jについて、選択された層についてのヒートマップが表す活性度がそれぞれ15、239、76であったとする。この場合には、合成マップ34における画素pi,jについての活性度は、15、239、76のうち最も高い239になる。
以上のように、実施の形態1に係る検出結果分析装置10は、各層について、ヒートマップ33と検出領域32とから評価値を計算し、評価値に基づき層を選択する。これにより、可視化に適した層を特定可能である。
したがって、評価値が高い層を選択するということは、物体検出モデルによる判断根拠となった箇所を可視化するのに適した層を選択するということになる。
図7では、対象物体の種類は自転車である。図7では、自転車全体が検出領域32として特定されず、自転車の前輪からチェーンホイール付近までが検出領域32として特定されている。つまり、物体検出モデルにより適切に自転車が検出されているとは言えない状態である。
合成マップ34では、ペダルと、クランクと、フレームの一部と、前輪の一部とが判断根拠となっている。そして、ハンドルと、サドルと、後輪とについては、判断根拠としてあまり利用されていないことが分かる。そこで、この結果から、例えば、判断根拠としてあまり利用されていないハンドルと、サドルと、後輪とについての学習データを物体検出モデルに与え、学習させることが考えられる。
基準個が1である場合には、合成部24は、選択された層についてのヒートマップ33をそのまま合成マップ34として出力すればよい。
図8では、対象物体の種類はバイクである。図8では、層conv7と層conv9と層conv12と層conv13と層conv14_1と層conv14_2と層conv15_1とが評価閾値である1.0よりも高い評価値が得られたとする。そして、図8では、基準個が5であることが想定されており、層conv9と、層conv12と、層conv14_1と、層conv14_2と、層conv15_1とが選択され、合成マップ34が生成されている。その結果、合成マップ34から、バイクの前輪及び前輪の周辺とハンドルの一部とが判断根拠となった箇所であることが分かる。バイクの場合には、むき出しの車輪が判断根拠となることが多く、合成マップ34から物体検出モデルによって適切に判定されていることが分かる。
ここで、最も評価値が高い層は、層conv9である。そのため、もし基準個が1である場合、つまり評価値が最も高い層だけを選択する場合には、層conv9だけが選択される。すると、合成マップ34からは、ハンドルの一部が判断根拠となった箇所であるように見える。このように、狭い領域にだけ着目しているような層の評価値が最も高くなってしまい、判断根拠となった箇所を適切に表しているとは言えない層だけが選択されてしまう可能性がある。
図9で最も評価値が高い層は、層conv15_1である。そのため、もし基準個が1である場合、つまり評価値が最も高い層だけを選択する場合には、層conv15_1だけが選択される。しかし、層conv15_1では、手前にある自転車の付近のみが活性化しており、奥にある自転車の付近は活性化していない。そのため、このように、複数の対象物体がある場合に、一部の対象物体にだけ着目しているような層の評価値が最も高くなってしまい、判断根拠となった箇所を適切に表しているとは言えない層だけが選択されてしまう可能性がある。
<変形例1>
実施の形態1では、各機能構成要素がソフトウェアで実現された。しかし、変形例1として、各機能構成要素はハードウェアで実現されてもよい。この変形例1について、実施の形態1と異なる点を説明する。
各機能構成要素がハードウェアで実現される場合には、検出結果分析装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、電子回路15を備える。電子回路15は、各機能構成要素と、メモリ12と、ストレージ13との機能とを実現する専用の回路である。
各機能構成要素を1つの電子回路15で実現してもよいし、各機能構成要素を複数の電子回路15に分散させて実現してもよい。
変形例2として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
実施の形態2は、ヒートマップ33が表す各画素の活性度をn値化した上で、評価値を計算する点が実施の形態1と異なる。ここで、nは2以上の整数である。実施の形態2では、この異なる点を説明して、同一の点については説明を省略する。
図11及び図12を参照して、実施の形態2に係る検出結果分析装置10の動作を説明する。
実施の形態2に係る検出結果分析装置10の動作手順は、実施の形態2に係る検出結果分析方法に相当する。また、実施の形態2に係る検出結果分析装置10の動作を実現するプログラムは、実施の形態2に係る検出結果分析プログラムに相当する。
ステップS31からステップS33の処理は、図3のステップS21からステップS23の処理と同じである。
評価値計算部22は、ステップS33で生成された各層のヒートマップ33をn値化する。実施の形態2では、評価値計算部22は、各層のヒートマップ33を2値化する。
具体的には、評価値計算部22は、ヒートマップ33における各画素を対象の画素として、対象の画素の活性度が活性閾値より高い場合には、対象の画素の活性度を1に変換し、対象の画素の活性度が活性閾値以下の場合には、対象の画素の活性度を0に変換する。その結果、図12に示すように、ヒートマップ33において濃いハッチングが付された画素の活性度が1になり、その他の画素の活性度が0になる。図12では、活性度が1の画素を白で表し、活性度が0の画素を黒で表している。
評価値計算部22は、ステップS34で変換された後の活性度を用いて、検出領域32の外側における活性度の合計値に対する、検出領域32の内側における活性度の合計値の割合を評価値として計算する。
図12では、検出領域32の外側における活性度が1の画素が864個であり、検出領域32の内側における活性度が1の画素が2944個である。したがって、評価値は、2944/864≒3.4である。
以上のように、実施の形態2に係る検出結果分析装置10は、ヒートマップ33における各画素の活性度を2値化した上で、評価値を計算する。活性度を2値化することにより、重要な層はより評価値が高くなり、重要でない層はより評価値が低くなる。これにより、より適切に可視化に適した層を特定可能である。
実施の形態2では、2値化の例示として、活性度が活性閾値より高い場合には、変換活性度を1とし、活性度が活性閾値以下の場合には、変換活性度を0とした。活性閾値毎の変換活性度は、任意の数に設定することができる。
<変形例3>
実施の形態2では、ヒートマップ33が2値化された。しかし、2値化に限らず、n値化されてもよい。
例えば3値化の場合、評価値計算部22は、活性閾値として、閾値Xと閾値Yとの2つの閾値を用いる。この場合には、図14に示すように、活性度が閾値X以下の画素については、変換活性度に0が設定される。活性度が閾値Xより高く、閾値Y以下の画素については、変換活性度に0.5が設定される。活性度が閾値Yより高い画素については、変換活性度に1が設定される。
このようにn値化の場合、n-1の活性閾値が設定され、活性閾値毎の変換活性度が設定される。n値化処理については、活性度がi(0<i<n)からi-1で区切られる範囲毎に変換活性度が定まる。n-1の活性閾値より活性度が高い場合は、n-1の活性閾値に対応する変換活性度に変換され、活性度がn-1の活性閾値以下かつ、n-2の活性閾値より高い場合はn-2の活性閾値に対応する変換活性度に変換される。
計算を簡単にするため、例えば、n-1より高い活性閾値に対応する変換活性度を1とし、活性度がn-n+1(=1)以下の活性閾値に対応する変換活性度を0に変換し、n-2から2までについては、変換活性度を1から0の間の値に変換して、n値化する。変換活性度の下限値を0に設定することにより、計算を簡単にすることができる。なお、変換活性度の上限値は1に限らず他の値にしてもよい。
具体的には、図15に示すように、活性度が評価閾値X以下の画素については、活性度に0が設定される。活性度が評価閾値Xより高い画素については、活性度の値が維持される。
各実施の形態における検出結果分析装置10は、無人搬送車(AGV,Automated guided vehicle)に用いられる物体検出モデルに適用してもよい。誘導方式として画像認識方式を採用する無人搬送車においては、床や天井に描かれた記号を読み取り、それによって自車の位置を把握するようにしている。各実施の形態に係る検出結果分析装置10を無人搬送車に用いられる物体検出モデルに適用することにより、無人搬送車に用いられる物体検出モデルの精度を高くすることが可能になる。その結果、より高精度な移動が可能な無人搬送車を提供することが可能になる。
Claims (8)
- 画像データに含まれる対象物体を検出する物体検出モデルであって、ニューラルネットワークを用いて構成された物体検出モデルにおける複数の層それぞれを対象の層として、対象の層の出力結果から得られる前記画像データにおける画素毎の活性度を表すヒートマップと、前記対象物体が検出された検出領域とに基づき、前記ヒートマップが表す前記活性度の前記検出領域の内側と外側との比率から前記対象の層の評価値を計算する評価値計算部と、
前記評価値計算部によって計算された前記評価値に基づき、前記複数の層から少なくとも一部の層を選択する層選択部と
を備える検出結果分析装置。 - 前記評価値計算部は、前記検出領域の外側における前記活性度の合計値に対する、前記検出領域の内側における前記活性度の合計値の割合から前記評価値を計算する
請求項1に記載の検出結果分析装置。 - 前記評価値計算部は、前記活性度が活性閾値よりも高い場合には前記活性度を前記活性閾値に対応する変換活性度に変換し、前記活性度が活性閾値以下の場合には前記活性閾値より1つ下の活性閾値に対応する変換活性度に前記活性度を変換した上で、前記評価値を計算する
請求項2に記載の検出結果分析装置。 - 前記層選択部は、前記評価値が評価閾値よりも高い層のうち、基準個の層を選択する
請求項1から3までのいずれか1項に記載の検出結果分析装置。 - 前記検出結果分析装置は、さらに、
前記層選択部によって選択された層についての前記ヒートマップを合成して合成マップを生成する合成部
を備える請求項1から4までのいずれか1項に記載の検出結果分析装置。 - 前記合成部は、前記画像データの各画素を対象の画素として、選択された前記一部の層それぞれについての前記ヒートマップが表す前記対象の画素の活性度のうち、最も高い活性度を、前記合成マップにおける前記対象の画素の活性度に設定することにより、前記合成マップを生成する
請求項5に記載の検出結果分析装置。 - 評価値計算部が、画像データに含まれる対象物体を検出する物体検出モデルであって、ニューラルネットワークを用いて構成された物体検出モデルにおける複数の層それぞれを対象の層として、対象の層の出力結果から得られる前記画像データにおける画素毎の活性度を表すヒートマップと、前記対象物体が検出された検出領域とに基づき、前記ヒートマップが表す前記活性度の前記検出領域の内側と外側との比率から前記対象の層の評価値を計算し、
層選択部が、前記評価値に基づき、前記複数の層から少なくとも一部の層を選択する検出結果分析方法。 - 画像データに含まれる対象物体を検出する物体検出モデルであって、ニューラルネットワークを用いて構成された物体検出モデルにおける複数の層それぞれを対象の層として、対象の層の出力結果から得られる前記画像データにおける画素毎の活性度を表すヒートマ
ップと、前記対象物体が検出された検出領域とに基づき、前記ヒートマップが表す前記活性度の前記検出領域の内側と外側との比率から前記対象の層の評価値を計算する評価値計算処理と、
前記評価値計算処理によって計算された前記評価値に基づき、前記複数の層から少なくとも一部の層を選択する層選択処理と
を行う検出結果分析装置としてコンピュータを機能させる検出結果分析プログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020040424A JP7139369B2 (ja) | 2020-03-10 | 2020-03-10 | 検出結果分析装置、検出結果分析方法及び検出結果分析プログラム |
PCT/JP2021/000835 WO2021181858A1 (ja) | 2020-03-10 | 2021-01-13 | 検出結果分析装置、検出結果分析方法及び検出結果分析プログラム |
CN202180017889.2A CN115244574A (zh) | 2020-03-10 | 2021-01-13 | 检测结果分析装置、检测结果分析方法和检测结果分析程序 |
EP21767418.3A EP4089632A4 (en) | 2020-03-10 | 2021-01-13 | DETECTION RESULT ANALYZER, DETECTION RESULT ANALYSIS METHOD AND DETECTION RESULT ANALYSIS PROGRAM |
US17/880,333 US20220375200A1 (en) | 2020-03-10 | 2022-08-03 | Detection result analysis device, detection result analysis method, and computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020040424A JP7139369B2 (ja) | 2020-03-10 | 2020-03-10 | 検出結果分析装置、検出結果分析方法及び検出結果分析プログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021140705A JP2021140705A (ja) | 2021-09-16 |
JP2021140705A5 JP2021140705A5 (ja) | 2021-10-28 |
JP7139369B2 true JP7139369B2 (ja) | 2022-09-20 |
Family
ID=77668836
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020040424A Active JP7139369B2 (ja) | 2020-03-10 | 2020-03-10 | 検出結果分析装置、検出結果分析方法及び検出結果分析プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220375200A1 (ja) |
EP (1) | EP4089632A4 (ja) |
JP (1) | JP7139369B2 (ja) |
CN (1) | CN115244574A (ja) |
WO (1) | WO2021181858A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4216155A4 (en) * | 2021-09-30 | 2024-01-17 | Rakuten Group, Inc. | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING PROGRAM |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019125204A (ja) | 2018-01-17 | 2019-07-25 | 株式会社東芝 | 目標認識装置、目標認識方法、プログラム及び畳み込みニューラルネットワーク |
JP2019153092A (ja) | 2018-03-02 | 2019-09-12 | 日本電信電話株式会社 | 位置特定装置、位置特定方法及びコンピュータプログラム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7036401B2 (ja) | 2018-04-27 | 2022-03-15 | Awl株式会社 | 学習用サーバ、不足学習用画像収集支援システム、及び不足学習用画像推定プログラム |
-
2020
- 2020-03-10 JP JP2020040424A patent/JP7139369B2/ja active Active
-
2021
- 2021-01-13 CN CN202180017889.2A patent/CN115244574A/zh active Pending
- 2021-01-13 EP EP21767418.3A patent/EP4089632A4/en active Pending
- 2021-01-13 WO PCT/JP2021/000835 patent/WO2021181858A1/ja unknown
-
2022
- 2022-08-03 US US17/880,333 patent/US20220375200A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019125204A (ja) | 2018-01-17 | 2019-07-25 | 株式会社東芝 | 目標認識装置、目標認識方法、プログラム及び畳み込みニューラルネットワーク |
JP2019153092A (ja) | 2018-03-02 | 2019-09-12 | 日本電信電話株式会社 | 位置特定装置、位置特定方法及びコンピュータプログラム |
Non-Patent Citations (1)
Title |
---|
VGC16ネットワークの各レイヤの特徴を可視化する,初心者のためのAI人工知能テクノロジーブログ AI人工知能テクノロジー,2019年02月03日,<URL:https://newtechnologylifestyle.net/vgg16networkvisual/> |
Also Published As
Publication number | Publication date |
---|---|
WO2021181858A1 (ja) | 2021-09-16 |
EP4089632A1 (en) | 2022-11-16 |
EP4089632A4 (en) | 2023-02-08 |
JP2021140705A (ja) | 2021-09-16 |
CN115244574A (zh) | 2022-10-25 |
US20220375200A1 (en) | 2022-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9552536B2 (en) | Image processing device, information storage device, and image processing method | |
US8472718B2 (en) | Superpixel segmentation methods and systems | |
JP7242975B2 (ja) | ディシジョンツリーベースの適応ブースティング分類器におけるオブジェクト分類のための方法、デジタルシステム、並びに非一時的コンピュータ可読記憶媒体 | |
JP5706647B2 (ja) | 情報処理装置、およびその処理方法 | |
US8254690B2 (en) | Information processing apparatus, information processing method, and program | |
JP6524910B2 (ja) | 物体検出装置、物体検出方法および学習装置 | |
JP7139369B2 (ja) | 検出結果分析装置、検出結果分析方法及び検出結果分析プログラム | |
KR101833943B1 (ko) | 동영상의 주요 장면을 추출 및 탐색하는 방법 및 시스템 | |
KR20210098997A (ko) | 자동화된 실시간 하이 다이나믹 레인지 콘텐츠 검토 시스템 | |
US9858293B2 (en) | Image processing apparatus and image processing method | |
US10580127B2 (en) | Model generation apparatus, evaluation apparatus, model generation method, evaluation method, and storage medium | |
JP6887154B2 (ja) | 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム | |
JP2009104244A (ja) | 情報処理装置および方法、並びにプログラム | |
KR102464851B1 (ko) | 다중 스케일 특징맵을 이용하는 학습 방법 및 영상 분류 방법 | |
CN109961083B (zh) | 用于将卷积神经网络应用于图像的方法和图像处理实体 | |
KR101626538B1 (ko) | 이미지 객체 및 윤곽 특징 추출을 위한 시스템, 방법, 및 매체 | |
JP6539469B2 (ja) | 特徴量抽出装置、特徴量抽出方法及び特徴量抽出用プログラム | |
JP2015103226A (ja) | データ演算方法、データ演算装置および欠陥検査装置 | |
JP6513311B2 (ja) | 文字認識装置および文字認識方法 | |
US20100054597A1 (en) | Image processing and generation of focus information | |
JP7177806B2 (ja) | 画像判定装置、画像判定方法及び画像判定プログラム | |
CN114018215B (zh) | 基于语义分割的单目测距方法、装置、设备及存储介质 | |
CN117475262B (zh) | 图像生成方法、装置、存储介质及电子设备 | |
KR102018773B1 (ko) | Akbing을 이용한 영상의 객체 후보 검출 장치 및 방법 | |
JP4873258B2 (ja) | 情報処理装置および方法、並びにプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210914 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210914 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220830 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220907 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7139369 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |