JP6756406B2 - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP6756406B2
JP6756406B2 JP2019527275A JP2019527275A JP6756406B2 JP 6756406 B2 JP6756406 B2 JP 6756406B2 JP 2019527275 A JP2019527275 A JP 2019527275A JP 2019527275 A JP2019527275 A JP 2019527275A JP 6756406 B2 JP6756406 B2 JP 6756406B2
Authority
JP
Japan
Prior art keywords
image
image processing
features
interest
score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019527275A
Other languages
English (en)
Other versions
JP2019536164A (ja
Inventor
カラン ランパル
カラン ランパル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JP2019536164A publication Critical patent/JP2019536164A/ja
Application granted granted Critical
Publication of JP6756406B2 publication Critical patent/JP6756406B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、画像処理方法および画像処理プログラムに関し、特に物体認識の目的で背景を除去する画像処理装置、画像処理方法および画像処理プログラムに関する。
物体認識のタスクは、監視、バイオメトリクス等における多くの実用的用途を有する。これらのタスクの目的は、関心のある物体を含む一対の入力画像間の類似性のレベルを示すラベルまたはスコアを出力することである。ここでの物体として、人、乗り物、動物等が成り得る。計量学習は、類似性スコアを取得するための最も効果的な手法の1つである。この技術の目的は、入力画像間の距離を計算することである。最初に、入力画像を特徴空間に投影する。特徴空間は、学習可能な空間、または手動で生成可能な空間である。次に、類似の特徴と非類似の特徴とを与えられたマージンで効果的に分離することによって新しい特徴空間内の距離を計算できる測定基準または関数が学習される。
ただし、堅牢な物体認識のためには、最終的なスコアに対する背景の影響も考慮することが求められる。その理由は、制約のない環境では、背景が誤陽性結果または誤陰性結果を引き起こす可能性があるためである。例えば、対象物が非常に異なる場合、認識アルゴリズムは、背景が非常に類似しているという理由だけで依然として高い類似性スコアをもたらし得る。逆もまた真であり、類似した物体ではあるが背景が異なる場合、認識スコアはかなり低くなり得る。従って、この問題に取り組むことが求められている。
しかし、この問題への取り組みにおける進歩はあまりなく、解決すべき未解決の問題のままである。多くの方法は、結果として得られる画像が背景よりも多くの物体を含むように検出方法を改善することに焦点を合わせている。また、他の方法は、機能や測定基準の改善に集中している。しかし、背景の減算自体に関して体系的な努力はあまりなされていない。従って、認識作業における背景の影響に対処できる方法が求められている。
物体を認識する方法の1つは、複数の測定基準を組み合わせることである(特許文献1参照)。特許文献1には、複数の手動で生成された特徴を画像から抽出した後、Bhattacharya係数、コサイン類似度等のいくつかの類似度関数が使用されることが記載されている。最後にそれらを組み合わせるためにRankBoostアルゴリズムが使用される。この方法により高い精度が得られ、多くの測定基準の利点が共に組み合わせられる。
スケール推定のための別の方法は、三角グラフを使用することである(特許文献2参照)。特許文献2には、動的計画法を使用してエネルギー関数を最小化することによって三角グラフを物体(例えば人)の内側に適合する方法が記載されている。この方法は、人の形を記述する。この方法はまた、HSV色空間を使用して色情報も組み合わせることによって、方法の頑健性を高める。
特許文献3には、輝度伝達関数(BTF:Brightness Transfer Function)が記載されている。BTFは、あるカメラから別のカメラへ物体の外観をマッピングする関数である。各トレーニング画像から発見されたこれらのBTFマップは、単一モデル(WBTF)に重み付け結合され、予測に使用される。BTFマップは、照明の変動が大きな問題になる場合に適している。
非特許文献1には、局所最大発生表現(LOMO:Local Maximal Occurrence representation)と呼ばれる手動で生成された特徴が各画像に対して計算される。この方法では、射影行列が、二次判別分析技術と原理的に同様である計量関数と共に効率的に学習される。
非特許文献2に記載されている方法は、一対の画像間の類似性を端から端まで開示する。これは、特徴の生成、特徴の抽出、および計量学習のパイプライン全体が、ディープニューラルネットワークを学習することによって共にまとめられることを意味する。また、識別能力の改善に役立つ対照的な損失関数も提案されている。
米国特許出願公開第2007/0211938号明細書 米国特許出願公開第2013/0343642号明細書 米国特許出願公開第2014/0098221号明細書 特開2011−253354号公報 特表2013−541119号公報
S. Liao, Y. Hu, Xiangyu Zhu, and S. Z. Li, "Person re-identification by Local Maximal Occurrence representation and metric learning," 2015 IEEE Conference on Computer Vision and Pattern Recognition(CVPR), Boston, MA, 2015, pp. 2197-2206. S. Chopra, R. Hadsell, and Y. LeCun, "Learning a Similarity Metric Discriminatively, with Application to Face Verification," 2005 IEEE Conference on Computer Vision and Pattern Recognition(CVPR), Washington, DC, 2005, 539-546.
物体認識は、より記述的な空間で物体を表現する目的で入力画像から特徴を抽出することを含む。この空間、またはその部分空間において、計量関数または距離関数が学習される。この関数は、入力画像を比較するために使用され得る。しかしながら、特徴が抽出された後、入力画像だけではなく背景に属する特徴も得られる。これらの背景の特徴は、認識結果に不一致を引き起こす可能性がある。これらの特徴から学習される測定基準は、十分に堅牢ではない。よって、学習過程の早い段階でそのような特徴を除去できる技術が求められている。
特許文献1では、入力特徴から複数の測定基準が学習または計算される。次に、これらの測定基準は、測定基準それぞれを評価するランキング関数を使用して組み合わせられる。このランキング関数は、ブースティングアルゴリズムと同様の方法で学習される。この技術では、背景特徴の問題は、直接的には扱われていない。特許文献1では、計量関数のうち少なくとも1つは、前景特徴と背景特徴との違いを知るための十分な識別力があると想定されている。ただし、この技術は、アプリケーション、特徴等に依存し、直接操作されない。
特許文献2に記載されている方法は、三角グラフと色ヒストグラムを用いて物体形状をモデル化する。これにより、前景と背景を識別する性能が向上する。ただし、物体が非剛体である場合、形状を効果的にモデル化することは困難である。例えば、対象物が人間である場合、形状は任意であり、正方形、楕円形等の幾何学的形状ではない。従って、この方法は、そのような場合にはあまり適さない。
特許文献3では、あるカメラから他のカメラへ物体の外観をマッピングする関数が学習される。しかし、環境へのアクセスや制御ができない場合、この学習は必ずしも実現可能ではない。較正情報がなければ、射影行列を学ぶことは困難であり、それ故に写像関数を学ぶことも困難である。
非特許文献1に記載された方法は、手動で生成された特徴を要する。手動で生成された特徴は、特定の用途を念頭に置いて特別に設計された特徴である。このような特徴は、特定のアプリケーションでは非常に上手く機能するが、他のアプリケーション分野にも適するように一般化されていない。
特許文献4に記載されている装置は、奥行き情報を用いて不要な特徴を除去する。画像の奥行き情報を見つけるためには、ハードウェアまたはカメラの較正情報が求められる。
特許文献5に記載された方法は、不要な(背景)特徴を除去するために画素の分散を利用する。画素の分散が高い場合、その画素は、背景とみなされて除去される。また、画素の分散が低い場合、その画素は、前景とみなされる。この方法は、低分散の画素が必然的に前景であると仮定するため、照明が変動するシーンには適さない。
本発明の目的の1つは、物体認識タスクの類似性スコアまたは類似性ラベルに対する背景の影響を低減できる画像処理装置、画像処理方法および画像処理プログラムを提供することである。
本発明による画像処理装置は、調査画像内の関心領域のスケーリングされた各サンプルにおける特徴を取得する特徴抽出手段と、関心領域内の関心対象の物体のスコアまたはラベルに寄与する、スケーリングされたサンプル中の画素の確率を計算する顕著性生成手段と、計算された確率を使用して、物体のスコアまたはラベルを計算するために本質的ではない特徴をスケーリングされたサンプルから除去するドロップアウト処理手段とを備えることを特徴とする。
本発明による画像処理方法は、調査画像内の関心領域のスケーリングされた各サンプルにおける特徴を取得し、関心領域内の関心対象の物体のスコアまたはラベルに寄与する、スケーリングされたサンプル中の画素の確率を計算し、計算された確率を使用して、物体のスコアまたはラベルを計算するために本質的ではない特徴をスケーリングされたサンプルから除去することを特徴とする。
本発明による画像処理プログラは、コンピューに、調査画像内の関心領域のスケーリングされた各サンプルにおける特徴を取得する特徴取得処理、関心領域内の関心対象の物体のスコアまたはラベルに寄与する、スケーリングされたサンプル中の画素の確率を計算する計算処理および計算された確率を使用して、物体のスコアまたはラベルを計算するために本質的ではない特徴をスケーリングされたサンプルから除去する除去処理を実行させることを特徴とする。
本発明によれば、物体認識タスクの類似性スコアまたは類似性ラベルに対する背景の影響を低減できる。
図1は、本発明の第1の実施形態の画像処理装置100の構成例を示すブロック図である。 図2は、本発明の第1の実施形態の画像処理装置100の動作の例を示すフローチャートである。 図3は、本発明の第1の実施形態の画像処理装置100による推定処理を示すフローチャートである。 図4は、本発明の第1の実施形態の画像処理装置100によるドロップアウト処理を示すフローチャートである。 図5は、本発明の第1の実施形態の画像処理装置100による顕著性処理を示すフローチャートである。 図6は、本発明の第2の実施形態の画像処理装置10の構成例を示すブロック図である。 図7は、本発明の実施形態の画像処理装置を実現可能なコンピュータ1000のハードウェア構成例を示すブロック図である。
上記の技術的問題を解決するための全体的なアプローチを以下に要約する。物体認識の性能は、特に背景のシーンが複雑な場合、背景の特徴に影響を受ける。よって、背景の特徴を抑制することが求められる。画像内の関心のある物体の位置が与えられると、いくつかのスケーリングされたサンプルが生成される。これらのスケーリングされたサンプルから特徴が抽出される。物体検出器を使用して、顕著性マップは、入力画像に対する物体検出器の出力の逆伝播をとることによって生成される。顕著性マップを補助的に用いることによって、物体または背景に属する画素の確率が計算される。このドロップアウトの使用は、確率が背景である画素の特徴に属するニューロンを除去することによって実行される。次に、残りの特徴に対する特徴マッチングを使用してスコアが取得され、最も高いスコアを有する1つの対象画像が出力として選択される。
本発明は、これらの上述した問題を解決するように設計されている。上記の実体に加えて、本発明が克服できる他の明白かつ明らかな不利益は、詳細な明細書および図面から明らかにされるであろう。
<実施形態1>
以下、本発明の第1の実施形態について詳細に説明する。
図1は、本発明の第1の実施形態の画像処理装置100の構成例を示すブロック図である。図1を参照すると、画像処理装置100は、入力部101と、物体検出部102と、特徴抽出部103と、学習部104と、モデル記憶部105と、顕著性生成部106と、ドロップアウト処理部107と、特徴マッチング部108と、パラメータ更新部109と、出力部110と、トレーニングデータセット記憶部111とを含む。
入力部101は、追跡段階において、一連のフレーム、すなわち画像、例えばビデオのフレーム、静止画像等を受け取る。入力部101は、例えば学習段階において、または学習段階の前に、一連のフレーム、すなわちトレーニングフレームを受け取る。以下の説明では、複数のフレームを「複数の画像」、複数のフレーム内のフレームを「画像」とそれぞれ表記する場合がある。また、複数のトレーニングフレームを「複数のトレーニング画像」、複数のトレーニングフレーム内のトレーニングフレームを「トレーニング画像」とそれぞれ表記する。
物体検出部102は、フレーム内の関心領域、すなわち顔等の物体、またはいくつかの部分を含み得る他の物体のうちの1つを検出する。以下の説明において、物体検出部102は、枠内の人物を検出する。物体検出部102は、フレーム内の人の位置、すなわち左上および右下の境界ボックスのxy座標を提供する。以下の説明では、物体検出部102を「物体検出器」と表記することがある。
特徴抽出部103は、物体検出部102により提供された関心領域から特徴を抽出するために使用される。物体検出部102により提供された位置を使用して、特徴抽出部103は、スケーリングされたサンプルを生成する。次に、これらのサンプルは、同じ座標系に位置するように正規化される。座標は、フレーム内に予め設定されている座標系で定義されている。最後に、これらのサンプル画像から特徴が抽出される。これらの特徴として、サンプル画像からのエッジ、テクスチャ、色、時間的、空間的および/または他のより高いレベルの情報またはより低いレベルの情報の組み合わせがあり得る。
学習部104は、1つ以上の一連のトレーニングフレームでモデルを学習する。より具体的には、学習部104は、トレーニングフレームから抽出された特徴で、サンプルの顕著性マップを計算するために使用されることになるモデルを学習する。学習部104は、モデルのパラメータ学習の一部として、サンプルの特徴から平均ベクトルおよび共分散行列を計算してもよい。また、学習部104は、入力画像に対する物体検出器の出力の勾配を計算してもよい。
このモデルは、基本的に、スケーリングされたサンプルの特徴の分布を捉えている。より具体的には、このモデルは、物体検出器から出力された、画素が特定のラベルに属する可能性を捉えている。物体検出器は、与えられた入力画像が所望のラベルに適合するようにその出力スコアを最大にする。本実施形態ではその逆の処理が求められる。すなわち、生成が求められるラベルが与えられた場合、物体検出器は、画像が与えられたラベルに適合するようにその出力スコアを最大にする。モデル記憶部105は、推論目的で使用されるモデルのパラメータを記憶し、与えられた入力でモデルを評価するために用いられる。
顕著性生成部106は、モデル記憶部105に記憶されているモデルパラメータを用いて、ある画素が特定のラベルに属する確率を導出する。確率は、ランダム画像に対する物体検出器からの出力の勾配を求めることによって算出される。このランダム画像は、最終的にこの画像内の画素が確率を表すまで繰り返し更新される。この手順は、求められる顕著性マップを繰り返し提供する。
顕著性生成部106により生成された顕著性マップは、ドロップアウト処理部107に入力される。ドロップアウト処理部107において、サンプルの各特徴は、顕著性マップからのそれらの確率と直接関連付けられる。特徴の確率が低い場合、すなわち特徴が背景クラスに属する場合、特徴は除去されるか除外される。特徴がその物体に属する場合、その特徴は、確率を用いて再スケーリングされる。これにより、マッチングに使用される最終的な特徴が生成される。
特徴マッチング部108は、対象画像の特徴と調査画像の特徴とを比較することによって、スコアが最も高いサンプルを選択する。このスケールでの調査画像の特徴は、登録されている対象画像の特徴と適合する。対象画像それぞれについて、特徴マッチング部108によりスコアが生成される。モデルパラメータは、パラメータ更新部109により更新される。
以下の説明では、特徴抽出部103、顕著性生成部106、ドロップアウト処理部107、および特徴マッチング部108の集合を「推定処理部」と表記することがある。
出力部110は、最終対象画像またはIDを出力する。出力部110は、xy座標、およびマークが描画されたフレームである出力における物体の境界ボックスのスケール(幅、高さ)で表されるフレーム上の所定の位置に、IDを表す所定のマークを描画できる。
トレーニングデータセット記憶部111は、対象画像と調査画像との組と、それらが同一の物体であるか否かを示すラベルとを含む一連のトレーニングサンプルを1つ以上記憶する。なお、入力部101は、トレーニングデータセット記憶部111を実現するために用いられなくてもよい。
次に、第1の実施形態の画像処理装置100の動作を、図面を参照して詳細に説明する。
図2は、本発明の第1の実施形態の画像処理装置100の動作の例を示すフローチャートである。
本発明の第1の実施形態の画像処理装置100の動作は、トレーニングフェーズと評価フェーズとに大別される。この段落では、図2を参照して本発明の概要を説明し、評価フェーズを説明する。物体の認識は、画像またはフレーム内の物体の検出により開始する。図2に示すように、システムへの入力(ステップS101)は、調査画像と呼ばれる物体の画像である。物体検出部102は、対象画像が存在するか否かを確認する(ステップS102)。対象画像は、ギャラリーの登録画像とも呼ばれる。対象画像が選択されていない場合(ステップS102におけるNO)、先に登録された画像がギャラリーから選択される(ステップS103)。物体検出部102は、一般的な物体検出器の特定の実施形態でもよい。そして、検出された物体と選択された対象画像とが推定処理部に提供される(ステップS104)。対象画像が存在する場合(ステップS102におけるYES)、そのままステップS104に進む。その後、推定処理部により出力スコアが生成される(ステップS105)。最終的に全ての対象画像が比較されれば、処理は終了する。
推定処理の詳細については、図3の図面と共に後述する。以下、推定処理部について簡単に説明する。推定処理部は、現在のフレームと対象画像から生成されたサンプルそれぞれにスコアを付け、最大スコアを有するサンプルを出力する。
次に、出力部110は、推定IDまたは推定ラベルおよびスコア、すなわち上記の最終出力を出力する(ステップS105)。画像処理装置100の処理が終了していない場合(ステップS106におけるNO)、入力部101は、次のフレームを受け付ける(ステップS101)。入力装置(図示せず)を介した画像処理装置100のユーザからの指示により画像処理装置100の処理が終了した場合(ステップS106におけるYES)、または全ての対象画像が処理された場合、画像処理装置100は、図2に示す処理を中止する。
次に、第1の実施形態の画像処理装置100の推定処理フェーズにおける動作を、図面を参照して詳細に説明する。
図3は、第1の実施形態の画像処理装置100の推定処理フェーズにおける動作の例を示すフローチャートである。
上述したように、推定処理用のモデルが学習されることが求められる。従って、対象画像が与えられ、スケーリングされた調査画像またはスケーリングされた問合せ画像であるサンプルがステップS201で生成される。これらのサンプルは、物体の位置で与えられた領域および物体検出器で提供されたスケールの周りに抽出される。次に、これらのサンプルから特徴が抽出される(ステップS202)。抽出された特徴は、HOG(Histogram of Oriented Gradients)、LBP(Local Binary Patterns)、正規化勾配、色ヒストグラム等の特徴を指す。ステップS203において、ドロップアウト処理が実行される。ドロップアウト処理は、後で図4を用いて詳細に説明する。次に、トレーニングフェーズである場合(ステップS204におけるYES)、ステップS203のマスクを使用して背景の特徴を除去することが求められていることを意味する(ステップS206)。マスクは、ステップS203におけるドロップアウト処理の出力である。背景の特徴の除去は、特徴抽出で生成された特徴マップとマスクとの要素ごとの乗算を使用して行われる(ステップS202)。特徴マップからの削減された特徴を用いて、特徴マッチングによりスコアが得られる(ステップS207)。最終的に、全てのスケールの中からスコアが最大のスケールが最終出力として選択される(ステップS208)。ステップS204でNOの場合、マスキング動作は不要であり、データを乱さずに送信する順方向パス(分類器順方向パス)が実行されるだけでよい(ステップS205)。この手順は、以下で詳しく説明する。
Figure 0006756406
式(1)において、左辺はサンプルの平均または平均値である。これは、実際のドロップアウト手順の前に特徴を正規化するために使用されるパラメータの1つである。'xi'は、i番目のサンプルの特徴のベクトルで、'N'はスケーリングされたサンプルの総数である。
Figure 0006756406
式(2)において、'V'は特徴ベクトルの分散である。これら2つの方程式が使用されると、平均がゼロで分散が1になるように特徴が正規化される。正規化は、次の式を用いて行われる。
Figure 0006756406
特徴が正規化された後、特徴はドロップアウト処理に渡される(ステップS203)。以下、ドロップアウト処理の手順を、図4を参照してより詳細に説明する。
図4は、本発明の第1の実施の形態の画像処理装置100のドロップアウト処理ステップのフローチャートである。ドロップアウト処理の最初のステップは、顕著性処理である(ステップS301)。顕著性処理は、顕著性マップを生成するために使用され、後で図5を用いて詳細に説明される。顕著性マップは、画素の確率を得るために使用される。次に、ステップS302において、特徴マップが取得される。ステップS202ではただの特徴が抽出されたが、ステップS302では3次元マップを形成するように特徴のサイズが変更される。次に、ステップS303において、顕著性マップのエントリが各画素位置、すなわちx軸およびy軸において閾値と照合される。この閾値は予め選択されている。顕著性マップ内の確率が閾値'T'より大きい場合(ステップS303におけるYES)、対応する特徴は、以下の式(4)を使用してただ再正規化される(ステップS306)。
Figure 0006756406
確率が閾値'T'以下である場合(ステップS303におけるNO)、対応する特徴は、ステップS304でゼロに設定されることによって除去される。次に、ステップS302と同様に、マップが3次元の代わりに元の次元に再整形されることによって、特徴マップが更新される(ステップS305)。
次に、ステップS307に従って、ステップS301で生成された顕著性マップがモデル記憶部105に記憶される。その後、画像処理装置100が図4に示すドロップアウト処理を停止する。次に、図5を用いて顕著性処理ステップを説明する。
図5は、本発明の第1の実施形態の画像処理装置100による顕著性処理を示すフローチャートである。図5を参照すると、ステップS401に示すように、スケーリングされたサンプルは入力として使用される。ステップS402において、顕著性マップは、平均がゼロ、および分散が1であるガウス分布が使用されてランダム値で初期化される。これを以下の式(5)に示す。
Figure 0006756406
ここで、'P'は、初期化のためのランダムな値、'm'はガウス分布の平均、'S'は標準偏差、'd'は顕著性マップの次元である。初期化の後、ステップS403において分類子順方向パスが計算される。式(6)は、ランダムに初期化された顕著性マップである入力画像が与えられたときに、分類子順方向パス、すなわちクラスラベルを計算することを表す。
Figure 0006756406
式(6)において、'L'は入力を画像'I'とする分類関数であり、また'c'は最大化の正則化に使用される定数である。
次のステップは、分類子逆方向パスであり(ステップS404)、このステップを使用して、入力された顕著性マップの画像に対して式(6)の勾配が得られる。このステップは、式(6)を最大化できるように顕著性マップの画像を更新すべき方向を提供する。ステップS404は、以下の式を用いて実行される。
Figure 0006756406
式(7)において、'▽L'は、顕著性マップの画像に対する分類子関数の勾配であり、'a'はステップサイズを制御する定数である。この式において、'I'はステップS405で更新された顕著性マップである。次のステップS406では、1回の往路と1回の復路を経た後に発生する損失が計算される。損失が十分に小さければ(ステップS407におけるYES)、アルゴリズムは収束し、顕著性処理は中止され得る。未だ損失が十分に小さくない場合(ステップS407におけるNO)、ステップS403からのステップが再度実行される。顕著性マップの画像が有する損失が小さくなり、アルゴリズムが収束するまで、これらのステップが繰り返される。
上述したステップにより推定処理が完了した後、再度特徴が再正規化される。これで特徴マッチングステップが実行可能になる。マッチングは、交差カーネル、ガウスカーネル、多項式カーネル等のカーネル方法を使用して実行可能である。
Figure 0006756406
式(8)は、対象画像'I'の特徴と調査画像'x'の特徴との間のマッチングスコア'r'を与える。ここで、'd'は特徴の次元の長さ、'j'は次元の指数である。最もスコアの低い対象画像が選択される。
本発明の目的の1つは、正確に物体を認識でき、かつ類似性スコアまたは距離スコアに対する背景の影響を低減できる画像処理装置を提供することである。
本実施形態の第1の効果は、物体を正確に推定でき、認識スコアに対する背景の影響を低減できることである。
本実施形態の他の効果を以下に説明する。本実施形態の利点は、特許文献1に記載されている多数の測定基準の組み合わせのように、この方法でもまだ複数の測定基準を使用できることである。この画像処理装置は、各測定基準の性能を向上させる処理である、背景の効果の削減のために使用可能である。
本実施形態の他の効果は、非特許文献1および特許文献2と異なり、モデルパラメータが手動で生成された特徴を必要としないことである。手動で生成された特徴は、技術の適用範囲を狭め一般化を妨げる。この画像処理装置は、背景の除去を必要とする任意の技術と共に利用可能である。
本実施形態の更なる効果は、特許文献3と異なり、射影行列を算出する必要がないため、カメラの較正情報が不要なことである。
本実施形態の他の効果は、非特許文献2と同様に学習が端から端まで行われ、入力画像の組が与えられた場合に直接類似性スコアを出力することである。しかしながら、非特許文献2と異なり、この画像処理装置用の距離関数は、ユークリッド距離に限定されない。
また、潜在的サポートベクターマシンのような重い最適化技術は必要とされず、従ってリアルタイム操作も可能である。さらに、剛体の形状および非剛体の形状も認識可能である。さらに、形状、姿勢、および部品における変更の見本は必要とされない。
特許文献4に記載された装置および特許文献5に記載された方法は決定論的であり、確率的ではない。しかしながら、本実施形態は確率的方法であり、顕著性生成部106が提供する確率マップを必要とする。また、本実施形態は、ハードウェアや較正情報を必要とせず、特許文献5で想定されていない。
<実施形態2>
次に、本発明の第2の実施形態について図面を参照して詳細に説明する。
図6は、本発明の第2の実施形態の画像処理装置10の構成例を示すブロック図である。図6を参照すると、画像処理装置10は、調査画像内の関心領域のスケーリングされた各サンプルにおける特徴を取得する特徴抽出部11(例えば、特徴抽出部103)と、関心領域内の関心対象の物体のスコアまたはラベルに寄与する、スケーリングされたサンプル中の画素の確率を計算する顕著性生成部12(例えば、顕著性生成部106)と、計算された確率を使用して、物体のスコアまたはラベルを計算するために本質的ではない特徴をスケーリングされたサンプルから除去するドロップアウト処理部13(例えばドロップアウト処理部107)とを含む。
この構成により、画像処理装置は、背景が物体認識タスクの類似性スコアまたは類似性ラベルに与える影響を低減できる。
第2の実施形態は、第1の実施形態の第1の効果と同様の効果を奏する。第1の実施形態の第1の効果と同様の効果が得られる理由は、基本原理が両実施形態で同じであるためである。
画像処理装置10は、与えられた対象画像と調査画像のスケーリングされたサンプルとの類似度を取得し、類似度が最大であるスケーリングされたサンプルを最終出力として選択する特徴マッチング部(例えば、特徴マッチング部108)を含んでもよい。
この構成により、画像処理装置は、スケーリングされたサンプルを最大の類似度と共に出力できる。
ドロップアウト処理部13は、計算された確率を使用して、物体のスコアまたはラベルを計算するために本質的ではない特徴を除去するためのマスクを生成し、生成されたマスクを用いてスケーリングされたサンプルから特徴を除去してもよい。
ここでは、背景の画素に属するニューロンが計算され、そのような画素に属する特徴に対する閾値になり得るマスクが生成される。
この構成により、画像処理装置は、生成されたマスクを用いて、スケーリングされたサンプルから特徴を除去できる。
画像処理装置10は、対象画像と調査画像の組を含む1つ以上の一連のトレーニングサンプルと、各画像が示す物体が同一の物体であるか否かを示すラベルとによってモデルパラメータを学習する学習部(例えば、学習部104)を含んでもよい。
この構成により、画像処理装置は、対象画像と調査画像との関係を学習できる。
また、画像処理装置10は、顕著性マップにおける確率が低い画素の特徴を除去するために、ドロップアウト処理部13により生成されたマスクを適用することによって特徴マップを更新する特徴マップ更新部(例えば、ドロップアウト処理部107)を含んでもよい。
この構成により、画像処理装置は、マスクを用いて特徴マップを更新できる。
画像処理装置10は、ドロップアウト処理部13により特徴を除去した後、残りの特徴を再度正規化する特徴正規化部(例えば、ドロップアウト処理部107)を含んでもよい。
この構成により、画像処理装置は、カーネル法を用いて特徴マッチングステップを実行できる。
画像処理装置100および画像処理装置10それぞれは、コンピュータ、コンピュータを制御するプログラム、専用のハードウェア、またはコンピュータとコンピュータを制御するプログラムと専用のハードウェアとのセットを用いて実現可能である。
図7は、上述した画像処理装置100および画像処理装置10を実現可能なコンピュータ1000のハードウェア構成例を示すブロック図である。図7を参照すると、コンピュータ1000は、バス1005を介して通信可能に接続されたプロセッサ1001、メモリ1002、記憶装置1003およびインタフェース1004を含む。コンピュータ1000は、記憶媒体2000にアクセスできる。メモリ1002および記憶装置1003それぞれは、RAM(Random Access Memory)、ハードディスクドライブ等の記憶装置でもよい。記憶媒体2000は、RAM、ハードディスクドライブ等の記憶装置、ROM(Read Only Memory)、または可搬型の記憶媒体でもよい。記憶装置1003は、記憶媒体2000として機能してもよい。プロセッサ1001は、メモリ1002および記憶装置1003からデータおよびプログラムを読み取り、メモリ1002および記憶装置1003にデータおよびプログラムを書き込むことができる。プロセッサ1001は、インタフェース1004等を介して、プロセッサ1001にフレームを提供するサーバ(図示せず)、および最終的な出力形状を出力する端末(図示せず)等と通信できる。プロセッサ1001は、記憶媒体2000にアクセスできる。記憶媒体2000は、コンピュータ1000を画像処理装置100または画像処理装置10として動作させるためのプログラムを格納する。
プロセッサ1001は、記憶媒体2000に格納された、コンピュータ1000を画像処理装置100または画像処理装置10として動作させるためのプログラムをメモリ1002にロードする。プロセッサ1001は、メモリ1002にロードされたプログラムを実行することによって、画像処理装置100または画像処理装置10として動作する。
入力部101、物体検出部102、特徴抽出部103、学習部104、顕著性生成部106、特徴マッチング部108、ドロップアウト処理部107、および出力部110は、記憶媒体2000からメモリ1002にロードされ、上述した各部の機能を実現できる専用のプログラムによって実現可能である。プロセッサ1001が、専用のプログラムを実行する。モデル記憶部105、パラメータ更新部109、およびトレーニングデータセット記憶部111は、メモリ1002および/またはハードディスク装置等の記憶装置1003によって実現可能である。入力部101、物体検出部102、特徴抽出部103、学習部104、モデル記憶部105、顕著性生成部106、ドロップアウト処理部107、特徴マッチング部108、パラメータ更新部109、出力部110、およびトレーニングデータセット記憶部111は、上述した各部の機能を実現する専用の回路によって実現可能である。
最後のポイントとして、ここに記載され図示されたプロセス、技術および方法論が限定されないこと、またはいかなる特定の装置にも関連しないことは明らかであり、コンポーネントの組み合わせを使用して実装可能である。また、本明細書の指示に従って、様々な種類の汎用装置が使用されてもよい。本発明はまた、特定の実施例の組を用いて説明された。しかしながら、これらは例示的なものにすぎず、限定的なものではない。例えば、説明されたソフトウェアは、C、C++、Java(登録商標)、Python、およびPerl等のような多種多様な言語で実装されてもよい。さらに、本発明の技術の他の実装は、当業者に明らかであろう。
本発明をその例示的な実施形態を参照して特に示し説明したが、本発明はこれらの実施形態に限定されない。特許請求の範囲によって定義される本発明の精神および範囲から逸脱することなく、形態および詳細における様々な変更がなされてもよいことは、当業者に理解されるであろう。
上記の実施形態の一部または全部は、以下の付記のように記載可能であるが、以下の付記には限定されない。
(付記1)調査画像内の関心領域のスケーリングされた各サンプルにおける特徴を取得し、前記関心領域内の関心対象の物体のスコアまたはラベルに寄与する、スケーリングされたサンプル中の画素の確率を計算し、計算された確率を使用して、前記物体のスコアまたはラベルを計算するために本質的ではない特徴を前記スケーリングされたサンプルから除去することを特徴とする画像処理方法。
(付記2)物体のラベルまたはスコアを計算するために本質的ではない特徴を除去するためのマスクを生成し、確率が低い顕著性マップにおける画素の特徴を除去するためにマスクを適用する付記1記載の画像処理方法。ここでは、背景画素に属するニューロンが計算され、そのような画素に属する特徴に対する閾値になり得るマスクが生成される。
(付記3)対象画像と調査画像の組を含む1つ以上の一連のトレーニングサンプルと、各画像が示す物体が同一の物体であるか否かを示すラベルとによってモデルパラメータを学習する付記1または付記2記載の画像処理方法。
(付記4)与えられた関心領域から画像のスケーリングされたサンプルを取得する付記1から付記3のうちのいずれかに記載の画像処理方法。
(付記5)特徴を除去した後、残りの特徴を再度正規化する付記1から付記4のうちのいずれかに記載の画像処理方法。
(付記6)コンピュータで実行されるときに、調査画像内の関心領域のスケーリングされた各サンプルにおける特徴を取得し、前記関心領域内の関心対象の物体のスコアまたはラベルに寄与する、スケーリングされたサンプル中の画素の確率を計算し、計算された確率を使用して、前記物体のスコアまたはラベルを計算するために本質的ではない特徴を前記スケーリングされたサンプルから除去する画像処理プログラムを記録した非一時的なコンピュータ読み取り可能な記録媒体。
(付記7)コンピュータで実行されるときに、物体のラベルまたはスコアを計算するために本質的ではない特徴を除去するためのマスクを生成し、確率が低い顕著性マップにおける画素の特徴を除去するためにマスクを適用する付記6記載の記録媒体。ここでは、背景画素に属するニューロンが計算され、そのような画素に属する特徴に対する閾値になり得るマスクが生成される。
(付記8)コンピュータで実行されるときに、対象画像と調査画像の組を含む1つ以上の一連のトレーニングサンプルと、各画像が示す物体が同一の物体であるか否かを示すラベルとによってモデルパラメータを学習する付記6または付記7記載の記録媒体。
(付記9)コンピュータで実行されるときに、与えられた関心領域から画像のスケーリングされたサンプルを取得する付記6から付記8のうちのいずれかに記載の記録媒体。
(付記10)コンピュータで実行されるときに、特徴を除去した後、残りの特徴を再度正規化する付記6から付記9のうちのいずれかに記載の記録媒体。
10、100 画像処理装置
11、103 特徴抽出部
12、106 顕著性生成部
13、107 ドロップアウト処理部
101 入力部
102 物体検出部
104 学習部
105 モデル記憶部
108 特徴マッチング部
109 パラメータ更新部
110 出力部
111 トレーニングデータセット記憶部
1000 コンピュータ
1001 プロセッサ
1002 メモリ
1003 記憶装置
1004 インタフェース
1005 バス
2000 記憶媒体

Claims (10)

  1. 調査画像内の関心領域のスケーリングされた各サンプルにおける特徴を取得する特徴抽出手段と、
    前記関心領域内の関心対象の物体のスコアまたはラベルに寄与する、スケーリングされたサンプル中の画素の確率を計算する顕著性生成手段と、
    計算された確率を使用して、前記物体のスコアまたはラベルを計算するために本質的ではない特徴を前記スケーリングされたサンプルから除去するドロップアウト処理手段と
    を備えることを特徴とする画像処理装置。
  2. 与えられた対象画像と調査画像のスケーリングされたサンプルとの類似度を取得し、前記類似度が最大であるスケーリングされたサンプルを最終出力として選択する特徴マッチング手段を備える
    請求項1記載の画像処理装置。
  3. ドロップアウト処理手段は、
    計算された確率を使用して、物体のスコアまたはラベルを計算するために本質的ではない特徴を除去するためのマスクを生成し、
    生成されたマスクを用いてスケーリングされたサンプルから前記特徴を除去する
    請求項1または請求項2記載の画像処理装置。
  4. 対象画像と調査画像の組を含む1つ以上の一連のトレーニングサンプルと、各画像が示す物体が同一の物体であるか否かを示すラベルとによってモデルパラメータを学習する学習手段を備える
    請求項2記載の画像処理装置。
  5. 顕著性マップにおける確率が低い画素の特徴を除去するために、ドロップアウト処理手段により生成されたマスクを適用することによって特徴マップを更新する特徴マップ更新手段を備える
    請求項3記載の画像処理装置。
  6. ドロップアウト処理手段により特徴を除去した後、残りの特徴を再度正規化する特徴正規化手段を備える
    請求項1から請求項5のうちのいずれか1項に記載の画像処理装置。
  7. 調査画像内の関心領域のスケーリングされた各サンプルにおける特徴を取得し、
    前記関心領域内の関心対象の物体のスコアまたはラベルに寄与する、スケーリングされたサンプル中の画素の確率を計算し、
    計算された確率を使用して、前記物体のスコアまたはラベルを計算するために本質的ではない特徴を前記スケーリングされたサンプルから除去する
    ことを特徴とする画像処理方法。
  8. 与えられた対象画像と調査画像のスケーリングされたサンプルとの類似度を取得し、
    前記類似度が最大であるスケーリングされたサンプルを最終出力として選択する
    請求項7記載の画像処理方法。
  9. コンピューに、
    調査画像内の関心領域のスケーリングされた各サンプルにおける特徴を取得する特徴取得処理
    前記関心領域内の関心対象の物体のスコアまたはラベルに寄与する、スケーリングされたサンプル中の画素の確率を計算する計算処理および
    計算された確率を使用して、前記物体のスコアまたはラベルを計算するために本質的ではない特徴を前記スケーリングされたサンプルから除去する除去処理
    を実行させるための画像処理プログラ
  10. コンピューに、
    与えられた対象画像と調査画像のスケーリングされたサンプルとの類似度を取得する類似度取得処理および
    前記類似度が最大であるスケーリングされたサンプルを最終出力として選択する選択処理を実行させる
    請求項9記載の画像処理プログラム
JP2019527275A 2016-11-30 2016-11-30 画像処理装置、画像処理方法および画像処理プログラム Active JP6756406B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/085537 WO2018100668A1 (en) 2016-11-30 2016-11-30 Image processing device, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2019536164A JP2019536164A (ja) 2019-12-12
JP6756406B2 true JP6756406B2 (ja) 2020-09-16

Family

ID=62242396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019527275A Active JP6756406B2 (ja) 2016-11-30 2016-11-30 画像処理装置、画像処理方法および画像処理プログラム

Country Status (3)

Country Link
US (1) US11138464B2 (ja)
JP (1) JP6756406B2 (ja)
WO (1) WO2018100668A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018100668A1 (en) * 2016-11-30 2018-06-07 Nec Corporation Image processing device, image processing method, and image processing program
CN109165673B (zh) * 2018-07-18 2021-08-31 广东工业大学 基于度量学习和多示例支持向量机的图像分类方法
CN111666952B (zh) * 2020-05-22 2023-10-24 北京腾信软创科技股份有限公司 一种基于标签上下文的显著区域提取方法及系统
CN112037167B (zh) * 2020-07-21 2023-11-24 苏州动影信息科技有限公司 一种基于影像组学和遗传算法的目标区域确定系统
US20240021005A1 (en) * 2020-11-12 2024-01-18 Nitto Denko Corporation Determining apparatus, determining method and determining program
CN112926598B (zh) * 2021-03-08 2021-12-07 南京信息工程大学 基于残差域深度学习特征的图像拷贝检测方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2375908B (en) * 2001-05-23 2003-10-29 Motorola Inc Image transmission system image transmission unit and method for describing texture or a texture-like region
US7362920B2 (en) * 2003-09-22 2008-04-22 Siemens Medical Solutions Usa, Inc. Method and system for hybrid rigid registration based on joint correspondences between scale-invariant salient region features
US7711146B2 (en) 2006-03-09 2010-05-04 General Electric Company Method and system for performing image re-identification
JP5121204B2 (ja) 2006-10-11 2013-01-16 オリンパス株式会社 画像処理装置、画像処理方法、および画像処理プログラム
EP2263190A2 (en) * 2008-02-13 2010-12-22 Ubisoft Entertainment S.A. Live-action image capture
JP2011253354A (ja) 2010-06-02 2011-12-15 Sony Corp 画像処理装置および方法、並びにプログラム
US9501714B2 (en) 2010-10-29 2016-11-22 Qualcomm Incorporated Systems and methods to improve feature generation in object recognition
JP5668932B2 (ja) 2011-05-23 2015-02-12 株式会社モルフォ 画像識別装置、画像識別方法、画像識別プログラム及び記録媒体
WO2013073273A1 (ja) * 2011-11-18 2013-05-23 日本電気株式会社 局所特徴量抽出装置、局所特徴量抽出方法、及びプログラム
US9396412B2 (en) 2012-06-21 2016-07-19 Siemens Aktiengesellschaft Machine-learnt person re-identification
US9633263B2 (en) 2012-10-09 2017-04-25 International Business Machines Corporation Appearance modeling for object re-identification using weighted brightness transfer functions
US9514536B2 (en) * 2012-10-10 2016-12-06 Broadbandtv, Corp. Intelligent video thumbnail selection and generation
US8873887B2 (en) * 2013-01-24 2014-10-28 Google Inc. Systems and methods for resizing an image
JP6541363B2 (ja) * 2015-02-13 2019-07-10 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
EP3276307A4 (en) * 2015-03-27 2018-03-07 Nissan Motor Co., Ltd. Shared vehicle managing apparatus and shared vehicle managing method
CN106296638A (zh) * 2015-06-04 2017-01-04 欧姆龙株式会社 显著性信息取得装置以及显著性信息取得方法
US9881234B2 (en) * 2015-11-25 2018-01-30 Baidu Usa Llc. Systems and methods for end-to-end object detection
US9830529B2 (en) * 2016-04-26 2017-11-28 Xerox Corporation End-to-end saliency mapping via probability distribution prediction
WO2018100668A1 (en) * 2016-11-30 2018-06-07 Nec Corporation Image processing device, image processing method, and image processing program
US10037601B1 (en) * 2017-02-02 2018-07-31 International Business Machines Corporation Systems and methods for automatic detection of architectural distortion in two dimensional mammographic images

Also Published As

Publication number Publication date
US11138464B2 (en) 2021-10-05
JP2019536164A (ja) 2019-12-12
WO2018100668A1 (en) 2018-06-07
US20190311216A1 (en) 2019-10-10

Similar Documents

Publication Publication Date Title
JP6756406B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
Xie et al. Multilevel cloud detection in remote sensing images based on deep learning
US10467459B2 (en) Object detection based on joint feature extraction
US20210264144A1 (en) Human pose analysis system and method
US9928405B2 (en) System and method for detecting and tracking facial features in images
EP2905724B1 (en) Object detection system and method
US8855363B2 (en) Efficient method for tracking people
US11380010B2 (en) Image processing device, image processing method, and image processing program
KR20160096460A (ko) 복수의 분류기를 포함하는 딥 러닝 기반 인식 시스템 및 그 제어 방법
JP2018022360A (ja) 画像解析装置、画像解析方法およびプログラム
JP6597914B2 (ja) 画像処理装置、画像処理方法、及びプログラム
KR20170108339A (ko) 영상에서 다수의 객체를 인식하는 방법
Scharfenberger et al. Existence detection of objects in images for robot vision using saliency histogram features
CN115063526A (zh) 二维图像的三维重建方法、系统、终端设备及存储介质
Junejo et al. Dynamic scene modeling for object detection using single-class SVM
JP6486084B2 (ja) 画像処理方法、画像処理装置、及びプログラム
Vlachynska et al. Dogface detection and localization of dogface’s landmarks
Scharfenberger et al. Salient region detection using self-guided statistical non-redundancy in natural images
Joshi et al. Meta-Learning, Fast Adaptation, and Latent Representation for Head Pose Estimation
JP2015187769A (ja) 物体検出装置、物体検出方法及びプログラム
Zhang et al. Augmented visual feature modeling for matching in low-visibility based on cycle-labeling of Superpixel Flow
Gorbatsevich et al. Single-shot semantic matcher for unseen object detection
KR20200130768A (ko) 비디오 시간 정보를 활용하는 딥러닝 기반 물체 검출 방법 및 장치
Jacques et al. Improved head-shoulder human contour estimation through clusters of learned shape models
O’Brien et al. Computer Vision Concepts and Applications

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190520

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200810

R150 Certificate of patent or registration of utility model

Ref document number: 6756406

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150