JP2020064619A - イメージ認識モデルのトレーニング装置及び方法並びにイメージ認識方法 - Google Patents

イメージ認識モデルのトレーニング装置及び方法並びにイメージ認識方法 Download PDF

Info

Publication number
JP2020064619A
JP2020064619A JP2019171731A JP2019171731A JP2020064619A JP 2020064619 A JP2020064619 A JP 2020064619A JP 2019171731 A JP2019171731 A JP 2019171731A JP 2019171731 A JP2019171731 A JP 2019171731A JP 2020064619 A JP2020064619 A JP 2020064619A
Authority
JP
Japan
Prior art keywords
class
training
loss
image recognition
recognition model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019171731A
Other languages
English (en)
Other versions
JP7421889B2 (ja
Inventor
ウォンヒ イ
Won Hee Lee
ウォンヒ イ
ミンジョン ソン
Min Jung Son
ミンジョン ソン
キョンブ ジョン
Kyung Boo Jung
キョンブ ジョン
ヒョンソン チャン
Hyun Sung Chang
ヒョンソン チャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2020064619A publication Critical patent/JP2020064619A/ja
Application granted granted Critical
Publication of JP7421889B2 publication Critical patent/JP7421889B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 ランドマークのクラスごとの基準点の位置を正確に推定するための装置及び方法を提供する。【解決手段】一実施形態に係るトレーニング装置は、クラスに依存して定義された測位損失を介してイメージ認識モデルをトレーニングさせることができる。【選択図】 図5

Description

以下、イメージ認識モデルをトレーニングさせる技術が提供される。
近年、入力パターンを特定のグループに分類する問題を解決する方法として、人が有する効率的なパターン認識方法を実際のコンピュータに適用しようとする研究が盛んに行われている。このような研究の1つとして、人の生物学的な神経細胞の特性を数学的な表現によりモデリングした人工ニューラルネットワーク(artificial neural network)に対する研究が行われている。入力パターンを特定のグループに分類する問題を解決するために、人工ニューラルネットワークは、人が有している学習という能力を模倣したアルゴリズムを用いる。このアルゴリズムを介して人工ニューラルネットワークは、入力パターンと出力パターンとの間のマッピング(mapping)を生成することができ、人工ニューラルネットワークは学習能力を有する。また、人工ニューラルネットワークは、学習された結果に基づいて学習に利用されていない入力パターンに対して、比較的に正しい出力を生成できる一般化能力を有している。
一実施形態の課題は、イメージ認識装置において、国ごとクラスごとに変わり得るランドマーク基準点の位置を推定することにある。
一実施形態の課題は、イメージ認識装置において、ランドマーク基準点を用いて装置の位置を推定することにある。
一実施形態に係るイメージ認識モデルをトレーニングさせる方法は、イメージ認識モデルに基づいて、トレーニングデータからクラス損失及びクラスに依存的な測位損失を算出するステップと、前記クラス損失及び前記測位損失を含む全体損失を用いて、前記イメージ認識モデルをトレーニングさせるステップとを含む。
前記クラス損失及びクラスに依存的な測位損失を算出するステップは、前記イメージ認識モデルに基づいて、トレーニング入力イメージから臨時クラス情報及び臨時基準点情報を算出するステップと、前記臨時クラス情報及び実際クラス情報に基づいて前記クラス損失を算出するステップと、前記臨時基準点情報及び実際基準点情報に基づいて前記測位損失を算出するステップとを含み得る。
前記臨時クラス情報及び臨時基準点情報を算出するステップは、前記トレーニング入力イメージの各サブ領域ごとに前記臨時クラス情報及び前記臨時基準点情報を算出するステップを含み得る。
前記クラス損失を算出するステップは、前記トレーニング入力イメージのサブ領域ごとに算出された臨時クラス情報と実際クラス情報との間の部分クラス損失を算出するステップと、前記トレーニング入力イメージの前記サブ領域のそれぞれに対して算出された部分クラス損失の合計を前記クラス損失として決定するステップとを含み得る。
前記クラス損失を算出するステップは、前記トレーニング入力イメージのサブ領域のうち実際のランドマーク部分に対応するサブ領域を選択するステップと、前記選択されたサブ領域に対して算出された臨時クラス情報と実際クラス情報との間の部分クラス損失を算出するステップと、前記選択されたサブ領域に対して算出された部分クラス損失の合計を前記クラス損失として決定するステップとを含み得る。
前記サブ領域を選択するステップは、前記トレーニング入力イメージのサブ領域のうち実際の背景部分に対応するサブ領域をさらに選択するステップを含み得る。
前記測位損失を算出するステップは、前記トレーニング入力イメージのサブ領域ごとに該当のサブ領域に対して算出された臨時基準点情報と実際基準点情報との間の部分測位損失を算出するステップと、前記サブ領域のそれぞれに対して算出された部分測位損失の合計を前記測位損失として決定するステップとを含み得る。
前記測位損失を算出するステップは、前記トレーニング入力イメージのサブ領域のうち実際のランドマーク部分に対応するサブ領域を選択するステップと、前記選択されたサブ領域に対して算出された基準点情報と実際基準点情報との間の部分測位損失を算出するステップと、前記選択されたサブ領域に対して算出された部分測位損失の合計を前記測位損失として決定するステップとを含み得る。
前記の部分測位損失を算出するステップは、前記選択されたサブ領域から実際の背景部分のサブ領域を排除するステップを含み得る。
前記トレーニング入力イメージの各サブ領域ごとに前記臨時クラス情報及び前記臨時基準点情報を算出するステップは、前記各サブ領域に設定された複数のアンカーノードごとに前記臨時クラス情報及び前記臨時基準点情報を算出するステップを含み得る。
前記各サブ領域に設定された複数のアンカーノードごとに前記臨時クラス情報及び前記臨時基準点情報を算出するステップは、前記複数のアンカーノードごとに算出された信頼度に基づいて、上位信頼度を有するアンカーノードに対して臨時クラス情報及び臨時基準点情報を算出するステップを含み得る。
前記各サブ領域に設定された複数のアンカーノードごとに前記臨時クラス情報及び前記臨時基準点情報を算出するステップは、前記複数のアンカーノードのそれぞれに対して算出された信頼度の中から信頼度閾値未満の信頼度を有するアンカーノードを排除するステップを含み得る。
前記クラス損失及びクラスに依存的な測位損失を算出するステップは、臨時クラス情報に基づいてクラス基盤加重値を算出するステップと、前記クラス基盤加重値、臨時基準点情報、及び実際基準点情報に基づいて前記クラスに依存的な測位損失を決定するステップとを含み得る。
前記クラスに依存的な測位損失を決定するステップは、前記臨時基準点情報と前記実際基準点情報との間の差に前記クラス基盤加重値を適用することによって、前記クラスに依存的な測位損失を決定するステップを含み得る。
前記トレーニングさせるステップは、前記全体損失を最小化するように前記イメージ認識モデルのパラメータをアップデートするステップを含み得る。
前記パラメータをアップデートするステップは、前記全体損失が収斂するように、前記イメージ認識モデルのパラメータのアップデートを繰り返すステップを含み得る。
前記パラメータをアップデートするステップは、前記クラス損失が前記測位損失よりも先に最小化されるように、前記パラメータをアップデートするステップを含み得る。
一実施形態に係るトレーニング装置は、イメージ認識モデルを格納するメモリと、前記イメージ認識モデルに基づいて、トレーニングデータからクラス損失及びクラスに依存的な測位損失を算出し、前記クラス損失及び前記測位損失を含む全体損失を用いて前記イメージ認識モデルをトレーニングさせるプロセッサとを含む。
一実施形態に係るイメージを認識する方法は、入力イメージを取得するステップと、イメージ認識モデルに基づいて、前記入力イメージから前記入力イメージに示されたランドマークのクラス及び前記ランドマークの基準点を推定するステップとを含む。
一実施形態に係るイメージ認識装置は、イメージ認識モデルを用いてクラスごとに変わり得る基準点の位置をより正確に推定することができる。
一実施形態に係るイメージ認識装置は、入力イメージに示されるランドマークのクラスごとに指定された基準点の正確な位置を推定するため、その結果に基づいて車両又はモバイル端末の位置及び方向も正確に推定することができる。
一実施形態に係るイメージ認識モデルの概略的な構成を説明する図である。 一実施形態に係るイメージ認識モデルに基づいた入力イメージの認識を説明する図である。 一実施形態に係るイメージに示されるオブジェクトを説明する図である。 様々なランドマークを説明する図である。 様々なランドマークを説明する図である。 様々なランドマークを説明する図である。 様々なランドマークを説明する図である。 様々なランドマークを説明する図である。 様々なランドマークを説明する図である。 一実施形態に係るイメージ認識モデルのトレーニングを説明する図である。 一実施形態に係るイメージ認識モデルのトレーニング過程を具体的に説明する図である。 一実施形態に係るトレーニングでサブ領域ごとに損失を算出する過程を説明する図である。 一実施形態に係るトレーニングで各サブ領域からアンカーノードごとに損失を算出する過程を説明する図である。 一実施形態に係るトレーニング装置の構成を説明するブロック図である。 一実施形態に係るトレーニング方法を説明するフローチャートである。 一実施形態に係る各損失関数ごとのトレーニングによる損失減少推移を説明する図である。 一実施形態に係る各損失関数ごとのトレーニングによる損失減少推移を説明する図である。 一実施形態に係る各損失関数ごとのトレーニングによる損失減少推移を説明する図である。 一実施形態に係るイメージ認識装置の構成を説明するブロック図である。
実施形態に対する特定な構造的又は機能的な説明は単なる例示のための目的として開示されたものとして、様々な形態に変更される。したがって、実施形態は特定な開示形態に限定されるものではなく、本明細書の範囲は技術的な思想に含まれる変更、均等物ないし代替物を含む。
第1又は第2などの用語を複数の構成要素を説明するために用いることがあるが、このような用語は1つの構成要素を他の構成要素から区別する目的としてのみ解釈されなければならない。例えば、第1構成要素は第2構成要素と命名することができ、同様に第2構成要素は第1構成要素にも命名することができる。
いずれかの構成要素が他の構成要素に「連結」されているか「接続」されていると言及されたときには、その他の構成要素に直接的に連結されているか又は接続されているが、中間に他の構成要素が存在し得るものと理解されなければならない。
本明細書で用いられる用語は、単に特定の実施形態を説明するために使用されたものであり、本発明を限定しようとする意図はない。単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
異なるように定義さがれない限り、技術的であるか又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
以下、実施形態を添付の図面を参照して詳説する。添付図面を参照して説明することにおいて、図面符号に関わらず同じ構成要素は同じ参照符号を付与し、これに関する重複説明は省略することにする。
図1は、一実施形態に係るイメージ認識モデルの概略的な構成を説明する図である。
一実施形態に係るイメージ認識モデルは、入力イメージから認識結果を出力するようトレーニングされた機械学習構造である。例えば、イメージ認識モデルは、下のニューラルネットワーク100で構成されるが、これに限定されることはない。一実施形態に係るイメージ認識モデルをトレーニングさせる装置(以下、「トレーニング装置」)は、イメージ認識モデルをトレーニングさせることができる。トレーニング装置は、自動車に装着されたカメラで出力されたイメージから、該当イメージに示される表示板などの位置及び種類をイメージ認識モデルにトレーニングさせ得る。イメージ認識装置は、トレーニングされたイメージ認識モデルに基づいて入力イメージを認識する。例えば、イメージ認識装置は、トレーニングが完了したイメージ認識モデルに基づいて、入力イメージに示されるオブジェクトを識別してもよい。ただし、これに限定されることなく、トレーニング装置は、イメージ認識装置と統合されて実現されてもよい。以下では、イメージ認識モデルの例示として、図1に示されたニューラルネットワーク100について説明する。
ニューラルネットワーク100は、単一ネックワークから構成されてもよいし、リカレントネットワークから構成されてもよい。例えば、ニューラルネットワーク100は、ディープニューラルネットワーク(DNN、deep neural network)の例示に該当する。DNNは、完全接続ネットワーク(fully connected network)、畳み込みネットワーク(deep convolutional network)、及びリカレントニューラルネットワーク(recurrent neural network)、LSTM(long−short term memory)ネットワーク、GRU(grated recurrent units)などを含む。
例えば、ニューラルネットワーク100は、入力イメージ、特徴マップ、及び出力を含んでいる複数のレイヤを有する構造で実現されてもよい。ニューラルネットワークでは、入力イメージ及びカーネルに示されるフィルタ間の畳み込み演算が実行されることができ、畳み込み演算の結果として特徴マップが出力される。ここで、出力される特徴マップは入力特徴マップであり、出力特徴マップとカーネルとの間の畳み込み演算が再び実行されれば、その結果として、新しい特徴マップが出力される。このような畳み込み演算の繰り返しの実行に基づいて、入力イメージの特徴の認識結果がニューラルネットワークを介して出力され得る。
ニューラルネットワーク100は、ディープランニングに基づいて非線形関係にある入力データ及び出力データを互いにマッピングすることにより、オブジェクト分類、オブジェクト認識、音声認識、及びイメージ認識などを行うことができる。ディープランニングは、ビッグデータセットからイメージ又は音声認識のような問題を解決するための機械学習方式である。ディープランニングの指導式(supervised)又は非指導式(unsupervised)学習を介して入力データ及び出力データが互いにマッピングされる。
異なる例として、ニューラルネットワークは、入力ソース文章(例えば、音声エントリ)を入力イメージの代わりに含んでもよい。このような例示において、畳み込み演算は、入力ソース文章に対してカーネルで実行され、その結果として特徴マップが出力される。畳み込み演算は、出力特徴マップに対して再び実行されて新しい特徴マップが出力される。畳み込み演算がこのように繰り返し実行されれば、入力ソース文章の特徴に対する認識結果は、最終的にニューラルネットワークを介して出力される。
図1を参照すると、ニューラルネットワーク100は、入力レイヤ110、隠しレイヤ120、及び出力レイヤ130を含む。入力レイヤ110、隠しレイヤ120、及び出力レイヤ130はそれぞれ複数の人工ノードを含む。
図1には、説明の便宜のために隠しレイヤ120が3つのレイヤを含むものと示したが、隠しレイヤ120は様々な数のレイヤを含んでもよい。また、図1にニューラルネットワーク100は、入力データを受信するための別途の入力レイヤを含むものと示したが、入力データが隠しレイヤ120に直接入力されてもよい。ニューラルネットワーク100から出力レイヤ130を除いたレイヤの人工ノードは、出力信号を送信するためのリンクを介して次のレイヤの人工ノードに接続される。リンクの数は、次のレイヤに含まれた人工ノードの数に対応する。例えば、ニューラルネットワーク100は、サブサンプリングレイヤ、プーリングレイヤ、及び完全連結レイヤのような追加的なレイヤを含んでもよい。
隠しレイヤ120に含まれた各人工ノードには、以前レイヤに含まれた人工ノードの加重された入力に関する活性関数の出力が入力される。加重された入力は、以前レイヤに含まれた人工ノードの入力に接続加重値が乗算されたものである。接続加重値は、ニューラルネットワーク100のパラメータと称されてもよい。活性関数は、シグモイド(sigmoid)、双曲線(hyperbolic tangent;tanh)及びReLU(rectified linear unit)を含んでもよく、活性関数によりニューラルネットワーク100に非線型性が形成される。出力レイヤ130に含まれたそれぞれの人工ノードには、以前レイヤに含まれた人工ノードの加重された入力が入力される。
ニューラルネットワーク100は、入力データが与えられれば、隠しレイヤ120を経て出力レイヤ130で分類及び認識しようとするクラス数に応じて関数値を算出し、そのうち最も大きい値を有するクラスで入力データを分類及び認識できる。ニューラルネットワーク100は、入力データを分類あるいは認識できるが、以下は、説明の便宜のためにニューラルネットワーク100の分類及び認識過程を認識過程として説明する。下記の認識過程に関する説明は、性格に反しない限り、分類過程にも適用されてもよい。
ニューラルネットワーク100の幅と深さが十分に大きければ、任意の関数を実現する程の容量を有する。ニューラルネットワーク100が適切なトレーニング過程を介して十分に多くのトレーニングデータを学習すれば、最適な認識性能を達成することができる。
図2は、一実施形態に係るイメージ認識モデルに基づいた入力イメージの認識を説明する図である。
一実施形態に係るイメージ認識装置は、イメージ認識モデル210に基づいて入力イメージ201から出力データ209を算出する。例えば、イメージ認識装置は、イメージ認識モデル210に基づいて、入力イメージ201からランドマークのクラス及びランドマークの基準点を推定する。ランドマークについては下記の図3を参照して説明し、ランドマークのクラス及び基準点については、下記の図4A〜図4Fを参照して説明する。
参考として、出力データ209は、個別ランドマークのクラス及び基準点に関する情報を含む。例えば、イメージ認識装置は、最大N個のランドマークを識別し、i番目のランドマークに対して基準点の座標及びクラス情報を出力データ209として算出する。図2において、i番目のランドマークはObjに示し、i番目のランドマークに対する基準点の座標は(x^,y^)により示され、i番目のランドマークのクラス情報はc^により示される。ここで、Nは1以上の整数、iは1以上N以下の整数を示す。クラス情報c^は、様々なランドマークの種類のうちi番目のランドマークが属する種類を指示するクラスを示す。
下記、図3ではランドマークに関し、様々なオブジェクトが示された入力イメージ201について説明する。
図3は、一実施形態に係るイメージに示されるオブジェクトを説明する図である。
図3に示された入力イメージ301は、様々なオブジェクトを示す。例えば、走行オブジェクト381は道路を走行するオブジェクトとして、車両が走行オブジェクト381に属する。走行オブジェクト382は歩道を移動するオブジェクトとして、人及び動物が走行オブジェクト382に属する。ランドマークオブジェクト(以下、「ランドマーク」)390は、運転者に道路を走行するために必要な情報を提供するために、任意の地理的位置に固定されたオブジェクトを示す。例えば、道路表示板及び信号機などがランドマーク390に属する。
このようなランドマーク390は、交通の主な地点に設けられて位置が固定されているため、自律走行に有用な情報を提供することができる。したがって、一実施形態に係るイメージ認識装置は、イメージ認識モデルに基づいてこのようなランドマーク390の種類を区分し、該当のランドマーク390の基準点の位置を推定する。トレーニング装置は、イメージ認識モデルが入力イメージ301に示されるランドマーク390の種類を区分して基準点の位置を推定するよう、該当のイメージ認識モデルをトレーニングさせることができる。
図4A〜図4Fは、様々なランドマークを説明する図である。
図4A〜図4Fは、それぞれ様々な種類のランドマークを示す。韓国の道路交通法によれば、ランドマークは合計6種のクラスに分類される。例えば、ランドマークは、注意標識411、規制標識412、指示標識413、補助標識414、路面表示416、信号機415に分類される。
図4Aは、注意標識411の例示を示す。注意標識411は、道路状態が危険であるか、道路又はその近くに危険物がある場合に必要な安全措置ができるよう、これを道路のユーザに知らせる標識を示す。注意標識411クラスに属するランドマークの基準点421は、該当のランドマークを取り囲むバウンディングボックス(例えば、イメージ上の2次元バウンディングボックス)の中心地点であってもよい。
図4Bは、規制標識412の例示を示す。規制標識412は、道路交通の安全のために各種の制限禁止などの規制する場合にこれを道路のユーザへ知らせる標識を示す。規制標識412クラスに属するランドマークの基準点422は、該当のランドマークを取り囲むバウンディングボックスの中心地点であってもよい。
図4Cは、指示標識413の例示を示す。指示標識413は、道路の通行方法及び通行区分など道路交通の安全のために必要な指示をする場合、道路のユーザがこれに従うように知らせる標識を示す。指示標識413クラスに属するランドマークの基準点423は、該当のランドマークを取り囲むバウンディングボックスの中心地点であってもよい。
図4Dは、補助標識414の例示を示す。補助標識414は、注意標識411、規制標識412、又は、指示標識413の主な機能を補充して道路のユーザに知らせる標識を示す。補助標識414クラスに属するランドマークの基準点424は、該当のランドマークを取り囲むバウンディングボックスの中心地点であってもよい。
図4Eは、信号機415の例示を示す。信号機415は、道路交通に関して文字記号又は明かりとして、進行、停止、方向転換、及び注意などの信号を表示することで、様々な交通類に優先権を割り当てる機能を行う施設である。信号機415クラスに属するランドマークの基準点425は、信号機415を取り囲むバウンディングボックスの中心地点であってもよい。
図4Fは、路面表示416の例示を示す。路面表示416は、道路交通の安全のために各種の注意、規制、及び指示などの内容を路面に記号文字又は線で道路のユーザに知らせる標識を示す。路面表示416クラスに属するランドマークの基準点426は、該当のランドマークの右側下段の地点であり得る。
ただし、ランドマークの各クラスごとの分類及び指定された基準点の位置を上述したものに限定することはない。国ごとのクラスの種類が変わり、各クラスごとの基準点の位置で変わる。
一実施形態に係るイメージ認識モデルは、上述したようにクラスごとに変わり得る基準点の位置をより正確に推定するよう設計されたモデルを示す。ランドマークの他のタイプとして、例えば、MUTCD(Manual on Uniform Traffic Control Devices)、SHS(Standard Highway Signs)、及び道路表示及び信号標準に関するウィーン協約が使用されてもよい。
図5は、一実施形態に係るイメージ認識モデルのトレーニングを説明する図である。
一実施形態に係るトレーニング装置は、トレーニングデータに基づいて、イメージ認識モデル510をトレーニングさせる。トレーニングデータは、トレーニング入力及び該当のトレーニング入力に対応するトレーニング出力の対を含む。トレーニング入力は、トレーニングイメージ501であってもよい。トレーニング出力は、該当のトレーニング入力に与えられた実際のデータ508(ground truth data)として、例えば、トレーニングイメージ501に示されるランドマークの実際のクラス(ground truth class)及び実際基準点座標(ground truth reference point coordinate)を含む。
まず、トレーニング装置は、トレーニングイメージ501からイメージ認識モデル510に基づいて臨時出力509を算出する。トレーニングが完了していないイメージ認識モデル510は臨時モデルと示される。臨時モデルの出力を臨時出力509と示される。図5に示すように、トレーニング装置は、臨時出力509として、トレーニングイメージ501に示されるランドマークの基準点情報(例えば、(x^,y^))及びクラス情報(例えば、c^)を算出する。
トレーニング装置は、算出された臨時出力509及び実際のデータ508に基づいて損失を算出する。例えば、トレーニング装置は、臨時クラス情報及び実際クラス情報に基づいてクラス損失を算出し、臨時基準点座標及び実際基準点座標に基づいて測位損失(localization loss)を算出する。トレーニングイメージ501に示された任意のランドマークに対する臨時モデルの全体損失507は、下記の数式(1)のように簡略に表現される。
上述した数式(1)において、Ltotalは全体損失507、Lclsはクラス損失、Llocは測位損失を示す。Cはトレーニングイメージ501に示されたランドマークに対して与えられた実際のクラスを示す。rは、トレーニングイメージ501に示されたランドマークに対して与えられた実際基準点座標として、(x,y)を示す。r^は、臨時モデルによって算出された臨時基準点座標として、(x^,y^)を示す。Lcls(C)は、トレーニングイメージ501に示されたランドマークに対して臨時モデルに基づいて推定された臨時クラス情報と実際クラス情報との間のクラス損失を示す。Lloc(r,r^,C)は、トレーニングイメージ501に示されたランドマークに対して臨時モデルに基づいて推定された臨時基準点情報と実際基準点情報との間の測位損失を示す。λ[C≧1]は、測位損失に対してユーザにより設定される加重値として、トレーニングイメージ501にランドマークではない背景に属するクラス(例えば、C=0)が示される場合には測位損失を排除し、ランドマークが示される場合にのみ測位損失を全体損失507に含ませる。
一実施形態に係るトレーニング装置は、上述したように算出された全体損失507が最小化されるよう、イメージ認識モデル510をトレーニングさせる。例えば、トレーニング装置は、全体損失507が収斂するまでイメージ認識モデル510のパラメータを繰り返しアップデートしてもよい。
上述したように、数式(1)において測位損失は、クラスに依存して定義されているため、トレーニング装置は、イメージ認識モデル510のクラスに対する推定正確度が向上するほど、測位に対する推定正確度も向上するようにイメージ認識モデル510をトレーニングさせることができる。
上述した数式(1)に係る全体損失の算出及びトレーニング過程について下記の図6を参照してより詳細に説明する。
図6は、一実施形態に係るイメージ認識モデル610のトレーニング過程を具体的に説明する図である。
まず、トレーニング装置は、トレーニングデータ690からトレーニング入力601を取得する。
トレーニング装置は、イメージ認識モデル610に基づいて、トレーニング入力601から臨時出力を算出する。イメージ認識モデル610は、ディープニューラルネットワーク(DNN、deep neural network)611を含む。例えば、トレーニング装置は臨時出力として、臨時クラス情報681DNNcls及び臨時基準点情報682DNNlocを算出する。
例えば、トレーニング装置は、下記の数式(2)のように臨時クラス情報681DNNclsに対するクラス損失671Lclsを算出する。
上述した数式(2)は、トレーニングイメージに示される任意のあるランドマークに対するクラス損失671Lclsを示す。ただし、数式(2)は例示的な損失関数として、これに限定されることはない。Pはクラス基盤加重値として、例えば、クラス基盤加重値は下記の数式(3)のように定義される。
参考として、ランドマークの種類が合計M個のクラスに分類されると仮定された場合、臨時クラス情報681は、トレーニングイメージに示されたランドマークが0回目のクラスに属する確率ないしM−1回目のクラスに属する確率を含む。例えば、臨時クラス情報681は、[pC0,...,pCM−1]のようなクラス確率ベクトルに表現される。cは複数のクラスのうちj番目のクラスを示す。Cは、該当のランドマークに対して与えられた実際のクラスを示す。Σexp(p)は、該当のランドマークが各クラスに属する確率の指数合計(exponential sum)を示す。また、臨時クラス情報681でpは、ランドマークが実際のクラスCに属する確率を示す。したがって、クラス基盤加重値Pは、イメージ認識モデル610に基づいて複数のクラスに対して推定された確率のうち、該当のランドマークに対して与えられた実際のクラスCに対して推定された確率が定量化された値を示す。トレーニング装置は、トレーニングデータ690から実際のクラスCを取得する。
また、トレーニング装置は、下記の数式(4)のように臨時測位情報DNNlocに対する測位損失672Llocを算出する。
上述した数式(4)は、トレーニングイメージに示される任意のあるランドマークに対する測位損失672Llocを示す。mは該当のランドマークの実際基準点座標を示し、m^は、イメージ認識モデル610に基づいて推定された基準点座標を示す。トレーニング装置は、トレーニングデータ690から実際基準点座標を取得する。smoothL1は、L損失関数及びL損失関数が混合した関数として、ユークリッド距離関数の一種を示す。ただし、距離関数がこれに限定されることはない。
数式(4)に示されたように、トレーニング装置は、臨時基準点情報682と実際基準点情報との間の差(例えば、smoothL1の値)にクラス基盤加重値Pを適用することによって、クラスに依存的な測位損失を決定し得る。したがって、測位損失672Llocは、クラス基盤加重値Pに依存的な損失として定義される。上述した数式(4)による測位損失672Llocを介して、トレーニング装置は、イメージ認識モデル610の分類の正確度が正確度閾値よりも低い場合、全体損失679Ltotalで測位損失672Llocの大きさを減少させることにより、イメージ認識モデル610で分類に該当する部分を先にトレーニングさせる。トレーニング装置は、分類の正確度が正確度閾値以上である場合、全体損失679Ltotalで測位損失672Llocの大きさを増加させることにより、イメージ認識モデル610で測位に該当する部分をトレーニングする。したがって、トレーニング装置は、イメージ認識モデル610の分類性能を増加させてから測位性能を増加させることで、クラスによる測位認識を行うようにイメージ認識モデル610をトレーニングさせることができる。
参考として、トレーニングイメージが複数のサブ領域に分割される場合、トレーニング装置は各サブ領域に対して上述した数式(2)により部分クラス損失を算出し、部分クラス損失の合計から該当のトレーニングイメージに対する全体クラス損失を算出できる。トレーニング装置は、上述した数式(4)により部分測位損失を算出し、部分測位損失の合計から該当のトレーニングイメージに対する全体測位損失を算出できる。サブ領域は、下記の図7を参照して説明する。
図7は、一実施形態に係るトレーニングでサブ領域ごとに損失を算出する過程を説明する図である。
トレーニング装置は、イメージ認識モデル710に基づいてトレーニングイメージ701からサブ領域別に臨時出力780を算出する。例えば、トレーニング装置は、トレーニング入力イメージの各サブ領域ごとに臨時クラス情報及び臨時基準点情報を算出する。一実施形態によれば、トレーニング装置は、トレーニング入力イメージのサブ領域ごとに該当のサブ領域に対して算出された臨時クラス情報と実際クラス情報との間の部分クラス損失を算出する。トレーニング装置は、サブ領域(例えば、図7では合計20個のサブ領域)に対して算出された部分クラス損失の合計をクラス損失として決定する。ただし、これに限定されることはない。
例えば、図7に示すように、トレーニング装置は、トレーニング入力イメージのサブ領域のうち、実際のランドマーク部分781に対応するサブ領域(例えば、図7では4個のサブ領域)を選択する。トレーニング装置は、選択されたサブ領域に対して算出された臨時クラス情報と実際クラス情報との間の部分クラス損失を算出する。トレーニング装置は、選択されたサブ領域に対して算出された部分クラス損失の合計をクラス損失として決定する。さらに、トレーニング装置は、トレーニング入力イメージのサブ領域のうち、実際の背景部分782に対応するサブ領域(例えば、図7では4個のサブ領域)をさらに選択してもよい。クラス分類に対するトレーニングのバランスのために、トレーニング装置は、実際のランドマーク部分781に対応するサブ領域の個数及び実際の背景部分782に対応するサブ領域の個数を類似に決定することができる。
また、トレーニング装置は、トレーニング入力イメージのサブ領域ごとに該当のサブ領域に対して算出された臨時基準点情報と実際基準点情報との間の部分測位損失を算出する。トレーニング装置は、サブ領域に対して算出された部分測位損失の合計を測位損失として決定する。トレーニング装置は、トレーニング入力イメージのサブ領域のうち、実際のランドマーク部分781に対応するサブ領域を選択する。トレーニング装置は、選択されたサブ領域に対して算出された基準点情報と実際基準点情報との間の部分測位損失を算出する。トレーニング装置は、選択されたサブ領域に対して算出された部分測位損失の合計を測位損失として決定する。トレーニング装置は、実際の背景部分782に対する部分測位損失の算出を排除する。実際の背景部分782では、ランドマークが示されていないため、測位損失を算出する必要がないからである。
参考として、トレーニング装置は、実際の出力792を生成するためにマップデータ791を変換する。実際の出力792は、実際クラス情報及び実際基準点情報を含む。一実施形態によれば、トレーニング装置は、実際のランドマーク部分781の実際基準点情報を生成するために、マップデータ791を変換する。例えば、マップデータ791は、ランドマークが位置する3次元座標に関する情報を含む。トレーニング装置は、マップデータ791でトレーニングイメージ701が撮影された位置及び姿勢(例えば、車両の姿勢)と共に、トレーニングイメージ701を撮影したイメージセンサの視野角などに基づいて、トレーニングイメージ701に示されるランドマークの3次元座標を2次元座標に変換する。トレーニング装置は、任意のサブ領域に対して算出された臨時基準点座標と上記のようにマップデータ791から変換された実際基準点座標793との間の差に基づいて部分測位損失を算出し得る。
トレーニング装置は、サブ領域ごとの部分クラス損失の合計であるクラス損失及びサブ領域ごとの部分測位損失の合計である測位損失に基づいて、全体損失770を算出することができる。
下記の図8では、サブ領域での部分クラス損失及び部分測位損失を算出するためのアンカーノードについて説明する。
図8は、一実施形態に係るトレーニングで各サブ領域でアンカーノードごとに損失を算出する過程を説明する図である。
トレーニング装置は、各サブ領域に設定された複数のアンカーノード881(anchor node)ごとに臨時クラス情報及び臨時基準点情報を算出する。例えば、図8において、トレーニング装置は、各サブ領域ごとに5個のアンカーノード881を設定する。
例えば、トレーニング装置は、トレーニングイメージの任意のサブ領域880で各アンカーノード881ごとに臨時測位座標871(x^,y^)を算出する。トレーニング装置は、基準出力のそれに対応するサブ領域890に含まれた実際基準点891に対する実際の座標872(x,y)及び臨時測位座標871(x^,y^)の差を算出する。トレーニング装置は、アンカーノード881ごとに算出された実際の座標872(x,y)及び臨時測位座標871(x^,y^)の差の合計から部分測位損失879を算出する。ただし、説明の便宜のために、臨時測位座標871(x^,y^)を算出するものとして説明したが、これに限定されることはない。トレーニング装置は、アンカーノード881ごとに、各アンカーノード881から基準点までのオフセットを臨時基準点情報として算出してもよい。オフセットは、アンカーノード881のピクセル位置から基準点までの位置変化量を示す。
また、トレーニング装置は、トレーニングイメージの任意のサブ領域880で各アンカーノード881ごとに臨時クラス情報861C^を算出する。トレーニング装置は、基準出力のそれに対応するサブ領域890に含まれた実際クラス情報862c及び臨時クラス情報861C^から部分クラス損失869を算出する。
トレーニング装置は、複数のアンカーノード881に対して算出された損失を合算することによって、任意のサブ領域に対する部分測位損失879及び部分クラス損失869を算出する。トレーニング装置は、複数のサブ領域の部分損失を合算することにより全体損失を算出できる。
また、上記では全てのアンカーノード881を用いて損失を算出するものと説明したが、これに限定されることはない。例えば、トレーニング装置は、複数のアンカーノード881ごとに算出された信頼度に基づいて、上位信頼度を有するアンカーノード881に対して臨時クラス情報及び臨時基準点情報を算出してもよい。トレーニング装置は、最も高い信頼度を有するアンカーノード881から順にK個のアンカーノード881を選択し、選択されたK個のアンカーノード881に対して臨時クラス情報及び臨時基準点情報を算出してもよい。トレーニング装置は、任意のサブ領域で選択されたK個のアンカーノード881に基づいて、該当のサブ領域に対する部分損失を算出してもよい。ここで、Kは1以上の整数であり得る。トレーニング装置は、複数のアンカーノード881ごとに算出された信頼度に基づいて、信頼度閾値未満の信頼度を有するアンカーノード881を排除する。トレーニング装置は、該当のサブ領域で選択されたK個のアンカーノード881のうち、信頼度閾値未満の信頼度を有するアンカーノード881に対しては損失算出を排除する。したがって、トレーニング装置は、信頼度上位K個のアンカーノード881のうち、閾値の信頼度を充足するアンカーノード881のみを用いて損失を算出できる。
図9は、一実施形態に係るトレーニング装置の構成を説明するブロック図である。
一実施形態に係るトレーニング装置900は、プロセッサ910及びメモリ920を含む。
プロセッサ910は、イメージ認識モデル921に基づいて、トレーニングデータからクラス損失及びクラスに依存的な測位損失を算出する。プロセッサ910は、クラス損失及び測位損失に基づいて算出された全体損失を用いて、イメージ認識モデル921をトレーニングさせる。ただし、プロセッサ910の動作がこれに限定されることなく、図1〜図8を参照して説明した動作も行うことができる。
プロセッサ910は、所望する動作を実行するための物理的な構造の回路を有するハードウェアとして構成されるデータ処理装置を示す。例えば、所望する動作はプログラムに含まれたコード又は命令語を含む。例えば、データ処理装置は、マイクロプロセッサ、CPU、プロセッサコア、マルチコアプロセッサ、マルチプロセッサ、ASIC(application−specific integrated circuit)、及びFPGA(field programmable gate array)をハードウェアとして含み得る。プロセッサ910は、イメージ認識モデルを制御してプログラムを実行する。例えば、プロセッサ910は、GPU(graphics processor unit)、再構成可能なプロセッサ、又は、他のタイプのマルチ又は単一プロセッサ構成であってもよい。プロセッサ910により実行されるプログラムコードは、メモリ920に格納される。プロセッサ910の詳細は後述する。
メモリ920は、イメージ認識モデル921を格納する。メモリ920は、トレーニングデータも格納してもよい。メモリ920は、イメージ認識モデル921によるトレーニングデータの評価結果を格納する。トレーニングデータは、トレーニング入力及びトレーニング出力の対を含む。本明細書でトレーニング入力はトレーニングイメージ991であり得る。トレーニング出力は、マップデータ992である得る。メモリ920は、プロセッサ910で処理中に生成される様々な情報を格納する。さらに、様々なデータ及びプログラムがメモリ920に格納される。メモリ920は、例えば、揮発性メモリ又は不揮発性メモリであってもよい。メモリ920は、様々なデータを格納するためにハードディスクのような大容量格納媒体を含む。メモリ920に関する詳細は後述することにする。
トレーニング装置900は、マップデータ992を変換することによって実際の基準点情報及び実際クラス情報を取得する。例えば、プロセッサ910は、トレーニングイメージ991を撮影したイメージセンサの位置、姿勢、及び視野角などに基づいて、マップデータ992に含まれたランドマークのうち、イメージセンサにより撮影されるランドマークを抽出し、抽出されたランドマークの3次元座標をイメージ上の2次元座標に変換し得る。
図10は、一実施形態に係るトレーニング方法を説明するフローチャートである。
まず、ステップS1010において、トレーニング装置は、イメージ認識モデルに基づいて、トレーニングデータからクラス損失及びクラスに依存的な測位損失を算出する。例えば、トレーニング装置は、イメージ認識モデルに基づいてトレーニング入力イメージから臨時クラス情報及び臨時基準点情報を算出する。トレーニング装置は、臨時クラス情報及び実際クラス情報に基づいてクラス損失を算出する。トレーニング装置は、臨時基準点情報及び実際基準点情報に基づいて測位損失を算出する。
一実施形態に係るトレーニング装置は、臨時クラス情報に基づいてクラス基盤加重値を算出する。トレーニング装置は、クラス基盤加重値、臨時基準点情報、及び実際基準点情報に基づいてクラスに依存的な測位損失を決定する。クラスに依存的な測位損失の決定については図6を参照して上述したため、詳しい説明は省略する。
そして、ステップS1020において、トレーニング装置は、クラス損失及び測位損失に基づいて算出された全体損失を用いて、イメージ認識モデルをトレーニングさせる。例えば、トレーニング装置は、全体損失を最小化するようにイメージ認識モデルのパラメータをアップデートする。トレーニング装置は、全体損失が収斂するまで、イメージ認識モデルのパラメータのアップデートを繰り返す。したがって、トレーニング装置は、クラス損失が測位損失よりも先に最小化されるようパラメータをアップデートし得る。
図11A〜図11Cは、一実施形態に係る各損失関数ごとのトレーニングによる損失減少推移を説明する図である。
図11A〜図11Cにおいて、縦軸はクラス損失の大きさを示し、横軸は測位損失の大きさを示す。
まず、図11Aは下記の数式(5)による損失関数に係るトレーニング推移を説明する図である。
数式(5)において、Lloc(r,r^)はクラスに関係がない測位損失を示す。図11aに示すように、数式(5)により損失関数が定義される場合、クラス損失及び測位損失が互いに均等に線形的に減少する態様を示す。
図11Bは、下記の数式(6)に係る損失関数に係るトレーニング推移を説明する図である。図11Cは、下記の数式(7)による損失関数に係るトレーニング推移を説明する図である。
数式(6)及び数式(7)において、測位損失Lloc(r,r^)はクラス損失Lcls(C)と関わっている。したがって、図11B及び図11Cに示すように、数式(6)及び数式(7)により損失関数が定義される場合、クラス損失が先に減少して測位損失が後ほど減少する態様を示す。
図12は、一実施形態に係るイメージ認識装置の構成を説明するブロック図である。
一実施形態に係るイメージ認識装置1200は、イメージ取得部1210、プロセッサ1220、及びメモリ1230、UI(ユーザインターフェース)又はディスプレイ1240、及び通信インターフェース1250を含む。プロセッサ1220、メモリ1230、イメージ取得部1210、UI又はディスプレイ1240、及び通信インターフェース1250は、通信バス1205を介して互いに通信する。
イメージ取得部1210は、入力イメージを取得する。例えば、イメージ取得部1210は、イメージを撮影するイメージセンサを含む。イメージセンサは、例えば、カラーカメラ、深度センサ、赤外線センサ、熱画像センサ、レーダー(radar)センサ、及びライダ(LiDAR)センサなどにより実現されるが、これに限定されることはない。
プロセッサ1220は、イメージ認識モデルに基づいて、入力イメージから入力イメージに示されたランドマークのクラス及びランドマークの基準点を推定する。例えば、プロセッサ1220は、入力イメージに示された複数のランドマークのそれぞれに対して各ランドマークのクラス及び各ランドマークの基準点の座標を出力する。また、プロセッサ1220は、図1〜図11を参照して上述した少なくとも1つの方法を行ってもよい。
プロセッサ1220は、所望する動作を実行するための物理的な構造の回路を有するハードウェアとして構成されるデータ処理装置を示す。例えば、所望する動作は、プログラムに含まれたコード又は命令語を含む。例えば、データ処理装置は、マイクロプロセッサ、CPU、プロセッサコア、マルチコアプロセッサ、マルチプロセッサ、ASIC(application−specific integrated circuit)、及びFPGA(field programmable gate array)をハードウェアとして含むことができる。プロセッサ1220は、イメージ認識モデルを制御してプログラムを実行する。例えば、プロセッサ1220は、GPU(graphics processor unit)、再構成可能なプロセッサ、又は、他のタイプのマルチ回る単一プロセッサ構成であり得る。プロセッサ1220によって実行されるプログラムコードはメモリ1230に格納される。プロセッサ1220の詳細は後述する。
メモリ1230は、トレーニングが完了したイメージ認識モデルを格納する。例えば、イメージ認識モデルは、図1〜図11を参照して上述したトレーニング過程によりアップデートされたパラメータを有するモデルである。ただし、イメージ認識モデルのパラメータが固定されたものとして限定されず、リアルタイムの認識過程で、イメージ認識装置1200はイメージ認識モデルのパラメータを今後アップデートしてもよい。
メモリ1230は、プロセッサ1220で処理中に生成される様々な情報を格納する。さらに、様々なデータ及びプログラムがメモリ1230に格納される。メモリ1230は、例えば、揮発性メモリ又は非揮発性メモリであってもよい。メモリ1230は、様々なデータを格納するためにハードディスクのような大容量格納媒体を含む。メモリ1230に関する詳細は後述する。
一実施形態に係るイメージ認識装置1200は、図1〜図11を参照して上述したようにクラスに依存的な測位損失関数に基づいてトレーニングされたイメージ認識モデルを用いることで、ランドマークの位置を正確に推定することができる。
UI又はディスプレイ1240は、プロセッサ1220によって推定されたランドマークの位置を出力してもよいし、ランドマークの正確に推定された位置に基づいてマップデータ上にランドマークを指示する仮想オブジェクトを表示してもよい。UI又はディスプレイ1240は、ユーザインターフェースをレンダリングし、ディスプレイをレンダリングしてユーザ入力を受信できる1つ以上のハードウェア構成を含む物理的構造であり得る。ただし、UI又はディスプレイ1240を上述したものに限定せず、例えば、スマートフォン、EGD(eye glass display)のような他のディスプレイがイメージ認識装置1200と動作的に接続して使用されてもよい。
イメージ認識装置1200は、車両の測位を行ってもよいし、モバイル端末の測位を行ってもよい。ここで言及された車両は、輸送、配達、又は、通信中任意のモードを示し、例えば、自動車、トラック、トラクター、スクーター、バイク、サイクル、水陸両用自動車、スノーモービル、船、公共輸送車両、バス、モノレール、汽車、トラム、自動又は無人走行車両、知能型車両、自律走行車両、無人航空機、電気車、ハイブリッドカー、スマート移動装置、ADAS(advanced driver assistance system)を有する知能型車両及びドローンを示す。例えば、スマート移動装置(smart mobility device)は、例えば、電動ホイール(electric wheels)、電動キックボード(electric kickboard)、及び電気自転車などのような装置を含む。例えば、車両は、エンジンが走った車両及びエンジンが走らなかった車両を含んでもよく、動力エンジンを有する車両(例えば、耕うん機又はバイク)、自転車又は手押し車などであってもよい。
また、ここで言及された車両の他にも、イメージ認識装置1200は、例えば、スマートフォン、歩行補助装置、ウェラブル装置、セキュリティー装置、ロボット、移動端末、及び様々なIoT(Internet of Things)装置のような様々な装置に含まれてもよい。
イメージ認識装置1200は、入力イメージに示されるランドマークのクラスごとに指定された基準点の正確な位置を推定するため、車両又はモバイル端末の位置及び方向を推定するために使用される。ランドマークの基準点は、マップデータ(例えば、3D精密マップ)にその正確な位置が格納されているため、該当の位置を介して自動車の位置及び方向が推定され得るためである。
以上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組み合せで具現される。例えば、本実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサ、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で実行される1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含むことが把握する。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はそのうちの一つ以上の組合せを含み、所望の動作を行うよう処理装置を構成され、独立的又は結合的に処理装置を命令することができる。ソフトウェア及び/又はデータは、処理装置によって解釈され、処理装置に命令又はデータを提供するために、いずれかの類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、又は送信される信号波に永久的又は一時的に具体化することができる。ソフトウェアはネットワークに連結されたコンピュータシステム上に分散され、分散した方法で格納及び実行され得る。ソフトウェア及びデータは一つ以上のコンピュータで読出し可能な記録媒体に格納され得る。
本実施形態による方法は、様々なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組み合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DYIJDのような光記録媒体、フロプティカルディスクのような磁気−光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明に示す動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
上述したように実施形態をたとえ限定された図面によって説明したが、当技術分野で通常の知識を有する者であれば、上記の説明に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順で実行されるし、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組み合わせられてもよいし、他の構成要素又は均等物によって置き換え又は置換されたとしても適切な結果を達成することができる。
したがって、本発明の範囲は、開示された実施形態に限定されて定められるものではなく、特許請求の範囲及び特許請求の範囲と均等なものなどによって定められるものである。
900:トレーニング装置
910:プロセッサ
920:メモリ
921:イメージ認識モデル
990:トレーニングデータ

Claims (20)

  1. イメージ認識モデルをトレーニングさせる方法において、
    イメージ認識モデルに基づいて、トレーニングデータからクラス損失及びクラスに依存的な測位損失を算出するステップと、
    前記クラス損失及び前記測位損失を含む全体損失を用いて、前記イメージ認識モデルをトレーニングさせるステップと、
    を含むイメージ認識モデルをトレーニングさせる方法。
  2. 前記クラス損失及びクラスに依存的な測位損失を算出するステップは、
    前記イメージ認識モデルに基づいて、トレーニング入力イメージから臨時クラス情報及び臨時基準点情報を算出するステップと、
    前記臨時クラス情報及び実際クラス情報に基づいて前記クラス損失を算出するステップと、
    前記臨時基準点情報及び実際基準点情報に基づいて前記測位損失を算出するステップと、
    を含む、請求項1に記載のイメージ認識モデルをトレーニングさせる方法。
  3. 前記臨時クラス情報及び臨時基準点情報を算出するステップは、前記トレーニング入力イメージの各サブ領域ごとに前記臨時クラス情報及び前記臨時基準点情報を算出するステップを含む、請求項2に記載のイメージ認識モデルをトレーニングさせる方法。
  4. 前記クラス損失を算出するステップは、
    前記トレーニング入力イメージのサブ領域ごとに算出された臨時クラス情報と実際クラス情報との間の部分クラス損失を算出するステップと、
    前記トレーニング入力イメージの前記サブ領域のそれぞれに対して算出された部分クラス損失の合計を前記クラス損失として決定するステップと、
    を含む、請求項3に記載のイメージ認識モデルをトレーニングさせる方法。
  5. 前記クラス損失を算出するステップは、
    前記トレーニング入力イメージのサブ領域のうち実際のランドマーク部分に対応するサブ領域を選択するステップと、
    前記選択されたサブ領域に対して算出された臨時クラス情報と実際クラス情報との間の部分クラス損失を算出するステップと、
    前記選択されたサブ領域に対して算出された部分クラス損失の合計を前記クラス損失として決定するステップと、
    を含む、請求項3に記載のイメージ認識モデルをトレーニングさせる方法。
  6. 前記サブ領域を選択するステップは、前記トレーニング入力イメージのサブ領域のうち実際の背景部分に対応するサブ領域をさらに選択するステップを含む、請求項5に記載のイメージ認識モデルをトレーニングさせる方法。
  7. 前記測位損失を算出するステップは、
    前記トレーニング入力イメージのサブ領域ごとに該当のサブ領域に対して算出された臨時基準点情報と実際基準点情報との間の部分測位損失を算出するステップと、
    前記サブ領域のそれぞれに対して算出された部分測位損失の合計を前記測位損失として決定するステップと、
    を含む、請求項3に記載のイメージ認識モデルをトレーニングさせる方法。
  8. 前記測位損失を算出するステップは、
    前記トレーニング入力イメージのサブ領域のうち実際のランドマーク部分に対応するサブ領域を選択するステップと、
    前記選択されたサブ領域に対して算出された基準点情報と実際基準点情報との間の部分測位損失を算出するステップと、
    前記選択されたサブ領域に対して算出された部分測位損失の合計を前記測位損失として決定するステップと、
    を含む、請求項3に記載のイメージ認識モデルをトレーニングさせる方法。
  9. 前記の部分測位損失を算出するステップは、前記選択されたサブ領域から実際の背景部分のサブ領域を排除するステップを含む、請求項8に記載のイメージ認識モデルをトレーニングさせる方法。
  10. 前記トレーニング入力イメージの各サブ領域ごとに前記臨時クラス情報及び前記臨時基準点情報を算出するステップは、前記各サブ領域に設定された複数のアンカーノードごとに前記臨時クラス情報及び前記臨時基準点情報を算出するステップを含む、請求項3に記載のイメージ認識モデルをトレーニングさせる方法。
  11. 前記各サブ領域に設定された複数のアンカーノードごとに前記臨時クラス情報及び前記臨時基準点情報を算出するステップは、前記複数のアンカーノードごとに算出された信頼度に基づいて、上位信頼度を有するアンカーノードに対して臨時クラス情報及び臨時基準点情報を算出するステップを含む、請求項10に記載のイメージ認識モデルをトレーニングさせる方法。
  12. 前記各サブ領域に設定された複数のアンカーノードごとに前記臨時クラス情報及び前記臨時基準点情報を算出するステップは、前記複数のアンカーノードのそれぞれに対して算出された信頼度の中から信頼度閾値未満の信頼度を有するアンカーノードを排除するステップを含む、請求項10に記載のイメージ認識モデルをトレーニングさせる方法。
  13. 前記クラス損失及びクラスに依存的な測位損失を算出するステップは、
    臨時クラス情報に基づいてクラス基盤加重値を算出するステップと、
    前記クラス基盤加重値、臨時基準点情報、及び実際基準点情報に基づいて前記クラスに依存的な測位損失を決定するステップと、
    を含む、請求項1に記載のイメージ認識モデルをトレーニングさせる方法。
  14. 前記クラスに依存的な測位損失を決定するステップは、前記臨時基準点情報と前記実際基準点情報との間の差に前記クラス基盤加重値を適用することによって、前記クラスに依存的な測位損失を決定するステップを含む、請求項13に記載のイメージ認識モデルをトレーニングさせる方法。
  15. 前記トレーニングさせるステップは、前記全体損失を最小化するように前記イメージ認識モデルのパラメータをアップデートするステップを含む、請求項1−14のうちの何れか一項に記載のイメージ認識モデルをトレーニングさせる方法。
  16. 前記パラメータをアップデートするステップは、前記全体損失が収斂するように、前記イメージ認識モデルのパラメータのアップデートを繰り返すステップを含む、請求項15に記載のイメージ認識モデルをトレーニングさせる方法。
  17. 前記パラメータをアップデートするステップは、前記クラス損失が前記測位損失よりも先に最小化されるように、前記パラメータをアップデートするステップを含む、請求項15に記載のイメージ認識モデルをトレーニングさせる方法。
  18. 請求項1乃至請求項17のうち何れか一項に記載の方法を装置のコンピュータに実行させるための命令語を含むコンピュータプログラム。
  19. トレーニング装置において、
    イメージ認識モデルを格納するメモリと、
    前記イメージ認識モデルに基づいて、トレーニングデータからクラス損失及びクラスに依存的な測位損失を算出し、前記クラス損失及び前記測位損失を含む全体損失を用いて前記イメージ認識モデルをトレーニングさせるプロセッサと、
    を含むトレーニング装置。
  20. イメージを認識する方法において、
    入力イメージを取得するステップと、
    イメージ認識モデルに基づいて、前記入力イメージから前記入力イメージに示されたランドマークのクラス及び前記ランドマークの基準点を推定するステップと、
    を含むイメージを認識する方法。
JP2019171731A 2018-10-17 2019-09-20 イメージ認識モデルのトレーニング装置及び方法並びにイメージ認識方法 Active JP7421889B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0123487 2018-10-17
KR1020180123487A KR20200043005A (ko) 2018-10-17 2018-10-17 이미지 인식 모델을 트레이닝시키는 장치 및 방법과 이미지 인식 장치 및 방법

Publications (2)

Publication Number Publication Date
JP2020064619A true JP2020064619A (ja) 2020-04-23
JP7421889B2 JP7421889B2 (ja) 2024-01-25

Family

ID=66751948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019171731A Active JP7421889B2 (ja) 2018-10-17 2019-09-20 イメージ認識モデルのトレーニング装置及び方法並びにイメージ認識方法

Country Status (5)

Country Link
US (1) US11544507B2 (ja)
EP (1) EP3640846B1 (ja)
JP (1) JP7421889B2 (ja)
KR (1) KR20200043005A (ja)
CN (1) CN111062405A (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11354820B2 (en) * 2018-11-17 2022-06-07 Uatc, Llc Image based localization system
KR20210141123A (ko) * 2020-05-15 2021-11-23 한국전자통신연구원 인공지능의 부분 학습 방법 및 이를 위한 장치
CN112987765B (zh) * 2021-03-05 2022-03-15 北京航空航天大学 一种仿猛禽注意力分配的无人机/艇精准自主起降方法
CN113359135B (zh) * 2021-07-07 2023-08-22 中国人民解放军空军工程大学 一种成像及识别模型的训练方法、应用方法、装置及介质
CN115690526A (zh) * 2021-07-29 2023-02-03 三星电子株式会社 具有对象检测的设备和方法
CN117037895B (zh) * 2023-10-09 2024-02-20 苏州元脑智能科技有限公司 模型训练方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017091833A1 (en) * 2015-11-29 2017-06-01 Arterys Inc. Automated cardiac volume segmentation
JP2018060296A (ja) * 2016-10-03 2018-04-12 グローリー株式会社 画像処理装置、画像処理システム及び画像処理方法
US20180268220A1 (en) * 2017-03-17 2018-09-20 Magic Leap, Inc. Room layout estimation methods and techniques

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4930854B2 (ja) * 2005-07-19 2012-05-16 日本電気株式会社 関節物体位置姿勢推定装置及びその方法ならびにプログラム
NO327279B1 (no) * 2007-05-22 2009-06-02 Metaio Gmbh Kamerapositurestimeringsanordning og- fremgangsmate for foroket virkelighetsavbildning
US9488483B2 (en) * 2013-05-17 2016-11-08 Honda Motor Co., Ltd. Localization using road markings
KR101553898B1 (ko) 2014-03-04 2015-09-17 국방과학연구소 지형지물의 위치정보를 이용한 자율이동차량의 위치추정시스템 및 방법
WO2015156821A1 (en) 2014-04-11 2015-10-15 Nissan North America, Inc. Vehicle localization system
US9235904B1 (en) * 2014-06-20 2016-01-12 Nec Laboratories America, Inc. Object detection with Regionlets re-localization
US20160283864A1 (en) 2015-03-27 2016-09-29 Qualcomm Incorporated Sequential image sampling and storage of fine-tuned features
US9916703B2 (en) 2015-11-04 2018-03-13 Zoox, Inc. Calibration for autonomous vehicle operation
US9881234B2 (en) 2015-11-25 2018-01-30 Baidu Usa Llc. Systems and methods for end-to-end object detection
KR102308871B1 (ko) * 2016-11-02 2021-10-05 삼성전자주식회사 객체의 속성에 기반하여 객체를 인식 및 트레이닝하는 방법 및 장치
KR102463702B1 (ko) 2016-12-15 2022-11-07 현대자동차주식회사 차량 정밀 위치 추정 장치, 그 방법, 그를 위한 맵 구축 장치, 및 그를 위한 맵 구축 방법
CN106934355A (zh) * 2017-02-28 2017-07-07 西交利物浦大学 基于深度卷积神经网络的车内手检测方法
CN108009526A (zh) * 2017-12-25 2018-05-08 西北工业大学 一种基于卷积神经网络的车辆识别与检测方法
CN110580487A (zh) * 2018-06-08 2019-12-17 Oppo广东移动通信有限公司 神经网络的训练方法、构建方法、图像处理方法和装置
JP7208480B2 (ja) * 2018-10-12 2023-01-19 富士通株式会社 学習プログラム、検出プログラム、学習装置、検出装置、学習方法および検出方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017091833A1 (en) * 2015-11-29 2017-06-01 Arterys Inc. Automated cardiac volume segmentation
JP2018060296A (ja) * 2016-10-03 2018-04-12 グローリー株式会社 画像処理装置、画像処理システム及び画像処理方法
US20180268220A1 (en) * 2017-03-17 2018-09-20 Magic Leap, Inc. Room layout estimation methods and techniques

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SHAOQING REN(外3名): "Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. 39, no. 6, JPN6023026374, 6 June 2017 (2017-06-06), US, pages 1137 - 1149, XP055705510, ISSN: 0005091443, DOI: 10.1109/TPAMI.2016.2577031 *

Also Published As

Publication number Publication date
EP3640846B1 (en) 2024-02-21
US20200125899A1 (en) 2020-04-23
CN111062405A (zh) 2020-04-24
US11544507B2 (en) 2023-01-03
EP3640846A1 (en) 2020-04-22
KR20200043005A (ko) 2020-04-27
JP7421889B2 (ja) 2024-01-25

Similar Documents

Publication Publication Date Title
US11500099B2 (en) Three-dimensional object detection
US11217012B2 (en) System and method for identifying travel way features for autonomous vehicle motion control
US11475675B2 (en) Systems and methods for identifying unknown instances
JP7421889B2 (ja) イメージ認識モデルのトレーニング装置及び方法並びにイメージ認識方法
US11501105B2 (en) Automatic creation and updating of maps
US20190145765A1 (en) Three Dimensional Object Detection
US11682137B2 (en) Refining depth from an image
CN112789481A (zh) 对自上而下场景的轨迹预测
US11768292B2 (en) Three-dimensional object detection
CN110388931A (zh) 将对象的二维边界框转换成自动驾驶车辆的三维位置的方法
US11686848B2 (en) Systems and methods for training object detection models using adversarial examples
CN108537326A (zh) 用于自动驾驶车辆的方法、介质和系统
KR102539942B1 (ko) 궤적 계획 모델을 훈련하는 방법, 장치, 전자 기기, 저장 매체 및 프로그램
US20220274625A1 (en) Graph neural networks with vectorized object representations in autonomous vehicle systems
CN112740268B (zh) 目标检测方法和装置
US11699237B2 (en) Bounding box embedding for object identifying
KR20200046437A (ko) 영상 및 맵 데이터 기반 측위 방법 및 장치
EP4148599A1 (en) Systems and methods for providing and using confidence estimations for semantic labeling
US11803977B2 (en) LIDAR point cloud alignment validator in HD mapping
US20230029900A1 (en) Three-dimensional object detection based on image data
US11915436B1 (en) System for aligning sensor data with maps comprising covariances
US20230033177A1 (en) Three-dimensional point clouds based on images and depth data
CN117346791B (zh) 基于视觉图像的智能轮椅路径规划方法及系统
US20230245336A1 (en) Distance representation and encoding

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240115

R150 Certificate of patent or registration of utility model

Ref document number: 7421889

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150