JPWO2016157499A1 - 画像処理装置、物体検知装置、画像処理方法 - Google Patents

画像処理装置、物体検知装置、画像処理方法 Download PDF

Info

Publication number
JPWO2016157499A1
JPWO2016157499A1 JP2017509108A JP2017509108A JPWO2016157499A1 JP WO2016157499 A1 JPWO2016157499 A1 JP WO2016157499A1 JP 2017509108 A JP2017509108 A JP 2017509108A JP 2017509108 A JP2017509108 A JP 2017509108A JP WO2016157499 A1 JPWO2016157499 A1 JP WO2016157499A1
Authority
JP
Japan
Prior art keywords
image processing
unit
classifier
image
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017509108A
Other languages
English (en)
Other versions
JP6546271B2 (ja
Inventor
克行 中村
克行 中村
秋山 靖浩
靖浩 秋山
達彦 影広
達彦 影広
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2016157499A1 publication Critical patent/JPWO2016157499A1/ja
Application granted granted Critical
Publication of JP6546271B2 publication Critical patent/JP6546271B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)

Abstract

入力された画像中の対象物を識別して前記対象物を複数の種別のいずれかに分類する識別器を評価するための画像処理装置であって、前記識別器を用いて、前記対象物の種別が既知である複数の検証用画像にそれぞれ含まれる前記対象物を識別して前記複数の種別のいずれかを前記検証用画像ごとに出力することで、前記識別器の識別性能を求める識別部と、前記識別部により求められた前記識別器の識別性能に基づいて、前記識別器に対する評価結果を出力する評価部と、を備える。

Description

本発明は、画像処理装置、物体検知装置および画像処理方法に関する。
画像処理分野において、機械学習に基づく物体認識技術は広く普及している。この技術を利用して、たとえば、交通事故を未然に防ぐ車載予防安全システムや、不審者の侵入を報知する監視システムなどの実用化が進められている。こうしたシステムでは、認識対象とする物体の教師画像を収集および整備することで、サポートベクターマシン、ブースティング、多層ニューラルネットワーク等に代表される機械学習手法を用いて、物体認識を行う識別器の学習を行っている。
機械学習に用いる教師データの整備の効率化に関して、特許文献1に記載の技術が知られている。特許文献1には、CG(Computer Graphics)を活用して、任意視点から見た三次元形状モデルの学習用画像を生成し、生成された学習用画像を用いて識別器の生成および学習を行う技術が開示されている。
日本国特開2014−157509号公報
特許文献1の技術では、任意視点の学習用画像を生成することはできるが、その学習用画像を用いて生成および学習された識別器の識別性能がどの程度であるかを適切に評価することができない。
本発明による画像処理装置は、入力された画像中の対象物を識別して前記対象物を複数の種別のいずれかに分類する識別器を評価するためのものであって、前記識別器を用いて、前記対象物の種別が既知である複数の検証用画像にそれぞれ含まれる前記対象物を識別して前記複数の種別のいずれかを前記検証用画像ごとに出力することで、前記識別器の識別性能を求める識別部と、前記識別部により求められた前記識別器の識別性能に基づいて、前記識別器に対する評価結果を出力する評価部と、を備える。
本発明による物体検知装置は、上記の画像処理装置を用いて学習が行われた識別器を用いて、カメラから入力された映像中の物体を検出する物体検出部と、前記物体検出部により検出された物体の危険度を判定する危険度判定部と、を備える。
本発明による画像処理方法は、入力された画像中の対象物を識別して前記対象物を複数の種別のいずれかに分類する識別器を評価するための、コンピュータを用いたものであって、前記コンピュータにより、前記識別器を用いて、前記対象物の種別が既知である複数の検証用画像にそれぞれ含まれる前記対象物を識別して前記複数の種別のいずれかを前記検証用画像ごとに出力することで、前記識別器の識別性能を求め、前記コンピュータにより、求められた前記識別器の識別性能に基づいて、前記識別器に対する評価結果を出力する。
本発明によれば、識別器の識別性能を適切に評価することができる。
第一の実施形態による画像処理装置の構成を示すブロック図である。 第一の実施形態による画像処理装置の動作を説明するフローチャートである。 識別器の識別性能を表すテーブルの一例を示す図である。 カテゴリごとの未検知率の変化の様子を示す図である。 教師データ生成部の一構成例を示すブロック図である。 教師データ生成部の動作を説明するフローチャートである。 教師画像の生成方法を説明する図である。 正解データの生成方法を説明する図である。 第二の実施形態による画像処理装置の構成を示すブロック図である。 識別器の学習の収束状況の一例を示す図である。 第三の実施形態による画像処理システムの構成を示すブロック図である。
(第一の実施形態)
図1は、本発明の第一の実施形態による画像処理装置10の構成を示すブロック図である。図1に示す画像処理装置10は、 入力部101、学習部102、識別部103、評価部104、教師データ生成部105、出力部106を備える。画像処理装置10には、検証データが格納されたデータベース107と、識別器108とが接続されている。なお、データベース107や識別器108は、画像処理装置10の内部にそれぞれ設けられていてもよい。画像処理装置10の各部は、ハードウェアによって構成されてもよいし、コンピュータで実行されるソフトウェアによって構成されていてもよい。また、ハードウェアとソフトウェアを組み合わせたモジュールであってもよい。
入力部101は、学習部102に対する入力データの設定を行う部分である。学習部102は、入力部101から入力されたデータを用いて識別器108の学習を行う部分である。識別部103は、識別器108を用いて、データベース107に格納された検証データから対象物の識別を行い、その識別結果に基づいて識別器108の識別性能を求める部分である。評価部104は、識別部103で求められた識別器108の識別性能に基づいて、識別器108の評価を行う部分である。教師データ生成部105は、評価部104による識別器108の評価結果に基づいて、学習部102が識別器108の学習に用いるための教師データを生成する部分である。出力部106は、学習部102による識別器108の学習状況を判断し、学習済みの識別器108を出力する部分である。
識別器108は、入力された画像中の対象物を識別してその対象物を複数の種別のいずれかに分類する。識別器108の識別性能は、学習部102が行う学習によって向上させることができる。データベース107に格納された検証データは、識別器108が識別を行う対象物の画像をそれぞれ含み、その対象物の種別が既知である複数の検証用画像と、各検証用画像における対象物の種別が何であるかを示す種別情報とによって構成されている。なお、検証用画像には実画像を用いることが好ましいが、CG画像を含めても構わない。
図2は、本発明の第一の実施形態による画像処理装置10の動作を説明するフローチャートである。
ステップS2001において、入力部101は、評価および学習の対象とする識別器108の入力を受け付け、教師データ生成部105から出力される教師データに基づいて、学習部102が識別器108の学習において用いる教師データおよび学習パラメータを設定する。そして、入力された識別器108と、設定したこれらのデータとを、学習部102への入力データとして出力する。
ステップS2002において、学習部102は、入力部101からの入力データに含まれる教師データおよび学習パラメータに基づいて、識別器108の学習を行う。ここで、識別器108には、たとえばDeep Convolutional Neural Network(DCNN)に代表される多クラス識別器などを用いることができる。また、学習部102が識別器108の学習に用いる学習アルゴリズムとしては、たとえば最急降下法、ニュートン法、確率的勾配降下法(SGD :Stochastic Gradient Descent)などの最適化アルゴリズムを用いることができる。この場合、学習パラメータとしては、学習率、各種活性化関数(たとえば、シグモイド関数、ReLU、双曲線関数など)、バッチサイズ、フィルタサイズ、フィルタ数などを用いることができる。なお、識別器108はDCNNに限定されるものではない。全結合型のネットワークであるDeep Neural Network(DNN)や、マルチクラスサポートベクターマシン、ロジスティック回帰などを利用して、識別器108を構成してもよい。
ステップS2003において、識別部103は、データベース107に格納された検証データを用いて、ステップS2002で学習を行った識別器108の識別性能を評価する。ここでは、識別部103は、識別器108を用いて、検証データにおける複数の検証用画像にそれぞれ含まれる対象物の識別を行い、その対象物を予め決められた複数の種別のうちいずれかに分類する。そして、得られた各検証用画像に対する対象物の種別分類結果と、検証データの種別情報とを照合することで、識別器108による対象物の識別結果が正解であるか否かを検証用画像ごとに判断する。この判断結果を集計することで、識別部103は、識別器108の識別性能を求めることができる。
図3は、識別部103により求められた識別器108の識別性能を表すテーブルの一例を示す図である。図3では、識別器108の識別性能をテーブル形式で表した例として、検証用画像に対する対象物の識別結果を上位カテゴリおよびサブカテゴリごとに集計した評価テーブル301を示している。
図3の評価テーブル301において、上位カテゴリは、識別器108が行う多クラス識別における各クラス種別を表す。たとえば、車両の周囲を撮影した画像における様々な被写体を対象物として、識別器108が識別を行う場合には、大型車、中型車、小型車、バイク、自転車、歩行者、背景などが上位カテゴリとして設定される。一方、サブカテゴリは、各上位カテゴリをさらに細分化した属性を表す。たとえば、上記の各上位カテゴリに対して、セダン・軽自動車・トラック・バスといった車両種別や、赤・白・黒といった車体色や、0度・45度・90度といったカメラから見た物体姿勢や、市街地・郊外・山間部といった背景種別などがサブカテゴリとして設定される。
識別部103は、各検証用画像に対する識別器108での対象物の識別結果に基づいて、これらの上位カテゴリおよびサブカテゴリごとに、様々な評価基準に応じた評価値を算出する。そして、算出した評価値を集計することで、評価テーブル301を作成することができる。図3では、N種類の評価基準が設定されており、各評価基準に対する評価値を評価テーブル301にまとめた例を示している。なお、上記の評価値には、識別器108の識別性能を規定するための指標として、様々なものを用いることができる。たとえば、対象物の検知性能、すなわち画像から識別すべき対象物を検知する際の網羅性に対する指標である再現率(Recall)や、対象物の検知精度、すなわち画像から識別すべき対象物を検知する際の正確性に対する指標である適合率(Precision)や、検知性能と検知精度の両方を考慮した指標であるF値(F-measure)などを、評価値として用いることができる。また、サブカテゴリごとの分類結果に対する評価値としては、最大確信度、最小確信度、平均確信度などを用いることができる。
図2の説明に戻ると、ステップS2004において、評価部104は、ステップS2003での識別部103による識別性能の評価結果に基づいて、識別器108の識別誤差特性を評価する。ここでは、評価部104は、図3に例示した評価テーブル301において集計された評価値に基づいて、上位カテゴリのいずれか少なくとも一つと、サブカテゴリのいずれか少なくとも一つとを、教師データが不足しているカテゴリとして特定する。たとえば、評価テーブル301において再現率(Recall)が所定値以下である上位カテゴリとサブカテゴリの組み合わせや、平均確信度が負であるカテゴリとサブカテゴリの組み合わせを、教師データが不足しているカテゴリとして特定する。このようにして、識別部103による識別性能の評価結果から、どのカテゴリで教師データが不足しているかを評価部104において判断することにより、識別器108の識別誤差特性の評価を行うことができる。その後、評価部104は、教師データが不足しているカテゴリとして特定した上位カテゴリおよびサブカテゴリの情報を、識別器108に対する評価結果として、教師データ生成部105に出力する。
なお、ステップS2004で識別器108に対する評価結果を出力する際に、評価部104は、各サブカテゴリ間の相関性に基づいて、上記のようにして特定した以外のサブカテゴリの情報を出力してもよい。たとえば、車両種別を表すサブカテゴリとして、RVとSUVが設定されていたとする。このような場合、これらの車両種別に該当する車両同士は形状が似ており、互いに相関が高いと考えられる。したがって、これらのサブカテゴリのいずれか一方が特定された場合には、もう一方のサブカテゴリの情報も併せて出力するようにしてもよい。
ステップS2005において、教師データ生成部105は、ステップS2004で識別器108に対する評価結果として評価部104から出力されたカテゴリの情報に基づいて、教師データを生成する。なお、教師データ生成部105が教師データを生成する手法の詳細については、図4、図5、図6、図7を用いて後述する。
ステップS2006において、出力部106は、学習部102による識別器108の学習状況が所定の終了条件を満たしたか否かを判定する。ここでは、ステップS2003で識別部103により求められた識別性能の評価結果に基づいて、識別器108の学習状況を判断する。たとえば、図3に例示した評価テーブル301における全ての評価値が所定値以上となった場合や、学習によるコスト低減量が所定値未満となった場合などに、識別器108の学習状況が終了条件を満たしたと判断することができる。その結果、識別器108の学習状況が終了条件を満たしたと判定した場合には、図2の処理をステップS2007に進める。一方、識別器108の学習状況が終了条件を満たしていないと判定した場合には、ステップS2001に戻って前述の処理を繰り返す。
または、ステップS2006において、出力部106は、評価テーブル301における各カテゴリの評価値から、識別器108の学習状況を表す指標値を算出し、その指標値と所定の基準値とを比較することで、識別器108の学習状況が終了条件を満たしたか否かを判定してもよい。この場合の具体的な処理内容について、図4を参照して以下に説明する。
図4は、評価テーブル301における評価値のうち、前述の再現率(Recall)に基づいて計算されたカテゴリごとの未検知率の変化の様子を示す図である。ここで、未検知率の値をVuとし、再現率の値をVrとすると、Vu=1.0−Vrと計算できる。図4において、実線302は、1回目の学習で得られたカテゴリごとの未検知率Vuの様子を表しており、破線303は、2回目の学習で得られたカテゴリごとの未検知率Vuの様子を表している。また、一点鎖線304は、N回目の学習で得られたカテゴリごとの未検知率Vuの様子を表している。図4に示すように、実線302および破線303は閾値Vthを上回っている区間(カテゴリ)が存在するのに対して、一点鎖線304は、全ての区間(カテゴリ)で閾値Vthを下回っている。これにより、未検知率Vuを識別器108の学習状況の指標値とし、この未検知率Vuが閾値Vth以下であることを終了条件とすることで、N回目の学習により、識別器108の学習状況が終了条件を満たしたと判定することができる。
図2の説明に戻ると、ステップS2007において、出力部106は、それまでの学習で得られた学習済みの識別器108を出力する。これにより、画像処理装置10において、学習部102による識別器108の学習が終了する。
ステップS2007の処理が実行されたら、画像処理装置10は、図2のフローチャートに示す処理を完了する。
次に、図2のステップS2005で教師データ生成部105が教師データを生成する手法の詳細について説明する。図5は、教師データ生成部105の一構成例を示すブロック図である。図5に示す教師データ生成部105は、物体データ401、背景データ402、パラメータ履歴情報403、物体設定部404、背景設定部405、パラメータ設定部406、教師画像生成部407およびアノテーション部408を備える。なお、図5では、物体設定部404、背景設定部405およびパラメータ設定部406をまとめて、設定部40として示している。
物体データ401は、識別器108が識別対象とする物体の三次元形状モデルを表すデータであり、幾何情報とマテリアル情報からなる。幾何情報は、点・線・面などの物体の形状に関する情報や、ヘッドライト・ナンバープレート・タイヤといった構造化された物体の部位に関する情報などを含む。マテリアル情報は、反射、透過、屈折、発光などの物体の材質特性に関する情報である。背景データ402は、識別器108が識別対象とする背景の三次元形状モデルである。なお、イメージベーストライティング(IBL)を想定して、背景データ402を三次元形状モデルではなく、全球画像で保持してもよい。この場合には、全球画像と物理シェーダを組み合わせることで、極めて実画像に近い画像を生成できる。パラメータ履歴情報403は、過去に教師データを生成する際に用いたパラメータの履歴情報である。
物体設定部404は、物体データ401のうちで教師画像の生成に用いる物体データの設定を行う。背景設定部405は、背景データ402のうちで教師画像の生成に用いる背景データの設定を行う。パラメータ設定部406は、教師画像を生成するためのパラメータ設定を行う。
教師画像生成部407は、設定部40での設定結果に基づいて教師画像を生成する。アノテーション部408は、教師画像生成部407で生成された教師画像に基づいて教師データを生成し、出力する。
図6は、教師データ生成部105の動作を説明するフローチャートである。
ステップS5001において、設定部40は、図2のステップS2004で評価部104から出力された上位カテゴリおよびサブカテゴリの情報を受信する。前述のように、評価部104は、識別器108の識別誤差特性の評価結果として、教師データが不足しているカテゴリとして特定した上位カテゴリおよびサブカテゴリの情報を出力する。ステップS5001では、この情報が、設定部40の物体設定部404、背景設定部405、パラメータ設定部406にそれぞれ入力される。
ステップS5002において、物体設定部404は、ステップS5001で受信した上位カテゴリおよびサブカテゴリの情報に基づいて、教師画像を生成する物体データを設定する。ここでは、受信した上位カテゴリおよびサブカテゴリの情報から、教師データが不足しているカテゴリとして、たとえば「車種:クーペ」、「車体色:黒」などの物体種別が分かる。そのため、このような物体種別に該当する物体データを物体データ401から取得し、教師画像を生成する物体データとして設定する。なお、色に関しては、物体データ401において同じ色情報が存在しない場合には、その色情報を置換することで近似色や新たな色を生成し、物体データを設定してもよい。また、物体設定部404が設定する物体データは、単一の物体に関するデータに限らず、複数種類の物体に関するデータであってもよい。
ステップS5003において、背景設定部405は、ステップS5001で受信した上位カテゴリおよびサブカテゴリの情報に基づいて、教師画像を生成する背景データを設定する。ここでは、受信した上位カテゴリおよびサブカテゴリの情報から、教師データが不足しているカテゴリとして、たとえば「市街地」「西日直射」などの背景種別が分かる。そのため、このような背景種別に関する背景データを背景データ402から取得し、教師画像を生成する背景データとして設定する。なお、背景設定部405が設定する背景データは、単一の背景に関するデータに限らず、複数種類の背景に関するデータであってもよい。
ステップS5004において、パラメータ設定部406は、ステップS5001で受信した上位カテゴリおよびサブカテゴリの情報に基づいて、教師画像を生成するためのパラメータを設定する。ここでは、受信した上位カテゴリおよびサブカテゴリの情報から、教師データが不足しているカテゴリとして、たとえば「カメラからみて斜め45度」「撮像距離は50m遠方」などの画像生成パラメータが分かる。そのため、このような画像生成パラメータを、教師画像を生成するためのパラメータとして設定する。このとき、複数種類のパラメータを設定してもよい。
なお、ステップS5004でパラメータを設定する際、パラメータ設定部406は、パラメータ履歴情報403を参照し、その内容に基づいて、過去に使用済みのパラメータと同一のパラメータは設定しないようにする。これにより、教師データ生成部105は、過去に使用済みのパラメータとは異なるパラメータを用いて、教師データの生成を行うことができる。
ステップS5005において、教師画像生成部407は、ステップS5002〜S5004で物体設定部404、背景設定部405、パラメータ設定部406によりそれぞれ設定された物体データ、背景データおよびパラメータに基づいて、教師画像を生成する。ここでは、たとえば、パストレーシングに基づく物理ベースレンダリングを用いて、反射、屈折、透過、シャドウなどが物理的に正しく再現されるように物体データと背景データとを合成することで、教師画像を生成する。これにより、路面に落ちた影なども写実的に再現できる。また、物理カメラを考慮して教師画像を生成してもよい。これにより、焦点距離や画角といった基本的なカメラ内部パラメータに加えて、レンズ収差なども考慮に入れて、教師画像を生成することができる。なお、前述したように、ステップS5002〜S5004では、物体データ、背景データ、パラメータをそれぞれ複数種類ずつ設定しても構わない。この場合、それぞれの設定数に応じて、教師画像も複数生成されることになる。たとえば、物体データ、背景データ、パラメータをそれぞれ5種類ずつ設定した場合、教師画像生成部407は全部で125枚の教師画像を生成する。
ステップS5006において、アノテーション部408は、ステップS5005で教師画像生成部407により生成された教師画像に対する正解データを生成する。ここでは、教師データの生成に用いた物体データ、背景データおよびパラメータに基づいて、生成された教師画像において識別すべき対象物がどの部分にあるか、対象物がどの上位カテゴリおよびサブカテゴリに属するのか、などを判断する。この判断結果を基に、アノテーション部408は正解データを生成することができる。
ステップS5006の処理が実行されたら、教師データ生成部105は、得られた教師画像および正解データを教師データとして出力し、図6のフローチャートに示す処理を完了する。
ここで、図6のステップS5005、S5006における教師画像および正解データの生成方法の詳細について、図7および図8を用いて以下に説明する。
図7は、教師画像の生成方法を説明する図である。図7では、車両である認識対象物601に対してカメラ602、603、604を設置し、これらのカメラで認識対象物601を撮影してそれぞれ得られる撮影画像に相当するCG画像を、教師画像として生成する状況を示している。認識対象物601は、三軸の回転・並進パラメータと、三軸のスケーリングパラメータとを有している。また、カメラ602、603、604は、三軸の回転・並進パラメータと、三軸のスケーリングパラメータと、内部パラメータ(焦点距離、撮像素子のサイズ、画像主点など)と、レンズ収差パラメータ(歪み係数、像高関数など)とをそれぞれ有している。これらのパラメータは、パラメータ設定部406により設定される。
図8は、正解データの生成方法を説明する図である。図8では、図7の状況でカメラ603から認識対象物601を撮影して得られる撮影画像に相当するCG画像を、教師画像の例として示している。この教師画像では、図7の認識対象物601をCG画像で表現した物体画像701と、背景部分の路面をCG画像で表現した背景画像702とが合成されている。また、物体画像701には、車両である認識対象物601の全体部分、ナンバープレート部分、右ヘッドライト部分、左ヘッドライト部分にそれぞれ対応する、バウンディングボックス703、704、705および706が設定されている。
前述したように、図8の教師画像の生成において用いられる物体データ、背景データ、カメラパラメータは既知である。そのため、生成された教師画像における物体画像701の位置は、透視投影法によって計算可能である。たとえば、物体データが表す認識対象物601の三次元形状情報の全体を画像上に透視投影することで、バウンディングボックス703を計算することができる。また、物体データにおいて認識対象物601の各部分の幾何情報を構造化しておくことで、バウンディングボックス703と同様にして、バウンディングボックス704、705、706を計算することができる。これらのバウンディングボックス703〜706の計算結果から、正解データを生成することができる。なお、教師画像に対して正解データを画素単位でラベリングすることもできる。たとえば、物体画像701の透過率を0%とし、それ以外の部分の透過率を100%としてレンダリングすることにより、教師画像の中で物体画像701の部分に対して、画素単位の正解ラベルを付与することができる。
教師データ生成部105は、以上説明したようにして教師画像および正解データを生成し、教師データとして出力する。これにより、教師データ生成部105は、生成した教師画像と、その教師画像における対象物の座標情報、対象物のうち特定の部位の座標情報、対象物の上位カテゴリ(種別)の情報、対象物のサブカテゴリ(属性)の情報のいずれか少なくとも一つの情報とを、教師データとして出力することができる。
以上説明したように、本発明の第一の実施形態では、評価部104により、学習部102での学習が行われた識別器108の識別誤差特性を評価する。これにより、現在の識別器108が識別するのが苦手な上位カテゴリおよびサブカテゴリを自動で特定することができる。
また、本発明の第一の実施形態では、画像処理装置10に教師データ生成部105を設けている。これにより、学習が不足している部分に対して、教師データを自動で生成することができる。
また、本発明の第一の実施形態では、教師データ生成部105により、教師画像における対象物の座標情報を含む教師データを出力する。この座標情報を用いることで、さらにデータ拡大(Data Augmentation)の手法を用いて2次元画像上の回転・並進・任意変換等を行い、これにより教師データを増加させることも可能である。
また、本発明の第一の実施形態では、教師データ生成部105において、パストレーシングに基づく物理ベースレンダリングを用いてCG合成を行うことにより、教師画像を生成する。これにより、反射、屈折、透過、シャドウなどを物理的に正しく再現できる。したがって、この教師データを用いて識別器108の学習を行うことで、実画像による学習の性能と大差がない識別性能を実現することができる。
また、本発明の第一の実施形態では、画像処理装置10において、評価部104と教師データ生成部105を組み合わせて用いている。これにより、学習した識別器108の識別誤差特性に基づいて、誤認識を低減するための教師データを特定および生成し、その教師データによって識別器108を更新し続ける画像処理装置を提供することができる。
また、本発明の第一の実施形態では、出力部106において、識別器108の更新学習に対して終了条件を設けている。これにより、好適なタイミングで学習を終えることができる。その結果、24時間365日休みなく、予測誤差を低減する方向に永続的に学習を継続することができる。
以上説明した本発明の第一の実施形態によれば、以下の作用効果を奏する。
(1)画像処理装置10は、入力された画像中の対象物を識別してその対象物を複数の種別のいずれかに分類する識別器108を評価する。この画像処理装置10は、識別部103と、評価部104とを備える。識別部103は、識別器108を用いて、対象物の種別が既知である複数の検証用画像にそれぞれ含まれる対象物を識別して複数の種別のいずれかを検証用画像ごとに出力することで、識別器108の識別性能を求める(ステップS2003)。評価部104は、識別部103により求められた識別器108の識別性能に基づいて、識別器108に対する評価結果を出力する(ステップS2004)。このようにしたので、識別器108の識別性能を適切に評価することができる。
(2)識別器108が対象物を識別して分類する複数の種別は、複数の上位カテゴリと、複数の上位カテゴリの各々をさらに細分化した複数のサブカテゴリとを含んで構成される。識別部103は、識別器108の識別性能として、図3の評価テーブル301に示したように、所定の評価基準に基づく評価値を上位カテゴリおよびサブカテゴリごとに求める。評価部104は、この評価値に基づいて、複数の上位カテゴリのいずれか少なくとも一つと、複数のサブカテゴリのいずれか少なくとも一つとを、識別器108に対する評価結果として出力する。このようにしたので、識別器108に対する評価結果を分かりやすく出力することができる。
(3)評価部104は、評価値および各サブカテゴリ間の相関性に基づいて、識別器108に対する評価結果として出力するサブカテゴリを決定することもできる。このようにすれば、互いに相関が高いサブカテゴリ同士を評価結果として出力できるため、識別器108の識別性能に対する評価をより一層適切に行うことができる。
(4)画像処理装置10は、教師データ生成部105と、学習部102とをさらに備える。教師データ生成部105は、評価部104から出力された識別器108に対する評価結果に基づいて、識別器108の学習に用いるための教師データを生成する(ステップS2005)。学習部102は、教師データ生成部105により生成された教師データに基づいて、識別器108の学習を行う(ステップS2002)。このようにしたので、識別器108の識別性能を自動的に、かつ確実に向上させることができる。
(5)教師データ生成部105は、幾何情報およびマテリアル情報を有する物体データと、全球画像または三次元形状情報を有する背景データとを、物理ベースレンダリングで合成することにより、教師データに用いられる教師画像を生成する(ステップS5005)。このようにしたので、識別器108の学習に用いるのに適切な教師画像を確実に生成することができる。
(6)教師データ生成部105は、生成した教師画像と、その教師画像における対象物の座標情報、対象物のうち特定の部位の座標情報、対象物の種別情報、対象物の属性情報のいずれか少なくとも一つの情報とを、教師データとして出力することができる。この教師データを用いて識別器108の学習を行うことで、識別器108の識別性能を確実に向上させることができる。
(7)教師データ生成部105は、過去に教師データを生成した際に用いたパラメータの履歴情報403を記憶している。このパラメータ履歴情報403に基づいて、教師データ生成部105は、過去に使用済みのパラメータとは異なるパラメータを用いて教師データを生成する。このようにしたので、識別器108の学習に効果的な教師データを確実に生成することができる。
(8)画像処理装置10は、出力部106をさらに備える。出力部106は、学習部102による識別器108の学習状況が所定の終了条件を満たしたか否かを判定する(S2006)。学習部102は、出力部106により識別器108の学習状況が終了条件を満たしたと判定された場合に、識別器108の学習を終了する。このようにしたので、適切なタイミングで識別器108の学習を終了することができる。
(第二の実施形態)
次に、本発明の第二の実施形態として、クラウドサービスに適用した実施形態を説明する。
図9は、本発明の第二の実施形態による画像処理装置80の構成を示すブロック図である。図9に示す画像処理装置80は、クラウドサービスを利用するユーザ81に情報を伝達する通知部801と、ユーザ81からの情報を受信する受信部802をさらに備える。なお、本実施形態に係る画像処理装置80の構成要素のうち、図1に示した第一の実施形態に係る画像処理装置10の構成要素と同じものには、図9において図1と同じ符号を付している。以下では、これらの構成要素については、説明を省略する。
通知部801は、出力部106から出力される情報に基づいて、学習部102による識別器108の学習状況をユーザ81に通知する。通知部801からの通知には、たとえば、評価部104で求められた識別器108の識別誤差特性や、出力部106で判断された学習の収束状況など、識別器108の学習に関する様々な情報が含まれる。これによって、ユーザ81は画像処理装置80における処理状況を把握することができる。
通知部801からの通知内容について、図10を参照して説明する。図10は、学習部102による識別器108の学習の収束状況の一例を示す図である。図10において、横軸は学習回数を表し、縦軸は予測誤差を表している。一般に、機械学習では、曲線901に示すように、学習を繰り返すたびに予測誤差が低減していく。しかしながら、学習の方法が不適切な場合、曲線902に示すように、学習を繰り返しても予測誤差が低減しない場合がある。その要因としては、学習パラメータが不適切であること、検証データが不足していること、教師データ生成で用いるデータが不足していること、そもそも識別が困難なカテゴリ設計になっていること、などが挙げられる。そこで、本実施形態における通知部801は、曲線902のように予測誤差が十分に低減しない場合には、ユーザ81に対して、その要因を通知する。ユーザ81は通知された情報を受けて、データベース107への検証データの追加や、教師データ生成部105で教師データの生成に用いる図5の物体データ401や背景データ402の追加や、学習部102の設計変更など、要因を除去するための各種動作を画像処理装置80に対して指示する。受信部802は、ユーザ81からの指示を受けて、識別器108が識別すべき対象物の識別精度を向上させるための上記のような各種動作を行い、画像処理装置80の処理を好適化する。
以上説明したように、本発明の第二の実施形態では、画像処理装置80に、ユーザへの情報通知を行う通知部801と、ユーザからの情報を受信する受信部802とを設けている。これにより、24時間365日休みなく学習を実行するクラウドサービスを実現することができる。また、ユーザがデータを適宜更新する構成とすることで、小さな規模から機械学習をスモールスタートすることができる。また、ユーザは逐次更新された識別器108を受け取ることで、より好適なサービスに活用することができる。
以上説明した本発明の第二の実施形態によれば、第一の実施形態で説明した(1)〜(8)に加えて、さらに以下の作用効果を奏する。
(9)画像処理装置80は、学習部102による識別器108の学習状況をユーザに通知する通知部801をさらに備える。これにより、ユーザは識別器108の学習状況を確認することができる。
(10)画像処理装置80は、ユーザからの指示を受けて、識別器108による対象物の識別精度を向上させるための動作を行う受信部802をさらに備える。これにより、ユーザは識別器108を必要に応じて適宜改善することができる。
(第三の実施形態)
次に、本発明の第三の実施形態として、車載システムにおける接近物警報や、監視システムにおける侵入者警報に適用した実施形態を説明する。
図11は、本発明の第三の実施形態による画像処理システムの構成を示すブロック図である。図11に示す画像処理システムは、接近物または侵入者を検知する物体検知装置1000と、画像処理装置1001と、カメラ1002と、出力装置1003とを備える。カメラ1002は、物体検知装置1000の周辺を撮影した映像を取得し、その映像に基づく映像信号を物体検知装置1000に出力する。出力装置1003は、ディスプレイまたはスピーカーなどを用いて、物体検知装置1000から出力される警報信号に基づく警報を発する。
物体検知装置1000は、各種データの入出力などを行う入出力インタフェースとして機能するI/O部1004と、各種演算を実行する処理部として機能するCPU1005と、メモリ1006とを備える。CPU1005は、その機能として、物体検知を実行する物体検出部1008と、危険度を判定する危険度判定部1009とを備える。
なお、物体検知装置1000と画像処理装置1001は、必ずしも同一の場所に設置されなくてもよい。たとえば、サーバに画像処理装置1001を置き、物体検知装置1000をクライアントで動作させるクライアントサーバシステムにより、本実施形態の画像処理システムを実現することもできる。また、CPU1005における処理は、GPUを活用した並列処理であっても構わない。
画像処理装置1001は、物体検知装置1000との間で通信を行うことにより、物体検知装置1000で用いられる識別器1007を出力する。この画像処理装置1001には、第一の実施形態における画像処理装置10または第二の実施形態における画像処理装置80を用いることができる。すなわち、画像処理装置1001は、識別器1007として、図1または図9に示した学習部102により学習が行われた識別器108を、物体検知装置1000に出力する。識別器1007は、物体検知装置1000においてメモリ1006に格納される。
物体検出部1008は、カメラ1002で取得した映像に対して、識別器1007を用いた物体検出を行う。すなわち、物体検出部1008は、カメラ1002から入力された映像に含まれる対象物を識別器1007で識別することで、その映像中での対象物の位置や大きさを検出する。ここで、映像の単一フレームだけで物体検出を行うのではなく、時系列情報を用いた既知のトラッキング手法を併用して、複数フレームにおける物体検出を行っても構わない。危険度判定部1009は、物体検出部1008が検出した物体に対して、接近度や異常度合といった既知の指標に基づき、危険度を判定する。その結果、危険度が高いと判定した場合は、出力装置1003に警報信号を送信する。この警報信号を受けると、出力装置1003は、ディスプレイまたはスピーカーなどによってユーザへの警報を行う。ここで、車両に搭載されるシステムとして物体検知装置1000を適用する場合は、警報信号を出力装置1003に出力する代わりに、ブレーキ制御やステアリング制御を行うための制御信号を車両に出力してもよい。
以上説明したように、本発明の第三の実施形態では、画像処理装置1001で学習した識別器1007を用いて、物体検知装置1000が物体検知を行う。そのため、車載システムにおける接近物警報や、監視システムにおける侵入者警報を実現することができる。また、危険度に応じて出力信号を変更することで、警報システムだけではなく、制御システムとして利用することも可能である。また、画像処理装置1001と物体検知装置1000をネットワークで接続することにより、オンラインで識別器1007を更新し、より好適な物体検知を行うこともできる。たとえば、工場や販売店において識別器1007を書き換えることも容易である。
以上説明した本発明の第三の実施形態によれば、第一および第二の実施形態で説明した(1)〜(10)に加えて、さらに以下の作用効果を奏する。
(11)物体検知装置1000は、物体検出部1008と、危険度判定部1009とを備える。物体検出部1008は、画像処理装置1001を用いて学習が行われた識別器1007を用いて、カメラ1002から入力された映像中の物体を検出する。危険度判定部1009は、物体検出部1008により検出された物体の危険度を判定する。このようにしたので、確実かつ正確に物体を検出し、その危険度を判定することができる。
なお、本発明は、上述の各実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。たとえば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したのであり、必ずしも説明の全ての構成を備えるものに限定されものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることが可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、たとえば集積回路等のハードウェアで実現してもよい。また、各構成や機能等を実現するためのプログラム、データ、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記録装置に記録してもよいし、または、ICカード、SDカード、DVD等の記録媒体に記録してもよい。さらに、必要に応じてこれらの情報を無線ネットワーク等を介してダウンロード、インストロールすることも可能である。
10,80,1001・・・画像処理装置
101・・・入力部
102・・・学習部
103・・・識別部
104・・・評価部
105・・・教師データ生成部
106・・・出力部
107・・・データベース
108・・・識別器
401・・・物体データ
402・・・背景データ
403・・・パラメータ履歴情報
404・・・物体設定部
405・・・背景設定部
406・・・パラメータ設定部
407・・・教師画像生成部
408・・・アノテーション部
801・・・通知部
802・・・受信部
1000・・・物体検知装置

Claims (12)

  1. 入力された画像中の対象物を識別して前記対象物を複数の種別のいずれかに分類する識別器を評価するための画像処理装置であって、
    前記識別器を用いて、前記対象物の種別が既知である複数の検証用画像にそれぞれ含まれる前記対象物を識別して前記複数の種別のいずれかを前記検証用画像ごとに出力することで、前記識別器の識別性能を求める識別部と、
    前記識別部により求められた前記識別器の識別性能に基づいて、前記識別器に対する評価結果を出力する評価部と、を備える画像処理装置。
  2. 請求項1に記載の画像処理装置において、
    前記複数の種別は、複数の上位カテゴリと、前記複数の上位カテゴリの各々をさらに細分化した複数のサブカテゴリとを含んで構成され、
    前記識別部は、前記識別器の識別性能として、所定の評価基準に基づく評価値を前記上位カテゴリおよび前記サブカテゴリごとに求め、
    前記評価部は、前記評価値に基づいて、前記複数の上位カテゴリのいずれか少なくとも一つと、前記複数のサブカテゴリのいずれか少なくとも一つとを、前記識別器に対する評価結果として出力する画像処理装置。
  3. 請求項2に記載の画像処理装置において、
    前記評価部は、前記評価値および各サブカテゴリ間の相関性に基づいて、前記識別器に対する評価結果として出力するサブカテゴリを決定する画像処理装置。
  4. 請求項1乃至3のいずれか一項に記載の画像処理装置において、
    前記評価結果に基づいて、前記識別器の学習に用いるための教師データを生成する教師データ生成部と、
    前記教師データに基づいて、前記識別器の学習を行う学習部と、をさらに備える画像処理装置。
  5. 請求項4に記載の画像処理装置において、
    前記教師データ生成部は、幾何情報およびマテリアル情報を有する物体データと、全球画像または三次元形状情報を有する背景データとを、物理ベースレンダリングで合成することにより、前記教師データに用いられる教師画像を生成する画像処理装置。
  6. 請求項4に記載の画像処理装置において、
    前記教師データ生成部は、教師画像と、前記教師画像における前記対象物の座標情報、前記対象物のうち特定の部位の座標情報、前記対象物の種別情報、前記対象物の属性情報のいずれか少なくとも一つの情報とを、前記教師データとして出力する画像処理装置。
  7. 請求項4に記載の画像処理装置において、
    前記教師データ生成部は、過去に前記教師データを生成した際に用いたパラメータの履歴情報を記憶しており、前記履歴情報に基づいて、過去に使用済みのパラメータとは異なるパラメータを用いて前記教師データを生成する画像処理装置。
  8. 請求項4に記載の画像処理装置において、
    前記学習部による前記識別器の学習状況が所定の終了条件を満たしたか否かを判定する出力部をさらに備え、
    前記学習部は、前記出力部により前記識別器の学習状況が前記終了条件を満たしたと判定された場合に、前記識別器の学習を終了する画像処理装置。
  9. 請求項4に記載の画像処理装置において、
    前記学習部による前記識別器の学習状況をユーザに通知する通知部をさらに備える画像処理装置。
  10. 請求項9に記載の画像処理装置において、
    前記ユーザからの指示を受けて、前記識別器による前記対象物の識別精度を向上させるための動作を行う受信部をさらに備える画像処理装置。
  11. 請求項4に記載の画像処理装置を用いて学習が行われた識別器を用いて、カメラから入力された映像中の物体を検出する物体検出部と、
    前記物体検出部により検出された物体の危険度を判定する危険度判定部と、を備える物体検知装置。
  12. 入力された画像中の対象物を識別して前記対象物を複数の種別のいずれかに分類する識別器を評価するための、コンピュータを用いた画像処理方法であって、
    前記コンピュータにより、前記識別器を用いて、前記対象物の種別が既知である複数の検証用画像にそれぞれ含まれる前記対象物を識別して前記複数の種別のいずれかを前記検証用画像ごとに出力することで、前記識別器の識別性能を求め、
    前記コンピュータにより、求められた前記識別器の識別性能に基づいて、前記識別器に対する評価結果を出力する画像処理方法。
JP2017509108A 2015-04-02 2015-04-02 画像処理装置、物体検知装置、画像処理方法 Expired - Fee Related JP6546271B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/060482 WO2016157499A1 (ja) 2015-04-02 2015-04-02 画像処理装置、物体検知装置、画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2016157499A1 true JPWO2016157499A1 (ja) 2017-12-07
JP6546271B2 JP6546271B2 (ja) 2019-07-17

Family

ID=57004016

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017509108A Expired - Fee Related JP6546271B2 (ja) 2015-04-02 2015-04-02 画像処理装置、物体検知装置、画像処理方法

Country Status (3)

Country Link
US (1) US10373024B2 (ja)
JP (1) JP6546271B2 (ja)
WO (1) WO2016157499A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11042155B2 (en) 2017-06-06 2021-06-22 Plusai Limited Method and system for closed loop perception in autonomous driving vehicles
US11392133B2 (en) 2017-06-06 2022-07-19 Plusai, Inc. Method and system for object centric stereo in autonomous driving vehicles
US11550334B2 (en) 2017-06-06 2023-01-10 Plusai, Inc. Method and system for integrated global and distributed learning in autonomous driving vehicles

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018081549A (ja) * 2016-11-17 2018-05-24 清水建設株式会社 モデル作成装置、端末装置、危険箇所発見システム及びプログラム
WO2018135509A1 (ja) * 2017-01-23 2018-07-26 パナソニックIpマネジメント株式会社 イベント予測システム、イベント予測方法、プログラムおよびそれを記録した記録媒体
JP6796798B2 (ja) * 2017-01-23 2020-12-09 パナソニックIpマネジメント株式会社 イベント予測システム、イベント予測方法、プログラム、及び移動体
CN108572183B (zh) * 2017-03-08 2021-11-30 清华大学 检查设备和分割车辆图像的方法
JP7011146B2 (ja) * 2017-03-27 2022-01-26 富士通株式会社 画像処理装置、画像処理方法、画像処理プログラム、及び教師データ生成方法
JP6441980B2 (ja) * 2017-03-29 2018-12-19 三菱電機インフォメーションシステムズ株式会社 教師画像を生成する方法、コンピュータおよびプログラム
JP6540742B2 (ja) * 2017-03-29 2019-07-10 本田技研工業株式会社 物体認識装置および物体認識方法
KR101886754B1 (ko) * 2017-05-04 2018-09-10 국방과학연구소 머신 러닝을 위한 학습 이미지 생성 장치 및 방법
JP6909657B2 (ja) * 2017-07-12 2021-07-28 株式会社日立製作所 映像認識システム
JP7345236B2 (ja) * 2017-11-10 2023-09-15 株式会社小松製作所 作業車両の動作を推定するための方法、システム、学習済みの分類モデルの製造方法、学習データ、及び学習データの製造方法
KR102053202B1 (ko) * 2017-11-14 2019-12-06 국방과학연구소 머신 러닝의 학습성능 강화장치 및 방법
KR101947650B1 (ko) * 2017-11-14 2019-05-20 국방과학연구소 게임 엔진 기반의 머신 러닝 학습이미지 생성 장치 및 방법
WO2019150918A1 (ja) * 2018-02-02 2019-08-08 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び移動体
WO2019157344A1 (en) 2018-02-12 2019-08-15 Avodah Labs, Inc. Real-time gesture recognition method and apparatus
US10289903B1 (en) * 2018-02-12 2019-05-14 Avodah Labs, Inc. Visual sign language translation training device and method
US11417109B1 (en) * 2018-03-20 2022-08-16 Amazon Technologies, Inc. Network-based vehicle event detection system
JP6797860B2 (ja) * 2018-05-02 2020-12-09 株式会社日立国際電気 水上侵入検知システムおよびその方法
DE102018207923A1 (de) * 2018-05-18 2019-11-21 Robert Bosch Gmbh Verbessertes Training eines Klassifikators
CN108921161B (zh) * 2018-06-08 2021-03-23 Oppo广东移动通信有限公司 模型训练方法、装置、电子设备和计算机可读存储介质
JP2020013467A (ja) * 2018-07-20 2020-01-23 株式会社壽屋 分類器生成方法、機械学習用画像及び学習データ生成方法
US11373067B2 (en) * 2018-08-10 2022-06-28 Nec Corporation Parametric top-view representation of scenes
JP6697042B2 (ja) * 2018-08-31 2020-05-20 ソニーセミコンダクタソリューションズ株式会社 固体撮像システム、固体撮像方法及びプログラム
JP2020067669A (ja) * 2018-10-19 2020-04-30 株式会社ファブリカコミュニケーションズ 情報処理装置及びプログラム
JP7230324B2 (ja) * 2018-12-07 2023-03-01 公立大学法人会津大学 ニューラルネットワークの学習方法、コンピュータプログラム及びコンピュータ装置
JP7340806B2 (ja) * 2018-12-28 2023-09-08 株式会社Ridge-i 画像検査装置、画像検査システム、および画像検査用プログラム
JP7267068B2 (ja) * 2019-03-29 2023-05-01 三井情報株式会社 学習済みモデル生成装置、プログラム及び学習済みモデル生成システム
KR102199467B1 (ko) * 2019-05-20 2021-01-07 넷마블 주식회사 기계 학습을 위한 데이터 수집 방법
JP7003972B2 (ja) * 2019-06-11 2022-01-21 トヨタ自動車株式会社 距離推定装置、距離推定方法及び距離推定用コンピュータプログラム
JP6775697B1 (ja) * 2019-06-20 2020-10-28 三菱電機株式会社 学習用データ生成装置、学習用データ生成方法、学習用データ生成プログラム、学習装置、学習方法、学習プログラム、推論装置、推論方法、推論プログラム、学習システム、及び推論システム
JP7427902B2 (ja) * 2019-10-02 2024-02-06 コニカミノルタ株式会社 超音波画像診断用訓練装置、超音波画像診断装置、識別モデルの訓練方法、プログラム及び超音波診断装置
US20220391501A1 (en) * 2019-11-11 2022-12-08 Nippon Telegraph And Telephone Corporation Learning apparatus, detection apparatus, learning method and anomaly detection method
CN111160411B (zh) * 2019-12-11 2023-09-29 东软集团股份有限公司 分类模型训练方法、图像处理方法、装置、介质及设备
CN111311578B (zh) * 2020-02-17 2024-05-03 腾讯科技(深圳)有限公司 基于人工智能的对象分类方法以及装置、医学影像设备
WO2021166157A1 (ja) * 2020-02-20 2021-08-26 三菱電機株式会社 物体認識システム検証装置
JPWO2022186110A1 (ja) * 2021-03-01 2022-09-09

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009282824A (ja) * 2008-05-23 2009-12-03 Toyota Central R&D Labs Inc 感情推定装置及びプログラム
JP2012123642A (ja) * 2010-12-08 2012-06-28 Toyota Central R&D Labs Inc 画像識別装置及びプログラム
JP2014115920A (ja) * 2012-12-12 2014-06-26 Casio Comput Co Ltd 多クラス識別器、方法、及びプログラム
JP2014178229A (ja) * 2013-03-15 2014-09-25 Dainippon Screen Mfg Co Ltd 教師データ作成方法、画像分類方法および画像分類装置

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6262742B1 (en) * 1999-03-03 2001-07-17 Discreet Logic Inc. Generating image data
US6940545B1 (en) * 2000-02-28 2005-09-06 Eastman Kodak Company Face detecting camera and method
JP4599730B2 (ja) * 2001-03-02 2010-12-15 株式会社デンソー 画像領域抽出装置
US9955551B2 (en) * 2002-07-12 2018-04-24 Yechezkal Evan Spero Detector controlled illuminating system
US7508961B2 (en) * 2003-03-12 2009-03-24 Eastman Kodak Company Method and system for face detection in digital images
US8593542B2 (en) * 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US7574016B2 (en) * 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US7551755B1 (en) * 2004-01-22 2009-06-23 Fotonation Vision Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
US7868904B2 (en) * 2005-04-01 2011-01-11 Canon Kabushiki Kaisha Image processing method and image processing apparatus
JP2011511358A (ja) * 2008-02-01 2011-04-07 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. 自動赤目検出
US8571332B2 (en) * 2008-03-19 2013-10-29 The Trustees Of Columbia University In The City Of New York Methods, systems, and media for automatically classifying face images
GB2459251A (en) * 2008-04-01 2009-10-21 Sharp Kk Semiconductor nanowire devices
JP5361530B2 (ja) * 2009-05-20 2013-12-04 キヤノン株式会社 画像認識装置、撮像装置及び画像認識方法
US8805707B2 (en) * 2009-12-31 2014-08-12 Hartford Fire Insurance Company Systems and methods for providing a safety score associated with a user location
US8751215B2 (en) * 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
US9916538B2 (en) * 2012-09-15 2018-03-13 Z Advanced Computing, Inc. Method and system for feature detection
US20140309853A1 (en) * 2013-04-15 2014-10-16 Flextronics Ap, Llc Vehicle diagnostics and roadside assistance
US8953882B2 (en) * 2012-05-31 2015-02-10 Apple Inc. Systems and methods for determining noise statistics of image data
US8817120B2 (en) * 2012-05-31 2014-08-26 Apple Inc. Systems and methods for collecting fixed pattern noise statistics of image data
US9031317B2 (en) * 2012-09-18 2015-05-12 Seiko Epson Corporation Method and apparatus for improved training of object detecting system
US9672653B2 (en) * 2012-12-14 2017-06-06 Nvidia Corporation Stereo viewpoint graphics processing subsystem and method of sharing geometry data between stereo images in screen-spaced processing
JP6188345B2 (ja) 2013-02-15 2017-08-30 キヤノン株式会社 情報処理装置、情報処理方法
US9269012B2 (en) * 2013-08-22 2016-02-23 Amazon Technologies, Inc. Multi-tracker object tracking
US9443169B2 (en) * 2014-02-21 2016-09-13 Xerox Corporation Object classification with constrained multiple instance support vector machine
US9595130B2 (en) * 2014-06-17 2017-03-14 Chief Architect Inc. Virtual model navigation methods and apparatus
US10599926B2 (en) * 2015-12-16 2020-03-24 Regents Of The University Of Minnesota Automated detection of nitrogen deficiency in crop

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009282824A (ja) * 2008-05-23 2009-12-03 Toyota Central R&D Labs Inc 感情推定装置及びプログラム
JP2012123642A (ja) * 2010-12-08 2012-06-28 Toyota Central R&D Labs Inc 画像識別装置及びプログラム
JP2014115920A (ja) * 2012-12-12 2014-06-26 Casio Comput Co Ltd 多クラス識別器、方法、及びプログラム
JP2014178229A (ja) * 2013-03-15 2014-09-25 Dainippon Screen Mfg Co Ltd 教師データ作成方法、画像分類方法および画像分類装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
纐纈 直也,外2名: "人体シルエットの生成型追加学習による人検出の高精度化", 情報処理学会研究報告 平成22年度▲3▼ [CD−ROM], JPN6018025092, 15 October 2010 (2010-10-15), JP, ISSN: 0003830820 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11042155B2 (en) 2017-06-06 2021-06-22 Plusai Limited Method and system for closed loop perception in autonomous driving vehicles
US11392133B2 (en) 2017-06-06 2022-07-19 Plusai, Inc. Method and system for object centric stereo in autonomous driving vehicles
US11435750B2 (en) 2017-06-06 2022-09-06 Plusai, Inc. Method and system for object centric stereo via cross modality validation in autonomous driving vehicles
US11550334B2 (en) 2017-06-06 2023-01-10 Plusai, Inc. Method and system for integrated global and distributed learning in autonomous driving vehicles
US11573573B2 (en) 2017-06-06 2023-02-07 Plusai, Inc. Method and system for distributed learning and adaptation in autonomous driving vehicles

Also Published As

Publication number Publication date
US20180107901A1 (en) 2018-04-19
JP6546271B2 (ja) 2019-07-17
WO2016157499A1 (ja) 2016-10-06
US10373024B2 (en) 2019-08-06

Similar Documents

Publication Publication Date Title
JP6546271B2 (ja) 画像処理装置、物体検知装置、画像処理方法
JP6873237B2 (ja) 画像ベースの車両損害評価方法、装置、およびシステム、ならびに電子デバイス
KR102418446B1 (ko) 픽쳐 기반의 차량 손해 평가 방법 및 장치, 및 전자 디바이스
JP7460044B2 (ja) 自律車両、ならびに自律車両システムに係る装置、プログラム、およびコンピュータ可読媒体
KR102138082B1 (ko) 다수의 이미지 일치성을 바탕으로 보험클레임 사기 방지를 실현하는 방법, 시스템, 기기 및 판독 가능 저장매체
US11393256B2 (en) Method and device for liveness detection, and storage medium
US10262226B1 (en) Systems and methods regarding 2D image and 3D image ensemble prediction models
CN108388834A (zh) 利用循环神经网络和级联特征映射的对象检测
US11113582B2 (en) Method and system for facilitating detection and identification of vehicle parts
CN112560774A (zh) 一种障碍物位置检测方法、装置、设备和存储介质
JP2008130086A (ja) 分類境界確定方法及び分類境界確定装置
JP2021534494A (ja) 自律型車両用のカメラ評価技術
Toprak et al. Conditional weighted ensemble of transferred models for camera based onboard pedestrian detection in railway driver support systems
US20230260259A1 (en) Method and device for training a neural network
JP7165353B2 (ja) 画像特徴量出力装置、画像認識装置、画像特徴量出力プログラム、及び画像認識プログラム
EP4341913A2 (en) System for detection and management of uncertainty in perception systems, for new object detection and for situation anticipation
JP2021152826A (ja) 情報処理装置、被写体分類方法、及び被写体分類プログラム
CN112686155A (zh) 图像识别方法、装置、计算机可读存储介质及处理器
Calitz et al. Automated license plate recognition using existing university infrastructure and different camera angles
CN117786520B (zh) 目标感知模型的训练方法和应用、无人车和存储介质
JP7117720B1 (ja) 画像生成装置
US11580723B2 (en) Scene-aware object detection
US20230274590A1 (en) Scalable sensor analysis for vehicular driving assistance system
Baek et al. Fast and reliable two-wheeler detection algorithm for blind spot detection systems
Sestakovskis Computer Vision-Based Dangerous Riding Behaviors Detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190620

R150 Certificate of patent or registration of utility model

Ref document number: 6546271

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees