JP2021152826A - 情報処理装置、被写体分類方法、及び被写体分類プログラム - Google Patents
情報処理装置、被写体分類方法、及び被写体分類プログラム Download PDFInfo
- Publication number
- JP2021152826A JP2021152826A JP2020053505A JP2020053505A JP2021152826A JP 2021152826 A JP2021152826 A JP 2021152826A JP 2020053505 A JP2020053505 A JP 2020053505A JP 2020053505 A JP2020053505 A JP 2020053505A JP 2021152826 A JP2021152826 A JP 2021152826A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- classification
- subject
- reference unit
- class
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】撮像装置によって撮像された被写体をより正確に特定できる、情報処理装置、被写体分類方法及び被写体分類プログラムを提供する。【解決手段】情報処理装置としての被写体分類装置10は、カメラ20が取得した第1画像データ及び第2画像データを細分化した第1基準単位毎に被写体の分類を判定する第1クラス判定部32と、第1基準単位より広い第2基準単位毎に被写体の分類を判定する第2クラス判定部34と、同じ被写体であるにもかかわらず第1基準単位に基づいた第1画像データと第2画像データとの分類結果が異なる場合、第2基準単位に基づいた第1画像データと第2画像データとの分類結果を用いて、第1基準単位を含む被写体の分類を特定するクラス特定部36と、を備える。【選択図】図1
Description
本発明は、情報処理装置、被写体分類方法、及び被写体分類プログラムに関する。
近年、車両等にカメラが搭載され、カメラで取得された画像データに基づいて車両周囲の物体等を認識する技術の開発が進んでいる(特許文献1)。
画像認識技術として特許文献2に記載されているように、入力画像の各ピクセルを意味付けされたクラスに分類するセマンティックセグメンテーション(以下「SS」という。)によって、被写体を認識する手法が挙げられる。このSSは、例えば、ディープラーニングによって実現される。
ここで、実機に対する実装の制約のためディープラーニングネットワーク(Deep Learning Network、以下「DNN」という。)に入力されるデータのサイズは小さくされることが好ましい。そこで、一例として、図7に示されるように、元の画像データ100からNear画像データ102とFar画像データ104を抽出し、これらをDNNへ入力されることが行われる。
Near画像データ102は、元の画像データ100を縮小した画像データである。Near画像データ102は相対的に広い画角の画像データであり、車両の近傍を認識する場合に用いられる。一方、カメラに映る遠方の物体を認識したいときに、元の画像データ100を縮小すると被写体につぶれが生じたり、被写体が小さくなり過ぎるため、正確な画像認識が難しくなる。そこで、遠方の物体を認識する場合には、元の画像の一部、すなわち画像認識の対象となる物体の周囲を切り取ったFar画像データ104がDNNへ入力される。なお、Near画像データ102とFar画像データ104とは、重複した領域、すなわち同じ被写体が含まれる領域が存在している。
一例として、車両を駐車する場合における周辺監視では、車両近傍では広角で画像認識する必要がある。一方、車両の進行方向や後退方向に対しては、車両に対して遠方の領域も画像認識する必要がある。このため、車両においては、Near画像データ102とFar画像データ104とを併用し、Near画像データ102とFar画像データ104とで別々で画像認識処理が行われる。
しかしながら、Near画像データ102とFar画像データ104とで重複した領域であるものの、画像認識の結果(被写体の分類結果)が異なる場合があり、このような場合には被写体の正確な特定(分類)が難しい。
本発明は上記背景に鑑み、撮像装置によって撮像された被写体をより正確に特定できる、情報処理装置、被写体分類方法、及び被写体分類プログラムを提供することを目的とする。
本発明は上記課題を解決するために以下の技術的手段を採用する。特許請求の範囲及びこの項に記載した括弧内の符号は、ひとつの態様として後述する実施形態に記載の具体的手段との対応関係を示す一例であって、本発明の技術的範囲を限定するものではない。
本発明の一態様の情報処理装置(10)は、撮像装置(20)で取得された第1画像データ及び第2画像データに含まれる一又は複数の被写体の分類を特定する情報処理装置であって、前記第1画像データ及び前記第2画像データを複数に細分化した第1基準単位毎に、前記第1基準単位を含む前記被写体の分類を判定する第1判定手段(32)と、前記第1基準単位より広い第2基準単位毎に、前記第2基準単位を含む前記被写体の分類を判定する第2判定手段(34)と、同じ前記被写体であるにもかかわらず前記第1基準単位に基づいた前記第1画像データと前記第2画像データとの分類結果が異なる場合、前記第2基準単位に基づいた前記第1画像データと前記第2画像データとの分類結果を用いて、前記第1基準単位を含む前記被写体の分類を特定する特定手段(36)と、を備える。
本発明によれば、撮像装置によって撮像された被写体をより正確に特定できる。
以下、図面を参照して本発明の実施形態を説明する。なお、以下に説明する実施形態は、本発明を実施する場合の一例を示すものであって、本発明を以下に説明する具体的構成に限定するものではない。本発明の実施にあたっては、実施形態に応じた具体的構成が適宜採用されてよい。
図1は、本実施形態の被写体分類装置10の概略構成図である。被写体分類装置10は、いわゆる情報処理装置であり、撮像装置であるカメラ20で取得された画像データに含まれる一又は複数の被写体(認識対象物)を認識する。なお、本実施形態の被写体分類装置10は、被写体を構成するピクセル毎に被写体の種類を分類することで、被写体が何であるかを特定(認識)する。
本実施形態では、一例として、被写体分類装置10は車両に搭載される。また、カメラ20は車両の前部、後部、又は側部に一又は複数備えられ、車両の前方や後方等を撮像する車載カメラである。本実施形態のカメラ20は、一例として魚眼レンズ(広角レンズ)を備えているが、これに限られない。また、車両は、一例として、被写体分類装置10による画像認識結果に基づいて自動運転を行う。
本実施形態の被写体分類装置10は、被写体の種類として、予め定められた複数のクラスに分類する。例えば、車両が駐車場内に進入して駐車を行う場合には、被写体は道路クラス、立体物クラス、縁石クラス、及び輪止めクラスの何れかに分類される。すなわち、道路クラスに分類された被写体は道路であると特定され、立体物クラスに分類された被写体は駐車場内に存在する車両等の立体物であると特定され、縁石クラスに分類された被写体は縁石であると特定され、輪止めクラスに分類された被写体は縁石であると特定される。
上記クラスの種類や数は一例であり、車両の走行環境(走行場所)に応じて変化してもよい。例えば、車両の走行場所が一般道であれば、歩道や横断歩道、自転車、歩行者等を示すクラスが含まれてもよい。なお、車両の走行環境によるクラスの切替は、例えば、車両の位置情報(GPS情報)等に基づいて行われる。
本実施形態の被写体分類装置10は、一例として、セマンティックセグメンテーション(以下「SS」ともいう。)によって、画像データに含まれる被写体の分類を特定する。より具体的には、被写体分類装置10は、画像データをピクセル単位に分割し、SSによってピクセル単位で被写体の分類を判定する。なお、ピクセルは、画像データにおけるxy座標によりその位置が特定される。
本実施形態の被写体分類装置10は、一例として、SSのためのディープラーニングのニューラルネットワーク(以下「DNN」という。)に画像データを入力し、被写体を分類するクラス毎の信頼度(以下「確率」又は「クラス確率」という。)をピクセル毎に算出し、クラス確率が最大となったクラスを当該ピクセルを含む被写体のクラスとして特定する。
クラス確率について具体的に説明する。一例として、車両が駐車を行う場合にカメラ20が撮像する被写体のクラス(分類)として、予め道路クラス、立体物クラス、縁石クラス、及び輪止めクラスのような候補クラスが予め定義される。そして、SSによって、あるピクセルの道路クラスの確率が0.5、輪止めクラスの確率が0.3、立体物クラスの確率が0.2、縁石クラスが確率を0と算出された場合には、当該ピクセルは最も確率の高い道路クラスであると特定される。
また、DNNに入力されるデータのサイズは、小さいことが好ましい。そこで、本実施形態の被写体分類装置10は、一例として、元の画像データのサイズに対して縮小された画像データ(以下「Near画像データ」という。)と元の画像データの一部のみを切り取った画像データ(以下「Far画像データ」という。)とをDNNへ入力する。このように、Near画像データとFar画像データとは、同じ画像データから得られ、同一の被写体を含む画像データであり、重複する画像領域、換言すると同一の被写体が含む画像データである。このように、本実施形態のNear画像データ及びFar画像データは、詳細を後述するように元の画像における認識したい被写体を含む画像であり、以下の説明ではROI(Region Of Interest)画像ともいう。
Near画像データは、Far画像データよりも広い画角で車両近傍の被写体の認識に用いられる画像データである。一方、Far画像データは、車両遠方の被写体の認識に用いられる画像データであり、Near画像データよりも狭い画角の画像データである。本実施形態の被写体分類装置10は、Near画像データとFar画像データとに対して、これらに含まれる被写体の分類を特定する。
ここで、SSのDNNは、ピクセルのクラス間における大小関係のみを学習しているので、例えば、複数のピクセル同士でのクラス確率の比較や、Near画像データとFar画像データとのように異なるDNNでのクラス確率の比較はできない。
そこで、被写体分類装置10は、上述のように、ピクセル(被写体)の分類を複数の異なる分類に対する確率として算出し、算出した確率のばらつきを示す評価値を求める。この評価値は、SSによってピクセル毎に算出されたクラス確率のばらつきを示すエントロピー(例えばシャノンのエントロピー)である。このエントロピーの値が低いほど、SSによって算出されたクラスの信頼度は高い。
そして、被写体分類装置10は、ピクセルのエントロピーをNear画像データとFar画像データとで重複した位置のピクセル毎に比較する。なお、同じ位置のピクセルとは、元画像データにおける同じ位置のピクセルである。すなわち、被写体分類装置10は、Near画像データとFar画像データとでエントロピーが低くなった算出結果、換言するとクラス確率のばらつきが小さい結果が信頼度の高い画像認識結果と判定し、当該ピクセルのクラスを特定する。
図2は、本実施形態のピクセルの分類結果とエントロピーとの関係を示す模式図であり、ピクセルに対する複数のクラス毎の確率と、これらの確率に基づいたピクセル毎のエントロピーとをケース1〜4で例示したものである。
ケース1は、4つのクラスの確率が各々0.25であり、ばらつきが大きいためエントロピーが他のケースに比べて最も高い。一方で、ケース3は、道路クラスの確率が0.7であり、立体物クラスの確率が0.3であり、他のクラスの確率が0であり、エントロピーが約0.88となり、4つのケースのうち最もエントロピーが低い。ケース4は、道路クラスと立体物クラスの確率が0.5であり、他のクラスの確率が0であり、エントロピーは1である。ケース2では、道路クラスの確率が0.7であり、他のクラスの確率が0.1であり、エントロピーは約1.36である。
一例として、Near画像データに対するSSの結果がケース2であり、Far画像データに対するSSの結果がケース4であるとする。図2の例では、ケース4、すなわちFar画像データの方がエントロピーが低いため、この結果が当該ピクセルのクラスとして採用される。しかしながら、ケース4とケース2とにおける各クラスの確率を比較すると、ケース2における道路クラスの確率が0.7であり他のクラスの確率が0.1であるため、直感的には、ケース2のNear画像データに対する結果が採用される方が適しているとも思われる。
このように、Near画像データとFar画像データとの分類結果を用いると、何れの分類結果を採用するべきか判然としない場合がある。
そこで、本実施形態の被写体分類装置10は、ピクセル単位よりも広い領域毎に被写体の分類を判定した結果も用いる。具体的には本実施形態の被写体分類装置10は、同じ被写体であるにもかかわらず、ピクセル単位に基づいたNear画像データとFar画像データとの分類結果が異なる場合、より広い画像領域に基づいたNear画像データとFar画像データとの分類結果を用いて被写体を分類する被写体分類処理を行う。
すなわち、本実施形態の被写体分類処理は、Near画像データとFar画像データとでピクセル単位に基づいた分類結果にばらつきが生じた場合、当該ピクセルを含みかつ当該ピクセルよりも広い領域における被写体の分類傾向を把握し、より広い空間における情報を利用して被写体の分類を特定する。これにより、本実施形態の被写体分類装置10は、被写体をより正確に特定できる。
次に、本実施形態の被写体分類処理について図3,4を参照して説明する。図3(A)及び図4(A)は、駐車を行う車両に搭載されたカメラ20の撮像画像であり、図3(B)及び図4(B)は、当該撮像画像を示す画像データに含まれる被写体をピクセル単位で分類した結果の一例である。図3(B)及び図4(B)では、同じクラスは同色で表されている。より具体的には、図3(B)及び図4(B)において色の黒い領域は立体物クラスと分類され、灰色の領域は道路クラスと分類されている。なお、図3(C)は、被写体の分類の正解値であり、色の濃い領域の被写体が立体物クラスであると判定されている。
すなわち、図3(B)の領域A,Bは共に立体物(車両)に対応する領域であるが、領域A及びその周囲は立体物クラスと分類されたものの、領域B及びその周辺は立体物クラスと道路クラスとが混在して分類されている。このように、ピクセル単位での分類の信頼性が高い領域は、領域Aで示されるように同じクラスが相対的に大きな塊となって表される。一方、信頼性の低い領域は、領域Bで示されるように分類にばらつきが生じており、異なる分類結果となった数ドットの小さい塊が複数存在する傾向にある。すなわち、領域B及びその周辺のようなピクセルが、Near画像データとFar画像データとで異なる分類結果となり得る。
そこで、被写体分類装置10は、図4(A),(B)に示されるように画像データを複数のグリッド40に分割する。図4(A),(B)では、一例として、縦に3つ横に4つのグリッド40に分割される。そして、本実施形態の被写体分類装置10は、ピクセル単位よりも大きな領域であるグリッド40毎にクラスを判定する。
すなわち、グリッド40のクラスは、ピクセル単位でのクラスの出力傾向に基づいたより広い領域のクラスの確からしさを示す指標(以下「クラス指標」という。)である。そして、Near画像データとFar画像データとで同じ位置であるにもかかわらず、ピクセル単位に基づいた分類結果が異なった場合、被写体分類装置10は、当該ピクセルに対応するクラス指標を用いて当該ピクセルを含む被写体の分類を特定する。
なお、図4に示されるグリッド40の大きさは一例であり、少なくとも、ROI画像(Near画像データ、Far画像データ)よりも小さく設定されればよい。
例えば、グリッド40は、ROI画像であるNear画像データ及びFar画像データに含まれ、画像認識するべき被写体(認識対象物)の大きさの最小値に相当する大きさに設定されてもよい。より具体的にはグリッド40は、例えば、車両にとって遠方でありカメラ20で撮像された場合に認識されるべき車両や人等の大きさに相当し、この大きさ(縦横のピクセル数)は予め設定されている。また、グリッド40の大きさは、ROI画像毎に異なってもよい。
次に、本実施形態の被写体分類装置10の構成について図1を参照して説明する。被写体分類装置10は、CPU(Central Processing Unit)等の演算部12、各種プログラム及び各種データ等が予め記憶されたROM(Read Only Memory)14、演算部12による各種プログラムの実行時のワークエリア等として用いられるRAM(Random Access Memory)16、SSを行うためのDNNやカメラ20で取得された画像データ、その他の各種データを記憶する記憶装置18を備えている。
本実施形態の演算部12は、画像抽出部30、第1クラス判定部32、第2クラス判定部34、及びクラス特定部36を備える。
画像抽出部30は、カメラ20で取得された画像データから、Near画像データとFar画像データとを抽出する。
第1クラス判定部32は、Near画像データ及びFar画像データを複数に細分化した第1基準単位毎に、第1基準単位を含む被写体の分類を判定する。なお、本実施形態の第1基準単位は、一例として、上述のようにピクセル単位であるが、これに限らず、第2基準単位よりも狭い領域であれば、複数のピクセルで構成される領域を第1基準単位としてもよい。第1クラス判定部32は、ピクセル毎の被写体の分類を上述のようにSSを用いて判定する。
また、本実施形態の第1クラス判定部32は、ピクセルを含む被写体の分類(クラス)を複数の異なる分類(候補クラス)に対する確率として算出すると共に、算出した確率のばらつきを示す第1評価値をピクセル毎に算出する。この第1評価値は、一例として、上述したエントロピーである。
第2クラス判定部34は、ピクセル単位である第1基準単位より広い第2基準単位毎に、第2基準単位を含む被写体の分類をSSによって判定する。なお、本実施形態の第2基準単位は、上述のようにグリッド40であり、第2クラス判定部34は、グリッド40毎の被写体の分類を上述のようにSSを用いて判定する。
また、本実施形態の第2クラス判定部34は、被写体の分類を判定するための第2評価値をグリッド40毎に算出する。この第2評価値は、上述したクラス指標である。クラス指標は、一例として、(1)式のようにグリッド40に含まれるクラス毎の塊の数の逆数と塊の面積との積として算出される。なお、クラス指標は、(1)式で示される算出方法に限られず、例えば、グリッド40に含まれるクラスの割り合いに基づいて算出される等、他の算出方法でもよい。
図5は、グリッド40毎に算出されたクラス指標の一例を示す模式図である。クラス指標は、Near画像データとFar画像データとにおける対応するグリッド40毎に算出される。図5の例では、Near画像データのクラス指標として立体物クラスが最も大きな値を示し、Far画像データのクラス指標として道路クラスが最も大きな値を示している。そして、Far画像データの道路クラスのクラス指標がNear画像データの立体物クラスのクラス指標よりも大きいので、当該グリッド40のクラスは道路クラスとなる。
クラス特定部36は、第1クラス判定部32及び第2クラス判定部34の判定結果に基づいて、ピクセルを含む被写体の分類を特定する。本実施形態のクラス特定部36は、第1クラス判定部32においてNear画像データとFar画像データとで同じ位置のピクセルの分類結果が同じであれば、当該分類結果により示されるクラスを当該ピクセルを含む被写体のクラスとする。
一方で、同じ位置(同じ被写体)であるにもかかわらずピクセル単位に基づいたNear画像データとFar画像データとの分類結果が異なる場合、クラス特定部36は、グリッド40に基づいたNear画像データとFar画像データとの分類結果を用いて、ピクセルを含む被写体の分類を特定する。
より具体的にはクラス特定部36は、ピクセル単位に基づいたNear画像データとFar画像データとの被写体の分類結果が異なり、かつNear画像データのエントロピー及びFar画像データのエントロピーの少なくとも一方が所定値を超える場合、クラス特定部36は、グリッド40に基づいた分類結果を用いてピクセルを含む被写体の分類を特定する。すなわち、エントロピーが上記所定値を超える場合には、このピクセル単位に基づいたクラス分類の信頼度は低いと考えられる。従って、グリッド40に基づいた分類結果を用いてピクセルを含む被写体の分類を特定することで、より正確に被写体が特定され得る。
なお、グリッド40に基づいた分類結果とは、第2クラス判定部34によって算出されたクラス指標を用いた分類結果である。
一方で、ピクセル単位に基づいたNear画像データとFar画像データとの被写体の分類結果が異なっても、Near画像データのエントロピー及びFar画像データのエントロピーの両方が所定値以下の場合、クラス特定部36は、エントロピーが相対的に低い分類結果を用いてピクセルを含む被写体の分類を特定する。すなわち、エントロピーが上記所定値以下である場合には、このピクセル単位に基づいたクラス分類の信頼度は高いと考えられる。従って、所定値以下となったエントロピーに基づいてピクセルを含む被写体の分類を特定することで、より正確に被写体が特定され得る。
なお、上記所定値は、予め定められた任意の値であり、クラス数や車両の走行環境(走行場所)等によって動的に変化してもよい。このため、本実施形態の記憶装置18には、クラス数や走行環境に応じた複数の所定値が予め記憶されている。
図6は、演算部12による被写体分類処理の流れを示すフローチャートである。被写体分類処理は、被写体分類装置10が備える記憶装置18又はROM14に格納されたプログラムによって実行される。このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、被写体分類処理は、カメラ20によって画像データが取得される毎に行われてもよいし、所定の間隔毎(例えば0.1秒)の画像データ毎に行われてもよい。
まず、ステップS100では、画像抽出部30がカメラ20で取得された画像データから、Near画像データ及びFar画像データを抽出する。なお、抽出されたNear画像データ及びFar画像データは、RAM16に記憶される。
次のステップS102では、第1クラス判定部32がNear画像データ及びFar画像データに対して、SSによってピクセル単位でクラスを算出する。
次のステップS104では、Near画像データ及びFar画像データにおける同位置でのピクセルの分類結果が異なるか否かをクラス特定部36が判定し、肯定判定の場合はステップS106へ移行し、否定判定の場合はステップS112へ移行する。
ステップS106では、Near画像データのエントロピー及びFar画像データのエントロピーの少なくとも一方が所定値を超えるか否かをクラス特定部36が判定し、肯定判定の場合はステップS108へ移行し、否定判定の場合はステップS112へ移行する。
ステップS108では、第2クラス判定部34がNear画像データ及びFar画像データに対して、SSによってグリッド40毎にクラス指標を算出する。
次のステップS110では、分類結果が異なるピクセルに対応するグリッド40のクラス指標に基づいて、クラス特定部36が当該ピクセルのクラスを特定し、ステップS114へ移行する。
ステップS112では、ピクセルの分類結果に基づいて、クラス特定部36が当該ピクセルを含む被写体の分類を特定し、ステップS114へ移行する。具体的には、ステップS104からステップS112へ移行した場合は、Near画像データの分類結果とFar画像データの分類結果が同じであるため、この分類結果を当該ピクセルのクラスとして特定する。また、ステップS106からステップS112へ移行した場合は、Near画像データのピクセルのエントロピーとFar画像データのピクセルのエントロピーのうち、相対的にエントロピーが小さい分類結果を用いて当該ピクセルのクラスを特定する。
ステップS114では、Near画像データ及びFar画像データを構成する全てのピクセルのクラスの特定が終了したか否かをクラス特定部36が判定し、肯定判定の場合は本被写体分類処理を終了し、否定判定の場合にはステップS102へ戻る。
以上、本発明を、上記実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。発明の要旨を逸脱しない範囲で上記実施形態に多様な変更又は改良を加えることができ、該変更又は改良を加えた形態も本発明の技術的範囲に含まれる。
上記実施形態では、カメラ20で撮像された同じ画像データから、Near画像データとFar画像データとを抽出する形態について説明したが、本発明は、これに限定されるものではない。2つのカメラ20で撮像された2つの画像データを結合させて1つの画像データとし、この画像データからNear画像データとFar画像データとが抽出されてもよい。
また、本実施形態の被写体分類処理の対象となる2つの画像は、各々異なるカメラ20で撮像され、同一の被写体を含む画像データでもよい。例えば、車両の異なる位置に搭載された2つのカメラ20が同一の被写体を撮像し、これらのカメラ20で取得された2つの画像データに対して被写体分類処理が行われ、被写体の分類が特定されてもよい。なお、この形態の場合、2つの画像データで各々重複する画像領域が予め特定されており、この特定された画像領域に含まれる被写体に対して被写体分類処理が行われる。
上記実施形態では、カメラ20及び被写体分類装置10を車両に搭載する形態について説明したが、本発明は、これに限定されるものではない。例えば、カメラ20及び被写体分類装置10はロボットやドローン等の自動運転を行う装置に搭載されてもよい。
上記実施形態では、カメラ20及び被写体分類装置10を車両等の同一の装置に搭載する形態について説明したが、本発明は、これに限定されるものではない。例えば、カメラ20は車両等の装置に搭載されるものの、被写体分類装置10はこの装置に搭載されずにサーバー等に搭載されてもよい。この形態の場合、通信回線を介して装置から送信された画像データに基づいて被写体分類装置10が被写体の分類を特定し、その分類結果を被写体分類装置10からカメラ20を搭載した装置へ送信する。
上記実施形態では、セマンティックセグメンテーション(SS)によって、画像データに含まれる被写体の分類を特定する形態について説明したが、本発明は、これに限定されるものではない。第1基準単位及び第2基準単位で被写体を分類することができる処理方法であれば、他の処理方法が用いられてもよい。
上記実施形態では、Near画像データ及びFar画像データのピクセルのエントロピー少なくとも一方が所定値を超えた場合に、グリッド40の分類結果を用いる形態について説明したが、本発明は、これに限定されるものではない。同じ被写体であるにもかかわらずピクセルに基づいたNear画像データとFar画像データとの分類結果が異なる場合、常にグリッド40の分類結果を用いるとしてもよい。
また、上記実施形態で説明した処理の流れも一例であり、本発明の主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよい。
10・・・被写体分類装置、20・・・カメラ、32・・・第1クラス判定部、
34・・・第2クラス判定部、36・・・クラス特定部
34・・・第2クラス判定部、36・・・クラス特定部
Claims (8)
- 撮像装置(20)で取得された第1画像データ及び第2画像データに含まれる一又は複数の被写体の分類を特定する情報処理装置(10)であって、
前記第1画像データ及び前記第2画像データを複数に細分化した第1基準単位毎に、前記第1基準単位を含む前記被写体の分類を判定する第1判定手段(32)と、
前記第1基準単位より広い第2基準単位毎に、前記第2基準単位を含む前記被写体の分類を判定する第2判定手段(34)と、
同じ前記被写体であるにもかかわらず前記第1基準単位に基づいた前記第1画像データと前記第2画像データとの分類結果が異なる場合、前記第2基準単位に基づいた前記第1画像データと前記第2画像データとの分類結果を用いて、前記第1基準単位を含む前記被写体の分類を特定する特定手段(36)と、
を備える情報処理装置。 - 前記第1判定手段は、前記第1基準単位を含む前記被写体の前記分類を複数の異なる前記分類に対する確率として算出すると共に、算出した前記確率のばらつきを示す第1評価値を前記第1基準単位毎に算出し、
前記特定手段は、前記第1基準単位に基づいた前記第1画像データと前記第2画像データとの前記被写体の分類結果が異なり、かつ前記第1画像データ及び前記第2画像データの前記第1評価値の少なくとも一方が所定値を超える場合、前記第2基準単位に基づいた分類結果を用いて前記第1基準単位を含む前記被写体の分類を特定する、請求項1記載の情報処理装置。 - 前記第1判定手段は、前記第1基準単位を含む前記被写体の前記分類を複数の異なる前記分類に対する確率として算出すると共に、算出した前記確率のばらつきを示す第1評価値を前記第1基準単位毎に算出し、
前記特定手段は、前記第1基準単位に基づいた前記第1画像データと前記第2画像データとの前記被写体の分類結果が異なっても、前記第1画像データ及び前記第2画像データの前記第1評価値の両方が所定値以下の場合、前記第1評価値が相対的に低い分類結果を用いて前記第1基準単位を含む前記被写体の分類を特定する、請求項1又は請求項2記載の情報処理装置。 - 前記第2判定手段は、前記第2基準単位を含む前記被写体の分類を判定するための第2評価値を前記第2基準単位毎に算出し、
前記特定手段は、前記第2基準単位に基づいた前記第1画像データと前記第2画像データとの前記被写体の分類結果が異なる場合、前記第2評価値を用いて前記第1基準単位を含む前記被写体の分類を特定する、請求項1から請求項3の何れか1項記載の情報処理装置。 - 前記第1画像データと前記第2画像データとは、同じ画像データから得られ、同一の前記被写体を含む画像データである、請求項1から請求項4の何れか1項記載の情報処理装置。
- 前記第1画像データと前記第2画像データとは、各々異なる前記撮像装置で撮像され、同一の前記被写体を含む画像データである、請求項1から請求項4の何れか1項記載の情報処理装置。
- 撮像装置で取得された第1画像データ及び第2画像データに含まれる一又は複数の被写体の分類を特定する被写体分類方法であって、
前記第1画像データ及び前記第2画像データを複数に細分化した第1基準単位毎に、前記第1基準単位を含む前記被写体の分類を判定する第1工程と、
前記第1基準単位より広い第2基準単位毎に、前記第2基準単位を含む前記被写体の分類を判定する第2工程と、
同じ前記被写体であるにもかかわらず前記第1基準単位に基づいた前記第1画像データと前記第2画像データとの分類結果が異なる場合、前記第2基準単位に基づいた前記第1画像データと前記第2画像データとの分類結果を用いて、前記第1基準単位を含む前記被写体の分類を特定する第3工程と、
を有する被写体分類方法。 - 撮像装置で取得された第1画像データ及び第2画像データに含まれる一又は複数の被写体の分類を特定する情報処理装置が備えるコンピュータを、
前記第1画像データ及び前記第2画像データを複数に細分化した第1基準単位毎に、前記第1基準単位を含む前記被写体の分類を判定する第1判定手段と、
前記第1基準単位より広い第2基準単位毎に、前記第2基準単位を含む前記被写体の分類を判定する第2判定手段と、
同じ前記被写体であるにもかかわらず前記第1基準単位に基づいた前記第1画像データと前記第2画像データとの分類結果が異なる場合、前記第2基準単位に基づいた前記第1画像データと前記第2画像データとの分類結果を用いて、前記第1基準単位を含む前記被写体の分類を特定する特定手段と、
して機能させるための被写体分類プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020053505A JP2021152826A (ja) | 2020-03-25 | 2020-03-25 | 情報処理装置、被写体分類方法、及び被写体分類プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020053505A JP2021152826A (ja) | 2020-03-25 | 2020-03-25 | 情報処理装置、被写体分類方法、及び被写体分類プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021152826A true JP2021152826A (ja) | 2021-09-30 |
Family
ID=77886683
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020053505A Pending JP2021152826A (ja) | 2020-03-25 | 2020-03-25 | 情報処理装置、被写体分類方法、及び被写体分類プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021152826A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023183769A (ja) * | 2022-06-16 | 2023-12-28 | オートペディア カンパニー リミテッド | 深層人工ニューラルネットワークを用いたタイヤトレッド面摩耗判断システム及び方法 |
-
2020
- 2020-03-25 JP JP2020053505A patent/JP2021152826A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023183769A (ja) * | 2022-06-16 | 2023-12-28 | オートペディア カンパニー リミテッド | 深層人工ニューラルネットワークを用いたタイヤトレッド面摩耗判断システム及び方法 |
JP7515189B2 (ja) | 2022-06-16 | 2024-07-12 | オートペディア カンパニー リミテッド | 深層人工ニューラルネットワークを用いたタイヤトレッド面摩耗判断システム及び方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chen et al. | Pothole detection using location-aware convolutional neural networks | |
CN110148196B (zh) | 一种图像处理方法、装置以及相关设备 | |
US9842266B2 (en) | Method for detecting driver cell phone usage from side-view images | |
CN109711264B (zh) | 一种公交车道占道检测方法及装置 | |
KR101848019B1 (ko) | 차량 영역 검출을 통한 차량 번호판 검출 방법 및 장치 | |
CN104239867B (zh) | 车牌定位方法及系统 | |
US11371851B2 (en) | Method and system for determining landmarks in an environment of a vehicle | |
JP5223675B2 (ja) | 車両検知装置,車両検知方法並びに車両検知プログラム | |
CN106971185B (zh) | 一种基于全卷积网络的车牌定位方法及装置 | |
US10824881B2 (en) | Device and method for object recognition of an input image for a vehicle | |
CN110956081B (zh) | 车辆与交通标线位置关系的识别方法、装置及存储介质 | |
CN111507145A (zh) | 嵌入式车载环视系统库位障碍物检测方法、系统及装置 | |
CN104915943B (zh) | 用于在视差图中确定主要视差值的方法和装置 | |
CN111967396A (zh) | 障碍物检测的处理方法、装置、设备及存储介质 | |
CN111627057A (zh) | 一种距离测量方法、装置及服务器 | |
Ghahremannezhad et al. | Automatic road detection in traffic videos | |
CN115457358A (zh) | 一种图像与点云的融合的处理方法、装置和无人车 | |
JP2018124963A (ja) | 画像処理装置、画像認識装置、画像処理プログラム、及び画像認識プログラム | |
JP2021152826A (ja) | 情報処理装置、被写体分類方法、及び被写体分類プログラム | |
Álvarez et al. | Perception advances in outdoor vehicle detection for automatic cruise control | |
CN114898306A (zh) | 一种检测目标朝向的方法、装置及电子设备 | |
Frnda et al. | Analysis of Pothole Detection Accuracy of Selected Object Detection Models Under Adverse Conditions | |
TW202326624A (zh) | 嵌入式深度學習多尺度物件偵測暨即時遠方區域定位裝置及其方法 | |
JP6343862B2 (ja) | 物体認識装置、物体認識方法、および物体認識プログラム | |
CN114373081A (zh) | 图像处理方法及装置、电子设备及存储介质 |