JP7279848B2 - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP7279848B2
JP7279848B2 JP2022505680A JP2022505680A JP7279848B2 JP 7279848 B2 JP7279848 B2 JP 7279848B2 JP 2022505680 A JP2022505680 A JP 2022505680A JP 2022505680 A JP2022505680 A JP 2022505680A JP 7279848 B2 JP7279848 B2 JP 7279848B2
Authority
JP
Japan
Prior art keywords
label
dimensional
unit
point
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022505680A
Other languages
English (en)
Other versions
JPWO2021181647A1 (ja
JPWO2021181647A5 (ja
Inventor
剛志 柴田
航介 吉見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021181647A1 publication Critical patent/JPWO2021181647A1/ja
Publication of JPWO2021181647A5 publication Critical patent/JPWO2021181647A5/ja
Application granted granted Critical
Publication of JP7279848B2 publication Critical patent/JP7279848B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds

Description

本発明は、画像処理装置、画像処理方法、およびコンピュータ可読媒体に関し、例えば、点群データの教師データを効率よく生成することが可能な画像処理装置、画像処理方法、およびコンピュータ可読媒体に関する。
現在、画像などを用いた認識技術には、統計的機械学習の手法が用いられている。このような統計的機械学習では、認識対象に関連した正解ラベルが付されたラベルデータを大量に用意し、これらのラベルデータを用いて学習および評価が行われている(例えば、非特許文献1及び非特許文献2参照)。
特許文献1には、三次元点群データのデータ量が膨大な場合でも、三次元点群データから高速に物体形状を抽出できる形状抽出装置が開示されている。この形状抽出装置において、三次元点群データに対して、複数の点のすべてを包括する包括ボクセルが設定されている。複数の点のピッチよりも大きなサイズを有する複数の仮想ボクセルで包括ボクセルが分割されている。複数の仮想ボクセルのそれぞれに固有の識別番号が設定されている。識別番号が付与された仮想ボクセル内の点の有無に応じて、仮想ボクセルを単位としてラベリング処理が行われ、点を含む複数の仮想ボクセルのうち、連結する仮想ボクセルに同一のラベル値が付与されている。
特開2016-003886号公報
N. Silberman, D. Hoiem, P. Kohli, and R. Fergus. "Indoor segmentation and support inference from RGBD images", In European Conference on Computer Vision (ECCV), 2012. Shibata, Takashi, Masayuki Tanaka, and Masatoshi Okutomi. "Accurate joint geometric camera calibration of visible and far-infrared cameras." Electronic Imaging 2017.11 (2017): 7-13.
上記の、連結する仮想ボクセルに同一のラベル値を付与する方法において、その仮想ボクセルがどのような物体に対応するのか不明である。また、この方法を用いて物体認識処理を行うためには、仮想ボクセルに付与されたラベル値がどのような物体に対応するかを手作業で確認する必要がある。したがって、この方法では、三次元点群データを用いた物体認識処理で使用されるラベルデータを容易に生成することは困難となり得る。
本開示の目的は、上述した課題のいずれかを解決する画像処理装置、画像処理方法及びコンピュータ可読媒体を提供することである。
上記目的を達成するための一態様は、
物体の三次元点群を、複数のクラスタリングパラメータを用いて、前記三次元点群の点間の距離が小さいほど同じクラスタにクラスタリングされるように、分割する三次元点群分割部と、
前記三次元点群の座標と二次元画像の画素の座標との対応関係に基づいて、前記三次元点群のクラスタを二次元画像に写像し、写像点群を生成するクラスタ写像部と、
二次元画像の対象となるラベルと該二次元画像上の位置情報とに基づいて、前記クラスタ写像部にて写像された写像点群の各点に対してラベルを付与するラベル照合部と、
前記ラベル照合部によって付与された写像点群の各点のラベルに対して投票する照合結果投票部と、
前記照合結果投票部による投票結果に基づいて、前記写像点群の各点のラベルを決定するラベル決定部と、
を備える画像処理装置
である。
上記目的を達成するための一態様は、
物体の三次元点群を、複数のクラスタリングパラメータを用いて、前記三次元点群の点間の距離が小さいほど同じクラスタにクラスタリングされるように、分割するステップと
前記三次元点群の座標と二次元画像の画素の座標との対応関係に基づいて、前記三次元点群のクラスタを二次元画像に写像し、写像点群を生成するステップと、
二次元画像の対象となるラベルと該二次元画像上の位置情報とに基づいて、前記写像された写像点群の各点に対してラベルを付与するステップと、
前記付与された写像点群の各点のラベルに対して投票するステップと、
前記投票結果に基づいて、前記写像点群の各点のラベルを決定するステップと、
を含む画像処理方法
であってもよい。
上記目的を達成するための一態様は、
物体の三次元点群を、複数のクラスタリングパラメータを用いて、前記三次元点群の点間の距離が小さいほど同じクラスタにクラスタリングされるように、分割する処理と
前記三次元点群の座標と二次元画像の画素の座標との対応関係に基づいて、前記三次元点群のクラスタを二次元画像に写像し、写像点群を生成する処理と、
二次元画像の対象となるラベルと該二次元画像上の位置情報とに基づいて、前記写像された写像点群の各点に対してラベルを付与する処理と、
前記付与された写像点群の各点のラベルに対して投票する処理と、
前記投票結果に基づいて、前記写像点群の各点のラベルを決定する処理と、
をコンピュータに実行させるプログラムが格納された非一時的なコンピュータ可読媒体
であってもよい。
本開示によれば、上述した課題のいずれかを解決する画像処理装置、画像処理方法及びコンピュータ可読媒体を提供することができる。
本実施形態1に係る画像処理装置の概略的なシステム構成を示すブロック図である。 本実施形態1に係るコンピュータの概略的なシステム構成を示すブロック図である。 本実施形態1における三次元点群と複数のクラスタリングパラメータによるクラスタリングの結果を示す図である。 本実施形態1におけるクラスタ写像部とラベル照合部の動作を説明する図である。 本実施形態1に係る画像処理方法のフローを示すフローチャートである。 本実施形態1に係る画像処理装置及び画像処理方法の効果を説明するための図である 本実施形態2に係る画像処理装置の概略的なシステム構成を示すブロック図である。
[実施形態1]
本発明を実施するための形態について、図面を参照して詳細に説明する。図1は、本実施形態1に係る画像処理装置の概略的なシステム構成を示すブロック図である。本実施形態に係る画像処理装置1は、図1に示すように、三次元点群取得部10と、カメラ情報取得部11と、二次元ラベル取得部12と、コンピュータ20と、点群ラベル出力部31と、を備えている。
以下、各構成の概要について述べるが、その前に本明細書で使用する記号について列挙する。
・三次元点群の各点を区別するための添え字;j
・三次元点群の世界座標系における各点の座標:(Xj、Yj、Zj)
・カメラ座標系における各点の座標:(x、y
・物体ラベル:B
・各物体を区別するための添え字:k
・オブジェクトや属性を区別するためのラベル:q
・位置情報:D
・クラスタリングパラメータ:L
・クラスタリングパラメータを区別するための添え字:t
・世界座標系における分割された各クラスタを区別するための変数:P
・カメラ座標における分割された各クラスタを区別するための変数:C
・j番目の点群、t番目のクラスタリングパラメータに割り当てられた物体ラベル:Qjt
・各点jにおけるq番目の物体ラベルにおける投票数(信頼度):Sjq
・点群のj番目の点の物体ラベル:G
[三次元点群取得部]
三次元点群取得部10は、三次元点群取得装置などにより物体の三次元点群の情報を取得する。三次元点群取得部10は、具体的に、LiDAR(Light Detection And Ranging、Laser Imaging Detection and Ranging)など距離を計測する装置を用いて、空間上の三次元点の座標を取得する。三次元点群取得部10は、空間上の三次元点の座標の集合を三次元点群として取得する。
例えば、地形調査や自動運転等で広く利用されている3D-LiDARは、高密度かつ広範囲に三次元空間上の物体の計測点からの距離データを、三次元点群データとして集積可能である。三次元点群取得部10は、この3D-LiDARで取得された実環境の構造を反映するデータ、すなわち、人、自動車などの対象オブジェクト、及び、地面、建物、標識などの構造物から反射されて得られた三次元座標情報を持つ三次元点の集合を、三次元点群として取得する。
以下、三次元点群の座標を(X,Y,Z)と表す。ここでjは、三次元点群中の各点を区別するための添え字である。三次元点群取得部10は、三次元点の座標の集合に加え、装置の情報、或いは三次元点を取得した際の時刻や緯度経度などの位置情報を同時に取得してもよい。さらに、三次元点群取得部10は、取得された画像或いは測定値をメモリ(図示せず)等に記録してもよい。
[カメラ情報取得部]
カメラ情報取得部(情報取得部)11は、三次元点群の座標と二次元画像の画素の座標との対応関係を含むカメラ情報を取得する。より具体的には、カメラ情報取得部11は、三次元点群の座標の位置(すなわち世界座標における三次元座標)と、二次元画像のある画素の座標(すなわちカメラ座標から投影して得られる二次元座標)と、の間の変換に必要なパラメータ(以下、変換パラメータ)を含むカメラ情報を取得する。
例えば、カメラ情報取得部11は、変換パラメータとして、三次元点群の座標と二次元画像の画素の座標とを関係付ける外部パラメータ、及び二次元画像を取得した際に使用したカメラの内部パラメータを取得する。或いは、カメラ情報取得部11は、内部パラメータと、外部パラメータの替わりに、三次元点群の座標を表す座標系(すなわち世界座標)と二次元画像を取得するために用いたカメラの座標系(すなわちカメラ座標)の間の回転と並進のパラメータと、を取得してもよい。
カメラ情報取得部11は、取得したカメラ情報をメモリ(図示せず)等に記録してもよい。カメラ情報取得部11は、三次元点群の座標と二次元画像の画素の座標との対応関係を、別途カメラキャリブレーション技術等により算出することで取得してもよい。
なお、本実施形態1に係る画像処理装置1は、カメラ情報取得部11を備えない構成であってもよい。この場合、上記カメラ情報は、クラスタ写像部202に予め設定されていてもよい。
[二次元ラベル取得部]
二次元ラベル取得部12は、二次元画像の対象となる物体のラベルと、その二次元画像上の位置情報と、を取得する。物体のラベルは、例えば人、車,犬、自転車のようなオブジェクトの種類に関するラベルである。物体のラベルは、赤い服、青い鞄、年齢、性別などの属性情報に関するラベルであってもよい。上記二次元画像上の位置情報は、例えば、対象となっている物体の矩形の4点の座標やそれに類似する情報である。二次元画像上の位置情報は、物体の中心座標であってもよく、或いは物体上が存在する座標上の幾つかの点であってもよい。
二次元ラベル取得部12は、上記ラベルとその二次元画像上の位置情報を機械学習などによる検出手法を用いて自動的に算出してもよい。二次元ラベル取得部12に、人手で、上記ラベルとその二次元画像上の位置情報が入力されてもよい。二次元ラベル取得部12に、人手による入力と機械学習を用いた検出手法を組み合わせて、上記ラベルとその二次元画像上の位置情報を取得してもよい。
なお、本実施形態1に係る画像処理装置1は、二次元ラベル取得部12を備えない構成であってもよい。この場合、上記ラベルとその二次元画像上の位置情報は、ラベル照合部203に予め設定されていてもよい。
二次元ラベル取得部12は、取得したラベルとその二次元画像上の位置情報をメモリ(図示せず)等に記録してもよい。以下では、三次元点群の各点に対応するカメラ座標を(x、y)と表す。ここで、jは点群中の各点を区別するための添え字である。
また、上記物体のラベルをBと表し、ここでkは各物体を区別するための添え字である。ラベルBに割り当てられる値であり、オブジェクトの種類や属性などのラベルを以下ではqを用いて表す。
例えば、q=1の場合は人、q=2の場合は車といったように、qの値とオブジェクトや属性を対応付けることで、ラベルBは、ラベルの内容を区別するものとする。k番目のラベルBはB=qなどといったように表現される。各ラベルBと共に取得されるその二次元画像上の位置情報をDとして表す。
なお、以下位置情報Dは、物体を囲む矩形情報として位置情報が与えられていると仮定して説明するが、本発明における位置情報Dの包含する範囲はこれに限定されない。例えば、上述したように物体の中心座標を位置情報としてもよいし、或いは物体上に存在する座標上の幾つかの点を位置情報とし、これをDとして表してもよい。
[コンピュータ]
コンピュータ20は、例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)などのプロセッサと、RAM(Random Access Memory)やROM(Read Only Memory)などの内部メモリと、HDD(Hard Disk Drive)やSDD(Solid State Drive)などのストレージデバイスと、ディスプレイなどの周辺機器を接続するための入出力I/Fと、装置外部の機器と通信を行う通信I/Fと、を備えた通常のコンピュータのハードウェア構成を有する。
コンピュータ20は、例えば、プロセッサが内部メモリを利用しながら、ストレージデバイスや内部メモリなどに格納されたプログラムを実行することで、後述の各機能的な構成要素を実現することができる。
図2は、本実施形態1に係るコンピュータの概略的なシステム構成を示すブロック図である。本実施形態1に係るコンピュータ20は、三次元点群分割部201と、クラスタ写像部202と、ラベル照合部203と、照合結果投票部204と、ラベル決定部205と、を有している。
[三次元点群分割部]
三次元点群分割部201は、三次元点群取得部10により取得された三次元点群を、複数のクラスタリングパラメータを用いて、点間の距離が小さいほど同じクラスタにクラスタリングされるように分割する。
この点間の距離は、例えば、ユークリッド距離である。クラスタリングパラメータは、例えば、異なるクラスタの点間の距離が最小距離L以上となるように三次元点群を分割するためのパラメータである。このように、最小距離Lに基づいたクラスタリングパラメータを用いて、三次元点群が分割された場合、あるクラスタに属する点は、別のクラスタに属する点と必ず最小距離L以上離れていることが保証される。
図3は、本実施形態1における三次元点群と複数のクラスタリングパラメータによるクラスタリングの結果を示す図である。三次元点群分割部201は、図3に示すように、この最小距離Lを複数用意し(例えば、L=0.01、L=0.1、L=1など)、異なる距離毎に、三次元点群を分割する。
以下、これらパラメータをクラスタリングパラメータLと称す。tはクラスタリングパラメータを区別するための添え字である。また、分割結果が得られた分割クラスタを、整数クラスタラベルとして三次元点群の各点に割り当てる。すなわち、三次元点群の各点jにはクラスタリングの結果、整数クラスタラベルが割り当てられる。以下、整数クラスタラベルをPとして表す。tはクラスタリングパラメータを区別するための添え字である。すなわち、三次元点群中の各点はt個の分割クラスタPのうちのいずれかが付与されることを意味する。以下Pを分割クラスタと称す。
なお、三次元点群分割部201による分割方法は上記方法に限定されない。例えば、三次元点群分割部201は、三次元点群取得部10により取得された三次元点群の分割個数をパラメータとして、三次元点群を指定されたクラスタに分割してもよい。
[クラスタ写像部]
クラスタ写像部202は、カメラ情報取得部11により取得されたカメラ情報と、三次元点群分割部201により分割されたクラスタリング結果と、に基づいて、三次元点群の分割クラスタPを、図4に示すように、二次元ラベルが定義されたカメラ座標へ写像する。上記カメラ情報は、例えば、内部パラメータ、外部パラメータなどの変換パラメータを含む。上記クラスタリング結果は、例えば、分割クラスタP及び三次元点群座標(X,Y,Z)を含む。
クラスタ写像部202は、カメラ情報取得部11により取得された三次元点群の座標と二次元画像の座標との対応関係に基づいて、三次元点群のクラスタを二次元画像に写像し、写像点群を生成する。
上記写像を行うためには、三次元点群座標から二次元画像平面への写像が定義されている必要がある。ここでは、二次元ラベルが定義された平面座標は、二次元ラベルを付与する元になった画像の座標系、すなわちカメラ座標を想定し、三次元点群座標から二次元画像平面への写像が与えられているものとする。
クラスタ写像部202は、この写像を、カメラ情報取得部11により取得された内部パラメータや外部パラメータなどの変換パラメータに基づいて、算出する。以下、カメラ座標に写像投影後の分割クラスタをCで表し、写像投影前の分割クラスタPと区別して表す。
[ラベル照合部]
ラベル照合部203は、図4に示すように、クラスタ写像部202により写像された写像点群の各点に対して、二次元ラベル取得部12により取得された位置情報Dと、物体のラベルBと、に基づいてラベルを付与する。
例えば、ラベル照合部203は、クラスタ写像部202によって二次元画像平面へ投影された分割クラスタCと、二次元ラベル取得部102により取得された2次元ラベルと、を照合し、それぞれの2次元ラベルに適合する分割クラスタCを選別する。より具体的には、ラベル照合部203は、以下の式を用いて、カメラ座標に投影された分割クラスタC単位で、各点j∈Cに対応する位置情報Dを探索し、分割クラスタCにラベルBを対応付ける。
Figure 0007279848000001
なお,Qjtは,三次元点群分割部201におけるt番目の分割パラメータLにおける、j番目の写像点群において付与された物体のラベルを表している。上記「~」は、カメラ座標系に写像後の分割クラスタCと位置情報Dが対応付けられていることを示している。
ラベル照合部203は、分割クラスタC毎に対応するラベルBと位置情報Dを探索し、これらラベルBと位置情報Dを分割クラスタCに対応付ける。ここで、写像後の分割クラスタCと位置情報Dとが重なった状態であればあるほど、その分割クラスタCに属する各点に対し、位置情報Dに対応するラベルBを割り当てる。すなわち、ラベル照合部203は、分割クラスタCに属する点j∈C(画像平面における点群の写像)が位置情報Dの内部に含まれる割合に応じて、分割クラスタCと位置情報Dとを照合する。
ラベル照合部203は、各分割クラスタCに対し、位置情報Dに含まれる写像点群の包含率を算出し、各分割クラスタCに対し、最も包含率の高い位置情報Dと同一のラベルを付与する。このとき、ラベル照合部203は、ある小クラスタについての最大の包含率が所定の閾値を超えない場合には、対応ラベルなし(Label=UnKnown)としてもよい。
ラベル照合部203は、以下の式によって、包含率を計算する。
Figure 0007279848000002
ただし、Cは分割クラスタを示し、Dは位置情報を示し、jは小クラスタの要素の点を示す。Num(・)は、要素の個数をカウントする関数である。上式において、分母は分割クラスタCに含まれる写像点群の数を、分子はカメラ座標に写像投影後の分割クラスタCが位置情報Dに含まれている数を表している。
なお、ラベル照合部203による照合方法は、上記方法に限定されない。例えば、ラベル照合部203は、上式で包含率を計算するかわりに、面積重複率(IoU)を計算し、この値を用いて最も面積重複率の高い位置情報Dと同一のラベルBを付与してもよい。このとき、ラベル照合部203は、ある小クラスタについての最大の面積重複率が所定の閾値を超えない場合には、対応ラベルなし(Label=UnKnown)としてもよい。
[照合結果投票部]
照合結果投票部204は、ラベル照合部203によってクラスタリングパラメータ毎に得られた写像点群の各点のラベルQjtを、投票により統合する。
例えば、照合結果投票部204は、写像点群の各点のラベルQjtを用いて、ラベルQjtに対する信頼度Sjqを算出する。より具体的には、照合結果投票部204は、ラベルQjtに基づいて、下記式を用いて、ラベルQjtに対する信頼度Sjqを算出する。
Figure 0007279848000003
ここで、qは物体ラベルの種類を表す値であり、δ(a,b)は、aとbが同じ値であれば1、違う値であれば0を返す関数である。信頼度Sjqは、点群の各点に対しq個のビンを持つ配列となっている。
照合結果投票部204による信頼度Sjqの算出方法は、上記方法に限定されない。例えば、照合結果投票部204は、信頼度Sjqを算出する際に、該当する点群中の点jのラベルに対してだけでなく、点jの周囲の点群のラベルに対しても投票してもよい。
より具体的には、照合結果投票部204は、以下の式を用いて信頼度Sjqを算出してもよい。ここで、O(j)は点群中の点jの周囲にある点の集合である。
Figure 0007279848000004
[ラベル決定部]
ラベル決定部205は、照合結果投票部204による投票結果に基づいて、写像点群の各点のラベルを決定する。例えば、ラベル決定部205は、照合結果投票部204により算出された信頼度Sjqを用いて、点群の点j毎に、最大のqをとる値をその点jにおけるラベルであるとして決定する。より具体的には、ラベル決定部205は、以下の式を用いて算出される値Gを点群のj番目の点のラベルとする。
Figure 0007279848000005
以下、ラベル決定部205によって決定されたラベルをGとして表すこととする。
ラベル決定部205によるラベル決定方法は、上記方法に限定されない。例えば、ラベル決定部205は、照合結果投票部204による投票の信頼度Sjqの最大値が第1所定値よりも低い場合、人手により写像点群の各点にラベルを割り当てる方法に決定してもよい。すなわち、ラベル決定部205は、照合結果投票部204による投票結果に基づき、写像点群の各点のラベルを決定する際に、該当するラベルに対する信頼度Sjqの全てが第1所定値よりも低い場合、人手によりラベルを割当てる方法に決定してもよい。なお、上記第1所定値は、予めラベル決定部205に設定されていてもよい。
ラベル決定部205は、上記人手によるラベルの割当て方法として、例えば、該当するラベルに対する信頼度Sjqの全てが第1所定値よりも低い場合、信頼度Sjqが第2所定値よりも高い複数のラベルをディスプレイなどに表示させ、人がその表示されたラベルを選択する方法に決定してもよい。なお、第2所定値は第1所定値よりも小さく(第1所定値>第2所定値)、予めラベル決定部205に設定されていてもよい。
[点群ラベル出力部]
点群ラベル出力部31は、後述のラベル決定部205により決定された点群のj番目の点のラベルを出力する。なお、点群ラベル出力部31は、出力結果をディスプレイに表示してもよいし、メモリなどの記録装置にその値を出力してもよい。
次に、本実施形態に係る画像処理方法について説明する。図5は、本実施形態1に係る画像処理方法のフローを示すフローチャートである。三次元点群取得部10は、三次元点群取得装置により三次元点群の情報を取得する(ステップS101)。
カメラ情報取得部11は、三次元点群の座標と二次元画像の画素の座標との対応関係を取得する(ステップS102)。二次元ラベル取得部12は、二次元画像の対象となる物体のラベルと、その二次元画像上の位置情報と、を取得する(ステップS103)。
三次元点群分割部201は、三次元点群取得部10により取得された三次元点群を、複数のクラスタリングパラメータを用いて、点間の距離が小さいほど同じクラスタにクラスタリングされるように分割する(ステップS104)。
クラスタ写像部202は、カメラ情報取得部11により取得された三次元点群の座標と二次元画像の座標との対応関係に基づいて、三次元点群のクラスタを二次元画像に写像し、写像点群を生成する(ステップS105)。
ラベル照合部203は、クラスタ写像部202により写像された写像点群の各点に対して、二次元ラベル取得部12により取得された位置情報と物体のラベルとに基づいて、ラベルを付与する(ステップS106)。
照合結果投票部204は、ラベル照合部203によってクラスタリングパラメータ毎に得られたラベル付された写像点群の各点のラベルを投票により統合する(ステップS107)。
ラベル決定部205は、照合結果投票部204による投票結果に基づいて、写像点群の各点のラベルを決定する(ステップS108)。点群ラベル出力部31は、ラベル決定部205により決定されたラベルを出力する(ステップS109)。
次に、本実施形態1に係る画像処理装置及び画像処理方法による効果を、図6を用いて詳細に説明する。例えば、図6における車の位置座標に対応する三次元点群を一つの分割として扱いたいが、三次元点群の形状が複雑な場合は、これらを一つのクラスタとして分割することは難しい。
そこで、本実施形態1において、複数のクラスタリングパラメータを用い、異なるスケールで分割結果を出力し、これらの分割クラスタごとにラベルを付与する。最後に、これらの結果を統合することで、投票数が多い、すなわちより多くのクラスタリングパラメータで同一のラベルが出力されたラベルを正解ラベルとする。これにより、例えば、三次元点群の形状が複雑である場合でも、より頑健なラベルを容易に生成し、三次元点群の各点に与えることができる。
以上、本実施形態に係る画像処理装置1は、図2に示すように、物体の三次元点群を、複数のクラスタリングパラメータにて、三次元点群の点間の距離が小さいほど同じクラスタにクラスタリングされるように、分割する三次元点群分割部201と、三次元点群の座標と二次元画像の画素の座標との対応関係に基づいて、三次元点群のクラスタを二次元画像に写像し、写像点群を生成するクラスタ写像部202と、二次元画像の対象となるラベルと該二次元画像上の位置情報とに基づいて、クラスタ写像部202にて写像された写像点群の各点に対してラベルを付与するラベル照合部203と、ラベル照合部203によって付与された写像点群の各点のラベルに対して投票する照合結果投票部204と、照合結果投票部204による投票結果に基づいて、写像点群の各点のラベルを決定するラベル決定部205と、を備えている。
本実施形態に係る画像処理装置1によれば、複数のクラスタリングパラメータで三次元点群を分割し、クラスタリングパラメータ毎に、ラベルを三次元点群の各点に付与し、各点のラベルに対して投票している。これにより、三次元点群データを用いた物体認識処理で使用されるラベルデータを容易に生成することができる。
[実施形態2]
図7は、本実施形態2に係る画像処理装置の概略的なシステム構成を示すブロック図である。本実施形態2に係る画像処理装置100は、図7に示すように、上記実施形態1に係る構成に加えて、画像取得部13と、セグメンテーションラベル出力部32と、を更に備えている。また、本実施形態2に係るコンピュータは、上記実施形態1に係る構成に加えて、セグメンテーションラベル生成部206と、セグメンテーションラベル修正部207と、を更に有している。
[画像取得部]
画像取得部13は、三次元点群取得部10により三次元点群が取得されたシーンと同一時刻同一場所の画像を取得する。例えば、画像取得部101は、カメラや測定用のセンサなどにより、一枚以上の二次元画像や測定値を取得する。二次元画像或いは測定値は、可視画像に限定されず、例えば、その他のセンサから取得された画像であってもよい。二次元画像或いは測定値は、温度画像や深度画像などであってもよい。画像取得部13は、取得した二次元画像或いは測定値を、メモリ(図示せず)等に記録する。
画像取得部13は、深層学習の途中の処理結果を多チャンネルの二次元画像として取得してもよい。或いは、画像取得部13は、数値シミュレーションなどにより算出した速度場、密度場などのベクトルデータを多チャンネルの二次元画像として取得してもよい。
さらに、二次元画像は、単一のカメラにより取得された画像に限定されない。例えば、画像取得部13は、可視画像や遠赤外画像などの、複数のモーダルの画像を動画像として取得してもよい。その場合、例えば、画像取得部13は、下記非特許文献3に示す方法を用いて、これらの画像の位置を合わせてもよい。また、画像取得部13は、下記非特許文献4に示す方法を用いて、これらの画像から一枚の画像を合成してもよい。
(非特許文献3)
Shibata, Takashi, Masayuki Tanaka, and Masatoshi Okutomi. "Accurate joint geometric camera calibration of visible and far-infrared cameras." Electronic Imaging 2017.11 (2017): 7-13.
(非特許文献4)
Shibata, Takashi, Masayuki Tanaka, and Masatoshi Okutomi. "Unified Image Fusion Framework With Learning-Based Application-Adaptive Importance Measure." IEEE Transactions on Computational Imaging 5.1 (2018): 82-96.
[セグメンテーションラベル生成部]
セグメンテーションラベル生成部206は、画像取得部13により取得された画像に基づいて、セグメンテーションラベルを生成する。セグメンテーションラベル生成部206は、例えば、物体の種類ごとに領域分割するセマンティックセグメンテーションなどを用いて、セグメンテーションラベルを生成する。セマンティックセグメンテーションの方法は、例えば、下記非特許文献5に開示されており、これを援用できるものとする。
(非特許文献5)
Long, Jonathan, Evan Shelhamer, and Trevor Darrell. "Fully convolutional networks for semantic segmentation." Proceedings of the IEEE conference on computer vision and pattern recognition. 2015.
[セグメンテーションラベル修正部]
セグメンテーションラベル修正部207は、ラベル決定部205により決定された物体ラベルと、セグメンテーションラベル生成部206により生成されたセグメンテーションラベルと、を比較し、両者のラベルに相違がある場合、そのセグメンテーションラベルをラベル決定部205によるラベルに修正する。
より具体的には、セグメンテーションラベル修正部207は、ラベル決定部205により決定された点群の点jにおけるラベルGと、セグメンテーションラベル生成部206により生成された対応するセグメンテーションラベルとが異なる場合、そのセグメンテーションラベルを、点群の点jにおけるラベルGに置き換える。
[セグメンテーションラベル出力部]
セグメンテーションラベル出力部32は、セグメンテーションラベル修正部207により修正されたセグメンテーションラベルを出力する。セグメンテーションラベル出力部32は、出力結果をディスプレイに表示してもよいし、メモリなどの記録装置にその値を出力してもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他のさまざまな形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
本発明は、例えば、図5に示す処理を、プロセッサにコンピュータプログラムを実行させることにより実現することも可能である。
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。
プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
なお、上述した各実施形態に係る画像処理装置を構成する各部は、プログラムにより実現するだけでなく、その一部または全部を、ASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)などの専用のハードウェアにより実現することもできる。
1 画像処理装置
10 三次元点群取得部
11 カメラ情報取得部
12 二次元ラベル取得部
13 画像取得部
20 コンピュータ
31 点群ラベル出力部
32 セグメンテーションラベル出力部
100 画像処理装置
201 三次元点群分割部
202 クラスタ写像部
203 ラベル照合部
204 照合結果投票部
205 ラベル決定部
206 セグメンテーションラベル生成部
207 セグメンテーションラベル修正部

Claims (8)

  1. 物体の三次元点群を、複数のクラスタリングパラメータを用いて、前記三次元点群の点間の距離が小さいほど同じクラスタにクラスタリングされるように、分割する三次元点群分割部と、
    前記三次元点群の座標と二次元画像の画素の座標との対応関係に基づいて、前記三次元点群のクラスタを二次元画像に写像し、写像点群を生成するクラスタ写像部と、
    二次元画像の対象となるラベルと該二次元画像上の位置情報とに基づいて、前記クラスタ写像部にて写像された写像点群の各点に対してラベルを付与するラベル照合部と、
    前記ラベル照合部によって付与された写像点群の各点のラベルに対して投票する照合結果投票部と、
    前記照合結果投票部による投票結果に基づいて、前記写像点群の各点のラベルを決定するラベル決定部と、
    を備える画像処理装置。
  2. 請求項1記載の画像処理装置であって、
    前記物体の三次元点群を取得する三次元点群取得部と、
    前記三次元点群の座標と二次元画像の画素の座標との対応関係を取得する情報取得部と、
    前記二次元画像の対象となるラベルと、該二次元画像上の位置情報と、を取得する二次元ラベル取得部と、
    前記ラベル決定部により決定された写像点群の各点のラベルを出力する点群ラベル出力部と、
    を更に備える画像処理装置。
  3. 請求項1又は2記載の画像処理装置であって、
    前記三次元点群が取得されたシーンと同一時刻同一場所の画像を取得することを特徴とする画像取得部と、
    前記画像取得部により取得された画像から、セマンティックセグメンテーションを用いて、セグメンテーションラベルを生成するセグメンテーションラベル生成部と、
    前記ラベル決定部により決定されたラベルと、前記セグメンテーションラベル生成部により生成されたセグメンテーションラベルと、を比較し、前記ラベル決定部によるラベルと、前記セグメンテーションラベル生成部によるセグメンテーションラベルと、が相違している場合、前記セグメンテーションラベル生成部によるセグメンテーションラベルを前記ラベル決定部によるラベルに修正するセグメンテーションラベル修正部と、
    前記セグメンテーションラベル修正部により修正されたラベルを出力するセグメンテーションラベル出力部と、
    更に備える画像処理装置。
  4. 請求項1乃至3のうちいずれか1項記載の画像処理装置であって、
    前記ラベル決定部は、前記照合結果投票部による投票結果に基づいて前記写像点群の各点のラベルを決定する際に、前記ラベルに対する信頼度の全てが第1所定値より低い場合、人手により前記写像点群の各点にラベルを割り当てる方法に決定する、
    画像処理装置。
  5. 請求項4項記載の画像処理装置であって、
    前記ラベル決定部は、前記人手によるラベルの割当て方法として、前記ラベルに対する信頼度の全てが第1所定値より低い場合、前記信頼度が前記第1所定値よりも低い第2所定値よりも高い複数のラベルを表示し、人が該表示されたラベルを選択する方法に決定する、
    画像処理装置。
  6. 請求項1乃至5のうちのいずれか1項記載の画像処理装置であって、
    前記照合結果投票部は、前記ラベル照合部によって付与された写像点群の各点のラベルおよび、該各点の周囲の点群のラベルに対しても投票を行う、
    画像処理装置。
  7. 物体の三次元点群を、複数のクラスタリングパラメータを用いて、前記三次元点群の点間の距離が小さいほど同じクラスタにクラスタリングされるように、分割するステップと
    前記三次元点群の座標と二次元画像の画素の座標との対応関係に基づいて、前記三次元点群のクラスタを二次元画像に写像し、写像点群を生成するステップと、
    二次元画像の対象となるラベルと該二次元画像上の位置情報とに基づいて、前記写像された写像点群の各点に対してラベルを付与するステップと、
    前記付与された写像点群の各点のラベルに対して投票するステップと、
    前記投票結果に基づいて、前記写像点群の各点のラベルを決定するステップと、
    を含む画像処理方法。
  8. 物体の三次元点群を、複数のクラスタリングパラメータを用いて、前記三次元点群の点間の距離が小さいほど同じクラスタにクラスタリングされるように、分割する処理と
    前記三次元点群の座標と二次元画像の画素の座標との対応関係に基づいて、前記三次元点群のクラスタを二次元画像に写像し、写像点群を生成する処理と、
    二次元画像の対象となるラベルと該二次元画像上の位置情報とに基づいて、前記写像された写像点群の各点に対してラベルを付与する処理と、
    前記付与された写像点群の各点のラベルに対して投票する処理と、
    前記投票結果に基づいて、前記写像点群の各点のラベルを決定する処理と、
    をコンピュータに実行させるプログラム
JP2022505680A 2020-03-13 2020-03-13 画像処理装置、画像処理方法、およびプログラム Active JP7279848B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/011021 WO2021181647A1 (ja) 2020-03-13 2020-03-13 画像処理装置、画像処理方法、およびコンピュータ可読媒体

Publications (3)

Publication Number Publication Date
JPWO2021181647A1 JPWO2021181647A1 (ja) 2021-09-16
JPWO2021181647A5 JPWO2021181647A5 (ja) 2022-09-29
JP7279848B2 true JP7279848B2 (ja) 2023-05-23

Family

ID=77671063

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022505680A Active JP7279848B2 (ja) 2020-03-13 2020-03-13 画像処理装置、画像処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US20230162371A1 (ja)
JP (1) JP7279848B2 (ja)
WO (1) WO2021181647A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114442101B (zh) * 2022-01-28 2023-11-14 南京慧尔视智能科技有限公司 基于成像毫米波雷达的车辆导航方法、装置、设备及介质
WO2023188179A1 (ja) * 2022-03-30 2023-10-05 日本電信電話株式会社 三次元点群セグメンテーション装置、三次元点群セグメンテーション方法、及び三次元点群セグメンテーションプログラム
WO2023218855A1 (ja) * 2022-05-12 2023-11-16 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法及び情報生成方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009123234A (ja) 2002-07-30 2009-06-04 Fujifilm Corp オブジェクト識別方法および装置ならびにプログラム
JP2014186567A (ja) 2013-03-25 2014-10-02 Geo Technical Laboratory Co Ltd 3次元点群解析方法
JP2018173707A (ja) 2017-03-31 2018-11-08 株式会社国際電気通信基礎技術研究所 人推定システムおよび推定プログラム
US20190286915A1 (en) 2018-03-13 2019-09-19 Honda Motor Co., Ltd. Robust simultaneous localization and mapping via removal of dynamic traffic participants

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009123234A (ja) 2002-07-30 2009-06-04 Fujifilm Corp オブジェクト識別方法および装置ならびにプログラム
JP2014186567A (ja) 2013-03-25 2014-10-02 Geo Technical Laboratory Co Ltd 3次元点群解析方法
JP2018173707A (ja) 2017-03-31 2018-11-08 株式会社国際電気通信基礎技術研究所 人推定システムおよび推定プログラム
US20190286915A1 (en) 2018-03-13 2019-09-19 Honda Motor Co., Ltd. Robust simultaneous localization and mapping via removal of dynamic traffic participants

Also Published As

Publication number Publication date
JPWO2021181647A1 (ja) 2021-09-16
US20230162371A1 (en) 2023-05-25
WO2021181647A1 (ja) 2021-09-16

Similar Documents

Publication Publication Date Title
JP7190842B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
CA3028653C (en) Methods and systems for color point cloud generation
CN109829398B (zh) 一种基于三维卷积网络的视频中的目标检测方法
JP7279848B2 (ja) 画像処理装置、画像処理方法、およびプログラム
CN110226186B (zh) 表示地图元素的方法和装置以及定位的方法和装置
JP2023523243A (ja) 障害物検出方法及び装置、コンピュータデバイス、並びにコンピュータプログラム
CN110568447A (zh) 视觉定位的方法、装置及计算机可读介质
CN106560835B (zh) 一种路牌识别方法及装置
US20220139094A1 (en) Image processing device, image processing method, and recording medium
CN113936198B (zh) 低线束激光雷达与相机融合方法、存储介质及装置
JPWO2020090428A1 (ja) 地物検出装置、地物検出方法および地物検出プログラム
KR102167835B1 (ko) 영상 처리 방법 및 장치
CN111815707A (zh) 点云确定方法、点云筛选方法、装置、计算机设备
WO2021114776A1 (en) Object detection method, object detection device, terminal device, and medium
US20220301277A1 (en) Target detection method, terminal device, and medium
CN110544268B (zh) 一种基于结构光及SiamMask网络的多目标跟踪方法
WO2022054422A1 (ja) 障害物検知装置、障害物検知システム及び障害物検知方法
CN115147333A (zh) 一种目标检测方法及装置
Cui et al. Dense depth-map estimation based on fusion of event camera and sparse LiDAR
CN115100741A (zh) 一种点云行人距离风险检测方法、系统、设备和介质
US20220276046A1 (en) System and method for providing improved geocoded reference data to a 3d map representation
WO2021114775A1 (en) Object detection method, object detection device, terminal device, and medium
EP4078087A1 (en) Method and mobile entity for detecting feature points in an image
US20230334819A1 (en) Illuminant estimation method and apparatus for electronic device
WO2024018726A1 (ja) プログラム、方法、システム、道路マップ、および道路マップの作成方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220803

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230424

R151 Written notification of patent or utility model registration

Ref document number: 7279848

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151