JP7122721B2 - 物体検出システム、物体検出方法及び物体検出プログラム - Google Patents

物体検出システム、物体検出方法及び物体検出プログラム Download PDF

Info

Publication number
JP7122721B2
JP7122721B2 JP2020096497A JP2020096497A JP7122721B2 JP 7122721 B2 JP7122721 B2 JP 7122721B2 JP 2020096497 A JP2020096497 A JP 2020096497A JP 2020096497 A JP2020096497 A JP 2020096497A JP 7122721 B2 JP7122721 B2 JP 7122721B2
Authority
JP
Japan
Prior art keywords
bird
eye view
view data
slice
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020096497A
Other languages
English (en)
Other versions
JP2021189917A (ja
Inventor
デービッド ジメネス
光平 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZMP Inc
Original Assignee
ZMP Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZMP Inc filed Critical ZMP Inc
Priority to JP2020096497A priority Critical patent/JP7122721B2/ja
Publication of JP2021189917A publication Critical patent/JP2021189917A/ja
Application granted granted Critical
Publication of JP7122721B2 publication Critical patent/JP7122721B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、例えばカメラ等により撮像された三次元のオリジナル画像を俯瞰処理により低次元の俯瞰データに変換し、この俯瞰データに基づいてオリジナル画像内における人物、障害物等の物体を検出する、三次元画像の物体検出を行なうための物体検出システム、物体検出方法及び物体検出プログラムに関するものである。
例えば自動車等の走行車両の自動運転においては、走行車両の前方視界から人物,障害物,道路側縁等の物体を検出し、運転可能なエリアを確認して物体との衝突を回避するように、走行車両の駆動制御を行なう必要がある。従来、このような走行方向前方の物体を検出する場合、以下のようにして物体検出が行なわれる。
先ず、走行車両の前部等に取り付けたステレオカメラで走行車両の前方を撮像し、ステレオカメラの左右一対の画像から三次元画像を生成する。続いて、この三次元画像に対して俯瞰処理を行なうことにより、当該三次元画像の撮像範囲に関する上方から見た俯瞰画像を生成する。その際、俯瞰処理、即ち三次元画像から俯瞰画像への画像変換処理は、ニューラルネットワークを利用して行なわれる。ここでニューラルネットワークとしては、所謂畳み込みニューラルネットワークが使用され、ディープラーニングにより学習して、所望の俯瞰画像が得られる。次に、このようにして得られた俯瞰画像に基づいて、画像処理により俯瞰画像のエリア内における物体の検出が行なわれる。この物体検出処理も、同様にしてニューラルネットワークを利用し、ディープラーニングにより学習して所望の物体検出が行なわれ得るようになっている。
これに対して、例えば非特許文献1には、単一カラー画像から畳み込みニューラルネットワークを利用して障害物の検出を行なう手法が開示されている。
D. Levi, N. Garnett and E. Fetaya,"StixelNet: A Deep Convolutional Network for Obstacle Detection and Road Segmentation",http://www.bmva/2015/papers/paper109.pdf C. Godard, O. M. Aodha, M Firman and G. Brostow,"Digging Into Self-Supervised Monocular Depth Estimation", https://arxiv.org/abs/1806.01260 J. Castorena, U. S. Kamilov and P. T. Boufounos,"AUTOCALIBRATION OF LIDAR AND OPTICAL CAMERAS VIA EDGE ALIGNMENT", https://www.merl.com/publications/docs/TR2016-009.pdf
しかしながら、三次元画像から直接に俯瞰画像への画像処理変換は、処理データ量が膨大となり、処理に時間がかかることから、例えば自動車の進行方向前方の三次元画像を、自動車の走行に伴って連続的に処理しようとする場合、処理が間に合わなくなってしまうことがあった。また、ステレオカメラから物体までの距離が増大するにつれて、物体の検出精度が著しく低下することになってしまう。これに対して、非特許文献1の障害物の検出手法では、単眼カメラによる二次元画像を使用しているので、直接三次元画像から障害物の検出を行なうことは想定されていない。
本発明は以上の点に鑑み、迅速に処理可能であると共に、ユーザが障害物を定義でき、より高精度で障害物等の物体を検出し得るようにした物体検出システムを提供することを第1の目的とし、物体検出方法を提供することを第2の目的とし、さらに、物体検出プログラムを提供することを第3の目的としている。
上記本発明の第1の目的は、撮像手段と、撮像手段で取得された撮像データに基づいて三次元画像を生成する画像生成手段と、画像生成手段で生成された三次元画像に基づいて俯瞰処理により俯瞰データを生成する俯瞰データ生成手段と、俯瞰データに基づい物体を検出する解析手段と、を含んでおり、俯瞰データ生成手段が、三次元画像の深さ方向に関して複数箇所の断面をスライス画像として取り出して、各スライス画像を低次元化して俯瞰データを生成し、解析手段が、畳み込みニューラルネットワークから構成され、前もってディープラーニングにより物体の種別を学習し、俯瞰データに基づいて、高さ方向に関して複数箇所の断面をスライスデータとして抽出して、物体が存在するか否かを選択すると共に、該物体までの距離を推定することにより物体を検出する、物体検出システムにより達成される。
好ましくは、俯瞰データ生成手段が、畳み込みニューラルネットワークから成るオートエンコーダから構成され、オートエンコーダが各スライス画像を低次元化して俯瞰データを生成する。
オートエンコーダは、好ましくは、一つのシーンに関して各深度スライス毎に水平位置を示す一連の特徴ベクトルと、深度位置を表わす各深度スライスとを結合することにより、俯瞰データとしてのテンソルを形成する。
畳み込みニューラルネットワークは、好ましくは、入力層,少なくとも一つの中間層及び出力層から成る多層ニューラルネットワークであって、学習の際に、入力層に入力された各スライス画像を、いずれかの中間層で低次元中間データに変換した後、出力層でスライス画像と同じ次元の再構築データにデコードして、再構築データがスライス画像における物体を再現し得るようにディープラーニングにより学習し、学習後は、中間層から中間データを俯瞰データとして解析手段に出力する。
俯瞰データ生成手段は、好ましくは、各スライス画像をさらに水平方向にスライスしてスライスピースを生成し、このスライスピースを低次元化して俯瞰データを生成する。
俯瞰データは、好ましくは、各スライス画像またはスライスピースをそれぞれベクトルとして、ノンスパース特徴空間にマッピングした特徴ベクトルを含むデータである。
上記第2の目的は、物体検出プログラムをコンピュータに実行させる物体検出方法であって、撮像データに基づいて三次元画像を生成する画像生成段階と、画像生成段階で生成された三次元画像に基づいて俯瞰処理により俯瞰データを生成する俯瞰データ生成段階と、俯瞰データに基づい物体を検出する解析段階と、を含んでおり、俯瞰データ生成段階にて、三次元画像の深さ方向に関して複数箇所の断面をスライス画像として取り出して、各スライス画像を低次元化して俯瞰データを生成し、解析段階にて、畳み込みニューラルネットワークにより前もってディープラーニングにより物体の種別を学習し、俯瞰データに基づいて、高さ方向に関して複数箇所の断面をスライスデータとして抽出して、物体が存在するか否かを選択すると共に、該物体までの距離を推定することにより物体を検出する、物体検出方法により達成される。
上記第3の目的は、撮像データに基づいて三次元画像を生成する画像生成手順と、画像生成手順で生成された三次元画像に基づいて俯瞰処理により俯瞰データを生成する俯瞰データ生成手順と、俯瞰データに基づい物体を検出する解析手順の処理をコンピュータに実行させるための物体検出プログラムであって、俯瞰データ生成手順にて、三次元画像の深さ方向に関して複数箇所の断面をスライス画像として取り出して、各スライス画像を低次元化して俯瞰データを生成し、解析手順にて、畳み込みニューラルネットワークにより前もってディープラーニングにより物体の種別を学習し、俯瞰データに基づいて、高さ方向に関して複数箇所の断面をスライスデータとして抽出して、物体が存在するか否かを選択すると共に、該物体までの距離を推定することにより物体の方向及び距離を検出することをコンピュータに実行させることにより達成される。
このようにして、本発明によれば、簡単な構成により迅速に処理可能であると共に、より高精度で障害物等の物体を検出し得るようにした物体検出システム、物体検出方法及び物体検出プログラムを提供することができる。
本発明による物体検出システムの一実施形態の構成を示すブロック図である。 図1の物体検出システムにおいて、(A)は撮像画面、(B)は三次元画像、(C)は深度スライスをそれぞれ示す図である。 図1の物体検出システムにおける三次元画像生成手段を構成するオートエンコーダの動作原理を示す概略図である。 図3のオートエンコーダにおける(A)学習時及び(B)動作時の動作を説明する説明図である。 図1の物体検出システムの動作を示すフローチャートである。 図1の物体検出システムにおける三次元画像生成手段の動作を説明する説明図である。 図1の物体検出システムにおけるスライスピースを示す概略図である。 図1の物体検出システムにおいて、(A)は物体検出概略図、(B)は実際の物体検出状態を示す説明図である。 図1の物体検出システムにおいて、(A)は深度スライス、(B)は低次元化された特徴ベクトル、(C)は各深度スライス毎の一組の特徴ベクトル、(D)は特徴ベクトルを結合したテンソルを示す説明図である。 図1の物体検出システムにおける俯瞰データの作成手順を順次に示す概略図である。 図1の物体検出システムにおける解析手段のニューラルネットワークの解析手順を順次に示す概略図である。 図11の解析手順により得られた一連のベクトルの一部構成を示す概略図である。 図1の物体検出システムによる建設現場での実験例において、(A)は撮像画面、(B)は物体検出を示す概略図である。 図1の物体検出システムによる都市環境での実験例において、(A)は撮像画面、(B)は物体検出を示す概略図である。
以下、図面に示した実施形態に基づいて本発明を詳細に説明する。
図1は本発明による物体検出システム10の一実施形態の構成ブロック図、図2(A)は撮像画面、図2(B)は三次元画像31、図2(C)は深度スライス31aをそれぞれ示し、図3は図1の物体検出システム10における三次元画像生成手段30を構成するオートエンコーダ70の動作原理を示す概略図である。
図1において、物体検出システム10は、撮像手段20と、三次元画像生成手段30と、俯瞰データ生成手段40と、解析手段50と、これらの撮像手段20、三次元画像生成手段30、俯瞰データ生成手段40及び解析手段50をプログラムにより制御する制御部60と、から構成されている。
ここで、制御部60はコンピュータから構成され、前もってインストールされた本発明による物体検出プログラムを実行することにより、上述した撮像手段20、三次元画像生成手段30、俯瞰データ生成手段40及び解析手段50を制御して、本発明による物体検出システム10及び物体検出方法を実現するようになっている。
撮像手段20は、例えば自動車等の前方を撮像するように配置され、自動車等の走行に伴って逐次前方の被写界の撮像を行なうことができる、公知の構成の単眼カメラ、ステレオカメラ及びライダーの何れかである。撮像手段20は、制御部60により制御されて所定の時間間隔で撮像を行ない、順次に撮像信号21を出力する。ライダーはレーザーレーダーとも呼ばれるセンサで、レーザー画像検出と測距(Laser Imaging Detection and Ranging)を行なうセンサで、LIDARとも表記される。ライダーとしては三次元ライダーを用いることができる。
三次元画像生成手段30は、図2(A)に示すように撮像手段20からの各撮像信号21に基づいて、撮像画面21a内に写っている物体までの深度(距離)を検出して、図2(B)に示すように三次元画像31を生成する。三次元画像生成手段30は、制御部60により制御されて順次に入力される各撮像信号21からそれぞれ三次元画像31を生成する。
撮像手段20が単眼カメラの場合には、撮像信号21によるカラーの撮像画面21aは、図2(A)に示すように平面を表わす二次元画像であるが、例えば非特許文献2に開示されている公知の手法を用いて、二次元画像の各点における距離情報(ポイントクラウド)を生成することができる。
そして、三次元画像生成手段30は、上述した二次元の撮像画面とポイントクラウドを融合するために画像の色強度を対応するポイントに投影することにより、シーン(一つのカメラ画像が表わす場面)内で対応する色でポイントクラウドの各点を「ペイント」するというアルゴリズムで、三次元画像31を生成する。三次元画像生成手段30は、入力として、単眼カメラのカラー撮像画面と、この撮像画面における各点の距離情報(ポイントクラウド)が必要である。
また、撮像手段20がステレオカメラの場合には、カラーの撮像信号21は、左右一対のカメラからの一対の撮像画面を含んでいるので、各撮像画面における被写体の視差に基づいて、一方のカメラの撮像画面とその撮像画面における各点の距離情報(疑似ポイントクラウド)を生成することができる。
ここで、三次元画像31は、図2(B)に示すように水平方向H,垂直方向V及び深度方向Dに延びている。さらに、撮像手段20が三次元ライダーの場合には、例えば非特許文献3で報告されている公知の方法で三次元画像31を取得してもよい。例えば、画素数(800×600)の二次元の白黒画像と三次元ライダーで取得される深度情報とを組み合わせて、後述する深度方向にスライスされた三次元画像31を取得することができる。
俯瞰データ生成手段40は、三次元画像生成手段30からの各三次元画像31に基づいて俯瞰処理を行なって、低次元化した俯瞰データ41を生成する。ここで、俯瞰データ生成手段40は、畳み込みニューラルネットワークから成るオートエンコーダ42を含んでおり、制御部60により制御されて順次に入力される各三次元画像31からそれぞれ低次元化した俯瞰データ41を生成する。
詳細には、俯瞰データ生成手段40は、先ず三次元画像31を、図2(B)に示すように深度方向に関して等間隔でスライスして複数個の深度スライス31aを得る。これにより、ポイントクラウドの各ポイントは距離毎に分割される。ここで、深度スライス31aは、元のカメラ画像における画素数(例えば960×1280)に対して、同じ数の画素数(960×1280)を有している。
続いて、俯瞰データ生成手段40は、得られた各深度スライス31aに関して、図2(C)に示すように各深度スライス31aをさらに水平方向にスライスして、縦長の複数個のスライスピース31bを得る。スライスピース31bは、画素数(960×1280)の深度スライス31aに対して例えば80個に分割されることにより、画素数(960×16)を有している。そして、俯瞰データ生成手段40は、このスライスピース31bを後述するオートエンコーダの畳み込みニューラルネットワークの入力層に入力する。その際、スライスピース31bは、図10(A)に示すように、さらに高さ方向に関して複数個に分割されて処理が行なわれる。これにより、物体の検出精度が高さ方向に関しても高められることになる。
ここで、オートエンコーダ70は、一般的には、図3に概略的に示すようにする。オートエンコーダ70は、例えば入力層71,中間層72,73,74及び出力層75から成る多層ニューラルネットワークである。なお、図3においては、説明のために便宜的に各層71~75が、それぞれ六次元,四次元,二次元,四次元及び六次元で示されている。このオートエンコーダ70は、入力データが二段階のエンコードにより二次元に低次元化された後、二段階のデコードによって再び六次元に再構築され、出力層75から出力される。
オートエンコーダ70は、多数のサンプルデータに関して、入力層71に入力される入力データと出力層75から出力される再構築データとを比較することより、再構築データが入力データと同じ特徴を有するように、ディープラーニングにより学習される。具体的には、入力データをIとすると、中間層72では、関数f(I)=hにより四次元空間にマッピングされ、中間層73では、関数g(h)=eにより二次元空間にマッピングされ、このeが二次元のデータとなる。これに対して、中間層74及び出力層75では、それぞれ関数j及びkにより四次元空間,六次元空間にマッピングされて、出力層75では六次元の再構築データIrが出力される。これらのマッピングはいずれも非線形である。上述した各関数f,g,j,kは、未知の関数であり、多数のサンプルデータを入力層71に入力し、入力データIと再構築データIrの差(I-Ir)を最小化することにより、所謂ディープラーニングにより学習することにより、各関数f~kを決定する。
本物体検出システム10にあっては、同様にディープラーニングにより十分に学習されたオートエンコーダ70のエンコード部分のみを利用して、エンコード化されたデータを中間層72~74から取り出すことにより、俯瞰データ41を得るようにしている。
従って、図4(A)に示す本物体検出システム10では、オートエンコーダ42は、エンコーダ部分42aで入力データである各スライスピース31bをエンコードして低次元化した俯瞰データ41を生成し、さらにデコーダ部分42bで俯瞰データ41をデコードして再構築データ43を生成し、再構築データが入力データである各スライスピース31bと物体に関して同じ特徴を備えるようにディープラーニングにより学習される。
このようにディープラーニングによる学習が行なわれた後、実際の動作時には、オートエンコーダ42は、図4(B)に示すようにエンコーダ部分42aのみを利用して、前述した一つの深度スライス31aに関する80個のスライスピース31bをエンコードして、低次元化した俯瞰データ41を生成する。各スライスピース31bは、それぞれオートエンコーダ42により低次元にエンコードされて、物体の存在を表わす特徴ベクトルとして低次元の疎ではない特徴空間(以下、ノンスパース特徴空間と呼ぶ)にマッピングされる。その際、各スライドピース31bは、水平方向に分割されていることにより、ノンスパース特徴空間にマッピングされる際に水平方向に関して空間情報が保持され、一連の特徴ベクトルにより高精度で元の撮像画面における物体の存在が表わされる。
このようにして、オートエンコーダ42により、一つのシーンに関して各深度スライス31a毎に一連の特徴ベクトルから成る俯瞰データ41が生成される。この俯瞰データ41は、各深度スライス31aが深度位置を表わし、各特徴ベクトルが水平位置を表わしており、これら一連の特徴ベクトルを結合することにより、俯瞰データ41としてのテンソルが形成される。
画素数1280×960のモノクロ画像の場合、各要素がマトリックス∈[0,255]内に在るマトリックスI1280,960が扱われる。このマトリックスIを深度情報と混合し、各画素に画像内の各画素の距離di,jも追加することにより、[1280,960,2]のテンソルが得られる。そして、0mから最大深度までの範囲で深度間隔n(この場合、n=64)を定義して、上記テンソルをn個のマトリックスに分割する。分割された各マトリックスaに関して、i番目の深度間隔により定義される範囲に在るマトリックス内のすべての要素が取り込まれる。例えば、第一の深度間隔が0mから1mとすれば、深度がこの範囲(0mから1m)内であるテンソル内の要素のすべての強度情報を取り込み、残りの空間をゼロで満たすことによって、一番目のマトリックスaが生成される。このようにして、n個のスパースマトリックスが得られる。
これらのスパースマトリックスaは、それぞれ深度を表わす。さらに、スパースマトリックスaを、幅wのn個の列に分割すると、大きさ(1280,960)のマトリックスaは、w=16により分割されて、大きさ(16,960)の80個のマトリックスとなる。これらの新たなより小さいマトリックスbi,jは、水平位置を表わす。例えば、マトリックスb0,0は、0mから1mの範囲の画像の最も左の情報を表わす。そして、各マトリックスbi,jが取得され、前もって学習されたオートエンコーダを使用して前述したようにエンコードされる。その後、式b’i,j=g(f(bi,j))から、500のベクトルにエンコードするために使用されるより小さな潜在空間内に在るものが得られる。
ここで注意すべきは、分かりやすいように二つの関数f及びgのみを表わしているが、この数は、ニューラルネットワーク内の隠された層の選択数に依存して、増大し得る、即ち、三つ以上の関数であってもよい。iが深度を、jが水平位置を表わすこれらのベクトルb’i,jから、マトリックスを連結する連結演算子∩と定義して、以下の数式(1)の演算を実行し、さらに深度に連結すると、それぞれ水平位置を表わすc個(この場合、80個)のマトリックスが得られる。
Figure 0007122721000001
このc個の各マトリックスが、ディープラーニングで学習されたニューラルネットワークに入力され、分類が実行される。このニューラルネットワークは、どの深度間隔に物体が存在するか、又は物体がまったくないかを学習する。即ち、このニューラルネットワークは、μ∈[0,n+1](整数)として、関数h(c)=μを表わすようにディープラーニングでトレーニングされる。そして、μを、μ番目の要素以外のすべての箇所をゼロを備えた長さn+1のベクトルvに変換すると、各jに対して、ニューラルネットワークの出力から、下記数式(2)によりマトリックスMが生成される。
Figure 0007122721000002
この大きさ(n,n)のマトリックスMは、各列:水平位置に対して、各行:物体が存在する距離に、1を有する。このようなマトリックスMが、ニューラルネットワークの最終出力となる。
解析手段50は、俯瞰データ生成手段40からの俯瞰データ41に基づいて、高さ方向に関して複数箇所の断面をスライスデータとして抽出することにより、物体を検出する。解析手段50は畳み込みニューラルネットワークから構成され、制御部60により制御されて、順次に入力される俯瞰データ41から撮像画面における物体を検出する。ここで畳み込みニューラルネットワークは、機械学習による画像認識のために広く利用されており、高い精度で画像認識を行なうことが可能である。
詳細には、解析手段50は、俯瞰データ41についてすべての深度位置のどこに物体が存在するかを分類する。解析手段50は、前述した80個のスライスピース31bに対応する特徴ベクトルについて、即ち水平方向に関して一側(例えば左側)から他側(例えば右側)に向かってスイープして、各水平位置に関してそれぞれ物体が存在する深度位置を決定する。
ここで、解析手段50による物体の存在の判定基準は、前もってディープラーニングにより学習され、物体の種別により適宜に設定される。これにより、物体検出システム10のユーザは、物体の種別により障害物を定義することができ、物体検出システム10は、物体の種別を障害物として認識することを学習する。具体的には、自動車等が走行する道路を含む都市環境では、検出すべき物体は車両、人、歩道等であり、また工事車両や作業員が出入りする建設ゾーンでは、検出すべき物体は工事車両や作業員である。このような種々のゾーン環境に対応して検出すべき物体の判定基準が定められる。例えば、都市環境では、各スライスピース31bに関して最も近い距離に在る物体を距離で位置決めしてマークし、このマークした物体の距離を、0からn+1のレベルにクラス分けする。このクラスが、ニューラルネットワークの学習のためのターゲットクラスとなる。
本実施形態の物体検出システム10は以上のように構成されており、図5のフローチャートに従って以下のように動作する。
即ち、ステップST1にて撮像手段20として単眼カメラにより撮像が行なわれ、ステップST2にて単眼カメラのための深度評価が行なわれ、ステップST3で示すようにモノクロ画像の色強度が得られると共に、ステップST4にて深度が得られる。なお、撮像手段20がステレオカメラの場合には、ステップST1aにてカラー撮像が行なわれると共に、ステップST2aにて深度評価が行なわれ、また撮像手段20がLIDARの場合には、ステップST1bにて撮像が行なわれる。
続いて、ステップST5にて、対応する三次元ポイントへの色強度値の投影が行なわれる。そして、ステップST6にて三次元画像31が深度方向でスライスされ、ステップST7で二次元の深度スライス31aが得られる。
次に、ステップST8にて、各深度スライス31aをそれぞれ水平方向を表わす所定の幅にスライスし、ステップST9にてスライスピース31bが得られる。その後、ステップST10にて、各スライスピース31bをオートエンコーダに入力して非線形エンコードを行ない低次元化する。これにより、ステップST11にて特徴ベクトルが得られる。そして、ステップST12にて、特徴ベクトルを深度と連結して、水平方向を表わす二次元マトリックスを形成する。これにより、ステップST13にて特徴マトリックスが得られる。最後に、ステップST14にて、特徴マトリックスをニューラルネットワークに入力して各特徴マトリックスをクラス分けする。これにより、ステップST15にて各水平方向に関してクラス分けされた各クラスが、物体が存在する深度を示す深度レベルに対応することになる。
また、俯瞰データ生成手段40のオートエンコーダ42は、学習時及び動作時に、図6のフローチャートに示すように動作する。
先ずステップST21にて、二次元のスライスピース31bが、オートエンコーダ42におけるニューラルネットワークの第一層に入力されると、ステップST22にて非線形エンコードによって隠れ層特徴データ1となり、続いてステップST23にて第二層に入力されて、ステップST24にて非線形エンコードによって隠れ層特徴データ2となり、同様に順次非線形エンコードされて、ステップST26にてニューラルネットワークの第n層に入力されると、ステップST27にてエンコードされた特徴ベクトルとなる。
特徴ベクトルは、続いてステップST28にて第(n+1)層に入力され、ステップST29にて、非線形エンコードによって隠れ層特徴データ(n+1)となり、同様に順次非線形エンコードされ、ステップST30にてニューラルネットワークの第2n層に入力されると、ステップST31にて非線形エンコードによって再構築された二次元スライスピースとなる。
そして、図7に示すように多数のサンプルデータを繰り返し入力して、ディープラーニングにより入力データであるスライスピース31bと再構築データである再構築された二次元スライスピースの誤差が最小となるようにオートエンコーダが学習される。ここで、ステップST27における特徴ベクトルが、オートエンコーダの動作時には、ステップST32で示すように解析手段50で解析処理されて、物体の検出が行なわれる。なお、このようなオートエンコーダのディープラーニングによる学習は、例えば数1000以上のサンプルデータを使用して行なわれる。
このようにして、本物体検出システム10において、図2(A)に示す撮像画面は、解析手段50により、図8(A)において平面図で概略的に示すように水平方向位置と、最も近い物体までの距離が検出されることになる。この検出結果は、実際には、撮像手段20の撮像位置から見ると、図8(B)に示すように扇形の領域に関して物体の位置が把握されることになる。
次に、実際の撮像画面による物体検出の例を以下に説明する。
一つの三次元画像31に関して複数個の深度スライス31aが生成され、各深度スライス31a(画素数960×1280)は、図9(A)に示すように水平方向に関して複数個のスライスピース31b(画素数960×16)に分割される。上記スライスピース31bが、それぞれエンコードされることにより、図9(B)に示すように、スライスピース31bと同数の特徴ベクトルが得られる。そして、三次元画像31によるすべての深度スライス31aがエンコードされると、図9(C)に示すように、各深度スライス31a毎に一組80個の特徴ベクトルが得られる。最後に、各深度スライス31aから、各水平位置に対応する特徴ベクトルを取り出してこれらを結合することにより、図9(D)に示すように、一連の特徴ベクトルから成るテンソルが得られる。
物体検出システム10は上記のように動作するが、解析手段50により、ニューラルネットワークから出力されるベクトルを組み合わせることで、すべての水平位置について最も近い物体までの距離を把握し、シーン内の最も近い物体の位置を検出する具体例について説明する。
俯瞰データ41は、一つのシーンに対してすべてのスライスピース31b毎に一つの特徴ベクトルを含むマトリックスであることから、解析手段50は、最も近い物体が存在する深度層を検出するために、俯瞰データ41をディープラーニングで学習したニューラルネットワークに入力し、クラス分けする。
図10は、図1の物体検出システム10における俯瞰データ41の作成手順を順次に示し、図11は、図1の物体検出システム10における解析手段50のニューラルネットワークの解析手順を順次に示し、図12は、図11の解析手順により得られた一連のベクトルの一部構成を示す。
図10(A)の左端に示すように、上記マトリックスは、水平方向Hに並んだ(一組のスライスピース31bに対応する)特徴ベクトルが各深度スライス31a毎に深度方向Dに沿って整列している。そして、解析手段50は、この行列を構成する各ベクトルのうち、図10(B)に示すように各水平位置で深度方向Dに整列する特徴ベクトルを取り出して、図10(C)に示すようにこれらを結合することにより、図10(D)に示すように一連の特徴ベクトルから成るテンソルを生成する。
そして、解析手段50は、図11に示すように、例えば五層のニューラルネットワーク(非特許文献1参照)、例えば畳み込みニューラルネットワーク、好ましくはパーセプトロンを使用して、このテンソルを処理して物体を検出する。
図11において、撮像画面の画素数を幅w=24,高さh=370で、最小高さhmin=140とすると、ニューラルネットワークの第一層は、24×370×3の入力画像を、各画素位置(ストライド1)にて大きさ11×5×3の64個のフィルタで畳み込む。第二層は、大きさ5×3×64の200個のカーネルを使用する。最大プーリング層は、第一層に対して大きさ8×4の、そして第二層に対して大きさ4×3の分離領域を超えて最大値を計算する。即ち、プーリング領域間のオーバーラップがない。完全に連結された隠れ層(第三層及び第四層)は、大きさ1024及び2048のニューロンを有しており、出力層(第五層)は50のニューロンを有する。
ここで、出力層から出力されるベクトル(図11の右端)は、ニューラルネットワークが最も近い物体と推定する位置である一つのボックス(図11の右端で、黒く塗りつぶした部分)を除く他のすべての要素が0のベクトルVである。このベクトルVの各要素は、メートル単位で区切られており、上述の黒塗り部分の位置により検出した物体までの距離を表わしている。そしてこのような処理が、シーン内のすべてのマトリックスについて繰り返して実行される。
解析手段50は、図12に示すように、これらのニューラルネットワークから出力されるベクトルを組み合わせることにより、すべての水平位置について最も近い物体までの距離を把握し、シーン内の最も近い物体の位置を検出することができる。これにより、解析手段50は、俯瞰データ41に基づいてシーン内に物体が存在するか否かを選択すると共に、物体までの距離を推定する。
以上説明したように、本発明の物体検出システム10によれば、撮像手段20からの撮像データに基づいて画像生成手段で生成された三次元画像31に関して、俯瞰データ生成手段40が、三次元画像31の各スライス画像をそれぞれ低次元化した俯瞰データに変換することにより、次元が低減した分だけデータ量が減少するので、解析手段50による物体の検出がより迅速に行なわれる。従って、例えば自動車の前方視界を撮像した三次元画像31から前方に物体を検出する場合に、自動車の走行に伴って逐次前方視界における物体を検出することで障害物等の物体を回避することができる。また、三次元画像31の深さ方向における断面に基づいて物体を検出することになるため、検出物体の深さ方向の精度が向上し、物体までの距離をより正確に把握することが可能になる。
俯瞰データ生成手段40は、畳み込みニューラルネットワークから成るオートエンコーダ42から構成され、オートエンコーダ42が各スライス画像を低次元化して俯瞰データ41を生成する。畳み込みニューラルネットワークは、入力層71、少なくとも一つの中間層72~74及び出力層75から成る多層ニューラルネットワークであって、学習の際に、入力層71に入力された各スライス画像をいずれかの中間層72~74で低次元中間データに変換した後、出力層75でスライス画像と同じ次元の再構築データにデコードして、再構築データがスライス画像における物体を再現し得るようにディープラーニングにより学習し、学習後は中間層72~74から中間データを俯瞰データ41として解析手段50に出力する。
上記俯瞰データ生成手段40の構成によれば、ニューラルネットワークを利用し、ニュウラルネットワークを十分に学習させておくことによって、より精度良く俯瞰データ41を生成することができるので、物体の検出がより高精度で行なわれる。
俯瞰データ生成手段40は、各スライス画像をさらに水平方向にスライスしてスライスピース31bを生成し、このスライスピース31bを低次元化して俯瞰データ41を生成する。各スライス画像が水平方向に分割されることで、その後の低次元化に際してある程度水平方向に関して制御することができるので、水平方向に関してより高精度で物体の検出を行なうことが可能であると共に、各スライスピース31bを順次に連続的に処理することで、一つの三次元画像31の俯瞰データ41への変換をより迅速に行なうことが可能になる。
俯瞰データ41は、各スライス画像またはスライスピース31bをそれぞれベクトルとして、疎ではない特徴空間(以下、ノンスパース特徴空間と呼ぶ)特徴空間にマッピングした特徴ベクトルである。俯瞰データ41が、可視の俯瞰画像ではなく特徴ベクトルから成る俯瞰データ41であることから、俯瞰データ41への変換処理の時間がより一層短縮され、短時間で俯瞰データが生成される。
解析手段50は、畳み込みニューラルネットワークから構成されており、ディープラーニングにより学習する。ディープラーニングの十分な学習によって三次元画像31がより精度良く俯瞰データ41に変換され、この俯瞰データ41に基づいてより高精度で物体を検出することができる。以下、実施例によりさらに詳細に説明する。
物体検出システム10の撮像手段20と制御部60は、以下の構成のコンピュータを用いた。
撮像手段:ステレオカメラ(ZMP株式会社製、型番:Robovision 2)
制御部:
CPU:Intel(登録商標)社製、型番:Core(登録商標)i7-8700
RAM(ランダムアクセスメモリ):32GB
記憶装置:1TB
GPU:NVIDIA(登録商標)社製、型番:GeForce(登録商標) RTX2070、
RAM:8GB
図13は建設現場における物体検出の実験例を示す。図13(A)に示すように、撮像画面21aには二人の作業員A,Bが見えているが、他の領域は工事車両の「運転可能な領域」である。ステレオカメラによるカラーの撮像信号21の入力ピクセル数は1280×960であるが、プログラムにより640×480へダウンスケールした。撮像のフレーム数(frames per second)は、12.5fpsとした。この撮像画面21aについて、本物体検出システム10によって物体検出を行なったところ、図13(B)に示す検出結果が得られた。図13(B)に示す再構築された二次元スライスピース(図6のステップST31参照)のピクセル数は80×60であり、図13(B)の出力画像を得るための演算時間は8msであった。
この検出結果は、x軸が水平位置を、y軸が深度を表わしており、物体が検出されない場合には黒地のままであるが、物体、この場合には二人の作業員A,Bが検出されると、その水平方向にて最も近い距離から遠い部分がやや白い表示となって物体が存在することがわかる。図13(B)において、二人の作業員A,Bがそれぞれ明確に検出され、それぞれ距離に応じて深度が位置決めされていることが確認できる。
図14は、図13(A)と同様の条件で取得した都市環境における物体検出の実験例を示しており、都市の道路において、運転のために障害物のない道路を除いて、歩行者、歩道、木、車両等を含む全ての障害を検出することを目的とした。
図14(A)に示すように、撮像画面21aには道路走行中の車両から前方を撮像した画像が写っており、前方車両Cと左端の歩道Dと右側の道路境界柵Eが見えている。ステレオカメラによるカラーの撮像信号21の入力ピクセル数は1280×960であるが、プログラムにより640×480へダウンスケールした。撮像のフレーム数(frames per second)は、12.5fpsとした。 この撮像画面21aについて、本物体検出システム10により物体検出を行なったところ、図14(B)に示す検出結果が得られた。図14(B)に示す再構築された二次元スライスピース(図6のステップST31参照)のピクセル数は80×60であり、図14(B)の出力画像を得るための演算時間は8msであった。
図14(B)において、前方の車両Cと、左端の歩道D及び道路境界柵Eがそれぞれ検出されていることがわかる。この場合、走行中の車両から12.5fpsで撮像した撮像画面21aにより、物体検出における評価指数であるIntersection over Union(IoU精度と呼ぶ)として、88%程度の良好なIoU精度が得られた。なお、物体までの実際の距離と位置を確認するためには、図8(B)に示すように、三次元空間への簡単な投影が必要となる。
本発明は、その趣旨を逸脱しない範囲において様々な形態で実施することができる。例えば、上述した実施形態においては、撮像手段20は、ステレオカメラが使用されているが、例えば自動運転車両で使用されている前方監視用のライダーを使用して三次元画像31を得ることも可能であり、また単眼カメラを使用して、従来公知の手法により単眼カメラの撮像画像とポイントクラウドを組み合わせて、三次元画像31を得るようにしてもよい。
10:物体検出システム、 20:撮像手段、 21:撮像信号、
21a:撮像画面、 30:三次元画像生成手段、 31:三次元画像、 31a:深度スライス、 31b:スライスピース、 40:俯瞰データ生成手段、 41:俯瞰データ、 42:オートエンコーダ、 42a:エンコーダ部分、
42b:デコーダ部分、 50:解析手段、 60:制御部、 70:オートエンコーダ、 71:入力層、 72~74:中間層、 75:出力層

Claims (8)

  1. 撮像手段と、前記撮像手段で取得された撮像データに基づいて三次元画像を生成する画像生成手段と、前記画像生成手段で生成された前記三次元画像に基づいて俯瞰処理により俯瞰データを生成する俯瞰データ生成手段と、前記俯瞰データに基づい物体を検出する解析手段と、を含んでおり、
    前記俯瞰データ生成手段が、前記三次元画像の深さ方向に関して複数箇所の断面をスライス画像として取り出して、各スライス画像を低次元化して俯瞰データを生成し、
    前記解析手段が、畳み込みニューラルネットワークから構成され、前もってディープラーニングにより前記物体の種別を学習し、前記俯瞰データに基づいて、高さ方向に関して複数箇所の断面をスライスデータとして抽出して、前記物体が存在するか否かを選択すると共に、該物体までの距離を推定することにより物体を検出する、物体検出システム。
  2. 前記俯瞰データ生成手段が、畳み込みニューラルネットワークから成るオートエンコーダから構成されており、
    前記オートエンコーダが、前記各スライス画像を低次元化して前記俯瞰データを生成する、請求項1に記載の物体検出システム。
  3. 前記オートエンコーダが、一つのシーンに関して各深度スライス毎に水平位置を示す一連の特徴ベクトルと、深度位置を表わす各深度スライスとを結合することにより、前記俯瞰データとしてのテンソルを形成する、請求項2に記載の物体検出システム。
  4. 前記畳み込みニューラルネットワークが、入力層,少なくとも一つの中間層及び出力層から成る多層ニューラルネットワークであって、学習の際に、前記入力層に入力された各スライス画像を、いずれかの中間層で低次元中間データに変換した後、前記出力層で前記スライス画像と同じ次元の再構築データにデコードして、前記再構築データがスライス画像における物体を再現し得るようにディープラーニングにより学習し、学習後は、前記中間層から中間データを俯瞰データとして前記解析手段に出力する、請求項2に記載の物体検出システム。
  5. 前記俯瞰データ生成手段が、各スライス画像をさらに水平方向にスライスしてスライスピースを生成し、このスライスピースを低次元化して前記俯瞰データを生成する、請求項1からの何れかに記載の物体検出システム。
  6. 前記俯瞰データが、各スライス画像またはスライスピースをそれぞれベクトルとして、ノンスパース特徴空間にマッピングした特徴ベクトルを含むデータである、請求項1からの何れかに記載の物体検出システム。
  7. 物体検出プログラムをコンピュータに実行させる物体検出方法であって、
    撮像データに基づいて三次元画像を生成する画像生成段階と、前記画像生成段階で生成された三次元画像に基づいて俯瞰処理により俯瞰データを生成する俯瞰データ生成段階と、前記俯瞰データに基づい物体を検出する解析段階と、を含んでおり、
    前記俯瞰データ生成段階にて、前記三次元画像の深さ方向に関して複数箇所の断面をスライス画像として取り出して、各スライス画像を低次元化して俯瞰データを生成し、
    前記解析段階にて、畳み込みニューラルネットワークにより前もってディープラーニングにより前記物体の種別を学習し、前記俯瞰データに基づいて、高さ方向に関して複数箇所の断面をスライスデータとして抽出して、前記物体が存在するか否かを選択すると共に、該物体までの距離を推定することにより物体を検出する、物体検出方法。
  8. 撮像データに基づいて三次元画像を生成する画像生成手順と、前記画像生成手順で生成された三次元画像に基づいて俯瞰処理により俯瞰データを生成する俯瞰データ生成手順と、前記俯瞰データに基づい物体を検出する解析手順の処理をコンピュータに実行させるための物体検出プログラムであって、
    前記俯瞰データ生成手順にて、前記三次元画像の深さ方向に関して複数箇所の断面をスライス画像として取り出して、各スライス画像を低次元化して俯瞰データを生成し、
    前記解析手順にて、畳み込みニューラルネットワークにより前もってディープラーニングにより前記物体の種別を学習し、前記俯瞰データに基づいて、高さ方向に関して複数箇所の断面をスライスデータとして抽出して、前記物体が存在するか否かを選択すると共に、該物体までの距離を推定することにより物体の方向及び距離を検出することをコンピュータに実行させる、物体検出プログラム。
JP2020096497A 2020-06-02 2020-06-02 物体検出システム、物体検出方法及び物体検出プログラム Active JP7122721B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020096497A JP7122721B2 (ja) 2020-06-02 2020-06-02 物体検出システム、物体検出方法及び物体検出プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020096497A JP7122721B2 (ja) 2020-06-02 2020-06-02 物体検出システム、物体検出方法及び物体検出プログラム

Publications (2)

Publication Number Publication Date
JP2021189917A JP2021189917A (ja) 2021-12-13
JP7122721B2 true JP7122721B2 (ja) 2022-08-22

Family

ID=78848422

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020096497A Active JP7122721B2 (ja) 2020-06-02 2020-06-02 物体検出システム、物体検出方法及び物体検出プログラム

Country Status (1)

Country Link
JP (1) JP7122721B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7450654B2 (ja) 2022-02-10 2024-03-15 本田技研工業株式会社 移動体制御装置、移動体制御方法、学習装置、学習方法、およびプログラム
CN116214524B (zh) * 2023-05-08 2023-10-03 国网浙江省电力有限公司宁波供电公司 用于油样回收的无人机抓载方法、装置及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010024212A1 (ja) 2008-08-29 2010-03-04 三菱電機株式会社 俯瞰画像生成装置、俯瞰画像生成方法および俯瞰画像生成プログラム
JP2013210908A (ja) 2012-03-30 2013-10-10 Suzuki Motor Corp 対象物識別装置
WO2016199244A1 (ja) 2015-06-10 2016-12-15 株式会社日立製作所 物体認識装置及び物体認識システム
JP2017045395A (ja) 2015-08-28 2017-03-02 株式会社リコー 検出装置、検出方法、撮像装置、機器制御システム、及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010024212A1 (ja) 2008-08-29 2010-03-04 三菱電機株式会社 俯瞰画像生成装置、俯瞰画像生成方法および俯瞰画像生成プログラム
JP2013210908A (ja) 2012-03-30 2013-10-10 Suzuki Motor Corp 対象物識別装置
WO2016199244A1 (ja) 2015-06-10 2016-12-15 株式会社日立製作所 物体認識装置及び物体認識システム
JP2017045395A (ja) 2015-08-28 2017-03-02 株式会社リコー 検出装置、検出方法、撮像装置、機器制御システム、及びプログラム

Also Published As

Publication number Publication date
JP2021189917A (ja) 2021-12-13

Similar Documents

Publication Publication Date Title
CN110298262B (zh) 物体识别方法及装置
CN113111974B (zh) 基于深度典型相关分析的视觉-激光雷达融合方法及系统
US11734918B2 (en) Object identification apparatus, moving body system, object identification method, object identification model learning method, and object identification model learning apparatus
Pfeuffer et al. Optimal sensor data fusion architecture for object detection in adverse weather conditions
JP6574611B2 (ja) 立体画像に基づいて距離情報を求めるためのセンサシステム
CN111209825B (zh) 一种用于动态目标3d检测的方法和装置
JP7122721B2 (ja) 物体検出システム、物体検出方法及び物体検出プログラム
JP7305869B2 (ja) 歩行者検出方法及び装置、コンピュータ読み取り可能な記憶媒体並びにチップ
JP6979228B2 (ja) V2v通信によって取得された、他の自律走行車両の空間探知結果を自身の自律走行車両の空間探知結果と統合する学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置{learning method and learning device for integrating object detection information acquired through v2v communication from other autonomous vehicle with object detection information generated by present autonomous vehicle, and testing method and testing device using the same}
CN111814602B (zh) 一种基于视觉的智能车环境动态目标检测的方法
US20230213643A1 (en) Camera-radar sensor fusion using local attention mechanism
CN115082924A (zh) 一种基于单目视觉和雷达伪图像融合的三维目标检测方法
CN111209840B (zh) 一种基于多传感器数据融合的3d目标检测方法
Ouyang et al. A cgans-based scene reconstruction model using lidar point cloud
KR20150091779A (ko) 다중 센서를 이용한 영상 처리 시스템
Yeol Baek et al. Scene understanding networks for autonomous driving based on around view monitoring system
CN117274749B (zh) 一种基于4d毫米波雷达和图像的融合3d目标检测方法
Melotti et al. CNN-LIDAR pedestrian classification: Combining range and reflectance data
CN112183330A (zh) 基于点云的目标检测方法
Rashed et al. Bev-modnet: Monocular camera based bird's eye view moving object detection for autonomous driving
Mehtab et al. 3D vehicle detection using cheap LiDAR and camera sensors
CN114118247A (zh) 一种基于多传感器融合的无锚框3d目标检测方法
CN112950786A (zh) 一种基于神经网络的车辆三维重建方法
KR20220014678A (ko) 영상의 깊이를 추정하는 방법 및 장치
Surgailis et al. Avoiding forward car collision using stereo vision system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220801

R150 Certificate of patent or registration of utility model

Ref document number: 7122721

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150