JP2020021188A - 自動車の姿勢推定装置 - Google Patents

自動車の姿勢推定装置 Download PDF

Info

Publication number
JP2020021188A
JP2020021188A JP2018143102A JP2018143102A JP2020021188A JP 2020021188 A JP2020021188 A JP 2020021188A JP 2018143102 A JP2018143102 A JP 2018143102A JP 2018143102 A JP2018143102 A JP 2018143102A JP 2020021188 A JP2020021188 A JP 2020021188A
Authority
JP
Japan
Prior art keywords
image
vehicle
car
learning
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018143102A
Other languages
English (en)
Inventor
田中 成典
Shigenori Tanaka
成典 田中
雄平 山本
Yuhei Yamamoto
雄平 山本
庄治 大月
Shoji Otsuki
庄治 大月
恭介 田中
Kyosuke Tanaka
恭介 田中
義和 川村
Yoshikazu Kawamura
義和 川村
順俊 平野
Yoritoshi Hirano
順俊 平野
櫻井 淳
Jun Sakurai
淳 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Insiek Co Ltd
Kansai Informatics Institute Co Ltd
Original Assignee
Nippon Insiek Co Ltd
Kansai Informatics Institute Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Insiek Co Ltd, Kansai Informatics Institute Co Ltd filed Critical Nippon Insiek Co Ltd
Priority to JP2018143102A priority Critical patent/JP2020021188A/ja
Publication of JP2020021188A publication Critical patent/JP2020021188A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 画像中に写し出された自動車の姿勢を推定することのできる装置を提供する。【解決手段】 抽出手段2は、自動車を含む画像中から、セマンティック・セグメンテーションによって、少なくとも、当該自動車の前タイヤ、後タイヤ、左タイヤ、右タイヤ、正面、左側面、右側面、背面、上面を抽出する処理を行う。画像に写し出された自動車の姿勢を推定する際において、学習済みの抽出手段2は、当該画像を受けて、自動車の前タイヤ、後タイヤ、左タイヤ、右タイヤ、正面、左側面、右側面、背面、上面を推定する。通常進行方向判断手段4は、推定した前タイヤ、後タイヤ、左タイヤ、右タイヤ、正面、左側面、右側面、背面、上面の位置に基づいて、画像上における自動車の通常の進行方向(すなわち姿勢)を判断して、その進行方向を出力する。【選択図】 図1

Description

この発明は、自動車を含む画像から自動車の各部位を推定する技術に関するものである。
セマンテック・セグメンテーションなどのディープラーニングによるセグメンテーションによって、複数の対象物を含む画像のそれぞれの画素について、いずれの対象物についての画素であるかを推定することが行われている。たとえば、特許文献1においては、画像から、各画素が道路、空、建物、車、歩行者、道路標識などいずれの対象物に属するものであるかを推定するシステムが開示されている。
このようなシステムによれば、画像中にどのような対象物がどこに写し出されているかを検出することができる。
特開2017−162456
しかしながら、特許文献1のような従来技術では、画像中に車が写し出されてことは認識できるものの、当該自動車がどのような姿勢(たとえば、その進行方向など)にあるのかを認識することはできなかった。このため、画像中から認識した車について、移動方向による交通量解析や、複数台の車が重なっていることの判定を行ったりすることは難しかった。
この発明は、上記のような問題点を解決して、画像中に写し出された自動車の姿勢を推定することのできる装置を提供することを目的とする。
この発明の独立して適用可能ないくつかの特徴を以下に列挙する。
(1)(2)この発明に係る姿勢推定装置は、自動車を含む画像を受けて、当該画像中の自動車の前後左右のタイヤまたは正面、左側面、右側面、背面、上面を含む部位を抽出する抽出手段と、前記抽出手段によって抽出された部位に基づいて、当該自動車の通常進行方向を判断する通常進行方向判断手段とを備えている。
したがって、画像から自動車の姿勢を判定することができる。
(3)この発明に係る姿勢推定装置は、推定手段が、自動車を含む画像と、当該画像中の自動車の前後左右のタイヤまたは正面、左側面、右側面、背面、上面を少なくともラベリングしたラベリング画像とに基づいて学習のなされたディープラーニング・セグメンテーション処理手段を備えていることを特徴としている。
したがって、より正確に各部位を推定することができる。
(4)(5)この発明に係る交通量判断装置は、道路における自動車を含む画像を受けて、当該画像中の自動車の前後左右のタイヤまたは正面、左側面、右側面、背面、上面を含む部位を抽出する抽出手段と、前記抽出手段によって抽出された部位に基づいて、当該自動車の通常進行方向を判断する通常進行方向判断手段と、前記推定した各自動車の通常進行方向に基づいて当該道路における交通量を判断する交通量判断手段とを備えている。
したがって、移動方向も含めた交通量を計測することができる。
(6)この発明に係る交通量判断装置は、前記道路が交差点であることを特徴としている。
したがって、車の重なり合うことの多い交差点においても、各自動車を適切に判断し、交通量を計測することができる。
(7)この発明に係る交通量判断装置は、交通量判断手段が、前記判断結果に基づいて、交差点の信号機の青赤点灯比率を制御することを特徴としている。
したがって、交通量に応じた適切な信号制御を行うことができる。
(8)(9)この発明に係るディープラーニング・セグメンテーション装置の学習に用いるための学習データを生成する装置は、道路上を走行する自動車について背景と自動車を含む画像から自動車部分のみを抽出した自動車画像を取得する自動車画像取得手段と、前記背景中の道路を撮像したアングルと実質的に同一のアングルにて撮像した他の道路を含む複数の背景画像それぞれに、前記自動車画像を貼り付ける自動車画像貼付手段と、前記背景中の道路を撮像したアングルと実質的に同一のアングルにて撮像した他の道路を含む複数の背景画像それぞれについて、前記自動車画像に対応する位置に部位ラベルをおいてラベル画像を生成するラベル画像生成手段とを備えている。
したがって、容易に多くの学習データを生成することができる。
(10)この発明に係る抽出装置の生産方法は、自動車を含む画像を受けて、当該画像中の自動車の部位を抽出する処理部を有する抽出装置を生産するための方法であって、コンピュータが、道路上を走行する自動車について、背景と自動車を含む画像から自動車部分のみを抽出した自動車画像を用意し、前記背景中の道路を撮像したアングルと実質的に同一のアングルにて撮像した他の道路を含む複数の背景画像それぞれに、前記自動車画像を貼り付けて学習用画像データを生成し、前記背景中の道路を撮像したアングルと実質的に同一のアングルにて撮像した他の道路を含む複数の背景画像それぞれについて、前記自動車画像に対応する位置に部位ラベルをおいて学習用ラベル画像データを生成し、上記学習用画像データと学習用ラベル画像データに基づいて、前記抽出のための処理部を学習する。
したがって、少ない学習データを準備するだけで効率よく学習を行って抽出装置を生産することができる。
「抽出手段」は、実施形態においては、ステップS12がこれに対応する。
「通常進行方向判断手段」は、実施形態においては、ステップS13がこれに対応する。
「交通量判断手段」は、実施形態においては、ステップS26がこれに対応する。
「自動車画像取得手段」は、実施形態においては、ステップS52がこれに対応する。
「自動車画像貼付手段」は、実施形態においては、ステップS55がこれに対応する。
「ラベル画像生成手段」は、実施形態においては、ステップS56がこれに対応する。
「プログラム」とは、CPUまたはGPU(あるいはその双方)により直接実行可能なプログラムだけでなく、ソース形式のプログラム、圧縮処理がされたプログラム、暗号化されたプログラム等を含む概念である。
第1の実施形態による姿勢推定装置の機能ブロック図である。 姿勢推定装置のハードウエア構成である。 姿勢推定プログラムのフローチャートである。 図4Aはオリジナル画像、図4Bはラベル画像である。 推定処理のフローチャートである。 図6Aは取得した画像、図6Bは部位推定結果である。 姿勢推定処理のフローチャートである。 図8Aは取得した画像、図8Bは部位推定結果である。 姿勢推定のためのルール例である。 自動車が重なり合った場合の部位推定結果を示す図である。 動画によって連続して推定することによるご認識の修正を説明する図である。 第2の実施形態による交通量判断装置の機能ブロック図である。 交通量判断処理のフローチャートである。 カメラによる交差点の撮像画像例である。 交差点の撮像画像に基づく部位推定例である。 交差点における自動車の移動方向分類である。 第3の実施形態による学習装置の機能ブロック図である。 学習用データ生成処理のフローチャートである。 図19Aは自動車画像、図19Bはオリジナル画像、図19Cは自動車のラベル画像である。 背景画像である。 図21Aはオリジナル画像の道路端部線、図21Bは背景画像の道路端部線である。 図22Aは生成された学習用画像データ、図22Bは学習用ラベル画像データである。
1.第1の実施形態
1.1全体構成
図1に、この発明の一実施形態による自動車の姿勢推定装置およびその学習装置の機能ブロック図を示す。抽出手段2は、自動車を含む画像中から、少なくとも、当該自動車の右前タイヤ、左前タイヤ、右後タイヤ、左後タイヤ、正面、左側面、右側面、背面、上面、背景を抽出する処理を行う。
この実施形態では、抽出手段2として、セマンティック・セグメンテーションによって、与えられた画像の各画素について上記いずれの部位に該当するかを判断するようにしている。セマンティックセ・グメンテーションを用いる場合、自動車を含むオリジナル画像に基づいて、左前タイヤ、左後タイヤ、右前タイヤ、右後タイヤ、正面、左側面、右側面、背面、上面、背景を色分けしてラベルを付したラベル画像を生成する。ラベル画像の生成は、PCを利用して画像処理プログラムにより、人が作業することによって行うことができる。
学習処理において、抽出手段2は、自動車を含むオリジナル画像6を受けて、その処理結果(画素ごとに、左前タイヤ、左後タイヤ、右前タイヤ、右後タイヤ、正面、左側面、右側面、背面、上面、背景のいずれに属するか)を出力する。学習手段10は、オリジナル画像6の処理結果と、オリジナル画像6に対応するラベル画像8とに基づいて、両者が合致するように抽出手段2のパラメータを学習する。この学習を、多数のオリジナル画像6とラベル画像8によって行う。
画像に写し出された自動車の姿勢を推定する際において、学習済みの抽出手段2は、当該画像を受けて、自動車の左前タイヤ、左後タイヤ、右前タイヤ、右後タイヤ、正面、左側面、右側面、背面、上面を推定する。通常進行方向判断手段4は、推定した左前タイヤ、左後タイヤ、右前タイヤ、右後タイヤ、正面、左側面、右側面、背面、上面の位置に基づいて、画像上における自動車の通常の進行方向(すなわち姿勢)を判断して、その進行方向を出力する。
1.2ハードウエア構成
図2に、自動車の姿勢推定装置のハードウエア構成を示す。CPU20には、メモリ22、キーボード/マウス24、ディスプレイ26、ハードディスク28、DVD−ROMドライブ30、通信回路32、カメラ34が接続されている。通信回路32は、インターネットと接続するためのものである。カメラ34は、たとえば道路などに設置され、移動する自動車を撮像するものである。
ハードディスク28には、オペレーティングシステム36、姿勢推定プログラム38が記録されている。姿勢推定プログラム38は、オペレーティングシステム36と協働してその機能を発揮するものである。これらプログラムは、DVD−ROM40に記録されていたものを、DVD−ROMドライブ30を介して、ハードディスク28にインストールしたものである。
1.3学習処理
図3に、姿勢推定プログラム38の学習処理のフローチャートを示す。この実施形態では、セマンティック・セグメンテーションによる推定処理を行うSegNet(https://qiita.com/uni-3/items/a62daa5a03a02f5fa46dにて入手可能)を、ディープラーニングのエンジンとして用いた。
まず、図4Aに示すような自動車の含まれる画像データを多数用意して、ハードディスク28に記録する。できれば、いろいろな車種、いろいろな背景による画像が多数あることが好ましい。
それぞれの画像データ(オリジナル画像データ)を、ディスプレイ26に表示し、操作者が画像をみながら、マウス24を操作して、前タイヤ、後タイヤ、左タイヤ、右タイヤ、正面、左側面、右側面、背面、上面および背景(自動車以外の部分)を、それぞれ異なる色でラベル付けする。ラベル画像の例を図4Bに示す。生成されたラベル画像データは、オリジナルの画像データに対応付けて、ハードディスク28に記録される。
以上のようにして、オリジナル画像データとこれに対応するラベル画像データが、多数ハードディスク28に記録されることとなる。
まず、CPU20は、ハードディスク28からオリジナル画像データを取得する(ステップS2)。たとえば、図4Aのようなオリジナル画像を読みだす。次に、CPU20は、オリジナル画像について、学習済みのセマンティック・セグメンテーションにより、前タイヤ、後タイヤ、左タイヤ、右タイヤ、正面、左側面、右側面、背面、上面の各部位を推定する(ステップS3)。推定結果の画像を、図4Cに示す。図4Cに示すように、各部位ごとに異なる色が付された画像となっている。
この実施形態では、オリジナル画像に対して、プーリングおよび畳み込みを繰り返し、さらに、アップサンプリングと畳み込みを繰り返すことで推定結果の画像を得るようにしている。
次に、CPU20は、オリジナル画像に対応してハードディスク28に記録されているラベル画像を読みだす(ステップS4)。たとえば、図4Bのようなラベル画像が読みだされる。
続いて、CPU20は、図4Bのラベル画像を教師データとし、図4Cの推定結果画像に基づいて、ステップS3における推定のためのパラメータを学習する(ステップS5)。
全てのオリジナル画像・ラベル画像に基づいて学習を行うと、CPU20は、学習処理を終了する(ステップS1、S6)。
1.4推定処理
図5に、カメラ34から取得した画像中の自動車の姿勢を推定する処理のフローチャートを示す。
CPU20は、カメラ34から画像を取得する(ステップS11)。この画像は、静止画であっても動画であってもよい。カメラ34は、たとえば、交差点などに設置したカメラである。なお、CPU20は、カメラから動画を取得した場合、それを構成する静止画の連続として処理を行う。たとえば、図6Aのような画像を取得したものとする。
次に、CPU20は、取得した画像について、セマンティック・セグメンテーションによる推定処理を行う(ステップS12)。これにより、図6Bに示すように、自動車の各部位が推定される。この図では、前面FS、左前タイヤFLT、右前タイヤFRT、左側面LS、右側面RS、上面TPおよび背景BKが推定されている。
続いて、CPU20は、自動車について推定した各部位に基づいて、車の姿勢を推定する(ステップS13)。
図7に、各部位に基づく車の姿勢の推定のフローチャートを示す。CPU20は、まず、推定した画像中に複数の自動車が含まれているかどうかを判断する(ステップS21)。図6の例では、自動車は1台しか含まれていないが、図8に示すように、複数台の自動車が含まれる可能性があるからである。
複数台の自動車が含まれるかどうかの判断は、たとえば、同一部位が2以上推定されるかどうかによって行うことができる。図8Bの推定結果の場合、上面、左前タイヤ1、左後タイヤ1、左側面1、左前タイヤ2、左後タイヤ2、左側面2が推定されている。すなわち、左前タイヤ、左後タイヤ、左側面がそれぞれ2つ推定されている。
CPU20は、上記の各部位が現れる通常の位置関係をルールとして記録している。ルールの例を、図9に示す。左前タイヤは左後タイヤより前方にある、左側面は左前タイヤと左後タイヤの間にある、右前タイヤは右後タイヤより前方にある、右側面は右前タイヤと右後タイヤの間にある等のルールが記録されている。CPU20は、このルールに基づいて、各自動車を特定する。
図8Bの場合であれば、上面、左前タイヤ1、左後タイヤ1、左側面1が上記のルール1、2、7を満たす。したがって、これらが自動車C1の部位であることが特定できる。
これらの部位(上面、左前タイヤ1、左後タイヤ1、左側面1)に対し、左前タイヤ2、左後タイヤ2は、ルール1、2に反している。したがって、左前タイヤ2、左後タイヤ2は、自動車C1とは別の自動車C2の部位であると特定できる。左前タイヤ2、左後タイヤ2は、左側面2に対し、ルール2を満たしている。したがって、左前タイヤ2、左後タイヤ2、左側面2は、自動車C2の要素であると特定することができる。
また、同一部位が2以上推定されない場合であっても、前記のルールによって、1台の自動車の部位であると判定するには矛盾がある場合にも、複数台の自動車が含まれていると判断する。たとえば、進行方向の異なる自動車が重なって撮像された図10のような推定結果が得られた場合、CPU20は次のように判断を行う。
左前タイヤ、左後タイヤ、左側面は上記のルール2に合致し、その他のルールに矛盾しないので、1台の車の部位であると判断できる。前面、右後タイヤが、この車と同一の車の部位であると仮定すると、ルール3、5に反するので、異なる車の部位であると判断できる。これにより、前面、右側面、右後タイヤは、他の1台の車の部位であると判断できる。
なお、図11Aに示すような推定結果が得られた時、左前タイヤ、左側面1、左側面2、左後タイヤが、一つの自動車であるかどうか決定できないことがある(あるいは、誤認識する場合がある)。動画にて連続した画像を取得していれば、このような場合であっても、正しく認識を行うことができる。
たとえば、図11Bのように、何秒か後の画像を認識すると、手前に重なって存在していた自動車がなくなる場合がある。これによれば、左側面1、左後タイヤと、左側面2、左前タイヤ、左後タイヤ2は、異なる自動車であると認識することができる。これにより、遡って、移動方向や時間によって推定すれば、図11Aにおける、左側面1、左前タイヤと、左側面2、左後タイヤが異なる自動車であることを特定することが可能となる。
次に、CPU20は、上記にて判断したそれぞれの自動車について、各部位の推定結果に基づいて、自動車の姿勢(通常の進行方向)を推定する。まず、CPU20は、対象となる自動車について、2つ以上の部位が推定できているかどうかを判断する(ステップS23)。1つの部位(たとえば、前面のみ)しか推定できないものについては、姿勢推定ができないので、これを行わない。
2つ以上の部位が推定できている自動車については、これら部位に基づいて自動車の姿勢を推定する(ステップS24)。
自動車の姿勢の推定は、右前(左前)タイヤ、右後(左後)タイヤが特定できていれば、右後(左後)タイヤの重心から、右前(左前)タイヤの重心の方向に向かう線を想定し、その方向が当該自動車の通常の進行方向であると推定できる。
また、右側面(左側面)が特定できていれば、その下端の線の方向が進行方向であると推定できる。なお、いずれの方向が前であるかは、右前(左前)タイヤ、右後(左後)タイヤや前面、後面がいずれの方向にあるかによって決定することができる。
なお、上記のように各自動車の通常の進行方向を推定することができるので、動画を用いることで、当該自動車が前進しているかバックしているかを判断することもできる。すなわち、動画によって判断した移動方向と、上記部位推定によって判断した通常の進行方向が合致していれば前進、合致していなければバックしていると判断することができる。
2.第2の実施形態
2.1全体構成
図12に、この発明の第2の実施形態による交通量判断装置の機能ブロック図を示す。抽出手段2、通常進行方向判断手段4は、第1の実施形態と同じである。また、学習手段10によって、オリジナル画像6とラベル画像8を用いて抽出手段2が学習される点も同様である。
交通量判断手段12は、通常進行方向判断手段4の出力を受けて、交差点などにおける交通量を算出する。
2.2ハードウエア構成
ハードウエア構成は、第1の実施形態における図2と同様である。カメラ34は、交差点に設置された固定カメラである。また、ハードディスク28には、交通量判断プログラムが記録されている。
2.3交通量判断処理
交通量判断プログラムにおける交通量判断の部分のフローチャートを示す。学習処理や部位特定処理は、第1の実施形態と同様であるのでフローチャートを省略する。
図14に、カメラ34にて撮像した交差点の画像例を示す。ここでは、固定カメラ34を用いているので、道路方向のベクトルAB、CDが、画像上から固定的に定まる。このベクトル方向は、ハードディスク28に予め記録されている。
図15に、図14の画像について、自動車の各部位を推定した結果を示す。FSが前面、BSが背面、USが上面、RSが右側面、LSが左側面、FRTが右前タイヤ、FLTが左前タイヤ、BRTが右後タイヤ、BLTが左後タイヤである。ステップS11の処理によって、自動車C1〜C5が認識されている。
CPU20は、それぞれの自動車の推定された部位に基づいて、姿勢の推定を行う(ステップS24)。まず、自動車C1の姿勢推定を行う。前面FSと左側面LSのみが推定されている。前面FSと左側面LSが見えるのは、ベクトルAの方向に向かう場合だけである。したがって、自動車C1は、ベクトルAの方向に向かっていると判断することができる。
また、自動車C2については、右前タイヤFRT、右後タイヤBRT、右側面RSが推定されている。これらが推定されるのは、ベクトルDの方向に向かう場合か、あるいはベクトルBの方向に向かう場合だけである。CPU20は、右前タイヤFRTの中心と右後タイヤBRTの中心を結ぶ直線を想定する。この直線が、ベクトルDとBのいずれに近い角度であるかによって、自動車の向きを決定する。ここでは、ベクトルDの方向であると決定されることになる。したがって、自動車C2は、ベクトルDの方向に向かっていると判断することができる。
自動車C3については、左前タイヤFLT、左側面LS、左後タイヤBLT、後面BSが推定されている。左前タイヤFLT、左側面LS、左後タイヤBLTだけが推定されている場合には、ベクトルCかAの可能性があり自動車C2の場合と同じように、タイヤを結ぶ直線に近い角度を選ぶことになる。しかし、ここでは、後面BSが推定されている。このため、ベクトルCであると直ちに決定することができる。したがって、自動車C3は、ベクトルCの方向に向かっていると判断することができる。
自動車C4については、右前タイヤFRT、右後タイヤBRT、右側面RS、前面FSが推定されている。これらが推定されるのは、ベクトルDの方向に向かう場合だけである。したがって、自動車C4は、ベクトルDの方向に向かっていると判断することができる。
なお、自動車C5については、右側面RS、右前タイヤFRTのみが推定されている。これは、ベクトルBとDの可能性がある。右後タイヤBRTが推定されていないので、タイヤを結ぶ線によっていずれかを決定することができない。したがって、自動車C5については、いずれの方向に向かっているかを決定できない。
なお、上記のような場合に、2つのタイヤが推定されていなくとも、右側面RSの底部分の直線(前後のタイヤを結ぶ線とほぼ等しい)が見いだせれば、姿勢を決定することができる。
また、交差点において自動車が曲がったことも動画によって連続して推定すれば判断することができる。たとえば、図16に示すように、交差点では、左折、直進、右折のルートがある。これが、交差点のそれぞれの道(4つの道)について考えられるので、12個のルートの移動量を算出することになる(ステップS26)。
このようにして、交差点における、自動車の移動方向を含めた交通量を正確に把握することができる。
2.4その他
第1の実施形態および第2の実施形態についての変形例を以下に示す。
(1)上記実施形態では、自動車の姿勢を推定して交通量を計測する場合を例として示した。しかし、姿勢推定をその他の処理に用いてもよい。たとえば、自動車以外の人間や自転車などは進入を許可するが、自動車は進入を禁止するような場所に設けることで、その方向から進入しようとする自動車を検知して警告などを行うことができる。
(2)上記実施形態では、ディープラーニングを用いて自動車の各部位を推定するようにしている。しかし、機械学習などを用いて推定するようにしてもよい。
(3)上記実施形態では、前タイヤ、後タイヤ、左タイヤ、右タイヤ、正面、左側面、右側面、背面、上面を推定するようにしている。しかし、前タイヤ、後タイヤ、左タイヤ、右タイヤを推定するようにしてもよい。また、正面、左側面、右側面、背面、上面を推定するようにしてもよい。少なくともこれら前タイヤ、後タイヤ、左タイヤ、右タイヤ、正面、左側面、右側面、背面、上面のうちの2つを推定することで、姿勢を推定することができる。
また、前面ナンバプレート、後面ナンバプレート、前面左右ランプ、後面左右ランプ、左右ドアミラーなどを推定部位としてもよい。
(4)上記実施形態では、スタンドアローンのコンピュータによって姿勢推定装置を実現している。しかし、サーバ装置として構築するようにしてもよい。この場合、端末装置からの画像を受信し、推定結果(部位の推定または姿勢の推定またはその双方)を端末装置に返信するようにする。第2の実施形態による交通量判断装置についても同様である。
(5)上記実施形態では、学習処理と推定処理を分離して実行している。しかし、部位の推定処理結果についてその適正度を人が判断し、適正と判断された部位の推定結果に基づいて、リアルタイムに学習を繰り返すようにしてもよい。
(6)上記実施形態では、交差点における交通量を計測するようにしている。しかし、交差点以外の道路(自動車の通行できる場所をいう)における交通量を計測するようにしてもよい。
(7)上記実施形態では、交差点における交通量を計測するようにしている。しかし、これに加えて、計測した交通量に基づいて、当該交差点における青信号、赤信号の比率を変えるようにしてもよい。たとえば、ある方向への交通量が増大し、これに直交する方向の交通量が減少した場合には、交通量が増えた向きの信号の青時間を長くするように制御する。この制御は、図2のCPU20から行うことができる。
(8)上記実施形態では、CPUを用いているが、GPU(Graphics Processing Unit)などを用いてもよい。また、CPUとGPUの双方を用いるようにしてもよい。この場合、セマンティックセグメンテーションの処理はGPUにて、その他の画像の取り込みなどの処理はCPUが行うようにすることができる。
(9)上記実施形態およびその変形例は、その本質に反しない限り、他の実施形態と組み合わせて実施可能である。
3.第3の実施形態
3.1全体構成
第1の実施形態にて示したように、推定のためにセマンティック・セグメンテーションを用いる場合、背景・自動車を含む画像を多数用意して学習を行う必要がある。さらに、これら画像について、ラベル付けを行う必要がある。ラベル付けは、信頼性を持たせるためには、画像処理ソフトにて人がマウスなどを操作して指定することが好ましい。あるいは、コンピュータによって自動生成されたものを、人が修正することが好ましい。このため、学習のためのデータを多数用意することが困難となる。
第3の実施形態では、このような点を解決した学習データ生成装置を提供する。図17に、この発明の第3の実施形態による学習データ生成装置の機能ブロック図を示す。自動車画像取得手段50は、自動車のみが写されている自動車画像Cを取得する。この自動車画像Cは、道路などの背景とともに撮像された画像BCから、自動車の部分のみを抽出したものである。この抽出処理は、コンピュータによって自動的に行ってもよいし、画像処理プログラム・マウスなどを用いて人が手作業によって行うようにしてもよい。
自動車画像貼付手段52は、上記の車を含む画像BCの道路を撮像したアングルと実質的に同じアングルにて撮像された背景のみの背景画像B1〜Bnを取得する。続いて、自動車画像貼付手段52は、それぞれの背景画像B1〜Bnに対し、自動車画像Cを貼り付ける。これにより、学習用画像データ60を多数得ることができる。
ラベル貼付手段54は、前記生成した学習用画像データ60に基づいて、ラベル画像データ62を生成する。この際、自動車画像Cについて各部位をラベルづけした信頼性のあるラベル画像Lを用いる。学習用画像データ60の自動車画像Cの部分に、このラベル画像Lを対応付ける。また、自動車画像Cを貼り付けた部分以外の領域は背景であることが明確であるから、背景としてのラベル付けを行う。これにより、学習用ラベル画像データ62を多数得ることができる。
以上のようにして、ディープラーニング・セグメンテーションを学習するためのデータを多数得ることができる。
この装置によれば、たとえば、同じアングルにて異なる場所において異なる自動車について撮像した画像データ(およびラベルデータ)および背景画像データがそれぞれ1000個あれば、約1000×1000=1,000,000個の学習用データを得ることができる。
3.2ハードウエア構成
ハードウエア構成は、第1の実施形態における図2と同様である。ただし、ハードディスク28には、学習用データ生成プログラムが記録されている。
3.3学習用データ生成処理
図18に、学習用データ生成プログラムのフローチャートを示す。この実施形態では、ハードディスク28に、自動車を含む画像、当該画像から抽出した自動車画像、自動車のラベル画像(または自動車を含む画像のラベル画像)、自動車を含む画像の道路に関して同じアングルにて撮像された背景画像が予め記録されているものとする。なお、これら画像は、異なる自動車、異なる背景について多数枚記録されていることが好ましい。
CPU20は、まず、自動車画像(図19A)およびそのラベル画像(図19C)を読み出す(ステップS52)。図19Aに、自動車画像の例を示す。この自動車画像は、図19Bに示すような自動車付きオリジナル画像から抽出したものである。なお、自動車画像は、矩形画像ではなく、自動車の形状に沿った外形を有する画像である。
次に、CPU20は、背景画像を読み出す(ステップS54)。図20に背景画像の例を示す。背景画像は、図19Bのオリジナル画像における道路に対する撮像アングル(角度・距離)が、同じになるようにして撮像された他の場所における背景画像である。背景画像においては、自動車が写っていないことが好ましい。
CPU20は、この背景画像上に、上記の自動車画像(図19A)を貼り付ける(ステップS55)。この際、オリジナル画像における道路に対する自動車の位置を参照して、これと同じ位置関係になるように、背景画像の道路上に自動車画像を貼り付ける。この場合、画像中から道路の端部を検出し、この道路端部線に基づいて配置を決めることができる。
たとえば、図21Aはオリジナル画像における道路端部と自動車の重心位置(2次元画像としての重心)CCGである。重心CCGから、画像端面に水平に道路端部までの距離比A:Bを算出する。CPU20は、図21Bに示す背景画像の道路端部線に基づいて、A:Bの比率の位置に重心が来るように自動車画像を貼り付ける。
このようにして、図22Aに示すような学習用画像データを生成することができる。なお、オリジナル画像と背景画像における道路端部線が合致するようにしておけば、オリジナル画像における自動車の位置に対応する背景画像の位置に自動車画像を配置すればよい。
次に、CPU20は、上記学習用画像と自動車画像のラベル画像に基づいて、学習用ラベル画像を生成する(ステップS56)。これは、学習用画像の自動車の位置に自動車画像のラベル画像を貼り付け、その他の領域を背景としてラベルづけすることで生成することができる。なお、この実施形態では、異なる部位を示すために異なる色を用いている。図22Bに生成された学習用ラベルデータを示す。
以上のようにして、1組の学習用画像データと学習用ラベルデータが生成される。
次に、CPU20は、同じ自動車画像とラベル画像を用いて、他の背景画像について学習用画像データと学習用ラベルデータを生成する(ステップS53〜S57)。これを、対象となる全ての背景画像について行って、学習用画像データと学習用ラベルデータを生成する。
以上のようにして、一つの自動車画像から多数の学習用データを生成することができる。
続いて、CPU20は、次の自動車画像についても、上記と同様の処理を繰り返す(ステップS51〜S57)。対象となる全ての自動車画像について、処理を行い、多数の学習用データを生成する。
以上のようにして、少ない学習用データから多数の学習用データを生成することができる。
2.4その他
(1)上記実施形態では、自動車を含むオリジナル画像(図19B)に対応する背景画像(図20)を、予め、ハードディスク28に記録するようにしている。しかし、背景画像の道路端部線を抽出して記録しておき、CPU20が、オリジナル画像の道路端部線に類似する道路端部線を有する背景画像を選択して使用するようにしてもよい。
(2)上記実施形態および変形例は、その本質に反しない限り、他の実施形態や変形例と組み合わせて実施可能である。

Claims (10)

  1. 自動車を含む画像を受けて、当該画像中の自動車の前後左右のタイヤまたは正面、左側面、右側面、背面、上面を含む部位を抽出する抽出手段と、
    前記抽出手段によって抽出された部位に基づいて、当該自動車の通常進行方向を判断する通常進行方向判断手段と、
    を備えた自動車の姿勢推定装置。
  2. コンピュータによって自動車の姿勢推定装置を実現するための姿勢推定プログラムであって、コンピュータを、
    自動車を含む画像を受けて、当該画像中の自動車の前後左右のタイヤまたは正面、左側面、右側面、背面、上面を含む部位を抽出する抽出手段と、
    前記抽出手段によって抽出された部位に基づいて、当該自動車の通常進行方向を判断する通常進行方向判断手段として機能させるための姿勢推定プログラム。
  3. 請求項1の装置または請求項2のプログラムにおいて、
    前記推定手段は、自動車を含む画像と、当該画像中の自動車の前後左右のタイヤまたは正面、左側面、右側面、背面、上面を少なくともラベリングしたラベリング画像とに基づいて学習のなされたディープラーニング・セグメンテーション処理手段を備えていることを特徴とする装置またはプログラム。
  4. 道路における自動車を含む画像を受けて、当該画像中の自動車の前後左右のタイヤまたは正面、左側面、右側面、背面、上面を含む部位を抽出する抽出手段と、
    前記抽出手段によって抽出された部位に基づいて、当該自動車の通常進行方向を判断する通常進行方向判断手段と、
    前記推定した各自動車の通常進行方向に基づいて当該道路における交通量を判断する交通量判断手段と、
    を備えた交差点交通量判断装置。
  5. コンピュータによって交通量判断装置を実現するための交通量判断プログラムであって、コンピュータを、
    道路における自動車を含む画像を受けて、当該画像中の自動車の前後左右のタイヤまたは正面、左側面、右側面、背面、上面を含む部位を抽出する抽出手段と、
    前記抽出手段によって抽出された部位に基づいて、当該自動車の通常進行方向を判断する通常進行方向判断手段と、
    前記推定した各自動車の通常進行方向に基づいて当該道路における交通量を判断する交通量判断手段として機能させるための交通量判断プログラム。
  6. 請求項4の装置または請求項5のプログラムにおいて、
    前記道路は、交差点であることを特徴とする装置またはプログラム。
  7. 請求項6の装置またはプログラムにおいて、
    前記交通量判断手段は、前記判断結果に基づいて、交差点の信号機の青赤点灯比率を制御することを特徴とする装置またはプログラム。
  8. ディープラーニング・セグメンテーション装置の学習に用いるための学習データを生成する装置であって、
    道路上を走行する自動車について背景と自動車を含む画像から自動車部分のみを抽出した自動車画像を取得する自動車画像取得手段と、
    前記背景中の道路を撮像したアングルと実質的に同一のアングルにて撮像した他の道路を含む複数の背景画像それぞれに、前記自動車画像を貼り付ける自動車画像貼付手段と、
    前記背景中の道路を撮像したアングルと実質的に同一のアングルにて撮像した他の道路を含む複数の背景画像それぞれについて、前記自動車画像に対応する位置に部位ラベルをおいてラベル画像を生成するラベル画像生成手段と、
    を備えた学習データ生成装置。
  9. コンピュータによって、ディープラーニング・セグメンテーション装置の学習に用いるための学習データを生成する装置を実現するための学習データ生成プログラムであって、コンピュータを、
    道路上を走行する自動車について背景と自動車を含む画像から自動車部分のみを抽出した自動車画像を取得する自動車画像取得手段と、
    前記背景中の道路を撮像したアングルと実質的に同一のアングルにて撮像した他の道路を含む複数の背景画像それぞれに、前記自動車画像を貼り付ける自動車画像貼付手段と、
    前記背景中の道路を撮像したアングルと実質的に同一のアングルにて撮像した他の道路を含む複数の背景画像それぞれについて、前記自動車画像に対応する位置に部位ラベルをおいてラベル画像を生成するラベル画像生成手段として機能させるための学習データ生成プログラム。
  10. 自動車を含む画像を受けて、当該画像中の自動車の部位を抽出する処理部を有する抽出装置を生産するための方法であって、コンピュータが、
    道路上を走行する自動車について、背景と自動車を含む画像から自動車部分のみを抽出した自動車画像を用意し、
    前記背景中の道路を撮像したアングルと実質的に同一のアングルにて撮像した他の道路を含む複数の背景画像それぞれに、前記自動車画像を貼り付けて学習用画像データを生成し、
    前記背景中の道路を撮像したアングルと実質的に同一のアングルにて撮像した他の道路を含む複数の背景画像それぞれについて、前記自動車画像に対応する位置に部位ラベルをおいて学習用ラベル画像データを生成し、
    上記学習用画像データと学習用ラベル画像データに基づいて、前記抽出のための処理部を学習して抽出装置を生産する方法。








JP2018143102A 2018-07-31 2018-07-31 自動車の姿勢推定装置 Pending JP2020021188A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018143102A JP2020021188A (ja) 2018-07-31 2018-07-31 自動車の姿勢推定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018143102A JP2020021188A (ja) 2018-07-31 2018-07-31 自動車の姿勢推定装置

Publications (1)

Publication Number Publication Date
JP2020021188A true JP2020021188A (ja) 2020-02-06

Family

ID=69587526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018143102A Pending JP2020021188A (ja) 2018-07-31 2018-07-31 自動車の姿勢推定装置

Country Status (1)

Country Link
JP (1) JP2020021188A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022034798A1 (ja) 2020-08-14 2022-02-17 Jfeスチール株式会社 スクラップ判別システム、及びスクラップ判別方法
US12073631B2 (en) 2020-10-21 2024-08-27 Subaru Corporation Object estimation device, object estimation method therefor, and vehicle

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006259833A (ja) * 2005-03-15 2006-09-28 Omron Corp 信号制御システム、および信号制御方法
JP2011048420A (ja) * 2009-08-25 2011-03-10 Fujitsu Ltd 車両検出装置、車両検出プログラム、および車両検出方法
JP2012083855A (ja) * 2010-10-07 2012-04-26 Toyota Motor Corp 物体認識装置及び物体認識方法
JP2014182632A (ja) * 2013-03-19 2014-09-29 Honda Motor Co Ltd 車両周辺監視装置
JP2015060443A (ja) * 2013-09-19 2015-03-30 株式会社 日立産業制御ソリューションズ 交通流把握装置及び方法
JP2016192177A (ja) * 2015-03-31 2016-11-10 株式会社デンソーアイティーラボラトリ 車両検出システム、車両検出装置、車両検出方法、及び車両検出プログラム
WO2018005441A2 (en) * 2016-06-27 2018-01-04 Mobileye Vision Technologies Ltd. Controlling host vehicle based on detected parked vehicle characteristics
WO2018157499A1 (zh) * 2017-02-28 2018-09-07 华为技术有限公司 一种语音输入的方法和相关设备

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006259833A (ja) * 2005-03-15 2006-09-28 Omron Corp 信号制御システム、および信号制御方法
JP2011048420A (ja) * 2009-08-25 2011-03-10 Fujitsu Ltd 車両検出装置、車両検出プログラム、および車両検出方法
JP2012083855A (ja) * 2010-10-07 2012-04-26 Toyota Motor Corp 物体認識装置及び物体認識方法
JP2014182632A (ja) * 2013-03-19 2014-09-29 Honda Motor Co Ltd 車両周辺監視装置
JP2015060443A (ja) * 2013-09-19 2015-03-30 株式会社 日立産業制御ソリューションズ 交通流把握装置及び方法
JP2016192177A (ja) * 2015-03-31 2016-11-10 株式会社デンソーアイティーラボラトリ 車両検出システム、車両検出装置、車両検出方法、及び車両検出プログラム
WO2018005441A2 (en) * 2016-06-27 2018-01-04 Mobileye Vision Technologies Ltd. Controlling host vehicle based on detected parked vehicle characteristics
WO2018157499A1 (zh) * 2017-02-28 2018-09-07 华为技术有限公司 一种语音输入的方法和相关设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
FLAVIU IONUT VANCEA ET AL.: ""Semantic information based vehicle relative orientation and taillight detection"", 2018 IEEE 14TH INTERNATIONAL CONFERENCE ON INTELLIGENT COMPUTER COMMUNICATION AND PROCESSING (ICCP), JPN6022025436, 6 September 2018 (2018-09-06), US, pages 259 - 264, XP033433600, ISSN: 0004807724, DOI: 10.1109/ICCP.2018.8516631 *
橋本 尚久、外3名: ""外部からのセンシングを利用した車両誘導システムの開発"", 電子情報通信学会技術研究報告, vol. 105, no. 611, JPN6022025431, 14 February 2006 (2006-02-14), JP, pages 47 - 51, ISSN: 0004946275 *
高橋 一哉、外2名: ""画像処理による交通流監視方法の研究"", 電子情報通信学会技術研究報告, vol. 97, no. 40, JPN6022025433, 15 May 1997 (1997-05-15), JP, pages 41 - 48, ISSN: 0004807723 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022034798A1 (ja) 2020-08-14 2022-02-17 Jfeスチール株式会社 スクラップ判別システム、及びスクラップ判別方法
US12073631B2 (en) 2020-10-21 2024-08-27 Subaru Corporation Object estimation device, object estimation method therefor, and vehicle
JP7549509B2 (ja) 2020-10-21 2024-09-11 株式会社Subaru 対象物推定装置、その対象物推定方法、および、車両

Similar Documents

Publication Publication Date Title
US11688183B2 (en) System and method of determining a curve
TWI703064B (zh) 用於在不良照明狀況下定位運輸工具的系統和方法
JP7228652B2 (ja) 物体検出装置、物体検出方法およびプログラム
JP4899424B2 (ja) 物体検出装置
US20230110116A1 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
EP2757527B1 (en) System and method for distorted camera image correction
EP3942794B1 (en) Depth-guided video inpainting for autonomous driving
US10565438B2 (en) Vehicle periphery monitor device
US9683861B2 (en) Estimated route presentation apparatus and estimated route presentation method
KR20200132468A (ko) 첨단 운전자 지원 장치 및 이의 객체를 검출하는 방법
US9877011B2 (en) Image display apparatus and image display method
JP2004056763A (ja) 監視装置、監視方法および監視用プログラム
EP3859390A1 (en) Method and system for rendering a representation of an evinronment of a vehicle
US11663832B2 (en) Method and system for detecting and analyzing objects
JP5539250B2 (ja) 接近物体検知装置及び接近物体検知方法
US8170284B2 (en) Apparatus and method for displaying image of view in front of vehicle
JP2020021188A (ja) 自動車の姿勢推定装置
Kemsaram et al. A stereo perception framework for autonomous vehicles
JP2018073275A (ja) 画像認識装置
JP2002150302A (ja) 路面認識装置
JP2004272694A (ja) 物体認識装置および物体認識方法
Fleischer et al. 3D-model-based-vision for innercity driving scenes
JPH1055446A (ja) 物体認識装置
Satzoda et al. Vision-based front and rear surround understanding using embedded processors
US20240071104A1 (en) Image processing device, image processing method, and recording medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180815

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20200310

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200608

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220627

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221219