JP2019211403A - 対象位置計測装置及び対象位置計測プログラム - Google Patents

対象位置計測装置及び対象位置計測プログラム Download PDF

Info

Publication number
JP2019211403A
JP2019211403A JP2018109794A JP2018109794A JP2019211403A JP 2019211403 A JP2019211403 A JP 2019211403A JP 2018109794 A JP2018109794 A JP 2018109794A JP 2018109794 A JP2018109794 A JP 2018109794A JP 2019211403 A JP2019211403 A JP 2019211403A
Authority
JP
Japan
Prior art keywords
target
measurement target
contour
vehicle
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018109794A
Other languages
English (en)
Other versions
JP7074571B2 (ja
Inventor
将広 星
Masahiro Hoshi
将広 星
幸伸 時枝
Yukinobu Tokieda
幸伸 時枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JRC Mobility Inc
Original Assignee
JRC Mobility Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JRC Mobility Inc filed Critical JRC Mobility Inc
Priority to JP2018109794A priority Critical patent/JP7074571B2/ja
Publication of JP2019211403A publication Critical patent/JP2019211403A/ja
Application granted granted Critical
Publication of JP7074571B2 publication Critical patent/JP7074571B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

【課題】本開示は、ミリ波レーダ等及び単眼カメラ等を併用することにより、計測対象の三次元情報を計測することを目的とする。【解決手段】本開示は、計測対象についてレーダ反射点の情報及び画像を取得する計測対象取得部31と、画像上でレーダ反射点をプロットする反射点プロット部32と、画像上でレーダ反射点の近傍でのエッジ解析を実行することにより、画像上で計測対象を縁取る四角錐台を検出する四角錐台検出部33と、画像上で四角錐台の各面内でのエッジ解析を実行することにより、画像上で計測対象の輪郭を検出する対象輪郭検出部34と、画像上の計測対象の輪郭の位置を実空間内の位置に変換する位置変換部35と、を備えることを特徴とする対象位置計測装置3である。【選択図】図1

Description

本開示は、計測対象の三次元情報を計測する技術に関する。
車両の三次元情報を計測する技術として、ステレオカメラ又はLiDAR(Laser Imaging Detection and Ranging)を用いる技術が存在する。しかし、ステレオカメラを用いる技術では、ステレオカメラから遠距離になるほど、測距精度が低下する。そして、ステレオカメラ又はLiDARを用いる技術では、天候依存度が大きいため、霧及び雨等の悪天候時に対応することができない。
特開2010−249613号公報
ところで、特許文献1に開示された技術として、ミリ波レーダ及び単眼カメラを併用する技術が存在する。よって、特許文献1に開示された技術では、レーダ装置から遠距離になっても、測距精度が向上する。そして、特許文献1に開示された技術では、天候依存度が小さいため、霧及び雨等の悪天候時に対応することができる。しかし、特許文献1に開示された技術では、レーダ装置から車両の正面までの距離及び車両の正面を縁取る矩形を検出するのみであり、車両の三次元情報を計測することができない。
そこで、前記課題を解決するために、本開示は、ミリ波レーダ等及び単眼カメラ等を併用することにより、計測対象の三次元情報を計測することを目的とする。
ミリ波レーダ等では、計測対象の幅及び奥行といった二次元情報を計測するのみである。単眼カメラ等では、計測対象の幅及び高さといった二次元情報を計測するのみである。前記課題を解決するために、ミリ波レーダ等及び単眼カメラ等を併用して、各々に不足する次元の情報を互いに補完して、計測対象の幅、奥行及び高さといった三次元情報を計測する。そして、計測対象の外縁輪郭のみならず計測対象の面内輪郭を検出する。
具体的には、本開示は、計測対象についてレーダ反射点の情報及び画像を取得する計測対象取得部と、前記画像上で前記レーダ反射点をプロットする反射点プロット部と、前記画像上で前記レーダ反射点の近傍でのエッジ解析を実行することにより、前記画像上で前記計測対象を縁取る四角錐台を検出する四角錐台検出部と、前記画像上で前記四角錐台の各面内でのエッジ解析を実行することにより、前記画像上で前記計測対象の輪郭を検出する対象輪郭検出部と、前記画像上の前記計測対象の輪郭の位置を実空間内の位置に変換する位置変換部と、を備えることを特徴とする対象位置計測装置である。
この構成によれば、ミリ波レーダ等及び単眼カメラ等を併用することにより、計測対象の幅、奥行及び高さといった三次元情報を計測することができる。そして、計測対象の外縁輪郭のみならず計測対象の面内輪郭を検出することにより、擦れ違い及び擦り抜け等の自動運転に対応可能な周辺環境認識を行うことができる。なお、計測対象の幅及び奥行といった二次元情報を計測するのみであるレーダに代えて、計測対象の幅、奥行及び高さといった三次元情報を計測することができるレーダを用いてもよい。また、計測対象の幅及び高さといった二次元情報を計測するのみである単眼カメラに代えて、計測対象の幅、高さ及び奥行といった三次元情報を計測することができるステレオカメラを用いてもよい。
また、本開示は、前記対象輪郭検出部は、前記四角錐台の各面を複数のグリッドに分割し、各々のグリッド内でエッジ解析を実行し、各々のグリッド内で前記計測対象の輪郭の一部を検出し、各々のグリッド内で前記計測対象の輪郭の一部を代表点に変換し、前記位置変換部は、各々のグリッド内で前記代表点の位置を実空間内の位置に変換することを特徴とする対象位置計測装置である。
この構成によれば、計測対象の外縁・面内輪郭を計測対象の輪郭点群に変換することにより、LiDAR等により生成された三次元環境地図等の静的情報に対して、本開示の技術により生成された車両及び歩行者等の動的情報をプロットすることができる。そして、計測対象の外縁・面内輪郭が計測対象全体では複雑な形状であっても、各々のグリッド内で計測対象の外縁・面内輪郭を計測対象の輪郭点群に容易に変換することができる。さらに、計測対象の外縁・面内輪郭が計測対象全体では複雑な形状であっても、各々のグリッド内で計測対象の外縁・面内輪郭を容易に検出することができる。
また、本開示は、前記対象輪郭検出部は、前記四角錐台の各面内でエッジ解析を実行し、前記四角錐台の各面内で前記計測対象の輪郭を検出し、前記四角錐台の各面を複数のグリッドに分割し、各々のグリッド内で前記計測対象の輪郭の一部を代表点に変換し、前記位置変換部は、各々のグリッド内で前記代表点の位置を実空間内の位置に変換することを特徴とする対象位置計測装置である。
この構成によれば、計測対象の外縁・面内輪郭を計測対象の輪郭点群に変換することにより、LiDAR等により生成された三次元環境地図等の静的情報に対して、本開示の技術により生成された車両及び歩行者等の動的情報をプロットすることができる。そして、計測対象の外縁・面内輪郭が計測対象全体では複雑な形状であっても、各々のグリッド内で計測対象の外縁・面内輪郭を計測対象の輪郭点群に容易に変換することができる。さらに、計測対象の外縁・面内輪郭が計測対象一部に直線的な部分を含むならば、四角錐台の各面内で計測対象の外縁・面内輪郭を高速で検出することができる。
また、本開示は、前記対象輪郭検出部は、レーダ装置及び撮像装置を搭載する自車から見た前記計測対象の危険度に応じて、前記四角錐台の各面を分割するグリッドの個数を設定することを特徴とする対象位置計測装置である。
この構成によれば、計測対象の危険度が高ければ、四角錐台の各面を分割するグリッドの個数を多くすることにより、計測対象の輪郭点群を詳細に検出することができ、擦れ違い及び擦り抜け等の自動運転に対応可能な周辺環境認識を行うことができる。一方で、計測対象の危険度が低ければ、四角錐台の各面を分割するグリッドの個数を少なくすることにより、計測対象の輪郭点群を高速で検出することができ、危険度が低い計測対象について計測対象の輪郭点群の詳細検出を無駄に行わないことができる。
また、本開示は、前記対象輪郭検出部は、前記レーダ装置により計測された前記自車と前記計測対象との間の距離に応じて、前記四角錐台の各面を分割するグリッドの個数を設定することを特徴とする対象位置計測装置である。
この構成によれば、自車と計測対象との間の距離に基づいて、計測対象の危険度を判定することができ、計測対象の輪郭点群の検出精度を設定することができる。
また、本開示は、前記対象輪郭検出部は、前記レーダ装置により計測された前記自車と前記計測対象との間の進行速度差に応じて、前記四角錐台の各面を分割するグリッドの個数を設定することを特徴とする対象位置計測装置である。
この構成によれば、自車と計測対象との間の進行速度差に基づいて、計測対象の危険度を判定することができ、計測対象の輪郭点群の検出精度を設定することができる。
また、本開示は、前記対象輪郭検出部は、前記レーダ装置により計測された前記自車と前記計測対象との間の進行方向差に応じて、前記四角錐台の各面を分割するグリッドの個数を設定することを特徴とする対象位置計測装置である。
この構成によれば、自車と計測対象との間の進行方向差に基づいて、計測対象の危険度を判定することができ、計測対象の輪郭点群の検出精度を設定することができる。
また、本開示は、前記対象輪郭検出部は、前記レーダ装置により計測された前記自車の前記計測対象への接近時間に応じて、前記四角錐台の各面を分割するグリッドの個数を設定することを特徴とする対象位置計測装置である。
この構成によれば、自車の計測対象への接近時間に基づいて、計測対象の危険度を判定することができ、計測対象の輪郭点群の検出精度を設定することができる。
また、本開示は、計測対象についてレーダ反射点の情報及び画像を取得する計測対象取得ステップと、前記画像上で前記レーダ反射点をプロットする反射点プロットステップと、前記画像上で前記レーダ反射点の近傍でのエッジ解析を実行することにより、前記画像上で前記計測対象を縁取る四角錐台を検出する四角錐台検出ステップと、前記画像上で前記四角錐台の各面内でのエッジ解析を実行することにより、前記画像上で前記計測対象の輪郭を検出する対象輪郭検出ステップと、前記画像上の前記計測対象の輪郭の位置を実空間内の位置に変換する位置変換ステップと、を順にコンピュータに実行させるための対象位置計測プログラムである。
この構成によれば、ミリ波レーダ等及び単眼カメラ等を併用することにより、計測対象の幅、奥行及び高さといった三次元情報を計測することができる。そして、計測対象の外縁輪郭のみならず計測対象の面内輪郭を検出することにより、擦れ違い及び擦り抜け等の自動運転に対応可能な周辺環境認識を行うことができる。なお、計測対象の幅及び奥行といった二次元情報を計測するのみであるレーダに代えて、計測対象の幅、奥行及び高さといった三次元情報を計測することができるレーダを用いてもよい。また、計測対象の幅及び高さといった二次元情報を計測するのみである単眼カメラに代えて、計測対象の幅、高さ及び奥行といった三次元情報を計測することができるステレオカメラを用いてもよい。
このように、本開示は、ミリ波レーダ等及び単眼カメラ等を併用することにより、計測対象の三次元情報を計測することができる。
本開示の対象位置計測システムの構成を示すブロック図である。 本開示の対象位置計測装置の処理手順を示すフローチャートである。 本開示の計測対象取得の処理内容を示す図である。 本開示の反射点プロット及び四角錐台検出の処理内容を示す図である。 本開示の第1の対象輪郭検出の処理内容を示す図である。 本開示の第2の対象輪郭検出の処理内容を示す図である。 本開示の位置変換の処理内容を示す図である。 本開示の1台の車両の輪郭点群の検出結果を示す図である。 本開示の1人の歩行者の輪郭点群の検出結果を示す図である。 本開示の3台の車両の画像を示す図である。 本開示の3台の車両の輪郭点群の検出結果を示す図である。 従来技術及び本開示の輪郭点群の検出結果を示す図である。 本開示の様々なグリッド分割数での輪郭点群の検出結果を示す図である。 本開示の第1のグリッド分割数の設定方法を示す図である。 本開示の第2のグリッド分割数の設定方法を示す図である。 本開示の第3のグリッド分割数の設定方法を示す図である。 本開示の第4のグリッド分割数の設定方法を示す図である。
添付の図面を参照して本開示の実施形態を説明する。以下に説明する実施形態は本開示の実施の例であり、本開示は以下の実施形態に制限されるものではない。
(対象位置計測システムの概要)
本開示の対象位置計測システムの構成を示すブロック図を図1に示す。本開示の対象位置計測装置の処理手順を示すフローチャートを図2に示す。対象位置計測システムSは、レーダ装置1、撮像装置2及び対象位置計測装置3から構成される。対象位置計測装置3は、図2に示した対象位置計測プログラムをインストールされたコンピュータであり、計測対象取得部31、反射点プロット部32、四角錐台検出部33、対象輪郭検出部34及び位置変換部35から構成される。
レーダ装置1は、自車のバンパーの内部等に設置される、MIMO(Multiple Input−Multiple Output)ミリ波レーダ等である。撮像装置2は、自車のフロントガラスの上部又は自車のバンパーの内部等に設置される、単眼カメラ等である。対象位置計測装置3は、レーダ装置1及び撮像装置2を併用することにより、対象位置の三次元情報を計測する。そして、計測対象の外縁輪郭のみならず計測対象の面内輪郭を検出する。
本開示の計測対象取得の処理内容を図3に示す。計測対象取得部31は、計測対象についてレーダ反射点の情報及び画像を取得する(ステップS1)。
計測対象からのレーダ反射点の情報は、ビームフォーマ法又はMUSIC(Multiple Signal Classification)法等により取得される。計測対象取得部31は、複数の白線Lの情報を取得している。レーダ装置1のアンテナAから見て、左側の隣接車線には、複数のレーダ反射点のクラスタとして車両C1が検出され、同一の車線には、複数のレーダ反射点のクラスタとして車両C2が検出され、右側の隣接車線には、複数のレーダ反射点のクラスタとして車両C3が検出される。
計測対象の画像は、単眼カメラ等により取得される。撮像装置2のセンサから見て、前方の方向には、複数の白線Lが検出され、左側の隣接車線には、車両C1が検出され、同一の車線には、車両C2が検出され、右側の隣接車線には、車両C3が検出される。
レーダ装置1は、複数のアンテナAを高さ方向に離して設置する余裕がないため、計測対象の幅X[m]及び奥行Z[m]といった二次元情報を計測するのみである。撮像装置2は、複数のセンサを幅方向に離して設置する余裕がないため、計測対象の幅x[pix]及び高さy[pix]といった二次元情報を計測するのみである。そこで、対象位置計測装置3は、レーダ装置1及び撮像装置2を併用して、各々に不足する次元の情報を互いに補完して、計測対象の幅X[m]、奥行Z[m]及び高さY[m]といった三次元情報を計測する。そして、計測対象の外縁輪郭のみならず計測対象の面内輪郭を検出する。
(四角錐台検出の処理内容)
本開示の反射点プロット及び四角錐台検出の処理内容を図4に示す。反射点プロット部32は、画像上でレーダ反射点をプロットする(ステップS2)。
車両C1からのレーダ反射点の情報では、車両C1の正面には、複数のレーダ反射点P1、P2、P3が検出され、車両C1の側面には、複数のレーダ反射点P4、P5、P6、P7が検出される。車両C1の画像では、車両C1の近傍に、複数のレーダ反射点P1〜P7がプロットされる。ここで、図7に示した画像上の位置を実空間内の位置に変換する数式に対して、逆処理である実空間内の位置を画像上の位置に変換する数式を用いて、複数のレーダ反射点P1〜P7が車両C1の画像上にプロットされる。
車両C1の画像では、反射点プロット部32は、複数のレーダ反射点P1〜P7が路面上にあると仮定する。というのは、複数のレーダ反射点P1〜P7の高さは、レーダ装置1の設置高さの周りで不明である。そこで、複数のレーダ反射点P1〜P7の高さは、路面の高さ(レーダ装置1の設置高さに近い)に等しいと仮定する。
四角錐台検出部33は、画像上でレーダ反射点の近傍でのエッジ解析を実行することにより、画像上で計測対象を縁取る四角錐台を検出する(ステップS3)。
最初の処理では、四角錐台検出部33は、反射点プロット部32が路面上にあると仮定した複数のレーダ反射点P1〜P7に基づいて、画像上で車両C1を縁取る四角錐台Rの底面の辺R1、R2を検出する。具体的には、四角錐台検出部33は、複数のレーダ反射点P1〜P3の近似直線を最小二乗法等により算出し、複数のレーダ反射点P1〜P3の近似直線を四角錐台Rの底面の辺R1として検出する。そして、四角錐台検出部33は、複数のレーダ反射点P4〜P7の近似直線を最小二乗法等により算出し、複数のレーダ反射点P4〜P7の近似直線を四角錐台Rの底面の辺R2として検出する。
このように、車両C1の画像では、複数のレーダ反射点P1〜P7の高さを路面の高さ(レーダ装置1の設置高さに近い)に等しいと仮定することにより、車両C1を縁取る四角錐台Rの底面の辺R1、R2を容易に検出することができる。なお、車両C1の他の位置のエッジ解析と異なり、車両C1の下側のエッジ解析を実行しないのは、車両C1の下側のエッジと路面との間にタイヤの半径程度の高さの空間があり、車両C1の高さを精度高く計測することができないからである(図7の第3式を参照)。
第2の処理では、四角錐台検出部33は、四角錐台Rの底面の二辺R1、R2の交点から画像上の高さ方向に延伸する直線に基づいて、四角錐台Rの正面と側面との境界の辺R3を検出する。
第3の処理では、四角錐台検出部33は、四角錐台Rの底面の辺R1、R2から画像上の高さ方向の所定距離でのエッジ解析を実行することにより、四角錐台Rの上面の辺R4、R5を検出する。
具体的には、四角錐台検出部33は、レーダ装置1から車両C1までの距離が近いほど、エッジ解析を実行する画像上の高さ方向の所定距離の範囲y[pix]を広くし、レーダ装置1から車両C1までの距離が遠いほど、エッジ解析を実行する画像上の高さ方向の所定距離の範囲y[pix]を狭くする。ここで、辺R4、R5を検出するためのエッジ解析範囲E4、E5の最小高さは、例えば現行軽自動車の最小高さ及び図7に示した第3の座標変換式に基づいて設定され、エッジ解析範囲E4、E5の最大高さは、法律で定められた最大高さ規制及び図7に示した第3の座標変換式に基づいて設定される。
そして、四角錐台検出部33は、エッジ解析範囲E4、E5のみにおいて、幅方向に長いエッジを検出するCanny法等を適用することにより、四角錐台Rの上面の辺R4、R5を容易に検出することができる。なお、四角錐台検出部33は、エッジ解析範囲E4、E5のみにおいて、様々な幅座標位置で高さ方向に輝度勾配を計測することにより、四角錐台Rの上面の辺R4、R5を検出することもできる。
第4の処理では、四角錐台検出部33は、四角錐台Rの正面と側面との境界の辺R3から画像上の幅方向の所定距離でのエッジ解析を実行することにより、四角錐台Rの正面の四辺のうち、四角錐台Rの正面と側面との境界の辺R3と向かい合う辺R6を検出する。
具体的には、四角錐台検出部33は、レーダ装置1から車両C1までの距離が近いほど、エッジ解析を実行する画像上の幅方向の所定距離の範囲x[pix]を広くし、レーダ装置1から車両C1までの距離が遠いほど、エッジ解析を実行する画像上の幅方向の所定距離の範囲x[pix]を狭くする。ここで、辺R6を検出するためのエッジ解析範囲E6の最小幅座標は、例えば現行軽自動車の最小幅及び図7に示した第2の座標変換式に基づいて設定され、エッジ解析範囲E6の最大幅座標は、法律で定められた最大幅規制及び図7に示した第2の座標変換式に基づいて設定される。
そして、四角錐台検出部33は、エッジ解析範囲E6のみにおいて、高さ方向に長いエッジを検出するCanny法等を適用することにより、四角錐台Rの正面と側面との境界の辺R3と向かい合う辺R6を容易に検出することができる。なお、四角錐台検出部33は、エッジ解析範囲E6のみにおいて、様々な高さ座標位置で幅方向に輝度勾配を計測することにより、四角錐台Rの正面の他辺R6を検出することもできる。
最後の処理では、四角錐台検出部33は、車両C1の最前方のレーダ反射点P7から画像上の奥行方向の所定距離でのエッジ解析を実行することにより、四角錐台Rの側面の四辺のうち、四角錐台Rの正面と側面との境界の辺R3と向かい合う辺R7を検出する。
具体的には、四角錐台検出部33は、レーダ装置1から車両C1までの距離が近いほど、エッジ解析を実行する画像上の奥行方向の所定距離の範囲z[pix]を広くし、レーダ装置1から車両C1までの距離が遠いほど、エッジ解析を実行する画像上の奥行方向の所定距離の範囲z[pix]を狭くする。ここで、辺R7を検出するためのエッジ解析範囲E7の最小奥行及び最大奥行は、辺R7を確実に検出できるように設定される。
そして、四角錐台検出部33は、エッジ解析範囲E7のみにおいて、様々な高さ座標位置で奥行方向に輝度勾配を計測することにより、四角錐台Rの正面と側面との境界の辺R3と向かい合う辺R7を確実に検出することができる。なお、四角錐台検出部33は、エッジ解析範囲E7のみにおいて、高さ方向に長いエッジを検出するCanny法等を適用することにより、四角錐台Rの側面の他辺R7を検出することもできる。
(対象輪郭検出の処理内容)
対象輪郭検出部34は、画像上で四角錐台の各面内でのエッジ解析を実行することにより、画像上で計測対象の輪郭を検出する(ステップS4)。具体的には、対象輪郭検出部34は、計測対象の輪郭線分を計測対象の輪郭点群に変換する。
本開示の第1の対象輪郭検出の処理内容を図5に示す。まず、対象輪郭検出部34は、四角錐台Rの各面を複数のグリッドに分割する。図5の上段の左欄から図5の上段の中欄にかけて、四角錐台Rの正面及び側面は、それぞれ5×5のグリッドに分割されている。なお、グリッド分割数については、図13〜17を用いて後述する。
次に、対象輪郭検出部34は、各々のグリッド内でエッジ解析を実行し、各々のグリッド内で車両C1の輪郭の一部を検出する。図5の上段の右欄では、四角錐台Rの正面の左上の1グリッドにおいて、背景除去及び強調処理が実行された後に、エッジ解析が実行されており、車両C1の正面の左上の輪郭が検出されている。なお、エッジ解析は、Canny法等を適用することにより実行されてもよく、輝度勾配を計測することにより実行されてもよく、サブピクセルレベルで曲線状のエッジを検出するように実行されてもよい。
次に、対象輪郭検出部34は、各々のグリッド内で車両C1の輪郭の一部を代表点に変換する。図5の下段の左欄では、四角錐台Rの正面の左上の1グリッドにおいて、車両C1の正面の左上の輪郭が代表点に変換されている。なお、代表点として、車両C1の輪郭の一部について、多角形の重心であってもよく、線分の中心であってもよい。また、代表点の個数は、各々のグリッド内において、単数であってもよく、複数であってもよい。
図5の説明では、各々のグリッド内でのエッジ解析、輪郭検出及び代表点変換について、簡素なシリアル処理を実行しているが、高速なパラレル処理を実行してもよい。
このように、計測対象の外縁・面内輪郭が計測対象全体では複雑な形状であっても、各々のグリッド内では単純な形状であるため、各々のグリッド内で計測対象の外縁・面内輪郭を計測対象の輪郭点群に容易に変換することができる。さらに、計測対象の外縁・面内輪郭が計測対象全体では複雑な形状であっても、各々のグリッド内では単純な形状であるため、各々のグリッド内で計測対象の外縁・面内輪郭を容易に検出することができる。
本開示の第2の対象輪郭検出の処理内容を図6に示す。まず、対象輪郭検出部34は、四角錐台Rの各面内でエッジ解析を実行し、四角錐台Rの各面内で車両C1の輪郭を検出する。図6の上段の左欄から図6の上段の右欄にかけて、四角錐台Rの正面及び側面において、背景除去及び強調処理が実行された後に、エッジ解析が実行されており、車両C1の正面及び側面の輪郭が検出されている。なお、エッジ解析は、Canny法等を適用することにより実行されてもよく、輝度勾配を計測することにより実行されてもよく、サブピクセルレベルで曲線状のエッジを検出するように実行されてもよい。
次に、対象輪郭検出部34は、四角錐台Rの各面を複数のグリッドに分割する。図6の下段の左欄では、四角錐台Rの正面及び側面は、それぞれ5×5のグリッドに分割されている。なお、グリッド分割数については、図13〜17を用いて後述する。
次に、対象輪郭検出部34は、各々のグリッド内で車両C1の輪郭の一部を代表点に変換する。図6の下段の右欄では、四角錐台Rの正面及び側面のグリッドにおいて、車両C1の正面及び側面の輪郭が代表点に変換されている。なお、代表点として、車両C1の輪郭の一部について、多角形の重心であってもよく、線分の中心であってもよい。また、代表点の個数は、各々のグリッド内において、単数であってもよく、複数であってもよい。
図6の説明では、各々のグリッド内での代表点変換について、簡素なシリアル処理を実行してもよく、高速なパラレル処理を実行してもよい。
このように、計測対象の外縁・面内輪郭が計測対象全体では複雑な形状であっても、各々のグリッド内では単純な形状であるため、各々のグリッド内で計測対象の外縁・面内輪郭を計測対象の輪郭点群に容易に変換することができる。さらに、計測対象の外縁・面内輪郭が計測対象一部に直線的な部分を含むならば、四角錐台の各面内での粗いエッジ解析で足り、四角錐台の各面内で計測対象の外縁・面内輪郭を高速で検出することができる。
本開示の位置変換の処理内容を図7に示す。位置変換部35は、画像上の計測対象の輪郭の位置を実空間内の位置に変換する(ステップS5)。具体的には、位置変換部35は、各々のグリッド内で代表点の位置を実空間内の位置に変換する。
辺R1、R6の交点の座標を、画像上で(x[pix]、y[pix])とし、実空間内で(X[m]、Y[m]、Z[m])とする。辺R2、R7の交点の座標を、画像上で(x[pix]、y[pix])とし、実空間内で(X[m]、Y[m]、Z[m])とする。辺R1、R2、R3の交点の座標を、画像上で(x[pix]、y[pix])とし、実空間内で(X[m]、Y[m]、Z[m])とする。辺R3、R4、R5の交点の座標を、画像上で(x[pix]、y[pix])とし、実空間内で(X[m]、Y[m]、Z[m])とする。辺R4、R6の交点の座標を、画像上で(x[pix]、y[pix])とし、実空間内で(X[m]、Y[m]、Z[m])とする。辺R5、R7の交点の座標を、画像上で(x[pix]、y[pix])とし、実空間内で(X[m]、Y[m]、Z[m])とする。各々のグリッド内の代表点の座標を、画像上で(x[pix]、y[pix])とし、実空間内で(X[m]、Y[m]、Z[m])とする。画像の消失点V(例えば、辺R2、R5の延長線の交点、又は、複数の白線Lの延長線の交点)の座標を、画像上で(x[pix]、y[pix])とする。
〜x、xをxで代表し、y〜y、yをyで代表し、X〜X、XをXで代表し、Y〜Y、YをYで代表し、Z〜Z、ZをZで代表する。画像上での座標(x[pix]、y[pix])は、実空間内での座標(X[m]、Y[m]、Z[m])に、以下の数式により変換される。なお、各々のグリッド内の代表点の実空間内での座標(X[m]、Y[m]、Z[m])は、以下の数式により計測されてもよく、各辺R1〜R7の交点の画像上及び実空間内での座標の内挿補間により計測されてもよい。
Z[m]=(焦点距離[mm]×高さ方向の画素数[pix]×センサの設置高さ[cm])/((y[pix]−y[pix])×センササイズ[mm]×100)
X[m]=(x[pix]−x[pix])×Z[m]での解像度[m/pix]
Y[m]=(y[pix]−y[pix])×Z[m]での解像度[m/pix]
(対象位置計測システムのまとめ)
以上に説明したように、レーダ装置1及び撮像装置2を併用することにより、計測対象の幅X[m]、奥行Z[m]及び高さY[m]といった三次元情報を計測することができる。そして、計測対象の外縁輪郭のみならず計測対象の面内輪郭を検出することにより、擦れ違い及び擦り抜け等の自動運転に対応可能な周辺環境認識を行うことができる。
さらに、計測対象の外縁・面内輪郭を計測対象の輪郭点群に変換することにより、LiDAR等により生成された三次元環境地図等の静的情報に対して、本開示の技術により生成された車両及び歩行者等の動的情報をプロットすることができる。そして、計測対象の外縁・面内輪郭を計測対象の輪郭点群に変換することにより、輪郭点群と対象種類との対応関係を機械学習しやすくなり、対象種類及び距離・速度の情報を生成しやすくなる。
なお、計測対象の幅X[m]及び奥行Z[m]といった二次元情報を計測するのみであるレーダに代えて、計測対象の幅X[m]、奥行Z[m]及び高さY[m]といった三次元情報を計測することができるレーダを用いてもよい。
また、計測対象の幅x[pix]及び高さy[pix]といった二次元情報を計測するのみである単眼カメラに代えて、計測対象の幅x[pix]、高さy[pix]及び奥行z[pix]といった三次元情報を計測することができるステレオカメラを用いてもよい。
(輪郭点群の検出結果)
本開示の1台の車両の輪郭点群の検出結果を図8に示す。まず、車両C1について、四角錐台Rが検出されている。次に、四角錐台Rの正面及び側面において、輪郭点群が検出されている。そして、車両C1について、外縁及び窓枠等の輪郭が再現されている。
本開示の1人の歩行者の輪郭点群の検出結果を図9に示す。まず、歩行者Pについて、四角錐台Rが検出されている。次に、四角錐台Rの正面において、輪郭点群が検出されている。そして、歩行者Pについて、手足及び胴体等の輪郭が再現されている。
本開示の3台の車両の画像を図10に示す。以下では、1台の車両C1のみならず、3台の車両C4、C5、C6についても、外縁及び窓枠等の輪郭が再現されるか調べた。
本開示の3台の車両の輪郭点群の検出結果を図11に示す。図11の上段では、左側から見た車両C4、C5、C6の輪郭点群の検出結果を示す。図11の下段では、右側から見た車両C4、C5、C6の輪郭点群の検出結果を示す。レーダ装置1から近距離かつ自車と隣接車線の車両C4、C6について、四角錐台の正面及び側面において、外縁及び窓枠等の輪郭が再現されている。レーダ装置1から遠距離かつ自車と同一車線の車両C5について、四角錐台の正面において、外縁及び窓枠等の輪郭が再現されている。
従来技術及び本開示の輪郭点群の検出結果を図12に示す。図12の上段では、レーザを適用するLiDARを用いた車両C4、C5、C6の輪郭点群の検出結果を示す。図12の下段では、レーダ及び画像を統合する本開示の発明を用いた車両C4、C5、C6の輪郭点群の検出結果を示す。LiDARを用いたときには、車両C4、C5、C6について、外縁及び窓枠等の輪郭が再現される精度が低い。本開示の発明を用いたときには、車両C4、C5、C6について、外縁及び窓枠等の輪郭が再現される精度が高い。
(グリッド分割数の設定方法)
本開示の様々なグリッド分割数での輪郭点群の検出結果を図13に示す。まず、車両C1について、四角錐台Rが検出されている。次に、四角錐台Rの正面及び側面において、輪郭点群が検出されている。そして、車両C1について、外縁及び窓枠等の輪郭が再現されている。ただし、四角錐台Rの各面でのグリッド分割数に応じて、外縁及び窓枠等の輪郭が再現される精度が変わる。まず、四角錐台Rの各面でのグリッド分割数が縦5×横5であるときには、外縁及び窓枠等の輪郭が再現される精度が低い。次に、四角錐台Rの各面でのグリッド分割数が縦10×横10であるときには、外縁及び窓枠等の輪郭が再現される精度が中程度である。そして、四角錐台Rの各面でのグリッド分割数が縦20×横20であるときには、外縁及び窓枠等の輪郭が再現される精度が高い。
そこで、対象輪郭検出部34は、レーダ装置1及び撮像装置2を搭載する自車から見た計測対象の危険度に応じて、四角錐台Rの各面を分割するグリッドの個数を設定する。例えば、計測対象の危険度が高ければ、四角錐台Rの各面を分割するグリッドの個数を多くすることにより、計測対象の輪郭点群を詳細に検出することができ、擦れ違い及び擦り抜け等の自動運転に対応可能な周辺環境認識を行うことができる。一方で、計測対象の危険度が低ければ、四角錐台Rの各面を分割するグリッドの個数を少なくすることにより、計測対象の輪郭点群を高速で検出することができ、危険度が低い計測対象について計測対象の輪郭点群の詳細検出を無駄に行わないことができる。
本開示の第1のグリッド分割数の設定方法を図14に示す。対象輪郭検出部34は、レーダ装置1により計測された自車と計測対象との間の距離に応じて、四角錐台Rの各面を分割するグリッドの個数を設定する。図14の左欄では、自車である車両C7と他車である車両C8との間の距離が短いため、自車である車両C7が他車である車両C8と衝突する可能性が高くなり、四角錐台Rの各面を分割するグリッドの個数を多くする(例えば、縦5×横5)。図14の右欄では、自車である車両C7と他車である車両C8との間の距離が長いため、自車である車両C7が他車である車両C8と衝突する可能性が低くなり、四角錐台Rの各面を分割するグリッドの個数を少なくする(例えば、縦3×横3)。このように、自車と計測対象との間の距離に基づいて、計測対象の危険度を判定することができ、計測対象の輪郭点群の検出精度を設定することができる。
本開示の第2のグリッド分割数の設定方法を図15に示す。対象輪郭検出部34は、レーダ装置1により計測された自車と計測対象との間の進行速度差に応じて、四角錐台Rの各面を分割するグリッドの個数を設定する。図15の左欄では、自車である高速の車両C7が他車である低速の車両C8を追うため、自車である車両C7が他車である車両C8と衝突する可能性が高くなり、四角錐台Rの各面を分割するグリッドの個数を多くする(例えば、縦5×横5)。図15の右欄では、自車である車両C7が他車である同程度の速度の車両C8を追うため、自車である車両C7が他車である車両C8と衝突する可能性が低くなり、四角錐台Rの各面を分割するグリッドの個数を少なくする(例えば、縦3×横3)。このように、自車と計測対象との間の進行速度差に基づいて、計測対象の危険度を判定することができ、計測対象の輪郭点群の検出精度を設定することができる。
本開示の第3のグリッド分割数の設定方法を図16に示す。対象輪郭検出部34は、レーダ装置1により計測された自車と計測対象との間の進行方向差に応じて、四角錐台Rの各面を分割するグリッドの個数を設定する。図16の左欄では、自車である車両C7がある交差点に向かうとともに、他車である車両C8もその交差点に向かうため、自車である車両C7が他車である車両C8と衝突する可能性が高くなり、四角錐台Rの各面を分割するグリッドの個数を多くする(例えば、縦5×横5)。図16の右欄では、自車である車両C7がある交差点に向かっているが、他車である車両C8がその交差点から離れるため、自車である車両C7が他車である車両C8と衝突する可能性が低くなり、四角錐台Rの各面を分割するグリッドの個数を少なくする(例えば、縦3×横3)。このように、自車と計測対象との間の進行方向差に基づいて、計測対象の危険度を判定することができ、計測対象の輪郭点群の検出精度を設定することができる。
本開示の第4のグリッド分割数の設定方法を図17に示す。対象輪郭検出部34は、レーダ装置1により計測された自車の計測対象への接近時間に応じて、四角錐台Rの各面を分割するグリッドの個数を設定する。図17の左欄では、自車である車両C7と他車である車両C8との間の距離が短く、自車である高速の車両C7が他車である低速の車両C8を追い、自車である車両C7が他車である車両C8に接近する時間が短いため、自車である車両C7が他車である車両C8と衝突する可能性が高くなり、四角錐台Rの各面を分割するグリッドの個数を多くする(例えば、縦5×横5)。図17の右欄では、自車である車両C7と他車である車両C8との間の距離が長く、自車である車両C7が他車である同程度の速度の車両C8を追い、自車である車両C7が他車である車両C8に接近する時間が長いため、自車である車両C7が他車である車両C8と衝突する可能性が低くなり、四角錐台Rの各面を分割するグリッドの個数を少なくする(例えば、縦3×横3)。このように、自車の計測対象への接近時間に基づいて、計測対象の危険度を判定することができ、計測対象の輪郭点群の検出精度を設定することができる。
本開示の対象位置計測装置及び対象位置計測プログラムは、ミリ波レーダ等及び単眼カメラ等を併用することにより、計測対象の三次元情報を計測することができる。
S:対象位置計測システム
C1、C2、C3、C4、C5、C6、C7、C8:車両
P:歩行者
L:白線
A:アンテナ
P1、P2、P3、P4、P5、P6、P7:レーダ反射点
R:四角錐台
R1、R2、R3、R4、R5、R6、R7:辺
E4、E5、E6、E7:エッジ解析範囲
V:消失点
1:レーダ装置
2:撮像装置
3:対象位置計測装置
31:計測対象取得部
32:反射点プロット部
33:四角錐台検出部
34:対象輪郭検出部
35:位置変換部

Claims (9)

  1. 計測対象についてレーダ反射点の情報及び画像を取得する計測対象取得部と、
    前記画像上で前記レーダ反射点をプロットする反射点プロット部と、
    前記画像上で前記レーダ反射点の近傍でのエッジ解析を実行することにより、前記画像上で前記計測対象を縁取る四角錐台を検出する四角錐台検出部と、
    前記画像上で前記四角錐台の各面内でのエッジ解析を実行することにより、前記画像上で前記計測対象の輪郭を検出する対象輪郭検出部と、
    前記画像上の前記計測対象の輪郭の位置を実空間内の位置に変換する位置変換部と、
    を備えることを特徴とする対象位置計測装置。
  2. 前記対象輪郭検出部は、前記四角錐台の各面を複数のグリッドに分割し、各々のグリッド内でエッジ解析を実行し、各々のグリッド内で前記計測対象の輪郭の一部を検出し、各々のグリッド内で前記計測対象の輪郭の一部を代表点に変換し、
    前記位置変換部は、各々のグリッド内で前記代表点の位置を実空間内の位置に変換する
    ことを特徴とする、請求項1に記載の対象位置計測装置。
  3. 前記対象輪郭検出部は、前記四角錐台の各面内でエッジ解析を実行し、前記四角錐台の各面内で前記計測対象の輪郭を検出し、前記四角錐台の各面を複数のグリッドに分割し、各々のグリッド内で前記計測対象の輪郭の一部を代表点に変換し、
    前記位置変換部は、各々のグリッド内で前記代表点の位置を実空間内の位置に変換する
    ことを特徴とする、請求項1に記載の対象位置計測装置。
  4. 前記対象輪郭検出部は、レーダ装置及び撮像装置を搭載する自車から見た前記計測対象の危険度に応じて、前記四角錐台の各面を分割するグリッドの個数を設定する
    ことを特徴とする、請求項2又は3に記載の対象位置計測装置。
  5. 前記対象輪郭検出部は、前記レーダ装置により計測された前記自車と前記計測対象との間の距離に応じて、前記四角錐台の各面を分割するグリッドの個数を設定する
    ことを特徴とする、請求項4に記載の対象位置計測装置。
  6. 前記対象輪郭検出部は、前記レーダ装置により計測された前記自車と前記計測対象との間の進行速度差に応じて、前記四角錐台の各面を分割するグリッドの個数を設定する
    ことを特徴とする、請求項4又は5に記載の対象位置計測装置。
  7. 前記対象輪郭検出部は、前記レーダ装置により計測された前記自車と前記計測対象との間の進行方向差に応じて、前記四角錐台の各面を分割するグリッドの個数を設定する
    ことを特徴とする、請求項4から6のいずれかに記載の対象位置計測装置。
  8. 前記対象輪郭検出部は、前記レーダ装置により計測された前記自車の前記計測対象への接近時間に応じて、前記四角錐台の各面を分割するグリッドの個数を設定する
    ことを特徴とする、請求項4から7のいずれかに記載の対象位置計測装置。
  9. 計測対象についてレーダ反射点の情報及び画像を取得する計測対象取得ステップと、
    前記画像上で前記レーダ反射点をプロットする反射点プロットステップと、
    前記画像上で前記レーダ反射点の近傍でのエッジ解析を実行することにより、前記画像上で前記計測対象を縁取る四角錐台を検出する四角錐台検出ステップと、
    前記画像上で前記四角錐台の各面内でのエッジ解析を実行することにより、前記画像上で前記計測対象の輪郭を検出する対象輪郭検出ステップと、
    前記画像上の前記計測対象の輪郭の位置を実空間内の位置に変換する位置変換ステップと、
    を順にコンピュータに実行させるための対象位置計測プログラム。
JP2018109794A 2018-06-07 2018-06-07 対象位置計測装置及び対象位置計測プログラム Active JP7074571B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018109794A JP7074571B2 (ja) 2018-06-07 2018-06-07 対象位置計測装置及び対象位置計測プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018109794A JP7074571B2 (ja) 2018-06-07 2018-06-07 対象位置計測装置及び対象位置計測プログラム

Publications (2)

Publication Number Publication Date
JP2019211403A true JP2019211403A (ja) 2019-12-12
JP7074571B2 JP7074571B2 (ja) 2022-05-24

Family

ID=68846656

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018109794A Active JP7074571B2 (ja) 2018-06-07 2018-06-07 対象位置計測装置及び対象位置計測プログラム

Country Status (1)

Country Link
JP (1) JP7074571B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021135061A (ja) * 2020-02-21 2021-09-13 Jrcモビリティ株式会社 3次元情報推定システム、3次元情報推定方法、及びコンピュータが実行可能なプログラム
WO2022162766A1 (ja) * 2021-01-27 2022-08-04 オリンパス株式会社 情報処理システム、内視鏡システム、情報処理方法及びアノテーションデータ生成方法
CN115639536A (zh) * 2022-11-18 2023-01-24 陕西欧卡电子智能科技有限公司 基于多传感器融合的无人船感知目标检测方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009223504A (ja) * 2008-03-14 2009-10-01 Omron Corp 車両検出装置および方法、並びに、プログラム
JP2010250651A (ja) * 2009-04-17 2010-11-04 Toyota Motor Corp 車両検出装置
JP2012243048A (ja) * 2011-05-19 2012-12-10 Fuji Heavy Ind Ltd 環境認識装置および環境認識方法
JP2016065721A (ja) * 2014-09-22 2016-04-28 公益財団法人鉄道総合技術研究所 障害物検知システム、判定装置、判定方法およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009223504A (ja) * 2008-03-14 2009-10-01 Omron Corp 車両検出装置および方法、並びに、プログラム
JP2010250651A (ja) * 2009-04-17 2010-11-04 Toyota Motor Corp 車両検出装置
JP2012243048A (ja) * 2011-05-19 2012-12-10 Fuji Heavy Ind Ltd 環境認識装置および環境認識方法
JP2016065721A (ja) * 2014-09-22 2016-04-28 公益財団法人鉄道総合技術研究所 障害物検知システム、判定装置、判定方法およびプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021135061A (ja) * 2020-02-21 2021-09-13 Jrcモビリティ株式会社 3次元情報推定システム、3次元情報推定方法、及びコンピュータが実行可能なプログラム
JP7461160B2 (ja) 2020-02-21 2024-04-03 Jrcモビリティ株式会社 3次元情報推定システム、3次元情報推定方法、及びコンピュータが実行可能なプログラム
WO2022162766A1 (ja) * 2021-01-27 2022-08-04 オリンパス株式会社 情報処理システム、内視鏡システム、情報処理方法及びアノテーションデータ生成方法
CN115639536A (zh) * 2022-11-18 2023-01-24 陕西欧卡电子智能科技有限公司 基于多传感器融合的无人船感知目标检测方法及装置

Also Published As

Publication number Publication date
JP7074571B2 (ja) 2022-05-24

Similar Documents

Publication Publication Date Title
CN107272021B (zh) 使用雷达和视觉定义的图像检测区域的对象检测
US9064418B2 (en) Vehicle-mounted environment recognition apparatus and vehicle-mounted environment recognition system
CN102248947B (zh) 使用3-d激光测距仪的目标和车辆检测及跟踪
JP6274557B2 (ja) 移動面情報検出装置、及びこれを用いた移動体機器制御システム並びに移動面情報検出用プログラム
JP6733225B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP6150164B2 (ja) 情報検出装置、移動体機器制御システム、移動体及び情報検出用プログラム
JP2015207281A (ja) 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
JP6743882B2 (ja) 画像処理装置、機器制御システム、撮像装置、画像処理方法及びプログラム
JP7074571B2 (ja) 対象位置計測装置及び対象位置計測プログラム
JP2002352225A (ja) 障害物検出装置及びその方法
CN101750049A (zh) 基于道路和车辆自身信息的单目视觉车距测量方法
CN105206109A (zh) 一种基于红外ccd的车辆雾天识别预警系统及方法
WO2017130640A1 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP6687039B2 (ja) 物体検出装置、機器制御システム、撮像装置、物体検出方法、及びプログラム
EP3549056B1 (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and computer program product
JPWO2017154389A1 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
CN111046719A (zh) 用于转换图像的设备和方法
JP2018025906A (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP2023184572A (ja) 電子機器、移動体、撮像装置、および電子機器の制御方法、プログラム、記憶媒体
JP6340849B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム、及び移動体機器制御システム
CN114842166A (zh) 应用于结构化道路的负障碍检测方法、系统、介质及设备
Leu et al. High speed stereo vision based automotive collision warning system
KR102003387B1 (ko) 조감도 이미지를 이용한 교통 장애물의 검출 및 거리 측정 방법, 교통 장애물을 검출하고 거리를 측정하는 프로그램을 저장한 컴퓨터 판독가능 기록매체
JP2017211791A (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
EP3287948B1 (en) Image processing apparatus, moving body apparatus control system, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210601

A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20210601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220512

R150 Certificate of patent or registration of utility model

Ref document number: 7074571

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150