JP2023131274A - 物体位置検出装置 - Google Patents

物体位置検出装置 Download PDF

Info

Publication number
JP2023131274A
JP2023131274A JP2022035918A JP2022035918A JP2023131274A JP 2023131274 A JP2023131274 A JP 2023131274A JP 2022035918 A JP2022035918 A JP 2022035918A JP 2022035918 A JP2022035918 A JP 2022035918A JP 2023131274 A JP2023131274 A JP 2023131274A
Authority
JP
Japan
Prior art keywords
image
information
detection
unit
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022035918A
Other languages
English (en)
Other versions
JP7214024B1 (ja
Inventor
元気 田中
Genki Tanaka
琢也 谷口
Takuya Taniguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2022035918A priority Critical patent/JP7214024B1/ja
Priority to US18/095,231 priority patent/US20230289994A1/en
Application granted granted Critical
Publication of JP7214024B1 publication Critical patent/JP7214024B1/ja
Priority to DE102023200930.7A priority patent/DE102023200930B4/de
Publication of JP2023131274A publication Critical patent/JP2023131274A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】床面の高さが様々に変化する地形でも、物体の誤検出を抑制しつつ、路側監視カメラにより撮像された画像から、実世界における物体の位置を精度よく算出することができる物体位置検出装置を提供する。【解決手段】物体情報マップデータから、物体の画像内の位置に対応する画像領域の座標変換式を取得して、物体の画像内の位置を実世界座標の位置に変換し、物体情報マップデータから、物体の画像内の位置及び物体種別に対応する画像領域のサイズの制限情報及び存在の可能性情報を取得して、物体の誤検出の有無を判定し、誤検出が無い物体の実世界座標の位置を外部に配信する物体位置検出装置。【選択図】図1

Description

この本願は、物体位置検出装置に関するものである。
特定領域での自動運転の実現のため、領域内の物体を検知して車両、人、ダイナミックマップ等に物体情報を配信する路側機を路上に設置することが検討されている。路側機には、カメラ、LiDAR等のセンサが搭載されており、センサの検知情報に対して各種の処理を行って、物体を検出し、検出した物体の実世界における位置情報を算出し配信する。
ここで、カメラで撮像した画像から検出した物体の位置を算出するためには、カメラのキャリブレーションを行い、5点アルゴリズム等でカメラの位置及び向き等の較正パラメータの算出を行う必要がある。
例えば、特許文献1においては、複数センサ間の相対位置及び姿勢を算出することで複数センサの較正を簡易に行うことと、LiDAR等のセンサによって得られる距離情報を使用し、床面の高さ情報を補正することで物体位置の算出精度を向上させることが提案されている。
特開2021-117087号公報
しかし、上記のような方法で正しく較正が行われたとしても、画像処理における物体の誤検知(存在しない物体を検出する)、物体の未検出(存在する物体を検出できない)を完全に防ぐことはできず、一定の確率で誤って検出された物体情報が配信される。
例えば、検出対象の物体が存在し得ない画像の領域に、物体が誤検出されたり、カメラからの距離を考えると、通常あり得ないサイズの物体が誤検出されたりする。
また、距離情報が得られない単眼カメラのみを使用する場合には、通常、同一平面を仮定して、画像内の物体位置から実世界における位置への変換が行われるため、床面の高さが様々に変化する地形では位置算出精度が悪化する。
そこで、床面の高さが様々に変化する地形でも、物体の誤検出を抑制しつつ、路側監視カメラにより撮像された画像から、実世界における物体の位置を精度よく算出することができる物体位置検出装置を提供することを目的とする。
本願に係る物体位置検出装置は、
路側に設置され、道路状況を監視する路側監視カメラから画像を取得する画像取得部と、
前記画像に含まれる物体及び物体種別を検出する物体検出部と、
画像内の位置から実世界座標の位置への座標変換式と、前記物体種別ごとの画像上でのサイズの制限情報と、前記物体種別ごとの物体の存在の可能性情報とが、分割された画像領域ごとに設定された物体情報マップデータを記憶したマップ記憶部と、
前記物体情報マップデータから、検出された前記物体の画像内の位置に対応する前記画像領域の前記座標変換式を取得し、取得した前記座標変換式を用いて、検出された前記物体の画像内の位置を前記実世界座標の位置に変換する物体位置算出部と、
前記物体情報マップデータから、検出された前記物体の画像内の位置及び検出された前記物体種別に対応する前記画像領域の前記サイズの制限情報及び前記物体の存在の可能性情報を取得し、取得した情報及び検出された前記物体の画像上のサイズに基づいて、前記物体の誤検出の有無を判定する誤検出判定部と、
誤検出が無いと判定された前記物体の前記実世界座標の位置及び前記物体種別を外部に配信する位置出力部と、
を備えたものである。
本願に係る物体位置検出装置によれば、物体情報マップデータから、検出された物体の画像内の位置に対応する画像領域の座標変換式を取得し、取得した座標変換式を用いて、検出された物体の画像内の位置が実世界座標の位置に変換される。よって、各画像領域において、床面の高さが様々に変わるような地形についても、各画像領域の床面の高さに対応した座標変換式を用いて、精度よく位置変換を行うことができる。また、物体情報マップデータから、検出された物体の画像内の位置及び検出された物体種別に対応する画像領域のサイズの制限情報及び物体の存在の可能性情報を取得し、取得した情報、及び検出された物体の画像上のサイズに基づいて、物体の誤検出の有無が判定される。よって、各画像領域の各物体種別の物体の存在の可能性情報を用いているので、物体が存在する可能性がない画像領域において、物体が誤検出されることを抑制できる。また、各画像領域の各物体種別のサイズの制限情報を用いているので、路側監視カメラから各画像領域の物体までの距離、及び物体種別を考えると、通常あり得ないサイズの物体が誤検出されることを抑制できる。よって、床面の高さが様々に変化する地形でも、物体の誤検出を抑制しつつ、路側監視カメラにより撮像された画像から、実世界における物体の位置を精度よく算出することができる。
実施の形態1に係る物体位置検出装置の概略構成図である。 実施の形態1に係る物体位置検出装置の概略ハードウェア構成図である。 実施の形態1に係る路側監視カメラにより撮像される実世界の床面の範囲を説明するための図である。 実施の形態1に係る路側監視カメラにより撮像された画像を説明するための図である。 実施の形態1に係る物体情報マップデータの設定を説明するための図である。 実施の形態1に係る座標変換式の作成及び設定を説明するための図である。 実施の形態1に係る物体位置検出装置の処理を説明するためのフローチャートである。 実施の形態2に係る物体位置検出装置の概略構成図である。 実施の形態2に係る画像の切り出しを説明するための図である。 実施の形態2に係る物体位置検出装置の処理を説明するためのフローチャートである。 実施の形態3に係る物体位置検出装置の概略構成図である。 実施の形態3に係る物体位置検出装置の処理を説明するためのフローチャートである。
1.実施の形態1
実施の形態1に係る物体位置検出装置1について図面を参照して説明する。図1に、物体位置検出装置1及び物体位置検出システム10の概略構成図を示す。
物体位置検出システム10は、物体位置検出装置1及び路側監視カメラ50を備えている。路側監視カメラ50は、路側に設置され、道路状況を監視する監視カメラである。例えば、路側監視カメラ50は、路側機に設けられる。路側監視カメラ50により撮像された画像データは、物体位置検出装置1に入力される。路側監視カメラ50と物体位置検出装置1との間は、無線通信又は有線通信によりデータ通信可能に接続されている。
物体位置検出装置1は、画像取得部31、物体検出部32、マップ記憶部33、物体位置算出部34、誤検出判定部35、及び位置出力部36等の機能部を備えている。物体位置検出装置1の各機能は、物体位置検出装置1が備えた処理回路により実現される。具体的には、図2に示すように、物体位置検出装置1は、CPU(Central Processing Unit)等の演算処理装置90、記憶装置91、演算処理装置90に外部の信号を入出力する入出力装置92等を備えている。
演算処理装置90として、ASIC(Application Specific Integrated Circuit)、IC(Integrated Circuit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、GPU(Graphics Processing Unit)、各種のAI(Artificial Intelligence)チップ、各種の論理回路、及び各種の信号処理回路等が備えられてもよい。また、演算処理装置90として、同じ種類のもの又は異なる種類のものが複数備えられ、各処理が分担して実行されてもよい。記憶装置91として、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、ハードディスク等の各種の記憶装置が用いられる。
入出力装置92には、通信装置、A/D変換器、入出力ポート、駆動回路等が備えられる。入出力装置92は、路側監視カメラ50、外部装置51、ユーザインターフェイス装置52等に接続され、これらの装置と通信を行う。
そして、物体位置検出装置1が備える各機能部31から36等の各機能は、演算処理装置90が、記憶装置91に記憶されたソフトウェア(プログラム)を実行し、記憶装置91及び入出力装置92等の物体位置検出装置1の他のハードウェアと協働することにより実現される。なお、各機能部31から36等が用いる設定データは、EEPROM等の記憶装置91に記憶されている。マップ記憶部33は、EEPROM等の記憶装置91に設けられている。
<路側監視カメラ50>
図3に、路側監視カメラ50により撮像される実世界の床面の範囲を平面視したときのイメージ図を示し、図4に、図3の例において、路側監視カメラ50に撮像された画像のイメージ図を示す。路側監視カメラ50は、路面から一定の高さ(例えば、数m)に設置され、一定の床面の範囲を撮像できるように、カメラの向きが設定されている。
ここで、床面は、路面、地面、建物の床面等の上方を向いている面であり、車両等の物体がその上に位置する面である。
路側監視カメラ50は、例えば、数fps~30fps(frame per second)で撮像し、撮像した画像を、有線通信又は無線通信の各種の通信手段を用いて、物体位置検出装置1(画像取得部31)に送信する。路側監視カメラ50は、通信装置を一体に又は別体に備えている。
<画像取得部31>
画像取得部31は、路側監視カメラ50から画像を取得する。画像取得部31は、有線通信又は無線通信の各種の通信手段を介して、路側監視カメラ50から画像を取得する。物体位置検出装置1は、路側監視カメラ50の近くに配置されなくてもよく、遠隔地に配置され、ネットワーク網を介して路側監視カメラ50と通信を行ってもよい。
<物体検出部32>
物体検出部32は、画像に含まれる物体及び物体種別を検出する。例えば、物体検出部32は、画像に対して、公知の各種の画像処理を行って、物体及びその物体の種別の検出を行う。例えば、画像処理には、パターンマッチング、ニューラルネットワークなどを用いた公知の技術が用いられる。画像に複数の物体が含まれる場合は、複数の物体及びその物体種別が検出され、各物体について後述する処理が実施される。
本実施の形態では、検出対象の物体種別は、車両の自動運転などの道路交通システムの運用に必要になる物体種別(例えば、車両、人等)に設定されている。物体検出部32は、画像に含まれる検出対象の物体種別の物体のみを検出する。検出可能な物体種別及び検出精度は、物体検出部32で用いられる画像処理のアルゴリズム及びモデルに依存する。検出精度がよい場合は、より詳細な情報、例えば、車両の種類、人の種類、他の物体種別などが検出されてもよい。
パターンマッチング、ニューラルネットワークなどを用いた物体検出アルゴリズム(=物体検出モデル)に入力される画像の解像度及び値域は固定されることが一般的なため((例えば(高さ、幅、チャンネル数)=(608、608、3)のサイズで、値域は0~1など))、取得した画像は物体検出モデルの入力に合うよう、縮小及び規格化等の前処理が行われた後、物体検出モデルに入力される。
物体検出部32は、検出した物体が存在する画像上の領域(以下、存在領域と称す)を検出する。例えば、物体の存在領域は、図4に示すように、矩形の領域で検出される。なお、物体の存在領域は、物体の外郭線で検出されたり、ピクセル単位で検出されたり、他の方式で検出されてもよい。
物体検出部32は、物体の存在領域の任意の代表位置を、物体の画像上の位置として設定する。例えば、物体の存在領域の中心位置、物体の床面上の位置に対応する物体の下端の中心位置などが、物体の位置として設定される。
<マップ記憶部33>
マップ記憶部33は、物体情報マップデータを記憶している。マップ記憶部33は、記憶装置91に設けられている。図5に示すように、物体情報マップデータには、画像の範囲が複数の領域に分割された画像領域ごとに、画像内の位置から実世界座標の位置への座標変換式と、物体種別ごとの画像上でのサイズの制限情報と、物体種別ごとの物体の存在の可能性情報とが設定されている。図5には、4つの画像領域について、データの設定例を示している。
例えば、図5に示すように、画像の全領域が、格子状に区切られ、複数の画像領域が設定されている。図5の例では、均等に区切られているが、任意の画像領域の分割パターンが設定されてもよい。例えば、遠方になるに従って、区画線の区切り間隔が狭められてもよい。或いは、道路の形状、同一平面上にある床面の領域の形状、又は床面の種別に合わせて画像領域の区画線が設定されてもよい。また、ピクセル単位で画像領域が設定されてもよい。
各画像領域に設定される座標変換式は、画像上の位置(例えば、ピクセル位置(x、y))から実世界座標の位置((緯度、経度、高さ))に変換する変換式である。例えば、座標変換式は、床面上の位置を相互に変換する変換式とされる。
図6は、座標変換式の作成及び設定を説明するための図である。座標変換式は、画像上のピクセル位置と実世界座標の位置とが1対1に対応づけられるものであればよい。例えば、画像上の4点の位置と、それに対応するGPSで取得した実世界座標の4点の位置との射影変換により座標変換式が作成される。例えば、図6の左図の4つの丸の位置と、右図の4つの丸の位置との射影変換、図6の左図の4つの三角の位置と、右図の4つの三角の位置との写像変換。
射影変換では、4点の位置が同一平面状にあることを仮定して変換が行われる。画像の全領域に対応する実世界の領域内において、同一平面になる床面の領域が複数存在する場合は、同一面になる複数の床面の領域のそれぞれに対応して複数の座標変換式が作成され、複数の座標変換式から、画像領域ごとに位置が対応する座標変換式が選択されて、予め設定される。
すなわち、画像領域ごとの座標変換式は、実世界座標において床面が同一平面上にある画像領域の間では、同じ座標変換式に設定されており、実世界座標において床面が同一平面上にない画像領域の間では、異なる座標変換式に設定されている。
この構成によれば、床面の高さ、傾きが様々に変わるような地形についても、精度よく位置変換を行うことができる。また、同一平面上にある床面ごとに座標変換式を作成すればよいので、各画像領域の座標変換式の設定工数を低減できる。
物体情報マップデータの各画像領域に、物体種別ごとの画像上でのサイズの制限情報が設定される。本実施の形態では、物体種別は、車両の自動運転などの道路交通システムに必要になる物体種別であり、例えば、車両、人が用いられる。なお、物体検出部32の物体検出精度がよい場合は、より詳細な情報、例えば、車両の種類、人の種類、他の物体種別などが制限情報の設定に用いられもよい。
画面上での各物体種別のサイズの制限情報は、画面上の物体の存在領域のサイズ(横幅及び高さ、ピクセル数等)の上限値及び下限値の情報である。すなわち、実世界における車両及び人の大きさの取り得る範囲は、ある程度決まっており(例えば、車両の全長は3m以下、1m以上であり、人の高さは2m以下、50cm以上であるなど)、路側監視カメラ50からの距離が長くなるほど画像上のサイズは小さくなる(おおよそ距離の逆数に比例する)。そこで、画像領域ごとの各物体種別のサイズの制限情報は、実世界座標において路側監視カメラから画像領域の物体までの距離が長くなるに従って、サイズの上限値及び下限値が小さくなるように予め設定されている。後述するように、制限を超えた物体は、誤検出されたと判定できる。
物体情報マップデータの各画像領域に、物体種別ごとの物体の存在の可能性情報が設定されている。物体の存在の可能性情報は、各画像領域に、各物体種別の物体が存在する可能性が有るか無いかの情報である。例えば、空、壁面などの床面以外が映っている領域では、床面上の物体が存在する可能性が低いので、当該領域で車両などの検出対象の物体種別が検出された場合は、誤検出の可能性が高い。耕作地など、通常、車両が走行できない床面が映っている領域では、車両が存在する可能性が低い。一方、路面が映っている領域では、車両、人が存在する可能性が高い。そこで、画像領域ごとの各物体種別の物体の存在の可能性情報は、実世界座標において画像領域に各物体種別の物体が位置できる床面があるか否かに応じて予め設定されている。各物体種別について、実世界座標において物体が位置できる床面がある場合は、物体の存在の可能性があると予め設定され、実世界座標において物体が位置できる床面がない場合は、物体の存在の可能性がないと予め設定されている。
記憶装置91に記憶された物体情報マップデータは、外部から書き換え可能であることが望ましい。これにより、工事などにより、道路形状が変化したり、建物、壁面などの構造物の形状が変化したりした場合に、各画像領域の座標変換式、サイズの制限情報、及び物体の存在の可能性情報を変更することができ、検出精度を維持できる。
<物体位置算出部34>
物体位置算出部34は、物体情報マップデータから、検出された物体の画像内の位置に対応する画像領域の座標変換式を取得し、取得した座標変換式を用いて、検出された物体の画像内の位置を実世界座標の位置に変換する。本実施の形態では、上述したように、画面上の物体の存在領域の代表位置が、物体の画像上の位置として設定されている。
<誤検出判定部35>
誤検出判定部35は、物体情報マップデータから、検出された物体の画像内の位置及び検出された物体種別に対応する画像領域のサイズの制限情報及び物体の存在の可能性情報を取得し、取得した制限情報及び可能性情報、及び検出された物体の画像上のサイズに基づいて、物体の誤検出の有無を判定する。
本実施の形態では、誤検出判定部35は、物体情報マップデータから、検出された物体の画像内の位置及び検出された物体種別に対応する画像領域のサイズの制限情報(上限値及び下限値)の情報を取得する。そして、誤検出判定部35は、画面上の物体の存在領域のサイズ(面積、ピクセル数)が、制限情報(上限値及び下限値)の範囲内であるか否を判定し、範囲内である場合は、制限情報については物体の誤検出が無いと判定し、範囲外である場合は、制限情報については物体の誤検出が有ると判定する。
本実施の形態では、誤検出判定部35は、物体情報マップデータから、検出された物体の画像内の位置及び検出された物体種別に対応する物体の存在の可能性情報を取得する。そして、誤検出判定部35は、取得した情報が物体の存在の可能性が有るという情報である場合は、可能性情報については物体の誤検出が無いと判定し、取得した情報が物体の存在の可能性が無いという情報である場合は、可能性情報については物体の誤検出が有ると判定する。
そして、誤検出判定部35は、制限情報及び可能性情報の一方又は双方について、物体の誤検出が有ると判定した場合は、最終的に、誤検出が有ると判定し、制限情報及び可能性情報の双方について、物体の誤検出が無いと判定した場合は、最終的に、誤検出が無いと判定する。
<位置出力部36>
位置出力部36は、誤検出が無いと判定された物体の実世界座標の位置及び物体種別を外部に配信する。
位置出力部36は、路側監視カメラ50により撮像される実世界の領域の近くに存在する自動運転車両、交通管制システムなどの外部装置51に、無線通信又は有線通信により、誤検出が無い物体の情報を配信する。
なお、位置出力部36は、誤検出が有ると判定された物体の情報を、外部に配信しなくてもよいし、誤検出の可能性が有ることの情報とともに、物体の情報を外部に配信してもよい。
<フローチャート>
以上で説明した物体位置検出装置1の処理を、図7のフローチャートのように構成できる。図7の処理は、例えば、路側監視カメラ50から画像データを取得するごとに実行される。
ステップS01で、上述したように、路側監視カメラ50から画像を取得する。ステップS02で、上述したように、物体検出部32は、画像に含まれる物体及び物体種別を検出する。ステップS03で、上述したように、物体位置算出部34は、マップ記憶部33に記憶された物体情報マップデータから、検出された物体の画像内の位置に対応する画像領域の座標変換式を取得し、取得した座標変換式を用いて、検出された物体の画像内の位置を実世界座標の位置に変換する。
そして、ステップS04で、上述したように、誤検出判定部35は、物体情報マップデータから、検出された物体の画像内の位置及び検出された物体種別に対応する画像領域のサイズの制限情報を取得し、画面上の物体の存在領域のサイズが、制限情報の範囲内であるか否を判定し、範囲内である場合は、ステップS05に進み、範囲外である場合は、ステップS07に進む。
ステップS05で、上述したように、誤検出判定部35は、物体情報マップデータから、検出された物体の画像内の位置及び検出された物体種別に対応する物体の存在の可能性情報を取得し、取得した情報が物体の存在の可能性が有るという情報である場合は、ステップS06に進み、取得した情報が物体の存在の可能性が無いという情報である場合は、ステップS07に進む。
ステップS06で、誤検出判定部35は、検出した物体に誤検出が無いと判定し、ステップS07で、検出した物体に誤検出が有ると判定する。
ステップS08で、上述したように、位置出力部36は、誤検出が無いと判定された物体の実世界座標の位置及び物体種別を外部に配信する。
以上の構成により、物体の誤検知を抑えつつ、床面高さ及び傾きが様々に変化するような地形においても、物体の実世界における位置を精度良く算出し、外部に配信することができる。
2.実施の形態2
実施の形態2に係る物体位置検出装置1について図面を参照して説明する。上記の実施の形態1と同様の構成部分は説明を省略する。本実施の形態に係る物体位置検出装置1の基本の構成は実施の形態1と同様であるが、画像補正部37が備えられている点が実施の形態1と異なる。図8に、物体位置検出装置1及び物体位置検出システム10の概略構成図を示す。
本実施の形態では、物体位置検出装置1は、更に画像補正部37を備えている。画像補正部37は、画像取得部31が取得した画像の一部の領域を切り出す。そして、物体検出部32は、切り出された画像の領域に含まれる物体及び物体種別を検出する。
この構成によれば、取得した画像から、処理が必要な領域を切り出して、処理を行うことができるので、処理負荷を低減できる。
本実施の形態では、画像補正部37は、物体情報マップデータから、各画像領域の物体の存在の可能性情報を取得し、物体の存在の可能性情報に物体の存在の可能性があると設定された画像領域を網羅する矩形の切り出し領域を設定する。そして、画像補正部37は、画像取得部31が取得した画像から、矩形の切り出し領域を切り出す。
図9に画像の切り出しの例を示す。太枠線で囲った領域の外側は、物体の存在の可能性が無いと設定された領域である。よって、太枠線の外側の領域は、物体を検出する必要がなく、太枠線の内側の領域を切り出す構成が考えられる。物体の存在の可能性があると設定された画像領域が網羅されれば、任意のサイズの矩形の切り出し領域が設定されてもよいが、例えば、網羅できる最小サイズの矩形の切り出し領域が設定されればよい。物体情報マップデータは、工事などの環境状況に応じて書き換えることが想定されているため、切り出す領域は、物体情報マップデータの更新のたびに変更されてよい。
前述のように、一般的にニューラルネットワーク等を使用した物体検出モデルは、入力の画像サイズが固定されており入力画像の縮小といった処理をする必要があるため、本実施の形態の構成とすることにより、検知が必要な領域に合わせて物体検出モデルに入力する画像領域を変更でき、画像縮小による解像度の劣化をできるだけ抑えることができ、物体の認識性能の向上が期待できる。
<フローチャート>
図10のフローチャートを用いて、本実施の形態に係る物体位置検出装置1の処理を説明する。実施の形態1の図7のフローチャートに対してステップS12の処理が追加されており、ステップS11、S13からS19の処理は、図7のステップS01からS08の処理と同様であるので説明を省略する。
ステップS12で、上述したように、画像補正部37は、物体情報マップデータから、各画像領域の物体の存在の可能性情報を取得し、物体の存在の可能性情報に物体の存在の可能性があると設定された画像領域を網羅する矩形の切り出し領域を設定する。そして、画像補正部37は、画像取得部31が取得した画像から、矩形の切り出し領域を切り出す。そして、ステップS13で、物体検出部32は、切り出された画像に含まれる物体及び物体種別を検出する。
3.実施の形態3
実施の形態3に係る物体位置検出装置1について図面を参照して説明する。上記の実施の形態1又は2と同様の構成部分は説明を省略する。本実施の形態に係る物体位置検出装置1の基本の構成は実施の形態2と同様であるが、モデル選択部38が備えられている点が実施の形態1と異なる。図11に、物体位置検出装置1及び物体位置検出システム10の概略構成図を示す。
モデル選択部38は、画像補正部37により切り出された画像のサイズに応じて、物体検出部32において物体の検出に使用される物体検出モデルを選択する。
一般的に、物体検出モデルは、入力される画像サイズが大きいほど演算量が大きく、計算に時間がかかるという性質がある。物体検出モデルに入力できる入力画像サイズは固定されていることが一般的なため、画像補正部37から出力された画像サイズが、物体検出モデルに規定された入力画像サイズよりも小さい場合、画像に対し拡大等の処理が行われて、物体検出モデルに入力される。この場合、モデルの検知性能の向上は期待できないが、処理する計算量は増えているため、冗長な計算がされることとなる。
そのため、画像補正部37で切り出した画像サイズが、物体検出部32で使用する物体検出モデルに規定された入力画像サイズよりも小さい場合には、モデル選択部38は、切り出した画像サイズ以下の入力画像サイズが規定された物体検出モデルに切り替える。これにより、計算量的に画像サイズに応じた最適なモデルを使用することが可能となり、演算に必要な計算リソース及び消費電力の抑制が期待できる。
<フローチャート>
図12のフローチャートを用いて、本実施の形態に係る物体位置検出装置1の処理を説明する。実施の形態2の図12のフローチャートに対してステップS23の処理が追加されており、ステップS21、S24からS30の処理は、図7のステップS01からS08の処理と同様であり、ステップS22の処理は、図10のステップS12の処理と同様であるので説明を省略する。
ステップS22で、画像補正部37は、物体情報マップデータから、各画像領域の物体の存在の可能性情報を取得し、物体の存在の可能性情報に物体の存在の可能性があると設定された画像領域を網羅する矩形の切り出し領域を設定する。そして、画像補正部37は、画像取得部31が取得した画像から、矩形の切り出し領域を切り出す。
そして、ステップS23で、モデル選択部38は、画像補正部37により切り出された画像のサイズに応じて、物体検出部32において物体の検出に使用される物体検出モデルを選択する。そして、ステップS24で、物体検出部32は、モデル選択部38により選択された物体検出モデルを用いて、切り出された画像に含まれる物体及び物体種別を検出する。
本願は、様々な例示的な実施の形態及び実施例が記載されているが、1つ、または複数の実施の形態に記載された様々な特徴、態様、及び機能は特定の実施の形態の適用に限られるのではなく、単独で、または様々な組み合わせで実施の形態に適用可能である。従って、例示されていない無数の変形例が、本願明細書に開示される技術の範囲内において想定される。例えば、少なくとも1つの構成要素を変形する場合、追加する場合または省略する場合、さらには、少なくとも1つの構成要素を抽出し、他の実施の形態の構成要素と組み合わせる場合が含まれるものとする。
1 物体位置検出装置、31 画像取得部、32 物体検出部、33 マップ記憶部、34 物体位置算出部、35 誤検出判定部、36 位置出力部、37 画像補正部、38 モデル選択部、50 路側監視カメラ

Claims (8)

  1. 路側に設置され、道路状況を監視する路側監視カメラから画像を取得する画像取得部と、
    前記画像に含まれる物体及び物体種別を検出する物体検出部と、
    画像内の位置から実世界座標の位置への座標変換式と、前記物体種別ごとの画像上でのサイズの制限情報と、前記物体種別ごとの物体の存在の可能性情報とが、分割された画像領域ごとに設定された物体情報マップデータを記憶したマップ記憶部と、
    前記物体情報マップデータから、検出された前記物体の画像内の位置に対応する前記画像領域の前記座標変換式を取得し、取得した前記座標変換式を用いて、検出された前記物体の画像内の位置を前記実世界座標の位置に変換する物体位置算出部と、
    前記物体情報マップデータから、検出された前記物体の画像内の位置及び検出された前記物体種別に対応する前記画像領域の前記サイズの制限情報及び前記物体の存在の可能性情報を取得し、取得した情報及び検出された前記物体の画像上のサイズに基づいて、前記物体の誤検出の有無を判定する誤検出判定部と、
    誤検出が無いと判定された前記物体の前記実世界座標の位置及び前記物体種別を外部に配信する位置出力部と、
    を備えた物体位置検出装置。
  2. 前記画像領域ごとの各前記物体種別の前記サイズの制限情報は、前記実世界座標において前記路側監視カメラから前記画像領域の物体までの距離が長くなるに従って、サイズの上限値及び下限値が小さくなるように予め設定されている請求項1に記載の物体位置検出装置。
  3. 前記画像領域ごとの各前記物体種別の前記存在の可能性情報は、前記実世界座標において前記画像領域に各前記物体種別の物体が位置できる床面があるか否かに応じて予め設定されている請求項1又は2に記載の物体位置検出装置。
  4. 前記画像領域ごとの前記座標変換式は、前記実世界座標において床面が同一平面上にある前記画像領域の間では、同じ前記座標変換式に予め設定されており、前記実世界座標において床面が同一平面上にない前記画像領域の間では、異なる前記座標変換式に予め設定されている請求項1から3のいずれか一項に記載の物体位置検出装置。
  5. 前記物体検出部は、前記画像に含まれる、検出対象の物体種別の物体を検出し、
    前記検出対象の物体種別は、道路交通システムの運用に必要になる物体種別に予め設定されている請求項1から4のいずれか一項に記載の物体位置検出装置。
  6. 前記画像取得部が取得した前記画像の一部の領域を切り出す画像補正部を備え、
    前記物体検出部は、切り出された画像の領域に含まれる前記物体及び前記物体種別を検出する請求項1から5のいずれか一項に記載の物体位置検出装置。
  7. 前記画像補正部は、前記物体情報マップデータから、各前記画像領域の前記物体の存在の可能性情報を取得し、前記画像から、前記物体の存在の可能性情報に物体の存在の可能性があると設定された前記画像領域を網羅する矩形の領域を切り出す請求項6に記載の物体位置検出装置。
  8. 切り出された画像のサイズに応じて、前記物体検出部において物体の検出に使用される物体検出モデルを選択するモデル選択部を備えた請求項6又は7に記載の物体位置検出装置。
JP2022035918A 2022-03-09 2022-03-09 物体位置検出装置 Active JP7214024B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022035918A JP7214024B1 (ja) 2022-03-09 2022-03-09 物体位置検出装置
US18/095,231 US20230289994A1 (en) 2022-03-09 2023-01-10 Object position detection apparatus
DE102023200930.7A DE102023200930B4 (de) 2022-03-09 2023-02-06 Objektposition-erkennungsvorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022035918A JP7214024B1 (ja) 2022-03-09 2022-03-09 物体位置検出装置

Publications (2)

Publication Number Publication Date
JP7214024B1 JP7214024B1 (ja) 2023-01-27
JP2023131274A true JP2023131274A (ja) 2023-09-22

Family

ID=85036606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022035918A Active JP7214024B1 (ja) 2022-03-09 2022-03-09 物体位置検出装置

Country Status (3)

Country Link
US (1) US20230289994A1 (ja)
JP (1) JP7214024B1 (ja)
DE (1) DE102023200930B4 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014153914A (ja) * 2013-02-08 2014-08-25 Mega Chips Corp 物体検出装置、プログラムおよび集積回路
WO2018021444A1 (ja) * 2016-07-29 2018-02-01 株式会社デンソー 物標検出装置
WO2021085030A1 (ja) * 2019-10-30 2021-05-06 古河電気工業株式会社 運転支援システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4624594B2 (ja) 2000-06-28 2011-02-02 パナソニック株式会社 物体認識方法および物体認識装置
DE112018007073T5 (de) 2018-02-13 2020-11-12 Sumitomo Electric Industries, Ltd. Informationserzeugungsvorrichtung, Informationserzeugungsverfahren, Computerprogramm und fahrzeuginterne Vorrichtung
JP7405630B2 (ja) 2020-01-24 2023-12-26 京セラ株式会社 情報処理装置、検出装置、路側機、および較正方法
WO2021193099A1 (ja) 2020-03-26 2021-09-30 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、及びプログラム
JP7370368B2 (ja) 2021-11-29 2023-10-27 三菱電機株式会社 自動運転システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014153914A (ja) * 2013-02-08 2014-08-25 Mega Chips Corp 物体検出装置、プログラムおよび集積回路
WO2018021444A1 (ja) * 2016-07-29 2018-02-01 株式会社デンソー 物標検出装置
WO2021085030A1 (ja) * 2019-10-30 2021-05-06 古河電気工業株式会社 運転支援システム

Also Published As

Publication number Publication date
JP7214024B1 (ja) 2023-01-27
US20230289994A1 (en) 2023-09-14
DE102023200930B4 (de) 2024-02-29
DE102023200930A1 (de) 2023-09-14

Similar Documents

Publication Publication Date Title
EP3517997B1 (en) Method and system for detecting obstacles by autonomous vehicles in real-time
US20220215751A1 (en) Moving object and driving support system for moving object
US20200042803A1 (en) Information processing method, information processing apparatus, and recording medium
WO2018212346A1 (ja) 制御装置、走査システム、制御方法、およびプログラム
CN110799989A (zh) 一种障碍物检测方法、设备、可移动平台及存储介质
JP7072641B2 (ja) 路面検出装置、路面検出装置を利用した画像表示装置、路面検出装置を利用した障害物検知装置、路面検出方法、路面検出方法を利用した画像表示方法、および路面検出方法を利用した障害物検知方法
EP3324359B1 (en) Image processing device and image processing method
JP6736931B2 (ja) 立体物検出方法及び立体物検出装置
US20130162826A1 (en) Method of detecting an obstacle and driver assist system
US9813694B2 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, and disparity value deriving method
KR101666466B1 (ko) 단안 카메라를 이용한 해상 객체 거리측정 시스템을 이용한 해상 위험관리 시스템 및 해상 위험 관리방법
CN113015924A (zh) 基于来自一个或多个位置传感器的测量样本表征对象的装置和方法
CN114527490A (zh) 在车辆运行时检测三维结构模型
JP6883767B2 (ja) 変位計測装置および変位計測方法
JP7214024B1 (ja) 物体位置検出装置
JP6477340B2 (ja) 道路境界検出装置、自己位置推定装置及び道路境界検出方法
JP6901870B2 (ja) 位置推定装置、制御方法、及びプログラム
JP5500194B2 (ja) 撮影画像処理装置及び撮影画像処理方法
JP7064400B2 (ja) 物体検知装置
CN114051627A (zh) 相机校准方法
JP6789440B2 (ja) 物体同定装置
WO2021106297A1 (ja) 提供装置、車両管理装置、車両管理システム、車両管理方法および車両管理プログラム
US20240104936A1 (en) Object detection device, object detection method, and storage medium
JP7342499B2 (ja) タグ付与装置
US20230083307A1 (en) Camera Calibration Method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230117

R151 Written notification of patent or utility model registration

Ref document number: 7214024

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151