WO2023176695A1 - 移動体検知装置、移動体検知方法、及びコンピュータ読み取り可能な記録媒体 - Google Patents

移動体検知装置、移動体検知方法、及びコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
WO2023176695A1
WO2023176695A1 PCT/JP2023/009085 JP2023009085W WO2023176695A1 WO 2023176695 A1 WO2023176695 A1 WO 2023176695A1 JP 2023009085 W JP2023009085 W JP 2023009085W WO 2023176695 A1 WO2023176695 A1 WO 2023176695A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving object
image data
flow
optical
clustering
Prior art date
Application number
PCT/JP2023/009085
Other languages
English (en)
French (fr)
Inventor
功 中橋
翔平 小野
純一 気屋村
Original Assignee
Necソリューションイノベータ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necソリューションイノベータ株式会社 filed Critical Necソリューションイノベータ株式会社
Publication of WO2023176695A1 publication Critical patent/WO2023176695A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation

Definitions

  • the image acquisition unit 18 acquires image data to be processed from the imaging device 30. Specifically, since image data of a color image is output from the imaging device 30, the image acquisition unit 18 first performs image conversion on the output image data to convert the color image into a grayscale image. Convert to Subsequently, the image acquisition unit 18 performs distortion correction on the image data as necessary, and then inputs the corrected image data to the feature point extraction unit 11 and the optical flow identification unit 12. Note that distortion correction is performed, for example, when the photographic lens attached to the imaging device 30 is a fisheye lens or the like.
  • the optical flow identifying unit 12 calculates the degree of similarity between feature points, and links the feature points for which the calculated degree of similarity is equal to or greater than a threshold value.
  • the degree of similarity may be the Hamming distance calculated from the binary code generated by the Rotated Brief method.
  • the moving object speed calculation unit 20 converts the start coordinates and end coordinates into coordinates in the world coordinate system in real space using the camera parameters of the imaging device 30. do.
  • the coordinate transformation is performed by the same process as the projection process by the projection processing unit 13.
  • the moving object speed calculation unit 20 calculates the distance between the start coordinate and the end coordinate in real space from each coordinate after the conversion, and uses this as the absolute moving distance of the moving object in real space.
  • the correction processing unit 15 corrects the positions of the starting points of all the optical flows projected in step A4 based on the vector of the background flow, and removes the optical flows whose lengths are below a predetermined range due to the correction. (Step A6).
  • the clustering unit 16 performs clustering on the optical flows that were not removed in step A6, based on their positions (step A7).
  • the tracking unit 19 compares the cluster to be determined in the current frame with the cluster to be determined in a plurality of past frames (for example, the past six frames), and compares the cluster to be determined in the current frame to the clusters to be determined in a plurality of past frames (for example, the past six frames). If they match in the past frames, it is determined that they overlap.
  • the program in the embodiment may be any program that causes a computer to execute steps A1 to A11 shown in FIG. By installing and executing this program on a computer, the moving object detection device 10 and the moving object detection method in the embodiment can be realized.
  • the processor of the computer includes a feature point extraction section 11, an optical flow identification section 12, a projection processing section 13, a background flow identification section 14, a correction processing section 15, a clustering section 16, a moving object identification section 17, and an image acquisition section 18. , a tracking section 19, and a moving object speed calculation section 20, and performs processing.
  • the moving object detection device (Additional note 2) The moving object detection device according to supplementary note 1, The correction processing unit determines the moving direction and amount of movement of the vehicle based on the vector of the background flow, and changes the position of the starting point of all the projected optical flows in a direction opposite to the moving direction by the amount of movement. Move and correct by the amount of A moving object detection device characterized by:
  • Appendix 11 The computer-readable recording medium according to appendix 10, The program causes the computer to further comprising an instruction to execute a moving object speed calculation step of calculating the speed of the moving object using the movement amount of the vehicle determined based on the vector of the background flow;
  • a computer-readable recording medium characterized by:

Abstract

移動体検知装置10は、車両の撮像装置からの画像データから特徴点を抽出する、特徴点抽出部11と、特徴点毎にオプティカルフローを特定する、オプティカルフロー特定部12と、オプティカルフローを実空間の座標系に投影する、投影処理部13と、投影後のオプティカルフローから背景フローを特定する、背景フロー特定部14と、背景フローのベクトルに基づいて、投影後のオプティカルフローの始点の位置を補正し、所定範囲以下の長さのオプティカルフローを除去する、補正処理部15と、除去されていないオプティカルフローに対し、その位置に基づいて、クラスタリングを行なう、クラスタリング部16と、クラスタリング結果から画像データ中の移動体を特定する、移動体特定部17と、を備えている。

Description

移動体検知装置、移動体検知方法、及びコンピュータ読み取り可能な記録媒体
 本開示は、撮像装置で撮影された画像から移動体を検知するための、移動体検知装置、及び移動体検知方法に関し、更には、これらを実現するためのプログラムを記録したコンピュータ読み取り可能な記録媒体に関する。
 近年、車両及びその周囲の安全性を高めるため、車両に取り付けられたカメラからの画像データに基づいて、車両周辺の移動体を検知して、運転者に移動体の接近を通知する技術が提案されている(例えば、特許文献1及び2参照。)。
 具体的には、特許文献1及び2は、共に、車両に搭載される移動体検知装置を開示している。そして、特許文献1及び2に開示された移動体検知装置は、まず、カメラからフレーム単位で出力されてくる各画像データから特徴点を抽出し、抽出した特徴点をフレーム間で比較して、特徴点を結ぶオプティカルフローを生成する。
 次いで、特許文献1及び2に開示された移動体検知装置は、設定条件を満たすオプティカルフローを選択する。このときの設定条件は2つあり、1つは、オプティカルフローの延長線が所定の誤差範囲において一点の消失点で交わることである。もう1つは、オプティカルフローの延長線において、オプティカルフローの一方の端点を外分点として、オプティカルフローの他方の端点と消失点とを結ぶ線分の外分比が所定の誤差範囲において等しいことである。そして、特許文献1に開示された移動体検知装置は、選択したオプティカルフローから移動体を検知する。
 特許文献1及び2に開示された移動体検知装置によれば、車両周辺の移動体を検知できるので、例えば、車両の後方を撮影するリアカメラからの映像に基づいて、移動体を検知するようにすれば、運転者は、後方に位置する車両を認識できるようになる。
特開2008-97126号公報 特開2011-43922号公報
 しかしながら、上記特許文献1及び2に開示された移動体検知装置は、一点の消失点で交わるオプティカルフローを選択することによって、移動体を検知している。このため、上記特許文献1及び2に開示された移動体検知装置には、自車両と並走している移動体については、検知することが難しいという問題がある。また、上記特許文献1及び2に開示された移動体検知装置には、背景の一部を構成している物体、例えば、道路標識、駐車されている車両、看板等については、自車両に対して相対的に移動するため、誤って検知してしまうという問題もある。
 本開示の目的の一例は、上記問題を解消し、移動体の検知精度を向上することにある。
 上記目的を達成するため、本開示の一側面における移動体検知装置は、
 車両に取り付けられた撮像装置が設定間隔で出力する画像データから、特徴点を抽出する、特徴点抽出部と、
 最新の前記画像データと、それよりも過去に出力された前記画像データとを対比して、抽出された前記特徴点毎に、当該特徴点のオプティカルフローを特定する、オプティカルフロー特定部と、
 特定された前記オプティカルフローを、前記撮像装置を原点とする実空間の座標系に投影する、投影処理部と、
 投影された前記オプティカルフローのうち、背景を構成する物体のオプティカルフローを背景フローとして特定する、背景フロー特定部と、
 前記背景フローのベクトルに基づいて、投影された前記オプティカルフロー全ての始点の位置を補正し、補正によって長さが所定範囲以下となった前記オプティカルフローを除去する、補正処理部と、
 除去されなかった前記オプティカルフローに対して、その位置に基づいて、クラスタリングを行なう、クラスタリング部と、
 前記クラスタリングの結果を用いて、前記画像データ中の移動体を特定する、移動体特定部と、
を備えていることを特徴とする。
 また、上記目的を達成するため、本開示の一側面における移動体検知方法は、
 車両に取り付けられた撮像装置が設定間隔で出力する画像データから、特徴点を抽出する、特徴点抽出ステップと、
 最新の前記画像データと、それよりも過去に出力された前記画像データとを対比して、抽出された前記特徴点毎に、当該特徴点のオプティカルフローを特定する、オプティカルフロー特定ステップと、
 特定された前記オプティカルフローを、前記撮像装置を原点とする実空間の座標系に投影する、投影処理ステップと、
 投影された前記オプティカルフローのうち、背景を構成する物体のオプティカルフローを背景フローとして特定する、背景フロー特定ステップと、
 前記背景フローのベクトルに基づいて、投影された前記オプティカルフロー全ての始点の位置を補正し、補正によって長さが所定範囲以下となった前記オプティカルフローを除去する、補正処理ステップと、
 除去されなかった前記オプティカルフローに対して、その位置に基づいて、クラスタリングを行なう、クラスタリングステップと、
 前記クラスタリングの結果を用いて、前記画像データ中の移動体を特定する、移動体特定ステップと、
を有することを特徴とする。
 更に、上記目的を達成するため、本開示の一側面におけるコンピュータ読み取り可能な記録媒体は、
コンピュータに、
 車両に取り付けられた撮像装置が設定間隔で出力する画像データから、特徴点を抽出する、特徴点抽出ステップと、
 最新の前記画像データと、それよりも過去に出力された前記画像データとを対比して、抽出された前記特徴点毎に、当該特徴点のオプティカルフローを特定する、オプティカルフロー特定ステップと、
 特定された前記オプティカルフローを、前記撮像装置を原点とする実空間の座標系に投影する、投影処理ステップと、
 投影された前記オプティカルフローのうち、背景を構成する物体のオプティカルフローを背景フローとして特定する、背景フロー特定ステップと、
 前記背景フローのベクトルに基づいて、投影された前記オプティカルフロー全ての始点の位置を補正し、補正によって長さが所定範囲以下となった前記オプティカルフローを除去する、補正処理ステップと、
 除去されなかった前記オプティカルフローに対して、その位置に基づいて、クラスタリングを行なう、クラスタリングステップと、
 前記クラスタリングの結果を用いて、前記画像データ中の移動体を特定する、移動体特定ステップと、
を実行させる命令を含む、プログラムを記録している、ことを特徴とする。
 以上のように本開示によれば、移動体の検知精度を向上することができる。
図1は、実施の形態1における移動体検知装置の概略構成を示す構成図である。 図2は、本発明の実施の形態における移動体検知装置の具体的構成を示すブロック図である。 図3は、実施の形態における特徴点のオプティカルフローの特定処理を説明するための図である。 図4は、実施の形態におけるオプティカルフローの投影処理を説明するための図である。 図5は、実施の形態における背景フローの特定処理を説明するための図である。 図6は、実施の形態における補正処理を説明するための図である。 図7は、実施の形態におけるオプティカルフローのクラスタリング処理を説明するための図である。 図8は、実施の形態における移動体の相対速度の算出処理を説明するための図である。 図9は、実施の形態における移動体検知装置の動作を示すフロー図である。 図10は、実施の形態における移動体検知装置を実現するコンピュータの一例を示すブロック図である。
(実施の形態)
 以下、実施の形態における移動体検知装置について、図1~図10を参照しながら説明する。
[装置構成]
 最初に、実施の形態1における移動体検知装置の概略構成について図1を用いて説明する。図1は、実施の形態1における移動体検知装置の概略構成を示す構成図である。
 図1に示す実施の形態における移動体検知装置10は、車両に取り付けられた撮像装置が出力する画像データから移動体を検知するための装置である。図1に示すように、移動体検知装置10は、特徴点抽出部11と、オプティカルフロー特定部12と、投影処理部13と、背景フロー特定部14と、補正処理部15と、クラスタリング部16と、移動体特定部17とを備えている。
 特徴点抽出部11は、車両に取り付けられた撮像装置が設定間隔で出力する画像データから、特徴点を抽出する。オプティカルフロー特定部12は、最新の前記画像データと、それよりも過去に出力された画像データとを対比して、抽出された特徴点毎に、各特徴点のオプティカルフローを特定する。
 投影処理部13は、特定されたオプティカルフローを、撮像装置を原点とする実空間の座標系に投影する。背景フロー特定部14は、投影されたオプティカルフローのうち、背景を構成する物体のオプティカルフローを背景フローとして特定する。
 補正処理部15は、背景フローのベクトルに基づいて、投影されたオプティカルフロー全ての始点の位置を補正し、補正によって長さが所定範囲以下となったオプティカルフローを除去する。
 クラスタリング部16は、補正処理部15によって除去されなかったオプティカルフローに対して、その位置に基づいて、クラスタリングを行なう。移動体特定部17は、クラスタリングの結果を用いて、画像データ中の移動体を特定する。
 このように、実施の形態では、特徴点のオプティカルフローの始点の位置が背景フローベクトルに基づいて補正され、それによって背景フローが除去される。その後、除去されなかったオプティカルフローのクラスタリング結果に基づいて、移動体が特定される。このため、実施の形態によれば、車両と並走する移動体であっても検知することができるので、移動体の検知精度の向上が図られる。
 続いて、図2を用いて、本実施の形態における移動体検知装置の構成について更に具体的に説明する。図2は、本発明の実施の形態における移動体検知装置の具体的構成を示すブロック図である。
 図2に示すように、実施の形態における移動体検知装置10は、撮像装置30に接続されており、撮像装置30と共に車両に搭載されている。撮像装置30は、固体撮像素子を備えたカメラであり、撮影を行なうと、画像データを移動体検知装置10に出力する。実施の形態では、撮像装置30は、設定された時間間隔(フレームレート)で、連続して画像データを出力する。
 また、図2に示すように、本実施の形態においては、移動体検知装置10は、上述した、特徴点抽出部11、オプティカルフロー特定部12、投影処理部13、背景フロー特定部14、補正処理部15、クラスタリング部16、及び移動体特定部17に加えて、画像取得部18と、トラッキング部19と、移動体速度算出部20とを備えている。
 画像取得部18は、撮像装置30から処理対象となる画像データを取得する。具体的には、画像取得部18は、撮像装置30からはカラー画像の画像データが出力されるので、まず、出力されてきた画像データに対して画像変換を行なって、カラー画像をグレースケール画像に変換する。続いて、画像取得部18は、画像データに対して、必要に応じて歪み補正を実行し、その後、補正後の画像データを、特徴点抽出部11とオプティカルフロー特定部12とに入力する。なお、歪み補正が行なわれるのは、例えば、撮像装置30に取り付けられている撮影レンズが魚眼レンズ等である場合である。
 特徴点抽出部11は、実施の形態では、まず、予め設定されたフレーム数分(例えば、10フレーム)の画像データを用いて、輝度変化の不偏分散を計算し、計算値と閾値とを対比して、各画素が移動画素及び静止画素のいずれに該当するかを判定する。そして、特徴点抽出部11は、移動画素と判定した画素が存在する領域を、移動体が存在する移動領域とする。次に、特徴点抽出部11は、現フレームの画像データの移動領域において、例えば、一般的なFASTアルゴリズムを用いて、特徴点を抽出する。
 オプティカルフロー特定部12は、実施の形態では、例えば、まず、現フレームの1つ前の過去フレームの特徴点と現フレームの特徴点とを対比し、対応する特徴点同士を紐付けする。
 図3は、実施の形態における特徴点のオプティカルフローの特定処理を説明するための図である。図3の例では、オプティカルフロー特定部12は、1つ前の過去フレームの特徴点1と現フレームの特徴点3とを紐付け、1つ前の過去フレームの特徴点2と現フレームの特徴点4とを紐付ける。そして、オプティカルフロー特定部12は、紐付けた特徴点同士を結び、オプティカルフローを特定する。
 具体的には、オプティカルフロー特定部12は、特徴点同士の類似度を算出し、算出した類似度が閾値以上となる特徴点同士を紐付ける。この場合の類似度としては、Rotated Brief法で生成されたバイナリーコードから算出されるハミング距離が挙げられる。
 また、オプティカルフロー特定部12は、処理時間を短縮するため、画像を分割し、分割によって得られた各エリアとその周辺のエリアとをひとつのグループとし、グループ毎に、特徴点同士の結びつけと、オプティカルフローの特定とを行なうこともできる。
 投影処理部13は、実施の形態では、特定されたオプティカルフローを、カメラパラメータ(例えば、撮像装置30の設置位置、設置角度、レンズの歪み係数等)を使用して、撮像装置を原点とする実空間の世界座標系に投影する。
 図4は、実施の形態におけるオプティカルフローの投影処理を説明するための図である。具体的には、投影処理部13は、図4に示すように、画像座標系におけるオプティカルフローの座標を(u,v)を、実空間の座標系である世界座標系(XYZ)に投影する。但し、移動体検知装置10を搭載する車両(以下「自車両」とも表記する。)と移動体は共に地面に存在するので、世界座標系においては、Yは常に0(ゼロ)に設定される(Y=0)。従って、投影後の座標は(X,0,Z)となる。
 ここで、投影処理について詳細に説明する。まず、各種パラメータが以下のように定義される。
(u,v):画像座標系における世界座標系に変換する座標
:カメラ座標系における歪み補正前のx軸座標
:カメラ座標系における歪み補正前のy軸座標
x:カメラ座標系における歪み補正後のx軸座標
y:カメラ座標系における歪み補正後のy軸座標
:画像座標系における光学中心のX軸座標
:画像座標系における光学中心のY軸座標
:画素単位での焦点距離(水平方向)
  f=(水平方向の受光素子数/固体撮像素子の水平方向の長さ)×焦点距離[mm]
:画素単位での焦点距離(垂直方向)
  f=(垂直方向の受光素子数/固体撮像素子の垂直方向の長さ)×焦点距離[mm]
、k、k、k、k、k、p、p:カメラ歪係数
(’u,’v):画像座標系における歪み補正後の座標
H:鳥瞰変換行列
’X,’Z:世界座標系における’Yの逆数で正規化済みの座標
’Y:’X,’Zの正規化を解除するための係数
X:世界座標系におけるX軸座標
Y:世界座標系におけるY軸座標
Z:世界座標系におけるZ軸座標
 上記パラメータのうち、x及びyは、下記の数1によって表される。そして、投影処理部13は、下記の数2を用いた演算を複数回(例えば5回)実行し、x及びyを更新する。
Figure JPOXMLDOC01-appb-M000001
 
Figure JPOXMLDOC01-appb-M000002
 続いて、投影処理部13は、求めたx及びyを、下記の数3に適用して、(’u,’v)を算出する。そして、投影処理部13は、算出した(’u,’v)を、下記の数4及び数5に適用して、X及びZを算出する。これにより、画像上の座標が、世界座標系に投影される。
Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000004
Figure JPOXMLDOC01-appb-M000005
 また、上記数4に示される鳥瞰変換行列Hは、下記の数6によって算出される。下記の数6において、Mは、撮像装置30の内部パラメータ行列であり、下記の数7によって算出される。また、Eは、撮像装置30の外部パラメータ行列であり、下記の数8によって算出される。
Figure JPOXMLDOC01-appb-M000006
Figure JPOXMLDOC01-appb-M000007
Figure JPOXMLDOC01-appb-M000008
 上記数8において、r11、r13、r21、r23、r31、及びr33は、下記の数9に示す回転行列Rの1列目と3列目の要素である。また、上記数8において、t、t、tは、下記の数10に示す並進ベクトルtの要素を示している。
Figure JPOXMLDOC01-appb-M000009
 なお、上記数9において、rollは、撮像装置30のロールによる回転角[rad]を示し、pitchは、撮像装置30のピッチングによる回転角[rad]を示し、yawは、撮像装置30のヨーイングによる回転角[rad]を示す。
Figure JPOXMLDOC01-appb-M000010
 背景フロー特定部14は、実施の形態では、世界座標系に投影されたオプティカルフロー群の中から、角度及び長さに基づいて、背景を構成する物体のオプティカルフローを背景フローとして特定する。
 図5は、実施の形態における背景フローの特定処理を説明するための図である。図5に示すように、背景フローの方向は、自車両の移動方向が変わると変化する。図5の例では、自車両の前方に向けて撮像装置30が設置されている場合の背景フローが矢印によって示されている。
 図5の上段の図は、自車両が直進しているときの背景フローを示している。図5の中段の図は、自車両が最大切れ角で右旋回しているときの背景フローを示している。図5の下段の図は、自車両が最大切れ角で左旋回しているときの背景フローを示している。車両のタイヤの切れ角には限度があるため、背景フローの方向が変化する範囲は一定範囲内に収まる。また、図5に示すように、世界座標系において、背景フローは、略同じ方向を向き、略同じ長さとなる。
 このため、背景フロー特定部14は、オプティカルフローの長さを横軸の階級としてヒストグラムを生成し、生成したヒストグラムに基づいて、背景フローを特定する。具体的には、背景フロー特定部14は、まず、全オプティカルフロー群から、方向が一定範囲内にあるオプティカルフロー群を取り出し、取り出したオプティカルフロー群を用いて、ヒストグラムを生成する。そして、背景フロー特定部14は、例えば、最大度数のビンとその両隣のビンとに属するオプティカルフローとを用いて、ベクトル平均を求め、求めたベクトル平均を背景フローとして特定する。
 背景フローはベクトルであり、その方向は自車両の移動方向と正反対であるが、その移動量は自車両の移動量と同一である。従って、補正処理部15、実施の形態では、背景フローのベクトルに基づいて車両の移動方向及び移動量を求める。そして、補正処理部15は、投影されたオプティカルフロー全ての始点の位置を、車両の移動方向と反対の方向に、車両の移動量の分だけ、移動させて、補正を行う。具体的には、背景フローはベクトルであるため、補正処理部15は、各オプティカルフローに、背景フローのベクトルを加算する。図6は、実施の形態における補正処理を説明するための図である。
 図6において、31は、自車両以外の車両を示し、32は、街路樹(背景を構成する物体)を示している。また、図6において、実線は現フレームでの画像を示し、破線は、現フレームの1つ前のフレームを示している。更に、図6において、矢印は、世界座標系に投影されたオプティカルフローを示している。そして、図6の上段の図は、補正前を示し、下段の図は補正後を示している。
 図6に示すように、街路樹32は背景を構成する物体であるため、背景フローは街路樹32のオプティカルフローと一致する。従って、補正処理部15が、補正処理を実行すると、図6の下段の図に示すように、街路樹32の画像上での移動量はゼロとなるので、そのオプティカルフローの長さもゼロとなる。
 このため、補正処理部15は、オプティカルフロー群から、補正によって長さがゼロとなったオプティカルフローを除去する。なお、除去されるオプティカルフローには、厳密にはゼロではないが、実質的に長さがゼロとなるオプティカルフローが含まれていても良い。また、実質的に長さがゼロとなる範囲は、予め適宜設定される。
 クラスタリング部16は、実施の形態では、補正処理部15によって除去されなかったオプティカルフローに対して、例えば、x-meanアルゴリズムを使用して、クラスタリングを実行する。図7は、実施の形態におけるオプティカルフローのクラスタリング処理を説明するための図である。
 具体的には、クラスタリング部16は、まず、図7の上段の図に示すように、補正処理部15によって除去されなかったオプティカルフローそれぞれの位置を特定する。そして、図7の中段の図に示すように、クラスタリング部16は、特定した位置に基づいて、オプティカルフロー間の距離を算出し、算出した距離に基づいて、クラスタリングを実行する。
 次に、クラスタリング部16は、クラスタリングによって生成されたクラスタ毎に、長さ、位置(画面内の座標)、及び向きが、そのクラスタ内のオプティカルフローの平均値から大きく乖離しているオプティカルフローを特定する。特定されたオプティカルフローは同じ移動体に由来するものとは考えられないため、図7の下段の図に示すように、クラスタリング部16は、特定したオプティカルフローを、元のクラスタから除去し、新規にクラスタを生成する。
 また、クラスタリング部16は、クラスタリングの実行後、複数のクラスタ間において、それらの位置関係と、それぞれのオプティカルフローの長さ及び向きとが、設定条件を満たす場合に、これらのクラスタを結合して1つのクラスタとすることもできる。これらのクラスタのオプティカルフローは同じ移動体に由来すると考えられるからである。
 具体的には、クラスタリング部16は、まず、クラスタが互いに重なっていること、クラスタ間において、クラスタ内のオプティカルフローの平均長さと向きとが近似していること、を条件に、結合候補となる2つクラスタを特定する。次に、クラスタリング部16は、結合候補となった2つのクラスタ間について、互いの中心を結んだときの中央のエリア(例えば、20ピクセル×20ピクセル)でのオプティカルフローの向きを対比し、向きが各クラスタで一致している場合は、これらの結合候補を結合する。
 トラッキング部19は、クラスタリング部16によるクラスタリングによって得られたクラスタ毎に、そのクラスタの位置が、最新の画像データ以外の画像データから予測された位置と重なるかどうかを判定する。
 具体的には、トラッキング部19は、現フレームにおける判定対象となるクラスタを、複数の過去フレーム(例えば、過去6フレーム)における判定対象となるクラスタと対比して、一定数以上の過去フレームにおいて一致していれば、重なると判定する。そして、トラッキング部19は、重なると判定したクラスタを、移動体特定部17に通知する。
 また、トラッキング部19は、判定において、現フレームのクラスタと過去フレームのクラスタとが、完全に一致している場合だけに限られず、両者が一定の割合以上で重なっている場合も一致しているとする。更に、対応する移動体が異なるクラスタ同士が一致してしまうのを防ぐため、トラッキング部19は、判定対象となるクラスタの面積を縮小してから(例えば、1/4)、一致の判断を行なうこともできる。
 更に、トラッキング部19は、判定対象となったクラスタの座標として、現フレームのクラスタの座標と一致した過去フレームのクラスタの座標との平均座標を算出し、算出した平均座標を、判定対象となったクラスタの座標とすることもできる。
 また、トラッキング部19は、現フレームのクラスタと複数の過去フレームのクラスタとの対比の結果、一致している過去フレームの枚数が閾値未満の場合は、誤検知の可能性が高いため、トラッキング部19は、判定対象となるクラスタを削除する。但し、削除したクラスタについて、前回の判定において重なると判定されている場合は、トラッキング部19は、削除したクラスタを復帰させることもできる。
 移動体特定部17は、実施の形態では、トラッキング部19によって重なり合うと判定されたクラスタに基づいて、画像中の移動体を特定する。具体的には、背景を構成する物体のオプティカルフローは、補正処理部15による補正処理によって既に除去されているので、トラッキング部19によって重なり合うと判定されたクラスタは、全て移動体に該当する。従って、移動体特定部17は、重なり合うと判定されたクラスタ毎に、そのクラスタに含まれるオプティカルフローの元になった特徴点の集合を特定し、特定した特徴点の集合を移動体として特定する。また、自車両と並走する移動体のオプティカルフローは、補正によってゼロとならないので、特定される移動体には、自車両と並走する車両も含まれている。
 また、移動体特定部17は、特定した移動体の情報を車両に通知する。このとき通知される情報としては、移動体の画像上の位置、移動方向、及び速度等が挙げられる。なお、速度は、後述する移動体速度算出部20によって算出される。
 移動体速度算出部20は、補正処理部15によって背景フローのベクトルから求められた自車両の移動量を用いて、移動体の速度を算出する。具体的には、移動体速度算出部20は、まず、自車両の移動量と撮像装置30のフレームレートから、自車両の速度を算出する。次いで、移動体速度算出部20は、移動体特定部17によって特定された移動体におけるオプティカルフローの方向及び長さを用いて、自車両を基準とした、特定された移動体の相対速度を算出する。そして、移動体速度算出部20は、算出した相対速度と自車両の速度とから移動体の速度を算出する。
 図8は、実施の形態における移動体の相対速度の算出処理を説明するための図である。より詳細には、移動体速度算出部20は、図8の上段の図に示すように、まず、現フレーム及び1つ前の過去フレームそれぞれにおいて、特定された移動体の自車両に最も近い点(移動体の画面上の右下又は左下の点)の座標を特定する。なお、1つ前の過去フレームで特定された座標を開始座標、現フレームで特定された座標を終了座標とする。また、移動体速度算出部20は、特定された移動体のオプティカルフローの平均の長さ及び角度から、開始座標を推定することができる。
 次に、移動体速度算出部20は、図8の中段の図に示すように、開始座標及び終了座標を、撮像装置30のカメラパラメータを使って、実空間の世界座標系での座標に変換する。座標変換は、投影処理部13による投影処理と同様の処理によって行われる。そして、移動体速度算出部20は、変換後の各座標から、実空間における開始座標と終了座標との距離を算出し、これを実空間における移動体の絶対移動距離とする。
 そして、移動体速度算出部20は、1つ前の過去フレームから現フレームまでの時間と、算出した絶対移動距離とから、移動体の絶対速度を算出し、更に、算出した移動体の絶対速度と自車両の速度とから、自車両を基準とした移動体の相対速度を算出する。なお、1つ前の過去フレームから現フレームまでの時間は、フレームレートから求められる。例えば、フレームレートが10fpsであるならば、時間は0.1秒となる。
[装置動作]
 次に、実施の形態における移動体検知装置10の動作について図9を用いて説明する。図9は、実施の形態における移動体検知装置の動作を示すフロー図である。以下の説明においては、適宜図1~図8を参照する。また、実施の形態では、移動体検知装置を動作させることによって、移動体検知方法が実施される。よって、実施の形態における移動体検知方法の説明は、以下の移動体検知装置の動作説明に代える。
 図7に示すように、最初に、画像取得部18は、撮像装置30から出力されてくる画像データを、フレーム毎に取得する(ステップA1)。
 具体的には、ステップA1では、画像取得部18は、まず、取得された画像データに対して、グレースケール画像への変換、歪み補正等を行なう。そして、画像取得部18は、取得された画像データのフレーム数が設定枚数に達すると、取得した画像データを特徴点抽出部11に渡す。
 次に、特徴点抽出部11は、ステップA1で取得された画像データから、画像中を移動している特徴点を抽出する(ステップA2)。
 具体的には、ステップA2では、特徴点抽出部11は、予め設定されたフレーム数分(例えば、10フレーム)の画像データを用いて、輝度変化の不偏分散を計算して、各画素が移動画素及び静止画素のいずれに該当するかを判定する。そして、特徴点抽出部11は、移動画素と判定した画素が存在する移動領域から、特徴点を抽出する。
 次に、オプティカルフロー特定部12は、最新の画像データと、それよりも過去に出力された画像データとを対比して、抽出された特徴点毎に、各特徴点のオプティカルフローを特定する(ステップA3)。
 具体的には、ステップA3では、オプティカルフロー特定部12は、現フレームの1つ前の過去フレームの特徴点と現フレームの特徴点とを対比し、対応する特徴点同士を紐付け、紐付けた特徴点同士を結びことで、オプティカルフローを特定する。
 次に、投影処理部13は、ステップA3で特定されたオプティカルフローを、カメラパラメータを使用して、撮像装置を原点とする実空間の世界座標系に投影する(ステップA4)。
 具体的には、ステップA4では、投影処理部13は、特定されたオプティカルフロー毎に、上記の数1~数10を用いて、画像座標系におけるオプティカルフローの座標を(u,v)を、実空間の座標系である世界座標系(XYZ)に投影する。
 次に、背景フロー特定部14は、ステップA4で投影されたオプティカルフローのうち、背景を構成する物体のオプティカルフローを背景フローとして特定する(ステップA5)。
 具体的には、ステップA5では、背景フロー特定部14は、全オプティカルフロー群から、方向が一定範囲内にあるオプティカルフロー群を取り出し、取り出したオプティカルフロー群を用いて、ヒストグラムを生成する。そして、背景フロー特定部14は、例えば、最大度数のビンとその両隣のビンとに属するオプティカルフローとを用いて、ベクトル平均を求め、求めたベクトル平均を背景フローとして特定する。
 次に、補正処理部15は、背景フローのベクトルに基づいて、ステップA4で投影されたオプティカルフロー全ての始点の位置を補正し、補正によって長さが所定範囲以下となったオプティカルフローを除去する(ステップA6)。
 具体的には、ステップA6では、補正処理部15、背景フローのベクトルに基づいて車両の移動方向及び移動量を求める。そして、補正処理部15は、投影されたオプティカルフロー全ての始点の位置を、車両の移動方向と反対の方向に、車両の移動量の分だけ、移動させて、補正を行う。この補正により、背景フローの長さは略ゼロとなる。
 次に、クラスタリング部16は、ステップA6で除去されなかったオプティカルフローに対して、その位置に基づいて、クラスタリングを実行する(ステップA7)。
 具体的には、クラスタリング部16は、まず、図7の上段の図に示すように、補正処理部15によって除去されなかったオプティカルフローの距離を算出し、算出した距離に基づいて、クラスタリングを実行する。次に、クラスタリング部16は、クラスタ毎に、長さ、位置(画面内の座標)、及び向きが、そのクラスタ内のオプティカルフローの平均値から大きく乖離しているオプティカルフローを特定し、これを元のクラスタから除去して、新規にクラスタを生成する。
 次に、トラッキング部19は、ステップA7によって得られたクラスタ毎に、そのクラスタの位置が、最新の画像データ以外の画像データから予測された位置と重なるかどうかを判定し、重なると判定したクラスタを、移動体特定部17に通知する(ステップA8)。
 具体的には、ステップA8では、トラッキング部19は、現フレームにおける判定対象となるクラスタを、複数の過去フレーム(例えば、過去6フレーム)における判定対象となるクラスタと対比して、一定数以上の過去フレームにおいて一致していれば、重なると判定する。
 次に、移動体特定部17は、ステップA8において重なり合うと判定されたクラスタに基づいて、画像中の移動体を特定する(ステップA9)。
 具体的には、ステップA9では、移動体特定部17は、重なり合うと判定されたクラスタそれぞれ毎に、そのクラスタに含まれるオプティカルフローの元になった特徴点の集合を特定し、特定した特徴点の集合を移動体として特定する。
 次に、移動体速度算出部20は、背景フローのベクトルから求められた自車両の移動量を用いて、移動体の速度を算出する(ステップA10)。
 具体的には、ステップA10では、移動体速度算出部20は、まず、ステップA6で求められた自車両の移動量と撮像装置30のフレームレートから、自車両の速度を算出する。次いで、移動体速度算出部20は、ステップA9で特定された移動体におけるオプティカルフローの方向及び長さを用いて、自車両を基準とした、特定された移動体の相対速度を算出する。そして、移動体速度算出部20は、算出した相対速度と自車両の速度とから移動体の速度を算出する。
 その後、移動体特定部17は、ステップA9で特定した移動体の情報として、移動体の画像上の位置、移動方向、及び速度を、自車両に通知する(ステップA11)。
[実施の形態における効果]
 以上のように本実施の形態では、特徴点のオプティカルフローの始点の位置が背景フローベクトルに基づいて補正され、それによって、背景フローが除去される。その後、除去されていないオプティカルフローから、移動体が特定されるが、自車両と並走する移動体のオプティカルフローは、補正によって除去されないので、特定される移動体には、自車両と並走する車両も含まれている。このため、実施の形態によれば、車両と並走する移動体であっても検知することができるので、移動体の検知精度の向上が図られる。
[プログラム]
 実施の形態におけるプログラムは、コンピュータに、図9に示すステップA1~A11を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、実施の形態における移動体検知装置10と移動体検知方法とを実現することができる。この場合、コンピュータのプロセッサは、特徴点抽出部11、オプティカルフロー特定部12、投影処理部13、背景フロー特定部14、補正処理部15、クラスタリング部16、移動体特定部17、画像取得部18、トラッキング部19、及び移動体速度算出部20として機能し、処理を行なう。
 コンピュータとしては、車両搭載用のコンピュータ、汎用のPC(Personal Computer)、スマートフォン、タブレット型端末装置等が挙げられる。実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、特徴点抽出部11、オプティカルフロー特定部12、投影処理部13、背景フロー特定部14、補正処理部15、クラスタリング部16、移動体特定部17、画像取得部18、トラッキング部19、及び移動体速度算出部20のいずれかとして機能しても良い。
[物理構成]
 ここで、実施の形態におけるプログラムを実行することによって、移動体検知装置10を実現するコンピュータについて図10を用いて説明する。図10は、実施の形態における移動体検知装置を実現するコンピュータの一例を示すブロック図である。
 図10に示すように、コンピュータ110は、CPU(Central Processing Unit)111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。
 また、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)を備えていても良い。この態様では、GPU又はFPGAが、実施の形態におけるプログラムを実行することができる。
 CPU111は、記憶装置113に格納された、コード群で構成された実施の形態におけるプログラムをメインメモリ112に展開し、各コードを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。
 また、実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
 また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
 データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
 また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD-ROM(Compact Disk Read Only Memory)などの光学記録媒体が挙げられる。
 なお、実施の形態における移動体検知装置10は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェア、例えば電子回路を用いることによっても実現可能である。更に、移動体検知装置10は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。実施の形態において、コンピュータは、図10に示すコンピュータに限定されることはない。
 上述した実施の形態の一部又は全部は、以下に記載する(付記1)~(付記12)によって表現することができるが、以下の記載に限定されるものではない。
(付記1)
 車両に取り付けられた撮像装置が設定間隔で出力する画像データから、特徴点を抽出する、特徴点抽出部と、
 最新の前記画像データと、それよりも過去に出力された前記画像データとを対比して、抽出された前記特徴点毎に、当該特徴点のオプティカルフローを特定する、オプティカルフロー特定部と、
 特定された前記オプティカルフローを、前記撮像装置を原点とする実空間の座標系に投影する、投影処理部と、
 投影された前記オプティカルフローのうち、背景を構成する物体のオプティカルフローを背景フローとして特定する、背景フロー特定部と、
 前記背景フローのベクトルに基づいて、投影された前記オプティカルフロー全ての始点の位置を補正し、補正によって長さが所定範囲以下となった前記オプティカルフローを除去する、補正処理部と、
 除去されなかった前記オプティカルフローに対して、その位置に基づいて、クラスタリングを行なう、クラスタリング部と、
 前記クラスタリングの結果を用いて、前記画像データ中の移動体を特定する、移動体特定部と、
を備えていることを特徴とする移動体検知装置。
(付記2)
付記1に記載の移動体検知装置であって、
 前記補正処理部が、前記背景フローのベクトルに基づいて前記車両の移動方向及び移動量を求め、投影された前記オプティカルフロー全ての始点の位置を、前記移動方向と反対の方向に、前記移動量の分だけ、移動させて、補正を行う、
ことを特徴とする移動体検知装置。
(付記3)
付記2に記載の移動体検知装置であって、
 前記背景フローのベクトルに基づいて求められた前記車両の移動量を用いて、前記移動体の速度を算出する、移動体速度算出部を更に備えている、
ことを特徴とする移動体検知装置。
(付記4)
付記1~3のいずれかに記載の移動体検知装置であって、
 前記クラスタリングによって得られたクラスタ毎に、当該クラスタの位置が、最新の前記画像データ以外の画像データから予測された位置と重なるかどうかを判定する、トラッキング部を更に備え、
 前記移動体特定部が、重なり合うと判定されたクラスタに基づいて、画像中の移動体を特定する、
ことを特徴とする移動体検知装置。
(付記5)
 車両に取り付けられた撮像装置が設定間隔で出力する画像データから、特徴点を抽出する、特徴点抽出ステップと、
 最新の前記画像データと、それよりも過去に出力された前記画像データとを対比して、抽出された前記特徴点毎に、当該特徴点のオプティカルフローを特定する、オプティカルフロー特定ステップと、
 特定された前記オプティカルフローを、前記撮像装置を原点とする実空間の座標系に投影する、投影処理ステップと、
 投影された前記オプティカルフローのうち、背景を構成する物体のオプティカルフローを背景フローとして特定する、背景フロー特定ステップと、
 前記背景フローのベクトルに基づいて、投影された前記オプティカルフロー全ての始点の位置を補正し、補正によって長さが所定範囲以下となった前記オプティカルフローを除去する、補正処理ステップと、
 除去されなかった前記オプティカルフローに対して、その位置に基づいて、クラスタリングを行なう、クラスタリングステップと、
 前記クラスタリングの結果を用いて、前記画像データ中の移動体を特定する、移動体特定ステップと、
を有することを特徴とする移動体検知方法。
(付記6)
付記5に記載の移動体検知方法であって、
 前記補正処理ステップにおいて、前記背景フローのベクトルに基づいて前記車両の移動方向及び移動量を求め、投影された前記オプティカルフロー全ての始点の位置を、前記移動方向と反対の方向に、前記移動量の分だけ、移動させて、補正を行う、
ことを特徴とする移動体検知方法。
(付記7)
付記6に記載の移動体検知方法であって、
 前記背景フローのベクトルに基づいて求められた前記車両の移動量を用いて、前記移動体の速度を算出する、移動体速度算出ステップを更に有する、
ことを特徴とする移動体検知方法。
(付記8)
付記5~7のいずれかに記載の移動体検知方法であって、
 前記クラスタリングによって得られたクラスタ毎に、当該クラスタの位置が、最新の前記画像データ以外の画像データから予測された位置と重なるかどうかを判定する、トラッキングステップを更に有し、
 前記移動体特定ステップにおいて、重なり合うと判定されたクラスタに基づいて、画像中の移動体を特定する、
ことを特徴とする移動体検知方法。
(付記9)
コンピュータに、
 車両に取り付けられた撮像装置が設定間隔で出力する画像データから、特徴点を抽出する、特徴点抽出ステップと、
 最新の前記画像データと、それよりも過去に出力された前記画像データとを対比して、抽出された前記特徴点毎に、当該特徴点のオプティカルフローを特定する、オプティカルフロー特定ステップと、
 特定された前記オプティカルフローを、前記撮像装置を原点とする実空間の座標系に投影する、投影処理ステップと、
 投影された前記オプティカルフローのうち、背景を構成する物体のオプティカルフローを背景フローとして特定する、背景フロー特定ステップと、
 前記背景フローのベクトルに基づいて、投影された前記オプティカルフロー全ての始点の位置を補正し、補正によって長さが所定範囲以下となった前記オプティカルフローを除去する、補正処理ステップと、
 除去されなかった前記オプティカルフローに対して、その位置に基づいて、クラスタリングを行なう、クラスタリングステップと、
 前記クラスタリングの結果を用いて、前記画像データ中の移動体を特定する、移動体特定ステップと、
を実行させる命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。
(付記10)
付記9に記載のコンピュータ読み取り可能な記録媒体であって、
 前記補正処理ステップにおいて、前記背景フローのベクトルに基づいて前記車両の移動方向及び移動量を求め、投影された前記オプティカルフロー全ての始点の位置を、前記移動方向と反対の方向に、前記移動量の分だけ、移動させて、補正を行う、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記11)
付記10に記載のコンピュータ読み取り可能な記録媒体であって、
前記プログラムが、前記コンピュータに、
 前記背景フローのベクトルに基づいて求められた前記車両の移動量を用いて、前記移動体の速度を算出する、移動体速度算出ステップを実行させる命令を更に含む、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記12)
付記9~11のいずれかに記載のコンピュータ読み取り可能な記録媒体であって、
前記プログラムが、前記コンピュータに、
 前記クラスタリングによって得られたクラスタ毎に、当該クラスタの位置が、最新の前記画像データ以外の画像データから予測された位置と重なるかどうかを判定する、トラッキングステップを実行させる命令を更に含み、
 前記移動体特定ステップにおいて、重なり合うと判定されたクラスタに基づいて、画像中の移動体を特定する、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2022年3月16日に出願された日本出願特願2022-041142を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 以上のように本開示によれば、移動体の検知精度を向上することができる。本開示は、移動体の検知が求められている車両の情報処理装置に有用である。
 10 移動体検知装置
 11 特徴点抽出部
 12 オプティカルフロー特定部
 13 投影処理部
 14 背景フロー特定部
 15 補正処理部
 16 クラスタリング部
 17 移動体特定部
 18 画像取得部
 19 トラッキング部
 20 移動体速度算出部
 30 撮像装置
 31 車両
 32 街路樹
 110 コンピュータ
 111 CPU
 112 メインメモリ
 113 記憶装置
 114 入力インターフェイス
 115 表示コントローラ
 116 データリーダ/ライタ
 117 通信インターフェイス
 118 入力機器
 119 ディスプレイ装置
 120 記録媒体
 121 バス

Claims (12)

  1.  車両に取り付けられた撮像装置が設定間隔で出力する画像データから、特徴点を抽出する、特徴点抽出手段と、
     最新の前記画像データと、それよりも過去に出力された前記画像データとを対比して、抽出された前記特徴点毎に、当該特徴点のオプティカルフローを特定する、オプティカルフロー特定手段と、
     特定された前記オプティカルフローを、前記撮像装置を原点とする実空間の座標系に投影する、投影処理手段と、
     投影された前記オプティカルフローのうち、背景を構成する物体のオプティカルフローを背景フローとして特定する、背景フロー特定手段と、
     前記背景フローのベクトルに基づいて、投影された前記オプティカルフロー全ての始点の位置を補正し、補正によって長さが所定範囲以下となった前記オプティカルフローを除去する、補正処理手段と、
     除去されなかった前記オプティカルフローに対して、その位置に基づいて、クラスタリングを行なう、クラスタリング手段と、
     前記クラスタリングの結果を用いて、前記画像データ中の移動体を特定する、移動体特定手段と、
    を備えていることを特徴とする移動体検知装置。
  2. 請求項1に記載の移動体検知装置であって、
     前記補正処理手段が、前記背景フローのベクトルに基づいて前記車両の移動方向及び移動量を求め、投影された前記オプティカルフロー全ての始点の位置を、前記移動方向と反対の方向に、前記移動量の分だけ、移動させて、補正を行う、
    ことを特徴とする移動体検知装置。
  3. 請求項2に記載の移動体検知装置であって、
     前記背景フローのベクトルに基づいて求められた前記車両の移動量を用いて、前記移動体の速度を算出する、移動体速度算出手段を更に備えている、
    ことを特徴とする移動体検知装置。
  4. 請求項1~3のいずれかに記載の移動体検知装置であって、
     前記クラスタリングによって得られたクラスタ毎に、当該クラスタの位置が、最新の前記画像データ以外の画像データから予測された位置と重なるかどうかを判定する、トラッキング手段を更に備え、
     前記移動体特定手段が、重なり合うと判定されたクラスタに基づいて、画像中の移動体を特定する、
    ことを特徴とする移動体検知装置。
  5.  車両に取り付けられた撮像装置が設定間隔で出力する画像データから、特徴点を抽出し、
     最新の前記画像データと、それよりも過去に出力された前記画像データとを対比して、抽出された前記特徴点毎に、当該特徴点のオプティカルフローを特定し、
     特定された前記オプティカルフローを、前記撮像装置を原点とする実空間の座標系に投影し、
     投影された前記オプティカルフローのうち、背景を構成する物体のオプティカルフローを背景フローとして特定し、
     前記背景フローのベクトルに基づいて、投影された前記オプティカルフロー全ての始点の位置を補正し、補正によって長さが所定範囲以下となった前記オプティカルフローを除去し、
     除去されなかった前記オプティカルフローに対して、その位置に基づいて、クラスタリングを行ない、
     前記クラスタリングの結果を用いて、前記画像データ中の移動体を特定する、
    ことを特徴とする移動体検知方法。
  6. 請求項5に記載の移動体検知方法であって、
     前記補正において、前記背景フローのベクトルに基づいて前記車両の移動方向及び移動量を求め、投影された前記オプティカルフロー全ての始点の位置を、前記移動方向と反対の方向に、前記移動量の分だけ、移動させて、補正を行う、
    ことを特徴とする移動体検知方法。
  7. 請求項6に記載の移動体検知方法であって、
     更に、前記背景フローのベクトルに基づいて求められた前記車両の移動量を用いて、前記移動体の速度を算出する、
    ことを特徴とする移動体検知方法。
  8. 請求項5~7のいずれかに記載の移動体検知方法であって、
     更に、前記クラスタリングによって得られたクラスタ毎に、当該クラスタの位置が、最新の前記画像データ以外の画像データから予測された位置と重なるかどうかを判定し、
     前記移動体の特定において、重なり合うと判定されたクラスタに基づいて、画像中の移動体を特定する、
    ことを特徴とする移動体検知方法。
  9. コンピュータに、
     車両に取り付けられた撮像装置が設定間隔で出力する画像データから、特徴点を抽出させ、
     最新の前記画像データと、それよりも過去に出力された前記画像データとを対比して、抽出された前記特徴点毎に、当該特徴点のオプティカルフローを特定させ、
     特定された前記オプティカルフローを、前記撮像装置を原点とする実空間の座標系に投影させ、
     投影された前記オプティカルフローのうち、背景を構成する物体のオプティカルフローを背景フローとして特定させ、
     前記背景フローのベクトルに基づいて、投影された前記オプティカルフロー全ての始点の位置を補正させ、補正によって長さが所定範囲以下となった前記オプティカルフローを除去させ、
     除去されなかった前記オプティカルフローに対して、その位置に基づいて、クラスタリングを行なわせ、
     前記クラスタリングの結果を用いて、前記画像データ中の移動体を特定させる、
    命令を含むプログラムを記録しているコンピュータ読み取り可能な記録媒体。
  10. 請求項9に記載のコンピュータ読み取り可能な記録媒体であって、
     前記補正において、前記背景フローのベクトルに基づいて前記車両の移動方向及び移動量を求め、投影された前記オプティカルフロー全ての始点の位置を、前記移動方向と反対の方向に、前記移動量の分だけ、移動させて、補正を行う、
    ことを特徴とするコンピュータ読み取り可能な記録媒体。
  11. 請求項10に記載のコンピュータ読み取り可能な記録媒体であって、
    前記プログラムが、前記コンピュータに、
     前記背景フローのベクトルに基づいて求められた前記車両の移動量を用いて、前記移動体の速度を算出させる命令を更に含む、
    ことを特徴とするコンピュータ読み取り可能な記録媒体。
  12. 請求項9~11のいずれかに記載のコンピュータ読み取り可能な記録媒体であって、
    前記プログラムが、前記コンピュータに、
     前記クラスタリングによって得られたクラスタ毎に、当該クラスタの位置が、最新の前記画像データ以外の画像データから予測された位置と重なるかどうかを判定させる命令を更に含み、
     前記移動体の特定において、重なり合うと判定されたクラスタに基づいて、画像中の移動体を特定する、
    ことを特徴とするコンピュータ読み取り可能な記録媒体。
PCT/JP2023/009085 2022-03-16 2023-03-09 移動体検知装置、移動体検知方法、及びコンピュータ読み取り可能な記録媒体 WO2023176695A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022041142 2022-03-16
JP2022-041142 2022-03-16

Publications (1)

Publication Number Publication Date
WO2023176695A1 true WO2023176695A1 (ja) 2023-09-21

Family

ID=88023738

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/009085 WO2023176695A1 (ja) 2022-03-16 2023-03-09 移動体検知装置、移動体検知方法、及びコンピュータ読み取り可能な記録媒体

Country Status (1)

Country Link
WO (1) WO2023176695A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016151976A1 (ja) * 2015-03-26 2016-09-29 パナソニックIpマネジメント株式会社 移動体検出装置、画像処理装置、移動体検出方法、及び、集積回路
JP2018097776A (ja) * 2016-12-16 2018-06-21 株式会社デンソーテン 障害物検出装置および障害物検出方法
WO2018159467A1 (ja) * 2017-02-28 2018-09-07 Necソリューションイノベータ株式会社 移動体検知装置、移動体検知方法、及びコンピュータ読み取り可能な記録媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016151976A1 (ja) * 2015-03-26 2016-09-29 パナソニックIpマネジメント株式会社 移動体検出装置、画像処理装置、移動体検出方法、及び、集積回路
JP2018097776A (ja) * 2016-12-16 2018-06-21 株式会社デンソーテン 障害物検出装置および障害物検出方法
WO2018159467A1 (ja) * 2017-02-28 2018-09-07 Necソリューションイノベータ株式会社 移動体検知装置、移動体検知方法、及びコンピュータ読み取り可能な記録媒体

Similar Documents

Publication Publication Date Title
US10586102B2 (en) Systems and methods for object tracking
US9773176B2 (en) Image processing apparatus and image processing method
CN113486797A (zh) 无人车位置检测方法、装置、设备、存储介质及车辆
US10733705B2 (en) Information processing device, learning processing method, learning device, and object recognition device
JP4416039B2 (ja) 縞模様検知システム、縞模様検知方法および縞模様検知用プログラム
JP6795224B2 (ja) 移動体検知装置、移動体検知方法、及びプログラム
JP2000011133A (ja) 移動物体検出装置及びその方法
WO2018235300A1 (ja) 物体検知装置、物体検知方法、及びコンピュータ読み取り可能な記録媒体
KR20200000953A (ko) 어라운드 뷰 모니터링 시스템 및 카메라 공차 보정 방법
US11417080B2 (en) Object detection apparatus, object detection method, and computer-readable recording medium
US20150178573A1 (en) Ground plane detection
JP6620607B2 (ja) 画像解析プログラム、画像解析装置、及び画像解析方法
KR101851492B1 (ko) 번호판 인식 방법 및 번호판 인식 장치
WO2023176695A1 (ja) 移動体検知装置、移動体検知方法、及びコンピュータ読み取り可能な記録媒体
JP7078295B2 (ja) 変状検出装置、変状検出方法、及びプログラム
JPWO2019167238A1 (ja) 画像処理装置および画像処理方法
JP3319383B2 (ja) 走行路認識装置
JP5125214B2 (ja) 障害物検出方法および障害物検出装置
CN114037977B (zh) 道路灭点的检测方法、装置、设备及存储介质
JP4469980B2 (ja) 移動体追跡のための画像処理方法
JP2010205039A (ja) 障害物検出装置
CN112784671A (zh) 障碍物检测装置及障碍物检测方法
CN112184827A (zh) 校准多个摄像机的方法及装置
JP2021077091A (ja) 画像処理装置および画像処理方法
JP6582891B2 (ja) 空車枠特定システム、方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23770651

Country of ref document: EP

Kind code of ref document: A1