JP6795224B2 - 移動体検知装置、移動体検知方法、及びプログラム - Google Patents

移動体検知装置、移動体検知方法、及びプログラム Download PDF

Info

Publication number
JP6795224B2
JP6795224B2 JP2019502945A JP2019502945A JP6795224B2 JP 6795224 B2 JP6795224 B2 JP 6795224B2 JP 2019502945 A JP2019502945 A JP 2019502945A JP 2019502945 A JP2019502945 A JP 2019502945A JP 6795224 B2 JP6795224 B2 JP 6795224B2
Authority
JP
Japan
Prior art keywords
image data
optical flow
clusters
cluster
clustering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019502945A
Other languages
English (en)
Other versions
JPWO2018159467A1 (ja
Inventor
安利 深谷
安利 深谷
翔平 小野
翔平 小野
正晃 森
正晃 森
絵里奈 北原
絵里奈 北原
栗田 裕二
裕二 栗田
忠 関原
忠 関原
浩人 岩瀬
浩人 岩瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solutions Innovators Ltd
Original Assignee
NEC Solutions Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solutions Innovators Ltd filed Critical NEC Solutions Innovators Ltd
Publication of JPWO2018159467A1 publication Critical patent/JPWO2018159467A1/ja
Application granted granted Critical
Publication of JP6795224B2 publication Critical patent/JP6795224B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/231Hierarchical techniques, i.e. dividing or merging pattern sets so as to obtain a dendrogram
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、撮像装置で撮影された画像から移動体を検知するための、移動体検知装置、及び移動体検知方法に関し、更には、これらを実現するためのプログラムに関する。
近年、車両及びその周囲の安全性を高めるため、車両に取り付けられたカメラからの画像データに基づいて、車両周辺の移動体を検知して、運転者に移動体の接近を通知する技術が提案されている(例えば、特許文献1及び2参照。)。
具体的には、特許文献1及び2は、共に、車両に搭載される移動体検知装置を開示している。そして、特許文献1及び2に開示された移動体検知装置は、まず、カメラから設定間隔で出力されてくる各画像から特徴点を抽出し、抽出した特徴点を画像間で比較して、特徴点を結ぶオプティカルフローを生成する。
次いで、特許文献1に開示された移動体検知装置は、設定条件を満たすオプティカルフローを選択する。また、このときの設定条件は2つあり、1つは、オプティカルフローの延長線が所定の誤差範囲で一点の消失点で交わることである。もう1つは、オプティカルフローの延長線において、オプティカルフローの一方の端点を外分点として、オプティカルフローの他方の端点と消失点とを結ぶ線分の外分比が所定の誤差範囲で等しいことである。そして、特許文献1に開示された移動体検知装置は、選択したオプティカルフローから移動体を検知する。
特許文献1及び2に開示された移動体検知装置によれば、車両周辺の移動体を検知できるので、例えば、車両の後方を撮影するリアカメラからの映像に基づいて、移動体を検知するようにすれば、運転者は、後方に位置する車両を認識できるようになる。
特開2008−97126号公報 特開2011−43922号公報
しかしながら、上記特許文献1及び2に開示された移動体検知装置は、一点の消失点で交わるオプティカルフローを選択することによって、移動体を検知している。このため、上記特許文献1及び2に開示された移動体検知装置では、背景の一部を構成している物体、例えば、道路標識、駐車されている車両、看板等も、車両に対しては相対的に移動することから、これらを誤って検知してしまう可能性がある。
本発明の目的の一例は、上記問題を解消し、移動体と背景を構成する物体とを区別して移動体の検知精度を向上し得る、移動体検知装置、移動体検知方法、及びプログラムを提供することにある。
上記目的を達成するため、本発明の一側面における移動体検知装置は、車両に取り付けられた撮像装置が出力する画像データから移動体を検知するための装置であって、
前記撮像装置によって設定間隔で出力されてくる前記画像データから、画像中を移動している特徴点を抽出する、特徴点抽出部と、
最新の前記画像データと、それよりも過去に出力された前記画像データとを対比して、抽出された前記特徴点毎に、当該特徴点のオプティカルフローを特定する、オプティカルフロー特定部と、
特定された前記オプティカルフローとその画像上での位置とに基づいて、前記オプティカルフローに対してクラスタリングを行なって、前記オプティカルフローをクラスタに分ける、クラスタリング部と、
前記車両の進行方向及び速度に基づいて、前記クラスタリングによって得られたクラスタの中から、背景を構成する物体に該当するクラスタを除去する、フィルタリング部と、
前記フィルタリング部によるクラスタの除去後の前記クラスタリングの結果を用いて、画像中の移動体を特定する、移動体特定部と、
を備えていることを特徴とする。
また、上記目的を達成するため、本発明の一側面における移動体検知方法は、車両に取り付けられた撮像装置が出力する画像データから移動体を検知するための方法であって、(a)前記撮像装置によって設定間隔で出力されてくる前記画像データから、画像中を移動している特徴点を抽出する、ステップと、
(b)最新の前記画像データと、それよりも過去に出力された前記画像データとを対比して、抽出された前記特徴点毎に、当該特徴点のオプティカルフローを特定する、ステップと、
(c)特定された前記オプティカルフローとその画像上での位置とに基づいて、前記オプティカルフローに対してクラスタリングを行なって、前記オプティカルフローをクラスタに分ける、ステップと、
(d)前記車両の進行方向及び速度に基づいて、前記クラスタリングによって得られたクラスタの中から、背景を構成する物体に該当するクラスタを除去する、ステップと、
(e)前記(d)のステップによるクラスタの除去後の前記クラスタリングの結果を用いて、画像中の移動体を特定する、ステップと、
を有することを特徴とする。
更に、上記目的を達成するため、本発明の一側面におけるプログラムは、コンピュータによって、車両に取り付けられた撮像装置が出力する画像データからの移動体の検知を行なうためのプログラムであって、
前記コンピュータに、
(a)前記撮像装置によって設定間隔で出力されてくる前記画像データから、画像中を移動している特徴点を抽出する、ステップと、
(b)最新の前記画像データと、それよりも過去に出力された前記画像データとを対比して、抽出された前記特徴点毎に、当該特徴点のオプティカルフローを特定する、ステップと、
(c)特定された前記オプティカルフローとその画像上での位置とに基づいて、前記オプティカルフローに対してクラスタリングを行なって、前記オプティカルフローをクラスタに分ける、ステップと、
(d)前記車両の進行方向及び速度に基づいて、前記クラスタリングによって得られたクラスタの中から、背景を構成する物体に該当するクラスタを除去する、ステップと、
(e)前記(d)のステップによるクラスタの除去後の前記クラスタリングの結果を用いて、画像中の移動体を特定する、ステップと、
を実行させる、ことを特徴とする。
以上のように、本発明によれば、移動体と背景を構成する物体とを区別して移動体の検知精度を向上することができる。
図1は、本発明の実施の形態における移動体検知装置の概略構成を示すブロック図である。 図2は、本発明の実施の形態における移動体検知装置の具体的構成を示すブロック図である。 図3は、本発明の実施の形態における特徴点のオプティカルフローの特定処理を説明するための図である。 図4は、本発明の実施の形態におけるオプティカルフローのクラスタリング処理を説明するための図である。 図5は、本発明の実施の形態における背景除去の処理を説明するための図である。 図6は、本発明の実施の形態における移動体の相対速度の算出処理を説明するための図である。 図7は、本発明の実施の形態における移動体検知装置の動作を示すフロー図である。 図8は、本発明の実施の形態における移動体検知装置を実現するコンピュータの一例を示すブロック図である。
(実施の形態)
以下、本発明の実施の形態における、移動体検知装置、移動体検知方法、及びプログラムについて、図1〜図8を参照しながら説明する。
[装置構成]
最初に、本実施の形態における移動体検知装置の概略構成について図1を用いて説明する。図1は、本発明の実施の形態における移動体検知装置の概略構成を示すブロック図である。
図1に示す本実施の形態における移動体検知装置10は、車両に取り付けられた撮像装置が出力する画像データから移動体を検知するための装置である。図1に示すように、移動体検知装置10は、特徴点抽出部11と、オプティカルフロー特定部12と、クラスタリング部13と、フィルタリング部14と、移動体特定部15とを備えている。
特徴点抽出部11は、撮像装置によって設定間隔で出力されてくる画像データから、画像中を移動している特徴点を抽出する。オプティカルフロー特定部12は、最新の画像データと、それよりも過去に出力された画像データとを対比して、抽出された特徴点毎に、各特徴点のオプティカルフローを特定する。
クラスタリング部13は、特定されたオプティカルフローとその画像上での位置とに基づいて、得られた全てのオプティカルフローに対してクラスタリングを行なって、各オプティカルフローをクラスタに分ける。フィルタリング部14は、車両の進行方向及び速度に基づいて、クラスタリングによって得られたクラスタの中から、背景を構成する物体に該当するクラスタを除去する。移動体特定部15は、フィルタリング部14によるクラスタの除去後のクラスタリングの結果を用いて、画像中の移動体を特定する。
このように、本実施の形態では、移動体検知装置10は、特徴点のオプティカルフローをクラスタリングし、得られたクラスタから、背景に該当するクラスタを除去することで、移動体を検知している。このため、本実施の形態によれば、移動体と背景を構成する物体とを区別して移動体の検知精度を向上することができる。
続いて、図2を用いて、本実施の形態における移動体検知装置の構成について更に具体的に説明する。図2は、本発明の実施の形態における移動体検知装置の具体的構成を示すブロック図である。
図2に示すように、本実施の形態における移動体検知装置10は、外部の撮像装置20に接続されている。撮像装置20は、固体撮像素子を備え、撮影を行なうと、カラー画像の画像データを移動体検知装置10に出力する。本実施の形態では、撮像装置20は、設定された時間間隔(フレームレート)で、連続して画像データを出力する。
また、図2に示すように、本実施の形態においては、移動体検知装置10は、特徴点抽出部11、オプティカルフロー特定部12、クラスタリング部13、フィルタリング部14、及び移動体特定部15に加えて、画像取得部16と、トラッキング部17と、移動体速度算出部18とを備えている。
画像取得部16は、撮像装置20から処理対象となる画像データを取得する。具体的には、画像取得部16は、撮像装置20からはカラー画像の画像データが出力されるので、まず、出力されてきた画像データに対して画像変換を行なって、カラー画像をグレースケール画像に変換する。続いて、画像取得部16は、画像データに対して、必要に応じて歪み補正を実行し、その後、補正後の画像データを、特徴点抽出部11とオプティカルフロー特定部12とに入力する。なお、歪み補正が行なわれるのは、例えば、撮像装置20に取り付けられている撮影レンズが魚眼レンズ等である場合である。
特徴点抽出部11は、本実施の形態では、まず、予め設定されたフレーム数分(例えば、10フレーム)の画像データを用いて、輝度変化の不偏分散を計算し、計算値と閾値とを対比して、各画素が移動画素及び静止画素のいずれに該当するかを判定する。そして、特徴点抽出部11は、移動画素と判定した画素が存在する領域を、移動体が存在する移動領域とする。次に、特徴点抽出部11は、現フレームの画像データの移動領域において、例えば、一般的なFASTアルゴリズムを用いて、特徴点を抽出する。
オプティカルフロー特定部12は、本実施の形態では、例えば、図3に示すように、まず、現フレームの1つ前の過去フレームの特徴点と現フレームの特徴点とを対比し、対応する特徴点同士を紐付けする。図3の例では、オプティカルフロー特定部12は、1つ前の過去フレームの特徴点1と現フレームの特徴点3とを紐付け、1つ前の過去フレームの特徴点2と現フレームの特徴点4とを紐付ける。そして、オプティカルフロー特定部12は、紐付けた特徴点同士を結び、オプティカルフローを特定する。図3は、本発明の実施の形態における特徴点のオプティカルフローの特定処理を説明するための図である。
具体的には、オプティカルフロー特定部12は、特徴点同士の類似度を算出し、算出した類似度が閾値以上となる特徴点同士を紐付ける。この場合の類似度としては、Rotated Brief法で生成されたバイナリーコードから算出されるハミング距離が挙げられる。
また、オプティカルフロー特定部12は、処理時間を短縮するため、画像を分割し、分割によって得られた各エリアとその周辺のエリアとをひとつのグループとし、グループ毎に、特徴点同士の結びつけと、オプティカルフローの特定とを行なうこともできる。
更に、本実施の形態では、オプティカルフロー特定部12は、移動体検知装置10を搭載している車両(以下「自車両」と表記する)から、車両情報を取得して、自車両の進行方向と速度とを特定することもできる。車両情報は、自車両の状態(前進又は後進)、旋回角度、速度等を特定する情報である。この場合、オプティカルフロー特定部12は、自車両の進行方向及び速度に基づいて、特定したオプティカルフローの中から、背景を構成する物体に関連するオプティカルフローを除去する。
クラスタリング部13は、本実施の形態では、x−meanアルゴリズムを使用して、クラスタリングを実行する。例えば、図4に示すように、クラスタリング部13は、まず、オプティカルフロー間の距離を特定し、特定した距離に基づいて、クラスタリングを実行する。図4は、本発明の実施の形態におけるオプティカルフローのクラスタリング処理を説明するための図である。
次に、クラスタリング部13は、クラスタリングによって生成されたクラスタ毎に、長さ、位置(画面内の座標)、及び向きが、そのクラスタ内のオプティカルフローの平均値から大きく乖離しているオプティカルフローを特定する。特定されたオプティカルフローは同じ移動体に由来するものとは考えられないため、クラスタリング部13は、図4に示すように、特定したオプティカルフローを、元のクラスタから除去し、新規に生成したクラスタに登録する。
また、クラスタリング部13は、クラスタリングの実行後、複数のクラスタ間において、それらの位置関係と、それぞれのオプティカルフローの長さ及び向きとが、設定条件を満たす場合に、これらのクラスタを結合して1つのクラスタとする。これらのクラスタのオプティカルフローは同じ移動体に由来すると考えられるからである。
具体的には、クラスタリング部13は、まず、クラスタが互いに重なっていること、クラスタ間において、クラスタ内のオプティカルフローの平均長さと向きとが近似していること、を条件に、結合候補となる2つクラスタを特定する。次に、クラスタリング部13は、結合候補となった2つのクラスタ間について、互いの中心を結んだときの中央のエリア(例えば、20ピクセル×20ピクセル)でのオプティカルフローの向きを対比し、向きが各クラスタで一致している場合は、これらの結合候補を結合する。
トラッキング部17は、クラスタリングによって得られたクラスタ毎に、各クラスタの位置が、最新の画像データ以外の画像データから予測された位置と重なるかどうかを判定する。具体的には、トラッキング部17は、現フレームにおける判定対象となるクラスタを、複数の過去フレーム(例えば、過去6フレーム)における判定対象となるクラスタと対比して、一定数以上の過去フレームにおいて一致していれば、重なると判定する。そして、トラッキング部17は、重なると判定したクラスタを、フィルタリング部14に通知する。
また、トラッキング部17は、判定において、現フレームのクラスタと過去フレームのクラスタとが、完全に一致している場合だけに限られず、両者が一定の割合以上で重なっている場合も一致しているとする。更に、対応する移動体が異なるクラスタ同士が一致してしまうのを防ぐため、トラッキング部17は、判定対象となるクラスタの面積を縮小してから(例えば、1/4)、一致の判断を行なうこともできる。
更に、トラッキング部17は、判定対象となったクラスタの座標として、現フレームのクラスタの座標と一致した過去フレームのクラスタの座標との平均座標を算出し、算出した平均座標を、判定対象となったクラスタの座標とすることもできる。
また、トラッキング部17は、現フレームのクラスタと複数の過去フレームのクラスタとの対比の結果、一致している過去フレームの枚数が閾値未満の場合は、誤検知の可能性が高いため、トラッキング部17は、判定対象となるクラスタを削除する。但し、削除したクラスタについて、前回の判定において重なると判定されている場合は、トラッキング部17は、削除したクラスタを復帰させることもできる。
フィルタリング部14は、本実施の形態では、まず、自車両から、車両情報を取得して、自車両の進行方向と速度とを特定する。車両情報は、自車両の状態(前進又は後進)、旋回角度、速度等を特定する情報である。
続いて、フィルタリング部14は、特定した自車両の進行方向と速度とに基づいて、トラッキング部17から通知された各クラスタの中から、背景を構成する物体に該当するクラスタを特定し、特定したクラスタを除去する。
具体的には、図5に示すように、地面に固定されている物体(例えば、樹木)31については、その移動方向は自車両30の移動方向の反対方向となり、その移動量は自車両30の移動量と等しくなる。また、進行方向が逆の車両32については、その移動方向は、自車両30の移動方向の反対方向となり、その移動量は自車両の移動量よりも大きくなる。図5は、本発明の実施の形態における背景除去の処理を説明するための図である。なお、図5において、自車両30の後方の破線は、撮像装置の撮影範囲を示している。
従って、フィルタリング部14は、まず、通知されたクラスタに含まれるオプティカルフローの中から、移動方向が自車両30の移動方向と反対方向となり、且つ、移動量が自車両30の移動量以上となる、オプティカルフローを特定する。そして、フィルタリング部14は、特定したオプティカルフローを含むクラスタを、背景を構成する物体に該当するクラスタとして特定し、これを除去する。
移動体特定部15は、本実施の形態では、トラッキング部17及びフィルタリング部14によって除去されたクラスタ以外のクラスタに基づいて、移動体を特定する。また、移動体特定部15は、特定した移動体の情報を車両に通知する。このとき通知される情報としては、移動体の画像上の位置、移動方向、及び速度等が挙げられる。なお、速度は、後述する移動体算出部18によって算出される。
移動体速度算出部18は、移動体特定部15によって特定された移動体におけるオプティカルフローの方向及び長さを用いて、移動体検知装置10(自車両)を基準とした、特定された移動体の速度(相対速度)を算出する。
具体的には、移動体速度算出部18は、図6に示すように、まず、現フレーム及び1つ前の過去フレームそれぞれにおいて、特定された移動体の自車両に最も近い点(移動体の画面上の右下又は左下の点)の座標を特定する。なお、1つ前の過去フレームで特定された座標を開始座標、現フレームに特定された座標を終了座標とする。また、移動体速度算出部18は、特定された移動体のオプティカルフローの平均の長さ及び角度から、開始座標を推定することができる。図6は、本発明の実施の形態における移動体の相対速度の算出処理を説明するための図である。
次に、移動体速度算出部18は、図6に示すように、撮像装置20のカメラパラメータを使って、鳥瞰視点変換を行い、開始座標及び終了座標を、実座標系での座標に変換する。また、移動体速度算出部18は、変換後の各座標から、実空間における開始座標と終了座標との距離を算出し、これを相対移動距離とする。
そして、移動体速度算出部18は、1つ前の過去フレームから現フレームまでの時間と、算出した相対移動距離とから、自車両を基準とした移動体の速度を算出する。なお、1つ前の過去フレームから現フレームまでの時間は、フレームレートから求められる。例えば、フレームレートが10fpsであるならば、時間は0.1秒となる。
[装置動作]
次に、本発明の実施の形態における移動体検知装置10の動作について図7を用いて説明する。図7は、本発明の実施の形態における移動体検知装置の動作を示すフロー図である。以下の説明においては、適宜図1〜図6を参酌する。また、本実施の形態では、移動体検知装置10を動作させることによって、移動体検知方法が実施される。よって、本実施の形態における移動体検知方法の説明は、以下の移動体検知装置10の動作説明に代える。
図7に示すように、最初に、画像取得部16は、撮像装置20から出力されてくる画像データを、フレーム毎に取得する(ステップA1)。
具体的には、ステップA1では、画像取得部16は、まず、取得された画像データに対して、グレースケール画像への変換、歪み補正等を行なう。そして、画像取得部16は、取得された画像データのフレーム数が設定枚数に達した以降、これらの画像データを特徴点抽出部11に渡す。
次に、特徴点抽出部11は、ステップA1で取得された画像データから、画像中を移動している特徴点を抽出する(ステップA2)。
具体的には、ステップA2では、特徴点抽出部11は、予め設定されたフレーム数分(例えば、10フレーム)の画像データを用いて、輝度変化の不偏分散を計算して、各画素が移動画素及び静止画素のいずれに該当するかを判定する。そして、特徴点抽出部11は、移動画素と判定した画素が存在する移動領域から、特徴点を抽出する。
次に、オプティカルフロー特定部12は、最新の画像データと、それよりも過去に出力された画像データとを対比して、抽出された特徴点毎に、各特徴点のオプティカルフローを特定する(ステップA3)。
具体的には、ステップA3では、オプティカルフロー特定部12は、図3に示すように、現フレームの1つ前の過去フレームの特徴点と現フレームの特徴点とを対比し、対応する特徴点同士を紐付け、紐付けた特徴点同士を結びことで、オプティカルフローを特定する。
次に、オプティカルフロー特定部12は、自車両の進行方向及び速度に基づいて、ステップA3で特定したオプティカルフローの中から、背景を構成する物体に関連するオプティカルフローを除去する(ステップA4)。
次に、クラスタリング部13は、特定されたオプティカルフローとその画像上での位置とに基づいて、得られた全てのオプティカルフローに対してクラスタリングを行なって、各オプティカルフローをクラスタに分ける(ステップA5)。
具体的には、クラスタリング部13は、図4に示すように、まず、オプティカルフロー間の距離を特定し、特定した距離に基づいて、クラスタリングを実行する。次に、クラスタリング部13は、長さ、位置(画面内の座標)、及び向きが、そのクラスタ内のオプティカルフローの平均値から大きく乖離しているオプティカルフローを元のクラスタから除去し、新規に生成したクラスタに登録する。
次に、トラッキング部17は、クラスタリングによって得られたクラスタ毎に、各クラスタの位置が、最新の画像データ以外の画像データから予測された位置と重なるかどうかを判定し、重ならないクラスタを、不要なクラスタとして除去する(ステップA6)。
次に、続いて、フィルタリング部14は、自車両の進行方向と速度とに基づいて、トラッキング部17から通知された各クラスタの中から、背景を構成する物体に該当するクラスタを特定し、特定したクラスタを除去する(ステップA7)。
次に、移動体特定部15は、ステップA6及びA7によって除去されたクラスタ以外のクラスタに基づいて、移動体を特定する(ステップA8)。
次に、移動体速度算出部18は、ステップA3によって特定された移動体におけるオプティカルフローの方向及び長さを用いて、移動体検知装置10(自車両)を基準とした、特定された移動体の相対速度を算出する(ステップA9)。
その後、移動体特定部15は、ステップA9で移動体の速度が算出されると、それを含む移動体情報を生成し、生成した移動体情報を車両に通知する(ステップA10)。また、ステップA10が実行されると、車両は、メーターパネル等に移動体情報を表示したり、衝突検知処理を行なったりする。
以上のように、本実施の形態では、移動体検知装置10は、特徴点のオプティカルフローをクラスタリングし、得られたクラスタから、背景に該当するクラスタを除去することで、移動体を検知している。このため、本実施の形態によれば、移動体と背景を構成する物体とを区別して移動体の検知精度を向上することができる。
また、本実施の形態では、トラッキング部17によって、トラッキングが行なわれるので、瞬間的な誤検知が発生した場合に、これに対応できる。更に、トラッキング部17は、トラッキングによって削除したクラスタを、過去のフレームに基づいて復帰させることができるので、何らかの原因によって移動体検知が途切れてしまった場合にも対応できる。
[プログラム]
本実施の形態におけるプログラムは、コンピュータに、図7に示すステップA1〜A10を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における移動体検知装置10と移動体検知方法とを実現することができる。この場合、コンピュータのプロセッサは、特徴点抽出部11、オプティカルフロー特定部12、クラスタリング部13、フィルタリング部14、移動体特定部15、画像取得部16、トラッキング部17、及び移動体速度算出部18として機能し、処理を行なう。また、コンピュータとしては、車両に搭載されているコンピュータ、汎用のコンピュータ、携帯用の情報端末に搭載されているコンピュータ等が挙げられる。
また、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、特徴点抽出部11、オプティカルフロー特定部12、クラスタリング部13、フィルタリング部14、移動体特定部15、画像取得部16、トラッキング部17、及び移動体速度算出部18のいずれかとして機能しても良い。
ここで、本実施の形態におけるプログラムを実行することによって、移動体検知装置10を実現するコンピュータの一例について図8を用いて説明する。図8は、本発明の実施の形態における移動体検知装置を実現するコンピュータの一例を示すブロック図である。
図8に示すように、コンピュータ110は、CPU(Central Processing Unit)111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。なお、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)を備えていても良い。
CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記録媒体が挙げられる。
なお、本実施の形態における移動体検知装置10は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、移動体検知装置10は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
上述した実施の形態の一部又は全部は、以下に記載する(付記1)〜(付記15)によって実現することができるが、以下の記載に限定されるものではない。
(付記1)
車両に取り付けられた撮像装置が出力する画像データから移動体を検知するための装置であって、
前記撮像装置によって設定間隔で出力されてくる前記画像データから、画像中を移動している特徴点を抽出する、特徴点抽出部と、
最新の前記画像データと、それよりも過去に出力された前記画像データとを対比して、抽出された前記特徴点毎に、当該特徴点のオプティカルフローを特定する、オプティカルフロー特定部と、
特定された前記オプティカルフローとその画像上での位置とに基づいて、前記オプティカルフローに対してクラスタリングを行なって、前記オプティカルフローをクラスタに分ける、クラスタリング部と、
前記車両の進行方向及び速度に基づいて、前記クラスタリングによって得られたクラスタの中から、背景を構成する物体に該当するクラスタを除去する、フィルタリング部と、
前記フィルタリング部によるクラスタの除去後の前記クラスタリングの結果を用いて、画像中の移動体を特定する、移動体特定部と、
を備えていることを特徴とする移動体検知装置。
(付記2)
前記クラスタリングによって得られた前記クラスタ毎に、当該クラスタの位置が、最新の前記画像データ以外の画像データから予測された位置と重なるかどうかを判定する、トラッキング部を更に備え、
前記移動体特定部が、重なり合うと判定されたクラスタに基づいて、画像中の移動体を特定する、
付記1に記載の移動体検知装置。
(付記3)
特定された前記移動体における前記オプティカルフローの方向及び長さを用いて、前記車両を基準とした、特定された前記移動体の速度を算出する、移動体速度算出部を更に備えている、
付記1または2に記載の移動体検知装置。
(付記4)
前記クラスタリング部が、複数の前記クラスタ間において、複数の前記クラスタの位置関係と、それぞれの前記オプティカルフローの長さ及び向きとが、設定条件を満たす場合に、複数の前記クラスタを結合して1つのクラスタとする、
付記1〜3のいずれかに記載の移動体検知装置。
(付記5)
前記オプティカルフロー特定部が、前記車両の進行方向及び速度に基づいて、特定したオプティカルフローの中から、背景を構成する物体に関連するオプティカルフローを除去する、
付記1〜4のいずれかに記載の移動体検知装置。
(付記6)
車両に取り付けられた撮像装置が出力する画像データから移動体を検知するための方法であって、
(a)前記撮像装置によって設定間隔で出力されてくる前記画像データから、画像中を移動している特徴点を抽出する、ステップと、
(b)最新の前記画像データと、それよりも過去に出力された前記画像データとを対比して、抽出された前記特徴点毎に、当該特徴点のオプティカルフローを特定する、ステップと、
(c)特定された前記オプティカルフローとその画像上での位置とに基づいて、前記オプティカルフローに対してクラスタリングを行なって、前記オプティカルフローをクラスタに分ける、ステップと、
(d)前記車両の進行方向及び速度に基づいて、前記クラスタリングによって得られたクラスタの中から、背景を構成する物体に該当するクラスタを除去する、ステップと、
(e)前記(d)のステップによるクラスタの除去後の前記クラスタリングの結果を用いて、画像中の移動体を特定する、ステップと、
を有することを特徴とする移動体検知方法。
(付記7)
(f)前記(c)のステップによって得られた前記クラスタ毎に、当該クラスタの位置が、最新の前記画像データ以外の画像データから予測された位置と重なるかどうかを判定する、ステップを更に有し、
前記(e)のステップにおいて、前記(f)のステップで重なり合うと判定されたクラスタに基づいて、画像中の移動体を特定する、
付記6に記載の移動体検知方法。
(付記8)
(g)前記(e)のステップで特定された前記移動体における前記オプティカルフローの方向及び長さを用いて、前記車両を基準とした、特定された前記移動体の速度を算出する、ステップを更に有する、
付記6または7に記さいの移動体検知方法。
(付記9)
前記(c)のステップにおいて、複数の前記クラスタ間において、複数の前記クラスタの位置関係と、それぞれの前記オプティカルフローの長さ及び向きとが、設定条件を満たす場合に、複数の前記クラスタを結合して1つのクラスタとする、
付記6〜8のいずれかに記載の移動体検知方法。
(付記10)
(f)前記(c)のステップの実行前に、前記車両の進行方向及び速度に基づいて、前記(b)のステップで特定したオプティカルフローの中から、背景を構成する物体に関連するオプティカルフローを除去する、ステップを更に有する、
付記6〜9のいずれかに記載の移動体検知方法。
(付記11)
コンピュータによって、車両に取り付けられた撮像装置が出力する画像データからの移動体の検知を行なうためのプログラムであって、
前記コンピュータに、
(a)前記撮像装置によって設定間隔で出力されてくる前記画像データから、画像中を移動している特徴点を抽出する、ステップと、
(b)最新の前記画像データと、それよりも過去に出力された前記画像データとを対比して、抽出された前記特徴点毎に、当該特徴点のオプティカルフローを特定する、ステップと、
(c)特定された前記オプティカルフローとその画像上での位置とに基づいて、前記オプティカルフローに対してクラスタリングを行なって、前記オプティカルフローをクラスタに分ける、ステップと、
(d)前記車両の進行方向及び速度に基づいて、前記クラスタリングによって得られたクラスタの中から、背景を構成する物体に該当するクラスタを除去する、ステップと、
(e)前記(d)のステップによるクラスタの除去後の前記クラスタリングの結果を用いて、画像中の移動体を特定する、ステップと、
を実行させる、プログラム。
(付記12)
記コンピュータに、
(f)前記(c)のステップによって得られた前記クラスタ毎に、当該クラスタの位置が、最新の前記画像データ以外の画像データから予測された位置と重なるかどうかを判定する、ステップを更に実行させ、
前記(e)のステップにおいて、前記(f)のステップで重なり合うと判定されたクラスタに基づいて、画像中の移動体を特定する、
付記11に記載のプログラム
(付記13)
記コンピュータに、
(g)前記(e)のステップで特定された前記移動体における前記オプティカルフローの方向及び長さを用いて、前記車両を基準とした、特定された前記移動体の速度を算出する、ステップを更に実行させる、
付記11または12に記載のプログラム
(付記14)
前記(c)のステップにおいて、複数の前記クラスタ間において、複数の前記クラスタの位置関係と、それぞれの前記オプティカルフローの長さ及び向きとが、設定条件を満たす場合に、複数の前記クラスタを結合して1つのクラスタとする、
付記11〜13のいずれかに記載のプログラム
(付記15)
記コンピュータに、
(f)前記(c)のステップの実行前に、前記車両の進行方向及び速度に基づいて、前記(b)のステップで特定したオプティカルフローの中から、背景を構成する物体に関連するオプティカルフローを除去する、ステップを更に実行させる、
付記11〜14のいずれかに記載のプログラム

以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2017年2月28日に出願された日本出願特願2017−037555を基礎とする優先権を主張し、その開示の全てをここに取り込む。
以上のように、本発明によれば、移動体と背景を構成する物体とを区別して移動体の検知精度を向上することができる。本発明は、移動体の検知が求められている車両の情報処理装置に有用である。
10 移動体検知装置
11 特徴点抽出部
12 オプティカルフロー特定部
13 クラスタリング部
14 フィルタリング部
15 移動体特定部
16 画像取得部
17 トラッキング部
18 移動体速度算出部
20 撮像装置
30 自車両
31 地面に固定されている物体
32 進行方向が逆の車両
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス

Claims (12)

  1. 車両に取り付けられた撮像装置が出力する画像データから移動体を検知するための装置であって、
    前記撮像装置によって設定間隔で出力されてくる前記画像データから、画像中を移動している特徴点を抽出する、特徴点抽出部と、
    最新の前記画像データと、それよりも過去に出力された前記画像データとを対比して、抽出された前記特徴点毎に、当該特徴点のオプティカルフローを特定する、オプティカルフロー特定部と、
    特定された前記オプティカルフローとその画像上での位置とに基づいて、前記オプティカルフローに対してクラスタリングを行なって、前記オプティカルフローをクラスタに分ける、クラスタリング部と、
    前記車両の進行方向及び速度に基づいて、前記クラスタリングによって得られたクラスタの中から、背景を構成する物体に該当するクラスタを除去する、フィルタリング部と、
    前記クラスタリングによって得られた前記クラスタ毎に、当該クラスタの位置を、最新の前記画像データ以外の複数の画像データそれぞれにおける当該クラスタの位置と対比して、当該クラスタの位置が、一定数以上の前記複数の画像データに一致しているかどうかを判定する、トラッキング部と、
    前記フィルタリング部によるクラスタの除去後の前記クラスタリングの結果を用いて、一定数以上の前記複数の画像データに一致していると判定されたクラスタに基づいて、画像中の移動体を特定する、移動体特定部と、
    を備えていることを特徴とする移動体検知装置。
  2. 特定された前記移動体における前記オプティカルフローの方向及び長さを用いて、前記車両を基準とした、特定された前記移動体の速度を算出する、移動体速度算出部を更に備えている、
    請求項1に記載の移動体検知装置。
  3. 前記クラスタリング部が、複数の前記クラスタ間において、複数の前記クラスタの位置関係と、それぞれの前記オプティカルフローの長さ及び向きとが、設定条件を満たす場合に、複数の前記クラスタを結合して1つのクラスタとする、
    請求項1または2に記載の移動体検知装置。
  4. 前記オプティカルフロー特定部が、前記車両の進行方向及び速度に基づいて、特定したオプティカルフローの中から、背景を構成する物体に関連するオプティカルフローを除去する、
    請求項1〜のいずれかに記載の移動体検知装置。
  5. 車両に取り付けられた撮像装置が出力する画像データから移動体を検知するための方法であって、
    (a)前記撮像装置によって設定間隔で出力されてくる前記画像データから、画像中を移動している特徴点を抽出する、ステップと、
    (b)最新の前記画像データと、それよりも過去に出力された前記画像データとを対比して、抽出された前記特徴点毎に、当該特徴点のオプティカルフローを特定する、ステップと、
    (c)特定された前記オプティカルフローとその画像上での位置とに基づいて、前記オプティカルフローに対してクラスタリングを行なって、前記オプティカルフローをクラスタに分ける、ステップと、
    (d)前記車両の進行方向及び速度に基づいて、前記クラスタリングによって得られたクラスタの中から、背景を構成する物体に該当するクラスタを除去する、ステップと、
    (e)前記クラスタリングによって得られた前記クラスタ毎に、当該クラスタの位置を、最新の前記画像データ以外の複数の画像データそれぞれにおける当該クラスタの位置と対比して、当該クラスタの位置が、一定数以上の前記複数の画像データに一致しているかどうかを判定する、ステップと、
    (f)前記(d)のステップによるクラスタの除去後の前記クラスタリングの結果を用いて、一定数以上の前記複数の画像データに一致していると判定されたクラスタに基づいて、画像中の移動体を特定する、ステップと、
    を有することを特徴とする移動体検知方法。
  6. (g)前記(f)のステップで特定された前記移動体における前記オプティカルフローの方向及び長さを用いて、前記車両を基準とした、特定された前記移動体の速度を算出する、ステップを更に有する、
    請求項に記載の移動体検知方法。
  7. 前記(c)のステップにおいて、複数の前記クラスタ間において、複数の前記クラスタの位置関係と、それぞれの前記オプティカルフローの長さ及び向きとが、設定条件を満たす場合に、複数の前記クラスタを結合して1つのクラスタとする、
    請求項5または6に記載の移動体検知方法。
  8. (f)前記(c)のステップの実行前に、前記車両の進行方向及び速度に基づいて、前記(b)のステップで特定したオプティカルフローの中から、背景を構成する物体に関連するオプティカルフローを除去する、ステップを更に有する、
    請求項5〜7のいずれかに記載の移動体検知方法。
  9. コンピュータによって、車両に取り付けられた撮像装置が出力する画像データからの移動体の検知を行なうためのプログラムであって、
    前記コンピュータに、
    (a)前記撮像装置によって設定間隔で出力されてくる前記画像データから、画像中を移動している特徴点を抽出する、ステップと、
    (b)最新の前記画像データと、それよりも過去に出力された前記画像データとを対比して、抽出された前記特徴点毎に、当該特徴点のオプティカルフローを特定する、ステップと、
    (c)特定された前記オプティカルフローとその画像上での位置とに基づいて、前記オプティカルフローに対してクラスタリングを行なって、前記オプティカルフローをクラスタに分ける、ステップと、
    (d)前記車両の進行方向及び速度に基づいて、前記クラスタリングによって得られたクラスタの中から、背景を構成する物体に該当するクラスタを除去する、ステップと、
    (e)前記クラスタリングによって得られた前記クラスタ毎に、当該クラスタの位置を、最新の前記画像データ以外の複数の画像データそれぞれにおける当該クラスタの位置と対比して、当該クラスタの位置が、一定数以上の前記複数の画像データに一致しているかどうかを判定する、ステップと、
    (f)前記(d)のステップによるクラスタの除去後の前記クラスタリングの結果を用いて、一定数以上の前記複数の画像データに一致していると判定されたクラスタに基づいて、画像中の移動体を特定する、ステップと、
    を実行させる、プログラム。
  10. 前記コンピュータに、
    (g)前記(f)のステップで特定された前記移動体における前記オプティカルフローの方向及び長さを用いて、前記車両を基準とした、特定された前記移動体の速度を算出する、ステップを更に実行させる、
    請求項に記載のプログラム。
  11. 前記(c)のステップにおいて、複数の前記クラスタ間において、複数の前記クラスタの位置関係と、それぞれの前記オプティカルフローの長さ及び向きとが、設定条件を満たす場合に、複数の前記クラスタを結合して1つのクラスタとする、
    請求項9または10に記載のプログラム。
  12. 前記コンピュータに、
    (f)前記(c)のステップの実行前に、前記車両の進行方向及び速度に基づいて、前記(b)のステップで特定したオプティカルフローの中から、背景を構成する物体に関連するオプティカルフローを除去する、ステップを更に実行させる、
    請求項9〜11のいずれかに記載のプログラム。
JP2019502945A 2017-02-28 2018-02-22 移動体検知装置、移動体検知方法、及びプログラム Active JP6795224B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017037555 2017-02-28
JP2017037555 2017-02-28
PCT/JP2018/006586 WO2018159467A1 (ja) 2017-02-28 2018-02-22 移動体検知装置、移動体検知方法、及びコンピュータ読み取り可能な記録媒体

Publications (2)

Publication Number Publication Date
JPWO2018159467A1 JPWO2018159467A1 (ja) 2019-12-19
JP6795224B2 true JP6795224B2 (ja) 2020-12-02

Family

ID=63370461

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019502945A Active JP6795224B2 (ja) 2017-02-28 2018-02-22 移動体検知装置、移動体検知方法、及びプログラム

Country Status (4)

Country Link
US (1) US11062174B2 (ja)
EP (1) EP3591613B1 (ja)
JP (1) JP6795224B2 (ja)
WO (1) WO2018159467A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111899285B (zh) * 2020-07-08 2023-03-14 浙江大华技术股份有限公司 目标对象的跟踪轨迹的确定方法和装置、存储介质
DE102020213587A1 (de) * 2020-10-29 2022-05-05 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Verknüpfen von optischen Fluss über eine Mehrzahl von Bildern einer Bilderfassungseinrichtung
WO2023176695A1 (ja) * 2022-03-16 2023-09-21 Necソリューションイノベータ株式会社 移動体検知装置、移動体検知方法、及びコンピュータ読み取り可能な記録媒体
CN114419106B (zh) * 2022-03-30 2022-07-22 深圳市海清视讯科技有限公司 车辆违章行为检测方法、设备及存储介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2940582B2 (ja) 1992-10-15 1999-08-25 ダイハツ工業株式会社 斜め後方走行車検出方法
JP3239521B2 (ja) * 1993-03-30 2001-12-17 トヨタ自動車株式会社 移動体認識装置
JP2003346159A (ja) * 2002-05-28 2003-12-05 Oki Electric Ind Co Ltd 人物追跡方法及び人物追跡装置
JP4367475B2 (ja) 2006-10-06 2009-11-18 アイシン精機株式会社 移動物体認識装置、移動物体認識方法及びコンピュータプログラム
JP4967666B2 (ja) 2007-01-10 2012-07-04 オムロン株式会社 画像処理装置および方法、並びに、プログラム
JP5365408B2 (ja) 2009-08-19 2013-12-11 アイシン精機株式会社 移動体認識装置、移動体認識方法及びプログラム
JP5533323B2 (ja) 2010-06-21 2014-06-25 日産自動車株式会社 移動量推定装置及び移動量推定方法
JP5556748B2 (ja) * 2011-06-21 2014-07-23 株式会社デンソー 車両状態検出装置
JP5944781B2 (ja) * 2012-07-31 2016-07-05 株式会社デンソーアイティーラボラトリ 移動体認識システム、移動体認識プログラム、及び移動体認識方法
JP6557973B2 (ja) * 2015-01-07 2019-08-14 株式会社リコー 地図生成装置、地図生成方法およびプログラム
JP6039768B1 (ja) 2015-08-12 2016-12-07 日本電信電話株式会社 調整装置、調整方法および調整プログラム
JP6546826B2 (ja) * 2015-10-08 2019-07-17 株式会社日立パワーソリューションズ 欠陥検査方法、及びその装置
US9904995B2 (en) * 2015-12-09 2018-02-27 Applied Materials Israel, Ltd. System and method for patch based inspection
US10062156B2 (en) * 2016-02-25 2018-08-28 Kla-Tencor Corporation Method and system for detecting defects on a substrate
US10217190B2 (en) * 2016-12-27 2019-02-26 Kla-Tencor Corporation System and method for reconstructing high-resolution point spread functions from low-resolution inspection images
US10395362B2 (en) * 2017-04-07 2019-08-27 Kla-Tencor Corp. Contour based defect detection
US11263737B2 (en) * 2019-01-10 2022-03-01 Lam Research Corporation Defect classification and source analysis for semiconductor equipment
US10853932B2 (en) * 2019-01-16 2020-12-01 Applied Material Israel, Ltd. Method of defect detection on a specimen and system thereof

Also Published As

Publication number Publication date
US20200065615A1 (en) 2020-02-27
WO2018159467A1 (ja) 2018-09-07
JPWO2018159467A1 (ja) 2019-12-19
EP3591613B1 (en) 2021-12-15
EP3591613A1 (en) 2020-01-08
US11062174B2 (en) 2021-07-13
EP3591613A4 (en) 2020-11-25

Similar Documents

Publication Publication Date Title
JP6795224B2 (ja) 移動体検知装置、移動体検知方法、及びプログラム
EP3338248B1 (en) Systems and methods for object tracking
US8005266B2 (en) Vehicle surroundings monitoring apparatus
EP2924654B1 (en) Image processing apparatus and image processing method
JP4367475B2 (ja) 移動物体認識装置、移動物体認識方法及びコンピュータプログラム
JP6230751B1 (ja) 物体検出装置および物体検出方法
JP6569385B2 (ja) 車両検出装置、車両検出システム、車両検出方法、及び車両検出プログラム
TWI494899B (zh) 影像內週期性雜訊修補方法
JP6384082B2 (ja) 移動物体検出装置、移動物体検出方法、及びプログラム
JP6188592B2 (ja) 物体検出装置、物体検出方法、および物体検出プログラム
KR20170056860A (ko) 이미지 생성 방법 및 장치
KR20150067680A (ko) 차량용 제스처 인식 시스템 및 그 방법
JP2009048629A (ja) 検出方法
JP2000011133A (ja) 移動物体検出装置及びその方法
US11417080B2 (en) Object detection apparatus, object detection method, and computer-readable recording medium
JP2021103598A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6620607B2 (ja) 画像解析プログラム、画像解析装置、及び画像解析方法
CN111950501A (zh) 障碍物检测方法、装置以及电子设备
JP2004228770A (ja) 画像処理システム
JP2008243111A (ja) 画像処理装置および画像処理方法
JP2017120455A (ja) 情報処理装置、プログラム及び制御方法
JP2010271876A (ja) 移動体追跡装置、移動体追跡方法及びプログラム
WO2023176695A1 (ja) 移動体検知装置、移動体検知方法、及びコンピュータ読み取り可能な記録媒体
JP2021034040A (ja) 映像処理方法、コンピュータプログラム及び映像処理装置
JP2020013330A (ja) 画像処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190821

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201105

R150 Certificate of patent or registration of utility model

Ref document number: 6795224

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150