JP7104916B2 - 移動物体検出装置および移動物体検出方法 - Google Patents

移動物体検出装置および移動物体検出方法 Download PDF

Info

Publication number
JP7104916B2
JP7104916B2 JP2018157668A JP2018157668A JP7104916B2 JP 7104916 B2 JP7104916 B2 JP 7104916B2 JP 2018157668 A JP2018157668 A JP 2018157668A JP 2018157668 A JP2018157668 A JP 2018157668A JP 7104916 B2 JP7104916 B2 JP 7104916B2
Authority
JP
Japan
Prior art keywords
image
horizon
moving object
frame
object detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018157668A
Other languages
English (en)
Other versions
JP2020030768A (ja
Inventor
卓也 明石
ウーガンバヤル ガンボルド
浩行 富田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Iwate University
Suzuki Motor Co Ltd
Original Assignee
Iwate University
Suzuki Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Iwate University, Suzuki Motor Co Ltd filed Critical Iwate University
Priority to JP2018157668A priority Critical patent/JP7104916B2/ja
Priority to FR1909276A priority patent/FR3085219B1/fr
Priority to US16/546,081 priority patent/US11024042B2/en
Priority to DE102019122690.2A priority patent/DE102019122690A1/de
Publication of JP2020030768A publication Critical patent/JP2020030768A/ja
Application granted granted Critical
Publication of JP7104916B2 publication Critical patent/JP7104916B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、単眼カメラの動画像から移動物体を高い精度で高速に検出することが可能な移動物体検出装置および移動物体検出方法に関する。
現在、交通事故を未然に防ぐことを目的とした、多くの予防安全技術の研究開発が進められている。そのひとつに、交差点等での自動車と歩行者、自転車、自動車等との出合い頭の交通事故を防止する要請がある。そのようなシステムにおいては、車載センサや車載カメラを利用して移動物体を検出することが考えられる。
車載センサを用いた物体検出技術としては、レーザーレンジセンサ等の補助装置を使用するシステムがある。しかしレーザー装置は高価である上に、強いレーザーを人体に照射することができないため、出力を上げにくいという問題がある。
車載カメラを用いる場合、背景差分法を用いることが考えられる。背景差分法は高速に処理可能であり、動的なシーンの変化を用いた信頼性の高い手法である。しかし、物体が平坦なテクスチャを有する場合や、物体の一部が背景と似た色である場合には、物体の一部しか検出できない場合がある。
特許文献1には、検出対象領域の候補が複数ある場合(顔部分と足部分)、検出対象領域が撮像画像中で占めるべき大きさを特定し、その大きさの範囲に、他の候補が含まれている場合、前記候補と他の候補とを結合した領域を新たな一の検出対象領域の候補として抽出する画像処理装置が提案されている。
特開2010-092353号公報
しかしながら、特許文献1の技術は、撮像画像中の検出対象領域の候補の位置に基づいて、占めるべき大きさを特定している。すると、まず検出対象の距離を判定する必要がある。特許文献1では撮像装置は交差点を俯瞰するように固定設置されている(段落0038、図1)。この限定的な条件により画像上の位置から距離を測ることが可能となっているが、車載カメラの画像を基にした場合は距離を測ることは困難である。
また特許文献1では、検出対象の種類(人物であるかどうか)を判定し、占めるべき大きさを特定する必要がある。このような判定は非常に不確実である。さらに、特許文献1では赤外線カメラを使用しているため肌が露出している部分が検出されるが、肌が見える面積は人物の向きや、服装、髪型により全く異なる点でも、不確実性が増してしまう。
また、赤外線カメラではなく安価な単眼カメラを用いたり、さらに広範囲を撮影するために魚眼レンズや広角レンズを用いた場合には、赤外線カメラを用いた場合よりもノイズが大きくなる可能性がある。
これに対し出願人らは、特願2017-178431において、単眼カメラの動画像から移動物体を高い精度で高速に検出することが可能な、安価で安全性の高い移動物体検出装置および移動物体検出方法を提案している。そして本発明は、特願2017-178431をさらに改良し、さらに検出率を向上させた移動物体検出装置および移動物体検出方法を提供することを目的としている。
上記課題を解決するために、本発明にかかる移動物体検出装置の代表的な構成は、動画像を入力する入力部と、動画像から連続的に複数のフレーム画像を取り出すフレーム取得部と、フレーム画像において地平線を検出する地平線検出部と、フレーム画像からエッジ画像を生成するエッジ画像生成部と、移動物体に検出枠を設定する移動物体検出部とを備え、エッジ画像生成部は、地平線検出部が検出した地平線の下側のエッジ画像を抽出し、地平線の下側のエッジ画像から背景差分法を用いて差分を抽出し、移動物体検出部は、フレーム画像をグレースケール画像にして背景差分法を用いて差分を抽出し、グレースケール画像の差分と地平線の下側のエッジ画像の差分とを合成することによって前景を生成することを特徴とする。
上記構成によれば、移動物体が地面と接している部分の画像位置を正確に検出することができる。このため、物体が平坦なテクスチャを有する場合や、ゆっくりと移動する場合であっても、物体の全体を前景として検出することができ、検出率を向上させることができる。したがって単眼カメラの動画像から移動物体を高い精度で高速に検出することができ、安価に安全性の向上を図ることができる。
移動物体検出部は、地平線の下側のエッジ画像の差分のノイズが少ない場合に、グレースケール画像の差分と合成することが好ましい。
エッジ画像生成部は、地平線検出部が検出した地平線と繋がったエッジ画像を抽出し、移動物体検出部は、地平線と繋がったエッジ画像によって前景をフィルタリングすることが好ましい。上記構成によれば、道路や建物の境界をノイズとして除去することができる。
移動物体検出部は、移動物体検出装置が移動している場合に、地平線と繋がったエッジ画像によって前景をフィルタリングすることが好ましい。移動物体検出装置が移動する場合には、道路と建物の画像位置が変化するため、背景差分法におけるノイズが増加する。したがって、移動している場合に上記のフィルタリングを行うことにより、ノイズを大幅に減少させることができる。
本発明にかかる移動物体検出装置の他の代表的な構成は、動画像を入力する入力部と、動画像から連続的に複数のフレーム画像を取り出すフレーム取得部と、フレーム画像において地平線を検出する地平線検出部と、フレーム画像からエッジ画像を生成するエッジ画像生成部と、移動物体に検出枠を設定する移動物体検出部とを備え、エッジ画像生成部は、地平線検出部が検出した地平線と繋がったエッジ画像を抽出し、移動物体検出部は、フレーム画像をグレースケール画像にして背景差分法を用いて前景を抽出し、前景を地平線と繋がったエッジ画像によってフィルタリングすることを特徴とする。
本発明にかかる移動物体検出方法の代表的な構成は、動画像を入力し、動画像から連続的に複数のフレーム画像を取り出し、フレーム画像から地平線の下側のエッジ画像を抽出し、地平線の下側のエッジ画像から背景差分法を用いて差分を抽出し、フレーム画像をグレースケール画像にして背景差分法を用いて差分を抽出し、グレースケール画像の差分と地平線の下側のエッジ画像の差分とを合成することによって前景を生成することを特徴とする。
上記方法によれば、移動物体が地面と接している部分の画像位置を正確に検出することができる。このため、物体が平坦なテクスチャを有する場合や、ゆっくりと移動する場合であっても、物体の全体を前景として検出することができ、検出率を向上させることができる。上記移動物体検出装置と同様の技術的思想を、当該移動物体検出方法にも適用することができる。
本発明にかかる移動物体検出方法の他の代表的な構成は、動画像を入力し、動画像から連続的に複数のフレーム画像を取り出し、フレーム画像から地平線と繋がったエッジ画像を抽出し、フレーム画像をグレースケール画像にして背景差分法を用いて前景を抽出し、前景を地平線と繋がったエッジ画像によってフィルタリングすることを特徴とする。
上記方法によれば、道路や建物の境界をノイズとして除去することができる。特に、移動物体検出装置が移動している場合に、ノイズを大幅に減少させることができる。上記移動物体検出装置と同様の技術的思想を、当該移動物体検出方法にも適用することができる。
本発明によれば、移動物体が地面と接している部分の画像位置を正確に検出することができる。このため、物体が平坦なテクスチャを有する場合や、ゆっくりと移動する場合であっても、物体の全体を前景として検出することができ、検出率を向上させることができる。したがって単眼カメラの動画像から移動物体を高い精度で高速に検出することが可能な、安価で安全性の高い移動物体検出装置および移動物体検出方法を提供することができる。
本実施形態にかかる移動物体検出装置の全体構成を説明する図である。 本実施形態にかかる移動物体検出方法を説明するフローチャートである。 移動物体の検出の手順を説明するフローチャートである。 前景の抽出の手順を説明するフローチャートである。 背景差分法の画像例である。 エッジ画像(E)の生成を説明する画像例である。 地平線下側のエッジ画像(BE)の抽出を説明する画像例である。 地平線下側のエッジ画像(BE)の背景との差分(DBE)の抽出を説明する画像例である。 エッジ画像のノイズ除去を説明する画像例である。 エッジ画像(RBDBE)の合成を説明する画像例である。 地平線と繋がったエッジ画像(CE)を説明する画像例である。 二値化画像(BDG’)のフィルタリングを説明する画像例である。 前景の膨張と収縮を説明する画像例である。 検出枠の設定について説明する画像例である。 統合と分離を説明する他の画像例である。 検出枠のフィルタリング処理を説明する画像例である。 背景画像の生成について説明する画像例である。 地平線を用いたフィルタリング処理について説明する画像例である。 遺伝的アルゴリズムの条件等を説明する図である。 遺伝的アルゴリズムのフローチャートである。 遺伝的アルゴリズムの目的関数を説明する図である。
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示に過ぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。
本発明にかかる移動物体検出装置および移動物体検出方法の実施形態について説明する。図1は本実施形態にかかる移動物体検出装置100の全体構成を説明する図である。図2は本実施形態にかかる移動物体検出方法を説明するフローチャートである。
図1(a)に示すように、移動物体検出装置100は自動車10に搭載される車載システムである。代表的な例として、自動車10の車載カメラ12が撮影した動画像が移動物体検出装置100に入力されて、移動物体を検出する。移動物体検出装置100によって検出された移動物体の情報は、ブレーキングシステム14や不図示のモニター等に送られて利用される。
車載カメラ12は、安価な単眼カメラであり、一般的な動画像を撮影する。動画像はカラー画像であってもよいし、グレースケール画像(モノクローム画像)であってもよい。また車載カメラ12は、魚眼レンズや広角レンズを備えていてもよい。本発明によれば、単眼カメラの動画像からでも、後述するように移動物体を高い精度で高速に検出することが可能であるため、安価で安全性の高い移動物体検出装置および移動物体検出方法を提供することができる。
図1(b)には移動物体検出装置100の構成が示されている。移動物体検出装置100は具体的にはコンピュータシステムで構築することができる。以下、移動物体検出装置100の構成について、図2に示すフローチャートを参照しながら説明する。
入力部110には、車載カメラ12が撮影した動画像が入力される(ステップ210)。動画像が映像信号である場合にはコンポジット端子やHDMI(登録商標)端子を備えるビデオエンコーダチップが入力部110に該当する。動画像がエンコードされたデジタルデータになっている場合にはUSBやIEEE1394インターフェースが入力部110に該当する。いずれにしても入力部110は、移動物体検出装置100内で処理可能なように動画像のデータを入力できればよい。
フレーム取得部112は、入力された動画像から連続的に複数のフレーム画像(静止画)を取得する(ステップ212)。動画像からフレームを取得する具体的な処理は、動画像のフォーマットに依存する。例えば動画像がMotionJPEGのように静止画を配列したフォーマットであれば、単純に各フレームを抜き出せばよい。なお、動画像のfps(frame per second)に依存することなく、一定時間単位(例えば0.1秒単位)で抜き出してもよい。MPEGのように差分圧縮されているものは、GOP(Group Of Pictures)のIフレームごとに抜き出してもよい。
前処理部114は、取得したフレーム画像に対して前処理を行う(ステップ214)。本実施形態では、入力される動画像がカラー画像であり、前処理としてグレースケール画像に変換する。なお前処理としては、必要に応じてノイズ除去を行ったり、画像処理の対象となる領域を切り出すクロップ処理を行ってもよい。
移動物体検出部118は、処理対象となるフレーム画像を現フレームとしたとき、現フレームから背景差分法を用いて移動物体を検出し、その検出枠を設定する(ステップ216)。なお以下の説明において、処理対象となるフレームの前のフレームを「前フレーム」と称し、次のフレームを「次フレーム」と称する。
図3は移動物体の検出の手順(サブルーチン)を説明するフローチャート、図4は前景の抽出の手順(ステップ232)を説明するフローチャートである。
図4に示すように、移動物体検出部118は、現フレームのグレースケール画像の背景との差分(DG)の抽出を行う(ステップ250)。図5は背景差分法の画像例である。図5(a)に示す現フレームの画像において、画像中央に地平線があり、右側に歩行者と建物がある。また地平線に沿って植え込みやフェンスが写っている。この中では、歩行者が移動物体である。
図5(b)に示す背景画像は、後述する背景画像生成部116から取得する。背景画像においても移動物体は写っているが、位置が少しずつ異なっている。これらの画像に背景差分法を適用する(輝度の減算を行う)と、図5(c)に示す差分画像のように、差異のある画素が抽出される。この差異のある画素が前景である。
背景差分法によって抽出した前景は、輝度が低く、また細かく分断された状態である。そこで、ガウシアンフィルタ等による平滑化(ぼかし処理)を行って近接する前景を連結した後に、二値化画像(BDG)を生成して明瞭化する(ステップ252)。
移動物体検出部118は、グレースケール画像の処理と並行して、エッジ画像(E)の処理を行う。図6はエッジ画像(E)の生成を説明する画像例である。エッジ画像生成部122は、図6(a)に示すフレーム画像において隣接する画素との画素値が閾値以上である場合に1、閾値未満である場合に0として、図6(b)に示すようなエッジ画像(E)を生成する(ステップ254)。エッジ画像の生成は、輪郭抽出処理ともいう。
次にエッジ画像生成部122は、地平線下側のエッジ画像(BE)を抽出する(ステップ256)。地平線は、地平線検出部124によって現フレームの画像から遺伝的アルゴリズムを用いて検出する。地平線を検出する処理については後述する。
図7は地平線下側のエッジ画像(BE)の抽出を説明する画像例である。図7(a)に示すエッジ画像(E)において地平線検出部124が検出した地平線HLを引く。そして、図7(b)に示すように地平線HLの下側のエッジ画像(BE)を抽出する(ステップ258)。
図8は地平線下側のエッジ画像(BE)の背景との差分(DBE)の抽出を説明する画像例である。背景画像生成部116は、図8(a)に示すような地平線下側のエッジ画像(BE)を用いて、図8(b)に示すような背景画像を生成する。そしてエッジ画像生成部122は、図8(c)に示すようにエッジ画像(BE)の背景との差分(DBE)を得る。
エッジ画像は粗であるため、エッジ画像の背景との差分(DBE)においてもノイズが多い。図9はエッジ画像のノイズ除去を説明する画像例である。エッジ画像生成部122は、図9(a)に示すようなエッジ画像の背景との差分(DBE)に対し、図9(b)に示すように二値化処理を行って二値化画像(BDBE)を生成する。さらに膨張と収縮を行って、図9(c)に示すようなノイズ除去した地平線下側のエッジ画像(RBDBE)を得る(ステップ260)。膨張と収縮については、図13を用いて後に説明する。
移動物体検出部118は、グレースケール画像の二値化画像(BDG)と、ノイズ除去した地平線下側のエッジ画像(RBDBE)を合成する。ただし、ノイズ除去したとはいえ、エッジ画像(RBDBE)においては、まだノイズが多すぎる可能性がある。
そこで移動物体検出部118は、ノイズ除去した地平線下側のエッジ画像(RBDBE)のノイズの程度を判定する(ステップ262)。図10はエッジ画像(RBDBE)の合成を説明する画像例である。図10に示すように、エッジ画像(RBDBE)が高ノイズであった場合には(ステップ262のYES)、合成をせず、二値化画像(BDG’)にはグレースケール画像の二値化画像(BDG)をそのまま使用する(ステップ264)。エッジ画像(RBDBE)のノイズが少ない場合には(ステップ262のNO)、二値化画像(BDG’)はグレースケール画像の二値化画像(BDG)とエッジ画像(RBDBE)を合成したものとする(ステップ266)。
上記構成によれば、移動物体が地面と接している部分の画像位置を正確に検出することができる。このため、物体が平坦なテクスチャを有する場合や、ゆっくりと移動する場合であっても、物体の全体を前景として検出することができ、検出率を向上させることができる。したがって単眼カメラの動画像から移動物体を高い精度で高速に検出することができ、安価に安全性の向上を図ることができる。
上記のようにして生成した二値化画像(BDG’)を、そのまま前景(EF)としてもよい。しかし本実施形態においては、さらに検出率を向上させるために、地平線と繋がったエッジ画像によって前景をフィルタリングする。
上記説明において、移動物体検出部118は、エッジ画像(E)を生成すると(ステップ254)、地平線下側のエッジ画像(BE)の抽出した(ステップ256)。これと並行して、エッジ画像(E)から地平線と繋がったエッジ画像(CE)を抽出する(ステップ270)。
図11は地平線と繋がったエッジ画像(CE)を説明する画像例である。図11(a)は、図6(b)および図7(a)と同じエッジ画像(E)である。このエッジ画像(E)において、地平線検出部124が検出した地平線と繋がった画素のみを抽出すると、図11(b)に示すように地平線と繋がったエッジ画像(CE)を得ることができる。図11(c)は画素を抽出するための条件式の例である。
そして移動物体検出部118は、自動車10が移動しているかどうか、すなわち移動物体検出装置100が移動しているかどうかについて判定する(ステップ272)。移動物体検出装置が移動する場合には、道路と建物の画像位置が変化するため、これらの輪郭の位置にずれが生じて、背景差分法においてエッジを検出してしまう。道路と建物の境界は移動物体ではないため、これらのエッジはノイズである。
図12は二値化画像(BDG’)のフィルタリングを説明する画像例である。図12に示すように、自動車10が移動していない場合には(ステップ272のNO)、二値化画像(BDG’)をそのまま前景(EF)とする(ステップ276)。自動車10が移動している場合には(ステップ272のYES)、二値化画像(BDG’)と地平線と繋がったエッジ画像(CE)のAND処理を行う(共通する画素のみを残す)ことによってフィルタリングする(ステップ274)。
上記構成によれば、移動物体検出装置が移動している場合に生じる道路や建物の境界のエッジを、ノイズとして除去することができる。したがってノイズを大幅に減少させることができ、さらに移動物体の検出率を向上させることが可能となる。
次に移動物体検出部118は、前景(EF)から、ノイズ除去を行う(ステップ278)。図13は前景の膨張と収縮を説明する画像例である。図13これでもまだ中抜けや細かな分断があるため、図13(b)に示すように前景の膨張を行った後に、図13(c)に示すように前景の収縮を行う(ステップ236)。
膨張とは、背景画素が黒、前景が白として、フィルタ径を例えば5×5とすると、総ての白い画素を中心とするフィルタ径内の画素を白にする処理である。収縮はその逆で、総ての黒い画素を中心とするフィルタ径内の画素を黒にする処理である。膨張と収縮を行うと、外縁の輪郭は元の位置に戻るものの、膨張によって埋められた中抜けや分断(不連続)は収縮しても埋められたままであるので、近接する前景同士を連結することができる。
ここで、冒頭で説明したように、背景差分法においては物体が平坦なテクスチャを有する場合や、物体の一部が背景と似た色である場合には、背景画像と現フレームの画像で輝度差が生じないため、物体の一部しか検出できない場合がある。この場合、前景が離れて存在するため、上記のような平滑化や、膨張と収縮だけでは、前景同士を連結することはできない。そこで本発明においては、次に述べる候補枠の統合と分離を行う。
統合とは、本来1つの移動物体であるものを、誤検出により複数の検出枠として抽出されたものであると判定して、1つの検出枠にする処理である。分離とは、近接する検出枠を、近接する複数の移動物体であると判定して独立した検出枠とする処理である。
図14は検出枠の設定について説明する画像例である。移動物体検出部118は、抽出した前景の輪郭を検出して、図14(a)に示すように前景を囲う枠を1次候補枠150a~fとする(ステップ238)。そして移動物体検出部118は、記憶部120から前フレームの検出枠を取得する(ステップ240)。なお、現フレームにおいてまだ前フレームの検出枠が存在しない場合には、この統合と分離の処理(ステップ240 ~ステップ244)はスキップする。
そして移動物体検出部118は、図14(a)に示す1次候補枠150a~fのうち、図14(b)に示すように前フレームの検出枠152a~cと面積が所定以上(例えば50%以上)重なるものを2次候補枠154a~dに設定する(ステップ242)。図14(b)において前フレームの検出枠152は一点鎖線で示し、2次候補枠154は破線で示している。1次候補枠150a~fのうち、2次候補枠にならなかった1次候補枠150e、150fは、そのまま検出枠となる(「検出枠」は、候補ではない)。
移動物体検出部118は、2次候補枠154のうち、同じ前フレームの検出枠152と重なるものをグループ化する。図14(b)において左側にある前フレームの検出枠152aには2次候補枠154a、154bが重なっているため、これらをグループ化する。そして、グループ化された2次候補枠154a、154bのうち、図14(c)に示すように、y軸方向に所定以上(例えば30%以上)重なるものは統合した検出枠156aとする。y軸方向に所定以上重ならないものは分離(独立)した検出枠とする(ステップ244)。なお「y軸方向に所定以上重なる」とは、枠のx軸方向の座標の範囲が所定以上重複していることと同義である。
上記を整理すると、「検出枠」となるのは次の3通りである。
・1次候補枠のうち、2次候補枠にならなかったもの(150e、150f)
・2次候補枠のうち、統合したもの(156a)
・2次候補枠のうち、統合せずに分離したままのもの(154c、154d)
なお、グループ化された2次候補枠が多数ある場合には、複数の統合した検出枠が設定される場合がある。例えば1つのグループに2次候補枠が4つある場合に、2つずつ統合されて、2つの検出枠が設定される場合がある。
図15は統合と分離を説明する他の画像例であり、重なって見えていた2人の歩行者が離れていくときの処理例である。図15(a)は現フレームの画像である。道路上に2人の歩行者が歩いている。図15(b)は現フレームにおいて抽出した前景を示していて、現フレームの中央部に対応している。右側の人物の前景は1つの1次候補枠150gになっているが、左側の人物の前景は上下で切れた2つの1次候補枠150h、150iになっている。2人の歩行者についての前景のブロックは合計3つである。図15(c)は前フレームにおいて抽出した前景および検出枠を示している。前フレームでは2人の歩行者がまだ重なって見えていたため、2人で1つの大きな検出枠152dとなっている。
そして移動物体検出部118は、図15(d)に示すように、1次候補枠150に前フレームの検出枠152dを重ねて、面積が所定以上重なるものを2次候補枠に設定する。本例では3つの1次候補枠150g~iは、総て3つの2次候補枠154e~gとなる。また、3つの2次候補枠154e~gは同じ前フレームの検出枠152dに重なっているから、これらはグループ化される。
図15(d)において2次候補枠154f、154gはy軸方向に所定以上重なっているから、図15(e)に示すように統合した検出枠156bとする。2次候補枠154eはy軸方向に所定以上重なっていないから、統合せずに分離したままとする。結果として、図15(f)に示すように、2人の歩行者にそれぞれ検出枠(2次候補枠154e、統合した検出枠156b)が設定される。なお、重なり度合いを判定するとき、2つの候補枠のx軸方向に重複する大きさ(長さ)を、2つの候補枠のうちx軸方向の大きさが小さい方と比較するとよい。
このようにして、3つの前景を適切に統合して、2つの移動物体に検出枠を設定することができる。また同時に、前フレームでは1つであった検出枠を現フレームでは2つの検出枠に分離することができる。
図16は検出枠のフィルタリング処理(ステップ246)を説明する画像例である。図16(a)は統合と分離が終了した後の検出枠を示している(図14(c)参照)。図16(a)において、画像左側の自転車に乗った人物は統合した検出枠156aとなり、画像中央の2台の自動車は2次候補枠154c、154dとして検出されている。そして1次候補枠150e、150fは、検出枠として残っているものの、極端に小さいため、ノイズと考えることができる。
そこで本実施形態においては、フィルタ部126が、現フレームにおいて検出された1または複数の検出枠に対し、所定の面積または縦横比を満たさない検出枠を除去する(ASF:Area Size Filtering)。すなわち、極端に小さい検出枠や、極端に細長い検出枠を除去する。
図16(b)の例では、フィルタリング処理によって極端に小さな検出枠(1次候補枠150e、150f)が除去されて、統合した検出枠156a、2次候補枠154c、154dが残っている。なお図16(b)では、これらの最終的な検出枠を、二値画像ではなく現フレームのグレースケール画像に重ねて示している。
動画像が移動しながら撮影されたものであること、単眼カメラの画像であること、さらに魚眼レンズや広角レンズを使用することは、ノイズが増える要因となる。そこで上記のフィルタリング処理を行うことにより、ノイズを除去して、移動物体の検出精度を向上させることができる。
移動物体検出部118は、フィルタ部126がフィルタリング処理を施した最終的な検出枠を、記憶部120に登録する(ステップ218)。検出枠はフレームの番号と対応付けて記憶され、任意のフレームの画像に対して検出済みの検出枠を読み出すことができる。特に、上記説明において現フレームの画像処理に前フレームの検出枠を利用したように、次フレームの画像処理に現フレームの検出枠を利用する。また移動物体検出装置100が設定した検出枠は、出力部130によってブレーキングシステム14や不図示のモニター等に送られる。
背景画像生成部116は、次フレームの画像を処理するときのために、背景画像の生成(更新)を行う(ステップ220)。フレーム取得部112が取得した複数のフレーム画像のうち、1番目のフレーム画像は前景の抽出は行われず、背景画像としてのみ用いられる。2番目のフレーム画像から前景の抽出を行うとき、1番目のフレーム画像が背景画像に用いられる。3番目以降のフレーム画像から前景の抽出を行うとき、背景画像生成部116が生成(更新)した背景画像を用いる。
図17は背景画像の生成について説明する画像例である。背景画像生成部116は、背景画像と現フレームの画像を合成して背景画像を更新し、次フレームを処理する際の背景画像とする。具体例として、図17に示すように、現フレームの輝度を25%に落とした画像と背景画像の輝度を75%に落とした画像を合成して背景画像を生成する。このようにして順繰りに背景画像の合成(更新)を行うことにより、移動しながら撮影された動画像であっても、また移動物体が存在しない状態がない動画像であっても、背景画像を適宜生成することができる。
また、背景差分法において、学習に基づいた背景モデルの更新は計算コストが高いため、高速な動画像処理に応用が困難であるとされてきた。しかし本実施形態のように過去の背景画像と現フレームの画像を組み合わせることは、計算量が少なくて済むため、システム全体として計算コストの効率化を図ることができる。
背景画像の生成が完了すると、次のフレーム画像があるか否かを判定する(ステップ222)。次フレームの画像があれば上記一連の処理を繰り返す。次フレームの画像がなければ処理を終了する。
上記説明したように、本実施形態にかかる移動物体検出装置および移動物体検出方法によれば、現フレームの候補枠に対して、前フレームの検出枠と重なった範囲内で統合と分離を行う。移動物体の種類や距離を判定する必要がなく、またノイズが多くても候補枠の統合と分離を行うことができる。
これにより安価な単眼カメラの画像であっても、そして車載カメラのように移動しながら撮影した画像であっても、移動物体に適切に対応した検出枠を設定することができる。また、背景差分法は高速に処理可能であり、また上記の候補枠の統合と分離の処理やフィルタリング処理も高速に処理可能である。したがって、接近する移動物体を高い精度で高速に検出することができ、安全性の向上を図ることができる。
特に、統合と分離のアルゴリズムがシンプルであるため、従来の単なる背景差分法と比較すると、移動物体の検出率を大幅に上げたにもかかわらず、計算量の増加が少ない。従来技術と比較して本手法は実用性が高く、技術的な優位性も十分に高い。また本発明では1つの単眼カメラだけを使用するため、複数のカメラやレーザーレーダや赤外カメラ等を使用するような従来手法と比較すると、コスト面で大きな優位性がある。
本発明は、出合い頭における交通事故を防ぐ車載の安全運転システムや、ロボットなどの移動装置の自動走行システムへの応用が可能である。また自動車やロボットなどに搭載されるシステムに限定されず、広角防犯カメラを用いた固定設置の監視システムに応用することもできる。
上記実施形態においては、フィルタ部126が所定の面積または縦横比を満たさない検出枠を除去する(ASF)ように説明した。これに対し、ASFに代えて、またはASFに追加して、地平線検出部124が地平線を検出し、現フレームにおいて検出された1または複数の検出枠に対し、地平線に所定の割合で重なっていない検出枠を除去してもよい(HLF:Horizontal Line Filtering)。
図18は地平線を用いたフィルタリング処理について説明する画像例である。図18(a)は二値化画像と検出枠(統合と分離まで完了したもの)を示している。図18(b)は現フレームのグレースケール画像にフィルタリング処理後の検出枠を重ねて示している。
図18(a)を図18(b)と対比するとわかるように、車載カメラなどで移動しながら撮影した動画像においては、下方については道路標示や横断歩道(横断歩道の検出枠160b)、上方については建物や看板、信号機、電線、街路灯など(看板の検出枠160c、電線の検出枠160d、街路灯の検出枠160e)も移動物体として検知してしまう可能性がある。しかし本発明において検出したい移動体は、歩行者や自動車など地上を移動するもの(自動車の検出枠160a)である。
そこで図18(c)に示す判定式のように、総ての検出枠160について、地平線HLによって分断される面積a、bを取得し、地平線HLに所定の割合で重なっていない検出枠を除去する。本実施形態では、判定式:|a-b|/(a+b)≦0.6となる検出枠を残し(Correct=1)、それ以外の検出枠は除去する(Correct=0)。
判定式の具体例として、地平線HLが検出枠の中央を通るとき、a=bであるから判定式の値は0となり、Correct=1となってその検出枠160は残る。地平線HLが検出枠に重ならないとき、判定式の値は1となり、Correct=0となってその検出枠160は除去される。
なお閾値を0.6としたのは一例であって、閾値の数値は適宜定めてよい。例えば|a-b|/(a+b)<1としてもよい。この場合、検出枠に地平線HLが全く重なっていない検出枠のみが除去される。
このようにして、移動体でない検出枠160を適切かつ高速な処理で除去することができる。これにより危険回避のために検出したい移動物体の検出精度を高めることができる。
地平線を検出するための手法はさまざまなものが考えられるが、本実施形態では地平線の検出に遺伝的アルゴリズムを用いて地平線を検出する。遺伝的アルゴリズムは常に局所的に良好な解を複数保持しながら解の改良を図る多点探索であることから、大域的に最良の解を探索しうるため、最も好ましい方法である。これにより、建物や道路の形状に邪魔されて簡単にはわかりにくい地平線を、高い精度で検出することができる。
図19は遺伝的アルゴリズムの条件等を説明する図である。以下に説明する地平線の検出を簡潔に説明すると、路面とそれ以外(建物等の構造物や空など)との境界線を遺伝的アルゴリズムによって検出することにより、これを地平線とする。P(x,y)は地平線上のi番目のピクセル(点)である。xは地平線上のi番目の点のx座標である。yは地平線上のi番目の点のy座標であり、ベースラインの高さB+定数a+変数bで表される。そして、a,b,b,…bを遺伝的アルゴリズムの染色体とする。
図20は遺伝的アルゴリズムのフローチャートである。フィルタ部126は、まず所定の初期値を用いてアルゴリズムを初期化する(ステップ250)。アルゴリズムの初期値は、一例として、世代数50、初期個体数50、交叉レート0.7、突然変異レート0.01としてよい。
次に初期個体に仮パラメータを与えて、地平線の候補線を生成する(ステップ252)。遺伝的アルゴリズムのロジックに基づいて交叉と突然変異を繰り返しながら、候補線の目的関数に対する適合度の評価を行う(ステップ254)。なお、遺伝的アルゴリズムにおける交叉と突然変異については既知の技術であるため、ここでの詳述は省略する。
図21は遺伝的アルゴリズムの目的関数を説明する図である。目的関数Fは、閾値を超えるピクセル値の差が認められるピクセルDiff(j,x)の個数である。jは評価幅であり、評価範囲Lが最大値である。xはピクセルP(x,y)とPi+1(xi+1,yi+1)の中間位置のx座標である。yはピクセルPのy座標を線形補間(1次方程式)によって表したxの関数である。
i番目のピクセルP(x,y)のピクセル値(グレースケール値)をP(x,y)と表す。差が認められるピクセルDiff(j,x)の判定は、ピクセル値の差|P(x,y+j)-P(x,y-j)|が閾値以上であれば1、閾値未満であれば0とする。DiffTB(j,x)は、y軸方向に上下2j離れた位置のピクセル値を比較して、閾値以上にピクセル値(グレースケール値)が異なっていれば1となる。したがって目的関数Fは、染色体a,b,b,…bによって形成する地平線が路面とそれ以外との境界線に沿っているほど値が大きくなる。換言すれば、この遺伝的アルゴリズムによる地平線検出は、路面の上縁の輪郭抽出である。
また評価関数FにあるDiffTN、DiffBNは、それぞれP(x,y-j)、P(x,y+j)と隣の(次の)ピクセルとでピクセル値を比較している。これにより評価関数Fは、水平線(横線)のみでなく建物等の輪郭(縦線)にさしかかった場合も値が大きくなる。横線と縦線の交点で値が高くなるため、すなわち建物と地面との交点で値が高くなる。これにより地平線検出の精度を向上させることができる。
フィルタ部126は、所定の世代数の計算を終えると、選択された候補線を地平線として出力する(ステップ256)。出力された地平線は、図18(c)で説明した判定式に使用する。
そしてフィルタ部126は、次フレームがあるか否かを判定し(ステップ258)、次フレームがあれば遺伝的アルゴリズムによる地平線検出を繰り返し、次フレームがなければ地平線検出の処理を終了する。
遺伝的アルゴリズムを用いた地平線の検出は、1枚の画像に対して処理を行うことが可能である。この場合、総てのフレームに対して処理を行ってもよいが、一定時間おきのフレームに対して行うことによって大幅に高速化を図ることができる。また、画像に変化がない間は一定時間おきに処理し、画像が大幅に変化したときにも処理を行うことにより、処理の高速化と精度の向上を図ることができる。
また、加速度センサを搭載したり、ナビゲーションシステムから加速度センサの信号を受け取れるのであれば、角を曲がったときや上り下りが変化したときにも処理してよい。これにより地平線の変化に追従しやすくなり、検出精度の向上を図ることができる。
また遺伝的アルゴリズムを用いた地平線の検出は、前フレームの演算結果を用いる(前フレームの画像を用いるのではない)ことによって高速化と精度の向上を図ることができる。具体的には、前フレームにおいて算出した最適解を含む遺伝的アルゴリズムのすべての個体の染色体情報を初期個体集団の初期の染色体として用いて演算を行う(進化的動画像処理)。特に総てのフレームに対して処理を行うとき、または短時間おきのフレームに対して処理を行うときには、画像内での地平線の移動はわずかであるため、前フレームの演算結果を用いれば最適解までの収束が極めて短時間となる。したがって、車載コンピュータのCPUでもリアルタイム処理に十分な速度で演算することができ、地平線を検出しつづけることが可能となる。
上記のように、地平線に所定の割合で重なっていない検出枠を除去することにより、移動物体の検出精度を高めることができる。また、地平線の検出に遺伝的アルゴリズムを用いることにより、地平線を高い精度で検出することができる。
本発明は、単眼カメラの動画像から移動物体を高い精度で高速に検出することが可能な、安価で安全性の高い移動物体検出装置および移動物体検出方法として利用することができる。
10…自動車、12…車載カメラ、14…ブレーキングシステム、100…移動物体検出装置、110…入力部、112…フレーム取得部、114…前処理部、116…背景画像生成部、118…移動物体検出部、120…記憶部、122…エッジ画像生成部、124…地平線検出部、126…フィルタ部、130…出力部、150…1次候補枠、152…前フレームの検出枠、154…2次候補枠、156…統合した検出枠、160…検出枠

Claims (8)

  1. 動画像を入力する入力部と、
    動画像から連続的に複数のフレーム画像を取り出すフレーム取得部と、
    フレーム画像において地平線を検出する地平線検出部と、
    フレーム画像からエッジ画像を生成するエッジ画像生成部と、
    前記移動物体に検出枠を設定する移動物体検出部とを備え、
    前記エッジ画像生成部は、
    前記地平線検出部が検出した地平線の下側のエッジ画像を抽出し、
    地平線の下側のエッジ画像から背景差分法を用いて差分を抽出し、
    前記移動物体検出部は、
    フレーム画像をグレースケール画像にして背景差分法を用いて差分を抽出し、
    前記グレースケール画像の差分と前記地平線の下側のエッジ画像の差分とを合成することによって前景を生成することを特徴とする移動物体検出装置。
  2. 前記移動物体検出部は、前記地平線の下側のエッジ画像の差分のノイズが少ない場合に、前記グレースケール画像の差分と合成することを特徴とする請求項1に記載の移動物体検出装置。
  3. 前記エッジ画像生成部は、
    前記地平線検出部が検出した地平線と繋がったエッジ画像を抽出し、
    前記移動物体検出部は、
    前記地平線と繋がったエッジ画像によって前記前景をフィルタリングすることを特徴とする請求項1または2に記載の移動物体検出装置。
  4. 前記移動物体検出部は、当該移動物体検出装置が移動している場合に、前記地平線と繋がったエッジ画像によって前記前景をフィルタリングすることを特徴とする請求項3に記載の移動物体検出装置。
  5. 動画像を入力する入力部と、
    動画像から連続的に複数のフレーム画像を取り出すフレーム取得部と、
    フレーム画像において地平線を検出する地平線検出部と、
    フレーム画像からエッジ画像を生成するエッジ画像生成部と、
    前記移動物体に検出枠を設定する移動物体検出部とを備え、
    前記エッジ画像生成部は、
    前記地平線検出部が検出した地平線と繋がったエッジ画像を抽出し、
    前記移動物体検出部は、
    フレーム画像をグレースケール画像にして背景差分法を用いて前景を抽出し、
    前記前景を前記地平線と繋がったエッジ画像によってフィルタリングすることを特徴とする移動物体検出装置。
  6. 前記移動物体検出部は、当該移動物体検出装置が移動している場合に、前記地平線と繋がったエッジ画像によって前記前景をフィルタリングすることを特徴とする請求項5に記載の移動物体検出装置。
  7. 動画像を入力し、
    動画像から連続的に複数のフレーム画像を取り出し、
    フレーム画像から地平線の下側のエッジ画像を抽出し、
    地平線の下側のエッジ画像から背景差分法を用いて差分を抽出し、
    フレーム画像をグレースケール画像にして背景差分法を用いて差分を抽出し、
    前記グレースケール画像の差分と前記地平線の下側のエッジ画像の差分とを合成することによって前景を生成することを特徴とする移動物体検出方法。
  8. 動画像を入力し、
    動画像から連続的に複数のフレーム画像を取り出し、
    フレーム画像から地平線と繋がったエッジ画像を抽出し、
    フレーム画像をグレースケール画像にして背景差分法を用いて前景を抽出し、
    動画像の撮影位置が移動している場合に、前記地平線と繋がったエッジ画像によって前記前景をフィルタリングすることを特徴とする移動物体検出方法。
JP2018157668A 2018-08-24 2018-08-24 移動物体検出装置および移動物体検出方法 Active JP7104916B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018157668A JP7104916B2 (ja) 2018-08-24 2018-08-24 移動物体検出装置および移動物体検出方法
FR1909276A FR3085219B1 (fr) 2018-08-24 2019-08-19 Appareil de detection d'objet en mouvement et procede de detection d'objet en mouvement
US16/546,081 US11024042B2 (en) 2018-08-24 2019-08-20 Moving object detection apparatus and moving object detection method
DE102019122690.2A DE102019122690A1 (de) 2018-08-24 2019-08-23 Bewegtobjekterkennungsvorrichtung und Bewegtobjekterkennungsverfahren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018157668A JP7104916B2 (ja) 2018-08-24 2018-08-24 移動物体検出装置および移動物体検出方法

Publications (2)

Publication Number Publication Date
JP2020030768A JP2020030768A (ja) 2020-02-27
JP7104916B2 true JP7104916B2 (ja) 2022-07-22

Family

ID=69412379

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018157668A Active JP7104916B2 (ja) 2018-08-24 2018-08-24 移動物体検出装置および移動物体検出方法

Country Status (4)

Country Link
US (1) US11024042B2 (ja)
JP (1) JP7104916B2 (ja)
DE (1) DE102019122690A1 (ja)
FR (1) FR3085219B1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4081982A4 (en) * 2019-12-23 2023-08-16 A^3 By Airbus, LLC SYSTEMS AND PROCEDURES FOR EFFECTIVE DETECTION OF COLLISION HAZARDS
CN115135808A (zh) 2020-02-26 2022-09-30 旭化成株式会社 电解槽和电解槽的制造方法
CN111553282B (zh) * 2020-04-29 2024-03-29 北京百度网讯科技有限公司 用于检测车辆的方法和装置
CN111583357A (zh) * 2020-05-20 2020-08-25 重庆工程学院 一种基于matlab系统的物体运动图像捕捉合成方法
US12106553B2 (en) * 2020-12-18 2024-10-01 The Boeing Company Method and system for aerial object detection
JP7025073B1 (ja) 2021-06-28 2022-02-24 株式会社SEtech 動き情報撮像装置
CN113450386B (zh) * 2021-08-31 2021-12-03 北京美摄网络科技有限公司 一种人脸跟踪方法和装置
CN117710367B (zh) * 2024-02-05 2024-07-05 西安高压电器研究院股份有限公司 高压断路器机械特性图像检测方法、装置及相关设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009076076A (ja) 2007-09-24 2009-04-09 Delphi Technologies Inc 障害物を認識する方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6430303B1 (en) * 1993-03-31 2002-08-06 Fujitsu Limited Image processing apparatus
US7227893B1 (en) * 2002-08-22 2007-06-05 Xlabs Holdings, Llc Application-specific object-based segmentation and recognition system
US7764808B2 (en) * 2003-03-24 2010-07-27 Siemens Corporation System and method for vehicle detection and tracking
US7668376B2 (en) * 2004-06-30 2010-02-23 National Instruments Corporation Shape feature extraction and classification
TW201001338A (en) * 2008-06-16 2010-01-01 Huper Lab Co Ltd Method of detecting moving objects
JP5083164B2 (ja) 2008-10-09 2012-11-28 住友電気工業株式会社 画像処理装置及び画像処理方法
TWI393074B (zh) * 2009-12-10 2013-04-11 Ind Tech Res Inst 移動物體偵測裝置與方法
JP5999043B2 (ja) * 2013-07-26 2016-09-28 株式会社デンソー 車両周辺監視装置およびプログラム
US10091507B2 (en) * 2014-03-10 2018-10-02 Euclid Discoveries, Llc Perceptual optimization for model-based video encoding
JP6550881B2 (ja) * 2014-07-14 2019-07-31 株式会社リコー 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
US10078902B1 (en) * 2015-08-27 2018-09-18 Hrl Laboratories, Llc Fast robust method for compensating ego-translations and detecting independent moving objects in video captured with a moving camera
US10089549B1 (en) * 2015-08-27 2018-10-02 Hrl Laboratories, Llc Valley search method for estimating ego-motion of a camera from videos
WO2017077261A1 (en) * 2015-11-05 2017-05-11 Quantum Vision Technologies Ltd A monocular camera cognitive imaging system for a vehicle
JP6208277B2 (ja) 2016-03-31 2017-10-04 大王製紙株式会社 包装袋
JP7018607B2 (ja) 2017-09-17 2022-02-14 国立大学法人岩手大学 移動物体検出装置および移動物体検出方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009076076A (ja) 2007-09-24 2009-04-09 Delphi Technologies Inc 障害物を認識する方法

Also Published As

Publication number Publication date
DE102019122690A1 (de) 2020-02-27
FR3085219A1 (fr) 2020-02-28
US20200065981A1 (en) 2020-02-27
FR3085219B1 (fr) 2023-04-28
JP2020030768A (ja) 2020-02-27
US11024042B2 (en) 2021-06-01

Similar Documents

Publication Publication Date Title
JP7104916B2 (ja) 移動物体検出装置および移動物体検出方法
JP7018607B2 (ja) 移動物体検出装置および移動物体検出方法
EP2924654B1 (en) Image processing apparatus and image processing method
JP6519262B2 (ja) 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
Teoh et al. Symmetry-based monocular vehicle detection system
EP2928178B1 (en) On-board control device
WO2016129403A1 (ja) 物体検知装置
EP3416132B1 (en) Image processing device, object recognition device, device control system, and image processing method and program
JP6384082B2 (ja) 移動物体検出装置、移動物体検出方法、及びプログラム
JP6601506B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法、画像処理プログラム及び車両
JP6753134B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及び画像処理プログラム
JP2021511556A (ja) 高速物体認識用のシルエットの使用
WO2017047282A1 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP2006318060A (ja) 画像処理装置、画像処理方法、および画像処理用プログラム
JP2006318059A (ja) 画像処理装置、画像処理方法、および画像処理用プログラム
Jaiswal et al. Comparative analysis of CCTV video image processing techniques and application: a survey
JP6572696B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
Hernández et al. Lane marking detection using image features and line fitting model
JP7404173B2 (ja) 画像処理装置
JP4788399B2 (ja) 歩行者検出方法、装置、およびプログラム
JP2020126304A (ja) 車外物体検出装置
JP6569416B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法及び画像処理プログラム
Vella et al. Improved detection for wami using background contextual information
WO2017017140A1 (en) Method for capturing an object on a road in the environment of a motor vehicle, camera system and motor vehicle using the same
JP4028533B2 (ja) 画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220629

R150 Certificate of patent or registration of utility model

Ref document number: 7104916

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150