JP2023110381A - Moving body detection apparatus, moving body detection method, system, and program - Google Patents

Moving body detection apparatus, moving body detection method, system, and program Download PDF

Info

Publication number
JP2023110381A
JP2023110381A JP2022011790A JP2022011790A JP2023110381A JP 2023110381 A JP2023110381 A JP 2023110381A JP 2022011790 A JP2022011790 A JP 2022011790A JP 2022011790 A JP2022011790 A JP 2022011790A JP 2023110381 A JP2023110381 A JP 2023110381A
Authority
JP
Japan
Prior art keywords
grid
image
moving object
grids
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022011790A
Other languages
Japanese (ja)
Inventor
諭 荒木
Satoshi Araki
成光 土屋
Narimitsu Tsuchiya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2022011790A priority Critical patent/JP2023110381A/en
Priority to CN202310086695.9A priority patent/CN116524453A/en
Priority to US18/099,994 priority patent/US20230245325A1/en
Publication of JP2023110381A publication Critical patent/JP2023110381A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

To simply and quickly detect a moving body existing around a vehicle.SOLUTION: A moving body detection apparatus includes: an image acquisition unit which acquires image data including a plurality of frames representing surroundings of a mobile body, the image data being captured in time series by a camera mounted on the mobile body; a difference calculation unit which calculates a difference between the frames, and binarizes the difference into a first value and a second value, to calculate a difference image between the frames; a grid extraction unit which extracts, out of multiple grids set in the difference image, a grid in which density of pixels of the first value is equal to or higher than a first threshold; a bounding box setting unit which sets a bounding box which is circumscribed rectangle, on the one or more extracted grids that satisfy a predetermined criterion; and a moving body detection unit which detects, as a moving body, the bounding box when the density of the grids in the set bounding box is equal to or higher than a second threshold.SELECTED DRAWING: Figure 1

Description

本発明は、動体検出装置、動体検出方法、システム、およびプログラムに関する。 The present invention relates to a moving body detection device, a moving body detection method, a system, and a program.

従来、車載カメラによって撮像された車両前方の画像データに基づいて、車両の周辺に存在する動体を検出する技術が知られている。例えば、特許文献1には、車両の周辺環境の画像データに対して、予め学習された結果に基づく信号処理を行うことにより、当該画像データ内に存在する動体の識別結果を出力する技術が開示されている。 2. Description of the Related Art Conventionally, there is known a technique of detecting a moving object existing around a vehicle based on image data of the front of the vehicle captured by an in-vehicle camera. For example, Patent Literature 1 discloses a technique for outputting identification results of moving objects existing in the image data by performing signal processing on the image data of the surrounding environment of the vehicle based on the results of pre-learning. It is

特開2021-144689号公報JP 2021-144689 A

特許文献1に記載の技術は、畳み込みニューラルネットワークなどのディープニューラルネットワーク(DNN)を用いて、車両の周辺に存在する動体を検出するものである。しかしながら、このような機械学習手法は、事前に大量の学習データを用意することが必要とされ、さらに実行時の処理負荷が高い傾向にある。その結果、車両の周辺に存在する動体を高速で検出することができない場合があった。 The technique described in Patent Literature 1 uses a deep neural network (DNN) such as a convolutional neural network to detect a moving object existing around a vehicle. However, such machine learning techniques require a large amount of learning data to be prepared in advance, and tend to have a high processing load during execution. As a result, it may not be possible to detect a moving object existing around the vehicle at high speed.

本発明は、このような事情を考慮してなされたものであり、車両の周辺に存在する動体を簡易的かつ高速に検出することができる動体検出装置、動体検出方法、システム、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and provides a moving object detection device, a moving object detection method, a system, and a program that can easily and quickly detect a moving object existing around a vehicle. One of the purposes is to

この発明に係る動体検出装置、動体検出方法、システム、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る動体検出装置は、移動体に搭載されたカメラによって時系列に撮像された、前記移動体の周辺状況を表す複数のフレームを含む画像データを取得する画像取得部と、前記複数のフレーム間の差分を算出し、前記差分を第1の値と第2の値に二値化することによって、前記複数のフレーム間の差分画像を算出する差分算出部と、前記差分画像に設定された複数のグリッドのうち、前記第1の値の画素の密度が第1閾値以上であるグリッドを抽出するグリッド抽出部と、前記抽出され、かつ所定基準を満たす一以上のグリッドに対して、外接矩形であるバウンディングボックスを設定するバウンディングボックス設定部と、設定された前記バウンディングボックスにおける前記グリッドの密度が第2閾値以上である場合に、前記バウンディングボックスを動体として検出する動体検出部と、を備えるものである。
A moving body detection device, a moving body detection method, a system, and a program according to the present invention employ the following configurations.
(1): A moving body detection device according to an aspect of the present invention acquires image data including a plurality of frames representing surrounding conditions of a moving body captured in time series by a camera mounted on the moving body. an acquisition unit; and a difference calculation unit that calculates a difference image between the plurality of frames by calculating the difference between the plurality of frames and binarizing the difference into a first value and a second value. a grid extracting unit for extracting a grid having a pixel density of the first value equal to or higher than a first threshold from among the plurality of grids set in the difference image; a bounding box setting unit that sets a bounding box that is a circumscribing rectangle for the grid of the above; and detects the bounding box as a moving object when the density of the grid in the set bounding box is equal to or greater than a second threshold. and a moving object detection unit.

(2):上記(1)の態様において、前記バウンディングボックス設定部は、前記一以上のグリッドの下端および前記下端を基準とする前記一以上のグリッドの高さがそれぞれ一定の値を有する場合に、前記一以上のグリッドが前記所定基準を満たすと判定するものである。 (2): In the aspect of (1) above, the bounding box setting unit may set the bottom edge of the one or more grids and the height of the one or more grids relative to the bottom edge to each have a constant value. , that the one or more grids satisfy the predetermined criteria.

(3):上記(1)又は(2)の態様において、前記バウンディングボックス設定部は、前記グリッドを含むグリッド画像の中央部において、前記所定基準を満たす一以上のグリッドを探索するものである。 (3): In the aspect (1) or (2) above, the bounding box setting unit searches for one or more grids satisfying the predetermined criteria in the center of a grid image containing the grids.

(4):上記(1)から(3)のいずれかの態様において、前記差分算出部は、前記複数のフレームを撮像した撮影間隔における前記移動体の速度に基づいて、前回時点で撮像されたフレームを拡大させ、拡大された前記前回時点で撮像されたフレームと、今回時点で撮像されたフレームとの間の差分画像を算出するものである。 (4): In any one of the above aspects (1) to (3), the difference calculation unit calculates the speed of the moving object in the shooting interval at which the plurality of frames were captured. A frame is enlarged, and a difference image between the enlarged frame captured at the previous time and the frame captured at the current time is calculated.

(5):上記(4)の態様において、前記差分算出部は、前記前回時点で撮像されたフレームを、前記前回時点で撮像されたフレームの消失点を中心に拡大させるものである。 (5): In the aspect of (4) above, the difference calculation unit enlarges the frame captured at the previous time around the vanishing point of the frame captured at the previous time.

(6):上記(1)から(5)のいずれかの態様において、前記差分算出部は、前記複数のフレームを撮像した撮影間隔における前記移動体のヨーレートに基づいて、前回時点で撮像されたフレームを補正し、補正した前記前回時点で撮像されたフレームと、今回時点で撮像されたフレームとの間の差分画像を算出するものである。 (6): In any one of the above aspects (1) to (5), the difference calculation unit calculates the image at the previous time based on the yaw rate of the moving object in the shooting interval at which the plurality of frames were imaged. The frame is corrected, and a difference image between the corrected frame captured at the previous time and the frame captured at the current time is calculated.

(7):上記(1)から(6)のいずれかの態様において、前記グリッド抽出部は、前記複数のグリッドの各々の前記カメラからの距離に応じて、前記閾値を変化させるものである。 (7): In any one of the above (1) to (6), the grid extracting section changes the threshold according to the distance of each of the plurality of grids from the camera.

(8):上記(1)から(7)のいずれかの態様において、前記グリッド抽出部は、前記カメラからの距離が第1距離以下である場合には、前記複数のグリッドのサイズを第1サイズに設定し、前記カメラからの距離が第1距離より大きくかつ第2距離以下である場合には、前記複数のグリッドのサイズを前記第1サイズより小さい第2サイズに設定し、前記カメラからの距離が第2距離より大きい場合には、前記複数のグリッドのサイズを前記第2サイズより小さい第3サイズに設定するものである。 (8): In any one of the above aspects (1) to (7), the grid extraction unit sets the size of the plurality of grids to the first distance when the distance from the camera is equal to or less than the first distance. size, and if the distance from the camera is greater than a first distance and less than or equal to a second distance, then set the size of the plurality of grids to a second size smaller than the first size; is greater than a second distance, the size of the plurality of grids is set to a third size smaller than the second size.

(9):この発明の一態様に係るシステムは、上記(1)から(8)のいずれかの態様に係る動体検出装置と、前記動体検出装置によって得られた検出結果に基づいて、前記移動体の運転支援を行う運転支援装置と、を備えるものである。 (9): A system according to an aspect of the present invention includes the moving object detection device according to any one of aspects (1) to (8) above, and based on the detection result obtained by the moving object detection device, and a driving support device that supports driving of the body.

(10):この発明の一態様に係る動体検出方法は、コンピュータが、移動体に搭載されたカメラによって時系列に撮像された、前記移動体の周辺状況を表す複数のフレームを含む画像データを取得し、前記複数のフレーム間の差分を算出し、前記差分を第1の値と第2の値に二値化することによって、前記複数のフレーム間の差分画像を算出し、前記差分画像に設定された複数のグリッドのうち、前記第1の値の画素の密度が第1閾値以上であるグリッドを抽出することによって、前記差分画像からグリッド画像を抽出し、前記グリッド画像に含まれ、かつ所定基準を満たす一以上のグリッドに対して、バウンディングボックスを設定し、設定された前記バウンディングボックスにおける前記グリッドの密度が第2閾値以上である場合に、前記バウンディングボックスを動体として検出するものである。 (10): A moving object detection method according to an aspect of the present invention is characterized in that a computer captures image data including a plurality of frames representing surrounding conditions of a moving object in time series by a camera mounted on the moving object. calculating a difference between the plurality of frames; binarizing the difference into a first value and a second value to calculate a difference image between the plurality of frames; extracting a grid image from the difference image by extracting grids in which the density of pixels of the first value is equal to or greater than a first threshold from among a plurality of set grids, and is included in the grid image; A bounding box is set for one or more grids that satisfy predetermined criteria, and the bounding box is detected as a moving object when the density of the grid in the set bounding box is equal to or higher than a second threshold. .

(11):この発明の一態様に係るプログラムは、コンピュータに、移動体に搭載されたカメラによって時系列に撮像された、前記移動体の周辺状況を表す複数のフレームを含む画像データを取得させ、前記複数のフレーム間の差分を算出し、前記差分を第1の値と第2の値に二値化することによって、前記複数のフレーム間の差分画像を算出させ、前記差分画像に設定された複数のグリッドのうち、前記第1の値の画素の密度が第1閾値以上であるグリッドを抽出することによって、前記差分画像からグリッド画像を抽出させ、前記グリッド画像に含まれ、かつ所定基準を満たす一以上のグリッドに対して、バウンディングボックスを設定させ、設定された前記バウンディングボックスにおける前記グリッドの密度が第2閾値以上である場合に、前記バウンディングボックスを動体として検出させるものである。 (11): A program according to an aspect of the present invention causes a computer to acquire image data including a plurality of frames representing surrounding conditions of the moving body, which are captured in time series by a camera mounted on the moving body. calculating a difference between the plurality of frames, binarizing the difference into a first value and a second value to calculate a difference image between the plurality of frames, and setting the difference image as the difference image; A grid image is extracted from the difference image by extracting a grid having a density of pixels having the first value equal to or higher than a first threshold from among the plurality of grids, and the grid image is included in the grid image and has a predetermined criterion. A bounding box is set for one or more grids that satisfy the following, and if the grid density in the set bounding box is equal to or higher than a second threshold, the bounding box is detected as a moving object.

(1)~(11)の態様によれば、車両の周辺に存在する動体を簡易的かつ高速に検出することができる。 According to the aspects (1) to (11), it is possible to easily and quickly detect a moving object existing around the vehicle.

(2)の態様によれば、車両の周辺に存在する動体をより正確に検出することができる。 According to the aspect (2), it is possible to more accurately detect a moving object existing around the vehicle.

(3)の態様によれば、車両の周辺に存在する動体を探索する処理負荷を軽減することができる。 According to the aspect (3), it is possible to reduce the processing load of searching for a moving object existing around the vehicle.

(4)又は(5)の態様によれば、前回時点で撮像されたフレームと、今回時点で撮像されたフレームとの間の差分画像を正確に算出することができる。 According to the aspect (4) or (5), it is possible to accurately calculate the difference image between the frame captured at the previous time and the frame captured at the current time.

(6)の態様によれば、移動体によるヨーレートを考慮して、差分画像を正確に算出することができる。 According to the aspect (6), the difference image can be accurately calculated in consideration of the yaw rate of the moving body.

(7)又は(8)の態様によれば、カメラからの距離に応じて、動体を正確に検出することができる。 According to aspect (7) or (8), a moving object can be accurately detected according to the distance from the camera.

(9)の態様によれば、動体検出装置による検出結果を運転支援に好適に活用することができる。 According to the aspect (9), the detection result by the moving body detection device can be preferably used for driving assistance.

第1実施形態に係る動体検出装置100の構成と周辺機器の一例を示す図である。1A and 1B are diagrams illustrating an example of a configuration and peripheral devices of a moving object detection device 100 according to a first embodiment; FIG. 動体検出装置100を搭載した車両Mの周辺状況の一例を示す図である。FIG. 2 is a diagram showing an example of a surrounding situation of a vehicle M equipped with the moving object detection device 100; 図2に示した周辺状況においてカメラ10が車両Mの前方を撮像することによって得られた画像の一例を示す図である。3 is a diagram showing an example of an image obtained by the camera 10 capturing an image of the front of the vehicle M in the surrounding situation shown in FIG. 2. FIG. フレームを拡大させる基準点として用いられる消失点の一例を示す図である。FIG. 10 is a diagram showing an example of a vanishing point used as a reference point for enlarging a frame; 差分画像DIを算出するために前回フレームを補正する方法を説明するための図である。FIG. 10 is a diagram for explaining a method of correcting a previous frame to calculate a difference image DI; 差分算出部120によって算出される差分画像DIの一例を示す図である。4 is a diagram showing an example of a difference image DI calculated by a difference calculation unit 120; FIG. グリッド抽出部130によって設定されるグリッドGの構成の一例を示す図である。4 is a diagram showing an example of the configuration of a grid G set by a grid extraction unit 130; FIG. グリッド抽出部130によるグリッドGの抽出方法の一例を示す図である。FIG. 4 is a diagram showing an example of a method of extracting a grid G by a grid extraction unit 130; グリッド抽出部130によって算出されるグリッド画像GIの一例を示す図である。4 is a diagram showing an example of a grid image GI calculated by a grid extraction unit 130; FIG. 走行制御装置200によって実行される動作の一例を示す図である。FIG. 4 is a diagram showing an example of an operation performed by the cruise control device 200; FIG. 動体検出装置100の構成と周辺機器の別の例を示す図である。2 is a diagram showing another example of the configuration of the moving object detection device 100 and peripheral devices. FIG. 報知装置210によって実行される動作の一例を示す図である。FIG. 3 is a diagram showing an example of operations performed by a notification device 210; FIG. 動体検出装置100によって実行される処理の流れの一例を示す図である。4 is a diagram showing an example of the flow of processing executed by the moving object detection device 100; FIG. 第2実施形態に係る動体検出部140によって実行される動作を説明するための図である。FIG. 11 is a diagram for explaining operations performed by a moving object detection unit 140 according to the second embodiment; FIG. 第2実施形態に係る動体検出装置100によって実行される処理の流れの一例を示す図である。FIG. 10 is a diagram showing an example of the flow of processing executed by the moving object detection device 100 according to the second embodiment; 第3実施形態に係る動体検出装置100の構成と周辺機器の一例を示す図である。FIG. 11 is a diagram showing an example of the configuration and peripheral devices of a moving object detection device 100 according to a third embodiment; バウンディングボックス設定部132によって実行されるグリッドGの探索方法の一例を示す図である。FIG. 10 is a diagram showing an example of a grid G search method executed by a bounding box setting unit 132. FIG. バウンディングボックス設定部132によるグリッドGの探索範囲の一例を示す図である。6 is a diagram showing an example of a search range of the grid G by the bounding box setting unit 132; FIG. 第3実施形態に係る動体検出装置100によって実行される処理の流れの一例を示す図である。FIG. 12 is a diagram showing an example of the flow of processing executed by the moving object detection device 100 according to the third embodiment; FIG.

[第1実施形態]
以下、図面を参照し、本発明の動体検出装置、動体検出方法、システム、およびプログラムの実施形態について説明する。動体検出装置は、例えば、移動体に搭載される。移動体とは、例えば、四輪車両や二輪車両、マイクロモビリティ、ロボットの自ら移動するもの、或いは、自ら移動する移動体に載置され、または人によって運ばれることで移動するスマートフォンなどの可搬型装置である。以下の説明において移動体は四輪車両であるものとし、移動体のことを「車両」と称して説明を行う。動体検出装置は、移動体に搭載されるものに限らず、定点観測用カメラやスマートフォンのカメラによって撮像された撮像画像に基づいて以下に説明する処理を行うものであってもよい。
[First embodiment]
Hereinafter, embodiments of a moving body detection device, a moving body detection method, a system, and a program according to the present invention will be described with reference to the drawings. A moving body detection device is mounted on, for example, a moving body. A mobile body is, for example, a four-wheeled vehicle, a two-wheeled vehicle, a micromobility, a robot that moves by itself, or a portable type such as a smartphone that is placed on a mobile body that moves by itself or is carried by a person. It is a device. In the following description, the mobile object is assumed to be a four-wheeled vehicle, and the mobile object is referred to as a "vehicle". The moving object detection device is not limited to being mounted on a moving body, and may be one that performs the processing described below based on an image captured by a camera for fixed-point observation or a camera of a smartphone.

図1は、動体検出装置100の構成と周辺機器の一例を示す図である。動体検出装置100は、カメラ10、走行制御装置200などと通信する。 FIG. 1 is a diagram showing an example of the configuration and peripheral devices of a moving object detection device 100. As shown in FIG. The moving object detection device 100 communicates with the camera 10, the travel control device 200, and the like.

カメラ10は、車両Mのフロントガラスの裏面等に取り付けられ、車両Mの進行方向の少なくとも路上を時系列に撮像し、撮像画像を動体検出装置100に出力する。なお、カメラ10と動体検出装置100の間には、センサフュージョン装置などが介在してもよいが、これについて説明を省略する。走行制御装置200は、例えば、車両Mを自律的に走行させる自動運転制御装置、車間距離制御や自動ブレーキ制御、自動車線変更制御などを行う運転支援装置などである。 The camera 10 is attached to the rear surface of the windshield of the vehicle M or the like, takes images of at least the road in the traveling direction of the vehicle M in time series, and outputs the taken images to the moving object detection device 100 . A sensor fusion device or the like may be interposed between the camera 10 and the moving object detection device 100, but the description thereof will be omitted. The travel control device 200 is, for example, an automatic driving control device that causes the vehicle M to travel autonomously, a driving support device that performs vehicle-to-vehicle distance control, automatic brake control, automatic lane change control, and the like.

動体検出装置100は、例えば、画像取得部110と、差分算出部120と、グリッド抽出部130と、動体検出部140と、を備える。これらの構成要素は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。 The moving object detection device 100 includes, for example, an image acquisition unit 110, a difference calculation unit 120, a grid extraction unit 130, and a moving object detection unit 140. These components are implemented by executing a program (software) by a hardware processor such as a CPU (Central Processing Unit). Some or all of these components are hardware (circuit part; circuitry) or by cooperation of software and hardware. The program may be stored in advance in a storage device (a storage device with a non-transitory storage medium) such as a HDD (Hard Disk Drive) or flash memory, or may be stored in a removable storage such as a DVD or CD-ROM. It may be stored in a medium (non-transitory storage medium) and installed by loading the storage medium into a drive device.

図2は、動体検出装置100を搭載した車両Mの周辺状況の一例を示す図である。図2は、一例として、動体検出装置100を搭載した車両Mが道路を走行中、車両Mの前方をバイクBが走行する場面を表している。以下の説明では、動体検出装置100がバイクBを動体として検出する場面を例として説明を行うが、本発明はそのような場面への適用に限定されない。 FIG. 2 is a diagram showing an example of a surrounding situation of a vehicle M equipped with the moving object detection device 100. As shown in FIG. FIG. 2 shows, as an example, a scene in which a motorcycle B runs in front of the vehicle M while the vehicle M equipped with the moving object detection device 100 is running on a road. In the following description, a scene in which the moving object detection device 100 detects the motorcycle B as a moving object will be described as an example, but the present invention is not limited to such a scene.

図3は、図2に示した周辺状況においてカメラ10が車両Mの前方を撮像することによって得られた画像の一例を示す図である。画像取得部110は、車両Mに搭載されたカメラ10によって時系列に撮像された、車両Mの周辺状況を表す複数のフレームを含む画像データを取得する。より具体的には、例えば、画像取得部110は、30Hzのフレームレートで、画像データをカメラ10から取得する。 FIG. 3 is a diagram showing an example of an image obtained by imaging the front of the vehicle M with the camera 10 in the surrounding situation shown in FIG. The image acquisition unit 110 acquires image data including a plurality of frames representing the surrounding situation of the vehicle M, captured in time series by the camera 10 mounted on the vehicle M. FIG. More specifically, for example, the image acquisition unit 110 acquires image data from the camera 10 at a frame rate of 30 Hz.

差分算出部120は、画像取得部110によって取得された複数のフレームについて、画素値の差分を算出し、算出した差分を第1の値(例えば、1)と第2の値(例えば、0)に二値化することによって、当該複数のフレーム間の差分画像DIを算出する。より具体的には、まず、差分算出部120は、画像取得部110によって取得された複数のフレームにグレー変換を施し、RGB画像をグレースケール画像に変換する。 The difference calculation unit 120 calculates differences in pixel values for a plurality of frames acquired by the image acquisition unit 110, and converts the calculated differences into a first value (eg, 1) and a second value (eg, 0). , the difference image DI between the plurality of frames is calculated. More specifically, first, the difference calculation unit 120 performs gray conversion on the plurality of frames acquired by the image acquisition unit 110 to convert the RGB image into a grayscale image.

次に、差分算出部120は、複数のフレームを撮像した撮影間隔における車両Mの速度に基づいて、前回時点で撮像されたフレーム(以下、「前回フレーム」と称する場合がある)を、当該フレームの消失点を中心に拡大させることによって、今回時点で撮像されたフレーム(以下、「今回フレーム」と称する場合がある)と位置合わせを行う。 Next, the difference calculation unit 120 calculates the frame imaged at the previous time (hereinafter sometimes referred to as the “previous frame”) based on the speed of the vehicle M in the imaging interval at which the multiple frames are imaged. By enlarging the image centering on the vanishing point of , alignment with the frame captured at this time (hereinafter sometimes referred to as "current frame") is performed.

図4は、フレームを拡大させる基準点として用いられる消失点の一例を示す図である。図4において、VPはフレームの消失点を示す。消失点VPは、例えば、車両Mが走行する車線の両側を延長させることによって結ばれる交点として定義される。差分算出部120は、例えば、前回時点と今回時点との間に計測された車両Mの速度(平均速度)から車両Mの移動距離を推定し、当該移動距離に応じた拡大率分、消失点VPを中心にして、前回フレームを拡大させる。 FIG. 4 is a diagram showing an example of a vanishing point used as a reference point for enlarging a frame. In FIG. 4, VP indicates the vanishing point of the frame. The vanishing point VP is defined, for example, as an intersection connected by extending both sides of the lane in which the vehicle M travels. The difference calculation unit 120, for example, estimates the moving distance of the vehicle M from the speed (average speed) of the vehicle M measured between the previous time point and the current time point, and calculates the vanishing point by the enlargement rate corresponding to the moving distance. Enlarging the previous frame with the VP as the center.

図5は、差分画像DIを算出するために前回フレームを補正する方法を説明するための図である。図5において、hはフレームの高さを示し、wはフレームの横幅を示す。図5に示す通り、差分算出部120は、前回時点と今回時点との間に計測された車両Mの移動距離に応じた拡大率分、前回フレームを拡大させる。このとき、拡大された前回フレームのサイズは、拡大前よりも大きくなるため、差分算出部120は、拡大された前回フレームの端部をトリミングすることによって、拡大された前回フレームのサイズを元のサイズに戻す。 FIG. 5 is a diagram for explaining a method of correcting the previous frame in order to calculate the difference image DI. In FIG. 5, h indicates the height of the frame and w indicates the width of the frame. As shown in FIG. 5, the difference calculation unit 120 enlarges the previous frame by an enlargement rate corresponding to the travel distance of the vehicle M measured between the previous time and the current time. At this time, since the size of the enlarged previous frame becomes larger than before enlargement, the difference calculation unit 120 trims the ends of the enlarged previous frame to reduce the size of the enlarged previous frame to the original size. return to size.

なお、差分算出部120は、前回フレームと今回フレームとの撮影間隔における車両Mの速度に加えて、前回フレームと今回フレームとの撮影間隔における車両Mのヨーレートを考慮して、前回フレームを補正してもよい。より具体的には、差分算出部120は、当該撮影間隔におけるヨーレートに基づいて、前回フレームの取得時点における車両Mのヨー角と、今回フレームの取得時点における車両Mのヨー角との間の差分を算出し、当該差分に応じた角度分、前回フレームをヨー方向にシフトさせることによって、前回フレームと今回フレームとを位置合わせしてもよい。 Note that the difference calculation unit 120 corrects the previous frame in consideration of the yaw rate of the vehicle M in the imaging interval between the previous frame and the current frame in addition to the speed of the vehicle M in the imaging interval between the previous frame and the current frame. may More specifically, the difference calculation unit 120 calculates the difference between the yaw angle of the vehicle M when the previous frame was acquired and the yaw angle of the vehicle M when the current frame was acquired, based on the yaw rate at the shooting interval. may be calculated, and the previous frame and the current frame may be aligned by shifting the previous frame in the yaw direction by an angle corresponding to the difference.

図6は、差分算出部120によって算出される差分画像DIの一例を示す図である。差分算出部120は、前回フレームを今回フレームに位置合わせした後、前回フレームと今回フレームの画素値の差分を算出する。差分算出部120は、各画素について算出された差分値が規定値以上である場合には、当該画素に、動体の候補であることを示す第1の値を割り当てる。一方、差分算出部120は、算出された差分値が規定値未満である場合には、当該画素に、動体の候補ではないことを示す第2の値を割り当てる。図6に示す通り、差分算出部120によって算出された差分画像DIにおいて、バイクBが動体として検出されていることが分かる。 FIG. 6 is a diagram showing an example of the difference image DI calculated by the difference calculator 120. As shown in FIG. After aligning the previous frame with the current frame, the difference calculation unit 120 calculates the difference between the pixel values of the previous frame and the current frame. When the difference value calculated for each pixel is equal to or greater than a specified value, the difference calculation unit 120 assigns the pixel a first value indicating that the pixel is a moving object candidate. On the other hand, if the calculated difference value is less than the specified value, the difference calculation unit 120 assigns the pixel a second value indicating that the pixel is not a moving object candidate. As shown in FIG. 6, it can be seen that the bike B is detected as a moving object in the difference image DI calculated by the difference calculation unit 120 .

グリッド抽出部130は、差分算出部120によって算出された差分画像DIのうちの複数の画素ごとにグリッドを設定し、設定されたグリッドの各々における第1の値の画素の密度(割合)が閾値以上である場合に、当該グリッドを抽出する。 The grid extraction unit 130 sets a grid for each of a plurality of pixels in the difference image DI calculated by the difference calculation unit 120, and the density (ratio) of pixels having the first value in each of the set grids is a threshold value. If so, the grid is extracted.

図7は、グリッド抽出部130によって設定されるグリッドの構成の一例を示す図である。図7において、Gは、差分画像DIのうち、グリッドとして定義される複数の画素の集合を示す。図7に示す通り、グリッド抽出部130は、例えば、差分画像DIのうち、カメラ10からの距離が第1距離(例えば、10m)以下である領域については、グリッドGのサイズを10×10画素(「第1サイズ」の一例である)に設定し、カメラ10からの距離が第1距離より大きく第2距離(例えば、20m)以下である領域については、グリッドGのサイズを8×8画素(「第2サイズ」の一例である)に設定し、カメラ10からの距離が第2距離より大きい領域については、グリッドGのサイズを5×5画素(「第3サイズ」の一例である)に設定する。これは、カメラ10からの距離が離れるほど、カメラ10によって撮像される領域の変化はより小さく、動体を検出するためには、より細かくグリッドGのサイズを設定する必要があるからである。差分画像DIにおけるカメラ10からの距離に応じて、グリッドGのサイズを設定することにより、動体をより正確に検出することができる。 FIG. 7 is a diagram showing an example of the configuration of grids set by the grid extraction unit 130. As shown in FIG. In FIG. 7, G indicates a set of pixels defined as a grid in the difference image DI. As shown in FIG. 7, the grid extracting unit 130 sets the size of the grid G to 10×10 pixels, for example, in the area of the difference image DI whose distance from the camera 10 is equal to or less than a first distance (for example, 10 m). (which is an example of the “first size”), and the distance from the camera 10 is greater than the first distance and less than or equal to the second distance (for example, 20 m), the size of the grid G is set to 8×8 pixels (which is an example of the “second size”), and for the area where the distance from the camera 10 is greater than the second distance, the size of the grid G is set to 5×5 pixels (which is an example of the “third size”) set to This is because the greater the distance from the camera 10, the smaller the change in the area imaged by the camera 10, and the finer the size of the grid G needs to be set in order to detect a moving object. By setting the size of the grid G according to the distance from the camera 10 in the difference image DI, the moving object can be detected more accurately.

図8は、グリッド抽出部130によるグリッドGの抽出方法の一例を示す図である。グリッド抽出部130は、複数のグリッドGの各々について、第1の値の画素の密度が閾値(例えば、85%)以上であるか否かを判定し、第1の値の画素の密度が閾値以上であると判定されたグリッドGについては、図8の上部に示す通り、当該グリッドGを構成する画素全体を抽出する(第1の値に設定する)。一方、グリッド抽出部130は、第1の値の画素の密度が閾値未満であると判定されたグリッドGについては、図8の下部に示す通り、当該グリッドGを構成する画素全体を破棄する(第2の値に設定する)。 FIG. 8 is a diagram showing an example of a grid G extraction method by the grid extraction unit 130. As shown in FIG. The grid extraction unit 130 determines whether or not the density of pixels with the first value is equal to or greater than a threshold (for example, 85%) for each of the plurality of grids G, and determines whether the density of pixels with the first value exceeds the threshold. For the grid G determined as above, as shown in the upper part of FIG. 8, all the pixels forming the grid G are extracted (set to the first value). On the other hand, the grid extracting unit 130 discards all the pixels forming the grid G for which the density of the pixels of the first value is determined to be less than the threshold, as shown in the lower part of FIG. second value).

なお、上記の説明において、グリッド抽出部130は、複数のグリッドGの各々について、第1の値の画素の密度が単一の閾値以上であるか否かを判定している。しかし、本発明はそのような構成に限定されず、グリッド抽出部130は、差分画像DIにおけるカメラ10からの距離に応じて、閾値を変更してもよい。例えば、一般的に、カメラ10からの距離が近いほど、カメラ10によって撮像される領域の変化はより大きく、誤差が発生しやいため、グリッド抽出部130は、カメラ10からの距離が近いほど、閾値をより高く設定してもよい。さらに、グリッド抽出部130は、第1の値の画素の密度に限らず、第1の値の画素に基づく任意の統計値を用いて判定を行ってもよい。 Note that in the above description, the grid extraction unit 130 determines whether or not the density of pixels with the first value is equal to or greater than a single threshold for each of the plurality of grids G. FIG. However, the present invention is not limited to such a configuration, and the grid extraction section 130 may change the threshold according to the distance from the camera 10 in the difference image DI. For example, in general, the closer the distance from the camera 10 is, the larger the change in the area captured by the camera 10 is, and the more likely an error is to occur. A higher threshold may be set. Furthermore, the grid extracting unit 130 may perform the determination using not only the density of the pixels with the first value but also any statistical value based on the pixels with the first value.

グリッド抽出部130は、差分画像DIに対して、第1の値の画素の密度が閾値以上であるグリッドの画素全体を第1の値に設定する処理(グリッド置換処理)を施すことによって、グリッド画像GIを算出する。図9は、グリッド抽出部130によって算出されるグリッド画像GIの一例を示す図である。図8に示す差分画像DIの構成要素は画素である一方、図9に示すグリッド画像GIの構成要素はグリッドである。図9に示す通り、差分画像DIに対してグリッド置換処理を施すことにより、グリッド画像GIにおいて、バイクBを表すグリッドが検出されていることが分かる。すなわち、動体検出部140は、グリッド画像GIにおいて表されるグリッドを動体として検出する。 The grid extracting unit 130 performs a process (grid replacement process) of setting all the pixels of the grid whose pixel density of the first value is equal to or higher than the threshold value to the first value on the difference image DI. Calculate the image GI. FIG. 9 is a diagram showing an example of the grid image GI calculated by the grid extracting section 130. As shown in FIG. The components of the difference image DI shown in FIG. 8 are pixels, while the components of the grid image GI shown in FIG. 9 are grids. As shown in FIG. 9, it can be seen that the grid representing the bike B is detected in the grid image GI by performing the grid replacement process on the difference image DI. That is, the moving object detection unit 140 detects the grid represented in the grid image GI as a moving object.

動体検出部140による動体の検出結果は走行制御装置200に送信され、走行制御装置200は、受信した検出結果に基づいて、車両Mの走行を制御する。図10は、走行制御装置200によって実行される動作の一例を示す図である。図10は、一例として、動体検出部140によってバイクBが動体として検出された状況を示している。このとき、走行制御装置200は、動体検出部140によって検出された動体を避けるように車両Mの軌道を生成し、生成した軌道に沿って車両Mを走行させる。図10の場合、走行制御装置200は、車両Mが、バイクBが走行する横断歩道の直前の地点SPにて停止するように車両Mを制御する。これにより、動体検出装置100による検出結果を車両Mの自動運転又は運転支援に好適に活用することができる。走行制御装置200は、「運転支援装置」の一例である。 The moving object detection result by the moving object detection unit 140 is transmitted to the running control device 200, and the running control device 200 controls the running of the vehicle M based on the received detection result. FIG. 10 is a diagram showing an example of an operation performed by cruise control device 200. In FIG. FIG. 10 shows, as an example, a situation in which the moving object detection unit 140 detects the motorcycle B as a moving object. At this time, the travel control device 200 generates a trajectory for the vehicle M so as to avoid the moving object detected by the moving object detection unit 140, and causes the vehicle M to travel along the generated trajectory. In the case of FIG. 10, the travel control device 200 controls the vehicle M so that it stops at a point SP immediately before the crosswalk on which the bike B travels. Thereby, the detection result by the moving object detection device 100 can be suitably utilized for automatic driving of the vehicle M or driving assistance. The travel control device 200 is an example of a “driving support device”.

なお、上記の説明では、動体検出装置100による検出結果が自動運転に活用される場合について説明した。しかし、本発明はそのような構成に限定されず、動体検出装置100による検出結果は、例えば、手動運転を行う乗員に提供する運転支援情報として活用することもできる。 In the above description, the case where the detection result by the moving object detection device 100 is used for automatic driving has been described. However, the present invention is not limited to such a configuration, and the detection result by the moving object detection device 100 can also be used as driving support information provided to a passenger who drives manually, for example.

図11は、動体検出装置100の構成と周辺機器の別の例を示す図である。図11において、動体検出装置100は、走行制御装置200に代えて、報知装置210と通信するように構成される。他の構成は、図1に示した構成と同様である。 FIG. 11 is a diagram showing another example of the configuration of the moving object detection device 100 and peripheral devices. In FIG. 11 , moving object detection device 100 is configured to communicate with notification device 210 instead of travel control device 200 . Other configurations are the same as those shown in FIG.

報知装置210は、車両Mの乗員に対して情報を出力するための表示装置、スピーカ、バイブレータ、発光装置などであり、車両Mの前方に動体が存在する旨の情報を車両Mの乗員に報知する。報知装置210は、「運転支援装置」の一例である。 The notification device 210 is a display device, a speaker, a vibrator, a light-emitting device, or the like for outputting information to the occupants of the vehicle M, and notifies the occupants of the vehicle M of information that a moving object exists in front of the vehicle M. do. The notification device 210 is an example of a “driving assistance device”.

図12は、報知装置210によって実行される動作の一例を示す図である。図12は、一例として、報知装置210が車両Mのナビゲーション装置として機能している場合を示している。図12に示す通り、報知装置210は、グリッド抽出部130が動体を検出した場合、例えば、検出された動体をバウンディングボックスBXで囲むことによって、当該動体を画面上に表示させる。 FIG. 12 is a diagram showing an example of operations performed by the notification device 210. As shown in FIG. FIG. 12 shows a case where the notification device 210 functions as a navigation device for the vehicle M as an example. As shown in FIG. 12, when the grid extraction unit 130 detects a moving object, the notification device 210 displays the detected moving object on the screen by, for example, surrounding the detected moving object with a bounding box BX.

このとき、報知装置210は、さらに、車両Mの前方に動体が存在する旨の注意喚起メッセージWを表示してもよいし、音声によって、車両Mの前方に動体が存在する旨の情報を通知してもよい。このような処理により、車両Mを手動で運転する乗員に対して、有用な運転支援情報を提供することができる。 At this time, the notification device 210 may further display a warning message W to the effect that a moving object exists in front of the vehicle M, or notify information to the effect that a moving object exists in front of the vehicle M by voice. You may Through such processing, useful driving assistance information can be provided to the passenger who drives the vehicle M manually.

次に、図13を参照して、動体検出装置100によって実行される処理の流れについて説明する。図13は、動体検出装置100によって実行される処理の流れの一例を示す図である。 Next, with reference to FIG. 13, the flow of processing executed by the moving object detection device 100 will be described. FIG. 13 is a diagram showing an example of the flow of processing executed by the moving object detection device 100. As shown in FIG.

まず、画像取得部110は、カメラ10によって撮像された、車両Mの周辺状況を表す画像フレームを今回の画像フレームとして取得する(ステップS100)。次に、差分算出部120は、今回の画像フレームの直前に取得された前回の画像フレームを、前回の画像フレームと今回の画像フレームとの間における車両Mの速度に基づいて、消失点VPを中心として拡大させ、拡大された前回の画像フレームの端部をトリミングすることによって、今回の画像フレームとサイズを合わせる(ステップS102)。 First, the image acquisition unit 110 acquires an image frame representing the surrounding situation of the vehicle M captured by the camera 10 as the current image frame (step S100). Next, the difference calculation unit 120 calculates the vanishing point VP of the previous image frame acquired immediately before the current image frame based on the speed of the vehicle M between the previous image frame and the current image frame. Enlarge as the center and match the size of the current image frame by trimming the edges of the enlarged previous image frame (step S102).

次に、差分算出部120は、前回の画像フレームと今回の画像フレームとの差分画像を算出する(ステップS104)。より具体的には、差分算出部120は、前回の画像フレームと今回の画像フレームの各画素について画素の差分値を算出し、算出された差分値が規定値以上である場合には、当該画素に、第1の値を割り当てる一方、算出された差分値が規定値未満である場合には、当該画素に、第2の値を割り当てる。 Next, the difference calculator 120 calculates a difference image between the previous image frame and the current image frame (step S104). More specifically, the difference calculation unit 120 calculates a pixel difference value for each pixel between the previous image frame and the current image frame, and if the calculated difference value is equal to or greater than a specified value, the pixel is assigned a first value, while the pixel is assigned a second value if the calculated difference value is less than a specified value.

次に、グリッド抽出部130は、算出した差分画像のうちの複数の画素ごとにグリッドGを設定し、グリッドG内の画素のうち第1の値の画素の密度が閾値以上であるグリッドGを抽出することによって、グリッド画像GIを算出する(ステップS106)。次に、動体検出部140は、グリッド画像GIにおいて表されるグリッドGを動体として検出する(ステップS108)。次に、走行制御装置200は、動体検出部140によって検出された動体を避けるように車両Mの走行を制御する(ステップS110)。これにより、本フローチャートの処理が終了する。 Next, the grid extraction unit 130 sets a grid G for each of a plurality of pixels in the calculated difference image, and selects a grid G in which the density of pixels having the first value among the pixels in the grid G is equal to or greater than the threshold. By extracting, the grid image GI is calculated (step S106). Next, the moving object detection unit 140 detects the grid G represented in the grid image GI as a moving object (step S108). Next, the travel control device 200 controls travel of the vehicle M so as to avoid the moving object detected by the moving object detection unit 140 (step S110). This completes the processing of this flowchart.

以上の通り説明した第1実施形態によれば、カメラによって撮像された時系列の画像フレームから差分画像を算出し、算出された差分画像のうちの複数の画素ごとにサイズの異なるグリッドを設定し、設定されたグリッドごとに動体の有無を検出する。これにより、車両の周辺に存在する動体を簡易的かつ高速に検出することができる。 According to the first embodiment described above, a difference image is calculated from time-series image frames captured by a camera, and grids having different sizes are set for each of a plurality of pixels in the calculated difference image. , to detect the presence or absence of a moving object for each set grid. As a result, it is possible to easily and quickly detect a moving object existing around the vehicle.

[第2実施形態]
第1実施形態は、差分画像DIから算出したグリッド画像GIに写されるグリッドGを動体として検出するものである。しかしながら、グリッド画像GIに写されるグリッドGは、必ずしも全てが動体であるとは限らず、横断歩道などの静止物体が含まれる場合がある。第2実施形態に係る動体検出装置100は、算出された複数のグリッド画像GIを比較することによって、動体の検出精度を高めるものである。第2実施形態に係る動体検出装置100の機能構成は、第1実施形態と同様であるため、説明を省略する。
[Second embodiment]
1st Embodiment detects the grid G shown by the grid image GI calculated from the difference image DI as a moving body. However, the grid G shown in the grid image GI is not necessarily all moving objects, and may include stationary objects such as pedestrian crossings. The moving object detection device 100 according to the second embodiment increases the accuracy of moving object detection by comparing a plurality of calculated grid images GI. The functional configuration of the moving object detection device 100 according to the second embodiment is the same as that of the first embodiment, and thus the description is omitted.

第2実施形態において、動体検出部140は、グリッド画像から動体をより正確に検出するために、異なる時点に関して得られた複数のグリッド画像を比較することによって動体を検出する。図14は、第2実施形態に係る動体検出部140によって実行される動作を説明するための図である。図14の上部は、時点t0と、時点t0よりも後の時点t1との間の差分画像から算出されたグリッド画像GI1を示し、図14の下部は、時点t1と、時点t1よりも後の時点t2(例えば、現時点)との間の差分画像から算出されたグリッド画像GI2を示す。符号G1およびG2は、それぞれ第1の値の画素の密度が閾値以上であると判定されたグリッドを示す。時点t0は「第1時点」の一例であり、時点t1は「第2時点」の一例であり、時点t3は「第3時点」の一例である。 In the second embodiment, the moving object detection unit 140 detects a moving object by comparing multiple grid images obtained at different time points in order to more accurately detect the moving object from the grid images. FIG. 14 is a diagram for explaining operations performed by the moving object detection unit 140 according to the second embodiment. The upper part of FIG. 14 shows the grid image GI1 calculated from the difference image between time t0 and time t1 after time t0, and the lower part of FIG. A grid image GI2 calculated from the difference image between time t2 (for example, the current time) is shown. References G1 and G2 respectively denote grids in which the density of pixels of the first value was determined to be greater than or equal to the threshold. Time t0 is an example of a "first time", time t1 is an example of a "second time", and time t3 is an example of a "third time".

動体検出部140は、グリッド画像GI1におけるグリッドG1(G2)と、グリッド画像GI2におけるグリッドG1(G2)とを比較することによって、車両Mの周辺に存在する動体を検出する。より具体的には、動体検出部140は、まず、時点t1と時点t2との間の期間における車両Mの速度およびヨーレートに関する情報を取得する。次に、動体検出部140は、取得した速度およびヨーレートに関する情報に基づいて、グリッド画像GI1におけるグリッドGに対応するグリッド画像GI2の位置を特定する。次に、動体検出部140は、グリッド画像GI1におけるグリッドGと、特定したグリッド画像GI2の位置に存在するグリッドGとを比較して、それらの形状や第1の値の画素の密度が一致(又は類似)している場合に、これらのグリッドGが同一の物体を示していると判定する。図14は、一例として、グリッド画像GI1におけるグリッドG1が、グリッド画像GI2におけるグリッドG1に対応し、グリッド画像GI1におけるグリッドG2が、グリッド画像GI2におけるグリッドG2に対応している例を表している。 The moving object detection unit 140 detects a moving object existing around the vehicle M by comparing the grid G1 (G2) in the grid image GI1 and the grid G1 (G2) in the grid image GI2. More specifically, moving object detection unit 140 first acquires information about the speed and yaw rate of vehicle M during the period between time t1 and time t2. Next, the moving object detection unit 140 identifies the position of the grid image GI2 corresponding to the grid G in the grid image GI1 based on the acquired information about the speed and yaw rate. Next, the moving object detection unit 140 compares the grid G in the grid image GI1 with the grid G existing at the position of the specified grid image GI2, and the shapes and the pixel densities of the first values match ( or similar), it is determined that these grids G show the same object. FIG. 14 shows an example in which the grid G1 in the grid image GI1 corresponds to the grid G1 in the grid image GI2, and the grid G2 in the grid image GI1 corresponds to the grid G2 in the grid image GI2.

次に、動体検出部140は、グリッド画像GI2におけるグリッドGが、グリッド画像GI1における対応するグリッドGを基準として、画像中心方向に移動したか否かを判定する。動体検出部140は、グリッド画像GI2におけるグリッドGが画像中心方向に移動したと判定した場合に、当該グリッドGを動体として検出する。図14の例では、動体検出部140は、グリッド画像GI2におけるグリッドG1が、グリッド画像GI1におけるグリッドG1を基準として、画像中心方向(すなわち、右下方向)に移動したと判定するため、グリッドG1を動体として検出する。一方、図14に示す通り、画像中央部に存在するグリッドG2は画像中心方向に移動していないため、動体検出部140は、グリッドG2を動体として検出しない。しかし、一般的に、画像中央部に存在する物体は、フレーム前後での見かけ上、移動量が過小評価される傾向があるため、動体検出部140は、グリッドG2を車両Mに衝突する可能性がある監視対象物体として、検出してもよい。 Next, the moving object detection unit 140 determines whether or not the grid G in the grid image GI2 has moved toward the center of the image with reference to the corresponding grid G in the grid image GI1. When the moving object detection unit 140 determines that the grid G in the grid image GI2 has moved toward the center of the image, the moving object detection unit 140 detects the grid G as a moving object. In the example of FIG. 14, the moving object detection unit 140 determines that the grid G1 in the grid image GI2 has moved toward the center of the image (that is, toward the lower right) with respect to the grid G1 in the grid image GI1. is detected as a moving object. On the other hand, as shown in FIG. 14, the grid G2 existing in the center of the image has not moved toward the center of the image, so the moving object detection unit 140 does not detect the grid G2 as a moving object. However, in general, an object existing in the center of the image tends to be underestimated in the apparent amount of movement before and after the frame. may be detected as a certain monitored object.

次に、図15を参照して、動体検出装置100によって実行される処理の流れについて説明する。図15は、第2実施形態に係る動体検出装置100によって実行される処理の流れの一例を示す図である。ステップS106までの処理は、図13に示した第1実施形態のフローチャートと同様であるため、説明を省略する。 Next, with reference to FIG. 15, the flow of processing executed by the moving object detection device 100 will be described. FIG. 15 is a diagram showing an example of the flow of processing executed by the moving object detection device 100 according to the second embodiment. The processing up to step S106 is the same as that of the flowchart of the first embodiment shown in FIG. 13, so the description is omitted.

ステップS106において、グリッド抽出部130が今回のグリッド画像GIを算出すると、動体検出部140は、1サイクル前にて算出された前回のグリッド画像GIを取得する(ステップS200)。次に、動体検出部140は、前回のグリッド画像GIの算出時と、今回のグリッド画像GIの算出時との間における車両Mの速度およびヨーレートに基づいて、比較対象となるグリッドGを特定する(ステップS202)。 In step S106, when the grid extraction unit 130 calculates the current grid image GI, the moving object detection unit 140 acquires the previous grid image GI calculated one cycle before (step S200). Next, the moving object detection unit 140 identifies the grid G to be compared based on the speed and yaw rate of the vehicle M between the calculation of the previous grid image GI and the calculation of the current grid image GI. (Step S202).

次に、動体検出部140は、今回のグリッド画像GIにおけるグリッドGが、前回のグリッド画像GIにおける対応するグリッドGを基準として、画像中心方向に移動したか否かを判定する(ステップS204)。動体検出部140は、今回のグリッド画像GIにおけるグリッドGが、前回のグリッド画像GIにおける対応するグリッドGを基準として、画像中心方向に移動したと判定した場合、当該グリッドGを動体として検出する(ステップS206)。 Next, the moving object detection unit 140 determines whether or not the grid G in the current grid image GI has moved toward the center of the image with reference to the corresponding grid G in the previous grid image GI (step S204). When the moving object detection unit 140 determines that the grid G in the current grid image GI has moved toward the center of the image with reference to the corresponding grid G in the previous grid image GI, the moving object detection unit 140 detects the grid G as a moving object ( step S206).

一方、動体検出部140は、今回のグリッド画像GIにおけるグリッドGが、前回のグリッド画像GIにおける対応するグリッドGを基準として、画像中心方向に移動していないと判定した場合、当該グリッドGを非動体として検出する(ステップS208)。次に、走行制御装置200は、動体検出部140によって検出された動体を避けるように車両Mの走行を制御する(ステップS210)。これにより、本フローチャートの処理が終了する。 On the other hand, if the moving object detection unit 140 determines that the grid G in the current grid image GI has not moved in the image center direction with respect to the corresponding grid G in the previous grid image GI, It is detected as a moving object (step S208). Next, the travel control device 200 controls travel of the vehicle M so as to avoid the moving object detected by the moving object detection unit 140 (step S210). This completes the processing of this flowchart.

以上の通り説明した第2実施形態によれば、前回時点で算出されたグリッド画像と今回時点で算出されたグリッド画像のうちの対応するグリッドを、車両Mの速度およびヨーレートに基づいて特定し、特定したグリッドが、前回時点を基準として、車両中心方向に移動していた場合に、当該グリッドを動体として検出する。これにより、グリッド画像から動体をより正確に検出することができる。 According to the second embodiment described above, the corresponding grid between the grid image calculated at the previous time and the grid image calculated at the current time is specified based on the speed and yaw rate of the vehicle M, If the specified grid moves toward the center of the vehicle with reference to the previous time, the grid is detected as a moving object. Thereby, a moving object can be detected more accurately from the grid image.

[第3実施形態]
第1実施形態は、差分画像DIから算出したグリッド画像GIに写されるグリッドGを動体として検出するものである。しかしながら、グリッド画像GIに写されるグリッドGは、必ずしも全てが動体であるとは限らず、横断歩道などの静止物体が含まれる場合がある。第3実施形態に係る動体検出装置100は、グリッド画像GIに写されるグリッドGに対して、検出したい物体(歩行者、バイク、車両など)の規定サイズを照合することによって、動体の検出精度を高めるものである。
[Third Embodiment]
1st Embodiment detects the grid G shown by the grid image GI calculated from the difference image DI as a moving body. However, the grid G shown in the grid image GI is not necessarily all moving objects, and may include stationary objects such as pedestrian crossings. The moving object detection apparatus 100 according to the third embodiment compares the specified size of the object (pedestrian, motorcycle, vehicle, etc.) to be detected with the grid G shown in the grid image GI, thereby increasing the detection accuracy of the moving object. It is intended to increase

図16は、第3実施形態に係る動体検出装置100の構成と周辺機器の一例を示す図である。図16に示す通り、動体検出装置100は、第1実施形態に係る動体検出装置100の構成要素に加えて、バウンディングボックス設定部132を備える。バウンディングボックス設定部132は、グリッド抽出部130によって抽出され、かつ所定基準を満たすグリッドGの集合を探索し、探索されたグリッドGの集合に対してバウンディングボックスを設定する。 FIG. 16 is a diagram showing an example of the configuration and peripheral devices of the moving object detection device 100 according to the third embodiment. As shown in FIG. 16, the moving object detection device 100 includes a bounding box setting unit 132 in addition to the components of the moving object detection device 100 according to the first embodiment. The bounding box setting unit 132 searches for a set of grids G that are extracted by the grid extraction unit 130 and that satisfies a predetermined criterion, and sets a bounding box for the set of grids G found.

図17は、バウンディングボックス設定部132によって実行されるグリッドGの探索方法の一例を示す図である。バウンディングボックス設定部132は、まず、グリッド抽出部130によって算出されたグリッド画像GIから、下端が一定長L1以上のグリッドGの集合を探索する。このとき、図17の左部に示されている通り、グリッドGの集合が一定長L1以上の下端を有すると判定されるためには、必ずしも、当該集合がグリッドGを欠損なく含む場合に限定されず、当該下端に含まれるグリッドGの密度が基準値以上であることを前提条件として、一定長L1以上の下端を有すると判定されてもよい。 FIG. 17 is a diagram showing an example of a grid G search method executed by the bounding box setting unit 132. As shown in FIG. The bounding box setting unit 132 first searches the grid image GI calculated by the grid extracting unit 130 for a set of grids G whose lower ends have a certain length L1 or longer. At this time, as shown in the left part of FIG. 17, in order for the set of grids G to be determined to have a lower end equal to or longer than the constant length L1, the set must necessarily include the grids G without loss. Instead, it may be determined that the lower end has a length L1 or longer on the condition that the density of the grid G included in the lower end is equal to or greater than a reference value.

次に、バウンディングボックス設定部132は、一定長L1以上の下端を有するグリッドGの集合を特定した場合、当該グリッドGの集合が一定長L2以上の高さを有するか否かを判定する。すなわち、グリッドGの集合が、一定長L1以上の下端かつ一定長L2以上の高さを有するか否かを判定することによって、当該グリッドGの集合が、歩行者、バイク、車両などの物体に該当するか否かを特定することができる。この場合、下端の一定長L1および高さの一定長L2の組み合わせは、歩行者、バイク、車両などの物体ごとに固有の値として設定される。 Next, when the bounding box setting unit 132 identifies a set of grids G having a lower end of a certain length L1 or more, the bounding box setting unit 132 determines whether the set of grids G has a height of a certain length L2 or more. That is, by determining whether or not the set of grids G has a lower end of a certain length L1 or more and a height of a certain length L2 or more, the set of grids G can be regarded as an object such as a pedestrian, a motorcycle, or a vehicle. It is possible to specify whether or not it is applicable. In this case, the combination of the fixed length L1 of the lower end and the fixed length L2 of the height is set as a unique value for each object such as a pedestrian, a motorcycle, and a vehicle.

次に、バウンディングボックス設定部132は、一定長L1以上の下端および一定長L2以上の高さを有するグリッドGの集合を特定した場合、当該グリッドGの集合にバウンディングボックスを設定する。次に、バウンディングボックス設定部132は、設定したバウンディングボックスに含まれるグリッドGの密度が閾値以上であるか否かを判定する。バウンディングボックス設定部132は、設定したバウンディングボックスに含まれるグリッドGの密度が閾値以上であると判定された場合、当該バウンディングボックスを動体として検出する。バウンディングボックスの設定および密度に関する判定を実行することにより、特定されたグリッドGの集合が、現実の物体であること(換言すると、グリッドGの集合が、物体ではないにもかかわらず、たまたま規定の下端と高さに該当したものではないこと)を確認することができる。 Next, when the bounding box setting unit 132 identifies a set of grids G having a lower end of a certain length L1 or more and a height of a certain length L2 or more, the bounding box setting unit 132 sets a bounding box for the set of grids G. FIG. Next, the bounding box setting unit 132 determines whether or not the density of the grid G included in the set bounding box is equal to or greater than a threshold. The bounding box setting unit 132 detects the bounding box as a moving object when it is determined that the density of the grid G included in the set bounding box is equal to or greater than the threshold. By performing determinations on bounding box settings and densities, the identified set of grids G is a real object (in other words, even though the set of grids G is not an object, it happens to be defined It is possible to confirm that it does not correspond to the bottom end and height).

このように、バウンディングボックス設定部132は、グリッド画像GIから、所定基準を満たすグリッドGの集合を探索するものであるが、グリッドGの探索は処理負荷が重くなる場合がある。そのため、バウンディングボックス設定部132は、グリッドGの探索に係る処理負荷を軽減するために、車両Mの走行にとって重要な領域を優先的に探索してもよい。 In this way, the bounding box setting unit 132 searches for a set of grids G satisfying a predetermined criterion from the grid image GI, but the search for the grids G may increase the processing load. Therefore, the bounding box setting unit 132 may preferentially search for areas important for traveling of the vehicle M in order to reduce the processing load associated with searching the grid G. FIG.

図18は、バウンディングボックス設定部132によるグリッドGの探索範囲の一例を示す図である。図18において、符号R1は、車両Mから近距離でグリッドGが探索される範囲を示し、符号R2は、車両Mから中距離でグリッドGが探索される範囲を示し、符号R3は、車両Mから遠距離でグリッドGが探索される範囲を示す。図18に示される通り、バウンディングボックス設定部132は、車両Mから近距離の範囲R1では、グリッド画像GIの全域を探索する一方、車両Mから中距離の範囲R1および遠距離の範囲R2では、グリッド画像GIの中央部のみを探索してもよい。これにより、車両Mの走行にとって重要な領域を優先的に探索し、グリッドGの探索に係る処理負荷を軽減することができる。 FIG. 18 is a diagram showing an example of the search range of the grid G by the bounding box setting unit 132. As shown in FIG. In FIG. 18, reference R1 indicates the range in which the grid G is searched at a short distance from the vehicle M, reference R2 indicates the range in which the grid G is searched at a medium distance from the vehicle M, and reference R3 indicates the vehicle M. indicates the range over which the grid G is searched at long distances from . As shown in FIG. 18, the bounding box setting unit 132 searches the entire area of the grid image GI in the short distance range R1 from the vehicle M, while in the medium distance range R1 and the long distance range R2 from the vehicle M, Only the central portion of the grid image GI may be searched. As a result, it is possible to preferentially search for areas important for the travel of the vehicle M, and reduce the processing load associated with searching the grid G. FIG.

なお、図18では、一例として、グリッドGの探索範囲を三段階に分ける場合について記載しているが、本発明はそのような構成に限定されない。例えば、バウンディングボックス設定部132は、二段階または四段階以上の探索範囲でグリッドGを探索してもよいし、単一の探索範囲の探索幅を連続的に中央部に絞り込むような形でグリッドGを探索してもよい。 Note that FIG. 18 describes, as an example, a case where the search range of the grid G is divided into three stages, but the present invention is not limited to such a configuration. For example, the bounding box setting unit 132 may search the grid G in a search range of two stages or four or more stages, or may search the grid G in such a manner that the search width of a single search range is continuously narrowed down to the central part. You may search for G.

次に、図19を参照して、動体検出装置100によって実行される処理の流れについて説明する。図19は、第3実施形態に係る動体検出装置100によって実行される処理の流れの一例を示す図である。ステップS106までの処理は、図13に示した第1実施形態のフローチャートと同様であるため、説明を省略する。 Next, with reference to FIG. 19, the flow of processing executed by the moving object detection device 100 will be described. FIG. 19 is a diagram showing an example of the flow of processing executed by the moving object detection device 100 according to the third embodiment. The processing up to step S106 is the same as that of the flowchart of the first embodiment shown in FIG. 13, so the description is omitted.

ステップS106において、グリッド抽出部130がグリッド画像GIを算出すると、バウンディングボックス設定部132は、グリッド画像GIのうち、一定長L1以上の下端を有するグリッドGの集合を探索する(ステップS300)。グリッド画像GIのうち、一定長L1以上の下端を有するグリッドGの集合が探索されなかった場合、バウンディングボックス設定部132は、本フローチャートの処理を終了する。 When the grid extracting unit 130 calculates the grid image GI in step S106, the bounding box setting unit 132 searches the grid image GI for a set of grids G having a lower end of a certain length L1 or longer (step S300). If the grid image GI does not find a set of grids G having lower ends with a length equal to or greater than L1, the bounding box setting unit 132 terminates the processing of this flowchart.

一方、グリッド画像GIのうち、一定長L1以上の下端を有するグリッドGの集合が探索された場合、バウンディングボックス設定部132は、当該グリッドGの集合が探索された下端を基準として一定長L2以上の高さを有するか否かを判定する(ステップS304)。探索されたグリッドGの集合が一定長L2以上の高さを有すると判定されなかった場合、バウンディングボックス設定部132は、本フローチャートの処理を終了する。 On the other hand, when a set of grids G having a lower end of a certain length L1 or more is searched for in the grid image GI, the bounding box setting unit 132 sets a certain length L2 or more based on the lower end of the search of the set of grids G. (step S304). If it is not determined that the searched set of grids G has a height equal to or greater than the fixed length L2, the bounding box setting unit 132 terminates the processing of this flowchart.

一方、探索されたグリッドGの集合が一定長L2以上の高さを有すると判定された場合、バウンディングボックス設定部132は、当該グリッドGの集合を囲むバウンディングボックスを設定する(ステップS306)。次に、バウンディングボックス設定部132は、設定されたバウンディングボックス内のグリッドGの密度は閾値以上であるか否かを判定する(ステップS308)。設定されたバウンディングボックス内のグリッドGの密度が閾値以上であると判定されなかった場合、バウンディングボックス設定部132は、本フローチャートの処理を終了する。 On the other hand, when it is determined that the searched set of grids G has a height equal to or greater than the constant length L2, the bounding box setting unit 132 sets a bounding box surrounding the set of grids G (step S306). Next, the bounding box setting unit 132 determines whether or not the density of the grid G within the set bounding box is equal to or greater than a threshold (step S308). If it is not determined that the density of the grid G within the set bounding box is equal to or greater than the threshold, the bounding box setting unit 132 terminates the processing of this flowchart.

一方、設定されたバウンディングボックス内のグリッドGの密度が閾値以上であると判定された場合、動体検出部140は、当該バウンディングボックスを動体として検出する(ステップS310)。次に、走行制御装置200は、動体検出部140によって検出された動体を避けるように車両Mの走行を制御する(ステップS210)。これにより、本フローチャートの処理が終了する。 On the other hand, when it is determined that the density of the grid G within the set bounding box is equal to or greater than the threshold, the moving object detection unit 140 detects the bounding box as a moving object (step S310). Next, the travel control device 200 controls travel of the vehicle M so as to avoid the moving object detected by the moving object detection unit 140 (step S210). This completes the processing of this flowchart.

以上の通り説明した第3実施形態によれば、グリッド画像の中から、所定基準を満たすグリッドの集合を探索し、探索したグリッドの集合にバウンディングボックスを設定し、設定したバウンディングボックスの密度が閾値以上であるか否かに基づいて、動体を検出する。これにより、グリッド画像から動体をより正確に検出することができる。 According to the third embodiment described above, a grid image that satisfies a predetermined criterion is searched for, a bounding box is set for the searched grid set, and the density of the set bounding box is a threshold value. A moving object is detected based on whether it is the above. Thereby, a moving object can be detected more accurately from the grid image.

上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサが前記記憶装置に記憶されたプログラムを実行することにより、
移動体に搭載されたカメラによって時系列に撮像された、前記移動体の周辺状況を表す複数のフレームを含む画像データを取得し、
前記複数のフレーム間の差分を算出し、前記差分を第1の値と第2の値に二値化することによって、前記複数のフレーム間の差分画像を算出し、
前記差分画像に設定された複数のグリッドのうち、前記第1の値の画素の密度が第1閾値以上であるグリッドを抽出することによって、前記差分画像からグリッド画像を抽出し、
前記グリッド画像に含まれ、かつ所定基準を満たす一以上のグリッドに対して、バウンディングボックスを設定し、
設定された前記バウンディングボックスにおける前記グリッドの密度が第2閾値以上である場合に、前記バウンディングボックスを動体として検出する、
ように構成されている、動体検出装置。
The embodiment described above can be expressed as follows.
a storage device storing a program;
a hardware processor;
By the hardware processor executing the program stored in the storage device,
Acquiring image data including a plurality of frames representing a surrounding situation of the moving object, captured in time series by a camera mounted on the moving object;
calculating a difference image between the plurality of frames by calculating a difference between the plurality of frames and binarizing the difference into a first value and a second value;
Extracting a grid image from the difference image by extracting a grid having a pixel density of the first value equal to or higher than a first threshold from among a plurality of grids set in the difference image;
setting a bounding box for one or more grids included in the grid image and satisfying predetermined criteria;
detecting the bounding box as a moving object when the density of the grid in the set bounding box is equal to or greater than a second threshold;
A moving body detection device configured to:

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 As described above, the mode for carrying out the present invention has been described using the embodiments, but the present invention is not limited to such embodiments at all, and various modifications and replacements can be made without departing from the scope of the present invention. can be added.

10 カメラ
100 動体検出装置
110 画像取得部
120 差分算出部
130 グリッド抽出部
132 バウンディングボックス設定部
140 動体検出部
200 走行制御装置
210 報知装置
REFERENCE SIGNS LIST 10 camera 100 moving object detection device 110 image acquisition unit 120 difference calculation unit 130 grid extraction unit 132 bounding box setting unit 140 moving object detection unit 200 travel control device 210 notification device

Claims (11)

移動体に搭載されたカメラによって時系列に撮像された、前記移動体の周辺状況を表す複数のフレームを含む画像データを取得する画像取得部と、
前記複数のフレーム間の差分を算出し、前記差分を第1の値と第2の値に二値化することによって、前記複数のフレーム間の差分画像を算出する差分算出部と、
前記差分画像に設定された複数のグリッドのうち、前記第1の値の画素の密度が第1閾値以上であるグリッドを抽出するグリッド抽出部と、
前記抽出され、かつ所定基準を満たす一以上のグリッドに対して、外接矩形であるバウンディングボックスを設定するバウンディングボックス設定部と、
設定された前記バウンディングボックスにおける前記グリッドの密度が第2閾値以上である場合に、前記バウンディングボックスを動体として検出する動体検出部と、を備える、
動体検出装置。
an image acquisition unit that acquires image data including a plurality of frames representing a surrounding situation of the moving object, which are captured in time series by a camera mounted on the moving object;
a difference calculation unit that calculates a difference image between the plurality of frames by calculating a difference between the plurality of frames and binarizing the difference into a first value and a second value;
a grid extracting unit for extracting a grid having a pixel density of the first value equal to or higher than a first threshold among the plurality of grids set in the difference image;
a bounding box setting unit that sets a bounding box that is a circumscribing rectangle for the one or more grids that are extracted and satisfy a predetermined criterion;
a moving object detection unit that detects the bounding box as a moving object when the density of the grid in the set bounding box is equal to or greater than a second threshold;
Motion detector.
前記バウンディングボックス設定部は、前記一以上のグリッドの下端および前記下端を基準とする前記一以上のグリッドの高さがそれぞれ一定の値を有する場合に、前記一以上のグリッドが前記所定基準を満たすと判定する、
請求項1に記載の動体検出装置。
The bounding box setting unit is configured such that the one or more grids satisfy the predetermined criterion when the bottom edge of the one or more grids and the height of the one or more grids relative to the bottom edge each have a constant value. determine that
The moving body detection device according to claim 1.
前記バウンディングボックス設定部は、前記グリッドを含むグリッド画像の中央部において、前記所定基準を満たす一以上のグリッドを探索する、
請求項1又は2に記載の動体検出装置。
The bounding box setting unit searches for one or more grids that satisfy the predetermined criteria in a central portion of a grid image containing the grids.
The moving body detection device according to claim 1 or 2.
前記差分算出部は、前記複数のフレームを撮像した撮影間隔における前記移動体の速度に基づいて、前回時点で撮像されたフレームを拡大させ、拡大された前記前回時点で撮像されたフレームと、今回時点で撮像されたフレームとの間の差分画像を算出する、
請求項1から3のいずれか1項に記載の動体検出装置。
The difference calculation unit enlarges the frame imaged at the previous time based on the speed of the moving body in the imaging interval at which the plurality of frames are imaged, and compares the enlarged frame imaged at the previous time with the current image. calculating a difference image between the frames captured at the point in time;
The moving body detection device according to any one of claims 1 to 3.
前記差分算出部は、前記前回時点で撮像されたフレームを、前記前回時点で撮像されたフレームの消失点を中心に拡大させる、
請求項4に記載の動体検出装置。
The difference calculation unit enlarges the frame captured at the previous time, centering on the vanishing point of the frame captured at the previous time.
The moving body detection device according to claim 4.
前記差分算出部は、前記複数のフレームを撮像した撮影間隔における前記移動体のヨーレートに基づいて、前回時点で撮像されたフレームを補正し、補正した前記前回時点で撮像されたフレームと、今回時点で撮像されたフレームとの間の差分画像を算出する、
請求項1から5のいずれか1項に記載の動体検出装置。
The difference calculation unit corrects the frame captured at the previous time point based on the yaw rate of the moving body at the shooting interval at which the plurality of frames are captured, and calculates the Calculate the difference image between the frames captured in
The moving body detection device according to any one of claims 1 to 5.
前記グリッド抽出部は、前記複数のグリッドの各々の前記カメラからの距離に応じて、前記閾値を変化させる、
請求項1から6のいずれか1項に記載の動体検出装置。
The grid extraction unit changes the threshold according to the distance from the camera to each of the plurality of grids.
The moving body detection device according to any one of claims 1 to 6.
前記グリッド抽出部は、前記カメラからの距離が第1距離以下である場合には、前記複数のグリッドのサイズを第1サイズに設定し、前記カメラからの距離が第1距離より大きくかつ第2距離以下である場合には、前記複数のグリッドのサイズを前記第1サイズより小さい第2サイズに設定し、前記カメラからの距離が第2距離より大きい場合には、前記複数のグリッドのサイズを前記第2サイズより小さい第3サイズに設定する、
請求項1から7のいずれか1項に記載の動体検出装置。
The grid extraction unit sets the size of the plurality of grids to a first size when the distance from the camera is less than or equal to a first distance, and sets the size of the plurality of grids to a first size, If the distance is less than or equal to the distance, setting the size of the plurality of grids to a second size smaller than the first size, and if the distance from the camera is greater than the second distance, setting the size of the plurality of grids. set to a third size smaller than the second size;
The moving body detection device according to any one of claims 1 to 7.
請求項1から8のいずれか1項に記載の動体検出装置と、
前記動体検出装置によって得られた検出結果に基づいて、前記移動体の運転支援を行う運転支援装置と、を備える、
システム。
A moving object detection device according to any one of claims 1 to 8;
A driving support device that supports driving of the moving body based on the detection result obtained by the moving body detection device,
system.
コンピュータが、
移動体に搭載されたカメラによって時系列に撮像された、前記移動体の周辺状況を表す複数のフレームを含む画像データを取得し、
前記複数のフレーム間の差分を算出し、前記差分を第1の値と第2の値に二値化することによって、前記複数のフレーム間の差分画像を算出し、
前記差分画像に設定された複数のグリッドのうち、前記第1の値の画素の密度が第1閾値以上であるグリッドを抽出することによって、前記差分画像からグリッド画像を抽出し、
前記グリッド画像に含まれ、かつ所定基準を満たす一以上のグリッドに対して、バウンディングボックスを設定し、
設定された前記バウンディングボックスにおける前記グリッドの密度が第2閾値以上である場合に、前記バウンディングボックスを動体として検出する、
動体検出方法。
the computer
Acquiring image data including a plurality of frames representing a surrounding situation of the moving object, captured in time series by a camera mounted on the moving object;
calculating a difference image between the plurality of frames by calculating a difference between the plurality of frames and binarizing the difference into a first value and a second value;
Extracting a grid image from the difference image by extracting a grid having a pixel density of the first value equal to or higher than a first threshold from among a plurality of grids set in the difference image;
setting a bounding box for one or more grids included in the grid image and satisfying predetermined criteria;
detecting the bounding box as a moving object when the density of the grid in the set bounding box is equal to or greater than a second threshold;
Motion detection method.
コンピュータに、
移動体に搭載されたカメラによって時系列に撮像された、前記移動体の周辺状況を表す複数のフレームを含む画像データを取得させ、
前記複数のフレーム間の差分を算出し、前記差分を第1の値と第2の値に二値化することによって、前記複数のフレーム間の差分画像を算出させ、
前記差分画像に設定された複数のグリッドのうち、前記第1の値の画素の密度が第1閾値以上であるグリッドを抽出することによって、前記差分画像からグリッド画像を抽出させ、
前記グリッド画像に含まれ、かつ所定基準を満たす一以上のグリッドに対して、バウンディングボックスを設定させ、
設定された前記バウンディングボックスにおける前記グリッドの密度が第2閾値以上である場合に、前記バウンディングボックスを動体として検出させる、
プログラム。
to the computer,
Acquiring image data including a plurality of frames representing a surrounding situation of the moving object, which are captured in time series by a camera mounted on the moving object;
calculating a difference image between the plurality of frames by calculating a difference between the plurality of frames and binarizing the difference into a first value and a second value;
extracting a grid image from the difference image by extracting a grid having a pixel density of the first value equal to or higher than a first threshold from among a plurality of grids set in the difference image;
setting a bounding box for one or more grids included in the grid image and satisfying a predetermined criterion;
detecting the bounding box as a moving object when the density of the grid in the set bounding box is equal to or greater than a second threshold;
program.
JP2022011790A 2022-01-28 2022-01-28 Moving body detection apparatus, moving body detection method, system, and program Pending JP2023110381A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022011790A JP2023110381A (en) 2022-01-28 2022-01-28 Moving body detection apparatus, moving body detection method, system, and program
CN202310086695.9A CN116524453A (en) 2022-01-28 2023-01-18 Moving object detection device, moving object detection method, moving object detection system, and storage medium
US18/099,994 US20230245325A1 (en) 2022-01-28 2023-01-23 Moving object detection device, moving object detection method, system, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022011790A JP2023110381A (en) 2022-01-28 2022-01-28 Moving body detection apparatus, moving body detection method, system, and program

Publications (1)

Publication Number Publication Date
JP2023110381A true JP2023110381A (en) 2023-08-09

Family

ID=87394613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022011790A Pending JP2023110381A (en) 2022-01-28 2022-01-28 Moving body detection apparatus, moving body detection method, system, and program

Country Status (2)

Country Link
JP (1) JP2023110381A (en)
CN (1) CN116524453A (en)

Also Published As

Publication number Publication date
CN116524453A (en) 2023-08-01

Similar Documents

Publication Publication Date Title
KR101517181B1 (en) System and method for warning lane departure
US10755116B2 (en) Image processing apparatus, imaging apparatus, and device control system
US10580155B2 (en) Image processing apparatus, imaging device, device control system, frequency distribution image generation method, and recording medium
JP2006268097A (en) On-vehicle object detecting device, and object detecting method
KR20150080569A (en) Moving object recognizer
JP2008168811A (en) Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program
JP2006018751A (en) Image processor for vehicle
JP2007334751A (en) Vehicle periphery monitoring device
JP2015165376A (en) Apparatus and method for recognizing lane
US10628960B2 (en) Information processing apparatus, imaging apparatus, device control system, moving object, information processing method, and recording medium
JP2006338272A (en) Vehicle behavior detector and vehicle behavior detection method
JP6436357B2 (en) Pedestrian motion identification device for vehicle
JP2009252198A (en) Travel environment presuming device, method and program, and traffic lane deviation alarm device and steering assisting apparatus
JP2005316607A (en) Image processor and image processing method
JP2016192177A (en) Vehicle detection system, vehicle detection device, vehicle detection method and vehicle detection program
JP2016206801A (en) Object detection device, mobile equipment control system and object detection program
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
US20230245323A1 (en) Object tracking device, object tracking method, and storage medium
JP4321410B2 (en) Object detection apparatus and method
JP5125214B2 (en) Obstacle detection method and obstacle detection device
JP2023110381A (en) Moving body detection apparatus, moving body detection method, system, and program
JP2023110378A (en) Moving body detection apparatus, moving body detection method, system, and program
JP2023110374A (en) Moving body detection apparatus, moving body detection method, system, and program
JP2017182139A (en) Determination apparatus, determination method, and determination program
US20230245325A1 (en) Moving object detection device, moving object detection method, system, and storage medium