JP7373972B2 - object identification device - Google Patents

object identification device Download PDF

Info

Publication number
JP7373972B2
JP7373972B2 JP2019206342A JP2019206342A JP7373972B2 JP 7373972 B2 JP7373972 B2 JP 7373972B2 JP 2019206342 A JP2019206342 A JP 2019206342A JP 2019206342 A JP2019206342 A JP 2019206342A JP 7373972 B2 JP7373972 B2 JP 7373972B2
Authority
JP
Japan
Prior art keywords
distance
area
distance information
identification device
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019206342A
Other languages
Japanese (ja)
Other versions
JP2021081789A (en
Inventor
都 堀田
郭介 牛場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Priority to JP2019206342A priority Critical patent/JP7373972B2/en
Priority to PCT/JP2020/039327 priority patent/WO2021095455A1/en
Publication of JP2021081789A publication Critical patent/JP2021081789A/en
Application granted granted Critical
Publication of JP7373972B2 publication Critical patent/JP7373972B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/015Detecting movement of traffic to be counted or controlled with provision for distinguishing between two or more types of vehicles, e.g. between motor-cars and cycles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本発明は、画像から物体の種別を識別する物体識別装置に関する。 The present invention relates to an object identification device that identifies the type of object from an image.

自動車の安全支援や自動運転の実現のため、画像センサにより周囲(例えば前方)の物体を識別する機能が求められている。例えば、衝突回避のため、検知した対象ごとに適切なタイミングでブレーキをかけるためには、歩行者や二輪車など、速度の異なる対象を種別ごとに識別し、それぞれに適したブレーキ制御をおこなう必要がある。 In order to support automobile safety and realize autonomous driving, there is a need for image sensors to have the ability to identify objects in the surroundings (for example, in front). For example, in order to apply the brakes at the appropriate time for each detected object to avoid a collision, it is necessary to identify objects with different speeds, such as pedestrians and motorcycles, and perform brake control appropriate for each type. be.

対象の種別を識別する手法として、大量の特定物体の画像を学習させて作成した識別器を用いる方法が一般に用いられる。しかし、この手法では、画像上の見かけの特徴パターンを学習するため、物体の形状の類似した対象を正確に識別することが困難であった。 A commonly used method for identifying the type of object is to use a classifier created by learning a large number of images of specific objects. However, since this method learns apparent feature patterns on images, it is difficult to accurately identify objects with similar shapes.

このような特性から、従来の画像による認識では、例えば、歩行中の人(以降、歩行者)と、自転車やバイクなど二輪車に乗った人(以降、二輪車)の識別が困難であった。 Due to these characteristics, conventional image recognition has difficulty in distinguishing between, for example, a person walking (hereinafter referred to as a pedestrian) and a person riding a two-wheeled vehicle such as a bicycle or motorcycle (hereinafter referred to as a two-wheeled vehicle).

そのため、オプティカルフロー算出による速度で歩行者と二輪車などの対象物の種別を識別する方式が従来用いられている。 For this reason, conventional methods have been used to identify the types of objects, such as pedestrians and two-wheeled vehicles, based on speeds calculated by optical flow.

例えば、特許文献1に開示されている画像認識装置では、「被写体のテンプレートを格納している辞書を複数備えている辞書群と、画像中のオプティカルフローベクトルを抽出して、同ベクトルが類似する画素点を抽出することにより、移動体領域を抽出し、その移動速度に基づいて、前記辞書群中から被写体認識のために利用する辞書を選択する辞書選択手段と、抽出した前記移動体領域と、前記辞書選択手段で選択した辞書に格納されたテンプレートを比較することで、被写体を認識する認識手段と、を備えている」との記載がある。 For example, in the image recognition device disclosed in Patent Document 1, "a group of dictionaries having a plurality of dictionaries storing templates of subjects and an optical flow vector in an image are extracted, and the optical flow vectors are similar to each other. dictionary selection means for extracting a moving object region by extracting pixel points, and selecting a dictionary to be used for object recognition from the dictionary group based on the moving speed; and recognition means for recognizing the subject by comparing templates stored in the dictionary selected by the dictionary selection means.''

この特許文献1には、前述のように、画像から算出したオプティカルフローに基づき対象物の速度を算出して、対象物を認識する方法が開示されている。 As mentioned above, this patent document 1 discloses a method of recognizing an object by calculating the speed of the object based on the optical flow calculated from the image.

特許第4692344号公報Patent No. 4692344

しかし、特許文献1等に所載の従来手法では、対象物が静止している場合に速度が求まらずに識別ができないという問題や、速度を求めるために複数フレームを必要とするため、識別に時間遅れが発生するという問題があった。 However, with the conventional method described in Patent Document 1, etc., there are problems in that when the object is stationary, the speed cannot be determined and identification cannot be performed, and multiple frames are required to determine the speed. There was a problem that a time delay occurred in identification.

本発明は、上記事情に鑑みてなされたもので、その目的とするところは、静止物体でも対象となる物体の種別を識別することができ、見かけの類似した対象の識別性能を高めることのできる物体識別装置を提供することにある。 The present invention has been made in view of the above-mentioned circumstances, and its purpose is to be able to identify the type of object even when it is a stationary object, and to improve the performance of identifying objects that are similar in appearance. An object of the present invention is to provide an object identification device.

上記課題を解決するための本発明の特徴は、例えば以下の通りである。 The features of the present invention for solving the above problems are as follows, for example.

本発明の物体識別装置は、画像から物体の種別を識別する物体識別装置であって、画像から物体が存在する物体領域を検出する物体検出部と、前記物体領域の距離分布を算出する物体距離情報算出部と、前記距離分布に基づき前記物体の種別を識別する物体識別部とを有することを特徴とする。 The object identification device of the present invention is an object identification device that identifies the type of object from an image, and includes an object detection unit that detects an object region where an object exists from the image, and an object distance that calculates a distance distribution of the object region. The apparatus is characterized by comprising an information calculation section and an object identification section that identifies the type of the object based on the distance distribution.

本発明によれば、物体領域の距離分布を用いることで、静止物体でも対象となる物体の種別を識別することができ、見かけの類似した対象の識別性能を高めることができる。 According to the present invention, by using the distance distribution of the object region, it is possible to identify the type of the target object even if it is a stationary object, and it is possible to improve the performance of identifying similar-looking targets.

上記した以外の課題、構成及び効果は以下の実施形態の説明により明らかにされる。 Problems, configurations, and effects other than those described above will be made clear by the description of the embodiments below.

本発明による物体識別装置の第一の実施例の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of a first embodiment of an object identification device according to the present invention. カメラから取得した画像の例を示す図である。It is a figure showing an example of an image acquired from a camera. 図2の画像から検出した歩行者および二輪車の物体領域を示す図である。3 is a diagram showing object regions of pedestrians and two-wheeled vehicles detected from the image of FIG. 2. FIG. 距離計測部で歩行者の物体領域に対して取得した距離情報の例を説明する図である。It is a figure explaining the example of the distance information acquired with respect to the pedestrian's object area by the distance measurement part. 距離計測部で二輪車の物体領域に対して取得した距離情報の例を説明する図である。FIG. 3 is a diagram illustrating an example of distance information acquired with respect to an object region of a two-wheeled vehicle by a distance measurement unit. 歩行者領域の距離情報が計測されている状況を側面から示す図である。FIG. 3 is a diagram illustrating from the side a situation in which distance information of a pedestrian area is measured. 二輪車領域の距離情報が計測されている状況を側面から示す図である。FIG. 3 is a diagram showing from the side a situation in which distance information in a two-wheeled vehicle area is measured. 歩行者領域の距離情報を、横軸を距離とした頻度分布で表した図である。It is a diagram showing distance information of a pedestrian area as a frequency distribution with the horizontal axis representing distance. 二輪車領域の距離情報を、横軸を距離とした頻度分布で表した図である。FIG. 3 is a diagram showing distance information in a two-wheeled vehicle area as a frequency distribution with distance as the horizontal axis. 歩行者領域の距離情報から物体自体を計測した距離のみを抽出した距離情報を示す図である。FIG. 7 is a diagram showing distance information obtained by extracting only the measured distance of the object itself from the distance information of a pedestrian area. 二輪車領域の距離情報から物体自体を計測した距離のみを抽出した距離情報を示す図である。FIG. 7 is a diagram showing distance information obtained by extracting only the measured distance of the object itself from the distance information of a two-wheeled vehicle area. 距離計測部で歩行者の物体領域に対して取得した距離情報の例(第二の実施例)を示す図である。It is a figure which shows the example (2nd Example) of the distance information acquired with respect to the pedestrian's object area by the distance measurement part. 距離計測部で二輪車の物体領域に対して取得した距離情報の例(第二の実施例)を示す図である。FIG. 7 is a diagram showing an example (second example) of distance information acquired with respect to an object region of a two-wheeled vehicle by a distance measurement unit. 本発明による物体識別装置の第三の実施例の構成を示すブロック図である。FIG. 3 is a block diagram showing the configuration of a third embodiment of an object identification device according to the present invention. 第三の実施例の物体識別装置による処理の流れを示すフローチャート図である。It is a flowchart figure showing the flow of processing by an object identification device of a third example.

以下、図面等を用いて、本発明の実施形態について説明する。以下の説明は本発明の内容の具体例を示すものであり、本発明がこれらの説明に限定されるものではなく、本明細書に開示される技術的思想の範囲内において当業者による様々な変更および修正が可能である。また、本発明を説明するための全図において、同一の機能を有するものは、同一の符号を付け、その繰り返しの説明は省略する場合がある。 Embodiments of the present invention will be described below with reference to the drawings and the like. The following explanations show specific examples of the contents of the present invention, and the present invention is not limited to these explanations. Changes and modifications are possible. Further, in all the figures for explaining the present invention, parts having the same functions are given the same reference numerals, and repeated explanation thereof may be omitted.

[第一の実施例]
図1は、本発明による物体識別装置の第一の実施例の構成を示すブロック図である。
[First example]
FIG. 1 is a block diagram showing the configuration of a first embodiment of an object identification device according to the present invention.

図1に示す物体識別装置10は、例えば図示しない車両に搭載され、画像取得手段としてのカメラ9から取得した画像(車両周囲を撮像した画像)から、物体が存在する領域(以降、物体領域)を検出する物体検出部1と、検出した物体領域から、少なくとも二点以上の距離情報を取得する距離計測部2と、取得された距離情報から、距離分布などの統計情報を算出する物体距離情報算出部3と、算出した距離分布から、検知対象である物体の種別を識別する物体識別部4とを有する。 The object identification device 10 shown in FIG. 1 is mounted on, for example, a vehicle (not shown), and identifies an area where an object exists (hereinafter referred to as an object area) from an image (an image taken around the vehicle) acquired from a camera 9 serving as an image acquisition means. an object detection unit 1 that detects an object, a distance measurement unit 2 that acquires distance information of at least two points from the detected object area, and an object distance information that calculates statistical information such as distance distribution from the acquired distance information. It has a calculation unit 3 and an object identification unit 4 that identifies the type of object to be detected from the calculated distance distribution.

なお、物体識別装置10は、CPU(Central Processing Unit)等のプロセッサ、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等のメモリ等を備えるコンピュータとして構成されている。物体識別装置10の各機能は、ROMに記憶されたプログラムをプロセッサが実行することによって実現される。RAMは、プロセッサが実行するプログラムによる演算の中間データ等を含むデータを格納する。 Note that the object identification device 10 is configured as a computer including a processor such as a CPU (Central Processing Unit), and memory such as a ROM (Read Only Memory), a RAM (Random Access Memory), and an HDD (Hard Disk Drive). . Each function of the object identification device 10 is realized by a processor executing a program stored in a ROM. The RAM stores data including intermediate data of calculations by programs executed by the processor.

第一の実施例の構成要素について順に説明する。 The components of the first embodiment will be explained in order.

物体検出部1は、カメラ9から取得した画像から、物体領域を検出する手段である。この処理は、画像中から一塊の剛体領域を検出する処理であり、様々な手段を用いることができる。例えば画像を取得するカメラとしてステレオカメラを用いる場合、視差により画像上の距離を求めることができる。画像上で隣り合って距離の近い領域をグルーピングすることで物体領域を求めることができる。 The object detection unit 1 is a means for detecting an object area from an image obtained from the camera 9. This process is a process of detecting a rigid body region from an image, and various means can be used. For example, when a stereo camera is used as a camera for acquiring images, the distance on the image can be determined based on parallax. The object area can be determined by grouping adjacent areas on the image that are close to each other.

距離計測部2は、物体検出部1で求めた物体領域の距離を計測する手段である。例えばステレオカメラを用いる場合、視差により物体領域の距離を求めることができる。 The distance measuring section 2 is a means for measuring the distance of the object area determined by the object detecting section 1. For example, when using a stereo camera, the distance of an object area can be determined based on parallax.

物体距離情報算出部3は、距離計測部2で計測した距離に基づき、物体領域の距離情報を算出する手段である。この手段は、物体領域内で取得した、複数点で計測した距離情報から、物体の奥行き方向の形状の判断基準となる距離情報を算出する手段である。 The object distance information calculation unit 3 is a means for calculating distance information of an object area based on the distance measured by the distance measurement unit 2. This means is a means for calculating distance information, which serves as a criterion for determining the shape of the object in the depth direction, from distance information measured at a plurality of points acquired within the object region.

奥行き方向の形状の判断基準となる距離情報には、例として物体領域内の距離分布を示す距離の分散がある。距離の分散が小さいと、物体の奥行き方向の形状の凹凸が小さく、物体領域が平面的であるということができる。これに対して、距離の分散が大きいと、物体の奥行き方向の形状の凹凸が大きく、物体領域が平面的でないということができる。つまり、物体領域の距離の分散の大きさによって、検知対象である物体の奥行方向の形状の違いを検知できる。 The distance information that serves as a criterion for determining the shape in the depth direction includes, for example, distance dispersion that indicates the distance distribution within the object region. When the distance dispersion is small, the unevenness of the shape of the object in the depth direction is small, and it can be said that the object region is planar. On the other hand, when the dispersion of distance is large, the shape of the object in the depth direction has large irregularities, and it can be said that the object region is not planar. In other words, a difference in the shape of the object to be detected in the depth direction can be detected depending on the magnitude of the dispersion of the distance of the object region.

物体識別部4は、物体距離情報算出部3で算出した物体領域の距離情報に基づき、あらかじめ設定したしきい値により、物体の種別を識別する手段である。距離情報として距離の分散を用いる場合、あらかじめ設定したしきい値より分散が大きい場合は奥行き方向の凹凸のある物体、あらかじめ設定したしきい値より分散が小さい場合は奥行き方向の凹凸が少なく平面的な物体とする。 The object identification unit 4 is a means for identifying the type of object based on the distance information of the object area calculated by the object distance information calculation unit 3, using a preset threshold. When distance dispersion is used as distance information, if the dispersion is larger than a preset threshold, the object is uneven in the depth direction, and if the dispersion is smaller than the preset threshold, it is a flat object with less unevenness in the depth direction. Let it be an object.

本実施例による物体識別装置10の実際の処理の流れを具体例を用いて説明する。本実施例では、画像取得手段としてステレオカメラを用い、取得した画像の位置に対応する距離が取得できる例を示す。 The actual processing flow of the object identification device 10 according to this embodiment will be explained using a specific example. In this embodiment, a stereo camera is used as an image acquisition means, and an example is shown in which a distance corresponding to the position of an acquired image can be acquired.

図2は、カメラから取得した画像の例を示す図である。図2の画像21中に、歩行者22と二輪車23が存在する。 FIG. 2 is a diagram showing an example of an image acquired from a camera. In the image 21 of FIG. 2, a pedestrian 22 and a two-wheeled vehicle 23 are present.

物体検出部1では、画像21中から物体領域を検出する。物体検出部1の実現手段には様々な方法があるが、例えば画像取得手段としてステレオカメラを用いている場合、ステレオカメラから取得できる視差を用いて画面中の距離情報を取得し、距離の近い領域をグルーピングすることで物体領域を抽出することができる。図3に、図2の画像21から検出した歩行者22および二輪車23の物体領域31、32を示す。なお、物体領域31、32は、図3に示すように矩形であってもよいし、視差や距離から得られる不定形の領域であってもよい。計算処理を容易にするため、一般には矩形として扱われている。 The object detection unit 1 detects an object area from the image 21. There are various ways to implement the object detection unit 1. For example, when a stereo camera is used as the image acquisition means, distance information on the screen is acquired using the parallax that can be acquired from the stereo camera. Object regions can be extracted by grouping regions. FIG. 3 shows object regions 31 and 32 of a pedestrian 22 and a two-wheeled vehicle 23 detected from the image 21 in FIG. 2. Note that the object regions 31 and 32 may be rectangular as shown in FIG. 3, or may be irregular regions obtained from parallax or distance. To facilitate calculation processing, it is generally treated as a rectangle.

距離計測部2は、物体検出部1で検出した物体領域内の距離情報を取得する手段である。図4に、距離計測部2で歩行者22の物体領域31(以降、歩行者領域31という場合がある)に対して取得した距離情報の例を、図5に、距離計測部2で二輪車23の物体領域32(以降、二輪車領域32という場合がある)に対して取得した距離情報の例を示す。図4の41に示すのは、図3の歩行者領域31に対する距離情報であり、図5の51に示すのは、図3の二輪車領域32に対する距離情報である。41や51中に示すセルは、画像中の画素や複数画素群であり、セル中の数値がその位置の対象のカメラからの距離を示している。ここでは、例としてメートル単位の距離の値を示す。歩行者領域31に対応する距離情報41、二輪車領域32に対応する距離情報51それぞれで、縦17セル、横8セルの136セルの位置で距離が計測されている。距離情報41中の43や44の領域は、歩行者領域31において、歩行者が存在する領域に相当し、28.9m等の距離が計測されている。これに対し、距離情報41中の47に示す領域は、背景の領域であるため、43で計測された距離より遠い70.0m等の距離が計測されている。同様に、距離情報51中の52や53に示す領域は、二輪車領域32において、二輪車が存在する領域に相当し、二輪車に乗っている人の上半身部分の52の領域では28.9m程度の距離、下部の二輪車の前部分の53の領域では28.0m程度の距離が計測されている。また、距離情報51中の54に示す領域は、背景領域であり、70.0m等の距離が計測されている。 The distance measuring section 2 is a means for acquiring distance information within the object area detected by the object detecting section 1. FIG. 4 shows an example of the distance information acquired by the distance measuring unit 2 with respect to the object area 31 (hereinafter sometimes referred to as pedestrian area 31) of the pedestrian 22, and FIG. An example of distance information acquired for the object region 32 (hereinafter sometimes referred to as the two-wheeled vehicle region 32) is shown below. 41 in FIG. 4 is distance information for the pedestrian area 31 in FIG. 3, and 51 in FIG. 5 is distance information for the two-wheeled vehicle area 32 in FIG. The cells shown in 41 and 51 are pixels or groups of pixels in the image, and the numerical value in the cell indicates the distance of that position from the target camera. Here, distance values in meters are shown as an example. Distance information 41 corresponding to the pedestrian area 31 and distance information 51 corresponding to the two-wheeled vehicle area 32 each measure distances at 136 cell positions (17 cells vertically and 8 cells horizontally). Areas 43 and 44 in the distance information 41 correspond to areas where pedestrians exist in the pedestrian area 31, and distances such as 28.9 m are measured. On the other hand, since the area indicated by 47 in the distance information 41 is a background area, a distance such as 70.0 m, which is farther than the distance measured in 43, is measured. Similarly, the areas indicated by 52 and 53 in the distance information 51 correspond to the area where the two-wheeled vehicle exists in the two-wheeled vehicle area 32, and the distance in the area 52 of the upper body of a person riding the two-wheeled vehicle is approximately 28.9 m. A distance of approximately 28.0m was measured in 53 areas at the front of the lower two-wheeled vehicle. Further, the area indicated by 54 in the distance information 51 is a background area, and a distance such as 70.0 m is measured.

歩行者領域31の距離情報41、二輪車領域32の距離情報51が計測されている状況を側面から示したのが、図6Aおよび図6Bである。図6A中、61が歩行者であり、図4の31や41を撮影したカメラを67とする。ここで、62と63がそれぞれ図4における領域43と領域44の計測距離を示す。歩行者61の場合、顔付近の距離62と、歩行中で後ろに引いている足の距離63では、距離に差は発生するが、後方に引いている足の領域69は図4の破線で示す領域49に示すセル6個分の範囲であり、歩行者領域全体から見て、6÷136≒4.4%であり、相対的に狭い範囲である。 FIGS. 6A and 6B show a side view of a situation in which distance information 41 for the pedestrian area 31 and distance information 51 for the two-wheeled vehicle area 32 are measured. In FIG. 6A, 61 is a pedestrian, and 67 is the camera that photographed 31 and 41 in FIG. Here, 62 and 63 indicate the measured distances of the region 43 and the region 44 in FIG. 4, respectively. In the case of a pedestrian 61, there is a difference in the distance between the distance 62 near the face and the distance 63 of the feet pulled back while walking, but the area 69 of the feet pulled back is shown by the broken line in Figure 4. This is the range of six cells shown in area 49, and is 6÷136≈4.4% when viewed from the entire pedestrian area, which is a relatively narrow range.

これに対し、図6B中、64が二輪車であり、図5の32や51を撮影したカメラを67とする。ここで、65と66がそれぞれ図5における52と53の領域の計測距離を示す。二輪車64の場合、二輪車に乗っている人の顔付近の領域52を計測している距離65と、二輪車の前輪部である領域53を計測している距離66では距離に差があり、また、二輪車の車輪や籠の部分など、カメラ67からの距離が近い領域68は図5の破線で示す領域58に示すセル28個分の範囲であり、二輪車領域全体から見て、28÷136=20.6%であり、相対的に広い範囲で、距離の異なる領域が計測される。 On the other hand, in FIG. 6B, 64 is a two-wheeled vehicle, and 67 is the camera that photographed 32 and 51 in FIG. Here, 65 and 66 indicate the measured distances of areas 52 and 53 in FIG. 5, respectively. In the case of a two-wheeled vehicle 64, there is a difference in distance between the distance 65 that measures the area 52 near the face of the person riding the two-wheeled vehicle and the distance 66 that measures the area 53 that is the front wheel of the two-wheeled vehicle. The area 68 that is close to the camera 67, such as the wheel or cage of a motorcycle, is the area 58 indicated by the broken line in FIG. %, and areas with different distances are measured over a relatively wide range.

物体距離情報算出部3では、距離計測部2で取得した距離情報に基づき、物体領域の奥行きの特徴を示す距離情報を算出する手段である。奥行きの特徴を示す距離情報の例として、物体領域の距離の分散を求める例で説明する。 The object distance information calculation unit 3 is a means for calculating distance information indicating depth characteristics of the object region based on the distance information acquired by the distance measurement unit 2. As an example of distance information indicating depth characteristics, an example will be explained in which the distance variance of an object area is calculated.

図7は、図4の41に示す歩行者領域の距離情報を、横軸を距離とした頻度分布で表したものである。縦軸は画素数である。歩行者領域31の距離情報41全体の距離分布は、広い範囲で分布している。これは、図4の41の歩行者領域の距離情報中には、47に示すように背景の領域や、48に示すように視差が取得できず値が0となる領域も混在することによる。図7の例では、距離は0mから70mに分布している。 FIG. 7 shows the distance information of the pedestrian area shown at 41 in FIG. 4 as a frequency distribution with the horizontal axis representing the distance. The vertical axis is the number of pixels. The distance distribution of the entire distance information 41 of the pedestrian area 31 is distributed over a wide range. This is because the distance information for the pedestrian area 41 in FIG. 4 includes a background area as shown in 47 and an area where the parallax cannot be obtained and the value is 0 as shown in 48. In the example of FIG. 7, the distances are distributed from 0 m to 70 m.

分散を算出する際には、41に示す歩行者領域の距離情報すべてで分散を求めても良いが、41の距離情報には、物体領域以外の背景の距離や、距離が正確に求まらなかった無効な距離が含まれるため、物体領域中で対象物体(41の場合は歩行者)の距離として確からしい計測距離のみを対象に分散を求めることで、より正確に対象物体の奥行き距離情報を算出できると考えられる。物体領域から物体自体を計測した距離を抽出するため、例えば下記のような方法を採る。 When calculating the variance, it is possible to calculate the variance using all the distance information for the pedestrian area shown in 41, but the distance information in 41 includes the background distance other than the object area, and the distance cannot be calculated accurately. Since invalid distances that were not found are included, by calculating the variance only for measured distances that are likely to be the distance of the target object (pedestrian in the case of 41) in the object area, more accurate depth distance information of the target object can be obtained. It is thought that it is possible to calculate In order to extract the measured distance of the object itself from the object region, for example, the following method is adopted.

まず、識別対象の物体の奥行きの大きさにより、物体の距離範囲のしきい値を設定する。本実施例で対象とする歩行者と二輪車の奥行きは、最大2m程度で、誤差を考慮しても3m程度と設定できる。物体領域の物体の距離分布のピーク位置の前後1.5mの範囲が物体の距離範囲とすると、その範囲を超えて計測された距離は、背景の距離もしくは計測に失敗した無効な距離等として扱うことができる。物体自体の距離で分散を算出する方法を、図7の歩行者領域の距離分布を例に採り説明する。図7に示す距離分布で、頻度最大の距離の位置を71に示す。図4の41の歩行者領域の距離情報でピークとなる距離を歩行者領域の代表距離と考え、71のピーク距離(代表距離)を基準とし、前後の一定の範囲に含まれる距離のみを対象として分散を算出するものとする。代表距離は28.9mであるので、その前後1.5mの範囲である27.3m~30.4mの範囲の計測値のみを採用して分散を算出する。図7中、74に示す距離範囲が、ピーク距離71を中心とした前後1.5mの、歩行者領域を計測したと考えられる距離範囲である。これに対して、74以下の距離範囲72と、74以上の距離範囲73は、背景の距離、もしくは計測できない無効な距離と考えられる距離範囲である。すなわち、物体距離情報算出部3は、物体領域のピーク距離(代表距離)71から距離差の大きい距離範囲72、73の距離情報は除外して、距離分布を示す距離の分散を算出する。 First, a threshold value for the distance range of the object is set based on the depth of the object to be identified. The depth of pedestrians and two-wheeled vehicles targeted in this embodiment is approximately 2 m at maximum, and can be set to approximately 3 m even taking into account errors. Assuming that the range of 1.5m before and after the peak position of the distance distribution of objects in the object area is the distance range of the object, distances measured beyond that range should be treated as background distances or invalid distances due to failed measurements. I can do it. A method of calculating the variance based on the distance of the object itself will be explained using the distance distribution in the pedestrian area in FIG. 7 as an example. In the distance distribution shown in FIG. 7, the position of the distance with the maximum frequency is shown at 71. The peak distance in the distance information of pedestrian area 41 in Figure 4 is considered the representative distance of the pedestrian area, and the peak distance (representative distance) of 71 is used as the reference, and only distances included in a certain range before and after are considered. The variance shall be calculated as follows. Since the representative distance is 28.9m, only the measured values in the range of 27.3m to 30.4m, which is a range of 1.5m before and after it, are used to calculate the variance. In FIG. 7, the distance range shown at 74 is a distance range of 1.5 m in front and behind the peak distance 71, which is considered to be a pedestrian area measured. On the other hand, a distance range 72 of 74 or less and a distance range 73 of 74 or more are distance ranges that are considered to be background distances or invalid distances that cannot be measured. That is, the object distance information calculation unit 3 excludes distance information in distance ranges 72 and 73 with a large distance difference from the peak distance (representative distance) 71 of the object region, and calculates the variance of distances indicating the distance distribution.

同様に、図8は、図5の51に示す二輪車領域の距離情報を、横軸を距離とした頻度分布で表したものである。図8に示す距離分布で、頻度最大の距離の位置を81に示す。図5の51の二輪車領域の距離情報でピークとなる距離を二輪車領域の代表距離と考え、81のピーク距離(代表距離)を基準とし、前後の一定の範囲に含まれる距離のみを対象として分散を算出するものとする。代表距離は28.9mであるので、その前後1.5mの範囲である27.3m~30.4mの範囲の計測値のみを採用して分散を算出する。図8中、85に示す距離範囲が、ピーク距離81を中心とした前後1.5mの、二輪車領域を計測したと考えられる距離範囲である。これに対して、85以下の距離範囲83と、85以上の距離範囲84は、背景の距離もしくは計測できない無効な距離と考えられる距離範囲である。すなわち、物体距離情報算出部3は、物体領域のピーク距離(代表距離)81から距離差の大きい距離範囲83、84の距離情報は除外して、距離分布を示す距離の分散を算出する。 Similarly, FIG. 8 shows the distance information of the two-wheeled vehicle area shown at 51 in FIG. 5 as a frequency distribution with the horizontal axis representing the distance. In the distance distribution shown in FIG. 8, the position of the distance with the maximum frequency is shown at 81. The peak distance in the distance information of the motorcycle area 51 in Figure 5 is considered the representative distance of the motorcycle area, and the peak distance (representative distance) of 81 is used as the reference, and the distribution is performed only on distances that are included in a certain range before and after. shall be calculated. Since the representative distance is 28.9m, only the measured values in the range of 27.3m to 30.4m, which is a range of 1.5m before and after it, are used to calculate the variance. In FIG. 8, the distance range shown at 85 is a distance range of 1.5 m in front and behind the peak distance 81, which is considered to be a two-wheeled vehicle area measured. On the other hand, a distance range 83 of 85 or less and a distance range 84 of 85 or more are distance ranges that are considered to be background distances or invalid distances that cannot be measured. That is, the object distance information calculation unit 3 excludes the distance information of the distance ranges 83 and 84 having a large distance difference from the peak distance (representative distance) 81 of the object region, and calculates the variance of the distances indicating the distance distribution.

図9Aおよび図9Bは、上記の方法に基づき、歩行者領域および二輪車領域の距離情報から物体自体を計測した距離のみを抽出した距離情報を示す図である。 9A and 9B are diagrams showing distance information obtained by extracting only the distance measured to the object itself from the distance information of the pedestrian area and the two-wheeled vehicle area based on the above method.

図7の74の範囲に含まれる距離のみを抽出した距離情報を、図9Aの91に、図8の85の範囲に含まれる距離のみを抽出した距離情報を図9Bの92に示す。このように背景情報や無効な距離情報を除外した距離情報のみでそれぞれ分散を算出すると、図9Aの91の分散は0.0008、図9Bの92の分散は0.19となる。歩行者領域の分散が二輪車領域の分散よりも小さい理由は、91の歩行者領域の距離分布は、図7の71に示すように距離分布に高いピークがあり、歩行者領域は奥行き方向に凹凸(形状変化)が小さいことに起因する。これに対し、二輪車領域の分散が歩行者領域の分散に比べて大きいのは、92の二輪車領域の距離分布は、図8の81に示すピークが歩行者領域に比べて低く、82に示すピークから近い距離でも距離計測がされていることに起因する。これは、図5の58に示す二輪車の前輪やカゴ部分が、二輪車に乗っている人の体領域よりもカメラ側から見て近くに計測されていることに起因する。 Distance information obtained by extracting only the distances included in the range 74 in FIG. 7 is shown at 91 in FIG. 9A, and distance information obtained by extracting only the distances included in the range 85 in FIG. 8 is shown in 92 in FIG. 9B. When the variances are calculated using only distance information excluding background information and invalid distance information, the variance of 91 in FIG. 9A is 0.0008, and the variance of 92 in FIG. 9B is 0.19. The reason why the variance of the pedestrian area is smaller than the variance of the motorcycle area is that the distance distribution of the 91 pedestrian area has a high peak as shown in 71 in Figure 7, and the pedestrian area has unevenness in the depth direction. (shape change) is small. On the other hand, the variance in the motorcycle area is larger than the variance in the pedestrian area.The reason for the distance distribution of the 92 motorcycle areas is that the peak shown at 81 in Figure 8 is lower than that for the pedestrian area, and the peak shown at 82 is lower than that for the pedestrian area. This is due to the fact that distances are measured even at close distances. This is because the front wheel and basket portion of the two-wheeled vehicle shown at 58 in FIG. 5 are measured closer to each other when viewed from the camera side than the body area of the person riding the two-wheeled vehicle.

物体識別部4は、物体距離情報算出部3で算出した距離情報から、物体の種別を識別する手段である。具体的には、物体距離情報算出部3で算出した分散の値を、物体領域の奥行きの凹凸の大きさを示す指標とし、あらかじめ設定したしきい値に基づき、分散がしきい値よりも大きい場合には奥行き方向の形状の凹凸が大きい二輪車、分散がしきい値よりも小さい場合には奥行き方向の形状の凹凸が小さい歩行者として判定をする処理を行う。しきい値は、評価実験等により適切に定めた値とする。 The object identification unit 4 is a means for identifying the type of object from the distance information calculated by the object distance information calculation unit 3. Specifically, the value of the variance calculated by the object distance information calculation unit 3 is used as an index indicating the size of unevenness in the depth of the object area, and based on a preset threshold, the variance is larger than the threshold. If the variance is smaller than a threshold value, the vehicle is determined to be a two-wheeled vehicle with large irregularities in the depth direction, and if the variance is smaller than a threshold value, the vehicle is determined to be a pedestrian with small irregularities in the depth direction. The threshold value shall be a value appropriately determined through evaluation experiments, etc.

例として、分散のしきい値を0.01とし、これを超えるものを二輪車、超えないものを歩行者とすると、図9Aの91の歩行者の分散は0.0008でしきい値を超えないため、歩行者、図9Bの92の二輪車の分散は0.19でしきい値を超えるため、二輪車と判定する。 As an example, if we assume that the variance threshold is 0.01, those that exceed this are considered motorcycles, and those that do not exceed this are pedestrians, the variance of 91 pedestrians in Figure 9A is 0.0008, which does not exceed the threshold, so pedestrians , the variance of motorcycle 92 in FIG. 9B is 0.19, which exceeds the threshold, so it is determined that it is a motorcycle.

以上が、本発明による物体識別装置10の第一の実施例である。以上で説明したように、本実施例の物体識別装置10は、カメラ9から取得した画像から物体が存在する物体領域を検出する物体検出部1と、前記物体領域の距離分布を示す距離の分散を算出する物体距離情報算出部3と、前記距離分布を示す距離の分散に基づき前記物体の種別を識別する物体識別部4とを有する。また、前記物体識別部4は、前記物体領域の距離の分散の大きさにより、検知対象である前記物体の奥行方向の形状の違いを検知して、前記物体の種別を識別する。 The above is the first embodiment of the object identification device 10 according to the present invention. As explained above, the object identification device 10 of the present embodiment includes an object detection unit 1 that detects an object region in which an object exists from an image acquired from a camera 9, and a distance dispersion indicating a distance distribution of the object region. and an object identification section 4 that identifies the type of the object based on the variance of distances indicating the distance distribution. Further, the object identification unit 4 detects a difference in the shape of the object, which is a detection target, in the depth direction based on the magnitude of the dispersion of the distance of the object area, and identifies the type of the object.

これにより、輪郭のみで対象となる物体の種別を識別できない場合に、物体の奥行き方向の凹凸情報を距離情報を使って判定することで、物体の種別を精度よく識別可能である。 As a result, when the type of the target object cannot be identified from the outline alone, the type of the object can be identified with high accuracy by determining unevenness information in the depth direction of the object using distance information.

このように、本実施例によれば、物体領域の距離分布を用いることで、静止物体でも対象となる物体の種別を識別することができ、見かけの類似した対象の識別性能を高めることができる。 In this way, according to this embodiment, by using the distance distribution of the object region, the type of the target object can be identified even if it is a stationary object, and the performance of identifying similar-looking targets can be improved. .

[第二の実施例]
第二の実施例では、図1の物体識別装置10において、物体距離情報算出部3で算出する距離情報として、物体の複数の部分、具体的には物体の上部と下部の距離差を求める例を説明する。
[Second example]
In the second embodiment, in the object identification device 10 of FIG. 1, the distance information calculated by the object distance information calculation unit 3 is an example in which distance differences between a plurality of parts of the object, specifically, the upper and lower parts of the object are calculated. Explain.

第二の実施例では、前方、後方から見た場合の歩行者と二輪車の奥行き方向の凹凸特徴が、図6Aおよび図6Bに示すように、歩行者の場合は上部(距離62)も下部(距離63)も大きな差がないのに対し、二輪車の場合は上部(距離65)に比べて下部の二輪車の前輪やカゴの部分(距離66)がカメラから見て近い距離になる特徴を利用し、前述した距離分布を基に、物体領域の上部と下部の距離の差を距離情報として算出し、識別に用いる。 In the second example, as shown in FIGS. 6A and 6B, the unevenness characteristics in the depth direction of pedestrians and motorcycles when viewed from the front and rear are as follows: in the case of a pedestrian, both the upper part (distance 62) and the lower part ( While there is no big difference in the distance 63), in the case of a motorcycle, the front wheel and basket part of the lower motorcycle (distance 66) is closer to the camera than the upper part (distance 65). Based on the distance distribution described above, the difference in distance between the top and bottom of the object area is calculated as distance information and used for identification.

前述した第一の実施例と同様にして、物体検出部1では、カメラ9から取得した画像から、物体領域を検出し、距離計測部2では、物体検出部1で求めた物体領域の距離を計測する。 Similarly to the first embodiment described above, the object detection section 1 detects an object area from the image acquired from the camera 9, and the distance measurement section 2 calculates the distance of the object area determined by the object detection section 1. measure.

図10Aおよび図10Bは、図3の31の歩行者領域と、図3の32の二輪車領域について、距離計測部2で計測した距離情報を示したものである。図10Aの101に示すのが歩行者領域31に対して取得した距離情報の例で、図10Bの102に示すのが二輪車領域32に対して取得した距離情報の例である。 10A and 10B show distance information measured by the distance measurement unit 2 for the pedestrian area 31 in FIG. 3 and the two-wheeled vehicle area 32 in FIG. 3. 101 in FIG. 10A is an example of distance information acquired for the pedestrian area 31, and 102 in FIG. 10B is an example of distance information acquired for the two-wheeled vehicle area 32.

物体距離情報算出部3は、距離計測部2で取得した距離情報(図10Aの101および図10Bの102)に基づき、物体領域の奥行きの特徴を示す距離情報(換言すれば、物体の奥行き方向の形状の判断基準となる距離情報)を算出するが、本実施例の物体距離情報算出部3では、奥行きの特徴を示す距離情報として、図10Aの101に示す歩行者の物体領域31の距離情報(距離分布)に対し、上半分の領域103と下半分の領域104に分けて、それぞれで距離の平均値を算出する。図10Aに示す例では、縦17セルのうち、下端のセルから8セル分の領域を下半分の領域104とし、その上側の8セル分の領域(換言すれば、上端から2~9番目までの8セル分の領域)を上半分の領域103としている。 The object distance information calculation section 3 calculates distance information indicating the depth characteristics of the object region (in other words, the depth direction of the object) based on the distance information (101 in FIG. 10A and 102 in FIG. 10B) acquired by the distance measurement section 2. However, in the object distance information calculation unit 3 of this embodiment, the distance of the object area 31 of the pedestrian shown at 101 in FIG. 10A is calculated as the distance information indicating the depth feature. The information (distance distribution) is divided into an upper half region 103 and a lower half region 104, and the average distance value is calculated for each region. In the example shown in FIG. 10A, of the 17 vertical cells, the area corresponding to 8 cells from the bottom cell is defined as the lower half area 104, and the area corresponding to the 8 cells above it (in other words, from 2nd to 9th cell from the top) (area for 8 cells) is the upper half area 103.

物体識別部4は、物体距離情報算出部3で算出した距離情報から、物体の種別を識別するが、本実施例の物体識別部4では、物体距離情報算出部3で算出した距離(平均値)を、物体領域の奥行きの凹凸の大きさを示す指標とし、あらかじめ設定したしきい値に基づき、上半分の領域103と下半分の領域104との差分(距離の差)があらかじめ設定したしきい値を超えた場合には、下部に二輪車領域がある(奥行き方向の形状の凹凸が大きい)二輪車と判定し、差分(距離の差)があらかじめ設定したしきい値を超えない場合は、上部と下部の距離に差がない(奥行き方向の形状の凹凸が小さい)歩行者として判定する。 The object identification unit 4 identifies the type of object from the distance information calculated by the object distance information calculation unit 3. However, the object identification unit 4 of this embodiment uses the distance (average value) calculated by the object distance information calculation unit 3. ) is used as an index indicating the size of unevenness in the depth of the object region, and the difference (distance difference) between the upper half region 103 and the lower half region 104 is set in advance based on a preset threshold. If the threshold is exceeded, it is determined that the motorcycle has a motorcycle area at the bottom (large irregularities in the shape in the depth direction), and if the difference (difference in distance) does not exceed the preset threshold, the It is determined that there is no difference in the distance between and the lower part (the unevenness of the shape in the depth direction is small).

図10Bの102の二輪車の物体領域32の距離情報(距離分布)についても同様に、物体距離情報算出部3にて、上半分の領域105と下半分の領域106に分けて、それぞれで距離の平均値を算出し、物体識別部4にて、上半分の領域105の距離平均値と下半分の領域106の距離平均値の差により、二輪車と歩行者を判定する。 Similarly, the object distance information calculation unit 3 divides the distance information (distance distribution) of the object region 32 of the two-wheeled vehicle 102 in FIG. The average value is calculated, and the object identification unit 4 determines whether it is a two-wheeled vehicle or a pedestrian based on the difference between the distance average value in the upper half region 105 and the distance average value in the lower half region 106.

歩行者領域31の距離情報101の上半分領域103と下半分領域104の平均値を算出すると、それぞれ28.9m、28.9mとなり、上半分領域103と下半分領域104の距離平均値の差は0mとなる。二輪車領域32の距離情報102の上半分領域105と下半分領域106の平均値を算出すると、それぞれ28.8mと28.5mとなり、上半分領域105と下半分領域106の距離平均値の差は0.3mである。物体識別部4にて、二輪車と歩行者を識別するしきい値を0.2mとすると、図10Aの歩行者領域31の距離情報101の上下の距離差はしきい値を超えないので歩行者、図10Bの二輪車領域32の距離情報102の上下の距離差はしきい値を超えるので二輪車と、それぞれ判定することができる。 When the average values of the upper half area 103 and lower half area 104 of the distance information 101 of the pedestrian area 31 are calculated, they are 28.9 m and 28.9 m, respectively, and the difference in the average distance values of the upper half area 103 and the lower half area 104 is 0 m. becomes. Calculating the average values of the upper half area 105 and lower half area 106 of the distance information 102 of the motorcycle area 32 is 28.8 m and 28.5 m, respectively, and the difference between the average distance values of the upper half area 105 and the lower half area 106 is 0.3 m. It is. If the threshold for identifying two-wheeled vehicles and pedestrians in the object identification unit 4 is 0.2 m, the distance difference between the top and bottom of the distance information 101 of the pedestrian area 31 in FIG. 10A does not exceed the threshold, so pedestrians, pedestrians, Since the distance difference between the top and bottom of the distance information 102 of the two-wheeled vehicle area 32 in FIG. 10B exceeds the threshold value, it can be determined that the vehicle is a two-wheeled vehicle.

以上の例では、ステレオカメラの視差を用い、図10Aおよび図10Bのように物体領域全面で距離情報が得られる例で説明した。また、上半分と下半分の距離の平均値の差分を取る例で説明したが、必ずしもこれに限るものでなく、例えば、距離差が出やすい上半分の中央部の一部の領域と、下半分の中央部の一部の領域との平均値の差を取る方法でも同様の効果が得られる。また、必ずしも全面で距離情報が得られる前提でなく、例えばレーザセンサなどにより物体領域上の限られた点のみでしか距離が計測できない場合でも、本実施例を適用することができる。例えば、図10Aに示す距離情報101の上部の領域103のうち一か所以上の距離と、下部の領域104のうち一か所以上の距離とを計測することができれば、一か所しか得られない場合は上部と下部の代表距離として上下の差分を取ることで、歩行者か二輪車かの判定をすることができる。つまり、物体領域の一部を構成する所定の大きさの複数の部分領域(一つまたは複数の画素を含む領域)の距離(平均値もしくは代表距離)の差を取ることで、歩行者か二輪車かといった物体の種別を識別することができる。 In the above example, distance information is obtained over the entire object area as shown in FIGS. 10A and 10B using the parallax of a stereo camera. In addition, although we have explained the example of calculating the difference in the average value of the distance between the upper half and the lower half, the invention is not limited to this. A similar effect can be obtained by calculating the difference in the average value from a part of the central area of the half. Further, it is not necessarily assumed that distance information can be obtained over the entire surface, and the present embodiment can be applied even when distance can be measured only at limited points on the object region using, for example, a laser sensor. For example, if it is possible to measure the distance of one or more places in the upper area 103 of the distance information 101 shown in FIG. 10A and the distance of one or more places in the lower area 104, only one place can be obtained. If not, by taking the difference between the top and bottom as a representative distance between the top and bottom, it is possible to determine whether it is a pedestrian or a two-wheeled vehicle. In other words, by taking the difference in distance (average value or representative distance) of multiple partial areas (areas containing one or more pixels) of a predetermined size that make up part of the object area, it is possible to determine whether a pedestrian or two-wheeled vehicle is It is possible to identify the type of object.

以上で説明したように、本第二の実施例の物体識別装置10では、前記物体識別部4は、前記物体領域の一部を構成する複数の部分領域の距離の差、具体的には前記物体領域の上半分領域と下半分領域の距離の差により、前記物体の種別を識別する。 As explained above, in the object identification device 10 of the second embodiment, the object identification unit 4 detects the difference in distance between a plurality of partial regions forming a part of the object region, specifically, The type of the object is identified based on the difference in distance between the upper half region and the lower half region of the object region.

これにより、本実施例においても、上述した第一の実施例と同様に、物体領域の距離分布を用いることで、静止物体でも対象となる物体の種別を識別することができ、見かけの類似した対象の識別性能を高めることができる。 As a result, in this embodiment as well, similar to the first embodiment described above, by using the distance distribution of the object area, it is possible to identify the type of target object even if it is a stationary object, and Target identification performance can be improved.

[第三の実施例]
図11は、本発明による物体識別装置の第三の実施例の構成を示すブロック図である。第三の実施例は、図1のブロック図に物体認識部5を追加した構成である。
[Third example]
FIG. 11 is a block diagram showing the configuration of a third embodiment of the object identification device according to the present invention. The third embodiment has a configuration in which an object recognition section 5 is added to the block diagram of FIG.

物体認識部5は、機械学習などであらかじめ複数の種別の物体の特徴を学習しておき、認識処理により対象の物体の種別を判定する処理である。機械学習で学習するのは、物体の輪郭やテクスチャなどの見かけの特徴(二次元的な画像上の特徴)であるため、形状の類似した物体の認識・識別が困難な場合が発生する。 The object recognition unit 5 is a process that learns the characteristics of a plurality of types of objects in advance using machine learning or the like, and determines the type of the target object through recognition processing. Since machine learning learns apparent features such as the outline and texture of objects (features on two-dimensional images), it may be difficult to recognize and identify objects with similar shapes.

本第三の実施例では、物体認識部5で、対象の物体の形状のみでは識別が困難な種別に識別した場合に、本実施例による物体識別装置10を用いて対象の種別を絞り込む例について説明する。例として、物体認識部5では、物体を車両、歩行者、二輪車、その他(背景)の4種別に識別する例を説明する。これら4種別の物体のうち、歩行者と二輪車は見かけの特徴が似ており、物体認識部5では識別が困難とする。本第三の実施例では、物体認識部5で車両、歩行者もしくは二輪車、背景の3種別に対象を絞り込み、歩行者もしくは二輪車と識別された場合に、本実施例による物体識別装置10を用いて歩行者と二輪車を識別する。また、この実施例では、距離情報として物体領域の距離の分散を算出する例(第一の実施例を併せて参照)で説明する。 In the third embodiment, when the object recognition unit 5 identifies a type that is difficult to identify based only on the shape of the target object, an example will be described in which the object type is narrowed down using the object identification device 10 according to this embodiment. explain. As an example, an example will be described in which the object recognition unit 5 identifies four types of objects: vehicle, pedestrian, two-wheeled vehicle, and others (background). Among these four types of objects, pedestrians and motorcycles have similar appearance characteristics, making it difficult for the object recognition unit 5 to identify them. In the third embodiment, the object recognition unit 5 narrows down the object to three types: vehicle, pedestrian or two-wheeled vehicle, and background, and when the object is identified as a pedestrian or two-wheeled vehicle, the object identification device 10 according to this embodiment is used. to identify pedestrians and motorcycles. Further, this embodiment will be described using an example (see also the first embodiment) in which the distance variance of an object region is calculated as distance information.

図12は、第三の実施例の物体識別装置10による処理の流れを示すフローチャート図である。 FIG. 12 is a flowchart showing the flow of processing by the object identification device 10 of the third embodiment.

S121では、図2に示すようにカメラ9から画像を取得する。 In S121, an image is acquired from the camera 9 as shown in FIG.

S122では、図3に示すように物体検出部1により画像から物体領域を検出する。 In S122, as shown in FIG. 3, the object detection unit 1 detects an object area from the image.

S123では、検出した物体(物体領域)の参照カウンタiを初期値の0とする。 In S123, the reference counter i of the detected object (object region) is set to an initial value of 0.

S124では、物体認識部5でi番目の物体(以降、物体i)の認識処理を行う。このS124では、前述のように、画像上の見かけの特徴から、物体iがあらかじめ作成した車両/歩行者/二輪車/その他(背景)の4種別のうちどの種別の物体であるかを認識する。 In S124, the object recognition unit 5 performs recognition processing for the i-th object (hereinafter referred to as object i). In this S124, as described above, it is recognized from the apparent characteristics on the image which type of object i is among the four types created in advance: vehicle/pedestrian/two-wheeled vehicle/other (background).

S125では、S124の認識処理で物体iの種別が歩行者もしくは二輪車に認識されたか否かを判定する。物体iの種別が歩行者もしくは二輪車と認識された場合にはS127に進み、本実施例による物体識別装置10による識別処理を実施する。物体iの種別が歩行者・二輪車以外の種別と認識された場合は、S126の処理に進む。 In S125, it is determined whether the type of object i was recognized as a pedestrian or a two-wheeled vehicle in the recognition process of S124. If the type of object i is recognized as a pedestrian or a two-wheeled vehicle, the process proceeds to S127, where the object identification device 10 according to this embodiment performs identification processing. If the type of object i is recognized as a type other than a pedestrian or a two-wheeled vehicle, the process proceeds to S126.

なお、本実施例では、物体iの種別が歩行者もしくは二輪車に認識されたか否かを判定しているが、例えば、物体iの種別が(歩行者や二輪車以外の)車両もしくはその他(背景)に認識されたか否かを判定し、物体iの種別が車両もしくはその他(背景)と認識された場合は、S126の処理に進み、物体iの種別が車両・その他(背景)以外の種別と認識された場合はS127に進み、本実施例による物体識別装置10による識別処理を実施してもよい。 In this embodiment, it is determined whether the type of object i is recognized as a pedestrian or a two-wheeled vehicle, but for example, if the type of object i is a vehicle (other than a pedestrian or a two-wheeled vehicle) or other (background). If the type of object i is recognized as a vehicle or other (background), the process proceeds to S126, and the type of object i is recognized as a type other than vehicle or other (background). If so, the process may proceed to S127, and the object identification device 10 according to this embodiment may perform identification processing.

S126では、S124の認識処理で物体iの種別が車両、その他(背景)と認識された場合は、認識された種別(物体i認識結果)をそのまま物体iの種別として採用し、S12bの処理に進む。 In S126, if the type of object i is recognized as a vehicle or other (background) in the recognition process of S124, the recognized type (object i recognition result) is directly adopted as the type of object i and used in the process of S12b. move on.

S127では、物体距離情報算出部3で、距離計測部2で取得した距離情報に基づき、物体の距離情報として物体i(歩行者もしくは二輪車)の物体領域の距離の分散を算出する。 In S127, the object distance information calculation unit 3 calculates the variance of the distance of the object area of the object i (pedestrian or two-wheeled vehicle) as object distance information based on the distance information acquired by the distance measurement unit 2.

S128では、物体識別部4で、S127で算出した物体iの物体領域の距離の分散の値があらかじめ設定したしきい値以上か否かを判定する。分散がしきい値以上の場合はS129に進み、分散がしきい値未満の場合はS12aに進む。 In S128, the object identification unit 4 determines whether the value of the variance of the distance of the object area of the object i calculated in S127 is greater than or equal to a preset threshold. If the variance is greater than or equal to the threshold, proceed to S129; if the variance is less than the threshold, proceed to S12a.

S129では、物体iの距離の分散の値がしきい値以上の場合には、第一の実施例で述べたように物体の奥行き方向の形状の凹凸が大きいことから、物体iを二輪車と判定する。 In S129, if the value of the distance variance of object i is equal to or greater than the threshold value, object i is determined to be a two-wheeled vehicle because the shape of the object in the depth direction has large irregularities as described in the first embodiment. do.

S12aでは、物体iの距離の分散の値がしきい値を超えない場合には、第一の実施例で述べたように物体の奥行き方向の形状の凹凸が小さいことから、物体iを歩行者と判定する。 In S12a, if the value of the distance variance of object i does not exceed the threshold value, as described in the first embodiment, the unevenness of the shape of the object in the depth direction is small, so object i is It is determined that

S12bでは、物体(物体領域)の参照カウンタiをインクリメントする。 In S12b, the reference counter i of the object (object region) is incremented.

S12cでは、参照カウンタiが立体物候補領域数最大値(物体数)を超えたか否かを判定する。超えていない場合は未処理の立体物候補領域があるとし、S125の処理に進む。超えている場合は本処理を終了する。 In S12c, it is determined whether the reference counter i has exceeded the maximum number of three-dimensional object candidate regions (the number of objects). If not, it is determined that there is an unprocessed three-dimensional object candidate region, and the process proceeds to S125. If it exceeds the limit, this process ends.

以上が第三の実施例の物体識別装置10による処理の流れである。機械学習による認識と、本実施例による、物体の奥行距離特徴を使った識別を組み合わせることで、輪郭やテクスチャなどの見かけの特徴で識別が困難で、かつ奥行き情報を使うことで識別可能な歩行者と二輪車の識別を可能とする。 The above is the flow of processing by the object identification device 10 of the third embodiment. By combining recognition using machine learning and identification using the depth and distance features of objects according to this embodiment, we can identify gaits that are difficult to identify based on apparent features such as contours and textures, but that can be identified using depth information. This makes it possible to identify motorcyclists and motorcycles.

また、本実施例(上述した第一および第二の実施例も同様)では、歩行者と二輪車の例を用いたが、前述のように、正面や背面からの見かけの形状が似ているが、奥行きの形状が異なる対象であれば、同様に本実施例を適用可能である。例えば、二輪車のみでなく、三輪車、リキシャと歩行者の識別にも適用可能である。また、人間と牛や馬等の識別にも適用可能である。また、見かけの特徴が類似した車両の種別(車種など)ごとの識別にも本実施例を適用可能である。 In addition, in this example (the same applies to the first and second examples described above), an example of a pedestrian and a two-wheeled vehicle is used, but as described above, although their apparent shapes from the front and rear are similar, , this embodiment can be similarly applied to objects that have different shapes in depth. For example, it is applicable not only to two-wheeled vehicles, but also to the identification of tricycles, rickshaws, and pedestrians. It can also be applied to distinguish between humans, cows, horses, etc. Further, the present embodiment can also be applied to identification by type (car model, etc.) of vehicles that have similar apparent characteristics.

以上で説明したように、本第三の実施例の物体識別装置10は、カメラ9から取得した画像から物体が存在する物体領域を検出する物体検出部1と、前記物体領域の前記画像上の特徴から前記物体の種別を認識する物体認識部5と、前記物体認識部5で認識した物体のうち所定の物体(例えば、歩行者もしくは二輪車)を含むまたは所定の物体(例えば、車両もしくは背景)を含まない前記物体領域の距離分布を算出する物体距離情報算出部3と、前記物体距離情報算出部3で算出した前記距離分布に基づき前記物体領域の前記物体の種別を識別する物体識別部4とを有する。 As explained above, the object identification device 10 of the third embodiment includes an object detection unit 1 that detects an object region in which an object exists from an image acquired from a camera 9, and a an object recognition unit 5 that recognizes the type of the object from its characteristics, and a predetermined object (for example, a vehicle or background) that includes a predetermined object (for example, a pedestrian or a two-wheeled vehicle) or a predetermined object (for example, a vehicle or a background) among the objects recognized by the object recognition unit 5; an object distance information calculation unit 3 that calculates a distance distribution of the object area that does not include , and an object identification unit 4 that identifies the type of the object in the object area based on the distance distribution calculated by the object distance information calculation unit 3. and has.

これにより、例えば機械学習による二次元的な認識と、物体の奥行距離特徴を使った三次元的な識別を組み合わせることで、物体の種別を迅速かつ精度よく識別可能である。 With this, for example, by combining two-dimensional recognition using machine learning and three-dimensional identification using depth and distance features of the object, it is possible to quickly and accurately identify the type of object.

このように、本実施例においても、上述した第一および第二の実施例と同様に、物体領域の距離分布を用いることで、静止物体でも対象となる物体の種別を識別することができ、見かけの類似した対象の識別性能を高めることができる。 In this way, in this embodiment as well, as in the first and second embodiments described above, by using the distance distribution of the object area, it is possible to identify the type of object even if it is a stationary object. It is possible to improve the identification performance of objects that have similar appearance.

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることが可能である。また、各実施例の構成の一部について、他の実施例の構成の追加・削除・置換をすることが可能である。 Note that the present invention is not limited to the above-described embodiments, and includes various modifications. For example, the embodiments described above are described in detail to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to having all the configurations described. Furthermore, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Furthermore, it is possible to add, delete, or replace a part of the configuration of each embodiment with the configuration of other embodiments.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記憶装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。 Further, each of the above-mentioned configurations, functions, processing units, processing means, etc. may be partially or entirely realized in hardware by designing, for example, an integrated circuit. Furthermore, each of the above configurations, functions, etc. may be realized by software by a processor interpreting and executing a program for realizing each function. Information such as programs, tables, files, etc. that implement each function can be stored in a memory, a storage device such as a hard disk, an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.

また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 Further, the control lines and information lines are shown to be necessary for explanation purposes, and not all control lines and information lines are necessarily shown in the product. In reality, almost all components may be considered to be interconnected.

1 物体検出部
2 距離計測部
3 物体距離情報算出部
4 物体識別部
5 物体認識部(第三の実施例)
10 物体識別装置
31 物体領域(歩行者領域)
32 物体領域(二輪車領域)
1 Object detection section
2 Distance measurement section
3 Object distance information calculation unit
4 Object identification section
5 Object recognition unit (third embodiment)
10 Object identification device
31 Object area (pedestrian area)
32 Object area (motorcycle area)

Claims (6)

画像から物体の種別を識別する物体識別装置であって、
画像から物体が存在する物体領域を検出する物体検出部と、
前記画像のうち、前記物体領域を占める画素毎または隣接する複数の画素群毎に距離情報を求める距離計測部と、
前記距離計測部により求められた距離情報に基づいて、前記物体領域の距離分布を算出する物体距離情報算出部と、
前記距離分布に基づき前記物体の種別を識別する物体識別部とを有し、
前記物体距離情報算出部は、前記物体領域について求められた距離情報の代表距離を基準として、所定の範囲に含まれる距離情報のみに基づいて、前記距離分布を求めることを特徴とする物体識別装置。
An object identification device that identifies the type of object from an image,
an object detection unit that detects an object region in which the object exists from the image;
a distance measuring unit that calculates distance information for each pixel occupying the object area or for each group of adjacent pixels in the image;
an object distance information calculation unit that calculates a distance distribution of the object area based on the distance information obtained by the distance measurement unit;
an object identification unit that identifies the type of the object based on the distance distribution ,
The object distance information calculation unit calculates the distance distribution based only on distance information included in a predetermined range, with a representative distance of the distance information calculated for the object region as a reference. Device.
請求項1に記載の物体識別装置において、
前記画像上の特徴から前記物体の種別を認識する物体認識部を有し、
前記物体距離情報算出部は、前記物体認識部で認識した物体のうち所定の物体を含むまたは所定の物体を含まない前記物体領域の距離分布を算出し、
前記物体識別部は、前記物体距離情報算出部で算出した前記距離分布に基づき前記物体領域の前記物体の種別を識別することを特徴とする物体識別装置。
The object identification device according to claim 1,
an object recognition unit that recognizes the type of the object from the features on the image;
The object distance information calculation unit calculates a distance distribution of the object area that includes a predetermined object or does not include a predetermined object among the objects recognized by the object recognition unit,
The object identification device is characterized in that the object identification unit identifies the type of the object in the object area based on the distance distribution calculated by the object distance information calculation unit.
請求項1に記載の物体識別装置において、
前記物体識別部は、前記物体領域の距離の分散の大きさにより、検知対象である前記物体の奥行方向の形状の違いを検知して、前記物体の種別を識別することを特徴とする物体識別装置。
The object identification device according to claim 1,
The object identification unit is characterized in that the object identification unit identifies the type of the object by detecting a difference in shape in the depth direction of the object, which is a detection target, based on the magnitude of distance dispersion of the object area. Device.
請求項1に記載の物体識別装置において、
前記物体識別部は、前記物体領域の一部を構成する複数の部分領域の距離の差により、前記物体の種別を識別することを特徴とする物体識別装置。
The object identification device according to claim 1,
The object identification device is characterized in that the object identification unit identifies the type of the object based on a difference in distance between a plurality of partial regions forming part of the object region.
請求項4に記載の物体識別装置において、
前記物体識別部は、前記物体領域の上半分領域と下半分領域の距離の差により、前記物体の種別を識別することを特徴とする物体識別装置。
The object identification device according to claim 4,
The object identification device is characterized in that the object identification unit identifies the type of the object based on a difference in distance between an upper half region and a lower half region of the object region.
請求項1に記載の物体識別装置において、
前記物体距離情報算出部は、前記物体領域について求められた距離情報で頻度最大の距離を前記代表距離することを特徴とする物体識別装置。
The object identification device according to claim 1,
The object identification device is characterized in that the object distance information calculation unit sets a distance with a maximum frequency among the distance information obtained for the object region as the representative distance.
JP2019206342A 2019-11-14 2019-11-14 object identification device Active JP7373972B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019206342A JP7373972B2 (en) 2019-11-14 2019-11-14 object identification device
PCT/JP2020/039327 WO2021095455A1 (en) 2019-11-14 2020-10-20 Object identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019206342A JP7373972B2 (en) 2019-11-14 2019-11-14 object identification device

Publications (2)

Publication Number Publication Date
JP2021081789A JP2021081789A (en) 2021-05-27
JP7373972B2 true JP7373972B2 (en) 2023-11-06

Family

ID=75911970

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019206342A Active JP7373972B2 (en) 2019-11-14 2019-11-14 object identification device

Country Status (2)

Country Link
JP (1) JP7373972B2 (en)
WO (1) WO2021095455A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113936034B (en) * 2021-09-28 2024-05-28 北京航空航天大学 Apparent motion combined weak and small moving object detection method combined with inter-frame optical flow
WO2023112127A1 (en) * 2021-12-14 2023-06-22 日立Astemo株式会社 Image recognition device and image recognition method
JP2024052374A (en) * 2022-09-30 2024-04-11 ソニーセミコンダクタソリューションズ株式会社 Image processing device, image processing method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004020492A (en) 2002-06-19 2004-01-22 Nissan Motor Co Ltd Front object recognition device
JP2019101470A (en) 2017-11-28 2019-06-24 株式会社Subaru Vehicle outside environment recognition device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004020492A (en) 2002-06-19 2004-01-22 Nissan Motor Co Ltd Front object recognition device
JP2019101470A (en) 2017-11-28 2019-06-24 株式会社Subaru Vehicle outside environment recognition device

Also Published As

Publication number Publication date
WO2021095455A1 (en) 2021-05-20
JP2021081789A (en) 2021-05-27

Similar Documents

Publication Publication Date Title
JP7373972B2 (en) object identification device
JP7025912B2 (en) In-vehicle environment recognition device
CN107406071B (en) Pedestrian's identification device and its method
KR20190095592A (en) Method and Apparatus for Vehicle Detection Using Lidar Sensor and Camera
JP6657789B2 (en) Image processing device, imaging device, device control system, frequency distribution image generation method, and program
JP5556748B2 (en) Vehicle state detection device
JP5742873B2 (en) Object identification device
US20130182908A1 (en) Vehicle type identification device
TWI504858B (en) A vehicle specification measuring and processing device, a vehicle specification measuring method, and a recording medium
JP6972797B2 (en) Information processing device, image pickup device, device control system, mobile body, information processing method, and program
US10013618B2 (en) Method and apparatus for detecting side of object using ground boundary information of obstacle
KR101515597B1 (en) Method and apparatus for surveillance by using 3-dimension image data
CN102099842B (en) Vehicle vicinity monitoring device
KR101282742B1 (en) Apparatus and method for detecting object using 3d image
US10789727B2 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
JP5434861B2 (en) Moving object detection apparatus and program
TW201520907A (en) Vision-based cyclist and pedestrian detection system and the methods
JP6972798B2 (en) Information processing device, image pickup device, device control system, mobile body, information processing method, and program
JP6466679B2 (en) Object detection device
JP6171608B2 (en) Object detection device
CN109308442A (en) Exterior environment recognition device
JP7058128B2 (en) Information processing equipment and programs
JP5798078B2 (en) Vehicle external recognition device and vehicle system using the same
JP7071102B2 (en) External environment recognition device
EP3327696A1 (en) Information processing apparatus, imaging device, device control system, mobile body, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231024

R150 Certificate of patent or registration of utility model

Ref document number: 7373972

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150