JP2020087037A - Identification apparatus and identification method - Google Patents

Identification apparatus and identification method Download PDF

Info

Publication number
JP2020087037A
JP2020087037A JP2018221561A JP2018221561A JP2020087037A JP 2020087037 A JP2020087037 A JP 2020087037A JP 2018221561 A JP2018221561 A JP 2018221561A JP 2018221561 A JP2018221561 A JP 2018221561A JP 2020087037 A JP2020087037 A JP 2020087037A
Authority
JP
Japan
Prior art keywords
image
probability distribution
discriminator
learning
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018221561A
Other languages
Japanese (ja)
Inventor
正雄 山中
Masao Yamanaka
正雄 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018221561A priority Critical patent/JP2020087037A/en
Publication of JP2020087037A publication Critical patent/JP2020087037A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To determine existence of an abnormal object based on an image with satisfactory accuracy.SOLUTION: The present invention is directed to an identification apparatus for determining existence of an abnormal object included in an image. The identification apparatus has a first type identifier for estimating a label of each of a plurality of images included in an input image based on a learning result of characteristics of pixels included in a first image which is an image having no abnormal object and for outputting a first probability distribution representing probability distribution of the plurality of labels for every pixel, a second type identifier for generating a second probability distribution from the first probability distribution based on the learning results of relationship of the labels at the surrounding of a plurality of pixels included in the first image, and a determining means for determining existence of the abnormal object in the second image based on discrepancy between the first probability distribution obtained by inputting the second image into the first type identifier and the second probability distribution obtained by inputting the first probability distribution into the second type identifier.SELECTED DRAWING: Figure 1A

Description

本発明は、画像に基づいた異常判定技術に関する。 The present invention relates to an image-based abnormality determination technique.

路上障害物(車両走行の妨げとなる、路上に放置された未知の物体)を検出する方法として、たとえば、非特許文献1に記載されたような、ミリ波レーダーを用いた方法が提案されている。非特許文献1に記載の技術によれば、時間帯や天候を問わず、かつ遠距離で
あっても路上障害物を安定的に検出することができる。
As a method of detecting an obstacle on the road (an unknown object left on the road that hinders vehicle traveling), for example, a method using a millimeter wave radar as described in Non-Patent Document 1 has been proposed. There is. According to the technique described in Non-Patent Document 1, it is possible to stably detect an obstacle on the road regardless of the time zone and the weather and even at a long distance.

また、路上障害物を検出する方法として、たとえば、非特許文献2および3に記載されたような、カメラを用いた方法が提案されている。非特許文献2に記載の技術では、画像に基づいて学習させた識別器によって路上障害物を検出している。また、非特許文献3に記載の技術では、過去と現在の画像とで、時間・空間方向の位相を合わせこみ、その差分から路上障害物を検出している。 Further, as a method for detecting an obstacle on the road, for example, a method using a camera as described in Non-Patent Documents 2 and 3 has been proposed. In the technique described in Non-Patent Document 2, a road obstacle is detected by a discriminator learned based on an image. Further, in the technique described in Non-Patent Document 3, the phases in the time and space directions are matched between the past and present images, and a road obstacle is detected from the difference between them.

また、非特許文献4に記載されたような、カメラとミリ波レーダーを組み合わせ、路上障害物を検出する試みがある。 There is also an attempt to detect an obstacle on the road by combining a camera and a millimeter wave radar as described in Non-Patent Document 4.

稲葉敬之,桐本哲郎,"車載用ミリ波レーダー,自動車技術vol.64,no.2,pp.74-79,Feb.2010.89.Takayuki Inaba, Tetsuro Kirimoto, "In-vehicle millimeter-wave radar, Automotive Technology vol.64, no.2, pp.74-79, Feb.2010.89. Joint HOG特徴量を用いた2段階AdaBoostによる車両検出, 2009, 電子情報通信学会論文誌, 尾崎・藤吉他(中部大学)Vehicle detection by 2-step AdaBoost using Joint HOG feature, 2009, Transactions of the Institute of Electronics, Information and Communication Engineers, Ozaki and Fujiyoshi et al. (Chubu University) 過去の車載カメラ映像との時空間差分による不特定障害物検知に関する検討, 2012,画像の認識・理解シンポジウム(MIRU2012)論文集,久徳・村瀬他(名古屋大学)A Study on Unspecified Obstacle Detection by Spatio-Temporal Difference from Past Vehicle Images, 2012, Symposium on Image Recognition and Understanding (MIRU2012), Kutoku and Murase et al. (Nagoya University) Integrating Millimeter Wave Radar with a Monocular Vision Sensor for On-Road Obstacle Detection Applications(西安交通大学), 2011Integrating Millimeter Wave Radar with a Monocular Vision Sensor for On-Road Obstacle Detection Applications (Xi'an Jiaotong University), 2011

非特許文献1に記載された、ミリ波レーダーを用いた方法では、検出精度および検出範囲において課題がある。ミリ波レーダーを用いた方法の場合、一般的に解像度が低く、レーダーの照射範囲も狭いため、サイズが小さい、もしくは、道路の端にある障害物の検出が困難なためである。 The method using the millimeter wave radar described in Non-Patent Document 1 has problems in detection accuracy and detection range. This is because the method using a millimeter wave radar generally has a low resolution and a narrow irradiation range of the radar, so that the size is small or it is difficult to detect an obstacle at the end of the road.

また、非特許文献2に記載されたような、機械学習による路上障害物の検出においては、予め学習していない物体を識別できないという問題がある。
また、非特許文献3に記載されたような、カメラ画像による手法では、先行車両や対向車両、その他の移動物体を路上障害物と誤判定してしまうという問題がある。
非特許文献4に記載された手法では、高精度に路上障害物を検出することができるが、ミリ波レーダーとカメラを併用するため、装置の設置および運用にかかるコストが高くなってしまう。
Further, in the detection of a road obstacle by machine learning as described in Non-Patent Document 2, there is a problem that an object that has not been learned in advance cannot be identified.
Moreover, the method using a camera image as described in Non-Patent Document 3 has a problem that a preceding vehicle, an oncoming vehicle, and other moving objects are erroneously determined as road obstacles.
The method described in Non-Patent Document 4 can detect an obstacle on the road with high accuracy, but since the millimeter-wave radar and the camera are used together, the cost for installing and operating the device increases.

本発明は上記の問題点を考慮してなされたものであり、画像に基づいて異常物体の存在を精度よく判定できる識別装置を提供することを目的とする。 The present invention has been made in consideration of the above problems, and an object of the present invention is to provide an identification device that can accurately determine the presence of an abnormal object based on an image.

本発明の一様態に係る識別装置は、
画像に含まれる異常物体の存在を判定する識別装置であって、前記異常物体を含まない画像である第一の画像に含まれる画素の特徴を学習した結果に基づいて、入力画像に含まれる複数の画素のそれぞれに対してラベルを推定し、複数のラベルの確率分布を画素ごとに表した第一の確率分布を出力する第一タイプ識別器と、前記第一の画像に含まれる複数の画素の周辺におけるラベルの関係性を学習した結果に基づいて、前記第一の確率分布から、第二の確率分布を生成する第二タイプ識別器と、第二の画像を前記第一タイプ識別器に入力して得られた前記第一の確率分布と、前記第一の確率分布を前記第二タイプ識別器に入力して得られた前記第二の確率分布と、の解離度に基づいて、前記第二の画像中に前記異常物体が存在することを判定する判定手段と、を有する。
An identification device according to one aspect of the present invention,
An identification device for determining the presence of an abnormal object included in an image, wherein a plurality of images included in an input image are obtained based on a result of learning characteristics of pixels included in a first image that does not include the abnormal object. A first type classifier that estimates a label for each of the pixels and outputs a first probability distribution that represents the probability distribution of a plurality of labels for each pixel, and a plurality of pixels included in the first image Based on the result of learning the relationship of labels in the vicinity of, from the first probability distribution, a second type discriminator that generates a second probability distribution, and a second image to the first type discriminator. Based on the dissociation degree of the first probability distribution obtained by input, and the second probability distribution obtained by inputting the first probability distribution to the second type discriminator, the Determination means for determining the presence of the abnormal object in the second image.

また、本発明に係る識別方法は、
画像に含まれる異常物体の存在を判定する識別方法であって、前記異常物体を含まない画像である第一の画像に含まれる画素の特徴を学習した結果に基づいて、入力画像に含まれる複数の画素のそれぞれに対してラベルを推定し、複数のラベルの確率分布を画素ごとに表した第一の確率分布を出力する第一の識別ステップと、前記第一の画像に含まれる複数の画素の周辺におけるラベルの関係性を学習した結果に基づいて、前記第一の確率分布から、第二の確率分布を生成する第二の識別ステップと、第二の画像を前記第一の識別ステップで処理して得られた前記第一の確率分布と、前記第一の確率分布を前記第二の識別ステップで処理して得られた前記第二の確率分布と、の解離度に基づいて、前記第二の画像中に前記異常物体が存在することを判定する判定ステップと、を含む。
Further, the identification method according to the present invention,
An identification method for determining the presence of an abnormal object included in an image, wherein a plurality of images included in an input image are obtained based on a result of learning characteristics of pixels included in a first image that does not include the abnormal object. A first identification step of estimating a label for each of the pixels, and outputting a first probability distribution representing the probability distribution of a plurality of labels for each pixel; and a plurality of pixels included in the first image. Based on the result of learning the relationship of labels in the vicinity of, from the first probability distribution, a second identification step of generating a second probability distribution, and a second image in the first identification step. Based on the dissociation degree of the first probability distribution obtained by processing, and the second probability distribution obtained by processing the first probability distribution in the second identification step, the A determination step of determining that the abnormal object is present in the second image.

また、本発明の別様態に係る識別装置は、
画像に含まれる異常物体の存在を判定する識別装置であって、前記異常物体を含まない画像である第一の画像に含まれる画素の特徴を学習した結果に基づいて、入力画像に含まれる複数の画素のそれぞれに対してラベルを推定し、複数のラベルの確率分布を画素ごとに表した第一の確率分布を出力する第一タイプ識別器と、前記第一の画像を前記第一タイプ識別器に入力した場合に前記第一タイプ識別器が出力する前記第一の確率分布の傾向を学習した結果に基づいて、前記第一の確率分布から、第二の確率分布を生成する第二タイプ識別器と、第二の画像を前記第一タイプ識別器に入力して得られた前記第一の確率分布と、前記第一の確率分布を前記第二タイプ識別器に入力して得られた前記第二の確率分布と、の解離度に基づいて、前記第二の画像中に前記異常物体が存在することを判定する判定手段と、を有する。
Further, an identification device according to another aspect of the present invention,
An identification device for determining the presence of an abnormal object included in an image, wherein a plurality of images included in an input image are obtained based on a result of learning characteristics of pixels included in a first image that does not include the abnormal object. A first type discriminator that estimates a label for each of the pixels and outputs a first probability distribution that represents the probability distribution of a plurality of labels for each pixel, and identifies the first image by the first type discriminator. Type that generates a second probability distribution from the first probability distribution based on the result of learning the tendency of the first probability distribution output by the first type discriminator when input to the device Discriminator, the first probability distribution obtained by inputting a second image to the first type discriminator, and obtained by inputting the first probability distribution to the second type discriminator Determination means for determining the presence of the abnormal object in the second image based on the dissociation degree of the second probability distribution.

本発明によれば、画像に基づいて異常物体の存在を精度よく判定できる識別装置を提供することができる。 According to the present invention, it is possible to provide an identification device that can accurately determine the presence of an abnormal object based on an image.

第一の実施形態に係る識別装置の機能構成図。The functional block diagram of the identification device which concerns on 1st embodiment. 第一の実施形態に係る識別装置の機能構成図。The functional block diagram of the identification device which concerns on 1st embodiment. 画像取得部によって取得される画像の例。An example of the image acquired by the image acquisition unit. 入力された画像にラベルを付与した画像の例。An example of an image in which a label is added to the input image. 第一識別器が出力するデータを説明する図。The figure explaining the data which a 1st discriminator outputs. 第二識別器が出力するデータを説明する図The figure explaining the data which the second discriminator outputs. ランダムフォレストによる決定木を説明する図。The figure explaining the decision tree by a random forest. 第二識別器が学習するラベルの共起性を説明する図。The figure explaining the co-occurrence of the label which a 2nd discriminator learns. 第一の実施形態(学習モード)において行う処理のフローチャート。The flowchart of the process performed in 1st embodiment (learning mode). 第一の実施形態(評価モード)において行う処理のフローチャート。The flowchart of the process performed in 1st embodiment (evaluation mode). 路上障害物を可視化した画像の例。An example of a visual image of a road obstacle. 第二の実施形態に係る識別装置の機能構成図。The functional block diagram of the identification device which concerns on 2nd embodiment. 第二の実施形態に係る識別装置の機能構成図。The functional block diagram of the identification device which concerns on 2nd embodiment. 第三識別器が学習するラベルの類似性を説明する図。The figure explaining the similarity of the label which a 3rd discriminator learns. 第二の実施形態(学習モード)において行う処理のフローチャート。The flowchart of the process performed in 2nd embodiment (learning mode). 第二の実施形態(評価モード)において行う処理のフローチャート。The flowchart of the process performed in 2nd embodiment (evaluation mode).

本発明に係る識別装置は、車両の前方を撮像して得られた画像に基づいて、当該車両の前方にある路上障害物(車両の走行に支障を与えうる未知の物体。本明細書では異常物体ともいう)の有無を識別する装置である。具体的には、路上障害物が無い状況を撮像して得られた画像を用いて機械学習を行い、学習の結果を用いて、路上障害物の有無が未知である画像を評価する。 An identification device according to the present invention is based on an image obtained by capturing an image of the front of a vehicle, and a road obstacle (an unknown object that may hinder the running of the vehicle in front of the vehicle. It is also a device for identifying the presence or absence of an object. Specifically, machine learning is performed using an image obtained by capturing a situation where there is no road obstacle, and an image in which the presence or absence of a road obstacle is unknown is evaluated using the learning result.

本発明に係る識別装置は、異常物体を含まない画像である第一の画像に含まれる画素の特徴を学習した結果に基づいて、入力画像に含まれる複数の画素のそれぞれに対してラベルを推定し、複数のラベルの確率分布を画素ごとに表した第一の確率分布を出力する第一タイプ識別器を用いる。 An identification device according to the present invention estimates a label for each of a plurality of pixels included in an input image, based on a result of learning characteristics of pixels included in a first image that is an image that does not include an abnormal object. Then, a first type discriminator that outputs a first probability distribution that represents the probability distributions of a plurality of labels for each pixel is used.

一方、このように、画素の特徴に基づいてラベルの推定を行う識別器は、学習していない物体を検出できないという問題がある。
この問題を解決するため、本発明に係る識別装置は、(1)第一の画像に含まれる複数の画素の周辺におけるラベルの関係性を学習した結果に基づいて、前記第一の確率分布から、第二の確率分布を生成する第二タイプ識別器を併用し、(2)第二の画像を前記第一タイプ識別器に入力して得られた前記第一の確率分布と、前記第一の確率分布を前記第二タイプ識別器に入力して得られた前記第二の確率分布と、の解離度に基づいて、前記第二の画像中に前記異常物体が存在することを判定する。
On the other hand, as described above, there is a problem that the classifier that estimates the label based on the feature of the pixel cannot detect the unlearned object.
In order to solve this problem, the identification device according to the present invention uses (1) the first probability distribution based on the result of learning the relationship of labels around a plurality of pixels included in the first image. , A second type discriminator that generates a second probability distribution is also used, and (2) the first probability distribution obtained by inputting a second image to the first type discriminator, and the first It is determined that the abnormal object is present in the second image based on the dissociation degree of the second probability distribution obtained by inputting the probability distribution of the second type discriminator to the second type discriminator.

なお、前記ラベルの関係性は、前記ラベルの共起性または類似性であることを特徴としてもよい。 The relationship between the labels may be co-occurrence or similarity of the labels.

第二タイプ識別器は、異常物体を含まない画像(第一の画像)における、ある画素の周辺におけるラベルの関係性(例えば、ラベルの共起性や類似度など)を学習させた識別器である。第二タイプ識別器は、第一の確率分布を入力として、上記の学習結果を適用した第二の確率分布を出力可能に構成される。
第二タイプ識別器によって評価された第二の確率分布が、第一の確率分布から乖離しているということは、第一タイプ識別器が、異常物体を含まない画像(第一の画像)に対して出力した確率分布とは異なる傾向を持つ確率分布を出力していることを意味する。従って、第一の確率分布と第二の確率分布との解離度に基づいて、第二の画像中における異常物体の存在尤度が推定できる。
The second type discriminator is a discriminator that has learned label relationships (eg, label co-occurrence and similarity) around a pixel in an image that does not include an abnormal object (first image). is there. The second type classifier is configured to be able to output the second probability distribution to which the above learning result is applied, with the first probability distribution as an input.
The second probability distribution evaluated by the second type discriminator deviates from the first probability distribution, which means that the first type discriminator does not include an abnormal object in the image (first image). This means that a probability distribution that has a tendency different from the probability distribution that is output is output. Therefore, the existence likelihood of an abnormal object in the second image can be estimated based on the dissociation degree between the first probability distribution and the second probability distribution.

また、前記第二タイプ識別器は、前記第一の画像を前記第一タイプ識別器に入力して得られる前記第一の確率分布を学習データとして学習した識別器であることを特徴としてもよい。
また、前記第二タイプ識別器は、前記第一の画像を前記第一タイプ識別器に入力して得られる前記第一の確率分布を学習データとして、前記第一の画像に含まれる複数の画素の周辺における前記ラベルの類似性を学習した識別器であることを特徴としてもよい。
Further, the second type classifier may be a classifier that has learned the first probability distribution obtained by inputting the first image to the first type classifier as learning data. ..
Further, the second type discriminator, the first probability distribution obtained by inputting the first image to the first type discriminator as learning data, a plurality of pixels included in the first image. The discriminator may be a classifier that learns the similarity of the labels around the.

このような学習データを用いて、前述したラベルの関係性を学習させることで、第一タ
イプ識別器が第一の画像に対して出力する確率分布の傾向を学習させることができる。
By learning the above-described label relationships using such learning data, the tendency of the probability distribution output by the first type classifier for the first image can be learned.

また、前記第二タイプ識別器は、前記第一の画像に正解ラベルを付与した第一のラベル画像を学習データとして、前記第一の画像に含まれる複数の画素の周辺における前記ラベルの共起性を学習した識別器であることを特徴としてもよい。
第二タイプ識別器は、確率分布ではなく、正解ラベルが付与された画像によって学習を行わせてもよい。このような構成によっても、第一タイプ識別器が第一の画像に対して出力する確率分布の傾向を学習させることができる。
The second type discriminator uses the first label image in which the correct label is given to the first image as learning data, and the label co-occurrence around a plurality of pixels included in the first image. It may be characterized by being a classifier that has learned the sex.
The second type classifier may perform learning by using an image to which a correct answer label is added instead of the probability distribution. Even with such a configuration, the tendency of the probability distribution output by the first type classifier for the first image can be learned.

以下、本発明の具体的な実施形態について図面に基づいて説明する。各実施形態に記載されているハードウェア構成、モジュール構成、機能構成等は、特に記載がない限りは発明の技術的範囲をそれらのみに限定する趣旨のものではない。 Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. The hardware configuration, module configuration, functional configuration, etc. described in each embodiment are not intended to limit the technical scope of the invention to these unless otherwise specified.

(第一の実施形態)
第一の実施形態に関して、図面を参照して説明する。図1Aおよび図1Bは、第一の実施形態に係る識別装置10の機能構成を示すブロック図である。
本実施形態に係る識別装置10は、入力された画像に基づいて、当該画像に含まれる路上障害物の有無を判定し、判定結果を出力する装置である。
(First embodiment)
The first embodiment will be described with reference to the drawings. 1A and 1B are block diagrams showing a functional configuration of the identification device 10 according to the first embodiment.
The identification device 10 according to the present embodiment is a device that determines the presence or absence of a road obstacle included in the image based on the input image and outputs the determination result.

識別装置10は、複数の識別器を有しており、当該識別器を学習させる学習モードと、学習の結果に基づいて画像の評価を行う評価モードに切り替え可能に構成される。以降の説明において、識別器を学習させる処理を学習処理と称し、学習した識別器を用いて画像を評価する処理を評価処理と称する。また、学習に用いる画像を学習用画像と称し、評価に用いる画像を評価用画像と称する。学習用画像は、路上障害物が存在しない状況において車載カメラから取得した画像であり、評価用画像は、路上障害物の存在が不明である状況において車載カメラから取得した画像である。
図1Aは、学習モードにおけるデータの流れを示した図であり、図1Bは、評価モードにおけるデータの流れを示した図である。
The classification device 10 has a plurality of classifiers and is configured to be switchable between a learning mode for learning the classifiers and an evaluation mode for evaluating an image based on the learning result. In the following description, the process of learning the classifier is referred to as a learning process, and the process of evaluating an image using the learned classifier is referred to as an evaluation process. An image used for learning is referred to as a learning image, and an image used for evaluation is referred to as an evaluation image. The learning image is an image acquired from the vehicle-mounted camera in the situation where there is no road obstacle, and the evaluation image is an image acquired from the vehicle-mounted camera in the situation where the existence of the road obstacle is unknown.
FIG. 1A is a diagram showing a data flow in the learning mode, and FIG. 1B is a diagram showing a data flow in the evaluation mode.

本実施形態に係る識別装置10は、半導体集積回路(LSI)を用いて実現できる。識別装置10は、画像取得部11、ラベル付与部12、識別部13、異常判定部14を有して構成される。また、識別部13は、第一識別器131および第二識別器132を有して構成される。これらの構成要素はソフトウェアモジュールによって実現され、識別装置10が果たす機能にそれぞれ対応している。 The identification device 10 according to the present embodiment can be realized by using a semiconductor integrated circuit (LSI). The identification device 10 includes an image acquisition unit 11, a labeling unit 12, an identification unit 13, and an abnormality determination unit 14. Further, the identification unit 13 is configured to include a first identification device 131 and a second identification device 132. These components are realized by software modules and correspond to the functions performed by the identification device 10, respectively.

画像取得部11は、車両前方を撮像して得られた画像を取得する手段である。画像取得部11は、例えば、車両の前方に向けて設置されたカメラ(車載カメラ)から画像を取得する。図2は、画像取得部11によって取得される画像の例である。本実施形態では、ある時刻tにおいて取得した画像を、I(t)と表現する。 The image acquisition unit 11 is a unit that acquires an image obtained by imaging the front of the vehicle. The image acquisition unit 11 acquires an image from, for example, a camera (vehicle-mounted camera) installed toward the front of the vehicle. FIG. 2 is an example of an image acquired by the image acquisition unit 11. In the present embodiment, the image acquired at a certain time t is expressed as I(t).

ラベル付与部12は、画像取得部11が取得した画像に対してラベルを付与する手段である。
ここで、ラベルについて説明する。本実施形態では、「画像に含まれる複数の画素のそれぞれが何に対応しているか」をラベルによって表す。図3は、例示した画像にラベルを付与した例である。ラベル付与部12は、所定の意味を持つラベル(意味的ラベルとも言う)を予めM種類定義し、当該ラベルmを、対象の画像に対して画素単位で付与する。
例えば、Mが7である場合、mは以下のように定義することができる。
1:空,2:自然,3:他車両,4:建築物,5:白線,6:道路,7:自車両
本実施形態では、ラベル付与部12は、入力された画像をユーザに提示し、当該ユーザからラベルの付与結果を取得する。以降、画像に対してラベルが付与された結果をラベル
画像と称する。図3がラベル画像の例である。以降、画像I(t)に対応するラベル画像をL(t)と表現する。
The label attaching unit 12 is a unit that attaches a label to the image acquired by the image acquiring unit 11.
Here, the label will be described. In the present embodiment, “what each of the plurality of pixels included in the image corresponds to” is represented by a label. FIG. 3 is an example in which a label is added to the illustrated image. The label assigning unit 12 defines M types of labels (also referred to as semantic labels) having a predetermined meaning in advance, and assigns the label m to the target image in pixel units.
For example, if M is 7, then m can be defined as:
1: Sky, 2: Nature, 3: Other vehicle, 4: Building, 5: White line, 6: Road, 7: Own vehicle In the present embodiment, the labeling unit 12 presents the input image to the user. , The label assignment result is obtained from the user. Hereinafter, the result of attaching a label to an image will be referred to as a label image. FIG. 3 is an example of the label image. Hereinafter, the label image corresponding to the image I(t) will be expressed as L(t).

次に、識別部13について説明する。識別部13は、第一識別器131と第二識別器132を有して構成される。 Next, the identification unit 13 will be described. The discriminating unit 13 is configured to include a first discriminator 131 and a second discriminator 132.

第一識別器131は、本発明における第一タイプ識別器であり、画像に含まれる画素の特徴と、前述した複数のラベルとの関係性を学習する識別器である。第一識別器131は、複数の学習用画像(路上障害物を含まない画像。以下、正常画像とも言う)と、当該学習用画像に対してラベル(正解ラベル)を付与した結果得られる複数のラベル画像と、を用いて学習される。 The first discriminator 131 is the first type discriminator in the present invention, and is a discriminator that learns the relationship between the characteristics of the pixels included in the image and the plurality of labels described above. The first discriminator 131 includes a plurality of learning images (images that do not include road obstacles; hereinafter, also referred to as normal images) and a plurality of learning images that are obtained by assigning labels (correct labels) to the learning images. Label images are used for learning.

第一識別器131は、画像I(t)の座標(x,y)周辺における特徴(色,エッジ強度,テクスチャなど)の統計的分布と、当該座標における意味的ラベルm(m=1,…,M)との関係性を学習することで得られる。
第一識別器131は、評価用画像を入力すると、当該画像I(t)の座標(x,y)における意味的ラベルの確率分布を出力する。図4は、第一識別器131が出力するデータを説明する図である。図4は、画像I(t)の、座標(x,y)における意味的ラベルの確率分布P1,mを表している。本例では、座標(x,y)にある画素について、意味的ラベルが1、すなわち、空である可能性が最も高いことを表している。
第一識別器131は、ディープラーニングといった既知の学習手法を用いて学習させることができる。
The first classifier 131 has a statistical distribution of features (color, edge strength, texture, etc.) around the coordinates (x, y) of the image I(t), and the semantic label m (m=1,...) At the coordinates. , M) by learning the relationship with them.
When the evaluation image is input, the first discriminator 131 outputs the probability distribution of semantic labels at the coordinates (x, y) of the image I(t). FIG. 4 is a diagram illustrating the data output by the first discriminator 131. FIG. 4 shows the probability distribution P 1,m of the semantic label of the image I(t) at the coordinates (x,y). In this example, the pixel at the coordinate (x, y) has the highest semantic label of 1, that is, is most likely to be empty.
The first discriminator 131 can be trained using a known learning method such as deep learning.

なお、第一識別器131が出力した確率分布のうち、最も確率が高いラベルを各座標について選択することで、評価用画像に対応するラベル画像を得ることもできる。 Note that the label image corresponding to the evaluation image can be obtained by selecting the label with the highest probability among the probability distributions output by the first discriminator 131 for each coordinate.

第二識別器132は、本発明における第二タイプ識別器であり、正常画像中におけるラベルの共起性を学習する識別器である。第二識別器132は、複数のラベル画像を用いて学習される。 The second classifier 132 is the second type classifier in the present invention, and is a classifier that learns the co-occurrence of labels in a normal image. The second discriminator 132 is learned using a plurality of label images.

第二識別器132は、ラベル画像L(t)の座標(x,y)における意味的ラベルm(m=1,…,M)と、当該座標の周辺における意味的ラベルmの統計的分布との関係性(すなわち共起性)を学習することで得られる。
第二識別器132は、確率分布を入力すると、当該確率分布をラベル画像L(t)に変換し、学習したラベルの共起性に基づいて、当該画像L(t)の座標(x,y)における意味的ラベルの確率分布を出力する。図5は、第二識別器132が出力するデータを説明する図である。図5は、ラベル画像L(t)の、座標(x,y)における意味的ラベルの確率分布P2,mを表している。本例では、座標(x,y)にある画素について、周辺の画素との共起性(例えば、「"空"のラベルが付与された画素に囲まれた画素は"空"である可能性が高い」,「"空"のラベルが付与された画素の近傍にある画素は"空"か"自然"である可能性が高い」等)に基づいて、空である可能性が最も高いことを表している。
第二識別器132は、例えば、ランダムフォレストといった既知の学習手法を用いて学習させることができる。具体的な学習方法については後述する。
The second discriminator 132 calculates the semantic label m (m=1,..., M) at the coordinate (x, y) of the label image L(t) and the statistical distribution of the semantic label m around the coordinate. It is obtained by learning the relationship (that is, co-occurrence) of.
Upon inputting the probability distribution, the second classifier 132 converts the probability distribution into a label image L(t), and based on the learned co-occurrence of the label, coordinates (x, y) of the image L(t). ) Output the probability distribution of the semantic labels in. FIG. 5 is a diagram illustrating data output by the second discriminator 132. FIG. 5 shows the probability distribution P 2,m of the semantic label at the coordinates (x, y) of the label image L(t). In this example, with respect to the pixel at the coordinates (x, y), co-occurrence with surrounding pixels (for example, a pixel surrounded by pixels labeled with "empty" may be "empty") Is most likely to be empty", "Pixels in the vicinity of pixels labeled with "Sky" are likely to be "Sky" or "Natural"", etc.) Is represented.
The second classifier 132 can be trained using a known learning method such as random forest. A specific learning method will be described later.

第一識別器131が、画素の特徴を学習した結果によってラベルの確率分布を生成するのに対し、第二識別器132は、ある座標の周辺にある複数のラベルの共起性を学習した結果によってラベルの確率分布を生成する。
第二識別器132を学習させることで、確率分布を入力すると、当該確率分布をラベル画像に変換し、当該ラベル画像に含まれる画素のそれぞれについて、図5のような意味的ラベルの確率分布を出力する識別器を得ることができる。
The first discriminator 131 generates a probability distribution of labels according to the result of learning the characteristics of pixels, while the second discriminator 132 learns the co-occurrence of a plurality of labels around a certain coordinate. Generates a label probability distribution.
When the probability distribution is input by learning the second classifier 132, the probability distribution is converted into a label image, and the probability distribution of the semantic label as shown in FIG. 5 is calculated for each pixel included in the label image. An output discriminator can be obtained.

異常判定部14は、第一識別器131が出力した確率分布と、第二識別器が出力した確率分布との解離度を算出し、当該解離度に基づいて、評価用画像に路上障害物が含まれている度合い(異常度)を算出する手段である。
異常判定部14は、入力された評価用画像I(t)の任意の点p(x,y)における障害物らしさを示す尤度S(x,y)を算出し、算出結果に基づいて、評価用画像I(t)に含まれる路上障害物を検出する。具体的な処理内容については後述する。
The abnormality determination unit 14 calculates the dissociation degree between the probability distribution output by the first discriminator 131 and the probability distribution output by the second discriminator, and based on the dissociation degree, road obstacles appear in the evaluation image. It is a means for calculating the degree of inclusion (abnormality).
The abnormality determination unit 14 calculates the likelihood S(x, y) indicating the likelihood of an obstacle at an arbitrary point p(x, y) of the input evaluation image I(t), and based on the calculation result, A road obstacle included in the evaluation image I(t) is detected. Specific processing contents will be described later.

次に、第二識別器132が、ラベル画像に含まれる複数のラベルの共起性を学習させる処理について、ランダムフォレストを例示して詳細に説明する。
ランダムフォレストとは、図6のような、決定木を弱識別器とする集団学習アルゴリズムの一種であり、複数のノードr(1,…,R)と、ノード間を接続するリンクとから構成される。最上位層にあるノードをルートノード、最下位層にあるノードをリーフノード、それ以外を単にノードと呼ぶ。
Next, the process in which the second classifier 132 learns the co-occurrence of a plurality of labels included in the label image will be described in detail by exemplifying a random forest.
Random forest is a kind of group learning algorithm using a decision tree as a weak discriminator as shown in FIG. 6, and is composed of a plurality of nodes r(1,..., R) and links connecting the nodes. It The node in the highest layer is called a root node, the node in the lowest layer is a leaf node, and the other nodes are simply called nodes.

各ノードには学習により、ノード内のサンプル(意味的ラベル画像L(t)から無作為に抽出した画素p(x,y))を左右のノードに振り分けるための判定条件Φr(r=1,…,R)と、識別対象のカテゴリmに対する確率分布P2,m(r)(r=1,…,R,m=1,…,M)とが格納される。
なお、識別対象のカテゴリmは、前述したように、所定の範囲内(例えば、1,…,M(M=7))で事前に設定すればよい。
A determination condition Φ r (r=1) for allocating a sample in the node (pixel p(x, y) randomly extracted from the semantic label image L(t)) to the left and right nodes by learning in each node. ,..., R) and the probability distribution P 2,m (r) (r=1,..., R, m=1,..., M) for the category m to be identified are stored.
The category m to be identified may be set in advance within a predetermined range (for example, 1,..., M (M=7)) as described above.

ランダムフォレストの学習に必要な判定条件の候補φc(c=1,…,C)は、座標(
x,y)を始点とする2つのオフセットベクトル(ra,rb)を無作為に設定し、当該ベクトルの終点(a,b)における意味的ラベル(m,m)(∈1,…,M)の共起性に基づいて定義すればよい。
Candidates φ c (c=1,..., C) for the judgment conditions necessary for learning the random forest are coordinates (
x, y) is set at random as two offset vectors (r a , r b ), and the semantic labels (m a , m b ) at the end points (a, b) of the vectors (ε 1, ε 1, , M) may be defined based on the co-occurrence.

具体的な例を挙げて説明する。
例えば、図7(A)に示したように、座標p(x,y)において、判定条件(ra,rb,1,2)を設定したとする。この場合、オフセットベクトルraにおける意味的ラベル
が“空”(m=1)で、かつ、オフセットベクトルrbにおける意味的ラベルが“自然”
(m=2)であることが成立するため、右側のノードに遷移する。
一方、座標p(x,y)において判定条件(ra,rb,1,1)を設定した場合、オフセットベクトルraにおける意味的ラベルが“空”(m=1)で、かつ、オフセットベク
トルrbにおける意味的ラベルが“空”(m=1)であることが成立しないため、左側の
ノードに遷移する。
A specific example will be described.
For example, as shown in FIG. 7A , it is assumed that the determination condition (r a , r b , 1, 2) is set at the coordinate p(x, y). In this case, the semantic label in the offset vector r a is “empty” (m=1) and the semantic label in the offset vector r b is “natural”.
Since it is established that (m=2), it transits to the node on the right side.
On the other hand, when the determination condition (r a , r b , 1, 1) is set at the coordinate p(x, y), the semantic label in the offset vector r a is “empty” (m=1) and the offset is Since it is not established that the semantic label in the vector r b is “empty” (m=1), the node transits to the node on the left side.

同様に、図7(B)に示したように、座標p(x,y)において、判定条件(ra,rb,2,2)を設定したとする。この場合、オフセットベクトルraにおける意味的ラベル
が“自然”(m=2)で、かつ、オフセットベクトルrbにおける意味的ラベルが“自然
”(m=2)であることが成立するため、右側のノードに遷移する。
一方、座標p(x,y)において判定条件(ra,rb,1,2)を設定した場合、オフセットベクトルraにおける意味的ラベルが“空”(m=1)で、かつ、オフセットベク
トルrbにおける意味的ラベルが“自然”(m=2)であることが成立しないため、左側
のノードに遷移する。
Similarly, as shown in FIG. 7 (B), the coordinates p (x, y) in the determination condition (r a, r b, 2,2 ) and setting the. In this case, it is established that the semantic label in the offset vector r a is “natural” (m=2) and the semantic label in the offset vector r b is “natural” (m=2). Transition to the node.
On the other hand, when the determination condition (r a , r b , 1, 2) is set at the coordinate p(x, y), the semantic label in the offset vector r a is “empty” (m=1) and the offset is Since it is not established that the semantic label in the vector r b is “natural” (m=2), the node transits to the left node.

このように、判定条件の候補φc(c=1,…,C)が得られたら、後は公知の手順に
従って学習をすればよい。ここでいう学習とは、各ノードr(1,…,R)に適切な判定条件Φr(r=1,…,R)と、識別対象カテゴリm(=1,…,M)に対する確率分布
2,m(r)(r=1,…,R,m=1,…,M)を設定することをいう。
具体的には、r番目のノードにおける判定条件Φr(r∈1,…,R)は、判定条件の
候補φc(c=1,…,C)のうち、式(1)で定義される信頼度G(φ)を最大にする
ものを設定すればよい。

Figure 2020087037
Thus, candidate φ c (c = 1, ... , C) of the determination condition Once obtained, after may be learned in accordance with known procedures. Learning here means the determination condition Φ r (r=1,..., R) appropriate for each node r(1,..., R) and the probability distribution for the identification target category m (=1,..., M). P2 ,m (r) (r=1,..., R, m=1,..., M) is set.
Specifically, the determination condition Φ r (rε1,..., R) at the r-th node is defined by the equation (1) among the determination condition candidates φ c (c=1,..., C). The maximum reliability G(φ) may be set.
Figure 2020087037

ここで、Ql(φ)は、判定条件φで左側のノードに遷移するp(x,y)の個数、Qr(φ)は、判定条件φで右側のノードに遷移するp(x,y)の個数、H(Q(φ))は、所定ノードにおける識別対象カテゴリに対するエントロピーを表す。また、H(Ql
φ))は、判定条件φで左側のノードに遷移したサンプルの識別対象カテゴリに対するエントロピーを表す。また、H(Qr(φ))は、判定条件φで右側のノードに遷移したサ
ンプルの識別対象カテゴリに対するエントロピーを表す。
最終的に、ランダムフォレストの各ノードr(1,…,R)における判定条件Φr(r
=1,…,R)と、識別対象カテゴリmに対する確率分布P2,m(r)が得られる。
Here, Q l (φ) is the number of p(x, y) that transits to the left side node under the determination condition φ, and Q r (φ) is p(x, y) that transits to the right side node under the determination condition φ. The number of y), H(Q(φ)), represents the entropy for the identification target category at the predetermined node. In addition, H(Q l (
φ)) represents the entropy for the identification target category of the sample that has transited to the node on the left side under the determination condition φ. Further, H(Q r (φ)) represents the entropy for the identification target category of the sample that transits to the node on the right side under the determination condition φ.
Finally, the determination condition Φ r (r at each node r(1,..., R) in the random forest
=1,..., R) and the probability distribution P 2,m (r) for the classification target category m are obtained.

第二識別器132は、路上障害物が含まれない画像におけるラベルの共起性を学習することで、「正常画像を入力した第一識別器131が出力する確率分布の傾向」を学習する識別器であると言える。 The second discriminator 132 learns the “probability of the probability distribution output by the first discriminator 131 that has input a normal image” by learning the co-occurrence of labels in an image that does not include road obstacles. It can be said to be a vessel.

次に、第一の実施形態に係る識別装置10が行う学習処理について説明する。
図8は、複数の画像を用いて第一識別器131および第二識別器132を学習させる処理の流れを示すフローチャートである。学習は、一枚以上の学習用画像を用いて行われる。学習用画像は、路上障害物を含まない画像である。図8に示した処理は、複数の学習用画像のそれぞれについて繰り返し実行される。複数の学習用画像は、例えば、複数のタイムステップにおいて取得された画像I(t)とすることができる。
Next, the learning process performed by the identification device 10 according to the first embodiment will be described.
FIG. 8 is a flowchart showing the flow of processing for learning the first classifier 131 and the second classifier 132 using a plurality of images. Learning is performed using one or more learning images. The learning image is an image that does not include road obstacles. The process shown in FIG. 8 is repeatedly executed for each of the plurality of learning images. The plurality of learning images can be, for example, images I(t) acquired at a plurality of time steps.

まず、ステップS11で、画像取得部11が、学習用画像I(t)を取得する。
次に、ステップS12で、ラベル付与部12が、学習用画像I(t)に対応するラベル画像L(t)を取得する。前述したように、ラベル画像は、装置のユーザが手動で生成してもよい。取得されたラベル画像L(t)は、第一識別器131および第二識別器132に出力される。
次に、ステップS13で、第一識別器131が、取得した学習用画像I(t)およびラベル画像L(t)に基づいて、前述した方法によって学習を行う。
次に、ステップS14で、第二識別器132が、取得したラベル画像L(t)に基づいて、前述した方法によって学習を行う。
First, in step S11, the image acquisition unit 11 acquires the learning image I(t).
Next, in step S12, the label assigning unit 12 acquires the label image L(t) corresponding to the learning image I(t). As mentioned above, the label image may be manually generated by the user of the device. The acquired label image L(t) is output to the first discriminator 131 and the second discriminator 132.
Next, in step S13, the first discriminator 131 performs learning by the above-described method based on the acquired learning image I(t) and label image L(t).
Next, in step S14, the second discriminator 132 performs learning by the method described above based on the acquired label image L(t).

次に、学習済みの識別部13を用いて、路上障害物の有無を判定する方法について説明する。
図9は、学習済みの識別部13を用いて、評価用画像を評価し、路上障害物の存在を判定する処理の流れを示すフローチャートである。評価用画像は、路上障害物の存在が不明な画像である。評価用画像は、例えば、車両に搭載されたカメラからリアルタイムで供給されてもよい。
Next, a method for determining the presence/absence of a road obstacle by using the learned identification unit 13 will be described.
FIG. 9 is a flowchart showing a flow of processing of evaluating the evaluation image and determining the presence of a road obstacle by using the learned identification unit 13. The evaluation image is an image in which the presence of an obstacle on the road is unknown. The evaluation image may be supplied in real time from, for example, a camera mounted on the vehicle.

まず、ステップS21で、画像取得部11が、評価用画像I’(t)を取得する。
次に、ステップS22で、第一識別器131が、入力された評価用画像I’(t)に基づいて、確率分布P1,mを生成する。
First, in step S21, the image acquisition unit 11 acquires the evaluation image I′(t).
Next, in step S22, the first discriminator 131 generates a probability distribution P 1,m based on the input evaluation image I′(t).

第一識別器131が生成した確率分布P1,mは、異常判定部14および第二識別器13
2へ出力される。
ステップS23では、まず、第二識別器132が、確率分布P1,mからラベル画像L’(t)を生成する。ラベル画像L’(t)中の任意の座標におけるラベルm’は、確率P1,mにおける尤度が最大となるラベルである。すなわち、式(2)によって算出することができる。

Figure 2020087037
The probability distribution P 1,m generated by the first discriminator 131 is the abnormality determination unit 14 and the second discriminator 13.
2 is output.
In step S23, first, the second discriminator 132 generates a label image L′(t) from the probability distribution P 1,m . A label m′ at an arbitrary coordinate in the label image L′(t) is a label having the maximum likelihood at the probability P 1,m . That is, it can be calculated by the equation (2).
Figure 2020087037

次に、第二識別器132が、生成したラベル画像L’(t)に基づいてラベルの確率分布P2,mを生成する。第二識別器132が生成した確率分布P2,mは、異常判定部14へ出力される。 Next, the second classifier 132 generates a label probability distribution P 2,m based on the generated label image L′(t). The probability distribution P 2,m generated by the second classifier 132 is output to the abnormality determination unit 14.

次に、ステップS24で、異常判定部14が、ステップS22で得られた確率分布P1,mと、ステップS23で得られた確率分布P2,mに基づいて、第一の尤度S1を算出する
。第一の尤度S1は、式(3)のように、差の二乗和によって求めることができる。

Figure 2020087037
Next, in step S24, the abnormality determination unit 14 determines the first likelihood S 1 based on the probability distribution P 1,m obtained in step S22 and the probability distribution P 2,m obtained in step S23. To calculate. The first likelihood S 1 can be obtained by the sum of squared differences, as in Expression (3).
Figure 2020087037

第一の尤度S1(x,y)は、評価用画像I’(t)中の座標(x,y)における、第
一識別器131と第二識別器132の識別結果の解離度を示す。第一識別器131が出力した確率分布と、第二識別器132が出力した確率分布が乖離しているこということは、画素の特徴に基づいて識別を行った結果と、当該結果にラベルの共起性を加味した結果とが異なることを意味する。
正常画像におけるラベルの共起性を加味した識別結果が、元の識別結果から乖離していることは、第一識別器131が出力した確率分布が、正常画像を入力した場合に得られる確率分布とは異なる傾向を有していることを意味する。従って、第一の尤度S1の大きさ
に基づいて、評価用画像中に未知の物体が存在する尤度を推定することができる。
The first likelihood S 1 (x, y) is the dissociation degree of the discrimination results of the first discriminator 131 and the second discriminator 132 at the coordinates (x, y) in the evaluation image I′(t). Show. The difference between the probability distribution output by the first discriminator 131 and the probability distribution output by the second discriminator 132 means that the result of discrimination based on the characteristics of the pixel and the label of the result. It means that the result of considering co-occurrence is different.
The fact that the identification result considering the label co-occurrence in the normal image deviates from the original identification result means that the probability distribution output by the first discriminator 131 is a probability distribution obtained when the normal image is input. Means having different tendencies. Therefore, the likelihood that an unknown object exists in the evaluation image can be estimated based on the magnitude of the first likelihood S 1 .

このようにして得られた結果は、路上障害物の検出結果を活用するシステム、たとえば、車両運転支援システム内のプログラム等に伝達される。 The result obtained in this way is transmitted to a system that utilizes the detection result of a road obstacle, for example, a program in a vehicle driving support system.

路上障害物の検出結果を活用するシステムでは、例えば、第一の尤度S1が所定の閾値
よりも大きい領域を特定し、評価用画像と重畳させることで、路上障害物を明示することができる。所定の閾値は、例えば、第一の尤度S1におけるクラス内分散を最小化し、ク
ラス間分散を最大化する値に設定してもよい(判別分析法)。
In a system that utilizes the detection result of a road obstacle, for example, a region in which the first likelihood S 1 is larger than a predetermined threshold value is specified and superimposed on the evaluation image, so that the road obstacle can be clearly indicated. it can. The predetermined threshold may be set, for example, to a value that minimizes the intra-class variance and maximizes the inter-class variance in the first likelihood S 1 (discriminant analysis method).

かかる構成によると、図10(A)に示したように、路上障害物の存在が疑われる領域(白色領域)と、それ以外の領域(黒色領域)を分割できるようになる。また、この結果を用いることで、図10(B)に示したように、路上障害物の候補領域を強調する画像処理を行うことができる。
さらに、路上障害物として検出した領域をネットワーク経由で他の装置(例えば、サーバ装置や後方車両)に伝達し、注意喚起をしてもよい。
With this configuration, as shown in FIG. 10A, it is possible to divide the area (white area) where the presence of a road obstacle is suspected and the other area (black area). Further, by using this result, as shown in FIG. 10B, it is possible to perform image processing that emphasizes the candidate area of the road obstacle.
Furthermore, the area detected as a road obstacle may be transmitted to another device (for example, a server device or a rear vehicle) via a network to call attention.

(第二の実施形態)
第一の実施形態では、画素の特徴を学習した第一識別器と、対象座標の周辺におけるラベルの共起性を学習した第二識別器を併用して路上障害物の判定を行った。これに対し、第二の実施形態は、対象座標の周辺における特徴ベクトルの類似度を学習した第三識別器(本発明における第二タイプ識別器)をさらに併用して路上障害物の判定を行う実施形態
である。
(Second embodiment)
In the first embodiment, the first discriminator that has learned the characteristics of pixels and the second discriminator that has learned the co-occurrence of labels around the target coordinates are used together to make a road obstacle determination. On the other hand, in the second embodiment, a third discriminator (second type discriminator in the present invention) that has learned the similarity of the feature vectors around the target coordinates is further used to determine the road obstacle. It is an embodiment.

図11Aおよび図11Bは、第二の実施形態に係る識別装置10の機能構成を示すブロック図である。図11Aは、学習モードにおけるデータの流れを示した図であり、図11Bは、評価モードにおけるデータの流れを示した図である。 11A and 11B are block diagrams showing the functional configuration of the identification device 10 according to the second embodiment. FIG. 11A is a diagram showing a data flow in the learning mode, and FIG. 11B is a diagram showing a data flow in the evaluation mode.

第一の実施形態では、第二識別器132が、正常画像に対して正解ラベルを付与して得られるラベル画像に基づいて、正常画像における意味的ラベルの共起性を学習した。これに対し、第三識別器133は、正常画像を第一識別器131に入力して得られる確率分布に基づいて、正常画像における意味的ラベルの類似度を学習する。 In the first embodiment, the second classifier 132 learned the co-occurrence of the semantic label in the normal image based on the label image obtained by assigning the correct label to the normal image. On the other hand, the third classifier 133 learns the degree of similarity of the semantic labels in the normal image based on the probability distribution obtained by inputting the normal image to the first classifier 131.

第三識別器133は、座標(x,y)周辺における確率分布P1,mの統計的分布と、当
該座標における意味的ラベルmとの関係性を学習することで得られる。すなわち、第三識別器133は、「正常画像を第一識別器131に入力した場合において、ある座標の周辺においてどのような意味的ラベルが出現しやすいか」を学習する識別器であると言える。換言すると、第三識別器133は、正常画像を入力した第一識別器131が出力する確率分布の傾向を学習する識別器であると言える。
The third discriminator 133 is obtained by learning the relationship between the statistical distribution of the probability distribution P 1,m around the coordinates (x, y) and the semantic label m at the coordinates. That is, the third discriminator 133 can be said to be a discriminator that learns "what kind of semantic label is likely to appear around certain coordinates when a normal image is input to the first discriminator 131". .. In other words, the third classifier 133 can be said to be a classifier that learns the tendency of the probability distribution output by the first classifier 131 that has input a normal image.

第三識別器133は、第二識別器132と同様に、ランダムフォレストを用いて学習させることができる。 Like the second classifier 132, the third classifier 133 can perform learning using a random forest.

図12を参照しながら説明する。
ランダムフォレストの学習に必要な判定条件の候補φc(c=1,…,C)は、座標(
x,y)を始点とする2つのオフセットベクトル(ra,rb)を無作為に設定し、当該ベクトルの終点(a,b)における確率分布(P1,m(a),P1,m(b))に基づいて、確率分布ベクトルvaおよびvbを算出し、vaおよびvbのなす角度θに基づいて設定する。
ここで、va=(P1,1(a),…,P1,M(a))とし、vb=(P1,1(b),…,P1,M(b))とする。また、角度θの閾値をτとする。
This will be described with reference to FIG.
Candidate conditions φ c (c=1,..., C) necessary for learning the random forest are coordinates (
Two offset vectors (r a , r b ) starting from (x, y) are randomly set, and probability distributions (P 1,m (a), P 1, ) at the end points (a, b) of the vectors are set . The probability distribution vectors v a and v b are calculated based on m (b)), and set based on the angle θ formed by v a and v b .
Here, v a =(P 1,1 (a),..., P 1,M (a)) and v b =(P 1,1 (b),..., P 1,M (b)) To do. Further, the threshold value of the angle θ is τ.

ここで、判定条件(ra,rb,τ)を設定したとする。
図12(A)に示したように、点aにおける確率分布ベクトルvaと、点bにおける確
率分布ベクトルvbとのなす角度θ>τが成立する場合、右側のノードに遷移する。
一方、図12(B)に示したように、点bにおける確率分布ベクトルvaと、点bにお
ける確率分布ベクトルvbとのなす角度θ>τが成立しない場合、左側のノードに遷移す
る。
なお、確率分布ベクトルvaと、確率分布ベクトルvbとのなす角度θは、式(4)によって算出できる。

Figure 2020087037
Here, it is assumed that the determination condition (r a , r b , τ) is set.
As shown in FIG. 12A, when the angle θ>τ formed by the probability distribution vector v a at the point a and the probability distribution vector v b at the point b is satisfied, the node transits to the right node.
On the other hand, as shown in FIG. 12B, when the angle θ>τ formed by the probability distribution vector v a at the point b and the probability distribution vector v b at the point b is not satisfied, the node transits to the left node.
The angle θ formed by the probability distribution vector v a and the probability distribution vector v b can be calculated by the equation (4).
Figure 2020087037

ここで、θが0に近い場合、点aにおける確率分布ベクトルと、点bにおける確率分布ベクトルとの間に類似性があることが推定される。一方、θがπ/2に近い場合、点aにおける確率分布ベクトルと、点bにおける確率分布ベクトルとの間に類似性がないことが推定される。すなわち、適切な閾値τを設定することにより、点aにおける確率分布ベクトルと、点bにおける確率分布ベクトルとの間の類似性を判定することができる。 Here, when θ is close to 0, it is estimated that there is similarity between the probability distribution vector at the point a and the probability distribution vector at the point b. On the other hand, when θ is close to π/2, it is estimated that there is no similarity between the probability distribution vector at the point a and the probability distribution vector at the point b. That is, by setting an appropriate threshold value τ, the similarity between the probability distribution vector at the point a and the probability distribution vector at the point b can be determined.

第三識別器133を学習させることで、第一識別器131が出力した確率分布P1,m
入力すると、画像に含まれる画素のそれぞれについて、意味的ラベルの確率分布P3,m
出力する識別器を得ることができる。
When the probability distribution P 1,m output from the first classifier 131 is input by learning the third classifier 133, the probability distribution P 3,m of the semantic label is output for each pixel included in the image. It is possible to obtain a discriminator that

図13は、第二の実施形態において、複数の画像を用いて第一識別器131,第二識別器132,第三識別器133を学習させる処理の流れを示すフローチャートである。なお、第一の実施形態と同様の処理については、点線で図示し、説明を省略する。 FIG. 13 is a flowchart showing a flow of processing for learning the first discriminator 131, the second discriminator 132, and the third discriminator 133 using a plurality of images in the second embodiment. Note that the same processing as that of the first embodiment is illustrated by the dotted line, and the description thereof will be omitted.

第二の実施形態では、ステップS14が完了した後で、第一識別器131に再度学習用画像を入力し、評価を行う。この結果得られた確率分布P1,mを、第三識別器133に入
力し、前述した方法によって学習を行う。
In the second embodiment, after step S14 is completed, the learning image is input again to the first discriminator 131, and evaluation is performed. The probability distribution P 1,m obtained as a result is input to the third discriminator 133, and learning is performed by the method described above.

図14は、学習済みの識別部13を用いて、評価用画像を評価し、路上障害物の存在を判定する処理の流れを示すフローチャートである。
第二の実施形態では、ステップS23が完了した後で、第一識別器131によって生成された確率分布P1,mを第三識別器133に入力し、確率分布P3,mを得る(ステップS23A)。
FIG. 14 is a flowchart showing a flow of processing for evaluating the evaluation image and determining the presence of a road obstacle by using the learned identification unit 13.
In the second embodiment, after the step S23 is completed, the probability distribution P 1,m generated by the first classifier 131 is input to the third classifier 133 to obtain the probability distribution P 3,m (step S23A).

第一の実施形態では、ステップS24で、確率分布P1,mと確率分布P2,mの解離度に基づいて、第一の尤度S1を算出した。
これに対し、第二の実施形態では、確率分布P1,mと確率分布P2,mの解離度に基づいて、第一の尤度S1を算出し、かつ、確率分布P1,mと確率分布P3,mの解離度に基づいて、
第二の尤度S2を算出する。また、第一の尤度S1と第二の尤度S2を統合し、最終的な尤
度(統合尤度S)を算出する(ステップS24A)。
第二の尤度S2は、式(5)のように、差の二乗和によって求めることができる。

Figure 2020087037
In the first embodiment, in step S24, the first likelihood S 1 is calculated based on the dissociation degree of the probability distribution P 1,m and the probability distribution P 2,m .
On the other hand, in the second embodiment, the first likelihood S 1 is calculated based on the dissociation degree of the probability distribution P 1,m and the probability distribution P 2,m , and the probability distribution P 1,m And the dissociation degree of the probability distribution P 3,m ,
The second likelihood S 2 is calculated. Further, the first likelihood S 1 and the second likelihood S 2 are integrated to calculate the final likelihood (integrated likelihood S) (step S24A).
The second likelihood S 2 can be obtained by the sum of squares of the differences, as in Expression (5).
Figure 2020087037

第二の実施形態では、異常判定部14が、第一の尤度S1と第二の尤度S2に基づいて、評価用画像I’(t)の座標(x,y)における統合尤度S(x,y)を算出する。統合尤度Sは、例えば、式(6)のように、第一の尤度S1と第二の尤度S2の和であってもよいし、式(7)のように、第一の尤度S1と第二の尤度S2の積であってもよい。
S(x,y)=S1(x,y)+S2(x,y) ・・・式(6)
S(x,y)=S1(x,y)・S2(x,y) ・・・式(7)
In the second embodiment, the abnormality determination unit 14 calculates the integrated likelihood at the coordinates (x, y) of the evaluation image I′(t) based on the first likelihood S 1 and the second likelihood S 2. The degree S(x,y) is calculated. The integrated likelihood S may be the sum of the first likelihood S 1 and the second likelihood S 2 as in Equation (6), or may be the first likelihood S 1 as in Equation (7). It may be a product of the likelihood S 1 and the second likelihood S 2 .
S(x,y)=S 1 (x,y)+S 2 (x,y) (6)
S(x, y)=S 1 (x, y)·S 2 (x, y) (7)

(有利な効果)
第二識別器132および第三識別器133は、共に、「正常画像(路上障害物を含まない画像)を第一識別器131に入力して得られる確率分布の傾向」を学習する識別器であると言える。このような識別器に、第一識別器131が出力した確率分布を入力し、得られた確率分布を、元の確率分布と比較することで、「第一識別器が、学習時の傾向から外れたものを出力している」ことを検知することができる。すなわち、第一識別器のみでは路上障害物を正しく検知できない場合であっても、「未知の物体に起因して、第一識別器が誤判定を起こしている」ことを推定することができる。
また、路上障害物に対する尤度を画素ごとに算出できるため、路上障害物の存在が疑われる領域をユーザに明示することができる。
(Advantageous effect)
The second discriminator 132 and the third discriminator 133 are both discriminators that learn "a tendency of a probability distribution obtained by inputting a normal image (an image that does not include road obstacles) to the first discriminator 131". It can be said that there is. By inputting the probability distribution output from the first classifier 131 to such a classifier and comparing the obtained probability distribution with the original probability distribution, “the first classifier is determined from the tendency at the time of learning. It is possible to detect that "the output is out of line". That is, even when the road obstacle cannot be correctly detected only by the first discriminator, it can be estimated that "the first discriminator is erroneously determined due to an unknown object".
Further, since the likelihood for a road obstacle can be calculated for each pixel, it is possible to clearly indicate to the user the area where the existence of a road obstacle is suspected.

(変形例)
上記の実施形態はあくまでも一例であって、本発明はその要旨を逸脱しない範囲内で適宜変更して実施しうる。
例えば、第二の実施形態では、第一識別器131と第二識別器132、第三識別器133を併用したが、第一識別器131と第三識別器133のみを利用してもよい。この場合
、第二の尤度S2のみを用いて異常判定を行うようにしてもよい。
(Modification)
The above-described embodiment is merely an example, and the present invention can be appropriately modified and implemented without departing from the scope of the invention.
For example, in the second embodiment, the first discriminator 131, the second discriminator 132, and the third discriminator 133 are used together, but only the first discriminator 131 and the third discriminator 133 may be used. In this case, the abnormality determination may be performed using only the second likelihood S 2 .

本発明は、前述した手段の少なくとも一部を備える識別装置として捉えることができる。また、本発明は、上記処理の少なくとも一部を実行する識別方法として捉えることもできる。 The present invention can be understood as an identification device including at least a part of the above-mentioned means. Further, the present invention can be understood as an identification method that executes at least a part of the above processing.

本発明における識別装置10は、半導体集積回路(LSI)による実装に限定されず、汎用的なマイクロプロセッサやメモリを有するコンピュータがプログラムを実行することによって実現されても構わない。 The identification device 10 in the present invention is not limited to mounting by a semiconductor integrated circuit (LSI), and may be realized by a computer having a general-purpose microprocessor or memory executing a program.

また、実施形態の説明では、路上障害物を検出する構成を挙げたが、正常画像中に存在しない物体を検出するものであれば、路上障害物以外を対象としてもよい。例えば、画像に何らかの異常物体が含まれていることを検知する識別装置として発明を実施することもできる。 Further, in the description of the embodiment, the configuration in which the obstacle on the road is detected has been described, but any object other than the obstacle on the road may be used as long as it detects an object that does not exist in the normal image. For example, the invention can be implemented as an identification device that detects that an image contains some abnormal object.

また、実施形態の説明では、同一の装置が学習処理と評価処理の双方を行ったが、学習処理を行う装置と、評価処理を行う装置が分かれていてもよい。さらに、識別装置10から、学習処理に関連した手段を省いてもよい。例えば、例示した識別装置10から、学習に関する手段を省略し、評価処理のみを行う装置(識別装置)として実施してもよい。
この場合、学習済みの識別部13(または、識別部13が有する識別器)を装置から論理的に切り離し、別の装置に組み込み可能に構成してもよい。例えば、実施形態に係る識別装置10によって学習された識別部13を、評価処理のみを行う装置に組み込めるようにしてもよい。
また、反対に、学習処理のみを行う装置として発明を実施してもよい。
Further, in the description of the embodiment, the same device performs both the learning process and the evaluation process, but the device that performs the learning process and the device that performs the evaluation process may be separated. Further, means related to the learning process may be omitted from the identification device 10. For example, the learning device may be omitted from the illustrated identification device 10 and may be implemented as a device (identification device) that performs only the evaluation process.
In this case, the learned discriminator 13 (or the discriminator included in the discriminator 13) may be logically separated from the device so that it can be incorporated into another device. For example, the identification unit 13 learned by the identification device 10 according to the embodiment may be incorporated into a device that performs only the evaluation process.
On the contrary, the invention may be implemented as an apparatus that performs only the learning process.

10・・・識別装置
11・・・画像取得部
12・・・ラベル付与部
13・・・識別部
131・・・第一識別器
132・・・第二識別器
14・・・異常判定部
10... Identification device 11... Image acquisition unit 12... Labeling unit 13... Identification unit 131... First discriminator 132... Second discriminator 14... Abnormality determination unit

Claims (8)

画像に含まれる異常物体の存在を判定する識別装置であって、
前記異常物体を含まない画像である第一の画像に含まれる画素の特徴を学習した結果に基づいて、入力画像に含まれる複数の画素のそれぞれに対してラベルを推定し、複数のラベルの確率分布を画素ごとに表した第一の確率分布を出力する第一タイプ識別器と、
前記第一の画像に含まれる複数の画素の周辺におけるラベルの関係性を学習した結果に基づいて、前記第一の確率分布から、第二の確率分布を生成する第二タイプ識別器と、
第二の画像を前記第一タイプ識別器に入力して得られた前記第一の確率分布と、前記第一の確率分布を前記第二タイプ識別器に入力して得られた前記第二の確率分布と、の解離度に基づいて、前記第二の画像中に前記異常物体が存在することを判定する判定手段と、
を有する、識別装置。
An identification device for determining the presence of an abnormal object included in an image,
Based on the result of learning the characteristics of the pixels included in the first image that is an image that does not include the abnormal object, the label is estimated for each of the plurality of pixels included in the input image, and the probability of the plurality of labels is estimated. A first type discriminator which outputs a first probability distribution representing a distribution for each pixel,
Based on the result of learning the relationship of labels in the vicinity of a plurality of pixels included in the first image, from the first probability distribution, a second type classifier that generates a second probability distribution,
The first probability distribution obtained by inputting a second image to the first type discriminator, and the second probability obtained by inputting the first probability distribution to the second type discriminator. Probability distribution, based on the dissociation degree of, the determination means for determining that the abnormal object is present in the second image,
And an identification device.
前記第二タイプ識別器は、前記ラベルの関係性として、前記ラベルの共起性または類似性を学習した識別器である、
請求項1に記載の識別装置。
The second type discriminator is a discriminator that has learned the co-occurrence or similarity of the labels as the relationship of the labels,
The identification device according to claim 1.
前記第二タイプ識別器は、前記第一の画像を前記第一タイプ識別器に入力して得られる前記第一の確率分布を学習データとして学習した識別器である、
請求項1または2に記載の識別装置。
The second type classifier is a classifier that has learned the first probability distribution obtained by inputting the first image to the first type classifier as learning data.
The identification device according to claim 1 or 2.
前記第二タイプ識別器は、前記第一の画像を前記第一タイプ識別器に入力して得られる前記第一の確率分布を学習データとして、前記第一の画像に含まれる複数の画素の周辺における前記ラベルの類似性を学習した識別器である、
請求項1に記載の識別装置。
The second type discriminator uses, as learning data, the first probability distribution obtained by inputting the first image to the first type discriminator, and around a plurality of pixels included in the first image. Is a classifier that has learned the similarity of the labels in
The identification device according to claim 1.
前記第二タイプ識別器は、前記第一の画像に正解ラベルを付与した第一のラベル画像を学習データとして、前記第一の画像に含まれる複数の画素の周辺における前記ラベルの共起性を学習した識別器である、
請求項1に記載の識別装置。
The second type discriminator uses the first label image in which the correct label is given to the first image as learning data, and determines the co-occurrence of the label around a plurality of pixels included in the first image. Is a learned discriminator,
The identification device according to claim 1.
画像に含まれる異常物体の存在を判定する識別方法であって、
前記異常物体を含まない画像である第一の画像に含まれる画素の特徴を学習した結果に基づいて、入力画像に含まれる複数の画素のそれぞれに対してラベルを推定し、複数のラベルの確率分布を画素ごとに表した第一の確率分布を出力する第一の識別ステップと、
前記第一の画像に含まれる複数の画素の周辺におけるラベルの関係性を学習した結果に基づいて、前記第一の確率分布から、第二の確率分布を生成する第二の識別ステップと、
第二の画像を前記第一の識別ステップで処理して得られた前記第一の確率分布と、前記第一の確率分布を前記第二の識別ステップで処理して得られた前記第二の確率分布と、の解離度に基づいて、前記第二の画像中に前記異常物体が存在することを判定する判定ステップと、
を含む、識別方法。
An identification method for determining the presence of an abnormal object included in an image,
Based on the result of learning the characteristics of the pixels included in the first image that is an image that does not include the abnormal object, the label is estimated for each of the plurality of pixels included in the input image, and the probability of the plurality of labels is estimated. A first identification step of outputting a first probability distribution expressing a distribution for each pixel;
Based on the result of learning the relationship of labels in the vicinity of a plurality of pixels included in the first image, from the first probability distribution, a second identification step of generating a second probability distribution,
The first probability distribution obtained by processing the second image in the first identification step, and the second probability distribution obtained by processing the first probability distribution in the second identification step. Probability distribution, based on the dissociation degree of, the determination step of determining that the abnormal object is present in the second image,
Identification method, including.
請求項6に記載の識別方法をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute the identification method according to claim 6. 画像に含まれる異常物体の存在を判定する識別装置であって、
前記異常物体を含まない画像である第一の画像に含まれる画素の特徴を学習した結果に基づいて、入力画像に含まれる複数の画素のそれぞれに対してラベルを推定し、複数のラベルの確率分布を画素ごとに表した第一の確率分布を出力する第一タイプ識別器と、
前記第一の画像を前記第一タイプ識別器に入力した場合に前記第一タイプ識別器が出力
する前記第一の確率分布の傾向を学習した結果に基づいて、前記第一の確率分布から、第二の確率分布を生成する第二タイプ識別器と、
第二の画像を前記第一タイプ識別器に入力して得られた前記第一の確率分布と、前記第一の確率分布を前記第二タイプ識別器に入力して得られた前記第二の確率分布と、の解離度に基づいて、前記第二の画像中に前記異常物体が存在することを判定する判定手段と、
を有する、識別装置。
An identification device for determining the presence of an abnormal object included in an image,
Based on the result of learning the characteristics of the pixels included in the first image that is an image that does not include the abnormal object, the label is estimated for each of the plurality of pixels included in the input image, and the probability of the plurality of labels is estimated. A first type discriminator which outputs a first probability distribution representing a distribution for each pixel,
Based on the result of learning the tendency of the first probability distribution output by the first type discriminator when the first image is input to the first type discriminator, from the first probability distribution, A second type discriminator that generates a second probability distribution,
The first probability distribution obtained by inputting a second image to the first type discriminator, and the second probability obtained by inputting the first probability distribution to the second type discriminator. Probability distribution, based on the dissociation degree of, the determination means for determining that the abnormal object is present in the second image,
And an identification device.
JP2018221561A 2018-11-27 2018-11-27 Identification apparatus and identification method Pending JP2020087037A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018221561A JP2020087037A (en) 2018-11-27 2018-11-27 Identification apparatus and identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018221561A JP2020087037A (en) 2018-11-27 2018-11-27 Identification apparatus and identification method

Publications (1)

Publication Number Publication Date
JP2020087037A true JP2020087037A (en) 2020-06-04

Family

ID=70908276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018221561A Pending JP2020087037A (en) 2018-11-27 2018-11-27 Identification apparatus and identification method

Country Status (1)

Country Link
JP (1) JP2020087037A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11983936B2 (en) 2021-03-29 2024-05-14 Honda Motor Co., Ltd. Data collection device, vehicle control device, data collection system, data collection method, and storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11983936B2 (en) 2021-03-29 2024-05-14 Honda Motor Co., Ltd. Data collection device, vehicle control device, data collection system, data collection method, and storage medium

Similar Documents

Publication Publication Date Title
US10025998B1 (en) Object detection using candidate object alignment
US9400936B2 (en) Methods and systems for vehicle tag number recognition
US8548201B2 (en) Apparatus and method for recognizing identifier of vehicle
US8873856B1 (en) Determining a class associated with an image
US8934676B2 (en) Robust character segmentation for license plate images
JP4999101B2 (en) How to combine boost classifiers for efficient multi-class object detection
US11087153B2 (en) Traffic light recognition system and method
WO2020048265A1 (en) Methods and apparatuses for multi-level target classification and traffic sign detection, device and medium
JP5127392B2 (en) Classification boundary determination method and classification boundary determination apparatus
US9805277B2 (en) Apparatus and method for detecting bar-type traffic sign in traffic sign recognition system
KR102089298B1 (en) System and method for recognizing multinational license plate through generalized character sequence detection
US10824881B2 (en) Device and method for object recognition of an input image for a vehicle
US8718362B2 (en) Appearance and context based object classification in images
JP7327077B2 (en) Road obstacle detection device, road obstacle detection method, and road obstacle detection program
JP2005311691A (en) Apparatus and method for detecting object
WO2016059643A1 (en) System and method for pedestrian detection
Karaimer et al. Detection and classification of vehicles from omnidirectional videos using multiple silhouettes
CN113255651A (en) Package security check method, device and system, node equipment and storage device
CN110235177B (en) Image processing device, image recognition device, and storage medium
JP2020087037A (en) Identification apparatus and identification method
Kos et al. Where to look for tiny objects? ROI prediction for tiny object detection in high resolution images
Ranganayaki et al. Machine Learning Approaches on Pedestrian Detection in an autonomous vehicle
KR101936108B1 (en) Method and apparatus for detecting traffic sign
Satti et al. Recognizing the Indian Cautionary Traffic Signs using GAN, Improved Mask R‐CNN, and Grab Cut
EP3392797B1 (en) Device for determining vehicle navigation information