JP6350018B2 - Object detection device and element selection device - Google Patents

Object detection device and element selection device Download PDF

Info

Publication number
JP6350018B2
JP6350018B2 JP2014130341A JP2014130341A JP6350018B2 JP 6350018 B2 JP6350018 B2 JP 6350018B2 JP 2014130341 A JP2014130341 A JP 2014130341A JP 2014130341 A JP2014130341 A JP 2014130341A JP 6350018 B2 JP6350018 B2 JP 6350018B2
Authority
JP
Japan
Prior art keywords
data
feature
elements
histogram
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014130341A
Other languages
Japanese (ja)
Other versions
JP2016009379A (en
Inventor
一樹 加藤
一樹 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2014130341A priority Critical patent/JP6350018B2/en
Publication of JP2016009379A publication Critical patent/JP2016009379A/en
Application granted granted Critical
Publication of JP6350018B2 publication Critical patent/JP6350018B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、対象物検出装置及び要素選択装置に関する。   The present invention relates to an object detection device and an element selection device.

従来、車両に搭載されたカメラやLidarなどのセンサで取得された情報(観測データ)から、車両外部の歩行者や他の車両などの対象物を識別する技術が提案されている。このような対象物を識別する技術の一例として、予め作成された識別器(モデル)により、観測データをマッチングする方法がある。   Conventionally, a technique for identifying an object such as a pedestrian outside the vehicle or another vehicle from information (observation data) acquired by a sensor such as a camera or Lidar mounted on the vehicle has been proposed. As an example of a technique for identifying such an object, there is a method of matching observation data with a classifier (model) created in advance.

識別器は予め学習データとしてPosデータ(識別対象のデータ)とNegデータ(識別対象以外のデータ)を用いて学習を行うことで作成することができ、特徴量の形で表されることが一般的である。   The discriminator can be created by learning in advance using Pos data (data to be discriminated) and Neg data (data other than the discriminating target) as learning data, and is generally expressed in the form of feature values. Is.

特徴量とは、入力されたデータを変換して得られる物体の特徴を表すパラメータであって、代表的な特徴量としてHoGやSIFTが挙げられる。この入力データを特徴量に変換したものと識別器との内積計算(高次元のベクトル演算)を、画像の注目位置を変更しながら実施し、各位置で類似度を計算する。その後、各注目画素位置で計算された類似度を閾値処理することで対象物体を識別することが可能となる。   The feature amount is a parameter representing the feature of an object obtained by converting input data, and representative features include HoG and SIFT. The inner product calculation (high-dimensional vector calculation) between the input data converted into the feature quantity and the discriminator is performed while changing the target position of the image, and the similarity is calculated at each position. Thereafter, the target object can be identified by performing threshold processing on the similarity calculated at each target pixel position.

識別器を用いることによって高い精度での対象物の識別が可能となるが、高次元の内積計算をする必要があるため処理負荷が高くなり、処理時間が長くなってしまいやすい。このような課題を解決するためには、内積計算を行う特徴次元を圧縮することが考えられる。   By using a discriminator, it is possible to identify an object with high accuracy. However, since it is necessary to perform a high-dimensional inner product calculation, the processing load increases and the processing time tends to increase. In order to solve such a problem, it is conceivable to compress the feature dimension for performing the inner product calculation.

例えば、入力のパターンの特徴量をその要素のベクトルに分解し、それぞれの特徴ベクトルについて各々判別分析によって得られる判別行列を予め用意する。その判別行列によって規定される判別空間に観測データから生成した各特徴ベクトルを射影して次元を圧縮した後に、得られた特徴ベクトルを合わせて、再度判別行列によって再度射影することによって、特徴ベクトルの次元を圧縮する方法が提案されている(特許文献1参照)。これにより、特徴量の次元をS次元からT次元(S>T)に圧縮することができる。   For example, the feature quantity of the input pattern is decomposed into its element vector, and a discrimination matrix obtained by discriminant analysis for each feature vector is prepared in advance. After projecting each feature vector generated from the observation data into the discriminant space defined by the discriminant matrix and compressing the dimensions, the obtained feature vectors are combined and projected again using the discriminant matrix. A method of compressing dimensions has been proposed (see Patent Document 1). Thereby, the dimension of the feature amount can be compressed from the S dimension to the T dimension (S> T).

特開2009−140513号公報JP 2009-140513 A

特許文献1の技術では、特徴量計算の際、予め1度S次元の特徴量を計算した後、T次元に次元圧縮する。そのため、次元圧縮された特徴量と識別器との内積計算については高速化が可能であるものの、そもそも次元圧縮された特徴量を算出する段階においてメモリ使用量増加や処理時間の増加という問題が発生してしまう。   In the technique of Patent Document 1, after calculating an S-dimensional feature quantity once in advance, the dimension compression is performed to the T dimension. Therefore, although it is possible to increase the speed of the inner product calculation between the dimensionally compressed feature quantity and the classifier, there is a problem that the memory usage increases and the processing time increases at the stage of calculating the dimensionally compressed feature quantity in the first place. Resulting in.

本発明の目的は、処理負荷の低減を図ることができる対象物検出装置及び要素選択装置を提案することである。   An object of the present invention is to propose an object detection device and an element selection device that can reduce the processing load.

本開示の第1の態様は、特徴量取得手段(11、S42)と、2値化手段(11、S
45)と、検出手段(11、S46、S47)とを備える対象物検出装置である。
特徴量取得手段は、観測手段(3)により取得されるデータであって対象物の存在により変化する観測データから取得可能な特徴量の複数の要素を観測データから取得する。
The first aspect of the present disclosure includes feature amount acquisition means (11, S42) and binarization means (11, S
45) and a detection means (11, S46, S47).
The feature quantity acquisition unit acquires, from the observation data, a plurality of elements of the feature quantity that can be acquired from the observation data that is acquired by the observation unit (3) and varies depending on the presence of the object.

2値化手段は、特徴量取得手段により取得された複数の特徴量の要素に基づいて、その特徴量の各要素について所定の閾値を基準として2値(一例として、「0」又は「1」で示される値)化された2値化特徴量を算出する。   Based on a plurality of feature quantity elements acquired by the feature quantity acquisition means, the binarization means binarizes each element of the feature quantity with a predetermined threshold as a reference (for example, “0” or “1” The binarized feature value converted into a value shown in FIG.

検出手段は、2値化手段により算出された複数の2値化特徴量と、予め準備された対象物モデルと、の類似度合に基づいて対象物を検出する。
そして上記2値化手段は、各要素に対して予めそれぞれ定められた閾値を用いて特徴量の要素の2値化を行うことを特徴とする。
The detecting means detects the object based on the degree of similarity between the plurality of binarized feature amounts calculated by the binarizing means and the object model prepared in advance.
The binarizing means binarizes the elements of the feature amount using a predetermined threshold for each element.

このように構成された対象物検出装置は、観測手段により取得された観測データから取得された特徴量を2値化した値を用いて対象物の検出処理を実行する。そのため、観測データの全域から取得した2値化していない特徴量と対象物モデルとの類似度合に基づき対象物を検出する場合と比較すると、内積計算の高速化や、特徴量を浮動小数点ではなく2値で表せることによる処理時のメモリ使用量の低減など、処理負荷の低減を図ることができる。   The object detection apparatus configured as described above executes the object detection process using a binarized value of the feature amount acquired from the observation data acquired by the observation unit. Therefore, compared to the case of detecting an object based on the degree of similarity between a non-binarized feature quantity acquired from the entire observation data and the object model, the inner product calculation is faster and the feature quantity is not a floating point. The processing load can be reduced, such as a reduction in memory usage during processing by being expressed in binary.

本開示の第2の態様は、要素選択手段(11、S3−S8)を備える要素選択装置である。要素選択手段は、観測手段(3)により取得されるデータであって対象物の存在により変化する観測データから取得可能な特徴量の複数の要素のうちいずれか1つ以上を用いて、観測データと予め準備された対象物モデルとの類似度合に基づいて観測データから対象物を検出する検出手段(11、S25、S26)において用いられる上記複数の要素を選択する。 The 2nd mode of this indication is an element selection device provided with element selection means (11, S3-S8). The element selection means is data obtained by the observation means (3), and uses any one or more of the plurality of elements of the feature quantity that can be obtained from the observation data that changes depending on the presence of the target object. The plurality of elements used in the detecting means (11, S25, S26) for detecting the object from the observation data based on the similarity between the object model and the object model prepared in advance.

この要素選択手段は、上記複数の要素それぞれについて、観測データが上記対象物の存在する観測データであるか否かの識別に当該要素が有用であると判定された要素を特徴量の複数の要素の中から選択することを特徴とする。   For each of the plurality of elements, the element selection means selects an element determined to be useful for identifying whether or not the observation data is observation data in which the object is present, It is characterized by selecting from.

このように構成された要素選択装置は、観測データが上記対象物の存在する観測データであるか否かの識別に当該要素が有用であると判定された要素を選択する。検出手段はその要素のみを用いて対象物の検出処理を実行する。そのため、全ての特徴量の要素を観測データから取得して、その特徴量と対象物モデルとの類似度合に基づき対象物を検出する場合と比較すると、有用である要素を用いて高精度での検出処理が可能となると共に、処理の高速化や処理におけるメモリ使用量の低減などを図ることができる。   The element selection device configured as described above selects an element that is determined to be useful for identifying whether or not the observation data is observation data in which the object exists. A detection means performs the detection process of a target object using only the element. Therefore, when all elements of feature quantities are obtained from observation data and compared with the case of detecting an object based on the similarity between the feature quantity and the object model, the elements that are useful are used with high accuracy. In addition to enabling detection processing, it is possible to increase the processing speed and reduce the amount of memory used in the processing.

なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。   In addition, the code | symbol in the parenthesis described in this column and a claim shows the correspondence with the specific means as described in embodiment mentioned later as one aspect, Comprising: The technical scope of this invention is shown. It is not limited.

障害物検出システムの全体構成を示すブロック図である。It is a block diagram which shows the whole structure of an obstruction detection system. 特徴量選別処理の処理手順を説明するフローチャートである。It is a flowchart explaining the process sequence of a feature-value selection process. 特徴量の算出方法を説明する図である。It is a figure explaining the calculation method of the feature-value. HoG特徴のヒストグラムの一例である。It is an example of a histogram of HoG features. PosデータとNegデータに基づく投票数ヒストグラムの一例である。It is an example of the vote number histogram based on Pos data and Neg data. 投票数ヒストグラムの差分をとった状態を示す図である。It is a figure which shows the state which took the difference of the vote number histogram. PosデータとNegデータに基づく投票数ヒストグラムの一例である。It is an example of the vote number histogram based on Pos data and Neg data. 物体識別処理の処理手順を説明するフローチャートである。It is a flowchart explaining the process sequence of an object identification process. 閾値算出処理の処理手順を説明するフローチャートである。It is a flowchart explaining the process sequence of a threshold value calculation process. PosデータとNegデータの投票数ヒストグラムに基づく閾値決定方法及び各要素の2値化後の特徴量の要素について説明する図である。It is a figure explaining the threshold value determination method based on the vote number histogram of Pos data and Neg data, and the element of the feature-value after binarization of each element. 2値化による物体識別処理の処理手順を説明するフローチャートである。It is a flowchart explaining the process sequence of the object identification process by binarization. 変形例の特徴量選別方法を説明する図である。It is a figure explaining the feature-value selection method of the modification.

以下に本発明の実施形態を図面と共に説明する。
[第1実施形態]
(1−1)障害物検出システムの構成
本実施形態の障害物検出システム1は自動車等の車両に搭載されて用いられるシステムであって、図1に示すように、車載カメラ3と、表示手段5と、対象物検出装置7と、を備えている。この障害物検出システム1は、車載カメラ3にて撮影された撮像画像から車両周辺の人や物などの検出すべき対象物(以下、単に対象物と記載する)を検出し、検出された対象物を表示手段5に表示させることができる。
Embodiments of the present invention will be described below with reference to the drawings.
[First Embodiment]
(1-1) Configuration of Obstacle Detection System The obstacle detection system 1 of the present embodiment is a system that is used by being mounted on a vehicle such as an automobile, and as shown in FIG. 5 and an object detection device 7. The obstacle detection system 1 detects an object to be detected (hereinafter simply referred to as an object) such as a person or an object around the vehicle from a captured image taken by the in-vehicle camera 3, and the detected object An object can be displayed on the display means 5.

車載カメラ3は、車両周辺を撮影する撮影装置であって、例えば公知のCCDイメージセンサやCMOSイメージセンサなどを用いることができる。車載カメラ3は、所定の時間間隔(一例として100ms)で車両の進行方向を中心とした車両周辺を撮影し、撮影した撮像画像を対象物検出装置7に出力する。   The in-vehicle camera 3 is a photographing device that photographs the periphery of the vehicle, and for example, a known CCD image sensor or CMOS image sensor can be used. The in-vehicle camera 3 captures the vehicle periphery centered on the traveling direction of the vehicle at a predetermined time interval (100 ms as an example), and outputs the captured image to the object detection device 7.

表示手段5は、画像を表示する液晶ディスプレイ又はヘッドアップディスプレイを有し、対象物検出装置7から入力される信号に従って画像を表示する。例えば、車両と衝突する可能性の高い対象物を検出したときに警告画面を表示する。   The display unit 5 includes a liquid crystal display or a head-up display that displays an image, and displays an image according to a signal input from the object detection device 7. For example, a warning screen is displayed when an object that is highly likely to collide with a vehicle is detected.

対象物検出装置7は、車載カメラ3にて撮影された撮像画像を取得し、画像処理により所定の対象物を検出する。また検出された対象物と車両が衝突するか否かを予測する。
この対象物検出装置7は、CPU11と、CPU11が実行するプログラム等を記憶するROM13と、CPU11によるプログラム実行時に作業領域として使用されるRAM15と、フラッシュメモリやEEPROM等の不揮発性メモリ17などを備えるコンピュータシステムとして構成されており、プログラムの実行により所定の処理を実行する。
The object detection device 7 acquires a captured image captured by the in-vehicle camera 3 and detects a predetermined object by image processing. In addition, it is predicted whether or not the detected object and the vehicle collide.
The object detection device 7 includes a CPU 11, a ROM 13 that stores a program executed by the CPU 11, a RAM 15 that is used as a work area when the CPU 11 executes a program, a nonvolatile memory 17 such as a flash memory and an EEPROM, and the like. The computer system is configured to execute a predetermined process by executing a program.

CPU11は、公知技術であるHoG(Histogram of Gradient)と呼ばれるエッジの勾配強度及び勾配方向を基に計算される特徴量を用いて撮像画像から対象物を検出する処理を行う。この特徴量は画像における所定の単位領域(後述する単位画像53)ごとに算出されるものであり、単位領域ごとに複数の要素からなる特徴量として表すことができる。以降、この単位領域ごとに算出される複数の要素の集合をHoG特徴と記載する。   The CPU 11 performs processing for detecting an object from a captured image using a feature amount calculated based on the gradient strength and gradient direction of an edge, which is known as HoG (Histogram of Gradient). This feature amount is calculated for each predetermined unit region (unit image 53 described later) in the image, and can be expressed as a feature amount including a plurality of elements for each unit region. Hereinafter, a set of a plurality of elements calculated for each unit area is referred to as a HoG feature.

不揮発性メモリ17には、車載カメラ3にて撮影された撮像画像から対象物を検出する際に実行するマッチング処理に用いるモデルである識別器の情報と、対象物に応じて設定される、撮像画像から取得すべき特徴量の情報と、が記憶されている。   The non-volatile memory 17 is set according to the information of the classifier that is a model used for the matching process executed when detecting the target object from the captured image captured by the in-vehicle camera 3 and the target image. Information on feature amounts to be acquired from the image is stored.

識別器とは、対象物についての典型的なHoG特徴を表すデータであり、事前に撮影した多数の対象物の撮像画像に基づいて作成されたものである。また不揮発性メモリ17には、CPU11による処理に用いられる様々なデータが記憶される。   The discriminator is data representing a typical HoG characteristic of an object, and is created based on captured images of a large number of objects photographed in advance. The nonvolatile memory 17 stores various data used for processing by the CPU 11.

(1−2)CPU11による処理
本実施形態の対象物検出装置7のCPU11は、特徴量選別処理と、物体識別処理と、を実行する。
(1-2) Process by CPU11 CPU11 of the target object detection apparatus 7 of this embodiment performs a feature-value selection process and an object identification process.

(1−2−1)特徴量選別処理
対象物検出装置7のCPU11が実行する特徴量選別処理について、図2に示すフローチャートに基づいて説明する。この処理は、複数の要素からなるHoG特徴の中から、後述する物体識別処理において対象物の検出に用いる要素を選別する処理である。HoG特徴は複数の要素を含む多次元情報であるため、その次元数を低減することで処理負荷の低減を図る。
(1-2-1) Feature Quantity Selection Process The feature quantity selection process executed by the CPU 11 of the object detection device 7 will be described based on the flowchart shown in FIG. This process is a process of selecting an element to be used for detecting an object in an object identification process to be described later from HoG features including a plurality of elements. Since the HoG feature is multidimensional information including a plurality of elements, the processing load is reduced by reducing the number of dimensions.

S1では、CPU11は学習データの入力を行う。学習データとは複数の画像データであり、共通の対象物を撮影した撮像画像のデータであるPos(Positive)データ、及び、共通の対象物以外を撮影した撮像画像のデータであるNeg(Negative)データ、のいずれかに分類される。学習データは、Posデータ、Negデータのそれぞれについて異なるデータを多数含む。   In S1, the CPU 11 inputs learning data. The learning data is a plurality of image data, Pos (Positive) data that is captured image data obtained by capturing a common object, and Neg (Negative) that is captured image data other than the common object. Data. The learning data includes many different data for each of Pos data and Neg data.

S2では、CPU11は、入力した学習データそれぞれに対して特徴量の算出を行う。本実施形態においてはHoG特徴としてk次元(本実施形態では9次元)の情報を算出する。なお以下の説明において、kとはHoG特徴の次元数であり、HoG特徴に含まれる特徴量の数を指すものとする。以下に、特徴量の算出方法を説明する。   In S <b> 2, the CPU 11 calculates a feature amount for each input learning data. In the present embodiment, k-dimensional (9-dimensional in this embodiment) information is calculated as the HoG feature. In the following description, k is the number of dimensions of the HoG feature and indicates the number of feature amounts included in the HoG feature. Hereinafter, a method for calculating the feature amount will be described.

学習データの入力画像は、図3(a)、(b)に示すように、基本画像51をQ×Rの複数の画素からなる矩形領域(Q、Rは自然数)単位に分割してなる単位画像53である。本実施形態では、4×4画素からなる矩形領域を単位画像53とする。   As shown in FIGS. 3A and 3B, the learning data input image is a unit obtained by dividing the basic image 51 into units of a rectangular area (Q and R are natural numbers) composed of a plurality of Q × R pixels. This is an image 53. In the present embodiment, a rectangular area composed of 4 × 4 pixels is used as the unit image 53.

そしてこのような単位画像53に対して、以下の式(1)〜(4)に従い、画像を構成する画素ごとに、輝度の勾配強度E及び勾配方向θを算出する。なお、下記式において、I(x、y)とは、画像の水平方向の座標をx、鉛直方向の座標をyとしたときの画素(x、y)における輝度値を表すものとする。   For such a unit image 53, the gradient intensity E and the gradient direction θ are calculated for each pixel constituting the image according to the following equations (1) to (4). In the following expression, I (x, y) represents the luminance value at the pixel (x, y) where x is the horizontal coordinate of the image and y is the vertical coordinate.

そして各単位画像53について、その画像の各画素から得られる勾配強度E(x、y)を、予め定めた勾配方向(0°〜180°を20°毎のk(k=9)方向に分割したそれぞれの方向)をビンとして、図4に示すようにヒストグラム化する。このヒストグラムがHoG特徴を示しており、このHoG特徴はk個の特徴量H(a)(aは1〜9の整数)を有している。なお本実施形態では、ヒストグラムの投票値を単位画像53ごとに正規化し、投票値のとり得る範囲を0〜1とした正規化特徴量を使用する。 For each unit image 53, the gradient intensity E (x, y) obtained from each pixel of the image is divided into a predetermined gradient direction (0 ° to 180 ° in k (k = 9) directions every 20 °. Each direction) is binned, and a histogram is formed as shown in FIG. This histogram shows the HoG feature, and this HoG feature has k feature amounts H (a) (a is an integer of 1 to 9). In the present embodiment, the voting value of the histogram is normalized for each unit image 53, and a normalized feature amount in which the range that the voting value can take is 0 to 1 is used.

なお、上記のHoG特徴の算出法はあくまで一例であり、投票値をEではなく1とするなど、様々な計算方法でHoG特徴を求めることができる。また、上記のE,θは輝度から算出したが、これに限られるものではない。例えば、Iを画素のR,G,Bとし、それぞれで式(1)〜(4)を実施し、その中でEが最大となる値を、その画素の最終的なE,θの値として採用してもよい。   Note that the above HoG feature calculation method is merely an example, and the HoG feature can be obtained by various calculation methods such as setting the vote value to 1 instead of E. Moreover, although said E and (theta) were computed from the brightness | luminance, it is not restricted to this. For example, let I be R, G, and B of a pixel, and execute formulas (1) to (4), respectively, and use the value that maximizes E as the final E and θ values for that pixel. It may be adopted.

全ての学習データについてHoG特徴の算出が終了すると、処理がS3に移行する。1つの学習データからは、基本画像51に含まれる単位画像53の数のHoG特徴が算出される。   When the calculation of HoG features is completed for all learning data, the process proceeds to S3. From one learning data, the number of HoG features of the unit images 53 included in the basic image 51 is calculated.

続くS3〜S8では、S2にて算出した複数の学習データそれぞれにて求められた、特徴量を構成するk種類の要素H(a)のうち、いずれか1種類について、その要素H(a)が対象物の検出に用いるべき要素(即ち、対象物の存在する撮像画像のデータであるか否かの識別に有用である要素)であるか否かを判断する。そして、k種類の要素の判定が終了するまでS3〜S8を繰りかえす。   In subsequent S3 to S8, for any one of the k types of elements H (a) constituting the feature amount obtained from each of the plurality of learning data calculated in S2, the element H (a) Is an element to be used for detection of an object (that is, an element useful for identifying whether or not it is data of a captured image in which the object exists). Then, S3 to S8 are repeated until the determination of the k types of elements is completed.

S3では、CPU11は、投票数ヒストグラムを作成する。ここでは、S2にて算出した複数の学習データのHoG特徴に基づいて、k種類の特徴量の要素のうちのいずれか1種類の要素H(a)について注目し、横軸を要素の投票値(大きさ)H(a)、縦軸をデータ数(データの出現頻度)とし、PosデータとNegデータでそれぞれヒストグラムD(Pos),D(Neg)を作成する。図5(a)、(b)は、それぞれ要素H(1)、要素H(2)の投票数ヒストグラムの例である。   In S3, the CPU 11 creates a vote count histogram. Here, based on the HoG features of the plurality of learning data calculated in S2, attention is paid to any one type of element H (a) among the elements of the k types of feature values, and the abscissa indicates the element vote value. (Size) H (a), the vertical axis represents the number of data (data appearance frequency), and histograms D (Pos) and D (Neg) are created from Pos data and Neg data, respectively. FIGS. 5A and 5B are examples of the vote count histograms of the elements H (1) and H (2), respectively.

なお、上述した横軸、縦軸が本発明における一方の軸、他方の軸の例である。縦軸と横軸は入れ替わってもよい。以下の説明で登場するヒストグラムにおいても同様である。
S4では、CPU11は、S3にて作成した投票数ヒストグラムD(Pos),D(Neg)の差分D(Diff)を以下の式にて算出する。
The horizontal axis and the vertical axis described above are examples of one axis and the other axis in the present invention. The vertical axis and the horizontal axis may be interchanged. The same applies to histograms appearing in the following description.
In S4, the CPU 11 calculates a difference D (Diff) between the vote count histograms D (Pos) and D (Neg) created in S3 by the following formula.

D(Diff)=|D(Pos)−D(Neg)|
算出されたD(Diff)の例を図6(a)、(b)に示す。D(Diff)を算出した後、処理がS5に移行する。
D (Diff) = | D (Pos) −D (Neg) |
An example of the calculated D (Diff) is shown in FIGS. 6 (a) and 6 (b). After calculating D (Diff), the process proceeds to S5.

S5では、CPU11は、投票数の閾値計算を行う。ここでは、図6(a)、(b)に示すように、S4にて算出したD(Diff)が所定の第1閾値以下の投票数Thij(i:特徴量番号(i=1,…,k)、j=1,…,N)の総数である閾値数Nを取得する。本実施形態では第1閾値は0であり、第1閾値以下となったD(Diff)の数、即ち値が0となったD(Diff)の投票数Thijの数をカウントする。 In S5, the CPU 11 calculates a threshold value for the number of votes. Here, as shown in FIGS. 6A and 6B, the number of votes Th ij (i: feature number (i = 1,...) Where D (Diff) calculated in S4 is equal to or less than a predetermined first threshold value. , K), j = 1,..., N), the threshold number N is acquired. In the present embodiment, the first threshold value is 0, and the number of D (Diff) that is equal to or lower than the first threshold value, that is, the number of votes Th ij of D (Diff) whose value is 0 is counted.

なお、2つのヒストグラムの交点がビン上で生じているとは限らず、必ず0になるビンが存在するとは限らないため、第1閾値は0でなくともよい。但し、なるべく0に近い値とすることが好ましい。   Note that the intersection of the two histograms does not necessarily occur on the bin, and there is not always a bin that is zero, so the first threshold may not be zero. However, it is preferable that the value be as close to 0 as possible.

S6では、CPU11は、S5にて算出した閾値数Nが所定の第2閾値以下であるか否かを判定する。閾値数Nが小さいほど、その要素H(a)が、撮像画像のデータが対象物の存在する観測データであるか否かの識別において有用であると考えられる。その理由を以下に説明する。   In S6, the CPU 11 determines whether or not the threshold number N calculated in S5 is equal to or less than a predetermined second threshold. It is considered that the smaller the threshold number N, the more useful the element H (a) is in identifying whether or not the captured image data is observation data in which an object exists. The reason will be described below.

Posデータを表す上で共通ではない要素(例えば、歩行者識別における「服の模様」、「背景」など)における投票数ヒストグラムは、図7に示すように投票数の分布がPosデータ、Negデータに関らず散在している。   As shown in FIG. 7, the vote number histogram of elements that are not common in representing Pos data (for example, “clothing pattern”, “background”, etc. in pedestrian identification) has a distribution of vote numbers as Pos data and Neg data. Regardless of being scattered.

つまり、Posデータ及びNegデータの投票数の分布は収束せず偏りが少なく特徴的ではないため、対象物の検出に有効な要素とはならない。この場合にD(Pos),D(Neg)の差分をとると、D(Pos),D(Neg)の交差する点が多いことから閾値数Nは大きな値となる。よって、閾値数Nが小さいほどその要素H(a)が有用であると判断できる。   That is, since the distribution of the number of votes of Pos data and Neg data does not converge and is biased and not characteristic, it is not an effective element for detecting an object. In this case, if the difference between D (Pos) and D (Neg) is taken, the threshold number N becomes a large value because there are many points where D (Pos) and D (Neg) intersect. Therefore, it can be determined that the element H (a) is more useful as the threshold number N is smaller.

なお第1閾値が0でない場合は、D(Pos)とD(Neg)が第1閾値以下に接近すれば閾値数Nは増大する。D(Pos)とD(Neg)が接近した投票数の数(閾値数N)が多ければ、PosデータとNegデータの投票数ヒストグラムの特徴に差が少なく、有用ではないと判断できる。   If the first threshold value is not 0, the threshold number N increases if D (Pos) and D (Neg) approach the first threshold value or less. If the number of votes (threshold number N) in which D (Pos) and D (Neg) are close to each other is large, it can be determined that there is little difference in the characteristics of the vote number histogram between Pos data and Neg data, and it is not useful.

一方、図5(a)、(b)のように、Posデータ及びNegデータの両方又は一方が収束している場合、図7(a)では閾値数N=1、図7(b)では閾値数N=2となるように、その要素H(a)の閾値数Nは小さくなる。   On the other hand, as shown in FIGS. 5A and 5B, when both or one of the Pos data and Neg data converge, the threshold number N = 1 in FIG. 7A and the threshold value in FIG. 7B. The threshold number N of the element H (a) becomes small so that the number N = 2.

このような理由により、閾値数Nが所定の第2閾値より小さければ、その要素H(a)はPos,Negの識別に有効であり、対象物の検出に適するものと判断できる。一方、閾値数Nが所定の閾値より大きければ、その要素は対象物の検出(画像データが対象物の存在する画像データであるか否かの識別)に適するものではないと判断できる。   For this reason, if the threshold number N is smaller than the predetermined second threshold, it can be determined that the element H (a) is effective for identifying Pos and Neg and is suitable for detecting an object. On the other hand, if the threshold number N is larger than the predetermined threshold, it can be determined that the element is not suitable for detection of an object (identification of whether image data is image data in which the object exists).

そこで、S6において、閾値数Nが所定の第2閾値以下であれば(S6:YES)、処理がS7に移行して、当該要素H(a)を対象物の検出に使用する要素として設定する。その後、処理がS9に移行する。   Therefore, in S6, if the threshold number N is equal to or smaller than the predetermined second threshold (S6: YES), the process proceeds to S7, and the element H (a) is set as an element used for detecting the object. . Thereafter, the process proceeds to S9.

一方、閾値数Nが所定の第2閾値を超えていれば(S6:NO)、処理がS8に移行して、当該要素H(a)を、特徴量を構成する要素のうち対象物の検出に使用しない要素として設定する。その後、処理がS9に移行する。   On the other hand, if the threshold number N exceeds the predetermined second threshold (S6: NO), the process proceeds to S8, and the element H (a) is detected as an object among the elements constituting the feature amount. Set as an element not used for. Thereafter, the process proceeds to S9.

S9では、CPU11は、全ての要素H(a)について、S7又はS8の設定が終了したか否かを判断する。全ての要素H(a)について終了していなければ(S9:NO)、処理がS3に戻り、閾値数Nの閾値判定による使用及び不使用の判定が行われていない要素H(a)に対して、S3〜S8の処理を実行する。一方、全ての要素H(a)について終了していれば(S9:YES)、本処理を終了する。   In S9, the CPU 11 determines whether or not the setting of S7 or S8 has been completed for all the elements H (a). If all the elements H (a) have not been completed (S9: NO), the process returns to S3, and the element H (a) for which the use / nonuse determination is not performed by the threshold determination of the threshold number N is performed. Then, the processing of S3 to S8 is executed. On the other hand, if all the elements H (a) are finished (S9: YES), this process is finished.

以上の処理により、後述する物体識別処理にて用いられる要素を物体識別処理の前に予め決定することができる。以降、この決定された1つ以上の要素を選別特徴量とも記載する。加えて、識別器も選別特徴量で表されることになる。   With the above processing, elements used in the object identification processing described later can be determined in advance before the object identification processing. Hereinafter, the determined one or more elements are also referred to as selection feature amounts. In addition, the discriminator is also expressed by the selection feature amount.

ところで、本実施形態においては検出すべき対象物は、歩行者又は車両、というように1つだけではなく、複数種類であってもよい。その場合には、本処理は対象物ごとに実行され、対象物ごとに異なる選別特徴量が設定される。   By the way, in this embodiment, the object to be detected is not limited to one such as a pedestrian or a vehicle, but may be a plurality of types. In this case, this process is executed for each object, and a different selection feature amount is set for each object.

(1−2−2)物体識別処理
対象物検出装置7のCPU11が実行する物体識別処理について、図8に示すフローチャートに基づいて説明する。この処理では、車載カメラ3にて撮影された撮像画像から、車両又は歩行者を検出する。この処理は、対象物検出装置7の起動中、所定の周期(例えば100ms)にて実行される。
(1-2-2) Object Identification Processing Object identification processing executed by the CPU 11 of the object detection device 7 will be described based on the flowchart shown in FIG. In this process, a vehicle or a pedestrian is detected from a captured image captured by the in-vehicle camera 3. This process is executed at a predetermined cycle (for example, 100 ms) while the object detection device 7 is activated.

S21では、CPU11は車載カメラ3にて撮影された撮像画像のデータを取得する。
S22では、CPU11は、検出すべき対象物を選択する。選択を行う基準は特に限定されないが、例えば、本処理を繰り返すごとに、又は所定の周期で、選択される対象物が自動的に切り替わるように構成されていてもよいし、予め運転者が行った入力操作に基づいて1種類又は複数種類の対象物を選択する構成であってもよい。
In S <b> 21, the CPU 11 acquires data of a captured image captured by the in-vehicle camera 3.
In S22, the CPU 11 selects an object to be detected. The criteria for performing the selection are not particularly limited. For example, the selection target may be automatically switched every time this process is repeated or at a predetermined cycle. The configuration may be such that one or more types of objects are selected based on the input operation.

S23では、CPU11は、S22にて事前に求められている、選択された対象物に対応する選別特徴量の情報を取得する。
S24では、CPU11は、S21にて取得した撮像画像から選別特徴量を算出する。ここでは撮像画像全体を対象として、特徴量選別処理で使用すべき要素として決定された要素を算出する。
In S <b> 23, the CPU 11 acquires information on the selection feature amount corresponding to the selected target obtained in advance in S <b> 22.
In S24, the CPU 11 calculates a selection feature amount from the captured image acquired in S21. Here, for the entire captured image, an element determined as an element to be used in the feature amount selection process is calculated.

特徴量の算出方法は図2のS2にて実行した特徴量の算出方法と同様であるが、選別特徴量以外の要素については算出しない。仮に、対象物が歩行者である場合には要素H(1),H(5),H(9)のみを算出すると設定されていた場合には、それ以外の要素については算出せず、HoG特徴は従来の(画像データから取得可能な最大の)9次元ではなく、3次元のデータとなる。   The feature amount calculation method is the same as the feature amount calculation method executed in S2 of FIG. 2, but elements other than the selected feature amount are not calculated. If the object is a pedestrian, if only the elements H (1), H (5), and H (9) are set to be calculated, the other elements are not calculated and HoG The feature is three-dimensional data instead of the conventional nine-dimensional (maximum obtainable from image data).

S25では、CPU11は内積計算を行う。ここでは、撮像画像から、選択された対象物に対応する識別器の領域と同じサイズの領域を切り出し、切り出す位置を少しずつずらしながら、切り出した画像の選別特徴量と、識別器の選別特徴量と、の内積計算を行う。   In S25, the CPU 11 performs inner product calculation. Here, a region having the same size as the region of the discriminator corresponding to the selected object is cut out from the captured image, and the selection feature amount of the cut-out image and the selection feature amount of the discriminator are shifted while gradually shifting the extraction position. And calculate the inner product.

S26では、CPU11は、内積計算の結果を閾値処理することにより、対象物を検出する。即ちS25、S26では対象物の識別器と撮像画像を内積計算によるマッチングを行い、類似度合が大きいときに対象物であると判定する。   In S <b> 26, the CPU 11 detects the object by performing threshold processing on the result of the inner product calculation. That is, in S25 and S26, the object discriminator and the captured image are matched by inner product calculation, and when the degree of similarity is large, it is determined that the object is the object.

S27では、CPU11は、検出結果を出力する。具体的には表示手段5に対して検出した対象物の情報を表示させることが考えられる。表示内容は特に限定されず、車両と対象物の位置関係を示す鳥瞰図を表示したり、衝突の危険がある場合にその報知を行ったりすることが考えられる。S27の後、本処理を終了する。   In S27, the CPU 11 outputs a detection result. Specifically, it is conceivable to display information on the detected object on the display means 5. The display content is not particularly limited, and it is conceivable to display a bird's eye view showing the positional relationship between the vehicle and the object, or to notify when there is a danger of a collision. After S27, this process ends.

(1−3)効果
本実施形態の障害物検出システム1において、対象物検出装置7のCPU11(本発明における要素選択手段及び検出手段の一例)は、車載カメラ3にて撮影された撮像画像のデータ(本発明における観測データの一例)から取得可能な特徴量であって複数の要素からなるHoG特徴のうち、1つ以上の要素を含む選別特徴量を撮像画像のデータから取得する。このときCPU11は、複数の特徴量の要素のうち対象物に応じて予め定められた要素のみを選別特徴量として撮像画像のデータから取得する。
(1-3) Effect In the obstacle detection system 1 according to the present embodiment, the CPU 11 of the object detection device 7 (an example of the element selection unit and the detection unit in the present invention) A feature quantity that can be acquired from data (an example of observation data in the present invention), and a selected feature quantity including one or more elements among HoG features including a plurality of elements is acquired from the data of the captured image. At this time, the CPU 11 acquires, from the captured image data, only the elements predetermined according to the object among the elements of the plurality of feature amounts as the selected feature amounts.

そしてCPU11は、取得した選別特徴量と、予め準備された識別器(本発明における対象物モデルの一例)と、の類似度合(一致度合)に基づいて対象物を検出する。ここで、選別特徴量とは、対象物の存在する撮像画像のデータであるか否かの識別に当該要素が有用であると判定された要素である。   Then, the CPU 11 detects the object based on the degree of similarity (matching degree) between the acquired selection feature quantity and a classifier (an example of the object model in the present invention) prepared in advance. Here, the selected feature amount is an element that is determined to be useful for identifying whether or not it is data of a captured image in which an object exists.

このように構成された対象物検出装置7は、撮像画像から取得可能な特徴量の中から、予め定められた選別特徴量を用いて対象物の検出処理を実行するため、内積計算によりマッチングを行うときや撮像画像から特徴量を算出するときに、処理の高速化や処理におけるメモリ使用量の低減を図ることができる。   The object detection device 7 configured in this way performs object detection processing using a predetermined selection feature amount from among feature amounts that can be acquired from a captured image, and therefore performs matching by inner product calculation. When performing or calculating a feature value from a captured image, it is possible to increase the processing speed and reduce the amount of memory used in the processing.

また本実施形態においては、選別特徴量として取得する特徴量は、横軸を要素の投票値(大きさ)、縦軸をデータ数(データの出現頻度)とし、各々が共通の対象物を観測した複数の異なる学習データから取得されたPosデータのヒストグラムであるD(Pos)(本発明における第1のヒストグラムの一例)と、各々が上記対象物以外を観測した複数の異なる学習データから取得されたNegデータのヒストグラムであるD(Neg)(本発明における第2のヒストグラムの一例)と、の差分が所定の第1閾値以下であるビンの数が所定の第2閾値以下であるものである。   In the present embodiment, the feature quantity acquired as the selected feature quantity is the voting value (size) of the element on the horizontal axis and the number of data (frequency of data appearance) on the vertical axis. D (Pos) (an example of the first histogram in the present invention) which is a histogram of Pos data acquired from a plurality of different learning data, and a plurality of different learning data, each of which is observed except for the object. The number of bins whose difference between D (Neg) which is a histogram of Neg data (an example of the second histogram in the present invention) and a predetermined first threshold value or less is a predetermined second threshold value or less. .

即ち、本実施形態の対象物検出装置7は、対象物の識別性能が高いと考えられる要素のみを各処理に用いているため、撮像画像から対象物を高い精度で検出することができる。
なお、本実施形態においてはPosデータ、Negデータそれぞれについてヒストグラムを作成する構成を例示したが、Posデータから取得された特徴量の要素に対するデータ数の分布と、Negデータから取得された特徴量の要素に対するデータ数の分布と、の差異に基づいて、当該対象物において識別に有用な特徴量の要素か否かが判定されたものであれば、必ずしもヒストグラムを用いて判定されていなくともよい。Posデータ及びNegデータの少なくともいずれか一方の特徴量の要素の分布に偏りや収束が見られれば、その特徴量は識別性能が高いと判断することができる。
That is, the object detection apparatus 7 of the present embodiment uses only elements that are considered to have high object identification performance for each process, and thus can detect the object from the captured image with high accuracy.
In the present embodiment, the configuration of creating a histogram for each of Pos data and Neg data has been exemplified. However, the distribution of the number of data with respect to the element of the feature amount acquired from the Pos data, and the feature amount acquired from the Neg data. As long as it is determined whether or not the target object is an element of a feature quantity useful for identification based on the difference between the distribution of the number of data with respect to the element, the determination is not necessarily performed using the histogram. If there is a bias or convergence in the distribution of elements of at least one of Pos data and Neg data, it can be determined that the feature quantity has high identification performance.

また本実施形態の対象物検出装置7は、複数の識別器によって複数の対象物を検出可能であり、CPU11が選別特徴量として取得する要素は対象物ごとに設定されている。
よって本実施形態の対象物検出装置7は、複数の対象物を検出可能であって、対象物に応じて適切な選別特徴量を用いることができる。
Moreover, the target object detection apparatus 7 of this embodiment can detect a several target object with a several discriminator, and the element which CPU11 acquires as a selection feature-value is set for every target object.
Therefore, the target object detection device 7 of the present embodiment can detect a plurality of target objects, and can use an appropriate selection feature amount according to the target object.

[第2実施形態]
(2−1)障害物検出システムの構成
本実施形態の障害物検出システムは、第1実施形態の障害物検出システム1と同様のハードウェア構成を有する一方で、対象物検出装置7のCPU11による処理が相違するため、その点について説明する。
[Second Embodiment]
(2-1) Configuration of Obstacle Detection System The obstacle detection system of the present embodiment has the same hardware configuration as that of the obstacle detection system 1 of the first embodiment, but is based on the CPU 11 of the object detection device 7. Since the processing is different, this point will be described.

本実施形態の障害物検出システムが解決しようとする課題を説明する。観測データにおける歩行者や車両などの検出に識別器(モデル)を使用する方法において、これら識別器と観測データから生成される特徴量は主に浮動小数点の値で表される場合がある。このとき、識別処理の際に行う内積計算では「浮動小数点×浮動小数点」の処理を非常に多くの回数行う必要があり、この処理に多くの処理時間を要するという問題がある。   A problem to be solved by the obstacle detection system of the present embodiment will be described. In a method of using a discriminator (model) for detecting pedestrians and vehicles in observation data, the feature quantity generated from the discriminator and the observation data may be mainly represented by a floating point value. At this time, in the inner product calculation performed in the identification process, it is necessary to perform the process of “floating point × floating point” very many times, and there is a problem that this process requires a lot of processing time.

そこで、識別器と特徴量それぞれを「0」又は「1」で近似する「2値化(バイナリ化)」を行うことで、低メモリ化、及び、内積演算をビット演算で行うことによる内積計算処理の高速化を図る。しかしながら、特徴量を2値化するときの閾値を、特徴量の各要素で画一的に設定すると適切な閾値とならない恐れがある。本実施形態では、特徴量を2値化するときの閾値として識別に適した値を求める。   Therefore, "binarization" that approximates each discriminator and feature quantity by "0" or "1" is performed to reduce memory and to calculate inner product by performing inner product operation by bit operation. Speed up processing. However, if the threshold value for binarizing the feature value is uniformly set for each element of the feature value, there is a possibility that the threshold value is not appropriate. In the present embodiment, a value suitable for identification is obtained as a threshold value when the feature value is binarized.

(2−2)CPU11による処理
対象物検出装置7のCPU11は、閾値算出処理と、物体識別処理と、を実行する。
(2−2−1)閾値算出処理
対象物検出装置7のCPU11が実行する閾値算出処理について、図9に示すフローチャートに基づいて説明する。この処理は、複数の要素により構成されるHoG特徴の各要素について、適切な閾値の数と値を算出する処理である。
(2-2) Process by CPU11 CPU11 of the target object detection apparatus 7 performs a threshold value calculation process and an object identification process.
(2-2-1) Threshold Calculation Processing The threshold calculation processing executed by the CPU 11 of the object detection device 7 will be described based on the flowchart shown in FIG. This process is a process for calculating an appropriate threshold number and value for each element of the HoG feature constituted by a plurality of elements.

S31では、CPU11は、学習データの入力を行い、S32では、入力した学習データに対して特徴量の算出を行う。このS31、S32処理は、上述したS1、S2の処理と同様である。   In S31, the CPU 11 inputs learning data, and in S32, calculates a feature amount for the input learning data. The processes of S31 and S32 are the same as the processes of S1 and S2 described above.

S33,S34は、上述したS3,S4の処理と同様に、CPU11は投票数ヒストグラムを作成して差分を算出する。図10(a)、(b)に要素H(1)、要素H(2)の投票数ヒストグラムの例を示す。差分をとったときに0となる点は図10(a)においてはTh11の1点、図10(b)においてはTh21、Th22の2点である。この要素の投票数(大きさ)Thijが、2値化処理における閾値となる。 In S33 and S34, the CPU 11 creates a vote-number histogram and calculates a difference in the same manner as the processes in S3 and S4 described above. FIGS. 10A and 10B show examples of the vote count histograms of the elements H (1) and H (2). The point that becomes 0 when the difference is taken is one point of Th 11 in FIG. 10A and two points of Th 21 and Th 22 in FIG. 10B. The number of votes (size) Th ij of this element becomes a threshold value in the binarization process.

S35では、CPU11は、投票数の閾値算出を行う。ここではS34にて算出した差分が所定の閾値(本実施形態では0)以下となるときに、その点の要素の投票数(大きさ)閾値として算出する。   In S35, the CPU 11 calculates a threshold value for the number of votes. Here, when the difference calculated in S34 is equal to or less than a predetermined threshold (0 in the present embodiment), it is calculated as the vote (magnitude) threshold of the element at that point.

S36では、CPU11は、全ての要素H(a)について、投票数の閾値算出処理が終了したか否かを判断する。全ての要素について算出処理が終了していなければ(S36:NO)、処理がS33に戻り、投票数の閾値処理が行われていない特徴量に対して、S33〜S35の処理を実行する。一方、全ての要素について算出処理が終了していれば(S36:YES)、本処理を終了する。   In S <b> 36, the CPU 11 determines whether or not the vote number threshold value calculation processing has been completed for all the elements H (a). If the calculation process has not been completed for all the elements (S36: NO), the process returns to S33, and the processes of S33 to S35 are executed for the feature quantity for which the threshold value process for the number of votes is not performed. On the other hand, if the calculation process has been completed for all elements (S36: YES), this process ends.

(2−2−2)物体識別処理
対象物検出装置7のCPU11が実行する物体識別処理について、図11に示すフローチャートに基づいて説明する。この処理では、車載カメラ3にて撮影された撮像画像から、車両又は歩行者を検出する。この処理は、対象物検出装置7の起動中、所定の周期(例えば100ms)にて実行される。
(2-2-2) Object Identification Processing Object identification processing executed by the CPU 11 of the object detection device 7 will be described based on the flowchart shown in FIG. In this process, a vehicle or a pedestrian is detected from a captured image captured by the in-vehicle camera 3. This process is executed at a predetermined cycle (for example, 100 ms) while the object detection device 7 is activated.

S41では、CPU11は車載カメラ3にて撮影された撮像画像のデータを取得する。
S42では、CPU11は、S41にて取得した撮像画像に対し、S2と同様の特徴量算出を行う。
In S <b> 41, the CPU 11 acquires captured image data captured by the in-vehicle camera 3.
In S42, the CPU 11 performs the same feature amount calculation as in S2 on the captured image acquired in S41.

S43では、CPU11は、検出すべき対象物を選択する。この処理は、S22と同様の処理である。
S44では、CPU11は、S43にて選択された対象物に対応する、2値化処理時の閾値情報(閾値の数、閾値の値)を取得する。この閾値情報は、事前に予め実施した閾値算出処理で求められた情報である。
In S43, the CPU 11 selects an object to be detected. This process is the same as S22.
In S44, the CPU 11 acquires threshold value information (number of threshold values, threshold value) at the time of the binarization process corresponding to the object selected in S43. This threshold information is information obtained by a threshold calculation process performed in advance.

S45では、CPU11は、S42にて算出した要素に対し、S44で取得した閾値情報に基づいて2値化処理を行う。
2値化処理の方法を説明する。図10(a)において、要素H(1)がTh11未満の投票数の場合はNegデータとの類似性が高く、Th11を超える投票数の場合はPosデータとの類似性が高いと判定できる。ここで、閾値は上述したようにTh11の1つである。
In S45, the CPU 11 performs a binarization process on the element calculated in S42 based on the threshold information acquired in S44.
A method of binarization processing will be described. In FIG. 10A, when the element H (1) has a vote count less than Th 11 , the similarity to Neg data is high, and when the vote count exceeds Th 11 , the similarity to Pos data is high. it can. Here, the threshold value is one of Th 11 as described above.

この閾値を基準として要素H(1)について閾値処理を行うと、上記閾値未満であれば「0」、上記閾値以上であれば「1」と2値化して表すことができる。図10(a)の例では、H(1)が閾値以上であり、2値化後のH(1)は「1」となり、1次元の2値特徴量で表される。   When threshold processing is performed on the element H (1) with this threshold as a reference, it can be binarized as “0” if it is less than the above threshold, and “1” if it is above the threshold. In the example of FIG. 10A, H (1) is equal to or greater than the threshold value, and H (1) after binarization is “1”, which is represented by a one-dimensional binary feature amount.

一方、図10(b)においては、要素H(2)がTh21未満の投票数の場合はNegデータとの類似性が高く、Th21以上かつTh22未満の投票数の場合はPosデータとの類似性が高く、Th22以上の場合はNegデータとの類似性が高い。 On the other hand, in FIG. 10B, when the element H (2) has a vote count less than Th 21 , similarity to Neg data is high, and in the case of a vote count greater than Th 21 and less than Th 22, Pos data and In the case of Th 22 or more, the similarity to Neg data is high.

この場合は、閾値がTh21,Th22の2つとなるため、2回の閾値処理によって2値化を実現できる。各閾値について、特徴量H(2)が当該閾値未満であれば「0」とし、当該閾値以上であれば「1」として順に表すと、特徴量H(2)がTh21未満であれば「00」、Th21以上Th22未満であれば「10」、Th22以上であれば「11」というように、2次元の2値特徴量で表される。図10(b)の例では、2値化後のH(2)は「10」となる
なお閾値が3つ以上である場合も同様に、閾値の数に応じて2値化特徴の次元数が増えることとなる。
In this case, since the threshold value is two, Th 21 and Th 22 , binarization can be realized by two threshold processes. For each threshold, if the feature amount H (2) is less than the threshold value set to "0", expressed in the order as "1" if above the threshold value, feature quantity H (2) is less than Th 21 " “00”, “10” if Th 21 or more and less than Th 22 , and “11” if Th 22 or more. In the example of FIG. 10B, H (2) after binarization is “10”. Similarly, when there are three or more thresholds, the number of dimensions of the binarized features according to the number of thresholds. Will increase.

S46では、CPU11は内積計算を行う。ここでは、撮像画像から、選択された対象物に対応する識別器の領域と同じサイズの領域を切り出し、切り出す位置を少しずつずらしながら、切り出した画像を2値化した特徴量と、識別器と、の内積計算を行う。なお、ここで用いられる識別器は、閾値算出処理にて算出された閾値情報に基づいて2値化された特徴量を用いて学習して生成された識別器である。   In S46, the CPU 11 performs inner product calculation. Here, a region having the same size as the region of the discriminator corresponding to the selected object is cut out from the captured image, and the cut-out image is binarized, the feature amount obtained by binarizing the cut-out image, the discriminator, Calculate the inner product of. The discriminator used here is a discriminator generated by learning using a binarized feature amount based on threshold information calculated in the threshold calculation processing.

S47では、CPU11は、内積計算の結果を閾値処理することにより、対象物を検出する。S48では、CPU11は、検出結果を出力する。このS47、S48の処理は、S26、S27と同様の処理である。S48の後、本処理を終了する。   In S47, the CPU 11 detects the object by performing threshold processing on the result of the inner product calculation. In S48, the CPU 11 outputs a detection result. The processing of S47 and S48 is the same processing as S26 and S27. After S48, this process ends.

(2−3)効果
本実施形態の障害物検出システム1において、対象物検出装置7のCPU11(本発明における特徴量取得手段、2値化手段、検出手段の一例)は、車載カメラ3にて撮影された撮像画像のデータから取得可能なHoG特徴を撮像画像のデータから取得する。そして、CPU11は取得されたHoG特徴に基づいて、複数の要素について所定の閾値を基準として2値化された要素(本発明における2値化特徴量の一例)を算出する。このときCPU11は、複数の要素に対して予め定められた閾値を用いて特徴量の2値化を行う。
(2-3) Effects In the obstacle detection system 1 of the present embodiment, the CPU 11 of the object detection device 7 (an example of the feature amount acquisition unit, binarization unit, and detection unit in the present invention) is the in-vehicle camera 3. The HoG features that can be acquired from the captured image data are acquired from the captured image data. Then, based on the acquired HoG feature, the CPU 11 calculates an element (an example of the binarized feature value in the present invention) binarized with respect to a plurality of elements with a predetermined threshold as a reference. At this time, the CPU 11 binarizes the feature amount using a predetermined threshold for a plurality of elements.

そしてCPU11は、複数の2値化された特徴量と、予め準備された識別器と、の類似度合に基づいて対象物を検出する。
よって本実施形態の対象物検出装置7は、撮像画像から取得された特徴量を2値化した値を用いて対象物の検出処理を実行するため、内積計算がビット演算で処理できるため、処理の高速化やメモリ使用量の低減を図ることができる。
Then, the CPU 11 detects an object based on the degree of similarity between a plurality of binarized feature amounts and a classifier prepared in advance.
Therefore, the object detection device 7 of the present embodiment executes the object detection process using the binarized value of the feature amount acquired from the captured image, so that the inner product calculation can be processed by a bit operation. Speed and memory usage can be reduced.

また本実施形態においては、特徴量を2値化するために用いる閾値は、横軸を要素の投票値(大きさ)、縦軸をデータ数(データの出現頻度)としたヒストグラムにおいて、各々が共通の対象物を観測した複数の異なる学習データから取得されたPosデータのヒストグラムであるD(Pos)(本発明における第1のヒストグラムの一例)と、各々が上記対象物以外を観測した複数の異なる学習データから取得されたNegデータのヒストグラムであるD(Neg)(本発明における第2のヒストグラムの一例)と、の差分が所定の閾値以下であるビンに対応する特徴量に基づく値である。   In the present embodiment, the threshold values used for binarizing the feature values are each in a histogram in which the horizontal axis is the element vote value (size) and the vertical axis is the number of data (data appearance frequency). D (Pos) (an example of the first histogram in the present invention) that is a histogram of Pos data acquired from a plurality of different learning data obtained by observing a common object, and a plurality of objects each of which is observed except for the object This is a value based on a feature amount corresponding to a bin whose difference is D (Neg) (an example of the second histogram in the present invention) which is a histogram of Neg data acquired from different learning data and which is equal to or less than a predetermined threshold .

即ち、本実施形態の対象物検出装置7は、2値化処理の閾値を対象物の識別性能が高くなる値としているため、撮像画像から対象物を高い精度で検出することができる。
また本実施形態の対象物検出装置7は、複数の識別器によって複数の対象物を検出可能であり、CPU11が特徴量を2値化する際に基準とする各要素の閾値は対象物ごとに設定されている。また、各要素で次元数も異なる。
That is, the target object detection apparatus 7 of the present embodiment can detect the target object from the captured image with high accuracy because the threshold value for the binarization process is set to a value that increases the target identification performance.
Further, the object detection device 7 of the present embodiment can detect a plurality of objects by a plurality of discriminators, and the threshold value of each element used as a reference when the CPU 11 binarizes the feature amount is set for each object. Is set. Each element also has a different number of dimensions.

よって本実施形態の対象物検出装置7は、複数の対象物を検出可能であって、対象物に応じて各要素で良好な識別性能を発揮する適切な閾値を用いることができる。
[変形例]
以上本発明の実施形態について説明したが、本発明は、上記実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の形態をとり得ることはいうまでもない。
Therefore, the target object detection apparatus 7 of the present embodiment can detect a plurality of target objects, and can use an appropriate threshold value that exhibits good discrimination performance in each element according to the target object.
[Modification]
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and it goes without saying that various forms can be taken as long as they belong to the technical scope of the present invention.

例えば、上記各実施形態においては、図2にて説明した特徴量選別処理、及び図8にて説明した閾値算出処理を対象物検出装置7にて実行する構成を例示したが、これらの処理は対象物検出装置7にて実行されず、他の情報処理装置にて予め実行されるものであってもよい。つまり、対象物検出装置7は、選別特徴量や閾値情報を予め有しているか外部から取得して物体識別処理を実行する構成であってもよい。   For example, in each of the above-described embodiments, the feature amount selection process described with reference to FIG. 2 and the threshold value calculation process described with reference to FIG. It may not be executed by the object detection device 7 but may be executed in advance by another information processing device. That is, the target object detection apparatus 7 may have a selection feature amount or threshold information in advance, or may be acquired from the outside and execute the object identification process.

また上記各実施形態においては、観測データとして撮像画像データを用いる構成を例示したが、装置外部を観測可能な観測手段により取得されるデータであって対象物の存在により情報が変化するデータ(画像や測距点の集合)であれば、それ以外のデータを用いることもできる。例えば、レーザレーダ―(Lidar)やレーダー(Radar)などのセンサで取得される、車両外部の存在する対象までの距離を測定できるデータ(測距点の集合データ)を用いることができる。   In each of the above embodiments, the configuration using captured image data as the observation data is exemplified. However, data (images) that is obtained by observation means that can observe the outside of the apparatus and whose information changes depending on the presence of the object. Or other distance measurement points), other data can be used. For example, data that can be measured by a sensor such as a laser radar (Lidar) or a radar (Radar) that can measure the distance to an object outside the vehicle (a set data of ranging points) can be used.

また、第1実施形態と第2実施形態とを組み合わせた構成としてもよい。即ち、検出すべき対象物ごとに選別特徴量が設定されており、撮像画像から選別特徴量が取得されると共に、その取得した特徴量それぞれを2値化して対象物の検出を行うように構成されていてもよい。   Moreover, it is good also as a structure which combined 1st Embodiment and 2nd Embodiment. That is, a selection feature amount is set for each target object to be detected, the selection feature amount is acquired from the captured image, and each of the acquired feature amounts is binarized to detect the target object. May be.

また上記各実施形態では、HoG特徴を構成する要素を特徴量として利用する構成を例示したが、HoG特徴以外の手法で特徴量を求めてもよい。例えば、SIFT特徴を利用することが考えられる。   Further, in each of the above embodiments, the configuration using the elements constituting the HoG feature as the feature amount is exemplified, but the feature amount may be obtained by a method other than the HoG feature. For example, it is conceivable to use the SIFT feature.

また上記第1実施形態では、Posデータ及びNegデータの投票数ヒストグラムを用いて特徴量の選別を行う構成を例示したが、投票数ヒストグラムを正規分布などで近似(定式化)し、その平均値μPos、μNeg及び、分散値σ Pos, σ Negとの関係から、その特徴量の識別性能を判定してもよい。 In the first embodiment, the feature quantity selection is illustrated using the vote histogram of Pos data and Neg data. However, the vote histogram is approximated (formulated) by a normal distribution or the like, and the average value is obtained. Based on the relationship between μ Pos , μ Neg and the variance values σ 2 Pos , σ 2 Neg , the feature quantity discrimination performance may be determined.

具体的には、図12(a)〜(c)に示すように、投票数ヒストグラムを下記(5)式で示す正規分布に近似したときに、下記(6)式で示す条件1、及び、下記(7)式で示す条件2、を共に満たさない場合には、その特徴量は識別性能が低いと判定し、対象物の検出において使用しない特徴量と判断する。   Specifically, as shown in FIGS. 12A to 12C, when the vote count histogram is approximated to a normal distribution represented by the following equation (5), condition 1 represented by the following equation (6), and When both of the conditions 2 shown by the following equation (7) are not satisfied, it is determined that the feature amount has low identification performance, and is determined as a feature amount that is not used in the detection of the object.

なお条件1は、平均値の差が所定の閾値以上大きいことであり、条件2は、Posデータ及びNegデータの分布の分散値が共に大きいことである。下記式中のα及びβは予め定められた閾値である。   Condition 1 is that the difference between the average values is greater than a predetermined threshold, and condition 2 is that both the distribution values of the distribution of Pos data and Neg data are large. Α and β in the following formula are predetermined threshold values.

図12(a),(b)に示す特徴量の要素H(1)、H(2)の場合は、いずれの条件も満たすため識別性能の高い特徴量と判断される。一方、図12(c)に示す要素H(3)の場合は、条件2を満たさないため使用しない要素と判定される。 In the case of elements H (1) and H (2) of the feature quantity shown in FIGS. 12A and 12B, both conditions are satisfied, and it is determined that the feature quantity has high discrimination performance. On the other hand, in the case of the element H (3) shown in FIG. 12C, it is determined that the element is not used because the condition 2 is not satisfied.

1…障害物検出システム、3…車載カメラ、7…対象物検出装置、11…CPU。 DESCRIPTION OF SYMBOLS 1 ... Obstacle detection system, 3 ... Car-mounted camera, 7 ... Object detection apparatus, 11 ... CPU.

Claims (9)

観測手段(3)により取得されるデータであって対象物の存在により変化する観測データから取得可能な特徴量の複数の要素を、前記観測データから取得する特徴量取得手段(11、S42)と、
前記特徴量取得手段により取得された前記複数の要素に基づいて、前記特徴量の各要素について所定の閾値を基準として2値化された2値化特徴量を算出する2値化手段(11、S45)と、
前記2値化手段により算出された複数の前記2値化特徴量と、予め準備された対象物モデルと、の類似度合に基づいて前記対象物を検出する検出手段(11、S46、S47)と、を備え、
前記2値化手段は、前記特徴量の各要素に対して予め定められた閾値を用いて前記特徴量の2値化を行う
ことを特徴とする対象物検出装置。
Feature quantity acquisition means (11, S42) for acquiring, from the observation data, a plurality of elements of the feature quantity that can be acquired from the observation data that is acquired by the observation means (3) and varies depending on the presence of the object. ,
Based on the plurality of elements acquired by the feature quantity acquisition means, binarization means (11, 11) that calculates a binarized feature quantity binarized with reference to a predetermined threshold for each element of the feature quantity S45)
Detecting means (11, S46, S47) for detecting the object based on the degree of similarity between the plurality of binarized feature amounts calculated by the binarizing means and an object model prepared in advance; With
The object detection apparatus characterized in that the binarization means binarizes the feature value using a predetermined threshold for each element of the feature value.
前記2値化手段が前記特徴量の要素を2値化するために用いる閾値は、一方の軸を要素の投票値、他方の軸をデータ数としたヒストグラムにおいて、各々が共通の前記対象物を観測した複数の異なる前記観測データから取得された第1のヒストグラムと、各々が前記対象物以外を観測した複数の異なる前記観測データから取得された第2のヒストグラムと、の差分が所定の閾値以下であるビンに対応する前記特徴量の要素の値である
ことを特徴とする請求項1に記載の対象物検出装置。
The threshold used by the binarization means to binarize the elements of the feature amount is a histogram in which one axis is the voting value of the element and the other axis is the number of data. The difference between the first histogram acquired from a plurality of different observed data observed and the second histogram acquired from a plurality of different observed data, each of which is other than the object, is less than or equal to a predetermined threshold value The object detection device according to claim 1, wherein the object value is a value of an element of the feature amount corresponding to a bin.
前記2値化手段において、ヒストグラムの差分の閾値は前記特徴量の要素ごとに異なる
ことを特徴とする請求項2に記載の対象物検出装置。
The object detection apparatus according to claim 2, wherein in the binarization unit, a threshold value of a histogram difference is different for each element of the feature amount.
前記2値化手段において、前記特徴量の各要素を2値化するために用いる閾値の数に応じて、前記特徴量の要素ごとに2値化後の特徴量の次元数が異なる
ことを特徴とする請求項2又は請求項3に記載の対象物検出装置。
In the binarization means, the number of dimensions of the binarized feature quantity differs for each feature quantity element according to the number of threshold values used for binarizing each element of the feature quantity. The object detection device according to claim 2 or 3.
前記2値化手段において、前記特徴量の各要素を2値化するために用いる閾値の数が0の場合は、当該要素については前記検出手段による前記対象物の検出に使用しない
ことを特徴とする請求項2から請求項4のいずれか1項に記載の対象物検出装置。
In the binarization means, when the number of thresholds used for binarizing each element of the feature quantity is 0, the element is not used for detection of the object by the detection means. The target object detection apparatus according to any one of claims 2 to 4.
前記検出手段は、複数の前記対象物モデルによって複数の前記対象物を検出可能であり、
前記2値化手段が2値化する際に基準とする前記複数の各要素の前記閾値は、前記対象物ごとに設定されている
ことを特徴とする請求項1から請求項5のいずれか1項に記載の対象物検出装置。
The detection means can detect a plurality of the objects by a plurality of the object models,
The threshold value of each of the plurality of elements to be used as a reference when the binarization means binarizes is set for each of the objects. 6. The object detection device according to item.
観測手段(3)により取得されるデータであって対象物の存在により変化する観測データから取得可能な特徴量の複数の要素のうちのいずれか1つ以上を用いて、前記観測データと予め準備された対象物モデルとの類似度合に基づいて前記観測データから前記対象物を検出する検出手段(11、S25、S26)において用いられる前記複数の要素のうちのいずれか1つ以上の要素を選択する要素選択手段(11、S3−S8)を備え、
前記要素選択手段により選択された前記要素は、横軸を要素の投票値、縦軸をデータ数としたヒストグラムであって、各々が共通の前記対象物を観測した複数の異なる前記観測データから取得された当該要素から作成した第1のヒストグラムと、各々が前記対象物以外を観測した複数の異なる前記観測データから取得された当該要素から作成した第2のヒストグラムと、の差分が所定の第1閾値以下であるビンの数が所定の第2閾値以下であることにより、前記対象物の識別に有用であると判定された要素である
ことを特徴とする要素選択装置。
Prepared in advance with the observation data by using any one or more of the plurality of elements of the feature quantity that can be acquired from the observation data that is acquired by the observation means (3) and changes depending on the presence of the target object One or more elements selected from the plurality of elements used in the detection means (11, S25, S26) for detecting the object from the observation data based on the degree of similarity with the object model thus selected Element selection means (11, S3-S8) for
The element selected by the element selection means is a histogram with the abscissa indicating the vote value of the element and the ordinate indicating the number of data, each acquired from a plurality of different observation data obtained by observing the common object. The difference between the first histogram created from the generated element and the second histogram created from the element obtained from a plurality of different observation data, each of which is observed except for the object, is a predetermined first An element selection device , wherein the number of bins equal to or less than a threshold is determined to be useful for identifying the object by being equal to or less than a predetermined second threshold .
前記観測手段は、画像を取得可能に構成されており、
前記特徴量とは、前記画像に含まれる単位領域の輝度の勾配方向をビンとして、前記単位領域の輝度の勾配強度を投票することで生成されるヒストグラムである特徴量ヒストグラムにより示されるものであり、
前記複数の要素とは、前記特徴量ヒストグラムの各ビンである
ことを特徴とする請求項7に記載の要素選択装置。
The observation means is configured to be able to acquire an image,
The feature amount is indicated by a feature amount histogram which is a histogram generated by voting the luminance gradient intensity of the unit region with the luminance gradient direction of the unit region included in the image as a bin. ,
The element selection apparatus according to claim 7, wherein the plurality of elements are each bin of the feature amount histogram .
請求項7又は請求項8に記載の要素選択装置と、
観測手段(3)により取得されるデータであって対象物の存在により変化する観測データから取得可能な特徴量を構成する複数の要素のうち、前記要素選択装置の備える要素選択手段により選択された1つ以上の要素を用いて、前記観測データと予め準備された対象物モデルとの類似度合に基づいて前記観測データから前記対象物を検出する検出手段(11、S25、S26)と、を備え、
前記検出手段は、複数の前記対象物モデルによって複数の前記対象物を検出可能であり、
前記要素選択手段により選択された前記要素は、前記対象物ごとに選択されている
ことを特徴とする対象物検出装置。
The element selection device according to claim 7 or claim 8,
Among the plurality of elements to a data acquired by the observation means (3) constituting the feature quantity that can be obtained from the observation data which varies by the presence of the object selected by the element selection means provided in the said element selection device using one or more elements comprises a detecting means for detecting (11, S25, S26) the object from the observation data on the basis of the degree of similarity between the observed data and the previously prepared object model ,
The detection means can detect a plurality of the objects by a plurality of the object models,
The element selected by the element selection means is selected for each of the objects.
JP2014130341A 2014-06-25 2014-06-25 Object detection device and element selection device Active JP6350018B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014130341A JP6350018B2 (en) 2014-06-25 2014-06-25 Object detection device and element selection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014130341A JP6350018B2 (en) 2014-06-25 2014-06-25 Object detection device and element selection device

Publications (2)

Publication Number Publication Date
JP2016009379A JP2016009379A (en) 2016-01-18
JP6350018B2 true JP6350018B2 (en) 2018-07-04

Family

ID=55226880

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014130341A Active JP6350018B2 (en) 2014-06-25 2014-06-25 Object detection device and element selection device

Country Status (1)

Country Link
JP (1) JP6350018B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7187034B2 (en) 2019-07-01 2022-12-12 株式会社 ベアック Sticking device and sticking method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7011152B2 (en) 2017-08-30 2022-01-26 富士通株式会社 Bioimage processing device, bioimage processing method, and bioimage processing program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4517633B2 (en) * 2003-11-25 2010-08-04 ソニー株式会社 Object detection apparatus and method
JP2005309535A (en) * 2004-04-16 2005-11-04 Hitachi High-Technologies Corp Automatic image classification method
JP4267648B2 (en) * 2006-08-25 2009-05-27 株式会社東芝 Interface device and method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7187034B2 (en) 2019-07-01 2022-12-12 株式会社 ベアック Sticking device and sticking method

Also Published As

Publication number Publication date
JP2016009379A (en) 2016-01-18

Similar Documents

Publication Publication Date Title
TWI651662B (en) Image annotation method, electronic device and non-transitory computer readable storage medium
US8306318B2 (en) Image processing apparatus, image processing method, and computer readable storage medium
JP5922257B2 (en) Vehicle periphery monitoring device
US10079974B2 (en) Image processing apparatus, method, and medium for extracting feature amount of image
JP4970381B2 (en) Feature extraction device, feature extraction method, image processing device, and program
JP5765026B2 (en) Image processing apparatus and program
JP4946878B2 (en) Image identification apparatus and program
CN104036284A (en) Adaboost algorithm based multi-scale pedestrian detection method
JP6410450B2 (en) Object identification device, object identification method, and program
CN109313699A (en) The device and method for carrying out target identification for the input picture to a vehicle
JPWO2012046426A1 (en) Object detection apparatus, object detection method, and object detection program
US20230394792A1 (en) Information processing device, information processing method, and program recording medium
WO2011099072A1 (en) Pattern discrimination device
JP6350018B2 (en) Object detection device and element selection device
JP5201184B2 (en) Image processing apparatus and program
JP6375911B2 (en) Curve mirror detector
JP2015148895A (en) object number distribution estimation method
JP5335554B2 (en) Image processing apparatus and image processing method
JP4285640B2 (en) Object identification method, apparatus and program
JP2014010633A (en) Image recognition device, image recognition method, and image recognition program
EP2993623B1 (en) Apparatus and method for multi-object detection in a digital image
JP2009123234A (en) Object identification method, apparatus and program
Liu et al. Automatic grape bunch detection in vineyards for precise yield estimation
JP6855175B2 (en) Image processing equipment, image processing methods and programs
JP2011150626A (en) Method, device, and program for classifying image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180521

R151 Written notification of patent or utility model registration

Ref document number: 6350018

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250