JP2019106193A - Information processing device, information processing program and information processing method - Google Patents
Information processing device, information processing program and information processing method Download PDFInfo
- Publication number
- JP2019106193A JP2019106193A JP2019008821A JP2019008821A JP2019106193A JP 2019106193 A JP2019106193 A JP 2019106193A JP 2019008821 A JP2019008821 A JP 2019008821A JP 2019008821 A JP2019008821 A JP 2019008821A JP 2019106193 A JP2019106193 A JP 2019106193A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- learning
- input image
- image
- feature points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、情報処理装置、情報処理プログラム、及び、情報処理方法に関する。 The present invention relates to an information processing apparatus, an information processing program, and an information processing method.
従来、画像の中から車両を自動検出する技術が提案されている。特に、昨今、例えば畳み込みニューラルネットワークなどの機械学習手法の研究が盛んであり、機械学習を用いて画像の中から車両を自動検出する技術が提案されている。 Conventionally, techniques for automatically detecting a vehicle from images have been proposed. In particular, research on machine learning methods such as convolutional neural networks, for example, has been promoted recently, and techniques for automatically detecting a vehicle from an image using machine learning have been proposed.
例えば、特許文献1には、車両の正面画像を用いて学習された、車両の正面を検出するための識別器に、自車両の後方カメラで撮影された画像を入力することで、当該画像から他車両を検出する技術が開示されている。 For example, in Patent Document 1, an image captured by the rear camera of the vehicle is input to a classifier for detecting the front of the vehicle, which is learned using the front image of the vehicle, from the image Techniques for detecting other vehicles are disclosed.
従来の画像から車両を自動検出する技術においては、検出精度の観点から改善の余地があった。例えば、特許文献1の技術では、正面を向いた車両が画像に含まれている場合にしか車両を検出することができず、その他のアングルから車両を撮影した画像からは好適に車両を検出することができなかった。また、他の物体に隠れる、あるいは見切れてしまっていることなどによって、車両の一部が画像に含まれていない場合、画像から車両を検出することが困難となっていた。すなわち、限られた場面でしか画像中に存在する車両を検出することができなかった。 The conventional technology for automatically detecting a vehicle from an image has room for improvement from the viewpoint of detection accuracy. For example, in the technique of Patent Document 1, a vehicle can be detected only when a vehicle facing the front is included in the image, and the vehicle is suitably detected from an image obtained by photographing the vehicle from other angles. I could not. In addition, when a part of the vehicle is not included in the image, it is difficult to detect the vehicle from the image because the vehicle is hidden or missed. That is, vehicles present in the image could be detected only in limited situations.
本発明の目的は、より高精度に画像から車両を検出することにある。 An object of the present invention is to detect a vehicle from an image with higher accuracy.
本発明は、車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習する学習器と、学習済みの前記学習器に入力画像を入力して、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出する車両検出部と、を備えることを特徴とする情報処理装置である。 The present invention is a learning data including a learning image including a vehicle, information indicating the positions of a plurality of feature points related to the vehicle included in the learning image, and information indicating the location of the vehicle indicated by each feature point And an input image is input to the learning device which has already been learned, and the vehicle detects the vehicle included in the input image based on the feature points related to the vehicle detected from the input image by the learning device And a vehicle detection unit.
望ましくは、前記車両検出部は、前記学習器が前記入力画像から検出した、対応する車両の箇所が識別された複数の特徴点の位置関係に基づいて、前記入力画像中に含まれる車両の向きを検出する、ことを特徴とする。 Preferably, the vehicle detection unit detects the orientation of the vehicle included in the input image based on the positional relationship of the plurality of feature points detected by the learning device from the input image and in which the location of the corresponding vehicle is identified. To detect.
望ましくは、前記学習器は、前記学習用画像に含まれる前記車両の前記複数の特徴点間の向きを学習し、前記車両検出部は、前記学習器が前記入力画像から検出した複数の特徴点間の向きに基づいて、前記入力画像に含まれる複数の車両を区別した上で、複数の車両の向き及び台数の少なくとも一方を検出する、ことを特徴とする。 Preferably, the learning device learns the direction between the plurality of feature points of the vehicle included in the learning image, and the vehicle detection unit detects a plurality of feature points detected from the input image by the learning device. After distinguishing the plurality of vehicles included in the input image based on the direction between the two, at least one of the direction and the number of the plurality of vehicles is detected.
望ましくは、前記学習用データは、前記学習用画像が撮影された時の天気を示す情報を含み、前記学習器は、前記学習用画像が撮影された時の天気を考慮して学習する、ことを特徴とする。 Preferably, the learning data includes information indicating a weather when the learning image is captured, and the learning device performs learning in consideration of the weather when the learning image is captured. It is characterized by
望ましくは、前記学習用データは、前記学習用画像に含まれる車両のライトの点灯有無を示す情報を含み、前記学習器は、前記学習用画像に含まれる車両のライトの点灯有無を考慮して学習する、ことを特徴とする。 Preferably, the learning data includes information indicating whether the light of the vehicle included in the image for learning is lit, and the learning device takes into consideration whether the light of the vehicle included in the image for learning is lit It is characterized by learning.
望ましくは、前記車両検出部は、前記学習器が前記入力画像から検出した、対応する車両の箇所が識別された複数の特徴点の位置関係に基づいて、前記入力画像に含まれる車両の種別を検出する、ことを特徴とする。 Preferably, the vehicle detection unit determines the type of the vehicle included in the input image based on the positional relationship of the plurality of feature points detected by the learning device from the input image and in which the location of the corresponding vehicle is identified. It is characterized by detecting.
望ましくは、前記車両検出部は、前記入力画像に対する前記学習器の出力に基づいて、前記入力画像に含まれる車両の種別がタクシーであることを識別し、前記情報処理装置は、さらに、前記入力画像を解析することで、前記入力画像に含まれる人物を検出する人物検出部と、前記入力画像に含まれるタクシーの台数と人物の数とに基づいて、タクシーの需要を判定するタクシー需要判定部と、を備えることを特徴とする。 Preferably, the vehicle detection unit identifies that the type of the vehicle included in the input image is a taxi based on the output of the learning device with respect to the input image, and the information processing apparatus further performs the input A taxi demand determination unit that determines a taxi demand based on the number of taxis and the number of persons included in the input image by analyzing an image to detect a person included in the input image And.
また、本発明は、コンピュータを、車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習する学習器と、学習済みの前記学習器に入力画像を入力して、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出する車両検出部と、として機能させることを特徴とする情報処理プログラムである。 Furthermore, the present invention provides a computer with a learning image including a vehicle, information indicating the positions of a plurality of feature points related to the vehicle included in the learning image, and information indicating the location of the vehicle indicated by each feature point The input image is input to the learning device for learning using the learning data including the above, and the learning device which has been learned, and the learning device performs the input image based on the feature points regarding the vehicle detected from the input image. It is an information processing program characterized by making it function as a vehicles detection part which detects vehicles included.
また、本発明は、車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習器を学習させる学習ステップと、学習済みの前記学習器に入力画像を入力して、コンピュータが、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出する車両検出ステップと、を含むことを特徴とする情報処理方法である。 Further, according to the present invention, a learning image including a learning image including a vehicle, information indicating positions of a plurality of feature points related to the vehicle included in the learning image, and information indicating a location of the vehicle indicated by each feature point Step of learning a learning device using data for learning, and inputting an input image to the learning device which has already been learned, and the computer inputs the image based on the feature points of the vehicle detected from the input image by the learning device. And a vehicle detection step of detecting a vehicle included in the input image.
本発明によれば、より高精度に画像から車両を検出することができる。 According to the present invention, a vehicle can be detected from an image with higher accuracy.
以下、本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described.
図1には、本実施形態に係る情報処理システム10の構成概略図が示されている。情報処理システム10は、カメラ12と、ユーザ端末14と、情報処理装置としてのサーバ16とを含んで構成される。カメラ12とサーバ16との間、及び、ユーザ端末14とサー
バ16との間は、LANあるいはインターネットなどの通信回線18を介して通信可能に接続されている。
FIG. 1 shows a schematic configuration of an
カメラ12は、自動車などの車両を撮影するためのカメラである。カメラ12は、例えば、駐車場や高速道路などに設置される監視カメラである。あるいは、カメラ12は車載カメラであってもよい。また、カメラ12としては、静止画を撮影するカメラであってもよく、動画像を撮影するビデオカメラであってもよい。カメラ12によって撮影された画像は、通信回線18を介してサーバ16に送られる。
The
ユーザ端末14は、ユーザ(サーバ16で実行される画像からの車両検出処理の結果を確認する者)が利用する端末である。ユーザ端末14は、例えばパーソナルコンピュータやタブレット端末などであってよい。ユーザ端末14は、CPU(Central Processing Unit)などの処理部、ハードディスク、ROM(Read Only Memory)あるいはRAM(Random Access Memory)などの記憶部、液晶パネルなどの表示部、マウス、キーボード、タ
ッチパネルなどの入力部、ネットワークアダプタなどの通信部などを含んで構成される。ユーザ端末14は、サーバ16にアクセスすることによって、サーバ16における車両検出処理の結果を受信することができる。
The
図2に、サーバ16の構成概略図が示されている。本実施形態においては、サーバ16はコンピュータによって構成されるが、情報処理装置としては、以下に示す機能を有する限りにおいて、どのような装置であってもよい。
A schematic diagram of the
通信部20は、例えばネットワークアダプタなどから構成される。通信部20は、通信回線18を介して、カメラ12及びユーザ端末14と通信する機能を発揮する。具体的には、通信部20は、カメラ12から画像を受信する。また、通信部20は、ユーザ端末14からの要求に応じて、後述の制御部30による車両検出処理の結果をユーザ端末14に送信する。
The
記憶部22は、例えばROM、RAMあるいはハードディスクなどから構成される。記憶部22には、サーバ16の各部を動作させるための情報処理プログラムが記憶される。また、記憶部22には、学習器24が記憶される。
The
学習器24は、詳しくは後述するように、カメラ12が撮影した画像を入力画像とし、当該入力画像に含まれる車両に関する複数の特徴点を検出するものである。本実施形態における学習器24は、例えば畳み込みニューラルネットワークを含んで構成される。
The
なお、畳み込みニューラルネットワークは、一般的に、複数の層を含んで構成される。畳み込みニューラルネットワークの各層は、配列(例えば2次元配列)されたニューロン群から構成される。また、畳み込みニューラルネットワークにおいては、ニューロン群と同様に2次元配列された複数の要素を含むフィルタが用いられる。フィルタは各層に応じて設けられ、通常、フィルタのサイズ(配列された要素の数)は、それが適用されるニューロン群のサイズ(配列されたニューロンの数)よりも小さくなっている。フィルタの各要素には、重みが設定されている。 Generally, a convolutional neural network is configured to include a plurality of layers. Each layer of the convolutional neural network is composed of an array of neurons (for example, a two-dimensional array). In addition, in the convolutional neural network, a filter including a plurality of elements arranged two-dimensionally as in the neuron group is used. A filter is provided for each layer, and the size of the filter (the number of arranged elements) is usually smaller than the size of the neuron group to which it is applied (the number of arranged neurons). Each element of the filter is assigned a weight.
各層のニューロン群に対してフィルタが適用される。概念的には、ニューロン群の一部に対してフィルタが重ね合わされる。フィルタの各要素に設定された各重みと、フィルタが重なる複数のニューロン(ニューロン群の一部)の活性との積和が計算される。すなわち、フィルタの各要素に設定された重みをベクトルの要素として持つ重みベクトルと、複数のニューロンの活性をベクトルの要素として持つ活性ベクトルとの内積が計算される。当該内積が当該層の出力の1つの活性となる。 A filter is applied to each group of neurons. Conceptually, filters are superimposed on some of the neurons. A product sum of each weight set to each element of the filter and the activity of a plurality of neurons (parts of neuron groups) overlapping the filter is calculated. That is, an inner product of a weight vector having the weight set to each element of the filter as an element of the vector and an activity vector having activities of a plurality of neurons as an element of the vector is calculated. The inner product is one activity of the output of the layer.
フィルタは、ニューロン群上を縦横方向に1つ(1ニューロン)ずつ、あるいは、数ニューロンずつずらしながら適用されていく。これにより、当該層の出力として、配列された活性群が出力される。当該活性群が次層のニューロン群の活性となる。複数の層のニューロン群に対してフィルタを適用していくことで、入力画像から最終的に車両に関する複数の特徴点が検出される。 The filters are applied while being shifted one by one (one neuron) or several neurons at a time in the vertical and horizontal directions on the neuron group. Thus, the arranged active groups are output as the output of the layer. The said active group becomes an activity of the neuron group of the following layer. By applying a filter to a plurality of layer neuron groups, a plurality of feature points of the vehicle are finally detected from the input image.
以上のように、本実施形態においては、学習器24の実態は、畳み込みニューラルネットワークに関する各種パラメータ(層構造、各層のニューロン構造、各層におけるフィルタ数、フィルタサイズ、及び各フィルタの各要素の重みなど)、並びに、入力画像に対して処理を行うための処理実行プログラムである。したがって、記憶部22に学習器24が記憶されるとは、上記各種パラメータ及び処理実行プログラムが記憶部22に記憶されることを意味する。なお、学習器24としては、複数のニューラルネットワークを含むものであってもよい。
As described above, in the present embodiment, the actual state of the
学習器24の学習方法について説明する。学習器24は、車両を含む学習用画像と、それに関連する情報を含む学習用データを用いて学習を行う。ちなみに、学習器24の学習とは、学習器24が畳み込みニューラルネットワークであれば、フィルタの各要素の重みを調整することを意味する。
The learning method of the
図3には、学習用画像26の例が示されている。学習用画像26は、車両を含む限りにおいてどのような画像であってもよく、その取得方法もどのような方法であってもよい。また、図3の例では、学習用画像26は1つの車両を含むものであるが、学習用画像26に複数の車両が含まれていてもよい。
An example of the learning
学習用データには、学習用画像26に含まれる車両に関する複数の特徴点(28a〜28k、以後、学習用画像26に含まれる車両に関する複数の特徴点を総称して特徴点28と記載する)の位置を示す情報が含まれる。本実施形態では、車両に関する特徴点28として、車両のルーフの4隅(特徴点28a〜28d)、特徴点28aと28dを結ぶ線分と、特徴点28bと28cを結ぶ線分との交点である特徴点28e、2つのヘッドライト(特徴点28f及び28g)、2つテールライト(特徴点28h及び28i)、及び、4つのタイヤ(特徴点28j及び28k)の13個の特徴点28の位置が既知となっている。なお、図3に示す画像のように、13個の特徴点全てが画像に含まれない場合もある。また、車両に関する特徴点28としては、上述の位置に限られず、その他の位置(例えば前後のナンバープレートの位置など)が含まれていてもよい。複数の特徴点は、画像中において車両がどのような向きであっても、できるだけ多くの特徴点が画像に現れるように、その位置が設定される。
In the learning data, a plurality of feature points regarding the vehicle included in the learning image 26 (28a to 28k, hereinafter, a plurality of feature points regarding the vehicle included in the
これら特徴点28の位置を示す情報としては、例えば、学習用画像26における座標である。
The information indicating the position of the feature point 28 is, for example, coordinates in the
また、学習用データには、各特徴点28が示す車両の箇所を示す情報が含まれる。車両の箇所とは、車両の特定の部位であり、例えば、ルーフ中央、あるいは右前輪などである。図3の例では、特徴点28aがルーフ右前隅、特徴点28bがルーフ左前隅、特徴点28cがルーフ右後隅、特徴点28dがルーフ左後隅、特徴点28eがルーフ中央、特徴点28fが右ヘッドライト、特徴点28gが左ヘッドライト、特徴点28hが右テールライト、特徴点28iが左テールライト、特徴点28jが左前輪、特徴点28kが左後輪であることを示す情報が学習用データに含まれる。なお、学習用画像26に複数の車両が含まれる場合は、学習用データには、車両毎に区別された、各特徴点28の箇所を示す情報が含まれる(例えば、特徴点28aは、「車両Aの」ルーフ右前隅である、など)。
The learning data also includes information indicating the location of the vehicle indicated by each feature point 28. The location of the vehicle is a specific location of the vehicle, such as the center of the roof or the front right wheel. In the example of FIG. 3, the
また、学習用データには、各特徴点28から他の特徴点へ向かう向き(本実施形態ではベクトル)を示す情報が含まれる。なお、特徴点同士を結ぶベクトルは、各特徴点28の位置を示す情報に基づいて所定のプログラムにより自動的に生成されたものを用いることができる。 The learning data also includes information indicating the direction (vector in the present embodiment) from each feature point 28 to another feature point. In addition, as a vector connecting feature points, a vector automatically generated by a predetermined program based on information indicating the position of each feature point 28 can be used.
好適には、学習用データには、学習用画像26が撮影された時の天気を示す情報を含んでいてもよい。天気としては、例えば、晴れ、曇り、雨、あるいは雪などである。また、好適には、学習用データには、学習用画像26に含まれる車両の各ライト(ヘッドライト及びテールライトなど含む)の点灯有無を示す情報を含んでいてもよい。
Preferably, the learning data may include information indicating the weather when the learning
なお、上述した、車両の複数の特徴点28の位置、各特徴点28が示す車両の箇所、学習用画像26が撮影された時の天気、及び、学習用画像26に含まれる車両の各ライトの点灯有無をそれぞれ示す各情報は、例えば学習用画像26のメタデータとして付加されていてもよい。
The positions of the plurality of feature points 28 of the vehicle, the location of the vehicle indicated by each feature point 28, the weather when the learning
学習器24は、多数の学習用データを用いて学習することで、入力画像から車両に関する複数の特徴点を検出することが可能となる。特に、学習器24は、車両に関する複数の特徴点28の位置と、各特徴点28が示す車両の箇所が既知である学習用データを用いて学習する。これにより、学習器24は、検出した特徴点が車両のどの箇所に対応するものであるかを識別して検出可能となる。
The
対応する車両の箇所を識別した上で複数の特徴点を検出可能であることは、入力画像に含まれる車両の各箇所間の位置関係を検出可能であることを意味する。換言すれば、学習器24は、学習用データから、車両のある箇所(特徴点)から他の箇所(特徴点)へ向かう向き(本実施形態ではベクトル)を学習し、学習済みの学習器24は、入力画像から検出した各特徴点間の向き(ベクトル)を検出可能になると言える。また、学習器24は、学習用画像26に複数の車両が含まれている場合であっても、学習用データにおいては、車両毎に区別された上で、各特徴点28が示す車両の箇所が既知であるから、車両毎に区別して、各特徴点間の向きを学習することができる。
Being able to detect a plurality of feature points after identifying the corresponding vehicle location means that it is possible to detect the positional relationship between vehicle locations included in the input image. In other words, the
好適には、学習器24は、特徴点及び各特徴点間の向きに加え、学習用画像26が撮影された時の天気を出力するように学習する。例えば、天気が雪である場合、積雪によって車両のルーフの4隅及びルーフ中央が隠れてしまう場合がある。このような場合でも、天気を示す情報を含む学習用画像26を用いて入力画像の天気を出力するように学習することで、学習器24は、学習用画像26が撮影された時の天気が雪であることを考慮した上で特徴点を検出するようになると考えられる。これにより、学習器24が、入力画像から車両に関する複数の特徴点を検出する際の検出精度を向上させることができる。
Preferably, the
同様に、好適には、学習器24は、特徴点及び各特徴点間の向きに加え、学習用画像26に含まれる車両の各ライトの点灯有無を出力するように学習する。昼間に撮影された画像と夜間に撮影された画像とを比較したときに、ライトの点灯有無に応じて入力画像のライトの位置付近の輝度値が変化するなど画像の見た目が大きく異なる。このような場合でも、車両の各ライトの点灯有無を示す情報を含む学習用画像26を用いて入力画像に含まれる車両の各ライトの点灯有無を出力するように学習することで、学習器24は、学習用画像26が撮影された時の車両の各ライトの点灯有無を考慮した上で特徴点を検出するようになると考えられる。これにより、学習器24が、入力画像から車両に関する複数の特徴点を検出する際の検出精度を向上させることができる。
Similarly, preferably, the
図2に戻り、制御部30は、例えばCPUあるいはマイクロコントローラなどを含んで
構成される。制御部30は、記憶部22に記憶された情報処理プログラムに従ってサーバ16の各部を制御する。また、図2に示される通り、制御部30は、車両検出部32、人物検出部34、処理演算部36、及び、同一性判定部38としても機能する。
Returning to FIG. 2, the
車両検出部32は、カメラ12が撮影した画像である入力画像から車両を検出する処理を実行する。具体的には、車両検出部32は、入力画像を学習済みの学習器24に入力し、入力画像に対する学習器24による複数の特徴点の検出結果に基づいて、当該入力画像から車両を検出する。
The
図4には、入力画像の例が示されている。以下、図4に示す入力画像40に対する、学習器24の出力及び車両検出部32による車両検出処理の詳細を説明する。図4に示す通り、本実施形態においては、入力画像40には複数の車両42が含まれている。なお、車両検出部32の処理対象となる入力画像としては、1つの車両42のみを含むものであってもよく、車両42が含まれない画像でもよい。
An example of the input image is shown in FIG. Hereinafter, the output of the
車両検出部32が、十分に学習された学習器24に入力画像40を入力すると、学習器24は、ヒートマップ及びベクトルマップを出力する。
When the
図5には、入力画像40に対するヒートマップ50が示されている。上述のように、学習器24は、入力画像40から各車両に関する複数の特徴点を検出する。ヒートマップ50は、検出された複数の特徴点52の位置を示すマップである。なお、検出された複数の特徴点52の位置は、入力画像40における座標で表される。
A
図6には、入力画像40に対するベクトルマップ60が示されている。上述の通り、学習器24は、入力画像から検出した各特徴点52間の向きを検出する。特に、学習器24は、入力画像に複数の車両が含まれている場合には、車両毎に区別して、各特徴点52間の向きを検出する。ベクトルマップ60は、車両毎の各特徴点52間の向きを示すベクトル62の位置及び向きを示すマップである。なお、図6に示すベクトルマップ60には特徴点52が示されているが、ベクトルマップ60は特徴点52を含んでいなくてもよい。
A vector map 60 for the input image 40 is shown in FIG. As described above, the
各ベクトル62は、一の特徴点52と他の特徴点52との間に示されるものであるが、その向き(一の特徴点52から他の特徴点52へ向かう向きなのか、他の特徴点52から一の特徴点52へ向かう向きなのか)は、予め定義されておいてよい。例えば、本実施形態においては、各ベクトル62は、原則的に、前から後ろ(例えばルーフ右前隅からルーフ右後隅へ向かう方向)、右から左(例えばルーフ右前隅からルーフ左前隅へ向かう方向)の向きとなっている。
Each
ベクトルマップ60においては、隣接する(近傍にある)特徴点52間のみのベクトル62が示されるようにしてもよいが、ある特徴点52から、当該特徴点52と同一車両に対応する他の全ての特徴点52との間にベクトル62が示されるようにしてもよい。図6に示すベクトルマップ60においては、一部のベクトル62のみが示されている。
In the vector map 60, a
車両検出部32は、ヒートマップ50において検出された特徴点52とベクトルマップ60に基づいて、入力画像40から車両を検出する。具体的な検出処理の内容を以下に説明する。
The
車両検出部32は、ヒートマップ50に対してフィルタリング処理を施し、ヒートマップ50に含まれる特徴点群から確率が所定値以上である特徴点を有効な複数の特徴点として抽出する。次に、抽出された有効な複数の特徴点の間の全ての組合せについて、特徴点と特徴点を結ぶ線分上でベクトルマップ60の積分を行う。そして、ベクトルの積分値の
平均が所定値以上の2つの特徴点の組を正解の組合せとして特定する。このようにして、有効な複数の特徴点を複数のグループにグルーピングしていく。そうすると、例えば、特徴点を3つ有するグループA、特徴点を5つ有するグループB、特徴点を6つ有するグループC、あるいは他の特徴点と組み合わされなかった単独の特徴点などといったように分類される。そして、所定数以上の特徴点を含むグループを、車両を表すグループとして特定する。すなわち、車両として検出する。
The
このように、本実施形態によれば、入力画像40から検出された特徴点52に基づいて車両を検出するから、入力画像40において、車両の一部が隠れたり、見切れていたり、あるいは車両のアングルに関わらず、入力画像40から車両を検出することができる。一方、ヒートマップ50において特徴点52が検出されなかった場合には、車両検出部32は、入力画像40に車両は含まれていない、と判定することができる。
As described above, according to the present embodiment, since the vehicle is detected based on the feature points 52 detected from the input image 40, a part of the vehicle is hidden or missed in the input image 40, or Vehicles can be detected from the input image 40 regardless of the angle. On the other hand, when the
また、上述の通り、学習器24は、対応する車両の箇所が識別された複数の特徴点52を検出可能である。例えば、学習器24は、特徴点52aがルーフ右前隅、特徴点52bがルーフ左前隅、特徴点52cがルーフ右後隅、特徴点52dがルーフ左後隅、特徴点52eがルーフ中央、特徴点52fが右ヘッドライト、特徴点52gが左ヘッドライト、特徴点52hが右前輪、特徴点52iが右後輪であることを識別した上で、各特徴点52を検出する。
In addition, as described above, the
車両検出部32は、車両の箇所が識別された複数の特徴点52の位置関係に基づいて、入力画像40に含まれる車両の向きを検出することができる。例えば、図5に示されたヒートマップ50の例では、ルーフ右前隅に対応する特徴点52aの左上側に、ルーフ右後隅に対応する特徴点52c位置しており、また、ルーフ右前隅に対応する特徴点52aの右上側に、ルーフ左前隅に対応する特徴点52bが位置している。このような位置関係から、車両検出部32は、複数の特徴点52a〜iにより表される車両は、入力画像40において前側を右下方向に向けていることを検出することができる。
The
また、車両検出部32は、車両の箇所が識別された複数の特徴点52の位置関係に基づいて、車両の種別を検出することができる。車両の種別とは、その外形の違いにより区別されるものであり、例えば、セダン、バン、軽自動車、トラック、あるいはタクシーなどの種別である。
In addition, the
例えば、バンは、タイヤの位置からルーフの位置までの距離がセダンに比して長い。また、トラックは、タイヤの位置からルーフの位置までの距離がセダンに比して比較的長い上、ルーフの前後方向の長さがセダンあるいはバンに比して長い。各種別の車両は、このように外形上の違いを有しているため、車両検出部32は、複数の特徴点52の位置によって入力画像40に含まれる車両の種別を検出することができる。なお、入力画像40における車両のアングルによって、複数の特徴点52間の距離が変動し得るので、例えば、車両のルーフの4隅の特徴点の位置関係などに基づいて当該車両のアングルを推定した上で、車両の種別を検出するのが好適である。
For example, in the van, the distance from the position of the tire to the position of the roof is longer than that of the sedan. Further, in the truck, the distance from the position of the tire to the position of the roof is relatively long as compared to the sedan, and the length in the front-rear direction of the roof is long as compared to the sedan or van. Since the vehicles of each type have the difference in external shape as described above, the
図4に示すように、入力画像40が複数の車両42を含む場合、特に、複数の車両42が近接あるいは重なっている場合、ヒートマップ50において、複数の車両に対応する複数の特徴点52が密集して検出されることになる。例えば、図5のヒートマップ50の下部に位置する特徴点群64がその例である。この場合、各特徴点52が対応する車両の箇所が識別されているとはいえ、ヒートマップ50からだけでは、特徴点群64を各車両に対応するグループに適切に区別するのが困難になる場合がある。
As shown in FIG. 4, when the input image 40 includes a plurality of
本実施形態では、ベクトルマップ60を用いることで、複数の車両に対応する特徴点5
2が密集した特徴点群64が形成された場合であっても、特徴点群64を各車両に対応するグループに適切に区別することができる。具体的には、ベクトルマップ60に含まれる各ベクトル62は、ある車両の特徴点52と、当該車両の他の特徴点52との間に示されるものである。したがって、特徴点群64に含まれる各特徴点52間の向きに基づいて、特徴点群64を、各車両に対応した特徴点グループ64aと特徴点グループ64bに区別することができる。
In the present embodiment, feature points 5 corresponding to a plurality of vehicles are obtained by using the vector map 60.
Even when the
入力画像40から検出された複数の特徴点52が適切に車両毎に区別されることで、車両検出部32は、入力画像40に含まれる各車両の向きを検出することが可能となる。それと同時に、車両検出部32は、入力画像40に含まれる車両の台数を検出することが可能になる。
The
図2に戻り、人物検出部34は、入力画像40に含まれる人物を検出する。入力画像40からの人物の検出方法としては、車両を検出するための学習器24と同様の構成であって、人物を検出するように学習された他の学習器を用いてもよいし、あるいは、既知の画像解析処理などを用いるようにしてもよい。特に、人物検出部34は、入力画像40に含まれる人物の数を検出する。
Returning to FIG. 2, the
処理演算部36は、車両検出部32による入力画像からの車両の検出結果と、人物検出部34による入力画像からの人物の検出結果に基づいて演算を行う。本実施形態においては、図7に示されるような、タクシー乗り場を俯瞰的に撮影した入力画像40−2に対して、車両検出部32がタクシー70の数を検出し、人物検出部34が人物72の数を検出する。そして、処理演算部36は、入力画像40−2におけるタクシー70の台数と人物72の数とに基づいて演算を行い、タクシーの需要を判定する。このように、処理演算部36は、タクシー需要判定部として機能する。
The
車両検出部32によるタクシーの検出方法としては、様々な方法を採用することができる。まず、学習器24によりヒートマップ50(図5参照)が出力された後に、ルーフ中央に対応する特徴点52を含む一定の領域に対して画像解析を実施し、行灯を検出するようにしてもよい。もちろん、行灯が検出されれば当該車両はタクシーであると判定できるし、行灯が検出されなければ当該車両はタクシーではないと判定できる。
As a method of detecting a taxi by the
また、学習用画像26(図3参照)に含まれる車両がタクシーであることを示す情報を学習データに付加し、学習器24が入力画像40−2からタクシーを識別可能なように学習器24を学習させてもよい。
In addition, information indicating that the vehicle included in the learning image 26 (see FIG. 3) is a taxi is added to the learning data, and the
あるいは、カメラ12の撮影対象場所によっては、入力画像40−2に含まれる車両はすべてタクシーであるとみなすようにしてもよい。
Alternatively, depending on the shooting target location of the
処理演算部36は、上述した方法により入力画像40−2に含まれるタクシー70及び人物72を検出し、タクシー70の台数よりも人物72の数が多い場合は、タクシーの需要有りと判定し、例えばタクシーの配車担当者が利用するユーザ端末14に当該タクシー乗り場でタクシーの需要があることを示す情報を送信する。また、処理演算部36は、入力画像40−2におけるタクシー70の台数と人物72の数との差分を算出し、当該差分(すなわち必要なタクシーの台数)を示す情報をユーザ端末14に送信するようにしてもよい。
The
また、処理演算部36は、タクシー乗り場における過去の複数の入力画像40−2に含まれるタクシー70の台数及び人物72の数の統計データに基づいて、当該タクシー乗り場における将来のタクシーの需要量を予測するようにしてもよい。
The
図2に戻り、同一性判定部38は、同一のカメラ12で異なるタイミングで撮影された複数の入力画像において、車両の同一性を判定する(つまり同じ車両を識別する)処理を行う。同一性判定部38によれば、あるカメラ12の撮影範囲の中で、同一車両を追従することが可能になり、車両がどのような動きをするのかを検出することが可能になる。以下の説明においては、同一のカメラ12で異なるタイミングで撮影された、車両Aを含む第1入力画像と車両Bを含む第2入力画像との間で、車両Aと車両Bの同一性を判定する処理について説明する。
Returning to FIG. 2, the
まず、同一性判定部38は、第1入力画像から学習器24が検出した車両Aに関する複数の特徴点の各画素の色情報と、第2入力画像から学習器24が検出した車両Bに関する複数の特徴点の各画素の色情報とを取得する。なお、色情報とは、色相、明度(輝度)、及び彩度を含む概念である。
First, the
本実施形態では、学習器24は、第1入力画像あるいは第2入力画像の1つの画素の座標として各特徴点を検出しているところ、同一性判定部38は、学習器24により検出された1つの画素を中心とする一定の面積を持った領域を色情報の取得対象の領域(以後画素領域と記載する)とする。また、第1入力画像あるいは第2入力画像の車両の大きさに応じて、画素領域の面積を変化させるようにしてもよい。例えば、入力画像中の車両が大きい程、画素領域の面積を大きくするようにしてもよい。なお、入力画像中の車両の大きさは、車両の箇所が識別された複数の特徴点の位置に基づいて検出することができる。
In the present embodiment, while the
本実施形態では、同一性判定部38は、各画素領域に含まれる複数の画素の色をL*a*b*色空間で表現した上で、複数の画素の色の代表値(例えば平均値、中央値、最頻値)を求める。そして、求めた色の代表値を画素領域の色情報とする。なお、各画素の色をL*a*b*色空間で表現するのは、L*a*b*色空間が人間の視覚に近似するように設計されているためである。
In the present embodiment, the
なお、各画素領域の色情報として上記以外の特徴量を採用してもよい。例えば、画素領域に含まれる複数の画素におけるHOG(Histograms of Oriented Gradients)特徴量を算
出するようにしてもよい。ここで、HOG特徴量とは、画素領域内の各画素の輝度の勾配方
向をヒストグラム化した特徴量である。
Note that feature amounts other than the above may be adopted as color information of each pixel area. For example, HOG (Histograms of Oriented Gradients) feature quantities of a plurality of pixels included in a pixel area may be calculated. Here, the HOG feature value is a feature value obtained by histogramming the gradient direction of the luminance of each pixel in the pixel area.
以上のようにして、第1入力画像に含まれる車両Aの各特徴点に対応する画素の色情報、及び、第2入力画像に含まれる車両Bの各特徴点に対応する画素の色情報が取得される。 As described above, the color information of the pixel corresponding to each feature point of the vehicle A included in the first input image and the color information of the pixel corresponding to each feature point of the vehicle B included in the second input image It is acquired.
次いで、同一性判定部38は、車両Aの各特徴点の色情報と、車両Bの各特徴点の色情報とを比較する。詳しくは、車両の箇所毎に、車両Aの特徴点の色情報と車両Bの特徴点の色情報を比較する。これにより、同一性判定部38は車両Aと車両Bとの同一性を判定する。具体的には、車両Aのある特徴点(ここではルーフ右前隅とする)と、車両Bの対応する箇所であるルーフ右前隅の特徴点との色情報の差分(色差)を算出する。このように、全ての箇所について色差を算出する。
Next, the
本実施形態では、CIE2000色差式により、各特徴点の画素の色情報の色差を算出する。これは、CIE2000色差式は、人間の目の色識別域の特徴である、色相依存性、明度依存性、及び彩度依存性を考慮した計算式であるためである。すなわち、CIE2000色差式に基づく色差は、人間の視覚による色の差に近い値となるためである。 In the present embodiment, the color difference of the color information of the pixel of each feature point is calculated by the CIE 2000 color difference formula. This is because the CIE 2000 color difference equation is a calculation equation taking into consideration the hue dependency, the lightness dependency, and the saturation dependency, which are features of the color discrimination region of human eyes. That is, the color difference based on the CIE 2000 color difference formula is a value close to the color difference by human vision.
図8に、車両Aの各特徴点の色情報と、車両Bの各特徴点の色情報との差(色差)が示
されている。同一性判定部38は、算出された色差に基づいて、特徴点毎に類似度を算出する。具体的には、同一性判定部38は、色差が小さい程類似度が大きくなるように算出する。本実施形態では、以下の式によって色差から類似度を算出する。
図8には、特徴点毎に算出された類似度が示されている。このようにして、車両Aと車両Bとの間において、複数の(本実施形態では13個)特徴点についての複数の類似度が算出される。同一性判定部38は、算出された複数の類似度の代表値(例えば平均値、中央値、最頻値)を求める。このように求められた類似度の代表値が車両Aと車両Bとの類似度となる。なお、第1入力画像又は第2入力画像における見切れ、あるいは隠れなどにより、車両A又は車両Bの複数の特徴点のうち検出されなかった特徴点がある場合には、当該特徴点に関する類似度は予め定められた値(本実施形態では50%)とする。
FIG. 8 shows the similarity calculated for each feature point. In this manner, between the vehicle A and the vehicle B, a plurality of (about 13 in the present embodiment) feature points are calculated with respect to a plurality of similarities. The
以上のようにして、第1入力画像に含まれる車両Aと第2入力画像に含まれる車両Bの類似度が算出される。同一性判定部38は、算出された類似度が予め定められた類似度閾値以上である場合に車両Aと車両Bが同一車両であると判定し、算出された類似度が類似度閾値未満である場合に車両Aと車両Bが同一車両ではないと判定する。
As described above, the similarity between the vehicle A included in the first input image and the vehicle B included in the second input image is calculated. When the calculated similarity is equal to or higher than a predetermined similarity threshold, the
上述のように、同一性判定部38は、異なるタイミングで撮影された複数の入力画像間において車両の同一性を判定する。好適には、カメラ12が撮像した動画に含まれる、隣接するフレーム画像間毎に上記処理を行うことによって、動画像において同一車両をトラッキングすることができる。
As described above, the
以下、図9に示すフローチャートに従って、本実施形態に係るサーバ16の処理の流れを説明する。
Hereinafter, the flow of processing of the
ステップS10において、サーバ16の制御部30は、車両を含む学習用画像26、学習用画像26に含まれる車両に関する複数の特徴点28の位置を示す情報、及び、各特徴点28が示す車両の箇所を示す情報を含む学習用データを学習器24に入力することを繰り返すことで、学習器24を学習させる。ステップS10が学習ステップに相当する。
In step S10, the
ステップS12において、車両検出部32は、カメラ12が撮影した入力画像40を学習済みの学習器24に入力する。
In step S12, the
ステップS14において、学習器24は、ステップS12で入力された入力画像40に対して、ヒートマップ50及びベクトルマップ60を出力する。
In step S14, the
ステップS16において、車両検出部32は、ステップS14で出力されたヒートマップ50に基づいて、入力画像40に車両が含まれるか否かを判定する。具体的には、入力画像40から学習器24が車両に関する特徴点52を検出した場合には、車両検出部32は、入力画像40に車両が含まれると判定する。入力画像40に車両が含まれると判定された場合はステップS18に進み、入力画像40に車両が含まれていないと判定された場合は処理を終了する。ない。ステップS12〜S16が車両検出ステップに相当する。
In step S16, the
ステップS18において、車両検出部32は、車両の箇所が識別された複数の特徴点52の位置関係に基づいて、車両の向き及び種別を検出する。入力画像40に複数の車両が含まれる場合には、車両検出部32は、ステップS14で出力されたベクトルマップを用いて複数の特徴点52を車両毎に区別した上で、複数の車両の向き、種別、あるいは台数を検出する。
In step S18, the
以上、本発明に係る実施形態を説明したが、本発明は上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない限りにおいて種々の変更が可能である。 As mentioned above, although embodiment which concerns on this invention was described, this invention is not limited to the said embodiment, A various change is possible unless it deviates from the meaning of this invention.
例えば、本実施形態では、情報処理装置としてのサーバ16が、学習器24の学習処理と、学習器24を用いた車両検出処理の両方を実行しているが、学習処理と車両検出処理を別の主体(装置)で実行するようにしてもよい。例えば、他の装置において学習された学習済みの学習器24をサーバ16の記憶部22に記憶させて、当該学習器24を用いてサーバ16が車両検出処理を実行するようにしてもよい。
For example, in the present embodiment, the
また、本発明は車両以外にも、船や飛行機などの乗り物にも適用可能である。 In addition to vehicles, the present invention is also applicable to vehicles such as ships and airplanes.
10 情報処理システム、12 カメラ、14 ユーザ端末、16 サーバ、18 通信回線、20 通信部、22 記憶部、24 学習器、30 制御部、32 車両検出部、34 人物検出部、36 処理演算部、38 同一性判定部。
Claims (9)
学習済みの前記学習器に入力画像を入力して、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出する車両検出部と、
を備えることを特徴とする情報処理装置。 Learning using learning data including a learning image including a vehicle, information indicating positions of a plurality of feature points regarding the vehicle included in the learning image, and information indicating a location of the vehicle indicated by each feature point The learning device to
A vehicle detection unit that inputs an input image to the learned device that has been learned, and detects a vehicle included in the input image based on a feature point related to a vehicle detected by the learner from the input image;
An information processing apparatus comprising:
ことを特徴とする請求項1に記載の情報処理装置。 The vehicle detection unit detects the direction of the vehicle included in the input image based on the positional relationship of a plurality of feature points detected by the learning device from the input image and in which the location of the corresponding vehicle is identified. ,
An information processing apparatus according to claim 1, characterized in that.
前記車両検出部は、前記学習器が前記入力画像から検出した複数の特徴点間の向きに基づいて、前記入力画像に含まれる複数の車両を区別した上で、複数の車両の向き及び台数の少なくとも一方を検出する、
ことを特徴とする請求項1に記載の情報処理装置。 The learning device learns an orientation between the plurality of feature points of the vehicle included in the image for learning.
The vehicle detection unit distinguishes the plurality of vehicles included in the input image based on the orientation between the plurality of feature points detected from the input image by the learning device, and then determines the direction and number of the plurality of vehicles. Detect at least one,
An information processing apparatus according to claim 1, characterized in that.
前記学習器は、前記学習用画像が撮影された時の天気を考慮して学習する、
ことを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。 The learning data includes information indicating weather when the learning image is taken,
The learning device performs learning in consideration of the weather when the image for learning is taken.
The information processing apparatus according to any one of claims 1 to 3, characterized in that:
前記学習器は、前記学習用画像に含まれる車両のライトの点灯有無を考慮して学習する、
ことを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。 The learning data includes information indicating whether or not the light of the vehicle included in the learning image is lit,
The learning device performs learning in consideration of whether the lights of the vehicle included in the image for learning are lit.
The information processing apparatus according to any one of claims 1 to 4, characterized in that:
ことを特徴とする請求項1に記載の情報処理装置。 The vehicle detection unit detects the type of the vehicle included in the input image based on the positional relationship of a plurality of feature points detected by the learning device from the input image and in which the location of the corresponding vehicle is identified.
An information processing apparatus according to claim 1, characterized in that.
前記情報処理装置は、さらに、
前記入力画像を解析することで、前記入力画像に含まれる人物を検出する人物検出部と、
前記入力画像に含まれるタクシーの台数と人物の数とに基づいて、タクシーの需要を判定するタクシー需要判定部と、
を備えることを特徴とする請求項6に記載の情報処理装置。 The vehicle detection unit identifies that the type of vehicle included in the input image is a taxi based on the output of the learning device for the input image,
The information processing apparatus further includes:
A person detection unit that detects a person included in the input image by analyzing the input image;
A taxi demand determination unit that determines a taxi demand based on the number of taxis and the number of persons included in the input image;
The information processing apparatus according to claim 6, comprising:
車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習する学習器と、
学習済みの前記学習器に入力画像を入力して、前記学習器が前記入力画像から検出した
車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出する車両検出部と、
として機能させることを特徴とする情報処理プログラム。 Computer,
Learning using learning data including a learning image including a vehicle, information indicating positions of a plurality of feature points regarding the vehicle included in the learning image, and information indicating a location of the vehicle indicated by each feature point The learning device to
A vehicle detection unit that inputs an input image to the learned device that has been learned, and detects a vehicle included in the input image based on a feature point related to a vehicle detected by the learner from the input image;
An information processing program characterized in that it functions as:
学習済みの前記学習器に入力画像を入力して、コンピュータが、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出する車両検出ステップと、
を含むことを特徴とする情報処理方法。 Learning using learning data including a learning image including a vehicle, information indicating positions of a plurality of feature points regarding the vehicle included in the learning image, and information indicating a location of the vehicle indicated by each feature point Learning steps to learn the
A vehicle detection step of inputting an input image into the learned device, and detecting a vehicle included in the input image based on a feature point of the vehicle detected by the learner from the input image;
An information processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019008821A JP2019106193A (en) | 2019-01-22 | 2019-01-22 | Information processing device, information processing program and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019008821A JP2019106193A (en) | 2019-01-22 | 2019-01-22 | Information processing device, information processing program and information processing method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017239974A Division JP6472504B1 (en) | 2017-12-14 | 2017-12-14 | Information processing apparatus, information processing program, and information processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019106193A true JP2019106193A (en) | 2019-06-27 |
Family
ID=67061388
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019008821A Pending JP2019106193A (en) | 2019-01-22 | 2019-01-22 | Information processing device, information processing program and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019106193A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111340877A (en) * | 2020-03-25 | 2020-06-26 | 北京爱笔科技有限公司 | Vehicle positioning method and device |
KR20210010124A (en) * | 2019-07-19 | 2021-01-27 | (주)유에이치알앤디 | Traffic volume computation program using ai and operation method thereof |
KR20210064747A (en) * | 2019-11-26 | 2021-06-03 | 주식회사 옵티로 | Cargo movement information management system using image analysis and blockchain |
US20210192214A1 (en) * | 2020-06-30 | 2021-06-24 | Beijing Baidu Netcom Science Technology Co., Ltd. | Vehicle re-identification method, apparatus, device and storage medium |
WO2023007551A1 (en) * | 2021-07-26 | 2023-02-02 | ファナック株式会社 | Image processing device and computer-readable storage medium |
-
2019
- 2019-01-22 JP JP2019008821A patent/JP2019106193A/en active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210010124A (en) * | 2019-07-19 | 2021-01-27 | (주)유에이치알앤디 | Traffic volume computation program using ai and operation method thereof |
KR102247674B1 (en) * | 2019-07-19 | 2021-05-03 | (주)유에이치알앤디 | Traffic volume computation program using ai and operation method thereof |
KR20210064747A (en) * | 2019-11-26 | 2021-06-03 | 주식회사 옵티로 | Cargo movement information management system using image analysis and blockchain |
KR102287360B1 (en) * | 2019-11-26 | 2021-08-06 | 주식회사 옵티로 | Cargo movement information management system using image analysis and blockchain |
CN111340877A (en) * | 2020-03-25 | 2020-06-26 | 北京爱笔科技有限公司 | Vehicle positioning method and device |
CN111340877B (en) * | 2020-03-25 | 2023-10-27 | 北京爱笔科技有限公司 | Vehicle positioning method and device |
US20210192214A1 (en) * | 2020-06-30 | 2021-06-24 | Beijing Baidu Netcom Science Technology Co., Ltd. | Vehicle re-identification method, apparatus, device and storage medium |
JP2021103565A (en) * | 2020-06-30 | 2021-07-15 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. | Method, device, apparatus, and storage medium for re-identifying vehicle |
JP7268076B2 (en) | 2020-06-30 | 2023-05-02 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | Vehicle re-identification method, apparatus, equipment and storage medium |
US11694436B2 (en) * | 2020-06-30 | 2023-07-04 | Beijing Baidu Netcom Science Technology Co., Ltd. | Vehicle re-identification method, apparatus, device and storage medium |
WO2023007551A1 (en) * | 2021-07-26 | 2023-02-02 | ファナック株式会社 | Image processing device and computer-readable storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110097109B (en) | Road environment obstacle detection system and method based on deep learning | |
US10387725B2 (en) | System and methodologies for occupant monitoring utilizing digital neuromorphic (NM) data and fovea tracking | |
JP2019106193A (en) | Information processing device, information processing program and information processing method | |
CN111767882A (en) | Multi-mode pedestrian detection method based on improved YOLO model | |
JP6650657B2 (en) | Method and system for tracking moving objects in video using fingerprints | |
CN111860274B (en) | Traffic police command gesture recognition method based on head orientation and upper half skeleton characteristics | |
WO2015025704A1 (en) | Video processing device, video processing method, and video processing program | |
Cheng et al. | A self-constructing cascade classifier with AdaBoost and SVM for pedestriandetection | |
CN110210474A (en) | Object detection method and device, equipment and storage medium | |
CN106570439B (en) | Vehicle detection method and device | |
CN106529419A (en) | Automatic detection method for significant stack type polymerization object in video | |
Liu et al. | Multi-type road marking recognition using adaboost detection and extreme learning machine classification | |
JP4674179B2 (en) | Shadow recognition method and shadow boundary extraction method | |
CN101383005A (en) | Method for separating passenger target image and background by auxiliary regular veins | |
CN106407951A (en) | Monocular vision-based nighttime front vehicle detection method | |
JP6947005B2 (en) | Attribute recognition device, attribute recognition method, and machine learning device | |
JP6472504B1 (en) | Information processing apparatus, information processing program, and information processing method | |
KR101343623B1 (en) | adaptive color detection method, face detection method and apparatus | |
Santos et al. | Car recognition based on back lights and rear view features | |
Hariri et al. | Vision based smart in-car camera system for driver yawning detection | |
CN116012822B (en) | Fatigue driving identification method and device and electronic equipment | |
CN117292346A (en) | Vehicle running risk early warning method for driver and vehicle state integrated sensing | |
Pandey et al. | Dumodds: Dual modeling approach for drowsiness detection based on spatial and spatio-temporal features | |
JP5407723B2 (en) | Recognition device, recognition method, and program | |
CN110660187A (en) | Forest fire alarm monitoring system based on edge calculation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20200703 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200805 |