JP6472504B1 - Information processing apparatus, information processing program, and information processing method - Google Patents
Information processing apparatus, information processing program, and information processing method Download PDFInfo
- Publication number
- JP6472504B1 JP6472504B1 JP2017239974A JP2017239974A JP6472504B1 JP 6472504 B1 JP6472504 B1 JP 6472504B1 JP 2017239974 A JP2017239974 A JP 2017239974A JP 2017239974 A JP2017239974 A JP 2017239974A JP 6472504 B1 JP6472504 B1 JP 6472504B1
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- input image
- learning
- image
- feature point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 29
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000001514 detection method Methods 0.000 claims abstract description 61
- 230000029305 taxis Effects 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims 1
- 239000013598 vector Substances 0.000 abstract description 33
- 238000000034 method Methods 0.000 description 29
- 230000008569 process Effects 0.000 description 18
- 210000002569 neuron Anatomy 0.000 description 15
- 238000004364 calculation method Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】より高精度に画像から車両を検出する。【解決手段】学習器24は、車両を含む学習用画像26、学習用画像26に含まれる車両に関する複数の特徴点28の位置を示す情報、及び、各特徴点28が示す車両の箇所を示す情報を含む学習用データを用いて学習される。学習済みの学習器24は、入力画像40に含まれる車両に関する複数の特徴点52の位置を示すヒートマップ50と、車両毎の各特徴点間の向きを示すベクトルマップ60を出力する。車両検出部32は、入力画像40から特徴点52が検出されたことをもって入力画像40から車両を検出する。また、車両の箇所が識別された複数の特徴点52の位置関係に基づいて、車両の向き及び種別を検出する。入力画像40に複数の車両が含まれている場合には、車両検出部32は、ベクトルマップ60に基づいて複数の特徴点52を車両毎に区別した上で、複数の車両の向き、種別、及び台数を検出する。【選択図】図2A vehicle is detected from an image with higher accuracy. A learning device includes a learning image including a vehicle, information indicating positions of a plurality of feature points related to the vehicle included in the learning image, and a location of the vehicle indicated by each feature point. Learning is performed using learning data including information. The learned learning device 24 that has been learned outputs a heat map 50 that indicates the positions of a plurality of feature points 52 relating to the vehicle included in the input image 40 and a vector map 60 that indicates the direction between each feature point for each vehicle. The vehicle detection unit 32 detects a vehicle from the input image 40 when the feature point 52 is detected from the input image 40. Further, the direction and type of the vehicle are detected based on the positional relationship between the plurality of feature points 52 where the location of the vehicle is identified. When a plurality of vehicles are included in the input image 40, the vehicle detection unit 32 distinguishes the plurality of feature points 52 for each vehicle based on the vector map 60, and then determines the orientation, type, And the number of units is detected. [Selection] Figure 2
Description
本発明は、情報処理装置、情報処理プログラム、及び、情報処理方法に関する。 The present invention relates to an information processing apparatus, an information processing program, and an information processing method.
従来、画像の中から車両を自動検出する技術が提案されている。特に、昨今、例えば畳み込みニューラルネットワークなどの機械学習手法の研究が盛んであり、機械学習を用いて画像の中から車両を自動検出する技術が提案されている。 Conventionally, a technique for automatically detecting a vehicle from an image has been proposed. In particular, research on machine learning techniques such as convolutional neural networks has been actively conducted recently, and a technique for automatically detecting a vehicle from an image using machine learning has been proposed.
例えば、特許文献1には、車両の正面画像を用いて学習された、車両の正面を検出するための識別器に、自車両の後方カメラで撮影された画像を入力することで、当該画像から他車両を検出する技術が開示されている。 For example, in Patent Document 1, an image captured by a rear camera of the host vehicle is input to a discriminator for detecting the front of the vehicle, learned from the front image of the vehicle. Techniques for detecting other vehicles are disclosed.
従来の画像から車両を自動検出する技術においては、検出精度の観点から改善の余地があった。例えば、特許文献1の技術では、正面を向いた車両が画像に含まれている場合にしか車両を検出することができず、その他のアングルから車両を撮影した画像からは好適に車両を検出することができなかった。また、他の物体に隠れる、あるいは見切れてしまっていることなどによって、車両の一部が画像に含まれていない場合、画像から車両を検出することが困難となっていた。すなわち、限られた場面でしか画像中に存在する車両を検出することができなかった。 The conventional technology for automatically detecting a vehicle from an image has room for improvement from the viewpoint of detection accuracy. For example, in the technique of Patent Document 1, a vehicle can be detected only when a vehicle facing the front is included in the image, and the vehicle is suitably detected from an image obtained by photographing the vehicle from other angles. I couldn't. Further, when a part of the vehicle is not included in the image due to being hidden by another object or being out of view, it is difficult to detect the vehicle from the image. That is, a vehicle present in an image can be detected only in a limited scene.
本発明の目的は、より高精度に画像から車両を検出することにある。 An object of the present invention is to detect a vehicle from an image with higher accuracy.
本発明は、車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習する学習器と、学習済みの前記学習器に入力画像を入力して、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出し、さらに、前記入力画像に対する学習済みの前記学習器の出力に基づいて、前記入力画像に含まれる車両の種別がタクシーであることを識別する車両検出部と、前記入力画像を解析することで、前記入力画像に含まれる人物を検出する人物検出部と、
前記入力画像に含まれるタクシーの台数と人物の数とに基づいて、タクシーの需要を判定するタクシー需要判定部と、を備えることを特徴とする情報処理装置である。
The present invention relates to learning data including a learning image including a vehicle, information indicating positions of a plurality of feature points related to the vehicle included in the learning image, and information indicating a location of the vehicle indicated by each feature point. A learning device that learns using the input device, and an input image is input to the learned learning device, and the vehicle included in the input image is detected based on a feature point related to the vehicle detected by the learning device from the input image. and, further, on the basis of the output of the learned of the learning device for the input image, and the vehicle detection unit for identifying the type of the vehicle is a taxi included in the input image, by analyzing the input image A person detection unit for detecting a person included in the input image;
A taxi demand determination unit that determines a taxi demand based on the number of taxis and the number of persons included in the input image .
望ましくは、前記車両検出部は、前記学習器が前記入力画像から検出した、対応する車両の箇所が識別された複数の特徴点の位置関係に基づいて、前記入力画像中に含まれる車両の向きを検出する、ことを特徴とする。 Preferably, the vehicle detection unit detects the orientation of the vehicle included in the input image based on the positional relationship of a plurality of feature points that are detected by the learning device from the input image and the corresponding vehicle location is identified. Is detected.
望ましくは、前記学習器は、前記学習用画像に含まれる前記車両の前記複数の特徴点間の向きを学習し、前記車両検出部は、前記学習器が前記入力画像から検出した複数の特徴点間の向きに基づいて、前記入力画像に含まれる複数の車両を区別した上で、複数の車両の向き及び台数の少なくとも一方を検出する、ことを特徴とする。 Preferably, the learning device learns directions between the plurality of feature points of the vehicle included in the learning image, and the vehicle detection unit detects the plurality of feature points detected from the input image by the learning device. The plurality of vehicles included in the input image are distinguished based on the direction between them, and at least one of the direction and the number of the plurality of vehicles is detected.
望ましくは、前記学習用データは、前記学習用画像が撮影された時の天気を示す情報を含み、前記学習器は、前記学習用画像が撮影された時の天気を考慮して学習する、ことを特徴とする。 Preferably, the learning data includes information indicating the weather when the learning image is captured, and the learning device learns considering the weather when the learning image is captured. It is characterized by.
望ましくは、前記学習用データは、前記学習用画像に含まれる車両のライトの点灯有無を示す情報を含み、前記学習器は、前記学習用画像に含まれる車両のライトの点灯有無を考慮して学習する、ことを特徴とする。 Preferably, the learning data includes information indicating whether or not a vehicle light included in the learning image is turned on, and the learning device considers whether or not the vehicle light included in the learning image is turned on. It is characterized by learning.
望ましくは、前記車両検出部は、前記学習器が前記入力画像から検出した、対応する車両の箇所が識別された複数の特徴点の位置関係に基づいて、前記入力画像に含まれる車両の種別を検出する、ことを特徴とする。 Preferably, the vehicle detection unit determines the type of the vehicle included in the input image based on the positional relationship of a plurality of feature points, which are detected from the input image by the learning device, and the location of the corresponding vehicle is identified. It is characterized by detecting.
また、本発明は、コンピュータを、車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習する学習器と、学習済みの前記学習器に入力画像を入力して、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出し、さらに、前記入力画像に対する学習済みの前記学習器の出力に基づいて、前記入力画像に含まれる車両の種別がタクシーであることを識別する車両検出部と、前記入力画像を解析することで、前記入力画像に含まれる人物を検出する人物検出部と、前記入力画像に含まれるタクシーの台数と人物の数とに基づいて、タクシーの需要を判定するタクシー需要判定部と、として機能させることを特徴とする情報処理プログラムである。 Further, the present invention provides a computer with a learning image including a vehicle, information indicating the positions of a plurality of feature points related to the vehicle included in the learning image, and information indicating the location of the vehicle indicated by each feature point. A learning device that learns using learning data including: an input image is input to the learned learning device, and the learning image is input to the input image based on a feature point related to the vehicle detected from the input image. detecting a vehicle that contains, further, on the basis of the output of the learned of the learning device for the input image, and the vehicle detection unit for identifying the type of the vehicle included in the input image is a taxi, the input image By analyzing the above, a person detection unit that detects a person included in the input image, and a task for determining the demand for a taxi based on the number of taxis and the number of persons included in the input image. An information processing program for causing to function as an over demand determining unit.
また、本発明は、車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習器を学習させる学習ステップと、学習済みの前記学習器に入力画像を入力して、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出し、さらに、前記入力画像に対する学習済みの前記学習器の出力に基づいて、前記入力画像に含まれる車両の種別がタクシーであることを識別する車両検出ステップと、前記入力画像を解析することで、前記入力画像に含まれる人物を検出する人物検出ステップと、前記入力画像に含まれるタクシーの台数と人物の数とに基づいて、タクシーの需要を判定するタクシー需要判定ステップと、を含むことを特徴とする情報処理方法である。 Further, the present invention provides a learning image including a vehicle, information indicating the positions of a plurality of feature points related to the vehicle included in the learning image, and information indicating the location of the vehicle indicated by each feature point. A learning step for learning the learning device using the data for the operation; an input image is input to the learned learning device; and the input image is input to the input image based on a feature point regarding the vehicle detected by the learning device from the input image detecting a vehicle that contains, further, on the basis of the output of the learned of the learning device for the input image, and the vehicle detection step of identifying the type of the vehicle included in the input image is a taxi, the input image The demand for taxis is calculated based on the person detection step for detecting a person included in the input image and the number of taxis and the number of persons included in the input image. An information processing method which comprises the taxi demand determination step of constant, the.
本発明によれば、より高精度に画像から車両を検出することができる。 According to the present invention, a vehicle can be detected from an image with higher accuracy.
以下、本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described.
図1には、本実施形態に係る情報処理システム10の構成概略図が示されている。情報処理システム10は、カメラ12と、ユーザ端末14と、情報処理装置としてのサーバ16とを含んで構成される。カメラ12とサーバ16との間、及び、ユーザ端末14とサーバ16との間は、LANあるいはインターネットなどの通信回線18を介して通信可能に接続されている。
FIG. 1 is a schematic configuration diagram of an
カメラ12は、自動車などの車両を撮影するためのカメラである。カメラ12は、例えば、駐車場や高速道路などに設置される監視カメラである。あるいは、カメラ12は車載カメラであってもよい。また、カメラ12としては、静止画を撮影するカメラであってもよく、動画像を撮影するビデオカメラであってもよい。カメラ12によって撮影された画像は、通信回線18を介してサーバ16に送られる。
The
ユーザ端末14は、ユーザ(サーバ16で実行される画像からの車両検出処理の結果を確認する者)が利用する端末である。ユーザ端末14は、例えばパーソナルコンピュータやタブレット端末などであってよい。ユーザ端末14は、CPU(Central Processing Unit)などの処理部、ハードディスク、ROM(Read Only Memory)あるいはRAM(Random Access Memory)などの記憶部、液晶パネルなどの表示部、マウス、キーボード、タッチパネルなどの入力部、ネットワークアダプタなどの通信部などを含んで構成される。ユーザ端末14は、サーバ16にアクセスすることによって、サーバ16における車両検出処理の結果を受信することができる。
The
図2に、サーバ16の構成概略図が示されている。本実施形態においては、サーバ16はコンピュータによって構成されるが、情報処理装置としては、以下に示す機能を有する限りにおいて、どのような装置であってもよい。
FIG. 2 shows a schematic configuration diagram of the
通信部20は、例えばネットワークアダプタなどから構成される。通信部20は、通信回線18を介して、カメラ12及びユーザ端末14と通信する機能を発揮する。具体的には、通信部20は、カメラ12から画像を受信する。また、通信部20は、ユーザ端末14からの要求に応じて、後述の制御部30による車両検出処理の結果をユーザ端末14に送信する。
The
記憶部22は、例えばROM、RAMあるいはハードディスクなどから構成される。記憶部22には、サーバ16の各部を動作させるための情報処理プログラムが記憶される。また、記憶部22には、学習器24が記憶される。
The
学習器24は、詳しくは後述するように、カメラ12が撮影した画像を入力画像とし、当該入力画像に含まれる車両に関する複数の特徴点を検出するものである。本実施形態における学習器24は、例えば畳み込みニューラルネットワークを含んで構成される。
As will be described in detail later, the
なお、畳み込みニューラルネットワークは、一般的に、複数の層を含んで構成される。畳み込みニューラルネットワークの各層は、配列(例えば2次元配列)されたニューロン群から構成される。また、畳み込みニューラルネットワークにおいては、ニューロン群と同様に2次元配列された複数の要素を含むフィルタが用いられる。フィルタは各層に応じて設けられ、通常、フィルタのサイズ(配列された要素の数)は、それが適用されるニューロン群のサイズ(配列されたニューロンの数)よりも小さくなっている。フィルタの各要素には、重みが設定されている。 Note that the convolutional neural network generally includes a plurality of layers. Each layer of the convolutional neural network is composed of a group of neurons arranged (for example, a two-dimensional array). In the convolutional neural network, a filter including a plurality of elements arranged two-dimensionally is used like a neuron group. A filter is provided for each layer, and usually the size of the filter (the number of arranged elements) is smaller than the size of the group of neurons to which it is applied (the number of arranged neurons). A weight is set for each element of the filter.
各層のニューロン群に対してフィルタが適用される。概念的には、ニューロン群の一部に対してフィルタが重ね合わされる。フィルタの各要素に設定された各重みと、フィルタが重なる複数のニューロン(ニューロン群の一部)の活性との積和が計算される。すなわち、フィルタの各要素に設定された重みをベクトルの要素として持つ重みベクトルと、複数のニューロンの活性をベクトルの要素として持つ活性ベクトルとの内積が計算される。当該内積が当該層の出力の1つの活性となる。 A filter is applied to each layer of neurons. Conceptually, a filter is superimposed on a part of a group of neurons. The product sum of each weight set for each element of the filter and the activity of a plurality of neurons (part of the neuron group) on which the filters overlap is calculated. That is, the inner product of a weight vector having the weight set for each element of the filter as a vector element and an activity vector having the activities of a plurality of neurons as vector elements is calculated. The inner product becomes one activity of the output of the layer.
フィルタは、ニューロン群上を縦横方向に1つ(1ニューロン)ずつ、あるいは、数ニューロンずつずらしながら適用されていく。これにより、当該層の出力として、配列された活性群が出力される。当該活性群が次層のニューロン群の活性となる。複数の層のニューロン群に対してフィルタを適用していくことで、入力画像から最終的に車両に関する複数の特徴点が検出される。 The filter is applied while shifting one by one (one neuron) or several neurons in the vertical and horizontal directions on the neuron group. Thereby, the arranged active group is output as the output of the layer. This active group becomes the activity of the neuron group in the next layer. By applying filters to a plurality of layers of neuron groups, a plurality of feature points related to the vehicle are finally detected from the input image.
以上のように、本実施形態においては、学習器24の実態は、畳み込みニューラルネットワークに関する各種パラメータ(層構造、各層のニューロン構造、各層におけるフィルタ数、フィルタサイズ、及び各フィルタの各要素の重みなど)、並びに、入力画像に対して処理を行うための処理実行プログラムである。したがって、記憶部22に学習器24が記憶されるとは、上記各種パラメータ及び処理実行プログラムが記憶部22に記憶されることを意味する。なお、学習器24としては、複数のニューラルネットワークを含むものであってもよい。
As described above, in the present embodiment, the actual state of the
学習器24の学習方法について説明する。学習器24は、車両を含む学習用画像と、それに関連する情報を含む学習用データを用いて学習を行う。ちなみに、学習器24の学習とは、学習器24が畳み込みニューラルネットワークであれば、フィルタの各要素の重みを調整することを意味する。
A learning method of the
図3には、学習用画像26の例が示されている。学習用画像26は、車両を含む限りにおいてどのような画像であってもよく、その取得方法もどのような方法であってもよい。また、図3の例では、学習用画像26は1つの車両を含むものであるが、学習用画像26に複数の車両が含まれていてもよい。
FIG. 3 shows an example of the learning
学習用データには、学習用画像26に含まれる車両に関する複数の特徴点(28a〜28k、以後、学習用画像26に含まれる車両に関する複数の特徴点を総称して特徴点28と記載する)の位置を示す情報が含まれる。本実施形態では、車両に関する特徴点28として、車両のルーフの4隅(特徴点28a〜28d)、特徴点28aと28dを結ぶ線分と、特徴点28bと28cを結ぶ線分との交点である特徴点28e、2つのヘッドライト(特徴点28f及び28g)、2つテールライト(特徴点28h及び28i)、及び、4つのタイヤ(特徴点28j及び28k)の13個の特徴点28の位置が既知となっている。なお、図3に示す画像のように、13個の特徴点全てが画像に含まれない場合もある。また、車両に関する特徴点28としては、上述の位置に限られず、その他の位置(例えば前後のナンバープレートの位置など)が含まれていてもよい。複数の特徴点は、画像中において車両がどのような向きであっても、できるだけ多くの特徴点が画像に現れるように、その位置が設定される。
In the learning data, a plurality of feature points relating to the vehicle included in the learning image 26 (28a to 28k, hereinafter, a plurality of feature points relating to the vehicle included in the
これら特徴点28の位置を示す情報としては、例えば、学習用画像26における座標である。
The information indicating the positions of the feature points 28 is, for example, coordinates in the
また、学習用データには、各特徴点28が示す車両の箇所を示す情報が含まれる。車両の箇所とは、車両の特定の部位であり、例えば、ルーフ中央、あるいは右前輪などである。図3の例では、特徴点28aがルーフ右前隅、特徴点28bがルーフ左前隅、特徴点28cがルーフ右後隅、特徴点28dがルーフ左後隅、特徴点28eがルーフ中央、特徴点28fが右ヘッドライト、特徴点28gが左ヘッドライト、特徴点28hが右テールライト、特徴点28iが左テールライト、特徴点28jが左前輪、特徴点28kが左後輪であることを示す情報が学習用データに含まれる。なお、学習用画像26に複数の車両が含まれる場合は、学習用データには、車両毎に区別された、各特徴点28の箇所を示す情報が含まれる(例えば、特徴点28aは、「車両Aの」ルーフ右前隅である、など)。
The learning data includes information indicating the location of the vehicle indicated by each feature point 28. The vehicle part is a specific part of the vehicle, such as the center of the roof or the right front wheel. In the example of FIG. 3, the
また、学習用データには、各特徴点28から他の特徴点へ向かう向き(本実施形態ではベクトル)を示す情報が含まれる。なお、特徴点同士を結ぶベクトルは、各特徴点28の位置を示す情報に基づいて所定のプログラムにより自動的に生成されたものを用いることができる。 The learning data includes information indicating the direction (vector in the present embodiment) from each feature point 28 toward another feature point. As the vector connecting the feature points, a vector automatically generated by a predetermined program based on information indicating the position of each feature point 28 can be used.
好適には、学習用データには、学習用画像26が撮影された時の天気を示す情報を含んでいてもよい。天気としては、例えば、晴れ、曇り、雨、あるいは雪などである。また、好適には、学習用データには、学習用画像26に含まれる車両の各ライト(ヘッドライト及びテールライトなど含む)の点灯有無を示す情報を含んでいてもよい。
Preferably, the learning data may include information indicating the weather when the learning
なお、上述した、車両の複数の特徴点28の位置、各特徴点28が示す車両の箇所、学習用画像26が撮影された時の天気、及び、学習用画像26に含まれる車両の各ライトの点灯有無をそれぞれ示す各情報は、例えば学習用画像26のメタデータとして付加されていてもよい。
It should be noted that the position of the plurality of feature points 28 of the vehicle, the location of the vehicle indicated by each feature point 28, the weather when the learning
学習器24は、多数の学習用データを用いて学習することで、入力画像から車両に関する複数の特徴点を検出することが可能となる。特に、学習器24は、車両に関する複数の特徴点28の位置と、各特徴点28が示す車両の箇所が既知である学習用データを用いて学習する。これにより、学習器24は、検出した特徴点が車両のどの箇所に対応するものであるかを識別して検出可能となる。
The
対応する車両の箇所を識別した上で複数の特徴点を検出可能であることは、入力画像に含まれる車両の各箇所間の位置関係を検出可能であることを意味する。換言すれば、学習器24は、学習用データから、車両のある箇所(特徴点)から他の箇所(特徴点)へ向かう向き(本実施形態ではベクトル)を学習し、学習済みの学習器24は、入力画像から検出した各特徴点間の向き(ベクトル)を検出可能になると言える。また、学習器24は、学習用画像26に複数の車両が含まれている場合であっても、学習用データにおいては、車両毎に区別された上で、各特徴点28が示す車両の箇所が既知であるから、車両毎に区別して、各特徴点間の向きを学習することができる。
The fact that a plurality of feature points can be detected after identifying the corresponding vehicle location means that the positional relationship between the vehicle locations included in the input image can be detected. In other words, the
好適には、学習器24は、特徴点及び各特徴点間の向きに加え、学習用画像26が撮影された時の天気を出力するように学習する。例えば、天気が雪である場合、積雪によって車両のルーフの4隅及びルーフ中央が隠れてしまう場合がある。このような場合でも、天気を示す情報を含む学習用画像26を用いて入力画像の天気を出力するように学習することで、学習器24は、学習用画像26が撮影された時の天気が雪であることを考慮した上で特徴点を検出するようになると考えられる。これにより、学習器24が、入力画像から車両に関する複数の特徴点を検出する際の検出精度を向上させることができる。
Preferably, the
同様に、好適には、学習器24は、特徴点及び各特徴点間の向きに加え、学習用画像26に含まれる車両の各ライトの点灯有無を出力するように学習する。昼間に撮影された画像と夜間に撮影された画像とを比較したときに、ライトの点灯有無に応じて入力画像のライトの位置付近の輝度値が変化するなど画像の見た目が大きく異なる。このような場合でも、車両の各ライトの点灯有無を示す情報を含む学習用画像26を用いて入力画像に含まれる車両の各ライトの点灯有無を出力するように学習することで、学習器24は、学習用画像26が撮影された時の車両の各ライトの点灯有無を考慮した上で特徴点を検出するようになると考えられる。これにより、学習器24が、入力画像から車両に関する複数の特徴点を検出する際の検出精度を向上させることができる。
Similarly, the
図2に戻り、制御部30は、例えばCPUあるいはマイクロコントローラなどを含んで構成される。制御部30は、記憶部22に記憶された情報処理プログラムに従ってサーバ16の各部を制御する。また、図2に示される通り、制御部30は、車両検出部32、人物検出部34、処理演算部36、及び、同一性判定部38としても機能する。
Returning to FIG. 2, the
車両検出部32は、カメラ12が撮影した画像である入力画像から車両を検出する処理を実行する。具体的には、車両検出部32は、入力画像を学習済みの学習器24に入力し、入力画像に対する学習器24による複数の特徴点の検出結果に基づいて、当該入力画像から車両を検出する。
The
図4には、入力画像の例が示されている。以下、図4に示す入力画像40に対する、学習器24の出力及び車両検出部32による車両検出処理の詳細を説明する。図4に示す通り、本実施形態においては、入力画像40には複数の車両42が含まれている。なお、車両検出部32の処理対象となる入力画像としては、1つの車両42のみを含むものであってもよく、車両42が含まれない画像でもよい。
FIG. 4 shows an example of the input image. The details of the output of the
車両検出部32が、十分に学習された学習器24に入力画像40を入力すると、学習器24は、ヒートマップ及びベクトルマップを出力する。
When the
図5には、入力画像40に対するヒートマップ50が示されている。上述のように、学習器24は、入力画像40から各車両に関する複数の特徴点を検出する。ヒートマップ50は、検出された複数の特徴点52の位置を示すマップである。なお、検出された複数の特徴点52の位置は、入力画像40における座標で表される。
FIG. 5 shows a
図6には、入力画像40に対するベクトルマップ60が示されている。上述の通り、学習器24は、入力画像から検出した各特徴点52間の向きを検出する。特に、学習器24は、入力画像に複数の車両が含まれている場合には、車両毎に区別して、各特徴点52間の向きを検出する。ベクトルマップ60は、車両毎の各特徴点52間の向きを示すベクトル62の位置及び向きを示すマップである。なお、図6に示すベクトルマップ60には特徴点52が示されているが、ベクトルマップ60は特徴点52を含んでいなくてもよい。
FIG. 6 shows a
各ベクトル62は、一の特徴点52と他の特徴点52との間に示されるものであるが、その向き(一の特徴点52から他の特徴点52へ向かう向きなのか、他の特徴点52から一の特徴点52へ向かう向きなのか)は、予め定義されておいてよい。例えば、本実施形態においては、各ベクトル62は、原則的に、前から後ろ(例えばルーフ右前隅からルーフ右後隅へ向かう方向)、右から左(例えばルーフ右前隅からルーフ左前隅へ向かう方向)の向きとなっている。
Each
ベクトルマップ60においては、隣接する(近傍にある)特徴点52間のみのベクトル62が示されるようにしてもよいが、ある特徴点52から、当該特徴点52と同一車両に対応する他の全ての特徴点52との間にベクトル62が示されるようにしてもよい。図6に示すベクトルマップ60においては、一部のベクトル62のみが示されている。
In the
車両検出部32は、ヒートマップ50において検出された特徴点52とベクトルマップ60に基づいて、入力画像40から車両を検出する。具体的な検出処理の内容を以下に説明する。
The
車両検出部32は、ヒートマップ50に対してフィルタリング処理を施し、ヒートマップ50に含まれる特徴点群から確率が所定値以上である特徴点を有効な複数の特徴点として抽出する。次に、抽出された有効な複数の特徴点の間の全ての組合せについて、特徴点と特徴点を結ぶ線分上でベクトルマップ60の積分を行う。そして、ベクトルの積分値の平均が所定値以上の2つの特徴点の組を正解の組合せとして特定する。このようにして、有効な複数の特徴点を複数のグループにグルーピングしていく。そうすると、例えば、特徴点を3つ有するグループA、特徴点を5つ有するグループB、特徴点を6つ有するグループC、あるいは他の特徴点と組み合わされなかった単独の特徴点などといったように分類される。そして、所定数以上の特徴点を含むグループを、車両を表すグループとして特定する。すなわち、車両として検出する。
The
このように、本実施形態によれば、入力画像40から検出された特徴点52に基づいて車両を検出するから、入力画像40において、車両の一部が隠れたり、見切れていたり、あるいは車両のアングルに関わらず、入力画像40から車両を検出することができる。一方、ヒートマップ50において特徴点52が検出されなかった場合には、車両検出部32は、入力画像40に車両は含まれていない、と判定することができる。
Thus, according to the present embodiment, since the vehicle is detected based on the
また、上述の通り、学習器24は、対応する車両の箇所が識別された複数の特徴点52を検出可能である。例えば、学習器24は、特徴点52aがルーフ右前隅、特徴点52bがルーフ左前隅、特徴点52cがルーフ右後隅、特徴点52dがルーフ左後隅、特徴点52eがルーフ中央、特徴点52fが右ヘッドライト、特徴点52gが左ヘッドライト、特徴点52hが右前輪、特徴点52iが右後輪であることを識別した上で、各特徴点52を検出する。
Further, as described above, the
車両検出部32は、車両の箇所が識別された複数の特徴点52の位置関係に基づいて、入力画像40に含まれる車両の向きを検出することができる。例えば、図5に示されたヒートマップ50の例では、ルーフ右前隅に対応する特徴点52aの左上側に、ルーフ右後隅に対応する特徴点52c位置しており、また、ルーフ右前隅に対応する特徴点52aの右上側に、ルーフ左前隅に対応する特徴点52bが位置している。このような位置関係から、車両検出部32は、複数の特徴点52a〜iにより表される車両は、入力画像40において前側を右下方向に向けていることを検出することができる。
The
また、車両検出部32は、車両の箇所が識別された複数の特徴点52の位置関係に基づいて、車両の種別を検出することができる。車両の種別とは、その外形の違いにより区別されるものであり、例えば、セダン、バン、軽自動車、トラック、あるいはタクシーなどの種別である。
Moreover, the
例えば、バンは、タイヤの位置からルーフの位置までの距離がセダンに比して長い。また、トラックは、タイヤの位置からルーフの位置までの距離がセダンに比して比較的長い上、ルーフの前後方向の長さがセダンあるいはバンに比して長い。各種別の車両は、このように外形上の違いを有しているため、車両検出部32は、複数の特徴点52の位置によって入力画像40に含まれる車両の種別を検出することができる。なお、入力画像40における車両のアングルによって、複数の特徴点52間の距離が変動し得るので、例えば、車両のルーフの4隅の特徴点の位置関係などに基づいて当該車両のアングルを推定した上で、車両の種別を検出するのが好適である。
For example, a van has a longer distance from a tire position to a roof position than a sedan. In addition, the distance between the tire position and the roof position of the truck is relatively longer than that of the sedan, and the length of the roof in the front-rear direction is longer than that of the sedan or van. Since each type of vehicle has such a difference in appearance, the
図4に示すように、入力画像40が複数の車両42を含む場合、特に、複数の車両42が近接あるいは重なっている場合、ヒートマップ50において、複数の車両に対応する複数の特徴点52が密集して検出されることになる。例えば、図5のヒートマップ50の下部に位置する特徴点群64がその例である。この場合、各特徴点52が対応する車両の箇所が識別されているとはいえ、ヒートマップ50からだけでは、特徴点群64を各車両に対応するグループに適切に区別するのが困難になる場合がある。
As shown in FIG. 4, when the
本実施形態では、ベクトルマップ60を用いることで、複数の車両に対応する特徴点52が密集した特徴点群64が形成された場合であっても、特徴点群64を各車両に対応するグループに適切に区別することができる。具体的には、ベクトルマップ60に含まれる各ベクトル62は、ある車両の特徴点52と、当該車両の他の特徴点52との間に示されるものである。したがって、特徴点群64に含まれる各特徴点52間の向きに基づいて、特徴点群64を、各車両に対応した特徴点グループ64aと特徴点グループ64bに区別することができる。
In the present embodiment, by using the
入力画像40から検出された複数の特徴点52が適切に車両毎に区別されることで、車両検出部32は、入力画像40に含まれる各車両の向きを検出することが可能となる。それと同時に、車両検出部32は、入力画像40に含まれる車両の台数を検出することが可能になる。
By appropriately distinguishing the plurality of feature points 52 detected from the
図2に戻り、人物検出部34は、入力画像40に含まれる人物を検出する。入力画像40からの人物の検出方法としては、車両を検出するための学習器24と同様の構成であって、人物を検出するように学習された他の学習器を用いてもよいし、あるいは、既知の画像解析処理などを用いるようにしてもよい。特に、人物検出部34は、入力画像40に含まれる人物の数を検出する。
Returning to FIG. 2, the
処理演算部36は、車両検出部32による入力画像からの車両の検出結果と、人物検出部34による入力画像からの人物の検出結果に基づいて演算を行う。本実施形態においては、図7に示されるような、タクシー乗り場を俯瞰的に撮影した入力画像40−2に対して、車両検出部32がタクシー70の数を検出し、人物検出部34が人物72の数を検出する。そして、処理演算部36は、入力画像40−2におけるタクシー70の台数と人物72の数とに基づいて演算を行い、タクシーの需要を判定する。このように、処理演算部36は、タクシー需要判定部として機能する。
The
車両検出部32によるタクシーの検出方法としては、様々な方法を採用することができる。まず、学習器24によりヒートマップ50(図5参照)が出力された後に、ルーフ中央に対応する特徴点52を含む一定の領域に対して画像解析を実施し、行灯を検出するようにしてもよい。もちろん、行灯が検出されれば当該車両はタクシーであると判定できるし、行灯が検出されなければ当該車両はタクシーではないと判定できる。
As a taxi detection method by the
また、学習用画像26(図3参照)に含まれる車両がタクシーであることを示す情報を学習データに付加し、学習器24が入力画像40−2からタクシーを識別可能なように学習器24を学習させてもよい。
Further, information indicating that the vehicle included in the learning image 26 (see FIG. 3) is a taxi is added to the learning data, so that the
あるいは、カメラ12の撮影対象場所によっては、入力画像40−2に含まれる車両はすべてタクシーであるとみなすようにしてもよい。
Alternatively, all the vehicles included in the input image 40-2 may be regarded as taxis depending on the shooting target location of the
処理演算部36は、上述した方法により入力画像40−2に含まれるタクシー70及び人物72を検出し、タクシー70の台数よりも人物72の数が多い場合は、タクシーの需要有りと判定し、例えばタクシーの配車担当者が利用するユーザ端末14に当該タクシー乗り場でタクシーの需要があることを示す情報を送信する。また、処理演算部36は、入力画像40−2におけるタクシー70の台数と人物72の数との差分を算出し、当該差分(すなわち必要なタクシーの台数)を示す情報をユーザ端末14に送信するようにしてもよい。
The
また、処理演算部36は、タクシー乗り場における過去の複数の入力画像40−2に含まれるタクシー70の台数及び人物72の数の統計データに基づいて、当該タクシー乗り場における将来のタクシーの需要量を予測するようにしてもよい。
Further, the
図2に戻り、同一性判定部38は、同一のカメラ12で異なるタイミングで撮影された複数の入力画像において、車両の同一性を判定する(つまり同じ車両を識別する)処理を行う。同一性判定部38によれば、あるカメラ12の撮影範囲の中で、同一車両を追従することが可能になり、車両がどのような動きをするのかを検出することが可能になる。以下の説明においては、同一のカメラ12で異なるタイミングで撮影された、車両Aを含む第1入力画像と車両Bを含む第2入力画像との間で、車両Aと車両Bの同一性を判定する処理について説明する。
Returning to FIG. 2, the
まず、同一性判定部38は、第1入力画像から学習器24が検出した車両Aに関する複数の特徴点の各画素の色情報と、第2入力画像から学習器24が検出した車両Bに関する複数の特徴点の各画素の色情報とを取得する。なお、色情報とは、色相、明度(輝度)、及び彩度を含む概念である。
First, the
本実施形態では、学習器24は、第1入力画像あるいは第2入力画像の1つの画素の座標として各特徴点を検出しているところ、同一性判定部38は、学習器24により検出された1つの画素を中心とする一定の面積を持った領域を色情報の取得対象の領域(以後画素領域と記載する)とする。また、第1入力画像あるいは第2入力画像の車両の大きさに応じて、画素領域の面積を変化させるようにしてもよい。例えば、入力画像中の車両が大きい程、画素領域の面積を大きくするようにしてもよい。なお、入力画像中の車両の大きさは、車両の箇所が識別された複数の特徴点の位置に基づいて検出することができる。
In the present embodiment, the
本実施形態では、同一性判定部38は、各画素領域に含まれる複数の画素の色をL*a*b*色空間で表現した上で、複数の画素の色の代表値(例えば平均値、中央値、最頻値)を求める。そして、求めた色の代表値を画素領域の色情報とする。なお、各画素の色をL*a*b*色空間で表現するのは、L*a*b*色空間が人間の視覚に近似するように設計されているためである。
In the present embodiment, the
なお、各画素領域の色情報として上記以外の特徴量を採用してもよい。例えば、画素領域に含まれる複数の画素におけるHOG(Histograms of Oriented Gradients)特徴量を算出するようにしてもよい。ここで、HOG特徴量とは、画素領域内の各画素の輝度の勾配方向をヒストグラム化した特徴量である。 In addition, you may employ | adopt the feature-value other than the above as color information of each pixel area. For example, HOG (Histograms of Oriented Gradients) feature values in a plurality of pixels included in the pixel region may be calculated. Here, the HOG feature value is a feature value in which the luminance gradient direction of each pixel in the pixel region is histogrammed.
以上のようにして、第1入力画像に含まれる車両Aの各特徴点に対応する画素の色情報、及び、第2入力画像に含まれる車両Bの各特徴点に対応する画素の色情報が取得される。 As described above, the pixel color information corresponding to each feature point of the vehicle A included in the first input image and the color information of the pixel corresponding to each feature point of the vehicle B included in the second input image are obtained. To be acquired.
次いで、同一性判定部38は、車両Aの各特徴点の色情報と、車両Bの各特徴点の色情報とを比較する。詳しくは、車両の箇所毎に、車両Aの特徴点の色情報と車両Bの特徴点の色情報を比較する。これにより、同一性判定部38は車両Aと車両Bとの同一性を判定する。具体的には、車両Aのある特徴点(ここではルーフ右前隅とする)と、車両Bの対応する箇所であるルーフ右前隅の特徴点との色情報の差分(色差)を算出する。このように、全ての箇所について色差を算出する。
Next, the
本実施形態では、CIE2000色差式により、各特徴点の画素の色情報の色差を算出する。これは、CIE2000色差式は、人間の目の色識別域の特徴である、色相依存性、明度依存性、及び彩度依存性を考慮した計算式であるためである。すなわち、CIE2000色差式に基づく色差は、人間の視覚による色の差に近い値となるためである。 In this embodiment, the color difference of the color information of the pixel at each feature point is calculated by the CIE2000 color difference formula. This is because the CIE2000 color difference formula is a calculation formula that takes into account the hue dependency, lightness dependency, and saturation dependency, which are the characteristics of the color discrimination range of the human eye. That is, the color difference based on the CIE2000 color difference formula is a value close to the color difference by human vision.
図8に、車両Aの各特徴点の色情報と、車両Bの各特徴点の色情報との差(色差)が示されている。同一性判定部38は、算出された色差に基づいて、特徴点毎に類似度を算出する。具体的には、同一性判定部38は、色差が小さい程類似度が大きくなるように算出する。本実施形態では、以下の式によって色差から類似度を算出する。
図8には、特徴点毎に算出された類似度が示されている。このようにして、車両Aと車両Bとの間において、複数の(本実施形態では13個)特徴点についての複数の類似度が算出される。同一性判定部38は、算出された複数の類似度の代表値(例えば平均値、中央値、最頻値)を求める。このように求められた類似度の代表値が車両Aと車両Bとの類似度となる。なお、第1入力画像又は第2入力画像における見切れ、あるいは隠れなどにより、車両A又は車両Bの複数の特徴点のうち検出されなかった特徴点がある場合には、当該特徴点に関する類似度は予め定められた値(本実施形態では50%)とする。
FIG. 8 shows the similarity calculated for each feature point. In this way, a plurality of similarities are calculated between a plurality of (13 in this embodiment) feature points between the vehicle A and the vehicle B. The
以上のようにして、第1入力画像に含まれる車両Aと第2入力画像に含まれる車両Bの類似度が算出される。同一性判定部38は、算出された類似度が予め定められた類似度閾値以上である場合に車両Aと車両Bが同一車両であると判定し、算出された類似度が類似度閾値未満である場合に車両Aと車両Bが同一車両ではないと判定する。
As described above, the similarity between the vehicle A included in the first input image and the vehicle B included in the second input image is calculated. The
上述のように、同一性判定部38は、異なるタイミングで撮影された複数の入力画像間において車両の同一性を判定する。好適には、カメラ12が撮像した動画に含まれる、隣接するフレーム画像間毎に上記処理を行うことによって、動画像において同一車両をトラッキングすることができる。
As described above, the
以下、図9に示すフローチャートに従って、本実施形態に係るサーバ16の処理の流れを説明する。
Hereinafter, the processing flow of the
ステップS10において、サーバ16の制御部30は、車両を含む学習用画像26、学習用画像26に含まれる車両に関する複数の特徴点28の位置を示す情報、及び、各特徴点28が示す車両の箇所を示す情報を含む学習用データを学習器24に入力することを繰り返すことで、学習器24を学習させる。ステップS10が学習ステップに相当する。
In step S10, the
ステップS12において、車両検出部32は、カメラ12が撮影した入力画像40を学習済みの学習器24に入力する。
In step S <b> 12, the
ステップS14において、学習器24は、ステップS12で入力された入力画像40に対して、ヒートマップ50及びベクトルマップ60を出力する。
In step S14, the
ステップS16において、車両検出部32は、ステップS14で出力されたヒートマップ50に基づいて、入力画像40に車両が含まれるか否かを判定する。具体的には、入力画像40から学習器24が車両に関する特徴点52を検出した場合には、車両検出部32は、入力画像40に車両が含まれると判定する。入力画像40に車両が含まれると判定された場合はステップS18に進み、入力画像40に車両が含まれていないと判定された場合は処理を終了する。ない。ステップS12〜S16が車両検出ステップに相当する。
In step S16, the
ステップS18において、車両検出部32は、車両の箇所が識別された複数の特徴点52の位置関係に基づいて、車両の向き及び種別を検出する。入力画像40に複数の車両が含まれる場合には、車両検出部32は、ステップS14で出力されたベクトルマップを用いて複数の特徴点52を車両毎に区別した上で、複数の車両の向き、種別、あるいは台数を検出する。
In step S <b> 18, the
以上、本発明に係る実施形態を説明したが、本発明は上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない限りにおいて種々の変更が可能である。 As mentioned above, although embodiment which concerns on this invention was described, this invention is not limited to the said embodiment, A various change is possible unless it deviates from the meaning of this invention.
例えば、本実施形態では、情報処理装置としてのサーバ16が、学習器24の学習処理と、学習器24を用いた車両検出処理の両方を実行しているが、学習処理と車両検出処理を別の主体(装置)で実行するようにしてもよい。例えば、他の装置において学習された学習済みの学習器24をサーバ16の記憶部22に記憶させて、当該学習器24を用いてサーバ16が車両検出処理を実行するようにしてもよい。
For example, in this embodiment, the
また、本発明は車両以外にも、船や飛行機などの乗り物にも適用可能である。 Further, the present invention can be applied to vehicles such as ships and airplanes in addition to vehicles.
10 情報処理システム、12 カメラ、14 ユーザ端末、16 サーバ、18 通信回線、20 通信部、22 記憶部、24 学習器、30 制御部、32 車両検出部、34 人物検出部、36 処理演算部、38 同一性判定部。
DESCRIPTION OF
Claims (8)
学習済みの前記学習器に入力画像を入力して、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出し、さらに、前記入力画像に対する学習済みの前記学習器の出力に基づいて、前記入力画像に含まれる車両の種別がタクシーであることを識別する車両検出部と、
前記入力画像を解析することで、前記入力画像に含まれる人物を検出する人物検出部と、
前記入力画像に含まれるタクシーの台数と人物の数とに基づいて、タクシーの需要を判定するタクシー需要判定部と、
を備えることを特徴とする情報処理装置。 Learning using learning data including a learning image including a vehicle, information indicating positions of a plurality of feature points related to the vehicle included in the learning image, and information indicating a location of the vehicle indicated by each feature point Learner to
An input image is input to the learned learner, a vehicle included in the input image is detected based on a feature point related to the vehicle detected by the learner from the input image, and learning is performed on the input image. a vehicle detection unit for identifying the already on the basis of the output of the learner, the type of vehicle that is included in the input image is a taxi,
Analyzing the input image to detect a person included in the input image;
Based on the number of taxis and the number of persons included in the input image, a taxi demand determination unit that determines the demand for taxis,
An information processing apparatus comprising:
ことを特徴とする請求項1に記載の情報処理装置。 The vehicle detection unit detects a direction of a vehicle included in the input image based on a positional relationship of a plurality of feature points, which are detected from the input image by the learning device, and corresponding portions of the vehicle are identified. ,
The information processing apparatus according to claim 1.
前記車両検出部は、前記学習器が前記入力画像から検出した複数の特徴点間の向きに基づいて、前記入力画像に含まれる複数の車両を区別した上で、複数の車両の向き及び台数の少なくとも一方を検出する、
ことを特徴とする請求項1に記載の情報処理装置。 The learning device learns a direction between the plurality of feature points of the vehicle included in the learning image,
The vehicle detection unit distinguishes the plurality of vehicles included in the input image based on the direction between the plurality of feature points detected by the learning device from the input image, and then determines the direction and number of the plurality of vehicles. Detect at least one,
The information processing apparatus according to claim 1.
前記学習器は、前記学習用画像が撮影された時の天気を考慮して学習する、
ことを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。 The learning data includes information indicating the weather when the learning image is taken,
The learning device learns in consideration of the weather when the learning image is taken,
The information processing apparatus according to claim 1, wherein the information processing apparatus is an information processing apparatus.
前記学習器は、前記学習用画像に含まれる車両のライトの点灯有無を考慮して学習する、
ことを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。 The learning data includes information indicating whether or not a vehicle light included in the learning image is turned on,
The learning device learns in consideration of whether or not a vehicle light included in the learning image is turned on,
The information processing apparatus according to claim 1, wherein the information processing apparatus is an information processing apparatus.
ことを特徴とする請求項1に記載の情報処理装置。 The vehicle detection unit detects a type of a vehicle included in the input image based on a positional relationship between a plurality of feature points, which are detected from the input image by the learning device, and a corresponding vehicle location is identified.
The information processing apparatus according to claim 1.
車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習する学習器と、
学習済みの前記学習器に入力画像を入力して、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出し、さらに、前記入力画像に対する学習済みの前記学習器の出力に基づいて、前記入力画像に含まれる車両の種別がタクシーであることを識別する車両検出部と、
前記入力画像を解析することで、前記入力画像に含まれる人物を検出する人物検出部と、
前記入力画像に含まれるタクシーの台数と人物の数とに基づいて、タクシーの需要を判定するタクシー需要判定部と、
として機能させることを特徴とする情報処理プログラム。 Computer
Learning using learning data including a learning image including a vehicle, information indicating positions of a plurality of feature points related to the vehicle included in the learning image, and information indicating a location of the vehicle indicated by each feature point Learner to
An input image is input to the learned learner, a vehicle included in the input image is detected based on a feature point related to the vehicle detected by the learner from the input image, and learning is performed on the input image. a vehicle detection unit for identifying the already on the basis of the output of the learner, the type of the vehicle included in the input image is a taxi,
Analyzing the input image to detect a person included in the input image;
Based on the number of taxis and the number of persons included in the input image, a taxi demand determination unit that determines the demand for taxis,
An information processing program that functions as a computer program.
学習済みの前記学習器に入力画像を入力して、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出し、さらに、前記入力画像に対する学習済みの前記学習器の出力に基づいて、前記入力画像に含まれる車両の種別がタクシーであることを識別する車両検出ステップと、
前記入力画像を解析することで、前記入力画像に含まれる人物を検出する人物検出ステップと、
前記入力画像に含まれるタクシーの台数と人物の数とに基づいて、タクシーの需要を判定するタクシー需要判定ステップと、
を含むことを特徴とする情報処理方法。 Learning using learning data including a learning image including a vehicle, information indicating positions of a plurality of feature points related to the vehicle included in the learning image, and information indicating a location of the vehicle indicated by each feature point Learning step to learn the vessel,
An input image is input to the learned learner, a vehicle included in the input image is detected based on a feature point related to the vehicle detected by the learner from the input image, and learning is performed on the input image. a vehicle detection step of identifying that already on the basis of the output of the learner, the type of the vehicle included in the input image is a taxi,
Analyzing the input image to detect a person included in the input image; and
Taxi demand determination step for determining taxi demand based on the number of taxis and the number of persons included in the input image;
An information processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017239974A JP6472504B1 (en) | 2017-12-14 | 2017-12-14 | Information processing apparatus, information processing program, and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017239974A JP6472504B1 (en) | 2017-12-14 | 2017-12-14 | Information processing apparatus, information processing program, and information processing method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019008821A Division JP2019106193A (en) | 2019-01-22 | 2019-01-22 | Information processing device, information processing program and information processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6472504B1 true JP6472504B1 (en) | 2019-02-20 |
JP2019106149A JP2019106149A (en) | 2019-06-27 |
Family
ID=65442979
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017239974A Active JP6472504B1 (en) | 2017-12-14 | 2017-12-14 | Information processing apparatus, information processing program, and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6472504B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021193352A1 (en) * | 2020-03-25 | 2021-09-30 | Necソリューションイノベータ株式会社 | Image tracking device, image tracking method, and computer-readable recording medium |
JP7472170B2 (en) | 2019-04-26 | 2024-04-22 | エヌビディア コーポレーション | Intersection Pose Detection in Autonomous Machine Applications |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022059889A (en) * | 2020-10-02 | 2022-04-14 | 三菱電機株式会社 | Data processing system, server device, data processing method, and data processing program |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10312463A (en) * | 1997-05-12 | 1998-11-24 | Omron Corp | Recognizing method for object and its device |
JP2002340571A (en) * | 2001-05-18 | 2002-11-27 | Hitachi Ltd | System and terminal for providing information, on- vehicle terminal, terminal and apparatus for dispatch |
JP2012083855A (en) * | 2010-10-07 | 2012-04-26 | Toyota Motor Corp | Object recognition device and object recognition method |
JP2014164601A (en) * | 2013-02-26 | 2014-09-08 | Mitsubishi Heavy Ind Ltd | Vehicle specification measurement processing apparatus, vehicle specification measurement method, and program |
JP2014178862A (en) * | 2013-03-14 | 2014-09-25 | Secom Co Ltd | Feature point extraction device |
JP2015135552A (en) * | 2014-01-16 | 2015-07-27 | 株式会社デンソー | Learning system, on-vehicle device, and server |
JP2016038700A (en) * | 2014-08-07 | 2016-03-22 | 富士重工業株式会社 | Vehicle external environment recognition device |
-
2017
- 2017-12-14 JP JP2017239974A patent/JP6472504B1/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10312463A (en) * | 1997-05-12 | 1998-11-24 | Omron Corp | Recognizing method for object and its device |
JP2002340571A (en) * | 2001-05-18 | 2002-11-27 | Hitachi Ltd | System and terminal for providing information, on- vehicle terminal, terminal and apparatus for dispatch |
JP2012083855A (en) * | 2010-10-07 | 2012-04-26 | Toyota Motor Corp | Object recognition device and object recognition method |
JP2014164601A (en) * | 2013-02-26 | 2014-09-08 | Mitsubishi Heavy Ind Ltd | Vehicle specification measurement processing apparatus, vehicle specification measurement method, and program |
JP2014178862A (en) * | 2013-03-14 | 2014-09-25 | Secom Co Ltd | Feature point extraction device |
JP2015135552A (en) * | 2014-01-16 | 2015-07-27 | 株式会社デンソー | Learning system, on-vehicle device, and server |
JP2016038700A (en) * | 2014-08-07 | 2016-03-22 | 富士重工業株式会社 | Vehicle external environment recognition device |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7472170B2 (en) | 2019-04-26 | 2024-04-22 | エヌビディア コーポレーション | Intersection Pose Detection in Autonomous Machine Applications |
US12013244B2 (en) | 2019-04-26 | 2024-06-18 | Nvidia Corporation | Intersection pose detection in autonomous machine applications |
WO2021193352A1 (en) * | 2020-03-25 | 2021-09-30 | Necソリューションイノベータ株式会社 | Image tracking device, image tracking method, and computer-readable recording medium |
JPWO2021193352A1 (en) * | 2020-03-25 | 2021-09-30 | ||
JP7351571B2 (en) | 2020-03-25 | 2023-09-27 | Necソリューションイノベータ株式会社 | Image tracking device, image tracking method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2019106149A (en) | 2019-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110097109B (en) | Road environment obstacle detection system and method based on deep learning | |
JP2019106193A (en) | Information processing device, information processing program and information processing method | |
US20190180076A1 (en) | System and methodologies for occupant monitoring utilizing digital neuromorphic (nm) data and fovea tracking | |
US8487991B2 (en) | Clear path detection using a vanishing point | |
JP6650657B2 (en) | Method and system for tracking moving objects in video using fingerprints | |
US9842266B2 (en) | Method for detecting driver cell phone usage from side-view images | |
US8452053B2 (en) | Pixel-based texture-rich clear path detection | |
CN111860274B (en) | Traffic police command gesture recognition method based on head orientation and upper half skeleton characteristics | |
Kühnl et al. | Monocular road segmentation using slow feature analysis | |
US20090295917A1 (en) | Pixel-based texture-less clear path detection | |
US9626599B2 (en) | Reconfigurable clear path detection system | |
CN106570439B (en) | Vehicle detection method and device | |
JP2014071902A5 (en) | ||
JP6472504B1 (en) | Information processing apparatus, information processing program, and information processing method | |
CN106407951B (en) | A kind of night front vehicles detection method based on monocular vision | |
JP4674179B2 (en) | Shadow recognition method and shadow boundary extraction method | |
Liu et al. | Multi-type road marking recognition using adaboost detection and extreme learning machine classification | |
CN101383005A (en) | Method for separating passenger target image and background by auxiliary regular veins | |
US10614323B2 (en) | Scene analysis method and visual navigation device | |
JP6947005B2 (en) | Attribute recognition device, attribute recognition method, and machine learning device | |
Hariri et al. | Vision based smart in-car camera system for driver yawning detection | |
Santos et al. | Car recognition based on back lights and rear view features | |
CN116012822B (en) | Fatigue driving identification method and device and electronic equipment | |
JP5407723B2 (en) | Recognition device, recognition method, and program | |
JP6171608B2 (en) | Object detection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180605 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180605 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180803 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180821 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180911 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181026 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190122 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6472504 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |