JP6472504B1 - Information processing apparatus, information processing program, and information processing method - Google Patents

Information processing apparatus, information processing program, and information processing method Download PDF

Info

Publication number
JP6472504B1
JP6472504B1 JP2017239974A JP2017239974A JP6472504B1 JP 6472504 B1 JP6472504 B1 JP 6472504B1 JP 2017239974 A JP2017239974 A JP 2017239974A JP 2017239974 A JP2017239974 A JP 2017239974A JP 6472504 B1 JP6472504 B1 JP 6472504B1
Authority
JP
Japan
Prior art keywords
vehicle
input image
learning
image
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017239974A
Other languages
Japanese (ja)
Other versions
JP2019106149A (en
Inventor
剛平 西野
剛平 西野
天▲埼▼ 李
天▲埼▼ 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DeNA Co Ltd
Original Assignee
DeNA Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DeNA Co Ltd filed Critical DeNA Co Ltd
Priority to JP2017239974A priority Critical patent/JP6472504B1/en
Application granted granted Critical
Publication of JP6472504B1 publication Critical patent/JP6472504B1/en
Publication of JP2019106149A publication Critical patent/JP2019106149A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】より高精度に画像から車両を検出する。【解決手段】学習器24は、車両を含む学習用画像26、学習用画像26に含まれる車両に関する複数の特徴点28の位置を示す情報、及び、各特徴点28が示す車両の箇所を示す情報を含む学習用データを用いて学習される。学習済みの学習器24は、入力画像40に含まれる車両に関する複数の特徴点52の位置を示すヒートマップ50と、車両毎の各特徴点間の向きを示すベクトルマップ60を出力する。車両検出部32は、入力画像40から特徴点52が検出されたことをもって入力画像40から車両を検出する。また、車両の箇所が識別された複数の特徴点52の位置関係に基づいて、車両の向き及び種別を検出する。入力画像40に複数の車両が含まれている場合には、車両検出部32は、ベクトルマップ60に基づいて複数の特徴点52を車両毎に区別した上で、複数の車両の向き、種別、及び台数を検出する。【選択図】図2A vehicle is detected from an image with higher accuracy. A learning device includes a learning image including a vehicle, information indicating positions of a plurality of feature points related to the vehicle included in the learning image, and a location of the vehicle indicated by each feature point. Learning is performed using learning data including information. The learned learning device 24 that has been learned outputs a heat map 50 that indicates the positions of a plurality of feature points 52 relating to the vehicle included in the input image 40 and a vector map 60 that indicates the direction between each feature point for each vehicle. The vehicle detection unit 32 detects a vehicle from the input image 40 when the feature point 52 is detected from the input image 40. Further, the direction and type of the vehicle are detected based on the positional relationship between the plurality of feature points 52 where the location of the vehicle is identified. When a plurality of vehicles are included in the input image 40, the vehicle detection unit 32 distinguishes the plurality of feature points 52 for each vehicle based on the vector map 60, and then determines the orientation, type, And the number of units is detected. [Selection] Figure 2

Description

本発明は、情報処理装置、情報処理プログラム、及び、情報処理方法に関する。   The present invention relates to an information processing apparatus, an information processing program, and an information processing method.

従来、画像の中から車両を自動検出する技術が提案されている。特に、昨今、例えば畳み込みニューラルネットワークなどの機械学習手法の研究が盛んであり、機械学習を用いて画像の中から車両を自動検出する技術が提案されている。   Conventionally, a technique for automatically detecting a vehicle from an image has been proposed. In particular, research on machine learning techniques such as convolutional neural networks has been actively conducted recently, and a technique for automatically detecting a vehicle from an image using machine learning has been proposed.

例えば、特許文献1には、車両の正面画像を用いて学習された、車両の正面を検出するための識別器に、自車両の後方カメラで撮影された画像を入力することで、当該画像から他車両を検出する技術が開示されている。   For example, in Patent Document 1, an image captured by a rear camera of the host vehicle is input to a discriminator for detecting the front of the vehicle, learned from the front image of the vehicle. Techniques for detecting other vehicles are disclosed.

特開2017−41132号公報Japanese Unexamined Patent Publication No. 2017-41132

従来の画像から車両を自動検出する技術においては、検出精度の観点から改善の余地があった。例えば、特許文献1の技術では、正面を向いた車両が画像に含まれている場合にしか車両を検出することができず、その他のアングルから車両を撮影した画像からは好適に車両を検出することができなかった。また、他の物体に隠れる、あるいは見切れてしまっていることなどによって、車両の一部が画像に含まれていない場合、画像から車両を検出することが困難となっていた。すなわち、限られた場面でしか画像中に存在する車両を検出することができなかった。   The conventional technology for automatically detecting a vehicle from an image has room for improvement from the viewpoint of detection accuracy. For example, in the technique of Patent Document 1, a vehicle can be detected only when a vehicle facing the front is included in the image, and the vehicle is suitably detected from an image obtained by photographing the vehicle from other angles. I couldn't. Further, when a part of the vehicle is not included in the image due to being hidden by another object or being out of view, it is difficult to detect the vehicle from the image. That is, a vehicle present in an image can be detected only in a limited scene.

本発明の目的は、より高精度に画像から車両を検出することにある。   An object of the present invention is to detect a vehicle from an image with higher accuracy.

本発明は、車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習する学習器と、学習済みの前記学習器に入力画像を入力して、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出し、さらに、前記入力画像に対する学習済みの前記学習器の出力に基づいて、前記入力画像に含まれる車両の種別がタクシーであることを識別する車両検出部と、前記入力画像を解析することで、前記入力画像に含まれる人物を検出する人物検出部と、
前記入力画像に含まれるタクシーの台数と人物の数とに基づいて、タクシーの需要を判定するタクシー需要判定部と、を備えることを特徴とする情報処理装置である。
The present invention relates to learning data including a learning image including a vehicle, information indicating positions of a plurality of feature points related to the vehicle included in the learning image, and information indicating a location of the vehicle indicated by each feature point. A learning device that learns using the input device, and an input image is input to the learned learning device, and the vehicle included in the input image is detected based on a feature point related to the vehicle detected by the learning device from the input image. and, further, on the basis of the output of the learned of the learning device for the input image, and the vehicle detection unit for identifying the type of the vehicle is a taxi included in the input image, by analyzing the input image A person detection unit for detecting a person included in the input image;
A taxi demand determination unit that determines a taxi demand based on the number of taxis and the number of persons included in the input image .

望ましくは、前記車両検出部は、前記学習器が前記入力画像から検出した、対応する車両の箇所が識別された複数の特徴点の位置関係に基づいて、前記入力画像中に含まれる車両の向きを検出する、ことを特徴とする。   Preferably, the vehicle detection unit detects the orientation of the vehicle included in the input image based on the positional relationship of a plurality of feature points that are detected by the learning device from the input image and the corresponding vehicle location is identified. Is detected.

望ましくは、前記学習器は、前記学習用画像に含まれる前記車両の前記複数の特徴点間の向きを学習し、前記車両検出部は、前記学習器が前記入力画像から検出した複数の特徴点間の向きに基づいて、前記入力画像に含まれる複数の車両を区別した上で、複数の車両の向き及び台数の少なくとも一方を検出する、ことを特徴とする。   Preferably, the learning device learns directions between the plurality of feature points of the vehicle included in the learning image, and the vehicle detection unit detects the plurality of feature points detected from the input image by the learning device. The plurality of vehicles included in the input image are distinguished based on the direction between them, and at least one of the direction and the number of the plurality of vehicles is detected.

望ましくは、前記学習用データは、前記学習用画像が撮影された時の天気を示す情報を含み、前記学習器は、前記学習用画像が撮影された時の天気を考慮して学習する、ことを特徴とする。   Preferably, the learning data includes information indicating the weather when the learning image is captured, and the learning device learns considering the weather when the learning image is captured. It is characterized by.

望ましくは、前記学習用データは、前記学習用画像に含まれる車両のライトの点灯有無を示す情報を含み、前記学習器は、前記学習用画像に含まれる車両のライトの点灯有無を考慮して学習する、ことを特徴とする。   Preferably, the learning data includes information indicating whether or not a vehicle light included in the learning image is turned on, and the learning device considers whether or not the vehicle light included in the learning image is turned on. It is characterized by learning.

望ましくは、前記車両検出部は、前記学習器が前記入力画像から検出した、対応する車両の箇所が識別された複数の特徴点の位置関係に基づいて、前記入力画像に含まれる車両の種別を検出する、ことを特徴とする。   Preferably, the vehicle detection unit determines the type of the vehicle included in the input image based on the positional relationship of a plurality of feature points, which are detected from the input image by the learning device, and the location of the corresponding vehicle is identified. It is characterized by detecting.

また、本発明は、コンピュータを、車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習する学習器と、学習済みの前記学習器に入力画像を入力して、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出し、さらに、前記入力画像に対する学習済みの前記学習器の出力に基づいて、前記入力画像に含まれる車両の種別がタクシーであることを識別する車両検出部と、前記入力画像を解析することで、前記入力画像に含まれる人物を検出する人物検出部と、前記入力画像に含まれるタクシーの台数と人物の数とに基づいて、タクシーの需要を判定するタクシー需要判定部と、として機能させることを特徴とする情報処理プログラムである。 Further, the present invention provides a computer with a learning image including a vehicle, information indicating the positions of a plurality of feature points related to the vehicle included in the learning image, and information indicating the location of the vehicle indicated by each feature point. A learning device that learns using learning data including: an input image is input to the learned learning device, and the learning image is input to the input image based on a feature point related to the vehicle detected from the input image. detecting a vehicle that contains, further, on the basis of the output of the learned of the learning device for the input image, and the vehicle detection unit for identifying the type of the vehicle included in the input image is a taxi, the input image By analyzing the above, a person detection unit that detects a person included in the input image, and a task for determining the demand for a taxi based on the number of taxis and the number of persons included in the input image. An information processing program for causing to function as an over demand determining unit.

また、本発明は、車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習器を学習させる学習ステップと、学習済みの前記学習器に入力画像を入力して、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出し、さらに、前記入力画像に対する学習済みの前記学習器の出力に基づいて、前記入力画像に含まれる車両の種別がタクシーであることを識別する車両検出ステップと、前記入力画像を解析することで、前記入力画像に含まれる人物を検出する人物検出ステップと、前記入力画像に含まれるタクシーの台数と人物の数とに基づいて、タクシーの需要を判定するタクシー需要判定ステップと、を含むことを特徴とする情報処理方法である。 Further, the present invention provides a learning image including a vehicle, information indicating the positions of a plurality of feature points related to the vehicle included in the learning image, and information indicating the location of the vehicle indicated by each feature point. A learning step for learning the learning device using the data for the operation; an input image is input to the learned learning device; and the input image is input to the input image based on a feature point regarding the vehicle detected by the learning device from the input image detecting a vehicle that contains, further, on the basis of the output of the learned of the learning device for the input image, and the vehicle detection step of identifying the type of the vehicle included in the input image is a taxi, the input image The demand for taxis is calculated based on the person detection step for detecting a person included in the input image and the number of taxis and the number of persons included in the input image. An information processing method which comprises the taxi demand determination step of constant, the.

本発明によれば、より高精度に画像から車両を検出することができる。   According to the present invention, a vehicle can be detected from an image with higher accuracy.

本実施形態に係る情報処理システムの構成概略図である。1 is a schematic configuration diagram of an information processing system according to an embodiment. 本実施形態に係るサーバの構成概略図である。1 is a schematic configuration diagram of a server according to the present embodiment. 学習用画像の例を示す図である。It is a figure which shows the example of the image for learning. 入力画像の例を示す図である。It is a figure which shows the example of an input image. 学習器が出力するヒートマップの例を示す図である。It is a figure which shows the example of the heat map which a learning device outputs. 学習器が出力するベクトルマップの例を示す図である。It is a figure which shows the example of the vector map which a learning device outputs. 入力画像の他の例を示す図である。It is a figure which shows the other example of an input image. 第1入力画像と第2入力画像における各特徴点同士の色差及び類似度の例を示す図である。It is a figure which shows the example of the color difference and similarity of each feature point in a 1st input image and a 2nd input image. 本実施形態に係るサーバの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the server which concerns on this embodiment.

以下、本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described.

図1には、本実施形態に係る情報処理システム10の構成概略図が示されている。情報処理システム10は、カメラ12と、ユーザ端末14と、情報処理装置としてのサーバ16とを含んで構成される。カメラ12とサーバ16との間、及び、ユーザ端末14とサーバ16との間は、LANあるいはインターネットなどの通信回線18を介して通信可能に接続されている。   FIG. 1 is a schematic configuration diagram of an information processing system 10 according to the present embodiment. The information processing system 10 includes a camera 12, a user terminal 14, and a server 16 as an information processing apparatus. The camera 12 and the server 16 and the user terminal 14 and the server 16 are communicably connected via a communication line 18 such as a LAN or the Internet.

カメラ12は、自動車などの車両を撮影するためのカメラである。カメラ12は、例えば、駐車場や高速道路などに設置される監視カメラである。あるいは、カメラ12は車載カメラであってもよい。また、カメラ12としては、静止画を撮影するカメラであってもよく、動画像を撮影するビデオカメラであってもよい。カメラ12によって撮影された画像は、通信回線18を介してサーバ16に送られる。   The camera 12 is a camera for photographing a vehicle such as an automobile. The camera 12 is, for example, a surveillance camera installed in a parking lot or a highway. Alternatively, the camera 12 may be an in-vehicle camera. Further, the camera 12 may be a camera that captures a still image or a video camera that captures a moving image. An image taken by the camera 12 is sent to the server 16 via the communication line 18.

ユーザ端末14は、ユーザ(サーバ16で実行される画像からの車両検出処理の結果を確認する者)が利用する端末である。ユーザ端末14は、例えばパーソナルコンピュータやタブレット端末などであってよい。ユーザ端末14は、CPU(Central Processing Unit)などの処理部、ハードディスク、ROM(Read Only Memory)あるいはRAM(Random Access Memory)などの記憶部、液晶パネルなどの表示部、マウス、キーボード、タッチパネルなどの入力部、ネットワークアダプタなどの通信部などを含んで構成される。ユーザ端末14は、サーバ16にアクセスすることによって、サーバ16における車両検出処理の結果を受信することができる。   The user terminal 14 is a terminal used by a user (a person who confirms the result of the vehicle detection process from the image executed by the server 16). The user terminal 14 may be a personal computer or a tablet terminal, for example. The user terminal 14 includes a processing unit such as a CPU (Central Processing Unit), a hard disk, a storage unit such as a ROM (Read Only Memory) or a RAM (Random Access Memory), a display unit such as a liquid crystal panel, a mouse, a keyboard, and a touch panel. An input unit and a communication unit such as a network adapter are included. The user terminal 14 can receive the result of the vehicle detection process in the server 16 by accessing the server 16.

図2に、サーバ16の構成概略図が示されている。本実施形態においては、サーバ16はコンピュータによって構成されるが、情報処理装置としては、以下に示す機能を有する限りにおいて、どのような装置であってもよい。   FIG. 2 shows a schematic configuration diagram of the server 16. In the present embodiment, the server 16 is configured by a computer, but the information processing apparatus may be any apparatus as long as it has the following functions.

通信部20は、例えばネットワークアダプタなどから構成される。通信部20は、通信回線18を介して、カメラ12及びユーザ端末14と通信する機能を発揮する。具体的には、通信部20は、カメラ12から画像を受信する。また、通信部20は、ユーザ端末14からの要求に応じて、後述の制御部30による車両検出処理の結果をユーザ端末14に送信する。   The communication unit 20 includes a network adapter, for example. The communication unit 20 exhibits a function of communicating with the camera 12 and the user terminal 14 via the communication line 18. Specifically, the communication unit 20 receives an image from the camera 12. Further, the communication unit 20 transmits the result of the vehicle detection process by the control unit 30 described later to the user terminal 14 in response to a request from the user terminal 14.

記憶部22は、例えばROM、RAMあるいはハードディスクなどから構成される。記憶部22には、サーバ16の各部を動作させるための情報処理プログラムが記憶される。また、記憶部22には、学習器24が記憶される。   The storage unit 22 is composed of, for example, a ROM, a RAM, or a hard disk. The storage unit 22 stores an information processing program for operating each unit of the server 16. The storage unit 22 stores a learning device 24.

学習器24は、詳しくは後述するように、カメラ12が撮影した画像を入力画像とし、当該入力画像に含まれる車両に関する複数の特徴点を検出するものである。本実施形態における学習器24は、例えば畳み込みニューラルネットワークを含んで構成される。   As will be described in detail later, the learning device 24 uses an image captured by the camera 12 as an input image, and detects a plurality of feature points related to the vehicle included in the input image. The learning device 24 in the present embodiment includes, for example, a convolutional neural network.

なお、畳み込みニューラルネットワークは、一般的に、複数の層を含んで構成される。畳み込みニューラルネットワークの各層は、配列(例えば2次元配列)されたニューロン群から構成される。また、畳み込みニューラルネットワークにおいては、ニューロン群と同様に2次元配列された複数の要素を含むフィルタが用いられる。フィルタは各層に応じて設けられ、通常、フィルタのサイズ(配列された要素の数)は、それが適用されるニューロン群のサイズ(配列されたニューロンの数)よりも小さくなっている。フィルタの各要素には、重みが設定されている。   Note that the convolutional neural network generally includes a plurality of layers. Each layer of the convolutional neural network is composed of a group of neurons arranged (for example, a two-dimensional array). In the convolutional neural network, a filter including a plurality of elements arranged two-dimensionally is used like a neuron group. A filter is provided for each layer, and usually the size of the filter (the number of arranged elements) is smaller than the size of the group of neurons to which it is applied (the number of arranged neurons). A weight is set for each element of the filter.

各層のニューロン群に対してフィルタが適用される。概念的には、ニューロン群の一部に対してフィルタが重ね合わされる。フィルタの各要素に設定された各重みと、フィルタが重なる複数のニューロン(ニューロン群の一部)の活性との積和が計算される。すなわち、フィルタの各要素に設定された重みをベクトルの要素として持つ重みベクトルと、複数のニューロンの活性をベクトルの要素として持つ活性ベクトルとの内積が計算される。当該内積が当該層の出力の1つの活性となる。   A filter is applied to each layer of neurons. Conceptually, a filter is superimposed on a part of a group of neurons. The product sum of each weight set for each element of the filter and the activity of a plurality of neurons (part of the neuron group) on which the filters overlap is calculated. That is, the inner product of a weight vector having the weight set for each element of the filter as a vector element and an activity vector having the activities of a plurality of neurons as vector elements is calculated. The inner product becomes one activity of the output of the layer.

フィルタは、ニューロン群上を縦横方向に1つ(1ニューロン)ずつ、あるいは、数ニューロンずつずらしながら適用されていく。これにより、当該層の出力として、配列された活性群が出力される。当該活性群が次層のニューロン群の活性となる。複数の層のニューロン群に対してフィルタを適用していくことで、入力画像から最終的に車両に関する複数の特徴点が検出される。   The filter is applied while shifting one by one (one neuron) or several neurons in the vertical and horizontal directions on the neuron group. Thereby, the arranged active group is output as the output of the layer. This active group becomes the activity of the neuron group in the next layer. By applying filters to a plurality of layers of neuron groups, a plurality of feature points related to the vehicle are finally detected from the input image.

以上のように、本実施形態においては、学習器24の実態は、畳み込みニューラルネットワークに関する各種パラメータ(層構造、各層のニューロン構造、各層におけるフィルタ数、フィルタサイズ、及び各フィルタの各要素の重みなど)、並びに、入力画像に対して処理を行うための処理実行プログラムである。したがって、記憶部22に学習器24が記憶されるとは、上記各種パラメータ及び処理実行プログラムが記憶部22に記憶されることを意味する。なお、学習器24としては、複数のニューラルネットワークを含むものであってもよい。   As described above, in the present embodiment, the actual state of the learning device 24 includes various parameters related to the convolutional neural network (layer structure, neuron structure of each layer, the number of filters in each layer, the filter size, the weight of each element of each filter, etc. ), And a processing execution program for processing the input image. Therefore, storing the learning device 24 in the storage unit 22 means storing the various parameters and the processing execution program in the storage unit 22. Note that the learning device 24 may include a plurality of neural networks.

学習器24の学習方法について説明する。学習器24は、車両を含む学習用画像と、それに関連する情報を含む学習用データを用いて学習を行う。ちなみに、学習器24の学習とは、学習器24が畳み込みニューラルネットワークであれば、フィルタの各要素の重みを調整することを意味する。   A learning method of the learning device 24 will be described. The learning device 24 performs learning using a learning image including a vehicle and learning data including information related thereto. Incidentally, learning by the learning device 24 means adjusting the weight of each element of the filter if the learning device 24 is a convolutional neural network.

図3には、学習用画像26の例が示されている。学習用画像26は、車両を含む限りにおいてどのような画像であってもよく、その取得方法もどのような方法であってもよい。また、図3の例では、学習用画像26は1つの車両を含むものであるが、学習用画像26に複数の車両が含まれていてもよい。   FIG. 3 shows an example of the learning image 26. The learning image 26 may be any image as long as it includes a vehicle, and the acquisition method may be any method. In the example of FIG. 3, the learning image 26 includes one vehicle, but the learning image 26 may include a plurality of vehicles.

学習用データには、学習用画像26に含まれる車両に関する複数の特徴点(28a〜28k、以後、学習用画像26に含まれる車両に関する複数の特徴点を総称して特徴点28と記載する)の位置を示す情報が含まれる。本実施形態では、車両に関する特徴点28として、車両のルーフの4隅(特徴点28a〜28d)、特徴点28aと28dを結ぶ線分と、特徴点28bと28cを結ぶ線分との交点である特徴点28e、2つのヘッドライト(特徴点28f及び28g)、2つテールライト(特徴点28h及び28i)、及び、4つのタイヤ(特徴点28j及び28k)の13個の特徴点28の位置が既知となっている。なお、図3に示す画像のように、13個の特徴点全てが画像に含まれない場合もある。また、車両に関する特徴点28としては、上述の位置に限られず、その他の位置(例えば前後のナンバープレートの位置など)が含まれていてもよい。複数の特徴点は、画像中において車両がどのような向きであっても、できるだけ多くの特徴点が画像に現れるように、その位置が設定される。   In the learning data, a plurality of feature points relating to the vehicle included in the learning image 26 (28a to 28k, hereinafter, a plurality of feature points relating to the vehicle included in the learning image 26 are collectively referred to as feature points 28). The information indicating the position of is included. In the present embodiment, the feature point 28 related to the vehicle is the intersection of the four corners (feature points 28a to 28d) of the vehicle roof, the line connecting the feature points 28a and 28d, and the line connecting the feature points 28b and 28c. Position of 13 feature points 28 of a certain feature point 28e, two headlights (feature points 28f and 28g), two tail lights (feature points 28h and 28i), and four tires (feature points 28j and 28k) Is known. In addition, as in the image illustrated in FIG. 3, all 13 feature points may not be included in the image. Further, the feature points 28 related to the vehicle are not limited to the above-described positions, and may include other positions (for example, positions of front and rear license plates). The positions of the plurality of feature points are set so that as many feature points as possible appear in the image regardless of the orientation of the vehicle in the image.

これら特徴点28の位置を示す情報としては、例えば、学習用画像26における座標である。   The information indicating the positions of the feature points 28 is, for example, coordinates in the learning image 26.

また、学習用データには、各特徴点28が示す車両の箇所を示す情報が含まれる。車両の箇所とは、車両の特定の部位であり、例えば、ルーフ中央、あるいは右前輪などである。図3の例では、特徴点28aがルーフ右前隅、特徴点28bがルーフ左前隅、特徴点28cがルーフ右後隅、特徴点28dがルーフ左後隅、特徴点28eがルーフ中央、特徴点28fが右ヘッドライト、特徴点28gが左ヘッドライト、特徴点28hが右テールライト、特徴点28iが左テールライト、特徴点28jが左前輪、特徴点28kが左後輪であることを示す情報が学習用データに含まれる。なお、学習用画像26に複数の車両が含まれる場合は、学習用データには、車両毎に区別された、各特徴点28の箇所を示す情報が含まれる(例えば、特徴点28aは、「車両Aの」ルーフ右前隅である、など)。   The learning data includes information indicating the location of the vehicle indicated by each feature point 28. The vehicle part is a specific part of the vehicle, such as the center of the roof or the right front wheel. In the example of FIG. 3, the feature point 28a is the roof right front corner, the feature point 28b is the roof left front corner, the feature point 28c is the roof right rear corner, the feature point 28d is the roof left rear corner, the feature point 28e is the roof center, and the feature point 28f. Is the right headlight, the feature point 28g is the left headlight, the feature point 28h is the right taillight, the feature point 28i is the left taillight, the feature point 28j is the left front wheel, and the information indicating that the feature point 28k is the left rear wheel Included in learning data. When a plurality of vehicles are included in the learning image 26, the learning data includes information indicating the location of each feature point 28 that is distinguished for each vehicle (for example, the feature point 28a is “ Vehicle A's right front corner of the roof, etc.).

また、学習用データには、各特徴点28から他の特徴点へ向かう向き(本実施形態ではベクトル)を示す情報が含まれる。なお、特徴点同士を結ぶベクトルは、各特徴点28の位置を示す情報に基づいて所定のプログラムにより自動的に生成されたものを用いることができる。   The learning data includes information indicating the direction (vector in the present embodiment) from each feature point 28 toward another feature point. As the vector connecting the feature points, a vector automatically generated by a predetermined program based on information indicating the position of each feature point 28 can be used.

好適には、学習用データには、学習用画像26が撮影された時の天気を示す情報を含んでいてもよい。天気としては、例えば、晴れ、曇り、雨、あるいは雪などである。また、好適には、学習用データには、学習用画像26に含まれる車両の各ライト(ヘッドライト及びテールライトなど含む)の点灯有無を示す情報を含んでいてもよい。   Preferably, the learning data may include information indicating the weather when the learning image 26 is taken. The weather is, for example, sunny, cloudy, rainy or snowy. Preferably, the learning data may include information indicating whether or not each light (including a headlight and a taillight) of the vehicle included in the learning image 26 is turned on.

なお、上述した、車両の複数の特徴点28の位置、各特徴点28が示す車両の箇所、学習用画像26が撮影された時の天気、及び、学習用画像26に含まれる車両の各ライトの点灯有無をそれぞれ示す各情報は、例えば学習用画像26のメタデータとして付加されていてもよい。   It should be noted that the position of the plurality of feature points 28 of the vehicle, the location of the vehicle indicated by each feature point 28, the weather when the learning image 26 is photographed, and each light of the vehicle included in the learning image 26 are described above. Each piece of information indicating the presence / absence of lighting may be added as metadata of the learning image 26, for example.

学習器24は、多数の学習用データを用いて学習することで、入力画像から車両に関する複数の特徴点を検出することが可能となる。特に、学習器24は、車両に関する複数の特徴点28の位置と、各特徴点28が示す車両の箇所が既知である学習用データを用いて学習する。これにより、学習器24は、検出した特徴点が車両のどの箇所に対応するものであるかを識別して検出可能となる。   The learning device 24 can detect a plurality of feature points related to the vehicle from the input image by learning using a large number of learning data. In particular, the learning device 24 learns using learning data in which the positions of a plurality of feature points 28 related to the vehicle and the location of the vehicle indicated by each feature point 28 are known. Thereby, the learning device 24 can identify and detect which part of the vehicle the detected feature point corresponds to.

対応する車両の箇所を識別した上で複数の特徴点を検出可能であることは、入力画像に含まれる車両の各箇所間の位置関係を検出可能であることを意味する。換言すれば、学習器24は、学習用データから、車両のある箇所(特徴点)から他の箇所(特徴点)へ向かう向き(本実施形態ではベクトル)を学習し、学習済みの学習器24は、入力画像から検出した各特徴点間の向き(ベクトル)を検出可能になると言える。また、学習器24は、学習用画像26に複数の車両が含まれている場合であっても、学習用データにおいては、車両毎に区別された上で、各特徴点28が示す車両の箇所が既知であるから、車両毎に区別して、各特徴点間の向きを学習することができる。   The fact that a plurality of feature points can be detected after identifying the corresponding vehicle location means that the positional relationship between the vehicle locations included in the input image can be detected. In other words, the learning device 24 learns the direction (vector in this embodiment) from a certain location (feature point) of the vehicle to another location (feature point) from the learning data, and has already learned the learning device 24. It can be said that the direction (vector) between each feature point detected from the input image can be detected. In addition, even when the learning image 24 includes a plurality of vehicles in the learning image 26, the learning data 24 is distinguished from each vehicle in the learning data, and the vehicle location indicated by each feature point 28. Is known, it is possible to learn the direction between each feature point by distinguishing each vehicle.

好適には、学習器24は、特徴点及び各特徴点間の向きに加え、学習用画像26が撮影された時の天気を出力するように学習する。例えば、天気が雪である場合、積雪によって車両のルーフの4隅及びルーフ中央が隠れてしまう場合がある。このような場合でも、天気を示す情報を含む学習用画像26を用いて入力画像の天気を出力するように学習することで、学習器24は、学習用画像26が撮影された時の天気が雪であることを考慮した上で特徴点を検出するようになると考えられる。これにより、学習器24が、入力画像から車両に関する複数の特徴点を検出する際の検出精度を向上させることができる。   Preferably, the learning device 24 learns to output the weather when the learning image 26 is captured in addition to the feature points and the directions between the feature points. For example, when the weather is snow, the four corners of the vehicle roof and the center of the roof may be hidden by snow accumulation. Even in such a case, by learning to output the weather of the input image using the learning image 26 including the information indicating the weather, the learning device 24 can determine the weather when the learning image 26 is captured. It is considered that feature points will be detected in consideration of snow. Thereby, the learning accuracy can be improved when the learning device 24 detects a plurality of feature points related to the vehicle from the input image.

同様に、好適には、学習器24は、特徴点及び各特徴点間の向きに加え、学習用画像26に含まれる車両の各ライトの点灯有無を出力するように学習する。昼間に撮影された画像と夜間に撮影された画像とを比較したときに、ライトの点灯有無に応じて入力画像のライトの位置付近の輝度値が変化するなど画像の見た目が大きく異なる。このような場合でも、車両の各ライトの点灯有無を示す情報を含む学習用画像26を用いて入力画像に含まれる車両の各ライトの点灯有無を出力するように学習することで、学習器24は、学習用画像26が撮影された時の車両の各ライトの点灯有無を考慮した上で特徴点を検出するようになると考えられる。これにより、学習器24が、入力画像から車両に関する複数の特徴点を検出する際の検出精度を向上させることができる。   Similarly, the learning device 24 preferably learns to output whether or not each light of the vehicle included in the learning image 26 is turned on in addition to the feature points and the directions between the feature points. When an image taken in the daytime and an image taken at night are compared, the appearance of the image is greatly different, for example, the luminance value near the light position of the input image changes depending on whether or not the light is turned on. Even in such a case, the learning device 24 learns to output whether or not each light of the vehicle included in the input image is output using the learning image 26 including information indicating whether or not each light of the vehicle is turned on. It is considered that the feature points are detected in consideration of whether or not each light of the vehicle is turned on when the learning image 26 is taken. Thereby, the learning accuracy can be improved when the learning device 24 detects a plurality of feature points related to the vehicle from the input image.

図2に戻り、制御部30は、例えばCPUあるいはマイクロコントローラなどを含んで構成される。制御部30は、記憶部22に記憶された情報処理プログラムに従ってサーバ16の各部を制御する。また、図2に示される通り、制御部30は、車両検出部32、人物検出部34、処理演算部36、及び、同一性判定部38としても機能する。   Returning to FIG. 2, the control unit 30 includes, for example, a CPU or a microcontroller. The control unit 30 controls each unit of the server 16 according to the information processing program stored in the storage unit 22. 2, the control unit 30 also functions as a vehicle detection unit 32, a person detection unit 34, a processing calculation unit 36, and an identity determination unit 38.

車両検出部32は、カメラ12が撮影した画像である入力画像から車両を検出する処理を実行する。具体的には、車両検出部32は、入力画像を学習済みの学習器24に入力し、入力画像に対する学習器24による複数の特徴点の検出結果に基づいて、当該入力画像から車両を検出する。   The vehicle detection unit 32 executes processing for detecting a vehicle from an input image that is an image captured by the camera 12. Specifically, the vehicle detection unit 32 inputs the input image to the learned learning device 24, and detects the vehicle from the input image based on the detection results of a plurality of feature points by the learning device 24 for the input image. .

図4には、入力画像の例が示されている。以下、図4に示す入力画像40に対する、学習器24の出力及び車両検出部32による車両検出処理の詳細を説明する。図4に示す通り、本実施形態においては、入力画像40には複数の車両42が含まれている。なお、車両検出部32の処理対象となる入力画像としては、1つの車両42のみを含むものであってもよく、車両42が含まれない画像でもよい。   FIG. 4 shows an example of the input image. The details of the output of the learning device 24 and the vehicle detection process by the vehicle detection unit 32 for the input image 40 shown in FIG. 4 will be described below. As shown in FIG. 4, in the present embodiment, the input image 40 includes a plurality of vehicles 42. Note that the input image to be processed by the vehicle detection unit 32 may include only one vehicle 42 or an image that does not include the vehicle 42.

車両検出部32が、十分に学習された学習器24に入力画像40を入力すると、学習器24は、ヒートマップ及びベクトルマップを出力する。   When the vehicle detection unit 32 inputs the input image 40 to the sufficiently learned learning device 24, the learning device 24 outputs a heat map and a vector map.

図5には、入力画像40に対するヒートマップ50が示されている。上述のように、学習器24は、入力画像40から各車両に関する複数の特徴点を検出する。ヒートマップ50は、検出された複数の特徴点52の位置を示すマップである。なお、検出された複数の特徴点52の位置は、入力画像40における座標で表される。   FIG. 5 shows a heat map 50 for the input image 40. As described above, the learning device 24 detects a plurality of feature points related to each vehicle from the input image 40. The heat map 50 is a map indicating the positions of the detected feature points 52. The detected positions of the plurality of feature points 52 are represented by coordinates in the input image 40.

図6には、入力画像40に対するベクトルマップ60が示されている。上述の通り、学習器24は、入力画像から検出した各特徴点52間の向きを検出する。特に、学習器24は、入力画像に複数の車両が含まれている場合には、車両毎に区別して、各特徴点52間の向きを検出する。ベクトルマップ60は、車両毎の各特徴点52間の向きを示すベクトル62の位置及び向きを示すマップである。なお、図6に示すベクトルマップ60には特徴点52が示されているが、ベクトルマップ60は特徴点52を含んでいなくてもよい。   FIG. 6 shows a vector map 60 for the input image 40. As described above, the learning device 24 detects the direction between the feature points 52 detected from the input image. In particular, when a plurality of vehicles are included in the input image, the learning device 24 detects the direction between the feature points 52 by distinguishing the vehicles for each vehicle. The vector map 60 is a map indicating the position and orientation of a vector 62 that indicates the orientation between the feature points 52 for each vehicle. Note that feature points 52 are shown in the vector map 60 shown in FIG. 6, but the vector map 60 may not include the feature points 52.

各ベクトル62は、一の特徴点52と他の特徴点52との間に示されるものであるが、その向き(一の特徴点52から他の特徴点52へ向かう向きなのか、他の特徴点52から一の特徴点52へ向かう向きなのか)は、予め定義されておいてよい。例えば、本実施形態においては、各ベクトル62は、原則的に、前から後ろ(例えばルーフ右前隅からルーフ右後隅へ向かう方向)、右から左(例えばルーフ右前隅からルーフ左前隅へ向かう方向)の向きとなっている。   Each vector 62 is shown between one feature point 52 and another feature point 52, but its direction (whether it is a direction from one feature point 52 to another feature point 52 or another feature point). The direction from the point 52 toward one feature point 52) may be defined in advance. For example, in the present embodiment, each vector 62 is in principle a front-to-back direction (for example, a direction from the roof right front corner to the roof right rear corner) and a right to left (for example, a direction from the roof right front corner to the roof left front corner). ) Direction.

ベクトルマップ60においては、隣接する(近傍にある)特徴点52間のみのベクトル62が示されるようにしてもよいが、ある特徴点52から、当該特徴点52と同一車両に対応する他の全ての特徴点52との間にベクトル62が示されるようにしてもよい。図6に示すベクトルマップ60においては、一部のベクトル62のみが示されている。   In the vector map 60, only the vector 62 between the adjacent (nearby) feature points 52 may be shown. However, from the feature point 52, all other points corresponding to the same vehicle as the feature point 52 are displayed. A vector 62 may be shown between the feature point 52 and the feature point 52. In the vector map 60 shown in FIG. 6, only a part of the vectors 62 is shown.

車両検出部32は、ヒートマップ50において検出された特徴点52とベクトルマップ60に基づいて、入力画像40から車両を検出する。具体的な検出処理の内容を以下に説明する。   The vehicle detection unit 32 detects a vehicle from the input image 40 based on the feature points 52 detected in the heat map 50 and the vector map 60. Details of the detection process will be described below.

車両検出部32は、ヒートマップ50に対してフィルタリング処理を施し、ヒートマップ50に含まれる特徴点群から確率が所定値以上である特徴点を有効な複数の特徴点として抽出する。次に、抽出された有効な複数の特徴点の間の全ての組合せについて、特徴点と特徴点を結ぶ線分上でベクトルマップ60の積分を行う。そして、ベクトルの積分値の平均が所定値以上の2つの特徴点の組を正解の組合せとして特定する。このようにして、有効な複数の特徴点を複数のグループにグルーピングしていく。そうすると、例えば、特徴点を3つ有するグループA、特徴点を5つ有するグループB、特徴点を6つ有するグループC、あるいは他の特徴点と組み合わされなかった単独の特徴点などといったように分類される。そして、所定数以上の特徴点を含むグループを、車両を表すグループとして特定する。すなわち、車両として検出する。   The vehicle detection unit 32 performs a filtering process on the heat map 50 and extracts feature points having a probability equal to or greater than a predetermined value from the feature point group included in the heat map 50 as a plurality of effective feature points. Next, the vector map 60 is integrated on a line segment connecting the feature points with respect to all combinations between the extracted effective feature points. Then, a set of two feature points whose average of the integral values of the vectors is a predetermined value or more is specified as a correct combination. In this way, a plurality of effective feature points are grouped into a plurality of groups. Then, for example, group A having three feature points, group B having five feature points, group C having six feature points, or a single feature point not combined with other feature points, etc. Is done. Then, a group including a predetermined number or more of feature points is specified as a group representing the vehicle. That is, it detects as a vehicle.

このように、本実施形態によれば、入力画像40から検出された特徴点52に基づいて車両を検出するから、入力画像40において、車両の一部が隠れたり、見切れていたり、あるいは車両のアングルに関わらず、入力画像40から車両を検出することができる。一方、ヒートマップ50において特徴点52が検出されなかった場合には、車両検出部32は、入力画像40に車両は含まれていない、と判定することができる。   Thus, according to the present embodiment, since the vehicle is detected based on the feature point 52 detected from the input image 40, a part of the vehicle is hidden or overlooked in the input image 40, or the vehicle The vehicle can be detected from the input image 40 regardless of the angle. On the other hand, when the feature point 52 is not detected in the heat map 50, the vehicle detection unit 32 can determine that the vehicle is not included in the input image 40.

また、上述の通り、学習器24は、対応する車両の箇所が識別された複数の特徴点52を検出可能である。例えば、学習器24は、特徴点52aがルーフ右前隅、特徴点52bがルーフ左前隅、特徴点52cがルーフ右後隅、特徴点52dがルーフ左後隅、特徴点52eがルーフ中央、特徴点52fが右ヘッドライト、特徴点52gが左ヘッドライト、特徴点52hが右前輪、特徴点52iが右後輪であることを識別した上で、各特徴点52を検出する。   Further, as described above, the learning device 24 can detect a plurality of feature points 52 in which corresponding vehicle locations are identified. For example, in the learning device 24, the feature point 52a is the roof right front corner, the feature point 52b is the roof left front corner, the feature point 52c is the roof right rear corner, the feature point 52d is the roof left rear corner, and the feature point 52e is the roof center. Each feature point 52 is detected after identifying that 52f is the right headlight, the feature point 52g is the left headlight, the feature point 52h is the right front wheel, and the feature point 52i is the right rear wheel.

車両検出部32は、車両の箇所が識別された複数の特徴点52の位置関係に基づいて、入力画像40に含まれる車両の向きを検出することができる。例えば、図5に示されたヒートマップ50の例では、ルーフ右前隅に対応する特徴点52aの左上側に、ルーフ右後隅に対応する特徴点52c位置しており、また、ルーフ右前隅に対応する特徴点52aの右上側に、ルーフ左前隅に対応する特徴点52bが位置している。このような位置関係から、車両検出部32は、複数の特徴点52a〜iにより表される車両は、入力画像40において前側を右下方向に向けていることを検出することができる。   The vehicle detection unit 32 can detect the orientation of the vehicle included in the input image 40 based on the positional relationship between the plurality of feature points 52 where the location of the vehicle is identified. For example, in the example of the heat map 50 shown in FIG. 5, the feature point 52c corresponding to the roof right rear corner is located on the upper left side of the feature point 52a corresponding to the roof right front corner, and the roof right front corner is located. A feature point 52b corresponding to the left front corner of the roof is located on the upper right side of the corresponding feature point 52a. From such a positional relationship, the vehicle detection unit 32 can detect that the vehicle represented by the plurality of feature points 52a to 52i faces the front side in the lower right direction in the input image 40.

また、車両検出部32は、車両の箇所が識別された複数の特徴点52の位置関係に基づいて、車両の種別を検出することができる。車両の種別とは、その外形の違いにより区別されるものであり、例えば、セダン、バン、軽自動車、トラック、あるいはタクシーなどの種別である。   Moreover, the vehicle detection part 32 can detect the classification of a vehicle based on the positional relationship of the some feature point 52 by which the location of the vehicle was identified. The type of vehicle is distinguished by the difference in its outer shape, for example, a type such as a sedan, a van, a light vehicle, a truck, or a taxi.

例えば、バンは、タイヤの位置からルーフの位置までの距離がセダンに比して長い。また、トラックは、タイヤの位置からルーフの位置までの距離がセダンに比して比較的長い上、ルーフの前後方向の長さがセダンあるいはバンに比して長い。各種別の車両は、このように外形上の違いを有しているため、車両検出部32は、複数の特徴点52の位置によって入力画像40に含まれる車両の種別を検出することができる。なお、入力画像40における車両のアングルによって、複数の特徴点52間の距離が変動し得るので、例えば、車両のルーフの4隅の特徴点の位置関係などに基づいて当該車両のアングルを推定した上で、車両の種別を検出するのが好適である。   For example, a van has a longer distance from a tire position to a roof position than a sedan. In addition, the distance between the tire position and the roof position of the truck is relatively longer than that of the sedan, and the length of the roof in the front-rear direction is longer than that of the sedan or van. Since each type of vehicle has such a difference in appearance, the vehicle detection unit 32 can detect the type of vehicle included in the input image 40 based on the positions of the plurality of feature points 52. Since the distance between the plurality of feature points 52 may vary depending on the vehicle angle in the input image 40, the angle of the vehicle is estimated based on, for example, the positional relationship between the feature points at the four corners of the vehicle roof. It is preferable to detect the type of vehicle.

図4に示すように、入力画像40が複数の車両42を含む場合、特に、複数の車両42が近接あるいは重なっている場合、ヒートマップ50において、複数の車両に対応する複数の特徴点52が密集して検出されることになる。例えば、図5のヒートマップ50の下部に位置する特徴点群64がその例である。この場合、各特徴点52が対応する車両の箇所が識別されているとはいえ、ヒートマップ50からだけでは、特徴点群64を各車両に対応するグループに適切に区別するのが困難になる場合がある。   As shown in FIG. 4, when the input image 40 includes a plurality of vehicles 42, particularly when the plurality of vehicles 42 are close to each other or overlap, a plurality of feature points 52 corresponding to the plurality of vehicles are displayed in the heat map 50. It will be detected densely. For example, the feature point group 64 located in the lower part of the heat map 50 in FIG. 5 is an example. In this case, although the location of the vehicle to which each feature point 52 corresponds is identified, it is difficult to appropriately distinguish the feature point group 64 into groups corresponding to each vehicle only from the heat map 50. There is a case.

本実施形態では、ベクトルマップ60を用いることで、複数の車両に対応する特徴点52が密集した特徴点群64が形成された場合であっても、特徴点群64を各車両に対応するグループに適切に区別することができる。具体的には、ベクトルマップ60に含まれる各ベクトル62は、ある車両の特徴点52と、当該車両の他の特徴点52との間に示されるものである。したがって、特徴点群64に含まれる各特徴点52間の向きに基づいて、特徴点群64を、各車両に対応した特徴点グループ64aと特徴点グループ64bに区別することができる。   In the present embodiment, by using the vector map 60, even if the feature point group 64 in which the feature points 52 corresponding to a plurality of vehicles are densely formed, the feature point group 64 is assigned to each vehicle group. Can be properly distinguished. Specifically, each vector 62 included in the vector map 60 is shown between a feature point 52 of a certain vehicle and another feature point 52 of the vehicle. Therefore, based on the direction between the feature points 52 included in the feature point group 64, the feature point group 64 can be distinguished into a feature point group 64a and a feature point group 64b corresponding to each vehicle.

入力画像40から検出された複数の特徴点52が適切に車両毎に区別されることで、車両検出部32は、入力画像40に含まれる各車両の向きを検出することが可能となる。それと同時に、車両検出部32は、入力画像40に含まれる車両の台数を検出することが可能になる。   By appropriately distinguishing the plurality of feature points 52 detected from the input image 40 for each vehicle, the vehicle detection unit 32 can detect the orientation of each vehicle included in the input image 40. At the same time, the vehicle detection unit 32 can detect the number of vehicles included in the input image 40.

図2に戻り、人物検出部34は、入力画像40に含まれる人物を検出する。入力画像40からの人物の検出方法としては、車両を検出するための学習器24と同様の構成であって、人物を検出するように学習された他の学習器を用いてもよいし、あるいは、既知の画像解析処理などを用いるようにしてもよい。特に、人物検出部34は、入力画像40に含まれる人物の数を検出する。   Returning to FIG. 2, the person detection unit 34 detects a person included in the input image 40. As a method for detecting a person from the input image 40, another learning device having the same configuration as the learning device 24 for detecting a vehicle and learning to detect a person may be used. Alternatively, a known image analysis process or the like may be used. In particular, the person detection unit 34 detects the number of persons included in the input image 40.

処理演算部36は、車両検出部32による入力画像からの車両の検出結果と、人物検出部34による入力画像からの人物の検出結果に基づいて演算を行う。本実施形態においては、図7に示されるような、タクシー乗り場を俯瞰的に撮影した入力画像40−2に対して、車両検出部32がタクシー70の数を検出し、人物検出部34が人物72の数を検出する。そして、処理演算部36は、入力画像40−2におけるタクシー70の台数と人物72の数とに基づいて演算を行い、タクシーの需要を判定する。このように、処理演算部36は、タクシー需要判定部として機能する。   The processing calculation unit 36 performs calculation based on the vehicle detection result from the input image by the vehicle detection unit 32 and the person detection result from the input image by the person detection unit 34. In the present embodiment, the vehicle detection unit 32 detects the number of taxis 70 and the person detection unit 34 detects a person from an input image 40-2 obtained by bird's-eye view of the taxi stand as shown in FIG. The number 72 is detected. And the process calculating part 36 calculates based on the number of the taxis 70 in the input image 40-2, and the number of the persons 72, and determines the demand of a taxi. In this way, the processing calculation unit 36 functions as a taxi demand determination unit.

車両検出部32によるタクシーの検出方法としては、様々な方法を採用することができる。まず、学習器24によりヒートマップ50(図5参照)が出力された後に、ルーフ中央に対応する特徴点52を含む一定の領域に対して画像解析を実施し、行灯を検出するようにしてもよい。もちろん、行灯が検出されれば当該車両はタクシーであると判定できるし、行灯が検出されなければ当該車両はタクシーではないと判定できる。   As a taxi detection method by the vehicle detection unit 32, various methods can be employed. First, after the heat map 50 (see FIG. 5) is output by the learning device 24, image analysis is performed on a certain region including the feature point 52 corresponding to the center of the roof to detect a row lamp. Good. Of course, if a row lamp is detected, it can be determined that the vehicle is a taxi, and if a row lamp is not detected, it can be determined that the vehicle is not a taxi.

また、学習用画像26(図3参照)に含まれる車両がタクシーであることを示す情報を学習データに付加し、学習器24が入力画像40−2からタクシーを識別可能なように学習器24を学習させてもよい。   Further, information indicating that the vehicle included in the learning image 26 (see FIG. 3) is a taxi is added to the learning data, so that the learning device 24 can identify the taxi from the input image 40-2. You may learn.

あるいは、カメラ12の撮影対象場所によっては、入力画像40−2に含まれる車両はすべてタクシーであるとみなすようにしてもよい。   Alternatively, all the vehicles included in the input image 40-2 may be regarded as taxis depending on the shooting target location of the camera 12.

処理演算部36は、上述した方法により入力画像40−2に含まれるタクシー70及び人物72を検出し、タクシー70の台数よりも人物72の数が多い場合は、タクシーの需要有りと判定し、例えばタクシーの配車担当者が利用するユーザ端末14に当該タクシー乗り場でタクシーの需要があることを示す情報を送信する。また、処理演算部36は、入力画像40−2におけるタクシー70の台数と人物72の数との差分を算出し、当該差分(すなわち必要なタクシーの台数)を示す情報をユーザ端末14に送信するようにしてもよい。   The processing calculation unit 36 detects the taxi 70 and the persons 72 included in the input image 40-2 by the above-described method. When the number of persons 72 is larger than the number of taxis 70, the processing calculation unit 36 determines that there is a taxi demand. For example, information indicating that there is demand for a taxi at the taxi stand is transmitted to the user terminal 14 used by a taxi dispatcher. Further, the processing calculation unit 36 calculates a difference between the number of taxis 70 and the number of persons 72 in the input image 40-2, and transmits information indicating the difference (that is, the number of necessary taxis) to the user terminal 14. You may do it.

また、処理演算部36は、タクシー乗り場における過去の複数の入力画像40−2に含まれるタクシー70の台数及び人物72の数の統計データに基づいて、当該タクシー乗り場における将来のタクシーの需要量を予測するようにしてもよい。   Further, the processing calculation unit 36 calculates the future demand for taxis at the taxi stand based on the statistical data of the number of taxis 70 and the number of persons 72 included in the plurality of past input images 40-2 at the taxi stand. You may make it predict.

図2に戻り、同一性判定部38は、同一のカメラ12で異なるタイミングで撮影された複数の入力画像において、車両の同一性を判定する(つまり同じ車両を識別する)処理を行う。同一性判定部38によれば、あるカメラ12の撮影範囲の中で、同一車両を追従することが可能になり、車両がどのような動きをするのかを検出することが可能になる。以下の説明においては、同一のカメラ12で異なるタイミングで撮影された、車両Aを含む第1入力画像と車両Bを含む第2入力画像との間で、車両Aと車両Bの同一性を判定する処理について説明する。   Returning to FIG. 2, the identity determination unit 38 performs a process of determining the identity of a vehicle (that is, identifying the same vehicle) in a plurality of input images taken at different timings by the same camera 12. According to the identity determination unit 38, it is possible to follow the same vehicle within a shooting range of a certain camera 12, and it is possible to detect how the vehicle moves. In the following description, the identity of the vehicle A and the vehicle B is determined between the first input image including the vehicle A and the second input image including the vehicle B, which are taken with the same camera 12 at different timings. Processing to be performed will be described.

まず、同一性判定部38は、第1入力画像から学習器24が検出した車両Aに関する複数の特徴点の各画素の色情報と、第2入力画像から学習器24が検出した車両Bに関する複数の特徴点の各画素の色情報とを取得する。なお、色情報とは、色相、明度(輝度)、及び彩度を含む概念である。   First, the identity determination unit 38 includes color information of each pixel of a plurality of feature points related to the vehicle A detected by the learning device 24 from the first input image and a plurality of information related to the vehicle B detected by the learning device 24 from the second input image. The color information of each pixel of the feature point is acquired. The color information is a concept including hue, brightness (luminance), and saturation.

本実施形態では、学習器24は、第1入力画像あるいは第2入力画像の1つの画素の座標として各特徴点を検出しているところ、同一性判定部38は、学習器24により検出された1つの画素を中心とする一定の面積を持った領域を色情報の取得対象の領域(以後画素領域と記載する)とする。また、第1入力画像あるいは第2入力画像の車両の大きさに応じて、画素領域の面積を変化させるようにしてもよい。例えば、入力画像中の車両が大きい程、画素領域の面積を大きくするようにしてもよい。なお、入力画像中の車両の大きさは、車両の箇所が識別された複数の特徴点の位置に基づいて検出することができる。   In the present embodiment, the learning device 24 detects each feature point as the coordinates of one pixel of the first input image or the second input image, but the identity determination unit 38 is detected by the learning device 24. A region having a certain area centered on one pixel is defined as a region for acquiring color information (hereinafter referred to as a pixel region). Further, the area of the pixel region may be changed according to the size of the vehicle in the first input image or the second input image. For example, the area of the pixel region may be increased as the vehicle in the input image is larger. Note that the size of the vehicle in the input image can be detected based on the positions of a plurality of feature points where the location of the vehicle is identified.

本実施形態では、同一性判定部38は、各画素領域に含まれる複数の画素の色をL*a*b*色空間で表現した上で、複数の画素の色の代表値(例えば平均値、中央値、最頻値)を求める。そして、求めた色の代表値を画素領域の色情報とする。なお、各画素の色をL*a*b*色空間で表現するのは、L*a*b*色空間が人間の視覚に近似するように設計されているためである。   In the present embodiment, the identity determination unit 38 expresses the color of a plurality of pixels included in each pixel region in an L * a * b * color space, and then represents a representative value (for example, an average value) of the colors of the plurality of pixels. , Median, mode). Then, the obtained representative value of the color is used as the color information of the pixel area. The color of each pixel is expressed in the L * a * b * color space because the L * a * b * color space is designed to approximate human vision.

なお、各画素領域の色情報として上記以外の特徴量を採用してもよい。例えば、画素領域に含まれる複数の画素におけるHOG(Histograms of Oriented Gradients)特徴量を算出するようにしてもよい。ここで、HOG特徴量とは、画素領域内の各画素の輝度の勾配方向をヒストグラム化した特徴量である。   In addition, you may employ | adopt the feature-value other than the above as color information of each pixel area. For example, HOG (Histograms of Oriented Gradients) feature values in a plurality of pixels included in the pixel region may be calculated. Here, the HOG feature value is a feature value in which the luminance gradient direction of each pixel in the pixel region is histogrammed.

以上のようにして、第1入力画像に含まれる車両Aの各特徴点に対応する画素の色情報、及び、第2入力画像に含まれる車両Bの各特徴点に対応する画素の色情報が取得される。   As described above, the pixel color information corresponding to each feature point of the vehicle A included in the first input image and the color information of the pixel corresponding to each feature point of the vehicle B included in the second input image are obtained. To be acquired.

次いで、同一性判定部38は、車両Aの各特徴点の色情報と、車両Bの各特徴点の色情報とを比較する。詳しくは、車両の箇所毎に、車両Aの特徴点の色情報と車両Bの特徴点の色情報を比較する。これにより、同一性判定部38は車両Aと車両Bとの同一性を判定する。具体的には、車両Aのある特徴点(ここではルーフ右前隅とする)と、車両Bの対応する箇所であるルーフ右前隅の特徴点との色情報の差分(色差)を算出する。このように、全ての箇所について色差を算出する。   Next, the identity determination unit 38 compares the color information of each feature point of the vehicle A with the color information of each feature point of the vehicle B. Specifically, the color information of the feature points of the vehicle A and the color information of the feature points of the vehicle B are compared for each vehicle location. Thereby, the identity determination unit 38 determines the identity between the vehicle A and the vehicle B. Specifically, a difference (color difference) in color information between a certain feature point of the vehicle A (here, the roof right front corner) and a feature point of the roof right front corner which is a corresponding portion of the vehicle B is calculated. In this way, color differences are calculated for all locations.

本実施形態では、CIE2000色差式により、各特徴点の画素の色情報の色差を算出する。これは、CIE2000色差式は、人間の目の色識別域の特徴である、色相依存性、明度依存性、及び彩度依存性を考慮した計算式であるためである。すなわち、CIE2000色差式に基づく色差は、人間の視覚による色の差に近い値となるためである。   In this embodiment, the color difference of the color information of the pixel at each feature point is calculated by the CIE2000 color difference formula. This is because the CIE2000 color difference formula is a calculation formula that takes into account the hue dependency, lightness dependency, and saturation dependency, which are the characteristics of the color discrimination range of the human eye. That is, the color difference based on the CIE2000 color difference formula is a value close to the color difference by human vision.

図8に、車両Aの各特徴点の色情報と、車両Bの各特徴点の色情報との差(色差)が示されている。同一性判定部38は、算出された色差に基づいて、特徴点毎に類似度を算出する。具体的には、同一性判定部38は、色差が小さい程類似度が大きくなるように算出する。本実施形態では、以下の式によって色差から類似度を算出する。

Figure 0006472504
ここで、dは色差であり、α及びβは定数である。α及びβを適宜設定することにより、色差の値に対する類似度の値を調整することができる。 FIG. 8 shows the difference (color difference) between the color information of each feature point of the vehicle A and the color information of each feature point of the vehicle B. The identity determination unit 38 calculates the similarity for each feature point based on the calculated color difference. Specifically, the identity determination unit 38 calculates such that the degree of similarity increases as the color difference decreases. In the present embodiment, the similarity is calculated from the color difference using the following equation.
Figure 0006472504
Here, d is a color difference, and α and β are constants. By appropriately setting α and β, the similarity value with respect to the color difference value can be adjusted.

図8には、特徴点毎に算出された類似度が示されている。このようにして、車両Aと車両Bとの間において、複数の(本実施形態では13個)特徴点についての複数の類似度が算出される。同一性判定部38は、算出された複数の類似度の代表値(例えば平均値、中央値、最頻値)を求める。このように求められた類似度の代表値が車両Aと車両Bとの類似度となる。なお、第1入力画像又は第2入力画像における見切れ、あるいは隠れなどにより、車両A又は車両Bの複数の特徴点のうち検出されなかった特徴点がある場合には、当該特徴点に関する類似度は予め定められた値(本実施形態では50%)とする。   FIG. 8 shows the similarity calculated for each feature point. In this way, a plurality of similarities are calculated between a plurality of (13 in this embodiment) feature points between the vehicle A and the vehicle B. The identity determination unit 38 obtains representative values (for example, an average value, a median value, and a mode value) of the calculated plurality of similarities. The representative value of the similarity obtained in this way is the similarity between the vehicle A and the vehicle B. In addition, when there is a feature point that has not been detected among a plurality of feature points of the vehicle A or the vehicle B due to overrun or hiding in the first input image or the second input image, the similarity degree regarding the feature point is It is set to a predetermined value (50% in this embodiment).

以上のようにして、第1入力画像に含まれる車両Aと第2入力画像に含まれる車両Bの類似度が算出される。同一性判定部38は、算出された類似度が予め定められた類似度閾値以上である場合に車両Aと車両Bが同一車両であると判定し、算出された類似度が類似度閾値未満である場合に車両Aと車両Bが同一車両ではないと判定する。   As described above, the similarity between the vehicle A included in the first input image and the vehicle B included in the second input image is calculated. The identity determination unit 38 determines that the vehicle A and the vehicle B are the same vehicle when the calculated similarity is greater than or equal to a predetermined similarity threshold, and the calculated similarity is less than the similarity threshold. In some cases, it is determined that the vehicle A and the vehicle B are not the same vehicle.

上述のように、同一性判定部38は、異なるタイミングで撮影された複数の入力画像間において車両の同一性を判定する。好適には、カメラ12が撮像した動画に含まれる、隣接するフレーム画像間毎に上記処理を行うことによって、動画像において同一車両をトラッキングすることができる。   As described above, the identity determination unit 38 determines the identity of a vehicle among a plurality of input images taken at different timings. Preferably, the same vehicle can be tracked in the moving image by performing the above processing for each adjacent frame image included in the moving image captured by the camera 12.

以下、図9に示すフローチャートに従って、本実施形態に係るサーバ16の処理の流れを説明する。   Hereinafter, the processing flow of the server 16 according to the present embodiment will be described with reference to the flowchart shown in FIG.

ステップS10において、サーバ16の制御部30は、車両を含む学習用画像26、学習用画像26に含まれる車両に関する複数の特徴点28の位置を示す情報、及び、各特徴点28が示す車両の箇所を示す情報を含む学習用データを学習器24に入力することを繰り返すことで、学習器24を学習させる。ステップS10が学習ステップに相当する。   In step S10, the control unit 30 of the server 16 includes the learning image 26 including the vehicle, information indicating the positions of the plurality of feature points 28 related to the vehicle included in the learning image 26, and the vehicle indicated by each feature point 28. The learning device 24 is made to learn by repeating inputting learning data including information indicating the location to the learning device 24. Step S10 corresponds to a learning step.

ステップS12において、車両検出部32は、カメラ12が撮影した入力画像40を学習済みの学習器24に入力する。   In step S <b> 12, the vehicle detection unit 32 inputs the input image 40 captured by the camera 12 to the learned learning device 24.

ステップS14において、学習器24は、ステップS12で入力された入力画像40に対して、ヒートマップ50及びベクトルマップ60を出力する。   In step S14, the learning device 24 outputs a heat map 50 and a vector map 60 for the input image 40 input in step S12.

ステップS16において、車両検出部32は、ステップS14で出力されたヒートマップ50に基づいて、入力画像40に車両が含まれるか否かを判定する。具体的には、入力画像40から学習器24が車両に関する特徴点52を検出した場合には、車両検出部32は、入力画像40に車両が含まれると判定する。入力画像40に車両が含まれると判定された場合はステップS18に進み、入力画像40に車両が含まれていないと判定された場合は処理を終了する。ない。ステップS12〜S16が車両検出ステップに相当する。   In step S16, the vehicle detection unit 32 determines whether or not a vehicle is included in the input image 40 based on the heat map 50 output in step S14. Specifically, when the learning device 24 detects a feature point 52 related to a vehicle from the input image 40, the vehicle detection unit 32 determines that the vehicle is included in the input image 40. If it is determined that the input image 40 includes a vehicle, the process proceeds to step S18. If it is determined that the input image 40 does not include a vehicle, the process ends. Absent. Steps S12 to S16 correspond to a vehicle detection step.

ステップS18において、車両検出部32は、車両の箇所が識別された複数の特徴点52の位置関係に基づいて、車両の向き及び種別を検出する。入力画像40に複数の車両が含まれる場合には、車両検出部32は、ステップS14で出力されたベクトルマップを用いて複数の特徴点52を車両毎に区別した上で、複数の車両の向き、種別、あるいは台数を検出する。   In step S <b> 18, the vehicle detection unit 32 detects the direction and type of the vehicle based on the positional relationship between the plurality of feature points 52 where the location of the vehicle is identified. When the input image 40 includes a plurality of vehicles, the vehicle detection unit 32 distinguishes the plurality of feature points 52 for each vehicle using the vector map output in step S14, and then determines the orientations of the plurality of vehicles. , Type or number is detected.

以上、本発明に係る実施形態を説明したが、本発明は上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない限りにおいて種々の変更が可能である。   As mentioned above, although embodiment which concerns on this invention was described, this invention is not limited to the said embodiment, A various change is possible unless it deviates from the meaning of this invention.

例えば、本実施形態では、情報処理装置としてのサーバ16が、学習器24の学習処理と、学習器24を用いた車両検出処理の両方を実行しているが、学習処理と車両検出処理を別の主体(装置)で実行するようにしてもよい。例えば、他の装置において学習された学習済みの学習器24をサーバ16の記憶部22に記憶させて、当該学習器24を用いてサーバ16が車両検出処理を実行するようにしてもよい。   For example, in this embodiment, the server 16 as the information processing apparatus executes both the learning process of the learning device 24 and the vehicle detection process using the learning device 24. However, the learning process and the vehicle detection process are separated. It may be executed by the main body (apparatus). For example, the learned learning device 24 learned in another device may be stored in the storage unit 22 of the server 16, and the server 16 may execute the vehicle detection process using the learning device 24.

また、本発明は車両以外にも、船や飛行機などの乗り物にも適用可能である。   Further, the present invention can be applied to vehicles such as ships and airplanes in addition to vehicles.

10 情報処理システム、12 カメラ、14 ユーザ端末、16 サーバ、18 通信回線、20 通信部、22 記憶部、24 学習器、30 制御部、32 車両検出部、34 人物検出部、36 処理演算部、38 同一性判定部。   DESCRIPTION OF SYMBOLS 10 Information processing system, 12 Cameras, 14 User terminal, 16 Server, 18 Communication line, 20 Communication part, 22 Storage part, 24 Learning device, 30 Control part, 32 Vehicle detection part, 34 Person detection part, 36 Process calculation part, 38 Identity determining unit.

Claims (8)

車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習する学習器と、
学習済みの前記学習器に入力画像を入力して、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出し、さらに、前記入力画像に対する学習済みの前記学習器の出力に基づいて、前記入力画像に含まれる車両の種別がタクシーであることを識別する車両検出部と、
前記入力画像を解析することで、前記入力画像に含まれる人物を検出する人物検出部と、
前記入力画像に含まれるタクシーの台数と人物の数とに基づいて、タクシーの需要を判定するタクシー需要判定部と、
を備えることを特徴とする情報処理装置。
Learning using learning data including a learning image including a vehicle, information indicating positions of a plurality of feature points related to the vehicle included in the learning image, and information indicating a location of the vehicle indicated by each feature point Learner to
An input image is input to the learned learner, a vehicle included in the input image is detected based on a feature point related to the vehicle detected by the learner from the input image, and learning is performed on the input image. a vehicle detection unit for identifying the already on the basis of the output of the learner, the type of vehicle that is included in the input image is a taxi,
Analyzing the input image to detect a person included in the input image;
Based on the number of taxis and the number of persons included in the input image, a taxi demand determination unit that determines the demand for taxis,
An information processing apparatus comprising:
前記車両検出部は、前記学習器が前記入力画像から検出した、対応する車両の箇所が識別された複数の特徴点の位置関係に基づいて、前記入力画像中に含まれる車両の向きを検出する、
ことを特徴とする請求項1に記載の情報処理装置。
The vehicle detection unit detects a direction of a vehicle included in the input image based on a positional relationship of a plurality of feature points, which are detected from the input image by the learning device, and corresponding portions of the vehicle are identified. ,
The information processing apparatus according to claim 1.
前記学習器は、前記学習用画像に含まれる前記車両の前記複数の特徴点間の向きを学習し、
前記車両検出部は、前記学習器が前記入力画像から検出した複数の特徴点間の向きに基づいて、前記入力画像に含まれる複数の車両を区別した上で、複数の車両の向き及び台数の少なくとも一方を検出する、
ことを特徴とする請求項1に記載の情報処理装置。
The learning device learns a direction between the plurality of feature points of the vehicle included in the learning image,
The vehicle detection unit distinguishes the plurality of vehicles included in the input image based on the direction between the plurality of feature points detected by the learning device from the input image, and then determines the direction and number of the plurality of vehicles. Detect at least one,
The information processing apparatus according to claim 1.
前記学習用データは、前記学習用画像が撮影された時の天気を示す情報を含み、
前記学習器は、前記学習用画像が撮影された時の天気を考慮して学習する、
ことを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。
The learning data includes information indicating the weather when the learning image is taken,
The learning device learns in consideration of the weather when the learning image is taken,
The information processing apparatus according to claim 1, wherein the information processing apparatus is an information processing apparatus.
前記学習用データは、前記学習用画像に含まれる車両のライトの点灯有無を示す情報を含み、
前記学習器は、前記学習用画像に含まれる車両のライトの点灯有無を考慮して学習する、
ことを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。
The learning data includes information indicating whether or not a vehicle light included in the learning image is turned on,
The learning device learns in consideration of whether or not a vehicle light included in the learning image is turned on,
The information processing apparatus according to claim 1, wherein the information processing apparatus is an information processing apparatus.
前記車両検出部は、前記学習器が前記入力画像から検出した、対応する車両の箇所が識別された複数の特徴点の位置関係に基づいて、前記入力画像に含まれる車両の種別を検出する、
ことを特徴とする請求項1に記載の情報処理装置。
The vehicle detection unit detects a type of a vehicle included in the input image based on a positional relationship between a plurality of feature points, which are detected from the input image by the learning device, and a corresponding vehicle location is identified.
The information processing apparatus according to claim 1.
コンピュータを、
車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習する学習器と、
学習済みの前記学習器に入力画像を入力して、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出し、さらに、前記入力画像に対する学習済みの前記学習器の出力に基づいて、前記入力画像に含まれる車両の種別がタクシーであることを識別する車両検出部と、
前記入力画像を解析することで、前記入力画像に含まれる人物を検出する人物検出部と、
前記入力画像に含まれるタクシーの台数と人物の数とに基づいて、タクシーの需要を判定するタクシー需要判定部と、
として機能させることを特徴とする情報処理プログラム。
Computer
Learning using learning data including a learning image including a vehicle, information indicating positions of a plurality of feature points related to the vehicle included in the learning image, and information indicating a location of the vehicle indicated by each feature point Learner to
An input image is input to the learned learner, a vehicle included in the input image is detected based on a feature point related to the vehicle detected by the learner from the input image, and learning is performed on the input image. a vehicle detection unit for identifying the already on the basis of the output of the learner, the type of the vehicle included in the input image is a taxi,
Analyzing the input image to detect a person included in the input image;
Based on the number of taxis and the number of persons included in the input image, a taxi demand determination unit that determines the demand for taxis,
An information processing program that functions as a computer program.
車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習器を学習させる学習ステップと、
学習済みの前記学習器に入力画像を入力して、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出し、さらに、前記入力画像に対する学習済みの前記学習器の出力に基づいて、前記入力画像に含まれる車両の種別がタクシーであることを識別する車両検出ステップと、
前記入力画像を解析することで、前記入力画像に含まれる人物を検出する人物検出ステップと、
前記入力画像に含まれるタクシーの台数と人物の数とに基づいて、タクシーの需要を判定するタクシー需要判定ステップと、
を含むことを特徴とする情報処理方法。
Learning using learning data including a learning image including a vehicle, information indicating positions of a plurality of feature points related to the vehicle included in the learning image, and information indicating a location of the vehicle indicated by each feature point Learning step to learn the vessel,
An input image is input to the learned learner, a vehicle included in the input image is detected based on a feature point related to the vehicle detected by the learner from the input image, and learning is performed on the input image. a vehicle detection step of identifying that already on the basis of the output of the learner, the type of the vehicle included in the input image is a taxi,
Analyzing the input image to detect a person included in the input image; and
Taxi demand determination step for determining taxi demand based on the number of taxis and the number of persons included in the input image;
An information processing method comprising:
JP2017239974A 2017-12-14 2017-12-14 Information processing apparatus, information processing program, and information processing method Active JP6472504B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017239974A JP6472504B1 (en) 2017-12-14 2017-12-14 Information processing apparatus, information processing program, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017239974A JP6472504B1 (en) 2017-12-14 2017-12-14 Information processing apparatus, information processing program, and information processing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019008821A Division JP2019106193A (en) 2019-01-22 2019-01-22 Information processing device, information processing program and information processing method

Publications (2)

Publication Number Publication Date
JP6472504B1 true JP6472504B1 (en) 2019-02-20
JP2019106149A JP2019106149A (en) 2019-06-27

Family

ID=65442979

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017239974A Active JP6472504B1 (en) 2017-12-14 2017-12-14 Information processing apparatus, information processing program, and information processing method

Country Status (1)

Country Link
JP (1) JP6472504B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021193352A1 (en) * 2020-03-25 2021-09-30 Necソリューションイノベータ株式会社 Image tracking device, image tracking method, and computer-readable recording medium
JP7472170B2 (en) 2019-04-26 2024-04-22 エヌビディア コーポレーション Intersection Pose Detection in Autonomous Machine Applications

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022059889A (en) * 2020-10-02 2022-04-14 三菱電機株式会社 Data processing system, server device, data processing method, and data processing program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10312463A (en) * 1997-05-12 1998-11-24 Omron Corp Recognizing method for object and its device
JP2002340571A (en) * 2001-05-18 2002-11-27 Hitachi Ltd System and terminal for providing information, on- vehicle terminal, terminal and apparatus for dispatch
JP2012083855A (en) * 2010-10-07 2012-04-26 Toyota Motor Corp Object recognition device and object recognition method
JP2014164601A (en) * 2013-02-26 2014-09-08 Mitsubishi Heavy Ind Ltd Vehicle specification measurement processing apparatus, vehicle specification measurement method, and program
JP2014178862A (en) * 2013-03-14 2014-09-25 Secom Co Ltd Feature point extraction device
JP2015135552A (en) * 2014-01-16 2015-07-27 株式会社デンソー Learning system, on-vehicle device, and server
JP2016038700A (en) * 2014-08-07 2016-03-22 富士重工業株式会社 Vehicle external environment recognition device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10312463A (en) * 1997-05-12 1998-11-24 Omron Corp Recognizing method for object and its device
JP2002340571A (en) * 2001-05-18 2002-11-27 Hitachi Ltd System and terminal for providing information, on- vehicle terminal, terminal and apparatus for dispatch
JP2012083855A (en) * 2010-10-07 2012-04-26 Toyota Motor Corp Object recognition device and object recognition method
JP2014164601A (en) * 2013-02-26 2014-09-08 Mitsubishi Heavy Ind Ltd Vehicle specification measurement processing apparatus, vehicle specification measurement method, and program
JP2014178862A (en) * 2013-03-14 2014-09-25 Secom Co Ltd Feature point extraction device
JP2015135552A (en) * 2014-01-16 2015-07-27 株式会社デンソー Learning system, on-vehicle device, and server
JP2016038700A (en) * 2014-08-07 2016-03-22 富士重工業株式会社 Vehicle external environment recognition device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7472170B2 (en) 2019-04-26 2024-04-22 エヌビディア コーポレーション Intersection Pose Detection in Autonomous Machine Applications
US12013244B2 (en) 2019-04-26 2024-06-18 Nvidia Corporation Intersection pose detection in autonomous machine applications
WO2021193352A1 (en) * 2020-03-25 2021-09-30 Necソリューションイノベータ株式会社 Image tracking device, image tracking method, and computer-readable recording medium
JPWO2021193352A1 (en) * 2020-03-25 2021-09-30
JP7351571B2 (en) 2020-03-25 2023-09-27 Necソリューションイノベータ株式会社 Image tracking device, image tracking method, and program

Also Published As

Publication number Publication date
JP2019106149A (en) 2019-06-27

Similar Documents

Publication Publication Date Title
CN110097109B (en) Road environment obstacle detection system and method based on deep learning
JP2019106193A (en) Information processing device, information processing program and information processing method
US20190180076A1 (en) System and methodologies for occupant monitoring utilizing digital neuromorphic (nm) data and fovea tracking
US8487991B2 (en) Clear path detection using a vanishing point
JP6650657B2 (en) Method and system for tracking moving objects in video using fingerprints
US9842266B2 (en) Method for detecting driver cell phone usage from side-view images
US8452053B2 (en) Pixel-based texture-rich clear path detection
CN111860274B (en) Traffic police command gesture recognition method based on head orientation and upper half skeleton characteristics
Kühnl et al. Monocular road segmentation using slow feature analysis
US20090295917A1 (en) Pixel-based texture-less clear path detection
US9626599B2 (en) Reconfigurable clear path detection system
CN106570439B (en) Vehicle detection method and device
JP2014071902A5 (en)
JP6472504B1 (en) Information processing apparatus, information processing program, and information processing method
CN106407951B (en) A kind of night front vehicles detection method based on monocular vision
JP4674179B2 (en) Shadow recognition method and shadow boundary extraction method
Liu et al. Multi-type road marking recognition using adaboost detection and extreme learning machine classification
CN101383005A (en) Method for separating passenger target image and background by auxiliary regular veins
US10614323B2 (en) Scene analysis method and visual navigation device
JP6947005B2 (en) Attribute recognition device, attribute recognition method, and machine learning device
Hariri et al. Vision based smart in-car camera system for driver yawning detection
Santos et al. Car recognition based on back lights and rear view features
CN116012822B (en) Fatigue driving identification method and device and electronic equipment
JP5407723B2 (en) Recognition device, recognition method, and program
JP6171608B2 (en) Object detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180605

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180605

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180803

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190122

R150 Certificate of patent or registration of utility model

Ref document number: 6472504

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533