JP2019106193A - Information processing device, information processing program and information processing method - Google Patents

Information processing device, information processing program and information processing method Download PDF

Info

Publication number
JP2019106193A
JP2019106193A JP2019008821A JP2019008821A JP2019106193A JP 2019106193 A JP2019106193 A JP 2019106193A JP 2019008821 A JP2019008821 A JP 2019008821A JP 2019008821 A JP2019008821 A JP 2019008821A JP 2019106193 A JP2019106193 A JP 2019106193A
Authority
JP
Japan
Prior art keywords
vehicle
learning
input image
image
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019008821A
Other languages
Japanese (ja)
Inventor
剛平 西野
Kohei Nishino
剛平 西野
天▲埼▼ 李
Tianqi Li
天▲埼▼ 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DeNA Co Ltd
Original Assignee
DeNA Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DeNA Co Ltd filed Critical DeNA Co Ltd
Priority to JP2019008821A priority Critical patent/JP2019106193A/en
Publication of JP2019106193A publication Critical patent/JP2019106193A/en
Pending legal-status Critical Current

Links

Images

Abstract

To detect a vehicle from an image with improved accuracy.SOLUTION: A learning device 24 leans using learning data comprising: a learning image 26 including a vehicle; information showing positions of a plurality of characteristic points 28 with respect to the vehicle included in the learning image 26; and information showing portions of the vehicle expressed by respective characteristic points 28. After learning, the leaning device 24 outputs a heat map 50 showing the positions of the plurality of characteristic points 52 with respect to the vehicle included in an input image 40 and a vector map 60 showing directions of respective characteristic points of each vehicle. A vehicle detection section 32 detects: the vehicle from the input image 40 when the characteristic points 52 are detected in the input image 40; and a direction and a type of the vehicle on the basis of a positional relationship of the plurality of characteristic points 52 which identify the portions of the vehicle. When a plurality of vehicles are shown in the input image 40, the vehicle detection section 32 classifies the plurality of characteristic points 52 into respective vehicles on the basis of the vector map 60 and detects the directions, the types and the number of vehicles.SELECTED DRAWING: Figure 2

Description

本発明は、情報処理装置、情報処理プログラム、及び、情報処理方法に関する。   The present invention relates to an information processing apparatus, an information processing program, and an information processing method.

従来、画像の中から車両を自動検出する技術が提案されている。特に、昨今、例えば畳み込みニューラルネットワークなどの機械学習手法の研究が盛んであり、機械学習を用いて画像の中から車両を自動検出する技術が提案されている。   Conventionally, techniques for automatically detecting a vehicle from images have been proposed. In particular, research on machine learning methods such as convolutional neural networks, for example, has been promoted recently, and techniques for automatically detecting a vehicle from an image using machine learning have been proposed.

例えば、特許文献1には、車両の正面画像を用いて学習された、車両の正面を検出するための識別器に、自車両の後方カメラで撮影された画像を入力することで、当該画像から他車両を検出する技術が開示されている。   For example, in Patent Document 1, an image captured by the rear camera of the vehicle is input to a classifier for detecting the front of the vehicle, which is learned using the front image of the vehicle, from the image Techniques for detecting other vehicles are disclosed.

特開2017−41132号公報JP, 2017-41132, A

従来の画像から車両を自動検出する技術においては、検出精度の観点から改善の余地があった。例えば、特許文献1の技術では、正面を向いた車両が画像に含まれている場合にしか車両を検出することができず、その他のアングルから車両を撮影した画像からは好適に車両を検出することができなかった。また、他の物体に隠れる、あるいは見切れてしまっていることなどによって、車両の一部が画像に含まれていない場合、画像から車両を検出することが困難となっていた。すなわち、限られた場面でしか画像中に存在する車両を検出することができなかった。   The conventional technology for automatically detecting a vehicle from an image has room for improvement from the viewpoint of detection accuracy. For example, in the technique of Patent Document 1, a vehicle can be detected only when a vehicle facing the front is included in the image, and the vehicle is suitably detected from an image obtained by photographing the vehicle from other angles. I could not. In addition, when a part of the vehicle is not included in the image, it is difficult to detect the vehicle from the image because the vehicle is hidden or missed. That is, vehicles present in the image could be detected only in limited situations.

本発明の目的は、より高精度に画像から車両を検出することにある。   An object of the present invention is to detect a vehicle from an image with higher accuracy.

本発明は、車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習する学習器と、学習済みの前記学習器に入力画像を入力して、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出する車両検出部と、を備えることを特徴とする情報処理装置である。   The present invention is a learning data including a learning image including a vehicle, information indicating the positions of a plurality of feature points related to the vehicle included in the learning image, and information indicating the location of the vehicle indicated by each feature point And an input image is input to the learning device which has already been learned, and the vehicle detects the vehicle included in the input image based on the feature points related to the vehicle detected from the input image by the learning device And a vehicle detection unit.

望ましくは、前記車両検出部は、前記学習器が前記入力画像から検出した、対応する車両の箇所が識別された複数の特徴点の位置関係に基づいて、前記入力画像中に含まれる車両の向きを検出する、ことを特徴とする。   Preferably, the vehicle detection unit detects the orientation of the vehicle included in the input image based on the positional relationship of the plurality of feature points detected by the learning device from the input image and in which the location of the corresponding vehicle is identified. To detect.

望ましくは、前記学習器は、前記学習用画像に含まれる前記車両の前記複数の特徴点間の向きを学習し、前記車両検出部は、前記学習器が前記入力画像から検出した複数の特徴点間の向きに基づいて、前記入力画像に含まれる複数の車両を区別した上で、複数の車両の向き及び台数の少なくとも一方を検出する、ことを特徴とする。   Preferably, the learning device learns the direction between the plurality of feature points of the vehicle included in the learning image, and the vehicle detection unit detects a plurality of feature points detected from the input image by the learning device. After distinguishing the plurality of vehicles included in the input image based on the direction between the two, at least one of the direction and the number of the plurality of vehicles is detected.

望ましくは、前記学習用データは、前記学習用画像が撮影された時の天気を示す情報を含み、前記学習器は、前記学習用画像が撮影された時の天気を考慮して学習する、ことを特徴とする。   Preferably, the learning data includes information indicating a weather when the learning image is captured, and the learning device performs learning in consideration of the weather when the learning image is captured. It is characterized by

望ましくは、前記学習用データは、前記学習用画像に含まれる車両のライトの点灯有無を示す情報を含み、前記学習器は、前記学習用画像に含まれる車両のライトの点灯有無を考慮して学習する、ことを特徴とする。   Preferably, the learning data includes information indicating whether the light of the vehicle included in the image for learning is lit, and the learning device takes into consideration whether the light of the vehicle included in the image for learning is lit It is characterized by learning.

望ましくは、前記車両検出部は、前記学習器が前記入力画像から検出した、対応する車両の箇所が識別された複数の特徴点の位置関係に基づいて、前記入力画像に含まれる車両の種別を検出する、ことを特徴とする。   Preferably, the vehicle detection unit determines the type of the vehicle included in the input image based on the positional relationship of the plurality of feature points detected by the learning device from the input image and in which the location of the corresponding vehicle is identified. It is characterized by detecting.

望ましくは、前記車両検出部は、前記入力画像に対する前記学習器の出力に基づいて、前記入力画像に含まれる車両の種別がタクシーであることを識別し、前記情報処理装置は、さらに、前記入力画像を解析することで、前記入力画像に含まれる人物を検出する人物検出部と、前記入力画像に含まれるタクシーの台数と人物の数とに基づいて、タクシーの需要を判定するタクシー需要判定部と、を備えることを特徴とする。   Preferably, the vehicle detection unit identifies that the type of the vehicle included in the input image is a taxi based on the output of the learning device with respect to the input image, and the information processing apparatus further performs the input A taxi demand determination unit that determines a taxi demand based on the number of taxis and the number of persons included in the input image by analyzing an image to detect a person included in the input image And.

また、本発明は、コンピュータを、車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習する学習器と、学習済みの前記学習器に入力画像を入力して、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出する車両検出部と、として機能させることを特徴とする情報処理プログラムである。   Furthermore, the present invention provides a computer with a learning image including a vehicle, information indicating the positions of a plurality of feature points related to the vehicle included in the learning image, and information indicating the location of the vehicle indicated by each feature point The input image is input to the learning device for learning using the learning data including the above, and the learning device which has been learned, and the learning device performs the input image based on the feature points regarding the vehicle detected from the input image. It is an information processing program characterized by making it function as a vehicles detection part which detects vehicles included.

また、本発明は、車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習器を学習させる学習ステップと、学習済みの前記学習器に入力画像を入力して、コンピュータが、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出する車両検出ステップと、を含むことを特徴とする情報処理方法である。   Further, according to the present invention, a learning image including a learning image including a vehicle, information indicating positions of a plurality of feature points related to the vehicle included in the learning image, and information indicating a location of the vehicle indicated by each feature point Step of learning a learning device using data for learning, and inputting an input image to the learning device which has already been learned, and the computer inputs the image based on the feature points of the vehicle detected from the input image by the learning device. And a vehicle detection step of detecting a vehicle included in the input image.

本発明によれば、より高精度に画像から車両を検出することができる。   According to the present invention, a vehicle can be detected from an image with higher accuracy.

本実施形態に係る情報処理システムの構成概略図である。FIG. 1 is a schematic view of an information processing system according to an embodiment of the present invention. 本実施形態に係るサーバの構成概略図である。It is a structure schematic of a server concerning this embodiment. 学習用画像の例を示す図である。It is a figure which shows the example of the image for learning. 入力画像の例を示す図である。It is a figure which shows the example of an input image. 学習器が出力するヒートマップの例を示す図である。It is a figure which shows the example of the heat map which a learning device outputs. 学習器が出力するベクトルマップの例を示す図である。It is a figure which shows the example of the vector map which a learning device outputs. 入力画像の他の例を示す図である。It is a figure which shows the other example of an input image. 第1入力画像と第2入力画像における各特徴点同士の色差及び類似度の例を示す図である。It is a figure which shows the example of the color difference and similarity of each feature point in a 1st input image and a 2nd input image. 本実施形態に係るサーバの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the server which concerns on this embodiment.

以下、本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described.

図1には、本実施形態に係る情報処理システム10の構成概略図が示されている。情報処理システム10は、カメラ12と、ユーザ端末14と、情報処理装置としてのサーバ16とを含んで構成される。カメラ12とサーバ16との間、及び、ユーザ端末14とサー
バ16との間は、LANあるいはインターネットなどの通信回線18を介して通信可能に接続されている。
FIG. 1 shows a schematic configuration of an information processing system 10 according to the present embodiment. The information processing system 10 includes a camera 12, a user terminal 14, and a server 16 as an information processing apparatus. The camera 12 and the server 16 and the user terminal 14 and the server 16 are communicably connected via a communication line 18 such as a LAN or the Internet.

カメラ12は、自動車などの車両を撮影するためのカメラである。カメラ12は、例えば、駐車場や高速道路などに設置される監視カメラである。あるいは、カメラ12は車載カメラであってもよい。また、カメラ12としては、静止画を撮影するカメラであってもよく、動画像を撮影するビデオカメラであってもよい。カメラ12によって撮影された画像は、通信回線18を介してサーバ16に送られる。   The camera 12 is a camera for photographing a vehicle such as a car. The camera 12 is, for example, a surveillance camera installed in a parking lot or an expressway. Alternatively, the camera 12 may be an on-vehicle camera. The camera 12 may be a camera that captures a still image, or may be a video camera that captures a moving image. The image taken by the camera 12 is sent to the server 16 via the communication line 18.

ユーザ端末14は、ユーザ(サーバ16で実行される画像からの車両検出処理の結果を確認する者)が利用する端末である。ユーザ端末14は、例えばパーソナルコンピュータやタブレット端末などであってよい。ユーザ端末14は、CPU(Central Processing Unit)などの処理部、ハードディスク、ROM(Read Only Memory)あるいはRAM(Random Access Memory)などの記憶部、液晶パネルなどの表示部、マウス、キーボード、タ
ッチパネルなどの入力部、ネットワークアダプタなどの通信部などを含んで構成される。ユーザ端末14は、サーバ16にアクセスすることによって、サーバ16における車両検出処理の結果を受信することができる。
The user terminal 14 is a terminal used by a user (a person who confirms the result of the vehicle detection process from the image executed by the server 16). The user terminal 14 may be, for example, a personal computer or a tablet terminal. The user terminal 14 includes a processing unit such as a central processing unit (CPU), a hard disk, a storage unit such as a read only memory (ROM) or a random access memory (RAM), a display unit such as a liquid crystal panel, a mouse, a keyboard, and a touch panel. It is configured to include an input unit, a communication unit such as a network adapter, and the like. The user terminal 14 can receive the result of the vehicle detection process in the server 16 by accessing the server 16.

図2に、サーバ16の構成概略図が示されている。本実施形態においては、サーバ16はコンピュータによって構成されるが、情報処理装置としては、以下に示す機能を有する限りにおいて、どのような装置であってもよい。   A schematic diagram of the server 16 is shown in FIG. In the present embodiment, the server 16 is configured by a computer, but any device may be used as the information processing device as long as it has the following functions.

通信部20は、例えばネットワークアダプタなどから構成される。通信部20は、通信回線18を介して、カメラ12及びユーザ端末14と通信する機能を発揮する。具体的には、通信部20は、カメラ12から画像を受信する。また、通信部20は、ユーザ端末14からの要求に応じて、後述の制御部30による車両検出処理の結果をユーザ端末14に送信する。   The communication unit 20 includes, for example, a network adapter. The communication unit 20 performs a function of communicating with the camera 12 and the user terminal 14 via the communication line 18. Specifically, the communication unit 20 receives an image from the camera 12. Further, the communication unit 20 transmits the result of the vehicle detection process by the control unit 30 described later to the user terminal 14 in response to the request from the user terminal 14.

記憶部22は、例えばROM、RAMあるいはハードディスクなどから構成される。記憶部22には、サーバ16の各部を動作させるための情報処理プログラムが記憶される。また、記憶部22には、学習器24が記憶される。   The storage unit 22 includes, for example, a ROM, a RAM, a hard disk, and the like. The storage unit 22 stores an information processing program for operating each unit of the server 16. Further, a learning unit 24 is stored in the storage unit 22.

学習器24は、詳しくは後述するように、カメラ12が撮影した画像を入力画像とし、当該入力画像に含まれる車両に関する複数の特徴点を検出するものである。本実施形態における学習器24は、例えば畳み込みニューラルネットワークを含んで構成される。   The learning device 24 uses an image captured by the camera 12 as an input image and detects a plurality of feature points related to a vehicle included in the input image, as described in detail later. The learning device 24 in the present embodiment is configured to include, for example, a convolutional neural network.

なお、畳み込みニューラルネットワークは、一般的に、複数の層を含んで構成される。畳み込みニューラルネットワークの各層は、配列(例えば2次元配列)されたニューロン群から構成される。また、畳み込みニューラルネットワークにおいては、ニューロン群と同様に2次元配列された複数の要素を含むフィルタが用いられる。フィルタは各層に応じて設けられ、通常、フィルタのサイズ(配列された要素の数)は、それが適用されるニューロン群のサイズ(配列されたニューロンの数)よりも小さくなっている。フィルタの各要素には、重みが設定されている。   Generally, a convolutional neural network is configured to include a plurality of layers. Each layer of the convolutional neural network is composed of an array of neurons (for example, a two-dimensional array). In addition, in the convolutional neural network, a filter including a plurality of elements arranged two-dimensionally as in the neuron group is used. A filter is provided for each layer, and the size of the filter (the number of arranged elements) is usually smaller than the size of the neuron group to which it is applied (the number of arranged neurons). Each element of the filter is assigned a weight.

各層のニューロン群に対してフィルタが適用される。概念的には、ニューロン群の一部に対してフィルタが重ね合わされる。フィルタの各要素に設定された各重みと、フィルタが重なる複数のニューロン(ニューロン群の一部)の活性との積和が計算される。すなわち、フィルタの各要素に設定された重みをベクトルの要素として持つ重みベクトルと、複数のニューロンの活性をベクトルの要素として持つ活性ベクトルとの内積が計算される。当該内積が当該層の出力の1つの活性となる。   A filter is applied to each group of neurons. Conceptually, filters are superimposed on some of the neurons. A product sum of each weight set to each element of the filter and the activity of a plurality of neurons (parts of neuron groups) overlapping the filter is calculated. That is, an inner product of a weight vector having the weight set to each element of the filter as an element of the vector and an activity vector having activities of a plurality of neurons as an element of the vector is calculated. The inner product is one activity of the output of the layer.

フィルタは、ニューロン群上を縦横方向に1つ(1ニューロン)ずつ、あるいは、数ニューロンずつずらしながら適用されていく。これにより、当該層の出力として、配列された活性群が出力される。当該活性群が次層のニューロン群の活性となる。複数の層のニューロン群に対してフィルタを適用していくことで、入力画像から最終的に車両に関する複数の特徴点が検出される。   The filters are applied while being shifted one by one (one neuron) or several neurons at a time in the vertical and horizontal directions on the neuron group. Thus, the arranged active groups are output as the output of the layer. The said active group becomes an activity of the neuron group of the following layer. By applying a filter to a plurality of layer neuron groups, a plurality of feature points of the vehicle are finally detected from the input image.

以上のように、本実施形態においては、学習器24の実態は、畳み込みニューラルネットワークに関する各種パラメータ(層構造、各層のニューロン構造、各層におけるフィルタ数、フィルタサイズ、及び各フィルタの各要素の重みなど)、並びに、入力画像に対して処理を行うための処理実行プログラムである。したがって、記憶部22に学習器24が記憶されるとは、上記各種パラメータ及び処理実行プログラムが記憶部22に記憶されることを意味する。なお、学習器24としては、複数のニューラルネットワークを含むものであってもよい。   As described above, in the present embodiment, the actual state of the learning device 24 includes various parameters related to the convolutional neural network (layer structure, neuron structure of each layer, number of filters in each layer, filter size, weight of each element of each filter, etc. And an execution program for processing an input image. Therefore, that the learning device 24 is stored in the storage unit 22 means that the various parameters and the process execution program are stored in the storage unit 22. The learning unit 24 may include a plurality of neural networks.

学習器24の学習方法について説明する。学習器24は、車両を含む学習用画像と、それに関連する情報を含む学習用データを用いて学習を行う。ちなみに、学習器24の学習とは、学習器24が畳み込みニューラルネットワークであれば、フィルタの各要素の重みを調整することを意味する。   The learning method of the learning device 24 will be described. The learning device 24 performs learning using a learning image including a vehicle and learning data including information related thereto. Incidentally, the learning of the learning device 24 means adjusting the weight of each element of the filter if the learning device 24 is a convolutional neural network.

図3には、学習用画像26の例が示されている。学習用画像26は、車両を含む限りにおいてどのような画像であってもよく、その取得方法もどのような方法であってもよい。また、図3の例では、学習用画像26は1つの車両を含むものであるが、学習用画像26に複数の車両が含まれていてもよい。   An example of the learning image 26 is shown in FIG. The learning image 26 may be any image as long as it includes a vehicle, and the acquisition method may be any method. Further, in the example of FIG. 3, the learning image 26 includes one vehicle, but the learning image 26 may include a plurality of vehicles.

学習用データには、学習用画像26に含まれる車両に関する複数の特徴点(28a〜28k、以後、学習用画像26に含まれる車両に関する複数の特徴点を総称して特徴点28と記載する)の位置を示す情報が含まれる。本実施形態では、車両に関する特徴点28として、車両のルーフの4隅(特徴点28a〜28d)、特徴点28aと28dを結ぶ線分と、特徴点28bと28cを結ぶ線分との交点である特徴点28e、2つのヘッドライト(特徴点28f及び28g)、2つテールライト(特徴点28h及び28i)、及び、4つのタイヤ(特徴点28j及び28k)の13個の特徴点28の位置が既知となっている。なお、図3に示す画像のように、13個の特徴点全てが画像に含まれない場合もある。また、車両に関する特徴点28としては、上述の位置に限られず、その他の位置(例えば前後のナンバープレートの位置など)が含まれていてもよい。複数の特徴点は、画像中において車両がどのような向きであっても、できるだけ多くの特徴点が画像に現れるように、その位置が設定される。   In the learning data, a plurality of feature points regarding the vehicle included in the learning image 26 (28a to 28k, hereinafter, a plurality of feature points regarding the vehicle included in the learning image 26 will be collectively referred to as feature points 28) It contains information indicating the position of In this embodiment, four feature points 28 related to the vehicle are intersection points of four corners (feature points 28a to 28d) of the roof of the vehicle, a line connecting feature points 28a and 28d, and a line connecting feature points 28b and 28c. The position of 13 feature points 28 of a certain feature point 28e, two headlights (feature points 28f and 28g), two tail lights (feature points 28h and 28i), and four tires (feature points 28j and 28k) Is known. As in the image shown in FIG. 3, there may be a case where all 13 feature points are not included in the image. In addition, the feature points 28 regarding the vehicle are not limited to the above-described positions, and may include other positions (for example, the positions of the front and rear license plates). The positions of the plurality of feature points are set so that as many feature points as possible appear in the image regardless of the orientation of the vehicle in the image.

これら特徴点28の位置を示す情報としては、例えば、学習用画像26における座標である。   The information indicating the position of the feature point 28 is, for example, coordinates in the learning image 26.

また、学習用データには、各特徴点28が示す車両の箇所を示す情報が含まれる。車両の箇所とは、車両の特定の部位であり、例えば、ルーフ中央、あるいは右前輪などである。図3の例では、特徴点28aがルーフ右前隅、特徴点28bがルーフ左前隅、特徴点28cがルーフ右後隅、特徴点28dがルーフ左後隅、特徴点28eがルーフ中央、特徴点28fが右ヘッドライト、特徴点28gが左ヘッドライト、特徴点28hが右テールライト、特徴点28iが左テールライト、特徴点28jが左前輪、特徴点28kが左後輪であることを示す情報が学習用データに含まれる。なお、学習用画像26に複数の車両が含まれる場合は、学習用データには、車両毎に区別された、各特徴点28の箇所を示す情報が含まれる(例えば、特徴点28aは、「車両Aの」ルーフ右前隅である、など)。   The learning data also includes information indicating the location of the vehicle indicated by each feature point 28. The location of the vehicle is a specific location of the vehicle, such as the center of the roof or the front right wheel. In the example of FIG. 3, the feature point 28a is the roof front right corner, the feature point 28b is the roof front left corner, the feature point 28c is the roof right rear corner, the feature point 28d is the roof left rear corner, the feature point 28e is the roof center, the feature point 28f Is a right headlight, feature point 28g is a left headlight, feature point 28h is a right taillight, feature point 28i is a left taillight, feature point 28j is a front left wheel, and feature point 28k is a rear left wheel Included in training data. When the learning image 26 includes a plurality of vehicles, the learning data includes information indicating the location of each feature point 28 distinguished for each vehicle (for example, the feature points 28 a The vehicle's 'roof right front corner', etc.).

また、学習用データには、各特徴点28から他の特徴点へ向かう向き(本実施形態ではベクトル)を示す情報が含まれる。なお、特徴点同士を結ぶベクトルは、各特徴点28の位置を示す情報に基づいて所定のプログラムにより自動的に生成されたものを用いることができる。   The learning data also includes information indicating the direction (vector in the present embodiment) from each feature point 28 to another feature point. In addition, as a vector connecting feature points, a vector automatically generated by a predetermined program based on information indicating the position of each feature point 28 can be used.

好適には、学習用データには、学習用画像26が撮影された時の天気を示す情報を含んでいてもよい。天気としては、例えば、晴れ、曇り、雨、あるいは雪などである。また、好適には、学習用データには、学習用画像26に含まれる車両の各ライト(ヘッドライト及びテールライトなど含む)の点灯有無を示す情報を含んでいてもよい。   Preferably, the learning data may include information indicating the weather when the learning image 26 is captured. The weather is, for example, sunny, cloudy, rain or snow. Preferably, the learning data may include information indicating whether or not each light (including headlights and tail lights) of the vehicle included in the learning image 26 is lit.

なお、上述した、車両の複数の特徴点28の位置、各特徴点28が示す車両の箇所、学習用画像26が撮影された時の天気、及び、学習用画像26に含まれる車両の各ライトの点灯有無をそれぞれ示す各情報は、例えば学習用画像26のメタデータとして付加されていてもよい。   The positions of the plurality of feature points 28 of the vehicle, the location of the vehicle indicated by each feature point 28, the weather when the learning image 26 is captured, and the lights of the vehicle included in the learning image 26 Each information which shows the lighting existence of each may be added as metadata of picture 26 for study, for example.

学習器24は、多数の学習用データを用いて学習することで、入力画像から車両に関する複数の特徴点を検出することが可能となる。特に、学習器24は、車両に関する複数の特徴点28の位置と、各特徴点28が示す車両の箇所が既知である学習用データを用いて学習する。これにより、学習器24は、検出した特徴点が車両のどの箇所に対応するものであるかを識別して検出可能となる。   The learning device 24 can detect a plurality of feature points related to the vehicle from the input image by learning using a large number of learning data. In particular, the learning device 24 performs learning using learning data in which the positions of the plurality of feature points 28 related to the vehicle and the location of the vehicle indicated by each feature point 28 are known. Thereby, the learning device 24 can identify and detect which part of the vehicle the detected feature point corresponds to.

対応する車両の箇所を識別した上で複数の特徴点を検出可能であることは、入力画像に含まれる車両の各箇所間の位置関係を検出可能であることを意味する。換言すれば、学習器24は、学習用データから、車両のある箇所(特徴点)から他の箇所(特徴点)へ向かう向き(本実施形態ではベクトル)を学習し、学習済みの学習器24は、入力画像から検出した各特徴点間の向き(ベクトル)を検出可能になると言える。また、学習器24は、学習用画像26に複数の車両が含まれている場合であっても、学習用データにおいては、車両毎に区別された上で、各特徴点28が示す車両の箇所が既知であるから、車両毎に区別して、各特徴点間の向きを学習することができる。   Being able to detect a plurality of feature points after identifying the corresponding vehicle location means that it is possible to detect the positional relationship between vehicle locations included in the input image. In other words, the learning device 24 learns from the data for learning the direction (vector in this embodiment) from the location (feature point) of the vehicle to another location (feature point), It can be said that the direction (vector) between each feature point detected from the input image can be detected. In addition, even when the learning image 26 includes a plurality of vehicles, the learning device 24 distinguishes for each vehicle in the data for learning, and then the location of the vehicle indicated by each feature point 28. Because it is known, it is possible to learn the orientation between each feature point, separately for each vehicle.

好適には、学習器24は、特徴点及び各特徴点間の向きに加え、学習用画像26が撮影された時の天気を出力するように学習する。例えば、天気が雪である場合、積雪によって車両のルーフの4隅及びルーフ中央が隠れてしまう場合がある。このような場合でも、天気を示す情報を含む学習用画像26を用いて入力画像の天気を出力するように学習することで、学習器24は、学習用画像26が撮影された時の天気が雪であることを考慮した上で特徴点を検出するようになると考えられる。これにより、学習器24が、入力画像から車両に関する複数の特徴点を検出する際の検出精度を向上させることができる。   Preferably, the learning device 24 performs learning so as to output the weather when the learning image 26 is captured, in addition to the feature points and the directions between the feature points. For example, when the weather is snow, snow may hide four corners and the center of the roof of the vehicle. Even in such a case, by learning so as to output the weather of the input image using the learning image 26 including the information indicating the weather, the learning device 24 detects the weather when the learning image 26 is taken. It is considered that feature points will be detected in consideration of being snow. As a result, it is possible to improve the detection accuracy when the learning device 24 detects a plurality of feature points related to the vehicle from the input image.

同様に、好適には、学習器24は、特徴点及び各特徴点間の向きに加え、学習用画像26に含まれる車両の各ライトの点灯有無を出力するように学習する。昼間に撮影された画像と夜間に撮影された画像とを比較したときに、ライトの点灯有無に応じて入力画像のライトの位置付近の輝度値が変化するなど画像の見た目が大きく異なる。このような場合でも、車両の各ライトの点灯有無を示す情報を含む学習用画像26を用いて入力画像に含まれる車両の各ライトの点灯有無を出力するように学習することで、学習器24は、学習用画像26が撮影された時の車両の各ライトの点灯有無を考慮した上で特徴点を検出するようになると考えられる。これにより、学習器24が、入力画像から車両に関する複数の特徴点を検出する際の検出精度を向上させることができる。   Similarly, preferably, the learning device 24 performs learning so as to output lighting / non-lighting of each light of the vehicle included in the learning image 26 in addition to the feature points and the direction between the feature points. When the image photographed in the daytime and the image photographed in the nighttime are compared, the appearance of the image is largely different, for example, the luminance value near the position of the light of the input image changes according to the lighting status of the light. Even in such a case, the learning device 24 learns by using the learning image 26 including the information indicating the lighting presence / absence of each light of the vehicle to output the lighting presence / absence of each light of the vehicle included in the input image. It is considered that the feature point is to be detected in consideration of the lighting status of each light of the vehicle when the learning image 26 is photographed. As a result, it is possible to improve the detection accuracy when the learning device 24 detects a plurality of feature points related to the vehicle from the input image.

図2に戻り、制御部30は、例えばCPUあるいはマイクロコントローラなどを含んで
構成される。制御部30は、記憶部22に記憶された情報処理プログラムに従ってサーバ16の各部を制御する。また、図2に示される通り、制御部30は、車両検出部32、人物検出部34、処理演算部36、及び、同一性判定部38としても機能する。
Returning to FIG. 2, the control unit 30 includes, for example, a CPU or a microcontroller. The control unit 30 controls each unit of the server 16 according to an information processing program stored in the storage unit 22. Further, as illustrated in FIG. 2, the control unit 30 also functions as a vehicle detection unit 32, a person detection unit 34, a processing calculation unit 36, and an identity determination unit 38.

車両検出部32は、カメラ12が撮影した画像である入力画像から車両を検出する処理を実行する。具体的には、車両検出部32は、入力画像を学習済みの学習器24に入力し、入力画像に対する学習器24による複数の特徴点の検出結果に基づいて、当該入力画像から車両を検出する。   The vehicle detection unit 32 executes a process of detecting a vehicle from an input image which is an image captured by the camera 12. Specifically, the vehicle detection unit 32 inputs the input image to the learned learning device 24 and detects the vehicle from the input image based on the detection results of the plurality of feature points by the learning device 24 with respect to the input image .

図4には、入力画像の例が示されている。以下、図4に示す入力画像40に対する、学習器24の出力及び車両検出部32による車両検出処理の詳細を説明する。図4に示す通り、本実施形態においては、入力画像40には複数の車両42が含まれている。なお、車両検出部32の処理対象となる入力画像としては、1つの車両42のみを含むものであってもよく、車両42が含まれない画像でもよい。   An example of the input image is shown in FIG. Hereinafter, the output of the learning device 24 and the vehicle detection processing by the vehicle detection unit 32 for the input image 40 illustrated in FIG. 4 will be described in detail. As shown in FIG. 4, in the present embodiment, the input image 40 includes a plurality of vehicles 42. The input image to be processed by the vehicle detection unit 32 may include only one vehicle 42 or may be an image not including the vehicle 42.

車両検出部32が、十分に学習された学習器24に入力画像40を入力すると、学習器24は、ヒートマップ及びベクトルマップを出力する。   When the vehicle detection unit 32 inputs the input image 40 to the sufficiently learned learning device 24, the learning device 24 outputs a heat map and a vector map.

図5には、入力画像40に対するヒートマップ50が示されている。上述のように、学習器24は、入力画像40から各車両に関する複数の特徴点を検出する。ヒートマップ50は、検出された複数の特徴点52の位置を示すマップである。なお、検出された複数の特徴点52の位置は、入力画像40における座標で表される。   A heat map 50 for the input image 40 is shown in FIG. As described above, the learning device 24 detects a plurality of feature points on each vehicle from the input image 40. The heat map 50 is a map that indicates the positions of a plurality of detected feature points 52. The positions of the plurality of detected feature points 52 are represented by coordinates in the input image 40.

図6には、入力画像40に対するベクトルマップ60が示されている。上述の通り、学習器24は、入力画像から検出した各特徴点52間の向きを検出する。特に、学習器24は、入力画像に複数の車両が含まれている場合には、車両毎に区別して、各特徴点52間の向きを検出する。ベクトルマップ60は、車両毎の各特徴点52間の向きを示すベクトル62の位置及び向きを示すマップである。なお、図6に示すベクトルマップ60には特徴点52が示されているが、ベクトルマップ60は特徴点52を含んでいなくてもよい。   A vector map 60 for the input image 40 is shown in FIG. As described above, the learning device 24 detects the orientation between the feature points 52 detected from the input image. In particular, when a plurality of vehicles are included in the input image, the learning device 24 distinguishes each vehicle and detects the direction between the feature points 52. The vector map 60 is a map that indicates the position and orientation of a vector 62 that indicates the orientation between feature points 52 for each vehicle. Although the feature points 52 are shown in the vector map 60 shown in FIG. 6, the vector map 60 may not include the feature points 52.

各ベクトル62は、一の特徴点52と他の特徴点52との間に示されるものであるが、その向き(一の特徴点52から他の特徴点52へ向かう向きなのか、他の特徴点52から一の特徴点52へ向かう向きなのか)は、予め定義されておいてよい。例えば、本実施形態においては、各ベクトル62は、原則的に、前から後ろ(例えばルーフ右前隅からルーフ右後隅へ向かう方向)、右から左(例えばルーフ右前隅からルーフ左前隅へ向かう方向)の向きとなっている。   Each vector 62 is shown between one feature point 52 and the other feature point 52, but its orientation (the direction from one feature point 52 to the other feature point 52, another feature) The direction from point 52 to one feature point 52) may be predefined. For example, in the present embodiment, each vector 62 is, in principle, front to back (for example, a direction from the roof right front corner to the roof right rear corner), right to left (for example, a direction from the roof right front corner to the roof left front corner) It is the direction of).

ベクトルマップ60においては、隣接する(近傍にある)特徴点52間のみのベクトル62が示されるようにしてもよいが、ある特徴点52から、当該特徴点52と同一車両に対応する他の全ての特徴点52との間にベクトル62が示されるようにしてもよい。図6に示すベクトルマップ60においては、一部のベクトル62のみが示されている。   In the vector map 60, a vector 62 may be shown only between adjacent (nearly) feature points 52. However, from one feature point 52 to all other items corresponding to the same vehicle as the feature point 52. The vector 62 may be shown between the feature point 52 of the image. In the vector map 60 shown in FIG. 6, only a part of the vectors 62 is shown.

車両検出部32は、ヒートマップ50において検出された特徴点52とベクトルマップ60に基づいて、入力画像40から車両を検出する。具体的な検出処理の内容を以下に説明する。   The vehicle detection unit 32 detects a vehicle from the input image 40 based on the feature points 52 detected in the heat map 50 and the vector map 60. Specific contents of the detection process will be described below.

車両検出部32は、ヒートマップ50に対してフィルタリング処理を施し、ヒートマップ50に含まれる特徴点群から確率が所定値以上である特徴点を有効な複数の特徴点として抽出する。次に、抽出された有効な複数の特徴点の間の全ての組合せについて、特徴点と特徴点を結ぶ線分上でベクトルマップ60の積分を行う。そして、ベクトルの積分値の
平均が所定値以上の2つの特徴点の組を正解の組合せとして特定する。このようにして、有効な複数の特徴点を複数のグループにグルーピングしていく。そうすると、例えば、特徴点を3つ有するグループA、特徴点を5つ有するグループB、特徴点を6つ有するグループC、あるいは他の特徴点と組み合わされなかった単独の特徴点などといったように分類される。そして、所定数以上の特徴点を含むグループを、車両を表すグループとして特定する。すなわち、車両として検出する。
The vehicle detection unit 32 performs a filtering process on the heat map 50, and extracts feature points having a probability equal to or more than a predetermined value from the group of feature points included in the heat map 50 as a plurality of effective feature points. Next, integration of the vector map 60 is performed on the feature points and the line segments connecting the feature points for all combinations between the extracted effective feature points. Then, a set of two feature points whose average of integrated values of vectors is equal to or more than a predetermined value is specified as a combination of correct answers. In this manner, effective feature points are grouped into a plurality of groups. Then, classification is performed, for example, group A having three feature points, group B having five feature points, group C having six feature points, or a single feature point not combined with other feature points. Be done. Then, a group including a predetermined number or more of feature points is specified as a group representing a vehicle. That is, it detects as a vehicle.

このように、本実施形態によれば、入力画像40から検出された特徴点52に基づいて車両を検出するから、入力画像40において、車両の一部が隠れたり、見切れていたり、あるいは車両のアングルに関わらず、入力画像40から車両を検出することができる。一方、ヒートマップ50において特徴点52が検出されなかった場合には、車両検出部32は、入力画像40に車両は含まれていない、と判定することができる。   As described above, according to the present embodiment, since the vehicle is detected based on the feature points 52 detected from the input image 40, a part of the vehicle is hidden or missed in the input image 40, or Vehicles can be detected from the input image 40 regardless of the angle. On the other hand, when the feature point 52 is not detected in the heat map 50, the vehicle detection unit 32 can determine that the input image 40 does not include a vehicle.

また、上述の通り、学習器24は、対応する車両の箇所が識別された複数の特徴点52を検出可能である。例えば、学習器24は、特徴点52aがルーフ右前隅、特徴点52bがルーフ左前隅、特徴点52cがルーフ右後隅、特徴点52dがルーフ左後隅、特徴点52eがルーフ中央、特徴点52fが右ヘッドライト、特徴点52gが左ヘッドライト、特徴点52hが右前輪、特徴点52iが右後輪であることを識別した上で、各特徴点52を検出する。   In addition, as described above, the learning device 24 can detect the plurality of feature points 52 in which the corresponding vehicle location is identified. For example, in the learning device 24, the feature point 52a is the roof front right corner, the feature point 52b is the roof front left corner, the feature point 52c is the roof right rear corner, the feature point 52d is the roof left rear corner, the feature point 52e is the roof center, the feature point After identifying the right headlight 52f as the right headlight, the left headlight as the feature point 52g, the right front wheel as the feature point 52h and the right rear wheel as the feature point 52i, each feature point 52 is detected.

車両検出部32は、車両の箇所が識別された複数の特徴点52の位置関係に基づいて、入力画像40に含まれる車両の向きを検出することができる。例えば、図5に示されたヒートマップ50の例では、ルーフ右前隅に対応する特徴点52aの左上側に、ルーフ右後隅に対応する特徴点52c位置しており、また、ルーフ右前隅に対応する特徴点52aの右上側に、ルーフ左前隅に対応する特徴点52bが位置している。このような位置関係から、車両検出部32は、複数の特徴点52a〜iにより表される車両は、入力画像40において前側を右下方向に向けていることを検出することができる。   The vehicle detection unit 32 can detect the direction of the vehicle included in the input image 40 based on the positional relationship between the plurality of feature points 52 at which the location of the vehicle is identified. For example, in the example of the heat map 50 shown in FIG. 5, the feature point 52c corresponding to the roof right rear corner is located on the upper left side of the feature point 52a corresponding to the roof right front corner. A feature point 52b corresponding to the left front corner of the roof is located on the upper right side of the corresponding feature point 52a. From such a positional relationship, the vehicle detection unit 32 can detect that the vehicle represented by the plurality of feature points 52a to i points the front side in the lower right direction in the input image 40.

また、車両検出部32は、車両の箇所が識別された複数の特徴点52の位置関係に基づいて、車両の種別を検出することができる。車両の種別とは、その外形の違いにより区別されるものであり、例えば、セダン、バン、軽自動車、トラック、あるいはタクシーなどの種別である。   In addition, the vehicle detection unit 32 can detect the type of vehicle based on the positional relationship between the plurality of feature points 52 in which the location of the vehicle is identified. The type of vehicle is distinguished by the difference in its external form, and is, for example, the type of sedan, van, minicar, truck or taxi.

例えば、バンは、タイヤの位置からルーフの位置までの距離がセダンに比して長い。また、トラックは、タイヤの位置からルーフの位置までの距離がセダンに比して比較的長い上、ルーフの前後方向の長さがセダンあるいはバンに比して長い。各種別の車両は、このように外形上の違いを有しているため、車両検出部32は、複数の特徴点52の位置によって入力画像40に含まれる車両の種別を検出することができる。なお、入力画像40における車両のアングルによって、複数の特徴点52間の距離が変動し得るので、例えば、車両のルーフの4隅の特徴点の位置関係などに基づいて当該車両のアングルを推定した上で、車両の種別を検出するのが好適である。   For example, in the van, the distance from the position of the tire to the position of the roof is longer than that of the sedan. Further, in the truck, the distance from the position of the tire to the position of the roof is relatively long as compared to the sedan, and the length in the front-rear direction of the roof is long as compared to the sedan or van. Since the vehicles of each type have the difference in external shape as described above, the vehicle detection unit 32 can detect the type of the vehicle included in the input image 40 based on the positions of the plurality of feature points 52. Note that the distance between the plurality of feature points 52 may vary depending on the angle of the vehicle in the input image 40, so the angle of the vehicle is estimated based on, for example, the positional relationship of the feature points at the four corners of the roof of the vehicle. Above, it is preferable to detect the type of vehicle.

図4に示すように、入力画像40が複数の車両42を含む場合、特に、複数の車両42が近接あるいは重なっている場合、ヒートマップ50において、複数の車両に対応する複数の特徴点52が密集して検出されることになる。例えば、図5のヒートマップ50の下部に位置する特徴点群64がその例である。この場合、各特徴点52が対応する車両の箇所が識別されているとはいえ、ヒートマップ50からだけでは、特徴点群64を各車両に対応するグループに適切に区別するのが困難になる場合がある。   As shown in FIG. 4, when the input image 40 includes a plurality of vehicles 42, in particular, when a plurality of vehicles 42 are close or overlapping, a plurality of feature points 52 corresponding to a plurality of vehicles are included in the heat map 50. It will be detected densely. For example, the feature point group 64 located in the lower part of the heat map 50 of FIG. 5 is such an example. In this case, although the location of the vehicle to which each feature point 52 corresponds is identified, it is difficult to properly distinguish the feature point group 64 into groups corresponding to the respective vehicles only from the heat map 50. There is a case.

本実施形態では、ベクトルマップ60を用いることで、複数の車両に対応する特徴点5
2が密集した特徴点群64が形成された場合であっても、特徴点群64を各車両に対応するグループに適切に区別することができる。具体的には、ベクトルマップ60に含まれる各ベクトル62は、ある車両の特徴点52と、当該車両の他の特徴点52との間に示されるものである。したがって、特徴点群64に含まれる各特徴点52間の向きに基づいて、特徴点群64を、各車両に対応した特徴点グループ64aと特徴点グループ64bに区別することができる。
In the present embodiment, feature points 5 corresponding to a plurality of vehicles are obtained by using the vector map 60.
Even when the feature point group 64 in which 2 is densely formed is formed, the feature point group 64 can be appropriately distinguished into groups corresponding to the respective vehicles. Specifically, each vector 62 included in the vector map 60 is shown between a feature point 52 of a certain vehicle and another feature point 52 of the vehicle. Therefore, based on the direction between the feature points 52 included in the feature point group 64, the feature point group 64 can be distinguished into a feature point group 64a and a feature point group 64b corresponding to each vehicle.

入力画像40から検出された複数の特徴点52が適切に車両毎に区別されることで、車両検出部32は、入力画像40に含まれる各車両の向きを検出することが可能となる。それと同時に、車両検出部32は、入力画像40に含まれる車両の台数を検出することが可能になる。   The vehicle detection unit 32 can detect the direction of each vehicle included in the input image 40 by appropriately distinguishing the plurality of feature points 52 detected from the input image 40 for each vehicle. At the same time, the vehicle detection unit 32 can detect the number of vehicles included in the input image 40.

図2に戻り、人物検出部34は、入力画像40に含まれる人物を検出する。入力画像40からの人物の検出方法としては、車両を検出するための学習器24と同様の構成であって、人物を検出するように学習された他の学習器を用いてもよいし、あるいは、既知の画像解析処理などを用いるようにしてもよい。特に、人物検出部34は、入力画像40に含まれる人物の数を検出する。   Returning to FIG. 2, the person detection unit 34 detects a person included in the input image 40. The method of detecting a person from the input image 40 may be the same as the learning device 24 for detecting a vehicle, and another learning device learned to detect a person may be used, or Alternatively, known image analysis processing may be used. In particular, the person detection unit 34 detects the number of persons included in the input image 40.

処理演算部36は、車両検出部32による入力画像からの車両の検出結果と、人物検出部34による入力画像からの人物の検出結果に基づいて演算を行う。本実施形態においては、図7に示されるような、タクシー乗り場を俯瞰的に撮影した入力画像40−2に対して、車両検出部32がタクシー70の数を検出し、人物検出部34が人物72の数を検出する。そして、処理演算部36は、入力画像40−2におけるタクシー70の台数と人物72の数とに基づいて演算を行い、タクシーの需要を判定する。このように、処理演算部36は、タクシー需要判定部として機能する。   The processing operation unit 36 performs an operation based on the detection result of the vehicle from the input image by the vehicle detection unit 32 and the detection result of the person from the input image by the person detection unit 34. In the present embodiment, the vehicle detection unit 32 detects the number of taxis 70 with respect to the input image 40-2 captured in an overhead view of the taxi stand as shown in FIG. 7, and the person detection unit 34 detects a person Detect the number of 72. Then, the processing operation unit 36 performs an operation based on the number of taxis 70 and the number of persons 72 in the input image 40-2, and determines the demand for the taxi. Thus, the processing operation unit 36 functions as a taxi demand determination unit.

車両検出部32によるタクシーの検出方法としては、様々な方法を採用することができる。まず、学習器24によりヒートマップ50(図5参照)が出力された後に、ルーフ中央に対応する特徴点52を含む一定の領域に対して画像解析を実施し、行灯を検出するようにしてもよい。もちろん、行灯が検出されれば当該車両はタクシーであると判定できるし、行灯が検出されなければ当該車両はタクシーではないと判定できる。   As a method of detecting a taxi by the vehicle detection unit 32, various methods can be adopted. First, after the heat map 50 (see FIG. 5) is output by the learning device 24, image analysis is performed on a certain area including the feature point 52 corresponding to the center of the roof to detect a streetlight. Good. Of course, if the streetlight is detected, it can be determined that the vehicle is a taxi, and if the streetlight is not detected, it can be determined that the vehicle is not a taxi.

また、学習用画像26(図3参照)に含まれる車両がタクシーであることを示す情報を学習データに付加し、学習器24が入力画像40−2からタクシーを識別可能なように学習器24を学習させてもよい。   In addition, information indicating that the vehicle included in the learning image 26 (see FIG. 3) is a taxi is added to the learning data, and the learning device 24 can identify the taxi from the input image 40-2. You may learn

あるいは、カメラ12の撮影対象場所によっては、入力画像40−2に含まれる車両はすべてタクシーであるとみなすようにしてもよい。   Alternatively, depending on the shooting target location of the camera 12, all vehicles included in the input image 40-2 may be considered to be taxis.

処理演算部36は、上述した方法により入力画像40−2に含まれるタクシー70及び人物72を検出し、タクシー70の台数よりも人物72の数が多い場合は、タクシーの需要有りと判定し、例えばタクシーの配車担当者が利用するユーザ端末14に当該タクシー乗り場でタクシーの需要があることを示す情報を送信する。また、処理演算部36は、入力画像40−2におけるタクシー70の台数と人物72の数との差分を算出し、当該差分(すなわち必要なタクシーの台数)を示す情報をユーザ端末14に送信するようにしてもよい。   The processing operation unit 36 detects the taxi 70 and the persons 72 included in the input image 40-2 by the above-described method, and determines that there is a demand for taxis when the number of persons 72 is larger than the number of taxis 70. For example, information indicating that there is a demand for a taxi at the taxi stand is transmitted to the user terminal 14 used by a taxi dispatch person in charge. In addition, the processing operation unit 36 calculates the difference between the number of taxis 70 and the number of persons 72 in the input image 40-2, and transmits information indicating the difference (that is, the number of required taxis) to the user terminal 14. You may do so.

また、処理演算部36は、タクシー乗り場における過去の複数の入力画像40−2に含まれるタクシー70の台数及び人物72の数の統計データに基づいて、当該タクシー乗り場における将来のタクシーの需要量を予測するようにしてもよい。   The processing operation unit 36 further calculates the future demand for taxis at the taxi stand based on statistical data of the number of taxis 70 and the number of persons 72 included in the plurality of past input images 40-2 at the taxi stand. It may be predicted.

図2に戻り、同一性判定部38は、同一のカメラ12で異なるタイミングで撮影された複数の入力画像において、車両の同一性を判定する(つまり同じ車両を識別する)処理を行う。同一性判定部38によれば、あるカメラ12の撮影範囲の中で、同一車両を追従することが可能になり、車両がどのような動きをするのかを検出することが可能になる。以下の説明においては、同一のカメラ12で異なるタイミングで撮影された、車両Aを含む第1入力画像と車両Bを含む第2入力画像との間で、車両Aと車両Bの同一性を判定する処理について説明する。   Returning to FIG. 2, the identity determination unit 38 performs processing of determining the identity of a vehicle (that is, identifying the same vehicle) in a plurality of input images captured at different timings by the same camera 12. According to the identity determination unit 38, it becomes possible to follow the same vehicle within the imaging range of a certain camera 12, and it is possible to detect what kind of movement the vehicle will do. In the following description, the sameness between the vehicle A and the vehicle B is determined between the first input image including the vehicle A and the second input image including the vehicle B captured at different timings by the same camera 12 The process to be performed will be described.

まず、同一性判定部38は、第1入力画像から学習器24が検出した車両Aに関する複数の特徴点の各画素の色情報と、第2入力画像から学習器24が検出した車両Bに関する複数の特徴点の各画素の色情報とを取得する。なお、色情報とは、色相、明度(輝度)、及び彩度を含む概念である。   First, the identity determination unit 38 detects color information of each pixel of a plurality of feature points of the vehicle A detected by the learner 24 from the first input image, and a plurality of vehicles B detected by the learner 24 from the second input image. The color information of each pixel of the feature point is acquired. The color information is a concept including hue, lightness (brightness), and saturation.

本実施形態では、学習器24は、第1入力画像あるいは第2入力画像の1つの画素の座標として各特徴点を検出しているところ、同一性判定部38は、学習器24により検出された1つの画素を中心とする一定の面積を持った領域を色情報の取得対象の領域(以後画素領域と記載する)とする。また、第1入力画像あるいは第2入力画像の車両の大きさに応じて、画素領域の面積を変化させるようにしてもよい。例えば、入力画像中の車両が大きい程、画素領域の面積を大きくするようにしてもよい。なお、入力画像中の車両の大きさは、車両の箇所が識別された複数の特徴点の位置に基づいて検出することができる。   In the present embodiment, while the learning unit 24 detects each feature point as the coordinates of one pixel of the first input image or the second input image, the identity determining unit 38 detects the feature points by the learning unit 24. An area having a certain area centered on one pixel is referred to as an area for acquiring color information (hereinafter referred to as a pixel area). Further, the area of the pixel area may be changed according to the size of the vehicle of the first input image or the second input image. For example, as the vehicle in the input image is larger, the area of the pixel area may be increased. The size of the vehicle in the input image can be detected based on the positions of a plurality of feature points at which the location of the vehicle is identified.

本実施形態では、同一性判定部38は、各画素領域に含まれる複数の画素の色をL*a*b*色空間で表現した上で、複数の画素の色の代表値(例えば平均値、中央値、最頻値)を求める。そして、求めた色の代表値を画素領域の色情報とする。なお、各画素の色をL*a*b*色空間で表現するのは、L*a*b*色空間が人間の視覚に近似するように設計されているためである。   In the present embodiment, the identity determination unit 38 represents the colors of a plurality of pixels (for example, an average value) after expressing the colors of the plurality of pixels included in each pixel area in the L * a * b * color space. , Median, mode). Then, the representative value of the obtained color is used as color information of the pixel area. The color of each pixel is expressed in the L * a * b * color space because the L * a * b * color space is designed to approximate human vision.

なお、各画素領域の色情報として上記以外の特徴量を採用してもよい。例えば、画素領域に含まれる複数の画素におけるHOG(Histograms of Oriented Gradients)特徴量を算
出するようにしてもよい。ここで、HOG特徴量とは、画素領域内の各画素の輝度の勾配方
向をヒストグラム化した特徴量である。
Note that feature amounts other than the above may be adopted as color information of each pixel area. For example, HOG (Histograms of Oriented Gradients) feature quantities of a plurality of pixels included in a pixel area may be calculated. Here, the HOG feature value is a feature value obtained by histogramming the gradient direction of the luminance of each pixel in the pixel area.

以上のようにして、第1入力画像に含まれる車両Aの各特徴点に対応する画素の色情報、及び、第2入力画像に含まれる車両Bの各特徴点に対応する画素の色情報が取得される。   As described above, the color information of the pixel corresponding to each feature point of the vehicle A included in the first input image and the color information of the pixel corresponding to each feature point of the vehicle B included in the second input image It is acquired.

次いで、同一性判定部38は、車両Aの各特徴点の色情報と、車両Bの各特徴点の色情報とを比較する。詳しくは、車両の箇所毎に、車両Aの特徴点の色情報と車両Bの特徴点の色情報を比較する。これにより、同一性判定部38は車両Aと車両Bとの同一性を判定する。具体的には、車両Aのある特徴点(ここではルーフ右前隅とする)と、車両Bの対応する箇所であるルーフ右前隅の特徴点との色情報の差分(色差)を算出する。このように、全ての箇所について色差を算出する。   Next, the identity determination unit 38 compares the color information of each feature point of the vehicle A with the color information of each feature point of the vehicle B. Specifically, the color information of the feature point of the vehicle A and the color information of the feature point of the vehicle B are compared for each location of the vehicle. Thereby, the identity determination unit 38 determines the identity of the vehicle A and the vehicle B. Specifically, the difference (color difference) in color information between a certain feature point of the vehicle A (here, the roof right front corner) and a feature point of the roof right front corner, which is the corresponding location of the vehicle B, is calculated. Thus, color differences are calculated for all the locations.

本実施形態では、CIE2000色差式により、各特徴点の画素の色情報の色差を算出する。これは、CIE2000色差式は、人間の目の色識別域の特徴である、色相依存性、明度依存性、及び彩度依存性を考慮した計算式であるためである。すなわち、CIE2000色差式に基づく色差は、人間の視覚による色の差に近い値となるためである。   In the present embodiment, the color difference of the color information of the pixel of each feature point is calculated by the CIE 2000 color difference formula. This is because the CIE 2000 color difference equation is a calculation equation taking into consideration the hue dependency, the lightness dependency, and the saturation dependency, which are features of the color discrimination region of human eyes. That is, the color difference based on the CIE 2000 color difference formula is a value close to the color difference by human vision.

図8に、車両Aの各特徴点の色情報と、車両Bの各特徴点の色情報との差(色差)が示
されている。同一性判定部38は、算出された色差に基づいて、特徴点毎に類似度を算出する。具体的には、同一性判定部38は、色差が小さい程類似度が大きくなるように算出する。本実施形態では、以下の式によって色差から類似度を算出する。

Figure 2019106193
ここで、dは色差であり、α及びβは定数である。α及びβを適宜設定することにより、色差の値に対する類似度の値を調整することができる。 The difference (color difference) between the color information of each feature point of the vehicle A and the color information of each feature point of the vehicle B is shown in FIG. The identity determination unit 38 calculates the similarity for each feature point based on the calculated color difference. Specifically, the identity determination unit 38 calculates the degree of similarity to be larger as the color difference is smaller. In the present embodiment, the similarity is calculated from the color difference according to the following equation.
Figure 2019106193
Here, d is a color difference, and α and β are constants. By setting α and β appropriately, it is possible to adjust the value of similarity to the value of color difference.

図8には、特徴点毎に算出された類似度が示されている。このようにして、車両Aと車両Bとの間において、複数の(本実施形態では13個)特徴点についての複数の類似度が算出される。同一性判定部38は、算出された複数の類似度の代表値(例えば平均値、中央値、最頻値)を求める。このように求められた類似度の代表値が車両Aと車両Bとの類似度となる。なお、第1入力画像又は第2入力画像における見切れ、あるいは隠れなどにより、車両A又は車両Bの複数の特徴点のうち検出されなかった特徴点がある場合には、当該特徴点に関する類似度は予め定められた値(本実施形態では50%)とする。   FIG. 8 shows the similarity calculated for each feature point. In this manner, between the vehicle A and the vehicle B, a plurality of (about 13 in the present embodiment) feature points are calculated with respect to a plurality of similarities. The identity determination unit 38 obtains representative values (for example, an average value, a median value, and a mode value) of the calculated plurality of similarities. The representative value of the degree of similarity thus obtained is the degree of similarity between the vehicle A and the vehicle B. When there is a feature point not detected among a plurality of feature points of the vehicle A or the vehicle B due to missing or hiding in the first input image or the second input image, the similarity regarding the feature point is A predetermined value (50% in the present embodiment) is used.

以上のようにして、第1入力画像に含まれる車両Aと第2入力画像に含まれる車両Bの類似度が算出される。同一性判定部38は、算出された類似度が予め定められた類似度閾値以上である場合に車両Aと車両Bが同一車両であると判定し、算出された類似度が類似度閾値未満である場合に車両Aと車両Bが同一車両ではないと判定する。   As described above, the similarity between the vehicle A included in the first input image and the vehicle B included in the second input image is calculated. When the calculated similarity is equal to or higher than a predetermined similarity threshold, the identity determination unit 38 determines that the vehicle A and the vehicle B are the same vehicle, and the calculated similarity is less than the similarity threshold. If there is, it is determined that the vehicle A and the vehicle B are not the same vehicle.

上述のように、同一性判定部38は、異なるタイミングで撮影された複数の入力画像間において車両の同一性を判定する。好適には、カメラ12が撮像した動画に含まれる、隣接するフレーム画像間毎に上記処理を行うことによって、動画像において同一車両をトラッキングすることができる。   As described above, the identity determination unit 38 determines the identity of the vehicle among the plurality of input images captured at different timings. Preferably, the same vehicle can be tracked in the moving image by performing the above-described process for each adjacent frame image included in the moving image captured by the camera 12.

以下、図9に示すフローチャートに従って、本実施形態に係るサーバ16の処理の流れを説明する。   Hereinafter, the flow of processing of the server 16 according to the present embodiment will be described according to the flowchart shown in FIG.

ステップS10において、サーバ16の制御部30は、車両を含む学習用画像26、学習用画像26に含まれる車両に関する複数の特徴点28の位置を示す情報、及び、各特徴点28が示す車両の箇所を示す情報を含む学習用データを学習器24に入力することを繰り返すことで、学習器24を学習させる。ステップS10が学習ステップに相当する。   In step S10, the control unit 30 of the server 16 includes a learning image 26 including a vehicle, information indicating the positions of a plurality of feature points 28 related to the vehicle included in the learning image 26, and the vehicle indicated by each feature point 28. The learning device 24 is made to learn by repeating inputting learning data including information indicating a part to the learning device 24. Step S10 corresponds to a learning step.

ステップS12において、車両検出部32は、カメラ12が撮影した入力画像40を学習済みの学習器24に入力する。   In step S12, the vehicle detection unit 32 inputs the input image 40 captured by the camera 12 to the learned device 24 that has been learned.

ステップS14において、学習器24は、ステップS12で入力された入力画像40に対して、ヒートマップ50及びベクトルマップ60を出力する。   In step S14, the learning device 24 outputs the heat map 50 and the vector map 60 to the input image 40 input in step S12.

ステップS16において、車両検出部32は、ステップS14で出力されたヒートマップ50に基づいて、入力画像40に車両が含まれるか否かを判定する。具体的には、入力画像40から学習器24が車両に関する特徴点52を検出した場合には、車両検出部32は、入力画像40に車両が含まれると判定する。入力画像40に車両が含まれると判定された場合はステップS18に進み、入力画像40に車両が含まれていないと判定された場合は処理を終了する。ない。ステップS12〜S16が車両検出ステップに相当する。   In step S16, the vehicle detection unit 32 determines whether the input image 40 includes a vehicle based on the heat map 50 output in step S14. Specifically, when the learning device 24 detects a feature point 52 related to a vehicle from the input image 40, the vehicle detection unit 32 determines that the input image 40 includes a vehicle. If it is determined that the input image 40 includes a vehicle, the process proceeds to step S18. If it is determined that the input image 40 does not include a vehicle, the process ends. Absent. Steps S12 to S16 correspond to the vehicle detection step.

ステップS18において、車両検出部32は、車両の箇所が識別された複数の特徴点52の位置関係に基づいて、車両の向き及び種別を検出する。入力画像40に複数の車両が含まれる場合には、車両検出部32は、ステップS14で出力されたベクトルマップを用いて複数の特徴点52を車両毎に区別した上で、複数の車両の向き、種別、あるいは台数を検出する。   In step S18, the vehicle detection unit 32 detects the direction and type of the vehicle based on the positional relationship of the plurality of feature points 52 at which the location of the vehicle is identified. When the input image 40 includes a plurality of vehicles, the vehicle detection unit 32 distinguishes the plurality of feature points 52 for each vehicle using the vector map output in step S14, and then the orientations of the plurality of vehicles. , Type or number of units.

以上、本発明に係る実施形態を説明したが、本発明は上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない限りにおいて種々の変更が可能である。   As mentioned above, although embodiment which concerns on this invention was described, this invention is not limited to the said embodiment, A various change is possible unless it deviates from the meaning of this invention.

例えば、本実施形態では、情報処理装置としてのサーバ16が、学習器24の学習処理と、学習器24を用いた車両検出処理の両方を実行しているが、学習処理と車両検出処理を別の主体(装置)で実行するようにしてもよい。例えば、他の装置において学習された学習済みの学習器24をサーバ16の記憶部22に記憶させて、当該学習器24を用いてサーバ16が車両検出処理を実行するようにしてもよい。   For example, in the present embodiment, the server 16 as the information processing apparatus executes both the learning process of the learning device 24 and the vehicle detection process using the learning device 24. However, the learning process and the vehicle detection process are different It may be executed by the subject (apparatus) of For example, the learning unit 24 which has been learned in another device may be stored in the storage unit 22 of the server 16, and the server 16 may execute the vehicle detection process using the learning unit 24.

また、本発明は車両以外にも、船や飛行機などの乗り物にも適用可能である。   In addition to vehicles, the present invention is also applicable to vehicles such as ships and airplanes.

10 情報処理システム、12 カメラ、14 ユーザ端末、16 サーバ、18 通信回線、20 通信部、22 記憶部、24 学習器、30 制御部、32 車両検出部、34 人物検出部、36 処理演算部、38 同一性判定部。   Reference Signs List 10 information processing system 12 camera 14 user terminal 16 server 18 communication line 20 communication unit 22 storage unit 24 learning unit 30 control unit 32 vehicle detection unit 34 person detection unit 36 processing operation unit 38 Identity check unit.

Claims (9)

車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習する学習器と、
学習済みの前記学習器に入力画像を入力して、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出する車両検出部と、
を備えることを特徴とする情報処理装置。
Learning using learning data including a learning image including a vehicle, information indicating positions of a plurality of feature points regarding the vehicle included in the learning image, and information indicating a location of the vehicle indicated by each feature point The learning device to
A vehicle detection unit that inputs an input image to the learned device that has been learned, and detects a vehicle included in the input image based on a feature point related to a vehicle detected by the learner from the input image;
An information processing apparatus comprising:
前記車両検出部は、前記学習器が前記入力画像から検出した、対応する車両の箇所が識別された複数の特徴点の位置関係に基づいて、前記入力画像中に含まれる車両の向きを検出する、
ことを特徴とする請求項1に記載の情報処理装置。
The vehicle detection unit detects the direction of the vehicle included in the input image based on the positional relationship of a plurality of feature points detected by the learning device from the input image and in which the location of the corresponding vehicle is identified. ,
An information processing apparatus according to claim 1, characterized in that.
前記学習器は、前記学習用画像に含まれる前記車両の前記複数の特徴点間の向きを学習し、
前記車両検出部は、前記学習器が前記入力画像から検出した複数の特徴点間の向きに基づいて、前記入力画像に含まれる複数の車両を区別した上で、複数の車両の向き及び台数の少なくとも一方を検出する、
ことを特徴とする請求項1に記載の情報処理装置。
The learning device learns an orientation between the plurality of feature points of the vehicle included in the image for learning.
The vehicle detection unit distinguishes the plurality of vehicles included in the input image based on the orientation between the plurality of feature points detected from the input image by the learning device, and then determines the direction and number of the plurality of vehicles. Detect at least one,
An information processing apparatus according to claim 1, characterized in that.
前記学習用データは、前記学習用画像が撮影された時の天気を示す情報を含み、
前記学習器は、前記学習用画像が撮影された時の天気を考慮して学習する、
ことを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。
The learning data includes information indicating weather when the learning image is taken,
The learning device performs learning in consideration of the weather when the image for learning is taken.
The information processing apparatus according to any one of claims 1 to 3, characterized in that:
前記学習用データは、前記学習用画像に含まれる車両のライトの点灯有無を示す情報を含み、
前記学習器は、前記学習用画像に含まれる車両のライトの点灯有無を考慮して学習する、
ことを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。
The learning data includes information indicating whether or not the light of the vehicle included in the learning image is lit,
The learning device performs learning in consideration of whether the lights of the vehicle included in the image for learning are lit.
The information processing apparatus according to any one of claims 1 to 4, characterized in that:
前記車両検出部は、前記学習器が前記入力画像から検出した、対応する車両の箇所が識別された複数の特徴点の位置関係に基づいて、前記入力画像に含まれる車両の種別を検出する、
ことを特徴とする請求項1に記載の情報処理装置。
The vehicle detection unit detects the type of the vehicle included in the input image based on the positional relationship of a plurality of feature points detected by the learning device from the input image and in which the location of the corresponding vehicle is identified.
An information processing apparatus according to claim 1, characterized in that.
前記車両検出部は、前記入力画像に対する前記学習器の出力に基づいて、前記入力画像に含まれる車両の種別がタクシーであることを識別し、
前記情報処理装置は、さらに、
前記入力画像を解析することで、前記入力画像に含まれる人物を検出する人物検出部と、
前記入力画像に含まれるタクシーの台数と人物の数とに基づいて、タクシーの需要を判定するタクシー需要判定部と、
を備えることを特徴とする請求項6に記載の情報処理装置。
The vehicle detection unit identifies that the type of vehicle included in the input image is a taxi based on the output of the learning device for the input image,
The information processing apparatus further includes:
A person detection unit that detects a person included in the input image by analyzing the input image;
A taxi demand determination unit that determines a taxi demand based on the number of taxis and the number of persons included in the input image;
The information processing apparatus according to claim 6, comprising:
コンピュータを、
車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習する学習器と、
学習済みの前記学習器に入力画像を入力して、前記学習器が前記入力画像から検出した
車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出する車両検出部と、
として機能させることを特徴とする情報処理プログラム。
Computer,
Learning using learning data including a learning image including a vehicle, information indicating positions of a plurality of feature points regarding the vehicle included in the learning image, and information indicating a location of the vehicle indicated by each feature point The learning device to
A vehicle detection unit that inputs an input image to the learned device that has been learned, and detects a vehicle included in the input image based on a feature point related to a vehicle detected by the learner from the input image;
An information processing program characterized in that it functions as:
車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習器を学習させる学習ステップと、
学習済みの前記学習器に入力画像を入力して、コンピュータが、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出する車両検出ステップと、
を含むことを特徴とする情報処理方法。
Learning using learning data including a learning image including a vehicle, information indicating positions of a plurality of feature points regarding the vehicle included in the learning image, and information indicating a location of the vehicle indicated by each feature point Learning steps to learn the
A vehicle detection step of inputting an input image into the learned device, and detecting a vehicle included in the input image based on a feature point of the vehicle detected by the learner from the input image;
An information processing method comprising:
JP2019008821A 2019-01-22 2019-01-22 Information processing device, information processing program and information processing method Pending JP2019106193A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019008821A JP2019106193A (en) 2019-01-22 2019-01-22 Information processing device, information processing program and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019008821A JP2019106193A (en) 2019-01-22 2019-01-22 Information processing device, information processing program and information processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017239974A Division JP6472504B1 (en) 2017-12-14 2017-12-14 Information processing apparatus, information processing program, and information processing method

Publications (1)

Publication Number Publication Date
JP2019106193A true JP2019106193A (en) 2019-06-27

Family

ID=67061388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019008821A Pending JP2019106193A (en) 2019-01-22 2019-01-22 Information processing device, information processing program and information processing method

Country Status (1)

Country Link
JP (1) JP2019106193A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111340877A (en) * 2020-03-25 2020-06-26 北京爱笔科技有限公司 Vehicle positioning method and device
KR20210010124A (en) * 2019-07-19 2021-01-27 (주)유에이치알앤디 Traffic volume computation program using ai and operation method thereof
KR20210064747A (en) * 2019-11-26 2021-06-03 주식회사 옵티로 Cargo movement information management system using image analysis and blockchain
US20210192214A1 (en) * 2020-06-30 2021-06-24 Beijing Baidu Netcom Science Technology Co., Ltd. Vehicle re-identification method, apparatus, device and storage medium
WO2023007551A1 (en) * 2021-07-26 2023-02-02 ファナック株式会社 Image processing device and computer-readable storage medium

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210010124A (en) * 2019-07-19 2021-01-27 (주)유에이치알앤디 Traffic volume computation program using ai and operation method thereof
KR102247674B1 (en) * 2019-07-19 2021-05-03 (주)유에이치알앤디 Traffic volume computation program using ai and operation method thereof
KR20210064747A (en) * 2019-11-26 2021-06-03 주식회사 옵티로 Cargo movement information management system using image analysis and blockchain
KR102287360B1 (en) * 2019-11-26 2021-08-06 주식회사 옵티로 Cargo movement information management system using image analysis and blockchain
CN111340877A (en) * 2020-03-25 2020-06-26 北京爱笔科技有限公司 Vehicle positioning method and device
CN111340877B (en) * 2020-03-25 2023-10-27 北京爱笔科技有限公司 Vehicle positioning method and device
US20210192214A1 (en) * 2020-06-30 2021-06-24 Beijing Baidu Netcom Science Technology Co., Ltd. Vehicle re-identification method, apparatus, device and storage medium
JP2021103565A (en) * 2020-06-30 2021-07-15 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. Method, device, apparatus, and storage medium for re-identifying vehicle
JP7268076B2 (en) 2020-06-30 2023-05-02 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Vehicle re-identification method, apparatus, equipment and storage medium
US11694436B2 (en) * 2020-06-30 2023-07-04 Beijing Baidu Netcom Science Technology Co., Ltd. Vehicle re-identification method, apparatus, device and storage medium
WO2023007551A1 (en) * 2021-07-26 2023-02-02 ファナック株式会社 Image processing device and computer-readable storage medium

Similar Documents

Publication Publication Date Title
CN110097109B (en) Road environment obstacle detection system and method based on deep learning
US10387725B2 (en) System and methodologies for occupant monitoring utilizing digital neuromorphic (NM) data and fovea tracking
JP2019106193A (en) Information processing device, information processing program and information processing method
CN111767882A (en) Multi-mode pedestrian detection method based on improved YOLO model
JP6650657B2 (en) Method and system for tracking moving objects in video using fingerprints
CN111860274B (en) Traffic police command gesture recognition method based on head orientation and upper half skeleton characteristics
WO2015025704A1 (en) Video processing device, video processing method, and video processing program
Cheng et al. A self-constructing cascade classifier with AdaBoost and SVM for pedestriandetection
CN110210474A (en) Object detection method and device, equipment and storage medium
CN106570439B (en) Vehicle detection method and device
CN106529419A (en) Automatic detection method for significant stack type polymerization object in video
Liu et al. Multi-type road marking recognition using adaboost detection and extreme learning machine classification
JP4674179B2 (en) Shadow recognition method and shadow boundary extraction method
CN101383005A (en) Method for separating passenger target image and background by auxiliary regular veins
CN106407951A (en) Monocular vision-based nighttime front vehicle detection method
JP6947005B2 (en) Attribute recognition device, attribute recognition method, and machine learning device
JP6472504B1 (en) Information processing apparatus, information processing program, and information processing method
KR101343623B1 (en) adaptive color detection method, face detection method and apparatus
Santos et al. Car recognition based on back lights and rear view features
Hariri et al. Vision based smart in-car camera system for driver yawning detection
CN116012822B (en) Fatigue driving identification method and device and electronic equipment
CN117292346A (en) Vehicle running risk early warning method for driver and vehicle state integrated sensing
Pandey et al. Dumodds: Dual modeling approach for drowsiness detection based on spatial and spatio-temporal features
JP5407723B2 (en) Recognition device, recognition method, and program
CN110660187A (en) Forest fire alarm monitoring system based on edge calculation

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20200703

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200805