JP6929030B2 - Vehicle recognition device - Google Patents

Vehicle recognition device Download PDF

Info

Publication number
JP6929030B2
JP6929030B2 JP2016158238A JP2016158238A JP6929030B2 JP 6929030 B2 JP6929030 B2 JP 6929030B2 JP 2016158238 A JP2016158238 A JP 2016158238A JP 2016158238 A JP2016158238 A JP 2016158238A JP 6929030 B2 JP6929030 B2 JP 6929030B2
Authority
JP
Japan
Prior art keywords
vehicle
recognition device
data
area
window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016158238A
Other languages
Japanese (ja)
Other versions
JP2018026019A (en
Inventor
朝靖 北川
朝靖 北川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Signal Co Ltd
Original Assignee
Nippon Signal Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Signal Co Ltd filed Critical Nippon Signal Co Ltd
Priority to JP2016158238A priority Critical patent/JP6929030B2/en
Publication of JP2018026019A publication Critical patent/JP2018026019A/en
Application granted granted Critical
Publication of JP6929030B2 publication Critical patent/JP6929030B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、撮像画像を用いて車両の存在を認識する技術に関する。 The present invention relates to a technique for recognizing the existence of a vehicle using a captured image.

定点カメラ等の撮像装置により撮像された画像(撮像画像)を用いて、車両の存在を認識したい、というニーズがある。例えば、定点カメラの撮像画像により交差点の特定位置における車両の有無が分かれば、交差点に設置されている信号機のサイクル等を決定するために、超音波センサ等を別途設ける必要がなく望ましい。 There is a need to recognize the existence of a vehicle by using an image (captured image) captured by an imaging device such as a fixed-point camera. For example, if the presence or absence of a vehicle at a specific position at an intersection is known from an image captured by a fixed-point camera, it is not necessary to separately provide an ultrasonic sensor or the like in order to determine the cycle of a traffic light installed at the intersection, which is desirable.

撮像画像を用いて車両の存在を認識するためには、通常、画像認識技術により撮像画像の中から車両が映っている領域を特定する処理が行われる。その際、撮像画像に映っている車両が互いに重なり合っていると、個々の車両が分離されず誤認識が生じやすい、という問題がある。 In order to recognize the existence of a vehicle using a captured image, a process of identifying a region in which the vehicle is reflected from the captured image is usually performed by an image recognition technique. At that time, if the vehicles shown in the captured image overlap each other, there is a problem that the individual vehicles are not separated and erroneous recognition is likely to occur.

上記の問題を解決するための技術が提案されている。例えば、特許文献1には、道路に設置したカメラで撮影した画像を用いて交通流計測を行う装置において、走行車両の車間距離が短い場合に前後の車両を画像上で分離できず誤認識する場合がある、という問題を解決するために、道路面に垂直に近い角度で走行車両を俯瞰する位置に設置した魚眼レンズカメラにより撮影を行う、という発明が記載されている。 Techniques for solving the above problems have been proposed. For example, in Patent Document 1, in a device that measures traffic flow using an image taken by a camera installed on a road, when the distance between traveling vehicles is short, the front and rear vehicles cannot be separated on the image and are erroneously recognized. In order to solve the problem that there are cases, an invention is described in which a fish-eye lens camera installed at a position where the traveling vehicle is overlooked at an angle close to perpendicular to the road surface is used for taking a picture.

特開2001−216598号公報Japanese Unexamined Patent Publication No. 2001-216598

特許文献1に記載の発明によれば、撮影された画像に複数の車両が映っていても、それらの車両が画像上で重なり合うことがないため、画像認識において個々の車両が正しく分離され、個々の車両の存在が正しく認識される。しかしながら、特許文献1に記載の発明においては、道路面に垂直に近い角度で走行車両を俯瞰する位置にカメラを設置する必要がある。そのようにカメラを設置するためには、道路脇にカメラを取り付けるための支柱を設置する必要がありコストが嵩む、という問題がある。また、何らかの事情でカメラを取り付けるための支柱が道路脇に設置できない場合、特許文献1に記載の発明は実施できない。 According to the invention described in Patent Document 1, even if a plurality of vehicles are shown in a captured image, the vehicles do not overlap on the image, so that the individual vehicles are correctly separated in image recognition and are individually separated. The existence of the vehicle is correctly recognized. However, in the invention described in Patent Document 1, it is necessary to install the camera at a position where the traveling vehicle is overlooked at an angle close to perpendicular to the road surface. In order to install such a camera, there is a problem that it is necessary to install a support column for mounting the camera on the side of the road, which increases the cost. Further, if for some reason the support column for attaching the camera cannot be installed on the side of the road, the invention described in Patent Document 1 cannot be carried out.

また、走行車両を真上から俯瞰する位置にカメラを設置する場合、カメラと車両の間の距離を長くとることができないため、特許文献1に記載の発明で採用されているように画角が広角な魚眼レンズ等を用いた撮像が行われる必要がある。そのような広角なレンズで撮像された画像には強い歪みが伴うため、一般的な定点カメラで撮像された画像のような汎用性がない。 Further, when the camera is installed at a position where the traveling vehicle is viewed from directly above, the distance between the camera and the vehicle cannot be increased, so that the angle of view is as used in the invention described in Patent Document 1. It is necessary to perform imaging using a wide-angle fisheye lens or the like. Images captured by such a wide-angle lens are strongly distorted, and therefore do not have the versatility of images captured by a general fixed-point camera.

上記の背景に鑑み、本発明は、撮像画像において複数の車両が互いに重なり合って映っていても、それらの車両の存在を個別に正しく認識する手段を提供することを目的とする。 In view of the above background, it is an object of the present invention to provide a means for correctly recognizing the existence of a plurality of vehicles individually and correctly even if a plurality of vehicles are projected to overlap each other in the captured image.

上述した課題を解決するために、本発明は、所定の撮像方向で異なる時刻に撮像した2枚の画像の比較の結果に基づき、画像中の移動した物が映っている1以上の領域の全てを車両領域として特定し、車両が共通して有する特徴部分を、特定された1以上の前記車両領域の各々において認識し、特定された1以上の前記車両領域の各々において認識された前記特徴部分の数に基づいて車両の台数を計測する車両認識装置を第1の態様として提供する。 In order to solve the above-mentioned problems, the present invention is based on the result of comparing two images captured at different times in a predetermined imaging direction, and all of one or more regions in which a moving object is reflected in the image. was identified as a vehicle region, characteristic portions having associated vehicles are common, recognized in each of the identified one or more of the vehicle regions, it recognized the feature in each of the identified one or more of the vehicle regions A vehicle recognition device that measures the number of vehicles based on the number of parts is provided as a first aspect.

第1の態様にかかる車両認識装置によれば、移動した物が映っている1以上の領域である車両領域の各々において車両が共通して有する特徴部分の認識が行われることにより、車両の画像の分離を要さずに車両の台数の計測が行われる。従って、撮像画像において複数の車両が互いに重なり合って映っていても、それらの車両の台数が正しく計測される。
また、第1の態様にかかる車両認識装置によれば、特徴量を用いて車両が映っている領域を認識する場合と比較し、簡易な処理で車両が映っている領域が特定される。
According to the vehicle recognition device according to the first aspect, the image of the vehicle is imaged by recognizing the characteristic portion commonly possessed by the vehicle in each of the vehicle regions which are one or more regions in which the moving object is reflected. The number of vehicles is measured without the need for separation. Therefore, even if a plurality of vehicles are overlapped with each other in the captured image, the number of those vehicles is correctly measured.
Further, according to the vehicle recognition device according to the first aspect, the area in which the vehicle is reflected can be specified by a simple process as compared with the case where the area in which the vehicle is reflected is recognized by using the feature amount.

第1の態様にかかる車両認識装置において、前記計測した車両の台数を示すデータを出力する、という構成が第2の態様として採用されてもよい。 In the vehicle recognition device according to the first aspect, a configuration in which data indicating the number of measured vehicles is output may be adopted as the second aspect.

第2の態様にかかる車両認識装置によれば、外部の装置に車両の台数が通知される。 According to the vehicle recognition device according to the second aspect, the number of vehicles is notified to the external device.

また、本発明は、所定の撮像方向で異なる時刻に撮像した2枚の画像の比較の結果に基づき、画像中の移動した物が映っている1以上の領域の全てを車両領域として特定し、車両が共通して有する特徴部分を、特定された1以上の前記車両領域の各々において認識し、特定された1以上の前記車両領域の各々において認識された前記特徴部分に基づいて車両を感知する車両認識装置を第3の態様として提供する。 Further, in the present invention , based on the result of comparison of two images captured at different times in a predetermined imaging direction, all of one or more regions in which a moving object is reflected in the image is specified as a vehicle region. sensing a vehicle characteristic portions which vehicles have in common, it is recognized in each of the identified one or more of the vehicle regions, based on the recognized the characteristic portion in each of the identified one or more of the vehicle regions The vehicle recognition device to be used is provided as a third aspect.

第3の態様にかかる車両認識装置によれば、移動した物が映っている1以上の領域である車両領域の各々において車両が共通して有する特徴部分の認識が行われることにより、車両の画像の分離を要さずに車両が感知される。従って、撮像画像において複数の車両が互いに重なり合って映っていても、それらの車両の感知が可能である。
また、第3の態様にかかる車両認識装置によれば、特徴量を用いて車両が映っている領域を認識する場合と比較し、簡易な処理で車両が映っている領域が特定される。
According to the vehicle recognition device according to the third aspect, the image of the vehicle is imaged by recognizing the characteristic portion commonly possessed by the vehicle in each of the vehicle regions which are one or more regions in which the moving object is reflected. The vehicle is detected without the need for separation. Therefore, even if a plurality of vehicles are overlapped with each other in the captured image, it is possible to detect those vehicles.
Further, according to the vehicle recognition device according to the third aspect, the area in which the vehicle is reflected is specified by a simple process as compared with the case where the area in which the vehicle is reflected is recognized by using the feature amount.

第3の態様にかかる車両認識装置において、前記車両の感知に応じて感知信号を出力する、という構成が第4の態様として採用されてもよい。 In the vehicle recognition device according to the third aspect, a configuration in which a detection signal is output in response to the detection of the vehicle may be adopted as the fourth aspect.

第4の態様にかかる車両認識装置によれば、外部の装置に車両の有無が通知される。 According to the vehicle recognition device according to the fourth aspect, the presence / absence of the vehicle is notified to the external device.

第1乃至第4のいずれかの態様にかかる車両認識装置において、前記特徴部分は車両の窓である、という構成が第5の態様として採用されてもよい。 In the vehicle recognition device according to any one of the first to fourth aspects, the configuration in which the characteristic portion is a window of the vehicle may be adopted as the fifth aspect.

第5の態様にかかる車両認識装置によれば、車両が共通して有する特徴部分のうち車両における占有比率が大きく、車両の斜め上から撮像した画像において映りやすく、画像認識において車体との分離が比較的容易な窓が認識対象とされるため、高い精度で車両の台数の計測または車両の感知が行われる。 According to the vehicle recognition device according to the fifth aspect, the occupancy ratio in the vehicle is large among the characteristic parts commonly possessed by the vehicle, the image is easily reflected in the image captured from diagonally above the vehicle, and the vehicle is separated from the vehicle body in the image recognition. Since the relatively easy window is the recognition target, the number of vehicles can be measured or the vehicle can be detected with high accuracy.

第1または第2の態様にかかる車両認識装置において、複数の撮像時刻の各々において前記所定の撮像方向で撮像した複数の画像の各々に関し行った前記特徴部分の認識の結果に基づき移動する車両が所定位置に到達したことを感知し、当該感知の結果に基づき前記所定位置を通過した車両の台数を計測する、という構成が第の態様として採用されてもよい。 In the vehicle recognition device according to the first or second aspect, the vehicle moving based on the result of recognition of the feature portion performed for each of the plurality of images captured in the predetermined imaging direction at each of the plurality of imaging times. A configuration in which the arrival at a predetermined position is detected and the number of vehicles passing through the predetermined position is measured based on the result of the detection may be adopted as the sixth aspect.

の態様にかかる車両認識装置によれば、所定位置を通過した車両の台数が計測される。 According to the vehicle recognition device according to the sixth aspect, the number of vehicles that have passed a predetermined position is measured.

第1実施形態にかかる車両認識装置が設置されている様子を示した図。The figure which showed the state that the vehicle recognition device which concerns on 1st Embodiment is installed. 第1実施形態にかかる車両認識装置の構成を示した図。The figure which showed the structure of the vehicle recognition apparatus which concerns on 1st Embodiment. 第1実施形態にかかる車両認識テーブルの構成を示した図。The figure which showed the structure of the vehicle recognition table which concerns on 1st Embodiment. 第1実施形態にかかる車両認識装置が行う窓領域の特定の手順を説明するための図。The figure for demonstrating the specific procedure of the window area performed by the vehicle recognition apparatus which concerns on 1st Embodiment. 第1実施形態にかかる車両認識装置が行う所定位置に到達した車両の感知の方法を説明するための図。The figure for demonstrating the method of detecting a vehicle which has reached a predetermined position performed by the vehicle recognition device which concerns on 1st Embodiment. 第1実施形態にかかる車両認識装置が行う処理のフローを示した図。The figure which showed the flow of the process performed by the vehicle recognition apparatus which concerns on 1st Embodiment. 第2実施形態にかかる車両認識装置の構成を示した図。The figure which showed the structure of the vehicle recognition apparatus which concerns on 2nd Embodiment. 第2実施形態にかかる車種テーブルの構成を示した図。The figure which showed the structure of the vehicle type table which concerns on 2nd Embodiment. 第2実施形態にかかる車両位置テーブルの構成例を示した図。The figure which showed the structural example of the vehicle position table which concerns on 2nd Embodiment. 第2実施形態にかかる撮像画像における車両の前端位置および後端位置と窓領域との位置関係を例示した図。The figure which illustrated the positional relationship between the front end position and the rear end position of a vehicle, and a window area in the captured image which concerns on 2nd Embodiment. 第2実施形態にかかる車両認識テーブルの構成を示した図。The figure which showed the structure of the vehicle recognition table which concerns on 2nd Embodiment. 第2実施形態にかかる車両認識装置が行う処理のフローを示した図。The figure which showed the flow of the process performed by the vehicle recognition apparatus which concerns on 2nd Embodiment. 第2実施形態にかかる定点カメラにより撮像された画像を例示した図。The figure which illustrated the image image | photographed by the fixed point camera which concerns on 2nd Embodiment. 第2実施形態にかかる車両認識装置が特定した車両領域および窓領域を示した図。The figure which showed the vehicle area and the window area specified by the vehicle recognition device which concerns on 2nd Embodiment. 第2実施形態にかかる車両認識装置が車種の特定を行う手順を説明するための図。The figure for demonstrating the procedure which the vehicle recognition device which concerns on 2nd Embodiment identifies a vehicle type. 第2実施形態にかかる車両認識装置が特定した窓領域と、車両の前端位置および後端位置を示した図。The figure which showed the window area specified by the vehicle recognition apparatus which concerns on 2nd Embodiment, and the front end position and the rear end position of a vehicle. 第2実施形態にかかる車両認識装置が出力する感知信号の出力タイミングを示した図。The figure which showed the output timing of the detection signal output by the vehicle recognition device which concerns on 2nd Embodiment. 一変形例にかかる車両認識装置が行う窓領域の特定の手順を説明するための図。The figure for demonstrating the specific procedure of the window area performed by the vehicle recognition apparatus which concerns on one modification.

[第1実施形態]
以下に本発明の第1実施形態にかかる車両認識装置を説明する。図1は第1実施形態にかかる車両認識装置が道路の近傍に設置されている様子を示した図である。図1において、矢印Nで示される方向が北である。交差点6の北西の角付近の道路脇には支柱8Nが設置されている。同様に、北東の角付近には支柱8Eが、南東の角付近には支柱8Sが、南西の角付近には支柱8Wが設置されている。以下、これらの支柱を「支柱8」と総称する。支柱8はL字形状をしており、地面から垂直上方向に延伸した後、道路の上において水平方向に延伸するように設置されている。
[First Embodiment]
The vehicle recognition device according to the first embodiment of the present invention will be described below. FIG. 1 is a diagram showing a state in which the vehicle recognition device according to the first embodiment is installed near the road. In FIG. 1, the direction indicated by the arrow N is north. A pillar 8N is installed on the side of the road near the northwest corner of the intersection 6. Similarly, a support 8E is installed near the northeast corner, a support 8S is installed near the southeast corner, and a support 8W is installed near the southwest corner. Hereinafter, these columns are collectively referred to as "support 8". The support column 8 has an L-shape, and is installed so as to extend vertically upward from the ground and then horizontally extend on the road.

支柱8Nの道路の上において水平方向に延伸している部分には信号機7Nが取り付けられている。同様に、支柱8Eには信号機7Eが、支柱8Sには信号機7Sが、支柱8Wには信号機7Wが取り付けられている。以下、これらの信号機を「信号機7」と総称する。 A traffic light 7N is attached to a portion extending in the horizontal direction on the road of the support 8N. Similarly, a traffic light 7E is attached to the support 8E, a signal 7S is attached to the support 8S, and a signal 7W is attached to the support 8W. Hereinafter, these traffic lights are collectively referred to as "traffic light 7".

支柱8Nの信号機7Nの近傍には定点カメラ2Nが取り付けられている。同様に、支柱8Eには定点カメラ2Eが、支柱8Sには定点カメラ2Sが、支柱8Wには定点カメラ2Wが取り付けられている。以下、これらの定点カメラを「定点カメラ2」と総称する。 A fixed-point camera 2N is attached in the vicinity of the traffic light 7N on the support column 8N. Similarly, a fixed point camera 2E is attached to the support column 8E, a fixed point camera 2S is attached to the support column 8S, and a fixed point camera 2W is attached to the support column 8W. Hereinafter, these fixed point cameras are collectively referred to as "fixed point camera 2".

定点カメラ2は十分に短い時間間隔で継続的に静止画を撮像するため、得られる一連の撮像画像は動画を示す。定点カメラ2Nは、正面下方向に位置する停止線61Sを通過する車両、すなわち、図1において矢印X、矢印Yおよび矢印Zで示される経路を走行する車両を全て撮像する。同様に、定点カメラ2Eは停止線61Wを通過する車両、定点カメラ2Sは停止線61Nを通過する車両、定点カメラ2Wは停止線61Eを通過する車両を全て撮像する。 Since the fixed point camera 2 continuously captures still images at sufficiently short time intervals, the obtained series of captured images show moving images. The fixed-point camera 2N captures all vehicles passing through the stop line 61S located in the downward direction in front of the vehicle, that is, vehicles traveling on the routes indicated by arrows X, Y, and Z in FIG. Similarly, the fixed point camera 2E images all vehicles passing through the stop line 61W, the fixed point camera 2S images all vehicles passing through the stop line 61N, and the fixed point camera 2W images all vehicles passing through the stop line 61E.

支柱8Nの、例えば、地面から垂直上方向に延伸する部分の所定高さの位置には、車両認識装置1Nが設置されている。同様に、支柱8Eには車両認識装置1Eが、支柱8Sには車両認識装置1Sが、支柱8Wには車両認識装置1Wが取り付けられている。以下、これらの車両認識装置を「車両認識装置1」と総称する。これらの車両認識装置1の各々が、第1実施形態にかかる車両認識装置である。 The vehicle recognition device 1N is installed at a predetermined height of the support column 8N, for example, a portion extending vertically upward from the ground. Similarly, a vehicle recognition device 1E is attached to the support column 8E, a vehicle recognition device 1S is attached to the support column 8S, and a vehicle recognition device 1W is attached to the support column 8W. Hereinafter, these vehicle recognition devices are collectively referred to as "vehicle recognition device 1". Each of these vehicle recognition devices 1 is the vehicle recognition device according to the first embodiment.

車両認識装置1は、同じ支柱8に取り付けられている定点カメラ2と有線または無線で通信接続されており、定点カメラ2が撮像した画像を表す撮像画像データを継続的に定点カメラ2から受信する。なお、車両認識装置1は、信号機7の制御を行う制御装置(図示略)と同じ筐体に配置されてもよい。 The vehicle recognition device 1 is connected to a fixed-point camera 2 attached to the same support column 8 by wire or wirelessly, and continuously receives captured image data representing an image captured by the fixed-point camera 2 from the fixed-point camera 2. .. The vehicle recognition device 1 may be arranged in the same housing as the control device (not shown) that controls the traffic light 7.

図2は車両認識装置1の構成を示した図である。車両認識装置1は専用装置として構成されてもよいし、コンピュータがプログラムに従った処理を行うことにより実現されてもよい。車両認識装置1は定点カメラ2から撮像画像データを受信する撮像画像取得手段11と、各種データを記憶する記憶手段12と、撮像画像データが表す画像のうち車両が映っている領域(以下、「車両領域」という)を特定する車両領域特定手段13と、車両領域特定手段13により特定された車両領域においてフロントガラス(車両が共通して有する特徴部分の一例)の画像を認識する画像認識手段14と、画像認識手段14による画像認識の結果に基づき所定位置を通過した車両の数を計測する車両台数計測手段15と、定点カメラ2から受信した撮像画像データや車両台数計測手段15により計測された車両の台数を示す車両台数データ等を出力する出力手段16を備える。 FIG. 2 is a diagram showing the configuration of the vehicle recognition device 1. The vehicle recognition device 1 may be configured as a dedicated device, or may be realized by a computer performing processing according to a program. The vehicle recognition device 1 includes a captured image acquisition means 11 that receives captured image data from a fixed-point camera 2, a storage means 12 that stores various data, and an area in which the vehicle is reflected in the image represented by the captured image data (hereinafter, "" An image recognition means 14 that recognizes an image of a front glass (an example of a characteristic portion commonly possessed by a vehicle) in a vehicle area specifying means 13 that specifies (referred to as "vehicle area") and a vehicle area specified by the vehicle area specifying means 13. It was measured by the vehicle number measuring means 15 that measures the number of vehicles that have passed a predetermined position based on the result of image recognition by the image recognition means 14, and the captured image data and the vehicle number measuring means 15 received from the fixed point camera 2. An output means 16 for outputting vehicle number data or the like indicating the number of vehicles is provided.

撮像画像取得手段11は、例えば所定時間の経過毎に定点カメラ2から送信されてくる撮像画像データを受信し、受信した撮像画像データを、例えば受信時刻を示す時刻データに対応付けて、記憶手段12に記憶させる。なお、時刻データは撮像時刻を示すデータである。従って、例えば、定点カメラ2が撮像時刻を示す時刻データを撮像画像データに対応付けて車両認識装置1に送信し、撮像画像取得手段11がそれらのデータを受信し記憶手段12に記憶させる構成が採用されてもよい。いずれの場合も、記憶手段12には撮像時刻に従い時系列上に並ぶ撮像画像を示す撮像画像データが順次記憶されていくことになる。 The captured image acquisition means 11 receives, for example, the captured image data transmitted from the fixed point camera 2 every time a predetermined time elapses, associates the received captured image data with, for example, time data indicating the reception time, and stores the stored image data. Store in 12. The time data is data indicating the imaging time. Therefore, for example, the fixed point camera 2 transmits the time data indicating the imaging time to the vehicle recognition device 1 in association with the captured image data, and the captured image acquisition means 11 receives the data and stores the data in the storage means 12. It may be adopted. In either case, the storage means 12 sequentially stores the captured image data indicating the captured images arranged in time series according to the imaging time.

車両領域特定手段13は、記憶手段12に記憶されている撮像画像データが表す時系列上で隣り合う2枚の撮像画像の間の異なる領域を車両領域として特定する。すなわち、車両領域特定手段13は、時系列上で隣り合う2枚の撮像画像に含まれる同じ位置の画素の値(または画素群の値の代表値)を比較し、それらの値の差が所定の閾値以下であればその画素(または画素群)において2枚の撮像画像には変化がなく、それらの値の差が所定の閾値を超える場合、その画素(または画素群)において2枚の撮像画像は変化している、と判定する。続いて、車両領域特定手段13は、変化している、と判定した画素の集まりが示す領域を車両領域として特定する。なお、車両領域特定手段13が2枚の撮像画像の間の異なる領域として特定する車両領域の数は1つに限られず、複数の車両領域が特定される場合もある。 The vehicle area specifying means 13 specifies a different area between two adjacent captured images on the time series represented by the captured image data stored in the storage means 12 as a vehicle area. That is, the vehicle area specifying means 13 compares the values of pixels at the same position (or representative values of the values of the pixel group) included in two adjacent captured images in a time series, and the difference between those values is predetermined. If it is equal to or less than the threshold value of, there is no change in the two captured images in the pixel (or pixel group), and if the difference between the values exceeds a predetermined threshold value, the two images are captured in the pixel (or pixel group). It is determined that the image is changing. Subsequently, the vehicle area specifying means 13 specifies the area indicated by the collection of pixels determined to be changing as the vehicle area. The number of vehicle regions specified by the vehicle region specifying means 13 as different regions between the two captured images is not limited to one, and a plurality of vehicle regions may be specified.

車両領域特定手段13は、特定した車両領域を示す車両領域データを、例えば、2枚の撮像画像の撮像時刻のうち遅い方を示す時刻データに対応付けて記憶手段12に記憶させる。これにより、記憶手段12には撮像時刻に従い時系列上に並ぶ車両領域を示す車両領域データが順次記憶されていくことになる。 The vehicle area specifying means 13 stores the vehicle area data indicating the specified vehicle area in the storage means 12 in association with, for example, the time data indicating the later of the imaging times of the two captured images. As a result, the storage means 12 sequentially stores vehicle area data indicating vehicle areas arranged in time series according to the imaging time.

なお、車両領域特定手段13が車両領域として特定する領域は、比較される2枚の撮像画像の撮像時刻を始期および終期とする期間において定点カメラ2の撮像範囲内で移動した物が映っている領域である。従って、車両領域には歩行者等の車両以外の移動する物が映っている領域が含まれる場合がある。また、信号待ち等で停車している車両が映っている領域は車両領域に含まれない。すなわち、車両領域特定手段13により特定される車両領域は、走行中の車両が映っている可能性がある領域であればよく、実際に車両が映っている領域と厳密に一致している必要はない。 The area specified by the vehicle area specifying means 13 as the vehicle area shows an object that has moved within the imaging range of the fixed point camera 2 during the period in which the imaging times of the two captured images to be compared are the start and end. The area. Therefore, the vehicle area may include an area in which a moving object other than the vehicle such as a pedestrian is reflected. In addition, the area in which a vehicle stopped due to waiting for a traffic light or the like is shown is not included in the vehicle area. That is, the vehicle area specified by the vehicle area specifying means 13 may be an area in which a moving vehicle may be reflected, and must be exactly the same as the area in which the vehicle is actually reflected. No.

画像認識手段14は、記憶手段12に記憶されている撮像画像データの各々に関し、当該撮像画像データが表す撮像画像のうち、当該撮像画像データに対応付けられている時刻データと同じ時刻データに対応付けて記憶手段12に記憶されている車両領域データが示す車両領域において、フロントガラスの画像を認識する。 The image recognition means 14 corresponds to the same time data as the time data associated with the captured image data among the captured images represented by the captured image data with respect to each of the captured image data stored in the storage means 12. The image of the windshield is recognized in the vehicle area indicated by the vehicle area data stored in the storage means 12.

画像認識手段14が行う画像認識のために、記憶手段12には予め、他の装置において準備されたリファレンス用特徴量データが記憶されている。リファレンス用特徴量データは、画像認識手段14がフロントガラスの画像を認識する際に参照する特徴量を示すデータの集まりである。リファレンス用特徴量データには、例えば、ポジティブサンプルとして与えられた様々なフロントガラスの撮像画像の特徴量を示すデータと、ネガティブサンプルとして与えられた様々なフロントガラス以外の物の撮像画像の特徴量を示すデータとを含んでいる。 For image recognition performed by the image recognition means 14, the storage means 12 stores in advance reference feature amount data prepared in another device. The reference feature amount data is a collection of data indicating the feature amount referred to when the image recognition means 14 recognizes the image of the windshield. The reference feature data includes, for example, data showing the features of various windshield images given as positive samples and the features of various non-windshield images given as negative samples. Includes data indicating.

画像認識手段14がフロントガラスの画像を認識する手法は、撮像画像からその撮像画像に映った車両のフロントガラスを識別可能な手法である限りいずれの手法が採用されてもよい。例えば、画像認識手段14が、Haar−like特徴量、HOG特徴量等の局所特徴量のマッチングにより撮像画像に映っているフロントガラスの画像を認識する手法が採用されてもよい。この場合、リファレンス用特徴量データは多数のポジティブサンプルおよびネガティブサンプルの局所特徴量を示すデータの集まりである。そして、画像認識手段14は、撮像画像から多数の局所特徴量を抽出する。続いて、画像認識手段14は、抽出した局所特徴量の中から、リファレンス用特徴量データが示すポジティブサンプルの局所特徴量の分布域に属しネガティブサンプルの局所特徴量の分布域に属さない局所特徴量を探索する。画像認識手段14は、そのように探索した局所特徴量を示す画像の領域をフロントガラスの映っている領域(以下、「窓領域」という)として認識する。 As the method for the image recognition means 14 to recognize the image of the windshield, any method may be adopted as long as the method can identify the windshield of the vehicle reflected in the captured image from the captured image. For example, a method may be adopted in which the image recognition means 14 recognizes the image of the windshield reflected in the captured image by matching local feature amounts such as Haar-like feature amount and HOG feature amount. In this case, the reference feature data is a collection of data indicating the local features of a large number of positive and negative samples. Then, the image recognition means 14 extracts a large number of local features from the captured image. Subsequently, the image recognition means 14 belongs to the distribution area of the local feature amount of the positive sample indicated by the reference feature amount data and does not belong to the distribution area of the local feature amount of the negative sample from the extracted local feature amount. Search for quantities. The image recognition means 14 recognizes the region of the image showing the local feature amount searched in this way as a region in which the windshield is reflected (hereinafter, referred to as a “window region”).

なお、画像認識手段14が1枚の撮像画像に含まれる1または複数の車両領域の各々において認識する窓領域の数は1つに限られず、0または2以上のいずれであってもよい。例えば、歩行者の画像のみを含み車両の画像を含まない車両領域に関しては、画像認識手段14は1つも窓領域の認識を行わない。一方、互いに重なり合った複数の車両が映っている車両領域に関しては、画像認識手段14により、2以上の窓領域が認識される。 The number of window regions recognized by the image recognition means 14 in each of the one or a plurality of vehicle regions included in one captured image is not limited to one, and may be 0 or 2 or more. For example, with respect to a vehicle area containing only an image of a pedestrian and not an image of a vehicle, the image recognition means 14 does not recognize any window area. On the other hand, with respect to the vehicle area in which a plurality of vehicles overlapping each other are shown, the image recognition means 14 recognizes two or more window areas.

画像認識手段14は、認識した窓領域を示す窓領域データを、認識対象の撮像画像の撮像時刻を示す時刻データに対応付けて記憶手段12に記憶させる。これにより、記憶手段12には撮像時刻に従い時系列上に並ぶ窓領域を示す窓領域データが順次記憶されていくことになる。 The image recognition means 14 stores the window area data indicating the recognized window area in the storage means 12 in association with the time data indicating the imaging time of the captured image to be recognized. As a result, the storage means 12 sequentially stores the window area data indicating the window areas arranged in time series according to the imaging time.

画像認識手段14は、時系列上で互いに隣接する窓領域データの各々が示す同じ車両のフロントガラスに応じた窓領域を、それらの形状と位置の類似度に基づき特定し、それらを互いに対応付ける。画像認識手段14は、新たに認識した窓領域に新たな窓IDを付与し、その後、当該窓領域と同じフロントガラスに応じた窓領域を順次、当該窓IDに対応付けていく。従って、順次対応付けられていく窓領域のグループは、それらの窓領域のグループに付与された窓IDにより、他の窓領域のグループと区別される。同じ窓IDに時系列で対応付けられた窓領域のグループは、車両の走行に伴い移動するフロントガラスの軌跡を示す。 The image recognition means 14 identifies the window regions corresponding to the windshields of the same vehicle indicated by the window region data adjacent to each other in the time series based on the similarity of their shapes and positions, and associates them with each other. The image recognition means 14 assigns a new window ID to the newly recognized window area, and then sequentially associates the window area corresponding to the same windshield as the window area with the window ID. Therefore, the groups of window areas that are sequentially associated with each other are distinguished from the groups of other window areas by the window IDs assigned to the groups of those window areas. A group of window regions associated with the same window ID in chronological order indicates the trajectory of the windshield that moves as the vehicle travels.

車両台数計測手段15は、窓IDでグループ化された窓領域の集まりの各々に関し、窓領域が撮像画像における所定位置に到達した場合、その窓領域に映っているフロントガラスを備える車両が交差点6の所定位置に到達したと判定する。すなわち、車両台数計測手段15は、撮像画像における窓領域が所定位置に到達したことを感知することで、撮像画像に映っている実際の車両が実空間における所定位置(例えば、車両認識装置1Nの車両台数計測手段15は、停止線61Sの位置)に到達したことを感知する。 In the vehicle number measuring means 15, when the window area reaches a predetermined position in the captured image for each of the group of window areas grouped by the window ID, the vehicle provided with the windshield reflected in the window area is the intersection 6 It is determined that the predetermined position of is reached. That is, the vehicle number measuring means 15 detects that the window region in the captured image has reached a predetermined position, so that the actual vehicle shown in the captured image is placed in a predetermined position in the real space (for example, the vehicle recognition device 1N). The vehicle number measuring means 15 detects that it has reached the position of the stop line 61S).

図3は、車両台数計測手段15が車両の台数の計測に用いるために記憶手段12に記憶されるデータテーブル(以下、「車両認識テーブル」という)の構成例を示した図である。車両認識テーブルは、窓IDで識別される窓の各々に応じたデータレコードの集まりであり、データフィールド[窓ID]、[到達時刻]、[撮像画像]等を有する。データフィールド[窓ID]には窓領域を識別する窓IDが格納される。データフィールド[到達時刻]には、窓IDで識別される窓領域が、撮像画像における所定位置に到達した時刻を示す時刻データが格納される。データフィールド[撮像画像]には、窓IDで識別される窓領域が、撮像画像における所定位置に到達した時刻を撮像時刻とする撮像画像が格納される。 FIG. 3 is a diagram showing a configuration example of a data table (hereinafter, referred to as “vehicle recognition table”) stored in the storage means 12 for use by the vehicle number measuring means 15 for measuring the number of vehicles. The vehicle recognition table is a collection of data records corresponding to each of the windows identified by the window ID, and has data fields [window ID], [arrival time], [captured image], and the like. A window ID that identifies the window area is stored in the data field [window ID]. In the data field [arrival time], time data indicating the time when the window area identified by the window ID reaches a predetermined position in the captured image is stored. In the data field [captured image], a captured image whose imaging time is the time when the window region identified by the window ID reaches a predetermined position in the captured image is stored.

車両台数計測手段15は、車両認識テーブルを用いて所定位置に到達した車両の台数を計測し、計測結果を示す車両台数データを、計測期間を示す期間データに対応付けて所定位置車両認識テーブルを用いて車両の台数を計測する処理については後述する。 The vehicle number measuring means 15 measures the number of vehicles that have reached a predetermined position using the vehicle recognition table, and associates the vehicle number data indicating the measurement result with the period data indicating the measurement period to display the predetermined position vehicle recognition table. The process of measuring the number of vehicles using the device will be described later.

車両台数計測手段15は、例えば、所定時間の経過毎に、車両認識テーブルを用いて所定位置に到達した車両の台数をカウントし、カウントした結果を示す車両台数データを、計測期間を示す期間データに対応付けて、記憶手段12に記憶させる。記憶手段12に記憶された期間データと車両台数データは、出力手段16により外部の装置に出力される。 The vehicle number measuring means 15 counts, for example, the number of vehicles that have reached a predetermined position using a vehicle recognition table every time a predetermined time elapses, and obtains vehicle number data indicating the counting result as period data indicating a measurement period. Is stored in the storage means 12 in association with. The period data and the number of vehicles data stored in the storage means 12 are output to an external device by the output means 16.

図4は、車両認識装置1が行う窓領域の特定の手順を説明するための図である。まず、車両領域特定手段13は撮像時刻が時系列上で互いに隣り合う撮像画像I1と撮像画像I2を比較し、それらの撮像画像の間の異なる領域を、例えば、車両領域C1および車両領域C2として特定する。 FIG. 4 is a diagram for explaining a specific procedure of the window area performed by the vehicle recognition device 1. First, the vehicle area specifying means 13 compares the captured images I 1 and the captured images I 2 whose imaging times are adjacent to each other in time series, and sets different regions between the captured images, for example, the vehicle region C 1 and the vehicle. Specify as region C 2.

続いて、画像認識手段14は、撮像画像I2のうち車両領域特定手段13により特定された車両領域C1および車両領域C2の各々において、フロントガラスの画像を認識する。その結果、撮像画像I2においてフロントガラスが映っている窓領域として、例えば、窓領域W1、窓領域W2および窓領域W3が特定される。なお、図4の例においては、窓領域W1および窓領域W2は車両領域C1において認識されたフロントガラスの領域であり、窓領域W3は車両領域C2において認識されたフロントガラスの領域である。 Subsequently, the image recognition means 14 recognizes an image of the windshield in each of the vehicle area C 1 and the vehicle area C 2 specified by the vehicle area specifying means 13 in the captured image I 2. As a result, for example, the window area W 1 , the window area W 2, and the window area W 3 are specified as the window area in which the windshield is reflected in the captured image I 2. In the example of FIG. 4, the window area W 1 and the window area W 2 are the areas of the windshield recognized in the vehicle area C 1 , and the window area W 3 is the area of the windshield recognized in the vehicle area C 2. The area.

図5は、車両認識装置1が行う所定位置に到達した車両の感知の方法を説明するための図である。図5の上図は撮像時刻t1の撮像画像において認識された窓領域W1〜W3の位置を示し、図5の下図は撮像時刻t1より後の撮像時刻t2の撮像画像において認識された窓領域W1〜W3の位置を示している。図5において、線L1は所定位置を示すラインである。図5に示す例の場合、車両台数計測手段15は、撮像時刻t2において窓領域W1に応じた車両が実空間における所定位置(例えば、停止線の位置)に到達したことを感知する。 FIG. 5 is a diagram for explaining a method of detecting a vehicle that has reached a predetermined position by the vehicle recognition device 1. The upper figure of FIG. 5 shows the positions of the window regions W 1 to W 3 recognized in the captured image at the imaging time t 1 , and the lower figure of FIG. 5 is recognized in the captured image at the imaging time t 2 after the imaging time t 1. The positions of the window areas W 1 to W 3 are shown. In FIG. 5, line L 1 is a line indicating a predetermined position. In the example shown in FIG. 5, the number of vehicles measuring means 15 senses that the vehicle in accordance with the window area W 1 at imaging time t 2 has reached a predetermined position in the real space (for example, a stop line position).

図6は車両認識装置1が定点カメラ2から送信されてくる撮像画像データを受信し記憶する毎に行う処理のフローを例示した図である。撮像画像取得手段11により受信された撮像画像データが記憶手段12に新たに記憶されると、車両領域特定手段13は、新たに記憶された撮像画像データが表す撮像画像の中から車両領域を特定する(ステップS101)。車両領域特定手段13は、特定した車両領域を示す車両領域データを、撮像画像データに対応付けられている時刻データに対応付けて記憶手段12に記憶させる(ステップS102)。 FIG. 6 is a diagram illustrating a flow of processing performed each time the vehicle recognition device 1 receives and stores captured image data transmitted from the fixed point camera 2. When the captured image data received by the captured image acquisition means 11 is newly stored in the storage means 12, the vehicle area specifying means 13 identifies the vehicle area from the captured images represented by the newly stored captured image data. (Step S101). The vehicle area specifying means 13 stores the vehicle area data indicating the specified vehicle area in the storage means 12 in association with the time data associated with the captured image data (step S102).

続いて、画像認識手段14は、記憶手段12に新たに記憶された撮像画像データが表す画像のうち、記憶手段12に新たに記憶された車両領域データが示す車両領域内の部分において、フロントガラスの画像を認識する(ステップS103)。画像認識手段14は、認識したフロントガラスが撮像画像において占める領域である窓領域を示す窓領域データを、認識に用いた撮像画像データに対応付けられている時刻データに対応付けて記憶手段12に記憶させる(ステップS104)。なお、ステップS103において、複数のフロントガラスの画像が認識された場合、ステップS104において、複数の窓領域データが同じ時刻データに対応付けて記憶手段12に記憶される。 Subsequently, the image recognition means 14 has a windshield in a portion of the image represented by the captured image data newly stored in the storage means 12 in the vehicle area indicated by the vehicle area data newly stored in the storage means 12. Recognize the image of (step S103). The image recognition means 14 stores the window area data indicating the window area, which is the area occupied by the recognized windshield in the captured image, in the storage means 12 in association with the time data associated with the captured image data used for recognition. It is stored (step S104). When a plurality of windshield images are recognized in step S103, the plurality of window area data are stored in the storage means 12 in association with the same time data in step S104.

続いて、画像認識手段14は、記憶手段12に新たに記憶された窓領域データの各々に関し、時系列上で隣接する1つ前の窓領域データ、すなわち1つ前の時刻の窓領域データの中で同じフロントガラスに応じた窓領域を示すものがあるか否かを、それらの窓領域データが示す窓領域の形状と位置に基づき判定する(ステップS105)。画像認識手段14は、ステップS105の判定において、1つ前の時刻の窓領域データの中に同じフロントガラスに応じた窓領域データがないと判定した場合(ステップS105;No)、その窓領域データに新たな窓IDを付与し記憶手段12に記憶させる(ステップS106)。また、画像認識手段14は、ステップS106において、車両認識テーブル(図3)に新たなデータレコードを追加し、新たに付与した窓IDをデータフィールド[窓ID]に格納する。 Subsequently, the image recognition means 14 relates to the window area data newly stored in the storage means 12, and the window area data of the previous window area data adjacent to each other in the time series, that is, the window area data of the previous time. It is determined based on the shape and position of the window area indicated by the window area data whether or not there is a window area corresponding to the same front glass (step S105). When the image recognition means 14 determines in step S105 that there is no window area data corresponding to the same windshield in the window area data at the previous time (step S105; No), the window area data Is given a new window ID and stored in the storage means 12 (step S106). Further, in step S106, the image recognition means 14 adds a new data record to the vehicle recognition table (FIG. 3), and stores the newly assigned window ID in the data field [window ID].

一方、画像認識手段14は、ステップS105の判定において、1つ前の時刻の窓領域データの中に同じフロントガラスに応じた窓領域データがあると判定した場合(ステップS105;Yes)、その窓領域データを1つ前の時刻の同じフロントガラスに応じた窓領域データに付与されている窓IDに対応付けて記憶手段12に記憶させる(ステップS107)。 On the other hand, when the image recognition means 14 determines in the determination in step S105 that the window area data corresponding to the same windshield is included in the window area data at the previous time (step S105; Yes), the window. The area data is stored in the storage means 12 in association with the window ID assigned to the window area data corresponding to the same windshield at the previous time (step S107).

続いて、車両台数計測手段15は、記憶手段12に記憶されている窓IDの各々に関し、当該窓IDに対応付けて時刻データが示す時刻順に記憶されている窓領域データが示す窓領域の移動の軌跡に基づき、窓領域が撮像画像における所定位置に到達したか否かを判定する(ステップS108)。 Subsequently, the vehicle number measuring means 15 moves the window area indicated by the window area data stored in the time order indicated by the time data in association with each of the window IDs stored in the storage means 12. It is determined whether or not the window region has reached a predetermined position in the captured image based on the locus of (step S108).

車両台数計測手段15は、窓領域が所定位置に到達したと判定した場合(ステップS108;Yes)、車両認識テーブルから当該窓領域の窓IDがデータフィールド[窓ID]に格納されているデータレコードを検索し、検索したデータレコードのデータフィールド[到達時刻]に、所定位置に到達した窓領域の認識に用いられた撮像画像の撮像時刻を示す時刻データを格納する(ステップS109)。一方、車両台数計測手段15は、窓領域が所定位置に到達していないと判定した場合(ステップS108;No)、ステップS109の処理を行わない。以上が、車両認識装置1が定点カメラ2から送信されてくる撮像画像データを受信し記憶する毎に行う処理のフローの説明である。 When the vehicle number measuring means 15 determines that the window area has reached a predetermined position (step S108; Yes), the data record in which the window ID of the window area is stored in the data field [window ID] from the vehicle recognition table. Is searched, and time data indicating the imaging time of the captured image used for recognizing the window area that has reached the predetermined position is stored in the data field [arrival time] of the searched data record (step S109). On the other hand, when it is determined that the window area has not reached the predetermined position (step S108; No), the vehicle number measuring means 15 does not perform the process of step S109. The above is a description of the flow of processing performed each time the vehicle recognition device 1 receives and stores the captured image data transmitted from the fixed point camera 2.

上述した処理により、交差点6を通過する個々の車両が、交差点6に進入してくる車両の方角毎に認識され、その認識結果を示すデータが車両認識テーブルに記憶されることになる。車両台数計測手段15は、既述のように、例えば、所定時間の経過毎に、車両認識テーブルに新たに格納されたデータレコードの数をカウントし、カウントした車両の台数を示す車両台数データを、計測期間を示す期間データに対応付けて、記憶手段12に記憶させる。また、出力手段16は、新たに記憶手段12に車両台数データが記憶されると、当該車両台数データを、当該車両台数データに対応付けて記憶されている期間データとともに外部の装置に出力する。以上が車両認識装置1により行われる処理の説明である。 By the above-described processing, individual vehicles passing through the intersection 6 are recognized for each direction of the vehicle entering the intersection 6, and data indicating the recognition result is stored in the vehicle recognition table. As described above, the vehicle number measuring means 15 counts, for example, the number of data records newly stored in the vehicle recognition table every time a predetermined time elapses, and obtains vehicle number data indicating the counted number of vehicles. , It is stored in the storage means 12 in association with the period data indicating the measurement period. Further, when the vehicle number data is newly stored in the storage means 12, the output means 16 outputs the vehicle number data to an external device together with the period data stored in association with the vehicle number data. The above is the description of the processing performed by the vehicle recognition device 1.

上述した車両認識装置1においては、車両が映っている領域内において車両が共通して有する特徴部分の認識が行われることにより、車両の画像の分離を要さずに個々の車両の存在が認識される。従って、車両認識装置1によれば、撮像画像において複数の車両が互いに重なり合って映っていても、それらの車両が個別に正しく感知される。 In the vehicle recognition device 1 described above, the presence of each vehicle is recognized without the need to separate the image of the vehicle by recognizing the characteristic portion commonly possessed by the vehicle in the area where the vehicle is reflected. Will be done. Therefore, according to the vehicle recognition device 1, even if a plurality of vehicles are overlapped with each other in the captured image, the vehicles are individually and correctly detected correctly.

[第2実施形態]
以下に本発明の第2実施形態にかかる車両認識装置3を説明する。車両認識装置3の構成および動作は多くの点で第1実施形態にかかる車両認識装置1の構成および動作と共通している。従って、以下に車両認識装置3が車両認識装置1と異なる点を中心に説明する。また、以下の説明において、車両認識装置3が備える構成部のうち車両認識装置1が備える構成部と共通するものには、車両認識装置1の説明において用いた符号と同じ符号を用いる。
[Second Embodiment]
The vehicle recognition device 3 according to the second embodiment of the present invention will be described below. The configuration and operation of the vehicle recognition device 3 are common to the configuration and operation of the vehicle recognition device 1 according to the first embodiment in many respects. Therefore, the difference between the vehicle recognition device 3 and the vehicle recognition device 1 will be mainly described below. Further, in the following description, the same reference numerals as those used in the description of the vehicle recognition device 1 are used for the components included in the vehicle recognition device 3 that are common to the components included in the vehicle recognition device 1.

図7は車両認識装置3の構成を示した図である。車両認識装置3は、車両認識装置1が備える車両台数計測手段15を備えない。一方、車両認識装置3は車両認識装置1が備えない構成部として、撮像画像に映っている車両の車種を特定する車種特定手段31と、撮像画像に映っている車両の撮像画像における先端位置および後端位置を特定する車両位置特定手段32と、撮像画像に映っている車両の実空間内の所定位置における存在を仮想的に感知する車両感知手段33を備える。 FIG. 7 is a diagram showing the configuration of the vehicle recognition device 3. The vehicle recognition device 3 does not include the vehicle number measuring means 15 included in the vehicle recognition device 1. On the other hand, the vehicle recognition device 3 is a component that the vehicle recognition device 1 does not include, the vehicle type identification means 31 for specifying the vehicle type of the vehicle shown in the captured image, the tip position in the captured image of the vehicle shown in the captured image, and the tip position in the captured image. The vehicle position specifying means 32 for specifying the rear end position and the vehicle detecting means 33 for virtually detecting the existence of the vehicle in a predetermined position in the real space shown in the captured image are provided.

また、車両認識装置3の記憶手段12には、車両認識装置1の記憶手段12に記憶されていないデータテーブルとして、車種テーブルと、複数の車種の各々に応じた車両位置テーブルが記憶されている。 Further, the storage means 12 of the vehicle recognition device 3 stores a vehicle type table and a vehicle position table corresponding to each of the plurality of vehicle types as data tables that are not stored in the storage means 12 of the vehicle recognition device 1. ..

図8は車種テーブルの構成例を示した図である。車種テーブルは複数の車種の各々に応じたデータレコードの集まりであり、データフィールド[車種]、[窓領域]、[車両領域]等を有する。データフィールド[車種]には、車種(乗用車、バス等)を示すデータが格納される。データフィールド[窓領域]には、対応する車種の車両を撮像した撮像画像から認識される窓領域の形状および大きさを示すデータが格納される。データフィールド[車両領域]には、対応する車種の車両を撮像した撮像画像から特定される車両領域の形状、大きさ、窓領域との位置関係を示すデータが格納される。 FIG. 8 is a diagram showing a configuration example of a vehicle type table. The vehicle type table is a collection of data records corresponding to each of a plurality of vehicle types, and has data fields [vehicle type], [window area], [vehicle area], and the like. Data indicating the vehicle type (passenger car, bus, etc.) is stored in the data field [vehicle type]. In the data field [window area], data indicating the shape and size of the window area recognized from the captured image of the vehicle of the corresponding vehicle type is stored. In the data field [vehicle area], data showing the shape, size, and positional relationship with the window area of the vehicle area specified from the captured image of the vehicle of the corresponding vehicle type is stored.

図9は車両位置テーブルの構成例を示した図である。既述のように、記憶手段12には複数の車種の各々に応じた車両位置テーブルが記憶されている。車両位置テーブルは、撮像画像に映っている車両の窓領域の前端位置と、撮像画像における当該車両の前端位置および後端位置との関係を示すデータの集まりである。撮像画像にける窓領域の前端位置と車両の前端位置および後端位置は、撮像画像における車両の前後方向の位置に応じて変化する。従って、車両位置テーブルは、様々な窓領域の前端位置に応じたデータレコードを含んでいる。 FIG. 9 is a diagram showing a configuration example of a vehicle position table. As described above, the storage means 12 stores the vehicle position table corresponding to each of the plurality of vehicle types. The vehicle position table is a collection of data showing the relationship between the front end position of the window region of the vehicle shown in the captured image and the front end position and the rear end position of the vehicle in the captured image. The front end position of the window region and the front end position and the rear end position of the vehicle in the captured image change according to the position in the front-rear direction of the vehicle in the captured image. Therefore, the vehicle position table contains data records corresponding to the front edge positions of the various window areas.

図10は、定点カメラ2により撮像される画像における車両の前端位置および後端位置と窓領域との位置関係を説明するための図である。図10は、定点カメラ2により右斜め上から撮像される車両を走行方向の右側面から見た状態を示している。図10の例では、車両V1と後続の車両V2が定点カメラ2により撮像されている。 FIG. 10 is a diagram for explaining the positional relationship between the front end position and the rear end position of the vehicle and the window region in the image captured by the fixed point camera 2. FIG. 10 shows a state in which a vehicle imaged from diagonally above right by the fixed point camera 2 is viewed from the right side surface in the traveling direction. In the example of FIG. 10, the vehicle V 1 and the following vehicle V 2 are imaged by the fixed point camera 2.

点F1は車両V1の前端位置を示す点であり、点R1は車両V1の後端位置を示す点である。点f1は車両V1の窓の前端位置を示す点であり、点r1は車両V1の窓の後端位置を示す点である。点F2は車両V2の前端位置を示す点であり、点R2は車両V2の後端位置を示す点である。点f2は車両V2の窓の前端位置を示す点であり、点r2は車両V2の窓の後端位置を示す点である。また、点L2は車両の感知を行う所定位置を示す点である。 Point F 1 is a point indicating the front end position of the vehicle V 1 , and point R 1 is a point indicating the rear end position of the vehicle V 1. The point f 1 is a point indicating the front end position of the window of the vehicle V 1 , and the point r 1 is a point indicating the rear end position of the window of the vehicle V 1. Point F 2 is a point indicating the front end position of the vehicle V 2 , and point R 2 is a point indicating the rear end position of the vehicle V 2. Point f 2 is a point indicating the front end position of the window of the vehicle V 2 , and point r 2 is a point indicating the rear end position of the window of the vehicle V 2. Further, the point L 2 is a point indicating a predetermined position for detecting the vehicle.

上述した各点は実際には立体空間内に配置されているが、定点カメラ2により撮像された画像においては平面内に配置されることになる。定点カメラ2により撮像される画像を平面Pにおいた場合、例えば、車両V1の前端位置を示す点F1の撮像画像における位置は、実空間における点F1と定点カメラ2とを結ぶ直線と平面Pとの交点の位置となる。他の点(点R1等)に関しても同様である。 Although the above-mentioned points are actually arranged in the three-dimensional space, they are arranged in the plane in the image captured by the fixed point camera 2. When the image captured by the fixed point camera 2 is placed on the plane P, for example, the position of the point F 1 indicating the front end position of the vehicle V 1 in the captured image is a straight line connecting the point F 1 and the fixed point camera 2 in the real space. It is the position of the intersection with the plane P. The same applies to other points (point R 1, etc.).

図7に戻り、車両認識装置3の構成の説明を続ける。車両認識装置3の記憶手段12には、窓IDで識別される車両毎に車種特定手段31により特定された車種を示す車種データと、車両位置特定手段32により特定された車両の前端位置および後端位置を示す車両位置データが記憶される。車両認識装置3の記憶手段12には、これらのデータを格納するためのデータテーブルとして、図11に例示する構成の車両認識テーブルが記憶される。 Returning to FIG. 7, the description of the configuration of the vehicle recognition device 3 will be continued. The storage means 12 of the vehicle recognition device 3 contains vehicle type data indicating the vehicle type specified by the vehicle type identification means 31 for each vehicle identified by the window ID, and the front end position and the rear of the vehicle specified by the vehicle position identification means 32. Vehicle position data indicating the end position is stored. The storage means 12 of the vehicle recognition device 3 stores a vehicle recognition table having a configuration illustrated in FIG. 11 as a data table for storing these data.

車両認識装置3の記憶手段12に記憶される車両認識テーブルは、窓IDで識別される窓の各々に応じたデータレコードの集まりであり、データフィールド[窓ID]、[車種]、[車両前端]、[車両後端]等を有する。データフィールド[窓ID]には窓領域を識別する窓IDが格納される。データフィールド[車種]には、車種特定手段31により特定された車種(乗用車、バス等)を示すデータが格納される。データフィールド[車両前端]および[車両後端]には、車両位置特定手段32により特定された車両の前端位置および後端位置を示すデータが格納される。 The vehicle recognition table stored in the storage means 12 of the vehicle recognition device 3 is a collection of data records corresponding to each of the windows identified by the window ID, and the data fields [window ID], [vehicle type], and [vehicle front end]. ], [Rear end of vehicle], etc. A window ID that identifies the window area is stored in the data field [window ID]. In the data field [vehicle type], data indicating a vehicle type (passenger car, bus, etc.) specified by the vehicle type specifying means 31 is stored. Data indicating the front end position and the rear end position of the vehicle specified by the vehicle position specifying means 32 are stored in the data fields [vehicle front end] and [vehicle rear end].

続いて、車両認識装置3の動作を説明する。図12は車両認識装置3が定点カメラ2から送信されてくる撮像画像データを受信し記憶する毎に行う処理のフローを例示した図である。図12に示すステップS101〜S107は、図6に示した車両認識装置1が行うステップS101〜S107と同じ処理である。 Subsequently, the operation of the vehicle recognition device 3 will be described. FIG. 12 is a diagram illustrating a flow of processing performed each time the vehicle recognition device 3 receives and stores captured image data transmitted from the fixed point camera 2. Steps S101 to S107 shown in FIG. 12 are the same processes as steps S101 to S107 performed by the vehicle recognition device 1 shown in FIG.

図13は定点カメラ2により撮像された画像を例示した図である。図13に例示の画像I3が撮像された状況においては、車両V1と車両V2の車間間隔が図10に例示した状態よりも短く、画像I3には車両V2の一部が車両V1により遮られて映っていない。 FIG. 13 is a diagram illustrating an image captured by the fixed point camera 2. In situations where exemplary image I 3 taken in FIG. 13, shorter than the state in which inter-vehicle distance of the vehicle V 1 and the vehicle V 2 is illustrated in FIG. 10, a portion of the vehicle V 2 is the image I 3 is the vehicle It is blocked by V 1 and is not reflected.

図14は画像I3に関しステップS101において車両領域特定手段13が特定した車両領域C3と、画像I3に関しステップS103において画像認識手段14が認識した窓領域W4およびW5を示した図である。 Figure 14 is a vehicle area C 3 of the vehicle region specifying means 13 is specified in step S101 relates to an image I 3, it relates to an image I 3 in view the image recognition unit 14 has shown the window area W 4 and W 5 recognized in step S103 be.

上記のように、車両領域と窓領域が特定されている状態において、車種特定手段31は車種テーブル(図8)を参照して、窓領域の各々に関し車種を特定する(ステップS201)。車種特定手段31は、まず、窓領域W4に関し車種の特定を行う。具体的には、車種特定手段31は窓領域W4の位置に応じて窓領域W4の形状および大きさを所定の変換式(または変換テーブル)に従い標準位置における形状および大きさに変換する。続いて、車種特定手段31は、車種テーブルから、データフィールド[窓領域]に格納されるデータが示す窓領域の形状および大きさが、変換後の窓領域W4の形状および大きさとの間で所定の閾値以上の類似度を示すデータレコードを抽出する。 As described above, in the state where the vehicle area and the window area are specified, the vehicle type specifying means 31 refers to the vehicle type table (FIG. 8) and specifies the vehicle type for each of the window areas (step S201). Vehicle type specifying means 31 first performs a specific model relates the window area W 4. Specifically, vehicle type identification unit 31 converts the shape and size at the standard position the shape and size of the window region W 4 predetermined conversion formula in accordance (or a conversion table) depending on the position of the window area W 4. Subsequently, vehicle type identification unit 31, from the vehicle type table, the shape and size of the window region indicated by the data stored in the data field window region] is between the shape and size of the window region W 4 after conversion A data record showing a degree of similarity equal to or higher than a predetermined threshold is extracted.

続いて、車種特定手段31は抽出したデータレコードのデータフィールド[車両領域]に格納されるデータが示す車両領域が、車両位置特定手段32により特定されている車両領域C3と重なる比率が所定の閾値以上であるか否かを判定する。図15は、窓領域W4に関し車種テーブルから抽出されたデータレコードのデータフィールド[車両領域]に示される形状、大きさおよび位置の車両領域Y1を、車両領域特定手段13により特定されている車両領域C3に重ねて表示した図である。車種特定手段31は、車両領域C3と重なる部分の比率が最も高い車両領域Y1を示すデータをデータフィールド[車両領域]に格納するデータレコードを選択する。このように選択したデータレコードのデータフィールド[車種]に格納されているデータが示す車種が、車種特定手段31により窓領域W4に関し特定された車種となる。 Subsequently, the vehicle type specifying means 31 has a predetermined ratio in which the vehicle area indicated by the data stored in the data field [vehicle area] of the extracted data record overlaps with the vehicle area C 3 specified by the vehicle position specifying means 32. Determine if it is greater than or equal to the threshold. In FIG. 15, the vehicle area Y 1 having the shape, size, and position shown in the data field [vehicle area] of the data record extracted from the vehicle type table with respect to the window area W 4 is specified by the vehicle area specifying means 13. is a diagram which is displayed over the vehicle area C 3. The vehicle type specifying means 31 selects a data record for storing data indicating the vehicle area Y 1 having the highest ratio of the portion overlapping the vehicle area C 3 in the data field [vehicle area]. The vehicle type indicated by the data stored in the data field [vehicle type] of the data record selected in this way is the vehicle type specified with respect to the window area W 4 by the vehicle type specifying means 31.

車種特定手段31は、続いて、窓領域W5に関し、窓領域W4と同様に車種の特定を行う。車種特定手段31により特定された車種を示すデータは、車両認識テーブル(図11)の窓領域W4およびW5に応じたデータレコードのデータフィールド[車種]に格納される。 Vehicle type specifying means 31, subsequently, relates window region W 5, performs a specific vehicle type as well as the window area W 4. The data indicating the vehicle type specified by the vehicle type specifying means 31 is stored in the data field [vehicle type] of the data record corresponding to the window areas W 4 and W 5 of the vehicle recognition table (FIG. 11).

車種特定手段31による車種の特定が完了すると、車両位置特定手段32は窓領域W4およびW5の各々に関し、特定された車種に応じた車両位置テーブル(図9)を参照して、車両位置の特定を行う(ステップS202)。具体的には、車両位置特定手段32は、まず、窓領域W4の車種に応じた車両位置テーブルに含まれるデータレコードの中から、データフィールド[窓前端]に格納されているデータが、窓領域W4の画像における前端位置f1を示すデータレコードを検索する。このように検索したデータレコードのデータフィールド[車両前端]および[車両後端]に格納されているデータが示す位置が、車両位置特定手段32により特定された車両の前端位置および後端位置となる。 When the vehicle type identification by the vehicle type identification means 31 is completed, the vehicle position identification means 32 refers to the vehicle position table (FIG. 9) according to the specified vehicle type for each of the window areas W 4 and W 5, and the vehicle position. Is specified (step S202). Specifically, in the vehicle position specifying means 32, first, from the data records included in the vehicle position table corresponding to the vehicle type in the window area W 4 , the data stored in the data field [window front end] is displayed in the window. The data record indicating the front end position f 1 in the image of the area W 4 is searched. The positions indicated by the data stored in the data fields [vehicle front end] and [vehicle rear end] of the data record searched in this way are the front end position and the rear end position of the vehicle specified by the vehicle position specifying means 32. ..

車両位置特定手段32は、続いて、窓領域W5に関し、窓領域W4と同様に車両の前端位置および後端位置の特定を行う。車両位置特定手段32により特定された車両の前端位置および後端位置を示すデータは、車両認識テーブル(図11)の窓領域W4およびW5に応じたデータレコードのデータフィールド[車両前端]および[車両後端]に格納される。 Vehicle position specifying means 32, subsequently, relates window region W 5, performs a specific front end position and rear end position of the vehicle as well as the window area W 4. The data indicating the front end position and the rear end position of the vehicle specified by the vehicle position specifying means 32 are the data fields [vehicle front end] of the data record corresponding to the window areas W 4 and W 5 of the vehicle recognition table (FIG. 11). It is stored in the [rear end of the vehicle].

図16は、窓領域W4に関し車両位置特定手段32により特定された車両の前端位置F1および後端位置R1と、窓領域W5に関し車両位置特定手段32により特定された車両の前端位置F2および後端位置R2を、窓領域W4の前端位置f1および窓領域W5の前端位置f2とともに示した図である。前端位置F1から後端位置R1に至る範囲が窓領域W4に応じた車両により占有される範囲であり、前端位置F2から後端位置R2に至る範囲が窓領域W5に応じた車両により占有される範囲である。 FIG. 16 shows the front end position F 1 and the rear end position R 1 of the vehicle specified by the vehicle position specifying means 32 with respect to the window area W 4, and the front end position of the vehicle specified by the vehicle position identifying means 32 with respect to the window area W 5. F 2 and the rear end position R 2 are shown together with the front end position f 1 of the window area W 4 and the front end position f 2 of the window area W 5. The range from the front end position F 1 to the rear end position R 1 is the range occupied by the vehicle corresponding to the window area W 4 , and the range from the front end position F 2 to the rear end position R 2 corresponds to the window area W 5. It is the range occupied by the vehicle.

続いて、車両感知手段33は、図16においてラインL2で示される所定位置(車両の前後方向における所定位置)が、ステップS202において特定されたいずれかの車両の前端位置と後端位置の間に有るか否かを判定する(ステップS203)。 Subsequently, the vehicle sensing means 33, a predetermined position indicated by the line L 2 in FIG. 16 (a predetermined position in the longitudinal direction of the vehicle) is between the front end position and rear end position of any vehicle that is specified in step S202 (Step S203).

ステップS203の判定において、ラインL2で示される所定位置がいずれかの車両の前端位置と後端位置の間に有ると判定した場合(ステップS203;Yes)、車両感知手段33は車両を感知する(ステップS204)。一方、ステップS203の判定において、ラインL2で示される所定位置がいずれの車両の前端位置と後端位置の間にも無いと判定した場合(ステップS203;No)、車両感知手段33は車両を感知しない(ステップS205)。 In the determination of step S203, when it is determined that the predetermined position indicated by the line L 2 is between the front end position and the rear end position of any vehicle (step S203; Yes), the vehicle sensing means 33 detects the vehicle. (Step S204). On the other hand, in the determination of step S203, when it is determined that the predetermined position indicated by the line L 2 is not between the front end position and the rear end position of any vehicle (step S203; No), the vehicle sensing means 33 determines the vehicle. Not detected (step S205).

続いて、出力手段16は外部の装置に対し、ステップS204またはS205で行われた車両の感知に応じた感知信号を出力する(ステップS206)。以上が、車両認識装置3により行われる処理の説明である。 Subsequently, the output means 16 outputs a detection signal corresponding to the detection of the vehicle performed in step S204 or S205 to the external device (step S206). The above is a description of the processing performed by the vehicle recognition device 3.

図17は走行している実車両の位置と、撮像画像における窓および車両の前端・後端の位置と、車両認識装置3により出力される感知信号の出力タイミング(感知信号が示す感知、非感知の切り替えタイミング)との関係を示した図である。図17において、横軸は時間軸であり、左から右へと時間が経過している。 FIG. 17 shows the position of the actual vehicle in motion, the positions of the windows and the front and rear ends of the vehicle in the captured image, and the output timing of the sensing signal output by the vehicle recognition device 3 (sensing and non-sensing indicated by the sensing signal). It is a figure which showed the relationship with the switching timing). In FIG. 17, the horizontal axis is the time axis, and time elapses from left to right.

図17の第1列の図は、時刻t1、t2、t3、t4の各々において、ラインL2で示される所定位置の付近を走行している実車両を右側面から見た図である。なお、図17の第1列の図において、車両は左から右へと走行している。また、時刻t1は、車両V1の先端位置がラインL2に到達した時刻であり、時刻t2は、車両V1の後端位置がラインL2に到達した時刻であり、時刻t3は、車両V3の先端位置がラインL2に到達した時刻であり、時刻t4は、車両V2の後端位置がラインL2に到達した時刻である。 The figure in the first column of FIG. 17 is a view from the right side of an actual vehicle traveling near a predetermined position indicated by line L 2 at each of time t 1 , t 2 , t 3 , and t 4. Is. In the figure of the first row of FIG. 17, the vehicle is traveling from left to right. The time t 1 is the time at which the leading end position of the vehicle V 1 is reached the line L 2, the time t 2 is the time at which the rear end position of the vehicle V 1 is reached the line L 2, time t 3 Is the time when the tip position of the vehicle V 3 reaches the line L 2 , and time t 4 is the time when the rear end position of the vehicle V 2 reaches the line L 2.

図17の第2列の図は、定点カメラ2により撮像された画像において認識された窓領域と、窓領域に基づき特定された車両の前端位置および後端位置を示した図である。なお、窓領域W4は車両V1の窓の領域であり、窓領域W5は車両V2の窓の領域である。 The second column of FIG. 17 is a diagram showing a window region recognized in the image captured by the fixed point camera 2 and the front end position and the rear end position of the vehicle specified based on the window region. The window area W 4 is the window area of the vehicle V 1 , and the window area W 5 is the window area of the vehicle V 2 .

図17の第3列の図は、出力手段16から出力される感知信号の出力タイミングを示した図である。図17に示されるように、窓領域W4に基づき特定された車両の前端位置と後端位置の間にラインL2がある間と、窓領域W5に基づき特定された車両の前端位置と後端位置の間にラインL2がある間には車両が有ることを示す感知信号が出力され、それ以外の期間には車両が無いことを示す感知信号が出力される。その結果、実空間においていずれかの車両がラインL2に応じた所定位置に有る間は車両認識装置3から車両が有ることを示す感知信号が出力され、それ以外の期間には車両が無いことを示す感知信号が出力されることになる。 The figure in the third column of FIG. 17 is a diagram showing the output timing of the sensing signal output from the output means 16. As shown in FIG. 17, while the line L 2 is between the front end position and the rear end position of the vehicle specified based on the window area W 4 , and the front end position of the vehicle specified based on the window area W 5. A sensing signal indicating that there is a vehicle is output while the line L 2 is between the rear end positions, and a sensing signal indicating that there is no vehicle is output during other periods. As a result, the vehicle recognition device 3 outputs a detection signal indicating that the vehicle is present while one of the vehicles is in a predetermined position according to the line L 2 in the real space, and there is no vehicle during the other period. A sensing signal indicating is output.

車両認識装置3によれば、車両認識装置3から感知信号の入力を受ける外部の装置(例えば、信号機の制御装置)は、車両による道路の所定位置における占有率(車両が感知されている時間の比率)を特定することができる。 According to the vehicle recognition device 3, an external device (for example, a control device for a traffic light) that receives an input of a detection signal from the vehicle recognition device 3 is an occupancy rate (of the time when the vehicle is detected) at a predetermined position on the road by the vehicle. Ratio) can be specified.

[変形例]
上述した実施形態は様々に変形することができる。以下にそれらの変形の例を示す。なお、上述した実施形態および以下に示す変形例は適宜組み合わされてもよい。
[Modification example]
The above-described embodiment can be modified in various ways. Examples of these modifications are shown below. The above-described embodiment and the modifications shown below may be combined as appropriate.

(1)上述した第1実施形態において、車両認識装置1は所定位置を通過した車両の台数を計測する。これに代えて、車両認識装置1が、特定の時刻に撮像画像に映っている車両の台数を計測する構成が採用されてもよい。 (1) In the first embodiment described above, the vehicle recognition device 1 measures the number of vehicles that have passed a predetermined position. Instead of this, a configuration may be adopted in which the vehicle recognition device 1 measures the number of vehicles shown in the captured image at a specific time.

図18は、この変形例にかかる車両認識装置1が行う窓領域の特定の手順を説明するための図である。この変形例において、定点カメラ2は駐車場の全体を撮像する。なお、図18においては3台分の駐車スペースの駐車場の撮像画像が例示されているが、撮像範囲に含まれる駐車スペースの数は3つに限られない。 FIG. 18 is a diagram for explaining a specific procedure of a window region performed by the vehicle recognition device 1 according to this modification. In this modification, the fixed point camera 2 images the entire parking lot. Although the captured image of the parking lot of the parking space for three cars is illustrated in FIG. 18, the number of parking spaces included in the imaging range is not limited to three.

車両認識装置1は、駐車場に1台も車両が駐車されていない状態で定点カメラ2により撮像された画像である撮像画像I0を予め基準となる画像として記憶手段12に記憶している。 The vehicle recognition device 1 stores in the storage means 12 in advance a captured image I 0 , which is an image captured by the fixed point camera 2 in a state where no vehicle is parked in the parking lot, as a reference image.

まず、車両領域特定手段13は基準となる撮像画像I0と或る撮像時刻における撮像画像I4を比較し、それらの撮像画像の間の異なる領域を、例えば、車両領域C4として特定する。 First, the vehicle area specifying means 13 compares the reference captured image I 0 with the captured image I 4 at a certain imaging time, and identifies different regions between the captured images as, for example, the vehicle region C 4 .

続いて、画像認識手段14は、撮像画像I4のうち車両領域特定手段13により特定された車両領域C4において、フロントガラスの画像を認識する。その結果、例えば、窓領域W6、窓領域W7および窓領域W8が特定される。 Subsequently, the image recognition means 14 recognizes the image of the windshield in the vehicle area C 4 specified by the vehicle area identification means 13 in the captured image I 4. As a result, for example, the window area W 6 , the window area W 7, and the window area W 8 are specified.

車両台数計測手段15は、上記のように特定した窓領域の数を、撮像画像I4に映っている車両の台数として特定する。この場合、車両の台数は3台と特定される。 The vehicle number measuring means 15 specifies the number of the window regions specified as described above as the number of vehicles shown in the captured image I 4. In this case, the number of vehicles is specified as three.

(2)上述した実施形態において、定点カメラ2は定点カメラ2に近づいてくる車両を撮像する。定点カメラ2が撮像する車両の走行方向は任意に変更されてよい。例えば、定点カメラ2が定点カメラ2から遠ざかっていく車両を撮像する場合、画像認識手段14はフロントガラスに代えて、リアガラスを車両領域において認識すればよい。また、定点カメラ2が定点カメラ2の正面を横切る車両を撮像する場合、画像認識手段14はフロントガラスに代えて、サイドガラスを車両領域において認識すればよい。 (2) In the above-described embodiment, the fixed-point camera 2 images a vehicle approaching the fixed-point camera 2. The traveling direction of the vehicle captured by the fixed point camera 2 may be arbitrarily changed. For example, when the fixed-point camera 2 images a vehicle moving away from the fixed-point camera 2, the image recognition means 14 may recognize the rear glass in the vehicle region instead of the windshield. Further, when the fixed-point camera 2 images a vehicle crossing the front of the fixed-point camera 2, the image recognition means 14 may recognize the side glass in the vehicle region instead of the windshield.

(3)上述した実施形態において、画像認識手段14はフロントガラスを認識する。画像認識手段14が認識する特徴部分は、車両が共通して有する特徴部分である限り、その種別は限定されない。例えば、室外のバックミラー(フェンダーミラーまたはドアミラー)や室内のバックミラー等が画像認識手段14により認識されてもよい。また、本発明において、車両が共通して有する特徴部分とは、車両の画像に共通して含まれる特徴部分を意味する。従って、走行する車両の台数を計測する場合、運転席に必ず映る運転手もまた、車両が共通して有する特徴部分の一例である。 (3) In the above-described embodiment, the image recognition means 14 recognizes the windshield. The type of the feature portion recognized by the image recognition means 14 is not limited as long as it is a feature portion commonly possessed by the vehicle. For example, an outdoor rear-view mirror (fender mirror or door mirror), an indoor rear-view mirror, or the like may be recognized by the image recognition means 14. Further, in the present invention, the feature portion commonly possessed by the vehicle means the feature portion commonly included in the image of the vehicle. Therefore, when measuring the number of traveling vehicles, the driver who is always reflected in the driver's seat is also an example of the characteristic portion that the vehicles have in common.

なお、画像認識手段14が認識する特徴部分は、各車両が1つだけ備える特徴部分であることが望ましいが、各車両が同じ数だけ備える特徴部分であれば、その数は1つに限られない。例えば、室外のバックミラー(フェンダーミラーまたはドアミラー)は各車両が2つ備える特徴部分であるため、車両台数計測手段15は画像認識手段14により認識されたバックミラーの数の1/2を車両の台数としてカウントすることになる。 It is desirable that the feature portion recognized by the image recognition means 14 is a feature portion provided by each vehicle, but the number is limited to one if each vehicle has the same number of feature portions. No. For example, since the outdoor rearview mirror (fender mirror or door mirror) is a characteristic part provided by each vehicle, the vehicle number measuring means 15 uses 1/2 of the number of rearview mirrors recognized by the image recognition means 14 of the vehicle. It will be counted as the number of units.

(4)上述した第1実施形態において、車両認識装置1が台数を計測する対象の車両は全ての種類の車両である必要はなく、特定の種類の車両のみの台数が車両認識装置1により計測されてもよい。例えば、日本においては現在、概ね全てのタクシーの屋根の上に社名表示灯が設置されている。従って、画像認識手段14が社名表示灯を認識することによって、タクシーの台数が計測されてもよい。 (4) In the first embodiment described above, the target vehicles for which the vehicle recognition device 1 measures the number of vehicles need not be all types of vehicles, and the number of only specific types of vehicles is measured by the vehicle recognition device 1. May be done. For example, in Japan, company name indicators are currently installed on the roofs of almost all taxis. Therefore, the number of taxis may be measured by the image recognition means 14 recognizing the company name indicator light.

(5)上述した実施形態において、定点カメラ2により撮像される画像は、日光の当たり方や天気等によって大きく変化する。そのため、画像認識手段14が画像認識を行う際、時間帯、降雨の有無、照度等に応じて異なるリファレンス用特徴量データを用いる構成が採用されてもよい。この変形例によれば、画像認識の精度が高まり、結果として計測される車両の台数の精度が高まる。 (5) In the above-described embodiment, the image captured by the fixed-point camera 2 changes greatly depending on the sunlight, the weather, and the like. Therefore, when the image recognition means 14 performs image recognition, a configuration may be adopted in which different reference feature amount data are used depending on the time zone, the presence or absence of rainfall, the illuminance, and the like. According to this modification, the accuracy of image recognition is improved, and as a result, the accuracy of the number of vehicles measured is improved.

例えば、降雨の有無によって画像認識手段14が異なるリファレンス用特徴量データを用いる場合、車両認識装置1または車両認識装置3は支柱8等に取り付けられた降雨センサによる降雨の感知結果を示すデータを取得し、当該データが示す降雨の有無に応じて、晴天用と雨天用のいずれのリファレンス用特徴量データを用いるかを決定する。 For example, when the image recognition means 14 uses reference feature data in which the image recognition means 14 differs depending on the presence or absence of rainfall, the vehicle recognition device 1 or the vehicle recognition device 3 acquires data indicating a rainfall detection result by a rainfall sensor attached to a support column 8 or the like. Then, depending on the presence or absence of rainfall indicated by the data, it is determined whether to use the reference feature data for fine weather or rainy weather.

また、照度に応じて画像認識手段14が異なるリファレンス用特徴量データを用いる場合、車両認識装置1または車両認識装置3は支柱8等に取り付けられた照度センサによる照度の計測結果を示すデータを取得し、当該データが示す照度が含まれる照度帯に応じたリファレンス用特徴量データを用いる。 Further, when the image recognition means 14 uses different reference feature amount data depending on the illuminance, the vehicle recognition device 1 or the vehicle recognition device 3 acquires data indicating the measurement result of the illuminance by the illuminance sensor attached to the support column 8 or the like. Then, the reference feature amount data corresponding to the illuminance band including the illuminance indicated by the data is used.

(6)上述した実施形態において、車両認識装置1または車両認識装置3は定点カメラ2の近くに配置される。車両認識装置1または車両認識装置3の配置される場所は限定されず、例えば、定点カメラ2から遠隔の監視センター等に配置されてもよい。この場合、定点カメラ2には車両認識装置1または車両認識装置3にデータを送信する送信装置が接続され、定点カメラ2は送信装置を介して撮像画像データを車両認識装置1または車両認識装置3に送信する。 (6) In the above-described embodiment, the vehicle recognition device 1 or the vehicle recognition device 3 is arranged near the fixed point camera 2. The place where the vehicle recognition device 1 or the vehicle recognition device 3 is arranged is not limited, and may be arranged in, for example, a monitoring center remote from the fixed point camera 2. In this case, the fixed point camera 2 is connected to a transmission device that transmits data to the vehicle recognition device 1 or the vehicle recognition device 3, and the fixed point camera 2 transmits the captured image data to the vehicle recognition device 1 or the vehicle recognition device 3 via the transmission device. Send to.

(7)上述した実施形態において、車両認識装置1または車両認識装置3は1つの定点カメラ2から受信する撮像画像データを用いた車両の台数の計測または感知を行う。これに代えて、車両認識装置1または車両認識装置3が2以上の定点カメラ2の各々から撮像画像データを受信し、受信したそれらの撮像画像データを用いて、2以上の定点カメラ2の各々に関し当該定点カメラ2の撮像画像に映った車両の台数の計測または感知を行う構成が採用されてもよい。 (7) In the above-described embodiment, the vehicle recognition device 1 or the vehicle recognition device 3 measures or senses the number of vehicles using the captured image data received from one fixed point camera 2. Instead, the vehicle recognition device 1 or the vehicle recognition device 3 receives captured image data from each of the two or more fixed-point cameras 2, and uses the received captured image data to each of the two or more fixed-point cameras 2. A configuration for measuring or sensing the number of vehicles reflected in the image captured by the fixed-point camera 2 may be adopted.

(8)上述した実施形態において、車両領域は車両領域特定手段13により、2つの画像の比較の結果に基づき特定される。これに代えて、車両領域が画像認識手段14により画像認識によって特定されてもよい。この場合、記憶手段12には予め車両の画像の外縁部分の特徴量を示すリファレンス用特徴量データが記憶され、画像認識手段14はこのリファレンス用特徴量データを用いて認識した車両の外縁で囲まれる領域を、車両領域として特定する。 (8) In the above-described embodiment, the vehicle area is specified by the vehicle area specifying means 13 based on the result of comparison of the two images. Instead, the vehicle area may be identified by image recognition by the image recognition means 14. In this case, the storage means 12 stores in advance reference feature amount data indicating the feature amount of the outer edge portion of the vehicle image, and the image recognition means 14 is surrounded by the outer edge of the vehicle recognized using the reference feature amount data. The area to be specified is specified as a vehicle area.

この変形例において、画像認識手段14は複数の車両が重なり合った画像に関し、その外縁を認識するだけでよく、個々の車両を分離して認識する必要はない。従って、個々の車両が分離して認識される場合と比較し、高い精度で車両の台数の計測または感知が行われる。 In this modification, the image recognition means 14 only needs to recognize the outer edge of an image in which a plurality of vehicles are overlapped, and does not need to recognize each vehicle separately. Therefore, the number of vehicles is measured or sensed with higher accuracy than when individual vehicles are recognized separately.

(9)上述した実施形態の説明においては、定点カメラ2が撮像する画像には1車線を走行する車両のみが映るものとしたが、定点カメラ2が撮像する画像に複数車線を走行する車両が映ってもよい。この場合、車両認識装置1または車両認識装置3は、画像認識手段14により特定される個々の窓領域の移動の軌跡が通過する位置に基づき、車線毎に通過する車両の台数の計測または感知を行ってもよい。 (9) In the description of the above-described embodiment, it is assumed that the image captured by the fixed-point camera 2 shows only the vehicle traveling in one lane, but the image captured by the fixed-point camera 2 includes a vehicle traveling in a plurality of lanes. It may be reflected. In this case, the vehicle recognition device 1 or the vehicle recognition device 3 measures or senses the number of vehicles passing in each lane based on the position where the movement locus of each window region specified by the image recognition means 14 passes. You may go.

(10)上述した実施形態において、定点カメラ2は可視光を感知するセンサにより撮像を行う光学カメラであることが想定されている。これに代えて、もしくは加えて、定点カメラ2が赤外線等の可視光以外の電磁波を感知するセンサにより撮像を行ってもよい。例えば、定点カメラ2が、日中は可視光により撮像を行い、夜間は赤外線により撮像を行ってもよい。 (10) In the above-described embodiment, the fixed-point camera 2 is assumed to be an optical camera that captures images with a sensor that senses visible light. Alternatively or additionally, the fixed point camera 2 may perform imaging with a sensor that senses electromagnetic waves other than visible light such as infrared rays. For example, the fixed-point camera 2 may perform imaging with visible light during the day and with infrared light at night.

(11)上述した第1実施形態において、車両台数計測手段15は、窓領域の最下点が図5に破線で示される所定位置に到達した時点で、当該窓領域に応じた車両が実空間において所定位置に到達したものとする構成が採用されている。これに代えて、例えば、窓領域の最上点や重心等が所定位置に到達した時点で、当該窓領域に応じた車両が実空間において所定位置に到達したものとする構成が採用されてもよい。 (11) In the first embodiment described above, in the vehicle number measuring means 15, when the lowest point of the window region reaches a predetermined position shown by a broken line in FIG. 5, the vehicle corresponding to the window region is in the actual space. The configuration is adopted in which it is assumed that the predetermined position has been reached. Instead of this, for example, a configuration may be adopted in which the vehicle corresponding to the window area reaches the predetermined position in the real space when the highest point, the center of gravity, or the like of the window area reaches the predetermined position. ..

(12)上述した第1実施形態において、車両認識装置1は感知した車両の台数を示す車両台数データを、所定時間の経過毎に外部の装置に出力する。当該所定時間の長さは限定されず、例えば5分間、1日、1週間、1ヶ月等のいずれであってもよい。また、車両認識装置1が車両の感知結果を示すデータを外部の装置に出力するタイミングは、所定時間の経過毎に限られない。例えば、車両認識装置1は、車両が所定位置に到達したことを感知する毎に速やかに感知結果を示すデータを外部の装置に出力してもよい。 (12) In the first embodiment described above, the vehicle recognition device 1 outputs vehicle number data indicating the number of detected vehicles to an external device every time a predetermined time elapses. The length of the predetermined time is not limited, and may be, for example, 5 minutes, 1 day, 1 week, 1 month, or the like. Further, the timing at which the vehicle recognition device 1 outputs data indicating the detection result of the vehicle to the external device is not limited to each predetermined time. For example, the vehicle recognition device 1 may promptly output data indicating a detection result to an external device each time it detects that the vehicle has reached a predetermined position.

例えば、車両認識テーブル(図3)のデータフィールド[到達時刻]に新たに時刻データが格納される毎に、出力手段16が、当該時刻データの格納されたデータレコードを外部の装置に出力する構成が採用されてもよい。なお、この構成において、車両認識装置1は車両の台数のカウントを行う必要はなく、車両認識装置1から車両の感知結果を示すデータを受信する外部の装置が必要に応じて車両の台数のカウントを行う。 For example, every time time data is newly stored in the data field [arrival time] of the vehicle recognition table (FIG. 3), the output means 16 outputs the data record in which the time data is stored to an external device. May be adopted. In this configuration, the vehicle recognition device 1 does not need to count the number of vehicles, and an external device that receives data indicating the detection result of the vehicle from the vehicle recognition device 1 counts the number of vehicles as needed. I do.

(13)上述した第1実施形態において、車両認識装置1は車両が所定位置に到達した時刻を示すデータを車両認識テーブル(図3)に記憶する形式で車両の感知結果を記憶する。車両認識装置1が車両の感知結果を記憶する形式はこれに限られず、例えば基準時刻から現在に至るまでの期間に感知された車両の台数を示すカウンタの形式で車両の検知結果が記憶されてもよい。この変形例において、車両台数計測手段15は窓領域が所定位置に到達したことを感知すると、カウンタを1増加させる。なお、この変形例において用いられるカウンタは、所定の時刻(例えば日付の変わるタイミング)においてリセットされるカウンタ、最大値に至ると自動的にリセットされるリングカウンタ等のいずれであってもよい。 (13) In the first embodiment described above, the vehicle recognition device 1 stores the detection result of the vehicle in a format in which data indicating the time when the vehicle reaches a predetermined position is stored in the vehicle recognition table (FIG. 3). The format in which the vehicle recognition device 1 stores the detection result of the vehicle is not limited to this. For example, the detection result of the vehicle is stored in the format of a counter indicating the number of vehicles detected in the period from the reference time to the present. May be good. In this modification, when the vehicle number measuring means 15 senses that the window area has reached a predetermined position, the counter is incremented by 1. The counter used in this modification may be either a counter that is reset at a predetermined time (for example, a timing when the date changes), a ring counter that is automatically reset when the maximum value is reached, or the like.

(14)上述した第2実施形態において、車両位置特定手段32は、窓領域の前端位置を基準として車両の前端位置および後端位置を特定する。これに代えて、車両位置特定手段32が、窓領域の後端位置や前後方向における中間位置等の、前端位置以外の特徴点の位置を基準として車両の前端位置および後端位置を特定する構成が採用されてもよい。その場合、車両位置テーブル(図9)には、窓領域の前端位置を示すデータに代えて、それらの特徴点の位置を示すデータが格納される。 (14) In the second embodiment described above, the vehicle position specifying means 32 specifies the front end position and the rear end position of the vehicle with reference to the front end position of the window region. Instead of this, the vehicle position specifying means 32 specifies the front end position and the rear end position of the vehicle with reference to the positions of feature points other than the front end position, such as the rear end position of the window region and the intermediate position in the front-rear direction. May be adopted. In that case, the vehicle position table (FIG. 9) stores data indicating the positions of those feature points instead of the data indicating the front end positions of the window area.

(15)上述した第2実施形態において、車両位置特定手段32は車両位置テーブル(図9)を参照して、窓領域の前端位置に応じた車両の前端位置および後端位置を特定する。これに代えて、車両位置特定手段32が、窓領域の前端位置(またはそれに代わる特徴点の位置)を変数とする関数式に従い車両の前端位置および後端位置を特定する構成が採用されてもよい。 (15) In the second embodiment described above, the vehicle position specifying means 32 specifies the front end position and the rear end position of the vehicle according to the front end position of the window region with reference to the vehicle position table (FIG. 9). Instead of this, even if the vehicle position specifying means 32 specifies the front end position and the rear end position of the vehicle according to a functional expression in which the front end position (or the position of the feature point instead) of the window area is used as a variable. good.

(16)上述した第2実施形態において、車両認識装置3が出力する感知信号の態様は上述したものに限られない。例えば、車両の感知の開始タイミングに感知開始を示す信号を出力し、車両の感知の終了タイミングに感知終了を示す信号を出力する態様が採用されてもよい。 (16) In the second embodiment described above, the mode of the sensing signal output by the vehicle recognition device 3 is not limited to that described above. For example, a mode may be adopted in which a signal indicating the start of detection is output at the start timing of the detection of the vehicle and a signal indicating the end of detection is output at the end timing of the detection of the vehicle.

1…車両認識装置、2…定点カメラ、3…車両認識装置、6…交差点、7…信号機、8…支柱、11…撮像画像取得手段、12…記憶手段、13…車両領域特定手段、14…画像認識手段、15…車両台数計測手段、31…車種特定手段、32…車両位置特定手段、33…車両感知手段 1 ... Vehicle recognition device, 2 ... Fixed point camera, 3 ... Vehicle recognition device, 6 ... Intersection, 7 ... Traffic light, 8 ... Support, 11 ... Captured image acquisition means, 12 ... Storage means, 13 ... Vehicle area identification means, 14 ... Image recognition means, 15 ... Vehicle number measuring means, 31 ... Vehicle type identifying means, 32 ... Vehicle position identifying means, 33 ... Vehicle detecting means

Claims (6)

所定の撮像方向で異なる時刻に撮像した2枚の画像の比較の結果に基づき、画像中の移動した物が映っている1以上の領域の全てを車両領域として特定し、車両が共通して有する特徴部分を、特定された1以上の前記車両領域の各々において認識し、特定された1以上の前記車両領域の各々において認識された前記特徴部分の数に基づいて車両の台数を計測する
車両認識装置。
Based on the results of comparison of the two images captured at different times at a predetermined imaging direction, all of one or more regions where those who move in the image are reflected identified as the vehicle area, vehicles are commonly A vehicle that recognizes a characteristic portion having one or more in each of the specified vehicle regions and measures the number of vehicles based on the number of the characteristic portions recognized in each of the specified one or more vehicle regions. Recognition device.
前記計測した車両の台数を示すデータを出力する
請求項1に記載の車両認識装置。
The vehicle recognition device according to claim 1, which outputs data indicating the number of measured vehicles.
所定の撮像方向で異なる時刻に撮像した2枚の画像の比較の結果に基づき、画像中の移動した物が映っている1以上の領域の全てを車両領域として特定し、車両が共通して有する特徴部分を、特定された1以上の前記車両領域の各々において認識し、特定された1以上の前記車両領域の各々において認識された前記特徴部分に基づいて車両を感知する
車両認識装置。
Based on the results of comparison of the two images captured at different times at a predetermined imaging direction, all of one or more regions where those who move in the image are reflected identified as the vehicle area, vehicles are commonly A vehicle recognition device that recognizes a feature portion having a feature portion in each of the specified one or more vehicle regions and senses a vehicle based on the feature portion recognized in each of the specified one or more vehicle regions.
前記車両の感知に応じて感知信号を出力する
請求項3に記載の車両認識装置。
The vehicle recognition device according to claim 3, which outputs a detection signal in response to the detection of the vehicle.
前記特徴部分は車両の窓である
請求項1乃至4のいずれか1項に記載の車両認識装置。
The vehicle recognition device according to any one of claims 1 to 4, wherein the characteristic portion is a window of a vehicle.
複数の撮像時刻の各々において前記所定の撮像方向で撮像した複数の画像の各々に関し行った前記特徴部分の認識の結果に基づき移動する車両が所定位置に到達したことを検知し、当該検知の結果に基づき前記所定位置を通過した車両の台数を計測する
請求項1または2に記載の車両認識装置。
Based on the result of recognition of the feature portion performed for each of the plurality of images captured in the predetermined imaging direction at each of the plurality of imaging times, it is detected that the moving vehicle has reached a predetermined position, and the result of the detection. The vehicle recognition device according to claim 1 or 2, which measures the number of vehicles that have passed the predetermined position based on the above.
JP2016158238A 2016-08-10 2016-08-10 Vehicle recognition device Active JP6929030B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016158238A JP6929030B2 (en) 2016-08-10 2016-08-10 Vehicle recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016158238A JP6929030B2 (en) 2016-08-10 2016-08-10 Vehicle recognition device

Publications (2)

Publication Number Publication Date
JP2018026019A JP2018026019A (en) 2018-02-15
JP6929030B2 true JP6929030B2 (en) 2021-09-01

Family

ID=61193915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016158238A Active JP6929030B2 (en) 2016-08-10 2016-08-10 Vehicle recognition device

Country Status (1)

Country Link
JP (1) JP6929030B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06176293A (en) * 1992-12-10 1994-06-24 Omron Corp Image processing type traffic flow measuring device
JP2000348282A (en) * 1999-06-03 2000-12-15 Mitsubishi Electric Corp Vehicle detecting device
JP2004355293A (en) * 2003-05-29 2004-12-16 National Institute Of Advanced Industrial & Technology Signal controller and method therefor
JP5651414B2 (en) * 2010-09-16 2015-01-14 株式会社東芝 Vehicle detection device
JP2014010765A (en) * 2012-07-02 2014-01-20 Sumitomo Electric Ind Ltd Mobile object detector, image type sensor, and computer program
JP6316154B2 (en) * 2014-09-18 2018-04-25 株式会社東芝 Vehicle detection device, adjustment support device, vehicle detection method, and adjustment method

Also Published As

Publication number Publication date
JP2018026019A (en) 2018-02-15

Similar Documents

Publication Publication Date Title
CN106945660B (en) A kind of automated parking system
KR100201739B1 (en) Method for observing an object, apparatus for observing an object using said method, apparatus for measuring traffic flow and apparatus for observing a parking lot
US20200003573A1 (en) Top-down refinement in lane marking navigation
JP6838248B2 (en) Information processing device
CN112349144B (en) Monocular vision-based vehicle collision early warning method and system
KR20200127219A (en) Navigating a vehicle based on a detected barrier
EP2383679A1 (en) Detecting and recognizing traffic signs
AU2015352462B2 (en) Method of controlling a traffic surveillance system
CN102779430A (en) Vision based night-time rear collision warning system, controller, and method of operating the same
KR20140075787A (en) Device for assisting a driver driving a vehicle or for independently driving a vehicle
JP7072133B2 (en) Driver control operation quantification method and device based on the minimum action amount principle
CN109080640A (en) For providing the method for lethargic sleep alarm in vehicle
CN212220188U (en) Underground parking garage fuses positioning system
KR20190094152A (en) Camera system and method for capturing the surrounding area of the vehicle in context
CN107229906A (en) A kind of automobile overtaking's method for early warning based on units of variance model algorithm
JP3456339B2 (en) Object observation method, object observation device using the method, traffic flow measurement device and parking lot observation device using the device
CN103548069A (en) Method and apparatus for identifying a possible collision object
JP2008097279A (en) Vehicle exterior information display device
JPH11203589A (en) Traffic image pickup device and traffic monitoring device
JP2010276583A (en) Position measuring device for vehicles
JP5355209B2 (en) Navigation device, determination method and determination program for traveling lane of own vehicle
JP2012071833A (en) Display device for vehicle and image display control method for vehicle
JP2012071832A (en) Display device for vehicle and image display control method for vehicle
CN102303563A (en) System and method for prewarning front vehicle collision
JP2008046766A (en) Vehicle external information display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200526

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210810

R150 Certificate of patent or registration of utility model

Ref document number: 6929030

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150