JP2020013206A - Device for detecting two-wheeled vehicle from moving image/camera, program, and system - Google Patents

Device for detecting two-wheeled vehicle from moving image/camera, program, and system Download PDF

Info

Publication number
JP2020013206A
JP2020013206A JP2018133299A JP2018133299A JP2020013206A JP 2020013206 A JP2020013206 A JP 2020013206A JP 2018133299 A JP2018133299 A JP 2018133299A JP 2018133299 A JP2018133299 A JP 2018133299A JP 2020013206 A JP2020013206 A JP 2020013206A
Authority
JP
Japan
Prior art keywords
detection
motorcycle
area
data
bicycle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018133299A
Other languages
Japanese (ja)
Inventor
雄三 外山
Yuzo Toyama
雄三 外山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nihon Unisys Ltd
Original Assignee
Nihon Unisys Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nihon Unisys Ltd filed Critical Nihon Unisys Ltd
Priority to JP2018133299A priority Critical patent/JP2020013206A/en
Publication of JP2020013206A publication Critical patent/JP2020013206A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

To provide a device for accurately recognizing even a moving object such as a bicycle or a motorcycle or the like which appears very small.SOLUTION: A device for detecting a two-wheeled vehicle preliminarily designates a range in which dynamics are detected in a video obtained from a camera as a maximum area, and performs dynamics detection within the maximum area. By reducing/enlarging an area detected by the dynamics detection to a size suitable for an image recognition model such as a convolutional neural network learned by deep learning, a small object such a pedestrian, a bicycle, a motorcycle, or the like which appears small in the video is accurately identified.SELECTED DRAWING: Figure 1

Description

本発明は、動画やカメラからの二輪車を自動的に検知する装置、プログラム及びシステム(以下、「装置等」という。)に関する。具体的には、カメラからの映像や、記憶装置に記憶された動画、静止画ファイルから、人が乗った自転車やオートバイ等の二輪車を、深層学習に基づいて予め生成された二輪車検知モデルを用いて、人と自転車やオートバイ等の二輪車とを検知する精度を向上させた二輪車検知装置等に関する。   The present invention relates to an apparatus, a program, and a system (hereinafter, referred to as “apparatus or the like”) for automatically detecting a motorcycle or a motorcycle from a camera. Specifically, from a video from a camera, a moving image stored in a storage device, and a still image file, a motorcycle such as a bicycle or a motorcycle on which a person rides is determined using a motorcycle detection model generated in advance based on deep learning. In addition, the present invention relates to a motorcycle detection device and the like having improved accuracy in detecting a person and a motorcycle or a motorcycle.

近年、画像認識技術の向上に伴って、車両に搭載されたカメラで撮影された動画、静止画(以下、単に「映像」という。)から動体を検知し、自転車や二輪車およびそれらの乗員と歩行者を認識する画像認識装置(特許文献1)等の画像認識技術を用いて、カメラからの映像における動体を検知する手法の開発が盛んに行われている。   In recent years, with the improvement of image recognition technology, moving objects are detected from moving images and still images (hereinafter, simply referred to as “images”) taken by a camera mounted on a vehicle, and walking with a bicycle or a motorcycle and their occupants is performed. 2. Description of the Related Art A technique for detecting a moving object in an image from a camera using an image recognition technology such as an image recognition device (Patent Document 1) for recognizing a person has been actively developed.

カメラで撮影された映像から動体を検知する手法のその他の従来例としては、道路に存在する柱等に取り付けられたステレオカメラから得られる画像を用いて、歩行者や自転車等の対象物を検出し、対象物の位置や速度等の運動情報を推定する装置(特許文献2)や、車両の外部を撮像する撮像装置が撮像した画像データに基づいて、歩行者等の存在を認識した場合に、認識対象物である歩行者等の存在を他の車両を運転中のドライバに報知することができる障害物検出システム(特許文献3)等がある。   Another conventional method of detecting a moving object from an image captured by a camera is to detect an object such as a pedestrian or a bicycle by using an image obtained from a stereo camera attached to a pillar or the like on a road. Then, when the presence of a pedestrian or the like is recognized based on image data captured by a device for estimating motion information such as the position and speed of a target object (Patent Document 2) or an imaging device for capturing an image of the outside of a vehicle. There is an obstacle detection system (Patent Literature 3) and the like that can notify the driver of another vehicle of the presence of a pedestrian or the like as a recognition target object.

特許第4692344号公報Japanese Patent No. 4669344 特許第5075672号公報Japanese Patent No. 5075672 特開2006−312423号公報JP 2006-324423 A

これらの従来例で用いられた、動くもの(歩行者、自動車、二輪車等)を検知する手法は、道路脇の電柱や商店街に設置されたカメラで撮影された映像にも適用することができ、一定の期間内に検知された歩行者、自転車、自動車等の各種動体の数をカウントして、道路の交通量や商店街の通行量等を算出することが期待できる。   The method of detecting moving objects (pedestrians, automobiles, two-wheeled vehicles, etc.) used in these conventional examples can also be applied to video taken by telephone poles on the roadside or cameras installed in shopping streets. By counting the number of moving objects such as pedestrians, bicycles, and automobiles detected within a certain period, it is expected that traffic on a road, traffic on a shopping street, and the like can be calculated.

しかしながら、商店街や交差点に設置されたカメラは、撮影場所を引いた画で、つまり、俯瞰で撮影している場合があり、その場合、カメラで撮影された映像中の歩行者、自転車やオートバイの二輪車等の動体は、非常に小さく映っているため、車載カメラが撮影した比較的大きく映った動体を対象とするような上記従来例(特に、特許文献1、特許文献3)の動体検知手法では、映像中の動体が歩行者なのか、自転車やオートバイ等の二輪車なのか正確に認識することができないという問題が生じていた。   However, cameras installed at shopping streets and intersections sometimes take pictures with the shooting location subtracted, that is, a bird's-eye view, in which case, pedestrians, bicycles, motorcycles, etc. Since the moving object such as a two-wheeled vehicle is very small, the moving object detection method of the above-described conventional examples (particularly, Patent Documents 1 and 3) which targets a relatively large moving object photographed by a vehicle-mounted camera. Thus, there has been a problem that it is not possible to accurately recognize whether the moving object in the video is a pedestrian or a two-wheeled vehicle such as a bicycle or a motorcycle.

また、ステレオカメラを用いた従来例(特許文献2)では、監視領域を定めて、監視領域に存在する対象物領域を検知することで、比較的小さく映った対象物を検出することができるが、ステレオカメラを用いた映像を対象とするものであり、通常の1つのレンズのカメラで撮影された映像にそのままでは適用することはできない。   In a conventional example using a stereo camera (Patent Document 2), a relatively small target can be detected by defining a monitoring region and detecting a target region existing in the monitoring region. However, the method is intended for an image using a stereo camera, and cannot be directly applied to an image captured by a normal one-lens camera.

このような課題を解決するために、交差点や商店街に設置されたカメラ等の設備を、ステレオカメラ等の新たな設備に置き換えることが考えられるが、設備投資に費用がかかり現実的ではない。そのため、交差点や商店街に設置されたカメラ等の既存設備を置き換えることなく、既存設備をそのまま活かして、映像中の動態を検知して、それが何なのかを認識できる仕組みが必要となる。   In order to solve such a problem, it is conceivable to replace equipment such as a camera installed at an intersection or a shopping mall with new equipment such as a stereo camera, but this is not practical because it requires a cost for equipment investment. Therefore, there is a need for a mechanism capable of detecting the dynamics in a video and recognizing what it is by utilizing the existing facilities without replacing existing facilities such as cameras installed at an intersection or a shopping street.

そこで、本発明では、カメラから得られた映像において、動態検知により検出されたエリアを、深層学習により学習された畳み込みニューラルネットワーク(CNN)等の物体検出モデル(画像認識モデル)に適したサイズになるように縮小、拡大を行うことで、映像中において小さく映った歩行者、自転車及びオートバイ等の小さな対象物でも正確に識別できる装置等を提供する。   Therefore, in the present invention, in an image obtained from a camera, an area detected by dynamic detection is set to a size suitable for an object detection model (image recognition model) such as a convolutional neural network (CNN) learned by deep learning. A device or the like that can accurately identify even small objects such as pedestrians, bicycles, and motorcycles that appear small in an image by performing reduction and enlargement as much as possible.

本発明の1つの実施形態に係る二輪車検知装置は、
カメラで撮影された動画又は連続した静止画を含む映像データから動態を検知した検出エリアを抽出する動態検知部と
前記検出エリアに対応するデータを、物体検出モデルに入力して前記検出エリアにおける物体を検出する二輪車検出部と
を含み、
前記動態検知部は、前記検出エリアに対応するデータを予め設定されたサイズにおさめるために、拡大又は縮小の画像処理を行い、
前記二輪車検出部によって検出される前記物体は、少なくとも自転車及びオートバイを含む二輪車を含むことを特徴とする。
The motorcycle detection device according to one embodiment of the present invention includes:
A motion detection unit that extracts a detection area that detects a motion from video data including a moving image or a continuous still image captured by a camera, and data corresponding to the detection area are input to an object detection model, and an object in the detection area is input. And a motorcycle detecting unit for detecting
The dynamic state detection unit performs image processing of enlargement or reduction in order to reduce data corresponding to the detection area to a preset size,
The object detected by the motorcycle detection unit includes at least a motorcycle including a bicycle and a motorcycle.

本発明に係る二輪車検知装置の好ましい実施形態として、
前記物体検出モデルによって、前記検出エリアから少なくとも自転車及びオートバイを含む二輪車が検出された場合に、前記検出エリアに識別子を割り当てることを特徴とする。
As a preferred embodiment of the motorcycle detection device according to the present invention,
When a motorcycle including at least a bicycle and a motorcycle is detected from the detection area by the object detection model, an identifier is assigned to the detection area.

本発明に係る二輪車検知装置の好ましい実施形態として、
前記識別子は、今回抽出された前記検出エリアと、該検出エリアが抽出される前に、抽出されていた前回の検出エリアとを比較して、予め設定された個体識別用時間の範囲以内で、かつ、予め設定された個体識別用距離の範囲以内にある場合には、前記前回の検出エリアと同じ識別子であり、それ以外の場合には新たな識別子であることを特徴とする。
As a preferred embodiment of the motorcycle detection device according to the present invention,
The identifier, the detection area extracted this time, before the detection area is extracted, comparing the previous detection area was extracted, within the range of a preset individual identification time, When the distance is within the range of the individual identification distance set in advance, the identifier is the same as the previous detection area, and otherwise, the identifier is a new identifier.

本発明に係る二輪車検知装置の好ましい実施形態として、
前記検出エリアは、予め設定された検出最大エリア以内であり、かつ、予め設定された検出最小エリア以上の範囲内の差分エリアデータであり、
前記差分エリアデータは、前記映像データのフレームと後続フレームとの差分を抽出した差分データの輪郭から内側をエリアとしたデータであることを特徴とする。
As a preferred embodiment of the motorcycle detection device according to the present invention,
The detection area is a difference area data within a predetermined detection maximum area and a range equal to or more than a predetermined detection minimum area,
The difference area data is characterized in that the difference area data is data having an area inside the contour of difference data obtained by extracting a difference between a frame of the video data and a subsequent frame.

本発明に係る二輪車検知装置の好ましい実施形態として、
前記差分データは、膨張又は収縮の画像処理により、なめらかな画像に加工されたこと
を特徴とする。
As a preferred embodiment of the motorcycle detection device according to the present invention,
The differential data is processed into a smooth image by image processing of expansion or contraction.

本発明に係る二輪車検知装置の好ましい実施形態として、
前記検出エリアは、画像解析され、明暗、コントラストの調整がなされていること
を特徴とする。
As a preferred embodiment of the motorcycle detection device according to the present invention,
The detection area is characterized in that an image is analyzed and brightness and contrast are adjusted.

本発明に係る二輪車検知装置の好ましい実施形態として、
前記検出エリアは、前記識別子に対応するIDに加えて、検出時刻、自転車かオートバイかを表す種別、検出エリアの中心点座標、検出エリアの面積を記録したレコードとして検知データベースに記憶されることを特徴とする。
As a preferred embodiment of the motorcycle detection device according to the present invention,
The detection area is stored in the detection database as a record in which, in addition to the ID corresponding to the identifier, a detection time, a type representing a bicycle or a motorcycle, coordinates of a center point of the detection area, and an area of the detection area are recorded. Features.

本発明に係る二輪車検知装置の好ましい実施形態として、
前記検知データベースにおいて、前記ID毎に前記検出時刻の古いレコードから前記検出時刻の新しいレコードまでの前記中心点座標の移動の軌跡に基づいて、前記種別で表される自転車又はオートバイの進行方向を判別することを特徴とする。
As a preferred embodiment of the motorcycle detection device according to the present invention,
In the detection database, a traveling direction of a bicycle or a motorcycle represented by the type is determined based on a locus of movement of the center point coordinates from an old record at the detection time to a new record at the detection time for each ID. It is characterized by doing.

本発明に係る二輪車検知装置の好ましい実施形態として、
前記検知データベースにおいて、前記IDで特定される複数のレコードから、時系列的に最初に記録されたレコードにおける中心点座標を始点とし、最後に記録されたレコードにおける中心点座標を終点とし、前記始点と前記終点を、予め設定された射影変換座標に基づいて、射影変換を行い、
前記射影変換の後の前記始点と前記終点の座標から予め設定されたピクセル間距離に基づいて推定距離を算出し、前記始点を含むレコードに記録された検出時刻と前記終点を含むレコードに記録された検出時刻から、移動時間を算出して、前記種別で表される自転車又はオートバイの通過速度を推定し、
前記予め設定された射影変換座標は、前記カメラで撮影される景色を真上からみたように射影した座標であることを特徴とする。
As a preferred embodiment of the motorcycle detection device according to the present invention,
In the detection database, from a plurality of records specified by the ID, a center point coordinate in a record recorded first in time series is set as a start point, and a center point coordinate in a record recorded last is set as an end point. And the end point, perform a projective transformation based on a preset projective transformation coordinate,
Calculate an estimated distance based on the distance between pixels set in advance from the coordinates of the start point and the end point after the projective transformation, and the detection time is recorded in the record including the start point and the record including the end point. From the detected time, the travel time is calculated, and the passing speed of the bicycle or motorcycle represented by the type is estimated,
The predetermined projective transformation coordinates are coordinates obtained by projecting a scene taken by the camera as viewed from directly above.

本発明に係る二輪車検知装置の好ましい実施形態として、
前記種別で表される自転車又はオートバイの前記通過速度と予め設定された乗車・降車判定速度とを比較して、乗車・降車状態を判定し、
前記通過速度が予め設定された乗車・降車判定速度以上であれば、前記乗車・降車状態は乗車であることを示し、
前記予め設定された乗車・降車判定速度未満であれば、前記乗車・降車状態は降車であることを示すことを特徴とする。
As a preferred embodiment of the motorcycle detection device according to the present invention,
By comparing the passing speed of the bicycle or motorcycle represented by the type with a preset boarding / disembarking determination speed, to determine the boarding / disembarking state,
If the passing speed is equal to or higher than a preset boarding / disembarking determination speed, the boarding / disembarking state indicates that the vehicle is boarding,
If the speed is lower than the predetermined boarding / disembarking determination speed, the boarding / disembarking state indicates that the vehicle is getting off.

本発明に係る二輪車検知装置の好ましい実施形態として、
前記進行方向、前記通過速度、前記乗車・降車状態に基づいて、単位時間あたりの方向別通行件数、方向別乗車・降車比率、方向別通行速度の少なくとも1つの値を算出することを特徴とする。
As a preferred embodiment of the motorcycle detection device according to the present invention,
Based on the traveling direction, the passing speed, and the boarding / disembarking state, at least one value of the number of traffic per unit time per direction, the boarding / dismounting ratio by direction, and the traveling speed by direction is calculated. .

本発明に係る二輪車検知装置の好ましい実施形態として、
前記物体検出モデルは、畳み込みニューラルネットワーク(CNN)であることを特徴とする。
As a preferred embodiment of the motorcycle detection device according to the present invention,
The object detection model is a convolutional neural network (CNN).

本発明の1つの実施形態に係る二輪車検知プログラムは、コンピュータによって実行させることで、前記コンピュータを前記二輪車検知装置として機能させることを特徴とする。   A two-wheeled vehicle detection program according to one embodiment of the present invention is characterized by being executed by a computer to cause the computer to function as the two-wheeled vehicle detection device.

本発明の1つの実施形態に係る二輪車検知システムは、カメラから動画又は連続した静止画データを取得して記憶する記憶装置と、該記憶装置とネットワークを介して接続され、前記プログラムを実行したコンピュータとを含むことを特徴とする。   A motorcycle detection system according to one embodiment of the present invention includes a storage device that acquires and stores moving image or continuous still image data from a camera, and a computer that is connected to the storage device via a network and executes the program. And characterized in that:

本発明に係る二輪車検知装置、方法及びプログラムを用いることで、交差点や商店街に設置されたカメラ等の設備を、新たな設備に置き換えることなく、既存設備をそのまま活かして、映像中の動態を検知して、検知したものが人なのか、自転車又はオートバイ等の二輪車なのかを認識することができる。   By using the motorcycle detection device, method and program according to the present invention, equipment such as a camera installed at an intersection or a shopping mall is not replaced with new equipment, and the existing equipment is used as it is to change the dynamics in the video. By detecting, it is possible to recognize whether the detected object is a person or a two-wheeled vehicle such as a bicycle or a motorcycle.

また、本発明を交差点や商店街に設置されたカメラから得られた映像データに適用することで、自転車、オートバイの各々の単位時間毎の方向別通行件数、方向別乗車・降車比率、方向別通行速度等、交差点や商店街における二輪車の通行量を時間帯毎に把握することができ、それにより、交差点や商店街を走行する二輪車の監視を自動化することができる。   In addition, by applying the present invention to video data obtained from cameras installed at intersections and shopping streets, the number of traffic of bicycles and motorcycles in each direction per unit time, the ratio of riding and getting off by direction, The amount of traffic of the motorcycle at an intersection or a shopping street such as a traffic speed can be grasped for each time zone, whereby the monitoring of the motorcycle traveling at the intersection or the shopping street can be automated.

本発明の一実施形態に係る二輪車検知システムにおける装置等の構成概要を示す図である。It is a figure showing the composition outline of the device etc. in the motorcycle detection system concerning one embodiment of the present invention. 本発明の一実施形態に係るコンピュータを二輪車検知装置として機能させるための動態検知分析プログラムの構成を示す図である。It is a figure showing composition of a movement detection analysis program for making a computer concerning one embodiment of the present invention function as a motorcycle detection device. 映像データの座標を射影変換した例を示す図である。FIG. 4 is a diagram illustrating an example of projective transformation of coordinates of video data. 映像データから動態を検知して検出エリアを特定する処理のフローチャートである。It is a flowchart of the process which detects a dynamic from video data and specifies a detection area. 映像データから動態を検知して検出エリアを特定するまでの処理の様子を示す図である。FIG. 4 is a diagram illustrating a state of processing from detecting dynamics from video data to specifying a detection area. 検出エリアの各々にIDを付与してID毎に検出エリアの動きを時系列的に追跡して検知データとして検知データベースに記憶する処理のフローチャートである。It is a flowchart of a process of assigning an ID to each of the detection areas, tracking the movement of the detection area for each ID in time series, and storing it as detection data in a detection database. 映像データにおいて検出エリアとされた部分と除外データとされた部分の概略図である。It is the schematic of the part set as the detection area and the part set as the exclusion data in video data. 本発明の一実施形態に係る二輪検知装置による動態検知分析の結果の例及び深層学習のみによる動態検知の結果の例を示す静止画像である。It is a still image which shows the example of the result of dynamic detection by the two-wheel detection apparatus which concerns on one Embodiment of this invention, and the example of the result of dynamic detection only by deep learning. 本発明の一実施形態に係る二輪検知装置による動態検知分析の結果の例及び深層学習のみによる動態検知の結果の例を示す静止画像である。It is a still image which shows the example of the result of dynamic detection by the two-wheel detection apparatus which concerns on one Embodiment of this invention, and the example of the result of dynamic detection only by deep learning.

以下に図面を参照して、本発明の一実施形態について説明する。なお、実施の形態を説明するための全ての図において、同一部分には原則として同一の符号を付し、その繰り返しの説明は省略する。   An embodiment of the present invention will be described below with reference to the drawings. In all the drawings for describing the embodiments, the same portions are denoted by the same reference numerals in principle, and the repeated description thereof will be omitted.

図1は、本発明の一実施形態に係る二輪車検知システムにおける装置等の構成概要を示す。本発明の二輪車検知システムは、二輪車検知装置10と防犯カメラ等のカメラ20とを含み、二輪車検知装置10の記憶装置30に記憶される映像データは、カメラ20で撮影されて記憶装置40に記憶された映像データである。例えば、カメラ20で撮影された動画又は連続した静止画(以下、単に「映像」という。)は、映像データとして一時的に記憶装置40に記憶され、ネットワークを介して、二輪車検知装置10に送信されて、記憶装置30に蓄積される。   FIG. 1 shows a schematic configuration of devices and the like in a motorcycle detection system according to an embodiment of the present invention. The motorcycle detection system of the present invention includes a motorcycle detection device 10 and a camera 20 such as a security camera, and video data stored in a storage device 30 of the motorcycle detection device 10 is captured by the camera 20 and stored in a storage device 40. Video data. For example, a moving image or a continuous still image (hereinafter, simply referred to as “video”) captured by the camera 20 is temporarily stored in the storage device 40 as video data and transmitted to the motorcycle detection device 10 via a network. The data is stored in the storage device 30.

図1に示す実施形態では、コンピュータに動態検知分析プログラム50を実行させることで、当該コンピュータを二輪車検知装置10として機能されるものであるが、これに限定されるものではなく、二輪車検知装置10の少なくとも一部の機能又は全部の機能を、特定用途向け集積回路(ASIC)等でハードウェア的に実装することも可能である。   In the embodiment shown in FIG. 1, the computer functions as the motorcycle detection device 10 by causing the computer to execute the movement detection analysis program 50, but is not limited thereto. It is also possible to implement at least a part or all of the functions in hardware by an application specific integrated circuit (ASIC) or the like.

動態検知分析プログラム50は、主に、画像処理による動態検知と深層学習による二輪車検知といった2つの機能を有しており、映像中の自転車及びオートバイ等の二輪車に加えて、人、自動車等の動くものを検知して、それらの移動速度、移動方向、通行量等を測定することができる。動態検知は、映像全体(すなわち、映像を映す画面全体)に対して行われる。検知されたエリアに対しは、ノイズ除去として、後述する検出最大エリア、検出最小エリアを使用する。動態検知分析プログラム50の各機能のより具体的な構成は、図2に示すとおりである。   The dynamic detection analysis program 50 mainly has two functions, that is, dynamic detection by image processing and motorcycle detection by deep learning. In addition to motorcycles such as bicycles and motorcycles in the video, movement of people, automobiles, and the like is performed. Objects can be detected and their moving speed, moving direction, traffic amount, and the like can be measured. The motion detection is performed on the entire image (that is, the entire screen on which the image is projected). For the detected area, a detection maximum area and a detection minimum area described later are used as noise removal. A more specific configuration of each function of the movement detection analysis program 50 is as shown in FIG.

図2は、本発明の一実施形態に係るコンピュータを二輪車検知装置として機能させるための動態検知分析プログラムの構成を示す。コンピュータを二輪車検知装置10として機能させる動態検知分析プログラム50は、画像処理による動態検知部51及び深層学習による二輪車検出部53を含む。動態検知部51及び二輪車検出部53は、動態検知分析プログラム50を実行したコンピュータ上で実現することができる。   FIG. 2 shows a configuration of a movement detection analysis program for causing a computer according to an embodiment of the present invention to function as a motorcycle detection device. The movement detection analysis program 50 that causes a computer to function as the motorcycle detection device 10 includes a movement detection unit 51 based on image processing and a motorcycle detection unit 53 based on deep learning. The movement detection unit 51 and the motorcycle detection unit 53 can be realized on a computer that has executed the movement detection analysis program 50.

画像処理による動態検知部51には、例えば、既存のオープンソースソフトウェア(OSS)である画像処理ライブラリOpenCVを使用し、深層学習による二輪車検出部53には、例えば、既存の物体検出アルゴリズムSSD:Single Shot MultiBox Detectorを使用することができる。深層学習には、例えば、既存の深層学習フレームワークのTensorFlow/Kerasを使用することができる。ただし、深層学習については、上述したフレームワークに限定されるものではなく、ニューラルネットワーク、認識アルゴリズムを特定する必要はなく、一般的な画像より物体認識できるものであれば使用可能である。また、図2に示す実施形態では、本発明の二輪車検出部を「深層学習による二輪車検出部53」としているが、これに限定されるものではなく、深層学習以外の方法で生成された物体検出モデルを用いることもできる。   For example, an image processing library OpenCV which is existing open source software (OSS) is used for the dynamic detection unit 51 by image processing, and the existing object detection algorithm SSD: Single is used for the motorcycle detection unit 53 by deep learning. A Shot MultiBox Detector can be used. For the deep learning, for example, an existing deep learning framework, TensorFlow / Keras, can be used. However, the deep learning is not limited to the above-described framework, and it is not necessary to specify a neural network or a recognition algorithm, and any method can be used as long as it can recognize an object from a general image. Further, in the embodiment shown in FIG. 2, the motorcycle detection unit of the present invention is referred to as “the motorcycle detection unit 53 based on deep learning”. However, the present invention is not limited to this, and the object detection generated by a method other than deep learning is not limited thereto. Models can also be used.

動態検知分析プログラム50に対して、ユーザは、以下の各種事前設定を行うことができる。   The user can make the following various pre-settings for the movement detection analysis program 50.

(1)検出最大エリア、検出最小エリア:
ユーザは映像データの動態として検出されたエリアを処理対象とするか否かを判別するために「検出最大エリア」、「検出最小エリア」を設定することができる。具体的には、検出最大エリア及び検出最小エリアを、面積または矩形座標で指定する。これら検出最大エリア及び検出最小エリアは、動態として検知したエリアを対象とするか、除外するかの判定に使用する。
(1) Maximum detection area, minimum detection area:
The user can set a “maximum detection area” and a “minimum detection area” to determine whether an area detected as the dynamics of video data is to be processed. Specifically, the maximum detection area and the minimum detection area are designated by area or rectangular coordinates. The detection maximum area and the detection minimum area are used to determine whether an area detected as dynamic is targeted or excluded.

(2)個体識別用時間:
ユーザは、動態検知により検出したエリアを、フレーム間で「同じ自転車か」否か、「同じオートバイか」否かなどの個体識別するための時間を「個体識別用時間」として設定することができる。動態検知分析プログラム50は、この設定値(秒)以下で、かつ「個体識別用距離」以内の検出エリアには、同じ個体としてID(識別子)を設定する。
(2) Individual identification time:
The user can set a time for identifying an individual such as “whether the same bicycle” or “the same motorcycle” between frames as an “individual identification time” for an area detected by dynamic detection. . The dynamic detection analysis program 50 sets an ID (identifier) as the same individual in a detection area that is equal to or less than the set value (second) and within the “distance for individual identification”.

(3)個体識別用距離:
ユーザは、動態検知により検出したエリアを、フレーム間で「同じ自転車か」否か、「同じオートバイか」否かなどの個体識別するための距離を「個体識別用距離」として設定することができる。動態検知分析プログラム50は、この設定値(ピクセル)以下で、かつ「個体識別用時間」以内の検出エリアには、同じ個体としてID(識別子)を設定する。
(3) Individual identification distance:
The user can set a distance for identifying an individual such as “whether the same bicycle” or “same motorcycle” between frames as an “individual identification distance” in an area detected by dynamic detection. . The movement detection analysis program 50 sets an ID (identifier) as the same individual in a detection area equal to or less than the set value (pixel) and within the “individual identification time”.

(4)乗車・降車判定速度:
ユーザは、検出エリア内の二輪車の乗車・降車状態を判定するために使用する「乗車・降車判定速度」を設定することができる。例えば、乗車状態を時速6km以上と設定することができる。
(4) Boarding / alighting judgment speed:
The user can set the "ride / get-off determination speed" used to determine the getting-on / off state of the motorcycle in the detection area. For example, the riding state can be set to 6 km / h or more.

(5)射影変換座標:
ユーザは、速度算出のための、画像の射影変換を行うための座標(変換元起点の4点座標、変換先起点の4点座標)を「射影変換座標」として設定することができる。図3には、映像データの座標を射影変換した例を示す。図3に示される例では、ユーザは変換元起点と変換先起点を設定することができる。例えば、映像イメージに示される十字の交差点の4つの角の座標を変換元起点として設定し、当該十字の交差点を真上から見える位置(座標)を変換先起点として設定している。射影変換前の二輪車等の物体の検出軌跡は、交差点の手前から奥へ又は奥から手前へと見えているが、射影変換後は、十字の交差点は真上からみたように変換され、検出軌跡は下から上へ又は上から下へと変換される。
(5) Projected transformation coordinates:
The user can set the coordinates for projective transformation of the image (four-point coordinates of the transformation source starting point and four-point coordinates of the transformation destination origin) for calculating the speed as “projection transformation coordinates”. FIG. 3 shows an example in which the coordinates of the video data are projected and transformed. In the example shown in FIG. 3, the user can set a conversion source start point and a conversion destination start point. For example, the coordinates of the four corners of the cross point of the cross shown in the video image are set as the conversion start points, and the position (coordinates) where the cross point of the cross can be seen from directly above is set as the conversion start point. The detection trajectory of the object such as a motorcycle before the projective transformation is seen from the front to the back of the intersection or from the back to the front, but after the projective transformation, the intersection of the cross is transformed as viewed from directly above, and the detected trajectory is detected. Is converted from bottom to top or top to bottom.

(6)ピクセル間距離:
ユーザは、速度算出ために射影変換を行った後の画像のピクセル間の距離を「ピクセル間距離」として設定することができる。
(6) Distance between pixels:
The user can set the distance between the pixels of the image after performing the projective transformation for calculating the speed as the “distance between pixels”.

(7)深層学習入力画像サイズ:
ユーザは、深層学習による二輪車検出部53に入力する画像のサイズを「深層学習入力画像サイズ」として設定することができる。動態検知分析プログラム50は、検出エリアの画像をこのサイズに合わせ拡大・縮小し、深層学習入力画像とすることができる。つまり、動態検知で動態として検知して切り出したエリア(検出エリア)が深層学習の入力画像となり、その入力の際に、この設定に従い入力画像サイズの調整を行うことができる。
(7) Deep learning input image size:
The user can set the size of the image input to the motorcycle detection unit 53 by the deep learning as the “deep learning input image size”. The dynamic detection analysis program 50 can enlarge or reduce the image of the detection area in accordance with this size to obtain a deep learning input image. In other words, the area (detection area) detected and cut out as the movement by the movement detection becomes the input image of the deep learning, and the input image size can be adjusted according to this setting at the time of the input.

(8)深層学習入力画像処理:
ユーザは、検出エリアの画像の、明暗を調整やコントラストを調整する設定を「深層学習入力画像処理」として設定することができる。例えば、輝度を調整する場合、補正を行うしきい値とガンマ補正値を設定する。
(8) Deep learning input image processing:
The user can set the setting for adjusting the contrast and the contrast of the image in the detection area as “deep learning input image processing”. For example, when adjusting luminance, a threshold value for performing correction and a gamma correction value are set.

動態検知分析プログラム50は、映像データから動態検知を行い、検知対象の動態検知したものに対し、深層学習により自転車・オートバイを識別し、「検知データ」を作成して、検知データを1レコードとして検知データベースに記憶する。映像データから「検知データ」を作成する手順は、図4及び図6のフローチャートに示される。   The dynamic detection analysis program 50 performs dynamic detection from the video data, identifies a bicycle / motorcycle by deep learning for the detected dynamic detection target, creates “detection data”, and sets the detection data as one record. Store in the detection database. The procedure for creating “detection data” from video data is shown in the flowcharts of FIGS.

図4は、映像データから動態を検知して検出エリアを特定する処理のフローチャートを示す。また、図5には、映像データから動態を検知して検出エリアを特定するまでの処理の様子を示す。図4及び図5を参照しながら、検出エリアを特定するまでの手順は次のとおりである。まず、映像データの現フレームと後続フレームの比較を行い、フレーム間の差分を抽出する(ステップS100)。次に、抽出した差分を白黒2値化した「差分データ」を作成する(ステップS101)。図5(a)に現フレームと後続フレームとの差分を抽出して白黒2値化する処理の様子をしめす。現フレームと後続フレームとが重なった部分を白色とし、重なっていない部分を黒色とする。   FIG. 4 shows a flowchart of a process of detecting a dynamic from video data and specifying a detection area. FIG. 5 shows a state of processing from detecting dynamics from video data to specifying a detection area. Referring to FIGS. 4 and 5, the procedure up to specifying the detection area is as follows. First, the current frame and the subsequent frame of the video data are compared, and a difference between the frames is extracted (step S100). Next, “difference data” is created by binarizing the extracted difference between black and white (step S101). FIG. 5A shows a process of extracting the difference between the current frame and the subsequent frame and binarizing the difference between black and white. The portion where the current frame and the subsequent frame overlap is white, and the portion where it does not overlap is black.

なお、ユーザは、フレームの比較間隔を「比較フレーム間隔」として事前に設定することができる。このような事前設定は、映像の性質(「動きが激しい」、「動きがほとんどない」など)または接続カメラの台数に伴うPCハードウェアの処理性能などに対応するためである。   It should be noted that the user can set the frame comparison interval as a “comparison frame interval” in advance. Such pre-setting is for responding to the characteristics of the image (“movement is severe”, “there is little movement”, etc.) or the processing performance of PC hardware depending on the number of connected cameras.

通常、この「差分データ」には細かなノイズなどが含まれるため、膨張と収縮の画像処理を行い、なめらか画像に加工する(ステップS102)。図5(b)に「差分データ」が、膨張・縮小の処理によってなめらか画像に加工された様子を示す。   Normally, since the “difference data” includes fine noise and the like, the image processing of expansion and contraction is performed to process the image into a smooth image (step S102). FIG. 5B shows a state where the “difference data” is processed into a smooth image by the expansion / reduction processing.

膨張と収縮の画像処理を行った「差分データ」を、画像処理により輪郭を抽出し、輪郭の内側を1かたまりとした「差分エリアデータ」に変換する(ステップS103)。図5(c)に、なめらか画像に加工した後の「差分データ」の輪郭から内側(塗りつぶされた領域)を1つのエリアとした「差分エリアデータ」に変換する。   The “difference data” that has undergone the image processing of expansion and contraction is converted into “difference area data” in which the outline is extracted by image processing and the inside of the outline is grouped together (step S103). In FIG. 5C, the image is converted into “difference area data” in which the inside (filled area) of the outline of the “difference data” after processing into a smooth image is one area.

「差分エリアデータ」が、事前の設定の「検出最大エリア」、「検出最小エリア」の範囲内であるか否かを判定し(ステップS104)、範囲内である場合(ステップS104のYES)、「差分エリアデータ」を「検出エリア」とし(ステップS105)、範囲外である場合(ステップS104のNO)、「差分エリアデータ」を除外データとする(ステップS106)。ここで、図7には、映像データにおいて検出エリアとされた部分と除外データとされた部分の概略を示す。差分エリアデータは、その外周が、検出最大エリア(図7の例では、検出エリアの一番外側の矩形領域)と、検出最小エリア(図7の例では、検出エリアの一番内側の矩形領域)との間にある場合には、検出エリアとして設定される。   It is determined whether the “difference area data” is within the ranges of the “detection maximum area” and “minimum detection area” set in advance (step S104), and if it is within the range (YES in step S104), The “difference area data” is set as the “detection area” (step S105), and if it is out of the range (NO in step S104), the “difference area data” is set as the exclusion data (step S106). Here, FIG. 7 schematically shows a part that is set as a detection area and a part that is set as exclusion data in video data. In the difference area data, the outer periphery has a maximum detection area (in the example of FIG. 7, the outermost rectangular area of the detection area) and a minimum detection area (in the example of FIG. 7, the innermost rectangular area of the detection area). ) Is set as a detection area.

予め設定された「検出最大エリア」よりも大きい「差分エリアデータ」は、除外データとして設定され、予め設定された「検出最小エリア」よりも小さい「差分エリアデータ」も、除外データとして設定される。   “Difference area data” larger than the preset “detection maximum area” is set as the exclusion data, and “difference area data” smaller than the preset “detection minimum area” is also set as the exclusion data. .

図6には、「検出エリア」に基づいて「検知データ」を生成する手順が示される。まず、「検出エリア」に対し、予め指定した「深層学習入力画像サイズ」設定のサイズに拡大・縮小の画像処理を行い(ステップS110)、「検出エリア」に対し、「深層学習入力画像処理」設定がある場合、画像を解析して、明暗、コントラストの調整を行う(ステップS111)。「深層学習入力画像処理」設定がなければ、明暗、コントラストはデフォルトのままで調整を行わない。   FIG. 6 shows a procedure for generating “detection data” based on the “detection area”. First, image processing for enlargement / reduction of the “detection area” to the size of the “deep learning input image size” specified in advance is performed (step S110), and “deep learning input image processing” is performed on the “detection area”. If there is a setting, the image is analyzed and the brightness and contrast are adjusted (step S111). If the “deep learning input image processing” is not set, the brightness and contrast are left as they are and no adjustment is made.

その後、画像処理を行った「検出エリア」を、深層学習により学習済みの物体検出モデルを用いて、物体検出を行う(ステップS112)。深層学習の物体検出によって、「自転車」、「オートバイ」の二輪車であるか否かを判定する(ステップS113)。「自転車」、「オートバイ」の二輪車として検出された場合(ステップS113のYES)、IDを割り当てる対象となる「検出エリア」とし(ステップS114)、「自転車」、「オートバイ」の二輪車として検出されない場合(ステップS113のNO)、二輪車検出の処理をそのまま終了する。なお、二輪車が検出されない場合でも、人や自動車を検出した場合には、それらを識別するIDを割り当ててもよい。   Then, the object detection is performed on the “detection area” on which the image processing has been performed, using the object detection model that has been learned by the deep learning (step S112). By the object detection of the deep learning, it is determined whether or not the vehicle is a “bicycle” or a “motorcycle” (step S113). If it is detected as a “bicycle” or “motorcycle” motorcycle (YES in step S113), it is set as a “detection area” to which an ID is assigned (step S114), and if it is not detected as a “bicycle” or “motorcycle” motorcycle. (NO in step S113), the processing for detecting the motorcycle ends. In addition, even when a motorcycle is not detected, when a person or a car is detected, an ID for identifying them may be assigned.

IDを割り当てる対象とした「検出エリア」が、前回検出された「検出エリア」の情報と比べ、「個体識別用時間」内でかつ、中心点(中心点座標)の距離が「個体識別用距離」内にあるか否かを判定する(ステップS115)。IDを割り当てる対象とした「検出エリア」が、前回検出された「検出エリア」の情報と比べ、「個体識別用時間」内でかつ、中心点(中心点座標)の距離が「個体識別用距離」内にある場合(ステップS115のYES)、当該「検出エリア」に前回検出された「検出エリア」のIDと同じIDを設定する(ステップS116)。   The “detection area” to which the ID is assigned is compared with the information of the “detection area” detected last time, and the distance of the center point (center point coordinates) within the “individual identification time” and the “individual identification distance” Is determined (step S115). The “detection area” to which the ID is assigned is compared with the information of the “detection area” detected last time, and the distance of the center point (center point coordinates) within the “individual identification time” and the “individual identification distance” ("YES" in step S115), the same ID as the ID of the previously detected "detection area" is set in the "detection area" (step S116).

他方、IDを割り当てる対象とした「検出エリア」が、前回検出された「検出エリア」の情報と比べ、「個体識別用時間」内でかつ、中心点(中心点座標)の距離が「個体識別用距離」内にない場合(ステップS115のNO)、当該「検出エリア」に新しいIDを設定する(ステップS117)。なお、「検出エリア」が複数存在する場合には、それぞれ別のIDを割り当てる。   On the other hand, the “detection area” to which the ID is assigned is compared with the information of the “detection area” detected last time, and the distance of the center point (center point coordinates) within the “individual identification time” is “individual identification”. If it is not within the “distance” (NO in step S115), a new ID is set in the “detection area” (step S117). When a plurality of “detection areas” exist, different IDs are assigned to the respective “detection areas”.

IDを設定した「検出エリア」を「検知データ」として保存する(ステップS118)。「検知データ」は1レコードに相当し、次の情報を含む。
<時刻>,<ID>,<種別:自転車,オートバイ>,<中心点座標X,Y>,(<面積>)
<時刻>は、検出エリアを検出した時刻であり、IDは検出エリアに割り当てられた識別子(ID)に対応する識別子である。<種別>は、検出エリア内の個体(物体)が自転車なのかオートバイなのかを表しており、<中心点座標>は、検出エリアの中心点の座標である。<面積>は、検出エリアの面積であり、面積の情報は、検知データに含めなくてもよい。検知データは1レコードとして、検知データベースに記憶される。なお、カメラから得られた映像データを動画ファイルとして保存している場合に、当該動画ファイルを分析する際に、<時刻>は先頭フレームの時刻を設定し、フレーム数とFPS(1秒のフレーム数)からの差に基づいて算出することができる。
The “detection area” for which the ID has been set is stored as “detection data” (step S118). “Detection data” corresponds to one record and includes the following information.
<Time>, <ID>, <type: bicycle, motorcycle>, <center point coordinates X, Y>, (<area>)
<Time> is the time at which the detection area was detected, and ID is an identifier corresponding to the identifier (ID) assigned to the detection area. The <type> indicates whether the individual (object) in the detection area is a bicycle or a motorcycle, and the <center point coordinates> are coordinates of the center point of the detection area. <Area> is the area of the detection area, and the information on the area may not be included in the detection data. The detection data is stored in the detection database as one record. When the video data obtained from the camera is stored as a moving image file, when analyzing the moving image file, <time> sets the time of the first frame, and sets the number of frames and the FPS (frame of 1 second). ) Can be calculated based on the difference from

検知データベースに記憶された複数の「検知データ」(複数のレコード)からID毎に「通行データ」を作成することができる。二輪車検知装置10(動態検知分析プログラム50)は、「通行データ」から通行量の算出等を行うことができる。「通行データ」のレコードは、以下の情報を含む。
<時刻>,<ID>,<種別:自転車,オートバイ>,<進行方向>,<通過速度>,<乗車・降車>
<時刻>は、検知データベースに記憶された複数の「検知データ」(複数のレコード)からID毎に任意の時刻(例えば、最初のレコードに記録された時刻、真ん中のレコードに記録された時刻、または、最後のレコードに記録された時刻)とすることができる。
“Traffic data” can be created for each ID from a plurality of “detection data” (a plurality of records) stored in the detection database. The motorcycle detection device 10 (the movement detection analysis program 50) can calculate a traffic amount or the like from “traffic data”. The record of “passing data” includes the following information.
<Time>, <ID>, <Type: Bicycle, Motorcycle>, <Progress direction>, <Passing speed>, <Ride / Get off>
<Time> is an arbitrary time (for example, the time recorded in the first record, the time recorded in the middle record, and the like) for each ID from the plurality of “detection data” (plural records) stored in the detection database. Or, the time recorded in the last record).

<進行方向>は、検知データベースに記憶された複数の「検知データ」(複数のレコード)からID毎に、各「検知データ」(各レコード)に記録された中心点の座標を使用して判定される。進行方向の種別は事前に決め(例:東西南北,左右など)、方向の求め方は、例えば、最終の2レコード(または数レコード)の中心点の直線を求め角度により決定する。   <Progress direction> is determined using the coordinates of the center point recorded in each "detection data" (each record) for each ID from a plurality of "detection data" (a plurality of records) stored in the detection database. Is done. The type of the traveling direction is determined in advance (eg, north, south, east, west, left, right, etc.), and the direction is determined, for example, by determining the straight line of the center point of the last two records (or several records) according to the angle.

<通過速度>は、検知データベースに記憶された複数の「検知データ」(複数のレコード)からID毎に、最初のレコードに記録された中心点(始点)と、最後のレコードに記録された中心点(終点)に関して、予め定めた「射影変換座標」設定をもとに射影変換を行って、変換後の始点と終点の座標から距離を算出し、予め定めた「ピクセル間距離」設定と始点終点の時刻に基づいて、通過速度を求めることができる。   The <passing speed> is, for each ID from a plurality of “detection data” (a plurality of records) stored in the detection database, a center point (start point) recorded in the first record and a center point recorded in the last record. For a point (end point), projective transformation is performed based on a predetermined “projection transformation coordinate” setting, a distance is calculated from the coordinates of the converted start point and end point, and a predetermined “inter-pixel distance” setting and start point are calculated. The passing speed can be obtained based on the time at the end point.

<乗車・降車>は、種別で表される自転車又はオートバイが、乗車状態にあるか降車状態にあるかを判断するための情報である。<乗車・降車>は、通過速度を予め定めた「乗車・降車判定速度」設定と比較し、速い場合は乗車状態と判定して乗車状態を示す値を設定し、遅い場合は降車状態と判定して降車状態を示す値を設定する。   <Get on / off> is information for determining whether the bicycle or motorcycle represented by the type is on or off. <Get on / off> compares the passing speed with a predetermined “get on / off judgment speed” setting. If it is fast, it is determined that the boarding state is set, and a value indicating the getting on state is set. And set a value indicating the getting-off state.

二輪車検知装置10(動態検知分析プログラム50)は、作成された「通行データ」から、<種別>、<進行方向>、<通過速度>、<乗車・降車>等の情報に基づいて、時間単位の方向別通行件数の算出、方向別乗車・降車比率の算出、及び方向別通行速度の算出の少なくともいずれか1つ値を求めることができる。   The motorcycle detection device 10 (the dynamic detection analysis program 50) uses the generated “traffic data” to determine the time unit based on information such as <type>, <traveling direction>, <passing speed>, and <riding / dismounting>. , The calculation of the number of traffic by direction, the calculation of the boarding / disembarking ratio by direction, and the calculation of the traffic speed by direction can be obtained.

実証実験は、ある場所に設定されている防犯カメラの12時台の映像データを使用した。映像データは、640×480ピクセル、3FPSで画質は粗いものを使用した。本発明の二輪車検知装置10(動態検知分析プログラム50)では、二輪車の検出台数は215台であった。目視によるカウントでは、221台であり、本発明の二輪車検知装置10(動態検知分析プログラム50)は、ほぼ人と同程度にオートバイ又は自転車といった二輪車を検出することができた。   The demonstration experiment used video data of a security camera set at a certain place at 12:00. The video data used was 640 × 480 pixels, 3 FPS and coarse image quality. In the motorcycle detection device 10 (dynamic detection analysis program 50) of the present invention, the number of detected motorcycles was 215. The visual count was 221. The two-wheeler detection device 10 (the dynamic detection analysis program 50) of the present invention was able to detect a two-wheeler such as a motorcycle or a bicycle almost as much as a human.

これに対して、動態検知を行わず単に深層学習のフレームワークを使用した場合には、次の表に示すとおり、検出されたフレームは12フレームであり、二輪車の検出台数は、10台であった。
In contrast, when the framework of deep learning is simply used without performing dynamic detection, as shown in the following table, the number of detected frames is 12 and the number of detected motorcycles is 10. Was.

図8及び図9は、本発明の一実施形態に係る二輪検知装置による動態検知分析の結果の例及び深層学習のみによる物体検出の結果の例を示す静止画像である。図8及び図9の撮影場所は同じであるが、それぞれ別の角度から撮影したものである。映像データは、1920×1080ピクセル、30FPS、スマートフォンカメラで撮影した動画から二輪車検知を行った。   8 and 9 are still images showing an example of a result of dynamic detection analysis by the two-wheel detection device according to an embodiment of the present invention and an example of a result of object detection by only deep learning. 8 and 9 are the same, but are taken from different angles. The video data was 1920 × 1080 pixels, 30 FPS, and a motorcycle was detected from a moving image captured by a smartphone camera.

図8(a)と(b)の画像を比較すると、本発明の二輪車検知装置10(動態検知分析プログラム50)による画像認識では、画像に写るすべての人をヒトとして認識し、さらに一台を除いて、人が乗車中の自転車を認識していることが分かる。これに対して、深層学習のみによる物体検出モデルを用いた画像認識では、すべての人を認識できず、さらに、自転車を一台も認識することはできなかった。   Comparing the images of FIGS. 8A and 8B, in the image recognition by the motorcycle detection device 10 (the dynamic detection analysis program 50) of the present invention, all persons appearing in the image are recognized as humans, and one vehicle is further recognized. Except for this, it can be seen that the person is aware of the bicycle on board. On the other hand, in image recognition using an object detection model based only on deep learning, not all persons could be recognized, and further, no bicycle could be recognized.

また、図9(a)と(b)の画像を比較すると、本発明の二輪車検知装置10(動態検知分析プログラム50)による画像認識では、画像に小さく映る、横断歩道を渡る人及び横断歩道付近の人をヒトとして認識し、さらに、横断歩道上及び横断歩道付近の自転車も認識していることが分かる。これに対して、深層学習のみによる物体検出モデルを用いた画像認識では、画像に大きく写る自動車を辛うじて認識するだけで、画像に写るすべての人を認識できず、さらに、自転車を一台も認識することはできなかった。なお、図8及び図9での比較のために用いた映像データは、通常の防犯カメラの映像よりも高画質である。実際の防犯カメラの映像データ(例えば、640×480ピクセル、3FPS)を用いた場合には、深層学習のみによる物体検出モデルを用いた画像認識では何も認識できなかった。   9 (a) and 9 (b), the image recognition by the motorcycle detection device 10 (dynamic detection analysis program 50) of the present invention shows a small image of a person crossing a pedestrian crossing and the vicinity of a pedestrian crossing. It can be seen that the person is recognized as a human, and the bicycle on and near the pedestrian crossing is also recognized. On the other hand, image recognition using an object detection model based only on deep learning only barely recognizes the car that appears in the image, but cannot recognize everyone in the image, and even recognizes a single bicycle. I couldn't. It should be noted that the video data used for comparison in FIGS. 8 and 9 has higher image quality than the video of a normal security camera. When video data (for example, 640 × 480 pixels, 3FPS) of an actual security camera was used, nothing could be recognized by image recognition using an object detection model based only on deep learning.

以上のことから、本発明の一実施形態に係る二輪車検知装置10(動態検知分析プログラム50)は、深層学習により学習された畳み込みニューラルネットワーク(CNN)等の物体検出モデル(画像認識モデル)による画像認識にかける前処理として、検出エリアのサイズを当該物体検出モデルに適したサイズになるように縮小、拡大を行うことができる。つまり、二輪車検知装置10(動態検知分析プログラム50)は、画像処理による動態検知によって動態検知を行い、動態検知により検出されたエリアを、深層学習による物体検出モデルの画像認識性能を引き出すのに適したサイズになるように縮小、拡大を行うことができる。   As described above, the motorcycle detection device 10 (the dynamic detection analysis program 50) according to one embodiment of the present invention uses an image based on an object detection model (image recognition model) such as a convolutional neural network (CNN) learned by deep learning. As preprocessing for recognition, the size of the detection area can be reduced or enlarged so as to be a size suitable for the object detection model. That is, the motorcycle detection device 10 (the movement detection analysis program 50) performs the movement detection by the movement detection by the image processing, and is suitable for extracting the area detected by the movement detection to the image recognition performance of the object detection model by the deep learning. Can be reduced or enlarged to a different size.

このように、二輪車検知装置10(動態検知分析プログラム50)は、検出エリアを物体検出モデル(画像認識モデル)に適したサイズになるように縮小、拡大を行うことで、映像中において小さく映った歩行者、自転車及びオートバイ等の小さな対象物でも正確に識別することができる。   As described above, the motorcycle detection device 10 (the dynamic detection analysis program 50) shrinks and enlarges the detection area so as to have a size suitable for the object detection model (image recognition model), so that the detection area appears small in the video. Even small objects such as pedestrians, bicycles and motorcycles can be accurately identified.

その他の実証実験として、ある商店街で、歩行者天国で自転車に乗車したまま通行する危険行為を解決するために、防犯カメラの映像から自転車の通行状況を「見える化」し、解決策を検討するための実験を行った。時間帯はある日の12時から18時までで、防犯カメラ(1台)の映像データを、二輪車検知装置10(動態検知分析プログラム50)で分析した。二輪車検知装置10により、動画ファイル(防犯カメラの映像)から、自転車を検知し、検知情報(動画フレーム,画面位置など)を自転車検知データファイルに保存した。   As another demonstration experiment, in order to solve the dangerous act of riding while riding a bicycle in a pedestrian paradise at a shopping street, we visualize the traffic situation of bicycles from images of security cameras and consider solutions An experiment was conducted to do this. The time period was from 12:00 to 18:00 on a certain day, and the video data of the security camera (one) was analyzed by the motorcycle detection device 10 (the dynamic detection analysis program 50). A bicycle is detected from the moving image file (the image of the security camera) by the motorcycle detection device 10, and the detection information (moving image frame, screen position, etc.) is stored in the bicycle detection data file.

自転車検知データファイルから自転車の通行状況を時間帯ごとにまとめた結果を次に示す。12時台から17時台までの自転車の合計台数は1198台であり、1時間あたり199.7台で、1分あたり3.3台であった。自転車の通行数のカウント精度は、84.7%(1198÷1414×100)であり(17時台を除いた場合のカウント精度は94.6%)、深層学習による一般的な認識率の精度(例えば、図8及び図9参照)と比べ、高い精度となった。
The following shows the result of summarizing the traffic status of the bicycle for each time zone from the bicycle detection data file. The total number of bicycles from 12:00 to 17:00 was 1,198, 199.7 per hour, and 3.3 per minute. The counting accuracy of the number of passing bicycles is 84.7% (1198 ÷ 1414 × 100) (count accuracy excluding 17:00 is 94.6%), and accuracy of general recognition rate by deep learning (See, for example, FIGS. 8 and 9).

本発明の二輪車検知装置10(動態検知分析プログラム50)による検出台数と、目視による検出台数との差異について、本発明の二輪車検知装置10では、画面上部(遠い)範囲のみ移動する自転車を認識することができないこと(例えば、図9(a)参照)、17時台はあたりが暗くなったことにより、映像データから得られる自転車の特徴が少なくなり認識しなくなったと考えられる。   Regarding the difference between the number detected by the two-wheeled vehicle detection device 10 of the present invention (the dynamic detection analysis program 50) and the number detected visually, the two-wheeled vehicle detection device 10 of the present invention recognizes a bicycle that moves only in the upper (far) range of the screen. It is considered that the characteristic of the bicycle obtained from the video data is reduced and the recognition is no longer possible due to the inability to perform the operation (for example, see FIG. 9A) and the dark area at 17:00.

また、本発明の二輪車検知装置10を用いて、ある時間帯の映像データから検出された自転車の走行速度を算出する実証実験を行った。自転車の走行速度、及び方向別の速度は、二輪車検知装置10により、作成された「通行データ」から、<種別>、<進行方向>、<通過速度>、<乗車・降車>等の情報に基づいて計算することができる。その結果、時速10km以上で通行する自転車の台数とその割合を次の表に示す。
全台数中時速10km以上で通行する自転車台数の割合は34÷224=15.2%であった。このように、比較的早い速度で走る自転車を検出することができるので、本発明の二輪車検知装置10は、商店街等の歩行者天国で、走行する自転車を自動的に検出し危険性を判別することができる。なお、本実証実験では、歩行者(人)の数をカウントしていないが、歩行者の数と自転車の通過速度との関係により、危険性を判別することも可能である。
In addition, a demonstration experiment was performed using the motorcycle detection device 10 of the present invention to calculate the running speed of a bicycle detected from video data in a certain time zone. The running speed of the bicycle and the speed in each direction are converted into information such as <type>, <traveling direction>, <passing speed>, <riding / disembarking> from the “traffic data” created by the motorcycle detection device 10. It can be calculated based on As a result, the following table shows the number of bicycles passing at a speed of 10 km / h or more and their ratios.
The ratio of the number of bicycles passing at a speed of 10 km / h or more out of all the vehicles was 34/224 = 15.2%. As described above, since a bicycle running at a relatively high speed can be detected, the motorcycle detection device 10 of the present invention automatically detects a traveling bicycle in a pedestrian paradise such as a shopping street to determine danger. can do. Although the number of pedestrians (people) is not counted in this demonstration experiment, it is also possible to determine the danger based on the relationship between the number of pedestrians and the passing speed of the bicycle.

そして、進行方向別の自転車の速度の算出結果を次の表に示す。
方向別の自転車の走行速度を算出したことで、下り坂の東方向に進む平均速度は、上り坂の西方向に進む平均速度よりも速いことが分かる。このように、本発明の二輪車検知装置10は、自転車を含む二輪車の走行速度を方向別に算出することができる。
The calculation results of the bicycle speed for each traveling direction are shown in the following table.
By calculating the running speed of the bicycle for each direction, it can be seen that the average speed traveling east on a downhill is faster than the average speed traveling west on an uphill. Thus, the motorcycle detection device 10 of the present invention can calculate the traveling speed of the motorcycle including the bicycle for each direction.

以上のとおり、本発明に係る二輪車検知装置等を用いることで、従来の深層学習による物体検出モデルでは検出できない、映像に小さく映る動態を検知して、人、オートバイ及び自転車を含む二輪車を正確に検出することができる。言い換えると、商店街や交差点に設置された防犯カメラ等のカメラで、撮影場所を引いた画で、つまり、俯瞰で撮影している場合でも、映像中の動体が歩行者なのか、自転車やオートバイ等の二輪車なのか正確に認識することができる。これにより、商店街や交差点における二輪車の通行量及び通行速度を、単位時間当たり(例えば1時間毎に)方向別に自動的に計算することができる。   As described above, by using the motorcycle detection device and the like according to the present invention, it is possible to accurately detect a two-wheeled vehicle including a person, a motorcycle and a bicycle by detecting a dynamic appearing in a small image that cannot be detected by the object detection model based on the conventional deep learning. Can be detected. In other words, a camera such as a security camera installed at a shopping street or an intersection is an image where the shooting location is subtracted, that is, even when shooting from a bird's-eye view, whether the moving object in the image is a pedestrian, a bicycle or a motorcycle It can be accurately recognized as a two-wheeled vehicle. This makes it possible to automatically calculate the traffic amount and the traffic speed of the motorcycle at the shopping street or the intersection for each direction per unit time (for example, every hour).

本発明の二輪車検知装置等は、カメラで撮影された映像データから自動的に歩行者等の人、オートバイや自転車等の二輪車を検知して、検知結果に基づいて分析等を行うことに利用可能である。   The motorcycle detection device and the like of the present invention can be used to automatically detect a person such as a pedestrian, a motorcycle such as a motorcycle or a bicycle from video data captured by a camera, and perform analysis or the like based on the detection result. It is.

10 二輪車検知装置
20 カメラ
30 記憶装置
40 記憶装置
50 動態検知分析プログラム
51 動態検知部
52 画像処理ライブラリ
53 二輪車検出部
54 物体検出アルゴリズム
55 深層学習フレームワーク
Reference Signs List 10 motorcycle detection device 20 camera 30 storage device 40 storage device 50 dynamic detection analysis program 51 dynamic detection unit 52 image processing library 53 motorcycle detection unit 54 object detection algorithm 55 deep learning framework

Claims (14)

カメラで撮影された動画又は連続した静止画を含む映像データから動態を検知した検出エリアを抽出する動態検知部と
前記検出エリアに対応するデータを、物体検出モデルに入力して前記検出エリアにおける物体を検出する二輪車検出部と
を含み、
前記動態検知部は、前記検出エリアに対応するデータを予め設定されたサイズにおさめるために、拡大又は縮小の画像処理を行い、
前記二輪車検出部によって検出される前記物体は、少なくとも自転車及びオートバイを含む二輪車を含む
ことを特徴とする二輪車検知装置。
A motion detection unit that extracts a detection area that detects a motion from video data including a moving image or a continuous still image captured by a camera, and data corresponding to the detection area are input to an object detection model, and an object in the detection area is input. And a motorcycle detecting unit for detecting
The dynamic state detection unit performs image processing of enlargement or reduction in order to reduce data corresponding to the detection area to a preset size,
The two-wheeled vehicle detection device, wherein the object detected by the two-wheeled vehicle detection unit includes at least a two-wheeled vehicle including a bicycle and a motorcycle.
前記物体検出モデルによって、前記検出エリアから少なくとも自転車及びオートバイを含む二輪車が検出された場合に、前記検出エリアに識別子を割り当てること
を特徴とする請求項1に記載の二輪車検知装置。
The motorcycle detection device according to claim 1, wherein an identifier is assigned to the detection area when a motorcycle including at least a bicycle and a motorcycle is detected from the detection area by the object detection model.
前記識別子は、今回抽出された前記検出エリアと、該検出エリアが抽出される前に、抽出されていた前回の検出エリアとを比較して、予め設定された個体識別用時間の範囲以内で、かつ、予め設定された個体識別用距離の範囲以内にある場合には、前記前回の検出エリアと同じ識別子であり、それ以外の場合には新たな識別子であること
を特徴とする請求項2に記載の二輪車検知装置。
The identifier, the detection area extracted this time, before the detection area is extracted, comparing the previous detection area was extracted, within the range of a preset individual identification time, In the case where the distance is within the range of the preset individual identification distance, the identifier is the same as the previous detection area, and otherwise, the identifier is a new identifier. The motorcycle detection device according to any one of the preceding claims.
前記検出エリアは、予め設定された検出最大エリア以内であり、かつ、予め設定された検出最小エリア以上の範囲内の差分エリアデータであり、
前記差分エリアデータは、前記映像データのフレームと後続フレームとの差分を抽出した差分データの輪郭から内側をエリアとしたデータであること
を特徴とする請求項1から3のいずれか1項に記載の二輪車検知装置。
The detection area is a difference area data within a predetermined detection maximum area and a range equal to or more than a predetermined detection minimum area,
4. The difference area data according to claim 1, wherein the difference area data is data having an area inside the contour of the difference data obtained by extracting a difference between a frame of the video data and a subsequent frame. Motorcycle detection device.
前記差分データは、膨張又は収縮の画像処理により、なめらかな画像に加工されたこと
を特徴とする請求項4に記載の二輪車検知装置。
The two-wheeled vehicle detection device according to claim 4, wherein the difference data is processed into a smooth image by image processing of expansion or contraction.
前記検出エリアは、画像解析され、明暗、コントラストの調整がなされていること
を特徴とする請求項1から5のいずれか1項に記載の二輪車検知装置。
The two-wheeled vehicle detection device according to any one of claims 1 to 5, wherein the detection area is subjected to image analysis and adjustment of brightness and contrast is performed.
前記検出エリアは、前記識別子に対応するIDに加えて、検出時刻、自転車かオートバイかを表す種別、検出エリアの中心点座標を記録したレコードとして検知データベースに記憶されること
を特徴とする請求項2又は3に記載の二輪車検知装置。
The detection area is stored in the detection database as a record in which, in addition to the ID corresponding to the identifier, a detection time, a type indicating a bicycle or a motorcycle, and coordinates of a center point of the detection area are recorded. The motorcycle detection device according to 2 or 3.
前記検知データベースにおいて、前記ID毎に前記検出時刻の古いレコードから前記検出時刻の新しいレコードまでの前記中心点座標の移動の軌跡に基づいて、前記種別で表される自転車又はオートバイの進行方向を判別すること
を特徴とする請求項7に記載の二輪車検知装置。
In the detection database, a traveling direction of a bicycle or a motorcycle represented by the type is determined based on a locus of movement of the center point coordinates from an old record at the detection time to a new record at the detection time for each ID. The two-wheeled vehicle detection device according to claim 7, wherein:
前記検知データベースにおいて、前記IDで特定される複数のレコードから、時系列的に最初に記録されたレコードにおける中心点座標を始点とし、最後に記録されたレコードにおける中心点座標を終点とし、前記始点と前記終点を、予め設定された射影変換座標に基づいて、射影変換を行い、
前記射影変換の後の前記始点と前記終点の座標から予め設定されたピクセル間距離に基づいて推定距離を算出し、前記始点を含むレコードに記録された検出時刻と前記終点を含むレコードに記録された検出時刻から、移動時間を算出して、前記種別で表される自転車又はオートバイの通過速度を推定し、
前記予め設定された射影変換座標は、前記カメラで撮影される景色を真上からみたように射影した座標であること
を特徴とする請求項8に記載の二輪車検知装置。
In the detection database, from a plurality of records specified by the ID, a center point coordinate in a record recorded first in time series is set as a start point, and a center point coordinate in a record recorded last is set as an end point. And the end point, perform a projective transformation based on a preset projective transformation coordinate,
Calculate an estimated distance based on the distance between pixels set in advance from the coordinates of the start point and the end point after the projective transformation, and the detection time is recorded in the record including the start point and the record including the end point. From the detected time, the travel time is calculated, and the passing speed of the bicycle or motorcycle represented by the type is estimated,
The two-wheeled vehicle detection device according to claim 8, wherein the preset projective transformation coordinates are coordinates obtained by projecting a scene captured by the camera as viewed from directly above.
前記種別で表される自転車又はオートバイの前記通過速度と予め設定された乗車・降車判定速度とを比較して、乗車・降車状態を判定し、
前記通過速度が予め設定された乗車・降車判定速度以上であれば、前記乗車・降車状態は乗車であることを示し、
前記予め設定された乗車・降車判定速度未満であれば、前記乗車・降車状態は降車であることを示すこと
を特徴とする請求項9に記載の二輪車検知装置。
By comparing the passing speed of the bicycle or motorcycle represented by the type with a preset boarding / disembarking determination speed, to determine the boarding / disembarking state,
If the passing speed is equal to or higher than a preset boarding / disembarking determination speed, the boarding / disembarking state indicates that the vehicle is boarding,
The two-wheeled vehicle detection device according to claim 9, wherein if the speed is lower than the preset boarding / disembarking determination speed, the boarding / disembarking state indicates that the vehicle is getting off.
前記進行方向、前記通過速度、前記乗車・降車状態に基づいて、単位時間あたりの方向別通行件数、方向別乗車・降車比率、方向別通行速度の少なくとも1つの値を算出すること
を特徴とする請求項10に記載の二輪車検知装置。
Based on the traveling direction, the passing speed, and the boarding / disembarking state, at least one value of the number of traffic per unit time per direction, the boarding / dismounting ratio by direction, and the traveling speed by direction is calculated. The motorcycle detection device according to claim 10.
前記物体検出モデルは、畳み込みニューラルネットワーク(CNN)であること
を特徴とする請求項1から11のいずれか1項に記載の二輪車検知装置。
The two-wheeled vehicle detection device according to any one of claims 1 to 11, wherein the object detection model is a convolutional neural network (CNN).
コンピュータによって実行させることで、前記コンピュータを請求項1から12のいずれか1項に記載の二輪車検知装置として機能させることを特徴とする二輪車検知プログラム。   A two-wheeled vehicle detection program characterized by causing a computer to function as the two-wheeled vehicle detection device according to any one of claims 1 to 12 when executed by the computer. カメラから動画又は連続した静止画データを取得して記憶する記憶装置と、該記憶装置とネットワークを介して接続され、請求項13に記載のプログラムを実行したコンピュータとを含むことを特徴とする二輪車検知システム。   A motorcycle comprising: a storage device for acquiring and storing moving image or continuous still image data from a camera; and a computer connected to the storage device via a network and executing the program according to claim 13. Detection system.
JP2018133299A 2018-07-13 2018-07-13 Device for detecting two-wheeled vehicle from moving image/camera, program, and system Pending JP2020013206A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018133299A JP2020013206A (en) 2018-07-13 2018-07-13 Device for detecting two-wheeled vehicle from moving image/camera, program, and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018133299A JP2020013206A (en) 2018-07-13 2018-07-13 Device for detecting two-wheeled vehicle from moving image/camera, program, and system

Publications (1)

Publication Number Publication Date
JP2020013206A true JP2020013206A (en) 2020-01-23

Family

ID=69170598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018133299A Pending JP2020013206A (en) 2018-07-13 2018-07-13 Device for detecting two-wheeled vehicle from moving image/camera, program, and system

Country Status (1)

Country Link
JP (1) JP2020013206A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6818283B1 (en) * 2020-03-18 2021-01-20 マルハニチロ株式会社 Counting system, counting device, counting method and program
CN113920706A (en) * 2021-08-28 2022-01-11 北京工业大学 Abnormal event prevention and control method based on image recognition
JPWO2022019110A1 (en) * 2020-07-21 2022-01-27
JP2023034184A (en) * 2021-08-30 2023-03-13 三菱電機インフォメーションシステムズ株式会社 Area specifying device, area specifying method, and area specifying program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009132259A (en) * 2007-11-30 2009-06-18 Denso It Laboratory Inc Vehicle surrounding-monitoring device
JP2014219847A (en) * 2013-05-08 2014-11-20 株式会社デンソー Object identification apparatus
JP2016057998A (en) * 2014-09-12 2016-04-21 株式会社日立国際電気 Object identification method
JP2016186780A (en) * 2015-03-27 2016-10-27 中日本高速道路株式会社 Movable body detection device
WO2017015887A1 (en) * 2015-07-29 2017-02-02 Nokia Technologies Oy Object detection with neural network

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009132259A (en) * 2007-11-30 2009-06-18 Denso It Laboratory Inc Vehicle surrounding-monitoring device
JP2014219847A (en) * 2013-05-08 2014-11-20 株式会社デンソー Object identification apparatus
JP2016057998A (en) * 2014-09-12 2016-04-21 株式会社日立国際電気 Object identification method
JP2016186780A (en) * 2015-03-27 2016-10-27 中日本高速道路株式会社 Movable body detection device
WO2017015887A1 (en) * 2015-07-29 2017-02-02 Nokia Technologies Oy Object detection with neural network

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6818283B1 (en) * 2020-03-18 2021-01-20 マルハニチロ株式会社 Counting system, counting device, counting method and program
JP2021149430A (en) * 2020-03-18 2021-09-27 マルハニチロ株式会社 Counting system, counting device, counting method, and program
JPWO2022019110A1 (en) * 2020-07-21 2022-01-27
WO2022019110A1 (en) * 2020-07-21 2022-01-27 株式会社シバサキ Program, information processing device, information processing method, and model generation method
CN113920706A (en) * 2021-08-28 2022-01-11 北京工业大学 Abnormal event prevention and control method based on image recognition
JP2023034184A (en) * 2021-08-30 2023-03-13 三菱電機インフォメーションシステムズ株式会社 Area specifying device, area specifying method, and area specifying program

Similar Documents

Publication Publication Date Title
US10452931B2 (en) Processing method for distinguishing a three dimensional object from a two dimensional object using a vehicular system
JP7025912B2 (en) In-vehicle environment recognition device
Kim Real time object tracking based on dynamic feature grouping with background subtraction
CN106647776B (en) Method and device for judging lane changing trend of vehicle and computer storage medium
WO2016129403A1 (en) Object detection device
JP2020013206A (en) Device for detecting two-wheeled vehicle from moving image/camera, program, and system
CN107688764B (en) Method and device for detecting vehicle violation
Sina et al. Vehicle counting and speed measurement using headlight detection
CN106652465A (en) Method and system for identifying abnormal driving behavior on road
US10442438B2 (en) Method and apparatus for detecting and assessing road reflections
WO2015089867A1 (en) Traffic violation detection method
WO2013186662A1 (en) Multi-cue object detection and analysis
JP6226368B2 (en) Vehicle monitoring apparatus and vehicle monitoring method
US9760783B2 (en) Vehicle occupancy detection using passenger to driver feature distance
JP2002074368A (en) Moving object recognizing and tracking device
US11727580B2 (en) Method and system for gathering information of an object moving in an area of interest
JP5423764B2 (en) Moving object detection apparatus, computer program, and moving object detection method
JPWO2018190362A1 (en) Method and apparatus for detecting pedestrians around a vehicle
JP2015090679A (en) Vehicle trajectory extraction method, vehicle region extraction method, vehicle speed estimation method, vehicle trajectory extraction program, vehicle region extraction program, vehicle speed estimation program, vehicle trajectory extraction system, vehicle region extraction system, and vehicle speed estimation system
CN111127520A (en) Vehicle tracking method and system based on video analysis
KR101840042B1 (en) Multi-Imaginary Fence Line Setting Method and Trespassing Sensing System
JP7454685B2 (en) Detection of debris in vehicle travel paths
CN112766046B (en) Target detection method and related device
JP2004086417A (en) Method and device for detecting pedestrian on zebra crossing
JP2003248895A (en) System and method for image type vehicle sensing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210531

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220518

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221116