JP2020021111A - Type determination program, type determination apparatus and type determination method - Google Patents

Type determination program, type determination apparatus and type determination method Download PDF

Info

Publication number
JP2020021111A
JP2020021111A JP2018142130A JP2018142130A JP2020021111A JP 2020021111 A JP2020021111 A JP 2020021111A JP 2018142130 A JP2018142130 A JP 2018142130A JP 2018142130 A JP2018142130 A JP 2018142130A JP 2020021111 A JP2020021111 A JP 2020021111A
Authority
JP
Japan
Prior art keywords
type
history information
rectangular area
type determination
movement history
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018142130A
Other languages
Japanese (ja)
Other versions
JP6678706B2 (en
Inventor
由裕 水野
Yoshihiro Mizuno
由裕 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Systems Corp
Original Assignee
Toyota Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Systems Corp filed Critical Toyota Systems Corp
Priority to JP2018142130A priority Critical patent/JP6678706B2/en
Publication of JP2020021111A publication Critical patent/JP2020021111A/en
Application granted granted Critical
Publication of JP6678706B2 publication Critical patent/JP6678706B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To rapidly and correctly determine a type of an object when the number of pixels related the object included in an input image is small.SOLUTION: A type determination program detects, when a plurality of input images A including an object A2 is input, an object A1 included in each of the input images A (S11), and acquires movement history information B of the object A1 (S12). Then, if the movement history information B is input in a trained model 50 (S13), a probability for a type of object is output from the trained model 50 (S14). The trained model 50 is a trained model in which a deep learning is performed by applying the movement history information of the object constituting teacher data and a type of the object to a predetermined multilayer neural network CNN). The type determination program determines the type of the object A1 included in the input image A based on the probability for the type of object (S15).SELECTED DRAWING: Figure 1

Description

本発明は、入力画像に含まれる物体に係る画素数が少ない場合に、該物体の種別を迅速かつ正確に判定することができる種別判定プログラム、種別判定装置及び種別判定方法に関する。   The present invention relates to a type determination program, a type determination device, and a type determination method that can quickly and accurately determine the type of an object when the number of pixels related to the object included in an input image is small.

従来、車両のテストコースでは、外柵を越えてテストコース内に侵入する動物等を検知する必要がある。テストコース内に侵入した動物等と、テストコースを走行する試験車両とが衝突するトラブルを防止するためである。このため、車両のテストコースには、テストコース内を監視するための複数の監視カメラが設けられる。そして、監視員は、監視カメラにより撮像された映像を視認し、異常の検知を行う。   2. Description of the Related Art Conventionally, on a test course of a vehicle, it is necessary to detect an animal or the like that intrudes into the test course over an outer fence. This is to prevent a trouble that an animal or the like entering the test course collides with a test vehicle running on the test course. For this reason, a plurality of surveillance cameras for monitoring the inside of the test course are provided on the test course of the vehicle. Then, the observer visually recognizes the video imaged by the monitoring camera and detects an abnormality.

ところが、このような監視員による目視チェックを採用したならば、監視員による監視漏れが起きる可能性がある。このため、監視を自動化する場合には、テンプレートマッチング等の画像処理技術や、深層学習等の機械学習(特許文献1、特許文献2を参照)を用いて動物を学習し、入力画像に動物が含まれているか否かが判定される。   However, if such a visual check by a supervisor is adopted, there is a possibility that the supervisor may omit monitoring. For this reason, when monitoring is automated, animals are learned using image processing techniques such as template matching and machine learning such as deep learning (see Patent Literature 1 and Patent Literature 2). It is determined whether or not it is included.

特開2015−210824号公報JP 2015-210824 A 特開2017−187954号公報JP 2017-187954 A

しかし、上記のテンプレートマッチングにより動物の存在を検知するためには、入力画像内に動物の姿が十分に含まれていなければならない。同様に、機械学習を用いて動物の存在を検知する場合にも、入力画像内に動物の姿が十分に含まれていなければならない。   However, in order to detect the presence of an animal by the above-described template matching, the image of the animal must be sufficiently included in the input image. Similarly, when detecting the presence of an animal by using machine learning, the image of the animal must be sufficiently included in the input image.

ところが、監視カメラで撮像した実際の画像には、動物の姿が十分に含まれていない場合が多い。テストコースに設置できる監視カメラの台数には制限があり、遠距離からテストコースを撮影せざるを得ない場合が多いからである。その結果、入力画像に含まれる動物の画素数が少ない場合には、テンプレートマッチング又は機械学習を用いたとしても動物を検知できないという問題が生ずる。   However, in many cases, the actual image captured by the surveillance camera does not sufficiently include the figure of the animal. This is because the number of surveillance cameras that can be installed on the test course is limited, and in many cases, the test course must be photographed from a long distance. As a result, when the number of pixels of the animal included in the input image is small, there is a problem that the animal cannot be detected even if template matching or machine learning is used.

これらのことから、入力画像に含まれる物体に係る画素数が少ない場合に、いかにして該物体の種別を迅速かつ正確に判定するかが重要な課題となっている。なお、この課題は、テストコースだけの課題ではなく、警備地域や各種施設の場合にも同様に生ずる課題である。   For these reasons, when the number of pixels related to an object included in an input image is small, how to quickly and accurately determine the type of the object has become an important issue. This problem is not only a problem on the test course, but also occurs in a security area or various facilities.

本発明は、上記従来技術の問題点(課題)を解決するためになされたものであって、入力画像に含まれる物体に係る画素数が少ない場合に、該物体の種別を迅速かつ正確に判定することができる種別判定プログラム、種別判定装置及び種別判定方法を提供することを目的とする。   The present invention has been made to solve the above-mentioned problems (problems) of the related art, and when the number of pixels related to an object included in an input image is small, the type of the object is quickly and accurately determined. It is an object of the present invention to provide a type determination program, a type determination device, and a type determination method that can perform the determination.

上記の課題を解決するため、本発明は、所定の撮像装置により撮像された画像に含まれる物体を検知する検知手順と、前記検知手順により検知された物体を追跡して該物体の移動履歴情報を取得する移動履歴情報取得手順と、少なくとも前記移動履歴情報に基づいて、前記検知手順により検知された物体の種別を判定する種別判定手順とをコンピュータに実行させることを特徴とする。   In order to solve the above-described problems, the present invention provides a detection procedure for detecting an object included in an image captured by a predetermined imaging device, and tracking of the object detected by the detection procedure to record movement history information of the object. And a type determination step of determining a type of the object detected by the detection procedure based on at least the movement history information.

また、本発明は、上記の発明において、前記検知手順は、複数の画像間の画素の移動ベクトルに基づいて、前記所定の撮像装置により撮像された画像に含まれる物体を検知することを特徴とする。   Also, the present invention is characterized in that, in the above invention, the detecting step detects an object included in an image captured by the predetermined imaging device based on a movement vector of pixels between a plurality of images. I do.

また、本発明は、上記の発明において、前記移動履歴情報取得手順は、前記検知手順により検知された物体を形成する画素の移動ベクトルと所定の尤度に基づいて、物体を含む矩形領域を特定し、特定した矩形領域の移動履歴に係る情報を移動履歴情報として取得することを特徴とする。   Further, in the present invention according to the above invention, the moving history information acquiring step specifies a rectangular area including the object based on a moving vector of a pixel forming the object detected by the detecting step and a predetermined likelihood. Then, information relating to the movement history of the specified rectangular area is obtained as movement history information.

また、本発明は、上記の発明において、前記種別判定手順は、教師データをなす物体の移動履歴情報及び該物体の種別を所定の多層ニューラルネットワークに適用した学習済モデルに基づいて、前記検知手順により検知された物体の種別を判定することを特徴とする。   In addition, in the present invention according to the above invention, the type determination step is performed based on the movement history information of an object forming teacher data and a learned model in which the type of the object is applied to a predetermined multilayer neural network. The type of the object detected is determined.

また、本発明は、上記の発明において、前記種別判定手順は、前記移動履歴情報に含まれる所定の時間ごとの前記矩形領域の水平方向の移動量及び垂直方向の移動量を前記学習済モデルに入力し、該学習済モデルから出力される種別毎の確率に基づいて、前記検知手順により検知された物体の種別を判定することを特徴とする。   Further, in the present invention according to the above invention, the type determination step includes, in the learned model, a horizontal movement amount and a vertical movement amount of the rectangular area included in the movement history information for each predetermined time. The type of the object detected by the detection procedure is determined based on the probability of each type input and output from the learned model.

また、本発明は、上記の発明において、前記種別判定手順は、前記移動履歴情報に含まれる所定の時間ごとの前記矩形領域の幅、前記矩形領域の高さ、前記矩形領域の水平方向の移動量、前記矩形領域の垂直方向の移動量、前矩形領域との幅差及び前矩形領域との高さ差を前記学習済モデルに入力し、該学習済モデルから出力される種別毎の確率に基づいて、前記検知手順により検知された物体の種別を判定することを特徴とする。   In addition, in the present invention according to the above invention, the type determination step includes a step of moving the rectangular area in a horizontal direction, the width of the rectangular area, the height of the rectangular area, and the movement of the rectangular area at predetermined time intervals included in the movement history information. The amount, the vertical movement amount of the rectangular area, the width difference from the previous rectangular area, and the height difference from the previous rectangular area are input to the trained model, and the probability for each type output from the trained model is calculated. And determining the type of the object detected by the detection procedure based on the detection procedure.

また、本発明は、上記の発明において、前記種別判定手順は、前記移動履歴情報に含まれる所定の時間ごとの前記矩形領域の幅、前記矩形領域の高さ、前記矩形領域の水平方向の移動量、前記矩形領域の垂直方向の移動量、前矩形領域との幅差及び前矩形領域との高さ差と、前記矩形領域の部分画像とを前記学習済モデルに入力し、該学習済モデルから出力される種別毎の確率に基づいて、前記検知手順により検知された物体の種別を判定することを特徴とする。   In addition, in the present invention according to the above invention, the type determination step includes a step of moving the rectangular area in a horizontal direction, the width of the rectangular area, the height of the rectangular area, and the movement of the rectangular area at predetermined time intervals included in the movement history information. Input the amount, the vertical movement amount of the rectangular area, the width difference from the previous rectangular area, the height difference from the previous rectangular area, and the partial image of the rectangular area to the trained model, And determining the type of the object detected by the detection procedure on the basis of the probability of each type output from.

また、本発明は、上記の発明において、前記種別判定手順は、前記移動履歴情報に含まれる所定の時間ごとの前記矩形領域の水平方向の移動量及び垂直方向の移動量を画像化したパラメータ画像を前記学習済モデルに入力し、該学習済モデルから出力される種別毎の確率に基づいて、前記検知手順により検知された物体の種別を判定することを特徴とする。   Further, in the present invention according to the above invention, the type determination step includes a parameter image obtained by imaging a horizontal movement amount and a vertical movement amount of the rectangular area for each predetermined time included in the movement history information. Is input to the learned model, and the type of the object detected by the detection procedure is determined based on the probability of each type output from the learned model.

また、本発明は、上記の発明において、前記種別判定手順は、前記移動履歴情報に含まれる所定の時間ごとの前記矩形領域の水平方向の移動量及び垂直方向の移動量を画像化したパラメータ画像と、前記矩形領域の部分画像とを前記学習済モデルに入力し、該学習済モデルから出力される種別毎の確率に基づいて、前記検知手順により検知された物体の種別を判定することを特徴とする。   Further, in the present invention according to the above invention, the type determination step includes a parameter image obtained by imaging a horizontal movement amount and a vertical movement amount of the rectangular area for each predetermined time included in the movement history information. And a partial image of the rectangular area are input to the learned model, and the type of the object detected by the detection procedure is determined based on the probability of each type output from the learned model. And

また、本発明は、上記の発明において、前記学習済モデルは、少なくとも動物、人又は車両に係る移動履歴情報が入力された場合に、前記物体が動物、人又は車両である確率を出力することを特徴とする。   Further, in the present invention according to the above invention, the learned model outputs a probability that the object is an animal, a person, or a vehicle when at least movement history information related to an animal, a person, or a vehicle is input. It is characterized by.

また、本発明は、上記の発明において、前記種別判定手順により前記物体の種別が動物であると判定されたならば、所定の警報灯による警報を発するよう制御し、該物体の種別が人又は車両であると判定されたならば、前記所定の警報灯による警報を発しないよう制御する警報制御手順をさらにコンピュータに実行させることを特徴とする。   Further, according to the present invention, in the above invention, if the type of the object is determined to be an animal by the type determination procedure, control is performed so as to issue a warning by a predetermined warning light, and the type of the object is human or If it is determined that the vehicle is a vehicle, the computer is further caused to execute an alarm control procedure for controlling not to issue an alarm by the predetermined alarm light.

また、本発明は、所定の撮像装置により撮像された画像に含まれる物体を検知する検知部と、前記検知部により検知された物体を追跡して該物体の移動履歴情報を取得する移動履歴情報取得部と、少なくとも前記移動履歴情報に基づいて、前記検知部により検知された物体の種別を判定する種別判定部とを備えたことを特徴とする。   Further, the present invention provides a detection unit for detecting an object included in an image captured by a predetermined imaging device, and movement history information for tracking the object detected by the detection unit and acquiring the movement history information of the object. An acquisition unit and a type determination unit that determines the type of the object detected by the detection unit based on at least the movement history information.

また、本発明は、所定の撮像装置により撮像された画像に含まれる物体を検知する検知工程と、前記検知工程により検知された物体を追跡して該物体の移動履歴情報を取得する移動履歴情報取得工程と、少なくとも前記移動履歴情報に基づいて、前記検知工程により検知された物体の種別を判定する種別判定工程とを含んだことを特徴とする。   Further, the present invention provides a detecting step of detecting an object included in an image captured by a predetermined imaging device, and moving history information of tracking the object detected in the detecting step and acquiring moving history information of the object. The method includes an acquisition step and a type determination step of determining a type of the object detected in the detection step based on at least the movement history information.

本発明によれば、入力画像に含まれる物体に係る画素数が少ない場合であっても、物体の種別を迅速かつ正確に判定することが可能となる。   According to the present invention, it is possible to quickly and accurately determine the type of an object even when the number of pixels related to the object included in the input image is small.

図1は、本実施例1に係る種別判定プログラムの概要を説明するための説明図である。FIG. 1 is an explanatory diagram for explaining an overview of the type determination program according to the first embodiment. 図2は、図1に示した入力画像の一例を示す図である。FIG. 2 is a diagram illustrating an example of the input image illustrated in FIG. 図3は、車両の走行試験を行うテストコースに設置された警報システムのシステム構成を示す図である。FIG. 3 is a diagram showing a system configuration of an alarm system installed on a test course for performing a running test of a vehicle. 図4は、図3に示した警報制御装置の構成を示す機能ブロック図である。FIG. 4 is a functional block diagram showing the configuration of the alarm control device shown in FIG. 図5は、図4に示した種別判定部による学習済モデルを用いた種別判定の一例を示す図である。FIG. 5 is a diagram illustrating an example of type determination using the learned model by the type determination unit illustrated in FIG. 4. 図6は、学習データとしての移動履歴情報の一例を示す図である。FIG. 6 is a diagram illustrating an example of movement history information as learning data. 図7は、図5に示した学習済モデルの層構造の一例を示す図である。FIG. 7 is a diagram illustrating an example of a layer structure of the learned model illustrated in FIG. 図8は、図4に示した警報制御装置の処理手順を示すフローチャートである。FIG. 8 is a flowchart showing a processing procedure of the alarm control device shown in FIG. 図9は、図8のステップS102に示した物体検知及び移動履歴情報の取得に関する処理手順を示すフローチャートである。FIG. 9 is a flowchart showing a processing procedure relating to object detection and acquisition of movement history information shown in step S102 of FIG. 図10は、本実施例2に係る学習済モデルを用いた種別判定の一例を示す図である。FIG. 10 is a diagram illustrating an example of the type determination using the learned model according to the second embodiment. 図11は、図10に示した学習済モデルの層構造の一例を示す図である。FIG. 11 is a diagram illustrating an example of a layer structure of the learned model illustrated in FIG. 図12は、本実施例3に係る学習済モデルを用いた種別判定の一例を示す図である。FIG. 12 is a diagram illustrating an example of the type determination using the learned model according to the third embodiment. 図13は、図12に示したパラメータ画像を説明するための説明図である。FIG. 13 is an explanatory diagram for explaining the parameter image shown in FIG. 図14は、学習済モデルを用いた種別判定の変形例を示す図である。FIG. 14 is a diagram illustrating a modification of the type determination using the learned model. 図15は、図4に示した警報制御装置のハードウエア構成の一例を示す図である。FIG. 15 is a diagram illustrating an example of a hardware configuration of the alarm control device illustrated in FIG.

以下、添付図面を参照して、本実施例に係る種別判定プログラム、種別判定装置及び種別判定方法について説明する。本実施例では、車両の走行試験を行うテストコースに本発明を適用した場合について示すこととする。以下では、プログラムからなるCNN(Convolutional Neural Network)の学習済モデルを用いる場合を中心に説明する。   Hereinafter, a type determination program, a type determination device, and a type determination method according to the present embodiment will be described with reference to the accompanying drawings. In this embodiment, a case where the present invention is applied to a test course for performing a running test of a vehicle will be described. Hereinafter, a description will be given mainly of a case where a learned model of a CNN (Convolutional Neural Network) including a program is used.

<種別判定プログラムの概要>
まず、本実施例1に係る種別判定プログラムの概要について説明する。図1は、本実施例1に係る種別判定プログラムの概要を説明するための説明図であり、図2は、図1に示した入力画像Aの一例を示す図である。
<Overview of type determination program>
First, an outline of the type determination program according to the first embodiment will be described. FIG. 1 is an explanatory diagram for explaining an overview of the type determination program according to the first embodiment, and FIG. 2 is a diagram illustrating an example of the input image A illustrated in FIG.

図1に示す種別判定プログラムは、警報制御装置40にインストールされるプログラムである。その詳細な説明は後述するが、警報制御装置40は、監視カメラ10から複数の画像を受け付けたならば、各画像から物体が存在する領域を切り出して入力画像Aとし、この入力画像Aに含まれる物体A1の種別を判定する装置である。   The type determination program shown in FIG. 1 is a program installed in the alarm control device 40. As will be described in detail later, when the alarm control device 40 receives a plurality of images from the monitoring camera 10, the alarm control device 40 cuts out an area where an object is present from each image to obtain an input image A, which is included in the input image A. This is a device for determining the type of the object A1 to be performed.

ここで、図2に示す物体A2のように、この物体A2を形成する画素数が多く、該物体A2が車両であることが明らかである場合には、既存のテンプレートマッチング等の画像処理又は機械学習を用いて物体A2の種別を判定することができる。これに対して、図2に示す物体A1のように、この物体A1を形成する画素数が少なく、該物体A1の種別が明らかでない場合には、既存のテンプレートマッチング等の画像処理又は機械学習を用いて物体A2の種別を判定することが難しい。   Here, like the object A2 shown in FIG. 2, when the number of pixels forming the object A2 is large and it is clear that the object A2 is a vehicle, existing image processing such as template matching or machine processing The type of the object A2 can be determined using learning. On the other hand, as in the case of the object A1 shown in FIG. 2, when the number of pixels forming the object A1 is small and the type of the object A1 is not clear, existing image processing such as template matching or machine learning is performed. It is difficult to determine the type of the object A2 using the information.

このため、本実施例1に係る種別判定プログラムでは、監視カメラ10から受け付けた各画像に含まれる物体A1の移動履歴情報Bを学習済モデル50に入力する。そして、この学習済モデル50から出力される物体A1の種別毎の確率(動物である確率、車両である確率、人である確率)と所定の閾値に基づいて、物体A1の種別を判定する。これにより、物体A1を形成する画素数が少ない場合であっても、物体A1の種別を判定することができる。   Therefore, in the type determination program according to the first embodiment, the movement history information B of the object A1 included in each image received from the monitoring camera 10 is input to the learned model 50. Then, the type of the object A1 is determined based on the probability (probability of being an animal, probability of being a vehicle, probability of being a person) for each type of the object A1 output from the learned model 50 and a predetermined threshold. Thus, even when the number of pixels forming the object A1 is small, the type of the object A1 can be determined.

次に、図1に示す種別判定プログラムの具体的な処理内容について説明する。図1に示すように、この種別判定プログラムは、監視カメラ10から受け付けた各画像に含まれる物体A1をそれぞれ検知したならば、この物体A1を含む部分画像をそれぞれ入力画像Aとし、各入力画像Aに含まれる物体A1を検知する(S11)。具体的には、複数の入力画像A間の画素の移動ベクトルを用いて各入力画像Aに含まれる物体A1を検知する。   Next, specific processing contents of the type determination program shown in FIG. 1 will be described. As shown in FIG. 1, when the type determination program detects an object A1 included in each image received from the surveillance camera 10, the partial image including the object A1 is set as an input image A, and An object A1 included in A is detected (S11). Specifically, an object A1 included in each input image A is detected using a movement vector of a pixel between the plurality of input images A.

そして、該物体A1の移動履歴情報Bを取得する(S12)。具体的には、検知された物体A1を形成する画素の移動ベクトルと所定の尤度に基づいて、物体A1を含む矩形領域を特定し、特定した矩形領域の移動履歴に係る情報を移動履歴情報Bとして取得する。なお、この移動履歴情報Bには、所定の時間ごとの矩形領域の幅、矩形領域の高さ、矩形領域の水平方向の移動量、矩形領域の垂直方向の移動量、形領域との幅差及び形領域との高さ差が含まれる。   Then, the movement history information B of the object A1 is obtained (S12). Specifically, a rectangular area including the object A1 is specified based on the detected movement vector of the pixel forming the object A1 and a predetermined likelihood, and information related to the movement history of the specified rectangular area is referred to as movement history information. Obtained as B. Note that the movement history information B includes the width of the rectangular area, the height of the rectangular area, the amount of horizontal movement of the rectangular area, the amount of vertical movement of the rectangular area, and the width difference from the shaped area at predetermined time intervals. And the height difference from the shape region.

その後、この移動履歴情報Bを学習済モデル50に入力したならば(S13)、物体の種別毎の確率が学習済モデル50から出力される(S14)。この学習済モデル50は、教師データをなす物体の移動履歴情報及び該物体の種別を所定の多層ニューラルネットワーク(CNN)に適用して深層学習を行った学習済モデルである。ここでは、この学習済モデル50がプログラムである場合を示すが、FPGA(Field-Programmable Gate Array)等のロジック回路で構成することもできる。   Thereafter, if the movement history information B is input to the learned model 50 (S13), the probability for each type of object is output from the learned model 50 (S14). The trained model 50 is a trained model in which deep learning has been performed by applying the movement history information of the object forming the teacher data and the type of the object to a predetermined multilayer neural network (CNN). Here, the case where the learned model 50 is a program is shown, but the learned model 50 may be constituted by a logic circuit such as an FPGA (Field-Programmable Gate Array).

この学習済モデル50は、移動履歴情報Bが入力されたことを条件として、物体の種別毎の確率を出力する。例えば、図1に図示したように、物体の種別が「車両」である確率「0.1(10%)」、物体の種別が「人」である確率「0.1(10%)」、物体の種別が「動物」である確率「0.8(80%)」が出力される。   The learned model 50 outputs the probability for each type of object on condition that the movement history information B is input. For example, as shown in FIG. 1, the probability that the type of the object is “vehicle” is “0.1 (10%)”, the probability that the type of the object is “person” is “0.1 (10%)”, The probability that the type of the object is “animal” is “0.8 (80%)”.

種別判定プログラムは、この物体の種別毎の確率に基づいて、入力画像Aに含まれる物体A1の種別を判定する(S15)。例えば、物体の種別毎の確率のいずれか一つが、所定の閾値(例えば、0.8(80%))を超えたならば、閾値を超えた確率に対応する種別を物体の種別であると判定する。   The type determination program determines the type of the object A1 included in the input image A based on the probability of each type of the object (S15). For example, if any one of the probabilities for each type of object exceeds a predetermined threshold (for example, 0.8 (80%)), the type corresponding to the probability of exceeding the threshold is the type of object. judge.

このように、本実施例1に係る種別判定プログラムは、監視カメラにより撮像された画像に含まれる物体A1を検知し、検知された物体A1を追跡して該物体A1の移動履歴情報Bを取得し、移動履歴情報Bに基づいて検知された物体の種別を判定する処理をコンピュータに実行させるプログラムである。   As described above, the type determination program according to the first embodiment detects the object A1 included in the image captured by the monitoring camera, tracks the detected object A1, and acquires the movement history information B of the object A1. Then, the program causes the computer to execute a process of determining the type of the detected object based on the movement history information B.

なお、この種別判定プログラムは、物体A1の種別が「動物」であると判定されたならば、所定の警報灯による警報を発するよう制御し、該物体A1の種別が「人」又は「車両」であると判定されたならば、所定の警報灯による警報を発しないよう制御する。これにより、テストコース内に動物が侵入した場合に、試験車両の走行テストを中止させ、試験車両と動物の衝突事故を回避することができる。   When the type of the object A1 is determined to be “animal”, the type determination program controls to issue an alarm by a predetermined warning light, and the type of the object A1 is “human” or “vehicle”. If it is determined that the above condition is satisfied, control is performed so as not to issue a warning by a predetermined warning light. Thus, when an animal enters the test course, the running test of the test vehicle is stopped, and a collision accident between the test vehicle and the animal can be avoided.

<警報システムの構成>
次に、車両の走行試験を行うテストコースTに設置された警報システムのシステム構成について説明する。図3は、車両の走行試験を行うテストコースTに設置された警報システムのシステム構成を示す図である。同図に示すように、この警報システムは、監視カメラ10と、警報灯20と、スピーカ30とを、それぞれ警報制御装置40と通信可能に接続した構成となる。ここでは、各装置間を無線により接続した場合を示している。なお、上記の種別判定プログラムは、警報制御装置40にインストールされる。
<Configuration of alarm system>
Next, a system configuration of an alarm system installed on a test course T for performing a running test of a vehicle will be described. FIG. 3 is a diagram showing a system configuration of an alarm system installed on a test course T for performing a running test of a vehicle. As shown in the figure, the alarm system has a configuration in which a monitoring camera 10, an alarm lamp 20, and a speaker 30 are connected to be able to communicate with an alarm control device 40, respectively. Here, the case where each device is wirelessly connected is shown. The above-described type determination program is installed in the alarm control device 40.

監視カメラ10は、テストコースTの外部からテストコースTに侵入する物体A1の画像を撮像する撮像装置であり、テストコースTの外柵周辺に一定間隔(例えば、数百mごと)で配設されている。この監視カメラ10は、無線LAN(Local Area Network)等のIPネットワークを介して、警報制御装置40に画像を送信する。なお、ここでは監視カメラ10から警報制御装置40に対して画像を送信する場合を示したが、監視カメラ10から警報制御装置40に対して動画像を送信することもできる。動画像を送信する場合には、警報制御装置40が、動画像からフレーム毎に画像を切り出す処理を行うことになる。   The monitoring camera 10 is an imaging device that captures an image of the object A1 that enters the test course T from outside the test course T, and is disposed at regular intervals (for example, every several hundred meters) around the outer fence of the test course T. Have been. The monitoring camera 10 transmits an image to the alarm control device 40 via an IP network such as a wireless LAN (Local Area Network). Although the case where an image is transmitted from the monitoring camera 10 to the alarm control device 40 has been described here, a moving image can be transmitted from the monitoring camera 10 to the alarm control device 40. When transmitting a moving image, the alarm control device 40 performs a process of cutting out an image from the moving image for each frame.

警報灯20は、試験車両を運転するドライバー及びテストコースTの監視を行う監視員等に対して、テストコースTでの異常発生を視覚的に報知するための表示デバイスである。この警報灯20は、テストコースTを走行する試験車両のドライバーが視認できるように、一定間隔(例えば、数百mごと)で配設され、警報制御装置40により表示制御される。例えば、試験車両の走行試験を行っている間は警報灯20を緑色表示し、走行試験を中止すべき事象が発生したならば警報灯20を赤色点滅させる。このため、例えば試験車両のドライバーが、走行路を走行している状況で警報灯20の赤色点滅を視認したならば、直ちに試験中止と判断して所定の位置に移動する。   The warning light 20 is a display device for visually notifying a driver who drives the test vehicle and a supervisor who monitors the test course T of the occurrence of an abnormality in the test course T. The warning lights 20 are provided at regular intervals (for example, every several hundred meters) so that the driver of the test vehicle traveling on the test course T can visually recognize the warning lights 20, and the display is controlled by the warning control device 40. For example, the warning light 20 is displayed in green during the running test of the test vehicle, and the warning light 20 is flashed in red if an event to stop the running test occurs. For this reason, for example, if the driver of the test vehicle visually recognizes the flashing of the red warning light 20 while traveling on the road, it is immediately determined that the test is to be stopped and the test vehicle is moved to a predetermined position.

スピーカ30は、試験車両を運転するドライバー及びテストコースTの監視を行う監視員等に対して、テストコースTでの試験状況を音響的に報知するための報知デバイスである。走行試験を中止すべき事象が発生したならば、警報制御装置40の指示に応じて所定の警報音を出力する。このため、例えば試験車両のドライバーが、走行路を走行している状況で警報音を確認したならば、直ちに試験中止と判断して所定の位置に移動する。   The speaker 30 is a notification device for acoustically notifying a driver driving the test vehicle, a supervisor monitoring the test course T, and the like of a test situation on the test course T. When an event to stop the running test occurs, a predetermined alarm sound is output according to the instruction of the alarm control device 40. For this reason, for example, if the driver of the test vehicle confirms the warning sound while traveling on the traveling road, it is immediately determined that the test has been stopped and the vehicle moves to a predetermined position.

警報制御装置40は、一種のコンピュータであり、図1を用いて説明した種別判定プログラムをインストールすることにより、本発明に係る種別判定処理を行う。具体的には、画像に含まれる物体A1の種別を判定し、この物体A1の種別が「動物」であると判定した場合に、警報灯20の表示制御及びスピーカ30からの警報音の出力制御により試験車両のドライバー等に警報を行う。なお、物体A1の種別が「人」又は「車両」であると判定した場合には、警報灯20の表示制御及びスピーカ30からの警報音の出力制御は行わない。なお、かかる警報制御装置40に関する詳細な説明については後述する。   The alarm control device 40 is a type of computer, and performs the type determination process according to the present invention by installing the type determination program described with reference to FIG. Specifically, the type of the object A1 included in the image is determined, and when the type of the object A1 is determined to be “animal”, the display control of the warning light 20 and the output control of the warning sound from the speaker 30 are performed. To warn the driver of the test vehicle. When it is determined that the type of the object A1 is “person” or “vehicle”, the display control of the warning light 20 and the output control of the warning sound from the speaker 30 are not performed. The detailed description of the alarm control device 40 will be described later.

<警報制御装置40の構成>
次に、図3に示した警報制御装置40の構成について説明する。図4は、図3に示した警報制御装置40の構成を示す機能ブロック図である。同図に示すように、この警報制御装置40は、入力部41、表示部42、通信インターフェース部(以下、単に「通信I/F部」と言う)43、記憶部44及び制御部45を有する。
<Configuration of alarm control device 40>
Next, the configuration of the alarm control device 40 shown in FIG. 3 will be described. FIG. 4 is a functional block diagram showing the configuration of the alarm control device 40 shown in FIG. As shown in FIG. 1, the alarm control device 40 includes an input unit 41, a display unit 42, a communication interface unit (hereinafter, simply referred to as a “communication I / F unit”) 43, a storage unit 44, and a control unit 45. .

入力部41は、キーボード又はマウス等の入力デバイスであり、表示部42は、液晶パネル又はディスプレイ装置等の表示デバイスである。通信I/F部43は、無線LAN等を介して監視カメラ10、警報灯20及びスピーカ30と通信するためのインターフェース部である。   The input unit 41 is an input device such as a keyboard or a mouse, and the display unit 42 is a display device such as a liquid crystal panel or a display device. The communication I / F unit 43 is an interface unit for communicating with the monitoring camera 10, the alarm lamp 20, and the speaker 30 via a wireless LAN or the like.

記憶部44は、不揮発性メモリ又はハードディスク装置等の記憶デバイスであり、学習データ44a及び移動履歴情報44b等を記憶する。学習データ44aは、CNNが教師有り学習を行う場合に用いる学習用の画像データである。移動履歴情報44bは、物体A1の移動履歴を示す情報である。   The storage unit 44 is a storage device such as a nonvolatile memory or a hard disk device, and stores the learning data 44a, the movement history information 44b, and the like. The learning data 44a is learning image data used when the CNN performs supervised learning. The movement history information 44b is information indicating the movement history of the object A1.

制御部45は、警報制御装置40の全体制御を行う制御部であり、検知部45aと、移動履歴情報取得部45bと、種別判定部45cと、警報指示部45dとを有する。なお、その詳細な説明は後述するが、警報制御装置40のCPU(Central Processing Unit)が、本発明に係る種別判定プログラムを不揮発性メモリ等から主記憶装置であるRAM(Random Access Memory)上にロードして実行することにより、検知部45a、移動履歴情報取得部45b、種別判定部45c及び警報指示部45dに対応するプロセスが形成される。   The control unit 45 is a control unit that performs overall control of the alarm control device 40, and includes a detection unit 45a, a movement history information acquisition unit 45b, a type determination unit 45c, and an alarm instruction unit 45d. Although a detailed description will be given later, the CPU (Central Processing Unit) of the alarm control device 40 stores the type determination program according to the present invention from a non-volatile memory or the like on a RAM (Random Access Memory) as a main storage device. By loading and executing, processes corresponding to the detection unit 45a, the movement history information acquisition unit 45b, the type determination unit 45c, and the alarm instruction unit 45d are formed.

検知部45aは、連続する複数のフレームの画像間の画素の移動ベクトルに基づいて、監視カメラ10により撮像された画像に含まれる物体A1を検知する処理部である。具体的には、複数の画像で動きのある画素が存在するならば、動きのある画素に基づいて物体A1を検知する。なお、画素の移動ベクトルとは、物体A1の同じ箇所を示す画素間のベクトル(例えば、オプティカルフロー)である。   The detection unit 45a is a processing unit that detects an object A1 included in an image captured by the monitoring camera 10 based on a movement vector of pixels between images of a plurality of continuous frames. Specifically, if there are moving pixels in a plurality of images, the object A1 is detected based on the moving pixels. Note that the pixel movement vector is a vector (for example, an optical flow) between pixels indicating the same location of the object A1.

移動履歴情報取得部45bは、検知部45aにより検知された物体A1を形成する画素の移動ベクトルと所定の尤度に基づいて、物体A1を含む矩形領域を特定し、特定した矩形領域の移動履歴に係る情報を移動履歴情報として取得する処理部である。具体的には、画像を形成する画素ごとにオプティカルフローと尤度を算出し、オプティカルフローに基づき過去の物体抽出結果を移動させて動きのある画素を抽出し、パーティクルとしての矩形領域を画像上に配置し、矩形領域内の物体抽出結果位置のオプティカルフローに基づいて矩形領域を移動させ、矩形領域内外の物体抽出結果に基づいて矩形領域ごとに算出した尤度を用いてリサンプリングさせたパーティクルフィルタを用いて物体A1を検知し、矩形領域内外の物体抽出結果位置の色のヒストグラムに基づいて矩形領域ごとに算出した尤度を用いてリサンプリングさせたパーティカルフィルタを用いて物体A1を追跡して移動履歴情報Bを取得する。具体的な処理については、特願2018−046582号と同様のものとなる。   The movement history information acquisition unit 45b specifies a rectangular area including the object A1 based on a movement vector of a pixel forming the object A1 detected by the detection unit 45a and a predetermined likelihood, and specifies a movement history of the specified rectangular area. Is a processing unit that acquires the information according to (1) as movement history information. Specifically, an optical flow and likelihood are calculated for each pixel forming an image, a past object extraction result is moved based on the optical flow to extract a moving pixel, and a rectangular area as a particle is displayed on the image. Particles that move based on the optical flow at the position of the object extraction result within the rectangular area, and are resampled using the likelihood calculated for each rectangular area based on the object extraction results inside and outside the rectangular area The object A1 is detected using the filter, and the object A1 is tracked using the particle filter resampled using the likelihood calculated for each rectangular area based on the color histogram of the position of the object extraction result inside and outside the rectangular area. To obtain the movement history information B. The specific processing is similar to that of Japanese Patent Application No. 2018-046582.

種別判定部45cは、検知部45aにより検知された物体A1の種別を判定する処理部であり、CNNの学習済モデル50を用いて物体A1の種別毎の確率を出力する。そして、物体A1の種別毎の確率のうち、所定の閾値(例えば、80%)を超える確率が存在する場合に、該確率に対応する種別が物体A1の種別であると判定する。このCNNには、オープンソース製品として提供される「caffe」、「TensorFlow」、「Chainer」、「CNTK」などを用いることができる。   The type determination unit 45c is a processing unit that determines the type of the object A1 detected by the detection unit 45a, and outputs a probability for each type of the object A1 using the learned model 50 of the CNN. Then, when there is a probability exceeding a predetermined threshold (for example, 80%) among the probabilities for each type of the object A1, it is determined that the type corresponding to the probability is the type of the object A1. As this CNN, “caffe”, “TensorFlow”, “Chainer”, “CNTK”, or the like provided as an open source product can be used.

警報指示部45dは、物体A1の種別が「動物」であると判定された場合に、警報灯20及びスピーカ30に対して警報指示を行う処理部である。物体A1の種別が「車両」又は「人」であると判定された場合には、警報灯20及びスピーカ30に対する警報指示を行わない。警報灯20には、あらかじめ警告指示のデータパターンに対応付けて警告灯の表示態様が記憶されており、警報指示部45dの警告指示に含まれるデータパターンに対応する表示態様で表示を行う。同様に、スピーカ30には、あらかじめ警告指示のデータパターンに対応付けて出力音のパターンが記憶されており、警報指示部45dの警告指示に含まれるデータパターンに対応する出力音を出力する。スピーカ30は、警報指示部45dから出力される警告指示に含まれる出力音を出力することもできる。   The alarm instruction unit 45d is a processing unit that issues an alarm instruction to the alarm lamp 20 and the speaker 30 when the type of the object A1 is determined to be “animal”. When it is determined that the type of the object A1 is “vehicle” or “person”, the warning instruction to the warning light 20 and the speaker 30 is not performed. The warning light 20 previously stores a display mode of the warning light in association with the data pattern of the warning instruction, and performs display in a display mode corresponding to the data pattern included in the warning instruction of the warning instruction unit 45d. Similarly, an output sound pattern is stored in the speaker 30 in advance in association with the data pattern of the warning instruction, and outputs an output sound corresponding to the data pattern included in the warning instruction of the warning instruction section 45d. The speaker 30 can output an output sound included in the warning instruction output from the warning instruction unit 45d.

ここで、上記のCNNの学習済モデル50を用いた種別判定についてさらに説明する。図5は、図4に示した種別判定部45cによる学習済モデル50を用いた種別判定の一例を示す図である。図6は、学習データとしての移動履歴情報の一例を示す図である。図7は、図5に示した学習済モデル50の層構造の一例を示す図である。   Here, the type determination using the learned model 50 of the CNN will be further described. FIG. 5 is a diagram illustrating an example of type determination using the learned model 50 by the type determination unit 45c illustrated in FIG. FIG. 6 is a diagram illustrating an example of movement history information as learning data. FIG. 7 is a diagram illustrating an example of a layer structure of the learned model 50 illustrated in FIG.

CNNに教師有り学習を行わせる場合には、図6に示した学習データとしての移動履歴情報と正解データをCNNに付与し、バックプロパゲーション等により教師有り学習を行わせる。なお、バックプロパゲーションは深層学習に関する周知技術であるため、ここではその説明を省略する。例えば、CNNに「動物」を学習させる場合には、CNNに図6(a)に示す移動履歴情報を入力し、正解データ(P1,P2,P3)=(1,0,0)を付与し、バックプロパゲーションを行わせる。また、CNNに「車両」を学習させる場合には、CNNに図6(b)に示す移動履歴情報を入力し、正解データ(P1,P2,P3)=(0,1,0)を付与し、バックプロパゲーションを行わせる。さらに、CNNに「人」を学習させる場合には、CNNに図6(c)に示す移動履歴情報を入力し、正解データ(P1,P2,P3)=(0,0,1)を付与し、バックプロパゲーションを行わせる。このようにして、学習済モデル50のニューロン間のパスの重み等のパラメータが決定される。   When the CNN performs the supervised learning, the movement history information and the correct answer data as the learning data shown in FIG. 6 are provided to the CNN, and the supervised learning is performed by back propagation or the like. Since back propagation is a well-known technique related to deep learning, its description is omitted here. For example, when the CNN learns “animal”, the movement history information shown in FIG. 6A is input to the CNN, and correct data (P1, P2, P3) = (1, 0, 0) is added. , Backpropagation. When the CNN is to learn "vehicle", the movement history information shown in FIG. 6B is input to the CNN, and correct data (P1, P2, P3) = (0, 1, 0) is added. , Backpropagation. Further, when making the CNN learn “person”, the movement history information shown in FIG. 6C is input to the CNN, and correct data (P1, P2, P3) = (0, 0, 1) is added. , Backpropagation. In this way, parameters such as the weight of the path between the neurons of the learned model 50 are determined.

ここで、図6(a)〜図6(c)に示した各移動履歴情報は、それぞれ所定の時間ごとの矩形領域の幅(第1行目)、矩形領域の高さ(第2行目)、矩形領域の水平方向の移動量(第3行目)、矩形領域の垂直方向の移動量(第4行目)、前矩形領域との幅差(第5行目)及び前矩形領域との高さ差(第6行目)からなる。なお、所定の時間ごとの矩形領域の水平方向の移動量(第3行目)及び垂直方向の移動量(第4行目)のみを入力することもできる。また、ここでは学習データとしての移動履歴情報の一例を示したが、物体A1の種別判定を行う場合にも、同様の構造を有する移動履歴情報が学習済モデル50に入力される。   Here, each of the movement history information shown in FIGS. 6A to 6C includes a rectangular area width (first row) and a rectangular area height (second row) at predetermined time intervals. ), The amount of horizontal movement of the rectangular area (third line), the amount of vertical movement of the rectangular area (fourth line), the width difference from the previous rectangular area (fifth line), (The sixth row). It is also possible to input only the horizontal movement amount (third line) and the vertical movement amount (fourth line) of the rectangular area at predetermined time intervals. Here, an example of the movement history information as learning data has been described. However, also when performing the type determination of the object A1, the movement history information having the same structure is input to the learned model 50.

次に、学習済モデル50の層構造について説明する。図7に示す学習済モデル50は、コンボリューション層(Convolution)51、コンボリューション層(Convolution)52、アベレージプーリング層(Average Pooling)53、コンボリューション層(Convolution)54、アベレージプーリング層(Average Pooling)55、全結合層(Fully Connect)56、全結合層(Fully Connect)57及び出力層(Softmax)58を有する。   Next, the layer structure of the learned model 50 will be described. The learned model 50 shown in FIG. 7 includes a convolution layer (Convolution) 51, a convolution layer (Convolution) 52, an average pooling layer (Average Pooling) 53, a convolution layer (Convolution) 54, and an average pooling layer (Average Pooling). 55, a fully connected layer (Fully Connect) 56, a fully connected layer (Fully Connect) 57, and an output layer (Softmax) 58.

コンボリューション層51,52,54は、局所的な特徴を抽出するために、前層で近くにあるノードにフィルタを畳み込んで特徴マップを生成する。アベレージプーリング層53,55は、局所的な特徴をまとめあげるために、前層であるコンボリューション層から出力された特徴マップをさらに縮小して新たな特徴マップとする。このように、CNNの隠れ層は、コンボリューション層とアベレージプーリング層により形成される。全結合層56,57は、特徴部分が取り出された特徴マップを一つのノードに結合し、所定の活性化関数によって変換された値を出力する。この活性化関数には、周知技術であるReLU(Rectified Linear Unit)等を用いることができる。出力層58は、全結合層57からの出力(特徴変数)を元に、ソフトマックス関数を用いて確率に変換し、それぞれ正しく分類される確率を出力する。なお、オーバーフィッティングを避けるためにドロップアウト層を追加することもできる。なお、CNNの基本構造は公知技術であるため、ここではその詳細な説明を省略する。   The convolution layers 51, 52, and 54 generate a feature map by convolving a filter with a nearby node in the previous layer in order to extract local features. The average pooling layers 53 and 55 further reduce the feature map output from the convolution layer, which is the previous layer, into a new feature map in order to collect local features. As described above, the hidden layer of the CNN is formed by the convolution layer and the average pooling layer. The fully connected layers 56 and 57 combine the feature map from which the feature portions have been extracted into one node, and output a value converted by a predetermined activation function. For this activation function, a well-known technique such as ReLU (Rectified Linear Unit) can be used. The output layer 58 converts the outputs (feature variables) from the fully connected layer 57 into probabilities using a softmax function, and outputs the probabilities of being correctly classified. Note that a dropout layer can be added to avoid overfitting. Since the basic structure of the CNN is a known technology, a detailed description thereof is omitted here.

<警報制御装置40の処理手順>
次に、図4に示した警報制御装置40の処理手順について説明する。図8は、図4に示した警報制御装置40の処理手順を示すフローチャートである。同図に示すように、警報制御装置40は、監視カメラ10から複数の画像を受信する(ステップS101)。かかる複数の画像は、時系列的に連続するフレームの画像である。なお、監視カメラ10から動画を入力し、動画から各フレームに対応する画像を切り出しても良い。
<Processing procedure of alarm control device 40>
Next, a processing procedure of the alarm control device 40 shown in FIG. 4 will be described. FIG. 8 is a flowchart showing a processing procedure of the alarm control device 40 shown in FIG. As shown in the figure, the alarm control device 40 receives a plurality of images from the monitoring camera 10 (Step S101). The plurality of images are images of frames that are continuous in time series. Note that a moving image may be input from the monitoring camera 10 and an image corresponding to each frame may be cut out from the moving image.

その後、警報制御装置40は、複数の画像を用いた物体検知及び移動履歴情報の取得を行い(ステップS102)、各画像内の物体A1の種別判定を行う(ステップS103)。この種別判定において、移動履歴情報Bを学習済モデル50に入力したならば、学習済モデル50は、物体A1の種別が「動物」である確率P1、物体A1の種別が「車両」である確率P2、物体A1の種別が「人」である確率P3が出力される。ここで、いずれか一つの確率が所定の閾値(例えば、「0.8」)を超える場合に、該確率に対応する種別が物体A1の種別と判定される。   Thereafter, the alarm control device 40 performs object detection using a plurality of images and obtains movement history information (step S102), and determines the type of the object A1 in each image (step S103). In this type determination, if the movement history information B is input to the learned model 50, the learned model 50 has a probability P1 that the type of the object A1 is “animal” and a probability that the type of the object A1 is “vehicle”. P2 and the probability P3 that the type of the object A1 is "person" are output. Here, when any one of the probabilities exceeds a predetermined threshold (for example, “0.8”), the type corresponding to the probability is determined to be the type of the object A1.

その後、警報制御装置40は、物体A1の種別が「動物」であると判定されたならば(ステップS104;Yes)、警報灯20及びスピーカ30に対して警報指示を行う(ステップS105)。これに対して、物体A1の種別が「動物」でないと判定されたならば(ステップS104;No)、警報灯20及びスピーカ30に対して警報指示を行わない。なお、ここでは説明の便宜上、物体A1の種別が「動物」ではない場合に警報指示を行わないこととしたが、物体A1の種別が「車両」又は「人」であると判定された場合に警報指示を行わず、物体A1の種別が「UNKNOWN(不明)」と判定された場合に警報指示を行うこともできる。   Thereafter, when it is determined that the type of the object A1 is “animal” (Step S104; Yes), the alarm control device 40 issues an alarm instruction to the alarm lamp 20 and the speaker 30 (Step S105). On the other hand, if it is determined that the type of the object A1 is not “animal” (Step S104; No), no warning instruction is issued to the warning light 20 and the speaker 30. Here, for convenience of explanation, it is determined that the warning instruction is not issued when the type of the object A1 is not “animal”. However, when it is determined that the type of the object A1 is “vehicle” or “person”, If the type of the object A1 is determined to be "UNKNOWN (unknown)" without issuing a warning instruction, a warning instruction can be given.

次に、図8のステップS102に示した物体検知及び移動履歴情報の取得に関する手順について説明する。図9は、図8のステップS102に示した物体検知及び移動履歴情報の取得に関する手順を示すフローチャートである。   Next, a procedure related to object detection and acquisition of movement history information shown in step S102 of FIG. 8 will be described. FIG. 9 is a flowchart showing a procedure relating to object detection and acquisition of movement history information shown in step S102 of FIG.

図9に示すように、警報制御装置40は、画像の画素毎にオプティカルフローと尤度を算出し(ステップS201)、オプティカルフローに基づいて動きのある画素を抽出する(ステップS202)。その後、画像上にパーティクルとしての矩形を配置し(ステップS203)、オプティカルフローに基づいて矩形を移動させる(ステップS204)。その後、矩形の中心の移動ベクトルの履歴を移動履歴情報44bとして記憶部44に記憶する(ステップS205)。これにより、移動履歴情報44bを学習済モデル50に入力して種別判定を行うことができる。   As shown in FIG. 9, the alarm control device 40 calculates an optical flow and a likelihood for each pixel of an image (step S201), and extracts a moving pixel based on the optical flow (step S202). Thereafter, a rectangle as a particle is arranged on the image (step S203), and the rectangle is moved based on the optical flow (step S204). Thereafter, the history of the movement vector of the center of the rectangle is stored in the storage unit 44 as the movement history information 44b (step S205). Thus, the movement history information 44b can be input to the learned model 50 to make a type determination.

上述してきたように、本実施例1では、監視カメラ10により撮像された画像に含まれる物体A1を検知し、検知した物体A1を追跡して該物体A1の移動履歴情報Bを取得し、少なくとも移動履歴情報Bに基づいて物体A1の種別を判定するよう構成したので、画像に含まれる物体A1を形成する画素数が少ない場合であっても、物体A1の移動履歴情報Bを活用しつつ該物体A1の種別を判定することができる。   As described above, in the first embodiment, the object A1 included in the image captured by the monitoring camera 10 is detected, the detected object A1 is tracked, and the movement history information B of the object A1 is acquired. Since the type of the object A1 is determined based on the movement history information B, even when the number of pixels forming the object A1 included in the image is small, the movement history information B of the object A1 is used while utilizing the movement history information B. The type of the object A1 can be determined.

ところで、上記の実施例1では、学習済モデル50を用いて種別判定を行う際に、物体A1の移動履歴情報Bのみを学習済モデル50に入力する場合を示したが、本発明はこれに限定されるものではない。本実施例2では、物体A1の移動履歴情報Bと物体A1を含む入力画像Aを学習済モデル60に入力して種別判定を行う場合について説明する。なお、システム構成及び警報制御装置の構成については、実施例1とほぼ同様であるため、ここではその説明を省略する。   By the way, in the first embodiment, the case where only the movement history information B of the object A1 is input to the learned model 50 when performing the type determination using the learned model 50 has been described. It is not limited. In the second embodiment, a case will be described in which the movement history information B of the object A1 and the input image A including the object A1 are input to the learned model 60 and the type determination is performed. Note that the system configuration and the configuration of the alarm control device are almost the same as those in the first embodiment, and thus description thereof is omitted here.

図10は、本実施例2に係る学習済モデル60を用いた種別判定の一例を示す図である。図10に示すように、本実施例2では、物体A1の移動履歴情報Bと物体の画像Cを学習済モデル60に入力する。この画像Cは、図2に示した物体A1を含む入力画像A等の画像であることが望ましい。なお、移動履歴情報Bは、図6を用いて説明したデータ列である。   FIG. 10 is a diagram illustrating an example of type determination using the learned model 60 according to the second embodiment. As shown in FIG. 10, in the second embodiment, the movement history information B of the object A1 and the image C of the object are input to the learned model 60. This image C is preferably an image such as the input image A including the object A1 shown in FIG. Note that the movement history information B is the data sequence described with reference to FIG.

図11は、図10に示した学習済モデル60の層構造の一例を示す図である。図11に示すように、学習済モデル60は、画像Cを処理するために、コンボリューション層(Convolution)61a、コンボリューション層(Convolution)61b、マックスプーリング層(Max Pooling)61c、コンボリューション層(Convolution)61d、マックスプーリング層(Max Pooling)61e及び全結合層(Fully Connect)61fを有する。   FIG. 11 is a diagram showing an example of the layer structure of the learned model 60 shown in FIG. As shown in FIG. 11, the learned model 60 includes a convolution layer (Convolution) 61a, a convolution layer (Convolution) 61b, a max pooling layer (Max Pooling) 61c, and a convolution layer ( Convolution) 61d, a Max Pooling layer 61e, and a Fully Connect layer 61f.

また、移動履歴情報Bを処理するために、コンボリューション層(Convolution)62a、コンボリューション層(Convolution)62b、アベレージプーリング層(Average Pooling)62c、コンボリューション層(Convolution)62d、アベレージプーリング層(Average Pooling)62e及び全結合層(Fully Connect)62fを有する。さらに、全結合層(Fully Connect)63、全結合層(Fully Connect)64、出力層(Softmax)65を有する。なお、各層の説明については省略する。   Further, in order to process the movement history information B, a convolution layer (Convolution) 62a, a convolution layer (Convolution) 62b, an average pooling layer (Average Pooling) 62c, a convolution layer (Convolution) 62d, and an average pooling layer (Average pool) Pooling) 62e and a fully connected layer (Fully Connect) 62f. Further, it has a fully connected layer (Fully Connect) 63, a fully connected layer (Fully Connect) 64, and an output layer (Softmax) 65. The description of each layer is omitted.

このように、この学習済モデル60は、物体A1を含む画像Cと物体A1の移動履歴情報Bとが入力されたならば、物体A1の種別が「動物」である確率P1、物体A1の種別が「車両」である確率P2、物体A1の種別が「人」である確率P3を出力する。   As described above, when the image C including the object A1 and the movement history information B of the object A1 are input, the learned model 60 has a probability P1 that the type of the object A1 is “animal” and a type P of the object A1. Is output as a probability P2 that is a "vehicle", and a probability P3 that the type of the object A1 is "a person".

このように、本実施例2では、物体A1を含む画像Cと物体A1の移動履歴情報Bとを学習済モデル60に入力して、物体A1の種別毎の確率を出力するよう構成したので、物体A1の画像の特徴及び移動履歴の特徴の両面から物体A1の種別を精度良く判定することができる。   As described above, in the second embodiment, the image C including the object A1 and the movement history information B of the object A1 are input to the learned model 60, and the probability of each type of the object A1 is output. The type of the object A1 can be accurately determined from both the characteristics of the image of the object A1 and the characteristics of the movement history.

ところで、上記の実施例1では、図6に示した移動履歴情報Bを学習済モデル50に入力する場合を示したが、CNNを用いた深層学習は画像との親和性が高いため、この移動履歴情報Bを一種のパラメータ画像として取り扱うこともできる。   By the way, in the first embodiment, the case where the movement history information B shown in FIG. 6 is input to the learned model 50 has been described. However, since deep learning using CNN has a high affinity with an image, this movement is performed. The history information B can be handled as a kind of parameter image.

図12は、本実施例3に係る学習済モデル70を用いた種別判定の一例を示す図である。図12に示すように、本実施例3では、物体A1の移動履歴情報Bから生成されるパラメータ画像Dを学習済モデル70に入力する。そして、学習済モデル70は、物体A1の種別が「動物」である確率P1、物体A1の種別が「車両」である確率P2、物体A1の種別が「人」である確率P3を出力する。なお、学習済モデル70の層構造は、図7に示した学習済モデル50と同一のものとすることができる。   FIG. 12 is a diagram illustrating an example of type determination using the learned model 70 according to the third embodiment. As shown in FIG. 12, in the third embodiment, a parameter image D generated from the movement history information B of the object A1 is input to the learned model 70. Then, the learned model 70 outputs a probability P1 that the type of the object A1 is “animal”, a probability P2 that the type of the object A1 is “vehicle”, and a probability P3 that the type of the object A1 is “person”. Note that the layer structure of the learned model 70 can be the same as the learned model 50 shown in FIG.

図13は、図12に示したパラメータ画像Dを説明するための説明図である。図13(a)に示すように、パラメータ画像Dは、横軸を時間とし、縦軸のプラス側をx移動距離とし、縦軸のマイナス側をy移動距離とした疑似画像である。   FIG. 13 is an explanatory diagram for explaining the parameter image D shown in FIG. As shown in FIG. 13A, the parameter image D is a pseudo image in which the horizontal axis is time, the plus side of the vertical axis is x moving distance, and the minus side of the vertical axis is y moving distance.

図13(b)は車両のパラメータ画像であり、図13(c)は動物のパラメータ画像であり、図13(d)は人のパラメータ画像である。図13(c)に示す動物のパラメータ画像は、車両のパラメータ画像又は人のパラメータ画像に比べてx移動距離及びy移動距離が大きい。このため、このパラメータ画像を学習済モデル70に入力すると、物体A1が動物である確率を精度良く求めることができる。   FIG. 13B is a parameter image of a vehicle, FIG. 13C is a parameter image of an animal, and FIG. 13D is a parameter image of a person. The parameter image of the animal shown in FIG. 13C has a larger x-moving distance and a larger y-moving distance than the vehicle parameter image or the human parameter image. Therefore, when this parameter image is input to the learned model 70, the probability that the object A1 is an animal can be obtained with high accuracy.

なお、図14に示すように、物体A1の移動履歴情報Bから生成されるパラメータ画像Dと物体A1を含む画像Cとを学習済モデル80に入力して、学習済モデル70から、物体A1の種別が「動物」である確率P1、物体A1の種別が「車両」である確率P2、物体A1の種別が「人」である確率P3を出力することもできる。学習済モデル80の層構造は、図11に示した学習済モデル60と同一のものとすることができる。   As shown in FIG. 14, a parameter image D generated from the movement history information B of the object A1 and an image C including the object A1 are input to the learned model 80, and the learned model 70 It is also possible to output a probability P1 that the type is "animal", a probability P2 that the type of the object A1 is "vehicle", and a probability P3 that the type of the object A1 is "person". The layer structure of the trained model 80 can be the same as the trained model 60 shown in FIG.

<ハードウエアとの関係>
次に、本実施例1〜3に係る警報制御装置40と、コンピュータの主たるハードウエア構成の対応関係について説明する。図15は、ハードウエア構成の一例を示す図である。
<Relationship with hardware>
Next, the correspondence between the alarm control devices 40 according to the first to third embodiments and the main hardware configuration of the computer will be described. FIG. 15 is a diagram illustrating an example of a hardware configuration.

一般的なコンピュータは、CPU91、ROM(Read Only Memory)92、RAM93及び不揮発性メモリ94などがバス95により接続された構成となる。不揮発性メモリ94の代わりにハードディスク装置が設けられていても良い。説明の便宜上、基本的なハードウエア構成のみを示している。   A general computer has a configuration in which a CPU 91, a ROM (Read Only Memory) 92, a RAM 93, a nonvolatile memory 94, and the like are connected by a bus 95. A hard disk device may be provided instead of the nonvolatile memory 94. For convenience of explanation, only a basic hardware configuration is shown.

ここで、ROM92又は不揮発性メモリ94には、オペレーティングシステム(Operating System;以下、単に「OS」と言う)の起動に必要となるプログラム等が記憶されており、CPU91は、電源投入時にROM92又は不揮発性メモリ94からOSのプログラムをリードして実行する。   Here, the ROM 92 or the non-volatile memory 94 stores a program or the like necessary for starting an operating system (hereinafter, simply referred to as “OS”). The OS program is read from the memory 94 and executed.

一方、OS上で実行される各種のアプリケーションプログラムは、不揮発性メモリ94に記憶されており、CPU91がRAM93を主メモリとして利用しつつアプリケーションプログラムを実行することにより、アプリケーションに対応するプロセスが実行される。   On the other hand, various application programs executed on the OS are stored in the non-volatile memory 94. When the CPU 91 executes the application program while using the RAM 93 as a main memory, a process corresponding to the application is executed. You.

そして、本実施例1〜3に係る警報制御装置40の種別判定プログラムについても、他のアプリケーションプログラムと同様に不揮発性メモリ94等に記憶され、CPU91が、この種別判定プログラムをロードして実行することになる。実施例1〜3に係る警報制御装置40の場合には、図4に示した検知部45a、移動履歴情報取得部45b、種別判定部45c、警報指示部45dに対応するルーチンを含む種別判定プログラムが不揮発性メモリ94等に記憶される。CPU91により種別判定プログラムがロード実行されることにより、検知部45a、移動履歴情報取得部45b、種別判定部45c、警報指示部45dに対応するプロセスが生成される。なお、学習データ44a及び設定データ等は、あらかじめ不揮発性メモリ94に記憶される。   The type determination program of the alarm control device 40 according to the first to third embodiments is also stored in the nonvolatile memory 94 or the like, like the other application programs, and the CPU 91 loads and executes the type determination program. Will be. In the case of the alarm control device 40 according to the first to third embodiments, a type determination program including a routine corresponding to the detection unit 45a, the movement history information acquisition unit 45b, the type determination unit 45c, and the alarm instruction unit 45d illustrated in FIG. Is stored in the nonvolatile memory 94 or the like. When the type determination program is loaded and executed by the CPU 91, processes corresponding to the detection unit 45a, the movement history information acquisition unit 45b, the type determination unit 45c, and the alarm instruction unit 45d are generated. The learning data 44a and the setting data are stored in the nonvolatile memory 94 in advance.

また、上記の各実施例1〜3では、スタンドアロンとしての装置上で動作実行する場合を示したが、本発明はこれに限定されるものではなく、クラウドのエッジサーバ装置において実現する場合に適用することもできる。また、複数台のコンピュータによる分散処理する場合に適用することもできる。   Further, in each of the first to third embodiments, the case where the operation is executed on the stand-alone device has been described. However, the present invention is not limited to this, and is applied to the case where the operation is performed in the cloud edge server device. You can also. Also, the present invention can be applied to a case where distributed processing is performed by a plurality of computers.

さらに、上記の各実施例1〜3では、深層学習の学習済モデルを用いる場合を示したが、本発明はこれに限定されるものではなく、深層学習以外の機械学習の学習済モデルを用いることもできる。また、各実施例1〜3では、プログラムとしての学習済モデルを用いた場合を示したが、本発明はこれに限定されるものではなく、FPGA等のハードウエア回路で実現することもできる。   Further, in each of Embodiments 1 to 3, the case where the learned model of the deep learning is used has been described, but the present invention is not limited to this, and the learned model of the machine learning other than the deep learning is used. You can also. In each of the first to third embodiments, the case where a learned model is used as a program has been described. However, the present invention is not limited to this, and may be realized by a hardware circuit such as an FPGA.

また、上記の各実施例1〜3では、動物を警報対象とする場合を示したが、本発明はこれに限定されるものではなく、テストコースへの進入が許可されていない不審者、不審物、ドローン等の各種の物体を警報対象とする場合に適用することもできる。   In each of the first to third embodiments described above, the case in which animals are set as alarm targets is described. However, the present invention is not limited to this, and suspicious persons who are not allowed to enter the test course, The present invention can also be applied to a case where various objects such as objects and drones are set as alarm targets.

なお、上記の実施例1〜3で図示した各構成は機能概略的なものであり、必ずしも物理的に図示の構成をされていることを要しない。すなわち、各装置の分散・統合の形態は図示のものに限られず、その全部又は一部を各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。   In addition, each configuration illustrated in the above-described first to third embodiments is a schematic function and does not necessarily need to be physically configured as illustrated. In other words, the form of distribution / integration of each device is not limited to the one shown in the drawing, and all or a part thereof is functionally or physically distributed / integrated in arbitrary units according to various loads and usage conditions. Can be configured.

本発明の種別判定プログラム、種別判定装置及び種別判定方法は、入力画像に含まれる物体に係る画素数が少ない状況下で、該物体の種別を迅速かつ正確に判定する場合に有用である。   INDUSTRIAL APPLICABILITY The type determination program, type determination device, and type determination method of the present invention are useful for quickly and accurately determining the type of an object in a situation where the number of pixels related to the object included in the input image is small.

A 入力画像
A1 物体
A2 物体
B 移動履歴情報
C 画像
D パラメータ画像
10 監視カメラ
20 警報灯
30 スピーカ
40 警報制御装置
41 入力部
42 表示部
43 通信I/F部
44 記憶部
44a 学習データ
44b 移動履歴情報
45 制御部
45a 検知部
45b 移動履歴情報取得部
45c 種別判定部
45d 警報処理部
50,60,70,80 学習済モデル
91 CPU
92 ROM
93 RAM
94 不揮発性メモリ
95 バス
A input image A1 object A2 object B movement history information C image D parameter image 10 surveillance camera 20 warning light 30 speaker 40 alarm control device 41 input unit 42 display unit 43 communication I / F unit 44 storage unit 44a learning data 44b movement history information 45 control unit 45a detection unit 45b movement history information acquisition unit 45c type determination unit 45d alarm processing unit 50, 60, 70, 80 learned model 91 CPU
92 ROM
93 RAM
94 Non-volatile memory 95 Bus

上記の課題を解決するため、本発明は、所定の撮像装置により撮像された画像に含まれる物体を検知する検知手順と、前記検知手順により検知された物体を含む矩形領域の移動履歴に係る情報を該物体の移動履歴情報として取得する移動履歴情報取得手順と、少なくとも前記移動履歴情報に基づいて、前記検知手順により検知された物体の種別を判定する種別判定手順とをコンピュータに実行させることを特徴とする。 In order to solve the above-described problems, the present invention provides a detection procedure for detecting an object included in an image captured by a predetermined imaging device, and information relating to a movement history of a rectangular area including the object detected by the detection procedure. a movement history information acquisition procedure for acquiring a movement history information of the object, based on at least the travel history information, that to execute a type determination procedure for determining the type of the detected object by the detection procedure in the computer Features.

また、本発明は、上記の発明において、前記種別判定手順は、前記移動履歴情報に含まれる所定の時間ごとの前記矩形領域の幅、前記矩形領域の高さ、前記矩形領域の水平方向の移動量、前記矩形領域の垂直方向の移動量、前記矩形領域との幅差及び前記矩形領域との高さ差を前記学習済モデルに入力し、該学習済モデルから出力される種別毎の確率に基づいて、前記検知手順により検知された物体の種別を判定することを特徴とする。 In addition, in the present invention according to the above invention, the type determination step includes a step of moving the rectangular area in a horizontal direction, the width of the rectangular area, the height of the rectangular area, and the movement of the rectangular area at predetermined time intervals included in the movement history information. the amount, the movement amount in the vertical direction of the rectangular area, a height difference between the width difference and the rectangular region of the rectangular region input to the learned model, the probability of each type output from the learned model And determining the type of the object detected by the detection procedure based on the detection procedure.

また、本発明は、上記の発明において、前記種別判定手順は、前記移動履歴情報に含まれる所定の時間ごとの前記矩形領域の幅、前記矩形領域の高さ、前記矩形領域の水平方向の移動量、前記矩形領域の垂直方向の移動量、前記矩形領域との幅差及び前記矩形領域との高さ差と、前記矩形領域の部分画像とを前記学習済モデルに入力し、該学習済モデルから出力される種別毎の確率に基づいて、前記検知手順により検知された物体の種別を判定することを特徴とする。 In addition, in the present invention according to the above invention, the type determination step includes a step of moving the rectangular area in a horizontal direction, the width of the rectangular area, the height of the rectangular area, and the movement of the rectangular area at predetermined time intervals included in the movement history information. the amount, the movement amount in the vertical direction of the rectangular area, enter the height difference between the width difference and the rectangular region of the rectangular region, and a partial image of the rectangular region in the learned model, the learned model And determining the type of the object detected by the detection procedure on the basis of the probability of each type output from.

また、本発明は、所定の撮像装置により撮像された画像に含まれる物体を検知する検知部と、前記検知部により検知された物体を含む矩形領域の移動履歴に係る情報を該物体の移動履歴情報として取得する移動履歴情報取得部と、少なくとも前記移動履歴情報に基づいて、前記検知部により検知された物体の種別を判定する種別判定部とを備えたことを特徴とする。 Also, the present invention provides a detecting unit for detecting an object included in an image captured by a predetermined imaging device, and information relating to a moving history of a rectangular area including the object detected by the detecting unit. A moving history information acquiring unit that acquires the information as information ; and a type determining unit that determines a type of the object detected by the detecting unit based on at least the moving history information.

また、本発明は、所定の撮像装置により撮像された画像に含まれる物体を検知する検知工程と、前記検知工程により検知された物体を含む矩形領域の移動履歴に係る情報を該物体の移動履歴情報として取得する移動履歴情報取得工程と、少なくとも前記移動履歴情報に基づいて、前記検知工程により検知された物体の種別を判定する種別判定工程とを含んだことを特徴とする。 Further, the present invention provides a detecting step of detecting an object included in an image captured by a predetermined imaging device, and information relating to a moving history of a rectangular area including the object detected by the detecting step. A moving history information acquiring step of acquiring as information ; and a type determining step of determining a type of the object detected in the detecting step based on at least the moving history information.

Claims (13)

所定の撮像装置により撮像された画像に含まれる物体を検知する検知手順と、
前記検知手順により検知された物体を追跡して該物体の移動履歴情報を取得する移動履歴情報取得手順と、
少なくとも前記移動履歴情報に基づいて、前記検知手順により検知された物体の種別を判定する種別判定手順と
をコンピュータに実行させることを特徴とする種別判定プログラム。
A detection procedure for detecting an object included in an image captured by a predetermined imaging device,
A movement history information obtaining step of tracking an object detected by the detection step and obtaining movement history information of the object;
And a type determining step of determining a type of the object detected by the detecting step based on at least the movement history information.
前記検知手順は、
複数の画像間の画素の移動ベクトルに基づいて、前記所定の撮像装置により撮像された画像に含まれる物体を検知することを特徴とする請求項1に記載の種別判定プログラム。
The detection procedure includes:
The computer-readable storage medium according to claim 1, wherein an object included in an image captured by the predetermined imaging device is detected based on a movement vector of pixels between the plurality of images.
前記移動履歴情報取得手順は、
前記検知手順により検知された物体を形成する画素の移動ベクトルと所定の尤度に基づいて、物体を含む矩形領域を特定し、特定した矩形領域の移動履歴に係る情報を移動履歴情報として取得することを特徴とする請求項1又は2に記載の種別判定プログラム。
The moving history information acquisition procedure includes:
A rectangular area including the object is specified based on a movement vector of a pixel forming the object detected by the detection procedure and a predetermined likelihood, and information on a movement history of the specified rectangular area is obtained as movement history information. The type determination program according to claim 1 or 2, wherein:
前記種別判定手順は、
教師データをなす物体の移動履歴情報及び該物体の種別を所定の多層ニューラルネットワークに適用した学習済モデルに基づいて、前記検知手順により検知された物体の種別を判定することを特徴とする請求項3に記載の種別判定プログラム。
The type determination procedure includes:
The type of the object detected by the detection procedure is determined based on the movement history information of the object forming the teacher data and a learned model in which the type of the object is applied to a predetermined multilayer neural network. 3. The type determination program according to 3.
前記種別判定手順は、
前記移動履歴情報に含まれる所定の時間ごとの前記矩形領域の水平方向の移動量及び垂直方向の移動量を前記学習済モデルに入力し、該学習済モデルから出力される種別毎の確率に基づいて、前記検知手順により検知された物体の種別を判定することを特徴とする請求項4に記載の種別判定プログラム。
The type determination procedure includes:
The movement amount in the horizontal direction and the movement amount in the vertical direction of the rectangular area for each predetermined time included in the movement history information are input to the trained model, and based on the probability for each type output from the trained model. The program according to claim 4, wherein the type of the object detected by the detection procedure is determined.
前記種別判定手順は、
前記移動履歴情報に含まれる所定の時間ごとの前記矩形領域の幅、前記矩形領域の高さ、前記矩形領域の水平方向の移動量、前記矩形領域の垂直方向の移動量、前矩形領域との幅差及び前矩形領域との高さ差を前記学習済モデルに入力し、該学習済モデルから出力される種別毎の確率に基づいて、前記検知手順により検知された物体の種別を判定することを特徴とする請求項4に記載の種別判定プログラム。
The type determination procedure includes:
The width of the rectangular area, the height of the rectangular area, the amount of horizontal movement of the rectangular area, the amount of vertical movement of the rectangular area, A width difference and a height difference from the previous rectangular area are input to the learned model, and a type of the object detected by the detection procedure is determined based on a probability for each type output from the learned model. The type determination program according to claim 4, characterized in that:
前記種別判定手順は、
前記移動履歴情報に含まれる所定の時間ごとの前記矩形領域の幅、前記矩形領域の高さ、前記矩形領域の水平方向の移動量、前記矩形領域の垂直方向の移動量、前矩形領域との幅差及び前矩形領域との高さ差と、前記矩形領域の部分画像とを前記学習済モデルに入力し、該学習済モデルから出力される種別毎の確率に基づいて、前記検知手順により検知された物体の種別を判定することを特徴とする請求項4に記載の種別判定プログラム。
The type determination procedure includes:
The width of the rectangular area, the height of the rectangular area, the amount of horizontal movement of the rectangular area, the amount of vertical movement of the rectangular area, The width difference and the height difference from the previous rectangular area and the partial image of the rectangular area are input to the learned model, and the detection is performed by the detection procedure based on the probability for each type output from the learned model. The type determination program according to claim 4, wherein the type of the determined object is determined.
前記種別判定手順は、
前記移動履歴情報に含まれる所定の時間ごとの前記矩形領域の水平方向の移動量及び垂直方向の移動量を画像化したパラメータ画像を前記学習済モデルに入力し、該学習済モデルから出力される種別毎の確率に基づいて、前記検知手順により検知された物体の種別を判定することを特徴とする請求項4に記載の種別判定プログラム。
The type determination procedure includes:
A parameter image obtained by imaging a horizontal movement amount and a vertical movement amount of the rectangular area for each predetermined time included in the movement history information is input to the learned model, and is output from the learned model. The program according to claim 4, wherein the type of the object detected by the detection procedure is determined based on the probability of each type.
前記種別判定手順は、
前記移動履歴情報に含まれる所定の時間ごとの前記矩形領域の水平方向の移動量及び垂直方向の移動量を画像化したパラメータ画像と、前記矩形領域の部分画像とを前記学習済モデルに入力し、該学習済モデルから出力される種別毎の確率に基づいて、前記検知手順により検知された物体の種別を判定することを特徴とする請求項4に記載の種別判定プログラム。
The type determination procedure includes:
A parameter image obtained by imaging a horizontal movement amount and a vertical movement amount of the rectangular area for each predetermined time included in the movement history information, and a partial image of the rectangular area are input to the learned model. The type determination program according to claim 4, wherein the type of the object detected by the detection procedure is determined based on the probability of each type output from the learned model.
前記学習済モデルは、
少なくとも動物、人又は車両に係る移動履歴情報が入力された場合に、前記物体が動物、人又は車両である確率を出力することを特徴とする請求項4乃至9のいずれか一つに記載の種別判定プログラム。
The trained model is
The method according to any one of claims 4 to 9, wherein when at least movement history information relating to an animal, a person, or a vehicle is input, a probability that the object is an animal, a person, or a vehicle is output. Type determination program.
前記種別判定手順により前記物体の種別が動物であると判定されたならば、所定の警報灯による警報を発するよう制御し、該物体の種別が人又は車両であると判定されたならば、前記所定の警報灯による警報を発しないよう制御する警報制御手順をさらにコンピュータに実行させることを特徴とする請求項10に記載の種別判定プログラム。   If the type of the object is determined to be an animal by the type determination procedure, control is performed to issue a warning by a predetermined warning light, and if the type of the object is determined to be a person or a vehicle, the 11. The program according to claim 10, further causing the computer to execute an alarm control procedure for controlling not to issue an alarm by a predetermined alarm light. 所定の撮像装置により撮像された画像に含まれる物体を検知する検知部と、
前記検知部により検知された物体を追跡して該物体の移動履歴情報を取得する移動履歴情報取得部と、
少なくとも前記移動履歴情報に基づいて、前記検知部により検知された物体の種別を判定する種別判定部と
を備えたことを特徴とする種別判定装置。
A detection unit that detects an object included in an image captured by a predetermined imaging device;
A movement history information acquisition unit that acquires the movement history information of the object by tracking the object detected by the detection unit;
A type determining unit configured to determine a type of the object detected by the detecting unit based on at least the movement history information.
所定の撮像装置により撮像された画像に含まれる物体を検知する検知工程と、
前記検知工程により検知された物体を追跡して該物体の移動履歴情報を取得する移動履歴情報取得工程と、
少なくとも前記移動履歴情報に基づいて、前記検知工程により検知された物体の種別を判定する種別判定工程と
を含んだことを特徴とする種別判定方法。
A detection step of detecting an object included in an image captured by a predetermined imaging device,
A movement history information acquisition step of tracking an object detected by the detection step and acquiring movement history information of the object;
A type determining step of determining a type of the object detected in the detecting step based on at least the movement history information.
JP2018142130A 2018-07-30 2018-07-30 Type determination program, type determination device and type determination method Active JP6678706B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018142130A JP6678706B2 (en) 2018-07-30 2018-07-30 Type determination program, type determination device and type determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018142130A JP6678706B2 (en) 2018-07-30 2018-07-30 Type determination program, type determination device and type determination method

Publications (2)

Publication Number Publication Date
JP2020021111A true JP2020021111A (en) 2020-02-06
JP6678706B2 JP6678706B2 (en) 2020-04-08

Family

ID=69589814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018142130A Active JP6678706B2 (en) 2018-07-30 2018-07-30 Type determination program, type determination device and type determination method

Country Status (1)

Country Link
JP (1) JP6678706B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230017596A (en) * 2021-07-28 2023-02-06 (주)골든플래닛 Method of preventing roadkill using bayesian algoritm in ai based image learning and elecronic apparatus performing the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009042941A (en) * 2007-08-07 2009-02-26 Honda Motor Co Ltd Object type decision device, vehicle, object type decision method, and program for object type decision
JP2016057998A (en) * 2014-09-12 2016-04-21 株式会社日立国際電気 Object identification method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009042941A (en) * 2007-08-07 2009-02-26 Honda Motor Co Ltd Object type decision device, vehicle, object type decision method, and program for object type decision
JP2016057998A (en) * 2014-09-12 2016-04-21 株式会社日立国際電気 Object identification method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230017596A (en) * 2021-07-28 2023-02-06 (주)골든플래닛 Method of preventing roadkill using bayesian algoritm in ai based image learning and elecronic apparatus performing the same
KR102595394B1 (en) * 2021-07-28 2023-10-31 (주)골든플래닛 Method of preventing roadkill using bayesian algoritm in ai based image learning and elecronic apparatus performing the same

Also Published As

Publication number Publication date
JP6678706B2 (en) 2020-04-08

Similar Documents

Publication Publication Date Title
US11314209B2 (en) Detection of driving actions that mitigate risk
US11840239B2 (en) Multiple exposure event determination
US20190384292A1 (en) Processing System For Evaluating Autonomous Vehicle Control Systems Through Continuous Learning
CN110419048B (en) System for identifying defined objects
US10810866B2 (en) Perimeter breach warning system
DE102017129076A1 (en) AUTONOMOUS SCHOOLBUS
WO2008103206A1 (en) Surveillance systems and methods
CN110895662A (en) Vehicle overload alarm method and device, electronic equipment and storage medium
US20180341814A1 (en) Multiple robots assisted surveillance system
JP6678706B2 (en) Type determination program, type determination device and type determination method
KR102514660B1 (en) Method and system for preventing traffic accident on pedestrian vehicle road
US11176379B2 (en) Method of acquiring detection zone in image and method of determining zone usage
KR102556447B1 (en) A situation judgment system using pattern analysis
JP6978986B2 (en) Warning system, warning control device and warning method
CN106448161A (en) Road monitoring method and road monitoring device
KR101407394B1 (en) System for abandoned and stolen object detection
Li et al. Vehicle safety evaluation based on driver drowsiness and distracted and impaired driving performance using evidence theory
US20220262122A1 (en) Image collection apparatus and image collection method
CN111619584B (en) State supervision method and device for unmanned automobile
Malbog et al. PED-AI: Pedestrian Detection for Autonomous Vehicles using YOLOv5
WO2021059385A1 (en) Space sensing system and space sensing method
Ziryawulawo et al. An Integrated Deep Learning-based Lane Departure Warning and Blind Spot Detection System: A Case Study for the Kayoola Buses
Tsai Development of a Sensing Methodology for Intelligent and Reliable Work-Zone Hazard Awareness
BR102022013082A2 (en) VEHICLE BRAKING CONTROL SYSTEM
TWM653114U (en) lane monitoring system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200317

R150 Certificate of patent or registration of utility model

Ref document number: 6678706

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250