JP2021037904A - Object detection device and system and method for the same - Google Patents

Object detection device and system and method for the same Download PDF

Info

Publication number
JP2021037904A
JP2021037904A JP2019161842A JP2019161842A JP2021037904A JP 2021037904 A JP2021037904 A JP 2021037904A JP 2019161842 A JP2019161842 A JP 2019161842A JP 2019161842 A JP2019161842 A JP 2019161842A JP 2021037904 A JP2021037904 A JP 2021037904A
Authority
JP
Japan
Prior art keywords
image
door
learning
object detection
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019161842A
Other languages
Japanese (ja)
Inventor
正人 鵜飼
Masato Ukai
正人 鵜飼
俊秀 横内
Toshihide Yokouchi
俊秀 横内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Railway Technical Research Institute
Original Assignee
Railway Technical Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Railway Technical Research Institute filed Critical Railway Technical Research Institute
Priority to JP2019161842A priority Critical patent/JP2021037904A/en
Publication of JP2021037904A publication Critical patent/JP2021037904A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

To provide a method by which an accuracy to determine existence of a foreign object at a door catching part of a sliding side door of a vehicle is improved.SOLUTION: An object detection device comprises a picture analysis part 20 to detect an object in a door catching part periphery area, on the basis of an imaged picture of the door catching part periphery area of a vehicle sliding side door, acquired by a picture acquisition part 10. The picture analysis part 20 has a learning server 28 and during a learning time, the server inputs imaged pictures of the door catching part periphery area and learns a learning model in which the imaged picture and information of existence of a foreign object included in the imaged picture are used as teacher data and at the detection time, the server inputs an actually imaged picture of the door catching part periphery area and outputs information of existence of the foreign object included in the imaged picture.SELECTED DRAWING: Figure 1

Description

本発明は、対象物検知装置、対象物検知システムおよび対象物検知方法に関する。 The present invention relates to an object detection device, an object detection system, and an object detection method.

鉄道業務において、車両のドアに異物を挟んだまま車両を走行させることは重大な事故につながる。しかしながら、車両ドア自体が持つ異物挟み検知機能では、10〜15mm以下のサイズの異物の挟み込みは検知できないため、戸挟み状態を検知する対策が求められ続けている。例えば、鉄道車両の乗降客ドアの会合部の上部に設けられたカメラにより撮像されたドア開放前画像を基準画像として取得するとともに、乗降客の乗降後画像を判定画像として取得し、取得された基準画像と判定画像とを比較処理する際に、両画像の垂直成分をそれぞれ強調させ、垂直成分が強調された基準画像と判定画像との差分を求め、この差分に基づいて乗降客用出入り口ドアに挟まれた異物を検出する技術がある(特許文献1参照)。 In railway operations, running a vehicle with a foreign object caught in the door of the vehicle leads to a serious accident. However, since the foreign matter pinching detection function of the vehicle door itself cannot detect the pinching of foreign matter having a size of 10 to 15 mm or less, measures for detecting the door pinching state continue to be required. For example, the image before opening the door captured by the camera provided at the upper part of the meeting part of the passenger door of the railroad vehicle is acquired as a reference image, and the image after getting on and off the passenger is acquired as a judgment image. When comparing the reference image and the judgment image, the vertical components of both images are emphasized, the difference between the reference image with the emphasized vertical component and the judgment image is obtained, and the entrance door for passengers gets on and off based on this difference. There is a technique for detecting a foreign substance sandwiched between the two (see Patent Document 1).

特開2005−349997号公報Japanese Unexamined Patent Publication No. 2005-349997

しかしながら、特許文献1のように、対象物を撮像する方向や撮像条件との関係で撮像画像における対象物の見え方に差異が生じるため、画像解析の精度が低下してしまい対象物の有無の判定精度が低下してしまうという問題がある。 However, as in Patent Document 1, since the appearance of the object in the captured image differs depending on the direction in which the object is imaged and the imaging conditions, the accuracy of the image analysis is lowered and the presence or absence of the object is present. There is a problem that the judgment accuracy is lowered.

本発明は、撮像画像における対象物の見え方の差異に基づく対象物の有無の判定精度の向上を図ることが可能な対象物検知システムおよび対象物検知方法を提供することを目的とする。 An object of the present invention is to provide an object detection system and an object detection method capable of improving the determination accuracy of the presence or absence of an object based on the difference in the appearance of the object in a captured image.

上記課題を解決するために、本発明の対象物検知装置の一側面は、画像取得部によって取得された車両の側引戸の戸挟み部周辺領域の撮像画像に基づいて前記戸挟み部周辺領域の対象物を検知する画像解析部を有する対象物検知装置であって、画像解析部は、学習時に、戸挟み部周辺領域の撮像画像を入力とし、撮像画像と撮像画像に含まれる異物の有無の情報を教師データとして、学習モデルを学習し、検知時に、実際の戸挟み部周辺領域の撮像画像を入力とし、撮像画像に含まれる異物の有無の情報を出力する機械学習部を有することを特徴とする。 In order to solve the above problem, one aspect of the object detection device of the present invention is a region around the door clamp portion based on an image captured by the image acquisition unit of the region around the door clamp portion of the side sliding door of the vehicle. It is an object detection device having an image analysis unit that detects an object, and the image analysis unit inputs an image captured in the area around the door sandwiching portion during learning, and the captured image and the presence or absence of foreign matter contained in the captured image are present. It is characterized by having a machine learning unit that learns a learning model using information as teacher data, inputs an image captured in the area around the door sandwiched portion at the time of detection, and outputs information on the presence or absence of foreign matter contained in the captured image. And.

本発明の対象物検知装置の他の側面は、画像解析部は、画像取得部で取得された撮像画像の中の戸先ゴム部の領域を切り出すように画像処理を施す画像生成部を有することを特徴とする。 Another aspect of the object detection device of the present invention is that the image analysis unit has an image generation unit that performs image processing so as to cut out a region of the door end rubber portion in the captured image acquired by the image acquisition unit. It is characterized by.

本発明の対象物検知装置の他の側面は、画像取得部で取得された撮像画像の中の戸先ゴム部の領域を切り出し、切り出された戸先ゴム部の領域以外の領域を所定の背景色または背景模様でマスクするように画像処理を施す画像生成部を有することを特徴とする。 In another aspect of the object detection device of the present invention, a region of the door end rubber portion in the captured image acquired by the image acquisition unit is cut out, and a region other than the cut out region of the door end rubber portion is used as a predetermined background. It is characterized by having an image generation unit that performs image processing so as to mask with a color or a background pattern.

本発明の対象物検知装置の他の側面は、画像解析部は、画像取得部で取得された撮像画像の中の戸先ゴム部の領域を切り出し、切り出された戸先ゴム部の領域以外の領域を所定の背景色または背景模様でマスクし、マスクされた戸先ゴム部を矩形状に整形するように画像処理を施す画像生成部を有することを特徴とする。 In another aspect of the object detection device of the present invention, the image analysis unit cuts out a region of the door end rubber portion in the captured image acquired by the image acquisition unit, and the region other than the cut out region of the door end rubber portion is used. It is characterized by having an image generation unit that masks an area with a predetermined background color or background pattern and performs image processing so as to shape the masked door end rubber portion into a rectangular shape.

本発明の対象物検知システムの一側面は、上述の各発明に係る対象物検知装置を備えると共に、車両の側引戸の戸挟み部周辺領域を撮像可能に配置された撮像装置から戸挟み部周辺領域の撮像画像を取得する画像取得部と有することを特徴とする。 One aspect of the object detection system of the present invention is provided with the object detection device according to each of the above-described inventions, and from the image pickup device arranged so as to be able to image the area around the door sandwich portion of the side sliding door of the vehicle, the periphery of the door sandwich portion. It is characterized by having an image acquisition unit that acquires a captured image of a region.

本発明の対象物検知方法の一側面は、車両の側引戸の戸挟み部周辺領域を撮像可能に配置された撮像装置から戸挟み部周辺領域の撮像画像を取得するステップと、戸挟み部周辺領域の撮像画像に基づいて戸挟み部周辺領域の対象物を検知するステップとを有する対象物検知方法であって、学習時に、戸挟み部周辺領域の撮像画像を入力とし、当該撮像画像と当該撮像画像に含まれる異物の有無の情報を教師データとして、学習モデルを学習するステップと、検知時に、実際の戸挟み部周辺領域の撮像画像を入力とし、当該撮像画像に含まれる異物の有無の情報を出力するステップを有することを特徴とする。 One aspect of the object detection method of the present invention is a step of acquiring an image of the area around the door pinch portion from an image pickup device arranged so that the area around the door pinch portion of the side sliding door of the vehicle can be imaged, and the area around the door pinch portion. It is an object detection method having a step of detecting an object in the area around the door sandwiching portion based on the captured image of the region, and at the time of learning, the captured image of the area around the door sandwiching portion is input, and the captured image and the said The step of learning the learning model using the information on the presence or absence of foreign matter contained in the captured image as teacher data, and the presence or absence of foreign matter contained in the captured image by inputting the captured image of the area around the door sandwiched portion at the time of detection. It is characterized by having a step of outputting information.

本発明によれば、対象物の有無の判定精度の向上を図ることができる。 According to the present invention, it is possible to improve the accuracy of determining the presence or absence of an object.

対象物検知システムの機能について説明するための機能ブロック図である。It is a functional block diagram for demonstrating the function of an object detection system. 撮像装置の撮像範囲および正常、異常の撮像画像を示した図である。It is a figure which showed the imaging range of the imaging apparatus, normal and abnormal captured images. 画像解析部を構成する制御部の構成を示す図である。It is a figure which shows the structure of the control part which comprises the image analysis part. 学習モデルを機械学習する学習過程について説明するための機能ブロック図である。It is a functional block diagram for explaining the learning process of machine learning of a learning model. 実際の検知場面において撮像画像を取得してから異常有無判定までの処理について説明するための図である。It is a figure for demonstrating the process from the acquisition of the captured image to the determination of presence / absence of abnormality in an actual detection scene. 学習時における機械学習動作を説明するためのフローチャートである。It is a flowchart for demonstrating the machine learning operation at the time of learning. 検知場面における異物判定処理を説明するためのフローチャートである。It is a flowchart for demonstrating the foreign matter determination process in a detection scene. 撮像画像の加工処理について説明するための図である。It is a figure for demonstrating the processing process of a captured image. 撮像画像の加工処理について説明するための図である。It is a figure for demonstrating the processing process of a captured image. 学習モデルの評価試験におけるOK画像とNG画像を示した図である。It is a figure which showed the OK image and the NG image in the evaluation test of a learning model. 学習モデルの評価試験に用いられた学習モデルの概要を説明するための図である。It is a figure for demonstrating the outline of the learning model used in the evaluation test of a learning model. 学習モデルの評価試験の評価結果を示した図である。It is a figure which showed the evaluation result of the evaluation test of a learning model.

以下、本発明の一実施の形態の情報送受信システムについて、図1〜図12を参照しながら説明する。 Hereinafter, the information transmission / reception system according to the embodiment of the present invention will be described with reference to FIGS. 1 to 12.

図1は、本発明の一実施例である対象物検出装置1が有する機能について説明するための機能ブロック図である。 FIG. 1 is a functional block diagram for explaining a function of the object detection device 1 which is an embodiment of the present invention.

以下、本開示の好適な実施形態について説明する。
[システム構成]
図1は、実施形態に係る対象物検知システムの構成を示す。図示のように、対象物検知システム1は撮像装置10および対象物検知装置としての画像解析装置20を備えて構成される。
Hereinafter, preferred embodiments of the present disclosure will be described.
[System configuration]
FIG. 1 shows the configuration of the object detection system according to the embodiment. As shown in the figure, the object detection system 1 includes an image pickup device 10 and an image analysis device 20 as an object detection device.

[撮像装置]
撮像装置10は、カメラ11と、制御部12と、通信部13とを備え、列車や電車などの鉄道車両の側引戸(扉)、例えば2枚の扉からなる両引戸(扉部)の戸挟み部周辺の画像を撮像し、撮像された撮像画像を出力する。ここで、戸挟み部周辺とは、両引戸のそれぞれの引戸の戸先ゴムが互いに接触している状態における長手方向に延在する戸先ゴムの周辺をいう。撮像範囲は、図1に示すように扉部のそれぞれの戸先ゴムを含む戸先ゴム領域と扉部から所定間隔だけ離れたホームの端部から扉側とは逆方向に所定距離離れたところまでの領域である(図1、図2のハッチングされた領域)。なお、両引戸以外に片引戸であってもよい。なお、カメラ11、制御部12および通信部13を備えた撮像装置10は、請求項1の画像取得部に対応する。
[Imaging device]
The image pickup apparatus 10 includes a camera 11, a control unit 12, and a communication unit 13, and is a side sliding door (door) of a railroad vehicle such as a train or a train, for example, a double sliding door (door unit) consisting of two doors. The image around the sandwiched portion is imaged, and the captured image is output. Here, the periphery of the door sandwiching portion refers to the periphery of the door end rubber extending in the longitudinal direction in a state where the door end rubbers of the sliding doors of both sliding doors are in contact with each other. As shown in FIG. 1, the imaging range is a predetermined distance from the door end rubber region including each door end rubber of the door portion and the end portion of the platform separated from the door portion by a predetermined distance in the direction opposite to the door side. Areas up to (hatched areas in FIGS. 1 and 2). In addition to both sliding doors, a single sliding door may be used. The image pickup device 10 including the camera 11, the control unit 12, and the communication unit 13 corresponds to the image acquisition unit according to claim 1.

カメラ11は、側引戸上方に移動可能に配置され、戸挟み部周辺の画像を撮像する。カメラ11は図示しないアクチュエータなどにより移動する。アクチュエータによるカメラ11の移動、及び、カメラ11による撮像は、制御部12により制御される。なお、移動制御は、カメラ位置が固定されてしまうと、より真上から見た絵や、ゴム部がより映る絵など、後述する撮像画像を含む学習データを色々試すことができなくなるので、取り付け位置はドアに対して左右方向のみならず前後方向にも移動させるように制御する。 The camera 11 is movably arranged above the side sliding door and captures an image of the vicinity of the door sandwiching portion. The camera 11 is moved by an actuator (not shown) or the like. The movement of the camera 11 by the actuator and the imaging by the camera 11 are controlled by the control unit 12. If the camera position is fixed, it will not be possible to try various learning data including captured images, such as a picture seen from directly above and a picture in which the rubber part is more visible. The position is controlled so as to move not only in the left-right direction but also in the front-back direction with respect to the door.

なお、カメラ11で撮像された撮像画像は、上記したように扉部のそれぞれの戸先ゴムを含む戸先ゴム領域(第1領域)と扉部から所定間隔だけ離れたホームの端部から扉側とは逆方向に所定距離離れたところまでの領域(第2領域)を合わせた領域(第3領域(第1領域+第2領域))を撮像するが、後述する戸先ゴム部を切り出した撮像画像は、上記した第3領域の撮像画像から戸先ゴム部の領域だけを所定の画像処理で切り出した画像である。また、上記した第2領域の撮像画像を取得する場合には、上記した第3領域の撮像画像から上記した第2領域を所定の画像処理で切り出した画像である。ここで、上記した任意の画像から特定の画像を切り出す画像処理や後述する矩形整形を施す画像処理の技術は公知であるのでここではその説明は省略する。 As described above, the captured image captured by the camera 11 is the door from the door end rubber region (first region) including each door end rubber of the door portion and the end portion of the platform separated from the door portion by a predetermined interval. An image is taken of a region (third region (first region + second region)) that is a combination of regions (second regions) up to a predetermined distance in the direction opposite to the side, but the rubber part of the door tip, which will be described later, is cut out. The captured image is an image obtained by cutting out only the region of the door end rubber portion from the captured image of the third region described above by a predetermined image process. Further, when the captured image of the second region is acquired, it is an image obtained by cutting out the second region from the captured image of the third region by a predetermined image processing. Here, since the techniques of image processing for cutting out a specific image from the above-mentioned arbitrary image and image processing for performing rectangular shaping described later are known, the description thereof will be omitted here.

制御部12は、カメラ11の移動及びカメラ11による撮像を制御する。また、制御部12は、カメラ11から撮像画像を取得した場合、通信部13を制御することで、撮像画像を、ネットワーク5を介して記憶装置25に供給(送信)する。なお、撮像画像の供給先は記憶装置25ではなく、例えば後述する学習用サーバ28の中の学習画像を格納する学習画像記憶部38に供給するようにしてもよい。 The control unit 12 controls the movement of the camera 11 and the imaging by the camera 11. When the control unit 12 acquires the captured image from the camera 11, the control unit 12 controls the communication unit 13 to supply (transmit) the captured image to the storage device 25 via the network 5. The captured image may be supplied to the learning image storage unit 38 that stores the learning image in the learning server 28, which will be described later, instead of the storage device 25.

なお、撮像装置10と画像解析装置20との間の通信の確立は、ネットワーク5としての、例えばWi−Fiを利用したインターネットを介して行われる。ここで、ネットワーク5は基地局や中継局(図示せず)を含んだ概念であって通信方式は、広域接続性があること、双方向通信できることを満たすものであればよい。ただし、撮像装置10と画像解析装置20との間の通信は無線通信のみならず有線通信であってもよいが、この場合にはカメラ11は車内側の側引戸上方に移動可能に配置される。 The communication between the image pickup device 10 and the image analysis device 20 is established via the Internet as the network 5, for example, using Wi-Fi. Here, the network 5 is a concept including a base station and a relay station (not shown), and the communication method may satisfy that there is wide area connectivity and bidirectional communication is possible. However, the communication between the image pickup device 10 and the image analysis device 20 may be not only wireless communication but also wired communication, but in this case, the camera 11 is movably arranged above the side sliding door inside the vehicle. ..

[画像解析装置]
画像解析装置20は、戸挟み部周辺の撮像画像に基づいて、後述する学習用サーバ28で学習された学習モデルに従って戸挟み部周辺に異物があるか否かを正解率(%)で判定する。画像解析装置20は、制御部22、通信部24、記憶装置25、入力部26、学習用サーバ28および表示部30を備える。なお、画像解析装置20は画像解析部に対応し、学習用サーバ28は、機械学習部に対応する。
[Image analyzer]
The image analysis device 20 determines whether or not there is a foreign substance in the vicinity of the door sandwiching portion by the correct answer rate (%) according to the learning model learned by the learning server 28 described later based on the captured image around the door sandwiching portion. .. The image analysis device 20 includes a control unit 22, a communication unit 24, a storage device 25, an input unit 26, a learning server 28, and a display unit 30. The image analysis device 20 corresponds to the image analysis unit, and the learning server 28 corresponds to the machine learning unit.

記憶装置25は、ハードディスクやフラッシュメモリ等から構成される不揮発性の記憶装置であり、カメラ11から送信される撮像画像を受信し、受信した撮像画像を記憶する。また、記憶装置25は、制御部22から戸挟み部周辺の撮像画像の取得要求を受信した場合に、当該取得要求により指定された撮像画像を制御部22へ送信する。 The storage device 25 is a non-volatile storage device composed of a hard disk, a flash memory, or the like, receives an captured image transmitted from the camera 11, and stores the received captured image. Further, when the storage device 25 receives the acquisition request of the captured image around the door sandwiching portion from the control unit 22, the storage device 25 transmits the captured image specified by the acquisition request to the control unit 22.

通信部24は、制御部22の制御に基づき、記憶装置25から戸挟み部周辺の撮像画像を受信する。入力部26は、ユーザーからの各種操作を受け付けるユーザーインターフェースであり、例えばキーボード、マウス、回転操作が可能なホイールデバイス、タッチパネル、音声入力装置などが挙げられ、後述する学習モデル構築処理において使用される戸挟み部周辺の撮像画像やその撮像画像の加工処理や画像選択する入力信号などを生成して制御部22へ供給する。表示部30は、検査者に対し各種情報を提示するための画面を表示するユーザーインターフェースであり、例えば液晶ディスプレイが挙げられる。 The communication unit 24 receives the captured image around the door sandwiching unit from the storage device 25 under the control of the control unit 22. The input unit 26 is a user interface that receives various operations from the user, and examples thereof include a keyboard, a mouse, a wheel device capable of rotating operations, a touch panel, a voice input device, and the like, which are used in a learning model construction process described later. The captured image around the door sandwiching portion, the processing of the captured image, the input signal for selecting the image, and the like are generated and supplied to the control unit 22. The display unit 30 is a user interface for displaying a screen for presenting various information to the inspector, and examples thereof include a liquid crystal display.

(学習用サーバ)
学習用サーバ28は、機械学習により構築された学習モデルが格納されている学習モデル記憶部36、ディープラーニングエンジン37および学習用画像が格納されている学習画像記憶部38を含んで構成され、制御部22、通信部24、入力部26および表示部30と相互にバス線を介して通信可能に接続されている。
(Learning server)
The learning server 28 is configured to include a learning model storage unit 36 in which a learning model constructed by machine learning is stored, a deep learning engine 37, and a learning image storage unit 38 in which a learning image is stored, and is controlled. It is communicably connected to the unit 22, the communication unit 24, the input unit 26, and the display unit 30 via a bus line.

ここで、ディープラーニングエンジン37の機能の概要について説明する。ディープラーニングエンジン37は、例えば多層ニューラルネットワークを含むニューラルネットワークにより構築された学習モデルに従って機械学習が行われる。入力層、出力層、そして中間層を含むニューラルネットワークにより構築された学習モデルは適宜の方式を用いることができる。例えば、CNN(Convolutional Newral Net work)を適用することもできる。 Here, the outline of the function of the deep learning engine 37 will be described. The deep learning engine 37 performs machine learning according to a learning model constructed by a neural network including, for example, a multi-layer neural network. A learning model constructed by a neural network including an input layer, an output layer, and an intermediate layer can use an appropriate method. For example, CNN (Convolutional Neural Net work) can also be applied.

本実施の形態では、学習画像記憶部38に一旦記憶されている後述する加工処理済の撮像画像および当該撮像画像に紐づけられた判定結果(教師データ)、並びに、新しく検知された撮像画像を含む学習データに基づいて、学習モデルを学習する。換言すれば、ディープラーニングエンジン37は、新しく検知された撮像情報を入力データとし、その入力データと上記した教師データに基づいて、学習モデルを学習するというものである。 In the present embodiment, the processed image to be described later, the determination result (teacher data) associated with the image, and the newly detected image, which are temporarily stored in the learning image storage unit 38, are stored. A learning model is trained based on the training data included. In other words, the deep learning engine 37 uses the newly detected imaging information as input data, and learns the learning model based on the input data and the above-mentioned teacher data.

具体的には、学習画像記憶部38に一旦記憶されている後述する加工処理済の撮像画像を順次読み出し、読み出された加工処理済の撮像画像を学習モデル記憶部36に記憶されている学習モデルに入力する。そして、その出力として、学習モデルに入力された加工処理済の撮像画像に写る情報を正解情報(戸挟み部に異物がない情報)に一致させるように、学習モデルのパラメータを更新する。ここでいう学習の対象となるパラメータとは、学習モデルであるニューラルネットワークを定義する各種係数等である。なお、正解情報は、検査者によって入力部26を介して入力され、入力された加工処理済の撮像画像に関連付けられて、学習画像記憶部38内に記憶される。 Specifically, the learning image storage unit 38 sequentially reads out the processed image to be described later, and the read processed image is stored in the learning model storage unit 36. Fill in the model. Then, as the output, the parameters of the learning model are updated so that the information reflected in the processed captured image input to the learning model matches the correct answer information (information that there is no foreign matter in the door sandwiching portion). The parameters to be learned here are various coefficients that define a neural network that is a learning model. The correct answer information is input by the inspector via the input unit 26, is associated with the input processed image, and is stored in the learning image storage unit 38.

そして、このようにして、次々と教師データを適用させながら、学習モデルを最適化してゆく。ニューラルネットワークの教師あり学習方法は、様々なものが公知であるため、ここでは詳細な説明を省略する。以上により、学習過程が終了し、学習モデルが導出される。導出された学習モデルは、学習モデル記憶部36内に格納される。 Then, in this way, the learning model is optimized while applying the teacher data one after another. Since various methods of supervised learning of neural networks are known, detailed description thereof will be omitted here. As a result, the learning process is completed and the learning model is derived. The derived learning model is stored in the learning model storage unit 36.

ディープラーニングエンジン37は、学習モデル記憶部36に格納された撮像画像を用いて記憶部36に格納された学習モデル(その時点で最適化された学習モデル)に読み込ませることで、入力された撮像画像の正常・異常(異常とは戸挟み部に異物が挟まっている状態をいう)を確度(正解率:0〜100[%])として算出し、算出された確度を出力する。その出力を受けた制御部22の異物判定部33によって、その確度が所定の閾値を以上であれば検査結果OKを示す正常結果が出力され、その確度が所定の閾値を未満であれば検査結果NGを示す異常結果が出力される。 The deep learning engine 37 uses the captured image stored in the learning model storage unit 36 and loads it into the learning model (learning model optimized at that time) stored in the storage unit 36 to perform the input imaging. The normality / abnormality of the image (abnormality means a state in which a foreign object is caught in the door sandwiched portion) is calculated as the accuracy (correct answer rate: 0 to 100 [%]), and the calculated accuracy is output. The foreign matter determination unit 33 of the control unit 22 that receives the output outputs a normal result indicating that the inspection result is OK if the accuracy is equal to or higher than the predetermined threshold value, and the inspection result if the accuracy is less than the predetermined threshold value. An abnormal result indicating NG is output.

また、ディープラーニングエンジン37は、当該撮像画像と上記した確度を紐づけて学習画像記憶部38に格納させる。なお、学習モデルの学習過程(学習構築)の場面と、実際の異物検知の際の学習後の学習モデルが使用される場面(検知(異物判定処理)の場面)とは独立している。つまり、学習過程ではあくまで学習モデルを構築して更新するのみであり、実際の異物判定処理の場面では学習後の学習モデルが使用される。 Further, the deep learning engine 37 associates the captured image with the above-mentioned accuracy and stores it in the learning image storage unit 38. It should be noted that the scene of the learning process (learning construction) of the learning model and the scene of using the learning model after learning at the time of actual foreign matter detection (scene of detection (foreign matter determination processing)) are independent. That is, in the learning process, the learning model is only constructed and updated, and the learning model after learning is used in the actual foreign matter determination processing scene.

(制御部22)
制御部22は、画面生成部31、表示制御部32、異物判定部33、ROM34及びRAM35等から構成される。ROM34内には、画面生成部31、表示制御部32および異物判定部33に各種動作を実行させるプログラム40が格納されている。画面生成部31、表示制御部32および異物判定部33は、ROM34内のプログラム40を読み出して実行することにより、仮想的に画面生成部31、表示制御部32、異物判定部33として動作する。画面生成部31、表示制御部32、異物判定部33の動作の詳細については、後述する。なお、プログラム40は、ROM34内ではなく記憶装置25内に格納されていてもよいし、記憶装置25及びROM34の両方に分散して記憶されていてもよい。
(Control unit 22)
The control unit 22 includes a screen generation unit 31, a display control unit 32, a foreign matter determination unit 33, a ROM 34, a RAM 35, and the like. A program 40 for causing the screen generation unit 31, the display control unit 32, and the foreign matter determination unit 33 to execute various operations is stored in the ROM 34. The screen generation unit 31, the display control unit 32, and the foreign matter determination unit 33 virtually operate as the screen generation unit 31, the display control unit 32, and the foreign matter determination unit 33 by reading and executing the program 40 in the ROM 34. Details of the operations of the screen generation unit 31, the display control unit 32, and the foreign matter determination unit 33 will be described later. The program 40 may be stored in the storage device 25 instead of the ROM 34, or may be distributed and stored in both the storage device 25 and the ROM 34.

画面生成部31は、戸挟み部周辺の撮像画像から異物判定に不要な部分をトリミングしたり、戸先ゴム以外の領域(戸先ゴムの背景)をマスクしたり、台形状の戸先ゴム領域の画像を矩形状の戸先ゴム領域の画像に変換(画像処理)する機能を有する。このような画像加工処理を施して学習モデルに学習させることによって戸挟み部に挟まった異物の認識がし易くなり、異物検出精度および異物判定精度が向上する。表示制御部32は、制御部22から供給された情報の表示部30への表示を制御する。 The screen generation unit 31 trims a portion unnecessary for determining foreign matter from the captured image around the door sandwiching portion, masks an area other than the door end rubber (background of the door end rubber), and has a trapezoidal door end rubber area. It has a function of converting (image processing) the image of the above into an image of a rectangular rubber area at the door end. By performing such image processing and training the learning model, it becomes easier to recognize the foreign matter caught in the door sandwiching portion, and the foreign matter detection accuracy and the foreign matter determination accuracy are improved. The display control unit 32 controls the display of the information supplied from the control unit 22 on the display unit 30.

異物判定部33は、実際の異物判定処理の場面においてカメラ11が取り付けられた車両において新たに撮像された撮像画像を入力とし、ディープラーニングエンジン37で予め学習過程において構築された学習モデルに従って異物がないという検査結果OKを示す正常結果若しくは異物があるという検査結果NGを示す異常結果を表示部30に出力するとともに、当該車両の側引戸の開閉制御を実行する側引戸開閉制御部(図示せず)に出力する。 The foreign matter determination unit 33 receives an image newly captured in the vehicle to which the camera 11 is attached in the actual foreign matter determination processing scene, and the foreign matter is generated according to the learning model previously constructed in the learning process by the deep learning engine 37. A side sliding door opening / closing control unit (not shown) that outputs a normal result indicating that the inspection result is OK or an abnormal result indicating an inspection result NG indicating that there is a foreign substance to the display unit 30 and executes opening / closing control of the side sliding door of the vehicle. ).

以下に、学習モデルを機械学習する学習過程と、学習モデル構築後において学習モデルに従って判定結果を出力する異物判定処理について説明する。 The learning process of machine learning the learning model and the foreign matter judgment process of outputting the judgment result according to the learning model after the learning model is constructed will be described below.

[学習モデルを機械学習する学習過程]
以下、学習モデルを機械学習する学習過程について図4および図6を参照して説明する。学習モデルの学習は、ディープラーニングエンジン37により行われる。まず、撮像装置10の制御部12は、カメラ11で撮像された戸挟み部周辺領域の撮像画像を取得し、ネットワーク5、通信部24を介して記憶装置25に格納される。画面生成部31は記憶装置25に格納された撮像画像を後述する画像処理によって加工する。
[Learning process of machine learning a learning model]
Hereinafter, the learning process of machine learning the learning model will be described with reference to FIGS. 4 and 6. The learning of the learning model is performed by the deep learning engine 37. First, the control unit 12 of the image pickup device 10 acquires a captured image of the area around the door sandwiching portion captured by the camera 11 and stores the captured image in the storage device 25 via the network 5 and the communication unit 24. The screen generation unit 31 processes the captured image stored in the storage device 25 by image processing described later.

(撮像画像の加工処理)
撮像画像の加工処理は、記憶装置25から取得された撮像画像に対して以下の(1)〜(4)の4種類の加工処理が施される。
(1)取得された撮像画像(図8(A−1)参照)の中の戸先ゴム部の領域を切り出すように画像処理を施す(図8(A−2)参照)。
(2)(1)で切り出された戸先ゴム部の領域以外の領域を所定の背景色、背景模様でマスクする(図8(A−3)の中央図参照)。
(3)(2)で背景がマスクされた戸先ゴム部を矩形状に整形する(図8(A−3)の右図参照)。
(4)取得された撮像画像(図9(A−1)参照)中のホームの側引戸側に位置する乗降口領域の一部(以下、「乗降口中心部」と呼ぶ。)を切り出すように画像処理を施す(図9(A−2)参照)。次に(1)〜(4)の加工終了時に加工済の撮像画像は一旦学習画像記憶部38に記憶される。
(Processing of captured image)
In the processing of the captured image, the following four types of processing of (1) to (4) are applied to the captured image acquired from the storage device 25.
(1) Image processing is performed so as to cut out a region of the rubber part of the door end in the acquired captured image (see FIG. 8 (A-1)) (see FIG. 8 (A-2)).
(2) A region other than the region of the door end rubber portion cut out in (1) is masked with a predetermined background color and background pattern (see the central view of FIG. 8 (A-3)).
(3) The rubber portion of the door end whose background is masked in (2) is shaped into a rectangular shape (see the right figure of FIG. 8 (A-3)).
(4) Cut out a part of the entrance / exit area (hereinafter, referred to as "center of the entrance / exit") located on the side sliding door side of the platform in the acquired captured image (see FIG. 9 (A-1)). Is subjected to image processing (see FIG. 9 (A-2)). Next, at the end of the processing of (1) to (4), the processed captured image is temporarily stored in the learning image storage unit 38.

(機械学習動作)
図6のフローチャートを参照して、画像解析装置20が実行する機械学習動作、すなわち、学習時における画像解析装置20の学習動作について説明する。
(Machine learning operation)
The machine learning operation executed by the image analysis device 20, that is, the learning operation of the image analysis device 20 at the time of learning will be described with reference to the flowchart of FIG.

ステップS101において、ディープラーニングエンジン37は戸挟み部周辺領域の撮像画像から加工済の撮像画像を取得する。ここで、加工済の撮像画像とは、(1)戸先ゴム部の領域が切り出された撮像画像、(2)戸先ゴム部の領域以外の領域を所定の背景色、背景模様でマスクされた撮像画像、(3)背景がマスクされた戸先ゴム部を矩形状に整形された撮像画像、(4)撮像画像中のホームの側引戸側に位置する乗降口領域の一部が切り出された撮像画像であり、記憶装置25に一旦記憶されているものである。 In step S101, the deep learning engine 37 acquires the processed captured image from the captured image of the region around the door sandwiching portion. Here, the processed image is (1) an image in which the region of the door end rubber portion is cut out, and (2) a region other than the region of the door end rubber portion is masked with a predetermined background color and background pattern. The captured image, (3) the captured image in which the rubber part of the door end with the masked background is shaped into a rectangular shape, and (4) a part of the entrance / exit area located on the side sliding door side of the platform in the captured image is cut out. This is a captured image, which is temporarily stored in the storage device 25.

ステップS102において、入力部26は取得された加工済の撮像画像に基づいて戸挟み部周辺領域に異物が挟まっているか否かの情報(異物有無情報)を入力する。ここで、異物有無情報とは、異物がなく検査結果OKを示す情報(正常結果を示す情報)および異物があるとする検査結果NGを示す情報(異常結果を示す情報)をいう。 In step S102, the input unit 26 inputs information (foreign matter presence / absence information) as to whether or not a foreign matter is caught in the area around the door sandwiching portion based on the acquired processed image. Here, the foreign matter presence / absence information refers to information indicating that there is no foreign matter and the inspection result is OK (information indicating a normal result) and information indicating that there is a foreign matter and the inspection result is NG (information indicating an abnormal result).

ステップS103おいて、制御部22は、異物有無情報を取得された撮像画像に関連付けて教師データとして学習画像記憶部38に記憶させる。なお、上記教師データを学習画像記憶部38へ記憶させる指示はディープラーニングエンジン37で行うようにしてもよい。 In step S103, the control unit 22 stores the foreign matter presence / absence information in the learning image storage unit 38 as teacher data in association with the acquired captured image. The deep learning engine 37 may be instructed to store the teacher data in the learning image storage unit 38.

ステップS104おいて、ディープラーニングエンジン37は、加工済の戸挟み部周辺領域の撮像画像を入力とし、教師データに基づいて学習し、学習モデルを構築し、学習モデルの上記したパラメータを更新する。 In step S104, the deep learning engine 37 takes the captured image of the processed door sandwiching portion peripheral region as an input, learns based on the teacher data, builds a learning model, and updates the above-mentioned parameters of the learning model.

[対象物検知時における異物判定処理]
上述した機械学習終了後、実際に車両が運行している時間内における車両の側引戸の戸挟み部に異物が挟まっているか否かを判定する異物判定処理について図7のフローチャートを参照して説明する。
[Foreign matter judgment processing when an object is detected]
After the above-mentioned machine learning is completed, the foreign matter determination process for determining whether or not a foreign matter is caught in the door sandwiching portion of the side sliding door of the vehicle during the time when the vehicle is actually operating will be described with reference to the flowchart of FIG. To do.

ステップS201おいて、制御部22は戸挟み部周辺領域の撮像画像から加工処理済の撮像画像を取得する。なお、加工処理済の撮像画像は車両運行中にカメラ11で撮像された画像であって上記した加工処理によって加工された画像であり記憶装置25に一旦記憶されている。 In step S201, the control unit 22 acquires the processed captured image from the captured image of the region around the door sandwiching portion. The processed captured image is an image captured by the camera 11 while the vehicle is in operation, processed by the above-mentioned processing, and is temporarily stored in the storage device 25.

ステップS202おいて、制御部22は学習モデル記憶部36に記憶されている学習モデルを読み出し、戸挟み部周辺の加工処理済の撮像画像をディープラーニングエンジン37に入力し、異物判定部33はディープラーニングエンジン37から出力された正解率情報に基づいて異常有無に関する判定を行い、判定結果を表示部30に出力する。なお、表示部30に出力される判定結果とは正解情報をいい、正解率(%)で示してもよいし、OK(正常)かNG(異常)で示してもよい。また、表示部30には、上記判定結果のみならず判定結果の対象となる撮像画像も表示される。 In step S202, the control unit 22 reads out the learning model stored in the learning model storage unit 36, inputs the processed captured image around the door sandwiching portion to the deep learning engine 37, and the foreign matter determination unit 33 is deep. Based on the correct answer rate information output from the learning engine 37, a determination regarding the presence or absence of an abnormality is performed, and the determination result is output to the display unit 30. The determination result output to the display unit 30 refers to correct answer information, which may be indicated by the correct answer rate (%), or may be indicated by OK (normal) or NG (abnormal). Further, not only the above determination result but also the captured image which is the target of the determination result is displayed on the display unit 30.

[学習モデル評価試験]
以下に、上記した3種類の加工処理を施したそれぞれの撮像画像を用いた3種類の学習モデルを図13に示す。本評価試験に用いた学習モデルは、図13に示すように、戸先ゴム切り出しモデル、戸先ゴムマスクモデル、戸先ゴム矩形モデルの3種類である。戸先ゴム部切り出しモデルは、戸先ゴム部の外接矩形で切り出し処理した後に所定のモデルサイズに縮小して学習させたものである。なお、外接矩形とは、輪郭を含むことができる最も小さな長方形のことをいう。
[Learning model evaluation test]
Below, FIG. 13 shows three types of learning models using each of the captured images subjected to the above-mentioned three types of processing. As shown in FIG. 13, there are three types of learning models used in this evaluation test: a door tip rubber cutout model, a door tip rubber mask model, and a door tip rubber rectangular model. The door end rubber portion cut-out model is obtained by cutting out the circumscribed rectangle of the door tip rubber portion and then reducing the size to a predetermined model size for learning. The circumscribing rectangle is the smallest rectangle that can include a contour.

戸先ゴム部マスクモデルは、戸先ゴム部の外接矩形で切り出し処理した後に、戸先ゴム部以外の領域(戸先ゴム部の背景)をグレーでマスクして、それを所定のモデルサイズに縮小して学習させたものである。戸先ゴム矩形モデルは、戸先ゴム部の領域を所定のモデルサイズに幅を合わせて矩形に補正し、さらに所定のモデルサイズに縮小して学習させたものである。なお、本評価における上記縮小後のモデルサイズは80ピクセル、96ピクセル、128ピクセル、224ピクセルである。 In the door tip rubber part mask model, after cutting out with the circumscribing rectangle of the door tip rubber part, the area other than the door tip rubber part (background of the door tip rubber part) is masked in gray, and it is made into a predetermined model size. It was reduced and learned. In the door tip rubber rectangular model, the area of the door tip rubber portion is corrected to a rectangle by adjusting the width to a predetermined model size, and further reduced to a predetermined model size for learning. The model size after the reduction in this evaluation is 80 pixels, 96 pixels, 128 pixels, and 224 pixels.

上記した3種類の学習モデルを適用して異常判定処理を実行し、それぞれの評価結果を図14および図15に示す。評価試験は、本評価試験に用いるための学習用画像を学習画像記憶部38から読み出して、読み出された学習画像の画像総数、異物がなく検査結果が正常(OK)である撮像画像の枚数、異物があり検査結果が異常(NG)である撮像画像の枚数、「正常」を正常と判定された枚数(第1の正常枚数)、「異常」を正常と判定された枚数(第1の異常枚数)、「正常」を異常と判定された枚数(第2の異常枚数)、「異常」を異常と判定された枚数(第2の正常枚数)を算出し、上記画像総数に対する上記第1の正常枚数と上記第2の正常枚数の加算枚数の割合を正解率(%)として算出し、対象学習モデルを評価した。図15〜図17には、正解率90%以上の学習モデルの評価結果を示した。 The abnormality determination process is executed by applying the above-mentioned three types of learning models, and the evaluation results of each are shown in FIGS. 14 and 15. In the evaluation test, the learning images to be used in the main evaluation test are read from the learning image storage unit 38, the total number of the read learning images, the number of captured images with no foreign matter and the inspection result is normal (OK). , The number of captured images for which there is a foreign substance and the inspection result is abnormal (NG), the number of images for which "normal" is determined to be normal (first normal number), and the number of images for which "abnormal" is determined to be normal (first) (Abnormal number of images), "normal" is determined to be abnormal (second abnormal number of sheets), "abnormal" is determined to be abnormal (second normal number of sheets), and the above first with respect to the total number of images. The ratio of the normal number of sheets and the added number of the second normal number of sheets was calculated as the correct answer rate (%), and the target learning model was evaluated. 15 to 17 show the evaluation results of the learning model having a correct answer rate of 90% or more.

<戸先ゴム切り出しモデルの評価結果>
(実施例1)
モデルサイズ80ピクセル、画像総数が1890枚、OK枚数が108枚、NG枚数が1782枚、「正常」を正常と判定された枚数が79枚、「異常」を正常と判定された枚数が3枚、「正常」を異常と判定された枚数が29枚、「異常」を異常と判定された枚数が1779枚で正解率は98.3%であった。
<Evaluation result of rubber cut-out model at door end>
(Example 1)
Model size 80 pixels, total number of images 1890, OK number 108, NG number 1782, "normal" judged normal 79, "abnormal" judged normal 3 The number of sheets for which "normal" was determined to be abnormal was 29, the number of sheets for which "abnormal" was determined to be abnormal was 1779, and the correct answer rate was 98.3%.

(実施例2)
モデルサイズ96ピクセル、画像総数が1890枚、OK枚数が108枚、NG枚数が1782枚、「正常」を正常と判定された枚数が108枚、「異常」を正常と判定された枚数が1枚、「正常」を異常と判定された枚数が0枚、「異常」を異常と判定された枚数が1781枚で正解率は99.9%であった。
(Example 2)
Model size 96 pixels, total number of images 1890, OK number 108, NG number 1782, "normal" determined to be normal 108, "abnormal" determined to be normal 1 The number of sheets determined to be "normal" as abnormal was 0, the number of sheets determined to be "abnormal" was 1781, and the correct answer rate was 99.9%.

(実施例3)
モデルサイズ128ピクセル、画像総数が1890枚、OK枚数が108枚、NG枚数が1782枚、「正常」を正常と判定された枚数が108枚、「異常」を正常と判定された枚数が3枚、「正常」を異常と判定された枚数が0枚、「異常」を異常と判定された枚数が1779枚で正解率は99.8%であった。
(Example 3)
Model size 128 pixels, total number of images 1890, OK number 108, NG number 1782, "normal" determined to be normal 108, "abnormal" determined to be normal 3 The number of sheets determined to be "normal" as abnormal was 0, the number of sheets determined to be "abnormal" was 1779, and the correct answer rate was 99.8%.

(実施例4)
モデルサイズ224ピクセル、画像総数が1890枚、OK枚数が108枚、NG枚数が1782枚、「正常」を正常と判定された枚数が107枚、「異常」を正常と判定された枚数が1枚、「正常」を異常と判定された枚数が1枚、「異常」を異常と判定された枚数が1781枚で正解率は99.9%であった。
(Example 4)
Model size 224 pixels, total number of images 1890, OK number 108, NG number 1782, "normal" judged normal 107, "abnormal" judged normal 1 The number of sheets determined to be "normal" as abnormal was 1, the number of sheets determined to be "abnormal" was 1781, and the correct answer rate was 99.9%.

以上の評価結果からも明らかなように、戸先ゴム部切り出しモデルは、戸先ゴム部の外接矩形で切り出し処理した後に所定のモデルサイズに縮小して学習させたものであるので、側引戸全体を撮像した画像に比較して戸先ゴム部周辺に特化して現わされた画像であるので異物の判別が容易であり判別処理にかかる時間の短縮も図れる。 As is clear from the above evaluation results, the door-end rubber part cut-out model is a model obtained by cutting out the circumscribing rectangle of the door-end rubber part and then reducing it to a predetermined model size for learning. Since it is an image that is specialized in the area around the rubber part of the door compared to the captured image, it is easy to discriminate foreign matter and the time required for the discriminating process can be shortened.

<戸先ゴムマスクモデルの評価結果>
(実施例1)
モデルサイズ96ピクセル、画像総数が1890枚、OK枚数が108枚、NG枚数が1782枚、「正常」を正常と判定された枚数が0枚、「異常」を正常と判定された枚数が0枚、「正常」を異常と判定された枚数が108枚、「異常」を異常と判定された枚数が1782枚で正解率は94.3%であった。
<Evaluation result of door-end rubber mask model>
(Example 1)
Model size 96 pixels, total number of images 1890, OK number 108, NG number 1782, "normal" determined to be normal 0, "abnormal" determined to be normal 0 The number of sheets for which "normal" was determined to be abnormal was 108, the number of sheets for which "abnormal" was determined to be abnormal was 1782, and the correct answer rate was 94.3%.

ここで、側引戸全体を撮像した画像を用いての異物有無判定においては、車両の色やテクスチャが車両種別に応じて変化して判定に悪影響を及ぼすことがあり判定精度の低下を招いていたのに対して、戸先ゴムマスクモデルは、戸先ゴム部の外接矩形で切り出し処理した後に、戸先ゴム部以外の領域をグレー等でマスクして、それを所定のモデルサイズに縮小して学習させたものであるので、戸先ゴム部の領域以外の上記した悪影響を受けることがなく、異物の有無の認識がよりし易くなり誤判定を抑制することができる。 Here, in the determination of the presence or absence of foreign matter using an image of the entire side sliding door, the color and texture of the vehicle may change according to the vehicle type, which may adversely affect the determination, resulting in a decrease in determination accuracy. On the other hand, in the door tip rubber mask model, after cutting out with the circumscribing rectangle of the door tip rubber part, the area other than the door tip rubber part is masked with gray or the like, and it is reduced to a predetermined model size for learning. Therefore, since it is not affected by the above-mentioned adverse effects other than the region of the rubber portion of the door end, it becomes easier to recognize the presence or absence of foreign matter and erroneous determination can be suppressed.

<戸先ゴム矩形モデルの評価結果>
(実施例1)
モデルサイズ96ピクセル、画像総数が3842枚、OK枚数が1879枚、NG枚数が1963枚、「正常」を正常と判定された枚数が1876枚、「異常」を正常と判定された枚数が0枚、「正常」を異常と判定された枚数が3枚、「異常」を異常と判定された枚数が1963枚で正解率は99.9%であった。
<Evaluation result of door-end rubber rectangular model>
(Example 1)
Model size 96 pixels, total number of images 3842, OK number 1879, NG number 1963, "normal" judged normal 1876, "abnormal" judged normal 0 , The number of sheets determined to be "normal" as abnormal was 3, and the number of sheets determined to be "abnormal" was 1963, and the correct answer rate was 99.9%.

(実施例2)
モデルサイズ128ピクセル、画像総数が1890枚、OK枚数が108枚、NG枚数が1782枚、「正常」を正常と判定された枚数が108枚、「異常」を正常と判定された枚数が3枚、「正常」を異常と判定された枚数が0枚、「異常」を異常と判定された枚数が1779枚で正解率は99.8%であった。
(Example 2)
Model size 128 pixels, total number of images 1890, OK number 108, NG number 1782, "normal" determined to be normal 108, "abnormal" determined to be normal 3 The number of sheets determined to be "normal" as abnormal was 0, the number of sheets determined to be "abnormal" was 1779, and the correct answer rate was 99.8%.

以上の評価結果からも明らかなように、戸先ゴム矩形モデルは、戸先ゴム部の領域を所定のモデルサイズに幅を合わせて矩形に補正し、さらに所定のモデルサイズに縮小して学習させたものであるので、側引戸全体を撮像した画像に比べてより実際の見た目通りの画像を用いるので異物の判別が容易であり判別処理にかかる時間の短縮も図れる。 As is clear from the above evaluation results, in the door-end rubber rectangular model, the area of the door-end rubber portion is corrected to a rectangle by adjusting the width to a predetermined model size, and further reduced to a predetermined model size for learning. Therefore, since the image as it actually looks is used as compared with the image obtained by capturing the entire side sliding door, it is easy to discriminate the foreign matter and the time required for the discriminating process can be shortened.

以上説明したように、上記した実施の形態によれば、異物判定に用いられる学習モデルとして、戸先ゴム部の外接矩形で切り出し処理した後に所定のモデルサイズに縮小して学習させた戸先ゴム切り出しモデル、戸先ゴム部の外接矩形で切り出し処理した後に、戸先ゴム部以外の領域をマスクして、それを所定のモデルサイズに縮小して学習させた戸先ゴムマスクモデル、戸先ゴム部の領域を所定のモデルサイズに幅を合わせて矩形に補正し、さらに所定のモデルサイズに縮小して学習させた戸先ゴム矩形モデルを用いているので、対象物を撮像する方向や撮像条件との関係で撮像画像における対象物の見え方に差異が生じることによる影響を受けにくいため、画像解析の精度の低下を抑制し、対象物の有無の判定精度の向上を図ることができる。 As described above, according to the above-described embodiment, as the learning model used for determining the foreign matter, the door end rubber is cut out from the circumscribing rectangle of the door end rubber portion and then reduced to a predetermined model size for learning. Cut-out model, door-end rubber mask model, door-end rubber part that was learned by masking the area other than the door-end rubber part and reducing it to a predetermined model size after cutting out with the circumscribing rectangle of the door-end rubber part. Since we are using a door-end rubber rectangular model that has been trained by adjusting the width of the area to a predetermined model size and reducing it to a predetermined model size, the direction and conditions for imaging the object Because it is not easily affected by the difference in the appearance of the object in the captured image due to the above, it is possible to suppress the decrease in the accuracy of the image analysis and improve the accuracy of determining the presence or absence of the object.

上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ、タブレット装置、または、スマートフォンなどに、プログラム記録媒体からインストールされる。 The series of processes described above can be executed by hardware or software. When a series of processes are executed by software, the programs that make up the software can execute various functions by installing a computer embedded in dedicated hardware or various programs. It is installed from a program recording medium on a possible, eg, general purpose personal computer, tablet device, or smartphone.

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program that is processed in chronological order according to the order described in this specification, or may be a program that is processed in parallel or at a necessary timing such as when a call is made. It may be a program in which processing is performed.

また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 Further, the embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

1…対象物検知システム、 5…ネットワーク、 10…撮像装置、 11…カメラ、12…制御部、 13…通信部、 20…画像解析装置、 22…制御部、 24…通信部、 25…記憶装置、 26…入力部、 28…学習用サーバ、 30…表示部、 31…画像生成部、 32…表示制御部、 33…異物判定部、 34…ROM、 35…RAM、 36…学習モデル記憶部、 37…ディープラーニングエンジン、 38…学習画像記憶部、 40…プログラム

1 ... Object detection system, 5 ... Network, 10 ... Imaging device, 11 ... Camera, 12 ... Control unit, 13 ... Communication unit, 20 ... Image analysis device, 22 ... Control unit, 24 ... Communication unit, 25 ... Storage device , 26 ... Input unit, 28 ... Learning server, 30 ... Display unit, 31 ... Image generation unit, 32 ... Display control unit, 33 ... Foreign matter determination unit, 34 ... ROM, 35 ... RAM, 36 ... Learning model storage unit, 37 ... Deep learning engine, 38 ... Learning image storage, 40 ... Program

Claims (6)

画像取得部によって取得された車両の側引戸の戸挟み部周辺領域の撮像画像に基づいて前記戸挟み部周辺領域の対象物を検知する画像解析部を有する対象物検知装置であって、
前記画像解析部は、
学習時に、前記戸挟み部周辺領域の撮像画像を入力とし、当該撮像画像と当該撮像画像に含まれる異物の有無の情報を教師データとして、学習モデルを学習し、
検知時に、実際の戸挟み部周辺領域の撮像画像を入力とし、当該撮像画像に含まれる異物の有無の情報を出力する機械学習部を有する、
ことを特徴とする対象物検知装置。
An object detection device having an image analysis unit that detects an object in the area around the door sandwiching portion based on an image captured in the area around the door sandwiching portion of the side sliding door of the vehicle acquired by the image acquisition unit.
The image analysis unit
At the time of learning, the learning model is learned by inputting the captured image of the area around the door sandwiching portion and using the captured image and the information on the presence or absence of foreign matter contained in the captured image as teacher data.
At the time of detection, it has a machine learning unit that inputs an image of the area around the door sandwiched portion and outputs information on the presence or absence of foreign matter contained in the image.
An object detection device characterized by this.
前記画像解析部は、前記画像取得部で取得された撮像画像の中の戸先ゴム部の領域を切り出すように画像処理を施す画像生成部を有する、
ことを特徴とする請求項1に記載の対象物検知装置。
The image analysis unit has an image generation unit that performs image processing so as to cut out a region of the door end rubber portion in the captured image acquired by the image acquisition unit.
The object detection device according to claim 1.
前記画像解析部は、前記画像取得部で取得された撮像画像の中の戸先ゴム部の領域を切り出し、切り出された戸先ゴム部の領域以外の領域を所定の背景色または背景模様でマスクするように画像処理を施す画像生成部を有する、
ことを特徴とする請求項1に記載の対象物検知装置。
The image analysis unit cuts out a region of the door end rubber portion in the captured image acquired by the image acquisition unit, and masks an region other than the cut out region of the door end rubber portion with a predetermined background color or background pattern. It has an image generation unit that performs image processing so as to do so.
The object detection device according to claim 1.
前記画像解析部は、前記画像取得部で取得された撮像画像の中の戸先ゴム部の領域を切り出し、切り出された戸先ゴム部の領域以外の領域を所定の背景色または背景模様でマスクし、マスクされた前記戸先ゴム部を矩形状に整形するように画像処理を施す画像生成部を有する、
ことを特徴とする請求項1に記載の対象物検知装置。
The image analysis unit cuts out a region of the door end rubber portion in the captured image acquired by the image acquisition unit, and masks an region other than the cut out region of the door end rubber portion with a predetermined background color or background pattern. It has an image generation unit that performs image processing so as to shape the masked rubber portion of the door end into a rectangular shape.
The object detection device according to claim 1.
請求項1から4のいずれか1項に記載の対象物検知装置を備えると共に、
車両の側引戸の戸挟み部周辺領域を撮像可能に配置された撮像装置から戸挟み部周辺領域の撮像画像を取得する前記画像取得部と有する、
ことを特徴とする対象物検知システム。
The object detection device according to any one of claims 1 to 4 is provided, and the object detection device is provided.
It has the image acquisition unit that acquires an image of the area around the door sandwiching portion from an imaging device arranged so that the area around the door sandwiching portion of the side sliding door of the vehicle can be imaged.
An object detection system characterized by this.
車両の側引戸の戸挟み部周辺領域を撮像可能に配置された撮像装置から戸挟み部周辺領域の撮像画像を取得するステップと、
前記戸挟み部周辺領域の撮像画像に基づいて前記戸挟み部周辺領域の対象物を検知するステップと、
を有する対象物検知方法であって、
学習時に、前記戸挟み部周辺領域の撮像画像を入力とし、当該撮像画像と当該撮像画像に含まれる異物の有無の情報を教師データとして、学習モデルを学習するステップと、
検知時に、実際の戸挟み部周辺領域の撮像画像を入力とし、当該撮像画像に含まれる異物の有無の情報を出力するステップを有する、
ことを特徴とする対象物検知方法。

A step of acquiring an image of the area around the door sandwiching part from an imaging device arranged so that the area around the door sandwiching part of the side sliding door of the vehicle can be imaged.
A step of detecting an object in the area around the door sandwiching portion based on an image captured in the area surrounding the door sandwiching portion, and
It is an object detection method having
At the time of learning, the step of learning the learning model by inputting the captured image of the area around the door sandwiching portion and using the captured image and the information on the presence or absence of foreign matter contained in the captured image as teacher data.
At the time of detection, it has a step of inputting an image captured in the area around the door sandwiching portion and outputting information on the presence or absence of foreign matter contained in the captured image.
An object detection method characterized by this.

JP2019161842A 2019-09-05 2019-09-05 Object detection device and system and method for the same Pending JP2021037904A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019161842A JP2021037904A (en) 2019-09-05 2019-09-05 Object detection device and system and method for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019161842A JP2021037904A (en) 2019-09-05 2019-09-05 Object detection device and system and method for the same

Publications (1)

Publication Number Publication Date
JP2021037904A true JP2021037904A (en) 2021-03-11

Family

ID=74848896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019161842A Pending JP2021037904A (en) 2019-09-05 2019-09-05 Object detection device and system and method for the same

Country Status (1)

Country Link
JP (1) JP2021037904A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102457470B1 (en) * 2021-11-08 2022-10-21 주식회사 윈드위시 Apparatus and Method for Artificial Intelligence Based Precipitation Determination Using Image Analysis

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102457470B1 (en) * 2021-11-08 2022-10-21 주식회사 윈드위시 Apparatus and Method for Artificial Intelligence Based Precipitation Determination Using Image Analysis

Similar Documents

Publication Publication Date Title
US20190370580A1 (en) Driver monitoring apparatus, driver monitoring method, learning apparatus, and learning method
US20150234460A1 (en) Gesture recognition device and method of controlling gesture recognition device
CN111788883B (en) Component mounting state inspection method, printed circuit board inspection apparatus, and computer-readable recording medium
CN103901490B (en) Human body security check device and human body security check method
CN105286802B (en) Driver Fatigue Detection based on video information
CN105825621A (en) Method and device for driving motor vehicle able to be driven in an at least partially automated manner
CN110580741B (en) Infant milk vomiting behavior detection method and device, computer equipment and storage medium
JP2020128877A (en) Linear object abnormality detection device and abnormality detection method
JP2017167624A (en) Image processing device, image processing method, and program
JP2020169680A (en) Device, method and program for detecting bolt fastening condition
CN110855934A (en) Fatigue driving identification method, device and system, vehicle-mounted terminal and server
KR20230137221A (en) Method for verification of image, diagnostic system performing the same and computer-readable recording medium on which the method of performing the same
JP2021037904A (en) Object detection device and system and method for the same
US20150379364A1 (en) Object detection apparatus
US11410462B2 (en) Processing system and processing method
CN116522283A (en) Fusion diagnosis method, device, equipment and medium based on vibration and video data
EP3624443A1 (en) Surveillance device, surveillance method, computer program, and storage medium
CN115578329A (en) Screen detection method and device, computer equipment and readable storage medium
US20200265130A1 (en) Processing system and processing method
US20220280099A1 (en) System, computer program and method for displaying tmt test result
CN110588167B (en) Method and apparatus for image monitoring
CN113960687A (en) X-ray image processing device and X-ray image processing method
US20200167908A1 (en) Determination device and determining method thereof
JP2021019940A (en) Biological information extraction device
JPH08175218A (en) Operation state detector