JP2014174903A - Object detection system, object detection method, and object detection program - Google Patents

Object detection system, object detection method, and object detection program Download PDF

Info

Publication number
JP2014174903A
JP2014174903A JP2013049297A JP2013049297A JP2014174903A JP 2014174903 A JP2014174903 A JP 2014174903A JP 2013049297 A JP2013049297 A JP 2013049297A JP 2013049297 A JP2013049297 A JP 2013049297A JP 2014174903 A JP2014174903 A JP 2014174903A
Authority
JP
Japan
Prior art keywords
area
moving
object detection
image
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013049297A
Other languages
Japanese (ja)
Other versions
JP6051974B2 (en
Inventor
Kouji Kaneko
工治 兼子
Tamio Fujisaki
民雄 藤崎
Rie Miyaki
理恵 宮木
Kaoru Uchida
薫 内田
Daisuke Kamoyama
大輔 鴨山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2013049297A priority Critical patent/JP6051974B2/en
Publication of JP2014174903A publication Critical patent/JP2014174903A/en
Application granted granted Critical
Publication of JP6051974B2 publication Critical patent/JP6051974B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To accurately detect, from an image, an object located in a detection region by reducing the opportunity of imaging a user or the like located in front of the detection region in a state in which the user is overlaid on the detection region.SOLUTION: An object detection system 11 includes cameras 31 and 32 (33 and 34), sensors 41-44, and an object detection unit 18. The cameras 31 and 32 (33 and 34) are installed in front of a track 23 (24), and image the tracks 23 and 24. The sensors 41-44 detect a train located on the tracks 23 and 24. When no train is detected in imaging areas of the cameras 31 and 32 (33 and 34), the object detection unit 18 detects an object located on the track 24 (23) from the images of the cameras 31 and 32 (33 and 34).

Description

この発明は、移動体の移動路を撮像した画像から、移動路上に位置するオブジェクトを検出するオブジェクト検出システム、オブジェクト検出方法、および、オブジェクト検出プログラムに関する。   The present invention relates to an object detection system, an object detection method, and an object detection program for detecting an object located on a moving path from an image obtained by capturing the moving path of a moving body.

従来、駅等において利用者の持ち物や利用者がホームから線路に落ちることなどを検出するために、線路を撮像した画像からオブジェクトを検出するオブジェクト検出システムが利用されることがある(例えば特許文献1参照)。オブジェクト検出システムでは、ホーム毎に、隣接する線路を撮像するカメラが設置され、各カメラが撮像する画像から、隣接する線路上のオブジェクトを検出する。   2. Description of the Related Art Conventionally, an object detection system that detects an object from an image obtained by imaging a track may be used in order to detect a user's belongings or a user falling on a track at a station or the like (for example, Patent Documents). 1). In the object detection system, a camera that captures an adjacent track is installed for each home, and an object on the adjacent track is detected from an image captured by each camera.

特開2012−11989号公報JP 2012-11989

このように線路を撮像した画像には、ホーム上に位置する利用者の頭部などが線路と重なって撮像されることがあり、その場合に、オブジェクトが線路上に位置すると誤検出されることがあった。また、ホームの死角に線路の一部が入ることにより、線路上に位置するオブジェクトを検出できないことがあった。   In such an image of the track, the user's head located on the platform may be picked up by overlapping the track, and in this case, it is erroneously detected that the object is positioned on the track. was there. Further, when a part of the track enters the blind spot of the home, an object located on the track may not be detected.

そこで、この発明の目的は、移動体が移動する移動路よりも手前に位置するオブジェクトが画像に写り込んで、移動路上に位置するオブジェクトとして検出される機会を減らすことができ、高い精度で移動路上に位置するオブジェクトを検出する技術を提供することにある。   Accordingly, an object of the present invention is to reduce the chance that an object positioned in front of the moving path on which the moving body moves is reflected in the image and detected as an object positioned on the moving path, and moves with high accuracy. The object is to provide a technique for detecting an object located on a road.

この発明にかかるオブジェクト検出システムは、画像取得部と、移動体検出部と、オブジェクト検出部と、を備える。また、この発明にかかるオブジェクト検出方法は、画像取得部と移動体検出部とオブジェクト検出部との構成に相当する処理を、情報処理装置で実行する方法である。さらに、この発明にかかるオブジェクト検出プログラムは、情報処理装置にインストールされるプログラムであって、画像取得部と移動体検出部とオブジェクト検出部との構成に相当する処理を、情報処理装置に実行させるプログラムである。   The object detection system according to the present invention includes an image acquisition unit, a moving body detection unit, and an object detection unit. In addition, the object detection method according to the present invention is a method in which processing corresponding to the configuration of the image acquisition unit, the moving body detection unit, and the object detection unit is executed by the information processing apparatus. Furthermore, the object detection program according to the present invention is a program installed in the information processing apparatus, and causes the information processing apparatus to execute processing corresponding to the configuration of the image acquisition unit, the moving object detection unit, and the object detection unit. It is a program.

画像取得部は、移動路の側方に設置されたカメラで移動路が撮像された画像を取得する。なお、画像取得部は、移動路の両側に設置された複数のカメラで撮像された複数の画像や、移動路に沿って設置された複数のカメラで撮像された複数の画像を取得してもよい。また、カメラは遠赤外線カメラであってもよい。   The image acquisition unit acquires an image in which the moving path is captured by a camera installed on the side of the moving path. The image acquisition unit may acquire a plurality of images captured by a plurality of cameras installed on both sides of the moving path or a plurality of images captured by a plurality of cameras installed along the moving path. Good. The camera may be a far infrared camera.

移動体検出部は、移動路上でカメラの撮像エリアに位置する移動体を検出する。移動体検出部は、例えば、駅のホーム両端に設けられて線路に位置する列車を検出する超音波センサなどを利用して構成することができる。   A moving body detection part detects the moving body located in the imaging area of a camera on a moving path. The moving body detection unit can be configured using, for example, ultrasonic sensors that are provided at both ends of the platform of the station and detect a train located on the track.

オブジェクト検出部は、移動体が検出されていない時には、画像から、移動路におけるカメラ側とは反対側の対向領域に位置するオブジェクトを検出する。また、オブジェクト検出部は、移動体が検出されている時には、画像からの対向領域に位置するオブジェクトの検出を中止する。   When the moving object is not detected, the object detection unit detects, from the image, an object located in a facing area on the opposite side of the moving path from the camera side. Further, the object detection unit stops detecting the object located in the facing area from the image when the moving body is detected.

このように、対向領域に位置するオブジェクトを検出することにより、移動路よりも手前に位置するオブジェクトが画像に写り込んで、移動路上に位置するオブジェクトとして誤検出されることを防ぐことができる。また、移動路上でカメラの撮像エリアに位置する移動体があると、対向領域に位置するオブジェクトを正確に検出することが困難になるため、その場合には、対向領域に位置するオブジェクトの検出を行わない。このため、対向領域に位置するオブジェクトを正確に検出することができる。   Thus, by detecting the object located in the facing area, it is possible to prevent the object located in front of the moving path from being reflected in the image and being erroneously detected as the object located on the moving path. In addition, if there is a moving body located in the imaging area of the camera on the moving path, it will be difficult to accurately detect an object located in the facing area. Not performed. For this reason, the object located in the opposing area can be detected accurately.

なお、移動路の両側に設置され撮像エリアの一部が互いに重なる複数のカメラで、複数の画像を取得すると好適である。このように移動路の両側それぞれからオブジェクトの検出を行うことで、移動路の各領域に位置するオブジェクトを精度よく検出することが可能になる。   Note that it is preferable to acquire a plurality of images with a plurality of cameras that are installed on both sides of the moving path and in which part of the imaging areas overlap each other. By detecting objects from both sides of the moving path in this way, it is possible to accurately detect objects located in each area of the moving path.

また、移動路に沿って設置され撮像エリアの一部が互いに重なる複数のカメラで、画像を取得してもよい。この場合、カメラは、遠赤外線カメラであると好適である。移動路に沿う両端それぞれからオブジェクトの検出を行うことで、各カメラからの画像単体では撮像することが困難なカメラ近傍の領域からも、オブジェクトを検出することができる。また、遠赤外線カメラは、極めて長い距離範囲でオブジェクトの検出を行うことができる。したがって、これらの構成を組み合わせれば、オブジェクトの検出を行う必要がある範囲が極めて広くても、撮像点の数を抑制して、オブジェクトの検出を行うべき全範囲からオブジェクトを検出することができる。   Further, the images may be acquired by a plurality of cameras that are installed along the moving path and in which the imaging areas partially overlap each other. In this case, the camera is preferably a far infrared camera. By detecting the object from both ends along the moving path, it is possible to detect the object even from an area in the vicinity of the camera that is difficult to capture with a single image from each camera. Further, the far-infrared camera can detect an object in a very long distance range. Therefore, by combining these configurations, even if the range where the object needs to be detected is very wide, the number of imaging points can be suppressed and the object can be detected from the entire range where the object should be detected. .

また、移動体が対向領域に位置するか否かを判定してもよい。この場合、移動体が対向領域に位置すると判定されている時には、画像から対向領域とは反対側の手前領域に位置するオブジェクトを検出すると好適である。これにより、対向領域に移動体が位置していても、手前領域に位置するオブジェクトを検出することができる。   Moreover, you may determine whether a mobile body is located in an opposing area | region. In this case, when it is determined that the moving body is located in the facing area, it is preferable to detect an object located in the near area opposite to the facing area from the image. Thereby, even if the moving body is located in the opposing area, the object located in the near area can be detected.

また、手前領域に位置するオブジェクトが検出された場合と、対向領域に位置するオブジェクトが検出された場合とで、異なる出力信号を出力してもよい。このようにすれば、後に、オブジェクトが移動路に位置する精度に応じて適切な処理を実施することが可能になる。なお、手前領域に位置するオブジェクトを検出した場合に、当該オブジェクトを検出した位置が、対向領域に近接する領域か否かを判定し、手前領域に位置するオブジェクトが検出された位置が、対向領域に近接する領域であると判定された場合と、対向領域に近接する領域では無いと判定された場合とで、異なる出力信号を出力してもよい。   Different output signals may be output when an object located in the near area is detected and when an object located in the facing area is detected. In this way, it becomes possible to perform appropriate processing later according to the accuracy with which the object is positioned on the moving path. When an object located in the near area is detected, it is determined whether the position where the object is detected is an area close to the facing area, and the position where the object located in the near area is detected is the facing area. Different output signals may be output when it is determined that the region is close to the region and when it is determined that the region is not close to the opposite region.

この発明によれば、列車等の移動体が線路等の移動路に位置していない場合に、対向領域に位置するオブジェクトを検出するので、移動路よりも手前に位置するオブジェクトが画像に写り込んで、移動路上に位置するオブジェクトとして検出される機会を減らすことができ、高い精度で移動路上に位置するオブジェクトを検出できる。   According to the present invention, when a moving body such as a train is not located on a moving path such as a track, an object located in the facing area is detected, so an object located in front of the moving path is reflected in the image. Thus, the chance of being detected as an object located on the moving path can be reduced, and an object located on the moving path can be detected with high accuracy.

カメラが設置されている駅のホームを示す概略図である。It is the schematic which shows the platform of the station in which the camera is installed. カメラが撮像する画像に設定される手前領域と対向領域とを例示する模式図である。It is a schematic diagram which illustrates the near area | region and opposing area | region set to the image which a camera images. オブジェクト検出システムの主要部の構成を示す模式図である。It is a schematic diagram which shows the structure of the principal part of an object detection system. オブジェクト検出処理の一例を示すフローチャートである。It is a flowchart which shows an example of an object detection process. オブジェクト検出ステップの一例を示すフローチャートである。It is a flowchart which shows an example of an object detection step. オブジェクト検出ステップで各画像に設定される検出領域の範囲を説明する模式図である。It is a schematic diagram explaining the range of the detection area set to each image in an object detection step. 出力ステップの一例を示すフローチャートである。It is a flowchart which shows an example of an output step.

以下、この発明の実施形態に係るオブジェクト検出システム、オブジェクト検出方法、およびオブジェクト検出プログラムについて説明する。   Hereinafter, an object detection system, an object detection method, and an object detection program according to embodiments of the present invention will be described.

この実施形態で説明するオブジェクト検出システムの例では、駅のホームに設置されたカメラで、ホームに隣接する線路を撮像し、その画像から線路上に位置するオブジェクトを検出する。即ち、列車を移動体とし、列車が移動する線路を移動路として、オブジェクト検出システムを説明する。このオブジェクト検出システムでは、線路上に位置するオブジェクトが検出された場合には、そのことを伝える信号を外部装置に出力し、外部装置に警報等を行わせる。   In the example of the object detection system described in this embodiment, a camera installed on a platform of a station images a track adjacent to the platform, and detects an object located on the track from the image. That is, the object detection system will be described using a train as a moving body and a track on which the train moves as a moving path. In this object detection system, when an object located on the track is detected, a signal to that effect is output to the external device, and the external device is caused to perform an alarm or the like.

図1は、オブジェクト検出システムのカメラが設置されている一組みのホームを示す模式図である。図1(A)は、線路の延伸する方向から視た一組みのホームの側面図である。図1(B)と図1(C)は、上から視た一組みのホームの平面図である。   FIG. 1 is a schematic diagram showing a set of homes where cameras of the object detection system are installed. FIG. 1A is a side view of a set of homes as viewed from the direction in which the track extends. FIG. 1B and FIG. 1C are plan views of a pair of homes as viewed from above.

駅1は、ホーム21,22と線路23,24とを有している。ホーム21とホーム22とは、線路23,24を間に挟んで互いに対向している。ホーム21は、線路23に面している。ホーム22は、線路24に面している。   Station 1 has platforms 21 and 22 and tracks 23 and 24. The home 21 and the home 22 are opposed to each other with the lines 23 and 24 interposed therebetween. The home 21 faces the track 23. The home 22 faces the track 24.

ホーム21には、線路23が延伸する方向の両端付近に遠赤外線カメラ31,32が設けられている。ホーム22には、線路24が延伸する方向の両端付近に遠赤外線カメラ33,34が設けられている。   The home 21 is provided with far-infrared cameras 31 and 32 near both ends in the direction in which the line 23 extends. The home 22 is provided with far-infrared cameras 33 and 34 near both ends in the direction in which the line 24 extends.

遠赤外線カメラ31〜34は、それぞれ温度分布画像(以下、単に画像と称する。)を撮像する。図2は、遠赤外線カメラ31が撮像する画像の一例を例示する模式図である。なお、遠赤外線カメラ32〜34が撮像する画像も、図2に例示する画像と同様のものである。
遠赤外線カメラ31は、図2に例示する画像のように、線路23,24の延伸方向の中心付近が画像の中心付近に写すとともに、ホーム21の線路23に面する端部を画像に納めるように、図1に示すように、ホーム21の一端付近の上方の撮像点から斜め下方側の撮像エリアAを撮像する。
同様に、遠赤外線カメラ32は、線路23,24の中心付近が画像の中心付近に写るとともに、ホーム21の線路23に面する端部が画像に納まるように、ホーム21の他端付近の上方の撮像点から斜め下方側の撮像エリアBを撮像する。遠赤外線カメラ33は、線路23,24の中心付近が画像の中心付近に写るとともに、ホーム22の線路24に面する端部が画像に納まるように、ホーム22の一端付近の上方の撮像点から斜め下方側の撮像エリアCを撮像する。遠赤外線カメラ34は、線路23,24の中心付近が画像の中心付近に写るとともに、ホーム22の線路24に面する端部が画像に納まるように、ホーム22の他端付近の上方の撮像点から斜め下方側の撮像エリアDを撮像する。
The far-infrared cameras 31 to 34 each take a temperature distribution image (hereinafter simply referred to as an image). FIG. 2 is a schematic view illustrating an example of an image captured by the far-infrared camera 31. Note that images captured by the far-infrared cameras 32 to 34 are similar to the images illustrated in FIG.
As shown in the image illustrated in FIG. 2, the far-infrared camera 31 captures the vicinity of the center in the extending direction of the tracks 23 and 24 near the center of the image and places the end of the home 21 facing the track 23 in the image. Further, as shown in FIG. 1, the imaging area A on the obliquely lower side is imaged from the upper imaging point near one end of the home 21.
Similarly, the far-infrared camera 32 is located above the other end of the home 21 so that the vicinity of the center of the tracks 23 and 24 is reflected in the vicinity of the center of the image and the end of the home 21 facing the track 23 is included in the image. The imaging area B on the diagonally lower side from the imaging point is imaged. The far-infrared camera 33 is viewed from an upper imaging point near one end of the home 22 so that the center of the tracks 23 and 24 appears in the vicinity of the center of the image and the end of the home 22 facing the track 24 is included in the image. The imaging area C on the diagonally lower side is imaged. The far-infrared camera 34 has an upper imaging point near the other end of the home 22 so that the vicinity of the center of the lines 23 and 24 appears in the vicinity of the center of the image, and the end of the home 22 facing the line 24 is included in the image. The imaging area D on the diagonally lower side is imaged.

また、ホーム21には、線路23に位置している列車等を検出するために、線路23が延伸する方向の両端付近に超音波センサ41,42が設けられている。ホーム22には、線路24に位置している列車等を検出するために、線路24が延伸する方向の両端付近に超音波センサ43,44が設けられている。具体的には、超音波センサ41は、ホーム21の一端付近に線路23に向けて配置されており、線路23に入構する列車を検出する。超音波センサ42は、ホーム21の他端付近に線路23に向けて配置されており、線路23から出構する列車を検出する。超音波センサ43は、ホーム22の一端付近に線路24に向けて配置されており、線路24に入構する列車を検出する。超音波センサ44は、ホーム22の他端付近に線路24に向けて配置されており、線路24から出構する列車を検出する。   Further, in order to detect a train or the like located on the track 23, the home 21 is provided with ultrasonic sensors 41 and 42 near both ends in the direction in which the track 23 extends. The home 22 is provided with ultrasonic sensors 43 and 44 in the vicinity of both ends in the direction in which the track 24 extends in order to detect a train or the like located on the track 24. Specifically, the ultrasonic sensor 41 is disposed near one end of the platform 21 toward the track 23 and detects a train entering the track 23. The ultrasonic sensor 42 is disposed near the other end of the platform 21 toward the track 23, and detects a train that goes out from the track 23. The ultrasonic sensor 43 is disposed near one end of the home 22 toward the track 24 and detects a train entering the track 24. The ultrasonic sensor 44 is disposed near the other end of the platform 22 toward the track 24 and detects a train that leaves the track 24.

遠赤外線カメラ31〜34が撮像する撮像エリアA,B,C,Dの各画像には、詳細は後述するが、オブジェクトの位置を検出する対象となる検出領域51,52が設定される。検出領域51は、図1(B)および図2に対応する領域を示すように、線路23上の空間を撮像したものである。検出領域52は、図1(B)および図2に対応する領域を示すように、線路24上の空間を撮像したものである。
なお、検出領域51は、撮像エリアA,Bの各画像からオブジェクトを検出する場合の手前領域に相当し、撮像エリアC,Dの各画像からオブジェクトを検出する場合の対向領域に相当するものである。一方、検出領域52は、撮像エリアA,Bの各画像からオブジェクトを検出する場合の対向領域に相当し、撮像エリアC,Dの各画像からオブジェクトを検出する場合の手前領域に相当するものである。
Although details will be described later, detection areas 51 and 52 that are targets for detecting the position of the object are set in each image of the imaging areas A, B, C, and D captured by the far-infrared cameras 31 to 34. The detection area 51 is an image of the space on the line 23 as shown in the area corresponding to FIGS. The detection area 52 is an image of the space on the line 24 as shown in the area corresponding to FIGS.
The detection area 51 corresponds to a front area when an object is detected from each image in the imaging areas A and B, and corresponds to a facing area when an object is detected from each image in the imaging areas C and D. is there. On the other hand, the detection area 52 corresponds to a facing area when an object is detected from each image in the imaging areas A and B, and corresponds to a front area when an object is detected from each image in the imaging areas C and D. is there.

また、遠赤外線カメラ31〜34が撮像する撮像エリアA,B,C,Dの各画像には、詳細は後述するが、図1(B)および図2に示すように、注意領域53,54と警告領域55,56とが設定される。注意領域53,54は、撮像エリアA,B,C,Dの各画像において、ホーム21,22を通行する利用者の頭部などが重なって撮像される恐れの高い領域である。具体的には、注意領域53は、図1(B)および図2に示す検出領域51のホーム21に面する縁に沿った一部の空間に対応する領域である。注意領域54は、図1(B)および図2に示す検出領域52のホーム22に面する縁に沿った一部の空間に対応する領域である。また、警告領域55,56は、撮像エリアA,B,C,Dの各画像において、ホーム21,22を通行する利用者の頭部などが重なって撮像される恐れの低い領域である。警告領域55は、図1(B)および図2に示す検出領域51の注意領域53を除く空間に対応する領域である。警告領域56は、図1(B)および図2に示す検出領域52の注意領域54を除く空間に対応する領域である。
なお、図2に示すように、撮像エリアAの画像では、自ホーム側の注意領域53において、ホーム21を通行する利用者100の頭部などが重なって撮像される恐れがある。一方、対向ホーム側の注意領域54においては、ホーム22を通行する利用者が重なって撮像される恐れは無い。そのため、撮像エリアAの画像においては、自ホーム側に位置する注意領域53のみを当該画像における注意領域として扱い、対向ホーム側に位置する注意領域54は当該画像における注意領域としては扱わず、検出領域52の全体を当該画像における警告領域として扱うとよい。
Further, as will be described in detail later in each of the imaging areas A, B, C, and D captured by the far-infrared cameras 31 to 34, as shown in FIGS. 1B and 2, attention areas 53 and 54 are displayed. And warning areas 55 and 56 are set. The attention areas 53 and 54 are areas in which images of the imaging areas A, B, C, and D are highly likely to be captured by overlapping the heads of the users passing through the homes 21 and 22. Specifically, the caution area 53 is an area corresponding to a part of the space along the edge facing the home 21 of the detection area 51 shown in FIGS. The attention area 54 is an area corresponding to a part of the space along the edge facing the home 22 of the detection area 52 shown in FIGS. In addition, the warning areas 55 and 56 are areas where there is a low possibility that the heads of the users passing through the homes 21 and 22 overlap and are captured in the images of the imaging areas A, B, C, and D. The warning area 55 is an area corresponding to the space excluding the attention area 53 of the detection area 51 shown in FIGS. The warning area 56 is an area corresponding to the space excluding the attention area 54 of the detection area 52 shown in FIGS.
As shown in FIG. 2, in the image of the imaging area A, there is a possibility that the head of the user 100 passing through the home 21 overlaps in the attention area 53 on the home side. On the other hand, in the attention area 54 on the opposite home side, there is no possibility that the users who pass through the home 22 overlap and are imaged. Therefore, in the image of the imaging area A, only the attention area 53 located on the own home side is treated as the attention area in the image, and the attention area 54 located on the opposite home side is not treated as the attention area in the image. The entire area 52 may be handled as a warning area in the image.

また、遠赤外線カメラ31〜34は、撮像可能な距離範囲が長いため(例えば150m程度)、各ホーム21,22に一台ずつ設けるようにしてもよい。しかしながら、その場合には、各遠赤外線カメラの近傍の領域(例えば40m程度)を撮像することが難しい。そのため、本実施形態では、図1に示すように、遠赤外線カメラ31,32を、互いの近傍の領域が、それぞれの撮像エリアの内部に位置するように同一のホーム21に設けている。また、遠赤外線カメラ33,34を、互いの近傍の領域が、それぞれの撮像エリアの内部に位置するように同一のホーム22に設けている。これにより、検出領域51,52の全体が、遠赤外線カメラ31,32,33,34のそれぞれにより補完されて撮像されることになる。また、各遠赤外線カメラ31〜34におけるホーム21,22上の構造物による死角を、別の遠赤外線カメラで補うことができる。これにより、オブジェクト検出の見落としが発生することを防ぐことができる。   Further, the far infrared cameras 31 to 34 may be provided in each of the homes 21 and 22 because the distance range that can be imaged is long (for example, about 150 m). However, in that case, it is difficult to image an area in the vicinity of each far-infrared camera (for example, about 40 m). Therefore, in this embodiment, as shown in FIG. 1, the far-infrared cameras 31 and 32 are provided in the same home 21 so that the area | region of a mutual vicinity is located inside each imaging area. Further, the far-infrared cameras 33 and 34 are provided in the same home 22 so that the regions in the vicinity of each other are located in the respective imaging areas. As a result, the entire detection areas 51 and 52 are captured by the far-infrared cameras 31, 32, 33, and 34, respectively. Moreover, the blind spot by the structure on the homes 21 and 22 in each far-infrared camera 31-34 can be supplemented with another far-infrared camera. Thereby, it is possible to prevent an object detection from being overlooked.

なお、図1(C)に各遠赤外線カメラ31,32,33,34それぞれの撮像エリアA,B,C,Dが対応する領域を示す。例えば、検出領域51の一端付近に位置する部分領域511は、撮像エリアA,Cから外れており、撮像エリアB,Dの画像にのみ撮像される。検出領域51の部分領域511に隣接する部分領域512は、撮像エリアCから外れており、撮像エリアA,B,Dの画像にのみ撮像される。検出領域51の部分領域512に隣接する部分領域513は、撮像エリアA,B,C,Dの画像に撮像される。検出領域51の部分領域513に隣接する部分領域514は、撮像エリアDから外れており、撮像エリアA,B,Cの画像にのみ撮像される。検出領域51の部分領域514に隣接し、検出領域51の他端付近に位置する部分領域515は、撮像エリアB,Dから外れており、撮像エリアA,Cの画像にのみ撮像される。   FIG. 1C shows areas corresponding to the imaging areas A, B, C, and D of the far-infrared cameras 31, 32, 33, and 34, respectively. For example, the partial area 511 located near one end of the detection area 51 is out of the imaging areas A and C, and is captured only in the images of the imaging areas B and D. The partial area 512 adjacent to the partial area 511 of the detection area 51 is out of the imaging area C and is captured only in the images of the imaging areas A, B, and D. A partial area 513 adjacent to the partial area 512 of the detection area 51 is imaged in the images of the imaging areas A, B, C, and D. A partial area 514 adjacent to the partial area 513 of the detection area 51 is out of the imaging area D and is captured only in the images of the imaging areas A, B, and C. A partial area 515 adjacent to the partial area 514 of the detection area 51 and located near the other end of the detection area 51 is out of the imaging areas B and D, and is captured only in the images of the imaging areas A and C.

また、検出領域52の一端付近に位置する部分領域521は、撮像エリアA,Cから外れており、撮像エリアB,Dの画像にのみ撮像される。検出領域52の部分領域521に隣接する部分領域522は、撮像エリアAから外れており、撮像エリアB,C,Dの画像にのみ撮像される。検出領域52の部分領域522に隣接する部分領域523は、撮像エリアA,B,C,Dの画像に撮像される。検出領域52の部分領域523に隣接する部分領域524は、撮像エリアBから外れており、撮像エリアA,C,Dの画像にのみ撮像される。検出領域52の部分領域524に隣接し、検出領域52の他端付近に位置する部分領域525は、撮像エリアB,Dから外れており、撮像エリアA,Cの画像にのみ撮像される。   Further, the partial area 521 located near one end of the detection area 52 is out of the imaging areas A and C, and is captured only in the images of the imaging areas B and D. A partial area 522 adjacent to the partial area 521 of the detection area 52 is out of the imaging area A, and is captured only in the images of the imaging areas B, C, and D. A partial area 523 adjacent to the partial area 522 of the detection area 52 is imaged in the images of the imaging areas A, B, C, and D. A partial area 524 adjacent to the partial area 523 of the detection area 52 is out of the imaging area B and is captured only in the images of the imaging areas A, C, and D. A partial area 525 adjacent to the partial area 524 of the detection area 52 and located near the other end of the detection area 52 is out of the imaging areas B and D, and is captured only in the images of the imaging areas A and C.

図3は、オブジェクト検出システム11のブロック図である。   FIG. 3 is a block diagram of the object detection system 11.

オブジェクト検出システム11は、上記した遠赤外線カメラ31〜34および超音波センサ41〜44とともに、情報処理装置12を備えている。   The object detection system 11 includes an information processing apparatus 12 together with the far-infrared cameras 31 to 34 and the ultrasonic sensors 41 to 44 described above.

遠赤外線カメラ31〜34は、情報処理装置12から入力される制御信号に従って動作し、それぞれの撮像エリアA,B,C,Dの画像を撮像し、それらの画像を情報処理装置12に出力する。各遠赤外線カメラ31〜34は、例えば、1秒間に5〜10程度の画像を撮像するように、情報処理装置12から周期的に制御信号が入力される。なお、遠赤外線カメラ31〜34に替えて、可視光を用いる通常のカメラを用いてもよい。また、距離画像を撮像することができるステレオカメラやTOFカメラなどを用いてもよい。   The far-infrared cameras 31 to 34 operate according to control signals input from the information processing apparatus 12, take images of the respective imaging areas A, B, C, and D, and output those images to the information processing apparatus 12. . For example, the far-infrared cameras 31 to 34 periodically receive control signals from the information processing apparatus 12 so as to capture about 5 to 10 images per second. Note that a normal camera using visible light may be used instead of the far-infrared cameras 31 to 34. Further, a stereo camera or a TOF camera that can capture a distance image may be used.

超音波センサ41〜44は、ホーム21,22のそれぞれに位置する列車等を検出し、列車の運行を管理する駅務システムや情報処理装置12に移動体検出信号を出力する。なお、移動体検出信号は、超音波センサ41〜44から直接、情報処理装置12に入力してもよく、超音波センサ41〜44から駅務システム等を介して間接的に、情報処理装置12に入力されてもよい。また、移動体検出信号は、一定周期で繰り返し情報処理装置12に出力してもよく、超音波センサ41〜44のオンオフの変化の度に情報処理装置12に出力してもよい。   The ultrasonic sensors 41 to 44 detect trains and the like located in the homes 21 and 22 and output a moving body detection signal to the station service system and the information processing apparatus 12 that manage the operation of the trains. The moving body detection signal may be directly input to the information processing apparatus 12 from the ultrasonic sensors 41 to 44, or indirectly from the ultrasonic sensors 41 to 44 via the station service system or the like. May be entered. In addition, the moving body detection signal may be repeatedly output to the information processing apparatus 12 at a constant period, or may be output to the information processing apparatus 12 every time the ultrasonic sensors 41 to 44 are changed.

情報処理装置12は、オブジェクト検出処理を実行するためのオブジェクト検出プログラムがインストールされている。オブジェクト検出処理は、遠赤外線カメラ31〜34から受け取る撮像エリアA,B,C,Dの各画像を用いて、検出領域51,52内に位置しているオブジェクトを検出する処理である。   The information processing apparatus 12 is installed with an object detection program for executing object detection processing. The object detection process is a process for detecting an object located in the detection areas 51 and 52 using the images of the imaging areas A, B, C, and D received from the far-infrared cameras 31 to 34.

そのため、情報処理装置12は、制御部13と記憶部14とを備えている。制御部13は、情報処理装置12の全体を制御してオブジェクト検出処理を実行するための機能ブロックとして画像取得部16と移動体検出部17とオブジェクト検出部18と出力部19とを備えている。   Therefore, the information processing apparatus 12 includes a control unit 13 and a storage unit 14. The control unit 13 includes an image acquisition unit 16, a moving body detection unit 17, an object detection unit 18, and an output unit 19 as functional blocks for controlling the entire information processing apparatus 12 and executing object detection processing. .

記憶部14は、オブジェクト検出プログラムを含む各種プログラムコードや、遠赤外線カメラ31〜34から受け取る画像、超音波センサ41〜44等から受け取る移動体検出信号、および、各撮像エリアA,B,C,Dの各画像における検出領域51,52と注意領域53,54と警告領域55,56との範囲を規定するエリア規定パラメータ等のデータを記憶する。   The storage unit 14 includes various program codes including an object detection program, images received from the far-infrared cameras 31 to 34, moving body detection signals received from the ultrasonic sensors 41 to 44, and the imaging areas A, B, C, Data such as area defining parameters that define the ranges of the detection areas 51 and 52, the attention areas 53 and 54, and the warning areas 55 and 56 in each image of D are stored.

図4は、オブジェクト検出処理の概略のフローチャートである。   FIG. 4 is a schematic flowchart of object detection processing.

制御部13は、まず、画像取得部16を機能させることにより画像取得ステップを実施する(S11)。具体的には、画像取得部16が、遠赤外線カメラ31〜34に制御信号を出力し、制御信号を受けとった遠赤外線カメラ31〜34が撮像する撮像エリアA,B,C,Dの各画像を受けとり、記憶部14に記憶させる。   First, the control unit 13 performs the image acquisition step by causing the image acquisition unit 16 to function (S11). Specifically, the image acquisition unit 16 outputs a control signal to the far-infrared cameras 31 to 34, and each image of the imaging areas A, B, C, and D captured by the far-infrared cameras 31 to 34 that have received the control signal. Is received and stored in the storage unit 14.

次に、制御部13は、移動体検出部17を機能させることにより移動体検出ステップを実施する(S12)。移動体検出部17は、超音波センサ41〜44等から受け取り記憶部14に記憶されている移動体検出信号に基づいて、各ホーム21,22に位置する列車等の移動体の有無を検出する。各ホーム21,22に位置する列車等の移動体の有無は、各超音波センサ41〜44のオン・オフとして表わされる移動体検出信号の時間遷移を示す時系列データから移動体検出部17で推定することができる。   Next, the control unit 13 performs the moving body detection step by causing the moving body detection unit 17 to function (S12). The mobile body detection unit 17 detects the presence or absence of a mobile body such as a train located in each of the homes 21 and 22 based on the mobile body detection signal received from the ultrasonic sensors 41 to 44 and stored in the storage unit 14. . The presence or absence of a moving body such as a train located in each of the homes 21 and 22 is determined by the moving body detection unit 17 based on time-series data indicating time transitions of the moving body detection signals expressed as on / off of the ultrasonic sensors 41 to 44. Can be estimated.

なお、線路23,24に位置している列車等の有無を情報処理装置12で推定する場合には、情報処理装置12が、特許請求の範囲に記載の移動体検出部に相当する。また、列車等の運行管理を司る駅務装置で、超音波センサ41〜44の出力から、線路23,24に位置している列車等の有無を推定し、推定した結果を示す移動体検出データを駅務装置から情報処理装置12に出力してもよい。この場合には、駅務装置が、特許請求の範囲に記載の移動体検出部に相当する。   In addition, when the information processing apparatus 12 estimates the presence or absence of a train or the like located on the tracks 23 and 24, the information processing apparatus 12 corresponds to the moving body detection unit described in the claims. Moreover, in the station administration apparatus which manages operation management of a train etc., the presence or absence of the train etc. which are located in the tracks 23 and 24 is estimated from the output of the ultrasonic sensors 41-44, and the moving body detection data which shows the estimated result May be output from the station service device to the information processing device 12. In this case, the station service device corresponds to the moving object detection unit described in the claims.

次に、制御部13は、オブジェクト検出部18を機能させることによりオブジェクト検出ステップを実施する(S13)。図5は、オブジェクト検出ステップのより詳細なフローチャートである。オブジェクト検出部18は、画像毎に以下のステップを実行する。   Next, the control unit 13 performs the object detection step by causing the object detection unit 18 to function (S13). FIG. 5 is a more detailed flowchart of the object detection step. The object detection unit 18 executes the following steps for each image.

まず、オブジェクト検出部18は、移動体検出信号とi番目の画像とエリア規定パラメータとを記憶部14から読み出す(S21)。   First, the object detection unit 18 reads out the moving body detection signal, the i-th image, and the area defining parameter from the storage unit 14 (S21).

オブジェクト検出部18は、ステップ(S21)で読み出した画像の手前領域(検出領域51,52の一方)に、列車が位置していることを移動体検出信号が示している場合には、今回の画像に対するオブジェクト検出ステップをそのまま終える。   If the moving body detection signal indicates that the train is located in the near area (one of the detection areas 51 and 52) of the image read in step (S21), the object detection unit 18 The object detection step for the image is finished as it is.

一方、オブジェクト検出部18は、ステップ(S21)で読み出した画像の手前領域(検出領域51,52の一方)に、列車が位置していないことを移動体検出信号が示していて、且つ、対向領域(検出領域51,52の他方)に、列車が位置していないことを移動体検出信号が示している場合には、読み出した画像に、エリア規定パラメータに基づいて対向領域を設定する(S22)。   On the other hand, the object detection unit 18 indicates that the moving body detection signal indicates that the train is not located in the front area (one of the detection areas 51 and 52) of the image read in step (S21), and is opposed to the object detection section 18. When the moving body detection signal indicates that the train is not located in the area (the other of the detection areas 51 and 52), the facing area is set in the read image based on the area defining parameter (S22). ).

図6(A)は、このステップの際に、撮像エリアA,B,C,Dの各画像に設定される対向領域を具体的に示す図である。例えば、遠赤外線カメラ31により撮像される撮像エリアAの画像には、部分領域523,524,525が撮像されている領域が、対向領域として設定される。また、遠赤外線カメラ32により撮像される撮像エリアBの画像には、部分領域523,522,521が撮像されている領域が、対向領域として設定される。また、遠赤外線カメラ33により撮像される撮像エリアCの画像には、部分領域513,514,515が撮像されている領域が、対向領域として設定される。また、遠赤外線カメラ34により撮像される撮像エリアDの画像には、部分領域513,512,511が撮像されている領域が、対向領域として設定される。   FIG. 6A is a diagram specifically showing the facing areas set in the images of the imaging areas A, B, C, and D in this step. For example, in the image of the imaging area A captured by the far-infrared camera 31, an area where the partial areas 523, 524, and 525 are captured is set as the facing area. In the image of the imaging area B captured by the far-infrared camera 32, the area where the partial areas 523, 522, and 521 are captured is set as the facing area. In the image of the imaging area C captured by the far-infrared camera 33, the areas where the partial areas 513, 514, and 515 are captured are set as opposing areas. In the image of the imaging area D captured by the far-infrared camera 34, the areas where the partial areas 513, 512, and 511 are captured are set as the facing areas.

次に、図5のフローチャートにおいて、オブジェクト検出部18は、画像に設定した対向領域からオブジェクトを検出する(S23)。この場合、列車等の移動体が両ホーム間に位置していないため、利用者等が写り込み難い対向領域からオブジェクトを検出することで、オブジェクトの検出精度を高めることができる。   Next, in the flowchart of FIG. 5, the object detection unit 18 detects an object from the facing area set in the image (S23). In this case, since a moving body such as a train is not located between the two platforms, the detection accuracy of the object can be increased by detecting the object from the facing area where the user or the like is not easily reflected.

そして、オブジェクト検出部18は、画像に設定した対向領域からオブジェクトが検出された場合には、記憶部14に、対向領域にオブジェクトが位置している警告状態であることを示すオブジェクト検出データを記憶させる(S24)。   Then, when an object is detected from the facing area set in the image, the object detection unit 18 stores object detection data indicating that the object is in a warning state in which the object is located in the facing area in the storage unit 14. (S24).

また、オブジェクト検出部18は、ステップ(S21)で読み出した画像の手前領域(検出領域51,52の一方)に、列車が位置していないことを移動体検出信号が示していて、且つ、対向領域(検出領域51,52の他方)に、列車が位置していることを移動体検出信号が示している場合には、読み出した画像に、エリア規定パラメータに基づいて手前領域を設定する(S25)。   Further, the object detection unit 18 indicates that the moving body detection signal indicates that the train is not located in the front area (one of the detection areas 51 and 52) of the image read in step (S21), and is opposed to the object detection section 18. When the moving body detection signal indicates that the train is located in the area (the other of the detection areas 51 and 52), the front area is set in the read image based on the area defining parameter (S25). ).

図6(B)は、このステップの際に、撮像エリアA,B,C,Dの各画像に設定される手前領域を具体的に示す図である。例えば、遠赤外線カメラ31により撮像される撮像エリアAの画像には、部分領域512,513,514,515が撮像されている領域が、手前領域として設定される。また、遠赤外線カメラ32により撮像される撮像エリアBの画像には、部分領域514,513,512,511が撮像されている領域が、手前領域として設定される。また、遠赤外線カメラ33により撮像される撮像エリアCの画像には、部分領域522,523,524,525が撮像されている領域が、手前領域として設定される。また、遠赤外線カメラ34により撮像される撮像エリアDの画像には、部分領域524,523,522,521が撮像されている領域が、手前領域として設定される。   FIG. 6B is a diagram specifically showing a near area set in each image of the imaging areas A, B, C, and D in this step. For example, in the image of the imaging area A captured by the far-infrared camera 31, the area where the partial areas 512, 513, 514, and 515 are captured is set as the front area. In addition, in the image of the imaging area B captured by the far-infrared camera 32, the area where the partial areas 514, 513, 512, and 511 are captured is set as the front area. In the image of the imaging area C captured by the far-infrared camera 33, an area where the partial areas 522, 523, 524, and 525 are captured is set as the near area. In addition, in the image of the imaging area D captured by the far-infrared camera 34, the area where the partial areas 524, 523, 522, and 521 are captured is set as the front area.

次に、図5のフローチャートにおいて、オブジェクト検出部18は、画像に設定した手前領域からオブジェクトを検出する(S26)。このように、列車等の移動体が対向ホーム側に位置しているために各遠赤外線カメラ31〜34で対向領域を撮像することができない場合に、利用者等が写り込み易い手前領域からではあるがオブジェクトを検出することにより、対向領域における車両の有無に関わらずに、常に、オブジェクトの検出を行うことができる。   Next, in the flowchart of FIG. 5, the object detection unit 18 detects an object from the near area set in the image (S26). In this way, when a moving body such as a train is located on the opposite platform side and each far-infrared camera 31 to 34 cannot capture the opposite area, the user or the like is not in the near area. However, by detecting the object, it is possible to always detect the object regardless of the presence or absence of the vehicle in the facing area.

そして、オブジェクト検出部18は、画像に設定した手前領域からオブジェクトが検出された場合には、再びエリア規定パラメータに基づいて、画像に注意領域と警告領域とを設定する(S27)。そして、オブジェクト検出部18は、画像に設定した手前領域から検出されたオブジェクトが、注意領域に位置しているか否かを判定する(S28)。そして、オブジェクト検出部18は、オブジェクトが注意領域に位置していない場合には、記憶部14に、オブジェクトが手前領域に位置している危険性がある警告状態であることを示すオブジェクト検出データを記憶させ(S29)、オブジェクトが注意領域に位置している場合には、記憶部14に、オブジェクトが重なって撮像されて可能性がある注意状態であることを示すオブジェクト検出データを記憶させる(S30)。このように、手前領域を利用してオブジェクトを検出する場合には、利用者等が写り込み易い注意領域と、利用者等が写り込み難い警告領域とをさらに設定してオブジェクトの検出を行うことで、オブジェクトの検出精度を高めることができる。   Then, when an object is detected from the near area set in the image, the object detection unit 18 sets the attention area and the warning area in the image again based on the area defining parameter (S27). Then, the object detection unit 18 determines whether or not the object detected from the near area set in the image is located in the attention area (S28). When the object is not located in the attention area, the object detection unit 18 stores object detection data indicating that there is a warning state in which there is a risk that the object is located in the near area in the storage unit 14. When the object is located in the attention area, the object detection data indicating that the object is in a state of caution that may be captured by overlapping the object is stored in the storage unit 14 (S30). ). As described above, when an object is detected using the front area, an object area is detected by further setting a warning area in which a user or the like is easily reflected and a warning area in which the user or the like is not easily reflected. Thus, the object detection accuracy can be increased.

なお、各画像からのオブジェクトの検出は、撮像エリアA,B,C,Dの各画像について背景画像データを予め登録しておき、撮像エリアA,B,C,Dの各画像とそれぞれの背景画像データとの差分に基づいて行ってもよい。または、撮像エリアA,B,C,Dの各画像を、直前に撮像された画像と比較し、その差分に基づいて、オブジェクトを検出するようにしてもよい。   For detecting an object from each image, background image data is registered in advance for each image in the imaging areas A, B, C, and D, and each image in the imaging areas A, B, C, and D and each background are detected. You may perform based on the difference with image data. Alternatively, each image in the imaging areas A, B, C, and D may be compared with an image captured immediately before, and an object may be detected based on the difference.

次に、図4のフローチャートにおいて、制御部13は、出力部19を機能させることにより出力ステップを実施する(S14)。図7は、出力ステップのより詳細なフローチャートである。   Next, in the flowchart of FIG. 4, the control unit 13 performs an output step by causing the output unit 19 to function (S14). FIG. 7 is a more detailed flowchart of the output step.

出力部19は、記憶部14にオブジェクト検出データが記憶されているか否かを判定する(S31)。そして、出力部19は、記憶部14にオブジェクト検出データが記憶されている場合には、そのオブジェクト検出データが注意状態を示すものなのか、警告状態を示すものなのかを判定する(S32)。そして、出力部19は、オブジェクト検出データが注意状態を示している場合には、注意信号を外部装置に出力する(S33)。また、出力部19は、オブジェクト検出データが警告状態を示している場合には、警告信号を外部装置に出力する(S34)。   The output unit 19 determines whether object detection data is stored in the storage unit 14 (S31). When the object detection data is stored in the storage unit 14, the output unit 19 determines whether the object detection data indicates a caution state or a warning state (S32). When the object detection data indicates a caution state, the output unit 19 outputs a caution signal to the external device (S33). If the object detection data indicates a warning state, the output unit 19 outputs a warning signal to the external device (S34).

情報処理装置12は、制御部13に図4に示したフローチャートを繰り返させることで、検出領域51,52上に位置するオブジェクトを検出するオブジェクト検出処理を実行する。これにより、ホーム21,22に設けた遠赤外線カメラ31〜34の画像から、検出領域51,52それぞれに位置するオブジェクトを精度よく検出することができる。   The information processing apparatus 12 executes an object detection process for detecting an object located on the detection areas 51 and 52 by causing the control unit 13 to repeat the flowchart shown in FIG. Thereby, the object located in each of the detection areas 51 and 52 can be accurately detected from the images of the far-infrared cameras 31 to 34 provided on the homes 21 and 22.

なお、情報処理装置12から警告信号を受け取った外部装置は、例えば警告音による報知や警告表示を表示させる等の処理を行って、駅係員等に検出領域51,52内にオブジェクトが位置していることを警告するとよい。また、注意信号を受け取った外部装置は、例えば、注意喚起音による報知や注意喚起表示を表示させる等の処理を行って、駅係員等にホーム21,22の端を通行する利用者や、注意領域53,54内に位置するオブジェクトを注意させるとよい。このように情報処理装置12で、オブジェクトの位置を検出し、オブジェクトが線路上に位置している精度に応じて注意信号と警告信号とを切り替えて出力することにより、外部装置で適切な処理を実現することが可能になる。   The external device that has received the warning signal from the information processing device 12 performs a process such as displaying a warning sound or displaying a warning display, and the station clerk or the like places the object in the detection areas 51 and 52. It is good to warn you. In addition, the external device that has received the attention signal performs a process such as displaying a notification with a warning sound or displaying a warning display, and the user who passes the end of the platforms 21 and 22 to the station staff or the like. It is advisable to pay attention to objects located in the areas 53 and 54. In this way, the information processing device 12 detects the position of the object, and switches and outputs the caution signal and the warning signal according to the accuracy with which the object is positioned on the track, so that appropriate processing can be performed by the external device. Can be realized.

以上の説明では、各画像において手前領域をさらに注意領域と警告領域とに分けてオブジェクトを検出するワークフローを示したが、手前領域の全体を注意領域として扱ってもよい。また、対向領域の全体を警告領域としてオブジェクトを検出するワークフローを示したが、対向領域をさらに注意領域と警告領域とに分けて扱ってもよい。例えば、図2に示した撮像エリアAの画像においては、対向ホーム側の注意領域54をそのまま、当該画像における注意領域の一部としても扱ってもよい。また、対向領域の全体は警告領域として扱い、画像上で対向領域よりも上側に位置する対向ホームの縦壁が撮像されている領域を注意領域として扱ってもよい
また、以上の説明では、同じホームに一組みのカメラを配置する例を説明したが、各ホームに一つずつカメラを配置してもよい。また、対向するホームにも一組みのカメラを設置する例を説明したが、一方のホームにのみカメラを設置するようにしてもよい。また、各カメラは、平面視した状態で、ホームに直交するような方向に向けて設置してもよい。また、移動体検出部として超音波センサを利用する例を示したが、その他のセンサを利用してもよい。その他の構成についても、適宜、異なる構成を採用してもよい。
In the above description, the workflow for detecting the object by dividing the near area into the attention area and the warning area in each image has been described. However, the entire near area may be handled as the attention area. In addition, although the workflow for detecting an object using the entire opposite area as a warning area is shown, the opposite area may be further divided into a caution area and a warning area. For example, in the image of the imaging area A shown in FIG. 2, the attention area 54 on the opposite home side may be handled as it is as a part of the attention area in the image. In addition, the entire facing area may be treated as a warning area, and the area where the vertical wall of the facing home located above the facing area on the image is imaged may be treated as a caution area. Although an example in which a set of cameras is arranged at the home has been described, one camera may be arranged at each home. Further, although an example in which a set of cameras is installed in the opposing home has been described, a camera may be installed only in one home. In addition, each camera may be installed in a direction orthogonal to the home in a plan view. Moreover, although the example which utilizes an ultrasonic sensor as a moving body detection part was shown, you may utilize another sensor. Regarding other configurations, different configurations may be adopted as appropriate.

1…駅
11…オブジェクト検出システム
12…情報処理装置
13…制御部
14…記憶部
16…画像取得部
17…移動体検出部
18…オブジェクト検出部
19…出力部
21,22…ホーム
23,24…線路
31〜34…カメラ
41〜44…超音波センサ
51,52…検出領域
53,54…注意領域
55,56…警告領域
DESCRIPTION OF SYMBOLS 1 ... Station 11 ... Object detection system 12 ... Information processing apparatus 13 ... Control part 14 ... Memory | storage part 16 ... Image acquisition part 17 ... Moving body detection part 18 ... Object detection part 19 ... Output part 21,22 ... Home 23,24 ... Lines 31-34 ... Cameras 41-44 ... Ultrasonic sensors 51, 52 ... Detection areas 53, 54 ... Caution areas 55, 56 ... Warning areas

Claims (8)

移動体が移動する移動路の側方に設置されたカメラで前記移動路が撮像された画像を取得する画像取得部と、
前記移動路上で前記カメラの撮像エリアに位置する移動体を検出する移動体検出部と、
前記移動体検出部で前記移動体が検出されていない時には、前記画像取得部で取得された画像から、前記移動路における前記カメラ側とは反対側の対向領域に位置するオブジェクトを検出し、前記移動体検出部で前記移動体が検出されている時には、前記対向領域に位置するオブジェクトの検出を中止するオブジェクト検出部と、
を備えるオブジェクト検出システム。
An image acquisition unit that acquires an image of the moving path captured by a camera installed on a side of the moving path on which the moving body moves;
A moving body detection unit for detecting a moving body located in the imaging area of the camera on the moving path;
When the moving body is not detected by the moving body detection unit, an object located in the facing area on the opposite side of the moving path from the camera side is detected from the image acquired by the image acquisition unit, An object detection unit that stops detecting an object located in the facing area when the moving object is detected by a moving object detection unit;
An object detection system comprising:
前記画像取得部は、前記移動路の両側に設置され撮像エリアの一部が互いに重なる複数のカメラで、複数の画像を取得する、
請求項1に記載のオブジェクト検出システム。
The image acquisition unit acquires a plurality of images with a plurality of cameras that are installed on both sides of the moving path and in which a part of the imaging area overlaps each other.
The object detection system according to claim 1.
前記画像取得部は、前記移動路に沿って設置され撮像エリアの一部が互いに重なる複数のカメラで、画像を取得する、
請求項1または2に記載のオブジェクト検出システム。
The image acquisition unit acquires images with a plurality of cameras that are installed along the moving path and in which a part of the imaging area overlaps each other;
The object detection system according to claim 1 or 2.
前記移動体検出部は、前記移動体が前記対向領域に位置するか否かを判定し、
前記オブジェクト検出部は、前記移動体検出部で前記移動体が前記対向領域に位置すると判定されている時には、前記画像取得部で取得された画像から、前記移動路における前記カメラ側の手前領域に位置するオブジェクトを検出する、
請求項1〜3のいずれかに記載のオブジェクト検出システム。
The moving body detection unit determines whether or not the moving body is located in the facing area;
When the moving body detecting unit determines that the moving body is located in the facing area, the object detecting unit moves from the image acquired by the image acquiring unit to the near side on the camera side in the moving path. Detect the objects located,
The object detection system in any one of Claims 1-3.
前記オブジェクト検出部で前記手前領域に位置するオブジェクトが検出された場合と、前記オブジェクト検出部で前記対向領域に位置するオブジェクトが検出された場合とで、異なる出力信号を出力する、出力部を備える、
請求項4に記載のオブジェクト検出システム。
An output unit that outputs different output signals when the object detection unit detects an object located in the near area and when the object detection unit detects an object located in the facing area; ,
The object detection system according to claim 4.
前記オブジェクト検出部は、前記手前領域に位置するオブジェクトを検出した場合に、当該オブジェクトを検出した位置が、前記対向領域に近接する領域か否かを判定し、
前記出力部は、前記オブジェクトが検出された位置が前記対向領域に近接する領域にあると判定された場合と、前記対向領域に近接する領域では無いと判定された場合とで、異なる出力信号を出力する、
請求項5に記載のオブジェクト検出システム。
When the object detection unit detects an object located in the near area, the object detection unit determines whether the position where the object is detected is an area close to the facing area;
The output unit outputs different output signals when it is determined that the position where the object is detected is in an area close to the facing area and when it is determined that the position is not close to the facing area. Output,
The object detection system according to claim 5.
移動体が移動する移動路の側方に設置されたカメラで前記移動路が撮像された画像を取得する画像取得ステップと、
前記移動路上で前記カメラの撮像エリアに位置する移動体を検出する移動体検出ステップと、
前記移動体検出ステップで前記移動体が検出されていない時には、前記画像取得ステップで取得された画像から、前記移動路における前記カメラ側とは反対側の対向領域に位置するオブジェクトを検出し、前記移動体検出ステップで前記移動体が検出されている時には、前記対向領域に位置するオブジェクトの検出を中止するオブジェクト検出ステップと、
を情報処理装置が実行するオブジェクト検出方法。
An image acquisition step of acquiring an image in which the moving path is captured by a camera installed on the side of the moving path on which the moving body moves;
A moving object detecting step for detecting a moving object located in the imaging area of the camera on the moving path;
When the moving body is not detected in the moving body detecting step, an object located in an opposite area opposite to the camera side in the moving path is detected from the image acquired in the image acquiring step, An object detection step for stopping detection of an object located in the facing area when the moving object is detected in the moving object detection step;
An object detection method for the information processing apparatus to execute.
情報処理装置にインストールされるプログラムであって、
移動体が移動する移動路の側方に設置されたカメラで前記移動路が撮像された画像を取得する画像取得ステップと、
前記移動路上で前記カメラの撮像エリアに位置する移動体を検出する移動体検出ステップと、
前記移動体検出ステップで前記移動体が検出されていない時には、前記画像取得ステップで取得された画像から、前記移動路における前記カメラ側とは反対側の対向領域に位置するオブジェクトを検出し、前記移動体検出ステップで前記移動体が検出されている時には、前記対向領域に位置するオブジェクトの検出を中止するオブジェクト検出ステップと、
を前記情報処理装置に実行させるオブジェクト検出プログラム。
A program installed in an information processing apparatus,
An image acquisition step of acquiring an image in which the moving path is captured by a camera installed on the side of the moving path on which the moving body moves;
A moving object detecting step for detecting a moving object located in the imaging area of the camera on the moving path;
When the moving body is not detected in the moving body detecting step, an object located in an opposite area opposite to the camera side in the moving path is detected from the image acquired in the image acquiring step, An object detection step for stopping detection of an object located in the facing area when the moving object is detected in the moving object detection step;
An object detection program for causing the information processing apparatus to execute.
JP2013049297A 2013-03-12 2013-03-12 Object detection system, object detection method, and object detection program Active JP6051974B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013049297A JP6051974B2 (en) 2013-03-12 2013-03-12 Object detection system, object detection method, and object detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013049297A JP6051974B2 (en) 2013-03-12 2013-03-12 Object detection system, object detection method, and object detection program

Publications (2)

Publication Number Publication Date
JP2014174903A true JP2014174903A (en) 2014-09-22
JP6051974B2 JP6051974B2 (en) 2016-12-27

Family

ID=51696025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013049297A Active JP6051974B2 (en) 2013-03-12 2013-03-12 Object detection system, object detection method, and object detection program

Country Status (1)

Country Link
JP (1) JP6051974B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019087824A (en) * 2017-11-02 2019-06-06 日本信号株式会社 Monitoring system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002053043A (en) * 2000-05-31 2002-02-19 Koito Ind Ltd Platform monitoring device ! stairway ascending cart
EP1759954A1 (en) * 2005-09-01 2007-03-07 Alcatel Method and system for monitoring a public transport vehicle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002053043A (en) * 2000-05-31 2002-02-19 Koito Ind Ltd Platform monitoring device ! stairway ascending cart
EP1759954A1 (en) * 2005-09-01 2007-03-07 Alcatel Method and system for monitoring a public transport vehicle

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016041320; 樋口 邦彦、外2名: '"乗客の動きを支障しないホーム監視システム"' 日本信号技報 Vol.29, No.1, 20050210, pp.1-6, 日本信号株式会社 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019087824A (en) * 2017-11-02 2019-06-06 日本信号株式会社 Monitoring system
JP7149063B2 (en) 2017-11-02 2022-10-06 日本信号株式会社 Monitoring system

Also Published As

Publication number Publication date
JP6051974B2 (en) 2016-12-27

Similar Documents

Publication Publication Date Title
CN102576495B (en) Collision monitor for a motor vehicle
EP2807642B1 (en) Method for operating a driver assistance device of a motor vehicle, driver assistance device and motor vehicle
JP2016218732A5 (en)
JP2019185220A (en) Traffic monitoring system and method for monitoring traffic
KR102096230B1 (en) Determining source lane of moving item merging into destination lane
KR101051005B1 (en) An apparatus and a system regulating an illegal stopping or parking car and a method controlling the same
CN203246465U (en) Driving recorder with lane departure warning and front space warning functions
JP2012243128A (en) Monitoring device, monitoring method and monitoring program
JP2018039288A (en) Turnout approach propriety determination apparatus and turnout approach propriety determination method
TWI529667B (en) Multi - computer vision recognition system for cross - traffic obstacle
JP4056813B2 (en) Obstacle detection device
JP2016021200A (en) Determination method, determination system and determination device
JP6051974B2 (en) Object detection system, object detection method, and object detection program
JP5484224B2 (en) Device for detecting string-like foreign matter on doors of railway vehicles
JP2011090513A (en) System and method of detecting fallen object
JP5597057B2 (en) Passenger drag detection system at home
JP4096953B2 (en) Human body detector
JP2012056535A (en) Platform accident detection system
KR101288374B1 (en) Apparatus and method for setting traffic lane for single lane street
KR101631403B1 (en) Security camera linked emergency button with passive infrared sensor
JP2018192844A (en) Monitoring device, monitoring system, monitoring program, and storage medium
JP2008108135A (en) Obstacle detection system and obstacle detection method
JP6426438B2 (en) Orbit approach warning system
JP2008114673A (en) Vehicle monitoring device
TWI426470B (en) Corner collision warning device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161114

R150 Certificate of patent or registration of utility model

Ref document number: 6051974

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250