JP6476945B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP6476945B2
JP6476945B2 JP2015023007A JP2015023007A JP6476945B2 JP 6476945 B2 JP6476945 B2 JP 6476945B2 JP 2015023007 A JP2015023007 A JP 2015023007A JP 2015023007 A JP2015023007 A JP 2015023007A JP 6476945 B2 JP6476945 B2 JP 6476945B2
Authority
JP
Japan
Prior art keywords
image
platform
rotation
distance image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015023007A
Other languages
Japanese (ja)
Other versions
JP2016144993A (en
Inventor
章 寺谷
章 寺谷
Original Assignee
サクサ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サクサ株式会社 filed Critical サクサ株式会社
Priority to JP2015023007A priority Critical patent/JP6476945B2/en
Publication of JP2016144993A publication Critical patent/JP2016144993A/en
Application granted granted Critical
Publication of JP6476945B2 publication Critical patent/JP6476945B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置に関する。   The present invention relates to an image processing apparatus.

多数の乗客が利用する鉄道車両では安全な運行が要求されるため、鉄道車両の関係者は、鉄道車両を安全に運行するための様々な試みを行っている。例えば、乗客がプラットホームから線路へ転落すると、重大な事故に繋がるおそれがあることから、乗客の転落をいち早く検知する試みが多数なされており、そのうちの幾つかは実際に鉄道車両の駅で採用されている。   As railway vehicles used by a large number of passengers are required to operate safely, railway vehicle personnel have made various attempts to operate the railway vehicles safely. For example, if a passenger falls from the platform to the track, it may lead to a serious accident, so many attempts have been made to detect the fall of the passenger quickly, and some of them are actually adopted at the railway station. ing.

具体的な一例として、プラットホームの天井下に複数のカメラを設置し、複数のカメラでプラットホームや線路上等の駅構内を監視するカメラシステムがよく知られている。
このようなカメラシステムとして、例えば、特許文献1には、複数のカメラをデイジーチェーン接続し、夫々のカメラで取得された監視情報を他のカメラを経由してサーバに伝送するカメラシステムが開示されている。
As a specific example, a camera system is well known in which a plurality of cameras are installed under the ceiling of a platform and the plurality of cameras monitor a station yard such as a platform or a track top.
As such a camera system, for example, Patent Document 1 discloses a camera system in which a plurality of cameras are daisy-chained and monitoring information acquired by each camera is transmitted to a server via another camera. ing.

特開2012−11989号公報JP, 2012-11989, A

ところで、プラットホームの上部に設置するカメラシステムでは、鉄道車両の運行に影響を与えないように、プラットホームと線路との境界(即ち、プラットホーム端)の直上ではなく、当該境界からプラットホーム側に所定量だけセットバックした位置にカメラを設置しなければならない。このような設置では、カメラシステムは、プラットホーム端や線路を斜めに見下ろす状態で駅構内を監視することになるため、設置現場では、カメラを取り付ける角度や画角を高精度に調整する必要があり、多大な時間を要していた。
特に、プラットホーム全域に亘り監視を行うためには多数のカメラを設置する必要があり、夫々のカメラにおいて固有の調整が必要なため膨大な時間が必要になる上に、乗客の利便性を損なうことのないよう調整作業は夜間に行う必要があるので、調整作業を軽減する技術が求められていた。
By the way, in the camera system installed in the upper part of the platform, it does not directly above the boundary between the platform and the track (that is, the platform edge) but by a predetermined amount on the platform side The camera must be installed at the set back position. In such an installation, the camera system monitors the station yard with the platform edge and the track obliquely looking down, so at the installation site, it is necessary to adjust the angle at which the camera is attached and the angle of view with high accuracy. It took a lot of time.
In particular, in order to monitor all over the platform, it is necessary to install a large number of cameras, and each camera requires its own adjustment, which requires a great deal of time and impairs the convenience of the passengers. As adjustment work needs to be performed at night so that there is no need for technology to reduce adjustment work.

本発明は、このような問題に鑑みてなされたものであり、プラットホームを監視するカメラの設置作業に要する時間を短縮可能にする画像処理装置を提供することを目的とする。   The present invention has been made in view of such a problem, and an object of the present invention is to provide an image processing apparatus capable of shortening the time required for the installation operation of a camera monitoring a platform.

本発明の第1の態様においては、第1方向に延びるプラットホームの上部に設置されたステレオカメラにより撮影された第1撮影画像を処理する画像処理装置であって、前記ステレオカメラの第1撮影部で撮影した第1画像と、第2撮影部で撮影した第2画像との視差に基づいて、第1距離画像を生成する第1生成部と、前記視差に基づいて、当該第1距離画像内の物体の3次元データを算出する算出部と、前記第1距離画像を前記3次元データに基づいて補正し、補正後の第2距離画像を生成する第2生成部と、を備える画像処理装置を提供する。   A first aspect of the present invention is an image processing apparatus for processing a first captured image captured by a stereo camera installed on a platform extending in a first direction, the first imaging unit of the stereo camera In the first distance image based on the parallax, and a first generation unit that generates a first distance image based on the parallax between the first image photographed in step h and the second image photographed in the second photographing unit An image processing apparatus, comprising: a calculation unit that calculates three-dimensional data of the object; and a second generation unit that corrects the first distance image based on the three-dimensional data and generates a corrected second distance image I will provide a.

また、前記第1方向に延びる任意の位置を軸として前記3次元データを回転することで、前記物体の回転後の3次元データを算出する回転制御部、を更に備え、前記第2生成部は、算出した前記回転後の3次元データに基づいて第2距離画像を生成することとしてもよい。   The image processing apparatus further includes a rotation control unit that calculates three-dimensional data after rotation of the object by rotating the three-dimensional data about an arbitrary position extending in the first direction as an axis, the second generation unit The second distance image may be generated based on the calculated three-dimensional data after rotation.

また、前記第1距離画像から、前記プラットホームの側面に前記第1方向に沿って延びる線路の枕木を検出する検出部と、前記回転に伴い前記線路を構成する複数の枕木の夫々が、前記第1方向と直交する第2方向に沿って平行となる回転量を取得する取得部と、を更に備え、前記回転制御部は、取得した回転量分だけ前記3次元データを回転することとしてもよい。   Further, from the first distance image, a detection unit that detects a crosstie of a track extending along the first direction on the side surface of the platform, and each of a plurality of crosslinks that constitute the track with the rotation are the first The image processing apparatus may further include an acquisition unit for acquiring a rotation amount parallel to a second direction orthogonal to one direction, and the rotation control unit may rotate the three-dimensional data by the acquired rotation amount. .

また、前記取得部は、検出した一の枕木のうちの前記第2方向において異なる複数の監視点における前記第1方向の座標に基づいて、前記枕木の夫々が第2方向に沿って平行であることを判定することとしてもよい。   Further, the acquisition unit is configured such that each of the sleepers is parallel along a second direction based on coordinates of the first direction at a plurality of monitoring points different in the second direction of the detected one tie. It may also be determined.

また、前記第2距離画像を前記軸を境に第1領域及び第2領域に分割し、前記第1領域のうちの任意の領域を第1監視領域と設定し、前記第2領域のうちの任意の領域を第2監視領域と設定する監視設定部と、前記第2距離画像に存在する異物が、前記第1監視領域及び前記第2監視領域の何れに存在するか判定する探索部と、を更に備えることとしてもよい。   Further, the second distance image is divided into a first area and a second area bordering on the axis, and an arbitrary area of the first area is set as a first monitoring area, and the second area is selected. A monitoring setting unit that sets an arbitrary region as a second monitoring region; and a searching unit that determines which of the first monitoring region and the second monitoring region is a foreign object present in the second distance image; May be further provided.

また、前記探索部は、前記第1距離画像において異物を検出すると、前記軸を中心に前記異物の3次元データを回転することで、当該異物の回転後の3次元データを算出するとともに、当該回転後の3次元データに基づいて、前記異物が、前記第1監視領域又は前記第2監視領域の何れに存在するか判定することとしてもよい。   In addition, when the foreign substance is detected in the first distance image, the search unit rotates three-dimensional data of the foreign substance around the axis to calculate three-dimensional data of the foreign substance after rotation, and It may be determined whether the foreign matter is present in the first monitoring area or the second monitoring area based on three-dimensional data after rotation.

本発明によれば、プラットホームを監視するカメラの設置作業に要する時間を短縮することができるとともに、プラットホーム及び線路内の危険を精度良く検出することができる。   ADVANTAGE OF THE INVENTION According to this invention, while being able to shorten the time required for the installation operation | work of the camera which monitors a platform, the danger in a platform and a track can be detected precisely.

一実施形態に係る撮影システムの構成例を示す図である。It is a figure showing an example of composition of an imaging system concerning one embodiment. 駅プラットホームにおける撮影装置の設置例を示す図である。It is a figure which shows the example of installation of the imaging device in a station platform. 駅プラットホームにおける撮影装置の設置例を示す図である。It is a figure which shows the example of installation of the imaging device in a station platform. 撮影装置が撮影した各種撮影画像の一例を示す図である。It is a figure which shows an example of the various picked-up image which the imaging device image | photographed. 撮影装置が撮影した各種撮影画像の一例を示す図である。It is a figure which shows an example of the various picked-up image which the imaging device image | photographed. 撮影システムの概要を示す図である。It is a figure showing an outline of a photography system. 撮影システムの概要を示す図である。It is a figure showing an outline of a photography system. データ管理装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of a data management apparatus. 回転制御部による距離画像の回転方法を説明するための図である。It is a figure for demonstrating the rotation method of the distance image by a rotation control part. 回転制御部による距離画像の回転方法を説明するための図である。It is a figure for demonstrating the rotation method of the distance image by a rotation control part. 回転後の距離画像に設定する監視領域の一例を示す図である。It is a figure which shows an example of the monitoring area | region set to the distance image after rotation. 探索部による異物の探索方法の流れを説明するための図である。It is a figure for demonstrating the flow of the searching method of the foreign material by the searching part. 撮影システムの処理の流れを示すフローチャートである。It is a flow chart which shows a flow of processing of an imaging system. 撮影システムの処理の流れを示すフローチャートである。It is a flow chart which shows a flow of processing of an imaging system. 従来の監視運用方法を説明するための図である。It is a figure for demonstrating the conventional monitoring operation method.

[撮影システム10の全体構成]
図1は、本実施形態に係る撮影システム10の全体構成を示す図であり、図2は、撮影装置101の駅のプラットホームPにおける設置例を示す図である。なお、図2Aは、鉄道車両の進行方向から駅のプラットホームPを見た図であり、図2Bは、鉄道車両の進行方向に対して直交する方向から駅のプラットホームPを見た図である。
[Overall Configuration of Shooting System 10]
FIG. 1 is a view showing an entire configuration of a photographing system 10 according to the present embodiment, and FIG. 2 is a view showing an installation example of a photographing apparatus 101 on a platform P of a station. 2A is a view of the platform P of the station from the direction of travel of the railcar, and FIG. 2B is a view of the platform P of the station from a direction orthogonal to the direction of travel of the railcar.

図1に示すように撮影システム10は、撮影装置群100、及び撮影装置群100と通信可能に接続されたデータ管理装置200を含んで構成される。
なお、撮影システム10は、データ管理装置200と撮影装置群100との間にハブ300を備えてもよく、また、ハブ300に接続される撮影装置群100を複数備えてもよい。この場合、例えば、夫々の撮影装置群100を、駅にある複数のプラットホームPの夫々に設置することとしてもよい。また、撮影システム10は、撮影装置群100で撮影された画像を表示するモニタ400を備えてもよい。
As shown in FIG. 1, the imaging system 10 includes an imaging device group 100 and a data management device 200 communicably connected to the imaging device group 100.
The imaging system 10 may include the hub 300 between the data management device 200 and the imaging device group 100, and may include a plurality of imaging device groups 100 connected to the hub 300. In this case, for example, each imaging device group 100 may be installed on each of the plurality of platforms P in the station. The imaging system 10 may also include a monitor 400 that displays an image captured by the imaging device group 100.

撮影装置群100は、複数の撮影装置101(撮影装置101−1、撮影装置101−2・・・撮影装置101−n、ただしnは3以上の自然数)が所定方向に沿ってデイジーチェーン接続されて構成される。なお、図2Bに示すように、本実施形態では、複数の撮影装置101は、駅のプラットホームPの長さ方向に沿ってデイジーチェーン接続される。   In the imaging device group 100, a plurality of imaging devices 101 (imaging device 101-1, imaging device 101-2, ... imaging device 101-n, where n is a natural number of 3 or more) are daisy-chained along a predetermined direction Is configured. As shown in FIG. 2B, in the present embodiment, the plurality of photographing devices 101 are daisy-chained connected along the length direction of the platform P of the station.

撮影装置101は、複数の撮影部が駅のプラットホームPの長さ方向に沿って水平に配置されたステレオカメラである。図2Aに示すように、撮影装置101は、鉄道車両の運行に影響を与えないように、駅のプラットホームPの上部(天井)のうちプラットホームPと線路Rとの境界(即ち、プラットホームPの線路R側の端部)の直上からプラットホームPの内側に所定量だけセットバックして設置される。また、図2Bに示すように、撮影装置101は、夫々の撮影装置101の撮影範囲Sが隣接する撮影装置101の撮影範囲Sと重なり合うように設置される。   The photographing device 101 is a stereo camera in which a plurality of photographing units are arranged horizontally along the length direction of the platform P of the station. As shown in FIG. 2A, the imaging apparatus 101 does not affect the operation of the railway vehicle, in the upper portion (ceiling) of the station platform P, the boundary between the platform P and the track R (ie, the track of the platform P). It is installed by setting back a predetermined amount to the inside of the platform P from directly above the end on the R side. Further, as shown in FIG. 2B, the photographing devices 101 are installed so that the photographing ranges S of the respective photographing devices 101 overlap the photographing ranges S of the adjacent photographing devices 101.

撮影装置101は、プラットホームPの周辺、即ちプラットホームP及び線路Rを俯瞰的に撮影する。ここで、撮影装置101によって撮影される第1画像51及び第2画像52、並びに第1画像51と第2画像52とから生成される距離画像53の一例を図3Aに示す。   The imaging device 101 captures an image of the periphery of the platform P, that is, the platform P and the track R from above. Here, FIG. 3A shows an example of a first image 51 and a second image 52 photographed by the photographing device 101, and a distance image 53 generated from the first image 51 and the second image 52.

第1画像51は、撮影装置101の第1撮影部により撮影される撮影画像であり、第2画像52は、撮影装置101の第2撮影部により撮影される撮影画像である。
図3Aの第1画像51に示すように、撮影装置101は、プラットホームP及び線路Rを撮影する。本実施形態では、線路Rは、レールRaと複数の枕木Rtと砂利Rbとから構成されるバラスト軌道である。
The first image 51 is a photographed image photographed by the first photographing unit of the photographing device 101, and the second image 52 is a photographed image photographed by the second photographing unit of the photographing device 101.
As shown in the first image 51 of FIG. 3A, the imaging device 101 captures the platform P and the track R. In the present embodiment, the track R is a ballast track configured of a rail Ra, a plurality of sleepers Rt, and a gravel Rb.

距離画像53は、第1画像51と第2画像52との視差に基づいて生成される画像である。
ここで、視差の算出方法は既に公知であり、基準画像(第1画像51)の基準点と対応する対応点を比較画像(第2画像52)の中から探索することで視差を算出する。具体的には、基準となる画素を中心に基準画像から画素ブロックを抽出し、比較画像の視差探索領域内の画素ブロックのうち基準画像から抽出した画素ブロックと輝度パターンが類似している画素ブロックをSAD(Sum of Absolute Differences)法等の公知の手法により特定する。そして、基準画像の画素ブロックの座標と比較画像の画素ブロックの座標との相違から、視差を算出する。
The distance image 53 is an image generated based on the parallax between the first image 51 and the second image 52.
Here, the method of calculating the parallax is already known, and the parallax is calculated by searching for a corresponding point corresponding to the reference point of the reference image (first image 51) from the comparison image (second image 52). Specifically, a pixel block is extracted from the reference image centering on the reference pixel, and among pixel blocks in the parallax search area of the comparison image, a pixel block whose luminance pattern is similar to the pixel block extracted from the reference image Is identified by a known method such as SAD (Sum of Absolute Differences) method. Then, the parallax is calculated from the difference between the coordinates of the pixel block of the reference image and the coordinates of the pixel block of the comparison image.

視差は、テクスチャが明瞭である領域に対して算出されるため、プラットホームP、レールRa及び枕木Rtのようなテクスチャが少なく表面のパターンが一様な物体に対しては算出されない。そのため、撮影装置101でバラスト軌道を撮影する場合、図3Aの距離画像53に示すように、プラットホームP、レールRa及び枕木Rtについては視差を算出できず、砂利Rbのようにパターンに特徴がありテクスチャが明瞭な領域では、視差を算出することができる。   Since the parallax is calculated for the region where the texture is clear, the surface pattern with less texture such as platform P, rail Ra and tie Rt is not calculated for the uniform object. Therefore, when photographing the ballast track with the photographing device 101, as shown in the distance image 53 of FIG. 3A, the parallax can not be calculated for the platform P, the rails Ra and the sleepers Rt, and the pattern is characteristic like gravel Rb The parallax can be calculated in the area where the texture is clear.

なお、夫々の画像において水平方向をX方向(第1方向)、垂直方向をY方向(第2方向)とする。撮影装置101の複数の撮影部が駅のプラットホームPの長さ方向に沿って水平に配置されるため、X方向はプラットホームPの長さ方向に相当する。また、Y方向は、プラットホームPや線路Rの幅方向に相当する。また、以下では、説明の便宜上、画像上部をY座標「小」とし、画面下部をY座標「大」とする。   In each image, the horizontal direction is the X direction (first direction), and the vertical direction is the Y direction (second direction). Since the plurality of imaging units of the imaging device 101 are horizontally arranged along the length direction of the platform P of the station, the X direction corresponds to the length direction of the platform P. Also, the Y direction corresponds to the width direction of the platform P and the line R. In the following, for the convenience of description, the upper part of the image is taken as the “Y” coordinate, and the lower part of the screen is taken as the “Y” coordinate.

撮影装置101が撮影した第1画像51及び第2画像52と、これら第1画像51及び第2画像52から生成された距離画像53とは、所定の通信線を介してデータ管理装置200に送信され、データ管理装置200の記憶部202に記憶される。なお、距離画像53は、撮影装置101が生成することなく、データ管理装置200において生成することとしてもよい。   The first image 51 and the second image 52 captured by the imaging device 101 and the distance image 53 generated from the first image 51 and the second image 52 are transmitted to the data management device 200 via a predetermined communication line. And stored in the storage unit 202 of the data management apparatus 200. Note that the distance image 53 may be generated by the data management apparatus 200 without being generated by the imaging device 101.

[撮影システム10の概要]
続いて、本実施形態に係る撮影システム10の概要について説明する。撮影装置101は、プラットホームPの端からセットバックして設置されるため、撮影装置101は、プラットホームPの端部や線路Rを斜めに見下ろすことになる。ここで、図2Aに示すように、乗客がプラットホームPの端に立っている場合、撮影装置101により撮影された距離画像53では、図3Bに示すように、乗客の上半身が線路内に存在するかのように映ってしまい、線路落下を誤検知してしまうおそれがある。
[Overview of shooting system 10]
Subsequently, an outline of the imaging system 10 according to the present embodiment will be described. Since the photographing device 101 is installed by setting back from the end of the platform P, the photographing device 101 looks down at the end of the platform P and the track R at an angle. Here, as shown in FIG. 2A, when the passenger stands at the end of the platform P, in the distance image 53 captured by the imaging device 101, the upper body of the passenger exists in the track as shown in FIG. 3B. It appears as if it were, and there is a risk of false detection of a line fall.

そこで、撮影システム10では、図4Aに示すように、プラットホームPの長さ方向(X方向)に延びる任意の軸を中心に距離画像53を回転し、新たな距離画像54を生成する。なお、駅構内の監視では、危険がプラットホーム上で発生しているのか、線路内で発生しているのかを精度良く監視する必要がある。このような監視は、プラットホームPと線路Rとの境界を真上から監視することが好ましいため、本実施形態では特に、プラットホームPの長さ方向に延びるプラットホームPの端部を軸に距離画像53を回転する。   Therefore, in the imaging system 10, as shown in FIG. 4A, the distance image 53 is rotated about an arbitrary axis extending in the longitudinal direction (X direction) of the platform P, and a new distance image 54 is generated. In addition, in the station yard monitoring, it is necessary to monitor with high accuracy whether the hazard is occurring on the platform or in the track. In such a monitoring, it is preferable to monitor the boundary between the platform P and the line R from directly above, and in this embodiment, in particular, the distance image 53 around the end of the platform P extending in the longitudinal direction of the platform P. Rotate.

この回転の結果、図4Bに示すように、プラットホーム端からセットバックして設置した撮影装置101から、プラットホーム端を真上から撮影したかのような距離画像54を得ることができる。これにより、プラットホームPの端からセットバックして設置した場合であっても、プラットホーム及び線路内の危険を精度良く監視することができる。   As a result of this rotation, as shown in FIG. 4B, it is possible to obtain a distance image 54 as if the platform end was photographed from directly above, from the imaging device 101 installed by setting back from the platform end. Thereby, even in the case of setting back from the end of the platform P, the danger in the platform and the track can be accurately monitored.

また、設置した後の回転処理により撮影装置101の監視精度の調整を行うことができるため、撮影装置101の設置時には、取り付ける角度や画角を精密に調整する必要がない。そのため、撮影システム10では、撮影装置101の設置に膨大な時間をかける必要がなく、撮影装置101の設置作業に要する時間を短縮することができる。
以下、このような制御を可能にするデータ管理装置200の詳細について説明する。
Moreover, since the monitoring accuracy of the imaging device 101 can be adjusted by the rotation processing after installation, there is no need to precisely adjust the attachment angle and the angle of view when the imaging device 101 is installed. Therefore, in the imaging system 10, the installation of the imaging device 101 does not need to take a long time, and the time required for the installation operation of the imaging device 101 can be shortened.
Hereinafter, details of the data management apparatus 200 that enables such control will be described.

[データ管理装置200の機能構成]
図5は、データ管理装置200の機能構成を示すブロック図である。データ管理装置200は、制御部201と、記憶部202と、を含んで構成される。
[Functional Configuration of Data Management Device 200]
FIG. 5 is a block diagram showing a functional configuration of the data management device 200. As shown in FIG. The data management device 200 is configured to include a control unit 201 and a storage unit 202.

記憶部202は、例えば、ROM及びRAM等により構成される。記憶部202は、データ管理装置200を機能させるための各種プログラムを記憶する。また、記憶部202は、撮影装置101(ステレオカメラ)の第1撮影部が撮影した第1画像51及び第2撮影部が撮影した第2画像52の画像データと、第1画像51及び第2画像52から生成される距離画像53の画像データと、距離画像53を回転することで生成される距離画像54の画像データと、を記憶する。   The storage unit 202 is configured of, for example, a ROM, a RAM, and the like. The storage unit 202 stores various programs for causing the data management apparatus 200 to function. In addition, the storage unit 202 includes the first image 51 captured by the first imaging unit of the imaging apparatus 101 (stereo camera) and the image data of the second image 52 captured by the second imaging unit, and the first image 51 and the second image. The image data of the distance image 53 generated from the image 52 and the image data of the distance image 54 generated by rotating the distance image 53 are stored.

制御部201は、例えば、CPUにより構成され、記憶部202に記憶されている各種プログラムを実行することにより、第1生成部203、算出部204、回転制御部205、第2生成部206、監視設定部207及び探索部208として機能する。   The control unit 201 is constituted by, for example, a CPU, and executes various programs stored in the storage unit 202 to thereby execute a first generation unit 203, a calculation unit 204, a rotation control unit 205, a second generation unit 206, and monitoring. It functions as the setting unit 207 and the search unit 208.

第1生成部203は、撮影装置101の第1撮影部が撮影した第1画像51と、第2撮影部が撮影した第2画像52とから距離画像53(第1距離画像)を生成する。具体的には、第1生成部203は、第1画像51と第2画像52との視差をSAD法等の公知の手法により特定し、特定した視差に基づいて距離画像53を生成する。   The first generation unit 203 generates a distance image 53 (first distance image) from the first image 51 captured by the first imaging unit of the imaging device 101 and the second image 52 captured by the second imaging unit. Specifically, the first generation unit 203 specifies the parallax between the first image 51 and the second image 52 by a known method such as the SAD method, and generates the distance image 53 based on the specified parallax.

算出部204は、第1画像51と第2画像52との視差に基づいて、距離画像53内の物体の3次元データを算出する。撮影装置101の撮影範囲内に物体が存在する場合、当該物体は他の領域と異なるパターンであるため、第1画像51と第2画像52との間で視差が生じ、距離画像53に当該物体があらわれる。視差が分かると、三角測量の原理で撮影装置101から当該物体までの距離を測定できるため、算出部204は、距離画像53内の物体のXY座標に加え、当該物体のZ座標を算出することができる。算出部204は、これらXYZ座標を、物体の3次元データとして算出する。   The calculation unit 204 calculates three-dimensional data of an object in the distance image 53 based on the parallax between the first image 51 and the second image 52. When an object is present in the imaging range of the imaging device 101, the object has a pattern different from that of the other area, so parallax occurs between the first image 51 and the second image 52, and the object in the distance image 53 Appears. If the parallax is known, the distance from the imaging device 101 to the object can be measured according to the principle of triangulation, so the calculation unit 204 calculates the Z coordinate of the object in addition to the XY coordinates of the object in the distance image 53. Can. The calculation unit 204 calculates these XYZ coordinates as three-dimensional data of the object.

第2生成部206は、算出部204が算出した3次元データ(XYZ座標)に対して所定の演算を行うことで、距離画像53(第1距離画像)を補正し、補正後の距離画像54(第2距離画像)を生成する。本実施形態では、一例として、第2生成部206は、回転制御部205が回転した3次元データを用いて、距離画像54を生成する。
以下、具体的に説明する。
The second generation unit 206 corrects the distance image 53 (first distance image) by performing a predetermined operation on the three-dimensional data (XYZ coordinates) calculated by the calculation unit 204, and the corrected distance image 54. (2nd distance image) is generated. In the present embodiment, as an example, the second generation unit 206 generates the distance image 54 using the three-dimensional data rotated by the rotation control unit 205.
The details will be described below.

回転制御部205は、距離画像53のX方向に延びる任意の軸を中心に物体の3次元データを回転することで、当該物体の回転後の3次元データを算出する。このような回転制御は座標変換として既に公知であり、ローカル座標であらわされる物体がグローバル座標系においてどのように配置されるか算出することで行われる。
具体的には、距離画像53は、第1画像51と第2画像52との視差に基づいて生成されるため、距離画像53内の物体にはXYZ座標の3次元データ(ローカル座標)が与えられる。回転制御部205は、この3次元データ(ローカル座標)を、X方向に延びる回転軸を基準とするワールド座標系に配置し、当該回転軸を中心に回転することで、回転後の物体の3次元データを算出する。
The rotation control unit 205 rotates the three-dimensional data of the object about an arbitrary axis extending in the X direction of the distance image 53 to calculate three-dimensional data after the rotation of the object. Such rotation control is already known as coordinate conversion, and is performed by calculating how an object represented by local coordinates is arranged in the global coordinate system.
Specifically, since the distance image 53 is generated based on the parallax between the first image 51 and the second image 52, the object in the distance image 53 is given three-dimensional data (local coordinates) of XYZ coordinates. Be The rotation control unit 205 arranges the three-dimensional data (local coordinates) in the world coordinate system based on the rotation axis extending in the X direction, and rotates around the rotation axis to obtain the three-dimensional object after rotation. Calculate dimensional data.

第2生成部206は、算出した回転後の3次元データに基づいて距離画像54を生成する。距離画像53において撮影装置101からの物体の距離(回転前の距離)が分かっているため、第2生成部206は、この回転前の距離を、回転前の物体の3次元データと回転後の物体の3次元データとの相違に基づいて補正することで、回転後の距離画像54を生成することができる。   The second generation unit 206 generates a distance image 54 based on the calculated three-dimensional data after rotation. Since the distance (distance before rotation) of the object from the photographing device 101 is known in the distance image 53, the second generation unit 206 determines the distance before rotation as three-dimensional data of the object before rotation and the distance after rotation. The corrected distance image 54 can be generated by performing correction based on the difference from the three-dimensional data of the object.

ここで、上述したように、X方向に延びる回転軸とはプラットホームPの端部であり、また、このような回転処理は、プラットホームPの端を真上から撮影したかのような距離画像54を得るために行う。
そこで、回転制御部205は、距離画像53の中から回転軸としてのプラットホームPの端部を特定するための特定部209、及びプラットホームPの端を真上から撮影するために必要な回転量を取得するための検出部210及び取得部211と、を含むこととしてもよい。
Here, as described above, the rotation axis extending in the X direction is the end of the platform P, and such rotation processing is a distance image 54 as if the end of the platform P was photographed from directly above. Do to get
Therefore, the rotation control unit 205 specifies a specific unit 209 for specifying the end of the platform P as the rotation axis from the distance image 53, and the amount of rotation necessary for photographing the end of the platform P from directly above. A detection unit 210 and an acquisition unit 211 for acquisition may be included.

特定部209は、第1画像51と第2画像52との視差に基づいて、距離画像53におけるプラットホームの端部の位置(Y座標)を特定する。
具体的には、図6(A)に示すように、特定部209は、距離画像53をY方向に走査し、Y座標毎に視差ゼロである画素数を計数する。そして、特定部209は、視差ゼロである画素数に基づいて、プラットホームP及びレールRaの位置(Y座標)を検出する。
The identifying unit 209 identifies the position (Y coordinate) of the end of the platform in the distance image 53 based on the parallax between the first image 51 and the second image 52.
Specifically, as shown in FIG. 6A, the identifying unit 209 scans the distance image 53 in the Y direction, and counts the number of pixels with zero parallax for each Y coordinate. Then, the specifying unit 209 detects the position (Y coordinate) of the platform P and the rail Ra based on the number of pixels with zero parallax.

図6(B)は、Y座標と視差ゼロの画素数との関係を示すヒストグラムである。本実施形態のようにバラスト軌道を撮影する場合、撮影画像のX方向に沿って延びるプラットホームP及びレールRaの位置(Y座標)では、視差ゼロの画素数が多くなる。一方、砂利Rbの位置(Y座標)では、視差が算出されるため、視差ゼロの画素数が少なくなる。   FIG. 6 (B) is a histogram showing the relationship between the Y coordinate and the number of pixels with zero parallax. When the ballast trajectory is photographed as in the present embodiment, the number of pixels with zero parallax increases at the position (Y coordinate) of the platform P and the rail Ra extending along the X direction of the photographed image. On the other hand, since the parallax is calculated at the position of the gravel Rb (Y coordinate), the number of pixels with zero parallax decreases.

特定部209は、視差ゼロの画素数が多いY座標のうち、Y座標が最も大きいものをプラットホームPとし、Y座標が次に大きいものを2本のレールRaの手前側のレールRa(以下、「下部レールRad」と呼ぶ)とし、Y座標が次に大きいものを2本のレールRaの奥側のレールRa(以下、「上部レールRau」と呼ぶ)とする。
そして、特定部209は、プラットホームPと砂利Rbとの境界部分のY座標「R3」を、プラットホームPの端部と特定する。また、特定部209は、上部レールRauの位置(Y座標)を座標R1とし、下部レールRadの位置(Y座標)を座標R2とする。
Among the Y coordinates having a large number of pixels with zero parallax, the identifying unit 209 sets the platform P having the largest Y coordinate as the platform P and the next largest one of the Y coordinates is the rail Ra on the front side of the two rails Ra (hereinafter, It is referred to as "lower rail Rad", and the one with the next largest Y coordinate is referred to as the rear rail Ra of the two rails Ra (hereinafter referred to as "upper rail Rau").
Then, the specifying unit 209 specifies the Y coordinate “R3” of the boundary portion between the platform P and the gravel Rb as the end of the platform P. Further, the specifying unit 209 sets the position (Y coordinate) of the upper rail Rau as a coordinate R1, and sets the position (Y coordinate) of the lower rail Rad as a coordinate R2.

検出部210は、距離画像53から、プラットホームPの側面にX方向沿って延びる線路Rの枕木Rtの位置を検出する。
具体的には、検出部210は、距離画像53のうち上部レールRau及び下部レールRadが存在する領域(Y座標)のうちの任意の位置をX方向に走査し、枕木Rtの位置(X座標)を検出する。図7に示す例では、上部レールRau及び下部レールRad間を3分割し、上部レールRau及び下部レールRad間を3分割にする位置に、夫々、座標M1,座標M2をセットする。また、枕木Rtは、レールRaよりも手前側及び奥側に延びて設置されるため、検出部210は、下部レールRadよりも手前側の位置に座標M3をセットし、上部レールRauよりも奥側の位置に座標M4をセットする。
なお、検出部210は、「下部レールRadの座標R2+α1」を座標M3としてセットし、「上部レールRauの座標R1−α2」を、座標M4としてセットする。このとき、α1及びα2は、実験等により経験的に設定される値である。
The detection unit 210 detects, from the distance image 53, the position of a tie Rt of the track R extending along the X direction on the side surface of the platform P.
Specifically, the detection unit 210 scans an arbitrary position in the region (Y coordinate) in which the upper rail Rau and the lower rail Rad exist in the distance image 53 in the X direction, and the position of the sleeper Rt (X coordinate ) To detect. In the example shown in FIG. 7, the section between the upper rail Rau and the lower rail Rad is divided into three, and the coordinates M1 and the coordinate M2 are set at positions where the section between the upper rail Rau and the lower rail Rad is divided into three. Further, since the sleeper Rt is installed extending to the front side and the rear side of the rail Ra, the detection unit 210 sets the coordinate M3 at a position on the front side of the lower rail Rad, and is deeper than the upper rail Rau. Set the coordinate M4 to the side position.
The detection unit 210 sets “coordinate R2 + α1 of the lower rail Rad” as the coordinate M3 and sets “coordinate R1-α2 of the upper rail Rau” as the coordinate M4. At this time, α1 and α2 are values set empirically by experiment or the like.

続いて、検出部210は、座標M1から座標M4の夫々について、距離画像53をX方向に走査し、X座標毎に視差ゼロの画素数を計数する。なお、図7(B)は、例えば、座標M1の位置をX方向に走査した場合の、X座標と視差ゼロの画素数との関係を示すヒストグラムである。
枕木Rtでは視差が算出できないため、枕木Rtの位置(X座標)では、視差ゼロの画素数が多くなる。一方、砂利Rbでは、視差が算出されるため、砂利Rbの位置(X座標)では、視差ゼロの画素数が少なくなる。検出部210は、視差ゼロの画素数に基づいて、枕木Rtの位置(X座標)を検出する。
Subsequently, the detection unit 210 scans the distance image 53 in the X direction for each of the coordinate M1 to the coordinate M4, and counts the number of pixels with zero parallax for each X coordinate. FIG. 7B is a histogram showing, for example, the relationship between the X coordinate and the number of pixels with zero parallax when the position of the coordinate M1 is scanned in the X direction.
Since the parallax can not be calculated in the sleeper Rt, the number of pixels with zero parallax increases at the position (X coordinate) of the sleeper Rt. On the other hand, in the gravel Rb, since the parallax is calculated, the number of pixels with zero parallax decreases at the position (X coordinate) of the gravel Rb. The detection unit 210 detects the position (X coordinate) of the crosstie Rt based on the number of pixels with zero parallax.

取得部211は、プラットホームPの端を真上から撮影したかのような距離画像54を得るために必要な回転量を取得する。枕木Rtは、線路Rにおいて上部レールRau及び下部レールRadに対して垂直に設置されるため、夫々の枕木Rtは、Y方向において平行に設置されている。
この点、プラットホームPや線路Rを斜めに見下ろして撮影した場合、枕木RtのプラットホームP側と線路Rの奥側とで撮影装置101からの距離が異なるため、図7(C)に示すように、夫々の枕木Rtは平行にならない。これに対して、プラットホームPの端を真上から撮影した場合、枕木RtのプラットホームP側と線路Rの奥側とで撮影装置101からの距離が等しくなる(より詳細には、斜めに見下ろした場合よりも近似する)。
The acquisition unit 211 acquires the amount of rotation required to obtain the distance image 54 as if the end of the platform P was photographed from directly above. Since the sleepers Rt are installed perpendicularly to the upper rail Rau and the lower rail Rad in the track R, the respective sleepers Rt are installed in parallel in the Y direction.
In this respect, when the platform P and the track R are viewed obliquely from below, the distance from the photographing device 101 differs between the platform P side of the sleeper Rt and the back side of the track R, as shown in FIG. 7C. , Each sleeper Rt not parallel. On the other hand, when the end of the platform P is photographed from directly above, the distance from the photographing device 101 becomes equal between the platform P side of the tie Rt and the back side of the track R (more specifically, looking down obliquely) Approximates more than the case).

そこで、本実施形態では、図7(D)に示すように、線路Rを構成する複数の枕木Rtの夫々がY方向に沿って平行となる状態を、プラットホームPの端を真上から撮影した状態とし、取得部211は、当該状態になるまでに必要な回転量を、プラットホームPの端を真上から撮影したかのような距離画像54を得るために必要な回転量として取得する。   Therefore, in the present embodiment, as shown in FIG. 7D, the end of the platform P is photographed from directly above the state in which each of a plurality of sleepers Rt constituting the line R is parallel along the Y direction In the state, the acquisition unit 211 acquires the amount of rotation required to reach the state as a amount of rotation necessary to obtain the distance image 54 as if the end of the platform P was photographed from directly above.

具体的には、取得部211は、検出した一の枕木RtのうちのY方向において異なる複数の監視点におけるX方向の座標に基づいて、枕木Rtの夫々がY方向に沿って平行であることを判定する。図7に示す例の場合、座標M1から座標M4は、夫々Y座標が異なる位置である。取得部211は、座標M1から座標M4の夫々における枕木RtのX座標を比較し、当該X座標が略一致した場合に、枕木Rtの夫々がY方向に沿って平行であると判定する。   Specifically, the acquiring unit 211 determines that each of the sleepers Rt is parallel along the Y direction based on the coordinates in the X direction at a plurality of different monitoring points in the Y direction among the detected one sleepers Rt. Determine In the case of the example shown in FIG. 7, the coordinates M1 to the coordinates M4 are positions at which Y coordinates are different. The acquisition unit 211 compares the X coordinates of the sleepers Rt at each of the coordinates M1 to the coordinates M4, and determines that each of the sleepers Rt is parallel along the Y direction when the X coordinates substantially match.

なお、プラットホーム端を真上から撮影したとしても、撮影装置101から枕木RtのプラットホームP側までの距離と、撮影装置101から枕木Rtの線路Rの奥側までの距離とは、完全に一致するわけではない。また、回転は、距離画像53という一方向からの撮影結果のみに基づいて行われるため、回転後の形状と実際の形状との一致精度にも所定の限界がある。
そのため、枕木Rtの夫々がY方向に沿って平行となる状態とは、枕木Rtの夫々が完全に一致することまでを要求するものではなく、平行度が所定の閾値を満たせば足りる。なお、所定の閾値については、実験等により経験的に設定される。
Even when the platform end is photographed from directly above, the distance from the imaging device 101 to the platform P side of the sleeper Rt completely matches the distance from the imaging device 101 to the back side of the track R of the sleeper Rt. Do not mean. In addition, since the rotation is performed based only on the imaging result from one direction, which is the distance image 53, the matching accuracy between the shape after rotation and the actual shape also has a predetermined limit.
Therefore, the state in which the respective sleepers Rt are parallel along the Y direction does not require that the respective sleepers Rt completely coincide with each other, and it is sufficient if the degree of parallelism satisfies a predetermined threshold. The predetermined threshold is set empirically by experiment or the like.

取得部211が取得した回転量は、対象の距離画像53を撮影した撮影装置101に対応付けられて記憶部202に記憶される。回転制御部205は、記憶部202から撮影装置101に対応してセットされた回転量を読み出し、当該回転量分だけ距離画像53を回転することで、回転後の3次元データを算出する。   The amount of rotation acquired by the acquisition unit 211 is stored in the storage unit 202 in association with the imaging device 101 that has captured the distance image 53 of interest. The rotation control unit 205 reads the amount of rotation set corresponding to the imaging device 101 from the storage unit 202, and rotates the distance image 53 by the amount of rotation to calculate three-dimensional data after rotation.

このように、プラットホーム端を真上から撮影した状態となる回転量を、撮影装置101毎に取得しセットしておくことで、撮影装置101の設置時に取り付ける角度や画角を精密に調整する必要がなくなる。その結果、撮影システム10では、撮影装置101の設置に膨大な時間をかける必要がなく、撮影装置101の設置作業に要する時間を短縮することができる。   In this way, it is necessary to precisely adjust the angle and angle of view to be attached when the imaging device 101 is installed by acquiring and setting the amount of rotation in which the platform end is imaged from directly above for each imaging device 101 There is no As a result, in the imaging system 10, it is not necessary to spend a great deal of time installing the imaging device 101, and the time required for the installation operation of the imaging device 101 can be shortened.

図5に戻り、監視設定部207は、回転後の距離画像54に対して、線路Rへの落下を監視する落下検知エリア、及びプラットホーム端への接近を監視する接近検知エリアを設定する。具体的には、監視設定部207は、距離画像54を回転軸(プラットホーム端)を境にして、線路側の領域とプラットホーム側の領域に分割し、線路側の領域のうちの任意の領域を落下検知エリアと設定し、プラットホーム側の領域のうちの任意の領域を接近検知エリアと設定する。   Returning to FIG. 5, the monitoring setting unit 207 sets, for the distance image 54 after rotation, a fall detection area for monitoring a fall on the track R and an approach detection area for monitoring an approach to the platform end. Specifically, the monitoring setting unit 207 divides the distance image 54 into the area on the line side and the area on the platform side with the rotation axis (platform end) as a boundary, and any area in the line area is A drop detection area is set, and an arbitrary one of the areas on the platform side is set as an approach detection area.

一の線路と他の線路とが隣接する場合、路線によっては、線路間に資材を置くことがある。落下検知エリアは、この資材を線路内の異物として検出しないように、Y方向において適切な範囲を設定する必要がある。
この点、本実施形態では、監視設定部207は、図8に示すように、落下検知エリアのY座標を、座標Y1から座標Y2の範囲に設定する。座標Y1は、上部レールRauの座標R1よりも奥側50cmの位置であり、座標Y2は、プラットホーム端の座標R2である。なお、奥側50cmについては、画像素子1画素の大きさと、撮影装置101からの距離との関係に基づいて算出することができ、撮影装置101を線路面から4.3m上方に設置している場合には、50cmは47画素になる。
When one track and another track are adjacent to each other, materials may be placed between the tracks depending on the line. In the fall detection area, it is necessary to set an appropriate range in the Y direction so as not to detect this material as foreign matter in the track.
In this respect, in the present embodiment, as shown in FIG. 8, the monitor setting unit 207 sets the Y coordinate of the fall detection area in the range from the coordinate Y1 to the coordinate Y2. The coordinate Y1 is 50 cm behind the coordinate R1 of the upper rail Rau, and the coordinate Y2 is a coordinate R2 of the platform end. The depth 50 cm can be calculated based on the relationship between the size of one pixel of the image element and the distance from the photographing device 101, and the photographing device 101 is installed 4.3 m above the track surface In this case, 50 cm is 47 pixels.

接近検知エリアとしては、プラットホーム端から内側所定領域までを設定する必要がある。多くの駅において、プラットホームPには点字ブロックが設置されているため、プラットホーム端から点字ブロックまでの領域を接近検知エリアとして設定することとしてもよいが、点字ブロックの設置パターンは全ての駅において統一されているわけではないため、本実施形態では、次のような範囲に接近検知エリアを設定する。
具体的には、監視設定部207は、図8に示すように、接近検知エリアのY座標を、座標Y2から座標Y3の範囲に設定する。座標Y3は、座標Y2よりも手前側90cmの位置であり、撮影装置101をプラットホーム面から2.2m上方に設置している場合には、座標Y2+163(画素)が座標Y3となる。
As the approach detection area, it is necessary to set from the platform end to the inner predetermined area. In many stations, the platform P has braille blocks installed, so the area from the platform end to the braille blocks may be set as an approach detection area, but the installation pattern of braille blocks is uniform at all stations. Because this is not the case, in the present embodiment, the proximity detection area is set in the following range.
Specifically, as shown in FIG. 8, the monitoring setting unit 207 sets the Y coordinate of the approach detection area in the range from the coordinate Y2 to the coordinate Y3. The coordinate Y3 is a position 90 cm on the near side of the coordinate Y2. When the imaging device 101 is installed 2.2 m above the platform surface, the coordinate Y2 + 163 (pixel) is the coordinate Y3.

なお、落下検知エリア及び接近検知エリアのX方向の範囲は適宜任意に設定することができる。一例として、監視設定部207は、X方向の全範囲から両サイドのマージンと視差探索領域分を減算した範囲を、落下検知エリア及び接近検知エリアのX方向の範囲として設定する。   The ranges of the fall detection area and the approach detection area in the X direction can be arbitrarily set as appropriate. As an example, the monitoring setting unit 207 sets a range obtained by subtracting the margin on both sides and the parallax search area from the entire range in the X direction as the range of the fall detection area and the approach detection area in the X direction.

図5に戻り、探索部208は、撮影装置101の監視エリア内で異物(例えば、線路内に存在する人や物、又はプラットホーム端の近傍に存在する人や物)を検出するとともに、検出した異物が落下検知エリア及び接近検知エリアの何れに存在するか判定する。
具体的には、探索部208は、撮影装置101が撮影した距離画像53において異物(異常視差)を検出すると、プラットホーム端を回転軸として当該異物の3次元データを、取得部211が取得した回転量だけ回転し、当該異物の回転後の3次元データを算出する。そして、探索部208は、算出した回転後の3次元データと、距離画像54に対して設定した落下検知エリア及び接近検知エリアとを比較して、異物が落下検知エリア及び接近検知エリアの何れに存在するか判定する。
Referring back to FIG. 5, the searching unit 208 detects and detects a foreign object (for example, a person or a thing existing in the track or a person or a thing near the platform end) in the monitoring area of the imaging device 101 It is determined whether the foreign matter is present in the fall detection area or the approach detection area.
Specifically, when the searching unit 208 detects a foreign object (abnormal parallax) in the distance image 53 captured by the imaging device 101, the acquisition unit 211 acquires three-dimensional data of the foreign object with the platform end as the rotation axis. The volume is rotated, and three-dimensional data of the foreign matter after rotation is calculated. Then, the search unit 208 compares the calculated three-dimensional data after rotation with the fall detection area and the approach detection area set for the distance image 54, and the foreign matter is either in the fall detection area or the approach detection area. Determine if it exists.

ここで、図9を参照して、探索部208による異物の探索方法を具体的に説明する。なお、説明を容易にするため、本実施形態では、図9(A)に示すように、プラットホーム端に直方体の異物がある場合を例にとり、探索部208による異物の探索方法について説明する。
プラットホーム端に異物が存在する場合、図9(B)に示すように、距離画像53において当該異物は、異常視差としてあらわれる。撮影装置101は、プラットホーム端や線路を斜めに見下ろすように設置されているため、異物がプラットホーム内に存在する場合であっても、距離画像53では、線路内の領域に異常視差が存在し、異物が線路内に存在するかのように判定されてしまう。
Here, with reference to FIG. 9, a method of searching for foreign matter by the searching unit 208 will be specifically described. In order to facilitate the description, in the present embodiment, as shown in FIG. 9A, a method of searching for a foreign object by the searching unit 208 will be described by taking an example where there is a rectangular solid object at the platform end.
When foreign matter is present at the platform end, the foreign matter appears as anomalous parallax in the distance image 53, as shown in FIG. 9B. Since the imaging device 101 is installed so as to look down at the platform end and the track obliquely, an anomalous parallax exists in the area in the track in the distance image 53 even when foreign matter is present in the platform, It is determined as if foreign matter is present in the track.

異物に対する第1撮影部と第2撮影部との視差から、当該異物の3次元データ(XYZ座標)を算出することができるため、探索部208は、プラットホーム端を回転軸として検出した異物を回転する。その結果、図9(C)に示すように、プラットホーム端を真上から撮影したかのような距離画像54を得ることができる。探索部208は、距離画像54における異物の中心の所定領域に着目して、当該所定領域が落下検知エリア及び接近検知エリアの何れに存在するか判定することで、異物がプラットホーム内に存在するのか、線路内に存在するのかを判定する。   Since the three-dimensional data (XYZ coordinates) of the foreign object can be calculated from the parallax between the first imaging unit and the second imaging unit for the foreign object, the searching unit 208 rotates the foreign object detected with the platform end as the rotation axis Do. As a result, as shown in FIG. 9C, it is possible to obtain a distance image 54 as if the platform end was photographed from directly above. Whether the foreign substance is present in the platform by determining whether the predetermined area is present in the fall detection area or the proximity detection area, focusing on the predetermined area at the center of the foreign substance in the distance image 54 , Determine whether it exists in the track.

なお、撮影装置101による撮影は一方向のみからであるため、回転後の異物の形状は、当該異物を真上から撮影した場合の実際の形状と一致せずに実際の形状に対して歪んでしまう。しかしながら、プラットホームPや線路Rの監視としては、線路落下やプラットホーム端への接近を検知できれば足り、異物の実際の形状を正確に判定する必要はない。そのため、回転後の異物の形状が歪んでしまったとしても、駅構内の監視を適切に行うことができる。   In addition, since the imaging by the imaging device 101 is from only one direction, the shape of the foreign object after rotation is distorted with respect to the actual shape without matching the actual shape when the foreign object is photographed from directly above. I will. However, for monitoring the platform P and the line R, it is sufficient if it is possible to detect the line falling and the approach to the platform end, and it is not necessary to accurately determine the actual shape of the foreign matter. Therefore, even if the shape of the foreign object after rotation is distorted, the station yard can be appropriately monitored.

[撮影システム10の処理]
続いて、図10及び図11を参照して、本発明の撮影システム10の処理の流れについて説明する。図10は、プラットホームPに設置した撮影装置101に対して各種設定を行う設定処理の流れを示すフローチャートである。
[Process of imaging system 10]
Subsequently, the flow of processing of the imaging system 10 of the present invention will be described with reference to FIGS. 10 and 11. FIG. 10 is a flowchart showing a flow of setting processing for performing various settings on the photographing apparatus 101 installed on the platform P.

図10に示すように、初めに、ステップS1において、撮影装置101は、線路Rを撮影し、第1画像51及び第2画像52を取得する。続いて、ステップS2において、データ管理装置200の第1生成部203は、撮影した第1画像51及び第2画像52の視差から距離画像53を生成する。   As shown in FIG. 10, first, in step S1, the imaging device 101 captures an image of the track R to obtain a first image 51 and a second image 52. Subsequently, in step S2, the first generation unit 203 of the data management device 200 generates a distance image 53 from the parallax of the captured first image 51 and second image 52.

続いて、ステップS3において、算出部204は、距離画像53に含まれる物体の3次元データ(XYZ座標)を、第1画像51及び第2画像52の視差に基づいて算出する。続いて、ステップS4において、特定部209は、距離画像53のプラットホーム端を特定する。例えば、特定部209は、距離画像53をY方向に走査して、Y座標と視差ゼロの画素数との関係を示すヒストグラムを生成し、視差ゼロである画素数に基づいて、プラットホーム端の位置(Y座標)を特定する。   Subsequently, in step S <b> 3, the calculation unit 204 calculates three-dimensional data (XYZ coordinates) of the object included in the distance image 53 based on the parallax of the first image 51 and the second image 52. Subsequently, in step S4, the identifying unit 209 identifies the platform end of the distance image 53. For example, the identifying unit 209 scans the distance image 53 in the Y direction to generate a histogram indicating the relationship between the Y coordinate and the number of pixels with zero parallax, and the position of the platform end based on the number of pixels with zero parallax. Identify (Y coordinate).

続いて、ステップS5において、回転制御部205は、ステップS3で算出した物体の3次元データを、ステップS4で特定したプラットホーム端を軸に回転する。この回転は、ステップS6において、夫々の枕木Rtが平行になったと判定されるまで行われる。なお、ステップS6の判定では、回転制御部205(取得部211)は、枕木RtのうちのY方向において異なる複数の監視点におけるX方向の座標が略一致した場合に、枕木Rtが平行になったと判定する。   Subsequently, in step S5, the rotation control unit 205 rotates the three-dimensional data of the object calculated in step S3 around the platform end identified in step S4. This rotation is performed until it is determined in step S6 that the sleepers Rt have become parallel. In the determination in step S6, the rotation control unit 205 (acquisition unit 211) determines that the sleepers Rt are parallel when the X direction coordinates at a plurality of different monitoring points in the Y direction of the sleepers Rt substantially match. It is determined that

回転により枕木Rtが平行になると、続いて、ステップS7において、回転制御部205(取得部211)は、当該状態になるまでに要した回転量を、ステップS1で撮影した撮影装置101に対応付けて登録する。また、ステップS8において、監視設定部207は、回転後の距離画像54に対して落下検知エリア及び接近検知エリアを設定し、撮影装置101に対応付けて登録し、設定処理を終了する。   When the sleepers Rt become parallel due to the rotation, subsequently, in step S7, the rotation control unit 205 (acquisition unit 211) associates the amount of rotation required until the state becomes the imaging device 101 photographed in step S1. To register. In step S8, the monitoring setting unit 207 sets the fall detection area and the approach detection area on the rotated distance image 54, registers the fall detection area and the approach detection area in association with the imaging apparatus 101, and ends the setting process.

続いて、図11を参照して、撮影装置101の監視領域において異物を検知した場合の異物検知処理について説明する。
図11に示すように、初めに、ステップS11において、撮影装置101は、線路Rを撮影し、第1画像51及び第2画像52を取得する。続いて、ステップS12において、データ管理装置200の第1生成部203は、撮影した第1画像51及び第2画像52の視差から距離画像53を生成する。
Subsequently, with reference to FIG. 11, a foreign matter detection process in the case where a foreign matter is detected in the monitoring area of the imaging device 101 will be described.
As shown in FIG. 11, first, in step S11, the imaging device 101 captures the line R and acquires a first image 51 and a second image 52. Subsequently, in step S12, the first generation unit 203 of the data management device 200 generates a distance image 53 from the parallax of the captured first image 51 and second image 52.

続いて、ステップS13において、探索部208は、距離画像53内に異物が存在するか否かを判定する。一例として、探索部208は、プラットホーム端や線路内に異常視差が存在する場合に、異物が存在すると判定する。   Subsequently, in step S13, the search unit 208 determines whether a foreign object is present in the distance image 53. As an example, when there is anomalous parallax at the platform end or in the track, the search unit 208 determines that a foreign object is present.

距離画像53内に異物が存在する場合、続いて、ステップS14において、探索部208は、当該距離画像53のうちのプラットホーム端を回転軸として、図10のステップS7で設定した回転量分だけ、当該距離画像53を回転する。続いて、ステップS14において、探索部208は、回転後の距離画像54における異物の存在する位置と、図10のステップS8で設定した落下検知エリア及び接近検知エリアとを比較して、落下検知エリア及び接近検知エリアの何れに異物が存在するか判定する。続いて、ステップS15において、異物が存在するエリアに応じた所定の警告を行い、異物検知処理を終了する。   If there is a foreign object in the distance image 53, subsequently, in step S14, the search unit 208 sets the platform end of the distance image 53 as the rotation axis by the amount of rotation set in step S7 of FIG. The distance image 53 is rotated. Subsequently, in step S14, the search unit 208 compares the position where the foreign matter is present in the rotated distance image 54 with the fall detection area and the approach detection area set in step S8 of FIG. And it is determined in which of the proximity detection areas the foreign matter is present. Subsequently, in step S15, a predetermined warning is issued according to the area in which the foreign matter is present, and the foreign matter detection processing is ended.

[撮影システム10における効果]
以上、本発明の実施形態について説明した。続いて、撮影システム10における効果について説明する。
[Effect in shooting system 10]
The embodiments of the present invention have been described above. Then, the effect in photography system 10 is explained.

撮影システム10では、第1の効果として、撮影装置101の設置作業に要する時間を短縮することができる。
プラットホーム端や線路を斜めに撮影する場合、線路落下の誤検知を防止するために、通常であれば、撮影装置101を取り付ける角度や画角を高精度に調整する必要がある。この点、撮影システム10では、撮影装置101が撮影した距離画像53から被写体の3次元データ(XYZ座標)を算出できることに着目して、プラットホーム端を真上から撮影したかのような画像を得るために必要な回転量を撮影装置101に対して設定する。
In the imaging system 10, as a first effect, the time required for the installation work of the imaging device 101 can be shortened.
When photographing the platform end and the track obliquely, it is usually necessary to adjust the angle at which the photographing device 101 is attached and the angle of view with high accuracy in order to prevent false detection of the track fall. In this respect, the imaging system 10 obtains an image as if the platform edge was photographed from directly above, focusing on the fact that three-dimensional data (XYZ coordinates) of the subject can be calculated from the distance image 53 captured by the imaging device 101 The amount of rotation required for the image pickup apparatus 101 is set.

これにより、設置した後の回転処理により撮影装置101の監視精度の調整を行うことができるため、撮影装置101の設置時には、取り付ける角度や画角を精密に調整する必要がない。そのため、撮影システム10では、撮影装置101の設置に膨大な時間をかける必要がなく、撮影装置101の設置作業に要する時間を短縮することができる。
この第1の効果は、プラットホーム全域に亘り監視を行う撮影システム10においてより顕著にあらわれる。即ち、撮影システム10では、多数の撮影装置101を用いてプラットホームを監視するものの、設置作業時間を撮影装置101の夫々において短縮することができるため、撮影システム10全体において設置時間を大幅に短縮することができる。
As a result, since it is possible to adjust the monitoring accuracy of the imaging device 101 by the rotation process after installation, it is not necessary to precisely adjust the attachment angle and the angle of view when the imaging device 101 is installed. Therefore, in the imaging system 10, the installation of the imaging device 101 does not need to take a long time, and the time required for the installation operation of the imaging device 101 can be shortened.
This first effect is more pronounced in the imaging system 10 monitoring across the platform. That is, although the imaging system 10 monitors the platform using a large number of imaging devices 101, the installation work time can be shortened in each of the imaging devices 101, so the installation time is greatly shortened in the entire imaging system 10. be able to.

また、プラットホームでは多くの点検作業が行われるため、撮影装置101を取り付けた後も、何らかの事象で撮影装置101がずれてしまう場合がある。従来の運用では、撮影装置101がずれてしまうと、撮影装置101の設置を再度手動で調整しなければならい。この再度の調整も、鉄道車両の運行に与えないように夜間に行う必要があり、作業員にとって大きな負担を与えるだけでなく、調整作業が済むまで適切な監視を行うことができない。
この点、撮影システム10では、定期的又は管理者の手動で、撮影装置101に対する設定処理を行うことで、撮影装置101がずれてしまったとしても、適切な回転量を再度設定することができる。これにより、調整作業の工数を短縮できるとともに、継続的な監視を行うことができ、好適である。
In addition, since many inspection operations are performed on the platform, the imaging device 101 may be shifted due to some event even after the imaging device 101 is attached. In the conventional operation, when the imaging apparatus 101 is shifted, the installation of the imaging apparatus 101 has to be manually adjusted again. This readjustment also needs to be performed at night so as not to give to the operation of the railway vehicle, which not only imposes a heavy burden on the workers, but also can not properly monitor until the adjustment work is completed.
In this respect, in the imaging system 10, by performing setting processing for the imaging device 101 periodically or manually by the administrator, even if the imaging device 101 is shifted, an appropriate amount of rotation can be set again. . Thus, the number of adjustment operations can be shortened, and continuous monitoring can be performed, which is preferable.

また、撮影システム10では、第2の効果として、撮影装置101による監視精度の向上が期待できる。
プラットホーム端を斜めに撮影する場合、プラットホーム端に存在する乗客の上半身が線路上に写ってしまい、線路落下と誤検知してしまうおそれがある。この点、従来では、落下検知の高さ方向(Z方向)の探索範囲を狭くすることで誤検知を防止していたが、撮影システム10では、プラットホーム端を真上から撮影した状態でプラットホームPや線路Rを監視するため、高さ方向の探索範囲を調整することなく、線路落下の誤検知を防止することができる。
Further, in the imaging system 10, as a second effect, improvement in the monitoring accuracy by the imaging device 101 can be expected.
When photographing the platform end at an angle, the upper body of the passenger present at the platform end may be reflected on the track, which may cause false detection as a track drop. In this regard, in the past, false detection was prevented by narrowing the search range in the height direction (Z direction) of the drop detection. However, in the imaging system 10, the platform P is photographed with the platform end photographed from directly above Since the line R is monitored, it is possible to prevent the erroneous detection of the line fall without adjusting the search range in the height direction.

ここで、図12を参照して、撮影システム10における従来の監視運用方法について説明する。図12(A)に示すように、乗客Uaは、線路内に存在し、乗客Ubは、プラットホーム端に存在している。乗客の平均身長を考慮すると、線路面から高さ190cmの範囲を探索範囲として設定すると、線路内に存在する乗客Uaの全身を探索することができる一方で、線路面から190cmの範囲では、プラットホーム上に存在する乗客Ubの上半身も探索範囲に含まれてしまい、好ましくない。そこで、従来の運用では、線路面から高さ130cmの範囲を探索範囲として設定している。   Here, with reference to FIG. 12, the conventional monitoring operation method in the imaging system 10 will be described. As shown in FIG. 12 (A), the passenger Ua exists in the track and the passenger Ub exists at the platform end. Considering the average height of the passengers, setting the range of 190 cm in height from the track surface as the search range makes it possible to search the entire body of the passenger Ua present in the track, while the platform in the range of 190 cm from the track surface The upper body of the passenger Ub present above is also included in the search range, which is not preferable. Therefore, in the conventional operation, a range of 130 cm in height from the track surface is set as the search range.

図12(B)に示すように、高さ方向の探索範囲を線路R面から130cmまでとした場合、プラットホーム上の乗客Ubの足部分までが探索範囲となる。探索範囲が足部分までであれば検知サイズが小さく、乗客Ubを線路落下と誤検知してしまうことはない。
一方で、高さ方向の探索範囲を線路面から130cmまでとした場合、線路上の乗客Uaの胸部分までで距離探索が終わってしまう。胸部分で切ってしまうと、テクスチャが少なく乗客Uaをロストしてしまう場合があり、線路落下を見逃してしまう場合がある。
As shown in FIG. 12B, when the search range in the height direction is 130 cm from the R plane of the track, the search range is the foot portion of the passenger Ub on the platform. If the search range is up to the foot portion, the detection size is small, and the passenger Ub is not erroneously detected as a track drop.
On the other hand, when the search range in the height direction is 130 cm from the track surface, the distance search ends at the chest portion of the passenger Ua on the track. If it is cut at the chest part, the texture may be small and the passenger Ua may be lost, and the fall of the track may be missed.

これに対して、図12(C)に示すように、高さ方向の探索範囲を線路面から190cmまでとした場合、乗客Uaの全身が探索範囲となるため、線路上の乗客Uaを安定して検出することができ、線路落下を見逃すことがない。
一方で、高さ方向の探索範囲を線路面から190cmまでとした場合、プラットホーム上の乗客Ubの胸部分まで距離探索が行われてしまう。プラットホーム上の乗客Ubの胸部分まで探索してしまうと、テクスチャが少なくロストする可能性があるものの、検知してしまう可能性もあり、検知してしまった場合に、線路落下の誤検知に繋がる。
On the other hand, as shown in FIG. 12C, when the search range in the height direction is up to 190 cm from the track surface, the whole body of the passenger Ua becomes the search range, so the passenger Ua on the track is stabilized. Can detect and never miss a track fall.
On the other hand, when the search range in the height direction is 190 cm from the track surface, the distance search is performed to the chest portion of the passenger Ub on the platform. If the chest portion of the passenger Ub on the platform is searched, the texture may be small but it may be detected, but it may be detected, and if it is detected, it leads to a false detection of the line fall .

このように従来の監視方法では、線路落下の誤検知と検知漏れとを考慮して、高さ方向の探索範囲を調整していた。この点、撮影システム10では、プラットホーム端を真上から撮影した状態で監視することができるため、探索範囲の調整など必要なく、線路落下等の危険を精度よく検知することができる。   As described above, in the conventional monitoring method, the search range in the height direction is adjusted in consideration of erroneous detection and omission of detection of the line fall. In this respect, in the imaging system 10, since the platform end can be monitored in a state of being photographed from directly above, it is possible to accurately detect a danger such as a line fall without adjusting the search range.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It is apparent to those skilled in the art that various changes or modifications can be added to the above embodiment. It is also apparent from the scope of the claims that the embodiments added with such alterations or improvements can be included in the technical scope of the present invention.

上記実施形態では、プラットホームPの長さ方向(X方向)に延びる軸を中心に、距離画像53や当該距離画像53に含まれる物体を回転することとしているが、回転方向はこれに限られるものではなく、プラットホームPの長さ方向に直交する方向(Y方向)に延びる軸を中心に回転することとしてもよく、高さ方向(Z方向)に延びる軸を中心に回転することとしてもよい。
撮影装置101の設置状態によっては、プラットホームPの長さ方向と距離画像53のX方向とが一致しない場合もあるが、この場合であっても、距離画像53を高さ方向(Z方向)に延びる軸を中心に回転することで、プラットホームPの長さ方向と距離画像53のX方向とを合わせることができる。そのため、設置作業に要する時間を短縮できるという効果を期待できる。
In the above embodiment, the distance image 53 and an object included in the distance image 53 are rotated about an axis extending in the longitudinal direction (X direction) of the platform P, but the rotation direction is limited to this. Instead, it may rotate around an axis extending in a direction (Y direction) orthogonal to the longitudinal direction of the platform P, or may rotate around an axis extending in the height direction (Z direction).
Depending on the installation state of the imaging device 101, the length direction of the platform P may not coincide with the X direction of the distance image 53. Even in this case, the distance image 53 in the height direction (Z direction) By rotating around the extending axis, the longitudinal direction of the platform P and the X direction of the distance image 53 can be aligned. Therefore, the effect that the time which installation work requires can be shortened can be anticipated.

10・・・撮影システム
100・・・撮影装置群
101・・・撮影装置
200・・・データ管理装置(画像処理装置)
201・・・制御部
202・・・記憶部
203・・・第1生成部
204・・・算出部
205・・・回転制御部
206・・・第2生成部
207・・・監視設定部
208・・・探索部
209・・・特定部
210・・・検出部
211・・・取得部
300・・・ハブ
400・・・モニタ


10: shooting system 100: shooting device group 101: shooting device 200: data management device (image processing device)
201: control unit 202: storage unit 203: first generation unit 204: calculation unit 205: rotation control unit 206: second generation unit 207: monitoring setting unit 208 · · Search unit 209 · · · identification unit 210 · · · detection unit 211 · · · acquisition unit 300 · · · hub 400 · · · monitor


Claims (5)

第1方向に延びるプラットホームの上部に設置されたステレオカメラにより撮影された撮影画像を処理する画像処理装置であって、
前記ステレオカメラの第1撮影部で撮影した第1画像と、第2撮影部で撮影した第2画像との視差に基づいて、第1距離画像を生成する第1生成部と、
前記視差に基づいて、当該第1距離画像内の物体の3次元データを算出する算出部と、
前記第1距離画像を前記3次元データに基づいて補正し、補正後の第2距離画像を生成する第2生成部と、
前記第1方向に延びる任意の位置を軸として前記3次元データを回転することで、前記物体の回転後の3次元データを算出する回転制御部と、
を備え、
前記第2生成部は、算出した前記回転後の3次元データに基づいて第2距離画像を生成する、
画像処理装置。
An image processing apparatus that processes an image captured by a stereo camera installed on a platform extending in a first direction, the image processing system comprising:
A first generation unit that generates a first distance image based on a parallax between a first image captured by a first imaging unit of the stereo camera and a second image captured by a second imaging unit;
A calculator configured to calculate three-dimensional data of an object in the first distance image based on the parallax;
A second generation unit configured to correct the first distance image based on the three-dimensional data and generate a corrected second distance image;
A rotation control unit that calculates three-dimensional data after rotation of the object by rotating the three-dimensional data about an arbitrary position extending in the first direction as an axis;
Equipped with
The second generation unit generates a second distance image based on the calculated three-dimensional data after rotation.
Image processing device.
前記第1距離画像から、前記プラットホームの側面に前記第1方向に沿って延びる線路の枕木を検出する検出部と、
前記回転に伴い前記線路を構成する複数の枕木の夫々が、前記第1方向と直交する第2方向に沿って平行となる回転量を取得する取得部と、
を更に備え、
前記回転制御部は、取得した回転量分だけ前記3次元データを回転する、
請求項に記載の画像処理装置。
A detection unit that detects a crosstie of a track extending along the first direction from the first distance image to the side surface of the platform;
An acquisition unit configured to acquire an amount of rotation parallel to a second direction orthogonal to the first direction, with each of a plurality of sleepers constituting the track as the rotation occurs;
And further
The rotation control unit rotates the three-dimensional data by the acquired rotation amount.
The image processing apparatus according to claim 1 .
前記取得部は、検出した一の枕木のうちの前記第2方向において異なる複数の監視点における前記第1方向の座標に基づいて、前記枕木の夫々が第2方向に沿って平行であることを判定する、
請求項に記載の画像処理装置。
The acquisition unit determines that each of the sleepers is parallel along a second direction based on coordinates of the first direction at a plurality of monitoring points different in the second direction of the detected one sleeper. judge,
The image processing apparatus according to claim 2 .
前記第2距離画像を前記軸を境に第1領域及び第2領域に分割し、前記第1領域のうちの任意の領域を第1監視領域と設定し、前記第2領域のうちの任意の領域を第2監視領域と設定する監視設定部と、
前記第2距離画像に存在する異物が、前記第1監視領域及び前記第2監視領域の何れに存在するか判定する探索部と、
を更に備える請求項からの何れか1項に記載の画像処理装置。
The second distance image is divided into a first area and a second area bordering on the axis, an arbitrary area of the first area is set as a first monitoring area, and an arbitrary area of the second area is set. A monitoring setting unit configured to set the area as a second monitoring area;
A search unit that determines whether the foreign matter present in the second distance image is present in either the first monitoring area or the second monitoring area;
The image processing apparatus according to any one of claims 1 to 3 , further comprising:
前記探索部は、前記第1距離画像において異物を検出すると、前記軸を中心に前記異物の3次元データを回転することで、当該異物の回転後の3次元データを算出するとともに、当該回転後の3次元データに基づいて、前記異物が、前記第1監視領域又は前記第2監視領域の何れに存在するか判定する、
請求項に記載の画像処理装置。
When the search unit detects foreign matter in the first distance image, the search unit rotates three-dimensional data of the foreign matter around the axis to calculate three-dimensional data of the foreign matter after rotation, and also after the rotation. Determining whether the foreign matter is present in the first monitoring area or the second monitoring area based on three-dimensional data of
The image processing apparatus according to claim 4 .
JP2015023007A 2015-02-09 2015-02-09 Image processing device Active JP6476945B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015023007A JP6476945B2 (en) 2015-02-09 2015-02-09 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015023007A JP6476945B2 (en) 2015-02-09 2015-02-09 Image processing device

Publications (2)

Publication Number Publication Date
JP2016144993A JP2016144993A (en) 2016-08-12
JP6476945B2 true JP6476945B2 (en) 2019-03-06

Family

ID=56685177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015023007A Active JP6476945B2 (en) 2015-02-09 2015-02-09 Image processing device

Country Status (1)

Country Link
JP (1) JP6476945B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7232497B2 (en) * 2018-06-15 2023-03-03 エイアイビューライフ株式会社 Information processing equipment
JP7368180B2 (en) * 2019-10-25 2023-10-24 株式会社京三製作所 Station platform safety support system and obstructive object determination method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3301001B2 (en) * 1994-06-24 2002-07-15 日本信号株式会社 Train speed detector, train acceleration detector, railroad crossing barrier control device
JP4056813B2 (en) * 2002-07-11 2008-03-05 松下電器産業株式会社 Obstacle detection device
JP3785456B2 (en) * 2002-07-25 2006-06-14 独立行政法人産業技術総合研究所 Safety monitoring device at station platform
JP4545485B2 (en) * 2004-05-26 2010-09-15 クラリオン株式会社 Stop position detection device
JP2010109452A (en) * 2008-10-28 2010-05-13 Panasonic Corp Vehicle surrounding monitoring device and vehicle surrounding monitoring method
JP2013122739A (en) * 2011-12-12 2013-06-20 Fujitsu Ltd Analysis device, analysis program and analysis method
JP6132659B2 (en) * 2013-02-27 2017-05-24 シャープ株式会社 Ambient environment recognition device, autonomous mobile system using the same, and ambient environment recognition method
JP6096601B2 (en) * 2013-06-03 2017-03-15 株式会社東芝 Station platform fall detection device

Also Published As

Publication number Publication date
JP2016144993A (en) 2016-08-12

Similar Documents

Publication Publication Date Title
US10108881B2 (en) Train type identification method and system, and security inspection method and system
KR102267335B1 (en) Method for detecting a speed employing difference of distance between an object and a monitoring camera
US20140313347A1 (en) Traffic camera calibration update utilizing scene analysis
CN105157608A (en) Detection method, apparatus, and system of oversized vehicle
JP5698285B2 (en) Overhead wire position measuring apparatus and method
JP2008140370A (en) Stereo camera intrusion detection system
WO2021129305A1 (en) Calibration rod testing method for optical motion capture system, device, apparatus, and storage medium
JP6524529B2 (en) Building limit judging device
JP2011128117A5 (en) Information processing apparatus, pattern data generation apparatus, information processing method, pattern data generation method, and program
US10163341B2 (en) Double stereoscopic sensor
JP6476945B2 (en) Image processing device
CN107735826A (en) Signal machine detecting device and semaphore detection method
JP6471541B2 (en) Image processing device
JP2013168178A (en) Vehicle detection system and vehicle detection method for vehicle detection system
JP6096601B2 (en) Station platform fall detection device
JP6699179B2 (en) Image processing device
JP6699323B2 (en) Three-dimensional measuring device and three-dimensional measuring method for train equipment
JP2019084955A (en) Railroad line inspection equipment
KR101907852B1 (en) Method and Apparatus for Processing Stereo Images
JP2019066368A (en) System and method for detecting displacement of structure
JP2020006845A (en) Track curvature estimation device and method
CN105242060B (en) A kind of train wheel idle running and the method for real-time slided
JP6672800B2 (en) Image processing device
JP7014021B2 (en) Image processing device and monitoring area setting method
JP6507590B2 (en) Image conversion apparatus and image conversion method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180710

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190121

R150 Certificate of patent or registration of utility model

Ref document number: 6476945

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150