JP7301035B2 - Obstacle detection system - Google Patents

Obstacle detection system Download PDF

Info

Publication number
JP7301035B2
JP7301035B2 JP2020188571A JP2020188571A JP7301035B2 JP 7301035 B2 JP7301035 B2 JP 7301035B2 JP 2020188571 A JP2020188571 A JP 2020188571A JP 2020188571 A JP2020188571 A JP 2020188571A JP 7301035 B2 JP7301035 B2 JP 7301035B2
Authority
JP
Japan
Prior art keywords
camera
image
remote monitoring
detection system
obstacle detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020188571A
Other languages
Japanese (ja)
Other versions
JP2022077655A (en
Inventor
制時 今川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2020188571A priority Critical patent/JP7301035B2/en
Priority to PCT/JP2021/039546 priority patent/WO2022102399A1/en
Publication of JP2022077655A publication Critical patent/JP2022077655A/en
Application granted granted Critical
Publication of JP7301035B2 publication Critical patent/JP7301035B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L23/00Control, warning, or like safety means along the route or between vehicles or vehicle trains

Description

本発明は、車両の走行予定軌道上にある物体を検知する障害物検知システムに関するものである。 The present invention relates to an obstacle detection system for detecting an object on a planned travel track of a vehicle.

自動車や鉄道などの車両にカメラや物体センサなどの検出器を搭載し、車両の走行予定軌道上にある物体をあらかじめ検知することによって安全を確保する技術が開発されている。同技術に関連する従来技術として、下記特許文献1と2がある。 2. Description of the Related Art A technology has been developed to ensure safety by mounting detectors such as cameras and object sensors on vehicles such as automobiles and railroads and detecting in advance objects on the planned travel track of the vehicle. The following patent documents 1 and 2 are known as prior art related to the same technique.

特許文献1は、ナビゲーションシステムの情報や運転者の視線情報からレーダやカメラの方向を制御することを記載している。同文献は、「制御装置11はナビゲーション装置17等から取得した情報に基づき自車両の走行路の進行方向前方あるいは予測した進行軌跡上の道路構成として、少なくとも交差道路の有無または車線数を検出し、自車両 の現在位置と進行軌跡(または移動方向)に応じて、さらに、視線検出装置18にて検出される運転者の視線方 向に応じて、レーダ13の検知方向およびカメラ14の撮像方向を設定する」という技術を記載している(要約参照)。 Patent Literature 1 describes controlling the direction of a radar or a camera based on navigation system information and driver line-of-sight information. According to the document, ``The control device 11 detects at least the presence or absence of an intersecting road or the number of lanes as a road configuration ahead of the traveling path of the own vehicle or on a predicted traveling trajectory based on information acquired from the navigation device 17 or the like. , the current position and traveling trajectory (or moving direction) of the own vehicle, and further according to the line-of-sight direction of the driver detected by the line-of-sight detection device 18, the detection direction of the radar 13 and the imaging direction of the camera 14. (see abstract).

特許文献2は、車線情報を用いて前照灯の方向を制御することを記載している。同文献は、「照射方向制御部は、検知された車線延在方向にしたがって目標スイブル角を決定し、車両用前照灯による光の照射方向を目標スイブル角に近づけるようスイブルアクチュエータを制御する車線追従制御を実行する」という技術を記載している(要約参照)。 Patent Document 2 describes using lane information to control the direction of headlights. The document states that "the illumination direction control unit determines a target swivel angle according to the detected lane extension direction, and controls a swivel actuator to bring the illumination direction of light from the vehicle headlamp closer to the target swivel angle. tracking control” (see abstract).

特開2005-231450号Japanese Patent Application Laid-Open No. 2005-231450 特開2012-196982号JP 2012-196982 A

障害物検知システムは前方にある物体の有無を検知するだけでなく、これから自車が通る予定である走行予定軌道を把握するとともに、走行予定軌道と物体との間の相対位置を把握することにより、自車と物体が衝突するか否かを判断することができる。 The obstacle detection system not only detects the presence or absence of objects in front, but also grasps the planned travel route that the vehicle is scheduled to travel from now on, and grasps the relative position between the planned travel route and the object. , it can be determined whether the vehicle and the object will collide.

一方、画像系センサによって遠方の物体を検知する場合、撮像素子上の像が所定以上の大きさで撮影できるようにレンズの焦点距離を長くする、いわゆるズーム撮影を用いる。焦点距離に応じて撮像素子のサイズも大きくすることが望ましいが、コスト、サイズ、撮像素子の有無などの要因によって実現が困難な場合がある。撮像素子サイズが小さければ画角は必然的に狭くなる。狭画角化すると撮影範囲が狭くなるので、画像内に走行予定軌道が映らない可能性が生じる。また走行予定軌道の一部が映ったとしても検知したい範囲が十分に含まれない可能性もある。 On the other hand, when an image system sensor detects a distant object, so-called zoom photography is used, in which the focal length of the lens is lengthened so that the image on the image sensor can be photographed with a size greater than or equal to a predetermined size. Although it is desirable to increase the size of the image pickup device in accordance with the focal length, it may be difficult to achieve this due to factors such as cost, size, and presence or absence of the image pickup device. If the image sensor size is small, the angle of view will inevitably become narrow. Narrowing the angle of view narrows the imaging range, so there is a possibility that the planned travel track will not be captured in the image. Also, even if part of the planned travel track is captured, there is a possibility that the range desired to be detected may not be sufficiently included.

走行予定軌道を捕捉できた場合であっても、夜間などは照度やコントラスト不足により物体を検知できない可能性がある。特に自車に搭載した照明設備により遠方物体の照度を得る場合、配光方向に対して正対する立体物よりも、配光方向に対して平行に配置される路面の方が輝度が低くなる可能性がある。これにより走行予定軌道の検知性能が低下することが予想される。 Even if the planned travel trajectory is captured, there is a possibility that objects cannot be detected at night due to insufficient illuminance and contrast. In particular, when obtaining the illuminance of a distant object with the lighting equipment installed in the vehicle, the brightness of the road surface parallel to the light distribution direction may be lower than that of the three-dimensional object directly facing the light distribution direction. have a nature. As a result, it is expected that the detection performance of the planned travel track will be degraded.

本発明は、上記のような課題に鑑みてなされたものであり、狭画角カメラであっても確実に走行予定軌道を検知するとともに、走行予定軌道上の障害物を確実に検知することができる、障害物検知システムを提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the problems described above, and is capable of reliably detecting a planned travel track and reliably detecting obstacles on the planned travel track even with a narrow-angle camera. It is an object of the present invention to provide an obstacle detection system capable of

本発明に係る障害物検知システムは、近傍監視によって得られる走行予定軌道に基づいて遠方監視カメラの撮影方向を粗調整し、粗調整後の遠方画像から算出した走行予定軌道の3次元座標に基づいて、さらに遠方監視カメラの撮影方向を微調整する。 The obstacle detection system according to the present invention roughly adjusts the shooting direction of the remote monitoring camera based on the planned traveling trajectory obtained by the near-field monitoring, and calculates the three-dimensional coordinates of the planned traveling trajectory from the distant image after the coarse adjustment. to further fine-tune the shooting direction of the remote surveillance camera.

本発明に係る障害物検知システムによれば、狭画角カメラであっても確実に走行予定軌道を捕捉し、検知範囲の障害物を検知することができる。 According to the obstacle detection system according to the present invention, even with a narrow angle of view camera, it is possible to reliably capture the planned travel trajectory and detect obstacles within the detection range.

実施形態1に係る障害物検知システム1の概略構成図である。1 is a schematic configuration diagram of an obstacle detection system 1 according to Embodiment 1; FIG. ステレオカメラ100が車両近傍を撮影できない状況を模式的に示した図である。FIG. 4 is a diagram schematically showing a situation in which the stereo camera 100 cannot photograph the vicinity of the vehicle; 車両の走行予定軌道の例を示す上面模式図である。FIG. 3 is a schematic top view showing an example of a planned travel track of a vehicle; ステレオカメラ100とカメラ400それぞれの撮影範囲の1例を示す。An example of the shooting range of each of the stereo camera 100 and the camera 400 is shown. ステレオカメラ100の撮影方向を粗調整した後の画像を示す。4 shows an image after roughly adjusting the imaging direction of the stereo camera 100. FIG. ステレオカメラ100の撮影方向を粗調整した後に着目点を決定する様子を示す図である。FIG. 10 is a diagram showing how a point of interest is determined after roughly adjusting the imaging direction of the stereo camera 100; 走行予定軌道が直線であり、ステレオカメラ100の検知範囲以上の遠方が映っている画像である。The planned travel trajectory is a straight line, and the image shows a distant area beyond the detection range of the stereo camera 100 . 図7と同様に検知範囲以上の遠方が映っている例である。Similar to FIG. 7, this is an example in which a distant object beyond the detection range is shown. ステレオカメラ100から見て手前は上り坂であり、その先が下り坂になっている例である。This is an example of an uphill slope in front of the stereo camera 100 and a downhill slope ahead. 電柱その他の構造物によって検知範囲の最遠位置が見通せない例である。This is an example where the farthest position of the detection range cannot be seen due to a utility pole or other structure. 走行予定軌道の左に駅がある例である。This is an example where the station is on the left of the planned travel track. 図5のうちステレオカメラ100が撮影した部分を切り出した画像を示す。6 shows an image obtained by cutting out a portion of FIG. 5 photographed by the stereo camera 100. FIG. ステレオカメラ100が撮像する位置が次第に変化していく様子を示す。It shows how the position captured by the stereo camera 100 changes gradually. ステレオカメラ100が撮像する位置が次第に変化していく様子を示す。It shows how the position captured by the stereo camera 100 changes gradually. ステレオカメラ100が撮像する位置が次第に変化していく様子を示す。It shows how the position captured by the stereo camera 100 changes gradually. 回転機構200の例を示す。An example of a rotating mechanism 200 is shown. 撮影方向を変えたときのステレオカメラ100の状態を示す。The state of the stereo camera 100 when the shooting direction is changed is shown. 図17の別表現である。FIG. 17 is another representation of FIG. ステレオカメラ100の機能ブロック図である。2 is a functional block diagram of stereo camera 100. FIG. 立体物を検知する際におけるステレオカメラ100の露光および感度設定について示すグラフである。5 is a graph showing exposure and sensitivity settings of the stereo camera 100 when detecting a three-dimensional object; 画像ブレが発生しにくい場合における、ステレオカメラ100の露光および感度設定について示すグラフである。4 is a graph showing exposure and sensitivity settings of stereo camera 100 when image blurring is unlikely to occur. 露光時間に比べてフレームレートが十分に長い場合における、画像取得タイミングを示す図である。FIG. 10 is a diagram showing image acquisition timing when the frame rate is sufficiently longer than the exposure time; フレーム画像を合算する場合における処理タイミングを示す。FIG. 10 shows the processing timing when combining frame images; FIG. ステレオカメラ100の左右画像の一方の例である。4 is an example of one of left and right images of the stereo camera 100. FIG. 可変焦点カメラによって撮影した画像の例である。It is an example of an image captured by a varifocal camera. 実施形態2における障害物検知システム1の構成図である。2 is a configuration diagram of an obstacle detection system 1 according to Embodiment 2. FIG. 光軸を下側に向けたときの画像例である。It is an example of an image when the optical axis is directed downward. 実施形態3における障害物検知システム1の構成図である。FIG. 11 is a configuration diagram of an obstacle detection system 1 according to Embodiment 3;

<実施の形態1>
図1は、本発明の実施形態1に係る障害物検知システム1の概略構成図である。障害物検知システム1は、車両が搭載することにより、同車両の走行予定軌道上における障害物を検知するシステムである。本実施形態においては、列車に障害物検知システム1を搭載した例を説明する。障害物検知システム1は、ステレオカメラ100(遠方監視カメラ)、回転機構200、投光器300、カメラ400(近傍監視部)、コントローラ500を備える。
<Embodiment 1>
FIG. 1 is a schematic configuration diagram of an obstacle detection system 1 according to Embodiment 1 of the present invention. The obstacle detection system 1 is a system that is mounted on a vehicle to detect obstacles on a planned travel track of the vehicle. In this embodiment, an example in which the obstacle detection system 1 is mounted on a train will be described. The obstacle detection system 1 includes a stereo camera 100 (distant monitoring camera), a rotating mechanism 200 , a light projector 300 , a camera 400 (near monitoring section), and a controller 500 .

ステレオカメラ100は、車両の遠方を撮影することにより、遠方の障害物を検知するためのものである。ステレオカメラ100は、2つのカメラで構成される。回転機構200は、ステレオカメラ100の各カメラの撮影方向を変更する。投光器300は、車両の遠方に対して光を照射する。カメラ400は、車両の近傍(ステレオカメラ100が撮影する距離よりも近い位置)を撮影する。コントローラ500はカメラ400とステレオカメラ100を制御する。 The stereo camera 100 is for detecting a distant obstacle by photographing a distant object of the vehicle. Stereo camera 100 is composed of two cameras. The rotation mechanism 200 changes the shooting direction of each camera of the stereo camera 100 . The light projector 300 irradiates light far away from the vehicle. Camera 400 photographs the vicinity of the vehicle (a position closer than the distance photographed by stereo camera 100). Controller 500 controls camera 400 and stereo camera 100 .

ステレオカメラ100は、カメラ光軸を基準にした撮影方向情報aをコントローラ500に送る。同様に近傍カメラ400は、撮影画像上に映っている路面あるいは線路の座標情報bをコントローラ500に送る。コントローラ500は、情報aおよびbに基づいて、ステレオカメラ100を所定の撮影方向に向ける駆動信号を回転機構200に送る。回転機構200はその方向にステレオカメラ100の撮影方向を向ける。コントローラ500は、情報aおよびbに基づいて、配光方向情報を投光器300に送る。投光器300は、その方向に配光方向を向ける。 The stereo camera 100 sends the shooting direction information a based on the camera optical axis to the controller 500 . Similarly, the proximity camera 400 sends to the controller 500 the coordinate information b of the road surface or railroad track shown on the captured image. Based on the information a and b, the controller 500 sends a drive signal to the rotation mechanism 200 to orient the stereo camera 100 in a predetermined photographing direction. The rotation mechanism 200 directs the imaging direction of the stereo camera 100 in that direction. The controller 500 sends light distribution direction information to the light projector 300 based on the information a and b. The light projector 300 directs the light distribution direction in that direction.

図2は、ステレオカメラ100が車両近傍を撮影できない状況を模式的に示した図である。ステレオカメラ100は、遠方障害物を検知するために、レンズの焦点距離は長く、画角は狭い。一般的に前方監視カメラは光軸を略水平に設置するので、図2のように画角が狭いほど、画像内に路面が映り始める距離cは遠方にシフトし、dで示した画像に映らないレンズ直下や近傍の路面の範囲は拡大する。 FIG. 2 is a diagram schematically showing a situation in which the stereo camera 100 cannot photograph the vicinity of the vehicle. The stereo camera 100 has a lens with a long focal length and a narrow angle of view in order to detect distant obstacles. In general, the front monitoring camera is installed with the optical axis almost horizontal, so the narrower the angle of view as shown in Fig. 2, the farther the distance c at which the road surface starts to appear in the image, and the more the road surface appears in the image shown by d. The range of the road surface directly under or near the lens that does not have a lens is expanded.

図3は、車両の走行予定軌道の例を示す上面模式図である。図3のように走行予定軌道(例えば道路や線路)の曲率半径が小さいカーブほど画角が必要であり、同じ曲率半径なら遠方ほど画角が必要になる。つまり焦点距離が長いほど道路や線路が画面に映らなくなる。 FIG. 3 is a schematic top view showing an example of the planned travel track of the vehicle. As shown in FIG. 3, the smaller the radius of curvature of the planned travel track (for example, a road or railway), the greater the angle of view required. In other words, the longer the focal length, the less roads and railroads appear on the screen.

道路や線路などの走行予定軌道が画像から検出できない場合、夜間などにおける光量不足によって適切に検出できない場合と、走行予定軌道が画像内に映っていない場合とが考えられる。原因が複数ある場合には確実に克服できる原因から対策するのが好ましい。この場合はまず走行予定軌道が画像内に映るように障害物検知システム1を操作し、その後で確実に映っている走行予定軌道を検知するために露光調整や画像処理を実施することが望ましい。そこで以下では、走行予定軌道を確実に画像内に映すための動作例について説明する。 It is conceivable that the planned travel track such as a road or railroad track cannot be detected from the image, that it cannot be properly detected due to insufficient light at night, or that the planned travel track is not shown in the image. If there are multiple causes, it is preferable to take measures starting from the cause that can be reliably overcome. In this case, it is desirable to first operate the obstacle detection system 1 so that the planned travel route is captured in the image, and then perform exposure adjustment and image processing in order to reliably detect the planned travel route. Therefore, an operation example for reliably displaying the planned travel track in the image will be described below.

図4は、ステレオカメラ100とカメラ400それぞれの撮影範囲の1例を示す。外側の太黒実線がカメラ400の撮影範囲であり、内側の太黒実線がステレオカメラ100の右カメラの撮影範囲である。カメラ400画像上の白点線は、路面の勾配やカーブ度合いに寄らず走行予定軌道が映ることが保証される領域である。これはカメラ400の画角を十分に確保し、白点線のY座標を適切に設定すれば可能である。コントローラ500は白点線上で走行予定軌道を探索し、走行予定軌道のX座標(図4の白丸)を求める。コントローラ500は、ステレオカメラ100の撮影方向に相当する情報(例えばステレオカメラ100画面中央のカメラ400画面上の座標など)を有しており、画面中央情報と前述の白丸座標からステレオカメラ100の撮影方向とその量を決定する。これは、カメラ400の画像に基づきステレオカメラ100の撮影方向を粗調整することに該当する。 FIG. 4 shows an example of the imaging ranges of the stereo camera 100 and the camera 400, respectively. The thick black solid line on the outside is the shooting range of the camera 400 , and the thick black solid line on the inside is the shooting range of the right camera of the stereo camera 100 . The white dotted line on the image of the camera 400 is an area in which it is guaranteed that the planned travel trajectory will be captured regardless of the gradient or degree of curve of the road surface. This is possible by securing a sufficient angle of view of the camera 400 and appropriately setting the Y coordinate of the white dotted line. The controller 500 searches for the planned travel trajectory on the white dotted line and obtains the X coordinate (white circle in FIG. 4) of the planned travel trajectory. The controller 500 has information corresponding to the imaging direction of the stereo camera 100 (for example, the coordinates on the screen of the camera 400 at the center of the screen of the stereo camera 100), and the imaging of the stereo camera 100 is performed based on the screen center information and the coordinates of the white circle. Determine direction and amount. This corresponds to rough adjustment of the photographing direction of the stereo camera 100 based on the image of the camera 400 .

図5は、ステレオカメラ100の撮影方向を粗調整した後の画像を示す。ここでいう粗調整とは、以下に説明する微調整を実施する前の時点において、大まかな撮影方向を決定することである。 FIG. 5 shows an image after roughly adjusting the imaging direction of the stereo camera 100 . The rough adjustment here means to roughly determine the photographing direction before performing the fine adjustment described below.

図6は、ステレオカメラ100の撮影方向を粗調整した後に着目点を決定する様子を示す図である。コントローラ500がステレオカメラ100の撮影方向を粗調整した後、ステレオカメラ100は画面に映っている走行予定軌道の3次元座標を計測し、その結果に基づき撮影方向のターゲットとなる着目点(図6の黒丸)を決定する。ここでいう微調整とは、粗調整によって大まかに決定した撮影方向をさらに細かく調整することであり、着目点を決定することが目的である。 FIG. 6 is a diagram showing how the point of interest is determined after the shooting direction of the stereo camera 100 is roughly adjusted. After the controller 500 roughly adjusts the photographing direction of the stereo camera 100, the stereo camera 100 measures the three-dimensional coordinates of the planned travel track displayed on the screen, and based on the result, determines a point of interest (see FIG. 6) as a target of the photographing direction. black circle). The fine adjustment here means to further finely adjust the shooting direction roughly determined by the rough adjustment, and the purpose is to determine the point of interest.

図7~図11は、着目点の例を示す。いずれの図も着目点を黒丸で示している。以下これらの図を用いて、着目点の例を説明する。 7 to 11 show examples of points of interest. In both figures, points of interest are indicated by black circles. Examples of points of interest will be described below with reference to these figures.

図7は、走行予定軌道が直線であり、ステレオカメラ100の検知範囲(ステレオカメラ100が撮像した画像から物体を検知できる最大距離としてステレオカメラ100の仕様上定められているもの)以上の遠方が映っている画像である。ステレオカメラ100はこの場合、ステレオカメラ100検知範囲の最遠位置を着目点とする。 In FIG. 7, the planned travel trajectory is a straight line, and the distance beyond the detection range of the stereo camera 100 (the maximum distance at which an object can be detected from the image captured by the stereo camera 100 is defined in the specifications of the stereo camera 100). This is the image shown. In this case, the stereo camera 100 takes the farthest position in the detection range of the stereo camera 100 as the point of interest.

図8は、図7と同様に検知範囲以上の遠方が映っている例である。ステレオカメラ100は図8においても検知範囲の最遠位置を着目点とする。 FIG. 8 is an example in which a distant object beyond the detection range is shown, as is the case with FIG. The stereo camera 100 takes the farthest position of the detection range as the focus point in FIG. 8 as well.

図9は、ステレオカメラ100から見て手前は上り坂であり、その先が下り坂になっている例である。図9においては、検知範囲の途中から下り坂になっているので、検知範囲の最遠位置が見通せない。ステレオカメラ100はこの場合、見通せる最遠位置を着目点とする。 FIG. 9 shows an example in which an uphill is in front of the stereo camera 100 and a downhill is ahead. In FIG. 9, the farthest position of the detection range cannot be seen because the detection range slopes downward from the middle. In this case, the stereo camera 100 takes the farthest position that can be seen as the point of interest.

図10は、電柱その他の構造物によって検知範囲の最遠位置が見通せない例である。ステレオカメラ100はこの場合、見通せる最遠位置(構造物によって遮られていない範囲のなかで最遠位置)を着目点とする。 FIG. 10 shows an example in which the farthest position of the detection range cannot be seen due to a utility pole or other structure. In this case, the stereo camera 100 takes the farthest position that can be seen (the farthest position in the range not blocked by the structure) as the point of interest.

図11は、走行予定軌道の左に駅がある例である。ステレオカメラ100はこの場合、車両の停車位置よりも所定距離だけ前方を着目点とする。例えば停車位置よりも前方であってかつ撮影可能範囲の最近傍点を、着目点とすることができる。ただし停車位置よりも前方であれば、必ずしも最近傍撮影可能点でなくともよい。 FIG. 11 shows an example where a station is on the left of the planned travel track. In this case, the stereo camera 100 focuses on a point a predetermined distance ahead of the vehicle stop position. For example, the point of interest can be a point that is ahead of the stop position and is closest to the photographable range. However, as long as it is ahead of the stop position, it does not necessarily have to be the nearest photographable point.

図7~図11において説明したように、ステレオカメラ100は、(a)走行予定軌道におけるステレオカメラ100の検知仕様の最遠点、(b)走行予定軌道が地形や建物により遮られる場合は見通し可能な最遠点、(c)走行予定軌道のうち自車が停止する予定位置から所定距離だけ前方、のいずれかを、着目点とする。 As described with reference to FIGS. 7 to 11, the stereo camera 100 detects (a) the farthest point of the detection specification of the stereo camera 100 on the planned travel route, and (b) the line of sight when the planned travel route is blocked by terrain or buildings. Either the farthest possible point or (c) a predetermined distance ahead of the planned stop position of the own vehicle on the planned travel track is set as the point of interest.

図12~図15は、ステレオカメラ100の撮影方向を微調整する過程を示す。図12~図15を用いて微調整動作について説明する。 12 to 15 show the process of finely adjusting the photographing direction of the stereo camera 100. FIG. The fine adjustment operation will be described with reference to FIGS. 12 to 15. FIG.

図12は、図5のうちステレオカメラ100が撮影した部分を切り出した画像を示す。白丸は図5で説明した走行予定軌道の座標である。黒丸は着目点である。コントローラ500は、左右カメラの切り出し画像から、まず視差画像を算出し、次に走行予定軌道の3次元座標を算出することにより、着目点を決定する。 FIG. 12 shows an image obtained by cutting out a portion captured by the stereo camera 100 in FIG. The white circles are the coordinates of the planned travel track described with reference to FIG. A black circle is a point of interest. The controller 500 first calculates a parallax image from the cropped images of the left and right cameras, and then calculates the three-dimensional coordinates of the planned travel trajectory, thereby determining the point of interest.

縦の点線は、着目点の座標目標である。右側の点線より右のエリアに着目点座標がある場合はステレオカメラ100の撮影方向を右にシフトさせ、あるいは切り出し位置を右にシフトする。左側の点線より左のエリアに着目点座標がある場合はステレオカメラ100の撮影方向を左にシフトさせ、あるいは切り出し位置を左にシフトする。図12に示した矢印はシフト量を示している。これらの画面シフトは、撮影方向と切り出し領域のいずれによって実行してもよい。ただし画像流れを回避するために、機械的なカメラ向きの変更は着目点の距離に応じて設定した上限を超えない速度で実施し、不足分は切り出し範囲で調整することが望ましい。すなわち、着目点が遠いほどカメラ向きの回転速度を遅くするとともに、回転速度が上限閾値に達するのであれば、回転速度を上限閾値以下にした上で切り出し範囲の微調整によって画面シフトさせる。 The vertical dotted line is the coordinate target of the point of interest. If the coordinates of the point of interest are in the area to the right of the dotted line on the right, the imaging direction of the stereo camera 100 is shifted to the right, or the cutout position is shifted to the right. If the coordinates of the point of interest are in the area to the left of the dotted line on the left, the imaging direction of the stereo camera 100 is shifted to the left, or the cutout position is shifted to the left. Arrows shown in FIG. 12 indicate shift amounts. These screen shifts may be performed according to either the shooting direction or the clipping area. However, in order to avoid image smearing, it is desirable to mechanically change the orientation of the camera at a speed that does not exceed the upper limit set according to the distance to the point of interest, and to adjust the shortfall within the clipping range. That is, the farther the point of interest is, the slower the rotational speed toward the camera is, and if the rotational speed reaches the upper threshold, the screen is shifted by finely adjusting the cropping range after reducing the rotational speed to the upper threshold or less.

図13~図15は、ステレオカメラ100が撮像する位置が次第に変化していく様子を示す。切り出し画像を関係者がモニタすることを想定しているので、切り出し領域も滑らかに変化するように切り出し位置を設定する。したがって図13~図14のように風景は徐々に移動し、図15のように点線位置に着目点が来た時点で、切り出しを終了する。 13 to 15 show how the position captured by the stereo camera 100 changes gradually. Since it is assumed that the clipped image will be monitored by a person concerned, the clipping position is set so that the clipping area also changes smoothly. Therefore, the scenery gradually moves as shown in FIGS. 13 and 14, and when the point of interest comes to the dotted line position as shown in FIG. 15, the clipping ends.

図16は、回転機構200の例を示す。回転機構200は、図16のように左右2つのカメラごとに鉛直方向の回転軸(図16の黒丸)を有する構造である。別の方式として図16の白丸で示すような筐体の中心に回転軸を設ける方法があり、この場合は回転機構および駆動機構が1つで足りるので簡潔な構造を実現できる反面、回転に伴うスペースを必要とする。カメラごとに回転させることにより、遠距離化に伴って長基線ステレオカメラであっても狭スペースを実現できるほか、左右独立構造のステレオカメラにも本実施形態を適用可能である。 FIG. 16 shows an example of the rotation mechanism 200. As shown in FIG. As shown in FIG. 16, the rotation mechanism 200 has a vertical rotation axis (black circle in FIG. 16) for each of the two left and right cameras. As another method, there is a method of providing a rotating shaft at the center of the housing as indicated by the white circle in FIG. Requires space. By rotating each camera, a narrow space can be realized even with a long baseline stereo camera as the distance increases, and the present embodiment can also be applied to a stereo camera with an independent left and right structure.

図17は、撮影方向を変えたときのステレオカメラ100の状態を示す。 FIG. 17 shows the state of the stereo camera 100 when the shooting direction is changed.

図18は、図17の別表現である。図17は、見方を変えると図18のように描くことができる。図18から、撮影方向の向きによって基線長やカメラの光軸方向の位置が変わることがわかる。 FIG. 18 is another representation of FIG. FIG. 17 can be drawn as shown in FIG. 18 from a different point of view. From FIG. 18, it can be seen that the base line length and the position of the camera in the optical axis direction change depending on the shooting direction.

光軸方向の位置の変化によって画像の倍率が変化する。倍率をM、撮影方向をθ、基線長をLとした場合、対象物体の距離Xの倍率Mは、下記式によって表される。物体距離は視差を求める以前は不明なのでX=“検知距離の最大”として倍率を算出する。 A change in the position along the optical axis changes the magnification of the image. Assuming that the magnification is M, the imaging direction is θ, and the baseline length is L, the magnification M of the distance X of the target object is expressed by the following equation. Since the object distance is unknown before obtaining the parallax, the magnification is calculated with X=“maximum detection distance”.

M(left)=(X-L/2・sinθ)/X (式1)
M(right)=(X+L/2・sinθ)/X (式2)
M (left) = (XL / 2 · sin θ) / X (Equation 1)
M (right) = (X + L / 2 · sin θ) / X (Equation 2)

近傍の物体ほど物体の大きさが左右画像間で異なり、測距誤差が大きくなるので、近傍側の検知範囲を設定するためには、撮影方向に応じた考慮が必要になる。上記式によって算出した倍率で左右画像を補正すると、検知距離の最大付近の遠方物体は従来通り視差を算出することが可能である。 Since the closer the object is, the size of the object differs between the left and right images, and the distance measurement error increases. Therefore, in order to set the detection range on the near side, it is necessary to consider the shooting direction. By correcting the left and right images with the magnification calculated by the above formula, it is possible to calculate the parallax of a distant object near the maximum detection distance in the conventional manner.

図19は、ステレオカメラ100の機能ブロック図である。ステレオカメラ100は、撮像センサ101と102、歪補正部103と104、画像処理部105と106、視差検出部107、物体検知部108、演算部109を備える。撮像センサ101と102、歪補正部103と104、画像処理部105と106は、それぞれ左カメラと右カメラに対応する処理を実施する。 FIG. 19 is a functional block diagram of stereo camera 100. As shown in FIG. Stereo camera 100 includes imaging sensors 101 and 102 , distortion correction units 103 and 104 , image processing units 105 and 106 , parallax detection unit 107 , object detection unit 108 and calculation unit 109 . Image sensors 101 and 102, distortion correction units 103 and 104, and image processing units 105 and 106 perform processing corresponding to the left camera and right camera, respectively.

演算部109は、コントローラ500から送られた角度情報aに基づいて、撮影画像の切り出し情報cをセンサ101と102に送り、回転済角度情報dを歪補正部103、104に送り、基線長情報eを物体検知部108に送る。センサ101と102は所定周期ごとに同期撮影を実施し、送られた切り出し情報cに基づいて画像を切り出して、切り出した画像を歪補正部103と104に送る。歪補正部103と104は、送られた画像を、事前に取得した光学歪補正情報と送られた回転済角度情報dに基づいて補正し、補正画像を画像処理部105と106および視差検出部107に送る。画像処理部105と106は、必要に応じて、送られた補正画像に対してコントラスト補正やノイズリダクションなどの画像処理を実施し、処理画像を視差検出部107に送る。視差検出部107は、画像処理部105と106から送られた補正画像から視差画像を生成するとともに、画像処理部105と106から送られた処理画像から必要に応じて視差画像を生成し、生成した各視差画像を物体検知部108に送る。物体検知部108は、送られた視差画像と基線長情報eに基づいて各画素の3次元情報を得るとともに、物体あるいは走行予定軌道を検出する。 Based on the angle information a sent from the controller 500, the calculation unit 109 sends cut-out information c of the captured image to the sensors 101 and 102, sends rotated angle information d to the distortion correction units 103 and 104, and outputs baseline length information. e is sent to the object detection unit 108 . The sensors 101 and 102 perform synchronous photography at predetermined intervals, cut out images based on the sent cut-out information c, and send the cut-out images to the distortion correction units 103 and 104 . Distortion correction units 103 and 104 correct the sent images based on the optical distortion correction information acquired in advance and the sent rotated angle information d, and the corrected images are sent to image processing units 105 and 106 and parallax detection units. Send to 107. The image processing units 105 and 106 perform image processing such as contrast correction and noise reduction on the corrected images as necessary, and send the processed images to the parallax detection unit 107 . The parallax detection unit 107 generates parallax images from the corrected images sent from the image processing units 105 and 106, and generates parallax images from the processed images sent from the image processing units 105 and 106 as necessary. Each parallax image thus obtained is sent to the object detection unit 108 . The object detection unit 108 obtains three-dimensional information of each pixel based on the sent parallax image and base line length information e, and detects an object or a planned traveling trajectory.

上記とは別の方法として、画像上での倍率補正はせずに、算出した視差を対象物の距離へ換算する際に、左右の基線長差に基づく距離補正と着目画素座標に基づいた測距補正をしてもよい。この場合は立体物距離に依存する誤差は微小であり精度よい距離測定が可能である。この場合、図19において回転済角度情報dの代わりに、演算部109から物体検知部108へ距離補正情報fを送ればよい。 As an alternative method to the above, when converting the calculated parallax into the distance of the object without performing magnification correction on the image, distance correction based on the left and right base line length difference and measurement based on the pixel coordinates of interest are performed. Distance correction may be performed. In this case, the error depending on the three-dimensional object distance is very small, and accurate distance measurement is possible. In this case, instead of the rotated angle information d in FIG.

投光器300は通常、着目点を中心に照明されるように配光方向を決定する。ただし、図4のようにカメラ400の白点線上で走行予定軌道を探索している場合は、探索動作に同期して白点線上を順に照明するように配光方向を横方向にシフトする。その後、コントローラ500は白丸を起点として走行予定軌道に沿って3次元データを算出し、配光方向を遠方へシフトする。配光角や光強度は取得画像に基づいて設定すればよい。つまり、取得画像の画素値から照明光が不十分であると判断される場合、コントローラ500は配光強度を上げるかまたは配光角を絞るかの少なくともいずれかによって着目点の照度を向上する。反対に着目点の照度が十分に得られている場合、コントローラ500はカメラ画角と同程度に配光角を広げる。 The light projector 300 normally determines the light distribution direction so that the target point is illuminated. However, when searching for a planned travel track on the white dotted line of the camera 400 as shown in FIG. After that, the controller 500 calculates three-dimensional data along the planned travel trajectory with the white circle as a starting point, and shifts the light distribution direction farther. The light distribution angle and light intensity may be set based on the obtained image. That is, when it is determined from the pixel values of the acquired image that the illumination light is insufficient, the controller 500 increases the illuminance at the point of interest by at least either increasing the light distribution intensity or narrowing the light distribution angle. Conversely, when the illuminance of the point of interest is sufficiently obtained, the controller 500 widens the light distribution angle to the same extent as the angle of view of the camera.

検知した立体物が障害物か否かを判断する1つの要素として、立体物が走行予定軌道付近にあるか、あるいは走行予定軌道付近に向かって来ているかなど、走行予定軌道と立体物との間の相対位置情報が重要である。したがって障害物を検知するためには、走行予定軌道を検知していることが重要である。日中は立体物と路面とも十分な照度を得ることができるので、検知性能を確保することができる。夜間は照度が不足するので、露光時間や撮像感度を上げるほかに投光器300による照度向上が必要になる。投光器300を車両に搭載する場合、投光方向と照射面が正対する立体物よりも、投光方向とほぼ平行な路面の方がコントラストを得にくいので、コントラストを得るための工夫が必要になる。以下ではそのための工夫について説明する。 One of the factors for determining whether the detected three-dimensional object is an obstacle is whether the three-dimensional object is in the vicinity of the planned travel route or whether it is approaching the vicinity of the planned travel route. Relative position information between is important. Therefore, in order to detect obstacles, it is important to detect the planned travel track. Sufficient illuminance can be obtained from both the three-dimensional object and the road surface during the day, so detection performance can be ensured. Since the illuminance is insufficient at night, it is necessary to improve the illuminance by the light projector 300 in addition to increasing the exposure time and imaging sensitivity. When the light projector 300 is mounted on a vehicle, it is difficult to obtain contrast on a road surface that is substantially parallel to the light projection direction than on a three-dimensional object in which the light projection direction and the irradiation surface face each other. . In the following, a device for that purpose will be described.

図20は、立体物を検知する際におけるステレオカメラ100の露光および感度設定について示すグラフである。グラフの横軸は露光時間であり、縦軸は感度である。日中は露光時間は短く、感度は低く設定する。取得画像の画素値に応じて露光時間や感度を上げて輝度を確保する。感度は上げすぎるとノイズが発生するので、上限値gを設定する。露光時間は長すぎると画像ブレが発生するので、自車速度に応じた上限値h1~h2を設定する。この動作は通常の立体物検知に用いられ、図19におけるセンサ101、歪補正部103、視差検出部107に至る経路、およびセンサ102、歪補正部104、視差検出部107に至る経路によって処理される。 FIG. 20 is a graph showing exposure and sensitivity settings of stereo camera 100 when detecting a three-dimensional object. The horizontal axis of the graph is exposure time, and the vertical axis is sensitivity. During the day, set the exposure time to short and the sensitivity to low. The brightness is ensured by increasing the exposure time and sensitivity according to the pixel value of the acquired image. If the sensitivity is too high, noise will occur, so the upper limit g is set. If the exposure time is too long, image blurring occurs, so the upper limit values h1 to h2 are set according to the vehicle speed. This operation is used for normal three-dimensional object detection, and is processed by the path leading to sensor 101, distortion correcting section 103, and parallax detecting section 107 in FIG. be.

図21は、画像ブレが発生しにくい場合における、ステレオカメラ100の露光および感度設定について示すグラフである。白線やレールなどのように走行予定軌道が直線や曲率半径一定のカーブである場合(すなわち曲率半径の変化がある範囲内である場合、以下同様)、画像ブレが発生しにくい特徴がある。例えば図7のような画像においては、走行予定軌道の画像上位置は時間経過に対して比較的安定している。この場合、走行予定軌道を検知するために用いる画像は、図21のように露光時間を立体物検知用の画像より十分長くして取得することが可能になる。 FIG. 21 is a graph showing exposure and sensitivity settings of stereo camera 100 when image blurring is unlikely to occur. If the planned travel track is a straight line or a curve with a constant radius of curvature, such as a white line or rail (i.e., if the radius of curvature is within a range where the radius of curvature varies, the same applies hereinafter), there is a feature that image blurring is less likely to occur. For example, in an image such as that shown in FIG. 7, the position of the planned travel track on the image is relatively stable over time. In this case, the image used for detecting the planned travel trajectory can be acquired with the exposure time sufficiently longer than the image for detecting the three-dimensional object, as shown in FIG.

図22は、露光時間に比べてフレームレートが十分に長い場合における、画像取得タイミングを示す図である。この場合は図22のように、立体物検知用の画像を取得(h2)した後で予定軌道検知用画像を取得(h3)すればよい。走行予定軌道用画像を取得するほどフレームレートが長くない場合は、画像処理部105と106は前回フレームの画像を保存し、今回フレームの画像と加算することにより、等価的に露光量を増加することができる。 FIG. 22 is a diagram showing image acquisition timing when the frame rate is sufficiently longer than the exposure time. In this case, as shown in FIG. 22, the image for detecting the planned trajectory is obtained (h3) after the image for detecting the three-dimensional object is obtained (h2). If the frame rate is not long enough to acquire the image for the planned travel trajectory, the image processing units 105 and 106 store the previous frame image and add it to the current frame image to equivalently increase the exposure amount. be able to.

図23は、フレーム画像を合算する場合における処理タイミングを示す。図23上段はセンサ101と102の露光時間とフレームレートを示す。図23中段は画像処理部105と106による画像保存タイミングを示す。図23下段は今回フレームと前回フレームを加算処理するタイミングを示す。特に走行予定軌道が直線や曲率半径一定のカーブである場合は、フレーム画像を足し合わせても画像ブレが発生しにくいので、足し合わせによってコントラストを向上させることが有用である。 FIG. 23 shows the processing timing when combining frame images. The upper part of FIG. 23 shows the exposure times and frame rates of the sensors 101 and 102 . The middle part of FIG. 23 shows the image storage timing by the image processing units 105 and 106 . The lower part of FIG. 23 shows the timing of addition processing of the current frame and the previous frame. In particular, when the planned travel trajectory is a straight line or a curve with a constant radius of curvature, image blurring is less likely to occur even if the frame images are added, so it is useful to improve the contrast by adding.

露光時間に比べてフレームレートが十分に長い場合の別の方法として、ステレオカメラ100の左右画像の一方を他方の視点に置き換える視点移動処理を実施して、他方の画像に足し込むこともできる。この場合もフレーム加算と同等の効果が得られる。 As another method when the frame rate is sufficiently long compared to the exposure time, it is also possible to perform viewpoint movement processing for replacing one of the left and right images of the stereo camera 100 with the other viewpoint and add it to the other image. In this case as well, an effect equivalent to that of frame addition can be obtained.

以上は走行予定軌道の画像コントラストを高める方法を説明したが、画像輝度も同様の手法によって高めることができる。コントラストと輝度のうち少なくともいずれかを高めることができれば、その限りにおいて、走行予定軌道をより確実に検出することができるといえる。 Although the method for enhancing the image contrast of the planned travel track has been described above, the image brightness can also be enhanced by a similar method. If at least one of the contrast and brightness can be increased, it can be said that the planned travel trajectory can be detected more reliably.

図24は、ステレオカメラ100の左右画像の一方の例である。図7を左画像としたときの右画像は図24のようになる。路面平面に対して視点移動処理を実施すると、路面平面上の走行予定軌道を左画像と一致させることができる。 FIG. 24 is an example of one of left and right images of stereo camera 100 . FIG. 24 shows the right image when FIG. 7 is the left image. By performing the viewpoint movement processing on the road surface plane, it is possible to match the planned traveling trajectory on the road surface plane with the left image.

以上の説明において、ステレオカメラ100の撮影方向を左右方向に動かすことを説明したが、本発明はこれに限らない。傾斜がある場合には着目点は上下するので切り出し位置も上下にシフトさせてもよい。また撮影方向を機械的にシフトさせてもよい。 In the above description, it has been described that the imaging direction of the stereo camera 100 is moved in the horizontal direction, but the present invention is not limited to this. If there is an inclination, the point of interest moves up and down, so the clipping position may also be shifted up and down. Alternatively, the shooting direction may be mechanically shifted.

以上の説明において、着目点を決定するために走行予定軌道の3次元座標を視差画像から得ることを説明したが、本発明はこれに限らない。走行予定軌道の幅が既知の場合、その既知の道幅を用いて、カメラ画像/焦点距離/画素ピッチから、走行予定軌道の3次元座標を算出してもよい。この場合は、必ずしもステレオカメラを用いなくとも、走行予定軌道の3次元座標を得ることができる。 In the above description, it has been described that the three-dimensional coordinates of the planned travel trajectory are obtained from the parallax image in order to determine the point of interest, but the present invention is not limited to this. If the width of the planned travel track is known, the known road width may be used to calculate the three-dimensional coordinates of the planned travel track from the camera image/focal length/pixel pitch. In this case, the three-dimensional coordinates of the planned travel trajectory can be obtained without necessarily using a stereo camera.

本実施形態では、カメラ400の全画角は略70度としている。これは鉄道事業者が公開している加速度と曲率半径の関係から推定する必要画角67度に、取り付け精度を含めた値である。他のセンサを用いて車両近傍を監視する場合であっても、左右の検出画角は70~75度あれば十分である。したがってカメラ400の検出画角は、概ね65度~75度が必要である。 In this embodiment, the total angle of view of the camera 400 is approximately 70 degrees. This value includes the necessary angle of view of 67 degrees estimated from the relationship between the acceleration and the radius of curvature published by the railway company and the mounting accuracy. Even if other sensors are used to monitor the vicinity of the vehicle, a left and right detection angle of view of 70 to 75 degrees is sufficient. Therefore, the detection angle of view of the camera 400 should be about 65 degrees to 75 degrees.

本実施形態においては1つの投光器300を使用しているが、複数台の投光器300を用いても同等の効果が得られる。複数の場合は遠方投光用と近傍投光用に分担することもできる。近傍用投光器としては従来設備を利用することもできる。 Although one light projector 300 is used in this embodiment, the same effect can be obtained by using a plurality of light projectors 300 . If there are more than one, they can be shared between distant projection and near projection. Conventional equipment can also be used as the projector for the vicinity.

<実施の形態1:まとめ>
本実施形態1に係る障害物検知システム1は、白線やレールなどの走行予定軌道を確実に捕捉可能な近傍監視手段の情報に基づいて、ステレオカメラ100(遠方監視カメラ)と投光器300の向きを粗調整し、その後ステレオカメラ100が取得した3次元画像に基づいてステレオカメラ100と投光器300の向きを微調整する。これにより、物体検知に十分な像倍率を確保しながら走行予定軌道を安定して捕捉できる。すなわち、信頼性の高い障害物検知システム1を提供することができる。
<Embodiment 1: Summary>
The obstacle detection system 1 according to the first embodiment determines the direction of the stereo camera 100 (distant monitoring camera) and the light projector 300 based on the information of the near monitoring means that can reliably capture the planned traveling track such as the white line and the rail. After rough adjustment, the directions of the stereo camera 100 and the light projector 300 are finely adjusted based on the three-dimensional image acquired by the stereo camera 100 . As a result, the planned travel trajectory can be stably captured while ensuring an image magnification sufficient for object detection. That is, a highly reliable obstacle detection system 1 can be provided.

本実施形態1に係る障害物検知システム1は、走行予定軌道を検知するために用いる画像と、立体物を検知するために用いる画像との間で、露光条件を変えてそれぞれ取得するか、あるいはフレーム加算や視点移動後の加算を用いて、画像精度を確保する。これにより、夜間などのように照度やコントラストを十分確保できない場合であっても、走行予定軌道の輝度やコントラストを強調し、精度よく走行予定軌道を検知することができる。 The obstacle detection system 1 according to the first embodiment acquires the image used for detecting the planned travel trajectory and the image used for detecting the three-dimensional object by changing the exposure conditions, or Image accuracy is ensured by frame addition or addition after viewpoint movement. As a result, even when sufficient illuminance and contrast cannot be ensured, such as at night, the brightness and contrast of the planned travel route can be emphasized, and the planned travel route can be detected with high accuracy.

<実施の形態2>
実施形態1においては、近傍の走行予定軌道を検知する手段として広角のカメラを用いた。この役割を、ステレオカメラ100の左右カメラいずれか一方に担わせることも可能である。つまり、左右カメラのいずれか一方を可変焦点カメラによって構成する。
<Embodiment 2>
In Embodiment 1, a wide-angle camera is used as a means for detecting the planned travel track in the vicinity. Either one of the left and right cameras of the stereo camera 100 can play this role. That is, either one of the left and right cameras is configured with a variable focus camera.

図25は、可変焦点カメラによって撮影した画像の例である。ステレオカメラ100の可変焦点カメラのワイド側(焦点距離が短く広角)で撮影すると図25のような画像を取得し、テレ側(焦点距離が長く狭角)で撮影すると図12のような画像を取得する。 FIG. 25 is an example of an image captured by a varifocal camera. When shooting on the wide side (short focal length and wide angle) of the varifocal camera of the stereo camera 100, an image as shown in FIG. 25 is acquired, and when shooting on the tele side (long focal length and narrow angle), an image such as that shown in FIG. 12 is obtained. get.

図26は、本実施形態2における障害物検知システム1の構成図である。可変焦点カメラのズームメカニズムはステレオカメラ100内に含まれる。ステレオカメラ100は、左右カメラのいずれか一方をワイド側に設定し画像を撮影するとともに、カメラ光軸を基準にした撮影方向情報aをコントローラ500に送る。ステレオカメラ100は、撮影した画像上に映っている路面あるいは線路の座標情報bをコントローラ500に送る。コントローラ500は、情報aおよびbに基づいてステレオカメラ100を所定の撮影方向に向ける駆動信号を回転機構200に送るとともに、可変焦点カメラをテレ側へ設定変更するように要求する。コントローラ500は、情報aおよびbに基づいて配光方向情報を投光器300に送る。その他の処理プロセスは実施形態1と同等なので説明は省略する。 FIG. 26 is a configuration diagram of the obstacle detection system 1 according to the second embodiment. A variable focus camera zoom mechanism is contained within the stereo camera 100 . The stereo camera 100 sets either one of the left and right cameras to the wide-angle side to shoot an image, and sends shooting direction information a based on the camera optical axis to the controller 500 . The stereo camera 100 sends to the controller 500 the coordinate information b of the road surface or railroad track appearing on the photographed image. Based on the information a and b, the controller 500 sends to the rotation mechanism 200 a driving signal for directing the stereo camera 100 in a predetermined photographing direction, and also requests that the varifocal camera be changed to the tele side. The controller 500 sends light distribution direction information to the light projector 300 based on the information a and b. Since other processing processes are the same as those of the first embodiment, description thereof is omitted.

本実施形態においては、ワイド側の画像は走行予定軌道の2次元座標を得ることを目的にしているが、本実施形態はこれに限るものではない。つまり、ワイド側の画像を拡大あるいはテレ側の画像を縮小して左右重なりエリアをステレオ視することにより、3次元情報を得ることができる。現実にはワイド側画像においても歪補正や平行化の精度により3次元情報の取得性能と精度が影響を受けるので、ワイドとテレの双方に対する歪補正処理が必要になる可能性がある。 In the present embodiment, the purpose of the wide-side image is to obtain the two-dimensional coordinates of the planned travel track, but the present embodiment is not limited to this. That is, three-dimensional information can be obtained by enlarging the image on the wide side or reducing the image on the tele side and stereoscopically viewing the left and right overlapping areas. In reality, the accuracy of distortion correction and parallelization affects the performance and accuracy of obtaining three-dimensional information even in wide-angle images, so there is a possibility that distortion correction processing will be required for both wide-angle and telephoto.

<実施の形態3>
実施形態1においては、近傍の走行予定軌道を検知する手段として広角のカメラを用いた。この役割を、ステレオカメラ100の左右カメラいずれか少なくとも一方に担わせることも可能である。つまり、左右カメラのいずれかをピッチ方向(鉛直方向)に回転させて光軸を下側に向けることにより、確実に走行予定軌道を画角内に捕捉することができる。
<Embodiment 3>
In Embodiment 1, a wide-angle camera is used as a means for detecting the planned travel track in the vicinity. At least one of the left and right cameras of the stereo camera 100 can play this role. That is, by rotating one of the left and right cameras in the pitch direction (vertical direction) to direct the optical axis downward, the planned travel trajectory can be reliably captured within the angle of view.

図27は、光軸を下側に向けたときの画像例である。この場合は図27の点線のような画像を差得することができ、画像上部における走行予定軌道座標に基づいて、図27の実線のような画像を取得する。 FIG. 27 is an image example when the optical axis is directed downward. In this case, an image such as the dotted line in FIG. 27 can be obtained, and an image such as the solid line in FIG. 27 is acquired based on the planned traveling track coordinates in the upper part of the image.

図28は、本実施形態3における障害物検知システム1の構成図である。ピッチ回転部600は、ステレオカメラ100の左右カメラのいずれかをピッチ方向に回転させる。ステレオカメラ100は、光軸をピッチ方向下側に設定し画像を撮影するとともに、カメラ光軸を基準にした撮影方向情報aをコントローラ500に送る。撮影方向情報aは実施形態1とは異なり、ヨー方向情報に加えてピッチ方向情報も含んでいる。ステレオカメラ100は、撮影した画像上に映っている路面あるいは線路の座標情報bをコントローラ500に送る。コントローラ500は、情報aおよびbに基づいてステレオカメラ100を所定の撮影方向に向ける駆動信号を回転機構200とピッチ回転部600に送る。コントローラ500は、情報aおよびbに基づいて配光方向情報を投光器300に送る。その他の処理プロセスは実施形態1と同等なので説明は省略する。 FIG. 28 is a configuration diagram of the obstacle detection system 1 according to the third embodiment. The pitch rotation unit 600 rotates either the left or right camera of the stereo camera 100 in the pitch direction. The stereo camera 100 shoots an image with its optical axis set to the lower side in the pitch direction, and sends shooting direction information a based on the camera optical axis to the controller 500 . Unlike the first embodiment, the shooting direction information a includes pitch direction information in addition to yaw direction information. The stereo camera 100 sends to the controller 500 the coordinate information b of the road surface or railroad track appearing on the photographed image. The controller 500 sends a drive signal to the rotation mechanism 200 and the pitch rotation section 600 to orient the stereo camera 100 in a predetermined shooting direction based on the information a and b. The controller 500 sends light distribution direction information to the light projector 300 based on the information a and b. Since other processing processes are the same as those of the first embodiment, description thereof is omitted.

本実施形態3において、ステレオカメラ100は、遠方を撮影する動作モードと、近傍を撮影する動作モードを有することになる。ピッチ回転部600は、近傍撮影モードにおいては、カメラ光軸を遠方撮影モードよりも下方に傾ける。必ずしも厳密に鉛直方向に沿ってカメラを傾ける必要はなく、少なくとも遠方撮影モードのほうが近傍撮影モードよりも下方を向いていればよい。 In Embodiment 3, the stereo camera 100 has an operation mode for photographing a distant object and an operation mode for photographing a near object. The pitch rotation unit 600 tilts the camera optical axis downward in the close-up mode as compared to the long-distance shooting mode. It is not necessary to tilt the camera strictly along the vertical direction.

<本発明の変形例について>
本発明は、前述した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
<Regarding Modifications of the Present Invention>
The present invention is not limited to the embodiments described above, and includes various modifications. For example, the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the configurations described. Also, part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Moreover, it is possible to add, delete, or replace a part of the configuration of each embodiment with another configuration.

以上の実施形態において、車両近傍の状態を検出する手段としてカメラ400またはステレオカメラ100を用いることを説明したが、カメラ以外の手段によって車両近傍の状態を検出してもよい。例えばLidarなどの測距センサを用いることが考えられる。複数の検出手段を併用してもよい。 In the above embodiment, the camera 400 or the stereo camera 100 is used as means for detecting the state of the vicinity of the vehicle, but the state of the vicinity of the vehicle may be detected by means other than the camera. For example, it is conceivable to use a ranging sensor such as Lidar. A plurality of detection means may be used together.

ステレオカメラ100が備える各処理部(演算部109、歪補正部103と104、画像処理部105と106、視差検出部107、物体検知部108)とコントローラ500は、これらの機能を実装した回路デバイスなどのハードウェアによって構成することもできるし、これらの機能を実装したソフトウェアを演算装置が実行することによって構成することもできる。ハードウェアとソフトウェアを組み合わせて実装してもよい。 Each processing unit (computing unit 109, distortion correction units 103 and 104, image processing units 105 and 106, parallax detection unit 107, object detection unit 108) provided in stereo camera 100 and controller 500 are circuit devices implementing these functions. It can also be configured by hardware such as the above, or can be configured by an arithmetic unit executing software implementing these functions. It may be implemented by combining hardware and software.

以上の実施形態において、ステレオカメラ100が備える各処理部(演算部109、歪補正部103と104、画像処理部105と106、視差検出部107、物体検知部108)は、その少なくとも一部をコントローラ500上に集約してもよい。この場合、コントローラ500がその演算処理を実施することになる。 In the above embodiment, each processing unit (calculation unit 109, distortion correction units 103 and 104, image processing units 105 and 106, parallax detection unit 107, object detection unit 108) included in stereo camera 100 is at least partly It may be aggregated on the controller 500 . In this case, the controller 500 will perform the arithmetic processing.

1 障害物検知システム
100 ステレオカメラ
101、102 撮像センサ
103、104 歪補正部
105、106 画像処理部
107 視差検出部
108 物体検知部
109 演算部
200 回転機構
300 投光器
400 カメラ
500 コントローラ
1 Obstacle detection system 100 Stereo cameras 101, 102 Imaging sensors 103, 104 Distortion correction units 105, 106 Image processing unit 107 Parallax detection unit 108 Object detection unit 109 Operation unit 200 Rotation mechanism 300 Light projector 400 Camera 500 Controller

Claims (15)

車両の走行予定軌道上にある障害物を検知する障害物検知システムであって、
前記車両の近傍を監視する近傍監視部、
前記近傍監視部が監視する範囲よりも遠方を監視する遠方監視カメラ、
前記近傍監視部と前記遠方監視カメラを制御する演算部、
を備え、
前記演算部は、前記近傍監視部による監視結果を用いて、前記走行予定軌道を検出し、
前記演算部は、前記検出した前記走行予定軌道に基づいて、前記遠方監視カメラの撮影方向を粗調整し、
前記遠方監視カメラは、前記粗調整した撮影方向を撮影し、
前記演算部は、前記遠方監視カメラが撮影した遠方画像を用いて、前記走行予定軌道の3次元座標を算出し、
前記演算部は、前記3次元座標に基づいて、前記遠方監視カメラの着目点を決定し、
前記演算部は、前記決定した前記着目点に基づいて、前記遠方監視カメラの撮影方向を微調整する
ことを特徴とする障害物検知システム。
An obstacle detection system for detecting an obstacle on a planned travel track of a vehicle,
a proximity monitoring unit that monitors the vicinity of the vehicle;
a remote monitoring camera that monitors a farther area than the range monitored by the near field monitoring unit;
an arithmetic unit that controls the near monitoring unit and the remote monitoring camera;
with
The calculation unit detects the planned travel trajectory using the result of monitoring by the proximity monitoring unit,
The computing unit roughly adjusts the photographing direction of the remote monitoring camera based on the detected planned travel trajectory,
The remote monitoring camera captures the coarsely adjusted shooting direction,
The calculation unit calculates the three-dimensional coordinates of the planned travel trajectory using the distant image captured by the remote monitoring camera,
The calculation unit determines a point of interest of the remote monitoring camera based on the three-dimensional coordinates,
The obstacle detection system, wherein the calculation unit finely adjusts the photographing direction of the remote monitoring camera based on the determined focus point.
前記着目点は、
前記走行予定軌道上における前記遠方監視カメラの最遠検知点、
前記遠方監視カメラの撮影方向において前記走行予定軌道が遮られている場合における前記遠方監視カメラが撮影可能な最遠点、
前記走行予定軌道のうち前記車両が停止する予定の位置よりも前方の点、
のうち少なくともいずれかである
ことを特徴とする請求項1記載の障害物検知システム。
The point of interest is
the farthest detection point of the remote monitoring camera on the planned travel trajectory;
the furthest point that can be photographed by the remote monitoring camera when the planned travel path is blocked in the imaging direction of the remote monitoring camera;
a point ahead of a position where the vehicle is scheduled to stop on the planned travel track;
2. The obstacle detection system according to claim 1, wherein at least one of:
前記障害物検知システムはさらに、前記遠方監視カメラが撮影する場所に対して光を照射する投光器を備え、
前記演算部は、前記着目点に対して光を照射するように、前記投光器の配光方向を調整し、
前記演算部は、前記遠方画像における前記着目点の輝度が不十分である場合は、前記投光器の配光角を絞るかまたは前記投光器の光強度を上げるかのうち少なくともいずれかを実施する
ことを特徴とする請求項1記載の障害物検知システム。
The obstacle detection system further comprises a floodlight for irradiating the location photographed by the remote monitoring camera,
The computing unit adjusts the light distribution direction of the light projector so as to irradiate the point of interest with light,
When the brightness of the point of interest in the distant image is insufficient, the computing unit performs at least one of reducing the light distribution angle of the light projector and increasing the light intensity of the light projector. 2. The obstacle detection system according to claim 1.
前記演算部は、前記遠方画像から前記着目点を含む画像領域を切り出し、
前記演算部は、前記切り出した画像領域を用いて前記障害物を検知し、
前記演算部は、前記粗調整した撮影方向において前記遠方監視カメラが撮影した前記遠方画像のうち所定範囲内に前記着目点が含まれていない場合は、前記微調整を実施することにより、前記切り出した画像領域内に前記着目点が含まれるようにする
ことを特徴とする請求項1記載の障害物検知システム。
The computing unit cuts out an image region including the point of interest from the distant image,
The computing unit detects the obstacle using the clipped image area,
If the point of interest is not included within a predetermined range in the distant image captured by the remote monitoring camera in the coarsely adjusted shooting direction, the computing unit performs the fine adjustment to perform the clipping. 2. The obstacle detection system according to claim 1, wherein the point of interest is included in the image area obtained by the observation.
前記障害物検知システムはさらに、前記遠方監視カメラを機械的に回転させることにより前記撮影方向を変更する機構を備え、
前記演算部は、前記着目点が前記車両から第1距離にある場合は、第1回転速度で前記遠方監視カメラを回転させ、
前記演算部は、前記着目点が前記車両から前記第1距離よりも遠い第2距離にある場合は、前記第1回転速度よりも遅い第2回転速度で前記遠方監視カメラを回転させ、
前記演算部は、前記所定範囲内に前記着目点を含めるために必要な前記遠方監視カメラの回転速度が上限閾値を超える場合は、前記回転速度を前記上限閾値以下に抑えるとともに、前記画像領域を切り出す位置をシフトすることにより、前記切り出した画像領域内に前記着目点が含まれるようにする
ことを特徴とする請求項4記載の障害物検知システム。
The obstacle detection system further comprises a mechanism for changing the shooting direction by mechanically rotating the remote monitoring camera,
The computing unit rotates the remote monitoring camera at a first rotation speed when the point of interest is at a first distance from the vehicle,
The computing unit rotates the remote monitoring camera at a second rotation speed slower than the first rotation speed when the point of interest is at a second distance farther than the first distance from the vehicle,
When the rotation speed of the remote monitoring camera required to include the point of interest within the predetermined range exceeds an upper threshold, the calculation unit suppresses the rotation speed to the upper threshold or less, and reduces the image area. 5. The obstacle detection system according to claim 4, wherein the point of interest is included in the clipped image area by shifting the clipping position.
前記遠方監視カメラは、第1カメラと第2カメラを有するステレオカメラであり、
前記障害物検知システムはさらに、前記第1カメラと前記第2カメラを機械的に回転させることにより前記撮影方向を変更する機構を備え、
前記演算部は、前記第1カメラと前記第2カメラを回転させることにより生じた画像倍率の変動を補正するか、または、前記第1カメラと前記第2カメラを回転させることにより生じた測距誤差を補正し、
前記演算部は、前記補正した画像倍率または前記補正した測距誤差を用いて、前記走行予定軌道および前記障害物を検出する
ことを特徴とする請求項1記載の障害物検知システム。
the remote monitoring camera is a stereo camera having a first camera and a second camera,
The obstacle detection system further comprises a mechanism for changing the photographing direction by mechanically rotating the first camera and the second camera,
The calculation unit corrects a change in image magnification caused by rotating the first camera and the second camera, or measures distance caused by rotating the first camera and the second camera. correct the error,
The obstacle detection system according to claim 1, wherein the calculation unit detects the planned travel path and the obstacle using the corrected image magnification or the corrected distance measurement error.
前記遠方監視カメラはステレオカメラであり、
前記演算部は、前記遠方監視カメラが取得した視差画像に基づき、前記3次元座標を算出する
ことを特徴とする請求項1記載の障害物検知システム。
the remote monitoring camera is a stereo camera,
2. The obstacle detection system according to claim 1, wherein the calculation unit calculates the three-dimensional coordinates based on parallax images acquired by the remote monitoring camera.
前記近傍監視部は、前記演算部が前記走行予定軌道を検出するために用いる近傍画像を撮像し、
前記遠方監視カメラは、前記演算部が前記障害物を検出するために用いる前記遠方画像を撮像し、
前記近傍画像と前記遠方画像は、前記近傍画像の輝度が前記遠方画像の輝度よりも高いか、または前記近傍画像のコントラストが前記遠方画像のコントラストよりも高いかの少なくともいずれかである
ことを特徴とする請求項1記載の障害物検知システム。
The proximity monitoring unit captures a proximity image used by the computing unit to detect the planned travel trajectory,
the remote monitoring camera captures the distant image used by the computing unit to detect the obstacle;
The near image and the far image are characterized in that at least one of the brightness of the near image is higher than the brightness of the far image, or the contrast of the near image is higher than the contrast of the far image. The obstacle detection system according to claim 1, wherein:
前記遠方監視カメラは、時系列に沿って複数の前記遠方画像を撮影し、
前記演算部は、前記走行予定軌道の曲率半径の変動が許容範囲以内である場合は、前記遠方画像を時系列に沿って足し合わせることにより、前記走行予定軌道の画像を取得する
ことを特徴とする請求項1記載の障害物検知システム。
the remote monitoring camera captures a plurality of the distant images in chronological order;
The calculation unit obtains an image of the planned travel track by adding together the distant images along a time series when the variation of the radius of curvature of the planned travel track is within an allowable range. The obstacle detection system according to claim 1.
前記遠方監視カメラは、第1カメラと第2カメラを有するステレオカメラであり、
前記演算部は、前記第1カメラが第1視点において撮影した画像と、前記第2カメラが前記第1視点とは異なる第2視点において撮影した画像とを足し合わせることにより、前記走行予定軌道の画像を取得する
ことを特徴とする請求項1記載の障害物検知システム。
the remote monitoring camera is a stereo camera having a first camera and a second camera,
The calculation unit adds an image captured by the first camera at a first viewpoint and an image captured by the second camera at a second viewpoint different from the first viewpoint to obtain the planned travel trajectory. The obstacle detection system according to claim 1, wherein an image is acquired.
前記演算部は、前記走行予定軌道の道幅を指定する値を取得し、
前記演算部は、前記取得した前記道幅の値を用いて、前記3次元座標を算出する
ことを特徴とする請求項1記載の障害物検知システム。
The computing unit acquires a value specifying a road width of the planned travel track,
The obstacle detection system according to claim 1, wherein the calculation unit calculates the three-dimensional coordinates using the acquired road width value.
前記近傍監視部は、Lidarまたは前記遠方監視カメラよりも画角が広い画像センサによって構成されている
ことを特徴とする請求項1記載の障害物検知システム。
2. The obstacle detection system according to claim 1, wherein the proximity monitoring unit is configured by a Lidar or an image sensor having a wider angle of view than the remote monitoring camera.
前記近傍監視部が監視することができる角度範囲は、65度~75度である
ことを特徴とする請求項1記載の障害物検知システム。
2. The obstacle detection system according to claim 1, wherein the range of angles that can be monitored by said proximity monitor is 65 degrees to 75 degrees.
前記遠方監視カメラは、第1カメラと第2カメラを有するステレオカメラであり、
前記第1カメラは、画角を動的に変更できるように構成されており、
前記近傍監視部は、前記第1カメラの画角を前記第2カメラの画角よりも大きくセットすることによって構成される
ことを特徴とする請求項1記載の障害物検知システム。
the remote monitoring camera is a stereo camera having a first camera and a second camera,
The first camera is configured to be able to dynamically change the angle of view,
2. The obstacle detection system according to claim 1, wherein the proximity monitoring unit is configured by setting the angle of view of the first camera larger than the angle of view of the second camera.
前記遠方監視カメラは、第1カメラと第2カメラを有するステレオカメラであり、
前記第1カメラは、光軸を上下方向に変更できるように構成されており、
前記第1カメラは、前記車両の近傍を撮影する近傍モードと、前記近傍モードよりも遠方を撮影する遠方モードとを切り替えることができるように構成されており、
前記第1カメラは、前記近傍モードにおいては前記遠方モードよりも前記光軸をより下方に傾ける
ことを特徴とする請求項1記載の障害物検知システム。
the remote monitoring camera is a stereo camera having a first camera and a second camera,
The first camera is configured such that its optical axis can be changed in the vertical direction,
The first camera is configured to be able to switch between a near-field mode for photographing the vicinity of the vehicle and a far-field mode for photographing a farther area than the near-field mode,
The obstacle detection system according to claim 1, wherein the first camera tilts the optical axis more downward in the near mode than in the far mode.
JP2020188571A 2020-11-12 2020-11-12 Obstacle detection system Active JP7301035B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020188571A JP7301035B2 (en) 2020-11-12 2020-11-12 Obstacle detection system
PCT/JP2021/039546 WO2022102399A1 (en) 2020-11-12 2021-10-26 Obstacle detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020188571A JP7301035B2 (en) 2020-11-12 2020-11-12 Obstacle detection system

Publications (2)

Publication Number Publication Date
JP2022077655A JP2022077655A (en) 2022-05-24
JP7301035B2 true JP7301035B2 (en) 2023-06-30

Family

ID=81601005

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020188571A Active JP7301035B2 (en) 2020-11-12 2020-11-12 Obstacle detection system

Country Status (2)

Country Link
JP (1) JP7301035B2 (en)
WO (1) WO2022102399A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017151541A (en) 2016-02-22 2017-08-31 日立オートモティブシステムズ株式会社 Information processing device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0995194A (en) * 1995-09-29 1997-04-08 Aisin Seiki Co Ltd Detecting device for object in front of vehicle
JP6034767B2 (en) * 2013-09-02 2016-11-30 公益財団法人鉄道総合技術研究所 Rail detection device, railroad front monitoring camera device, railcar, rail detection method and control method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017151541A (en) 2016-02-22 2017-08-31 日立オートモティブシステムズ株式会社 Information processing device

Also Published As

Publication number Publication date
JP2022077655A (en) 2022-05-24
WO2022102399A1 (en) 2022-05-19

Similar Documents

Publication Publication Date Title
US11539894B2 (en) In-vehicle camera system and image processing apparatus
US9066085B2 (en) Stereoscopic camera object detection system and method of aligning the same
JP2015195569A (en) Imaging device for mobile
US20110234761A1 (en) Three-dimensional object emergence detection device
KR20120126152A (en) Divice and method for photographing image and divice for extracting image information
JP5313638B2 (en) Vehicle headlamp device
US8477191B2 (en) On-vehicle image pickup apparatus
JP6032034B2 (en) Object detection device
JP2009077092A (en) Multi-camera system
JP6653456B1 (en) Imaging device
CN109383363B (en) Headlamp control apparatus and method for preventing light pollution caused by speed bump
EP3442213A1 (en) Structure wall imaging device, vehicle, and structure wall imaging method
JP7301035B2 (en) Obstacle detection system
JP2015172876A (en) Vehicle periphery monitoring device, vehicle periphery monitoring system, and program
JP2018007038A (en) Electronic device, automobile, imaging device, and image recording device
JP2019033478A (en) Structure wall surface photographing apparatus, vehicle, structure wall surface photographing method, and tunnel wall surface photographing method
JP5643877B2 (en) Vehicle headlamp device
JP2020109559A (en) Traffic signal recognition method and traffic signal recognition device
KR102494753B1 (en) Multi-aperture zoom digital camera and method of use thereof
KR101683575B1 (en) Apparatus and method for adjusting angle of auto-mobile side camera
JP2007218655A (en) Navigation device
KR101561535B1 (en) Black Box Synchronized to Driver&#39;s view and Control Method thereof
JP3944768B2 (en) In-vehicle image reader
CN114667729B (en) Multi-hole zoom digital camera and using method thereof
KR102598630B1 (en) Object tracking pan-tilt apparatus based on ultra-wide camera and its operation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230620

R150 Certificate of patent or registration of utility model

Ref document number: 7301035

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150