JP2022077655A - Obstacle detection system - Google Patents

Obstacle detection system Download PDF

Info

Publication number
JP2022077655A
JP2022077655A JP2020188571A JP2020188571A JP2022077655A JP 2022077655 A JP2022077655 A JP 2022077655A JP 2020188571 A JP2020188571 A JP 2020188571A JP 2020188571 A JP2020188571 A JP 2020188571A JP 2022077655 A JP2022077655 A JP 2022077655A
Authority
JP
Japan
Prior art keywords
camera
image
distant
detection system
obstacle detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020188571A
Other languages
Japanese (ja)
Other versions
JP7301035B2 (en
Inventor
制時 今川
Seiji Imagawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2020188571A priority Critical patent/JP7301035B2/en
Priority to PCT/JP2021/039546 priority patent/WO2022102399A1/en
Publication of JP2022077655A publication Critical patent/JP2022077655A/en
Application granted granted Critical
Publication of JP7301035B2 publication Critical patent/JP7301035B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L23/00Control, warning or like safety means along the route or between vehicles or trains

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Train Traffic Observation, Control, And Security (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

To provide an obstacle detection system which cannot only detect a planned travel track surely even using a narrow view angle camera, but also detect an obstacle surely on the planned travel track.SOLUTION: An obstacle detection system in this invention roughly adjusts an imaging direction of a remote monitoring camera based on a planned travel track acquired by a neighborhood monitoring and furthermore finely adjusts the imaging direction of the remote monitoring camera, based on three dimensional coordinates of the planned travel track calculated from a remote picture after the rough adjustment.SELECTED DRAWING: Figure 1

Description

本発明は、車両の走行予定軌道上にある物体を検知する障害物検知システムに関するものである。 The present invention relates to an obstacle detection system that detects an object on a planned traveling track of a vehicle.

自動車や鉄道などの車両にカメラや物体センサなどの検出器を搭載し、車両の走行予定軌道上にある物体をあらかじめ検知することによって安全を確保する技術が開発されている。同技術に関連する従来技術として、下記特許文献1と2がある。 Technologies have been developed to ensure safety by mounting detectors such as cameras and object sensors on vehicles such as automobiles and railroads and detecting objects in the planned travel track of the vehicle in advance. The following Patent Documents 1 and 2 are conventional techniques related to this technique.

特許文献1は、ナビゲーションシステムの情報や運転者の視線情報からレーダやカメラの方向を制御することを記載している。同文献は、「制御装置11はナビゲーション装置17等から取得した情報に基づき自車両の走行路の進行方向前方あるいは予測した進行軌跡上の道路構成として、少なくとも交差道路の有無または車線数を検出し、自車両 の現在位置と進行軌跡(または移動方向)に応じて、さらに、視線検出装置18にて検出される運転者の視線方 向に応じて、レーダ13の検知方向およびカメラ14の撮像方向を設定する」という技術を記載している(要約参照)。 Patent Document 1 describes that the direction of the radar or the camera is controlled from the information of the navigation system and the line-of-sight information of the driver. According to the document, "The control device 11 detects at least the presence or absence of an intersecting road or the number of lanes as a road configuration in front of the traveling direction of the own vehicle or on the predicted traveling trajectory based on the information acquired from the navigation device 17 or the like. , The detection direction of the radar 13 and the imaging direction of the camera 14 according to the current position and the traveling trajectory (or the moving direction) of the own vehicle, and further according to the driver's line-of-sight direction detected by the line-of-sight detection device 18. The technique of "setting up" is described (see summary).

特許文献2は、車線情報を用いて前照灯の方向を制御することを記載している。同文献は、「照射方向制御部は、検知された車線延在方向にしたがって目標スイブル角を決定し、車両用前照灯による光の照射方向を目標スイブル角に近づけるようスイブルアクチュエータを制御する車線追従制御を実行する」という技術を記載している(要約参照)。 Patent Document 2 describes that the direction of the headlight is controlled by using the lane information. According to the same document, "The irradiation direction control unit determines the target swivel angle according to the detected lane extension direction, and controls the swivel actuator so that the irradiation direction of the light from the vehicle headlights approaches the target swivel angle. The technique of "performing follow-up control" is described (see summary).

特開2005-231450号JP-A-2005-231450 特開2012-196982号JP 2012-196982

障害物検知システムは前方にある物体の有無を検知するだけでなく、これから自車が通る予定である走行予定軌道を把握するとともに、走行予定軌道と物体との間の相対位置を把握することにより、自車と物体が衝突するか否かを判断することができる。 The obstacle detection system not only detects the presence or absence of an object in front, but also grasps the planned travel track that the vehicle is going to pass, and also grasps the relative position between the planned travel track and the object. , It is possible to determine whether or not the vehicle and the object collide.

一方、画像系センサによって遠方の物体を検知する場合、撮像素子上の像が所定以上の大きさで撮影できるようにレンズの焦点距離を長くする、いわゆるズーム撮影を用いる。焦点距離に応じて撮像素子のサイズも大きくすることが望ましいが、コスト、サイズ、撮像素子の有無などの要因によって実現が困難な場合がある。撮像素子サイズが小さければ画角は必然的に狭くなる。狭画角化すると撮影範囲が狭くなるので、画像内に走行予定軌道が映らない可能性が生じる。また走行予定軌道の一部が映ったとしても検知したい範囲が十分に含まれない可能性もある。 On the other hand, when a distant object is detected by an image sensor, so-called zoom photography is used in which the focal length of the lens is lengthened so that an image on an image sensor can be photographed with a size larger than a predetermined size. It is desirable to increase the size of the image sensor according to the focal length, but it may be difficult to realize due to factors such as cost, size, and the presence or absence of the image sensor. If the image sensor size is small, the angle of view is inevitably narrow. If the angle of view is narrowed, the shooting range will be narrowed, so there is a possibility that the planned travel track will not be reflected in the image. Also, even if a part of the planned travel track is reflected, there is a possibility that the range to be detected is not sufficiently included.

走行予定軌道を捕捉できた場合であっても、夜間などは照度やコントラスト不足により物体を検知できない可能性がある。特に自車に搭載した照明設備により遠方物体の照度を得る場合、配光方向に対して正対する立体物よりも、配光方向に対して平行に配置される路面の方が輝度が低くなる可能性がある。これにより走行予定軌道の検知性能が低下することが予想される。 Even if the planned travel track can be captured, it may not be possible to detect the object due to insufficient illuminance or contrast at night. In particular, when the illuminance of a distant object is obtained by the lighting equipment installed in the own vehicle, the brightness may be lower on the road surface arranged parallel to the light distribution direction than on the three-dimensional object facing the light distribution direction. There is sex. It is expected that this will reduce the detection performance of the planned travel track.

本発明は、上記のような課題に鑑みてなされたものであり、狭画角カメラであっても確実に走行予定軌道を検知するとともに、走行予定軌道上の障害物を確実に検知することができる、障害物検知システムを提供することを目的とする。 The present invention has been made in view of the above problems, and it is possible to reliably detect an obstacle on a planned travel track as well as reliably detect an obstacle on the planned travel track even with a narrow angle of view camera. The purpose is to provide an obstacle detection system that can be used.

本発明に係る障害物検知システムは、近傍監視によって得られる走行予定軌道に基づいて遠方監視カメラの撮影方向を粗調整し、粗調整後の遠方画像から算出した走行予定軌道の3次元座標に基づいて、さらに遠方監視カメラの撮影方向を微調整する。 The obstacle detection system according to the present invention roughly adjusts the shooting direction of the distant surveillance camera based on the planned travel trajectory obtained by proximity monitoring, and is based on the three-dimensional coordinates of the planned travel trajectory calculated from the distant image after the rough adjustment. Then, fine-tune the shooting direction of the distant surveillance camera.

本発明に係る障害物検知システムによれば、狭画角カメラであっても確実に走行予定軌道を捕捉し、検知範囲の障害物を検知することができる。 According to the obstacle detection system according to the present invention, even a narrow angle-of-view camera can reliably capture the planned travel track and detect obstacles in the detection range.

実施形態1に係る障害物検知システム1の概略構成図である。It is a schematic block diagram of the obstacle detection system 1 which concerns on Embodiment 1. FIG. ステレオカメラ100が車両近傍を撮影できない状況を模式的に示した図である。It is a figure which shows typically the situation that the stereo camera 100 cannot take a picture of the vicinity of a vehicle. 車両の走行予定軌道の例を示す上面模式図である。It is a top surface schematic diagram which shows the example of the planned traveling track of a vehicle. ステレオカメラ100とカメラ400それぞれの撮影範囲の1例を示す。An example of the shooting range of each of the stereo camera 100 and the camera 400 is shown. ステレオカメラ100の撮影方向を粗調整した後の画像を示す。The image after the shooting direction of the stereo camera 100 is roughly adjusted is shown. ステレオカメラ100の撮影方向を粗調整した後に着目点を決定する様子を示す図である。It is a figure which shows the state which determines the attention point after the shooting direction of a stereo camera 100 is roughly adjusted. 走行予定軌道が直線であり、ステレオカメラ100の検知範囲以上の遠方が映っている画像である。This is an image in which the planned travel track is a straight line and a distance beyond the detection range of the stereo camera 100 is shown. 図7と同様に検知範囲以上の遠方が映っている例である。Similar to FIG. 7, this is an example in which a distance beyond the detection range is shown. ステレオカメラ100から見て手前は上り坂であり、その先が下り坂になっている例である。This is an example of an uphill slope in front of the stereo camera 100 and a downhill slope ahead of it. 電柱その他の構造物によって検知範囲の最遠位置が見通せない例である。This is an example in which the farthest position of the detection range cannot be seen due to utility poles and other structures. 走行予定軌道の左に駅がある例である。This is an example of a station on the left side of the planned travel track. 図5のうちステレオカメラ100が撮影した部分を切り出した画像を示す。FIG. 5 shows an image obtained by cutting out a portion taken by the stereo camera 100. ステレオカメラ100が撮像する位置が次第に変化していく様子を示す。It shows how the position of the image taken by the stereo camera 100 gradually changes. ステレオカメラ100が撮像する位置が次第に変化していく様子を示す。It shows how the position of the image taken by the stereo camera 100 gradually changes. ステレオカメラ100が撮像する位置が次第に変化していく様子を示す。It shows how the position of the image taken by the stereo camera 100 gradually changes. 回転機構200の例を示す。An example of the rotation mechanism 200 is shown. 撮影方向を変えたときのステレオカメラ100の状態を示す。The state of the stereo camera 100 when the shooting direction is changed is shown. 図17の別表現である。It is another expression of FIG. ステレオカメラ100の機能ブロック図である。It is a functional block diagram of a stereo camera 100. 立体物を検知する際におけるステレオカメラ100の露光および感度設定について示すグラフである。It is a graph which shows the exposure and sensitivity setting of a stereo camera 100 at the time of detecting a three-dimensional object. 画像ブレが発生しにくい場合における、ステレオカメラ100の露光および感度設定について示すグラフである。It is a graph which shows the exposure and sensitivity setting of a stereo camera 100 in the case where image blur is hard to occur. 露光時間に比べてフレームレートが十分に長い場合における、画像取得タイミングを示す図である。It is a figure which shows the image acquisition timing in the case where the frame rate is sufficiently long with respect to the exposure time. フレーム画像を合算する場合における処理タイミングを示す。The processing timing when the frame images are added up is shown. ステレオカメラ100の左右画像の一方の例である。This is an example of one of the left and right images of the stereo camera 100. 可変焦点カメラによって撮影した画像の例である。This is an example of an image taken by a variable focus camera. 実施形態2における障害物検知システム1の構成図である。It is a block diagram of the obstacle detection system 1 in Embodiment 2. 光軸を下側に向けたときの画像例である。This is an example of an image when the optical axis is directed downward. 実施形態3における障害物検知システム1の構成図である。It is a block diagram of the obstacle detection system 1 in Embodiment 3.

<実施の形態1>
図1は、本発明の実施形態1に係る障害物検知システム1の概略構成図である。障害物検知システム1は、車両が搭載することにより、同車両の走行予定軌道上における障害物を検知するシステムである。本実施形態においては、列車に障害物検知システム1を搭載した例を説明する。障害物検知システム1は、ステレオカメラ100(遠方監視カメラ)、回転機構200、投光器300、カメラ400(近傍監視部)、コントローラ500を備える。
<Embodiment 1>
FIG. 1 is a schematic configuration diagram of an obstacle detection system 1 according to the first embodiment of the present invention. The obstacle detection system 1 is a system that detects an obstacle on the planned traveling track of the vehicle by being mounted on the vehicle. In this embodiment, an example in which the obstacle detection system 1 is mounted on a train will be described. The obstacle detection system 1 includes a stereo camera 100 (distance monitoring camera), a rotation mechanism 200, a floodlight 300, a camera 400 (nearby monitoring unit), and a controller 500.

ステレオカメラ100は、車両の遠方を撮影することにより、遠方の障害物を検知するためのものである。ステレオカメラ100は、2つのカメラで構成される。回転機構200は、ステレオカメラ100の各カメラの撮影方向を変更する。投光器300は、車両の遠方に対して光を照射する。カメラ400は、車両の近傍(ステレオカメラ100が撮影する距離よりも近い位置)を撮影する。コントローラ500はカメラ400とステレオカメラ100を制御する。 The stereo camera 100 is for detecting an obstacle in the distance by photographing the distance of the vehicle. The stereo camera 100 is composed of two cameras. The rotation mechanism 200 changes the shooting direction of each camera of the stereo camera 100. The floodlight 300 irradiates light to a distant place of the vehicle. The camera 400 takes a picture of the vicinity of the vehicle (a position closer than the distance taken by the stereo camera 100). The controller 500 controls the camera 400 and the stereo camera 100.

ステレオカメラ100は、カメラ光軸を基準にした撮影方向情報aをコントローラ500に送る。同様に近傍カメラ400は、撮影画像上に映っている路面あるいは線路の座標情報bをコントローラ500に送る。コントローラ500は、情報aおよびbに基づいて、ステレオカメラ100を所定の撮影方向に向ける駆動信号を回転機構200に送る。回転機構200はその方向にステレオカメラ100の撮影方向を向ける。コントローラ500は、情報aおよびbに基づいて、配光方向情報を投光器300に送る。投光器300は、その方向に配光方向を向ける。 The stereo camera 100 sends the shooting direction information a with respect to the camera optical axis to the controller 500. Similarly, the proximity camera 400 sends the coordinate information b of the road surface or the track shown on the captured image to the controller 500. The controller 500 sends a drive signal for pointing the stereo camera 100 in a predetermined shooting direction to the rotation mechanism 200 based on the information a and b. The rotation mechanism 200 directs the shooting direction of the stereo camera 100 in that direction. The controller 500 sends light distribution direction information to the floodlight 300 based on the information a and b. The floodlight 300 directs the light distribution direction in that direction.

図2は、ステレオカメラ100が車両近傍を撮影できない状況を模式的に示した図である。ステレオカメラ100は、遠方障害物を検知するために、レンズの焦点距離は長く、画角は狭い。一般的に前方監視カメラは光軸を略水平に設置するので、図2のように画角が狭いほど、画像内に路面が映り始める距離cは遠方にシフトし、dで示した画像に映らないレンズ直下や近傍の路面の範囲は拡大する。 FIG. 2 is a diagram schematically showing a situation in which the stereo camera 100 cannot photograph the vicinity of the vehicle. In the stereo camera 100, the focal length of the lens is long and the angle of view is narrow in order to detect a distant obstacle. In general, the front surveillance camera installs the optical axis substantially horizontally, so the narrower the angle of view as shown in Fig. 2, the farther the distance c where the road surface begins to appear in the image shifts, and the more it appears in the image shown by d. The range of the road surface directly under or near the lens is expanded.

図3は、車両の走行予定軌道の例を示す上面模式図である。図3のように走行予定軌道(例えば道路や線路)の曲率半径が小さいカーブほど画角が必要であり、同じ曲率半径なら遠方ほど画角が必要になる。つまり焦点距離が長いほど道路や線路が画面に映らなくなる。 FIG. 3 is a schematic top view showing an example of a planned traveling track of a vehicle. As shown in FIG. 3, a curve having a smaller radius of curvature of a planned traveling track (for example, a road or a railroad track) requires an angle of view, and a curve having the same radius of curvature requires an angle of view as it is farther away. In other words, the longer the focal length, the less the roads and railroad tracks will appear on the screen.

道路や線路などの走行予定軌道が画像から検出できない場合、夜間などにおける光量不足によって適切に検出できない場合と、走行予定軌道が画像内に映っていない場合とが考えられる。原因が複数ある場合には確実に克服できる原因から対策するのが好ましい。この場合はまず走行予定軌道が画像内に映るように障害物検知システム1を操作し、その後で確実に映っている走行予定軌道を検知するために露光調整や画像処理を実施することが望ましい。そこで以下では、走行予定軌道を確実に画像内に映すための動作例について説明する。 It is considered that the planned travel track such as a road or a railroad track cannot be detected from the image, the planned travel track cannot be detected properly due to insufficient light intensity at night, or the planned travel track is not shown in the image. If there are multiple causes, it is preferable to take measures from the cause that can be reliably overcome. In this case, it is desirable to first operate the obstacle detection system 1 so that the planned travel track is reflected in the image, and then perform exposure adjustment and image processing in order to reliably detect the planned travel track. Therefore, in the following, an operation example for reliably projecting the planned traveling track in the image will be described.

図4は、ステレオカメラ100とカメラ400それぞれの撮影範囲の1例を示す。外側の太黒実線がカメラ400の撮影範囲であり、内側の太黒実線がステレオカメラ100の右カメラの撮影範囲である。カメラ400画像上の白点線は、路面の勾配やカーブ度合いに寄らず走行予定軌道が映ることが保証される領域である。これはカメラ400の画角を十分に確保し、白点線のY座標を適切に設定すれば可能である。コントローラ500は白点線上で走行予定軌道を探索し、走行予定軌道のX座標(図4の白丸)を求める。コントローラ500は、ステレオカメラ100の撮影方向に相当する情報(例えばステレオカメラ100画面中央のカメラ400画面上の座標など)を有しており、画面中央情報と前述の白丸座標からステレオカメラ100の撮影方向とその量を決定する。これは、カメラ400の画像に基づきステレオカメラ100の撮影方向を粗調整することに該当する。 FIG. 4 shows an example of the shooting range of each of the stereo camera 100 and the camera 400. The outer thick black solid line is the shooting range of the camera 400, and the inner thick black solid line is the shooting range of the right camera of the stereo camera 100. The white dotted line on the camera 400 image is an area where the planned traveling track is guaranteed to be reflected regardless of the slope of the road surface and the degree of curve. This is possible if the angle of view of the camera 400 is sufficiently secured and the Y coordinate of the white dotted line is appropriately set. The controller 500 searches for the planned travel track on the white dotted line and obtains the X coordinate (white circle in FIG. 4) of the planned travel track. The controller 500 has information corresponding to the shooting direction of the stereo camera 100 (for example, coordinates on the camera 400 screen at the center of the stereo camera 100 screen), and shoots the stereo camera 100 from the screen center information and the above-mentioned white circle coordinates. Determine the direction and its amount. This corresponds to coarsely adjusting the shooting direction of the stereo camera 100 based on the image of the camera 400.

図5は、ステレオカメラ100の撮影方向を粗調整した後の画像を示す。ここでいう粗調整とは、以下に説明する微調整を実施する前の時点において、大まかな撮影方向を決定することである。 FIG. 5 shows an image after the shooting direction of the stereo camera 100 is roughly adjusted. The rough adjustment referred to here is to roughly determine the shooting direction before the fine adjustment described below is performed.

図6は、ステレオカメラ100の撮影方向を粗調整した後に着目点を決定する様子を示す図である。コントローラ500がステレオカメラ100の撮影方向を粗調整した後、ステレオカメラ100は画面に映っている走行予定軌道の3次元座標を計測し、その結果に基づき撮影方向のターゲットとなる着目点(図6の黒丸)を決定する。ここでいう微調整とは、粗調整によって大まかに決定した撮影方向をさらに細かく調整することであり、着目点を決定することが目的である。 FIG. 6 is a diagram showing how the point of interest is determined after the shooting direction of the stereo camera 100 is roughly adjusted. After the controller 500 roughly adjusts the shooting direction of the stereo camera 100, the stereo camera 100 measures the three-dimensional coordinates of the planned travel trajectory displayed on the screen, and based on the result, the target point of interest in the shooting direction (FIG. 6). Black circle) is decided. The fine adjustment here is to finely adjust the shooting direction roughly determined by the rough adjustment, and the purpose is to determine the point of interest.

図7~図11は、着目点の例を示す。いずれの図も着目点を黒丸で示している。以下これらの図を用いて、着目点の例を説明する。 7 to 11 show examples of points of interest. In each figure, the points of interest are indicated by black circles. Hereinafter, examples of points of interest will be described with reference to these figures.

図7は、走行予定軌道が直線であり、ステレオカメラ100の検知範囲(ステレオカメラ100が撮像した画像から物体を検知できる最大距離としてステレオカメラ100の仕様上定められているもの)以上の遠方が映っている画像である。ステレオカメラ100はこの場合、ステレオカメラ100検知範囲の最遠位置を着目点とする。 In FIG. 7, the planned travel trajectory is a straight line, and the distance is longer than the detection range of the stereo camera 100 (the maximum distance that the stereo camera 100 can detect an object from the image captured by the stereo camera 100 is defined by the specifications of the stereo camera 100). It is a reflected image. In this case, the stereo camera 100 focuses on the farthest position in the detection range of the stereo camera 100.

図8は、図7と同様に検知範囲以上の遠方が映っている例である。ステレオカメラ100は図8においても検知範囲の最遠位置を着目点とする。 FIG. 8 is an example in which a distance beyond the detection range is shown as in FIG. 7. In FIG. 8, the stereo camera 100 also focuses on the farthest position in the detection range.

図9は、ステレオカメラ100から見て手前は上り坂であり、その先が下り坂になっている例である。図9においては、検知範囲の途中から下り坂になっているので、検知範囲の最遠位置が見通せない。ステレオカメラ100はこの場合、見通せる最遠位置を着目点とする。 FIG. 9 shows an example in which the front side of the stereo camera 100 is an uphill slope and the front side is a downhill slope. In FIG. 9, since the slope is downhill from the middle of the detection range, the farthest position of the detection range cannot be seen. In this case, the stereo camera 100 focuses on the farthest position that can be seen.

図10は、電柱その他の構造物によって検知範囲の最遠位置が見通せない例である。ステレオカメラ100はこの場合、見通せる最遠位置(構造物によって遮られていない範囲のなかで最遠位置)を着目点とする。 FIG. 10 is an example in which the farthest position of the detection range cannot be seen due to a utility pole or other structure. In this case, the stereo camera 100 focuses on the farthest position that can be seen (the farthest position in the range not blocked by the structure).

図11は、走行予定軌道の左に駅がある例である。ステレオカメラ100はこの場合、車両の停車位置よりも所定距離だけ前方を着目点とする。例えば停車位置よりも前方であってかつ撮影可能範囲の最近傍点を、着目点とすることができる。ただし停車位置よりも前方であれば、必ずしも最近傍撮影可能点でなくともよい。 FIG. 11 is an example in which the station is on the left side of the planned travel track. In this case, the stereo camera 100 focuses on a predetermined distance ahead of the stop position of the vehicle. For example, the point of interest can be a point in front of the stop position and closest to the photographable range. However, as long as it is in front of the stop position, it does not necessarily have to be the nearest neighbor shooting possible point.

図7~図11において説明したように、ステレオカメラ100は、(a)走行予定軌道におけるステレオカメラ100の検知仕様の最遠点、(b)走行予定軌道が地形や建物により遮られる場合は見通し可能な最遠点、(c)走行予定軌道のうち自車が停止する予定位置から所定距離だけ前方、のいずれかを、着目点とする。 As described with reference to FIGS. 7 to 11, the stereo camera 100 has (a) the farthest point of the detection specifications of the stereo camera 100 in the planned travel track, and (b) the prospect when the planned travel track is obstructed by terrain or a building. The point of interest is either (c) the farthest possible point, or (c) a predetermined distance ahead of the planned stop position of the own vehicle in the planned travel track.

図12~図15は、ステレオカメラ100の撮影方向を微調整する過程を示す。図12~図15を用いて微調整動作について説明する。 12 to 15 show a process of finely adjusting the shooting direction of the stereo camera 100. The fine adjustment operation will be described with reference to FIGS. 12 to 15.

図12は、図5のうちステレオカメラ100が撮影した部分を切り出した画像を示す。白丸は図5で説明した走行予定軌道の座標である。黒丸は着目点である。コントローラ500は、左右カメラの切り出し画像から、まず視差画像を算出し、次に走行予定軌道の3次元座標を算出することにより、着目点を決定する。 FIG. 12 shows an image obtained by cutting out a portion of FIG. 5 taken by the stereo camera 100. The white circles are the coordinates of the planned traveling track described with reference to FIG. The black circle is the point of interest. The controller 500 first calculates a parallax image from the cut-out images of the left and right cameras, and then calculates the three-dimensional coordinates of the planned traveling trajectory to determine the point of interest.

縦の点線は、着目点の座標目標である。右側の点線より右のエリアに着目点座標がある場合はステレオカメラ100の撮影方向を右にシフトさせ、あるいは切り出し位置を右にシフトする。左側の点線より左のエリアに着目点座標がある場合はステレオカメラ100の撮影方向を左にシフトさせ、あるいは切り出し位置を左にシフトする。図12に示した矢印はシフト量を示している。これらの画面シフトは、撮影方向と切り出し領域のいずれによって実行してもよい。ただし画像流れを回避するために、機械的なカメラ向きの変更は着目点の距離に応じて設定した上限を超えない速度で実施し、不足分は切り出し範囲で調整することが望ましい。すなわち、着目点が遠いほどカメラ向きの回転速度を遅くするとともに、回転速度が上限閾値に達するのであれば、回転速度を上限閾値以下にした上で切り出し範囲の微調整によって画面シフトさせる。 The vertical dotted line is the coordinate target of the point of interest. If the coordinates of the point of interest are in the area to the right of the dotted line on the right side, the shooting direction of the stereo camera 100 is shifted to the right, or the cutout position is shifted to the right. If the coordinates of the point of interest are in the area to the left of the dotted line on the left side, the shooting direction of the stereo camera 100 is shifted to the left, or the cutout position is shifted to the left. The arrow shown in FIG. 12 indicates the shift amount. These screen shifts may be performed depending on the shooting direction or the cutout area. However, in order to avoid image flow, it is desirable to change the camera orientation mechanically at a speed that does not exceed the upper limit set according to the distance of the point of interest, and adjust the shortage within the cutout range. That is, the farther the point of interest is, the slower the rotation speed for the camera, and if the rotation speed reaches the upper limit threshold value, the rotation speed is set to be equal to or less than the upper limit threshold value, and the screen is shifted by finely adjusting the cutting range.

図13~図15は、ステレオカメラ100が撮像する位置が次第に変化していく様子を示す。切り出し画像を関係者がモニタすることを想定しているので、切り出し領域も滑らかに変化するように切り出し位置を設定する。したがって図13~図14のように風景は徐々に移動し、図15のように点線位置に着目点が来た時点で、切り出しを終了する。 13 to 15 show how the position imaged by the stereo camera 100 gradually changes. Since it is assumed that the person concerned will monitor the cut-out image, the cut-out position is set so that the cut-out area also changes smoothly. Therefore, the landscape gradually moves as shown in FIGS. 13 to 14, and the cutting is completed when the point of interest comes to the dotted line position as shown in FIG.

図16は、回転機構200の例を示す。回転機構200は、図16のように左右2つのカメラごとに鉛直方向の回転軸(図16の黒丸)を有する構造である。別の方式として図16の白丸で示すような筐体の中心に回転軸を設ける方法があり、この場合は回転機構および駆動機構が1つで足りるので簡潔な構造を実現できる反面、回転に伴うスペースを必要とする。カメラごとに回転させることにより、遠距離化に伴って長基線ステレオカメラであっても狭スペースを実現できるほか、左右独立構造のステレオカメラにも本実施形態を適用可能である。 FIG. 16 shows an example of the rotation mechanism 200. As shown in FIG. 16, the rotation mechanism 200 has a structure having a rotation axis (black circle in FIG. 16) in the vertical direction for each of the two left and right cameras. As another method, there is a method of providing a rotating shaft in the center of the housing as shown by the white circle in FIG. Requires space. By rotating each camera, a narrow space can be realized even with a long baseline stereo camera as the distance increases, and this embodiment can also be applied to a stereo camera having an independent left and right structure.

図17は、撮影方向を変えたときのステレオカメラ100の状態を示す。 FIG. 17 shows the state of the stereo camera 100 when the shooting direction is changed.

図18は、図17の別表現である。図17は、見方を変えると図18のように描くことができる。図18から、撮影方向の向きによって基線長やカメラの光軸方向の位置が変わることがわかる。 FIG. 18 is another representation of FIG. FIG. 17 can be drawn as shown in FIG. 18 from a different point of view. From FIG. 18, it can be seen that the baseline length and the position in the optical axis direction of the camera change depending on the direction of the shooting direction.

光軸方向の位置の変化によって画像の倍率が変化する。倍率をM、撮影方向をθ、基線長をLとした場合、対象物体の距離Xの倍率Mは、下記式によって表される。物体距離は視差を求める以前は不明なのでX=“検知距離の最大”として倍率を算出する。 The magnification of the image changes depending on the change in the position in the optical axis direction. When the magnification is M, the shooting direction is θ, and the baseline length is L, the magnification M of the distance X of the target object is expressed by the following equation. Since the object distance is unknown before the parallax is obtained, the magnification is calculated with X = "maximum detection distance".

M(left)=(X-L/2・sinθ)/X (式1)
M(right)=(X+L/2・sinθ)/X (式2)
M (left) = (XL / 2 · sinθ) / X (Equation 1)
M (right) = (X + L / 2 · sinθ) / X (Equation 2)

近傍の物体ほど物体の大きさが左右画像間で異なり、測距誤差が大きくなるので、近傍側の検知範囲を設定するためには、撮影方向に応じた考慮が必要になる。上記式によって算出した倍率で左右画像を補正すると、検知距離の最大付近の遠方物体は従来通り視差を算出することが可能である。 The closer the object is, the larger the size of the object is between the left and right images, and the larger the distance measurement error is. Therefore, in order to set the detection range on the near side, it is necessary to consider according to the shooting direction. By correcting the left and right images with the magnification calculated by the above formula, it is possible to calculate the parallax for a distant object near the maximum detection distance as before.

図19は、ステレオカメラ100の機能ブロック図である。ステレオカメラ100は、撮像センサ101と102、歪補正部103と104、画像処理部105と106、視差検出部107、物体検知部108、演算部109を備える。撮像センサ101と102、歪補正部103と104、画像処理部105と106は、それぞれ左カメラと右カメラに対応する処理を実施する。 FIG. 19 is a functional block diagram of the stereo camera 100. The stereo camera 100 includes image sensor 101 and 102, distortion correction units 103 and 104, image processing units 105 and 106, parallax detection unit 107, object detection unit 108, and calculation unit 109. The image pickup sensors 101 and 102, the distortion correction units 103 and 104, and the image processing units 105 and 106 perform processing corresponding to the left camera and the right camera, respectively.

演算部109は、コントローラ500から送られた角度情報aに基づいて、撮影画像の切り出し情報cをセンサ101と102に送り、回転済角度情報dを歪補正部103、104に送り、基線長情報eを物体検知部108に送る。センサ101と102は所定周期ごとに同期撮影を実施し、送られた切り出し情報cに基づいて画像を切り出して、切り出した画像を歪補正部103と104に送る。歪補正部103と104は、送られた画像を、事前に取得した光学歪補正情報と送られた回転済角度情報dに基づいて補正し、補正画像を画像処理部105と106および視差検出部107に送る。画像処理部105と106は、必要に応じて、送られた補正画像に対してコントラスト補正やノイズリダクションなどの画像処理を実施し、処理画像を視差検出部107に送る。視差検出部107は、画像処理部105と106から送られた補正画像から視差画像を生成するとともに、画像処理部105と106から送られた処理画像から必要に応じて視差画像を生成し、生成した各視差画像を物体検知部108に送る。物体検知部108は、送られた視差画像と基線長情報eに基づいて各画素の3次元情報を得るとともに、物体あるいは走行予定軌道を検出する。 Based on the angle information a sent from the controller 500, the calculation unit 109 sends the cutout information c of the captured image to the sensors 101 and 102, sends the rotated angle information d to the distortion correction units 103 and 104, and base line length information. e is sent to the object detection unit 108. The sensors 101 and 102 perform synchronous shooting at predetermined intervals, cut out an image based on the sent cutout information c, and send the cut out image to the distortion correction units 103 and 104. The distortion correction units 103 and 104 correct the transmitted image based on the optical distortion correction information acquired in advance and the transmitted rotated angle information d, and the corrected image is corrected by the image processing units 105 and 106 and the parallax detection unit. Send to 107. The image processing units 105 and 106 perform image processing such as contrast correction and noise reduction on the transmitted corrected image as necessary, and send the processed image to the discriminant detection unit 107. The disparity detection unit 107 generates a disparity image from the corrected images sent from the image processing units 105 and 106, and also generates and generates a disparity image from the processed images sent from the image processing units 105 and 106 as needed. Each of the differential images is sent to the object detection unit 108. The object detection unit 108 obtains three-dimensional information of each pixel based on the sent parallax image and the baseline length information e, and detects an object or a planned travel trajectory.

上記とは別の方法として、画像上での倍率補正はせずに、算出した視差を対象物の距離へ換算する際に、左右の基線長差に基づく距離補正と着目画素座標に基づいた測距補正をしてもよい。この場合は立体物距離に依存する誤差は微小であり精度よい距離測定が可能である。この場合、図19において回転済角度情報dの代わりに、演算部109から物体検知部108へ距離補正情報fを送ればよい。 As another method from the above, when converting the calculated parallax to the distance of the object without performing the magnification correction on the image, the distance correction based on the difference in the left and right baseline lengths and the measurement based on the coordinates of the pixel of interest are used. Distance correction may be performed. In this case, the error depending on the distance of the three-dimensional object is small, and accurate distance measurement is possible. In this case, instead of the rotated angle information d in FIG. 19, the distance correction information f may be sent from the calculation unit 109 to the object detection unit 108.

投光器300は通常、着目点を中心に照明されるように配光方向を決定する。ただし、図4のようにカメラ400の白点線上で走行予定軌道を探索している場合は、探索動作に同期して白点線上を順に照明するように配光方向を横方向にシフトする。その後、コントローラ500は白丸を起点として走行予定軌道に沿って3次元データを算出し、配光方向を遠方へシフトする。配光角や光強度は取得画像に基づいて設定すればよい。つまり、取得画像の画素値から照明光が不十分であると判断される場合、コントローラ500は配光強度を上げるかまたは配光角を絞るかの少なくともいずれかによって着目点の照度を向上する。反対に着目点の照度が十分に得られている場合、コントローラ500はカメラ画角と同程度に配光角を広げる。 The floodlight 300 usually determines the light distribution direction so as to be illuminated around the point of interest. However, when the planned travel trajectory is searched on the white dotted line of the camera 400 as shown in FIG. 4, the light distribution direction is shifted laterally so as to sequentially illuminate the white dotted line in synchronization with the search operation. After that, the controller 500 calculates three-dimensional data along the planned travel track starting from the white circle, and shifts the light distribution direction to a distant place. The light distribution angle and light intensity may be set based on the acquired image. That is, when it is determined from the pixel values of the acquired image that the illumination light is insufficient, the controller 500 improves the illuminance at the point of interest by at least either increasing the light distribution intensity or narrowing the light distribution angle. On the contrary, when the illuminance of the point of interest is sufficiently obtained, the controller 500 widens the light distribution angle to the same extent as the camera angle of view.

検知した立体物が障害物か否かを判断する1つの要素として、立体物が走行予定軌道付近にあるか、あるいは走行予定軌道付近に向かって来ているかなど、走行予定軌道と立体物との間の相対位置情報が重要である。したがって障害物を検知するためには、走行予定軌道を検知していることが重要である。日中は立体物と路面とも十分な照度を得ることができるので、検知性能を確保することができる。夜間は照度が不足するので、露光時間や撮像感度を上げるほかに投光器300による照度向上が必要になる。投光器300を車両に搭載する場合、投光方向と照射面が正対する立体物よりも、投光方向とほぼ平行な路面の方がコントラストを得にくいので、コントラストを得るための工夫が必要になる。以下ではそのための工夫について説明する。 As one factor to judge whether the detected three-dimensional object is an obstacle, whether the three-dimensional object is near the planned travel track or is approaching the planned travel track, etc., the planned travel track and the three-dimensional object Relative position information between them is important. Therefore, in order to detect obstacles, it is important to detect the planned travel track. Since sufficient illuminance can be obtained for both the three-dimensional object and the road surface during the daytime, the detection performance can be ensured. Since the illuminance is insufficient at night, it is necessary to improve the illuminance by the floodlight 300 in addition to increasing the exposure time and the imaging sensitivity. When the floodlight 300 is mounted on a vehicle, it is more difficult to obtain contrast on a road surface that is almost parallel to the floodlight direction than on a three-dimensional object in which the floodlight direction and the irradiation surface face each other. .. The following describes the device for that purpose.

図20は、立体物を検知する際におけるステレオカメラ100の露光および感度設定について示すグラフである。グラフの横軸は露光時間であり、縦軸は感度である。日中は露光時間は短く、感度は低く設定する。取得画像の画素値に応じて露光時間や感度を上げて輝度を確保する。感度は上げすぎるとノイズが発生するので、上限値gを設定する。露光時間は長すぎると画像ブレが発生するので、自車速度に応じた上限値h1~h2を設定する。この動作は通常の立体物検知に用いられ、図19におけるセンサ101、歪補正部103、視差検出部107に至る経路、およびセンサ102、歪補正部104、視差検出部107に至る経路によって処理される。 FIG. 20 is a graph showing the exposure and sensitivity setting of the stereo camera 100 when detecting a three-dimensional object. The horizontal axis of the graph is the exposure time, and the vertical axis is the sensitivity. During the day, the exposure time is short and the sensitivity is set low. The exposure time and sensitivity are increased according to the pixel value of the acquired image to ensure the brightness. If the sensitivity is raised too much, noise will occur, so the upper limit value g is set. If the exposure time is too long, image blurring will occur, so the upper limit values h1 to h2 are set according to the vehicle speed. This operation is used for normal three-dimensional object detection, and is processed by the path leading to the sensor 101, the strain correction unit 103, and the parallax detection unit 107 in FIG. 19, and the path leading to the sensor 102, the strain correction unit 104, and the parallax detection unit 107. To.

図21は、画像ブレが発生しにくい場合における、ステレオカメラ100の露光および感度設定について示すグラフである。白線やレールなどのように走行予定軌道が直線や曲率半径一定のカーブである場合(すなわち曲率半径の変化がある範囲内である場合、以下同様)、画像ブレが発生しにくい特徴がある。例えば図7のような画像においては、走行予定軌道の画像上位置は時間経過に対して比較的安定している。この場合、走行予定軌道を検知するために用いる画像は、図21のように露光時間を立体物検知用の画像より十分長くして取得することが可能になる。 FIG. 21 is a graph showing the exposure and sensitivity settings of the stereo camera 100 when image blurring is unlikely to occur. When the planned travel track is a straight line or a curve with a constant radius of curvature, such as a white line or rail (that is, when the radius of curvature changes within a certain range, the same applies hereinafter), there is a feature that image blurring is unlikely to occur. For example, in the image shown in FIG. 7, the position on the image of the planned traveling track is relatively stable with respect to the passage of time. In this case, the image used for detecting the planned traveling track can be acquired with the exposure time sufficiently longer than the image for detecting a three-dimensional object as shown in FIG. 21.

図22は、露光時間に比べてフレームレートが十分に長い場合における、画像取得タイミングを示す図である。この場合は図22のように、立体物検知用の画像を取得(h2)した後で予定軌道検知用画像を取得(h3)すればよい。走行予定軌道用画像を取得するほどフレームレートが長くない場合は、画像処理部105と106は前回フレームの画像を保存し、今回フレームの画像と加算することにより、等価的に露光量を増加することができる。 FIG. 22 is a diagram showing image acquisition timing when the frame rate is sufficiently longer than the exposure time. In this case, as shown in FIG. 22, the image for detecting a three-dimensional object may be acquired (h2) and then the image for detecting a planned trajectory may be acquired (h3). If the frame rate is not long enough to acquire the image for the planned travel track, the image processing units 105 and 106 save the image of the previous frame and add it to the image of the current frame to equivalently increase the exposure amount. be able to.

図23は、フレーム画像を合算する場合における処理タイミングを示す。図23上段はセンサ101と102の露光時間とフレームレートを示す。図23中段は画像処理部105と106による画像保存タイミングを示す。図23下段は今回フレームと前回フレームを加算処理するタイミングを示す。特に走行予定軌道が直線や曲率半径一定のカーブである場合は、フレーム画像を足し合わせても画像ブレが発生しにくいので、足し合わせによってコントラストを向上させることが有用である。 FIG. 23 shows the processing timing when the frame images are added up. The upper part of FIG. 23 shows the exposure time and frame rate of the sensors 101 and 102. The middle part of FIG. 23 shows the image storage timing by the image processing units 105 and 106. The lower part of FIG. 23 shows the timing of adding the current frame and the previous frame. In particular, when the planned travel track is a straight line or a curve with a constant radius of curvature, image blur is unlikely to occur even if frame images are added, so it is useful to improve the contrast by adding them.

露光時間に比べてフレームレートが十分に長い場合の別の方法として、ステレオカメラ100の左右画像の一方を他方の視点に置き換える視点移動処理を実施して、他方の画像に足し込むこともできる。この場合もフレーム加算と同等の効果が得られる。 As another method when the frame rate is sufficiently longer than the exposure time, a viewpoint moving process of replacing one of the left and right images of the stereo camera 100 with the other viewpoint can be performed and added to the other image. In this case as well, the same effect as frame addition can be obtained.

以上は走行予定軌道の画像コントラストを高める方法を説明したが、画像輝度も同様の手法によって高めることができる。コントラストと輝度のうち少なくともいずれかを高めることができれば、その限りにおいて、走行予定軌道をより確実に検出することができるといえる。 Although the method of increasing the image contrast of the planned traveling track has been described above, the image brightness can also be increased by the same method. As long as at least one of contrast and brightness can be increased, it can be said that the planned travel track can be detected more reliably.

図24は、ステレオカメラ100の左右画像の一方の例である。図7を左画像としたときの右画像は図24のようになる。路面平面に対して視点移動処理を実施すると、路面平面上の走行予定軌道を左画像と一致させることができる。 FIG. 24 is an example of one of the left and right images of the stereo camera 100. The right image when FIG. 7 is the left image is as shown in FIG. 24. When the viewpoint movement process is performed on the road surface plane, the planned traveling track on the road surface plane can be matched with the left image.

以上の説明において、ステレオカメラ100の撮影方向を左右方向に動かすことを説明したが、本発明はこれに限らない。傾斜がある場合には着目点は上下するので切り出し位置も上下にシフトさせてもよい。また撮影方向を機械的にシフトさせてもよい。 In the above description, it has been described that the shooting direction of the stereo camera 100 is moved to the left-right direction, but the present invention is not limited to this. If there is an inclination, the point of interest moves up and down, so the cutting position may also be shifted up and down. Further, the shooting direction may be mechanically shifted.

以上の説明において、着目点を決定するために走行予定軌道の3次元座標を視差画像から得ることを説明したが、本発明はこれに限らない。走行予定軌道の幅が既知の場合、その既知の道幅を用いて、カメラ画像/焦点距離/画素ピッチから、走行予定軌道の3次元座標を算出してもよい。この場合は、必ずしもステレオカメラを用いなくとも、走行予定軌道の3次元座標を得ることができる。 In the above description, it has been described that the three-dimensional coordinates of the planned traveling track are obtained from the parallax image in order to determine the point of interest, but the present invention is not limited to this. When the width of the planned travel track is known, the three-dimensional coordinates of the planned travel track may be calculated from the camera image / focal length / pixel pitch using the known road width. In this case, it is possible to obtain the three-dimensional coordinates of the planned travel track without necessarily using a stereo camera.

本実施形態では、カメラ400の全画角は略70度としている。これは鉄道事業者が公開している加速度と曲率半径の関係から推定する必要画角67度に、取り付け精度を含めた値である。他のセンサを用いて車両近傍を監視する場合であっても、左右の検出画角は70~75度あれば十分である。したがってカメラ400の検出画角は、概ね65度~75度が必要である。 In this embodiment, the total angle of view of the camera 400 is approximately 70 degrees. This is a value that includes the mounting accuracy in the required angle of view of 67 degrees estimated from the relationship between the acceleration and the radius of curvature published by the railway operator. Even when monitoring the vicinity of the vehicle using other sensors, it is sufficient if the left and right detection angles of view are 70 to 75 degrees. Therefore, the detection angle of view of the camera 400 needs to be approximately 65 to 75 degrees.

本実施形態においては1つの投光器300を使用しているが、複数台の投光器300を用いても同等の効果が得られる。複数の場合は遠方投光用と近傍投光用に分担することもできる。近傍用投光器としては従来設備を利用することもできる。 Although one floodlight 300 is used in this embodiment, the same effect can be obtained by using a plurality of floodlights 300. In the case of a plurality of cases, it can be shared between the distant projection and the near projection. Conventional equipment can also be used as a floodlight for the vicinity.

<実施の形態1:まとめ>
本実施形態1に係る障害物検知システム1は、白線やレールなどの走行予定軌道を確実に捕捉可能な近傍監視手段の情報に基づいて、ステレオカメラ100(遠方監視カメラ)と投光器300の向きを粗調整し、その後ステレオカメラ100が取得した3次元画像に基づいてステレオカメラ100と投光器300の向きを微調整する。これにより、物体検知に十分な像倍率を確保しながら走行予定軌道を安定して捕捉できる。すなわち、信頼性の高い障害物検知システム1を提供することができる。
<Embodiment 1: Summary>
The obstacle detection system 1 according to the first embodiment determines the orientation of the stereo camera 100 (distant monitoring camera) and the floodlight 300 based on the information of the proximity monitoring means capable of reliably capturing the planned traveling track such as a white line or a rail. After making a rough adjustment, the orientations of the stereo camera 100 and the floodlight 300 are finely adjusted based on the three-dimensional image acquired by the stereo camera 100. As a result, it is possible to stably capture the planned travel track while ensuring a sufficient image magnification for object detection. That is, it is possible to provide a highly reliable obstacle detection system 1.

本実施形態1に係る障害物検知システム1は、走行予定軌道を検知するために用いる画像と、立体物を検知するために用いる画像との間で、露光条件を変えてそれぞれ取得するか、あるいはフレーム加算や視点移動後の加算を用いて、画像精度を確保する。これにより、夜間などのように照度やコントラストを十分確保できない場合であっても、走行予定軌道の輝度やコントラストを強調し、精度よく走行予定軌道を検知することができる。 The obstacle detection system 1 according to the first embodiment obtains the image used for detecting the planned traveling track and the image used for detecting a three-dimensional object by changing the exposure conditions. Image accuracy is ensured by using frame addition and addition after moving the viewpoint. As a result, even when the illuminance and contrast cannot be sufficiently secured such as at night, the brightness and contrast of the planned travel track can be emphasized and the planned travel track can be detected with high accuracy.

<実施の形態2>
実施形態1においては、近傍の走行予定軌道を検知する手段として広角のカメラを用いた。この役割を、ステレオカメラ100の左右カメラいずれか一方に担わせることも可能である。つまり、左右カメラのいずれか一方を可変焦点カメラによって構成する。
<Embodiment 2>
In the first embodiment, a wide-angle camera is used as a means for detecting a planned traveling track in the vicinity. It is also possible to assign this role to either the left or right camera of the stereo camera 100. That is, one of the left and right cameras is configured by the variable focus camera.

図25は、可変焦点カメラによって撮影した画像の例である。ステレオカメラ100の可変焦点カメラのワイド側(焦点距離が短く広角)で撮影すると図25のような画像を取得し、テレ側(焦点距離が長く狭角)で撮影すると図12のような画像を取得する。 FIG. 25 is an example of an image taken by a variable focus camera. When taken with the wide side (short focal length and wide angle) of the variable focal length camera of the stereo camera 100, the image as shown in FIG. 25 is acquired, and when taken with the tele side (long and narrow focal length), the image as shown in FIG. 12 is obtained. get.

図26は、本実施形態2における障害物検知システム1の構成図である。可変焦点カメラのズームメカニズムはステレオカメラ100内に含まれる。ステレオカメラ100は、左右カメラのいずれか一方をワイド側に設定し画像を撮影するとともに、カメラ光軸を基準にした撮影方向情報aをコントローラ500に送る。ステレオカメラ100は、撮影した画像上に映っている路面あるいは線路の座標情報bをコントローラ500に送る。コントローラ500は、情報aおよびbに基づいてステレオカメラ100を所定の撮影方向に向ける駆動信号を回転機構200に送るとともに、可変焦点カメラをテレ側へ設定変更するように要求する。コントローラ500は、情報aおよびbに基づいて配光方向情報を投光器300に送る。その他の処理プロセスは実施形態1と同等なので説明は省略する。 FIG. 26 is a configuration diagram of the obstacle detection system 1 in the second embodiment. The zoom mechanism of the variable focus camera is included in the stereo camera 100. The stereo camera 100 sets one of the left and right cameras to the wide side to shoot an image, and sends the shooting direction information a with respect to the optical axis of the camera to the controller 500. The stereo camera 100 sends the coordinate information b of the road surface or the railroad track shown on the captured image to the controller 500. The controller 500 sends a drive signal for pointing the stereo camera 100 in a predetermined shooting direction to the rotation mechanism 200 based on the information a and b, and requests that the variable focus camera be changed to the telephoto side. The controller 500 sends light distribution direction information to the floodlight 300 based on the information a and b. Since the other processing processes are the same as those in the first embodiment, the description thereof will be omitted.

本実施形態においては、ワイド側の画像は走行予定軌道の2次元座標を得ることを目的にしているが、本実施形態はこれに限るものではない。つまり、ワイド側の画像を拡大あるいはテレ側の画像を縮小して左右重なりエリアをステレオ視することにより、3次元情報を得ることができる。現実にはワイド側画像においても歪補正や平行化の精度により3次元情報の取得性能と精度が影響を受けるので、ワイドとテレの双方に対する歪補正処理が必要になる可能性がある。 In the present embodiment, the image on the wide side is intended to obtain the two-dimensional coordinates of the planned traveling track, but the present embodiment is not limited to this. That is, three-dimensional information can be obtained by enlarging the image on the wide side or reducing the image on the tele side to view the overlapping area on the left and right in stereo. In reality, even in wide-side images, the accuracy of distortion correction and parallelization affects the acquisition performance and accuracy of three-dimensional information, so distortion correction processing for both wide and tele may be required.

<実施の形態3>
実施形態1においては、近傍の走行予定軌道を検知する手段として広角のカメラを用いた。この役割を、ステレオカメラ100の左右カメラいずれか少なくとも一方に担わせることも可能である。つまり、左右カメラのいずれかをピッチ方向(鉛直方向)に回転させて光軸を下側に向けることにより、確実に走行予定軌道を画角内に捕捉することができる。
<Embodiment 3>
In the first embodiment, a wide-angle camera is used as a means for detecting a planned traveling track in the vicinity. It is also possible to have at least one of the left and right cameras of the stereo camera 100 play this role. That is, by rotating either of the left and right cameras in the pitch direction (vertical direction) and directing the optical axis downward, it is possible to reliably capture the planned travel trajectory within the angle of view.

図27は、光軸を下側に向けたときの画像例である。この場合は図27の点線のような画像を差得することができ、画像上部における走行予定軌道座標に基づいて、図27の実線のような画像を取得する。 FIG. 27 is an example of an image when the optical axis is directed downward. In this case, an image like the dotted line in FIG. 27 can be obtained, and an image like the solid line in FIG. 27 is acquired based on the planned travel trajectory coordinates at the upper part of the image.

図28は、本実施形態3における障害物検知システム1の構成図である。ピッチ回転部600は、ステレオカメラ100の左右カメラのいずれかをピッチ方向に回転させる。ステレオカメラ100は、光軸をピッチ方向下側に設定し画像を撮影するとともに、カメラ光軸を基準にした撮影方向情報aをコントローラ500に送る。撮影方向情報aは実施形態1とは異なり、ヨー方向情報に加えてピッチ方向情報も含んでいる。ステレオカメラ100は、撮影した画像上に映っている路面あるいは線路の座標情報bをコントローラ500に送る。コントローラ500は、情報aおよびbに基づいてステレオカメラ100を所定の撮影方向に向ける駆動信号を回転機構200とピッチ回転部600に送る。コントローラ500は、情報aおよびbに基づいて配光方向情報を投光器300に送る。その他の処理プロセスは実施形態1と同等なので説明は省略する。 FIG. 28 is a configuration diagram of the obstacle detection system 1 in the third embodiment. The pitch rotation unit 600 rotates either the left or right camera of the stereo camera 100 in the pitch direction. The stereo camera 100 sets the optical axis to the lower side in the pitch direction, shoots an image, and sends the shooting direction information a with respect to the camera optical axis to the controller 500. Unlike the first embodiment, the photographing direction information a includes pitch direction information in addition to yaw direction information. The stereo camera 100 sends the coordinate information b of the road surface or the railroad track shown on the captured image to the controller 500. The controller 500 sends a drive signal for directing the stereo camera 100 in a predetermined shooting direction to the rotation mechanism 200 and the pitch rotation unit 600 based on the information a and b. The controller 500 sends light distribution direction information to the floodlight 300 based on the information a and b. Since the other processing processes are the same as those in the first embodiment, the description thereof will be omitted.

本実施形態3において、ステレオカメラ100は、遠方を撮影する動作モードと、近傍を撮影する動作モードを有することになる。ピッチ回転部600は、近傍撮影モードにおいては、カメラ光軸を遠方撮影モードよりも下方に傾ける。必ずしも厳密に鉛直方向に沿ってカメラを傾ける必要はなく、少なくとも遠方撮影モードのほうが近傍撮影モードよりも下方を向いていればよい。 In the third embodiment, the stereo camera 100 has an operation mode for photographing a distant place and an operation mode for photographing a vicinity. In the near-field shooting mode, the pitch rotation unit 600 tilts the camera optical axis downward from the far-field shooting mode. It is not always necessary to tilt the camera exactly along the vertical direction, and it is sufficient that at least the distance shooting mode faces downward from the near shooting mode.

<本発明の変形例について>
本発明は、前述した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
<About a modification of the present invention>
The present invention is not limited to the above-described embodiment, and includes various modifications. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the described configurations. Further, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Further, it is possible to add / delete / replace a part of the configuration of each embodiment with another configuration.

以上の実施形態において、車両近傍の状態を検出する手段としてカメラ400またはステレオカメラ100を用いることを説明したが、カメラ以外の手段によって車両近傍の状態を検出してもよい。例えばLidarなどの測距センサを用いることが考えられる。複数の検出手段を併用してもよい。 Although the camera 400 or the stereo camera 100 has been described as the means for detecting the state in the vicinity of the vehicle in the above embodiment, the state in the vicinity of the vehicle may be detected by means other than the camera. For example, it is conceivable to use a distance measuring sensor such as Lidar. A plurality of detection means may be used in combination.

ステレオカメラ100が備える各処理部(演算部109、歪補正部103と104、画像処理部105と106、視差検出部107、物体検知部108)とコントローラ500は、これらの機能を実装した回路デバイスなどのハードウェアによって構成することもできるし、これらの機能を実装したソフトウェアを演算装置が実行することによって構成することもできる。ハードウェアとソフトウェアを組み合わせて実装してもよい。 Each processing unit (arithmetic unit 109, distortion correction units 103 and 104, image processing units 105 and 106, parallax detection unit 107, object detection unit 108) and the controller 500 included in the stereo camera 100 are circuit devices that implement these functions. It can be configured by hardware such as, or it can be configured by executing software that implements these functions by an arithmetic unit. It may be implemented by combining hardware and software.

以上の実施形態において、ステレオカメラ100が備える各処理部(演算部109、歪補正部103と104、画像処理部105と106、視差検出部107、物体検知部108)は、その少なくとも一部をコントローラ500上に集約してもよい。この場合、コントローラ500がその演算処理を実施することになる。 In the above embodiment, each processing unit (calculation unit 109, strain correction units 103 and 104, image processing units 105 and 106, parallax detection unit 107, object detection unit 108) included in the stereo camera 100 includes at least a part thereof. It may be aggregated on the controller 500. In this case, the controller 500 will perform the arithmetic processing.

1 障害物検知システム
100 ステレオカメラ
101、102 撮像センサ
103、104 歪補正部
105、106 画像処理部
107 視差検出部
108 物体検知部
109 演算部
200 回転機構
300 投光器
400 カメラ
500 コントローラ
1 Obstacle detection system 100 Stereo camera 101, 102 Imaging sensor 103, 104 Distortion correction unit 105, 106 Image processing unit 107 Parallax detection unit 108 Object detection unit 109 Calculation unit 200 Rotation mechanism 300 Floodlight 400 Camera 500 Controller

Claims (15)

車両の走行予定軌道上にある障害物を検知する障害物検知システムであって、
前記車両の近傍を監視する近傍監視部、
前記近傍監視部が監視する範囲よりも遠方を監視する遠方監視カメラ、
前記近傍監視部と前記遠方監視カメラを制御する演算部、
を備え、
前記演算部は、前記近傍監視部による監視結果を用いて、前記走行予定軌道を検出し、
前記演算部は、前記検出した前記走行予定軌道に基づいて、前記遠方監視カメラの撮影方向を粗調整し、
前記遠方監視カメラは、前記粗調整した撮影方向を撮影し、
前記演算部は、前記遠方監視カメラが撮影した遠方画像を用いて、前記走行予定軌道の3次元座標を算出し、
前記演算部は、前記3次元座標に基づいて、前記遠方監視カメラの着目点を決定し、
前記演算部は、前記決定した前記着目点に基づいて、前記遠方監視カメラの撮影方向を微調整する
ことを特徴とする障害物検知システム。
It is an obstacle detection system that detects obstacles on the planned track of the vehicle.
A neighborhood monitoring unit that monitors the vicinity of the vehicle,
A distant surveillance camera that monitors a distance farther than the range monitored by the proximity monitoring unit,
An arithmetic unit that controls the neighborhood monitoring unit and the distant monitoring camera,
Equipped with
The calculation unit detects the planned travel track by using the monitoring result by the neighborhood monitoring unit.
The calculation unit roughly adjusts the shooting direction of the distant surveillance camera based on the detected track to be traveled.
The distant surveillance camera captures the coarsely adjusted shooting direction.
The calculation unit calculates the three-dimensional coordinates of the planned travel track using the distant image taken by the distant surveillance camera.
The calculation unit determines the point of interest of the remote surveillance camera based on the three-dimensional coordinates.
The calculation unit is an obstacle detection system characterized in that the shooting direction of the remote surveillance camera is finely adjusted based on the determined point of interest.
前記着目点は、
前記走行予定軌道上における前記遠方監視カメラの最遠検知点、
前記遠方監視カメラの撮影方向において前記走行予定軌道が遮られている場合における前記遠方監視カメラが撮影可能な最遠点、
前記走行予定軌道のうち前記車両が停止する予定の位置よりも前方の点、
のうち少なくともいずれかである
ことを特徴とする請求項1記載の障害物検知システム。
The point of interest is
The farthest detection point of the distant surveillance camera on the planned travel track,
The farthest point that the distant surveillance camera can shoot when the planned travel track is obstructed in the shooting direction of the distant surveillance camera.
A point on the planned travel track ahead of the position where the vehicle is scheduled to stop,
The obstacle detection system according to claim 1, wherein the system is at least one of the above.
前記障害物検知システムはさらに、前記遠方監視カメラが撮影する場所に対して光を照射する投光器を備え、
前記演算部は、前記着目点に対して光を照射するように、前記投光器の配光方向を調整し、
前記演算部は、前記遠方画像における前記着目点の輝度が不十分である場合は、前記投光器の配光角を絞るかまたは前記投光器の光強度を上げるかのうち少なくともいずれかを実施する
ことを特徴とする請求項1記載の障害物検知システム。
The obstacle detection system further comprises a floodlight that illuminates a location photographed by the remote surveillance camera.
The calculation unit adjusts the light distribution direction of the floodlight so as to irradiate the point of interest with light.
When the brightness of the point of interest in the distant image is insufficient, the arithmetic unit may at least either narrow the light distribution angle of the floodlight or increase the light intensity of the floodlight. The obstacle detection system according to claim 1, which is characterized by this.
前記演算部は、前記遠方画像から前記着目点を含む画像領域を切り出し、
前記演算部は、前記切り出した画像領域を用いて前記障害物を検知し、
前記演算部は、前記粗調整した撮影方向において前記遠方監視カメラが撮影した前記遠方画像のうち所定範囲内に前記着目点が含まれていない場合は、前記微調整を実施することにより、前記切り出した画像領域内に前記着目点が含まれるようにする
ことを特徴とする請求項1記載の障害物検知システム。
The calculation unit cuts out an image region including the point of interest from the distant image, and obtains an image region.
The arithmetic unit detects the obstacle using the cut out image area, and determines the obstacle.
When the point of interest is not included in a predetermined range of the distant images taken by the distant surveillance camera in the roughly adjusted shooting direction, the calculation unit performs the fine adjustment to cut out the cutout. The obstacle detection system according to claim 1, wherein the point of interest is included in the image area.
前記障害物検知システムはさらに、前記遠方監視カメラを機械的に回転させることにより前記撮影方向を変更する機構を備え、
前記演算部は、前記着目点が前記車両から第1距離にある場合は、第1回転速度で前記遠方監視カメラを回転させ、
前記演算部は、前記着目点が前記車両から前記第1距離よりも遠い第2距離にある場合は、前記第1回転速度よりも遅い第2回転速度で前記遠方監視カメラを回転させ、
前記演算部は、前記所定範囲内に前記着目点を含めるために必要な前記遠方監視カメラの回転速度が上限閾値を超える場合は、前記回転速度を前記上限閾値以下に抑えるとともに、前記画像領域を切り出す位置をシフトすることにより、前記切り出した画像領域内に前記着目点が含まれるようにする
ことを特徴とする請求項4記載の障害物検知システム。
The obstacle detection system further includes a mechanism for changing the shooting direction by mechanically rotating the remote surveillance camera.
When the point of interest is at the first distance from the vehicle, the calculation unit rotates the distant surveillance camera at the first rotation speed.
When the point of interest is at a second distance farther than the first distance from the vehicle, the calculation unit rotates the remote monitoring camera at a second rotation speed slower than the first rotation speed.
When the rotation speed of the remote monitoring camera required to include the point of interest within the predetermined range exceeds the upper limit threshold value, the calculation unit suppresses the rotation speed to be equal to or lower than the upper limit threshold value and displays the image area. The obstacle detection system according to claim 4, wherein the cut-out position is shifted so that the point of interest is included in the cut-out image area.
前記遠方監視カメラは、第1カメラと第2カメラを有するステレオカメラであり、
前記障害物検知システムはさらに、前記第1カメラと前記第2カメラを機械的に回転させることにより前記撮影方向を変更する機構を備え、
前記演算部は、前記第1カメラと前記第2カメラを回転させることにより生じた画像倍率の変動を補正するか、または、前記第1カメラと前記第2カメラを回転させることにより生じた測距誤差を補正し、
前記演算部は、前記補正した画像倍率または前記補正した測距誤差を用いて、前記走行予定軌道および前記障害物を検出する
ことを特徴とする請求項1記載の障害物検知システム。
The remote surveillance camera is a stereo camera having a first camera and a second camera.
The obstacle detection system further includes a mechanism for changing the shooting direction by mechanically rotating the first camera and the second camera.
The calculation unit corrects the fluctuation of the image magnification caused by rotating the first camera and the second camera, or the distance measuring unit caused by rotating the first camera and the second camera. Correct the error,
The obstacle detection system according to claim 1, wherein the calculation unit detects the planned travel track and the obstacle by using the corrected image magnification or the corrected distance measurement error.
前記遠方監視カメラはステレオカメラであり、
前記演算部は、前記遠方監視カメラが取得した視差画像に基づき、前記3次元座標を算出する
ことを特徴とする請求項1記載の障害物検知システム。
The remote surveillance camera is a stereo camera.
The obstacle detection system according to claim 1, wherein the calculation unit calculates the three-dimensional coordinates based on the parallax image acquired by the remote surveillance camera.
前記近傍監視部は、前記演算部が前記走行予定軌道を検出するために用いる近傍画像を撮像し、
前記遠方監視カメラは、前記演算部が前記障害物を検出するために用いる前記遠方画像を撮像し、
前記近傍画像と前記遠方画像は、前記近傍画像の輝度が前記遠方画像の輝度よりも高いか、または前記近傍画像のコントラストが前記遠方画像のコントラストよりも高いかの少なくともいずれかである
ことを特徴とする請求項1記載の障害物検知システム。
The neighborhood monitoring unit captures a neighborhood image used by the calculation unit to detect the planned travel track.
The distant surveillance camera captures the distant image used by the arithmetic unit to detect the obstacle.
The near image and the distant image are characterized in that the brightness of the near image is higher than the brightness of the distant image, or the contrast of the near image is higher than the contrast of the distant image. The obstacle detection system according to claim 1.
前記遠方監視カメラは、時系列に沿って複数の前記遠方画像を撮影し、
前記演算部は、前記走行予定軌道の曲率半径の変動が許容範囲以内である場合は、前記遠方画像を時系列に沿って足し合わせることにより、前記走行予定軌道の画像を取得する
ことを特徴とする請求項1記載の障害物検知システム。
The distant surveillance camera captures a plurality of the distant images in chronological order.
The calculation unit is characterized in that, when the fluctuation of the radius of curvature of the planned travel track is within an allowable range, the calculation unit acquires an image of the planned travel track by adding the distant images along a time series. The obstacle detection system according to claim 1.
前記遠方監視カメラは、第1カメラと第2カメラを有するステレオカメラであり、
前記演算部は、前記第1カメラが第1視点において撮影した画像と、前記第2カメラが前記第1視点とは異なる第2視点において撮影した画像とを足し合わせることにより、前記走行予定軌道の画像を取得する
ことを特徴とする請求項1記載の障害物検知システム。
The remote surveillance camera is a stereo camera having a first camera and a second camera.
The calculation unit adds up an image taken by the first camera at the first viewpoint and an image taken by the second camera at a second viewpoint different from the first viewpoint, thereby causing the planned travel track. The obstacle detection system according to claim 1, wherein an image is acquired.
前記演算部は、前記走行予定軌道の道幅を指定する値を取得し、
前記演算部は、前記取得した前記道幅の値を用いて、前記3次元座標を算出する
ことを特徴とする請求項1記載の障害物検知システム。
The calculation unit acquires a value that specifies the road width of the planned travel track, and obtains a value.
The obstacle detection system according to claim 1, wherein the calculation unit calculates the three-dimensional coordinates using the acquired value of the road width.
前記近傍監視部は、Lidarまたは前記遠方監視カメラよりも画角が広い画像センサによって構成されている
ことを特徴とする請求項1記載の障害物検知システム。
The obstacle detection system according to claim 1, wherein the proximity monitoring unit is composed of an image sensor having a wider angle of view than Lidar or the remote monitoring camera.
前記近傍監視部が監視することができる角度範囲は、65度~75度である
ことを特徴とする請求項1記載の障害物検知システム。
The obstacle detection system according to claim 1, wherein the angle range that can be monitored by the neighborhood monitoring unit is 65 degrees to 75 degrees.
前記遠方監視カメラは、第1カメラと第2カメラを有するステレオカメラであり、
前記第1カメラは、画角を動的に変更できるように構成されており、
前記近傍監視部は、前記第1カメラの画角を前記第2カメラの画角よりも大きくセットすることによって構成される
ことを特徴とする請求項1記載の障害物検知システム。
The remote surveillance camera is a stereo camera having a first camera and a second camera.
The first camera is configured to dynamically change the angle of view.
The obstacle detection system according to claim 1, wherein the neighborhood monitoring unit is configured by setting the angle of view of the first camera to be larger than the angle of view of the second camera.
前記遠方監視カメラは、第1カメラと第2カメラを有するステレオカメラであり、
前記第1カメラは、光軸を上下方向に変更できるように構成されており、
前記第1カメラは、前記車両の近傍を撮影する近傍モードと、前記近傍モードよりも遠方を撮影する遠方モードとを切り替えることができるように構成されており、
前記第1カメラは、前記近傍モードにおいては前記遠方モードよりも前記光軸をより下方に傾ける
ことを特徴とする請求項1記載の障害物検知システム。
The remote surveillance camera is a stereo camera having a first camera and a second camera.
The first camera is configured so that the optical axis can be changed in the vertical direction.
The first camera is configured to be able to switch between a near mode for photographing the vicinity of the vehicle and a distant mode for photographing a distance farther than the near mode.
The obstacle detection system according to claim 1, wherein the first camera tilts the optical axis further downward than in the far mode in the near mode.
JP2020188571A 2020-11-12 2020-11-12 Obstacle detection system Active JP7301035B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020188571A JP7301035B2 (en) 2020-11-12 2020-11-12 Obstacle detection system
PCT/JP2021/039546 WO2022102399A1 (en) 2020-11-12 2021-10-26 Obstacle detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020188571A JP7301035B2 (en) 2020-11-12 2020-11-12 Obstacle detection system

Publications (2)

Publication Number Publication Date
JP2022077655A true JP2022077655A (en) 2022-05-24
JP7301035B2 JP7301035B2 (en) 2023-06-30

Family

ID=81601005

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020188571A Active JP7301035B2 (en) 2020-11-12 2020-11-12 Obstacle detection system

Country Status (2)

Country Link
JP (1) JP7301035B2 (en)
WO (1) WO2022102399A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0995194A (en) * 1995-09-29 1997-04-08 Aisin Seiki Co Ltd Detecting device for object in front of vehicle
JP2015049740A (en) * 2013-09-02 2015-03-16 公益財団法人鉄道総合技術研究所 Rail detection device, forward monitoring camera device for railroad, rolling stock, rail detection method and control method
JP2017151541A (en) * 2016-02-22 2017-08-31 日立オートモティブシステムズ株式会社 Information processing device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0995194A (en) * 1995-09-29 1997-04-08 Aisin Seiki Co Ltd Detecting device for object in front of vehicle
JP2015049740A (en) * 2013-09-02 2015-03-16 公益財団法人鉄道総合技術研究所 Rail detection device, forward monitoring camera device for railroad, rolling stock, rail detection method and control method
JP2017151541A (en) * 2016-02-22 2017-08-31 日立オートモティブシステムズ株式会社 Information processing device

Also Published As

Publication number Publication date
JP7301035B2 (en) 2023-06-30
WO2022102399A1 (en) 2022-05-19

Similar Documents

Publication Publication Date Title
US11539894B2 (en) In-vehicle camera system and image processing apparatus
CN107852465B (en) Vehicle-mounted environment recognition device
US9066085B2 (en) Stereoscopic camera object detection system and method of aligning the same
US20110234761A1 (en) Three-dimensional object emergence detection device
JP5313638B2 (en) Vehicle headlamp device
JP2015195569A (en) Imaging device for mobile
CN105744163A (en) Video camera and video recording method performing tracking focusing based on depth information
KR20120126152A (en) Divice and method for photographing image and divice for extracting image information
JP6032034B2 (en) Object detection device
JPWO2017169365A1 (en) Road surface displacement detection device and suspension control method
JPWO2015129280A1 (en) Image processing apparatus and image processing method
JP6967464B2 (en) Image processing device
JP6065629B2 (en) Object detection device
JP6653456B1 (en) Imaging device
JP6243758B2 (en) Vehicle periphery monitoring device, vehicle periphery monitoring method, and program
CN109383363B (en) Headlamp control apparatus and method for preventing light pollution caused by speed bump
WO2022102399A1 (en) Obstacle detection system
JP5643877B2 (en) Vehicle headlamp device
JP2020109559A (en) Traffic signal recognition method and traffic signal recognition device
JP2019161444A (en) Imaging device and autonomous traveling device including the same, and imaging method
JP2006279239A (en) Correction method and correction device for stereoscopic camera
WO2020121758A1 (en) Imaging unit control device
JP2008026933A (en) Surrounding recognition device
JP6101600B2 (en) Imaging device
KR20150005208A (en) Apparatus of controlling a vehicle camera and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230620

R150 Certificate of patent or registration of utility model

Ref document number: 7301035

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150