JP2021140537A - Sensing system - Google Patents

Sensing system Download PDF

Info

Publication number
JP2021140537A
JP2021140537A JP2020038613A JP2020038613A JP2021140537A JP 2021140537 A JP2021140537 A JP 2021140537A JP 2020038613 A JP2020038613 A JP 2020038613A JP 2020038613 A JP2020038613 A JP 2020038613A JP 2021140537 A JP2021140537 A JP 2021140537A
Authority
JP
Japan
Prior art keywords
route
obstacle
vehicle
sensing system
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020038613A
Other languages
Japanese (ja)
Other versions
JP7385502B2 (en
Inventor
春樹 的野
Haruki Matono
春樹 的野
寛人 三苫
Hiroto Mitoma
寛人 三苫
優貴 造田
Yuki Tsukurida
優貴 造田
裕史 大塚
Yasushi Otsuka
裕史 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Priority to JP2020038613A priority Critical patent/JP7385502B2/en
Priority to CN202080090887.1A priority patent/CN114930423A/en
Priority to PCT/JP2020/049082 priority patent/WO2021176825A1/en
Publication of JP2021140537A publication Critical patent/JP2021140537A/en
Application granted granted Critical
Publication of JP7385502B2 publication Critical patent/JP7385502B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D6/00Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

To provide a sensing system that allows a driver to know a timing of steering without colliding with an obstacle in a dead angle while concentrating on driving.SOLUTION: A sensing system comprises: a position storage unit 105 that stores position information in which a height and a position of an obstacle around a vehicle are associated with each other; and a driving support processing unit 106 that provides a driving support when the vehicle enters a road with a curved route, using the position information. The driving support includes notifying a passenger of a steering timing of the vehicle when the route becomes a route for avoiding the obstacle.SELECTED DRAWING: Figure 4

Description

本発明は、センシングシステムに関する。 The present invention relates to a sensing system.

本技術分野の背景技術として、特許文献1がある。この公報には、課題として「歩道と道路との段差や傾斜等、路面の勾配が変化している地点を通過する際、車両の底部と路面とが接触することがよくある。しかしながら、従来、このような車両の底部と障害物や路面との接触の可否を的確に判断できるシステムは提案されていなかった。」と記載され、解決手段として、「車両の周辺を監視する監視手段から得られる情報に基づいて、前記車両周辺の障害物の形状、路面形状、及び路面形状の変化地点のうちの少なくともいずれかを含む障害要因を解析する障害要因解析手段と、前記車両の現在の地上高を求める地上高算出手段と、前記障害要因解析手段により解析された前記障害要因に関する情報、及び前記地上高算出手段により算出された前記車両の現在の地上高に基づいて、前記車両の底部が前記障害物と接触せずに該障害物上を通過可能か否かを判断する接触判断手段と、該接触判断手段による判断結果に基づいて、所定の告知を行う告知手段とを備えていることを特徴としている。」と記載されている。 Patent Document 1 is a background technique in this technical field. In this publication, as an issue, "when passing through a point where the slope of the road surface is changing, such as a step or slope between a sidewalk and a road, the bottom of the vehicle and the road surface often come into contact with each other. "A system that can accurately determine whether or not the bottom of the vehicle is in contact with an obstacle or the road surface has not been proposed." As a solution, "obtained from a monitoring means that monitors the surroundings of the vehicle." Based on the information, the obstacle factor analysis means for analyzing the obstacle factor including at least one of the shape of the obstacle around the vehicle, the road surface shape, and the change point of the road surface shape, and the current ground height of the vehicle are analyzed. The bottom of the vehicle is the obstacle based on the obtained ground height calculation means, the information on the obstacle factor analyzed by the obstacle factor analysis means, and the current ground height of the vehicle calculated by the ground height calculation means. It is characterized by being provided with a contact determination means for determining whether or not it is possible to pass over the obstacle without contacting an object, and a notification means for making a predetermined notification based on the determination result by the contact determination means. It is stated. "

特開2007−112317号公報JP-A-2007-112317

前記特許文献1では、例えば車両が障害物に接近するなどして障害物が死角に入った際に、死角にある障害物に衝突することなく操舵するタイミングを、運転者が運転に集中したまま通知することに課題がある。 In Patent Document 1, when an obstacle enters a blind spot, for example, when a vehicle approaches an obstacle, the driver keeps the timing of steering without colliding with the obstacle in the blind spot while concentrating on driving. There is a problem with notifying.

本発明は、上記課題に鑑みてなされたもので、その目的は、死角にある障害物に衝突することなく操舵するタイミングを、運転者が運転に集中したまま知ることができるセンシングシステムを提供することである。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a sensing system that allows a driver to know the timing of steering without colliding with an obstacle in a blind spot while concentrating on driving. That is.

上記目的を達成するために、本発明に係るセンシングシステムは、車両の周囲の障害物の高さと位置とを対応付けた位置情報を記憶する位置記憶部と、前記位置情報を使用して、前記車両が道路へ曲線の経路を伴って進入する際の運転支援を行う運転支援処理部と、を有し、前記運転支援は、前記経路が前記障害物を回避する経路になった際に、前記車両の操舵タイミングを搭乗者に報知することを含む。 In order to achieve the above object, the sensing system according to the present invention uses a position storage unit that stores position information in which the height and position of obstacles around the vehicle are associated with each other, and the position information. It has a driving support processing unit that provides driving support when a vehicle enters the road with a curved route, and the driving support is provided when the route becomes a route for avoiding the obstacle. This includes notifying the passenger of the steering timing of the vehicle.

本発明によれば、死角にある障害物に衝突することなく操舵するタイミングを、運転者が煩わしい操作なく知ることができる。 According to the present invention, the driver can know the timing of steering without colliding with an obstacle in the blind spot without troublesome operation.

上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。 Issues, configurations and effects other than those described above will be clarified by the description of the following embodiments.

実施例1における障害物検知システムの全体構成を示す説明図。Explanatory drawing which shows the whole structure of the obstacle detection system in Example 1. FIG. 障害物と車両の位置関係の説明図。Explanatory drawing of the positional relationship between an obstacle and a vehicle. 障害物と車両の位置関係の説明図。Explanatory drawing of the positional relationship between an obstacle and a vehicle. 実施例1におけるセンシングシステムの構成を示す説明図。The explanatory view which shows the structure of the sensing system in Example 1. FIG. 実施例1におけるセンシングシステムの動作例を示すフローチャート。The flowchart which shows the operation example of the sensing system in Example 1. FIG. 経路の説明図。Explanatory diagram of the route. 実施例2におけるセンシングシステムの構成を示す説明図。The explanatory view which shows the structure of the sensing system in Example 2. FIG. 実施例2におけるセンシングシステムの動作例を示すフローチャート。The flowchart which shows the operation example of the sensing system in Example 2. 実施例3におけるセンシングシステムの構成を示す説明図。The explanatory view which shows the structure of the sensing system in Example 3. FIG. 経路の説明図。Explanatory diagram of the route. 実施例4におけるセンシングシステムの構成を示す説明図。The explanatory view which shows the structure of the sensing system in Example 4. FIG. 実施例4におけるセンシングシステムの動作例を示すフローチャート。The flowchart which shows the operation example of the sensing system in Example 4. FIG. 実施例5におけるセンシングシステムの構成を示す説明図。Explanatory drawing which shows the structure of the sensing system in Example 5. 実施例6におけるセンシングシステムの構成を示す説明図。Explanatory drawing which shows the structure of the sensing system in Example 6.

以下、図面を用いて本発明の実施例を説明する。なお、以下の実施例の説明において同じ機能を有する部分には同じ符号を付して繰り返し説明は省略する場合がある。 Hereinafter, examples of the present invention will be described with reference to the drawings. In the description of the following examples, parts having the same function may be designated by the same reference numerals and repeated description may be omitted.

[実施例1]
対象の三次元位置を推定する手段として、ステレオカメラシステムが良く知られている。ステレオカメラシステムは、カメラを複数の位置に配置して同一対象物体を異なる複数の視点から撮像し、得られた画像における見え方のずれ、すなわち視差から対象物体までの距離を算出する。2台のカメラを用いた一般的なステレオカメラシステムでは、この変換は以下の数式1で表される。
(数1)

Figure 2021140537
ここで、Z[mm]は対象物体までの距離、f[mm]は焦点距離、w[mm/px]は画素ピッチ、B[mm]はカメラ間の距離(基線長)、D[px]は視差を表す。 [Example 1]
A stereo camera system is well known as a means for estimating the three-dimensional position of an object. In the stereo camera system, the cameras are arranged at a plurality of positions, the same target object is imaged from a plurality of different viewpoints, and the deviation of the appearance in the obtained image, that is, the distance from the parallax to the target object is calculated. In a general stereo camera system using two cameras, this conversion is expressed by Equation 1 below.
(Number 1)
Figure 2021140537
Here, Z [mm] is the distance to the target object, f [mm] is the focal length, w [mm / px] is the pixel pitch, B [mm] is the distance between cameras (baseline length), and D [px]. Represents parallax.

視差を算出するにあたっては、複数の位置から撮像された画像を水平に並べ、左画像内の特定の点に対して右画像内で同一の点が撮像されている位置を探索する。この探索を効率よく実施するため、一般には平行化処理を事前に実施する。 In calculating the parallax, images captured from a plurality of positions are arranged horizontally, and a position in which the same point is captured in the right image is searched for a specific point in the left image. In order to carry out this search efficiently, the parallelization process is generally carried out in advance.

平行化とは、画像の縦方向の位置合わせを意味する。すなわち、左右画像で同一の点は同一の高さに撮像されているように画像を校正する処理である。平行化された画像では、対応点を探索する際に、ある横一列のみを探索すればよく、処理効率が高い。 Parallelization means vertical alignment of an image. That is, it is a process of calibrating the left and right images so that the same points are captured at the same height. In a parallelized image, when searching for a corresponding point, it is only necessary to search for a certain horizontal row, and the processing efficiency is high.

以下では、対象物体(障害物)の三次元位置を推定する手段としてステレオカメラシステムによる障害物検知システムを例に説明する。ただし、対象物体(障害物)の三次元位置を推定する手段としては、対象物体(障害物)の距離(高さ)と位置とを対応付けて推定できればよく、例えば、赤外線センサ、ミリ波レーダ、Lidarなど、ステレオカメラシステム以外の任意の手段を適用することができる。 In the following, an obstacle detection system using a stereo camera system will be described as an example as a means for estimating the three-dimensional position of the target object (obstacle). However, as a means for estimating the three-dimensional position of the target object (obstacle), it suffices if the distance (height) of the target object (obstacle) can be estimated in association with the position. For example, an infrared sensor or a millimeter-wave radar. , Lidar, and any other means other than the stereo camera system can be applied.

図1は、実施例1における障害物検知システムの全体構成図であり、例えば車両200のフロントガラスに画像処理装置としてのステレオカメラシステムを含むセンシングシステム201が設置されている。センシングシステム201は、車両情報ECU202に接続され、操舵装置204およびブレーキ制御装置205は、車両情報ECU202の指示によって操舵および加減速を制御することができる。例えば障害物210、211を検出した場合、その障害物210、211の位置の検出をセンシングシステム201で行い、障害物210、211との距離を測定した結果を車両情報ECU202に送信する。障害物210、211と衝突しそうであれば、車両情報ECU202は、ブレーキ制御装置205へブレーキ指示したり、操舵装置204へ操舵指示することで、衝突の被害を軽減することが可能なシステムである。 FIG. 1 is an overall configuration diagram of an obstacle detection system according to the first embodiment. For example, a sensing system 201 including a stereo camera system as an image processing device is installed on the windshield of a vehicle 200. The sensing system 201 is connected to the vehicle information ECU 202, and the steering device 204 and the brake control device 205 can control steering and acceleration / deceleration according to instructions from the vehicle information ECU 202. For example, when obstacles 210 and 211 are detected, the positions of the obstacles 210 and 211 are detected by the sensing system 201, and the result of measuring the distance to the obstacles 210 and 211 is transmitted to the vehicle information ECU 202. If the vehicle information ECU 202 is likely to collide with obstacles 210 and 211, the vehicle information ECU 202 is a system capable of reducing the damage of the collision by instructing the brake control device 205 to brake or instructing the steering device 204 to steer. ..

図2および図3は、障害物301と車両200の位置関係の説明図である。図2および図3に示すように、車両200が障害物301に接近して障害物301が死角に入った状態で障害物301の近傍もしくは障害物301上を通過する場合、前記のようにセンシングシステム201で障害物301の位置や距離の検出を行うことはできない。ただし、図2に示すように、平らな路面302上に車両200と障害物301がある場合、車両200が障害物301に接近して障害物301が死角に入ったときでも、障害物301と車両200(の底面)の位置関係はセンシングシステム201で事前に検出した関係から変化しないため(換言すれば、センシングシステム201で事前に検出した関係をそのまま利用可能であるため)、路面302から車両200の底面までの高さが、障害物301の路面302からの高さより低ければ(詳しくは、低いことが事前に検出できていれば)、衝突はしない。しかし、実際の道路環境では、図3に示すように、路面303に凹凸が存在している。特に、駐車場の出入り口などは段差があることが多く、路面303のように凹凸があり、車両200が傾く。そのため、障害物301と車両200(の底面)の位置関係の検出結果から衝突しないと事前に判定されていた場合でも、車両200が障害物301に接近して障害物301が死角に入ったときに(例えば、右左折の操舵などによって障害物301が死角に入ったときに)、路面303の凹凸によって障害物301と車両200(の底面)の位置関係がセンシングシステム201で事前に検出した関係から変化した場合、車両200(の底面)が障害物301に衝突してしまう可能性がある。つまり、障害物301に衝突するかどうかの判定は、路面303の凹凸と車両200の姿勢から衝突可能性を判断する必要がある。 2 and 3 are explanatory views of the positional relationship between the obstacle 301 and the vehicle 200. As shown in FIGS. 2 and 3, when the vehicle 200 approaches the obstacle 301 and passes in the vicinity of the obstacle 301 or on the obstacle 301 with the obstacle 301 in the blind spot, the sensing is performed as described above. The system 201 cannot detect the position or distance of the obstacle 301. However, as shown in FIG. 2, when the vehicle 200 and the obstacle 301 are on the flat road surface 302, even when the vehicle 200 approaches the obstacle 301 and the obstacle 301 enters the blind spot, the obstacle 301 and the obstacle 301 Since the positional relationship of the vehicle 200 (bottom surface) does not change from the relationship detected in advance by the sensing system 201 (in other words, the relationship detected in advance by the sensing system 201 can be used as it is), the vehicle can be seen from the road surface 302. If the height to the bottom of the 200 is lower than the height of the obstacle 301 from the road surface 302 (specifically, if it can be detected in advance that it is low), no collision will occur. However, in an actual road environment, as shown in FIG. 3, the road surface 303 has irregularities. In particular, there are often steps at the entrance and exit of the parking lot, and there are irregularities like the road surface 303, so that the vehicle 200 tilts. Therefore, even if it is determined in advance from the detection result of the positional relationship between the obstacle 301 and the vehicle 200 (bottom surface) that the vehicle 200 does not collide, when the vehicle 200 approaches the obstacle 301 and the obstacle 301 enters the blind spot. (For example, when the obstacle 301 enters the blind spot due to steering when turning left or right), the positional relationship between the obstacle 301 and the vehicle 200 (bottom surface) is detected in advance by the sensing system 201 due to the unevenness of the road surface 303. If the vehicle changes from, the vehicle 200 (bottom surface) may collide with the obstacle 301. That is, in order to determine whether or not to collide with the obstacle 301, it is necessary to determine the possibility of collision from the unevenness of the road surface 303 and the posture of the vehicle 200.

本実施例のセンシングシステム201は、主として、駐車場や脇道から車両200を操舵して左折または右折しながら(すなわち、曲線の経路を伴って)道路へ進入する際、或いは、交差点やT字路などの一方の道路から車両200を操舵して左折または右折しながら(すなわち、曲線の経路を伴って)他方の道路へ進入する際、前記のように死角に入る大きさ(高さ)の障害物301との衝突を回避可能とするための運転支援(操舵支援)を行うシステムである。 The sensing system 201 of the present embodiment mainly steers the vehicle 200 from a parking lot or a side road and enters a road while turning left or right (that is, accompanied by a curved route), or at an intersection or a T-junction. When entering the other road while steering the vehicle 200 from one road such as, turning left or right (that is, with a curved path), an obstacle of a size (height) that enters the blind spot as described above. This is a system that provides driving support (steering support) to avoid collision with the object 301.

(構成説明)
図4は、実施例1におけるセンシングシステムの構成を示す図である。車両200に搭載されたセンシングシステム201は、CPU103と、メモリ102、画像入力部101、距離測定部100、物体検知部104、位置記憶部105、運転支援処理部106、経路推定部120、外部入出力部110で構成される。センシングシステム201を構成する各構成要素は、通信ラインを介して通信可能に接続されている。CPU103は、メモリ102に格納されているプログラムの指示に従って、以下で説明する演算処理を実行する。
(Structure explanation)
FIG. 4 is a diagram showing a configuration of a sensing system according to the first embodiment. The sensing system 201 mounted on the vehicle 200 includes a CPU 103, a memory 102, an image input unit 101, a distance measurement unit 100, an object detection unit 104, a position storage unit 105, a driving support processing unit 106, a route estimation unit 120, and an external input. It is composed of an output unit 110. Each component constituting the sensing system 201 is communicably connected via a communication line. The CPU 103 executes the arithmetic processing described below according to the instructions of the program stored in the memory 102.

画像入力部101は、外部の画像データ出力装置(図示せず)が出力したデータを入力するためのインターフェースである。ステレオカメラの場合、左右が同一の時刻で撮影されるように同期された画像が入力されると、距離をより正確に求めることができる。画像入力部101で入力されたデータは、メモリ102に格納される。 The image input unit 101 is an interface for inputting data output by an external image data output device (not shown). In the case of a stereo camera, the distance can be obtained more accurately when synchronized images are input so that the left and right images are taken at the same time. The data input by the image input unit 101 is stored in the memory 102.

距離測定部100は、画像入力部101から入力された左右画像が平行になるように取付位置やレンズによる歪などを補正し、画素毎に2つのカメラの見え方の差である視差を算出し、画素毎に距離を算出する。あらかじめカメラの歪やレンズおよび撮像素子そしてカメラ間の位置関係を計測することで、視差から距離を算出することができる(数式1)。 The distance measuring unit 100 corrects the mounting position, distortion due to the lens, etc. so that the left and right images input from the image input unit 101 are parallel, and calculates the parallax, which is the difference in the appearance of the two cameras for each pixel. , Calculate the distance for each pixel. The distance can be calculated from the parallax by measuring the distortion of the camera and the positional relationship between the lens, the image sensor, and the camera in advance (Formula 1).

物体検知部104は、距離測定部100から出力される距離データ(距離情報)から、物体の領域(画像上の位置に対応)を抽出する。物体の領域抽出方法は、距離の近い領域をグルーピングする方式や、画像入力部101から入力された画像データから人や車のパターンを検出する方法などがある。これらの計算はCPU103にて行われる。 The object detection unit 104 extracts an object area (corresponding to a position on the image) from the distance data (distance information) output from the distance measurement unit 100. The method of extracting the area of the object includes a method of grouping areas having a short distance, a method of detecting a pattern of a person or a car from the image data input from the image input unit 101, and the like. These calculations are performed by the CPU 103.

なお、車両200の周囲の物体(障害物)の距離情報の取得方法や検知方法は、物体(障害物)の距離(高さ)と位置とを対応付けて取得・検知できれば、図示例に限られない。 The method of acquiring and detecting the distance information of an object (obstacle) around the vehicle 200 is limited to the illustrated example as long as the distance (height) and the position of the object (obstacle) can be acquired and detected in association with each other. I can't.

位置記憶部105は、距離測定部100から得られる距離情報を記憶する。ここでは、位置記憶部105は、距離測定部100から得られる距離情報を、物体(障害物)の距離(高さ)と位置とを対応付けた位置情報として記憶する。位置記憶部105は、外部入出力部110から入力される車速情報、操舵角情報、ヨーレート情報、または絶対位置情報などの車両情報から、自車がどのように移動したかを推定し、自車周辺の距離情報を更新し、保持する。この距離情報から路面の凹凸(図3参照)を復元できるため、自車周辺の凹凸情報を常に把握することが可能となる。例えば車両前方に取り付けられたカメラは、近傍や真横などはレンズの画角の範囲外(死角)になる。したがって、画像入力部101の画角外においては、この位置記憶部105の情報を更新し続けることで、自車周辺の凹凸を判断することができる。 The position storage unit 105 stores the distance information obtained from the distance measurement unit 100. Here, the position storage unit 105 stores the distance information obtained from the distance measurement unit 100 as the position information in which the distance (height) of the object (obstacle) and the position are associated with each other. The position storage unit 105 estimates how the vehicle has moved from vehicle information such as vehicle speed information, steering angle information, yaw rate information, or absolute position information input from the external input / output unit 110, and the vehicle own vehicle. Update and retain peripheral distance information. Since the unevenness of the road surface (see FIG. 3) can be restored from this distance information, it is possible to always grasp the unevenness information around the own vehicle. For example, in a camera mounted in front of a vehicle, the vicinity or the side of the camera is out of the angle of view of the lens (blind spot). Therefore, outside the angle of view of the image input unit 101, the unevenness around the own vehicle can be determined by continuously updating the information of the position storage unit 105.

外部入出力部110は、センシングシステム201と他の機器との情報伝達に使用する。例えば自動車の場合、CAN(Car Area Network)を接続し、他の機器と通信することができる。運転者に対する表示装置やスピーカ装置などで構成されるユーザ通知部150を接続することで、運転者に対して注意を促すことができる(後で説明)。特に本実施例の場合、警告音を発するスピーカ装置で通知することで、運転者の左右安全確認を妨げることなく通知することができ、好適である。 The external input / output unit 110 is used for transmitting information between the sensing system 201 and other devices. For example, in the case of an automobile, a CAN (Car Area Network) can be connected to communicate with other devices. By connecting the user notification unit 150 composed of a display device, a speaker device, and the like to the driver, the driver can be alerted (described later). In particular, in the case of this embodiment, by notifying with a speaker device that emits a warning sound, it is possible to notify without interfering with the driver's left-right safety confirmation, which is preferable.

ここで、車両200の経路について説明する。図6に経路の説明図を示す。図6において、702から705は自車の時刻毎の位置を示し、702から時刻が経過する毎の位置を702,703,704,705の順に自車が移動する例を示している。720は低い段差からなる障害物であり、時刻Tの位置702ではカメラで撮影できていたが、時刻Tの位置703ではカメラの死角になり、障害物720は運転者からは見えない。701は自車の経路を示しており、本例において経路とは車両の幅を持った軌跡である。710は道路上の区画線(中央線や車線境界線など)であり、図6の例では破線の白線の例を図示している。711は経路701(つまり自車)が進入する道路上の区画である。図6の例では、自車が操舵して左折し、区画線710によって画定される区画711へ曲線の経路701を伴って位置702,703,704,705の順に移動して進入している。経路701の近くの障害物720は、時刻Tの位置702ではカメラで撮影できていたが、時刻Tの位置703ではカメラの死角になる。そのため、時刻Tの位置703でカメラの死角にある障害物720との衝突を回避しつつ自車を操舵して左折することによって、道路上の区画711へ進入することが望まれる。 Here, the route of the vehicle 200 will be described. FIG. 6 shows an explanatory diagram of the route. In FIG. 6, 702 to 705 indicate the position of the own vehicle for each time, and an example is shown in which the own vehicle moves in the order of 702, 703, 704, 705 at each position where the time elapses from 702. 720 is an obstacle consisting of a low step, and it was possible to take a picture with the camera at the position 702 at time T 0 , but at the position 703 at time T 1 , it becomes a blind spot of the camera, and the obstacle 720 cannot be seen by the driver. 701 indicates the route of the own vehicle, and in this example, the route is a locus having the width of the vehicle. Reference numeral 710 is a lane marking line (center line, lane boundary line, etc.) on the road, and in the example of FIG. 6, an example of a broken white line is shown. Reference numeral 711 is a section on the road on which the route 701 (that is, the own vehicle) enters. In the example of FIG. 6, the own vehicle steers and turns left, and moves into the section 711 defined by the section line 710 in the order of positions 702, 703, 704, and 705 with the curved path 701. The obstacle 720 near the path 701 could be photographed by the camera at the position 702 at the time T 0 , but becomes a blind spot of the camera at the position 703 at the time T 1. Therefore, by the own vehicle while avoiding collision with the obstacle 720 in the blind spot of the camera Turn left steering at position 703 at time T 1, it is desired to enter the compartment 711 on the road.

センシングシステム201の経路推定部120は、外部入出力部110から入力される、ハンドルの操舵角度、方向指示器の状態、車両の速度、ヨーレート、車両の絶対位置などから、自車がどの位置を通過するかを予測する。経路推定部120は、現在時刻から数秒先までの位置を求める。ここで、ハンドルの操舵角度を現在の操舵角度から変化させた場合を想定した複数の経路を求める。なお、車両の速度やヨーレートを現在の値から変化させた場合を想定した複数の経路を求めてもよい。この複数の経路をまとめて走行可能性経路として、位置記憶部105が保持する距離情報に経路として記憶させる。 The route estimation unit 120 of the sensing system 201 determines which position the own vehicle is in based on the steering angle of the steering wheel, the state of the direction indicator, the speed of the vehicle, the yaw rate, the absolute position of the vehicle, etc., which are input from the external input / output unit 110. Predict whether it will pass. The route estimation unit 120 obtains a position from the current time to a few seconds ahead. Here, a plurality of paths assuming a case where the steering angle of the steering wheel is changed from the current steering angle are obtained. It should be noted that a plurality of routes may be obtained assuming that the speed and yaw rate of the vehicle are changed from the current values. The plurality of routes are collectively stored as a travelability route in the distance information held by the position storage unit 105 as a route.

運転支援処理部106は、前記位置記憶部105から出力される距離情報(位置情報)から、あらかじめメモリ102に保持している車両底面の高さ、前後の車輪の位置関係などの車両のパラメータを利用し、障害物と車両の高さの差を算出する。運転支援処理部106は、前記経路上(詳しくは、距離情報に記憶させた経路上)の障害物の位置と前記高さの差から、障害物との衝突可能性(すなわち、前記経路が障害物を回避する経路になったかどうか)を判断し、衝突可能性がある場合は、外部入出力部110からユーザ通知部150を介して運転手に対して警告音や警告表示で警告する。また、運転支援処理部106は、それと同時に操舵を開始しても障害物と衝突しないかどうか(すなわち、前記経路が障害物を回避する経路になったかどうか)を判断しており、前記経路上の障害物付近の経路を通過する時は、操舵を開始しても障害物と衝突しないと判定した時点で、外部入出力部110からユーザ通知部150を介して運転手に対して警告音や警告表示で報知(本例では、警告音や警告表示を消すことで報知)する。これにより、車両200を操舵して左折または右折しながら道路へ進入する際、操舵を開始しても障害物と衝突しなくなった際に、車両の操舵タイミングを運転者(搭乗者)に報知する。例えば、運転手が通過する経路は操舵角などから計算し(経路推定部120)、障害物に近づいたら警告音が鳴り、警告音が消えたら操舵開始してもよいという合図にすることで、運転手は左右の安全確認、適切なスピードコントロール、適切な操舵(操舵タイミング)に集中することができる。特に、死角領域で見えなくなってしまった障害物に対しても、前記位置記憶部105から出力される距離情報(位置情報)を利用することで、側面を監視するセンサや車両の姿勢や高さを測定するセンサを追加することなく、衝突を回避することができる。 From the distance information (position information) output from the position storage unit 105, the driving support processing unit 106 obtains vehicle parameters such as the height of the vehicle bottom surface and the positional relationship between the front and rear wheels held in the memory 102 in advance. Use it to calculate the difference in height between the obstacle and the vehicle. The driving support processing unit 106 may collide with an obstacle (that is, the route is obstructed) based on the difference between the position of the obstacle on the route (specifically, on the route stored in the distance information) and the height. If there is a possibility of a collision, the external input / output unit 110 warns the driver via the user notification unit 150 with a warning sound or a warning display. Further, the driving support processing unit 106 determines whether or not the vehicle collides with an obstacle even if the steering is started at the same time (that is, whether or not the route has become a route for avoiding the obstacle), and the driving support processing unit 106 determines on the route. When passing through a route near an obstacle, when it is determined that the vehicle does not collide with the obstacle even when steering is started, a warning sound is emitted from the external input / output unit 110 to the driver via the user notification unit 150. Notify with a warning display (in this example, notify by turning off the warning sound and warning display). As a result, when the vehicle 200 is steered to enter the road while turning left or right, and when the vehicle no longer collides with an obstacle even when the steering is started, the driver (passenger) is notified of the steering timing of the vehicle. .. For example, the path taken by the driver is calculated from the steering angle, etc. (route estimation unit 120), and a warning sound is emitted when approaching an obstacle, and steering may be started when the warning sound disappears. The driver can concentrate on left and right safety checks, proper speed control, and proper steering (steering timing). In particular, even for obstacles that have disappeared in the blind spot area, by using the distance information (position information) output from the position storage unit 105, the sensor that monitors the side surface and the posture and height of the vehicle Collision can be avoided without adding a sensor to measure.

(動作説明)
図5のフローチャートにて一連の動作を説明する。カメラおよびそれに続く図5に示す処理は所定の周期処理で実行され、その一連の動作について説明する。
(Operation explanation)
A series of operations will be described with reference to the flowchart of FIG. The camera and the subsequent processing shown in FIG. 5 are executed in a predetermined periodic processing, and a series of operations thereof will be described.

まず最初にステップS1001として、画像入力部101からカメラ画像を取得し、距離測定部100で各画素の距離を計算する。次に、ステップS1002では、距離測定部100で生成した距離情報から物体検知部104にて物体(障害物)を検知する。 First, as step S1001, a camera image is acquired from the image input unit 101, and the distance measurement unit 100 calculates the distance of each pixel. Next, in step S1002, the object detection unit 104 detects an object (obstacle) from the distance information generated by the distance measurement unit 100.

次に、ステップS1003では、位置記憶部105にて、物体検知部104の出力結果(距離情報(位置情報))を記憶する。ステップS1003では、障害物の位置と、路面の小さな凹凸を記憶する。凹凸の記憶は、例えば、10cm四方ごとにある起点からの三次元位置情報を記憶するものとする。起点は、カメラの電源が入ったときや外部入出力部110から得られる現在位置情報などで決定してもよい。これらの三次元位置情報の点群は、外部入出力部110から入力される自車速や操舵角、ヨーレート、絶対位置などの車両情報から前回のフレームからどれだけ移動したかを計算して保存する(ステップS1004(前回位置更新))。ステップS1005では、経路推定部120にて、外部入出力部110から入力される自車速や操舵角、ヨーレート、自車位置などの車両情報から、時刻T経過化後の自車位置を予測し、それらの自車位置で構成される経路(複数の経路からなる走行可能性経路)を生成する。 Next, in step S1003, the position storage unit 105 stores the output result (distance information (position information)) of the object detection unit 104. In step S1003, the position of the obstacle and the small unevenness of the road surface are memorized. As for the memory of the unevenness, for example, it is assumed that the three-dimensional position information from the starting point located every 10 cm square is stored. The starting point may be determined by the current position information obtained from the external input / output unit 110 or when the power of the camera is turned on. The point cloud of these three-dimensional position information calculates and saves how much the vehicle has moved from the previous frame from the vehicle information such as the own vehicle speed, steering angle, yaw rate, and absolute position input from the external input / output unit 110. (Step S1004 (previous position update)). In step S1005, the route estimation unit 120 predicts the vehicle position after the time T has elapsed from the vehicle information such as the vehicle speed, steering angle, yaw rate, and vehicle position input from the external input / output unit 110. A route (a travelability route consisting of a plurality of routes) composed of those own vehicle positions is generated.

ステップS1006では、運転支援処理部106にて、ステップS1004(前回位置更新)で更新された情報とステップS1005(走行可能性経路生成)で求めた経路とを基に、自車が経路を通過した時の、車のタイヤと路面の凹凸から、障害物にぶつかる位置を計算し、障害物に衝突するかどうか(すなわち、前記経路が障害物を回避する経路になったかどうか)を判定する。衝突するかどうかの判定は、車両の外側の最低地上高よりも障害物の位置が高いかどうかで決まる。衝突可能性がある場合は(S1007:Yes)、ステップS1008で、外部入出力部110からユーザに通知する。ユーザの通知は、外部入出力部110に接続されたユーザ通知部150で行われる。例えばユーザ通知部150としてのスピーカで警告音をならすことで、ユーザに通知する。また、操舵を開始しても衝突可能性がない場合は(S1007:No)、ステップS1009で、外部入出力部110からユーザに通知する。ユーザの通知は、外部入出力部110に接続されたユーザ通知部150で行われる。例えばユーザ通知部150としてのスピーカの警告音を消す(鳴動を停止する)ことで、ユーザに通知する。 In step S1006, the driving support processing unit 106 has passed the route based on the information updated in step S1004 (previous position update) and the route obtained in step S1005 (travelability route generation). From the unevenness of the car tire and the road surface at that time, the position of hitting the obstacle is calculated, and whether or not the vehicle collides with the obstacle (that is, whether or not the route has become a route for avoiding the obstacle) is determined. The determination of whether or not a collision occurs is determined by whether or not the position of the obstacle is higher than the minimum ground clearance outside the vehicle. If there is a possibility of collision (S1007: Yes), the external input / output unit 110 notifies the user in step S1008. User notification is performed by the user notification unit 150 connected to the external input / output unit 110. For example, the user is notified by sounding a warning sound with a speaker as the user notification unit 150. If there is no possibility of collision even after the steering is started (S1007: No), the external input / output unit 110 notifies the user in step S1009. User notification is performed by the user notification unit 150 connected to the external input / output unit 110. For example, the user is notified by turning off the warning sound of the speaker as the user notification unit 150 (stops the ringing).

(作用効果説明)
以上で説明したように、本実施例のセンシングシステム201は、車両の周囲の障害物の高さと位置とを対応付けた位置情報を記憶する位置記憶部105と、前記位置情報を使用して、前記車両が道路へ曲線の経路を伴って進入する際の運転支援を行う運転支援処理部106と、を有し、前記運転支援は、前記経路が前記障害物を回避する経路になった際に、前記車両の操舵タイミングを搭乗者に報知することを含む。
(Explanation of action and effect)
As described above, the sensing system 201 of the present embodiment uses the position storage unit 105 that stores the position information in which the height and the position of the obstacle around the vehicle are associated with each other, and the position information. It has a driving support processing unit 106 that provides driving support when the vehicle enters the road with a curved route, and the driving support is provided when the route becomes a route for avoiding the obstacle. , Including notifying the passenger of the steering timing of the vehicle.

本実施例によれば、死角にある障害物に衝突することなく操舵するタイミングを、運転者が煩わしい操作なく知ることができる。また、障害物を検出するセンサは例えば前方を監視するセンサのみで障害物を回避できる。 According to this embodiment, the driver can know the timing of steering without colliding with an obstacle in the blind spot without troublesome operation. Further, the sensor for detecting an obstacle is, for example, only a sensor for monitoring the front, and the obstacle can be avoided.

[実施例2]
区画線を考慮して駐車場から道路に進入する場合の運転支援の例について図7および図8を参照して説明する。
[Example 2]
An example of driving assistance when entering a road from a parking lot in consideration of a lane marking will be described with reference to FIGS. 7 and 8.

本実施例2では、実施例1に加えて、区画検知部107を追加する。区画検知部107は、図6に示す道路の区画線710である白線および区画線710で画定される区画711を検知する。カメラによる区画線の検知方式は、画像からエッジを抽出し、直線を検出する方法などがある。ただし、区画線および区画の検知方法は、これに限られない。区画検知ができた場合、運転支援処理部106は、前記障害物を回避しつつ経路が検知した区画内に収まるように、すなわち、図6に示すように経路が道路上の区画線より前を通過するように、運転手に外部入出力部110からユーザ通知部150を介して報知する。これにより、車両200を操舵して左折または右折しながら道路へ進入する際、操舵を開始しても障害物と衝突しなくなった際に、経路が道路上の区画線より前を通過する車両の操舵タイミングを運転者(搭乗者)に報知する。 In the second embodiment, the partition detection unit 107 is added in addition to the first embodiment. The section detection unit 107 detects the section 711 defined by the white line and the section line 710, which are the section lines 710 of the road shown in FIG. As a method for detecting a lane marking with a camera, there is a method of extracting an edge from an image and detecting a straight line. However, the method of detecting the lane marking and the lane marking is not limited to this. When the section can be detected, the driving support processing unit 106 avoids the obstacle so that the route fits within the detected section, that is, the route is in front of the section line on the road as shown in FIG. The driver is notified from the external input / output unit 110 via the user notification unit 150 so as to pass through. As a result, when the vehicle 200 is steered to enter the road while turning left or right, and when the vehicle no longer collides with an obstacle even when the steering is started, the route of the vehicle passing in front of the lane marking on the road. Notify the driver (passenger) of the steering timing.

区画検知処理は、例えば、図8のステップS2001のタイミングで区画検知部107にて実施される。つまり、ステップS1007で衝突可能性がないと判断されて(S1007:No)、ステップS2001で区画検知部107にて区画を検知した後、ステップS2002で、外部入出力部110からユーザに通知する。ユーザの通知は、外部入出力部110に接続されたユーザ通知部150で行われる。 The partition detection process is performed by the partition detection unit 107 at the timing of step S2001 in FIG. 8, for example. That is, in step S1007, it is determined that there is no possibility of collision (S1007: No), the partition detection unit 107 detects the partition in step S2001, and then the external input / output unit 110 notifies the user in step S2002. User notification is performed by the user notification unit 150 connected to the external input / output unit 110.

以上で説明したように、本実施例のセンシングシステム201は、前記運転支援処理部106の前記運転支援は、前記障害物が前記経路外にあり、前記経路が前記道路上の区画線より前を通過する前記車両の操舵タイミングを搭乗者に報知することを含む。前記経路は実際にはある幅を持った領域として表現できるので、前記経路外とは前記車両が通過する領域の外部と表現できる。 As described above, in the sensing system 201 of the present embodiment, in the driving support of the driving support processing unit 106, the obstacle is outside the route and the route is in front of the lane marking on the road. This includes notifying the passenger of the steering timing of the passing vehicle. Since the route can actually be expressed as a region having a certain width, the outside of the route can be expressed as the outside of the region through which the vehicle passes.

本実施例によれば、区画検知部107の検知結果を使用することにより、操舵が遅くなり区画外に自車(経路)がはみ出す危険を回避することができる。 According to this embodiment, by using the detection result of the compartment detection unit 107, it is possible to avoid the danger that the steering becomes slow and the own vehicle (route) protrudes outside the compartment.

[実施例3]
駐車場から道路に進入するに当たって、ユーザ通知を2段階化して経路の選択肢を向上させる場合の運転支援の例について図9を参照して説明する。
[Example 3]
An example of driving support when the user notification is divided into two stages to improve the route options when entering the road from the parking lot will be described with reference to FIG.

本実施例3では、実施例2に加えて、経路支援部108を追加する。前記障害物を回避しつつ、区画をはみ出さずに進入する際、前記障害物付近に近づくまでの経路によっては、経路の解がなくなってしまう場合がある。例えば、図10の経路721のように障害物720に近づきすぎて道路へ進行すると、車両の内輪差から衝突を回避するための操舵開始タイミングが遅くなり、結果として、区画線710(区画711)をはみ出さないと曲がれないという事態がある。そこで、経路支援部(事前報知部ともいう)108は、前記障害物の位置と区画検知部107の出力結果から、自車の経路が、区画内に曲がりきれ、障害物にも衝突しない経路722より721側になりそうなときには、外部入出力部110からユーザ通知部150を介して運転手に対して警告音や警告表示で経路722になるように障害物の手前で一旦報知する。この報知により、障害物の手前で右左折に関する経路の選択肢が増加する位置を運転者(搭乗者)に報知したり、障害物の手前で右左折に関する経路の選択肢が増加する位置へ運転者(搭乗者)を誘導する。運転者が区画をはみ出さずに右折または左折することが判断できない場合は、障害物の手前で右左折に関する経路の選択肢が多くなる位置を運転者(搭乗者)に報知したり、障害物の手前で右左折に関する経路の選択肢が多くなる位置へ運転者(搭乗者)を誘導するように1回目の支援(つまり、運転者への報知)を行い、障害物を回避でき且つ運転者が区画をはみ出さずに右折または左折できるタイミングで2回目の支援(つまり、実施例1、2と同様の運転者への報知)を行い、これらの支援を組み合わせることで、確実に区画に経路を収めることができる。 In the third embodiment, the route support unit 108 is added in addition to the second embodiment. When entering without protruding from the section while avoiding the obstacle, the solution of the route may be lost depending on the route to approach the vicinity of the obstacle. For example, if the vehicle goes too close to the obstacle 720 and goes to the road as shown in the route 721 of FIG. 10, the steering start timing for avoiding a collision is delayed due to the difference in the inner wheels of the vehicle, and as a result, the lane marking 710 (section 711) There is a situation where you cannot bend unless you stick out. Therefore, the route support unit (also referred to as the advance notification unit) 108 determines the route of the own vehicle from the position of the obstacle and the output result of the division detection unit 107, and the route 722 does not collide with the obstacle. When the vehicle is likely to be on the 721 side, the external input / output unit 110 notifies the driver via the user notification unit 150 once in front of the obstacle so as to be the route 722 with a warning sound or a warning display. By this notification, the driver (passenger) is notified of the position where the route options for turning left and right increase in front of the obstacle, and the driver (passenger) moves to the position where the route options for turning left and right increase in front of the obstacle. Guide the passenger). If the driver cannot determine whether to turn right or left without going beyond the compartment, inform the driver (passenger) of the position where there are many route options for turning left or right in front of the obstacle, or inform the driver (passenger) of the obstacle. The first support (that is, notification to the driver) is provided to guide the driver (passenger) to a position where there are many route options for turning left or right in front of the vehicle, obstacles can be avoided, and the driver can divide the area. The second support (that is, the same notification to the driver as in Examples 1 and 2) is performed at the timing when the vehicle can turn right or left without protruding, and by combining these supports, the route is surely contained in the section. be able to.

以上で説明したように、本実施例のセンシングシステム201は、前記障害物の手前で右左折に関する経路の選択肢が増加する位置を搭乗者に報知または誘導する経路支援部108を備える。 As described above, the sensing system 201 of the present embodiment includes a route support unit 108 that notifies or guides the passenger to a position where the route options for turning left or right increase in front of the obstacle.

本実施例によれば、ユーザ通知を2段階化して経路の選択肢を向上(増加)させることにより、区画外に自車(経路)がはみ出す危険を回避することができる。 According to this embodiment, it is possible to avoid the danger that the own vehicle (route) protrudes outside the section by improving (increasing) the route options by dividing the user notification into two stages.

[実施例4]
駐車場から道路に進入する際に別の障害物(移動体)がある場合の運転支援の例について図11および図12を参照して説明する。
[Example 4]
An example of driving assistance when there is another obstacle (moving body) when entering the road from the parking lot will be described with reference to FIGS. 11 and 12.

本実施例4では、実施例3に加えて、移動体進入予測部109を追加する。移動体進入予測部109は、区画線内の経路上に、自動車や自転車、歩行者などの移動体が進入してくるかどうかを予測・判定する。予測方法としては、カメラにより移動体(車両、歩行者など)を検出し、移動体の速度を予測する。この予測結果が経路上に交差し、自車と移動体が衝突する危険がある場合は、運転支援処理部106は、操舵の指示ではなく、停止の指示を出力する。自車と移動体が衝突する危険がない場合は、運転支援処理部106は、障害物を回避しつつ経路が検知した区画内に収まるように、運転手に対して外部入出力部110からユーザ通知部150を介して報知する。なお、移動体の予測方法は、これに限られない。 In the fourth embodiment, the moving object approach prediction unit 109 is added in addition to the third embodiment. The moving object approach prediction unit 109 predicts and determines whether or not a moving object such as an automobile, a bicycle, or a pedestrian will enter the route within the lane marking. As a prediction method, a moving body (vehicle, pedestrian, etc.) is detected by a camera, and the speed of the moving body is predicted. When the prediction results intersect on the route and there is a risk of the vehicle colliding with the moving body, the driving support processing unit 106 outputs a stop instruction instead of a steering instruction. When there is no danger of the vehicle colliding with the moving body, the driving support processing unit 106 tells the driver from the external input / output unit 110 so that the route is within the detected section while avoiding obstacles. Notify via the notification unit 150. The method of predicting a moving body is not limited to this.

移動体衝突判定処理は、例えば、図12のステップS4001のタイミングで移動体進入予測部109にて実施される。つまり、ステップS1007で衝突可能性がないと判断されて(S1007:No)、ステップS2001で区画検知部107にて区画を検知した後、ステップS4001で、移動体進入予測部109にて区画線内の経路上に移動体が進入してくるかどうかを予測・判定する。区画線内の経路上に移動体が進入し、移動体との衝突可能性がある場合は(S4001:Yes)、ステップS4002で、外部入出力部110からユーザに通知する。ユーザの通知は、外部入出力部110に接続されたユーザ通知部150で行われる。また、ステップS4002で、外部入出力部110から停止指示を出力する。区画線内の経路上に移動体が進入せず、移動体との衝突可能性がない場合は(S4001:No)、ステップS4003で、外部入出力部110からユーザに通知(つまり、実施例1〜3と同様の操舵タイミングの通知)する。ユーザの通知は、外部入出力部110に接続されたユーザ通知部150で行われる。 The mobile collision determination process is performed by the mobile approach prediction unit 109 at the timing of step S4001 in FIG. 12, for example. That is, in step S1007, it is determined that there is no possibility of collision (S1007: No), and in step S2001, the division detection unit 107 detects the division, and then in step S4001, the moving body approach prediction unit 109 within the division line. Predicts and determines whether or not a moving object will enter the route of. If a moving body enters the route within the lane marking and there is a possibility of collision with the moving body (S4001: Yes), the external input / output unit 110 notifies the user in step S4002. User notification is performed by the user notification unit 150 connected to the external input / output unit 110. Further, in step S4002, a stop instruction is output from the external input / output unit 110. When the moving body does not enter the route in the lane marking and there is no possibility of collision with the moving body (S4001: No), the external input / output unit 110 notifies the user in step S4003 (that is, the first embodiment). Notification of steering timing similar to ~ 3). User notification is performed by the user notification unit 150 connected to the external input / output unit 110.

これにより、万が一運転手が衝突の危険のある障害物(移動体)に気づかなくても衝突を回避することができる。また、運転手が衝突の危険を察知しているにもかかわらず、運転支援処理部106から操舵の指示があると、混乱する、または、システムに対しての不信感につながる。したがって、移動体進入予測部109と組み合わせて利用することで、より安心感のある運転支援を提供することが可能となる。 As a result, the collision can be avoided even if the driver does not notice the obstacle (moving object) at the risk of the collision. Further, even though the driver is aware of the danger of a collision, if the driving support processing unit 106 gives a steering instruction, the driver may be confused or distrust the system. Therefore, by using it in combination with the moving object approach prediction unit 109, it is possible to provide driving support with a more secure feeling.

以上で説明したように、本実施例のセンシングシステム201は、前記経路への移動体の進入の有無を予測する移動体進入予測部109を備える。 As described above, the sensing system 201 of this embodiment includes a mobile body approach prediction unit 109 that predicts the presence or absence of a mobile body entering the route.

本実施例によれば、障害物(移動体)との衝突を回避できるとともに、より安心感のある運転支援を提供することが可能となる。 According to this embodiment, it is possible to avoid a collision with an obstacle (moving body) and to provide driving support with a more secure feeling.

[実施例5]
多目的のセンシングシステムにおいて運転手の操作を低減しながらも運転支援をする例について図13を参照して説明する。
[Example 5]
An example of providing driving support while reducing driver's operation in a multipurpose sensing system will be described with reference to FIG.

本実施例5では、実施例4に加えて、シーン判定部111を追加する。シーン判定部111は、位置記憶部105の位置情報とカメラの画像などから、障害物を回避した運転支援が必要かどうかを判定する。例えば、予測経路が死角部分の障害物に近接することを検出することで対応できる。シーン判定部111が運転支援が必要な状態と判定した場合、運転支援処理部106に対して運転支援を開始する信号を出力することで、実施例1〜4のような運転支援を提供するとともに、その状態を外部に通知する。側面カメラモジュールやディスプレイモジュールが搭載されているシステムの場合、このシーン判定部111からの信号を自動で画像表示、死角の障害物の位置に注意喚起の運転支援結果を重畳することで、より明確に運転手に伝えることができる。また、システムが自動的に判断することで、運転手の操作が不要で、運転者は左右の安全確認やアクセル操作に集中することができる。 In the fifth embodiment, the scene determination unit 111 is added in addition to the fourth embodiment. The scene determination unit 111 determines whether or not driving assistance that avoids obstacles is necessary based on the position information of the position storage unit 105, the image of the camera, and the like. For example, it can be dealt with by detecting that the predicted path is close to an obstacle in the blind spot. When the scene determination unit 111 determines that driving assistance is required, it outputs a signal to start driving assistance to the driving assistance processing unit 106 to provide driving assistance as in the first to fourth embodiments. , Notify the status to the outside. In the case of a system equipped with a side camera module or display module, the signal from the scene judgment unit 111 is automatically displayed as an image, and the driving support result of alerting is superimposed on the position of the obstacle in the blind spot to make it clearer. Can tell the driver. In addition, since the system automatically determines, the driver does not need to operate, and the driver can concentrate on checking the safety on the left and right and operating the accelerator.

以上で説明したように、本実施例のセンシングシステム201は、前記位置情報と前記経路に基づいて、前記運転支援の要否を判定し、前記運転支援が必要と判定した場合、前記運転支援を開始する信号を出力するシーン判定部111を備える。 As described above, the sensing system 201 of the present embodiment determines the necessity of the driving support based on the position information and the route, and when it is determined that the driving support is necessary, the driving support is provided. A scene determination unit 111 that outputs a signal to start is provided.

本実施例によれば、条件にマッチした信号を出力し、自動運転支援に移行することが可能となる。 According to this embodiment, it is possible to output a signal that matches the conditions and shift to automatic driving support.

[実施例6]
メモリ量が小さいシステムで動作させる場合の運転支援の例について図14を参照して説明する。
[Example 6]
An example of driving assistance when operating in a system having a small amount of memory will be described with reference to FIG.

本実施例6では、実施例5に加えて、位置情報領域選択部112を追加する。メモリが少ない場合は、位置記憶部105の記憶量を削減すると効果的である。位置情報領域選択部112は、位置記憶部105に記憶する情報を、物体検知部104で検知された物体(障害物)の位置の周辺の領域に限定(選択)する。さらに、位置情報領域選択部112は、経路推定部120で推定された経路と障害物の位置関係が近い順に障害物の位置の周辺の位置情報を選択してメモリに記憶し、メモリが不足する場合には、経路との位置関係が遠い障害物の位置の周辺の位置情報は記憶しないことする。これにより、位置情報を記憶する部分を限定・選択することで、位置記憶部105の記憶量を削減することができる。 In the sixth embodiment, the position information area selection unit 112 is added in addition to the fifth embodiment. When the memory is small, it is effective to reduce the storage amount of the position storage unit 105. The position information area selection unit 112 limits (selects) the information stored in the position storage unit 105 to the area around the position of the object (obstacle) detected by the object detection unit 104. Further, the position information area selection unit 112 selects and stores the position information around the position of the obstacle in the order in which the positional relationship between the path estimated by the route estimation unit 120 and the obstacle is close to each other, and stores the position information in the memory, resulting in insufficient memory. In this case, the position information around the position of the obstacle that is far from the route is not stored. Thereby, the storage amount of the position storage unit 105 can be reduced by limiting and selecting the portion for storing the position information.

以上で説明したように、本実施例のセンシングシステム201は、前記経路に近い順に前記障害物の位置の周辺の位置情報を選択する位置情報領域選択部112を備える。 As described above, the sensing system 201 of this embodiment includes a position information area selection unit 112 that selects position information around the position of the obstacle in order of proximity to the path.

本実施例によれば、メモリとしての位置記憶部105の記憶量を削減することで、省メモリ化を図ることができる。 According to this embodiment, the memory can be saved by reducing the storage amount of the position storage unit 105 as the memory.

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 The present invention is not limited to the above-described examples, and includes various modifications. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to those having all the described configurations. Further, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Further, it is possible to add / delete / replace a part of the configuration of each embodiment with another configuration.

また、以上の各構成は、それらの一部又は全部が、ハードウェアで構成されても、プロセッサでプログラムが実行されることにより実現されるように構成されてもよい。また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 Further, each of the above configurations may be partially or wholly configured by hardware or may be configured to be realized by executing a program by a processor. In addition, the control lines and information lines indicate those that are considered necessary for explanation, and do not necessarily indicate all the control lines and information lines in the product. In practice, it can be considered that almost all configurations are interconnected.

100 距離測定部、101 画像入力部、102 メモリ、103 CPU、104 物体検知部、105 位置記憶部、106 運転支援処理部、107 区画検知部(実施例2)、108 経路支援部(実施例3)、109 移動体進入予測部(実施例4)、110 外部入出力部、111 シーン判定部(実施例5)、112 位置情報領域選択部(実施例6)、120 経路推定部、150 ユーザ通知部、200 車両、201 センシングシステム 100 Distance measurement unit, 101 Image input unit, 102 Memory, 103 CPU, 104 Object detection unit, 105 Position storage unit, 106 Operation support processing unit, 107 Section detection unit (Example 2), 108 Route support unit (Example 3) ), 109 Moving object approach prediction unit (Example 4), 110 external input / output unit, 111 scene determination unit (Example 5), 112 position information area selection unit (Example 6), 120 route estimation unit, 150 user notification. Department, 200 vehicles, 201 sensing system

Claims (7)

車両の周囲の障害物の高さと位置とを対応付けた位置情報を記憶する位置記憶部と、
前記位置情報を使用して、前記車両が道路へ曲線の経路を伴って進入する際の運転支援を行う運転支援処理部と、を有し、
前記運転支援は、前記経路が前記障害物を回避する経路になった際に、前記車両の操舵タイミングを搭乗者に報知することを含む、センシングシステム。
A position storage unit that stores position information that associates the height and position of obstacles around the vehicle,
It has a driving support processing unit that provides driving support when the vehicle enters the road with a curved route by using the position information.
The driving support is a sensing system including notifying a passenger of the steering timing of the vehicle when the route becomes a route for avoiding the obstacle.
請求項1に記載のセンシングシステムであって、
前記運転支援は、前記障害物が前記経路外にあり、前記経路が前記道路上の区画線より前を通過する前記車両の操舵タイミングを搭乗者に報知することを含み、前記経路外とは前記車両が通過する領域の外部である、センシングシステム。
The sensing system according to claim 1.
The driving assistance includes notifying the passenger of the steering timing of the vehicle in which the obstacle is outside the route and the route passes in front of the lane marking on the road. A sensing system that is outside the area through which the vehicle passes.
請求項1に記載のセンシングシステムであって、
前記障害物の手前で右左折に関する経路の選択肢が増加する位置を搭乗者に報知または誘導する経路支援部を備える、センシングシステム。
The sensing system according to claim 1.
A sensing system including a route support unit that notifies or guides a passenger at a position where the route options for turning left or right increase in front of the obstacle.
請求項1に記載のセンシングシステムであって、
前記経路への移動体の進入の有無を予測する移動体進入予測部を備える、センシングシステム。
The sensing system according to claim 1.
A sensing system including a moving body approach prediction unit that predicts the presence or absence of a moving body entering the route.
請求項1に記載のセンシングシステムであって、
前記位置情報と前記経路に基づいて、前記運転支援の要否を判定し、前記運転支援が必要と判定した場合、前記運転支援を開始する信号を出力するシーン判定部を備える、センシングシステム。
The sensing system according to claim 1.
A sensing system including a scene determination unit that determines the necessity of the driving support based on the position information and the route, and outputs a signal for starting the driving support when the driving support is determined to be necessary.
請求項1に記載のセンシングシステムであって、
前記経路に近い順に前記障害物の位置の周辺の位置情報を選択する位置情報領域選択部を備える、センシングシステム。
The sensing system according to claim 1.
A sensing system including a position information area selection unit that selects position information around the position of the obstacle in order of proximity to the path.
請求項1に記載のセンシングシステムであって、
前記運転支援は、前記経路が前記障害物を回避できない経路である際は警告音を鳴らし、前記経路が前記障害物を回避する経路になった際に前記警告音を消すことで、前記車両の操舵タイミングを搭乗者に報知する、センシングシステム。
The sensing system according to claim 1.
The driving support sounds a warning sound when the route is a route that cannot avoid the obstacle, and turns off the warning sound when the route becomes a route that avoids the obstacle. A sensing system that notifies passengers of steering timing.
JP2020038613A 2020-03-06 2020-03-06 sensing system Active JP7385502B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020038613A JP7385502B2 (en) 2020-03-06 2020-03-06 sensing system
CN202080090887.1A CN114930423A (en) 2020-03-06 2020-12-28 Sensing system
PCT/JP2020/049082 WO2021176825A1 (en) 2020-03-06 2020-12-28 Sensing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020038613A JP7385502B2 (en) 2020-03-06 2020-03-06 sensing system

Publications (2)

Publication Number Publication Date
JP2021140537A true JP2021140537A (en) 2021-09-16
JP7385502B2 JP7385502B2 (en) 2023-11-22

Family

ID=77613274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020038613A Active JP7385502B2 (en) 2020-03-06 2020-03-06 sensing system

Country Status (3)

Country Link
JP (1) JP7385502B2 (en)
CN (1) CN114930423A (en)
WO (1) WO2021176825A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115009272B (en) * 2022-07-08 2023-01-31 北京捷升通达信息技术有限公司 Vehicle full-autonomous obstacle crossing method based on laser radar obstacle classification and identification

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006099409A (en) * 2004-09-29 2006-04-13 Denso Corp Navigation system for avoiding deviation due to contact
JP2009078733A (en) * 2007-09-27 2009-04-16 Hitachi Ltd Driving support system
US20160339959A1 (en) * 2015-05-21 2016-11-24 Lg Electronics Inc. Driver Assistance Apparatus And Control Method For The Same
JP2018055321A (en) * 2016-09-28 2018-04-05 日産自動車株式会社 Driving support method and driving support device
JP2018090108A (en) * 2016-12-05 2018-06-14 株式会社デンソーテン Parking support device and parking support method
JP2019021197A (en) * 2017-07-20 2019-02-07 株式会社Ihiエアロスペース Route determination device and route determination method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002049998A (en) * 2000-04-24 2002-02-15 Matsushita Electric Ind Co Ltd Drive support device
JP2017182498A (en) * 2016-03-30 2017-10-05 トヨタ自動車株式会社 Drive support apparatus
DE102016221276A1 (en) * 2016-10-28 2018-05-03 Ford Global Technologies, Llc Maneuvering method for a motor vehicle, motor vehicle
CN115158354A (en) * 2017-03-02 2022-10-11 松下知识产权经营株式会社 Driving assistance method, driving assistance device, and driving assistance system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006099409A (en) * 2004-09-29 2006-04-13 Denso Corp Navigation system for avoiding deviation due to contact
JP2009078733A (en) * 2007-09-27 2009-04-16 Hitachi Ltd Driving support system
US20160339959A1 (en) * 2015-05-21 2016-11-24 Lg Electronics Inc. Driver Assistance Apparatus And Control Method For The Same
JP2018055321A (en) * 2016-09-28 2018-04-05 日産自動車株式会社 Driving support method and driving support device
JP2018090108A (en) * 2016-12-05 2018-06-14 株式会社デンソーテン Parking support device and parking support method
JP2019021197A (en) * 2017-07-20 2019-02-07 株式会社Ihiエアロスペース Route determination device and route determination method

Also Published As

Publication number Publication date
JP7385502B2 (en) 2023-11-22
WO2021176825A1 (en) 2021-09-10
CN114930423A (en) 2022-08-19

Similar Documents

Publication Publication Date Title
US10453344B2 (en) Information processing apparatus and non-transitory recording medium
KR102042371B1 (en) Parking space detection method and apparatus
JP6564576B2 (en) Proximity alarm device for automobiles
JP4615038B2 (en) Image processing device
JP6269606B2 (en) Vehicle control device
JP4043416B2 (en) Safe movement support device
JP4420011B2 (en) Object detection device
JP5167051B2 (en) Vehicle driving support device
US20180181118A1 (en) Information processing apparatus, operated vehicle, information processing method, and recording medium storing program
JP5066478B2 (en) Vehicle driving support device
CN109841088B (en) Vehicle driving assistance system and method
US20110128136A1 (en) On-vehicle device and recognition support system
JP6936679B2 (en) Information processing equipment and programs
TW201704067A (en) Collision avoidance method, computer program product for said collision avoidance method and collision avoidance system
CN111373460B (en) Target object detection device for vehicle
JP2008149860A (en) Travel control device
JP2017162178A (en) Determination device, determination method and determination program
JP4864450B2 (en) Vehicle driving support device
JP2009140145A (en) Vehicle travel-supporting device
JP2012234373A (en) Driving support device
WO2021176825A1 (en) Sensing system
JP5521575B2 (en) Vehicle approach notification device
JP4807753B2 (en) Vehicle driving support device
US11794809B1 (en) Vehicle and trailer wheel path collision detection and alert
JP6720954B2 (en) Vehicle target detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231110

R150 Certificate of patent or registration of utility model

Ref document number: 7385502

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150