JP6908993B2 - Information processing device, information processing method, and driving support system - Google Patents

Information processing device, information processing method, and driving support system Download PDF

Info

Publication number
JP6908993B2
JP6908993B2 JP2016251195A JP2016251195A JP6908993B2 JP 6908993 B2 JP6908993 B2 JP 6908993B2 JP 2016251195 A JP2016251195 A JP 2016251195A JP 2016251195 A JP2016251195 A JP 2016251195A JP 6908993 B2 JP6908993 B2 JP 6908993B2
Authority
JP
Japan
Prior art keywords
vehicle
information
width
inclination
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016251195A
Other languages
Japanese (ja)
Other versions
JP2018103730A (en
Inventor
真由子 前田
真由子 前田
浩明 丸野
浩明 丸野
礼文 ▲高▼須賀
礼文 ▲高▼須賀
智仁 井上
智仁 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2016251195A priority Critical patent/JP6908993B2/en
Publication of JP2018103730A publication Critical patent/JP2018103730A/en
Application granted granted Critical
Publication of JP6908993B2 publication Critical patent/JP6908993B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理装置、情報処理方法、及び、運転支援システムに関する。 The present invention relates to an information processing device, an information processing method, and a driving support system.

従来、自車の前方を走行する前方車の自車進行方向に対する姿勢角を認識するための認識装置が知られる。特許文献1に開示される前方車認識装置は、自車と前方車との車間距離を検出する第1の検出手段を備える。また、当該前方車認識装置は、画像入力手段より入力された画像より、前方車の所定の左右対称部分について抽出された部分画像に基づいて、前記対称部分の左右夫々の画像中の大きさ並びにこの対称部分間の距離を検出する第2の検出手段を備える。更に、当該前方車認識装置は、これらの検出手段により検出された車間距離と、前記対称部分の左右夫々の画像中の大きさとこの対称部分間の距離に基づいて、前方車の自車に対する相対的姿勢角を演算する演算手段を備える。 Conventionally, a recognition device for recognizing an attitude angle of a vehicle in front traveling in front of the vehicle with respect to the vehicle traveling direction is known. The front vehicle recognition device disclosed in Patent Document 1 includes a first detection means for detecting the inter-vehicle distance between the own vehicle and the vehicle in front. Further, the front vehicle recognition device has a size in each of the left and right images of the symmetrical portion based on a partial image extracted from an image input by the image input means for a predetermined symmetrical portion of the preceding vehicle. A second detecting means for detecting the distance between the symmetrical portions is provided. Further, the front vehicle recognition device is relative to the own vehicle of the vehicle in front based on the inter-vehicle distance detected by these detecting means, the size of the symmetrical portion in the left and right images, and the distance between the symmetrical portions. It is provided with a calculation means for calculating the target posture angle.

特開平3−535号公報Japanese Unexamined Patent Publication No. 3-535

従来の技術では、自車の周囲に存在することが検知された他車の行動まで把握することは考慮されていない。他車の行動等、自車に影響を与える他車の状況を適切に判断することができると、例えば、自動駐車等における運転者の負担を軽減することができる。 In the conventional technology, it is not considered to grasp the behavior of another vehicle that is detected to exist around the own vehicle. If the situation of another vehicle that affects the own vehicle, such as the behavior of the other vehicle, can be appropriately determined, the burden on the driver in automatic parking or the like can be reduced, for example.

本発明は、上記の課題に鑑み、自車の周囲に存在する他車の状況を適切に判断することができる技術を提供することを目的とする。 An object of the present invention is to provide a technique capable of appropriately determining the situation of another vehicle existing around the own vehicle in view of the above problems.

本発明に係る情報処理装置は、自車の周辺に存在する他車の情報に関する処理を行う情報処理装置であって、前記自車のカメラで取得されるカメラ画像から前記他車の第1情報を生成する第1情報生成部と、前記自車のレーダ装置の検知結果に基づいて前記他車の第2情報を生成する第2情報生成部と、前記第1情報と前記第2情報とを用いて前記他車の姿勢に基づく第3情報を生成する第3情報生成部と、を備える構成(第1の構成)である。 The information processing device according to the present invention is an information processing device that processes information about another vehicle existing in the vicinity of the own vehicle, and the first information of the other vehicle is obtained from a camera image acquired by the camera of the own vehicle. The first information generation unit that generates the second information, the second information generation unit that generates the second information of the other vehicle based on the detection result of the radar device of the own vehicle, and the first information and the second information. It is a configuration (first configuration) including a third information generation unit that uses the third information generation unit to generate the third information based on the attitude of the other vehicle.

また、上記第1の構成の情報処理装置は、前記第3情報に基づいて前記他車の姿勢変化を検出する姿勢変化検出部を更に備える構成(第2の構成)であることが好ましい。 Further, the information processing device having the first configuration preferably further includes a posture change detection unit that detects a posture change of the other vehicle based on the third information (second configuration).

また、上記第2の構成の情報処理装置は、車の前面或いは後面の幅と側面幅との比率と、車の傾き値との関係を車の種別ごとに分類した傾き推定用情報を記憶する記憶部と、前記カメラ画像から検出される前記他車の前面或いは後面の幅及び側面幅と、前記傾き推定用情報とに基づいて前記他車の傾きを導出する傾き導出部と、を更に備える構成(第3の構成)であることが好ましい。 Further, the information processing device having the second configuration stores information for tilt estimation, which classifies the relationship between the width of the front or rear surface of the vehicle and the width of the side surface and the inclination value of the vehicle for each type of vehicle. A storage unit, a tilt derivation unit for deriving the inclination of the other vehicle based on the width and side width of the front or rear surface of the other vehicle detected from the camera image, and the information for estimating the inclination are further provided. The configuration (third configuration) is preferable.

また、上記第3の構成の情報処理装置は、前記姿勢変化検出部及び前記傾き導出部から取得される情報に基づいて、前記他車の行動を判断する行動判断部を更に備える構成(第4の構成)であることが好ましい。 Further, the information processing device having the third configuration further includes an action determination unit that determines the behavior of the other vehicle based on the information acquired from the attitude change detection unit and the inclination derivation unit (fourth configuration). The configuration of) is preferable.

また、上記第1から第4のいずれかの構成の情報処理装置において、前記第1情報は、前記他車の所定の角部に関する情報であり、前記第2情報は、前記レーダ装置から得られる前記他車の位置に関する情報であり、前記第3情報は、前記所定の角部と、前記レーダ装置から得られる前記他車の位置との距離差情報である構成(第5の構成)であってよい。 Further, in the information processing device having any of the first to fourth configurations, the first information is information about a predetermined corner portion of the other vehicle, and the second information is obtained from the radar device. The information regarding the position of the other vehicle, and the third information is the distance difference information between the predetermined corner portion and the position of the other vehicle obtained from the radar device (fifth configuration). You can.

また、上記第1又は第2の構成の情報処理装置において、前記第1情報は、前記他車の傾きに関する情報であり、前記第2情報は、前記レーダ装置からの送信波の前記他車における反射点の分布情報であり、前記第3情報は、前記自車を基準とした前記他車の最短距離位置情報である構成(第6の構成)であってよい。 Further, in the information processing device having the first or second configuration, the first information is information about the inclination of the other vehicle, and the second information is the information of the transmitted wave from the radar device in the other vehicle. It is the distribution information of the reflection points, and the third information may be a configuration (sixth configuration) which is the shortest distance position information of the other vehicle based on the own vehicle.

また、上記第6の構成の情報処理装置は、車の前面或いは後面の幅と側面幅との比率と、車の傾き値との関係を車の種別ごとに分類した傾き推定用情報を記憶する記憶部を更に備え、前記第1情報生成部は、前記カメラ画像から検出される前記他車の前面或いは後面の幅及び側面幅と、前記傾き推定用情報とに基づいて、前記他車の傾きに関する情報を生成する構成(第7の構成)であることが好ましい。 In addition, the information processing device having the sixth configuration stores information for tilt estimation that classifies the relationship between the width of the front or rear surface of the vehicle and the side width and the tilt value of the vehicle for each type of vehicle. The first information generation unit further includes a storage unit, and the first information generation unit tilts the other vehicle based on the width and side width of the front or rear surface of the other vehicle detected from the camera image and the information for estimating the inclination. It is preferable that the configuration is such that information about the above is generated (seventh configuration).

また、上記第6又は第7の構成の情報処理装置は、前記第3情報に基づいて前記他車の行動を判断する行動判断部を更に備える構成(第8の構成)であってよい。 Further, the information processing device having the sixth or seventh configuration may further include an action determination unit that determines the behavior of the other vehicle based on the third information (eighth configuration).

本発明に係る運転支援システムは、前記カメラと、前記レーダ装置と、上記第1から第8のいずれかの構成の情報処理装置と、前記情報処理装置から出力される情報に基づいて自動運転の支援制御に関する判断を行う運転支援装置と、を備える構成(第9の構成)である。 The driving support system according to the present invention is automatically operated based on the camera, the radar device, the information processing device having any of the first to eighth configurations, and the information output from the information processing device. It is a configuration (nineth configuration) including a driving support device that makes a determination regarding support control.

本発明に係る情報処理方法は、情報処理装置によって自車の周辺に存在する他車の情報に関する処理を行う情報処理方法であって、前記自車のカメラで取得されるカメラ画像から前記他車の第1情報を生成する第1情報生成工程と、前記自車のレーダ装置の検知結果に基づいて前記他車の第2情報を生成する第2情報生成工程と、前記第1情報と前記第2情報とを用いて前記他車の姿勢に基づく第3情報を生成する第3情報生成工程と、を備える構成(第10の構成)である。 The information processing method according to the present invention is an information processing method for processing information on another vehicle existing in the vicinity of the own vehicle by an information processing device, and the other vehicle is obtained from a camera image acquired by the camera of the own vehicle. The first information generation step of generating the first information of the above, the second information generation step of generating the second information of the other vehicle based on the detection result of the radar device of the own vehicle, the first information and the first information. It is a configuration (10th configuration) including a third information generation step of generating a third information based on the attitude of the other vehicle using the two information.

本発明によれば、自車の周囲に存在する他車の状況を適切に判断することができる技術を提供することができる。 According to the present invention, it is possible to provide a technique capable of appropriately determining the situation of another vehicle existing around the own vehicle.

第1実施形態の駐車支援システムの構成を示すブロック図Block diagram showing the configuration of the parking support system of the first embodiment 第1実施形態における第1情報について説明するための模式図Schematic diagram for explaining the first information in the first embodiment 第1実施形態において第1情報を生成する手順を示すフローチャートA flowchart showing a procedure for generating the first information in the first embodiment. 第1実施形態における第2情報について説明するための模式図Schematic diagram for explaining the second information in the first embodiment 第1実施形態において第2情報を生成する手順を示すフローチャートA flowchart showing a procedure for generating the second information in the first embodiment. 第1実施形態における第3情報について説明するための模式図Schematic diagram for explaining the third information in the first embodiment 姿勢変化検出部による姿勢変化の検出フローを示すフローチャートFlow chart showing the posture change detection flow by the posture change detection unit 傾き導出部による他車の傾き導出方法を説明するための模式図Schematic diagram for explaining the method of deriving the inclination of another vehicle by the inclination deriving unit 傾き導出部による他車の傾き導出フローを示すフローチャートFlowchart showing the inclination derivation flow of another vehicle by the inclination derivation unit 他車行動判断部による他車の行動判断フローを示すフローチャートFlow chart showing the behavior judgment flow of other vehicles by the other vehicle behavior judgment department 駐車支援装置によって駐車支援が行われるシチュエーションを例示する模式図Schematic diagram illustrating a situation in which parking assistance is provided by a parking assistance device 駐車支援装置による駐車支援フローを示すフローチャートFlow chart showing parking support flow by parking support device 第2実施形態の駐車支援システムの構成を示すブロック図Block diagram showing the configuration of the parking support system of the second embodiment 第2実施形態における第3情報の生成手法について説明するための模式図Schematic diagram for explaining the method of generating the third information in the second embodiment. 第3実施形態の運転支援システムの構成を示すブロック図Block diagram showing the configuration of the driving support system of the third embodiment

以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。以下の説明では、車両の直進進行方向であって、運転席からステアリングに向かう方向を「前方向」とする。また、車両の直進進行方向であって、ステアリングから運転席に向かう方向を「後方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転者の右側から左側に向かう方向を「左方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転者の左側から右側に向かう方向を「右方向」とする。 Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following description, the direction in which the vehicle travels straight from the driver's seat to the steering wheel is referred to as the "forward direction". Further, the direction in which the vehicle travels straight from the steering wheel to the driver's seat is defined as the "rear direction". Further, the direction from the right side to the left side of the driver who is facing the front direction, which is the direction perpendicular to the straight line and the vertical direction of the vehicle, is defined as the "left direction". Further, the direction from the left side to the right side of the driver who is facing the front direction, which is the direction perpendicular to the straight line and the vertical direction of the vehicle, is defined as the "right direction".

<<1.第1実施形態>>
<1−1.駐車支援システムの構成>
第1実施形態は、本発明の運転支援システムが駐車支援システムである場合を例示する。駐車支援システムは、運転支援システムの一例である。図1は、第1実施形態の駐車支援システムSYS1の構成を示すブロック図である。駐車支援システムSYS1は、車両を現在位置から目標駐車位置まで自動走行させて駐車させるシステムである。図1に示すように、駐車支援システムSYS1は、情報処理装置1と、カメラ2と、レーダ装置3と、駐車支援装置4と、を備える。
<< 1. First Embodiment >>
<1-1. Parking support system configuration>
The first embodiment illustrates a case where the driving support system of the present invention is a parking support system. The parking support system is an example of a driving support system. FIG. 1 is a block diagram showing a configuration of the parking support system SYS1 of the first embodiment. The parking support system SYS1 is a system for automatically driving a vehicle from a current position to a target parking position to park the vehicle. As shown in FIG. 1, the parking support system SYS1 includes an information processing device 1, a camera 2, a radar device 3, and a parking support device 4.

情報処理装置1は、自車の周辺に存在する他車の情報に関する処理を行う。ここで、自車は、情報処理装置1が搭載される車両であり、本実施の形態では、駐車支援を受ける車両である。情報処理装置1は、マイコン11及び記憶部12を含んで構成される。マイコン11は、不図示のCPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を含む。マイコン11は、記憶部12に記憶されたプログラムに基づいて情報の処理及び送受信を行う。マイコン11は、有線又は無線で、カメラ2、レーダ装置3、及び、駐車支援装置4に接続される。情報処理装置1の詳細については後述する。 The information processing device 1 performs processing related to information on other vehicles existing in the vicinity of the own vehicle. Here, the own vehicle is a vehicle on which the information processing device 1 is mounted, and in the present embodiment, is a vehicle that receives parking support. The information processing device 1 includes a microcomputer 11 and a storage unit 12. The microcomputer 11 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory) (not shown). The microcomputer 11 processes and transmits / receives information based on the program stored in the storage unit 12. The microcomputer 11 is connected to the camera 2, the radar device 3, and the parking support device 4 by wire or wirelessly. The details of the information processing device 1 will be described later.

カメラ2は、自車に備えられ、自車の周辺を撮影する。本実施の形態では、カメラ2の数は4つである。4つのカメラ2は、フロントカメラと、バックカメラと、左サイドカメラと、右サイドカメラとによって構成される。フロントカメラは、例えば車両の前端部に配置され、車両の前方を撮影する。バックカメラは、例えば車両の後端部に配置され、車両の後方を撮影する。左サイドカメラは、例えば車両の左側ドアミラーに配置され、車両の左側方を撮影する。右サイドカメラは、例えば車両の右側ドアミラーに配置され、車両の右側方を撮影する。カメラ2は、撮影情報を情報処理装置1に送信する。 The camera 2 is provided in the own vehicle and photographs the surroundings of the own vehicle. In this embodiment, the number of cameras 2 is four. The four cameras 2 are composed of a front camera, a back camera, a left side camera, and a right side camera. The front camera is arranged at the front end of the vehicle, for example, and photographs the front of the vehicle. The back camera is arranged at the rear end of the vehicle, for example, and photographs the rear of the vehicle. The left side camera is arranged on the left side door mirror of the vehicle, for example, and photographs the left side of the vehicle. The right side camera is arranged, for example, on the right door mirror of the vehicle and photographs the right side of the vehicle. The camera 2 transmits the shooting information to the information processing device 1.

なお、カメラ2の数及び配置は例示である。例えば、車両のバック駐車のみを支援する目的である場合には、カメラ2は、バックカメラのみで構成されてもよいし、バックカメラと左右のサイドカメラで構成されてもよい。 The number and arrangement of the cameras 2 are examples. For example, when the purpose is to support only the back parking of the vehicle, the camera 2 may be composed of only the back camera, or may be composed of the back camera and the left and right side cameras.

レーダ装置3は、自車に備えられ、自車周囲の物標を検出する。本実施の形態では、レーダ装置3は、車両の前方及び後方に備えられる。レーダ装置3は、例えばバンパーの内部等に搭載される。レーダ装置3のレーダ軸は、車両の直進進行方向に一致する。本実施の形態のレーダ装置3は、周波数変調した電磁波をレーダ信号として送受信する。レーダ装置3は、自車の前方或いは後方の方位角ごとにレーダ信号を送信し、物標による反射信号を受信する。レーダ装置3は、送受信信号からビート信号を生成して、これをマイコン等の信号処理装置によって処理し、物標の相対距離、相対速度、方位角といった物標情報を検出する。物標は、例えば、前方や後方の車両である。 The radar device 3 is provided in the own vehicle and detects a target around the own vehicle. In this embodiment, the radar device 3 is provided in front of and behind the vehicle. The radar device 3 is mounted inside a bumper, for example. The radar axis of the radar device 3 coincides with the straight-ahead traveling direction of the vehicle. The radar device 3 of the present embodiment transmits and receives a frequency-modulated electromagnetic wave as a radar signal. The radar device 3 transmits a radar signal for each azimuth angle in front of or behind the own vehicle, and receives a reflected signal from a target. The radar device 3 generates a beat signal from the transmission / reception signal, processes the beat signal by a signal processing device such as a microcomputer, and detects target information such as the relative distance, relative velocity, and azimuth of the target. The target is, for example, a vehicle in front or behind.

なお、レーダ装置3の数及び配置は例示である。例えば、車両のバック駐車のみを支援する目的である場合には、レーダ装置3は後方のみに備えられてよい。 The number and arrangement of the radar devices 3 are examples. For example, the radar device 3 may be provided only in the rear when the purpose is to support only the back parking of the vehicle.

駐車支援装置4は、自車を目標駐車位置に自動駐車させるための制御を行う装置である。駐車支援装置4は、運転支援装置の一例である。本実施の形態では、駐車支援装置4は、経路算出部41と誘導部42とを備える。経路算出部41は、例えば現在位置から目標駐車位置までの駐車経路を算出する。なお、自車を駐車する駐車スペースについては、自動検出する構成でもよいし、運転者が選択する構成でもよい。誘導部42は、不図示の、エンジン制御部、ブレーキ制御部、ステアリング制御部、及び、シフト制御部を備える。誘導部42は、経路算出部41によって算出された駐車経路に沿って車両を誘導するための車両制御を行う。誘導部42の車両制御によって、自車は自動で目標駐車位置に駐車される。 The parking support device 4 is a device that controls for automatically parking the own vehicle at the target parking position. The parking support device 4 is an example of a driving support device. In the present embodiment, the parking support device 4 includes a route calculation unit 41 and a guidance unit 42. The route calculation unit 41 calculates, for example, a parking route from the current position to the target parking position. The parking space for parking the own vehicle may be automatically detected or may be selected by the driver. The guidance unit 42 includes an engine control unit, a brake control unit, a steering control unit, and a shift control unit (not shown). The guidance unit 42 controls the vehicle to guide the vehicle along the parking route calculated by the route calculation unit 41. The vehicle is automatically parked at the target parking position by the vehicle control of the guidance unit 42.

本実施の形態では、駐車支援装置4は、他車の情報に関する処理を行う情報処理装置1から出力される情報に基づいて、自動駐車の支援制御に関する判断を行う。詳細には、駐車支援装置4は、情報処理装置1から出力される情報に基づいて、自動駐車の支援制御を行うか否かの判断を行う。この点の詳細については、後述する。 In the present embodiment, the parking support device 4 determines the automatic parking support control based on the information output from the information processing device 1 that processes the information of the other vehicle. Specifically, the parking support device 4 determines whether or not to perform automatic parking support control based on the information output from the information processing device 1. Details of this point will be described later.

<1−2.情報処理装置の詳細>
図1に示すように、情報処理装置1のマイコン11は、第1情報生成部111と、第2情報生成部112と、第3情報生成部113と、姿勢変化検出部114と、傾き導出部115と、他車行動判断部116と、を備える。マイコン11が備えるこれらの各部111〜116の機能は、プログラムに従ってCPUが演算処理を行うことによって実現される。
<1-2. Information processing device details>
As shown in FIG. 1, the microcomputer 11 of the information processing apparatus 1 includes a first information generation unit 111, a second information generation unit 112, a third information generation unit 113, a posture change detection unit 114, and a tilt derivation unit. It is provided with 115 and another vehicle behavior determination unit 116. The functions of the respective units 111 to 116 included in the microcomputer 11 are realized by the CPU performing arithmetic processing according to a program.

第1情報生成部111は、自車のカメラ2で取得されるカメラ画像から他車の第1情報を生成する。なお、第1情報生成部111は、カメラ画像に他車が存在しないと判断される場合には、第1情報を生成しない。本実施の形態では、第1情報は他車の所定の角部に関する情報である。所定の角部は、他車の前面或いは後面の左右方向(以下、横方向と表現する場合がある)の角部であってよい。本実施の形態では、詳細には、所定の角部は、バックカメラ2のカメラ画像に映る後続車(他車)の、前面横方向の角部である。これは、駐車支援システムSYS1が、車両を後退させながら駐車スペースに駐車させることを想定したシステムであることに由来する。なお、本実施の形態において、角部は、他車の車体フロント部分の端部(例えば、バンパーの左端や右端の箇所)に相当する箇所である。 The first information generation unit 111 generates the first information of the other vehicle from the camera image acquired by the camera 2 of the own vehicle. The first information generation unit 111 does not generate the first information when it is determined that there is no other vehicle in the camera image. In the present embodiment, the first information is information about a predetermined corner portion of another vehicle. The predetermined corner portion may be a corner portion in the left-right direction (hereinafter, may be referred to as a lateral direction) of the front surface or the rear surface of the other vehicle. In the present embodiment, in detail, the predetermined corner portion is a corner portion in the front lateral direction of the following vehicle (another vehicle) reflected in the camera image of the back camera 2. This is because the parking support system SYS1 is a system that assumes that the vehicle is parked in the parking space while being retracted. In the present embodiment, the corner portion corresponds to an end portion (for example, a portion at the left end or a right end of the bumper) of the vehicle body front portion of another vehicle.

図2は、第1実施形態における第1情報について説明するための模式図である。図2は、バックカメラ2から取得されるカメラ画像の模式図である。図3は、第1実施形態において第1情報を生成する手順を示すフローチャートである。図3に示すように、第1情報生成部111は、バックカメラ2からカメラ画像を取得する(ステップS101)。例えば、図2に示すようなカメラ画像が取得される。 FIG. 2 is a schematic diagram for explaining the first information in the first embodiment. FIG. 2 is a schematic diagram of a camera image acquired from the back camera 2. FIG. 3 is a flowchart showing a procedure for generating the first information in the first embodiment. As shown in FIG. 3, the first information generation unit 111 acquires a camera image from the back camera 2 (step S101). For example, a camera image as shown in FIG. 2 is acquired.

第1情報生成部111は、取得したカメラ画像のエッジ抽出処理を行う(ステップS102)。ここで、エッジとは、画像の明暗の境界線をいい、例えば被写体の輪郭線がエッジに対応する。第1情報処理部111は、カメラ画像の各画素の隣接画素との濃度階調の差を求めることにより画像の明暗の変化を求め、一定以上の明暗差の変化点をエッジとして抽出する。 The first information generation unit 111 performs edge extraction processing of the acquired camera image (step S102). Here, the edge means a boundary line between light and dark of an image, for example, the outline of the subject corresponds to the edge. The first information processing unit 111 obtains the change in brightness of the image by obtaining the difference in density gradation between each pixel of the camera image and the adjacent pixel, and extracts the change point of the difference in brightness above a certain level as an edge.

第1情報生成部111は、エッジ処理の結果に基づいて角抽出処理を行う(ステップS103)。本実施の形態では、第1情報生成部111は、他車の前面横方向の角部を抽出する。第1情報生成部111は、記憶部12に記憶されるエッジ形状のパターンデータを用いて他車の前面を認識し、認識した他車の前面横方向の角部を抽出する。 The first information generation unit 111 performs the corner extraction process based on the result of the edge process (step S103). In the present embodiment, the first information generation unit 111 extracts the corners in the front lateral direction of the other vehicle. The first information generation unit 111 recognizes the front surface of the other vehicle by using the edge shape pattern data stored in the storage unit 12, and extracts the recognized corner portion in the front lateral direction of the other vehicle.

第1情報生成部111は、他車の前面横方向の中心位置から角部位置までの距離である第1横距離X1を算出する(ステップS104)。図2において、一点鎖線C1は他車の前面方向の中心位置を示し、点線L1は他車の角部の位置を示す。図2において、第1横距離X1は、C1からL1までの距離である。第1横距離X1は、本発明の第1情報の一例である。他車の前面横方向の中心位置C1は、ステップS103で他車の前面横方向の2つの角部が抽出されているために算出することができる。 The first information generation unit 111 calculates the first lateral distance X1 which is the distance from the center position in the front lateral direction of the other vehicle to the corner position (step S104). In FIG. 2, the alternate long and short dash line C1 indicates the center position in the front direction of the other vehicle, and the dotted line L1 indicates the position of the corner portion of the other vehicle. In FIG. 2, the first lateral distance X1 is the distance from C1 to L1. The first lateral distance X1 is an example of the first information of the present invention. The center position C1 in the front lateral direction of the other vehicle can be calculated because the two corners in the front lateral direction of the other vehicle are extracted in step S103.

図1に戻って、第2情報生成部112は、自車のレーダ装置3の検知結果に基づいて他車の第2情報を生成する。本実施の形態では、第2情報は第1情報と比較処理される。本実施の形態では、第2情報は、レーダ装置3から得られる他車の位置に関する情報である。本実施の形態では、詳細には、第2情報は、自車の後方に設けられるレーダ装置3から得られる他車の位置に関する情報である。これは、駐車支援システムSYS1が、車両を後退させながら駐車スペースに駐車させることを想定したシステムであることに由来する。例えば、駐車支援システムSYS1が、車両を前進させながら駐車スペースに駐車させる支援も行う場合、第2情報には、自車の前方に設けられるレーダ装置3から得られる他車の位置に関する情報が含まれてもよい。 Returning to FIG. 1, the second information generation unit 112 generates the second information of the other vehicle based on the detection result of the radar device 3 of the own vehicle. In the present embodiment, the second information is compared with the first information. In the present embodiment, the second information is information regarding the position of another vehicle obtained from the radar device 3. In the present embodiment, in detail, the second information is information regarding the position of another vehicle obtained from the radar device 3 provided behind the own vehicle. This is because the parking support system SYS1 is a system that assumes that the vehicle is parked in the parking space while being retracted. For example, when the parking support system SYS1 also supports parking in a parking space while advancing the vehicle, the second information includes information on the position of another vehicle obtained from the radar device 3 provided in front of the own vehicle. It may be.

図4は、第1実施形態における第2情報について説明するための模式図である。図4は、バックカメラ2から取得されるカメラ画像の模式図である。図5は、第1実施形態において第2情報を生成する手順を示すフローチャートである。図5に示すように、第2情報生成部112は、自車の後方のレーダ装置3によって検知された結果を取得する(ステップS201)。詳細には、第2情報生成部112は、物標の相対距離、相対速度、及び、方位角を取得する。物標は複数存在する場合があり、その場合には、各物標に対して相対距離等の物標情報が取得される。本例では、図4に示すように、後方に2つの車両が存在しており、これら2つの車両に対する物標情報が得られる。 FIG. 4 is a schematic diagram for explaining the second information in the first embodiment. FIG. 4 is a schematic diagram of a camera image acquired from the back camera 2. FIG. 5 is a flowchart showing a procedure for generating the second information in the first embodiment. As shown in FIG. 5, the second information generation unit 112 acquires the result detected by the radar device 3 behind the own vehicle (step S201). Specifically, the second information generation unit 112 acquires the relative distance, the relative velocity, and the azimuth angle of the target. There may be a plurality of targets, and in that case, target information such as a relative distance is acquired for each target. In this example, as shown in FIG. 4, there are two vehicles behind, and target information for these two vehicles can be obtained.

第2情報生成部112は、取得した物標の座標位置の変換を行う(ステップS202)。詳細には、第2情報生成部112は、レーダ装置3によって取得された物標の位置を、カメラ画像(図4参照)上における座標位置に変換する。カメラ2及びレーダ装置3は、自車に固定されている。このために、レーダ装置3によって取得される物標の実空間における座標位置は、カメラ画像の座標位置に1対1対応で変換することができる。第2情報生成部112は、取得された物標情報から物標の自車に対する横方向位置を算出する。そして、第2情報生成部112は、この横方向位置を、カメラ画像上の座標位置に変換する。これにより、図4に点線L2で示す横方向位置線が得られる。 The second information generation unit 112 converts the coordinate position of the acquired target (step S202). Specifically, the second information generation unit 112 converts the position of the target acquired by the radar device 3 into the coordinate position on the camera image (see FIG. 4). The camera 2 and the radar device 3 are fixed to the own vehicle. Therefore, the coordinate position of the target acquired by the radar device 3 in the real space can be converted into the coordinate position of the camera image in a one-to-one correspondence. The second information generation unit 112 calculates the lateral position of the target with respect to the own vehicle from the acquired target information. Then, the second information generation unit 112 converts this lateral position into the coordinate position on the camera image. As a result, the horizontal position line shown by the dotted line L2 in FIG. 4 is obtained.

なお、図4に示す例では、自車の後方に、自車に前面を向ける車両以外に、自車に対して横を向いた車両も存在する。当該横を向いた車両についても、物標情報が取得され、これに基づいて、図4に示す点線L2とは異なる横方向位置線が得られる。ただし、第2情報は、第1情報と比較する情報である。第1情報は、自車に前面を向ける車両からの情報であり、この車両とは異なる車両の位置情報と判断されるものは、第2情報の生成対象から除外される。 In the example shown in FIG. 4, behind the own vehicle, there is a vehicle that faces sideways with respect to the own vehicle in addition to the vehicle that faces the own vehicle in front. Target information is also acquired for the vehicle facing sideways, and based on this, a lateral position line different from the dotted line L2 shown in FIG. 4 is obtained. However, the second information is information to be compared with the first information. The first information is information from a vehicle facing the front of the own vehicle, and information that is determined to be position information of a vehicle different from this vehicle is excluded from the generation target of the second information.

第2情報生成部112は、カメラ画像上の座標において、他車の前面横方向の中心位置C1から、レーダ装置3の物標情報に基づいて算出された他車の横方向位置L2までの距離である第2横距離X2を算出する(ステップS203)。第2横距離X2は、図4において、C1からL2までの距離である。第2横距離X2は、本発明の第2情報の一例である。 The second information generation unit 112 is the distance from the center position C1 in the front lateral direction of the other vehicle to the lateral position L2 of the other vehicle calculated based on the target information of the radar device 3 in the coordinates on the camera image. The second lateral distance X2 is calculated (step S203). The second lateral distance X2 is the distance from C1 to L2 in FIG. The second lateral distance X2 is an example of the second information of the present invention.

図1に戻って、第3情報生成部113は、第1情報と第2情報とを用いて他車の姿勢に基づく第3情報を生成する。本実施の形態において、第3情報は、他車の状況を判断する指標となる。他車の状況は、自車の運転に対して影響を及ぼす他車の状態或いは動作を指す。本実施の形態では、より詳細には、第3情報は、他車の姿勢変化を判断する指標となる。本実施の形態では、自車の周辺を監視するカメラ2及びレーダ装置3から得られる第3情報に基づいて、他車状況を判断することができる。このために、1つのセンサに基づいて判断する場合に比べて、他車の状況を正確に判断することができる。 Returning to FIG. 1, the third information generation unit 113 generates the third information based on the posture of the other vehicle by using the first information and the second information. In the present embodiment, the third information serves as an index for determining the situation of the other vehicle. The condition of another vehicle refers to the condition or operation of another vehicle that affects the driving of the own vehicle. In the present embodiment, more specifically, the third information serves as an index for determining the posture change of the other vehicle. In the present embodiment, the situation of other vehicles can be determined based on the third information obtained from the camera 2 and the radar device 3 that monitor the periphery of the own vehicle. Therefore, the situation of another vehicle can be accurately determined as compared with the case where the determination is based on one sensor.

本実施の形態では、第3情報は、カメラ画像から得られる他車の所定の角部と、レーダ装置3から得られる他車の位置との距離差情報である。詳細には、第3情報は、第1横距離X1と第2横距離X2との差分値である。他車が自車に対する傾きを変化させると、自車のレーダ装置3から送信される送信波が他車によって反射される角度が変わる。このために、カメラ画像上において、他車の前面横方向の角部と、レーダ装置3によって検知される他車の位置との位置関係が変化する。これについて、図6を例示して説明する。 In the present embodiment, the third information is the distance difference information between the predetermined corner portion of the other vehicle obtained from the camera image and the position of the other vehicle obtained from the radar device 3. Specifically, the third information is a difference value between the first lateral distance X1 and the second lateral distance X2. When the other vehicle changes its inclination with respect to the own vehicle, the angle at which the transmitted wave transmitted from the radar device 3 of the own vehicle is reflected by the other vehicle changes. For this reason, the positional relationship between the corner portion in the front lateral direction of the other vehicle and the position of the other vehicle detected by the radar device 3 changes on the camera image. This will be described by way of illustration in FIG.

図6は、第1実施形態における第3情報について説明するための模式図である。図6は、バックカメラ2から取得されるカメラ画像の模式図である。図6は、図2及び図4に示す状態から、自車の後方に存在する一の車両が姿勢を変化した状態を示す。また、図6には、第1情報生成部111によって生成される第1横距離X1と、第2情報生成部112によって生成される第2横距離X2とが示されている。 FIG. 6 is a schematic diagram for explaining the third information in the first embodiment. FIG. 6 is a schematic view of a camera image acquired from the back camera 2. FIG. 6 shows a state in which one vehicle existing behind the own vehicle has changed its posture from the state shown in FIGS. 2 and 4. Further, FIG. 6 shows a first lateral distance X1 generated by the first information generation unit 111 and a second lateral distance X2 generated by the second information generation unit 112.

図6に示すように、自車から前面のみが見えていた他車(図2及び図4参照)が傾いて側面を見せる姿勢に変化すると、カメラ画像上において、レーダ装置3によって検知される他車の位置(図中の黒点参照)が他車の前面横方向の角部に近づく。このために、第1横距離X1と第2横距離X2の差分値である第3情報の変化を検出することで、姿勢変化を検出することができる。すなわち、第3情報は他車の姿勢変化を判断する指標となる。本構成によれば、カメラ画像情報と、レーダ装置3による物標情報とに基づいて得られる第3情報によって他車の姿勢変化を検出できるために、例えばカメラ画像のみで姿勢変化を判断する場合に比べて、姿勢変化を適切に検出することができる。ここで、図4及び図6に基づいて、レーダ装置3で検知した情報と、カメラ画像との関係について更に詳細に説明しておく。レーダ装置は、1つの物体(本例では後続車)から複数の反射点が検出された場合、その複数の反射点の中で最も信号レベルが高い反射点を代表点とし、その代表点の位置を物体の位置とする。後続車が自車に対して略真正面を向いている場合(図4に示す状態)、反射点Sが後続車に属する他の反射点よりもレベルが高くなり代表点となる。そして、後続車が自車に対して比較的大きく傾いた状態となった場合(図6に示す状態)、反射点Tが後続車の他の反射点よりもレベルが高くなり代表点となる。詳細には、後続車が比較的大きく傾いているときは、反射点Sと反射点Tとの少なくとも2つの反射点が検出されているものの、自車との距離が最も近い反射点Tのレベルが反射点Sよりも大きくなる。そのため代表点は反射点Tとなる。このように、後続車のステアリングホイールの操作により、自車に対する後続車の車体が傾くことで、後続車の位置(代表点の位置)は変化する。そして、その変化に基づき画像中における後続車の車両像のどの位置が、レーダ装置で検出している位置に相当するのかが判別される。 As shown in FIG. 6, when another vehicle (see FIGS. 2 and 4) whose front surface is visible from the own vehicle tilts and changes to a posture showing the side surface, it is detected by the radar device 3 on the camera image. The position of the car (see the black dot in the figure) approaches the corner in the front lateral direction of the other car. Therefore, the posture change can be detected by detecting the change of the third information which is the difference value between the first lateral distance X1 and the second lateral distance X2. That is, the third information serves as an index for determining the attitude change of another vehicle. According to this configuration, the attitude change of another vehicle can be detected by the third information obtained based on the camera image information and the target information by the radar device 3. Therefore, for example, when the attitude change is determined only by the camera image. Compared with, the posture change can be detected appropriately. Here, the relationship between the information detected by the radar device 3 and the camera image will be described in more detail based on FIGS. 4 and 6. When a plurality of reflection points are detected from one object (following vehicle in this example), the radar device sets the reflection point having the highest signal level among the plurality of reflection points as a representative point, and positions the representative points. Is the position of the object. When the following vehicle faces substantially directly in front of the own vehicle (state shown in FIG. 4), the reflection point S becomes a higher level than other reflection points belonging to the following vehicle and becomes a representative point. Then, when the following vehicle is in a state of being relatively greatly tilted with respect to the own vehicle (state shown in FIG. 6), the reflection point T becomes higher than the other reflection points of the following vehicle and becomes a representative point. Specifically, when the following vehicle is tilted relatively large, at least two reflection points, the reflection point S and the reflection point T, are detected, but the level of the reflection point T that is the closest to the own vehicle. Is larger than the reflection point S. Therefore, the representative point is the reflection point T. In this way, by operating the steering wheel of the following vehicle, the vehicle body of the following vehicle tilts with respect to the own vehicle, and the position of the following vehicle (position of the representative point) changes. Then, based on the change, it is determined which position of the vehicle image of the following vehicle in the image corresponds to the position detected by the radar device.

図1に戻って、姿勢変化検出部114は、第3情報に基づいて他車の姿勢変化を検出する。本構成のように、情報処理装置1が姿勢変化検出部114を備えると、自車側において他車の行動を予想することが可能になり、安全性を向上することができる。図7は、姿勢変化検出部114による姿勢変化の検出フローを示すフローチャートである。 Returning to FIG. 1, the posture change detection unit 114 detects the posture change of another vehicle based on the third information. When the information processing device 1 is provided with the posture change detection unit 114 as in this configuration, it becomes possible to predict the behavior of another vehicle on the own vehicle side, and the safety can be improved. FIG. 7 is a flowchart showing a posture change detection flow by the posture change detection unit 114.

姿勢変化検出部114は、第1水平距離X1と第2水平距離X2の差分値である第3情報を取得する(ステップS301)。姿勢変化検出部114は、取得した差分値情報を記憶する処理を行う(ステップS302)。差分値は一時的に記憶されればよく、例えばRAMに記憶される。姿勢変化検出部114は、所定の期間が経過したか否か確認する(ステップS303)。姿勢変化検出部114は、所定の期間が経過するまで次の処理を待機する。所定の期間は適宜設定すればよい。 The posture change detection unit 114 acquires the third information which is the difference value between the first horizontal distance X1 and the second horizontal distance X2 (step S301). The posture change detection unit 114 performs a process of storing the acquired difference value information (step S302). The difference value may be temporarily stored, for example, stored in RAM. The posture change detection unit 114 confirms whether or not a predetermined period has elapsed (step S303). The posture change detection unit 114 waits for the next process until a predetermined period elapses. A predetermined period may be set as appropriate.

所定の期間が経過すると、姿勢変化検出部114は、再度、第1水平距離X1と第2水平距離X2の差分値を取得する(ステップS304)。姿勢変化検出部114は、再度取得した差分値と、先に記憶処理した差分値とを比較して、差分値に変化があるか否かを確認する(ステップS305)。差分値に変化があると判断される場合(ステップS305でYes)、姿勢変化検出部114は姿勢変化ありと判断する(ステップS306)。差分値に変化がないと判断される場合(ステップS305でNo)、姿勢変化検出部114は姿勢変化なしと判断する(ステップS307)。 When the predetermined period elapses, the posture change detection unit 114 again acquires the difference value between the first horizontal distance X1 and the second horizontal distance X2 (step S304). The posture change detection unit 114 compares the re-acquired difference value with the previously stored difference value, and confirms whether or not there is a change in the difference value (step S305). When it is determined that there is a change in the difference value (Yes in step S305), the attitude change detection unit 114 determines that there is a change in attitude (step S306). When it is determined that there is no change in the difference value (No in step S305), the attitude change detection unit 114 determines that there is no change in attitude (step S307).

図1に戻って、傾き導出部115は、カメラ画像から検出される他車の前面或いは後面の幅及び側面幅と、記憶部12に記憶される傾き推定用情報とに基づいて、他車の傾きを導出する。傾き推定用情報は、車の前面或いは後面の幅と側面幅との比率と、車の傾き値との関係を車の種別ごとに分類した情報である。他車の傾きを導出することによって、他車の状況を詳細に把握することが可能になる。このために、自車側において他車の行動を正確に予想することが可能になる。 Returning to FIG. 1, the tilt derivation unit 115 of the other vehicle, based on the width and side width of the front or rear surface of the other vehicle detected from the camera image and the inclination estimation information stored in the storage unit 12. Derived the slope. The inclination estimation information is information that classifies the relationship between the ratio of the width of the front or rear surface of the vehicle to the side width and the inclination value of the vehicle for each type of vehicle. By deriving the inclination of the other vehicle, it becomes possible to grasp the situation of the other vehicle in detail. Therefore, it becomes possible to accurately predict the behavior of other vehicles on the own vehicle side.

本実施の形態では、傾き導出部115は、カメラ画像から検出される他車の前面幅及び側面幅を利用して他車の傾きを導出する。このために、傾き推定用情報は、車の前面幅と側面幅の比率と、車の傾き値との関係を車の種別ごとに分類した情報である。これらは、駐車支援システムSYS1が、車両を後退させながら駐車スペースに駐車させることを想定したシステムであることに由来する。なお、詳細には、他車の傾きは、自車のバックカメラ2の光軸に対する横方向の傾きである。前面幅及び側面幅は、いずれも横幅である。 In the present embodiment, the inclination deriving unit 115 derives the inclination of the other vehicle by using the front width and the side width of the other vehicle detected from the camera image. For this purpose, the inclination estimation information is information in which the relationship between the ratio of the front width and the side width of the vehicle and the inclination value of the vehicle is classified for each type of vehicle. These are derived from the fact that the parking support system SYS1 is a system that assumes that the vehicle is parked in the parking space while being retracted. More specifically, the inclination of the other vehicle is a lateral inclination of the back camera 2 of the own vehicle with respect to the optical axis. The front width and the side width are both horizontal widths.

本実施の形態では、傾き推定用情報は、車の種別ごとにテーブル情報として記憶部12に記憶される。傾き推定用情報は、各種別における車の設計値や代表的な値に基づいて、予め計算によって求めることができる。車の種別は、例えば、小型車、普通車、大型車等の分類であってよい。別の例として、車の種別は、例えば、車のモデル毎の情報であってもよい。例えば、普通車のサイズについて、幅1.8m、長さ5.0mを想定したとする。この場合、普通車のテーブルには、例えば、前面幅と側面幅の比率が1.34(=(1.8×cos15°)/5.0×sin15°)の場合に車の傾きが15°、前面幅と側面幅の比率が0.62(=(1.8×cos30°)/5.0×sin30°)の場合に車の傾きが30°といった情報が記載される。 In the present embodiment, the inclination estimation information is stored in the storage unit 12 as table information for each type of vehicle. The inclination estimation information can be obtained by calculation in advance based on the design value and the typical value of the vehicle for each type. The type of vehicle may be, for example, a classification of a small vehicle, an ordinary vehicle, a large vehicle, or the like. As another example, the type of vehicle may be, for example, information for each model of the vehicle. For example, it is assumed that the size of an ordinary car is 1.8 m in width and 5.0 m in length. In this case, on the table of an ordinary car, for example, when the ratio of the front width to the side width is 1.34 (= (1.8 × cos15 °) /5.0 × sin15 °), the inclination of the car is 15 °. Information such that the inclination of the car is 30 ° when the ratio of the front width to the side width is 0.62 (= (1.8 × cos30 °) /5.0 × sin30 °) is described.

図8は、傾き導出部115による他車の傾き導出方法を説明するための模式図である。図8は、バックカメラ2から取得されるカメラ画像の模式図である。図9は、傾き導出部115による他車の傾き導出フローを示すフローチャートである。図9に示すように、傾き導出部115は、バックカメラ2のカメラ画像に映る他車の前面幅W1(図8参照)を算出する(ステップS401)。本実施の形態では、第1情報生成部111によって第1情報を生成する際に、他車の前面については、エッジ抽出、及び、角抽出を行っている。これを利用して、前面幅W1は算出することができる。 FIG. 8 is a schematic diagram for explaining a method of deriving the inclination of another vehicle by the inclination deriving unit 115. FIG. 8 is a schematic view of a camera image acquired from the back camera 2. FIG. 9 is a flowchart showing the inclination derivation flow of another vehicle by the inclination derivation unit 115. As shown in FIG. 9, the tilt deriving unit 115 calculates the front width W1 (see FIG. 8) of the other vehicle reflected in the camera image of the back camera 2 (step S401). In the present embodiment, when the first information generation unit 111 generates the first information, the front surface of the other vehicle is subjected to edge extraction and corner extraction. Using this, the front width W1 can be calculated.

傾き導出部115は、バックカメラ2のカメラ画像に映る他車の側面幅W2(図8参照)を算出する(ステップS402)。側面幅W2の算出は、第1情報を生成する際に処理を行ったエッジ処理画像を用いて算出することができる。エッジ処理画像により、図8に示すように、車側面の左右方向において境界線位置を決定し、境界線位置間の距離を求めることによって、側面幅W2が得られる。なお、ステップ401とステップS402とを行う順番は、本例と逆であってもよい。 The tilt deriving unit 115 calculates the side width W2 (see FIG. 8) of the other vehicle reflected in the camera image of the back camera 2 (step S402). The side width W2 can be calculated by using the edge-processed image processed when the first information is generated. As shown in FIG. 8, the side surface width W2 is obtained by determining the boundary line position in the left-right direction of the vehicle side surface from the edge-processed image and obtaining the distance between the boundary line positions. The order in which steps 401 and S402 are performed may be reversed from that of this example.

傾き導出部115は、前面幅W1と側面幅W2の比率を算出する(ステップS403)。なお、前面幅W1と側面幅W2とのうち、いずれか一方がゼロである場合には、比率を算出しなくてよい。側面幅W2がゼロの場合は、傾き値は0°と判断される。前面幅W1がゼロの場合には、傾き値は180°と判断される。 The inclination deriving unit 115 calculates the ratio of the front width W1 and the side width W2 (step S403). If either the front width W1 or the side width W2 is zero, the ratio need not be calculated. When the side width W2 is zero, the inclination value is determined to be 0 °. When the front width W1 is zero, the inclination value is determined to be 180 °.

傾き導出部115は、バックカメラ2のカメラ画像に映る他車の種別を判断する(ステップS404)。例えば、傾き導出部115は、カメラ画像に映るナンバープレートに記載される情報から車の種別を判断する。ナンバープレートに記載される情報として、例えば5ナンバー、3ナンバー等が挙げられる。また、別の例として、傾き導出部115は、カメラ画像に映る、他車のナンバープレートの横幅と、他車の前面幅との比率から、車の種別を判断してもよい。ナンバープレートのサイズは、規格によって一定値に定まっている。このために、カメラ画像に映る、他車のナンバープレートの横幅と、他車の前面幅との比率、及び、ナンバープレートの横幅の規格値から、実空間における他車の前面幅を算出できる。算出した実空間における他車の前面幅から、予め定めた車の種別毎の前面幅データに基づいて、車の種別を判断できる。なお、車の種別判断は、本例のタイミングに限らず、ステップS401〜ステップS403のいずれかの前に行われてもよい。 The tilt derivation unit 115 determines the type of another vehicle reflected in the camera image of the back camera 2 (step S404). For example, the tilt derivation unit 115 determines the type of vehicle from the information written on the license plate displayed on the camera image. Examples of the information written on the license plate include 5 numbers, 3 numbers and the like. Further, as another example, the inclination deriving unit 115 may determine the type of the vehicle from the ratio of the width of the license plate of the other vehicle to the front width of the other vehicle shown in the camera image. The size of the license plate is fixed by the standard. Therefore, the front width of the other vehicle in the real space can be calculated from the ratio of the width of the license plate of the other vehicle to the front width of the other vehicle and the standard value of the width of the license plate shown in the camera image. From the calculated front width of another vehicle in the real space, the vehicle type can be determined based on the predetermined front width data for each vehicle type. The vehicle type determination is not limited to the timing of this example, and may be performed before any of steps S401 to S403.

傾き導出部115は、ステップS403で算出した前面幅W1と側面幅W2との比率、及び、ステップS404で判断した車の種別に基づいて、傾き推定用情報(テーブル情報)を参照して、他車の傾きを導出する(ステップS405)。 The inclination deriving unit 115 refers to the inclination estimation information (table information) based on the ratio of the front width W1 and the side width W2 calculated in step S403 and the vehicle type determined in step S404, and others. Derivation of the inclination of the car (step S405).

図1に戻って、他車行動判断部116は、姿勢変化検出部114及び傾き導出部115から取得される情報に基づいて他車の行動を判断する。本構成では、他車の傾き変化だけでなく、他車の傾き情報も加味して他車の行動を判断するために、他車の行動をより適切に判断することができる。 Returning to FIG. 1, the other vehicle behavior determination unit 116 determines the behavior of the other vehicle based on the information acquired from the attitude change detection unit 114 and the inclination derivation unit 115. In this configuration, not only the inclination change of the other vehicle but also the inclination information of the other vehicle is taken into consideration to determine the behavior of the other vehicle, so that the behavior of the other vehicle can be determined more appropriately.

図10は、他車行動判断部116による他車の行動判断フローを示すフローチャートである。他車行動判断部116は、姿勢変化検出部114から情報を取得して他車に姿勢変化が有ったか否かを確認する(ステップS501)。 FIG. 10 is a flowchart showing a behavior judgment flow of another vehicle by the other vehicle behavior judgment unit 116. The other vehicle behavior determination unit 116 acquires information from the attitude change detection unit 114 and confirms whether or not the other vehicle has a posture change (step S501).

他車の姿勢変化が有った場合(ステップS501)、他車行動判断部116は、レーダ装置3から取得される他車の相対速度を確認する。詳細には、他車行動判断部116は、他車の相対速度が0km/h以外であるか否かを確認する(ステップS502)。他車の相対速度が0km/h以外である場合(ステップS502でYes)、他車行動判断部116は、他車が追越行動を行っていると判断する(ステップS503)。一方、他車の相対速度が0km/hである場合(ステップS502でNo)、他車行動判断部116は、他車が停止行動を行っていると判断する(ステップS504)。 When there is a change in the attitude of the other vehicle (step S501), the other vehicle behavior determination unit 116 confirms the relative speed of the other vehicle acquired from the radar device 3. Specifically, the other vehicle behavior determination unit 116 confirms whether or not the relative speed of the other vehicle is other than 0 km / h (step S502). When the relative speed of the other vehicle is other than 0 km / h (Yes in step S502), the other vehicle behavior determination unit 116 determines that the other vehicle is overtaking (step S503). On the other hand, when the relative speed of the other vehicle is 0 km / h (No in step S502), the other vehicle behavior determination unit 116 determines that the other vehicle is stopping (step S504).

なお、上記の例では、他車の相対速度が0km/h以外である場合に、即座に追越行動と判断している。これは例示にすぎない。例えば、他車の相対速度が0km/h以外である場合、他車の相対速度の時間変化を確認する構成としてもよい。他車の相対速度が、減速して0km/hに近づいていると判断される場合は停止行動と判断し、それ以外の場合は追越行動と判断する構成としてもよい。 In the above example, when the relative speed of the other vehicle is other than 0 km / h, it is immediately determined to be an overtaking action. This is just an example. For example, when the relative speed of the other vehicle is other than 0 km / h, the configuration may be such that the time change of the relative speed of the other vehicle is confirmed. If it is determined that the relative speed of the other vehicle is decelerating and approaching 0 km / h, it may be determined as a stop action, and in other cases, it may be determined as an overtaking action.

他車行動判断部116は、他車の姿勢変化が無い場合(ステップS501でNo)、傾き導出部115から他車の傾きを取得する(ステップS505)。他車行動判断部116は、他車の傾きが0°以外であるか否かを確認する(ステップS506)。 When there is no change in the posture of the other vehicle (No in step S501), the other vehicle behavior determination unit 116 acquires the inclination of the other vehicle from the inclination derivation unit 115 (step S505). The other vehicle behavior determination unit 116 confirms whether or not the inclination of the other vehicle is other than 0 ° (step S506).

他車の傾きが0°以外である場合(ステップS506でYes)、他車行動判断部116は、他車の相対速度が0km/h以外であるか否かを確認する(ステップS507)。他車の相対速度が0km/h以外である場合(ステップS507でYes)、他車行動判断部116は、他車が追越行動を行っていると判断する(ステップS508)。一方、他車の相対速度が0km/hである場合(ステップS507でYes)、他車行動判断部116は、他車が停止行動を行っていると判断する(ステップS509)。なお、上述したステップS503の変形例のように、他車の相対速度が0km/h以外である場合に、即座に追越行動と判断することなく、他車の相対速度の時間変化を確認して他車の行動を判断する構成としてもよい。 When the inclination of the other vehicle is other than 0 ° (Yes in step S506), the other vehicle behavior determination unit 116 confirms whether or not the relative speed of the other vehicle is other than 0 km / h (step S507). When the relative speed of the other vehicle is other than 0 km / h (Yes in step S507), the other vehicle behavior determination unit 116 determines that the other vehicle is overtaking (step S508). On the other hand, when the relative speed of the other vehicle is 0 km / h (Yes in step S507), the other vehicle behavior determination unit 116 determines that the other vehicle is stopping (step S509). When the relative speed of the other vehicle is other than 0 km / h as in the modification of step S503 described above, the time change of the relative speed of the other vehicle is confirmed without immediately determining the overtaking behavior. It may be configured to judge the behavior of another vehicle.

他車の傾きが0°である場合(ステップS506でNo)、他車行動判断部116は、他車の相対速度が0km/h以外であるか否かを確認する(ステップS510)。他車の相対速度が0km/h以外である場合(ステップS510でYes)、他車行動判断部116は、他車が接近行動を行っていると判断する(ステップS511)。一方、他車の相対速度が0km/hである場合(ステップS510でYes)、他車行動判断部116は、他車が停止行動を行っていると判断する(ステップS512)。なお、上述したステップS503の変形例と同様に、他車の相対速度が0km/h以外である場合に、即座に接近行動と判断することなく、他車の相対速度の時間変化を確認して他車の行動を判断する構成としてもよい。 When the inclination of the other vehicle is 0 ° (No in step S506), the other vehicle behavior determination unit 116 confirms whether or not the relative speed of the other vehicle is other than 0 km / h (step S510). When the relative speed of the other vehicle is other than 0 km / h (Yes in step S510), the other vehicle behavior determination unit 116 determines that the other vehicle is approaching (step S511). On the other hand, when the relative speed of the other vehicle is 0 km / h (Yes in step S510), the other vehicle behavior determination unit 116 determines that the other vehicle is stopping (step S512). As in the modification of step S503 described above, when the relative speed of the other vehicle is other than 0 km / h, the time change of the relative speed of the other vehicle is confirmed without immediately determining the approaching behavior. It may be configured to judge the behavior of another vehicle.

例えば、他車が傾きを変化させた後にステアリングホイールを元に戻して直進した場合に、姿勢変化検出部114によって姿勢変化が検出されないという事態が起こり得る。このような場合でも、他車の傾き情報を利用することによって、確実に追越行動を検出することができる。また、他車の傾きが0°である場合でも、他車が直進して接近してくることがあり、本実施形態の構成では、このような他車の行動まで判断することができる。 For example, when the steering wheel is returned to the original position and the vehicle goes straight after changing the inclination of another vehicle, the attitude change detection unit 114 may not detect the attitude change. Even in such a case, the overtaking behavior can be reliably detected by using the inclination information of the other vehicle. Further, even when the inclination of the other vehicle is 0 °, the other vehicle may go straight and approach, and in the configuration of the present embodiment, it is possible to determine the behavior of the other vehicle.

<1−3.情報処理装置と駐車支援装置の関係>
図11は、駐車支援装置4によって駐車支援が行われるシチュエーションを例示する模式図である。駐車場Pは、複数の白線で囲まれた駐車スペースP1を有する。自車PC1は、駐車支援装置4を用いて、複数の駐車スペースP1のうちの1つに駐車する予定である。自車PC1の直進方向と平行な方向の後方には、他車PC2が存在する。
<1-3. Relationship between information processing device and parking support device>
FIG. 11 is a schematic diagram illustrating a situation in which parking support is performed by the parking support device 4. The parking lot P has a parking space P1 surrounded by a plurality of white lines. The own vehicle PC1 is scheduled to be parked in one of the plurality of parking spaces P1 by using the parking support device 4. Another vehicle PC2 exists behind the vehicle PC1 in a direction parallel to the straight-ahead direction.

図12は、駐車支援装置4による駐車支援フローを示すフローチャートである。駐車支援装置4による駐車支援制御は、例えば、運転者が不図示の駐車支援ボタンを押すことによってスタートする。なお、駐車支援制御の開始は、これに限定されず、例えばシフトレバーの位置に連動して開始されてもよい。詳細には、シフトレバーが後退(R)に入れられた場合に開始されてもよい。 FIG. 12 is a flowchart showing a parking support flow by the parking support device 4. The parking support control by the parking support device 4 is started, for example, by the driver pressing a parking support button (not shown). The start of the parking support control is not limited to this, and may be started in conjunction with the position of the shift lever, for example. Specifically, it may be initiated when the shift lever is retracted (R).

駐車支援装置4は、まず、情報処理装置1に行動判断を行うべき他車PC2に関する情報を取得することを命令する(ステップS601)。情報処理装置1は、当該命令によって、各機能部111〜116を適宜機能させて、他車PC2の行動に関する情報を取得する。なお、本例では、自車PC1の後方に、自車PC1に前面を向ける他車PC2が存在するために、他車PC2の行動に関する情報が取得される。自車PC1の後方に他車PC2が存在しない場合、他車PC2の行動に関する情報は取得されない。 The parking support device 4 first orders the information processing device 1 to acquire information about another vehicle PC2 for which an action determination should be made (step S601). The information processing device 1 appropriately functions each of the functional units 111 to 116 according to the command to acquire information on the behavior of the other vehicle PC2. In this example, since there is another vehicle PC2 that faces the front of the own vehicle PC1 behind the own vehicle PC1, information on the behavior of the other vehicle PC2 is acquired. If the other vehicle PC2 does not exist behind the own vehicle PC1, the information regarding the behavior of the other vehicle PC2 is not acquired.

駐車支援装置4は、情報処理装置1によって他車PC2の行動に関する情報が取得されたか否かを確認する(ステップS602)。他車PC2の行動に関する情報が取得された場合(ステップS602でYes)、他車PC2の行動が停車行動か否かを確認する(ステップS603)。 The parking support device 4 confirms whether or not the information processing device 1 has acquired information on the behavior of the other vehicle PC2 (step S602). When the information regarding the behavior of the other vehicle PC2 is acquired (Yes in step S602), it is confirmed whether or not the behavior of the other vehicle PC2 is a stop behavior (step S603).

情報処理装置1によって他車PC2の行動に関する情報が取得されなかった場合(ステップS602でNo)、或いは、他車PC2の行動が停止行動であると判断された場合(ステップS603でYes)、駐車支援装置4は、支援情報を生成する(ステップS604)。図11に示す例では、他車PC2が存在するために、支援情報が生成されるのは、他車PC2が、その場合に停車している場合である。支援情報には、例えば、経路算出部41によって算出される駐車経路情報が含まれる。駐車支援装置4は、生成した支援情報に基づいて車両制御を行う(ステップS605)。車両制御には、例えば、自車PC1のエンジン制御部、ブレーキ制御部、ステアリング制御部、及び、シフト制御部の制御が含まれる。 When the information processing device 1 does not acquire information about the behavior of the other vehicle PC2 (No in step S602), or when it is determined that the behavior of the other vehicle PC2 is a stop behavior (Yes in step S603), parking is performed. The support device 4 generates support information (step S604). In the example shown in FIG. 11, since the other vehicle PC2 exists, the support information is generated when the other vehicle PC2 is stopped in that case. The support information includes, for example, parking route information calculated by the route calculation unit 41. The parking support device 4 controls the vehicle based on the generated support information (step S605). Vehicle control includes, for example, control of an engine control unit, a brake control unit, a steering control unit, and a shift control unit of the own vehicle PC1.

一方、他車PC2の行動が停止行動でないと判断された場合(ステップS603でNo)駐車支援装置4は、駐車支援制御を中止する(ステップS606)。図11に示す例では、他車PC2が、点線矢印で示す接近行動を行う場合、及び、一点鎖線矢印で示す追越行動を行う場合に、停車行動ではないと判断される。駐車支援装置4は、駐車支援制御を中止する場合、そのことを運転者に報知することが好ましい。報知の手段としては、例えば、自車PC1に備えられる表示装置(不図示)や音声装置が使用される。 On the other hand, when it is determined that the action of the other vehicle PC2 is not a stop action (No in step S603), the parking support device 4 stops the parking support control (step S606). In the example shown in FIG. 11, when the other vehicle PC2 performs the approaching action indicated by the dotted arrow and the overtaking action indicated by the alternate long and short dash arrow, it is determined that the vehicle is not stopped. When the parking support device 4 cancels the parking support control, it is preferable to notify the driver of this. As the means of notification, for example, a display device (not shown) or a voice device provided in the own vehicle PC1 is used.

本実施の形態の駐車支援システムSYS1によれば、駐車支援装置4は、運転者から自動駐車を行う意思表示があった場合に、情報処理装置1から他車PC2の行動情報を取得して、駐車支援制御を続行しても良いか否かを判断する。このために、本実施の形態の駐車支援システムSYS1によれば、自動駐車を開始するに際して、運転者自身が自車の周辺環境を確認する負担を低減することができる。 According to the parking support system SYS1 of the present embodiment, the parking support device 4 acquires the behavior information of the other vehicle PC2 from the information processing device 1 when the driver indicates the intention to perform automatic parking. Determine whether it is okay to continue parking support control. Therefore, according to the parking support system SYS1 of the present embodiment, it is possible to reduce the burden on the driver himself / herself to check the surrounding environment of his / her vehicle when starting automatic parking.

<<2.第2実施形態>>
<2−1.駐車支援システムの構成>
第2実施形態も、第1実施形態と同様に、本発明の運転支援システムが駐車支援システムである場合を例示する。図13は、第2実施形態の駐車支援システムSYS2の構成を示すブロック図である。第2実施形態の駐車支援システムSYS2の構成は、第1実施形態の駐車支援システムSYS1の構成と概ね同じである。第1実施形態と重複する部分については、同一の符号を付して説明し、特に必要が無い場合には説明を省略する。第2実施形態の情報処理装置5が備えるマイコン51によって発揮される機能は、第1実施形態の情報処理装置1が備えるマイコン11によって発揮される機能と異なる。以下、この相違点について説明する。
<< 2. Second Embodiment >>
<2-1. Parking support system configuration>
Similar to the first embodiment, the second embodiment also illustrates the case where the driving support system of the present invention is a parking support system. FIG. 13 is a block diagram showing a configuration of the parking support system SYS2 of the second embodiment. The configuration of the parking support system SYS2 of the second embodiment is substantially the same as the configuration of the parking support system SYS1 of the first embodiment. The parts that overlap with the first embodiment will be described with the same reference numerals, and the description will be omitted if there is no particular need. The function exhibited by the microcomputer 51 included in the information processing device 5 of the second embodiment is different from the function exhibited by the microcomputer 11 included in the information processing device 1 of the first embodiment. This difference will be described below.

<2−2.情報処理装置の詳細>
第2実施形態の情報処理装置5のマイコン51も、第1実施形態と同様に、第1情報生成部511、第2情報生成部512、第3情報生成部513、及び、他車行動判断部514を備える。マイコン51が備えるこれらの各部511〜514の機能は、記憶部12に記憶されるプログラムに従ってCPUが演算処理を行うことによって実現される。
<2-2. Information processing device details>
Similar to the first embodiment, the microcomputer 51 of the information processing device 5 of the second embodiment also has the first information generation unit 511, the second information generation unit 512, the third information generation unit 513, and the other vehicle behavior determination unit. 514 is provided. The functions of the respective units 511 to 514 included in the microcomputer 51 are realized by the CPU performing arithmetic processing according to the program stored in the storage unit 12.

第1実施形態と同様に、第1情報生成部511は、自車のカメラ2で取得されるカメラ画像から他車の第1情報を生成する。ただし、第2実施形態においては、第1情報は、他車の傾きに関する情報である。この点、第1実施形態と異なる。第1情報生成部511は、カメラ画像から検出される他車の前面或いは後面の幅及び側面幅と、記憶部12に記憶される傾き推定用情報とに基づいて、他車の傾きに関する情報を生成する。傾き推定用情報は、車の前面或いは後面の幅と側面幅との比率と、車の傾き値との関係を車の種別ごとに分類した情報である。 Similar to the first embodiment, the first information generation unit 511 generates the first information of the other vehicle from the camera image acquired by the camera 2 of the own vehicle. However, in the second embodiment, the first information is information regarding the inclination of another vehicle. This point is different from the first embodiment. The first information generation unit 511 obtains information on the inclination of the other vehicle based on the width and side width of the front or rear surface of the other vehicle detected from the camera image and the inclination estimation information stored in the storage unit 12. Generate. The inclination estimation information is information that classifies the relationship between the ratio of the width of the front or rear surface of the vehicle to the side width and the inclination value of the vehicle for each type of vehicle.

本実施の形態では、詳細には、第1情報生成部511は、カメラ画像から検出される他車の前面幅及び側面幅を利用して他車の傾きを導出する。このために、傾き推定用情報は、車の前面幅と側面幅との比率と、車の傾き値との関係を車の種別ごとに分類した情報である。これらは、駐車支援システムSYS2が、車両を後退させながら駐車スペースに駐車させることを想定したシステムであることに由来する。なお、本実施の形態では、第1情報生成部511は、バックカメラ2から取得されるカメラ画像に他車が存在しないと判断される場合には、第1情報を生成しない。 In the present embodiment, in detail, the first information generation unit 511 derives the inclination of the other vehicle by using the front width and the side width of the other vehicle detected from the camera image. For this purpose, the inclination estimation information is information in which the relationship between the ratio between the front width and the side width of the vehicle and the inclination value of the vehicle is classified for each type of vehicle. These are derived from the fact that the parking support system SYS2 is a system that assumes that the vehicle is parked in the parking space while being retracted. In the present embodiment, the first information generation unit 511 does not generate the first information when it is determined that there is no other vehicle in the camera image acquired from the back camera 2.

第1情報生成部511が他車の傾きを導出する方法は、第1実施形態の傾き導出部115の傾き導出方法と同様である。また、第2実施形態における傾き推定用情報の構成も、第1実施形態の傾き推定用情報の構成と同様である。このために、これらの詳細な説明は省略する。第1情報生成部511は、予め準備される傾き推定用情報を用いてカメラ画像から他車の傾きに関する情報を生成するために、カメラ画像のみから他車の傾きを適切に推定することができる。第1情報生成部511は、導出した他車の傾きから俯瞰図BW(後述の図14参照)を作成する。本実施の形態では、他車を上から見た形状は長方形状であると近似される。第1情報生成部511は、導出した傾きに対応させて長方形を傾けて俯瞰図BWを生成する。なお、傾き値がゼロの場合、長方形の短辺は左右方向と平行とされ、長方形の長辺は前後方向に平行とされる。 The method by which the first information generating unit 511 derives the inclination of the other vehicle is the same as the method of deriving the inclination of the inclination deriving unit 115 of the first embodiment. Further, the configuration of the tilt estimation information in the second embodiment is the same as the configuration of the tilt estimation information in the first embodiment. For this reason, these detailed descriptions will be omitted. The first information generation unit 511 can appropriately estimate the inclination of the other vehicle only from the camera image in order to generate information on the inclination of the other vehicle from the camera image using the inclination estimation information prepared in advance. .. The first information generation unit 511 creates a bird's-eye view BW (see FIG. 14 described later) from the inclination of the derived vehicle. In the present embodiment, the shape of the other vehicle viewed from above is approximated to be rectangular. The first information generation unit 511 tilts the rectangle corresponding to the derived tilt to generate the bird's-eye view BW. When the inclination value is zero, the short side of the rectangle is parallel to the left-right direction, and the long side of the rectangle is parallel to the front-back direction.

第1実施形態と同様に、第2情報生成部512は、自車のレーダ装置3の検知結果に基づいて、第1情報と比較する他車の第2情報を生成する。ただし、第2実施形態においては、第2情報は、レーダ装置3からの送信波の他車における反射点の分布情報である。この点、第1実施形態と異なる。なお、本実施の形態では、第2情報生成部512は、第1情報生成部511によって第1情報が生成されない場合には、第2情報の生成を行わない。 Similar to the first embodiment, the second information generation unit 512 generates the second information of the other vehicle to be compared with the first information based on the detection result of the radar device 3 of the own vehicle. However, in the second embodiment, the second information is the distribution information of the reflection points of the transmitted wave from the radar device 3 in another vehicle. This point is different from the first embodiment. In the present embodiment, the second information generation unit 512 does not generate the second information when the first information is not generated by the first information generation unit 511.

レーダ装置3は、物標がある程度の広がりを持った反射面を有する場合、複数の反射点位置の情報を検出する。レーダ装置3は、通常、前述の複数の反射点位置のうち、所定の基準に基づいて代表となる反射点位置を決定し、この代表となる反射点位置の物標情報を外部に出力する。代表となる反射点位置は、必ずしも1つに限らない。第2情報生成部512は、代表となる反射点位置に対する物標情報だけでなく、レーダ装置3によって検出された他の複数の反射点位置が存在する場合には、それらの物標情報もレーダ装置3から取得する。そして、第2情報生成部512は、取得した複数の反射点位置の物標情報に基づいて、物標を上から見た場合を想定した反射点位置の分布図DM(後述の図14参照)を生成する。 The radar device 3 detects information on the positions of a plurality of reflection points when the target has a reflection surface having a certain degree of spread. The radar device 3 usually determines a representative reflection point position based on a predetermined reference among the above-mentioned plurality of reflection point positions, and outputs target information of the representative reflection point position to the outside. The number of representative reflection point positions is not necessarily limited to one. The second information generation unit 512 radars not only the target information for the representative reflection point position but also the target information when there are a plurality of other reflection point positions detected by the radar device 3. Obtained from device 3. Then, the second information generation unit 512 is a distribution map DM of the reflection point positions assuming that the target is viewed from above based on the acquired target information of the plurality of reflection point positions (see FIG. 14 described later). To generate.

第3情報生成部513は、第1情報と第2情報とを用いて他車の姿勢に基づく第3情報を生成する。本実施の形態においても、第3情報は、他車の状況を判断する指標となる。詳細には、第3情報は、他車の姿勢変化を含む動きを判断する指標となる。本実施の形態では、第3情報は、自車を基準とした他車の最短距離位置情報である。言い換えると、第3情報は、他車の姿勢に基づき決定される情報である。例えば、他車が自車に対して略真正面を向いた姿勢の場合は、他車のフロントグリル部分が最短距離位置となり、他車が自車に対して比較的大きく傾いた姿勢のときは、他車の角部が最短距離位置となる。本実施の形態では、カメラ画像情報と、レーダ装置3から得られる物標情報とに基づいて他車の最短距離位置情報を検出する。このために、例えばレーダ装置3から得られる他車の距離情報のみを用いて他車の動作を判断する場合に比べて、他車の動作を適切に判断することができる。 The third information generation unit 513 generates the third information based on the posture of the other vehicle by using the first information and the second information. Also in this embodiment, the third information serves as an index for determining the situation of the other vehicle. In detail, the third information serves as an index for determining a movement including a change in the posture of another vehicle. In the present embodiment, the third information is the shortest distance position information of another vehicle based on the own vehicle. In other words, the third information is information determined based on the posture of another vehicle. For example, when the other vehicle is facing almost directly in front of the own vehicle, the front grille of the other vehicle is at the shortest distance position, and when the other vehicle is relatively tilted with respect to the own vehicle, the other vehicle is in the shortest distance position. The corner of the other vehicle is the shortest distance position. In the present embodiment, the shortest distance position information of another vehicle is detected based on the camera image information and the target information obtained from the radar device 3. Therefore, the operation of the other vehicle can be appropriately determined as compared with the case where the operation of the other vehicle is determined using only the distance information of the other vehicle obtained from the radar device 3, for example.

図14は、第2実施形態における第3情報の生成手法について説明するための模式図である。図14に示すように、第3情報生成部513は、第1情報として得た他車の傾きを反映した俯瞰図BWと、第2情報として得た反射点位置の分布図DMとを比較する。第3情報生成部513は、反射点位置の分布から他車の位置として最も確からしい位置を推定する。推定には、例えば最小自乗法等が使用されてよい。また、推定にあたって、例えば、上述の代表となる反射点位置(図14に四角で示される)は他車と必ず重なるものとして、位置推定が行われてもよい。また、カメラ画像から明らかに他車の反射点位置として不適切と推定される点は除外して、位置推定が行われてよい。 FIG. 14 is a schematic diagram for explaining the method for generating the third information in the second embodiment. As shown in FIG. 14, the third information generation unit 513 compares the bird's-eye view BW that reflects the inclination of the other vehicle obtained as the first information with the distribution map DM of the reflection point positions obtained as the second information. .. The third information generation unit 513 estimates the most probable position as the position of another vehicle from the distribution of the reflection point positions. For the estimation, for example, the least squares method or the like may be used. Further, in the estimation, for example, the position estimation may be performed assuming that the above-mentioned representative reflection point position (shown by a square in FIG. 14) always overlaps with another vehicle. Further, the position estimation may be performed by excluding the points that are clearly unsuitable as the reflection point positions of other vehicles from the camera image.

第3情報生成部513は、分布図DM中における他車の最も確からしい位置を推定すると、これに基づいて最短距離位置情報を生成する。図14に示す例では、複数の反射点の近傍に存在すると考えられる互いに直交する二辺の頂点位置(図14に白丸で示される)が最短距離位置と判断される。なお、反射点位置が1点しか存在しない場合は、その点を最短距離位置と判断してもよい。 When the third information generation unit 513 estimates the most probable position of another vehicle in the distribution map DM, the third information generation unit 513 generates the shortest distance position information based on this. In the example shown in FIG. 14, the positions of the vertices of two sides orthogonal to each other (indicated by white circles in FIG. 14), which are considered to exist in the vicinity of the plurality of reflection points, are determined to be the shortest distance positions. If there is only one reflection point position, that point may be determined as the shortest distance position.

図13に戻って、他車行動判断部514は、第3情報に基づいて他車の行動を判断する。本構成のように、情報処理装置1が他車行動判断部514を備えて他車の行動判断を行う構成とすると、他車の行動を適切に判断しながら自動運転の支援を行うことが可能になる。このために、安全性の向上が期待できる。 Returning to FIG. 13, the other vehicle behavior determination unit 514 determines the behavior of the other vehicle based on the third information. As in this configuration, if the information processing device 1 is provided with the other vehicle behavior determination unit 514 to determine the behavior of the other vehicle, it is possible to support automatic driving while appropriately determining the behavior of the other vehicle. become. Therefore, improvement in safety can be expected.

他車行動判断部514は、第3情報として得た他車の最短距離位置の変化を監視する。他車行動判断部514は、最短距離位置の変化によって、姿勢変化を検出できる。すなわち、他車行動判断部514は、姿勢変化検出部としての機能を備える。なお、第1実施形態と同様に、他車行動判断部514とは別に姿勢変化検出部を設けてもよい。また、他車行動判断部514は、第1情報生成部511から他車の傾きを取得できる。更に、他車行動判断部514は、レーダ装置3から他車の相対速度を取得できる。このために、他車行動判断部514は、例えば第1実施形態と同様の手法(図10参照)によって、他車の追越行動や停止行動等の行動判断を行うことができる。 The other vehicle behavior determination unit 514 monitors the change in the shortest distance position of the other vehicle obtained as the third information. The other vehicle behavior determination unit 514 can detect a change in posture by changing the position at the shortest distance. That is, the other vehicle behavior determination unit 514 has a function as a posture change detection unit. As in the first embodiment, the posture change detection unit may be provided separately from the other vehicle behavior determination unit 514. In addition, the other vehicle behavior determination unit 514 can acquire the inclination of the other vehicle from the first information generation unit 511. Further, the other vehicle behavior determination unit 514 can acquire the relative speed of the other vehicle from the radar device 3. Therefore, the other vehicle behavior determination unit 514 can determine the behavior such as overtaking behavior and stopping behavior of the other vehicle by, for example, the same method as in the first embodiment (see FIG. 10).

<<3.第3実施形態>>
図15は、第3実施形態の運転支援システムSYS3の構成を示すブロック図である。運転支援システムSYS3は、自動駐車を支援するシステムにも適用可能であるが、その他の自動運転を支援するシステムにも適用可能である。本実施の形態は、運転支援システムSYS3が自動緊急ブレーキ(AEB;Automatic Emergency Breaking)システムである場合を例示する。
<< 3. Third Embodiment >>
FIG. 15 is a block diagram showing a configuration of the driving support system SYS3 of the third embodiment. The driving support system SYS3 is applicable to a system that supports automatic parking, but is also applicable to other systems that support automatic driving. This embodiment exemplifies the case where the driving support system SYS3 is an automatic emergency braking (AEB) system.

第3実施形態の運転支援システムSYS3の概略構成は、第2実施形態の駐車支援システムSYS2の構成と概ね同じである。第2実施形態と重複する部分については、同一の符号を付して説明し、特に必要が無い場合には説明を省略する。第3実施形態の情報処理装置6が備えるマイコン61によって発揮される機能は、第2実施形態の情報処理装置5が備えるマイコン51によって発揮される機能と概ね同じであるが、他車行動判断部514を有しない点で異なる。また、運転支援システムSYS3は、駐車支援装置4ではなく、運転支援装置7を備える点で異なる。以下、これらの相違点について説明する。 The schematic configuration of the driving support system SYS3 of the third embodiment is substantially the same as the configuration of the parking support system SYS2 of the second embodiment. The parts that overlap with the second embodiment will be described with the same reference numerals, and the description will be omitted if there is no particular need. The functions exhibited by the microcomputer 61 included in the information processing device 6 of the third embodiment are substantially the same as the functions exhibited by the microcomputer 51 included in the information processing device 5 of the second embodiment, but the other vehicle behavior determination unit It differs in that it does not have 514. Further, the driving support system SYS3 is different in that it includes a driving support device 7 instead of the parking support device 4. Hereinafter, these differences will be described.

情報処理装置6の第3情報生成部513は、第2実施形態と同様に、第3情報として自車を基準とした他車の最短距離位置情報を生成する。ただし、AEBシステムは、通常、自車が前方車両と衝突することを防止するシステムである。このために、第1情報生成部511は、フロントカメラ2を用いて他車の画像情報を取得し、他車の前面幅ではなく後面幅を使用して他車の傾きを導出する。また、第2情報生成部512は、自車前方のレーダ装置3を用いて反射点の分布情報を導出する。第3情報生成部513によって生成された最短距離位置情報は、自車から見た他車の状態を判断する指標として使用される。本実施の形態では、他車の状態を判断する主体は、運転支援装置7である。ただし、情報処理装置6側で他車の状態を判断し、当該判断情報を運転支援装置7に出力してもよい。 Similar to the second embodiment, the third information generation unit 513 of the information processing device 6 generates the shortest distance position information of another vehicle based on the own vehicle as the third information. However, the AEB system is usually a system that prevents the own vehicle from colliding with the vehicle in front. For this purpose, the first information generation unit 511 acquires the image information of the other vehicle by using the front camera 2, and derives the inclination of the other vehicle by using the rear surface width instead of the front width of the other vehicle. Further, the second information generation unit 512 derives the distribution information of the reflection points by using the radar device 3 in front of the own vehicle. The shortest distance position information generated by the third information generation unit 513 is used as an index for determining the state of another vehicle as seen from the own vehicle. In the present embodiment, the main body for determining the state of the other vehicle is the driving support device 7. However, the information processing device 6 may determine the state of another vehicle and output the determination information to the driving support device 7.

運転支援装置7は、例えば自車が移動を開始すると、情報処理装置6から定期的に第3情報(最短距離位置情報)を取得する。そして、運転支援装置7は、取得した第3情報に基づいて、自車と他車との最短距離と、所定の閾値とを定期的に比較する。運転支援装置7は、前述の最短距離が所定の閾値より小さい場合に、他車が自車に異常接近していると判断する。運転支援装置7は、他車の異常接近を検出した場合、不図示のブレーキシステムを制御して自車と他車の衝突を防止する。 For example, when the own vehicle starts moving, the driving support device 7 periodically acquires the third information (shortest distance position information) from the information processing device 6. Then, the driving support device 7 periodically compares the shortest distance between the own vehicle and the other vehicle with a predetermined threshold value based on the acquired third information. When the above-mentioned shortest distance is smaller than a predetermined threshold value, the driving support device 7 determines that another vehicle is abnormally approaching the own vehicle. When the driving support device 7 detects an abnormal approach of another vehicle, the driving support device 7 controls a brake system (not shown) to prevent a collision between the own vehicle and the other vehicle.

なお、本実施の形態では、他車の異常接近時に運転支援装置7はブレーキシステムを制御する構成としたが、これは例示である。例えば、運転支援装置7は、他車の異常接近時に、ブレーキシステムの代わりに、或いは、ブレーキシステムに加えて操舵システムを制御する構成としてもよい。 In the present embodiment, the driving support device 7 controls the brake system when another vehicle approaches abnormally, but this is an example. For example, the driving support device 7 may be configured to control the steering system instead of the brake system or in addition to the brake system when another vehicle approaches abnormally.

本実施の形態のシステム構成によれば、カメラ画像とレーダ装置の検知結果とに基づいて、他車の自車との位置関係を判断する構成になっている。このために、単一のセンサのみを用いて他車の自車との位置関係を判断する場合に比べて、位置関係の判断精度を向上させることができる。すなわち、単一のセンサのみを用いる場合に比べて、衝突防止性能を向上させることができる。 According to the system configuration of the present embodiment, the positional relationship between the other vehicle and the own vehicle is determined based on the camera image and the detection result of the radar device. Therefore, the accuracy of determining the positional relationship can be improved as compared with the case where the positional relationship of another vehicle with the own vehicle is determined using only a single sensor. That is, the collision prevention performance can be improved as compared with the case where only a single sensor is used.

<<4.留意点>>
本明細書中に開示されている種々の技術的特徴は、上記実施形態のほか、その技術的創作の主旨を逸脱しない範囲で種々の変更を加えることが可能である。また、以上に示した複数の実施形態及び変形例は可能な範囲で組み合わせて実施されてよい。
<< 4. Points to keep in mind >>
The various technical features disclosed herein can be modified in addition to the above embodiments without departing from the gist of the technical creation. Further, the plurality of embodiments and modifications shown above may be combined and implemented to the extent possible.

例えば、以上においては、情報処理装置1、5、6は、駐車支援装置4及び運転支援装置7とは、別々の装置として設けられる構成とした。ただし、これは例示であり、情報処理装置1、5、6は、駐車支援装置や運転支援装置の一部であってよい。 For example, in the above, the information processing devices 1, 5 and 6 are configured to be provided as separate devices from the parking support device 4 and the driving support device 7. However, this is an example, and the information processing devices 1, 5 and 6 may be a part of the parking support device and the driving support device.

また、以上においては、カメラ画像とレーダ装置による検知結果を利用して、他車の姿勢変更を検出する構成とした。場合によっては、第1実施形態の傾き導出部115、又は、第2、第3実施形態の第1情報生成部511によって導出される他車の傾きの変化に基づいて、姿勢変更が検出される構成が採用されてもよい。 Further, in the above, the configuration is such that the attitude change of another vehicle is detected by using the camera image and the detection result by the radar device. In some cases, the attitude change is detected based on the change in the inclination of the other vehicle derived by the inclination deriving unit 115 of the first embodiment or the first information generating unit 511 of the second and third embodiments. The configuration may be adopted.

また、以上に示した実施形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されていると説明したが、これらの機能のうちの少なくとも一部は電気的なハードウェア回路により実現されてもよい。また逆に、ハードウェア回路によって実現されるとした機能のうちの少なくとも一部は、ソフトウェア的に実現されてもよい。 Further, in the above-described embodiment, it has been described that various functions are realized by software by the arithmetic processing of the CPU according to the program, but at least a part of these functions is electrical hardware. It may be realized by a circuit. On the contrary, at least a part of the functions realized by the hardware circuit may be realized by software.

1、5、6 情報処理装置
2 カメラ
3 レーダ装置
4 駐車支援装置(運転支援装置)
7 運転支援装置
12 記憶部
111、511 第1情報生成部
112、512 第2情報生成部
113、513 第3情報生成部
114 姿勢変化検出部
115 傾き導出部
116、514 他車行動判断部
1, 5, 6 Information processing device 2 Camera 3 Radar device 4 Parking support device (driving support device)
7 Driving support device 12 Storage unit 111, 511 First information generation unit 112, 512 Second information generation unit 113, 513 Third information generation unit 114 Posture change detection unit 115 Tilt derivation unit 116, 514 Other vehicle behavior judgment unit

Claims (10)

自車の周辺に存在する他車の情報に関する処理を行う情報処理装置であって、
前記自車のカメラで取得されるカメラ画像から前記他車の第1情報を生成する第1情報生成部と、
前記自車のレーダ装置の検知結果に基づいて前記他車の第2情報を生成する第2情報生成部と、
前記第1情報と前記第2情報とを用いて前記他車の姿勢に基づく第3情報を生成する第3情報生成部と、
車の前面或いは後面の幅と側面幅との比率と、車の傾き値との関係を車の種別ごとに分類した傾き推定用情報を記憶する記憶部と、
前記カメラ画像から検出される前記他車の前面或いは後面の幅及び側面幅と、前記傾き推定用情報とに基づいて前記他車の傾きを導出する傾き導出部と、
を備える、情報処理装置。
An information processing device that processes information about other vehicles that exist around the vehicle.
A first information generation unit that generates first information of the other vehicle from a camera image acquired by the camera of the own vehicle, and
A second information generation unit that generates second information of the other vehicle based on the detection result of the radar device of the own vehicle, and
A third information generation unit that generates third information based on the posture of the other vehicle by using the first information and the second information.
A storage unit that stores tilt estimation information that classifies the relationship between the ratio of the width of the front or rear surface of the vehicle to the width of the side surface and the tilt value of the vehicle according to the type of vehicle.
A tilt derivation unit that derives the tilt of the other vehicle based on the width and side width of the front or rear surface of the other vehicle detected from the camera image and the tilt estimation information.
Information processing device.
前記第3情報に基づいて前記他車の姿勢変化を検出する姿勢変化検出部を更に備える、請求項1に記載の情報処理装置。 The information processing device according to claim 1, further comprising a posture change detection unit that detects a posture change of the other vehicle based on the third information. 前記姿勢変化検出部及び前記傾き導出部から取得される情報に基づいて、前記他車の行動を判断する行動判断部を更に備える、請求項に記載の情報処理装置。 The information processing device according to claim 2 , further comprising an action determination unit that determines the behavior of the other vehicle based on the information acquired from the attitude change detection unit and the inclination derivation unit. 前記第1情報は、前記他車の所定の角部に関する情報であり、
前記第2情報は、前記レーダ装置から得られる前記他車の位置に関する情報であり、
前記第3情報は、前記所定の角部と、前記レーダ装置から得られる前記他車の位置との距離差情報である、請求項1からのいずれか1項に記載の情報処理装置。
The first information is information about a predetermined corner portion of the other vehicle.
The second information is information regarding the position of the other vehicle obtained from the radar device.
The information processing device according to any one of claims 1 to 3 , wherein the third information is distance difference information between the predetermined corner portion and the position of the other vehicle obtained from the radar device.
自車の周辺に存在する他車の情報に関する処理を行う情報処理装置であって、
前記自車のカメラで取得されるカメラ画像から前記他車の第1情報を生成する第1情報生成部と、
前記自車のレーダ装置の検知結果に基づいて前記他車の第2情報を生成する第2情報生成部と、
前記第1情報と前記第2情報とを用いて前記他車の姿勢に基づく第3情報を生成する第3情報生成部と、
車の前面或いは後面の幅と側面幅との比率と、車の傾き値との関係を車の種別ごとに分類した傾き推定用情報を記憶する記憶部と、
を備え、
前記第1情報は、前記他車の傾きに関する情報であり、
前記第1情報生成部は、前記カメラ画像から検出される前記他車の前面或いは後面の幅及び側面幅と、前記傾き推定用情報とに基づいて、前記他車の傾きに関する情報を生成する、情報処理装置。
An information processing device that processes information about other vehicles that exist around the vehicle.
A first information generation unit that generates first information of the other vehicle from a camera image acquired by the camera of the own vehicle, and
A second information generation unit that generates second information of the other vehicle based on the detection result of the radar device of the own vehicle, and
A third information generation unit that generates third information based on the posture of the other vehicle by using the first information and the second information.
A storage unit that stores tilt estimation information that classifies the relationship between the ratio of the width of the front or rear surface of the vehicle to the width of the side surface and the tilt value of the vehicle according to the type of vehicle.
With
The first information is information regarding the inclination of the other vehicle.
The first information generation unit generates information on the inclination of the other vehicle based on the width and side surface width of the front or rear surface of the other vehicle detected from the camera image and the information for estimating the inclination. Information processing device.
前記第2情報は、前記レーダ装置からの送信波の前記他車における反射点の分布情報であり、
前記第3情報は、前記自車を基準とした前記他車の最短距離位置情報である、請求項5に記載の情報処理装置。
The second information is distribution information of reflection points of the transmitted wave from the radar device in the other vehicle.
The information processing device according to claim 5, wherein the third information is the shortest distance position information of the other vehicle based on the own vehicle.
前記第3情報に基づいて前記他車の行動を判断する行動判断部を更に備える、請求項又はに記載の情報処理装置。 The information processing device according to claim 5 or 6 , further comprising an action determination unit that determines the behavior of the other vehicle based on the third information. 前記カメラと、
前記レーダ装置と、
請求項1からのいずれか1項に記載の情報処理装置と、
前記情報処理装置から出力される情報に基づいて自動運転の支援制御に関する判断を行う運転支援装置と、
を備える、運転支援システム。
With the camera
With the radar device
The information processing device according to any one of claims 1 to 7.
A driving support device that makes a decision regarding automatic driving support control based on the information output from the information processing device, and
A driving support system equipped with.
情報処理装置によって自車の周辺に存在する他車の情報に関する処理を行う情報処理方法であって、
前記自車のカメラで取得されるカメラ画像から前記他車の第1情報を生成する第1情報生成工程と、
前記自車のレーダ装置の検知結果に基づいて前記他車の第2情報を生成する第2情報生成工程と、
前記第1情報と前記第2情報とを用いて前記他車の姿勢に基づく第3情報を生成する第3情報生成工程と、
車の前面或いは後面の幅と側面幅との比率と、車の傾き値との関係を車の種別ごとに分類した傾き推定用情報と、前記カメラ画像から検出される前記他車の前面或いは後面の幅及び側面幅とに基づいて前記他車の傾きを導出する傾き導出工程と、
を備える、情報処理方法。
It is an information processing method that uses an information processing device to process information about other vehicles that exist around the vehicle.
The first information generation step of generating the first information of the other vehicle from the camera image acquired by the camera of the own vehicle, and
A second information generation step of generating second information of the other vehicle based on the detection result of the radar device of the own vehicle, and
A third information generation step of generating the third information based on the posture of the other vehicle by using the first information and the second information.
Tilt estimation information that classifies the relationship between the width of the front or rear surface of the vehicle and the side width and the inclination value of the vehicle for each type of vehicle, and the front or rear surface of the other vehicle detected from the camera image. The inclination derivation step of deriving the inclination of the other vehicle based on the width and the side width of
Information processing method.
情報処理装置によって自車の周辺に存在する他車の情報に関する処理を行う情報処理方法であって、
前記自車のカメラで取得されるカメラ画像から前記他車の第1情報を生成する第1情報生成工程と、
前記自車のレーダ装置の検知結果に基づいて前記他車の第2情報を生成する第2情報生成工程と、
前記第1情報と前記第2情報とを用いて前記他車の姿勢に基づく第3情報を生成する第3情報生成工程と、
を備え、
前記第1情報は、前記他車の傾きに関する情報であり、
前記第1情報生成工程は、車の前面或いは後面の幅と側面幅との比率と、車の傾き値との関係を車の種別ごとに分類した傾き推定用情報と、前記カメラ画像から検出される前記他車の前面或いは後面の幅及び側面幅とに基づいて、前記他車の傾きに関する情報を生成する、情報処理方法。
It is an information processing method that uses an information processing device to process information about other vehicles that exist around the vehicle.
The first information generation step of generating the first information of the other vehicle from the camera image acquired by the camera of the own vehicle, and
A second information generation step of generating second information of the other vehicle based on the detection result of the radar device of the own vehicle, and
A third information generation step of generating the third information based on the posture of the other vehicle by using the first information and the second information.
With
The first information is information regarding the inclination of the other vehicle.
The first information generation step is detected from the inclination estimation information in which the relationship between the width of the front or rear surface of the vehicle and the side width and the inclination value of the vehicle is classified for each type of vehicle, and the camera image. An information processing method for generating information on the inclination of the other vehicle based on the width of the front surface or the rear surface of the other vehicle and the width of the side surface.
JP2016251195A 2016-12-26 2016-12-26 Information processing device, information processing method, and driving support system Active JP6908993B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016251195A JP6908993B2 (en) 2016-12-26 2016-12-26 Information processing device, information processing method, and driving support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016251195A JP6908993B2 (en) 2016-12-26 2016-12-26 Information processing device, information processing method, and driving support system

Publications (2)

Publication Number Publication Date
JP2018103730A JP2018103730A (en) 2018-07-05
JP6908993B2 true JP6908993B2 (en) 2021-07-28

Family

ID=62786481

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016251195A Active JP6908993B2 (en) 2016-12-26 2016-12-26 Information processing device, information processing method, and driving support system

Country Status (1)

Country Link
JP (1) JP6908993B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3997837B2 (en) * 2002-05-27 2007-10-24 株式会社デンソー In-vehicle radar device, program
JP5470886B2 (en) * 2009-02-12 2014-04-16 トヨタ自動車株式会社 Object detection device

Also Published As

Publication number Publication date
JP2018103730A (en) 2018-07-05

Similar Documents

Publication Publication Date Title
JP6760499B2 (en) Parking control method and parking control device
JP6036724B2 (en) Vehicle surrounding situation recognition device and vehicle control device
US11069241B2 (en) Driving support device and driving support method
JP4517393B2 (en) Driving assistance device
US9020747B2 (en) Method for recognizing a turn-off maneuver
JP6773221B2 (en) Parking control method and parking control device
US10919449B2 (en) Driving support device and storage medium
JPWO2017068701A1 (en) Parking space detection method and apparatus
JP2003123196A (en) Device and program for monitoring circumference of vehicle
JP2007072641A (en) Dangerous vehicle detection device
WO2021162000A1 (en) Parking assistance device
JP2014240244A (en) Parking support device
JP2013053962A (en) Camera system, collision prediction system, and parking guide system
WO2017138329A1 (en) Collision prediction device
JP2017162178A (en) Determination device, determination method and determination program
JP2012183868A (en) Vehicle driving support apparatus
JP6852564B2 (en) Parking control method and parking control device
JP6193177B2 (en) Motion support system and object recognition device
US20160021288A1 (en) Vehicle-reversing display system capable of automatically switching multiple field-of-view modes and vehicle-reversing image capture device
JP6908993B2 (en) Information processing device, information processing method, and driving support system
WO2021172532A1 (en) Parking assistance device and parking assistance method
JP7279390B2 (en) electronic controller
JP4768499B2 (en) In-vehicle peripheral other vehicle detection device
JP2008129676A (en) Surrounding monitoring device
JP2024007722A (en) Driving support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210702

R150 Certificate of patent or registration of utility model

Ref document number: 6908993

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150