JP2018103730A - Information processing device, information processing method, and operation support system - Google Patents

Information processing device, information processing method, and operation support system Download PDF

Info

Publication number
JP2018103730A
JP2018103730A JP2016251195A JP2016251195A JP2018103730A JP 2018103730 A JP2018103730 A JP 2018103730A JP 2016251195 A JP2016251195 A JP 2016251195A JP 2016251195 A JP2016251195 A JP 2016251195A JP 2018103730 A JP2018103730 A JP 2018103730A
Authority
JP
Japan
Prior art keywords
information
vehicle
inclination
unit
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016251195A
Other languages
Japanese (ja)
Other versions
JP6908993B2 (en
Inventor
真由子 前田
Mayuko Maeda
真由子 前田
浩明 丸野
Hiroaki Maruno
浩明 丸野
礼文 ▲高▼須賀
礼文 ▲高▼須賀
Ayafumi Takasuga
智仁 井上
Tomohito Inoue
智仁 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2016251195A priority Critical patent/JP6908993B2/en
Publication of JP2018103730A publication Critical patent/JP2018103730A/en
Application granted granted Critical
Publication of JP6908993B2 publication Critical patent/JP6908993B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique capable of appropriately determining a state of a different vehicle existing around an own vehicle.SOLUTION: An information processing device performs processing relating to information on a different vehicle existing around an own vehicle. The information processing device includes: a first information generation part for generating first information of the different vehicle from a camera image acquired by a camera of the own vehicle; a second information generation part for generating second information of the different vehicle on the basis of a detection result of a radar device of the own vehicle; and a third information generation part for generating third information based on a posture of the different vehicle by using the first information and the second information.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理方法、及び、運転支援システムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a driving support system.

従来、自車の前方を走行する前方車の自車進行方向に対する姿勢角を認識するための認識装置が知られる。特許文献1に開示される前方車認識装置は、自車と前方車との車間距離を検出する第1の検出手段を備える。また、当該前方車認識装置は、画像入力手段より入力された画像より、前方車の所定の左右対称部分について抽出された部分画像に基づいて、前記対称部分の左右夫々の画像中の大きさ並びにこの対称部分間の距離を検出する第2の検出手段を備える。更に、当該前方車認識装置は、これらの検出手段により検出された車間距離と、前記対称部分の左右夫々の画像中の大きさとこの対称部分間の距離に基づいて、前方車の自車に対する相対的姿勢角を演算する演算手段を備える。   2. Description of the Related Art Conventionally, a recognition device for recognizing a posture angle with respect to a traveling direction of a preceding vehicle traveling in front of the own vehicle is known. The forward vehicle recognition device disclosed in Patent Literature 1 includes first detection means for detecting an inter-vehicle distance between the host vehicle and the forward vehicle. Further, the forward vehicle recognizing device has a size in the left and right images of the symmetric portion based on a partial image extracted for a predetermined symmetric portion of the forward vehicle from the image input from the image input means. Second detection means for detecting the distance between the symmetrical portions is provided. Further, the forward vehicle recognition device is configured to detect the relative position of the forward vehicle with respect to the own vehicle based on the inter-vehicle distance detected by these detection means, the size in the left and right images of the symmetrical portion, and the distance between the symmetrical portions. Computation means for computing a desired posture angle is provided.

特開平3−535号公報Japanese Unexamined Patent Publication No. 3-535

従来の技術では、自車の周囲に存在することが検知された他車の行動まで把握することは考慮されていない。他車の行動等、自車に影響を与える他車の状況を適切に判断することができると、例えば、自動駐車等における運転者の負担を軽減することができる。   In the conventional technology, it is not considered to grasp the behavior of other vehicles detected to be present around the host vehicle. If the situation of the other vehicle that affects the host vehicle such as the behavior of the other vehicle can be appropriately determined, for example, the burden on the driver in automatic parking or the like can be reduced.

本発明は、上記の課題に鑑み、自車の周囲に存在する他車の状況を適切に判断することができる技術を提供することを目的とする。   An object of this invention is to provide the technique which can judge appropriately the condition of the other vehicle which exists around the own vehicle in view of said subject.

本発明に係る情報処理装置は、自車の周辺に存在する他車の情報に関する処理を行う情報処理装置であって、前記自車のカメラで取得されるカメラ画像から前記他車の第1情報を生成する第1情報生成部と、前記自車のレーダ装置の検知結果に基づいて前記他車の第2情報を生成する第2情報生成部と、前記第1情報と前記第2情報とを用いて前記他車の姿勢に基づく第3情報を生成する第3情報生成部と、を備える構成(第1の構成)である。   The information processing apparatus according to the present invention is an information processing apparatus that performs processing related to information on other vehicles existing around the own vehicle, and includes first information on the other vehicle from a camera image acquired by the camera of the own vehicle. A first information generation unit that generates a second information generation unit that generates second information of the other vehicle based on a detection result of the radar device of the host vehicle, and the first information and the second information. And a third information generation unit that generates third information based on the attitude of the other vehicle.

また、上記第1の構成の情報処理装置は、前記第3情報に基づいて前記他車の姿勢変化を検出する姿勢変化検出部を更に備える構成(第2の構成)であることが好ましい。   The information processing apparatus having the first configuration preferably has a configuration (second configuration) further including an attitude change detection unit that detects an attitude change of the other vehicle based on the third information.

また、上記第2の構成の情報処理装置は、車の前面或いは後面の幅と側面幅との比率と、車の傾き値との関係を車の種別ごとに分類した傾き推定用情報を記憶する記憶部と、前記カメラ画像から検出される前記他車の前面或いは後面の幅及び側面幅と、前記傾き推定用情報とに基づいて前記他車の傾きを導出する傾き導出部と、を更に備える構成(第3の構成)であることが好ましい。   In addition, the information processing apparatus having the second configuration stores inclination estimation information in which the relationship between the ratio between the width of the front or rear surface of the vehicle and the width of the vehicle and the inclination value of the vehicle is classified for each type of vehicle. A storage unit; and a tilt deriving unit that derives the tilt of the other vehicle based on the front and rear widths and side widths of the other vehicle detected from the camera image and the tilt estimation information. A configuration (third configuration) is preferable.

また、上記第3の構成の情報処理装置は、前記姿勢変化検出部及び前記傾き導出部から取得される情報に基づいて、前記他車の行動を判断する行動判断部を更に備える構成(第4の構成)であることが好ましい。   The information processing apparatus having the third configuration further includes a behavior determination unit that determines a behavior of the other vehicle based on information acquired from the posture change detection unit and the inclination derivation unit (fourth). It is preferable that

また、上記第1から第4のいずれかの構成の情報処理装置において、前記第1情報は、前記他車の所定の角部に関する情報であり、前記第2情報は、前記レーダ装置から得られる前記他車の位置に関する情報であり、前記第3情報は、前記所定の角部と、前記レーダ装置から得られる前記他車の位置との距離差情報である構成(第5の構成)であってよい。   In the information processing apparatus having any one of the first to fourth configurations, the first information is information related to a predetermined corner portion of the other vehicle, and the second information is obtained from the radar apparatus. It is information on the position of the other vehicle, and the third information is a configuration (fifth configuration) that is distance difference information between the predetermined corner and the position of the other vehicle obtained from the radar device. It's okay.

また、上記第1又は第2の構成の情報処理装置において、前記第1情報は、前記他車の傾きに関する情報であり、前記第2情報は、前記レーダ装置からの送信波の前記他車における反射点の分布情報であり、前記第3情報は、前記自車を基準とした前記他車の最短距離位置情報である構成(第6の構成)であってよい。   In the information processing apparatus having the first or second configuration, the first information is information related to an inclination of the other vehicle, and the second information is information on a transmitted wave from the radar device in the other vehicle. The distribution information of reflection points, and the third information may be a configuration (sixth configuration) that is the shortest distance position information of the other vehicle based on the host vehicle.

また、上記第6の構成の情報処理装置は、車の前面或いは後面の幅と側面幅との比率と、車の傾き値との関係を車の種別ごとに分類した傾き推定用情報を記憶する記憶部を更に備え、前記第1情報生成部は、前記カメラ画像から検出される前記他車の前面或いは後面の幅及び側面幅と、前記傾き推定用情報とに基づいて、前記他車の傾きに関する情報を生成する構成(第7の構成)であることが好ましい。   The information processing apparatus having the sixth configuration stores inclination estimation information in which the relationship between the ratio of the front or rear width of the vehicle and the width of the vehicle and the vehicle inclination value is classified for each type of vehicle. A storage unit, wherein the first information generation unit is configured to determine the inclination of the other vehicle based on the front or rear width and side width of the other vehicle detected from the camera image and the inclination estimation information. It is preferable that it is the structure (7th structure) which produces | generates the information regarding.

また、上記第6又は第7の構成の情報処理装置は、前記第3情報に基づいて前記他車の行動を判断する行動判断部を更に備える構成(第8の構成)であってよい。   The information processing apparatus having the sixth or seventh configuration may further include a configuration (eighth configuration) further including a behavior determination unit that determines the behavior of the other vehicle based on the third information.

本発明に係る運転支援システムは、前記カメラと、前記レーダ装置と、上記第1から第8のいずれかの構成の情報処理装置と、前記情報処理装置から出力される情報に基づいて自動運転の支援制御に関する判断を行う運転支援装置と、を備える構成(第9の構成)である。   The driving support system according to the present invention is configured to perform automatic driving based on information output from the camera, the radar device, the information processing device having any one of the first to eighth configurations, and the information processing device. And a driving support device that makes a determination regarding support control (a ninth configuration).

本発明に係る情報処理方法は、情報処理装置によって自車の周辺に存在する他車の情報に関する処理を行う情報処理方法であって、前記自車のカメラで取得されるカメラ画像から前記他車の第1情報を生成する第1情報生成工程と、前記自車のレーダ装置の検知結果に基づいて前記他車の第2情報を生成する第2情報生成工程と、前記第1情報と前記第2情報とを用いて前記他車の姿勢に基づく第3情報を生成する第3情報生成工程と、を備える構成(第10の構成)である。   An information processing method according to the present invention is an information processing method for performing processing related to information on other vehicles existing around the own vehicle by an information processing device, and the other vehicle from a camera image acquired by the camera of the own vehicle. A first information generating step for generating the first information, a second information generating step for generating second information of the other vehicle based on a detection result of the radar device of the own vehicle, the first information, and the first information And a third information generation step of generating third information based on the posture of the other vehicle using two information (tenth configuration).

本発明によれば、自車の周囲に存在する他車の状況を適切に判断することができる技術を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the technique which can judge appropriately the condition of the other vehicle which exists around the own vehicle can be provided.

第1実施形態の駐車支援システムの構成を示すブロック図The block diagram which shows the structure of the parking assistance system of 1st Embodiment. 第1実施形態における第1情報について説明するための模式図Schematic diagram for explaining the first information in the first embodiment 第1実施形態において第1情報を生成する手順を示すフローチャートThe flowchart which shows the procedure which produces | generates 1st information in 1st Embodiment. 第1実施形態における第2情報について説明するための模式図The schematic diagram for demonstrating the 2nd information in 1st Embodiment 第1実施形態において第2情報を生成する手順を示すフローチャートThe flowchart which shows the procedure which produces | generates 2nd information in 1st Embodiment. 第1実施形態における第3情報について説明するための模式図Schematic diagram for explaining the third information in the first embodiment 姿勢変化検出部による姿勢変化の検出フローを示すフローチャートFlowchart showing detection flow of posture change by posture change detector 傾き導出部による他車の傾き導出方法を説明するための模式図Schematic diagram for explaining the method of deriving the inclination of another vehicle by the inclination deriving unit 傾き導出部による他車の傾き導出フローを示すフローチャートFlow chart showing the flow for deriving the inclination of another vehicle by the inclination deriving unit 他車行動判断部による他車の行動判断フローを示すフローチャートThe flowchart which shows the action judgment flow of the other car by the other car action judgment part 駐車支援装置によって駐車支援が行われるシチュエーションを例示する模式図Schematic diagram illustrating a situation where parking assistance is performed by a parking assistance device 駐車支援装置による駐車支援フローを示すフローチャートThe flowchart which shows the parking assistance flow by a parking assistance apparatus 第2実施形態の駐車支援システムの構成を示すブロック図The block diagram which shows the structure of the parking assistance system of 2nd Embodiment. 第2実施形態における第3情報の生成手法について説明するための模式図Schematic for demonstrating the production | generation method of the 3rd information in 2nd Embodiment. 第3実施形態の運転支援システムの構成を示すブロック図The block diagram which shows the structure of the driving assistance system of 3rd Embodiment.

以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。以下の説明では、車両の直進進行方向であって、運転席からステアリングに向かう方向を「前方向」とする。また、車両の直進進行方向であって、ステアリングから運転席に向かう方向を「後方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転者の右側から左側に向かう方向を「左方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転者の左側から右側に向かう方向を「右方向」とする。   Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following description, the forward traveling direction of the vehicle and the direction from the driver's seat toward the steering is referred to as “front direction”. In addition, the direction in which the vehicle travels straight and is directed from the steering to the driver's seat is referred to as “rearward direction”. Further, the direction from the right side to the left side of the driver who faces the forward direction and is the direction perpendicular to the straight traveling direction of the vehicle and the vertical line is referred to as “left direction”. Further, the direction from the left side to the right side of the driver who faces the forward direction and is the direction perpendicular to the straight traveling direction of the vehicle and the vertical line is referred to as “right direction”.

<<1.第1実施形態>>
<1−1.駐車支援システムの構成>
第1実施形態は、本発明の運転支援システムが駐車支援システムである場合を例示する。駐車支援システムは、運転支援システムの一例である。図1は、第1実施形態の駐車支援システムSYS1の構成を示すブロック図である。駐車支援システムSYS1は、車両を現在位置から目標駐車位置まで自動走行させて駐車させるシステムである。図1に示すように、駐車支援システムSYS1は、情報処理装置1と、カメラ2と、レーダ装置3と、駐車支援装置4と、を備える。
<< 1. First embodiment >>
<1-1. Configuration of parking support system>
1st Embodiment illustrates the case where the driving assistance system of this invention is a parking assistance system. The parking assistance system is an example of a driving assistance system. FIG. 1 is a block diagram illustrating a configuration of the parking support system SYS1 according to the first embodiment. The parking assist system SYS1 is a system that automatically parks the vehicle from the current position to the target parking position. As illustrated in FIG. 1, the parking support system SYS1 includes an information processing device 1, a camera 2, a radar device 3, and a parking support device 4.

情報処理装置1は、自車の周辺に存在する他車の情報に関する処理を行う。ここで、自車は、情報処理装置1が搭載される車両であり、本実施の形態では、駐車支援を受ける車両である。情報処理装置1は、マイコン11及び記憶部12を含んで構成される。マイコン11は、不図示のCPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を含む。マイコン11は、記憶部12に記憶されたプログラムに基づいて情報の処理及び送受信を行う。マイコン11は、有線又は無線で、カメラ2、レーダ装置3、及び、駐車支援装置4に接続される。情報処理装置1の詳細については後述する。   The information processing apparatus 1 performs processing related to information on other vehicles existing around the host vehicle. Here, the own vehicle is a vehicle on which the information processing apparatus 1 is mounted, and in the present embodiment, is a vehicle that receives parking assistance. The information processing apparatus 1 includes a microcomputer 11 and a storage unit 12. The microcomputer 11 includes a CPU (Central Processing Unit) (not shown), a RAM (Random Access Memory), and a ROM (Read Only Memory). The microcomputer 11 performs information processing and transmission / reception based on a program stored in the storage unit 12. The microcomputer 11 is connected to the camera 2, the radar device 3, and the parking assistance device 4 by wire or wireless. Details of the information processing apparatus 1 will be described later.

カメラ2は、自車に備えられ、自車の周辺を撮影する。本実施の形態では、カメラ2の数は4つである。4つのカメラ2は、フロントカメラと、バックカメラと、左サイドカメラと、右サイドカメラとによって構成される。フロントカメラは、例えば車両の前端部に配置され、車両の前方を撮影する。バックカメラは、例えば車両の後端部に配置され、車両の後方を撮影する。左サイドカメラは、例えば車両の左側ドアミラーに配置され、車両の左側方を撮影する。右サイドカメラは、例えば車両の右側ドアミラーに配置され、車両の右側方を撮影する。カメラ2は、撮影情報を情報処理装置1に送信する。   The camera 2 is provided in the own vehicle and photographs the periphery of the own vehicle. In the present embodiment, the number of cameras 2 is four. The four cameras 2 include a front camera, a back camera, a left side camera, and a right side camera. A front camera is arrange | positioned at the front-end part of a vehicle, for example, and image | photographs the front of a vehicle. A back camera is arrange | positioned at the rear-end part of a vehicle, for example, and image | photographs the back of a vehicle. The left side camera is disposed, for example, on the left door mirror of the vehicle and photographs the left side of the vehicle. The right side camera is disposed, for example, on the right door mirror of the vehicle and photographs the right side of the vehicle. The camera 2 transmits shooting information to the information processing apparatus 1.

なお、カメラ2の数及び配置は例示である。例えば、車両のバック駐車のみを支援する目的である場合には、カメラ2は、バックカメラのみで構成されてもよいし、バックカメラと左右のサイドカメラで構成されてもよい。   The number and arrangement of the cameras 2 are examples. For example, when the purpose is to support only the back parking of the vehicle, the camera 2 may be composed of only the back camera, or may be composed of the back camera and the left and right side cameras.

レーダ装置3は、自車に備えられ、自車周囲の物標を検出する。本実施の形態では、レーダ装置3は、車両の前方及び後方に備えられる。レーダ装置3は、例えばバンパーの内部等に搭載される。レーダ装置3のレーダ軸は、車両の直進進行方向に一致する。本実施の形態のレーダ装置3は、周波数変調した電磁波をレーダ信号として送受信する。レーダ装置3は、自車の前方或いは後方の方位角ごとにレーダ信号を送信し、物標による反射信号を受信する。レーダ装置3は、送受信信号からビート信号を生成して、これをマイコン等の信号処理装置によって処理し、物標の相対距離、相対速度、方位角といった物標情報を検出する。物標は、例えば、前方や後方の車両である。   The radar device 3 is provided in the own vehicle and detects a target around the own vehicle. In the present embodiment, the radar device 3 is provided in front of and behind the vehicle. The radar device 3 is mounted, for example, inside a bumper. The radar axis of the radar device 3 coincides with the straight traveling direction of the vehicle. The radar apparatus 3 according to the present embodiment transmits and receives frequency-modulated electromagnetic waves as radar signals. The radar apparatus 3 transmits a radar signal for each azimuth angle in front of or behind the host vehicle, and receives a reflection signal from a target. The radar apparatus 3 generates a beat signal from a transmission / reception signal, processes it by a signal processing apparatus such as a microcomputer, and detects target information such as a relative distance, a relative speed, and an azimuth angle of the target. The target is, for example, a front or rear vehicle.

なお、レーダ装置3の数及び配置は例示である。例えば、車両のバック駐車のみを支援する目的である場合には、レーダ装置3は後方のみに備えられてよい。   Note that the number and arrangement of the radar devices 3 are examples. For example, when the purpose is to support only the back parking of the vehicle, the radar device 3 may be provided only in the rear.

駐車支援装置4は、自車を目標駐車位置に自動駐車させるための制御を行う装置である。駐車支援装置4は、運転支援装置の一例である。本実施の形態では、駐車支援装置4は、経路算出部41と誘導部42とを備える。経路算出部41は、例えば現在位置から目標駐車位置までの駐車経路を算出する。なお、自車を駐車する駐車スペースについては、自動検出する構成でもよいし、運転者が選択する構成でもよい。誘導部42は、不図示の、エンジン制御部、ブレーキ制御部、ステアリング制御部、及び、シフト制御部を備える。誘導部42は、経路算出部41によって算出された駐車経路に沿って車両を誘導するための車両制御を行う。誘導部42の車両制御によって、自車は自動で目標駐車位置に駐車される。   The parking assistance device 4 is a device that performs control for automatically parking the own vehicle at the target parking position. The parking assistance device 4 is an example of a driving assistance device. In the present embodiment, the parking assistance device 4 includes a route calculation unit 41 and a guidance unit 42. For example, the route calculation unit 41 calculates a parking route from the current position to the target parking position. In addition, about the parking space which parks the own vehicle, the structure which detects automatically may be sufficient and the structure which a driver | operator selects may be sufficient. The guide unit 42 includes an engine control unit, a brake control unit, a steering control unit, and a shift control unit (not shown). The guiding unit 42 performs vehicle control for guiding the vehicle along the parking route calculated by the route calculating unit 41. The vehicle is automatically parked at the target parking position by the vehicle control of the guide unit 42.

本実施の形態では、駐車支援装置4は、他車の情報に関する処理を行う情報処理装置1から出力される情報に基づいて、自動駐車の支援制御に関する判断を行う。詳細には、駐車支援装置4は、情報処理装置1から出力される情報に基づいて、自動駐車の支援制御を行うか否かの判断を行う。この点の詳細については、後述する。   In the present embodiment, the parking support device 4 makes a determination regarding automatic parking support control based on information output from the information processing device 1 that performs processing related to information on other vehicles. Specifically, the parking assistance device 4 determines whether to perform automatic parking assistance control based on the information output from the information processing device 1. Details of this point will be described later.

<1−2.情報処理装置の詳細>
図1に示すように、情報処理装置1のマイコン11は、第1情報生成部111と、第2情報生成部112と、第3情報生成部113と、姿勢変化検出部114と、傾き導出部115と、他車行動判断部116と、を備える。マイコン11が備えるこれらの各部111〜116の機能は、プログラムに従ってCPUが演算処理を行うことによって実現される。
<1-2. Details of Information Processing Device>
As shown in FIG. 1, the microcomputer 11 of the information processing apparatus 1 includes a first information generation unit 111, a second information generation unit 112, a third information generation unit 113, an attitude change detection unit 114, and an inclination derivation unit. 115 and another vehicle action determination unit 116. The functions of these units 111 to 116 included in the microcomputer 11 are realized by the CPU performing arithmetic processing according to a program.

第1情報生成部111は、自車のカメラ2で取得されるカメラ画像から他車の第1情報を生成する。なお、第1情報生成部111は、カメラ画像に他車が存在しないと判断される場合には、第1情報を生成しない。本実施の形態では、第1情報は他車の所定の角部に関する情報である。所定の角部は、他車の前面或いは後面の左右方向(以下、横方向と表現する場合がある)の角部であってよい。本実施の形態では、詳細には、所定の角部は、バックカメラ2のカメラ画像に映る後続車(他車)の、前面横方向の角部である。これは、駐車支援システムSYS1が、車両を後退させながら駐車スペースに駐車させることを想定したシステムであることに由来する。なお、本実施の形態において、角部は、他車の車体フロント部分の端部(例えば、バンパーの左端や右端の箇所)に相当する箇所である。   The 1st information generation part 111 generates the 1st information on other vehicles from the camera picture acquired with camera 2 of the own vehicle. Note that the first information generation unit 111 does not generate the first information when it is determined that there is no other vehicle in the camera image. In the present embodiment, the first information is information related to a predetermined corner portion of another vehicle. The predetermined corner portion may be a corner portion in the left-right direction (hereinafter sometimes referred to as a lateral direction) of the front surface or the rear surface of another vehicle. In the present embodiment, specifically, the predetermined corner portion is a corner portion in the front lateral direction of the succeeding vehicle (other vehicle) reflected in the camera image of the back camera 2. This is because the parking support system SYS1 is a system that assumes that the vehicle is parked in the parking space while retreating. In the present embodiment, the corner portion is a portion corresponding to an end portion (for example, a left end or a right end portion of a bumper) of a vehicle body front portion of another vehicle.

図2は、第1実施形態における第1情報について説明するための模式図である。図2は、バックカメラ2から取得されるカメラ画像の模式図である。図3は、第1実施形態において第1情報を生成する手順を示すフローチャートである。図3に示すように、第1情報生成部111は、バックカメラ2からカメラ画像を取得する(ステップS101)。例えば、図2に示すようなカメラ画像が取得される。   FIG. 2 is a schematic diagram for explaining the first information in the first embodiment. FIG. 2 is a schematic diagram of a camera image acquired from the back camera 2. FIG. 3 is a flowchart showing a procedure for generating the first information in the first embodiment. As shown in FIG. 3, the first information generation unit 111 acquires a camera image from the back camera 2 (step S101). For example, a camera image as shown in FIG. 2 is acquired.

第1情報生成部111は、取得したカメラ画像のエッジ抽出処理を行う(ステップS102)。ここで、エッジとは、画像の明暗の境界線をいい、例えば被写体の輪郭線がエッジに対応する。第1情報処理部111は、カメラ画像の各画素の隣接画素との濃度階調の差を求めることにより画像の明暗の変化を求め、一定以上の明暗差の変化点をエッジとして抽出する。   The first information generation unit 111 performs edge extraction processing of the acquired camera image (step S102). Here, the edge refers to a light / dark border line of an image, and for example, a contour line of a subject corresponds to the edge. The first information processing unit 111 obtains a change in light / darkness of the image by obtaining a difference in density gradation from each pixel of each pixel of the camera image, and extracts a change point of the light / dark difference of a certain level or more as an edge.

第1情報生成部111は、エッジ処理の結果に基づいて角抽出処理を行う(ステップS103)。本実施の形態では、第1情報生成部111は、他車の前面横方向の角部を抽出する。第1情報生成部111は、記憶部12に記憶されるエッジ形状のパターンデータを用いて他車の前面を認識し、認識した他車の前面横方向の角部を抽出する。   The first information generation unit 111 performs corner extraction processing based on the result of the edge processing (step S103). In the present embodiment, the first information generation unit 111 extracts a corner portion in the front lateral direction of another vehicle. The first information generation unit 111 recognizes the front surface of the other vehicle using the edge shape pattern data stored in the storage unit 12, and extracts a corner portion in the front lateral direction of the recognized other vehicle.

第1情報生成部111は、他車の前面横方向の中心位置から角部位置までの距離である第1横距離X1を算出する(ステップS104)。図2において、一点鎖線C1は他車の前面方向の中心位置を示し、点線L1は他車の角部の位置を示す。図2において、第1横距離X1は、C1からL1までの距離である。第1横距離X1は、本発明の第1情報の一例である。他車の前面横方向の中心位置C1は、ステップS103で他車の前面横方向の2つの角部が抽出されているために算出することができる。   The first information generation unit 111 calculates a first lateral distance X1 that is a distance from the center position in the front lateral direction of the other vehicle to the corner position (step S104). In FIG. 2, an alternate long and short dash line C1 indicates the center position of the other vehicle in the front direction, and a dotted line L1 indicates the position of the corner of the other vehicle. In FIG. 2, the first lateral distance X1 is a distance from C1 to L1. The first lateral distance X1 is an example of the first information of the present invention. The center position C1 in the front lateral direction of the other vehicle can be calculated because two corners in the front lateral direction of the other vehicle are extracted in step S103.

図1に戻って、第2情報生成部112は、自車のレーダ装置3の検知結果に基づいて他車の第2情報を生成する。本実施の形態では、第2情報は第1情報と比較処理される。本実施の形態では、第2情報は、レーダ装置3から得られる他車の位置に関する情報である。本実施の形態では、詳細には、第2情報は、自車の後方に設けられるレーダ装置3から得られる他車の位置に関する情報である。これは、駐車支援システムSYS1が、車両を後退させながら駐車スペースに駐車させることを想定したシステムであることに由来する。例えば、駐車支援システムSYS1が、車両を前進させながら駐車スペースに駐車させる支援も行う場合、第2情報には、自車の前方に設けられるレーダ装置3から得られる他車の位置に関する情報が含まれてもよい。   Returning to FIG. 1, the second information generation unit 112 generates the second information of the other vehicle based on the detection result of the radar device 3 of the own vehicle. In the present embodiment, the second information is compared with the first information. In the present embodiment, the second information is information relating to the position of another vehicle obtained from the radar device 3. In the present embodiment, specifically, the second information is information related to the position of another vehicle obtained from the radar device 3 provided behind the host vehicle. This is because the parking support system SYS1 is a system that assumes that the vehicle is parked in the parking space while retreating. For example, when the parking assistance system SYS1 also provides assistance for parking the parking space while moving the vehicle forward, the second information includes information on the position of the other vehicle obtained from the radar device 3 provided in front of the host vehicle. May be.

図4は、第1実施形態における第2情報について説明するための模式図である。図4は、バックカメラ2から取得されるカメラ画像の模式図である。図5は、第1実施形態において第2情報を生成する手順を示すフローチャートである。図5に示すように、第2情報生成部112は、自車の後方のレーダ装置3によって検知された結果を取得する(ステップS201)。詳細には、第2情報生成部112は、物標の相対距離、相対速度、及び、方位角を取得する。物標は複数存在する場合があり、その場合には、各物標に対して相対距離等の物標情報が取得される。本例では、図4に示すように、後方に2つの車両が存在しており、これら2つの車両に対する物標情報が得られる。   FIG. 4 is a schematic diagram for explaining the second information in the first embodiment. FIG. 4 is a schematic diagram of a camera image acquired from the back camera 2. FIG. 5 is a flowchart showing a procedure for generating the second information in the first embodiment. As illustrated in FIG. 5, the second information generation unit 112 acquires a result detected by the radar device 3 behind the host vehicle (step S <b> 201). Specifically, the second information generation unit 112 acquires the relative distance, the relative speed, and the azimuth angle of the target. There may be a plurality of targets, and in such a case, target information such as a relative distance is acquired for each target. In this example, as shown in FIG. 4, there are two vehicles behind, and target information for these two vehicles is obtained.

第2情報生成部112は、取得した物標の座標位置の変換を行う(ステップS202)。詳細には、第2情報生成部112は、レーダ装置3によって取得された物標の位置を、カメラ画像(図4参照)上における座標位置に変換する。カメラ2及びレーダ装置3は、自車に固定されている。このために、レーダ装置3によって取得される物標の実空間における座標位置は、カメラ画像の座標位置に1対1対応で変換することができる。第2情報生成部112は、取得された物標情報から物標の自車に対する横方向位置を算出する。そして、第2情報生成部112は、この横方向位置を、カメラ画像上の座標位置に変換する。これにより、図4に点線L2で示す横方向位置線が得られる。   The second information generation unit 112 converts the coordinate position of the acquired target (step S202). Specifically, the second information generation unit 112 converts the position of the target acquired by the radar device 3 into a coordinate position on the camera image (see FIG. 4). The camera 2 and the radar device 3 are fixed to the own vehicle. For this reason, the coordinate position in the real space of the target acquired by the radar apparatus 3 can be converted to the coordinate position of the camera image in a one-to-one correspondence. The second information generation unit 112 calculates the lateral position of the target with respect to the own vehicle from the acquired target information. Then, the second information generation unit 112 converts the horizontal position into a coordinate position on the camera image. As a result, a horizontal position line indicated by a dotted line L2 in FIG. 4 is obtained.

なお、図4に示す例では、自車の後方に、自車に前面を向ける車両以外に、自車に対して横を向いた車両も存在する。当該横を向いた車両についても、物標情報が取得され、これに基づいて、図4に示す点線L2とは異なる横方向位置線が得られる。ただし、第2情報は、第1情報と比較する情報である。第1情報は、自車に前面を向ける車両からの情報であり、この車両とは異なる車両の位置情報と判断されるものは、第2情報の生成対象から除外される。   In the example shown in FIG. 4, there is a vehicle that faces sideways with respect to the own vehicle in addition to the vehicle that faces the front of the own vehicle behind the own vehicle. Target information is also acquired for the vehicle facing sideways, and based on this, a lateral position line different from the dotted line L2 shown in FIG. 4 is obtained. However, the second information is information to be compared with the first information. The first information is information from a vehicle facing the front of the vehicle, and information determined as position information of a vehicle different from the vehicle is excluded from the generation target of the second information.

第2情報生成部112は、カメラ画像上の座標において、他車の前面横方向の中心位置C1から、レーダ装置3の物標情報に基づいて算出された他車の横方向位置L2までの距離である第2横距離X2を算出する(ステップS203)。第2横距離X2は、図4において、C1からL2までの距離である。第2横距離X2は、本発明の第2情報の一例である。   The second information generation unit 112 has a distance from the center position C1 in the front lateral direction of the other vehicle to the lateral position L2 of the other vehicle calculated based on the target information of the radar device 3 in the coordinates on the camera image. The second lateral distance X2 is calculated (step S203). The second lateral distance X2 is a distance from C1 to L2 in FIG. The second lateral distance X2 is an example of the second information of the present invention.

図1に戻って、第3情報生成部113は、第1情報と第2情報とを用いて他車の姿勢に基づく第3情報を生成する。本実施の形態において、第3情報は、他車の状況を判断する指標となる。他車の状況は、自車の運転に対して影響を及ぼす他車の状態或いは動作を指す。本実施の形態では、より詳細には、第3情報は、他車の姿勢変化を判断する指標となる。本実施の形態では、自車の周辺を監視するカメラ2及びレーダ装置3から得られる第3情報に基づいて、他車状況を判断することができる。このために、1つのセンサに基づいて判断する場合に比べて、他車の状況を正確に判断することができる。   Returning to FIG. 1, the third information generation unit 113 generates the third information based on the posture of the other vehicle using the first information and the second information. In the present embodiment, the third information is an index for determining the situation of other vehicles. The situation of the other vehicle indicates a state or operation of the other vehicle that affects the driving of the own vehicle. More specifically, in the present embodiment, the third information is an index for determining a change in the posture of another vehicle. In the present embodiment, the other vehicle situation can be determined based on the third information obtained from the camera 2 and the radar apparatus 3 that monitor the periphery of the host vehicle. For this reason, compared with the case where it judges based on one sensor, the condition of other vehicles can be judged correctly.

本実施の形態では、第3情報は、カメラ画像から得られる他車の所定の角部と、レーダ装置3から得られる他車の位置との距離差情報である。詳細には、第3情報は、第1横距離X1と第2横距離X2との差分値である。他車が自車に対する傾きを変化させると、自車のレーダ装置3から送信される送信波が他車によって反射される角度が変わる。このために、カメラ画像上において、他車の前面横方向の角部と、レーダ装置3によって検知される他車の位置との位置関係が変化する。これについて、図6を例示して説明する。   In the present embodiment, the third information is distance difference information between a predetermined corner of the other vehicle obtained from the camera image and the position of the other vehicle obtained from the radar device 3. Specifically, the third information is a difference value between the first lateral distance X1 and the second lateral distance X2. When the other vehicle changes its inclination with respect to the own vehicle, the angle at which the transmission wave transmitted from the radar device 3 of the own vehicle is reflected by the other vehicle changes. For this reason, on the camera image, the positional relationship between the corners in the front lateral direction of the other vehicle and the position of the other vehicle detected by the radar device 3 changes. This will be described with reference to FIG.

図6は、第1実施形態における第3情報について説明するための模式図である。図6は、バックカメラ2から取得されるカメラ画像の模式図である。図6は、図2及び図4に示す状態から、自車の後方に存在する一の車両が姿勢を変化した状態を示す。また、図6には、第1情報生成部111によって生成される第1横距離X1と、第2情報生成部112によって生成される第2横距離X2とが示されている。   FIG. 6 is a schematic diagram for explaining the third information in the first embodiment. FIG. 6 is a schematic diagram of a camera image acquired from the back camera 2. FIG. 6 shows a state in which the posture of one vehicle existing behind the host vehicle has changed from the state shown in FIGS. 2 and 4. In addition, FIG. 6 illustrates a first lateral distance X1 generated by the first information generation unit 111 and a second lateral distance X2 generated by the second information generation unit 112.

図6に示すように、自車から前面のみが見えていた他車(図2及び図4参照)が傾いて側面を見せる姿勢に変化すると、カメラ画像上において、レーダ装置3によって検知される他車の位置(図中の黒点参照)が他車の前面横方向の角部に近づく。このために、第1横距離X1と第2横距離X2の差分値である第3情報の変化を検出することで、姿勢変化を検出することができる。すなわち、第3情報は他車の姿勢変化を判断する指標となる。本構成によれば、カメラ画像情報と、レーダ装置3による物標情報とに基づいて得られる第3情報によって他車の姿勢変化を検出できるために、例えばカメラ画像のみで姿勢変化を判断する場合に比べて、姿勢変化を適切に検出することができる。ここで、図4及び図6に基づいて、レーダ装置3で検知した情報と、カメラ画像との関係について更に詳細に説明しておく。レーダ装置は、1つの物体(本例では後続車)から複数の反射点が検出された場合、その複数の反射点の中で最も信号レベルが高い反射点を代表点とし、その代表点の位置を物体の位置とする。後続車が自車に対して略真正面を向いている場合(図4に示す状態)、反射点Sが後続車に属する他の反射点よりもレベルが高くなり代表点となる。そして、後続車が自車に対して比較的大きく傾いた状態となった場合(図6に示す状態)、反射点Tが後続車の他の反射点よりもレベルが高くなり代表点となる。詳細には、後続車が比較的大きく傾いているときは、反射点Sと反射点Tとの少なくとも2つの反射点が検出されているものの、自車との距離が最も近い反射点Tのレベルが反射点Sよりも大きくなる。そのため代表点は反射点Tとなる。このように、後続車のステアリングホイールの操作により、自車に対する後続車の車体が傾くことで、後続車の位置(代表点の位置)は変化する。そして、その変化に基づき画像中における後続車の車両像のどの位置が、レーダ装置で検出している位置に相当するのかが判別される。   As shown in FIG. 6, when the other vehicle (see FIGS. 2 and 4) in which only the front surface is visible from the own vehicle is tilted and changed to a posture in which the side surface can be seen, The position of the car (see the black dot in the figure) approaches the corner of the front side of the other car. For this reason, it is possible to detect a change in posture by detecting a change in the third information, which is a difference value between the first lateral distance X1 and the second lateral distance X2. That is, the third information is an index for determining the posture change of the other vehicle. According to this configuration, since it is possible to detect the posture change of the other vehicle based on the third information obtained based on the camera image information and the target information obtained by the radar device 3, for example, when the posture change is determined only from the camera image Compared to the above, it is possible to appropriately detect the posture change. Here, based on FIG.4 and FIG.6, the relationship between the information detected with the radar apparatus 3 and a camera image is demonstrated in detail. When a plurality of reflection points are detected from one object (following vehicle in this example), the radar apparatus uses the reflection point having the highest signal level among the plurality of reflection points as a representative point, and the position of the representative point. Is the position of the object. When the succeeding vehicle is facing substantially in front of the host vehicle (the state shown in FIG. 4), the reflection point S is higher than the other reflection points belonging to the succeeding vehicle and becomes a representative point. Then, when the following vehicle is relatively inclined with respect to the own vehicle (the state shown in FIG. 6), the reflection point T becomes a representative point because the level is higher than the other reflection points of the subsequent vehicle. Specifically, when the succeeding vehicle is relatively inclined, at least two reflection points of the reflection point S and the reflection point T are detected, but the level of the reflection point T that is closest to the own vehicle is detected. Becomes larger than the reflection point S. Therefore, the representative point is the reflection point T. As described above, the position of the succeeding vehicle (the position of the representative point) is changed by tilting the body of the succeeding vehicle relative to the host vehicle by operating the steering wheel of the succeeding vehicle. Based on the change, it is determined which position in the vehicle image of the following vehicle in the image corresponds to the position detected by the radar device.

図1に戻って、姿勢変化検出部114は、第3情報に基づいて他車の姿勢変化を検出する。本構成のように、情報処理装置1が姿勢変化検出部114を備えると、自車側において他車の行動を予想することが可能になり、安全性を向上することができる。図7は、姿勢変化検出部114による姿勢変化の検出フローを示すフローチャートである。   Returning to FIG. 1, the posture change detection unit 114 detects the posture change of the other vehicle based on the third information. When the information processing apparatus 1 includes the posture change detection unit 114 as in this configuration, it is possible to predict the behavior of another vehicle on the own vehicle side, and safety can be improved. FIG. 7 is a flowchart showing a posture change detection flow by the posture change detection unit 114.

姿勢変化検出部114は、第1水平距離X1と第2水平距離X2の差分値である第3情報を取得する(ステップS301)。姿勢変化検出部114は、取得した差分値情報を記憶する処理を行う(ステップS302)。差分値は一時的に記憶されればよく、例えばRAMに記憶される。姿勢変化検出部114は、所定の期間が経過したか否か確認する(ステップS303)。姿勢変化検出部114は、所定の期間が経過するまで次の処理を待機する。所定の期間は適宜設定すればよい。   The posture change detection unit 114 acquires third information that is a difference value between the first horizontal distance X1 and the second horizontal distance X2 (step S301). The posture change detection unit 114 performs a process of storing the acquired difference value information (step S302). The difference value may be temporarily stored, for example, stored in the RAM. The posture change detection unit 114 checks whether or not a predetermined period has elapsed (step S303). The posture change detection unit 114 waits for the next process until a predetermined period elapses. The predetermined period may be set as appropriate.

所定の期間が経過すると、姿勢変化検出部114は、再度、第1水平距離X1と第2水平距離X2の差分値を取得する(ステップS304)。姿勢変化検出部114は、再度取得した差分値と、先に記憶処理した差分値とを比較して、差分値に変化があるか否かを確認する(ステップS305)。差分値に変化があると判断される場合(ステップS305でYes)、姿勢変化検出部114は姿勢変化ありと判断する(ステップS306)。差分値に変化がないと判断される場合(ステップS305でNo)、姿勢変化検出部114は姿勢変化なしと判断する(ステップS307)。   When the predetermined period has elapsed, the posture change detection unit 114 obtains a difference value between the first horizontal distance X1 and the second horizontal distance X2 again (step S304). The posture change detection unit 114 compares the difference value acquired again with the difference value previously stored and checks whether or not there is a change in the difference value (step S305). When it is determined that there is a change in the difference value (Yes in step S305), the posture change detection unit 114 determines that there is a posture change (step S306). When it is determined that there is no change in the difference value (No in step S305), the posture change detection unit 114 determines that there is no posture change (step S307).

図1に戻って、傾き導出部115は、カメラ画像から検出される他車の前面或いは後面の幅及び側面幅と、記憶部12に記憶される傾き推定用情報とに基づいて、他車の傾きを導出する。傾き推定用情報は、車の前面或いは後面の幅と側面幅との比率と、車の傾き値との関係を車の種別ごとに分類した情報である。他車の傾きを導出することによって、他車の状況を詳細に把握することが可能になる。このために、自車側において他車の行動を正確に予想することが可能になる。   Returning to FIG. 1, the inclination deriving unit 115 detects the other vehicle's front or rear width and side width detected from the camera image and the inclination estimation information stored in the storage unit 12. Deriving the slope. The information for estimating the inclination is information obtained by classifying the relationship between the ratio of the width of the front or rear surface of the vehicle and the width of the vehicle and the inclination value of the vehicle for each type of vehicle. By deriving the inclination of the other vehicle, the situation of the other vehicle can be grasped in detail. For this reason, it becomes possible to accurately predict the behavior of other vehicles on the own vehicle side.

本実施の形態では、傾き導出部115は、カメラ画像から検出される他車の前面幅及び側面幅を利用して他車の傾きを導出する。このために、傾き推定用情報は、車の前面幅と側面幅の比率と、車の傾き値との関係を車の種別ごとに分類した情報である。これらは、駐車支援システムSYS1が、車両を後退させながら駐車スペースに駐車させることを想定したシステムであることに由来する。なお、詳細には、他車の傾きは、自車のバックカメラ2の光軸に対する横方向の傾きである。前面幅及び側面幅は、いずれも横幅である。   In the present embodiment, the inclination deriving unit 115 derives the inclination of the other vehicle using the front width and side width of the other vehicle detected from the camera image. For this reason, the inclination estimation information is information in which the relationship between the ratio of the front width and the side width of the car and the inclination value of the car is classified for each type of car. These are derived from the fact that the parking support system SYS1 is a system that assumes that the vehicle is parked in the parking space while retreating. Specifically, the inclination of the other vehicle is an inclination in the lateral direction with respect to the optical axis of the back camera 2 of the own vehicle. The front width and the side width are both horizontal widths.

本実施の形態では、傾き推定用情報は、車の種別ごとにテーブル情報として記憶部12に記憶される。傾き推定用情報は、各種別における車の設計値や代表的な値に基づいて、予め計算によって求めることができる。車の種別は、例えば、小型車、普通車、大型車等の分類であってよい。別の例として、車の種別は、例えば、車のモデル毎の情報であってもよい。例えば、普通車のサイズについて、幅1.8m、長さ5.0mを想定したとする。この場合、普通車のテーブルには、例えば、前面幅と側面幅の比率が1.34(=(1.8×cos15°)/5.0×sin15°)の場合に車の傾きが15°、前面幅と側面幅の比率が0.62(=(1.8×cos30°)/5.0×sin30°)の場合に車の傾きが30°といった情報が記載される。   In the present embodiment, the inclination estimation information is stored in the storage unit 12 as table information for each type of vehicle. The information for estimating the inclination can be obtained by calculation in advance based on the design value and representative value of the vehicle in each type. The type of vehicle may be, for example, a classification such as a small vehicle, a normal vehicle, or a large vehicle. As another example, the type of car may be information for each car model, for example. For example, assume that the size of a normal vehicle is assumed to be 1.8 m wide and 5.0 m long. In this case, for example, when the ratio of the front width to the side width is 1.34 (= (1.8 × cos15 °) /5.0×sin15°), the inclination of the car is 15 °. When the ratio of the front width to the side width is 0.62 (= (1.8 × cos 30 °) /5.0×sin 30 °), information such as the inclination of the vehicle is 30 ° is described.

図8は、傾き導出部115による他車の傾き導出方法を説明するための模式図である。図8は、バックカメラ2から取得されるカメラ画像の模式図である。図9は、傾き導出部115による他車の傾き導出フローを示すフローチャートである。図9に示すように、傾き導出部115は、バックカメラ2のカメラ画像に映る他車の前面幅W1(図8参照)を算出する(ステップS401)。本実施の形態では、第1情報生成部111によって第1情報を生成する際に、他車の前面については、エッジ抽出、及び、角抽出を行っている。これを利用して、前面幅W1は算出することができる。   FIG. 8 is a schematic diagram for explaining a method of deriving the inclination of another vehicle by the inclination deriving unit 115. FIG. 8 is a schematic diagram of a camera image acquired from the back camera 2. FIG. 9 is a flowchart showing a flow for deriving the inclination of another vehicle by the inclination deriving unit 115. As illustrated in FIG. 9, the inclination deriving unit 115 calculates the front width W1 (see FIG. 8) of the other vehicle reflected in the camera image of the back camera 2 (step S401). In the present embodiment, when the first information is generated by the first information generation unit 111, edge extraction and corner extraction are performed on the front surface of the other vehicle. By utilizing this, the front width W1 can be calculated.

傾き導出部115は、バックカメラ2のカメラ画像に映る他車の側面幅W2(図8参照)を算出する(ステップS402)。側面幅W2の算出は、第1情報を生成する際に処理を行ったエッジ処理画像を用いて算出することができる。エッジ処理画像により、図8に示すように、車側面の左右方向において境界線位置を決定し、境界線位置間の距離を求めることによって、側面幅W2が得られる。なお、ステップ401とステップS402とを行う順番は、本例と逆であってもよい。   The inclination deriving unit 115 calculates the side width W2 (see FIG. 8) of the other vehicle shown in the camera image of the back camera 2 (step S402). The side surface width W2 can be calculated using an edge processed image that has been processed when the first information is generated. As shown in FIG. 8, by using the edge processing image, the boundary line position is determined in the left-right direction of the vehicle side surface, and the distance between the boundary line positions is obtained to obtain the side surface width W2. Note that the order in which step 401 and step S402 are performed may be the reverse of this example.

傾き導出部115は、前面幅W1と側面幅W2の比率を算出する(ステップS403)。なお、前面幅W1と側面幅W2とのうち、いずれか一方がゼロである場合には、比率を算出しなくてよい。側面幅W2がゼロの場合は、傾き値は0°と判断される。前面幅W1がゼロの場合には、傾き値は180°と判断される。   The inclination deriving unit 115 calculates the ratio between the front surface width W1 and the side surface width W2 (step S403). In addition, a ratio does not need to be calculated when either one of the front surface width W1 and the side surface width W2 is zero. When the side surface width W2 is zero, the inclination value is determined to be 0 °. When the front width W1 is zero, the inclination value is determined to be 180 °.

傾き導出部115は、バックカメラ2のカメラ画像に映る他車の種別を判断する(ステップS404)。例えば、傾き導出部115は、カメラ画像に映るナンバープレートに記載される情報から車の種別を判断する。ナンバープレートに記載される情報として、例えば5ナンバー、3ナンバー等が挙げられる。また、別の例として、傾き導出部115は、カメラ画像に映る、他車のナンバープレートの横幅と、他車の前面幅との比率から、車の種別を判断してもよい。ナンバープレートのサイズは、規格によって一定値に定まっている。このために、カメラ画像に映る、他車のナンバープレートの横幅と、他車の前面幅との比率、及び、ナンバープレートの横幅の規格値から、実空間における他車の前面幅を算出できる。算出した実空間における他車の前面幅から、予め定めた車の種別毎の前面幅データに基づいて、車の種別を判断できる。なお、車の種別判断は、本例のタイミングに限らず、ステップS401〜ステップS403のいずれかの前に行われてもよい。   The inclination deriving unit 115 determines the type of the other vehicle shown in the camera image of the back camera 2 (step S404). For example, the inclination deriving unit 115 determines the type of the car from information described on a license plate reflected in the camera image. As information described on the license plate, for example, 5 number, 3 number and the like can be mentioned. As another example, the inclination deriving unit 115 may determine the type of the vehicle from the ratio between the width of the license plate of the other vehicle and the width of the front surface of the other vehicle, which are reflected in the camera image. The size of the license plate is fixed according to the standard. For this reason, the front width of the other vehicle in the real space can be calculated from the ratio between the width of the license plate of the other vehicle and the front width of the other vehicle, and the standard value of the width of the license plate. From the calculated front width of the other vehicle in the real space, the vehicle type can be determined based on the front width data for each predetermined vehicle type. Note that the vehicle type determination is not limited to the timing of this example, and may be performed before any of steps S401 to S403.

傾き導出部115は、ステップS403で算出した前面幅W1と側面幅W2との比率、及び、ステップS404で判断した車の種別に基づいて、傾き推定用情報(テーブル情報)を参照して、他車の傾きを導出する(ステップS405)。   The tilt deriving unit 115 refers to the tilt estimation information (table information) based on the ratio between the front width W1 and the side width W2 calculated in step S403 and the type of the vehicle determined in step S404. The vehicle inclination is derived (step S405).

図1に戻って、他車行動判断部116は、姿勢変化検出部114及び傾き導出部115から取得される情報に基づいて他車の行動を判断する。本構成では、他車の傾き変化だけでなく、他車の傾き情報も加味して他車の行動を判断するために、他車の行動をより適切に判断することができる。   Returning to FIG. 1, the other vehicle behavior determination unit 116 determines the behavior of the other vehicle based on information acquired from the posture change detection unit 114 and the inclination derivation unit 115. In this configuration, the behavior of the other vehicle can be determined more appropriately in order to determine the behavior of the other vehicle in consideration of not only the inclination change of the other vehicle but also the tilt information of the other vehicle.

図10は、他車行動判断部116による他車の行動判断フローを示すフローチャートである。他車行動判断部116は、姿勢変化検出部114から情報を取得して他車に姿勢変化が有ったか否かを確認する(ステップS501)。   FIG. 10 is a flowchart showing a behavior determination flow of another vehicle by the other vehicle behavior determination unit 116. The other vehicle behavior determination unit 116 acquires information from the posture change detection unit 114 and confirms whether or not the other vehicle has a posture change (step S501).

他車の姿勢変化が有った場合(ステップS501)、他車行動判断部116は、レーダ装置3から取得される他車の相対速度を確認する。詳細には、他車行動判断部116は、他車の相対速度が0km/h以外であるか否かを確認する(ステップS502)。他車の相対速度が0km/h以外である場合(ステップS502でYes)、他車行動判断部116は、他車が追越行動を行っていると判断する(ステップS503)。一方、他車の相対速度が0km/hである場合(ステップS502でNo)、他車行動判断部116は、他車が停止行動を行っていると判断する(ステップS504)。   When there is a change in the posture of the other vehicle (step S501), the other vehicle action determination unit 116 confirms the relative speed of the other vehicle acquired from the radar device 3. Specifically, the other vehicle behavior determination unit 116 checks whether or not the relative speed of the other vehicle is other than 0 km / h (step S502). When the relative speed of the other vehicle is other than 0 km / h (Yes in step S502), the other vehicle action determining unit 116 determines that the other car is performing the overtaking action (step S503). On the other hand, when the relative speed of the other vehicle is 0 km / h (No in step S502), the other vehicle behavior determining unit 116 determines that the other vehicle is performing the stopping behavior (step S504).

なお、上記の例では、他車の相対速度が0km/h以外である場合に、即座に追越行動と判断している。これは例示にすぎない。例えば、他車の相対速度が0km/h以外である場合、他車の相対速度の時間変化を確認する構成としてもよい。他車の相対速度が、減速して0km/hに近づいていると判断される場合は停止行動と判断し、それ以外の場合は追越行動と判断する構成としてもよい。   In the above example, when the relative speed of the other vehicle is other than 0 km / h, it is immediately determined to be an overtaking action. This is only an example. For example, when the relative speed of the other vehicle is other than 0 km / h, the time variation of the relative speed of the other vehicle may be confirmed. When it is determined that the relative speed of the other vehicle decelerates and approaches 0 km / h, it may be determined to be a stop action, and otherwise, it may be determined to be an overtaking action.

他車行動判断部116は、他車の姿勢変化が無い場合(ステップS501でNo)、傾き導出部115から他車の傾きを取得する(ステップS505)。他車行動判断部116は、他車の傾きが0°以外であるか否かを確認する(ステップS506)。   When there is no change in the posture of the other vehicle (No in step S501), the other vehicle action determination unit 116 acquires the inclination of the other vehicle from the inclination deriving unit 115 (step S505). The other vehicle behavior determination unit 116 checks whether the inclination of the other vehicle is other than 0 ° (step S506).

他車の傾きが0°以外である場合(ステップS506でYes)、他車行動判断部116は、他車の相対速度が0km/h以外であるか否かを確認する(ステップS507)。他車の相対速度が0km/h以外である場合(ステップS507でYes)、他車行動判断部116は、他車が追越行動を行っていると判断する(ステップS508)。一方、他車の相対速度が0km/hである場合(ステップS507でYes)、他車行動判断部116は、他車が停止行動を行っていると判断する(ステップS509)。なお、上述したステップS503の変形例のように、他車の相対速度が0km/h以外である場合に、即座に追越行動と判断することなく、他車の相対速度の時間変化を確認して他車の行動を判断する構成としてもよい。   When the inclination of the other vehicle is other than 0 ° (Yes in step S506), the other vehicle action determining unit 116 checks whether or not the relative speed of the other vehicle is other than 0 km / h (step S507). When the relative speed of the other vehicle is other than 0 km / h (Yes in step S507), the other vehicle behavior determining unit 116 determines that the other vehicle is performing the overtaking behavior (step S508). On the other hand, when the relative speed of the other vehicle is 0 km / h (Yes in step S507), the other vehicle behavior determining unit 116 determines that the other vehicle is performing the stopping behavior (step S509). If the relative speed of the other vehicle is other than 0 km / h as in the modified example of step S503 described above, the time change of the relative speed of the other vehicle is confirmed without immediately determining that the vehicle is overtaking. It is also possible to determine the behavior of other vehicles.

他車の傾きが0°である場合(ステップS506でNo)、他車行動判断部116は、他車の相対速度が0km/h以外であるか否かを確認する(ステップS510)。他車の相対速度が0km/h以外である場合(ステップS510でYes)、他車行動判断部116は、他車が接近行動を行っていると判断する(ステップS511)。一方、他車の相対速度が0km/hである場合(ステップS510でYes)、他車行動判断部116は、他車が停止行動を行っていると判断する(ステップS512)。なお、上述したステップS503の変形例と同様に、他車の相対速度が0km/h以外である場合に、即座に接近行動と判断することなく、他車の相対速度の時間変化を確認して他車の行動を判断する構成としてもよい。   When the inclination of the other vehicle is 0 ° (No in step S506), the other vehicle action determination unit 116 checks whether the relative speed of the other vehicle is other than 0 km / h (step S510). When the relative speed of the other vehicle is other than 0 km / h (Yes in step S510), the other vehicle action determining unit 116 determines that the other car is performing an approaching action (step S511). On the other hand, when the relative speed of the other vehicle is 0 km / h (Yes in step S510), the other vehicle behavior determining unit 116 determines that the other vehicle is performing the stopping behavior (step S512). As with the above-described modification of step S503, when the relative speed of the other vehicle is other than 0 km / h, the time change of the relative speed of the other vehicle is confirmed without immediately determining the approaching action. It is good also as a structure which judges the action of another vehicle.

例えば、他車が傾きを変化させた後にステアリングホイールを元に戻して直進した場合に、姿勢変化検出部114によって姿勢変化が検出されないという事態が起こり得る。このような場合でも、他車の傾き情報を利用することによって、確実に追越行動を検出することができる。また、他車の傾きが0°である場合でも、他車が直進して接近してくることがあり、本実施形態の構成では、このような他車の行動まで判断することができる。   For example, when the other vehicle changes its inclination and then returns to its original position and moves straight, the posture change detection unit 114 may not detect the posture change. Even in such a case, the overtaking action can be reliably detected by using the inclination information of the other vehicle. Even when the inclination of the other vehicle is 0 °, the other vehicle may go straight ahead and approach, and in the configuration of the present embodiment, it is possible to determine such behavior of the other vehicle.

<1−3.情報処理装置と駐車支援装置の関係>
図11は、駐車支援装置4によって駐車支援が行われるシチュエーションを例示する模式図である。駐車場Pは、複数の白線で囲まれた駐車スペースP1を有する。自車PC1は、駐車支援装置4を用いて、複数の駐車スペースP1のうちの1つに駐車する予定である。自車PC1の直進方向と平行な方向の後方には、他車PC2が存在する。
<1-3. Relationship between Information Processing Device and Parking Support Device>
FIG. 11 is a schematic view illustrating a situation where parking assistance is performed by the parking assistance device 4. The parking lot P has a parking space P1 surrounded by a plurality of white lines. The host vehicle PC1 is scheduled to park in one of the plurality of parking spaces P1 using the parking assistance device 4. There is another vehicle PC2 behind the direction parallel to the straight direction of the host vehicle PC1.

図12は、駐車支援装置4による駐車支援フローを示すフローチャートである。駐車支援装置4による駐車支援制御は、例えば、運転者が不図示の駐車支援ボタンを押すことによってスタートする。なお、駐車支援制御の開始は、これに限定されず、例えばシフトレバーの位置に連動して開始されてもよい。詳細には、シフトレバーが後退(R)に入れられた場合に開始されてもよい。   FIG. 12 is a flowchart showing a parking support flow by the parking support device 4. The parking assistance control by the parking assistance device 4 starts, for example, when the driver presses a parking assistance button (not shown). In addition, the start of parking assistance control is not limited to this, For example, you may start in response to the position of a shift lever. Specifically, it may be started when the shift lever is moved backward (R).

駐車支援装置4は、まず、情報処理装置1に行動判断を行うべき他車PC2に関する情報を取得することを命令する(ステップS601)。情報処理装置1は、当該命令によって、各機能部111〜116を適宜機能させて、他車PC2の行動に関する情報を取得する。なお、本例では、自車PC1の後方に、自車PC1に前面を向ける他車PC2が存在するために、他車PC2の行動に関する情報が取得される。自車PC1の後方に他車PC2が存在しない場合、他車PC2の行動に関する情報は取得されない。   The parking assistance device 4 first instructs the information processing device 1 to acquire information related to the other vehicle PC2 that should make a behavior determination (step S601). The information processing apparatus 1 causes each of the functional units 111 to 116 to function appropriately according to the instruction, and acquires information related to the behavior of the other vehicle PC2. In this example, since there is another vehicle PC2 facing the front of the host vehicle PC1 behind the host vehicle PC1, information on the behavior of the other vehicle PC2 is acquired. When the other vehicle PC2 does not exist behind the host vehicle PC1, information regarding the behavior of the other vehicle PC2 is not acquired.

駐車支援装置4は、情報処理装置1によって他車PC2の行動に関する情報が取得されたか否かを確認する(ステップS602)。他車PC2の行動に関する情報が取得された場合(ステップS602でYes)、他車PC2の行動が停車行動か否かを確認する(ステップS603)。   The parking assistance apparatus 4 confirms whether the information regarding the behavior of the other vehicle PC2 has been acquired by the information processing apparatus 1 (step S602). When the information regarding the behavior of the other vehicle PC2 is acquired (Yes in Step S602), it is confirmed whether or not the behavior of the other vehicle PC2 is a stopping behavior (Step S603).

情報処理装置1によって他車PC2の行動に関する情報が取得されなかった場合(ステップS602でNo)、或いは、他車PC2の行動が停止行動であると判断された場合(ステップS603でYes)、駐車支援装置4は、支援情報を生成する(ステップS604)。図11に示す例では、他車PC2が存在するために、支援情報が生成されるのは、他車PC2が、その場合に停車している場合である。支援情報には、例えば、経路算出部41によって算出される駐車経路情報が含まれる。駐車支援装置4は、生成した支援情報に基づいて車両制御を行う(ステップS605)。車両制御には、例えば、自車PC1のエンジン制御部、ブレーキ制御部、ステアリング制御部、及び、シフト制御部の制御が含まれる。   If the information processing device 1 does not acquire information related to the behavior of the other vehicle PC2 (No in step S602), or if the behavior of the other vehicle PC2 is determined to be a stop behavior (Yes in step S603), parking The support device 4 generates support information (step S604). In the example shown in FIG. 11, since the other vehicle PC2 exists, the support information is generated when the other vehicle PC2 is stopped in that case. The support information includes, for example, parking route information calculated by the route calculation unit 41. The parking assistance device 4 performs vehicle control based on the generated assistance information (step S605). The vehicle control includes, for example, control of an engine control unit, a brake control unit, a steering control unit, and a shift control unit of the host vehicle PC1.

一方、他車PC2の行動が停止行動でないと判断された場合(ステップS603でNo)駐車支援装置4は、駐車支援制御を中止する(ステップS606)。図11に示す例では、他車PC2が、点線矢印で示す接近行動を行う場合、及び、一点鎖線矢印で示す追越行動を行う場合に、停車行動ではないと判断される。駐車支援装置4は、駐車支援制御を中止する場合、そのことを運転者に報知することが好ましい。報知の手段としては、例えば、自車PC1に備えられる表示装置(不図示)や音声装置が使用される。   On the other hand, when it is determined that the action of the other vehicle PC2 is not a stop action (No in step S603), the parking assistance device 4 stops the parking assistance control (step S606). In the example illustrated in FIG. 11, when the other vehicle PC2 performs an approaching action indicated by a dotted line arrow and performs an overtaking action indicated by a one-dot chain line arrow, it is determined that the other vehicle PC2 is not a stopping action. When the parking assistance device 4 stops the parking assistance control, it is preferable to notify the driver of this. As the notification means, for example, a display device (not shown) or a sound device provided in the host vehicle PC1 is used.

本実施の形態の駐車支援システムSYS1によれば、駐車支援装置4は、運転者から自動駐車を行う意思表示があった場合に、情報処理装置1から他車PC2の行動情報を取得して、駐車支援制御を続行しても良いか否かを判断する。このために、本実施の形態の駐車支援システムSYS1によれば、自動駐車を開始するに際して、運転者自身が自車の周辺環境を確認する負担を低減することができる。   According to the parking support system SYS1 of the present embodiment, the parking support device 4 acquires the behavior information of the other vehicle PC2 from the information processing device 1 when there is an intention to perform automatic parking from the driver, It is determined whether or not the parking support control can be continued. For this reason, according to the parking assistance system SYS1 of the present embodiment, it is possible to reduce the burden of the driver himself / herself confirming the surrounding environment of the own vehicle when starting automatic parking.

<<2.第2実施形態>>
<2−1.駐車支援システムの構成>
第2実施形態も、第1実施形態と同様に、本発明の運転支援システムが駐車支援システムである場合を例示する。図13は、第2実施形態の駐車支援システムSYS2の構成を示すブロック図である。第2実施形態の駐車支援システムSYS2の構成は、第1実施形態の駐車支援システムSYS1の構成と概ね同じである。第1実施形態と重複する部分については、同一の符号を付して説明し、特に必要が無い場合には説明を省略する。第2実施形態の情報処理装置5が備えるマイコン51によって発揮される機能は、第1実施形態の情報処理装置1が備えるマイコン11によって発揮される機能と異なる。以下、この相違点について説明する。
<< 2. Second Embodiment >>
<2-1. Configuration of parking support system>
Similarly to the first embodiment, the second embodiment also illustrates a case where the driving support system of the present invention is a parking support system. FIG. 13 is a block diagram illustrating a configuration of the parking support system SYS2 of the second embodiment. The configuration of the parking support system SYS2 of the second embodiment is substantially the same as the configuration of the parking support system SYS1 of the first embodiment. The same parts as those in the first embodiment will be described with the same reference numerals, and the description thereof will be omitted unless particularly necessary. The function exhibited by the microcomputer 51 included in the information processing apparatus 5 of the second embodiment is different from the function exhibited by the microcomputer 11 included in the information processing apparatus 1 of the first embodiment. Hereinafter, this difference will be described.

<2−2.情報処理装置の詳細>
第2実施形態の情報処理装置5のマイコン51も、第1実施形態と同様に、第1情報生成部511、第2情報生成部512、第3情報生成部513、及び、他車行動判断部514を備える。マイコン51が備えるこれらの各部511〜514の機能は、記憶部12に記憶されるプログラムに従ってCPUが演算処理を行うことによって実現される。
<2-2. Details of Information Processing Device>
Similarly to the first embodiment, the microcomputer 51 of the information processing apparatus 5 according to the second embodiment also includes a first information generation unit 511, a second information generation unit 512, a third information generation unit 513, and an other vehicle action determination unit. 514. The functions of these units 511 to 514 included in the microcomputer 51 are realized by the CPU performing arithmetic processing according to a program stored in the storage unit 12.

第1実施形態と同様に、第1情報生成部511は、自車のカメラ2で取得されるカメラ画像から他車の第1情報を生成する。ただし、第2実施形態においては、第1情報は、他車の傾きに関する情報である。この点、第1実施形態と異なる。第1情報生成部511は、カメラ画像から検出される他車の前面或いは後面の幅及び側面幅と、記憶部12に記憶される傾き推定用情報とに基づいて、他車の傾きに関する情報を生成する。傾き推定用情報は、車の前面或いは後面の幅と側面幅との比率と、車の傾き値との関係を車の種別ごとに分類した情報である。   Similar to the first embodiment, the first information generation unit 511 generates first information of the other vehicle from the camera image acquired by the camera 2 of the own vehicle. However, in 2nd Embodiment, 1st information is the information regarding the inclination of other vehicles. This is different from the first embodiment. The first information generation unit 511 obtains information related to the inclination of the other vehicle based on the front and rear widths and side widths of the other vehicle detected from the camera image and the inclination estimation information stored in the storage unit 12. Generate. The information for estimating the inclination is information obtained by classifying the relationship between the ratio of the width of the front or rear surface of the vehicle and the width of the vehicle and the inclination value of the vehicle for each type of vehicle.

本実施の形態では、詳細には、第1情報生成部511は、カメラ画像から検出される他車の前面幅及び側面幅を利用して他車の傾きを導出する。このために、傾き推定用情報は、車の前面幅と側面幅との比率と、車の傾き値との関係を車の種別ごとに分類した情報である。これらは、駐車支援システムSYS2が、車両を後退させながら駐車スペースに駐車させることを想定したシステムであることに由来する。なお、本実施の形態では、第1情報生成部511は、バックカメラ2から取得されるカメラ画像に他車が存在しないと判断される場合には、第1情報を生成しない。   In the present embodiment, in detail, the first information generation unit 511 derives the inclination of the other vehicle using the front width and side width of the other vehicle detected from the camera image. Therefore, the inclination estimation information is information obtained by classifying the relationship between the ratio of the front width and the side width of the car and the inclination value of the car for each type of car. These are derived from the fact that the parking support system SYS2 is a system that assumes that the vehicle is parked in the parking space while retreating. In the present embodiment, the first information generation unit 511 does not generate the first information when it is determined that there is no other vehicle in the camera image acquired from the back camera 2.

第1情報生成部511が他車の傾きを導出する方法は、第1実施形態の傾き導出部115の傾き導出方法と同様である。また、第2実施形態における傾き推定用情報の構成も、第1実施形態の傾き推定用情報の構成と同様である。このために、これらの詳細な説明は省略する。第1情報生成部511は、予め準備される傾き推定用情報を用いてカメラ画像から他車の傾きに関する情報を生成するために、カメラ画像のみから他車の傾きを適切に推定することができる。第1情報生成部511は、導出した他車の傾きから俯瞰図BW(後述の図14参照)を作成する。本実施の形態では、他車を上から見た形状は長方形状であると近似される。第1情報生成部511は、導出した傾きに対応させて長方形を傾けて俯瞰図BWを生成する。なお、傾き値がゼロの場合、長方形の短辺は左右方向と平行とされ、長方形の長辺は前後方向に平行とされる。   The method by which the first information generation unit 511 derives the inclination of the other vehicle is the same as the inclination derivation method of the inclination derivation unit 115 of the first embodiment. Further, the configuration of the information for estimating the inclination in the second embodiment is the same as the configuration of the information for estimating the inclination in the first embodiment. For this reason, these detailed description is abbreviate | omitted. The first information generation unit 511 can appropriately estimate the inclination of the other vehicle from only the camera image in order to generate information related to the inclination of the other vehicle from the camera image using the inclination estimation information prepared in advance. . The first information generation unit 511 creates an overhead view BW (see FIG. 14 described later) from the derived inclination of the other vehicle. In the present embodiment, the shape of the other vehicle viewed from above is approximated as a rectangular shape. The first information generation unit 511 generates an overhead view BW by inclining a rectangle corresponding to the derived inclination. When the inclination value is zero, the short side of the rectangle is parallel to the left-right direction, and the long side of the rectangle is parallel to the front-rear direction.

第1実施形態と同様に、第2情報生成部512は、自車のレーダ装置3の検知結果に基づいて、第1情報と比較する他車の第2情報を生成する。ただし、第2実施形態においては、第2情報は、レーダ装置3からの送信波の他車における反射点の分布情報である。この点、第1実施形態と異なる。なお、本実施の形態では、第2情報生成部512は、第1情報生成部511によって第1情報が生成されない場合には、第2情報の生成を行わない。   Similarly to the first embodiment, the second information generation unit 512 generates second information of another vehicle to be compared with the first information based on the detection result of the radar device 3 of the own vehicle. However, in the second embodiment, the second information is the distribution information of the reflection points in the other vehicle of the transmission wave from the radar device 3. This is different from the first embodiment. In the present embodiment, the second information generation unit 512 does not generate the second information when the first information generation unit 511 does not generate the first information.

レーダ装置3は、物標がある程度の広がりを持った反射面を有する場合、複数の反射点位置の情報を検出する。レーダ装置3は、通常、前述の複数の反射点位置のうち、所定の基準に基づいて代表となる反射点位置を決定し、この代表となる反射点位置の物標情報を外部に出力する。代表となる反射点位置は、必ずしも1つに限らない。第2情報生成部512は、代表となる反射点位置に対する物標情報だけでなく、レーダ装置3によって検出された他の複数の反射点位置が存在する場合には、それらの物標情報もレーダ装置3から取得する。そして、第2情報生成部512は、取得した複数の反射点位置の物標情報に基づいて、物標を上から見た場合を想定した反射点位置の分布図DM(後述の図14参照)を生成する。   The radar device 3 detects information of a plurality of reflection point positions when the target has a reflection surface having a certain extent. The radar apparatus 3 usually determines a representative reflection point position based on a predetermined reference among the plurality of reflection point positions described above, and outputs the target information of the representative reflection point position to the outside. The representative reflection point position is not necessarily limited to one. When there are a plurality of other reflection point positions detected by the radar apparatus 3 as well as the target information for the representative reflection point position, the second information generation unit 512 also converts the target information to the radar. Obtained from device 3. Then, the second information generation unit 512, based on the acquired target information of the plurality of reflection point positions, the reflection point position distribution map DM (see FIG. 14 described later) assuming that the target is viewed from above. Is generated.

第3情報生成部513は、第1情報と第2情報とを用いて他車の姿勢に基づく第3情報を生成する。本実施の形態においても、第3情報は、他車の状況を判断する指標となる。詳細には、第3情報は、他車の姿勢変化を含む動きを判断する指標となる。本実施の形態では、第3情報は、自車を基準とした他車の最短距離位置情報である。言い換えると、第3情報は、他車の姿勢に基づき決定される情報である。例えば、他車が自車に対して略真正面を向いた姿勢の場合は、他車のフロントグリル部分が最短距離位置となり、他車が自車に対して比較的大きく傾いた姿勢のときは、他車の角部が最短距離位置となる。本実施の形態では、カメラ画像情報と、レーダ装置3から得られる物標情報とに基づいて他車の最短距離位置情報を検出する。このために、例えばレーダ装置3から得られる他車の距離情報のみを用いて他車の動作を判断する場合に比べて、他車の動作を適切に判断することができる。   The third information generation unit 513 generates third information based on the attitude of the other vehicle using the first information and the second information. Also in the present embodiment, the third information is an index for determining the situation of other vehicles. Specifically, the third information serves as an index for determining a motion including a posture change of another vehicle. In this Embodiment, 3rd information is the shortest distance position information of the other vehicle on the basis of the own vehicle. In other words, the third information is information determined based on the attitude of the other vehicle. For example, when the other vehicle is in a posture that faces almost directly in front of the own vehicle, the front grill portion of the other vehicle is in the shortest distance position, The corner of the other vehicle is the shortest distance position. In the present embodiment, the shortest distance position information of the other vehicle is detected based on the camera image information and the target information obtained from the radar device 3. For this reason, for example, the operation of the other vehicle can be appropriately determined as compared with the case where the operation of the other vehicle is determined using only the distance information of the other vehicle obtained from the radar device 3.

図14は、第2実施形態における第3情報の生成手法について説明するための模式図である。図14に示すように、第3情報生成部513は、第1情報として得た他車の傾きを反映した俯瞰図BWと、第2情報として得た反射点位置の分布図DMとを比較する。第3情報生成部513は、反射点位置の分布から他車の位置として最も確からしい位置を推定する。推定には、例えば最小自乗法等が使用されてよい。また、推定にあたって、例えば、上述の代表となる反射点位置(図14に四角で示される)は他車と必ず重なるものとして、位置推定が行われてもよい。また、カメラ画像から明らかに他車の反射点位置として不適切と推定される点は除外して、位置推定が行われてよい。   FIG. 14 is a schematic diagram for describing a third information generation method according to the second embodiment. As illustrated in FIG. 14, the third information generation unit 513 compares the overhead view BW reflecting the inclination of the other vehicle obtained as the first information with the reflection point position distribution map DM obtained as the second information. . The third information generation unit 513 estimates the most likely position as the position of the other vehicle from the distribution of reflection point positions. For the estimation, for example, a least square method or the like may be used. In the estimation, for example, the position estimation may be performed on the assumption that the above-described representative reflection point positions (indicated by squares in FIG. 14) necessarily overlap with other vehicles. Further, the position may be estimated by excluding points that are clearly estimated as inappropriate from the camera image as the reflection point position of the other vehicle.

第3情報生成部513は、分布図DM中における他車の最も確からしい位置を推定すると、これに基づいて最短距離位置情報を生成する。図14に示す例では、複数の反射点の近傍に存在すると考えられる互いに直交する二辺の頂点位置(図14に白丸で示される)が最短距離位置と判断される。なお、反射点位置が1点しか存在しない場合は、その点を最短距離位置と判断してもよい。   When the third information generating unit 513 estimates the most likely position of the other vehicle in the distribution map DM, the third information generating unit 513 generates the shortest distance position information based on the estimated position. In the example shown in FIG. 14, the vertex positions of two sides that are considered to exist in the vicinity of a plurality of reflection points (indicated by white circles in FIG. 14) are determined as the shortest distance positions. If there is only one reflection point position, that point may be determined as the shortest distance position.

図13に戻って、他車行動判断部514は、第3情報に基づいて他車の行動を判断する。本構成のように、情報処理装置1が他車行動判断部514を備えて他車の行動判断を行う構成とすると、他車の行動を適切に判断しながら自動運転の支援を行うことが可能になる。このために、安全性の向上が期待できる。   Returning to FIG. 13, the other vehicle behavior determination unit 514 determines the behavior of the other vehicle based on the third information. As in this configuration, when the information processing apparatus 1 includes the other vehicle behavior determination unit 514 and performs the behavior determination of the other vehicle, it is possible to support automatic driving while appropriately determining the behavior of the other vehicle. become. For this reason, improvement in safety can be expected.

他車行動判断部514は、第3情報として得た他車の最短距離位置の変化を監視する。他車行動判断部514は、最短距離位置の変化によって、姿勢変化を検出できる。すなわち、他車行動判断部514は、姿勢変化検出部としての機能を備える。なお、第1実施形態と同様に、他車行動判断部514とは別に姿勢変化検出部を設けてもよい。また、他車行動判断部514は、第1情報生成部511から他車の傾きを取得できる。更に、他車行動判断部514は、レーダ装置3から他車の相対速度を取得できる。このために、他車行動判断部514は、例えば第1実施形態と同様の手法(図10参照)によって、他車の追越行動や停止行動等の行動判断を行うことができる。   The other vehicle behavior determination unit 514 monitors the change in the shortest distance position of the other vehicle obtained as the third information. The other vehicle behavior determination unit 514 can detect a change in posture based on a change in the shortest distance position. That is, the other vehicle behavior determination unit 514 has a function as a posture change detection unit. Similar to the first embodiment, a posture change detection unit may be provided separately from the other vehicle behavior determination unit 514. Further, the other vehicle action determination unit 514 can acquire the inclination of the other vehicle from the first information generation unit 511. Further, the other vehicle action determination unit 514 can acquire the relative speed of the other vehicle from the radar device 3. For this reason, the other vehicle behavior determination unit 514 can perform behavior determination such as an overtaking behavior or a stop behavior of the other vehicle, for example, by a method similar to that of the first embodiment (see FIG. 10).

<<3.第3実施形態>>
図15は、第3実施形態の運転支援システムSYS3の構成を示すブロック図である。運転支援システムSYS3は、自動駐車を支援するシステムにも適用可能であるが、その他の自動運転を支援するシステムにも適用可能である。本実施の形態は、運転支援システムSYS3が自動緊急ブレーキ(AEB;Automatic Emergency Breaking)システムである場合を例示する。
<< 3. Third Embodiment >>
FIG. 15 is a block diagram illustrating a configuration of the driving support system SYS3 of the third embodiment. The driving support system SYS3 can be applied to a system that supports automatic parking, but can also be applied to other systems that support automatic driving. The present embodiment illustrates a case where the driving support system SYS3 is an automatic emergency braking (AEB) system.

第3実施形態の運転支援システムSYS3の概略構成は、第2実施形態の駐車支援システムSYS2の構成と概ね同じである。第2実施形態と重複する部分については、同一の符号を付して説明し、特に必要が無い場合には説明を省略する。第3実施形態の情報処理装置6が備えるマイコン61によって発揮される機能は、第2実施形態の情報処理装置5が備えるマイコン51によって発揮される機能と概ね同じであるが、他車行動判断部514を有しない点で異なる。また、運転支援システムSYS3は、駐車支援装置4ではなく、運転支援装置7を備える点で異なる。以下、これらの相違点について説明する。   The schematic configuration of the driving support system SYS3 of the third embodiment is substantially the same as the configuration of the parking support system SYS2 of the second embodiment. The same parts as those in the second embodiment will be described with the same reference numerals, and the description thereof will be omitted unless particularly necessary. The function exhibited by the microcomputer 61 included in the information processing apparatus 6 of the third embodiment is substantially the same as the function exhibited by the microcomputer 51 included in the information processing apparatus 5 of the second embodiment, but the other vehicle behavior determination unit The difference is that 514 is not provided. Further, the driving support system SYS3 is different in that it includes a driving support device 7 instead of the parking support device 4. Hereinafter, these differences will be described.

情報処理装置6の第3情報生成部513は、第2実施形態と同様に、第3情報として自車を基準とした他車の最短距離位置情報を生成する。ただし、AEBシステムは、通常、自車が前方車両と衝突することを防止するシステムである。このために、第1情報生成部511は、フロントカメラ2を用いて他車の画像情報を取得し、他車の前面幅ではなく後面幅を使用して他車の傾きを導出する。また、第2情報生成部512は、自車前方のレーダ装置3を用いて反射点の分布情報を導出する。第3情報生成部513によって生成された最短距離位置情報は、自車から見た他車の状態を判断する指標として使用される。本実施の形態では、他車の状態を判断する主体は、運転支援装置7である。ただし、情報処理装置6側で他車の状態を判断し、当該判断情報を運転支援装置7に出力してもよい。   Similar to the second embodiment, the third information generation unit 513 of the information processing device 6 generates the shortest distance position information of the other vehicle based on the own vehicle as the third information. However, the AEB system is a system that normally prevents the host vehicle from colliding with a preceding vehicle. For this purpose, the first information generation unit 511 acquires the image information of the other vehicle using the front camera 2 and derives the inclination of the other vehicle using the rear width instead of the front width of the other vehicle. The second information generation unit 512 derives reflection point distribution information using the radar device 3 in front of the host vehicle. The shortest distance position information generated by the third information generation unit 513 is used as an index for determining the state of another vehicle viewed from the own vehicle. In the present embodiment, the driving assistance device 7 is the subject that determines the state of the other vehicle. However, the state of the other vehicle may be determined on the information processing device 6 side, and the determination information may be output to the driving support device 7.

運転支援装置7は、例えば自車が移動を開始すると、情報処理装置6から定期的に第3情報(最短距離位置情報)を取得する。そして、運転支援装置7は、取得した第3情報に基づいて、自車と他車との最短距離と、所定の閾値とを定期的に比較する。運転支援装置7は、前述の最短距離が所定の閾値より小さい場合に、他車が自車に異常接近していると判断する。運転支援装置7は、他車の異常接近を検出した場合、不図示のブレーキシステムを制御して自車と他車の衝突を防止する。   For example, when the host vehicle starts moving, the driving support device 7 periodically acquires third information (shortest distance position information) from the information processing device 6. Then, the driving support device 7 periodically compares the shortest distance between the host vehicle and the other vehicle with a predetermined threshold based on the acquired third information. The driving support device 7 determines that the other vehicle is abnormally approaching the host vehicle when the shortest distance is smaller than a predetermined threshold. When the driving assistance device 7 detects an abnormal approach of another vehicle, the driving assistance device 7 controls a brake system (not shown) to prevent a collision between the own vehicle and the other vehicle.

なお、本実施の形態では、他車の異常接近時に運転支援装置7はブレーキシステムを制御する構成としたが、これは例示である。例えば、運転支援装置7は、他車の異常接近時に、ブレーキシステムの代わりに、或いは、ブレーキシステムに加えて操舵システムを制御する構成としてもよい。   In the present embodiment, the driving support device 7 is configured to control the brake system when another vehicle is abnormally approaching, but this is merely an example. For example, the driving support device 7 may be configured to control the steering system instead of the brake system or in addition to the brake system when another vehicle is abnormally approaching.

本実施の形態のシステム構成によれば、カメラ画像とレーダ装置の検知結果とに基づいて、他車の自車との位置関係を判断する構成になっている。このために、単一のセンサのみを用いて他車の自車との位置関係を判断する場合に比べて、位置関係の判断精度を向上させることができる。すなわち、単一のセンサのみを用いる場合に比べて、衝突防止性能を向上させることができる。   According to the system configuration of the present embodiment, the positional relationship between the other vehicle and the own vehicle is determined based on the camera image and the detection result of the radar device. For this reason, compared with the case where the positional relationship with the own vehicle of another vehicle is determined using only a single sensor, the determination accuracy of the positional relationship can be improved. That is, the collision prevention performance can be improved as compared with the case where only a single sensor is used.

<<4.留意点>>
本明細書中に開示されている種々の技術的特徴は、上記実施形態のほか、その技術的創作の主旨を逸脱しない範囲で種々の変更を加えることが可能である。また、以上に示した複数の実施形態及び変形例は可能な範囲で組み合わせて実施されてよい。
<< 4. Points to remember >>
Various technical features disclosed in the present specification can be variously modified within the scope of the technical creation in addition to the above-described embodiment. Further, the plurality of embodiments and modification examples described above may be combined and implemented within a possible range.

例えば、以上においては、情報処理装置1、5、6は、駐車支援装置4及び運転支援装置7とは、別々の装置として設けられる構成とした。ただし、これは例示であり、情報処理装置1、5、6は、駐車支援装置や運転支援装置の一部であってよい。   For example, in the above, the information processing devices 1, 5, and 6 are configured to be provided as separate devices from the parking support device 4 and the driving support device 7. However, this is merely an example, and the information processing apparatuses 1, 5, and 6 may be part of a parking assistance apparatus or a driving assistance apparatus.

また、以上においては、カメラ画像とレーダ装置による検知結果を利用して、他車の姿勢変更を検出する構成とした。場合によっては、第1実施形態の傾き導出部115、又は、第2、第3実施形態の第1情報生成部511によって導出される他車の傾きの変化に基づいて、姿勢変更が検出される構成が採用されてもよい。   Moreover, in the above, it was set as the structure which detects the attitude | position change of another vehicle using a camera image and the detection result by a radar apparatus. In some cases, the attitude change is detected based on the change in the inclination of the other vehicle derived by the inclination deriving unit 115 of the first embodiment or the first information generating unit 511 of the second and third embodiments. A configuration may be employed.

また、以上に示した実施形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されていると説明したが、これらの機能のうちの少なくとも一部は電気的なハードウェア回路により実現されてもよい。また逆に、ハードウェア回路によって実現されるとした機能のうちの少なくとも一部は、ソフトウェア的に実現されてもよい。   Further, in the above-described embodiment, it has been described that various functions are realized in software by the arithmetic processing of the CPU according to the program. However, at least a part of these functions is electric hardware. It may be realized by a circuit. Conversely, at least some of the functions realized by the hardware circuit may be realized by software.

1、5、6 情報処理装置
2 カメラ
3 レーダ装置
4 駐車支援装置(運転支援装置)
7 運転支援装置
12 記憶部
111、511 第1情報生成部
112、512 第2情報生成部
113、513 第3情報生成部
114 姿勢変化検出部
115 傾き導出部
116、514 他車行動判断部
1, 5, 6 Information processing device 2 Camera 3 Radar device 4 Parking support device (driving support device)
7 Driving Support Device 12 Storage Unit 111, 511 First Information Generation Unit 112, 512 Second Information Generation Unit 113, 513 Third Information Generation Unit 114 Attitude Change Detection Unit 115 Inclination Derivation Unit 116, 514 Other Vehicle Behavior Determination Unit

Claims (10)

自車の周辺に存在する他車の情報に関する処理を行う情報処理装置であって、
前記自車のカメラで取得されるカメラ画像から前記他車の第1情報を生成する第1情報生成部と、
前記自車のレーダ装置の検知結果に基づいて前記他車の第2情報を生成する第2情報生成部と、
前記第1情報と前記第2情報とを用いて前記他車の姿勢に基づく第3情報を生成する第3情報生成部と、
を備える、情報処理装置。
An information processing apparatus that performs processing related to information on other vehicles existing around the vehicle,
A first information generating unit that generates first information of the other vehicle from a camera image acquired by the camera of the own vehicle;
A second information generation unit that generates second information of the other vehicle based on a detection result of the radar device of the host vehicle;
A third information generating unit that generates third information based on an attitude of the other vehicle using the first information and the second information;
An information processing apparatus comprising:
前記第3情報に基づいて前記他車の姿勢変化を検出する姿勢変化検出部を更に備える、請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, further comprising an attitude change detection unit that detects an attitude change of the other vehicle based on the third information. 車の前面或いは後面の幅と側面幅との比率と、車の傾き値との関係を車の種別ごとに分類した傾き推定用情報を記憶する記憶部と、
前記カメラ画像から検出される前記他車の前面或いは後面の幅及び側面幅と、前記傾き推定用情報とに基づいて前記他車の傾きを導出する傾き導出部と、
を更に備える、請求項2に記載の情報処理装置。
A storage unit that stores information for estimating a tilt that classifies the relationship between the ratio of the width of the front or rear surface of the vehicle and the width of the side and the vehicle inclination value for each type of vehicle;
An inclination deriving unit for deriving the inclination of the other vehicle based on the front and rear widths and side widths of the other vehicle detected from the camera image, and the inclination estimation information;
The information processing apparatus according to claim 2, further comprising:
前記姿勢変化検出部及び前記傾き導出部から取得される情報に基づいて、前記他車の行動を判断する行動判断部を更に備える、請求項3に記載の情報処理装置。   The information processing apparatus according to claim 3, further comprising an action determination unit that determines an action of the other vehicle based on information acquired from the posture change detection unit and the inclination derivation unit. 前記第1情報は、前記他車の所定の角部に関する情報であり、
前記第2情報は、前記レーダ装置から得られる前記他車の位置に関する情報であり、
前記第3情報は、前記所定の角部と、前記レーダ装置から得られる前記他車の位置との距離差情報である、請求項1から4のいずれか1項に記載の情報処理装置。
The first information is information related to a predetermined corner of the other vehicle,
The second information is information on the position of the other vehicle obtained from the radar device,
5. The information processing apparatus according to claim 1, wherein the third information is distance difference information between the predetermined corner and the position of the other vehicle obtained from the radar apparatus.
前記第1情報は、前記他車の傾きに関する情報であり、
前記第2情報は、前記レーダ装置からの送信波の前記他車における反射点の分布情報であり、
前記第3情報は、前記自車を基準とした前記他車の最短距離位置情報である、請求項1又は2に記載の情報処理装置。
The first information is information related to the inclination of the other vehicle,
The second information is distribution information of a reflection point in the other vehicle of a transmission wave from the radar device,
The information processing apparatus according to claim 1, wherein the third information is shortest distance position information of the other vehicle with respect to the own vehicle.
車の前面或いは後面の幅と側面幅との比率と、車の傾き値との関係を車の種別ごとに分類した傾き推定用情報を記憶する記憶部を更に備え、
前記第1情報生成部は、前記カメラ画像から検出される前記他車の前面或いは後面の幅及び側面幅と、前記傾き推定用情報とに基づいて、前記他車の傾きに関する情報を生成する、請求項6に記載の情報処理装置。
A storage unit for storing information for estimating a slope in which the ratio between the width of the front or rear surface of the car and the width of the side and the slope value of the car is classified for each type of car;
The first information generation unit generates information related to the inclination of the other vehicle based on the front and rear widths and side widths of the other vehicle detected from the camera image, and the inclination estimation information. The information processing apparatus according to claim 6.
前記第3情報に基づいて前記他車の行動を判断する行動判断部を更に備える、請求項6又は7に記載の情報処理装置。   The information processing apparatus according to claim 6, further comprising an action determination unit that determines an action of the other vehicle based on the third information. 前記カメラと、
前記レーダ装置と、
請求項1から8のいずれか1項に記載の情報処理装置と、
前記情報処理装置から出力される情報に基づいて自動運転の支援制御に関する判断を行う運転支援装置と、
を備える、運転支援システム。
The camera;
The radar device;
The information processing apparatus according to any one of claims 1 to 8,
A driving support device that makes a determination on support control of automatic driving based on information output from the information processing device;
A driving support system comprising:
情報処理装置によって自車の周辺に存在する他車の情報に関する処理を行う情報処理方法であって、
前記自車のカメラで取得されるカメラ画像から前記他車の第1情報を生成する第1情報生成工程と、
前記自車のレーダ装置の検知結果に基づいて前記他車の第2情報を生成する第2情報生成工程と、
前記第1情報と前記第2情報とを用いて前記他車の姿勢に基づく第3情報を生成する第3情報生成工程と、
を備える、情報処理方法。
An information processing method for performing processing related to information on other vehicles existing around the own vehicle by an information processing device,
A first information generation step of generating first information of the other vehicle from a camera image acquired by the camera of the host vehicle;
A second information generation step of generating second information of the other vehicle based on a detection result of the radar device of the own vehicle;
A third information generating step of generating third information based on a posture of the other vehicle using the first information and the second information;
An information processing method comprising:
JP2016251195A 2016-12-26 2016-12-26 Information processing device, information processing method, and driving support system Active JP6908993B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016251195A JP6908993B2 (en) 2016-12-26 2016-12-26 Information processing device, information processing method, and driving support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016251195A JP6908993B2 (en) 2016-12-26 2016-12-26 Information processing device, information processing method, and driving support system

Publications (2)

Publication Number Publication Date
JP2018103730A true JP2018103730A (en) 2018-07-05
JP6908993B2 JP6908993B2 (en) 2021-07-28

Family

ID=62786481

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016251195A Active JP6908993B2 (en) 2016-12-26 2016-12-26 Information processing device, information processing method, and driving support system

Country Status (1)

Country Link
JP (1) JP6908993B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113895441A (en) * 2020-07-06 2022-01-07 丰田自动车株式会社 Vehicle and method for identifying other vehicles
CN113895441B (en) * 2020-07-06 2024-06-04 丰田自动车株式会社 Vehicle and identification method for other vehicles

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003344534A (en) * 2002-05-27 2003-12-03 Denso Corp On-vehicle radar equipment and program
JP2010185769A (en) * 2009-02-12 2010-08-26 Toyota Motor Corp Object detector

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003344534A (en) * 2002-05-27 2003-12-03 Denso Corp On-vehicle radar equipment and program
JP2010185769A (en) * 2009-02-12 2010-08-26 Toyota Motor Corp Object detector

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113895441A (en) * 2020-07-06 2022-01-07 丰田自动车株式会社 Vehicle and method for identifying other vehicles
CN113895441B (en) * 2020-07-06 2024-06-04 丰田自动车株式会社 Vehicle and identification method for other vehicles

Also Published As

Publication number Publication date
JP6908993B2 (en) 2021-07-28

Similar Documents

Publication Publication Date Title
JP6760499B2 (en) Parking control method and parking control device
JP6369390B2 (en) Lane junction determination device
KR102170988B1 (en) Parking control method and parking control device
JP2006227811A (en) Driving support apparatus
JP2009086787A (en) Vehicle detection device
RU2734740C1 (en) Parking assistance method and parking assistance device
JPWO2018109925A1 (en) Vehicle door collision prevention device and vehicle door collision prevention method
US20200175872A1 (en) Information providing system, server, onboard device, storage medium, and information providing method
US11074817B2 (en) Driving support apparatus
JP2018133072A (en) Information processing apparatus and program
JP6432538B2 (en) Collision prediction device
JP2020163870A (en) Vehicle control device, vehicle control method, and program
WO2021162000A1 (en) Parking assistance device
JP2017162178A (en) Determination device, determination method and determination program
JP2018090108A (en) Parking support device and parking support method
JP7122101B2 (en) Vehicle obstacle detection device
JP2009186277A (en) Object detection device
JP6193177B2 (en) Motion support system and object recognition device
JP2018199368A (en) Parking control method and parking control device
JPWO2017056822A1 (en) Image processing apparatus, image processing method, and vehicle control system
US20230017805A1 (en) Parking assist apparatus, parking assist system, and parking assist method
JP2020158077A (en) Vehicle control device, vehicle control method, and program
WO2021172532A1 (en) Parking assistance device and parking assistance method
JP6908993B2 (en) Information processing device, information processing method, and driving support system
WO2021176825A1 (en) Sensing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210702

R150 Certificate of patent or registration of utility model

Ref document number: 6908993

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150