JP2024029977A - display control device - Google Patents

display control device Download PDF

Info

Publication number
JP2024029977A
JP2024029977A JP2022132485A JP2022132485A JP2024029977A JP 2024029977 A JP2024029977 A JP 2024029977A JP 2022132485 A JP2022132485 A JP 2022132485A JP 2022132485 A JP2022132485 A JP 2022132485A JP 2024029977 A JP2024029977 A JP 2024029977A
Authority
JP
Japan
Prior art keywords
vehicle
detected
display control
type
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022132485A
Other languages
Japanese (ja)
Inventor
裕貴 内田
Yuki Uchida
広矩 伊藤
Hironori Ito
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2022132485A priority Critical patent/JP2024029977A/en
Publication of JP2024029977A publication Critical patent/JP2024029977A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a display control device capable of preventing a display on a monitor mounted on a vehicle from making a driver feel discomfort, with respect to other vehicles traveling in the vicinity of an own vehicle.
SOLUTION: A display control device includes: a region setting part 32 that sets a correspondence region that is assumed that other vehicles detected on the basis of a sensor signal generated by at least one sensor 2 mounted on an own vehicle 10 within a latest predetermined period is positioned; and a display control part 33 that makes a display device 3 mounted to the own vehicle display dada representing a type of a second other vehicle as a type of a first other vehicle when the second other vehicle detected on the basis of a newest sensor signal is positioned in a correspondence region that is set to the first other vehicle after the first other vehicle detected on the basis of the sensor signal obtained within the latest predetermined period is not detected. Therein, the larger a size of the vehicle corresponded to the type of the first other vehicle is, the larger the correspondence region the region setting part 32 sets.
SELECTED DRAWING: Figure 3
COPYRIGHT: (C)2024,JPO&INPIT

Description

本発明は、車両の周囲の状況を表すセンサ信号から検出された物体の表示を行う表示制御装置に関する。 The present invention relates to a display control device that displays an object detected from a sensor signal representing a situation around a vehicle.

車載のセンサにより得られたセンサ信号に基づいて、車両の周囲を走行する他車両を検出し、検出された他車両を車載のモニタに表示させる技術が提案されている(特許文献1を参照)。 A technology has been proposed that detects other vehicles traveling around the vehicle based on sensor signals obtained by on-vehicle sensors and displays the detected other vehicles on the on-vehicle monitor (see Patent Document 1). .

特許文献1に開示された物標検出装置は、レーダ波の立体物による反射点からなるセンサ物標に基づいて自車両の周囲に存在する立体物を示すフュージョン物標を生成する。さらに、この物標検出装置は、生成したフュージョン物標の自車両に対する位置及び速度を算出し、フュージョン物標の存在確率を演算する。そして所定時間前に生成されていた特定フュージョン物標に対応するセンサ物標が検出されなくなった場合、この物標検出装置は、特定フュージョン物標に対応するセンサ物標が検出されない限り、特定フュージョン物標に対応する外挿フュージョン物標を生成する。そしてこの物標検出装置は、存在確率及び特定フュージョン物標の縦相対速度に基づいて外挿フュージョン物標の生成を行う時間の最大値である最大外挿継続時間を演算する。 The target detection device disclosed in Patent Document 1 generates a fusion target indicating a three-dimensional object existing around the own vehicle based on a sensor target consisting of a reflection point of a radar wave by a three-dimensional object. Furthermore, this target object detection device calculates the position and speed of the generated fusion target with respect to the own vehicle, and calculates the existence probability of the fusion target. When the sensor target corresponding to the specific fusion target that was generated a predetermined time ago is no longer detected, this target detection device detects the specific fusion target as long as the sensor target corresponding to the specific fusion target is not detected. Generate an extrapolated fusion target corresponding to the target. Then, this target object detection device calculates the maximum extrapolation duration, which is the maximum value of the time for generating the extrapolated fusion target, based on the existence probability and the longitudinal relative velocity of the specific fusion target.

特開2019-2690号公報Unexamined Japanese Patent Publication No. 2019-2690

何らかの理由で、それまで検出されていた、自車両の周囲を走行する他車両の検出に失敗することがある。このような場合、一旦検出に失敗した他車両が再度検出されたときに、その他車両について別の種別の車両として誤って識別されることがある。その結果として、表示される車両の種別が検出の失敗の前後で変化することで、ドライバに違和感を与えるおそれがある。 For some reason, detection of other vehicles traveling around the own vehicle may fail. In such a case, when another vehicle that has once failed to be detected is detected again, the other vehicle may be erroneously identified as a different type of vehicle. As a result, the type of vehicle displayed changes before and after the detection failure, which may give the driver a sense of discomfort.

そこで、本発明は、自車両の周囲を走行する他車両に関して、車載のモニタへの表示にドライバが違和感を覚えないようにすることが可能な表示制御装置を提供することを目的とする。 SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide a display control device that can prevent a driver from feeling uncomfortable with the display on a vehicle-mounted monitor regarding other vehicles traveling around the driver's vehicle.

一つの実施形態によれば、表示制御装置が提供される。この表示制御装置は、自車両に搭載された少なくとも一つのセンサにより生成された、自車両の周囲の状況を表す時系列に得られる複数のセンサ信号のそれぞれから、自車両の周囲を走行する少なくとも一つの他車両を検出し、検出した他車両の種別を識別する検出部と、少なくとも一つの他車両のそれぞれについて、その他車両と自車両間の相対的な位置関係に基づいて、その他車両が位置すると想定される対応付け領域を設定する領域設定部と、複数のセンサ信号のうち、直近の所定期間内に得られたセンサ信号に基づいて検出された第1の他車両が検出されなくなくなった後、複数のセンサ信号のうちの最新のセンサ信号に基づいて検出された第2の他車両が第1の他車両について設定された対応付け領域内に位置していると、自車両に搭載された表示装置に、第2の他車両の種別を第1の他車両の種別として表す表示データを表示させる表示制御部とを有する。そして領域設定部は、第1の他車両の種別に相当する車両のサイズが大きいほど、対応付け領域を広くする。 According to one embodiment, a display control device is provided. This display control device detects at least one vehicle traveling around the own vehicle based on each of a plurality of sensor signals obtained in time series representing the surrounding situation of the own vehicle generated by at least one sensor mounted on the own vehicle. A detection unit that detects one other vehicle and identifies the type of the detected other vehicle; and a detection unit that detects the position of the other vehicle based on the relative positional relationship between the other vehicle and the own vehicle for each of the at least one other vehicle. an area setting unit that sets an assumed association area; and a first other vehicle that is detected based on a sensor signal obtained within the most recent predetermined period among the plurality of sensor signals is no longer detected. Then, when the second other vehicle detected based on the latest sensor signal among the plurality of sensor signals is located within the association area set for the first other vehicle, the second other vehicle is mounted on the own vehicle. and a display control unit that causes the display device to display display data representing the type of the second other vehicle as the type of the first other vehicle. The area setting unit widens the association area as the size of the vehicle corresponding to the type of the first other vehicle is larger.

本開示による表示制御装置は、自車両の周囲を走行する他車両に関して、車載のモニタへの表示にドライバが違和感を覚えないようにすることができるという効果を奏する。 The display control device according to the present disclosure has the effect that the driver does not feel uncomfortable with the display on the in-vehicle monitor regarding other vehicles traveling around the own vehicle.

表示制御装置が実装される表示制御システムの概略構成図である。1 is a schematic configuration diagram of a display control system in which a display control device is installed. 表示制御装置の一つの実施形態である電子制御装置のハードウェア構成図である。FIG. 1 is a hardware configuration diagram of an electronic control device that is one embodiment of a display control device. 表示制御処理に関する、電子制御装置のプロセッサの機能ブロック図である。FIG. 3 is a functional block diagram of a processor of the electronic control device regarding display control processing. 比較例による、他車両の検出結果の時間変化と生成される表示データの関係の一例を示す図である。FIG. 7 is a diagram illustrating an example of the relationship between temporal changes in detection results of other vehicles and generated display data according to a comparative example. 本実施形態による、他車両の検出結果の時間変化と生成される表示データの関係の一例を示す図である。FIG. 3 is a diagram illustrating an example of the relationship between temporal changes in detection results of other vehicles and generated display data according to the present embodiment. 表示制御処理の動作フローチャートである。It is an operation flowchart of display control processing.

以下、図を参照しつつ、表示制御装置、及び、表示制御装置において実施される表示制御方法ならびに表示制御用コンピュータプログラムについて説明する。この表示制御装置は、ドライバによる自車両の運転を支援し、あるいは、自車両の自動運転走行中における、自車両周囲の状況のドライバによる確認を補助する。そのために、この表示制御装置は、車載のセンサにより時系列に生成された、自車両の周囲の状況を表す複数のセンサ信号から自車両の周囲を走行する他車両を検出し、検出した他車両を表すイメージを含む表示データを車室内に設けられる表示装置に表示させる。その際、この表示制御装置は、それ以降に得られたセンサ信号において検出した他車両が位置すると想定される実空間上の領域に対応付け領域を設定する。また、この表示制御装置は、直近の所定期間内に得られたセンサ信号に基づいて検出された第1の他車両が検出されなくなった後、最新のセンサ信号に基づいて検出された第2の他車両が第1の他車両について設定された対応付け領域内に位置しているか否か判定する。そしてこの表示制御装置は、第2の他車両が第1の他車両について設定された対応付け領域内に位置していると、表示装置に、第2の他車両の種別を第1の他車両の種別として表す表示データを表示させる。この表示装置は、第1の他車両の種別に相当する車両のサイズが大きいほど、対応付け領域を広くする。これにより、この表示制御装置は、それまで検出されていた他車両の検出に何らかの理由で失敗し、その検出失敗後に、その他車両を再度検出した際に、再度検出された他車両が検出失敗前の他車両とは別の種別のものとして誤って表示されることを抑制する。 Hereinafter, a display control device, a display control method implemented in the display control device, and a display control computer program will be described with reference to the drawings. This display control device assists the driver in driving the own vehicle, or assists the driver in checking the surrounding conditions of the own vehicle while the own vehicle is running automatically. To this end, this display control device detects other vehicles traveling around the own vehicle from a plurality of sensor signals representing the surrounding conditions of the own vehicle, which are generated in time series by on-vehicle sensors, and detects the detected other vehicles. Display data including an image representing the image is displayed on a display device provided in the vehicle interior. At this time, the display control device sets the association area in the area in the real space where the other vehicle detected in the sensor signal obtained after that is assumed to be located. In addition, after the first other vehicle detected based on the sensor signal obtained within the most recent predetermined period is no longer detected, the display control device displays the second vehicle detected based on the latest sensor signal. It is determined whether the other vehicle is located within the association area set for the first other vehicle. When the second other vehicle is located within the association area set for the first other vehicle, the display control device displays the type of the second other vehicle as the first other vehicle. Display the display data expressed as the type of . In this display device, the larger the size of the vehicle corresponding to the type of the first other vehicle is, the wider the association area is. As a result, when this display control device fails to detect another vehicle that was previously detected for some reason, and when it detects the other vehicle again after the detection failure, the display control device detects the other vehicle that was detected again before the detection failure. To prevent a vehicle from being erroneously displayed as being of a different type from other vehicles.

図1は、表示制御装置が実装される表示制御システムの概略構成図である。また図2は、表示制御装置の一つの実施形態である電子制御装置のハードウェア構成図である。表示制御システム1は、カメラ2と、表示装置3と、表示制御装置の一例である電子制御装置(ECU)4とを有する。カメラ2及び表示装置3とECU4とは、コントローラエリアネットワークといった規格に準拠した車内ネットワークを介して通信可能に接続される。なお、車両10は、自車両の一例である。さらに、表示制御システム1は、LiDAR、レーダあるいはソナーといった、車両10の周囲の物体までの距離を測定する測距センサ(図示せず)を有していてもよい。 FIG. 1 is a schematic configuration diagram of a display control system in which a display control device is installed. Further, FIG. 2 is a hardware configuration diagram of an electronic control device which is one embodiment of the display control device. The display control system 1 includes a camera 2, a display device 3, and an electronic control unit (ECU) 4 that is an example of a display control device. The camera 2, the display device 3, and the ECU 4 are communicably connected via an in-vehicle network that conforms to standards such as a controller area network. Note that the vehicle 10 is an example of the own vehicle. Furthermore, the display control system 1 may include a distance measurement sensor (not shown) such as LiDAR, radar, or sonar that measures the distance to objects around the vehicle 10.

カメラ2は、車両10の周囲の状況を検知するセンサの一例である。カメラ2は、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に撮影対象となる領域の像を結像する結像光学系を有する。カメラ2は、例えば、車両10の前方を向くように、例えば、車両10の車室内に取り付けられる。そしてカメラ2は、所定の撮影周期(例えば1/30秒~1/10秒)ごとに車両10の前方領域を撮影し、その前方領域が写った画像を生成する。カメラ2により得られた画像は、車両10の周囲の状況を表すセンサ信号の一例であり、カラー画像であってもよく、あるいは、グレー画像であってもよい。なお、車両10には、撮影方向または焦点距離が異なる2台以上のカメラが設けられてもよい。 The camera 2 is an example of a sensor that detects the surrounding situation of the vehicle 10. Camera 2 has a two-dimensional detector composed of an array of photoelectric conversion elements sensitive to visible light, such as CCD or C-MOS, and forms an image of the area to be photographed on the two-dimensional detector. It has an imaging optical system. The camera 2 is mounted, for example, in the cabin of the vehicle 10 so as to face the front of the vehicle 10, for example. The camera 2 then photographs the area in front of the vehicle 10 at every predetermined photography cycle (for example, 1/30 second to 1/10 second) and generates an image showing the area in front of the vehicle. The image obtained by the camera 2 is an example of a sensor signal representing the situation around the vehicle 10, and may be a color image or a gray image. Note that the vehicle 10 may be provided with two or more cameras with different shooting directions or focal lengths.

カメラ2は、画像を生成する度に、その生成した画像を、車内ネットワークを介してECU4へ出力する。 Every time the camera 2 generates an image, it outputs the generated image to the ECU 4 via the in-vehicle network.

なお、上記のように、車両10に測距センサが搭載されている場合には、測距センサは、その測距センサによる測距範囲内の方位ごとに、その測距センサからその方位に存在する物体までの距離を表す測距信号を生成する。測距センサは、車両10の周囲の状況を検知するセンサの他の一例であり、測距信号は、車両10の周囲の状況を表すセンサ信号の他の一例である。そして測距センサは、生成した測距信号を、車内ネットワークを介してECU4へ出力する。 Note that, as described above, when the vehicle 10 is equipped with a distance measurement sensor, the distance measurement sensor detects the presence in that direction from the distance measurement sensor for each direction within the distance measurement range of the distance measurement sensor. generates a ranging signal that represents the distance to the object. The distance measurement sensor is another example of a sensor that detects the situation around the vehicle 10, and the distance measurement signal is another example of a sensor signal that represents the situation around the vehicle 10. The distance measurement sensor then outputs the generated distance measurement signal to the ECU 4 via the in-vehicle network.

表示装置3は、車両10の車室内、例えば、インスツルメンツパネルの近傍に、ドライバへ向けて設置される。そして表示装置3は、ECU4から車内ネットワークを介して受信した、他車両を表す表示データを表示することで、車両10の周囲を走行する他車両に関する情報をドライバへ通知する。 The display device 3 is installed in the interior of the vehicle 10, for example, near an instrument panel, facing the driver. The display device 3 notifies the driver of information regarding other vehicles traveling around the vehicle 10 by displaying display data representing other vehicles received from the ECU 4 via the in-vehicle network.

ECU4は、車両10の周囲を走行する他車両を、カメラ2により生成された画像に基づいて検出し、検出した他車両を表す表示データを生成して、その表示データを表示装置3に表示させる。 The ECU 4 detects other vehicles traveling around the vehicle 10 based on images generated by the camera 2, generates display data representing the detected other vehicles, and causes the display device 3 to display the display data. .

図2に示されるように、ECU4は、通信インターフェース21と、メモリ22と、プロセッサ23とを有する。通信インターフェース21、メモリ22及びプロセッサ23は、それぞれ、別個の回路として構成されてもよく、あるいは、一つの集積回路として一体的に構成されてもよい。 As shown in FIG. 2, the ECU 4 includes a communication interface 21, a memory 22, and a processor 23. The communication interface 21, the memory 22, and the processor 23 may each be configured as separate circuits, or may be configured integrally as one integrated circuit.

通信インターフェース21は、ECU4を車内ネットワークに接続するためのインターフェース回路を有する。そして通信インターフェース21は、カメラ2から画像を受信する度に、受信した画像をプロセッサ23へわたす。また、車両10に測距センサが搭載されている場合には、測距センサから測距信号を受信する度に、受信した測距信号をプロセッサ23へわたす。さらに、通信インターフェース21は、プロセッサ23から受け取った、表示装置3に表示させる表示データを、車内ネットワークを介して表示装置3へ出力する。 The communication interface 21 has an interface circuit for connecting the ECU 4 to the in-vehicle network. Each time the communication interface 21 receives an image from the camera 2, it passes the received image to the processor 23. Further, when a distance measurement sensor is mounted on the vehicle 10, the received distance measurement signal is passed to the processor 23 every time a distance measurement signal is received from the distance measurement sensor. Furthermore, the communication interface 21 outputs the display data received from the processor 23 and to be displayed on the display device 3 to the display device 3 via the in-vehicle network.

メモリ22は、記憶部の一例であり、例えば、揮発性の半導体メモリ及び不揮発性の半導体メモリを有する。そしてメモリ22は、ECU4のプロセッサ23により実行される表示制御処理において使用される各種のデータを記憶する。例えば、メモリ22は、車両の種別ごとに設定される、対応付け領域の基準サイズ、カメラ2の焦点距離、画角、撮影方向及び取り付け位置などを表すパラメータを記憶する。また、メモリ22は、車両10の周囲を走行する他車両などの検出に利用される、物体検出用の識別器を特定するためのパラメータセットを記憶する。さらに、メモリ22は、カメラ2から受け取った画像といったセンサ信号を一時的に記憶する。さらにまた、メモリ22は、表示制御処理の途中で生成される各種のデータを一時的に記憶する。 The memory 22 is an example of a storage unit, and includes, for example, a volatile semiconductor memory and a nonvolatile semiconductor memory. The memory 22 stores various data used in display control processing executed by the processor 23 of the ECU 4. For example, the memory 22 stores parameters representing the standard size of the association area, the focal length of the camera 2, the angle of view, the photographing direction, the mounting position, etc., which are set for each type of vehicle. The memory 22 also stores a parameter set for specifying a classifier for object detection, which is used to detect other vehicles traveling around the vehicle 10. Furthermore, the memory 22 temporarily stores sensor signals such as images received from the camera 2. Furthermore, the memory 22 temporarily stores various data generated during display control processing.

プロセッサ23は、1個または複数個のCPU(Central Processing Unit)及びその周辺回路を有する。プロセッサ23は、論理演算ユニット、数値演算ユニットあるいはグラフィック処理ユニットといった他の演算回路をさらに有していてもよい。そしてプロセッサ23は、表示制御処理を実行する。 The processor 23 includes one or more CPUs (Central Processing Units) and their peripheral circuits. The processor 23 may further include other arithmetic circuits such as a logic arithmetic unit, a numerical arithmetic unit, or a graphic processing unit. The processor 23 then executes display control processing.

図3は、表示制御処理に関する、プロセッサ23の機能ブロック図である。プロセッサ23は、検出部31と、領域設定部32と、表示制御部33とを有する。プロセッサ23が有するこれらの各部は、例えば、プロセッサ23上で動作するコンピュータプログラムにより実現される機能モジュールである。あるいは、プロセッサ23が有するこれらの各部は、プロセッサ23に設けられる、専用の演算回路であってもよい。 FIG. 3 is a functional block diagram of the processor 23 regarding display control processing. The processor 23 includes a detection section 31, a region setting section 32, and a display control section 33. Each of these units included in the processor 23 is a functional module realized by a computer program running on the processor 23, for example. Alternatively, each of these units included in the processor 23 may be a dedicated arithmetic circuit provided in the processor 23.

検出部31は、カメラ2により時系列に生成された複数の画像のそれぞれから、車両10の周囲を走行する少なくとも一つの他車両を検出し、検出した他車両の種別を識別する。 The detection unit 31 detects at least one other vehicle traveling around the vehicle 10 from each of the plurality of images generated in time series by the camera 2, and identifies the type of the detected other vehicle.

本実施形態では、検出部31は、所定の周期ごとに、最新の画像を識別器に入力することで、その画像上に表されている他車両を検出するとともに、検出された他車両の種別(例えば、バス、トラックといった大型車両、普通乗用車、あるいは、二輪車)を識別する。なお、検出部31は、一つの画像から複数の他車両を検出してもよい。これにより、時系列に得られる複数の画像のそれぞれから他車両が検出されるとともに、検出された他車両の種別が識別される。 In the present embodiment, the detection unit 31 inputs the latest image to the discriminator at predetermined intervals to detect other vehicles represented on the image, and also detects the type of the detected other vehicle. (For example, large vehicles such as buses and trucks, regular passenger cars, or motorcycles). Note that the detection unit 31 may detect a plurality of other vehicles from one image. As a result, other vehicles are detected from each of the plurality of images obtained in time series, and the type of the detected other vehicle is identified.

検出部31は、そのような識別器として、Single Shot MultiBox Detector、または、Faster R-CNNといった、コンボリューショナルニューラルネットワーク(CNN)型のアーキテクチャを持つディープニューラルネットワーク(DNN)を用いることができる。あるいは、検出部31は、そのような識別器として、Vision Transformerといった、self attention network(SAN)型のアーキテクチャを有するDNNを用いてもよい。これらの識別器は、画像上の様々な領域について、他車両の種別ごとに、その種別の他車両が表されている確からしさを表す確信度を出力する。そして識別器は、何れかの種別の他車両について算出された確信度が所定の検出閾値よりも高くなる画像上の領域を、その種別の他車両が表されている物体領域として検出する。識別器は、検出対象となる何れかの種別の車両が表された教師画像を多数用いて、例えば、誤差逆伝搬法といった所定の学習手法に従って予め学習される。 The detection unit 31 can use a deep neural network (DNN) having a convolutional neural network (CNN) type architecture, such as a Single Shot MultiBox Detector or Faster R-CNN, as such a classifier. Alternatively, the detection unit 31 may use a DNN having a self attention network (SAN) type architecture, such as a Vision Transformer, as such a classifier. These classifiers output, for each type of other vehicle, a degree of certainty representing the probability that another vehicle of that type is represented for various regions on the image. The discriminator then detects an area on the image where the calculated certainty factor for any type of other vehicle is higher than a predetermined detection threshold as an object area in which that type of other vehicle is represented. The classifier is trained in advance according to a predetermined learning method such as the error backpropagation method using a large number of teacher images in which vehicles of any type to be detected are represented.

また、車両10に測距センサが搭載されている場合、検出部31は、測距センサから受信した最新の測距信号を識別器に入力することで、車両10の周囲を走行する少なくとも一つの他車両を検出し、検出した他車両の種別を識別してもよい。この場合も、検出部31は、識別器として、CNN型あるいはSAN型のアーキテクチャを有するDNNを利用することができる。 Further, when the vehicle 10 is equipped with a distance measurement sensor, the detection unit 31 inputs the latest distance measurement signal received from the distance measurement sensor to the discriminator, thereby detecting at least one vehicle running around the vehicle 10. Another vehicle may be detected and the type of the detected other vehicle may be identified. In this case as well, the detection unit 31 can use a DNN having a CNN type or SAN type architecture as a discriminator.

車両10に、車両10の周囲の状況を検知するセンサ(すなわち、カメラまたは測距センサ)が複数搭載されている場合、検出部31は、センサごとに、そのセンサから受信したセンサ信号に対して上記の処理を実行して、センサごとに他車両を検出してもよい。 When the vehicle 10 is equipped with a plurality of sensors (that is, cameras or ranging sensors) that detect the surrounding situation of the vehicle 10, the detection unit 31 detects the sensor signal received from the sensor for each sensor. The above process may be executed to detect other vehicles for each sensor.

検出部31は、検出した個々の他車両について、画像上または測距信号上での他車両が表された物体領域の位置及び範囲に基づいて、車両10と他車両との相対的な位置関係、すなわち、車両10を基準とする他車両の相対的な位置を推定する。 For each detected other vehicle, the detection unit 31 determines the relative positional relationship between the vehicle 10 and the other vehicle based on the position and range of the object area where the other vehicle is represented on the image or the ranging signal. That is, the relative positions of other vehicles with respect to the vehicle 10 are estimated.

ここで、画像上での他車両の下端の位置は、カメラ2から見た、他車両が路面に接している位置への方位と1対1に対応している。したがって、検出部31は、画像上での他車両が表された物体領域の下端の位置と、カメラ2の設置高さ及び焦点距離といったカメラ2のパラメータとに基づいて、車両10から他車両までの距離及び方位を推定できる。また、測距信号から他車両が検出されている場合には、検出部31は、その測距信号において他車両が表されている方位及び距離から車両10から他車両までの距離及び方位を推定できる。したがって、検出部31は、検出された他車両ごとに上記の処理を行うことで、車両10を基準とした個々の他車両のそれぞれの実空間における相対的な位置を推定できる。 Here, the position of the lower end of the other vehicle on the image corresponds one-to-one with the direction toward the position where the other vehicle is in contact with the road surface as seen from the camera 2. Therefore, the detection unit 31 detects the distance from the vehicle 10 to the other vehicle based on the position of the lower end of the object area in which the other vehicle is represented on the image and the parameters of the camera 2 such as the installation height and focal length of the camera 2. The distance and direction can be estimated. Further, when another vehicle is detected from the ranging signal, the detection unit 31 estimates the distance and direction from the vehicle 10 to the other vehicle from the direction and distance in which the other vehicle is represented in the ranging signal. can. Therefore, the detection unit 31 can estimate the relative position of each other vehicle in real space with respect to the vehicle 10 by performing the above processing for each detected other vehicle.

検出部31は、検出した個々の他車両について、車両10を基準としたその他車両の実空間における相対的な位置と、その他車両の種別とを、領域設定部32及び表示制御部33に通知する。さらに、検出部31は、検出した個々の他車両について、車両10を基準としたその他車両の実空間における相対的な位置と、その他車両の種別とを、他車両が検出された画像または測距信号の生成時刻と対応付けてメモリ22に保存する。さらにまた、検出部31は、画像または測距信号から他車両が検出されなかった場合は、他車両が検出されなかったことを領域設定部32及び表示制御部33に通知する。 The detection unit 31 notifies the area setting unit 32 and the display control unit 33 of the relative position in real space of the other vehicle with respect to the vehicle 10 and the type of the other vehicle for each detected other vehicle. . Furthermore, for each detected other vehicle, the detection unit 31 determines the relative position in real space of the other vehicle with respect to the vehicle 10 and the type of the other vehicle, based on the image in which the other vehicle was detected or the distance measurement. It is stored in the memory 22 in association with the signal generation time. Furthermore, when the other vehicle is not detected from the image or the ranging signal, the detection section 31 notifies the area setting section 32 and the display control section 33 that no other vehicle has been detected.

領域設定部32は、検出された個々の他車両について、車両10と他車両との相対的な位置関係と、検出部31から通知された他車両の種別とに基づいて、実空間における対応付け領域を設定する。 The area setting unit 32 associates each detected other vehicle in real space based on the relative positional relationship between the vehicle 10 and the other vehicle and the type of the other vehicle notified from the detection unit 31. Set the area.

そのために、領域設定部32は、検出された他車両ごとに、検出部31から通知された他車両の種別に相当する対応付け領域の基準サイズをメモリ22から読み込む。そして領域設定部32は、検出された他車両ごとに、車両10を基準としたその他車両の位置が中心となるように、その他車両の種別に相当する基準サイズを持ち、かつ、所定の形状を持つ領域を、その他車両についての対応付け領域として設定する。なお、所定の形状は、例えば、矩形または楕円形に設定される。 For this purpose, the area setting unit 32 reads from the memory 22 the reference size of the association area corresponding to the type of other vehicle notified from the detection unit 31 for each detected other vehicle. The area setting unit 32 defines, for each detected other vehicle, a reference size corresponding to the type of the other vehicle and a predetermined shape so that the position of the other vehicle with respect to the vehicle 10 is the center. This area is set as a matching area for other vehicles. Note that the predetermined shape is set to, for example, a rectangle or an ellipse.

本実施形態では、車両の種別に相当する車両のサイズが大きいほど、基準サイズも大きく設定される。例えば、車両の種別が普通乗用車である場合の基準サイズよりも、車両の種別がトラックあるいはバスといった大型車両である場合の基準サイズの方が大きくなるように、各種別の基準サイズが設定される。したがって、領域設定部32は、検出された他車両の種別に相当する車両のサイズが大きいほど、その他車両に対する対応付け領域を広くする。 In this embodiment, the larger the size of the vehicle corresponding to the vehicle type, the larger the reference size is set. For example, the standard size for each type is set so that the standard size when the vehicle type is a large vehicle such as a truck or bus is larger than the standard size when the vehicle type is a regular passenger car. . Therefore, the area setting unit 32 widens the association area for the other vehicle as the size of the vehicle corresponding to the detected type of other vehicle is larger.

領域設定部32は、検出された個々の他車両に対して設定した対応付け領域の位置及び範囲を、表示制御部33へ通知する。 The area setting unit 32 notifies the display control unit 33 of the position and range of the association area set for each detected other vehicle.

表示制御部33は、検出部31により検出された個々の他車両を表す表示データを生成する。さらに、表示制御部33は、前回の検出時において検出された他車両(第1の他車両)の対応付け領域内で検出された他車両が存在しない場合、表示制御部33は、第1の他車両の検出に失敗したことを表すロストフラグを、その第1の他車両と対応付けてメモリ22に保存する。表示制御部33は、ロストフラグが保存されてから、対応付け領域について有効となる所定期間(以下、単に有効期間と呼ぶ)が経過すると、その第1の他車両は、車両10の周囲から離れたものとして、その第1の他車両についてのロストフラグをメモリ22から消去する。なお、有効期間は、例えば、数100m秒~1秒程度に設定される。 The display control unit 33 generates display data representing each other vehicle detected by the detection unit 31. Further, if there is no other vehicle detected within the association area of the other vehicle (first other vehicle) detected at the time of previous detection, the display control section 33 displays the first other vehicle. A lost flag indicating that detection of another vehicle has failed is stored in the memory 22 in association with the first other vehicle. The display control unit 33 controls the first other vehicle to move away from the surroundings of the vehicle 10 when a predetermined period of time (hereinafter simply referred to as a valid period) has elapsed for the associated area after the lost flag is saved. As a result, the lost flag for the first other vehicle is erased from the memory 22. Note that the validity period is set to, for example, several hundred milliseconds to one second.

最新の画像または測距信号において他車両(第2の他車両)が検出されていると、表示制御部33は、ロストフラグを参照して、最後に検出されてからの経過時間が有効期間内である第1の他車両の有無を判定する。そして表示制御部33は、そのような第1の他車両が存在する場合、その第1の他車両について設定された対応付け領域で第2の他車両が検出されているか否かを判定する。その第1の他車両について設定された対応付け領域で第2の他車両が検出されている場合、表示制御部33は、第2の他車両を、その第1の他車両と同一の車両であると推定する。なお、表示制御部33は、検出部31から通知された、第2の他車両の推定位置がその第1の他車両について設定された対応付け領域に含まれていれば、第2の他車両はその対応付け領域内で検出されたと判定する。そして表示制御部33は、表示データにおいて、検出された第2の他車両の種別にかかわらず、第2の他車両の位置に、その第1の他車両と同じ種別の車両のイメージを表す。一方、表示制御部33は、検出部31から通知された、第2の他車両の推定位置がその第1の他車両について設定された対応付け領域から外れていれば、表示データにおいて、第2の他車両の位置に、第2の他車両について識別された種別の車両のイメージを表す。 When another vehicle (second other vehicle) is detected in the latest image or ranging signal, the display control unit 33 refers to the lost flag and determines whether the elapsed time since the last detection is within the valid period. The presence or absence of the first other vehicle is determined. If such a first other vehicle exists, the display control unit 33 determines whether or not a second other vehicle is detected in the association area set for the first other vehicle. If a second other vehicle is detected in the association area set for the first other vehicle, the display control unit 33 identifies the second other vehicle as the same vehicle as the first other vehicle. We estimate that there is. Note that, if the estimated position of the second other vehicle notified from the detection unit 31 is included in the association area set for the first other vehicle, the display control unit 33 detects the second other vehicle. is determined to be detected within the associated area. In the display data, the display control unit 33 displays an image of a vehicle of the same type as the first other vehicle at the position of the second other vehicle, regardless of the type of the detected second other vehicle. On the other hand, if the estimated position of the second other vehicle notified from the detection unit 31 is outside the association area set for the first other vehicle, the display control unit 33 displays the second other vehicle in the display data. An image of a vehicle of the type identified for the second other vehicle is displayed at the location of the other vehicle.

さらに、第1の他車両が最後に検出されてからの経過時間が有効期間内であれば、第1の他車両の対応付け領域内で他車両が検出されていなくても、表示制御部33は、表示データ上のその対応付け領域に対応する位置に第1の他車両と同じ種別の車両のイメージを表してもよい。 Furthermore, if the elapsed time since the first other vehicle was last detected is within the valid period, the display control unit 33 may represent an image of a vehicle of the same type as the first other vehicle at a position corresponding to the association area on the display data.

さらにまた、第1の他車両が検出されてからの経過時間が有効期間内であれば、第1の他車両の対応付け領域内で検出された第2の他車両の種別にかかわらず、表示制御部33は、表示データにおいて、第2の他車両として第1の他車両と同じ種別の車両のイメージを表してもよい。 Furthermore, if the elapsed time after the first other vehicle is detected is within the valid period, the display is performed regardless of the type of the second other vehicle detected within the association area of the first other vehicle. The control unit 33 may display an image of a vehicle of the same type as the first other vehicle as the second other vehicle in the display data.

表示制御部33は、上記のように生成した表示データを、通信インターフェース21を介して表示装置3へ出力することで、表示装置3にその表示データを表示させる。 The display control unit 33 outputs the display data generated as described above to the display device 3 via the communication interface 21, thereby causing the display device 3 to display the display data.

図4は、比較例による、他車両の検出結果の時間変化と生成される表示データの関係の一例を示す図である。 FIG. 4 is a diagram illustrating an example of the relationship between temporal changes in detection results of other vehicles and generated display data according to a comparative example.

図4に示されるように、時刻t1において、車両10の右側を走行している、他車両の一例である大型のトレーラー401が検出されており、トレーラー401は大型車両として識別されている。そのため、時刻t1における検出結果に基づいて生成される表示データ410では、車両10のイメージ411の右側に、大型車両のイメージ412が表されている。また、トレーラー401の位置を中心とする対応付け領域402が設定される。ただし、この比較例では、検出された他車両の種別にかかわらず、一定のサイズの対応付け領域402が設定される。その後、時刻t2において、検出部31は、トレーラー401の検出に失敗する。そして時刻t3において、トレーラー401は再度検出されるものの、トレーラー401は、普通乗用車として誤って識別されている。また、再検出されたトレーラー401の位置401aは、時刻t1において検出されたトレーラー401の車両10に対する相対的な位置に基づいて設定された対応付け領域402から外れている。その結果として、時刻t3における検出結果に基づいて生成される表示データ420では、車両10のイメージ421の右側に、普通乗用車のイメージ422が表されることになる。このように、この比較例では、時間経過とともに、トレーラー401に対応する、表示データ上に表示される他車両の種別が変化してしまい、ドライバに違和感を与えてしまう。 As shown in FIG. 4, at time t1, a large trailer 401, which is an example of another vehicle, traveling on the right side of the vehicle 10 is detected, and the trailer 401 is identified as a large vehicle. Therefore, in the display data 410 generated based on the detection result at time t1, an image 412 of a large vehicle is displayed on the right side of an image 411 of the vehicle 10. Furthermore, a correspondence area 402 centered on the position of the trailer 401 is set. However, in this comparative example, the association area 402 of a constant size is set regardless of the type of other vehicle detected. Thereafter, at time t2, the detection unit 31 fails to detect the trailer 401. At time t3, the trailer 401 is detected again, but the trailer 401 is incorrectly identified as an ordinary passenger car. Further, the re-detected position 401a of the trailer 401 is outside the association area 402 that is set based on the relative position of the trailer 401 with respect to the vehicle 10 detected at time t1. As a result, in the display data 420 generated based on the detection result at time t3, an image 422 of an ordinary passenger car is displayed on the right side of an image 421 of the vehicle 10. In this way, in this comparative example, the type of other vehicle displayed on the display data corresponding to the trailer 401 changes over time, giving the driver a sense of discomfort.

図5は、本実施形態による、他車両の検出結果の時間変化と生成される表示データの関係の一例を示す図である。図5に示される例においても、時刻t1において、車両10の右側を走行している、他車両の一例である大型のトレーラー501が検出されており、トレーラー501は大型車両として識別されている。そのため、本実施形態でも、時刻t1における検出結果に基づいて生成される表示データ510では、車両10のイメージ511の右側に、大型車両のイメージ512が表されている。また、トレーラー501の位置を中心とする対応付け領域502が設定される。その後、時刻t2において、検出部31は、トレーラー501の検出に失敗する。そして、時刻t3においてトレーラー501は再度検出されるものの、トレーラー501は、普通乗用車として誤って識別されている。しかし、本実施形態では、時刻t1において、トレーラー501の種別が大型車両として正しく識別されているので、比較例と異なり、対応付け領域502が相対的に広く設定される。そのため、時刻t3において再検出されたトレーラー501の位置501aは、対応付け領域502に含まれるようになる。その結果として、時刻t3における検出結果に基づいて生成される表示データ520においても、車両10のイメージ521の右側に、大型車両のイメージ522が表されることになる。したがって、トレーラー501の検出に一時的に失敗し、かつ、再検出後においてトレーラー501の種別が誤って識別されても、トレーラー501に対応する、表示データ上に表示される他車両の種別は変化しないので、ドライバは違和感を覚えない。 FIG. 5 is a diagram illustrating an example of the relationship between temporal changes in other vehicle detection results and generated display data according to the present embodiment. Also in the example shown in FIG. 5, at time t1, a large trailer 501, which is an example of another vehicle, traveling on the right side of the vehicle 10 is detected, and the trailer 501 is identified as a large vehicle. Therefore, in the present embodiment as well, in the display data 510 generated based on the detection result at time t1, an image 512 of a large vehicle is displayed on the right side of an image 511 of the vehicle 10. Furthermore, a correspondence area 502 centered on the position of the trailer 501 is set. Thereafter, at time t2, the detection unit 31 fails to detect the trailer 501. Although the trailer 501 is detected again at time t3, the trailer 501 is incorrectly identified as an ordinary passenger car. However, in this embodiment, since the type of trailer 501 is correctly identified as a large vehicle at time t1, the association area 502 is set relatively wide, unlike the comparative example. Therefore, the position 501a of the trailer 501 re-detected at time t3 is included in the association area 502. As a result, in the display data 520 generated based on the detection result at time t3, an image 522 of a large vehicle is also displayed on the right side of an image 521 of the vehicle 10. Therefore, even if detection of the trailer 501 temporarily fails and the type of trailer 501 is incorrectly identified after re-detection, the type of other vehicle corresponding to the trailer 501 displayed on the display data will change. The driver does not feel any discomfort.

なお、表示制御部33は、車両10から検出された他車両への方位及び距離に基づいて、表示データ上でのその他車両のイメージの位置及びサイズを調整することが好ましい。すなわち、車両10から検出された他車両への方位と、表示データ上での車両10のイメージから見た他車両のイメージへの方位とが一致するように、表示制御部33は、表示データ上での他車両のイメージの位置を決定することが好ましい。例えば、検出された他車両への方位が車両10から見て左前方であれば、表示制御部33は、表示データ上における車両10のイメージの位置に対して左上方に他車両を表すイメージを配置する。また、検出された他車両への方位が車両10から見て右後方であれば、表示制御部33は、表示データ上における車両10のイメージの位置に対して右下方に他車両を表すイメージを配置する。さらに、車両10から検出された他車両までの推定距離が長くなるほど、表示制御部33は、表示データ上での他車両のイメージを小さくすることが好ましい。 Note that the display control unit 33 preferably adjusts the position and size of the image of the other vehicle on the display data based on the direction and distance from the vehicle 10 to the other vehicle detected. That is, the display control unit 33 controls the display data so that the detected direction from the vehicle 10 to the other vehicle matches the direction from the image of the vehicle 10 on the display data to the image of the other vehicle. Preferably, the position of the image of the other vehicle is determined. For example, if the detected direction toward the other vehicle is the front left when viewed from the vehicle 10, the display control unit 33 displays an image representing the other vehicle on the upper left side relative to the position of the image of the vehicle 10 on the display data. Deploy. Further, if the detected direction toward the other vehicle is right rear as viewed from the vehicle 10, the display control unit 33 displays an image representing the other vehicle at the lower right side relative to the position of the image of the vehicle 10 on the display data. Deploy. Further, it is preferable that the longer the estimated distance from the vehicle 10 to the detected other vehicle, the smaller the display control unit 33 makes the image of the other vehicle on the display data smaller.

図6は、プロセッサ23により実行される、表示制御処理の動作フローチャートである。プロセッサ23は、所定の周期ごとに、以下の動作フローチャートに従って表示制御処理を実行する。なお、以下の動作フローチャートでは、カメラ2により得られた画像に基づいて表示制御処理が行われるものとして説明するが、上記のように、測距センサにより得られた測距信号に基づいて表示制御処理が行われてもよい。 FIG. 6 is an operational flowchart of display control processing executed by the processor 23. The processor 23 executes display control processing at predetermined intervals according to the operation flowchart below. Note that in the operation flowchart below, it will be explained that the display control processing is performed based on the image obtained by the camera 2, but as mentioned above, the display control processing is performed based on the ranging signal obtained by the ranging sensor. Processing may also be performed.

プロセッサ23の検出部31は、カメラ2により得られた画像に基づいて、車両10の周囲を走行する少なくとも一つの他車両を検出し、検出した他車両の種別を識別する(ステップS101)。 The detection unit 31 of the processor 23 detects at least one other vehicle traveling around the vehicle 10 based on the image obtained by the camera 2, and identifies the type of the detected other vehicle (step S101).

また、プロセッサ23の領域設定部32は、検出した他車両の種別に相当する車両のサイズが大きいほど広くなるように対応付け領域を設定する(ステップS102)。 Further, the area setting unit 32 of the processor 23 sets the association area so that it becomes wider as the size of the vehicle corresponding to the detected type of other vehicle increases (step S102).

プロセッサ23の表示制御部33は、検出された他車両(第2の他車両)が、過去のある時点の画像において検出され、かつ、その後に検出されていない第1の他車両について設定される有効期間内の対応付け領域に含まれるか否か判定する(ステップS103)。検出された他車両が有効期間内の対応付け領域に含まれる場合(ステップS103-Yes)、表示制御部33は、検出された他車両の種別にかかわらず、その他車両を第1の他車両の種別として表す表示データを生成する(ステップS104)。一方、検出された他車両が有効期間内の対応付け領域に含まれない場合(ステップS103-No)、表示制御部33は、検出された他車両の種別を表す表示データを生成する(ステップS105)。 The display control unit 33 of the processor 23 is set for a first other vehicle in which the detected other vehicle (second other vehicle) is detected in an image at a certain point in the past and has not been detected since then. It is determined whether it is included in the association area within the validity period (step S103). If the detected other vehicle is included in the association area within the valid period (step S103-Yes), the display control unit 33 associates the other vehicle with the first other vehicle, regardless of the type of the detected other vehicle. Display data expressed as a type is generated (step S104). On the other hand, if the detected other vehicle is not included in the association area within the valid period (step S103-No), the display control unit 33 generates display data representing the type of the detected other vehicle (step S105). ).

ステップS104またはS105の後、表示制御部33は、生成した表示データを、通信インターフェース21を介して表示装置3へ出力することで、表示装置3にその表示データを表示させる(ステップS106)。そしてプロセッサ23は、表示制御処理を終了する。 After step S104 or S105, the display control unit 33 outputs the generated display data to the display device 3 via the communication interface 21, thereby causing the display device 3 to display the display data (step S106). The processor 23 then ends the display control process.

以上に説明してきたように、この表示制御装置は、車載のセンサにより時系列に生成された複数のセンサ信号から自車両の周囲を走行する他車両を検出し、検出した他車両を表すイメージを含む表示データを車室内に設けられる表示装置に表示させる。その際、この表示制御装置は、それ以降に得られたセンサ信号において検出した他車両が位置すると想定される実空間上の領域に対応付け領域を設定する。また、この表示制御装置は、直近の所定期間内に得られたセンサ信号に基づいて検出された第1の他車両が検出されなくなった後、最新のセンサ信号に基づいて検出された第2の他車両が第1の他車両について設定された対応付け領域内に位置しているか否か判定する。そしてこの表示制御装置は、第2の他車両が第1の他車両について設定された対応付け領域内に位置していると、表示装置に、第2の他車両の種別を第1の他車両の種別として表す表示データを表示させる。そしてこの表示装置は、第1の他車両の種別に相当する車両のサイズが大きいほど、対応付け領域を広くする。これにより、この表示制御装置は、それまで検出されていた他車両の検出に何らかの理由で失敗し、その検出失敗後に、その他車両を再度検出した際に、再度検出された他車両が検出失敗前の他車両とは別の種別のものとして誤って表示されることを抑制する。その結果として、この表示制御装置は、表示装置に表示されている、自車両の周囲を走行する他車両の表示に対してドライバが違和感を覚えないようにすることができる。 As explained above, this display control device detects other vehicles traveling around the host vehicle from multiple sensor signals generated in time series by on-vehicle sensors, and displays an image representing the detected other vehicle. Display data including the display data is displayed on a display device provided in the vehicle interior. At this time, the display control device sets the association area in the area in the real space where the other vehicle detected in the sensor signal obtained after that is assumed to be located. In addition, after the first other vehicle detected based on the sensor signal obtained within the most recent predetermined period is no longer detected, the display control device displays the second vehicle detected based on the latest sensor signal. It is determined whether the other vehicle is located within the association area set for the first other vehicle. When the second other vehicle is located within the association area set for the first other vehicle, the display control device displays the type of the second other vehicle as the first other vehicle. Display the display data expressed as the type of . In this display device, the larger the size of the vehicle corresponding to the type of the first other vehicle is, the wider the association area is. As a result, when this display control device fails to detect another vehicle that was previously detected for some reason, and when it detects the other vehicle again after the detection failure, the display control device detects the other vehicle that was detected again before the detection failure. To prevent a vehicle from being erroneously displayed as being of a different type from other vehicles. As a result, this display control device can prevent the driver from feeling uncomfortable with the display of other vehicles traveling around the own vehicle displayed on the display device.

変形例によれば、領域設定部32は、検出された第1の他車両について、直近の所定期間における車両10に対する相対的な位置の変化に基づいて、将来における第1の他車両の位置を予測し、予測した位置を中心として対応付け領域を設定してもよい。この場合、領域設定部32は、直近の所定期間における、各画像または各測距信号の生成時における、車両10を基準とする第1の他車両の相対的な位置の集合に対して、Kalman Filterといった予測処理を適用することで、将来の各時刻における第1の他車両の位置を予測すればよい。 According to the modification, the area setting unit 32 determines the future position of the first other vehicle based on the change in the position of the detected first other vehicle relative to the vehicle 10 in the most recent predetermined period. It is also possible to make a prediction and set a matching area around the predicted position. In this case, the area setting unit 32 uses the Kalman By applying a prediction process such as Filter, the position of the first other vehicle at each future time may be predicted.

他の変形例によれば、領域設定部32は、第1の他車両が最後に検出されてからの経過時間が長くなるほど、対応付け領域を狭くしてもよい。第1の他車両が最後に検出されてからの経過時間が長くなるほど、第1の他車両が検出されていた車両10に対する相対的な位置において第1の他車両とは異なる他車両が存在する可能性が高くなる。そこで、第1の他車両が最後に検出されてからの経過時間が長くなるほど、対応付け領域を狭くすることで、表示制御装置は、第1の他車両とは異なる他車両が、第1の他車両に誤って対応付けられることを抑制できる。 According to another modification, the area setting unit 32 may narrow the association area as the time elapsed since the first other vehicle was last detected. The longer the elapsed time since the first other vehicle was last detected, the more there is another vehicle that is different from the first other vehicle in its relative position to the vehicle 10 where the first other vehicle was detected. More likely. Therefore, by narrowing the association area as the time elapsed since the first other vehicle was last detected, the display control device can detect that another vehicle different from the first other vehicle is It is possible to prevent the vehicle from being erroneously associated with another vehicle.

上記の実施形態または変形例による、ECU4のプロセッサ23の機能を実現するコンピュータプログラムは、半導体メモリ、磁気記録媒体または光記録媒体といった、コンピュータ読取可能な可搬性の記録媒体に記録された形で提供されてもよい。 A computer program that realizes the functions of the processor 23 of the ECU 4 according to the above embodiment or modification is provided in a form recorded on a computer-readable portable recording medium such as a semiconductor memory, a magnetic recording medium, or an optical recording medium. may be done.

以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。 As described above, those skilled in the art can make various changes within the scope of the present invention according to the embodiment.

1 表示制御システム
10 車両
2 カメラ
3 表示装置
4 電子制御装置(ECU)
21 通信インターフェース
22 メモリ
23 プロセッサ
31 検出部
32 領域設定部
33 表示制御部
1 Display control system 10 Vehicle 2 Camera 3 Display device 4 Electronic control unit (ECU)
21 Communication interface 22 Memory 23 Processor 31 Detection section 32 Area setting section 33 Display control section

Claims (1)

自車両に搭載された少なくとも一つのセンサにより生成された、前記自車両の周囲の状況を表す時系列に得られる複数のセンサ信号のそれぞれから、前記自車両の周囲を走行する少なくとも一つの他車両を検出し、検出した他車両の種別を識別する検出部と、
前記少なくとも一つの他車両のそれぞれについて、当該他車両と前記自車両間の相対的な位置関係に基づいて、当該他車両が位置すると想定される対応付け領域を設定する領域設定部と、
前記複数のセンサ信号のうち、直近の所定期間内に得られたセンサ信号に基づいて検出された第1の他車両が検出されなくなくなった後、前記複数のセンサ信号のうちの最新のセンサ信号に基づいて検出された第2の他車両が前記第1の他車両について設定された前記対応付け領域内に位置していると、前記自車両に搭載された表示装置に、前記第2の他車両の種別を前記第1の他車両の種別として表す表示データを表示させる表示制御部とを有し、
前記領域設定部は、前記第1の他車両の種別に相当する車両のサイズが大きいほど、前記対応付け領域を広くする。
表示制御装置。
At least one other vehicle traveling around the host vehicle is determined from each of a plurality of sensor signals obtained in time series representing the surrounding situation of the host vehicle, generated by at least one sensor mounted on the host vehicle. a detection unit that detects and identifies the type of the detected other vehicle;
an area setting unit that sets, for each of the at least one other vehicle, a corresponding area in which the other vehicle is assumed to be located based on a relative positional relationship between the other vehicle and the own vehicle;
After the first other vehicle detected based on the sensor signal obtained within the most recent predetermined period among the plurality of sensor signals is no longer detected, the latest sensor signal among the plurality of sensor signals is detected. When the second other vehicle detected based on the second other vehicle is located within the association area set for the first other vehicle, the second other vehicle is displayed on the display device mounted on the host vehicle. a display control unit that displays display data representing the type of the vehicle as the type of the first other vehicle;
The area setting unit makes the association area wider as the size of a vehicle corresponding to the type of the first other vehicle is larger.
Display control device.
JP2022132485A 2022-08-23 2022-08-23 display control device Pending JP2024029977A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022132485A JP2024029977A (en) 2022-08-23 2022-08-23 display control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022132485A JP2024029977A (en) 2022-08-23 2022-08-23 display control device

Publications (1)

Publication Number Publication Date
JP2024029977A true JP2024029977A (en) 2024-03-07

Family

ID=90106603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022132485A Pending JP2024029977A (en) 2022-08-23 2022-08-23 display control device

Country Status (1)

Country Link
JP (1) JP2024029977A (en)

Similar Documents

Publication Publication Date Title
US10007854B2 (en) Computer vision based driver assistance devices, systems, methods and associated computer executable code
US10131309B2 (en) Apparatus and method for controlling airbag
US7486802B2 (en) Adaptive template object classification system with a template generator
EP1837805A1 (en) Object detecting system, actuating device, and vehicle
CN111507162B (en) Blind spot warning method and device based on cooperation of inter-vehicle communication
JP5680436B2 (en) Foreign matter adhesion determination device for in-vehicle camera lens
GB2489087A (en) Driver assistance system for recognizing a turn-off maneuver of a preceding vehicle
JP2010033106A (en) Driver support device, driver support method, and driver support processing program
JP2004310522A (en) Vehicular image processor
US20210011481A1 (en) Apparatus for controlling behavior of autonomous vehicle and method thereof
JP7501548B2 (en) Driver monitor device, driver monitor method, and computer program for driver monitor
JP2024029977A (en) display control device
US20210370956A1 (en) Apparatus and method for determining state
CN116252712A (en) Driver assistance apparatus, vehicle, and method of controlling vehicle
KR20190046551A (en) Apparatus and method for drive controlling of vehicle
JP2024020838A (en) display control device
JP4601376B2 (en) Image abnormality determination device
KR20220097656A (en) Driver asistance apparatus, vehicle and control method thereof
JPH10129375A (en) On-vehicle foregoing vehicle recognizing device
WO2023112127A1 (en) Image recognition device and image recognition method
JP6570302B2 (en) Driving assistance device
JP2019091327A (en) Three-dimensional object detection device
US20230222813A1 (en) Road surface marking detection device, notification system provided with the same, and road surface marking detection
US20240034322A1 (en) Travel controller and travel control method
WO2022113470A1 (en) Image processing device and image processing method