JP2024056563A - Display processing device, display processing method, and operation program of display processing device - Google Patents

Display processing device, display processing method, and operation program of display processing device Download PDF

Info

Publication number
JP2024056563A
JP2024056563A JP2022163563A JP2022163563A JP2024056563A JP 2024056563 A JP2024056563 A JP 2024056563A JP 2022163563 A JP2022163563 A JP 2022163563A JP 2022163563 A JP2022163563 A JP 2022163563A JP 2024056563 A JP2024056563 A JP 2024056563A
Authority
JP
Japan
Prior art keywords
image
unit
display
vehicle
obstacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022163563A
Other languages
Japanese (ja)
Inventor
幸仁 増田
yukihito Masuda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2022163563A priority Critical patent/JP2024056563A/en
Publication of JP2024056563A publication Critical patent/JP2024056563A/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

To obtain a display processing device capable of making it easier to confirm an obstacle.SOLUTION: A display processing device 20 comprises: an image acquisition part 22; an obstacle position specification part 24; an adjustment part 26; and an image output part 28. The obstacle position specification part 24 specifies a position of an obstacle at a periphery of a vehicle detected by an obstacle detection part. The image acquisition part 22 acquires a vehicle peripheral image photographed by a photographing part. The adjustment part 26 adjusts one or more of brightness, lightness, and contrast in a predetermined range containing a region corresponded to the position of one or more obstacles specified by the obstacle position specification part 24 in a display image generated on the basis of the vehicle peripheral image and displayed on a display part. The image output part 28 outputs a display image adjusted by the adjustment part 26 to the display part.SELECTED DRAWING: Figure 2

Description

本発明は、表示処理装置、表示処理方法、及び表示処理装置の作動プログラムに関する。 The present invention relates to a display processing device, a display processing method, and an operating program for the display processing device.

特許文献1には、例えば車両の後退時等に車両の後方側の映像を表示する際、車両後方に障害物が存在する場合には、通常よりも障害物を大きく表示するか、又は通常では表示されない障害物の一部又は全部を表示する映像処理技術が開示されている。 Patent Document 1 discloses an image processing technology that, when displaying an image of the rear side of a vehicle, for example when the vehicle is reversing, if there is an obstacle behind the vehicle, displays the obstacle larger than usual, or displays all or part of the obstacle that is not normally displayed.

特開2016-119558号公報JP 2016-119558 A

表示部に表示される表示画像においては、従来、画像内全体や画像内の路面全体に対して輝度や明度、コントラスト等が調整される。そのため、例えば夜間や屋内駐車場等の周囲が暗いシーンでは、車両周辺が相対的に暗く表示されることがあり、障害物を確認し難い場合がある。特許文献1に記載された映像処理技術においては、表示画像において視点位置や、視線方向、視野範囲を変更しているが、それだけでは障害物の確認が困難な場合がある。 In the display image displayed on the display unit, the brightness, luminance, contrast, etc. are conventionally adjusted for the entire image or the entire road surface within the image. Therefore, for example, in a dark scene such as at night or in an indoor parking lot, the area around the vehicle may appear relatively dark, making it difficult to confirm obstacles. In the image processing technology described in Patent Document 1, the viewpoint position, line of sight, and field of view are changed in the displayed image, but this alone may make it difficult to confirm obstacles.

本発明は上記事実を考慮し、障害物をより確認し易くすることができる表示処理装置、表示処理方法、及び表示処理装置の作動プログラムを得ることを目的とする。 In consideration of the above, the present invention aims to provide a display processing device, a display processing method, and an operating program for the display processing device that can make it easier to check obstacles.

請求項1に記載の本発明に係る表示処理装置は、障害物検知部により検知された車両周辺の障害物の位置を特定する障害物位置特定部と、撮影部により撮影された車両周辺画像を取得する画像取得部と、前記車両周辺画像に基づいて生成され表示部に表示される表示画像において、前記障害物位置特定部により特定された1つ以上の前記障害物の位置に対応する領域を含む所定の範囲の輝度、明度、及びコントラストのうちの1つ以上を調整する調整部と、前記調整部により調整された前記表示画像を前記表示部に出力する画像出力部と、を含む。 The display processing device according to the present invention described in claim 1 includes an obstacle position identification unit that identifies the position of an obstacle around the vehicle detected by an obstacle detection unit, an image acquisition unit that acquires an image of the surroundings of the vehicle captured by an image capture unit, an adjustment unit that adjusts one or more of the brightness, luminance, and contrast of a predetermined range including an area corresponding to the position of one or more of the obstacles identified by the obstacle position identification unit in a display image generated based on the image of the surroundings of the vehicle and displayed on a display unit, and an image output unit that outputs the display image adjusted by the adjustment unit to the display unit.

請求項1に記載の本発明に係る表示処理装置では、調整部が、撮影部により撮影された車両周辺画像に基づいて生成された表示部に表示される表示画像において、障害物位置特定部により特定された1つ以上の障害物の位置に対応する領域を含む所定の範囲の輝度、明度、及びコントラストのうちの1つ以上を調整している。また、画像出力部が調整部により調整された表示画像を表示部に出力している。このように、本発明においては表示部に表示される表示画像の障害物を含む領域の輝度、明度、及びコントラストのうちの1つ以上が調整される。そのため、例えば夜間や屋内駐車場等の周囲が暗いシーンで、表示部に表示される表示画像において障害物が確認し難い場合であっても、調整されていない表示画像と比較して障害物をより確認し易くすることができる。 In the display processing device according to the present invention described in claim 1, the adjustment unit adjusts one or more of the luminance, brightness, and contrast of a predetermined range including an area corresponding to the position of one or more obstacles identified by the obstacle position identification unit in a display image displayed on the display unit that is generated based on an image of the surroundings of the vehicle captured by the capture unit. The image output unit outputs the display image adjusted by the adjustment unit to the display unit. In this way, in the present invention, one or more of the luminance, brightness, and contrast of an area including an obstacle in the display image displayed on the display unit is adjusted. Therefore, even if it is difficult to identify an obstacle in the display image displayed on the display unit, for example, in a dark scene such as at night or in an indoor parking lot, it is possible to make the obstacle easier to identify compared to an unadjusted display image.

請求項2に記載の本発明に係る表示処理装置は、請求項1に記載の構成において、前記調整部は、前記画像取得部により取得された前記車両周辺画像を調整することにより前記表示画像を調整する。 The display processing device according to the present invention described in claim 2 has the configuration described in claim 1, in which the adjustment unit adjusts the display image by adjusting the vehicle surroundings image acquired by the image acquisition unit.

請求項2に記載の本発明に係る表示処理装置では、調整部は、画像取得部により取得された車両周辺画像を調整するので、画像取得部による取得後の車両周辺画像において輝度、明度、及びコントラストのうちの1つ以上を調整することができる。 In the display processing device according to the present invention described in claim 2, the adjustment unit adjusts the vehicle surroundings image acquired by the image acquisition unit, so that one or more of the brightness, luminance, and contrast can be adjusted in the vehicle surroundings image acquired by the image acquisition unit.

請求項3に記載の本発明に係る表示処理装置は、請求項1に記載の構成において、前記調整部は、前記撮影部により撮影される前記車両周辺画像を調整することにより前記表示画像を調整する。 The display processing device according to the present invention described in claim 3 has the configuration described in claim 1, and the adjustment unit adjusts the display image by adjusting the vehicle surroundings image captured by the image capture unit.

請求項3に記載の本発明に係る表示処理装置では、調整部は、撮影部により撮影される車両周辺画像を調整するので、撮影部において、輝度、明度、及びコントラストのうちの1つ以上の調整を行わせることができる。なお、本発明において「撮影部により撮影される車両周辺画像」は、撮影部により本撮影が行われる前のいわゆるプレ撮影画像(スルー画像)であってもよいし、撮影部により本撮影が行われて撮影部が取得した本撮影画像であってもよい。 In the display processing device according to the present invention described in claim 3, the adjustment unit adjusts the vehicle surroundings image captured by the capture unit, so that the capture unit can adjust one or more of the brightness, luminance, and contrast. Note that in the present invention, the "vehicle surroundings image captured by the capture unit" may be a so-called pre-captured image (through image) before the actual capture is performed by the capture unit, or may be an actual captured image acquired by the capture unit after the actual capture is performed by the capture unit.

請求項4に記載の表示処理方法は、障害物検知部により検知された車両周辺の障害物の位置を特定し、撮影部により撮影された車両周辺画像を取得し、前記車両周辺画像に基づいて生成され表示部に表示される表示画像において、特定された1つ以上の前記障害物の位置に対応する領域を含む所定の範囲の輝度、明度、及びコントラストのうちの1つ以上を調整し、調整された前記表示画像を前記表示部に出力する。 The display processing method described in claim 4 identifies the positions of obstacles around the vehicle detected by an obstacle detection unit, acquires an image of the vehicle's surroundings captured by an image capture unit, adjusts one or more of the brightness, luminance, and contrast of a predetermined range including an area corresponding to the positions of the identified one or more obstacles in a display image generated based on the vehicle's surroundings image and displayed on a display unit, and outputs the adjusted display image to the display unit.

請求項4に記載の表示処理方法では、撮影部により撮影された車両周辺画像に基づいて生成された表示部に表示される表示画像において、特定された1つ以上の障害物の位置に対応する領域を含む所定の範囲の輝度、明度、及びコントラストのうちの1つ以上を調整している。また、調整された表示画像を表示部に出力している。このように、本発明においては表示部に表示される表示画像の障害物を含む領域の輝度、明度、及びコントラストのうちの1つ以上が調整される。そのため、例えば夜間や屋内駐車場等の周囲が暗いシーンで、表示部に表示される表示画像において障害物が確認し難い場合であっても、調整されていない表示画像と比較して障害物をより確認し易くすることができる。 In the display processing method described in claim 4, in a display image displayed on the display unit generated based on an image of the surroundings of the vehicle captured by the imaging unit, one or more of the luminance, brightness, and contrast of a predetermined range including an area corresponding to the position of one or more identified obstacles are adjusted. The adjusted display image is output to the display unit. In this way, in the present invention, one or more of the luminance, brightness, and contrast of an area including an obstacle in the display image displayed on the display unit is adjusted. Therefore, even if it is difficult to confirm an obstacle in the display image displayed on the display unit, for example, in a dark scene such as at night or in an indoor parking lot, it is possible to make the obstacle easier to confirm compared to an unadjusted display image.

請求項5に記載の表示処理装置の作動プログラムは、障害物検知部により検知された車両周辺の障害物の位置を特定する障害物位置特定部と、撮影部により撮影された車両周辺画像を取得する画像取得部と、前記車両周辺画像に基づいて生成され表示部に表示される表示画像において、前記障害物位置特定部により特定された1つ以上の前記障害物の位置に対応する領域を含む所定の範囲の輝度、明度、及びコントラストのうちの1つ以上を調整する調整部と、前記調整部により調整された前記表示画像を前記表示部に出力する画像出力部として、コンピュータを機能させる。 The operating program of the display processing device described in claim 5 causes a computer to function as an obstacle position identification unit that identifies the position of an obstacle around the vehicle detected by the obstacle detection unit, an image acquisition unit that acquires an image of the surroundings of the vehicle captured by the image capture unit, an adjustment unit that adjusts one or more of the brightness, luminance, and contrast of a predetermined range including an area corresponding to the position of one or more obstacles identified by the obstacle position identification unit in a display image generated based on the image of the surroundings of the vehicle and displayed on the display unit, and an image output unit that outputs the display image adjusted by the adjustment unit to the display unit.

請求項5に記載の表示処理装置の作動プログラムでは、調整部が、撮影部により撮影された車両周辺画像に基づいて生成された表示部に表示される表示画像において、障害物位置特定部により特定された1つ以上の障害物の位置に対応する領域を含む所定の範囲の輝度、明度、及びコントラストのうちの1つ以上を調整するようにコンピュータが機能される。また、画像出力部が調整部により調整された表示画像を表示部に出力するようにコンピュータが機能される。このように、本発明においては表示部に表示される表示画像の障害物を含む領域の輝度、明度、及びコントラストのうちの1つ以上が調整される。そのため、例えば夜間や屋内駐車場等の周囲が暗いシーンで、表示部に表示される表示画像において障害物が確認し難い場合であっても、調整されていない表示画像と比較して障害物をより確認し易くすることができる。 In the operating program for the display processing device according to claim 5, the adjustment unit causes the computer to function so that the adjustment unit adjusts one or more of the luminance, brightness, and contrast of a predetermined range including an area corresponding to the position of one or more obstacles identified by the obstacle position identification unit in a display image displayed on the display unit that is generated based on an image of the surroundings of the vehicle captured by the capture unit. The computer also functions so that the image output unit outputs the display image adjusted by the adjustment unit to the display unit. In this way, in the present invention, one or more of the luminance, brightness, and contrast of an area including an obstacle in the display image displayed on the display unit is adjusted. Therefore, even if it is difficult to identify an obstacle in the display image displayed on the display unit, for example, in a dark scene such as at night or in an indoor parking lot, it is possible to make the obstacle easier to identify compared to an unadjusted display image.

以上説明したように、本発明に係る表示処理装置、表示処理方法、及び表示処理装置の作動プログラムは、障害物をより確認し易くすることができる、という優れた効果を有する。 As described above, the display processing device, display processing method, and operating program for the display processing device according to the present invention have the excellent effect of making it easier to check obstacles.

本発明の一実施形態に係る表示処理装置を含む車両システムのハードウェア構成を示すブロック図である。1 is a block diagram showing a hardware configuration of a vehicle system including a display processing device according to an embodiment of the present invention. 本発明の一実施形態に係る車両表示処理装置の機能構成を示すブロック図である。1 is a block diagram showing a functional configuration of a vehicle display processing device according to an embodiment of the present invention; 障害物位置特定部による障害物位置情報の取得方法を説明するための説明図である。5 is an explanatory diagram for explaining a method for acquiring obstacle position information by an obstacle position identifying unit; FIG. バックカメラにより取得された車両周辺画像の一例を示す図である。FIG. 2 is a diagram showing an example of a vehicle surroundings image captured by a rear camera. 本発明の一実施形態に係る表示処理装置の一連の処理の一例を示すフローチャートである。4 is a flowchart showing an example of a series of processes of a display processing device according to an embodiment of the present invention. 本発明の一実施形態に係る表示処理装置の一連の処理の他の例を示すフローチャートである。10 is a flowchart showing another example of a series of processes of the display processing device according to an embodiment of the present invention.

以下に添付図面を参照しながら、本発明の一実施形態に係る表示処理装置としての車両ECU(Electronic Control Unit)20を含む車両システム10について説明する。本実施形態の車両システム10は、車両30(図3参照)に搭載されており、図1に示されるように、車両ECU20、撮影部12、障害物検知部14、及び表示部16を備えている。 A vehicle system 10 including a vehicle ECU (Electronic Control Unit) 20 as a display processing device according to one embodiment of the present invention will be described below with reference to the accompanying drawings. The vehicle system 10 of this embodiment is mounted on a vehicle 30 (see FIG. 3), and includes the vehicle ECU 20, an image capture unit 12, an obstacle detection unit 14, and a display unit 16, as shown in FIG. 1.

撮影部12は、車両の周辺を撮影するカメラであり、カラーCCD(Charge Coupled Device)カメラ等で構成された複数のカメラを備えている。本実施形態において撮影部12は、車両の前方を撮影するフロントカメラ12Aと、車両の右側方を撮影する右サイドカメラ12Bと、車両の左側方を撮影する左サイドカメラ12Cと、車両の後方を撮影するバックカメラ12Dとを有している。フロントカメラ12A及びバックカメラ12Dは、それぞれ車両の前部及び後部の室内側又は室外側の車幅方向中央に設置されている。また、右サイドカメラ12B及び左サイドカメラ12Cは、それぞれ車両の右側及び左側のサイドミラーに設置されている。撮影部12は、車両周辺を撮影すると共に、撮影した車両周辺画像データを車両ECU20に出力する。なお、ここで「車両周辺画像データ」は動画データであってもよいし、静止画データであってもよい。 The photographing unit 12 is a camera that photographs the periphery of the vehicle, and is equipped with multiple cameras such as color CCD (Charge Coupled Device) cameras. In this embodiment, the photographing unit 12 has a front camera 12A that photographs the front of the vehicle, a right side camera 12B that photographs the right side of the vehicle, a left side camera 12C that photographs the left side of the vehicle, and a rear camera 12D that photographs the rear of the vehicle. The front camera 12A and the rear camera 12D are installed in the center of the vehicle width direction on the inside or outside of the front and rear parts of the vehicle, respectively. The right side camera 12B and the left side camera 12C are installed on the side mirrors on the right and left sides of the vehicle, respectively. The photographing unit 12 photographs the periphery of the vehicle and outputs the photographed vehicle periphery image data to the vehicle ECU 20. Note that the "vehicle periphery image data" here may be video data or still image data.

障害物検知部14は、一例としてミリ波レーダとされており、それぞれがレーダ装置である前方レーダと後方レーダとを含んでいる。前方レーダ及び後方レーダは、車両の前端中央部、後端中央部に各々配設されており、車両の前方領域及び後方領域にある障害物を各々検出する。具体的には、車両に対する障害物の方位、及び車両と障害物との距離等を表す情報を所定時間毎に「障害物情報」として取得して車両ECU20に出力する。なお、本実施形態においては、一例として撮影部12のフレームレートは、障害物検知部14による障害物情報の取得間隔と同じ間隔になるように設定される。 The obstacle detection unit 14 is, as an example, a millimeter wave radar, and includes a front radar and a rear radar, each of which is a radar device. The front radar and the rear radar are disposed at the center of the front end and the center of the rear end of the vehicle, respectively, and detect obstacles in the front area and the rear area of the vehicle, respectively. Specifically, information indicating the direction of the obstacle relative to the vehicle and the distance between the vehicle and the obstacle is acquired as "obstacle information" at predetermined time intervals, and output to the vehicle ECU 20. Note that in this embodiment, as an example, the frame rate of the imaging unit 12 is set to be the same as the interval at which the obstacle information is acquired by the obstacle detection unit 14.

表示部16は、ドライバに視覚情報を提供するモニタの表示画面で構成されている。表示部16は、具体的には、インストルメントパネルの車幅方向中央部に設けられたディスプレイによって構成される。なお、表示部16としては、これに限られず、ヘッドアップディスプレイ装置(図示省略)によって投影された投影面によって構成されていてもよい。 The display unit 16 is configured with a display screen of a monitor that provides visual information to the driver. Specifically, the display unit 16 is configured with a display provided in the center of the instrument panel in the vehicle width direction. Note that the display unit 16 is not limited to this, and may be configured with a projection surface projected by a head-up display device (not shown).

車両ECU20は、CPU(Central Processing Unit:プロセッサ)20A、ROM(Read Only Memory)20B、RAM(Random Access Memory)20C、ストレージ20D、通信インタフェース(通信I/F)20E及び入出力インタフェース(入出力I/F)20Fを含んで構成されている。入出力I/F20Fには、上述した撮影部12、障害物検知部14、及び表示部16等が接続されている。各構成は、公知の技術が使用されており、バス20Gを介して相互に通信可能に接続されている。 The vehicle ECU 20 includes a CPU (Central Processing Unit: processor) 20A, a ROM (Read Only Memory) 20B, a RAM (Random Access Memory) 20C, a storage 20D, a communication interface (communication I/F) 20E, and an input/output interface (input/output I/F) 20F. The above-mentioned imaging unit 12, obstacle detection unit 14, display unit 16, etc. are connected to the input/output I/F 20F. Each component uses known technology, and is connected to be able to communicate with each other via a bus 20G.

車両ECU20は、上記のハードウェア資源を用いて、各種の機能を実現する。図2に示されるように、車両ECU20は、機能構成として、画像取得部22、障害物位置特定部24、調整部26、及び画像出力部28を含んで構成されている。なお、各機能構成は、CPU20AがROM20B又はストレージ20Dに記憶されたプログラムを読み出し、実行することにより実現される。 The vehicle ECU 20 uses the above hardware resources to realize various functions. As shown in FIG. 2, the vehicle ECU 20 is configured to include, as its functional components, an image acquisition unit 22, an obstacle position identification unit 24, an adjustment unit 26, and an image output unit 28. Each functional component is realized by the CPU 20A reading and executing a program stored in the ROM 20B or storage 20D.

画像取得部22は、車両システム10が搭載された車両の周辺情報を取得する。具体的には、撮影部12、すなわち、フロントカメラ12Aと、右サイドカメラ12Bと、左サイドカメラ12Cと、バックカメラ12Dとによってそれぞれ撮影された車両周辺画像データを取得する。 The image acquisition unit 22 acquires information about the surroundings of the vehicle in which the vehicle system 10 is installed. Specifically, it acquires vehicle surroundings image data captured by the imaging unit 12, i.e., the front camera 12A, the right side camera 12B, the left side camera 12C, and the rear camera 12D.

障害物位置特定部24は、障害物検知部14によって取得された障害物情報と、撮影部12の各カメラ12A~12Dの搭載位置及び搭載角度に基づいて、画像取得部22により取得された車両周辺画像データが表す車両周辺画像内における障害物の位置を導出し、導出した位置を障害物の位置として特定する。 The obstacle position identification unit 24 derives the position of an obstacle in the vehicle surroundings image represented by the vehicle surroundings image data acquired by the image acquisition unit 22 based on the obstacle information acquired by the obstacle detection unit 14 and the mounting positions and mounting angles of each of the cameras 12A-12D of the image capture unit 12, and identifies the derived position as the position of the obstacle.

具体的には図4に示されるように、障害物位置特定部24は、障害物検知部14から出力された車両30に対する障害物Pの方位から、反射波が車両30に飛来する方向に基づき、車両30の進行方向とは逆方向を基準とした障害物Pまでの水平角度θ1を取得する。本実施形態において水平角度θ1は、上記基準から障害物Pまでの時計回りの角度とする。なお、図4において、一点鎖線で示される領域Aは、後方レーダの検出範囲である。 Specifically, as shown in FIG. 4, the obstacle position identification unit 24 obtains a horizontal angle θ1 to the obstacle P based on the direction in which the reflected wave arrives at the vehicle 30 from the azimuth of the obstacle P relative to the vehicle 30 output from the obstacle detection unit 14, and using the direction opposite to the traveling direction of the vehicle 30 as a reference. In this embodiment, the horizontal angle θ1 is the clockwise angle from the reference to the obstacle P. Note that in FIG. 4, the area A indicated by the dashed line is the detection range of the rear radar.

また、障害物位置特定部24は、障害物検知部14から出力された車両30と障害物Pとの距離Dと上記水平角度θ1とから障害物Pの位置情報を取得する。障害物Pの位置は、車両30に対して固定的に設定されたxz座標面上に存在する障害物Pのxz座標面内における座標位置情報で表される。ここでxz座標面は、車両30の幅方向に平行なx軸と、車両30の前後方向に平行で、かつ車両30の幅方向の中央を通るz軸とによって規定される。xz座標面内の障害物Pの位置は、車両30に対する相対位置となる。なお、本実施形態においてxz座標面内の原点は、車両30の後端の車幅方向中央とする。 The obstacle position identification unit 24 also acquires position information of the obstacle P from the distance D between the vehicle 30 and the obstacle P output from the obstacle detection unit 14 and the horizontal angle θ1. The position of the obstacle P is represented by coordinate position information in the xz coordinate plane of the obstacle P that exists on the xz coordinate plane that is fixedly set with respect to the vehicle 30. Here, the xz coordinate plane is defined by an x axis parallel to the width direction of the vehicle 30 and a z axis parallel to the front-rear direction of the vehicle 30 and passing through the center of the vehicle 30 in the width direction. The position of the obstacle P in the xz coordinate plane is a relative position with respect to the vehicle 30. In this embodiment, the origin in the xz coordinate plane is the center of the rear end of the vehicle 30 in the vehicle width direction.

障害物位置特定部24は、同様にして障害物検知部14から出力された車両30に対する障害物Pの方位から、反射波が車両30に飛来する方向に基づき、車両30の進行方向とは逆方向を基準とした障害物Pまでの垂直角度θ2(図示省略)を取得し、障害物検知部14から出力された車両30と障害物Pとの距離Dと上記垂直角度θ2とから障害物Pの位置情報を取得する。障害物Pの位置は、車両30に対して固定的に設定されたyz座標面上に存在する障害物Pのyz座標面内における座標位置情報で表される。 Similarly, the obstacle position identification unit 24 obtains a vertical angle θ2 (not shown) to the obstacle P based on the direction opposite to the traveling direction of the vehicle 30 from the direction of the obstacle P relative to the vehicle 30 output from the obstacle detection unit 14, based on the direction in which the reflected wave arrives at the vehicle 30, and obtains position information of the obstacle P from the distance D between the vehicle 30 and the obstacle P output from the obstacle detection unit 14 and the vertical angle θ2. The position of the obstacle P is represented by coordinate position information in the yz coordinate plane of the obstacle P that exists on the yz coordinate plane that is fixedly set relative to the vehicle 30.

ここでyz座標面は、車両30の高さ方向に平行なy軸と、上記z軸とによって規定される。yz座標面内の障害物Pの位置は、車両30に対する相対位置となる。なお、本実施形態においてyz座標面内の原点は、車両30の後端中央に配設された後方レーダの取付位置とする。すなわち、y軸方向の原点は、後方レーダの高さ位置とされる。障害物位置特定部24は、このようにして取得された障害物Pのx軸方向とy軸方向の位置F(x,y)をxy座標で形成された二次元マップにプロットする。 The yz coordinate plane is defined by the y axis parallel to the height direction of the vehicle 30 and the z axis. The position of the obstacle P in the yz coordinate plane is a relative position with respect to the vehicle 30. In this embodiment, the origin in the yz coordinate plane is the mounting position of the rear radar disposed in the center of the rear end of the vehicle 30. In other words, the origin in the y axis direction is the height position of the rear radar. The obstacle position identification unit 24 plots the x axis and y axis positions F(x, y) of the obstacle P obtained in this manner on a two-dimensional map formed by xy coordinates.

障害物位置特定部24は、更に、画像取得部22により取得された車両周辺画像データが表す車両周辺画像40において座標を設定する。バックカメラ12Dにより撮影された車両周辺画像を一例として以下説明する。図4はバックカメラ12Dにより撮影された車両周辺画像40の一例を示す図である。なお、図4に示される車両周辺画像40は、車両30が一例として右車線を走行中にバックカメラ12Dにより撮影された画像であり、車両周辺画像40内の他車両32及び他車両34は、車両30すなわち自車両の同一斜線(道車線)後方を走行する車両である。 The obstacle position identification unit 24 further sets coordinates in a vehicle surroundings image 40 represented by the vehicle surroundings image data acquired by the image acquisition unit 22. The vehicle surroundings image captured by the rear camera 12D will be described below as an example. FIG. 4 is a diagram showing an example of the vehicle surroundings image 40 captured by the rear camera 12D. Note that the vehicle surroundings image 40 shown in FIG. 4 is an image captured by the rear camera 12D while the vehicle 30 is traveling in the right lane as an example, and the other vehicles 32 and 34 in the vehicle surroundings image 40 are vehicles traveling behind the vehicle 30, i.e., the same diagonal lane (road lane).

障害物位置特定部24は、車両周辺画像40において座標軸を設定する。バックカメラ12Dは車両30の後部の室内側の車幅方向中央に設置されているので、バックカメラ12Dが設置された位置を原点とし、車両30の車幅方向をx軸、車両30の車両上下方向をy軸とする。 The obstacle position identification unit 24 sets coordinate axes in the vehicle surroundings image 40. Since the rear camera 12D is installed in the center of the vehicle width direction inside the interior of the rear of the vehicle 30, the position where the rear camera 12D is installed is set as the origin, the vehicle width direction of the vehicle 30 is set as the x-axis, and the vehicle vertical direction of the vehicle 30 is set as the y-axis.

障害物位置特定部24は、上述した二次元マップ上の対象物Pの位置F(x,y)を車両周辺画像40上に変換する。この変換は一例として、次のように行う。二次元マップ上のx軸方向の原点と、車両周辺画像40上のx軸方向の原点は共に車両30の車幅方向中央であるため、x軸は一致している。二次元マップ上のy軸方向の原点は、車両30の後端中央に配設された後方レーダの取付位置であり、車両周辺画像40上のy軸方向の原点は、バックカメラ12Dが設置された位置である。そのため、後方レーダとバックカメラ12Dとの位置関係から予め変換値を算出しておき、障害物位置特定部24は、算出された変換値に基づいて、二次元マップ上のy軸方向のデータを変換する。 The obstacle position identification unit 24 converts the position F(x, y) of the object P on the above-mentioned two-dimensional map onto the vehicle surroundings image 40. As an example of this conversion, it is performed as follows. The origin of the x-axis direction on the two-dimensional map and the origin of the x-axis direction on the vehicle surroundings image 40 are both at the center of the vehicle width direction of the vehicle 30, so the x-axes are the same. The origin of the y-axis direction on the two-dimensional map is the mounting position of the rear radar disposed at the center of the rear end of the vehicle 30, and the origin of the y-axis direction on the vehicle surroundings image 40 is the position where the backup camera 12D is installed. Therefore, a conversion value is calculated in advance from the positional relationship between the rear radar and the backup camera 12D, and the obstacle position identification unit 24 converts the data in the y-axis direction on the two-dimensional map based on the calculated conversion value.

障害物位置特定部24は、二次元マップから車両周辺画像40上に変換された障害物Pの位置を特定する。図4においては、他車両32の位置と他車両34の位置とが障害物Pの位置として検出される。 The obstacle position identification unit 24 identifies the position of the obstacle P that is converted from the two-dimensional map onto the vehicle surroundings image 40. In FIG. 4, the positions of the other vehicles 32 and 34 are detected as the positions of the obstacle P.

調整部26は、画像取得部22により取得された車両周辺画像40に基づいて表示部16に表示する表示画像を生成する。具体的には、調整部26は、車両周辺画像40において障害物位置特定部24により特定された障害物P、すなわち他車両32と他車両34にそれぞれ対応する領域を検出し、この領域を含む所定の範囲を設定する。調整部26は、例えば、他車両32において、他車両32を囲む矩形状の外枠32A(図4中、二点鎖線で示す)を設定し、この外枠32A内を上記所定の範囲32Bとして設定する。調整部26は、同様にして他車両34についても外枠34Aを設定し、この外枠34A内を所定の範囲34Bとして設定する。 The adjustment unit 26 generates a display image to be displayed on the display unit 16 based on the vehicle surroundings image 40 acquired by the image acquisition unit 22. Specifically, the adjustment unit 26 detects areas in the vehicle surroundings image 40 corresponding to the obstacles P identified by the obstacle position identification unit 24, i.e., the other vehicles 32 and 34, respectively, and sets a predetermined range including these areas. For example, the adjustment unit 26 sets a rectangular outer frame 32A (shown by a two-dot chain line in FIG. 4) surrounding the other vehicle 32 for the other vehicle 32, and sets the inside of this outer frame 32A as the above-mentioned predetermined range 32B. The adjustment unit 26 similarly sets an outer frame 34A for the other vehicle 34, and sets the inside of this outer frame 34A as the above-mentioned predetermined range 34B.

調整部26は、この所定の範囲32B及び所定の領域34B内の領域の輝度、明度、及びコントラストのうちの1つ以上を調整する。具体的には、調整部26は、所定の範囲32B及び所定の領域34B内すなわち他車両32及び他車両34が各々はっきり見えるように輝度、明度、及びコントラストのうちの1つ以上を調整する。一例として、車両周辺画像40が例えば夜間等の暗いシーンで撮影された画像である場合、調整部26は、所定の範囲32B及び所定の領域34B内がより明るくなるように明度や輝度を高くする。また、調整部26は、所定の範囲32B及び所定の領域34B内がよりはっきり見えるようにコントラストを高くする。 The adjustment unit 26 adjusts one or more of the brightness, lightness, and contrast of the areas within the predetermined range 32B and the predetermined area 34B. Specifically, the adjustment unit 26 adjusts one or more of the brightness, lightness, and contrast so that the predetermined range 32B and the predetermined area 34B, i.e., the other vehicle 32 and the other vehicle 34, are clearly visible. As an example, if the vehicle surroundings image 40 is an image captured in a dark scene, such as at night, the adjustment unit 26 increases the lightness and brightness so that the predetermined range 32B and the predetermined area 34B are brighter. The adjustment unit 26 also increases the contrast so that the predetermined range 32B and the predetermined area 34B are clearly visible.

画像出力部28は、調整部26により調整された車両周辺画像40を表示画像として表示部16に出力する。 The image output unit 28 outputs the vehicle surroundings image 40 adjusted by the adjustment unit 26 to the display unit 16 as a display image.

次に、車両ECU20において実行される一連の処理について、図5に示されるフローチャートを用いて説明する。なお、車両ECU20において実行される表示処理は、CPU20AがROM20B又はストレージ20Dからプログラムを読み出して、RAM20Cに展開して実行することによって実行される。 Next, a series of processes executed in the vehicle ECU 20 will be described with reference to the flowchart shown in FIG. 5. The display process executed in the vehicle ECU 20 is executed by the CPU 20A reading a program from the ROM 20B or storage 20D, expanding it in the RAM 20C, and executing it.

図5に示されるように、先ずステップS11にて、画像取得部22が、撮影部12により各々撮影された車両周辺画像40を取得する。次に、ステップS12にて、CPU20Aが、障害物検知部14により車両周辺の障害物Pが検知されたか否か、すなわち障害物検知部14から障害物情報を受信されたか否かを判断する。障害物検知部14により障害物Pが検知された場合(ステップS12、YES)、ステップS13にて、障害物位置特定部24が、検知された車両周辺の障害物Pの位置を特定する。 As shown in FIG. 5, first, in step S11, the image acquisition unit 22 acquires the vehicle surroundings images 40 each captured by the photography unit 12. Next, in step S12, the CPU 20A determines whether or not an obstacle P has been detected around the vehicle by the obstacle detection unit 14, i.e., whether or not obstacle information has been received from the obstacle detection unit 14. If an obstacle P has been detected by the obstacle detection unit 14 (step S12, YES), in step S13, the obstacle position identification unit 24 identifies the position of the detected obstacle P around the vehicle.

そして、ステップS14にて調整部26が、車両周辺画像40において障害物位置特定部24により特定された障害物P(本実施形態では他車両32と他車両34)に対応する領域を検出し、この領域を含む所定の範囲がはっきり見えるように輝度、明度、及びコントラストのうちの1つ以上を上述したように調整して表示画像を生成する。 Then, in step S14, the adjustment unit 26 detects an area in the vehicle surroundings image 40 that corresponds to the obstacle P (other vehicles 32 and 34 in this embodiment) identified by the obstacle position identification unit 24, and generates a display image by adjusting one or more of the brightness, luminance, and contrast as described above so that a predetermined range including this area is clearly visible.

一方、ステップS12にて障害物検知部14により障害物Pが検知されない場合(ステップS12、NO)、ステップS15にて、調整部26が車両周辺画像40に対して通常の画像調整をして表示画像を生成する。ここで、通常の画像調整は、一例として車両周辺画像40全体又は車両周辺画像40内の路面全体に対して輝度、明度、及びコントラストのうちの1つ以上調整する。 On the other hand, if the obstacle P is not detected by the obstacle detection unit 14 in step S12 (step S12, NO), in step S15, the adjustment unit 26 performs normal image adjustment on the vehicle surroundings image 40 to generate a display image. Here, the normal image adjustment, as an example, adjusts one or more of the brightness, luminance, and contrast for the entire vehicle surroundings image 40 or the entire road surface within the vehicle surroundings image 40.

次に、ステップS16にて、CPU20Aは、表示部16への表示要求が有るか否かを判断する。一例として、CPU20Aは、例えば車両30のシフトレンジがリバースポジションにされた場合に、バックカメラ12Dにより撮影された車両周辺画像40を表示する要求が有ると判断する。なお、車両30において予め設定された動作に応じて、撮影部12においてどのカメラにより撮影された車両周辺画像40を表示部16に表示するのかが決定される。 Next, in step S16, the CPU 20A determines whether there is a display request on the display unit 16. As an example, the CPU 20A determines that there is a request to display the vehicle surroundings image 40 captured by the backup camera 12D when the shift range of the vehicle 30 is in the reverse position. Depending on the operation preset in the vehicle 30, it is determined by which camera in the image capturing unit 12 the vehicle surroundings image 40 captured by is to be displayed on the display unit 16.

ステップS16にて、表示要求が有る場合(ステップS16;YES)、ステップS17にて、画像出力部28が、調整部26により調整されて生成された表示画像を表示部16に出力する。一方、ステップS16にて、表示要求がない場合(ステップS16;NO)、CPU20AはステップS11へ処理を移行して、ステップS11以降の処理を行う。 If there is a display request in step S16 (step S16; YES), in step S17, the image output unit 28 outputs the display image adjusted and generated by the adjustment unit 26 to the display unit 16. On the other hand, if there is no display request in step S16 (step S16; NO), the CPU 20A transitions to step S11 and performs the processes from step S11 onward.

次に、ステップS18にて、CPU20Aは、表示終了の指示があるか否かを判断する。ステップS18にて、CPU20Aが、表示終了の指示がないと判断した場合(ステップS18;NO)、CPU20Aは、ステップS11へ処理を移行して、ステップS11以降の処理を行う。 Next, in step S18, the CPU 20A determines whether or not an instruction to end the display has been given. If the CPU 20A determines in step S18 that an instruction to end the display has not been given (step S18; NO), the CPU 20A proceeds to step S11 and performs the processes from step S11 onward.

一方、ステップS18にて、CPU20Aが、表示終了の指示があると判断した場合(ステップS18;YES)、CPU20Aが、表示部16への表示画像の表示を終了させて、車両ECU20は一連の処理を終了する。なお、本実施形態においては、一例として、CPU20Aは、例えば車両30のシフトレンジがリバースポジションからパーキングポジションにされた場合に、表示画像の表示終了の指示があると判断する。 On the other hand, if the CPU 20A determines in step S18 that an instruction to end the display has been issued (step S18; YES), the CPU 20A ends the display of the display image on the display unit 16, and the vehicle ECU 20 ends the series of processes. Note that in this embodiment, as an example, the CPU 20A determines that an instruction to end the display of the display image has been issued when, for example, the shift range of the vehicle 30 is shifted from the reverse position to the parking position.

次に、本実施形態の作用効果について説明する。 Next, we will explain the effects of this embodiment.

本実施形態に係る車両ECU20では、調整部26が、撮影部12により撮影された車両周辺画像40に基づいて生成された表示部16に表示される表示画像において、障害物位置特定部24により特定された1つ以上の障害物Pの位置に対応する領域を含む所定の範囲32B、34Bの輝度、明度、及びコントラストのうちの1つ以上を調整している。また、画像出力部28が調整部26により調整された表示画像を表示部16に出力している。 In the vehicle ECU 20 according to this embodiment, the adjustment unit 26 adjusts one or more of the luminance, brightness, and contrast of a predetermined range 32B, 34B including an area corresponding to the position of one or more obstacles P identified by the obstacle position identification unit 24 in a display image displayed on the display unit 16 that is generated based on a vehicle surroundings image 40 captured by the imaging unit 12. The image output unit 28 outputs the display image adjusted by the adjustment unit 26 to the display unit 16.

このように、本実施形態においては表示部16に表示される表示画像の障害物Pを含む領域の輝度、明度、及びコントラストのうちの1つ以上が調整される。そのため、例えば夜間や屋内駐車場等の周囲が暗いシーンで、表示部16に表示される表示画像において障害物Pが確認し難い場合であっても、調整されていない表示画像と比較して障害物Pをより確認し易くすることができる。 In this manner, in this embodiment, one or more of the luminance, brightness, and contrast of the area including the obstacle P in the display image displayed on the display unit 16 are adjusted. Therefore, even if the obstacle P is difficult to see in the display image displayed on the display unit 16 in a dark scene such as at night or in an indoor parking lot, for example, the obstacle P can be made easier to see compared to an unadjusted display image.

また、本実施形態に係る車両ECU20では、調整部26は、画像取得部22により取得された車両周辺画像40を調整するので、画像取得部22による取得後の車両周辺画像40において輝度、明度、及びコントラストのうちの1つ以上を調整することができる。 In addition, in the vehicle ECU 20 according to this embodiment, the adjustment unit 26 adjusts the vehicle surroundings image 40 acquired by the image acquisition unit 22, and therefore can adjust one or more of the brightness, luminance, and contrast in the vehicle surroundings image 40 acquired by the image acquisition unit 22.

なお、本実施形態においては、調整部26は、画像取得部22により取得された車両周辺画像40を調整しているが、本発明はこれに限られない。例えば、調整部26は、撮影部12により撮影される車両周辺画像、すなわち撮影部12により本撮影が行われる前のいわゆるプレ撮影画像(スルー画像)を調整してもよいし、撮影部12により本撮影が行われて撮影部12が取得した本撮影画像を調整してもよい。図6に調整部26が、調整部26が撮影部12により撮影される車両周辺画像を調整する場合における一連の処理のフローチャートを示す。 In this embodiment, the adjustment unit 26 adjusts the vehicle surroundings image 40 acquired by the image acquisition unit 22, but the present invention is not limited to this. For example, the adjustment unit 26 may adjust the vehicle surroundings image captured by the image capture unit 12, i.e., a so-called pre-captured image (through image) before the actual image capture is performed by the image capture unit 12, or may adjust the actual image capture performed by the image capture unit 12 and acquired by the image capture unit 12. Figure 6 shows a flowchart of a series of processes when the adjustment unit 26 adjusts the vehicle surroundings image captured by the image capture unit 12.

図6に示されるように、先ずステップS21にて、CPU20Aが、障害物検知部14により車両周辺の障害物Pが検知されたか否か、すなわち障害物検知部14から障害物情報を受信されたか否かを判断する。障害物検知部14により障害物Pが検知された場合(ステップS21、YES)、ステップS22にて、障害物位置特定部24が、検知された車両周辺の障害物Pの位置を特定する。 As shown in FIG. 6, first, in step S21, the CPU 20A determines whether or not an obstacle P has been detected around the vehicle by the obstacle detection unit 14, i.e., whether or not obstacle information has been received from the obstacle detection unit 14. If an obstacle P has been detected by the obstacle detection unit 14 (step S21, YES), in step S22, the obstacle position identification unit 24 identifies the position of the detected obstacle P around the vehicle.

そして、ステップS23にて調整部26が、撮影部12によるプレ撮影画像又は本撮影画像である車両周辺画像40において、障害物位置特定部24により特定された障害物Pに対応する領域を検出し、この領域を含む所定の範囲がはっきり見えるように輝度、明度、及びコントラストのうちの1つ以上を上述したように調整する。 Then, in step S23, the adjustment unit 26 detects an area corresponding to the obstacle P identified by the obstacle position identification unit 24 in the vehicle surroundings image 40, which is a pre-image or an actual image captured by the image capture unit 12, and adjusts one or more of the brightness, luminance, and contrast as described above so that a predetermined range including this area is clearly visible.

一方、ステップS22にて障害物検知部14により障害物Pが検知されない場合(ステップS22、NO)、ステップS24にて、調整部26が、撮影部12によるプレ撮影画像又は本撮影画像である車両周辺画像40に対して通常の画像調整をする。 On the other hand, if the obstacle P is not detected by the obstacle detection unit 14 in step S22 (step S22, NO), in step S24, the adjustment unit 26 performs normal image adjustment on the vehicle surroundings image 40, which is the pre-captured image or actual captured image by the image capture unit 12.

次に、ステップS25にて、画像取得部22が、撮影部12により撮影された調整部26による調整後の車両周辺画像40を表示画像として取得する。 Next, in step S25, the image acquisition unit 22 acquires the vehicle surroundings image 40 captured by the image capture unit 12 and adjusted by the adjustment unit 26 as a display image.

次に、ステップS26にて、CPU20Aは、表示部16への表示要求が有るか否かを判断する。ステップS26にて、表示要求が有る場合(ステップS26;YES)、ステップS27にて、画像出力部28が、表示画像を表示部16に出力する。一方、ステップS26にて、表示要求がない場合(ステップS26;NO)、CPU20AはステップS21へ処理を移行して、ステップS21以降の処理を行う。 Next, in step S26, the CPU 20A determines whether or not there is a display request to the display unit 16. If there is a display request in step S26 (step S26; YES), in step S27 the image output unit 28 outputs the display image to the display unit 16. On the other hand, if there is no display request in step S26 (step S26; NO), the CPU 20A transitions to step S21 and performs the processes from step S21 onward.

次に、ステップS28にて、CPU20Aは、表示終了の指示があるか否かを判断する。ステップS28にて、CPU20Aが、表示終了の指示がないと判断した場合(ステップS28;NO)、CPU20Aは、ステップS21へ処理を移行して、ステップS21以降の処理を行う。 Next, in step S28, CPU 20A determines whether or not there is an instruction to end the display. If CPU 20A determines in step S28 that there is no instruction to end the display (step S28; NO), CPU 20A proceeds to step S21 and performs the processes from step S21 onward.

一方、ステップS28にて、CPU20Aが、表示終了の指示があると判断した場合(ステップS28;YES)、CPU20Aが、表示部16への表示画像の表示を終了させて、車両ECU20は一連の処理を終了する。 On the other hand, if the CPU 20A determines in step S28 that an instruction to end the display has been received (step S28; YES), the CPU 20A ends the display of the display image on the display unit 16, and the vehicle ECU 20 ends the series of processes.

このように、調整部26が撮影部12によるプレ撮影画像又は本撮影画像である車両周辺画像40において、輝度、明度、及びコントラストのうちの1つ以上の調整を行うこともできる。これにより、上記実施形態と同様に、例えば夜間や屋内駐車場等の周囲が暗いシーンで、表示部16に表示される表示画像において障害物Pが確認し難い場合であっても、調整されていない表示画像と比較して障害物Pをより確認し易くすることができる。 In this way, the adjustment unit 26 can adjust one or more of the brightness, luminance, and contrast in the vehicle surroundings image 40, which is a pre-photographed image or an actual photographed image by the photographing unit 12. As a result, as in the above embodiment, even if an obstacle P is difficult to see in the display image displayed on the display unit 16 in a dark scene such as at night or in an indoor parking lot, the obstacle P can be made easier to see compared to an unadjusted display image.

なお、上記実施形態においては、車両の手動運転時おける車両ECU20の表示処理について説明しているが、本発明はこれに限られない。本発明は、例えば自動運転が可能な車両における手動運転時にも適用可能である。 In the above embodiment, the display processing of the vehicle ECU 20 during manual driving of the vehicle is described, but the present invention is not limited to this. The present invention can also be applied, for example, during manual driving of a vehicle capable of automatic driving.

また、上記実施形態においては、乗物の一例としての車両に表示処理装置としての車両ECU20を搭載しているが、本発明は車両に限られない。例えば、船舶や飛行機等の乗物に本発明の表示処理装置を搭載してもよい。 In addition, in the above embodiment, a vehicle ECU 20 is mounted as a display processing device in a vehicle as an example of a vehicle, but the present invention is not limited to vehicles. For example, the display processing device of the present invention may be mounted in a vehicle such as a ship or an airplane.

また、上記実施形態では、障害物検知部14としてミリ波レーダを使用したレーダ装置を採用しているが、本発明はこれに限られない。例えばレーザーレーダを使用したレーダ装置を採用してもよいし、2つのカメラ(ステレオカメラ)を障害物検知部14として採用してもよい。また、ソナーやLIDAR等を使用してもよいし、公知の技術を使用することができる。 In addition, in the above embodiment, a radar device using a millimeter wave radar is used as the obstacle detection unit 14, but the present invention is not limited to this. For example, a radar device using a laser radar may be used, or two cameras (stereo cameras) may be used as the obstacle detection unit 14. Also, sonar, LIDAR, etc. may be used, or any known technology may be used.

また、上記実施形態における車両ECU20の各部で行われる処理は、プログラムを実行することにより行われるソフトウェア処理として説明したが、これに限るものではない。例えば、ハードウェアで行う処理としてもよい。或いは、ソフトウェア及びハードウェアの双方を組み合わせた処理としてもよい。また、ソフトウェアの処理とした場合には、プログラムを各種記憶媒体に記憶して流通させるようにしてもよい。また、プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。 In addition, the processing performed by each part of the vehicle ECU 20 in the above embodiment has been described as software processing performed by executing a program, but this is not limited to this. For example, the processing may be performed by hardware. Alternatively, the processing may be a combination of both software and hardware. Furthermore, if the processing is software, the program may be stored in various storage media and distributed. Furthermore, the program may be in a form that is downloaded from an external device via a network.

以上、本発明の一実施形態について説明したが、本発明はこうした実施形態に限定されるものでなく、一実施形態と各種の変形例を適宜組み合わせて用いても良いし、本発明の要旨を逸脱しない範囲において、種々なる態様で実施し得ることは勿論である。 Although one embodiment of the present invention has been described above, the present invention is not limited to this embodiment, and one embodiment may be appropriately combined with various modified examples, and the present invention may of course be embodied in various forms without departing from the spirit of the present invention.

12 撮影部
14 障害物検知部
16 表示部
20 車両ECU(表示処理装置)
22 画像取得部
24 障害物位置特定部
26 調整部
28 画像出力部
30 車両
32 他車両(障害物)
32B 所定の範囲
34 他車両(障害物)
34B 所定の範囲
40 車両周辺画像
P 障害物
12 Photographing unit 14 Obstacle detection unit 16 Display unit 20 Vehicle ECU (display processing device)
22 Image acquisition unit 24 Obstacle position identification unit 26 Adjustment unit 28 Image output unit 30 Vehicle 32 Other vehicle (obstacle)
32B Predetermined range 34 Other vehicles (obstacles)
34B Predetermined range 40 Vehicle surroundings image P Obstacle

Claims (5)

障害物検知部により検知された車両周辺の障害物の位置を特定する障害物位置特定部と、
撮影部により撮影された車両周辺画像を取得する画像取得部と、
前記車両周辺画像に基づいて生成され表示部に表示される表示画像において、前記障害物位置特定部により特定された1つ以上の前記障害物の位置に対応する領域を含む所定の範囲の輝度、明度、及びコントラストのうちの1つ以上を調整する調整部と、
前記調整部により調整された前記表示画像を前記表示部に出力する画像出力部と、
を含む表示処理装置。
an obstacle position identifying unit that identifies a position of an obstacle around the vehicle detected by the obstacle detection unit;
an image acquisition unit that acquires an image of the surroundings of the vehicle captured by the image capture unit;
an adjustment unit that adjusts one or more of luminance, brightness, and contrast of a predetermined range including an area corresponding to the position of the one or more obstacles identified by the obstacle position identification unit in a display image that is generated based on the vehicle surroundings image and displayed on a display unit;
an image output unit that outputs the display image adjusted by the adjustment unit to the display unit;
A display processing device comprising:
前記調整部は、前記画像取得部により取得された前記車両周辺画像を調整することにより前記表示画像を調整する請求項1に記載の表示処理装置。 The display processing device according to claim 1, wherein the adjustment unit adjusts the display image by adjusting the vehicle surroundings image acquired by the image acquisition unit. 前記調整部は、前記撮影部により撮影される前記車両周辺画像を調整することにより前記表示画像を調整する請求項1に記載の表示処理装置。 The display processing device according to claim 1, wherein the adjustment unit adjusts the display image by adjusting the vehicle surroundings image captured by the image capture unit. 障害物検知部により検知された車両周辺の障害物の位置を特定し、
撮影部により撮影された車両周辺画像を取得し、
前記車両周辺画像に基づいて生成され表示部に表示される表示画像において、特定された1つ以上の前記障害物の位置に対応する領域を含む所定の範囲の輝度、明度、及びコントラストのうちの1つ以上を調整し、
調整された前記表示画像を前記表示部に出力する表示処理方法。
Identifying the position of an obstacle around the vehicle detected by the obstacle detection unit;
Acquire an image of the surroundings of the vehicle captured by the image capturing unit;
adjusting one or more of luminance, brightness, and contrast of a predetermined range including an area corresponding to the positions of the one or more identified obstacles in a display image generated based on the vehicle surroundings image and displayed on a display unit;
A display processing method for outputting the adjusted display image to the display unit.
障害物検知部により検知された車両周辺の障害物の位置を特定する障害物位置特定部と、
撮影部により撮影された車両周辺画像を取得する画像取得部と、
前記車両周辺画像に基づいて生成され表示部に表示される表示画像において、前記障害物位置特定部により特定された1つ以上の前記障害物の位置に対応する領域を含む所定の範囲の輝度、明度、及びコントラストのうちの1つ以上を調整する調整部と、
前記調整部により調整された前記表示画像を前記表示部に出力する画像出力部として、
コンピュータを機能させる表示処理装置の作動プログラム。
an obstacle position identifying unit that identifies a position of an obstacle around the vehicle detected by the obstacle detection unit;
an image acquisition unit that acquires an image of the surroundings of the vehicle captured by the image capture unit;
an adjustment unit that adjusts one or more of luminance, brightness, and contrast of a predetermined range including an area corresponding to the position of the one or more obstacles identified by the obstacle position identification unit in a display image that is generated based on the vehicle surroundings image and displayed on a display unit;
an image output unit that outputs the display image adjusted by the adjustment unit to the display unit,
An operating program for a display processing device that causes a computer to function.
JP2022163563A 2022-10-11 2022-10-11 Display processing device, display processing method, and operation program of display processing device Pending JP2024056563A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022163563A JP2024056563A (en) 2022-10-11 2022-10-11 Display processing device, display processing method, and operation program of display processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022163563A JP2024056563A (en) 2022-10-11 2022-10-11 Display processing device, display processing method, and operation program of display processing device

Publications (1)

Publication Number Publication Date
JP2024056563A true JP2024056563A (en) 2024-04-23

Family

ID=90749083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022163563A Pending JP2024056563A (en) 2022-10-11 2022-10-11 Display processing device, display processing method, and operation program of display processing device

Country Status (1)

Country Link
JP (1) JP2024056563A (en)

Similar Documents

Publication Publication Date Title
US8130270B2 (en) Vehicle-mounted image capturing apparatus
JP5194679B2 (en) Vehicle periphery monitoring device and video display method
US20110001826A1 (en) Image processing device and method, driving support system, and vehicle
JP5953824B2 (en) Vehicle rear view support apparatus and vehicle rear view support method
JP5321711B2 (en) Vehicle periphery monitoring device and video display method
US20150109444A1 (en) Vision-based object sensing and highlighting in vehicle image display systems
TWI578271B (en) Dynamic image processing method and dynamic image processing system
JP2009017020A (en) Image processor and method for generating display image
JP2002359838A (en) Device for supporting driving
JP2008077628A (en) Image processor and vehicle surrounding visual field support device and method
US20230113406A1 (en) Image processing system, mobile object, image processing method, and storage medium
US9967438B2 (en) Image processing apparatus
US10455159B2 (en) Imaging setting changing apparatus, imaging system, and imaging setting changing method
US11273763B2 (en) Image processing apparatus, image processing method, and image processing program
JPWO2015129280A1 (en) Image processing apparatus and image processing method
CN113508574A (en) Imaging system and method
JP7000383B2 (en) Image processing device and image processing method
WO2017158829A1 (en) Display control device and display control method
US20230098424A1 (en) Image processing system, mobile object, image processing method, and storage medium
CN111355880A (en) Semiconductor device, image processing system and method, and computer-readable storage medium
JP2024056563A (en) Display processing device, display processing method, and operation program of display processing device
CN116205829A (en) Rearview mirror image fusion method, device, vehicle-mounted equipment and storage medium
US20200231099A1 (en) Image processing apparatus
JP2023046511A (en) Image processing system, image processing method, and computer program
JP7515983B2 (en) Fog condition detection system, image processing system, and fog condition detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240911