WO2019177036A1 - 車両用映像システム - Google Patents

車両用映像システム Download PDF

Info

Publication number
WO2019177036A1
WO2019177036A1 PCT/JP2019/010306 JP2019010306W WO2019177036A1 WO 2019177036 A1 WO2019177036 A1 WO 2019177036A1 JP 2019010306 W JP2019010306 W JP 2019010306W WO 2019177036 A1 WO2019177036 A1 WO 2019177036A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
area
region
image
camera
Prior art date
Application number
PCT/JP2019/010306
Other languages
English (en)
French (fr)
Inventor
杉本 篤
光治 眞野
Original Assignee
株式会社小糸製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小糸製作所 filed Critical 株式会社小糸製作所
Priority to CN201980019090.XA priority Critical patent/CN111886858B/zh
Priority to JP2020506613A priority patent/JP7258847B2/ja
Publication of WO2019177036A1 publication Critical patent/WO2019177036A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to a vehicular video system for photographing a vehicle body periphery with a camera and displaying it on a driver's seat monitor.
  • Patent Document 1 proposes a vehicle rear recognition device that employs an electronic mirror and removes a side mirror to reduce air resistance during travel.
  • Patent Document 2 proposes a video system for a vehicle in which an electronic mirror is provided and a blind spot that is not reflected on a rearview mirror or side mirror can be confirmed.
  • an object of the present invention is to provide a vehicular video system that displays a video that allows a driver to easily distinguish between an actual landscape and a landscape reflected on a vehicle body.
  • a video system for a vehicle includes a camera that captures an area around a vehicle body, and a control unit that displays the video of the camera on a monitor, and the control unit is based on the video of the camera. And a video dividing unit that divides the video of the camera into a first region including a vehicle body and a second region other than the first region, and a video processing unit that performs predetermined processing on the first region. .
  • the video dividing means determines, as the first area, an area of the camera video in which the amount of change is smaller than the surrounding video.
  • the video dividing means compares the first area and the second area, and determines, for example, an area where the video is unclear as the first area. A region where the image is bent more may be determined as the first region.
  • the image processing means colors the determined first area.
  • a predetermined vehicle body shape may be overwritten in the first region.
  • the periphery of the vehicle body is photographed by the camera, the photographed image is divided into the first region including the vehicle body and the other second region, and a predetermined image is further displayed in the first region. Since the processing is performed, the driver can easily distinguish between the actual scenery (second area) and the reflected image of the scenery reflected in the vehicle body (first area) and can accurately grasp the driving situation. There is an effect.
  • FIG. 1 is a schematic view of a vehicle video system showing an embodiment of the present invention. It is the schematic which looked at the video system for vehicles of Drawing 1 from the left direction. It is a block diagram of the video system for vehicles of Drawing 1. It is a schematic diagram of the image
  • a vehicle video system 1 shown in FIG. 1 includes cameras 2L and 2R that capture a peripheral area of a vehicle body 5, and a control unit that performs video processing on the captured video 6 (see FIG. 4) and outputs the processed video to the monitors 4L and 4R. And monitors 4L and 4R for displaying images 6 (see FIG. 6) of processed cameras 2R and 2L, respectively.
  • the camera 2 is attached to the fender of the vehicle 5 so as to be able to photograph mainly the side and rear of the vehicle body.
  • the photographing region of the camera 2 includes a door on the side surface of the vehicle body 5 and a rear fender.
  • the ECU 3 analyzes the images of the cameras 2L and 2R, and divides the image into a region S1 as the first region including the vehicle body and a region S2 as the second region that is the other region.
  • Unit 31 image processing unit 32 that performs processing such as coloring on region S ⁇ b> 1, and image display unit 33 that outputs processed images of cameras 2 ⁇ / b> L and 2 ⁇ / b> R to monitors 4 ⁇ / b> L and 4 ⁇ / b> R, respectively.
  • the video 6 captured by the cameras 2L and 2R is divided into the first area S1 and the second area S2 by the video dividing unit 31 of the ECU 3, and the first video processing unit 32 performs the first processing.
  • the video display unit 33 After processing the area S1, the video display unit 33 outputs the signals to the monitors 4L and 4R, respectively.
  • FIG. 4 in the image 6, the scenery of the vehicle body 5 and the surrounding area of the vehicle body is photographed.
  • the white line 71 of the road and the reflected image 71 ′ reflected on the vehicle body and other vehicles traveling behind 72 and its reflection image 72 'reflected on the vehicle body are included.
  • the video dividing unit 31 analyzes the received video 6 of the camera 2, extracts a region occupied by the vehicle body 5 in the video, and sets this region as a first region S ⁇ b> 1.
  • the other area is divided as a second area, area S2.
  • the analysis process is performed by extracting a region having a high degree of stillness, that is, a small amount of change in the image from the image 6. Since the camera 2 is fixed to the vehicle body 5, the change amount of the image should be small in the region where the vehicle body 5 is photographed. If the region is extracted, the region including the vehicle body 5 can be extracted. Become. At the time of extraction, for example, an upper limit threshold value of a change amount of a still area detected in advance may be used as a reference.
  • the video dividing unit 31 compares the video for the determined areas S1 and S2 and verifies the determination result. Specifically, the image of the road white line 71 (region S2) and the image of the reflected image 71 ′ (region S1) are compared, or the image of another vehicle 72 actually traveling behind (region S2). The image (region S1) of the reflected image 72 ′ is compared, and as a result, for example, the region including the image that is determined to be unclear is determined as the region S1. Or you may determine the area
  • the reflected image of the landscape reflected on the vehicle body 5 appears more blurry than the landscape that is the direct image due to fine unevenness and dirt on the surface of the vehicle body, or appears bent according to the shape of the vehicle surface. Therefore, it is possible to determine the region S1 by determining an unclear region or a bent region from the video 6.
  • the divided video 6 is transmitted to the video processing unit 32, and the region S1 is processed.
  • the region S1 is colored with a predetermined color, or as shown in FIG. 6B, a photo / CG image of the vehicle body 5 prepared in advance is overwritten on the region S1. can do.
  • the image 6 displayed on the monitor 4 is subjected to processing such as coloring on the vehicle body image (region S1).
  • processing such as coloring on the vehicle body image (region S1).
  • the reflection intensity and brightness on the vehicle body 5 may be measured, and the coloring transparency and the transmittance of the photograph / CG image may be adjusted according to the degree.
  • the degree there is an effect that a driver's uncomfortable feeling can be reduced.
  • a phenomenon saturation in which the headlamps and street lights of the following vehicle are irregularly reflected on the vehicle body 5 may occur, so that the brightness detected in the area where the saturation occurs and the surrounding area is detected by the ECU 3. You may do it. In this case, the glare of the field of view can be reduced, and the driver can grasp the situation around the vehicle more accurately.
  • processing is performed by coloring only the boundary with the region S2 or lowering the frame rate for displaying a photograph / CG image of the vehicle body. Also good. In this case, there is an effect that the video processing load can be reduced.
  • the displays shown in FIGS. 6A to 6C can be used in appropriate combination.
  • the camera 2 is installed in a place or position where it is difficult to receive air resistance during travel, for example, in a door lamp 51 (see FIG. 2) or a vehicle lamp such as a side turn signal lamp.
  • the monitors 4L and 4R are attached to positions where the images of the cameras 2L and 2R can be easily confirmed, for example, near the door mirror and on the dashboard.
  • the images of the monitors 4L and 4R are combined and displayed on one monitor.
  • the ECUs 3 are provided separately on the left and right sides and mounted on the cameras 2L and 2R or the monitors 4L and 2R, respectively.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】電子ミラー用カメラが撮影した車体周辺域の映像を加工し、車体に写し込まれた反射像と実際の風景とを判別し易くする。 【解決手段】車体周辺域を撮影するカメラ2と、カメラ2で撮影した映像6をモニタ4に表示するECU3を設ける。ECU3では、カメラ2で撮影した車体周辺域の映像6を解析し、映像の変化量が小さい領域を領域S1とし、それ以外の領域を領域S2として分割する。領域S1を着色してモニタ4に出力することで、車体に写し込まれた反射像と実際の風景とを判別し易くする。

Description

車両用映像システム
 本発明は、カメラで車体周辺を撮影し、運転席のモニタに表示する車両用映像システムに関する。
 近年、バックミラーやサイドミラーに代えて、車体の後側方をカメラで撮影し、撮影した映像を運転席のモニタに表示して、車体周辺の視界を確保する電子ミラーの技術が知られている。例えば、特許文献1には、電子ミラーを採用し、サイドミラーを撤去することで、走行時の空気抵抗を低減した車両の後方認識装置が提案されている。また、特許文献2には、電子ミラーを設け、バックミラーやサイドミラーには映らなかった死角も確認できる車両用映像システムが提案されている。
特開2003-312359号公報 特開2016-048839号公報
 しかし、特許文献1,2の装置やシステムでは、カメラが従来のサイドミラーよりもフェンダーといった車体の低位置に取り付けられるため、より広範囲に車体が映りこみ、運転者が実際の風景と車体に映り込んだ風景とを混同し、自身が運転している車両の位置を誤認するおそれがあった。
 この解決策として、例えば、映像の撮影範囲から車体を除外し、車体を表示させない方法も考えられる。しかし、運転者は通常、自身が運転している車両を基準とし、周囲の障害物や他車両との位置関係を相対的に把握している。そのため、単純に運転者の車体を映像から消してしまうと、自身の置かれている状況を把握できなくなり、運転ミスを生じさせるという問題もあった。
 そこで、本発明の目的は、運転者が実際の風景と車体に映り込んだ風景とを容易に判別できる映像を表示させる車両用映像システムを提供することにある。
 上記課題を解決するために、本発明の車両用映像システムは、車体周辺域を撮影するカメラと、カメラの映像をモニタに表示する制御部と、を備え、制御部が、カメラの映像に基づいて、カメラの映像を、車体を含む第1領域とそれ以外の第2領域とに分割する映像分割手段と、第1領域に所定の加工を施す映像加工手段と、を含むことを特徴とする。
 ここで、映像分割手段は、カメラ映像のうち、周囲の映像に比べて変化量が小さい領域を前記第1領域として判定する。
 また、映像分割手段は、第1領域と第2領域を比較し、例えば、映像がより不鮮明な領域を第1領域として判定する。映像がより屈曲している領域を第1領域として判定しても良い。
 映像加工手段は、判定された第1領域を着色する。第一領域に所定の車体形状を上書きしても良い。
 本発明の車両用表示システムによれば、車体周辺をカメラで撮影し、撮影した映像を、車体を含む第1領域とそれ以外の第2領域とに分割し、さらに第1領域に所定の映像処理を施すため、運転者は実際の風景(第2領域)と車体に映り込んだ風景の反射像(第1領域)とを容易に区別し、運転状況を的確に把握することができるという優れた効果がある。
本発明の一実施形態を示す車両用映像システムの概略図である。 図1の車両用映像システムを左側方向から見た概略図である。 図1の車両用映像システムのブロック図である。 カメラが撮影した映像の模式図である。 図4の映像に分割処理を施した様子を示す模式図である。 図5の映像に着色等の映像処理を施した様子を示す模式図である。
 以下、本発明の一実施形態を図面に基づいて説明する。図1に示す車両用映像システム1は、車体5の周辺域を撮影するカメラ2L,2Rと、撮影された映像6(図4参照)に映像処理を施し、モニタ4L,4Rへ出力する制御部としてのECU3と、処理済みのカメラ2R,2Lの映像6(図6参照)をそれぞれ表示するモニタ4L,4Rとを備えている。
 図2に示すように、カメラ2は、主に車体側方および後方を撮影できるように車両5のフェンダーに取り付けられている。このとき、カメラ2の撮影領域には、車体5の側面のドアやリアフェンダーも含まれている。
 図3に示すように、ECU3は、カメラ2L,2Rの映像を解析し、車体を含む第1領域としての領域S1とそれ以外の領域である第2領域としての領域S2とに分割する映像分割部31と、領域S1に着色等の加工を施す映像加工部32と、加工済みのカメラ2L,2Rの映像をそれぞれモニタ4L,4Rに出力する映像表示部33とを備えている。
 上記構成の車両用映像システム1においては、カメラ2L,2Rが撮影した映像6は、ECU3の映像分割部31により第1領域S1と、第2領域S2に分割され、映像加工部32により第1領域S1に加工を施された後、映像表示部33によりモニタ4L,4Rにそれぞれ出力される。
 次に、上記構成の車両用映像システム1の映像処理について、図4~図6に従って詳細に説明する。図4に示すように、映像6には、車体5と車体周辺域の風景が撮影されており、道路の白線71および車体に映り込んだその反射像71’と、後方を走行する他の車両72および車体に映り込んだその反射像72’が含まれている。
 図5に示すように、映像分割部31は、受信したカメラ2の映像6を解析し、映像中に車体5が占める領域を抽出し、この領域を第1領域である領域S1とするとともに、その他の領域を第2領域である領域S2として分割する。
 解析処理は、映像6から静止度合いの高い、つまり、映像の変化量の小さい領域を抽出して行う。カメラ2は車体5に固定されているため、車体5が撮影された領域は映像の変化量が小さくなるはずであり、当該領域を抽出すれば、車体5を含む領域を抽出することが可能となる。抽出の際には、例えば、事前に検知した静止領域の変化量の上限閾値を基準にしても良い。
 次に、映像分割部31は、判定した領域S1と領域S2について映像を比較し、判定結果を検証する。具体的には、道路の白線71の映像(領域S2)とその反射像71’の映像(領域S1)の比較や、実際に後方を走行している他の車両72の映像(領域S2)とその反射像72’の映像(領域S1)の比較をし、その結果、例えば、より不鮮明であると判断された映像を含む領域を領域S1として判定する。あるいは、より屈曲していると判断された映像を含む領域を領域S1として判定しても良い。車体5に映り込んだ風景の反射像は、車体表面の塗装の微細な凹凸や汚れ等により直接像である風景に比べて不鮮明に現れたり、あるいは、車体表面の形状に応じて屈曲して現れたりするはずであるから、映像6中から不鮮明な領域または屈曲している領域を判定することにより、領域S1を判定することが可能となる。
 分割された映像6は、映像加工部32へ送信され、領域S1について加工が施される。例えば、図6(a)に示すように、領域S1を所定の色で着色したり、図6(b)に示すように、あらかじめ用意した車体5の写真・CG画像を領域S1に上書きしたりすることができる。
 以上の構成の車両用映像システムによれば、モニタ4に表示される映像6には、車体映像(領域S1)に着色等の処理が施されているため、運転者が実際の風景と車体に映り込んだ風景とを容易に判別でき、運転状況を的確に把握できるという優れた効果がある。
 本発明の変形例としては、例えば、車体5への映り込み強度や明度を測定し、その度合いに応じて着色の透明度や写真・CG画像の透過率を調整しても良い。この場合には、運転者の違和感を軽減できるという効果がある。また、夜間の走行時には、後続車両のヘッドランプや街灯が車体5に乱反射する現象(サチレーション)も生じうるので、ECU3にて検知し、サチレーションが生じている領域やその周辺領域の明るさを低減しても良い。この場合には、視界の眩しさを軽減させ、運転者はより正確に車両周辺の状況を把握することができる。
 別の変形例としては、図6(c)に示すように、領域S2との境界部のみに着色を施したり、車体の写真・CG画像を表示するフレームレートを下げたりして処理を行なっても良い。この場合には、映像処理負担を低減できるという効果がある。また、図6(a)~(c)で示した表示は、適宜組み合わせて用いることもできる。
 なお、本発明は、上記実施形態に限定されるものではなく、以下に例示するように、発明の趣旨を逸脱しない範囲で、各部の構成を適宜に変更して実施することも可能である。
(1)カメラ2を、走行時の空気抵抗を受けにくい場所・位置、例えば、ドアノブ51(図2参照)や、サイドターンシグナルランプ等の車両用灯具内に設置する。
(2)モニタ4L,4Rを、カメラ2L,2Rの映像をそれぞれ確認し易い位置、例えば、ドアミラー付近、ダッシュボードに取り付ける。
(3)モニタ4L,4Rの映像を合体させ、一つのモニタ上に表示させる。
(4)ECU3を左右別個に設け、カメラ2L,2Rまたはモニタ4L,2Rにそれぞれ搭載する。
 1  車両用映像システム
 2  カメラ
 3  ECU
 31 映像分割部
 32 映像加工部
 33 映像表示部
 4  モニタ
 5  車体
 51 ドアノブ
 52 タイヤ
 6  映像
 71 白線
 72 後続車両
 
 

 

Claims (6)

  1.  車体周辺域を撮影するカメラと、
    前記カメラの映像をモニタに表示する制御部と、を備え、
    前記制御部が、前記カメラの映像に基づき、前記カメラの映像を、車体を含む第1領域とそれ以外の第2領域とに分割する映像分割手段と、前記第1領域に所定の加工を施す映像加工手段と、を含むことを特徴とする車両用映像システム。
  2.  前記映像分割手段は、前記カメラ映像のうち、周囲の映像に比べて変化量が小さい領域を前記第1領域として判定する請求項1記載の車両用映像システム。
  3.  前記映像分割手段は、前記第1領域と前記第2領域を比較し、映像がより不鮮明な領域を前記第1領域として判定する請求項1又は2記載の車両用映像システム。
  4.  前記映像分割手段は、前記第1領域と前記第2領域を比較し、映像がより屈曲している領域を前記第1領域として判定する請求項1~3の何れか記載の車両用映像システム。
  5.  前記映像加工手段は、前記第1領域に着色処理を施す請求項1~4の何れか記載の車両用映像システム。
  6.  前記映像加工手段は、前記第1領域に所定の車体形状を上書きする請求項1~4の何れか記載の車両用映像システム。
PCT/JP2019/010306 2018-03-15 2019-03-13 車両用映像システム WO2019177036A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201980019090.XA CN111886858B (zh) 2018-03-15 2019-03-13 车辆用影像系统
JP2020506613A JP7258847B2 (ja) 2018-03-15 2019-03-13 車両用映像システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018047493 2018-03-15
JP2018-047493 2018-03-15

Publications (1)

Publication Number Publication Date
WO2019177036A1 true WO2019177036A1 (ja) 2019-09-19

Family

ID=67907927

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/010306 WO2019177036A1 (ja) 2018-03-15 2019-03-13 車両用映像システム

Country Status (3)

Country Link
JP (1) JP7258847B2 (ja)
CN (1) CN111886858B (ja)
WO (1) WO2019177036A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117011830A (zh) * 2023-08-16 2023-11-07 微牌科技(浙江)有限公司 图像识别方法、装置、计算机设备、存储介质
JP7506036B2 (ja) 2021-07-29 2024-06-25 Kddi株式会社 鏡像弁別装置、方法およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013183298A (ja) * 2012-03-02 2013-09-12 Nissan Motor Co Ltd 車両用後方視界支援装置及び車両用後方視界支援方法
JP2014116756A (ja) * 2012-12-07 2014-06-26 Toyota Motor Corp 周辺監視システム
JP2015201680A (ja) * 2014-04-04 2015-11-12 富士通株式会社 画像表示装置、画像表示方法及び画像表示プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000059763A (ja) * 1998-08-06 2000-02-25 Mitsubishi Electric Corp 車両周辺監視装置
JP2006050246A (ja) * 2004-08-04 2006-02-16 Auto Network Gijutsu Kenkyusho:Kk 車両周辺視認装置
JP5347257B2 (ja) * 2007-09-26 2013-11-20 日産自動車株式会社 車両用周辺監視装置および映像表示方法
KR100966288B1 (ko) * 2009-01-06 2010-06-28 주식회사 이미지넥스트 주변 영상 생성 방법 및 장치
US20120249789A1 (en) * 2009-12-07 2012-10-04 Clarion Co., Ltd. Vehicle peripheral image display system
JP5480917B2 (ja) * 2010-01-14 2014-04-23 本田技研工業株式会社 車両周辺監視装置
JP5892876B2 (ja) * 2011-07-28 2016-03-23 クラリオン株式会社 車載用環境認識装置
JP6011104B2 (ja) * 2012-07-24 2016-10-19 株式会社デンソー 車両用視界支援装置
WO2015016016A1 (ja) * 2013-08-01 2015-02-05 株式会社島津製作所 高さ測定装置
JP5977900B2 (ja) * 2014-06-18 2016-08-24 オリンパス株式会社 画像処理装置
JP6413477B2 (ja) * 2014-08-21 2018-10-31 アイシン精機株式会社 画像表示制御装置および画像表示システム
JP6256509B2 (ja) 2016-03-30 2018-01-10 マツダ株式会社 電子ミラー制御装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013183298A (ja) * 2012-03-02 2013-09-12 Nissan Motor Co Ltd 車両用後方視界支援装置及び車両用後方視界支援方法
JP2014116756A (ja) * 2012-12-07 2014-06-26 Toyota Motor Corp 周辺監視システム
JP2015201680A (ja) * 2014-04-04 2015-11-12 富士通株式会社 画像表示装置、画像表示方法及び画像表示プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7506036B2 (ja) 2021-07-29 2024-06-25 Kddi株式会社 鏡像弁別装置、方法およびプログラム
CN117011830A (zh) * 2023-08-16 2023-11-07 微牌科技(浙江)有限公司 图像识别方法、装置、计算机设备、存储介质
CN117011830B (zh) * 2023-08-16 2024-04-26 微牌科技(浙江)有限公司 图像识别方法、装置、计算机设备、存储介质

Also Published As

Publication number Publication date
JPWO2019177036A1 (ja) 2021-03-11
JP7258847B2 (ja) 2023-04-17
CN111886858B (zh) 2022-06-21
CN111886858A (zh) 2020-11-03

Similar Documents

Publication Publication Date Title
US10029621B2 (en) Rear view camera system using rear view mirror location
US9681062B2 (en) Vehicle camera image quality improvement in poor visibility conditions by contrast amplification
US20180015879A1 (en) Side-view mirror camera system for vehicle
US20090102858A1 (en) Virtual spotlight for distinguishing objects of interest in image data
JP5459154B2 (ja) 車両用周囲画像表示装置及び方法
KR101778173B1 (ko) 이미지들을 디스플레이하기 위한 차량의 백미러 조립체
US20140139676A1 (en) Vehicle vision system with enhanced display functions
JP6321178B2 (ja) ヘッドライトフラッシャーの検知後に自動車の後方視野用カメラシステムを操作する方法、後方視野用カメラシステムおよび自動車
US8477191B2 (en) On-vehicle image pickup apparatus
JP2016523204A (ja) ミラー代替手段、並びに、車両
KR101552444B1 (ko) 시각 시스템
JP2010058742A (ja) 車両用運転支援装置
JP2008044603A (ja) 車両用防眩装置
US20180172993A1 (en) Side view safety display in a motor vehicle
WO2019177036A1 (ja) 車両用映像システム
CN113365021B (zh) 用于机动车辆的增强型成像系统
JP5716944B2 (ja) 車載カメラ装置
JP2023072683A (ja) カメラモニタシステム用の自動赤外線led制御
GB2548598A (en) Display system and method
JP2016136326A (ja) 情報表示装置および情報表示方法
JP7051667B2 (ja) 車載装置
JP2001239882A (ja) 車載用周辺視認装置
JP6327388B2 (ja) 撮影画像表示装置、撮影画像表示方法および撮影画像表示プログラム
US10432891B2 (en) Vehicle head-up display system
WO2014010179A1 (ja) 車両用視界支援装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19767906

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020506613

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19767906

Country of ref document: EP

Kind code of ref document: A1