WO2022244600A1 - 車載表示制御装置 - Google Patents

車載表示制御装置 Download PDF

Info

Publication number
WO2022244600A1
WO2022244600A1 PCT/JP2022/018719 JP2022018719W WO2022244600A1 WO 2022244600 A1 WO2022244600 A1 WO 2022244600A1 JP 2022018719 W JP2022018719 W JP 2022018719W WO 2022244600 A1 WO2022244600 A1 WO 2022244600A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
windshield
unit
video data
image
Prior art date
Application number
PCT/JP2022/018719
Other languages
English (en)
French (fr)
Inventor
誠 長谷川
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2022244600A1 publication Critical patent/WO2022244600A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present disclosure relates to a device for projecting video data onto the windshield of a vehicle.
  • An AR-HUD (Augmented Reality Head Up Display) device installed in a vehicle detects objects such as traffic lights and signs from images captured by a camera, and generates images such as lines and frames corresponding to those objects. is projected onto the windshield and superimposed on the objects in the actual scenery.
  • objects such as traffic lights and signs from images captured by a camera
  • images such as lines and frames corresponding to those objects. is projected onto the windshield and superimposed on the objects in the actual scenery.
  • various techniques have been proposed for correcting the projection position so that the image can be viewed naturally by the driver without causing deviation in the position where the image is projected even while the vehicle is running.
  • the present disclosure has been made in view of the above circumstances, and its purpose is to provide an in-vehicle display control device capable of more accurately correcting the position of video data projected onto a windshield.
  • the video data generation unit detects an object existing in front of the vehicle from the image data input from the imaging unit that captures an image in front of the vehicle, and detects the position of the detected object.
  • Image data to be displayed on the windshield of the vehicle is generated according to the time.
  • the distortion corrector corrects the image data according to the shape of the windshield.
  • the position correction unit corrects the position of projecting the image data onto the windshield, and the image projection unit projects the image data of the position corrected by the position correction unit onto the windshield.
  • the position correcting unit uses the traveling information about traveling of the vehicle acquired by the traveling information acquiring unit to correct the position, and the video data projected on the windshield by the video projecting unit and the image data input from the imaging unit. Corrects the position projected onto the windshield by comparing the In this manner, not only is vehicle travel information used to correct the position of the image data, but also the position of the image data is compared with the position of the image data input from the imaging unit, thereby sufficiently correcting the deviation from the object in the actual scenery. can be resolved to
  • FIG. 1 is a functional block diagram showing the configuration of an in-vehicle display control device in one embodiment
  • FIG. 2 is a flowchart showing the contents of control
  • FIG. 3 is a diagram (part 1) showing an example of correcting the projection position of the object image
  • FIG. 4 is a diagram (part 2) showing an example of correcting the projection position of the object image
  • FIG. 5 is a diagram (part 3) showing an example of correcting the projection position of the object image
  • FIG. 6 is a diagram (part 4) showing an example of correcting the projection position of the object image.
  • the in-vehicle display control device 1 of this embodiment which is an AR-HUD device, is mainly configured with a SoC (System on Chip) 2 on which a microcomputer or the like is mounted.
  • a camera 3 which is an example of an imaging unit, inputs video data obtained by capturing an image in front of the vehicle to the SoC 2.
  • SoC 2 includes a DRAM controller 4, which controls access to DRAM 5 by SoC 2.
  • the SoC 2 also includes an object detection unit 6, a distortion correction unit 7, a positional deviation correction unit 8, and an AR-HUD superimposition unit 9, which are functional blocks realized by hardware and software.
  • Video data input from camera 3 is stored in area 5 A of DRAM 5 .
  • the object detection unit 6 corresponding to the image data generation unit detects objects such as white lines, traffic lights, and signs on the road from the image data read from the area 5A, processes the shapes of the objects, and determines the shape of the vehicle.
  • Object data to be projected as an image on the windshield 10, which is a windshield, is generated.
  • the generated object data is stored in the area 5B of the DRAM5. For example, if the object is a white line on a road, the "object data" is an image of lines along the white line. is.
  • the distortion correction unit 7 corrects the distortion of the shape of the object data read from the area 5B according to the shape of the windshield 10.
  • the corrected object data is stored in area 5C of DRAM5.
  • the sub-microcomputer 11 which is an example of the driving information acquisition unit, communicates with an ECU (Electronic Control Unit) or the like located in each part of the vehicle from an in-vehicle LAN such as CAN (registered trademark). Receives vehicle information including vehicle speed obtained from, angular velocity obtained from a gyro sensor, vehicle position information obtained from GPS (Global Positioning System) / GNSS (Global Navigation Satellite System), etc. Then, the received vehicle information is input to the positional deviation correction unit 8 . Vehicle information corresponds to travel information.
  • ECU Electronic Control Unit
  • GNSS Global Navigation Satellite System
  • the positional deviation correction unit 8 corresponding to the position correction unit adjusts the position of the object data projected on the windshield 10 so that the position of the object data projected onto the windshield 10 overlaps the position of the corresponding object in the actual scenery. corrected to The position-corrected object data is stored in the area 5D of the DRAM 5.
  • FIG. The AR-HUD superimposing unit 9 corresponding to the image projecting unit projects the image of the object data onto the windshield 10 after reading the object data from the area 5D.
  • the positional deviation correction unit 8 reads video data from the area 5A, acquires the object data projected onto the windshield 10 by the AR-HUD superimposition unit 9, and uses these data when performing the above correction. .
  • FIG. 2 the process of storing the image data of the front of the vehicle captured by the camera 3 in the area 5A of the DRAM 5 is indicated as "video input capture” (S1).
  • the object detection unit 6 detects objects such as white lines, traffic lights, and signs from the image data read out from the area 5A, and processes the shapes of the objects to generate object data (S2).
  • the distortion correction unit 7 corrects the distortion of the shape of the object data read from the area 5B so as to match the shape of the windshield 10 (S3). If vehicle information can be obtained from the sub-microcomputer 11 (S4; YES), the positional deviation correction unit 8 takes in the vehicle information (S5). Further, if there is image data captured by the camera 3 at that time (S6; YES), the positional deviation correction unit 8 takes in the image data from the area 5A (S7). Furthermore, the output information of the object data projected onto the windshield 10 by the AR-HUD superimposing unit 9 at that time is taken in (S8).
  • the positional deviation correction unit 8 predicts the moving position of the object visually recognized by the vehicle occupant through the windshield 10 based on the vehicle speed, etc. By comparing with the projected object data, feedback correction is performed so that the position of the object data projected onto the windshield 10 overlaps the position of the corresponding object in the actual scenery (S9).
  • the positional deviation correction unit 8 outputs the object data whose superimposing position is corrected to the AR-HUD superimposing unit 9 via the area 5D (S10).
  • the AR-HUD superimposing unit 9 projects the image of the object data onto the windshield 10 (S11).
  • the angular velocity of the gyro sensor obtained as vehicle information is used, and feedback correction is also performed to correct the object. Corrects the horizontal tilt of the image.
  • the tilt of the image of the object in the vertical direction is corrected based on the angular velocity of the gyro sensor as well as feedback correction.
  • the GPS/GNSS positional information obtained as vehicle information contains an error, and if only correcting the projected position of the object image based on the positional information causes a deviation.
  • positional deviation of the object image can be corrected.
  • the object detection unit 6 of the in-vehicle display control device 1 detects an object existing in front of the vehicle from image data input from the camera 3 that captures an image in front of the vehicle. , to generate video data to be displayed on the windshield 10 of the vehicle in accordance with the position of the detected object.
  • the distortion corrector 7 corrects the image data according to the shape of the windshield 10 .
  • the positional deviation correcting unit 8 corrects the position of projecting the image data onto the windshield 10
  • the AR-HUD superimposing unit 9 projects the image data of the position corrected by the positional deviation correcting unit 8 onto the windshield 10 .
  • the positional deviation correction unit 8 uses the vehicle information regarding the running of the vehicle acquired by the sub-microcomputer 11 for position correction, and also uses the image data and the camera projected on the windshield 10 by the AR-HUD superimposition unit 9.
  • the projection position is corrected by comparing with the image data input from 3.
  • the vehicle information is used to correct the position of the image data
  • the position of the object image and the actual scene are corrected by comparing the position of the image data with the position of the image data input from the imaging unit and performing feedback correction. It becomes possible to sufficiently eliminate the deviation from the position of the object inside.
  • the memory to be used is not limited to the DRAM 5.
  • the vehicle information does not have to be acquired via the sub-microcomputer 11, and any device compatible with the in-vehicle communication protocol may be used.
  • the controller and techniques described in this disclosure may be implemented by a dedicated computer provided by configuring a processor and memory programmed to perform one or more functions embodied by the computer program.
  • the controls and techniques described in this disclosure may be implemented by a dedicated computer provided by configuring the processor with one or more dedicated hardware logic circuits.
  • the control units and techniques described in this disclosure can be implemented by a combination of a processor and memory programmed to perform one or more functions and a processor configured by one or more hardware logic circuits. It may also be implemented by one or more dedicated computers configured.
  • the computer program may also be stored as computer-executable instructions on a computer-readable non-transitional tangible recording medium.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Instrument Panels (AREA)

Abstract

物体検出部6は車両の前方の画像を撮像するカメラ3より入力される画像データから車両の前方に存在する物体を検出し、検出した物体の位置に合わせて車両のフロントガラス10に表示させる映像データを生成する。歪み補正部7はその映像データをフロントガラス10の形状に合わせて補正する。位置ずれ補正部8は映像データをフロントガラス10に投影する位置を補正し、AR-HUD重畳部9は位置ずれ補正部8により補正された位置の映像データをフロントガラス10に投影する。位置ずれ補正部8は、位置の補正に車両情報を用いると共に、AR-HUD重畳部9がフロントガラス10に投影している映像データとカメラ3より入力される画像データとを比較して投影する位置を補正する。

Description

車載表示制御装置 関連出願の相互参照
 本出願は、2021年5月18日に出願された日本出願番号2021-83905号に基づくもので、ここにその記載内容を援用する。
 本開示は、車両のウインドシールドに映像データを投影する装置に関する。
 車両に搭載されるAR-HUD(Augmented Reality Head Up Display)装置では、カメラにより撮像した画像から信号機や標識等の物体を検出し、その物体に対応した線や枠などの画像を生成すると、画像をウインドシールドに投影して実風景中の物体に重畳させる。その際に、車両の走行中でも画像を投影する位置にずれを発生させることなく、画像が運転者に自然に見えるように、投影位置を補正する技術も様々に提案されている。
特開2018-58544号公報
 しかしながら、単に車速等の走行情報を用いるだけでは画像の投影位置を十分に補正できず、実風景中の物体とのずれが生じてドライバーに違和感を与えることがあった。
 本開示は上記事情に鑑みてなされたものであり、その目的は、ウインドシールドに投影する映像データの位置をより高精度に補正できる車載表示制御装置を提供することにある。
 本開示の車載表示制御装置によれば、映像データ生成部は、車両の前方の画像を撮像する撮像部より入力される画像データから車両の前方に存在する物体を検出し、検出した物体の位置に合わせて車両のウインドシールドに表示させる映像データを生成する。歪み補正部は、その映像データをウインドシールドの形状に合わせて補正する。位置補正部は、映像データをウインドシールドに投影する位置を補正し、映像投影部は、位置補正部により補正された位置の映像データをウインドシールドに投影する。
 また、位置補正部は、位置の補正に走行情報取得部が取得した車両の走行に関する走行情報を用いると共に、映像投影部がウインドシールドに投影している映像データと撮像部より入力される画像データとを比較することでウインドシールドに投影する位置を補正する。このように、映像データの位置補正に車両の走行情報を用いるだけなく、映像データの位置を撮像部より入力される画像データの位置と比較することにより、実風景中の物体とのずれを十分に解消できるようになる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1は、一実施形態において、車載表示制御装置の構成を示す機能ブロック図であり、 図2は、制御内容を示すフローチャートであり、 図3は、オブジェクト映像の投影位置を補正する一例を示す図(その1)であり、 図4は、オブジェクト映像の投影位置を補正する一例を示す図(その2)であり、 図5は、オブジェクト映像の投影位置を補正する一例を示す図(その3)であり、 図6は、オブジェクト映像の投影位置を補正する一例を示す図(その4)である。
 図1に示すように、AR-HUD装置である本実施形態の車載表示制御装置1は、マイクロコンピュータ等が搭載されるSoC(System on Chip)2を中心に構成されている。撮像部の一例であるカメラ3は、車両の前方の画像を撮像した映像データをSoC2に入力する。SoC2は、DRAMコントローラ4を備えており、DRAMコントローラ4は、SoC2によるDRAM5に対するアクセスを制御する。
 また、SoC2は、ハードウェア及びソフトウェアにより実現される機能ブロックである物体検出部6,歪み補正部7,位置ずれ補正部8,AR-HUD重畳部9を備えている。カメラ3より入力された映像データは、DRAM5のエリア5Aに格納される。
 映像データ生成部に相当する物体検出部6は、エリア5Aより読み出した映像データより、道路上にある例えば白線や信号機,標識等の物体を検出し、その物体の形状を加工して、車両のウインドシールドであるフロントガラス10に映像として投影するオブジェクトデータを生成する。生成したオブジェクトデータは、DRAM5のエリア5Bに格納される。ここで「オブジェクトデータ」は、例えば物体が道路上の白線であれば、その白線に沿う線の映像であり、物体が信号機や標識等であれば、その外周側を取り囲むような枠線の映像である。
 歪み補正部7は、エリア5Bより読み出したオブジェクトデータの形状を、フロントガラス10の形状に合わせて歪み補正する。補正されたオブジェクトデータは、DRAM5のエリア5Cに格納される。
 走行情報取得部の一例であるサブマイコン11は、車両の各部に配置されているECU(Electronic Control Unit)等と、例えばCAN(登録商標)等の車載LANより通信を行い、ECUが車速センサ等から取得した車速や、ジャイロセンサより取得される角速度,GPS(Global Positioning System)/GNSS(Global Navigation Satellite System)等により取得される車両の位置情報等を含む車両情報を受信する。そして、受信した車両情報を位置ずれ補正部8に入力する。車両情報は走行情報に相当する。
 位置補正部に相当する位置ずれ補正部8は、エリア5Cよりオブジェクトデータを読み出すと、車速等に基づいて、フロントガラス10に投影するオブジェクトデータの位置が実風景の対応する物体の位置に重なるように補正する。位置が補正されたオブジェクトデータは、DRAM5のエリア5Dに格納される。映像投影部に相当するAR-HUD重畳部9は、エリア5Dよりオブジェクトデータを読み出すと、そのオブジェクトデータの映像をフロントガラス10に投影する。
 また、位置ずれ補正部8は、エリア5Aより映像データ読み出すと共に、AR-HUD重畳部9がフロントガラス10に投影したオブジェクトデータを取得して、これらのデータも上記の補正を行う際に利用する。
 次に、本実施形態の作用について説明する。図2において、カメラ3が撮像した車両前方の映像データをDRAM5のエリア5Aに格納する処理を「Video入力キャプチャ」として示している(S1)。物体検出部6は、エリア5Aより読み出した映像データより、上述した白線や信号機,標識等の物体を検出し、その物体の形状を加工してオブジェクトデータを生成する(S2)。
 歪み補正部7は、エリア5Bより読み出したオブジェクトデータの形状を、フロントガラス10の形状に合わせて歪み補正する(S3)。サブマイコン11より車両情報が得られる場合(S4;YES)、位置ずれ補正部8はその車両情報を取り込む(S5)。また、位置ずれ補正部8は、その時点でカメラ3が撮像した映像データが存在すれば(S6;YES)、エリア5Aよりその映像データを取り込む(S7)。更に、その時点でAR-HUD重畳部9がフロントガラス10に投影しているオブジェクトデータの出力情報を取り込む(S8)。
 そして、位置ずれ補正部8は、車速等に基づいて、フロントガラス10を介して車両の乗員に視認される物体の移動位置を予測すると共に、エリア5Aより取り込んだ映像データと、フロントガラス10に投影されているオブジェクトデータとを比較することで、フロントガラス10に投影されるオブジェクトデータの位置が実風景の対応する物体の位置に重なるようにフィードバック補正する(S9)。位置ずれ補正部8は、エリア5Dを介して重畳位置が補正されたオブジェクトデータをAR-HUD重畳部9に出力する(S10)。AR-HUD重畳部9は、そのオブジェクトデータの映像をフロントガラス10に投影する(S11)。
 図3に示す一例のように、時刻t=t0にカメラ3により撮像された映像データについて、道路上の白線や信号機、標識等を強調して車両の運転者に視認させるため、白線に沿う線や、信号機、標識等を囲む枠線がオブジェクトデータとして生成される。そして、時刻t=(t0+Δt)において、フロントガラス10を介して運転車が実風景に重ねて視認するオブジェクトデータの各位置を車速等の車両情報に基づいて補正し、AR-HUD重畳部9によりフロントガラス10に投影させる。
 この段階で、投影された各オブジェクトの映像の位置と、実風景上の対応する物体の位置との間にずれが生じているとしても、位置ずれ補正部8が上記のように、両者の位置が重なるようにフィードバック補正することで、時刻t=(t0+2Δt)では、各オブジェクトの映像の位置と対応する物体の位置とが重なるように補正される。
 また、図4に示す一例のように、車両が縁石等を踏んで車体が傾いた際には、車両情報として得られるジャイロセンサの角速度に基づくと共に、併せてフィードバック補正を行うことで、オブジェクトの映像の横方向の傾きを補正する。また、図5に示す一例のように、車両が坂道を登る際には、同じくジャイロセンサの角速度に基づくと共に、併せてフィードバック補正を行うことで、オブジェクトの映像の縦方向の傾きを補正する。
 更に、図6に示す一例のように、車両情報として得られるGPS/GNSSの位置情報に誤差が含まれており、その位置情報に基づいてオブジェクト映像の投影位置を補正するだけではずれが生じる場合でも、併せてフィードバック補正を行うことでオブジェクト映像の位置ずれを補正できる。
 以上のように本実施形態によれば、車載表示制御装置1の物体検出部6は、車両の前方の画像を撮像するカメラ3より入力される画像データから車両の前方に存在する物体を検出し、検出した物体の位置に合わせて車両のフロントガラス10に表示させる映像データを生成する。歪み補正部7は、その映像データをフロントガラス10の形状に合わせて補正する。位置ずれ補正部8は、映像データをフロントガラス10に投影する位置を補正し、AR-HUD重畳部9は、位置ずれ補正部8により補正された位置の映像データをフロントガラス10に投影する。
 その際に、位置ずれ補正部8は、位置の補正にサブマイコン11が取得した車両の走行に関する車両情報を用いると共に、AR-HUD重畳部9がフロントガラス10に投影している映像データとカメラ3より入力される画像データとを比較することで投影する位置を補正する。このように、映像データの位置補正に車両情報を用いるだけなく、映像データの位置を撮像部より入力される画像データの位置と比較してフィードバック補正を行うことで、オブジェクト映像の位置と実風景中の物体の位置とのずれを十分に解消できるようになる。
  (その他の実施形態)
 必ずしもSoc2を用いて車載表示制御装置1を構成する必要はない。
 使用するメモリはDRAM5に限らない。
 車両情報は、サブマイコン11を介して取得する必要はなく、車載通信のプロトコルに対応したデバイスであれば良い。
 本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。
 本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリーを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の制御部及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の制御部及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。

Claims (1)

  1.  車両の前方の画像を撮像する撮像部(3)と、
     この撮像部より入力される画像データから車両の前方に存在する物体を検出し、検出した物体の位置に合わせて車両のウインドシールドに表示させる映像データを生成する映像データ生成部(6)と、
     前記映像データを、前記ウインドシールドの形状に合わせて補正する歪み補正部(7)と、
     前記車両の走行に関する走行情報を取得する走行情報取得部(11)と、
     前記映像データを前記ウインドシールドに投影する位置を補正する位置補正部(8)と、
     この位置補正部により補正された位置の映像データを前記ウインドシールド(10)に投影する映像投影部(9)とを備え、
     前記位置補正部は、前記走行情報を用いると共に、前記映像投影部が前記ウインドシールドに投影している映像データと前記撮像部より入力される画像データとを比較することで、前記ウインドシールドに投影する位置を補正する車載表示制御装置。
PCT/JP2022/018719 2021-05-18 2022-04-25 車載表示制御装置 WO2022244600A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-083905 2021-05-18
JP2021083905A JP2022177558A (ja) 2021-05-18 2021-05-18 車載表示制御装置

Publications (1)

Publication Number Publication Date
WO2022244600A1 true WO2022244600A1 (ja) 2022-11-24

Family

ID=84141390

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/018719 WO2022244600A1 (ja) 2021-05-18 2022-04-25 車載表示制御装置

Country Status (2)

Country Link
JP (1) JP2022177558A (ja)
WO (1) WO2022244600A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021044741A1 (ja) * 2019-09-05 2021-03-11 株式会社デンソー 表示制御装置、表示制御プログラム及びヘッドアップディスプレイ

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021044741A1 (ja) * 2019-09-05 2021-03-11 株式会社デンソー 表示制御装置、表示制御プログラム及びヘッドアップディスプレイ

Also Published As

Publication number Publication date
JP2022177558A (ja) 2022-12-01

Similar Documents

Publication Publication Date Title
CN110573369B (zh) 平视显示器装置及其显示控制方法
US10676027B2 (en) Vehicle control apparatus and program
US11181743B2 (en) Head up display apparatus and display control method thereof
JP4193886B2 (ja) 画像表示装置
US9895974B2 (en) Vehicle control apparatus
WO2017018400A1 (ja) 車両用表示装置
US20090086019A1 (en) Driving support device, driving support method and computer program
EP3002727B1 (en) Periphery monitoring apparatus and periphery monitoring system
JP6586849B2 (ja) 情報表示装置及び情報表示方法
JP4772409B2 (ja) 画像表示システム
JP7426174B2 (ja) 車両周囲画像表示システム及び車両周囲画像表示方法
WO2016129552A1 (ja) カメラパラメータ調整装置
US12101580B2 (en) Display control apparatus, display control method, and program
JP2010154304A (ja) 移動体カメラシステム及び駆動方法
JP2020086956A (ja) 撮影異常診断装置
WO2022244600A1 (ja) 車載表示制御装置
JP2007221199A (ja) 車載カメラ表示装置及び画像処理装置
JP2009214831A (ja) 車両用表示装置
JP2024038527A (ja) 信号処理装置、信号処理方法及び信号処理システム
US20230245468A1 (en) Image processing device, mobile object control device, image processing method, and storage medium
CN115195600A (zh) 控制装置、控制装置的动作方法以及存储介质
JP7122394B2 (ja) 撮像部制御装置
JP2018060456A (ja) 車両用制限速度検出装置
US20210217146A1 (en) Image processing apparatus and image processing method
JP7554699B2 (ja) 画像処理装置および画像処理方法、車両用制御装置、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22804514

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22804514

Country of ref document: EP

Kind code of ref document: A1