JP7031799B1 - Image processing device, image processing method, and image processing program - Google Patents
Image processing device, image processing method, and image processing program Download PDFInfo
- Publication number
- JP7031799B1 JP7031799B1 JP2021557564A JP2021557564A JP7031799B1 JP 7031799 B1 JP7031799 B1 JP 7031799B1 JP 2021557564 A JP2021557564 A JP 2021557564A JP 2021557564 A JP2021557564 A JP 2021557564A JP 7031799 B1 JP7031799 B1 JP 7031799B1
- Authority
- JP
- Japan
- Prior art keywords
- image
- brightness
- road surface
- surface lighting
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q1/00—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
- B60Q1/02—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
- B60Q1/04—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q1/00—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
- B60Q1/26—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
- B60Q1/50—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
路面ライティングECU110は、従来のように一定の輝度で路面ライティング画像201を投影するのではなく、所定の輝度変化パターンで経時的に輝度を変化させた路面ライティング画像201を投影する。そして、カメラECU120は、輝度変化パターンで経時的に輝度が変化する領域を撮影画像から特定し、特定した領域の輝度値が低くなるように撮影データを調整する。そして、メインSoC130は、輝度値が調整された撮影データに応じた撮影画像を表示部135に表示する。これにより、撮影画像に路面ライティング画像201が写り込んだ場合であっても、輝度値が調整されて路面ライティング画像201を視認し難くなった撮影画像が表示部135に表示される。The road surface lighting ECU 110 does not project the road surface lighting image 201 with a constant brightness as in the conventional case, but projects the road surface lighting image 201 whose brightness is changed with time by a predetermined brightness change pattern. Then, the camera ECU 120 identifies a region where the brightness changes with time in the brightness change pattern from the captured image, and adjusts the captured data so that the luminance value of the specified region becomes low. Then, the main SoC 130 displays the captured image corresponding to the captured data whose brightness value is adjusted on the display unit 135. As a result, even when the road surface lighting image 201 is reflected in the captured image, the captured image whose brightness value is adjusted to make it difficult to visually recognize the road surface lighting image 201 is displayed on the display unit 135.
Description
この発明は、画像処理装置、画像処理方法、及び、画像処理プログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and an image processing program.
従来から、カメラで撮影した車外の画像を車内の表示画面に表示することで、運転手の運転を支援する技術がある。また、例えば、車両の進行方向や注意喚起を示す画像を車両の周辺の路面に投影することで、車両の周辺に存在する歩行者に対して情報を伝達する技術がある(特許文献1)。以降、車両の周辺の路面に投影された画像を「路面画像」、カメラで撮影した車外の画像を「撮影画像」と称する。 Conventionally, there is a technology for assisting a driver's driving by displaying an image of the outside of the vehicle taken by a camera on a display screen inside the vehicle. Further, for example, there is a technique for transmitting information to pedestrians existing around the vehicle by projecting an image showing the traveling direction of the vehicle or calling attention on the road surface around the vehicle (Patent Document 1). Hereinafter, the image projected on the road surface around the vehicle is referred to as a "road surface image", and the image outside the vehicle taken by the camera is referred to as a "photographed image".
ところで、カメラの撮影中に路面画像が投影された場合、路面画像の写り込んだ撮影画像が表示画面に表示されることになる。例えば、路面画像が注意喚起を示す場合、注意喚起を示す画像が車内の表示画面に表示されることになる。この場合、乗員は、表示画面に表示された注意喚起を示す情報が、乗員に対する情報なのか、車外に存在する歩行者に対する情報なのか識別し難い。その為、乗員は、路面画像の写り込んだ撮影画像が表示画面に表示されることに対して、煩わしさを感じることがあった。 By the way, when the road surface image is projected during the shooting by the camera, the shot image in which the road surface image is reflected is displayed on the display screen. For example, when the road surface image shows a warning, the image showing the warning is displayed on the display screen in the vehicle. In this case, it is difficult for the occupant to identify whether the information indicating the alert displayed on the display screen is the information for the occupant or the information for the pedestrian existing outside the vehicle. Therefore, the occupant may feel annoyed that the photographed image in which the road surface image is reflected is displayed on the display screen.
この発明は、前述のような問題を解決するものであり、車両の周辺の路面に投影された路面画像を撮影した画像を表示画面に表示する場合であっても、煩わしさを低減することを目的とする。 The present invention solves the above-mentioned problems, and reduces annoyance even when an image obtained by capturing a road surface image projected on a road surface around a vehicle is displayed on a display screen. The purpose.
この発明に係る表示処理装置は、車両の周辺の路面に所定のパターンで経時的に輝度が変化する画像を投影する投影制御部と、前記車両の周辺を撮影した撮影画像を取得する取得部と、前記取得部で取得した前記撮影画像に対応した撮影データを格納する記憶部と、前記記憶部に格納した前記撮影データに対応した撮影画像から、前記パターンで経時的に輝度が変化する領域を特定し、当該特定した領域における輝度値が低くなるように、前記撮影データを調整する輝度調整部と、前記輝度調整部により輝度値が調整された前記撮影データに応じた撮影画像を表示部に出力する表示出力部とを備えることを特徴とするものである。
The display processing device according to the present invention includes a projection control unit that projects an image whose brightness changes with time in a predetermined pattern on a road surface around the vehicle, and an acquisition unit that acquires a photographed image of the periphery of the vehicle. From the storage unit that stores the shooting data corresponding to the shot image acquired by the acquisition unit and the shot image corresponding to the shot data stored in the storage unit, a region in which the brightness changes with time in the pattern is defined. A brightness adjustment unit that adjusts the shooting data so that the brightness value in the specified area becomes low, and a shot image corresponding to the shooting data whose brightness value is adjusted by the brightness adjustment unit are displayed on the display unit. It is characterized by having a display output unit for outputting.
この発明は、車両の周辺の路面に投影された路面画像を撮影した画像を表示画面に表示する場合であっても、煩わしさを低減することができるという効果を奏する。 INDUSTRIAL APPLICABILITY The present invention has an effect that annoyance can be reduced even when an image obtained by capturing a road surface image projected on a road surface around a vehicle is displayed on a display screen.
本開示における画像処理装置は、自動車に備えられているものとする。以降の説明において、画像処理装置を備えた自動車を「車両」と称する。 The image processing device in the present disclosure shall be provided in an automobile. In the following description, a vehicle equipped with an image processing device will be referred to as a "vehicle".
実施の形態1.
図1は、本実施の形態に係る画像処理装置100の構成を示す図である。画像処理装置100は、路面ライティングECU(Electric・Control・Unit)110、カメラECU120、メインSoC(System-on-a-Chip)130、及び、車載通信バス101を備える。路面ライティングECU110、カメラECU120、及び、メインSoC130は、夫々車載通信バス101によって接続される。なお、車載通信バス101は、他の接続形態によっても本発明は実施可能である。Embodiment 1.
FIG. 1 is a diagram showing a configuration of an
路面ライティングECU110は、CPU(Central・Processing・Unit)111(ただし、CPUコアは複数個備えていてもよい。)、メモリ112、インタフェース113、ストレージ114を備える。インタフェース113は、投影部115に接続されている。投影部115は、例えば、プロジェクタである。投影部115は、例えば、車両の進行方向や注意喚起といった、車両の周辺に存在する人間(歩行者、他車両の乗員)に対して報知したい情報を示す画像を車両の周辺の路面に投影する。以降、車両の周辺の路面に投影された画像を「路面ライティング画像」と称する。また、路面ライティング画像を路面に投影することを「路面ライティング」と称する。なお、路面ライティング画像は、静止画像、及び/又は、動画像を含む。CPU111は、路面ライティングECU110の制御を行う演算装置である。メモリ112は、例えば、揮発性記憶装置であり、CPU111が実行するプログラム、スタック、変数などを記憶する。ストレージ114は、例えば、フラッシュメモリなどの不揮発性記憶装置であり、プログラム、路面ライティング画像を示す画像データなどのデータを記憶する。なお、本実施の形態において、画像処理装置100は、投影部115を構成の一部としたが、投影部115を外部の構成としても良い。
The road surface lighting ECU 110 includes a CPU (Central Processing Unit) 111 (however, a plurality of CPU cores may be provided), a
カメラECU120は、CPU121、メモリ122、インタフェース123、ストレージ124を備える。インタフェース123は、カメラ125に接続されている。カメラ125は、車両の周辺を撮影して撮影データを生成する。従って、撮影中に路面ライティング画像が投影された場合、カメラ125は、路面ライティング画像の写り込んだ撮影画像を生成することになる。なお、本実施の形態において、画像処理装置100は、カメラ125を構成の一部としたが、カメラ125を外部の構成としても良い。また、インタフェース123は、複数のカメラ125に接続されていても良い。
The camera ECU 120 includes a
メインSoC130は、CPU131、メモリ132、インタフェース133、ストレージ134を備える。インタフェース133は、表示部135に接続されている。表示部135は、例えば、カーナビゲーションシステムやルームミラーなどに設けられた液晶画面である。表示部135は、撮影データに応じた撮影画像を表示する。なお、本実施の形態において、画像処理装置100は、表示部135を構成の一部としたが、表示部135を外部の構成としても良い。
The
図2は、画像処理装置100上で動作するソフトウェアを示す概念図である。路面ライティングECU110のCPU111は、オペレーティングシステム141を起動する。また、路面ライティングECU110のCPU111は、このオペレーティングシステム141上で、通信ライブラリ142、路面ライトドライバ143、及び、路面ライティングアプリ140を動作させる。路面ライティングアプリ140は、路面ライトドライバ143を駆動して路面ライティングを実施する。
FIG. 2 is a conceptual diagram showing software operating on the
カメラECU120のCPU121は、オペレーティングシステム151を起動する。また、カメラECU120のCPU121は、このオペレーティングシステム151上で、通信ライブラリ152、カメラドライバ153、及び、カメラアプリ150を動作させる。カメラアプリ150は、カメラドライバ153を駆動して車両の周辺を撮影し、撮影により生成され撮影データをメインSoC130に順次送信する。
The
メインSoC130のCPU131は、オペレーティングシステム161を起動する。また、メインSoC130のCPU131は、このオペレーティングシステム161上で、通信ライブラリ162、ディスプレイドライバ163、及び、運転支援アプリ160を動作させる。運転支援アプリ160は、カメラECU120から送信された撮影データを受信する。また、運転支援アプリ160は、ディスプレイドライバ163を駆動して撮影データに応じた撮影画像を表示部135に表示させる。
The
それぞれのオペレーティングシステムと通信ライブラリは同種・異種にかかわらず、本発明は実施可能である。 The present invention can be carried out regardless of whether each operating system and communication library are of the same type or different types.
図3は、カメラECU120のメモリ122の概念図である。
カメラドライバ153は、メモリ122の一部分をフレームバッファ171として使用する。フレームバッファ171は、カメラ125によって撮影された撮影画像(静止画像)を映像(動画像)としてエンコードするまでの一時保存のために使用される。カメラアプリ150は、撮影された1コマ単位の撮影データをフレームバッファ171に順次格納する。また、カメラアプリ150は、フレームバッファ171の終端まで撮影データを格納した場合には、フレームバッファ171の先頭に戻って撮影データの格納を再開する。さらに、カメラアプリ150は、フレームバッファ171に格納されている撮影データを1コマもしくは複数コマ単位で映像としてエンコードする。このエンコード手法には一般的な技術が使用される。なお、本開示においては、エンコード前のデータとエンコード後のデータを区別せずに「撮影データ」と称する。FIG. 3 is a conceptual diagram of the
The
図4は、自車両200の周辺の路面に対して投影部115から投影された路面ライティング画像201を示す概念図である。図4の下方が自車両200の前方、図4の上方が自車両200の後方を示す。自車両200の後方には、投影部115及びカメラ125が設けられている。撮影範囲202は、カメラ125で撮影される範囲を示している。非照射領域203は、撮影範囲202に含まれるが、路面ライティング画像201が照射されなかった領域を示している。路面ライティング画像201が照射された領域の輝度を計測した輝度値は、非照射領域203の輝度を計測した輝度値よりも高い。その為、乗員は、路面画像の写り込んだ撮影画像が表示画面に表示されることに対して、煩わしさを感じることがあった。なお、路面ライティング画像201は、自車両200が後退しながら左折するときの形状を示しているが、投影される画像及びタイミングはこれに限られない。
FIG. 4 is a conceptual diagram showing a road
図5は、従来の路面ライティング画像201をカメラ125で撮影したときにフレームバッファ171に格納される撮影データの例である。フレーム403A~Eには、経時的に生成された撮影データが1フレーム単位で格納される。従来の路面ライティングECUは、一定の輝度で路面ライティング画像を投影する。そのため、フレーム403A~Eには、表示周期に関わらず、一定の輝度値の路面ライティング画像を含む撮影画像が格納される。以降の説明において、フレーム403A~Eの夫々を区別して説明する必要が無い場合には、末尾の英字を省略する。
FIG. 5 is an example of shooting data stored in the
本実施の形態における路面ライティングECU110は、従来のように一定の輝度で路面ライティング画像201を投影するのではなく、所定のパターン(以下、輝度変化パターンと称する)で経時的に輝度を変化させた路面ライティング画像201を投影する。そして、カメラECU120は、輝度変化パターンで経時的に輝度が変化する領域を撮影画像から特定し、特定した領域の輝度値が低くなるように撮影データを調整する。そして、メインSoC130は、輝度値が調整された撮影データに応じた撮影画像を表示部135に表示する。これにより、撮影画像に路面ライティング画像201が写り込んだ場合であっても、輝度値が調整されて路面ライティング画像201を視認し難くなった撮影画像が表示部135に表示されることになる。
The road
図6において、従来の輝度変化パターン410は、周期とは関係なく、一定の輝度(高輝度)に設定される。これに対し、本開示の輝度変化パターン411は、路面ライティング画像201を投影する輝度値が区間412ごとに設定される。区間412は、輝度変化パターンを構成する最小の区間を示す。輝度変化パターン411は、例えば、高輝度、高輝度、低輝度、高輝度、低輝度といったように示される。本開示の路面ライティングECU110は、この輝度変化パターン411を1周期として、路面ライティング画像201を投影する間だけ繰り返す。ところで、一般的に、カメラ125は、一秒間に撮影されるフレーム数(フレームレート)が定められている。例えば、30fps(フレーム/秒)のカメラ125を用いた場合、区間412は、約33ミリ秒以上に設定されることが望ましい
In FIG. 6, the conventional
図7は、画像処理装置100の処理に関するフローチャートである。
開始時、路面ライティングEUC110は、路面ライティングを開始する前の状態である。また、カメラECU120は、撮影を開始する前の状態である。また、メインSoC130は、カメラECU120から送信されてくる撮影データに応じた画像を表示部135に表示可能な状態である。FIG. 7 is a flowchart relating to the processing of the
At the start, the road surface lighting EUC110 is in a state before starting road surface lighting. Further, the
路面ライティングECU110は、路面ライティングの開始の契機となるトリガ信号を受け付けると、路面ライティングの輝度変化パターン411をカメラECU120に通知する(ステップ301)。この通信は、車載通信バス101を用いて行われる。通信は車載イーサネットを想定するが、その他の方式を用いてもよい。路面ライティングECU110は、路面ライティングを開始するとともに(ステップ302)、ステップ301で通知した輝度変化パターン411の内容に従って輝度を変化させた路面ライティング画像201を投影する(ステップ303)。
When the road
カメラECU120は、路面ライティングECU110から輝度変化パターン411を受信する(ステップ304)。カメラECU120は、輝度変化パターン411で経時的に輝度が変化する領域を特定するために、輝度変化パターン411の一周期分以上の撮影データを格納可能なフレームバッファ171領域をメモリ122に確保する。カメラECU120は、カメラ125の撮影を開始し(ステップ305)、撮影によって生成した撮影データをフレームバッファ171に格納する(ステップ306)。
The
図8は、フレームバッファ171に格納された撮影画像を示す概念図である。
フレームバッファ171には、輝度変化パターン411で経時的に輝度が変化する路面ライティング画像を連続して撮影した撮影データが格納される。図8において、フレーム403A、403B、403Dには、高輝度の路面ライティング画像201A、201B、201Dを撮影した撮影画像が格納されている。また、フレーム403C、403Eには、低輝度の路面ライティング画像201C、201Eを撮影した撮影画像が格納されている。FIG. 8 is a conceptual diagram showing a captured image stored in the
The
ここで、図7の説明に戻る。カメラECU120は、各フレーム403に格納された撮影画像の輝度値の変化を測定し、ステップ301で通知された輝度変化パターン411で経時的に輝度が変化する領域、即ち、路面ライティング画像201A~Eに対応する領域を特定する(ステップ307)。ステップ307の処理で該当の領域を特定できなかった場合、カメラECU120は、ステップ309の処理へと進む。一方、ステップ307の処理で該当の領域を特定した場合、カメラECU120は、該当領域における撮影画像の輝度値を調整する。例えば、カメラECU120は、高輝度の輝度変化パターン411に対応するフレーム403Aと、低輝度の輝度変化パターン411に対応するフレーム403Cから、ステップ307で特定した領域の示す輝度値の差分を算出する。そして、カメラECU120は、高輝度の輝度変化パターン411に対応するフレーム403A、403B、403Dに格納された撮影画像の輝度値を、該当の差分だけ低くなるように調整する(ステップ308)。
Here, the explanation returns to FIG. 7. The
なお、輝度値の調整の態様は、これに限らず、カメラECU120は、路面ライティングECU110で投影した画像の輝度が高い程、領域の輝度値を下げる幅が大きくなるように調整する態様であれば、如何なる技術を用いても良い。例えば、カメラECU120は、高輝度の輝度変化パターン411に対応するフレーム403Aの高輝度の路面ライティング画像201Aが撮影された領域の輝度値と、それ以外の領域の輝度値の差分を算出する。そして、カメラECU120は、高輝度の路面ライティング画像201Aが撮影された領域の輝度値を、該当の差分だけ低くなるように調整してもよい。また、例えば、カメラECU120は、高輝度の輝度変化パターン411に対応するフレーム403Aの高輝度の路面ライティング画像201Aが撮影された領域の輝度値を所定の値だけ低くなるように調整してもよい。
The mode of adjusting the luminance value is not limited to this, as long as the
図9は、フレームバッファ171に格納された輝度値が調整された撮影画像を示す概念図である。フレームバッファ171には、高輝度で照射された路面ライティング画像201A、201B、201Dの輝度値が、低輝度で照射された路面ライティング画像201C、201Eの輝度値と同程度となるように調整された撮影データが格納されている。
FIG. 9 is a conceptual diagram showing a captured image in which the brightness value stored in the
ここで、図7の説明に戻る。カメラECU120は、フレームバッファ171の空きを検査する(ステップ309)。ステップ309は、ステップ307において輝度変化パターンを検出するために必要なフレーム数をフレームバッファ171に一時的に滞留させるために実施される。フレームバッファ171に空きがある場合(ステップ309;No)、カメラECU120は、撮影によって生成された撮影データをフレームバッファ171に格納するためにステップ306に遷移する。一方、フレームバッファ171の空きが無い場合(ステップ309;Yes)、カメラECU120は、フレームバッファ171に格納された撮影データのうち、最も古い撮影データをメインSoC130に対して送信し、当該フレームバッファ171に格納された撮影データを削除して再利用可能にする(ステップ310)。メインSoC130は、受信した撮影データに応じた撮影画像を表示部135に表示する(ステップ311)。
Here, the explanation returns to FIG. 7. The
図10は、画像処理装置100の機能ブロック図である。
画像処理装置100は、投影制御部11、取得部12、記憶部13、輝度調整部14、及び、表示出力部15を備える。投影制御部11は、図示せぬ車載装置から路面ライティングの開始の契機となるトリガ信号を受け付けると、車両の周辺の路面に所定のパターンで経時的に輝度が変化する画像(路面ライティング画像)を投影する。投影制御部11は、図1の路面ライティングECU110のCPU111により実現される。取得部12は、車両の周辺を撮影した撮影画像を取得する。取得部12は、図1のカメラECU120のCPU121により実現される。記憶部13は、取得部12で取得した撮影画像を格納する。本実施形態において、記憶部13は、カメラECU120のメモリ122にて実現される。輝度調整部14は、記憶部13に格納した撮影画像から、パターンで経時的に輝度が変化する領域を特定し、当該領域における撮影画像の輝度値を調整する。また、輝度調整部14は、投影制御部11で投影した画像の輝度が高い程、領域の輝度値を下げる幅が大きくなるように調整する。本実施形態において、輝度調整部14は、カメラECU120のCPU121にて実現される。表示出力部15は、輝度調整部14で調整した撮影画像を表示部135に出力する。表示出力部15は、メインSoc130のCPU131にて実現される。FIG. 10 is a functional block diagram of the
The
以上の処理によって、画像処理装置100は、路面ライティング画像201をカメラ125で撮影した場合であっても、路面ライティング画像201に対応する領域の輝度値が低くなるように調整した撮影画像を表示部135に表示することができる。従って、路面ライティング画像201を撮影した撮影画像が表示部135に表示された場合であっても、自車両200の乗員は、路面ライティング画像201に対応する領域と、その他の領域の識別がしにくくなる。即ち、画像処理装置100は、路面ライティング画像201を撮影した画像を表示部135に表示した場合であっても、乗員の煩わしさを低減することができる。また、画像処理装置100は、乗員による周囲の状況把握を妨げることを抑制することができる。また、画像処理装置100は、路面ライティング画像201を投影する位置や大きさを変更しない。その結果、画像処理装置100は、路面ライティング画像201を投影する位置や大きさを変更する場合と比較して、路面ライティング画像201を投影することによって得られる注意喚起などの効果を低下させることが無い。また、一般に、カメラで撮影した撮影画像から特定の物体を除去するためには、撮影画像から物体の認識と抽出を行う必要がある。最近では、任意の形状に対する物体認識のために、機械学習が用いられるようになってきている。しかし、学習済みモデルを物体認識に使用した場合でも行列の積和演算など比較的計算コストの高い処理が行われるため、低コストで低性能な組込み向けSoCではリアルタイムに近い処理速度での認識は難易度が高い。さらに、運転者が認知・判断・操作を行えるだけの短時間に物体認識を行い、表示部に表示する撮影画像からの除去を実現するには、リアルタイムに近い物体認識処理が必要となる。これに対して、画像処理装置100は、経時的に輝度が変化する輝度変化パターンで路面ライティング画像201を投影し、当該輝度変化パターンで経時的に輝度が変化する領域の輝度値を調整した撮影画像を表示するだけである。従って、画像処理装置100は、高コストかつ高性能なSoCを用いることなく、乗員が認知・判断・操作を行える程度のリアルタイム性を持った物体認識と映像からの除去の実現が可能となる。
By the above processing, the
実施の形態2.
実施の形態1では、路面ライティングECU110からカメラECU120に対して路面ライティングパターンを通知することで、カメラECU120は、輝度変化パターンで経時的に輝度が変化する領域を撮影画像から特定し、特定した領域の輝度値が低くなるように撮影データを調整した。しかしながら、輝度変化パターンの複雑度によっては、カメラECU120でフレームバッファの容量を確保できない恐れがある。そこで、実施の形態2では、路面ライティングの輝度変化パターンを示す識別情報をカメラECU120から路面ライティングECU110に対して通知する態様を示す。なお、ハードウェア構成(図1)、ソフトウェア構成(図2)、機能構成(図10)は、実施の形態1と同様である。Embodiment 2.
In the first embodiment, the road
図11は、識別情報に対応付けられた路面ライティングの輝度変化パターンを示す図である。路面ライティングECU110のストレージ114、及び、カメラECU120のストレージ124には、識別情報に対応付けられた路面ライティングの輝度変化パターンを示す輝度変化パターン情報420が記憶されている。実施の形態2においては、実施の形態1と異なり、路面ライティングECU110から輝度変化パターンを指定するのではなく、カメラECU120から輝度変化パターンを指定する。その為、輝度変化パターン情報420は、路面ライティングECU110の性能的に実施可能であることが予め確認された情報である。なお、輝度変化パターン情報420は、路面ライティングECU110、及び、カメラECU120で共有されればよく、ストレージ114、124以外のストレージに記憶されていてもよい。
FIG. 11 is a diagram showing a luminance change pattern of the road surface lighting associated with the identification information. The
図12は、画像処理装置100の処理に関するフローチャートである。
カメラECU120は、あらかじめ共有していた路面ライティングの輝度変化パターンの識別情報を選択し、路面ライティングECU110に送信する(ステップ312)。FIG. 12 is a flowchart relating to the processing of the
The
路面ライティングECU110は、カメラECU120から路面ライティングの輝度変化パターンを示す識別情報を受信する。路面ライティングECU110は、識別情報に対応づけられた輝度変化パターンで路面ライティングを開始する(ステップ302)。即ち、路面ライティングECU110は、識別情報に対応づけられた輝度変化パターンで輝度を変化させた路面ライティング画像を照射する(ステップ303)。
The road
カメラECU120は、識別情報に対応付けられた輝度変化パターンの撮影データの一周期分を格納可能なフレームバッファ領域を確保する(ステップ304)。そして、カメラECU120は、カメラ125で撮影を開始する(ステップ305)。以降の動作は実施の形態1と同様であるから説明を省略する。
The
以上のように、カメラECU120は、あらかじめ共有していた路面ライティングの輝度変化パターンの識別情報を選択し、路面ライティングECU110に送信することで、フレームバッファの容量を確保できない可能性を抑制できる。即ち、画像処理装置100は、高性能なカメラECU120を備えなくても、路面ライティング画像201に対応する領域の輝度値が低くなるように調整された撮影画像を表示部135に表示することができる。
As described above, the
実施の形態3.
実施の形態1では、カメラECU120は、輝度変化パターン411で経時的に輝度が変化する領域を特定するために、輝度変化パターン411の一周期分以上の撮影データを格納可能なフレームバッファ171領域をメモリ122に確保した。これに対し、本実施形態では、メインSoC130において、輝度変化パターンで経時的に輝度が変化する領域を特定し、特定した領域の輝度値を調整する。本実施形態は、カメラECU120の性能が低くフレームバッファに必要とされるメモリ容量を確保できない場合などに適用可能である。なお、ハードウェア構成(図1)、ソフトウェア構成(図2)、機能構成(図10)は、実施の形態1と同様である。ただし、本実施形態において、記憶部13は、メインSoC130のメモリ132にて実現される。また、本実施形態において、輝度調整部14は、メインSoC130のCPU131にて実現される。Embodiment 3.
In the first embodiment, the
図13は、メインSoC130のメモリ132の概念図である。
通信ライブラリ162は、メモリ132の一部分をフレームバッファ172として使用する。フレームバッファ172は、カメラECU120から送信された撮影画像(静止画像)を映像(動画像)としてエンコードするまでの一時保存のために使用される。メインSoC130は、受信した1コマ単位の撮影データをフレームバッファ172に順次格納する。また、メインSoC130は、フレームバッファ172の終端まで撮影データを格納した場合には、フレームバッファ172の先頭に戻って撮影データの格納を再開する。運転支援アプリ160は、フレームバッファ172に格納されている撮影データを1コマもしくは複数コマ単位で映像としてエンコードする。このエンコード手法には一般的な技術が使用される。なお、本開示においては、エンコード前のデータとエンコード後のデータを区別せずに「撮影データ」と称する。FIG. 13 is a conceptual diagram of the
The
図14は、画像処理装置100の処理に関するフローチャートである。
開始時、路面ライティングEUC110は、路面ライティングを開始する前の状態である。また、カメラECU120は、撮影を開始する前の状態である。また、メインSoC130は、カメラECU120から送信されてくる撮影データを受信可能な状態になっている。FIG. 14 is a flowchart relating to the processing of the
At the start, the road surface lighting EUC110 is in a state before starting road surface lighting. Further, the
路面ライティングECU110は、路面ライティングの輝度変化パターンをメインSoC130に通知する(ステップ301)。この通信は、車載通信バス101を用いて行われる。通信は車載イーサネットを想定するが、その他の方式を用いてもよい。路面ライティングECU110は、路面ライティングを開始するとともに(ステップ302)、ステップ301で通知した輝度変化パターンの内容に従って輝度を変化させた路面ライティング画像を投影する(ステップ303)。
The road
メインSoC130は、路面ライティングECU110から輝度変化パターンを受信する(ステップ320)。メインSoC130は、輝度変化パターンで経時的に輝度が変化する領域を特定するために、輝度変化パターンの一周期分以上の撮影データを格納可能なフレームバッファ172領域をメモリ132に確保する。また、メインSoC130は、フレームバッファ172領域をメモリ132に確保した後、撮影データを受信する準備が完了した旨を示す受信可能通知をカメラECU120に対して送信する(ステップ321)。
The
カメラECU120は、カメラ125の撮影を開始する(ステップ305)。また、カメラECU120は、受信可能通知をメインSoC130から受信した後、撮影によって生成した撮影データをバッファリングせずに順次メインSoC130に対して送信する(ステップ323)。
The
メインSoC130は、受信した撮影データをフレームバッファ172に格納する(ステップ324)。メインSoC130は、フレームバッファ172に格納された撮影画像の輝度値の変化を測定し、ステップ301で通知された輝度変化パターンで経時的に輝度が変化する領域を特定する(ステップ325)。ステップ325で該当の領域を特定できなかった場合、メインSoC130は、ステップ327の処理へと進む。一方、ステップ325で該当の領域を特定した場合、メインSoC130は、該当の領域における撮影画像の輝度値を調整する(ステップ326)。例えば、メインSoC130は、当該フレームバッファ中の最も古いフレームの高輝度の領域の輝度値を、直前に出現した低輝度の領域の輝度値で置換する。なお、メインSoC130は、カメラECU120と同様の方法を用いて、撮影画像の輝度値を調整してもよい。
The
次に、メインSoC130は、フレームバッファに空きがあるか検査する(ステップ327)。ステップ327は、ステップ325において輝度変化パターンを検出するために必要なフレーム数をフレームバッファ172に一時的に滞留させるために実施される。フレームバッファ172に空きがある場合(ステップ327;No)、メインSoC130は、撮影によって生成された撮影データをフレームバッファ172に格納するためにステップ324に遷移する。一方、フレームバッファ172に空きが無い場合(ステップ327:Yes)、メインSoC130は、フレームバッファ172に格納された撮影データのうち、最も古い撮影データに応じた撮影画像を表示デバイスに表示し、当該フレームバッファ領域を削除して再利用可能にする(328)。なお、メインSoC130は、表示部135の仕様に従って、撮影データに応じた撮影画像を表示部135に表示させればよい。
Next, the main SoC130 checks whether the frame buffer is free (step 327). Step 327 is carried out to temporarily retain the number of frames required for detecting the luminance change pattern in
以上のように、画素処理装置100は、カメラECU120によるバッファリングをメインSoC130で代替することによって、高性能なカメラECU120を備えなくても、路面ライティング画像201に対応する領域の輝度値が低くなるように調整された撮影画像を表示部135に表示することができる。
As described above, by substituting the buffering by the
実施の形態4.
実施の形態1では、路面ライティングが自車によって行われる場合のみを想定した。一方、路面ライティングの普及により、自車両200に近接する他車両においても同様の輝度変化パターンを備えている場合が考えられる。Embodiment 4.
In the first embodiment, only the case where the road surface lighting is performed by the own vehicle is assumed. On the other hand, with the spread of road surface lighting, it is conceivable that other vehicles close to the
図15は、複数の路面ライティング画像が撮影される状況を示す図である。
自車両200と他車両210が路面ライティング画像を投影した場合、自車両200のカメラ125は、自車両200から投影した路面ライティング画像201だけでなく、他車両210から投影された路面ライティング画像211も撮影することになる。FIG. 15 is a diagram showing a situation in which a plurality of road surface lighting images are taken.
When the
図16は、複数の路面ライティング画像をカメラ125で撮影したときにフレームバッファに格納される撮影データの例である。フレームバッファ440には、他車両210の路面ライティング画像211と、自車両200の路面ライティング画像201を連続して撮影した撮影データが格納される。ここで、夫々の路面ライティング画像が同じ輝度変化パターンで投影されていた場合、画像処理装置100は、夫々の路面ライティング画像を区別することができない。その為、画像処理装置100は、例えば、バッファ442に格納された撮影画像のように、夫々の路面ライティング画像に対応した領域の輝度値が低くなるように調整してしまうという課題が生じる。
FIG. 16 is an example of shooting data stored in the frame buffer when a plurality of road surface lighting images are shot by the
この課題の対策として、自車両200から投影された路面ライティング画像201だけでなく、他車両210から投影された路面ライティング画像211を撮影した場合であっても、自車両200の路面ライティング画像201のみを低輝度に置換する方法を示す。
As a countermeasure for this problem, not only the road
ハードウェア構成(図1)、ソフトウェア構成(図2)、機能構成(図10)は、実施の形態1と同様である。 The hardware configuration (FIG. 1), software configuration (FIG. 2), and functional configuration (FIG. 10) are the same as those in the first embodiment.
図17は、画像処理装置100の処理に関するフローチャートである。
画像処理装置100は、輝度変化パターン411で経時的に輝度が変化する領域の占める割合が増加したときに、他車両210の路面ライティングが撮影されたと判断して、自車両200の路面ライティングの輝度変化パターン411を変更することが相違点である。FIG. 17 is a flowchart relating to the processing of the
The
開始時、路面ライティングEUC110は、路面ライティングを開始する前の状態である。また、カメラECU120は、撮影を開始する前の状態である。また、メインSoC130は、カメラECU120から送信されてくる撮影データに応じた画像を表示部135に表示可能な状態になっている。
At the start, the road surface lighting EUC110 is in a state before starting road surface lighting. Further, the
路面ライティングECU110は、輝度変化パターン411をカメラECU120に通知する(ステップ301)。路面ライティングECU110は、路面ライティングを開始するとともに(ステップ302)、ステップ301で通知した輝度変化パターン411の内容に従って輝度を変化させた路面ライティング画像201を投影する(ステップ303)。
The road
カメラECU120は、路面ライティングECU110から輝度変化パターン411を受信する。カメラECU120は、輝度変化パターン411で経時的に輝度が変化する領域を特定するために、輝度変化パターン411の一周期分以上の撮影データを格納可能なフレームバッファ440をメモリ122に確保する(ステップ304)。カメラECU120は、カメラ125の撮影を開始し(ステップ305)、撮影によって生成された撮影データをフレームバッファ440に格納する(ステップ306)。
The
カメラECU120は、フレームバッファ440に格納された撮影画像の輝度値の変化を測定し、ステップ301で通知された輝度変化パターン411で経時的に輝度が変化する領域が存在するかを特定する(ステップ307)。
The
更に、カメラECU120は、フレームバッファ440に格納された撮影画像に対して、輝度変化パターン411に対応する領域の占める割合が、予め設定された閾値よりも大きいか判定する(ステップ331)。この閾値は、路面ライティング画像の大きさ、投影部115の設けられた高さ、投影角度、投影範囲、自車と他車の近接度合いの許容範囲をパラメータとして自動車の安全基準に関する製品仕様に従って設定される。また、この閾値は、例えば、フレームバッファ440に格納された撮影画像に対して、輝度変化パターン411に対応する領域の割合の過去の平均値に従って設定されてもよい。
Further, the
閾値よりも大きいと判定された場合(ステップ331:Yes)、カメラECU120は、自車両200の路面ライティング以外に、自車両200と同じ輝度変化パターン411で投影された他車両210の路面ライティングが撮影されていると判断する。そして、カメラECU120は、輝度変化パターンの変更を路面ライティングECU110に通知する(ステップ332)。そして、カメラECU120は、フレームバッファ440に格納されているすべての撮影データをメインSoC130に送信した後、フレームバッファ440に格納されているすべての撮影データを削除する(ステップ333)。
When it is determined that the value is larger than the threshold value (step 331: Yes), the
路面ライティングECU110は、カメラECU120からの輝度変化パターンの変更の依頼に従って、自車両200の輝度変化パターンを変更する(ステップ330)。そして、路面ライティングECU110は、変更後の輝度変化パターンをカメラECU120に対して通知し(ステップ301)、路面ライティングを再開する(ステップ302)。
The road
ステップ307で輝度変化パターンが検出されない場合(ステップ307:No)、又は、ステップ331で閾値以下と判定された場合(ステップ331:No)、カメラECU120は、実施の形態1と同様にステップ308~310を実行する。そして、メインSoC130は、受信した撮影データに応じた撮影画像を表示部135に表示する(ステップ311)。
When the luminance change pattern is not detected in step 307 (step 307: No), or when it is determined in
図19は、フレームバッファ440に格納された輝度値が調整された撮影画像を示す概念図である。
同図に示すように、画像処理装置100は、自車両200の輝度変化パターンを変更することで、自車両200及び他車両210から投影された路面ライティング画像を撮影した場合でも、自車両200の路面ライティング画像201に対応する領域の輝度値のみを調整することができる。即ち、画像処理装置100は、自車両200から投影された路面ライティング画像に応じた画像が表示画面に表示されることによって、乗員が煩わしさを感じることを低減することができる。FIG. 19 is a conceptual diagram showing a captured image in which the brightness value stored in the
As shown in the figure, the
実施の形態4は、実施の形態2および3とは独立しているため、それぞれ組み合わせても実施可能である。 Since the fourth embodiment is independent of the second and third embodiments, it can be implemented in combination with each other.
実施の形態1,2,3,4では、カメラECU120とメインSoC130は夫々異なるデバイスであると仮定したが、統合が可能な程度に高性能なSoCを用いた場合、同一のSoCにおいても本発明は実施可能である。この場合、車載通信バスを使用した通信が、SoC内のバスによる通信で代替される。
In the first, second, third, and fourth embodiments, it is assumed that the
11 投影制御部、12 取得部、13 記憶部、14 輝度調整部、15 表示出力部、100 画像処理装置、101 車載通信バス、112 メモリ、113 インタフェース、114 ストレージ、115 投影部、122 メモリ、123 インタフェース、124 ストレージ、115 投影部、122 メモリ、123 インタフェース、124 ストレージ、125 カメラ、132 メモリ、133 インタフェース、134 ストレージ、135 表示部、140 路面ライティングアプリ、141 オペレーティングシステム、142 通信ライブラリ、143 路面ライトドライバ、150 カメラアプリ、151 オペレーティングシステム、152 通信ライブラリ、153 カメラドライバ、160 運転支援アプリ、161 オペレーティングシステム、162 通信ライブラリ、163 ディスプレイドライバ、171 フレームブッファ、172 フレームブッファ、200 自車両、201 路面ライティング画像、202 投影範囲、203 非照射領域、210 他車両、211 路面ライティング画像、301 輝度変化パターン、410 輝度変化パターン、411 輝度変化パターン、412 区間、420 輝度変化パターン情報、440 フレームバッファ、442 バッファ。 11 projection control unit, 12 acquisition unit, 13 storage unit, 14 brightness adjustment unit, 15 display output unit, 100 image processing device, 101 in-vehicle communication bus, 112 memory, 113 interface, 114 storage, 115 projection unit, 122 memory, 123 Interface, 124 storage, 115 projection, 122 memory, 123 interface, 124 storage, 125 camera, 132 memory, 133 interface, 134 storage, 135 display, 140 road lighting app, 141 operating system, 142 communication library, 143 road light Driver, 150 camera app, 151 operating system, 152 communication library, 153 camera driver, 160 driving support app, 161 operating system, 162 communication library, 163 display driver, 171 frame buffer, 172 frame buffer, 200 own vehicle, 201 road surface lighting Image, 202 projection range, 203 non-illuminated area, 210 other vehicle, 211 road surface lighting image, 301 brightness change pattern, 410 brightness change pattern, 411 brightness change pattern, 412 section, 420 brightness change pattern information, 440 frame buffer, 442 buffer ..
Claims (7)
前記車両の周辺を撮影した撮影画像を取得する取得部と、
前記取得部で取得した前記撮影画像に対応した撮影データを格納する記憶部と、
前記記憶部に格納した前記撮影データに対応した撮影画像から、前記パターンで経時的に輝度が変化する領域を特定し、当該特定した領域における輝度値が低くなるように、前記撮影データを調整する輝度調整部と、
前記輝度調整部により輝度値が調整された前記撮影データに応じた撮影画像を表示部に出力する表示出力部と
を備えることを特徴とする画像処理装置。 A projection control unit that projects an image whose brightness changes over time in a predetermined pattern on the road surface around the vehicle.
An acquisition unit that acquires a photographed image of the surroundings of the vehicle, and
A storage unit that stores shooting data corresponding to the shot image acquired by the acquisition unit, and a storage unit.
From the captured image corresponding to the captured data stored in the storage unit, a region where the brightness changes with time in the pattern is specified, and the captured data is adjusted so that the luminance value in the specified region becomes low . Brightness adjustment unit and
An image processing apparatus including a display output unit that outputs a captured image corresponding to the captured data whose luminance value is adjusted by the luminance adjusting unit to the display unit.
前記投影制御部で投影した画像の輝度が高い程、前記領域の輝度値を下げる幅が大きくなるように調整する
ことを特徴とする請求項1に記載の画像処理装置。 The brightness adjusting unit is
The image processing apparatus according to claim 1, wherein the higher the brightness of the image projected by the projection control unit, the larger the range for lowering the brightness value in the region.
前記記憶部に格納された前記撮影画像に対して前記領域の占める割合が閾値よりも大きい場合、前記パターンの変更を前記投影制御部に通知する
ことを特徴とする請求項1又は2の何れかに記載の画像処理装置。 The brightness adjusting unit is
One of claims 1 or 2, wherein when the ratio of the region to the captured image stored in the storage unit is larger than the threshold value, the projection control unit is notified of the change in the pattern. The image processing apparatus according to.
前記輝度を変化させる前記パターンを前記輝度調整部に通知し
前記輝度調整部は、
前記投影制御部から通知された前記パターンに基づいて前記領域を特定する
ことを特徴とする請求項1~3の何れかに記載の画像処理装置。 The projection control unit
The pattern for changing the brightness is notified to the brightness adjusting unit, and the brightness adjusting unit receives the notification.
The image processing apparatus according to any one of claims 1 to 3, wherein the area is specified based on the pattern notified from the projection control unit.
前記輝度を変化させる前記パターンを前記投影制御部に通知し、
前記投影制御部は、
前記輝度調整部から通知された前記パターンに基づいて前記輝度を変化させる
ことを特徴とする請求項1~3の何れかに記載の画像処理装置。 The brightness adjusting unit is
Notifying the projection control unit of the pattern that changes the brightness,
The projection control unit
The image processing apparatus according to any one of claims 1 to 3, wherein the brightness is changed based on the pattern notified from the brightness adjusting unit.
前記車両の周辺を撮影した撮影画像を取得する取得ステップと、
前記取得ステップで取得した前記撮影画像に対応した撮影データを格納する記憶ステップと、
前記記憶ステップで格納した前記撮影データに対応した撮影画像から、前記パターンで経時的に輝度が変化する領域を特定し、当該特定した領域における輝度値が低くなるように、前記撮影データを調整する輝度調整ステップと、
前記輝度調整ステップにより輝度値が調整された前記撮影データに応じた撮影画像を表示部に出力する表示出力ステップと
を備えることを特徴とする画像処理方法。 A projection control step that projects an image whose brightness changes over time in a predetermined pattern on the road surface around the vehicle.
The acquisition step of acquiring a photographed image of the surroundings of the vehicle, and
A storage step for storing the shooting data corresponding to the shot image acquired in the acquisition step, and
From the captured image corresponding to the captured data stored in the storage step, a region where the brightness changes with time in the pattern is specified, and the captured data is adjusted so that the luminance value in the specified region becomes low . Brightness adjustment step and
An image processing method comprising: a display output step of outputting a photographed image corresponding to the photographed data whose luminance value is adjusted by the luminance adjustment step to a display unit.
前記車両の周辺を撮影した撮影画像を取得する取得ステップと、
前記取得ステップで取得した前記撮影画像に対応した撮影データを格納する記憶ステップと、
前記記憶ステップで格納した前記撮影データに対応した撮影画像から、前記パターンで経時的に輝度が変化する領域を特定し、当該特定した領域における輝度値が低くなるように、前記撮影データを調整する輝度調整ステップと、
前記輝度調整ステップにより輝度値が調整された前記撮影データに応じた撮影画像を表示部に出力する表示出力ステップと
をコンピュータに実行させることを特徴とする画像処理プログラム。 A projection control step that projects an image whose brightness changes over time in a predetermined pattern on the road surface around the vehicle.
The acquisition step of acquiring a photographed image of the surroundings of the vehicle, and
A storage step for storing the shooting data corresponding to the shot image acquired in the acquisition step, and
From the captured image corresponding to the captured data stored in the storage step, a region where the brightness changes with time in the pattern is specified, and the captured data is adjusted so that the luminance value in the specified region becomes low . Brightness adjustment step and
An image processing program characterized by having a computer execute a display output step of outputting a captured image corresponding to the captured data whose luminance value is adjusted by the luminance adjustment step to a display unit.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/008973 WO2022190166A1 (en) | 2021-03-08 | 2021-03-08 | Image processing device, image processing method, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7031799B1 true JP7031799B1 (en) | 2022-03-08 |
JPWO2022190166A1 JPWO2022190166A1 (en) | 2022-09-15 |
Family
ID=81212888
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021557564A Active JP7031799B1 (en) | 2021-03-08 | 2021-03-08 | Image processing device, image processing method, and image processing program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7031799B1 (en) |
WO (1) | WO2022190166A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023002813A1 (en) * | 2021-07-19 | 2023-01-26 | 株式会社小糸製作所 | Control device for vehicle |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120044090A1 (en) * | 2010-08-18 | 2012-02-23 | GM Global Technology Operations LLC | Motor vehicle with digital projectors |
JP2019051793A (en) * | 2017-09-14 | 2019-04-04 | 株式会社Subaru | Road surface drawing device for vehicle |
JP2020121615A (en) * | 2019-01-30 | 2020-08-13 | クラリオン株式会社 | Vehicular road sign recognition support device |
-
2021
- 2021-03-08 WO PCT/JP2021/008973 patent/WO2022190166A1/en active Application Filing
- 2021-03-08 JP JP2021557564A patent/JP7031799B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120044090A1 (en) * | 2010-08-18 | 2012-02-23 | GM Global Technology Operations LLC | Motor vehicle with digital projectors |
JP2019051793A (en) * | 2017-09-14 | 2019-04-04 | 株式会社Subaru | Road surface drawing device for vehicle |
JP2020121615A (en) * | 2019-01-30 | 2020-08-13 | クラリオン株式会社 | Vehicular road sign recognition support device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023002813A1 (en) * | 2021-07-19 | 2023-01-26 | 株式会社小糸製作所 | Control device for vehicle |
Also Published As
Publication number | Publication date |
---|---|
WO2022190166A1 (en) | 2022-09-15 |
JPWO2022190166A1 (en) | 2022-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8009869B2 (en) | Vehicle surrounding monitoring system and vehicle surrounding monitoring method | |
US11244173B2 (en) | Image display apparatus | |
JP6524922B2 (en) | Driving support device, driving support method | |
WO2015118806A1 (en) | Image analysis apparatus and image analysis method | |
US20190082123A1 (en) | Display control apparatus, method, program, and system | |
CN110798655A (en) | Driving image system for eliminating pillar A blind area of mobile carrier and image processing method thereof | |
JP7031799B1 (en) | Image processing device, image processing method, and image processing program | |
JP6767255B2 (en) | Image processing device and image processing method | |
US20200186755A1 (en) | Display control device and display control method | |
JP6168024B2 (en) | Captured image display device, captured image display method, and captured image display program | |
JPWO2019177036A1 (en) | Vehicle video system | |
JP2006287513A (en) | System for presenting status outside vehicle | |
CN114943948A (en) | Blind zone pedestrian detection method, system, vehicle and storage medium | |
JP2003087780A (en) | Rear view display device for vehicle | |
CN113507559A (en) | Intelligent camera shooting method and system applied to vehicle and vehicle | |
JP2013172378A (en) | Image processing device and vehicle | |
JP6327388B2 (en) | Captured image display device, captured image display method, and captured image display program | |
JP6766433B2 (en) | Vehicle display control device, vehicle display system, vehicle display control method and program | |
RU2694877C2 (en) | Image forming and displaying device for vehicle and recording medium | |
JP2017163345A (en) | Vehicle display controller, vehicle display system, vehicle display control method, and program | |
JP2007253781A (en) | In-vehicle display system | |
JPH06113308A (en) | Picture processing method in on-vehicle image pickup device | |
US20230391192A1 (en) | Warning apparatus and warning method | |
US10897572B2 (en) | Imaging and display device for vehicle and recording medium thereof for switching an angle of view of a captured image | |
JP2006160192A (en) | Vehicular drive supporting device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210927 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210927 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220125 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220207 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7031799 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |