JP2015056851A - Image processing device, system and display program - Google Patents
Image processing device, system and display program Download PDFInfo
- Publication number
- JP2015056851A JP2015056851A JP2013190600A JP2013190600A JP2015056851A JP 2015056851 A JP2015056851 A JP 2015056851A JP 2013190600 A JP2013190600 A JP 2013190600A JP 2013190600 A JP2013190600 A JP 2013190600A JP 2015056851 A JP2015056851 A JP 2015056851A
- Authority
- JP
- Japan
- Prior art keywords
- image
- obstacle
- sensor
- unit
- monitor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置、システムおよび表示プログラムに関する。 The present invention relates to an image processing device, a system, and a display program.
近年、カメラで撮影した画像をモニタに表示するカメラモニタシステムをミラーの代わりに使用することが検討されている。例えば、自動車のサイドミラーの代わりに使用されるカメラモニタシステムの標準化が進んでいる。自動車のサイドミラーの代わりにカメラモニタシステムを使用する場合、モニタは、車室内に設置される。例えば、モニタは、運転者から見える場所に設置される。 In recent years, it has been studied to use a camera monitor system that displays an image captured by a camera on a monitor instead of a mirror. For example, standardization of a camera monitor system used in place of a side mirror of an automobile is in progress. When a camera monitor system is used instead of a side mirror of an automobile, the monitor is installed in the vehicle interior. For example, the monitor is installed in a place visible to the driver.
また、物体を検知する検知装置とカメラとを用いて車両後方の視界を支援する装置が提案されている(例えば、特許文献1参照)。この種の装置では、カメラで撮影された車両後方の画像がモニタに表示される。そして、例えば、検知装置の検知範囲等がカメラで撮影された画像に重畳して表示される。 In addition, a device that supports a field of view behind the vehicle using a detection device that detects an object and a camera has been proposed (for example, see Patent Document 1). In this type of apparatus, an image of the rear of the vehicle taken by the camera is displayed on the monitor. Then, for example, the detection range of the detection device is displayed superimposed on the image captured by the camera.
運転者が車室内のモニタを見るために動かす視線の範囲は、運転者が車室外のサイドミラーを見るために動かす視線の範囲に比べて、狭い。また、モニタの位置がサイドミラーの位置に比べて運転者に近くなるため、目の焦点位置が近くなる。このため、自動車のサイドミラーの代わりにカメラモニタシステムを使用する場合、車室外まで視線を向けていたときに比べて視野が狭くなるおそれがある。この場合、運転者が得る情報量は、サイドミラーを使用したときに比べて、減少する。例えば、モニタにリアルタイムで表示される画像の範囲外で車両周辺に障害物が存在する場合、運転者が障害物を発見するタイミングが遅れるおそれがある。 The range of the line of sight that the driver moves to see the monitor in the passenger compartment is narrower than the range of the line of sight that the driver moves to see the side mirror outside the passenger compartment. In addition, since the position of the monitor is closer to the driver than the position of the side mirror, the focal position of the eyes is closer. For this reason, when a camera monitor system is used instead of a side mirror of an automobile, the field of view may be narrower than when the line of sight is directed to the outside of the passenger compartment. In this case, the amount of information obtained by the driver is reduced compared to when the side mirror is used. For example, when there is an obstacle around the vehicle outside the range of the image displayed in real time on the monitor, the timing for the driver to find the obstacle may be delayed.
1つの側面では、本件開示の画像処理装置、システムおよび表示プログラムは、カメラモニタシステムの利用者に伝える情報の低減を抑制することを目的とする。 In one aspect, an image processing device, a system, and a display program disclosed herein are intended to suppress a reduction in information transmitted to a user of a camera monitor system.
一観点によれば、カメラと物体を検知するセンサとからのデータを用いて、画像をモニタに表示する画像処理装置は、カメラで撮影された第1画像を保持する第1保持部と、第1保持部に保持されている第1画像からモニタに表示する第2画像を生成する生成部と、センサの検知結果を受け、センサにより検知された物体である障害物が第2画像に存在するか否かを判定し、障害物が第2画像に存在するとき、障害物が第2画像の端に存在するか否かを判定する判定部と、障害物が第2画像の端に存在すると判定されたとき、障害物の画像を第1画像から抽出する抽出部と、抽出部で抽出された障害物の画像を保持する第2保持部と、センサにより検知されている障害物が第2画像に存在しないと判定され、かつ、障害物の画像が第2保持部に保持されているとき、モニタに表示する画像に障害物の画像を追加する描画部とを有している。 According to one aspect, an image processing device that displays data on a monitor using data from a camera and a sensor that detects an object includes a first holding unit that holds a first image captured by the camera, A generation unit that generates a second image to be displayed on the monitor from the first image held in the first holding unit, and an obstacle that is an object detected by the sensor and received by the sensor is present in the second image. A determination unit that determines whether an obstacle is present at the edge of the second image and an obstacle is present at the edge of the second image when the obstacle is present in the second image. When the determination is made, the extraction unit that extracts the obstacle image from the first image, the second holding unit that holds the obstacle image extracted by the extraction unit, and the obstacle detected by the sensor are the second. It is determined that the image does not exist and the image of the obstacle is the second holding unit. When held, and a drawing unit for adding an image of the obstacle on the image to be displayed on the monitor.
別の観点によれば、システムは、カメラ、センサ、画像処理装置およびモニタを有し、画像処理装置は、カメラで撮影された第1画像を保持する第1保持部と、第1保持部に保持されている第1画像からモニタに表示する第2画像を生成する生成部と、センサの検知結果を受け、センサにより検知された物体である障害物が第2画像に存在するか否かを判定し、障害物が第2画像に存在するとき、障害物が第2画像の端に存在するか否かを判定する判定部と、障害物が第2画像の端に存在すると判定されたとき、障害物の画像を第1画像から抽出する抽出部と、抽出部で抽出された障害物の画像を保持する第2保持部と、センサにより検知されている障害物が第2画像に存在しないと判定され、かつ、障害物の画像が第2保持部に保持されているとき、モニタに表示する画像に障害物の画像を追加する描画部とを有している。 According to another aspect, the system includes a camera, a sensor, an image processing device, and a monitor. The image processing device includes a first holding unit that holds a first image captured by the camera, and a first holding unit. A generation unit that generates a second image to be displayed on the monitor from the held first image, and whether or not an obstacle that is an object detected by the sensor based on the detection result of the sensor exists in the second image. A determination unit that determines whether an obstacle is present at the edge of the second image and an obstacle is present at the edge of the second image when the obstacle is present in the second image; An extraction unit that extracts an image of an obstacle from the first image, a second holding unit that holds an image of the obstacle extracted by the extraction unit, and an obstacle detected by the sensor does not exist in the second image And the image of the obstacle is held in the second holding unit. Rutoki, and a drawing unit for adding an image of the obstacle on the image to be displayed on the monitor.
別の観点によれば、カメラと物体を検知するセンサとからのデータを用いて画像をモニタに表示する処理をコンピュータに実行させる表示プログラムは、カメラで撮影された第1画像を保持し、第1保持部に保持されている第1画像からモニタに表示する第2画像を生成し、センサの検知結果を受け、センサにより検知された物体である障害物が第2画像に存在するか否かを判定し、障害物が第2画像に存在するとき、障害物が第2画像の端に存在するか否かを判定し、障害物が第2画像の端に存在すると判定されたとき、障害物の画像を第1画像から抽出し、抽出部で抽出された障害物の画像を保持し、センサにより検知されている障害物が第2画像に存在しないと判定され、かつ、障害物の画像が第2保持部に保持されているとき、モニタに表示する画像に障害物の画像を追加する処理をコンピュータに実行させる。 According to another aspect, a display program that causes a computer to execute a process of displaying an image on a monitor using data from a camera and a sensor that detects an object holds a first image captured by the camera, Whether a second image to be displayed on the monitor is generated from the first image held in the first holding unit, the detection result of the sensor is received, and an obstacle that is an object detected by the sensor is present in the second image When the obstacle is present in the second image, it is determined whether the obstacle is present at the end of the second image. When the obstacle is determined to be present at the end of the second image, An image of the object is extracted from the first image, the image of the obstacle extracted by the extraction unit is held, and it is determined that the obstacle detected by the sensor does not exist in the second image, and the image of the obstacle Is held by the second holding part, To execute a process of adding an image of the obstacle on the image to be displayed on the computer.
本件開示の画像処理装置、システムおよび表示プログラムは、カメラモニタシステムの利用者に伝える情報の低減を抑制できる。 The image processing apparatus, system, and display program of the present disclosure can suppress a reduction in information transmitted to the user of the camera monitor system.
以下、実施形態を図面を用いて説明する。 Hereinafter, embodiments will be described with reference to the drawings.
図1は、画像処理装置およびシステムの一実施形態を示している。この実施形態のシステム10は、例えば、自動車のサイドミラーの代わりに使用されるカメラモニタシステムとして、自動車に搭載される。例えば、図2に示すように、自動車の左右のサイドミラーの代わりに、2つのシステム10が車両300に搭載される。システム10は、例えば、カメラ20、センサ30、モニタ40および画像処理装置50を有している。なお、画像処理装置50は、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。
FIG. 1 shows an embodiment of an image processing apparatus and system. The
カメラ20は、例えば、車両側面に配置され、動画撮影を実行する。カメラ20で撮影された画像IMGaは、画像処理装置50に転送される。センサ30は、例えば、物体を検知する障害物センサであり、車両側面に配置される。例えば、センサ30は、ミリ波レーダである。なお、センサ30は、ミリ波レーダ以外のセンサでもよい。センサ30の検知結果INFaは、画像処理装置50に転送される。例えば、センサ30は、センサの処理サイクルに従って、検知結果INFaを画像処理装置50の判定部120に転送する。
For example, the
モニタ40は、車室内に設置される。例えば、モニタ40は、運転者から見える場所に設置される。モニタ40は、例えば、カメラ20およびセンサ30からのデータ(画像IMGa、検知結果INFa)に基づいて生成された画像IMGcを、画像処理装置50から受ける。これにより、モニタ40には、カメラ20およびセンサ30からのデータに基づいて生成された画像IMGcが表示される。
The
モニタ40に表示される画像IMGcは、例えば、サイドミラーに映る像と同様の向きになるように、鏡像処理(左右反転処理)が実行された画像である。鏡像処理は、例えば、画像処理装置50で実行される。なお、鏡像処理は、カメラ20で実行されてもよいし、モニタ40で実行されてもよい。
The image IMGc displayed on the
画像処理装置50は、例えば、ECU(Electronic Control Unit)内に設けられ、カメラ20、センサ30およびモニタ40と通信できるように接続されている。例えば、画像処理装置50は、カメラ20およびセンサ30からのデータ(画像IMGa、検知結果INFa)を用いて、画像IMGcをモニタ40に表示する。
The
画像処理装置50は、例えば、保持部100、140、160、生成部110、判定部120、抽出部130および描画部150を有している。保持部100は、カメラ20で撮影された画像IMGaを順次保持する。生成部110は、保持部100に保持されている画像IMGaからモニタ40に表示する画像IMGbを生成する。例えば、生成部110は、保持部100に保持されている画像IMGaを読み出し、モニタ40に表示する範囲(以下、表示範囲とも称する)の画像IMGbを画像IMGaから抽出する。そして、生成部110は、画像IMGaから抽出した画像IMGbを保持部160に保持する。なお、カメラ20の撮影範囲と表示範囲とが一致する場合、生成部110は、画像IMGaを画像IMGbとして保持部160に保持する。
The
ここで、例えば、画像処理装置50が鏡像処理を実行する場合、生成部110が鏡像処理を実行してもよい。例えば、生成部110は、画像IMGaから抽出した画像を左右反転し、左右反転した画像を画像IMGbとして保持部160に保持する。なお、カメラ20の撮影範囲と表示範囲とが一致する場合、鏡像処理が実行された画像IMGbは、例えば、画像IMGaを左右反転した画像である。
Here, for example, when the
判定部120は、センサ30の検知結果INFaを受け、センサ30により検知された物体である障害物が画像IMGbに存在するか否かを判定する。そして、判定部120は、障害物が画像IMGbに存在するとき、障害物が画像IMGbの端に存在するか否かを判定する。障害物が画像IMGbに存在するか否かの判定結果INFbは、例えば、描画部150に転送される。また、障害物が画像IMGbの端に存在するか否かの判定結果INFcは、例えば、抽出部130に転送される。
The
抽出部130は、障害物が画像IMGbの端に存在すると判定されたとき、障害物の画像BIMGaを画像IMGaから抽出する。例えば、抽出部130は、障害物が画像IMGbの端に存在することを示す判定結果INFcを判定部120から受けたとき、保持部100に保持されている画像IMGaを読み出す。そして、抽出部130は、センサ30で検知された障害物の範囲に対応する画像BIMGaを画像IMGaから抽出し、抽出した障害物の画像BIMGaを保持部140に保持する。このように、保持部140は、抽出部130で抽出された障害物の画像BIMGaを保持する。
When it is determined that an obstacle exists at the end of the image IMGb, the
なお、抽出部130は、例えば、センサ30で検知された障害物が追跡中の障害物と異なるとき、保持部140に保持されている障害物の画像BIMGaを削除してもよい。あるいは、判定部120は、例えば、センサ30で検知された障害物が追跡中の障害物と異なるとき、保持部140に保持されている障害物の画像BIMGaを削除してもよい。
For example, when the obstacle detected by the
描画部150は、センサ30により検知されている障害物が画像IMGbに存在しないと判定され、かつ、障害物の画像BIMGaが保持部140に保持されているとき、モニタ40に表示する画像IMGcに障害物の画像BIMGaを追加する。例えば、描画部150は、障害物が画像IMGbに存在しないことを示す判定結果INFbを判定部120から受けたとき、障害物の画像BIMGaが保持部140に保持されているか否かを判定する。そして、描画部150は、障害物の画像BIMGaが保持部140に保持されているとき、障害物の画像BIMGaを保持部140から読み出し、読み出した画像BIMGaを画像BIMGbとして保持部160に保持する。この場合、保持部160には、画像IMGbと障害物の画像BIMGaとを含む画像IMGcが保持される。
When it is determined that the obstacle detected by the
ここで、例えば、画像処理装置50が鏡像処理を実行する場合、描画部150は、画像BIMGaに対して鏡像処理を実行してもよい。例えば、描画部150は、画像BIMGaを左右反転し、左右反転した画像BIMGaを画像BIMGbとして保持部160に保持する。
Here, for example, when the
なお、例えば、描画部150は、センサ30で検知された障害物が画像IMGbに存在せず、かつ、障害物の画像BIMGaが保持部140に保持されていないとき、予め用意された警告用の画像を画像BIMGbとして保持部160に保持する。この場合、保持部160には、画像IMGbと警告用の画像とを含む画像IMGcが保持される。
For example, when the obstacle detected by the
また、例えば、障害物が画像IMGb外(表示範囲外)に存在しない場合、描画部150は、画像BIMGbを保持部160に保持しない。これにより、画像IMGcのうちの画像BIMGbに対応する領域は、余白になる。
For example, when no obstacle exists outside the image IMGb (outside the display range), the
保持部160に保持された画像IMGcは、モニタ40に表示される。したがって、センサ30により検知されている障害物が画像IMGbに存在しない場合、画像IMGbと画像BIMGb(障害物の画像BIMGa、あるいは、警告用の画像)とがモニタ40に表示される。すなわち、描画部150は、センサ30により検知されている障害物が画像IMGbに存在しないと判定され、かつ、障害物の画像BIMGaが保持部140に保持されているとき、画像IMGbのほかに障害物の画像BIMGaをモニタ40に表示する。
The image IMGc held in the holding
このように、例えば、画像処理装置50は、カメラ20と物体を検知するセンサ30とからデータ(画像IMGa、検知結果INFa)を受ける。そして、画像処理装置50は、カメラ20で撮影された画像IMGaの少なくとも一部を含む画像IMGcをモニタ40に表示する。すなわち、画像処理装置50は、カメラ20で撮影された画像をモニタ40に表示する。
Thus, for example, the
なお、システム10および画像処理装置50の構成は、この例に限定されない。例えば、抽出部130は、障害物が画像IMGbの端に存在すると判定されたとき、障害物の画像BIMGaを画像IMGbから抽出してもよい。すなわち、抽出部130は、障害物が画像IMGbの端に存在すると判定されたとき、障害物の画像BIMGaを画像IMGaおよび画像IMGbの少なくとも一方から抽出してもよい。画像IMGbが画像IMGaから抽出された画像であるため、障害物の画像BIMGaを画像IMGbから抽出することは、障害物の画像BIMGaを画像IMGaから抽出することに含まれる。
Note that the configurations of the
また、例えば、障害物の画像BIMGaが表示される位置(モニタ40の画面上の位置)は、予め設定された固定位置でもよいし、画像IMGaに対する障害物の相対的な位置に応じて算出される位置でもよい。例えば、画像処理装置50は、障害物の画像BIMGaを表示する位置(モニタ40の画面上の位置)を算出する算出部を有してもよい。
Further, for example, the position where the obstacle image BIMGa is displayed (the position on the screen of the monitor 40) may be a fixed position set in advance, or is calculated according to the relative position of the obstacle with respect to the image IMGa. It may be a position. For example, the
また、画像処理装置50が鏡像処理を実行する場合、障害物の画像に対する鏡像処理は、抽出部130で実行されてもよい。例えば、抽出部130は、センサ30で検知された障害物の範囲に対応する画像を画像IMGaから抽出し、抽出した障害物の画像を左右反転する。そして、抽出部130は、左右反転した画像を画像BIMGbとして保持部140に保持する。この場合、描画部150は、画像BIMGaに対して鏡像処理を実行しない。
Further, when the
また、画像処理装置50は、障害物の画像BIMGaの大きさを、障害物の画像BIMGaが表示されるモニタ40の画面上の領域に合わせて調整(縮小や拡大)してもよい。
Further, the
図2は、カメラ20の撮影範囲CRANとセンサ30の検知範囲SRANの一例を示している。例えば、自動車の左右のサイドミラーの代わりに、2つのシステム10(カメラ20、センサ30、モニタ40および画像処理装置50)が車両300に搭載されている。
FIG. 2 shows an example of the shooting range CRAN of the
2つのカメラ20は、車両300の右側面および左側面にそれぞれ配置されている。図2の例では、カメラ20の撮影範囲CRANは、表示範囲DRANと同じである。すなわち、カメラ20で撮影された画像IMGaがモニタ40に表示される。
The two
2つのセンサ30は、車両300の右側面および左側面にそれぞれ配置されている。センサ30は、例えば、検知範囲SRAN内に存在する物体(例えば、障害物)を検知する。この実施形態では、センサ30の検知範囲SRANは、カメラ20の撮影範囲CRANより広い。したがって、センサ30は、カメラ20の撮影範囲CRANの外側に存在する物体(例えば、障害物)を検知できる。
The two
センサ30は、例えば、障害物を検知したとき、障害物の位置を示す情報と障害物の大きさを示す情報と検知時刻を示す情報とを含む検知結果INFaを、画像処理装置50に転送する。障害物の位置を示す情報は、例えば、障害物の中心とセンサ30との距離、センサ30に対する障害物の中心の角度等を示す情報である。センサ30に対する障害物の中心の角度は、例えば、障害物の中心とセンサ30とを結ぶ線とセンサ30の向いている方向(図2のZ軸)との角度(Z軸に対する水平および垂直方向の角度)である。
For example, when detecting an obstacle, the
また、障害物の大きさを示す情報は、例えば、障害物を垂直に伸びた板状の物体としたときの水平および垂直方向の大きさを示す情報である。なお、センサ30が地面を障害物として誤認識しないように、センサ30の取り付け位置における調整は予め完了している。
The information indicating the size of the obstacle is, for example, information indicating the size in the horizontal and vertical directions when the obstacle is a vertically extending plate-like object. In order to prevent the
カメラ20およびセンサ30は、例えば、ECUに接続され、画像IMGaおよび検知結果INFaをECUにそれぞれ転送する。なお、ECUは、図1に示した画像処理装置50を有している。また、ECUは、モニタ40に接続され、画像IMGcをモニタ40に表示する。例えば、右側に配置されたモニタ40は、車両300の右側面のカメラ20およびセンサ30からのデータ(画像IMGa、検知結果INFa)に基づく画像IMGcを表示する。また、左側に配置されたモニタ40は、車両300の左側面のカメラ20およびセンサ30からのデータ(画像IMGa、検知結果INFa)に基づく画像IMGcを表示する。
The
なお、車両300には、2つのモニタ40の代わりに、右側面の画像IMGcを表示する画面と左側面の画像IMGcを表示する画面とを有する1つのモニタが搭載されてもよい。また、ECU内の2つの画像処理装置50は、1つにまとめられてもよい。この場合、画像処理装置50は、例えば、車両300の右側面のカメラ20およびセンサ30からのデータに基づいて画像IMGcを生成する処理と、車両300の左側面のカメラ20およびセンサ30からのデータに基づいて画像IMGcを生成する処理とを、独立して実行する。
In addition, instead of the two
図3は、図1に示した画像処理装置50の動作の一例を示している。図3の動作は、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。例えば、表示プログラム等のソフトウエアは、プロセッサに図3の動作を実行させてもよい。すなわち、プロセッサは、表示プログラムを読み取り、図3の動作を実行してもよい。なお、図3の例では、ステップS100、S110の一連の処理とステップS200の処理とが並列に実行される。例えば、ステップS100、S110、S300の一連の処理は、画像処理装置50が画像IMGaを受ける度に繰り返される。また、ステップS200の処理は、例えば、画像処理装置50が検知結果INFaを受ける度に繰り返される。
FIG. 3 shows an example of the operation of the
ステップS100では、画像処理装置50は、カメラ20で撮影された画像IMGaを保持部100に保持する。例えば、画像処理装置50は、カメラ20で撮影された画像IMGaを取得し、カメラ20から取得した画像IMGaを保持部100に保持する。
In step S <b> 100, the
ステップS110では、生成部110は、画像IMGaから生成した画像IMGbを保持部160に保持する。例えば、生成部110は、ステップS100で保持部100に保持された画像IMGaを読み出し、読み出した画像IMGaから表示範囲DRANの画像IMGbを抽出する。これにより、モニタ40に表示される画像IMGbが生成される。そして、生成部110は、生成した画像IMGbを保持部160に保持する。なお、例えば、画像処理装置50が鏡像処理を実行する場合、生成部110は、画像IMGaから抽出した表示範囲DRANの画像を左右反転して、画像IMGbを生成する。
In step S110, the
これにより、カメラ20の撮影範囲CRANのうちの表示範囲DRAN(モニタ40に表示される範囲)に相当する画像IMGbが保持部160に保持される。
Thereby, the image IMGb corresponding to the display range DRAN (the range displayed on the monitor 40) in the shooting range CRAN of the
ステップS200では、判定部120、抽出部130、描画部150等は、図4に示すように、センサ30の検知結果INFaに応じた処理を実行する。例えば、判定部120は、センサ30で検知された障害物が表示範囲DRAN内に存在するか否か等を判定する。また、例えば、抽出部130は、センサ30で検出された障害物が表示範囲DRANの端に存在するとき、ステップS100で保持部100に保持された画像IMGaから障害物の画像BIMGaを抽出する。そして、抽出部130は、抽出した画像BIMGaを保持部140に保持する。
In step S200, the
また、例えば、描画部150は、表示範囲DRAN外に障害物が存在する場合、画像BIMGb(予め用意された警告用の画像、または、保持部140に保持されている障害物の過去の画像BIMGa)を保持部160に保持する。これにより、表示範囲DRAN外に障害物が存在する場合、予め用意された警告用の画像と障害物の過去の画像BIMGaのいずれかが保持部160に保持される。
In addition, for example, when there is an obstacle outside the display range DRAN, the
ステップS100、S110、S200の処理により、モニタ40に表示する画像IMGc(画像IMGb、BIMGaを含む画像や画像IMGb)が保持部160に保持される。
Through the processing in steps S100, S110, and S200, the image IMGc (an image including the images IMGb and BIMGa and the image IMGb) to be displayed on the
ステップS300では、画像処理装置50は、保持部160に保持されている画像IMGcをモニタ40に転送する。これにより、カメラ20およびセンサ30からのデータに基づいて生成された画像IMGcがモニタ40に表示される。
In step S300, the
図4は、図1に示した判定部120、抽出部130および描画部150の動作の一例を示している。すなわち、図4は、図3に示したステップS200の処理の一例を示している。したがって、図4の動作は、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。例えば、表示プログラム等のソフトウエアは、プロセッサに図4の動作を実行させてもよい。すなわち、プロセッサは、表示プログラムを読み取り、図4の動作を実行してもよい。
FIG. 4 illustrates an example of operations of the
ステップS202では、例えば、判定部120は、センサ30の検知結果INFaをセンサ30から受け、センサ30が障害物を検知したか否かを検知結果INFaに基づいて判定する。障害物が検知されているとき(ステップS202のYes)、画像処理装置50の動作は、ステップS210に移る。
In step S202, for example, the
一方、障害物が検知されていないとき(ステップS202のNo)、判定部120は、例えば、障害物が検知されていないことを示す判定結果INFcを、抽出部130に転送する。そして、障害物が検知されていないとき、画像処理装置50の動作は、ステップS204に移る。例えば、画像処理装置50は、ステップS204の処理を実行し、センサ30の検知結果INFa(ステップS202で判定部120が受けた検知結果INFa)に応じた処理を終了する。
On the other hand, when no obstacle is detected (No in step S202), the
ステップS204では、抽出部130は、障害物の画像BIMGaを保持部140から削除する。これにより、保持部140に保持されている障害物の画像BIMGaが削除される。この結果、この実施形態では、誤った画像が障害物の画像BIMGaとしてモニタ40に表示されることを防止できる。
In step S <b> 204, the
ステップS210では、判定部120は、ステップS202で受けた検知結果INFaが示す障害物が追跡中の障害物か否かを判定する。例えば、判定部120は、今回のステップS202で検知されている障害物が前回のステップS202で検知された障害物と同じ場合、今回のステップS202で検知されている障害物は、追跡中の障害物であると判定する。
In step S210, the
すなわち、判定部120は、今回のステップS202で検知されている障害物が前回のステップS202で検知された障害物と異なる場合、今回のステップS202で検知されている障害物は、追跡中の障害物でないと判定する。なお、判定部120は、例えば、前回のステップS202で障害物が検知されていない場合、今回のステップS202で検知されている障害物は、追跡中の障害物でないと判定する。
That is, when the obstacle detected in the current step S202 is different from the obstacle detected in the previous step S202, the
障害物が追跡中の障害物であるとき(ステップS210のYes)、画像処理装置50の動作は、ステップS220に移る。一方、障害物が追跡中の障害物でないとき(ステップS210のNo)、判定部120は、例えば、障害物が追跡中の障害物でないことを示す判定結果INFcを、抽出部130に転送する。そして、障害物が追跡中の障害物でないとき、画像処理装置50の動作は、ステップS212に移る
ステップS212では、抽出部130は、障害物の画像BIMGaを保持部140から削除する。これにより、保持部140に保持されている障害物の画像BIMGaが削除される。この結果、この実施形態では、誤った画像が障害物の画像BIMGaとしてモニタ40に表示されることを防止できる。画像処理装置50は、ステップS212の処理を実行した後、ステップS220の処理を実行する。
When the obstacle is the obstacle being tracked (Yes in step S210), the operation of the
ステップS220では、判定部120は、センサ30で検知された障害物が表示範囲DRAN内に存在するか否かを検知結果INFaに基づいて判定する。すなわち、判定部120は、センサ30で検知された障害物が画像IMGbに存在するか否かを検知結果INFaに基づいて判定する。例えば、判定部120は、障害物400の全体が表示範囲DRAN内に存在している場合、障害物400が表示範囲DRAN内に存在していると判定する。したがって、判定部120は、障害物400の少なくとも一部が表示範囲DRAN外に存在している場合、障害物400が表示範囲DRAN内に存在していないと判定する。なお、判定部120は、障害物400の少なくとも一部が表示範囲DRAN内に存在している場合、障害物400が表示範囲DRAN内に存在していると判定してもよい。
In step S220, the
障害物が表示範囲DRAN内に存在するとき(ステップS220のYes)、画像処理装置50の動作は、ステップS230に移る。すなわち、障害物が画像IMGbに存在するとき、画像処理装置50の動作は、ステップS230に移る。
When the obstacle exists in the display range DRAN (Yes in Step S220), the operation of the
一方、障害物が表示範囲DRAN内に存在しないとき(ステップS220のNo)、判定部120は、例えば、センサ30で検知された障害物が表示範囲DRAN内に存在しないことを示す判定結果INFbを、描画部150に転送する。そして、障害物が表示範囲DRAN内に存在しないとき、画像処理装置50の動作は、ステップS250に移る。すなわち、障害物が画像IMGbに存在しないとき、画像処理装置50の動作は、ステップS250に移る。このように、表示範囲DRAN外に存在する障害物がセンサ30で検知されたとき、画像処理装置50の動作は、ステップS250に移る。
On the other hand, when the obstacle does not exist in the display range DRAN (No in Step S220), the
ステップS230では、判定部120は、センサ30で検知された障害物の位置が表示範囲DRANの端か否かを検知結果INFaに基づいて判定する。すなわち、判定部120は、障害物が画像IMGbの端に存在するか否かを検知結果INFaに基づいて判定する。障害物の位置が表示範囲DRANの端のとき(ステップS230のYes)、判定部120は、例えば、障害物が表示範囲DRANの端に位置していることを示す判定結果INFcを、抽出部130に転送する。
In step S230, the
そして、障害物の位置が表示範囲DRANの端のとき、画像処理装置50の動作は、ステップS240に移る。すなわち、障害物が画像IMGbの端に存在するとき、画像処理装置50の動作は、ステップS240に移る。例えば、画像処理装置50は、ステップS240の処理を実行し、センサ30の検知結果INFa(ステップS202で判定部120が受けた検知結果INFa)に応じた処理を終了する。
When the position of the obstacle is at the end of the display range DRAN, the operation of the
一方、障害物の位置が表示範囲DRANの端でないとき(ステップS230のNo)、画像処理装置50は、センサ30の検知結果INFa(ステップS202で判定部120が受けた検知結果INFa)に応じた処理を終了する。すなわち、障害物が画像IMGbの端に存在しないとき、センサ30の検知結果INFaに応じた処理は終了する。
On the other hand, when the position of the obstacle is not the end of the display range DRAN (No in Step S230), the
ステップS240では、抽出部130は、障害物の画像BIMGaを保持部140に保持する。例えば、抽出部130は、図3のステップS100で保持部100に保持された画像IMGaを読み出す。そして、抽出部130は、センサ30で検知された障害物の範囲に対応する画像BIMGaを画像IMGaから抽出し、抽出した障害物の画像BIMGaを保持部140に保持する。
In step S240, the
例えば、障害物が表示範囲DRAN外に移動する前のタイミングでは、障害物が表示範囲DRANの端に位置している可能性は、障害物が表示範囲DRANの中央に位置している可能性に比べて、高い。したがって、この実施形態では、表示範囲DRANの端に位置している障害物の画像BIMGaを保持部140に保持することにより、障害物が表示範囲DRAN外に移動する直前の状態に近い状態の障害物の画像を保持できる。
For example, at the timing before the obstacle moves outside the display range DRAN, the possibility that the obstacle is located at the end of the display range DRAN is that the obstacle is located at the center of the display range DRAN. Higher than that. Therefore, in this embodiment, by holding the image BIMGa of the obstacle positioned at the end of the display range DRAN in the holding
ステップS250では、例えば、描画部150は、表示範囲DRAN外に存在する障害物の画像BIMGaが保持部140に保持されているか否かを判定する。すなわち、描画部150は、表示範囲DRAN外に存在する障害物の過去の画像BIMGaが存在するか否かを判定する。
In step S250, for example, the
障害物の画像BIMGaが保持部140に保持されているとき(ステップS250のYes)、画像処理装置50の動作は、ステップS252に移る。すなわち、障害物の過去の画像BIMGaが存在するとき、画像処理装置50の動作は、ステップS252に移る。例えば、画像処理装置50は、ステップS252の処理を実行し、センサ30の検知結果INFa(ステップS202で判定部120が受けた検知結果INFa)に応じた処理を終了する。
When the obstacle image BIMGa is held in the holding unit 140 (Yes in step S250), the operation of the
一方、障害物の画像BIMGaが保持部140に保持されていないとき(ステップS250のNo)、画像処理装置50の動作は、ステップS254に移る。すなわち、障害物の過去の画像BIMGaが存在しないとき、画像処理装置50の動作は、ステップS254に移る。例えば、画像処理装置50は、ステップS254の処理を実行し、センサ30の検知結果INFa(ステップS202で判定部120が受けた検知結果INFa)に応じた処理を終了する。
On the other hand, when the obstacle image BIMGa is not held in the holding unit 140 (No in step S250), the operation of the
ステップS252では、描画部150は、保持部140に保持されている障害物の画像BIMGaを描画する。例えば、描画部150は、障害物の画像BIMGaを保持部140から読み出し、読み出した画像BIMGaを画像BIMGbとして保持部160に保持する。これにより、画像BIMGb(障害物の画像BIMGa)が描画される。
In step S252, the
ステップS254では、描画部150は、予め用意された警告用の画像を描画する。例えば、描画部150は、予め用意された警告用の画像を画像BIMGbとして保持部160に保持する。これにより、画像BIMGb(警告用の画像)が描画される。
In step S254, the
このように、画像処理装置50は、表示範囲DRAN外に存在する障害物がセンサ30で検知されたとき、障害物の過去の画像BIMGaまたは警告用の画像を、保持部160に保持する。例えば、表示範囲DRAN外に存在する障害物の過去の画像BIMGaが保持部140に保持されている場合、画像処理装置50は、障害物の過去の画像BIMGaを保持部160に保持する。また、図3で説明したように、保持部160には、表示範囲DRANの画像IMGbが保持されている。この場合、表示範囲DRANの画像IMGbと障害物の画像BIMGaとが保持部160に保持されている。これにより、表示範囲DRANの画像IMGbと障害物の画像BIMGaとがモニタ40に表示される。
In this way, when an obstacle that exists outside the display range DRAN is detected by the
したがって、システム10は、表示範囲DRAN外に存在する障害物の過去の画像BIMGaが保持部140に保持されているとき、表示範囲DRANの画像IMGbのほかに障害物の画像BIMGaをモニタ40に表示できる。すなわち、この実施形態では、システム10の利用者に伝える情報の低減を抑制できる。
Therefore, when the past image BIMGa of the obstacle existing outside the display range DRAN is held in the holding
なお、画像処理装置50の動作は、図3および図4に示した例に限定されない。例えば、ステップS230の処理は、省かれてもよい。この場合、抽出部130は、例えば、障害物の全体が表示範囲DRAN内に存在することを示す検知結果INFaを画像処理装置50が受ける度に、障害物の画像BIMGaを画像IMGaから抽出する。そして、抽出部130は、抽出した障害物の画像BIMGaを保持部140に保持する。これにより、保持部140に保持されている画像BIMGaは、新しい画像BIMGaに更新される。なお、障害物の少なくとも一部が表示範囲DRAN外に存在するとき、障害物の画像BIMGaは、抽出されない。したがって、保持部140に保持されている画像BIMGaは、障害物が表示範囲DRAN外に移動する直前の画像であり、表示範囲DRANの端に位置している障害物の画像BIMGaに対応している。
Note that the operation of the
また、例えば、画像処理装置50が鏡像処理を実行する場合、描画部150は、保持部140から読み出した画像BIMGaを左右反転して、画像BIMGbを生成してもよい。あるいは、画像処理装置50が鏡像処理を実行する場合、例えば、抽出部130は、画像IMGaから抽出した障害物の画像を左右反転し、左右反転した画像を画像BIMGbとして保持部140に保持してもよい。
In addition, for example, when the
図5は、障害物が存在しないときにモニタ40に表示される画像IMGcの一例を示している。なお、図5は、車両300の右側面に配置されたカメラ20およびセンサ30を含むシステム10のモニタ40に表示される画像IMGcの一例を示している。以下、車両300の右側面に配置されたカメラ20およびセンサ30を含むシステム10を中心に説明する。
FIG. 5 shows an example of an image IMGc displayed on the
モニタ40は、例えば、画像IMGbの表示用の領域と画像BIMGb(障害物の画像BIMGaまたは警告用の画像)の表示用の領域とを有している。モニタ40に表示される画像IMGb、BIMGaは、例えば、鏡像である。なお、画像BIMGbの表示用の領域は、モニタ40に画像BIMGbが表示されない場合、余白BSPである。
The
図5の例では、センサ30の検知範囲SRAN内に障害物は存在していない。このため、センサ30は、障害物を検知しない。したがって、保持部160は、障害物の画像BIMGaおよび警告用の画像のいずれも保持していない。この場合、モニタ40には、表示範囲DRANの画像IMGbが画像IMGcとして表示される。
In the example of FIG. 5, no obstacle exists in the detection range SRAN of the
画像IMGbには、例えば、車両300の一部が映っている。なお、表示範囲DRAN内に障害物が存在しないため、画像IMGbには、障害物は映っていない。また、画像BIMGbの表示用の領域は、余白BSPである。
For example, a part of the
図6は、表示範囲DRAN内に障害物400が存在するときにモニタ40に表示される画像IMGcの一例を示している。図6の例では、センサ30で検知された障害物400は、表示範囲DRAN内に存在する。なお、図6の例は、表示範囲DRAN内に存在する障害物400の位置は、表示範囲DRANの端ではない。図6の符号OP1、OP2、OP3、OP4は、センサ30で検知された障害物400を板状の四角形に換算したときの四角形の各頂点を示している。頂点OP1、OP2、OP3、OP4の位置は、表示範囲DRAN内である。
FIG. 6 shows an example of an image IMGc displayed on the
したがって、保持部160は、障害物400の画像BIMGaおよび警告用の画像のいずれも保持していない。このため、モニタ40には、表示範囲DRANの画像IMGbが画像IMGcとして表示される。なお、表示範囲DRAN内に障害物400が存在するため、画像IMGbには、障害物400が映っている。また、センサ30で検知された障害物400の位置が表示範囲DRAN外でないため、画像BIMGbの表示用の領域は、余白BSPである。
Therefore, the holding
図7は、表示範囲DRAN内に障害物400が存在するときにモニタ40に表示される画像IMGcの別の例を示している。図7の符号OP1、OP2、OP3、OP4の意味は、図6と同様である。図7の例では、センサ30で検知された障害物400は、表示範囲DRANの端に位置している。
FIG. 7 shows another example of the image IMGc displayed on the
例えば、頂点OP1、OP2の位置は、表示範囲DRANの端に隣接している。このため、モニタ40に表示される画像IMGbの端に障害物400が映っている。画像IMGb内の破線の枠は、障害物400に対応する四角形を分かりやすくするために記載したものであり、モニタ40には表示されない。なお、例えば、破線の枠内の画像(あるいは、左右反転前の破線の枠内の画像)は、障害物400の画像BIMGaとして保持部140に保持されている。
For example, the positions of the vertices OP1 and OP2 are adjacent to the end of the display range DRAN. For this reason, the
図8は、表示範囲DRAN外に障害物400が存在するときにモニタ40に表示される画像IMGcの一例を示している。図8の符号OP1、OP2、OP3、OP4の意味は、図6と同様である。図8の例では、センサ30で検知された障害物400は、表示範囲DRAN外に存在する。
FIG. 8 shows an example of an image IMGc displayed on the
なお、図8は、表示範囲DRAN内から表示範囲DRAN外に移動した障害物400をセンサ30が検知している状態を示している。例えば、図8に示した状態は、図7に示した状態の後の状態に対応している。したがって、障害物400の過去の画像BIMGaは、保持部140に保持されている。
FIG. 8 shows a state in which the
例えば、画像処理装置50は、図4に示したステップS210の処理において、センサ30で検知された障害物400が追跡中の障害物であると判定する。また、例えば、画像処理装置50は、図4に示したステップS250の処理において、表示範囲DRAN外に存在する障害物の画像BIMGaが保持部140に保持されていると判定する。
For example, the
したがって、保持部160は、障害物400の過去の画像BIMGaを画像BIMGbとして保持している。すなわち、保持部160は、表示範囲DRANの画像IMGbと障害物400の過去の画像BIMGaとを保持している。このため、表示範囲DRANの画像IMGbと画像BIMGb(障害物400の過去の画像BIMGa)とを含む画像IMGcが、モニタ40に表示される。
Therefore, the holding
表示範囲DRAN内に障害物400が存在しないため、画像IMGbには、障害物400は映っていない。また、画像BIMGbは、例えば、障害物400の全体が映ったできるだけ新しい過去の画像BIMGaである。
Since the
このように、この実施形態では、障害物400が表示範囲DRAN内から表示範囲DRAN外に移動したときにも、表示範囲DRANの画像IMGbに加えて、障害物400の全体が映ったできるだけ新しい過去の画像BIMGaをモニタ40に表示できる。これにより、この実施形態では、障害物400が表示範囲DRAN内から表示範囲DRAN外に移動したときにも、障害物400の存在を運転者に提示し続けることができる。
As described above, in this embodiment, when the
なお、画像処理装置50は、障害物400の画像BIMGaを画像BIMGbとしてモニタ40に表示する際に、画像BIMGaに対して拡大、縮小等を実行し、画像BIMGaのサイズを画像BIMGbの表示用の領域に合うように調整してもよい。
When the image BIMGa of the
図9は、表示範囲DRAN外に障害物400が存在するときにモニタ40に表示される画像IMGcの別の例を示している。図9の符号OP1、OP2、OP3、OP4の意味は、図6と同様である。図9の例では、センサ30で検知された障害物400は、表示範囲DRAN外に存在する。図9の破線の障害物400aは、センサ30が検知した障害物400bの前の状態(障害物400、表示範囲DRAN、検知範囲SRANの相対的な位置関係)を示している。例えば、図9の状態では、センサ30は、センサ30の検知範囲SRAN外から検知範囲SRAN内に表示範囲DRANを通過せずに移動した障害物400を検知している。
FIG. 9 shows another example of the image IMGc displayed on the
したがって、障害物400bの過去の画像BIMGaは、保持部140に保持されていない。このため、保持部160は、予め用意された警告用の画像(図9では、感嘆符が描かれた画像)を画像BIMGbとして保持している。すなわち、保持部160は、表示範囲DRANの画像IMGbと警告用の画像とを保持している。このため、表示範囲DRANの画像IMGbと画像BIMGb(警告用の画像)とを含む画像IMGcが、モニタ40に表示される。
Therefore, the past image BIMGa of the
表示範囲DRAN内に障害物400が存在しないため、画像IMGbには、障害物400は映っていない。また、障害物400bの過去の画像BIMGaが保持部140に保持されていないため、画像BIMGbは、例えば、感嘆符が描かれた警告用の画像である。
Since the
このように、障害物400bの過去の画像BIMGaが保持部140に保持されていない場合には、障害物400bの画像BIMGaの代わりに、障害物400が表示範囲DRAN外に存在することを知らせる警告用の画像がモニタ40に表示される。これにより、この実施形態では、障害物400が検知範囲SRAN外から検知範囲SRAN内に表示範囲DRANを通過せずに移動したときにも、障害物400の存在を運転者に提示することができる。
Thus, when the past image BIMGa of the
図10は、センサ30による障害物30の検知の概要を示している。障害物400(t1)は、時刻t1での障害物400を示し、障害物400(t2)は、時刻t2での障害物400を示している。また、中心水平角度θh、中心垂直角度θv、距離L、横方向の大きさWD(以下、幅WDとも称する)、縦方向の大きさHT(以下、高さHTとも称する)は、センサ30の検知結果INFaに含まれる情報の一例を示している。なお、符号θh、θv、L、WD、HTの末尾の数字は、時刻tの末尾の数字に対応している。
FIG. 10 shows an outline of detection of the
例えば、センサ30は、時刻t1に検知した障害物400(t1)の検知結果INFaとして、中心水平角度θh1、中心垂直角度θv1、距離L1、幅WD1、高さHT1、時刻t1を示す情報を画像処理装置50の判定部120に転送する。また、例えば、センサ30は、時刻t2に検知した障害物400(t2)の検知結果INFaとして、中心水平角度θh2、中心垂直角度θv2、距離L2、幅WD2、高さHT2、時刻t2を示す情報を画像処理装置50の判定部120に転送する。
For example, the
ここで、例えば、中心水平角度θhは、障害物400の検知範囲の中心とセンサ30とを結ぶ線とZ軸(センサ30の向いている方向)との水平方向の角度である。また、中心垂直角度θvは、障害物400の中心とセンサ30とを結ぶ線とZ軸(センサ30の向いている方向)との垂直方向の角度である。距離Lは、障害物400の中心とセンサ30との距離である。幅WDは、障害物400を垂直に伸びた板状の物体としたときの水平方向の大きさである。高さHTは、障害物400を垂直に伸びた板状の物体としたときの垂直方向の大きさである。例えば、距離L、幅WD、高さHTの単位は、メートルである。
Here, for example, the center horizontal angle θh is an angle in the horizontal direction between the line connecting the center of the detection range of the
判定部120は、例えば、センサ30から受けた前回(例えば、時刻t1)の検知結果INFaを保持している。そして、判定部120は、現在(例えば、時刻t2)の検知結果INFaをセンサ30から受けたとき、前回(例えば、時刻t1)の検知結果INFaと今回(例えば、時刻t2)の検知結果INFaとを用いて、障害物400を追跡できているか否かを判定する。なお、今回の検知結果INFaは、次回の判定(障害物400を追跡できているか否かの判定)に用いられるため、保持される。
The
障害物400を追跡できているか否かは、例えば、前回および今回の検知結果INFaから算出される障害物400の中心位置の移動量と、前回および今回の検知結果INFaから算出される障害物400の大きさの変化率とに基づいて判定される。先ず、障害物400の中心位置の移動量の算出について説明する。
Whether the
センサ30の位置を原点とし、センサ30の向いている方向をZ軸、Z軸を法線ベクトルとする平面内で地面と平行な方向をX軸、Z軸を法線ベクトルとする平面内でX軸に垂直な方向をY軸とする。すなわち、X軸、Y軸、Z軸は、センサ30の座標系の軸である。また、前回検知された障害物400(t1)の中心位置を座標(x1、y1、z1)とし、今回検知された障害物400(t2)の中心位置を座標(x2、y2、z2)とする。
In the plane where the position of the
障害物400(t1)の中心位置(x1、y1、z1)から障害物400(t2)の中心位置(x2、y2、z2)までの移動量をLmとした場合、移動量Lmは、式(1)で表される。 When the movement amount from the center position (x1, y1, z1) of the obstacle 400 (t1) to the center position (x2, y2, z2) of the obstacle 400 (t2) is Lm, the movement amount Lm is expressed by the formula ( 1).
なお、障害物400(t1)の中心位置(x1、y1、z1)は、中心水平角度θh1、中心垂直角度θv1、距離L1を用いて、式(2)、式(3)および式(4)で表される。 Note that the center position (x1, y1, z1) of the obstacle 400 (t1) is expressed by the equations (2), (3), and (4) using the center horizontal angle θh1, the center vertical angle θv1, and the distance L1. It is represented by
x1=L1・cos(θv1)・sin(θh1) ‥‥(2)
y1=L1・cos(θh1)・sin(θv1) ‥‥(3)
z1=L1・cos(θh1)・cos(θv1) ‥‥(4)
また、障害物400(t2)の中心位置(x2、y2、z2)は、中心水平角度θh2、中心垂直角度θv2、距離L2を用いて、式(5)、式(6)および式(7)で表される。
x1 = L1 · cos (θv1) · sin (θh1) (2)
y1 = L1 · cos (θh1) · sin (θv1) (3)
z1 = L1 · cos (θh1) · cos (θv1) (4)
Further, the center position (x2, y2, z2) of the obstacle 400 (t2) is expressed by the equations (5), (6), and (7) using the center horizontal angle θh2, the center vertical angle θv2, and the distance L2. It is represented by
x2=L2・cos(θv2)・sin(θh2) ‥‥(5)
y2=L2・cos(θh2)・sin(θv2) ‥‥(6)
z2=L2・cos(θh2)・cos(θv2) ‥‥(7)
ここで、車両300を基準にした障害物400の相対的な速さをVrとした場合、速さVrは、前回の検知時刻t1および今回の検知時刻t2を用いて、式(8)で表される。
x2 = L2 · cos (θv2) · sin (θh2) (5)
y2 = L2 · cos (θh2) · sin (θv2) (6)
z2 = L2 · cos (θh2) · cos (θv2) (7)
Here, when the relative speed of the
Vr=Lm/(t2−t1) ‥‥(8)
例えば、判定部120は、速さVrが所定値(例えば、秒速2メートル)以下の場合、時刻t1、t2で同じ障害物400が検知されたと判断する。すなわち、時刻t2で検知された障害物400は、時刻t1で検知された追跡中の障害物400が移動したものであると判定される。
Vr = Lm / (t2-t1) (8)
For example, when the speed Vr is equal to or less than a predetermined value (for example, 2 meters per second), the
次に、前回および今回の検知結果INFaから算出される障害物400の大きさの変化率の算出について説明する。
Next, calculation of the rate of change of the size of the
障害物400の大きさの変化率をRとした場合、変化率Rは、前回検知された障害物400(t1)の幅WD1および高さHT1と、今回検知された障害物400(t2)の幅WD2および高さHT2と用いて、式(9)で表される。
When the change rate of the size of the
R=(WD2・HT2)/(WD1・HT1) ‥‥(9)
なお、式(9)は、障害物400を板状の物体と仮定したときの面積の変化率Rを表している。センサ30で検知される障害物400の大きさ(幅WD、高さHT)は、障害物400の見る角度等の変化により、変化する。このため、例えば、判定部120は、変化率Rが所定の範囲内(例えば、±10%(0.9から1.1))の場合、時刻t1、t2で同じ障害物400が検知されたと判断する。
R = (WD2 · HT2) / (WD1 · HT1) (9)
Equation (9) represents an area change rate R when the
例えば、判定部120は、速さVrが所定値以下である条件と、変化率Rが所定の範囲内である条件との両方を満たしたときに、追跡中の障害物400(前回検知した障害物400と同じ障害物400)を検知したと判定する。なお、判定部120は、速さVrが所定値以下である条件と、変化率Rが所定の範囲内である条件のうちの一方に基づいて、障害物400を追跡できているか否かを判定してもよい。
For example, when the
図11は、センサ30により検知される障害物400の大きさの一例を示している。図11のX軸、Y軸、Z軸は、センサ30の座標系の軸であり、図10で説明したX軸、Y軸、Z軸と同様である。また、図11の位置OP1、OP2、OP3、OP4は、障害物400を板状の物体と仮定したときの障害物400の四隅の位置(四角形の頂点)を示している。幅WDおよび高さHTは、障害物400を検知したセンサ30の検知結果INFaから得られる障害物400の幅および高さに対応している。
FIG. 11 shows an example of the size of the
例えば、Z軸が障害物400の中心を通過する場合、位置OP1−OP4のZ座標は、障害物400の中心とセンサ30との距離Lで表される。したがって、Z軸が障害物400の中心を通過する場合、位置OP1−OP4の各座標(x、y、z)は、幅WD、高さHT、距離Lを用いて、式(10)−式(13)で表される。
For example, when the Z axis passes through the center of the
OP1(x、y、z)=(−WD/2、HT/2、L) ‥‥(10)
OP2(x、y、z)=(−WD/2、−HT/2、L) ‥‥(11)
OP3(x、y、z)=(WD/2、HT/2、L) ‥‥(12)
OP4(x、y、z)=(WD/2、−HT/2、L) ‥‥(13)
ここで、障害物400の中心が水平方向および垂直方向にそれぞれ中心水平角度θhおよび中心垂直角度θvだけ移動した場合、回転後の位置OP1−OP4は、角度θh、θvの回転行列を用いて、式(14)−(17)で表される。
OP1 (x, y, z) = (− WD / 2, HT / 2, L) (10)
OP2 (x, y, z) = (− WD / 2, −HT / 2, L) (11)
OP3 (x, y, z) = (WD / 2, HT / 2, L) (12)
OP4 (x, y, z) = (WD / 2, −HT / 2, L) (13)
Here, when the center of the
このように、障害物400の四隅の位置OP1、OP2、OP3、OP4は、検知結果INFaの幅WD、高さHT、距離L、中心水平角度θhおよび中心垂直角度θvを用いて、センサ30の座標系で表される。
As described above, the positions OP1, OP2, OP3, and OP4 at the four corners of the
図12は、障害物400の位置が表示範囲DRAN内か否かの判定の概要を示している。図12のU軸、V軸、S軸は、車両300の座標系の軸を示している。例えば、車両300を上から見た場合の車両300の中心で、地面の位置を原点とする。そして、車両300の前方向をV軸、車両300の右方向をU軸、上方向をS軸とする。例えば、図12では、車両300の座標系でのカメラ20の座標(u、v、s)を、座標(Uc、Vc、Sc)とし、車両300の座標系でのセンサ30の座標(u、v、s)を、座標(Uq、Vq、Sq)とする。
FIG. 12 shows an outline of determination as to whether or not the position of the
また、角度PanC、PanQは、車両300の座標系のUV平面でのカメラ20およびセンサ30のそれぞれのパン角度(U軸が0度)を示している。また、角度TiltC、TiltQは、車両300の座標系のUV平面に対するカメラ20およびセンサ30のそれぞれのチルト角度(UV平面に交わる方向とUV平面との角度)である。チルト角度は、例えば、UV平面より上をプラスとする。なお、図12の例では、角度TiltC、TiltQは、0度である。角度RollC、RollQは、カメラ20およびセンサ30のそれぞれのロール角度である。例えば、角度RollCは、カメラ30の向く方向の回りを回転するロール角度である。なお、図12の例では、角度RollC、RollQは、0度である。角度RollCが0度の場合、例えば、モニタ40に表示される地面(画像IMGbに表示される地面)に垂直な方向とモニタ40の縦方向とがほぼ一致する。
The angles PanC and PanQ indicate the pan angles (the U axis is 0 degree) of the
画像処理装置50は、例えば、障害物400の四隅の位置OP1、OP2、OP3、OP4の座標を、センサ30の座標系から車両300の座標系に変換する。センサ30の座標系での位置OP1、OP2、OP3、OP4の座標は、図11で説明したように、検知結果INFaの幅WD、高さHT、距離L、中心水平角度θhおよび中心垂直角度θvを用いて、式(14)−式(17)で表される。
For example, the
なお、図12では、位置OP1−OP4のセンサ30の座標系での各座標(x、y、z)を、座標(Xop1、Yop1、Zop1)、座標(Xop2、Yop2、Zop2)、座標(Xop3、Yop3、Zop3)、座標(Xop4、Yop4、Zop4)とする。また、位置OP1−OP4の車両300の座標系での各座標(u、v、s)を、座標(Uop1、Vop1、Sop1)、座標(Uop2、Vop2、Sop2)、座標(Uop3、Vop3、Sop3)、座標(Uop4、Vop4、Sop4)とする。
In FIG. 12, the coordinates (x, y, zop1), coordinates (Xop1, Yop1, Zop1), coordinates (Xop2, Yop2, Zop2), coordinates (Xop3) in the coordinate system of the
位置OP1−OP4に対するセンサ30の座標系から車両300の座標系への変換は、式(18)−式(21)で与えられる。
Conversion from the coordinate system of the
以下、式(18)を導き出す過程を説明する。例えば、センサ30の座標系のXZ平面の座標は、車両300の座標系のUV平面上で角度PanQだけ回転させ、センサ30のUV平面での座標(Uq、Vq)に対応するオフセットを加算することにより、UV平面の座標に変換される。したがって、位置OP1のUV平面での座標(Uop1、Vop1)は、位置OP1のXZ平面での座標(Xop1、Zop1)、角度PanQ、センサ30のUV平面での座標(Uq、Vq)を用いて、式(22)で表される。
Hereinafter, the process of deriving Equation (18) will be described. For example, the coordinates of the XZ plane of the coordinate system of the
また、車両300の座標系での位置OP1のS座標(Sop1)は、センサ30の座標系での位置OP1のY座標(Yop1)に、車両300の座標系でのセンサ30のS座標(Sq)を加算した値である。したがって、位置OP1のS座標(Sop1)は、位置OP1のY座標(Yop1)およびセンサ30のS座標(Sq)を用いて、式(23)で表される。
In addition, the S coordinate (Sop1) of the position OP1 in the coordinate system of the
Sop1=Yop1+Sq ‥‥(23)
式(22)および式(23)をまとめて行列式で表現すると、座標(Uop1、Vop1、Sop1)は、式(24)で表される。
Sop1 = Yop1 + Sq (23)
When Expression (22) and Expression (23) are collectively expressed as a determinant, coordinates (Uop1, Vop1, Sop1) are expressed by Expression (24).
そして、式(24)の座標(Uq、Vq、Sq)の加算部分を行列に組み込み、行列の掛け算のみで表現すると、式(18)が導き出される。式(19)−式(21)も、式(18)と同様に導き出される。 Then, when the addition part of the coordinates (Uq, Vq, Sq) of Expression (24) is incorporated into a matrix and expressed only by matrix multiplication, Expression (18) is derived. Expressions (19) to (21) are also derived in the same manner as Expression (18).
次に、位置OP1−OP4が表示範囲DRAN内か否かを判定する際の条件について説明する。画角φwは、表示範囲DRANの水平方向の範囲を角度で表したときの画角を示している。この実施形態では、カメラ20の撮影範囲CRANは、表示範囲DRANと同じである。したがって、画角φwは、カメラ20の水平方向の画角を示している。
Next, conditions for determining whether or not the positions OP1 to OP4 are within the display range DRAN will be described. The angle of view φw indicates the angle of view when the horizontal range of the display range DRAN is expressed as an angle. In this embodiment, the shooting range CRAN of the
例えば、表示範囲DRAN内のUV平面の座標では、カメラ20に向かう線分とU軸方向に沿う線分との角度は、角度“PanC−φw/2”以上で角度“PanC+φw/2”以下である。したがって、カメラ20の位置(Uc、Vc)から見た位置OP1−OP4のU軸に対する水平方向のそれぞれの角度が角度“PanC−φw/2”以上で角度“PanC+φw/2”以下の場合、位置OP1−OP4は、表示範囲DRAN内に存在する。
For example, in the coordinates of the UV plane in the display range DRAN, the angle between the line segment toward the
カメラ20の位置(Uc、Vc)から見た位置OP1−OP4のU軸に対する水平方向のそれぞれの角度をθhop1、θhop2、θhop3、θhop4とする。この場合、角度θhop1、位置OP1のUV平面における座標(Vop1、Uop1)およびカメラ20のUV平面における座標(Uc、Vc)の関係は、式(25)で表される。
The angles in the horizontal direction with respect to the U axis at positions OP1 to OP4 viewed from the position (Uc, Vc) of the
tan(θhop1)=(Vop1−Vc)/(Uop1−Uc) ‥‥(25)
角度θhop2−θhop4、位置OP2−OP4のUV平面における座標およびカメラ20のUV平面における座標(Uc、Vc)の関係も、式(25)と同様の関係式で表される。したがって、角度θhop1−θhop4は、式(26)−式(29)で表される。
tan (θhop1) = (Vop1-Vc) / (Uop1-Uc) (25)
The relationship between the angle θhop2-θhop4, the coordinates of the positions OP2-OP4 in the UV plane and the coordinates (Uc, Vc) in the UV plane of the
θhop1=tan−1((Vop1−Vc)/(Uop1−Uc)) ‥‥(26)
θhop2=tan−1((Vop2−Vc)/(Uop2−Uc)) ‥‥(27)
θhop3=tan−1((Vop3−Vc)/(Uop3−Uc)) ‥‥(28)
θhop4=tan−1((Vop4−Vc)/(Uop4−Uc)) ‥‥(29)
例えば、画像処理装置50の判定部120は、角度θhop1−θhop4の全てが角度“PanC−φw/2”以上で角度“PanC+φw/2”以下の場合、表示範囲DRANの水平方向について、表示範囲DRAN内に障害物400が存在すると判定する。なお、判定部120は、角度θhop1、θhop2の一方と角度θhop3、θhop4の一方とを確認することにより、表示範囲DRANのうちの水平方向の範囲に障害物400が存在するか否かを判定してもよい。
θhop1 = tan −1 ((Vop1−Vc) / (Uop1−Uc)) (26)
θhop2 = tan −1 ((Vop2−Vc) / (Uop2−Uc)) (27)
θhop3 = tan −1 ((Vop3-Vc) / (Uop3-Uc)) (28)
θhop4 = tan −1 ((Vop4-Vc) / (Uop4-Uc)) (29)
For example, the
次に、表示範囲DRANの垂直方向について説明する。画角φvは、表示範囲DRANの垂直方向の範囲を角度で表したときの画角を示している。この実施形態では、カメラ20の撮影範囲CRANは、表示範囲DRANと同じである。したがって、画角φvは、カメラ20の垂直方向の画角を示している。ここで、図12では、カメラ20のS方向の位置(高さ)がセンサ30のS方向の位置(高さ)と同じであるとして説明する。
Next, the vertical direction of the display range DRAN will be described. The angle of view φv indicates the angle of view when the vertical range of the display range DRAN is expressed as an angle. In this embodiment, the shooting range CRAN of the
例えば、角度TiltCが0度であるため、表示範囲DRAN内のS座標では、カメラ20に向かう線分とUV平面との角度は、角度“−φv/2”以上で角度“φv/2”以下である。位置OP1−OP4からカメラ20に向かう線分とUV平面とのそれぞれの角度をθvop1、θvop2、θvop3、θvop4とする。この場合、角度θvop1、位置OP1の座標(Vop1、Uop1、Sop1)およびカメラ20の座標(Uc、Vc、Sc)の関係は、式(30)で表される。
For example, since the angle TiltC is 0 degree, in the S coordinate in the display range DRAN, the angle between the line segment toward the
なお、式(30)の右辺の分母は、位置OP1とカメラ20とのUV平面における距離を表している。角度θvop2−θvop4、位置OP2−OP4の座標およびカメラ20の座標(Uc、Vc、Sc)の関係も、式(30)と同様の関係式で表される。したがって、角度θvop1−θvop4は、式(31)−式(34)で表される。
The denominator on the right side of Expression (30) represents the distance between the position OP1 and the
例えば、判定部120は、角度θvop1−θvop4の全てが角度“−φv/2”以上で角度“φv/2”以下の場合、表示範囲DRANの垂直方向について、表示範囲DRAN内に障害物400が存在すると判定する。なお、判定部120は、角度θvop1、θvop3の一方と角度θvop2、θvop4の一方とを確認することにより、表示範囲DRANのうちの垂直方向の範囲に障害物400が存在するか否かを判定してもよい。
For example, when all the angles θvop1 to θvop4 are equal to or larger than the angle “−φv / 2” and smaller than the angle “φv / 2”, the
このように、判定部120は、カメラ20から見た位置OP(OP1−OP4)の水平および垂直方向の角度θhop(θhop1−θhop4)、θvop(θvop1−θvop4)に基づいて、障害物400の位置が表示範囲DRAN内か否かを判定する。なお、判定部120は、障害物400の少なくとも一部が表示範囲DRAN内に存在している場合、障害物400が表示範囲DRAN内に存在していると判定してもよい。
In this manner, the
また、例えば、判定部120は、以下に示す式(35)−式(38)の少なくとも1つを満たす位置OP(OP1−OP4)が存在する場合、障害物400が画像IMGbの端に存在すると判定する。
For example, when there is a position OP (OP1-OP4) that satisfies at least one of the following formulas (35) to (38), the
θhop=PanC−φw/2 ‥‥(35)
θhop=PanC+φw/2 ‥‥(36)
θvop=−φv/2 ‥‥(37)
θvop=φv/2 ‥‥(38)
なお、障害物400が表示範囲DRAN内から表示範囲DRAN外に移動するまでの撮影期間において、角度θhop等が表示範囲DRANの端に完全に重なる状態が撮影されない場合もある。このため、判定部120は、所定の幅(例えば、±5度)の余裕を持って、式(35)−式(38)の少なくとも1つを満たすか判定してもよい。例えば、所定の幅をMh、Mvとした場合、判定部120は、以下に示す式(39)−式(42)の少なくとも1つを満たす位置OP(OP1−OP4)が存在する場合、障害物400が画像IMGbの端に存在すると判定する。
θhop = PanC−φw / 2 (35)
θhop = PanC + φw / 2 (36)
θvop = −φv / 2 (37)
θvop = φv / 2 (38)
Note that there may be a case where the state in which the angle θ hop or the like completely overlaps the end of the display range DRAN is not captured during the imaging period until the
PanC−φw/2−Mh≦θhop≦PanC−φw/2+Mh ‥‥(39)
PanC+φw/2−Mh≦θhop≦PanC+φw/2+Mh ‥‥(40)
−φv/2−Mv≦θvop≦−φv/2+Mv ‥‥(41)
φv/2−Mv≦θvop≦φv/2+Mv ‥‥(42)
なお、所定の幅Mh、Mvは、プラス側とマイナス側とで異なる値でもよい。障害物400が画像IMGbの端に存在すると判定された場合、図13に示すように、障害物400の画像BIMGaが画像IMGaから抽出される。
PanC−φw / 2−Mh ≦ θhop ≦ PanC−φw / 2 + Mh (39)
PanC + φw / 2−Mh ≦ θhop ≦ PanC + φw / 2 + Mh (40)
−φv / 2−Mv ≦ θvop ≦ −φv / 2 + Mv (41)
φv / 2−Mv ≦ θvop ≦ φv / 2 + Mv (42)
The predetermined widths Mh and Mv may be different values on the plus side and the minus side. When it is determined that the
また、判定部120は、例えば、障害物400の少なくとも一部が画像IMGbの端を超えたか否かを角度θhop、θvopに基づいて判定することにより、障害物400が画像IMGbの端に存在するか否かを判定してもよい。この場合、障害物400の少なくとも一部が画像IMGbの端を超えたと判定される前まで、障害物400の画像BIMGaは、画像IMGaから抽出される。そして、保持部140に保持されている画像BIMGaは、抽出された画像BIMGaに更新される。なお、障害物400の少なくとも一部が画像IMGbの端を超えたと判定されたときには、障害物400の画像BIMGaは、抽出されない。すなわち、保持部140には、障害物400の少なくとも一部が画像IMGbの端を超えたと判定される前に抽出された障害物400の画像BIMGaが保持されている。
Further, the
図13は、障害物400の画像BIMGaの抽出の一例を示している。なお、図13では、図7等との対応を容易にするために、保持部100から読み出される画像IMGaは、鏡像処理(左右反転処理)が実行された画像として説明する。図13では、画像IMGaの中心を原点とし、画像IMGaの横方向をW軸、画像IMGaの縦方向をH軸とする。また、画像IMGaの横幅SCWおよび縦幅SCHは、画像IMGaがビットマップ画像の場合、画像IMGaの横方向および縦方向の画素数をそれぞれ示している。
FIG. 13 shows an example of extraction of the image BIMGa of the
なお、カメラ20のレンズの光軸に対する光の入射角は、例えば、入射した光の画像IMGa上の投影位置から画像IMGaの中心までの距離と比例関係にある。例えば、図12において、光の入射角が光軸(カメラの向き)に対して“φw/2”の場合、入射した光の画像IMGa上の投影位置から画像IMGaの中心までのW方向に沿う距離は、“SCW/2”画素に相当する距離である。すなわち、光の入射角が光軸(カメラの向き)に対して“φw/2”の場合、入射した光の画像IMGa上の投影位置は、画像IMGaの端である。また、例えば、光の入射角が光軸(カメラの向き)に対して“φw/4”の場合、入射した光の画像IMGa上の投影位置から画像IMGaの中心までのW方向に沿う距離は、“SCW/4”画素に相当する距離である。
The incident angle of light with respect to the optical axis of the lens of the
画像処理装置50の抽出部130は、例えば、障害物400が画像IMGbの端に存在すると判定された場合、位置OP1−OP4の画像IMGa上の4つの点で囲まれる範囲(図13の破線の枠内)の画像を、障害物400の画像BIMGaとして抽出する。例えば、位置OP1−OP4の画像IMGa上の各座標(W、H)を、座標(OP1w、OP1h)、座標(OP2w、OP2h)、座標(OP3w、OP3h)、座標(OP4w、OP4h)とする。
For example, when it is determined that the
この場合、位置OP1−OP4の画像IMGa上の各座標(W、H)は、横幅SCW、縦幅SCH、図12で説明した角度θhop1−θhop4、θvop1−θvop4、角度PanC、画角φw、φvを用いて、式(43)−式(50)で表される。なお、式(43)−式(50)は、画像IMGaが鏡像である場合の位置OP1−OP4の画像IMGa上で各座標(W、H)を表している。 In this case, the coordinates (W, H) on the image IMGa at the positions OP1-OP4 are the horizontal width SCW, the vertical width SCH, the angles θhop1-θhop4, θvop1-θvop4, the angle PanC, the angle of view φw, φv described in FIG. Is represented by Formula (43) -Formula (50). In addition, Formula (43) -Formula (50) represents each coordinate (W, H) on image IMGa of position OP1-OP4 in case image IMGa is a mirror image.
OP1w=−(θhop1−PanC)・(SCW/φw) ‥‥(43)
OP1h=θvop1・(SCH/φv) ‥‥(44)
OP2w=−(θhop2−PanC)・(SCW/φw) ‥‥(45)
OP2h=θvop2・(SCH/φv) ‥‥(46)
OP3w=−(θhop3−PanC)・(SCW/φw) ‥‥(47)
OP3h=θvop3・(SCH/φv) ‥‥(48)
OP4w=−(θhop4−PanC)・(SCW/φw) ‥‥(49)
OP4h=θvop4・(SCH/φv) ‥‥(50)
例えば、抽出部130は、式(43)−式(50)に基づいて、画像IMGa上の座標(OP1w、OP1h)、座標(OP2w、OP2h)、座標(OP3w、OP3h)、座標(OP4w、OP4h)を算出する。そして、抽出部130は、画像IMGa上の座標(OP1w、OP1h)、座標(OP2w、OP2h)、座標(OP3w、OP3h)、座標(OP4w、OP4h)で囲まれる範囲(図13の破線の枠内)の画像を、障害物400の画像BIMGaとして抽出する。また、抽出部130は、抽出した画像BIMGaを保持部140に保持する。
OP1w = − (θhop1-PanC). (SCW / φw) (43)
OP1h = θvop1 · (SCH / φv) (44)
OP2w = − (θhop2-PanC). (SCW / φw) (45)
OP2h = θvop2 · (SCH / φv) (46)
OP3w =-(θhop3-PanC) (SCW / φw) (47)
OP3h = θvop3 · (SCH / φv) (48)
OP4w =-([theta] hop4-PanC). (SCW / [phi] w) (49)
OP4h = θvop4 · (SCH / φv) (50)
For example, the
なお、抽出部130は、画像IMGbから障害物400の画像BIMGaを抽出してもよい。また、画像IMGa上の座標(OP1w、OP1h)、座標(OP2w、OP2h)、座標(OP3w、OP3h)、座標(OP4w、OP4h)は、判定部120で算出されてもよい。
Note that the
以上、図1から図13に示した実施形態の画像処理装置50、システム10および表示プログラムでは、障害物400が画像IMGbの端に存在するときの障害物400の画像BIMGaが画像IMGa、IMGbの少なくとも一方から抽出される。例えば、画像処理装置50は、保持部100、140、160、生成部110、判定部120、抽出部130および描画部150を有している。
As described above, in the
例えば、生成部110は、カメラ20で撮影された画像IMGaを保持部100から読み出し、画像IMGaからモニタ40に表示する画像IMGbを生成する。判定部120は、センサ30で検知された障害物400が画像IMGbに存在するか否かを判定し、障害物400が画像IMGbに存在するとき、障害物400が画像IMGbの端に存在するか否かを判定する。
For example, the
抽出部130は、障害物400が画像IMGbの端に存在すると判定されたとき、障害物400の画像BIMGaを画像IMGaから抽出する。そして、抽出部130は、障害物400の画像BIMGaを保持部140に保持する。これにより、保持部140は、障害物400が表示範囲DRAN外に移動する直前の状態に近い状態の障害物400の画像BIMGaを保持できる。
When it is determined that the
描画部150は、センサ30で検知されている障害物400が画像IMGbに存在しないと判定され、かつ、障害物400の画像BIMGが保持部140に保持されているとき、モニタ40に表示する画像IMGcに障害物400の画像BIMGaを追加する。これにより、表示範囲DRANの画像IMGbと障害物の画像BIMGaとがモニタ40に表示される。
The
したがって、この実施形態では、表示範囲DRAN外に存在する障害物400の過去の画像BIMGaが保持部140に保持されているとき、表示範囲DRANの画像IMGbのほかに障害物400の画像BIMGaをモニタ40に表示できる。例えば、この実施形態では、障害物400が表示範囲DRAN内から表示範囲DRAN外に移動したときにも、センサ30が障害物400を検知している間は、障害物400を追跡できる。そして、この実施形態では、障害物400が表示範囲DRAN内から表示範囲DRAN外に移動した場合でも、障害物400の全体が映ったできるだけ新しい過去の画像BIMGaを、モニタ40に表示できる。
Therefore, in this embodiment, when the past image BIMGa of the
ここで、例えば、運転者が車室内のモニタ40を見るために動かす視線の範囲は、運転者が車室外のサイドミラーを見るために動かす視線の範囲に比べて、狭い。このため、表示範囲DRAN内の画像IMGbのみが表示されたモニタ40を運転者が確認した場合、運転者が得る情報量は、サイドミラーを使用したときに比べて、減少するおそれがある。なお、この実施形態では、障害物400が表示範囲DRAN内から表示範囲DRAN外に移動したときにも、障害物400の全体が映ったできるだけ新しい過去の画像BIMGaをモニタ40に表示できるため、運転者が得る情報量の減少分の一部を補うことができる。
Here, for example, the range of the line of sight that the driver moves to see the
例えば、この実施形態では、表示範囲DRAN内から表示範囲DRAN外に移動した障害物400をセンサ30が検知している間は、緊急の対応が必要な障害物400か否かを判断する情報として、障害物400の画像BIMGaを継続的に運転者に提供できる。これにより、運転者は、モニタ40に画像BIMGaが表示されないカメラシステムを使用するときに比べて、緊急の対応が必要な障害物400か否かを容易に判断できる。
For example, in this embodiment, while the
このように、この実施形態では、システム10の利用者に伝える情報(例えば、車両300の周辺の情報)の低減を抑制できる。 As described above, in this embodiment, it is possible to suppress a reduction in information transmitted to the user of the system 10 (for example, information around the vehicle 300).
図14は、画像処理装置およびシステムの別の実施形態を示している。この実施形態のシステム10は、図1に示した画像処理装置50に抽出判定部122が追加された画像処理装置50Aを、画像処理装置50の代わりに有している。システム10および画像処理装置50Aのその他の構成は、図1に示したシステム10および画像処理装置50と同様である。図1から図13で説明した要素と同様の要素については、同様の符号を付し、これ等については、詳細な説明を省略する。
FIG. 14 shows another embodiment of the image processing apparatus and system. The
画像処理装置50Aは、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。例えば、表示プログラム等のソフトウエアは、プロセッサに画像処理装置50Aの動作を実行させてもよい。 The image processing apparatus 50A may be realized only by hardware, or may be realized by controlling the hardware by software. For example, software such as a display program may cause the processor to execute the operation of the image processing apparatus 50A.
画像処理装置50Aは、例えば、保持部100、140、160、生成部110、判定部120、抽出判定部122、抽出部130および描画部150を有している。抽出判定部122は、例えば、障害物400が画像IMGbの端に存在すると判定されたとき、障害物400の画像BIMGaを画像IMGaから抽出するか否かを画像IMGb内の障害物400の大きさに基づいて判定する。
The image processing apparatus 50A includes, for example, holding
例えば、抽出判定部122は、障害物400が画像IMGbの端に存在することを示す判定結果INFcを判定部120から受けたとき、画像IMGb内の障害物400の大きさが予め決められた下限値以上か否かを判定する。そして、抽出判定部122は、例えば、画像IMGb内の障害物400の大きさが下限値以上のとき、障害物400の画像BIMGaを画像IMGaから抽出すると判定する。障害物400の画像BIMGaを画像IMGaから抽出するか否かの判定結果INFdは、抽出部130に転送される。
For example, when the
例えば、抽出部130は、障害物400の画像BIMGaを画像IMGaから抽出することを示す判定結果INFdを抽出判定部122から受けたとき、保持部100に保持されている画像IMGaを読み出す。そして、抽出部130は、センサ30で検知された障害物400の範囲に対応する画像BIMGaを画像IMGaから抽出し、抽出した障害物400の画像BIMGaを保持部140に保持する。このように、抽出部130は、障害物400が画像IMGbの端に存在すると判定され、かつ、画像IMGb内の障害物400の大きさが下限値以上であると判定されたとき、障害物400の画像BIMGaを画像IMGaから抽出する。
For example, when receiving the determination result INFd indicating that the image BIMGa of the
これにより、下限値以上の大きさの障害物400がモニタ40に表示される。この場合、障害物400の画像BIMGaがモニタ40に表示されたときに、画像BIMGaが小さくなることを防止できる。
Thereby, the
なお、システム10の動作および構成は、この例に限定されない。また、画像処理装置50Aの構成および動作は、この例に限定されない。例えば、抽出判定部122は、障害物400が画像IMGbの端に存在することを示す判定結果INFcを判定部120から受けたとき、画像IMGb内の障害物400の大きさが予め決められた上限値以下か否かを判定してもよい。そして、抽出判定部122は、例えば、画像IMGb内の障害物400の大きさが上限値以下のとき、障害物400の画像BIMGaを画像IMGaから抽出すると判定してもよい。例えば、モニタ40の画像BIMGbの表示用の領域に合わせて上限値が設定されている場合、画像処理装置50Aは、画像BIMGaを縮小することなく、適切な大きさの画像BIMGaをモニタ40に表示できる。
The operation and configuration of the
あるいは、抽出判定部122は、画像IMGb内の障害物400の大きさが下限値以上で上限値以下のとき、障害物400の画像BIMGaを画像IMGaから抽出すると判定してもよい。また、抽出判定部122は、障害物400の画像BIMGaを画像IMGaから抽出するか否かを画像IMGa内の障害物400の大きさに基づいて判定してもよい。また、抽出部130は、障害物400の画像BIMGaを画像IMGbから抽出してもよい。
Alternatively, the
以上、図14に示した実施形態においても、図1から図13に示した実施形態と同様の効果を得ることができる。例えば、この実施形態では、システム10の利用者に伝える情報(例えば、車両300の周辺の情報)の低減を抑制できる。
As described above, also in the embodiment shown in FIG. 14, the same effects as those in the embodiment shown in FIGS. 1 to 13 can be obtained. For example, in this embodiment, reduction of information (for example, information around the vehicle 300) transmitted to the user of the
さらに、この実施形態では、抽出判定部122は、障害物400の画像BIMGaを画像IMGaから抽出するか否かを画像IMGb内の障害物400の大きさに基づいて判定する。例えば、抽出判定部122は、画像IMGb内の障害物400の大きさが下限値以上のとき、障害物400の画像BIMGaを画像IMGaから抽出すると判定する。この場合、下限値以上の大きさの障害物400がモニタ40に表示される。したがって、この実施形態では、障害物400の画像BIMGaがモニタ40に表示されたときに、画像BIMGaが小さくなることを防止できる。すなわち、この実施形態では、モニタ40に表示される画像BIMGaの解像度が不足することを防止できる。この結果、この実施形態では、鮮明な画像BIMGaを運転者に提供できる。
Furthermore, in this embodiment, the
また、例えば、抽出判定部122は、画像IMGb内の障害物400の大きさが上限値以下のとき、障害物400の画像BIMGaを画像IMGaから抽出すると判定してもよい。この場合、この実施形態では、例えば、モニタ40の画像BIMGbの表示用の領域に合わせて上限値を設定することにより、画像BIMGaを縮小することなく、適切な大きさの画像BIMGaをモニタ40に表示できる。
For example, the
図15は、画像処理装置およびシステムの別の実施形態を示している。この実施形態のシステム10は、図1に示したカメラ20および画像処理装置50の代わりに、カメラ20Aおよび画像処理装置50Bを有している。この実施形態の画像処理装置50Bでは、調整部124が図1に示した画像処理装置50に追加されている。また、画像処理装置50Bは、図1に示した生成部110の代わりに生成部110Aを有している。システム10および画像処理装置50Bのその他の構成は、図1に示したシステム10および画像処理装置50と同様である。図1から図13で説明した要素と同様の要素については、同様の符号を付し、これ等については、詳細な説明を省略する。
FIG. 15 shows another embodiment of the image processing apparatus and system. The
画像処理装置50Bは、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。例えば、表示プログラム等のソフトウエアは、プロセッサに画像処理装置50Bの動作を実行させてもよい。 The image processing device 50B may be realized only by hardware, or may be realized by controlling the hardware by software. For example, software such as a display program may cause the processor to execute the operation of the image processing device 50B.
カメラ20Aの撮影範囲CRANに対応する画角は、例えば、センサ30で障害物400が検知されていないときに表示される画像IMGbの表示範囲DRANに対応する画角より大きい。以下、センサ30で障害物400が検知されていないときに表示される画像IMGbの表示範囲DRANを通常表示範囲DRANとも称する。また、通常表示範囲DRANの画角より広い画角の表示範囲DRANを、拡大表示範囲DRANとも称する。
The angle of view corresponding to the shooting range CRAN of the
拡大表示範囲DRANの画角は、例えば、撮影範囲CRANの画角とほぼ同じ大きさである。なお、拡大表示範囲DRANの画角は、撮影範囲CRANの画角より小さくてもよい。例えば、撮影範囲CRANの画角が通常表示範囲DRANの画角の2倍以上の場合、拡大表示範囲DRANの画角は、通常表示範囲DRANの画角の2倍以下でもよい。 The angle of view of the enlarged display range DRAN is, for example, approximately the same size as the angle of view of the shooting range CRAN. Note that the angle of view of the enlarged display range DRAN may be smaller than the angle of view of the imaging range CRAN. For example, when the angle of view of the shooting range CRAN is more than twice the angle of view of the normal display range DRAN, the angle of view of the enlarged display range DRAN may be less than twice the angle of view of the normal display range DRAN.
画像処理装置50Bは、例えば、保持部100、140、160、生成部110A、判定部120、調整部124、抽出部130および描画部150を有している。調整部124は、カメラ20Aの画角が画像IMGbに反映されている表示範囲DRANの画角より大きく、かつ、センサ30により検知されている障害物400が画像IMGbに存在しないと判定されたとき、表示範囲DRANの画角を広くする。
The image processing device 50B includes, for example, holding
例えば、調整部124は、センサ30で検知されている障害物400が通常表示範囲DRAN内に存在しないことを示す判定結果INFbを判定部120から受けたとき、拡大表示範囲DRANの画角を示す情報INFeを生成部110Aに転送する。なお、調整部124は、例えば、センサ30で検知されている障害物400が通常表示範囲DRAN内に存在することを示す判定結果INFbを判定部120から受けたとき、通常表示範囲DRANの画角を示す情報INFeを生成部110Aに転送する。また、例えば、センサ30で障害物400が検知されていないとき、調整部124は、通常表示範囲DRANの画角を示す情報INFeを生成部110Aに転送する。
For example, the
生成部110Aは、情報INFeが示す画角の画像IMGbを、保持部100に保持されている画像IMGaから生成する。例えば、情報INFeが通常表示範囲DRANの画角を示している場合、生成部110Aは、通常表示範囲DRANの画像IMGbを生成する。すなわち、情報INFeが通常表示範囲DRANの画角を示している場合、生成部110Aは、図1に示した生成部110と同様の動作を実行する。
The
また、例えば、情報INFeが拡大表示範囲DRANの画角を示している場合、生成部110Aは、拡大表示範囲DRANの画像IMGbを生成する。これにより、通常表示範囲DRANより広い拡大表示範囲DRANの像が映っている画像IMGbがモニタ40に表示される。なお、モニタ40に表示される画像IMGbの大きさは、通常表示範囲DRANの画像IMGbと拡大表示範囲DRANの画像IMGbとでほぼ同じである。したがって、生成部110Aは、例えば、拡大表示範囲DRANの画像IMGbを生成する際、画像IMGbの表示用の領域に合わせて、画像IMGbを縮小する。
For example, when the information INFe indicates the angle of view of the enlarged display range DRAN, the
図16は、表示範囲DRANを広げるときの一例を示している。図16の通常表示範囲DRANnは、センサ30で障害物400が検知されていないときにモニタ40に表示される画像IMGbの表示範囲DRANを示している。また、拡大表示範囲DRANwは、センサ30で検知された障害物400が通常表示範囲DRANn内に存在しないときにモニタ40に表示される画像IMGbの表示範囲DRANを示している。
FIG. 16 shows an example when the display range DRAN is expanded. A normal display range DRANn in FIG. 16 indicates the display range DRAN of the image IMGb displayed on the
画像IMGb(n)は、センサ30で障害物400が検知されていないときにモニタ40に表示される画像IMGbを示している。画像IMGb(w)は、センサ30で検知された障害物400が通常表示範囲DRANn内に存在しないときにモニタ40に表示される画像IMGbを示している。また、画像処理装置50Bは、障害物400の画像BIMGaを保持している場合、画像IMGb(w)の他に、障害物400の画像BIMGaを画像BIMGbとしてモニタ40に表示する。なお、画像処理装置50Bは、障害物400の画像BIMGaを保持していない場合、障害物400の画像BIMGaの代わりに、警告用の画像(例えば、図7に示した画像BIMGb)を画像BIMGbとしてモニタ40に表示する。
The image IMGb (n) indicates the image IMGb displayed on the
図16の例では、カメラ20Aの撮影範囲CRANは、通常表示範囲DRANnより広く、拡大表示範囲DRANと同じである。したがって、センサ30で検知された障害物400が通常表示範囲DRANn内に存在しない場合、カメラ20で撮影された画像IMGaがモニタ40に表示される。
In the example of FIG. 16, the shooting range CRAN of the
このように、画像処理装置50Bは、センサ30で検知された障害物400が通常表示範囲DRANn内に存在しない場合、表示範囲DRANの画角を広げて、通常表示範囲DRANnより広い拡大表示範囲DRANwの画像IMGb(w)をモニタ40に表示する。例えば、画像処理装置50Bの調整部124は、センサ30で検知されている障害物400が通常表示範囲DRANn内に存在しないとき、モニタ40に表示する画像IMGbの表示範囲DRANを通常表示範囲DRANnより広くする。
As described above, when the
ここで、画像IMGb(w)内の破線の枠は、通常表示範囲DRANnに対応する範囲を分かりやすくするために記載したものであり、モニタ40には表示されない。なお、画像処理装置50Bは、通常表示範囲DRANnに対応する範囲を示す枠(例えば、画像IMGb(w)内の破線の枠)を画像IMGb(w)に重畳してモニタ40に表示してもよい。
Here, the broken-line frame in the image IMGb (w) is described for easy understanding of the range corresponding to the normal display range DRANn, and is not displayed on the
なお、システム10の動作および構成は、この例に限定されない。また、画像処理装置50Bの構成および動作は、この例に限定されない。例えば、表示範囲DRANを拡大表示範囲DRANwに変更する条件は、センサ30で検知されている障害物400が通常表示範囲DRANn外で拡大表示範囲DRANw内のときでもよい。この場合、画像処理装置50Bは、障害物400が映っている画像IMGb(w)をモニタ40に表示できる。
The operation and configuration of the
あるいは、画像処理装置50Bは、センサ30により検知されている障害物400が画像IMGbに存在しないとき、画像IMGbに対する障害物400の相対的な位置を算出する算出部を有してもよい。この場合、例えば、調整部124は、画像IMGaに反映されている撮影範囲がモニタ40の画面以上であり、障害物400の相対的な位置が画面内であるとき、画像IMGbに反映される表示範囲の画角を画面に対応する画角まで広くしてもよい。
Alternatively, the image processing device 50B may include a calculation unit that calculates the relative position of the
以上、図15および図16に示した実施形態においても、図1から図13に示した実施形態と同様の効果を得ることができる。例えば、この実施形態では、システム10の利用者に伝える情報(例えば、車両300の周辺の情報)の低減を抑制できる。
As described above, also in the embodiment shown in FIGS. 15 and 16, the same effect as that of the embodiment shown in FIGS. 1 to 13 can be obtained. For example, in this embodiment, reduction of information (for example, information around the vehicle 300) transmitted to the user of the
さらに、この実施形態では、調整部124は、センサ30で検知されている障害物400が画像IMGbに存在しないとき、表示範囲DRANの画角を広くする。すなわち、この実施形態では、センサ30で検知されている障害物400が通常表示範囲DRANn内に存在しない場合、センサ30で障害物400が検知されていないときに比べて、車両300の周辺の広い範囲を映した画像IMGb(w)を運転者に提供できる。
Further, in this embodiment, the
図17は、画像処理装置およびシステムの別の実施形態を示している。この実施形態のシステム10は、図15に示した画像処理装置50Bに枠描画部112が追加された画像処理装置50Cを、画像処理装置50Bの代わりに有している。システム10および画像処理装置50Cのその他の構成は、図15に示したシステム10および画像処理装置50Bと同様である。図1から図16で説明した要素と同様の要素については、同様の符号を付し、これ等については、詳細な説明を省略する。
FIG. 17 shows another embodiment of the image processing apparatus and system. The
画像処理装置50Cは、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。例えば、表示プログラム等のソフトウエアは、プロセッサに画像処理装置50Cの動作を実行させてもよい。 The image processing apparatus 50C may be realized only by hardware, or may be realized by controlling the hardware by software. For example, software such as a display program may cause the processor to execute the operation of the image processing device 50C.
画像処理装置50Cは、例えば、保持部100、140、160、生成部110A、枠描画部112、判定部120、抽出部130および描画部150を有している。枠描画部112は、画像IMGbを生成部110Aから受け、画像IMGb2を保持部160に保持する。例えば、枠描画部112は、画像IMGbの表示範囲DRANが通常表示範囲DRANnの場合、画像IMGbを画像IMGb2として保持部160に保持する。
The image processing apparatus 50C includes, for example, holding
また、例えば、画像IMGbの表示範囲DRANが拡大表示範囲DRANwの場合、枠描画部112は、通常表示範囲DRANnを示す枠を画像IMGbに重畳した画像IMGb2を保持部160に保持する。例えば、枠描画部112は、拡大表示範囲DRANwの画像IMGb上の通常表示範囲DRANnの位置を算出し、通常表示範囲DRANnを示す枠を画像IMGbに重畳する。これにより、通常表示範囲DRANnを示す枠が重畳された画像IMGb2が生成される。拡大表示範囲DRANwの画像IMGbに重畳される枠は、例えば、図15に示した画像IMGb(w)内の破線の枠である。なお、拡大表示範囲DRANwの画像IMGbに重畳される枠は、実線でもよい。
For example, when the display range DRAN of the image IMGb is the enlarged display range DRANw, the
このように、枠描画部112は、表示範囲DRANの画角を広くする場合、表示範囲DRANの画角を広くする前の通常表示範囲DRANnを示す枠を表示範囲DRANの画角を広くした画像IMGb内に表示する。
As described above, when the
以上、図17に示した実施形態においても、図15および図16に示した実施形態と同様の効果を得ることができる。例えば、この実施形態では、システム10の利用者に伝える情報(例えば、車両300の周辺の情報)の低減を抑制できる。また、この実施形態では、センサ30で検知されている障害物400が通常表示範囲DRANn内に存在しない場合、センサ30で障害物400が検知されていないときに比べて、車両300の周辺の広い範囲を映した画像IMGb(w)を運転者に提供できる。
As described above, also in the embodiment shown in FIG. 17, the same effects as those in the embodiment shown in FIGS. 15 and 16 can be obtained. For example, in this embodiment, reduction of information (for example, information around the vehicle 300) transmitted to the user of the
さらに、この実施形態では、枠描画部112は、表示範囲DRANの画角を広くする場合、表示範囲DRANの画角を広くする前の通常表示範囲DRANnを示す枠を表示範囲DRANの画角を広くした画像IMGb内に表示する。このため、この実施形態では、通常表示範囲DRANn外に障害物400が存在することを強調して運転者に伝えることができる。
Further, in this embodiment, when the
図18は、画像処理装置およびシステムの別の実施形態を示している。この実施形態のシステム10は、図1に示したカメラ20および画像処理装置50の代わりに、カメラ20Aおよび画像処理装置50Dを有している。この実施形態の画像処理装置50Dは、図1に示した判定部120および描画部150の代わりに、判定部120Aおよび描画部150Aを有している。システム10および画像処理装置50Dのその他の構成は、図1に示したシステム10および画像処理装置50と同様である。図1から図17で説明した要素と同様の要素については、同様の符号を付し、これ等については、詳細な説明を省略する。
FIG. 18 shows another embodiment of the image processing apparatus and system. The
画像処理装置50Dは、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。例えば、表示プログラム等のソフトウエアは、プロセッサに画像処理装置50Dの動作を実行させてもよい。 The image processing device 50D may be realized only by hardware, or may be realized by controlling the hardware by software. For example, software such as a display program may cause the processor to execute the operation of the image processing device 50D.
カメラ20Aの撮影範囲CRANに対応する画角は、例えば、表示範囲DRANに対応する画角より大きい。したがって、カメラ20Aは、表示範囲DRANより広い撮影範囲CRANの像が映っている画像IMGaを、画像処理装置50Dに転送する。
The angle of view corresponding to the shooting range CRAN of the
画像処理装置50Dは、例えば、保持部100、140、160、生成部110、判定部120A、抽出部130および描画部150Aを有している。生成部110は、表示範囲DRANより広い撮影範囲CRANの画像IMGaから表示範囲DRANの画像IMGbを抽出する。
The image processing device 50D includes, for example, holding
判定部120Aは、センサ30で検知された障害物400が表示範囲DRAN内に存在しないとき、障害物400がカメラ20Aの撮影範囲CRAN内に存在するか否かを判定する。すなわち、判定部120Aは、センサ30で検知された障害物400が画像IMGbに存在しないとき、障害物400が画像IMGaに存在するか否かを判定する。
When the
なお、判定部120Aの動作は、画像IMGbに存在しない障害物400が画像IMGaに存在するか否かを判定することを除いて、図1に示した判定部120と同様である。例えば、判定部120Aは、センサ30で検知された障害物400が画像IMGbに存在するとき、障害物400が画像IMGbの端に存在するか否かを判定する。
The operation of the
判定部120Aの判定結果INFc、INFb2は、例えば、抽出部130および描画部150Aにそれぞれ転送される。例えば、判定部120Aは、障害物400が画像IMGbの端に存在するか否かの判定結果INFcを抽出部130に転送する。また、例えば、判定部120Aは、障害物400が画像IMGbに存在するか否かの判定結果INFb2を描画部150Aに転送する。なお、障害物400が画像IMGbに存在しないことを示す判定結果INFb2には、障害物400が画像IMGaに存在するか否かの判定結果も含まれる。
The determination results INFc and INFb2 of the
描画部150Aは、センサ30により検知されている障害物400が画像IMGbに存在せず、かつ、センサ30により検知されている障害物400が画像IMGaに存在するとき、画像IMGaから障害物400の画像を抽出する。そして、描画部150Aは、画像IMGaから抽出した障害物400の画像を、モニタ40に表示する障害物400の画像BIMGaとして使用する。
When the
すなわち、描画部150Aは、センサ30で検知された障害物400が画像IMGbに存在せず、かつ、障害物400が画像IMGaに存在するとき、画像IMGaから抽出した障害物400の画像を、画像BIMGbとして保持部160に保持する。
That is, the
例えば、描画部150Aは、障害物400が画像IMGbに存在せず、かつ、障害物400が画像IMGaに存在することを示す判定結果INFb2を判定部120Aから受けたとき、保持部100に保持されている画像IMGaを読み出す。そして、描画部150Aは、センサ30で検知された障害物400の範囲に対応する画像を画像IMGaから抽出し、抽出した障害物400の画像を画像BIMGbとして保持部160に保持する。これにより、障害物400の新しい画像がモニタ40に表示される。
For example, the
描画部150Aの動作は、センサ30で検知された障害物400が画像IMGbに存在せず、かつ、障害物400が画像IMGaに存在するときの動作を除いて、図1に示した描画部150と同様である。
The
なお、システム10の構成および動作は、この例に限定されない。また、画像処理装置50Dの構成および動作は、この例に限定されない。例えば、描画部150Aは、障害物400の画像BIMGaが保持部140に保持されているときには、障害物400が画像IMGaに存在するか否かに拘わらず、保持部140に保持されている画像BIMGaを、画像BIMGbとして保持部160に保持してもよい。あるいは、描画部150Aは、画像IMGaから抽出した障害物400の画像を、画像BIMGaとして保持部140に保持してもよい。
The configuration and operation of the
図19は、モニタ40に表示される画像IMGcの一例を示している。図19の障害物400aは、センサ30が検知した障害物400bの前の状態(障害物400、表示範囲DRAN、検知範囲SRANの相対的な位置関係)を示している。障害物400bが検知される前の状態では、センサ30の検知範囲SRAN内に障害物400が存在していないため、画像IMGbおよび余白BSPを含む画像IMGc(a)がモニタ40に表示される。なお、表示範囲DRAN内に障害物400が存在しないため、画像IMGbには、障害物400は映っていない。
FIG. 19 shows an example of an image IMGc displayed on the
そして、例えば、障害物400aがセンサ30の検知範囲SRAN外から検知範囲SRAN内に表示範囲DRANを通過せずに移動した場合、センサ30は、検知範囲SRAN内の障害物400b(障害物400aの移動後の状態)を検知する。なお、センサ30で検知された障害物400bは、表示範囲DRAN外でカメラ20Aの撮影範囲CRAN内に存在する。
For example, when the
このため、描画部150Aは、画像IMGaから抽出した障害物400bの画像を画像BIMGbとしてモニタ40に表示する。すなわち、障害物400bが映っていない画像IMGbと障害物400bが映っている画像BIMGbとを含む画像IMGc(b)がモニタ40に表示される。このように、画像処理装置50Dは、表示範囲DRAN外に存在する障害物400bがカメラ20Aの撮影範囲CRAN内に存在するとき、障害物400の新しい画像BIMGbをモニタ40に表示できる。
Therefore, the
なお、画像処理装置50Dは、障害物400bがカメラ20Aの撮影範囲CRAN内に存在するときには、障害物400bの過去の画像BIMGaが保持部140に保持されているか否かに拘わらず、障害物400bの新しい画像BIMGbをモニタ40に表示できる。
Note that when the
以上、図18および図19に示した実施形態においても、図1から図13に示した実施形態と同様の効果を得ることができる。例えば、この実施形態では、システム10の利用者に伝える情報(例えば、車両300の周辺の情報)の低減を抑制できる。
As described above, also in the embodiment shown in FIGS. 18 and 19, the same effect as that of the embodiment shown in FIGS. 1 to 13 can be obtained. For example, in this embodiment, reduction of information (for example, information around the vehicle 300) transmitted to the user of the
さらに、この実施形態では、描画部150Aは、センサ30で検知されている障害物400が画像IMGbに存在せず、かつ、障害物400が画像IMGaに存在するとき、画像IMGaから抽出した障害物400の画像を、モニタ40に表示する。すなわち、この実施形態では、センサ30で検知されている障害物400が撮影範囲CRAN内に存在する限り、障害物400の新しい画像をモニタ40に表示できる。これにより、この実施形態では、障害物400の新しい画像を運転者に提供できる。また、この実施形態では、障害物400の過去の画像BIMGaが保持部140に保持されていない場合でも、センサ30で検知されている障害物400が撮影範囲CRAN内に存在するときには、障害物400の新しい画像をモニタ40に表示できる。
Further, in this embodiment, the
図20は、画像処理装置およびシステムの別の実施形態を示している。この実施形態のシステム10では、図1に示したシステム10にサブカメラ22が追加されている。さらに、この実施形態のシステム10は、図1に示した画像処理装置50に保持部142が追加された画像処理装置50Eを、画像処理装置50の代わりに有している。また、画像処理装置50Eは、図1に示した判定部120および描画部150の代わりに、判定部120Bおよび描画部150Bを有している。システム10および画像処理装置50Eのその他の構成は、図1に示したシステム10および画像処理装置50と同様である。図1から図19で説明した要素と同様の要素については、同様の符号を付し、これ等については、詳細な説明を省略する。
FIG. 20 shows another embodiment of the image processing apparatus and system. In the
画像処理装置50Eは、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。例えば、表示プログラム等のソフトウエアは、プロセッサに画像処理装置50Eの動作を実行させてもよい。
The
システム10は、例えば、カメラ20、サブカメラ22、センサ30、モニタ40および画像処理装置50Eを有している。例えば、サブカメラ22は、カメラ20の撮影範囲CRAN外を撮影できるように、車両300の側面に配置される。サブカメラ22で撮影された画像SIMGaは、画像処理装置50Eに転送される。したがって、画像処理装置50Eは、カメラ20で撮影された画像IMGaとサブカメラ22で撮影された画像SIMGaとセンサ30の検知結果INFaとを受ける。そして、画像処理装置50Eは、画像IMGa、SIMGa、検知結果INFa等に基づいて生成した画像IMGcをモニタ40に表示する。
The
画像処理装置50Eは、例えば、保持部100、140、142、160、生成部110、判定部120B、抽出部130および描画部150Bを有している。保持部142は、サブカメラ22で撮影された画像SIMGaを順次保持する。
The
判定部120Bは、センサ30で検知された障害物400が表示範囲DRAN内に存在しないとき、障害物400がサブカメラ22の撮影範囲に存在するか否かを判定する。すなわち、判定部120Bは、センサ30で検知された障害物400が画像IMGbに存在しないとき、障害物400が画像SIMGaに存在するか否かを判定する。
The
なお、判定部120Bの動作は、画像IMGbに存在しない障害物400が画像SIMGaに存在するか否かを判定することを除いて、図1に示した判定部120と同様である。例えば、判定部120Bは、センサ30で検知された障害物400が画像IMGbに存在するとき、障害物400が画像IMGbの端に存在するか否かを判定する。
The operation of the
判定部120Bの判定結果INFc、INFb3は、例えば、抽出部130および描画部150Bにそれぞれ転送される。例えば、判定部120Bは、障害物400が画像IMGbの端に存在するか否かの判定結果INFcを抽出部130に転送する。また、例えば、判定部120Bは、障害物400が画像IMGbに存在するか否かの判定結果INFb3を描画部150Bに転送する。なお、障害物400が画像IMGbに存在しないことを示す判定結果INFb3には、障害物400が画像SIMGaに存在するか否かの判定結果も含まれる。
The determination results INFc and INFb3 of the
描画部150Bは、センサ30により検知されている障害物400が画像IMGbに存在せず、かつ、センサ30により検知されている障害物400が画像SIMGaに存在するとき、画像SIMGaから障害物400の画像を抽出する。そして、描画部150Bは、画像SIMGaから抽出した障害物400の画像を、モニタ40に表示する障害物400の画像BIMGaとして使用する。
When the
すなわち、描画部150Bは、センサ30で検知された障害物400が画像IMGbに存在せず、かつ、障害物400が画像SIMGaに存在するとき、画像SIMGaから抽出した障害物400の画像を、画像BIMGbとして保持部160に保持する。
That is, the
例えば、描画部150Bは、障害物400が画像IMGbに存在せず、かつ、障害物400が画像SIMGaに存在することを示す判定結果INFb3を判定部120Bから受けたとき、保持部142に保持されている画像SIMGaを読み出す。そして、描画部150Bは、センサ30で検知された障害物400の範囲に対応する画像を画像SIMGaから抽出し、抽出した障害物400の画像を画像BIMGbとして保持部160に保持する。これにより、障害物400の新しい画像がモニタ40に表示される。
For example, the
描画部150Bの動作は、センサ30で検知された障害物400が画像IMGbに存在せず、かつ、障害物400が画像SIMGaに存在するときの動作を除いて、図1に示した描画部150と同様である。
The
なお、システム10の構成および動作は、この例に限定されない。また、画像処理装置50Eの構成および動作は、この例に限定されない。例えば、描画部150Bは、障害物400の画像BIMGaが保持部140に保持されているときには、障害物400が画像SIMGaに存在するか否かに拘わらず、保持部140に保持されている画像BIMGaを、画像BIMGbとして保持部160に保持してもよい。あるいは、描画部150Bは、画像SIMGaから抽出した障害物400の画像を、画像BIMGaとして保持部140に保持してもよい。
The configuration and operation of the
図21は、カメラ20の撮影範囲CRANとサブカメラ22の撮影範囲CRAN2とセンサ30の検知範囲SRANの一例を示している。例えば、自動車の左右のサイドミラーの代わりに、2つのシステム10(カメラ20、サブカメラ22、センサ30、モニタ40および画像処理装置50E)が車両300に搭載されている。
FIG. 21 shows an example of the shooting range CRAN of the
2つのカメラ20は、車両300の右側面および左側面にそれぞれ配置されている。図21の例では、カメラ20の撮影範囲CRANは、表示範囲DRANと同じである。すなわち、カメラ20で撮影された画像IMGaがモニタ40に表示される。2つのセンサ30は、車両300の右側面および左側面にそれぞれ配置されている。この実施形態では、センサ30の検知範囲SRANは、カメラ20の撮影範囲CRANより広い。したがって、センサ30は、カメラ20の撮影範囲CRANの外側に存在する物体(例えば、障害物)を検知できる。
The two
2つのサブカメラ22は、車両300の右側面および左側面にそれぞれ配置されている。例えば、サブカメラ22は、カメラ20の撮影範囲CRAN外を撮影できるように、車両300の側面に配置される。すなわち、サブカメラ22の撮影範囲CRAN2は、カメラ20の撮影範囲CRANを補っている。これにより、画像処理装置50Eは、センサ30で検知された障害物400がカメラ20の撮影範囲CRAN内に存在しないときにも、障害物400がサブカメラ22の撮影範囲CRAN2内に存在する限り、障害物400の新しい画像をモニタ40に表示できる。
The two
カメラ20、サブカメラ22およびセンサ30は、例えば、ECUに接続され、画像IMGa、SIMGaおよび検知結果INFaをECUにそれぞれ転送する。なお、ECUは、図20に示した画像処理装置50Eを有している。また、ECUは、モニタ40に接続され、画像IMGcをモニタ40に表示する。例えば、右側に配置されたモニタ40は、車両300の右側面のカメラ20、サブカメラ22およびセンサ30からのデータ(画像IMGa、SIMGa、検知結果INFa)に基づく画像IMGcを表示する。また、左側に配置されたモニタ40は、車両300の左側面のカメラ20、サブカメラ22およびセンサ30からのデータ(画像IMGa、SIMGa、検知結果INFa)に基づく画像IMGcを表示する。
The
以上、図20および図21に示した実施形態においても、図1から図13に示した実施形態と同様の効果を得ることができる。例えば、この実施形態では、システム10の利用者に伝える情報(例えば、車両300の周辺の情報)の低減を抑制できる。
As described above, also in the embodiment shown in FIGS. 20 and 21, the same effect as that of the embodiment shown in FIGS. 1 to 13 can be obtained. For example, in this embodiment, reduction of information (for example, information around the vehicle 300) transmitted to the user of the
さらに、この実施形態では、システム10は、カメラ20の撮影範囲CRANを補うサブカメラ22を有している。サブカメラ22は、例えば、撮影した画像SIMGaを画像処理装置50Eに順次転送する。また、描画部150Bは、センサ30で検知されている障害物400が画像IMGbに存在せず、かつ、障害物400が画像SIMGaに存在するとき、画像SIMGaから抽出した障害物400の画像を、モニタ40に表示する。
Furthermore, in this embodiment, the
すなわち、この実施形態では、センサ30で検知されている障害物400がカメラ20の撮影範囲CRAN内に存在しないときにも、障害物400がサブカメラ22の撮影範囲CRAN2内に存在する限り、障害物400の新しい画像をモニタ40に表示できる。これにより、この実施形態では、障害物400の新しい画像を運転者に提供できる。また、この実施形態では、障害物400の過去の画像BIMGaが保持部140に保持されていない場合でも、センサ30で検知されている障害物400がサブカメラ22の撮影範囲CRAN2内に存在するときには、障害物400の新しい画像をモニタ40に表示できる。
In other words, in this embodiment, even when the
図22は、画像処理装置およびシステムの別の実施形態を示している。この実施形態のシステム10は、図1に示した画像処理装置50に算出部126が追加された画像処理装置50Fを、画像処理装置50の代わりに有している。また、画像処理装置50Fは、外挿部114を含む生成部110Bを、図1に示した生成部110の代わりに有している。システム10および画像処理装置50Fのその他の構成は、図1に示したシステム10および画像処理装置50と同様である。図1から図21で説明した要素と同様の要素については、同様の符号を付し、これ等については、詳細な説明を省略する。
FIG. 22 shows another embodiment of the image processing apparatus and system. The
画像処理装置50Fは、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。例えば、表示プログラム等のソフトウエアは、プロセッサに画像処理装置50Fの動作を実行させてもよい。 The image processing device 50F may be realized only by hardware, or may be realized by controlling the hardware by software. For example, software such as a display program may cause the processor to execute the operation of the image processing device 50F.
画像処理装置50Fは、例えば、保持部100、140、160、生成部110B、判定部120、算出部126、抽出部130および描画部150を有している。判定部120は、例えば、障害物400が画像IMGbに存在するか否かの判定結果INFbを算出部126に転送する。なお、画像IMGbは、図1等で説明したように、画像IMGaから抽出される表示範囲DRANの画像IMGbである。カメラ20の撮影範囲CRANと表示範囲DRANとが一致する場合、表示範囲DRANの画像IMGbは、画像IMGaである。
The image processing apparatus 50F includes, for example, holding
算出部126は、例えば、障害物400が画像IMGbに存在しないことを示す判定結果INFbを受けたとき、モニタ40の画面上の画像BIMGb(障害物400の画像BIMGaや警告用の画像)の表示位置を算出する。そして、算出部126は、モニタ40の画面上の画像BIMGbの表示位置等を示す情報PINF1、PINF2を描画部150および生成部110Bにそれぞれ転送する。
For example, when receiving the determination result INFb indicating that the
情報PINF1は、例えば、画面上の画像BIMGbの表示位置を示す情報である。また、情報PINF2は、例えば、空白領域、あるいは、画像BIMGbの表示領域を示す情報である。ここで、空白領域は、例えば、画像BIMGbおよび画像IMGbのいずれも表示されない画面内の領域である。すなわち、空白領域は、表示範囲DRAN外に対応する画面上の領域から画像IMGbの表示領域を除いた領域である。 The information PINF1 is information indicating the display position of the image BIMGb on the screen, for example. The information PINF2 is information indicating a blank area or a display area of the image BIMGb, for example. Here, the blank area is, for example, an area in the screen where neither the image BIMGb nor the image IMGb is displayed. That is, the blank area is an area obtained by removing the display area of the image IMGb from the area on the screen corresponding to the outside of the display range DRAN.
なお、障害物400が画像IMGbに存在する場合、例えば、算出部126は、障害物400が画像IMGbに存在することを示す情報PINF1、PINF2を描画部150および生成部110Bにそれぞれ転送する。
When the
例えば、算出部126は、センサ30により検知されている障害物400が画像IMGbに存在しないとき、画像IMGbに対する障害物400の相対的な位置を算出する。なお、画像IMGbに対する障害物400の相対的な位置がモニタ40の画面外である場合、算出部126は、画像BIMGbの表示位置をモニタ40の画面内の位置に決定する。この場合、例えば、画像BIMGbの表示位置(モニタ40の画面上の位置)は、予め設定された固定位置でもよいし、画像IMGaに対する障害物400の相対的な位置に応じてモニタ40の画面内で調整される位置でもよい。
For example, when the
描画部150は、例えば、算出部126からの情報PINF1が示す表示位置に画像BIMGbが表示されるように、画像BIMGbを保持部160に保持する。すなわち、描画部150は、モニタ40の画面が画像IMGbより大きく、障害物400の相対的な位置が画面内であるとき、画面上の障害物400の相対的な位置に、障害物400の画像BIMGaを表示させる。
For example, the
例えば、描画部150は、障害物400の画像BIMGaが保持部140に保持されているとき、情報PINF1が示す表示位置に画像BIMGaが表示されるように、画像BIMGaを画像BIMGbとして保持部160に保持する。また、例えば、描画部150は、障害物400の画像BIMGaが保持部140に保持されていないとき、情報PINF1が示す表示位置に警告用の画像が表示されるように、警告用の画像を画像BIMGbとして保持部160に保持する。
For example, when the image BIMGa of the
生成部110Bは、例えば、外挿部114を有している。生成部110Bの動作は、外挿部114に関する動作を除いて、図1に示した生成部110と同様である。したがって、生成部110Bの外挿部114以外の動作については、詳細な説明を省略する。
The
外挿部114は、モニタ40の画面が画像IMGbより大きく、障害物400の相対的な位置が画面内であるとき、画面のうち、画像IMGbおよび障害物400の画像BIMGaのいずれも表示されない空白領域の画像を、画像IMGbに基づいて生成する。例えば、外挿部114は、算出部126からの情報PINF2が示す空白領域に表示する画像を、画像IMGbを外挿して生成する。
When the screen of the
なお、外挿部114は、情報PINF2が画像BIMGbの表示領域を示す情報である場合、情報PINF2が示す画像BIMGbの表示領域と、画像IMGbの表示領域とに基づいて、空白領域を算出してもよい。
When the information PINF2 is information indicating the display area of the image BIMGb, the
生成部110Bにより生成された画像IMGb3は、保持部160に保持される。例えば、生成部110Bは、画像IMGbに対する障害物400の相対的な位置がモニタ40の画面内の場合、画像IMGbを外挿して空白領域を埋めた画像IMGb3を、保持部160に保持する。また、例えば、生成部110Bは、画像IMGbに対する障害物400の相対的な位置がモニタ40の画面外の場合、画像IMGbを画像IMGb3として保持部160に保持する。なお、センサ30で検知されている障害物400が画像IMGbに存在するときにも、生成部110Bは、画像IMGbを画像IMGb3として保持部160に保持する。
The image IMGb3 generated by the
これにより、保持部160には、画像IMGb3を含む画像IMGc2が保持される。なお、保持部160に画像BIMGbが保持されている場合、画像IMGc2は、画像IMGb3および画像BIMGbを含む画像である。
As a result, the holding
図23は、表示範囲DRANの画像IMGbを外挿して空白領域EAREに画像を表示する処理の一例を示している。モニタ40(a)は、画像IMGb、BIMGbおよび空白領域EAREのモニタ40の画面上の位置関係を示している。なお、モニタ40の画面に表示される画像は、画像IMGb外の障害物400の相対的な位置が画面内である場合、モニタ40(b)に示すように、空白領域EAREが埋められた画像IMGc2である。モニタ40(b)は、画像IMGbを外挿して空白領域EAREを埋めた画像IMGb3と画像BIMGbとを含む画像IMGc2が表示されたモニタ40の画面を示している。
FIG. 23 shows an example of a process for extrapolating the image IMGb in the display range DRAN and displaying the image in the blank area EARE. The monitor 40 (a) shows the positional relationship between the images IMGb and BIMGb and the blank area EARE on the
図23の符号PX(PXo、PXe)は、モニタ40の画面内の画素を示している。また、画素PXo(PXo1、PXo2、PXo3)は、画像IMGb内の画素PXを示し、画素PXe(PXe1−PXe7)は、空白領域EAREの画素PXを示している。図23では、着目する1つの画素PXeと消失点Pdとを結ぶ直線(画面の端まで延長した線)上の画素PXeでは、同じ画像が連続すると仮定した場合の処理を説明する。なお、消失点Pdは、例えば、車両走行時に画像が流れ込む中心の座標である。
A symbol PX (PXo, PXe) in FIG. 23 indicates a pixel in the screen of the
先ず、外挿部114は、カメラ20の取り付け位置や向きに基づいて、画像が流れ込む中心の座標(消失点Pd)を算出する。例えば、外挿部114は、カメラ20の取り付け位置や向きを示す情報を判定部120から取得する。そして、外挿部114は、車両300が直進する場合のカメラ20の向きに対する移動方向等に基づいて、画像IMGaの消失点を算出する。そして、外挿部114は、画像IMGbの表示領域および表示位置等に基づいて、モニタ40の画面上での消失点Pdを画像IMGaの消失点から算出する。
First, the
次に、外挿部114は、例えば、空白領域EAREから1つの画素PXeを選択し、選択した画素PXe(例えば、画素PXe1)と消失点Pdとを結ぶ直線(図23の破線の矢印)を算出する。以下、画素PXe1が選択されたものとして説明する。
Next, the
外挿部114は、画素PXe1と消失点Pdとを結ぶ直線と、画像IMGbの境界とが交わる箇所を算出する。そして、外挿部114は、直線と画像IMGbの境界とが交わる箇所の画素PXo1の色を取得する。また、外挿部114は、直線と画像IMGbの境界とが交わる箇所の画素PXo1から消失点Pdに向かって数個の画素PXo(例えば、画素PXo2、PXo3)の色を取得する。
The
そして、外挿部114は、取得した数個の画素PXo1−PXo3の色の平均を算出する。外挿部114は、画素PXo1−PXo3の色を平均した色を、画素PXe1の色として描画する。これにより、画素PXo1−PXo3の色を平均した色が、モニタ40の画素PXe1に表示される。なお、この実施形態では、ノイズ対策として、画素PXo1−PXo3の色を平均している。したがって、ノイズ対策を別に実行する場合等では、外挿部114は、数個の画素PXoの色の平均を使用せずに、画素PXo1の色を画素PXe1の色として描画してもよい。
Then, the
画素PXe1に対して実行された処理は、空白領域EAREの全ての画素PXeが描画されるまで、空白領域EAREの各画素PXeに対して実行される。これにより、空白領域EAREが埋められた画像IMGc2がモニタ40に表示される。この結果、この実施形態では、空白領域EAREの画像が欠落することに対する運転者の違和感を緩和できる。
The process executed for the pixel PXe1 is executed for each pixel PXe in the blank area EARE until all the pixels PXe in the blank area EARE are drawn. Thus, the image IMGc2 in which the blank area EARE is filled is displayed on the
なお、システム10の動作および構成は、この例に限定されない。また、画像処理装置50Fの構成および動作は、この例に限定されない。例えば、画像処理装置50Fは、生成部110Bの外部に外挿部114を有してもよい。また、外挿部114は、画像BIMGbが表示されない画面内の領域を外挿して埋めてもよい。この場合、描画部150は、例えば、画像IMGb3が保持部160に保持された後に、算出部126からの情報PINF1が示す表示位置に画像BIMGbを上書きする。
The operation and configuration of the
また、着目する1つの画素PXeと消失点Pdとを結ぶ直線上の画素PXeでは、同じ画像が連続すると仮定した場合、外挿部114は、直線上の1つの画素PXeの色を算出し、算出した色を直線上の残りの画素PXeの色としてもよい。
In addition, in the pixel PXe on the straight line connecting the one pixel PXe of interest and the vanishing point Pd, when the same image is assumed to be continuous, the
あるいは、画像処理装置50Fは、画像IMGbの境界を示す枠(例えば、画像IMGc2内の破線の枠)を画像IMGc2に重畳してモニタ40に表示してもよい。例えば、画像処理装置50Fは、図17に示した枠描画部112と同様のモジュールを有してもよい。
Alternatively, the image processing device 50F may display a frame indicating the boundary of the image IMGb (for example, a broken line frame in the image IMGc2) on the
また、外挿部114は、カメラ20の撮影範囲CRANに対応する画角が表示範囲DRANに対応する画角より大きい場合、空白領域EAREと重なる部分の画像IMGaを、外挿の画像として使用してもよい。この場合、画像IMGaと重ならない空白領域EAREの部分の色が、画像IMGaあるいは画像IMGbを外挿することにより算出される。
Further, when the angle of view corresponding to the shooting range CRAN of the
以上、図22および図23に示した実施形態においても、図1から図13に示した実施形態と同様の効果を得ることができる。例えば、この実施形態では、システム10の利用者に伝える情報(例えば、車両300の周辺の情報)の低減を抑制できる。
As described above, also in the embodiment shown in FIGS. 22 and 23, the same effect as the embodiment shown in FIGS. 1 to 13 can be obtained. For example, in this embodiment, reduction of information (for example, information around the vehicle 300) transmitted to the user of the
さらに、この実施形態では、外挿部114は、障害物400の相対的な位置がモニタ40の画面内であるとき、空白領域EAREの画像を画像IMGbに基づいて生成する。これにより、この実施形態では、空白領域EAREを埋めた画像IMGc2をモニタ40に表示できる。この結果、この実施形態では、空白領域EAREの画像が欠落することに対する運転者の違和感を緩和できる。
Furthermore, in this embodiment, the
図24は、画像処理装置およびシステムの別の実施形態を示している。この実施形態のシステム10は、図1に示した画像処理装置50の代わりに、画像処理装置50Gを有している。また、画像処理装置50Gは、図1に示した判定部120、抽出部130、保持部140および描画部150の代わりに、判定部120C、抽出部130A、保持部140Aおよび描画部150Cを有している。システム10および画像処理装置50Gのその他の構成は、図1に示したシステム10および画像処理装置50と同様である。図1から図23で説明した要素と同様の要素については、同様の符号を付し、これ等については、詳細な説明を省略する。
FIG. 24 shows another embodiment of the image processing apparatus and system. The
画像処理装置50Gは、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。例えば、表示プログラム等のソフトウエアは、プロセッサに画像処理装置50Gの動作を実行させてもよい。 The image processing apparatus 50G may be realized only by hardware, or may be realized by controlling the hardware by software. For example, software such as a display program may cause the processor to execute the operation of the image processing device 50G.
画像処理装置50Gは、例えば、保持部100、140A、160、生成部110、判定部120C、抽出部130Aおよび描画部150Cを有している。判定部120C、抽出部130A、保持部140Aおよび描画部150Cは、複数の障害物400に対して処理を実行できる。判定部120C、抽出部130A、保持部140Aおよび描画部150Cのその他の動作は、図1に示した判定部120、抽出部130、保持部140および描画部150と同様である。
The image processing device 50G includes, for example, holding
例えば、判定部120Cは、センサ30により検知されている障害物400が複数の場合、複数の障害物400のそれぞれに対して、障害物400が画像IMGbに存在するか否かを判定する。そして、判定部120Cは、画像IMGbに存在する障害物400に対して、障害物400が画像IMGbの端に存在するか否かを判定する。
For example, when there are a plurality of
また、判定部120Cは、複数の障害物400のそれぞれに対して、追跡中の障害物400か否かを判定する。そして、判定部120Cは、新たな障害物400(追跡中の障害物400と異なる障害物400)と判定した障害物400に対しては、識別情報を付与する。このように、画像処理装置50Gは、識別情報を用いて、複数の障害物400を管理する。
In addition, the
抽出部130Aは、画像IMGbの端に存在すると判定されたそれぞれの障害物400の画像BIMGaを画像IMGaから抽出する。なお、各障害物400の画像BIMGaも各障害物400に付与された識別情報により管理される。保持部140Aは、抽出部130Aで抽出されたそれぞれの障害物400の画像BIMGaを保持する。すなわち、保持部140Aは、複数の画像BIMGaを保持できる。
130 A of extraction parts extract image BIMGa of each
描画部150Cは、例えば、画像IMGbに存在しないと判定された障害物400に対応する障害物400の画像BIMGaが保持部140Aに保持されているか否かを、障害物400に付与された識別情報に基づいて判定する。そして、描画部150Cは、画像IMGbに存在しないと判定された障害物400に対応し、かつ、保持部140Aに保持されている障害物400の画像BIMGaを、モニタ40に表示する画像IMGcに追加する。また、例えば、描画部150Cは、画像IMGbに存在しないと判定された障害物400の少なくとも1つが、画像BIMGaが保持部140Aに保持されていない障害物400である場合、モニタ40に表示する画像IMGcに警告用の画像を追加してもよい。
For example, the drawing unit 150C determines whether or not the image BIMGa of the
なお、システム10の動作および構成は、この例に限定されない。また、画像処理装置50Gの構成および動作は、この例に限定されない。例えば、図14から図23で説明した画像処理装置50A、50B、50C、50D、50E、50Fに、複数の障害物400を管理する機能を追加してもよい。
The operation and configuration of the
以上、図24に示した実施形態においても、図1から図13に示した実施形態と同様の効果を得ることができる。例えば、この実施形態では、システム10の利用者に伝える情報(例えば、車両300の周辺の情報)の低減を抑制できる。
As described above, also in the embodiment shown in FIG. 24, the same effects as those in the embodiment shown in FIGS. 1 to 13 can be obtained. For example, in this embodiment, reduction of information (for example, information around the vehicle 300) transmitted to the user of the
さらに、この実施形態では、センサ30により検知されている障害物400が複数の場合でも、判定部120C、抽出部130A、保持部140Aおよび描画部150Cは、複数の障害物400に対して処理を実行できる。これにより、この実施形態では、センサ30で複数の障害物400が検知された場合でも、表示範囲DRAN外の複数の障害物400に対応する画像BIMGbをモニタ40に表示できる。これにより、この実施形態では、複数の障害物400が車両300の周辺に存在することを運転者に伝えることができる。
Furthermore, in this embodiment, even when there are a plurality of
図25は、画像処理装置のハードウエア構成の一例を示している。なお、図1から図24で説明した要素と同様の要素については、同様の符号を付し、これ等については、詳細な説明を省略する。 FIG. 25 shows an example of the hardware configuration of the image processing apparatus. Elements similar to those described in FIGS. 1 to 24 are denoted by the same reference numerals, and detailed description thereof will be omitted.
コンピュータ装置CPは、プロセッサPUと、メモリMEMと、ハードディスク装置HDDと、入出力インタフェースIFと、光学ドライブ装置ODRとを有している。プロセッサPUと、メモリMEMと、ハードディスク装置HDDと、入出力インタフェースIFと、光学ドライブ装置ODRとは、バスを介して互いに接続されている。 The computer device CP includes a processor PU, a memory MEM, a hard disk device HDD, an input / output interface IF, and an optical drive device ODR. The processor PU, the memory MEM, the hard disk device HDD, the input / output interface IF, and the optical drive device ODR are connected to each other via a bus.
プロセッサPUと、メモリMEMと、ハードディスク装置HDDと、入出力インタフェースIFとは、例えば、画像処理装置50、50A、50B、50C、50D、50E、50F、50Gのいずれかの機能を実現する。例えば、プロセッサPUと、メモリMEMと、ハードディスク装置HDDと、入出力インタフェースIFとは、ECU内に配置されている。
The processor PU, the memory MEM, the hard disk device HDD, and the input / output interface IF realize, for example, any of the functions of the
光学ドライブ装置ODRは、光ディスク等のリムーバブルディスクDISを装着可能であり、装着したリムーバブルディスクDISに記録された情報の読み出しおよび記録を行う。 The optical drive device ODR can be mounted with a removable disk DIS such as an optical disk, and reads and records information recorded on the mounted removable disk DIS.
コンピュータ装置CPは、入出力インタフェースIFを介してカメラ20およびセンサ30に接続されている。これにより、プロセッサPUは、入出力インタフェースIFを介して、カメラ20で撮影された画像IMGaやセンサ30の検知結果INFaを受け取ることができる。なお、プロセッサPU等が画像処理装置50Eの機能を実現する場合、図20に示したサブカメラ22も入出力インタフェースIFを介してコンピュータ装置CPに接続される。
The computer device CP is connected to the
メモリMEMは、例えば、コンピュータ装置CPのオペレーティングシステムを格納している。また、メモリMEMは、例えば、例えば、画像処理装置50、50A、50B、50C、50D、50E、50F、50Gのいずれかの動作をプロセッサPUが実行するための表示プログラム等のアプリケーションプログラムを格納している。
The memory MEM stores, for example, the operating system of the computer device CP. Further, the memory MEM stores application programs such as a display program for the processor PU to execute any of the operations of the
表示プログラム等のアプリケーションプログラムは、例えば、光ディスクなどのリムーバブルディスクDISに記録して頒布することができる。例えば、コンピュータ装置CPは、表示プログラム等のアプリケーションプログラムを、リムーバブルディスクDISから光学ドライブ装置ODRを介して読み出し、メモリMEMやハードディスク装置HDDに格納してもよい。また、コンピュータ装置CPは、表示プログラム等のアプリケーションプログラムを、インターネット等のネットワークに接続する通信装置(図示せず)を介してダウンロードし、メモリMEMやハードディスク装置HDDに格納してもよい。 An application program such as a display program can be recorded and distributed on a removable disk DIS such as an optical disk. For example, the computer device CP may read an application program such as a display program from the removable disk DIS via the optical drive device ODR and store it in the memory MEM or the hard disk device HDD. Further, the computer device CP may download an application program such as a display program via a communication device (not shown) connected to a network such as the Internet and store it in the memory MEM or the hard disk device HDD.
画像処理装置のハードウエア構成は、この例に限定されない。例えば、コンピュータ装置CPは、光学ドライブ装置ODRが省かれてもよい。 The hardware configuration of the image processing apparatus is not limited to this example. For example, the optical drive device ODR may be omitted from the computer device CP.
以上の実施形態において説明した発明を整理して、付記として開示する。
(付記1)
カメラと物体を検知するセンサとからのデータを用いて、画像をモニタに表示する画像処理装置であって、
前記カメラで撮影された第1画像を保持する第1保持部と、
前記第1保持部に保持されている前記第1画像から前記モニタに表示する第2画像を生成する生成部と、
前記センサの検知結果を受け、前記センサにより検知された前記物体である障害物が前記第2画像に存在するか否かを判定し、前記障害物が前記第2画像に存在するとき、前記障害物が前記第2画像の端に存在するか否かを判定する判定部と、
前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出する抽出部と、
前記抽出部で抽出された前記障害物の画像を保持する第2保持部と、
前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定され、かつ、前記障害物の画像が前記第2保持部に保持されているとき、前記モニタに表示する画像に前記障害物の画像を追加する描画部と
を備えていることを特徴とする画像処理装置。
(付記2)
付記1に記載の画像処理装置において、
前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出するか否かを前記第2画像内の前記障害物の大きさに基づいて判定する第2判定部を備えていることを特徴とする画像処理装置。
(付記3)
付記1または付記2に記載の画像処理装置において、
前記カメラの画角が前記第2画像に反映されている表示範囲の画角より大きく、かつ、前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定されたとき、前記表示範囲の画角を広くする調整部を備えていることを特徴とする画像処理装置。
(付記4)
付記3に記載の画像処理装置において、
前記表示範囲の画角を広くする場合、前記表示範囲の画角を広くする前の前記表示範囲を示す枠を前記表示範囲の画角を広くした前記第2画像内に表示する第2生成部を備えていることを特徴とする画像処理装置。
(付記5)
付記1または付記2に記載の画像処理装置において、
前記第1画像に反映されている撮影範囲は、前記第2画像に反映されている表示範囲より大きく、
前記描画部は、前記センサにより検知されている前記障害物が前記第2画像に存在せず、かつ、前記センサにより検知されている前記障害物が前記第1画像に存在するとき、前記第1画像から前記障害物の画像を抽出し、抽出した前記障害物の画像を前記モニタに表示する前記障害物の画像として使用する
ことを特徴とする画像処理装置。
(付記6)
付記1または付記2に記載の画像処理装置において、
前記カメラとは別のカメラである第2カメラで撮影された第3画像を保持する第3保持部を備え、
前記描画部は、前記センサにより検知されている前記障害物が前記第2画像に存在せず、かつ、前記センサにより検知されている前記障害物が前記第3画像に存在するとき、前記第3画像から前記障害物の画像を抽出し、抽出した前記障害物の画像を前記モニタに表示する前記障害物の画像として使用する
ことを特徴とする画像処理装置。
(付記7)
付記1または付記2に記載の画像処理装置において、
前記センサにより検知されている前記障害物が前記第2画像に存在しないとき、前記第2画像に対する前記障害物の相対的な位置を算出する算出部と、
前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記第2画像および前記障害物の画像のいずれも表示されない領域の画像を、前記第2画像に基づいて生成する外挿部とを備え、
前記描画部は、前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記画面上の前記障害物の相対的な位置に、前記障害物の画像を表示させる
ことを特徴とする画像処理装置。
(付記8)
付記7に記載の画像処理装置において、
前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記画面に表示される前記第2画像の境界に枠を表示する第2生成部を備えていることを特徴とする画像処理装置。
(付記9)
付記1ないし付記8のいずれか1項に記載の画像処理装置において、
前記判定部は、前記センサにより検知されている前記障害物が複数の場合、前記複数の障害物のそれぞれに対して、前記障害物が前記第2画像に存在するか否かを判定し、前記第2画像に存在する前記障害物に対して、前記障害物が前記第2画像の端に存在するか否かを判定し、
前記抽出部は、前記第2画像の端に存在すると判定されたそれぞれの前記障害物の画像を前記第1画像から抽出し、
前記第2保持部は、前記抽出部で抽出されたそれぞれの前記障害物の画像を保持し、
前記描画部は、前記第2画像に存在しないと判定された前記障害物に対応し、かつ、前記第2保持部に保持されている前記障害物の画像を、前記モニタに表示する画像に追加する
ことを特徴とする画像処理装置。
(付記10)
付記1または付記2に記載の画像処理装置において、
前記センサにより検知されている前記障害物が前記第2画像に存在しないとき、前記第2画像に対する前記障害物の相対的な位置を算出する算出部と、
前記第1画像に反映されている撮影範囲が前記モニタの画面以上であり、前記障害物の相対的な位置が前記画面内であるとき、前記第2画像に反映される表示範囲の画角を前記画面に対応する画角まで広くする調整部と
を備えていることを特徴とする画像処理装置。
(付記11)
カメラ、センサ、画像処理装置およびモニタを備え、
前記画像処理装置は、
前記カメラで撮影された第1画像を保持する第1保持部と、
前記第1保持部に保持されている前記第1画像から前記モニタに表示する第2画像を生成する生成部と、
前記センサの検知結果を受け、前記センサにより検知された前記物体である障害物が前記第2画像に存在するか否かを判定し、前記障害物が前記第2画像に存在するとき、前記障害物が前記第2画像の端に存在するか否かを判定する判定部と、
前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出する抽出部と、
前記抽出部で抽出された前記障害物の画像を保持する第2保持部と、
前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定され、かつ、前記障害物の画像が前記第2保持部に保持されているとき、前記モニタに表示する画像に前記障害物の画像を追加する描画部と
を備えていることを特徴とするシステム。
(付記12)
付記11に記載のシステムにおいて、
前記画像処理装置は、前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出するか否かを前記第2画像内の前記障害物の大きさに基づいて判定する第2判定部を備えていることを特徴とするシステム。
(付記13)
付記11または付記12に記載のシステムにおいて、
前記画像処理装置は、前記カメラの画角が前記第2画像に反映されている表示範囲の画角より大きく、かつ、前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定されたとき、前記表示範囲の画角を広くする調整部を備えていることを特徴とするシステム。
(付記14)
付記13に記載のシステムにおいて、
前記画像処理装置は、前記表示範囲の画角を広くする場合、前記表示範囲の画角を広くする前の前記表示範囲を示す枠を前記表示範囲の画角を広くした前記第2画像内に表示する第2生成部を備えていることを特徴とするシステム。
(付記15)
付記11または付記12に記載のシステムにおいて、
前記第1画像に反映されている撮影範囲は、前記第2画像に反映されている表示範囲より大きく、
前記描画部は、前記センサにより検知されている前記障害物が前記第2画像に存在せず、かつ、前記センサにより検知されている前記障害物が前記第1画像に存在するとき、前記第1画像から前記障害物の画像を抽出し、抽出した前記障害物の画像を前記モニタに表示する前記障害物の画像として使用する
ことを特徴とするシステム。
(付記16)
付記11または付記12に記載のシステムにおいて、
前記カメラとは別のカメラである第2カメラを備え、
前記画像処理装置は、前記第2カメラで撮影された第3画像を保持する第3保持部を備え、
前記描画部は、前記センサにより検知されている前記障害物が前記第2画像に存在せず、かつ、前記センサにより検知されている前記障害物が前記第3画像に存在するとき、前記第3画像から前記障害物の画像を抽出し、抽出した前記障害物の画像を前記モニタに表示する前記障害物の画像として使用する
ことを特徴とするシステム。
(付記17)
付記11または付記12に記載のシステムにおいて、
前記画像処理装置は、
前記センサにより検知されている前記障害物が前記第2画像に存在しないとき、前記第2画像に対する前記障害物の相対的な位置を算出する算出部と、
前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記第2画像および前記障害物の画像のいずれも表示されない領域の画像を、前記第2画像に基づいて生成する外挿部とを備え、
前記描画部は、前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記画面上の前記障害物の相対的な位置に、前記障害物の画像を表示させる
ことを特徴とするシステム。
(付記18)
付記17に記載のシステムにおいて、
前記画像処理装置は、前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記画面に表示される前記第2画像の境界に枠を表示する第2生成部を備えていることを特徴とするシステム。
(付記19)
付記11ないし付記18のいずれか1項に記載のシステムにおいて、
前記判定部は、前記センサにより検知されている前記障害物が複数の場合、前記複数の障害物のそれぞれに対して、前記障害物が前記第2画像に存在するか否かを判定し、前記第2画像に存在する前記障害物に対して、前記障害物が前記第2画像の端に存在するか否かを判定し、
前記抽出部は、前記第2画像の端に存在すると判定されたそれぞれの前記障害物の画像を前記第1画像から抽出し、
前記第2保持部は、前記抽出部で抽出されたそれぞれの前記障害物の画像を保持し、
前記描画部は、前記第2画像に存在しないと判定された前記障害物に対応し、かつ、前記第2保持部に保持されている前記障害物の画像を、前記モニタに表示する画像に追加する
ことを特徴とするシステム。
(付記20)
付記11または付記12に記載のシステムにおいて、
前記画像処理装置は、
前記センサにより検知されている前記障害物が前記第2画像に存在しないとき、前記第2画像に対する前記障害物の相対的な位置を算出する算出部と、
前記第1画像に反映されている撮影範囲が前記モニタの画面以上であり、前記障害物の相対的な位置が前記画面内であるとき、前記第2画像に反映される表示範囲の画角を前記画面に対応する画角まで広くする調整部と
を備えていることを特徴とするシステム。
(付記21)
カメラと物体を検知するセンサとからのデータを用いて画像をモニタに表示する処理をコンピュータに実行させる表示プログラムであって、
前記カメラで撮影された第1画像を保持し、
前記第1保持部に保持されている前記第1画像から前記モニタに表示する第2画像を生成し、
前記センサの検知結果を受け、前記センサにより検知された前記物体である障害物が前記第2画像に存在するか否かを判定し、前記障害物が前記第2画像に存在するとき、前記障害物が前記第2画像の端に存在するか否かを判定し、
前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出し、
前記抽出部で抽出された前記障害物の画像を保持し、
前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定され、かつ、前記障害物の画像が前記第2保持部に保持されているとき、前記モニタに表示する画像に前記障害物の画像を追加する
処理をコンピュータに実行させることを特徴とする表示プログラム。
(付記22)
付記21に記載の表示プログラムにおいて、
前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出するか否かを前記第2画像内の前記障害物の大きさに基づいて判定する処理をコンピュータに実行させる表示プログラム。
(付記23)
付記21または付記22に記載の表示プログラムにおいて、
前記カメラの画角が前記第2画像に反映されている表示範囲の画角より大きく、かつ、前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定されたとき、前記表示範囲の画角を広くする処理をコンピュータに実行させる表示プログラム。
(付記24)
付記23に記載の表示プログラムにおいて、
前記表示範囲の画角を広くする場合、前記表示範囲の画角を広くする前の前記表示範囲を示す枠を前記表示範囲の画角を広くした前記第2画像内に表示する処理をコンピュータに実行させる表示プログラム。
(付記25)
付記21または付記22に記載の表示プログラムにおいて、
前記第1画像に反映されている撮影範囲が、前記第2画像に反映されている表示範囲より大きい場合、前記センサにより検知されている前記障害物が前記第2画像に存在せず、かつ、前記センサにより検知されている前記障害物が前記第1画像に存在するとき、前記第1画像から前記障害物の画像を抽出し、抽出した前記障害物の画像を前記モニタに表示する前記障害物の画像として使用する処理をコンピュータに実行させる表示プログラム。
(付記26)
付記21または付記22に記載の表示プログラムにおいて、
前記カメラとは別のカメラである第2カメラで撮影された第3画像を保持し、
前記センサにより検知されている前記障害物が前記第2画像に存在せず、かつ、前記センサにより検知されている前記障害物が前記第3画像に存在するとき、前記第3画像から前記障害物の画像を抽出し、抽出した前記障害物の画像を前記モニタに表示する前記障害物の画像として使用する
処理をコンピュータに実行させる表示プログラム。
(付記27)
付記21または付記22に記載の表示プログラムにおいて、
前記センサにより検知されている前記障害物が前記第2画像に存在しないとき、前記第2画像に対する前記障害物の相対的な位置を算出し、
前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記第2画像および前記障害物の画像のいずれも表示されない領域の画像を、前記第2画像に基づいて生成し、
前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記画面上の前記障害物の相対的な位置に、前記障害物の画像を表示させる
処理をコンピュータに実行させる表示プログラム。
(付記28)
付記27に記載の表示プログラムにおいて、
前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記画面に表示される前記第2画像の境界に枠を表示する処理をコンピュータに実行させる表示プログラム。
(付記29)
付記21ないし付記28のいずれか1項に記載の表示プログラムにおいて、
前記センサにより検知されている前記障害物が複数の場合、前記複数の障害物のそれぞれに対して、前記障害物が前記第2画像に存在するか否かを判定し、前記第2画像に存在する前記障害物に対して、前記障害物が前記第2画像の端に存在するか否かを判定し、
前記第2画像の端に存在すると判定されたそれぞれの前記障害物の画像を前記第1画像から抽出し、
前記抽出部で抽出されたそれぞれの前記障害物の画像を保持し、
前記第2画像に存在しないと判定された前記障害物に対応し、かつ、前記第2保持部に保持されている前記障害物の画像を、前記モニタに表示する画像に追加する
処理をコンピュータに実行させる表示プログラム。
(付記30)
付記21または付記22に記載の表示プログラムにおいて、
前記センサにより検知されている前記障害物が前記第2画像に存在しないとき、前記第2画像に対する前記障害物の相対的な位置を算出し、
前記第1画像に反映されている撮影範囲が前記モニタの画面以上であり、前記障害物の相対的な位置が前記画面内であるとき、前記第2画像に反映される表示範囲の画角を前記画面に対応する画角まで広くする
処理をコンピュータに実行させる表示プログラム。
The invention described in the above embodiments is organized and disclosed as an appendix.
(Appendix 1)
An image processing apparatus that displays an image on a monitor using data from a camera and a sensor that detects an object,
A first holding unit for holding a first image taken by the camera;
A generating unit that generates a second image to be displayed on the monitor from the first image held in the first holding unit;
The detection result of the sensor is received, it is determined whether or not the obstacle that is the object detected by the sensor exists in the second image, and when the obstacle exists in the second image, the obstacle A determination unit for determining whether an object is present at an end of the second image;
An extraction unit that extracts an image of the obstacle from the first image when it is determined that the obstacle exists at an edge of the second image;
A second holding unit that holds an image of the obstacle extracted by the extraction unit;
When it is determined that the obstacle detected by the sensor does not exist in the second image and the image of the obstacle is held in the second holding unit, the image displayed on the monitor An image processing apparatus comprising: a drawing unit that adds an image of an obstacle.
(Appendix 2)
In the image processing apparatus according to
When it is determined that the obstacle is present at the edge of the second image, whether or not the obstacle image is extracted from the first image is determined based on the size of the obstacle in the second image. An image processing apparatus comprising a second determination unit for determining.
(Appendix 3)
In the image processing apparatus according to
When it is determined that the angle of view of the camera is larger than the angle of view of the display range reflected in the second image and the obstacle detected by the sensor does not exist in the second image, An image processing apparatus comprising an adjustment unit that widens the angle of view of a display range.
(Appendix 4)
In the image processing device according to attachment 3,
When widening the angle of view of the display range, a second generation unit that displays a frame indicating the display range before widening the angle of view of the display range in the second image with the angle of view of the display range widened An image processing apparatus comprising:
(Appendix 5)
In the image processing apparatus according to
The shooting range reflected in the first image is larger than the display range reflected in the second image,
When the obstacle detected by the sensor does not exist in the second image and the obstacle detected by the sensor exists in the first image, the drawing unit An image processing apparatus, wherein an image of the obstacle is extracted from an image, and the extracted image of the obstacle is used as an image of the obstacle displayed on the monitor.
(Appendix 6)
In the image processing apparatus according to
A third holding unit for holding a third image taken by a second camera which is a camera different from the camera;
When the obstacle detected by the sensor does not exist in the second image and the obstacle detected by the sensor exists in the third image, the drawing unit An image processing apparatus, wherein an image of the obstacle is extracted from an image, and the extracted image of the obstacle is used as an image of the obstacle displayed on the monitor.
(Appendix 7)
In the image processing apparatus according to
A calculation unit that calculates a relative position of the obstacle with respect to the second image when the obstacle detected by the sensor does not exist in the second image;
When the screen of the monitor is larger than the second image and the relative position of the obstacle is within the screen, an image of an area in which neither the second image nor the obstacle image is displayed An extrapolation unit that generates based on two images,
When the screen of the monitor is larger than the second image and the relative position of the obstacle is within the screen, the drawing unit is arranged at the relative position of the obstacle on the screen. An image processing apparatus for displaying an image.
(Appendix 8)
In the image processing device according to attachment 7,
A second generator for displaying a frame at the boundary of the second image displayed on the screen when the screen of the monitor is larger than the second image and the relative position of the obstacle is within the screen; An image processing apparatus comprising:
(Appendix 9)
In the image processing device according to any one of
The determination unit determines whether or not the obstacle exists in the second image for each of the plurality of obstacles when the obstacle detected by the sensor is plural, For the obstacle present in the second image, determine whether the obstacle is present at the end of the second image,
The extraction unit extracts, from the first image, images of the respective obstacles determined to be present at the end of the second image,
The second holding unit holds an image of each obstacle extracted by the extraction unit,
The drawing unit adds an image of the obstacle corresponding to the obstacle determined not to exist in the second image and held in the second holding unit to an image displayed on the monitor An image processing apparatus.
(Appendix 10)
In the image processing apparatus according to
A calculation unit that calculates a relative position of the obstacle with respect to the second image when the obstacle detected by the sensor does not exist in the second image;
When the shooting range reflected in the first image is greater than or equal to the screen of the monitor and the relative position of the obstacle is within the screen, the angle of view of the display range reflected in the second image is An image processing apparatus comprising: an adjustment unit that widens the angle of view corresponding to the screen.
(Appendix 11)
A camera, a sensor, an image processing device and a monitor;
The image processing apparatus includes:
A first holding unit for holding a first image taken by the camera;
A generating unit that generates a second image to be displayed on the monitor from the first image held in the first holding unit;
The detection result of the sensor is received, it is determined whether or not the obstacle that is the object detected by the sensor exists in the second image, and when the obstacle exists in the second image, the obstacle A determination unit for determining whether an object is present at an end of the second image;
An extraction unit that extracts an image of the obstacle from the first image when it is determined that the obstacle exists at an edge of the second image;
A second holding unit that holds an image of the obstacle extracted by the extraction unit;
When it is determined that the obstacle detected by the sensor does not exist in the second image and the image of the obstacle is held in the second holding unit, the image displayed on the monitor And a drawing unit for adding an image of an obstacle.
(Appendix 12)
In the system according to attachment 11,
The image processing apparatus determines whether or not to extract an image of the obstacle from the first image when it is determined that the obstacle is present at an end of the second image. A system comprising: a second determination unit that determines based on the size of the system.
(Appendix 13)
In the system according to appendix 11 or appendix 12,
When the angle of view of the camera is larger than the angle of view of the display range reflected in the second image and the obstacle detected by the sensor is not present in the second image, the image processing apparatus A system comprising: an adjustment unit that, when determined, widens the angle of view of the display range.
(Appendix 14)
In the system according to attachment 13,
When the image processing apparatus widens the angle of view of the display range, a frame indicating the display range prior to widening the angle of view of the display range is included in the second image with the angle of view of the display range widened. A system comprising a second generation unit for displaying.
(Appendix 15)
In the system according to appendix 11 or appendix 12,
The shooting range reflected in the first image is larger than the display range reflected in the second image,
When the obstacle detected by the sensor does not exist in the second image and the obstacle detected by the sensor exists in the first image, the drawing unit An image of the obstacle is extracted from an image, and the extracted image of the obstacle is used as an image of the obstacle displayed on the monitor.
(Appendix 16)
In the system according to appendix 11 or appendix 12,
A second camera which is a camera different from the camera;
The image processing apparatus includes a third holding unit that holds a third image captured by the second camera,
When the obstacle detected by the sensor does not exist in the second image and the obstacle detected by the sensor exists in the third image, the drawing unit An image of the obstacle is extracted from an image, and the extracted image of the obstacle is used as an image of the obstacle displayed on the monitor.
(Appendix 17)
In the system according to appendix 11 or appendix 12,
The image processing apparatus includes:
A calculation unit that calculates a relative position of the obstacle with respect to the second image when the obstacle detected by the sensor does not exist in the second image;
When the screen of the monitor is larger than the second image and the relative position of the obstacle is within the screen, an image of an area in which neither the second image nor the obstacle image is displayed An extrapolation unit that generates based on two images,
When the screen of the monitor is larger than the second image and the relative position of the obstacle is within the screen, the drawing unit is arranged at the relative position of the obstacle on the screen. A system characterized by displaying images of
(Appendix 18)
In the system according to appendix 17,
The image processing device displays a frame at the boundary of the second image displayed on the screen when the screen of the monitor is larger than the second image and the relative position of the obstacle is within the screen. The system characterized by including the 2nd production | generation part to do.
(Appendix 19)
In the system according to any one of appendix 11 to appendix 18,
The determination unit determines whether or not the obstacle exists in the second image for each of the plurality of obstacles when the obstacle detected by the sensor is plural, For the obstacle present in the second image, determine whether the obstacle is present at the end of the second image,
The extraction unit extracts, from the first image, images of the respective obstacles determined to be present at the end of the second image,
The second holding unit holds an image of each obstacle extracted by the extraction unit,
The drawing unit adds an image of the obstacle corresponding to the obstacle determined not to exist in the second image and held in the second holding unit to an image displayed on the monitor A system characterized by
(Appendix 20)
In the system according to appendix 11 or appendix 12,
The image processing apparatus includes:
A calculation unit that calculates a relative position of the obstacle with respect to the second image when the obstacle detected by the sensor does not exist in the second image;
When the shooting range reflected in the first image is greater than or equal to the screen of the monitor and the relative position of the obstacle is within the screen, the angle of view of the display range reflected in the second image is An adjustment unit that widens the angle of view corresponding to the screen.
(Appendix 21)
A display program for causing a computer to execute a process of displaying an image on a monitor using data from a camera and a sensor for detecting an object,
Holding a first image taken by the camera;
Generating a second image to be displayed on the monitor from the first image held in the first holding unit;
The detection result of the sensor is received, it is determined whether or not the obstacle that is the object detected by the sensor exists in the second image, and when the obstacle exists in the second image, the obstacle Determining whether an object is present at the edge of the second image;
When it is determined that the obstacle is present at the edge of the second image, the obstacle image is extracted from the first image;
Holding the image of the obstacle extracted by the extraction unit;
When it is determined that the obstacle detected by the sensor does not exist in the second image and the image of the obstacle is held in the second holding unit, the image displayed on the monitor A display program for causing a computer to execute processing for adding an image of an obstacle.
(Appendix 22)
In the display program described in
When it is determined that the obstacle is present at the edge of the second image, whether or not the obstacle image is extracted from the first image is determined based on the size of the obstacle in the second image. A display program that causes a computer to execute a determination process.
(Appendix 23)
In the display program described in
When it is determined that the angle of view of the camera is larger than the angle of view of the display range reflected in the second image and the obstacle detected by the sensor does not exist in the second image, A display program that causes a computer to execute processing for widening the angle of view of a display range.
(Appendix 24)
In the display program according to attachment 23,
When widening the angle of view of the display range, the computer displays a process of displaying a frame indicating the display range before the angle of view of the display range is widened in the second image with the angle of view of the display range widened. Display program to be executed.
(Appendix 25)
In the display program described in
If the shooting range reflected in the first image is larger than the display range reflected in the second image, the obstacle detected by the sensor does not exist in the second image, and When the obstacle detected by the sensor is present in the first image, the obstacle image is extracted from the first image, and the extracted obstacle image is displayed on the monitor. A display program that causes a computer to execute processing used as an image of a computer.
(Appendix 26)
In the display program described in
Holding a third image taken by a second camera which is a separate camera from the camera;
When the obstacle detected by the sensor does not exist in the second image and the obstacle detected by the sensor exists in the third image, the obstacle from the third image A display program for causing a computer to execute a process of extracting the image of the obstacle and using the extracted image of the obstacle as the obstacle image displayed on the monitor.
(Appendix 27)
In the display program described in
When the obstacle detected by the sensor is not present in the second image, the relative position of the obstacle with respect to the second image is calculated,
When the screen of the monitor is larger than the second image and the relative position of the obstacle is within the screen, an image of an area in which neither the second image nor the obstacle image is displayed Based on two images,
When the screen of the monitor is larger than the second image and the relative position of the obstacle is within the screen, the image of the obstacle is displayed at the relative position of the obstacle on the screen. A display program that causes a computer to execute processing.
(Appendix 28)
In the display program according to attachment 27,
When the screen of the monitor is larger than the second image and the relative position of the obstacle is within the screen, a process of displaying a frame at the boundary of the second image displayed on the screen is executed on the computer Display program to make.
(Appendix 29)
In the display program according to any one of
When there are a plurality of obstacles detected by the sensor, it is determined whether or not the obstacle exists in the second image for each of the plurality of obstacles, and exists in the second image. Determining whether the obstacle exists at an edge of the second image with respect to the obstacle;
Extracting each obstacle image determined to be present at an edge of the second image from the first image;
Holding an image of each of the obstacles extracted by the extraction unit;
A process for adding an image of the obstacle corresponding to the obstacle determined not to exist in the second image and held in the second holding unit to an image displayed on the monitor. Display program to be executed.
(Appendix 30)
In the display program described in
When the obstacle detected by the sensor is not present in the second image, the relative position of the obstacle with respect to the second image is calculated,
When the shooting range reflected in the first image is greater than or equal to the screen of the monitor and the relative position of the obstacle is within the screen, the angle of view of the display range reflected in the second image is A display program for causing a computer to execute processing for widening the angle of view corresponding to the screen.
以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲がその精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図するものである。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずである。したがって、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物に拠ることも可能である。 From the above detailed description, features and advantages of the embodiments will become apparent. This is intended to cover the features and advantages of the embodiments described above without departing from the spirit and scope of the claims. Also, any improvement and modification should be readily conceivable by those having ordinary knowledge in the art. Therefore, there is no intention to limit the scope of the inventive embodiments to those described above, and appropriate modifications and equivalents included in the scope disclosed in the embodiments can be used.
10‥システム;20、20A‥カメラ;22‥サブカメラ;30‥センサ;40‥モニタ;50、50A、50B、50C、50D、50E、50F、50G‥画像処理装置;100、140、140A、142、160‥保持部;110、110A、110B‥生成部;112‥枠描画部;114‥外挿部;120、120A、120B‥判定部;122‥描画判定部;124‥調整部;126‥算出部;130、130A‥抽出部;150、150A、150B‥描画部;CP‥コンピュータ装置;DIS‥リムーバブルディスク;HDD‥ハードディスク装置;IF‥入出力インタフェース;MEM‥メモリ;ODR‥光学ドライブ装置;PU‥プロセッサ
DESCRIPTION OF
Claims (10)
前記カメラで撮影された第1画像を保持する第1保持部と、
前記第1保持部に保持されている前記第1画像から前記モニタに表示する第2画像を生成する生成部と、
前記センサの検知結果を受け、前記センサにより検知された前記物体である障害物が前記第2画像に存在するか否かを判定し、前記障害物が前記第2画像に存在するとき、前記障害物が前記第2画像の端に存在するか否かを判定する判定部と、
前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出する抽出部と、
前記抽出部で抽出された前記障害物の画像を保持する第2保持部と、
前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定され、かつ、前記障害物の画像が前記第2保持部に保持されているとき、前記モニタに表示する画像に前記障害物の画像を追加する描画部と
を備えていることを特徴とする画像処理装置。 An image processing apparatus that displays an image on a monitor using data from a camera and a sensor that detects an object,
A first holding unit for holding a first image taken by the camera;
A generating unit that generates a second image to be displayed on the monitor from the first image held in the first holding unit;
The detection result of the sensor is received, it is determined whether or not the obstacle that is the object detected by the sensor exists in the second image, and when the obstacle exists in the second image, the obstacle A determination unit for determining whether an object is present at an end of the second image;
An extraction unit that extracts an image of the obstacle from the first image when it is determined that the obstacle exists at an edge of the second image;
A second holding unit that holds an image of the obstacle extracted by the extraction unit;
When it is determined that the obstacle detected by the sensor does not exist in the second image and the image of the obstacle is held in the second holding unit, the image displayed on the monitor An image processing apparatus comprising: a drawing unit that adds an image of an obstacle.
前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出するか否かを前記第2画像内の前記障害物の大きさに基づいて判定する第2判定部を備えていることを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
When it is determined that the obstacle is present at the edge of the second image, whether or not the obstacle image is extracted from the first image is determined based on the size of the obstacle in the second image. An image processing apparatus comprising a second determination unit for determining.
前記カメラの画角が前記第2画像に反映されている表示範囲の画角より大きく、かつ、前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定されたとき、前記表示範囲の画角を広くする調整部を備えていることを特徴とする画像処理装置。 The image processing apparatus according to claim 1 or 2,
When it is determined that the angle of view of the camera is larger than the angle of view of the display range reflected in the second image and the obstacle detected by the sensor does not exist in the second image, An image processing apparatus comprising an adjustment unit that widens the angle of view of a display range.
前記表示範囲の画角を広くする場合、前記表示範囲の画角を広くする前の前記表示範囲を示す枠を前記表示範囲の画角を広くした前記第2画像内に表示する第2生成部を備えていることを特徴とする画像処理装置。 The image processing apparatus according to claim 3.
When widening the angle of view of the display range, a second generation unit that displays a frame indicating the display range before widening the angle of view of the display range in the second image with the angle of view of the display range widened An image processing apparatus comprising:
前記第1画像に反映されている撮影範囲は、前記第2画像に反映されている表示範囲より大きく、
前記描画部は、前記センサにより検知されている前記障害物が前記第2画像に存在せず、かつ、前記センサにより検知されている前記障害物が前記第1画像に存在するとき、前記第1画像から前記障害物の画像を抽出し、抽出した前記障害物の画像を前記モニタに表示する前記障害物の画像として使用する
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 1 or 2,
The shooting range reflected in the first image is larger than the display range reflected in the second image,
When the obstacle detected by the sensor does not exist in the second image and the obstacle detected by the sensor exists in the first image, the drawing unit An image processing apparatus, wherein an image of the obstacle is extracted from an image, and the extracted image of the obstacle is used as an image of the obstacle displayed on the monitor.
前記カメラとは別のカメラである第2カメラで撮影された第3画像を保持する第3保持部を備え、
前記描画部は、前記センサにより検知されている前記障害物が前記第2画像に存在せず、かつ、前記センサにより検知されている前記障害物が前記第3画像に存在するとき、前記第3画像から前記障害物の画像を抽出し、抽出した前記障害物の画像を前記モニタに表示する前記障害物の画像として使用する
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 1 or 2,
A third holding unit for holding a third image taken by a second camera which is a camera different from the camera;
When the obstacle detected by the sensor does not exist in the second image and the obstacle detected by the sensor exists in the third image, the drawing unit An image processing apparatus, wherein an image of the obstacle is extracted from an image, and the extracted image of the obstacle is used as an image of the obstacle displayed on the monitor.
前記センサにより検知されている前記障害物が前記第2画像に存在しないとき、前記第2画像に対する前記障害物の相対的な位置を算出する算出部と、
前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記第2画像および前記障害物の画像のいずれも表示されない領域の画像を、前記第2画像に基づいて生成する外挿部とを備え、
前記描画部は、前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記画面上の前記障害物の相対的な位置に、前記障害物の画像を表示させる
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 1 or 2,
A calculation unit that calculates a relative position of the obstacle with respect to the second image when the obstacle detected by the sensor does not exist in the second image;
When the screen of the monitor is larger than the second image and the relative position of the obstacle is within the screen, an image of an area in which neither the second image nor the obstacle image is displayed An extrapolation unit that generates based on two images,
When the screen of the monitor is larger than the second image and the relative position of the obstacle is within the screen, the drawing unit is arranged at the relative position of the obstacle on the screen. An image processing apparatus for displaying an image.
前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記画面に表示される前記第2画像の境界に枠を表示する第2生成部を備えていることを特徴とする画像処理装置。 The image processing apparatus according to claim 7.
A second generator for displaying a frame at the boundary of the second image displayed on the screen when the screen of the monitor is larger than the second image and the relative position of the obstacle is within the screen; An image processing apparatus comprising:
前記画像処理装置は、
前記カメラで撮影された第1画像を保持する第1保持部と、
前記第1保持部に保持されている前記第1画像から前記モニタに表示する第2画像を生成する生成部と、
前記センサの検知結果を受け、前記センサにより検知された前記物体である障害物が前記第2画像に存在するか否かを判定し、前記障害物が前記第2画像に存在するとき、前記障害物が前記第2画像の端に存在するか否かを判定する判定部と、
前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出する抽出部と、
前記抽出部で抽出された前記障害物の画像を保持する第2保持部と、
前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定され、かつ、前記障害物の画像が前記第2保持部に保持されているとき、前記モニタに表示する画像に前記障害物の画像を追加する描画部と
を備えていることを特徴とするシステム。 A camera, a sensor, an image processing device and a monitor;
The image processing apparatus includes:
A first holding unit for holding a first image taken by the camera;
A generating unit that generates a second image to be displayed on the monitor from the first image held in the first holding unit;
The detection result of the sensor is received, it is determined whether or not the obstacle that is the object detected by the sensor exists in the second image, and when the obstacle exists in the second image, the obstacle A determination unit for determining whether an object is present at an end of the second image;
An extraction unit that extracts an image of the obstacle from the first image when it is determined that the obstacle exists at an edge of the second image;
A second holding unit that holds an image of the obstacle extracted by the extraction unit;
When it is determined that the obstacle detected by the sensor does not exist in the second image and the image of the obstacle is held in the second holding unit, the image displayed on the monitor And a drawing unit for adding an image of an obstacle.
前記カメラで撮影された第1画像を保持し、
前記第1保持部に保持されている前記第1画像から前記モニタに表示する第2画像を生成し、
前記センサの検知結果を受け、前記センサにより検知された前記物体である障害物が前記第2画像に存在するか否かを判定し、前記障害物が前記第2画像に存在するとき、前記障害物が前記第2画像の端に存在するか否かを判定し、
前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出し、
前記抽出部で抽出された前記障害物の画像を保持し、
前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定され、かつ、前記障害物の画像が前記第2保持部に保持されているとき、前記モニタに表示する画像に前記障害物の画像を追加する
処理をコンピュータに実行させることを特徴とする表示プログラム。 A display program for causing a computer to execute a process of displaying an image on a monitor using data from a camera and a sensor for detecting an object,
Holding a first image taken by the camera;
Generating a second image to be displayed on the monitor from the first image held in the first holding unit;
The detection result of the sensor is received, it is determined whether or not the obstacle that is the object detected by the sensor exists in the second image, and when the obstacle exists in the second image, the obstacle Determining whether an object is present at the edge of the second image;
When it is determined that the obstacle is present at the edge of the second image, the obstacle image is extracted from the first image;
Holding the image of the obstacle extracted by the extraction unit;
When it is determined that the obstacle detected by the sensor does not exist in the second image and the image of the obstacle is held in the second holding unit, the image displayed on the monitor A display program for causing a computer to execute processing for adding an image of an obstacle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013190600A JP6194713B2 (en) | 2013-09-13 | 2013-09-13 | Image processing apparatus, system, and display program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013190600A JP6194713B2 (en) | 2013-09-13 | 2013-09-13 | Image processing apparatus, system, and display program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015056851A true JP2015056851A (en) | 2015-03-23 |
JP6194713B2 JP6194713B2 (en) | 2017-09-13 |
Family
ID=52820899
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013190600A Expired - Fee Related JP6194713B2 (en) | 2013-09-13 | 2013-09-13 | Image processing apparatus, system, and display program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6194713B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017169706A1 (en) * | 2016-03-30 | 2017-10-05 | マツダ株式会社 | Electronic mirror control device |
JP2019134371A (en) * | 2018-02-01 | 2019-08-08 | アルパイン株式会社 | Perimeter monitoring system |
JP2020182122A (en) * | 2019-04-25 | 2020-11-05 | トヨタ自動車株式会社 | Event camera |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010130646A (en) * | 2008-12-01 | 2010-06-10 | Aisin Seiki Co Ltd | Vehicle periphery checking system |
JP2012066615A (en) * | 2010-09-21 | 2012-04-05 | Aisin Seiki Co Ltd | Driving support system |
JP2013005233A (en) * | 2011-06-16 | 2013-01-07 | Aisin Seiki Co Ltd | Vehicle periphery monitoring device |
-
2013
- 2013-09-13 JP JP2013190600A patent/JP6194713B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010130646A (en) * | 2008-12-01 | 2010-06-10 | Aisin Seiki Co Ltd | Vehicle periphery checking system |
JP2012066615A (en) * | 2010-09-21 | 2012-04-05 | Aisin Seiki Co Ltd | Driving support system |
JP2013005233A (en) * | 2011-06-16 | 2013-01-07 | Aisin Seiki Co Ltd | Vehicle periphery monitoring device |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017169706A1 (en) * | 2016-03-30 | 2017-10-05 | マツダ株式会社 | Electronic mirror control device |
JP2017183974A (en) * | 2016-03-30 | 2017-10-05 | マツダ株式会社 | Electronic mirror control device |
US10596969B2 (en) | 2016-03-30 | 2020-03-24 | Mazda Motor Corporation | Electronic mirror control device |
JP2019134371A (en) * | 2018-02-01 | 2019-08-08 | アルパイン株式会社 | Perimeter monitoring system |
JP7055555B2 (en) | 2018-02-01 | 2022-04-18 | アルパイン株式会社 | Peripheral monitoring system |
JP2020182122A (en) * | 2019-04-25 | 2020-11-05 | トヨタ自動車株式会社 | Event camera |
JP7298277B2 (en) | 2019-04-25 | 2023-06-27 | トヨタ自動車株式会社 | event camera |
Also Published As
Publication number | Publication date |
---|---|
JP6194713B2 (en) | 2017-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3160138B1 (en) | Image synthesis system, image synthesis device therefor, and image synthesis method | |
JP5222597B2 (en) | Image processing apparatus and method, driving support system, and vehicle | |
US7728879B2 (en) | Image processor and visual field support device | |
KR101811157B1 (en) | Bowl-shaped imaging system | |
EP2482557B1 (en) | Driving support display device | |
JPWO2010137265A1 (en) | Vehicle perimeter monitoring device | |
US9902341B2 (en) | Image processing apparatus and image processing method including area setting and perspective conversion | |
KR101705558B1 (en) | Top view creating method for camera installed on vehicle and AVM system | |
JP6194713B2 (en) | Image processing apparatus, system, and display program | |
WO2016092967A1 (en) | Image generation device and image generation method | |
US20230283898A1 (en) | Image processing device, image processing method and non-transitory computer-readable recording medium | |
US11827148B2 (en) | Display control device, display control method, moving body, and storage medium | |
CN112351242A (en) | Image processing apparatus and image processing method | |
US20230232103A1 (en) | Image processing device, image display system, method, and program | |
CN117774833A (en) | Method for installing movable equipment and camera device | |
JP6293089B2 (en) | Rear monitor | |
JP6032141B2 (en) | Travel road marking detection device and travel road marking detection method | |
JP6999239B2 (en) | Image processing device and image processing method | |
JP6187322B2 (en) | Image display device and image display system | |
EP3896387A1 (en) | Image processing device | |
JP5833887B2 (en) | Own vehicle movement estimation method and own vehicle movement estimation program | |
US20230217108A1 (en) | Image processing device, image processing method and non-transitory computer-readable recording medium | |
TWI834301B (en) | Vehicle surrounding image display method | |
KR101762117B1 (en) | Top view creating method for camera installed on vehicle and AVM system | |
JP2024007203A (en) | Camera system and control method thereof, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160606 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170718 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170731 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6194713 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |