JP2015056851A - Image processing device, system and display program - Google Patents

Image processing device, system and display program Download PDF

Info

Publication number
JP2015056851A
JP2015056851A JP2013190600A JP2013190600A JP2015056851A JP 2015056851 A JP2015056851 A JP 2015056851A JP 2013190600 A JP2013190600 A JP 2013190600A JP 2013190600 A JP2013190600 A JP 2013190600A JP 2015056851 A JP2015056851 A JP 2015056851A
Authority
JP
Japan
Prior art keywords
image
obstacle
sensor
unit
monitor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013190600A
Other languages
Japanese (ja)
Other versions
JP6194713B2 (en
Inventor
俊明 安東
Toshiaki Ando
俊明 安東
河合 淳
Atsushi Kawai
淳 河合
矢野 勝利
Katsutoshi Yano
勝利 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013190600A priority Critical patent/JP6194713B2/en
Publication of JP2015056851A publication Critical patent/JP2015056851A/en
Application granted granted Critical
Publication of JP6194713B2 publication Critical patent/JP6194713B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To suppress reduction of information to be delivered to a user of a camera monitor system.SOLUTION: An image processing device has: a first holding section which holds a first image taken by a camera; a generating section which generates a second image to be displayed on a monitor from the first image held by the first holding section; a determination section which determines whether or not an obstacle being an object detected by the sensor exists in the second image in response to a detection result of a sensor, and determines whether or not the object exists at the end of the second image when the obstacle exists in the second image; an extraction section which extracts an image of the obstacle from the first image when it is determined that the obstacle exists at the edge of the second image; a second holding section which holds the image of the obstacle which is extracted by the extraction section; and a drawing section which adds the image of the obstacle to the image to be displayed on the monitor when it is determined that the obstacle detected by the sensor does not exist in the second image and when the image of the obstacle is held in the second holding section.

Description

本発明は、画像処理装置、システムおよび表示プログラムに関する。   The present invention relates to an image processing device, a system, and a display program.

近年、カメラで撮影した画像をモニタに表示するカメラモニタシステムをミラーの代わりに使用することが検討されている。例えば、自動車のサイドミラーの代わりに使用されるカメラモニタシステムの標準化が進んでいる。自動車のサイドミラーの代わりにカメラモニタシステムを使用する場合、モニタは、車室内に設置される。例えば、モニタは、運転者から見える場所に設置される。   In recent years, it has been studied to use a camera monitor system that displays an image captured by a camera on a monitor instead of a mirror. For example, standardization of a camera monitor system used in place of a side mirror of an automobile is in progress. When a camera monitor system is used instead of a side mirror of an automobile, the monitor is installed in the vehicle interior. For example, the monitor is installed in a place visible to the driver.

また、物体を検知する検知装置とカメラとを用いて車両後方の視界を支援する装置が提案されている(例えば、特許文献1参照)。この種の装置では、カメラで撮影された車両後方の画像がモニタに表示される。そして、例えば、検知装置の検知範囲等がカメラで撮影された画像に重畳して表示される。   In addition, a device that supports a field of view behind the vehicle using a detection device that detects an object and a camera has been proposed (for example, see Patent Document 1). In this type of apparatus, an image of the rear of the vehicle taken by the camera is displayed on the monitor. Then, for example, the detection range of the detection device is displayed superimposed on the image captured by the camera.

特開2006−352368号公報JP 2006-352368 A

運転者が車室内のモニタを見るために動かす視線の範囲は、運転者が車室外のサイドミラーを見るために動かす視線の範囲に比べて、狭い。また、モニタの位置がサイドミラーの位置に比べて運転者に近くなるため、目の焦点位置が近くなる。このため、自動車のサイドミラーの代わりにカメラモニタシステムを使用する場合、車室外まで視線を向けていたときに比べて視野が狭くなるおそれがある。この場合、運転者が得る情報量は、サイドミラーを使用したときに比べて、減少する。例えば、モニタにリアルタイムで表示される画像の範囲外で車両周辺に障害物が存在する場合、運転者が障害物を発見するタイミングが遅れるおそれがある。   The range of the line of sight that the driver moves to see the monitor in the passenger compartment is narrower than the range of the line of sight that the driver moves to see the side mirror outside the passenger compartment. In addition, since the position of the monitor is closer to the driver than the position of the side mirror, the focal position of the eyes is closer. For this reason, when a camera monitor system is used instead of a side mirror of an automobile, the field of view may be narrower than when the line of sight is directed to the outside of the passenger compartment. In this case, the amount of information obtained by the driver is reduced compared to when the side mirror is used. For example, when there is an obstacle around the vehicle outside the range of the image displayed in real time on the monitor, the timing for the driver to find the obstacle may be delayed.

1つの側面では、本件開示の画像処理装置、システムおよび表示プログラムは、カメラモニタシステムの利用者に伝える情報の低減を抑制することを目的とする。   In one aspect, an image processing device, a system, and a display program disclosed herein are intended to suppress a reduction in information transmitted to a user of a camera monitor system.

一観点によれば、カメラと物体を検知するセンサとからのデータを用いて、画像をモニタに表示する画像処理装置は、カメラで撮影された第1画像を保持する第1保持部と、第1保持部に保持されている第1画像からモニタに表示する第2画像を生成する生成部と、センサの検知結果を受け、センサにより検知された物体である障害物が第2画像に存在するか否かを判定し、障害物が第2画像に存在するとき、障害物が第2画像の端に存在するか否かを判定する判定部と、障害物が第2画像の端に存在すると判定されたとき、障害物の画像を第1画像から抽出する抽出部と、抽出部で抽出された障害物の画像を保持する第2保持部と、センサにより検知されている障害物が第2画像に存在しないと判定され、かつ、障害物の画像が第2保持部に保持されているとき、モニタに表示する画像に障害物の画像を追加する描画部とを有している。   According to one aspect, an image processing device that displays data on a monitor using data from a camera and a sensor that detects an object includes a first holding unit that holds a first image captured by the camera, A generation unit that generates a second image to be displayed on the monitor from the first image held in the first holding unit, and an obstacle that is an object detected by the sensor and received by the sensor is present in the second image. A determination unit that determines whether an obstacle is present at the edge of the second image and an obstacle is present at the edge of the second image when the obstacle is present in the second image. When the determination is made, the extraction unit that extracts the obstacle image from the first image, the second holding unit that holds the obstacle image extracted by the extraction unit, and the obstacle detected by the sensor are the second. It is determined that the image does not exist and the image of the obstacle is the second holding unit. When held, and a drawing unit for adding an image of the obstacle on the image to be displayed on the monitor.

別の観点によれば、システムは、カメラ、センサ、画像処理装置およびモニタを有し、画像処理装置は、カメラで撮影された第1画像を保持する第1保持部と、第1保持部に保持されている第1画像からモニタに表示する第2画像を生成する生成部と、センサの検知結果を受け、センサにより検知された物体である障害物が第2画像に存在するか否かを判定し、障害物が第2画像に存在するとき、障害物が第2画像の端に存在するか否かを判定する判定部と、障害物が第2画像の端に存在すると判定されたとき、障害物の画像を第1画像から抽出する抽出部と、抽出部で抽出された障害物の画像を保持する第2保持部と、センサにより検知されている障害物が第2画像に存在しないと判定され、かつ、障害物の画像が第2保持部に保持されているとき、モニタに表示する画像に障害物の画像を追加する描画部とを有している。   According to another aspect, the system includes a camera, a sensor, an image processing device, and a monitor. The image processing device includes a first holding unit that holds a first image captured by the camera, and a first holding unit. A generation unit that generates a second image to be displayed on the monitor from the held first image, and whether or not an obstacle that is an object detected by the sensor based on the detection result of the sensor exists in the second image. A determination unit that determines whether an obstacle is present at the edge of the second image and an obstacle is present at the edge of the second image when the obstacle is present in the second image; An extraction unit that extracts an image of an obstacle from the first image, a second holding unit that holds an image of the obstacle extracted by the extraction unit, and an obstacle detected by the sensor does not exist in the second image And the image of the obstacle is held in the second holding unit. Rutoki, and a drawing unit for adding an image of the obstacle on the image to be displayed on the monitor.

別の観点によれば、カメラと物体を検知するセンサとからのデータを用いて画像をモニタに表示する処理をコンピュータに実行させる表示プログラムは、カメラで撮影された第1画像を保持し、第1保持部に保持されている第1画像からモニタに表示する第2画像を生成し、センサの検知結果を受け、センサにより検知された物体である障害物が第2画像に存在するか否かを判定し、障害物が第2画像に存在するとき、障害物が第2画像の端に存在するか否かを判定し、障害物が第2画像の端に存在すると判定されたとき、障害物の画像を第1画像から抽出し、抽出部で抽出された障害物の画像を保持し、センサにより検知されている障害物が第2画像に存在しないと判定され、かつ、障害物の画像が第2保持部に保持されているとき、モニタに表示する画像に障害物の画像を追加する処理をコンピュータに実行させる。   According to another aspect, a display program that causes a computer to execute a process of displaying an image on a monitor using data from a camera and a sensor that detects an object holds a first image captured by the camera, Whether a second image to be displayed on the monitor is generated from the first image held in the first holding unit, the detection result of the sensor is received, and an obstacle that is an object detected by the sensor is present in the second image When the obstacle is present in the second image, it is determined whether the obstacle is present at the end of the second image. When the obstacle is determined to be present at the end of the second image, An image of the object is extracted from the first image, the image of the obstacle extracted by the extraction unit is held, and it is determined that the obstacle detected by the sensor does not exist in the second image, and the image of the obstacle Is held by the second holding part, To execute a process of adding an image of the obstacle on the image to be displayed on the computer.

本件開示の画像処理装置、システムおよび表示プログラムは、カメラモニタシステムの利用者に伝える情報の低減を抑制できる。   The image processing apparatus, system, and display program of the present disclosure can suppress a reduction in information transmitted to the user of the camera monitor system.

画像処理装置およびシステムの一実施形態を示す図である。1 is a diagram illustrating an embodiment of an image processing apparatus and system. カメラの撮影範囲とセンサの検知範囲の一例を示す図である。It is a figure which shows an example of the imaging | photography range of a camera, and the detection range of a sensor. 図1に示した画像処理装置の動作の一例を示す図である。It is a figure which shows an example of operation | movement of the image processing apparatus shown in FIG. 図1に示した判定部、抽出部および描画部の動作の一例を示す図である。It is a figure which shows an example of operation | movement of the determination part shown in FIG. 1, an extraction part, and a drawing part. 障害物が存在しないときにモニタに表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on a monitor when an obstruction does not exist. 表示範囲内に障害物が存在するときにモニタに表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on a monitor when an obstruction exists in a display range. 表示範囲内に障害物が存在するときにモニタに表示される画像の別の例を示す図である。It is a figure which shows another example of the image displayed on a monitor when an obstruction exists in a display range. 表示範囲外に障害物が存在するときにモニタに表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on a monitor when an obstruction exists outside a display range. 表示範囲外に障害物が存在するときにモニタに表示される画像の別の例を示す図である。It is a figure which shows another example of the image displayed on a monitor when an obstruction exists outside a display range. センサによる障害物の検知の概要を示す図である。It is a figure which shows the outline | summary of the detection of the obstruction by a sensor. センサにより検知される障害物の大きさの一例を示す図である。It is a figure which shows an example of the magnitude | size of the obstruction detected by a sensor. 障害物の位置が表示範囲内か否かの判定の概要を示す図である。It is a figure which shows the outline | summary of determination whether the position of an obstruction is in a display range. 障害物の画像の抽出の一例を示す図である。It is a figure which shows an example of extraction of the image of an obstruction. 画像処理装置およびシステムの別の実施形態を示す図である。It is a figure which shows another embodiment of an image processing apparatus and a system. 画像処理装置およびシステムの別の実施形態を示す図である。It is a figure which shows another embodiment of an image processing apparatus and a system. 表示範囲を広げるときの一例を示す図である。It is a figure which shows an example when expanding a display range. 画像処理装置およびシステムの別の実施形態を示す図である。It is a figure which shows another embodiment of an image processing apparatus and a system. 画像処理装置およびシステムの別の実施形態を示す図である。It is a figure which shows another embodiment of an image processing apparatus and a system. モニタに表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on a monitor. 画像処理装置およびシステムの別の実施形態を示す図である。It is a figure which shows another embodiment of an image processing apparatus and a system. カメラ20の撮影範囲とサブカメラの撮影範囲とセンサの検知範囲の一例を示す図である。It is a figure which shows an example of the imaging range of the camera 20, the imaging range of a sub camera, and the detection range of a sensor. 画像処理装置およびシステムの別の実施形態を示す図である。It is a figure which shows another embodiment of an image processing apparatus and a system. 表示範囲の画像を外挿して空白領域に画像を表示する処理の一例を示す図である。It is a figure which shows an example of the process which extrapolates the image of a display range and displays an image in a blank area | region. 画像処理装置およびシステムの別の実施形態を示す図である。It is a figure which shows another embodiment of an image processing apparatus and a system. 画像処理装置のハードウエア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of an image processing apparatus.

以下、実施形態を図面を用いて説明する。   Hereinafter, embodiments will be described with reference to the drawings.

図1は、画像処理装置およびシステムの一実施形態を示している。この実施形態のシステム10は、例えば、自動車のサイドミラーの代わりに使用されるカメラモニタシステムとして、自動車に搭載される。例えば、図2に示すように、自動車の左右のサイドミラーの代わりに、2つのシステム10が車両300に搭載される。システム10は、例えば、カメラ20、センサ30、モニタ40および画像処理装置50を有している。なお、画像処理装置50は、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。   FIG. 1 shows an embodiment of an image processing apparatus and system. The system 10 of this embodiment is mounted on a car as a camera monitor system used instead of a car side mirror, for example. For example, as shown in FIG. 2, two systems 10 are mounted on a vehicle 300 instead of left and right side mirrors of an automobile. The system 10 includes, for example, a camera 20, a sensor 30, a monitor 40, and an image processing device 50. Note that the image processing apparatus 50 may be realized only by hardware, or may be realized by controlling the hardware by software.

カメラ20は、例えば、車両側面に配置され、動画撮影を実行する。カメラ20で撮影された画像IMGaは、画像処理装置50に転送される。センサ30は、例えば、物体を検知する障害物センサであり、車両側面に配置される。例えば、センサ30は、ミリ波レーダである。なお、センサ30は、ミリ波レーダ以外のセンサでもよい。センサ30の検知結果INFaは、画像処理装置50に転送される。例えば、センサ30は、センサの処理サイクルに従って、検知結果INFaを画像処理装置50の判定部120に転送する。   For example, the camera 20 is disposed on the side of the vehicle and performs moving image shooting. The image IMGa photographed by the camera 20 is transferred to the image processing device 50. The sensor 30 is an obstacle sensor that detects an object, for example, and is disposed on the side surface of the vehicle. For example, the sensor 30 is a millimeter wave radar. The sensor 30 may be a sensor other than the millimeter wave radar. The detection result INFa of the sensor 30 is transferred to the image processing apparatus 50. For example, the sensor 30 transfers the detection result INFa to the determination unit 120 of the image processing apparatus 50 according to the sensor processing cycle.

モニタ40は、車室内に設置される。例えば、モニタ40は、運転者から見える場所に設置される。モニタ40は、例えば、カメラ20およびセンサ30からのデータ(画像IMGa、検知結果INFa)に基づいて生成された画像IMGcを、画像処理装置50から受ける。これにより、モニタ40には、カメラ20およびセンサ30からのデータに基づいて生成された画像IMGcが表示される。   The monitor 40 is installed in the vehicle interior. For example, the monitor 40 is installed in a place visible to the driver. The monitor 40 receives an image IMGc generated based on data (image IMGa, detection result INFa) from the camera 20 and the sensor 30 from the image processing device 50, for example. As a result, the image IMGc generated based on the data from the camera 20 and the sensor 30 is displayed on the monitor 40.

モニタ40に表示される画像IMGcは、例えば、サイドミラーに映る像と同様の向きになるように、鏡像処理(左右反転処理)が実行された画像である。鏡像処理は、例えば、画像処理装置50で実行される。なお、鏡像処理は、カメラ20で実行されてもよいし、モニタ40で実行されてもよい。   The image IMGc displayed on the monitor 40 is, for example, an image that has been subjected to mirror image processing (left-right reversal processing) so as to have the same orientation as an image reflected on the side mirror. The mirror image processing is executed by the image processing device 50, for example. The mirror image processing may be executed by the camera 20 or may be executed by the monitor 40.

画像処理装置50は、例えば、ECU(Electronic Control Unit)内に設けられ、カメラ20、センサ30およびモニタ40と通信できるように接続されている。例えば、画像処理装置50は、カメラ20およびセンサ30からのデータ(画像IMGa、検知結果INFa)を用いて、画像IMGcをモニタ40に表示する。   The image processing device 50 is provided in, for example, an ECU (Electronic Control Unit) and is connected so as to be able to communicate with the camera 20, the sensor 30, and the monitor 40. For example, the image processing apparatus 50 displays the image IMGc on the monitor 40 using data (image IMGa, detection result INFa) from the camera 20 and the sensor 30.

画像処理装置50は、例えば、保持部100、140、160、生成部110、判定部120、抽出部130および描画部150を有している。保持部100は、カメラ20で撮影された画像IMGaを順次保持する。生成部110は、保持部100に保持されている画像IMGaからモニタ40に表示する画像IMGbを生成する。例えば、生成部110は、保持部100に保持されている画像IMGaを読み出し、モニタ40に表示する範囲(以下、表示範囲とも称する)の画像IMGbを画像IMGaから抽出する。そして、生成部110は、画像IMGaから抽出した画像IMGbを保持部160に保持する。なお、カメラ20の撮影範囲と表示範囲とが一致する場合、生成部110は、画像IMGaを画像IMGbとして保持部160に保持する。   The image processing apparatus 50 includes, for example, holding units 100, 140, and 160, a generation unit 110, a determination unit 120, an extraction unit 130, and a drawing unit 150. The holding unit 100 sequentially holds the images IMGa taken by the camera 20. The generation unit 110 generates an image IMGb to be displayed on the monitor 40 from the image IMGa held in the holding unit 100. For example, the generation unit 110 reads the image IMGa held in the holding unit 100 and extracts an image IMGb in a range (hereinafter also referred to as a display range) to be displayed on the monitor 40 from the image IMGa. Then, the generation unit 110 holds the image IMGb extracted from the image IMGa in the holding unit 160. When the shooting range of the camera 20 matches the display range, the generation unit 110 holds the image IMGa as the image IMGb in the holding unit 160.

ここで、例えば、画像処理装置50が鏡像処理を実行する場合、生成部110が鏡像処理を実行してもよい。例えば、生成部110は、画像IMGaから抽出した画像を左右反転し、左右反転した画像を画像IMGbとして保持部160に保持する。なお、カメラ20の撮影範囲と表示範囲とが一致する場合、鏡像処理が実行された画像IMGbは、例えば、画像IMGaを左右反転した画像である。   Here, for example, when the image processing apparatus 50 executes mirror image processing, the generation unit 110 may execute mirror image processing. For example, the generation unit 110 horizontally inverts an image extracted from the image IMGa, and retains the horizontally reversed image in the retaining unit 160 as the image IMGb. Note that when the shooting range of the camera 20 matches the display range, the image IMGb on which the mirror image processing has been executed is, for example, an image obtained by horizontally inverting the image IMGa.

判定部120は、センサ30の検知結果INFaを受け、センサ30により検知された物体である障害物が画像IMGbに存在するか否かを判定する。そして、判定部120は、障害物が画像IMGbに存在するとき、障害物が画像IMGbの端に存在するか否かを判定する。障害物が画像IMGbに存在するか否かの判定結果INFbは、例えば、描画部150に転送される。また、障害物が画像IMGbの端に存在するか否かの判定結果INFcは、例えば、抽出部130に転送される。   The determination unit 120 receives the detection result INFa of the sensor 30 and determines whether or not an obstacle that is an object detected by the sensor 30 exists in the image IMGb. Then, when an obstacle is present in the image IMGb, the determination unit 120 determines whether the obstacle is present at the end of the image IMGb. The determination result INFb of whether or not an obstacle exists in the image IMGb is transferred to the drawing unit 150, for example. Further, the determination result INFc of whether or not an obstacle exists at the end of the image IMGb is transferred to the extraction unit 130, for example.

抽出部130は、障害物が画像IMGbの端に存在すると判定されたとき、障害物の画像BIMGaを画像IMGaから抽出する。例えば、抽出部130は、障害物が画像IMGbの端に存在することを示す判定結果INFcを判定部120から受けたとき、保持部100に保持されている画像IMGaを読み出す。そして、抽出部130は、センサ30で検知された障害物の範囲に対応する画像BIMGaを画像IMGaから抽出し、抽出した障害物の画像BIMGaを保持部140に保持する。このように、保持部140は、抽出部130で抽出された障害物の画像BIMGaを保持する。   When it is determined that an obstacle exists at the end of the image IMGb, the extraction unit 130 extracts the obstacle image BIMGa from the image IMGa. For example, the extraction unit 130 reads the image IMGa held in the holding unit 100 when the determination result INFc indicating that an obstacle is present at the end of the image IMGb is received from the determination unit 120. Then, the extraction unit 130 extracts the image BIMGa corresponding to the obstacle range detected by the sensor 30 from the image IMGa, and holds the extracted obstacle image BIMGa in the holding unit 140. Thus, the holding unit 140 holds the obstacle image BIMGa extracted by the extraction unit 130.

なお、抽出部130は、例えば、センサ30で検知された障害物が追跡中の障害物と異なるとき、保持部140に保持されている障害物の画像BIMGaを削除してもよい。あるいは、判定部120は、例えば、センサ30で検知された障害物が追跡中の障害物と異なるとき、保持部140に保持されている障害物の画像BIMGaを削除してもよい。   For example, when the obstacle detected by the sensor 30 is different from the obstacle being tracked, the extraction unit 130 may delete the obstacle image BIMGa held in the holding unit 140. Alternatively, for example, when the obstacle detected by the sensor 30 is different from the obstacle being tracked, the determination unit 120 may delete the obstacle image BIMGa held in the holding unit 140.

描画部150は、センサ30により検知されている障害物が画像IMGbに存在しないと判定され、かつ、障害物の画像BIMGaが保持部140に保持されているとき、モニタ40に表示する画像IMGcに障害物の画像BIMGaを追加する。例えば、描画部150は、障害物が画像IMGbに存在しないことを示す判定結果INFbを判定部120から受けたとき、障害物の画像BIMGaが保持部140に保持されているか否かを判定する。そして、描画部150は、障害物の画像BIMGaが保持部140に保持されているとき、障害物の画像BIMGaを保持部140から読み出し、読み出した画像BIMGaを画像BIMGbとして保持部160に保持する。この場合、保持部160には、画像IMGbと障害物の画像BIMGaとを含む画像IMGcが保持される。   When it is determined that the obstacle detected by the sensor 30 is not present in the image IMGb and the image BIMGa of the obstacle is held in the holding unit 140, the drawing unit 150 displays the image IMGc displayed on the monitor 40. An obstacle image BIMGa is added. For example, when receiving the determination result INFb indicating that no obstacle exists in the image IMGb from the determination unit 120, the drawing unit 150 determines whether or not the image BIMGa of the obstacle is held in the holding unit 140. Then, when the obstacle image BIMGa is held in the holding unit 140, the drawing unit 150 reads the obstacle image BIMGa from the holding unit 140, and holds the read image BIMGa as the image BIMGb in the holding unit 160. In this case, the holding unit 160 holds the image IMGc including the image IMGb and the obstacle image BIMGa.

ここで、例えば、画像処理装置50が鏡像処理を実行する場合、描画部150は、画像BIMGaに対して鏡像処理を実行してもよい。例えば、描画部150は、画像BIMGaを左右反転し、左右反転した画像BIMGaを画像BIMGbとして保持部160に保持する。   Here, for example, when the image processing apparatus 50 executes mirror image processing, the drawing unit 150 may execute mirror image processing on the image BIMGa. For example, the drawing unit 150 horizontally flips the image BIMGa and holds the horizontally reversed image BIMGa as the image BIMGb in the holding unit 160.

なお、例えば、描画部150は、センサ30で検知された障害物が画像IMGbに存在せず、かつ、障害物の画像BIMGaが保持部140に保持されていないとき、予め用意された警告用の画像を画像BIMGbとして保持部160に保持する。この場合、保持部160には、画像IMGbと警告用の画像とを含む画像IMGcが保持される。   For example, when the obstacle detected by the sensor 30 does not exist in the image IMGb and the obstacle image BIMGa is not held in the holding unit 140, the drawing unit 150 uses a warning prepared in advance. The image is held in the holding unit 160 as an image BIMGb. In this case, the holding unit 160 holds the image IMGc including the image IMGb and the warning image.

また、例えば、障害物が画像IMGb外(表示範囲外)に存在しない場合、描画部150は、画像BIMGbを保持部160に保持しない。これにより、画像IMGcのうちの画像BIMGbに対応する領域は、余白になる。   For example, when no obstacle exists outside the image IMGb (outside the display range), the drawing unit 150 does not hold the image BIMGb in the holding unit 160. Thereby, a region corresponding to the image BIMGb in the image IMGc becomes a blank.

保持部160に保持された画像IMGcは、モニタ40に表示される。したがって、センサ30により検知されている障害物が画像IMGbに存在しない場合、画像IMGbと画像BIMGb(障害物の画像BIMGa、あるいは、警告用の画像)とがモニタ40に表示される。すなわち、描画部150は、センサ30により検知されている障害物が画像IMGbに存在しないと判定され、かつ、障害物の画像BIMGaが保持部140に保持されているとき、画像IMGbのほかに障害物の画像BIMGaをモニタ40に表示する。   The image IMGc held in the holding unit 160 is displayed on the monitor 40. Therefore, when the obstacle detected by the sensor 30 does not exist in the image IMGb, the image IMGb and the image BIMGb (obstacle image BIMGa or warning image) are displayed on the monitor 40. In other words, the drawing unit 150 determines that the obstacle detected by the sensor 30 is not present in the image IMGb, and the obstacle BIGGa is held in the holding unit 140, the obstacle other than the image IMGb. The object image BIMGa is displayed on the monitor 40.

このように、例えば、画像処理装置50は、カメラ20と物体を検知するセンサ30とからデータ(画像IMGa、検知結果INFa)を受ける。そして、画像処理装置50は、カメラ20で撮影された画像IMGaの少なくとも一部を含む画像IMGcをモニタ40に表示する。すなわち、画像処理装置50は、カメラ20で撮影された画像をモニタ40に表示する。   Thus, for example, the image processing apparatus 50 receives data (image IMGa, detection result INFa) from the camera 20 and the sensor 30 that detects an object. Then, the image processing apparatus 50 displays an image IMGc including at least a part of the image IMGa taken by the camera 20 on the monitor 40. That is, the image processing device 50 displays an image captured by the camera 20 on the monitor 40.

なお、システム10および画像処理装置50の構成は、この例に限定されない。例えば、抽出部130は、障害物が画像IMGbの端に存在すると判定されたとき、障害物の画像BIMGaを画像IMGbから抽出してもよい。すなわち、抽出部130は、障害物が画像IMGbの端に存在すると判定されたとき、障害物の画像BIMGaを画像IMGaおよび画像IMGbの少なくとも一方から抽出してもよい。画像IMGbが画像IMGaから抽出された画像であるため、障害物の画像BIMGaを画像IMGbから抽出することは、障害物の画像BIMGaを画像IMGaから抽出することに含まれる。   Note that the configurations of the system 10 and the image processing apparatus 50 are not limited to this example. For example, when it is determined that an obstacle is present at the end of the image IMGb, the extraction unit 130 may extract the obstacle image BIMGa from the image IMGb. That is, when it is determined that an obstacle is present at the end of the image IMGb, the extraction unit 130 may extract the obstacle image BIMGa from at least one of the image IMGa and the image IMGb. Since the image IMGb is an image extracted from the image IMGa, extracting the obstacle image BIMGa from the image IMGb is included in extracting the obstacle image BIMGa from the image IMGa.

また、例えば、障害物の画像BIMGaが表示される位置(モニタ40の画面上の位置)は、予め設定された固定位置でもよいし、画像IMGaに対する障害物の相対的な位置に応じて算出される位置でもよい。例えば、画像処理装置50は、障害物の画像BIMGaを表示する位置(モニタ40の画面上の位置)を算出する算出部を有してもよい。   Further, for example, the position where the obstacle image BIMGa is displayed (the position on the screen of the monitor 40) may be a fixed position set in advance, or is calculated according to the relative position of the obstacle with respect to the image IMGa. It may be a position. For example, the image processing apparatus 50 may include a calculation unit that calculates a position (a position on the screen of the monitor 40) at which the obstacle image BIMGa is displayed.

また、画像処理装置50が鏡像処理を実行する場合、障害物の画像に対する鏡像処理は、抽出部130で実行されてもよい。例えば、抽出部130は、センサ30で検知された障害物の範囲に対応する画像を画像IMGaから抽出し、抽出した障害物の画像を左右反転する。そして、抽出部130は、左右反転した画像を画像BIMGbとして保持部140に保持する。この場合、描画部150は、画像BIMGaに対して鏡像処理を実行しない。   Further, when the image processing apparatus 50 executes the mirror image process, the mirror image process for the obstacle image may be executed by the extraction unit 130. For example, the extraction unit 130 extracts an image corresponding to the range of the obstacle detected by the sensor 30 from the image IMGa, and horizontally inverts the extracted obstacle image. Then, the extraction unit 130 holds the horizontally inverted image in the holding unit 140 as the image BIMGb. In this case, the drawing unit 150 does not perform mirror image processing on the image BIMGa.

また、画像処理装置50は、障害物の画像BIMGaの大きさを、障害物の画像BIMGaが表示されるモニタ40の画面上の領域に合わせて調整(縮小や拡大)してもよい。   Further, the image processing apparatus 50 may adjust (reduce or enlarge) the size of the obstacle image BIMGa in accordance with the area on the screen of the monitor 40 on which the obstacle image BIMGa is displayed.

図2は、カメラ20の撮影範囲CRANとセンサ30の検知範囲SRANの一例を示している。例えば、自動車の左右のサイドミラーの代わりに、2つのシステム10(カメラ20、センサ30、モニタ40および画像処理装置50)が車両300に搭載されている。   FIG. 2 shows an example of the shooting range CRAN of the camera 20 and the detection range SRAN of the sensor 30. For example, instead of the left and right side mirrors of an automobile, two systems 10 (camera 20, sensor 30, monitor 40, and image processing device 50) are mounted on vehicle 300.

2つのカメラ20は、車両300の右側面および左側面にそれぞれ配置されている。図2の例では、カメラ20の撮影範囲CRANは、表示範囲DRANと同じである。すなわち、カメラ20で撮影された画像IMGaがモニタ40に表示される。   The two cameras 20 are respectively disposed on the right side surface and the left side surface of the vehicle 300. In the example of FIG. 2, the shooting range CRAN of the camera 20 is the same as the display range DRAN. That is, the image IMGa photographed by the camera 20 is displayed on the monitor 40.

2つのセンサ30は、車両300の右側面および左側面にそれぞれ配置されている。センサ30は、例えば、検知範囲SRAN内に存在する物体(例えば、障害物)を検知する。この実施形態では、センサ30の検知範囲SRANは、カメラ20の撮影範囲CRANより広い。したがって、センサ30は、カメラ20の撮影範囲CRANの外側に存在する物体(例えば、障害物)を検知できる。   The two sensors 30 are arranged on the right side surface and the left side surface of the vehicle 300, respectively. The sensor 30 detects, for example, an object (for example, an obstacle) existing within the detection range SRAN. In this embodiment, the detection range SRAN of the sensor 30 is wider than the shooting range CRAN of the camera 20. Therefore, the sensor 30 can detect an object (for example, an obstacle) existing outside the imaging range CRAN of the camera 20.

センサ30は、例えば、障害物を検知したとき、障害物の位置を示す情報と障害物の大きさを示す情報と検知時刻を示す情報とを含む検知結果INFaを、画像処理装置50に転送する。障害物の位置を示す情報は、例えば、障害物の中心とセンサ30との距離、センサ30に対する障害物の中心の角度等を示す情報である。センサ30に対する障害物の中心の角度は、例えば、障害物の中心とセンサ30とを結ぶ線とセンサ30の向いている方向(図2のZ軸)との角度(Z軸に対する水平および垂直方向の角度)である。   For example, when detecting an obstacle, the sensor 30 transfers a detection result INFa including information indicating the position of the obstacle, information indicating the size of the obstacle, and information indicating the detection time to the image processing apparatus 50. . The information indicating the position of the obstacle is, for example, information indicating the distance between the center of the obstacle and the sensor 30, the angle of the center of the obstacle with respect to the sensor 30, and the like. The angle of the center of the obstacle with respect to the sensor 30 is, for example, an angle (horizontal and vertical directions with respect to the Z axis) between a line connecting the center of the obstacle and the sensor 30 and a direction in which the sensor 30 faces (Z axis in FIG. 2). Angle).

また、障害物の大きさを示す情報は、例えば、障害物を垂直に伸びた板状の物体としたときの水平および垂直方向の大きさを示す情報である。なお、センサ30が地面を障害物として誤認識しないように、センサ30の取り付け位置における調整は予め完了している。   The information indicating the size of the obstacle is, for example, information indicating the size in the horizontal and vertical directions when the obstacle is a vertically extending plate-like object. In order to prevent the sensor 30 from erroneously recognizing the ground as an obstacle, the adjustment at the mounting position of the sensor 30 is completed in advance.

カメラ20およびセンサ30は、例えば、ECUに接続され、画像IMGaおよび検知結果INFaをECUにそれぞれ転送する。なお、ECUは、図1に示した画像処理装置50を有している。また、ECUは、モニタ40に接続され、画像IMGcをモニタ40に表示する。例えば、右側に配置されたモニタ40は、車両300の右側面のカメラ20およびセンサ30からのデータ(画像IMGa、検知結果INFa)に基づく画像IMGcを表示する。また、左側に配置されたモニタ40は、車両300の左側面のカメラ20およびセンサ30からのデータ(画像IMGa、検知結果INFa)に基づく画像IMGcを表示する。   The camera 20 and the sensor 30 are connected to the ECU, for example, and transfer the image IMGa and the detection result INFa to the ECU, respectively. The ECU has the image processing device 50 shown in FIG. The ECU is connected to the monitor 40 and displays the image IMGc on the monitor 40. For example, the monitor 40 disposed on the right side displays an image IMGc based on data (image IMGa, detection result INFa) from the camera 20 and the sensor 30 on the right side surface of the vehicle 300. The monitor 40 disposed on the left side displays an image IMGc based on data (image IMGa, detection result INFa) from the camera 20 and the sensor 30 on the left side surface of the vehicle 300.

なお、車両300には、2つのモニタ40の代わりに、右側面の画像IMGcを表示する画面と左側面の画像IMGcを表示する画面とを有する1つのモニタが搭載されてもよい。また、ECU内の2つの画像処理装置50は、1つにまとめられてもよい。この場合、画像処理装置50は、例えば、車両300の右側面のカメラ20およびセンサ30からのデータに基づいて画像IMGcを生成する処理と、車両300の左側面のカメラ20およびセンサ30からのデータに基づいて画像IMGcを生成する処理とを、独立して実行する。   In addition, instead of the two monitors 40, the vehicle 300 may be mounted with a single monitor having a screen for displaying the right side image IMGc and a screen for displaying the left side image IMGc. Further, the two image processing devices 50 in the ECU may be combined into one. In this case, for example, the image processing device 50 generates the image IMGc based on the data from the camera 20 and the sensor 30 on the right side of the vehicle 300, and the data from the camera 20 and the sensor 30 on the left side of the vehicle 300. The process of generating the image IMGc based on the above is executed independently.

図3は、図1に示した画像処理装置50の動作の一例を示している。図3の動作は、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。例えば、表示プログラム等のソフトウエアは、プロセッサに図3の動作を実行させてもよい。すなわち、プロセッサは、表示プログラムを読み取り、図3の動作を実行してもよい。なお、図3の例では、ステップS100、S110の一連の処理とステップS200の処理とが並列に実行される。例えば、ステップS100、S110、S300の一連の処理は、画像処理装置50が画像IMGaを受ける度に繰り返される。また、ステップS200の処理は、例えば、画像処理装置50が検知結果INFaを受ける度に繰り返される。   FIG. 3 shows an example of the operation of the image processing apparatus 50 shown in FIG. The operation of FIG. 3 may be realized only by hardware, or may be realized by controlling the hardware by software. For example, software such as a display program may cause the processor to execute the operation of FIG. That is, the processor may read the display program and execute the operation of FIG. In the example of FIG. 3, the series of processes in steps S100 and S110 and the process in step S200 are executed in parallel. For example, a series of processes in steps S100, S110, and S300 is repeated each time the image processing apparatus 50 receives the image IMGa. Further, the process of step S200 is repeated each time the image processing apparatus 50 receives the detection result INFa, for example.

ステップS100では、画像処理装置50は、カメラ20で撮影された画像IMGaを保持部100に保持する。例えば、画像処理装置50は、カメラ20で撮影された画像IMGaを取得し、カメラ20から取得した画像IMGaを保持部100に保持する。   In step S <b> 100, the image processing apparatus 50 holds the image IMGa taken by the camera 20 in the holding unit 100. For example, the image processing apparatus 50 acquires an image IMGa taken by the camera 20 and holds the image IMGa acquired from the camera 20 in the holding unit 100.

ステップS110では、生成部110は、画像IMGaから生成した画像IMGbを保持部160に保持する。例えば、生成部110は、ステップS100で保持部100に保持された画像IMGaを読み出し、読み出した画像IMGaから表示範囲DRANの画像IMGbを抽出する。これにより、モニタ40に表示される画像IMGbが生成される。そして、生成部110は、生成した画像IMGbを保持部160に保持する。なお、例えば、画像処理装置50が鏡像処理を実行する場合、生成部110は、画像IMGaから抽出した表示範囲DRANの画像を左右反転して、画像IMGbを生成する。   In step S110, the generation unit 110 holds the image IMGb generated from the image IMGa in the holding unit 160. For example, the generation unit 110 reads the image IMGa held in the holding unit 100 in step S100, and extracts the image IMGb in the display range DRAN from the read image IMGa. Thereby, the image IMGb displayed on the monitor 40 is generated. Then, the generation unit 110 holds the generated image IMGb in the holding unit 160. Note that, for example, when the image processing apparatus 50 executes mirror image processing, the generation unit 110 horizontally inverts the image in the display range DRAN extracted from the image IMGa to generate the image IMGb.

これにより、カメラ20の撮影範囲CRANのうちの表示範囲DRAN(モニタ40に表示される範囲)に相当する画像IMGbが保持部160に保持される。   Thereby, the image IMGb corresponding to the display range DRAN (the range displayed on the monitor 40) in the shooting range CRAN of the camera 20 is held in the holding unit 160.

ステップS200では、判定部120、抽出部130、描画部150等は、図4に示すように、センサ30の検知結果INFaに応じた処理を実行する。例えば、判定部120は、センサ30で検知された障害物が表示範囲DRAN内に存在するか否か等を判定する。また、例えば、抽出部130は、センサ30で検出された障害物が表示範囲DRANの端に存在するとき、ステップS100で保持部100に保持された画像IMGaから障害物の画像BIMGaを抽出する。そして、抽出部130は、抽出した画像BIMGaを保持部140に保持する。   In step S200, the determination unit 120, the extraction unit 130, the drawing unit 150, and the like execute processing according to the detection result INFa of the sensor 30, as illustrated in FIG. For example, the determination unit 120 determines whether or not an obstacle detected by the sensor 30 exists in the display range DRAN. For example, when the obstacle detected by the sensor 30 is present at the end of the display range DRAN, the extraction unit 130 extracts the obstacle image BIMGa from the image IMGa held in the holding unit 100 in step S100. Then, the extraction unit 130 holds the extracted image BIMGa in the holding unit 140.

また、例えば、描画部150は、表示範囲DRAN外に障害物が存在する場合、画像BIMGb(予め用意された警告用の画像、または、保持部140に保持されている障害物の過去の画像BIMGa)を保持部160に保持する。これにより、表示範囲DRAN外に障害物が存在する場合、予め用意された警告用の画像と障害物の過去の画像BIMGaのいずれかが保持部160に保持される。   In addition, for example, when there is an obstacle outside the display range DRAN, the drawing unit 150 displays the image BIMGb (a warning image prepared in advance or a past image BIMGa of the obstacle held in the holding unit 140. ) Is held in the holding unit 160. Accordingly, when an obstacle exists outside the display range DRAN, either the warning image prepared in advance or the past image BIMGa of the obstacle is held in the holding unit 160.

ステップS100、S110、S200の処理により、モニタ40に表示する画像IMGc(画像IMGb、BIMGaを含む画像や画像IMGb)が保持部160に保持される。   Through the processing in steps S100, S110, and S200, the image IMGc (an image including the images IMGb and BIMGa and the image IMGb) to be displayed on the monitor 40 is held in the holding unit 160.

ステップS300では、画像処理装置50は、保持部160に保持されている画像IMGcをモニタ40に転送する。これにより、カメラ20およびセンサ30からのデータに基づいて生成された画像IMGcがモニタ40に表示される。   In step S300, the image processing apparatus 50 transfers the image IMGc held in the holding unit 160 to the monitor 40. As a result, the image IMGc generated based on the data from the camera 20 and the sensor 30 is displayed on the monitor 40.

図4は、図1に示した判定部120、抽出部130および描画部150の動作の一例を示している。すなわち、図4は、図3に示したステップS200の処理の一例を示している。したがって、図4の動作は、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。例えば、表示プログラム等のソフトウエアは、プロセッサに図4の動作を実行させてもよい。すなわち、プロセッサは、表示プログラムを読み取り、図4の動作を実行してもよい。   FIG. 4 illustrates an example of operations of the determination unit 120, the extraction unit 130, and the drawing unit 150 illustrated in FIG. That is, FIG. 4 shows an example of the process of step S200 shown in FIG. Therefore, the operation of FIG. 4 may be realized only by hardware, or may be realized by controlling the hardware by software. For example, software such as a display program may cause the processor to execute the operation of FIG. That is, the processor may read the display program and execute the operation of FIG.

ステップS202では、例えば、判定部120は、センサ30の検知結果INFaをセンサ30から受け、センサ30が障害物を検知したか否かを検知結果INFaに基づいて判定する。障害物が検知されているとき(ステップS202のYes)、画像処理装置50の動作は、ステップS210に移る。   In step S202, for example, the determination unit 120 receives the detection result INFa of the sensor 30 from the sensor 30, and determines whether the sensor 30 has detected an obstacle based on the detection result INFa. When an obstacle is detected (Yes in step S202), the operation of the image processing apparatus 50 proceeds to step S210.

一方、障害物が検知されていないとき(ステップS202のNo)、判定部120は、例えば、障害物が検知されていないことを示す判定結果INFcを、抽出部130に転送する。そして、障害物が検知されていないとき、画像処理装置50の動作は、ステップS204に移る。例えば、画像処理装置50は、ステップS204の処理を実行し、センサ30の検知結果INFa(ステップS202で判定部120が受けた検知結果INFa)に応じた処理を終了する。   On the other hand, when no obstacle is detected (No in step S202), the determination unit 120 transfers, for example, a determination result INFc indicating that no obstacle is detected to the extraction unit 130. When no obstacle is detected, the operation of the image processing apparatus 50 proceeds to step S204. For example, the image processing apparatus 50 executes the process of step S204 and ends the process according to the detection result INFa of the sensor 30 (the detection result INFa received by the determination unit 120 in step S202).

ステップS204では、抽出部130は、障害物の画像BIMGaを保持部140から削除する。これにより、保持部140に保持されている障害物の画像BIMGaが削除される。この結果、この実施形態では、誤った画像が障害物の画像BIMGaとしてモニタ40に表示されることを防止できる。   In step S <b> 204, the extraction unit 130 deletes the obstacle image BIMGa from the holding unit 140. As a result, the obstacle image BIMGa held in the holding unit 140 is deleted. As a result, in this embodiment, an erroneous image can be prevented from being displayed on the monitor 40 as the obstacle image BIMGa.

ステップS210では、判定部120は、ステップS202で受けた検知結果INFaが示す障害物が追跡中の障害物か否かを判定する。例えば、判定部120は、今回のステップS202で検知されている障害物が前回のステップS202で検知された障害物と同じ場合、今回のステップS202で検知されている障害物は、追跡中の障害物であると判定する。   In step S210, the determination unit 120 determines whether the obstacle indicated by the detection result INFa received in step S202 is an obstacle being tracked. For example, when the obstacle detected in the current step S202 is the same as the obstacle detected in the previous step S202, the determination unit 120 determines that the obstacle detected in the current step S202 is the obstacle being tracked. Judge that it is a thing.

すなわち、判定部120は、今回のステップS202で検知されている障害物が前回のステップS202で検知された障害物と異なる場合、今回のステップS202で検知されている障害物は、追跡中の障害物でないと判定する。なお、判定部120は、例えば、前回のステップS202で障害物が検知されていない場合、今回のステップS202で検知されている障害物は、追跡中の障害物でないと判定する。   That is, when the obstacle detected in the current step S202 is different from the obstacle detected in the previous step S202, the determination unit 120 determines that the obstacle detected in the current step S202 is the obstacle being tracked. Judge that it is not a thing. For example, when no obstacle is detected in the previous step S202, the determination unit 120 determines that the obstacle detected in the current step S202 is not the obstacle being tracked.

障害物が追跡中の障害物であるとき(ステップS210のYes)、画像処理装置50の動作は、ステップS220に移る。一方、障害物が追跡中の障害物でないとき(ステップS210のNo)、判定部120は、例えば、障害物が追跡中の障害物でないことを示す判定結果INFcを、抽出部130に転送する。そして、障害物が追跡中の障害物でないとき、画像処理装置50の動作は、ステップS212に移る
ステップS212では、抽出部130は、障害物の画像BIMGaを保持部140から削除する。これにより、保持部140に保持されている障害物の画像BIMGaが削除される。この結果、この実施形態では、誤った画像が障害物の画像BIMGaとしてモニタ40に表示されることを防止できる。画像処理装置50は、ステップS212の処理を実行した後、ステップS220の処理を実行する。
When the obstacle is the obstacle being tracked (Yes in step S210), the operation of the image processing apparatus 50 proceeds to step S220. On the other hand, when the obstacle is not the obstacle being tracked (No in step S210), the determination unit 120 transfers, for example, a determination result INFc indicating that the obstacle is not the obstacle being tracked to the extraction unit 130. When the obstacle is not an obstacle being tracked, the operation of the image processing apparatus 50 proceeds to step S212. In step S212, the extraction unit 130 deletes the obstacle image BIMGa from the holding unit 140. As a result, the obstacle image BIMGa held in the holding unit 140 is deleted. As a result, in this embodiment, an erroneous image can be prevented from being displayed on the monitor 40 as the obstacle image BIMGa. The image processing apparatus 50 performs the process of step S220 after performing the process of step S212.

ステップS220では、判定部120は、センサ30で検知された障害物が表示範囲DRAN内に存在するか否かを検知結果INFaに基づいて判定する。すなわち、判定部120は、センサ30で検知された障害物が画像IMGbに存在するか否かを検知結果INFaに基づいて判定する。例えば、判定部120は、障害物400の全体が表示範囲DRAN内に存在している場合、障害物400が表示範囲DRAN内に存在していると判定する。したがって、判定部120は、障害物400の少なくとも一部が表示範囲DRAN外に存在している場合、障害物400が表示範囲DRAN内に存在していないと判定する。なお、判定部120は、障害物400の少なくとも一部が表示範囲DRAN内に存在している場合、障害物400が表示範囲DRAN内に存在していると判定してもよい。   In step S220, the determination unit 120 determines whether an obstacle detected by the sensor 30 exists in the display range DRAN based on the detection result INFa. That is, the determination unit 120 determines whether an obstacle detected by the sensor 30 exists in the image IMGb based on the detection result INFa. For example, when the entire obstacle 400 exists in the display range DRAN, the determination unit 120 determines that the obstacle 400 exists in the display range DRAN. Therefore, the determination unit 120 determines that the obstacle 400 does not exist within the display range DRAN when at least a part of the obstacle 400 exists outside the display range DRAN. Note that the determination unit 120 may determine that the obstacle 400 exists in the display range DRAN when at least a part of the obstacle 400 exists in the display range DRAN.

障害物が表示範囲DRAN内に存在するとき(ステップS220のYes)、画像処理装置50の動作は、ステップS230に移る。すなわち、障害物が画像IMGbに存在するとき、画像処理装置50の動作は、ステップS230に移る。   When the obstacle exists in the display range DRAN (Yes in Step S220), the operation of the image processing device 50 proceeds to Step S230. That is, when an obstacle exists in the image IMGb, the operation of the image processing device 50 proceeds to step S230.

一方、障害物が表示範囲DRAN内に存在しないとき(ステップS220のNo)、判定部120は、例えば、センサ30で検知された障害物が表示範囲DRAN内に存在しないことを示す判定結果INFbを、描画部150に転送する。そして、障害物が表示範囲DRAN内に存在しないとき、画像処理装置50の動作は、ステップS250に移る。すなわち、障害物が画像IMGbに存在しないとき、画像処理装置50の動作は、ステップS250に移る。このように、表示範囲DRAN外に存在する障害物がセンサ30で検知されたとき、画像処理装置50の動作は、ステップS250に移る。   On the other hand, when the obstacle does not exist in the display range DRAN (No in Step S220), the determination unit 120 uses, for example, a determination result INFb indicating that the obstacle detected by the sensor 30 does not exist in the display range DRAN. And transferred to the drawing unit 150. When no obstacle exists in the display range DRAN, the operation of the image processing device 50 proceeds to step S250. That is, when no obstacle exists in the image IMGb, the operation of the image processing device 50 proceeds to step S250. As described above, when an obstacle existing outside the display range DRAN is detected by the sensor 30, the operation of the image processing apparatus 50 proceeds to step S250.

ステップS230では、判定部120は、センサ30で検知された障害物の位置が表示範囲DRANの端か否かを検知結果INFaに基づいて判定する。すなわち、判定部120は、障害物が画像IMGbの端に存在するか否かを検知結果INFaに基づいて判定する。障害物の位置が表示範囲DRANの端のとき(ステップS230のYes)、判定部120は、例えば、障害物が表示範囲DRANの端に位置していることを示す判定結果INFcを、抽出部130に転送する。   In step S230, the determination unit 120 determines whether the position of the obstacle detected by the sensor 30 is the end of the display range DRAN based on the detection result INFa. That is, the determination unit 120 determines whether an obstacle exists at the end of the image IMGb based on the detection result INFa. When the position of the obstacle is at the end of the display range DRAN (Yes in step S230), the determination unit 120 extracts, for example, the determination result INFc indicating that the obstacle is positioned at the end of the display range DRAN. Forward to.

そして、障害物の位置が表示範囲DRANの端のとき、画像処理装置50の動作は、ステップS240に移る。すなわち、障害物が画像IMGbの端に存在するとき、画像処理装置50の動作は、ステップS240に移る。例えば、画像処理装置50は、ステップS240の処理を実行し、センサ30の検知結果INFa(ステップS202で判定部120が受けた検知結果INFa)に応じた処理を終了する。   When the position of the obstacle is at the end of the display range DRAN, the operation of the image processing apparatus 50 proceeds to step S240. That is, when an obstacle exists at the end of the image IMGb, the operation of the image processing apparatus 50 proceeds to step S240. For example, the image processing apparatus 50 executes the process of step S240 and ends the process according to the detection result INFa of the sensor 30 (the detection result INFa received by the determination unit 120 in step S202).

一方、障害物の位置が表示範囲DRANの端でないとき(ステップS230のNo)、画像処理装置50は、センサ30の検知結果INFa(ステップS202で判定部120が受けた検知結果INFa)に応じた処理を終了する。すなわち、障害物が画像IMGbの端に存在しないとき、センサ30の検知結果INFaに応じた処理は終了する。   On the other hand, when the position of the obstacle is not the end of the display range DRAN (No in Step S230), the image processing apparatus 50 responds to the detection result INFa of the sensor 30 (the detection result INFa received by the determination unit 120 in Step S202). The process ends. That is, when there is no obstacle at the end of the image IMGb, the process according to the detection result INFa of the sensor 30 ends.

ステップS240では、抽出部130は、障害物の画像BIMGaを保持部140に保持する。例えば、抽出部130は、図3のステップS100で保持部100に保持された画像IMGaを読み出す。そして、抽出部130は、センサ30で検知された障害物の範囲に対応する画像BIMGaを画像IMGaから抽出し、抽出した障害物の画像BIMGaを保持部140に保持する。   In step S240, the extraction unit 130 holds the obstacle image BIMGa in the holding unit 140. For example, the extraction unit 130 reads the image IMGa held in the holding unit 100 in step S100 of FIG. Then, the extraction unit 130 extracts the image BIMGa corresponding to the obstacle range detected by the sensor 30 from the image IMGa, and holds the extracted obstacle image BIMGa in the holding unit 140.

例えば、障害物が表示範囲DRAN外に移動する前のタイミングでは、障害物が表示範囲DRANの端に位置している可能性は、障害物が表示範囲DRANの中央に位置している可能性に比べて、高い。したがって、この実施形態では、表示範囲DRANの端に位置している障害物の画像BIMGaを保持部140に保持することにより、障害物が表示範囲DRAN外に移動する直前の状態に近い状態の障害物の画像を保持できる。   For example, at the timing before the obstacle moves outside the display range DRAN, the possibility that the obstacle is located at the end of the display range DRAN is that the obstacle is located at the center of the display range DRAN. Higher than that. Therefore, in this embodiment, by holding the image BIMGa of the obstacle positioned at the end of the display range DRAN in the holding unit 140, the obstacle in a state close to the state immediately before the obstacle moves outside the display range DRAN. Can hold an image of an object.

ステップS250では、例えば、描画部150は、表示範囲DRAN外に存在する障害物の画像BIMGaが保持部140に保持されているか否かを判定する。すなわち、描画部150は、表示範囲DRAN外に存在する障害物の過去の画像BIMGaが存在するか否かを判定する。   In step S250, for example, the drawing unit 150 determines whether or not the image BIMGa of the obstacle existing outside the display range DRAN is held in the holding unit 140. That is, the drawing unit 150 determines whether there is a past image BIMGa of an obstacle existing outside the display range DRAN.

障害物の画像BIMGaが保持部140に保持されているとき(ステップS250のYes)、画像処理装置50の動作は、ステップS252に移る。すなわち、障害物の過去の画像BIMGaが存在するとき、画像処理装置50の動作は、ステップS252に移る。例えば、画像処理装置50は、ステップS252の処理を実行し、センサ30の検知結果INFa(ステップS202で判定部120が受けた検知結果INFa)に応じた処理を終了する。   When the obstacle image BIMGa is held in the holding unit 140 (Yes in step S250), the operation of the image processing apparatus 50 proceeds to step S252. That is, when the past image BIMGa of the obstacle exists, the operation of the image processing apparatus 50 proceeds to step S252. For example, the image processing apparatus 50 executes the process of step S252 and ends the process according to the detection result INFa of the sensor 30 (the detection result INFa received by the determination unit 120 in step S202).

一方、障害物の画像BIMGaが保持部140に保持されていないとき(ステップS250のNo)、画像処理装置50の動作は、ステップS254に移る。すなわち、障害物の過去の画像BIMGaが存在しないとき、画像処理装置50の動作は、ステップS254に移る。例えば、画像処理装置50は、ステップS254の処理を実行し、センサ30の検知結果INFa(ステップS202で判定部120が受けた検知結果INFa)に応じた処理を終了する。   On the other hand, when the obstacle image BIMGa is not held in the holding unit 140 (No in step S250), the operation of the image processing apparatus 50 proceeds to step S254. That is, when the past image BIMGa of the obstacle does not exist, the operation of the image processing device 50 proceeds to step S254. For example, the image processing apparatus 50 executes the process of step S254 and ends the process according to the detection result INFa of the sensor 30 (the detection result INFa received by the determination unit 120 in step S202).

ステップS252では、描画部150は、保持部140に保持されている障害物の画像BIMGaを描画する。例えば、描画部150は、障害物の画像BIMGaを保持部140から読み出し、読み出した画像BIMGaを画像BIMGbとして保持部160に保持する。これにより、画像BIMGb(障害物の画像BIMGa)が描画される。   In step S252, the drawing unit 150 draws the obstacle image BIMGa held in the holding unit 140. For example, the drawing unit 150 reads the obstacle image BIMGa from the holding unit 140 and holds the read image BIMGa in the holding unit 160 as an image BIMGb. Accordingly, the image BIMGb (obstacle image BIMGa) is drawn.

ステップS254では、描画部150は、予め用意された警告用の画像を描画する。例えば、描画部150は、予め用意された警告用の画像を画像BIMGbとして保持部160に保持する。これにより、画像BIMGb(警告用の画像)が描画される。   In step S254, the drawing unit 150 draws a warning image prepared in advance. For example, the drawing unit 150 holds a warning image prepared in advance in the holding unit 160 as the image BIMGb. Thereby, the image BIMGb (warning image) is drawn.

このように、画像処理装置50は、表示範囲DRAN外に存在する障害物がセンサ30で検知されたとき、障害物の過去の画像BIMGaまたは警告用の画像を、保持部160に保持する。例えば、表示範囲DRAN外に存在する障害物の過去の画像BIMGaが保持部140に保持されている場合、画像処理装置50は、障害物の過去の画像BIMGaを保持部160に保持する。また、図3で説明したように、保持部160には、表示範囲DRANの画像IMGbが保持されている。この場合、表示範囲DRANの画像IMGbと障害物の画像BIMGaとが保持部160に保持されている。これにより、表示範囲DRANの画像IMGbと障害物の画像BIMGaとがモニタ40に表示される。   In this way, when an obstacle that exists outside the display range DRAN is detected by the sensor 30, the image processing apparatus 50 holds the past image BIMGa or warning image of the obstacle in the holding unit 160. For example, when the past image BIMGa of the obstacle existing outside the display range DRAN is held in the holding unit 140, the image processing apparatus 50 holds the past image BIMGa of the obstacle in the holding unit 160. Further, as described with reference to FIG. 3, the holding unit 160 holds the image IMGb in the display range DRAN. In this case, the holding unit 160 holds the image IMGb in the display range DRAN and the image BIMGa of the obstacle. As a result, the image IMGb in the display range DRAN and the image BIMGa of the obstacle are displayed on the monitor 40.

したがって、システム10は、表示範囲DRAN外に存在する障害物の過去の画像BIMGaが保持部140に保持されているとき、表示範囲DRANの画像IMGbのほかに障害物の画像BIMGaをモニタ40に表示できる。すなわち、この実施形態では、システム10の利用者に伝える情報の低減を抑制できる。   Therefore, when the past image BIMGa of the obstacle existing outside the display range DRAN is held in the holding unit 140, the system 10 displays the obstacle image BIMGa on the monitor 40 in addition to the image IMGb of the display range DRAN. it can. That is, in this embodiment, it is possible to suppress a reduction in information transmitted to the user of the system 10.

なお、画像処理装置50の動作は、図3および図4に示した例に限定されない。例えば、ステップS230の処理は、省かれてもよい。この場合、抽出部130は、例えば、障害物の全体が表示範囲DRAN内に存在することを示す検知結果INFaを画像処理装置50が受ける度に、障害物の画像BIMGaを画像IMGaから抽出する。そして、抽出部130は、抽出した障害物の画像BIMGaを保持部140に保持する。これにより、保持部140に保持されている画像BIMGaは、新しい画像BIMGaに更新される。なお、障害物の少なくとも一部が表示範囲DRAN外に存在するとき、障害物の画像BIMGaは、抽出されない。したがって、保持部140に保持されている画像BIMGaは、障害物が表示範囲DRAN外に移動する直前の画像であり、表示範囲DRANの端に位置している障害物の画像BIMGaに対応している。   Note that the operation of the image processing apparatus 50 is not limited to the examples shown in FIGS. 3 and 4. For example, the process of step S230 may be omitted. In this case, for example, every time the image processing apparatus 50 receives the detection result INFa indicating that the entire obstacle exists in the display range DRAN, the extraction unit 130 extracts the obstacle image BIMGa from the image IMGa. Then, the extraction unit 130 holds the extracted obstacle image BIMGa in the holding unit 140. As a result, the image BIMGa held in the holding unit 140 is updated to a new image BIMGa. When at least a part of the obstacle exists outside the display range DRAN, the obstacle image BIMGa is not extracted. Therefore, the image BIMGa held in the holding unit 140 is an image immediately before the obstacle moves outside the display range DRAN, and corresponds to the image BIMGa of the obstacle located at the end of the display range DRAN. .

また、例えば、画像処理装置50が鏡像処理を実行する場合、描画部150は、保持部140から読み出した画像BIMGaを左右反転して、画像BIMGbを生成してもよい。あるいは、画像処理装置50が鏡像処理を実行する場合、例えば、抽出部130は、画像IMGaから抽出した障害物の画像を左右反転し、左右反転した画像を画像BIMGbとして保持部140に保持してもよい。   In addition, for example, when the image processing apparatus 50 executes mirror image processing, the drawing unit 150 may generate the image BIMGb by horizontally inverting the image BIMGa read from the holding unit 140. Alternatively, when the image processing apparatus 50 performs mirror image processing, for example, the extraction unit 130 horizontally inverts the obstacle image extracted from the image IMGa, and retains the horizontally reversed image in the retaining unit 140 as an image BIMGb. Also good.

図5は、障害物が存在しないときにモニタ40に表示される画像IMGcの一例を示している。なお、図5は、車両300の右側面に配置されたカメラ20およびセンサ30を含むシステム10のモニタ40に表示される画像IMGcの一例を示している。以下、車両300の右側面に配置されたカメラ20およびセンサ30を含むシステム10を中心に説明する。   FIG. 5 shows an example of an image IMGc displayed on the monitor 40 when there is no obstacle. FIG. 5 shows an example of an image IMGc displayed on the monitor 40 of the system 10 including the camera 20 and the sensor 30 disposed on the right side surface of the vehicle 300. Hereinafter, the system 10 including the camera 20 and the sensor 30 disposed on the right side surface of the vehicle 300 will be mainly described.

モニタ40は、例えば、画像IMGbの表示用の領域と画像BIMGb(障害物の画像BIMGaまたは警告用の画像)の表示用の領域とを有している。モニタ40に表示される画像IMGb、BIMGaは、例えば、鏡像である。なお、画像BIMGbの表示用の領域は、モニタ40に画像BIMGbが表示されない場合、余白BSPである。   The monitor 40 has, for example, an area for displaying the image IMGb and an area for displaying the image BIMGb (an obstacle image BIMGa or a warning image). The images IMGb and BIMGa displayed on the monitor 40 are, for example, mirror images. Note that the display area of the image BIMGb is a blank BSP when the image BIMGb is not displayed on the monitor 40.

図5の例では、センサ30の検知範囲SRAN内に障害物は存在していない。このため、センサ30は、障害物を検知しない。したがって、保持部160は、障害物の画像BIMGaおよび警告用の画像のいずれも保持していない。この場合、モニタ40には、表示範囲DRANの画像IMGbが画像IMGcとして表示される。   In the example of FIG. 5, no obstacle exists in the detection range SRAN of the sensor 30. For this reason, the sensor 30 does not detect an obstacle. Therefore, the holding unit 160 holds neither the obstacle image BIMGa nor the warning image. In this case, the image IMGb in the display range DRAN is displayed on the monitor 40 as the image IMGc.

画像IMGbには、例えば、車両300の一部が映っている。なお、表示範囲DRAN内に障害物が存在しないため、画像IMGbには、障害物は映っていない。また、画像BIMGbの表示用の領域は、余白BSPである。   For example, a part of the vehicle 300 is shown in the image IMGb. Since no obstacle exists in the display range DRAN, no obstacle is shown in the image IMGb. The display area for the image BIMGb is a blank BSP.

図6は、表示範囲DRAN内に障害物400が存在するときにモニタ40に表示される画像IMGcの一例を示している。図6の例では、センサ30で検知された障害物400は、表示範囲DRAN内に存在する。なお、図6の例は、表示範囲DRAN内に存在する障害物400の位置は、表示範囲DRANの端ではない。図6の符号OP1、OP2、OP3、OP4は、センサ30で検知された障害物400を板状の四角形に換算したときの四角形の各頂点を示している。頂点OP1、OP2、OP3、OP4の位置は、表示範囲DRAN内である。   FIG. 6 shows an example of an image IMGc displayed on the monitor 40 when the obstacle 400 exists in the display range DRAN. In the example of FIG. 6, the obstacle 400 detected by the sensor 30 exists within the display range DRAN. In the example of FIG. 6, the position of the obstacle 400 existing in the display range DRAN is not the end of the display range DRAN. Reference numerals OP1, OP2, OP3, and OP4 in FIG. 6 indicate the vertices of the quadrangle when the obstacle 400 detected by the sensor 30 is converted into a plate-like quadrangle. The positions of the vertices OP1, OP2, OP3, and OP4 are within the display range DRAN.

したがって、保持部160は、障害物400の画像BIMGaおよび警告用の画像のいずれも保持していない。このため、モニタ40には、表示範囲DRANの画像IMGbが画像IMGcとして表示される。なお、表示範囲DRAN内に障害物400が存在するため、画像IMGbには、障害物400が映っている。また、センサ30で検知された障害物400の位置が表示範囲DRAN外でないため、画像BIMGbの表示用の領域は、余白BSPである。   Therefore, the holding unit 160 holds neither the image BIMGa of the obstacle 400 nor the warning image. Therefore, the image IMGb in the display range DRAN is displayed on the monitor 40 as the image IMGc. Since the obstacle 400 exists in the display range DRAN, the obstacle 400 is shown in the image IMGb. Further, since the position of the obstacle 400 detected by the sensor 30 is not outside the display range DRAN, the display area of the image BIMGb is a blank BSP.

図7は、表示範囲DRAN内に障害物400が存在するときにモニタ40に表示される画像IMGcの別の例を示している。図7の符号OP1、OP2、OP3、OP4の意味は、図6と同様である。図7の例では、センサ30で検知された障害物400は、表示範囲DRANの端に位置している。   FIG. 7 shows another example of the image IMGc displayed on the monitor 40 when the obstacle 400 exists in the display range DRAN. The meanings of symbols OP1, OP2, OP3, and OP4 in FIG. 7 are the same as those in FIG. In the example of FIG. 7, the obstacle 400 detected by the sensor 30 is located at the end of the display range DRAN.

例えば、頂点OP1、OP2の位置は、表示範囲DRANの端に隣接している。このため、モニタ40に表示される画像IMGbの端に障害物400が映っている。画像IMGb内の破線の枠は、障害物400に対応する四角形を分かりやすくするために記載したものであり、モニタ40には表示されない。なお、例えば、破線の枠内の画像(あるいは、左右反転前の破線の枠内の画像)は、障害物400の画像BIMGaとして保持部140に保持されている。   For example, the positions of the vertices OP1 and OP2 are adjacent to the end of the display range DRAN. For this reason, the obstacle 400 is shown at the end of the image IMGb displayed on the monitor 40. A broken line frame in the image IMGb is described for easy understanding of a square corresponding to the obstacle 400 and is not displayed on the monitor 40. Note that, for example, an image within the broken line frame (or an image within the broken line frame before the horizontal reversal) is held in the holding unit 140 as the image BIMGa of the obstacle 400.

図8は、表示範囲DRAN外に障害物400が存在するときにモニタ40に表示される画像IMGcの一例を示している。図8の符号OP1、OP2、OP3、OP4の意味は、図6と同様である。図8の例では、センサ30で検知された障害物400は、表示範囲DRAN外に存在する。   FIG. 8 shows an example of an image IMGc displayed on the monitor 40 when the obstacle 400 exists outside the display range DRAN. The meanings of symbols OP1, OP2, OP3, and OP4 in FIG. 8 are the same as those in FIG. In the example of FIG. 8, the obstacle 400 detected by the sensor 30 exists outside the display range DRAN.

なお、図8は、表示範囲DRAN内から表示範囲DRAN外に移動した障害物400をセンサ30が検知している状態を示している。例えば、図8に示した状態は、図7に示した状態の後の状態に対応している。したがって、障害物400の過去の画像BIMGaは、保持部140に保持されている。   FIG. 8 shows a state in which the sensor 30 detects an obstacle 400 that has moved from within the display range DRAN to outside the display range DRAN. For example, the state shown in FIG. 8 corresponds to the state after the state shown in FIG. Therefore, the past image BIMGa of the obstacle 400 is held in the holding unit 140.

例えば、画像処理装置50は、図4に示したステップS210の処理において、センサ30で検知された障害物400が追跡中の障害物であると判定する。また、例えば、画像処理装置50は、図4に示したステップS250の処理において、表示範囲DRAN外に存在する障害物の画像BIMGaが保持部140に保持されていると判定する。   For example, the image processing apparatus 50 determines that the obstacle 400 detected by the sensor 30 is the obstacle being tracked in the process of step S210 illustrated in FIG. Further, for example, the image processing apparatus 50 determines that the image BIMGa of the obstacle existing outside the display range DRAN is held in the holding unit 140 in the process of step S250 illustrated in FIG.

したがって、保持部160は、障害物400の過去の画像BIMGaを画像BIMGbとして保持している。すなわち、保持部160は、表示範囲DRANの画像IMGbと障害物400の過去の画像BIMGaとを保持している。このため、表示範囲DRANの画像IMGbと画像BIMGb(障害物400の過去の画像BIMGa)とを含む画像IMGcが、モニタ40に表示される。   Therefore, the holding unit 160 holds the past image BIMGa of the obstacle 400 as the image BIMGb. That is, the holding unit 160 holds the image IMGb in the display range DRAN and the past image BIMGa of the obstacle 400. Therefore, the image IMGc including the image IMGb in the display range DRAN and the image BIMGb (the past image BIMGa of the obstacle 400) is displayed on the monitor 40.

表示範囲DRAN内に障害物400が存在しないため、画像IMGbには、障害物400は映っていない。また、画像BIMGbは、例えば、障害物400の全体が映ったできるだけ新しい過去の画像BIMGaである。   Since the obstacle 400 does not exist within the display range DRAN, the obstacle 400 is not reflected in the image IMGb. The image BIMGb is, for example, a past image BIMGa that is as new as possible in which the entire obstacle 400 is reflected.

このように、この実施形態では、障害物400が表示範囲DRAN内から表示範囲DRAN外に移動したときにも、表示範囲DRANの画像IMGbに加えて、障害物400の全体が映ったできるだけ新しい過去の画像BIMGaをモニタ40に表示できる。これにより、この実施形態では、障害物400が表示範囲DRAN内から表示範囲DRAN外に移動したときにも、障害物400の存在を運転者に提示し続けることができる。   As described above, in this embodiment, when the obstacle 400 moves from the display range DRAN to the outside of the display range DRAN, in addition to the image IMGb of the display range DRAN, the past as new as possible in which the entire obstacle 400 is reflected. The image BIMGa can be displayed on the monitor 40. Thereby, in this embodiment, even when the obstacle 400 moves from the display range DRAN to the outside of the display range DRAN, the presence of the obstacle 400 can be continuously presented to the driver.

なお、画像処理装置50は、障害物400の画像BIMGaを画像BIMGbとしてモニタ40に表示する際に、画像BIMGaに対して拡大、縮小等を実行し、画像BIMGaのサイズを画像BIMGbの表示用の領域に合うように調整してもよい。   When the image BIMGa of the obstacle 400 is displayed on the monitor 40 as the image BIMGb, the image processing apparatus 50 performs enlargement / reduction on the image BIMGa, and sets the size of the image BIMGa for displaying the image BIMGb. You may adjust so that it may suit a field.

図9は、表示範囲DRAN外に障害物400が存在するときにモニタ40に表示される画像IMGcの別の例を示している。図9の符号OP1、OP2、OP3、OP4の意味は、図6と同様である。図9の例では、センサ30で検知された障害物400は、表示範囲DRAN外に存在する。図9の破線の障害物400aは、センサ30が検知した障害物400bの前の状態(障害物400、表示範囲DRAN、検知範囲SRANの相対的な位置関係)を示している。例えば、図9の状態では、センサ30は、センサ30の検知範囲SRAN外から検知範囲SRAN内に表示範囲DRANを通過せずに移動した障害物400を検知している。   FIG. 9 shows another example of the image IMGc displayed on the monitor 40 when the obstacle 400 exists outside the display range DRAN. The meanings of symbols OP1, OP2, OP3, and OP4 in FIG. 9 are the same as those in FIG. In the example of FIG. 9, the obstacle 400 detected by the sensor 30 exists outside the display range DRAN. 9 indicates a state before the obstacle 400b detected by the sensor 30 (relative positional relationship between the obstacle 400, the display range DRAN, and the detection range SRAN). For example, in the state of FIG. 9, the sensor 30 detects the obstacle 400 that has moved from outside the detection range SRAN of the sensor 30 to within the detection range SRAN without passing through the display range DRAN.

したがって、障害物400bの過去の画像BIMGaは、保持部140に保持されていない。このため、保持部160は、予め用意された警告用の画像(図9では、感嘆符が描かれた画像)を画像BIMGbとして保持している。すなわち、保持部160は、表示範囲DRANの画像IMGbと警告用の画像とを保持している。このため、表示範囲DRANの画像IMGbと画像BIMGb(警告用の画像)とを含む画像IMGcが、モニタ40に表示される。   Therefore, the past image BIMGa of the obstacle 400b is not held in the holding unit 140. Therefore, the holding unit 160 holds a warning image prepared in advance (an image in which an exclamation mark is drawn in FIG. 9) as the image BIMGb. That is, the holding unit 160 holds the image IMGb in the display range DRAN and the warning image. Therefore, the image IMGc including the image IMGb and the image BIMGb (warning image) in the display range DRAN is displayed on the monitor 40.

表示範囲DRAN内に障害物400が存在しないため、画像IMGbには、障害物400は映っていない。また、障害物400bの過去の画像BIMGaが保持部140に保持されていないため、画像BIMGbは、例えば、感嘆符が描かれた警告用の画像である。   Since the obstacle 400 does not exist within the display range DRAN, the obstacle 400 is not reflected in the image IMGb. In addition, since the past image BIMGa of the obstacle 400b is not held in the holding unit 140, the image BIMGb is, for example, a warning image on which an exclamation mark is drawn.

このように、障害物400bの過去の画像BIMGaが保持部140に保持されていない場合には、障害物400bの画像BIMGaの代わりに、障害物400が表示範囲DRAN外に存在することを知らせる警告用の画像がモニタ40に表示される。これにより、この実施形態では、障害物400が検知範囲SRAN外から検知範囲SRAN内に表示範囲DRANを通過せずに移動したときにも、障害物400の存在を運転者に提示することができる。   Thus, when the past image BIMGa of the obstacle 400b is not held in the holding unit 140, a warning that informs that the obstacle 400 exists outside the display range DRAN instead of the image BIMGa of the obstacle 400b. An image for use is displayed on the monitor 40. Thereby, in this embodiment, even when the obstacle 400 moves from outside the detection range SRAN to within the detection range SRAN without passing through the display range DRAN, the presence of the obstacle 400 can be presented to the driver. .

図10は、センサ30による障害物30の検知の概要を示している。障害物400(t1)は、時刻t1での障害物400を示し、障害物400(t2)は、時刻t2での障害物400を示している。また、中心水平角度θh、中心垂直角度θv、距離L、横方向の大きさWD(以下、幅WDとも称する)、縦方向の大きさHT(以下、高さHTとも称する)は、センサ30の検知結果INFaに含まれる情報の一例を示している。なお、符号θh、θv、L、WD、HTの末尾の数字は、時刻tの末尾の数字に対応している。   FIG. 10 shows an outline of detection of the obstacle 30 by the sensor 30. The obstacle 400 (t1) indicates the obstacle 400 at the time t1, and the obstacle 400 (t2) indicates the obstacle 400 at the time t2. Further, the center horizontal angle θh, the center vertical angle θv, the distance L, the horizontal size WD (hereinafter also referred to as width WD), and the vertical size HT (hereinafter also referred to as height HT) are An example of information included in the detection result INFa is shown. Note that the numbers at the end of the symbols θh, θv, L, WD, and HT correspond to the numbers at the end of time t.

例えば、センサ30は、時刻t1に検知した障害物400(t1)の検知結果INFaとして、中心水平角度θh1、中心垂直角度θv1、距離L1、幅WD1、高さHT1、時刻t1を示す情報を画像処理装置50の判定部120に転送する。また、例えば、センサ30は、時刻t2に検知した障害物400(t2)の検知結果INFaとして、中心水平角度θh2、中心垂直角度θv2、距離L2、幅WD2、高さHT2、時刻t2を示す情報を画像処理装置50の判定部120に転送する。   For example, the sensor 30 images the information indicating the center horizontal angle θh1, the center vertical angle θv1, the distance L1, the width WD1, the height HT1, and the time t1 as the detection result INFa of the obstacle 400 (t1) detected at the time t1. The data is transferred to the determination unit 120 of the processing device 50. Further, for example, the sensor 30 has information indicating the center horizontal angle θh2, the center vertical angle θv2, the distance L2, the width WD2, the height HT2, and the time t2 as the detection result INFa of the obstacle 400 (t2) detected at time t2. Is transferred to the determination unit 120 of the image processing apparatus 50.

ここで、例えば、中心水平角度θhは、障害物400の検知範囲の中心とセンサ30とを結ぶ線とZ軸(センサ30の向いている方向)との水平方向の角度である。また、中心垂直角度θvは、障害物400の中心とセンサ30とを結ぶ線とZ軸(センサ30の向いている方向)との垂直方向の角度である。距離Lは、障害物400の中心とセンサ30との距離である。幅WDは、障害物400を垂直に伸びた板状の物体としたときの水平方向の大きさである。高さHTは、障害物400を垂直に伸びた板状の物体としたときの垂直方向の大きさである。例えば、距離L、幅WD、高さHTの単位は、メートルである。   Here, for example, the center horizontal angle θh is an angle in the horizontal direction between the line connecting the center of the detection range of the obstacle 400 and the sensor 30 and the Z axis (direction in which the sensor 30 is directed). The center vertical angle θv is an angle in the vertical direction between a line connecting the center of the obstacle 400 and the sensor 30 and the Z axis (direction in which the sensor 30 is directed). The distance L is the distance between the center of the obstacle 400 and the sensor 30. The width WD is a horizontal size when the obstacle 400 is a plate-like object extending vertically. The height HT is the size in the vertical direction when the obstacle 400 is a vertically extending plate-like object. For example, the units of distance L, width WD, and height HT are meters.

判定部120は、例えば、センサ30から受けた前回(例えば、時刻t1)の検知結果INFaを保持している。そして、判定部120は、現在(例えば、時刻t2)の検知結果INFaをセンサ30から受けたとき、前回(例えば、時刻t1)の検知結果INFaと今回(例えば、時刻t2)の検知結果INFaとを用いて、障害物400を追跡できているか否かを判定する。なお、今回の検知結果INFaは、次回の判定(障害物400を追跡できているか否かの判定)に用いられるため、保持される。   The determination unit 120 holds, for example, the previous detection result INFa (for example, time t1) received from the sensor 30. When the determination unit 120 receives the current detection result INFa (for example, time t2) from the sensor 30, the previous detection result INFa (for example, time t1) and the current detection result INFa (for example, time t2) Is used to determine whether or not the obstacle 400 can be tracked. The current detection result INFa is retained because it is used for the next determination (determination as to whether or not the obstacle 400 can be tracked).

障害物400を追跡できているか否かは、例えば、前回および今回の検知結果INFaから算出される障害物400の中心位置の移動量と、前回および今回の検知結果INFaから算出される障害物400の大きさの変化率とに基づいて判定される。先ず、障害物400の中心位置の移動量の算出について説明する。   Whether the obstacle 400 can be tracked is determined by, for example, the amount of movement of the center position of the obstacle 400 calculated from the previous and current detection results INFa and the obstacle 400 calculated from the previous and current detection results INFa. It is determined based on the rate of change of the magnitude of. First, calculation of the movement amount of the center position of the obstacle 400 will be described.

センサ30の位置を原点とし、センサ30の向いている方向をZ軸、Z軸を法線ベクトルとする平面内で地面と平行な方向をX軸、Z軸を法線ベクトルとする平面内でX軸に垂直な方向をY軸とする。すなわち、X軸、Y軸、Z軸は、センサ30の座標系の軸である。また、前回検知された障害物400(t1)の中心位置を座標(x1、y1、z1)とし、今回検知された障害物400(t2)の中心位置を座標(x2、y2、z2)とする。   In the plane where the position of the sensor 30 is the origin, the direction the sensor 30 is facing is the Z axis, the Z axis is the normal vector, the direction parallel to the ground is the X axis, and the Z axis is the normal vector The direction perpendicular to the X axis is taken as the Y axis. That is, the X axis, the Y axis, and the Z axis are axes of the coordinate system of the sensor 30. The center position of the obstacle 400 (t1) detected last time is set as coordinates (x1, y1, z1), and the center position of the obstacle 400 (t2) detected this time is set as coordinates (x2, y2, z2). .

障害物400(t1)の中心位置(x1、y1、z1)から障害物400(t2)の中心位置(x2、y2、z2)までの移動量をLmとした場合、移動量Lmは、式(1)で表される。   When the movement amount from the center position (x1, y1, z1) of the obstacle 400 (t1) to the center position (x2, y2, z2) of the obstacle 400 (t2) is Lm, the movement amount Lm is expressed by the formula ( 1).

Figure 2015056851
Figure 2015056851

なお、障害物400(t1)の中心位置(x1、y1、z1)は、中心水平角度θh1、中心垂直角度θv1、距離L1を用いて、式(2)、式(3)および式(4)で表される。   Note that the center position (x1, y1, z1) of the obstacle 400 (t1) is expressed by the equations (2), (3), and (4) using the center horizontal angle θh1, the center vertical angle θv1, and the distance L1. It is represented by

x1=L1・cos(θv1)・sin(θh1) ‥‥(2)
y1=L1・cos(θh1)・sin(θv1) ‥‥(3)
z1=L1・cos(θh1)・cos(θv1) ‥‥(4)
また、障害物400(t2)の中心位置(x2、y2、z2)は、中心水平角度θh2、中心垂直角度θv2、距離L2を用いて、式(5)、式(6)および式(7)で表される。
x1 = L1 · cos (θv1) · sin (θh1) (2)
y1 = L1 · cos (θh1) · sin (θv1) (3)
z1 = L1 · cos (θh1) · cos (θv1) (4)
Further, the center position (x2, y2, z2) of the obstacle 400 (t2) is expressed by the equations (5), (6), and (7) using the center horizontal angle θh2, the center vertical angle θv2, and the distance L2. It is represented by

x2=L2・cos(θv2)・sin(θh2) ‥‥(5)
y2=L2・cos(θh2)・sin(θv2) ‥‥(6)
z2=L2・cos(θh2)・cos(θv2) ‥‥(7)
ここで、車両300を基準にした障害物400の相対的な速さをVrとした場合、速さVrは、前回の検知時刻t1および今回の検知時刻t2を用いて、式(8)で表される。
x2 = L2 · cos (θv2) · sin (θh2) (5)
y2 = L2 · cos (θh2) · sin (θv2) (6)
z2 = L2 · cos (θh2) · cos (θv2) (7)
Here, when the relative speed of the obstacle 400 with reference to the vehicle 300 is Vr, the speed Vr is expressed by Expression (8) using the previous detection time t1 and the current detection time t2. Is done.

Vr=Lm/(t2−t1) ‥‥(8)
例えば、判定部120は、速さVrが所定値(例えば、秒速2メートル)以下の場合、時刻t1、t2で同じ障害物400が検知されたと判断する。すなわち、時刻t2で検知された障害物400は、時刻t1で検知された追跡中の障害物400が移動したものであると判定される。
Vr = Lm / (t2-t1) (8)
For example, when the speed Vr is equal to or less than a predetermined value (for example, 2 meters per second), the determination unit 120 determines that the same obstacle 400 is detected at times t1 and t2. That is, it is determined that the obstacle 400 detected at time t2 is a movement of the tracking obstacle 400 detected at time t1.

次に、前回および今回の検知結果INFaから算出される障害物400の大きさの変化率の算出について説明する。   Next, calculation of the rate of change of the size of the obstacle 400 calculated from the previous and current detection results INFa will be described.

障害物400の大きさの変化率をRとした場合、変化率Rは、前回検知された障害物400(t1)の幅WD1および高さHT1と、今回検知された障害物400(t2)の幅WD2および高さHT2と用いて、式(9)で表される。   When the change rate of the size of the obstacle 400 is R, the change rate R is the width WD1 and height HT1 of the obstacle 400 (t1) detected last time and the obstacle 400 (t2) detected this time. Using the width WD2 and the height HT2, it is expressed by equation (9).

R=(WD2・HT2)/(WD1・HT1) ‥‥(9)
なお、式(9)は、障害物400を板状の物体と仮定したときの面積の変化率Rを表している。センサ30で検知される障害物400の大きさ(幅WD、高さHT)は、障害物400の見る角度等の変化により、変化する。このため、例えば、判定部120は、変化率Rが所定の範囲内(例えば、±10%(0.9から1.1))の場合、時刻t1、t2で同じ障害物400が検知されたと判断する。
R = (WD2 · HT2) / (WD1 · HT1) (9)
Equation (9) represents an area change rate R when the obstacle 400 is assumed to be a plate-like object. The size (width WD, height HT) of the obstacle 400 detected by the sensor 30 changes due to changes in the viewing angle of the obstacle 400 and the like. Therefore, for example, when the change rate R is within a predetermined range (for example, ± 10% (0.9 to 1.1)), the determination unit 120 detects that the same obstacle 400 is detected at the times t1 and t2. to decide.

例えば、判定部120は、速さVrが所定値以下である条件と、変化率Rが所定の範囲内である条件との両方を満たしたときに、追跡中の障害物400(前回検知した障害物400と同じ障害物400)を検知したと判定する。なお、判定部120は、速さVrが所定値以下である条件と、変化率Rが所定の範囲内である条件のうちの一方に基づいて、障害物400を追跡できているか否かを判定してもよい。   For example, when the determination unit 120 satisfies both the condition that the speed Vr is equal to or less than a predetermined value and the condition that the change rate R is within a predetermined range, the obstacle 400 being tracked (the previously detected obstacle 400) It is determined that the same obstacle 400) as the object 400 has been detected. The determination unit 120 determines whether or not the obstacle 400 can be tracked based on one of a condition where the speed Vr is equal to or less than a predetermined value and a condition where the change rate R is within a predetermined range. May be.

図11は、センサ30により検知される障害物400の大きさの一例を示している。図11のX軸、Y軸、Z軸は、センサ30の座標系の軸であり、図10で説明したX軸、Y軸、Z軸と同様である。また、図11の位置OP1、OP2、OP3、OP4は、障害物400を板状の物体と仮定したときの障害物400の四隅の位置(四角形の頂点)を示している。幅WDおよび高さHTは、障害物400を検知したセンサ30の検知結果INFaから得られる障害物400の幅および高さに対応している。   FIG. 11 shows an example of the size of the obstacle 400 detected by the sensor 30. 11 are axes in the coordinate system of the sensor 30, and are the same as the X axis, Y axis, and Z axis described in FIG. Further, positions OP1, OP2, OP3, and OP4 in FIG. 11 indicate the positions of the four corners (quadrangle vertices) of the obstacle 400 when the obstacle 400 is assumed to be a plate-like object. The width WD and the height HT correspond to the width and height of the obstacle 400 obtained from the detection result INFa of the sensor 30 that has detected the obstacle 400.

例えば、Z軸が障害物400の中心を通過する場合、位置OP1−OP4のZ座標は、障害物400の中心とセンサ30との距離Lで表される。したがって、Z軸が障害物400の中心を通過する場合、位置OP1−OP4の各座標(x、y、z)は、幅WD、高さHT、距離Lを用いて、式(10)−式(13)で表される。   For example, when the Z axis passes through the center of the obstacle 400, the Z coordinate of the positions OP1-OP4 is represented by the distance L between the center of the obstacle 400 and the sensor 30. Therefore, when the Z-axis passes through the center of the obstacle 400, the coordinates (x, y, z) of the positions OP1-OP4 are expressed by Expression (10) −Expression using the width WD, the height HT, and the distance L. It is represented by (13).

OP1(x、y、z)=(−WD/2、HT/2、L) ‥‥(10)
OP2(x、y、z)=(−WD/2、−HT/2、L) ‥‥(11)
OP3(x、y、z)=(WD/2、HT/2、L) ‥‥(12)
OP4(x、y、z)=(WD/2、−HT/2、L) ‥‥(13)
ここで、障害物400の中心が水平方向および垂直方向にそれぞれ中心水平角度θhおよび中心垂直角度θvだけ移動した場合、回転後の位置OP1−OP4は、角度θh、θvの回転行列を用いて、式(14)−(17)で表される。
OP1 (x, y, z) = (− WD / 2, HT / 2, L) (10)
OP2 (x, y, z) = (− WD / 2, −HT / 2, L) (11)
OP3 (x, y, z) = (WD / 2, HT / 2, L) (12)
OP4 (x, y, z) = (WD / 2, −HT / 2, L) (13)
Here, when the center of the obstacle 400 is moved by the center horizontal angle θh and the center vertical angle θv in the horizontal direction and the vertical direction, respectively, the rotated positions OP1-OP4 use rotation matrices of angles θh and θv. It represents with Formula (14)-(17).

Figure 2015056851
Figure 2015056851

このように、障害物400の四隅の位置OP1、OP2、OP3、OP4は、検知結果INFaの幅WD、高さHT、距離L、中心水平角度θhおよび中心垂直角度θvを用いて、センサ30の座標系で表される。   As described above, the positions OP1, OP2, OP3, and OP4 at the four corners of the obstacle 400 are obtained by using the width WD, the height HT, the distance L, the center horizontal angle θh, and the center vertical angle θv of the detection result INFa. Expressed in coordinate system.

図12は、障害物400の位置が表示範囲DRAN内か否かの判定の概要を示している。図12のU軸、V軸、S軸は、車両300の座標系の軸を示している。例えば、車両300を上から見た場合の車両300の中心で、地面の位置を原点とする。そして、車両300の前方向をV軸、車両300の右方向をU軸、上方向をS軸とする。例えば、図12では、車両300の座標系でのカメラ20の座標(u、v、s)を、座標(Uc、Vc、Sc)とし、車両300の座標系でのセンサ30の座標(u、v、s)を、座標(Uq、Vq、Sq)とする。   FIG. 12 shows an outline of determination as to whether or not the position of the obstacle 400 is within the display range DRAN. The U axis, the V axis, and the S axis in FIG. For example, the position of the ground is the origin at the center of the vehicle 300 when the vehicle 300 is viewed from above. The forward direction of the vehicle 300 is the V axis, the right direction of the vehicle 300 is the U axis, and the upward direction is the S axis. For example, in FIG. 12, the coordinates (u, v, s) of the camera 20 in the coordinate system of the vehicle 300 are coordinates (Uc, Vc, Sc), and the coordinates (u, Let v, s) be coordinates (Uq, Vq, Sq).

また、角度PanC、PanQは、車両300の座標系のUV平面でのカメラ20およびセンサ30のそれぞれのパン角度(U軸が0度)を示している。また、角度TiltC、TiltQは、車両300の座標系のUV平面に対するカメラ20およびセンサ30のそれぞれのチルト角度(UV平面に交わる方向とUV平面との角度)である。チルト角度は、例えば、UV平面より上をプラスとする。なお、図12の例では、角度TiltC、TiltQは、0度である。角度RollC、RollQは、カメラ20およびセンサ30のそれぞれのロール角度である。例えば、角度RollCは、カメラ30の向く方向の回りを回転するロール角度である。なお、図12の例では、角度RollC、RollQは、0度である。角度RollCが0度の場合、例えば、モニタ40に表示される地面(画像IMGbに表示される地面)に垂直な方向とモニタ40の縦方向とがほぼ一致する。   The angles PanC and PanQ indicate the pan angles (the U axis is 0 degree) of the camera 20 and the sensor 30 on the UV plane of the coordinate system of the vehicle 300. In addition, the angles TiltC and TiltQ are tilt angles (angles between the direction intersecting the UV plane and the UV plane) of the camera 20 and the sensor 30 with respect to the UV plane of the coordinate system of the vehicle 300, respectively. For example, the tilt angle is positive above the UV plane. In the example of FIG. 12, the angles TiltC and TiltQ are 0 degrees. The angles RollC and RollQ are the roll angles of the camera 20 and the sensor 30, respectively. For example, the angle RollC is a roll angle that rotates around the direction in which the camera 30 faces. In the example of FIG. 12, the angles RollC and RollQ are 0 degrees. When the angle RollC is 0 degree, for example, the direction perpendicular to the ground displayed on the monitor 40 (the ground displayed on the image IMGb) and the vertical direction of the monitor 40 substantially coincide.

画像処理装置50は、例えば、障害物400の四隅の位置OP1、OP2、OP3、OP4の座標を、センサ30の座標系から車両300の座標系に変換する。センサ30の座標系での位置OP1、OP2、OP3、OP4の座標は、図11で説明したように、検知結果INFaの幅WD、高さHT、距離L、中心水平角度θhおよび中心垂直角度θvを用いて、式(14)−式(17)で表される。   For example, the image processing apparatus 50 converts the coordinates of the four corner positions OP1, OP2, OP3, and OP4 of the obstacle 400 from the coordinate system of the sensor 30 to the coordinate system of the vehicle 300. As described with reference to FIG. 11, the coordinates of the positions OP1, OP2, OP3, and OP4 in the coordinate system of the sensor 30 are the width WD, height HT, distance L, center horizontal angle θh, and center vertical angle θv of the detection result INFa. Is represented by the formula (14) -formula (17).

なお、図12では、位置OP1−OP4のセンサ30の座標系での各座標(x、y、z)を、座標(Xop1、Yop1、Zop1)、座標(Xop2、Yop2、Zop2)、座標(Xop3、Yop3、Zop3)、座標(Xop4、Yop4、Zop4)とする。また、位置OP1−OP4の車両300の座標系での各座標(u、v、s)を、座標(Uop1、Vop1、Sop1)、座標(Uop2、Vop2、Sop2)、座標(Uop3、Vop3、Sop3)、座標(Uop4、Vop4、Sop4)とする。   In FIG. 12, the coordinates (x, y, zop1), coordinates (Xop1, Yop1, Zop1), coordinates (Xop2, Yop2, Zop2), coordinates (Xop3) in the coordinate system of the sensor 30 at positions OP1-OP4 are used. , Yop3, Zop3) and coordinates (Xop4, Yop4, Zop4). In addition, the coordinates (u, v, s1), coordinates (Uop1, Vop1, Sop1), coordinates (Uop2, Vop2, Sop2), coordinates (Uop3, Vop3, Sop3) in the coordinate system of the vehicle 300 at the positions OP1-OP4. ) And coordinates (Uop4, Vop4, Sop4).

位置OP1−OP4に対するセンサ30の座標系から車両300の座標系への変換は、式(18)−式(21)で与えられる。   Conversion from the coordinate system of the sensor 30 to the coordinate system of the vehicle 300 with respect to the positions OP1 to OP4 is given by Expression (18) to Expression (21).

Figure 2015056851
Figure 2015056851

以下、式(18)を導き出す過程を説明する。例えば、センサ30の座標系のXZ平面の座標は、車両300の座標系のUV平面上で角度PanQだけ回転させ、センサ30のUV平面での座標(Uq、Vq)に対応するオフセットを加算することにより、UV平面の座標に変換される。したがって、位置OP1のUV平面での座標(Uop1、Vop1)は、位置OP1のXZ平面での座標(Xop1、Zop1)、角度PanQ、センサ30のUV平面での座標(Uq、Vq)を用いて、式(22)で表される。   Hereinafter, the process of deriving Equation (18) will be described. For example, the coordinates of the XZ plane of the coordinate system of the sensor 30 are rotated by an angle PanQ on the UV plane of the coordinate system of the vehicle 300, and an offset corresponding to the coordinates (Uq, Vq) of the sensor 30 on the UV plane is added. Thus, the coordinates are converted into coordinates on the UV plane. Therefore, the coordinates (Uop1, Vop1) of the position OP1 on the UV plane use the coordinates (Xop1, Zop1) of the position OP1 on the XZ plane, the angle PanQ, and the coordinates (Uq, Vq) of the sensor 30 on the UV plane. And represented by equation (22).

Figure 2015056851
Figure 2015056851

また、車両300の座標系での位置OP1のS座標(Sop1)は、センサ30の座標系での位置OP1のY座標(Yop1)に、車両300の座標系でのセンサ30のS座標(Sq)を加算した値である。したがって、位置OP1のS座標(Sop1)は、位置OP1のY座標(Yop1)およびセンサ30のS座標(Sq)を用いて、式(23)で表される。   In addition, the S coordinate (Sop1) of the position OP1 in the coordinate system of the vehicle 300 is the same as the Y coordinate (Yop1) of the position OP1 in the coordinate system of the sensor 30, and the S coordinate (Sq) of the sensor 30 in the coordinate system of the vehicle 300. ) Is added. Therefore, the S coordinate (Sop1) of the position OP1 is expressed by Expression (23) using the Y coordinate (Yop1) of the position OP1 and the S coordinate (Sq) of the sensor 30.

Sop1=Yop1+Sq ‥‥(23)
式(22)および式(23)をまとめて行列式で表現すると、座標(Uop1、Vop1、Sop1)は、式(24)で表される。
Sop1 = Yop1 + Sq (23)
When Expression (22) and Expression (23) are collectively expressed as a determinant, coordinates (Uop1, Vop1, Sop1) are expressed by Expression (24).

Figure 2015056851
Figure 2015056851

そして、式(24)の座標(Uq、Vq、Sq)の加算部分を行列に組み込み、行列の掛け算のみで表現すると、式(18)が導き出される。式(19)−式(21)も、式(18)と同様に導き出される。   Then, when the addition part of the coordinates (Uq, Vq, Sq) of Expression (24) is incorporated into a matrix and expressed only by matrix multiplication, Expression (18) is derived. Expressions (19) to (21) are also derived in the same manner as Expression (18).

次に、位置OP1−OP4が表示範囲DRAN内か否かを判定する際の条件について説明する。画角φwは、表示範囲DRANの水平方向の範囲を角度で表したときの画角を示している。この実施形態では、カメラ20の撮影範囲CRANは、表示範囲DRANと同じである。したがって、画角φwは、カメラ20の水平方向の画角を示している。   Next, conditions for determining whether or not the positions OP1 to OP4 are within the display range DRAN will be described. The angle of view φw indicates the angle of view when the horizontal range of the display range DRAN is expressed as an angle. In this embodiment, the shooting range CRAN of the camera 20 is the same as the display range DRAN. Therefore, the angle of view φw indicates the angle of view of the camera 20 in the horizontal direction.

例えば、表示範囲DRAN内のUV平面の座標では、カメラ20に向かう線分とU軸方向に沿う線分との角度は、角度“PanC−φw/2”以上で角度“PanC+φw/2”以下である。したがって、カメラ20の位置(Uc、Vc)から見た位置OP1−OP4のU軸に対する水平方向のそれぞれの角度が角度“PanC−φw/2”以上で角度“PanC+φw/2”以下の場合、位置OP1−OP4は、表示範囲DRAN内に存在する。   For example, in the coordinates of the UV plane in the display range DRAN, the angle between the line segment toward the camera 20 and the line segment along the U-axis direction is an angle “PanC−φw / 2” or more and an angle “PanC + φw / 2” or less. is there. Accordingly, when the respective angles in the horizontal direction with respect to the U axis of the positions OP1-OP4 viewed from the position (Uc, Vc) of the camera 20 are not less than the angle “PanC−φw / 2” and not more than the angle “PanC + φw / 2”, the position OP1 to OP4 exist within the display range DRAN.

カメラ20の位置(Uc、Vc)から見た位置OP1−OP4のU軸に対する水平方向のそれぞれの角度をθhop1、θhop2、θhop3、θhop4とする。この場合、角度θhop1、位置OP1のUV平面における座標(Vop1、Uop1)およびカメラ20のUV平面における座標(Uc、Vc)の関係は、式(25)で表される。   The angles in the horizontal direction with respect to the U axis at positions OP1 to OP4 viewed from the position (Uc, Vc) of the camera 20 are θhop1, θhop2, θhop3, and θhop4. In this case, the relationship among the angle θhop1, the coordinates (Vop1, Uop1) on the UV plane at the position OP1, and the coordinates (Uc, Vc) on the UV plane of the camera 20 is expressed by Expression (25).

tan(θhop1)=(Vop1−Vc)/(Uop1−Uc) ‥‥(25)
角度θhop2−θhop4、位置OP2−OP4のUV平面における座標およびカメラ20のUV平面における座標(Uc、Vc)の関係も、式(25)と同様の関係式で表される。したがって、角度θhop1−θhop4は、式(26)−式(29)で表される。
tan (θhop1) = (Vop1-Vc) / (Uop1-Uc) (25)
The relationship between the angle θhop2-θhop4, the coordinates of the positions OP2-OP4 in the UV plane and the coordinates (Uc, Vc) in the UV plane of the camera 20 is also expressed by the same relational expression as Expression (25). Therefore, the angle θhop1-θhop4 is expressed by Expression (26) -Expression (29).

θhop1=tan−1((Vop1−Vc)/(Uop1−Uc)) ‥‥(26)
θhop2=tan−1((Vop2−Vc)/(Uop2−Uc)) ‥‥(27)
θhop3=tan−1((Vop3−Vc)/(Uop3−Uc)) ‥‥(28)
θhop4=tan−1((Vop4−Vc)/(Uop4−Uc)) ‥‥(29)
例えば、画像処理装置50の判定部120は、角度θhop1−θhop4の全てが角度“PanC−φw/2”以上で角度“PanC+φw/2”以下の場合、表示範囲DRANの水平方向について、表示範囲DRAN内に障害物400が存在すると判定する。なお、判定部120は、角度θhop1、θhop2の一方と角度θhop3、θhop4の一方とを確認することにより、表示範囲DRANのうちの水平方向の範囲に障害物400が存在するか否かを判定してもよい。
θhop1 = tan −1 ((Vop1−Vc) / (Uop1−Uc)) (26)
θhop2 = tan −1 ((Vop2−Vc) / (Uop2−Uc)) (27)
θhop3 = tan −1 ((Vop3-Vc) / (Uop3-Uc)) (28)
θhop4 = tan −1 ((Vop4-Vc) / (Uop4-Uc)) (29)
For example, the determination unit 120 of the image processing apparatus 50 determines that the display range DRAN is in the horizontal direction of the display range DRAN when all the angles θhop1−θhop4 are equal to or larger than the angle “PanC−φw / 2” and smaller than the angle “PanC + φw / 2”. It is determined that the obstacle 400 exists in the area. The determination unit 120 determines whether or not the obstacle 400 exists in the horizontal range of the display range DRAN by checking one of the angles θhop1 and θhop2 and one of the angles θhop3 and θhop4. May be.

次に、表示範囲DRANの垂直方向について説明する。画角φvは、表示範囲DRANの垂直方向の範囲を角度で表したときの画角を示している。この実施形態では、カメラ20の撮影範囲CRANは、表示範囲DRANと同じである。したがって、画角φvは、カメラ20の垂直方向の画角を示している。ここで、図12では、カメラ20のS方向の位置(高さ)がセンサ30のS方向の位置(高さ)と同じであるとして説明する。   Next, the vertical direction of the display range DRAN will be described. The angle of view φv indicates the angle of view when the vertical range of the display range DRAN is expressed as an angle. In this embodiment, the shooting range CRAN of the camera 20 is the same as the display range DRAN. Therefore, the angle of view φv indicates the angle of view of the camera 20 in the vertical direction. Here, in FIG. 12, description will be made assuming that the position (height) of the camera 20 in the S direction is the same as the position (height) of the sensor 30 in the S direction.

例えば、角度TiltCが0度であるため、表示範囲DRAN内のS座標では、カメラ20に向かう線分とUV平面との角度は、角度“−φv/2”以上で角度“φv/2”以下である。位置OP1−OP4からカメラ20に向かう線分とUV平面とのそれぞれの角度をθvop1、θvop2、θvop3、θvop4とする。この場合、角度θvop1、位置OP1の座標(Vop1、Uop1、Sop1)およびカメラ20の座標(Uc、Vc、Sc)の関係は、式(30)で表される。   For example, since the angle TiltC is 0 degree, in the S coordinate in the display range DRAN, the angle between the line segment toward the camera 20 and the UV plane is greater than or equal to the angle “−φv / 2” and less than or equal to the angle “φv / 2”. It is. The angles of the line segment from the position OP1 to OP4 toward the camera 20 and the UV plane are θvop1, θvop2, θvop3, and θvop4. In this case, the relationship among the angle θvop1, the coordinates of the position OP1 (Vop1, Uop1, Sop1), and the coordinates of the camera 20 (Uc, Vc, Sc) is expressed by Expression (30).

Figure 2015056851
Figure 2015056851

なお、式(30)の右辺の分母は、位置OP1とカメラ20とのUV平面における距離を表している。角度θvop2−θvop4、位置OP2−OP4の座標およびカメラ20の座標(Uc、Vc、Sc)の関係も、式(30)と同様の関係式で表される。したがって、角度θvop1−θvop4は、式(31)−式(34)で表される。   The denominator on the right side of Expression (30) represents the distance between the position OP1 and the camera 20 in the UV plane. The relationship between the angle θvop2−θvop4, the coordinates of the positions OP2 to OP4, and the coordinates (Uc, Vc, Sc) of the camera 20 is also expressed by the same relational expression as Expression (30). Accordingly, the angle θvop1−θvop4 is expressed by Expression (31) −Expression (34).

Figure 2015056851
Figure 2015056851

例えば、判定部120は、角度θvop1−θvop4の全てが角度“−φv/2”以上で角度“φv/2”以下の場合、表示範囲DRANの垂直方向について、表示範囲DRAN内に障害物400が存在すると判定する。なお、判定部120は、角度θvop1、θvop3の一方と角度θvop2、θvop4の一方とを確認することにより、表示範囲DRANのうちの垂直方向の範囲に障害物400が存在するか否かを判定してもよい。   For example, when all the angles θvop1 to θvop4 are equal to or larger than the angle “−φv / 2” and smaller than the angle “φv / 2”, the determination unit 120 determines that the obstacle 400 is present in the display range DRAN in the vertical direction of the display range DRAN. It is determined that it exists. The determination unit 120 determines whether or not the obstacle 400 exists in the vertical range of the display range DRAN by checking one of the angles θvop1 and θvop3 and one of the angles θvop2 and θvop4. May be.

このように、判定部120は、カメラ20から見た位置OP(OP1−OP4)の水平および垂直方向の角度θhop(θhop1−θhop4)、θvop(θvop1−θvop4)に基づいて、障害物400の位置が表示範囲DRAN内か否かを判定する。なお、判定部120は、障害物400の少なくとも一部が表示範囲DRAN内に存在している場合、障害物400が表示範囲DRAN内に存在していると判定してもよい。   In this manner, the determination unit 120 determines the position of the obstacle 400 based on the horizontal and vertical angles θhop (θhop1-θhop4) and θvop (θvop1-θvop4) of the position OP (OP1-OP4) viewed from the camera 20. Is in the display range DRAN. Note that the determination unit 120 may determine that the obstacle 400 exists in the display range DRAN when at least a part of the obstacle 400 exists in the display range DRAN.

また、例えば、判定部120は、以下に示す式(35)−式(38)の少なくとも1つを満たす位置OP(OP1−OP4)が存在する場合、障害物400が画像IMGbの端に存在すると判定する。   For example, when there is a position OP (OP1-OP4) that satisfies at least one of the following formulas (35) to (38), the determination unit 120 determines that the obstacle 400 exists at the end of the image IMGb. judge.

θhop=PanC−φw/2 ‥‥(35)
θhop=PanC+φw/2 ‥‥(36)
θvop=−φv/2 ‥‥(37)
θvop=φv/2 ‥‥(38)
なお、障害物400が表示範囲DRAN内から表示範囲DRAN外に移動するまでの撮影期間において、角度θhop等が表示範囲DRANの端に完全に重なる状態が撮影されない場合もある。このため、判定部120は、所定の幅(例えば、±5度)の余裕を持って、式(35)−式(38)の少なくとも1つを満たすか判定してもよい。例えば、所定の幅をMh、Mvとした場合、判定部120は、以下に示す式(39)−式(42)の少なくとも1つを満たす位置OP(OP1−OP4)が存在する場合、障害物400が画像IMGbの端に存在すると判定する。
θhop = PanC−φw / 2 (35)
θhop = PanC + φw / 2 (36)
θvop = −φv / 2 (37)
θvop = φv / 2 (38)
Note that there may be a case where the state in which the angle θ hop or the like completely overlaps the end of the display range DRAN is not captured during the imaging period until the obstacle 400 moves from the display range DRAN to the outside of the display range DRAN. For this reason, the determination unit 120 may determine whether or not at least one of Expressions (35) to (38) is satisfied with a margin of a predetermined width (for example, ± 5 degrees). For example, when the predetermined widths are Mh and Mv, the determination unit 120 determines that an obstacle is present when there is a position OP (OP1-OP4) that satisfies at least one of the following expressions (39) to (42). It is determined that 400 exists at the edge of the image IMGb.

PanC−φw/2−Mh≦θhop≦PanC−φw/2+Mh ‥‥(39)
PanC+φw/2−Mh≦θhop≦PanC+φw/2+Mh ‥‥(40)
−φv/2−Mv≦θvop≦−φv/2+Mv ‥‥(41)
φv/2−Mv≦θvop≦φv/2+Mv ‥‥(42)
なお、所定の幅Mh、Mvは、プラス側とマイナス側とで異なる値でもよい。障害物400が画像IMGbの端に存在すると判定された場合、図13に示すように、障害物400の画像BIMGaが画像IMGaから抽出される。
PanC−φw / 2−Mh ≦ θhop ≦ PanC−φw / 2 + Mh (39)
PanC + φw / 2−Mh ≦ θhop ≦ PanC + φw / 2 + Mh (40)
−φv / 2−Mv ≦ θvop ≦ −φv / 2 + Mv (41)
φv / 2−Mv ≦ θvop ≦ φv / 2 + Mv (42)
The predetermined widths Mh and Mv may be different values on the plus side and the minus side. When it is determined that the obstacle 400 is present at the end of the image IMGb, the image BIMGa of the obstacle 400 is extracted from the image IMGa as shown in FIG.

また、判定部120は、例えば、障害物400の少なくとも一部が画像IMGbの端を超えたか否かを角度θhop、θvopに基づいて判定することにより、障害物400が画像IMGbの端に存在するか否かを判定してもよい。この場合、障害物400の少なくとも一部が画像IMGbの端を超えたと判定される前まで、障害物400の画像BIMGaは、画像IMGaから抽出される。そして、保持部140に保持されている画像BIMGaは、抽出された画像BIMGaに更新される。なお、障害物400の少なくとも一部が画像IMGbの端を超えたと判定されたときには、障害物400の画像BIMGaは、抽出されない。すなわち、保持部140には、障害物400の少なくとも一部が画像IMGbの端を超えたと判定される前に抽出された障害物400の画像BIMGaが保持されている。   Further, the determination unit 120 determines whether or not at least a part of the obstacle 400 has exceeded the edge of the image IMGb based on the angles θhop and θvop, so that the obstacle 400 exists at the edge of the image IMGb. It may be determined whether or not. In this case, the image BIMGa of the obstacle 400 is extracted from the image IMGa until it is determined that at least a part of the obstacle 400 has exceeded the end of the image IMGb. Then, the image BIMGa held in the holding unit 140 is updated to the extracted image BIMGa. Note that when it is determined that at least a part of the obstacle 400 exceeds the end of the image IMGb, the image BIMGa of the obstacle 400 is not extracted. That is, the holding unit 140 holds the image BIMGa of the obstacle 400 extracted before it is determined that at least a part of the obstacle 400 exceeds the end of the image IMGb.

図13は、障害物400の画像BIMGaの抽出の一例を示している。なお、図13では、図7等との対応を容易にするために、保持部100から読み出される画像IMGaは、鏡像処理(左右反転処理)が実行された画像として説明する。図13では、画像IMGaの中心を原点とし、画像IMGaの横方向をW軸、画像IMGaの縦方向をH軸とする。また、画像IMGaの横幅SCWおよび縦幅SCHは、画像IMGaがビットマップ画像の場合、画像IMGaの横方向および縦方向の画素数をそれぞれ示している。   FIG. 13 shows an example of extraction of the image BIMGa of the obstacle 400. In FIG. 13, in order to facilitate the correspondence with FIG. 7 and the like, the image IMGa read from the holding unit 100 will be described as an image that has been subjected to mirror image processing (left-right reversal processing). In FIG. 13, the center of the image IMGa is the origin, the horizontal direction of the image IMGa is the W axis, and the vertical direction of the image IMGa is the H axis. Further, the horizontal width SCW and the vertical width SCH of the image IMGa respectively indicate the number of pixels in the horizontal direction and the vertical direction of the image IMGa when the image IMGa is a bitmap image.

なお、カメラ20のレンズの光軸に対する光の入射角は、例えば、入射した光の画像IMGa上の投影位置から画像IMGaの中心までの距離と比例関係にある。例えば、図12において、光の入射角が光軸(カメラの向き)に対して“φw/2”の場合、入射した光の画像IMGa上の投影位置から画像IMGaの中心までのW方向に沿う距離は、“SCW/2”画素に相当する距離である。すなわち、光の入射角が光軸(カメラの向き)に対して“φw/2”の場合、入射した光の画像IMGa上の投影位置は、画像IMGaの端である。また、例えば、光の入射角が光軸(カメラの向き)に対して“φw/4”の場合、入射した光の画像IMGa上の投影位置から画像IMGaの中心までのW方向に沿う距離は、“SCW/4”画素に相当する距離である。   The incident angle of light with respect to the optical axis of the lens of the camera 20 is proportional to the distance from the projection position of the incident light on the image IMGa to the center of the image IMGa, for example. For example, in FIG. 12, when the incident angle of light is “φw / 2” with respect to the optical axis (orientation of the camera), it follows the W direction from the projected position of the incident light on the image IMGa to the center of the image IMGa. The distance is a distance corresponding to “SCW / 2” pixels. That is, when the incident angle of light is “φw / 2” with respect to the optical axis (camera direction), the projection position of the incident light on the image IMGa is the end of the image IMGa. For example, when the incident angle of light is “φw / 4” with respect to the optical axis (camera direction), the distance along the W direction from the projection position of the incident light on the image IMGa to the center of the image IMGa is , A distance corresponding to “SCW / 4” pixels.

画像処理装置50の抽出部130は、例えば、障害物400が画像IMGbの端に存在すると判定された場合、位置OP1−OP4の画像IMGa上の4つの点で囲まれる範囲(図13の破線の枠内)の画像を、障害物400の画像BIMGaとして抽出する。例えば、位置OP1−OP4の画像IMGa上の各座標(W、H)を、座標(OP1w、OP1h)、座標(OP2w、OP2h)、座標(OP3w、OP3h)、座標(OP4w、OP4h)とする。   For example, when it is determined that the obstacle 400 is present at the end of the image IMGb, the extraction unit 130 of the image processing device 50 includes a range surrounded by four points on the image IMGa at the positions OP1 to OP4 (indicated by broken lines in FIG. 13). The image in the frame is extracted as an image BIMGa of the obstacle 400. For example, the coordinates (W, H) on the image IMGa at the positions OP1 to OP4 are defined as coordinates (OP1w, OP1h), coordinates (OP2w, OP2h), coordinates (OP3w, OP3h), and coordinates (OP4w, OP4h).

この場合、位置OP1−OP4の画像IMGa上の各座標(W、H)は、横幅SCW、縦幅SCH、図12で説明した角度θhop1−θhop4、θvop1−θvop4、角度PanC、画角φw、φvを用いて、式(43)−式(50)で表される。なお、式(43)−式(50)は、画像IMGaが鏡像である場合の位置OP1−OP4の画像IMGa上で各座標(W、H)を表している。   In this case, the coordinates (W, H) on the image IMGa at the positions OP1-OP4 are the horizontal width SCW, the vertical width SCH, the angles θhop1-θhop4, θvop1-θvop4, the angle PanC, the angle of view φw, φv described in FIG. Is represented by Formula (43) -Formula (50). In addition, Formula (43) -Formula (50) represents each coordinate (W, H) on image IMGa of position OP1-OP4 in case image IMGa is a mirror image.

OP1w=−(θhop1−PanC)・(SCW/φw) ‥‥(43)
OP1h=θvop1・(SCH/φv) ‥‥(44)
OP2w=−(θhop2−PanC)・(SCW/φw) ‥‥(45)
OP2h=θvop2・(SCH/φv) ‥‥(46)
OP3w=−(θhop3−PanC)・(SCW/φw) ‥‥(47)
OP3h=θvop3・(SCH/φv) ‥‥(48)
OP4w=−(θhop4−PanC)・(SCW/φw) ‥‥(49)
OP4h=θvop4・(SCH/φv) ‥‥(50)
例えば、抽出部130は、式(43)−式(50)に基づいて、画像IMGa上の座標(OP1w、OP1h)、座標(OP2w、OP2h)、座標(OP3w、OP3h)、座標(OP4w、OP4h)を算出する。そして、抽出部130は、画像IMGa上の座標(OP1w、OP1h)、座標(OP2w、OP2h)、座標(OP3w、OP3h)、座標(OP4w、OP4h)で囲まれる範囲(図13の破線の枠内)の画像を、障害物400の画像BIMGaとして抽出する。また、抽出部130は、抽出した画像BIMGaを保持部140に保持する。
OP1w = − (θhop1-PanC). (SCW / φw) (43)
OP1h = θvop1 · (SCH / φv) (44)
OP2w = − (θhop2-PanC). (SCW / φw) (45)
OP2h = θvop2 · (SCH / φv) (46)
OP3w =-(θhop3-PanC) (SCW / φw) (47)
OP3h = θvop3 · (SCH / φv) (48)
OP4w =-([theta] hop4-PanC). (SCW / [phi] w) (49)
OP4h = θvop4 · (SCH / φv) (50)
For example, the extraction unit 130, based on Expression (43) -Expression (50), coordinates (OP1w, OP1h), coordinates (OP2w, OP2h), coordinates (OP3w, OP3h), coordinates (OP4w, OP4h) on the image IMGa. ) Is calculated. Then, the extraction unit 130 includes a range surrounded by coordinates (OP1w, OP1h), coordinates (OP2w, OP2h), coordinates (OP3w, OP3h), and coordinates (OP4w, OP4h) on the image IMGa (within the broken line frame in FIG. 13). ) Is extracted as an image BIMGa of the obstacle 400. Further, the extraction unit 130 holds the extracted image BIMGa in the holding unit 140.

なお、抽出部130は、画像IMGbから障害物400の画像BIMGaを抽出してもよい。また、画像IMGa上の座標(OP1w、OP1h)、座標(OP2w、OP2h)、座標(OP3w、OP3h)、座標(OP4w、OP4h)は、判定部120で算出されてもよい。   Note that the extraction unit 130 may extract the image BIMGa of the obstacle 400 from the image IMGb. Further, the coordinates (OP1w, OP1h), coordinates (OP2w, OP2h), coordinates (OP3w, OP3h), and coordinates (OP4w, OP4h) on the image IMGa may be calculated by the determination unit 120.

以上、図1から図13に示した実施形態の画像処理装置50、システム10および表示プログラムでは、障害物400が画像IMGbの端に存在するときの障害物400の画像BIMGaが画像IMGa、IMGbの少なくとも一方から抽出される。例えば、画像処理装置50は、保持部100、140、160、生成部110、判定部120、抽出部130および描画部150を有している。   As described above, in the image processing apparatus 50, the system 10, and the display program of the embodiment shown in FIGS. 1 to 13, the image BIMGa of the obstacle 400 when the obstacle 400 is present at the end of the image IMGb is the image IMGa, IMGb. Extracted from at least one. For example, the image processing apparatus 50 includes holding units 100, 140, and 160, a generation unit 110, a determination unit 120, an extraction unit 130, and a drawing unit 150.

例えば、生成部110は、カメラ20で撮影された画像IMGaを保持部100から読み出し、画像IMGaからモニタ40に表示する画像IMGbを生成する。判定部120は、センサ30で検知された障害物400が画像IMGbに存在するか否かを判定し、障害物400が画像IMGbに存在するとき、障害物400が画像IMGbの端に存在するか否かを判定する。   For example, the generation unit 110 reads the image IMGa taken by the camera 20 from the holding unit 100 and generates an image IMGb to be displayed on the monitor 40 from the image IMGa. The determination unit 120 determines whether or not the obstacle 400 detected by the sensor 30 is present in the image IMGb. If the obstacle 400 is present in the image IMGb, whether the obstacle 400 is present at the edge of the image IMGb Determine whether or not.

抽出部130は、障害物400が画像IMGbの端に存在すると判定されたとき、障害物400の画像BIMGaを画像IMGaから抽出する。そして、抽出部130は、障害物400の画像BIMGaを保持部140に保持する。これにより、保持部140は、障害物400が表示範囲DRAN外に移動する直前の状態に近い状態の障害物400の画像BIMGaを保持できる。   When it is determined that the obstacle 400 is present at the end of the image IMGb, the extraction unit 130 extracts the image BIMGa of the obstacle 400 from the image IMGa. Then, the extracting unit 130 holds the image BIMGa of the obstacle 400 in the holding unit 140. Accordingly, the holding unit 140 can hold the image BIMGa of the obstacle 400 in a state close to the state immediately before the obstacle 400 moves outside the display range DRAN.

描画部150は、センサ30で検知されている障害物400が画像IMGbに存在しないと判定され、かつ、障害物400の画像BIMGが保持部140に保持されているとき、モニタ40に表示する画像IMGcに障害物400の画像BIMGaを追加する。これにより、表示範囲DRANの画像IMGbと障害物の画像BIMGaとがモニタ40に表示される。   The drawing unit 150 determines that the obstacle 400 detected by the sensor 30 is not present in the image IMGb, and the image displayed on the monitor 40 when the image BIMG of the obstacle 400 is held in the holding unit 140. An image BIMGa of the obstacle 400 is added to IMGc. As a result, the image IMGb in the display range DRAN and the image BIMGa of the obstacle are displayed on the monitor 40.

したがって、この実施形態では、表示範囲DRAN外に存在する障害物400の過去の画像BIMGaが保持部140に保持されているとき、表示範囲DRANの画像IMGbのほかに障害物400の画像BIMGaをモニタ40に表示できる。例えば、この実施形態では、障害物400が表示範囲DRAN内から表示範囲DRAN外に移動したときにも、センサ30が障害物400を検知している間は、障害物400を追跡できる。そして、この実施形態では、障害物400が表示範囲DRAN内から表示範囲DRAN外に移動した場合でも、障害物400の全体が映ったできるだけ新しい過去の画像BIMGaを、モニタ40に表示できる。   Therefore, in this embodiment, when the past image BIMGa of the obstacle 400 existing outside the display range DRAN is held in the holding unit 140, the image BIMGa of the obstacle 400 is monitored in addition to the image IMGb in the display range DRAN. 40 can be displayed. For example, in this embodiment, even when the obstacle 400 moves from the display range DRAN to the outside of the display range DRAN, the obstacle 400 can be tracked while the sensor 30 detects the obstacle 400. In this embodiment, even when the obstacle 400 moves from the display range DRAN to the outside of the display range DRAN, a past image BIMGa as new as possible showing the entire obstacle 400 can be displayed on the monitor 40.

ここで、例えば、運転者が車室内のモニタ40を見るために動かす視線の範囲は、運転者が車室外のサイドミラーを見るために動かす視線の範囲に比べて、狭い。このため、表示範囲DRAN内の画像IMGbのみが表示されたモニタ40を運転者が確認した場合、運転者が得る情報量は、サイドミラーを使用したときに比べて、減少するおそれがある。なお、この実施形態では、障害物400が表示範囲DRAN内から表示範囲DRAN外に移動したときにも、障害物400の全体が映ったできるだけ新しい過去の画像BIMGaをモニタ40に表示できるため、運転者が得る情報量の減少分の一部を補うことができる。   Here, for example, the range of the line of sight that the driver moves to see the monitor 40 in the passenger compartment is narrower than the range of the line of sight that the driver moves to see the side mirror outside the passenger compartment. For this reason, when the driver confirms the monitor 40 on which only the image IMGb within the display range DRAN is displayed, the amount of information obtained by the driver may be reduced as compared to when the side mirror is used. In this embodiment, even when the obstacle 400 moves from the display range DRAN to the outside of the display range DRAN, a past image BIMGa as new as possible showing the entire obstacle 400 can be displayed on the monitor 40. Part of the decrease in the amount of information obtained by the person can be compensated.

例えば、この実施形態では、表示範囲DRAN内から表示範囲DRAN外に移動した障害物400をセンサ30が検知している間は、緊急の対応が必要な障害物400か否かを判断する情報として、障害物400の画像BIMGaを継続的に運転者に提供できる。これにより、運転者は、モニタ40に画像BIMGaが表示されないカメラシステムを使用するときに比べて、緊急の対応が必要な障害物400か否かを容易に判断できる。   For example, in this embodiment, while the sensor 30 detects the obstacle 400 that has moved from the display range DRAN to the outside of the display range DRAN, as information for determining whether or not the obstacle 400 requires urgent action. The image BIMGa of the obstacle 400 can be continuously provided to the driver. Accordingly, the driver can easily determine whether or not the obstacle 400 requires an urgent response compared to when using a camera system in which the image BIMGa is not displayed on the monitor 40.

このように、この実施形態では、システム10の利用者に伝える情報(例えば、車両300の周辺の情報)の低減を抑制できる。   As described above, in this embodiment, it is possible to suppress a reduction in information transmitted to the user of the system 10 (for example, information around the vehicle 300).

図14は、画像処理装置およびシステムの別の実施形態を示している。この実施形態のシステム10は、図1に示した画像処理装置50に抽出判定部122が追加された画像処理装置50Aを、画像処理装置50の代わりに有している。システム10および画像処理装置50Aのその他の構成は、図1に示したシステム10および画像処理装置50と同様である。図1から図13で説明した要素と同様の要素については、同様の符号を付し、これ等については、詳細な説明を省略する。   FIG. 14 shows another embodiment of the image processing apparatus and system. The system 10 according to this embodiment includes an image processing apparatus 50A in which an extraction determination unit 122 is added to the image processing apparatus 50 illustrated in FIG. Other configurations of the system 10 and the image processing apparatus 50A are the same as those of the system 10 and the image processing apparatus 50 shown in FIG. Elements similar to those described in FIGS. 1 to 13 are denoted by the same reference numerals, and detailed description thereof will be omitted.

画像処理装置50Aは、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。例えば、表示プログラム等のソフトウエアは、プロセッサに画像処理装置50Aの動作を実行させてもよい。   The image processing apparatus 50A may be realized only by hardware, or may be realized by controlling the hardware by software. For example, software such as a display program may cause the processor to execute the operation of the image processing apparatus 50A.

画像処理装置50Aは、例えば、保持部100、140、160、生成部110、判定部120、抽出判定部122、抽出部130および描画部150を有している。抽出判定部122は、例えば、障害物400が画像IMGbの端に存在すると判定されたとき、障害物400の画像BIMGaを画像IMGaから抽出するか否かを画像IMGb内の障害物400の大きさに基づいて判定する。   The image processing apparatus 50A includes, for example, holding units 100, 140, and 160, a generation unit 110, a determination unit 120, an extraction determination unit 122, an extraction unit 130, and a drawing unit 150. For example, when it is determined that the obstacle 400 is present at the end of the image IMGb, the extraction determination unit 122 determines whether or not the image BIMGa of the obstacle 400 is extracted from the image IMGa. Determine based on.

例えば、抽出判定部122は、障害物400が画像IMGbの端に存在することを示す判定結果INFcを判定部120から受けたとき、画像IMGb内の障害物400の大きさが予め決められた下限値以上か否かを判定する。そして、抽出判定部122は、例えば、画像IMGb内の障害物400の大きさが下限値以上のとき、障害物400の画像BIMGaを画像IMGaから抽出すると判定する。障害物400の画像BIMGaを画像IMGaから抽出するか否かの判定結果INFdは、抽出部130に転送される。   For example, when the extraction determination unit 122 receives from the determination unit 120 the determination result INFc indicating that the obstacle 400 exists at the end of the image IMGb, the extraction determination unit 122 has a predetermined lower limit for the size of the obstacle 400 in the image IMGb. It is determined whether or not it is greater than or equal to the value. Then, for example, when the size of the obstacle 400 in the image IMGb is equal to or greater than the lower limit value, the extraction determination unit 122 determines to extract the image BIMGa of the obstacle 400 from the image IMGa. The determination result INFd of whether or not to extract the image BIMGa of the obstacle 400 from the image IMGa is transferred to the extraction unit 130.

例えば、抽出部130は、障害物400の画像BIMGaを画像IMGaから抽出することを示す判定結果INFdを抽出判定部122から受けたとき、保持部100に保持されている画像IMGaを読み出す。そして、抽出部130は、センサ30で検知された障害物400の範囲に対応する画像BIMGaを画像IMGaから抽出し、抽出した障害物400の画像BIMGaを保持部140に保持する。このように、抽出部130は、障害物400が画像IMGbの端に存在すると判定され、かつ、画像IMGb内の障害物400の大きさが下限値以上であると判定されたとき、障害物400の画像BIMGaを画像IMGaから抽出する。   For example, when receiving the determination result INFd indicating that the image BIMGa of the obstacle 400 is extracted from the image IMGa from the extraction determination unit 122, the extraction unit 130 reads the image IMGa held in the holding unit 100. Then, the extraction unit 130 extracts the image BIMGa corresponding to the range of the obstacle 400 detected by the sensor 30 from the image IMGa, and holds the extracted image BIMGa of the obstacle 400 in the holding unit 140. Thus, the extraction unit 130 determines that the obstacle 400 is present at the end of the image IMGb, and determines that the obstacle 400 in the image IMGb is equal to or larger than the lower limit value. The image BIMGa is extracted from the image IMGa.

これにより、下限値以上の大きさの障害物400がモニタ40に表示される。この場合、障害物400の画像BIMGaがモニタ40に表示されたときに、画像BIMGaが小さくなることを防止できる。   Thereby, the obstacle 400 having a size equal to or larger than the lower limit value is displayed on the monitor 40. In this case, when the image BIMGa of the obstacle 400 is displayed on the monitor 40, the image BIMGa can be prevented from becoming small.

なお、システム10の動作および構成は、この例に限定されない。また、画像処理装置50Aの構成および動作は、この例に限定されない。例えば、抽出判定部122は、障害物400が画像IMGbの端に存在することを示す判定結果INFcを判定部120から受けたとき、画像IMGb内の障害物400の大きさが予め決められた上限値以下か否かを判定してもよい。そして、抽出判定部122は、例えば、画像IMGb内の障害物400の大きさが上限値以下のとき、障害物400の画像BIMGaを画像IMGaから抽出すると判定してもよい。例えば、モニタ40の画像BIMGbの表示用の領域に合わせて上限値が設定されている場合、画像処理装置50Aは、画像BIMGaを縮小することなく、適切な大きさの画像BIMGaをモニタ40に表示できる。   The operation and configuration of the system 10 are not limited to this example. Further, the configuration and operation of the image processing apparatus 50A are not limited to this example. For example, when the extraction determination unit 122 receives the determination result INFc indicating that the obstacle 400 is present at the end of the image IMGb from the determination unit 120, the size of the obstacle 400 in the image IMGb is determined in advance. You may determine whether it is below a value. Then, for example, when the size of the obstacle 400 in the image IMGb is equal to or less than the upper limit value, the extraction determination unit 122 may determine that the image BIMGa of the obstacle 400 is extracted from the image IMGa. For example, when the upper limit value is set in accordance with the display area of the image BIMGb on the monitor 40, the image processing device 50A displays the image BIMGa of an appropriate size on the monitor 40 without reducing the image BIMGa. it can.

あるいは、抽出判定部122は、画像IMGb内の障害物400の大きさが下限値以上で上限値以下のとき、障害物400の画像BIMGaを画像IMGaから抽出すると判定してもよい。また、抽出判定部122は、障害物400の画像BIMGaを画像IMGaから抽出するか否かを画像IMGa内の障害物400の大きさに基づいて判定してもよい。また、抽出部130は、障害物400の画像BIMGaを画像IMGbから抽出してもよい。   Alternatively, the extraction determination unit 122 may determine that the image BIMGa of the obstacle 400 is extracted from the image IMGa when the size of the obstacle 400 in the image IMGb is greater than or equal to the lower limit value and less than or equal to the upper limit value. Further, the extraction determination unit 122 may determine whether to extract the image BIMGa of the obstacle 400 from the image IMGa based on the size of the obstacle 400 in the image IMGa. Further, the extraction unit 130 may extract the image BIMGa of the obstacle 400 from the image IMGb.

以上、図14に示した実施形態においても、図1から図13に示した実施形態と同様の効果を得ることができる。例えば、この実施形態では、システム10の利用者に伝える情報(例えば、車両300の周辺の情報)の低減を抑制できる。   As described above, also in the embodiment shown in FIG. 14, the same effects as those in the embodiment shown in FIGS. 1 to 13 can be obtained. For example, in this embodiment, reduction of information (for example, information around the vehicle 300) transmitted to the user of the system 10 can be suppressed.

さらに、この実施形態では、抽出判定部122は、障害物400の画像BIMGaを画像IMGaから抽出するか否かを画像IMGb内の障害物400の大きさに基づいて判定する。例えば、抽出判定部122は、画像IMGb内の障害物400の大きさが下限値以上のとき、障害物400の画像BIMGaを画像IMGaから抽出すると判定する。この場合、下限値以上の大きさの障害物400がモニタ40に表示される。したがって、この実施形態では、障害物400の画像BIMGaがモニタ40に表示されたときに、画像BIMGaが小さくなることを防止できる。すなわち、この実施形態では、モニタ40に表示される画像BIMGaの解像度が不足することを防止できる。この結果、この実施形態では、鮮明な画像BIMGaを運転者に提供できる。   Furthermore, in this embodiment, the extraction determination unit 122 determines whether or not to extract the image BIMGa of the obstacle 400 from the image IMGa based on the size of the obstacle 400 in the image IMGb. For example, the extraction determination unit 122 determines to extract the image BIMGa of the obstacle 400 from the image IMGa when the size of the obstacle 400 in the image IMGb is greater than or equal to the lower limit value. In this case, the obstacle 400 having a size equal to or larger than the lower limit value is displayed on the monitor 40. Therefore, in this embodiment, when the image BIMGa of the obstacle 400 is displayed on the monitor 40, the image BIMGa can be prevented from becoming small. That is, in this embodiment, it is possible to prevent the resolution of the image BIMGa displayed on the monitor 40 from being insufficient. As a result, in this embodiment, a clear image BIMGa can be provided to the driver.

また、例えば、抽出判定部122は、画像IMGb内の障害物400の大きさが上限値以下のとき、障害物400の画像BIMGaを画像IMGaから抽出すると判定してもよい。この場合、この実施形態では、例えば、モニタ40の画像BIMGbの表示用の領域に合わせて上限値を設定することにより、画像BIMGaを縮小することなく、適切な大きさの画像BIMGaをモニタ40に表示できる。   For example, the extraction determination unit 122 may determine that the image BIMGa of the obstacle 400 is extracted from the image IMGa when the size of the obstacle 400 in the image IMGb is equal to or less than the upper limit value. In this case, in this embodiment, for example, by setting an upper limit value in accordance with the display area of the image BIMGb on the monitor 40, the image BIMGa of an appropriate size is displayed on the monitor 40 without reducing the image BIMGa. Can be displayed.

図15は、画像処理装置およびシステムの別の実施形態を示している。この実施形態のシステム10は、図1に示したカメラ20および画像処理装置50の代わりに、カメラ20Aおよび画像処理装置50Bを有している。この実施形態の画像処理装置50Bでは、調整部124が図1に示した画像処理装置50に追加されている。また、画像処理装置50Bは、図1に示した生成部110の代わりに生成部110Aを有している。システム10および画像処理装置50Bのその他の構成は、図1に示したシステム10および画像処理装置50と同様である。図1から図13で説明した要素と同様の要素については、同様の符号を付し、これ等については、詳細な説明を省略する。   FIG. 15 shows another embodiment of the image processing apparatus and system. The system 10 of this embodiment has a camera 20A and an image processing device 50B instead of the camera 20 and the image processing device 50 shown in FIG. In the image processing apparatus 50B of this embodiment, an adjustment unit 124 is added to the image processing apparatus 50 shown in FIG. The image processing apparatus 50B includes a generation unit 110A instead of the generation unit 110 illustrated in FIG. Other configurations of the system 10 and the image processing apparatus 50B are the same as those of the system 10 and the image processing apparatus 50 shown in FIG. Elements similar to those described in FIGS. 1 to 13 are denoted by the same reference numerals, and detailed description thereof will be omitted.

画像処理装置50Bは、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。例えば、表示プログラム等のソフトウエアは、プロセッサに画像処理装置50Bの動作を実行させてもよい。   The image processing device 50B may be realized only by hardware, or may be realized by controlling the hardware by software. For example, software such as a display program may cause the processor to execute the operation of the image processing device 50B.

カメラ20Aの撮影範囲CRANに対応する画角は、例えば、センサ30で障害物400が検知されていないときに表示される画像IMGbの表示範囲DRANに対応する画角より大きい。以下、センサ30で障害物400が検知されていないときに表示される画像IMGbの表示範囲DRANを通常表示範囲DRANとも称する。また、通常表示範囲DRANの画角より広い画角の表示範囲DRANを、拡大表示範囲DRANとも称する。   The angle of view corresponding to the shooting range CRAN of the camera 20A is larger than the angle of view corresponding to the display range DRAN of the image IMGb displayed when the obstacle 30 is not detected by the sensor 30, for example. Hereinafter, the display range DRAN of the image IMGb displayed when the obstacle 400 is not detected by the sensor 30 is also referred to as a normal display range DRAN. Further, the display range DRAN having a wider angle of view than the normal display range DRAN is also referred to as an enlarged display range DRAN.

拡大表示範囲DRANの画角は、例えば、撮影範囲CRANの画角とほぼ同じ大きさである。なお、拡大表示範囲DRANの画角は、撮影範囲CRANの画角より小さくてもよい。例えば、撮影範囲CRANの画角が通常表示範囲DRANの画角の2倍以上の場合、拡大表示範囲DRANの画角は、通常表示範囲DRANの画角の2倍以下でもよい。   The angle of view of the enlarged display range DRAN is, for example, approximately the same size as the angle of view of the shooting range CRAN. Note that the angle of view of the enlarged display range DRAN may be smaller than the angle of view of the imaging range CRAN. For example, when the angle of view of the shooting range CRAN is more than twice the angle of view of the normal display range DRAN, the angle of view of the enlarged display range DRAN may be less than twice the angle of view of the normal display range DRAN.

画像処理装置50Bは、例えば、保持部100、140、160、生成部110A、判定部120、調整部124、抽出部130および描画部150を有している。調整部124は、カメラ20Aの画角が画像IMGbに反映されている表示範囲DRANの画角より大きく、かつ、センサ30により検知されている障害物400が画像IMGbに存在しないと判定されたとき、表示範囲DRANの画角を広くする。   The image processing device 50B includes, for example, holding units 100, 140, and 160, a generation unit 110A, a determination unit 120, an adjustment unit 124, an extraction unit 130, and a drawing unit 150. When the adjustment unit 124 determines that the angle of view of the camera 20A is larger than the angle of view of the display range DRAN reflected in the image IMGb, and the obstacle 400 detected by the sensor 30 does not exist in the image IMGb. The angle of view of the display range DRAN is increased.

例えば、調整部124は、センサ30で検知されている障害物400が通常表示範囲DRAN内に存在しないことを示す判定結果INFbを判定部120から受けたとき、拡大表示範囲DRANの画角を示す情報INFeを生成部110Aに転送する。なお、調整部124は、例えば、センサ30で検知されている障害物400が通常表示範囲DRAN内に存在することを示す判定結果INFbを判定部120から受けたとき、通常表示範囲DRANの画角を示す情報INFeを生成部110Aに転送する。また、例えば、センサ30で障害物400が検知されていないとき、調整部124は、通常表示範囲DRANの画角を示す情報INFeを生成部110Aに転送する。   For example, the adjustment unit 124 indicates the angle of view of the enlarged display range DRAN when receiving the determination result INFb indicating that the obstacle 400 detected by the sensor 30 does not exist within the normal display range DRAN from the determination unit 120. The information INFe is transferred to the generation unit 110A. For example, when the adjustment unit 124 receives the determination result INFb indicating that the obstacle 400 detected by the sensor 30 exists in the normal display range DRAN from the determination unit 120, the angle of view of the normal display range DRAN Is transferred to the generation unit 110A. For example, when the obstacle 30 is not detected by the sensor 30, the adjustment unit 124 transfers information INFe indicating the angle of view of the normal display range DRAN to the generation unit 110A.

生成部110Aは、情報INFeが示す画角の画像IMGbを、保持部100に保持されている画像IMGaから生成する。例えば、情報INFeが通常表示範囲DRANの画角を示している場合、生成部110Aは、通常表示範囲DRANの画像IMGbを生成する。すなわち、情報INFeが通常表示範囲DRANの画角を示している場合、生成部110Aは、図1に示した生成部110と同様の動作を実行する。   The generation unit 110A generates the image IMGb having the angle of view indicated by the information INFe from the image IMGa held in the holding unit 100. For example, when the information INFe indicates the angle of view of the normal display range DRAN, the generation unit 110A generates the image IMGb of the normal display range DRAN. That is, when the information INFe indicates the angle of view of the normal display range DRAN, the generation unit 110A performs the same operation as the generation unit 110 illustrated in FIG.

また、例えば、情報INFeが拡大表示範囲DRANの画角を示している場合、生成部110Aは、拡大表示範囲DRANの画像IMGbを生成する。これにより、通常表示範囲DRANより広い拡大表示範囲DRANの像が映っている画像IMGbがモニタ40に表示される。なお、モニタ40に表示される画像IMGbの大きさは、通常表示範囲DRANの画像IMGbと拡大表示範囲DRANの画像IMGbとでほぼ同じである。したがって、生成部110Aは、例えば、拡大表示範囲DRANの画像IMGbを生成する際、画像IMGbの表示用の領域に合わせて、画像IMGbを縮小する。   For example, when the information INFe indicates the angle of view of the enlarged display range DRAN, the generation unit 110A generates an image IMGb of the enlarged display range DRAN. As a result, an image IMGb in which an image of the enlarged display range DRAN wider than the normal display range DRAN is displayed on the monitor 40. The size of the image IMGb displayed on the monitor 40 is substantially the same between the image IMGb in the normal display range DRAN and the image IMGb in the enlarged display range DRAN. Therefore, for example, when generating the image IMGb in the enlarged display range DRAN, the generation unit 110A reduces the image IMGb in accordance with the display area of the image IMGb.

図16は、表示範囲DRANを広げるときの一例を示している。図16の通常表示範囲DRANnは、センサ30で障害物400が検知されていないときにモニタ40に表示される画像IMGbの表示範囲DRANを示している。また、拡大表示範囲DRANwは、センサ30で検知された障害物400が通常表示範囲DRANn内に存在しないときにモニタ40に表示される画像IMGbの表示範囲DRANを示している。   FIG. 16 shows an example when the display range DRAN is expanded. A normal display range DRANn in FIG. 16 indicates the display range DRAN of the image IMGb displayed on the monitor 40 when the obstacle 30 is not detected by the sensor 30. The enlarged display range DRANw indicates the display range DRAN of the image IMGb displayed on the monitor 40 when the obstacle 400 detected by the sensor 30 does not exist within the normal display range DRANn.

画像IMGb(n)は、センサ30で障害物400が検知されていないときにモニタ40に表示される画像IMGbを示している。画像IMGb(w)は、センサ30で検知された障害物400が通常表示範囲DRANn内に存在しないときにモニタ40に表示される画像IMGbを示している。また、画像処理装置50Bは、障害物400の画像BIMGaを保持している場合、画像IMGb(w)の他に、障害物400の画像BIMGaを画像BIMGbとしてモニタ40に表示する。なお、画像処理装置50Bは、障害物400の画像BIMGaを保持していない場合、障害物400の画像BIMGaの代わりに、警告用の画像(例えば、図7に示した画像BIMGb)を画像BIMGbとしてモニタ40に表示する。   The image IMGb (n) indicates the image IMGb displayed on the monitor 40 when the obstacle 30 is not detected by the sensor 30. The image IMGb (w) indicates the image IMGb displayed on the monitor 40 when the obstacle 400 detected by the sensor 30 does not exist within the normal display range DRANn. In addition, when the image processing apparatus 50B holds the image BIMGa of the obstacle 400, the image BIMGa of the obstacle 400 is displayed on the monitor 40 as the image BIMGb in addition to the image IMGb (w). When the image processing apparatus 50B does not hold the image BIMGa of the obstacle 400, an image for warning (for example, the image BIMGb shown in FIG. 7) is used as the image BIMGb instead of the image BIMGa of the obstacle 400. Display on the monitor 40.

図16の例では、カメラ20Aの撮影範囲CRANは、通常表示範囲DRANnより広く、拡大表示範囲DRANと同じである。したがって、センサ30で検知された障害物400が通常表示範囲DRANn内に存在しない場合、カメラ20で撮影された画像IMGaがモニタ40に表示される。   In the example of FIG. 16, the shooting range CRAN of the camera 20A is wider than the normal display range DRANn and is the same as the enlarged display range DRAN. Therefore, when the obstacle 400 detected by the sensor 30 does not exist within the normal display range DRANn, the image IMGa captured by the camera 20 is displayed on the monitor 40.

このように、画像処理装置50Bは、センサ30で検知された障害物400が通常表示範囲DRANn内に存在しない場合、表示範囲DRANの画角を広げて、通常表示範囲DRANnより広い拡大表示範囲DRANwの画像IMGb(w)をモニタ40に表示する。例えば、画像処理装置50Bの調整部124は、センサ30で検知されている障害物400が通常表示範囲DRANn内に存在しないとき、モニタ40に表示する画像IMGbの表示範囲DRANを通常表示範囲DRANnより広くする。   As described above, when the obstacle 400 detected by the sensor 30 does not exist within the normal display range DRANn, the image processing apparatus 50B widens the angle of view of the display range DRAN and expands the display range DRANw wider than the normal display range DRANn. The image IMGb (w) is displayed on the monitor 40. For example, when the obstacle 400 detected by the sensor 30 is not present in the normal display range DRANn, the adjustment unit 124 of the image processing apparatus 50B sets the display range DRAN of the image IMGb displayed on the monitor 40 from the normal display range DRANn. Make it wide.

ここで、画像IMGb(w)内の破線の枠は、通常表示範囲DRANnに対応する範囲を分かりやすくするために記載したものであり、モニタ40には表示されない。なお、画像処理装置50Bは、通常表示範囲DRANnに対応する範囲を示す枠(例えば、画像IMGb(w)内の破線の枠)を画像IMGb(w)に重畳してモニタ40に表示してもよい。   Here, the broken-line frame in the image IMGb (w) is described for easy understanding of the range corresponding to the normal display range DRANn, and is not displayed on the monitor 40. Note that the image processing device 50B may display a frame indicating a range corresponding to the normal display range DRANn (for example, a dashed frame in the image IMGb (w)) superimposed on the image IMGb (w) and displayed on the monitor 40. Good.

なお、システム10の動作および構成は、この例に限定されない。また、画像処理装置50Bの構成および動作は、この例に限定されない。例えば、表示範囲DRANを拡大表示範囲DRANwに変更する条件は、センサ30で検知されている障害物400が通常表示範囲DRANn外で拡大表示範囲DRANw内のときでもよい。この場合、画像処理装置50Bは、障害物400が映っている画像IMGb(w)をモニタ40に表示できる。   The operation and configuration of the system 10 are not limited to this example. Further, the configuration and operation of the image processing device 50B are not limited to this example. For example, the condition for changing the display range DRAN to the enlarged display range DRANw may be when the obstacle 400 detected by the sensor 30 is outside the normal display range DRANn and within the enlarged display range DRANw. In this case, the image processing device 50B can display the image IMGb (w) on which the obstacle 400 is reflected on the monitor 40.

あるいは、画像処理装置50Bは、センサ30により検知されている障害物400が画像IMGbに存在しないとき、画像IMGbに対する障害物400の相対的な位置を算出する算出部を有してもよい。この場合、例えば、調整部124は、画像IMGaに反映されている撮影範囲がモニタ40の画面以上であり、障害物400の相対的な位置が画面内であるとき、画像IMGbに反映される表示範囲の画角を画面に対応する画角まで広くしてもよい。   Alternatively, the image processing device 50B may include a calculation unit that calculates the relative position of the obstacle 400 with respect to the image IMGb when the obstacle 400 detected by the sensor 30 is not present in the image IMGb. In this case, for example, when the imaging range reflected in the image IMGa is equal to or larger than the screen of the monitor 40 and the relative position of the obstacle 400 is within the screen, the adjustment unit 124 displays the image reflected in the image IMGb. The field angle of the range may be widened to the field angle corresponding to the screen.

以上、図15および図16に示した実施形態においても、図1から図13に示した実施形態と同様の効果を得ることができる。例えば、この実施形態では、システム10の利用者に伝える情報(例えば、車両300の周辺の情報)の低減を抑制できる。   As described above, also in the embodiment shown in FIGS. 15 and 16, the same effect as that of the embodiment shown in FIGS. 1 to 13 can be obtained. For example, in this embodiment, reduction of information (for example, information around the vehicle 300) transmitted to the user of the system 10 can be suppressed.

さらに、この実施形態では、調整部124は、センサ30で検知されている障害物400が画像IMGbに存在しないとき、表示範囲DRANの画角を広くする。すなわち、この実施形態では、センサ30で検知されている障害物400が通常表示範囲DRANn内に存在しない場合、センサ30で障害物400が検知されていないときに比べて、車両300の周辺の広い範囲を映した画像IMGb(w)を運転者に提供できる。   Further, in this embodiment, the adjustment unit 124 widens the angle of view of the display range DRAN when the obstacle 400 detected by the sensor 30 is not present in the image IMGb. That is, in this embodiment, when the obstacle 400 detected by the sensor 30 does not exist in the normal display range DRANn, the periphery of the vehicle 300 is wider than when the obstacle 400 is not detected by the sensor 30. A driver can be provided with an image IMGb (w) showing the range.

図17は、画像処理装置およびシステムの別の実施形態を示している。この実施形態のシステム10は、図15に示した画像処理装置50Bに枠描画部112が追加された画像処理装置50Cを、画像処理装置50Bの代わりに有している。システム10および画像処理装置50Cのその他の構成は、図15に示したシステム10および画像処理装置50Bと同様である。図1から図16で説明した要素と同様の要素については、同様の符号を付し、これ等については、詳細な説明を省略する。   FIG. 17 shows another embodiment of the image processing apparatus and system. The system 10 of this embodiment has an image processing device 50C in which a frame drawing unit 112 is added to the image processing device 50B shown in FIG. 15 instead of the image processing device 50B. Other configurations of the system 10 and the image processing apparatus 50C are the same as those of the system 10 and the image processing apparatus 50B shown in FIG. Elements similar to those described in FIGS. 1 to 16 are denoted by the same reference numerals, and detailed description thereof will be omitted.

画像処理装置50Cは、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。例えば、表示プログラム等のソフトウエアは、プロセッサに画像処理装置50Cの動作を実行させてもよい。   The image processing apparatus 50C may be realized only by hardware, or may be realized by controlling the hardware by software. For example, software such as a display program may cause the processor to execute the operation of the image processing device 50C.

画像処理装置50Cは、例えば、保持部100、140、160、生成部110A、枠描画部112、判定部120、抽出部130および描画部150を有している。枠描画部112は、画像IMGbを生成部110Aから受け、画像IMGb2を保持部160に保持する。例えば、枠描画部112は、画像IMGbの表示範囲DRANが通常表示範囲DRANnの場合、画像IMGbを画像IMGb2として保持部160に保持する。   The image processing apparatus 50C includes, for example, holding units 100, 140, and 160, a generation unit 110A, a frame drawing unit 112, a determination unit 120, an extraction unit 130, and a drawing unit 150. The frame drawing unit 112 receives the image IMGb from the generation unit 110A and holds the image IMGb2 in the holding unit 160. For example, when the display range DRAN of the image IMGb is the normal display range DRANn, the frame drawing unit 112 holds the image IMGb as the image IMGb2 in the holding unit 160.

また、例えば、画像IMGbの表示範囲DRANが拡大表示範囲DRANwの場合、枠描画部112は、通常表示範囲DRANnを示す枠を画像IMGbに重畳した画像IMGb2を保持部160に保持する。例えば、枠描画部112は、拡大表示範囲DRANwの画像IMGb上の通常表示範囲DRANnの位置を算出し、通常表示範囲DRANnを示す枠を画像IMGbに重畳する。これにより、通常表示範囲DRANnを示す枠が重畳された画像IMGb2が生成される。拡大表示範囲DRANwの画像IMGbに重畳される枠は、例えば、図15に示した画像IMGb(w)内の破線の枠である。なお、拡大表示範囲DRANwの画像IMGbに重畳される枠は、実線でもよい。   For example, when the display range DRAN of the image IMGb is the enlarged display range DRANw, the frame drawing unit 112 holds the image IMGb2 in which the frame indicating the normal display range DRANn is superimposed on the image IMGb in the holding unit 160. For example, the frame drawing unit 112 calculates the position of the normal display range DRANn on the image IMGb of the enlarged display range DRANw, and superimposes a frame indicating the normal display range DRANn on the image IMGb. Thereby, the image IMGb2 on which the frame indicating the normal display range DRANn is superimposed is generated. The frame superimposed on the image IMGb in the enlarged display range DRANw is, for example, a broken line frame in the image IMGb (w) illustrated in FIG. The frame superimposed on the image IMGb in the enlarged display range DRANw may be a solid line.

このように、枠描画部112は、表示範囲DRANの画角を広くする場合、表示範囲DRANの画角を広くする前の通常表示範囲DRANnを示す枠を表示範囲DRANの画角を広くした画像IMGb内に表示する。   As described above, when the frame drawing unit 112 widens the angle of view of the display range DRAN, the frame showing the normal display range DRANn before the angle of view of the display range DRAN is widened is an image in which the angle of view of the display range DRAN is widened. Display in IMGb.

以上、図17に示した実施形態においても、図15および図16に示した実施形態と同様の効果を得ることができる。例えば、この実施形態では、システム10の利用者に伝える情報(例えば、車両300の周辺の情報)の低減を抑制できる。また、この実施形態では、センサ30で検知されている障害物400が通常表示範囲DRANn内に存在しない場合、センサ30で障害物400が検知されていないときに比べて、車両300の周辺の広い範囲を映した画像IMGb(w)を運転者に提供できる。   As described above, also in the embodiment shown in FIG. 17, the same effects as those in the embodiment shown in FIGS. 15 and 16 can be obtained. For example, in this embodiment, reduction of information (for example, information around the vehicle 300) transmitted to the user of the system 10 can be suppressed. In this embodiment, when the obstacle 400 detected by the sensor 30 does not exist within the normal display range DRANn, the periphery of the vehicle 300 is wider than when the obstacle 400 is not detected by the sensor 30. A driver can be provided with an image IMGb (w) showing the range.

さらに、この実施形態では、枠描画部112は、表示範囲DRANの画角を広くする場合、表示範囲DRANの画角を広くする前の通常表示範囲DRANnを示す枠を表示範囲DRANの画角を広くした画像IMGb内に表示する。このため、この実施形態では、通常表示範囲DRANn外に障害物400が存在することを強調して運転者に伝えることができる。   Further, in this embodiment, when the frame drawing unit 112 increases the angle of view of the display range DRAN, the frame drawing unit 112 displays a frame indicating the normal display range DRANn before the angle of view of the display range DRAN is increased. Displayed in the widened image IMGb. For this reason, in this embodiment, it is possible to emphasize to the driver 400 that the obstacle 400 exists outside the normal display range DRANn.

図18は、画像処理装置およびシステムの別の実施形態を示している。この実施形態のシステム10は、図1に示したカメラ20および画像処理装置50の代わりに、カメラ20Aおよび画像処理装置50Dを有している。この実施形態の画像処理装置50Dは、図1に示した判定部120および描画部150の代わりに、判定部120Aおよび描画部150Aを有している。システム10および画像処理装置50Dのその他の構成は、図1に示したシステム10および画像処理装置50と同様である。図1から図17で説明した要素と同様の要素については、同様の符号を付し、これ等については、詳細な説明を省略する。   FIG. 18 shows another embodiment of the image processing apparatus and system. The system 10 of this embodiment has a camera 20A and an image processing device 50D instead of the camera 20 and the image processing device 50 shown in FIG. The image processing apparatus 50D according to this embodiment includes a determination unit 120A and a drawing unit 150A instead of the determination unit 120 and the drawing unit 150 illustrated in FIG. Other configurations of the system 10 and the image processing apparatus 50D are the same as those of the system 10 and the image processing apparatus 50 shown in FIG. Elements similar to those described in FIGS. 1 to 17 are denoted by the same reference numerals, and detailed description thereof will be omitted.

画像処理装置50Dは、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。例えば、表示プログラム等のソフトウエアは、プロセッサに画像処理装置50Dの動作を実行させてもよい。   The image processing device 50D may be realized only by hardware, or may be realized by controlling the hardware by software. For example, software such as a display program may cause the processor to execute the operation of the image processing device 50D.

カメラ20Aの撮影範囲CRANに対応する画角は、例えば、表示範囲DRANに対応する画角より大きい。したがって、カメラ20Aは、表示範囲DRANより広い撮影範囲CRANの像が映っている画像IMGaを、画像処理装置50Dに転送する。   The angle of view corresponding to the shooting range CRAN of the camera 20A is larger than the angle of view corresponding to the display range DRAN, for example. Accordingly, the camera 20A transfers the image IMGa in which the image of the photographing range CRAN wider than the display range DRAN is shown to the image processing device 50D.

画像処理装置50Dは、例えば、保持部100、140、160、生成部110、判定部120A、抽出部130および描画部150Aを有している。生成部110は、表示範囲DRANより広い撮影範囲CRANの画像IMGaから表示範囲DRANの画像IMGbを抽出する。   The image processing device 50D includes, for example, holding units 100, 140, and 160, a generation unit 110, a determination unit 120A, an extraction unit 130, and a drawing unit 150A. The generation unit 110 extracts the image IMGb in the display range DRAN from the image IMGa in the imaging range CRAN wider than the display range DRAN.

判定部120Aは、センサ30で検知された障害物400が表示範囲DRAN内に存在しないとき、障害物400がカメラ20Aの撮影範囲CRAN内に存在するか否かを判定する。すなわち、判定部120Aは、センサ30で検知された障害物400が画像IMGbに存在しないとき、障害物400が画像IMGaに存在するか否かを判定する。   When the obstacle 400 detected by the sensor 30 does not exist within the display range DRAN, the determination unit 120A determines whether the obstacle 400 exists within the imaging range CRAN of the camera 20A. That is, when the obstacle 400 detected by the sensor 30 is not present in the image IMGb, the determination unit 120A determines whether the obstacle 400 is present in the image IMGa.

なお、判定部120Aの動作は、画像IMGbに存在しない障害物400が画像IMGaに存在するか否かを判定することを除いて、図1に示した判定部120と同様である。例えば、判定部120Aは、センサ30で検知された障害物400が画像IMGbに存在するとき、障害物400が画像IMGbの端に存在するか否かを判定する。   The operation of the determination unit 120A is the same as that of the determination unit 120 shown in FIG. 1 except that it is determined whether or not an obstacle 400 that does not exist in the image IMGb exists in the image IMGa. For example, when the obstacle 400 detected by the sensor 30 is present in the image IMGb, the determination unit 120A determines whether the obstacle 400 is present at the end of the image IMGb.

判定部120Aの判定結果INFc、INFb2は、例えば、抽出部130および描画部150Aにそれぞれ転送される。例えば、判定部120Aは、障害物400が画像IMGbの端に存在するか否かの判定結果INFcを抽出部130に転送する。また、例えば、判定部120Aは、障害物400が画像IMGbに存在するか否かの判定結果INFb2を描画部150Aに転送する。なお、障害物400が画像IMGbに存在しないことを示す判定結果INFb2には、障害物400が画像IMGaに存在するか否かの判定結果も含まれる。   The determination results INFc and INFb2 of the determination unit 120A are transferred to the extraction unit 130 and the drawing unit 150A, for example. For example, the determination unit 120A transfers the determination result INFc whether or not the obstacle 400 exists at the end of the image IMGb to the extraction unit 130. For example, the determination unit 120A transfers the determination result INFb2 whether or not the obstacle 400 exists in the image IMGb to the drawing unit 150A. Note that the determination result INFb2 indicating that the obstacle 400 does not exist in the image IMGb also includes a determination result as to whether or not the obstacle 400 exists in the image IMGa.

描画部150Aは、センサ30により検知されている障害物400が画像IMGbに存在せず、かつ、センサ30により検知されている障害物400が画像IMGaに存在するとき、画像IMGaから障害物400の画像を抽出する。そして、描画部150Aは、画像IMGaから抽出した障害物400の画像を、モニタ40に表示する障害物400の画像BIMGaとして使用する。   When the obstacle 400 detected by the sensor 30 is not present in the image IMGb and the obstacle 400 detected by the sensor 30 is present in the image IMGa, the drawing unit 150A detects the obstacle 400 from the image IMGa. Extract images. Then, the drawing unit 150A uses the image of the obstacle 400 extracted from the image IMGa as the image BIMGa of the obstacle 400 displayed on the monitor 40.

すなわち、描画部150Aは、センサ30で検知された障害物400が画像IMGbに存在せず、かつ、障害物400が画像IMGaに存在するとき、画像IMGaから抽出した障害物400の画像を、画像BIMGbとして保持部160に保持する。   That is, the drawing unit 150A displays an image of the obstacle 400 extracted from the image IMGa when the obstacle 400 detected by the sensor 30 does not exist in the image IMGb and the obstacle 400 exists in the image IMGa. It holds in the holding unit 160 as BIMGb.

例えば、描画部150Aは、障害物400が画像IMGbに存在せず、かつ、障害物400が画像IMGaに存在することを示す判定結果INFb2を判定部120Aから受けたとき、保持部100に保持されている画像IMGaを読み出す。そして、描画部150Aは、センサ30で検知された障害物400の範囲に対応する画像を画像IMGaから抽出し、抽出した障害物400の画像を画像BIMGbとして保持部160に保持する。これにより、障害物400の新しい画像がモニタ40に表示される。   For example, the drawing unit 150A is held in the holding unit 100 when the determination result INFb2 indicating that the obstacle 400 does not exist in the image IMGb and the obstacle 400 exists in the image IMGa is received from the determination unit 120A. Read image IMGa. Then, the drawing unit 150A extracts an image corresponding to the range of the obstacle 400 detected by the sensor 30 from the image IMGa, and holds the extracted image of the obstacle 400 in the holding unit 160 as the image BIMGb. As a result, a new image of the obstacle 400 is displayed on the monitor 40.

描画部150Aの動作は、センサ30で検知された障害物400が画像IMGbに存在せず、かつ、障害物400が画像IMGaに存在するときの動作を除いて、図1に示した描画部150と同様である。   The drawing unit 150A operates as shown in FIG. 1 except for the operation when the obstacle 400 detected by the sensor 30 is not present in the image IMGb and the obstacle 400 is present in the image IMGa. It is the same.

なお、システム10の構成および動作は、この例に限定されない。また、画像処理装置50Dの構成および動作は、この例に限定されない。例えば、描画部150Aは、障害物400の画像BIMGaが保持部140に保持されているときには、障害物400が画像IMGaに存在するか否かに拘わらず、保持部140に保持されている画像BIMGaを、画像BIMGbとして保持部160に保持してもよい。あるいは、描画部150Aは、画像IMGaから抽出した障害物400の画像を、画像BIMGaとして保持部140に保持してもよい。   The configuration and operation of the system 10 are not limited to this example. Further, the configuration and operation of the image processing device 50D are not limited to this example. For example, when the image BIMGa of the obstacle 400 is held in the holding unit 140, the drawing unit 150 </ b> A has the image BIMGa held in the holding unit 140 regardless of whether or not the obstacle 400 exists in the image IMGa. May be held in the holding unit 160 as the image BIMGb. Alternatively, the drawing unit 150A may hold the image of the obstacle 400 extracted from the image IMGa in the holding unit 140 as the image BIMGa.

図19は、モニタ40に表示される画像IMGcの一例を示している。図19の障害物400aは、センサ30が検知した障害物400bの前の状態(障害物400、表示範囲DRAN、検知範囲SRANの相対的な位置関係)を示している。障害物400bが検知される前の状態では、センサ30の検知範囲SRAN内に障害物400が存在していないため、画像IMGbおよび余白BSPを含む画像IMGc(a)がモニタ40に表示される。なお、表示範囲DRAN内に障害物400が存在しないため、画像IMGbには、障害物400は映っていない。   FIG. 19 shows an example of an image IMGc displayed on the monitor 40. An obstacle 400a in FIG. 19 shows a state before the obstacle 400b detected by the sensor 30 (relative positional relationship between the obstacle 400, the display range DRAN, and the detection range SRAN). In the state before the obstacle 400b is detected, since the obstacle 400 does not exist within the detection range SRAN of the sensor 30, the image IMGc (a) including the image IMGb and the margin BSP is displayed on the monitor 40. Since the obstacle 400 does not exist within the display range DRAN, the obstacle 400 is not reflected in the image IMGb.

そして、例えば、障害物400aがセンサ30の検知範囲SRAN外から検知範囲SRAN内に表示範囲DRANを通過せずに移動した場合、センサ30は、検知範囲SRAN内の障害物400b(障害物400aの移動後の状態)を検知する。なお、センサ30で検知された障害物400bは、表示範囲DRAN外でカメラ20Aの撮影範囲CRAN内に存在する。   For example, when the obstacle 400a moves from outside the detection range SRAN of the sensor 30 into the detection range SRAN without passing through the display range DRAN, the sensor 30 detects the obstacle 400b (the obstacle 400a of the obstacle 400a) within the detection range SRAN. Detect the state after movement). The obstacle 400b detected by the sensor 30 exists outside the display range DRAN and within the shooting range CRAN of the camera 20A.

このため、描画部150Aは、画像IMGaから抽出した障害物400bの画像を画像BIMGbとしてモニタ40に表示する。すなわち、障害物400bが映っていない画像IMGbと障害物400bが映っている画像BIMGbとを含む画像IMGc(b)がモニタ40に表示される。このように、画像処理装置50Dは、表示範囲DRAN外に存在する障害物400bがカメラ20Aの撮影範囲CRAN内に存在するとき、障害物400の新しい画像BIMGbをモニタ40に表示できる。   Therefore, the drawing unit 150A displays the image of the obstacle 400b extracted from the image IMGa on the monitor 40 as the image BIMGb. That is, an image IMGc (b) including an image IMGb that does not show the obstacle 400b and an image BIMGb that shows the obstacle 400b is displayed on the monitor 40. As described above, the image processing apparatus 50D can display the new image BIMGb of the obstacle 400 on the monitor 40 when the obstacle 400b existing outside the display range DRAN exists within the imaging range CRAN of the camera 20A.

なお、画像処理装置50Dは、障害物400bがカメラ20Aの撮影範囲CRAN内に存在するときには、障害物400bの過去の画像BIMGaが保持部140に保持されているか否かに拘わらず、障害物400bの新しい画像BIMGbをモニタ40に表示できる。   Note that when the obstacle 400b is present in the imaging range CRAN of the camera 20A, the image processing device 50D determines whether the obstacle 400b has a past image BIMGa held by the holding unit 140 or not. The new image BIMGb can be displayed on the monitor 40.

以上、図18および図19に示した実施形態においても、図1から図13に示した実施形態と同様の効果を得ることができる。例えば、この実施形態では、システム10の利用者に伝える情報(例えば、車両300の周辺の情報)の低減を抑制できる。   As described above, also in the embodiment shown in FIGS. 18 and 19, the same effect as that of the embodiment shown in FIGS. 1 to 13 can be obtained. For example, in this embodiment, reduction of information (for example, information around the vehicle 300) transmitted to the user of the system 10 can be suppressed.

さらに、この実施形態では、描画部150Aは、センサ30で検知されている障害物400が画像IMGbに存在せず、かつ、障害物400が画像IMGaに存在するとき、画像IMGaから抽出した障害物400の画像を、モニタ40に表示する。すなわち、この実施形態では、センサ30で検知されている障害物400が撮影範囲CRAN内に存在する限り、障害物400の新しい画像をモニタ40に表示できる。これにより、この実施形態では、障害物400の新しい画像を運転者に提供できる。また、この実施形態では、障害物400の過去の画像BIMGaが保持部140に保持されていない場合でも、センサ30で検知されている障害物400が撮影範囲CRAN内に存在するときには、障害物400の新しい画像をモニタ40に表示できる。   Further, in this embodiment, the drawing unit 150A causes the obstacle extracted from the image IMGa when the obstacle 400 detected by the sensor 30 does not exist in the image IMGb and the obstacle 400 exists in the image IMGa. 400 images are displayed on the monitor 40. That is, in this embodiment, as long as the obstacle 400 detected by the sensor 30 exists in the imaging range CRAN, a new image of the obstacle 400 can be displayed on the monitor 40. Thereby, in this embodiment, a new image of the obstacle 400 can be provided to the driver. In this embodiment, even when the past image BIMGa of the obstacle 400 is not held in the holding unit 140, the obstacle 400 is detected when the obstacle 400 detected by the sensor 30 is present in the imaging range CRAN. New images can be displayed on the monitor 40.

図20は、画像処理装置およびシステムの別の実施形態を示している。この実施形態のシステム10では、図1に示したシステム10にサブカメラ22が追加されている。さらに、この実施形態のシステム10は、図1に示した画像処理装置50に保持部142が追加された画像処理装置50Eを、画像処理装置50の代わりに有している。また、画像処理装置50Eは、図1に示した判定部120および描画部150の代わりに、判定部120Bおよび描画部150Bを有している。システム10および画像処理装置50Eのその他の構成は、図1に示したシステム10および画像処理装置50と同様である。図1から図19で説明した要素と同様の要素については、同様の符号を付し、これ等については、詳細な説明を省略する。   FIG. 20 shows another embodiment of the image processing apparatus and system. In the system 10 of this embodiment, a sub camera 22 is added to the system 10 shown in FIG. Furthermore, the system 10 of this embodiment has an image processing device 50E in which a holding unit 142 is added to the image processing device 50 shown in FIG. The image processing apparatus 50E includes a determination unit 120B and a drawing unit 150B instead of the determination unit 120 and the drawing unit 150 illustrated in FIG. Other configurations of the system 10 and the image processing apparatus 50E are the same as those of the system 10 and the image processing apparatus 50 shown in FIG. Elements similar to those described in FIGS. 1 to 19 are denoted by the same reference numerals, and detailed description thereof will be omitted.

画像処理装置50Eは、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。例えば、表示プログラム等のソフトウエアは、プロセッサに画像処理装置50Eの動作を実行させてもよい。   The image processing device 50E may be realized only by hardware, or may be realized by controlling the hardware by software. For example, software such as a display program may cause the processor to execute the operation of the image processing device 50E.

システム10は、例えば、カメラ20、サブカメラ22、センサ30、モニタ40および画像処理装置50Eを有している。例えば、サブカメラ22は、カメラ20の撮影範囲CRAN外を撮影できるように、車両300の側面に配置される。サブカメラ22で撮影された画像SIMGaは、画像処理装置50Eに転送される。したがって、画像処理装置50Eは、カメラ20で撮影された画像IMGaとサブカメラ22で撮影された画像SIMGaとセンサ30の検知結果INFaとを受ける。そして、画像処理装置50Eは、画像IMGa、SIMGa、検知結果INFa等に基づいて生成した画像IMGcをモニタ40に表示する。   The system 10 includes, for example, a camera 20, a sub camera 22, a sensor 30, a monitor 40, and an image processing device 50E. For example, the sub camera 22 is arranged on the side surface of the vehicle 300 so that the outside of the imaging range CRAN of the camera 20 can be taken. The image SIMGa taken by the sub camera 22 is transferred to the image processing device 50E. Therefore, the image processing device 50E receives the image IMGa taken by the camera 20, the image SIMGa taken by the sub camera 22, and the detection result INFa of the sensor 30. Then, the image processing device 50E displays the image IMGc generated based on the images IMGa, SIMGa, the detection result INFa, and the like on the monitor 40.

画像処理装置50Eは、例えば、保持部100、140、142、160、生成部110、判定部120B、抽出部130および描画部150Bを有している。保持部142は、サブカメラ22で撮影された画像SIMGaを順次保持する。   The image processing apparatus 50E includes, for example, holding units 100, 140, 142, and 160, a generation unit 110, a determination unit 120B, an extraction unit 130, and a drawing unit 150B. The holding unit 142 sequentially holds the images SIMGa taken by the sub camera 22.

判定部120Bは、センサ30で検知された障害物400が表示範囲DRAN内に存在しないとき、障害物400がサブカメラ22の撮影範囲に存在するか否かを判定する。すなわち、判定部120Bは、センサ30で検知された障害物400が画像IMGbに存在しないとき、障害物400が画像SIMGaに存在するか否かを判定する。   The determination unit 120B determines whether or not the obstacle 400 exists in the imaging range of the sub camera 22 when the obstacle 400 detected by the sensor 30 does not exist in the display range DRAN. That is, when the obstacle 400 detected by the sensor 30 is not present in the image IMGb, the determination unit 120B determines whether the obstacle 400 is present in the image SIMGa.

なお、判定部120Bの動作は、画像IMGbに存在しない障害物400が画像SIMGaに存在するか否かを判定することを除いて、図1に示した判定部120と同様である。例えば、判定部120Bは、センサ30で検知された障害物400が画像IMGbに存在するとき、障害物400が画像IMGbの端に存在するか否かを判定する。   The operation of the determination unit 120B is the same as that of the determination unit 120 shown in FIG. 1 except that it is determined whether or not the obstacle 400 that does not exist in the image IMGb exists in the image SIMGa. For example, when the obstacle 400 detected by the sensor 30 is present in the image IMGb, the determination unit 120B determines whether the obstacle 400 is present at the end of the image IMGb.

判定部120Bの判定結果INFc、INFb3は、例えば、抽出部130および描画部150Bにそれぞれ転送される。例えば、判定部120Bは、障害物400が画像IMGbの端に存在するか否かの判定結果INFcを抽出部130に転送する。また、例えば、判定部120Bは、障害物400が画像IMGbに存在するか否かの判定結果INFb3を描画部150Bに転送する。なお、障害物400が画像IMGbに存在しないことを示す判定結果INFb3には、障害物400が画像SIMGaに存在するか否かの判定結果も含まれる。   The determination results INFc and INFb3 of the determination unit 120B are transferred to the extraction unit 130 and the drawing unit 150B, for example. For example, the determination unit 120B transfers the determination result INFc whether or not the obstacle 400 exists at the end of the image IMGb to the extraction unit 130. For example, the determination unit 120B transfers the determination result INFb3 whether or not the obstacle 400 exists in the image IMGb to the drawing unit 150B. Note that the determination result INFb3 indicating that the obstacle 400 does not exist in the image IMGb also includes a determination result as to whether or not the obstacle 400 exists in the image SIMGa.

描画部150Bは、センサ30により検知されている障害物400が画像IMGbに存在せず、かつ、センサ30により検知されている障害物400が画像SIMGaに存在するとき、画像SIMGaから障害物400の画像を抽出する。そして、描画部150Bは、画像SIMGaから抽出した障害物400の画像を、モニタ40に表示する障害物400の画像BIMGaとして使用する。   When the obstacle 400 detected by the sensor 30 is not present in the image IMGb and the obstacle 400 detected by the sensor 30 is present in the image SIMGa, the drawing unit 150B reads the obstacle 400 from the image SIMGa. Extract images. Then, the drawing unit 150B uses the image of the obstacle 400 extracted from the image SIMGa as the image BIMGa of the obstacle 400 displayed on the monitor 40.

すなわち、描画部150Bは、センサ30で検知された障害物400が画像IMGbに存在せず、かつ、障害物400が画像SIMGaに存在するとき、画像SIMGaから抽出した障害物400の画像を、画像BIMGbとして保持部160に保持する。   That is, the drawing unit 150B displays an image of the obstacle 400 extracted from the image SIMGa when the obstacle 400 detected by the sensor 30 is not present in the image IMGb and the obstacle 400 is present in the image SIMGa. It holds in the holding unit 160 as BIMGb.

例えば、描画部150Bは、障害物400が画像IMGbに存在せず、かつ、障害物400が画像SIMGaに存在することを示す判定結果INFb3を判定部120Bから受けたとき、保持部142に保持されている画像SIMGaを読み出す。そして、描画部150Bは、センサ30で検知された障害物400の範囲に対応する画像を画像SIMGaから抽出し、抽出した障害物400の画像を画像BIMGbとして保持部160に保持する。これにより、障害物400の新しい画像がモニタ40に表示される。   For example, the drawing unit 150B is held in the holding unit 142 when the determination result INFb3 indicating that the obstacle 400 does not exist in the image IMGb and the obstacle 400 exists in the image SIMGa is received from the determination unit 120B. Read the image SIMGa. Then, the drawing unit 150B extracts an image corresponding to the range of the obstacle 400 detected by the sensor 30 from the image SIMGa, and holds the extracted image of the obstacle 400 in the holding unit 160 as an image BIMGb. As a result, a new image of the obstacle 400 is displayed on the monitor 40.

描画部150Bの動作は、センサ30で検知された障害物400が画像IMGbに存在せず、かつ、障害物400が画像SIMGaに存在するときの動作を除いて、図1に示した描画部150と同様である。   The drawing unit 150B operates in the drawing unit 150 shown in FIG. 1 except for the operation when the obstacle 400 detected by the sensor 30 does not exist in the image IMGb and the obstacle 400 exists in the image SIMGa. It is the same.

なお、システム10の構成および動作は、この例に限定されない。また、画像処理装置50Eの構成および動作は、この例に限定されない。例えば、描画部150Bは、障害物400の画像BIMGaが保持部140に保持されているときには、障害物400が画像SIMGaに存在するか否かに拘わらず、保持部140に保持されている画像BIMGaを、画像BIMGbとして保持部160に保持してもよい。あるいは、描画部150Bは、画像SIMGaから抽出した障害物400の画像を、画像BIMGaとして保持部140に保持してもよい。   The configuration and operation of the system 10 are not limited to this example. Further, the configuration and operation of the image processing device 50E are not limited to this example. For example, the drawing unit 150B, when the image BIMGa of the obstacle 400 is held in the holding unit 140, the image BIMGa held in the holding unit 140 regardless of whether or not the obstacle 400 exists in the image SIMGa. May be held in the holding unit 160 as the image BIMGb. Alternatively, the drawing unit 150B may hold the image of the obstacle 400 extracted from the image SIMGa in the holding unit 140 as the image BIMGa.

図21は、カメラ20の撮影範囲CRANとサブカメラ22の撮影範囲CRAN2とセンサ30の検知範囲SRANの一例を示している。例えば、自動車の左右のサイドミラーの代わりに、2つのシステム10(カメラ20、サブカメラ22、センサ30、モニタ40および画像処理装置50E)が車両300に搭載されている。   FIG. 21 shows an example of the shooting range CRAN of the camera 20, the shooting range CRAN2 of the sub camera 22, and the detection range SRAN of the sensor 30. For example, instead of the left and right side mirrors of an automobile, two systems 10 (camera 20, sub camera 22, sensor 30, monitor 40, and image processing device 50E) are mounted on vehicle 300.

2つのカメラ20は、車両300の右側面および左側面にそれぞれ配置されている。図21の例では、カメラ20の撮影範囲CRANは、表示範囲DRANと同じである。すなわち、カメラ20で撮影された画像IMGaがモニタ40に表示される。2つのセンサ30は、車両300の右側面および左側面にそれぞれ配置されている。この実施形態では、センサ30の検知範囲SRANは、カメラ20の撮影範囲CRANより広い。したがって、センサ30は、カメラ20の撮影範囲CRANの外側に存在する物体(例えば、障害物)を検知できる。   The two cameras 20 are respectively disposed on the right side surface and the left side surface of the vehicle 300. In the example of FIG. 21, the shooting range CRAN of the camera 20 is the same as the display range DRAN. That is, the image IMGa photographed by the camera 20 is displayed on the monitor 40. The two sensors 30 are arranged on the right side surface and the left side surface of the vehicle 300, respectively. In this embodiment, the detection range SRAN of the sensor 30 is wider than the shooting range CRAN of the camera 20. Therefore, the sensor 30 can detect an object (for example, an obstacle) existing outside the imaging range CRAN of the camera 20.

2つのサブカメラ22は、車両300の右側面および左側面にそれぞれ配置されている。例えば、サブカメラ22は、カメラ20の撮影範囲CRAN外を撮影できるように、車両300の側面に配置される。すなわち、サブカメラ22の撮影範囲CRAN2は、カメラ20の撮影範囲CRANを補っている。これにより、画像処理装置50Eは、センサ30で検知された障害物400がカメラ20の撮影範囲CRAN内に存在しないときにも、障害物400がサブカメラ22の撮影範囲CRAN2内に存在する限り、障害物400の新しい画像をモニタ40に表示できる。   The two sub cameras 22 are arranged on the right side surface and the left side surface of the vehicle 300, respectively. For example, the sub camera 22 is arranged on the side surface of the vehicle 300 so that the outside of the imaging range CRAN of the camera 20 can be taken. That is, the shooting range CRAN2 of the sub camera 22 supplements the shooting range CRAN of the camera 20. As a result, the image processing apparatus 50E allows the obstacle 400 to remain within the photographing range CRAN2 of the sub camera 22 even when the obstacle 400 detected by the sensor 30 does not exist within the photographing range CRAN2 of the camera 20. A new image of the obstacle 400 can be displayed on the monitor 40.

カメラ20、サブカメラ22およびセンサ30は、例えば、ECUに接続され、画像IMGa、SIMGaおよび検知結果INFaをECUにそれぞれ転送する。なお、ECUは、図20に示した画像処理装置50Eを有している。また、ECUは、モニタ40に接続され、画像IMGcをモニタ40に表示する。例えば、右側に配置されたモニタ40は、車両300の右側面のカメラ20、サブカメラ22およびセンサ30からのデータ(画像IMGa、SIMGa、検知結果INFa)に基づく画像IMGcを表示する。また、左側に配置されたモニタ40は、車両300の左側面のカメラ20、サブカメラ22およびセンサ30からのデータ(画像IMGa、SIMGa、検知結果INFa)に基づく画像IMGcを表示する。   The camera 20, the sub camera 22, and the sensor 30 are connected to the ECU, for example, and transfer the images IMGa, SIMGa, and the detection result INFa to the ECU, respectively. The ECU has the image processing device 50E shown in FIG. The ECU is connected to the monitor 40 and displays the image IMGc on the monitor 40. For example, the monitor 40 disposed on the right side displays an image IMGc based on data (image IMGa, SIMGa, detection result INFa) from the camera 20, the sub camera 22, and the sensor 30 on the right side surface of the vehicle 300. The monitor 40 disposed on the left side displays an image IMGc based on data (image IMGa, SIMGa, detection result INFa) from the camera 20, the sub camera 22, and the sensor 30 on the left side of the vehicle 300.

以上、図20および図21に示した実施形態においても、図1から図13に示した実施形態と同様の効果を得ることができる。例えば、この実施形態では、システム10の利用者に伝える情報(例えば、車両300の周辺の情報)の低減を抑制できる。   As described above, also in the embodiment shown in FIGS. 20 and 21, the same effect as that of the embodiment shown in FIGS. 1 to 13 can be obtained. For example, in this embodiment, reduction of information (for example, information around the vehicle 300) transmitted to the user of the system 10 can be suppressed.

さらに、この実施形態では、システム10は、カメラ20の撮影範囲CRANを補うサブカメラ22を有している。サブカメラ22は、例えば、撮影した画像SIMGaを画像処理装置50Eに順次転送する。また、描画部150Bは、センサ30で検知されている障害物400が画像IMGbに存在せず、かつ、障害物400が画像SIMGaに存在するとき、画像SIMGaから抽出した障害物400の画像を、モニタ40に表示する。   Furthermore, in this embodiment, the system 10 includes a sub camera 22 that supplements the shooting range CRAN of the camera 20. For example, the sub camera 22 sequentially transfers the captured images SIMGa to the image processing device 50E. In addition, when the obstacle 400 detected by the sensor 30 is not present in the image IMGb and the obstacle 400 is present in the image SIMGa, the drawing unit 150B displays an image of the obstacle 400 extracted from the image SIMGa. Display on the monitor 40.

すなわち、この実施形態では、センサ30で検知されている障害物400がカメラ20の撮影範囲CRAN内に存在しないときにも、障害物400がサブカメラ22の撮影範囲CRAN2内に存在する限り、障害物400の新しい画像をモニタ40に表示できる。これにより、この実施形態では、障害物400の新しい画像を運転者に提供できる。また、この実施形態では、障害物400の過去の画像BIMGaが保持部140に保持されていない場合でも、センサ30で検知されている障害物400がサブカメラ22の撮影範囲CRAN2内に存在するときには、障害物400の新しい画像をモニタ40に表示できる。   In other words, in this embodiment, even when the obstacle 400 detected by the sensor 30 does not exist within the imaging range CRAN of the camera 20, as long as the obstacle 400 exists within the imaging range CRAN2 of the sub camera 22, the obstacle 400 A new image of the object 400 can be displayed on the monitor 40. Thereby, in this embodiment, a new image of the obstacle 400 can be provided to the driver. In this embodiment, even when the past image BIMGa of the obstacle 400 is not held in the holding unit 140, the obstacle 400 detected by the sensor 30 is present in the imaging range CRAN2 of the sub camera 22. A new image of the obstacle 400 can be displayed on the monitor 40.

図22は、画像処理装置およびシステムの別の実施形態を示している。この実施形態のシステム10は、図1に示した画像処理装置50に算出部126が追加された画像処理装置50Fを、画像処理装置50の代わりに有している。また、画像処理装置50Fは、外挿部114を含む生成部110Bを、図1に示した生成部110の代わりに有している。システム10および画像処理装置50Fのその他の構成は、図1に示したシステム10および画像処理装置50と同様である。図1から図21で説明した要素と同様の要素については、同様の符号を付し、これ等については、詳細な説明を省略する。   FIG. 22 shows another embodiment of the image processing apparatus and system. The system 10 according to this embodiment includes an image processing apparatus 50F in which a calculation unit 126 is added to the image processing apparatus 50 illustrated in FIG. Further, the image processing device 50F includes a generation unit 110B including an extrapolation unit 114 instead of the generation unit 110 illustrated in FIG. Other configurations of the system 10 and the image processing apparatus 50F are the same as those of the system 10 and the image processing apparatus 50 shown in FIG. The same elements as those described in FIGS. 1 to 21 are denoted by the same reference numerals, and detailed description thereof will be omitted.

画像処理装置50Fは、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。例えば、表示プログラム等のソフトウエアは、プロセッサに画像処理装置50Fの動作を実行させてもよい。   The image processing device 50F may be realized only by hardware, or may be realized by controlling the hardware by software. For example, software such as a display program may cause the processor to execute the operation of the image processing device 50F.

画像処理装置50Fは、例えば、保持部100、140、160、生成部110B、判定部120、算出部126、抽出部130および描画部150を有している。判定部120は、例えば、障害物400が画像IMGbに存在するか否かの判定結果INFbを算出部126に転送する。なお、画像IMGbは、図1等で説明したように、画像IMGaから抽出される表示範囲DRANの画像IMGbである。カメラ20の撮影範囲CRANと表示範囲DRANとが一致する場合、表示範囲DRANの画像IMGbは、画像IMGaである。   The image processing apparatus 50F includes, for example, holding units 100, 140, and 160, a generation unit 110B, a determination unit 120, a calculation unit 126, an extraction unit 130, and a drawing unit 150. For example, the determination unit 120 transfers the determination result INFb of whether or not the obstacle 400 exists in the image IMGb to the calculation unit 126. Note that the image IMGb is the image IMGb in the display range DRAN extracted from the image IMGa, as described with reference to FIG. When the shooting range CRAN of the camera 20 matches the display range DRAN, the image IMGb in the display range DRAN is the image IMGa.

算出部126は、例えば、障害物400が画像IMGbに存在しないことを示す判定結果INFbを受けたとき、モニタ40の画面上の画像BIMGb(障害物400の画像BIMGaや警告用の画像)の表示位置を算出する。そして、算出部126は、モニタ40の画面上の画像BIMGbの表示位置等を示す情報PINF1、PINF2を描画部150および生成部110Bにそれぞれ転送する。   For example, when receiving the determination result INFb indicating that the obstacle 400 does not exist in the image IMGb, the calculation unit 126 displays the image BIMGb (the image BIMGa of the obstacle 400 or a warning image) on the screen of the monitor 40. Calculate the position. Then, the calculation unit 126 transfers information PINF1 and PINF2 indicating the display position of the image BIMGb on the screen of the monitor 40 to the drawing unit 150 and the generation unit 110B, respectively.

情報PINF1は、例えば、画面上の画像BIMGbの表示位置を示す情報である。また、情報PINF2は、例えば、空白領域、あるいは、画像BIMGbの表示領域を示す情報である。ここで、空白領域は、例えば、画像BIMGbおよび画像IMGbのいずれも表示されない画面内の領域である。すなわち、空白領域は、表示範囲DRAN外に対応する画面上の領域から画像IMGbの表示領域を除いた領域である。   The information PINF1 is information indicating the display position of the image BIMGb on the screen, for example. The information PINF2 is information indicating a blank area or a display area of the image BIMGb, for example. Here, the blank area is, for example, an area in the screen where neither the image BIMGb nor the image IMGb is displayed. That is, the blank area is an area obtained by removing the display area of the image IMGb from the area on the screen corresponding to the outside of the display range DRAN.

なお、障害物400が画像IMGbに存在する場合、例えば、算出部126は、障害物400が画像IMGbに存在することを示す情報PINF1、PINF2を描画部150および生成部110Bにそれぞれ転送する。   When the obstacle 400 exists in the image IMGb, for example, the calculation unit 126 transfers information PINF1 and PINF2 indicating that the obstacle 400 exists in the image IMGb to the drawing unit 150 and the generation unit 110B, respectively.

例えば、算出部126は、センサ30により検知されている障害物400が画像IMGbに存在しないとき、画像IMGbに対する障害物400の相対的な位置を算出する。なお、画像IMGbに対する障害物400の相対的な位置がモニタ40の画面外である場合、算出部126は、画像BIMGbの表示位置をモニタ40の画面内の位置に決定する。この場合、例えば、画像BIMGbの表示位置(モニタ40の画面上の位置)は、予め設定された固定位置でもよいし、画像IMGaに対する障害物400の相対的な位置に応じてモニタ40の画面内で調整される位置でもよい。   For example, when the obstacle 400 detected by the sensor 30 is not present in the image IMGb, the calculation unit 126 calculates the relative position of the obstacle 400 with respect to the image IMGb. When the relative position of the obstacle 400 with respect to the image IMGb is outside the screen of the monitor 40, the calculation unit 126 determines the display position of the image BIMGb as the position within the screen of the monitor 40. In this case, for example, the display position of the image BIMGb (the position on the screen of the monitor 40) may be a fixed position set in advance, or within the screen of the monitor 40 according to the relative position of the obstacle 400 with respect to the image IMGa. The position adjusted with may be sufficient.

描画部150は、例えば、算出部126からの情報PINF1が示す表示位置に画像BIMGbが表示されるように、画像BIMGbを保持部160に保持する。すなわち、描画部150は、モニタ40の画面が画像IMGbより大きく、障害物400の相対的な位置が画面内であるとき、画面上の障害物400の相対的な位置に、障害物400の画像BIMGaを表示させる。   For example, the drawing unit 150 holds the image BIMGb in the holding unit 160 so that the image BIMGb is displayed at the display position indicated by the information PINF1 from the calculation unit 126. That is, when the screen of the monitor 40 is larger than the image IMGb and the relative position of the obstacle 400 is within the screen, the drawing unit 150 displays the image of the obstacle 400 at the relative position of the obstacle 400 on the screen. BIMGa is displayed.

例えば、描画部150は、障害物400の画像BIMGaが保持部140に保持されているとき、情報PINF1が示す表示位置に画像BIMGaが表示されるように、画像BIMGaを画像BIMGbとして保持部160に保持する。また、例えば、描画部150は、障害物400の画像BIMGaが保持部140に保持されていないとき、情報PINF1が示す表示位置に警告用の画像が表示されるように、警告用の画像を画像BIMGbとして保持部160に保持する。   For example, when the image BIMGa of the obstacle 400 is held in the holding unit 140, the drawing unit 150 displays the image BIMGa as the image BIMGb in the holding unit 160 so that the image BIMGa is displayed at the display position indicated by the information PINF1. Hold. Further, for example, the drawing unit 150 displays the warning image so that the warning image is displayed at the display position indicated by the information PINF1 when the image BIMGa of the obstacle 400 is not held in the holding unit 140. It holds in the holding unit 160 as BIMGb.

生成部110Bは、例えば、外挿部114を有している。生成部110Bの動作は、外挿部114に関する動作を除いて、図1に示した生成部110と同様である。したがって、生成部110Bの外挿部114以外の動作については、詳細な説明を省略する。   The generation unit 110B includes an extrapolation unit 114, for example. The operation of the generation unit 110B is the same as that of the generation unit 110 illustrated in FIG. 1 except for the operation related to the extrapolation unit 114. Therefore, detailed description of operations other than the extrapolation unit 114 of the generation unit 110B is omitted.

外挿部114は、モニタ40の画面が画像IMGbより大きく、障害物400の相対的な位置が画面内であるとき、画面のうち、画像IMGbおよび障害物400の画像BIMGaのいずれも表示されない空白領域の画像を、画像IMGbに基づいて生成する。例えば、外挿部114は、算出部126からの情報PINF2が示す空白領域に表示する画像を、画像IMGbを外挿して生成する。   When the screen of the monitor 40 is larger than the image IMGb and the relative position of the obstacle 400 is within the screen, the extrapolation unit 114 is a blank in which neither the image IMGb nor the image BIMGa of the obstacle 400 is displayed. An image of the region is generated based on the image IMGb. For example, the extrapolation unit 114 generates an image to be displayed in the blank area indicated by the information PINF2 from the calculation unit 126 by extrapolating the image IMGb.

なお、外挿部114は、情報PINF2が画像BIMGbの表示領域を示す情報である場合、情報PINF2が示す画像BIMGbの表示領域と、画像IMGbの表示領域とに基づいて、空白領域を算出してもよい。   When the information PINF2 is information indicating the display area of the image BIMGb, the extrapolation unit 114 calculates a blank area based on the display area of the image BIMGb indicated by the information PINF2 and the display area of the image IMGb. Also good.

生成部110Bにより生成された画像IMGb3は、保持部160に保持される。例えば、生成部110Bは、画像IMGbに対する障害物400の相対的な位置がモニタ40の画面内の場合、画像IMGbを外挿して空白領域を埋めた画像IMGb3を、保持部160に保持する。また、例えば、生成部110Bは、画像IMGbに対する障害物400の相対的な位置がモニタ40の画面外の場合、画像IMGbを画像IMGb3として保持部160に保持する。なお、センサ30で検知されている障害物400が画像IMGbに存在するときにも、生成部110Bは、画像IMGbを画像IMGb3として保持部160に保持する。   The image IMGb3 generated by the generation unit 110B is held in the holding unit 160. For example, when the relative position of the obstacle 400 with respect to the image IMGb is within the screen of the monitor 40, the generation unit 110B holds the image IMGb3 that extrapolates the image IMGb and fills the blank area in the holding unit 160. For example, when the relative position of the obstacle 400 with respect to the image IMGb is outside the screen of the monitor 40, the generation unit 110B holds the image IMGb in the holding unit 160 as the image IMGb3. Even when the obstacle 400 detected by the sensor 30 exists in the image IMGb, the generation unit 110B holds the image IMGb as the image IMGb3 in the holding unit 160.

これにより、保持部160には、画像IMGb3を含む画像IMGc2が保持される。なお、保持部160に画像BIMGbが保持されている場合、画像IMGc2は、画像IMGb3および画像BIMGbを含む画像である。   As a result, the holding unit 160 holds the image IMGc2 including the image IMGb3. When image BIMGb is held in holding unit 160, image IMGc2 is an image including image IMGb3 and image BIMGb.

図23は、表示範囲DRANの画像IMGbを外挿して空白領域EAREに画像を表示する処理の一例を示している。モニタ40(a)は、画像IMGb、BIMGbおよび空白領域EAREのモニタ40の画面上の位置関係を示している。なお、モニタ40の画面に表示される画像は、画像IMGb外の障害物400の相対的な位置が画面内である場合、モニタ40(b)に示すように、空白領域EAREが埋められた画像IMGc2である。モニタ40(b)は、画像IMGbを外挿して空白領域EAREを埋めた画像IMGb3と画像BIMGbとを含む画像IMGc2が表示されたモニタ40の画面を示している。   FIG. 23 shows an example of a process for extrapolating the image IMGb in the display range DRAN and displaying the image in the blank area EARE. The monitor 40 (a) shows the positional relationship between the images IMGb and BIMGb and the blank area EARE on the monitor 40 screen. The image displayed on the screen of the monitor 40 is an image in which the blank area EARE is filled as shown in the monitor 40 (b) when the relative position of the obstacle 400 outside the image IMGb is within the screen. IMGc2. The monitor 40 (b) shows the screen of the monitor 40 on which the image IMGc2 including the image IMGb3 and the image BIMGb in which the blank area EARE is filled by extrapolating the image IMGb is displayed.

図23の符号PX(PXo、PXe)は、モニタ40の画面内の画素を示している。また、画素PXo(PXo1、PXo2、PXo3)は、画像IMGb内の画素PXを示し、画素PXe(PXe1−PXe7)は、空白領域EAREの画素PXを示している。図23では、着目する1つの画素PXeと消失点Pdとを結ぶ直線(画面の端まで延長した線)上の画素PXeでは、同じ画像が連続すると仮定した場合の処理を説明する。なお、消失点Pdは、例えば、車両走行時に画像が流れ込む中心の座標である。   A symbol PX (PXo, PXe) in FIG. 23 indicates a pixel in the screen of the monitor 40. Further, the pixel PXo (PXo1, PXo2, PXo3) indicates the pixel PX in the image IMGb, and the pixel PXe (PXe1-PXe7) indicates the pixel PX in the blank area EARE. In FIG. 23, a process when it is assumed that the same image continues in a pixel PXe on a straight line (a line extending to the end of the screen) connecting one pixel PXe of interest and the vanishing point Pd will be described. The vanishing point Pd is, for example, the coordinates of the center where the image flows when the vehicle travels.

先ず、外挿部114は、カメラ20の取り付け位置や向きに基づいて、画像が流れ込む中心の座標(消失点Pd)を算出する。例えば、外挿部114は、カメラ20の取り付け位置や向きを示す情報を判定部120から取得する。そして、外挿部114は、車両300が直進する場合のカメラ20の向きに対する移動方向等に基づいて、画像IMGaの消失点を算出する。そして、外挿部114は、画像IMGbの表示領域および表示位置等に基づいて、モニタ40の画面上での消失点Pdを画像IMGaの消失点から算出する。   First, the extrapolation unit 114 calculates the coordinates (the vanishing point Pd) of the center where the image flows based on the mounting position and orientation of the camera 20. For example, the extrapolation unit 114 acquires information indicating the attachment position and orientation of the camera 20 from the determination unit 120. Then, the extrapolation unit 114 calculates the vanishing point of the image IMGa based on the moving direction with respect to the direction of the camera 20 when the vehicle 300 goes straight. Then, the extrapolation unit 114 calculates the vanishing point Pd on the screen of the monitor 40 from the vanishing point of the image IMGa based on the display area and display position of the image IMGb.

次に、外挿部114は、例えば、空白領域EAREから1つの画素PXeを選択し、選択した画素PXe(例えば、画素PXe1)と消失点Pdとを結ぶ直線(図23の破線の矢印)を算出する。以下、画素PXe1が選択されたものとして説明する。   Next, the extrapolation unit 114 selects, for example, one pixel PXe from the blank area EARE, and creates a straight line (broken arrow in FIG. 23) connecting the selected pixel PXe (for example, the pixel PXe1) and the vanishing point Pd. calculate. Hereinafter, description will be made assuming that the pixel PXe1 is selected.

外挿部114は、画素PXe1と消失点Pdとを結ぶ直線と、画像IMGbの境界とが交わる箇所を算出する。そして、外挿部114は、直線と画像IMGbの境界とが交わる箇所の画素PXo1の色を取得する。また、外挿部114は、直線と画像IMGbの境界とが交わる箇所の画素PXo1から消失点Pdに向かって数個の画素PXo(例えば、画素PXo2、PXo3)の色を取得する。   The extrapolation unit 114 calculates a location where a straight line connecting the pixel PXe1 and the vanishing point Pd intersects with the boundary of the image IMGb. Then, the extrapolation unit 114 acquires the color of the pixel PXo1 where the straight line and the boundary of the image IMGb intersect. Further, the extrapolation unit 114 acquires the colors of several pixels PXo (for example, the pixels PXo2 and PXo3) from the pixel PXo1 where the straight line intersects the boundary of the image IMGb toward the vanishing point Pd.

そして、外挿部114は、取得した数個の画素PXo1−PXo3の色の平均を算出する。外挿部114は、画素PXo1−PXo3の色を平均した色を、画素PXe1の色として描画する。これにより、画素PXo1−PXo3の色を平均した色が、モニタ40の画素PXe1に表示される。なお、この実施形態では、ノイズ対策として、画素PXo1−PXo3の色を平均している。したがって、ノイズ対策を別に実行する場合等では、外挿部114は、数個の画素PXoの色の平均を使用せずに、画素PXo1の色を画素PXe1の色として描画してもよい。   Then, the extrapolation unit 114 calculates the average color of the obtained several pixels PXo1-PXo3. The extrapolation unit 114 draws a color obtained by averaging the colors of the pixels PXo1 to PXo3 as the color of the pixel PXe1. Thereby, a color obtained by averaging the colors of the pixels PXo1 to PXo3 is displayed on the pixel PXe1 of the monitor 40. In this embodiment, the colors of the pixels PXo1-PXo3 are averaged as a noise countermeasure. Therefore, when performing noise countermeasures separately, the extrapolation unit 114 may draw the color of the pixel PXo1 as the color of the pixel PXe1 without using the average of the colors of several pixels PXo.

画素PXe1に対して実行された処理は、空白領域EAREの全ての画素PXeが描画されるまで、空白領域EAREの各画素PXeに対して実行される。これにより、空白領域EAREが埋められた画像IMGc2がモニタ40に表示される。この結果、この実施形態では、空白領域EAREの画像が欠落することに対する運転者の違和感を緩和できる。   The process executed for the pixel PXe1 is executed for each pixel PXe in the blank area EARE until all the pixels PXe in the blank area EARE are drawn. Thus, the image IMGc2 in which the blank area EARE is filled is displayed on the monitor 40. As a result, in this embodiment, the driver's uncomfortable feeling that the image of the blank area EARE is missing can be alleviated.

なお、システム10の動作および構成は、この例に限定されない。また、画像処理装置50Fの構成および動作は、この例に限定されない。例えば、画像処理装置50Fは、生成部110Bの外部に外挿部114を有してもよい。また、外挿部114は、画像BIMGbが表示されない画面内の領域を外挿して埋めてもよい。この場合、描画部150は、例えば、画像IMGb3が保持部160に保持された後に、算出部126からの情報PINF1が示す表示位置に画像BIMGbを上書きする。   The operation and configuration of the system 10 are not limited to this example. Further, the configuration and operation of the image processing device 50F are not limited to this example. For example, the image processing device 50F may include the extrapolation unit 114 outside the generation unit 110B. Further, the extrapolation unit 114 may extrapolate and fill a region in the screen where the image BIMGb is not displayed. In this case, for example, after the image IMGb3 is held in the holding unit 160, the drawing unit 150 overwrites the image BIMGb on the display position indicated by the information PINF1 from the calculation unit 126.

また、着目する1つの画素PXeと消失点Pdとを結ぶ直線上の画素PXeでは、同じ画像が連続すると仮定した場合、外挿部114は、直線上の1つの画素PXeの色を算出し、算出した色を直線上の残りの画素PXeの色としてもよい。   In addition, in the pixel PXe on the straight line connecting the one pixel PXe of interest and the vanishing point Pd, when the same image is assumed to be continuous, the extrapolation unit 114 calculates the color of one pixel PXe on the straight line, The calculated color may be the color of the remaining pixels PXe on the straight line.

あるいは、画像処理装置50Fは、画像IMGbの境界を示す枠(例えば、画像IMGc2内の破線の枠)を画像IMGc2に重畳してモニタ40に表示してもよい。例えば、画像処理装置50Fは、図17に示した枠描画部112と同様のモジュールを有してもよい。   Alternatively, the image processing device 50F may display a frame indicating the boundary of the image IMGb (for example, a broken line frame in the image IMGc2) on the monitor 40 by superimposing the frame on the image IMGc2. For example, the image processing device 50F may include a module similar to the frame drawing unit 112 illustrated in FIG.

また、外挿部114は、カメラ20の撮影範囲CRANに対応する画角が表示範囲DRANに対応する画角より大きい場合、空白領域EAREと重なる部分の画像IMGaを、外挿の画像として使用してもよい。この場合、画像IMGaと重ならない空白領域EAREの部分の色が、画像IMGaあるいは画像IMGbを外挿することにより算出される。   Further, when the angle of view corresponding to the shooting range CRAN of the camera 20 is larger than the angle of view corresponding to the display range DRAN, the extrapolation unit 114 uses the image IMGa of the portion overlapping the blank area EARE as an extrapolated image. May be. In this case, the color of the portion of the blank area EARE that does not overlap with the image IMGa is calculated by extrapolating the image IMGa or the image IMGb.

以上、図22および図23に示した実施形態においても、図1から図13に示した実施形態と同様の効果を得ることができる。例えば、この実施形態では、システム10の利用者に伝える情報(例えば、車両300の周辺の情報)の低減を抑制できる。   As described above, also in the embodiment shown in FIGS. 22 and 23, the same effect as the embodiment shown in FIGS. 1 to 13 can be obtained. For example, in this embodiment, reduction of information (for example, information around the vehicle 300) transmitted to the user of the system 10 can be suppressed.

さらに、この実施形態では、外挿部114は、障害物400の相対的な位置がモニタ40の画面内であるとき、空白領域EAREの画像を画像IMGbに基づいて生成する。これにより、この実施形態では、空白領域EAREを埋めた画像IMGc2をモニタ40に表示できる。この結果、この実施形態では、空白領域EAREの画像が欠落することに対する運転者の違和感を緩和できる。   Furthermore, in this embodiment, the extrapolation unit 114 generates an image of the blank area EARE based on the image IMGb when the relative position of the obstacle 400 is within the screen of the monitor 40. Thereby, in this embodiment, the image IMGc2 in which the blank area EARE is filled can be displayed on the monitor 40. As a result, in this embodiment, the driver's uncomfortable feeling that the image of the blank area EARE is missing can be alleviated.

図24は、画像処理装置およびシステムの別の実施形態を示している。この実施形態のシステム10は、図1に示した画像処理装置50の代わりに、画像処理装置50Gを有している。また、画像処理装置50Gは、図1に示した判定部120、抽出部130、保持部140および描画部150の代わりに、判定部120C、抽出部130A、保持部140Aおよび描画部150Cを有している。システム10および画像処理装置50Gのその他の構成は、図1に示したシステム10および画像処理装置50と同様である。図1から図23で説明した要素と同様の要素については、同様の符号を付し、これ等については、詳細な説明を省略する。   FIG. 24 shows another embodiment of the image processing apparatus and system. The system 10 of this embodiment has an image processing device 50G instead of the image processing device 50 shown in FIG. The image processing apparatus 50G includes a determination unit 120C, an extraction unit 130A, a holding unit 140A, and a drawing unit 150C instead of the determination unit 120, the extraction unit 130, the holding unit 140, and the drawing unit 150 illustrated in FIG. ing. Other configurations of the system 10 and the image processing apparatus 50G are the same as those of the system 10 and the image processing apparatus 50 shown in FIG. The same elements as those described in FIGS. 1 to 23 are denoted by the same reference numerals, and detailed description thereof will be omitted.

画像処理装置50Gは、ハードウエアのみで実現されてもよく、ハードウエアをソフトウエアにより制御することにより実現されてもよい。例えば、表示プログラム等のソフトウエアは、プロセッサに画像処理装置50Gの動作を実行させてもよい。   The image processing apparatus 50G may be realized only by hardware, or may be realized by controlling the hardware by software. For example, software such as a display program may cause the processor to execute the operation of the image processing device 50G.

画像処理装置50Gは、例えば、保持部100、140A、160、生成部110、判定部120C、抽出部130Aおよび描画部150Cを有している。判定部120C、抽出部130A、保持部140Aおよび描画部150Cは、複数の障害物400に対して処理を実行できる。判定部120C、抽出部130A、保持部140Aおよび描画部150Cのその他の動作は、図1に示した判定部120、抽出部130、保持部140および描画部150と同様である。   The image processing device 50G includes, for example, holding units 100, 140A, and 160, a generation unit 110, a determination unit 120C, an extraction unit 130A, and a drawing unit 150C. The determination unit 120C, the extraction unit 130A, the holding unit 140A, and the drawing unit 150C can execute processing on the plurality of obstacles 400. Other operations of the determination unit 120C, the extraction unit 130A, the holding unit 140A, and the drawing unit 150C are the same as those of the determination unit 120, the extraction unit 130, the holding unit 140, and the drawing unit 150 illustrated in FIG.

例えば、判定部120Cは、センサ30により検知されている障害物400が複数の場合、複数の障害物400のそれぞれに対して、障害物400が画像IMGbに存在するか否かを判定する。そして、判定部120Cは、画像IMGbに存在する障害物400に対して、障害物400が画像IMGbの端に存在するか否かを判定する。   For example, when there are a plurality of obstacles 400 detected by the sensor 30, the determination unit 120C determines whether the obstacle 400 exists in the image IMGb for each of the plurality of obstacles 400. Then, the determination unit 120C determines whether the obstacle 400 exists at the end of the image IMGb with respect to the obstacle 400 present in the image IMGb.

また、判定部120Cは、複数の障害物400のそれぞれに対して、追跡中の障害物400か否かを判定する。そして、判定部120Cは、新たな障害物400(追跡中の障害物400と異なる障害物400)と判定した障害物400に対しては、識別情報を付与する。このように、画像処理装置50Gは、識別情報を用いて、複数の障害物400を管理する。   In addition, the determination unit 120C determines whether each of the plurality of obstacles 400 is the obstacle 400 being tracked. Then, the determination unit 120C gives identification information to the obstacle 400 determined as a new obstacle 400 (an obstacle 400 different from the obstacle 400 being tracked). As described above, the image processing apparatus 50G manages the plurality of obstacles 400 using the identification information.

抽出部130Aは、画像IMGbの端に存在すると判定されたそれぞれの障害物400の画像BIMGaを画像IMGaから抽出する。なお、各障害物400の画像BIMGaも各障害物400に付与された識別情報により管理される。保持部140Aは、抽出部130Aで抽出されたそれぞれの障害物400の画像BIMGaを保持する。すなわち、保持部140Aは、複数の画像BIMGaを保持できる。   130 A of extraction parts extract image BIMGa of each obstacle 400 determined to exist in the edge of image IMGb from image IMGa. The image BIMGa of each obstacle 400 is also managed by the identification information given to each obstacle 400. The holding unit 140A holds the image BIMGa of each obstacle 400 extracted by the extraction unit 130A. That is, the holding unit 140A can hold a plurality of images BIMGa.

描画部150Cは、例えば、画像IMGbに存在しないと判定された障害物400に対応する障害物400の画像BIMGaが保持部140Aに保持されているか否かを、障害物400に付与された識別情報に基づいて判定する。そして、描画部150Cは、画像IMGbに存在しないと判定された障害物400に対応し、かつ、保持部140Aに保持されている障害物400の画像BIMGaを、モニタ40に表示する画像IMGcに追加する。また、例えば、描画部150Cは、画像IMGbに存在しないと判定された障害物400の少なくとも1つが、画像BIMGaが保持部140Aに保持されていない障害物400である場合、モニタ40に表示する画像IMGcに警告用の画像を追加してもよい。   For example, the drawing unit 150C determines whether or not the image BIMGa of the obstacle 400 corresponding to the obstacle 400 determined not to exist in the image IMGb is held in the holding unit 140A. Determine based on. The drawing unit 150C adds the image BIMGa of the obstacle 400 corresponding to the obstacle 400 determined not to exist in the image IMGb and held in the holding unit 140A to the image IMGc displayed on the monitor 40. To do. For example, the drawing unit 150C displays an image to be displayed on the monitor 40 when at least one of the obstacles 400 determined not to exist in the image IMGb is the obstacle 400 in which the image BIMGa is not held in the holding unit 140A. A warning image may be added to the IMGc.

なお、システム10の動作および構成は、この例に限定されない。また、画像処理装置50Gの構成および動作は、この例に限定されない。例えば、図14から図23で説明した画像処理装置50A、50B、50C、50D、50E、50Fに、複数の障害物400を管理する機能を追加してもよい。   The operation and configuration of the system 10 are not limited to this example. Further, the configuration and operation of the image processing device 50G are not limited to this example. For example, a function for managing a plurality of obstacles 400 may be added to the image processing apparatuses 50A, 50B, 50C, 50D, 50E, and 50F described with reference to FIGS.

以上、図24に示した実施形態においても、図1から図13に示した実施形態と同様の効果を得ることができる。例えば、この実施形態では、システム10の利用者に伝える情報(例えば、車両300の周辺の情報)の低減を抑制できる。   As described above, also in the embodiment shown in FIG. 24, the same effects as those in the embodiment shown in FIGS. 1 to 13 can be obtained. For example, in this embodiment, reduction of information (for example, information around the vehicle 300) transmitted to the user of the system 10 can be suppressed.

さらに、この実施形態では、センサ30により検知されている障害物400が複数の場合でも、判定部120C、抽出部130A、保持部140Aおよび描画部150Cは、複数の障害物400に対して処理を実行できる。これにより、この実施形態では、センサ30で複数の障害物400が検知された場合でも、表示範囲DRAN外の複数の障害物400に対応する画像BIMGbをモニタ40に表示できる。これにより、この実施形態では、複数の障害物400が車両300の周辺に存在することを運転者に伝えることができる。   Furthermore, in this embodiment, even when there are a plurality of obstacles 400 detected by the sensor 30, the determination unit 120C, the extraction unit 130A, the holding unit 140A, and the drawing unit 150C perform processing on the plurality of obstacles 400. Can be executed. Thereby, in this embodiment, even when a plurality of obstacles 400 are detected by the sensor 30, the images BIMGb corresponding to the plurality of obstacles 400 outside the display range DRAN can be displayed on the monitor 40. Thereby, in this embodiment, the driver can be informed that a plurality of obstacles 400 exist around the vehicle 300.

図25は、画像処理装置のハードウエア構成の一例を示している。なお、図1から図24で説明した要素と同様の要素については、同様の符号を付し、これ等については、詳細な説明を省略する。   FIG. 25 shows an example of the hardware configuration of the image processing apparatus. Elements similar to those described in FIGS. 1 to 24 are denoted by the same reference numerals, and detailed description thereof will be omitted.

コンピュータ装置CPは、プロセッサPUと、メモリMEMと、ハードディスク装置HDDと、入出力インタフェースIFと、光学ドライブ装置ODRとを有している。プロセッサPUと、メモリMEMと、ハードディスク装置HDDと、入出力インタフェースIFと、光学ドライブ装置ODRとは、バスを介して互いに接続されている。   The computer device CP includes a processor PU, a memory MEM, a hard disk device HDD, an input / output interface IF, and an optical drive device ODR. The processor PU, the memory MEM, the hard disk device HDD, the input / output interface IF, and the optical drive device ODR are connected to each other via a bus.

プロセッサPUと、メモリMEMと、ハードディスク装置HDDと、入出力インタフェースIFとは、例えば、画像処理装置50、50A、50B、50C、50D、50E、50F、50Gのいずれかの機能を実現する。例えば、プロセッサPUと、メモリMEMと、ハードディスク装置HDDと、入出力インタフェースIFとは、ECU内に配置されている。   The processor PU, the memory MEM, the hard disk device HDD, and the input / output interface IF realize, for example, any of the functions of the image processing devices 50, 50A, 50B, 50C, 50D, 50E, 50F, and 50G. For example, the processor PU, the memory MEM, the hard disk device HDD, and the input / output interface IF are arranged in the ECU.

光学ドライブ装置ODRは、光ディスク等のリムーバブルディスクDISを装着可能であり、装着したリムーバブルディスクDISに記録された情報の読み出しおよび記録を行う。   The optical drive device ODR can be mounted with a removable disk DIS such as an optical disk, and reads and records information recorded on the mounted removable disk DIS.

コンピュータ装置CPは、入出力インタフェースIFを介してカメラ20およびセンサ30に接続されている。これにより、プロセッサPUは、入出力インタフェースIFを介して、カメラ20で撮影された画像IMGaやセンサ30の検知結果INFaを受け取ることができる。なお、プロセッサPU等が画像処理装置50Eの機能を実現する場合、図20に示したサブカメラ22も入出力インタフェースIFを介してコンピュータ装置CPに接続される。   The computer device CP is connected to the camera 20 and the sensor 30 via the input / output interface IF. As a result, the processor PU can receive the image IMGa photographed by the camera 20 and the detection result INFa of the sensor 30 via the input / output interface IF. When the processor PU or the like realizes the function of the image processing device 50E, the sub camera 22 shown in FIG. 20 is also connected to the computer device CP via the input / output interface IF.

メモリMEMは、例えば、コンピュータ装置CPのオペレーティングシステムを格納している。また、メモリMEMは、例えば、例えば、画像処理装置50、50A、50B、50C、50D、50E、50F、50Gのいずれかの動作をプロセッサPUが実行するための表示プログラム等のアプリケーションプログラムを格納している。   The memory MEM stores, for example, the operating system of the computer device CP. Further, the memory MEM stores application programs such as a display program for the processor PU to execute any of the operations of the image processing devices 50, 50A, 50B, 50C, 50D, 50E, 50F, and 50G, for example. ing.

表示プログラム等のアプリケーションプログラムは、例えば、光ディスクなどのリムーバブルディスクDISに記録して頒布することができる。例えば、コンピュータ装置CPは、表示プログラム等のアプリケーションプログラムを、リムーバブルディスクDISから光学ドライブ装置ODRを介して読み出し、メモリMEMやハードディスク装置HDDに格納してもよい。また、コンピュータ装置CPは、表示プログラム等のアプリケーションプログラムを、インターネット等のネットワークに接続する通信装置(図示せず)を介してダウンロードし、メモリMEMやハードディスク装置HDDに格納してもよい。   An application program such as a display program can be recorded and distributed on a removable disk DIS such as an optical disk. For example, the computer device CP may read an application program such as a display program from the removable disk DIS via the optical drive device ODR and store it in the memory MEM or the hard disk device HDD. Further, the computer device CP may download an application program such as a display program via a communication device (not shown) connected to a network such as the Internet and store it in the memory MEM or the hard disk device HDD.

画像処理装置のハードウエア構成は、この例に限定されない。例えば、コンピュータ装置CPは、光学ドライブ装置ODRが省かれてもよい。   The hardware configuration of the image processing apparatus is not limited to this example. For example, the optical drive device ODR may be omitted from the computer device CP.

以上の実施形態において説明した発明を整理して、付記として開示する。
(付記1)
カメラと物体を検知するセンサとからのデータを用いて、画像をモニタに表示する画像処理装置であって、
前記カメラで撮影された第1画像を保持する第1保持部と、
前記第1保持部に保持されている前記第1画像から前記モニタに表示する第2画像を生成する生成部と、
前記センサの検知結果を受け、前記センサにより検知された前記物体である障害物が前記第2画像に存在するか否かを判定し、前記障害物が前記第2画像に存在するとき、前記障害物が前記第2画像の端に存在するか否かを判定する判定部と、
前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出する抽出部と、
前記抽出部で抽出された前記障害物の画像を保持する第2保持部と、
前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定され、かつ、前記障害物の画像が前記第2保持部に保持されているとき、前記モニタに表示する画像に前記障害物の画像を追加する描画部と
を備えていることを特徴とする画像処理装置。
(付記2)
付記1に記載の画像処理装置において、
前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出するか否かを前記第2画像内の前記障害物の大きさに基づいて判定する第2判定部を備えていることを特徴とする画像処理装置。
(付記3)
付記1または付記2に記載の画像処理装置において、
前記カメラの画角が前記第2画像に反映されている表示範囲の画角より大きく、かつ、前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定されたとき、前記表示範囲の画角を広くする調整部を備えていることを特徴とする画像処理装置。
(付記4)
付記3に記載の画像処理装置において、
前記表示範囲の画角を広くする場合、前記表示範囲の画角を広くする前の前記表示範囲を示す枠を前記表示範囲の画角を広くした前記第2画像内に表示する第2生成部を備えていることを特徴とする画像処理装置。
(付記5)
付記1または付記2に記載の画像処理装置において、
前記第1画像に反映されている撮影範囲は、前記第2画像に反映されている表示範囲より大きく、
前記描画部は、前記センサにより検知されている前記障害物が前記第2画像に存在せず、かつ、前記センサにより検知されている前記障害物が前記第1画像に存在するとき、前記第1画像から前記障害物の画像を抽出し、抽出した前記障害物の画像を前記モニタに表示する前記障害物の画像として使用する
ことを特徴とする画像処理装置。
(付記6)
付記1または付記2に記載の画像処理装置において、
前記カメラとは別のカメラである第2カメラで撮影された第3画像を保持する第3保持部を備え、
前記描画部は、前記センサにより検知されている前記障害物が前記第2画像に存在せず、かつ、前記センサにより検知されている前記障害物が前記第3画像に存在するとき、前記第3画像から前記障害物の画像を抽出し、抽出した前記障害物の画像を前記モニタに表示する前記障害物の画像として使用する
ことを特徴とする画像処理装置。
(付記7)
付記1または付記2に記載の画像処理装置において、
前記センサにより検知されている前記障害物が前記第2画像に存在しないとき、前記第2画像に対する前記障害物の相対的な位置を算出する算出部と、
前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記第2画像および前記障害物の画像のいずれも表示されない領域の画像を、前記第2画像に基づいて生成する外挿部とを備え、
前記描画部は、前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記画面上の前記障害物の相対的な位置に、前記障害物の画像を表示させる
ことを特徴とする画像処理装置。
(付記8)
付記7に記載の画像処理装置において、
前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記画面に表示される前記第2画像の境界に枠を表示する第2生成部を備えていることを特徴とする画像処理装置。
(付記9)
付記1ないし付記8のいずれか1項に記載の画像処理装置において、
前記判定部は、前記センサにより検知されている前記障害物が複数の場合、前記複数の障害物のそれぞれに対して、前記障害物が前記第2画像に存在するか否かを判定し、前記第2画像に存在する前記障害物に対して、前記障害物が前記第2画像の端に存在するか否かを判定し、
前記抽出部は、前記第2画像の端に存在すると判定されたそれぞれの前記障害物の画像を前記第1画像から抽出し、
前記第2保持部は、前記抽出部で抽出されたそれぞれの前記障害物の画像を保持し、
前記描画部は、前記第2画像に存在しないと判定された前記障害物に対応し、かつ、前記第2保持部に保持されている前記障害物の画像を、前記モニタに表示する画像に追加する
ことを特徴とする画像処理装置。
(付記10)
付記1または付記2に記載の画像処理装置において、
前記センサにより検知されている前記障害物が前記第2画像に存在しないとき、前記第2画像に対する前記障害物の相対的な位置を算出する算出部と、
前記第1画像に反映されている撮影範囲が前記モニタの画面以上であり、前記障害物の相対的な位置が前記画面内であるとき、前記第2画像に反映される表示範囲の画角を前記画面に対応する画角まで広くする調整部と
を備えていることを特徴とする画像処理装置。
(付記11)
カメラ、センサ、画像処理装置およびモニタを備え、
前記画像処理装置は、
前記カメラで撮影された第1画像を保持する第1保持部と、
前記第1保持部に保持されている前記第1画像から前記モニタに表示する第2画像を生成する生成部と、
前記センサの検知結果を受け、前記センサにより検知された前記物体である障害物が前記第2画像に存在するか否かを判定し、前記障害物が前記第2画像に存在するとき、前記障害物が前記第2画像の端に存在するか否かを判定する判定部と、
前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出する抽出部と、
前記抽出部で抽出された前記障害物の画像を保持する第2保持部と、
前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定され、かつ、前記障害物の画像が前記第2保持部に保持されているとき、前記モニタに表示する画像に前記障害物の画像を追加する描画部と
を備えていることを特徴とするシステム。
(付記12)
付記11に記載のシステムにおいて、
前記画像処理装置は、前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出するか否かを前記第2画像内の前記障害物の大きさに基づいて判定する第2判定部を備えていることを特徴とするシステム。
(付記13)
付記11または付記12に記載のシステムにおいて、
前記画像処理装置は、前記カメラの画角が前記第2画像に反映されている表示範囲の画角より大きく、かつ、前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定されたとき、前記表示範囲の画角を広くする調整部を備えていることを特徴とするシステム。
(付記14)
付記13に記載のシステムにおいて、
前記画像処理装置は、前記表示範囲の画角を広くする場合、前記表示範囲の画角を広くする前の前記表示範囲を示す枠を前記表示範囲の画角を広くした前記第2画像内に表示する第2生成部を備えていることを特徴とするシステム。
(付記15)
付記11または付記12に記載のシステムにおいて、
前記第1画像に反映されている撮影範囲は、前記第2画像に反映されている表示範囲より大きく、
前記描画部は、前記センサにより検知されている前記障害物が前記第2画像に存在せず、かつ、前記センサにより検知されている前記障害物が前記第1画像に存在するとき、前記第1画像から前記障害物の画像を抽出し、抽出した前記障害物の画像を前記モニタに表示する前記障害物の画像として使用する
ことを特徴とするシステム。
(付記16)
付記11または付記12に記載のシステムにおいて、
前記カメラとは別のカメラである第2カメラを備え、
前記画像処理装置は、前記第2カメラで撮影された第3画像を保持する第3保持部を備え、
前記描画部は、前記センサにより検知されている前記障害物が前記第2画像に存在せず、かつ、前記センサにより検知されている前記障害物が前記第3画像に存在するとき、前記第3画像から前記障害物の画像を抽出し、抽出した前記障害物の画像を前記モニタに表示する前記障害物の画像として使用する
ことを特徴とするシステム。
(付記17)
付記11または付記12に記載のシステムにおいて、
前記画像処理装置は、
前記センサにより検知されている前記障害物が前記第2画像に存在しないとき、前記第2画像に対する前記障害物の相対的な位置を算出する算出部と、
前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記第2画像および前記障害物の画像のいずれも表示されない領域の画像を、前記第2画像に基づいて生成する外挿部とを備え、
前記描画部は、前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記画面上の前記障害物の相対的な位置に、前記障害物の画像を表示させる
ことを特徴とするシステム。
(付記18)
付記17に記載のシステムにおいて、
前記画像処理装置は、前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記画面に表示される前記第2画像の境界に枠を表示する第2生成部を備えていることを特徴とするシステム。
(付記19)
付記11ないし付記18のいずれか1項に記載のシステムにおいて、
前記判定部は、前記センサにより検知されている前記障害物が複数の場合、前記複数の障害物のそれぞれに対して、前記障害物が前記第2画像に存在するか否かを判定し、前記第2画像に存在する前記障害物に対して、前記障害物が前記第2画像の端に存在するか否かを判定し、
前記抽出部は、前記第2画像の端に存在すると判定されたそれぞれの前記障害物の画像を前記第1画像から抽出し、
前記第2保持部は、前記抽出部で抽出されたそれぞれの前記障害物の画像を保持し、
前記描画部は、前記第2画像に存在しないと判定された前記障害物に対応し、かつ、前記第2保持部に保持されている前記障害物の画像を、前記モニタに表示する画像に追加する
ことを特徴とするシステム。
(付記20)
付記11または付記12に記載のシステムにおいて、
前記画像処理装置は、
前記センサにより検知されている前記障害物が前記第2画像に存在しないとき、前記第2画像に対する前記障害物の相対的な位置を算出する算出部と、
前記第1画像に反映されている撮影範囲が前記モニタの画面以上であり、前記障害物の相対的な位置が前記画面内であるとき、前記第2画像に反映される表示範囲の画角を前記画面に対応する画角まで広くする調整部と
を備えていることを特徴とするシステム。
(付記21)
カメラと物体を検知するセンサとからのデータを用いて画像をモニタに表示する処理をコンピュータに実行させる表示プログラムであって、
前記カメラで撮影された第1画像を保持し、
前記第1保持部に保持されている前記第1画像から前記モニタに表示する第2画像を生成し、
前記センサの検知結果を受け、前記センサにより検知された前記物体である障害物が前記第2画像に存在するか否かを判定し、前記障害物が前記第2画像に存在するとき、前記障害物が前記第2画像の端に存在するか否かを判定し、
前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出し、
前記抽出部で抽出された前記障害物の画像を保持し、
前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定され、かつ、前記障害物の画像が前記第2保持部に保持されているとき、前記モニタに表示する画像に前記障害物の画像を追加する
処理をコンピュータに実行させることを特徴とする表示プログラム。
(付記22)
付記21に記載の表示プログラムにおいて、
前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出するか否かを前記第2画像内の前記障害物の大きさに基づいて判定する処理をコンピュータに実行させる表示プログラム。
(付記23)
付記21または付記22に記載の表示プログラムにおいて、
前記カメラの画角が前記第2画像に反映されている表示範囲の画角より大きく、かつ、前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定されたとき、前記表示範囲の画角を広くする処理をコンピュータに実行させる表示プログラム。
(付記24)
付記23に記載の表示プログラムにおいて、
前記表示範囲の画角を広くする場合、前記表示範囲の画角を広くする前の前記表示範囲を示す枠を前記表示範囲の画角を広くした前記第2画像内に表示する処理をコンピュータに実行させる表示プログラム。
(付記25)
付記21または付記22に記載の表示プログラムにおいて、
前記第1画像に反映されている撮影範囲が、前記第2画像に反映されている表示範囲より大きい場合、前記センサにより検知されている前記障害物が前記第2画像に存在せず、かつ、前記センサにより検知されている前記障害物が前記第1画像に存在するとき、前記第1画像から前記障害物の画像を抽出し、抽出した前記障害物の画像を前記モニタに表示する前記障害物の画像として使用する処理をコンピュータに実行させる表示プログラム。
(付記26)
付記21または付記22に記載の表示プログラムにおいて、
前記カメラとは別のカメラである第2カメラで撮影された第3画像を保持し、
前記センサにより検知されている前記障害物が前記第2画像に存在せず、かつ、前記センサにより検知されている前記障害物が前記第3画像に存在するとき、前記第3画像から前記障害物の画像を抽出し、抽出した前記障害物の画像を前記モニタに表示する前記障害物の画像として使用する
処理をコンピュータに実行させる表示プログラム。
(付記27)
付記21または付記22に記載の表示プログラムにおいて、
前記センサにより検知されている前記障害物が前記第2画像に存在しないとき、前記第2画像に対する前記障害物の相対的な位置を算出し、
前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記第2画像および前記障害物の画像のいずれも表示されない領域の画像を、前記第2画像に基づいて生成し、
前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記画面上の前記障害物の相対的な位置に、前記障害物の画像を表示させる
処理をコンピュータに実行させる表示プログラム。
(付記28)
付記27に記載の表示プログラムにおいて、
前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記画面に表示される前記第2画像の境界に枠を表示する処理をコンピュータに実行させる表示プログラム。
(付記29)
付記21ないし付記28のいずれか1項に記載の表示プログラムにおいて、
前記センサにより検知されている前記障害物が複数の場合、前記複数の障害物のそれぞれに対して、前記障害物が前記第2画像に存在するか否かを判定し、前記第2画像に存在する前記障害物に対して、前記障害物が前記第2画像の端に存在するか否かを判定し、
前記第2画像の端に存在すると判定されたそれぞれの前記障害物の画像を前記第1画像から抽出し、
前記抽出部で抽出されたそれぞれの前記障害物の画像を保持し、
前記第2画像に存在しないと判定された前記障害物に対応し、かつ、前記第2保持部に保持されている前記障害物の画像を、前記モニタに表示する画像に追加する
処理をコンピュータに実行させる表示プログラム。
(付記30)
付記21または付記22に記載の表示プログラムにおいて、
前記センサにより検知されている前記障害物が前記第2画像に存在しないとき、前記第2画像に対する前記障害物の相対的な位置を算出し、
前記第1画像に反映されている撮影範囲が前記モニタの画面以上であり、前記障害物の相対的な位置が前記画面内であるとき、前記第2画像に反映される表示範囲の画角を前記画面に対応する画角まで広くする
処理をコンピュータに実行させる表示プログラム。
The invention described in the above embodiments is organized and disclosed as an appendix.
(Appendix 1)
An image processing apparatus that displays an image on a monitor using data from a camera and a sensor that detects an object,
A first holding unit for holding a first image taken by the camera;
A generating unit that generates a second image to be displayed on the monitor from the first image held in the first holding unit;
The detection result of the sensor is received, it is determined whether or not the obstacle that is the object detected by the sensor exists in the second image, and when the obstacle exists in the second image, the obstacle A determination unit for determining whether an object is present at an end of the second image;
An extraction unit that extracts an image of the obstacle from the first image when it is determined that the obstacle exists at an edge of the second image;
A second holding unit that holds an image of the obstacle extracted by the extraction unit;
When it is determined that the obstacle detected by the sensor does not exist in the second image and the image of the obstacle is held in the second holding unit, the image displayed on the monitor An image processing apparatus comprising: a drawing unit that adds an image of an obstacle.
(Appendix 2)
In the image processing apparatus according to attachment 1,
When it is determined that the obstacle is present at the edge of the second image, whether or not the obstacle image is extracted from the first image is determined based on the size of the obstacle in the second image. An image processing apparatus comprising a second determination unit for determining.
(Appendix 3)
In the image processing apparatus according to appendix 1 or appendix 2,
When it is determined that the angle of view of the camera is larger than the angle of view of the display range reflected in the second image and the obstacle detected by the sensor does not exist in the second image, An image processing apparatus comprising an adjustment unit that widens the angle of view of a display range.
(Appendix 4)
In the image processing device according to attachment 3,
When widening the angle of view of the display range, a second generation unit that displays a frame indicating the display range before widening the angle of view of the display range in the second image with the angle of view of the display range widened An image processing apparatus comprising:
(Appendix 5)
In the image processing apparatus according to appendix 1 or appendix 2,
The shooting range reflected in the first image is larger than the display range reflected in the second image,
When the obstacle detected by the sensor does not exist in the second image and the obstacle detected by the sensor exists in the first image, the drawing unit An image processing apparatus, wherein an image of the obstacle is extracted from an image, and the extracted image of the obstacle is used as an image of the obstacle displayed on the monitor.
(Appendix 6)
In the image processing apparatus according to appendix 1 or appendix 2,
A third holding unit for holding a third image taken by a second camera which is a camera different from the camera;
When the obstacle detected by the sensor does not exist in the second image and the obstacle detected by the sensor exists in the third image, the drawing unit An image processing apparatus, wherein an image of the obstacle is extracted from an image, and the extracted image of the obstacle is used as an image of the obstacle displayed on the monitor.
(Appendix 7)
In the image processing apparatus according to appendix 1 or appendix 2,
A calculation unit that calculates a relative position of the obstacle with respect to the second image when the obstacle detected by the sensor does not exist in the second image;
When the screen of the monitor is larger than the second image and the relative position of the obstacle is within the screen, an image of an area in which neither the second image nor the obstacle image is displayed An extrapolation unit that generates based on two images,
When the screen of the monitor is larger than the second image and the relative position of the obstacle is within the screen, the drawing unit is arranged at the relative position of the obstacle on the screen. An image processing apparatus for displaying an image.
(Appendix 8)
In the image processing device according to attachment 7,
A second generator for displaying a frame at the boundary of the second image displayed on the screen when the screen of the monitor is larger than the second image and the relative position of the obstacle is within the screen; An image processing apparatus comprising:
(Appendix 9)
In the image processing device according to any one of appendices 1 to 8,
The determination unit determines whether or not the obstacle exists in the second image for each of the plurality of obstacles when the obstacle detected by the sensor is plural, For the obstacle present in the second image, determine whether the obstacle is present at the end of the second image,
The extraction unit extracts, from the first image, images of the respective obstacles determined to be present at the end of the second image,
The second holding unit holds an image of each obstacle extracted by the extraction unit,
The drawing unit adds an image of the obstacle corresponding to the obstacle determined not to exist in the second image and held in the second holding unit to an image displayed on the monitor An image processing apparatus.
(Appendix 10)
In the image processing apparatus according to appendix 1 or appendix 2,
A calculation unit that calculates a relative position of the obstacle with respect to the second image when the obstacle detected by the sensor does not exist in the second image;
When the shooting range reflected in the first image is greater than or equal to the screen of the monitor and the relative position of the obstacle is within the screen, the angle of view of the display range reflected in the second image is An image processing apparatus comprising: an adjustment unit that widens the angle of view corresponding to the screen.
(Appendix 11)
A camera, a sensor, an image processing device and a monitor;
The image processing apparatus includes:
A first holding unit for holding a first image taken by the camera;
A generating unit that generates a second image to be displayed on the monitor from the first image held in the first holding unit;
The detection result of the sensor is received, it is determined whether or not the obstacle that is the object detected by the sensor exists in the second image, and when the obstacle exists in the second image, the obstacle A determination unit for determining whether an object is present at an end of the second image;
An extraction unit that extracts an image of the obstacle from the first image when it is determined that the obstacle exists at an edge of the second image;
A second holding unit that holds an image of the obstacle extracted by the extraction unit;
When it is determined that the obstacle detected by the sensor does not exist in the second image and the image of the obstacle is held in the second holding unit, the image displayed on the monitor And a drawing unit for adding an image of an obstacle.
(Appendix 12)
In the system according to attachment 11,
The image processing apparatus determines whether or not to extract an image of the obstacle from the first image when it is determined that the obstacle is present at an end of the second image. A system comprising: a second determination unit that determines based on the size of the system.
(Appendix 13)
In the system according to appendix 11 or appendix 12,
When the angle of view of the camera is larger than the angle of view of the display range reflected in the second image and the obstacle detected by the sensor is not present in the second image, the image processing apparatus A system comprising: an adjustment unit that, when determined, widens the angle of view of the display range.
(Appendix 14)
In the system according to attachment 13,
When the image processing apparatus widens the angle of view of the display range, a frame indicating the display range prior to widening the angle of view of the display range is included in the second image with the angle of view of the display range widened. A system comprising a second generation unit for displaying.
(Appendix 15)
In the system according to appendix 11 or appendix 12,
The shooting range reflected in the first image is larger than the display range reflected in the second image,
When the obstacle detected by the sensor does not exist in the second image and the obstacle detected by the sensor exists in the first image, the drawing unit An image of the obstacle is extracted from an image, and the extracted image of the obstacle is used as an image of the obstacle displayed on the monitor.
(Appendix 16)
In the system according to appendix 11 or appendix 12,
A second camera which is a camera different from the camera;
The image processing apparatus includes a third holding unit that holds a third image captured by the second camera,
When the obstacle detected by the sensor does not exist in the second image and the obstacle detected by the sensor exists in the third image, the drawing unit An image of the obstacle is extracted from an image, and the extracted image of the obstacle is used as an image of the obstacle displayed on the monitor.
(Appendix 17)
In the system according to appendix 11 or appendix 12,
The image processing apparatus includes:
A calculation unit that calculates a relative position of the obstacle with respect to the second image when the obstacle detected by the sensor does not exist in the second image;
When the screen of the monitor is larger than the second image and the relative position of the obstacle is within the screen, an image of an area in which neither the second image nor the obstacle image is displayed An extrapolation unit that generates based on two images,
When the screen of the monitor is larger than the second image and the relative position of the obstacle is within the screen, the drawing unit is arranged at the relative position of the obstacle on the screen. A system characterized by displaying images of
(Appendix 18)
In the system according to appendix 17,
The image processing device displays a frame at the boundary of the second image displayed on the screen when the screen of the monitor is larger than the second image and the relative position of the obstacle is within the screen. The system characterized by including the 2nd production | generation part to do.
(Appendix 19)
In the system according to any one of appendix 11 to appendix 18,
The determination unit determines whether or not the obstacle exists in the second image for each of the plurality of obstacles when the obstacle detected by the sensor is plural, For the obstacle present in the second image, determine whether the obstacle is present at the end of the second image,
The extraction unit extracts, from the first image, images of the respective obstacles determined to be present at the end of the second image,
The second holding unit holds an image of each obstacle extracted by the extraction unit,
The drawing unit adds an image of the obstacle corresponding to the obstacle determined not to exist in the second image and held in the second holding unit to an image displayed on the monitor A system characterized by
(Appendix 20)
In the system according to appendix 11 or appendix 12,
The image processing apparatus includes:
A calculation unit that calculates a relative position of the obstacle with respect to the second image when the obstacle detected by the sensor does not exist in the second image;
When the shooting range reflected in the first image is greater than or equal to the screen of the monitor and the relative position of the obstacle is within the screen, the angle of view of the display range reflected in the second image is An adjustment unit that widens the angle of view corresponding to the screen.
(Appendix 21)
A display program for causing a computer to execute a process of displaying an image on a monitor using data from a camera and a sensor for detecting an object,
Holding a first image taken by the camera;
Generating a second image to be displayed on the monitor from the first image held in the first holding unit;
The detection result of the sensor is received, it is determined whether or not the obstacle that is the object detected by the sensor exists in the second image, and when the obstacle exists in the second image, the obstacle Determining whether an object is present at the edge of the second image;
When it is determined that the obstacle is present at the edge of the second image, the obstacle image is extracted from the first image;
Holding the image of the obstacle extracted by the extraction unit;
When it is determined that the obstacle detected by the sensor does not exist in the second image and the image of the obstacle is held in the second holding unit, the image displayed on the monitor A display program for causing a computer to execute processing for adding an image of an obstacle.
(Appendix 22)
In the display program described in appendix 21,
When it is determined that the obstacle is present at the edge of the second image, whether or not the obstacle image is extracted from the first image is determined based on the size of the obstacle in the second image. A display program that causes a computer to execute a determination process.
(Appendix 23)
In the display program described in appendix 21 or appendix 22,
When it is determined that the angle of view of the camera is larger than the angle of view of the display range reflected in the second image and the obstacle detected by the sensor does not exist in the second image, A display program that causes a computer to execute processing for widening the angle of view of a display range.
(Appendix 24)
In the display program according to attachment 23,
When widening the angle of view of the display range, the computer displays a process of displaying a frame indicating the display range before the angle of view of the display range is widened in the second image with the angle of view of the display range widened. Display program to be executed.
(Appendix 25)
In the display program described in appendix 21 or appendix 22,
If the shooting range reflected in the first image is larger than the display range reflected in the second image, the obstacle detected by the sensor does not exist in the second image, and When the obstacle detected by the sensor is present in the first image, the obstacle image is extracted from the first image, and the extracted obstacle image is displayed on the monitor. A display program that causes a computer to execute processing used as an image of a computer.
(Appendix 26)
In the display program described in appendix 21 or appendix 22,
Holding a third image taken by a second camera which is a separate camera from the camera;
When the obstacle detected by the sensor does not exist in the second image and the obstacle detected by the sensor exists in the third image, the obstacle from the third image A display program for causing a computer to execute a process of extracting the image of the obstacle and using the extracted image of the obstacle as the obstacle image displayed on the monitor.
(Appendix 27)
In the display program described in appendix 21 or appendix 22,
When the obstacle detected by the sensor is not present in the second image, the relative position of the obstacle with respect to the second image is calculated,
When the screen of the monitor is larger than the second image and the relative position of the obstacle is within the screen, an image of an area in which neither the second image nor the obstacle image is displayed Based on two images,
When the screen of the monitor is larger than the second image and the relative position of the obstacle is within the screen, the image of the obstacle is displayed at the relative position of the obstacle on the screen. A display program that causes a computer to execute processing.
(Appendix 28)
In the display program according to attachment 27,
When the screen of the monitor is larger than the second image and the relative position of the obstacle is within the screen, a process of displaying a frame at the boundary of the second image displayed on the screen is executed on the computer Display program to make.
(Appendix 29)
In the display program according to any one of appendix 21 to appendix 28,
When there are a plurality of obstacles detected by the sensor, it is determined whether or not the obstacle exists in the second image for each of the plurality of obstacles, and exists in the second image. Determining whether the obstacle exists at an edge of the second image with respect to the obstacle;
Extracting each obstacle image determined to be present at an edge of the second image from the first image;
Holding an image of each of the obstacles extracted by the extraction unit;
A process for adding an image of the obstacle corresponding to the obstacle determined not to exist in the second image and held in the second holding unit to an image displayed on the monitor. Display program to be executed.
(Appendix 30)
In the display program described in appendix 21 or appendix 22,
When the obstacle detected by the sensor is not present in the second image, the relative position of the obstacle with respect to the second image is calculated,
When the shooting range reflected in the first image is greater than or equal to the screen of the monitor and the relative position of the obstacle is within the screen, the angle of view of the display range reflected in the second image is A display program for causing a computer to execute processing for widening the angle of view corresponding to the screen.

以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲がその精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図するものである。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずである。したがって、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物に拠ることも可能である。   From the above detailed description, features and advantages of the embodiments will become apparent. This is intended to cover the features and advantages of the embodiments described above without departing from the spirit and scope of the claims. Also, any improvement and modification should be readily conceivable by those having ordinary knowledge in the art. Therefore, there is no intention to limit the scope of the inventive embodiments to those described above, and appropriate modifications and equivalents included in the scope disclosed in the embodiments can be used.

10‥システム;20、20A‥カメラ;22‥サブカメラ;30‥センサ;40‥モニタ;50、50A、50B、50C、50D、50E、50F、50G‥画像処理装置;100、140、140A、142、160‥保持部;110、110A、110B‥生成部;112‥枠描画部;114‥外挿部;120、120A、120B‥判定部;122‥描画判定部;124‥調整部;126‥算出部;130、130A‥抽出部;150、150A、150B‥描画部;CP‥コンピュータ装置;DIS‥リムーバブルディスク;HDD‥ハードディスク装置;IF‥入出力インタフェース;MEM‥メモリ;ODR‥光学ドライブ装置;PU‥プロセッサ   DESCRIPTION OF SYMBOLS 10 ... System; 20, 20A ... Camera; 22 ... Sub-camera; 30 ... Sensor; 40 ... Monitor; 50, 50A, 50B, 50C, 50D, 50E, 50F, 50G ... Image processing apparatus: 100, 140, 140A, 142 110, 110A, 110B, generation unit, 112, frame drawing unit, 114, extrapolation unit, 120, 120A, 120B, determination unit, 122, drawing determination unit, 124, adjustment unit, 126, calculation Part: 130, 130A ... extraction part; 150, 150A, 150B ... drawing part; CP ... computer device; DIS ... removable disk; HDD ... hard disk device; IF ... I / O interface; Processor

Claims (10)

カメラと物体を検知するセンサとからのデータを用いて、画像をモニタに表示する画像処理装置であって、
前記カメラで撮影された第1画像を保持する第1保持部と、
前記第1保持部に保持されている前記第1画像から前記モニタに表示する第2画像を生成する生成部と、
前記センサの検知結果を受け、前記センサにより検知された前記物体である障害物が前記第2画像に存在するか否かを判定し、前記障害物が前記第2画像に存在するとき、前記障害物が前記第2画像の端に存在するか否かを判定する判定部と、
前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出する抽出部と、
前記抽出部で抽出された前記障害物の画像を保持する第2保持部と、
前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定され、かつ、前記障害物の画像が前記第2保持部に保持されているとき、前記モニタに表示する画像に前記障害物の画像を追加する描画部と
を備えていることを特徴とする画像処理装置。
An image processing apparatus that displays an image on a monitor using data from a camera and a sensor that detects an object,
A first holding unit for holding a first image taken by the camera;
A generating unit that generates a second image to be displayed on the monitor from the first image held in the first holding unit;
The detection result of the sensor is received, it is determined whether or not the obstacle that is the object detected by the sensor exists in the second image, and when the obstacle exists in the second image, the obstacle A determination unit for determining whether an object is present at an end of the second image;
An extraction unit that extracts an image of the obstacle from the first image when it is determined that the obstacle exists at an edge of the second image;
A second holding unit that holds an image of the obstacle extracted by the extraction unit;
When it is determined that the obstacle detected by the sensor does not exist in the second image and the image of the obstacle is held in the second holding unit, the image displayed on the monitor An image processing apparatus comprising: a drawing unit that adds an image of an obstacle.
請求項1に記載の画像処理装置において、
前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出するか否かを前記第2画像内の前記障害物の大きさに基づいて判定する第2判定部を備えていることを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
When it is determined that the obstacle is present at the edge of the second image, whether or not the obstacle image is extracted from the first image is determined based on the size of the obstacle in the second image. An image processing apparatus comprising a second determination unit for determining.
請求項1または請求項2に記載の画像処理装置において、
前記カメラの画角が前記第2画像に反映されている表示範囲の画角より大きく、かつ、前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定されたとき、前記表示範囲の画角を広くする調整部を備えていることを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
When it is determined that the angle of view of the camera is larger than the angle of view of the display range reflected in the second image and the obstacle detected by the sensor does not exist in the second image, An image processing apparatus comprising an adjustment unit that widens the angle of view of a display range.
請求項3に記載の画像処理装置において、
前記表示範囲の画角を広くする場合、前記表示範囲の画角を広くする前の前記表示範囲を示す枠を前記表示範囲の画角を広くした前記第2画像内に表示する第2生成部を備えていることを特徴とする画像処理装置。
The image processing apparatus according to claim 3.
When widening the angle of view of the display range, a second generation unit that displays a frame indicating the display range before widening the angle of view of the display range in the second image with the angle of view of the display range widened An image processing apparatus comprising:
請求項1または請求項2に記載の画像処理装置において、
前記第1画像に反映されている撮影範囲は、前記第2画像に反映されている表示範囲より大きく、
前記描画部は、前記センサにより検知されている前記障害物が前記第2画像に存在せず、かつ、前記センサにより検知されている前記障害物が前記第1画像に存在するとき、前記第1画像から前記障害物の画像を抽出し、抽出した前記障害物の画像を前記モニタに表示する前記障害物の画像として使用する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
The shooting range reflected in the first image is larger than the display range reflected in the second image,
When the obstacle detected by the sensor does not exist in the second image and the obstacle detected by the sensor exists in the first image, the drawing unit An image processing apparatus, wherein an image of the obstacle is extracted from an image, and the extracted image of the obstacle is used as an image of the obstacle displayed on the monitor.
請求項1または請求項2に記載の画像処理装置において、
前記カメラとは別のカメラである第2カメラで撮影された第3画像を保持する第3保持部を備え、
前記描画部は、前記センサにより検知されている前記障害物が前記第2画像に存在せず、かつ、前記センサにより検知されている前記障害物が前記第3画像に存在するとき、前記第3画像から前記障害物の画像を抽出し、抽出した前記障害物の画像を前記モニタに表示する前記障害物の画像として使用する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
A third holding unit for holding a third image taken by a second camera which is a camera different from the camera;
When the obstacle detected by the sensor does not exist in the second image and the obstacle detected by the sensor exists in the third image, the drawing unit An image processing apparatus, wherein an image of the obstacle is extracted from an image, and the extracted image of the obstacle is used as an image of the obstacle displayed on the monitor.
請求項1または請求項2に記載の画像処理装置において、
前記センサにより検知されている前記障害物が前記第2画像に存在しないとき、前記第2画像に対する前記障害物の相対的な位置を算出する算出部と、
前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記第2画像および前記障害物の画像のいずれも表示されない領域の画像を、前記第2画像に基づいて生成する外挿部とを備え、
前記描画部は、前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記画面上の前記障害物の相対的な位置に、前記障害物の画像を表示させる
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
A calculation unit that calculates a relative position of the obstacle with respect to the second image when the obstacle detected by the sensor does not exist in the second image;
When the screen of the monitor is larger than the second image and the relative position of the obstacle is within the screen, an image of an area in which neither the second image nor the obstacle image is displayed An extrapolation unit that generates based on two images,
When the screen of the monitor is larger than the second image and the relative position of the obstacle is within the screen, the drawing unit is arranged at the relative position of the obstacle on the screen. An image processing apparatus for displaying an image.
請求項7に記載の画像処理装置において、
前記モニタの画面が前記第2画像より大きく、前記障害物の相対的な位置が前記画面内であるとき、前記画面に表示される前記第2画像の境界に枠を表示する第2生成部を備えていることを特徴とする画像処理装置。
The image processing apparatus according to claim 7.
A second generator for displaying a frame at the boundary of the second image displayed on the screen when the screen of the monitor is larger than the second image and the relative position of the obstacle is within the screen; An image processing apparatus comprising:
カメラ、センサ、画像処理装置およびモニタを備え、
前記画像処理装置は、
前記カメラで撮影された第1画像を保持する第1保持部と、
前記第1保持部に保持されている前記第1画像から前記モニタに表示する第2画像を生成する生成部と、
前記センサの検知結果を受け、前記センサにより検知された前記物体である障害物が前記第2画像に存在するか否かを判定し、前記障害物が前記第2画像に存在するとき、前記障害物が前記第2画像の端に存在するか否かを判定する判定部と、
前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出する抽出部と、
前記抽出部で抽出された前記障害物の画像を保持する第2保持部と、
前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定され、かつ、前記障害物の画像が前記第2保持部に保持されているとき、前記モニタに表示する画像に前記障害物の画像を追加する描画部と
を備えていることを特徴とするシステム。
A camera, a sensor, an image processing device and a monitor;
The image processing apparatus includes:
A first holding unit for holding a first image taken by the camera;
A generating unit that generates a second image to be displayed on the monitor from the first image held in the first holding unit;
The detection result of the sensor is received, it is determined whether or not the obstacle that is the object detected by the sensor exists in the second image, and when the obstacle exists in the second image, the obstacle A determination unit for determining whether an object is present at an end of the second image;
An extraction unit that extracts an image of the obstacle from the first image when it is determined that the obstacle exists at an edge of the second image;
A second holding unit that holds an image of the obstacle extracted by the extraction unit;
When it is determined that the obstacle detected by the sensor does not exist in the second image and the image of the obstacle is held in the second holding unit, the image displayed on the monitor And a drawing unit for adding an image of an obstacle.
カメラと物体を検知するセンサとからのデータを用いて画像をモニタに表示する処理をコンピュータに実行させる表示プログラムであって、
前記カメラで撮影された第1画像を保持し、
前記第1保持部に保持されている前記第1画像から前記モニタに表示する第2画像を生成し、
前記センサの検知結果を受け、前記センサにより検知された前記物体である障害物が前記第2画像に存在するか否かを判定し、前記障害物が前記第2画像に存在するとき、前記障害物が前記第2画像の端に存在するか否かを判定し、
前記障害物が前記第2画像の端に存在すると判定されたとき、前記障害物の画像を前記第1画像から抽出し、
前記抽出部で抽出された前記障害物の画像を保持し、
前記センサにより検知されている前記障害物が前記第2画像に存在しないと判定され、かつ、前記障害物の画像が前記第2保持部に保持されているとき、前記モニタに表示する画像に前記障害物の画像を追加する
処理をコンピュータに実行させることを特徴とする表示プログラム。
A display program for causing a computer to execute a process of displaying an image on a monitor using data from a camera and a sensor for detecting an object,
Holding a first image taken by the camera;
Generating a second image to be displayed on the monitor from the first image held in the first holding unit;
The detection result of the sensor is received, it is determined whether or not the obstacle that is the object detected by the sensor exists in the second image, and when the obstacle exists in the second image, the obstacle Determining whether an object is present at the edge of the second image;
When it is determined that the obstacle is present at the edge of the second image, the obstacle image is extracted from the first image;
Holding the image of the obstacle extracted by the extraction unit;
When it is determined that the obstacle detected by the sensor does not exist in the second image and the image of the obstacle is held in the second holding unit, the image displayed on the monitor A display program for causing a computer to execute processing for adding an image of an obstacle.
JP2013190600A 2013-09-13 2013-09-13 Image processing apparatus, system, and display program Expired - Fee Related JP6194713B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013190600A JP6194713B2 (en) 2013-09-13 2013-09-13 Image processing apparatus, system, and display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013190600A JP6194713B2 (en) 2013-09-13 2013-09-13 Image processing apparatus, system, and display program

Publications (2)

Publication Number Publication Date
JP2015056851A true JP2015056851A (en) 2015-03-23
JP6194713B2 JP6194713B2 (en) 2017-09-13

Family

ID=52820899

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013190600A Expired - Fee Related JP6194713B2 (en) 2013-09-13 2013-09-13 Image processing apparatus, system, and display program

Country Status (1)

Country Link
JP (1) JP6194713B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017169706A1 (en) * 2016-03-30 2017-10-05 マツダ株式会社 Electronic mirror control device
JP2019134371A (en) * 2018-02-01 2019-08-08 アルパイン株式会社 Perimeter monitoring system
JP2020182122A (en) * 2019-04-25 2020-11-05 トヨタ自動車株式会社 Event camera

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010130646A (en) * 2008-12-01 2010-06-10 Aisin Seiki Co Ltd Vehicle periphery checking system
JP2012066615A (en) * 2010-09-21 2012-04-05 Aisin Seiki Co Ltd Driving support system
JP2013005233A (en) * 2011-06-16 2013-01-07 Aisin Seiki Co Ltd Vehicle periphery monitoring device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010130646A (en) * 2008-12-01 2010-06-10 Aisin Seiki Co Ltd Vehicle periphery checking system
JP2012066615A (en) * 2010-09-21 2012-04-05 Aisin Seiki Co Ltd Driving support system
JP2013005233A (en) * 2011-06-16 2013-01-07 Aisin Seiki Co Ltd Vehicle periphery monitoring device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017169706A1 (en) * 2016-03-30 2017-10-05 マツダ株式会社 Electronic mirror control device
JP2017183974A (en) * 2016-03-30 2017-10-05 マツダ株式会社 Electronic mirror control device
US10596969B2 (en) 2016-03-30 2020-03-24 Mazda Motor Corporation Electronic mirror control device
JP2019134371A (en) * 2018-02-01 2019-08-08 アルパイン株式会社 Perimeter monitoring system
JP7055555B2 (en) 2018-02-01 2022-04-18 アルパイン株式会社 Peripheral monitoring system
JP2020182122A (en) * 2019-04-25 2020-11-05 トヨタ自動車株式会社 Event camera
JP7298277B2 (en) 2019-04-25 2023-06-27 トヨタ自動車株式会社 event camera

Also Published As

Publication number Publication date
JP6194713B2 (en) 2017-09-13

Similar Documents

Publication Publication Date Title
EP3160138B1 (en) Image synthesis system, image synthesis device therefor, and image synthesis method
JP5222597B2 (en) Image processing apparatus and method, driving support system, and vehicle
US7728879B2 (en) Image processor and visual field support device
KR101811157B1 (en) Bowl-shaped imaging system
EP2482557B1 (en) Driving support display device
JPWO2010137265A1 (en) Vehicle perimeter monitoring device
US9902341B2 (en) Image processing apparatus and image processing method including area setting and perspective conversion
KR101705558B1 (en) Top view creating method for camera installed on vehicle and AVM system
JP6194713B2 (en) Image processing apparatus, system, and display program
WO2016092967A1 (en) Image generation device and image generation method
US20230283898A1 (en) Image processing device, image processing method and non-transitory computer-readable recording medium
US11827148B2 (en) Display control device, display control method, moving body, and storage medium
CN112351242A (en) Image processing apparatus and image processing method
US20230232103A1 (en) Image processing device, image display system, method, and program
CN117774833A (en) Method for installing movable equipment and camera device
JP6293089B2 (en) Rear monitor
JP6032141B2 (en) Travel road marking detection device and travel road marking detection method
JP6999239B2 (en) Image processing device and image processing method
JP6187322B2 (en) Image display device and image display system
EP3896387A1 (en) Image processing device
JP5833887B2 (en) Own vehicle movement estimation method and own vehicle movement estimation program
US20230217108A1 (en) Image processing device, image processing method and non-transitory computer-readable recording medium
TWI834301B (en) Vehicle surrounding image display method
KR101762117B1 (en) Top view creating method for camera installed on vehicle and AVM system
JP2024007203A (en) Camera system and control method thereof, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170731

R150 Certificate of patent or registration of utility model

Ref document number: 6194713

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees