JP2005236540A - On-vehicle camera device - Google Patents

On-vehicle camera device Download PDF

Info

Publication number
JP2005236540A
JP2005236540A JP2004041579A JP2004041579A JP2005236540A JP 2005236540 A JP2005236540 A JP 2005236540A JP 2004041579 A JP2004041579 A JP 2004041579A JP 2004041579 A JP2004041579 A JP 2004041579A JP 2005236540 A JP2005236540 A JP 2005236540A
Authority
JP
Japan
Prior art keywords
obstacle
vehicle
predicted
trajectory
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004041579A
Other languages
Japanese (ja)
Inventor
Tatsuto Nagarego
達人 流郷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004041579A priority Critical patent/JP2005236540A/en
Publication of JP2005236540A publication Critical patent/JP2005236540A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To display a predicted track which can properly impart a driver the feeling of the distance to an obstacle in the predicted track and is free of the feeling of physical disorder by an on-vehicle camera device which displays superimposes the predicted track calculated, corresponding to the steering angle of a vehicle on a picture of a part behind a vehicle imaged by an on-vehicle camera on a monitor. <P>SOLUTION: When there is the obstacle in the predicted track in a camera image, superimposed on the monitor and the obstacle and predicted tack are displayed merely one over the other, it is not clear which of the obstacle and predicted track is located in front or in back, so predicted track display of a part overlapping with the obstacle is displayed discriminatedly from predicted track display of a part which does not overlap with the obstacle. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、車両に搭載したカメラで撮影した車両後方の映像を車室内に取り付けたモニタ上に表示して、車両を後退させる際の安全を確認する車載カメラ装置に関する。   The present invention relates to an in-vehicle camera device that displays an image of a rear side of a vehicle photographed by a camera mounted on a vehicle on a monitor attached in a vehicle interior and confirms safety when the vehicle is moved backward.

従来、この種の車載カメラ装置として、車両のシフトレバーを「後退」に入れると、カメラが撮像した車両後方の映像をモニタ上に表示するとともに、そのカメラ映像と予めその駐車位置を撮像した映像とを比較して障害物を検出して運転者に警告するとともに、車両の舵角センサにより検出したハンドルの切れ角から求めた予想後退進路内の物体内のみを障害物とし、その障害物をモニタ画面の映像中に矩形として表示する装置が知られている(例えば、特許文献1参照)。   Conventionally, as this type of in-vehicle camera device, when the vehicle shift lever is put in “reverse”, the rear image captured by the camera is displayed on the monitor, and the camera image and the image of the parking position in advance are displayed. The obstacle is detected and the driver is warned, and only the object in the predicted backward path obtained from the steering angle detected by the steering angle sensor of the vehicle is regarded as an obstacle. An apparatus for displaying a rectangle in a video on a monitor screen is known (for example, see Patent Document 1).

また、自車両前方または後方の障害物の検出および自車両からその障害物までの距離を検出する技術として、2台のカメラを使用し、そのステレオ画像を用いて三角測量の原理で障害物までの距離を検出したり、光や電波を用いて障害物に当って反射するその反射光の輝度を求めたり、反射波が戻ってくるまでの時間を求めることにより、障害物までの距離を測定する技術が知られている(例えば、特許文献2参照)。
特開2000−177513号公報 特開2000−329852号公報
In addition, as a technique for detecting obstacles in front of or behind the host vehicle and detecting the distance from the host vehicle to the obstacle, two cameras are used, and the stereo image is used to reach the obstacle using the principle of triangulation. Measure the distance to an obstacle by detecting the distance of the object, determining the brightness of the reflected light that hits and reflects the obstacle using light or radio waves, and determining the time it takes for the reflected wave to return The technique which performs is known (for example, refer patent document 2).
JP 2000-177513 A JP 2000-329852 A

しかしながら、上記従来の車載カメラ装置では、カメラで撮像したカメラ映像に車両の予想軌跡を重ねて表示する際に、障害物が予想軌跡内に存在している場合は、予想軌跡が障害物とは無関係に表示されるため、障害物と予想軌跡とが重なって表示され、障害物が予想軌跡の前方にあるのか後方にあるのか距離感が取りづらく、見た目にも違和感があるという問題があった。   However, in the above-described conventional in-vehicle camera device, when an obstacle is present in the expected trajectory when the predicted trajectory of the vehicle is superimposed on the camera image captured by the camera, the expected trajectory is an obstacle. Because it is displayed independently, the obstacle and the expected trajectory are displayed overlapping each other, it is difficult to get a sense of distance whether the obstacle is in front or behind the expected trajectory, and there is a problem that the appearance is also strange .

本発明は、このような従来の問題を解決するためになされたもので、運転者に予想軌跡内における車両後方の障害物までの距離感を適正に与えることができ、違和感のない予想軌跡を表示することのできる車載カメラ装置を提供することを目的とする。   The present invention has been made to solve such a conventional problem, and can appropriately give the driver a sense of distance to the obstacle behind the vehicle in the expected trajectory, and provide an expected trajectory without any sense of incongruity. It is an object of the present invention to provide an in-vehicle camera device capable of displaying.

本発明の車載カメラ装置は、 車載カメラにより撮像した車両後方の映像に車両の舵角に応じて算出された予想軌跡を重ねてモニタ上に表示する車載カメラ装置において、前記予想軌跡内に障害物が存在する場合に、前記障害物と重なる前記予想軌跡の部分を前記障害物と重ならない部分と区別して表示することを特徴とするものである。   The in-vehicle camera device according to the present invention is an in-vehicle camera device that displays on a monitor a predicted trajectory calculated according to the steering angle of a vehicle on a rear image captured by the in-vehicle camera, and displays an obstacle in the expected trajectory. In the case where the obstacle exists, the portion of the predicted locus that overlaps the obstacle is displayed separately from the portion that does not overlap the obstacle.

この構成により、予想軌跡内に障害物が存在する場合には、予想軌跡の図形を障害物に重なる部分を重ならない部分と区別して表示することで、運転者に予想軌跡内における車両後方の障害物までの距離感を適正に与えることができ、違和感のない予想軌跡を表示することができる。   With this configuration, when there is an obstacle in the expected trajectory, the figure of the expected trajectory is displayed by distinguishing the part that overlaps the obstacle from the part that does not overlap. A sense of distance to an object can be given appropriately, and an expected trajectory without a sense of incongruity can be displayed.

また、本発明の車載カメラ装置は、前記障害物と重なる前記予想軌跡の部分を消去して表示することを特徴とする。この構成により、障害物と重なる予想軌跡の部分は消去して表示されるので、障害物と重ならない部分と重なる部分との区別が明確につき、運転者に予想軌跡における車両後方の障害物までの距離感を適正に与えることができ、違和感のない予想軌跡を表示することができる。   Further, the in-vehicle camera device of the present invention is characterized in that the portion of the predicted trajectory that overlaps the obstacle is deleted and displayed. With this configuration, the part of the predicted trajectory that overlaps the obstacle is erased and displayed, so the distinction between the part that does not overlap the obstacle and the overlapping part is clear, and the driver can see the obstacles behind the vehicle in the expected trajectory. A sense of distance can be given appropriately and an expected trajectory without a sense of incongruity can be displayed.

また、本発明の車載カメラ装置は、前記障害物と重なる前記予想軌跡の部分を重ならない部分とは異なる立面で表示することを特徴とする。この構成により、障害物と重なる予想軌跡の部分は、あたかも影が投影されているように障害物の面に沿って表示されるので、障害物と重ならない部分と重なる部分との区別が明確につき、運転者に予想軌跡における車両後方の障害物までの距離感を適正に与えることができ、違和感のない予想軌跡を表示することができる。   Moreover, the vehicle-mounted camera apparatus of this invention displays the part of the said estimated locus | trajectory which overlaps with the said obstacle on the elevation different from the part which does not overlap. With this configuration, the portion of the predicted trajectory that overlaps the obstacle is displayed along the surface of the obstacle as if a shadow is projected, so the distinction between the portion that does not overlap the obstacle and the portion that overlaps is clear. Thus, it is possible to appropriately give the driver a sense of distance to the obstacle behind the vehicle in the expected trajectory, and it is possible to display the expected trajectory without any sense of incongruity.

また、本発明の車載カメラ装置は、前記障害物と重なる前記予想軌跡の部分を重ならない部分とは異なる線で表示することを特徴とする。この構成により、障害物と重なる予想軌跡の部分は、破線、鎖線、波線のような実線以外の線で表示されるので、障害物と重ならない部分と重なる部分との区別が明確につき、運転者に予想軌跡における車両後方の障害物までの距離感を適正に与えることができ、違和感のない予想軌跡を表示することができる。   Moreover, the vehicle-mounted camera apparatus of this invention displays the part of the said prediction locus which overlaps with the said obstacle with a different line from the part which does not overlap. With this configuration, the portion of the predicted trajectory that overlaps the obstacle is displayed with a line other than a solid line such as a broken line, a chain line, or a wavy line, so the driver can clearly distinguish between the portion that does not overlap the obstacle and the overlapping portion. Thus, it is possible to appropriately give a sense of distance to the obstacle behind the vehicle in the expected trajectory, and to display an expected trajectory without a sense of incongruity.

また、本発明の車載カメラ装置は、前記予想軌跡の前記障害物と重ならない部分を重なる部分とは異なる色で表示することを特徴とする。この構成により、障害物と重なる予想軌跡の部分は、重ならない部分の色とは異なる色で表示されるので、障害物と重ならない部分と重なる部分との区別が明確につき、運転者に予想軌跡における車両後方の障害物までの距離感を適正に与えることができ、違和感のない予想軌跡を表示することができる。   Moreover, the vehicle-mounted camera apparatus of this invention displays the part which does not overlap with the said obstruction | occlusion of the said prediction locus | trajectory by a color different from the overlapping part. With this configuration, the part of the predicted trajectory that overlaps the obstacle is displayed in a color different from the color of the part that does not overlap, so the distinction between the part that does not overlap the obstacle and the part that overlaps is clear, and the expected trajectory is shown to the driver. It is possible to appropriately give a sense of distance to an obstacle behind the vehicle at and to display an expected trajectory without any sense of incongruity.

また、本発明の車載カメラ装置は、前記舵角がゼロでない場合の曲線予想軌跡と前記舵角がゼロの場合の直線予想軌跡とを重ね合わせて表示することを特徴とする。この構成により、運転者がハンドルを直進方向に戻したときの後退方向の予想軌跡と車幅とを確認することができる。   The on-vehicle camera device according to the present invention is characterized in that the predicted curve when the rudder angle is not zero and the predicted straight line when the rudder angle is zero are displayed in a superimposed manner. With this configuration, the expected trajectory in the reverse direction and the vehicle width when the driver returns the steering wheel to the straight direction can be confirmed.

また、本発明の車載カメラ装置は、車両の後部に搭載されて車両後方を撮像する車載カメラと、前記車載カメラの映像を表示するモニタと、前記車両の後部に搭載されて車両後方の障害物を検出する障害物検出手段と、前記車両後部から前記障害物までの距離を計測する距離計測手段と、前記車両の舵角を検出する舵角検出手段と、前記舵角に対応する車両後方の予想軌跡を算出する予想軌跡算出手段と、前記算出された予想軌跡を作図する作図手段と、前記作図された予想軌跡を前記車載カメラの映像に重ねて前記モニタ上に表示するための画像を合成する画像合成手段と、前記算出された予想軌跡内に前記障害物が存在するかおよび予想軌跡のどの部分が障害物と重なるかを判定する障害物判定手段と、前記算出された予想軌跡内に前記検出された障害物が存在すると判定された場合に、前記障害物と重なる前記予想軌跡の部分を前記障害物と重ならない部分と区別して作図するように前記作図手段に指示する作図制御手段とを備えた構成を有する。   The in-vehicle camera device of the present invention includes an in-vehicle camera that is mounted at the rear of the vehicle and images the rear of the vehicle, a monitor that displays an image of the in-vehicle camera, and an obstacle that is mounted at the rear of the vehicle and is behind the vehicle. Obstacle detecting means for detecting the distance, distance measuring means for measuring the distance from the rear of the vehicle to the obstacle, rudder angle detecting means for detecting the rudder angle of the vehicle, and the rear of the vehicle corresponding to the rudder angle An expected trajectory calculating means for calculating an expected trajectory, a plotting means for plotting the calculated expected trajectory, and an image for displaying the plotted expected trajectory on the image of the in-vehicle camera on the monitor. Image synthesizing means, obstacle determining means for determining whether the obstacle exists in the calculated expected trajectory and which part of the expected trajectory overlaps the obstacle, and in the calculated expected trajectory Said Drawing control means for instructing the drawing means to draw a portion of the predicted locus overlapping with the obstacle separately from a portion not overlapping with the obstacle when it is determined that there is an obstacle that has been issued; It has the composition provided.

この構成により、車載カメラで撮像した車両後方のカメラ映像をモニタ上に表示するとともに、車両の舵角に応じた車両後方の予想軌跡を作図してモニタ上のカメラ映像に重ねて表示し、さらに、予想軌跡内に障害物が存在する場合には、予想軌跡の図形を障害物に重なる部分を重ならない部分と区別して作図することで、運転者に予想軌跡内における車両後方の障害物までの距離感を適正に与えることができ、違和感のない予想軌跡を表示することができる。   With this configuration, the camera image of the rear of the vehicle imaged by the in-vehicle camera is displayed on the monitor, the predicted trajectory of the rear of the vehicle according to the steering angle of the vehicle is drawn and displayed superimposed on the camera image on the monitor, If there is an obstacle in the expected trajectory, the figure of the expected trajectory is drawn by distinguishing the part that overlaps the obstacle from the part that does not overlap. A sense of distance can be given appropriately and an expected trajectory without a sense of incongruity can be displayed.

本発明は、モニタに重ねて表示されたカメラ映像上の予想軌跡内に障害物が存在する場合には、障害物と重なっている部分の予想軌跡表示を、障害物と重なっていない部分の予想軌跡表示とは区別して表示するので、運転者に予想軌跡における車両後方の障害物までの距離感を適正に与えることができ、違和感のない予想軌跡を表示できるという効果を有する車載カメラ装置を提供することができる。   In the present invention, when an obstacle exists in the expected trajectory on the camera image displayed superimposed on the monitor, the expected trajectory display of the portion overlapping the obstacle is displayed. Providing a vehicle-mounted camera device that has the effect of being able to properly give the driver a sense of distance to the obstacles behind the vehicle in the expected trajectory and display the expected trajectory without any sense of incongruity because it is displayed separately from the trajectory display can do.

以下、本発明の実施の形態における車載カメラ装置について、図面を用いて説明する。   Hereinafter, an in-vehicle camera device according to an embodiment of the present invention will be described with reference to the drawings.

(実施の形態1)
図1は本発明の第1の実施の形態における車載カメラ装置の配置状態を示している。図1において、車載カメラ1は、車両の後部中央に後方に向けて設置され、自車両のリヤバンパの一部が映るように車両の後方を撮像する。モニタ2は、車載カメラ1により撮像された映像を表示するもので、車両内のダッシュボード上に設置されている。舵角センサ3は、車両のハンドル操作角を検出する舵角検出手段であり、ハンドル(ステアリングホイール)を支持するステアリングシャフト等に取り付けられている。超音波センサ4は、車両のリヤバンパの両側に真っ直ぐ後方に向けて設置された障害物検出手段であり、検出精度を高めるために同じものが2つ備えられている。超音波センサ4は、送信部から発信した超音波が障害物に当てって反射し、その反射波を受信部で受信し、送信から受信までの時間を計測することで障害物までの距離を計測することができる。この超音波センサ4に代えて、赤外線センサやレーザレーダなどの光を用いて、障害物に当った光の反射強度を測定することで障害物までの距離を測定する装置を用いてもよい。
(Embodiment 1)
FIG. 1 shows an arrangement state of the in-vehicle camera device according to the first embodiment of the present invention. In FIG. 1, the in-vehicle camera 1 is installed in the rear center of the vehicle so as to face the rear, and images the rear of the vehicle so that a part of the rear bumper of the host vehicle is reflected. The monitor 2 displays an image captured by the in-vehicle camera 1 and is installed on a dashboard in the vehicle. The steering angle sensor 3 is a steering angle detection means for detecting the steering angle of the vehicle, and is attached to a steering shaft or the like that supports a steering wheel (steering wheel). The ultrasonic sensors 4 are obstacle detection means installed on both sides of the rear bumper of the vehicle so as to face straight back, and the same two sensors are provided to increase detection accuracy. The ultrasonic sensor 4 reflects the ultrasonic wave transmitted from the transmission unit against the obstacle, receives the reflected wave at the reception unit, and measures the time from transmission to reception to determine the distance to the obstacle. It can be measured. Instead of the ultrasonic sensor 4, a device such as an infrared sensor or a laser radar may be used to measure the distance to the obstacle by measuring the reflection intensity of the light hitting the obstacle.

図2は本実施の形態1における車載カメラ装置の構成を示している。図2において、車載カメラ1は、CCDまたはCMOS撮像素子等で構成され、撮像された映像信号は、同軸ケーブルを通して画像データ送出部5に送られる。画像データ送出部5は、車載カメラ1の映像信号を画像データに変換して送出するもので、車載カメラ1の映像信号をデジタル信号に変換するA/D変換部6と、A/D変換された画像データを蓄積するフレームメモリ7と、フレームメモリ7に対する画像データの蓄積および送出を制御するフレームメモリ制御部8とを備えている。カメラ制御部9は、車載カメラ1の撮影条件を制御するもので、システム制御部10により制御される。システム制御部10は、運転者が操作部11から入力される命令、舵角検出手段である舵角センサ3から出力される舵角信号、および障害物検出手段である超音波センサ4の検出信号に基づいて各部を制御するものであり、自車両後部から検出された障害物までの距離を計測する距離計測部10aと、舵角センサ3が検出した舵角に対応する車両後方の予想軌跡を算出する予想軌跡算出部10bと、算出した予想軌跡内に障害物が存在するか、および予想軌跡のどの部分が障害物と重なるかを判定する障害物判定部10c等を備えている。キャラクタジェネレータ制御部12は作図制御手段であり、作図手段であるキャラクタジェネレータ13から発生させる図形データを制御する。画像処理部14は、画像データ送出部5のフレームメモリ7から読み出した画像データの解析、編集、合成等の処理を行う。メモリ15は、画像処理部14における画像処理の作業領域として画像データを一時的に記憶するメモリである。D/A変換部17は、画像処理部14で処理された画像データをアナログ信号に変換する。画像合成部16は、D/A変換部17の出力と、キャラクタジェネレータ13からの図形データとを重ね合わせてその映像をモニタ2に表示する。   FIG. 2 shows the configuration of the in-vehicle camera device according to the first embodiment. In FIG. 2, the in-vehicle camera 1 is constituted by a CCD or CMOS image sensor or the like, and the imaged video signal is sent to the image data sending unit 5 through a coaxial cable. The image data sending unit 5 converts the video signal of the in-vehicle camera 1 into image data and sends it out. The A / D conversion unit 6 converts the video signal of the in-vehicle camera 1 into a digital signal, and is A / D converted. A frame memory 7 for storing the image data, and a frame memory control unit 8 for controlling the storage and transmission of the image data to and from the frame memory 7. The camera control unit 9 controls the shooting conditions of the in-vehicle camera 1 and is controlled by the system control unit 10. The system control unit 10 includes a command input from the operation unit 11 by the driver, a steering angle signal output from the steering angle sensor 3 that is a steering angle detection unit, and a detection signal of the ultrasonic sensor 4 that is an obstacle detection unit. And a distance measuring unit 10a that measures the distance from the rear part of the host vehicle to the detected obstacle, and an expected trajectory behind the vehicle corresponding to the rudder angle detected by the rudder angle sensor 3. An expected trajectory calculation unit 10b to be calculated, an obstacle determination unit 10c that determines whether an obstacle exists in the calculated expected trajectory, and which part of the expected trajectory overlaps the obstacle, and the like are provided. The character generator control unit 12 is a drawing control means, and controls graphic data generated from the character generator 13 which is a drawing means. The image processing unit 14 performs processing such as analysis, editing, and composition of image data read from the frame memory 7 of the image data sending unit 5. The memory 15 is a memory that temporarily stores image data as a work area for image processing in the image processing unit 14. The D / A conversion unit 17 converts the image data processed by the image processing unit 14 into an analog signal. The image composition unit 16 superimposes the output of the D / A conversion unit 17 and the graphic data from the character generator 13 and displays the video on the monitor 2.

なお、車載カメラ1自体の映像信号の出力には、NTSC、PAL等の規格に準拠したもの、またはVGA方式などによるものがある。また、それぞれの規格に対し、R・G・B出力、Y・U・V出力、コンボジット出力などがあり、さらにデジタル出力がある。デジタル出力の場合は、画像データ送出部5におけるA/D変換部6は不要となる。   Note that the video signal output of the in-vehicle camera 1 itself may be based on standards such as NTSC and PAL, or may be based on the VGA method. For each standard, there are R / G / B output, Y / U / V output, and composite output, and also digital output. In the case of digital output, the A / D conversion unit 6 in the image data transmission unit 5 is not necessary.

以上のように構成された車載カメラ装置について以下その動作を説明する。システム制御部10には、舵角センサ3により検出される舵角信号や、障害物を検出する超音波センサ4の測定データが入力される。システム制御部10は、これらの情報または操作部11から入力する運転者の指示に基づいて、画像データ送出部5のフレームメモリ制御部8を制御し、車載カメラ1の画像データをフレームメモリ7から画像処理部14に出力させ、また画像処理部14における画像処理の仕方を制御する。画象処理部14は、システム制御部10からの制御信号に基づいて、車載カメラ1から入力する画像データを解析し、画像データを編集し、合成する。システム制御部10は、舵角センサ3によって得られた舵角情報から予想軌跡算出部10bが予想軌跡を算出し、超音波センサ4によって得られた障害物検出情報および距離計測部10aによって得られた障害物までの距離情報とを基に、障害物判定部10cが、算出された予想軌跡内に障害物が存在するか、および予想軌跡のどの部分が障害物と重なるかを判定し、その判定結果に基づいてキャラクタジェネレータ制御部12を制御して、画像処理部14で処理された画像に重畳する予想軌跡の図形をキャラクタジェネレータ13から出力させる。画像合成部16は、D/A変換部17でアナログ変換された画像処理部14からの画像データと、キャラクタジェネレータ13から出力された予想軌跡の図形データとを重畳し、その重畳された画像をモニタ2に表示する。   The operation of the on-vehicle camera device configured as described above will be described below. The system control unit 10 receives a steering angle signal detected by the steering angle sensor 3 and measurement data of the ultrasonic sensor 4 that detects an obstacle. The system control unit 10 controls the frame memory control unit 8 of the image data sending unit 5 based on this information or the driver's instruction input from the operation unit 11, and the image data of the in-vehicle camera 1 is transferred from the frame memory 7. The image processing unit 14 outputs the image and controls the image processing method in the image processing unit 14. The image processing unit 14 analyzes the image data input from the in-vehicle camera 1 based on the control signal from the system control unit 10, edits and synthesizes the image data. In the system control unit 10, the expected trajectory calculation unit 10 b calculates an expected trajectory from the rudder angle information obtained by the rudder angle sensor 3, and is obtained by the obstacle detection information and distance measurement unit 10 a obtained by the ultrasonic sensor 4. Based on the distance information to the obstacle, the obstacle determination unit 10c determines whether there is an obstacle in the calculated predicted trajectory and which part of the predicted trajectory overlaps the obstacle, Based on the determination result, the character generator control unit 12 is controlled to output from the character generator 13 a figure of an expected trajectory to be superimposed on the image processed by the image processing unit 14. The image synthesizing unit 16 superimposes the image data from the image processing unit 14 analog-converted by the D / A conversion unit 17 and the graphic data of the predicted trajectory output from the character generator 13, and the superimposed image is displayed. Display on the monitor 2.

次に、モニタ2に表示する予想軌跡について図3を用いて説明する。従来の軌跡表示は、図3(a)に示すように、自車両の後方に障害物21(ここでは自動車)が存在してもそれを考慮することなく、直線予想軌跡22が路面上に沿って自車両のリヤバンパ23とともに表示されるため、直線予想軌跡22が障害物21と重なって表示される。このため、予想軌跡が障害物の前方にあるのか、後方にあるのか分からない。これに対し、本実施の形態1においては、超音波センサ4で自車両の後部から障害物21までの距離を測定することにより、直線予想軌跡22と障害物21までの距離との関係が分かり、直線予想軌跡22のどの部分が障害物21と重なるかが分かるので、図3(b)のように、障害物21と重なる部分の直線予想軌跡22の部分を消去して表示する。直線予想軌跡22の中間線22aはリヤバンパ23からの距離の目安を示し、最終線22bは停止位置を示している。または、図3(c)のように、直線予想軌跡22の障害物21に重なる部分については、重ならない部分と明確に区別できるように、平面表示でなく立ち上がった立面表示で表示するか、または図3(d)のように、障害物21と重ならない部分とは異なる線で表示する。ここでは破線で表示しているが、細線、鎖線、波線等でもよい。なお、直線予想軌跡22の障害物21に重なる部分の色を、重ならない部分の色とは異なる色で表示してもよい。この場合には、必ずしも図3(c)、図3(d)のような表示ではなく、重なる部分と重ならない部分とを同じ実線を用いて表示してもよい。   Next, the expected trajectory displayed on the monitor 2 will be described with reference to FIG. As shown in FIG. 3 (a), the conventional trajectory display shows that the predicted straight trajectory 22 follows the road surface without taking into account the presence of an obstacle 21 (in this case, an automobile) behind the host vehicle. Since the vehicle is displayed together with the rear bumper 23 of the host vehicle, the straight line predicted locus 22 is displayed so as to overlap the obstacle 21. For this reason, it is not known whether the expected trajectory is in front of or behind the obstacle. On the other hand, in the first embodiment, by measuring the distance from the rear part of the host vehicle to the obstacle 21 with the ultrasonic sensor 4, the relationship between the straight line predicted locus 22 and the distance to the obstacle 21 can be understood. Since it can be known which part of the predicted linear trajectory 22 overlaps the obstacle 21, the part of the predicted linear trajectory 22 that overlaps the obstacle 21 is deleted and displayed as shown in FIG. An intermediate line 22a of the straight line predicted locus 22 indicates a standard of distance from the rear bumper 23, and a final line 22b indicates a stop position. Alternatively, as shown in FIG. 3C, the portion of the straight line predicted trajectory 22 that overlaps the obstacle 21 is displayed in a standing elevation display instead of a flat display so that it can be clearly distinguished from a non-overlapping portion. Alternatively, as shown in FIG. 3D, the line is displayed with a line different from the part that does not overlap the obstacle 21. Although shown here as a broken line, it may be a thin line, a chain line, a wavy line, or the like. Note that the color of the part of the straight line predicted trajectory 22 that overlaps the obstacle 21 may be displayed in a color different from the color of the part that does not overlap. In this case, the display is not necessarily as shown in FIGS. 3C and 3D, and the overlapping portion and the non-overlapping portion may be displayed using the same solid line.

次に、予想軌跡が直線でなく曲線の場合について図4を用いて説明する。舵角センサ3によりハンドルが操作されたことを検出すると、その舵角信号がシステム制御部10に入力される。システム制御部10の予想軌跡算出部10bでは、舵角信号を基に操舵角を考慮した曲線予想軌跡を算出する。そして、この曲線予想軌跡も上記と同様に、距離計測10aで計測した障害物までの距離を基に、障害物判定部10cが、算出された予想軌跡内に障害物が存在するか、および予想軌跡のどの部分が障害物と重なるかを判定し、その判定結果に基づいてキャラクタジェネレータ制御部12を制御して、画像処理部14で処理された画像に重畳する予想軌跡の図形をキャラクタジェネレータ13から出力させ、モニタ2にカメラ映像に重畳して表示させる。曲線予想軌跡24の表示は、障害物21と重なる部分を図4(a)のように消去して表示するか、または重なる部分については、重ならない部分と区別して図4(b)のように立面表示とするか、または図4(c)のように重ならない部分とは異なる線で表示される。   Next, the case where the predicted locus is not a straight line but a curve will be described with reference to FIG. When it is detected that the steering wheel is operated by the steering angle sensor 3, the steering angle signal is input to the system control unit 10. The predicted trajectory calculation unit 10b of the system control unit 10 calculates a predicted curve of the curve considering the steering angle based on the steering angle signal. Similarly to the above, the predicted curve of the curve is also based on the distance to the obstacle measured by the distance measurement 10a, and the obstacle determination unit 10c predicts whether there is an obstacle in the calculated predicted locus. It is determined which part of the trajectory overlaps the obstacle, and the character generator control unit 12 is controlled based on the determination result, so that the character generator 13 generates a figure of the expected trajectory to be superimposed on the image processed by the image processing unit 14. And is displayed on the monitor 2 so as to be superimposed on the camera video. As for the display of the predicted curve 24, the part overlapping the obstacle 21 is displayed as shown in FIG. 4A, or the overlapping part is distinguished from the non-overlapping part as shown in FIG. 4B. It is set as an elevation display, or is displayed with a line different from a non-overlapping portion as shown in FIG.

また、図5に示すように、このような曲線予想軌跡24の表示とともに、操舵角がゼロのとき、すなわち直進後退するときの直進予想軌跡22も重ねて表示することにより、運転者が自車両の真後ろの障害物との関係および自車両の幅をより明確に把握することができる。   Further, as shown in FIG. 5, along with the display of the predicted curve path 24 as described above, the driver also displays the predicted straight path 22 when the steering angle is zero, that is, when going straight forward, so that the driver can It is possible to grasp the relationship with the obstacle directly behind the vehicle and the width of the own vehicle more clearly.

このように、本実施の形態1の車載カメラ装置によれば、車載カメラ1で撮像した車両後方のカメラ映像をモニタ2上に表示するとともに、舵角センサ3によって得られた舵角情報からシステム制御部10の予想軌跡算出部10bが予想軌跡を算出し、超音波センサ4によって得られた障害物検出情報およびシステム制御部10の距離計測部10aによって得られた障害物までの距離情報とを基に、システム制御部10の障害物判定部10cが、算出された予想軌跡内に障害物が存在するか、および予想軌跡のどの部分が障害物と重なるかを判定し、その判定結果に基づいてキャラクタジェネレータ制御部12を制御し、画像処理部14で処理されたカメラ映像に重畳する予想軌跡の図形をキャラクタジェネレータ13から出力させてモニタ2上に表示するので、運転者に予想軌跡内における車両後方の障害物までの距離感を適正に与えることができるとともに、違和感のない予想軌跡を表示することができる。   As described above, according to the vehicle-mounted camera device of the first embodiment, the camera image of the rear of the vehicle imaged by the vehicle-mounted camera 1 is displayed on the monitor 2 and the system is based on the steering angle information obtained by the steering angle sensor 3. The expected trajectory calculation unit 10b of the control unit 10 calculates the expected trajectory, and the obstacle detection information obtained by the ultrasonic sensor 4 and the distance information to the obstacle obtained by the distance measurement unit 10a of the system control unit 10 are obtained. Based on the determination result, the obstacle determination unit 10c of the system control unit 10 determines whether there is an obstacle in the calculated predicted trajectory and which part of the predicted trajectory overlaps the obstacle. The character generator control unit 12 is controlled, and a graphic of an expected trajectory superimposed on the camera image processed by the image processing unit 14 is output from the character generator 13 and monitored. Since display above it is possible to provide the proper sense of distance to the vehicle behind the obstacle in the predicted locus on the driver, it is possible to display the estimated locus without discomfort.

(実施の形態2)
次に、本発明の第2の実施の形態について説明する。本実施の形態2における車載カメラ装置は、図6に示すように、車両後方の障害物までの距離を測定するために、光軸を平行にした2台の車載カメラ20a、20bからなるステレオカメラ20を用いたものであり、これにより、実施の形態1における超音波センサ4が不用となる。ステレオカメラ20は、車両の後部中央に所定の間隔を空けて、自車両のリヤバンパの一部が映るように設置されている。ステレオカメラ20による距離測定は、前記した特許文献2に詳しく記載されているので、ここでは省略する。本実施の形態2における基本的な構成は実施の形態1と同様であるので、実施の形態1と同様な構成要素には同様な符号を付して構成についての重複した説明は省略する。
(Embodiment 2)
Next, a second embodiment of the present invention will be described. As shown in FIG. 6, the in-vehicle camera device according to the second embodiment is a stereo camera including two in-vehicle cameras 20a and 20b having parallel optical axes in order to measure the distance to an obstacle behind the vehicle. 20, so that the ultrasonic sensor 4 in the first embodiment is not required. The stereo camera 20 is installed in the center of the rear part of the vehicle at a predetermined interval so that a part of the rear bumper of the host vehicle is reflected. Since the distance measurement by the stereo camera 20 is described in detail in the above-mentioned Patent Document 2, it is omitted here. Since the basic configuration in the second embodiment is the same as that in the first embodiment, the same reference numerals are given to the same components as those in the first embodiment, and a duplicate description of the configuration is omitted.

本実施の形態2における動作についても基本的には実施の形態1と同様である。すなわち、ステレオカメラ20を用いて、車両後方の映像を撮像し、2枚のステレオ映像を合成してモニタ2に表示するとともに、後方に障害物がある場合にその障害物までの距離をシステム制御部10の距離計測部10aで算出する。この計算は画像処理部14で行ってもよい。システム制御部10の予想軌跡算出部120bは、舵角センサ3からの舵角情報を基に予想軌跡を算出し、システム制御部10の障害物判定部10cは、算出された予想軌跡内に障害物が存在するか、および予想軌跡のどの部分が障害物と重なるかを判定し、その判定結果に基づいてキャラクタジェネレータ制御部12を制御し、画像処理部14で処理されたカメラ映像に重畳する予想軌跡の図形をキャラクタジェネレータ13から出力させてモニタ2上に図3(b)、(c)、(d)のように表示する。または、図4に示すように曲線予想軌跡を表示し、また図5に示すように曲線予想軌跡と直線予想軌跡の2重表示を行う。本実施の形態2においても、実施の形態1と同様な効果を有する。   The operation in the second embodiment is basically the same as that in the first embodiment. That is, the stereo camera 20 is used to capture an image of the rear of the vehicle, and the two stereo images are combined and displayed on the monitor 2, and when there is an obstacle at the rear, the distance to the obstacle is controlled by the system. The distance measurement unit 10a of the unit 10 calculates the distance. This calculation may be performed by the image processing unit 14. The expected trajectory calculation unit 120b of the system control unit 10 calculates an expected trajectory based on the steering angle information from the steering angle sensor 3, and the obstacle determination unit 10c of the system control unit 10 detects an obstacle within the calculated expected trajectory. It is determined whether an object is present and which part of the expected trajectory overlaps the obstacle, and the character generator control unit 12 is controlled based on the determination result, and is superimposed on the camera image processed by the image processing unit 14. The figure of the expected trajectory is output from the character generator 13 and displayed on the monitor 2 as shown in FIGS. 3B, 3C, and 3D. Alternatively, a predicted curve of the curve is displayed as shown in FIG. 4, and a double display of the predicted curve of the curve and the predicted curve of the straight line is performed as shown in FIG. The second embodiment also has the same effect as the first embodiment.

以上のように、本発明に係る車載カメラ装置は、モニタに重ねて表示されたカメラ映像上の予想軌跡内に障害物が存在する場合には、障害物と重なっている部分の予想軌跡表示を、障害物と重なっていない部分の予想軌跡表示とは区別して表示するので、運転者に予想軌跡における車両後方の障害物までの距離感を適正に与えることができ、違和感のない予想軌跡を表示できるという効果を有し、車両に搭載したカメラで撮影した車両後方の映像を車室内に取り付けたモニタ上に表示して、車両を後退させる際の安全を確認する車載カメラ装置等として有用である。   As described above, the vehicle-mounted camera device according to the present invention displays an expected trajectory display of a portion overlapping with an obstacle when an obstacle exists in the expected trajectory on the camera image displayed superimposed on the monitor. Because it is displayed separately from the expected trajectory display of the part that does not overlap with the obstacle, the driver can be given a sense of distance to the obstacle behind the vehicle in the expected trajectory and display the expected trajectory without any sense of incongruity It is useful as a vehicle-mounted camera device that has the effect of being able to be displayed and displays a rear image taken by a camera mounted on the vehicle on a monitor mounted in the vehicle interior to confirm safety when the vehicle is moved backward. .

本発明の実施の形態1における車載カメラ装置の配置状況を示す車両の平面模式図Schematic plan view of the vehicle showing the arrangement of the in-vehicle camera device according to Embodiment 1 of the present invention 本発明の実施の形態1における車載カメラ装置の構成を示す機能ブロック図Functional block diagram showing the configuration of the in-vehicle camera device in Embodiment 1 of the present invention (a) 従来例における予想軌跡表示例を示す画面図 (b) 本発明の実施の形態1における予想軌跡表示例を示す画面図 (c) 本発明の実施の形態1における別の予想軌跡表示例を示す画面図 (d) 本発明の実施の形態1における別の予想軌跡表示例を示す画面図(A) Screen diagram showing an example of expected trajectory display in the conventional example (b) Screen diagram showing an example of expected trajectory display in the first embodiment of the present invention (c) Another example of expected trajectory display in the first embodiment of the present invention (D) Screen figure which shows another example of expected locus | trajectory display in Embodiment 1 of this invention (a) 本発明の実施の形態1における別の予想軌跡表示例を示す画面図 (b) 本発明の実施の形態1における別の予想軌跡表示例を示す画面図 (c) 本発明の実施の形態1における別の予想軌跡表示例を示す画面図(A) Screen view showing another example of expected trajectory display in Embodiment 1 of the present invention (b) Screen diagram showing another example of expected trajectory display in Embodiment 1 of the present invention (c) Implementation of the present invention The screen figure which shows another example of a predicted locus | trajectory display in the form 1 本発明の実施の形態1における別の予想軌跡表示例を示す画面図The screen figure which shows another example of an expected locus | trajectory display in Embodiment 1 of this invention 本発明の実施の形態2における車載カメラ装置の構成を示す機能ブロック図Functional block diagram showing the configuration of the in-vehicle camera device in the second embodiment of the present invention

符号の説明Explanation of symbols

1 車載カメラ
2 モニタ
3 舵角センサ
4 超音波センサ
5 画像データ送出部
6 A/D変換部
7 フレームメモリ
8 フレームメモリ制御部
9 カメラ制御部
10 システム制御部
10a 距離計測部
10b 予想軌跡算出部
10c 障害物判定部
11 操作部
12 キャラクタジェネレータ制御部
13 キャラクタジェネレータ
14 画像処理部
15 メモリ
16 画像合成部
17 D/A変換部
20 ステレオカメラ
21 障害物
22 直線予想軌跡
23 リヤバンパ
24 曲線予想軌跡
DESCRIPTION OF SYMBOLS 1 Car-mounted camera 2 Monitor 3 Steering angle sensor 4 Ultrasonic sensor 5 Image data transmission part 6 A / D conversion part 7 Frame memory 8 Frame memory control part 9 Camera control part 10 System control part 10a Distance measurement part 10b Expected locus | trajectory calculation part 10c Obstacle determination unit 11 Operation unit 12 Character generator control unit 13 Character generator 14 Image processing unit 15 Memory 16 Image composition unit 17 D / A conversion unit 20 Stereo camera 21 Obstacle 22 Straight line prediction locus 23 Rear bumper 24 Curve prediction locus

Claims (7)

車載カメラにより撮像した車両後方の映像に車両の舵角に応じて算出された予想軌跡を重ねてモニタ上に表示する車載カメラ装置において、前記予想軌跡内に障害物が存在する場合に、前記障害物と重なる前記予想軌跡の部分を前記障害物と重ならない部分と区別して表示することを特徴とする車載カメラ装置。   In an in-vehicle camera device that displays on a monitor a predicted trajectory calculated according to the steering angle of a vehicle on an image of the rear of the vehicle imaged by the in-vehicle camera, when the obstacle exists in the predicted trajectory, the obstacle An in-vehicle camera device characterized in that a portion of the predicted locus that overlaps an object is displayed separately from a portion that does not overlap the obstacle. 前記障害物と重なる前記予想軌跡の部分を消去して表示することを特徴とする請求項1に記載の車載カメラ装置。   The in-vehicle camera device according to claim 1, wherein the portion of the predicted locus that overlaps the obstacle is deleted and displayed. 前記障害物と重なる前記予想軌跡の部分を重ならない部分とは異なる立面で表示することを特徴とする請求項1に記載の車載カメラ装置。   The in-vehicle camera device according to claim 1, wherein the portion of the predicted locus that overlaps the obstacle is displayed with an elevation different from the portion that does not overlap. 前記障害物と重なる前記予想軌跡の部分を重ならない部分とは異なる線で表示することを特徴とする請求項1に記載の車載カメラ装置。   The in-vehicle camera device according to claim 1, wherein the portion of the predicted locus that overlaps the obstacle is displayed by a line different from a portion that does not overlap. 前記予想軌跡の前記障害物と重ならない部分を重なる部分とは異なる色で表示することを特徴とする請求項1に記載の車載カメラ装置。   The in-vehicle camera device according to claim 1, wherein a portion of the predicted locus that does not overlap the obstacle is displayed in a color different from that of the overlapping portion. 前記舵角がゼロでない場合の曲線予想軌跡と前記舵角がゼロの場合の直線予想軌跡とを重ね合わせて表示することを特徴とする請求項1ないし請求項5のいずれかに記載の車載カメラ装置。   6. The vehicle-mounted camera according to claim 1, wherein a predicted curve of the curve when the rudder angle is not zero and a predicted straight line of the trajectory when the rudder angle is zero are superimposed and displayed. apparatus. 車両の後部に搭載されて車両後方を撮像する車載カメラと、前記車載カメラの映像を表示するモニタと、前記車両の後部に搭載されて車両後方の障害物を検出する障害物検出手段と、前記車両後部から前記障害物までの距離を計測する距離計測手段と、前記車両の舵角を検出する舵角検出手段と、前記舵角に対応する車両後方の予想軌跡を算出する予想軌跡算出手段と、前記算出された予想軌跡を作図する作図手段と、前記作図された予想軌跡を前記車載カメラの映像に重ねて前記モニタ上に表示するための画像を合成する画像合成手段と、前記算出された予想軌跡内に前記障害物が存在するかおよび予想軌跡のどの部分が障害物と重なるかを判定する障害物判定手段と、前記算出された予想軌跡内に前記検出された障害物が存在すると判定された場合に、前記障害物と重なる前記予想軌跡の部分を前記障害物と重ならない部分と区別して作図するように前記作図手段に指示する作図制御手段とを備えた請求項1ないし請求項6のいずれかに記載の車載カメラ装置。   An in-vehicle camera mounted on the rear part of the vehicle for imaging the rear of the vehicle; a monitor for displaying an image of the in-vehicle camera; an obstacle detection means mounted on the rear part of the vehicle for detecting an obstacle behind the vehicle; Distance measuring means for measuring the distance from the rear of the vehicle to the obstacle, rudder angle detecting means for detecting the rudder angle of the vehicle, and expected trajectory calculating means for calculating an expected trajectory behind the vehicle corresponding to the rudder angle; A plotting means for plotting the calculated expected trajectory; an image synthesizing means for synthesizing an image for displaying the plotted expected trajectory on the monitor by superimposing it on the video of the in-vehicle camera; and the calculated Obstacle determining means for determining whether the obstacle exists in the expected locus and which part of the expected locus overlaps with the obstacle, and determining that the detected obstacle exists in the calculated expected locus 7. A drawing control means for instructing the drawing means to draw a portion of the predicted locus that overlaps the obstacle in a case where the obstacle does not overlap with the obstacle. The in-vehicle camera device according to any one of the above.
JP2004041579A 2004-02-18 2004-02-18 On-vehicle camera device Pending JP2005236540A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004041579A JP2005236540A (en) 2004-02-18 2004-02-18 On-vehicle camera device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004041579A JP2005236540A (en) 2004-02-18 2004-02-18 On-vehicle camera device

Publications (1)

Publication Number Publication Date
JP2005236540A true JP2005236540A (en) 2005-09-02

Family

ID=35019062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004041579A Pending JP2005236540A (en) 2004-02-18 2004-02-18 On-vehicle camera device

Country Status (1)

Country Link
JP (1) JP2005236540A (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008103825A (en) * 2006-10-17 2008-05-01 Matsushita Electric Ind Co Ltd Display controller
JP2008219716A (en) * 2007-03-07 2008-09-18 Matsushita Electric Ind Co Ltd Display control apparatus
JP2010100267A (en) * 2008-10-27 2010-05-06 Mitsubishi Motors Corp Parking assistance device
JP2010136289A (en) * 2008-12-08 2010-06-17 Denso It Laboratory Inc Device and method for supporting drive
JP2011162189A (en) * 2010-02-12 2011-08-25 Robert Bosch Gmbh Dynamic range display for automotive rear-view and parking systems
JP2012004693A (en) * 2010-06-15 2012-01-05 Clarion Co Ltd Driving support device
JP2012023505A (en) * 2010-07-13 2012-02-02 Denso Corp Driving support device
KR101387189B1 (en) * 2012-05-30 2014-04-29 삼성전기주식회사 A display device of assistance information for driving and a display method of assistance information for driving
GB2510167A (en) * 2013-01-28 2014-07-30 Jaguar Land Rover Ltd Vehicle path prediction and obstacle indication system
DE102014118395A1 (en) * 2014-12-11 2016-06-16 Connaught Electronics Ltd. Method for displaying an image overlay element in an image, driver assistance system and motor vehicle
JP2016175549A (en) * 2015-03-20 2016-10-06 株式会社デンソー Safety confirmation support device, safety confirmation support method
KR101743766B1 (en) * 2015-04-30 2017-06-15 해성옵틱스(주) Apparatus and method for preventing optical illusion of a vehicle having audio video bridging system
JP2017138660A (en) * 2016-02-01 2017-08-10 トヨタ自動車株式会社 Object detection method, object detection device and program
JP2018016250A (en) * 2016-07-29 2018-02-01 アイシン精機株式会社 Periphery monitoring device
JP2018085584A (en) * 2016-11-21 2018-05-31 京セラ株式会社 Image processing apparatus, imaging apparatus, and display system
JP2018121223A (en) * 2017-01-26 2018-08-02 株式会社富士通ゼネラル Image processing device and on-vehicle imaging apparatus
JP2020023373A (en) * 2018-08-06 2020-02-13 株式会社豊田自動織機 Cargo handling support device for reach-type forklift
US11030468B2 (en) 2016-11-21 2021-06-08 Kyocera Corporation Image processing apparatus
JP7327171B2 (en) 2020-01-08 2023-08-16 トヨタ自動車株式会社 Vehicle electronic mirror system

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008103825A (en) * 2006-10-17 2008-05-01 Matsushita Electric Ind Co Ltd Display controller
JP2008219716A (en) * 2007-03-07 2008-09-18 Matsushita Electric Ind Co Ltd Display control apparatus
JP2010100267A (en) * 2008-10-27 2010-05-06 Mitsubishi Motors Corp Parking assistance device
JP2010136289A (en) * 2008-12-08 2010-06-17 Denso It Laboratory Inc Device and method for supporting drive
JP2011162189A (en) * 2010-02-12 2011-08-25 Robert Bosch Gmbh Dynamic range display for automotive rear-view and parking systems
JP2012004693A (en) * 2010-06-15 2012-01-05 Clarion Co Ltd Driving support device
JP2012023505A (en) * 2010-07-13 2012-02-02 Denso Corp Driving support device
KR101387189B1 (en) * 2012-05-30 2014-04-29 삼성전기주식회사 A display device of assistance information for driving and a display method of assistance information for driving
US9944319B2 (en) 2013-01-28 2018-04-17 Jaguar Land Rover Limited Motor vehicle system and method
GB2510167A (en) * 2013-01-28 2014-07-30 Jaguar Land Rover Ltd Vehicle path prediction and obstacle indication system
GB2510167B (en) * 2013-01-28 2017-04-19 Jaguar Land Rover Ltd Vehicle path prediction and obstacle indication system and method
DE102014118395A1 (en) * 2014-12-11 2016-06-16 Connaught Electronics Ltd. Method for displaying an image overlay element in an image, driver assistance system and motor vehicle
JP2016175549A (en) * 2015-03-20 2016-10-06 株式会社デンソー Safety confirmation support device, safety confirmation support method
KR101743766B1 (en) * 2015-04-30 2017-06-15 해성옵틱스(주) Apparatus and method for preventing optical illusion of a vehicle having audio video bridging system
JP2017138660A (en) * 2016-02-01 2017-08-10 トヨタ自動車株式会社 Object detection method, object detection device and program
JP2018016250A (en) * 2016-07-29 2018-02-01 アイシン精機株式会社 Periphery monitoring device
JP2018085584A (en) * 2016-11-21 2018-05-31 京セラ株式会社 Image processing apparatus, imaging apparatus, and display system
US11030468B2 (en) 2016-11-21 2021-06-08 Kyocera Corporation Image processing apparatus
JP2018121223A (en) * 2017-01-26 2018-08-02 株式会社富士通ゼネラル Image processing device and on-vehicle imaging apparatus
JP2020023373A (en) * 2018-08-06 2020-02-13 株式会社豊田自動織機 Cargo handling support device for reach-type forklift
JP7107078B2 (en) 2018-08-06 2022-07-27 株式会社豊田自動織機 Cargo handling support device for reach-type forklifts
JP7327171B2 (en) 2020-01-08 2023-08-16 トヨタ自動車株式会社 Vehicle electronic mirror system

Similar Documents

Publication Publication Date Title
JP2005236540A (en) On-vehicle camera device
US8599043B2 (en) Parking assist apparatus
US8031225B2 (en) Surroundings monitoring system for a vehicle
EP2623376B1 (en) Parking assistance device
US8576285B2 (en) In-vehicle image processing method and image processing apparatus
US8205704B2 (en) Parking assist apparatus
JP5454934B2 (en) Driving assistance device
US20100134264A1 (en) Vehicle surrounding confirmation apparatus
US20140118551A1 (en) Vehicle surrounding-area monitoring apparatus
US20030060972A1 (en) Drive assist device
US20070147664A1 (en) Driving assist method and driving assist apparatus
JP2008227646A (en) Obstacle detector
JP5182137B2 (en) Vehicle periphery display device
JP2006522973A (en) Parking assistance device for vehicles
JP2008013015A (en) Vehicle surroundings image producing device and image switching method
JP2012076483A (en) Parking support device
JP2007221200A (en) Vehicle periphery monitoring system
WO2016152000A1 (en) Safety confirmation assist apparatus, safety confirmation assist method
JP2010001020A (en) Vehicle peripheral display device
WO2010134240A1 (en) Parking assistance device, parking assistance method, and parking assistance program
JP2006054662A (en) Drive support device
WO2018105052A1 (en) Display control device, display system, and display control method
JP2007124097A (en) Apparatus for visually recognizing surrounding of vehicle
JP2004056219A (en) Vehicle surroundings monitoring apparatus
JP2009073250A (en) Vehicle backsight display device