JP2008103839A - Apparatus and method for monitoring vehicle - Google Patents

Apparatus and method for monitoring vehicle Download PDF

Info

Publication number
JP2008103839A
JP2008103839A JP2006282774A JP2006282774A JP2008103839A JP 2008103839 A JP2008103839 A JP 2008103839A JP 2006282774 A JP2006282774 A JP 2006282774A JP 2006282774 A JP2006282774 A JP 2006282774A JP 2008103839 A JP2008103839 A JP 2008103839A
Authority
JP
Japan
Prior art keywords
vehicle
pixel
image
video
curve
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006282774A
Other languages
Japanese (ja)
Inventor
Hiroyoshi Yanagi
柳  拓良
Tatsumi Yanai
達美 柳井
Masami Funekawa
政美 舟川
Tsutomu Kawano
勉 川野
Satoshi Chinomi
聡 知野見
Soichiro Mori
壮一郎 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2006282774A priority Critical patent/JP2008103839A/en
Publication of JP2008103839A publication Critical patent/JP2008103839A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a video image for urging a driver to pay attention to an object in the rear of a vehicle. <P>SOLUTION: A video processing apparatus 102 executes video processing to a video image of the rear of the vehicle which has been picked up with a rear camera 101 to decrease attention-grabbing performance of a region including the object having low necessity of the driver's attention. The video image after video-processing is displayed on a display apparatus 103. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、運転者が車両の車両周辺の状況を監視するための車両用監視装置、および車両用監視方法に関する。   The present invention relates to a vehicle monitoring device and a vehicle monitoring method for a driver to monitor a situation around a vehicle.

次のような車両用後方確認システムが知られている。この車両用後方確認システムでは、カメラで撮影した車両後方の映像をモニタに表示して、車両後方に存在する人や障害物を運転者が視認できるようにする(例えば、特許文献1)。   The following vehicle rearward confirmation systems are known. In this vehicle rear confirmation system, an image of the rear of the vehicle taken by a camera is displayed on a monitor so that a driver can visually recognize a person or an obstacle existing behind the vehicle (for example, Patent Document 1).

特開2004−322799号公報JP 2004-322799 A

しかしながら、従来のシステムにおいては、車両後方の映像をモニタに表示するのみであったため、運転者が運転中にモニタを長時間視認することができない場合には、運転者はモニタに表示された映像のどの位置に注目すべきかを把握することが困難であった。   However, in the conventional system, only the image behind the vehicle is displayed on the monitor, so if the driver cannot see the monitor for a long time while driving, the driver displays the image displayed on the monitor. It was difficult to figure out which position of the eye should be noted.

本発明は、車両の後方を撮像して映像を取得し、取得した各フレームの映像を時間軸方向に積み重ねて立体を生成し、立体を立体の表面に位置するフレームの任意の画素と消失点とを通る直線または曲線で時間軸方向に切断したスライス画像上に、任意の画素を含む領域を設定し、各領域内に現れる直線および曲線の傾きに基づいて、任意の画素に写っている対象物が自車両から離れていくものか、自車両に接近してくるものか、あるいは自車両と並行して移動しているものかを判定し、各フレームの映像に対して映像処理を施して、自車両から離れていく対象物が写っている画素の誘目性を低下させ、映像処理を施した後の映像を表示することを特徴とする。   The present invention captures an image of the rear of the vehicle to acquire an image, stacks the acquired images of each frame in the time axis direction to generate a solid, and arbitrary pixels and vanishing points of the frame positioned on the surface of the solid An object that includes an arbitrary pixel on a slice image that is cut in the time axis direction along a straight line or curve that passes through, and that is reflected in an arbitrary pixel based on the slope of the straight line and curve that appear in each area Determine whether an object is moving away from the host vehicle, approaching the host vehicle, or moving in parallel with the host vehicle, and apply video processing to the image of each frame. Further, the present invention is characterized in that the attractiveness of a pixel in which an object moving away from the host vehicle is reflected is reduced, and an image after image processing is displayed.

本発明によれば、自車両から離れていく対象物が写っている画素の誘目性を低下させるようにしたので、運転者が注意する必要性が低い対象物を含む領域の誘目性を低下させて、運転者の注意が注意する必要性が低い対象物に向くことを防止することができる。このため、運転者は、映像内の注意すべき対象物を短時間で把握することができる。   According to the present invention, since the attractiveness of the pixels in which the object moving away from the host vehicle is reflected is reduced, the attractiveness of the region including the object that is less required by the driver is reduced. Thus, it is possible to prevent the driver from paying attention to an object with a low need for attention. For this reason, the driver can grasp the object to be noted in the video in a short time.

―第1の実施の形態―
図1は、第1の実施の形態における車両用監視装置の一実施の形態の構成を示すブロック図である。車両用監視装置100は、後方カメラ101と、映像処理装置102と、表示装置103とを備えている。後方カメラ101は、車両のリアハッチの中央などに設置され、車両の後方を撮影する。後方カメラ101で取得された映像は、映像処理装置102へ出力される。
-First embodiment-
FIG. 1 is a block diagram illustrating a configuration of an embodiment of a vehicle monitoring apparatus according to the first embodiment. The vehicle monitoring device 100 includes a rear camera 101, a video processing device 102, and a display device 103. The rear camera 101 is installed at the center of the rear hatch of the vehicle and shoots the rear of the vehicle. The video acquired by the rear camera 101 is output to the video processing device 102.

映像処理装置102は、CPU、メモリ、およびその他の周辺回路で構成されており、後方カメラ101から入力される映像をメモリ(入力バッファ)に格納した後、当該映像に対して映像処理を行う。そして映像処理の結果として得られる映像をメモリ(出力バッファ)に書き出す。その後、出力バッファに書き出した映像を所定のフレームレートで表示装置103へ出力する。   The video processing apparatus 102 includes a CPU, a memory, and other peripheral circuits. The video processing apparatus 102 stores video input from the rear camera 101 in a memory (input buffer), and then performs video processing on the video. Then, the video obtained as a result of the video processing is written to the memory (output buffer). Thereafter, the video written in the output buffer is output to the display device 103 at a predetermined frame rate.

表示装置103は、例えば液晶ディスプレイであり、車内のダッシュボード中央など、運転者が運転中に大きく視線を移動させなくても視認することができる位置に設置されている。そして、表示装置103は、映像処理装置102から入力される映像を表示する。   The display device 103 is a liquid crystal display, for example, and is installed at a position such as the center of a dashboard in a vehicle where the driver can visually recognize the driver without moving his / her line of sight while driving. The display device 103 displays the video input from the video processing device 102.

例えば、後方カメラ101は、図2に示すような1フレーム分の映像を連続的に撮影して映像処理装置102へ出力する。なお、図2に示す映像は、後方カメラ101の解像度が(xmax,ymax)である場合の映像である。この映像は後述する映像処理装置102で全周囲からp画素削られて、解像度が(xmax−2*p,ymax−2*p)に変換されて表示装置103に出力される。   For example, the rear camera 101 continuously shoots one frame of video as shown in FIG. 2 and outputs the video to the video processing apparatus 102. The video shown in FIG. 2 is a video when the resolution of the rear camera 101 is (xmax, ymax). This image is trimmed by p pixels from the entire periphery by the image processing device 102 described later, and the resolution is converted into (xmax−2 * p, ymax−2 * p) and output to the display device 103.

一般的に、本実施の形態における車両用監視装置100を搭載しない車両においては、運転者は、ルームミラーやドアミラーを見て車両後方の状況を確認していた。しかしながら、車両におけるルームミラーやドアミラーの設置位置や視界は法規制により定められており、その設置位置は運転者が視線を大きく移動させないと視認することができない位置になっている。このため、運転者は、運転中など、視線を大きく移動させることができない状況下では、車両後方の状況を詳細に把握することが困難であり、注意すべき対象物が車両後方に存在している場合であっても、その対象物を見落としてしまう可能性があった。   In general, in a vehicle that does not include the vehicle monitoring device 100 according to the present embodiment, the driver checks the situation behind the vehicle by looking at the room mirror and the door mirror. However, the installation position and field of view of the room mirror and door mirror in the vehicle are determined by laws and regulations, and the installation position is a position that cannot be visually recognized unless the driver moves the line of sight greatly. For this reason, it is difficult for the driver to grasp in detail the situation behind the vehicle when the line of sight cannot be moved greatly, such as during driving, and there is an object to be noted in the rear of the vehicle. Even if it is, there is a possibility that the object is overlooked.

これに対して、本実施の形態における車両用監視装置100のように、後方カメラ101によって車両後方の映像を撮影して表示装置103に表示するようにした場合には、車両後方の映像を運転者にとって見やすい位置に設置した表示装置103に表示することができる。これにより運転者は、運転中であっても視線を大きく移動させることなく車両後方の状況を確認することができ、車両後方の状況を詳細に把握することが可能となるため、注意すべき対象物の見落としを防止することができる。   On the other hand, when the rear camera 101 captures and displays the rear image of the vehicle on the display device 103 as in the vehicle monitoring device 100 in the present embodiment, the rear image of the vehicle is driven Can be displayed on the display device 103 installed at a position that is easy for a person to see. This makes it possible for the driver to check the situation behind the vehicle without moving the line of sight greatly even during driving, and it is possible to grasp the situation behind the vehicle in detail. It is possible to prevent oversight of things.

本実施の形態における車両用監視装置100では、さらに表示装置103に表示する映像を使用者にとって見やすいものとし、車両後方に存在している注意する必要がある対象物を使用者が的確に把握することができるようにする。このために、映像処理装置102は、後方カメラ101によって撮影され、入力される映像に対して以下のような映像処理を実行する。   In the vehicle monitoring apparatus 100 according to the present embodiment, the video displayed on the display device 103 is further easy for the user to see, and the user accurately grasps an object that is present behind the vehicle and needs attention. To be able to. For this purpose, the video processing apparatus 102 performs the following video processing on the video captured and input by the rear camera 101.

図3は、第1の実施の形態における映像処理装置102の構成を示すブロック図である。後方カメラ101から連続して入力される映像は、バッファ1〜nに記憶される。具体的には、後方カメラ101から入力される1フレーム分の映像をバッファ1に記憶した後、ディレイで映像を1フレーム遅らせる。その後、次に入力される1フレーム分の映像をバッファ2に記憶する。これを繰り返してバッファ1〜nにnフレーム分、例えば23フレーム分の映像が記憶される。なお、バッファ1〜nに記憶される各フレームの画像は、車両の走行に伴って、背景および物体の位置が時間とともに変化している。また、車両が停車している場合であっても、他車両や歩行者などが移動することによって、これらの対象の位置が時間とともに変化している。   FIG. 3 is a block diagram illustrating a configuration of the video processing apparatus 102 according to the first embodiment. Images continuously input from the rear camera 101 are stored in the buffers 1 to n. Specifically, after one frame of video input from the rear camera 101 is stored in the buffer 1, the video is delayed by one frame with a delay. Thereafter, the next input video for one frame is stored in the buffer 2. By repeating this operation, images of n frames, for example, 23 frames are stored in the buffers 1 to n. In the images of the frames stored in the buffers 1 to n, the background and the position of the object change with time as the vehicle travels. Even when the vehicle is stopped, the positions of these objects change with time as other vehicles, pedestrians, and the like move.

スライス生成部102aは、このようにしてバッファ1〜nに記憶されたnフレーム分の映像を読み込んで、後述するスライス画像を生成する。具体的には次のように処理する。スライス生成部102aは、まず、図4(a)に示すように、バッファ1〜nから読み込んだ複数のフレームを取得時間順に積み重ねていく。すなわち、取得時刻が古いフレームの下に取得時刻が新しいフレームを重ねることによって、複数のフレームを時間軸方向に積み重ねていく。図4(a)に示す例では、1番上に位置しているフレーム4aが最も古く撮影された映像であり、1番下に位置しているフレーム4bが最も新しく撮影された映像である。なお、各フレームには消失点4cが含まれており、複数フレームを重ねた場合には、消失点4cも同一位置で重なっている。   The slice generation unit 102a reads the video for n frames stored in the buffers 1 to n in this way, and generates a slice image to be described later. Specifically, the processing is as follows. First, as illustrated in FIG. 4A, the slice generation unit 102 a stacks a plurality of frames read from the buffers 1 to n in order of acquisition time. That is, a plurality of frames are stacked in the time axis direction by overlapping a frame with a new acquisition time under a frame with an old acquisition time. In the example shown in FIG. 4A, the frame 4a located at the top is the oldest imaged image, and the frame 4b located at the bottom is the latest imaged image. Each frame includes a vanishing point 4c. When a plurality of frames are overlapped, the vanishing point 4c also overlaps at the same position.

ここで、映像処理装置102は、各フレームの映像に奥行きを持たせてから積み重ねていくことによって、複数フレームの映像は、図4(b)に示すような立体(直方体)を形成する。なお、各フレームの映像に奥行きを持たせるに当たっては、各フレームの映像を構成する各画素を奥行き方向に所定画素分、例えば1画素分拡張するようにする。これによって、映像中の1画素を1画素分の奥行きをもつ立方体とすることができ、各フレームを全体として1画素分の奥行き(厚み)を持つ立体にすることができる。   Here, the video processing apparatus 102 forms a solid (cuboid) as shown in FIG. 4B by stacking the video of each frame after adding depth to the video of each frame. In addition, in order to give depth to the video of each frame, each pixel constituting the video of each frame is extended by a predetermined pixel, for example, one pixel in the depth direction. Thus, one pixel in the video can be made a cube having a depth of one pixel, and each frame can be made into a solid body having a depth (thickness) of one pixel as a whole.

このとき、映像処理装置102は、フレーム内の各画素ごとに生成される立方体の全体が、生成元となった画素の色情報を有するようにしておく。すなわち、各画素に基づいて生成された立方体をどの方向から見ても映像中における当該画素と同一の色となり、さらに各画素に基づいて生成された立方体を任意の位置で切断(スライス)した場合に、その切断面も映像中における当該画素と同一の色となるようにしておく。   At this time, the video processing apparatus 102 makes sure that the entire cube generated for each pixel in the frame has the color information of the pixel that is the generation source. That is, when the cube generated based on each pixel is viewed from any direction, it has the same color as that pixel in the video, and the cube generated based on each pixel is cut (sliced) at an arbitrary position. In addition, the cut surface also has the same color as the pixel in the video.

このようにして各フレームを積み重ねて生成した立体は、図4(b)に示すように、映像の横方向をx軸、縦方向をy軸とし、奥行き方向を時間軸(t軸)とする3次元座標で表される。図4(c)は、図4(b)に示す立体を、映像の消失点4cを通る直線A−Bでt軸方向に切断(スライス)した例を示している。このように直線A−Bでt軸方向に切断した場合には、切断面ABCDは2次元の画像として現れる。このとき、上述したように、各フレームを構成する画素に基づいて生成された立方体の全体は、生成元となった画素の色情報を有していることから、切断面ABCDの切断面画像(スライス画像)は、直線A−B上に存在する画素の時間変化を示す画像となっている。   As shown in FIG. 4B, the solid generated by stacking the frames in this way has the horizontal direction of the video as the x axis, the vertical direction as the y axis, and the depth direction as the time axis (t axis). Expressed in three-dimensional coordinates. FIG. 4C shows an example in which the solid shown in FIG. 4B is cut (sliced) in the t-axis direction along a line AB passing through the vanishing point 4c of the video. In this way, when the line AB is cut in the t-axis direction, the cut surface ABCD appears as a two-dimensional image. At this time, as described above, since the entire cube generated based on the pixels constituting each frame has the color information of the pixel that is the generation source, the cut surface image of the cut surface ABCD ( (Slice image) is an image showing temporal changes of pixels existing on the straight line AB.

図4(d)は、切断面ABCDの画像の具体例を示す図である。この図4(d)においては、縦軸がx軸、横軸がt軸となっている。よって、スライス画像の縦方向は各フレームの映像における直線A−B上に存在する画素位置を表しており、スライス画像の横方向は、各フレーム間での直線A−B上に存在する画素の変化、すなわち、直線A−B上に存在する画素の時間変化を表している。なお、このスライス画像においては、画像の左が古い映像の画素であり、右にいくにつれて新しい映像の画素に変化している。   FIG. 4D is a diagram illustrating a specific example of an image of the cut surface ABCD. In FIG. 4D, the vertical axis is the x-axis and the horizontal axis is the t-axis. Therefore, the vertical direction of the slice image represents the pixel position existing on the straight line AB in the video of each frame, and the horizontal direction of the slice image represents the pixel existing on the straight line AB between the frames. This represents a change, that is, a time change of pixels existing on the straight line AB. In this slice image, the left of the image is a pixel of the old video, and the pixel of the new video changes to the right.

スライス画像においては、図4(d)に示すように、各フレーム間での直線A−B上の各画素の時間経過に伴う色変化に起因して、複数の直線および曲線が現れている。この直線および曲線は、車両の走行に伴う背景や物体のフレーム間での位置変化、および/または他車両や歩行者の移動に伴うこれらの対象のフレーム間での位置変化を示している。   In the slice image, as shown in FIG. 4 (d), a plurality of straight lines and curves appear due to the color change of each pixel on the straight line AB between the frames with time. The straight line and the curve indicate a change in position between frames of the background and the object as the vehicle travels and / or a change in position between frames of these objects as the other vehicle and pedestrian move.

すなわち、各フレームの映像内では、自車両から見て相対的に同方向または逆方向に移動している物体など、自車両と並行して移動する物体は、フレーム間で消失点4cを中心として放射状に移動する。このため、複数フレームの映像を積み重ねて得た立体を映像の消失点4cを通る直線でt軸方向に切断してスライス画像を得ることによって、スライス画像上では、常に各物体の同一部分の像の位置変化を捉えることができ、その位置変化が直線または曲線となって現れる。   That is, in the image of each frame, an object moving in parallel with the host vehicle, such as an object moving in the same direction or the opposite direction as viewed from the host vehicle, is centered on the vanishing point 4c between frames. Move radially. For this reason, a solid image obtained by stacking a plurality of frames of video is cut in the t-axis direction along a straight line passing through the vanishing point 4c of the video to obtain a slice image, whereby an image of the same part of each object is always displayed on the slice image. The position change can be captured and the position change appears as a straight line or a curve.

図5(a)は、図4(d)に示したスライス画像の一部を拡大した拡大画像であり、図5(b)は、拡大画像に表れている直線および曲線を模式的に表した図である。ここでは、この図5(b)を用いて拡大画像内に現れる直線および曲線について説明する。車両用監視装置100を搭載した車両が直線道路を走行しているとき(車速>0のとき)に、映像の消失点4cを含むスライス画像の一部を抽出して拡大した拡大画像内では、車両と同じ方向に同じ速度で移動している物体の像は、フレーム間で画素位置が移動しないため、拡大画像上では矢印5bで示すように、各フレームの消失点4cによって構成されるライン(消失点ライン)5aと平行な直線として現れる。   FIG. 5A is an enlarged image obtained by enlarging a part of the slice image shown in FIG. 4D, and FIG. 5B schematically shows a straight line and a curve appearing in the enlarged image. FIG. Here, a straight line and a curve appearing in the enlarged image will be described with reference to FIG. In a magnified image obtained by extracting and enlarging a part of a slice image including a vanishing point 4c of a video when a vehicle equipped with the vehicle monitoring device 100 is traveling on a straight road (when vehicle speed> 0), Since an image of an object moving at the same speed in the same direction as the vehicle does not move between the frames, the line composed of vanishing points 4c of each frame (as indicated by an arrow 5b on the enlarged image) ( The vanishing point line) appears as a straight line parallel to 5a.

また、車両と同じ方向に車両よりも遅い速度で移動している物体、車両と逆の方向へ移動している物体、または静止している物体などの車両から離れていく物体の像は、フレーム間で消失点4cへ近づく方向に移動していくため、拡大画像内では消失点ライン5aに接近する曲線5c、5d、および5gとして現れる。これに対して、車両と同じ方向に車両よりも速い速度で移動している物体、すなわち車両に接近してくる物体の像は、フレーム間で消失点4cから離れる方向に移動していくため、拡大画像内では消失点ライン5aから離れる曲線5e、5f、および5hとして現れる。   An image of an object moving away from the vehicle, such as an object moving in the same direction as the vehicle at a slower speed than the vehicle, an object moving in the opposite direction of the vehicle, or a stationary object, Since it moves in the direction approaching the vanishing point 4c, it appears as curves 5c, 5d, and 5g approaching the vanishing point line 5a in the enlarged image. On the other hand, an object moving at a higher speed than the vehicle in the same direction as the vehicle, that is, an image of an object approaching the vehicle moves in a direction away from the vanishing point 4c between frames. In the enlarged image, they appear as curves 5e, 5f, and 5h that are away from the vanishing point line 5a.

ここでは、図4(b)に示す立体を、映像の消失点4cを通る直線A−Bでt軸方向に切断した例について説明したが、上述したように自車両と並行して移動する物体は、フレーム間で消失点4cを中心として放射状に移動することから、映像の消失点4cを通る直線であれば直線A−B以外の直線でt軸方向に切断した場合であっても、スライス画像および拡大画像上には同様の直線および曲線が現れる。すなわち、映像の消失点4cを通る直線A−Bでt軸方向に切断したスライス画像上では、直線道路で自車両と並行して移動する物体の像は、常に消失点ライン5aと平行な直線、消失点ライン5aに接近する曲線、および消失点ライン5aから離れる曲線のいずれかを構成する。   Here, although the example which cut | disconnected the solid shown in FIG.4 (b) in the t-axis direction by the straight line AB which passes the vanishing point 4c of an image was demonstrated, as mentioned above, the object which moves in parallel with the own vehicle Moves radially around the vanishing point 4c between frames, so if it is a straight line passing through the vanishing point 4c of the image, even if it is cut in the t-axis direction by a straight line other than the straight line AB Similar straight lines and curves appear on the image and the enlarged image. That is, on the slice image cut in the t-axis direction along the line AB passing through the vanishing point 4c of the video, the image of the object moving in parallel with the host vehicle on the straight road is always a straight line parallel to the vanishing point line 5a. Or a curve approaching the vanishing point line 5a and a curve leaving the vanishing point line 5a.

なお、上述したように、スライス画像においては、画像の右にいくにつれて映像が新しくなっているため、図5(b)に示すように、消失点ライン5aに接近する曲線は、消失点ライン5aより上側の領域では右下がりの曲線となり、消失点ライン5aより下側の領域では右上がりの曲線となる。また、消失点ライン5aから離れる曲線は、消失点ライン5aより上側の領域では右上がりの曲線となり、消失点ライン5aより下側の領域では右下がりの曲線となる。   Note that, as described above, in the slice image, the video is new as it goes to the right of the image. Therefore, as shown in FIG. 5B, the curve approaching the vanishing point line 5a is the vanishing point line 5a. In the upper region, the curve is a downward-sloping curve, and in the region below the vanishing point line 5a is a upward-sloping curve. Further, the curve away from the vanishing point line 5a is a curve that rises to the right in the region above the vanishing point line 5a and becomes a curve that falls to the right in the region below the vanishing point line 5a.

以上より、映像の消失点4cを通る直線A−Bでt軸方向に切断して得たスライス画像を用いれば、スライス画像上に現れる直線または曲線の傾きに基づいて、後方カメラ101で撮影した映像内に含まれる物体の移動状況を識別することができる。すなわち、直線道路で自車両後方に存在する物体が自車両と同じ速度で走行している物体、自車両から離れていく物体、または自車両に接近してくる物体のいずれであるかを識別することができる。   As described above, using the slice image obtained by cutting in the t-axis direction along the line AB passing through the vanishing point 4c of the video, the rear camera 101 was photographed based on the slope of the straight line or curve appearing on the slice image. It is possible to identify the movement status of the object included in the video. That is, it identifies whether an object existing behind the host vehicle on a straight road is an object traveling at the same speed as the host vehicle, an object moving away from the host vehicle, or an object approaching the host vehicle. be able to.

一方、図4(b)に示す立体を、映像の消失点4cを通らない直線でt軸方向に切断してスライス画像を得た場合には、フレーム間で消失点4cを中心として放射状に移動する物体の同一部分の像を捉えることができないため、スライス画像上には物体の同一部分の像が構成する直線および曲線は現れない。すなわち、スライス画像上に現れる直線または曲線の傾きに基づいて自車両後方に存在する物体の移動状況を識別することができない。   On the other hand, in the case where a slice image is obtained by cutting the solid shown in FIG. 4B in the t-axis direction along a straight line that does not pass through the vanishing point 4c of the image, it moves radially around the vanishing point 4c. Since the image of the same part of the object cannot be captured, the straight line and the curve constituting the image of the same part of the object do not appear on the slice image. That is, it is not possible to identify the movement status of an object existing behind the host vehicle based on the slope of a straight line or a curve that appears on the slice image.

本実施の形態では、映像処理装置102は、以上のことを加味して、後方カメラ101で撮影した映像内に含まれる物体の移動状況を識別する。具体的には次のように処理する。なお、ここでは上述したように車両が直線道路を走行している場合を想定しており、上述したように映像の消失点4cを通る直線A−Bで立体をt軸方向に切断してスライス画像を得る方法について説明するが、車両が曲率のある道路(カーブ)を走行している場合には、映像の消失点4cを通る道路の曲率に応じた曲線で立体をt軸方向に切断してスライス画像を得れば、同様に車両後方に存在する対象物の移動方向を判定することができる。   In the present embodiment, the video processing apparatus 102 identifies the movement status of the object included in the video captured by the rear camera 101 in consideration of the above. Specifically, the processing is as follows. Here, as described above, it is assumed that the vehicle is traveling on a straight road. As described above, the solid is cut in the t-axis direction along the line A-B passing through the vanishing point 4c of the image and sliced. A method for obtaining an image will be described. When a vehicle is traveling on a curved road (curve), the solid is cut in the t-axis direction along a curve corresponding to the curvature of the road passing through the vanishing point 4c of the image. Then, if the slice image is obtained, the moving direction of the object existing behind the vehicle can be similarly determined.

スライス生成部102aは、このようなスライス画像を得るために、スライスの傾きを算出する。本実施の形態では、図4(b)に示した立体の1番上の映像4dの面(映像面)における各画素(ピクセル)に対して、その画素と消失点4cの両方を通る直線の傾きをスライスの傾きとして算出する。もし、後方カメラ101の向きが車両の真後ろを向いていない場合や、道路が曲がっている場合などには、後方カメラ101の向きとレンズの歪曲、または道路の曲率に基づいてオプティックフローの方向を求め、その傾きを使用するようにすればよい。   The slice generation unit 102a calculates the slope of the slice in order to obtain such a slice image. In the present embodiment, for each pixel (pixel) on the plane (video plane) of the topmost video 4d shown in FIG. 4B, a straight line passing through both the pixel and the vanishing point 4c. The slope is calculated as the slope of the slice. If the direction of the rear camera 101 is not directly behind the vehicle or the road is curved, the direction of the optic flow is determined based on the direction of the rear camera 101 and the lens distortion or the curvature of the road. Find and use the slope.

スライス生成部102aは、算出したスライスの傾きを持ち、所定の大きさを持つ近傍スライス領域を設定する。すなわち、各画素(画素)に対して、その画素と消失点4cの両方を通る直線で図4(b)に示した立体をt軸方向に切断したスライス画像を生成する。そして、スライス画像上でその画素を中心とした所定の大きさの領域を近傍スライス領域として設定する。なお、本実施の形態では、近傍スライス領域として設定する領域の大きさを、対象となる画素を中心として23×23画素とする。   The slice generation unit 102a sets a neighboring slice region having a calculated slice inclination and a predetermined size. That is, for each pixel (pixel), a slice image is generated by cutting the solid shown in FIG. 4B in the t-axis direction by a straight line passing through both the pixel and the vanishing point 4c. Then, an area of a predetermined size centered on the pixel on the slice image is set as a neighboring slice area. In the present embodiment, the size of the region set as the neighboring slice region is 23 × 23 pixels centering on the target pixel.

例えば、図6(a)に示すように、対象の画素を画素6aとした場合には、図4(b)に示すように、画素6aと消失点4cを通る直線で立体をt軸方向に切断したスライス画像を生成し、スライス画像上に画素6aを含む近傍スライス領域6cを設定する。画素6aの近傍スライス領域6cの具体例を図6(c)に示す。また、図6(a)に示すように、対象の画素を画素6bとした場合には、図6(b)に示すように、画素6bと消失点4cを通る直線で立体をt軸方向に切断したスライス画像を生成し、スライス画像上に画素6bを含む近傍スライス領域6dを設定する。   For example, as shown in FIG. 6A, when the target pixel is the pixel 6a, as shown in FIG. 4B, the solid is formed in the t-axis direction by a straight line passing through the pixel 6a and the vanishing point 4c. A cut slice image is generated, and a neighboring slice region 6c including the pixel 6a is set on the slice image. A specific example of the neighboring slice region 6c of the pixel 6a is shown in FIG. As shown in FIG. 6A, when the target pixel is the pixel 6b, as shown in FIG. 6B, the solid is formed in the t-axis direction by a straight line passing through the pixel 6b and the vanishing point 4c. A cut slice image is generated, and a neighboring slice region 6d including the pixel 6b is set on the slice image.

次に、フィルタ部102bは、画素6bと画素6bに対応する近傍スライス領域6dを対象として映像処理を施し、映像処理の結果に基づいて画素6bの画素値(ピクセル値)を補正する。ここでは、上述したように、スライス画像上で時間とともに消失点ライン5aに近づく傾きを有する曲線は自車両から離れていく物体の動きを示しており、このような曲線を含む近傍スライス領域に対しては、誘目性が高い高周波成分を抑制するような特性の映像処理を施す。これに対して、スライス画像上で時間とともに消失点ライン5aから離れる傾きを有する曲線は自車両に接近してくる物体の動きを示すものであるため、このような曲線を含む近傍スライス領域に対しては、誘目性や正しい認識のために必要なディテールを保持するために高・中・低周波の全てをスルーするような映像処理を施す。   Next, the filter unit 102b performs video processing on the pixel 6b and the neighboring slice region 6d corresponding to the pixel 6b, and corrects the pixel value (pixel value) of the pixel 6b based on the result of the video processing. Here, as described above, the curve having a slope that approaches the vanishing point line 5a with time on the slice image indicates the movement of the object moving away from the host vehicle, and for a neighboring slice region including such a curve, Thus, video processing is performed so as to suppress high-frequency components with high attractiveness. On the other hand, since a curve having a slope away from the vanishing point line 5a with time on the slice image indicates the movement of an object approaching the host vehicle, the neighboring slice region including such a curve In order to maintain the details necessary for attractiveness and correct recognition, video processing that passes through all high, medium, and low frequencies is applied.

すなわち、運転者が注意を向ける必要がない、自車両から離れていく物体が写っている画素を含む近傍スライス領域に対しては、運転者の誘目性が低下するような映像処理を施すようにし、運転者が注意を向ける必要がある物体が写っている画素を含む近傍スライス領域に対しては、運転者の誘目性を保持するような映像処理を施す。   That is, video processing that reduces the driver's attractiveness is applied to the neighboring slice region including pixels in which an object moving away from the host vehicle is not required to be paid attention. The neighboring slice region including the pixel in which the object that the driver needs to pay attention is subjected to video processing that maintains the driver's attractiveness.

このために本実施の形態では、フィルタ部102bは、各近傍スライス領域に対して、2次元FIRフィルタを用いた周波数フィルタリング処理を施す。すなわち、後述するような2次元の周波数フィルタを各画素に対応する近傍スライス領域に適用し、2次元の周波数フィルタリング処理を施す。そして、フィルタ適用後の画素6bの画素値を、出力バッファの当該画素位置に書き出す。この処理を映像面4d上の全ての画素を対象として設定した近傍スライス領域に対して行うことにより、映像を構成する全ての画素の画素値が補正される。   Therefore, in the present embodiment, the filter unit 102b performs frequency filtering processing using a two-dimensional FIR filter on each neighboring slice region. That is, a two-dimensional frequency filtering process, which will be described later, is applied to a neighboring slice region corresponding to each pixel to perform a two-dimensional frequency filtering process. Then, the pixel value of the pixel 6b after applying the filter is written out at the pixel position in the output buffer. By performing this process on the neighboring slice region set for all the pixels on the image plane 4d, the pixel values of all the pixels constituting the image are corrected.

ここで、スライス画像上で時間とともに消失点ライン5aに近づく傾きを有する曲線は、図5(b)で上述したように、消失点ライン5aより上側の領域では右下がりの曲線となり、消失点ライン5aより下側の領域では右上がりの曲線となっている。また、消失点ライン5aから離れる傾きを有する曲線は、消失点ライン5aより上側の領域では右上がりの曲線となり、消失点ライン5aより下側の領域では右下がりの曲線となっている。   Here, the curve having an inclination approaching the vanishing point line 5a with time on the slice image becomes a downward-sloping curve in the region above the vanishing point line 5a as described above with reference to FIG. In the region below 5a, the curve is an upward curve. Further, the curve having an inclination away from the vanishing point line 5a is a curve that rises to the right in the region above the vanishing point line 5a, and is a curve that falls to the right in the region below the vanishing point line 5a.

このため、近傍スライス領域が消失点ライン5aより下側の領域に含まれる場合には、右下がりの曲線の周波数成分は通過させ、右上がりの曲線の周波数成分はほぼ完全に抑制するように映像処理を施せばよい。すなわち、近傍スライス領域内に現れる直線および曲線の傾きのうち、自車両に接近してくる対象物の移動に伴って現れる曲線の傾きを構成する画素の画素値、および自車両と並行して移動している対象物の移動に伴って現れる直線の傾きを構成する画素の画素値はスルーし、自車両から離れていく対象物の移動に伴って現れる曲線の傾きを構成する画素の画素値に対してはローパスフィルタリング処理を施す特性をもつフィルタを用いて2次元の周波数フィルタリング処理を行えばよい。ここでは、図7に示すような11×11の大きさのフィルタを各近傍スライス領域に適用する場合について説明する。   For this reason, when the neighboring slice area is included in the area below the vanishing point line 5a, the frequency component of the lower right curve is allowed to pass, and the frequency component of the upper right curve is suppressed almost completely. What is necessary is just to process. That is, among the slopes of straight lines and curves appearing in the neighboring slice area, the pixel values of the pixels constituting the slope of the curve appearing with the movement of the object approaching the own vehicle, and the movement in parallel with the own vehicle The pixel values of the pixels constituting the slope of the straight line appearing with the movement of the target object passing through the pixel values of the pixels constituting the slope of the curve appearing with the movement of the target object moving away from the host vehicle On the other hand, a two-dimensional frequency filtering process may be performed using a filter having a characteristic of performing a low-pass filtering process. Here, a case where a filter having a size of 11 × 11 as shown in FIG. 7 is applied to each neighboring slice region will be described.

なお、図7に示すフィルタは、自車両から離れていく対象物の移動に伴って現れる曲線の傾きが大きいほど、より強いローパスフィルタリングを施すような特性のフィルタであり、このフィルタを用いた映像処理は、ブラックマン窓関数で計算したフィルタのインパルス応答は図8(c)のようになる。これは、図8(b)に示す入力パターンに対し、図8(a)の出力パターンが得られる特性をもつことを示している。   Note that the filter shown in FIG. 7 is a filter having characteristics such that stronger low-pass filtering is performed as the slope of a curve appearing as the object moving away from the host vehicle moves is larger. In the processing, the impulse response of the filter calculated by the Blackman window function is as shown in FIG. This indicates that the input pattern shown in FIG. 8B has a characteristic that the output pattern shown in FIG. 8A can be obtained.

この図8(a)と図8(b)を比較することで、右上がりの曲線のパターンは抑制され、右下がりの曲線のパターンは通過していることがわかる。すなわち、このフィルタを消失点ライン5aより下側に存在する近傍スライス領域に適用することで、自車両から離れていく物体の誘目性は失わせ、自車両に接近してくる物体のみを含む領域の誘目性は保持することができる。   By comparing FIG. 8A and FIG. 8B, it can be seen that the pattern of the upward curve is suppressed and the pattern of the downward curve passes. That is, by applying this filter to a neighboring slice region that exists below the vanishing point line 5a, the attractiveness of an object that is moving away from the host vehicle is lost, and the region includes only an object that approaches the host vehicle. The attractiveness of can be retained.

また、近傍スライス領域が消失点ライン5aより上側に存在する場合には、右上がりの曲線の周波数成分は通過させ、右下がりの曲線の周波数成分はほぼ完全に抑制するように映像処理を施せばよい。このために、消失点ライン5aより上側の領域に位置する近傍スライス領域に対しては、図7に示したフィルタとは左右が逆の特性を持つフィルタを適用することによって、同様に自車両から離れていく物体のみを含む領域の誘目性は失わせ、自車両に接近してくる物体の誘目性は保持することができる。   Further, when the neighboring slice region is present above the vanishing point line 5a, video processing is performed so that the frequency component of the upward-sloping curve is passed and the frequency component of the downward-sloping curve is suppressed almost completely. Good. For this reason, by applying a filter having characteristics opposite to the left and right of the filter shown in FIG. 7 to the neighboring slice region located in the region above the vanishing point line 5a, the vehicle is similarly removed from the own vehicle. It is possible to lose the attractiveness of the area including only the moving object and maintain the attractiveness of the object approaching the host vehicle.

合成部102cは、フィルタ部102bで映像処理が施され、画素値が補正された各画素を1枚の映像に合成して表示装置103へ出力する。すなわち、映像処理を施した後の画素の値を、出力バッファの当該画素位置に書き出して合成する。そして、上述したように、(xmax−2*p,ymax−2*p)の解像度となるように映像を変換して表示装置103に出力する。   The synthesizing unit 102 c synthesizes each pixel whose pixel value is corrected by the filter unit 102 b into one image and outputs the synthesized image to the display device 103. That is, the pixel value after the video processing is written at the pixel position of the output buffer and synthesized. Then, as described above, the video is converted so as to have a resolution of (xmax−2 * p, ymax−2 * p) and output to the display device 103.

図9は、本実施の形態における車両用監視装置100の処理を示すフローチャートである。図9に示す処理は、後方カメラ101によって車両後方の映像の撮影が開始され、処理を行うために必要なフレーム数、例えば23フレームが入力バッファに格納されたことを検出した場合に起動する処理として映像処理装置102によって実行される。   FIG. 9 is a flowchart showing processing of the vehicle monitoring apparatus 100 according to the present embodiment. The process shown in FIG. 9 is started when the rear camera 101 starts capturing an image behind the vehicle and detects that the number of frames necessary for the process, for example, 23 frames, is stored in the input buffer. Is executed by the video processing apparatus 102.

ステップS10において、スライス生成部102aは、バッファ1〜n(入力バッファ)に処理を行うために必要な23フレームが格納された時点で、最新のフレームを最初のフレームとして、このフレームに対する処理を開始する。その後、ステップS20へ進み、入力バッファに格納された各フレームの映像に奥行きを持たせてから積み重ね、図4(b)に示すような立体を生成して、ステップS30へ進む。   In step S10, when 23 frames necessary for processing are stored in the buffers 1 to n (input buffers), the slice generation unit 102a sets the latest frame as the first frame and starts processing the frame. To do. Thereafter, the process proceeds to step S20, the depths of the images of the frames stored in the input buffer are added and stacked to generate a solid as shown in FIG. 4B, and the process proceeds to step S30.

ステップS30では、処理中のフレームの全ての画素に対して処理が完了したか否かを判断する。処理が完了したと判断した場合には、ステップS31へ進み、出力バッファに格納されている映像を表示装置103へ出力して、次のフレームの処理、すなわち、次のフレームを含む23フレームに対する処理を開始する。これに対して、処理が完了していないと判断した場合には、ステップS40へ進む。   In step S30, it is determined whether or not processing has been completed for all pixels of the frame being processed. If it is determined that the processing has been completed, the process proceeds to step S31, where the video stored in the output buffer is output to the display device 103, and processing for the next frame, that is, processing for 23 frames including the next frame is performed. To start. On the other hand, if it is determined that the process has not been completed, the process proceeds to step S40.

ステップS40では、上述したように、図4(b)に示した立体の1番上の映像4dの面(映像面)における任意の画素(画素)に対して、その画素と消失点4cの両方を通る直線で立体をt軸方向に切断したスライス画像を生成する。そして、スライス画像上でその画素含む所定の領域を近傍スライス領域として設定する。その後、ステップS50へ進み、上述したように、その画素と当該画素に対応する近傍スライス領域に対して映像処理を施す。そして映像処理を施した後の当該画素の値を、出力バッファの当該画素位置に書き出す。その後、ステップS60へ進む。   In step S40, as described above, for an arbitrary pixel (pixel) on the plane (video plane) of the topmost video 4d shown in FIG. 4B, both the pixel and the vanishing point 4c. A slice image is generated by cutting the solid in the t-axis direction along a straight line passing through. Then, a predetermined area including the pixel on the slice image is set as a neighboring slice area. Thereafter, the process proceeds to step S50, and as described above, video processing is performed on the pixel and a neighboring slice region corresponding to the pixel. Then, the pixel value after the video processing is written to the pixel position of the output buffer. Thereafter, the process proceeds to step S60.

ステップS60では、車両のイグニションスイッチがオフされたか否かを判断する。オフされていないと判断した場合には、ステップS20へ戻って処理を繰り返す。これに対してオフされたと判断した場合には、処理を終了する。   In step S60, it is determined whether the ignition switch of the vehicle has been turned off. If it is determined that it is not turned off, the process returns to step S20 to repeat the process. On the other hand, if it is determined that it is turned off, the process is terminated.

以上説明した第1の実施の形態によれば、以下のような作用効果を得ることができる。
(1)運転者が注意する必要性が低い対象物を含む領域の誘目性を低下させるようにしたので、運転者の注意が、注意する必要性が低い対象物に向くことを防止することができ、運転者は、映像内の注意すべき対象物を短時間で把握することができる。
According to the first embodiment described above, the following operational effects can be obtained.
(1) Since the attractiveness of the area including the object that the driver need not be careful of is reduced, it is possible to prevent the driver's attention from being directed to the object that is not required to be noted. The driver can grasp the target object in the video in a short time.

(2)後方カメラ101で撮影した複数フレームの映像を時間軸方向に積み重ねて立体を生成し、当該立体を立体の表面に位置するフレームの任意の画素と消失点とを通る直線または曲線で時間軸方向に切断したスライス画像上に、任意の画素を含む近傍スライス領域を設定した。そして、各近傍スライス領域内に現れる直線および曲線の傾きに基づいて、前記任意の画素に写っている対象物が自車両から離れていくものか、自車両に接近してくるものか、あるいは自車両と並行して移動しているものかを判定するようにした。これによって、車両が走行しているとき(車速>0のとき)に、映像の消失点を含むスライス画像内では、車両と同じ方向に同じ速度で移動している物体の像は、フレーム間で画素位置が移動しないため、消失点ラインと平行な直線として現れる。また、車両から離れていく物体の像は、フレーム間で消失点へ近づく方向に移動していくため、スライス画像内では消失点ラインに接近する曲線として現れる。これに対して、車両と同じ方向に車両に接近している物体の像は、フレーム間で消失点から離れる方向に移動していくため、スライス画像内では消失点ラインから離れる曲線として現れることを加味して、精度高く対象物の移動方向を判定することができる。また、このような判定方法とすることによって、レーザーレーダーなどの高価なセンシング機器を搭載しなくても、車両後方に存在する対象物の移動方向を判定することができ、装置にかかるコストを低減することができる。 (2) A plurality of frames shot by the rear camera 101 are stacked in the time axis direction to generate a solid, and the solid is timed by a straight line or curve passing through an arbitrary pixel and vanishing point of the frame located on the surface of the solid. A neighboring slice region including arbitrary pixels was set on the slice image cut in the axial direction. Then, based on the slope of the straight line and the curve appearing in each neighboring slice area, the object shown in the arbitrary pixel is moving away from the host vehicle, approaching the host vehicle, or Judgment is made whether the vehicle is moving in parallel with the vehicle. As a result, when the vehicle is traveling (when vehicle speed> 0), an image of an object moving at the same speed in the same direction as the vehicle is displayed between frames in the slice image including the vanishing point of the image. Since the pixel position does not move, it appears as a straight line parallel to the vanishing point line. Further, since the image of the object moving away from the vehicle moves in the direction approaching the vanishing point between frames, it appears as a curve approaching the vanishing point line in the slice image. On the other hand, the image of the object approaching the vehicle in the same direction as the vehicle moves in a direction away from the vanishing point between frames, so that it appears as a curve away from the vanishing point line in the slice image. In addition, the moving direction of the object can be determined with high accuracy. In addition, by using such a determination method, it is possible to determine the moving direction of an object existing behind the vehicle without installing an expensive sensing device such as a laser radar, thereby reducing the cost of the apparatus. can do.

(3)運転者が注意する必要性が低い対象物を含む領域は、自車両から離れていく対象物が写っている画素のみを含む領域とするようにした。これによって、自車両から離れていく物体は、一般的に自車両に対して危険を及ぼす可能性が低いことを加味して、運転者が注意する必要性が低い対象物を的確に判定することができる。 (3) The region including the object that is less necessary for the driver to pay attention to is an area including only pixels in which the object moving away from the host vehicle is shown. This makes it possible to accurately determine objects that require less attention from the driver, taking into account that objects moving away from the vehicle are generally less likely to pose a danger to the vehicle. Can do.

(4)近傍スライス領域内に現れる直線および曲線の傾きのうち、自車両に接近してくる対象物の移動に伴って現れる曲線の傾きを構成する画素の画素値、および自車両と並行して移動している対象物の移動に伴って現れる直線の傾きを構成する画素の画素値はスルーし、自車両から離れていく対象物の移動に伴って現れる曲線の傾きを構成する画素の画素値に対してはローパスフィルタリング処理を施す特性をもつ周波数フィルタを用いて2次元の周波数フィルタリング処理を行うようにした。これによって、運転者が注意する必要性が低い自車両から離れていく対象物を含む領域の誘目性のみを低下させることができる。また、簡易な処理で運転者が注意する必要性が低い対象物を含む領域の誘目性のみを低下させることができるため、処理負荷を低減することができる。 (4) Of the slopes of the straight lines and curves appearing in the neighboring slice area, the pixel values of the pixels constituting the slope of the curves appearing with the movement of the object approaching the own vehicle, and in parallel with the own vehicle The pixel values of the pixels constituting the slope of the straight line appearing with the movement of the moving object pass through, and the pixel values of the pixels constituting the slope of the curve appearing with the movement of the object moving away from the host vehicle In contrast, two-dimensional frequency filtering processing is performed using a frequency filter having a characteristic of performing low-pass filtering processing. Accordingly, it is possible to reduce only the attractiveness of the region including the object that is away from the host vehicle, which is less necessary for the driver to pay attention to. In addition, the processing load can be reduced because it is possible to reduce only the attractiveness of the region including the object that is less necessary for the driver to pay attention to by simple processing.

(5)自車両が直線道路を走行している場合には、立体をフレーム内の任意の画素と消失点とを通る直線で時間軸方向に切断してスライス画像を生成するようにし、自車両がカーブを走行している場合には、立体をフレーム内の任意の画素と消失点とを通るカーブに応じた曲率の曲線で時間軸方向に切断して前記スライス画像を生成するようにした。これによって、走行中の道路に応じた最適な切断方法でスライス画像を生成することができる。また、このようなスライス画像を用いることで、自車両が直線を走行中の場合、カーブを走行中の場合のいずれの場合であっても、自車両後方に存在する対象物の移動方向を正確に判定することができる。 (5) When the host vehicle is traveling on a straight road, the solid vehicle is cut in the time axis direction along a straight line passing through an arbitrary pixel in the frame and the vanishing point, and the host vehicle is generated. When traveling along a curve, the slice is generated by cutting the solid in the time axis direction along a curve of curvature corresponding to the curve passing through an arbitrary pixel in the frame and the vanishing point. As a result, a slice image can be generated by an optimum cutting method according to the road that is running. In addition, by using such a slice image, it is possible to accurately determine the moving direction of the object existing behind the host vehicle regardless of whether the host vehicle is traveling on a straight line or traveling on a curve. Can be determined.

―第2の実施の形態―
第2の実施の形態では、第1の実施の形態で上述したフィルタ部102bによる処理をさらに簡略化して運転者が注意する必要性が低い対象物を含む領域の誘目性を低下させる。なお、図1〜図6、および図9の各図については、第1の実施の形態と同一のため説明を省略する。
-Second embodiment-
In 2nd Embodiment, the process by the filter part 102b mentioned in 1st Embodiment is further simplified, and the attractiveness of the area | region containing the target object with a low necessity for a driver | operator is reduced. In addition, about each figure of FIGS. 1-6 and FIG. 9, since it is the same as that of 1st Embodiment, description is abbreviate | omitted.

この実施の形態では、スライス生成部102aは、上述した近傍スライス領域を、対象となる画素を中心として5×5画素の大きさに設定する。そして、フィルタ部102bは、車両から離れていく物体の誘目性を低下させるように、近傍スライス領域内の各画素の画素値を補正する。具体的には、フィルタ部102bは、以下のように処理する。   In this embodiment, the slice generation unit 102a sets the above-described neighboring slice region to a size of 5 × 5 pixels with the target pixel as the center. And the filter part 102b correct | amends the pixel value of each pixel in a nearby slice area | region so that the attractiveness of the object which leaves | separates from a vehicle may be reduced. Specifically, the filter unit 102b performs the following process.

フィルタ部102bは、まず、図10に示すように、補正対象の画素10aの上下左右にそれぞれ4画素ずつをとる。そして、フィルタ部102bは、対象となる画素が消失点ライン5aよりも上に位置している場合には、右側の4画素10bおよび下側の4画素10cの画素値の平均値を第1の平均値として算出し、左側の4画素10dおよび上側の4画素10eの画素値の平均値を第2の平均値として算出する。   First, as shown in FIG. 10, the filter unit 102b takes four pixels on each of the upper, lower, left, and right sides of the correction target pixel 10a. When the target pixel is located above the vanishing point line 5a, the filter unit 102b calculates the average value of the pixel values of the right four pixels 10b and the lower four pixels 10c as the first value. An average value is calculated, and an average value of the pixel values of the left four pixels 10d and the upper four pixels 10e is calculated as a second average value.

フィルタ部102bは、このようにして算出した第1の平均値と第2の平均値のそれぞれを、画素10aの画素値と比較し、第1の平均値と第2の平均値のうち、画素10aの画素値に近い方の値を補正用の画素値として選択する。そして、補正用の画素値と画素10aの画素値にそれぞれ所定の比率を掛けて合計した値を補正後の画素10aの画素値とする。   The filter unit 102b compares each of the first average value and the second average value calculated in this way with the pixel value of the pixel 10a, and out of the first average value and the second average value, the pixel A value closer to the pixel value of 10a is selected as a correction pixel value. Then, a value obtained by multiplying the pixel value for correction and the pixel value of the pixel 10a by a predetermined ratio, respectively, is used as the pixel value of the corrected pixel 10a.

例えば、補正用の画素値と画素10aの画素値とがそれぞれ3:7の比率となるように補正する場合には、次式(1)により補正後の画素10aの画素値を算出する。
補正後の画素10aの画素値=補正用の画素値×0.3+画素10aの画素値×0.7 ・・・(1)
For example, when correction is performed so that the correction pixel value and the pixel value of the pixel 10a have a ratio of 3: 7, the pixel value of the corrected pixel 10a is calculated by the following equation (1).
Pixel value of pixel 10a after correction = pixel value for correction × 0.3 + pixel value of pixel 10a × 0.7 (1)

このように、補正対象の画素10aの上下左右にそれぞれ4画素ずつをとり、右側の4画素10bおよび下側の4画素10cの画素値の平均値(第1の平均値)、および左側の4画素10dおよび上側の4画素10eの画素値の平均値(第2の平均値)を用いて画素10aの画素値を補正するようにした。これによって、スライス画像上で時間とともに消失点ライン5aに近づく傾きを有する曲線と背景との境界付近に位置する画素の画素値をぼかすように補正することができる。すなわち、車両から遠ざかる物体の輪郭をぼかすことができる。   In this way, four pixels are provided on the top, bottom, left, and right of the pixel 10a to be corrected, and the average value (first average value) of the right four pixels 10b and the lower four pixels 10c, and the left four The pixel value of the pixel 10a is corrected using the average value (second average value) of the pixel values of the pixel 10d and the upper four pixels 10e. Accordingly, it is possible to correct the pixel value of the pixel located near the boundary between the curve and the background having a slope approaching the vanishing point line 5a with time on the slice image. That is, the outline of the object moving away from the vehicle can be blurred.

なお、対象となる画素が消失点ライン5aよりも下に位置している場合には、右側の4画素10bおよび上側の4画素10eの画素値の平均値を第1の平均値とし、左側の4画素10dおよび下側の4画素10cの画素値の平均値を第2の平均値として算出すればよい。   When the target pixel is located below the vanishing point line 5a, the average value of the pixel values of the right four pixels 10b and the upper four pixels 10e is set as the first average value, and the left The average value of the pixel values of the four pixels 10d and the lower four pixels 10c may be calculated as the second average value.

例えば、図11に示すように、図11(a)に示す後方カメラ101で撮影した車両方向の映像(入力映像)の各画素の画素値を補正して、図11(b)に示す補正後の映像を出力バッファに記録することができる。この図11(a)に示す入力映像と図11(b)に示す補正後の映像とを比較すると、映像内に写っている他車両と建物のうち、自車両に接近してくる車両のエッジは多少ぼけているもののそれほど誘目性を失っていないのに対し、自車両から遠ざかる背景の建物は、ボケの度合いが強くなり誘目性を失っている。これによって、運転者が注意する必要がない自車両から遠ざかる背景の建物は、運転者の視線を惑わしににくくすることができ、運転者は、映像内に存在する対象のうち、他車両に注意すれば良いことを把握することができる。   For example, as shown in FIG. 11, the pixel value of each pixel of the vehicle direction video (input video) captured by the rear camera 101 shown in FIG. Can be recorded in the output buffer. Comparing the input image shown in FIG. 11 (a) with the corrected image shown in FIG. 11 (b), the edge of the vehicle approaching the host vehicle among other vehicles and buildings shown in the image Although it is somewhat blurred, it has not lost its attractiveness, but the buildings in the background that move away from the host vehicle have become more blurred and lose their attractiveness. As a result, the building in the background away from the host vehicle that the driver does not need to pay attention to can make it difficult for the driver's line of sight to be confused, and the driver must pay attention to other vehicles among the objects present in the video. You can figure out what to do.

―第3の実施の形態―
第3の実施の形態では、後方カメラ101が広角レンズを搭載しており、かつ後方カメラ101のフレームレートが低い場合の処理について説明する。なお、図1〜図6、および図9の各図については、第1の実施の形態と同一のため説明を省略する。
-Third embodiment-
In the third embodiment, processing when the rear camera 101 has a wide-angle lens and the frame rate of the rear camera 101 is low will be described. In addition, about each figure of FIGS. 1-6 and FIG. 9, since it is the same as that of 1st Embodiment, description is abbreviate | omitted.

カメラ101が広角レンズを搭載している場合に、フレームレートが低いと、連続するフレーム間で映像の周辺の領域のズレが大きくなる可能性があり、スライス画像における直線又は曲線に途切れが生じる可能性がある。例えば、図12(a)は、フレームレートが60Hzである場合に、連続して撮影される2フレームを重畳した場合の合成画像を示している。この図12(a)に示す画像においては、画像内の周辺の領域12a内に写っているガードレールのポールが、フレーム間で大きく移動してしまい間隔が大きくなってしまっている。なお、図12(b)は、領域12aを拡大した図である。   When the camera 101 is equipped with a wide-angle lens, if the frame rate is low, there may be a large shift in the area around the image between successive frames, and the straight line or curve in the slice image may be interrupted There is sex. For example, FIG. 12A shows a composite image in a case where two frames that are continuously shot are superimposed when the frame rate is 60 Hz. In the image shown in FIG. 12 (a), the guardrail poles shown in the peripheral region 12a in the image have moved greatly between the frames, resulting in a large interval. In addition, FIG.12 (b) is the figure which expanded the area | region 12a.

このように低いフレームレートで撮影した各フレームを重ね合わせて立体を生成し、上述したスライス画像を生成した場合には、図13(a)に示すようなスライス画像が得られる。図13(b)は、スライス画像の消失点ライン5aより上側の領域の一部を拡大した図である。この図13(b)に示すように、スライス画像上では曲線が途中で途切れてしまっている。   When the three-dimensional image is generated by superimposing the frames shot at such a low frame rate and the above-described slice image is generated, a slice image as shown in FIG. 13A is obtained. FIG. 13B is an enlarged view of a part of the area above the vanishing point line 5a of the slice image. As shown in FIG. 13B, the curve is interrupted on the slice image.

また、図13(c)は、スライス画像の消失点ライン5aより下側の領域の一部を拡大した図であり、図13(d)は、図13(c)に示した拡大図中に現れている直線(または曲線)を模式的に示した図である。図13(d)に示すように、スライス画像上には、物体の移動に伴って生じる本来の直線(本パターン)13aと、直線が途切れたことにより擬似的に生じた直線(擬似パターン)13bとが現れていることがわかる。   FIG. 13C is an enlarged view of a part of the area below the vanishing point line 5a of the slice image, and FIG. 13D is an enlarged view of FIG. 13C. It is the figure which showed the straight line (or curve) which has appeared typically. As shown in FIG. 13D, on the slice image, an original straight line (main pattern) 13a generated as the object moves and a straight line (pseudo pattern) 13b generated in a pseudo manner when the straight line is interrupted. It can be seen that and appear.

このように、スライス画像上に現れる直線または曲線に途切れが生じたり、擬似パターン13bが発生したりした場合には、第1の実施の形態で上述したスライス画像上に現れる直線又は曲線の傾きに応じた物体の移動方向の判定に誤りが生じる可能性がある。このため、本実施の形態では、スライス生成部102aは、後方カメラ101から入力される各フレームの映像に対して、オプティックフローの流れに沿ったぼかし処理を行った後に、各フレームを重ねた立体を生成する。これによって、図13(a)に示したスライス画像は、図13(e)に示すように補正される。すなわち、図13(b)に示した曲線の途切れや図13(d)に示した擬似パターン13bがないスライス画像を得ることができる。   As described above, when the straight line or curve appearing on the slice image is interrupted or the pseudo pattern 13b is generated, the slope of the straight line or curve appearing on the slice image described in the first embodiment is reduced. There is a possibility that an error occurs in the determination of the moving direction of the corresponding object. For this reason, in the present embodiment, the slice generation unit 102a performs a blurring process along the flow of the optic flow on the video of each frame input from the rear camera 101, and then superimposes each frame. Is generated. As a result, the slice image shown in FIG. 13A is corrected as shown in FIG. That is, it is possible to obtain a slice image without the break of the curve shown in FIG. 13B or the pseudo pattern 13b shown in FIG.

ここで、図13(a)に示すように、スライス画像上における曲線の途切れや擬似パターンの発生は、消失点ライン5aから離れた映像の周辺領域で発生し、消失点ライン5aの近傍では発生していない。このため、後方カメラ101から入力される各フレームの映像の全体に対して、上述したぼかし処理を行った場合には、図13(e)に示すように、消失点ライン5a近傍にぼけが発生してしまう。このため、スライス生成部102aは、図14(a)に示す各フレームの映像における消失点4cの近傍領域14aに対してはぼかし処理を行わず、図14(b)において斜線で示した周辺領域14bを対象としてぼかし処理を行う。   Here, as shown in FIG. 13A, the break of the curve and the generation of the pseudo pattern on the slice image occur in the peripheral area of the video far from the vanishing point line 5a and occur in the vicinity of the vanishing point line 5a. Not done. For this reason, when the blurring process described above is performed on the entire video of each frame input from the rear camera 101, blurring occurs near the vanishing point line 5a as shown in FIG. 13 (e). Resulting in. For this reason, the slice generation unit 102a does not perform the blurring process on the neighboring area 14a of the vanishing point 4c in the video of each frame shown in FIG. 14A, and the peripheral area shown by the oblique lines in FIG. Blur processing is performed on 14b.

なお、各フレームに設定する周辺領域14bは、車両の速度、移動する物体の大きさや車両からの距離に応じて変化することから、スライス生成部13aは、あらかじめ車両の速度、移動する物体の大きさや車両からの距離を測定した後に、フレーム上に周辺領域14bを設定することが好ましい。   Since the peripheral area 14b set for each frame changes according to the speed of the vehicle, the size of the moving object, and the distance from the vehicle, the slice generation unit 13a previously sets the speed of the vehicle and the size of the moving object. It is preferable to set the peripheral region 14b on the frame after measuring the distance from the vehicle.

以上説明した第3の実施の形態によれば、第1および第2の実施の形態の作用効果に加えて、以下のような作用効果を得ることができる。すなわち、カメラ101が広角レンズを搭載しており、フレームレートが低い場合に、各フレームの周辺領域14bに対して、オプティックフローに沿ったぼかし処理を行った後に、各フレームを重ねた立体を生成するようにした。このため、カメラ101が広角レンズを搭載し、かつフレームレートが低い場合にスライス画像上に発生する直線または曲線の途切れや擬似パターンの発生を補正して、物体の移動方向を正確に判定することができる。   According to the third embodiment described above, the following operational effects can be obtained in addition to the operational effects of the first and second embodiments. That is, when the camera 101 is equipped with a wide-angle lens and the frame rate is low, the surrounding area 14b of each frame is subjected to blurring processing along the optic flow, and then a three-dimensional object is created by superimposing the frames. I tried to do it. For this reason, when the camera 101 is equipped with a wide-angle lens and the frame rate is low, the movement direction of the object is accurately determined by correcting the break of the straight line or the curve generated on the slice image or the generation of the pseudo pattern. Can do.

―第4の実施の形態―
上述した第1〜第3の実施の形態では、フィルタ部102bは、スライス画像上に設定した近傍スライス領域に対して、図7に示したフィルタをかけることによって、自車両から離れていく物体の誘目性は失わせ、自車両に接近してくる物体のみを含む領域の誘目性は保持するようにした。これに対して、第4の実施の形態では、フィルタを使用しないで同様の効果を得るための方法について説明する。なお、図1、図2、図4〜6、および図9の各図については、第1の実施の形態と同一のため説明を省略する。
-Fourth embodiment-
In the above-described first to third embodiments, the filter unit 102b applies the filter shown in FIG. 7 to the neighboring slice area set on the slice image, so that the object moving away from the host vehicle is displayed. The attractiveness is lost, and the attractiveness of the area that contains only the object approaching the vehicle is maintained. On the other hand, in the fourth embodiment, a method for obtaining the same effect without using a filter will be described. 1, 2, 4 to 6, and FIG. 9 are the same as those in the first embodiment, and thus the description thereof is omitted.

図15は、第4の実施の形態における映像処理装置102の構成を示すブロック図である。なお、図4においては、図3に示した第1の実施の形態における映像処理装置102の構成を示すブロック図と同一の構成要素については同じ符号を付加して説明を省略し、相違点を中心に説明する。   FIG. 15 is a block diagram illustrating a configuration of the video processing apparatus 102 according to the fourth embodiment. In FIG. 4, the same components as those in the block diagram showing the configuration of the video processing apparatus 102 in the first embodiment shown in FIG. The explanation is centered.

スライス生成部102aは、上述したスライス画像を生成し、スライス画像の各画素を中心として所定の大きさ、例えば11画素×11画素の近傍スライス領域を設定する。そして、設定した近傍スライス領域を傾き検出部102dへ出力する。傾き検出部102dは、スライス生成部102aから入力される近傍スライス領域の中央の画素を対象画素として、対象画素内に含まれる直線や曲線の傾きを算出する。以下、傾き検出部102dによって実行される処理について、図16を用いて説明する。   The slice generation unit 102a generates the above-described slice image, and sets a neighboring slice area of a predetermined size, for example, 11 pixels × 11 pixels, with each pixel of the slice image as a center. Then, the set neighboring slice region is output to the inclination detecting unit 102d. The inclination detection unit 102d calculates the inclination of a straight line or a curve included in the target pixel with the central pixel in the neighboring slice area input from the slice generation unit 102a as the target pixel. Hereinafter, processing executed by the inclination detection unit 102d will be described with reference to FIG.

図16(a)は、スライス生成部102aから入力される近傍スライス領域の具体例を示す図である。傾き検出部102dは、この近傍スライス領域から中央の画素を含む複数のサンプル領域を切り出す。例えば、図16(b)に示すように、まず、傾き検出部102dは、近傍スライス領域の中央の画素16aを含み水平方向に高さ1画素、幅11画素のサンプル領域16bを切り出す。そして、傾き検出部102dは、サンプル領域16bを画素16aを中心として所定角度ずつ回転させて、複数のサンプル領域を得る。図16(b)に示す例では、サンプル領域16bを時計回り、および反時計回りにそれぞれ20度ずつ、3段階に回転させて合計7個のサンプル領域を切り出している。   FIG. 16A is a diagram illustrating a specific example of the neighboring slice region input from the slice generation unit 102a. The inclination detection unit 102d cuts out a plurality of sample areas including the central pixel from this neighboring slice area. For example, as shown in FIG. 16B, first, the inclination detecting unit 102d cuts out a sample region 16b having a height of 11 pixels and a width of 11 pixels including the central pixel 16a of the neighboring slice region in the horizontal direction. Then, the inclination detection unit 102d rotates the sample region 16b by a predetermined angle around the pixel 16a to obtain a plurality of sample regions. In the example shown in FIG. 16B, the sample region 16b is rotated in three stages by 20 degrees clockwise and counterclockwise, respectively, thereby cutting out a total of seven sample regions.

図16(c)に切り出したそれぞれのサンプル領域を示す。なお、図16(c)においては、サンプル領域16bを0と表し、サンプル領域16bを時計回りに1段階(20度)回転させたサンプル領域を+1、2段階(40度)回転させたサンプル領域を+2、3段階(60度)回転させたサンプル領域を+3と表している。また、サンプル領域16bを反時計回りに1段階(−20度)回転させたサンプル領域を−1、2段階(−40度)回転させたサンプル領域を−2、3段階(−60度)回転させたサンプル領域を−3と表している。   FIG. 16C shows the sample areas cut out. In FIG. 16C, the sample region 16b is represented as 0, and the sample region obtained by rotating the sample region 16b clockwise by one step (20 degrees) is rotated by +1, two steps (40 degrees). A sample region obtained by rotating +2 to 3 steps (60 degrees) is represented as +3. Further, the sample region obtained by rotating the sample region 16b by one step (−20 degrees) counterclockwise is rotated by −1, two steps (−40 degrees), and the sample region rotated by −2, three steps (−60 degrees). The made sample region is represented as -3.

次に、傾き検出部102dは、各サンプル領域を横方向に所定ピクセルずつ、複数段階ずらして(シフトして)複数のシフト領域を設定する。本実施の形態では、各サンプル領域(シフト0)を2画素右方向へずらしたシフト領域(シフト2)、4画素右方向へずらしたシフト領域(シフト4)、8画素右方向へずらしたシフト領域(シフト8)、および16画素右方向へずらしたシフト領域(シフト16)の4つのシフト領域を設定する。これによって、−3〜+3の7つのサンプル領域に対して、それぞれ4つのシフト領域が設定される。すなわち合計28のシフト領域が設定される。図16(d)に+3のサンプル領域をシフトして設定したシフト領域の具体例を示す。   Next, the inclination detection unit 102d sets a plurality of shift regions by shifting (shifting) each sample region by a predetermined number of pixels in the horizontal direction. In the present embodiment, each sample area (shift 0) is shifted by 2 pixels to the right (shift 2), shifted by 4 pixels to the right (shift 4), and shifted by 8 pixels to the right. Four shift regions are set: a region (shift 8) and a shift region (shift 16) shifted to the right by 16 pixels. As a result, four shift regions are set for seven sample regions of −3 to +3, respectively. That is, a total of 28 shift areas are set. FIG. 16D shows a specific example of the shift region set by shifting the +3 sample region.

傾き検出部102dは、各サンプル領域について、サンプル領域(シフト0)とそれぞれのシフト領域との間で、画素位置が同じ画素同士の画素値の差分を算出する。例えば、図16(d)に示すように、+3のサンプル領域(シフト0)と、これを4画素ずらしたシフト領域(シフト4)との間で、画素位置が同じ画素同士の画素値の差分を算出する。これを全てのシフト領域について行って、その結果算出された画素値の差分の平均値を+3のサンプル領域の傾き判定用の値(傾き判定値)とする。傾き検出部102dは、この傾き判定値の算出を全てのサンプル領域について行なうことによって、−3〜+3の各サンプル領域の傾き判定値を算出する。   For each sample area, the inclination detection unit 102d calculates a difference in pixel values between pixels having the same pixel position between the sample area (shift 0) and each shift area. For example, as shown in FIG. 16D, the difference between the pixel values of the pixels having the same pixel position between the +3 sample area (shift 0) and the shift area shifted by 4 pixels (shift 4). Is calculated. This is performed for all the shift regions, and the average value of the pixel value differences calculated as a result is set as a value for determining the inclination of the +3 sample area (inclination determination value). The inclination detection unit 102d calculates the inclination determination value of each sample area of −3 to +3 by performing the calculation of the inclination determination value for all the sample areas.

そして、傾き検出部102dは、算出した傾き判定値が最も小さいサンプル領域を抽出し、抽出したサンプル領域のサンプル領域16bからの回転角度を対象画素内に含まれる直線や曲線の傾き値として、合成部102cへ出力する。なお、映像に特徴がない場合など、全てのサンプル領域の傾き判定値が同じである場合には、傾き検出部102dは、あらかじめ設定されているデフォルトの傾き値を合成部102cへ出力する。   Then, the inclination detection unit 102d extracts the sample area having the smallest calculated inclination determination value, and combines the rotation angle of the extracted sample area from the sample area 16b as the inclination value of the straight line or curve included in the target pixel. To the unit 102c. When the inclination determination values of all the sample areas are the same, such as when there is no feature in the video, the inclination detection unit 102d outputs a preset default inclination value to the synthesis unit 102c.

合成部102cは、傾き検出部102dから入力される傾き値に基づいて、バッファ1〜nから入力される各フレームの映像を構成する画素を補正した後、各画素を1枚の映像に合成して表示装置103へ出力する。具体的には、第1の実施の形態と同様の方法により、傾き検出部102dから入力される傾き値に基づいて各画素内に含まれる物体が自車両から離れていくものか、自車両に接近してくるものか、あるいは自車両と並行して移動しているものかを判定する。   The synthesizing unit 102c corrects the pixels constituting each frame image input from the buffers 1 to n based on the inclination value input from the inclination detecting unit 102d, and then combines the pixels into one image. To the display device 103. Specifically, by the same method as in the first embodiment, whether the object included in each pixel moves away from the host vehicle based on the tilt value input from the tilt detection unit 102d, It is determined whether the vehicle is approaching or is moving in parallel with the host vehicle.

合成部102cは、自車両から離れていく物体が含まれる画素に対しては、運転者の誘目性を低下させるために、最新のフレームよりも前に入力された所定フレーム数の当該画素の画素値の平均値を算出し、これを当該画素の補正後の画素値として使用する。なお、画素値の平均値を算出するために使用する過去のフレーム数は、傾き検出部102dから入力される傾き値に応じて変化させることが好ましい。   For a pixel including an object moving away from the host vehicle, the combining unit 102c has a predetermined number of frames of pixels input before the latest frame in order to reduce the driver's attractiveness. An average value is calculated and used as a corrected pixel value of the pixel. Note that the number of past frames used for calculating the average value of the pixel values is preferably changed according to the inclination value input from the inclination detection unit 102d.

例えば、傾き値が大きい場合には、物体は速い速度で車両から離れているため、使用する過去のフレーム数を大きくして、よりぼかすようにする。また、傾き値が小さい場合には、物体はゆっくりと車両から離れているため、使用する過去のフレーム数を小さくして、ぼかし量を小さくする。これによって、物体が車両から離れていく速度に応じてぼかし量を制御することができる。   For example, when the inclination value is large, the object is moving away from the vehicle at a high speed, so the number of past frames to be used is increased to make it more blurred. When the inclination value is small, the object is slowly moving away from the vehicle, so the number of past frames to be used is reduced to reduce the blur amount. Thus, the blur amount can be controlled according to the speed at which the object moves away from the vehicle.

一方、自車両から離れていく物体以外が含まれる画素に対しては、合成部102cは、画素値の補正を行わずに最新フレームの画素値をそのまま使用する。そして、合成部102cは、補正後の画素値を用いて1枚の映像に合成する。   On the other hand, for pixels that include objects other than objects that are moving away from the host vehicle, the combining unit 102c uses the pixel values of the latest frame as they are without correcting the pixel values. Then, the combining unit 102c combines the corrected pixel values into one image.

以上説明した第4の実施の形態によれば、出力する映像の各画素を補正するために、画素ごとにフィルタをかける必要がないため、より高速に処理を実行することができる。   According to the fourth embodiment described above, since it is not necessary to apply a filter for each pixel in order to correct each pixel of the video to be output, the processing can be executed at a higher speed.

―変形例―
なお、上述した実施の形態の車両用監視装置は、以下のように変形することもできる。
(1)上述した第1〜第4の実施の形態では、後方カメラ101で撮影した全てのフレームで映像内における消失点の位置は一定であるものとして説明した。しかしながら、道路のうねりなどによる車両にピッチングが発生した場合などは、フレーム間で消失点の位置が異なる可能性がある。このような場合にも全てのフレームで映像内の消失点位置を一定にするために、デジタルカメラなどに搭載されている手ぶれ補正などと同様の機構により、映像内からピッチングの影響を排除して、映像を安定させるようにしてもよい。
-Modification-
The vehicle monitoring apparatus according to the above-described embodiment can be modified as follows.
(1) In the first to fourth embodiments described above, it has been described that the position of the vanishing point in the video is constant for all frames taken by the rear camera 101. However, when pitching occurs in the vehicle due to road undulations, the vanishing point position may be different between frames. Even in such a case, in order to make the vanishing point position in the image constant in all frames, the influence of pitching is eliminated from the image by a mechanism similar to the camera shake correction mounted on a digital camera or the like. The video may be stabilized.

(2)上述した第1〜第4の実施の形態では、車両用監視装置100は車両に搭載される例について説明した。しかしこれに限定されず、車両用監視装置100をその他の移動体に搭載するようにしてもよい。 (2) In the first to fourth embodiments described above, the example in which the vehicle monitoring device 100 is mounted on a vehicle has been described. However, the present invention is not limited to this, and the vehicle monitoring apparatus 100 may be mounted on another moving body.

なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。   Note that the present invention is not limited to the configurations in the above-described embodiments as long as the characteristic functions of the present invention are not impaired.

特許請求の範囲の構成要素と実施の形態との対応関係について説明する。後方カメラ101は撮影手段に、映像処理装置102は判定手段および映像処理手段に、表示装置103は表示手段に相当する。なお、以上の説明はあくまでも一例であり、発明を解釈する際、上記の実施形態の記載事項と特許請求の範囲の記載事項の対応関係に何ら限定も拘束もされない。   The correspondence between the constituent elements of the claims and the embodiment will be described. The rear camera 101 corresponds to an imaging unit, the video processing device 102 corresponds to a determination unit and a video processing unit, and the display device 103 corresponds to a display unit. The above description is merely an example, and when interpreting the invention, there is no limitation or restriction on the correspondence between the items described in the above embodiment and the items described in the claims.

車両用監視装置の一実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of the monitoring apparatus for vehicles. 後方カメラ101で撮影される映像の具体例を示す図である。It is a figure which shows the specific example of the image | video image | photographed with the rear camera. 第1の実施の形態における映像処理装置102の構成を示すブロック図である。It is a block diagram which shows the structure of the video processing apparatus 102 in 1st Embodiment. スライス画像の生成例を示す図である。It is a figure which shows the example of a production | generation of a slice image. スライス画像上に現れる直線および曲線の具体例を示す図である。It is a figure which shows the specific example of the straight line and curve which appear on a slice image. 近傍スライス領域の設定例を示す図である。It is a figure which shows the example of a setting of a neighborhood slice area | region. 近傍スライス領域に適用するフィルタの具体例を示す図である。It is a figure which shows the specific example of the filter applied to a neighborhood slice area | region. 図7に示すフィルタを用いた映像処理の入力および出力の具体例を示す図である。It is a figure which shows the specific example of the input and output of a video process using the filter shown in FIG. 車両用監視装置100の処理を示すフローチャート図である。It is a flowchart figure which shows the process of the monitoring apparatus 100 for vehicles. 第2の実施の形態における画素値の補正方法を示す図である。It is a figure which shows the correction method of the pixel value in 2nd Embodiment. 第2の実施の形態における映像の補正結果の具体例を示す図である。It is a figure which shows the specific example of the correction | amendment result of the image | video in 2nd Embodiment. カメラ101が広角レンズを搭載しており、かつフレームレートが低い場合に発生する問題点を具体的に示す図である。It is a figure which shows specifically the problem which generate | occur | produces when the camera 101 mounts a wide angle lens and a frame rate is low. 第3の実施の形態におけるスライス画像の具体例を示す図である。It is a figure which shows the specific example of the slice image in 3rd Embodiment. 第3の実施の形態においてぼかし処理の対象とする周辺領域14bを具体的に示した図である。It is the figure which showed concretely the peripheral region 14b made into the object of the blurring process in 3rd Embodiment. 第4の実施の形態における映像処理装置102の構成を示すブロック図である。It is a block diagram which shows the structure of the video processing apparatus 102 in 4th Embodiment. 第4の実施の形態で傾き検出部102dによって実行される処理の具体例を示す図である。It is a figure which shows the specific example of the process performed by the inclination detection part 102d in 4th Embodiment.

符号の説明Explanation of symbols

100 車両用監視装置
101 後方カメラ
102 映像処理装置
102a スライス生成部
102b フィルタ部
102c 合成部
102d 傾き検出部
103 表示装置
DESCRIPTION OF SYMBOLS 100 Vehicle monitoring apparatus 101 Rear camera 102 Image processing apparatus 102a Slice production | generation part 102b Filter part 102c Composition part 102d Inclination detection part 103 Display apparatus

Claims (6)

車両の後方を撮像して映像を取得する撮影手段と、
前記撮影手段で取得した各フレームの映像を時間軸方向に積み重ねて立体を生成し、前記立体を立体の表面に位置するフレームの任意の画素と消失点とを通る直線または曲線で前記時間軸方向に切断したスライス画像上に、前記任意の画素を含む領域を設定し、各領域内に現れる直線および曲線の傾きに基づいて、前記任意の画素に写っている対象物が自車両から離れていくものか、自車両に接近してくるものか、あるいは自車両と並行して移動しているものかを判定する判定手段と、
前記各フレームの映像に対して映像処理を施して、前記自車両から離れていく対象物が写っている画素の誘目性を低下させる映像処理手段と、
前記映像処理手段で映像処理を施した後の映像を表示する表示手段とを備えることを特徴とする車両用監視装置。
Photographing means for capturing an image of the rear of the vehicle and acquiring images;
The images of the frames acquired by the photographing means are stacked in the time axis direction to generate a solid, and the solid is a straight line or curve passing through an arbitrary pixel and vanishing point of the frame located on the surface of the solid. An area including the arbitrary pixel is set on the slice image cut into two, and the object reflected in the arbitrary pixel moves away from the own vehicle based on the slope of the straight line and the curve appearing in each area. A determination means for determining whether the object is approaching the host vehicle, or is moving in parallel with the host vehicle;
Video processing means for performing video processing on the video of each frame to reduce the attractiveness of pixels in which an object moving away from the host vehicle is shown;
A vehicle monitoring apparatus comprising: display means for displaying an image after image processing is performed by the image processing means.
請求項1に記載の車両用監視装置において、
前記映像処理手段は、前記スライス画像上に設定した前記領域に対して、2次元の周波数フィルタリング処理を施すことによって、前記運転者が注意する必要性が低い対象物が写っている画素の誘目性を低下させることを特徴とする車両用監視装置。
The vehicle monitoring device according to claim 1,
The image processing means performs a two-dimensional frequency filtering process on the region set on the slice image, thereby attracting a pixel in which an object having a low need for attention by the driver is shown. The vehicle monitoring apparatus characterized by lowering.
請求項2に記載の車両用監視装置において、
前記映像処理手段は、前記スライス画像上に設定した領域内に現れる直線および曲線の傾きのうち、前記自車両に接近してくる対象物の移動に伴って現れる曲線の傾きを構成する画素の画素値、および前記自車両と並行して移動している対象物の移動に伴って現れる直線の傾きを構成する画素の画素値はスルーし、前記自車両から離れていく対象物の移動に伴って現れる曲線の傾きを構成する画素の画素値に対してはローパスフィルタリング処理を施す特性をもつ周波数フィルタを用いて前記2次元の周波数フィルタリング処理を行うことを特徴とする車両用監視装置。
The vehicle monitoring device according to claim 2,
The image processing means is a pixel of pixels constituting a slope of a curve appearing with movement of an object approaching the host vehicle out of slopes of a straight line and a curve appearing in an area set on the slice image The pixel values of the pixels constituting the value and the slope of the straight line appearing with the movement of the object moving in parallel with the host vehicle pass through, and with the movement of the object moving away from the host vehicle A vehicular monitoring apparatus, wherein the two-dimensional frequency filtering process is performed using a frequency filter having a characteristic of performing a low-pass filtering process on a pixel value of a pixel constituting a slope of an appearing curve.
請求項3に記載の車両用監視装置において、
前記周波数フィルタは、前記自車両から離れていく対象物の移動に伴って現れる曲線の傾きが大きいほど、より強いローパスフィルタリングを施すような特性のフィルタであることを特徴とする車両用監視装置。
The vehicle monitoring device according to claim 3,
The vehicle monitoring device according to claim 1, wherein the frequency filter is a filter having a characteristic such that a stronger low-pass filtering is performed as a slope of a curve appearing as the object moves away from the host vehicle is larger.
請求項1〜4のいずれか一項に記載の車両用監視装置において、
前記映像処理手段は、前記撮影手段で取得した各フレームの映像に対して、オプティックフローの流れに沿ったぼかし処理を行うことを特徴とする車両用監視装置。
In the vehicle monitoring device according to any one of claims 1 to 4,
The vehicular monitoring device, wherein the video processing means performs a blurring process along the flow of an optical flow on the video of each frame acquired by the photographing means.
車両の後方を撮像して映像を取得し、
取得した各フレームの映像を時間軸方向に積み重ねて立体を生成し、前記立体を立体の表面に位置するフレームの任意の画素と消失点とを通る直線または曲線で前記時間軸方向に切断したスライス画像上に、前記任意の画素を含む領域を設定し、各領域内に現れる直線および曲線の傾きに基づいて、前記任意の画素に写っている対象物が自車両から離れていくものか、自車両に接近してくるものか、あるいは自車両と並行して移動しているものかを判定し、
前記各フレームの映像に対して映像処理を施して、前記自車両から離れていく対象物が写っている画素の誘目性を低下させ、
映像処理を施した後の映像を表示することを特徴とする車両用監視方法。
Take a picture of the back of the vehicle
A slice obtained by stacking the acquired images of each frame in the time axis direction to generate a solid, and cutting the solid in the time axis direction by a straight line or a curve passing through any pixel and vanishing point of the frame located on the surface of the solid An area including the arbitrary pixel is set on the image, and based on the slope of the straight line and the curve appearing in each area, whether the object shown in the arbitrary pixel moves away from the own vehicle or not. Determine whether it is approaching the vehicle or moving in parallel with the host vehicle,
Video processing is performed on the video of each frame to reduce the attractiveness of pixels in which an object moving away from the host vehicle is shown,
A monitoring method for a vehicle, comprising displaying an image after image processing.
JP2006282774A 2006-10-17 2006-10-17 Apparatus and method for monitoring vehicle Pending JP2008103839A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006282774A JP2008103839A (en) 2006-10-17 2006-10-17 Apparatus and method for monitoring vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006282774A JP2008103839A (en) 2006-10-17 2006-10-17 Apparatus and method for monitoring vehicle

Publications (1)

Publication Number Publication Date
JP2008103839A true JP2008103839A (en) 2008-05-01

Family

ID=39437857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006282774A Pending JP2008103839A (en) 2006-10-17 2006-10-17 Apparatus and method for monitoring vehicle

Country Status (1)

Country Link
JP (1) JP2008103839A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101292115B1 (en) * 2011-12-13 2013-08-08 자동차부품연구원 Image system for vehicle
WO2015162910A1 (en) * 2014-04-24 2015-10-29 パナソニックIpマネジメント株式会社 Vehicle-mounted display device, method for controlling vehicle-mounted display device, and program
CN107512222A (en) * 2017-08-01 2017-12-26 信利光电股份有限公司 A kind of vehicle rearview accessory system and its control method
WO2018043437A1 (en) * 2016-09-01 2018-03-08 公立大学法人会津大学 Image distance calculation device, and computer-readable non-transitory recording medium with an image distance calculation program recorded thereon
JP2018040789A (en) * 2016-09-01 2018-03-15 公立大学法人会津大学 Image distance calculation device, image distance calculation method, and program for image distance calculation
JP7298063B1 (en) 2022-11-15 2023-06-27 Pciソリューションズ株式会社 machine learning recognition system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101292115B1 (en) * 2011-12-13 2013-08-08 자동차부품연구원 Image system for vehicle
WO2015162910A1 (en) * 2014-04-24 2015-10-29 パナソニックIpマネジメント株式会社 Vehicle-mounted display device, method for controlling vehicle-mounted display device, and program
JPWO2015162910A1 (en) * 2014-04-24 2017-04-13 パナソニックIpマネジメント株式会社 In-vehicle display device, control method for in-vehicle display device, and program
WO2018043437A1 (en) * 2016-09-01 2018-03-08 公立大学法人会津大学 Image distance calculation device, and computer-readable non-transitory recording medium with an image distance calculation program recorded thereon
JP2018040789A (en) * 2016-09-01 2018-03-15 公立大学法人会津大学 Image distance calculation device, image distance calculation method, and program for image distance calculation
US10803609B2 (en) 2016-09-01 2020-10-13 The Public University Corporation, The University Aizu Image distance calculator and computer-readable, non-transitory storage medium storing image distance calculation program
CN107512222A (en) * 2017-08-01 2017-12-26 信利光电股份有限公司 A kind of vehicle rearview accessory system and its control method
JP7298063B1 (en) 2022-11-15 2023-06-27 Pciソリューションズ株式会社 machine learning recognition system
JP2024071886A (en) * 2022-11-15 2024-05-27 Pciソリューションズ株式会社 Machine Learning Recognition System

Similar Documents

Publication Publication Date Title
US7728879B2 (en) Image processor and visual field support device
JP5953824B2 (en) Vehicle rear view support apparatus and vehicle rear view support method
JP5347257B2 (en) Vehicle periphery monitoring device and video display method
KR100550299B1 (en) Peripheral image processor of vehicle and recording medium
US8390695B2 (en) Image correction apparatus and method and method of making transformation map for the same
JP5760999B2 (en) Image processing apparatus and image processing method
US10783665B2 (en) Apparatus and method for image processing according to vehicle speed
CN109941194B (en) Image display device
JP2008103839A (en) Apparatus and method for monitoring vehicle
JP2008048345A (en) Image processing unit, and sight support device and method
JP2010016805A (en) Image processing apparatus, driving support system, and image processing method
JP5915923B2 (en) Image processing apparatus and driving support system
JP2007180720A (en) Vehicle drive support apparatus
US11273763B2 (en) Image processing apparatus, image processing method, and image processing program
JPH09223227A (en) Environment recognizing device for vehicle
JP6152261B2 (en) Car parking frame recognition device
US20160050342A1 (en) Image processing apparatus
JP6350369B2 (en) Display device
JP2015222934A (en) Vehicle periphery display device
FR2965956A1 (en) METHOD AND DEVICE FOR OPTICALLY REPRESENTING THE ENVIRONMENT OF A VEHICLE
JP6327115B2 (en) Vehicle periphery image display device and vehicle periphery image display method
JP5271186B2 (en) Image display device for vehicle
JP4857159B2 (en) Vehicle driving support device
JP5235843B2 (en) Vehicle periphery monitoring device and vehicle periphery monitoring method
JP2005182305A (en) Vehicle travel support device