JP4451161B2 - Obstacle recognition assist device - Google Patents

Obstacle recognition assist device Download PDF

Info

Publication number
JP4451161B2
JP4451161B2 JP2004049022A JP2004049022A JP4451161B2 JP 4451161 B2 JP4451161 B2 JP 4451161B2 JP 2004049022 A JP2004049022 A JP 2004049022A JP 2004049022 A JP2004049022 A JP 2004049022A JP 4451161 B2 JP4451161 B2 JP 4451161B2
Authority
JP
Japan
Prior art keywords
image
window
screen
image data
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004049022A
Other languages
Japanese (ja)
Other versions
JP2005244399A (en
Inventor
晃 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2004049022A priority Critical patent/JP4451161B2/en
Publication of JP2005244399A publication Critical patent/JP2005244399A/en
Application granted granted Critical
Publication of JP4451161B2 publication Critical patent/JP4451161B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)

Description

本発明は、画像認識技術に関し、特に、移動する物体の画像を画面内で適切に捕捉する技術に関する。   The present invention relates to an image recognition technique, and more particularly to a technique for appropriately capturing an image of a moving object within a screen.

本発明に関連する技術が例えば特許文献1に開示されている。図4は、この従来技術に係る装置の構成を示している。なお、この装置は、自車両に先行して走行している先行車両との車間を検出する装置である。
図4において、レンズ1001及び1002は、それぞれ基線長Lだけ離隔して左右対称に配置された一対のレンズであり、焦点距離fだけ後方に位置させているイメージセンサ1003及び1004の各々の表面に、距離Rだけ前方に位置する先行車両1014の像を結像させる。イメージセンサ1003及び1004の各々より出力される信号であって先行車両1014を含む視野の画像を表しているアナログ信号である画像信号は、A/D変換器1005及び1006によってそれぞれデジタルデータである画像データへと変換される。
A technique related to the present invention is disclosed in, for example, Patent Document 1. FIG. 4 shows the configuration of the apparatus according to this prior art. This device is a device that detects the distance between the vehicle and the preceding vehicle that is traveling ahead of the host vehicle.
In FIG. 4, lenses 1001 and 1002 are a pair of lenses that are separated from each other by a base line length L and are symmetrically arranged on the surface of each of image sensors 1003 and 1004 that are positioned rearward by a focal length f. Then, an image of the preceding vehicle 1014 positioned forward by the distance R is formed. Image signals that are output from each of the image sensors 1003 and 1004 and that are analog signals representing an image of the field of view including the preceding vehicle 1014 are digital data by the A / D converters 1005 and 1006, respectively. Converted to data.

メモリ1007、1008及び1009は、A/D変換器1005及び1006から各々出力された視野の画像データを記憶するメモリである。但し、メモリ1008には、新たに画像データがメモリ1007に格納されるときに、それまでメモリ1007に格納されていた画像データ、すなわち1撮像タイミング前の画像データがメモリ1007から転送されて格納される。   The memories 1007, 1008, and 1009 are memories that store the visual field image data output from the A / D converters 1005 and 1006, respectively. However, in the memory 1008, when new image data is stored in the memory 1007, the image data previously stored in the memory 1007, that is, the image data before one imaging timing is transferred from the memory 1007 and stored. The

追尾演算器1010はメモリ1007及びメモリ1008に格納されている画像データに基づいて先行車両1014の追尾演算を行う。距離演算器1011はメモリ1007とメモリ1009とに格納されている画像信号に基づいて先行車両14の距離演算を行う。CPU12は、各メモリ1007、1008、及び1009に各々格納されている画像データで表されている視野の画像に対して設定がされる、先行車両1014を含むウィンドウの位置を演算し、その位置を示すウィンドウ情報を追尾演算器1010及び距離演算器1011へ各々出力すると共に、そのウィンドウの設定された視野の画像をディスプレイ1013へ表示する。   The tracking calculator 1010 performs a tracking calculation of the preceding vehicle 1014 based on the image data stored in the memory 1007 and the memory 1008. The distance calculator 1011 calculates the distance of the preceding vehicle 14 based on the image signals stored in the memory 1007 and the memory 1009. The CPU 12 calculates the position of the window including the preceding vehicle 1014 that is set for the image of the field of view represented by the image data stored in each of the memories 1007, 1008, and 1009, and calculates the position. The window information shown is output to the tracking calculator 1010 and the distance calculator 1011, and the image of the field of view set in the window is displayed on the display 1013.

追尾演算器1010の動作について更に説明する。
追尾演算器1010は1撮像タイミング前(時刻t=t0 :以下、「前時刻」と称することとする)で撮像された後に、先行車両1014に関するウィンドウ位置が設定された視野の画像の画像データ(以下、「前画像データ」と称することとする)をメモリ1008より読み取る。更に、追尾演算器1010は現時刻(t=t0 +Δt)で撮像されてメモリ7に格納された視野の画像データ(以下、「現画像データ」と称することとする)を読み取る。そして、前画像データで表されている視野の画像(以下、「前画像」と称することとする)においてウィンドウが設定された追尾対象物である先行車両1014と同一の画像を、現画像データで表されている視野の画像(以下、「現画像」と称することとする)の中よりサーチする。なお、このサーチの手法は周知のパターンマッチングのアルゴリズムを用いる。
The operation of the tracking calculator 1010 will be further described.
The tracking computing unit 1010 is image data of an image of a field of view in which a window position related to the preceding vehicle 1014 is set after being imaged one imaging timing before (time t = t 0 : hereinafter referred to as “previous time”). (Hereinafter referred to as “previous image data”) is read from the memory 1008. Further, the tracking computing unit 1010 reads the field image data (hereinafter referred to as “current image data”) captured at the current time (t = t 0 + Δt) and stored in the memory 7. Then, in the image of the field of view represented by the previous image data (hereinafter referred to as “previous image”), the same image as the preceding vehicle 1014 that is the tracking target for which the window is set is represented by the current image data. A search is performed from the image of the field of view shown (hereinafter referred to as “current image”). This search method uses a known pattern matching algorithm.

このとき、現画像中における先行車両1014の画像のサーチ範囲は、前画像に設定されたウィンドウの位置を基準にして設定する。これは、前時刻から現時刻までの経過時間△tは微小であるため、先行車両1014の画像はウィンドウを設定した視野の画像の画面上の位置から殆ど移動していないとみなし得るからである。   At this time, the search range of the image of the preceding vehicle 1014 in the current image is set with reference to the position of the window set in the previous image. This is because the elapsed time Δt from the previous time to the current time is very small, so that the image of the preceding vehicle 1014 can be regarded as hardly moving from the position on the screen of the image of the field of view in which the window is set. .

追尾演算器1010が現画像より先行車両1014と同一の画像をサーチすると、現画像に対して設定する新しいウィンドウの位置をCPU1012は演算し、現画像に設定する(ウィンドウ設定手段1120)。このウィンドウの位置は、先行車両1014の像を結像させているイメージセンサ1003のピクセルの配置に対応したメモリ1007の番地で設定される。メモリ1007に格納されている現画像データで表されている現画像より先行車両1014がサーチされると、その先行車両1014の画像を含む現画像の画像データはメモリ1007よりメモリ1008に転送され、メモリ1008に格納されていた前画像データは更新される。   When the tracking computing unit 1010 searches the current image for the same image as the preceding vehicle 1014, the CPU 1012 calculates the position of a new window to be set for the current image and sets it to the current image (window setting means 1120). The position of this window is set at the address of the memory 1007 corresponding to the pixel arrangement of the image sensor 1003 on which the image of the preceding vehicle 1014 is formed. When the preceding vehicle 1014 is searched from the current image represented by the current image data stored in the memory 1007, the image data of the current image including the image of the preceding vehicle 1014 is transferred from the memory 1007 to the memory 1008. The previous image data stored in the memory 1008 is updated.

一方、CPU1012はメモリ1008より前画像データを読み出し、視野の画像をディスプレイ1013に表示すると共に、自己が設定したウィンドウ位置に従ってウィンドウ画像信号を生成し、更にウィンドウを視野の画像における先行車両1014の画像に重ね合わせて表示させる。   On the other hand, the CPU 1012 reads out the previous image data from the memory 1008, displays the image of the visual field on the display 1013, generates a window image signal according to the window position set by itself, and further displays the image of the preceding vehicle 1014 in the image of the visual field of the window. Are displayed in a superimposed manner.

以上の動作を行うことで、視野の画像内で先行車両1014の画像をウィンドウ内に捕捉して追尾することができる。
次に、特許文献1に開示されている、図4に示す装置による距離演算動作についても説明しておく。
By performing the above operation, the image of the preceding vehicle 1014 can be captured and tracked in the window within the field-of-view image.
Next, the distance calculation operation by the apparatus shown in FIG. 4 disclosed in Patent Document 1 will also be described.

距離演算器1011はメモリ1007及び1009に格納されている現画像データで表現されている視野の画像における先行車両1014の画像のうち、その一方の画素を横に1画素ずつシフトしながら、画素毎の差の絶対値の総和を求める。ここで、この総和が最も小さくなるときを、イメージセンサ1003及び1004の各々出力している画像信号が最も一致するときとみなし、そのときの画素のシフト数n、レンズ1001及び1002の間の基線長L、レンズ1001及び1002の焦点距離f、及びイメージセンサ1003及び1004を形成するピクセル間のピッチ幅pを以下の(1)式に代入すると、三角測量の原理によりレンズ1001及び1002から先行車両1014までの距離、すなわち車間距離Rが求まる。   The distance calculator 1011 shifts one pixel of the image of the preceding vehicle 1014 in the image of the field of view represented by the current image data stored in the memories 1007 and 1009 one pixel at a time. Find the sum of absolute values of differences. Here, the time when the sum becomes the smallest is regarded as the time when the image signals output from the image sensors 1003 and 1004 are the best match, and the pixel shift number n at that time and the base line between the lenses 1001 and 1002 When the length L, the focal length f of the lenses 1001 and 1002, and the pitch width p between the pixels forming the image sensors 1003 and 1004 are substituted into the following equation (1), the preceding vehicle is moved from the lenses 1001 and 1002 according to the principle of triangulation. The distance up to 1014, that is, the inter-vehicle distance R is obtained.

R=(f×L)/(n×p)・・・(1)
なお、このような、一対の撮像素子を用いることで撮像画像に表されている物体の距離を求めることができるようにした撮像装置はステレオ式撮像装置などと称されており、広く知られている。
特開平6−265351号公報
R = (f × L) / (n × p) (1)
Note that such an imaging apparatus that can obtain the distance of an object represented in a captured image by using a pair of imaging elements is called a stereo imaging apparatus or the like, and is widely known. Yes.
JP-A-6-265351

走行中の自車両の視野内に存在する物体は、自車両にとって危険性がないかどうか、特に細心の注意を払って注目する必要がある。とりわけ、その物体が自車両と衝突する可能性を有しているかどうかについては、頻繁に確認を行って、より早くその可能性を認識することが望ましく、その危険を未然に回避するための措置を講じることがそれだけ容易となる。しかしながら、前述した従来技術に係る装置では、先行車両1014の画像はあくまでも視野の画像の一部として捉えているため、視野の画像の撮像タイミングの間隔である、前記したΔtよりも短い間隔で視野内の物体の挙動の監視を行うことができない。   It is necessary to pay close attention to an object present in the field of view of the traveling vehicle, particularly if there is no danger to the traveling vehicle. In particular, it is desirable to check frequently whether or not the object has a possibility of colliding with the host vehicle, and recognize the possibility as soon as possible. It will be so easy to take. However, in the apparatus according to the related art described above, the image of the preceding vehicle 1014 is regarded as a part of the image of the field of view, and therefore the field of view is shorter than the above-described Δt, which is the interval of the imaging timing of the image of the field of view. The behavior of the object inside cannot be monitored.

本発明は上述した問題に鑑みてなされたものであり、その解決しようとする課題は、画面内に画像が表されている物体の挙動を監視する頻度を増加させることである。   The present invention has been made in view of the above-described problems, and a problem to be solved is to increase the frequency of monitoring the behavior of an object whose image is displayed on the screen.

本発明の態様のひとつである障害物認識補助装置は、撮像手段によって取得された画像の属する画面内に含まれる特異な挙動が認められる注目物体を特定するための注目物体特定手段と、当該画面の全領域よりも狭い領域を持つウィンドウ内に当該注目領域の画面の全部又は一部が位置するようにウィンドウを設定すると共に一旦ウィンドウが設定された後は当該注目物体の画像の全部又は一部が常に当該ウィンドウ内に位置するように当該画面の全領域内における当該ウィンドウの位置を追随的に制御するウィンドウ設定制御手段と、当該画面の全領域に対応する画像データを読み出す読み出しレートよりも速い読み出しレートで当該ウィンドウから当該ウィンドウに対応する画像データを読み出すウィンドウ画像データ読み出し手段と、を備え、且つ、当該撮像手段として、主として当該画面の全領域に対応する画像データを読み出すために用いる全画面データ用撮像素子と、主として当該ウィンドウの領域に対応する画像データを読み出すために用いるウィンドウデータ用撮像素子と、を備えてなるものを適用したことを特徴とするものである。   An obstacle recognition assisting apparatus that is one aspect of the present invention includes an object-of-interest specifying means for specifying an object of interest in which a unique behavior is recognized that is included in a screen to which an image acquired by an imaging unit belongs, and the screen The window is set so that all or part of the screen of the region of interest is located in a window having an area narrower than the entire region of the image, and once the window is set, all or part of the image of the object of interest Is faster than the window setting control means for controlling the position of the window in the entire area of the screen so as to be always located in the window, and the readout rate for reading out the image data corresponding to the entire area of the screen. Window image data reading means for reading image data corresponding to the window from the window at a reading rate; And an imaging device for full-screen data mainly used for reading out image data corresponding to the entire area of the screen, and window data used for reading out image data corresponding to the area of the window. And an image pickup device for use.

なお、上述した本発明に係る障害物認識補助装置において、前述した注目物体特定手段は、当該障害物認識補助装置が備えられた物体との相対位置が急接近し又は相対的に近い所定の距離内に位置し若しくはこれらの位置関係に至る蓋然性が認められる物体を上述の注目物体として特定するようになされたものとしてもよい。   Note that, in the obstacle recognition assisting apparatus according to the present invention described above, the object-of-interest specifying means described above is a predetermined distance in which the relative position with the object provided with the obstacle recognition assisting apparatus suddenly approaches or is relatively close. An object located within or having a probability of reaching these positional relationships may be specified as the above-mentioned object of interest.

また、前述した本発明に係る障害物認識補助装置において、前述したウィンドウ画面データ読み出し手段は、前述のウィンドウに関する画像データの読み出しレートとして、前述の画面の全領域に対応する画像データの読み出しレートに当該全領域に対するウィンドウの面積比の逆数を乗じたものに相応するように構成してもよい。   Further, in the obstacle recognition assisting apparatus according to the present invention described above, the window screen data reading means described above has a reading rate of image data corresponding to the entire area of the screen as the reading rate of the image data related to the window. You may comprise so that it may correspond to what multiplied the reciprocal of the area ratio of the window with respect to the said whole area | region.

また、前述した本発明に係る障害物認識補助装置において、前述した撮像手段はステレオ式撮像装置であり、前述した注目物体特定手段は、当該ステレオ式撮像装置によって取得される距離画像のデータに依拠して前述の画面内に含まれる物体の特異な挙動を認識して注目物体を特定するように構成してもよい。   In the obstacle recognition assisting apparatus according to the present invention described above, the imaging unit described above is a stereo imaging apparatus, and the above-described attention object specifying unit depends on data of a distance image acquired by the stereo imaging apparatus. Then, the object of interest may be identified by recognizing the unique behavior of the object included in the screen.

また、前述した本発明に係る障害物認識補助装置において、前述した撮像手段は、共通の撮像光学系に介挿された光分割手段によって前述の全画面データ用撮像素子と前述のウィンドウデータ用撮像素子とに対して実質的に等しい撮像視野に係る像が結ばれるように構成された光学系を有するものであるように構成してもよい。   Further, in the obstacle recognition assisting apparatus according to the present invention described above, the above-described imaging means includes the above-described full-screen data imaging element and the above-described window data imaging by means of a light splitting means inserted in a common imaging optical system. You may comprise so that it may have an optical system comprised so that the image which concerns on an imaging field substantially equivalent with an element may be tied.

また、前述した本発明に係る障害物認識補助装置において、前述したウィンドウデータ用撮像素子は、MOS型の撮像素子としてもよい。
また、前述した本発明に係る障害物認識補助装置において、前述のウィンドウから読み出される画像データに基づいて前述の注目物体の挙動を検出する挙動検出手段を更に備えるように構成してもよい。
In the obstacle recognition assisting apparatus according to the present invention described above, the window data imaging device described above may be a MOS type imaging device.
The obstacle recognition assisting apparatus according to the present invention described above may be configured to further include behavior detection means for detecting the behavior of the object of interest based on the image data read from the window.

また、前述した本発明に係る障害物認識補助装置において、前述したウィンドウ設定制御手段は、前述のウィンドウデータ用撮像素子に係る画面の全領域内に前述のウィンドウを複数設定することが可能に構成されたものとしてもよい。   Further, in the obstacle recognition assisting apparatus according to the present invention described above, the window setting control means described above is configured to be able to set a plurality of the windows described above in the entire area of the screen related to the window data imaging device. It is good also as what was done.

本発明は、以上のように構成されているので、画面内に画像が表されている物体の挙動を監視する頻度が増加するという効果を奏する。   Since this invention is comprised as mentioned above, there exists an effect that the frequency which monitors the behavior of the object by which the image is represented on the screen increases.

以下、本発明の実施の形態を図面に基づいて説明する。
まず図1について説明する。同図は本発明を実施する装置の構成を示している。同図に示した装置は車両に搭載されて使用されるものであり、この装置を搭載した車両(自車両)との相対距離が近くなる物体を、自車両と衝突するおそれのある障害物とみなし、その物体の画像を自車両の周囲の風景が表されている画像内で特定すると共に、その障害物が表されている画像データを出力するという機能を有するものである。なお、ここでは、この装置を障害物認識補助装置と称している。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
First, FIG. 1 will be described. This figure shows the configuration of an apparatus for carrying out the present invention. The device shown in the figure is used by being mounted on a vehicle, and an object whose relative distance to the vehicle (host vehicle) on which the device is mounted becomes an obstacle that may collide with the host vehicle. It is assumed that the image of the object is specified in the image representing the scenery around the host vehicle and the image data representing the obstacle is output. Here, this device is referred to as an obstacle recognition assisting device.

レンズ1及び2はそれぞれ基線長Lだけ離隔して左右対称に配置された一対のレンズであり、レンズ1及び2から距離Rだけ前方に位置する障害物の像を焦点距離fだけ後方で結像させる。
ハーフミラー3及び4は、レンズ1及び2を通過した光の一部を撮像素子3及び4の方向へ透過させる一方で、その光の残りを反射してその光路を撮像素子7及び8の方向へ向かわせる光分割手段である。
The lenses 1 and 2 are a pair of lenses arranged symmetrically with a distance of a base line length L, respectively, and an image of an obstacle positioned at a distance R from the lenses 1 and 2 is formed behind the focal length f. Let
The half mirrors 3 and 4 transmit part of the light that has passed through the lenses 1 and 2 in the direction of the image sensors 3 and 4, while reflecting the rest of the light and passing the optical path in the directions of the image sensors 7 and 8. This is the light splitting means that is directed to

撮像素子5及び6はステレオ式撮像装置を構成している。撮像素子5及び6の受光面はレンズ1及び2からその焦点距離fだけ後方に配置されており、従って障害物の像がその受光面で結像する。撮像素子5及び6は、撮像素子駆動制御部33による制御の下で、自車両の周囲の風景の画像であって障害物の像を含んでいる画像(以下、「風景画像」と称することとする)を光電変換し、この画像を表している画像信号を出力する。なお、本実施形態においては、この撮像素子として、消費電力の低減や部品コストの低減といった点で有利であるMOS(Metal Oxide Semiconductor )型のイメージセンサを用いることとする。   The imaging elements 5 and 6 constitute a stereo imaging device. The light receiving surfaces of the image pickup devices 5 and 6 are disposed behind the lenses 1 and 2 by the focal length f, and therefore an image of an obstacle is formed on the light receiving surfaces. The image sensors 5 and 6 are images of landscapes around the host vehicle and including obstacle images under the control of the image sensor drive control unit 33 (hereinafter referred to as “landscape images”). The image signal representing this image is output. In the present embodiment, a MOS (Metal Oxide Semiconductor) type image sensor that is advantageous in terms of reduction of power consumption and part cost is used as the image sensor.

撮像素子7及び8もステレオ式撮像装置を構成しており、上述したものと同様の理由により、本実施形態においてはMOS型のイメージセンサを用いることとする。この撮像素子7及び8の受光面は、レンズ1及び2からハーフミラー3及び4で曲げられて撮像素子7及び8の受光面へ至るまでの光路長が、ちょうどレンズ1及び2の焦点距離fと等しくなる位置に配置されており、従って障害物の像がその受光面で結像する。つまり、図1に示す装置の光学系は、レンズ1及び2の各々から撮像素子5、6、7、及び8の各々へ至る光路中に介挿されたハーフミラー3及び4によって、撮像素子5及び6と撮像素子7及び8とに対して実質的に等しい撮像視野に係る像が結ばれるように構成されている。   The imaging elements 7 and 8 also constitute a stereo imaging device, and for the same reason as described above, a MOS type image sensor is used in the present embodiment. The light receiving surfaces of the image pickup devices 7 and 8 are bent by the half mirrors 3 and 4 from the lenses 1 and 2 to reach the light receiving surfaces of the image pickup devices 7 and 8, and the focal length f of the lenses 1 and 2 is exactly the same. Therefore, an obstacle image is formed on the light receiving surface. That is, the optical system of the apparatus shown in FIG. 1 has an image sensor 5 by half mirrors 3 and 4 inserted in the optical path from each of the lenses 1 and 2 to each of the image sensors 5, 6, 7, and 8. And 6 and the image sensors 7 and 8 are configured such that substantially the same image field of view is formed.

なお、撮像素子7及び8として使用するイメージセンサは、いわゆるWOI(Window of Interest)機能を備えるものを用いるようにし、撮像素子駆動制御部34による制御の下で、風景画像のうち撮像範囲を指定の範囲(ウィンドウ)に制限したウィンドウ画像を光電変換し、この画像を表している画像信号を出力する。   The image sensors used as the image pickup devices 7 and 8 are those having a so-called WOI (Window of Interest) function, and the image pickup range is specified in the landscape image under the control of the image pickup device drive control unit 34. The window image limited to the range (window) is photoelectrically converted, and an image signal representing this image is output.

このWOI機能について、図2を用いて更に説明する。
WOI機能を有するイメージセンサは、全体撮像時においては、図2(a)に示すように、撮像可能な最大画素数の画像(同図の例においては画素数が640×480画素の画像)を所定の撮像レート(例えば30フレーム/秒)で撮像してその画像全体についての画像信号を出力する一方、WOI機能による部分撮像時においては、図2(b)に示すように、全体撮像によって得られる画像のうち撮像範囲を指定の範囲(ウィンドウ)に制限したウィンドウ画像(同図の例においては、全体撮像時において撮像される画面の全領域に対し画素数が1/4である320×240画素の画面に表される画像)のみを全体撮像時よりも高速な撮像レート(例えば全体撮像時における撮像レートが30フレーム/秒である場合には、画素数の減少率の逆数倍である120フレーム/秒(=30×4))で撮像してそのウィンドウ画像についての画像信号を出力することができる。
This WOI function will be further described with reference to FIG.
As shown in FIG. 2A, an image sensor having a WOI function captures an image having the maximum number of pixels that can be imaged (an image having a pixel number of 640 × 480 pixels in the example shown in FIG. 2A). While imaging at a predetermined imaging rate (for example, 30 frames / second) and outputting an image signal for the entire image, at the time of partial imaging by the WOI function, as shown in FIG. Window image in which the imaging range is limited to a specified range (window) among the images to be captured (in the example of the figure, 320 × 240 in which the number of pixels is 1/4 with respect to the entire area of the screen imaged at the time of the entire imaging. Only the image displayed on the pixel screen) has a higher imaging rate than the entire imaging (for example, when the imaging rate at the entire imaging is 30 frames / second, the reduction rate of the number of pixels Images can be captured at 120 frames / second (= 30 × 4) which is a reciprocal multiple, and an image signal for the window image can be output.

なお、本実施形態においては、全画面データ用撮像素子である撮像素子5及び6の撮像範囲がウィンドウデータ用撮像素子である撮像素子7及び8の全体撮像時における撮像範囲と一致しており、撮像素子5及び6の撮像レートと撮像素子7及び8の全体撮像時における撮像レートが等しいものとする。   In the present embodiment, the imaging ranges of the imaging devices 5 and 6 that are full-screen data imaging devices are the same as the imaging range during the entire imaging of the imaging devices 7 and 8 that are window data imaging devices, Assume that the imaging rates of the imaging devices 5 and 6 are equal to the imaging rates during the entire imaging of the imaging devices 7 and 8.

図1の説明へ戻る。
A/D変換器11及び12は、撮像素子5及び6から各々出力されたアナログ信号である画像信号が入力されるとこの画像信号をアナログ−デジタル変換し、風景画像を表現している画像データを各々出力する。
Returning to the description of FIG.
When A / D converters 11 and 12 receive image signals, which are analog signals output from the image pickup devices 5 and 6, respectively, the image signals are converted from analog to digital and image data representing a landscape image. Are output respectively.

A/D変換器13及び14は、撮像素子7及び8から各々出力されたアナログ信号である画像信号が入力されるとこの画像信号をアナログ−デジタル変換し、ウィンドウ画像を表現している画像データを各々出力する。
なお、A/D変換器11、12、13及び14におけるアナログ信号のサンプリングや変換に要する時間は、他の処理に支障がない程度に十分に高速なものとする。
When A / D converters 13 and 14 receive image signals, which are analog signals output from the image sensors 7 and 8, respectively, the image signals are converted from analog to digital, and image data representing a window image. Are output respectively.
Note that the time required for sampling and conversion of analog signals in the A / D converters 11, 12, 13, and 14 is sufficiently high so that other processing is not hindered.

メモリ15及び16は、A/D変換器11及び12から各々出力された風景画像の画像データを各々一時的に保存し、メモリ17及び18は、A/D変換器13及び14から各々出力されたウィンドウ画像の画像データを各々一時的に保存し、
距離演算部19は、撮像素子5及び6によって撮像された風景画像を表現している画像データがメモリ15及び16に新たに保存される度にその画像データを読み出し、その画像データで表現されている風景画像を構成している画素の各々に表されている物体と自車両との間の相対距離を求める。この相対距離は、前述した図4に示した装置における距離演算器1011による距離の算出法、すなわち前述した三角測量の原理に基づく(1)式に従った算出法より求めることができる。これは、撮像素子5及び6をステレオ式撮像装置として用いたことによって可能となる。
The memories 15 and 16 temporarily store image data of landscape images output from the A / D converters 11 and 12, respectively, and the memories 17 and 18 are output from the A / D converters 13 and 14, respectively. Temporarily save the image data of each window image,
The distance calculation unit 19 reads the image data each time image data representing a landscape image captured by the image sensors 5 and 6 is newly stored in the memories 15 and 16, and is expressed by the image data. The relative distance between the object represented in each of the pixels constituting the scenery image and the host vehicle is obtained. This relative distance can be obtained by the distance calculation method by the distance calculator 1011 in the apparatus shown in FIG. 4 described above, that is, the calculation method according to the formula (1) based on the principle of triangulation described above. This is made possible by using the imaging elements 5 and 6 as a stereo imaging device.

CPU20は中央演算装置であり、不図示のROM(Read Only Memory)に予め格納されている制御プログラムを実行することにより、距離画像生成部21、注目物体特定部22、ウィンドウ設定制御部23、ウィンドウ画像データ読み出し部24、及び画像処理部25の各機能を実現する。なお、これらの各機能をCPU20と制御プログラムとの組み合わせにより実現する代わりに個別のハードウェアで実現するように構成してもよく、また、距離演算部19によって行われている相対距離の算出をCPU20で実現するようにしてもよい。   The CPU 20 is a central processing unit, and by executing a control program stored in advance in a ROM (Read Only Memory) (not shown), the distance image generating unit 21, the target object specifying unit 22, the window setting control unit 23, the window Each function of the image data reading unit 24 and the image processing unit 25 is realized. Note that each of these functions may be realized by separate hardware instead of being realized by a combination of the CPU 20 and the control program, and the relative distance calculation performed by the distance calculation unit 19 may be performed. You may make it implement | achieve with CPU20.

距離画像生成部21は、メモリ15及び16に格納されている画像データで表現されている風景画像を構成する各画素に、距離演算部19から出力される相対距離の情報を対応付けた画像である、距離画像のデータを生成する。
注目物体特定部22は、距離画像のデータに基づいて、風景画像に表されている物体の風景画像内の位置を特定する。具体的には、風景画像における画素のうち、隣接している画素に対応付けられている相対距離の差が所定値以内のものについては同一の物体の画像であるとみなし、これらの画素の位置している風景画像内の範囲を特定する。また、ここで、現画像である風景画像に表されている各物体と、過去に取得されていた風景画像に表されていた各物体との間で、形状、大きさ、色彩、位置等に基づいて相関を求め、所定の程度以上で最も高い相関を有している物体同士を同一の物体として関連付けておく。
The distance image generation unit 21 is an image in which the information on the relative distance output from the distance calculation unit 19 is associated with each pixel constituting the landscape image represented by the image data stored in the memories 15 and 16. A certain distance image data is generated.
The object-of-interest specifying unit 22 specifies the position of the object represented in the landscape image in the landscape image based on the distance image data. Specifically, among the pixels in the landscape image, those in which the difference in relative distance associated with adjacent pixels is within a predetermined value are regarded as images of the same object, and the positions of these pixels The range in the landscape image is identified. In addition, here, the shape, size, color, position, etc., between each object represented in the current landscape image and each object represented in the landscape image acquired in the past Correlation is obtained based on this, and objects having the highest correlation above a predetermined level are associated with each other as the same object.

更に、注目物体特定部22は、風景画像に表されているこれらの物体のうち、特異な挙動が認められるもの(例えば障害物)を注目物体として特定する。
本実施例において、注目物体特定部22は、まず、距離演算部19から得られる画素毎の相対距離の情報から、風景画像に表されている各物体と自車両との間の現時刻における相対距離を例えば画素毎の相対距離の算術平均により算出する。ここで、この相対距離が所定の距離内にある物体は自車両に近い物体であり、自車両に衝突する蓋然性を有しているとみなし得るので、注目物体とする。
Further, the object-of-interest specifying unit 22 specifies an object (for example, an obstacle) in which a unique behavior is recognized among these objects shown in the landscape image as the object of attention.
In the present embodiment, the target object specifying unit 22 firstly compares the relative distance at the current time between each object represented in the landscape image and the host vehicle from the information on the relative distance for each pixel obtained from the distance calculation unit 19. The distance is calculated by, for example, the arithmetic average of the relative distance for each pixel. Here, an object whose relative distance is within a predetermined distance is an object close to the own vehicle, and can be regarded as having a probability of colliding with the own vehicle, and thus is an object of interest.

本実施例における注目物体特定部22には、更に、自車両のスピードメータに関連して備えられ自車両の走行速度を表す信号を出力する不図示の自車両速度検出手段からの出力信号Vと、自車両のハンドルに関連して備えられハンドルの舵角を表す信号を出力する不図示のハンドル角度検出手段θとが各々供給されるようになされている。注目物体特定部22は、これらの信号V、θ等に依拠して自車両の挙動を推定し上記衝突の蓋然性や他の車両ないし物体と接近する模様を実用上十分な確度で割り出すことが可能になされている。   The object-of-interest specifying unit 22 in the present embodiment further includes an output signal V from a vehicle speed detection unit (not shown) that is provided in association with the speedometer of the vehicle and outputs a signal representing the traveling speed of the vehicle. , A steering wheel angle detection means θ (not shown) that is provided in relation to the steering wheel of the host vehicle and outputs a signal indicating the steering angle of the steering wheel is supplied. The object-of-interest specifying unit 22 estimates the behavior of the host vehicle based on these signals V, θ, etc., and can determine the probability of the collision and the pattern of approaching another vehicle or object with practically sufficient accuracy. Has been made.

また、本実施例において、注目物体特定部22は、各物体と自車両との間の過去(例えば前時刻)における相対距離を注目物体特定部22が保存しておき、この過去の相対距離と現時刻の相対距離とから各物体と自車両との接近速度を算出する。ここで、この接近速度が所定の速度以上である物体は自車両に急接近する物体であり、このような物体は自車両に衝突する蓋然性を有しているとみなし得るので、注目物体とする。   In this embodiment, the target object specifying unit 22 stores the relative distance in the past (for example, the previous time) between each object and the host vehicle, and the target object specifying unit 22 stores the relative distance in the past. The approach speed between each object and the host vehicle is calculated from the relative distance at the current time. Here, an object whose approach speed is equal to or higher than a predetermined speed is an object that approaches the host vehicle suddenly, and such an object can be regarded as having a probability of colliding with the host vehicle. .

更に、本実施例において、注目物体特定部22は、各物体の相対距離と自車両を基準としたときの移動方向とから、自車両との間の相対距離が前述した所定の距離内にまで近づく蓋然性があるか否かを判定し、この蓋然性が存在する物体についても注目物体とする。
ウィンドウ設定制御部23は、現時刻の背景画像に対し、注目物体特定部22によって特定された注目物体の画像が位置するようにウィンドウを設定する。また、既にウィンドウが設定されている場合には、注目物体特定部22によって各物体に与えられている過去の背景画像と現時刻における背景画像とについての関連付けの情報に基づいて風景画像の全領域内におけるウィンドウの位置を追随させる制御を行い、注目物体の画像が常に当該ウィンドウ内に位置させるようにする。なお、このウィンドウの形状及び大きさは予め設定しておく。また、注目物体の画像とウィンドウとの形状及び大きさの相違により、注目物体の画像の全部をウィンドウ内に位置させることができない場合でも、注目物体の画像の少なくとも一部はウィンドウ内に位置させるようにウィンドウの位置を制御する。
Furthermore, in the present embodiment, the object-of-interest specifying unit 22 determines that the relative distance between the subject vehicle and the relative distance between the subject vehicle and the subject vehicle is within the predetermined distance described above. It is determined whether or not there is a probability of approaching, and an object having this probability is also set as a target object.
The window setting control unit 23 sets a window so that the image of the target object specified by the target object specifying unit 22 is positioned with respect to the background image at the current time. If the window has already been set, the entire area of the landscape image is based on the association information between the past background image given to each object by the target object specifying unit 22 and the background image at the current time. Control is performed so as to follow the position of the window in the window so that the image of the object of interest is always positioned in the window. Note that the shape and size of the window are set in advance. Further, even when the entire image of the target object cannot be located in the window due to the difference in shape and size between the target object image and the window, at least a part of the target object image is positioned in the window. To control the window position.

本実施例におけるウィンドウ設定制御部23は、更に、上述の注目物体の挙動や同物体の自車両との相対運動の状況、同物体の大きさ、表示した場合の視認のし易さ等を勘案して注目物体の撮像に係る適切なフレームレートを算出する必要フレームレート算出機能部を備え、既述のWOIに関して、所要に応じて適切なフレームレートで撮像するための制御情報を撮像阻止駆動制御部34に供給可能になされている。   The window setting control unit 23 in the present embodiment further takes into account the behavior of the above-mentioned object of interest, the relative movement of the object with the host vehicle, the size of the object, ease of visual recognition when displayed, and the like. And a necessary frame rate calculation function unit for calculating an appropriate frame rate related to the imaging of the object of interest, and control information for imaging at an appropriate frame rate as required for the above-described WOI. The unit 34 can be supplied.

ウィンドウ画像データ読み出し部24は、撮像素子7及び8による前述したWOI機能による部分撮像によって撮像されたウィンドウ画像を表現している画像データがメモリ17及び18に保存される度にその画像データをメモリ17及び18から読み出し、読み出した画像データを画像処理部25へ送付すると共に外部へ出力する。   The window image data reading unit 24 stores the image data each time image data representing the window image captured by the partial imaging by the above-described WOI function by the imaging elements 7 and 8 is stored in the memories 17 and 18. 17 and 18, and the read image data is sent to the image processing unit 25 and output to the outside.

画像処理部25は、風景画像にウィンドウが設定されている場合に、メモリ17及び18から読み出した風景画像の画像データ、ウィンドウ画像データ読み出し部24から送られてくるウィンドウ画像についての画像データ、及びウィンドウ設定制御部23から得られる風景画像中におけるウィンドウの位置を示す情報に基づき、風景画像におけるウィンドウの位置にウィンドウ画像を嵌め込み合成した合成画像についての画像データを生成する処理を行う。また、必要に応じ、合成画像の履歴から、ウィンドウ画像に表されている注目物体の挙動(例えば、自車両を基準とした注目物体の相対的な移動方向や移動速度)を検出し、その挙動の様子を示す情報が合成画像に重畳表示された画像についての画像データを生成する処理を行う。   When a window is set for the landscape image, the image processing unit 25 reads the image data of the landscape image read from the memories 17 and 18, the image data about the window image sent from the window image data read unit 24, and Based on the information indicating the position of the window in the landscape image obtained from the window setting control unit 23, processing is performed to generate image data for a combined image obtained by fitting the window image into the position of the window in the landscape image. If necessary, the behavior of the target object shown in the window image (for example, the relative moving direction and speed of the target object with reference to the host vehicle) is detected from the composite image history, and the behavior is detected. A process of generating image data for an image in which information indicating the state of the above is superimposed and displayed on the composite image is performed.

D/A変換部31は、画像処理部25によって生成された画像データをデジタル−アナログ変換し、上述した合成画像を表現している画像信号を出力する。
表示装置32は例えばLCD(Liquid Crystal Display)であり、D/A変換部31から出力された画像信号で表現されている画像を表示する。
The D / A conversion unit 31 performs digital-analog conversion on the image data generated by the image processing unit 25 and outputs an image signal representing the above-described composite image.
The display device 32 is an LCD (Liquid Crystal Display), for example, and displays an image represented by the image signal output from the D / A conversion unit 31.

撮像素子駆動制御部33は、撮像素子5及び6の動作を制御するものであり、所定の撮像レートでの風景画像の撮像を撮像素子5及び6に行わせる。
撮像素子駆動制御部34は、撮像素子7及び8の動作を制御するものであり、特に、注目物体特定部22から送られてくる、風景画像から注目物体を特定したか否かを示す信号と、ウィンドウ設定制御部23から送られてくる、風景画像中におけるウィンドウの位置を示す情報とに基づき、撮像素子5及び6による風景画像の撮像レートよりも速い撮像レートでのWOI機能による部分撮像を撮像素子7及び8に行わせると共に部分撮像時におけるウィンドウ画像の撮像範囲の設定変更を行う。
The image sensor drive control unit 33 controls the operation of the image sensors 5 and 6 and causes the image sensors 5 and 6 to capture a landscape image at a predetermined image rate.
The image sensor drive control unit 34 controls the operation of the image sensors 7 and 8, and in particular, a signal sent from the object-of-interest specifying unit 22 and indicating whether or not the object of interest has been identified from the landscape image. Based on the information indicating the position of the window in the landscape image sent from the window setting control unit 23, partial imaging by the WOI function at an imaging rate faster than the imaging rate of the landscape image by the imaging elements 5 and 6 is performed. The imaging elements 7 and 8 are made to change the setting of the imaging range of the window image at the time of partial imaging.

撮像素子駆動制御部33及び34によって行われる撮像素子5、6、7、及び8の駆動制御について、図3を参照しながら更に説明する。
なお、以下の説明において、撮像素子5及び6は、図2(a)に示したように、画素数が640×480画素の風景画像を撮像するものとし、撮像素子7及び8は、WOI機能による部分撮像において、図2(b)に示したように、ウィンドウサイズを全体撮像時の撮像画素数の1/4、すなわち320×240画素のウィンドウ画像を撮像するものとする。
The drive control of the image sensors 5, 6, 7, and 8 performed by the image sensor drive control units 33 and 34 will be further described with reference to FIG.
In the following description, as shown in FIG. 2A, the image sensors 5 and 6 capture a landscape image with 640 × 480 pixels, and the image sensors 7 and 8 have the WOI function. As shown in FIG. 2B, in the partial imaging by, a window image having a window size of ¼ of the number of imaging pixels at the time of overall imaging, that is, 320 × 240 pixels is captured.

図3(a)は、撮像素子駆動制御部33内部で生成されている、撮像素子5及び6による風景画像の撮像開始の指示を表す信号の変化例を示しており、図3(c)は、撮像素子駆動制御部34内部で生成されている、撮像素子7及び8によるウィンドウ画像の撮像開始の指示を表す信号の変化例を示している。これらの信号はいずれもパルス信号であり、各パルスにおける立ち上がりのエッジが撮像開始の指示を表している。従って、この立ち上がりエッジの周期(秒)が画像の撮像間隔となり、この周期の逆数が撮像レート(フレーム/秒)となる。   FIG. 3A shows an example of a change in a signal that is generated inside the image sensor drive control unit 33 and that indicates an instruction to start capturing a landscape image by the image sensors 5 and 6, and FIG. 4 shows a change example of a signal that is generated inside the image sensor drive control unit 34 and that indicates an instruction to start capturing a window image by the image sensors 7 and 8. Each of these signals is a pulse signal, and the rising edge in each pulse represents an instruction to start imaging. Therefore, the period (second) of the rising edge is the image capturing interval, and the reciprocal of this period is the image capturing rate (frame / second).

また、図3(b)は、注目物体特定部22から撮像素子駆動制御部34へ送られてくる注目物体特定信号を示している。この信号はH(ハイ)レベルとL(ロー)レベルとの2値をとり、風景画像から注目物体を特定したか否かを示しており、Hレベルのときは注目物体を特定したことを示し、Lレベルのときは注目物体を特定していないことを示している。   FIG. 3B shows a target object specifying signal sent from the target object specifying unit 22 to the image sensor drive control unit 34. This signal takes a binary value of H (high) level and L (low) level, and indicates whether or not the object of interest has been identified from the landscape image. When it is at the H level, it indicates that the object of interest has been identified. The L level indicates that the object of interest is not specified.

図3において、(a)に示されている風景画像の撮像指示の信号は、(b)に示されている注目物体特定信号とは無関係にパルスが生成されており、各パルスの立ち上がりエッジの周期は常にTで維持されている。一方、(c)に示されているウィンドウ画像の撮像指示の信号は、(b)の注目物体特定信号がLレベルのとき、すなわち、注目物体が特定されていないときにはパルスが生成されておらず、その一方、(b)の注目物体特定信号がHレベルのとき、すなわち、注目物体が特定されているときには立ち上がりエッジの周期はT/4でパルスが生成されている。   In FIG. 3, the landscape image capturing instruction signal shown in (a) is generated with a pulse regardless of the target object specifying signal shown in (b). The period is always maintained at T. On the other hand, the window image capturing instruction signal shown in (c) has no pulse generated when the target object specifying signal in (b) is at L level, that is, when the target object is not specified. On the other hand, when the target object specifying signal in (b) is at the H level, that is, when the target object is specified, the period of the rising edge is T / 4 and a pulse is generated.

図3に示した[A]及び[B]の期間は、図3(b)の注目物体特定信号がLレベルである期間、すなわち、注目物体が特定されていない期間である。
この期間において、撮像素子駆動制御部33は、撮像素子5及び6による風景画像の撮像動作を、図3(a)のパルス信号の立ち上がりエッジのタイミングに従い、周期Tで逐次行わせる。一方、この期間において、素子駆動制御部34は撮像素子7及び8によるウィンドウ画像の撮像動作を停止させている。従って、この期間には、メモリ17及び18への画像データのウィンドウ画像データの書き込みが行われないので、読み出し部24によるウィンドウ画像データの読み出しも行われない。このとき、画像処理部25は合成処理を行わない。従って、表示装置32には風景画像がそのまま表示される。
The periods [A] and [B] shown in FIG. 3 are periods in which the target object specifying signal in FIG. 3B is at the L level, that is, a period in which the target object is not specified.
In this period, the image sensor drive control unit 33 sequentially performs the landscape image capturing operation by the image sensors 5 and 6 at the period T according to the timing of the rising edge of the pulse signal in FIG. On the other hand, during this period, the element drive control unit 34 stops the window image capturing operation by the image sensors 7 and 8. Accordingly, during this period, the window image data is not written into the memories 17 and 18, so the window image data is not read out by the reading unit 24. At this time, the image processing unit 25 does not perform the synthesis process. Accordingly, the landscape image is displayed on the display device 32 as it is.

図3に示した[C]の期間は、図3(b)の注目物体特定信号がHレベルである期間、すなわち、直前の[B]の期間で撮像された風景画像より注目物体の特定を注目物体特定部22が行った後の期間である。
この期間においても、撮像素子駆動制御部33は、撮像素子5及び6による風景画像の撮像動作を、図3(a)のパルス信号の立ち上がりエッジのタイミングに従い、周期Tで逐次行わせる。更に、この期間には、撮像素子駆動制御部34が、撮像素子7及び8によるウィンドウ画像の撮像動作を、図3(c)のパルス信号の立ち上がりエッジのタイミングに従い、周期T/4で逐次行わせる。なお、このときには、撮像素子駆動制御部34は、風景画像中におけるウィンドウの設定位置を示す情報をウィンドウ設定制御部23から受け取っており、風景画像に設定されたウィンドウの範囲の撮像、すなわち注目物体の撮像を撮像素子7及び8に行わせてウィンドウ画像を得る。
The period [C] shown in FIG. 3 specifies the target object from the landscape image captured in the period when the target object specification signal in FIG. 3B is at the H level, that is, the period [B] immediately before. This is a period after the attention object specifying unit 22 has performed.
Even during this period, the image sensor drive control unit 33 sequentially performs the landscape image capturing operation by the image sensors 5 and 6 at the period T according to the timing of the rising edge of the pulse signal in FIG. Further, during this period, the image sensor drive control unit 34 sequentially performs the window image imaging operation by the image sensors 7 and 8 at a cycle T / 4 according to the timing of the rising edge of the pulse signal in FIG. Make it. At this time, the image sensor drive control unit 34 receives information indicating the setting position of the window in the landscape image from the window setting control unit 23, and captures the range of the window set in the landscape image, that is, the object of interest. Are picked up by the image pickup devices 7 and 8 to obtain window images.

ここで、風景画像とウィンドウ画像との1フレームの撮像時間に注目すると、ウィンドウ画像の撮像時には風景画像の撮像時の1/4倍の撮像間隔となっているので、撮像素子7及び8は撮像素子5及び6による風景画像の撮像時の少なくとも4倍の撮像レートでウィンドウ画像を撮像する必要がある。ところが、前述したように、ウィンドウ画像の撮像画素数は320×240画素としており、これは、風景画像の撮像画素数である640×480画素の1/4倍であるので、風景画像の撮像時に対して4倍の撮像レートでのウィンドウ画像の撮像を撮像素子7及び8に行わせることが可能である。   Here, when attention is paid to the imaging time of one frame of the landscape image and the window image, the imaging elements 7 and 8 capture the image because the imaging interval is ¼ times that when capturing the landscape image when the window image is captured. It is necessary to capture the window image at an imaging rate that is at least four times that when capturing landscape images by the elements 5 and 6. However, as described above, the number of pixels for capturing a window image is 320 × 240 pixels, which is ¼ times the number of pixels for capturing landscape images, which is 640 × 480 pixels. On the other hand, it is possible to cause the image pickup devices 7 and 8 to pick up a window image at a four times higher image pickup rate.

このように、風景画像に対するウィンドウ画像の画素数の比(すなわち面積比)の逆数を風景画像の撮像レートに乗じたものをウィンドウ画像の撮像レートとすることにより、ウィンドウ画像を撮像素子7及び8に撮像させることができる。
このようにして、撮像素子5及び6により撮像された風景画像、及び撮像素子7及び8により撮像されたウィンドウ画像は、A/D変換器11、12、13、及び14を各々経ることによって画像データに変換されてメモリ15、16、17、及び18に保存される。
In this way, the window image is picked up by setting the window image imaging rate by multiplying the landscape image imaging rate by the reciprocal of the ratio of the number of pixels of the window image to the landscape image (that is, the area ratio). Can be imaged.
In this way, the landscape image captured by the image sensors 5 and 6 and the window image captured by the image sensors 7 and 8 are converted into images by passing through the A / D converters 11, 12, 13, and 14, respectively. It is converted into data and stored in the memories 15, 16, 17 and 18.

メモリ15及び16に保存された風景画像の画像データは、その画像データが更新される度に、距離演算部19並びにCPU20における距離画像生成部21及び画像処理部25によって読み出される。一方、メモリ17及び18に保存されたウィンドウ画像の画像データは、その画像データが更新される度に、CPU20におけるウィンドウ画像データ読み出し部24によって読み出される。   The image data of the landscape image stored in the memories 15 and 16 is read by the distance calculation unit 19 and the distance image generation unit 21 and the image processing unit 25 in the CPU 20 every time the image data is updated. On the other hand, the image data of the window image stored in the memories 17 and 18 is read by the window image data reading unit 24 in the CPU 20 every time the image data is updated.

ここで、図3から明らかなように、風景画像の場合に対して4倍の撮像レートでウィンドウ画像の撮像が行われているので、メモリ17及び18におけるウィンドウ画像の画像データの更新間隔も、メモリ15及び16における風景画像の画像データの更新間隔の4倍となっている。従って、ウィンドウ画像データ読み出し部24は、距離演算部19等が読み出す風景画像の画像データの読み出しレートよりも速い読み出しレート(4倍)でウィンドウ画像の画像データの読み出しを行う。   Here, as is clear from FIG. 3, since the window image is captured at the imaging rate four times that of the landscape image, the update interval of the image data of the window image in the memories 17 and 18 is also as follows. This is four times the update interval of the landscape image data in the memories 15 and 16. Accordingly, the window image data reading unit 24 reads the image data of the window image at a reading rate (four times) faster than the reading rate of the landscape image image data read by the distance calculation unit 19 or the like.

なお、画像処理部25は、メモリ15及び16に保存されている風景画像の画像データが更新されたときには、その風景画像の画像データを読み出したまま画像合成を行わずに出力し、メモリ17及び18に保存されているウィンドウ画像の画像データが更新されたときには、その更新の度にウィンドウ画像データ読み出し部24から送られてくるウィンドウ画像の画像データと、メモリ15及び16から直近に読み出していた風景画像の画像データとの合成処理を行う。   Note that when the image data of the landscape image stored in the memories 15 and 16 is updated, the image processing unit 25 outputs the image data of the landscape image without performing image synthesis while reading the image data of the landscape image. When the image data of the window image stored in FIG. 18 is updated, the image data of the window image sent from the window image data reading unit 24 and the latest data are read from the memories 15 and 16 each time it is updated. A composition process with image data of a landscape image is performed.

この結果、風景画像の1フレーム分の表示期間内に、4フレーム分の注目物体の画像が表示装置32に表示されるので、注目物体の挙動の監視の頻度が増加する。
その他、本発明は、上述した実施形態に限定されることなく、本発明の要旨を逸脱しない範囲内で種々の改良・変更が可能である。
As a result, since the image of the object of interest for four frames is displayed on the display device 32 within the display period of one frame of the landscape image, the frequency of monitoring the behavior of the object of interest increases.
In addition, the present invention is not limited to the above-described embodiments, and various improvements and changes can be made without departing from the scope of the present invention.

例えば、撮像素子17及び18が有するWOI機能による部分撮像における撮像範囲として複数の撮像範囲を設定可能であるならば、注目物体特定部22が複数の注目物体を風景画像から特定し、ウィンドウ設定制御部23が個々の注目物体に対応する複数のウィンドウを設定してそれらのウィンドウの風景画像内の位置を撮像素子駆動制御部34に通知し、撮像素子駆動制御部34がそれらの位置を撮像範囲として複数のウィンドウ画像の撮像を撮像素子17及び18に行わせるようにすることで、複数の注目物体の挙動の監視を行うようにすることもできる。また、撮像素子17及び18が有するWOI機能による部分撮像における撮像範囲を1つのみしか設定できない場合でも、撮像素子駆動制御部34がウィンドウ画像の撮像を撮像素子17及び18に行わせる度に、個々の注目物体に対応する複数のウィンドウの位置の通知に基づいて撮像範囲の位置設定を切り替えるようにすることで、複数の注目物体の挙動の監視を行うようにすることができる。   For example, if a plurality of imaging ranges can be set as imaging ranges in partial imaging by the WOI function of the imaging elements 17 and 18, the target object specifying unit 22 specifies a plurality of target objects from the landscape image, and window setting control The unit 23 sets a plurality of windows corresponding to individual objects of interest, notifies the image sensor drive control unit 34 of the positions of the windows in the landscape image, and the image sensor drive control unit 34 indicates these positions in the imaging range. As described above, by causing the imaging devices 17 and 18 to capture a plurality of window images, the behavior of a plurality of objects of interest can be monitored. Even when only one imaging range can be set for partial imaging using the WOI function of the imaging elements 17 and 18, the imaging element drive control unit 34 causes the imaging elements 17 and 18 to capture a window image. By switching the position setting of the imaging range based on the notification of the positions of the plurality of windows corresponding to the individual objects of interest, the behavior of the plurality of objects of interest can be monitored.

また、注目物体特定部22による注目物体の特定において、風景画像に表されている物体が自車両に急接近するものであるかどうか、あるいは所定の距離内にまで近づく蓋然性があるかどうかを判定するときに、例えば自車両の現在の速度や移動方向(ハンドルの角度)などといった自車両から得られる自車両の挙動に関する情報を加味するようにしてもよく、こうすることにより、その判定の精度を向上させることができる。   Further, in specifying the target object by the target object specifying unit 22, it is determined whether or not the object represented in the landscape image is close to the host vehicle, or whether there is a probability of approaching within a predetermined distance. In this case, for example, information on the behavior of the host vehicle obtained from the host vehicle such as the current speed of the host vehicle and the moving direction (handle angle) may be taken into account. Can be improved.

本発明を実施する装置の構成を示す図である。It is a figure which shows the structure of the apparatus which implements this invention. 撮像素子のWOI機能を説明する図である。It is a figure explaining the WOI function of an image sensor. 撮像素子の駆動制御を説明する図である。It is a figure explaining drive control of an image sensor. 従来技術に係る装置の構成を示す図である。It is a figure which shows the structure of the apparatus which concerns on a prior art.

符号の説明Explanation of symbols

1、2、1001、1002 レンズ
3、4 ハーフミラー
5、6、7、8 撮像素子
11、12、13、14、1005、1006 A/D変換器
15、16、17、18、1007、1008、1009 メモリ
19、1011 距離演算部
20、1012 CPU
21 距離画像生成部
22 注目物体特定部
23 ウィンドウ設定制御部
24 ウィンドウ画像データ読み出し部
25 画像処理部
31 D/A変換部
32 表示装置
33、34 撮像素子駆動制御部
1003、1004 イメージセンサ
1010 追尾演算器
1013 ディスプレイ
1014 先行車両
1120 ウィンドウ設定手段

1, 2, 1001, 1002 Lens 3, 4 Half mirror 5, 6, 7, 8 Image sensor 11, 12, 13, 14, 1005, 1006 A / D converter 15, 16, 17, 18, 1007, 1008, 1009 Memory 19, 1011 Distance calculation unit 20, 1012 CPU
DESCRIPTION OF SYMBOLS 21 Distance image generation part 22 Attention object specific | specification part 23 Window setting control part 24 Window image data reading part 25 Image processing part 31 D / A conversion part 32 Display apparatus 33, 34 Image sensor drive control part 1003, 1004 Image sensor 1010 Tracking calculation Vessel 1013 Display 1014 Advancing vehicle 1120 Window setting means

Claims (8)

撮像手段によって取得された画像の属する画面内に含まれる特異な挙動が認められる注目物体を特定するための注目物体特定手段と、
前記画面の全領域よりも狭い領域を持つウィンドウ内に前記注目領域の画面の全部又は一部が位置するようにウィンドウを設定すると共に一旦ウィンドウが設定された後は当該注目物体の画像の全部又は一部が常に当該ウィンドウ内に位置するように前記画面の全領域内における当該ウィンドウの位置を追随的に制御するウィンドウ設定制御手段と、
前記画面の全領域に対応する画像データを読み出す読み出しレートよりも速い読み出しレートで前記ウィンドウから当該ウィンドウに対応する画像データを読み出すウィンドウ画像データ読み出し手段と、
を備え、
且つ、上記撮像手段として、
主として前記画面の全領域に対応する画像データを読み出すために用いる全画面データ用撮像素子と、
主として前記ウィンドウの領域に対応する画像データを読み出すために用いるウィンドウデータ用撮像素子と、
を備えてなるものを適用した
ことを特徴とする障害物認識補助装置。
An object-of-interest specifying means for specifying an object of interest in which a unique behavior is included in the screen to which the image acquired by the imaging means belongs;
The window is set so that all or part of the screen of the region of interest is located in a window having an area narrower than the entire region of the screen, and once the window is set, all of the image of the object of interest or Window setting control means for controlling the position of the window in the whole area of the screen so that a part is always located in the window;
Window image data reading means for reading image data corresponding to the window from the window at a reading rate faster than a reading rate for reading image data corresponding to the entire area of the screen;
With
And as the imaging means,
An image sensor for full-screen data used mainly for reading image data corresponding to the entire area of the screen;
An image sensor for window data used mainly for reading out image data corresponding to the area of the window;
An obstacle recognition assisting device characterized in that a device comprising the above is applied.
前記注目物体特定手段は、当該障害物認識補助装置が備えられた物体との相対位置が急接近し又は相対的に近い所定の距離内に位置し若しくはこれらの位置関係に至る蓋然性が認められる物体を前記注目物体として特定するようになされたものであることを特徴とする請求項1に記載の障害物認識補助装置。   The object-of-interest specifying means is an object whose relative position with respect to the object provided with the obstacle recognition assisting device is abruptly approaching or is located within a predetermined distance that is relatively close or has a probability of reaching these positional relationships. The obstacle recognition assisting apparatus according to claim 1, wherein the obstacle recognition assisting apparatus is configured to identify a target object. 前記ウィンドウ画面データ読み出し手段は、前記ウィンドウに関する画像データの読み出しレートとして、前記画面の全領域に対応する画像データの読み出しレートに当該全領域に対するウィンドウの面積比の逆数を乗じたものに相応するものであることを特徴とする請求項1に記載の障害物認識補助装置。   The window screen data reading means corresponds to a read rate of image data relating to the window, which is obtained by multiplying a read rate of image data corresponding to the entire area of the screen by an inverse of the area ratio of the window with respect to the entire area. The obstacle recognition assisting apparatus according to claim 1, wherein: 前記撮像手段はステレオ式撮像装置であり、
前記注目物体特定手段は、前記ステレオ式撮像装置によって取得される距離画像のデータに依拠して前記画面内に含まれる物体の特異な挙動を認識して注目物体を特定するように構成されたものである
ことを特徴とする請求項1に記載の障害物認識補助装置。
The imaging means is a stereo imaging device,
The target object specifying unit is configured to identify a target object by recognizing a specific behavior of an object included in the screen based on distance image data acquired by the stereo imaging device. The obstacle recognition assisting apparatus according to claim 1, wherein:
前記撮像手段は、共通の撮像光学系に介挿された光分割手段によって前記全画面データ用撮像素子と前記ウィンドウデータ用撮像素子とに対して実質的に等しい撮像視野に係る像が結ばれるように構成された光学系を有するものであることを特徴とする請求項1に記載の障害物認識補助装置。   The image pickup means is configured such that an image having substantially the same imaging field of view is formed with respect to the image pickup element for full screen data and the image pickup element for window data by a light dividing means inserted in a common image pickup optical system. The obstacle recognition assisting apparatus according to claim 1, wherein the obstacle recognition assisting apparatus has an optical system configured as described above. 前記ウィンドウデータ用撮像素子は、MOS型の撮像素子であることを特徴とする請求項1に記載の障害物認識補助装置。   The obstacle recognition assisting apparatus according to claim 1, wherein the window data imaging device is a MOS type imaging device. 前記ウィンドウから読み出される画像データに基づいて前記注目物体の挙動を検出する挙動検出手段を更に備えたことを特徴とする請求項1に記載の障害物認識補助装置。   The obstacle recognition assisting apparatus according to claim 1, further comprising behavior detection means for detecting the behavior of the object of interest based on image data read from the window. 前記ウィンドウ設定制御手段は、前記ウィンドウデータ用撮像素子に係る画面の全領域内に前記ウィンドウを複数設定することが可能に構成されたものであることを特徴とする請求項1に記載の障害物認識補助装置。   2. The obstacle according to claim 1, wherein the window setting control unit is configured to be capable of setting a plurality of the windows in an entire area of a screen related to the window data imaging device. Recognition assist device.
JP2004049022A 2004-02-25 2004-02-25 Obstacle recognition assist device Expired - Fee Related JP4451161B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004049022A JP4451161B2 (en) 2004-02-25 2004-02-25 Obstacle recognition assist device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004049022A JP4451161B2 (en) 2004-02-25 2004-02-25 Obstacle recognition assist device

Publications (2)

Publication Number Publication Date
JP2005244399A JP2005244399A (en) 2005-09-08
JP4451161B2 true JP4451161B2 (en) 2010-04-14

Family

ID=35025696

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004049022A Expired - Fee Related JP4451161B2 (en) 2004-02-25 2004-02-25 Obstacle recognition assist device

Country Status (1)

Country Link
JP (1) JP4451161B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015157341A1 (en) 2014-04-07 2015-10-15 Samsung Electronics Co., Ltd. High resolution, high frame rate, low power image sensor

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02141069A (en) * 1988-11-21 1990-05-30 Fujitsu Ltd Picture input device
JPH088667B2 (en) * 1990-06-29 1996-01-29 株式会社ナック High speed imaging camera
JP2563000B2 (en) * 1991-02-22 1996-12-11 株式会社ナック High speed color video camera
JPH052198A (en) * 1991-06-25 1993-01-08 Fuji Xerox Co Ltd Light moving picture detection device
JPH07298276A (en) * 1994-04-27 1995-11-10 Toshiba Corp Mutli-board type image pickup device
JP2001218099A (en) * 2000-02-03 2001-08-10 Nikon Corp Multiplate type image pickup device and recording medium for image data processing
JP3943848B2 (en) * 2001-02-28 2007-07-11 株式会社リコー Imaging device
JP2002314888A (en) * 2001-04-09 2002-10-25 Sony Corp Digital still camera
JP4006577B2 (en) * 2002-03-13 2007-11-14 オムロン株式会社 Monitoring device

Also Published As

Publication number Publication date
JP2005244399A (en) 2005-09-08

Similar Documents

Publication Publication Date Title
JP4863791B2 (en) Vehicle peripheral image generation apparatus and image switching method
JP5615441B2 (en) Image processing apparatus and image processing method
JP4258539B2 (en) Multiple angle of view camera
EP3886075A1 (en) Parking space detection method and device
JP2008027138A (en) Vehicle monitoring device
JP2003134508A (en) Information providing device for vehicle
EP3203725B1 (en) Vehicle-mounted image recognition device
JP2003259361A (en) Image processing apparatus for vehicle
JP5915923B2 (en) Image processing apparatus and driving support system
JP2007141052A (en) Road section line detector
US20110038508A1 (en) System and method for performing optical navigation using portions of captured frames of image data
JP2015222934A (en) Vehicle periphery display device
JP4451161B2 (en) Obstacle recognition assist device
JP2008026999A (en) Obstacle detection system and obstacle detection method
JP5863105B2 (en) Vehicle movement amount estimation device and obstacle detection device
JP2012256159A (en) Approaching object detecting device and method for detecting approaching object
JP5395373B2 (en) Perimeter monitoring device
JP2005228213A (en) Auxiliary apparatus for recognizing obstacle
JP4814752B2 (en) Display control device
JP2007213166A (en) Road lane marker detection device, method, and program
JP2006178667A (en) Video correcting apparatus and method for vehicle
JP4512044B2 (en) Road section line detector
US11249561B2 (en) Calculation method of correlation search window ignoring some pixel data and navigation device using the same
JP2006236022A (en) Image processor
JP2020072322A (en) Solid state image sensor, and electronic apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100127

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140205

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees