JP4847779B2 - In-vehicle information processing method, in-vehicle information processing program, in-vehicle information processing apparatus, and in-vehicle information processing system - Google Patents

In-vehicle information processing method, in-vehicle information processing program, in-vehicle information processing apparatus, and in-vehicle information processing system Download PDF

Info

Publication number
JP4847779B2
JP4847779B2 JP2006110816A JP2006110816A JP4847779B2 JP 4847779 B2 JP4847779 B2 JP 4847779B2 JP 2006110816 A JP2006110816 A JP 2006110816A JP 2006110816 A JP2006110816 A JP 2006110816A JP 4847779 B2 JP4847779 B2 JP 4847779B2
Authority
JP
Japan
Prior art keywords
vehicle
image
information processing
vehicle information
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006110816A
Other languages
Japanese (ja)
Other versions
JP2007286724A (en
Inventor
寛 武長
啓二 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd, Hitachi Ltd filed Critical Clarion Co Ltd
Priority to JP2006110816A priority Critical patent/JP4847779B2/en
Publication of JP2007286724A publication Critical patent/JP2007286724A/en
Application granted granted Critical
Publication of JP4847779B2 publication Critical patent/JP4847779B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、左右両側方から接近する車両を監視する車載情報処理方法、車載情報処理プログラム、車載情報処理装置および車載情報処理システムの技術に関する。   The present invention relates to an in-vehicle information processing method, an in-vehicle information processing program, an in-vehicle information processing apparatus, and an in-vehicle information processing system for monitoring a vehicle approaching from both left and right sides.

従来、見通しの悪いあるいは信号が設置されていない交差点へ自車を進入させる場合、自車の側方から接近してくる他の車両を確認するために、自車の側方にカメラを設置し、このカメラによって撮像された画像を自車内部に設置されたモニタに表示することで、ドライバが、表示された画像を用いて接近車等を把握する装置が商品化されている。   Conventionally, when a vehicle is approaching an intersection with poor visibility or no signal, a camera is installed on the side of the vehicle in order to check other vehicles approaching from the side of the vehicle. An apparatus in which a driver grasps an approaching vehicle or the like by using the displayed image by displaying an image captured by the camera on a monitor installed inside the vehicle has been commercialized.

そのため、自車の側方を撮像した画像を処理して接近車を検知し、自車と衝突の危険性が大きい場合はドライバに警報する方法および装置が開示されている。そのような方法および装置として、例えば以下のようなものがある。
まず、接近車のエッジの長さによりフレーム間隔を変更する車両用衝突警報方法および装置が開示されている(例えば、特許文献1)。これによれば、入力した画像を微分処理してエッジ画像を作成し、作成したエッジ画像から水平エッジを抽出し、そのエッジの長さと処理サイズを求める。そして、エッジの長さに応じてフレーム間隔を求め、求めたフレーム間隔前のエッジ画像と、現在のエッジ画像とを用いて各エッジのオプティカルフローを算出する。そして、算出したオプティカルフローを基に接近車が自車に衝突するまでの到達予測時間を求めるようにしている。
Therefore, a method and an apparatus are disclosed that process an image obtained by imaging the side of the host vehicle to detect an approaching vehicle and warn the driver when there is a high risk of collision with the host vehicle. Examples of such a method and apparatus include the following.
First, a vehicle collision warning method and apparatus for changing a frame interval according to the length of an edge of an approaching vehicle is disclosed (for example, Patent Document 1). According to this, the input image is differentiated to create an edge image, a horizontal edge is extracted from the created edge image, and the length and processing size of the edge are obtained. Then, the frame interval is obtained according to the length of the edge, and the optical flow of each edge is calculated using the edge image before the obtained frame interval and the current edge image. Based on the calculated optical flow, the estimated arrival time until the approaching vehicle collides with the own vehicle is obtained.

また、所定時間空けた画像における輝度の時間差分を求めて接近車を検知する車両側方映像生成方法および車両側方映像生成装置が開示されている(例えば、特許文献2)。これによれば、前記した方法で、接近車を検知した後、接近車が自車に衝突するまでの到達予測時間を算出する際に、自車の回転角度、すなわち自車と道路との相対角を用いて到達予測時間を予測するようにしている。
特開平11−353565号公報([0048]、第8図) 特許第3606223号公報(請求項1、[0086]、[0100]、第2図)
Further, a vehicle side image generation method and a vehicle side image generation apparatus that detect an approaching vehicle by obtaining a luminance time difference in an image separated by a predetermined time are disclosed (for example, Patent Document 2). According to this, when calculating the arrival time until the approaching vehicle collides with the own vehicle after the approaching vehicle is detected by the method described above, the rotation angle of the own vehicle, that is, the relative relationship between the own vehicle and the road. The arrival prediction time is predicted using the corner.
Japanese Patent Laid-Open No. 11-353565 ([0048], FIG. 8) Japanese Patent No. 3606223 (Claim 1, [0086], [0100], FIG. 2)

しかしながら、特許文献1に記載の装置では、エッジ画像には接近車だけでなく道路標示や白線などエッジの長さが異なるエッジが多く含まれる。さらに、エッジ毎にフレーム間隔が異なるためオプティカルフローを算出する処理が複雑になる。また、エッジの長さが長いと処理サイズが大きくなり処理時間が増えるという課題もある。
また、特許文献2に記載の装置によれば、遠方と近傍とで接近車の見かけ上の動きが異なるため、同じフレーム間隔の画像間の輝度差分から接近車を検知することが難しい。更に、到達予測時間を求める際に、自車が走行する道路と交差点で交差する道路の交差角を考慮していないという問題がある。
However, in the apparatus described in Patent Document 1, the edge image includes not only an approaching vehicle but also many edges having different edge lengths such as road markings and white lines. Furthermore, since the frame interval is different for each edge, the process of calculating the optical flow becomes complicated. Further, when the edge length is long, there is a problem that the processing size increases and the processing time increases.
Further, according to the apparatus described in Patent Document 2, since the apparent movement of the approaching vehicle differs between the distant and the vicinity, it is difficult to detect the approaching vehicle from the luminance difference between the images at the same frame interval. Furthermore, when obtaining the predicted arrival time, there is a problem that the intersection angle of the road that intersects with the road on which the vehicle travels is not considered.

前記課題に鑑みて、本発明がなされたのであり、本発明は、処理サイズを小さくし、かつ処理時間を短くすることを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to reduce the processing size and the processing time.

前記課題を解決するため、本発明を完成するに至った。すなわち、本発明の車載情報処理方法、車載情報処理プログラム、車載情報処理装置および車載情報処理システムは、撮像装置から入力された画像に対し、自車から近傍の画像領域である近傍領域よりも、自車から遠方の領域である遠方領域における計測点が密になるよう設定し、近傍領域および遠方領域のそれぞれにおいて、この計測点を基にオプティカルフローを算出し、遠方領域では算出したオプティカルフローを基に、自車と移動体との到達する予測時間である到達予測時間を算出し、算出した到達予測時間に基づいて警報の要否を判定し、近傍領域では、算出したオプティカルフローを基に警報の要否を判定することを特徴とする。
In order to solve the above problems, the present invention has been completed. That is, the in-vehicle information processing method, the in-vehicle information processing program, the in-vehicle information processing apparatus, and the in-vehicle information processing system according to the present invention have an image input from the imaging device , rather than a nearby region that is an image region near the vehicle Set the measurement points in the far field, which is far from the vehicle, to be dense, and calculate the optical flow based on these measurement points in each of the near and far areas, and the calculated optical flow in the far field. based calculates the predicted arrival time is a predicted time to reach the mobile and the vehicle, based on the calculated predicted arrival time to determine the necessity of an alarm, in the vicinity area, based on the calculated optical flow It is characterized by determining the necessity of an alarm .

本発明によれば、処理サイズを小さくし、かつ処理時間を短くすることが可能となる。   According to the present invention, the processing size can be reduced and the processing time can be shortened.

次に、本発明を実施するための最良の形態(「実施形態」という)について、適宜図面を参照しながら詳細に説明する。
なお、本実施形態では、情報処理の対象となるすべてのもの、すなわち画像に撮像されているものを対象物と記載し、対象物の内、移動を行っているものを移動体と記載し、移動体の内、自車に接近しているものを接近物と記載することとする。
Next, the best mode for carrying out the present invention (referred to as “embodiment”) will be described in detail with reference to the drawings as appropriate.
In the present embodiment, all objects to be information processing, that is, those captured in an image are described as objects, and among the objects, those that are moving are described as moving objects, A moving object that is approaching the vehicle is described as an approaching object.

図1は、本実施形態にかかる車載情報処理システムの構成例を示す機能ブロック図である。
車載情報処理システム9は、自車(請求項における車両)の前部に左右側方の画像が撮像できるように取付けられる右カメラ(請求項における撮像装置)3および左カメラ(請求項における撮像装置)5から入力された画像に対し、後記する車載情報処理方法に従って情報処理を行う、自車に搭載された車載情報処理装置1を備える。そして、車載情報処理システム9は、道路地図を格納し、この道路地図を基に、自車の位置を監視し、自車の位置に関する情報や、道路地図を車載情報処理装置1に送るナビゲーションシステム8を備える。さらに、車載情報処理装置1が行った情報処理の結果を、表示するモニタ(請求項における出力装置)7を備える。
FIG. 1 is a functional block diagram illustrating a configuration example of the in-vehicle information processing system according to the present embodiment.
The in-vehicle information processing system 9 includes a right camera (imaging device in claim) 3 and a left camera (imaging device in claim) that are attached to the front portion of the host vehicle (vehicle in the claim) so that left and right side images can be taken. ) The vehicle-mounted information processing apparatus 1 mounted on the vehicle is provided for performing information processing on the image input from 5 according to the vehicle-mounted information processing method described later. The in-vehicle information processing system 9 stores a road map, monitors the position of the own vehicle based on the road map, and sends the information related to the position of the own vehicle and the road map to the in-vehicle information processing apparatus 1. 8 is provided. Furthermore, a monitor (output device in claims) 7 for displaying the result of the information processing performed by the in-vehicle information processing device 1 is provided.

車載情報処理装置1は、右カメラ3および左カメラ5から入力された画像の情報処理を行う右カメラ処理部(請求項における処理部)2および左カメラ処理部(請求項における処理部)4を備える。さらに、右カメラ処理部2または左カメラ処理部4から情報処理の結果を受けると、表示装置にこの情報処理の結果を表示する出力処理部6を備える。   The in-vehicle information processing apparatus 1 includes a right camera processing unit (processing unit in claims) 2 and a left camera processing unit (processing unit in claims) that perform information processing of images input from the right camera 3 and the left camera 5. Prepare. Further, when the information processing result is received from the right camera processing unit 2 or the left camera processing unit 4, an output processing unit 6 that displays the result of the information processing on the display device is provided.

図2は、右カメラ処理部または左カメラ処理部の構成例を示す機能ブロック図である。
右カメラ処理部2は、以下の各部および各メモリを備える。
計測点設定処理部201は、入力される画像に対して、自車から近傍の画像領域である近傍領域と、自車から遠方の画像領域である遠方領域とに分け、近傍領域と、遠方領域とで異なる密度の計測点を設定する。
移動体処理部202は、時系列画像メモリ109より取得した画像に対してエッジ画像およびエッジプロファイルを作成し、作成したエッジプロファイルを基に、エッジプロファイルを作成し、移動体の検出および移動量の算出を行う。
オプティカルフロー算出部203は、画像内における移動体のオプティカルフロー(速度ベクトル)を算出する。
FIG. 2 is a functional block diagram illustrating a configuration example of the right camera processing unit or the left camera processing unit.
The right camera processing unit 2 includes the following units and memories.
The measurement point setting processing unit 201 divides the input image into a near area that is an image area near the own vehicle and a far area that is an image area far from the own vehicle. Set measurement points with different densities.
The moving body processing unit 202 creates an edge image and an edge profile for the image acquired from the time-series image memory 109, creates an edge profile based on the created edge profile, detects the moving body, and determines the amount of movement. Perform the calculation.
The optical flow calculation unit 203 calculates the optical flow (velocity vector) of the moving object in the image.

移動体判定部204は、移動体処理部202やオプティカルフロー算出部203などが行った処理の結果を基に、接近物の存在の有無を判定する。
到達予測時間算出部205は、オプティカルフロー算出部203が算出したオプティカルフローと、光軸方向算出部206が算出した自車に設置した右カメラ3の光軸方向とを基に、自車に接近物が到達する予測時間である到達予測時間を算出する。
警報判定部207は、遠方領域における処理において、到達予測時間算出部205が算出した到達予測時間が、所定の閾値以下か否かを判定することによって警報を出力するか否かを判定する。
警報処理部208は、警報判定部207によって、到達予測時間が、所定の閾値以下であると判定された場合や、移動体判定部によって、近傍領域に接近物が存在すると判定された場合に出力処理部6に警報を出力させる。
The moving body determination unit 204 determines the presence / absence of an approaching object based on the results of processing performed by the moving body processing unit 202, the optical flow calculation unit 203, and the like.
The estimated arrival time calculation unit 205 approaches the vehicle based on the optical flow calculated by the optical flow calculation unit 203 and the optical axis direction of the right camera 3 installed in the vehicle calculated by the optical axis direction calculation unit 206. A predicted arrival time, which is a predicted arrival time of the object, is calculated.
The alarm determination unit 207 determines whether or not to output an alarm by determining whether or not the predicted arrival time calculated by the predicted arrival time calculation unit 205 is equal to or less than a predetermined threshold in the processing in the far region.
The warning processing unit 208 is output when the warning determination unit 207 determines that the predicted arrival time is equal to or less than a predetermined threshold, or when the moving body determination unit determines that an approaching object exists in the vicinity area. The processing unit 6 outputs an alarm.

時系列画像メモリ(請求項における記憶部)209は、右カメラ3で撮像した画像を時系列に格納し、現在の時間より所定時間以上経過した画像は廃棄するよう構成されたメモリである。例えば、メモリアドレスが初期値からカウントアップし所定値までカウントアップしたら初期値に戻るリングメモリで構成される。
時系列エッジプロファイルメモリ210は、後記する方法によってエッジ画像から作成されたエッジプロファイルを時系列に格納するメモリである。時系列エッジプロファイルメモリ210は、時系列画像メモリ209と同様、現在の時間より所定時間以上経過したエッジプロファイルは廃棄するよう構成されたメモリである。
A time-series image memory (storage unit in claims) 209 is a memory configured to store images captured by the right camera 3 in a time-series, and discard images that have passed a predetermined time from the current time. For example, the memory address is configured from a ring memory that counts up from an initial value and returns to the initial value when the memory address is counted up to a predetermined value.
The time-series edge profile memory 210 is a memory that stores an edge profile created from an edge image by a method described later in time series. Similar to the time-series image memory 209, the time-series edge profile memory 210 is a memory configured to discard an edge profile that has passed a predetermined time from the current time.

左カメラ5から入力される左カメラ処理部4の構成も、右カメラ処理部2と同様である(図2の左カメラ処理部4の構成要素は、符号401から符号410)。
なお、図1および図2に示す各部は、図示しないROM(Read Only Memory)などの記憶装置に格納されたプログラムが、図示しないCPU(Central Processing Unit)によって実行されることによって、具現化される。
The configuration of the left camera processing unit 4 input from the left camera 5 is also the same as that of the right camera processing unit 2 (components of the left camera processing unit 4 in FIG. 2 are denoted by reference numerals 401 to 410).
1 and FIG. 2 are realized by executing a program stored in a storage device such as a ROM (Read Only Memory) (not shown) by a CPU (Central Processing Unit) (not shown). .

(システム概略図)
図3は、本実施形態に係る車載情報処理システムの概略を示した図である。
図3は、自車(請求項における車両)31の左右方向を監視するため、自車31の前部にそれぞれ1つのカメラを取付けた例である。右カメラ3は、右からの接近物を、左カメラ5は、左からの接近物を監視する。
(System schematic)
FIG. 3 is a diagram showing an outline of the in-vehicle information processing system according to the present embodiment.
FIG. 3 shows an example in which one camera is attached to the front portion of the own vehicle 31 in order to monitor the left-right direction of the own vehicle (vehicle in claims) 31. The right camera 3 monitors an approaching object from the right, and the left camera 5 monitors an approaching object from the left.

(処理概要)
次に、図1から図3を参照しつつ、図4に沿って本実施形態の車載情報処理装置1における車載情報処理方法を説明する。
図4は、本実施形態に係る車載情報処理方法の流れを示すフローである。
なお、本実施形態では、右カメラ処理部2における処理を説明するが、後記するように左カメラ処理部4における処理も同様である。
まず、右カメラ処理部2は、右カメラ3を介して画像を入力され(S1)、入力された画像を時系列画像メモリ209に格納する(S2)。入力される画像の説明は、図6を参照して後記する。
移動体処理部202は、時系列画像メモリ209に格納した画像を用いて、処理範囲内における移動体の検出を行うとともに、検出した移動体が所定時間に処理範囲内を移動する量である移動量を算出する移動体処理を行う(S3)。移動体処理のフローは、図5を参照して後記する。
次に、計測点設定処理部201が、ステップS1で入力された画像に対し、遠方の画像が撮像されている画像領域である遠方領域と、近傍の画像が撮像されている画像領域である近傍領域とに分ける遠方領域および近傍領域の設定を行った(S4)後、当該遠方領域に対し、予め設定してある間隔で計測点を設定し、近傍領域に対し、遠方領域とは異なる密度で計測点を設定する(S5)。遠方領域および近傍領域の設定、ならびに計測点設定処理の詳細は、図11を参照して後記する。
(Outline of processing)
Next, an in-vehicle information processing method in the in-vehicle information processing apparatus 1 of the present embodiment will be described along FIG. 4 with reference to FIGS. 1 to 3.
FIG. 4 is a flow showing the flow of the in-vehicle information processing method according to the present embodiment.
In the present embodiment, the processing in the right camera processing unit 2 will be described, but the processing in the left camera processing unit 4 is the same as described later.
First, the right camera processing unit 2 receives an image via the right camera 3 (S1), and stores the input image in the time-series image memory 209 (S2). The description of the input image will be described later with reference to FIG.
The moving object processing unit 202 uses the images stored in the time-series image memory 209 to detect a moving object within the processing range, and the amount of movement that the detected moving object moves within the processing range within a predetermined time. A moving body process for calculating the amount is performed (S3). The flow of the mobile processing will be described later with reference to FIG.
Next, the measurement point setting processing unit 201 has a distant area that is an image area in which a distant image is captured and a near area that is an image area in which a nearby image is captured with respect to the image input in step S1. After setting the far area and the near area to be divided into areas (S4), the measurement points are set for the far area at preset intervals, and the near area has a density different from that of the far area. A measurement point is set (S5). Details of the setting of the far and near areas and the measurement point setting process will be described later with reference to FIG.

(遠方領域における処理)
ステップS6からステップS11は、遠方領域における処理である。
続いて、オプティカルフロー算出部203は、移動体処理で算出した移動量から、オプティカルフローの算出で用いる2枚の画像のフレーム間隔を算出し(S6)、算出したフレーム間隔を用いてオプティカルフローを算出する(S7)。オプティカルフローの算出処理の詳細は、図13および図14を参照して後記する。
そして、移動体判定部204は、算出した計測点毎のオプティカルフローを基に、遠方領域において、接近物が存在するか否かを判定する(S8)。接近物判定の処理の詳細は、図15を参照して後記する。
移動体判定部204が、遠方領域において、接近物が存在しないと判定した場合(S8→No)、右カメラ処理部2は、ステップS10に処理を進める。
移動体判定部204が、遠方領域において、接近物が存在すると判定した場合(S8→Yes)、右カメラ処理部2は、ステップS9に処理を進める。
(Processing in remote area)
Steps S6 to S11 are processing in a far field.
Subsequently, the optical flow calculation unit 203 calculates the frame interval between the two images used in the calculation of the optical flow from the movement amount calculated in the moving object process (S6), and uses the calculated frame interval to calculate the optical flow. Calculate (S7). Details of the optical flow calculation process will be described later with reference to FIGS. 13 and 14.
And the mobile body determination part 204 determines whether an approaching object exists in a distant area | region based on the calculated optical flow for every measurement point (S8). Details of the approaching object determination process will be described later with reference to FIG.
When the moving body determination unit 204 determines that there is no approaching object in the far region (S8 → No), the right camera processing unit 2 advances the process to step S10.
When the moving body determination unit 204 determines that an approaching object is present in the far region (S8 → Yes), the right camera processing unit 2 advances the process to step S9.

次に、到達予測時間算出部205と光軸方向算出部206は、ステップS7で算出したオプティカルフローを用いて自車に接近する移動体が、自車に到達する予測時間である到達予測時間を算出する(S9)。到達予測時間の算出処理の詳細は、図16から図18を参照して後記する。
そして、警報判定部207は、算出した到達予測時間が予め設定してある閾値以下であるか否かを判定する(S10)ことによって、警報を発生するか否かを判定する。
警報判定部207が、到達予測時間が閾値より大きい(閾値以下ではない)と判定した場合(S10→No)、右カメラ処理部2は、ステップS12に処理を進める。
警報判定部207が、到達予測時間が閾値以下であると判定した場合(S10→Yes)、警報処理部208は、出力処理部6に警報を表示するよう指示する。
そして、指示された出力処理部6は、モニタ7に警報を表示させる(S11)。
Next, the predicted arrival time calculation unit 205 and the optical axis direction calculation unit 206 calculate the predicted arrival time, which is the predicted time for the mobile object that approaches the host vehicle using the optical flow calculated in step S7 to reach the host vehicle. Calculate (S9). Details of the process for calculating the predicted arrival time will be described later with reference to FIGS.
Then, the alarm determination unit 207 determines whether or not to generate an alarm by determining whether or not the calculated predicted arrival time is equal to or less than a preset threshold value (S10).
When the warning determination unit 207 determines that the predicted arrival time is greater than the threshold (not less than the threshold) (S10 → No), the right camera processing unit 2 advances the process to step S12.
When the alarm determination unit 207 determines that the predicted arrival time is equal to or less than the threshold (S10 → Yes), the alarm processing unit 208 instructs the output processing unit 6 to display an alarm.
Then, the instructed output processing unit 6 displays an alarm on the monitor 7 (S11).

(近傍領域における処理)
次に、ステップS10からステップS15は、近傍領域における処理である。
近傍領域における処理が、遠方領域における処理と異なる点は、到達予測時間の算出が行われない点である。
近傍領域におけるステップS12(フレーム間隔の算出処理)、ステップS13(オプティカルフローの算出処理)およびステップS14の近傍領域において、接近物が存在するか否かの判定処理は、遠方領域における各処理(ステップS6,S7,S8)と同様の処理であるため、説明を省略する。
移動体判定部204が、近傍領域において、接近物が存在しないと判定した場合(S14→No)、右カメラ処理部2は、ステップS16へ処理を進める。
移動体判定部204が、近傍領域において、接近物が存在すると判定した場合(S14→Yes)、警報処理部208は、出力処理部6に警報を表示するよう指示する。
そして、指示された出力処理部6は、モニタ7に警報を表示させる(S15)。
次に、右カメラ処理部2は、ステップS1で入力された画像をモニタ7に表示させる(S16)。このとき、S9で到達予測時間を算出していれば、右カメラ処理部2は、到達予測時間をモニタ7に表示させてもよい。
(Processing in the neighborhood)
Next, steps S10 to S15 are processing in the vicinity region.
The difference between the processing in the vicinity region and the processing in the far region is that the arrival prediction time is not calculated.
In step S12 (frame interval calculation process), step S13 (optical flow calculation process) in the vicinity area, and in the vicinity area in step S14, whether or not there is an approaching object is determined by each process (step Since it is the same processing as S6, S7, S8), the description is omitted.
When the moving body determination unit 204 determines that there is no approaching object in the vicinity region (S14 → No), the right camera processing unit 2 advances the process to step S16.
When the moving body determination unit 204 determines that an approaching object is present in the vicinity region (S14 → Yes), the alarm processing unit 208 instructs the output processing unit 6 to display an alarm.
Then, the instructed output processing unit 6 displays an alarm on the monitor 7 (S15).
Next, the right camera processing unit 2 displays the image input in step S1 on the monitor 7 (S16). At this time, if the arrival prediction time is calculated in S9, the right camera processing unit 2 may display the arrival prediction time on the monitor 7.

なお、本実施形態では、モニタ7に警報を表示させたが、これに限らず、図示しない音声出力装置などで警報を出力させてもよい。
そして、右カメラ処理部2は、ステップS1に処理を戻す。右カメラ処理部2は、自車が走行している間、ステップS1からステップS16の処理を実行してもよい。
また、以下に記述するような処理を行ってもよい。右カメラ処理部2は、自車の位置をナビゲーション装置が監視し、ナビゲーション装置から送られた情報を基に、右カメラ処理部2が交差点から所定の距離以内に自車が位置しているか否かを判断する。そして、自車が交差点から所定の距離以内に位置する間、ステップS1からステップS16の処理を実行し続けるようにしてもよい。
In the present embodiment, the alarm is displayed on the monitor 7, but the present invention is not limited to this, and the alarm may be output by a voice output device (not shown) or the like.
Then, the right camera processing unit 2 returns the process to step S1. The right camera processing unit 2 may execute the processing from step S1 to step S16 while the host vehicle is traveling.
Further, the processing described below may be performed. In the right camera processing unit 2, the navigation device monitors the position of the own vehicle, and based on the information sent from the navigation device, whether the right camera processing unit 2 is located within a predetermined distance from the intersection. Determine whether. And while the own vehicle is located within a predetermined distance from the intersection, the processing from step S1 to step S16 may be continued.

自車の近傍に存在する車両に対して、右カメラ処理部2が、到達予測時間を算出することは、あまり意味がなく、すぐに警報を発生することが望ましい。
従って、本実施形態のように近傍領域において移動体が検出された場合、到達予測時間の算出を省略することで処理時間の短縮を可能とし、すぐに警報を発生することが可能となる。
It is not meaningful for the right camera processing unit 2 to calculate the predicted arrival time for a vehicle existing in the vicinity of the host vehicle, and it is desirable to immediately generate an alarm.
Therefore, when a moving body is detected in the vicinity region as in this embodiment, the processing time can be shortened by omitting the calculation of the predicted arrival time, and an alarm can be generated immediately.

(移動体処理)
次に、図2を参照しつつ、ステップS3の移動体処理について説明する。
図5は、ステップS3における移動体処理の流れを示すフローである。
まず、移動体処理部202は、時系列画像メモリ209から画像を取得し、取得した画像からエッジ画像を作成する(S41)。エッジ画像の作成処理については、図7(a)を参照して後記する。
(Moving object processing)
Next, the moving body process in step S3 will be described with reference to FIG.
FIG. 5 is a flow showing the flow of the moving object process in step S3.
First, the moving body processing unit 202 acquires an image from the time-series image memory 209, and creates an edge image from the acquired image (S41). The edge image creation process will be described later with reference to FIG.

次に、移動体処理部202が、作成したエッジ画像に対するエッジプロファイルを作成する(S42)。エッジプロファイルの作成処理については、図7(b)を参照して後記する。
そして、移動体処理部202が、作成したエッジプロファイルを時系列エッジプロファイルメモリ210に格納する(S43)。
さらに、移動体処理部202は、時系列エッジプロファイルメモリ210内の時間的に異なる(例えば撮像間隔の)2つのエッジプロファイルを用いて移動体の検出を行う(S44)。移動体の検出処理の詳細は、図9および図10を参照して後記する。
Next, the moving body processing unit 202 creates an edge profile for the created edge image (S42). The edge profile creation process will be described later with reference to FIG.
Then, the mobile processing unit 202 stores the created edge profile in the time-series edge profile memory 210 (S43).
Further, the moving object processing unit 202 detects a moving object using two edge profiles that are temporally different (for example, at an imaging interval) in the time-series edge profile memory 210 (S44). Details of the moving object detection process will be described later with reference to FIGS. 9 and 10.

(画像の入力:図4のステップS1)
以下、図1から図5を適宜参照しつつ、図6から図18に沿って、図4および図5における各処理の詳細な説明を行う。
まず、図1を参照しつつ、図6に沿って右カメラ処理部2および左カメラ処理部4に入力される画像の例を示す。
図6は、図3に示す右カメラおよび左カメラが撮像し、カメラ処理部に入力される画像の例を示す図であり、(a)右カメラ画像、(b)左カメラ画像の例を示す図である。
ここで、図6を用いて、オプティカルフローの説明を行っておく。
静止している右カメラ3または左カメラ5に対して移動体62,66が移動すると、画像(右カメラ画像61または左カメラ画像65)中における移動体62,66の画像の動きからオプティカルフロー63,67が求まる。オプティカルフロー63,67とは、移動体62,67の画像上の各点における速度ベクトルである。オプティカルフロー63,67の延長線は、右カメラ画像61または左カメラ画像65内のある範囲内で交わる。この交点は、FOE(Focus of Expansion)64,68と呼ばれ、オプティカルフロー63,67の中心となる。
(Image input: Step S1 in FIG. 4)
Hereinafter, each process in FIGS. 4 and 5 will be described in detail along FIGS. 6 to 18 with reference to FIGS. 1 to 5 as appropriate.
First, an example of an image input to the right camera processing unit 2 and the left camera processing unit 4 along FIG. 6 will be shown with reference to FIG.
FIGS. 6A and 6B are diagrams illustrating examples of images captured by the right camera and the left camera illustrated in FIG. 3 and input to the camera processing unit. FIG. 6A illustrates an example of the right camera image and FIG. 6B illustrates an example of the left camera image. FIG.
Here, the optical flow will be described with reference to FIG.
When the moving bodies 62 and 66 move with respect to the stationary right camera 3 or left camera 5, the optical flow 63 is determined from the movement of the images of the moving bodies 62 and 66 in the image (the right camera image 61 or the left camera image 65). , 67 is obtained. The optical flows 63 and 67 are velocity vectors at respective points on the images of the moving bodies 62 and 67. The extension lines of the optical flows 63 and 67 intersect within a certain range in the right camera image 61 or the left camera image 65. This intersection is called FOE (Focus of Expansion) 64, 68 and is the center of the optical flows 63, 67.

(エッジプロファイルの作成:図5のステップS41およびステップS42)
図7は、エッジプロファイル作成の例を示す図であり、(a)は、エッジ画像の例、(b)は、エッジプロファイルの例を示す図である。
ここでは、右カメラ処理部2に入力される画像が図6(a)に示す画像であると仮定する。図7(a)に示すエッジ画像は、時系列画像メモリ209から取得された画像に対して、所定の処理範囲81内において垂直方向のエッジ82を、移動体処理部202が抽出した結果である。具体的には、移動体処理部202が、右カメラ画像61(以下、適宜画像61と記載)の水平座標i,i+2の濃度値の差を算出し、これを処理範囲81内の水平座標iおよび垂直座標j毎に行うことで求めることができる。ここで画像の座標は画素位置を表わすものとする。つまり、移動体処理部202は、1つおきの水平画素間における濃度値の差を算出する処理を、すべての画素において実行する。ここで、所定の処理範囲とは、例えば画像全体である。
図7(b)に示すエッジプロファイルは、移動体処理部202によって、図7(a)に示すエッジ画像における濃度差の値が垂直方向に累積された値である。
エッジプロファイルは、横軸が画像の水平座標、縦軸が濃度差累積値を持つ1次元の波形で、この図7(b)から分かるようにエッジに対応する位置にピークを持つ。
(Creation of edge profile: Step S41 and Step S42 in FIG. 5)
FIG. 7 is a diagram illustrating an example of edge profile creation, where (a) is an example of an edge image, and (b) is a diagram illustrating an example of an edge profile.
Here, it is assumed that the image input to the right camera processing unit 2 is the image shown in FIG. The edge image shown in FIG. 7A is a result of the moving body processing unit 202 extracting the edge 82 in the vertical direction within the predetermined processing range 81 with respect to the image acquired from the time-series image memory 209. . Specifically, the moving body processing unit 202 calculates the difference between the density values of the horizontal coordinates i and i + 2 of the right camera image 61 (hereinafter referred to as the image 61 as appropriate), and calculates the difference between the horizontal coordinates i within the processing range 81. It can be obtained by performing for each vertical coordinate j. Here, the coordinates of the image represent pixel positions. That is, the moving body processing unit 202 executes a process for calculating a difference in density value between every other horizontal pixel in all the pixels. Here, the predetermined processing range is, for example, the entire image.
The edge profile shown in FIG. 7B is a value obtained by accumulating the density difference values in the edge image shown in FIG. 7A in the vertical direction by the moving body processing unit 202.
The edge profile is a one-dimensional waveform having a horizontal coordinate of the image on the horizontal axis and a cumulative density difference value on the vertical axis, and has a peak at a position corresponding to the edge as can be seen from FIG.

(エッジプロファイルの格納:図5のステップS43)
図8は、時系列エッジプロファイルメモリにおけるエッジプロファイル格納の例を示す図である。
図8に示すように、過去に作成されたエッジプロファイルから直近に作成されたエッジプロファイルまでが移動体処理部202によって、時系列エッジプロファイルメモリ210に格納されている。ここで、図8におけるΔtは、撮像間隔であり、図8に示すように現在tから、p*Δt前の過去のエッジプロファイルがΔt毎に格納される。
(Storage of edge profile: Step S43 in FIG. 5)
FIG. 8 is a diagram illustrating an example of edge profile storage in the time-series edge profile memory.
As shown in FIG. 8, the moving object processing unit 202 stores from the edge profile created in the past to the most recently created edge profile in the time-series edge profile memory 210. Here, Δt in FIG. 8 is an imaging interval, and as shown in FIG. 8, a past edge profile before p * Δt from the current t is stored for each Δt.

(移動体検出処理:図5のステップS44)
図9は、移動体検出の処理の例を示す図である。
移動体処理部202は、時系列エッジプロファイルメモリ210から現在のエッジプロファイルと時間Δt1前のエッジプロファイルとを取得した後、以下に記載する方法で移動体の検出を行う。
移動体検出方法としては、移動体処理部202が、図9に示すように現在のエッジプロファイルと時間Δt1前のエッジプロファイルとの相関演算を行うことが考えられる(テンプレートマッチング)。これは、移動体処理部202が、現在の画像から得られたエッジプロファイル内の部分波形と近い部分波形を時間Δt1前の過去のエッジプロファイルの波形から探す方法である。例えば、移動体処理部202が、図9に示すように座標i0からm画素分の波形をテンプレートとし、所定時間Δt1前のエッジプロファイルの座標i0の前後n画素分を探索範囲としてテンプレートと類似する波形を探す。テンプレートの決定方法として、所定の画素幅mを用いる代わりに、エッジプロファイル波形の凸、凹を探し、凹−凸−凹で囲まれた部分をテンプレートとしてもよい。
(Moving object detection process: Step S44 in FIG. 5)
FIG. 9 is a diagram illustrating an example of processing for detecting a moving object.
After acquiring the current edge profile and the edge profile before time Δt1 from the time-series edge profile memory 210, the moving object processing unit 202 detects the moving object by the method described below.
As a moving body detection method, it is conceivable that the moving body processing unit 202 performs a correlation calculation between the current edge profile and the edge profile before time Δt1 as shown in FIG. 9 (template matching). This is a method in which the mobile processing unit 202 searches for a partial waveform close to the partial waveform in the edge profile obtained from the current image from the waveform of the past edge profile before time Δt1. For example, as shown in FIG. 9, the moving body processing unit 202 uses a waveform corresponding to m pixels from the coordinate i0 as a template, and resembles the template using n pixels before and after the coordinate i0 of the edge profile before the predetermined time Δt1 as a search range. Find the waveform. As a template determination method, instead of using the predetermined pixel width m, a convex or concave portion of the edge profile waveform may be searched, and a portion surrounded by the concave-convex-concave may be used as a template.

相関演算による類似度rとしては、例えばr(i1)=Σ{f(i0+x−i1)−g(i0+x)}が考えられる。ここでg(i0+x)はテンプレート、f(i0+x−i1)は時間Δt1前のエッジプロファイルの探索範囲内の波形である。類似度r(i1)が、最小となるi1がテンプレートに最も近い波形が存在する座標を表す。そして、移動体処理部202は、決定したi1と、i0とを基に、移動量d(i0)=i0−i1を算出する。次に、移動体処理部202は、座標i0を変更してテンプレートを決定し、そのテンプレートに最も近い波形を所定時間Δt1前のエッジプロファイルから探す。移動体処理部202は、このテンプレートマッチングを繰り返して、各i0についての移動量d(i)を算出する。移動体が遠方にいる時は画像上での見かけの動きが小さいため、Δt1を小さくすると、移動量も小さな値となってしまう。そこで、移動体が遠方にいる時は、Δt1を大きく設定してもよい。 As the similarity r by the correlation calculation, for example, r (i1) = Σ {f (i0 + x−i1) −g (i0 + x)} 2 can be considered. Here, g (i0 + x) is a template, and f (i0 + x−i1) is a waveform within the search range of the edge profile before time Δt1. The similarity r (i1) represents the coordinates where the waveform having the smallest i1 closest to the template exists. Then, the moving body processing unit 202 calculates a movement amount d (i0) = i0−i1 based on the determined i1 and i0. Next, the moving body processing unit 202 determines the template by changing the coordinate i0, and searches for the waveform closest to the template from the edge profile before the predetermined time Δt1. The moving body processing unit 202 repeats this template matching to calculate the movement amount d (i) for each i0. When the moving body is far away, the apparent movement on the image is small. Therefore, if Δt1 is reduced, the amount of movement also becomes a small value. Therefore, when the moving body is far away, Δt1 may be set large.

図10は、図9に示す処理の結果、得られた移動体領域を示す図である。
移動体処理部202が、図9を参照して説明したi0毎に算出した移動量を、横軸をi0、縦軸を移動量としてグラフ化することにより、図10に示す移動体領域を算出する。
この処理は、右カメラ3から入力される画像を用いているため、自車が停止している場合、移動量d(i)がゼロのときは、静止物を示し、正のときは、自車から離れる移動体を示し、そして負のときは、自車に接近する移動体が存在することを示す。移動体として自車に接近する移動体(接近物)を検出する場合は、図10に示すように移動量d(i)が負となる範囲を移動体領域(i1,i2)とすればよい。ここで、i1,i2は、移動量d(i)が負の値となるiの上限値および下限値である。そして、移動体処理部202は、検出した移動体領域(i1,i2)における移動体の移動量dと、移動体領域(i1,i2)と、時間Δt1とをオプティカルフロー算出部203へ出力する。なお、ここでdは、移動体領域におけるd(i)をi1からi2の範囲において、iに関して平均をとった値である。
FIG. 10 is a diagram showing the moving object region obtained as a result of the processing shown in FIG.
The moving body processing unit 202 calculates the moving body area shown in FIG. 10 by graphing the moving amount calculated for each i0 described with reference to FIG. 9 with the horizontal axis representing i0 and the vertical axis representing the moving amount. To do.
Since this process uses an image input from the right camera 3, when the host vehicle is stopped, it indicates a stationary object when the movement amount d (i) is zero, and when it is positive, A moving object that leaves the vehicle is shown, and when it is negative, it indicates that there is a moving object that approaches the vehicle. When a moving body (approaching object) approaching the host vehicle is detected as a moving body, a range where the moving amount d (i) is negative as shown in FIG. 10 may be set as the moving body region (i1, i2). . Here, i1 and i2 are an upper limit value and a lower limit value of i at which the movement amount d (i) is a negative value. Then, the moving object processing unit 202 outputs the moving object movement amount d in the detected moving object region (i1, i2), the moving object region (i1, i2), and the time Δt1 to the optical flow calculating unit 203. . Here, d is a value obtained by averaging d (i) in the moving body region with respect to i in the range from i1 to i2.

(遠方領域および近傍領域の設定、計測点設定:図5のステップS4、ステップS5)
図11は、本実施形態に係る遠方領域および近傍領域の設定、ならびに計測点設定の例を示す図である。
なお、以降右カメラ画像61を適宜画像61と記載する。
計測点設定処理部201は、図11に示すように、右カメラ3から取得した右カメラ画像61なら、右カメラ画像61の右側の所定領域を遠方領域72とし、画像左側の所定領域を近傍領域71とする。遠方領域の大きさは、図示しない入力部を介して、予め右カメラ処理部2に設定してあるものとする。
そして、計測点設定処理部201は、近傍領域71および遠方領域72において、オプティカルフローを算出するための計測点73を異なる密度で設定する。具体的には、遠方領域72は、近傍領域71よりも密に計測点73を設定する。
例えば、遠方領域72では4画素間隔で計測点73を設定するのに対し、近傍領域71では、例えば約1/4の密度で計測点73を28画素間隔に設定する。計測点73の密度は、必要とされる検知精度に応じて適宜変更してもよい。
(Distant area and neighborhood area setting, measurement point setting: Steps S4 and S5 in FIG. 5)
FIG. 11 is a diagram illustrating an example of setting of a far region and a near region and measurement point setting according to the present embodiment.
Hereinafter, the right camera image 61 is referred to as an image 61 as appropriate.
As shown in FIG. 11, in the case of the right camera image 61 acquired from the right camera 3, the measurement point setting processing unit 201 sets the predetermined region on the right side of the right camera image 61 as the far region 72 and the predetermined region on the left side of the image as the neighborhood region. 71. The size of the far region is assumed to be set in the right camera processing unit 2 in advance via an input unit (not shown).
Then, the measurement point setting processing unit 201 sets the measurement points 73 for calculating the optical flow at different densities in the near region 71 and the far region 72. Specifically, the distant area 72 sets the measurement points 73 more densely than the neighboring area 71.
For example, the measurement points 73 are set at intervals of 4 pixels in the far region 72, whereas the measurement points 73 are set at intervals of 28 pixels in the neighborhood region 71, for example, at a density of about 1/4. The density of the measurement points 73 may be changed as appropriate according to the required detection accuracy.

移動体が自車31に対して遠方にいる時は、移動体は小さく撮像されるため、遠方領域72の移動体のオプティカルフローを正確に算出するためには計測点73を密に設定する必要がある。
しかし、移動体が自車に対して近傍にいる時は、移動体は大きく撮像されるため、計測点73はそれほど密に設定しなくてもよい。
遠方領域72の大きさは、遠方における移動体領域(図9を参照して後記)を含むように定める必要がある。そのため、最も短い撮像間隔の場合でも遠方領域72内に移動体領域が入るように、遠方領域72の幅を定めるなどの方法がある。遠方領域72の高さは、前回のループで求めたオプティカルフローのFOEに応じて定めてもよい。
When the moving body is far away from the own vehicle 31, the moving body is imaged small. Therefore, in order to accurately calculate the optical flow of the moving body in the far region 72, it is necessary to set the measurement points 73 densely. There is.
However, when the moving body is in the vicinity of the own vehicle, the moving body is imaged large, so the measurement points 73 do not have to be set so densely.
The size of the distant area 72 needs to be determined so as to include a distant moving body area (described later with reference to FIG. 9). For this reason, there is a method of determining the width of the far region 72 so that the moving body region enters the far region 72 even in the case of the shortest imaging interval. The height of the far region 72 may be determined according to the FOE of the optical flow obtained in the previous loop.

図12は、比較例に係る計測点設定の例を示す図である。
比較例に示すように、従来では、計測点73は、遠方領域および近傍領域に限らず、等密度で設定されていた。つまり、遠方領域にあわせた密度で近傍領域における計測点を設定していた。従って、移動体が大きく撮像されるため計測点を細かく設定する必要がない近傍領域においても、遠方領域と同じ密度で計測点を設定しているため、後記するオプティカルフローの算出の際の処理サイズが大きくなってしまう。
これに対し、本実施形態では図11に示すように、近傍領域71と、遠方領域72とにおいて、計測点73の設定の密度を変えることで、検出精度を落とさずに、処理サイズを小さくし、かつ処理時間を短くすることが可能となる。
FIG. 12 is a diagram illustrating an example of measurement point setting according to the comparative example.
As shown in the comparative example, conventionally, the measurement points 73 are not limited to the far and near areas, but are set with equal density. That is, the measurement points in the vicinity region are set with a density according to the far region. Therefore, since the measurement points are set at the same density as that of the far field even in the vicinity area where it is not necessary to set the measurement points finely because the moving body is imaged large, the processing size when calculating the optical flow described later Will become bigger.
On the other hand, in this embodiment, as shown in FIG. 11, the processing size is reduced without reducing the detection accuracy by changing the density of the setting of the measurement points 73 in the near region 71 and the distant region 72. In addition, the processing time can be shortened.

(オプティカルフローの概要)
以下、図13から図18を参照して、オプティカルフローによる接近物の検出および接近物が自車に到達する到達予測時間の算出を説明する。
なお、図13から図15までの説明において、遠方領域と近傍領域とでは、計測点の配置の密度が異なるだけで、他は同様の処理を行っている。
図13は、オプティカルフローの例を示す図である。
接近物および到達予測時間を算出するために、移動体が所定時間の間に移動した移動ベクトル(すなわち、オプティカルフロー)1201を求める必要がある。ここで、画像61における移動ベクトル1201とは図13に示すように時間Δt2前の移動体の位置(破線で図示)と現在の移動体の位置(実線で図示)とをベクトル表現(矢印で図示)したものである。
(Overview of optical flow)
Hereinafter, with reference to FIG. 13 to FIG. 18, detection of an approaching object by optical flow and calculation of an estimated arrival time for the approaching object to reach the host vehicle will be described.
In the description from FIG. 13 to FIG. 15, the same processing is performed except that the distant area and the near area differ only in the density of measurement point arrangement.
FIG. 13 is a diagram illustrating an example of an optical flow.
In order to calculate the approaching object and the predicted arrival time, it is necessary to obtain a movement vector (that is, an optical flow) 1201 in which the moving body has moved during a predetermined time. Here, as shown in FIG. 13, the movement vector 1201 in the image 61 is a vector expression (illustrated by an arrow) of the position (indicated by a broken line) of the moving object before the time Δt2 and the current position (illustrated by a solid line). ).

(フレーム間隔算出:図4のステップS6,S12)
図14は、フレーム間隔算出の処理の例を示す図である。
まず、オプティカルフローの算出に用いる2枚の画像61の時間間隔(以下、フレーム間隔と呼ぶ)Δtを、移動体処理部202が移動量dを算出する際に用いた時間Δt1と同じ値にした場合、移動量dが大きいと図14に示すテンプレート画像1301と類似する画像(類似画像1302)を探す探索範囲aを大きくする必要があり、これは算出時間の増加になる。そこで、オプティカルフロー算出部203が、移動体処理部202において算出された移動量dに応じてフレーム間隔を変更することにする。即ち、移動量dが大きい場合はフレーム間隔Δtを時間Δt1より小さくし、移動量dが小さい場合はフレーム間隔Δtを時間Δt1より大きくする。例えば、図14に示す水平方向の探索範囲をaとすると、オプティカルフロー算出部203は、フレーム間隔Δtを以下の式1で決定する。
(Frame interval calculation: Steps S6 and S12 in FIG. 4)
FIG. 14 is a diagram illustrating an example of a frame interval calculation process.
First, the time interval (hereinafter referred to as the frame interval) Δt between the two images 61 used for calculating the optical flow is set to the same value as the time Δt1 used when the moving body processing unit 202 calculates the movement amount d. In this case, if the movement amount d is large, it is necessary to increase the search range a for searching for an image similar to the template image 1301 shown in FIG. 14 (similar image 1302), which increases calculation time. Therefore, the optical flow calculation unit 203 changes the frame interval according to the movement amount d calculated by the moving body processing unit 202. That is, when the movement amount d is large, the frame interval Δt is made smaller than the time Δt1, and when the movement amount d is small, the frame interval Δt is made larger than the time Δt1. For example, if the horizontal search range shown in FIG. 14 is a, the optical flow calculation unit 203 determines the frame interval Δt by the following formula 1.

Δt=a/d*Δt1 (式1)     Δt = a / d * Δt1 (Formula 1)

この式を用いると、フレーム間隔Δtを調節することにより探索範囲aを一定にすることができる。従って、移動量dに関わらずオプティカルフローの算出時間を一定にすることができる。   Using this equation, the search range a can be made constant by adjusting the frame interval Δt. Therefore, the optical flow calculation time can be made constant regardless of the movement amount d.

図5のステップS44で算出した移動量は画像の水平座標方向の変化である。オプティカルフロー1303を算出するためには更に垂直座標方向の移動量をも算出する必要がある。オプティカルフローを算出する方法には、ブロックマッチング法と勾配法がある。ここではブロックマッチング法を用いて説明するが、これに限らず勾配法を用いてもよいのは、当然である。   The movement amount calculated in step S44 in FIG. 5 is a change in the horizontal coordinate direction of the image. In order to calculate the optical flow 1303, it is also necessary to calculate the amount of movement in the vertical coordinate direction. As a method for calculating the optical flow, there are a block matching method and a gradient method. Although the block matching method will be described here, it is natural that the gradient method may be used without being limited to this.

ブロックマッチング法では、まず図18で説明したように、計測点設定処理部201が画像61上にオプティカルフロー1303を求めるための計測点1304を所定位置に配置する。そして、この計測点1304を中心する局所領域の画像をテンプレート画像1301として、時系列画像メモリ209からオプティカルフロー算出部203が画像61を取得する。次に、オプティカルフロー算出部203は、テンプレート画像1301からフレーム間隔Δt経過した画像61を時系列画像メモリ209から取得し、取得した画像61上の計測点1304を中心として、先に設定したテンプレート画像1301に最も類似する画像(類似画像1302)を探索する。テンプレート画像1301における計測点1304の座標を(i(t),j(t))、類似画像1302における計測点1304の座標を(i(t+Δt),j(t+Δt))とすると、オプティカルフロー1303(u,v)は、次式で算出できる。
u=i(t+Δt)−i(t) (式2)
v=j(t+Δt)−j(t) (式3)
この様子を図14に示す。テンプレート画像1301をg(x,y)、探索範囲a内の座標(k,l)を中心にテンプレート画像1301と同じサイズで切出した画像(類似画像1302)をf(k+x,l+y)とすると、類似度r(k,l)は、式4で算出できる。
In the block matching method, first, as described with reference to FIG. 18, the measurement point setting processing unit 201 arranges measurement points 1304 on the image 61 for obtaining the optical flow 1303 at predetermined positions. Then, the optical flow calculation unit 203 acquires the image 61 from the time-series image memory 209 using the image of the local region centering on the measurement point 1304 as the template image 1301. Next, the optical flow calculation unit 203 acquires from the time-series image memory 209 the image 61 that has passed the frame interval Δt from the template image 1301, and sets the template image previously set around the measurement point 1304 on the acquired image 61. An image most similar to 1301 (similar image 1302) is searched. If the coordinates of the measurement point 1304 in the template image 1301 are (i p (t), j p (t)), and the coordinates of the measurement point 1304 in the similar image 1302 are (i q (t + Δt), j q (t + Δt)), The optical flow 1303 (u, v) can be calculated by the following equation.
u = i q (t + Δt) −i p (t) (Formula 2)
v = j q (t + Δt) −j p (t) (Formula 3)
This is shown in FIG. If the template image 1301 is g (x, y) and the image (similar image 1302) cut out with the same size as the template image 1301 around the coordinates (k, l) in the search range a is f (k + x, l + y), The similarity r (k, l) can be calculated by Equation 4.

Figure 0004847779
Figure 0004847779

(接近物判定処理:図4のステップS8)
図15は、接近物判定の処理の例を示す図であり、(a),(b),(c)は、接近物検知の例、(d),(e)は、接近物未検知の例を示す図である。
図15で“■”はオプティカルフローが発生した計測点(オプティカルフロー発生点1401)を、“□”はオプティカルフローが発生しなかった計測点(オプティカルフロー未発生点1402)を示している。即ち、移動体判定部204は、隣接する行または列の計測点の中で2個以上のオプティカルフロー発生点1401があれば「接近物あり」と判定し(図20(a),(b),(c))、それ以外を接近物未検出(図20(d)、(e))とする。つまり、隣接する行または列の中で、オプティカルフロー発生点1401が2個未満であれば、移動体判定部204は、このオプティカルフロー発生点1401をノイズと判定し、接近物とは判定しない。
(Approaching object determination process: Step S8 in FIG. 4)
FIG. 15 is a diagram illustrating an example of approaching object determination processing, where (a), (b), and (c) are examples of approaching object detection, and (d) and (e) are no approaching object detection. It is a figure which shows an example.
In FIG. 15, “■” indicates a measurement point where an optical flow has occurred (optical flow generation point 1401), and “□” indicates a measurement point where no optical flow has occurred (optical flow non-occurrence point 1402). That is, the moving body determination unit 204 determines that there is an approaching object if there are two or more optical flow generation points 1401 among the measurement points in adjacent rows or columns (FIGS. 20A and 20B). , (C)), and other than that is set as an approaching object not detected (FIGS. 20D and 20E). That is, if there are less than two optical flow generation points 1401 in adjacent rows or columns, the moving body determination unit 204 determines that the optical flow generation point 1401 is noise and does not determine that it is an approaching object.

(到達予測時間算出:図4のステップS9)
次に、算出したオプティカルフローから接近物と自車との到達予測時間を算出する方法について述べる。
図16は、基準座標系とカメラ座標系との例を示す図である。
到達予測時間算出部205が扱う座標系として、基準座標系、カメラ座標系、撮像面座標系および画像メモリ座標系がある。基準座標系とは、自車が走行している道路と交差する道路に沿った軸をZ’軸とし、これと垂直な軸をX’軸およびY’軸とした(X’,Y’,Z’)座標系である。これに対し、カメラ座標系は、右カメラ3のレンズに対する光軸をZ軸とし、これと垂直なX軸およびY軸を定めた(X,Y,Z)座標系である。基本座標系およびカメラ座標系の原点は、自車に設置された右カメラ3のレンズ中心である。Z’軸とZ軸とのなす角度をθとすると、基本座標系とカメラ座標系との間には以下の関係式が成り立つ。
(Calculation of predicted arrival time: step S9 in FIG. 4)
Next, a method for calculating the predicted arrival time between the approaching object and the own vehicle from the calculated optical flow will be described.
FIG. 16 is a diagram illustrating an example of a reference coordinate system and a camera coordinate system.
As coordinate systems handled by the predicted arrival time calculation unit 205, there are a reference coordinate system, a camera coordinate system, an imaging plane coordinate system, and an image memory coordinate system. In the reference coordinate system, an axis along a road that intersects the road on which the vehicle is traveling is defined as a Z ′ axis, and axes perpendicular to the axis are defined as an X ′ axis and a Y ′ axis (X ′, Y ′, Z ′) coordinate system. On the other hand, the camera coordinate system is an (X, Y, Z) coordinate system in which the optical axis with respect to the lens of the right camera 3 is set as the Z axis, and the X axis and the Y axis perpendicular thereto are defined. The origin of the basic coordinate system and the camera coordinate system is the center of the lens of the right camera 3 installed in the own vehicle. When the angle between the Z ′ axis and the Z axis is θ, the following relational expression is established between the basic coordinate system and the camera coordinate system.

Figure 0004847779
Figure 0004847779

Figure 0004847779
Figure 0004847779

図17は、撮像面座標系の例を示す図である。
撮像面座標系は、図17に示すように撮像面(カメラ内部に設けられている撮像素子上の面)の中心を原点とした座標系で、撮像面座標系における座標を(x,y)で表す。このとき、焦点距離をFとすると、カメラ座標系上の点P(Xp,Yp,Zp)と撮像面座標系上の点p(x,y)には以下の関係式が成り立つ。
FIG. 17 is a diagram illustrating an example of the imaging plane coordinate system.
As shown in FIG. 17, the imaging surface coordinate system is a coordinate system with the center of the imaging surface (the surface on the image sensor provided inside the camera) as the origin, and the coordinates in the imaging surface coordinate system are (x, y). Represented by At this time, if the focal length is F, the following relational expression is established between the point P (Xp, Yp, Zp) on the camera coordinate system and the point p (x p , y p ) on the imaging plane coordinate system.

Figure 0004847779
Figure 0004847779

Figure 0004847779
Figure 0004847779

図18は、画像メモリ座標系の例を示す図である。
画像メモリ座標系は、図18に示すように画像の左上隅を原点として(i,j)で表すことにする。この時、撮像面座標系(x,y)と画像メモリ座標系(i,j)には下記の関係式が成り立つ。
FIG. 18 is a diagram illustrating an example of an image memory coordinate system.
The image memory coordinate system is represented by (i, j) with the upper left corner of the image as the origin as shown in FIG. At this time, the following relational expression is established between the imaging plane coordinate system (x, y) and the image memory coordinate system (i, j).

Figure 0004847779
Figure 0004847779

Figure 0004847779
Figure 0004847779

ここで、I,Jは、画像メモリの中心を原点とした座標である。
ここで、撮像面のサイズをW×H[m]、有効画素数をP×PH、また撮像面座標系の原点と画像メモリ座標系の原点とのオフセットをoffset1(x軸方向),offset2(y軸方向)とする。
今、自車が静止しており、接近物は一定速度Vで道路に沿って直進走行しているとする。接近物のある点を基準座標系で表すと、P(X’p,Y’p,Z’p)となり、X’p,Y’pは、時間に関わらず一定となる。到達予想時刻算出部は、自車と接近物との距離であるZ’pを式11によって算出する。
Here, I and J are coordinates with the center of the image memory as the origin.
Here, the size of the imaging surface is W × H [m], the number of effective pixels is P W × PH , and the offset between the origin of the imaging surface coordinate system and the origin of the image memory coordinate system is offset1 (x-axis direction), Let it be offset2 (y-axis direction).
Now, the vehicle is stationary, an approaching object is a running straight along a road at a constant speed V 0. When a point with an approaching object is expressed in the reference coordinate system, it becomes P (X′p, Y′p, Z′p), and X′p, Y′p is constant regardless of time. The predicted arrival time calculation unit calculates Z′p, which is the distance between the host vehicle and the approaching object, using Equation 11.

Figure 0004847779
Figure 0004847779

次に、到達予測時間算出部205は、図14に示すオプティカルフローの算出処理で求めた時刻t,t1=0+Δの座標(i(t),j(t))、(i(t+Δt),j(t+Δt))を式9、式10に代入して算出した画像メモリ座標系の座標をI(t),I(t)、J(t),J(t)として求め、さらに、それぞれの比をr(x),r(y)とする。このときr(x),r(y)は、式12および式13となる。ここで、tは、現在処理している画像を取り込んだ時刻であり、tは、前回処理した画像を取り込んだ時刻である。 Next, the predicted arrival time calculation unit 205 includes the coordinates (i p (t), j p (t)) of times t 0 , t 1 = t 0+ Δ t obtained by the optical flow calculation process shown in FIG. The coordinates of the image memory coordinate system calculated by substituting (i q (t + Δt), j q (t + Δt)) into Equations 9 and 10 are I (t 0 ), I (t 1 ), J (t 0 ), J (t 1 ) is obtained, and the ratios are r (x) and r (y). At this time, r (x) and r (y) are expressed by Equation 12 and Equation 13, respectively. Here, t 1 is the time when the currently processed image is captured, and t 0 is the time when the previously processed image is captured.

Figure 0004847779
Figure 0004847779

Figure 0004847779
Figure 0004847779

式5、式6および式11を式13に代入すると、r(y)は、式14で表すことができる。   Substituting Equation 5, Equation 6, and Equation 11 into Equation 13, r (y) can be expressed as Equation 14.

Figure 0004847779
Figure 0004847779

到達予測時間をTとすると、Tは、Z’(t)/Vで表現できる。そこで、式14は、次のようになる。 If the estimated arrival time is T, T can be expressed as Z ′ (t 0 ) / V 0 . Therefore, Expression 14 is as follows.

Figure 0004847779
Figure 0004847779

ここで、b=X/Vである。また、r(x)は、式16のように変形できる。 Here, b = X 0 / V 0 . Also, r (x) can be transformed as shown in Equation 16.

Figure 0004847779
Figure 0004847779

ここで、r=r(x)/r(y)とすると式17を得る。   Here, when r = r (x) / r (y), Expression 17 is obtained.

Figure 0004847779
Figure 0004847779

ここで、Xは、tにおける撮像面座標系のx座標値であり、Vは、自車が一定速度で走行するという仮定の下での時刻tにおける自車の速度である。
式17からbを求めて式15に代入することによって、到達予測時間算出部205は、到達予測時間Tを次の式18を用いて算出できる。ここで、Δtは、オプティカルフロー算出部203が算出したフレーム間隔である。
Here, X 0 is the x coordinate value of the imaging plane coordinate system at t 0 , and V 0 is the speed of the host vehicle at time t 0 under the assumption that the host vehicle travels at a constant speed.
By obtaining b from Expression 17 and substituting it into Expression 15, the arrival prediction time calculation unit 205 can calculate the arrival prediction time T using the following Expression 18. Here, Δt is a frame interval calculated by the optical flow calculation unit 203.

Figure 0004847779
Figure 0004847779

式18からわかるように到達予測時間Tを算出するためには、光軸方向θを求める必要がある。θは、次の成分から構成される。即ち、カメラを車両に設置したときの角度、ドライバがステアリング操作したときの自車の回転角(ステアリング角度)、および図16に示すように交差点での走行道路と交差道路との交差角αである。カメラの設置角度は、設計値によって規定され、自車の回転角はステアリング角度センサやヨーレートセンサなどを用いることによって計測できる。道路の交差角αは、ナビゲーションシステム83の道路地図に格納しておけばよい。また、自車の回転角は、撮像装置で検出した白線の傾きを基に算出してもよい。そして、光軸方向算出部206が、ステアリング角度センサあるいはヨーレートセンサから取得した値と、ナビゲーションシステム83に格納してある道路地図から取得した道路の交差角αと、更にカメラの設置角度とを用いて光軸方向θを次式で算出する。   As can be seen from Equation 18, in order to calculate the predicted arrival time T, the optical axis direction θ needs to be obtained. θ is composed of the following components. That is, the angle when the camera is installed in the vehicle, the rotation angle (steering angle) of the vehicle when the driver performs steering operation, and the intersection angle α between the traveling road and the intersection road at the intersection as shown in FIG. is there. The camera installation angle is defined by a design value, and the rotation angle of the vehicle can be measured by using a steering angle sensor, a yaw rate sensor, or the like. The road intersection angle α may be stored in the road map of the navigation system 83. The rotation angle of the host vehicle may be calculated based on the slope of the white line detected by the imaging device. The optical axis direction calculation unit 206 uses the value acquired from the steering angle sensor or the yaw rate sensor, the road intersection angle α acquired from the road map stored in the navigation system 83, and the camera installation angle. The optical axis direction θ is calculated by the following equation.

θ=カメラの設置角度+ステアリング角度+道路交差角 (式19)   θ = Camera installation angle + Steering angle + Road intersection angle (Equation 19)

到達予測時間算出部205が、移動体処理で算出した移動体領域(図10参照)内の計測点の座標と、式19のθを式18に代入することによって、到達予測時間算出部205は、移動体領域内の各計測点における到達予測時間を算出する。そして、到達予測時間算出部205が、算出した各計測点の到達予測時間の中で最小となる到達予測時間を、その移動体の到達予測時間とすればよい。   The arrival prediction time calculation unit 205 substitutes the coordinates of the measurement points in the moving body region (see FIG. 10) calculated by the moving body processing and θ of Expression 19 into Expression 18, so that the arrival prediction time calculation section 205 The arrival prediction time at each measurement point in the moving body region is calculated. And the arrival prediction time calculation part 205 should just make the arrival prediction time which becomes the minimum in the arrival prediction time of each calculated measurement point the arrival prediction time of the mobile body.

なお、左カメラ5から入力される画像を処理する左カメラ処理部4では、移動量dと移動体の接近/離反の関係が逆になる。しかし、前記した右カメラ3の画像を左右鏡像反転することにより、移動量d(i)の正負と移動体の接近/離反の関係を同じにすることが出来る。従って、左カメラ処理部4における処理の内容も、前記した右カメラ処理部2における処理と同様の処理とすることができる。   In the left camera processing unit 4 that processes an image input from the left camera 5, the relationship between the moving amount d and the approach / separation of the moving object is reversed. However, by reversing the left and right mirror images of the image of the right camera 3 described above, the relationship between the positive / negative of the moving amount d (i) and the approach / separation of the moving body can be made the same. Therefore, the processing content in the left camera processing unit 4 can be the same as the processing in the right camera processing unit 2 described above.

このような方法により右カメラ3で撮像した画像に接近物があれば、それを検出し、到達予測時間に応じて警報を発生することができる。右カメラ3の場合、接近物は画像の右から左に移動するものが自車への接近物となるが、左カメラ5の場合は、画像の左から右に移動するものが自車への接近物となる。従って、左カメラ5の画像を鏡像反転すれば、前述の通り、右カメラ3に対して用いた処理がそのまま利用できることになり、プログラム容量を抑えることができる。   If there is an approaching object in the image captured by the right camera 3 by such a method, it can be detected and an alarm can be generated according to the predicted arrival time. In the case of the right camera 3, an approaching object that moves from the right to the left of the image is an approaching object to the own vehicle. In the case of the left camera 5, an object that moves from the left to the right of the image is directed to the own vehicle. It becomes an approaching object. Therefore, if the image of the left camera 5 is mirror-inverted, the processing used for the right camera 3 can be used as it is as described above, and the program capacity can be suppressed.

なお、本実施形態では、図4において遠方領域における処理を近傍領域における処理よりも先に行ったが、これに限らず近傍領域における処理(すなわち、図4のステップS12からステップS15)を遠方における処理(すなわち、図4のステップS6からステップS11)より先に行ってもよい。   In the present embodiment, the processing in the far region in FIG. 4 is performed prior to the processing in the near region. However, the present invention is not limited to this. You may perform before a process (namely, step S6 to step S11 of FIG. 4).

(効果)
本実施形態によれば、画像を近傍領域および遠方領域に分け、近傍領域に設定する計測点を、遠方領域の計測点と比較して、疎に設定し、さらに近傍領域においては、到達予測時間の算出を行わないことにより、近傍領域に移動体が検知されてから、警報を出力するまでの時間を短縮することが可能となる。従って、近傍領域における計測点を少なくすることで、処理サイズを小さくすることが可能であり、かつ近傍領域における到達予測時間の算出を行わないことで処理時間を短くすることが可能となる。
(effect)
According to the present embodiment, the image is divided into a near region and a far region, and the measurement points set in the near region are set to be sparse compared with the measurement points in the far region. By not performing the calculation, it is possible to shorten the time from when the moving body is detected in the vicinity region until the alarm is output. Therefore, the processing size can be reduced by reducing the number of measurement points in the vicinity region, and the processing time can be shortened by not calculating the arrival prediction time in the vicinity region.

本実施形態にかかる車載情報処理システムの構成例を示す機能ブロック図である。It is a functional block diagram which shows the structural example of the vehicle-mounted information processing system concerning this embodiment. 右カメラ処理部または左カメラ処理部の構成例を示す機能ブロック図である。It is a functional block diagram which shows the structural example of a right camera process part or a left camera process part. 本実施形態に係る車載情報処理システムの概略を示した図である。It is the figure which showed the outline of the vehicle-mounted information processing system which concerns on this embodiment. 本実施形態に係る車載情報処理方法の流れを示すフローである。It is a flow which shows the flow of the vehicle-mounted information processing method which concerns on this embodiment. ステップS3における移動体処理の流れを示すフローである。It is a flow which shows the flow of the mobile body process in step S3. 図3に示す右カメラおよび左カメラが撮像し、カメラ処理部に入力される画像の例を示す図であり、(a)右カメラ画像、(b)左カメラ画像の例を示す図である。It is a figure which shows the example of the image which the right camera and left camera shown in FIG. 3 image, and is input into a camera process part, (a) A right camera image, (b) It is a figure which shows the example of a left camera image. エッジプロファイル作成の例を示す図であり、(a)は、エッジ画像の例、(b)は、エッジプロファイルの例を示す図である。It is a figure which shows the example of edge profile creation, (a) is an example of an edge image, (b) is a figure which shows the example of an edge profile. 時系列エッジプロファイルメモリにおけるエッジプロファイル格納の例を示す図である。It is a figure which shows the example of edge profile storage in a time-sequential edge profile memory. 移動体検出の処理の例を示す図である。It is a figure which shows the example of a process of a mobile body detection. 図9に示す処理の結果、得られた移動体領域を示す図である。It is a figure which shows the moving body area | region obtained as a result of the process shown in FIG. 本実施形態に係る遠方領域および近傍領域の設定、ならびに計測点設定の例を示す図である。It is a figure which shows the example of the setting of a distant area | region and vicinity area | region which concerns on this embodiment, and measurement point setting. 比較例に係る計測点設定の例を示す図である。It is a figure which shows the example of the measurement point setting which concerns on a comparative example. オプティカルフローの例を示す図である。It is a figure which shows the example of an optical flow. フレーム間隔算出の処理の例を示す図である。It is a figure which shows the example of a process of frame space | interval calculation. 接近物判定の処理の例を示す図であり、(a),(b),(c)は、接近物検知の例、(d),(e)は、接近物未検知の例を示す図である。It is a figure which shows the example of a process of approaching object determination, (a), (b), (c) is an example of an approaching object detection, (d), (e) is a figure which shows the example of an approaching object non-detection. It is. 基準座標系とカメラ座標系との例を示す図である。It is a figure which shows the example of a reference | standard coordinate system and a camera coordinate system. 撮像面座標系の例を示す図である。It is a figure which shows the example of an imaging surface coordinate system. 画像メモリ座標系の例を示す図である。It is a figure which shows the example of an image memory coordinate system.

符号の説明Explanation of symbols

1 車載情報処理装置
2 右カメラ処理部(処理部)
3 右カメラ(撮像装置)
4 左カメラ処理部(処理部)
5 左カメラ(撮像装置)
6 出力処理部
7 モニタ
8 ナビゲーションシステム
9 車載情報処理システム
31 自車
61 右カメラ画像(画像)
62 移動体
63,1303 オプティカルフロー
65 左カメラ画像
71 近傍領域
72 遠方領域
73,1304 計測点
81 処理範囲
82 エッジ
83 ナビゲーションシステム
201 計測点設定処理部
202 移動体処理部
203 オプティカルフロー算出部
204 移動体判定部
205 到達予測時間算出部
206 光軸方向算出部
207 警報判定部
208 警報処理部
209 時系列画像メモリ(記憶部)
210 時系列エッジプロファイルメモリ
1201 移動ベクトル
1301 テンプレート画像
1302 類似画像
1401 オプティカルフロー発生点
1402 オプティカルフロー未発生点
1 On-vehicle information processing device 2 Right camera processing unit (processing unit)
3 Right camera (imaging device)
4 Left camera processing unit (processing unit)
5 Left camera (imaging device)
6 Output processing unit 7 Monitor 8 Navigation system 9 On-board information processing system 31 Own vehicle 61 Right camera image (image)
62 Moving object 63, 1303 Optical flow 65 Left camera image 71 Near area 72 Distant area 73, 1304 Measurement point 81 Processing range 82 Edge 83 Navigation system 201 Measurement point setting processing part 202 Moving object processing part 203 Optical flow calculation part 204 Moving object Determination unit 205 Estimated arrival time calculation unit 206 Optical axis direction calculation unit 207 Alarm determination unit 208 Alarm processing unit 209 Time-series image memory (storage unit)
210 Time-series edge profile memory 1201 Movement vector 1301 Template image 1302 Similar image 1401 Optical flow generation point 1402 Optical flow non-occurrence point

Claims (8)

車両に搭載され撮像装置が撮像する画像に基づき、移動体の存在を検知する車載情報処理装置における車載情報処理方法であって、
前記車載情報処理装置は、情報を記憶する記憶部を備え、
前記撮像装置から入力された画像を前記記憶部に格納しており
前記車載情報処理装置が、
前記記憶部から、時間的に異なる2つの画像を取得し、
前記2つの画像を基に、前記画像内における移動体の検出と、前記移動体の移動量の算出を行い、
前記画像のうち自車から近傍の画像領域近傍領域と前記近傍領域よりも前記自車から遠方の画像領域遠方領域とし、
前記近傍領域よりも、前記遠方領域における計測点が密になるよう設定し
前記遠方領域における処理では、
前記移動量を基に、フレーム間隔を算出し、
前記記憶部から、前記フレーム間隔の2つの画像を取得し、
前記取得した2つの画像と、前記遠方領域における前記計測点とを基に、オプティカルフローを算出し、
前記算出したオプティカルフローを基に、前記自車に、前記検出された移動体が到達する予測時間である到達予測時間を算出し、
前記算出した到達予測時間を基に、警報の要否を判定し、
前記近傍領域における処理では、
前記移動量を基に、フレーム間隔を算出し、
前記記憶部から、前記フレーム間隔の2つの画像を取得し、
前記取得した2つの画像と、前記近傍領域における前記計測点とを基に、オプティカルフローを算出し、
前記算出したオプティカルフローを基に、警報の要否を判定することを特徴とする車載情報処理方法。
An in-vehicle information processing method in an in-vehicle information processing apparatus that detects the presence of a moving body based on an image captured by an imaging device mounted on a vehicle,
The in-vehicle information processing apparatus includes a storage unit that stores information,
The image input from the imaging device is stored in the storage unit,
The in-vehicle information processing apparatus is
Two images different in time are acquired from the storage unit,
Based on the two images, detection of the moving body in the image and calculation of the moving amount of the moving body ,
Of the image, an image region near the vehicle as a neighboring region, the distant image areas from the vehicle than the neighboring region and far region,
Set the measurement points in the far region to be denser than the nearby region ,
In processing in the far field,
Calculate the frame interval based on the amount of movement,
From the storage unit, obtain two images of the frame interval,
Based on the two acquired images and the measurement points in the far region, an optical flow is calculated,
Based on the optical flow and the calculated, said the vehicle, calculates a is predicted arrival time prediction time said detected moving object arrives,
Based on the calculated predicted arrival time, it is determined whether an alarm is necessary,
In the processing in the vicinity region,
Calculate the frame interval based on the amount of movement,
From the storage unit, obtain two images of the frame interval,
Based on the acquired two images and the measurement points in the vicinity region, an optical flow is calculated,
An in-vehicle information processing method that determines whether or not an alarm is necessary based on the calculated optical flow.
前記車載情報処理装置は、前記車載情報処理装置から送られた画像または音声を出力する出力装置と接続可能であり、
前記車載情報処理装置が、
前記警報の要否の判定の結果、前記警報が要であると判定された場合、前記出力装置に前記警報を出力させることをさらに実行することを特徴とする請求項1に記載の車載情報処理方法。
The in-vehicle information processing device can be connected to an output device that outputs an image or sound sent from the in-vehicle information processing device,
The in-vehicle information processing apparatus is
The in-vehicle information processing according to claim 1, further comprising: causing the output device to output the alarm when it is determined that the alarm is necessary as a result of determining whether the alarm is necessary. Method.
前記車載情報処理装置は、前記車載情報処理装置から送られた画像を出力する出力装置と接続可能であり、
前記車載情報処理装置が、
前記入力された画像を、前記出力装置に出力させることをさらに実行することを特徴とする請求項に記載の車載情報処理方法。
The in-vehicle information processing device can be connected to an output device that outputs an image sent from the in-vehicle information processing device,
The in-vehicle information processing apparatus is
The in-vehicle information processing method according to claim 1 , further comprising causing the output device to output the input image.
前記車載情報処理装置は、道路地図の情報を格納するナビゲーションシステムと接続可能であり、
前記車載情報処理装置が、
前記到達予測時間の算出として
予め設定されている前記撮像装置の設置角度、前記車両に設置されているヨーレートセンサの出力、ステアリング角センサの出力、または前記撮像装置で検出した白線の傾きの少なくとも1つを用いて自車の回転角度を取得し、
前記ナビゲーションシステムから取得した前記道路地図より前記自車が走行する道路と、交差点で交差する道路との交差角度を取得し、
前記自車における前記撮像装置の設置角度、前記自車の回転角度および前記交差角度を基に、前記到達予測時間を算出することをさらに実行することを特徴とする請求項1に記載の車載情報処理方法。
The in-vehicle information processing apparatus can be connected to a navigation system that stores road map information,
The in-vehicle information processing apparatus is
As the calculation of the predicted arrival time,
Using at least one of the preset installation angle of the imaging device, the output of the yaw rate sensor installed in the vehicle, the output of the steering angle sensor, or the inclination of the white line detected by the imaging device, Get the rotation angle,
Obtaining the intersection angle between the road on which the vehicle travels and the road intersecting at an intersection from the road map obtained from the navigation system;
Installation angle of the imaging device in the vehicle, the based on the rotation angle and the crossing angle of the vehicle, vehicle according to claim 1, characterized by further executing that calculates the predicted arrival time Information processing method.
前記撮像装置は、前記車両の左右両側方に少なくとも2台設置されていることを特徴とする請求項1に記載の車載情報処理方法。The in-vehicle information processing method according to claim 1, wherein at least two imaging devices are installed on both left and right sides of the vehicle. 請求項1から請求項のいずれか一項に記載の車載情報処理方法を、コンピュータに実行させることを特徴とする車載情報処理プログラム。 An in-vehicle information processing program that causes a computer to execute the in-vehicle information processing method according to any one of claims 1 to 5 . 車両に搭載され撮像装置が撮像する画像に基づき、移動体の存在を検知する車載情報処理装置であって、
情報を記憶する記憶部と、
前記撮像装置から入力された画像を前記記憶部に格納する処理部と、
前記記憶部から、時間的に異なる2つの画像を取得し、前記2つの画像を基に、前記画像内における移動体の検出と、前記移動体の移動量の算出を行う移動体処理部と、
前記画像のうち自車から近傍の画像領域近傍領域と前記近傍領域よりも前記自車から遠方の画像領域遠方領域とし、前記近傍領域よりも、前記遠方領域における計測点が密になるよう設定する計測点設定処理部と、
前記近傍領域および前記遠方領域のそれぞれにおいて、前記移動量を基に、フレーム間隔を算出し、前記記憶部から、前記フレーム間隔の2つの画像を取得し、前記取得した2つの画像と、前記計測点とを基に、オプティカルフローを算出するオプティカルフロー算出部と、
前記遠方領域において、前記算出したオプティカルフローを基に、前記自車に、前記検出された移動体が到達する予測時間である到達予測時間を算出する到達予測時間算出部と、
前記遠方領域における処理で、前記算出した到達予測時間を基に、警報の要否を判定する警報判定部と、
前記近傍領域における処理で、前記算出したオプティカルフローを基に、警報の要否を判定する移動体判定部と、を含んで備えることを特徴とする車載情報処理装置。
An in-vehicle information processing device that detects the presence of a moving object based on an image captured by an imaging device mounted on a vehicle,
A storage unit for storing information;
A processing unit that stores an image input from the imaging device in the storage unit;
A moving body processing unit that acquires two images that are temporally different from the storage unit, detects a moving body in the image based on the two images, and calculates a moving amount of the moving body,
Of the image, an image region near the vehicle as a neighboring region, wherein the remote image area from the own vehicle than the region near the far region, than the neighboring region, dense measurement points in the far region A measurement point setting processing unit for setting to be ,
In each of the near area and the far area , a frame interval is calculated based on the movement amount, two images of the frame interval are acquired from the storage unit, the acquired two images, and the measurement An optical flow calculation unit for calculating an optical flow based on the points;
In the far region, based on the optical flow and the calculated, and the on the vehicle, estimated arrival time calculation unit for the detected moving body calculates the predicted arrival time is a predicted time to arrive,
An alarm determination unit that determines whether or not an alarm is required based on the calculated predicted arrival time in the processing in the remote area;
A vehicle information processing apparatus comprising: a moving body determination unit that determines whether or not an alarm is required based on the calculated optical flow in the process in the vicinity region.
車両に搭載された撮像装置と、前記車両に搭載され、前記撮像装置が撮像する画像に基づき、移動体の存在を検知する車載情報処理装置とを含んで備える車載情報処理システムであって、
前記車載情報処理装置は、
情報を記憶する記憶部と、
前記撮像装置から入力された画像を前記記憶部に格納する処理部と、
前記記憶部から、時間的に異なる2つの画像を取得し、前記2つの画像を基に、前記画像内における移動体の検出と、前記移動体の移動量の算出を行う移動体処理部と、
前記画像のうち自車から近傍の画像領域近傍領域と前記近傍領域よりも前記自車から遠方の画像領域遠方領域とし、前記近傍領域よりも、前記遠方領域における計測点が密になるよう設定する計測点設定処理部と、
前記近傍領域および前記遠方領域のそれぞれにおいて、前記移動量を基に、フレーム間隔を算出し、前記記憶部から、前記フレーム間隔の2つの画像を取得し、前記取得した2つの画像と、前記計測点とを基に、オプティカルフローを算出するオプティカルフロー算出部と、
前記遠方領域において、前記算出したオプティカルフローを基に、前記自車に、前記検出された移動体が到達する予測時間である到達予測時間を算出する到達予測時間算出部と、
前記遠方領域における処理で、前記算出した到達予測時間を基に、警報の要否を判定する警報判定部と、
前記近傍領域における処理で、前記算出したオプティカルフローを基に、警報の要否を判定する移動体判定部と、を含んで備えることを特徴とする車載情報処理システム。
An imaging device mounted on a vehicle, mounted on the vehicle, based on the image of the imaging device takes an image, a vehicle information processing system comprising and a vehicle information processing apparatus for detecting the presence of the moving body,
The in-vehicle information processing apparatus
A storage unit for storing information;
A processing unit that stores an image input from the imaging device in the storage unit;
A moving body processing unit that acquires two images that are temporally different from the storage unit, detects a moving body in the image based on the two images, and calculates a moving amount of the moving body,
Of the image, an image region near the vehicle as a neighboring region, wherein the remote image area from the own vehicle than the region near the far region, than the neighboring region, dense measurement points in the far region A measurement point setting processing unit for setting to be ,
In each of the near area and the far area , a frame interval is calculated based on the movement amount, two images of the frame interval are acquired from the storage unit, the acquired two images, and the measurement An optical flow calculation unit for calculating an optical flow based on the points;
In the far region, based on the optical flow and the calculated, and the on the vehicle, estimated arrival time calculation unit for the detected moving body calculates the predicted arrival time is a predicted time to arrive,
An alarm determination unit that determines whether or not an alarm is required based on the calculated predicted arrival time in the processing in the remote area;
An in-vehicle information processing system comprising: a moving body determination unit that determines whether or not an alarm is required based on the calculated optical flow in the process in the vicinity region.
JP2006110816A 2006-04-13 2006-04-13 In-vehicle information processing method, in-vehicle information processing program, in-vehicle information processing apparatus, and in-vehicle information processing system Active JP4847779B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006110816A JP4847779B2 (en) 2006-04-13 2006-04-13 In-vehicle information processing method, in-vehicle information processing program, in-vehicle information processing apparatus, and in-vehicle information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006110816A JP4847779B2 (en) 2006-04-13 2006-04-13 In-vehicle information processing method, in-vehicle information processing program, in-vehicle information processing apparatus, and in-vehicle information processing system

Publications (2)

Publication Number Publication Date
JP2007286724A JP2007286724A (en) 2007-11-01
JP4847779B2 true JP4847779B2 (en) 2011-12-28

Family

ID=38758460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006110816A Active JP4847779B2 (en) 2006-04-13 2006-04-13 In-vehicle information processing method, in-vehicle information processing program, in-vehicle information processing apparatus, and in-vehicle information processing system

Country Status (1)

Country Link
JP (1) JP4847779B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4957807B2 (en) * 2007-12-14 2012-06-20 富士通株式会社 Moving object detection apparatus and moving object detection program
JP5379543B2 (en) * 2009-04-09 2013-12-25 日立オートモティブシステムズ株式会社 Automobile external recognition device
JP5874756B2 (en) 2014-02-07 2016-03-02 トヨタ自動車株式会社 Marking line detection system and marking line detection method
JP6466679B2 (en) * 2014-10-10 2019-02-06 トヨタ自動車株式会社 Object detection device
JP7331731B2 (en) * 2020-02-21 2023-08-23 トヨタ自動車株式会社 Vehicle electronic mirror system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07140246A (en) * 1993-11-16 1995-06-02 Matsushita Electric Ind Co Ltd Intervehicular distance measuring system and collision warning system
JP3235393B2 (en) * 1995-03-17 2001-12-04 トヨタ自動車株式会社 Moving vector extraction method
JPH11353565A (en) * 1998-06-09 1999-12-24 Yazaki Corp Method and device for alarm of collision for vehicle
JP4552305B2 (en) * 2000-10-02 2010-09-29 日産自動車株式会社 Image display device and display method
JP2004274538A (en) * 2003-03-11 2004-09-30 Auto Network Gijutsu Kenkyusho:Kk Apparatus for visually recognizing surrounding of vehicle
JP4269781B2 (en) * 2003-05-27 2009-05-27 日本電気株式会社 Optical flow detection system, detection method and detection program
JP4193740B2 (en) * 2004-03-26 2008-12-10 三菱自動車工業株式会社 Nose view monitor device

Also Published As

Publication number Publication date
JP2007286724A (en) 2007-11-01

Similar Documents

Publication Publication Date Title
EP2924653B1 (en) Image processing apparatus and image processing method
JP4985142B2 (en) Image recognition apparatus and image recognition processing method of image recognition apparatus
US9415723B2 (en) Image integration unit and image integration method
JP3562751B2 (en) Forward vehicle detection method and device
JP2003067752A (en) Vehicle periphery monitoring device
US9619717B2 (en) Lane-line recognition apparatus
JP2002197469A (en) Device for detecting traffic lane
JP2009053818A (en) Image processor and method thereof
JP6129268B2 (en) Vehicle driving support system and driving support method
JP2008299458A (en) Vehicle monitoring apparatus and vehicle monitoring method
JP4847779B2 (en) In-vehicle information processing method, in-vehicle information processing program, in-vehicle information processing apparatus, and in-vehicle information processing system
JP2005329779A (en) Method and device for recognizing obstacle
JP2002314989A (en) Peripheral monitor for vehicle
JP2015225546A (en) Object detection device, drive support apparatus, object detection method, and object detection program
EP3549056A1 (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and computer program product
JP2009245042A (en) Traffic flow measurement device and program
JP4256992B2 (en) Obstacle detection device
JP3384278B2 (en) Distance measuring device
JP4553071B1 (en) 3D information display device and 3D information display method
JP5832850B2 (en) Lane monitoring system and lane monitoring method
JP3757500B2 (en) Leading vehicle following device
JPH07225126A (en) On-road object recognizing device for vehicle
JP2001082954A (en) Image processing device and image processing distance- measuring method
JP4106163B2 (en) Obstacle detection apparatus and method
JPH07271978A (en) Image processor

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20080404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20080404

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111011

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111014

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141021

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4847779

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350