JP5267330B2 - Image processing apparatus and method - Google Patents

Image processing apparatus and method Download PDF

Info

Publication number
JP5267330B2
JP5267330B2 JP2009128028A JP2009128028A JP5267330B2 JP 5267330 B2 JP5267330 B2 JP 5267330B2 JP 2009128028 A JP2009128028 A JP 2009128028A JP 2009128028 A JP2009128028 A JP 2009128028A JP 5267330 B2 JP5267330 B2 JP 5267330B2
Authority
JP
Japan
Prior art keywords
image
position information
dimensional position
moving object
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009128028A
Other languages
Japanese (ja)
Other versions
JP2010277262A (en
Inventor
博則 墨友
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2009128028A priority Critical patent/JP5267330B2/en
Publication of JP2010277262A publication Critical patent/JP2010277262A/en
Application granted granted Critical
Publication of JP5267330B2 publication Critical patent/JP5267330B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable a user to easily understand the movement of a moving body in an image processing apparatus for making a display device display the pickup image of a driver recorder. <P>SOLUTION: A three-dimensional position information calculation part 11 calculates a three-dimensional position information from a time-series stereo pickup image from a drive recorder, and a moving body extraction part 12a extracts the same moving body, and a face setting part 13 sets a projection face desired by a user when displaying a pickup image, that is, the direction of a line of sight, and a three-dimensional position information integration part 15 integrates time-series images on the set projection face, and a three-dimensional position information calculation part 16 calculates each position of the moving body on the integrated screen, and a three-dimensional position information projection part 14 makes a display device 3 display it. Therefore, it is possible to convert the movement of the moving body analyzed from the time-series three-dimensional pickup image into an image viewed from the line of sight of a driver or the line of sight of the eyewitness of an accident for display. Thus, it is possible for a user to easily understand the movement of the moving body. <P>COPYRIGHT: (C)2011,JPO&amp;INPIT

Description

本発明は、車載カメラなどによる時系列撮像画像から、着目動体の動きを解析して表示装置に表示させる画像処理装置および方法に関する。   The present invention relates to an image processing apparatus and method for analyzing a motion of a moving object of interest from a time-series captured image by an in-vehicle camera or the like and displaying it on a display device.

近年、自動車業界では、安全性向上を目的とした様々なシステムの研究がなされている。それには、センサやカメラを使用して、車両周辺の情報、特に距離情報を取得することで、衝突危険性を判定し、事故回避に役立てられている。中でも、カメラを利用した危機回避システムでは、カメラの撮像画像を元に、車両周辺の障害物等の特定や、その障害物の動きの解析等を行い、障害物を回避するようになっている。   In recent years, various systems for the purpose of improving safety have been studied in the automobile industry. For this purpose, by using a sensor or a camera to acquire information around the vehicle, particularly distance information, the collision risk is determined, which is useful for avoiding accidents. In particular, in a crisis avoidance system using a camera, obstacles around the vehicle are identified and the movement of the obstacles is analyzed based on the captured image of the camera to avoid the obstacles. .

一方で、危険を回避できずに事故が起きた場合には、その原因究明等に役立つような様々な情報を、事故前後の画像を分析して抽出するシステムも開発されている。たとえば、特許文献1には、交差点等に設置されたカメラによって事故前後の画像を取得し、その画像を解析することで、たとえば事故車両の速度等、事故における状況を分析するシステムが開示されている。このシステムは、事故現場となり得る(事故が多発する)交差点等に予めカメラを設置するとともに、路面や横断歩道等のその交差点における静止体の平面図データを用意しておき、この平面図データに前記事故の前後の画像を投影させる(車両軌跡を描写する)ことで、事故の状況を分析可能とするものである。   On the other hand, when an accident occurs without avoiding danger, a system has been developed that extracts various information useful for investigating the cause by analyzing images before and after the accident. For example, Patent Document 1 discloses a system that analyzes images of an accident such as the speed of an accident vehicle by acquiring images before and after the accident with a camera installed at an intersection or the like and analyzing the images. Yes. This system installs cameras in advance at intersections where accidents can occur (where accidents occur frequently), and prepares plan view data of stationary bodies at such intersections such as road surfaces and pedestrian crossings. By projecting images before and after the accident (depicting a vehicle trajectory), the situation of the accident can be analyzed.

また、特許文献2には、単眼動画像の特徴点から、移動体に搭載されたカメラの3次元位置と姿勢とを示すカメラベクトル値(CV値)を求め、求められたCV値に基づいて画像上にカメラ位置を重畳表示するものである。   Further, in Patent Document 2, a camera vector value (CV value) indicating a three-dimensional position and posture of a camera mounted on a moving body is obtained from feature points of a monocular moving image, and based on the obtained CV value. The camera position is superimposed on the image.

特開2004−102426号公報JP 2004-102426 A 特開2008−5478号公報JP 2008-5478 A

しかしながら、特許文献1に開示された従来技術は、車両の状況を詳しく解析できるものの、前記平面図データを用意しておく必要があることから、予め定められた場所での事故の状況分析にしか対応できないという問題もある。   However, although the prior art disclosed in Patent Document 1 can analyze the situation of the vehicle in detail, it is necessary to prepare the plan view data, so that it can only analyze the situation of an accident at a predetermined location. There is also a problem that it cannot be handled.

これに対して、特許文献2に開示された従来技術においては、動体領域が支配的な画像では正確なCV値を算出することは困難であるという問題がある。さらに、カメラ、すなわち移動体(自車両)の動きを求めることはできるが、画像中におけるそれら以外の動体の位置を求めることについては考慮していない。   On the other hand, the conventional technique disclosed in Patent Document 2 has a problem that it is difficult to calculate an accurate CV value for an image in which a moving object region is dominant. Furthermore, although the movement of the camera, that is, the moving body (own vehicle) can be obtained, it is not considered to obtain the positions of other moving bodies in the image.

本発明の目的は、時系列の3次元撮像画像から解析した動体の動きを、使用者が容易に理解することができる形態で表示させる画像処理装置および方法を提供することである。   An object of the present invention is to provide an image processing apparatus and method for displaying a motion of a moving object analyzed from a time-series three-dimensional captured image in a form that can be easily understood by a user.

本発明の画像処理装置は、時系列の撮像画像中での被写体の3次元位置情報を取得可能な画像データを入力とし、その入力画像データを処理して表示装置に表示させる画像処理装置において、前記時系列の撮像画像から同一の動体及び静止体を抽出する動体抽出部と、
前記表示にあたっての投影面を設定する面設定部と、前記面設定部にて設定された投影面上に、前記動体抽出部で抽出された動体における前記3次元位置情報を前記静止体に基づいて投影した表示画像を作成する3次元位置情報投影部とを含むことを特徴とする。
The image processing apparatus of the present invention, when the obtained image data which can be collected by the three-dimensional position information of the subject in the imaging field image series as an input, the image processing apparatus to be displayed on the display device processes the input image data A moving object extraction unit that extracts the same moving object and a stationary object from the time-series captured images;
A plane setting unit for setting a projection plane for the display, and the three-dimensional position information of the moving object extracted by the moving object extraction unit on the projection plane set by the plane setting unit based on the stationary object And a three-dimensional position information projection unit for creating a projected display image.

本発明の画像処理方法は、時系列の撮像画像中での被写体の3次元位置情報を取得可能な画像データを入力とし、その入力画像データを処理して表示画像を作成するための方法において、前記時系列の撮像画像から同一の動体及び静止体を抽出する工程と、前記表示にあたっての投影面を設定する工程と、設定された投影面上に、抽出された動体における前記3次元位置情報を前記静止体に基づいて投影した表示画像を作成する工程とを含むことを特徴とする。
The image processing method of the present invention, when taken three-dimensional position information of the subject in the imaging field image series as input the resulting possible image data, a method for creating a display image by processing the input image data The step of extracting the same moving body and stationary body from the time-series captured image, the step of setting a projection plane for the display, and the three-dimensional position of the extracted moving body on the set projection plane Creating a display image in which information is projected based on the stationary body .

上記の構成によれば、入力画像データとして、たとえばステレオカメラによる時系列の撮像画像を入力とし、そのステレオカメラの左右間の画像を対応点探索処理することで、前記撮像画像中での被写体の3次元位置情報を得たり、或いは単眼カメラの時系列の撮像画像にレーダなどによる距離情報を入力として被写体の3次元位置情報を得たりすることで、時系列の撮像画像に、その撮像画像中での被写体の3次元位置情報を合わせて取得し、その入力画像データを処理して表示装置に表示させる画像処理装置において、動体抽出部と、入力部と、3次元位置情報投影部とを設ける。そして、前記動体抽出部は、前記時系列の撮像画像から同一の動体及び静止体を抽出する一方、面設定部からは、使用者が前記表示にあたっての所望とする投影面、すなわち視線方向を設定し、これによって前記3次元位置情報投影部は、前記面設定部にて設定された投影面上に、前記動体抽出部で抽出された動体の前記時系列の各点における前記3次元位置情報を、たとえば軌跡の線や点、或いは実写の動体像自体の重ね合わせなどで前記静止体に基づいて投影した表示画像を作成し、前記表示装置に表示させる。
According to the above configuration, as input image data, for example, a time-series captured image by a stereo camera is input, and a corresponding point search process is performed on an image between the left and right of the stereo camera, so that the subject in the captured image is detected. By obtaining 3D position information, or obtaining 3D position information of a subject by inputting distance information from a radar or the like to a time-series captured image of a monocular camera, a time-series captured image is included in the captured image. In the image processing apparatus that acquires the three-dimensional position information of the subject at the same time, processes the input image data and displays it on the display device, a moving object extraction unit, an input unit, and a three-dimensional position information projection unit are provided. . The moving object extraction unit extracts the same moving object and stationary object from the time-series captured images, while the surface setting unit sets a projection plane desired by the user for the display, that is, a line-of-sight direction. Thus, the three-dimensional position information projection unit displays the three-dimensional position information at each point in the time series of the moving object extracted by the moving object extraction unit on the projection plane set by the surface setting unit. For example, a display image projected based on the stationary object is created by superimposing lines and points of a locus or a moving body image of a real image, and displayed on the display device.

したがって、時系列の3次元撮像画像から解析した動体の動きを、たとえば運転者の目線や、事故の目撃者の目線から見た画像に変換して表示することができ、前記動体の動きを使用者が容易に理解することができる。   Therefore, the motion of the moving object analyzed from the time-series three-dimensional captured image can be converted into an image viewed from the driver's eye or the eye of the accident witness, for example, and the motion of the moving object can be used. Can be easily understood.

さらにまた、本発明の画像処理装置では、前記動体抽出部の出力から、動体の各フレーム間の3次元位置を前記静止体を基準として統合する3次元情報統合部と、前記3次元情報統合部で統合されたフレーム間において、或るフレームにおける動体の3次元位置を基準として、残余のフレームにおける動体の3次元位置を算出し、前記3次元位置情報投影部へ出力する3次元位置情報算出部とをさらに備えることを特徴とする。
Furthermore, in the image processing apparatus of the present invention, the output of the previous SL moving object extraction unit, and the 3-dimensional information integration section a three-dimensional position to integrate the basis of the stationary body between the frames of the moving object, the three-dimensional information integration 3D position information calculation for calculating the 3D position of the moving object in the remaining frames and outputting the 3D position information to the 3D position information projecting unit based on the 3D position of the moving object in a certain frame as a reference. And a section.

上記の構成によれば、静止体を基準として各フレーム間における動体の位置情報を統合した後、投影を行うので、前記時系列の撮像画像を得るカメラが動いている、すなわち前記カメラをドライブレコーダなどの車載カメラとした場合においも、前記運転者の目線だけでなく、路上に居る前記目撃者の目線などの任意の目線(投影面)方向からの表示画像を作成することができる。   According to the above configuration, since the position information of the moving body between the frames is integrated based on the stationary body and then the projection is performed, the camera that obtains the time-series captured images is moving, that is, the camera is used as a drive recorder. Even in the case of an in-vehicle camera such as the above, it is possible to create a display image not only from the driver's eyes but also from any eye (projection plane) direction such as the eyes of the witness on the road.

また、本発明の画像処理装置では、前記3次元位置情報投影部は、フレーム毎に、前記投影面上に、前記動体抽出部で抽出された動体および静止体の3次元位置情報を投影し、その投影された各フレーム画像において、前記静止体の位置合せを行うことで、前記各投影面の統合を行う投影画像統合部をさらに備えることを特徴とする。
In the image processing apparatus of the present invention, the pre-Symbol 3-dimensional position information projection unit, for each frame, on the projection plane, and projecting the three-dimensional position information of the moving object extracted by the moving object extraction unit and a stationary member The projected image integration unit further includes a projection image integration unit that integrates the projection planes by aligning the stationary body in the projected frame images.

上記の構成によれば、フレーム毎の投影結果を、静止体を基準として統合するので、前記時系列の撮像画像を得るカメラが動いている、すなわち前記カメラをドライブレコーダなどの車載カメラとした場合においも、前記運転者の目線だけでなく、路上に居る前記目撃者の目線などの任意の目線(投影面)方向からの表示画像を作成することができる。   According to the above configuration, since the projection results for each frame are integrated with reference to a stationary body, the camera that obtains the time-series captured images is moving, that is, the camera is an in-vehicle camera such as a drive recorder In addition, not only the driver's line of sight but also a display image from any line of sight (projection plane) direction such as the line of sight of the witness on the road can be created.

さらにまた、本発明の画像処理装置では、前記面設定部には前記動体抽出部の出力が入力され、或るフレームにおける抽出結果を基準とした仮想投影面が設定され、前記3次元位置情報投影部は、前記動体抽出部の出力から、各フレームにおける動体の3次元位置を前記静止体を基準として統合し、前記面設定部にて設定された仮想投影面上に投影することを特徴とする。 Furthermore, in the image processing apparatus of the present invention, before Symbol plane setting unit are inputted an output of the moving object extraction unit, a virtual projection plane relative to the extraction result in a certain frame is set, the three-dimensional position information The projection unit integrates the three-dimensional position of the moving body in each frame from the output of the moving body extraction unit on the basis of the stationary body, and projects it on the virtual projection plane set by the surface setting unit. To do.

上記の構成によれば、静止体を基準として各フレーム間における動体の位置情報を統合した後、仮想投影面に投影を行うので、前記時系列の撮像画像を得るカメラが動いている、すなわち前記カメラをドライブレコーダなどの車載カメラとした場合においも、前記運転者の目線だけでなく、路上に居る前記目撃者の目線などの任意の目線(投影面)方向からの表示画像を作成することができる。   According to the above configuration, since the position information of the moving body between the frames is integrated with respect to the stationary body and then projected onto the virtual projection plane, the camera that obtains the time-series captured image is moving, that is, Even when the camera is a vehicle-mounted camera such as a drive recorder, it is possible to create a display image not only from the driver's line of sight but also from an arbitrary line of sight (projection plane) such as the line of sight of the witness on the road. it can.

また、本発明の画像処理装置では、前記3次元位置情報投影部は、前記3次元位置情報に、前記動体抽出部で抽出された各動体の動きに関する情報を併せて前記表示画像を作成することを特徴とする。   In the image processing device according to the aspect of the invention, the three-dimensional position information projection unit may create the display image by combining the three-dimensional position information with information regarding the motion of each moving object extracted by the moving object extraction unit. It is characterized by.

上記の構成によれば、前記3次元位置情報に、速度の大きさ表す矢印や数値などの各動体の動きに関する情報を併せて表示することで、前記動体の動きを使用者がより容易に理解することができる。   According to the above configuration, the user can more easily understand the movement of the moving object by displaying the information on the movement of each moving object such as an arrow or a numerical value indicating the magnitude of the speed together with the three-dimensional position information. can do.

さらにまた、本発明の画像処理装置では、前記3次元位置情報投影部において、前記投影面およびそれに投影される3次元位置情報は、前記入力画像データを、前記面設定部にて設定された角度から見た画像に変換した実写画像であることを特徴とする。   Furthermore, in the image processing apparatus according to the present invention, in the three-dimensional position information projection unit, the projection plane and the three-dimensional position information projected thereon are the angles set by the surface setting unit. It is a real image converted into an image seen from the above.

上記の構成によれば、実写画像を角度変換して動体像を作成するので、リアリティを持たせることができる。   According to the above configuration, the moving image is created by converting the angle of the photographed image, so that reality can be provided.

また、本発明の画像処理装置では、前記3次元位置情報投影部において、前記投影面は前記面設定部にて設定された角度から見た模式化された道路面であり、前記3次元位置情報は、前記入力画像データから抽出した実写のランドマークから成ることを特徴とする。   In the image processing apparatus of the present invention, in the three-dimensional position information projection unit, the projection plane is a schematic road surface viewed from an angle set by the surface setting unit, and the three-dimensional position information Consists of landmarks of actual photographs extracted from the input image data.

上記の構成によれば、コンピュータグラフィックのような道路面に、実写画像によるランドマークを貼付けて表示画像が作成されるので、認識し易さとともに、リアリティを持たせることもできる。   According to the above configuration, since a display image is created by pasting a landmark based on a live-action image on a road surface such as a computer graphic, it is possible to provide a reality with ease of recognition.

さらにまた、本発明の画像処理装置では、前記投影面およびそれに投影される3次元位置情報は、前記面設定部にて設定された角度から見た模式化された絵図面から成ることを特徴とする。   Furthermore, in the image processing apparatus of the present invention, the projection plane and the three-dimensional position information projected thereon are composed of a schematic drawing viewed from an angle set by the plane setting unit. To do.

上記の構成によれば、模式化された絵図面、たとえば前記模式化された道路面上に、前記模式化された通行区分や横断歩道、信号などの道路交通のための識別記号を合成したものに、前記動体位置を投影し、さらに使用者の視線方向を任意に設定して表示可能であるので、使用者は必要最小限の情報を表示するコンピュータグラフィックのような画像から、前記動体の動きをより容易に理解することができる。   According to the above configuration, a schematic drawing, for example, the above-described schematic road surface, such as an identification symbol for road traffic such as the above-described schematic traffic division, pedestrian crossing, and signal is synthesized. In addition, since the position of the moving object can be projected and the user's line-of-sight direction can be arbitrarily set and displayed, the user can move the movement of the moving object from an image such as a computer graphic displaying the minimum necessary information. Can be understood more easily.

本発明の画像処理装置および方法は、以上のように、時系列の撮像画像に、その撮像画像中での被写体の3次元位置情報を合わせて取得可能な画像データを入力とし、その入力画像データを処理して表示装置に表示させる画像処理装置において、前記動体抽出部が、前記時系列の撮像画像から同一の動体を抽出する一方、面設定部からは、使用者が前記表示にあたっての所望とする投影面、すなわち視線方向を設定し、これに応じて3次元位置情報投影部が、前記面設定部にて設定された投影面上に、前記動体抽出部で抽出された動体の前記時系列の各点における前記3次元位置情報を、たとえば軌跡の線や点、或いは動体像自体の重ね合わせなどで投影した表示画像を作成し、前記表示装置に表示させる。   As described above, the image processing apparatus and method according to the present invention uses, as input, image data that can be acquired by combining a time-series captured image with the three-dimensional position information of the subject in the captured image. In the image processing apparatus that processes the image and displays it on the display device, the moving object extraction unit extracts the same moving object from the time-series captured images, while the surface setting unit determines that the user desires for the display. The projection plane to be operated, that is, the line-of-sight direction is set, and the three-dimensional position information projection unit according to this sets the time series of the moving object extracted by the moving object extraction unit on the projection plane set by the surface setting unit. A display image is created by projecting the three-dimensional position information at each point by, for example, superimposition of trajectory lines and points, or the moving body image itself, and displayed on the display device.

それゆえ、時系列の3次元撮像画像から解析した動体の動きを、たとえば運転者の目線や、事故の目撃者の目線から見た画像に変換して表示することができ、前記動体の動きを使用者が容易に理解することができる。   Therefore, the motion of the moving object analyzed from the time-series three-dimensional captured image can be converted into an image viewed from the eyes of the driver or the eyewitness of the accident, for example, and the motion of the moving object can be displayed. It can be easily understood by the user.

本発明の実施の第1の形態に係る画像処理装置を備えて成る事故検証システムの電気的構成を示すブロック図であり、定点カメラを用いるものである。It is a block diagram which shows the electrical constitution of the accident verification system provided with the image processing apparatus which concerns on the 1st Embodiment of this invention, and uses a fixed point camera. 本発明の実施の第1の形態に係る画像処理装置を備えて成る事故検証システムの電気的構成を示すブロック図であり、ドライブレコーダを用いるものである。It is a block diagram which shows the electric constitution of the accident verification system provided with the image processing apparatus which concerns on the 1st Embodiment of this invention, and uses a drive recorder. 使用者による動体対応画像部分の特定作業を説明するための図である。It is a figure for demonstrating the specific operation | work of the moving body corresponding | compatible image part by a user. 本発明の実施の一形態による動体の時系列位置の統合表示例を示す図であり、道路面上を走行する自転車の軌跡を示す。It is a figure which shows the integrated display example of the time-sequential position of the moving body by one Embodiment of this invention, and shows the locus | trajectory of the bicycle which drive | works on a road surface. 本発明の実施の一形態による統合表示にあたって、視線方向の切換え方法を説明するための模式図である。FIG. 10 is a schematic diagram for explaining a method of switching the line-of-sight direction in the integrated display according to the embodiment of the present invention. 静止体の抽出方法を説明するための図である。It is a figure for demonstrating the extraction method of a stationary body. 3次元情報の前記統合の処理を説明するための図である。It is a figure for demonstrating the said integration process of three-dimensional information. 時系列画像における動体の対応付けを説明するための図である。It is a figure for demonstrating matching of the moving body in a time series image. 図3の動体の時系列位置を統合表示した結果を2つの視線方向から示す図である。It is a figure which shows the result which integratedly displayed the time-sequential position of the moving body of FIG. 3 from two gaze directions. 動体の時系列位置を統合表示するにあたって、絵図面で模式化して示す図である。FIG. 5 is a diagram schematically showing a pictorial drawing when displaying time-series positions of moving objects in an integrated manner. 図5で示す模式化画像に、動きに関する情報を併せて投影した図である。It is the figure which projected together the information regarding a motion on the schematic image shown in FIG. 他の動き情報のポップアップ表示を説明するための図である。It is a figure for demonstrating the pop-up display of other movement information. 図5で示す模式化画像の他の例を示す図である。It is a figure which shows the other example of the schematic image shown in FIG. 本発明の実施の第2の形態に係る画像処理装置を備えて成る事故検証システムの電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of the accident verification system provided with the image processing apparatus which concerns on the 2nd Embodiment of this invention. 本発明の実施の第2の形態による絵図面による投影面の位置合せを説明するための図である。It is a figure for demonstrating position alignment of the projection surface by the pictorial drawing by the 2nd Embodiment of this invention. 本発明の実施の第3の形態に係る画像処理装置を備えて成る事故検証システムの電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of the accident verification system provided with the image processing apparatus which concerns on the 3rd Embodiment of this invention. 本発明の実施の第3の形態による仮想投影面への投影方法を説明するための図である。It is a figure for demonstrating the projection method to the virtual projection surface by the 3rd Embodiment of this invention. ステレオカメラからの出力画像に対する3次元演算(距離演算)の手法を説明するための図である。It is a figure for demonstrating the method of the three-dimensional calculation (distance calculation) with respect to the output image from a stereo camera. 前記3次元演算に用いるステレオカメラの左右視差を求めるにあたっての基準画像に対する参照画像の対応点探索方法を説明するための図である。It is a figure for demonstrating the corresponding point search method of the reference image with respect to the reference | standard image in calculating | requiring the right-and-left parallax of the stereo camera used for the said three-dimensional calculation. 前記対応点探索に効果的な多重解像度戦略を説明するための図である。It is a figure for demonstrating the multi-resolution strategy effective for the said corresponding point search. 位相限定相関法(POC)による相関値を示すグラフである。It is a graph which shows the correlation value by a phase only correlation method (POC). 前記位相限定相関法における対応点探索の一例を示す図である。It is a figure which shows an example of the corresponding point search in the said phase only correlation method. 前記位相限定相関法における対応点探索範囲を説明するための図である。It is a figure for demonstrating the corresponding point search range in the said phase only correlation method. ICPアルゴリズムを説明するための図である。It is a figure for demonstrating an ICP algorithm.

(実施の形態1)
図1および図2は、本発明の実施の第1の形態に係る画像処理装置1,1aをそれぞれ備えて成る事故検証システムの電気的構成を示すブロック図である。図1の事故検証システムは、交差点監視カメラのように、事故多発交差点などに設置される定点カメラ2に、交通監視室などに設置される前記画像処理装置1および表示装置3を備えて構成される。また、図2の事故検証システムは、タクシーなどの車輌に搭載されるドライブレコーダ4に、事業所などに設置される前記画像処理装置1aおよび前記表示装置3を備えて構成される。
(Embodiment 1)
FIG. 1 and FIG. 2 are block diagrams showing the electrical configuration of an accident verification system including the image processing apparatuses 1 and 1a according to the first embodiment of the present invention. The accident verification system of FIG. 1 is configured by including the image processing apparatus 1 and the display apparatus 3 installed in a traffic monitoring room or the like on a fixed point camera 2 installed at an accident-prone intersection or the like like an intersection monitoring camera. The The accident verification system in FIG. 2 includes the drive recorder 4 mounted on a vehicle such as a taxi and the like, and includes the image processing device 1a and the display device 3 installed in a business office or the like.

前記定点カメラ2は、時系列の撮像画像に、その撮像画像中での被写体の3次元位置情報を合わせて取得可能な画像データを作成するものである。このため、この図1で示すように、ステレオカメラ21の撮像画像を画像記録部22に連続記録してゆくような構成で実現でき、この場合には、前記画像処理装置1には、前記画像記録部22からの時系列の撮像画像を入力とし、前記ステレオカメラ21の左右間の画像を対応点探索処理することで、前記撮像画像中での被写体の3次元位置情報を得る3次元位置情報算出部11が設けられる。ステレオカメラ21からの撮像画像による3次元計測については、複数例を後に詳述する。一方、前記定点カメラ2として、単眼カメラの時系列の撮像画像にレーダなどによる距離情報を併せて記録してゆくものであれば、前記画像処理装置1に3次元位置情報算出部11は設けられなくてもよい。すなわち、前記画像処理装置1は、入力画像データとして、時系列の撮像画像に、その撮像画像中での被写体の3次元位置情報を合わせて取得可能なデータが入力されればよい。   The fixed point camera 2 creates image data that can be acquired by combining a time-series captured image with the three-dimensional position information of the subject in the captured image. For this reason, as shown in FIG. 1, it is possible to realize a configuration in which images captured by the stereo camera 21 are continuously recorded in the image recording unit 22. In this case, the image processing apparatus 1 includes the image Three-dimensional position information for obtaining three-dimensional position information of a subject in the captured image by inputting a time-series captured image from the recording unit 22 and performing a corresponding point search process on the left and right images of the stereo camera 21 A calculation unit 11 is provided. A plurality of examples of the three-dimensional measurement using the captured image from the stereo camera 21 will be described later. On the other hand, if the fixed-point camera 2 is to record time-series captured images of a monocular camera together with distance information from a radar or the like, a three-dimensional position information calculation unit 11 is provided in the image processing apparatus 1. It does not have to be. In other words, the image processing apparatus 1 may input data that can be acquired by combining time-series captured images with the three-dimensional position information of the subject in the captured images as input image data.

前記ドライブレコーダ4は、前記ステレオカメラ21および画像記録部22に、一時記憶部41およびトリガ発生部42を備えて構成され、前記ステレオカメラ21の撮像画像をリングバッファ等の一時記憶部41に記憶し、加速度センサなどのトリガ発生部42で発生されたトリガタイミング(衝突可能性がある等で危険なタイミング)の所定時間だけ以前から所定時間に亘って、前記一時記憶部41から画像記録部22に撮像画像データを転送して記録してゆくような構成で実現できる。前記画像記録部22は、記録すべき画像データが記録容量を超えた場合には、古い画像データに上書きしてゆくように構成される。また、画像記録部22に充分な記録容量が有る場合には、前記ステレオカメラ21からの画像を該画像記録部22が連続記録してゆき、トリガ発生部42でトリガが発生したタイミング、またはその所定時間だけ以前のタイミングからの画像データに、後に抽出し易くするためのマーキングを施すようにしてもよい。   The drive recorder 4 includes a temporary storage unit 41 and a trigger generation unit 42 in the stereo camera 21 and the image recording unit 22, and stores a captured image of the stereo camera 21 in a temporary storage unit 41 such as a ring buffer. Then, from the temporary storage unit 41 to the image recording unit 22 for a predetermined time before a predetermined time of the trigger timing generated by the trigger generation unit 42 such as an acceleration sensor (a dangerous timing due to the possibility of a collision or the like). This can be realized with a configuration in which captured image data is transferred and recorded. The image recording unit 22 is configured to overwrite old image data when the image data to be recorded exceeds the recording capacity. When the image recording unit 22 has a sufficient recording capacity, the image recording unit 22 continuously records images from the stereo camera 21 and the trigger generation unit 42 generates a trigger, or Marking may be applied to image data from a previous timing for a predetermined time so that it can be easily extracted later.

注目すべきは、前記画像処理装置1は、上述のような時系列の撮像画像に、その撮像画像中での被写体の3次元位置情報を合わせて取得し、処理画像を表示装置3に表示させるにあたって、前記時系列の撮像画像から同一の動体を抽出する動体抽出部12と、前記表示にあたっての投影面を設定する面設定部13と、前記面設定部13にて設定された投影面上に、前記動体抽出部12で抽出された動体における前記3次元位置情報を投影した表示画像を作成する3次元位置情報投影部14とを備えて構成されることである。また注目すべきは、前記画像処理装置1aは、前記3次元位置情報算出部11、動体抽出部12、面設定部13および3次元位置情報投影部14に加えて、3次元情報統合部15および3次元位置情報算出部16が設けられることである。   It should be noted that the image processing apparatus 1 acquires the time-series captured image as described above together with the three-dimensional position information of the subject in the captured image, and causes the display apparatus 3 to display the processed image. The moving object extracting unit 12 that extracts the same moving object from the time-series captured images, the surface setting unit 13 that sets a projection surface for the display, and the projection plane set by the surface setting unit 13 And a three-dimensional position information projecting unit 14 for creating a display image obtained by projecting the three-dimensional position information on the moving object extracted by the moving object extracting unit 12. It should be noted that the image processing apparatus 1a includes a three-dimensional information integration unit 15 in addition to the three-dimensional position information calculation unit 11, the moving object extraction unit 12, the surface setting unit 13, and the three-dimensional position information projection unit 14. The three-dimensional position information calculation unit 16 is provided.

前記3次元位置情報算出部11は、時間的に異なる複数の同一動体の3次元位置を算出するものであり、図1の定点カメラ2のようにステレオカメラ21が固定されている場合には、各画像で得られる動体の3次元位置を算出すればよい。これに対して、図2のドライブレコーダ4のようにステレオカメラ21が車両に搭載されている場合は、各画像で得られる動体の3次元位置は、撮影したときのカメラの位置に対する3次元位置であるので、該ステレオカメラ21を搭載している車両と撮影している動体とが等速に同じ方向に移動している場合は、動体の3次元位置は常に同じ値になるので、該ステレオカメラ21の座標系を、或る基準となるフレームに併せる必要がある。   The three-dimensional position information calculation unit 11 calculates three-dimensional positions of a plurality of identical moving objects that are temporally different. When the stereo camera 21 is fixed like the fixed point camera 2 in FIG. What is necessary is just to calculate the three-dimensional position of the moving body obtained by each image. On the other hand, when the stereo camera 21 is mounted on the vehicle as in the drive recorder 4 of FIG. 2, the three-dimensional position of the moving object obtained in each image is the three-dimensional position relative to the position of the camera at the time of shooting. Therefore, when the vehicle on which the stereo camera 21 is mounted and the moving object being photographed are moving at the same speed in the same direction, the three-dimensional position of the moving object always has the same value. It is necessary to match the coordinate system of the camera 21 with a certain reference frame.

前記動体抽出部12は、前記時系列の撮像画像から同一の動体を抽出する。ここで、動体とは、自動車やバイク等の車両、自転車、歩行者等の地面に対して実際に移動している物体を言う。以下の説明では、ステレオカメラ21は車両等の移動体に搭載されて撮像を行う、すなわちドライブレコーダ4の場合の動体抽出について説明する。この場合、搭載車両自体が移動するので、ステレオカメラ21の撮像画像中に相対的に移動している物体があっても、動体であるとは限らない。そこで、以下に、ステレオカメラ21で生成された時系列画像における動体対応画像部分の特定方法について説明する。なお、動体対応画像部分の特定においては、前記動体抽出部12は、3次元位置情報算出部11で求められた3次元座標、2次元動きベクトルおよび3次元動きベクトル等の3次元位置情報を用いる。なお、画像上の動体対応画像部分を特定するとは、具体的には、画像として表されている物体のうち動体が表示されている箇所を特定し、その3次元画像情報を取得することを言う。また、動体対応画像部分とは、画像中に表示された動体に対応する箇所を言う。   The moving object extraction unit 12 extracts the same moving object from the time-series captured images. Here, the moving body refers to an object that is actually moving with respect to the ground, such as a vehicle such as an automobile or a motorcycle, a bicycle, or a pedestrian. In the following description, the stereo camera 21 is mounted on a moving body such as a vehicle and performs imaging, that is, moving object extraction in the case of the drive recorder 4 will be described. In this case, since the mounted vehicle itself moves, even if there is a relatively moving object in the captured image of the stereo camera 21, it is not necessarily a moving object. Therefore, a method for specifying the moving object corresponding image portion in the time-series image generated by the stereo camera 21 will be described below. In specifying the moving object corresponding image portion, the moving object extracting unit 12 uses the three-dimensional position information such as the three-dimensional coordinates, the two-dimensional motion vector, and the three-dimensional motion vector obtained by the three-dimensional position information calculating unit 11. . Note that specifying a moving object-corresponding image portion on an image specifically refers to specifying a portion where a moving object is displayed among objects represented as an image and acquiring the three-dimensional image information. . The moving object corresponding image portion refers to a portion corresponding to the moving object displayed in the image.

先ず、動きの消失点を用いて動体対応画像部分を特定する方法がある。ここで、動きの消失点とは、画像上の各点における動きベクトルをその方向に沿って延長した直線が交わる点である。この消失点は、画像上の物体の移動方向に応じて定まる。すなわち、カメラが同一方向に移動している場合において、同一物体であれば同一方向に移動していることから、その物体に対しての消失点が存在する。また、画像上の物体が静止体である場合に、静止体である物体すべてに対して同一の消失点が存在する(「主成分分析を用いた移動物体認識法の検討」,情報処理学会 研究報告 − コンピュータビジョンとイメージメディアVol.1996,No.31,1995−CVIM−099,文献番号:IPSJ−CVIM95099008参照)。なお、ステレオカメラ21で撮像される被写体の画像のほとんどは、信号機や、路面、横断歩道、壁等の静止体に対応する静止体対応画像部分で占められていると考えられる。ここで、静止体対応画像部分とは、画像中に表示された、静止体に対応する箇所を言う。そして、そのように仮定すると、最も多くの動きベクトルに対する消失点が静止体対応画像部分に対応する静止体の消失点であると推測される。したがって、画像において存在する消失点の内、最も多くの動きベクトルに対する消失点を除いた後に存在する各消失点が動体対応画像部分に対応する動体の消失点であると推定できる。   First, there is a method of specifying a moving object corresponding image portion using a vanishing point of movement. Here, the vanishing point of the motion is a point where a straight line obtained by extending the motion vector at each point on the image along the direction intersects. This vanishing point is determined according to the moving direction of the object on the image. That is, when the camera is moving in the same direction, if it is the same object, it has moved in the same direction, so there is a vanishing point for that object. In addition, when the object on the image is a stationary object, the same vanishing point exists for all the objects that are stationary objects ("Examination of moving object recognition method using principal component analysis", Information Processing Society of Japan Report-Computer Vision and Image Media Vol. 1996, No. 31, 1995-CVIM-099, literature number: IPSJ-CVIM 9509008). Note that most of the subject images captured by the stereo camera 21 are considered to be occupied by a stationary object-corresponding image portion corresponding to a stationary object such as a traffic light, a road surface, a pedestrian crossing, or a wall. Here, the stationary object-corresponding image portion refers to a portion displayed in the image and corresponding to the stationary object. Then, assuming that, the vanishing point for the most motion vectors is estimated to be the vanishing point of the stationary object corresponding to the stationary object corresponding image portion. Therefore, it can be estimated that each vanishing point that exists after removing vanishing points for the most motion vectors among vanishing points existing in the image is the vanishing point of the moving object corresponding to the moving object corresponding image portion.

そこで、動体抽出部12は、3次元位置情報算出部11で算出した時系列画像において求められる動きベクトルをその方向に沿って延長して、それらが交わる点である消失点を画像上において求める。そして、それら消失点の内、最も多くの動きベクトルに対する消失点以外の各消失点を動体対応画像部分に対応する消失点であると推定する。さらに、このようにして、推定された動体対応画像部分の消失点をもとに、画像上の動体対応画像部分を特定し、その3次元画像情報を取得する。このようにして、各時系列画像における動体対応画像部分を特定することができる。なお、動きベクトルは、3次元位置情報算出部11で算出されているので、消失点を求めるために新たに動きベクトルを算出する必要はなく、消失点を容易に算出することができる。   Therefore, the moving object extraction unit 12 extends the motion vector obtained in the time-series image calculated by the three-dimensional position information calculation unit 11 along the direction, and obtains a vanishing point on the image where they intersect. Of these vanishing points, each vanishing point other than the vanishing points for the most motion vectors is estimated to be a vanishing point corresponding to the moving object corresponding image portion. Further, based on the vanishing point of the estimated moving object corresponding image portion in this way, the moving object corresponding image portion on the image is specified, and its three-dimensional image information is acquired. In this way, the moving object corresponding image portion in each time-series image can be specified. Since the motion vector is calculated by the three-dimensional position information calculation unit 11, it is not necessary to calculate a new motion vector to obtain the vanishing point, and the vanishing point can be easily calculated.

次に、パターン認識あるいはテンプレートマッチング等によって動体対応画像部分を特定する方法について説明する。たとえば、自動車、バイク、自転車等の車両や歩行者などのように、被写体として存在することが予想される動体について、パターン認識あるいはテンプレートマッチングを用いて、画像における動体対応画像部分を特定してもよい。パターン認識においては、動体抽出部12は、上記動体に関するパターン認識のためのデータを予め記憶しておき、その記憶されたデータを用いて撮像画像中でパターン認識を行うことで動体対応画像部分を特定し、その3次元位置情報を取得する。さらに、パターン認識においては、例えばSVM(Support vector machine;サポートベクターマシン)やAdaBoost等の手法を用いて、パターンデータを学習してゆくことで、より効率良く動体対応画像部分を特定することができる。また、テンプレートマッチングにおいては、動体抽出部12は、上記動体に関するテンプレートを予め記憶しておき、前述の対応点探索と同様に、そのテンプレートと相関値の高い箇所を画像から探索することで、画像上の動体対応画像部分を特定し、その3次元位置情報を取得する。   Next, a method for specifying a moving object corresponding image portion by pattern recognition or template matching will be described. For example, for a moving object that is expected to exist as a subject, such as a vehicle such as a car, a motorcycle, or a bicycle, or a pedestrian, the moving object corresponding image portion in the image may be specified using pattern recognition or template matching. Good. In the pattern recognition, the moving object extraction unit 12 stores data for pattern recognition related to the moving object in advance, and performs pattern recognition in the captured image using the stored data, so that a moving object corresponding image portion is obtained. The three-dimensional position information is acquired. Furthermore, in pattern recognition, for example, a moving object corresponding image portion can be identified more efficiently by learning pattern data using a technique such as SVM (Support Vector Machine) or AdaBoost. . In template matching, the moving object extraction unit 12 stores a template related to the moving object in advance, and searches for a portion having a high correlation value with the template in the same manner as in the corresponding point search described above, thereby obtaining an image. The upper moving object-corresponding image portion is specified, and its three-dimensional position information is acquired.

また、上記パターン認識およびテンプレートマッチングと同様、動体候補を用いて動体対応画像部分を特定する方法として、画像中のエッジ分布と左右対称性等とから、画像上の車両を特定する方法もある(たとえば、特開平7−334800号公報参照)。この方法によって、動体抽出部12が、画像上における車両等の動体対応画像部分を特定し、その3次元位置情報を取得することとしてもよい。   As in the above pattern recognition and template matching, as a method for specifying a moving object corresponding image portion using a moving object candidate, there is a method for specifying a vehicle on an image from edge distribution in the image, left-right symmetry, and the like ( For example, see JP-A-7-334800). By this method, the moving object extraction unit 12 may specify a moving object corresponding image portion such as a vehicle on the image and acquire the three-dimensional position information thereof.

また、ステレオ時系列画像から求めた3次元動きベクトルに対して、このステレオ時系列画像を生成したステレオカメラ21の移動速度(車速)によってこれらを補正することで、画像上の静止体対応画像部分と動体対応画像部分とを判別する方法もある(たとえば、特開2006−134035号参照)。この方法を用いる場合は、動体抽出部12は、ステレオカメラ21が搭載された車両の速度情報を受け、3次元位置情報算出部11で算出された3次元動きベクトルを用いて、画像上の動体対応画像部分を特定し、その3次元位置情報を取得することができる。   In addition, the three-dimensional motion vector obtained from the stereo time-series image is corrected by the moving speed (vehicle speed) of the stereo camera 21 that has generated the stereo time-series image, so that the stationary object corresponding image portion on the image is corrected. There is also a method for discriminating a moving object-corresponding image portion (see, for example, JP-A-2006-134035). When this method is used, the moving object extraction unit 12 receives speed information of the vehicle on which the stereo camera 21 is mounted, and uses the three-dimensional motion vector calculated by the three-dimensional position information calculation unit 11 to move the moving object on the image. The corresponding image portion can be specified and its three-dimensional position information can be acquired.

また、ステレオカメラ21で生成された画像を見ながら、使用者がその画像中から動体対応画像部分を選ぶことで、動体対応画像部分が特定されることとしてもよい。図3は使用者が動体対応画像部分を特定する場合について説明するための図である。使用者が図示しない入力部などを用いて、表示装置3および画像記録部22に指示することで、表示装置3は、画像記録部22に記録されている実写画像を、図3(a)で示すように、そのまま表示する。そして、使用者は、前記入力部のマウス等を操作することで、図3(b)において、枠掛けして示すように、表示装置3に表示された画像の一部を選択することができることとすればよい。選択された箇所は前記動体対応画像部分として特定される。   Further, the moving object corresponding image portion may be specified by the user selecting the moving object corresponding image portion from the image while viewing the image generated by the stereo camera 21. FIG. 3 is a diagram for explaining a case where the user specifies a moving object corresponding image portion. When the user instructs the display device 3 and the image recording unit 22 using an input unit (not shown) or the like, the display device 3 displays the photographed image recorded in the image recording unit 22 in FIG. As shown, it is displayed as it is. The user can select a part of the image displayed on the display device 3 by operating the mouse or the like of the input unit, as shown by the frame in FIG. And it is sufficient. The selected location is specified as the moving object corresponding image portion.

具体的には、3次元位置情報算出部11によって3次元位置情報の算出されている画像が、画像記録部22から読み出されて表示装置3に表示される。表示装置3には、表示された画像以外に、たとえばマウスによって表示装置3の画面上での位置を操作できるカーソル等が表示され、当該カーソルによって前記画面上の特定の部分を選択することで、選択された部分の3次元位置情報が動体抽出部12に入力され、動体対応画像部分が特定される。たとえば、前記図3(a)に示すように、使用者が表示装置3に表示された画像から、自動車m1,m2を含む動体対応画像部分M1,M2と、歩行者m3を含む動体対応画像部分M3とを入力部で選択することで、動体抽出部12はこれらの画像上の動体対応画像部分を特定し、その3次元位置情報を取得する。   Specifically, the image for which the three-dimensional position information calculation unit 11 calculates the three-dimensional position information is read from the image recording unit 22 and displayed on the display device 3. In addition to the displayed image, the display device 3 displays a cursor or the like that can operate the position of the display device 3 on the screen with a mouse, for example, and by selecting a specific portion on the screen with the cursor, The three-dimensional position information of the selected part is input to the moving object extraction unit 12, and the moving object corresponding image part is specified. For example, as shown in FIG. 3A, from the image displayed on the display device 3 by the user, the moving object corresponding image portions M1 and M2 including automobiles m1 and m2, and the moving object corresponding image portion including pedestrian m3. By selecting M3 with the input unit, the moving object extracting unit 12 specifies moving object corresponding image portions on these images and acquires the three-dimensional position information thereof.

このような動体対応画像部分の選択は、画像毎に行われてもよいが、煩雑であるので、動体抽出部12が自動的に追尾して選択を行うようにしてもよい。たとえば、図3(c)は、図3(a)および(b)よりもΔt秒後の画像であるが、この画像についても枠掛けして示すように、自動車および歩行者が動体対応画像部分M1,M2;M3として選択されている。このような動体対応画像部分の自動追尾は前述の対応点探索による方法だけでなく、たとえば後述のLucas−Kanade法等の動きベクトルを算出する演算を用いる方法等がある。前記Lucas−Kanade法は、画像間における動きベクトルを求める手法であるが、動きベクトルを求めることで、画像間における対応付けも可能であることから、動体対応画像部分の追尾も可能である。   Such selection of the moving object-corresponding image portion may be performed for each image, but since it is complicated, the moving object extraction unit 12 may automatically perform tracking and selection. For example, FIG. 3C is an image after Δt seconds after FIGS. 3A and 3B. As shown in FIG. M1, M2; M3 are selected. Such automatic tracking of the moving object corresponding image portion includes not only the above-described method based on the corresponding point search but also a method using an operation for calculating a motion vector such as the Lucas-Kanade method described later. The Lucas-Kanade method is a method for obtaining a motion vector between images, but by obtaining a motion vector, association between images is possible, and tracking of a moving object corresponding image portion is also possible.

また、動体抽出部12は、上述した方法の内、1つの方法によって動体対応画像部分を特定してもよいし、いずれかの方法を選択的に用いて特定してもよい。たとえば、パターン認識またはテンプレートマッチングによって、先ず動体対応画像部分を特定することとし、これらの方法で動体対応画像部分を特定できない場合には、使用者が入力部を用いて動体対応画像部分を特定することとしてもよい。   Moreover, the moving body extraction part 12 may specify a moving body corresponding | compatible image part by one method among the methods mentioned above, and may specify it using any method selectively. For example, the moving object corresponding image portion is first specified by pattern recognition or template matching, and if the moving object corresponding image portion cannot be specified by these methods, the user specifies the moving object corresponding image portion using the input unit. It is good as well.

一方、前記面設定部13からは、使用者が前記表示にあたっての所望とする投影面、すなわち視線方向が設定される。これに応じて前記3次元位置情報投影部14は、前記面設定部13にて設定された投影面上に、前記動体抽出部12で抽出された動体の前記時系列の各点における前記3次元位置情報を投影した表示画像を作成し、前記表示装置3に表示させる。図4は、その投影結果の一例を示す図であり、前記定点カメラ2の撮像画像から得た3次元位置情報をそのまま投影したものである。図4は、道路面51上を走行する自転車52の軌跡を示すものであり、実線53は道路面51上に投影した自転車52の軌跡を示す。この図4では、実写による前記道路面51およびCG合成の自転車52の軌跡の線および点に加えて、該自転車52の実写像自体も重ね合わて投影している。このような軌跡の線および点ならびに動体像自体の内、何れを選択して投影するのかは、煩雑に(見難く)ならない範囲で、より分り易くなるように、適宜選択されればよい。   On the other hand, the plane setting unit 13 sets a projection plane that the user desires for the display, that is, a line-of-sight direction. In response to this, the three-dimensional position information projection unit 14 on the projection plane set by the plane setting unit 13, the three-dimensional point at each point in the time series of the moving object extracted by the moving object extraction unit 12. A display image on which the position information is projected is created and displayed on the display device 3. FIG. 4 is a diagram showing an example of the projection result, in which the three-dimensional position information obtained from the captured image of the fixed point camera 2 is projected as it is. FIG. 4 shows the locus of the bicycle 52 traveling on the road surface 51, and the solid line 53 shows the locus of the bicycle 52 projected on the road surface 51. In FIG. 4, in addition to the road surface 51 and the locus lines and points of the CG-combined bicycle 52 by the actual image, the actual image itself of the bicycle 52 is also superimposed and projected. Which of these trajectory lines and points and the moving body image itself is selected and projected may be appropriately selected so as to be easily understood within a range that is not complicated (difficult to see).

これに対して、図5には、前記視線方向の切換えを模式的に示す。図5(a)は、前記図4に対応した定点カメラ2の設置位置から見た画像であるが、図5(b)は、図5(a)において参照符号54で示す事故の目撃者などの視線方向から見た画像である。   On the other hand, FIG. 5 schematically shows the switching of the line-of-sight direction. 5A is an image viewed from the installation position of the fixed point camera 2 corresponding to FIG. 4, but FIG. 5B is an accident witness indicated by reference numeral 54 in FIG. 5A. It is the image seen from the line-of-sight direction.

ここで、図1で示す定点カメラ2の画像処理装置1では、前記動体抽出部12で抽出された動体の動きに伴う3次元位置情報を、順に投影していけばよい。しかしながら、図2で示すドライブレコーダ4の画像処理装置1aでは、自車両も移動しているので、各フレーム間の位置合せが必要となる。このため、前記画像処理装置1aでは、動体抽出部12aは、静止体も合わせて抽出しており、さらに注目すべきは、該画像処理装置1aには、前記動体抽出部12aの出力から、動体の各フレーム間の3次元位置を前記静止体を基準として統合する3次元情報統合部15と、前記3次元情報統合部15で統合されたフレーム間において、或るフレームにおける動体の3次元位置を基準として、残余のフレームにおける動体の3次元位置を算出し、前記3次元位置情報投影部14へ出力する3次元位置情報算出部16とがさらに設けられていることである。   Here, in the image processing apparatus 1 of the fixed point camera 2 shown in FIG. 1, the three-dimensional position information accompanying the motion of the moving object extracted by the moving object extracting unit 12 may be projected in order. However, in the image processing device 1a of the drive recorder 4 shown in FIG. 2, since the host vehicle is also moving, alignment between the frames is necessary. For this reason, in the image processing apparatus 1a, the moving object extraction unit 12a extracts the stationary object as well, and it should be noted that the image processing apparatus 1a receives the moving object from the output of the moving object extraction unit 12a. Between the frames integrated by the 3D information integration unit 15 and the 3D information integration unit 15 that integrates the 3D positions between the frames with reference to the stationary body. As a reference, a three-dimensional position information calculation unit 16 that calculates the three-dimensional position of the moving object in the remaining frames and outputs the calculated three-dimensional position information projection unit 14 is further provided.

図6は、前記静止体の抽出方法を説明するための図である。前記動体抽出部12はまた、前記3次元位置情報算出部11において算出された3次元座標、2次元動きベクトルおよび3次元動きベクトル等をもとに、各画像における静止体対応画像部分S1〜S4を特定する。ここで、静止体とは、信号機、路面、横断歩道、看板、壁等のランドマークであって、地面に固定されているものである。図6では、道路と歩道との境界付近および壁面等を含む静止体対応画像部分S1、信号機および横断歩道等の路面を含む静止体対応画像部分S2、歩道、路面および壁面等を含む静止体対応画像部分S3および路面および路面に形成された車線等を含む静止体対応画像部分S4が選択され、前記動体抽出部12はこれらの画像上の静止体対応画像部分S1〜S4も特定し、その3次元画像情報を取得する。   FIG. 6 is a diagram for explaining a method of extracting the stationary body. The moving object extraction unit 12 also includes still body corresponding image portions S1 to S4 in each image based on the three-dimensional coordinates, the two-dimensional motion vector, the three-dimensional motion vector, and the like calculated by the three-dimensional position information calculation unit 11. Is identified. Here, the stationary body is a landmark such as a traffic light, a road surface, a pedestrian crossing, a signboard, a wall, etc., and is fixed to the ground. In FIG. 6, a stationary object corresponding image portion S1 including the vicinity of the boundary between the road and the sidewalk and a wall surface and the like, a stationary object corresponding image portion S2 including a traffic light and a road surface such as a pedestrian crossing, and a stationary object corresponding to the sidewalk, the road surface and the wall surface, etc. The stationary object corresponding image part S4 including the image part S3 and the road surface and the lane formed on the road surface is selected, and the moving object extracting unit 12 also specifies the stationary object corresponding image parts S1 to S4 on these images, and 3 Get dimensional image information.

ここで、ステレオカメラ21は車両に搭載されていることから、該ステレオカメラ21自体も移動し、時系列画像上において、前記静止体対応画像部分S1〜S4は移動している。このように、画像上では固定されていないが、実際には移動していない静止体における静止体対応画像部分S1〜S4を画像から特定する方法としては、以下の方法がある。前記動体抽出部12は、これらの方法を用いて、撮像画像から前記静止体対応画像部分S1〜S4を特定する。また、撮像画像上において、該動体抽出部12が特定した動体対応画像部分M1〜M3以外を静止体として特定してもよい。   Here, since the stereo camera 21 is mounted on the vehicle, the stereo camera 21 itself is also moved, and the stationary object corresponding image portions S1 to S4 are moved on the time-series image. As described above, there are the following methods for identifying the stationary object corresponding image portions S1 to S4 in the stationary object that are not fixed on the image but are not actually moved from the image. The moving body extraction unit 12 specifies the still body corresponding image portions S1 to S4 from the captured image using these methods. Moreover, you may specify as a stationary body other than the moving body corresponding | compatible image parts M1-M3 which this moving body extraction part 12 specified on the captured image.

先ず、動きの消失点を用いて静止体対応画像部分を特定する方法について説明する。前記動体抽出部12は、前記3次元位置情報算出部11で算出した時系列画像において消失点を求め、それら消失点の内、最も多くの動きベクトルに対する消失点を静止体対応画像部分に対応する静止体の消失点であると推定する。さらに、このようにして推定された静止体の消失点をもとに、画像上の静止体対応画像部分を特定し、その3次元画像情報を取得する。このようにして、各時系列画像における静止体対応画像部分を特定することができる。なお、動きベクトルは、3次元位置情報算出部11において算出されているので、消失点を求めるために新たに動きベクトルを算出する必要はなく、消失点を容易に算出することができる。   First, a method for specifying a stationary object corresponding image portion using a vanishing point of motion will be described. The moving object extraction unit 12 obtains vanishing points in the time-series image calculated by the three-dimensional position information calculation unit 11, and among these vanishing points, the vanishing points for the most motion vectors correspond to the stationary object corresponding image portion. Presumed to be the vanishing point of the stationary object. Furthermore, based on the vanishing point of the stationary object estimated in this way, the stationary object corresponding image part on the image is specified, and the three-dimensional image information is acquired. In this way, it is possible to specify the stationary object corresponding image portion in each time-series image. Since the motion vector is calculated by the three-dimensional position information calculation unit 11, it is not necessary to calculate a new motion vector in order to obtain the vanishing point, and the vanishing point can be easily calculated.

また、動体抽出部12は、前記信号機、標識、看板等のように、存在することが予想される静止体すなわちランドマークを、パターン認識あるいはテンプレートマッチングによって検出することで、静止体対応画像部分を特定してもよい。なお、この際に用いるパターンデータおよびテンプレートは該動体抽出部12に予め記憶しておくこととすればよい。このようにして、動体抽出部12は、画像上の静止体対応画像部分を特定し、その3次元画像情報を取得する。なお、動体抽出時と同様に、パターンデータを学習してゆくことで、より効率良く静止体対応画像部分を特定することができる。また、ステレオカメラ21で生成された画像を見ながら、使用者がその画像中から静止体対応画像部分を選ぶことで、静止体対応画像部分が特定されることとしてもよい。   Further, the moving object extraction unit 12 detects a stationary object that is expected to exist, that is, a landmark such as a traffic light, a sign, a signboard, or the like by pattern recognition or template matching, so that a stationary object corresponding image portion is obtained. You may specify. The pattern data and template used at this time may be stored in advance in the moving object extraction unit 12. In this way, the moving object extraction unit 12 specifies the still object corresponding image portion on the image and acquires the three-dimensional image information. As in the case of moving object extraction, the stationary object corresponding image portion can be identified more efficiently by learning the pattern data. Alternatively, the still object-corresponding image portion may be specified by the user selecting the still object-corresponding image portion from the image while viewing the image generated by the stereo camera 21.

図7は、前記3次元情報統合部15の処理を説明するための図である。時刻Tにおいて図7(a)で示すような撮像画像が得られており、時刻T+Δtにおいて図7(b)で示すような撮像画像が得られているとき、前述の図5で示すように静止体領域を抽出すると、それぞれ図7(c)および図7(d)で示すような画像となる。これらの図7(c)および図7(d)では、動体領域を黒く塗り潰している。そして、先ず図8(a)および図8(b)で示すように、2つの画像間の対応付けを行う。それには、後述の対応点探索方法を用いてもよいし、前述のLucas−Kanade法を用いてもよい。   FIG. 7 is a diagram for explaining the processing of the three-dimensional information integration unit 15. When a captured image as shown in FIG. 7A is obtained at time T and a captured image as shown in FIG. 7B is obtained at time T + Δt, the captured image is stationary as shown in FIG. When the body region is extracted, images as shown in FIGS. 7C and 7D are obtained. In these FIG. 7 (c) and FIG. 7 (d), the moving object region is blacked out. First, as shown in FIGS. 8A and 8B, the two images are associated with each other. For this purpose, a corresponding point search method described later may be used, or the aforementioned Lucas-Kanade method may be used.

図8(a)および図8(b)は、前記図7(c)および図7(d)にそれぞれ対応するものであり、こうして2つの画像間で対応付けが行われると、第1の統合方法では、その対応付けられた点61〜65のうち、同一直線状にない3点を選択し、時刻Tと時刻T+Δtとにおいて、それぞれ3点から構成される面を一致させるような回転(面の法線ベクトルを合わせる)および並進成分(どれか1点を合わせる、または3点の重心位置を合わせる)を算出する。また、第2の方法では、対応付けられた点61〜65のうち、任意の数点を選択し、その選択した数点を初期値として、ICP(Iterative Closest Points)を用いて回転および並進成分を算出する(ICPアルゴリズムについては後述)。   FIGS. 8 (a) and 8 (b) correspond to FIGS. 7 (c) and 7 (d), respectively. When the association between the two images is thus performed, the first integration is performed. In the method, three points that are not collinear are selected from the associated points 61 to 65, and the rotations (surfaces) are made to coincide with each other at the time T and the time T + Δt. ) And a translational component (match any one point, or match the centroid position of three points). In the second method, any number of the associated points 61 to 65 is selected, and the selected several points are used as initial values to rotate and translate components using ICP (Iterative Closest Points). (The ICP algorithm will be described later).

次に、時刻T+Δtの3次元情報を、算出した回転および並進成分を用いて変換する。変換後の時刻T+Δtの3次元情報と、時刻Tの3次元情報とを重ね合わせると、静止体領域は一致するが、動体領域については一致せず、同一被写体が2つ存在することになる。その同一被写体において、時間の異なる3次元位置を重畳することで、前述の図4で示すように動体の軌跡を容易に知ることができる。また、図9(a)には、前述の図3(b)および(c)の運転者による視線の模式図の統合画像を示し、図9(b)には、図9(a)の俯瞰画像を示す。図9からは、右側の車両m2が左側の車両m1よりもスピードを出していることが分かる。   Next, the three-dimensional information at time T + Δt is converted using the calculated rotation and translation components. When the three-dimensional information at time T + Δt after conversion and the three-dimensional information at time T are overlapped, the stationary body region matches, but the moving body region does not match, and two identical subjects exist. By superimposing three-dimensional positions at different times on the same subject, the locus of the moving object can be easily known as shown in FIG. FIG. 9A shows an integrated image of a schematic diagram of the line of sight by the driver shown in FIGS. 3B and 3C, and FIG. 9B shows an overhead view of FIG. 9A. Images are shown. From FIG. 9, it can be seen that the vehicle m2 on the right side is faster than the vehicle m1 on the left side.

以上、時間の異なる2つの3次元情報を統合する方法について説明したが、より多くの時系列画像についても同様に統合することができ、前述の図4で示すような実写画像を得ることができる。具体的には、第1の方法では、時刻Tの画像を基準として、時刻T+Δt,時刻T+2Δt,・・・の3次元情報を位置合わせする。また、第2の方法では、1つ前の時刻の画像を基準として、3次元情報を逐次位置合わせしてゆく。   As described above, the method for integrating two pieces of three-dimensional information at different times has been described. However, more time-series images can be integrated in the same manner, and a photographed image as shown in FIG. 4 can be obtained. . Specifically, in the first method, the three-dimensional information at time T + Δt, time T + 2Δt,... Is aligned using the image at time T as a reference. In the second method, the three-dimensional information is sequentially aligned based on the image at the previous time.

また、統合のために選択される点は、各時刻で異なる点を選択しても構わない。たとえば、前記第1の方法において、時刻Tと時刻T+Δtとのペアで選択された点が、時刻Tと時刻T+2Δtでも存在するとは限らないので、時間の変化が生じたときは、選択する点も更新する方が好ましい。また、選択する点が互いに近接している場合は、局所的な部分における3次元の一致を算出することになるので、その局所領域での3次元の一致は正確にできるものの、画像全体で見れば結果が不安定になりやすいので、選択する3点は、できるだけ離れるように選択することで、安定した結果を得ることができ、好ましい。さらにまた、第1の方法では、3点を選択しているけれども、3点のセットを複数選択し、これらの複数の3点のセットから、最小二乗的に解を求めても構わない。こうすることで、安定して解を求めることができる。さらにまた、ドライブレコーダ4の場合、トリガ発生時の画像を基準とすることで、該トリガ発生時の3次元情報を高精度に出力でき、3次元情報を統合するにあたって、誤差の蓄積が生じても、前記トリガ発生前後の3次元情報の誤差は少なくなるので、事故解析などで有用である。   Also, the points selected for integration may be different points at each time. For example, in the first method, the point selected by the pair of time T and time T + Δt does not always exist at time T and time T + 2Δt. It is preferable to update. If the selected points are close to each other, the three-dimensional match in the local part is calculated. Therefore, the three-dimensional match in the local region can be accurately performed, but can be seen in the entire image. Since the result tends to be unstable, it is preferable to select the three points to be separated as much as possible because a stable result can be obtained. Furthermore, in the first method, although three points are selected, a plurality of sets of three points may be selected, and a solution may be obtained in a least square manner from the set of these three points. By doing so, the solution can be obtained stably. Furthermore, in the case of the drive recorder 4, by using the image at the time of the trigger as a reference, the three-dimensional information at the time of the trigger can be output with high accuracy, and errors are accumulated when integrating the three-dimensional information. However, since the error of the three-dimensional information before and after the occurrence of the trigger is reduced, it is useful for accident analysis and the like.

このように構成することで、時系列の3次元撮像画像から解析した動体の3次元の動きを、たとえば図4や図5(a)で示すような俯瞰画像や、図3で示すような運転者の目線からの画像、図5(b)で示すような事故の目撃者の目線からの画像などの任意の視線方向の2次元の画像に変換して表示することができ、前記動体の動きを使用者が容易に理解することができる。   By configuring in this way, the three-dimensional motion of the moving object analyzed from the time-series three-dimensional captured image can be obtained by, for example, an overhead image as shown in FIG. 4 or FIG. 5A or a driving as shown in FIG. The motion of the moving object can be displayed after being converted into a two-dimensional image in an arbitrary line-of-sight direction, such as an image from the viewer's eye, an image from the eye of the accident witness as shown in FIG. Can be easily understood by the user.

また、前記画像処理装置1aでは、静止体を基準として各フレーム間における動体の位置情報を統合した後、投影を行うので、前記時系列の撮像画像を得るステレオカメラ21が動いている、すなわち前記ステレオカメラ21をドライブレコーダ4の車載カメラとした場合においも、前記運転者の目線だけでなく、路上に居る前記目撃者の目線などの任意の目線(投影面)方向からの表示画像を作成することができる。   Further, in the image processing apparatus 1a, since the position information of the moving body between the respective frames is integrated based on the stationary body and then the projection is performed, the stereo camera 21 that obtains the time-series captured images is moving, that is, Even when the stereo camera 21 is an in-vehicle camera of the drive recorder 4, a display image is generated not only from the driver's line of sight but also from any line of sight (projection plane) such as the line of sight of the witness on the road. be able to.

好ましくは、前記3次元位置情報投影部14において、前記投影面およびそれに投影される3次元位置情報を、前記面設定部13にて設定された角度から見た模式化された絵図面としてもよい。図10にその一例を示す。図10(a)は前述の図4に類似する実写映像で、それを模式化して前記絵図面とした図が図10(b)で示すものである。参照符号54は、自転車52と同じタイミングでの自車の走行軌跡である。   Preferably, in the three-dimensional position information projection unit 14, the projection plane and the three-dimensional position information projected thereon may be a schematic drawing viewed from the angle set by the plane setting unit 13. . An example is shown in FIG. FIG. 10A is a photographed image similar to the above-described FIG. 4, and FIG. Reference numeral 54 is a travel locus of the host vehicle at the same timing as the bicycle 52.

このように、模式化された絵図面、たとえば前記模式化された道路面51上に、前記模式化された通行区分55や横断歩道56、信号などの道路交通のための識別記号を合成したものに、前記動体位置を投影し、さらに使用者の視線方向を任意に設定して表示可能とすることで、使用者は必要最小限の情報を表示するコンピュータグラフィックのような画像から、前記動体の動きをより容易に理解することができる。前記道路交通のための識別記号は、パターン認識などを利用して抽出すればよい。また、このようなコンピュータグラフィックの道路面51の画像に、前記実写画像を部分的に合成してもよい。具体的には、道路面51や動体位置がコンピュータグラフィックで作成され、前記信号機、標識、看板などのランドマークは、実写画像を使用するというものである。これによって、認識し易いコンピュータグラフィックの画像に、リアリティを持たせることもできる。   In this way, a schematic drawing, for example, the above-described schematic road surface 51, on which the above-mentioned schematic traffic division 55, pedestrian crossing 56, identification symbols for road traffic such as signals are synthesized. In addition, by projecting the position of the moving object, and further enabling display by arbitrarily setting the user's line-of-sight direction, the user can display the moving object from an image such as a computer graphic displaying the minimum necessary information. Can understand movement more easily. The identification symbol for the road traffic may be extracted using pattern recognition or the like. Moreover, you may synthesize | combine the said live-action image partially with the image of the road surface 51 of such a computer graphic. Specifically, the road surface 51 and the moving object position are created by computer graphics, and landmarks such as traffic lights, signs, signboards, and the like use actual images. Thus, it is possible to give reality to a computer graphic image that is easy to recognize.

さらにまた、画像処理装置1における動体抽出部12および画像処理装置1aにおける3次元情報算出部16からは、前記動体抽出部12,12aで抽出した動体対応画像部分について、投影にあたって、いずれか任意のフレームにおける時系列画像を基準として、他のフレームにおける対応画像部分も統合された3次元座標が算出されることになる。この統合画像を得るための3次元座標のことを、以下では基準化3次元座標と言う。そこで、自身も移動している画像処理装置1aにおける3次元情報算出部16でのこの基準化3次元座標の算出方法について以下に詳しく説明する。先ず、3次元情報統合部15は、前記面設定部13で設定される任意の基準画像における静止体対応画像部分に含まれる任意の3点を選択する。その3点の画像毎の3次元座標は算出されているので、3次元情報統合部15が、同一直線上にない3点を選択することは容易にできる。同様に、3次元情報統合部15は、基準化3次元座標を算出する基準画像とは別フレームの画像上における、前記基準画像において選択された3点に対応する3点を取得する。この対応する3点については動体抽出部12aで算出したデータを用いてもよいし、該3次元情報統合部15で対応点探索または後述のLucas−Kanade法等により求めてもよい。   Furthermore, from the moving object extraction unit 12 in the image processing apparatus 1 and the three-dimensional information calculation unit 16 in the image processing apparatus 1a, any of the moving object corresponding image portions extracted by the moving object extraction units 12 and 12a is projected. Based on the time-series images in the frames, the three-dimensional coordinates in which the corresponding image portions in the other frames are integrated are calculated. Hereinafter, the three-dimensional coordinates for obtaining the integrated image are referred to as standardized three-dimensional coordinates. Therefore, the calculation method of the standardized three-dimensional coordinates in the three-dimensional information calculation unit 16 in the image processing apparatus 1a that is also moving will be described in detail below. First, the three-dimensional information integration unit 15 selects arbitrary three points included in the stationary object corresponding image portion in the arbitrary reference image set by the surface setting unit 13. Since the three-dimensional coordinates for each of the three images are calculated, the three-dimensional information integration unit 15 can easily select three points that are not on the same straight line. Similarly, the three-dimensional information integration unit 15 acquires three points corresponding to the three points selected in the reference image on an image of a frame different from the reference image for calculating the normalized three-dimensional coordinates. For these three corresponding points, the data calculated by the moving object extraction unit 12a may be used, or the three-dimensional information integration unit 15 may determine the corresponding points by the Lucas-Kanade method described later or the like.

こうして、3次元情報統合部15は、時刻Tにおける画像の静止体対応画像部分から同一直線上にはない3点を選択し、これらに対応する、時刻T+Δtにおける画像上の点を求める。そして、3次元情報統合部15は、時刻Tにおける3点により構成される面に、時刻T+Δtにおける3点により構成される面を一致させるために必要な、時刻T+Δtにおける3点の3次元座標の座標変換に必要な回転成分および並進成分を算出する。つまり、3次元情報統合部15は、時刻Tにおける3点から構成される面の法線ベクトルに、時刻T+Δtにおける3点から構成される面の法線ベクトルを一致させ、時刻Tにおける3点のいずれか1点に時刻T+Δtにおける3点のいずれかを合わせるか、時刻Tにおける3点の重心に時刻T+Δtにおける3点の重心を合わせるような座標変換を行う回転成分および並進成分を算出する。そして、3次元位置情報算出部15は、時刻T+Δtの画像における特定した動体対応画像部分の3次元座標を、算出された回転成分および並進成分により変換することで、時刻Tの画像を基準とする基準化3次元座標を算出することができる。   In this way, the three-dimensional information integration unit 15 selects three points that are not on the same straight line from the still body corresponding image portion of the image at time T, and obtains corresponding points on the image at time T + Δt. The three-dimensional information integration unit 15 then calculates the three-dimensional coordinate of the three points at time T + Δt necessary to match the surface formed by the three points at time T + Δt with the surface formed by the three points at time T. The rotation component and translation component necessary for coordinate transformation are calculated. That is, the three-dimensional information integration unit 15 matches the normal vector of the surface composed of three points at time T + Δt with the normal vector of the surface composed of three points at time T, and A rotation component and a translation component are calculated to perform coordinate transformation such that any one of the three points at time T + Δt is matched with any one point or the centroid of three points at time T is matched with the centroid of three points at time T + Δt. Then, the three-dimensional position information calculation unit 15 converts the three-dimensional coordinates of the specified moving object-corresponding image portion in the image at time T + Δt with the calculated rotation component and translation component, thereby using the image at time T as a reference. Normalized three-dimensional coordinates can be calculated.

ここで、統合画像において選択された3点は、3次元座標においてそれぞれ互いに離れていることが好ましい。それにより、局所的な一致でなく、静止体対応画像部分における広い範囲において、静止体対応画像部分同士が一致することとなり、より確実に一致することとなる。そして、3次元情報統合部15は、これら複数組により、最小二乗的に、上記回転成分および並進成分を算出すればよい。それにより、3次元情報統合部15は、より安定した解(回転成分および並進成分)を求めることができ、3次元座標の変換精度が高くなる。   Here, it is preferable that the three points selected in the integrated image are separated from each other in the three-dimensional coordinates. As a result, the stationary object-corresponding image portions match each other in a wide range in the stationary object-corresponding image portion, and not the local matching. Then, the three-dimensional information integration unit 15 may calculate the rotation component and the translation component in a least square manner using the plurality of sets. Thereby, the three-dimensional information integration unit 15 can obtain a more stable solution (rotation component and translation component), and the conversion accuracy of the three-dimensional coordinates is increased.

また、統合画像を基準とする、特定した動体対応画像部分の3次元座標の変換の方法として、別の方法について説明する。具体的には、前記ICPアルゴリズムを用いる方法である。それによれば、3次元情報統合部15は動体抽出部12aで抽出された静止体対応画像部分の任意の複数の点における3次元座標を初期値とし、これら複数の点に対応する、他の時系列画像上の点を取得する。そして、3次元情報統合部15は、前記ICPアルゴリズムを用いることで、時刻Tに撮像された基準画像の静止体対応画像部分における複数の点に、これらに対応する時刻T+Δtの画像の静止体対応画像部分における複数の点を3次元座標において一致させるような座標変換に必要な回転成分および並進成分を算出することができる。さらに3次元情報統合部15は、時刻T+Δtの画像における特定した動体対応画像部分の3次元座標を、算出された回転成分および並進成分により変換することで、時刻Tの画像を基準とする時刻T+Δtの画像における特定した動体対応画像部分の基準化3次元座標を算出することができる。このように、ICPアルゴリズムを用いることで、対応する複数の点について、3次元情報統合部15は、ノイズに影響されにくいロバストな座標変換が可能である。   Another method will be described as a method of converting the three-dimensional coordinates of the specified moving object corresponding image portion with the integrated image as a reference. Specifically, this is a method using the ICP algorithm. According to this, the three-dimensional information integration unit 15 uses the three-dimensional coordinates at arbitrary points of the stationary object corresponding image portion extracted by the moving object extraction unit 12a as initial values, and corresponds to these multiple points at other times. Acquires a point on the series image. Then, by using the ICP algorithm, the three-dimensional information integration unit 15 corresponds to a plurality of points in the stationary object corresponding image portion of the reference image captured at time T, and corresponds to the stationary object corresponding to the image at time T + Δt. It is possible to calculate a rotation component and a translation component necessary for coordinate conversion so as to match a plurality of points in the image portion in three-dimensional coordinates. Further, the three-dimensional information integration unit 15 converts the three-dimensional coordinates of the specified moving object corresponding image portion in the image at the time T + Δt by the calculated rotation component and translation component, so that the time T + Δt with the image at the time T as a reference. It is possible to calculate the normalized three-dimensional coordinates of the identified moving object corresponding image portion in the image. In this way, by using the ICP algorithm, the three-dimensional information integration unit 15 can perform robust coordinate transformation that is not easily affected by noise for a plurality of corresponding points.

なお、時刻Tにおける基準画像を基準として、時刻T+Δtにおける画像の特定した動体対応画像部分の3次元座標の変換について説明したが、3次元情報統合部15は他の時系列画像の特定した動体対応画像部分の3次元座標の変換についても、同様に回転成分および並進成分を算出して、変換していけばよい。なお、ステレオカメラ1を搭載した移動体が直進していれば、前方の離れた箇所にある静止体に対応する静止体対応画像部分は、複数の時系列画像に存在するが、移動体が左折あるいは右折する等、曲がった場合は、その後の時系列画像に存在する静止体対応画像部分が変化してゆく。そこで、各時系列画像に応じて、最初に基準画像において選択した点の対応点がなくなる場合もあるが、このような場合であっても、3次元情報統合部15は選択した点を新たな点に変更(更新)していけばよい。そして、座標変換を複数回行うことで、基準化3次元座標の算出は可能である。3次元情報統合部15は、このように、静止体の3次元画像情報を用いて、移動体の動きに制限されることなく、基準化3次元座標を算出することができる。   Note that the conversion of the three-dimensional coordinates of the moving object corresponding image portion specified in the image at the time T + Δt has been described with reference to the reference image at the time T. However, the three-dimensional information integration unit 15 has specified the moving object corresponding to another time-series image. Similarly, the conversion of the three-dimensional coordinates of the image portion may be performed by calculating the rotation component and the translation component. Note that if the moving body on which the stereo camera 1 is mounted is going straight, the stationary body corresponding image portion corresponding to the stationary body at a distant place in the front exists in a plurality of time-series images, but the moving body turns left. Alternatively, when the vehicle is bent, such as turning right, the stationary object corresponding image portion existing in the subsequent time series image changes. Therefore, depending on each time-series image, there may be no corresponding point of the point selected first in the reference image. Even in such a case, the three-dimensional information integration unit 15 adds the selected point to a new point. Change (update) to the point. Then, it is possible to calculate standardized three-dimensional coordinates by performing coordinate transformation a plurality of times. As described above, the three-dimensional information integration unit 15 can calculate the standardized three-dimensional coordinates using the three-dimensional image information of the stationary body without being limited by the movement of the moving body.

前記3次元情報統合部15では、こうして特定した動体対応画像部分について、基準化3次元座標を算出しているので、この3次元情報統合部15で求められた、或いは、定点カメラ2につき、予め基準化3次元座標が求められている動体抽出部12の出力から、動体対応画像部分に対応するその動体の動きに関する情報を算出することが可能である。その情報とは、たとえば動体の速度、加速度、速度ベクトル、加速度ベクトル等である。また、3次元画像情報統合部15において算出した動きベクトル等も情報の1つである。そこで、前記基準化3次元座標を用いて、特定した動体対応画像部分に対応する動体の速度、加速度およびベクトルを算出する演算方法について説明する。先ず、t秒のフレーム間隔で、同一の動体に対応する動体対応画像部分における連続した3フレームの基準化3次元座標を用算出した結果を、それぞれ(x1,y1,z1)、(x2,y2,z2)および(x3,y3,z3)とする。次に、(x1,y1,z1)、(x2,y2,z2)から、これらを撮像した際の動体の速度v1は、下式で表すことができる。   Since the three-dimensional information integration unit 15 calculates the normalized three-dimensional coordinates for the moving object corresponding image portion specified in this way, the three-dimensional information integration unit 15 obtains the standardized three-dimensional coordinates or determines the fixed point camera 2 in advance. It is possible to calculate information relating to the motion of the moving object corresponding to the moving object corresponding image portion from the output of the moving object extracting unit 12 for which the normalized three-dimensional coordinates are obtained. The information is, for example, the speed, acceleration, speed vector, acceleration vector, etc. of the moving object. The motion vector calculated by the three-dimensional image information integration unit 15 is also one piece of information. Therefore, a calculation method for calculating the speed, acceleration, and vector of the moving object corresponding to the specified moving object corresponding image portion using the normalized three-dimensional coordinates will be described. First, calculation results obtained by using standardized three-dimensional coordinates of three consecutive frames in a moving object corresponding image portion corresponding to the same moving object at a frame interval of t seconds are respectively (x1, y1, z1) and (x2, y2). , Z2) and (x3, y3, z3). Next, from (x1, y1, z1) and (x2, y2, z2), the velocity v1 of the moving body when these are imaged can be expressed by the following equation.

v1={(Vx1)+(Vy1)+(Vz1)1/2
ただし、
(Vx1,Vy1,Vz1)
=((x2−x1)/t,(y2−y1)/t,(z2−z1)/t)
である。
v1 = {(Vx1) 2 + (Vy1) 2 + (Vz1) 2 } 1/2
However,
(Vx1, Vy1, Vz1)
= ((X2-x1) / t, (y2-y1) / t, (z2-z1) / t)
It is.

同様に、(x2,y2,z2)、(x3,y3,z3)から、これらを撮像した際の動体の速度v2は、下式で表すことができる。   Similarly, from (x2, y2, z2) and (x3, y3, z3), the velocity v2 of the moving body when these are imaged can be expressed by the following equation.

v2={(Vx2)+(Vy2)+(Vz2)1/2
ただし、
(Vx2,Vy2,Vz2)
=((x3−x2)/t,(y3−y2)/t,(z3−z2)/t)
である。
v2 = {(Vx2) 2 + (Vy2) 2 + (Vz2) 2} 1/2
However,
(Vx2, Vy2, Vz2)
= ((X3-x2) / t, (y3-y2) / t, (z3-z2) / t)
It is.

したがって、3つの画像の各対応点から求められる動体の加速度aは、下式で表すことができる。   Therefore, the acceleration a of the moving body obtained from the corresponding points of the three images can be expressed by the following equation.

a={(Ax)+(Ay)+(Az)1/2
ただし、
(Ax,Ay,Az)
=((Vx2−Vx1)/t,(Vy2−Vy1)/t,(Vz2−Vz1)/t)
である。
a = {(Ax) 2 + (Ay) 2 + (Az) 2 } 1/2
However,
(Ax, Ay, Az)
= ((Vx2-Vx1) / t, (Vy2-Vy1) / t, (Vz2-Vz1) / t)
It is.

また、3次元動きベクトル(Ux1,Uy1,Uz1)、(Ux2,Uy2,Uz2)は、
(Ux1,Uy1,Uz1)=(x2−x1,y2−y1,z2−z1)
(Ux2,Uy2,Uz2)=(x3−x2,y3−y2,z3−z2)
である。
Also, the three-dimensional motion vectors (Ux1, Uy1, Uz1) and (Ux2, Uy2, Uz2) are
(Ux1, Uy1, Uz1) = (x2-x1, y2-y1, z2-z1)
(Ux2, Uy2, Uz2) = (x3-x2, y3-y2, z3-z2)
It is.

好ましくは、前記3次元位置情報投影部14は、こうして求めた動体の動きに関する情報を併せて前記表示画像を作成することである。図11は、前記図5(a)で示す模式化画像に、前記動きに関する情報を併せて投影したものである。具体的に、図11(a)は、フレーム間の動き情報を動きベクトル(動体の同じ位置同士を結んでいる)として表示したものであり、その動きベクトルを矢印で表している。図11(b)は、フレーム間の動き情報を速度ベクトルとして表示したものであり、その速度ベクトルを速度に応じて長さの変わる矢印で表している。図11(c)はフレーム間の動き情報として、速度(km/h)をそのまま重畳表示したものである。このように各動体の動きに関する情報を併せて表示することで、前記動体の動きを使用者がより容易に理解することができる。   Preferably, the three-dimensional position information projection unit 14 creates the display image together with information on the motion of the moving body thus obtained. FIG. 11 is a schematic image shown in FIG. 5A in which information related to the motion is projected together. Specifically, FIG. 11A shows motion information between frames as motion vectors (connecting the same positions of moving objects), and the motion vectors are represented by arrows. FIG. 11B shows motion information between frames as a velocity vector, and the velocity vector is represented by an arrow whose length changes according to the velocity. FIG. 11C shows the speed (km / h) superimposed as it is as motion information between frames. Thus, by displaying together the information regarding the movement of each moving object, the user can more easily understand the movement of the moving object.

一方、図12は、前記図11(a)で示す動きベクトル表示に、マウスなどを使って、クリック(或いは重ねるだけでもよい)すると、他の動き情報(図11(c)の速度)をポップアップ表示したものである。また、図11や図12のように時間的に異なる全てのフレームの動体位置や動き情報を重畳表示するのではなく、図13(a)〜(c)で示すように、それぞれのフレームにおける動体位置を、時系列的に都度表示(アニメーション表示など)するようにしてもよい。   On the other hand, FIG. 12 pops up other motion information (the speed in FIG. 11C) by clicking (or simply overlaying) on the motion vector display shown in FIG. It is displayed. In addition, the moving object positions and movement information of all the temporally different frames as shown in FIG. 11 and FIG. 12 are not superimposed and displayed as shown in FIGS. 13 (a) to 13 (c). The position may be displayed in time series (animation display, etc.).

(実施の形態2)
図14は、本発明の実施の第2の形態に係る画像処理装置1bを備えて成る事故検証システムの電気的構成を示すブロック図である。この事故検証システムは、前述の図1および図2で示す事故検証システムに類似し、対応する部分には同一の参照符号を付して示し、その説明を省略する。注目すべきは、本実施の形態では、前記動体抽出部12aは静止体も合わせて抽出し、その後、先ず3次元位置情報投影部14が、面設定部13で設定された投影面上に、フレーム毎に、前記動体抽出部12aで抽出された動体および静止体の3次元位置情報を投影し、その投影された各フレーム画像において、投影画像統合部17が前記静止体の位置合せを行うことで、前記各投影面の統合を行うことである。
(Embodiment 2)
FIG. 14 is a block diagram showing an electrical configuration of an accident verification system including the image processing apparatus 1b according to the second embodiment of the present invention. This accident verification system is similar to the accident verification system shown in FIG. 1 and FIG. 2 described above, and corresponding portions are denoted by the same reference numerals, and description thereof is omitted. It should be noted that in the present embodiment, the moving object extraction unit 12a also extracts a stationary object, and then the three-dimensional position information projection unit 14 is first placed on the projection plane set by the plane setting unit 13. For each frame, the three-dimensional position information of the moving body and the stationary body extracted by the moving body extraction unit 12a is projected, and the projected image integration unit 17 aligns the stationary body in each of the projected frame images. Then, the projection planes are integrated.

図15は、前記絵図面による投影面の位置合せを説明するための図である。各投影面が曲面であっても同様に位置合わせを行うことが可能であるが、説明を簡素化するために、平面として説明する。先ず、図15(a)は、4枚の時系列の各画像において、動体を平面上に投影した状態を表す。これらの時間的に異なる複数の画像を図15(b)では、静止体である前記道路交通のための識別記号に基づいて、平面の位置合わせを行っている。具体的には、図の上下方向は横断歩道56で、左右方向は通行区分55で位置合わせを行っている。そして、図15(c)では、位置合わせ後の平面を統合した状態を表している。   FIG. 15 is a diagram for explaining the alignment of the projection plane according to the picture drawing. Even if each projection surface is a curved surface, it is possible to perform alignment in the same manner. However, in order to simplify the description, it will be described as a plane. First, FIG. 15A shows a state in which a moving object is projected on a plane in each of four time-series images. In FIG. 15B, the plurality of images different in time are aligned on the basis of the identification symbol for the road traffic that is a stationary body. Specifically, the vertical alignment in the figure is performed at the pedestrian crossing 56, and the horizontal alignment is performed at the traffic division 55. FIG. 15C shows a state in which the planes after alignment are integrated.

こうして、フレーム毎の投影結果を、静止体を基準として統合することで、前記時系列の撮像画像を得るステレオカメラ21が動いている、すなわち前記ステレオカメラ21をドライブレコーダ4などの車載カメラとした場合においも、前記運転者の目線だけでなく、路上に居る前記目撃者の目線などの任意の目線(投影面)方向からの表示画像を作成することができる。   Thus, by integrating the projection results for each frame on the basis of a stationary body, the stereo camera 21 that obtains the time-series captured images is moving. That is, the stereo camera 21 is an in-vehicle camera such as the drive recorder 4. In some cases, a display image can be created not only from the driver's line of sight but also from an arbitrary line of sight (projection plane) such as the line of sight of the witness on the road.

(実施の形態3)
図16は、本発明の実施の第3の形態に係る画像処理装置1cを備えて成る事故検証システムの電気的構成を示すブロック図である。この事故検証システムは、前述の図1および図2で示す事故検証システムに類似し、対応する部分には同一の参照符号を付して示し、その説明を省略する。注目すべきは、本実施の形態では、前記動体抽出部12aは静止体も合わせて抽出する一方、面設定部13cには前記動体抽出部12aの出力が入力され、或るフレームにおける抽出結果を基準とした仮想投影面が設定され、3次元位置情報投影部14cは、前記動体抽出部12cの出力から、各フレームにおける動体の3次元位置を前記静止体を基準として統合し、前記面設定部13cにて設定された仮想投影面上に投影することである。
(Embodiment 3)
FIG. 16 is a block diagram showing an electrical configuration of an accident verification system including the image processing apparatus 1c according to the third embodiment of the present invention. This accident verification system is similar to the accident verification system shown in FIG. 1 and FIG. 2 described above, and corresponding portions are denoted by the same reference numerals, and description thereof is omitted. It should be noted that in the present embodiment, the moving object extraction unit 12a extracts a stationary object as well, while the surface setting unit 13c receives the output of the moving object extraction unit 12a, and extracts the extraction result in a certain frame. A virtual projection plane as a reference is set, and the three-dimensional position information projection unit 14c integrates the three-dimensional position of the moving body in each frame based on the stationary body from the output of the moving body extraction unit 12c. Projecting onto the virtual projection plane set at 13c.

図17は、そのような仮想投影面への投影方法を説明するための図である。本実施の形態でも、前記仮想投影面が曲面であっても、同様に位置合わせを行うことが可能であるが、説明を簡素化するために、平面として説明する。前述の図15では、各フレームで設定した平面に動体を投影した後、それらの平面の位置合わせを行うことで、全体を俯瞰できる平面図を作成している。これに対して、本実施の形態では、全体を俯瞰できる仮想平面を用意し、3次元位置情報投影部14cは、図17(a)で示すような各画像の仮想平面の中で、基準となるフレームで設定した仮想平面に、図17(b)で示すように残余のフレームで設定した平面を連結して作成する。   FIG. 17 is a diagram for explaining such a projection method onto the virtual projection plane. Even in the present embodiment, even if the virtual projection plane is a curved surface, it is possible to perform alignment in the same manner. However, in order to simplify the description, it will be described as a plane. In FIG. 15 described above, a moving object is projected onto the plane set in each frame, and then the plane is aligned, thereby creating a plan view allowing the bird's-eye view of the whole. On the other hand, in the present embodiment, a virtual plane that can be viewed from the whole is prepared, and the three-dimensional position information projection unit 14c has a reference plane in the virtual plane of each image as shown in FIG. As shown in FIG. 17B, the plane set by the remaining frames is connected to the virtual plane set by the frame to be created.

ここで、上り坂の場合の仮想平面は図17(c)で示すようになるので、投影した動体の位置精度が低下する。そこで、このような場合はたとえばナビゲーションシステムからGPSの情報を用いることで、坂道か否かの判断が可能になるので、設定する仮想平面の傾きを変えることで、精度を高めることが可能になる。また、精度をより高めるためには、図17(d)のように、仮想曲面を設定するようにすればよい。   Here, since the virtual plane in the case of the uphill is as shown in FIG. 17C, the positional accuracy of the projected moving object is lowered. In such a case, for example, it is possible to determine whether the road is a slope by using GPS information from the navigation system. Therefore, it is possible to improve the accuracy by changing the inclination of the virtual plane to be set. . In order to further improve the accuracy, a virtual curved surface may be set as shown in FIG.

このように静止体を基準として各フレーム間における動体の位置情報を統合した後、仮想投影面に投影を行うことで、前記ステレオカメラ21が動いている、すなわち前記ステレオカメラ21をドライブレコーダ4などの車載カメラとした場合においも、前記運転者の目線だけでなく、路上に居る前記目撃者の目線などの任意の目線(投影面)方向からの表示画像を作成することができる。   Thus, after integrating the position information of the moving body between the frames based on the stationary body, the stereo camera 21 is moved by projecting onto the virtual projection plane, that is, the stereo camera 21 is moved to the drive recorder 4 or the like. Even in the case of the in-vehicle camera, it is possible to create a display image not only from the driver's eyes but also from any eye (projection plane) direction such as the eyes of the witness on the road.

図18は、前記ステレオカメラ21(21−1,21−2)の出力画像に対する3次元位置情報算出部11での3次元演算(距離演算)の手法を説明するための図である。説明の簡単化の為に、ステレオカメラ21−1,21−2の収差は良好に補正されており、かつ平行に設置されているものとする。実際のハードがこのような条件に無くても、画像処理により、同等の画像に変換することも可能である。ハード的或いは画像処理によって平行化された画像を用いる利点は、図19(c)や図20で後述するように、対応点の探索領域を1次元に限定できるということであるが、後述する位相限定相関法のように2次元探索が容易な手法の場合であれば、平行化されていないステレオ画像で対応付けを行い、得られた対応点結果を直接3次元化することも可能である(画像処理で平行化することで、画像にノイズが重畳されるので、平行化画像で対応付けを行うと精度が低下する。平行化前の画像から直接対応点を求めてから、最後に3次元化することで、ノイズの影響を最小限に抑えることができる。)。   FIG. 18 is a diagram for explaining a method of three-dimensional calculation (distance calculation) in the three-dimensional position information calculation unit 11 for the output image of the stereo camera 21 (21-1, 21-2). For simplification of explanation, it is assumed that the aberrations of the stereo cameras 21-1, 21-2 are corrected well and are installed in parallel. Even if the actual hardware is not in such a condition, it can be converted into an equivalent image by image processing. The advantage of using an image parallelized by hardware or image processing is that the search area for corresponding points can be limited to one dimension as will be described later with reference to FIG. 19C and FIG. In the case of a technique that is easy to perform a two-dimensional search, such as the limited correlation method, it is possible to perform correspondence using stereo images that have not been parallelized, and to directly three-dimensionalize the obtained corresponding point results ( Since parallelization is performed by image processing, noise is superimposed on the image, so if the correspondence is performed using the parallelized image, the accuracy is reduced. To minimize the effect of noise.)

前記ステレオカメラ21−1,21−2としては、少なくとも焦点距離(f)、撮像面(CCD)S1,S2の画素数、1画素の大きさ(μ)が相互に等しいものを用い、所定の基線(ベースライン)長(B)だけ前記左右に離間させて光軸L1,L2を相互に平行に配置して被写体Pを撮影したとき、撮像面S1,S2上の視差(ずれ画素数)がΔd(=d1+d2)であると、被写体Pまでの距離(D)は、
D=f・B/Δd
で求めることができる。
As the stereo cameras 21-1 and 21-2, those having at least a focal length (f), the number of pixels of the imaging surfaces (CCD) S1 and S2, and the size (μ) of the pixels are equal to each other. When the subject P is photographed with the optical axes L1 and L2 arranged in parallel to each other with the base line (baseline) length (B) spaced apart from each other, the parallax (the number of displaced pixels) on the imaging surfaces S1 and S2 When Δd (= d1 + d2), the distance (D) to the subject P is
D = f · B / Δd
Can be obtained.

また、被写体Pの各部の3次元位置(X,Y,Z)は、x、yを画素上での位置とすると、以下で計算される。   The three-dimensional position (X, Y, Z) of each part of the subject P is calculated as follows, where x and y are positions on the pixel.

X=x・D/f
Y=y・D/f
Z=D
ここで、たとえば車載用のステレオカメラには、前述のように遠方の先行車までの距離を高精度に測定したいというニーズとともに、小型化による設置し易さも求められる。
ステレオカメラの奥行き方向分解能ΔZは、
ΔZ=(D/B)・(1/f)・Δd
で表されることから、高精度化の方法として、焦点距離fを大きくする、基線長Bを大きくするという方法が考えられる。ところが、前述のように前者では視野範囲が狭くなり、後者では装置が大型化するという欠点がある。上記欠点の無い高精度化の方法として、対応付けのサブピクセル化がある。対応付け演算を画素単位以下の分解能で行うことで、視差の分解能Δdを小さくして、ステレオ3次元計測の分解能を細かくできるからである。
X = x · D / f
Y = y · D / f
Z = D
Here, for example, an in-vehicle stereo camera is required to be easy to install due to downsizing as well as needs to measure the distance to a distant preceding vehicle with high accuracy as described above.
The depth direction resolution ΔZ of the stereo camera is
ΔZ = (D 2 / B) · (1 / f) · Δd
Therefore, as a method for improving accuracy, a method of increasing the focal length f and a method of increasing the baseline length B can be considered. However, as described above, the former has a disadvantage that the visual field range is narrow, and the latter is large in size. As a method for improving the accuracy without the above drawbacks, there is subpixelization of correspondence. This is because by performing the associating operation with a resolution equal to or less than the pixel unit, the resolution of the parallax Δd can be reduced and the resolution of the stereo three-dimensional measurement can be made fine.

図19は、前記3次元位置情報算出部11において、前記視差Δdを求めるにあたっての基準画像(ステレオカメラ21−1)に対する参照画像(ステレオカメラ21−2)の対応点探索方法を説明するための図である。先ず、図19(a)で示すように、基準画像F1上に、注目点Pを中心または重心とする所定サイズの2次元のウィンドウW1を設定する。同様に、図19(b)で示すように、参照画像F2上に、考えられる全ての位置に、所定サイズのウィンドウW2を多数設定する。ここで、図19(c)で示すように、前述のように基準画像F1と参照画像F2とがほとんど平行に配置されている場合、基準画像F1上の注目点PのY座標位置Py上に、参照画像F2の対応位置が乗っていると仮定できるので、このライン上にのみウィンドウW2を設定すればよい(基本的には1画素ずつずらしながらウィンドウW2を設定する。)。   FIG. 19 illustrates a method for searching for corresponding points of a reference image (stereo camera 21-2) with respect to a reference image (stereo camera 21-1) in obtaining the parallax Δd in the three-dimensional position information calculation unit 11. FIG. First, as shown in FIG. 19A, a two-dimensional window W1 having a predetermined size with the attention point P as the center or the center of gravity is set on the reference image F1. Similarly, as shown in FIG. 19B, a large number of windows W2 having a predetermined size are set on all possible positions on the reference image F2. Here, as shown in FIG. 19C, when the standard image F1 and the reference image F2 are arranged almost in parallel as described above, the Y coordinate position Py of the point of interest P on the standard image F1. Since the corresponding position of the reference image F2 can be assumed, the window W2 may be set only on this line (basically, the window W2 is set while shifting by one pixel).

さらにまた、基準画像F1と参照画像F2とがほとんど平行に配置されていて、かつ、基準画像F1の注目点Pと参照画像F2の対応位置との視差Δdが或る程度分かっている場合は、図19(d)で示すように、その視差Δdの範囲Δd’にのみウィンドウW2を設定すればよい。   Furthermore, when the standard image F1 and the reference image F2 are arranged almost in parallel and the parallax Δd between the attention point P of the standard image F1 and the corresponding position of the reference image F2 is known to some extent, As shown in FIG. 19D, the window W2 may be set only in the range Δd ′ of the parallax Δd.

一方、前記対応点探索にあたって、多くの対応点を探索するために、或いは高解像の画像から短時間で対応点を探索するのに好適な手法として、多重解像度戦略によるウィンドウ設定を用いてもよい。図20は、前記基準画像F1と参照画像F2とがほとんど平行に配置されていると仮定した場合の前記多重解像度戦略を説明するための図である。図20(a)は、前述の図19(a)および(c)と同様に、基準画像F1上の注目点PのY座標位置Py上に、参照画像F2の複数のウィンドウW2を設定している。しかしながら、次に図20(b)で示すように、それぞれの画像F1,F2を解像度変換して、低解像度の画像F1’,F2’を作成し、この低解像度の画像F1’,F2’間で対応付けを行う。したがって、低解像度の画像F1’,F2’では、画素数が少なくなった分だけ、探索する画素数が少なくなり、たとえば解像度を1/2にすると、探索画素数は1/2になる。   On the other hand, in searching for corresponding points, a window setting based on a multi-resolution strategy may be used as a suitable method for searching for many corresponding points or for searching for corresponding points in a short time from a high-resolution image. Good. FIG. 20 is a diagram for explaining the multi-resolution strategy when it is assumed that the base image F1 and the reference image F2 are arranged almost in parallel. In FIG. 20 (a), a plurality of windows W2 of the reference image F2 are set on the Y coordinate position Py of the point of interest P on the standard image F1, as in the above-described FIGS. 19 (a) and (c). Yes. However, as shown in FIG. 20B, the resolutions of the respective images F1 and F2 are converted to create low-resolution images F1 ′ and F2 ′, and between these low-resolution images F1 ′ and F2 ′. Associate with. Therefore, in the low-resolution images F1 'and F2', the number of pixels to be searched is reduced by the amount of the decrease in the number of pixels. For example, when the resolution is halved, the number of search pixels is halved.

こうして、低解像度で対応位置P’を求めた後は、図20(c)で示すように、高解像度の画像F1,F2に戻って探索を行うが、低解像度で求めた対応位置から、おおよその探索範囲がわかるので、高解像度での探索は非常に狭い範囲でのみ探索を行えばよい。こうして探索範囲ΔWを狭めることで、同じ時間内で、前述のように多くの対応点を探索することができ、或いは高解像の画像から探索を行うことができる。   After obtaining the corresponding position P ′ at the low resolution in this way, as shown in FIG. 20C, the search is performed by returning to the high-resolution images F1 and F2, but from the corresponding position obtained at the low resolution, Since the search range is known, a high-resolution search need only be performed within a very narrow range. By narrowing the search range ΔW in this way, it is possible to search many corresponding points as described above within the same time, or to search from a high-resolution image.

なお、上述の説明では、低解像度画像を1段階だけ作成しているが、複数段階で作成して、探索位置を順次絞り込んでゆくようにしてもよい。たとえば、入力画像が1280×960ピクセルのとき、第1段階目の低解像度画像として640×480ピクセル、第2段階目の低解像度画像として320×240ピクセル、第3段階目の低解像度画像として160×120ピクセルの3種類の低解像度画像を作成して、160×120ピクセルの画像から順に対応位置を探索してゆく。   In the above description, the low-resolution image is created in only one stage, but it may be created in a plurality of stages and the search position may be narrowed down sequentially. For example, when the input image is 1280 × 960 pixels, the first-stage low-resolution image is 640 × 480 pixels, the second-stage low-resolution image is 320 × 240 pixels, and the third-stage low-resolution image is 160 Three types of low resolution images of × 120 pixels are created, and corresponding positions are searched in order from an image of 160 × 120 pixels.

さらにまた、前記3次元位置情報算出部11における対応点探索の他の手法としては、ロバストなパターン類似度演算手法として知られている振幅成分を抑制した相関法を用いることができる。そのような相関法は、パターンの周波数分解信号から、振幅成分を抑制した位相成分のみの信号を用いて類似度演算を行うので、ステレオカメラ21の撮影条件の差や、ノイズなどの影響を受けにくく、前記ロバストな相関演算が実現可能である。また、濃淡データを用いた従来の2次元相関法や特徴抽出法とは異なり、外乱に強く、明るさやコントラストの低い画像でも、精度良く演算ができるという特徴を有している。そのようなパターンの周波数分解信号を計算する手法として、フーリエ変換、離散コサイン(サイン)変換、ウエーブレット変換、アダマール変換などが知られている。前記離散コサイン(DCT)符号限定相関法については、たとえば「画像信号処理と画像パターン認識の融合-DCT符号限定相関とその応用」(貴家仁志 首都大学東京 システムデザイン学部 動的画像処理実利用化ワークショップ2007(2007.3.8-9))の論文を参照することができる。   Furthermore, as another method for searching for corresponding points in the three-dimensional position information calculation unit 11, a correlation method that suppresses an amplitude component, which is known as a robust pattern similarity calculation method, can be used. In such a correlation method, the similarity calculation is performed using only the phase component signal in which the amplitude component is suppressed from the frequency resolution signal of the pattern. Therefore, the correlation method is affected by a difference in photographing conditions of the stereo camera 21 and noise. It is difficult to achieve the robust correlation calculation. Further, unlike the conventional two-dimensional correlation method and feature extraction method using grayscale data, it has a feature that it is resistant to disturbances and can calculate with high accuracy even for images with low brightness and contrast. Known techniques for calculating the frequency-resolved signal having such a pattern include Fourier transform, discrete cosine transform, wavelet transform, Hadamard transform, and the like. As for the discrete cosine (DCT) code-only correlation method, for example, “Fusion of image signal processing and image pattern recognition—DCT code-only correlation and its application” (Kishiya Hitoshi, Faculty of System Design, Tokyo Metropolitan University) You can refer to articles from Shop 2007 (2007.3.8-9)).

そして、ロバストな相関演算が実現可能な相関法の代表としての位相限定相関法(POC)は、変換にフーリエ変換を用い、フーリエ級数の振幅成分を抑制した位相成分のみの相関演算を行う。以下に、その位相限定相関法(POC)を詳細を説明する。   A phase-only correlation method (POC), which is a representative correlation method capable of realizing a robust correlation calculation, uses a Fourier transform for conversion, and performs a correlation calculation only for phase components in which the amplitude component of the Fourier series is suppressed. The details of the phase-only correlation method (POC) will be described below.

先ず、画像サイズN×Nピクセルの2つの画像F1,F2をf(n,n),g(n,n)とし、定式化の便宜上、離散空間のインデックスをn=−M,・・・M,n=−M,・・・Mとし、画像サイズをN=2M+1ピクセル,N=2M+1ピクセルとすると、これらの画像の2次元フーリエ変換(2D DFT)は、それぞれ下式で与えられる。 First, let f (n 1 , n 2 ) and g (n 1 , n 2 ) be two images F1 and F2 having an image size N 1 × N 2 pixels, and for the convenience of formulation, the index of the discrete space is n 1 = If -M 1 ,... M 1 , n 2 = −M 2 ,... M 2 and the image sizes are N 1 = 2M 1 +1 pixels and N 2 = 2M 2 +1 pixels, 2 of these images The dimensional Fourier transform (2D DFT) is given by the following equation, respectively.

ここで、k=−M,・・・M,k=−M,・・・M Here, k 1 = -M 1, ··· M 1, k 2 = -M 2, ··· M 2

であり、Σn1n2は、 And Σ n1n2 is

である。また、A(k,k),A(k,k)は振幅成分であり、ejθF(k1,k2),ejθG(k1,k2)は位相成分である。 It is. A F (k 1 , k 2 ) and A G (k 1 , k 2 ) are amplitude components, and e jθF (k1, k2) and e jθG (k1, k2) are phase components.

そして、位相限定相関法(POC)は、こうして求められたフーリエ級数の振幅成分を抑制した位相成分のみの相関演算を行う。それには先ず、パターンf,gの合成位相スペクトル^R(k,k)は、下記のように定義される。 Then, the phase only correlation method (POC) performs a correlation calculation of only the phase component in which the amplitude component of the Fourier series thus obtained is suppressed. First, the combined phase spectrum RR (k 1 , k 2 ) of the patterns f and g is defined as follows.

ここで、G(k,k)の複素共役は、上線を付して示す。また、θ(k,k)=θ(k,k)−θ(k,k)である。 Here, the complex conjugate of G (k 1 , k 2 ) is shown with an overline. Further, θ (k 1 , k 2 ) = θ F (k 1 , k 2 ) −θ G (k 1 , k 2 ).

この合成位相スペクトル^R(k,k)を逆フーリエ変換することで、相関演算を行うことができる。すなわち、θ(k,k)=θ(k,k)−θ(k,k)であり、POC関数^r(n,n)はR(k,k)の2次元離散フーリエ逆変換(2D IDFT)であり、次式で定義される。 Correlation calculation can be performed by performing inverse Fourier transform on the combined phase spectrum ^ R (k 1 , k 2 ). That is, θ (k 1 , k 2 ) = θ F (k 1 , k 2 ) −θ G (k 1 , k 2 ), and the POC function rr (n 1 , n 2 ) is R (k 1 , n 2 ). k 2 ) is a two-dimensional discrete Fourier inverse transform (2D IDFT) and is defined by the following equation.

ここで、Σn1n2は、 Where Σ n1n2 is

である。 It is.

上記POC関数の処理で得られるPOC値は、図21に示すように、画像間(基準ウインドウと参照ウインドウ)の移動量の座標に急峻な類似度ピークを持つことが知られており、画像マッチングにおけるロバスト性が高い。そのPOCのピークの高さが、パターン類似度を示す。そして、位置情報算出部11が、POCのピーク位置を推定することにより位置ズレ量(=視差dsub)の推定を行う。このとき、POCは離散的に求まるので、ピーク位置をサブピクセルで補間推定することによって、高分解な対応領域座標を求めることができる。ピーク位置の補間推定方法としては、放物線などの関数をフィッティングして行うことができる。そして、候補領域間の位置ズレ量Δdは、候補領域間のピクセルレベルの位置ズレ量dpixelに、POC法で求めたサブピクセルの位置ズレ量dsubを加えた量となる。   The POC value obtained by the above POC function processing is known to have a sharp similarity peak in the coordinates of the amount of movement between images (reference window and reference window) as shown in FIG. Robustness is high. The height of the peak of the POC indicates the pattern similarity. Then, the position information calculation unit 11 estimates the position shift amount (= parallax dsub) by estimating the peak position of the POC. At this time, since the POC is obtained discretely, high resolution corresponding region coordinates can be obtained by interpolating and estimating the peak position with subpixels. The peak position interpolation estimation method can be performed by fitting a function such as a parabola. The positional deviation amount Δd between the candidate areas is an amount obtained by adding the positional deviation amount dsub of the sub-pixel obtained by the POC method to the positional deviation quantity dpixel at the pixel level between the candidate areas.

したがって、前記位相限定相関法における具体的な対応点探索の一例としては、以下の通りとなる。前述のようにPOC値は、画像間(基準ウインドウW1と参照ウインドウW2)の移動量の座標に急峻な相関ピークを持つことが知られているので、図22(a)に示すように、基準画像F1上の点Pに対応する参照画像F2上の点をP’とし、点P,P’がそれぞれ重心位置になるようなウィンドウW1,W2を設定すると、ウィンドウW1,W2間のPOC値は、ウィンドウW1,W2の重心位置にピークが立つ。したがって、参照ウインドウW2を点P’が重心位置になるように設定するのではなく、横方向に1画素ずれるように設定すると、POC値も、重心位置から1画素ずれた位置にピークが立つ。同様に、図22(b)に示すように、参照ウインドウW2を点P’が重心位置からさらに横方向に2画素ずれるようにを設定すると、POC値も、重心位置から2画素ずれた位置にピークが立つので、図19で説明したように、参照画像F2側に設定するウィンドウW2は1画素ずつずらす必要はなく、或るサンプリング間隔を持って設定すればよい。そこでどれくらいのサンプリング間隔で設定すればよいかは、探索できる範囲W3に依存するが、一般的には、図23のように、ウィンドウサイズの半分位であると言われている(重心位置に対して、±1/4位)ので、サンプリング間隔としては、たとえばウィンドウサイズの半分位が重なるように設定すればよい。したがって、基準画像F1と参照画像F2での視差の最大を128画素、ウィンドウサイズを31×31、POCで探索できる範囲は重心位置に対して、±8画素と仮定すると、最大128画素の視差を探索するためには、ウィンドウを16画素ずつずらせばよいので、8個のウィンドウを設定すればよい。   Therefore, an example of a specific corresponding point search in the phase-only correlation method is as follows. As described above, it is known that the POC value has a steep correlation peak in the coordinates of the movement amount between images (the reference window W1 and the reference window W2). Therefore, as shown in FIG. When the point on the reference image F2 corresponding to the point P on the image F1 is P ′ and the windows W1 and W2 are set such that the points P and P ′ are respectively located at the center of gravity, the POC value between the windows W1 and W2 is A peak appears at the center of gravity of the windows W1 and W2. Therefore, if the reference window W2 is not set so that the point P ′ is located at the center of gravity, but is set so as to be shifted by one pixel in the horizontal direction, the POC value also peaks at a position shifted by one pixel from the center of gravity. Similarly, as shown in FIG. 22B, when the reference window W2 is set so that the point P ′ is further shifted by two pixels laterally from the center of gravity position, the POC value is also shifted by two pixels from the center of gravity position. Since the peak is set, as described with reference to FIG. 19, the window W2 set on the reference image F2 side does not need to be shifted pixel by pixel, and may be set with a certain sampling interval. Therefore, how much sampling interval should be set depends on the searchable range W3, but generally, it is said to be about half the window size as shown in FIG. Therefore, the sampling interval may be set so that, for example, the half of the window size overlaps. Therefore, assuming that the maximum disparity in the base image F1 and the reference image F2 is 128 pixels, the window size is 31 × 31, and the range that can be searched with POC is ± 8 pixels with respect to the center of gravity position, the disparity of 128 pixels at maximum is assumed. In order to perform the search, the windows need only be shifted by 16 pixels, so that eight windows may be set.

さらに、前記多重解像度戦略を用いると、図20で説明したように、画像サイズを縮小することで、探索範囲も縮小することができる。具体的に、上述の図22では、基準画像F1上の或る1点につき、参照画像F2上にウィンドウを8個設定する必要があったが、画像を1/2に縮小すると、設定するウィンドウは半分の4個でよい。さらに1/2に縮小すると設定するウィンドウは2個になり、さらに1/2に縮小すると設定するウィンドウは1個となる。つまり、上述のように視差の最大が128画素の場合は、画像を(1/2)=1/16に縮小することで、最大視差が8画素になるので、1個のウィンドウで探索することができることになる。したがって、先ずこの1/16に縮小した画像上での対応位置が求まると、その結果を1/8縮小した画像での初期位置としてウィンドウを1個設定して対応位置を求めるという作業を、以降順次繰返せばよい。 Further, when the multi-resolution strategy is used, the search range can be reduced by reducing the image size as described in FIG. Specifically, in FIG. 22 described above, it is necessary to set eight windows on the reference image F2 for a certain point on the standard image F1, but when the image is reduced to ½, the window to be set is set. May be half, four. If the image is further reduced to 1/2, the number of windows to be set is two. If the image is further reduced to 1/2, the number of windows to be set is one. That is, when the maximum parallax is 128 pixels as described above, the maximum parallax is 8 pixels by reducing the image to (1/2) 4 = 1/16, so search is performed in one window. Will be able to. Accordingly, when the corresponding position on the image reduced to 1/16 is first obtained, the operation of setting one window as the initial position on the image reduced to 1/8 and obtaining the corresponding position will be described hereinafter. What is necessary is repeated sequentially.

前記3次元位置情報算出部11における対応点探索のさらに他の手法としては、SAD(濃度差の絶対値和)法や、SSD(濃度差の二乗和)法、NCC(正規化相互相関)法などを用いることもできる。   Still other methods of searching for corresponding points in the three-dimensional position information calculation unit 11 include an SAD (absolute sum of density differences) method, an SSD (sum of squares of density differences) method, and an NCC (normalized cross correlation) method. Etc. can also be used.

また、前述のLucas−Kaneda法による動きベクトル演算について、以下に説明する。時系列画像など、2枚の画像間の見かけの動きは、動きベクトル(オプティカルフロー)と呼ばれる。その動きベクトルいは、同一点は2枚の画像上で同じ輝度であると仮定すると、以下の式が成り立つ。   The motion vector calculation by the above-mentioned Lucas-Kaneda method will be described below. The apparent movement between two images such as a time series image is called a motion vector (optical flow). Assuming that the same point has the same brightness on the two images, the following equation holds.

ただし、Iは画像の輝度、x,yは画像上の座標、vx,vyは動きベクトルである。 Here, I is the luminance of the image, x and y are the coordinates on the image, and vx and vy are the motion vectors.

上式をテーラー展開することで、次式が得られる。   The following equation is obtained by Taylor expansion of the above equation.

上式を変形すると、 Transforming the above equation,

となる。この式は、オプティカルフローの拘束式を呼ばれる。 It becomes. This equation is called an optical flow constraint equation.

ところで、画像上の1点(x,y)に対して、上式1つで動きベクトルを求めることはできない。そこで、Lucas−Kanade法では、画像上の1点(x,y)の周辺にウインドウを設定し、ウインドウ内で、動きベクトルが変化しないという仮定の下、上記拘束式を重み付けして連立させて、(x,y)での動きベクトルを計算する。具体的には、下式を解くことで実現できる。   By the way, it is not possible to obtain a motion vector for one point (x, y) on the image using the above equation. Therefore, in the Lucas-Kanade method, a window is set around one point (x, y) on the image, and the constraint equation is weighted and combined under the assumption that the motion vector does not change in the window. , (X, y). Specifically, it can be realized by solving the following equation.

さらにまた、前述のICPアルゴリズムについて以下に説明する。ICPアルゴリズムとは、反復計算により対応点間の誤差を最小化するものであり、処理のフローとしては以下のようになる。図24で示すように、N個の点からなる点群T={t|i∈N}と、異なるN個の点からなる点群S={s|s∈N}の位置合わせを行うとすると、点群Sの各点sにおいて点群Tとの距離は以下のようになるとする。 Furthermore, the ICP algorithm described above will be described below. The ICP algorithm minimizes the error between corresponding points by iterative calculation, and the processing flow is as follows. As shown in Figure 24, N t point group of points of the individual T = | a {t i i∈N t}, different N s point group of points of the individual S = {s i | s∈N s } , The distance from the point group T at each point s i of the point group S is as follows.

各点sに対応する点をm∈Tとすると、点sの対応点集群Mは、
M=C(S,T)
となる。ただし、Cは最近傍点を求める関数である。
If a point corresponding to each point s i and m i ∈T, the corresponding point bunching M of the points s i,
M = C (S, T)
It becomes. However, C is a function for obtaining the nearest point.

こうして点群Sの対応点群Mが求まると、位置合せのパラメータ(回転行列R、移動ベクトルt)は、下式を最小化することで求められる。   When the corresponding point group M of the point group S is thus obtained, the alignment parameters (rotation matrix R, movement vector t) can be obtained by minimizing the following expression.

この誤差が十分小さくなるまで繰り返すことで、位置合わせを行うことができる。 By repeating this error until it becomes sufficiently small, alignment can be performed.

1,1a,1b,1c 画像処理装置
2 定点カメラ
3 表示装置
4 ドライブレコーダ
11 3次元位置情報算出部
12,12a 動体抽出部
13,13c 面設定部
14,14c 3次元位置情報投影部
15 3次元情報統合部
16 3次元位置情報算出部
17 投影画像統合部
21;21−1,21−2 ステレオカメラ
22 画像記録部
41 一時記憶部
42 トリガ発生部
51 道路面
52 自転車
53 軌跡
54 視線方向
55 通行区分
56 横断歩道
F1 基準画像
F2 参照画像
m1,m2 自動車
m3 歩行者
M1,M2,M3 動体対応画像部分
1, 1a, 1b, 1c Image processing device 2 Fixed point camera 3 Display device 4 Drive recorder 11 Three-dimensional position information calculation unit 12, 12a Moving object extraction unit 13, 13c Surface setting unit 14, 14c Three-dimensional position information projection unit 15 Three-dimensional Information integration unit 16 Three-dimensional position information calculation unit 17 Projected image integration unit 21; 21-1, 21-2 Stereo camera 22 Image recording unit 41 Temporary storage unit 42 Trigger generation unit 51 Road surface 52 Bicycle 53 Trajectory 54 Line-of-sight direction 55 Traffic Category 56 Crosswalk F1 Standard image F2 Reference image m1, m2 Car m3 Pedestrian M1, M2, M3

Claims (12)

時系列の撮像画像中での被写体の3次元位置情報を取得可能な画像データを入力とし、その入力画像データを処理して表示装置に表示させる画像処理装置において、
前記時系列の撮像画像から同一の動体及び静止体を抽出する動体抽出部と、
前記表示にあたっての投影面を設定する面設定部と、
前記面設定部にて設定された投影面上に、前記動体抽出部で抽出された動体における前記3次元位置情報を前記静止体に基づいて投影した表示画像を作成する3次元位置情報投影部とを含むことを特徴とする画像処理装置。
An image processing apparatus for time-yield can be image data collected by the three-dimensional position information of the subject in the imaging field image sequence as input, it displayed on the display device processes the input image data,
A moving object extraction unit that extracts the same moving object and a stationary object from the time-series captured images;
A plane setting unit for setting a projection plane for the display;
A three-dimensional position information projection unit that creates a display image obtained by projecting the three-dimensional position information of the moving object extracted by the moving object extraction unit on the projection plane set by the surface setting unit based on the stationary object; An image processing apparatus comprising:
前記入力画像データは、ドライブレコーダから入力されるステレオカメラによる時系列の撮像画像であり、
前記ステレオカメラの左右間の画像を対応点探索処理することで、前記撮像画像中での被写体の3次元位置情報を得る3次元位置情報算出部をさらに備えることを特徴とする請求項1記載の画像処理装置。
The input image data is a time-series captured image by a stereo camera input from a drive recorder,
The three-dimensional position information calculation part which acquires the three-dimensional position information of the to-be-photographed object in the said captured image by carrying out corresponding point search processing of the image between the right and left of the said stereo camera, The further characterized by the above-mentioned. Image processing device.
前記入力画像データは、単眼カメラの時系列の撮像画像に、レーダによる距離情報から成ることを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the input image data includes a time series captured image of a monocular camera and radar distance information. 記動体抽出部の出力から、動体の各フレーム間の3次元位置を前記静止体を基準として統合する3次元情報統合部と、
前記3次元情報統合部で統合されたフレーム間において、或るフレームにおける動体の3次元位置を基準として、残余のフレームにおける動体の3次元位置を算出し、前記3次元位置情報投影部へ出力する3次元位置情報算出部とをさらに備えることを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。
From the output of the previous SL moving object extraction unit, and the 3-dimensional information integration section that integrates the basis of the stationary body a three-dimensional positions between the frames of the moving object,
Between the frames integrated by the three-dimensional information integration unit, the three-dimensional position of the moving object in the remaining frames is calculated with reference to the three-dimensional position of the moving object in a certain frame, and is output to the three-dimensional position information projection unit. The image processing apparatus according to claim 1, further comprising a three-dimensional position information calculation unit.
記3次元位置情報投影部は、フレーム毎に、前記投影面上に、前記動体抽出部で抽出された動体および静止体の3次元位置情報を投影し、
その投影された各フレーム画像において、前記静止体の位置合せを行うことで、前記各投影面の統合を行う投影画像統合部をさらに備えることを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。
Before Symbol 3-dimensional position information projection unit, for each frame, on the projection plane, and projecting the three-dimensional position information of the moving object extracted by the moving object extraction unit and the stationary body,
The projection image integration part which integrates each said projection surface by aligning the said stationary body in each projected said frame image is further provided, The any one of Claims 1-3 characterized by the above-mentioned. An image processing apparatus according to 1.
記面設定部には前記動体抽出部の出力が入力され、或るフレームにおける抽出結果を基準とした仮想投影面が設定され、
前記3次元位置情報投影部は、前記動体抽出部の出力から、各フレームにおける動体の3次元位置を前記静止体を基準として統合し、前記面設定部にて設定された仮想投影面上に投影することを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。
Before SL plane setting unit are inputted an output of the moving object extraction unit, a virtual projection plane relative to the extraction result in a certain frame is set,
The three-dimensional position information projection unit integrates the three-dimensional position of the moving body in each frame based on the stationary body from the output of the moving body extraction unit, and projects it on the virtual projection plane set by the surface setting unit The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記3次元位置情報投影部は、前記3次元位置情報に、前記動体抽出部で抽出された各動体の動きに関する情報を併せて前記表示画像を作成することを特徴とする請求項1〜6のいずれか1項に記載の画像処理装置。   The said three-dimensional position information projection part produces the said display image combining the information regarding the motion of each moving body extracted in the said three-dimensional position information by the said moving body extraction part, The said display image is characterized by the above-mentioned. The image processing apparatus according to any one of the above. 前記3次元位置情報投影部において、前記投影面およびそれに投影される3次元位置情報は、前記入力画像データを、前記面設定部にて設定された角度から見た画像に変換した実写画像であることを特徴とする請求項1〜7のいずれか1項に記載の画像処理装置。   In the three-dimensional position information projection unit, the projection plane and the three-dimensional position information projected thereon are real images obtained by converting the input image data into an image viewed from an angle set by the plane setting unit. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus. 前記3次元位置情報投影部において、前記投影面は前記面設定部にて設定された角度から見た模式化された道路面であり、前記3次元位置情報は、前記入力画像データから抽出した実写のランドマークから成ることを特徴とする請求項8記載の画像処理装置。   In the three-dimensional position information projection unit, the projection surface is a schematic road surface viewed from an angle set by the surface setting unit, and the three-dimensional position information is a real image extracted from the input image data. The image processing apparatus according to claim 8, comprising: 前記投影面およびそれに投影される3次元位置情報は、前記面設定部にて設定された角度から見た模式化された絵図面から成ることを特徴とする請求項1〜7のいずれか1項に記載の画像処理装置。   8. The projection plane and the three-dimensional position information projected thereon comprise a schematic drawing viewed from an angle set by the plane setting unit. An image processing apparatus according to 1. 前記絵図面は、前記模式化された道路面上に、前記模式化された道路交通のための識別記号を合成したものであることを特徴とする請求項10記載の画像処理装置。   The image processing apparatus according to claim 10, wherein the pictorial drawing is obtained by combining an identification symbol for the schematic road traffic on the schematic road surface. 時系列の撮像画像中での被写体の3次元位置情報を取得可能な画像データを入力とし、その入力画像データを処理して表示画像を作成するための方法において、
前記時系列の撮像画像から同一の動体及び静止体を抽出する工程と、
前記表示にあたっての投影面を設定する工程と、
設定された投影面上に、抽出された動体における前記3次元位置情報を前記静止体に基づいて投影した表示画像を作成する工程とを含むことを特徴とする画像処理方法。
A method for time-obtained image data which can be collected by the three-dimensional position information of the subject in the imaging field image sequence as input, and creates a display image by processing the input image data,
Extracting the same moving object and stationary object from the time-series captured images;
Setting a projection plane for the display;
And a step of creating a display image obtained by projecting the three-dimensional position information of the extracted moving object on the set projection plane based on the stationary object .
JP2009128028A 2009-05-27 2009-05-27 Image processing apparatus and method Expired - Fee Related JP5267330B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009128028A JP5267330B2 (en) 2009-05-27 2009-05-27 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009128028A JP5267330B2 (en) 2009-05-27 2009-05-27 Image processing apparatus and method

Publications (2)

Publication Number Publication Date
JP2010277262A JP2010277262A (en) 2010-12-09
JP5267330B2 true JP5267330B2 (en) 2013-08-21

Family

ID=43424183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009128028A Expired - Fee Related JP5267330B2 (en) 2009-05-27 2009-05-27 Image processing apparatus and method

Country Status (1)

Country Link
JP (1) JP5267330B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11558586B2 (en) * 2019-03-25 2023-01-17 Jvckenwood Corporation Recording system and recording method

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012001709A2 (en) * 2010-06-30 2012-01-05 Tata Consultancy Services Limited Automatic detection of moving object by using stereo vision technique
JP5894413B2 (en) * 2011-10-27 2016-03-30 東芝アルパイン・オートモティブテクノロジー株式会社 Collision judgment method and collision judgment program
CN103310213B (en) * 2012-03-07 2016-05-25 株式会社理光 Vehicle checking method and device
JP6557973B2 (en) * 2015-01-07 2019-08-14 株式会社リコー MAP GENERATION DEVICE, MAP GENERATION METHOD, AND PROGRAM
JP6524475B2 (en) * 2015-01-16 2019-06-05 株式会社レイトロン Image recognition apparatus capable of changing arrangement and combination of windows used for image recognition according to configuration information
JP6859659B2 (en) * 2016-10-25 2021-04-14 株式会社リコー Information processing equipment, information processing methods and programs
JP6365906B1 (en) * 2017-03-01 2018-08-01 パナソニックIpマネジメント株式会社 3D intrusion detection system and 3D intrusion detection method
JP7205049B2 (en) * 2017-07-19 2023-01-17 日産自動車株式会社 Movement vector calculation method and movement vector calculation device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001317915A (en) * 2000-05-08 2001-11-16 Minolta Co Ltd Three-dimensional measurement apparatus
JP2004046875A (en) * 2002-07-03 2004-02-12 Iwane Kenkyusho:Kk Transportation automatic guiding device
AU2003248269A1 (en) * 2002-07-12 2004-02-02 Iwane Laboratories, Ltd. Road and other flat object video plan-view developing image processing method, reverse developing image conversion processing method, plan-view developing image processing device, and reverse developing image conversion processing device
JP4192680B2 (en) * 2003-05-28 2008-12-10 アイシン精機株式会社 Moving object periphery monitoring device
JP2006347493A (en) * 2005-06-20 2006-12-28 Alpine Electronics Inc Drive recorder

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11558586B2 (en) * 2019-03-25 2023-01-17 Jvckenwood Corporation Recording system and recording method

Also Published As

Publication number Publication date
JP2010277262A (en) 2010-12-09

Similar Documents

Publication Publication Date Title
JP5267330B2 (en) Image processing apparatus and method
JP4553072B1 (en) Image integration apparatus and image integration method
US11967109B2 (en) Vehicle localization using cameras
EP2261604B1 (en) Computer arrangement for and method of calculating motion vectors using range sensor data
US10318782B2 (en) Image processing device, image processing system, and image processing method
JP5714940B2 (en) Moving body position measuring device
JP5109691B2 (en) Analysis device
CN111046743B (en) Barrier information labeling method and device, electronic equipment and storage medium
JP4717760B2 (en) Object recognition device and video object positioning device
JP5471310B2 (en) Operation analysis system
JP2010246166A (en) Device and method for displaying three dimensional information
JP2011529569A (en) Computer apparatus and method for displaying navigation data in three dimensions
JP6171593B2 (en) Object tracking method and system from parallax map
JP2011134207A (en) Drive recorder and map generation system
JP2010204805A (en) Periphery-monitoring device and method
KR20090109437A (en) Method and System for Image Matching While Driving Vehicle
CN103810475A (en) Target object recognition method and apparatus
JP5181602B2 (en) Object detection device
TWI682361B (en) Method and system for road image reconstruction and vehicle positioning
WO2010113253A1 (en) Three-dimensional information display device and three-dimensional information display method
JP4946896B2 (en) Distance measuring device and distance measuring method
KR100550430B1 (en) Apparatus and method for guiding route of vehicle using three-dimensional information
Yan et al. Potential accuracy of traffic signs' positions extracted from Google Street View
JP5256508B2 (en) 3D information calculation apparatus and 3D information calculation method
Liu Performance evaluation of stereo and motion analysis on rectified image sequences

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121023

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130422

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees