JP2010273178A - Stereo measurement system and moving image-reproducing system - Google Patents
Stereo measurement system and moving image-reproducing system Download PDFInfo
- Publication number
- JP2010273178A JP2010273178A JP2009124080A JP2009124080A JP2010273178A JP 2010273178 A JP2010273178 A JP 2010273178A JP 2009124080 A JP2009124080 A JP 2009124080A JP 2009124080 A JP2009124080 A JP 2009124080A JP 2010273178 A JP2010273178 A JP 2010273178A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- frame rate
- unit
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Emergency Alarm Devices (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、ステレオ測定システムおよび動画再生システムに関し、特に車載に適したステレオ測定システムおよび動画再生システムに関する。 The present invention relates to a stereo measurement system and a moving image reproduction system, and more particularly to a stereo measurement system and a moving image reproduction system suitable for in-vehicle use.
近年、自動車業界では、安全性を高める動きが活発化しており、カメラによる画像センサやレーダ等を利用した危険回避システムの導入が進んでいる。よく知られているシステムとしては、画像センサやレーダ等を利用することで自車両周辺の距離情報を取得することで危険回避を行うシステムがある。 In recent years, in the automobile industry, a movement for improving safety has been activated, and introduction of a risk avoidance system using an image sensor, a radar, or the like by a camera is progressing. As a well-known system, there is a system for avoiding danger by acquiring distance information around the host vehicle by using an image sensor, a radar, or the like.
一方、タクシー業界では、ドライブレコーダの導入が進んでいる。ドライブレコーダは、事故が起きた前後の画像を記録する装置で、事故の原因解析に用いることができる。例えば、車同士の衝突事故時に記録された映像を見ることで、自車に責任があるのか、それとも他車に責任があるのかを、ある程度見極めることができる。 On the other hand, in the taxi industry, drive recorders are being introduced. A drive recorder is a device that records images before and after an accident, and can be used to analyze the cause of the accident. For example, by viewing a video recorded at the time of a car-to-car collision, it is possible to determine to some extent whether the vehicle is responsible or responsible for other vehicles.
例えば、特許文献1には、画像情報を圧縮してランダムアクセス可能な記録手段に記録することで、長時間の画像を記録できるとともに、所望の画像を迅速に再生することができる方法が示されている。
For example,
さらに、特許文献2には、ドライブレコーダ等の画像を運転者等の研修に利用する運行管理装置において、事故画像等の再生時に、走行データが危険水準に達した場合、画像の再生をスロー再生に切り替えることで事故時の状況を把握しやすくする方法が示されている。
Furthermore, in
これらの画像取得において、ステレオ画像を用いて距離情報を取得することは、非常に有効である。例えば、特許文献3には、ステレオカメラで時系列的に撮像した一対の画像を用いて、監視領域内に存在する立体物を抽出し、立体物の3次元的な動きを算出して監視領域内の移動物体を検出する方法が示されている。ただし、特許文献3の目的は、自車の前方の移動物体を検出することで移動物体との衝突を回避することであり、上述したドライブレコーダのように画像を記録することには言及されていない。 In acquiring these images, it is very effective to acquire distance information using a stereo image. For example, in Patent Document 3, a three-dimensional object existing in a monitoring area is extracted using a pair of images captured in a time series by a stereo camera, and a three-dimensional movement of the three-dimensional object is calculated to obtain a monitoring area. A method of detecting a moving object within is shown. However, the purpose of Patent Document 3 is to avoid a collision with a moving object by detecting a moving object in front of the host vehicle, and is mentioned to record an image like the drive recorder described above. Absent.
一方、特許文献4には、走行中の車両の周辺を撮像する撮像装置により得られた画像を記録するようにした車両走行状態記憶装置において、画像内に設けたウインドウ領域に対象物がある場合に、ステレオ測定によりウインドウ毎の距離計算を行い、計算された距離を画像上に表示し、画像情報とともに記憶する方法が示されている。 On the other hand, in Patent Document 4, in a vehicle traveling state storage device that records an image obtained by an imaging device that captures the periphery of a traveling vehicle, there is an object in a window area provided in the image In addition, there is shown a method of performing distance calculation for each window by stereo measurement, displaying the calculated distance on an image, and storing it together with image information.
しかしながら、特許文献4の方法では、記憶されるのは画像上に表示された距離と画像情報との合成画像であり、記憶された合成画像から個々の情報を分離することはできない。また、ウインドウ領域に対象物がある場合の距離と画像情報との合成画像を全て記憶すると、膨大なデータ量となり、記憶時間が制限される、あるいは、記憶装置に非常に大きな容量が要求される。かといって、単純に記憶する画像数を削減すると、情報が欠落し、事故等の万一の場合の状況把握に困難が生じる。 However, in the method of Patent Document 4, what is stored is a composite image of the distance displayed on the image and the image information, and individual information cannot be separated from the stored composite image. Further, if all the composite images of the distance and image information when there is an object in the window area are stored, the amount of data becomes enormous and the storage time is limited or the storage device is required to have a very large capacity. . However, if the number of images to be stored is simply reduced, information is lost and it becomes difficult to grasp the situation in the event of an accident or the like.
本発明は、上記事情に鑑みてなされたもので、状況把握に必要な情報を確保しながら、保存するデータ量を削減したステレオ測定システムおよび動画再生システムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a stereo measurement system and a moving image reproduction system in which the amount of data to be saved is reduced while securing information necessary for grasping the situation.
本発明の目的は、下記構成により達成することができる。 The object of the present invention can be achieved by the following constitution.
1.ステレオ画像の基準画像を撮像する基準カメラと、ステレオ画像の参照画像を撮像する参照カメラとの少なくとも2台のカメラを有するカメラ部と、
前記カメラ部で撮像された画像データを、保存データとして記録する記録部と、
前記カメラ部および前記記録部の動作を制御する制御部とを備え、
車両に搭載されて、前記車両の周辺のステレオ画像を取得するステレオ測定システムにおいて、
前記記録部に記録する前記保存データのフレームレートを決定するフレームレート決定部と、
前記基準画像に、前記フレームレート決定部で決定された第1フレームレートに基づいてデータ量削減処理を施して視認用画像データを生成する視認用画像データ生成部と、
前記基準画像と前記参照画像とから、前記フレームレート決定部で決定された第2フレームレートに基づいて、測定対象の3次元状態を把握するための3次元状態把握画像データを生成する3次元状態把握画像データ生成部とを備え、
前記記録部は、
前記視認用画像データ生成部で生成された前記視認用画像データと、前記3次元状態把握画像データ生成部で生成された前記3次元状態把握画像データとを、前記保存データとして記録することを特徴とするステレオ測定システム。
1. A camera unit having at least two cameras: a standard camera that captures a standard image of a stereo image; and a reference camera that captures a reference image of a stereo image;
A recording unit for recording image data captured by the camera unit as saved data;
A control unit for controlling the operation of the camera unit and the recording unit,
In a stereo measurement system that is mounted on a vehicle and acquires a stereo image around the vehicle,
A frame rate determining unit that determines a frame rate of the stored data to be recorded in the recording unit;
A visual image data generation unit that generates visual image data by performing a data amount reduction process on the reference image based on the first frame rate determined by the frame rate determination unit;
A three-dimensional state for generating three-dimensional state grasping image data for grasping a three-dimensional state of a measurement target from the reference image and the reference image based on the second frame rate determined by the frame rate determining unit A grasp image data generation unit,
The recording unit is
The visual image data generated by the visual image data generating unit and the three-dimensional state grasping image data generated by the three-dimensional state grasping image data generating unit are recorded as the stored data. A stereo measurement system.
2.前記第2フレームレートは、前記第1フレームレートと同じまたは前記第1フレームレートよりも低いレートであり、
前記フレームレート決定部は、前記カメラ部の撮像時における前記車両および前記車両の周辺の状況に依存して、前記第2フレームレートを動的に決定することを特徴とする前記1に記載のステレオ測定システム。
2. The second frame rate is equal to or lower than the first frame rate;
2. The stereo according to 1, wherein the frame rate determination unit dynamically determines the second frame rate depending on a situation of the vehicle and the surroundings of the vehicle at the time of imaging by the camera unit. Measuring system.
3.前記フレームレート決定部は、以下の条件の何れか1つまたは複数の条件の組み合わせに依存して、前記第2フレームレートを動的に決定することを特徴とする前記1または2に記載のステレオ測定システム。 3. 3. The stereo according to 1 or 2, wherein the frame rate determination unit dynamically determines the second frame rate depending on one or a combination of a plurality of conditions described below. Measuring system.
条件
1)前記車両の速度
2)前記車両のハンドルの操作状況
3)前記カメラ部の少なくとも何れか1台のカメラでのオプティカルフローの変化量
4)前記基準カメラと前記参照カメラとの視差の時間的な変化量
4.前記データ量削減処理は、圧縮処理であることを特徴とする前記1から3の何れか1項に記載のステレオ測定システム。
Condition 1) Speed of the vehicle 2) Operation status of the steering wheel of the vehicle 3) Amount of change in optical flow in at least one of the cameras 4) Time of parallax between the reference camera and the reference camera Amount of change 4. 4. The stereo measurement system according to any one of 1 to 3, wherein the data amount reduction process is a compression process.
5.前記データ量削減処理は、画像サイズの縮小処理であることを特徴とする前記1から3の何れか1項に記載のステレオ測定システム。
5. 4. The stereo measurement system according to
6.前記3次元状態把握画像データは、前記第2フレームレートに同期したタイミングで撮像された前記基準画像と前記参照画像との組であることを特徴とする前記1から5の何れか1項に記載のステレオ測定システム。
6). 6. The device according to
7.前記3次元状態把握画像データは、前記測定対象に対する前記基準カメラと前記参照カメラとの視差を示す視差情報を含む画像であることを特徴とする前記1から5の何れか1項に記載のステレオ測定システム。
7). 6. The stereo according to
8.前記3次元状態把握画像データは、前記測定対象の前記視認用画像データの上での位置を示す座標と、前記基準画像と前記参照画像とから演算された距離データとを含む距離画像であることを特徴とする前記1から5の何れか1項に記載のステレオ測定システム。 8). The three-dimensional state grasping image data is a distance image including coordinates indicating a position of the measurement target on the visual image data and distance data calculated from the reference image and the reference image. The stereo measurement system according to any one of 1 to 5, characterized in that:
9.前記3次元状態把握画像データは、前記測定対象の前記視認用画像データの上での位置を示す座標と、前記基準画像と前記参照画像とから演算された3次元座標と、測定対象特定処理に基づいて前記測定対象を特定したモデル画像とを含む3次元画像であることを特徴とする前記1から5の何れか1項に記載のステレオ測定システム。 9. The three-dimensional state grasping image data includes coordinates indicating the position of the measurement target on the visual image data, three-dimensional coordinates calculated from the reference image and the reference image, and measurement target specifying processing. 6. The stereo measurement system according to any one of 1 to 5, wherein the stereo measurement system is a three-dimensional image including a model image that specifies the measurement target based on the three-dimensional image.
10.画像情報表示部と、
3次元情報表示部とを備え、
前記画像情報表示部に、前記1から9の何れか1項に記載のステレオ測定システムで記録された前記視認用画像データを表示し、
前記3次元情報表示部に、前記画像情報表示部に表示された前記視認用画像データに連動して、前記1から9の何れか1項に記載のステレオ測定システムで記録された前記3次元状態把握画像データに基づく3次元情報を表示することを特徴とする動画再生システム。
10. An image information display section;
A three-dimensional information display unit,
The visual image data recorded by the stereo measurement system according to any one of 1 to 9 is displayed on the image information display unit,
The three-dimensional state recorded by the stereo measurement system according to any one of 1 to 9 in conjunction with the visual image data displayed on the image information display unit on the three-dimensional information display unit A moving image reproduction system characterized by displaying three-dimensional information based on grasp image data.
本発明によれば、基準カメラで撮像された基準画像に第1フレームレートに基づいてデータ量削減処理を施して視認用画像データを生成し、基準画像と参照カメラで撮像された参照画像とから第2フレームレートに基づいて3次元状態把握画像データを生成し、視認用画像データと3次元状態把握画像データとを保存データとして保存することで、状況把握に必要な情報を確保しながら、保存するデータ量を削減したステレオ測定システムを提供することができ、視認用画像データに連動して3次元状態把握画像データに基づく3次元情報を表示する動画再生システムを提供することができる。 According to the present invention, the reference image captured by the reference camera is subjected to the data amount reduction process based on the first frame rate to generate the image data for viewing, and the reference image captured from the reference image and the reference image is captured. Generate 3D state grasping image data based on the second frame rate, save the image data for visual recognition and the 3D state grasping image data as saved data, and secure the information necessary for grasping the situation A stereo measurement system that reduces the amount of data to be performed can be provided, and a moving image reproduction system that displays three-dimensional information based on three-dimensional state grasping image data in conjunction with visual image data can be provided.
以下、本発明を図示の実施の形態に基づいて説明するが、本発明は該実施の形態に限らない。なお、図中、同一あるいは同等の部分には同一の番号を付与し、重複する説明は省略する。 Hereinafter, the present invention will be described based on the illustrated embodiment, but the present invention is not limited to the embodiment. In the drawings, the same or equivalent parts are denoted by the same reference numerals, and redundant description is omitted.
最初に、本発明におけるステレオ測定システムの第1の実施の形態の構成について、図1を用いて説明する、図1は、本発明におけるステレオ測定システムの第1の実施の形態の構成を示すブロック図である。 First, the configuration of the first embodiment of the stereo measurement system according to the present invention will be described with reference to FIG. 1. FIG. 1 is a block diagram showing the configuration of the first embodiment of the stereo measurement system according to the present invention. FIG.
図1において、ステレオ測定システム1は、カメラ部11、記録部13、制御部15、センサ部17およびデータ生成部19等で構成されている。
In FIG. 1, the
カメラ部11は、基準カメラ111と参照カメラ112との少なくとも2台のカメラ等で構成されている。基準カメラ111と参照カメラ112とは、所定の基線長Dだけ離して配置され、ステレオ画像から距離情報が取得可能となっている。後述するカメラ制御部151からのカメラ制御信号CCSに同期して、所定のフレームレートFR0で、基準カメラ111からは基準画像Ibが出力され、参照カメラ112からは参照画像Irが出力される。
The
記録部13は、例えばハードディスクや半導体メモリ等で構成され、後述する記録制御部152からの記録制御信号RCSに従って、後述する視認用画像データDsと3次元状態把握画像データDdとを、保存データとして記録する。
The
制御部15は、カメラ制御部151、記録制御部152およびフレームレート決定部153等で構成されている。制御部13の各部は、ハードウェアで構成されてもよいし、マイクロコンピュータとソフトウエアとを用いて、その機能を実現してもよい。
The
カメラ制御部151は、基準カメラ111の撮像動作と参照カメラ112の撮像動作とを同期させるためのカメラ制御信号CCSを出力する。
The
記録制御部152は、後述するフレームレート決定部153で決定されるフレームレートに従って記録制御信号RCSを出力して、記録部13の記録動作を制御する。
The
フレームレート決定部153は、カメラ制御部151からのカメラ制御信号CCSに同期して、所定のフレームレートFR0で基準カメラ111で撮像された基準画像Ibから、視認用画像データDsを生成して記録するための第1フレームレートFR1を決定して、データ生成部19に出力する。
The frame
同様に、フレームレート決定部153は、カメラ制御部151からのカメラ制御信号CCSに同期して所定のフレームレートFR0で基準カメラ111で撮像された基準画像Ibと、同様にして参照カメラ112で撮像された参照画像Irとから、3次元状態把握画像データDdを生成して記録するための第2フレームレートFR2を決定して、データ生成部19に出力する。第1フレームレートFR1および第2フレームレートFR2の決定方法は、図2で詳述する。
Similarly, the frame
センサ部17は、ステレオ測定システム1を搭載した車両(以下、自車と言う)の速度を検知する車速センサ171や、自車のハンドルの操作状況を検知する操舵角センサ172等のセンサで構成されている。車速センサ171の出力である車速信号SS、および操舵角センサ172の出力である操舵角信号HSは、フレームレート決定部153に入力されて、第2フレームレートFR2の決定に反映される。操舵角センサ172の代わりに、加速度センサを用いて、自車の進行方向に垂直な方向の加速度を検出することで、自車のハンドルの操作状況を検知してもよい。
The
データ生成部19は、視認用画像データ生成部191および3次元状態把握画像データ生成部192等で構成される。データ生成部19の各部は、ハードウェアで構成されてもよいし、マイクロコンピュータとソフトウエアとを用いて、その機能を実現してもよい。
The
視認用画像データ生成部191は、基準カメラ111の基準画像Ibを第1フレームレートFR1で間引きした基準間引き画像Ib1に、圧縮処理あるいは画像サイズの縮小等のデータ量削減処理を施して、視認用画像データDsを生成し、記録部13に出力する。視認用画像データ生成部191に入力された基準画像Ibの内、第1フレームレートFR1で間引かれた画像は廃棄される。詳細は図3で後述する。
The visual image
同様に、3次元状態把握画像データ生成部192は、第2フレームレートFR2に同期して撮像された基準カメラ111の基準画像Ibと参照カメラ112の参照画像Irとに3次元処理を施して、3次元状態把握画像データDdを生成し、記録部13に出力する。3次元状態把握画像データ生成部192に入力された基準画像Ibおよび参照画像Irの内、第2フレームレートFR2に同期していない画像は廃棄される。詳細は図4および図5で後述する。
Similarly, the three-dimensional state grasping image
次に、上述した第1の実施の形態における、フレームレート決定部153での第1フレームレートFR1および第2フレームレートFR2の決定方法について、図2を用いて説明する。図2は、フレームレート決定部153の構成を示すブロック図である。
Next, a method for determining the first frame rate FR1 and the second frame rate FR2 in the frame
図2において、フレームレート決定部153は、第1フレームレート決定部1531、第2フレームレート決定部1532、視差変化量演算部1533およびオプティカルフロー変化量演算部1534等で構成される。フレームレート決定部153の各部は、ハードウェアで構成されてもよいし、マイクロコンピュータとソフトウエアとを用いて、その機能を実現してもよい。
In FIG. 2, the frame
第1フレームレート決定部1531は、第1フレームレートFR1を決定する。第1フレームレートFR1は、自車および自車の周辺の状況には依存せずに所定の値に決定され、自車および自車の周辺の状況に変化が生じても変更されない。例えば、基準カメラ111が、所定のフレームレートFR0=30フレーム/秒(以下、fpsと言う)で撮像を行っているとした場合、第1フレームレートFR1がその1/2の15fpsに決定される。これによって、基準カメラ111で撮像された基準画像Ibの2フレームに1フレームが視認用画像データDsの生成に用いられ、残りの1フレームは廃棄される。
The first frame
一方、第2フレームレート決定部1532は、第2フレームレートFR2を決定する。第2フレームレートFR2は、第1フレームレートFR1と同じまたは第1フレームレートFR1よりも低いレートで、自車および自車の周辺の状況に依存して決定され、自車および自車の周辺の状況に変化が生じると、動的に変更される。
On the other hand, the second frame
なお、第2フレームレートFR2は、第1フレームレートFR1よりも高いレートであってもよいが、第1フレームレートFR1と同じまたは第1フレームレートFR1よりも低いレートとすることで、後述するように、状況把握に必要な情報を確保しながら、保存するデータ量を削減することができる。 The second frame rate FR2 may be higher than the first frame rate FR1, but will be described later by setting the same rate as the first frame rate FR1 or lower than the first frame rate FR1. In addition, it is possible to reduce the amount of data to be saved while securing information necessary for grasping the situation.
第2フレームレート決定部1532には、自車の状況を示す、車速センサ171の出力である車速信号SS、および操舵角センサ172の出力である操舵角信号HSが入力される。
The second frame
また、基準画像Ibおよび参照画像Irが視差変化量演算部1533に入力され、視差変化量演算部1533で視差の変化量が演算されて、視差変化量信号Prが第2フレームレート決定部1532に入力される。
Further, the base image Ib and the reference image Ir are input to the parallax change
同様に、基準画像Ibおよび参照画像Irがオプティカルフロー変化量演算部1534に入力され、オプティカルフロー変化量演算部1534でオプティカルフローの変化量が演算されて、オプティカルフロー変化量信号Ofが第2フレームレート決定部1532に入力される。視差変化量信号Prおよびオプティカルフロー変化量信号Ofは、自車の周辺の状況を示す信号である。
Similarly, the base image Ib and the reference image Ir are input to the optical flow change amount calculation unit 1534, the optical flow change amount calculation unit 1534 calculates the change amount of the optical flow, and the optical flow change amount signal Of is generated in the second frame. This is input to the
第2フレームレート決定部1532は、上述した車速信号SS、操舵角信号HS、視差変化量信号Prおよびオプティカルフロー変化量信号Ofの4つの信号の何れか1つまたは複数の信号の組み合わせに基づいて、第2フレームレートFR2を決定し、動的に変更する。
The second frame
ここで、視差変化量信号Prおよびオプティカルフロー変化量信号Ofについて説明する。まず、視差変化量信号Prについて説明する。視差とは、三角測量の原理に基づく、同一の注目する被写体(以下、測定対象Osと言う)が存在する基準画像Ib上と参照画像Ir上との画面上の位置のズレ量のことで、視差は測定対象Osとの距離の逆数に比例し、視差が大きいほど測定対象Osとの距離が近く、視差が小さいほど遠い。 Here, the parallax change amount signal Pr and the optical flow change amount signal Of will be described. First, the parallax change amount signal Pr will be described. The parallax is a shift amount of the position on the screen between the reference image Ir and the reference image Ir where the same subject of interest (hereinafter referred to as the measurement target Os) exists based on the principle of triangulation. The parallax is proportional to the reciprocal of the distance to the measuring object Os, and the larger the parallax is, the closer the distance to the measuring object Os is, and the smaller the parallax is, the farther it is.
基準カメラ111と参照カメラ112との基線長D、基準カメラ111および参照カメラ112の撮像レンズの焦点距離、および視差の値から、測定対象Osまでの距離を演算することができる。
The distance to the measurement target Os can be calculated from the base line length D between the
視差変化量とは上述した視差の時間的な変化量で、視差の変化が0(ゼロ)または小さい場合は、測定対象Osとの距離に変化がないか変化が小さい。視差が大きくなる方向に変化している場合は測定対象Osとの距離が近くなっており、視差が小さくなる方向に変化している場合は測定対象Osとの距離が遠くなっている。 The parallax change amount is a temporal change amount of the above-described parallax. When the parallax change is 0 (zero) or small, there is no change in the distance from the measurement target Os or the change is small. When the parallax changes in the direction in which the parallax increases, the distance to the measurement target Os is short, and when the parallax changes in the direction in which the parallax decreases, the distance from the measurement target Os is long.
従って、視差の変化が0(ゼロ)または小さい、あるいは視差が小さくなる方向に変化している場合は、測定対象Os、即ち前方の車両や人、障害物等までの距離が変わらない、あるいは遠ざかっている、つまり測定対象Osへの衝突の可能性は低いということになる。逆に、視差が大きくなる方向に変化している場合は、測定対象Osまでの距離が近づいている、つまり測定対象Osへの衝突の危険が迫っているということになる。このように、視差変化量信号Prを用いることで、自車と測定対象Osとの距離の変化を知ることができる。 Therefore, when the change in parallax is 0 (zero) or small, or when the parallax changes in the direction in which the parallax decreases, the distance to the measurement target Os, that is, the vehicle, the person in front, the obstacle, or the like does not change or stays away. That is, the possibility of a collision with the measuring object Os is low. On the other hand, when the parallax changes in the increasing direction, the distance to the measurement target Os is approaching, that is, the danger of a collision with the measurement target Os is imminent. Thus, by using the parallax change amount signal Pr, it is possible to know a change in the distance between the host vehicle and the measurement target Os.
次に、オプティカルフロー変化量信号Ofについて説明する。オプティカルフローとは、撮像された画像の中で測定対象Osの位置が時間的にどう変化したかを示すベクトルのことを言う。ステレオ画像を用いて前方の車両等の測定対象Osのオプティカルフローを演算することで、3次元オプティカルフローを得ることができ、3次元オプティカルフローの延長線と自車の進行方向とが交差する場合には、衝突の危険性があると判断できる。 Next, the optical flow change amount signal Of will be described. The optical flow refers to a vector that indicates how the position of the measurement target Os changes in the captured image. When the stereo flow is used to calculate the optical flow of the measurement object Os such as the vehicle ahead, a three-dimensional optical flow can be obtained, and the extension line of the three-dimensional optical flow and the traveling direction of the host vehicle intersect It can be determined that there is a risk of collision.
従って、3次元オプティカルフローを用いることで、上述した視差変化量が示す測定対象Osとの距離のような自車の進行方向の変化だけでなく、例えば横の車線からの割り込みのような自車の進行方向に垂直な方向の変化を含む自車の周辺の状況の変化についても検出が可能となり、自車の周辺の状況の変化をより反映することができる。 Therefore, by using the three-dimensional optical flow, not only the change in the traveling direction of the vehicle such as the distance to the measurement target Os indicated by the above-described amount of parallax change but also the vehicle such as an interruption from the side lane, for example. It is also possible to detect a change in the situation around the vehicle including a change in the direction perpendicular to the traveling direction of the vehicle, and the change in the situation around the vehicle can be more reflected.
第2フレームレート決定部1532に戻って、第2フレームレート決定部1532は、上述した車速信号SS、操舵角信号HS、視差変化量信号Prおよびオプティカルフロー変化量信号Ofの4つの信号の何れか1つまたは複数の信号の組み合わせに基づいて、第2フレームレートFR2を決定し、動的に変更する。
Returning to the second frame
ここでは、自車および自車の周辺の状況を、通常状態CS1と要記録状態CS2との2つの状態に分類し、それぞれの状態で第2フレームレートFR2を決定する。 Here, the host vehicle and the surroundings of the host vehicle are classified into two states, a normal state CS1 and a recording-required state CS2, and the second frame rate FR2 is determined in each state.
(通常状態CS1)
車速信号SS:定速走行あるいは所定範囲内の加減速
操舵角信号HS:直進あるいは所定範囲内の操舵角
視差変化量信号Pr:0(ゼロ)または小さい、あるいは視差が小さくなる方向に変化
オプティカルフロー変化量信号Of:衝突の危険性なし
以上の4条件を全て満足している場合には、衝突の危険性は低いと判断し、第2フレームレートFR2を低レートに設定する。例えば、基準カメラ111および参照カメラ112がFR0=30fpsで撮像を行っており、第1フレームレートFR1=15fpsの場合、第2フレームレートFR2をその1/2の7.5fpsに設定する。これによって、基準画像Ibおよび参照画像Irの4フレームに1フレームが3次元状態把握画像データDdの生成に用いられ、残りの3フレームは廃棄される。
(Normal state CS1)
Vehicle speed signal SS: Running at a constant speed or acceleration / deceleration within a predetermined range Steering angle signal HS: Straight ahead or steering angle within a predetermined range Parallax change amount signal Pr: 0 (zero) or smaller, or changing in a direction in which parallax is reduced Optical flow Change amount signal Of: No risk of collision When all the above four conditions are satisfied, it is determined that the risk of collision is low, and the second frame rate FR2 is set to a low rate. For example, if the
(要記録状態CS2)
車速信号SS:所定範囲を越える加減速
操舵角信号HS:所定範囲を越える操舵角
視差変化量信号Pr:視差が大きくなる方向に変化
オプティカルフロー変化量信号Of:衝突の危険性あり
以上の4条件の内の1つでも当てはまる場合には、衝突の危険性があると判断し、第2フレームレートFR2を高レートに設定する。例えば、基準カメラ111および参照カメラ112がFR0=30fpsで撮像を行っており、第1フレームレートFR1=15fpsの場合、第2フレームレートFR2を第1フレームレートFR1と同じ15fpsに設定する。これによって、視認用画像データDsと同様に、基準画像Ibおよび参照画像Irの2フレームに1フレームが3次元状態把握画像データDdの生成に用いられ、残りの1フレームは廃棄される。
(Recording status required CS2)
Vehicle speed signal SS: Acceleration / deceleration exceeding a predetermined range Steering angle signal HS: Steering angle exceeding a predetermined range Parallax change amount signal Pr: Change in the direction of increasing parallax Optical flow change amount signal Of: Risk of collision The above four conditions If one of the above applies, it is determined that there is a risk of collision, and the second frame rate FR2 is set to a high rate. For example, when the
なお、上述した自車および自車の周辺の状況の判定には、車速信号SS、操舵角信号HS、視差変化量信号Prおよびオプティカルフロー変化量信号Ofの4つの信号全てを用いることが望ましいが、4つの信号の何れか1つまたは複数の組み合わせを用いることも可能である。例えば車速信号SSのみを用いて、車速信号SSが定速走行あるいは所定範囲内の加減速を示している場合は通常状態CS1と判定し、所定範囲を越える加減速を示している場合は要記録状態CS2と判定することもできる。 It should be noted that it is desirable to use all four signals of the vehicle and the surroundings of the vehicle described above, the vehicle speed signal SS, the steering angle signal HS, the parallax change amount signal Pr, and the optical flow change amount signal Of. It is also possible to use any one or a combination of four signals. For example, if only the vehicle speed signal SS is used and the vehicle speed signal SS indicates constant speed running or acceleration / deceleration within a predetermined range, it is determined as the normal state CS1, and if it indicates acceleration / deceleration exceeding the predetermined range, recording is required. It can also be determined that the state is CS2.
次に、データ生成部19の視認用画像データ生成部191での視認用画像データDsの生成方法について、図3を用いて説明する。図3は、視認用画像データ生成部191の構成と動作を示す模式図で、図3(a)は視認用画像データ生成部191の構成を示すブロック図、図3(b)は視認用画像データDsの生成過程を示す模式図である。
Next, a method for generating the visual image data Ds in the visual image
図3(a)において、視認用画像データ生成部191は、間引き部1911およびデータ量削減処理部1912等で構成される。視認用画像データ生成部191の各部は、ハードウェアで構成されてもよいし、マイクロコンピュータとソフトウエアとを用いて、その機能を実現してもよい。
In FIG. 3A, the visual image
基準カメラ111で所定のフレームレートFR0(例えば30fps)で撮像された基準画像Ibが、間引き部1911に入力される。間引き部1911は、フレームレート決定部153で決定された第1フレームレートFR1(例えば15fps)に従って基準画像Ibを間引きして基準間引き画像Ib1を生成し、出力する。基準間引き画像Ib1の生成に用いられなかったフレームの画像は廃棄される。
A reference image Ib captured by the
基準間引き画像Ib1は、データ量削減処理部1912でデータ量削減処理が施されて、視認用画像データ生成部191から視認用画像データDsとして出力される。データ量削減処理としては、例えば画像の圧縮処理や、画像サイズの縮小処理、あるいは画像の圧縮処理と画像サイズの縮小処理との両方等が考えられる。
The reference thinned image Ib1 is subjected to data amount reduction processing by the data amount
視認用画像データDsは、撮像時の自車の周辺状況の把握に必要最低限の情報が得られればよいので、圧縮率あるいは縮小率を高くして、視認用画像データDsのデータ量の削減率を高くすることができる。 The visual image data Ds only needs to obtain the minimum information necessary for grasping the surrounding situation of the host vehicle at the time of imaging. Therefore, the compression rate or the reduction rate is increased to reduce the data amount of the visual image data Ds. The rate can be increased.
次に、視認用画像データDsの生成過程について、図3(b)を用いて説明する。なお、図3(b)では、図の左から右に示した時間軸tに従って、時系列的に撮像が進行しているものとする。また、第1フレームレートFR1は所定のフレームレートFR0の1/2に設定されるものとする。さらに、破線で示した画像は、間引き部1911での間引きの結果、廃棄された画像を示している。
Next, the generation process of the visual image data Ds will be described with reference to FIG. In FIG. 3B, it is assumed that imaging is progressing in time series along the time axis t shown from the left to the right in the figure. Further, the first frame rate FR1 is set to ½ of the predetermined frame rate FR0. Furthermore, an image indicated by a broken line indicates an image discarded as a result of thinning by the thinning
図3(b)において、基準カメラ111からは、所定のフレームレートFR0で基準画像Ibが出力されている。基準画像Ibは、間引き部1911で第1フレームレートFR1で間引きされて、基準間引き画像Ib1が生成され、データ量削減処理部1912で圧縮処理や画像サイズの縮小処理等のデータ量削減処理が施されて、視認用画像データDsとして記録部13に記録される。
In FIG. 3B, the
次に、データ生成部19の3次元状態把握画像データ生成部192での3次元状態把握画像データDdの生成方法について、図4および図5を用いて説明する。図4は、3次元状態把握画像データ生成部192の構成を示すブロック図であり、図5は、3次元状態把握画像データDdの生成方法を示す模式図である。
Next, a method for generating the three-dimensional state grasping image data Dd in the three-dimensional state grasping image
図4において、3次元状態把握画像データ生成部192は、画像選択部1921、視差計算部1922、3次元座標計算部1923および測定対象特定処理部1924等で構成される。3次元状態把握画像データ生成部192の各部は、ハードウェアで構成されてもよいし、マイクロコンピュータとソフトウエアとを用いて、その機能を実現してもよい。
In FIG. 4, the three-dimensional state grasping image
基準カメラ111で所定のフレームレートFR0(例えば30fps)で撮像された基準画像Ibと、参照カメラ112で所定のフレームレートFR0で撮像された参照画像Irとが、画像選択部1921に入力される。
A reference image Ib captured at a predetermined frame rate FR0 (for example, 30 fps) by the
画像選択部1921は、入力された基準画像Ibおよび参照画像Irの内で、フレームレート決定部153で決定された第2フレームレートFR2(例えば7.5fpsあるいは15fps)に同期して撮像された基準画像Ibと参照画像Irとの組を、選択基準画像Ib2と選択参照画像Ir1との組として、視差計算部1922に向けて出力する。画像選択部1921に入力された基準画像Ibおよび参照画像Irの内、第2フレームレートFR2に同期していない画像は廃棄される。
The
視差計算部1922は、入力された選択基準画像Ib2と選択参照画像Ir1との組から、上述したフレームレート決定部153の視差変化量演算部1533と同様にして、前方の車両や障害物、人等の測定対象Osまでの距離を示す視差信号Psを計算し、3次元座標計算部1923に向けて出力する。視差計算部1922と視差変化量演算部1533とを兼用あるいは部分的に兼用してもよい。
The
3次元座標計算部1923は、入力された視差信号Psと、選択基準画像Ib2と選択参照画像Ir1との組とから、測定対象Osの存在する位置を示す視認用画像データDs上の位置座標と、測定対象Osまでの距離とを示す3次元座標信号Csを計算し、測定対象特定処理部1924に向けて出力する。視認用画像データDsは、基準画像Ibに間引き処理とデータ量削減処理を施した画像データであるから、視認用画像データDs上の測定対象Osの位置座標は、選択基準画像Ib2上の測定対象Osの位置座標から簡単に求めることができる。
The three-dimensional coordinate
測定対象特定処理部1924は、3次元座標計算部1923で計算された測定対象Osの視認用画像データDs上の位置座標と距離とを示す3次元座標信号Csに基づいて、測定対象Osを特定し、特定した測定対象Osをモデル化して表現した測定対象特定画像Iosを生成し、選択基準画像Ib2と選択参照画像Ir1との組とともに、3次元状態把握画像データDdとして出力する。モデル化の具体例は図7で詳述する。
The measurement target
なお、図4の例では、3次元状態把握画像データDdとして、測定対象特定画像Iosと選択基準画像Ib2と選択参照画像Ir1との組とを出力する例を示したが、3次元状態把握画像データ生成部192の処理能力の制約等から、測定対象特定画像Iosの生成までの処理を行えない場合等には、可能な範囲で上述した3次元状態把握画像データ生成部192の各部の処理を行い、その出力を3次元状態把握画像データDdとして出力してもよい。
In the example of FIG. 4, an example in which a set of the measurement target specifying image Ios, the selection reference image Ib2, and the selection reference image Ir1 is output as the three-dimensional state grasping image data Dd is shown. When the processing up to the generation of the measurement target specific image Ios cannot be performed due to the limitation of the processing capability of the
例えば、画像選択部1921の出力である選択基準画像Ib2と選択参照画像Ir1との組を3次元状態把握画像データDdとして出力してもよいし、視差計算部1922の出力である視差信号Psと、選択基準画像Ib2と選択参照画像Ir1との組とを3次元状態把握画像データDdとして出力してもよい。また、3次元座標計算部1923の出力である測定対象Osの視認用画像データDs上の位置座標と距離とを示す3次元座標信号Csと、選択基準画像Ib2と選択参照画像Ir1との組とを3次元状態把握画像データDdとして出力してもよい。
For example, a set of the selection reference image Ib2 and the selection reference image Ir1 that are the output of the
次に、3次元状態把握画像データDdの生成方法について、図5を用いて説明する。図5は、上述した通常状態CS1から要記録状態CS2を経て再度通常状態CS1に戻る場合の3次元状態把握画像データDdとの形成過程を示す。 Next, a method for generating the three-dimensional state grasping image data Dd will be described with reference to FIG. FIG. 5 shows a process of forming the three-dimensional state grasping image data Dd when returning from the normal state CS1 to the normal state CS1 again through the recording required state CS2.
なお、図5および後述する図6では、図の左から右に示した時間軸tに従って、時系列的に撮像が進行しているものとする。また、第1フレームレートFR1は所定のフレームレートFR0の1/2に、第2フレームレートFR2は、通常状態CS1では第1フレームレートFR1の1/2に、要記録状態CS2では第1フレームレートFR1に等しく設定されるものとする。さらに、破線で示した画像は、画像選択部1921で廃棄された画像を示している。
In FIG. 5 and FIG. 6 described later, it is assumed that imaging is progressing in time series according to the time axis t shown from the left to the right in the drawing. The first frame rate FR1 is 1/2 of the predetermined frame rate FR0, the second frame rate FR2 is 1/2 of the first frame rate FR1 in the normal state CS1, and the first frame rate in the recording required state CS2. It shall be set equal to FR1. Furthermore, an image indicated by a broken line indicates an image discarded by the
図5において、時間t1のタイミングまでは、上述した通常状態CS1である。この状態では、所定のフレームレートFR0(例えば30fps)で撮像された基準カメラ111の基準画像Ibと参照カメラ112の参照画像Irとの組の内で、通常状態CS1での低レートの第2フレームレートFR2(例えば7.5fps)に同期して撮像された画像の組が選択基準画像Ib2と選択参照画像Ir1との組として選択される。
In FIG. 5, until the timing of time t1, it is the normal state CS1 described above. In this state, the second frame of the low rate in the normal state CS1 in the set of the reference image Ib of the
選択された選択基準画像Ib2と選択参照画像Ir1との組に、上述した視差計算部1922、3次元座標計算部1923および測定対象特定処理部1924の各部での処理が施され、3次元状態把握画像データDdが出力されて、通常状態CS1での低レートの第2フレームレートFR2で記録される。
The combination of the selected selection reference image Ib2 and the selected reference image Ir1 is subjected to processing in each of the
時間t1のタイミングで、上述した車速信号SS、操舵角信号HS、視差変化量信号Prおよびオプティカルフロー変化量信号Ofの4つの信号の何れか1つが要記録状態CS2の判定条件に当てはまったために、自車および自車の周辺の状況を示す状態が、通常状態CS1から要記録状態CS2に切り替えられる。 At the timing of time t1, any one of the four signals, the vehicle speed signal SS, the steering angle signal HS, the parallax change amount signal Pr, and the optical flow change amount signal Of described above, meets the determination condition for the recording state CS2. The state indicating the host vehicle and the surroundings of the host vehicle is switched from the normal state CS1 to the recording required state CS2.
この状態では、所定のフレームレートFR0(例えば30fps)で撮像された基準カメラ111の基準画像Ibと参照カメラ112の参照画像Irとの組の内で、要記録状態CS2での高レートの第2フレームレートFR2(例えば15fps)に同期して撮像された画像の組が選択基準画像Ib2と選択参照画像Ir1との組として選択される。
In this state, the second high-rate signal in the recording-required state CS2 in the set of the reference image Ib of the
選択された選択基準画像Ib2と選択参照画像Ir1との組に、上述した視差計算部1922、3次元座標計算部1923および測定対象特定処理部1924の各部での処理が施され、3次元状態把握画像データDdが出力されて、要記録状態CS2での高レートの第2フレームレートFR2で記録される。
The combination of the selected selection reference image Ib2 and the selected reference image Ir1 is subjected to processing in each of the
この状態は時間t2まで継続され、その間は3次元状態把握画像データDdが高レートの第2フレームレートFR2で記録され続ける。従って、もし追突事故等が発生した場合、第1フレームレートFR1で記録された視認用画像データDsと、要記録状態CS2での高レートの第2フレームレートFR2(ここでは第1フレームレートFR1に等しい)で記録された3次元状態把握画像データDdとに基づいて、より精度の高い事故原因の解析等を行うことができる。 This state continues until time t2, during which the three-dimensional state grasping image data Dd continues to be recorded at the high second frame rate FR2. Therefore, if a rear-end collision or the like occurs, the visual image data Ds recorded at the first frame rate FR1 and the high-rate second frame rate FR2 in the recording-required state CS2 (here, the first frame rate FR1). And the like, the cause of the accident can be analyzed with higher accuracy.
時間t2のタイミングで、上述した4つの信号が全て通常状態CS1の条件に戻ったために、要記録状態CS2の状態から、再度通常状態CS1の状態に戻り、通常状態CS1での低レートの第2フレームレートFR2で3次元状態把握画像データDdの記録が行われる。 Since all the four signals described above have returned to the condition of the normal state CS1 at the timing of the time t2, the state returns to the normal state CS1 again from the state of the required recording state CS2, and the second low-rate second signal in the normal state CS1. The three-dimensional state grasping image data Dd is recorded at the frame rate FR2.
なお、上述した通常状態CS1から要記録状態CS2を経て再度通常状態CS1に戻る全ての状態において、図3(b)に示したように、基準画像Ibから生成された視認用画像データDsの記録部13への記録も行われている。
In all the states that return from the normal state CS1 to the normal state CS1 through the recording-required state CS2 as described above, as shown in FIG. 3B, the visual image data Ds generated from the reference image Ib is recorded. Recording to the
上述したように、第1の実施の形態によれば、自車および自車の周辺の状況を示す、車速信号SS、操舵角信号HS、視差変化量信号Prおよびオプティカルフロー変化量信号Ofの4つの信号に基づいて、3次元状態把握画像データDdを記録する第2フレームレートFR2を動的に決定して、衝突の危険がある場合等に3次元状態把握画像データDdを高フレームレートで生成して記録することで、より精度の高い事故原因の解析等に繋げることができるとともに、それ以外の場合には、3次元状態把握画像データDdを低フレームレートで生成して記録することにより、記録時間の延長が図れ、ハードディスクや半導体メモリ等の記録媒体の小容量化が図れ、装置の小型化、低コスト化が図れる。 As described above, according to the first embodiment, the vehicle speed signal SS, the steering angle signal HS, the parallax change amount signal Pr, and the optical flow change amount signal Of indicating the host vehicle and the surrounding conditions of the host vehicle are displayed. Based on the two signals, the second frame rate FR2 for recording the three-dimensional state grasping image data Dd is dynamically determined, and the three-dimensional state grasping image data Dd is generated at a high frame rate when there is a risk of collision. In this case, it can be connected to a more accurate analysis of the cause of the accident, and in other cases, by generating and recording the three-dimensional state grasping image data Dd at a low frame rate, The recording time can be extended, the capacity of a recording medium such as a hard disk or a semiconductor memory can be reduced, and the apparatus can be reduced in size and cost.
次に、ステレオ測定システムの第2の実施の形態について、図6を用いて説明する。第2の実施の形態では、第1の実施の形態とは異なり、自車および自車の周辺の状況が通常状態CS1にある場合には3次元状態把握画像データDdの生成および記録を行わず、要記録状態CS2の場合のみ、3次元状態把握画像データDdの生成と記録部13への記録とを行う。
Next, a second embodiment of the stereo measurement system will be described with reference to FIG. Unlike the first embodiment, the second embodiment does not generate and record the three-dimensional state grasping image data Dd when the vehicle and the surroundings of the vehicle are in the normal state CS1. Only when the recording state CS2 is required, the three-dimensional state grasping image data Dd is generated and recorded in the
この時の3次元状態把握画像データDdの形成過程を、図6に示す。図6は、第2の実施の形態における3次元状態把握画像データDdの生成方法を示す模式図で、図5と同様の、通常状態CS1から要記録状態CS2を経て再度通常状態CS1に戻る場合の3次元状態把握画像データDdの形成過程を示す。 The formation process of the three-dimensional state grasping image data Dd at this time is shown in FIG. FIG. 6 is a schematic diagram showing a method for generating the three-dimensional state grasping image data Dd in the second embodiment. Similar to FIG. 5, the normal state CS1 returns to the normal state CS1 again through the recording required state CS2. The process of forming the three-dimensional state grasping image data Dd is shown.
図6において、時間t1のタイミングまでは、上述した通常状態CS1であり、基準カメラ111は所定のフレームレートFR0で基準画像Ibの撮像を行い、参照カメラ112も所定のフレームレートFR0で参照画像Irの撮像を行っているが、3次元状態把握画像データDdの生成と記録は行っていない。
In FIG. 6, until the timing of time t1, the normal state CS1 is described above, the
時間t1のタイミングで、上述した車速信号SS、操舵角信号HS、視差変化量信号Prおよびオプティカルフロー変化量信号Ofの4つの信号の何れか1つが要記録状態CS2の判定条件に当てはまったために、上述した通常状態CS1の状態から要記録状態CS2の状態に切り替えられる。 At the timing of time t1, any one of the four signals, the vehicle speed signal SS, the steering angle signal HS, the parallax change amount signal Pr, and the optical flow change amount signal Of described above, meets the determination condition for the recording state CS2. The state is switched from the normal state CS1 to the recording required state CS2.
この状態では、所定のフレームレートFR0(例えば30fps)で撮像された基準カメラ111の基準画像Ibと参照カメラ112の参照画像Irとの組の内で、要記録状態CS2での高レートの第2フレームレートFR2(例えば15fps)に同期して撮像された画像の組が選択基準画像Ib2と選択参照画像Ir1との組として選択される。
In this state, the second high-rate signal in the recording-required state CS2 in the set of the reference image Ib of the
選択された選択基準画像Ib2と選択参照画像Ir1との組に、上述した視差計算部1922、3次元座標計算部1923および測定対象特定処理部1924の各部での処理が施され、3次元状態把握画像データDdが出力されて、要記録状態CS2での高レートの第2フレームレートFR2で記録される。
The combination of the selected selection reference image Ib2 and the selected reference image Ir1 is subjected to processing in each of the
この状態は時間t2まで継続され、その間は3次元状態把握画像データDdが高レートの第2フレームレートFR2で記録され続ける。従って、もし追突事故等が発生した場合、第1フレームレートFR1で記録された視認用画像データDsと、要記録状態CS2での高レートの第2フレームレートFR2(ここでは第1フレームレートFR1に等しい)で記録された3次元状態把握画像データDdとに基づいて、より精度の高い事故原因の解析等を行うことができる。 This state continues until time t2, during which the three-dimensional state grasping image data Dd continues to be recorded at the high second frame rate FR2. Therefore, if a rear-end collision or the like occurs, the visual image data Ds recorded at the first frame rate FR1 and the high-rate second frame rate FR2 in the recording-required state CS2 (here, the first frame rate FR1). And the like, the cause of the accident can be analyzed with higher accuracy.
時間t2のタイミングで、上述した4つの信号が全て通常状態CS1の条件に戻ったために、要記録状態CS2の状態から、再度通常状態CS1の状態に戻り、基準カメラ111も参照カメラ112も、撮像は行うが3次元状態把握画像データDdの生成および記録は行わない状態となる。
Since all the four signals described above have returned to the condition of the normal state CS1 at the timing of time t2, the state returns to the normal state CS1 again from the state of the recording required state CS2, and the
なお、上述した通常状態CS1から要記録状態CS2を経て再度通常状態CS1に戻る全ての状態において、図3(b)に示したように、基準画像Ibから生成された視認用画像データDsの記録部13への記録も行われている。
In all the states that return from the normal state CS1 to the normal state CS1 through the recording-required state CS2 as described above, as shown in FIG. 3B, the visual image data Ds generated from the reference image Ib is recorded. Recording to the
上述したように、第2の実施の形態によれば、自車および自車の周辺の状況を示す、車速信号、操舵角信号、視差変化量信号およびオプティカルフロー変化量信号の4つの信号に基づいて、3次元状態把握画像データを記録する第2フレームレートを動的に決定して、衝突の危険がある場合等のみに3次元状態把握画像データを高フレームレートで生成し記録することで、より精度の高い事故原因の解析等に繋げることができるとともに、危険のない場合には3次元状態把握画像データの生成および記録を行わないことで、記録時間の延長が図れ、ハードディスクや半導体メモリ等の記録媒体の小容量化が図れ、装置の小型化、低コスト化が図れる。 As described above, according to the second embodiment, based on the four signals of the vehicle and the surroundings of the vehicle, the vehicle speed signal, the steering angle signal, the parallax change amount signal, and the optical flow change amount signal. By dynamically determining the second frame rate for recording the three-dimensional state grasping image data, and generating and recording the three-dimensional state grasping image data at a high frame rate only when there is a risk of collision, This can lead to more accurate analysis of the cause of the accident, etc., and if there is no danger, the generation and recording of the 3D state grasping image data is not performed, so the recording time can be extended, and the hard disk, semiconductor memory, etc. Therefore, the capacity of the recording medium can be reduced, and the size and cost of the apparatus can be reduced.
次に、本発明における動画再生システムについて、図7を用いて説明する。図7は、本発明における動画再生システム2を示す模式図で、図7(a)は第1の表示例を、図7(b)は第2の表示例を示す。
Next, the moving image reproduction system according to the present invention will be described with reference to FIG. FIG. 7 is a schematic diagram showing the moving
図7(a)および(b)において、動画再生システム2は、画像情報表示部21、3次元情報表示部23および再生制御部25等で構成される。
7A and 7B, the moving
画像情報表示部21は、再生制御部25に連動して、ステレオ測定システム1の記録部13に記録された視認用画像データDsを再生表示する。
The image
3次元情報表示部23は、画像情報表示部21に表示された視認用画像データDsに連動して、ステレオ測定システム1の記録部13に記録された3次元状態把握画像データDdに基づく3次元情報を再生表示する。
The three-dimensional
再生制御部25は、再生釦251およびスライダ253等で構成されている。再生釦251が押されることで、図3(b)の時間軸tに従って、視認用画像データDsが順次画像情報表示部21に再生表示される。またスライダ253を図の左右にスライドさせることで、時間軸tの任意の時間の視認用画像データDsを、画像情報表示部21に再生表示することもできる。
The
図7(a)の第1の表示例では、測定対象Osに関する3次元情報の内、画像情報表示部21に再生表示されている視認用画像データDsの撮像タイミングから所定フレーム数前までのフレームにある3次元状態把握画像データDdに基づく3次元情報のみが、3次元情報表示部23に表示される。撮像タイミングから所定フレーム数前までのフレームに、3次元状態把握画像データDdに基づく3次元情報が存在しない場合は、3次元情報表示部23には何も表示しない。
In the first display example of FIG. 7A, frames from the imaging timing of the visual image data Ds reproduced and displayed on the image
図7(b)の第2の表示例では、3次元状態把握画像データDdに基づく測定対象Osに関する3次元情報の全てが3次元情報表示部23に表示される。そして、画像情報表示部21に再生表示されている視認用画像データDsの撮像タイミングから所定フレーム数前までのフレームにある3次元状態把握画像データDdに基づく3次元情報が、測定対象Osをモデル化して表現した測定対象特定画像Ios(ここでは、破線で表示された直方体)を用いて強調表示される。撮像タイミングから所定フレーム数前までのフレームに、3次元状態把握画像データDdに基づく3次元情報が存在しない場合は、上述した測定対象特定画像Iosによる強調表示は行わない。
In the second display example of FIG. 7B, all of the three-dimensional information related to the measurement target Os based on the three-dimensional state grasping image data Dd is displayed on the three-dimensional
上述したように、本発明における動画再生システムによれば、画像情報表示部に再生表示された視認用画像データに連動して、3次元情報表示部に3次元状態把握画像データに基づく3次元情報を再生表示することで、データ量を削減した保存データを用いても、状況把握に必要な情報が確保され、衝突等の場合に、より精度の高い事故原因の解析等に繋げることができる動画再生システムを提供することができる。 As described above, according to the moving image reproduction system of the present invention, the three-dimensional information based on the three-dimensional state grasping image data is displayed on the three-dimensional information display unit in conjunction with the visual image data reproduced and displayed on the image information display unit. By playing and displaying the video, even if you use saved data with reduced data volume, the information necessary for grasping the situation is secured, and in the event of a collision, a video that can lead to more accurate analysis of the cause of the accident, etc. A playback system can be provided.
以上に述べたように、本発明によれば、基準カメラで撮像された基準画像に第1フレームレートに基づいてデータ量削減処理を施して視認用画像データを生成し、基準画像と参照カメラで撮像された参照画像とから第2フレームレートに基づいて3次元状態把握画像データを生成し、視認用画像データと3次元状態把握画像データとを保存データとして保存することで、状況把握に必要な情報を確保しながら、保存するデータ量を削減したステレオ測定システムを提供することができ、視認用画像データに連動して3次元状態把握画像データに基づく3次元情報を表示する動画再生システムを提供することができる。 As described above, according to the present invention, the reference image captured by the reference camera is subjected to the data amount reduction process based on the first frame rate to generate the image data for viewing, and the reference image and the reference camera are used. 3D state grasping image data is generated from the captured reference image based on the second frame rate, and the viewing image data and the 3D state grasping image data are stored as saved data, which is necessary for grasping the situation. Provides a stereo measurement system that reduces the amount of data to be saved while ensuring information, and provides a video playback system that displays 3D information based on 3D state grasping image data in conjunction with visual image data can do.
なお、本発明に係るステレオ測定システムおよび動画再生システムを構成する各構成の細部構成および細部動作に関しては、本発明の趣旨を逸脱することのない範囲で適宜変更可能である。 It should be noted that the detailed configuration and detailed operation of each component constituting the stereo measurement system and the moving image reproduction system according to the present invention can be changed as appropriate without departing from the spirit of the present invention.
1 ステレオ測定システム
11 カメラ部
111 基準カメラ
112 参照カメラ
13 記録部
15 制御部
151 カメラ制御部
152 記録制御部
153 フレームレート決定部
1531 第1フレームレート決定部
1532 第2フレームレート決定部
1533 視差変化量演算部
1534 オプティカルフロー変化量演算部
17 センサ部
171 車速センサ
172 操舵角センサ
19 データ生成部
191 視認用画像データ生成部
1911 間引き部
1912 データ量削減処理部
192 3次元状態把握画像データ生成部
1921 画像選択部
1922 視差計算部
1923 3次元座標計算部
1924 測定対象特定処理部
2 動画再生システム
21 画像情報表示部
23 3次元情報表示部
25 再生制御部
251 再生釦
253 スライダ
CCS カメラ制御信号
Cs 3次元座標信号
CS1 通常状態
CS2 要記録状態
D 基線長
Dd 3次元状態把握画像データ
Ds 視認用画像データ
FR0 所定のフレームレート
FR1 第1フレームレート
FR2 第2フレームレート
HS 操舵角信号
Ib 基準画像
Ib1 基準間引き画像
Ib2 選択基準画像
Ios 測定対象特定画像
Ir 参照画像
Ir1 選択参照画像
Of オプティカルフロー変化量信号
Os 測定対象
Pr 視差変化量信号
Ps 視差信号
SS 車速信号
DESCRIPTION OF
Claims (10)
前記カメラ部で撮像された画像データを、保存データとして記録する記録部と、
前記カメラ部および前記記録部の動作を制御する制御部とを備え、
車両に搭載されて、前記車両の周辺のステレオ画像を取得するステレオ測定システムにおいて、
前記記録部に記録する前記保存データのフレームレートを決定するフレームレート決定部と、
前記基準画像に、前記フレームレート決定部で決定された第1フレームレートに基づいてデータ量削減処理を施して視認用画像データを生成する視認用画像データ生成部と、
前記基準画像と前記参照画像とから、前記フレームレート決定部で決定された第2フレームレートに基づいて、測定対象の3次元状態を把握するための3次元状態把握画像データを生成する3次元状態把握画像データ生成部とを備え、
前記記録部は、
前記視認用画像データ生成部で生成された前記視認用画像データと、前記3次元状態把握画像データ生成部で生成された前記3次元状態把握画像データとを、前記保存データとして記録することを特徴とするステレオ測定システム。 A camera unit having at least two cameras: a standard camera that captures a standard image of a stereo image; and a reference camera that captures a reference image of a stereo image;
A recording unit for recording image data captured by the camera unit as saved data;
A control unit for controlling the operation of the camera unit and the recording unit,
In a stereo measurement system that is mounted on a vehicle and acquires a stereo image around the vehicle,
A frame rate determining unit that determines a frame rate of the stored data to be recorded in the recording unit;
A visual image data generation unit that generates visual image data by performing a data amount reduction process on the reference image based on the first frame rate determined by the frame rate determination unit;
A three-dimensional state for generating three-dimensional state grasping image data for grasping a three-dimensional state of a measurement target from the reference image and the reference image based on the second frame rate determined by the frame rate determining unit A grasp image data generation unit,
The recording unit is
The visual image data generated by the visual image data generating unit and the three-dimensional state grasping image data generated by the three-dimensional state grasping image data generating unit are recorded as the stored data. A stereo measurement system.
前記フレームレート決定部は、前記カメラ部の撮像時における前記車両および前記車両の周辺の状況に依存して、前記第2フレームレートを動的に決定することを特徴とする請求項1に記載のステレオ測定システム。 The second frame rate is equal to or lower than the first frame rate;
The said frame rate determination part determines the said 2nd frame rate dynamically depending on the condition of the said vehicle at the time of the imaging of the said camera part, and the said vehicle, The said 2nd frame rate is characterized by the above-mentioned. Stereo measurement system.
条件
1)前記車両の速度
2)前記車両のハンドルの操作状況
3)前記カメラ部の少なくとも何れか1台のカメラでのオプティカルフローの変化量
4)前記基準カメラと前記参照カメラとの視差の時間的な変化量 The said frame rate determination part determines the said 2nd frame rate dynamically depending on the combination of any one or several conditions of the following conditions, The Claim 1 or 2 characterized by the above-mentioned. Stereo measurement system.
Condition 1) Speed of the vehicle 2) Operation status of the steering wheel of the vehicle 3) Amount of change in optical flow in at least one of the cameras 4) Time of parallax between the reference camera and the reference camera Amount of change
3次元情報表示部とを備え、
前記画像情報表示部に、請求項1から9の何れか1項に記載のステレオ測定システムで記録された前記視認用画像データを表示し、
前記3次元情報表示部に、前記画像情報表示部に表示された前記視認用画像データに連動して、請求項1から9の何れか1項に記載のステレオ測定システムで記録された前記3次元状態把握画像データに基づく3次元情報を表示することを特徴とする動画再生システム。 An image information display section;
A three-dimensional information display unit,
The visual image data recorded by the stereo measurement system according to any one of claims 1 to 9 is displayed on the image information display unit,
The three-dimensional information recorded by the stereo measurement system according to any one of claims 1 to 9, in conjunction with the visual image data displayed on the image information display unit, on the three-dimensional information display unit. A moving image reproduction system characterized by displaying three-dimensional information based on state grasping image data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009124080A JP5439949B2 (en) | 2009-05-22 | 2009-05-22 | Stereo measurement system and video playback system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009124080A JP5439949B2 (en) | 2009-05-22 | 2009-05-22 | Stereo measurement system and video playback system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010273178A true JP2010273178A (en) | 2010-12-02 |
JP5439949B2 JP5439949B2 (en) | 2014-03-12 |
Family
ID=43420840
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009124080A Expired - Fee Related JP5439949B2 (en) | 2009-05-22 | 2009-05-22 | Stereo measurement system and video playback system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5439949B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014086984A (en) * | 2012-10-26 | 2014-05-12 | Nikon Corp | Image processing device, photographing device, and program |
JP2015212941A (en) * | 2014-04-25 | 2015-11-26 | グーグル インコーポレイテッド | Methods and systems for object detection using multiple sensors |
WO2017077822A1 (en) * | 2015-11-04 | 2017-05-11 | 日立オートモティブシステムズ株式会社 | Image capturing device |
JP2018022255A (en) * | 2016-08-02 | 2018-02-08 | 株式会社日立製作所 | Image processing device and image processing method |
US10349004B2 (en) | 2014-03-19 | 2019-07-09 | Conti Temic Microelectronic Gmbh | Method for saving image data of a camera in an accident data recorder of a vehicle |
KR20220168815A (en) * | 2021-06-17 | 2022-12-26 | 트라웍스(주) | Apparatus for detecting vehicle speed, Apparatus for making reference information, Apparatus for verifying vehicle speed, Traffic information system and Methods thereof |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10124676A (en) * | 1996-10-24 | 1998-05-15 | Fujitsu Ltd | Shape tracking method and apparatus |
JP2000266539A (en) * | 1999-03-15 | 2000-09-29 | Nissan Motor Co Ltd | Inter-vehicle distance measuring apparatus |
JP2006349580A (en) * | 2005-06-17 | 2006-12-28 | Denso Corp | Traveling condition determination device and on-vehicle navigation device |
JP2007172035A (en) * | 2005-12-19 | 2007-07-05 | Fujitsu Ten Ltd | Onboard image recognition device, onboard imaging device, onboard imaging controller, warning processor, image recognition method, imaging method and imaging control method |
JP2008052741A (en) * | 2006-08-24 | 2008-03-06 | Harman Becker Automotive Systems Gmbh | Method for imaging the surrounding of vehicle, and system for the same |
JP2008304344A (en) * | 2007-06-08 | 2008-12-18 | Kumamoto Univ | Target detection device |
-
2009
- 2009-05-22 JP JP2009124080A patent/JP5439949B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10124676A (en) * | 1996-10-24 | 1998-05-15 | Fujitsu Ltd | Shape tracking method and apparatus |
JP2000266539A (en) * | 1999-03-15 | 2000-09-29 | Nissan Motor Co Ltd | Inter-vehicle distance measuring apparatus |
JP2006349580A (en) * | 2005-06-17 | 2006-12-28 | Denso Corp | Traveling condition determination device and on-vehicle navigation device |
JP2007172035A (en) * | 2005-12-19 | 2007-07-05 | Fujitsu Ten Ltd | Onboard image recognition device, onboard imaging device, onboard imaging controller, warning processor, image recognition method, imaging method and imaging control method |
JP2008052741A (en) * | 2006-08-24 | 2008-03-06 | Harman Becker Automotive Systems Gmbh | Method for imaging the surrounding of vehicle, and system for the same |
JP2008304344A (en) * | 2007-06-08 | 2008-12-18 | Kumamoto Univ | Target detection device |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014086984A (en) * | 2012-10-26 | 2014-05-12 | Nikon Corp | Image processing device, photographing device, and program |
US10349004B2 (en) | 2014-03-19 | 2019-07-09 | Conti Temic Microelectronic Gmbh | Method for saving image data of a camera in an accident data recorder of a vehicle |
JP2015212941A (en) * | 2014-04-25 | 2015-11-26 | グーグル インコーポレイテッド | Methods and systems for object detection using multiple sensors |
WO2017077822A1 (en) * | 2015-11-04 | 2017-05-11 | 日立オートモティブシステムズ株式会社 | Image capturing device |
JP2017092545A (en) * | 2015-11-04 | 2017-05-25 | 日立オートモティブシステムズ株式会社 | Imaging apparatus |
JP2018022255A (en) * | 2016-08-02 | 2018-02-08 | 株式会社日立製作所 | Image processing device and image processing method |
KR20220168815A (en) * | 2021-06-17 | 2022-12-26 | 트라웍스(주) | Apparatus for detecting vehicle speed, Apparatus for making reference information, Apparatus for verifying vehicle speed, Traffic information system and Methods thereof |
KR102561791B1 (en) | 2021-06-17 | 2023-08-01 | 트라웍스(주) | Apparatus for detecting vehicle speed, Apparatus for making reference information, Apparatus for verifying vehicle speed, Traffic information system and Methods thereof |
Also Published As
Publication number | Publication date |
---|---|
JP5439949B2 (en) | 2014-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5652391B2 (en) | Stereo image acquisition device | |
US10455882B2 (en) | Method and system for providing rear collision warning within a helmet | |
JP6633216B2 (en) | Imaging device and electronic equipment | |
JP5439949B2 (en) | Stereo measurement system and video playback system | |
JP6095985B2 (en) | Playback apparatus, playback system, playback method, and program | |
JP2010198552A (en) | Driving state monitoring device | |
JP6678306B2 (en) | Speed control system | |
JP2017096777A (en) | Stereo camera system | |
BR112016006666B1 (en) | INFORMATION PRESENTATION SYSTEM | |
JP2012038229A (en) | Drive recorder | |
JP6194604B2 (en) | Recognizing device, vehicle, and computer executable program | |
JP2010033106A (en) | Driver support device, driver support method, and driver support processing program | |
JP5299101B2 (en) | Peripheral display device | |
EP2660795A2 (en) | System and method for monitoring a vehicle | |
WO2018150888A1 (en) | Information recording device, information recording method, and information recording program | |
KR20130017497A (en) | Black box system for vehicle and driving method thereof | |
JP5261752B2 (en) | Drive recorder | |
JP2011215769A (en) | Lane position detection apparatus and lane position detection method | |
JP2024152819A (en) | IMAGE CAPTURE INFORMATION STORAGE DEVICE, IMAGE CAPTURE INFORMATION STORAGE METHOD, AND PROGRAM | |
JP2013054399A (en) | Vehicle periphery monitoring device | |
JP3999929B2 (en) | 3D image display device | |
JP2006318062A (en) | Image processor, image processing method and image processing program | |
JP6024639B2 (en) | Gaze position detection device and gaze position detection method | |
WO2019168057A1 (en) | Image-processing device, image-processing method, and storage medium | |
JP2022136534A (en) | Image recording device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20120130 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121211 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130305 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130426 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131202 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |