JP4553071B1 - 3D information display device and 3D information display method - Google Patents

3D information display device and 3D information display method Download PDF

Info

Publication number
JP4553071B1
JP4553071B1 JP2010503305A JP2010503305A JP4553071B1 JP 4553071 B1 JP4553071 B1 JP 4553071B1 JP 2010503305 A JP2010503305 A JP 2010503305A JP 2010503305 A JP2010503305 A JP 2010503305A JP 4553071 B1 JP4553071 B1 JP 4553071B1
Authority
JP
Japan
Prior art keywords
image
dimensional
time
moving object
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010503305A
Other languages
Japanese (ja)
Other versions
JPWO2010113253A1 (en
Inventor
博則 墨友
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Application granted granted Critical
Publication of JP4553071B1 publication Critical patent/JP4553071B1/en
Publication of JPWO2010113253A1 publication Critical patent/JPWO2010113253A1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/31Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing stereoscopic vision
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/211Image signal generators using stereoscopic image cameras using a single 2D image sensor using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/107Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using stereoscopic cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/306Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using a re-scaling of images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8033Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for pedestrian protection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning

Abstract

3次元情報表示装置は、被写体を撮像し、複数の時系列画像を生成する撮像部と、立体情報を取得する立体情報取得部と、時系列画像および立体情報をもとに、時系列画像における3次元画像情報を算出する3次元画像情報算出部と、時系列画像中における動体対応画像部分を特定する動体特定部と、3次元画像情報を用いて、特定した動体対応画像部分について、時系列画像のうちいずれかの画像を基準とした3次元座標を算出する演算部と、3次元座標に基づいて、時系列画像における特定した動体対応画像部分が基準とした画像に統合された画像を表示する表示装置とを備えている。
【選択図】図1
The three-dimensional information display device captures a subject and generates a plurality of time-series images, a three-dimensional information acquisition unit that acquires three-dimensional information, and a time-series image based on the time-series image and the three-dimensional information. A three-dimensional image information calculation unit that calculates three-dimensional image information, a moving object specifying unit that specifies a moving object-corresponding image part in a time-series image, and a time-series of the moving object-corresponding image part specified using the three-dimensional image information An arithmetic unit that calculates three-dimensional coordinates based on any one of the images, and an image in which the identified moving object corresponding image portion in the time-series image is integrated with the reference image based on the three-dimensional coordinates is displayed. Display device.
[Selection] Figure 1

Description

本発明は、任意の画像を基準とし、時系列画像における動体対応画像部分を統合して表示する3次元情報表示装置および3次元情報表示方法に関する。   The present invention relates to a three-dimensional information display apparatus and a three-dimensional information display method for displaying a moving object corresponding image portion in a time-series image by integrating an arbitrary image as a reference.

近年、自動車業界では、安全性向上を目的とした様々なシステムの研究がなされている。特に、撮像装置を備えた画像センサを利用した危機回避システム等が開発されている。具体的には、撮像装置により撮像した被写体の画像をもとに、車両周辺の障害物等の特定や、その障害物の動きの解析等を行い、障害物を回避する等のシステムが、開発されている。   In recent years, various systems for the purpose of improving safety have been studied in the automobile industry. In particular, a crisis avoidance system using an image sensor provided with an imaging device has been developed. Specifically, based on the image of the subject imaged by the imaging device, a system has been developed to identify obstacles around the vehicle, analyze the movement of the obstacles, and avoid obstacles. Has been.

また、危険を回避できずに事故が起きた場合には、事故の原因究明等に役立つような様々な情報を、事故前後の画像を分析して抽出するシステムも開発されている。例えば、特許文献1には、交差点等に設置された撮像装置により、事故の前後の画像を取得し、これらの画像を解析することで、例えば事故車両の速度等、事故における状況を分析するシステムが開示されている。このシステムは、あらかじめ事故現場である交差点等の路面や横断歩道等の静止体のみを含むデータである平面図データを用意しておき、この平面図データに前記事故の前後の画像を投影させることで、事故の状況を分析する。また、特許文献2に記載の技術は、単眼動画像の特徴点から、移動体に搭載されたカメラの3次元位置と姿勢とを示すカメラベクトル値(CV値)を求め、求められたCV値に基づいて画像上にカメラ位置を重畳表示するものである。   In addition, when an accident occurs without avoiding danger, a system has been developed that extracts various information useful for investigating the cause of the accident by analyzing images before and after the accident. For example, Patent Document 1 discloses a system that analyzes images of an accident such as the speed of an accident vehicle by acquiring images before and after the accident using an imaging device installed at an intersection or the like, and analyzing these images. Is disclosed. This system prepares plan view data, which is data including only stationary objects such as road surfaces such as intersections and pedestrian crossings, which are accident sites, and projects the images before and after the accident onto the plan view data. Then, analyze the situation of the accident. The technique described in Patent Document 2 obtains a camera vector value (CV value) indicating the three-dimensional position and orientation of a camera mounted on a moving body from the feature points of a monocular moving image, and obtains the obtained CV value. Based on the above, the camera position is superimposed on the image.

しかし、特許文献1に開示された技術は、固定設置された撮像装置であるカメラによる画像を用いるため、移動体である車両に搭載されたカメラには適用できない。また、あらかじめ平面図データを用意しておく必要があることから、あらかじめ、定められた場所での事故の状況分析にしか対応できないという問題があった。   However, since the technique disclosed in Patent Document 1 uses an image from a camera that is a fixedly installed imaging device, it cannot be applied to a camera mounted on a vehicle that is a moving body. Further, since it is necessary to prepare plan view data in advance, there is a problem that it can only deal with an accident situation analysis at a predetermined place.

また、特許文献2に開示された技術においては、動体領域が支配的な画像では正確なCV値を算出することは困難であるという問題がある。さらに、特許文献2に開示された技術では、カメラを搭載した移動体およびカメラの動きを求めることはできるが、画像中におけるそれら以外の動体の位置を求めることについては考慮していない。
特開2004−102426号公報 特開2008−5478号公報
Further, the technique disclosed in Patent Document 2 has a problem that it is difficult to calculate an accurate CV value for an image in which a moving object region is dominant. Furthermore, although the technique disclosed in Patent Document 2 can determine the moving body on which the camera is mounted and the movement of the camera, it does not consider determining the positions of other moving bodies in the image.
JP 2004-102426 A JP 2008-5478 A

本発明は、上述の事情に鑑みて為された発明であり、その目的は、任意の画像を基準とし、時系列画像における動体対応画像部分を統合して表示できる3次元情報表示装置および3次元情報表示方法を提供することである。   The present invention has been made in view of the above-described circumstances, and an object thereof is to provide a three-dimensional information display device and a three-dimensional information display device that can display a moving object corresponding image portion in a time-series image in an integrated manner with an arbitrary image as a reference. It is to provide an information display method.

本発明の3次元情報表示装置は、時系列画像における3次元画像情報を用いて、時系列画像における動体対応画像部分が、基準とした画像に統合された画像を表示する。これにより、動体の時間的な動きを示すことができる。   The three-dimensional information display device of the present invention displays an image in which the moving object corresponding image portion in the time series image is integrated with the reference image using the three-dimensional image information in the time series image. Thereby, the temporal movement of a moving body can be shown.

本発明の一実施形態に係る3次元情報表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the three-dimensional information display apparatus which concerns on one Embodiment of this invention. 時系列ステレオ画像における対応点探索について説明するための図である。It is a figure for demonstrating the corresponding point search in a time series stereo image. 操作者が動体対応画像部分を特定する場合について説明するための図であって、図3(A)は時刻Tにおける画像において動体対応画像部分を特定した状態を示す図であり、図3(B)は時刻T+Δtにおける画像における動体対応画像部分を特定した状態を示す図である。FIG. 3A is a diagram for explaining a case where an operator specifies a moving object corresponding image portion, and FIG. 3A is a view showing a state where the moving object corresponding image portion is specified in the image at time T, and FIG. ) Is a diagram showing a state in which the moving object corresponding image portion in the image at time T + Δt is specified. 操作者が静止体対応画像部分を特定する場合について説明するための図であって、図4(A)は時刻Tにおける画像において静止体対応画像部分を特定した状態を示す図であり、図4(B)は時刻T+Δtにおける画像における静止体対応画像部分を特定した状態を示す図である。FIG. 4A is a diagram for explaining a case where the operator specifies a stationary object-corresponding image portion, and FIG. 4A is a diagram showing a state where the stationary object-corresponding image portion is identified in the image at time T. (B) is a figure which shows the state which specified the stationary body corresponding | compatible image part in the image in time T + (DELTA) t. 本発明の一実施形態に係る画像の統合に用いる時系列画像の一例を示す図である。It is a figure which shows an example of the time series image used for the integration of the image which concerns on one Embodiment of this invention. 本発明の一実施形態において統合された画像を示す図であって、図6(A)は任意の画像を基準とした統合画像を示す図であり、図6(B)は統合画像を俯瞰表示に変換した画像を示す図である。FIG. 6A is a diagram illustrating an integrated image in an embodiment of the present invention, FIG. 6A is a diagram illustrating an integrated image based on an arbitrary image, and FIG. 6B is an overhead view of the integrated image. It is a figure which shows the image converted into. 本発明の一実施形態において動き情報を重畳表示された画像を示す図であって、図7(A)は動きベクトルを重畳表示した画像を示す図であり、図7(B)は速度ベクトルを重畳表示した画像を示す図であり、図7(C)は速度を重畳表示した画像を示す図である。FIG. 7A is a diagram illustrating an image on which motion information is superimposed and displayed in an embodiment of the present invention. FIG. 7A is a diagram illustrating an image on which motion vectors are superimposed and FIG. FIG. 7C is a diagram showing an image displayed in a superimposed manner, and FIG. 本発明の一実施形態において動体対応画像部分が時系列的に表示された画像を示す図であって、図8(A)は第1表示画像を示す図であり、図8(B)は第2表示画像を示す図であり、図8(C)は第3表示画像を示す図である。FIG. 8A is a diagram showing an image in which moving object corresponding image portions are displayed in time series in one embodiment of the present invention, FIG. 8A is a diagram showing a first display image, and FIG. FIG. 8C illustrates a second display image, and FIG. 8C illustrates a third display image. 本発明の一実施形態において動体の動き情報を選択的に表示している画像を示す図である。It is a figure which shows the image which selectively displays the moving information of the moving body in one Embodiment of this invention. 本発明の一実施形態において複数の異なる動体の動体対応画像部分について表示している画像を示す図であって、図10(A)は第1の表示方法による画像を示す図であり、図10(B)は第2の表示方法による画像を示す図である。FIG. 10A is a diagram showing an image displayed for moving object corresponding image portions of a plurality of different moving objects in an embodiment of the present invention, and FIG. 10A is a diagram showing an image by the first display method; (B) is a figure which shows the image by the 2nd display method. 本発明の一実施形態において統合表示を俯瞰表示とした場合の各動体対応画像部分の表示画像例を示す図であって、図11(A)はフレームレート間隔により、動体対応画像部分を統合表示した画像を示す図であり、図11(B)は所望とする時間間隔により、動体対応画像部分を統合表示した画像を示す図であり、図11(C)は等距離間隔により、各動体対応画像部分を統合表示した画像を示す図であり、図11(D)は基準となる動体に対応する動体対応画像部分を等距離間隔で統合表示し、残りの動体に対応する動体対応画像部分については、基準となる動体に対応したフレームについて統合表示した画像を示す図である。FIG. 11A is a diagram illustrating a display image example of each moving object corresponding image portion when the integrated display is a bird's eye view according to an embodiment of the present invention, and FIG. 11 (B) is a diagram showing an image in which moving object corresponding image portions are integrated and displayed at a desired time interval, and FIG. 11 (C) is a diagram corresponding to each moving object at equal distance intervals. FIG. 11D is a diagram showing an image in which image portions are integrated and displayed, and FIG. 11D integrally displays moving object corresponding image portions corresponding to a reference moving object at equal distance intervals, and about moving object corresponding image portions corresponding to the remaining moving objects. These are the figures which show the image integrally displayed about the flame | frame corresponding to the moving body used as a reference | standard. 本発明の一実施形態に係る3次元情報表示装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the three-dimensional information display apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態において交通事故における統合された画像を示す図である。It is a figure which shows the image integrated in the traffic accident in one Embodiment of this invention. 本発明の一実施形態において交通事故における統合された別の画像を示す図である。It is a figure which shows another image integrated in the traffic accident in one Embodiment of this invention. 本発明の一実施形態において交通事故における統合されたさらに別の画像を示す図である。It is a figure which shows another image integrated in the traffic accident in one Embodiment of this invention.

以下、本発明にかかる実施の一形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、その説明を省略する。なお、3次元情報表示装置100は、例えば、自動車に搭載しておき、追突等の事故が生じた場合に、その原因等を究明するために用いられる、いわゆるドライビングレコーダとして使用すればよい。なお、3次元情報表示装置100はこれ以外の用途に用いることも可能である。   Hereinafter, an embodiment according to the present invention will be described with reference to the drawings. In addition, the structure which attached | subjected the same code | symbol in each figure shows that it is the same structure, The description is abbreviate | omitted. Note that the three-dimensional information display device 100 may be used as a so-called driving recorder that is mounted on an automobile and used to investigate the cause of an accident such as a rear-end collision. Note that the three-dimensional information display apparatus 100 can be used for other purposes.

まず、本発明の実施形態に係る3次元情報表示装置100の構成について説明する。図1は本発明の一実施形態に係る3次元情報表示装置の構成を示すブロック図である。図1に示すように、3次元情報表示装置100は、撮像部および3次元情報取得部であるステレオカメラ1と、演算処理部3と、入力部4と、表示装置5と、トリガー13とを備えて構成される。   First, the configuration of the three-dimensional information display apparatus 100 according to the embodiment of the present invention will be described. FIG. 1 is a block diagram showing a configuration of a three-dimensional information display apparatus according to an embodiment of the present invention. As shown in FIG. 1, the three-dimensional information display device 100 includes a stereo camera 1 that is an imaging unit and a three-dimensional information acquisition unit, an arithmetic processing unit 3, an input unit 4, a display device 5, and a trigger 13. It is prepared for.

ステレオカメラ1は車両等の移動体に搭載され、ステレオ時系列画像を取得するものである。ステレオカメラ1は、例えばCCD(Charge-Coupled Devices)等の撮像素子を有するカメラであり、適当な距離だけ離間させて左右に設置された2つのカメラを備えて構成される。ステレオカメラ1における左右それぞれのカメラは、被写体を同じタイミングで撮像し、左右一対の画像を得る。なお、左右のカメラの収差は良好に補正されており、かつ、これらは相互に平行に設置されていることが好ましい。このように、ステレオカメラにおいて、各カメラが平行に設置されることで、平行化された画像が得られ、これら画像から容易に3次元画像情報を得ることができる。なお、3次元画像情報とは、ステレオ時系列画像から得ることができる、カメラの位置を基準とした3次元座標、2次元および3次元動きベクトル等をいう。このステレオカメラ1は、一定周期で随時撮像を繰り返している。また、ステレオカメラ1が被写体を撮像し、生成するステレオ画像は、立体情報を含んでいる。   The stereo camera 1 is mounted on a moving body such as a vehicle and acquires a stereo time-series image. The stereo camera 1 is a camera having an image pickup device such as a CCD (Charge-Coupled Devices), for example. The left and right cameras in the stereo camera 1 capture the subject at the same timing to obtain a pair of left and right images. In addition, it is preferable that the aberrations of the left and right cameras are corrected well, and they are installed parallel to each other. Thus, in the stereo camera, each camera is installed in parallel, so that a parallelized image can be obtained, and three-dimensional image information can be easily obtained from these images. Note that the three-dimensional image information refers to three-dimensional coordinates, two-dimensional and three-dimensional motion vectors, etc., which can be obtained from stereo time-series images, based on the position of the camera. The stereo camera 1 repeats imaging at any time with a constant period. In addition, the stereo image that the stereo camera 1 captures and captures the subject includes stereoscopic information.

なお、例えば、撮像部を単眼カメラとした場合は、立体情報取得部として、3次元計測ができる機器、例えば、レーザやミリ波による計測器を備える構成とし、この計測器により、立体情報を取得してもよい。   For example, when the imaging unit is a monocular camera, the three-dimensional information acquisition unit is configured to include a device capable of three-dimensional measurement, for example, a measuring instrument using laser or millimeter wave, and the three-dimensional information is acquired by this measuring instrument. May be.

入力部4は、例えば、キーボード、マウス、押しボタン、スイッチ等であり、操作者により操作され、演算処理部3に対して操作指令の入力等を行う。表示装置5は、例えば、CRT(Cathode Ray Tube)ディスプレイ、LCD(Liquid Crystal Display)、有機EL(Electro-Luminescence)ディスプレイおよびプラズマディスプレイ等であり、画像生成部11により、生成された画像信号に応じた画像を表示する。   The input unit 4 is, for example, a keyboard, a mouse, a push button, a switch, and the like. The input unit 4 is operated by an operator and inputs an operation command to the arithmetic processing unit 3. The display device 5 is, for example, a CRT (Cathode Ray Tube) display, an LCD (Liquid Crystal Display), an organic EL (Electro-Luminescence) display, a plasma display, or the like, according to the image signal generated by the image generation unit 11. Display the image.

演算処理部3は、各種電子部品や集積回路部品、CPU(Central Processing Unit)、記憶装置等からなる。なお、記憶装置は、例えば、3次元情報表示装置100の制御プログラム等を記憶するROM(Read Only Memory)や、演算処理、制御処理などのデータや、ステレオカメラ1により撮像された被写体の画像を一時的に格納するEEPROM(Electrically Erasable Programmable ROM)やRAM(Random Access Memory)やフラッシュメモリ等の不揮発性メモリ等を備えて構成されている。演算処理部3は、機能的に、画像記録部6と、3次元画像情報算出部7と、動体特定部8と、静止体特定部9と、演算部10と、記憶部12と、画像信号生成部12とを備えて構成される。   The arithmetic processing unit 3 includes various electronic components, integrated circuit components, a CPU (Central Processing Unit), a storage device, and the like. Note that the storage device stores, for example, a ROM (Read Only Memory) that stores a control program of the three-dimensional information display device 100, data such as arithmetic processing and control processing, and an image of a subject captured by the stereo camera 1. It comprises an EEPROM (Electrically Erasable Programmable ROM), a RAM (Random Access Memory), a nonvolatile memory such as a flash memory, and the like for temporary storage. The arithmetic processing unit 3 functionally includes an image recording unit 6, a three-dimensional image information calculation unit 7, a moving object specifying unit 8, a stationary object specifying unit 9, a calculating unit 10, a storage unit 12, and an image signal. And a generation unit 12.

画像記録部6は、ステレオカメラ1により一定周期ごとに撮像され、信号として演算処理部3に送信されてくる画像を記憶していく。また、普段は、画像記録部6は、所定量以上の画像を記憶しないものとし、新しく撮像により生成された画像を記憶しながら、記録している画像を古い画像から随時消去している。画像記録部6に記憶する画像の量は、画像記録部6の容量または3次元情報表示装置100の使用用途等を考慮して好ましい値とすればよい。   The image recording unit 6 stores images captured by the stereo camera 1 at regular intervals and transmitted as signals to the arithmetic processing unit 3. Further, usually, the image recording unit 6 does not store an image of a predetermined amount or more, and erases the recorded image from the old image at any time while storing a newly generated image. The amount of image stored in the image recording unit 6 may be a preferable value in consideration of the capacity of the image recording unit 6 or the intended use of the three-dimensional information display device 100.

3次元画像情報算出部7は、画像記録部6に記憶されている画像の3次元画像情報を算出する。具体的には、3次元画像情報算出部7は、画像上における点の撮像位置を基準とする3次元座標および動きベクトル等を求める。時系列ステレオ画像をもとに、3次元画像情報(前記3次元座標および動きベクトル等)を得る方法は公知の方法を用いればよい。具体的には、ステレオ画像における3次元画像情報は、ある画像上の点に対応する点を、その画像に対応する画像上から探索する(対応点探索)ことで得られる。例えば、一対のステレオ画像同士において、対応点探索を行うことで、その時刻における3次元座標が得られる。また、例えば、同一のカメラで撮像した、撮像時間の異なる被写体の画像同士において、対応点探索を行うことで、その点の動きベクトルが求められる。なお、ステレオカメラ1がステレオカメラでなく、単眼カメラである場合には、3次元情報表示装置100は、立体情報取得部である、レーザやミリ波による3次元計測器等を備える構成である。そして、3次元画像情報算出部7は、この立体情報取得部による計測値および、単眼カメラにより被写体が撮像されて生成された時系列画像を関連づけて、3次元画像情報を得る。例えば、この単眼カメラの光軸と同一方向に出射された、レーザまたはミリ波による3次元計測により求められた立体情報を、単眼カメラにより撮像された被写体の画像と関連づければよい。   The three-dimensional image information calculation unit 7 calculates the three-dimensional image information of the image stored in the image recording unit 6. Specifically, the three-dimensional image information calculation unit 7 obtains a three-dimensional coordinate, a motion vector, and the like based on the imaging position of the point on the image. A known method may be used as a method for obtaining three-dimensional image information (such as the three-dimensional coordinates and motion vectors) based on the time-series stereo image. Specifically, the three-dimensional image information in the stereo image is obtained by searching for a point corresponding to a point on a certain image from the image corresponding to the image (corresponding point search). For example, by performing corresponding point search between a pair of stereo images, three-dimensional coordinates at that time can be obtained. In addition, for example, by searching for corresponding points between images of subjects captured with the same camera and having different imaging times, a motion vector at that point is obtained. When the stereo camera 1 is not a stereo camera but a monocular camera, the three-dimensional information display device 100 is configured to include a three-dimensional measuring device such as a laser or millimeter wave, which is a three-dimensional information acquisition unit. Then, the three-dimensional image information calculation unit 7 obtains three-dimensional image information by associating the measurement value obtained by the three-dimensional information acquisition unit with a time-series image generated by imaging a subject with a monocular camera. For example, three-dimensional information obtained by three-dimensional measurement using a laser or millimeter wave emitted in the same direction as the optical axis of the monocular camera may be associated with the subject image captured by the monocular camera.

例えば、対応点探索法として、基準画像上の任意の注目点に対応する参照画像上の点(対応点)を探索して求める、相関法がある。なお、参照画像は、基準画像に対応する画像である。具体的には、ステレオ画像においては、同時刻に撮像した一対の画像のうち一方が基準画像であり、他方は参照画像である。また、時系列画像においては、同一のカメラで撮影された画像のうち、時間的に前の画像が基準画像であり、時間的に後の画像が参照画像である。この基準画像上の注目点に対してテンプレートが設定され、このテンプレートと対応する参照画像上のウィンドウが探索され、この探索されたウィンドウから対応点が求められる。   For example, as a corresponding point search method, there is a correlation method in which a point (corresponding point) on a reference image corresponding to an arbitrary point of interest on a reference image is searched for. The reference image is an image corresponding to the standard image. Specifically, in a stereo image, one of a pair of images taken at the same time is a standard image, and the other is a reference image. In the time-series images, among images taken by the same camera, the temporally previous image is the reference image, and the temporally subsequent image is the reference image. A template is set for the attention point on the reference image, a window on the reference image corresponding to the template is searched, and a corresponding point is obtained from the searched window.

以下に、3次元画像情報算出部7により行われる、具体的な対応点探索について説明する。ステレオカメラ1により生成されたステレオ画像の一方は基準画像とされ、その基準画像に注目点が設定され、基準画像上に注目点を含むテンプレートが設定される。ここで、テンプレートとは基準画像において一定の領域で区切られた範囲であって、その範囲内における各画素の輝度値等の情報(画像パターン)を有している。そして、このテンプレートと、当該基準画像と対応する参照画像(前記ステレオ画像における他方の画像)において複数設定されたウィンドウとの相関値(類似度)が算出され、相関値に基づいて、これらテンプレートとウィンドウとが対応しているか否かが判断される。なお、ウィンドウとは参照画像において複数生成された、テンプレートと同一の大きさの範囲の領域であって、その範囲内における各画素の輝度値等の情報(画像パターン)を有している。上述のように、テンプレートとウィンドウとの画像パターンから相関値が求められる。例えば、テンプレートといずれかのウィンドウとの相関値が求められ、仮に、これらの相関値が低いことから、これらが対応しないと判断されれば、例えば1画素いずれかの方向にずれた位置に生成されたウィンドウとテンプレートとの相関値が求められる。このようにして、順次ウィンドウが変更されながら相関値が求められ、相関値がピークの値をとるウィンドウが探索される。そして、テンプレートの画像パターンと相関値がピークである画像パターンを有するウィンドウが、テンプレートに対応するウィンドウであると求められる。   A specific corresponding point search performed by the three-dimensional image information calculation unit 7 will be described below. One of the stereo images generated by the stereo camera 1 is a reference image, a point of interest is set in the reference image, and a template including the point of interest is set on the reference image. Here, the template is a range divided by a certain area in the reference image, and has information (image pattern) such as a luminance value of each pixel in the range. Then, a correlation value (similarity) between the template and a plurality of windows set in the reference image (the other image in the stereo image) corresponding to the reference image is calculated. Based on the correlation value, It is determined whether or not the window corresponds. Note that a window is an area in the range of the same size as the template generated in the reference image, and has information (image pattern) such as a luminance value of each pixel in the range. As described above, the correlation value is obtained from the image pattern of the template and the window. For example, the correlation value between the template and one of the windows is obtained, and if these correlation values are low, if it is determined that they do not correspond, for example, it is generated at a position shifted in one direction of one pixel. Correlation values between the determined window and the template are obtained. In this way, the correlation value is obtained while the windows are sequentially changed, and a window in which the correlation value takes a peak value is searched. A window having an image pattern having a peak correlation value with the image pattern of the template is obtained as a window corresponding to the template.

このような、対応点探索の方法は上述のように公知であり、上記方法以外に種々の方法が提案されている。例えば、テンプレートに対応するウィンドウを求める時間を短縮する方法についても種々提案されている。これらの方法のうち、いくつかについて、簡単に説明する。例えば、上述したように、基準画像がステレオ画像の一方の画像であり、参照画像が他方の画像であって、各画像を生成したカメラは平行に配置されている場合は、基準画像と参照画像とがほとんど平行に配置されている。そうすると、参照画像上における対応点は、基準画像上における注目点と同じ高さ位置にあると仮定できるので、この高さ位置のウィンドウのみ、テンプレートとの相関値が求められればよい。また、基準画像と参照画像とがほとんど平行に配置されていて、かつ基準画像と参照画像との視差がある程度分かっている場合は、ウィンドウの設定範囲はさらに限定され得る。このように、ウィンドウの設定範囲が限定されれば、テンプレートとの相関値を求めるウィンドウの数が抑制されるので、対応するウィンドウの探索は短時間でなされ得る。   Such a corresponding point search method is known as described above, and various methods other than the above method have been proposed. For example, various methods for shortening the time for obtaining a window corresponding to a template have been proposed. Some of these methods will be briefly described. For example, as described above, when the standard image is one of the stereo images, the reference image is the other image, and the cameras that generate the images are arranged in parallel, the standard image and the reference image Are arranged almost in parallel. Then, since the corresponding point on the reference image can be assumed to be at the same height position as the target point on the standard image, only the window at this height position needs to obtain the correlation value with the template. Further, when the standard image and the reference image are arranged almost in parallel and the parallax between the standard image and the reference image is known to some extent, the setting range of the window can be further limited. In this way, if the window setting range is limited, the number of windows for which the correlation value with the template is obtained is suppressed, so that the corresponding window can be searched in a short time.

また、別の方法としては、多重解像度戦略による探索方法とよばれているものがある。この方法は、一旦、基準画像および参照画像を低解像度化することで、画素数を減少させた状態で相関値演算を行い、注目点に対して相関値がピークになる座標を求める。その後、解像度を元に戻し、前記低解像度で求まった座標周辺にウィンドウの設定範囲を絞り込んで対応点探索を行うというものである。基準画像および参照画像の解像度が低い状態では、画像パターンの情報が減少しているので、相関値は短時間で求められ得る。また、そうして求められた低解像度における相関値がピークである座標付近に、本来の解像度における相関値がピークとなる座標が存在するはずである。したがって、この方法を用いることで、テンプレートに対応するウィンドウが存在する範囲を短時間で確定されるため、対応するウィンドウも短時間で探索され得る。なお、この方法においては、何段階かに分けた複数の低解像度画像を作成することとし、徐々に探索範囲を絞り込むこととしてもよい。   Another method is called a search method using a multi-resolution strategy. In this method, the resolution of the base image and the reference image is once reduced, and the correlation value calculation is performed in a state where the number of pixels is reduced, and the coordinates at which the correlation value reaches the peak for the attention point are obtained. Thereafter, the resolution is restored to the original, and the corresponding point search is performed by narrowing the window setting range around the coordinates obtained at the low resolution. In the state where the resolution of the standard image and the reference image is low, the information of the image pattern is reduced, and therefore the correlation value can be obtained in a short time. In addition, there should be coordinates where the correlation value at the original resolution has a peak in the vicinity of the coordinates at which the correlation value at the low resolution has a peak. Therefore, by using this method, since the range in which the window corresponding to the template exists is determined in a short time, the corresponding window can also be searched in a short time. In this method, a plurality of low-resolution images divided into several stages may be created, and the search range may be narrowed down gradually.

次に、相関値の具体的な算出方法について説明する。具体的には、関数を用いて相関値を求める。その方法としては、例えば、SAD(Sum of Absolute Difference)法、SSD(Sum of Squared Difference)法(2乗残差法)、NCC(Normalize cross Correlation)法(正規化相互相関法)等が知られている。例えばSAD法は、テンプレートおよびウィンドウの輝度値の絶対値による総和を求める関数を用いる方法であって、この関数を用いてテンプレートおよびウィンドウごとの相関値が求められる。また、上記SAD法等に比べてロバスト性を有する相関値演算の方法もある。具体的には、この方法は、画像パターンの周波数分解信号から、振幅成分を抑制した位相成分のみの信号を用いて類似度演算を行う方法である。そして、この方法を用いることで、ステレオ画像における左右カメラの撮影条件の差や、ノイズなどの影響を受けにくく、ロバスト性を有する相関値演算が実現可能である。なお、画像パターンの周波数分解信号を計算する手法は、例えば高速フーリエ変換(FFT)、離散フーリエ変換(DFT)、離散コサイン変換(DCT)、離散サイン変換(DST)、ウエーブレット変換、アダマール変換などが知られている。ここでは、このようなロバスト性を有する相関値演算のうち位相限定相関法(以下、POC法という)について簡単に説明する。   Next, a specific method for calculating the correlation value will be described. Specifically, a correlation value is obtained using a function. For example, SAD (Sum of Absolute Difference) method, SSD (Sum of Squared Difference) method (square residual method), NCC (Normalize cross Correlation) method (normalized cross correlation method) and the like are known. ing. For example, the SAD method is a method using a function for obtaining a sum of absolute values of luminance values of a template and a window, and a correlation value for each template and window is obtained using this function. There is also a correlation value calculation method having robustness compared to the SAD method and the like. Specifically, this method is a method of performing similarity calculation using a signal having only a phase component in which an amplitude component is suppressed from a frequency resolved signal of an image pattern. By using this method, it is possible to realize a robust correlation value calculation that is not easily affected by differences in shooting conditions of the left and right cameras in a stereo image, noise, and the like. Note that the method of calculating the frequency-resolved signal of the image pattern is, for example, fast Fourier transform (FFT), discrete Fourier transform (DFT), discrete cosine transform (DCT), discrete sine transform (DST), wavelet transform, Hadamard transform, etc. It has been known. Here, a phase-only correlation method (hereinafter referred to as POC method) among the correlation value computations having such robustness will be briefly described.

POC法においても、基準画像上にテンプレートが設定され、参照画像上に同じ大きさを持つウィンドウが設定される。そして、テンプレートと各ウィンドウとの相関値(POC値)が計算され、その相関値からテンプレートに対応するウィンドウが求められる。まず、基準画像のテンプレートおよび参照画像のウィンドウは、それぞれ2次元離散フーリエ変換され、規格化された後、合成され、2次元逆離散フーリエ変換される。このようにして、相関値であるPOC値が求められる。また、POC値はウィンドウ内における画素ごとに離散的に求まるため、画素ごとの相関値を求めることができる。この点が、ウィンドウごとの相関値を求める、上述のSAD法等とは異なる。このように、POC法においては、ウィンドウ内における画素ごとに相関値を求めることができるので、ウィンドウの設定範囲を絞り込むことが容易であり、対応点を求める処理が高速でできるという効果を奏する。また、上記POC法等のロバスト性を有する相関値演算方法においては、ウィンドウ内における画素ごとに相関値を求めることができるため、SAD法等のようにウィンドウを1画素ずつずらして相関値を求めなくても、対応するウィンドウを探索することができる。   Also in the POC method, a template is set on the standard image and a window having the same size is set on the reference image. Then, a correlation value (POC value) between the template and each window is calculated, and a window corresponding to the template is obtained from the correlation value. First, the template of the standard image and the window of the reference image are each subjected to two-dimensional discrete Fourier transform, normalized, synthesized, and then subjected to two-dimensional inverse discrete Fourier transform. In this way, a POC value that is a correlation value is obtained. Further, since the POC value is obtained discretely for each pixel in the window, the correlation value for each pixel can be obtained. This is different from the above-described SAD method or the like that obtains a correlation value for each window. Thus, in the POC method, since the correlation value can be obtained for each pixel in the window, it is easy to narrow the window setting range, and there is an effect that the processing for obtaining the corresponding points can be performed at high speed. Further, in the correlation value calculation method having robustness such as the POC method, the correlation value can be obtained for each pixel in the window. Therefore, the correlation value is obtained by shifting the window by one pixel as in the SAD method. Even without it, the corresponding window can be searched.

POC法においては、テンプレートとの相関値を求める際に、ウィンドウを複数画素分ずらしながら、相関値の算出を行ってもよい。具体的に、どれだけずらすことができるかは、対応点の探索可能範囲に依存するが、一般的には、ウィンドウサイズの半分くらいであるといわれている。つまり、例えば、ずらされたウィンドウと、ずらされる前のウィンドウとが、ウィンドウサイズの半分程度において重なるように設定されればよい。例えば、基準画像と参照画像との視差の最大を128画素とし、ウィンドウサイズを31×31とし、POC法により探索できる範囲をウィンドウの重心位置に対して±8画素と仮定すると、この視差を探索するためには、ウィンドウは16画素ずつずらされればよいので、8個のウィンドウが設定されればよい。なお、POC法においても、上述の多重解像度戦略による探索方法を用いることができる。上述の例では、8個のウィンドウが設定されればよかったが、さらに多重解像度戦略による探索方法を用いることで、例えば解像度を1/16に縮小すれば、設定されるウィンドウは1個でよくなる。これにより、さらに容易に対応点の探索ができる。   In the POC method, when calculating the correlation value with the template, the correlation value may be calculated while shifting the window by a plurality of pixels. Specifically, how much can be shifted depends on the searchable range of corresponding points, but is generally said to be about half the window size. In other words, for example, the shifted window and the window before being shifted may be set so as to overlap in about half of the window size. For example, assuming that the maximum parallax between the base image and the reference image is 128 pixels, the window size is 31 × 31, and the range that can be searched by the POC method is ± 8 pixels with respect to the center of gravity of the window, this parallax is searched. In order to do this, the windows need only be shifted by 16 pixels, so eight windows need only be set. In the POC method, the search method based on the above multi-resolution strategy can be used. In the above example, it is sufficient to set eight windows. However, if the resolution is reduced to 1/16, for example, by using a search method based on a multi-resolution strategy, only one window may be set. This makes it possible to search for corresponding points more easily.

なお、POC法以外でも、画像パターンの周波数分解信号から、振幅成分を抑制した位相成分のみの信号を用いて相関値演算を行う方法は知られている。例えばDCT符号限定相関法(「画像信号処理と画像パターン認識の融合−DCT符号限定相関とその応用」,貴家仁志,首都大学東京 システムデザイン学部 動的画像処理実利用化ワークショップ2007,2007.3.8−9参照)等があり、これらを用いて相関値演算を行ってもよい。   In addition to the POC method, a method is known in which a correlation value calculation is performed using a signal having only a phase component in which an amplitude component is suppressed from a frequency resolution signal of an image pattern. For example, DCT code limited correlation method (“Fusion of image signal processing and image pattern recognition-DCT code limited correlation and its application”, Hitoshi Kiya, Tokyo Metropolitan University, Faculty of System Design, Dynamic Image Processing Realization Workshop 2007, 2007.3. .. 8-9), and the correlation value calculation may be performed using these.

上述の対応点探索の方法により、注目点に対応する対応点が求められた場合は、必要であれば、その対応点を注目点として、新たな対応点探索が行われる。このような処理が繰り返されることで、時系列ステレオ画像において、任意の注目点に対応する点が複数の画像から求められる。3次元画像情報算出部7は、任意の注目点に対応する点を順次求め、それらを用いて3次元画像情報を算出する。   When a corresponding point corresponding to the attention point is obtained by the above-described corresponding point search method, if necessary, a new corresponding point search is performed using the corresponding point as the attention point. By repeating such processing, a point corresponding to an arbitrary point of interest in a time-series stereo image is obtained from a plurality of images. The three-dimensional image information calculation unit 7 sequentially obtains points corresponding to arbitrary attention points, and calculates three-dimensional image information using them.

ここで、時系列ステレオ画像における対応点探索について、図を用いて簡単に説明する。図2は時系列ステレオ画像における対応点探索について説明するための図である。図2において、時刻T1に撮影されたステレオ画像である画像L1と画像R1とが示されている。なお、説明を簡略化するために、これらの画像を生成した一対の左右に配置されたカメラを有するステレオカメラにおいて、各カメラは平行配置されているとする。また、時刻T1よりも後の時刻である時刻T2に撮影された画像L2と画像R2とが示されている。なお、画像L1、R1、L2、R2において、各マス目が1画素を示している。まず、時刻T1における画像L1における点15aが注目点(始点)として入力されているとする。この点15aに対応する点である、画像R1上の点15bが対応点探索により求められる。また、点15aを注目点とした場合に、時刻T2での画像L2上において点15aに対応する点16aが対応点探索により求められている。そして、この点16aを注目点として、時刻T2における画像R2においてこれに対応する点16bが対応点探索により求められている。なお、各点15a、15b、16a、16bは実際には点であるが、見易さを考慮して、図2においては画素と同じ大きさで図示している。なお、例えばT1とT2との間の時刻のように、時系列画像が存在しない時刻における対応点は、時系列画像が存在する、その前後の時間であるT1とT2における対応点を用いて補間等により求めればよい。また、対応点探索は、後の時刻に撮像された被写体の画像に対して行うことに限定されるわけでなく、前の時刻に撮像された被写体の画像に対しても行うことができる。   Here, the corresponding point search in the time-series stereo image will be briefly described with reference to the drawings. FIG. 2 is a diagram for explaining the corresponding point search in the time-series stereo image. In FIG. 2, an image L1 and an image R1, which are stereo images taken at time T1, are shown. In order to simplify the description, it is assumed that each camera is arranged in parallel in a stereo camera having a pair of left and right cameras that generate these images. Further, an image L2 and an image R2 taken at time T2, which is a time later than time T1, are shown. In the images L1, R1, L2, and R2, each square indicates one pixel. First, it is assumed that the point 15a in the image L1 at time T1 is input as a point of interest (start point). A point 15b on the image R1, which is a point corresponding to the point 15a, is obtained by a corresponding point search. In addition, when the point 15a is set as the attention point, the point 16a corresponding to the point 15a is obtained by the corresponding point search on the image L2 at the time T2. Then, with this point 16a as a point of interest, a point 16b corresponding to the point 16b in the image R2 at time T2 is obtained by the corresponding point search. Each point 15a, 15b, 16a, 16b is actually a point, but in view of ease of viewing, in FIG. Note that, for example, the corresponding point at the time when the time series image does not exist, such as the time between T1 and T2, is interpolated using the corresponding points at T1 and T2, which are the time before and after the time series image exists. What is necessary is just to obtain | require by etc. In addition, the corresponding point search is not limited to being performed on a subject image captured at a later time, but can also be performed on a subject image captured at a previous time.

次に、上記対応点探索により求めた対応点を用いて、3次元画像情報を算出する方法について説明する。点15aの座標を(p1x,p1y)とし、点15bの座標を(q1x,q1y)とし、点16aの座標を(p2x,p2y)とし、点16bの座標を(q2x,q2y)とする。なお、図面の上下方向が各画像のY方向であり、左右方向が各画像のX方向である。なお、上述したように、各カメラは平行配置されているので、点15aおよび点15bのY座標は同じであり、点16aおよび点16bのY座標も同じである。   Next, a method for calculating the three-dimensional image information using the corresponding points obtained by the corresponding point search will be described. The coordinates of the point 15a are (p1x, p1y), the coordinates of the point 15b are (q1x, q1y), the coordinates of the point 16a are (p2x, p2y), and the coordinates of the point 16b are (q2x, q2y). Note that the vertical direction in the drawing is the Y direction of each image, and the horizontal direction is the X direction of each image. As described above, since the cameras are arranged in parallel, the Y coordinates of the points 15a and 15b are the same, and the Y coordinates of the points 16a and 16b are also the same.

まず、点15aおよび点15aにより求めた点15bの座標より、画像L1およびR1における視差を示すベクトルであるΔd1が求められる。具体的には、Δd1は(q1x−p1x,0)である。また、点15aおよび点15aにより求めた点16aの座標より、画像L1およびL2における動きを示すベクトルであるΔf1が求められる。具体的には、Δf1は(p2x−p1x,p2y−p1y)である。また、点16aおよび点16aにより求めた点16bの座標より、時刻T2の画像における視差を示すベクトルであるΔd2が求められる。具体的には、Δd2は(q2x−p2x,0)である。   First, Δd1 which is a vector indicating the parallax in the images L1 and R1 is obtained from the coordinates of the point 15b obtained from the points 15a and 15a. Specifically, Δd1 is (q1x−p1x, 0). Further, Δf1, which is a vector indicating the motion in the images L1 and L2, is obtained from the coordinates of the point 16a obtained from the points 15a and 15a. Specifically, Δf1 is (p2x−p1x, p2y−p1y). Further, Δd2, which is a vector indicating parallax in the image at time T2, is obtained from the coordinates of the point 16b obtained from the points 16a and 16a. Specifically, Δd2 is (q2x−p2x, 0).

なお、Δd1をもとに、時刻T1における画像より得た画像の奥行きの距離D1が求まる。ここで、距離D1は、図2における紙面垂直方向の座標であり、この座標をZ座標とする。また、画像L1、R1、L2、R2を生成したステレオカメラにおける、各カメラの焦点距離をfとし、各カメラ同士の基線長をBとすると、D1は式1で表される。なお、式1において、Δd1はベクトルの大きさである。
D1=fB/Δd1・・・(1)
Note that, based on Δd1, the depth distance D1 of the image obtained from the image at time T1 is obtained. Here, the distance D1 is a coordinate in the direction perpendicular to the paper surface in FIG. 2, and this coordinate is a Z coordinate. Further, in the stereo camera that has generated the images L1, R1, L2, and R2, D1 is expressed by Equation 1 where f is the focal length of each camera and B is the baseline length between the cameras. In Equation 1, Δd1 is the magnitude of the vector.
D1 = fB / Δd1 (1)

また、同様に、時刻T2における画像より得た画像の奥行き(Z座標方向)の距離D2は、Δd2を用いて、式2で表される。なお、式2において、Δd2はベクトルの大きさである。
D2=fB/Δd2・・・(2)
Similarly, the distance D2 of the depth (Z coordinate direction) of the image obtained from the image at time T2 is expressed by Equation 2 using Δd2. In Equation 2, Δd2 is the magnitude of the vector.
D2 = fB / Δd2 (2)

これらより、時刻T1における点15aおよび15bにおける3次元座標(X1,Y1,Z1)は、(p1x・D1/f,p1y・D1/f,D1)と表すことができ、時刻T2における点16aおよび16bにおける3次元座標(X2,Y2,Z2)は、(p2x・D2/f,p2y・D2/f,D2)と表すことができる。   From these, the three-dimensional coordinates (X1, Y1, Z1) at the points 15a and 15b at time T1 can be expressed as (p1x · D1 / f, p1y · D1 / f, D1), and the points 16a and 16 at time T2 The three-dimensional coordinates (X2, Y2, Z2) in 16b can be expressed as (p2x · D2 / f, p2y · D2 / f, D2).

これら3次元座標(X1,Y1,Z1)および(X2,Y2,Z2)から3次元動きベクトルが求められる。具体的には、3次元動きベクトルは、(X2−X1,Y2−Y1,Z2−Z1)で表されるベクトルである。   A three-dimensional motion vector is obtained from these three-dimensional coordinates (X1, Y1, Z1) and (X2, Y2, Z2). Specifically, the three-dimensional motion vector is a vector represented by (X2-X1, Y2-Y1, Z2-Z1).

このようにして、3次元画像情報算出部7はステレオカメラ1により撮像された被写体における画像上の任意の点について、その3次元座標および動きベクトル等の3次元画像情報を算出する。なお、このようにして3次元画像情報算出部7により算出された3次元座標(X1,Y1,Z1)は、ステレオカメラ1の撮像位置を基準とするものである。ステレオカメラ1は移動体に搭載されていることから、3次元画像情報算出部7において算出された、画像の3次元座標の基準(ステレオカメラ)位置は異なる。   In this way, the three-dimensional image information calculation unit 7 calculates the three-dimensional image information such as the three-dimensional coordinates and motion vectors of arbitrary points on the image of the subject imaged by the stereo camera 1. The three-dimensional coordinates (X1, Y1, Z1) calculated by the three-dimensional image information calculation unit 7 in this way are based on the imaging position of the stereo camera 1. Since the stereo camera 1 is mounted on the moving body, the reference (stereo camera) position of the three-dimensional coordinates of the image calculated by the three-dimensional image information calculation unit 7 is different.

なお、撮像部を単眼カメラとした場合には、この単眼カメラにより生成された時系列画像からは、2次元動きベクトルを算出することができる。単眼カメラの場合は、上述したステレオカメラによる画像のうち、一方のカメラで撮影した画像について考えればよい。例えば時系列画像である画像L1およびL2を取得して、点15aに対応する点16aを探索して求め、点15aおよび16aから2次元動きベクトルを求めればよい。ここで、2次元動きベクトルは上記Δf1で表される。この場合は、3次元情報表示装置100は、例えば、レーザやミリ波による3次元計測ができる機器である立体情報取得部を有する構成である。そこで、3次元画像情報算出部7は、立体情報取得部により取得された立体情報を時系列画像と関連づけることとすればよい。なお、3次元画像情報算出部7は、上述の方法以外の方法により3次元画像情報を算出してもよい。   When the imaging unit is a monocular camera, a two-dimensional motion vector can be calculated from a time-series image generated by the monocular camera. In the case of a monocular camera, it is only necessary to consider an image captured by one camera among the images obtained by the stereo camera described above. For example, the images L1 and L2, which are time-series images, are acquired, searched for and obtained from the point 16a corresponding to the point 15a, and a two-dimensional motion vector may be obtained from the points 15a and 16a. Here, the two-dimensional motion vector is represented by Δf1. In this case, the three-dimensional information display device 100 is configured to include a three-dimensional information acquisition unit that is a device capable of performing three-dimensional measurement using a laser or millimeter wave, for example. Therefore, the three-dimensional image information calculation unit 7 may associate the stereoscopic information acquired by the stereoscopic information acquisition unit with the time-series image. Note that the three-dimensional image information calculation unit 7 may calculate the three-dimensional image information by a method other than the method described above.

動体特定部8は、画像中における動体対応画像部分を特定する。ここで、動体とは、自動車やバイク等の車両、自転車、歩行者等である実際に地面に対して移動している物体をいう。また、動体対応画像部分とは、画像中に表示された動体に対応する箇所をいう。なお、本発明の一実施形態において、ステレオカメラ1は車両等の移動体に搭載されて撮像を行うため、この移動体に対して相対的に移動していても、動体であるとは限らない。そこで、以下に、ステレオカメラ1により生成された時系列画像における動体対応画像部分の特定方法について説明する。なお、動体対応画像部分の特定においては、動体特定部8は、3次元画像情報算出部7により求められた3次元座標、2次元動きベクトルおよび3次元動きベクトル等の3次元画像情報を用いる。なお、画像上の動体対応画像部分を特定するとは、具体的には、画像として表されている物体のうち動体が表示されている箇所を特定し、その3次元画像情報を取得することをいう。   The moving object specifying unit 8 specifies a moving object corresponding image portion in the image. Here, the moving body refers to an object that is actually moving with respect to the ground, such as a vehicle such as an automobile or a motorcycle, a bicycle, or a pedestrian. The moving object corresponding image portion refers to a portion corresponding to the moving object displayed in the image. In the embodiment of the present invention, since the stereo camera 1 is mounted on a moving body such as a vehicle and performs imaging, even if the stereo camera 1 moves relative to the moving body, it is not necessarily a moving body. . Therefore, a method for specifying the moving object corresponding image portion in the time-series image generated by the stereo camera 1 will be described below. In specifying the moving object corresponding image portion, the moving object specifying unit 8 uses three-dimensional image information such as the three-dimensional coordinates, the two-dimensional motion vector, and the three-dimensional motion vector obtained by the three-dimensional image information calculating unit 7. Note that specifying the moving object-corresponding image portion on the image specifically refers to specifying the location where the moving object is displayed among the objects represented as the image, and acquiring the three-dimensional image information. .

まず、動きの消失点を用いて動体対応画像部分を特定する方法がある。ここで、動きの消失点とは、画像上の各点における動きベクトルをその方向に沿って延長した直線が交わる点である。この消失点は、画像上の物体の移動方向に応じて定まる。すなわち、カメラが同一方向に移動している場合において、同一物体であれば同一方向に移動していることから、その物体に対しての消失点が存在する。また、画像上の物体が静止体である場合に、静止体である物体すべてに対して同一の消失点が存在する(「主成分分析を用いた移動物体認識法の検討」,情報処理学会 研究報告 − コンピュータビジョンとイメージメディアVol.1996,No.31,1995−CVIM−099,文献番号:IPSJ−CVIM95099008参照)。なお、ステレオカメラ1により撮像される被写体の画像のほとんどは、信号機や、路面、横断歩道、壁等の静止体に対応する静止体対応画像部分で占められていると考えられる。ここで、静止体対応画像部分とは、画像中に表示された、静止体に対応する箇所をいう。そして、そのように仮定すると、最も多くの動きベクトルに対する消失点が静止体対応画像部分に対応する静止体の消失点であると推測される。したがって、画像において存在する消失点の内、最も多くの動きベクトルに対する消失点を除いた後に存在する各消失点が動体対応画像部分に対応する動体の消失点であると推定できる。   First, there is a method of specifying a moving object corresponding image portion using a vanishing point of movement. Here, the vanishing point of motion is a point where a straight line obtained by extending the motion vector at each point on the image along the direction intersects. This vanishing point is determined according to the moving direction of the object on the image. That is, when the camera is moving in the same direction, if it is the same object, it has moved in the same direction, so there is a vanishing point for that object. In addition, when the object on the image is a stationary object, the same vanishing point exists for all the objects that are stationary objects ("Examination of moving object recognition method using principal component analysis", Information Processing Society of Japan Report-Computer Vision and Image Media Vol. 1996, No. 31, 1995-CVIM-099, literature number: IPSJ-CVIM 9509008). It should be noted that most of the images of the subject imaged by the stereo camera 1 are considered to be occupied by a stationary object corresponding image portion corresponding to a stationary object such as a traffic light, a road surface, a pedestrian crossing, and a wall. Here, the stationary object-corresponding image portion refers to a portion displayed in the image and corresponding to the stationary object. Then, assuming that, the vanishing point for the most motion vectors is estimated to be the vanishing point of the stationary object corresponding to the stationary object corresponding image portion. Therefore, it can be estimated that each vanishing point existing after removing vanishing points for the most motion vectors among vanishing points existing in the image is a vanishing point of the moving object corresponding to the moving object corresponding image portion.

そこで、動体特定部8は、3次元画像情報算出部7により算出した、時系列画像において求められる動きベクトルをその方向に沿って延長して、それらが交わる点である消失点を画像上において求める。そして、それら消失点の内、最も多くの動きベクトルに対する消失点以外の各消失点を動体対応画像部分に対応する消失点であると推定する。さらに、このようにして、推定された動体対応画像部分の消失点をもとに、画像上の動体対応画像部分を特定し、その3次元画像情報を取得する。このようにして、各時系列画像における動体対応画像部分を特定することができる。なお、動きベクトルは、3次元画像情報算出部7により算出されているので、消失点を求めるために新たに動きベクトルを算出する必要はなく、消失点を容易に算出することができる。   Therefore, the moving object specifying unit 8 extends the motion vector calculated in the time-series image calculated by the three-dimensional image information calculating unit 7 along the direction, and determines a vanishing point on the image where they intersect. . Of these vanishing points, each vanishing point other than the vanishing points for the most motion vectors is estimated to be a vanishing point corresponding to the moving object corresponding image portion. Further, based on the vanishing point of the estimated moving object corresponding image portion in this way, the moving object corresponding image portion on the image is specified, and its three-dimensional image information is acquired. In this way, the moving object corresponding image portion in each time-series image can be specified. Since the motion vector is calculated by the three-dimensional image information calculation unit 7, it is not necessary to calculate a new motion vector to obtain the vanishing point, and the vanishing point can be easily calculated.

次に、パターン認識あるいはテンプレートマッチング等により動体対応画像部分を特定する方法について説明する。例えば、自動車やバイク等の車両、自転車、歩行者等のように、被写体として存在することが予想される動体について、パターン認識あるいはテンプレートマッチングを用いて、画像における動体対応画像部分を特定してもよい。パターン認識においては、上記動体に関するパターン認識のためのデータを予め記憶部12に記憶しておくこととすればよい。そして、動体特定部8は、予め記憶部12に記憶されたデータを用いて画像においてパターン認識を行うことで画像上の動体対応画像部分を特定し、その3次元画像情報を取得する。さらに、パターン認識においては、例えばSVM(Support vector machine;サポートベクターマシン)やAdaBoost等の手法を用いて、パターンデータを学習していくことで、より効率良く動体対応画像部分を特定することができる。また、テンプレートマッチングにおいては、上記動体に関するテンプレートを予め記憶部12に記憶しておくこととすればよい。そして、動体特定部8は、上述の対応点探索と同様に、そのテンプレートと相関値の高い箇所を画像から探索することで、画像上の動体対応画像部分を特定し、その3次元画像情報を取得する。   Next, a method for specifying the moving object corresponding image portion by pattern recognition or template matching will be described. For example, for a moving object that is expected to exist as a subject, such as a vehicle such as an automobile or a motorcycle, a bicycle, or a pedestrian, the moving object corresponding image portion in the image may be specified using pattern recognition or template matching. Good. In pattern recognition, data for pattern recognition related to the moving object may be stored in the storage unit 12 in advance. And the moving body specific | specification part 8 specifies the moving body corresponding | compatible image part on an image by performing pattern recognition in an image using the data previously memorize | stored in the memory | storage part 12, and acquires the three-dimensional image information. Furthermore, in pattern recognition, for example, a moving object corresponding image portion can be identified more efficiently by learning pattern data using a method such as SVM (Support Vector Machine) or AdaBoost. . In template matching, a template relating to the moving object may be stored in the storage unit 12 in advance. Then, similarly to the corresponding point search described above, the moving object specifying unit 8 searches the image for a portion having a high correlation value with the template, thereby specifying the moving object corresponding image portion on the image, and obtaining the three-dimensional image information. get.

また、上記パターン認識およびテンプレートマッチングと同様、動体候補を用いて動体対応画像部分を特定する方法として、画像中のエッジ分布と左右対称性等から、画像上の車両を特定する方法もある(例えば、特開平7−334800号公報参照)。この方法により、動体特定部8が、画像上における車両等の動体対応画像部分を特定し、その3次元画像情報を取得することとしてもよい。   Similarly to the above pattern recognition and template matching, as a method of specifying a moving object-corresponding image portion using moving object candidates, there is a method of specifying a vehicle on an image based on edge distribution and left-right symmetry in the image (for example, JP, 7-334800, A). By this method, the moving object specifying unit 8 may specify a moving object corresponding image portion such as a vehicle on the image and acquire the three-dimensional image information.

また、ステレオ時系列画像から求めた3次元動きベクトルに対して、このステレオ時系列画像を生成したステレオカメラ1の移動速度によりこれらを補正することで画像上の静止体対応画像部分と動体対応画像部分とを判別する方法もある(例えば、特開2006−134035号参照)。この方法を用いる場合は、動体特定部8はステレオカメラ1が搭載された移動体の速度情報を受け、3次元画像情報算出部7により算出された3次元動きベクトルを用いて、画像上の動体対応画像部分を特定し、その3次元画像情報を取得することができる。   Further, the three-dimensional motion vector obtained from the stereo time-series image is corrected by the moving speed of the stereo camera 1 that generated the stereo time-series image, so that the still-body-corresponding image portion and the moving-object-corresponding image on the image are corrected. There is also a method for discriminating a portion (see, for example, JP-A-2006-134035). When this method is used, the moving object specifying unit 8 receives speed information of the moving object on which the stereo camera 1 is mounted, and uses the three-dimensional motion vector calculated by the three-dimensional image information calculating unit 7 to move the moving object on the image. The corresponding image portion can be specified and the three-dimensional image information can be acquired.

また、ステレオカメラ1により生成された画像を見ながら操作者がその画像中から動体対応画像部分を選ぶことで、動体対応画像部分が特定されることとしてもよい。図3は操作者が動体対応画像部分を特定する場合について説明するための図であって、図3(A)は時刻Tにおける画像において動体対応画像部分を特定した状態を示す図であり、図3(B)は時刻T+Δtにおける画像における動体対応画像部分を特定した状態を示す図である。例えば、操作者が入力部4を用いて、表示装置5および画像記録部6に指示することで、表示装置5がステレオカメラ1により生成され、画像記録部6に記憶されている画像を表示する。そして、操作者は、入力部4であるマウス等を操作することで、表示装置5に表示された画像の一部を選択することができることとすればよい。そして、選択された箇所は動体対応画像部分として特定される。具体的には、3次元画像情報算出部7により3次元画像情報が算出されている画像が、画像記録部6から読み出され表示装置5に表示される。表示装置5には、表示された画像以外に、例えばマウスにより表示装置5の画面における位置を操作できるカーソル等が表示され、当該カーソルにより画像上の部分を選択することで、選択された部分の3次元画像情報が動体特定部8に入力され、動体対応画像部分が特定される。   Alternatively, the moving object corresponding image portion may be specified by the operator selecting a moving object corresponding image portion from the image while viewing the image generated by the stereo camera 1. FIG. 3 is a diagram for explaining a case where the operator specifies a moving object-corresponding image portion, and FIG. 3A is a diagram showing a state in which the moving object-corresponding image portion is specified in the image at time T. 3 (B) is a diagram illustrating a state in which the moving object corresponding image portion in the image at time T + Δt is specified. For example, when the operator instructs the display device 5 and the image recording unit 6 using the input unit 4, the display device 5 displays an image generated by the stereo camera 1 and stored in the image recording unit 6. . The operator may select a part of the image displayed on the display device 5 by operating the mouse or the like that is the input unit 4. And the selected location is specified as a moving body corresponding | compatible image part. Specifically, an image for which 3D image information is calculated by the 3D image information calculation unit 7 is read from the image recording unit 6 and displayed on the display device 5. In addition to the displayed image, the display device 5 displays, for example, a cursor or the like that can operate the position on the screen of the display device 5 with a mouse. By selecting a portion on the image with the cursor, the selected portion is displayed. The three-dimensional image information is input to the moving object specifying unit 8 and the moving object corresponding image portion is specified.

例えば、図3(A)および図3(B)に示すように、操作者が表示装置5に表示された画像から、自動車を含む動体対応画像部分21および22と、歩行者を含む動体対応画像部分23とを入力部4により選択することで、動体特定部8はこれらの画像上の動体対応画像部分を特定し、その3次元画像情報を取得する。また、他の時系列画像においても、操作者がそれぞれ動体対応画像部分を特定してもよい。例えば、図3(B)は、図3(A)よりΔt後の画像であるが、この画像についても上述のように、操作者が動体対応画像部分を選択してもよい。   For example, as shown in FIGS. 3 (A) and 3 (B), from the image displayed on the display device 5 by the operator, the moving object corresponding image portions 21 and 22 including a car and the moving object corresponding image including a pedestrian. By selecting the portion 23 by the input unit 4, the moving object specifying unit 8 specifies the moving object corresponding image part on these images, and acquires the three-dimensional image information thereof. Also, in other time-series images, the operator may specify the moving object corresponding image portion. For example, FIG. 3B shows an image after Δt from FIG. 3A, and the operator may select the moving object corresponding image portion as described above.

なお、動体特定部8は、上記いずれかの方法により、すべての時系列画像ごとに上記方法により動体対応画像部分を特定してもよいし、いずれか1つの画像、すなわち1フレームについて上記いずれかの方法により動体対応画像部分を特定し、残りの時系列画像については、対応点探索等を用いて動体対応画像部分を追尾し、特定すればよい。また、任意の画像における動体対応画像部分を入力し、その画像の時系列画像において、この動体対応画像部分を追尾していく方法としては、対応点探索による方法だけでなく、例えば、Lucas−Kanade法等の動きベクトルを算出する演算を用いる方法等がある。動体特定部8は、例えばLucas−Kanade法等を用いて、他の時系列画像について画像上の動体対応画像部分を特定し、その3次元画像情報を取得することとしてもよい。Lucas−Kanade法は、画像間における動きベクトルを求める手法であるが、動きベクトルを求めることで、画像間における対応つけも可能であることから、動体対応画像部分の追尾も可能である。   The moving object specifying unit 8 may specify the moving object-corresponding image portion for every time-series image by any of the above methods, or any one of the above for any one image, that is, one frame. The moving object corresponding image portion may be specified by the method described above, and the remaining time series images may be specified by tracking the moving object corresponding image portion using a corresponding point search or the like. Further, as a method of inputting a moving object corresponding image portion in an arbitrary image and tracking the moving object corresponding image portion in the time-series image of the image, not only a method by corresponding point search but also, for example, Lucas-Kanade There is a method using a calculation such as a method for calculating a motion vector. The moving object specifying unit 8 may specify a moving object corresponding image portion on the image for another time-series image using, for example, the Lucas-Kanade method and acquire the three-dimensional image information. The Lucas-Kanade method is a method for obtaining a motion vector between images, but by obtaining a motion vector, correspondence between images is possible, and tracking of a moving object corresponding image portion is also possible.

また、動体特定部8は、上述した方法の内、一つの方法により動体対応画像部分を特定してもよいし、いずれかの方法を選択的に用いて動体対応画像部分を特定することとしてもよい。例えば、パターン認識またはテンプレートマッチングにより、まず動体対応画像部分を特定することとし、これらの方法で動体対応画像部分を特定できない場合には、操作者が入力部4を用いて動体対応画像部分を特定することとしてもよい。   Further, the moving object specifying unit 8 may specify the moving object corresponding image portion by one of the methods described above, or may selectively use any one of the methods to specify the moving object corresponding image portion. Good. For example, the moving object corresponding image portion is first identified by pattern recognition or template matching. If the moving object corresponding image portion cannot be identified by these methods, the operator identifies the moving object corresponding image portion using the input unit 4. It is good to do.

静止体特定部9は、3次元画像情報算出部7において算出された3次元座標、2次元動きベクトルおよび3次元動きベクトル等をもとに、各画像における静止体対応画像部分を特定する。ここで、静止体とは、例えば、信号機や、路面、横断歩道、壁等であって、地面に固定されているものであるが、ステレオカメラ1は移動体である車両等に搭載されていることから、ステレオカメラ1自体も移動している。それにより、時系列画像上において、静止体対応画像部分は移動している。このように、画像上では固定されていないが、実際には移動していない静止体における静止体対応画像部分を画像から特定する方法としては、以下の方法がある。静止体特定部9は、これらの方法を用いて、画像より静止体対応画像部分を特定する。また、画像上において、上記動体特定部8により特定した動体対応画像部分以外を静止体として特定してもよい。なお、画像上の静止体対応画像部分を特定するとは、具体的には、画像として表されている物体のうち静止体が表示されている箇所を特定し、その3次元画像情報を取得することをいう。   The stationary object specifying unit 9 specifies a stationary object corresponding image part in each image based on the three-dimensional coordinates, the two-dimensional motion vector, the three-dimensional motion vector, and the like calculated by the three-dimensional image information calculating unit 7. Here, the stationary body is, for example, a traffic light, a road surface, a pedestrian crossing, a wall, etc., which is fixed to the ground, but the stereo camera 1 is mounted on a vehicle or the like that is a moving body. For this reason, the stereo camera 1 itself is also moving. Thereby, the stationary object corresponding image portion moves on the time-series image. As described above, there are the following methods for identifying a stationary object-corresponding image portion of a stationary object that is not fixed on the image but is not actually moved from the image. The stationary object specifying unit 9 uses these methods to specify the stationary object corresponding image portion from the image. Further, on the image, a part other than the moving object corresponding image part specified by the moving object specifying unit 8 may be specified as a stationary object. Note that specifying a still object-corresponding image portion on an image specifically specifies a portion where a stationary object is displayed among objects represented as an image, and acquires three-dimensional image information thereof. Say.

まず、例えば、動きの消失点を用いて静止体対応画像部分を特定する方法について説明する。静止体特定部9は、3次元画像情報算出部7により算出した、時系列画像において消失点を求め、それら消失点の内、最も多くの動きベクトルに対する消失点を静止体対応画像部分に対応する静止体における消失点であると推定する。さらに、このようにして、推定された静止体の消失点をもとに、画像上の静止体対応画像部分を特定し、その3次元画像情報を取得する。このようにして、各時系列画像における静止体対応画像部分を特定することができる。なお、動きベクトルは、3次元画像情報算出部7により算出されているので、消失点を求めるために新たに動きベクトルを算出する必要はなく、消失点を容易に算出することができる。   First, for example, a method for specifying a stationary object corresponding image portion using a vanishing point of motion will be described. The stationary object specifying unit 9 obtains vanishing points in the time-series image calculated by the three-dimensional image information calculating unit 7, and among these vanishing points, the vanishing points for the most motion vectors correspond to the stationary object-corresponding image portion. Estimated to be a vanishing point in a stationary object. Further, based on the estimated vanishing point of the stationary object in this way, the stationary object corresponding image portion on the image is specified, and the three-dimensional image information is acquired. In this way, the stationary object corresponding image portion in each time-series image can be specified. Since the motion vector is calculated by the three-dimensional image information calculation unit 7, it is not necessary to calculate a new motion vector to obtain the vanishing point, and the vanishing point can be easily calculated.

また、静止体特定部9は、信号機、標識、看板等のように、存在することが予想される静止体すなわちランドマークを、パターン認識あるいはテンプレートマッチングにより検出することで、静止体対応画像部分を特定してもよい。なお、この際に用いるパターンデータおよびテンプレートは記憶部12に記憶しておくこととすればよい。このようにして、静止体特定部9は、画像上の静止体対応画像部分を特定し、その3次元画像情報を取得する。なお、動体特定部8と同様に、パターンデータを学習していくことで、より効率良く静止体対応画像部分を特定することができる。   The stationary object specifying unit 9 detects a stationary object that is expected to exist, that is, a landmark, such as a traffic light, a sign, a signboard, or the like by pattern recognition or template matching, so that the stationary object corresponding image portion is detected. You may specify. Note that the pattern data and the template used at this time may be stored in the storage unit 12. In this way, the stationary body specifying unit 9 specifies the stationary body corresponding image portion on the image and acquires the three-dimensional image information. Similar to the moving object specifying unit 8, the stationary object corresponding image portion can be specified more efficiently by learning the pattern data.

また、ステレオカメラ1により生成された画像を見ながら操作者がその画像中から静止体対応画像部分を選ぶことで、静止体対応画像部分が特定されることとしてもよい。図4は操作者が静止体対応画像を特定する場合について説明するための図であって、図4(A)は時刻Tにおける画像において静止体対応画像を特定した状態を示す図であり、図4(B)は時刻T+Δtにおける画像における静止体対応画像を特定した状態を示す図である。例えば、操作者が入力部4を用いて、表示装置5および画像記録部6に指示することで、表示装置5がステレオカメラ1により生成され、画像記録部6に記憶されている画像を表示する。そして、操作者は、入力部4であるマウス等を操作することで、表示装置5に表示された画像の一部の箇所を選択することができることとすればよい。そして、選択された箇所は静止体対応画像部分として特定される。具体的には、3次元画像情報算出部7により3次元画像情報が算出されている画像が、画像記録部6から読み出され表示装置5に表示される。表示装置5には、表示された画像以外に、例えばマウスにより表示装置5の画面における位置を操作できるカーソル等が表示され、当該カーソルにより画像上の一部を選択することで、選択された部分の3次元画像情報が静止体特定部9に入力され、静止体対応画像部分が特定される。   Alternatively, the still body corresponding image portion may be specified by the operator selecting a still body corresponding image portion from the image while viewing the image generated by the stereo camera 1. FIG. 4 is a diagram for describing a case where the operator specifies a stationary object-corresponding image, and FIG. FIG. 4B is a diagram showing a state in which a stationary object corresponding image in the image at time T + Δt is specified. For example, when the operator instructs the display device 5 and the image recording unit 6 using the input unit 4, the display device 5 displays an image generated by the stereo camera 1 and stored in the image recording unit 6. . Then, the operator may select a part of the image displayed on the display device 5 by operating the mouse or the like that is the input unit 4. And the selected location is specified as a stationary object corresponding | compatible image part. Specifically, an image for which 3D image information is calculated by the 3D image information calculation unit 7 is read from the image recording unit 6 and displayed on the display device 5. In addition to the displayed image, the display device 5 displays, for example, a cursor or the like that can operate the position on the screen of the display device 5 with a mouse. By selecting a part on the image with the cursor, the selected portion The three-dimensional image information is input to the stationary body specifying unit 9, and the stationary body corresponding image portion is specified.

例えば、図4(A)および図4(B)に示すように、操作者が表示装置5に表示された画像から、道路と歩道との境界付近および壁面等を含む静止体対応画像部分24、信号機および横断歩道等の路面を含む静止体対応画像部分25、歩道、路面および壁面等を含む静止体対応画像部分26および路面および路面に形成された車線等を含む静止体対応画像部分27を選択することで、静止体特定部9はこれらの画像上の静止体対応画像部分を特定し、その3次元画像情報を取得する。   For example, as shown in FIGS. 4 (A) and 4 (B), from the image displayed on the display device 5 by the operator, the stationary object corresponding image portion 24 including the vicinity of the boundary between the road and the sidewalk and the wall surface, Select a stationary object corresponding image portion 25 including a traffic light and a road surface such as a pedestrian crossing, a stationary object corresponding image portion 26 including a sidewalk, a road surface and a wall surface, and a stationary object corresponding image portion 27 including a lane formed on the road surface and the road surface. Thus, the stationary object specifying unit 9 specifies the still object corresponding image portion on these images and acquires the three-dimensional image information.

なお、静止体特定部9は、上記いずれかの方法により、すべての時系列画像において上記方法により静止体対応画像部分を特定してもよいし、いずれか1つの画像、すなわち1フレームについて上記いずれかの方法により静止体対応画像部分を特定し、残りの時系列画像については、対応点探索等を用いて静止体対応画像部分を追尾し、特定すればよい。また、任意の画像における静止体対応画像部分を入力し、その画像の時系列画像において、この静止体対応画像部分を追尾していく方法としては、対応点探索による方法だけでなく、例えば、Lucas−Kanade法等の動きベクトルを算出する演算を用いる方法等がある。静止体特定部9は、例えばLucas−Kanade法等を用いて、他の時系列画像について画像上の静止体対応画像部分を特定し、その3次元画像情報を取得することとしてもよい。   Note that the stationary object specifying unit 9 may specify the stationary object-corresponding image portion in all the time-series images by any of the above methods, or any one of the above-mentioned images for one image, that is, one frame. The stationary object-corresponding image portion may be specified by such a method, and the remaining time-series images may be identified by tracking the stationary object-corresponding image portion using a corresponding point search or the like. Further, as a method of inputting a still object corresponding image portion in an arbitrary image and tracking the still object corresponding image portion in the time-series image of the image, not only the method by the corresponding point search but also, for example, Lucas There is a method using an operation for calculating a motion vector such as the Kanade method. The stationary object specifying unit 9 may specify a stationary object-corresponding image portion on the other time series image using, for example, the Lucas-Kanade method and acquire the three-dimensional image information.

また、例えば、図4(A)が時刻Tであり、図4(B)は時刻T+Δtの画像であるから、図4(B)は図4(A)からΔt後の画像である。ステレオカメラ1が搭載された移動体は移動しているため、図4(A)および図4(B)において、静止体対応画像部分24、25、26、27の位置は異なっている。また、静止体対応画像部分27は図4(B)においては移動体である車両が割り込んできているので、対応点探索では探索することはできない。そこで、このような場合は、静止体対応画像部分24は、静止体対応画像部分の候補からはずすこととすればよい。   For example, FIG. 4A shows the time T and FIG. 4B shows the image at time T + Δt, and FIG. 4B shows the image after Δt from FIG. 4A. Since the moving object on which the stereo camera 1 is mounted is moving, the positions of the stationary object corresponding image portions 24, 25, 26, and 27 are different in FIGS. 4 (A) and 4 (B). In addition, the stationary object corresponding image portion 27 cannot be searched by the corresponding point search because the vehicle which is a moving object is interrupted in FIG. 4B. Therefore, in such a case, the stationary object corresponding image portion 24 may be excluded from the candidates for the stationary object corresponding image portion.

なお、静止体特定部9は、画像上の静止体対応画像部分をすべて特定する必要はない。また、静止体対応画像部分は、面積を有する必要はなく、点(画素)であってもかまわない。静止体対応画像部分を特定する方法として、いくつかの方法を上述したが、静止体特定部9は、これらのうち、一つの方法により静止体対応画像部分を特定してもよいし、いずれかの方法を選択的に用いて静止体対応画像部分を特定することとしてもよい。   Note that the stationary object specifying unit 9 does not have to specify all the still object-corresponding image portions on the image. Further, the stationary object corresponding image portion does not need to have an area, and may be a point (pixel). Although several methods have been described above as the method for specifying the stationary object-corresponding image part, the stationary object specifying unit 9 may specify the stationary object-corresponding image part by one of these methods. This method may be selectively used to specify the stationary object corresponding image portion.

なお、3次元情報表示装置100が、自動車同士の追突等の交通事故の原因等を究明するためのドライビングレコーダとして使用される場合は、動体の時系列的な位置の変化だけでなく、それと関連して信号機の表示も重要となる。そこで、時刻に関連づけて、信号機において、赤、青、黄のいずれのランプが点灯しているかの情報を合わせて抽出することが好ましい。そのため、静止体特定部(信号機特定部)9は、信号機の静止体対応画像部分を特定しておくことが好ましい。   In addition, when the 3D information display device 100 is used as a driving recorder for investigating the cause of a traffic accident such as a rear-end collision between automobiles, not only the time-series position change of the moving object but also the related matters. Therefore, the display of traffic lights is also important. Therefore, it is preferable to extract the information indicating which of the red, blue, and yellow lamps is lit in the traffic light in association with the time. For this reason, it is preferable that the stationary object specifying unit (signal specifying unit) 9 specifies the stationary object corresponding image portion of the signal.

演算部10は、動体特定部8により特定した動体対応画像部分について、いずれか任意のフレームにおける時系列画像を基準として、異なる時間において撮像された被写体の画像において特定した動体対応画像部分の3次元座標を算出する。上述のように、ステレオカメラ1が移動しながら撮像していることから、動体特定部8および静止体特定部9により特定した動体対応画像部分および静止体対応画像部分の3次元座標の基準は互いに異なっている。そこで、演算部10は、任意の画像(統合画像)を基準とする他の時系列画像における動体対応画像部分の3次元座標を取得する。つまり、演算部10は時間的に異なる複数の画像における動体対応画像部分について、統合画像を基準とした3次元座標を算出する。それにより、静止体に対して移動している動体の時間的な動きを具体的に示すことができる。また、この3次元座標を用いて、基準とした画像中に、静止体に対して時間的に位置が変化する動体を表示することが可能である。それにより、視覚により容易に、正しく動体の動きを把握することが可能であるという効果も奏する。なお、統合画像を基準とする、各画像等における3次元座標のことを、以下では基準化3次元座標という。   The calculation unit 10 uses the three-dimensional moving object-corresponding image portion specified in the images of the subject captured at different times with respect to the moving object-corresponding image portion specified by the moving object specifying unit 8 with reference to a time-series image in any arbitrary frame. Calculate the coordinates. As described above, since the stereo camera 1 captures images while moving, the reference of the three-dimensional coordinates of the moving object corresponding image part and the stationary object corresponding image part specified by the moving object specifying unit 8 and the stationary object specifying unit 9 is mutually Is different. Therefore, the calculation unit 10 acquires the three-dimensional coordinates of the moving object corresponding image portion in another time-series image based on an arbitrary image (integrated image). That is, the calculation unit 10 calculates three-dimensional coordinates with reference to the integrated image for moving object corresponding image portions in a plurality of temporally different images. Thereby, the temporal movement of the moving body moving relative to the stationary body can be specifically shown. In addition, it is possible to display a moving object whose position changes with respect to a stationary object in the reference image using the three-dimensional coordinates. Thereby, there is also an effect that it is possible to easily grasp the motion of the moving object easily and visually. Note that the three-dimensional coordinates in each image or the like based on the integrated image are hereinafter referred to as normalized three-dimensional coordinates.

そこで、統合画像を基準とする各画像における動体対応画像部分の基準化3次元座標の算出の方法について以下に説明する。まず、演算部10は、任意の基準となる画像である統合画像を選択し、この統合画像における静止体対応画像部分に含まれる任意の3点を選択する。演算部10は、例えば、時刻Tにおいて撮像された被写体の画像を統合画像として選択する。なお、静止体対応画像部分は静止体特定部9により特定されているので、演算部10は、そのうちから3点を選択すればよい。なお、各点の画像ごとの3次元座標は算出されているので、演算部10が、同一直線上にない3点を選択することは容易にできる。同様に、演算部10は、基準化3次元座標を算出する統合画像とは別フレームの画像上における、前記統合画像において選択された3点に対応する3点を取得する。例えば、演算部10は、時刻T+Δtにおける画像の座標を、基準化3次元座標の算出に変換するとする。なお、対応する3点については3次元画像情報算出部7で算出したデータを用いてもよいし、演算部10により対応点探索またはLucas−Kaneda法等により求めてもよい。   Therefore, a method for calculating the normalized three-dimensional coordinates of the moving object corresponding image portion in each image based on the integrated image will be described below. First, the calculation unit 10 selects an integrated image that is an image serving as an arbitrary reference, and selects arbitrary three points included in the stationary object corresponding image portion in the integrated image. For example, the calculation unit 10 selects an image of a subject captured at time T as an integrated image. In addition, since the stationary object corresponding | compatible image part is specified by the stationary body specific | specification part 9, the calculating part 10 should just select three points | pieces among them. In addition, since the three-dimensional coordinate for each image of each point is calculated, the calculation unit 10 can easily select three points that are not on the same straight line. Similarly, the calculation unit 10 acquires three points corresponding to the three points selected in the integrated image on an image of a different frame from the integrated image for calculating the standardized three-dimensional coordinates. For example, it is assumed that the calculation unit 10 converts the coordinates of the image at time T + Δt into calculation of standardized three-dimensional coordinates. For the corresponding three points, the data calculated by the three-dimensional image information calculation unit 7 may be used, or the calculation unit 10 may determine the corresponding points or the Lucas-Kaneda method.

上述のように、演算部10は、時刻Tにおける画像の静止体対応画像部分から同一直線上にはない3点を選択し、これらに対応する、時刻T+Δtにおける画像上の点を求める。そして、演算部10は、時刻Tにおける3点により構成される面に、時刻T+Δtにおける3点により構成される面を一致させるために必要な、時刻T+Δtにおける3点の3次元座標の座標変換に必要な回転成分および並進成分を算出する。つまり、演算部10は、時刻Tにおける3点から構成される面の法線ベクトルに、時刻T+Δtにおける3点から構成される面の法線ベクトルを一致させ、時刻Tにおける3点のいずれか1点に時刻T+Δtにおける3点のいずれかを合わせるか、時刻Tにおける3点の重心に時刻T+Δtにおける3点の重心を合わせるような座標変換を行う回転成分および並進成分を算出する。演算部10は、時刻T+Δtの画像における特定した動体対応画像部分の3次元座標を、算出された回転成分および並進成分により変換することで、時刻Tの画像を基準とする基準化3次元座標を算出することができる。   As described above, the calculation unit 10 selects three points that are not on the same straight line from the stationary object corresponding image portion of the image at time T, and obtains corresponding points on the image at time T + Δt. Then, the calculation unit 10 performs coordinate conversion of the three-dimensional coordinates of the three points at time T + Δt, which is necessary to match the surface constituted by the three points at time T + Δt with the surface constituted by the three points at time T. Calculate the necessary rotation and translation components. That is, the arithmetic unit 10 matches the normal vector of the surface composed of three points at time T with the normal vector of the surface composed of three points at time T + Δt, and any one of the three points at time T is obtained. A rotation component and a translation component are calculated to perform coordinate transformation such that any one of the three points at time T + Δt is matched with the point, or the three points centroid at time T + Δt are matched with the centroid at time T + Δt. The calculation unit 10 converts the three-dimensional coordinates of the specified moving object corresponding image portion in the image at time T + Δt by the calculated rotation component and translation component, thereby obtaining the standardized three-dimensional coordinates based on the image at time T. Can be calculated.

ここで、統合画像において選択された3点は、3次元座標においてそれぞれ互いに離れていることが好ましい。それにより、局所的な一致でなく、静止体対応画像部分における広い範囲において、静止体対応画像部分同士が一致することとなり、より確実に一致することとなる。そして、演算部10は、これら複数組により、最小二乗的に、上記回転成分および並進成分を算出すればよい。それにより、演算部10は、より安定した解(回転成分および並進成分)を求めることができ、3次元座標の変換精度が高くなる。   Here, it is preferable that the three points selected in the integrated image are separated from each other in the three-dimensional coordinates. As a result, the stationary object-corresponding image portions match each other over a wide range in the stationary object-corresponding image portion, and the matching is more surely performed. And the calculating part 10 should just calculate the said rotation component and a translation component by the least square by these multiple sets. Thereby, the calculating part 10 can obtain | require the more stable solution (rotation component and translation component), and the conversion precision of a three-dimensional coordinate becomes high.

また、統合画像を基準とする、特定した動体対応画像部分の3次元座標の変換の方法として、別の方法について説明する。具体的には、ICP(Iterative Closest Points)アルゴリズムを用いる方法について説明する。具体的には、演算部10は静止体特定部9により特定された統合画像における静止体対応画像部分の任意の複数の点における3次元座標を初期値とし、これら複数の点に対応する、他の時系列画像上の点を取得する。対応点については3次元画像情報算出部7で算出したデータを用いてもよいし、演算部10により対応点探索またはLucas−Kaneda法等により求めてもよい。そして、演算部10は、ICP(Iterative Closest Points)アルゴリズムを用いることで、時刻Tに撮像され、生成された基準となる統合画像の静止体対応画像部分における複数の点に、これらに対応する時刻T+Δtの画像の静止体対応画像部分における複数の点を3次元座標において一致させるような座標変換に必要な回転成分および並進成分を算出することができる。そして、演算部10は、時刻T+Δtの画像における特定した動体対応画像部分の3次元座標を、算出された回転成分および並進成分により変換することで、時刻Tの画像を基準とする時刻T+Δtの画像における特定した動体対応画像部分の基準化3次元座標算出することができる。このように、ICPアルゴリズムを用いることで、対応する複数の点について、演算部10は、ノイズに影響されにくいロバストな座標変換が可能である。   In addition, another method will be described as a method of converting the three-dimensional coordinates of the specified moving object corresponding image portion on the basis of the integrated image. Specifically, a method using an ICP (Iterative Closest Points) algorithm will be described. Specifically, the calculation unit 10 sets, as initial values, three-dimensional coordinates at arbitrary points of the stationary object corresponding image portion in the integrated image specified by the stationary object specifying unit 9, and corresponds to the plurality of points. The point on the time series image of is acquired. As for the corresponding points, the data calculated by the three-dimensional image information calculation unit 7 may be used, or the calculation unit 10 may obtain the corresponding points by the search for corresponding points or the Lucas-Kaneda method. Then, the arithmetic unit 10 uses an ICP (Iterative Closest Points) algorithm to capture a plurality of points in the stationary object corresponding image portion of the integrated image that is imaged at the time T and is generated and the time corresponding to these points. It is possible to calculate a rotation component and a translation component necessary for coordinate conversion such that a plurality of points in a stationary object corresponding image portion of an image of T + Δt coincide with each other in three-dimensional coordinates. Then, the calculation unit 10 converts the three-dimensional coordinates of the specified moving object corresponding image portion in the image at the time T + Δt by the calculated rotation component and translation component, so that the image at the time T + Δt with the image at the time T as a reference. It is possible to calculate the normalized three-dimensional coordinates of the specified moving object corresponding image portion in FIG. In this way, by using the ICP algorithm, the arithmetic unit 10 can perform robust coordinate transformation that is less susceptible to noise with respect to a plurality of corresponding points.

なお、時刻Tにおける統合画像を基準として、時刻T+Δtにおける画像の特定した動体対応画像部分の3次元座標の変換について説明したが、演算部10は他の時系列画像の特定した動体対応画像部分の3次元座標の変換についても、同様に回転成分および並進成分を算出して、変換していけばよい。なお、ステレオカメラ1を搭載した移動体が直進していれば、前方の離れた箇所にある静止体に対応する静止体対応画像部分は、複数の時系列画像に存在するが、移動体が左折あるいは右折する等、曲がった場合は、その後の時系列画像に存在する静止体対応画像部分が変化していく。そこで、各時系列画像に応じて、最初に統合画像において選択した点の対応点がなくなる場合もあるが、このような場合であっても、演算部10は選択した点を新たな点に変更(更新)していけばよい。そして、座標変換を複数回行うことで、基準化3次元座標の算出は可能である。演算部10は、このように、静止体の3次元画像情報を用いて、移動体の動きに制限されることなく、基準化3次元座標を算出することができる。   Note that the conversion of the three-dimensional coordinates of the moving object corresponding image portion specified in the image at the time T + Δt has been described with reference to the integrated image at the time T. However, the calculation unit 10 does not change the moving object corresponding image portion specified in another time-series image. Similarly, the conversion of the three-dimensional coordinates may be performed by calculating the rotation component and the translation component. Note that if the moving body on which the stereo camera 1 is mounted is going straight, the stationary body corresponding image portion corresponding to the stationary body at a distant place in the front exists in a plurality of time-series images, but the moving body turns left. Alternatively, when the vehicle is bent, such as turning right, the stationary object corresponding image portion existing in the subsequent time series image changes. Therefore, depending on each time-series image, there may be no corresponding point of the first selected point in the integrated image. Even in such a case, the arithmetic unit 10 changes the selected point to a new point. (Renewal). Then, it is possible to calculate standardized three-dimensional coordinates by performing coordinate transformation a plurality of times. As described above, the calculation unit 10 can calculate the standardized three-dimensional coordinates by using the three-dimensional image information of the stationary body without being limited by the movement of the moving body.

さらに、演算部10は、基準である統合画像に対するステレオカメラ1の座標位置を算出することが可能である。具体的には、演算部10は、3次元画像情報算出部7により算出された道路面等の動きベクトルおよび視差等の3次元画像情報によりステレオカメラ1(移動体)の直進成分および回転成分を算出する(特願2008−21950号参照)。それにより、各画像におけるステレオカメラ1の3次元座標を算出することができる。さらに、上述した、統合画像に対する特定した動体対応画像部分の基準化3次元座標の算出と同様にして、統合画像に対するステレオカメラ1の3次元座標を算出すればよい。   Furthermore, the calculation unit 10 can calculate the coordinate position of the stereo camera 1 with respect to the reference integrated image. Specifically, the calculation unit 10 calculates the straight component and the rotation component of the stereo camera 1 (moving body) based on the motion vector of the road surface calculated by the three-dimensional image information calculation unit 7 and the three-dimensional image information such as parallax. Calculate (see Japanese Patent Application No. 2008-21950). Thereby, the three-dimensional coordinates of the stereo camera 1 in each image can be calculated. Furthermore, the three-dimensional coordinates of the stereo camera 1 for the integrated image may be calculated in the same manner as the calculation of the standardized three-dimensional coordinates of the specified moving object corresponding image portion for the integrated image.

演算部10は上述したように、特定した動体対応画像部分について、基準化3次元座標を算出することができる。算出されたこれら特定した動体対応画像部分における基準化3次元座標は基準が同一であるため、これらを用いて動体対応画像部分に対応する動体の動きを表す、動き情報を算出することができる。動き情報とは、例えば、動体の速度、加速度、速度ベクトル、加速度ベクトル等である。また、3次元画像情報算出部7において算出した動きベクトル等も動き情報の一つである。ここで、基準化3次元座標を用いて、特定した動体対応画像部分に対応する動体の速度および加速度等を算出する演算方法について説明する。ここで、t秒ごとの間隔における時系列画像を用いて算出した、同一の動体に対応する動体対応画像部分における連続した3フレームの基準化3次元座標が、それぞれ(x1,y1,z1)、(x2,y2,z2)および(x3,y3,z3)とする。(x1,y1,z1)、(x2,y2,z2)よりこれらを撮像した際の動体の速度v1は、以下の式3により表すことができる。
v1={(Vx1)+(Vy1)+(Vz1)(−2) ・・・(3)
なお、(Vx1,Vy1,Vz1)
=((x2−x1)/t,(y2−y1)/t,(z2−z1)/t)
As described above, the calculation unit 10 can calculate standardized three-dimensional coordinates for the identified moving object corresponding image portion. Since the calculated standardized three-dimensional coordinates in the specified moving object corresponding image portions have the same reference, it is possible to calculate motion information representing the movement of the moving object corresponding to the moving object corresponding image portion using these. The motion information is, for example, moving body speed, acceleration, speed vector, acceleration vector, and the like. The motion vector calculated by the three-dimensional image information calculation unit 7 is also one piece of motion information. Here, a calculation method for calculating the speed and acceleration of the moving object corresponding to the specified moving object corresponding image portion using the standardized three-dimensional coordinates will be described. Here, the standardized three-dimensional coordinates of three consecutive frames in the moving object corresponding image portion corresponding to the same moving object, calculated using the time-series images at intervals of t seconds, are (x1, y1, z1), respectively. Let (x2, y2, z2) and (x3, y3, z3). The velocity v1 of the moving body when these are imaged from (x1, y1, z1) and (x2, y2, z2) can be expressed by the following equation 3.
v1 = {(Vx1) 2 + (Vy1) 2 + (Vz1) 2 } (−2) (3)
(Vx1, Vy1, Vz1)
= ((X2-x1) / t, (y2-y1) / t, (z2-z1) / t)

また、(x2,y2,z2)、(x3,y3,z3)よりこれらを撮像した際の動体の速度v2は、以下の式4により表すことができる。
v2={(Vx2)+(Vy2)+(Vz2)(−2) ・・・(4)
なお、(Vx2,Vy2,Vz2)
=((x3−x2)/t,(y3−y2)/t,(z3−z2)/t)
Moreover, the velocity v2 of the moving body when these are imaged from (x2, y2, z2) and (x3, y3, z3) can be expressed by the following equation 4.
v2 = {(Vx2) 2 + (Vy2) 2 + (Vz2) 2} (-2) ··· (4)
(Vx2, Vy2, Vz2)
= ((X3-x2) / t, (y3-y2) / t, (z3-z2) / t)

さらに、これら3つの画像の各対応点から求められる動体の加速度aは、以下の式5により表すことができる。
a={(Ax2)+(Ay2)+(Az2)(−2) ・・・(5)
なお、(Ax,Ay,Az)
=((Vx2−Vx1)/t,(Vy2−Vy1)/t,(Vz2−Vz1)/t)
Further, the acceleration a of the moving object obtained from the corresponding points of these three images can be expressed by the following formula 5.
a = {(Ax2) 2 + (Ay2) 2 + (Az2) 2} (-2) ··· (5)
(Ax, Ay, Az)
= ((Vx2-Vx1) / t, (Vy2-Vy1) / t, (Vz2-Vz1) / t)

演算部10は、上述の式3〜式5を用いて演算することで、特定した動体対応画像部分に対応する動体の速度および加速度を求めることができる。なお、演算部10は、基準化3次元座標より、速度および加速度の方向も容易に分かるので、速度ベクトル、加速度ベクトルを算出することもできる。   The calculation unit 10 can calculate the speed and acceleration of the moving object corresponding to the specified moving object corresponding image portion by calculating using the above-described Expression 3 to Expression 5. In addition, since the calculating part 10 can also easily know the direction of speed and acceleration from the standardized three-dimensional coordinates, it can also calculate a speed vector and an acceleration vector.

また、演算部10は統合画像中に信号機が存在する場合は、フレームごとの信号機における点灯しているランプの色を算出しておくことが好ましい。なお、静止体特定部9が信号機の3次元画像情報については特定する。そして、演算部10は、画像記録部6に記憶されている時系列画像より、フレームごとに信号機のランプの色を判別できる情報である輝度/色情報等を取得する。なお、取得する情報は輝度値が最大値のものとする。これにより、撮像時刻に応じた、信号機のランプの色が求められる。このデータは、例えば、記憶部12が記憶しておけばよい。   In addition, when there is a traffic light in the integrated image, the arithmetic unit 10 preferably calculates the color of the lit lamp in the traffic light for each frame. The stationary body specifying unit 9 specifies the three-dimensional image information of the traffic light. Then, the calculation unit 10 acquires brightness / color information, which is information that can determine the color of the lamp of the traffic light for each frame, from the time-series images stored in the image recording unit 6. It is assumed that the acquired information has the maximum luminance value. Thereby, the color of the lamp of the traffic light according to the imaging time is obtained. For example, the data may be stored in the storage unit 12.

画像生成部11は、演算部10等により算出した各種データを用いて、画像を生成するための画像信号を生成する。例えば、画像生成部11は、基準化3次元座標を用いることで、各画像上の動体対応画像部分を統合画像に統合するような画像信号を生成することができる。基準となる統合画像に対して、他のフレームに存在する複数の動体対応画像部分を統合するような画像を表示装置5に表示させるような画像信号を生成する。なお、このような表示を以下では、統合表示という。統合画像の3次元座標は、3次元画像情報算出部7により算出されており、統合画像を基準とした統合画像以外のフレームにおける特定した動体対応画像部分の基準化3次元座標は演算部10により算出されていることから、これらに基づいて、画像生成部11は画像信号を生成すればよい。これにより、画像生成部11は、表示装置5に、統合画像中に、静止体対応画像部分に対して時間的に位置が変化する特定した動体対応画像部分を表示させることが可能である。   The image generation unit 11 generates an image signal for generating an image using various data calculated by the calculation unit 10 or the like. For example, the image generation unit 11 can generate an image signal that integrates a moving object corresponding image portion on each image into an integrated image by using the standardized three-dimensional coordinates. An image signal that causes the display device 5 to display an image that integrates a plurality of moving object corresponding image portions existing in other frames is generated with respect to the reference integrated image. Hereinafter, such display is referred to as integrated display. The three-dimensional coordinates of the integrated image are calculated by the three-dimensional image information calculation unit 7, and the standardized three-dimensional coordinates of the specified moving object corresponding image portion in a frame other than the integrated image with reference to the integrated image are calculated by the calculation unit 10. Since it is calculated, the image generation part 11 should just generate | occur | produce an image signal based on these. Thereby, the image generation part 11 can display the specified moving body corresponding | compatible image part to which the position changes temporally with respect to a stationary body corresponding | compatible image part in the integrated image on the display apparatus 5. FIG.

なお、統合画像に動体対応画像部分を統合表示した場合には、静止体対応画像部分および特定されていない動体対応画像部分には変化がないが、特定した動体対応画像部分が複数存在し得る。時間によって、動体対応画像部分の存在位置が異なることから、画像上には、用いた時系列画像の数(フレーム数)に応じた動体対応画像部分が存在し得る。それにより、一つの画像により、特定した動体対応画像部分に対応する動体の動きを表すことができる。なお、統合後の統合画像において、本来は、動体対応画像部分が存在しない箇所に動体対応画像部分が存在することになるため、その箇所においては、もとの画像の一部が削除されることになる。   In addition, when the moving object corresponding image part is integrated and displayed on the integrated image, there is no change in the stationary object corresponding image part and the unspecified moving object corresponding image part, but there may be a plurality of specified moving object corresponding image parts. Since the existence position of the moving object corresponding image portion varies depending on the time, the moving object corresponding image portion corresponding to the number of used time-series images (the number of frames) may exist on the image. Thereby, the motion of the moving object corresponding to the specified moving object corresponding image portion can be represented by one image. Note that in the integrated image after integration, there is a moving object-corresponding image part in a place where the moving object-corresponding image part does not exist, and a part of the original image is deleted in that part. become.

上記統合表示された画像により、静止体に対して移動している動体の時間的な動きを具体的に示すことができる。それにより、操作者が当該画像を見ることで、視覚により容易に、正しく動体の動きを把握することが可能であるという効果を奏する。   The temporal display of the moving body moving with respect to the stationary body can be specifically shown by the integrated display image. Thereby, there is an effect that it is possible for the operator to grasp the movement of the moving object correctly and easily by viewing the image.

ここで、図5に示す、2つの時系列画像を用いて、一方の統合画像に他方の動体対応画像部分を統合した場合の画像について説明する。図5は本発明の一実施形態に係る画像の統合に用いる時系列画像の一例を示す図である。図5において、上段は時刻Tにおける画像であり、下段は時刻TよりもΔt後である、時刻T+Δtにおける画像である。時刻Tにおける画像において、静止体対応画像部分である信号機34a、動体対応画像部分である歩行者31a、車両32a、車両33aが画像上に存在している。そして、時刻T+Δtにおける画像においては、静止体対応画像部分である信号機34b、動体対応画像部分である歩行者31b、車両32bが画像上に存在している。これらの画像より、信号機34aおよび信号機34bは同一の信号機の画像であり、信号機34aに比べて信号機34bが大きく表示されているのは、ステレオカメラ1が信号機34bにより接近しているからである。また、歩行者31aと歩行者31bとは同一の歩行者の画像であり、歩行者31bの方がより車道側(図5において右方向)へ進んでいる。また、車両32aおよび車両32bは同一の車両の画像であり、車両32bの方がより信号機34bに近づいている。また、車両32bは車両32aに比べて大きく表示されているが、これはステレオカメラ1が当該車両に接近しているからである。また、車両33aと同一の車両は時刻T+Δtの画像においては、表示されていない。車両33aは信号機34aから離れる方向へと移動していることから、時刻T+Δtにおいては画像の範囲外に移動している。   Here, an image in the case where the other moving object corresponding image part is integrated into one integrated image using two time-series images shown in FIG. 5 will be described. FIG. 5 is a diagram illustrating an example of a time-series image used for image integration according to an embodiment of the present invention. In FIG. 5, the upper row is an image at time T, and the lower row is an image at time T + Δt, which is Δt after time T. In the image at time T, a traffic light 34a that is a still body corresponding image portion, a pedestrian 31a, a vehicle 32a, and a vehicle 33a that are moving body corresponding image portions are present on the image. In the image at time T + Δt, a traffic light 34b that is a stationary object corresponding image portion, a pedestrian 31b that is a moving object corresponding image portion, and a vehicle 32b are present on the image. From these images, the traffic light 34a and the traffic light 34b are images of the same traffic light, and the traffic light 34b is displayed larger than the traffic light 34a because the stereo camera 1 is closer to the traffic light 34b. Moreover, the pedestrian 31a and the pedestrian 31b are the images of the same pedestrian, and the pedestrian 31b has advanced to the roadway side (right direction in FIG. 5). Further, the vehicle 32a and the vehicle 32b are images of the same vehicle, and the vehicle 32b is closer to the traffic light 34b. The vehicle 32b is displayed larger than the vehicle 32a because the stereo camera 1 is approaching the vehicle. Further, the same vehicle as the vehicle 33a is not displayed in the image at time T + Δt. Since the vehicle 33a is moving away from the traffic signal 34a, the vehicle 33a is moving outside the image range at time T + Δt.

例えば、図5に示された画像を用いて、3次元情報表示装置100は統合画像を基準とする、各時系列画像における動体対応画像部分の基準化3次元座標の算出を算出する。例えば、図5に示した画像を用いた場合に、図5の上段の画像を統合画像とすると、3次元情報表示装置100の画像生成部11は、図6に示す画像を表示装置5に表示するよう画像信号を生成する。図6は本発明の一実施形態において統合された画像を示す図であって、図6(A)は任意の画像を基準とした統合画像を示す図であり、図6(B)は統合画像を俯瞰表示に変換した画像を示す図である。図6(A)に示すように、図5の上段に示された画像において表示されている、信号機34a、歩行者31a、車両32aおよび33a以外に、時刻T+Δtに撮像された動体対応画像部分である歩行者31b、車両32bおよび33bが統合されている。なお、車両33bは図5の下段に示された画像には表示されていないが、例えば、時刻T以前における画像等から、演算部10が車両33aの速度を推定し、時刻T+Δtにおける3次元座標を推定して算出することにより、画像生成部11が車両33bを表示させることは可能である。   For example, using the image shown in FIG. 5, the three-dimensional information display device 100 calculates the calculation of the standardized three-dimensional coordinates of the moving object corresponding image portion in each time-series image with reference to the integrated image. For example, when the image shown in FIG. 5 is used and the upper image in FIG. 5 is an integrated image, the image generation unit 11 of the three-dimensional information display device 100 displays the image shown in FIG. An image signal is generated to FIG. 6 is a diagram showing an integrated image in one embodiment of the present invention. FIG. 6 (A) is a diagram showing an integrated image based on an arbitrary image, and FIG. 6 (B) is an integrated image. It is a figure which shows the image converted into overhead view display. As shown in FIG. 6A, in addition to the traffic light 34a, the pedestrian 31a, and the vehicles 32a and 33a displayed in the image shown in the upper part of FIG. 5, the moving object corresponding image portion captured at time T + Δt. A certain pedestrian 31b and vehicles 32b and 33b are integrated. Although the vehicle 33b is not displayed in the image shown in the lower part of FIG. 5, for example, the calculation unit 10 estimates the speed of the vehicle 33a from the image before the time T, and the three-dimensional coordinates at the time T + Δt. It is possible for the image generation unit 11 to display the vehicle 33b by estimating and calculating.

また、この統合画像は3次元座標を有していることから、画像生成部11は、異なる方向から見た画像として表示装置5に表示させることも可能である。具体的には、表示装置5において、図6(B)に示すように、俯瞰表示とすることも可能である。例えば、このように俯瞰表示とすることで、車両32a、32bおよび車両33a、33bの速度の差等がよくわかる。車両32aと車両32b間の距離に比べて、車両33aと車両33b間の距離の方が長い。したがって、車両33a、33bの方が、車両32a、32bよりも速度が速いことがわかる。なお、図6(B)には、さらに、ステレオカメラ1の位置を示す点34aおよび34bも表示されている。ステレオカメラ1の基準化3次元座標についても、演算部10において算出されているので、画像生成部11はそれを用いて、ステレオカメラ1の位置を示す画像信号を生成すればよい。このようにすることで、ステレオカメラ1を搭載している移動体の位置を把握することができる。それにより、事故等の原因究明を容易に行うことができる可能性がある。   In addition, since the integrated image has three-dimensional coordinates, the image generation unit 11 can display the image on the display device 5 as an image viewed from different directions. Specifically, in the display device 5, as shown in FIG. For example, by using the bird's-eye view display in this way, a difference in speed between the vehicles 32a and 32b and the vehicles 33a and 33b can be well understood. The distance between the vehicle 33a and the vehicle 33b is longer than the distance between the vehicle 32a and the vehicle 32b. Therefore, it can be seen that the speed of the vehicles 33a and 33b is higher than that of the vehicles 32a and 32b. In FIG. 6B, points 34a and 34b indicating the position of the stereo camera 1 are also displayed. Since the calculation unit 10 also calculates the standardized three-dimensional coordinates of the stereo camera 1, the image generation unit 11 may generate an image signal indicating the position of the stereo camera 1 by using it. By doing in this way, the position of the mobile body carrying the stereo camera 1 can be grasped. As a result, the cause of an accident or the like may be easily investigated.

このように、異なる時刻における動体に対応する動体対応画像部分を表示した上記統合画像により、動体の動きがわかりやすく、一目で車両等の動作状況がわかる。したがって、この統合画像を用いることで、事故等の状況の把握を容易に行うことができるという効果を奏する。   Thus, the integrated image displaying the moving object corresponding image portions corresponding to the moving objects at different times makes it easy to understand the movement of the moving object and the operation status of the vehicle or the like at a glance. Therefore, by using this integrated image, it is possible to easily grasp the situation such as an accident.

また、画像生成部11は、表示装置5に表示する画像において、例えば上述のように、時間的に移動している動体に対応する動体対応画像部分と共に、その動きベクトルを重畳表示するよう、画像信号を生成してもよい。動き情報は、例えば、加速度、速度、加速度ベクトル、速度ベクトル等であり、これらは演算部10により算出されている。また、動き情報である動きベクトルは、3次元画像情報算出部7により算出されている。したがって、画像生成部11はこれらを表示装置5に表示するよう画像信号を生成すればよい。図7は、本発明の一実施形態において動き情報を重畳表示された画像を示す図であって、図7(A)は動きベクトルを重畳表示した画像を示す図であり、図7(B)は速度ベクトルを重畳表示した画像を示す図であり、図7(C)は速度を重畳表示した画像を示す図である。画像生成部11は、例えば、図7(A)〜図7(C)に示すような、画像を表示装置5に表示させてもよい。例えば、図7(A)に示すように、異なるフレームにおける同一動体に対応する動体対応画像部分41が画像40に統合表示されていて、さらに、各フレームの動体に対応する動体対応画像部分41の動きベクトルを矢印42として、重畳表示してもよい。また、図7(B)に示すように、異なるフレームにおける同一動体に対応する動体対応画像部分41が画像40に統合表示されていて、さらに、各フレームの動体対応画像部分41に対する動体の速度ベクトルを矢印43として、重畳表示してもよい。また、図7(C)に示すように、異なるフレームにおける同一動体に対応する動体対応画像部分41が画像40に統合表示されていて、さらに、各フレームの動体対応画像部分41に対する動体の速度を表すポップアップ44を、重畳表示してもよい。ポップアップ44に示された速度の単位は、例えばkm/hとすればよい。このように、動きベクトルを画像に重畳表示することで、操作者にとっては、より動体41の動きを把握しやすいという効果を奏する。   In addition, the image generation unit 11 displays an image so that the motion vector is superimposed on the image displayed on the display device 5 together with the moving object corresponding image portion corresponding to the moving object moving in time as described above, for example. A signal may be generated. The motion information is, for example, acceleration, speed, acceleration vector, speed vector, and the like, and these are calculated by the calculation unit 10. In addition, a motion vector that is motion information is calculated by the three-dimensional image information calculation unit 7. Therefore, the image generation part 11 should just generate | occur | produce an image signal so that these may be displayed on the display apparatus 5. FIG. FIG. 7 is a diagram showing an image on which motion information is superimposed and displayed in one embodiment of the present invention, and FIG. 7A is a diagram showing an image on which motion vectors are superimposed, and FIG. FIG. 7 is a diagram showing an image in which velocity vectors are superimposed and FIG. 7C is a diagram showing an image in which velocity is superimposed. The image generation unit 11 may display an image on the display device 5 as shown in, for example, FIGS. 7A to 7C. For example, as shown in FIG. 7A, a moving object corresponding image portion 41 corresponding to the same moving object in different frames is integrally displayed on the image 40, and further, the moving object corresponding image portion 41 corresponding to the moving object of each frame is displayed. The motion vector may be superimposed and displayed as an arrow 42. Further, as shown in FIG. 7B, a moving object corresponding image portion 41 corresponding to the same moving object in different frames is integrated and displayed in an image 40, and the moving object velocity vector for the moving object corresponding image portion 41 of each frame is further displayed. May be superimposed and displayed as an arrow 43. Further, as shown in FIG. 7C, a moving object corresponding image portion 41 corresponding to the same moving object in different frames is integrated and displayed on the image 40, and the moving object speed with respect to the moving object corresponding image portion 41 of each frame is set. The pop-up 44 representing may be displayed in a superimposed manner. The speed unit shown in the pop-up 44 may be km / h, for example. Thus, by displaying the motion vector superimposed on the image, the operator can easily grasp the motion of the moving body 41.

また、画像生成部11は、表示装置5に表示する画像において、例えば複数のフレームの同一動体の動体対応画像部分を、同時に画像上に表示するのではなく、時系列的に表示していってもよい。図8は、本発明の一実施形態において動体対応画像部分が時系列的に表示された画像を示す図であって、図8(A)は第1表示画像を示す図であり、図8(B)は第2表示画像を示す図であり、図8(C)は第3表示画像を示す図である。まず、図8(A)に示すように、表示装置5は、例えば、基準となる統合画像の動体対応画像部分41aに、動きベクトルを示す矢印42を重畳表示した画像40を表示する。次に、図8(B)に示すように、表示装置5は、統合画像に時間的に1つ後のフレームの動体対応画像部分41bを統合し、さらに動きベクトルを示す矢印42を重畳表示し、前のフレームの動体対応画像部分41aは例えば点滅させた画像40を表示する。次に、図8(C)に示すように、表示装置5は、統合画像に、時間的に2つ後のフレームの動体対応画像部分41cを統合し、さらに動きベクトルを示す矢印42を重畳表示し、1つ前およびその1つ前のフレームの動体対応画像部分41bおよび動体対応画像部分41aは例えば点滅させた画像40を表示する。画像生成部11は、例えば、図8(A)〜図8(C)に示す画像を所定時間ごとに、順次切り替えて、表示装置5に表示させればよい。これにより、動体対応画像部分41a〜41cが時間の経過と共に移動していくように表示される。したがって、動体対応画像部分41a〜41cが移動していく様子を視覚により認識でき、操作者にとっては動体対応画像部分41a〜41cの動きを把握しやすいという効果を奏する。   Further, the image generation unit 11 displays, for example, the moving object corresponding image portions of the same moving object of a plurality of frames in a time series instead of simultaneously displaying on the image in the image displayed on the display device 5. Also good. FIG. 8 is a diagram showing an image in which moving object corresponding image portions are displayed in time series in one embodiment of the present invention, and FIG. 8 (A) is a diagram showing a first display image. FIG. 8B is a diagram showing the second display image, and FIG. 8C is a diagram showing the third display image. First, as illustrated in FIG. 8A, the display device 5 displays, for example, an image 40 in which an arrow 42 indicating a motion vector is superimposed and displayed on the moving object corresponding image portion 41a of the reference integrated image. Next, as shown in FIG. 8B, the display device 5 integrates the moving object corresponding image portion 41b of the next frame in time into the integrated image, and further superimposes and displays an arrow 42 indicating a motion vector. The moving object corresponding image portion 41a of the previous frame displays, for example, the blinked image 40. Next, as shown in FIG. 8C, the display device 5 integrates the moving object corresponding image portion 41c of the frame two frames later in time into the integrated image, and further superimposes and displays an arrow 42 indicating the motion vector. The moving object corresponding image portion 41b and the moving object corresponding image portion 41a of the previous frame and the previous frame display, for example, the blinking image 40. For example, the image generation unit 11 may switch the images shown in FIGS. 8A to 8C sequentially at predetermined time intervals and display them on the display device 5. Thus, the moving object corresponding image portions 41a to 41c are displayed so as to move with the passage of time. Therefore, it is possible to visually recognize the movement of the moving object corresponding image portions 41a to 41c, and the operator can easily grasp the movement of the moving object corresponding image portions 41a to 41c.

また、画像生成部11は、表示装置5に表示する画像において、動き情報を選択的に表示することとしてもよい。図9は、本発明の一実施形態において動体の動き情報を選択的に表示している画像を示す図である。例えば、表示装置5は、図7(A)に示すように、異なるフレームにおける同一動体に対応する動体対応画像部分41を画像40に統合表示していて、さらに、各フレームの動体対応画像部分41に対する動体の動きベクトルを矢印42として、重畳表示している。この状態で、図9に示すように、操作者がマウス等の入力部4を用いて、画像上のカーソル46を操作し、任意の矢印42上に重ねるあるいは、重ねた状態でマウスをクリックする等により、例えばその矢印42に対応する動体41の速度を表すポップアップ44が表示されることとしてもよい。動体41の動き情報を選択的に表示させることができるので、操作者にとっては動体41の動きを把握しやすいという効果を奏する。   Further, the image generation unit 11 may selectively display motion information in an image displayed on the display device 5. FIG. 9 is a diagram showing an image that selectively displays motion information of a moving object in an embodiment of the present invention. For example, as shown in FIG. 7A, the display device 5 integrally displays the moving object corresponding image portion 41 corresponding to the same moving object in different frames on the image 40, and further, the moving object corresponding image portion 41 of each frame. The motion vector of the moving object with respect to is superimposed and displayed as an arrow 42. In this state, as shown in FIG. 9, the operator operates the cursor 46 on the image by using the input unit 4 such as a mouse and overlays it on an arbitrary arrow 42 or clicks the mouse in the overlaid state. For example, a pop-up 44 representing the speed of the moving body 41 corresponding to the arrow 42 may be displayed. Since the movement information of the moving body 41 can be selectively displayed, the operator can easily grasp the movement of the moving body 41.

また、画像生成部11は、表示装置5に表示する画像において、複数の異なる動体について、統合表示する場合には、それら表示された動体がいずれのフレームによるものか分かりにくいため、それらが分かるように表示することが好ましい。つまり、表示された動き情報において、同一時刻における動き情報は互いに関連付けて表示すればよい。例えば、カラー表示とし、同一のフレームの動体については、同一の色で表示する等すればよい。また、動き情報を表示し、その動き情報について、同一フレームによるものは同一の色で表示してもよい(第1の表示方法)。また、例えば、統合表示において、動体と共に、動きベクトル等の動き情報を重畳表示し、その動きベクトルにタグ等を合わせて表示してもよい(第2の表示方法)。なお、この場合は、動きベクトルにカーソルを重ねる等して選択することで、タグがポップアップ表示されることとしてもよい。図10は、本発明の一実施形態において複数の異なる動体の動体対応画像部分について表示している画像を示す図であって、図10(A)は第1の表示方法による画像を示す図であり、図10(B)は第2の表示方法による画像を示す図である。図10(A)に示すように、上記第1の表示方法においては、画像40に複数の異なる動体48および49がそれぞれ統合表示されている。そして、例えば、動きベクトルを示す矢印50−1と51−1、矢印50−2と51−2および矢印50−3と51−3がそれぞれ同一フレームにおける動きベクトルを示し、これらは互いに同一色で表示されることとすればよい。それにより、操作者は、同一フレームにおける動き情報が視覚により認識でき、複数の動体の動きを把握しやすいという効果を奏する。また、図10(B)に示すように、上記第2の表示方法においては、画像40に複数の異なる動体48および49がそれぞれ統合表示されている。そして、例えば動きベクトルを示す矢印51も重畳表示されていて、さらに、矢印51に付されたタグ52も重畳表示されている。タグ52はそれぞれ数字等を表していて、対応する矢印51を指示している。つまり、同一のフレームにおける動体の動きベクトルを示す矢印51であれば同一の数字のタグ52が付されることとすればよい。それにより、同一フレームにおける動き情報が視覚により認識でき、複数の動体の動きを把握しやすいという効果を奏する。なお、上述のように、入力部4であるマウス等を用いてカーソル等を矢印51に重ねるあるいは重ねてクリックすることで動きベクトルを選択することで、タグ52がポップアップ表示されることとしてもよい。また、同一時刻における動き情報を互いに関連付けるのではなく、同一フレームの動体を同一色で表示する等、同一時刻における動体を互いに関連づけてもよい。   In addition, in the image displayed on the display device 5, the image generation unit 11, when displaying a plurality of different moving objects in an integrated manner, makes it difficult to know which frame the displayed moving objects are from, so that they can be understood. Is preferably displayed. That is, in the displayed motion information, the motion information at the same time may be displayed in association with each other. For example, color display may be used, and moving objects in the same frame may be displayed in the same color. Further, motion information may be displayed, and the motion information may be displayed in the same color for the same frame (first display method). In addition, for example, in integrated display, motion information such as a motion vector may be superimposed and displayed together with a moving object, and a tag or the like may be displayed along with the motion vector (second display method). In this case, the tag may be pop-up displayed by selecting the motion vector by placing the cursor on the vector. FIG. 10 is a diagram showing an image displayed for a moving object corresponding image portion of a plurality of different moving objects in one embodiment of the present invention, and FIG. 10A is a diagram showing an image by the first display method. FIG. 10B is a diagram showing an image by the second display method. As shown in FIG. 10A, in the first display method, a plurality of different moving bodies 48 and 49 are integrated and displayed on the image 40, respectively. For example, arrows 50-1 and 51-1, which indicate motion vectors, arrows 50-2 and 51-2, and arrows 50-3 and 51-3 indicate motion vectors in the same frame, and these are the same color. It should be displayed. Thereby, the operator can visually recognize the movement information in the same frame, and it is easy to grasp the movements of a plurality of moving objects. Further, as shown in FIG. 10B, in the second display method, a plurality of different moving objects 48 and 49 are integrally displayed on the image 40, respectively. For example, an arrow 51 indicating a motion vector is also superimposed and a tag 52 attached to the arrow 51 is also superimposed and displayed. Each tag 52 represents a number or the like and points to a corresponding arrow 51. That is, the same number tag 52 may be attached to the arrow 51 indicating the motion vector of the moving object in the same frame. Thereby, the movement information in the same frame can be recognized visually, and the effects of easily grasping the movements of a plurality of moving objects are achieved. As described above, the tag 52 may be popped up by selecting a motion vector by overlaying or clicking the cursor 51 on the arrow 51 using the mouse or the like as the input unit 4. . In addition, instead of associating motion information at the same time, moving objects at the same time may be associated with each other, such as displaying moving objects in the same frame in the same color.

また、表示装置5が表示する画像は、任意の画像である統合画像を基準としているため、信号機においては点灯しているランプが変更されることはない。しかし、3次元情報表示装置100が、自動車同士の追突等の交通事故の原因等を究明するためのドライビングレコーダとして使用される場合は、動体の位置に応じて、赤、青、黄のいずれのランプが点灯しているかの情報は、重要である。そこで、演算部10により算出されたフレームごとの信号機における点灯しているランプの情報を用いて、画像生成部11は、例えば、重畳表示している動き情報と合わせて信号機において点灯しているランプの色も表示するよう、画像信号を生成することが好ましい。それにより、事故の前後における車両の動きだけでなく、信号機の状態も画像により、把握できることから、交通事故の原因等の究明に役立つという効果を奏する。   In addition, since the image displayed by the display device 5 is based on an integrated image that is an arbitrary image, the lit lamp is not changed in the traffic light. However, when the three-dimensional information display device 100 is used as a driving recorder for investigating the cause of a traffic accident such as a rear-end collision between automobiles, any of red, blue, and yellow is used depending on the position of the moving object. Information about whether the lamp is lit is important. Therefore, using the information of the lamps that are lit in the traffic light for each frame calculated by the arithmetic unit 10, the image generation unit 11 is, for example, a lamp that is lit in the traffic lights together with the motion information that is superimposed and displayed. It is preferable to generate an image signal so as to display the color. As a result, not only the movement of the vehicle before and after the accident but also the state of the traffic light can be grasped from the image, so that it is useful for investigating the cause of the traffic accident.

次に、統合画像を俯瞰表示とした場合の表示装置5における画像の表示の例について説明する。図11は本発明の一実施形態において統合表示を俯瞰表示とした場合の各動体対応画像部分の表示画像例を示す図であって、図11(A)はフレームレート間隔により、動体対応画像部分を統合表示した画像を示す図であり、図11(B)は所望とする時間間隔により、動体対応画像部分を統合表示した画像を示す図であり、図11(C)は等距離間隔により、各動体対応画像部分を統合表示した画像を示す図であり、図11(D)は基準となる動体に対応する動体対応画像部分を等距離間隔で統合表示し、残りの動体に対応する動体対応画像部分については、基準となる動体に対応したフレームについて統合表示した画像を示す図である。   Next, an example of displaying an image on the display device 5 when the integrated image is an overhead view will be described. FIG. 11 is a diagram showing a display image example of each moving object corresponding image portion when the integrated display is an overhead view in one embodiment of the present invention, and FIG. 11A shows the moving object corresponding image portion depending on the frame rate interval. 11 (B) is a diagram showing an image in which moving object corresponding image portions are integrated and displayed at a desired time interval, and FIG. 11 (C) is an equidistant interval. FIG. 11D is a diagram showing an image in which each moving object corresponding image portion is displayed in an integrated manner, and FIG. 11D integrally displays the moving object corresponding image portion corresponding to the reference moving object at equal distance intervals, and corresponds to the remaining moving objects. As for the image portion, it is a diagram showing an image that is integrally displayed for a frame corresponding to a reference moving object.

画像生成部11は演算部10により算出した、フレームごとの各動体における基準化3次元座標を用いて、統合画像を生成するための画像信号を生成するので、あらゆる角度から見た状態の画像を表示させる画像信号を作成することが可能である。図11(A)〜図11(D)は、上空から見た、いわゆる俯瞰表示とされた画像を示す図である。俯瞰表示とすることで、各動体の動きを把握しやすいという効果を奏する。図11(A)に示す画像55は、すべてのフレームにおける動体56、57を統合表示としている。また、図11(B)に示す画像55は、フレームすべてを用いずに、所望とする間隔のフレームにおける動体56、57を統合表示している。このようにすることで、動体56、57の表示数が図11(A)に比べて減少される。したがって、動体56、57の動きに大きな変化がない場合には、このようにフレーム数を減少させた方が、見やすい画像を表示できる。なお、所望とするフレーム間隔ではなく、所望とする時間間隔における動体56、57を統合表示してもよい。なお、所望とする時間間隔とすると、撮像をしていない時間における動体56、57の基準化3次元座標が必要となる可能性があるが、その場合は、上述したように補間により、動体56、57の基準化3次元座標を算出すればよい。例えば3次元画像情報算出部7において、前後のフレームを用いて補間により、所望とする時刻における動体56、57の3次元画像情報を算出し、それにより演算部10が基準化3次元座標を算出し、画像生成部11は画像信号を生成すればよい。   Since the image generation unit 11 generates an image signal for generating an integrated image using the normalized three-dimensional coordinates of each moving object for each frame calculated by the calculation unit 10, an image viewed from all angles can be obtained. It is possible to create an image signal to be displayed. FIG. 11A to FIG. 11D are diagrams showing images in a so-called overhead view viewed from above. By providing a bird's-eye view display, there is an effect that it is easy to grasp the movement of each moving object. In an image 55 shown in FIG. 11A, moving bodies 56 and 57 in all frames are displayed in an integrated manner. In addition, the image 55 shown in FIG. 11B integrally displays the moving objects 56 and 57 in frames at a desired interval without using all the frames. By doing in this way, the display number of the moving bodies 56 and 57 is reduced compared with FIG. 11 (A). Therefore, when there is no significant change in the movement of the moving bodies 56 and 57, it is possible to display an image that is easier to see by reducing the number of frames in this way. Note that the moving objects 56 and 57 at a desired time interval may be displayed in an integrated manner instead of the desired frame interval. If the desired time interval is used, there is a possibility that the standardized three-dimensional coordinates of the moving objects 56 and 57 at the time when imaging is not performed. In this case, the moving object 56 is interpolated as described above. , 57 can be calculated. For example, the three-dimensional image information calculation unit 7 calculates the three-dimensional image information of the moving bodies 56 and 57 at a desired time by interpolation using the previous and next frames, and the calculation unit 10 calculates the standardized three-dimensional coordinates. The image generation unit 11 may generate an image signal.

また、図11(C)に示す画像55は、それぞれの動体の動体対応画像部分56、57について、同一動体の動体対応画像部分が等距離となるような統合表示を行っている。つまり、動体の動体対応画像部分56、57それぞれにおいて、同一動体間は、所定の距離間隔となるよう表示されている。したがって、動体対応画像部分56、57は、対応するフレームごとに表示されているとは限らない。なお、このような表示を行う場合に、必要であれば上記補間により、基準化3次元座標を算出すればよい。図11(D)に示す画像55は、例えば1つの動体の動体対応画像部分56については、それぞれ等距離間隔となるように統合表示し、残りの動体の動体対応画像部分57は動体対応画像部分56について表示したフレームにおける基準化3次元座標位置について統合表示している。   In addition, the image 55 shown in FIG. 11C performs integrated display so that the moving object corresponding image portions 56 and 57 of the respective moving objects are equidistant from each other. That is, in the moving object corresponding image portions 56 and 57 of the moving object, the same moving object is displayed at a predetermined distance interval. Therefore, the moving object corresponding image portions 56 and 57 are not always displayed for each corresponding frame. In such a display, the standardized three-dimensional coordinates may be calculated by the above interpolation if necessary. In the image 55 shown in FIG. 11D, for example, the moving object corresponding image portion 56 of one moving object is integrated and displayed so as to be equidistant from each other, and the moving object corresponding image portion 57 of the remaining moving objects is displayed as the moving object corresponding image portion. The standardized three-dimensional coordinate position in the frame displayed for 56 is integrated and displayed.

上述した以外にも、各動体の統合表示の方法は様々な方法が考えられる。使用状態に応じて、表示装置5は、適宜、好ましい統合表示を行うこととすればよい。   In addition to the above, various methods can be considered for the integrated display of each moving object. The display device 5 may perform preferable integrated display as appropriate according to the use state.

また、記憶部12は、演算処理装置3における演算処理や制御処理などのデータを記憶している。例えば、上述した、テンプレートマッチング、パターン認識のためのデータを記憶している。また、記憶部12は、3次元画像情報算出部7により算出された3次元画像情報、動体特定部8で特定した動体対応画像部分の3次元座標、静止体特定部9で特定した静止体対応画像部分の3次元座標および演算部10により算出した統合画像を基準として変換した、各特定した動体対応画像部分の基準化3次元座標等を記憶しておくことが好ましい。それにより、演算処理部3で行われる各種演算が効率よく行われることとなり、処理速度が短縮される。   The storage unit 12 stores data such as arithmetic processing and control processing in the arithmetic processing device 3. For example, the above-described data for template matching and pattern recognition is stored. In addition, the storage unit 12 includes the 3D image information calculated by the 3D image information calculation unit 7, the 3D coordinates of the moving object corresponding image portion specified by the moving object specifying unit 8, and the stationary object corresponding specified by the stationary object specifying unit 9. It is preferable to store the three-dimensional coordinates of the image portion and the standardized three-dimensional coordinates of each identified moving object-corresponding image portion converted using the integrated image calculated by the calculation unit 10 as a reference. Thereby, various calculations performed in the calculation processing unit 3 are efficiently performed, and the processing speed is shortened.

トリガー13は、時系列画像の消去を停止するタイミングを画像記録部6に指示する。トリガー13としては、例えば、加速度計を備えて構成されればよい。3次元情報表示装置100は、例えば、自動車に搭載され、ドライビングレコーダとして使用することができるが、その場合は例えば自動車が衝突した場合等に、その前後の画像が必要となる。このように、自動車が衝突した場合には、加速度が急激に変化することから、加速度を検出しておき、加速度が所定の閾値を超えた場合には、その前後に撮像され生成された画像については消去しないよう、トリガー13が画像記録部6に指示することとすればよい。   The trigger 13 instructs the image recording unit 6 to stop erasing the time series image. For example, the trigger 13 may be configured to include an accelerometer. The three-dimensional information display device 100 is mounted on, for example, an automobile and can be used as a driving recorder. In this case, for example, when the automobile collides, images before and after that are required. In this way, when an automobile collides, the acceleration changes abruptly. Therefore, the acceleration is detected, and when the acceleration exceeds a predetermined threshold, images that are captured before and after that are generated. The trigger 13 may instruct the image recording unit 6 not to erase.

次に、本発明の一実施形態に係る3次元情報表示装置100の動作について説明する。車両(移動体)に搭載されたステレオカメラ1は、例えば車両の進行方向にレンズを向けて設置され、所定時間ごとに撮像を繰り返し行う。なお、ステレオカメラ1は左右一対のカメラであり、これら一対のカメラは同時に撮像を行い、時系列ステレオ画像を得る。なお、ステレオカメラ1を用いず、撮像部として単眼カメラを用いる場合は、立体情報取得部である3次元計測ができる機器を用いて、立体情報の計測を行っている。   Next, the operation of the 3D information display apparatus 100 according to an embodiment of the present invention will be described. The stereo camera 1 mounted on the vehicle (moving body) is installed, for example, with a lens facing in the traveling direction of the vehicle, and repeats imaging every predetermined time. The stereo camera 1 is a pair of left and right cameras, and these pair of cameras capture images simultaneously to obtain time-series stereo images. When a monocular camera is used as the imaging unit without using the stereo camera 1, the stereoscopic information is measured using a device capable of three-dimensional measurement, which is a stereoscopic information acquisition unit.

ステレオカメラ1で生成されたステレオ画像は画像記録部6によって随時記憶される。画像記録部6には、所定量のステレオ画像しか記憶できない。そして、画像記録部6は、ステレオ画像を記憶した際に、次に撮像され、生成されたステレオ画像を記憶した場合に、前記所定量を超えるか否かを判断し、所定量を超えると判断した場合には、画像記録部6は、最も前に生成されたステレオ画像を削除する。ここで、車両が衝突等の事故に巻き込まれた場合に、例えば加速度計を有するトリガー13が、急激な加速度の変化により作動すると、画像記録部6は、トリガー13が作動した時から所定時間前までのステレオ画像については、削除することはない。したがって、トリガー13が作動した時以降に撮像された被写体の画像が、画像記録部6が記憶できる前記所定量だけ生成された場合は、ステレオカメラは撮像動作を停止することとすればよい。このようにすることで、トリガー13が作動した時の前後にステレオカメラ1により撮像された画像が画像記録部6に記憶され、これら画像を分析することで、事故の原因究明等につながる可能性がある。   A stereo image generated by the stereo camera 1 is stored by the image recording unit 6 as needed. The image recording unit 6 can store only a predetermined amount of stereo images. Then, when storing the stereo image, the image recording unit 6 determines whether or not the predetermined amount is exceeded when the next captured and generated stereo image is stored, and determines that the predetermined amount is exceeded. In this case, the image recording unit 6 deletes the earliest generated stereo image. Here, when the vehicle 13 is involved in an accident such as a collision, and the trigger 13 having an accelerometer is activated due to a rapid change in acceleration, for example, the image recording unit 6 is a predetermined time before the trigger 13 is activated. The stereo images up to are not deleted. Therefore, if the subject image captured after the trigger 13 is activated is generated in the predetermined amount that can be stored in the image recording unit 6, the stereo camera may stop the imaging operation. By doing so, images captured by the stereo camera 1 before and after the trigger 13 is activated are stored in the image recording unit 6, and analyzing these images may lead to investigation of the cause of the accident, etc. There is.

3次元情報表示装置100は、画像記録部6に記憶された画像をもとに、任意の画像である統合画像を基準とした、特定した動体対応画像部分の基準化3次元座標の算出を算出する。3次元情報表示装置100における、この動作について図5を用いて説明する。図12は、本発明の一実施形態に係る3次元情報表示装置の動作を示すフローチャートである。   The three-dimensional information display device 100 calculates the calculation of the standardized three-dimensional coordinates of the specified moving object corresponding image portion based on the integrated image that is an arbitrary image based on the image stored in the image recording unit 6. To do. This operation in the three-dimensional information display apparatus 100 will be described with reference to FIG. FIG. 12 is a flowchart showing the operation of the three-dimensional information display apparatus according to one embodiment of the present invention.

画像記録部6にトリガー13が作動した時の前後の画像が記憶されている状態で、操作者が例えば入力部4等により基準化3次元座標の算出指示等を入力すると、3次元画像情報算出部7は、画像記録部6に記憶されているステレオ時系列画像を用いて、時系列画像ごとの3次元画像情報を算出する(S101)。   When the operator inputs an instruction to calculate standardized three-dimensional coordinates, for example, using the input unit 4 or the like in a state where the images before and after the trigger 13 is activated are stored in the image recording unit 6, three-dimensional image information calculation is performed. The unit 7 calculates three-dimensional image information for each time series image using the stereo time series image stored in the image recording unit 6 (S101).

そして、動体特定部8は、それら3次元画像情報を用いて動体対応画像部分を特定する(S102)。なお、動体対応画像部分の特定においては、すべての動体対応画像部分を特定してもよいし、いずれかの動体対応画像部分を特定することとしてもよい。例えば、トリガー13が作動した時に、ステレオカメラ1に最も近い位置にある動体に対応する動体対応画像部分のみを特定することとしてもよい。具体的には、トリガー13が作動時に最も近い時間に撮像され、生成された画像における3次元画像情報より、最もステレオカメラ1に近い座標位置に存在する動体に対応する動体対応画像部分を特定する。このように、トリガー13が作動した時にステレオカメラ1に最も近い動体は、トリガー13を作動させる原因になっている可能性が高い。したがって、この動体のトリガー13が作動する前後の動きを知ることで、事故原因の特定等が容易になされる可能性がある。   And the moving body specific | specification part 8 specifies a moving body corresponding | compatible image part using those three-dimensional image information (S102). In specifying the moving object corresponding image portion, all moving object corresponding image portions may be specified, or any moving object corresponding image portion may be specified. For example, when the trigger 13 is actuated, only the moving object corresponding image portion corresponding to the moving object closest to the stereo camera 1 may be specified. Specifically, the moving object corresponding image portion corresponding to the moving object that exists at the coordinate position closest to the stereo camera 1 is specified from the three-dimensional image information in the generated image that is captured at the closest time when the trigger 13 is activated. . Thus, the moving object closest to the stereo camera 1 when the trigger 13 is activated is likely to cause the trigger 13 to be activated. Therefore, the cause of the accident may be easily identified by knowing the movement of the moving body before and after the trigger 13 is activated.

また、静止体特定部9は、3次元画像情報算出部8により算出された画像ごとの3次元画像情報を用いて静止体対応画像部分を特定する(S103)。   In addition, the stationary object specifying unit 9 specifies a stationary object-corresponding image portion by using the 3D image information for each image calculated by the 3D image information calculating unit 8 (S103).

そして、演算部10は、3次元画像情報算出部7により算出された画像ごとの3次元画像情報、動体特定部8で特定した動体対応画像部分の画像ごとの3次元座標および静止体特定部9で特定した静止体対応画像部分の画像ごとの3次元座標をもとに、任意の画像である統合画像を基準とした、特定した動体対応画像部分の3次元座標を算出する(S104)。なお、演算部10は、トリガー13が作動した時に最も近い時間に撮像され、生成された画像を統合画像とすることが好ましい。それにより、トリガーが作動した時の動体対応画像部分の基準化3次元座標の算出等を高精度に算出できる。すなわち、基準とした画像よりも時間的に離れるほど、動体対応画像部分等の3次元座標等の算出誤差が大きくなる。したがって、トリガーが作動した時に最も近い時間に撮像され、生成された画像を統合画像とすることで、トリガーの作動時前後における動体対応画像部分の3次元座標等が、高精度に算出される。   Then, the calculation unit 10 calculates the three-dimensional image information for each image calculated by the three-dimensional image information calculation unit 7, the three-dimensional coordinates for each image of the moving object corresponding image portion specified by the moving object specifying unit 8, and the stationary object specifying unit 9. Based on the three-dimensional coordinates for each image of the stationary object-corresponding image part identified in step S3, the three-dimensional coordinates of the identified moving object-corresponding image part are calculated with reference to the integrated image that is an arbitrary image (S104). In addition, it is preferable that the calculating part 10 is imaged at the nearest time when the trigger 13 act | operates, and the produced | generated image is made into an integrated image. Thereby, the calculation of the standardized three-dimensional coordinates of the moving object corresponding image portion when the trigger is activated can be calculated with high accuracy. That is, as the time is further away from the reference image, the calculation error of the three-dimensional coordinates and the like of the moving object corresponding image portion increases. Therefore, by taking an image captured at the closest time when the trigger is activated and using the generated image as an integrated image, the three-dimensional coordinates of the moving object corresponding image portion before and after the trigger is activated are calculated with high accuracy.

さらに、演算部10は、これら時系列画像を生成しているステレオカメラ1における、統合画像を基準とした3次元座標、すなわちステレオカメラ1の基準化3次元座標を算出する(S105)。また、演算部10は、算出した基準化3次元座標を用いて、速度、加速度、速度ベクトル、加速度ベクトル等の動き情報を算出してもよい。さらに、ステレオカメラ1の基準化3次元座標を算出してもよい。また、演算部10は、統合画像中に信号機が存在する場合は、時系列画像ごとの信号機におけるランプの点灯色を算出しておくことが好ましい。   Further, the calculation unit 10 calculates the three-dimensional coordinates based on the integrated image in the stereo camera 1 generating these time-series images, that is, the normalized three-dimensional coordinates of the stereo camera 1 (S105). In addition, the calculation unit 10 may calculate motion information such as speed, acceleration, a speed vector, and an acceleration vector using the calculated standardized three-dimensional coordinates. Furthermore, the normalized three-dimensional coordinates of the stereo camera 1 may be calculated. In addition, when there is a traffic light in the integrated image, the arithmetic unit 10 preferably calculates the lighting color of the lamp in the traffic light for each time-series image.

そして、画像生成部11は、上述したように、演算部10等により算出した各種データを用いて、画像を生成するための画像信号を生成する(S106)。その画像信号は、表示装置5へと送信され、表示装置5は、統合表示等された画像を表示する(S107)。なお、操作者は、入力部4を用いて、表示された画像の表示方法等の変更指示を行うことで、画像生成部11は、指示された表示となるような画像信号を生成して、表示装置5に表示される画像を変更することが可能であることとすれば好ましい。それにより、操作者は表示装置5に表示された画像を見ながら、必要とする情報を容易に画像より得ることができる。   Then, as described above, the image generation unit 11 generates an image signal for generating an image using various data calculated by the calculation unit 10 or the like (S106). The image signal is transmitted to the display device 5, and the display device 5 displays an image that has been integratedly displayed (S107). The operator uses the input unit 4 to give an instruction to change the display method of the displayed image, so that the image generation unit 11 generates an image signal that provides the indicated display, It is preferable if the image displayed on the display device 5 can be changed. Accordingly, the operator can easily obtain necessary information from the image while viewing the image displayed on the display device 5.

ここで、3次元情報表示装置100におけるステレオカメラ1で生成した、車両同士が衝突した際の時系列画像をもとに生成され、表示装置5に表示された画像について図を用いて説明する。図13は、本発明の一実施形態において交通事故における統合された画像を示す図である。なお、図13は俯瞰表示とされている。図13に示すように、画像55において、交差点内には、右折待ちをしている車両63が停止している。そして、車両62は車両63の後方から、直進してきている。そこに、反対車線を走行していた車両61が右折し、車両62の進路に入ったために、車両62および車両61が互いに衝突を避けようと、急ブレーキをかけていると推定される。トリガー13は、車両62の急ブレーキにより、車両62の加速度が急激に変化し、作動したと推定される。なお、図13においては、トリガー13が作動した時に、最も近い時刻(トリガーポイント)に撮像され、生成された画像における動体対応画像部分については、他の動体対応画像部分とは異なる色で表示するようにしている。図13において、車両61a、62aはトリガーポイントにおける動体対応画像部分である。これにより、操作者はトリガーポイントを容易に認識できるという効果を奏する。また、画像55には、動きベクトル64も重畳表示されている。ここで、トリガーポイントにおける車両62aの1フレーム前の動きベクトル64の大きさがその前のフレームの動きベクトル64に比べて、顕著に小さくなっていることから、ここで、車両62が急ブレーキをかけていることが分かる。   Here, an image generated by the stereo camera 1 in the three-dimensional information display device 100 and generated on the basis of a time series image when vehicles collide and displayed on the display device 5 will be described with reference to the drawings. FIG. 13 is a diagram showing an integrated image in a traffic accident in one embodiment of the present invention. Note that FIG. 13 is an overhead view display. As shown in FIG. 13, in the image 55, a vehicle 63 waiting for a right turn is stopped in an intersection. The vehicle 62 is traveling straight from the rear of the vehicle 63. There, it is estimated that the vehicle 61 traveling in the opposite lane turns right and enters the course of the vehicle 62, so that the vehicle 62 and the vehicle 61 are suddenly braked to avoid collision with each other. The trigger 13 is presumed to have been activated due to a sudden change in the acceleration of the vehicle 62 due to the sudden braking of the vehicle 62. In FIG. 13, when the trigger 13 is actuated, the moving object corresponding image portion in the generated image is displayed at the closest time (trigger point), and is displayed in a color different from other moving object corresponding image portions. I am doing so. In FIG. 13, vehicles 61a and 62a are moving object corresponding image portions at the trigger points. As a result, the operator can easily recognize the trigger point. In addition, a motion vector 64 is also superimposed on the image 55. Here, the magnitude of the motion vector 64 one frame before the vehicle 62a at the trigger point is significantly smaller than the motion vector 64 of the previous frame. You can see that it is over.

また、別の表示画像として、例えば、図14に示す画像について説明する。図14は、本発明の一実施形態において交通事故における統合された別の画像を示す図である。図14は、図13とほぼ同じであるが、トリガーポイントにおける車両の色を変更することなく、トリガーポイント直前の動きベクトル64aの表示形状を他の動きベクトル64とは異なる形状としている点が異なる。これにより、操作者はトリガーポイントを容易に認識できるという効果を奏する。   As another display image, for example, an image shown in FIG. 14 will be described. FIG. 14 is a diagram showing another image integrated in a traffic accident according to an embodiment of the present invention. FIG. 14 is substantially the same as FIG. 13 except that the display shape of the motion vector 64a immediately before the trigger point is different from the other motion vectors 64 without changing the color of the vehicle at the trigger point. . As a result, the operator can easily recognize the trigger point.

また、さらに別の表示画像として、例えば、図15に示す画像について説明する。図15は、本発明の一実施形態において交通事故における統合されたさらに別の画像を示す図である。図15は、図13とほぼ同じであるが、トリガーポイントにおける車両の色を変更することなく、動きベクトル64は、動体の速度や加速度が大きく変化したときだけのものを表示するようにしている点が異なる。それにより、操作者は、着目すべき点を容易に判断することができる。   Further, for example, an image shown in FIG. 15 will be described as another display image. FIG. 15 is a diagram showing still another image integrated in a traffic accident in one embodiment of the present invention. FIG. 15 is almost the same as FIG. 13, but without changing the color of the vehicle at the trigger point, the motion vector 64 is displayed only when the speed or acceleration of the moving object changes greatly. The point is different. Thereby, the operator can easily determine a point to be noted.

また、3次元情報表示装置100において、ステレオカメラ1が固定である場合は、すべての時系列画像において、撮像される基準位置が同一である。したがって、3次元画像情報に含まれる画像ごとの3次元座標の基準はすべての時系列画像において同一であるため、画像ごとの3次元座標は座標変換をせずとも、任意の画像を基準とした場合の3次元座標であるといえる。したがって、画像ごとの3次元座標について座標変換を行う必要がなく、演算部10は、3次元画像情報算出部7により算出された、画像ごとの3次元座標を基準化3次元画像とすればよい。この点が、3次元情報表示装置100において、ステレオカメラ1が固定である場合と、ステレオカメラ1が移動体に搭載されている場合とでは異なるが、他は同様とすればよい。   Further, in the three-dimensional information display device 100, when the stereo camera 1 is fixed, the reference positions to be imaged are the same in all time-series images. Therefore, since the reference of the three-dimensional coordinates for each image included in the three-dimensional image information is the same in all time-series images, the three-dimensional coordinates for each image are based on an arbitrary image without performing coordinate conversion. It can be said that this is the three-dimensional coordinates of the case. Therefore, it is not necessary to perform coordinate conversion for the three-dimensional coordinates for each image, and the calculation unit 10 may use the three-dimensional coordinates for each image calculated by the three-dimensional image information calculation unit 7 as a standardized three-dimensional image. . In this respect, in the three-dimensional information display apparatus 100, the case where the stereo camera 1 is fixed is different from the case where the stereo camera 1 is mounted on a moving body, but the other may be the same.

上述のように、3次元情報表示装置100は、複数の時系列画像のうち、任意の画像である統合画像を基準とした、各時系列画像における動体対応画像部分の3次元座標およびステレオカメラ1の3次元座標である基準化3次元座標を算出し、基準とされる統合画像に各時系列画像の動体対応画像部分を統合して表示する。それにより、操作者にとって、時間変化における動体の動きを容易に把握することができる画像を表示することができという効果を奏する。   As described above, the three-dimensional information display apparatus 100 uses the three-dimensional coordinates of the moving object corresponding image portion in each time-series image and the stereo camera 1 with reference to an integrated image that is an arbitrary image among a plurality of time-series images. The standardized three-dimensional coordinates that are the three-dimensional coordinates are calculated, and the moving object corresponding image portion of each time-series image is integrated and displayed on the reference integrated image. Thus, the operator can display an image that can easily grasp the movement of the moving object over time.

本明細書は、上記のように様々な態様の技術を開示しているが、そのうち主な技術を以下に纏める。   The present specification discloses various aspects of the technology as described above, and the main technologies are summarized below.

本発明の一態様に係る3次元情報表示装置は、被写体を撮像し、複数の時系列画像を生成する撮像部と、立体情報を取得する立体情報取得部と、前記時系列画像および前記立体情報をもとに、前記時系列画像における3次元画像情報を算出する3次元画像情報算出部と、前記時系列画像中における動体対応画像部分を特定する動体特定部と、前記3次元画像情報を用いて、前記特定した動体対応画像部分について、前記時系列画像のうちいずれかの画像を基準とした3次元座標を算出する演算部と、前記3次元座標に基づいて、前記時系列画像における前記特定した動体対応画像部分が前記基準とした画像に統合された画像を表示する表示装置とを備えている。   A three-dimensional information display device according to an aspect of the present invention includes an imaging unit that images a subject and generates a plurality of time-series images, a stereoscopic information acquisition unit that acquires stereoscopic information, the time-series image, and the stereoscopic information 3D image information calculation unit for calculating 3D image information in the time series image, a moving object specifying unit for specifying a moving object corresponding image part in the time series image, and the 3D image information. A calculating unit that calculates a three-dimensional coordinate based on any one of the time-series images for the identified moving object-corresponding image portion, and the identification in the time-series image based on the three-dimensional coordinates. The moving object corresponding image portion includes a display device that displays an image integrated with the reference image.

このように、3次元情報表示装置は、時間的に異なる複数の画像における動体対応画像部分について、任意の画像を基準として統合した画像を表示することができる。この画像は、基準とした画像中に、静止体に対して時間的に位置が変化する動体が表示されていることから、操作者はその画像を見ることで、静止体に対して移動している動体の時間的な動きを具体的に把握することができる。したがって、操作者が、視覚により容易に、正しく動体の動きを把握することができる画像を表示できるという効果を奏する。また、上記3次元座標を算出しているので、表示装置は、操作者の所望とする角度から見た画像を表示することができる。   As described above, the three-dimensional information display device can display an image that is integrated with respect to a moving object corresponding image portion in a plurality of temporally different images based on an arbitrary image. In this image, since a moving object whose position changes with respect to the stationary object is displayed in the reference image, the operator moves to the stationary object by looking at the image. It is possible to specifically grasp the temporal movement of the moving object. Therefore, it is possible to display an image that allows the operator to easily and correctly grasp the motion of the moving object, visually. In addition, since the three-dimensional coordinates are calculated, the display device can display an image viewed from an angle desired by the operator.

また、上述の3次元情報表示装置において、前記表示装置は、前記表示する画像に、前記統合表示されている動体対応画像部分に対応する動き情報を重畳表示することが好ましい。   In the above-described three-dimensional information display device, it is preferable that the display device superimposes and displays motion information corresponding to the moving object corresponding image portion displayed in an integrated manner on the displayed image.

これにより、表示装置に表示された画像を見ることで、操作者は正確な動き情報を把握することができる。したがって、操作者が、視覚により容易に、正しく動体の動きを把握することができる画像を表示できるという効果を奏する。   Thereby, the operator can grasp accurate movement information by viewing the image displayed on the display device. Therefore, it is possible to display an image that allows the operator to easily and correctly grasp the motion of the moving object, visually.

また、上述の3次元情報表示装置において、前記動き情報は、前記特定した動体対応画像部分に対応する動体の速度、加速度、速度ベクトル、加速度ベクトルおよび動きベクトルの少なくとも1つであることが好ましい。   In the above three-dimensional information display device, it is preferable that the motion information is at least one of a speed, an acceleration, a speed vector, an acceleration vector, and a motion vector of a moving object corresponding to the specified moving object corresponding image portion.

これにより、これら動き情報により、操作者は動体の動きを容易に正しく把握することが可能であるという効果を奏する。   Thereby, there exists an effect that the operator can grasp | ascertain the motion of a moving body easily correctly by these motion information.

また、上述の3次元情報表示装置において、前記表示装置は、前記重畳表示された動き情報において、同一時刻における当該動き情報は互いに関連付けて表示することが好ましい。   Moreover, in the above-described three-dimensional information display device, it is preferable that the display device displays the motion information at the same time in association with each other in the superimposed motion information.

これにより、操作者は、異なる動体における動き情報の時間的な対応関係を容易に理解することができる。   Thereby, the operator can easily understand the temporal correspondence of the motion information in different moving objects.

また、上述の3次元情報表示装置において、前記撮像部および前記立体情報取得部は、ステレオカメラであり、前記3次元画像情報算出部は、前記ステレオカメラにより生成された複数のステレオ時系列画像をもとに、対応点探索を用いて、前記3次元画像情報を算出することが好ましい。   In the 3D information display device described above, the imaging unit and the 3D information acquisition unit are stereo cameras, and the 3D image information calculation unit is configured to display a plurality of stereo time-series images generated by the stereo camera. Basically, it is preferable to calculate the three-dimensional image information using a corresponding point search.

このように、ステレオ時系列画像を用いて3次元画像情報を算出することから、高精度の3次元画像情報を算出することができる。また、ステレオカメラを用いることで、カメラの他に立体情報取得部を設ける必要がないので、3次元情報表示装置のコストダウンおよび小型化が可能となる。   As described above, since the three-dimensional image information is calculated using the stereo time-series image, the highly accurate three-dimensional image information can be calculated. In addition, by using a stereo camera, it is not necessary to provide a three-dimensional information acquisition unit in addition to the camera, so that the cost and size of the three-dimensional information display device can be reduced.

また、上述の3次元情報表示装置において、前記対応点探索には、周波数分解され、振幅成分が抑制されたウィンドウの画像パターンを用いることが好ましい。   In the above-described three-dimensional information display device, it is preferable to use an image pattern of a window that is frequency-resolved and amplitude components are suppressed for the corresponding point search.

このように、対応点探索において、周波数成分から振幅成分を抑制することで、画像間の輝度差やノイズの影響を受けにくいため、ロバスト性を有する対応点探索が可能である。   As described above, in the corresponding point search, by suppressing the amplitude component from the frequency component, it is difficult to be affected by the luminance difference between the images and noise, and therefore it is possible to search for the corresponding point having robustness.

また、上述の3次元情報表示装置において、前記撮像部および立体情報取得部は移動体に搭載されていることが好ましい。   In the above three-dimensional information display device, it is preferable that the imaging unit and the three-dimensional information acquisition unit are mounted on a moving body.

これにより、撮像場所が特定の場所に固定されることがないという効果を奏する。   Thereby, there exists an effect that an imaging location is not fixed to a specific location.

また、上述の3次元情報表示装置において、前記時系列画像中における静止体対応画像部分を特定する静止体特定部をさらに備え、前記演算部は、前記3次元画像情報を用いて、前記静止体特定部により特定した静止体対応画像部分について、前記基準とした画像に一致させるような変換成分を前記時系列画像ごとに算出し、当該変換成分を用いて、前記特定した動体対応画像部分について、前記基準とした画像における前記3次元座標を算出することが好ましい。   The above three-dimensional information display device may further include a stationary body specifying unit that specifies a stationary body corresponding image portion in the time-series image, and the calculation unit uses the three-dimensional image information to For the stationary object corresponding image part specified by the specifying unit, a conversion component that matches the reference image is calculated for each time series image, and using the conversion component, for the specified moving object corresponding image part, It is preferable to calculate the three-dimensional coordinates in the reference image.

これにより、動体対応画像部分について、基準とした画像における3次元座標を容易に算出することができる。   As a result, the three-dimensional coordinates in the reference image can be easily calculated for the moving object corresponding image portion.

また、上述の3次元情報表示装置において、前記撮像部により生成される前記時系列画像を順次記憶していき、所定量の時系列画像を記憶した場合は、記憶している前記時系列画像のうち、最も古い画像を消去する、画像記録部と、作動した場合には、前記画像記録部に所定の時刻以降における前記時系列画像の消去を停止するように指示するトリガーとをさらに備え、前記3次元画像情報算出部は、前記画像記録部に記憶されている時系列画像および前記立体情報をもとに、前記時系列画像における3次元画像情報を算出することが好ましい。   In the above three-dimensional information display device, when the time-series images generated by the imaging unit are sequentially stored and a predetermined amount of time-series images are stored, the stored time-series images are stored. An image recording unit that erases the oldest image, and a trigger that instructs the image recording unit to stop erasing the time-series image after a predetermined time when activated, The three-dimensional image information calculation unit preferably calculates three-dimensional image information in the time-series image based on the time-series image and the stereoscopic information stored in the image recording unit.

このように、画像記録部は、普段は、随時古い画像を消去しながら、時系列画像を記憶していき、トリガーが作動した場合には、作動した前後の画像を消去しないことから、トリガーが作動する原因を究明するための画像を記憶することができる。つまり、画像記録部に記憶されている画像には、トリガーが作動する原因となる現象が含まれている可能性が高いため、これらの画像を分析することで、トリガーが作動する原因を容易に究明することができる可能性が高い。具体的には、何らかの事故により、トリガーが作動した場合には、その事故原因の究明が容易である可能性が高い。   In this way, the image recording unit normally stores time-series images while erasing old images at any time, and when the trigger is activated, the image before and after the activation is not erased. Images for investigating the cause of operation can be stored. In other words, the image stored in the image recording unit is likely to contain a phenomenon that causes the trigger to operate, so analyzing these images makes it easy to determine the cause of the trigger operation. There is a high possibility of being able to investigate. Specifically, when the trigger is activated due to some accident, it is highly likely that the cause of the accident is easily investigated.

また、上述の3次元情報表示装置において、前記表示装置は、前記表示する画像に、トリガーポイントを示すことが好ましい。   Moreover, in the above-described three-dimensional information display device, it is preferable that the display device shows a trigger point on the displayed image.

これにより、操作者は、表示された画像における着目すべき箇所であるトリガーポイントを容易に認識できるという効果を奏する。なお、トリガーポイントは、トリガーが作動した時に、最も近い時刻であることから、トリガーポイントの状態を分析することにより、トリガーが作動し原因を究明することができる可能性が高い。   Thereby, the operator can easily recognize the trigger point that is a point to be noted in the displayed image. Since the trigger point is the closest time when the trigger is activated, it is highly possible that the cause of the trigger can be determined by analyzing the state of the trigger point.

また、上述の3次元情報表示装置において、前記演算部は、前記トリガーが作動した時に最も近い時間に撮像された被写体の画像を前記基準とした画像とすることが好ましい。   In the above-described three-dimensional information display device, it is preferable that the calculation unit sets an image of a subject captured at the closest time when the trigger is activated as the reference image.

これにより、トリガーが作動した時の動体対応画像部分の3次元座標等を高精度に算出される。すなわち、基準とした画像よりも時間的に離れるほど、動体対応画像部分の3次元座標等の算出誤差が大きくなる。したがって、トリガーが作動した時に最も近い時間に撮像され、生成された画像を基準とした画像とすることで、トリガーの作動時前後における動体対応画像部分の3次元座標等が、高精度に算出される。   Thereby, the three-dimensional coordinates and the like of the moving object corresponding image portion when the trigger is activated are calculated with high accuracy. That is, as the time is further away from the reference image, the calculation error of the three-dimensional coordinates of the moving object corresponding image portion becomes larger. Therefore, by taking an image taken at the closest time when the trigger is activated and using the generated image as a reference, the three-dimensional coordinates of the moving object corresponding image portion before and after the trigger is activated are calculated with high accuracy. The

また、上述の3次元情報表示装置において、前記演算部は、前記3次元画像情報を用いて、前記撮像部について、前記複数の時系列画像のうちいずれかの画像を基準とした3次元座標を算出し、前記表示装置は、前記演算部で算出した前記撮像部の前記3次元座標に基づいて、前記撮像部の位置が前記基準とした画像に統合された画像を表示することが好ましい。   Further, in the above-described three-dimensional information display device, the calculation unit uses the three-dimensional image information to determine, for the imaging unit, three-dimensional coordinates based on any one of the plurality of time-series images. Preferably, the display device displays an image in which the position of the imaging unit is integrated with the image based on the reference, based on the three-dimensional coordinates of the imaging unit calculated by the calculation unit.

これにより、撮像部の位置および撮像部が搭載されている移動体の位置が高精度に算出され、その位置が画像上に表示される。そのため、操作者は、撮像部の時間変化による位置を具体的に把握できる。したがって、操作者は、表示された画像から、より具体的に状況を判断することができるという効果を奏する。   Thereby, the position of the imaging unit and the position of the moving body on which the imaging unit is mounted are calculated with high accuracy, and the position is displayed on the image. Therefore, the operator can grasp | ascertain the position by the time change of an imaging part concretely. Therefore, there is an effect that the operator can more specifically determine the situation from the displayed image.

また、上述の3次元情報表示装置において、前記時系列画像中における信号機を特定する信号機特定部をさらに備え、前記演算部は、前記時系列画像における前記特定された信号機のランプの色を判別し、前記表示装置は、前記表示する画像に、前記統合表示されている動体対応画像部分に対応する信号機のランプの色を重畳表示することが好ましい。   The three-dimensional information display device may further include a traffic light specifying unit that specifies a traffic light in the time-series image, and the calculation unit may determine a lamp color of the specified traffic light in the time-series image. The display device preferably displays the color of the lamp of the traffic light corresponding to the moving object corresponding image portion displayed in an integrated manner on the image to be displayed.

これにより、画像から、動体の動きに合わせて、信号機において赤、青、黄のいずれが点灯していたかを、把握できるので、操作者は、表示された画像から、より具体的に状況を判断することができるという効果を奏する。   As a result, it is possible to grasp from the image whether red, blue, or yellow was lit on the traffic light according to the movement of the moving object, so the operator can determine the situation more specifically from the displayed image. There is an effect that can be done.

また、本発明の他の一態様に係る3次元情報表示方法は、複数の時系列画像の3次元画像情報を算出する工程と、
前記時系列画像中における動体対応画像部分を特定する工程と、前記3次元画像情報を用いて、前記特定した動体対応画像部分について、前記時系列画像のうちいずれかの画像を基準とした3次元座標を算出する工程と、前記3次元座標に基づいて、前記時系列画像における前記特定した動体対応画像部分を前記基準とした画像に統合表示する。
In addition, a 3D information display method according to another aspect of the present invention includes a step of calculating 3D image information of a plurality of time-series images,
A step of specifying a moving object corresponding image portion in the time series image, and a three-dimensional image based on any one of the time series images for the specified moving object corresponding image portion using the three-dimensional image information. Based on the step of calculating coordinates and the three-dimensional coordinates, the identified moving object corresponding image portion in the time-series image is integrated and displayed on the reference image.

このように、時間的に異なる複数の画像における動体対応画像部分について、任意の画像を基準として統合表示されるため、画像中に、静止体に対して時間的に位置が変化する動体が表示される。それにより、操作者は、この画像から視覚により容易に、正しく動体の動きを把握することが可能であるという効果を奏する。   As described above, the moving object corresponding image portions in a plurality of temporally different images are integrated and displayed based on an arbitrary image, so that a moving object whose position changes with respect to a stationary object is displayed in the image. The Thereby, the operator can easily and correctly grasp the motion of the moving object visually from this image.

本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。   In order to express the present invention, the present invention has been properly and fully described through the embodiments with reference to the drawings. However, those skilled in the art can easily change and / or improve the above-described embodiments. It should be recognized that this is possible. Accordingly, unless the modifications or improvements implemented by those skilled in the art are at a level that departs from the scope of the claims recited in the claims, the modifications or improvements are not covered by the claims. It is interpreted that it is included in

本発明によれば、任意の画像を基準とし、時系列画像における動体対応画像部分を統合して表示する3次元情報表示装置および3次元情報表示方法を提供することができる。   According to the present invention, it is possible to provide a three-dimensional information display apparatus and a three-dimensional information display method that display an integrated image of moving object corresponding image portions in a time-series image with an arbitrary image as a reference.

Claims (14)

被写体を撮像し、複数の時系列画像を生成する撮像部と、
3次元計測器によって立体情報を取得する立体情報取得部と、
前記時系列画像および前記立体情報をもとに、前記時系列画像における3次元画像情報を算出する3次元画像情報算出部と、
前記時系列画像中における動体対応画像部分を特定する動体特定部と、
前記3次元画像情報を用いて、前記特定した動体対応画像部分について、前記時系列画像のうちいずれかの画像を基準とした3次元座標を算出する演算部と、
前記3次元座標に基づいて、前記時系列画像における前記特定した動体対応画像部分が前記基準とした画像に統合された画像を表示する表示装置とを備えた、3次元情報表示装置。
An imaging unit that images a subject and generates a plurality of time-series images;
A three- dimensional information acquisition unit that acquires three-dimensional information with a three-dimensional measuring instrument ;
A three-dimensional image information calculation unit that calculates three-dimensional image information in the time-series image based on the time-series image and the stereoscopic information;
A moving object specifying unit for specifying a moving object corresponding image part in the time-series image;
An arithmetic unit that calculates three-dimensional coordinates based on any one of the time-series images for the identified moving object-corresponding image portion using the three-dimensional image information;
A three-dimensional information display device comprising: a display device that displays an image in which the identified moving object corresponding image portion in the time-series image is integrated with the reference image based on the three-dimensional coordinates.
前記表示装置は、前記表示する画像に、前記統合表示されている動体対応画像部分に対応する動き情報を重畳表示する、請求項1に記載の3次元情報表示装置。  The three-dimensional information display device according to claim 1, wherein the display device superimposes and displays motion information corresponding to the moving object corresponding image portion displayed in an integrated manner on the image to be displayed. 前記動き情報は、前記特定した動体対応画像部分に対応する動体の速度、加速度、速度ベクトル、加速度ベクトルおよび動きベクトルの少なくとも1つである、請求項2に記載の3次元情報表示装置。  The three-dimensional information display device according to claim 2, wherein the motion information is at least one of a speed, an acceleration, a speed vector, an acceleration vector, and a motion vector of a moving object corresponding to the identified moving object corresponding image portion. 前記表示装置は、前記重畳表示された動き情報において、同一時刻における当該動き情報は互いに関連付けて表示する、請求項2に記載の3次元情報表示装置。  The three-dimensional information display device according to claim 2, wherein the display device displays the motion information at the same time in association with each other in the superimposed motion information. 前記撮像部および前記立体情報取得部は、ステレオカメラであり、
前記3次元画像情報算出部は、前記ステレオカメラにより生成された複数のステレオ時系列画像をもとに、対応点探索を用いて、前記3次元画像情報を算出する、請求項1に記載の3次元情報表示装置。
The imaging unit and the three-dimensional information acquisition unit are stereo cameras,
2. The 3D image information calculation unit according to claim 1, wherein the 3D image information calculation unit calculates the 3D image information using a corresponding point search based on a plurality of stereo time-series images generated by the stereo camera. Dimensional information display device.
前記対応点探索には、周波数分解され、振幅成分が抑制されたウィンドウの画像パターンを用いる、請求項5に記載の3次元情報表示装置。  The three-dimensional information display apparatus according to claim 5, wherein the corresponding point search uses a window image pattern in which frequency decomposition is performed and an amplitude component is suppressed. 前記撮像部および立体情報取得部は移動体に搭載されている、請求項1に記載の3次元情報表示装置。  The three-dimensional information display device according to claim 1, wherein the imaging unit and the three-dimensional information acquisition unit are mounted on a moving body. 前記時系列画像中における静止体対応画像部分を特定する静止体特定部をさらに備え、
前記演算部は、前記3次元画像情報を用いて、前記静止体特定部により特定した静止体対応画像部分について、前記基準とした画像に一致させるような変換成分を前記時系列画像ごとに算出し、当該変換成分を用いて、前記特定した動体対応画像部分について、前記基準とした画像における前記3次元座標を算出する、請求項7に記載の3次元情報表示装置。
A still body specifying unit that specifies a still body corresponding image portion in the time-series image;
The calculation unit uses the three-dimensional image information to calculate, for each time-series image, a conversion component that matches the reference image with respect to the stationary object corresponding image portion identified by the stationary object identification unit. The three-dimensional information display device according to claim 7, wherein the three-dimensional coordinates in the image used as the reference are calculated for the identified moving object corresponding image portion using the conversion component.
前記撮像部により生成される前記時系列画像を順次記憶していき、所定量の時系列画像を記憶した場合は、記憶している前記時系列画像のうち、最も古い画像を消去する、画像記録部と、
作動した場合には、前記画像記録部に所定の時刻以降における前記時系列画像の消去を停止するように指示するトリガーとをさらに備え、
前記3次元画像情報算出部は、前記画像記録部に記憶されている時系列画像および前記立体情報をもとに、前記時系列画像における3次元画像情報を算出する、請求項1に記載の3次元情報表示装置。
An image recording that sequentially stores the time-series images generated by the imaging unit and deletes the oldest image from the stored time-series images when a predetermined amount of time-series images is stored. And
A trigger that instructs the image recording unit to stop erasing the time-series image after a predetermined time when activated,
The 3D image information calculation unit calculates 3D image information in the time series image based on the time series image and the stereoscopic information stored in the image recording unit. Dimensional information display device.
前記表示装置は、前記表示する画像に、トリガーポイントを示す、請求項9に記載の3次元情報表示装置。  The three-dimensional information display device according to claim 9, wherein the display device shows a trigger point in the image to be displayed. 前記演算部は、前記トリガーが作動した時に最も近い時間に撮像された被写体の画像を前記基準とした画像とする、請求項9に記載の3次元情報表示装置。  The three-dimensional information display device according to claim 9, wherein the calculation unit uses an image of a subject captured at the closest time when the trigger is activated as the reference image. 前記演算部は、前記3次元画像情報を用いて、前記撮像部について、前記複数の時系列画像のうちいずれかの画像を基準とした3次元座標を算出し、
前記表示装置は、前記演算部で算出した前記撮像部の前記3次元座標に基づいて、前記撮像部の位置が前記基準とした画像に統合された画像を表示する、請求項1に記載の3次元情報表示装置。
The computing unit uses the three-dimensional image information to calculate, for the imaging unit, three-dimensional coordinates based on any one of the plurality of time-series images,
3. The display device according to claim 1, wherein the display device displays an image in which the position of the imaging unit is integrated with the reference image based on the three-dimensional coordinates of the imaging unit calculated by the calculation unit. Dimensional information display device.
前記時系列画像中における信号機を特定する信号機特定部をさらに備え、
前記演算部は、前記時系列画像における前記特定された信号機のランプの色を判別し、
前記表示装置は、前記表示する画像に、前記統合表示されている動体対応画像部分に対応する信号機のランプの色を重畳表示する、請求項1に記載の3次元情報表示装置。
Further comprising a traffic light identifying unit for identifying a traffic light in the time-series image;
The calculation unit determines a color of a lamp of the specified traffic light in the time series image,
The three-dimensional information display device according to claim 1, wherein the display device superimposes and displays a color of a lamp of a traffic light corresponding to the moving object corresponding image portion displayed in an integrated manner on the image to be displayed.
被写体を撮像し、複数の時系列画像を生成する工程と
3次元計測器によって立体情報を取得する工程と
前記時系列画像および前記立体情報をもとに、前記時系列画像における3次元画像情報を算出する工程と、
前記時系列画像中における動体対応画像部分を特定する工程と、
前記3次元画像情報を用いて、前記特定した動体対応画像部分について、前記時系列画像のうちいずれかの画像を基準とした3次元座標を算出する工程と、
前記3次元座標に基づいて、前記時系列画像における前記特定した動体対応画像部分を前記基準とした画像に統合表示する、3次元情報表示方法。
Capturing a subject and generating a plurality of time-series images ;
Acquiring three-dimensional information with a three-dimensional measuring instrument ;
Calculating three-dimensional image information in the time-series image based on the time-series image and the stereoscopic information ;
Identifying a moving object corresponding image portion in the time-series image;
Using the three-dimensional image information, calculating a three-dimensional coordinate based on any one of the time-series images for the identified moving object-corresponding image portion;
A three-dimensional information display method for integrally displaying the specified moving object corresponding image portion in the time-series image on the reference image based on the three-dimensional coordinates.
JP2010503305A 2009-03-31 2009-03-31 3D information display device and 3D information display method Expired - Fee Related JP4553071B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/056647 WO2010113253A1 (en) 2009-03-31 2009-03-31 Three-dimensional information display device and three-dimensional information display method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010163595A Division JP4609603B2 (en) 2010-07-21 2010-07-21 3D information display device and 3D information display method

Publications (2)

Publication Number Publication Date
JP4553071B1 true JP4553071B1 (en) 2010-09-29
JPWO2010113253A1 JPWO2010113253A1 (en) 2012-10-04

Family

ID=42827586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010503305A Expired - Fee Related JP4553071B1 (en) 2009-03-31 2009-03-31 3D information display device and 3D information display method

Country Status (2)

Country Link
JP (1) JP4553071B1 (en)
WO (1) WO2010113253A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110015247A (en) * 2017-12-28 2019-07-16 丰田自动车株式会社 Display control unit and display control method

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5654956B2 (en) * 2011-07-14 2015-01-14 日本放送協会 Parallax image generation device and parallax image generation program
JP5861560B2 (en) * 2012-05-14 2016-02-16 新日鐵住金株式会社 Construction efficiency evaluation system
JP2014089513A (en) * 2012-10-29 2014-05-15 Denso Corp Image generation apparatus and image generation program
JP7206246B2 (en) 2020-12-09 2023-01-17 あいおいニッセイ同和損害保険株式会社 Program and information processing method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000244897A (en) * 1999-02-16 2000-09-08 Mitsubishi Electric Inf Technol Center America Inc State recognition system and state recognition display generation method
WO2004008744A1 (en) * 2002-07-12 2004-01-22 Iwane Laboratories, Ltd. Road and other flat object video plan-view developing image processing method, reverse developing image conversion processing method, plan-view developing image processing device, and reverse developing image conversion processing device
JP2009211678A (en) * 2008-02-05 2009-09-17 Yazaki Corp Traffic accident analyzing device, traffic accident analyzing method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000244897A (en) * 1999-02-16 2000-09-08 Mitsubishi Electric Inf Technol Center America Inc State recognition system and state recognition display generation method
WO2004008744A1 (en) * 2002-07-12 2004-01-22 Iwane Laboratories, Ltd. Road and other flat object video plan-view developing image processing method, reverse developing image conversion processing method, plan-view developing image processing device, and reverse developing image conversion processing device
JP2009211678A (en) * 2008-02-05 2009-09-17 Yazaki Corp Traffic accident analyzing device, traffic accident analyzing method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110015247A (en) * 2017-12-28 2019-07-16 丰田自动车株式会社 Display control unit and display control method
CN110015247B (en) * 2017-12-28 2022-06-28 丰田自动车株式会社 Display control device and display control method

Also Published As

Publication number Publication date
WO2010113253A1 (en) 2010-10-07
JPWO2010113253A1 (en) 2012-10-04

Similar Documents

Publication Publication Date Title
JP4609603B2 (en) 3D information display device and 3D information display method
JP4553072B1 (en) Image integration apparatus and image integration method
JP5603835B2 (en) Vehicle perimeter monitoring device
JP4985142B2 (en) Image recognition apparatus and image recognition processing method of image recognition apparatus
US10318782B2 (en) Image processing device, image processing system, and image processing method
JP4899424B2 (en) Object detection device
JP5503728B2 (en) Vehicle periphery monitoring device
JP5267330B2 (en) Image processing apparatus and method
JP4692344B2 (en) Image recognition device
US20050276450A1 (en) Vehicle surroundings monitoring apparatus
JP6171593B2 (en) Object tracking method and system from parallax map
JP5471310B2 (en) Operation analysis system
JP4553071B1 (en) 3D information display device and 3D information display method
JP2010079582A (en) Apparatus, method and program for detecting object
JP2007334511A (en) Object detection device, vehicle, object detection method and program for object detection
JP2014044730A (en) Image processing apparatus
JP5256508B2 (en) 3D information calculation apparatus and 3D information calculation method
JP5120627B2 (en) Image processing apparatus and image processing program
JP5472928B2 (en) Object detection apparatus and method
JP2004364112A (en) Device for displaying vehicle surroundings
JP4661578B2 (en) Mobile object recognition device
JP2008084138A (en) Vehicle surrounding monitoring device and surrounding monitoring program
JP2019050622A (en) Image processing apparatus, image processing method, image processing program, and image processing system
JP2012122734A (en) Moving body position estimation device and moving body position estimation method
JP6060612B2 (en) Moving surface situation recognition device, moving object, and program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100622

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100705

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees