JP2019046209A - Vehicle position acquisition system and vehicle position acquisition method - Google Patents
Vehicle position acquisition system and vehicle position acquisition method Download PDFInfo
- Publication number
- JP2019046209A JP2019046209A JP2017169164A JP2017169164A JP2019046209A JP 2019046209 A JP2019046209 A JP 2019046209A JP 2017169164 A JP2017169164 A JP 2017169164A JP 2017169164 A JP2017169164 A JP 2017169164A JP 2019046209 A JP2019046209 A JP 2019046209A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- orthographic projection
- moving image
- projection image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 238000004364 calculation method Methods 0.000 claims abstract description 33
- 239000013598 vector Substances 0.000 claims description 29
- 230000033001 locomotion Effects 0.000 abstract description 25
- 239000000284 extract Substances 0.000 abstract description 3
- 238000003384 imaging method Methods 0.000 abstract description 2
- 239000002131 composite material Substances 0.000 description 26
- 239000000470 constituent Substances 0.000 description 12
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 3
- 238000011835 investigation Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本願発明は、走行中の車両の位置を取得する技術に関するものであり、より具体的には、動画を構成する画像を利用して車両の位置を取得する車両位置取得システムとその方法に関するものである。 The present invention relates to a technology for acquiring the position of a moving vehicle, and more specifically to a vehicle position acquisition system and method for acquiring the position of a vehicle using an image forming a moving image. is there.
平成26年の改正道路交通法の施行に伴い、ラウンドアバウトと呼ばれる形式の平面交差部が各地で導入されるようになった。このラウンドアバウトは、原則として信号機による交通制御は行わず、円形平面交差点のうち環道の交通を優先し、環道に流入する車両が徐行するというルールにしたがって制御される環状交差点である。出会いがしらの事故が軽減される、信号機を設置しないため停電時も安心して走行できる、といった長所があることから、英国をはじめ諸外国では以前から数多くの実績を重ねている。 With the enforcement of the revised Road Traffic Act of 2014, planar intersections in the form of roundabouts have been introduced in various places. In principle, this roundabout is a roundabout which is controlled according to the rule that vehicles entering the roundabout take a slow pace, giving priority to traffic on the roundabout among circular flat junctions without traffic control by traffic lights. The UK and other foreign countries have had many achievements in the past because they have the advantage of reducing accidents caused by encounters and being able to run with confidence because they do not install traffic lights.
一方、我が国では導入から間もないこともあり、ラウンドアバウトに関する幾何構造設計に関する知見は十分とはいえず、車両の挙動(平面軌跡、速度・加速度等の経時的変化など)や幾何構造に関わる調査・分析が各地で実施されているところである。 On the other hand, in Japan, it is not long after introduction, and knowledge about geometrical structure design about roundabout is not sufficient, and it is related to vehicle behavior (planar trajectory, temporal change of speed, acceleration, etc.) and geometrical structure. Investigation and analysis are being conducted in various places.
ラウンドアバウトに限らず交差点は、異なる方向の通行が重なる場所であり、衝突事故や接触事故などが発生しやすい場所である。また、多くの交差点では信号機によって双方の通行を制御していることから、通行上のボトルネックとなり場所によっては渋滞発生の一因となっている。 Not only roundabouts but also intersections are places where traffic in different directions is overlapped, and places where collisions or contact accidents are likely to occur. In addition, at many intersections, traffic signals are used to control the traffic of both intersections, causing bottlenecks in traffic and contributing to traffic congestion in some places.
いずれにしろラウンドアバウトを含む交差点では、通行形態が一般の走行区間とは著しく相違するため、交差点内における車両の挙動を分析すべく監視や調査がこれまでも実施されてきた。例えば特許文献1では、複数の撮像手段によって交差点を通過する車両の斜め画像を取得し、これら斜め画像から作成した正射投影画像によって交差点の状況を監視する技術について提案している。 In any case, at intersections including roundabouts, since the traffic form is significantly different from that of a general traveling section, monitoring and investigation have been carried out so far to analyze the behavior of vehicles in the intersection. For example, Patent Document 1 proposes a technique for acquiring oblique images of a vehicle passing an intersection by a plurality of imaging means, and monitoring the situation of the intersection with an orthographic projection image created from these oblique images.
交差点内における車両の挙動を把握するために行う監視や調査は、その結果を視認できるという理由から静止画や動画を取得する手法が主流となっている。特に車両の動きに着目する場合は、連続した画像を得ることができる動画の利用が考えられる。また、車両の挙動を把握するためには車両の位置を取得することが望ましく、そのためには特許文献1の記載にもあるように交差点内における車両を含む正射投影画像の利用が有効である。しかしながら、移動を続ける車両を常に真上からの画像(つまり正射投影画像)として撮影し続けることは極めて困難であるため、通常は斜めから撮影した画像を変換して正射投影画像を得ている。 For monitoring and surveys conducted to understand the behavior of vehicles at intersections, methods for acquiring still images and moving pictures are mainstream because the results can be viewed. In particular, in the case of focusing on the movement of the vehicle, it is conceivable to use a moving image from which continuous images can be obtained. In addition, in order to grasp the behavior of the vehicle, it is desirable to acquire the position of the vehicle, and for this purpose, it is effective to use an orthographic projection image including the vehicle in the intersection as described in Patent Document 1 . However, since it is extremely difficult to always take a moving vehicle as an image from above (that is, an orthographic projection image), it is usually difficult to convert an image taken from an oblique direction to obtain an orthographic projection image. There is.
動画を用いる場合、正射投影画像を得るには動画から抽出した静止画が使用される。ところが動画から抽出される画像は、静止画として取得された画像に比べるとその解像度は一般的に劣ることが知られている。車両の挙動を把握するためには車両の動きを追跡する必要があり、そのためには個々の正射投影画像をつなげていく必要があるが、解像度が劣る画像を用いるとその正射投影画像を適切につなぐことができず、その結果、車両の位置を精度よく把握することができず、そのため車両の挙動を正確に把握することができないという問題を指摘することができる。 When using a moving image, a still image extracted from the moving image is used to obtain an orthographic projection image. However, it is known that the resolution of an image extracted from a moving image is generally inferior to that of an image acquired as a still image. In order to understand the behavior of the vehicle, it is necessary to track the motion of the vehicle, and for that purpose it is necessary to connect the individual orthographic projection images, but if the image with poor resolution is used, the orthographic projection image As a result, it is possible to point out the problem that the position of the vehicle can not be accurately grasped and, therefore, the behavior of the vehicle can not be grasped accurately.
本願発明の課題は、従来技術が抱える問題を解決することであり、すなわち交差点を撮影した動画を用いて、従来技術よりも精度よく車両の位置を求めることができる車両位置取得システム、及び車両位置取得方法を提供することである。 An object of the present invention is to solve the problems of the prior art, that is, a vehicle position acquisition system capable of obtaining the position of the vehicle more accurately than the prior art using a moving image obtained by photographing an intersection, and a vehicle position It is to provide an acquisition method.
本願発明は、位置の基準となる正射投影画像(基盤正射投影画像)を利用して車両を撮影した動画の外部標定要素を算出するという点に着目したものであり、従来にはなかった発想に基づいてなされた発明である。 The invention of the present application focuses on the point of calculating an external determination element of a moving image obtained by photographing a vehicle using an orthographic projection image (base orthographic projection image) serving as a reference of position, which has not heretofore been available. It is an invention made on the basis of ideas.
本願発明の車両位置取得システムは、道路上を走行する車両の位置を取得する車両位置取得システムであり、標定要素算出手段と平面位置算出手段を備えたものである。このうち標定要素算出手段は、動画構成画像(動画を構成する画像)を抽出するとともに、その動画構成画像と基盤正射投影画像を照らし合わせることで、動画構成画像を撮影したときの標定要素(撮影位置及び撮影方向)を算出する手段である。一方の平面位置算出手段は、標定要素と基盤正射投影画像に基づいて、動画構成画像に含まれる車両の平面位置を求める手段である。なお、基盤正射投影画像とは、道路を含む地表面の正射投影画像であって、座標が付与されている画像のことである。 The vehicle position acquisition system according to the present invention is a vehicle position acquisition system for acquiring the position of a vehicle traveling on a road, and includes a positioning element calculation unit and a plane position calculation unit. Among them, the localization element calculation means extracts a moving image constituent image (an image constituting a moving image) and compares the moving image constituent image with the base orthographic projection image to obtain a positioning element when the moving image constituent image is photographed ( It is a means to calculate the photographing position and the photographing direction). One plane position calculation means is a means for obtaining the plane position of the vehicle included in the moving image constituting image based on the positioning element and the base orthographic projection image. The base orthographic projection image is an orthographic projection image of a ground surface including a road, and is an image to which coordinates are given.
本願発明の車両位置取得システムは、走行ベクトル算出手段をさらに備えたものとすることができる。この走行ベクトル算出手段は、同一の車両に対して平面位置算出手段で求められる2時期の平面位置に基づいて車両の走行ベクトルを求める手段である。 The vehicle position acquisition system of the present invention may further include traveling vector calculation means. The travel vector calculation means is a means for obtaining the travel vector of the vehicle based on the two-time plane positions obtained by the plane position calculation means for the same vehicle.
本願発明の車両位置取得システムは、車両選出手段をさらに備えたものとすることができる。この車両選出手段は、複数の異なる車両から特定の車両を選出する手段であり、走行ベクトル算出手段で求められた特定の車両の走行ベクトルに基づいてその特定の車両を選出する。 The vehicle position acquisition system of the present invention may further include vehicle selection means. The vehicle selection means is a means for selecting a specific vehicle from a plurality of different vehicles, and selects the specific vehicle based on the travel vector of the specific vehicle obtained by the travel vector calculation means.
本願発明の車両位置取得方法は、道路上を走行する車両の位置を動画から確認する方法であり、動画撮影工程と標定要素算出工程、平面位置算出工程を備えた方法である。このうち動画撮影工程では、飛行体によって車両を含む動画を撮影し、標定要素算出工程では、
動画構成画像を抽出するとともにその動画構成画像と基盤正射投影画像を照らし合わせることで動画構成画像を撮影したときの標定要素を算出し、平面位置算出工程では、標定要素と基盤正射投影画像に基づいて動画構成画像に含まれる車両の平面位置を求める。
The vehicle position acquisition method of the present invention is a method of confirming the position of a vehicle traveling on a road from a moving image, and is a method including a moving image shooting step, a positioning element calculation step, and a plane position calculation step. Among them, in the moving image shooting step, a moving object including a vehicle is shot by the flying object, and in the orientation factor calculating step,
By extracting the moving image constituting image and comparing the moving image constituting image with the base orthographic projection image, a positioning element when the moving image constituting image is photographed is calculated. The plane position of the vehicle included in the moving image configuration image is determined based on
本願発明の車両位置取得システム、及び車両位置取得方法には、次のような効果がある。
(1)動画を用いることから、走行する車両の位置を連続的あるいは断続的に取得することができる。
(2)動画から抽出した画像を用いるものの、その位置が明確な基盤正射投影画像と照らし合わせることで従来に比して精度よく車両の位置を求めることができる。
The vehicle position acquisition system and the vehicle position acquisition method of the present invention have the following effects.
(1) Since the moving image is used, the position of the traveling vehicle can be acquired continuously or intermittently.
(2) Although the image extracted from the moving image is used, the position of the vehicle can be determined more accurately than before by comparing it with the base orthographic projection image whose position is clear.
本願発明の車両位置取得システム、及び車両位置取得方法の実施形態の例を図に基づいて説明する。 An example of an embodiment of a vehicle position acquisition system and a vehicle position acquisition method of the present invention will be described based on the drawings.
1.定義
本願発明の実施形態の例を説明するにあたって、はじめにここで用いる用語の定義を示しておく。
1. Definitions In describing examples of embodiments of the present invention, the definitions of terms used herein are first presented.
(動画構成画像)
動画は多数の画像(静止画像)によって構成されるものであり、ここでは動画を構成する各画像のことを「動画構成画像」ということとする。なお本願発明は、道路上を走行している車両の位置を取得するものであり、したがって動画構成画像には走行中の車両が含まれる。
(Video composition image)
A moving image is composed of a large number of images (still images). Here, each of the images constituting the moving image is referred to as a "moving image constituting image". The present invention is to obtain the position of a vehicle traveling on a road, and thus the moving image configuration image includes a vehicle traveling.
(標定要素)
撮影時のカメラを標定(外部標定)した結果得られるパラメータは、撮影時のカメラ位置の3次元座標(以下、「撮影位置」という。)と3軸の傾き(以下、「撮影方向」という。)である。ここでは、この撮影位置(X,Y,Z)と撮影方向(ω,φ,κ)を総称して「標定要素」ということとする。
(Positioning element)
The parameters obtained as a result of orienting (external orientation) of the camera at the time of shooting are three-dimensional coordinates of the camera position at the time of shooting (hereinafter referred to as "shooting position") and inclinations of three axes (hereinafter referred to as "shooting direction"). ). Here, the shooting position (X, Y, Z) and the shooting direction (ω, φ,)) are collectively referred to as “alignment elements”.
(基盤正射投影画像)
道路を含む地表面の正射投影画像(オルソフォト)のことを、ここでは「基盤正射投影画像」ということとする。ただしこの基盤正射投影画像には、3次元座標が付与されている。例えば、複数の写真から作成される3次元地形モデルを平面上(2次元的)に表示(描画)した正射投影画像、あるいは地表モデルDTM(Digital Terrain Model)や表層モデルDSM(Digital Surface Model)といった数値地形モデルを平面上に表示した正射投影画像などが、基盤正射投影画像として挙げられる。
(Base orthographic projection image)
Here, an orthographic projection image (orthophoto) of the ground surface including the road is referred to as a "base orthographic projection image". However, three-dimensional coordinates are given to this base orthographic projection image. For example, an orthographic projection image in which a three-dimensional terrain model created from a plurality of photographs is displayed (two-dimensionally) on a plane (two-dimensionally), or a surface model DTM (Digital Terrain Model) or a surface model DSM (Digital Surface Model) An orthographic projection image etc. which displayed such a numerical terrain model on a plane etc. are mentioned as a base orthographic projection image.
(走行ベクトル)
走行中の車両の移動方向のことを、ここでは「走行ベクトル」ということとする。具体的には、走行中の車両が通過した2以上の地点の座標から、その走行方向を求めたものが走行ベクトルである。また、車両の通過時刻が分かる場合は地点間の走行速度を求めることができ、この場合は走行ベクトルに走行速度を含めることもできる。
(Traveling vector)
Here, the moving direction of the moving vehicle is referred to as a “traveling vector”. Specifically, a traveling vector is obtained by determining the traveling direction from the coordinates of two or more points through which a traveling vehicle has passed. Also, when the passing time of the vehicle is known, the traveling speed between points can be obtained, and in this case, the traveling speed can be included in the traveling vector.
2.車両位置取得システム
次に、本願発明の車両位置取得システムについて、図1を参照しながら説明する。図1は、本願発明の車両位置取得システム100の主な構成を示すブロック図である。なお、ここでは便宜上、図2に示すラウンドアバウトを走行する車両の例で説明しているが、本願発明は、交差点のほか一般の走行区間などあらゆる道路上を走行する車両を対象とすることができる。
2. Vehicle Position Acquisition System Next, a vehicle position acquisition system of the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing the main configuration of a vehicle
図1に示すように車両位置取得システム100は、標定要素算出手段110と平面位置算出手段120を含んで構成され、そのほか図1に示す各手段を含んで構成することもできる。以下、車両位置取得システム100を構成する主な要素ごとに詳しく説明する。
As shown in FIG. 1, the vehicle
(基盤正射投影画像作成手段)
基盤正射投影画像作成手段131は、文字どおり基盤正射投影画像を作成する手段であり、用意される入力データの種類に対応して適宜作成するものである。例えば図1では、複数の静止画に基づいて基盤正射投影画像を作成する例を示している。以下、基盤正射投影画像を作成する手順について具体的に説明する。
(Base orthographic projection image creation means)
The base orthographic projection image creation means 131 is a means for literally creating a base orthographic projection image, and is appropriately created corresponding to the type of input data to be prepared. For example, FIG. 1 shows an example of creating a base orthographic projection image based on a plurality of still images. Hereinafter, the procedure of creating a base orthographic projection image will be specifically described.
まず静止画撮影手段132によって複数の静止画を撮影する。このとき、道路(この場合はラウンドアバウト)を含むように、しかもできるだけ車両が含まれないように撮影する。静止画撮影手段132は、静止画取得用のカメラを用いてもよいし、後に説明する動画撮影手段141を用いてもよい。ただし動画撮影手段141を用いる場合は、比較的高い解像度が得られるよう調整したうえで(例えばインターバル撮影など)静止画を取得することが望ましい。複数の静止画が得られると、バンドル調整やSFM(Structure from Motion)といった写真測量技術を利用して、対象地形の3次元数値地形モデルを作成する。この3次元数値地形モデルを作成するのが、図1に示す3Dモデル作成手段133である。この3Dモデル作成手段133は、コンピュータによって実行させるとよい。
First, a plurality of still images are photographed by the still
3次元数値地形モデルは3次元座標が付与されたものであるから、これに基づいて正射投影画像(オルソフォト)を作成することができる。具体的には、基盤正射投影画像作成手段131が空間演算を行うことによって、3次元数値地形モデルから基盤正射投影画像を作成する。この基盤正射投影画像作成手段131は、コンピュータによって実行させるとよい。そして作成された基盤正射投影画像は、基盤正射投影画像記憶手段134に記憶される。なお、あらかじめ基盤正射投影画像が用意されている場合、基盤正射投影画像作成手段131と、静止画撮影手段132、3Dモデル作成手段133、基盤正射投影画像記憶手段134は、必ずしも車両位置取得システム100に含める必要はない。
Since the 3D numerical terrain model is given 3D coordinates, an orthographic projection image (orthophoto) can be created based on this. Specifically, the base orthographic projection
(動画撮影手段)
動画撮影手段141は、道路(この場合はラウンドアバウト)とともにその道路上を走行する車両を含むように動画を撮影するものである。動画を撮影するに当たっては、動画撮影手段141を所定施設に固定して対象範囲全体が含まれるように撮影してもよいし、人が動画撮影手段141を手持ちにして高い位置から撮影してもよいし、あるいはUAV(Unmanned Air Vehicle)などの飛行体に動画撮影手段141を取り付けたうえで上空から撮影してもよい。動画撮影手段141によって撮影された動画は、バッチ処理もしくはリアルタイム処理によって動画記憶手段142に記憶される。
(Video shooting means)
The moving image shooting means 141 takes a moving image so as to include a vehicle traveling on the road (in this case, a roundabout) along with the road. When shooting a moving image, the moving image shooting means 141 may be fixed to a predetermined facility and shot so as to include the entire target range, or even when a person holds the moving image shooting means 141 and shoots from a high position Alternatively, the moving image capturing means 141 may be attached to a flying object such as a UAV (Unmanned Air Vehicle) and the image may be taken from above. The moving image photographed by the moving
(標定要素算出手段)
標定要素算出手段110は、動画構成画像を抽出し、抽出された動画構成画像を撮影したときの標定要素(撮影位置及び撮影方向)を算出するものである。この標定要素算出手段110は、コンピュータによって実行させるとよい。以下、動画構成画像の標定要素を算出する手順について具体的に説明する。
(Positioning element calculation means)
The orientation
まず、動画記憶手段142から所定の動画構成画像を抽出するとともに、基盤正射投影画像記憶手段134から基盤正射投影画像を読み出す。既述のとおり基盤正射投影画像は3次元座標が付与されており、特徴的な点(特徴点)を数多く含んでいる。換言すれば基盤正射投影画像は、数多くの基準点を具備しているわけである。一方、動画構成画像は、多くの場合斜め方向から撮影された画像(以下、「斜め画像」という。)であるが、基盤正射投影画像の一部を撮影したものであるから、その中にもいくつかの基準点が含まれている。そこで、動画構成画像と基盤正射投影画像を照らし合わせることによって動画構成画像に含まれる基準点を抽出し、これを入力条件として単写真標定や、SFMなどの相互標定、あるいはバンドル調整といった写真測量技術を利用することで、その動画構成画像の標定要素を算出することができる。このうち単写真標定では1枚の動画構成画像を用い、その画像中に含まれる複数の基準点における3次元座標及び画像中の平面座標(画像座標系における画像座標)から、その動画構成画像の標定要素を算出する。また、相互標定やバンドル調整では複数の動画構成画像と基準点に基づいて3次元数値地形モデルを作成しつつ動画構成画像の標定要素を算出する。 First, while extracting a predetermined moving image constituent image from the moving image storage means 142, the base orthographic projection image is read out from the base orthographic projection image storage means 134. As described above, the base orthographic projection image is given three-dimensional coordinates, and includes many characteristic points (feature points). In other words, the base orthographic projection image has many reference points. On the other hand, although the moving image constituting image is an image (hereinafter referred to as "oblique image") which is often photographed from an oblique direction, since a part of the base orthographic projection image is photographed, There are also some reference points included. Therefore, the reference point included in the moving image configuration image is extracted by comparing the moving image configuration image with the base orthographic projection image, and the input condition is a single photo orientation, a relative orientation such as SFM, or a photogrammetry such as bundle adjustment. By utilizing the technology, it is possible to calculate orientation elements of the moving image constituent image. Among them, in single photo orientation, a single moving image configuration image is used, and from the three-dimensional coordinates at a plurality of reference points included in the image and the plane coordinates in the image (image coordinates in the image coordinate system) Calculate the orientation factor. Further, in the relative orientation and bundle adjustment, the orientation elements of the moving image configuration image are calculated while creating a three-dimensional numerical terrain model based on the plurality of moving image configuration images and the reference points.
(平面位置算出手段)
平面位置算出手段120は、動画構成画像に含まれる車両の平面位置を算出するものである。この平面位置算出手段120は、コンピュータによって実行させるとよい。車両の平面位置は、その先端や後端など任意の点で表すこともできるし、複数の点に囲まれた車両の領域で表すこともできる。また、車両の3次元モデルを作成した上で車両の平面位置を算出してもよい。なお、ここでいう車両の平面位置とは、画像内における位置(画像座標)ではなく、現実の道路上における相対的(あるいは絶対的)な位置のことであり、具体的には基盤正射投影画像に付与された座標と同じ座標系で与えられる位置座標のことである。既述のとおり動画構成画像は斜め画像であるが、その動画構成画像の標定要素が得られており、動画構成画像には基盤正射投影画像の基準点が含まれていることから、車両の平面位置を算出することができるわけである。平面位置算出手段120によって算出された車両の平面位置(座標)は、車両平面位置記憶手段121に記憶される。
(Plane position calculation means)
The plane
(合成画像作成手段)
合成画像作成手段151は、動画構成画像に含まれる車両と、基盤正射投影画像を合成して合成画像を作成するものである。具体的には、動画構成画像から車両部分の画像(以下、「車両画像」という。)を切り出し、平面位置算出手段120で算出した車両の平面位置に基づいて、車両画像を基盤正射投影画像の上に重ねることによって、図2に示す合成画像を作成する。換言すれば、動画構成画像の背景画像(車両以外の地形画像)を基盤正射投影画像に差し替えるわけである。つまり図2は、車両200部分は動画構成画像のもので形成されているが、車両を除く部分は基盤正射投影画像のもので形成されている。なお、動画構成画像は斜め画像であることから車両画像もやはり斜め画像であり、一方の基盤正射投影画像は当然ながら正射投影画像である。したがって、合成画像のうち車両画像のみが斜め画像となり、他の領域は正射投影画像となる。
(Composite image creation means)
The composite
合成画像を作成するため合成画像作成手段151は車両画像を切り出すと説明したが、これはオペレータが動画構成画像を確認しながら操作することで切り出す仕様とすることもできるし、画像認識技術を利用して自動的に車両画像を切り出す仕様とすることもできる。いずれの仕様を採用したとしても、合成画像作成手段151はコンピュータによって実行させるとよい。
Although it has been described that the composite
ここまで、動画から動画構成画像を抽出し、その画像の標定要素を算出し、そして車両の平面位置を求めて合成画像を作成する処理について説明したが、この一連の処理を車両の走行に応じて繰り返し行うことによって車両の動きを追跡することができる。すなわち所定の時間間隔(定期的もしくは不定期)で動画構成画像を抽出し、それぞれの動画構成画像に対して合成画像を作成すると、車両の動き(いわば軌跡)が把握できるわけである。動画構成画像ごとに合成画像を作成するのではなく、動画構成画像ごとに車両画像を切り出し、ひとつの基盤正射投影画像の上にこれら車両画像を重ねた合成画像(図3)を作成してもよい。合成画像作成手段151によって作成された合成画像は、ディスプレイやプリンタといった出力手段152で出力することができる。
So far, the process of extracting the moving image configuration image from the moving image, calculating the orientation elements of the image, and obtaining the plane position of the vehicle to create the composite image has been described. Repeatedly, it is possible to track the movement of the vehicle. That is, when moving image constituent images are extracted at predetermined time intervals (periodically or irregularly) and composite images are created for the respective moving image constituent images, it is possible to grasp the movement of the vehicle (a so-called trajectory). Instead of creating a composite image for each moving image configuration image, a vehicle image is cut out for each moving image configuration image, and a composite image (FIG. 3) in which these vehicle images are superimposed on one base orthographic projection image is created It is also good. The composite image created by the composite
(走行ベクトル算出手段)
走行ベクトル算出手段160は、車両の走行ベクトルを算出する手段である。具体的には、2以上の異なる動画構成画像(ただし、それぞれ同一の車両を含む)からそれぞれ車両の位置を算出し、これら車両の位置に基づいて走行ベクトルを算出する。このとき、動画構成画像を撮影した時刻が記録されていれば、走行速度を求めこれを走行ベクトルに含めることもできる。この走行ベクトル算出手段160は、コンピュータによって実行させるとよい。
(Travel vector calculation means)
The traveling
(車両選出手段)
ひとつの基盤正射投影画像の上に複数の車両画像を重ねた合成画像を作成すると、図4に示すようにひとつの合成画像に異なる車両が含まれることもある。このような合成図から車両の動きを追跡するためには、車両を区別する必要がある。例えば図4では、第1の車両201と第2の車両202が含まれており、さらに移動前の第1の車両201bと移動後の第1の車両201a、移動前の第2の車両202bと移動後の第2の車両202aが含まれており、車両の動きを追跡するためには4つの車両画像から第1の車両201と第2の車両202を選別しなければならない。
(Vehicle selection means)
When a composite image in which a plurality of vehicle images are superimposed on one base orthographic projection image is created, different vehicles may be included in one composite image as shown in FIG. In order to track the movement of the vehicle from such a composite diagram, it is necessary to distinguish the vehicle. For example, in FIG. 4, the first vehicle 201 and the second vehicle 202 are included, and the first vehicle 201b before movement, the
異なる車両が含まれた合成画像から、特定の車両を選出する(つまり車両を区別する)のが車両選出手段170である。この車両選出手段170は、コンピュータによって実行させるとよい。また車両選出手段170は、走行ベクトルを利用して特定の車両を選出する仕様にするとよい。図4に示す移動前の第1の車両201bの走行ベクトルを取得し、その走行ベクトルから次の移動位置を推定し、図4の車両のうち最も近い位置にある車両(この場合は、移動後の第1の車両201a)を選出するわけである。ここで移動前の第1の車両201bの走行ベクトルは、さらにその前の車両の位置に基づいて算出されるものである。なお車両選出手段170は、走行ベクトルを利用する仕様に代えて、画像認識技術を利用して自動的に異なる車両を選別する仕様とすることもできる。
The vehicle selection means 170 selects a specific vehicle from the composite image including different vehicles (that is, distinguishes the vehicles). The vehicle selection means 170 may be implemented by a computer. Further, the vehicle selection means 170 may be configured to select a specific vehicle using the traveling vector. The traveling vector of the first vehicle 201b before movement shown in FIG. 4 is acquired, the next movement position is estimated from the traveling vector, and the vehicle at the closest position among the vehicles in FIG. 4 (in this case, after movement) The
3.車両位置取得方法
続いて、本願発明の車両位置取得方法について図5を参照しながら説明する。図5は、本願発明の車両位置取得方法の主な工程の流れを示すフロー図であり、中央の列に実施する工程を示し、左列にはその工程に必要な入力情報を、右列にはその工程から生まれる出力情報を示している。なお、本願発明の車両位置取得方法は、本願発明の車両位置取得システム100を用いて実施する方法であり、したがって「2.車両位置取得システム」で説明した内容と重複する説明はここでは避け、車両位置取得方法に特有の内容のみ説明することとする。すなわち、ここに記載されていない内容は、「2.車両位置取得システム」で説明したものと同様である。もちろんあらかじめ定義した用語は、ここでの説明でも、「2.車両位置取得システム」でも適用される。
3. Vehicle Position Acquisition Method Subsequently, a vehicle position acquisition method of the present invention will be described with reference to FIG. FIG. 5 is a flow chart showing the flow of the main steps of the vehicle position acquisition method of the present invention, showing the steps to be carried out in the middle row, and the left row shows the input information necessary for the step in the right row Indicates the output information generated from the process. The vehicle position acquisition method according to the present invention is a method implemented using the vehicle
図5に示すように、本願発明の車両位置取得方法を実施するに当たっては、まず基盤正射投影画像を作成するところから始めるとよい。例えば、複数の静止画を撮影し(Step10)、その静止画からSFMといった技術を使用して3次元数値地形モデルを作成し(Step20)、そして空間演算を行うことによって3次元数値地形モデルから基盤正射投影画像を作成する(Step30)。なお、あらかじめ基盤正射投影画像が用意されている場合は、静止画の撮影工程(Step10)〜基盤正射投影画像の作成工程(Step30)は省略することができる。 As shown in FIG. 5, in order to implement the vehicle position acquisition method of the present invention, it is preferable to start by creating a base orthographic projection image. For example, a plurality of still images are photographed (Step 10), and a 3D numerical terrain model is created from the still images using a technique such as SFM (Step 20), and the space operation is performed to obtain a 3D numerical terrain model An orthographic projection image is created (Step 30). In the case where a base orthographic projection image is prepared in advance, the process of photographing a still image (Step 10) to the process of creating a base orthographic projection image (Step 30) can be omitted.
基盤正射投影画像が得られると(あるいは基盤正射投影画像の作成と並行して)、道路(この場合はラウンドアバウト)とともにその道路上を走行する車両を含むように動画を撮影する(Step40)。そしてこの動画から必要な動画構成画像を抽出し(Step50)、当該動画構成画像の標定要素を算出する(Step60)とともに、車両の平面位置を算出する(Step70)。車両の平面位置が得られると、動画構成画像から車両画像を切り出し(Step80)、その車両画像を基盤正射投影画像の上に重ねることによって合成画像を作成する(Step90)。ここで得られた合成画像を確認することによって、目的とする車両の位置を把握することができるわけである。また、車両の走行に応じて、動画構成画像の抽出工程(Step50)〜合成画像の作成工程(Step90)の一連の工程を繰り返し行うことで、車両の動きを把握することもできる。 When the base orthographic projection image is obtained (or in parallel with the creation of the base orthographic projection image), the moving image is photographed to include the road (in this case, the roundabout) and the vehicle traveling on the road (Step 40) ). Then, a necessary moving-image constituting image is extracted from the moving image (Step 50), and a positioning element of the moving-image constituting image is calculated (Step 60), and a plane position of the vehicle is calculated (Step 70). When the plane position of the vehicle is obtained, a vehicle image is cut out from the moving image configuration image (Step 80), and the composite image is created by superimposing the vehicle image on the base orthographic projection image (Step 90). By checking the composite image obtained here, the position of the target vehicle can be grasped. In addition, it is possible to grasp the movement of the vehicle by repeatedly performing a series of processes of the extraction process (Step 50) of the moving image constituent image to the creation process (Step 90) of the composite image according to the traveling of the vehicle.
同一車両の2時期以上の平面位置が得られると、図6に示すように走行ベクトルを算出することもできる。図6では、同一の車両に対してn個(n時期)の平面位置を取得しており、これらの情報を基に当該車両の走行ベクトルを算出する(Step100)。また、ひとつの合成画像に異なる車両が含まれている場合、目的とする車両(特定車両)の走行ベクトルに基づいて当該特定車両を選出する(Step110)こともできる。 When plane positions of two or more times of the same vehicle are obtained, it is also possible to calculate a traveling vector as shown in FIG. In FIG. 6, n (n times) planar positions are acquired for the same vehicle, and the traveling vector of the vehicle is calculated based on the information (Step 100). When different vehicles are included in one composite image, the specific vehicle can be selected based on the traveling vector of the target vehicle (specific vehicle) (Step 110).
本願発明の車両位置取得システム、及び車両位置取得方法は、例えば交差点における車両や歩行者の挙動を把握することができることから、国や地方自治体をはじめとする道路管理者や、道路交通を所管する警察にとって特に有用である。本願発明を実施することにによって、交差点における車両等の挙動を把握することができ、その結果、適切な事故対策を講じることができ、ひいては交差点における交通事故の防止につながることを考えれば、本願発明は産業上利用できるばかりでなく社会的にも大きな貢献が期待できる発明といえる。 The vehicle position acquisition system and the vehicle position acquisition method according to the present invention, for example, can grasp the behavior of a vehicle or a pedestrian at an intersection, and manage road traffic such as a country or a local government or road traffic. Especially useful for the police. By carrying out the present invention, it is possible to grasp the behavior of the vehicle etc. at the intersection, and as a result, it is possible to take appropriate measures against the accident, which leads to the prevention of traffic accidents at the intersection. Inventions can be said to be not only industrially applicable but also socially significant.
100 車両位置取得システム
110 標定要素算出手段
120 平面位置算出手段
121 車両平面位置記憶手段
131 基盤正射投影画像作成手段
132 静止画撮影手段
133 3Dモデル作成手段
134 基盤正射投影画像記憶手段
141 動画撮影手段
142 動画記憶手段
151 合成画像作成手段
152 出力手段
160 走行ベクトル算出手段
170 車両選出手段
200 車両
201 第1の車両
201a 移動後の第1の車両
201b 移動前の第1の車両
202 第2の車両
202a 移動後の第2の車両
202b 移動前の第2の車両
100 Vehicle
Claims (4)
前記動画を構成する動画構成画像を抽出するとともに、該動画構成画像と基盤正射投影画像を照らし合わせることで、該動画構成画像を撮影したときの撮影位置及び撮影方向を算出する標定要素算出手段と、
前記撮影位置及び前記撮影方向、並びに前記基盤正射投影画像に基づいて、前記動画構成画像に含まれる車両の平面位置を求める平面位置算出手段と、を備え、
前記基盤正射投影画像は、道路を含む地表面の正射投影画像であって、座標が付与されている、
ことを特徴とする車両位置取得システム。 A vehicle position acquisition system for acquiring the position of a vehicle traveling on a road from a video,
An orientation element calculating unit that calculates a shooting position and a shooting direction when the moving image configuration image is captured by extracting the moving image configuration image that configures the moving image and comparing the moving image configuration image with the base orthographic projection image When,
Plane position calculating means for obtaining a plane position of a vehicle included in the moving image constituting image based on the photographing position, the photographing direction, and the base orthographic projection image;
The base orthographic projection image is an orthographic projection image of a ground surface including a road, and coordinates are given thereto.
Vehicle position acquisition system characterized in that.
さらに備えたことを特徴とする請求項1記載の車両位置取得システム。 Travel vector calculation means for obtaining a travel vector of a vehicle based on plane positions of two timings obtained by the plane position calculation means for the same vehicle;
The vehicle position acquisition system according to claim 1, further comprising:
前記車両選出手段は、前記走行ベクトル算出手段で求められた前記特定の車両の走行ベクトルに基づいて、該特定の車両を選出する、
ことを特徴とする請求項2記載の車両位置取得システム。 The vehicle further comprises vehicle selection means for selecting a specific vehicle from a plurality of different vehicles,
The vehicle selection means selects the specific vehicle based on the travel vector of the specific vehicle obtained by the travel vector calculation means.
The vehicle position acquisition system according to claim 2, characterized in that:
飛行体によって、車両を含む前記動画を撮影する動画撮影工程と、
前記動画を構成する動画構成画像を抽出するとともに、該動画構成画像と基盤正射投影画像を照らし合わせることで、該動画構成画像を撮影したときの撮影位置及び撮影方向を算出する標定要素算出工程と、
前記撮影位置及び前記撮影方向、並びに前記基盤正射投影画像に基づいて、前記動画構成画像に含まれる車両の平面位置を求める平面位置算出工程と、を備え、
前記基盤正射投影画像は、道路を含む地表面の正射投影画像であって、座標が付与されている、
ことを特徴とする車両位置取得方法。 A method of acquiring a plane position of a vehicle traveling on a road from a video,
A moving image capturing step of capturing the moving image including a vehicle by a flying object;
An orientation element calculation step of calculating a photographing position and a photographing direction when the moving image constituting image is photographed by extracting the moving image constituting image constituting the moving image and comparing the moving image constituting image with the base orthographic projection image When,
A plane position calculating step of obtaining a plane position of a vehicle included in the moving image constituting image based on the photographing position, the photographing direction, and the base orthographic projection image;
The base orthographic projection image is an orthographic projection image of a ground surface including a road, and coordinates are given thereto.
A vehicle position acquisition method characterized in that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017169164A JP6930058B2 (en) | 2017-09-04 | 2017-09-04 | Vehicle position acquisition system and vehicle position acquisition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017169164A JP6930058B2 (en) | 2017-09-04 | 2017-09-04 | Vehicle position acquisition system and vehicle position acquisition method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019046209A true JP2019046209A (en) | 2019-03-22 |
JP6930058B2 JP6930058B2 (en) | 2021-09-01 |
Family
ID=65814416
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017169164A Active JP6930058B2 (en) | 2017-09-04 | 2017-09-04 | Vehicle position acquisition system and vehicle position acquisition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6930058B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000181346A (en) * | 1998-12-15 | 2000-06-30 | Fujitsu Ltd | Video-map cooperation system |
JP2008191988A (en) * | 2007-02-06 | 2008-08-21 | Denso Corp | Vehicle surrounding monitoring device |
JP2010014450A (en) * | 2008-07-01 | 2010-01-21 | Topcon Corp | Position measurement method, position measurement device, and program |
JP2012137933A (en) * | 2010-12-27 | 2012-07-19 | Kokusai Kogyo Co Ltd | Position specifying method of planimetric features to be photographed, program thereof, display map, photographic position acquiring method, program thereof and photographic position acquiring device |
JP2014089078A (en) * | 2012-10-29 | 2014-05-15 | Kokusai Kogyo Co Ltd | Orientation method, orientation program, and orientation device |
-
2017
- 2017-09-04 JP JP2017169164A patent/JP6930058B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000181346A (en) * | 1998-12-15 | 2000-06-30 | Fujitsu Ltd | Video-map cooperation system |
JP2008191988A (en) * | 2007-02-06 | 2008-08-21 | Denso Corp | Vehicle surrounding monitoring device |
JP2010014450A (en) * | 2008-07-01 | 2010-01-21 | Topcon Corp | Position measurement method, position measurement device, and program |
JP2012137933A (en) * | 2010-12-27 | 2012-07-19 | Kokusai Kogyo Co Ltd | Position specifying method of planimetric features to be photographed, program thereof, display map, photographic position acquiring method, program thereof and photographic position acquiring device |
JP2014089078A (en) * | 2012-10-29 | 2014-05-15 | Kokusai Kogyo Co Ltd | Orientation method, orientation program, and orientation device |
Also Published As
Publication number | Publication date |
---|---|
JP6930058B2 (en) | 2021-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12131502B2 (en) | Object pose estimation in visual data | |
CN106536299B (en) | System and method based on test object abrupt deceleration vehicle | |
WO2018163898A1 (en) | Free viewpoint movement display device | |
KR101947619B1 (en) | Slam on a mobile device | |
CN112567201A (en) | Distance measuring method and apparatus | |
JP6699761B2 (en) | Information processing program, information processing method, and information processing apparatus | |
WO2019127518A1 (en) | Obstacle avoidance method and device and movable platform | |
JP6616967B2 (en) | Map creation apparatus and map creation method | |
EP3061092B1 (en) | Motion tracking system | |
CN106887037B (en) | indoor three-dimensional reconstruction method based on GPU and depth camera | |
JP2012118666A (en) | Three-dimensional map automatic generation device | |
EP3803790B1 (en) | Motion segmentation in video from non-stationary cameras | |
JP4446041B2 (en) | Camera vector computing device, shake component detecting device, image stabilizing device, position and orientation stabilizing device, target object lock-on device, and live-action object attribute calling device provided in this camera vector computing device | |
JP4272966B2 (en) | 3DCG synthesizer | |
JP5539250B2 (en) | Approaching object detection device and approaching object detection method | |
JP5396585B2 (en) | Feature identification method | |
CN115336250A (en) | Photographing instruction method, photographing instruction device, and photographing device | |
JP2019533875A (en) | Method and system for generating a composite top view image of a road | |
KR100574227B1 (en) | Apparatus and method for separating object motion from camera motion | |
CN113196341A (en) | Method for detecting and modeling objects on the surface of a road | |
JP2019046209A (en) | Vehicle position acquisition system and vehicle position acquisition method | |
Kloeker et al. | Comparison of Camera-Equipped Drones and Infrastructure Sensors for Creating Trajectory Datasets of Road Users. | |
KR102298047B1 (en) | Method of recording digital contents and generating 3D images and apparatus using the same | |
JP3728508B2 (en) | Image generating apparatus and method | |
JP2007292657A (en) | Camera motion information acquiring apparatus, camera motion information acquiring method, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170905 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200629 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210511 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210702 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210713 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210719 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6930058 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |