JP2019046209A - Vehicle position acquisition system and vehicle position acquisition method - Google Patents

Vehicle position acquisition system and vehicle position acquisition method Download PDF

Info

Publication number
JP2019046209A
JP2019046209A JP2017169164A JP2017169164A JP2019046209A JP 2019046209 A JP2019046209 A JP 2019046209A JP 2017169164 A JP2017169164 A JP 2017169164A JP 2017169164 A JP2017169164 A JP 2017169164A JP 2019046209 A JP2019046209 A JP 2019046209A
Authority
JP
Japan
Prior art keywords
vehicle
image
orthographic projection
moving image
projection image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017169164A
Other languages
Japanese (ja)
Other versions
JP6930058B2 (en
Inventor
博康 高木
Hiroyasu Takagi
博康 高木
広和 村木
Hirokazu Muraki
広和 村木
義典 阿部
Yoshinori Abe
義典 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airport Facilities Co Ltd
Original Assignee
Kokusai Kogyo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kokusai Kogyo Co Ltd filed Critical Kokusai Kogyo Co Ltd
Priority to JP2017169164A priority Critical patent/JP6930058B2/en
Publication of JP2019046209A publication Critical patent/JP2019046209A/en
Application granted granted Critical
Publication of JP6930058B2 publication Critical patent/JP6930058B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

To solve a problem in a prior art, and provide a vehicle position acquisition system and vehicle position acquisition method capable of more precisely obtaining the position of a vehicle, as compared with the prior art, by using a motion picture taken by imaging an intersection.SOLUTION: A vehicle position acquisition system of the present invention acquires the position of a vehicle traveling on a road, and includes orientation element calculation means and planar position calculation means. The orientation element calculation means extracts a motion picture component image, collates the motion picture component image with a base orthographic projection image, and calculates an orientation element employed when the motion picture component image is taken. The planar position calculation means obtains the planar position of the vehicle contained in the motion picture component image on the basis of the orientation element and the base orthographic projection image.SELECTED DRAWING: Figure 1

Description

本願発明は、走行中の車両の位置を取得する技術に関するものであり、より具体的には、動画を構成する画像を利用して車両の位置を取得する車両位置取得システムとその方法に関するものである。   The present invention relates to a technology for acquiring the position of a moving vehicle, and more specifically to a vehicle position acquisition system and method for acquiring the position of a vehicle using an image forming a moving image. is there.

平成26年の改正道路交通法の施行に伴い、ラウンドアバウトと呼ばれる形式の平面交差部が各地で導入されるようになった。このラウンドアバウトは、原則として信号機による交通制御は行わず、円形平面交差点のうち環道の交通を優先し、環道に流入する車両が徐行するというルールにしたがって制御される環状交差点である。出会いがしらの事故が軽減される、信号機を設置しないため停電時も安心して走行できる、といった長所があることから、英国をはじめ諸外国では以前から数多くの実績を重ねている。   With the enforcement of the revised Road Traffic Act of 2014, planar intersections in the form of roundabouts have been introduced in various places. In principle, this roundabout is a roundabout which is controlled according to the rule that vehicles entering the roundabout take a slow pace, giving priority to traffic on the roundabout among circular flat junctions without traffic control by traffic lights. The UK and other foreign countries have had many achievements in the past because they have the advantage of reducing accidents caused by encounters and being able to run with confidence because they do not install traffic lights.

一方、我が国では導入から間もないこともあり、ラウンドアバウトに関する幾何構造設計に関する知見は十分とはいえず、車両の挙動(平面軌跡、速度・加速度等の経時的変化など)や幾何構造に関わる調査・分析が各地で実施されているところである。   On the other hand, in Japan, it is not long after introduction, and knowledge about geometrical structure design about roundabout is not sufficient, and it is related to vehicle behavior (planar trajectory, temporal change of speed, acceleration, etc.) and geometrical structure. Investigation and analysis are being conducted in various places.

ラウンドアバウトに限らず交差点は、異なる方向の通行が重なる場所であり、衝突事故や接触事故などが発生しやすい場所である。また、多くの交差点では信号機によって双方の通行を制御していることから、通行上のボトルネックとなり場所によっては渋滞発生の一因となっている。   Not only roundabouts but also intersections are places where traffic in different directions is overlapped, and places where collisions or contact accidents are likely to occur. In addition, at many intersections, traffic signals are used to control the traffic of both intersections, causing bottlenecks in traffic and contributing to traffic congestion in some places.

いずれにしろラウンドアバウトを含む交差点では、通行形態が一般の走行区間とは著しく相違するため、交差点内における車両の挙動を分析すべく監視や調査がこれまでも実施されてきた。例えば特許文献1では、複数の撮像手段によって交差点を通過する車両の斜め画像を取得し、これら斜め画像から作成した正射投影画像によって交差点の状況を監視する技術について提案している。   In any case, at intersections including roundabouts, since the traffic form is significantly different from that of a general traveling section, monitoring and investigation have been carried out so far to analyze the behavior of vehicles in the intersection. For example, Patent Document 1 proposes a technique for acquiring oblique images of a vehicle passing an intersection by a plurality of imaging means, and monitoring the situation of the intersection with an orthographic projection image created from these oblique images.

特開2001−118183号公報JP 2001-118183 A

交差点内における車両の挙動を把握するために行う監視や調査は、その結果を視認できるという理由から静止画や動画を取得する手法が主流となっている。特に車両の動きに着目する場合は、連続した画像を得ることができる動画の利用が考えられる。また、車両の挙動を把握するためには車両の位置を取得することが望ましく、そのためには特許文献1の記載にもあるように交差点内における車両を含む正射投影画像の利用が有効である。しかしながら、移動を続ける車両を常に真上からの画像(つまり正射投影画像)として撮影し続けることは極めて困難であるため、通常は斜めから撮影した画像を変換して正射投影画像を得ている。   For monitoring and surveys conducted to understand the behavior of vehicles at intersections, methods for acquiring still images and moving pictures are mainstream because the results can be viewed. In particular, in the case of focusing on the movement of the vehicle, it is conceivable to use a moving image from which continuous images can be obtained. In addition, in order to grasp the behavior of the vehicle, it is desirable to acquire the position of the vehicle, and for this purpose, it is effective to use an orthographic projection image including the vehicle in the intersection as described in Patent Document 1 . However, since it is extremely difficult to always take a moving vehicle as an image from above (that is, an orthographic projection image), it is usually difficult to convert an image taken from an oblique direction to obtain an orthographic projection image. There is.

動画を用いる場合、正射投影画像を得るには動画から抽出した静止画が使用される。ところが動画から抽出される画像は、静止画として取得された画像に比べるとその解像度は一般的に劣ることが知られている。車両の挙動を把握するためには車両の動きを追跡する必要があり、そのためには個々の正射投影画像をつなげていく必要があるが、解像度が劣る画像を用いるとその正射投影画像を適切につなぐことができず、その結果、車両の位置を精度よく把握することができず、そのため車両の挙動を正確に把握することができないという問題を指摘することができる。   When using a moving image, a still image extracted from the moving image is used to obtain an orthographic projection image. However, it is known that the resolution of an image extracted from a moving image is generally inferior to that of an image acquired as a still image. In order to understand the behavior of the vehicle, it is necessary to track the motion of the vehicle, and for that purpose it is necessary to connect the individual orthographic projection images, but if the image with poor resolution is used, the orthographic projection image As a result, it is possible to point out the problem that the position of the vehicle can not be accurately grasped and, therefore, the behavior of the vehicle can not be grasped accurately.

本願発明の課題は、従来技術が抱える問題を解決することであり、すなわち交差点を撮影した動画を用いて、従来技術よりも精度よく車両の位置を求めることができる車両位置取得システム、及び車両位置取得方法を提供することである。   An object of the present invention is to solve the problems of the prior art, that is, a vehicle position acquisition system capable of obtaining the position of the vehicle more accurately than the prior art using a moving image obtained by photographing an intersection, and a vehicle position It is to provide an acquisition method.

本願発明は、位置の基準となる正射投影画像(基盤正射投影画像)を利用して車両を撮影した動画の外部標定要素を算出するという点に着目したものであり、従来にはなかった発想に基づいてなされた発明である。   The invention of the present application focuses on the point of calculating an external determination element of a moving image obtained by photographing a vehicle using an orthographic projection image (base orthographic projection image) serving as a reference of position, which has not heretofore been available. It is an invention made on the basis of ideas.

本願発明の車両位置取得システムは、道路上を走行する車両の位置を取得する車両位置取得システムであり、標定要素算出手段と平面位置算出手段を備えたものである。このうち標定要素算出手段は、動画構成画像(動画を構成する画像)を抽出するとともに、その動画構成画像と基盤正射投影画像を照らし合わせることで、動画構成画像を撮影したときの標定要素(撮影位置及び撮影方向)を算出する手段である。一方の平面位置算出手段は、標定要素と基盤正射投影画像に基づいて、動画構成画像に含まれる車両の平面位置を求める手段である。なお、基盤正射投影画像とは、道路を含む地表面の正射投影画像であって、座標が付与されている画像のことである。   The vehicle position acquisition system according to the present invention is a vehicle position acquisition system for acquiring the position of a vehicle traveling on a road, and includes a positioning element calculation unit and a plane position calculation unit. Among them, the localization element calculation means extracts a moving image constituent image (an image constituting a moving image) and compares the moving image constituent image with the base orthographic projection image to obtain a positioning element when the moving image constituent image is photographed ( It is a means to calculate the photographing position and the photographing direction). One plane position calculation means is a means for obtaining the plane position of the vehicle included in the moving image constituting image based on the positioning element and the base orthographic projection image. The base orthographic projection image is an orthographic projection image of a ground surface including a road, and is an image to which coordinates are given.

本願発明の車両位置取得システムは、走行ベクトル算出手段をさらに備えたものとすることができる。この走行ベクトル算出手段は、同一の車両に対して平面位置算出手段で求められる2時期の平面位置に基づいて車両の走行ベクトルを求める手段である。   The vehicle position acquisition system of the present invention may further include traveling vector calculation means. The travel vector calculation means is a means for obtaining the travel vector of the vehicle based on the two-time plane positions obtained by the plane position calculation means for the same vehicle.

本願発明の車両位置取得システムは、車両選出手段をさらに備えたものとすることができる。この車両選出手段は、複数の異なる車両から特定の車両を選出する手段であり、走行ベクトル算出手段で求められた特定の車両の走行ベクトルに基づいてその特定の車両を選出する。   The vehicle position acquisition system of the present invention may further include vehicle selection means. The vehicle selection means is a means for selecting a specific vehicle from a plurality of different vehicles, and selects the specific vehicle based on the travel vector of the specific vehicle obtained by the travel vector calculation means.

本願発明の車両位置取得方法は、道路上を走行する車両の位置を動画から確認する方法であり、動画撮影工程と標定要素算出工程、平面位置算出工程を備えた方法である。このうち動画撮影工程では、飛行体によって車両を含む動画を撮影し、標定要素算出工程では、
動画構成画像を抽出するとともにその動画構成画像と基盤正射投影画像を照らし合わせることで動画構成画像を撮影したときの標定要素を算出し、平面位置算出工程では、標定要素と基盤正射投影画像に基づいて動画構成画像に含まれる車両の平面位置を求める。
The vehicle position acquisition method of the present invention is a method of confirming the position of a vehicle traveling on a road from a moving image, and is a method including a moving image shooting step, a positioning element calculation step, and a plane position calculation step. Among them, in the moving image shooting step, a moving object including a vehicle is shot by the flying object, and in the orientation factor calculating step,
By extracting the moving image constituting image and comparing the moving image constituting image with the base orthographic projection image, a positioning element when the moving image constituting image is photographed is calculated. The plane position of the vehicle included in the moving image configuration image is determined based on

本願発明の車両位置取得システム、及び車両位置取得方法には、次のような効果がある。
(1)動画を用いることから、走行する車両の位置を連続的あるいは断続的に取得することができる。
(2)動画から抽出した画像を用いるものの、その位置が明確な基盤正射投影画像と照らし合わせることで従来に比して精度よく車両の位置を求めることができる。
The vehicle position acquisition system and the vehicle position acquisition method of the present invention have the following effects.
(1) Since the moving image is used, the position of the traveling vehicle can be acquired continuously or intermittently.
(2) Although the image extracted from the moving image is used, the position of the vehicle can be determined more accurately than before by comparing it with the base orthographic projection image whose position is clear.

本願発明の車両位置取得システムの主な構成を示すブロック図。BRIEF DESCRIPTION OF THE DRAWINGS The block diagram which shows the main structures of the vehicle position acquisition system of this invention. ラウンドアバウトと車両を合成した合成画像を模式的に示すモデル図。The model figure which shows the synthetic | combination image which synthesize | combined the roundabout and the vehicle typically. 複数の動画構成画像ごとに車両画像を切り出し、ひとつの基盤正射投影画像の上にこれら車両画像を重ねた合成画像を模式的に示すモデル図。FIG. 6 is a model diagram schematically showing a composite image in which a vehicle image is cut out for each of a plurality of moving image constituent images and these vehicle images are superimposed on one base orthographic projection image. ひとつの基盤正射投影画像の上に異なる複数の車両画像を重ねた合成画像を模式的に示すモデル図。FIG. 3 is a model diagram schematically showing a composite image in which a plurality of different vehicle images are superimposed on one base orthographic projection image. 本願発明の車両位置取得方法の主な工程の流れを示すフロー図。The flow figure showing the flow of the main processes of the vehicle position acquisition method of the present invention. 走行ベクトルを算出する工程と、特定車両を選出する工程の流れを示す部分フロー図。FIG. 10 is a partial flow chart showing a flow of steps of calculating a traveling vector and selecting a specific vehicle.

本願発明の車両位置取得システム、及び車両位置取得方法の実施形態の例を図に基づいて説明する。   An example of an embodiment of a vehicle position acquisition system and a vehicle position acquisition method of the present invention will be described based on the drawings.

1.定義
本願発明の実施形態の例を説明するにあたって、はじめにここで用いる用語の定義を示しておく。
1. Definitions In describing examples of embodiments of the present invention, the definitions of terms used herein are first presented.

(動画構成画像)
動画は多数の画像(静止画像)によって構成されるものであり、ここでは動画を構成する各画像のことを「動画構成画像」ということとする。なお本願発明は、道路上を走行している車両の位置を取得するものであり、したがって動画構成画像には走行中の車両が含まれる。
(Video composition image)
A moving image is composed of a large number of images (still images). Here, each of the images constituting the moving image is referred to as a "moving image constituting image". The present invention is to obtain the position of a vehicle traveling on a road, and thus the moving image configuration image includes a vehicle traveling.

(標定要素)
撮影時のカメラを標定(外部標定)した結果得られるパラメータは、撮影時のカメラ位置の3次元座標(以下、「撮影位置」という。)と3軸の傾き(以下、「撮影方向」という。)である。ここでは、この撮影位置(X,Y,Z)と撮影方向(ω,φ,κ)を総称して「標定要素」ということとする。
(Positioning element)
The parameters obtained as a result of orienting (external orientation) of the camera at the time of shooting are three-dimensional coordinates of the camera position at the time of shooting (hereinafter referred to as "shooting position") and inclinations of three axes (hereinafter referred to as "shooting direction"). ). Here, the shooting position (X, Y, Z) and the shooting direction (ω, φ,)) are collectively referred to as “alignment elements”.

(基盤正射投影画像)
道路を含む地表面の正射投影画像(オルソフォト)のことを、ここでは「基盤正射投影画像」ということとする。ただしこの基盤正射投影画像には、3次元座標が付与されている。例えば、複数の写真から作成される3次元地形モデルを平面上(2次元的)に表示(描画)した正射投影画像、あるいは地表モデルDTM(Digital Terrain Model)や表層モデルDSM(Digital Surface Model)といった数値地形モデルを平面上に表示した正射投影画像などが、基盤正射投影画像として挙げられる。
(Base orthographic projection image)
Here, an orthographic projection image (orthophoto) of the ground surface including the road is referred to as a "base orthographic projection image". However, three-dimensional coordinates are given to this base orthographic projection image. For example, an orthographic projection image in which a three-dimensional terrain model created from a plurality of photographs is displayed (two-dimensionally) on a plane (two-dimensionally), or a surface model DTM (Digital Terrain Model) or a surface model DSM (Digital Surface Model) An orthographic projection image etc. which displayed such a numerical terrain model on a plane etc. are mentioned as a base orthographic projection image.

(走行ベクトル)
走行中の車両の移動方向のことを、ここでは「走行ベクトル」ということとする。具体的には、走行中の車両が通過した2以上の地点の座標から、その走行方向を求めたものが走行ベクトルである。また、車両の通過時刻が分かる場合は地点間の走行速度を求めることができ、この場合は走行ベクトルに走行速度を含めることもできる。
(Traveling vector)
Here, the moving direction of the moving vehicle is referred to as a “traveling vector”. Specifically, a traveling vector is obtained by determining the traveling direction from the coordinates of two or more points through which a traveling vehicle has passed. Also, when the passing time of the vehicle is known, the traveling speed between points can be obtained, and in this case, the traveling speed can be included in the traveling vector.

2.車両位置取得システム
次に、本願発明の車両位置取得システムについて、図1を参照しながら説明する。図1は、本願発明の車両位置取得システム100の主な構成を示すブロック図である。なお、ここでは便宜上、図2に示すラウンドアバウトを走行する車両の例で説明しているが、本願発明は、交差点のほか一般の走行区間などあらゆる道路上を走行する車両を対象とすることができる。
2. Vehicle Position Acquisition System Next, a vehicle position acquisition system of the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing the main configuration of a vehicle position acquisition system 100 according to the present invention. In addition, although the example of the vehicle which travels the roundabout shown in FIG. 2 is demonstrated here for convenience, the present invention can be applied to a vehicle traveling on any road such as a general traveling section besides an intersection. it can.

図1に示すように車両位置取得システム100は、標定要素算出手段110と平面位置算出手段120を含んで構成され、そのほか図1に示す各手段を含んで構成することもできる。以下、車両位置取得システム100を構成する主な要素ごとに詳しく説明する。   As shown in FIG. 1, the vehicle position acquisition system 100 is configured to include orientation element calculation means 110 and plane position calculation means 120, and can also be configured to include each means shown in FIG. Hereinafter, the main elements of the vehicle position acquisition system 100 will be described in detail.

(基盤正射投影画像作成手段)
基盤正射投影画像作成手段131は、文字どおり基盤正射投影画像を作成する手段であり、用意される入力データの種類に対応して適宜作成するものである。例えば図1では、複数の静止画に基づいて基盤正射投影画像を作成する例を示している。以下、基盤正射投影画像を作成する手順について具体的に説明する。
(Base orthographic projection image creation means)
The base orthographic projection image creation means 131 is a means for literally creating a base orthographic projection image, and is appropriately created corresponding to the type of input data to be prepared. For example, FIG. 1 shows an example of creating a base orthographic projection image based on a plurality of still images. Hereinafter, the procedure of creating a base orthographic projection image will be specifically described.

まず静止画撮影手段132によって複数の静止画を撮影する。このとき、道路(この場合はラウンドアバウト)を含むように、しかもできるだけ車両が含まれないように撮影する。静止画撮影手段132は、静止画取得用のカメラを用いてもよいし、後に説明する動画撮影手段141を用いてもよい。ただし動画撮影手段141を用いる場合は、比較的高い解像度が得られるよう調整したうえで(例えばインターバル撮影など)静止画を取得することが望ましい。複数の静止画が得られると、バンドル調整やSFM(Structure from Motion)といった写真測量技術を利用して、対象地形の3次元数値地形モデルを作成する。この3次元数値地形モデルを作成するのが、図1に示す3Dモデル作成手段133である。この3Dモデル作成手段133は、コンピュータによって実行させるとよい。   First, a plurality of still images are photographed by the still image photographing means 132. At this time, the image is taken so as to include the road (in this case, a roundabout), and to minimize the inclusion of a vehicle. The still image photographing means 132 may use a camera for acquiring a still image, or may use a moving image photographing means 141 which will be described later. However, in the case of using the moving image shooting means 141, it is desirable to obtain a still image after adjustment (for example, interval shooting etc.) so as to obtain a relatively high resolution. When multiple still images are obtained, a three-dimensional numerical terrain model of the target terrain is created using photogrammetry technology such as bundle adjustment or SFM (Structure from Motion). It is the 3D model creation means 133 shown in FIG. 1 that creates this 3D numerical terrain model. The 3D model creating means 133 may be executed by a computer.

3次元数値地形モデルは3次元座標が付与されたものであるから、これに基づいて正射投影画像(オルソフォト)を作成することができる。具体的には、基盤正射投影画像作成手段131が空間演算を行うことによって、3次元数値地形モデルから基盤正射投影画像を作成する。この基盤正射投影画像作成手段131は、コンピュータによって実行させるとよい。そして作成された基盤正射投影画像は、基盤正射投影画像記憶手段134に記憶される。なお、あらかじめ基盤正射投影画像が用意されている場合、基盤正射投影画像作成手段131と、静止画撮影手段132、3Dモデル作成手段133、基盤正射投影画像記憶手段134は、必ずしも車両位置取得システム100に含める必要はない。   Since the 3D numerical terrain model is given 3D coordinates, an orthographic projection image (orthophoto) can be created based on this. Specifically, the base orthographic projection image creation unit 131 performs a spatial operation to create a base orthographic projection image from the three-dimensional numerical terrain model. The base orthographic projection image creation means 131 may be executed by a computer. The created base orthographic projection image is stored in the base orthographic projection image storage means 134. When the base orthographic projection image is prepared in advance, the base orthographic projection image creating unit 131, the still image capturing unit 132, the 3D model creating unit 133, and the base regular projection image storage unit 134 are not necessarily vehicle positions. There is no need to include it in the acquisition system 100.

(動画撮影手段)
動画撮影手段141は、道路(この場合はラウンドアバウト)とともにその道路上を走行する車両を含むように動画を撮影するものである。動画を撮影するに当たっては、動画撮影手段141を所定施設に固定して対象範囲全体が含まれるように撮影してもよいし、人が動画撮影手段141を手持ちにして高い位置から撮影してもよいし、あるいはUAV(Unmanned Air Vehicle)などの飛行体に動画撮影手段141を取り付けたうえで上空から撮影してもよい。動画撮影手段141によって撮影された動画は、バッチ処理もしくはリアルタイム処理によって動画記憶手段142に記憶される。
(Video shooting means)
The moving image shooting means 141 takes a moving image so as to include a vehicle traveling on the road (in this case, a roundabout) along with the road. When shooting a moving image, the moving image shooting means 141 may be fixed to a predetermined facility and shot so as to include the entire target range, or even when a person holds the moving image shooting means 141 and shoots from a high position Alternatively, the moving image capturing means 141 may be attached to a flying object such as a UAV (Unmanned Air Vehicle) and the image may be taken from above. The moving image photographed by the moving image photographing unit 141 is stored in the moving image storage unit 142 by batch processing or real time processing.

(標定要素算出手段)
標定要素算出手段110は、動画構成画像を抽出し、抽出された動画構成画像を撮影したときの標定要素(撮影位置及び撮影方向)を算出するものである。この標定要素算出手段110は、コンピュータによって実行させるとよい。以下、動画構成画像の標定要素を算出する手順について具体的に説明する。
(Positioning element calculation means)
The orientation element calculating unit 110 extracts a moving image constituent image, and calculates a positioning element (photographing position and photographing direction) when the extracted moving image constituent image is photographed. The orientation factor calculation means 110 may be executed by a computer. Hereinafter, the procedure for calculating orientation elements of the moving image composition image will be specifically described.

まず、動画記憶手段142から所定の動画構成画像を抽出するとともに、基盤正射投影画像記憶手段134から基盤正射投影画像を読み出す。既述のとおり基盤正射投影画像は3次元座標が付与されており、特徴的な点(特徴点)を数多く含んでいる。換言すれば基盤正射投影画像は、数多くの基準点を具備しているわけである。一方、動画構成画像は、多くの場合斜め方向から撮影された画像(以下、「斜め画像」という。)であるが、基盤正射投影画像の一部を撮影したものであるから、その中にもいくつかの基準点が含まれている。そこで、動画構成画像と基盤正射投影画像を照らし合わせることによって動画構成画像に含まれる基準点を抽出し、これを入力条件として単写真標定や、SFMなどの相互標定、あるいはバンドル調整といった写真測量技術を利用することで、その動画構成画像の標定要素を算出することができる。このうち単写真標定では1枚の動画構成画像を用い、その画像中に含まれる複数の基準点における3次元座標及び画像中の平面座標(画像座標系における画像座標)から、その動画構成画像の標定要素を算出する。また、相互標定やバンドル調整では複数の動画構成画像と基準点に基づいて3次元数値地形モデルを作成しつつ動画構成画像の標定要素を算出する。   First, while extracting a predetermined moving image constituent image from the moving image storage means 142, the base orthographic projection image is read out from the base orthographic projection image storage means 134. As described above, the base orthographic projection image is given three-dimensional coordinates, and includes many characteristic points (feature points). In other words, the base orthographic projection image has many reference points. On the other hand, although the moving image constituting image is an image (hereinafter referred to as "oblique image") which is often photographed from an oblique direction, since a part of the base orthographic projection image is photographed, There are also some reference points included. Therefore, the reference point included in the moving image configuration image is extracted by comparing the moving image configuration image with the base orthographic projection image, and the input condition is a single photo orientation, a relative orientation such as SFM, or a photogrammetry such as bundle adjustment. By utilizing the technology, it is possible to calculate orientation elements of the moving image constituent image. Among them, in single photo orientation, a single moving image configuration image is used, and from the three-dimensional coordinates at a plurality of reference points included in the image and the plane coordinates in the image (image coordinates in the image coordinate system) Calculate the orientation factor. Further, in the relative orientation and bundle adjustment, the orientation elements of the moving image configuration image are calculated while creating a three-dimensional numerical terrain model based on the plurality of moving image configuration images and the reference points.

(平面位置算出手段)
平面位置算出手段120は、動画構成画像に含まれる車両の平面位置を算出するものである。この平面位置算出手段120は、コンピュータによって実行させるとよい。車両の平面位置は、その先端や後端など任意の点で表すこともできるし、複数の点に囲まれた車両の領域で表すこともできる。また、車両の3次元モデルを作成した上で車両の平面位置を算出してもよい。なお、ここでいう車両の平面位置とは、画像内における位置(画像座標)ではなく、現実の道路上における相対的(あるいは絶対的)な位置のことであり、具体的には基盤正射投影画像に付与された座標と同じ座標系で与えられる位置座標のことである。既述のとおり動画構成画像は斜め画像であるが、その動画構成画像の標定要素が得られており、動画構成画像には基盤正射投影画像の基準点が含まれていることから、車両の平面位置を算出することができるわけである。平面位置算出手段120によって算出された車両の平面位置(座標)は、車両平面位置記憶手段121に記憶される。
(Plane position calculation means)
The plane position calculation unit 120 calculates the plane position of the vehicle included in the moving image configuration image. The plane position calculation means 120 may be executed by a computer. The planar position of the vehicle can be represented by an arbitrary point such as the front end or the rear end, or can be represented by an area of the vehicle surrounded by a plurality of points. Alternatively, the three-dimensional model of the vehicle may be created and then the plane position of the vehicle may be calculated. In addition, the plane position of a vehicle here is not a position (image coordinates) in an image but a relative (or absolute) position on a real road, and more specifically base orthographic projection It is the position coordinates given in the same coordinate system as the coordinates given to the image. As described above, the moving image constituting image is an oblique image, but the orientation elements of the moving image constituting image are obtained, and the moving image constituting image includes the reference point of the base orthographic projection image. The plane position can be calculated. The plane position (coordinates) of the vehicle calculated by the plane position calculation unit 120 is stored in the vehicle plane position storage unit 121.

(合成画像作成手段)
合成画像作成手段151は、動画構成画像に含まれる車両と、基盤正射投影画像を合成して合成画像を作成するものである。具体的には、動画構成画像から車両部分の画像(以下、「車両画像」という。)を切り出し、平面位置算出手段120で算出した車両の平面位置に基づいて、車両画像を基盤正射投影画像の上に重ねることによって、図2に示す合成画像を作成する。換言すれば、動画構成画像の背景画像(車両以外の地形画像)を基盤正射投影画像に差し替えるわけである。つまり図2は、車両200部分は動画構成画像のもので形成されているが、車両を除く部分は基盤正射投影画像のもので形成されている。なお、動画構成画像は斜め画像であることから車両画像もやはり斜め画像であり、一方の基盤正射投影画像は当然ながら正射投影画像である。したがって、合成画像のうち車両画像のみが斜め画像となり、他の領域は正射投影画像となる。
(Composite image creation means)
The composite image creation unit 151 composites the vehicle included in the moving image constituent image and the base orthographic projection image to create a composite image. Specifically, an image of the vehicle portion (hereinafter referred to as "vehicle image") is cut out from the moving image configuration image, and the vehicle image is projected onto the base orthographic projection image based on the plane position of the vehicle calculated by the plane position calculation means 120. Create a composite image as shown in FIG. In other words, the background image (the terrain image other than the vehicle) of the moving image constituting image is replaced with the base orthographic projection image. That is, in FIG. 2, the vehicle 200 portion is formed of the moving image configuration image, but the portion excluding the vehicle is formed of the base orthographic projection image. Since the moving image constituting image is an oblique image, the vehicle image is also an oblique image, and one of the base orthographic projection images is naturally an orthographic projection image. Therefore, only the vehicle image in the composite image is an oblique image, and the other area is an orthographic projection image.

合成画像を作成するため合成画像作成手段151は車両画像を切り出すと説明したが、これはオペレータが動画構成画像を確認しながら操作することで切り出す仕様とすることもできるし、画像認識技術を利用して自動的に車両画像を切り出す仕様とすることもできる。いずれの仕様を採用したとしても、合成画像作成手段151はコンピュータによって実行させるとよい。   Although it has been described that the composite image creation unit 151 cuts out a vehicle image in order to create a composite image, this can be set as a specification that the operator operates while confirming the moving image configuration image. It is also possible to automatically cut out a vehicle image. Whichever specification is adopted, the composite image creation unit 151 may be executed by a computer.

ここまで、動画から動画構成画像を抽出し、その画像の標定要素を算出し、そして車両の平面位置を求めて合成画像を作成する処理について説明したが、この一連の処理を車両の走行に応じて繰り返し行うことによって車両の動きを追跡することができる。すなわち所定の時間間隔(定期的もしくは不定期)で動画構成画像を抽出し、それぞれの動画構成画像に対して合成画像を作成すると、車両の動き(いわば軌跡)が把握できるわけである。動画構成画像ごとに合成画像を作成するのではなく、動画構成画像ごとに車両画像を切り出し、ひとつの基盤正射投影画像の上にこれら車両画像を重ねた合成画像(図3)を作成してもよい。合成画像作成手段151によって作成された合成画像は、ディスプレイやプリンタといった出力手段152で出力することができる。   So far, the process of extracting the moving image configuration image from the moving image, calculating the orientation elements of the image, and obtaining the plane position of the vehicle to create the composite image has been described. Repeatedly, it is possible to track the movement of the vehicle. That is, when moving image constituent images are extracted at predetermined time intervals (periodically or irregularly) and composite images are created for the respective moving image constituent images, it is possible to grasp the movement of the vehicle (a so-called trajectory). Instead of creating a composite image for each moving image configuration image, a vehicle image is cut out for each moving image configuration image, and a composite image (FIG. 3) in which these vehicle images are superimposed on one base orthographic projection image is created It is also good. The composite image created by the composite image creation unit 151 can be output by an output unit 152 such as a display or a printer.

(走行ベクトル算出手段)
走行ベクトル算出手段160は、車両の走行ベクトルを算出する手段である。具体的には、2以上の異なる動画構成画像(ただし、それぞれ同一の車両を含む)からそれぞれ車両の位置を算出し、これら車両の位置に基づいて走行ベクトルを算出する。このとき、動画構成画像を撮影した時刻が記録されていれば、走行速度を求めこれを走行ベクトルに含めることもできる。この走行ベクトル算出手段160は、コンピュータによって実行させるとよい。
(Travel vector calculation means)
The traveling vector calculation unit 160 is a unit that calculates a traveling vector of the vehicle. Specifically, the positions of the vehicles are calculated from two or more different moving image configuration images (each including the same vehicle), and the traveling vector is calculated based on the positions of the vehicles. At this time, if the time at which the moving image constituting image was captured is recorded, the traveling speed can be obtained and included in the traveling vector. The travel vector calculation means 160 may be executed by a computer.

(車両選出手段)
ひとつの基盤正射投影画像の上に複数の車両画像を重ねた合成画像を作成すると、図4に示すようにひとつの合成画像に異なる車両が含まれることもある。このような合成図から車両の動きを追跡するためには、車両を区別する必要がある。例えば図4では、第1の車両201と第2の車両202が含まれており、さらに移動前の第1の車両201bと移動後の第1の車両201a、移動前の第2の車両202bと移動後の第2の車両202aが含まれており、車両の動きを追跡するためには4つの車両画像から第1の車両201と第2の車両202を選別しなければならない。
(Vehicle selection means)
When a composite image in which a plurality of vehicle images are superimposed on one base orthographic projection image is created, different vehicles may be included in one composite image as shown in FIG. In order to track the movement of the vehicle from such a composite diagram, it is necessary to distinguish the vehicle. For example, in FIG. 4, the first vehicle 201 and the second vehicle 202 are included, and the first vehicle 201b before movement, the first vehicle 201a after movement, and the second vehicle 202b before movement are further included. The second vehicle 202a after movement is included, and in order to track the movement of the vehicle, the first vehicle 201 and the second vehicle 202 have to be selected from the four vehicle images.

異なる車両が含まれた合成画像から、特定の車両を選出する(つまり車両を区別する)のが車両選出手段170である。この車両選出手段170は、コンピュータによって実行させるとよい。また車両選出手段170は、走行ベクトルを利用して特定の車両を選出する仕様にするとよい。図4に示す移動前の第1の車両201bの走行ベクトルを取得し、その走行ベクトルから次の移動位置を推定し、図4の車両のうち最も近い位置にある車両(この場合は、移動後の第1の車両201a)を選出するわけである。ここで移動前の第1の車両201bの走行ベクトルは、さらにその前の車両の位置に基づいて算出されるものである。なお車両選出手段170は、走行ベクトルを利用する仕様に代えて、画像認識技術を利用して自動的に異なる車両を選別する仕様とすることもできる。   The vehicle selection means 170 selects a specific vehicle from the composite image including different vehicles (that is, distinguishes the vehicles). The vehicle selection means 170 may be implemented by a computer. Further, the vehicle selection means 170 may be configured to select a specific vehicle using the traveling vector. The traveling vector of the first vehicle 201b before movement shown in FIG. 4 is acquired, the next movement position is estimated from the traveling vector, and the vehicle at the closest position among the vehicles in FIG. 4 (in this case, after movement) The first vehicle 201a) is selected. Here, the traveling vector of the first vehicle 201b before movement is calculated based on the position of the vehicle in front of it. The vehicle selection means 170 may be configured to automatically select different vehicles using image recognition technology, in place of the specifications using travel vectors.

3.車両位置取得方法
続いて、本願発明の車両位置取得方法について図5を参照しながら説明する。図5は、本願発明の車両位置取得方法の主な工程の流れを示すフロー図であり、中央の列に実施する工程を示し、左列にはその工程に必要な入力情報を、右列にはその工程から生まれる出力情報を示している。なお、本願発明の車両位置取得方法は、本願発明の車両位置取得システム100を用いて実施する方法であり、したがって「2.車両位置取得システム」で説明した内容と重複する説明はここでは避け、車両位置取得方法に特有の内容のみ説明することとする。すなわち、ここに記載されていない内容は、「2.車両位置取得システム」で説明したものと同様である。もちろんあらかじめ定義した用語は、ここでの説明でも、「2.車両位置取得システム」でも適用される。
3. Vehicle Position Acquisition Method Subsequently, a vehicle position acquisition method of the present invention will be described with reference to FIG. FIG. 5 is a flow chart showing the flow of the main steps of the vehicle position acquisition method of the present invention, showing the steps to be carried out in the middle row, and the left row shows the input information necessary for the step in the right row Indicates the output information generated from the process. The vehicle position acquisition method according to the present invention is a method implemented using the vehicle position acquisition system 100 according to the present invention, and therefore the description overlapping with the contents described in “2. Vehicle position acquisition system” is avoided here. Only content specific to the vehicle position acquisition method will be described. That is, the contents not described here are the same as those described in “2. Vehicle position acquisition system”. Of course, the terms defined in advance apply to both the description here and “2. Vehicle position acquisition system”.

図5に示すように、本願発明の車両位置取得方法を実施するに当たっては、まず基盤正射投影画像を作成するところから始めるとよい。例えば、複数の静止画を撮影し(Step10)、その静止画からSFMといった技術を使用して3次元数値地形モデルを作成し(Step20)、そして空間演算を行うことによって3次元数値地形モデルから基盤正射投影画像を作成する(Step30)。なお、あらかじめ基盤正射投影画像が用意されている場合は、静止画の撮影工程(Step10)〜基盤正射投影画像の作成工程(Step30)は省略することができる。   As shown in FIG. 5, in order to implement the vehicle position acquisition method of the present invention, it is preferable to start by creating a base orthographic projection image. For example, a plurality of still images are photographed (Step 10), and a 3D numerical terrain model is created from the still images using a technique such as SFM (Step 20), and the space operation is performed to obtain a 3D numerical terrain model An orthographic projection image is created (Step 30). In the case where a base orthographic projection image is prepared in advance, the process of photographing a still image (Step 10) to the process of creating a base orthographic projection image (Step 30) can be omitted.

基盤正射投影画像が得られると(あるいは基盤正射投影画像の作成と並行して)、道路(この場合はラウンドアバウト)とともにその道路上を走行する車両を含むように動画を撮影する(Step40)。そしてこの動画から必要な動画構成画像を抽出し(Step50)、当該動画構成画像の標定要素を算出する(Step60)とともに、車両の平面位置を算出する(Step70)。車両の平面位置が得られると、動画構成画像から車両画像を切り出し(Step80)、その車両画像を基盤正射投影画像の上に重ねることによって合成画像を作成する(Step90)。ここで得られた合成画像を確認することによって、目的とする車両の位置を把握することができるわけである。また、車両の走行に応じて、動画構成画像の抽出工程(Step50)〜合成画像の作成工程(Step90)の一連の工程を繰り返し行うことで、車両の動きを把握することもできる。   When the base orthographic projection image is obtained (or in parallel with the creation of the base orthographic projection image), the moving image is photographed to include the road (in this case, the roundabout) and the vehicle traveling on the road (Step 40) ). Then, a necessary moving-image constituting image is extracted from the moving image (Step 50), and a positioning element of the moving-image constituting image is calculated (Step 60), and a plane position of the vehicle is calculated (Step 70). When the plane position of the vehicle is obtained, a vehicle image is cut out from the moving image configuration image (Step 80), and the composite image is created by superimposing the vehicle image on the base orthographic projection image (Step 90). By checking the composite image obtained here, the position of the target vehicle can be grasped. In addition, it is possible to grasp the movement of the vehicle by repeatedly performing a series of processes of the extraction process (Step 50) of the moving image constituent image to the creation process (Step 90) of the composite image according to the traveling of the vehicle.

同一車両の2時期以上の平面位置が得られると、図6に示すように走行ベクトルを算出することもできる。図6では、同一の車両に対してn個(n時期)の平面位置を取得しており、これらの情報を基に当該車両の走行ベクトルを算出する(Step100)。また、ひとつの合成画像に異なる車両が含まれている場合、目的とする車両(特定車両)の走行ベクトルに基づいて当該特定車両を選出する(Step110)こともできる。   When plane positions of two or more times of the same vehicle are obtained, it is also possible to calculate a traveling vector as shown in FIG. In FIG. 6, n (n times) planar positions are acquired for the same vehicle, and the traveling vector of the vehicle is calculated based on the information (Step 100). When different vehicles are included in one composite image, the specific vehicle can be selected based on the traveling vector of the target vehicle (specific vehicle) (Step 110).

本願発明の車両位置取得システム、及び車両位置取得方法は、例えば交差点における車両や歩行者の挙動を把握することができることから、国や地方自治体をはじめとする道路管理者や、道路交通を所管する警察にとって特に有用である。本願発明を実施することにによって、交差点における車両等の挙動を把握することができ、その結果、適切な事故対策を講じることができ、ひいては交差点における交通事故の防止につながることを考えれば、本願発明は産業上利用できるばかりでなく社会的にも大きな貢献が期待できる発明といえる。   The vehicle position acquisition system and the vehicle position acquisition method according to the present invention, for example, can grasp the behavior of a vehicle or a pedestrian at an intersection, and manage road traffic such as a country or a local government or road traffic. Especially useful for the police. By carrying out the present invention, it is possible to grasp the behavior of the vehicle etc. at the intersection, and as a result, it is possible to take appropriate measures against the accident, which leads to the prevention of traffic accidents at the intersection. Inventions can be said to be not only industrially applicable but also socially significant.

100 車両位置取得システム
110 標定要素算出手段
120 平面位置算出手段
121 車両平面位置記憶手段
131 基盤正射投影画像作成手段
132 静止画撮影手段
133 3Dモデル作成手段
134 基盤正射投影画像記憶手段
141 動画撮影手段
142 動画記憶手段
151 合成画像作成手段
152 出力手段
160 走行ベクトル算出手段
170 車両選出手段
200 車両
201 第1の車両
201a 移動後の第1の車両
201b 移動前の第1の車両
202 第2の車両
202a 移動後の第2の車両
202b 移動前の第2の車両
100 Vehicle Position Acquisition System 110 Targeting Element Calculation Means 120 Plane Position Calculation Means 121 Vehicle Plane Position Storage Means 131 Base Orthographic Projection Image Creation Means 132 Still Image Shooting Means 133 3D Model Creation Means 134 Base Orthographic Projection Image Storage Means 141 Movie Shooting Means 142 moving image storage means 151 composite image creation means 152 output means 160 travel vector calculation means 170 vehicle selection means 200 vehicle 201 first vehicle 201a first vehicle 201b after movement first vehicle 201b first movement 202 second vehicle 202a second vehicle after movement 202b second vehicle before movement

Claims (4)

動画から、道路上を走行する車両の位置を取得する車両位置取得システムであって、
前記動画を構成する動画構成画像を抽出するとともに、該動画構成画像と基盤正射投影画像を照らし合わせることで、該動画構成画像を撮影したときの撮影位置及び撮影方向を算出する標定要素算出手段と、
前記撮影位置及び前記撮影方向、並びに前記基盤正射投影画像に基づいて、前記動画構成画像に含まれる車両の平面位置を求める平面位置算出手段と、を備え、
前記基盤正射投影画像は、道路を含む地表面の正射投影画像であって、座標が付与されている、
ことを特徴とする車両位置取得システム。
A vehicle position acquisition system for acquiring the position of a vehicle traveling on a road from a video,
An orientation element calculating unit that calculates a shooting position and a shooting direction when the moving image configuration image is captured by extracting the moving image configuration image that configures the moving image and comparing the moving image configuration image with the base orthographic projection image When,
Plane position calculating means for obtaining a plane position of a vehicle included in the moving image constituting image based on the photographing position, the photographing direction, and the base orthographic projection image;
The base orthographic projection image is an orthographic projection image of a ground surface including a road, and coordinates are given thereto.
Vehicle position acquisition system characterized in that.
同一の車両に対して前記平面位置算出手段で求められる2時期の平面位置に基づいて、車両の走行ベクトルを求める走行ベクトル算出手段を、
さらに備えたことを特徴とする請求項1記載の車両位置取得システム。
Travel vector calculation means for obtaining a travel vector of a vehicle based on plane positions of two timings obtained by the plane position calculation means for the same vehicle;
The vehicle position acquisition system according to claim 1, further comprising:
複数の異なる車両から、特定の車両を選出する車両選出手段を、さらに備え、
前記車両選出手段は、前記走行ベクトル算出手段で求められた前記特定の車両の走行ベクトルに基づいて、該特定の車両を選出する、
ことを特徴とする請求項2記載の車両位置取得システム。
The vehicle further comprises vehicle selection means for selecting a specific vehicle from a plurality of different vehicles,
The vehicle selection means selects the specific vehicle based on the travel vector of the specific vehicle obtained by the travel vector calculation means.
The vehicle position acquisition system according to claim 2, characterized in that:
動画から、道路上を走行する車両の平面位置を取得する方法であって、
飛行体によって、車両を含む前記動画を撮影する動画撮影工程と、
前記動画を構成する動画構成画像を抽出するとともに、該動画構成画像と基盤正射投影画像を照らし合わせることで、該動画構成画像を撮影したときの撮影位置及び撮影方向を算出する標定要素算出工程と、
前記撮影位置及び前記撮影方向、並びに前記基盤正射投影画像に基づいて、前記動画構成画像に含まれる車両の平面位置を求める平面位置算出工程と、を備え、
前記基盤正射投影画像は、道路を含む地表面の正射投影画像であって、座標が付与されている、
ことを特徴とする車両位置取得方法。
A method of acquiring a plane position of a vehicle traveling on a road from a video,
A moving image capturing step of capturing the moving image including a vehicle by a flying object;
An orientation element calculation step of calculating a photographing position and a photographing direction when the moving image constituting image is photographed by extracting the moving image constituting image constituting the moving image and comparing the moving image constituting image with the base orthographic projection image When,
A plane position calculating step of obtaining a plane position of a vehicle included in the moving image constituting image based on the photographing position, the photographing direction, and the base orthographic projection image;
The base orthographic projection image is an orthographic projection image of a ground surface including a road, and coordinates are given thereto.
A vehicle position acquisition method characterized in that.
JP2017169164A 2017-09-04 2017-09-04 Vehicle position acquisition system and vehicle position acquisition method Active JP6930058B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017169164A JP6930058B2 (en) 2017-09-04 2017-09-04 Vehicle position acquisition system and vehicle position acquisition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017169164A JP6930058B2 (en) 2017-09-04 2017-09-04 Vehicle position acquisition system and vehicle position acquisition method

Publications (2)

Publication Number Publication Date
JP2019046209A true JP2019046209A (en) 2019-03-22
JP6930058B2 JP6930058B2 (en) 2021-09-01

Family

ID=65814416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017169164A Active JP6930058B2 (en) 2017-09-04 2017-09-04 Vehicle position acquisition system and vehicle position acquisition method

Country Status (1)

Country Link
JP (1) JP6930058B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000181346A (en) * 1998-12-15 2000-06-30 Fujitsu Ltd Video-map cooperation system
JP2008191988A (en) * 2007-02-06 2008-08-21 Denso Corp Vehicle surrounding monitoring device
JP2010014450A (en) * 2008-07-01 2010-01-21 Topcon Corp Position measurement method, position measurement device, and program
JP2012137933A (en) * 2010-12-27 2012-07-19 Kokusai Kogyo Co Ltd Position specifying method of planimetric features to be photographed, program thereof, display map, photographic position acquiring method, program thereof and photographic position acquiring device
JP2014089078A (en) * 2012-10-29 2014-05-15 Kokusai Kogyo Co Ltd Orientation method, orientation program, and orientation device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000181346A (en) * 1998-12-15 2000-06-30 Fujitsu Ltd Video-map cooperation system
JP2008191988A (en) * 2007-02-06 2008-08-21 Denso Corp Vehicle surrounding monitoring device
JP2010014450A (en) * 2008-07-01 2010-01-21 Topcon Corp Position measurement method, position measurement device, and program
JP2012137933A (en) * 2010-12-27 2012-07-19 Kokusai Kogyo Co Ltd Position specifying method of planimetric features to be photographed, program thereof, display map, photographic position acquiring method, program thereof and photographic position acquiring device
JP2014089078A (en) * 2012-10-29 2014-05-15 Kokusai Kogyo Co Ltd Orientation method, orientation program, and orientation device

Also Published As

Publication number Publication date
JP6930058B2 (en) 2021-09-01

Similar Documents

Publication Publication Date Title
US12131502B2 (en) Object pose estimation in visual data
CN106536299B (en) System and method based on test object abrupt deceleration vehicle
WO2018163898A1 (en) Free viewpoint movement display device
KR101947619B1 (en) Slam on a mobile device
CN112567201A (en) Distance measuring method and apparatus
JP6699761B2 (en) Information processing program, information processing method, and information processing apparatus
WO2019127518A1 (en) Obstacle avoidance method and device and movable platform
JP6616967B2 (en) Map creation apparatus and map creation method
EP3061092B1 (en) Motion tracking system
CN106887037B (en) indoor three-dimensional reconstruction method based on GPU and depth camera
JP2012118666A (en) Three-dimensional map automatic generation device
EP3803790B1 (en) Motion segmentation in video from non-stationary cameras
JP4446041B2 (en) Camera vector computing device, shake component detecting device, image stabilizing device, position and orientation stabilizing device, target object lock-on device, and live-action object attribute calling device provided in this camera vector computing device
JP4272966B2 (en) 3DCG synthesizer
JP5539250B2 (en) Approaching object detection device and approaching object detection method
JP5396585B2 (en) Feature identification method
CN115336250A (en) Photographing instruction method, photographing instruction device, and photographing device
JP2019533875A (en) Method and system for generating a composite top view image of a road
KR100574227B1 (en) Apparatus and method for separating object motion from camera motion
CN113196341A (en) Method for detecting and modeling objects on the surface of a road
JP2019046209A (en) Vehicle position acquisition system and vehicle position acquisition method
Kloeker et al. Comparison of Camera-Equipped Drones and Infrastructure Sensors for Creating Trajectory Datasets of Road Users.
KR102298047B1 (en) Method of recording digital contents and generating 3D images and apparatus using the same
JP3728508B2 (en) Image generating apparatus and method
JP2007292657A (en) Camera motion information acquiring apparatus, camera motion information acquiring method, and recording medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170905

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210719

R150 Certificate of patent or registration of utility model

Ref document number: 6930058

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250