JP2020035158A - Attitude estimation device and calibration system - Google Patents

Attitude estimation device and calibration system Download PDF

Info

Publication number
JP2020035158A
JP2020035158A JP2018160689A JP2018160689A JP2020035158A JP 2020035158 A JP2020035158 A JP 2020035158A JP 2018160689 A JP2018160689 A JP 2018160689A JP 2018160689 A JP2018160689 A JP 2018160689A JP 2020035158 A JP2020035158 A JP 2020035158A
Authority
JP
Japan
Prior art keywords
imaging camera
imaging
unit
estimating
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018160689A
Other languages
Japanese (ja)
Inventor
橋本 真也
Shinya Hashimoto
真也 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2018160689A priority Critical patent/JP2020035158A/en
Publication of JP2020035158A publication Critical patent/JP2020035158A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an attitude estimation device for estimating attitude information of an imaging camera from three-dimensional coordinate information using an SLAM technology.SOLUTION: According to the present invention, an attitude estimation device 100 includes: an imaging camera 110 for imaging a vehicle periphery; an SLAM processing unit 210 for converting image data from the imaging camera 110 into three-dimensional coordinate information; an attitude estimation unit 220 for estimating an attitude of the imaging camera on the basis of the three-dimensional coordinate information; and a calibration unit 230 for performing calibration of the imaging camera on the basis of an estimation result of the attitude estimation unit 220.SELECTED DRAWING: Figure 2

Description

本発明は、車両に取り付けられた撮像カメラのキャリブレーション(較正)に関し、特に、SLAM(Simultaneous Localization and Mapping)等の画像処理技術を用いた撮像カメラの姿勢の推定およびキャリブレーションに関する。   The present invention relates to calibration of an imaging camera mounted on a vehicle, and more particularly, to estimation and calibration of the orientation of an imaging camera using an image processing technique such as SLAM (Simultaneous Localization and Mapping).

近年、自動車などの車両に撮像カメラが取り付けられることが多くなっている。車載カメラは、車両内を撮像するカメラの他、車両の前方や後方、側方を撮像するカメラもある。車載カメラの撮像画像は、自車の前方画像、後方画像、側方画像、俯瞰画像等を提供するためにディスプレイに表示されたり、自車周辺の車両や障害物等を検出するために利用される。このように、車載カメラは、オプションとして取り付けられるという従来の立場から、車載装置に必須のものとしての認識が高まりつつある。   2. Description of the Related Art In recent years, an imaging camera is often attached to a vehicle such as an automobile. In-vehicle cameras include cameras that image the inside of a vehicle and cameras that image the front, rear, and sides of the vehicle. The image captured by the on-board camera is displayed on a display to provide a front image, a rear image, a side image, an overhead image, etc. of the own vehicle, and is used for detecting a vehicle, an obstacle, and the like around the own vehicle. You. As described above, the in-vehicle camera has been increasingly recognized as being indispensable to the in-vehicle apparatus from the conventional standpoint that it can be mounted as an option.

車載カメラの取り付けが一般化するに伴い、車載カメラの撮像画像の精度に対する要求も高まっている。車載カメラの誤差を較正する技術として、特許文献1には、車両に搭載されたカメラのキャリブレーション装置が開示されている。当該キャリブレーション装置は、複数枚の撮像画像から特徴点を抽出し、その特徴点の軌跡を解析することで、カメラの内部パラメータのキャリブレーションを行うことができる。   With the mounting of on-vehicle cameras becoming more common, there is a growing demand for the accuracy of images captured by on-vehicle cameras. As a technique for calibrating an error of an in-vehicle camera, Patent Literature 1 discloses a calibration device for a camera mounted on a vehicle. The calibration device can calibrate the internal parameters of the camera by extracting feature points from a plurality of captured images and analyzing the locus of the feature points.

また、自己位置を推定する手段として、SLAM技術が用いられている。SLAM技術は、自己位置推定と環境地図作成の同時実行であり、自立走行を行うロボットなどに対して用いられる技術である。自己位置を把握する方法としては、GPS技術が一般的であるが、屋内やトンネルなどの環境においては、その精度が落ちてしまう可能性がある。このような状況下でも、自己位置推定を行うことができるのがSLAM技術であり、特に、カメラの画像情報を用いて自己位置推定を行うものを、VISUAL SLAMと呼ぶ。特許文献2や特許文献3には、SLAM技術を用いて、走行制御を行ったり、カメラの姿勢を求めたりする技術が開示されている。   In addition, SLAM technology is used as a means for estimating the self-position. The SLAM technique is a technique that is performed simultaneously with self-position estimation and environment map creation, and is used for a robot or the like that performs independent traveling. As a method of grasping the self-position, the GPS technology is generally used, but in an environment such as an indoor space or a tunnel, the accuracy may be reduced. Even in such a situation, the SLAM technique can perform the self-position estimation. In particular, the one that performs the self-position estimation using the image information of the camera is referred to as a visual SLAM. Patent Literature 2 and Patent Literature 3 disclose technologies for performing traveling control and obtaining the attitude of a camera using the SLAM technology.

特開2017−139600号公報JP-A-2017-139600 特開2013−045298号公報JP 2013-045298 A 特開2014−032666号公報JP 2014-032666 A

従来の車載カメラのキャリブレーション方法を図8(A)、(B)に示す。例えば、車両1の前方に複数のキャリブレーション用のシート3、4、5が配置され、車両1に取付けられた車載カメラ2によりシート3、4、5上の複数のマーカーを撮像する。撮像された画像は、キャリブレーション装置に提供され、そこで車載カメラ2の姿勢を判定し、車載カメラ2あるいは撮像データのキャリブレーションを行う。   FIGS. 8A and 8B show a conventional on-vehicle camera calibration method. For example, a plurality of calibration sheets 3, 4, and 5 are arranged in front of the vehicle 1, and a plurality of markers on the sheets 3, 4, and 5 are imaged by a vehicle-mounted camera 2 attached to the vehicle 1. The captured image is provided to the calibration device, where the attitude of the in-vehicle camera 2 is determined, and the in-vehicle camera 2 or the image data is calibrated.

しかし、従来のキャリブレーション方法は、複数のシート3〜5を準備しなければならず、また、複数のシート3〜5を車両周辺に配置するための大きな空間を必要とし、さらには、シート3〜5を配置する路面6は平坦であることが望まれる。このため、従来のキャリブレーションは、平坦で広場所の確保が必要であり、かつキャリブレーションに要する時間も長くかかっていた。   However, the conventional calibration method requires preparing a plurality of seats 3 to 5, and requires a large space for arranging the plurality of seats 3 to 5 around the vehicle. It is desired that the road surface 6 on which to 5 are arranged is flat. For this reason, in the conventional calibration, it is necessary to secure a flat and wide area, and the time required for the calibration has been long.

本発明は、このような従来の課題を解決するものであり、効率良く撮像カメラの姿勢を推定し、かつキャリブレーションを行うことができる姿勢推定装置およびキャリブレーションシステムを提供することを目的とする。   An object of the present invention is to solve such a conventional problem, and an object of the present invention is to provide a posture estimation device and a calibration system that can efficiently estimate the posture of an imaging camera and perform calibration. .

本発明に係る姿勢推定装置は、移動体に取り付けられた撮像カメラと、前記撮像カメラにより撮像された撮像データを受け取り、当該撮像データを3次元座標情報に変換する変換手段と、前記3次元座標情報から路面情報を算出する第1の算出手段と、前記3次元座標情報から撮像カメラの移動情報を算出する第2の算出手段と、前記路面情報および前記移動情報に基づいて前記撮像カメラの姿勢を推定する推定手段とを有する。   A posture estimating apparatus according to the present invention includes: an imaging camera attached to a moving object; a conversion unit that receives imaging data captured by the imaging camera and converts the imaging data into three-dimensional coordinate information; First calculating means for calculating road surface information from the information, second calculating means for calculating movement information of the imaging camera from the three-dimensional coordinate information, and an attitude of the imaging camera based on the road surface information and the movement information Estimating means for estimating.

ある実施態様では、前記変換手段は、前記撮像カメラから受け取った複数のフレーム画像に基づき前記3次元座標情報を生成し、前記第2の算出手段は、前記3次元座標情報に含まれる点群を処理することにより路面情報を算出する。ある実施態様では、前記推定手段は、次の式(1)を計算することにより、前記撮像カメラの姿勢を推定する。ここで、Vx、Vy、Vzは、前記撮像カメラの移動ベクトル、a、b、cは、第1の算出手段で算出された路面の平面方程式の係数、Rは、前記撮像カメラの回転行列の逆行列である。

Figure 2020035158
In one embodiment, the conversion unit generates the three-dimensional coordinate information based on a plurality of frame images received from the imaging camera, and the second calculation unit calculates a point group included in the three-dimensional coordinate information. The road surface information is calculated by the processing. In one embodiment, the estimating unit estimates the attitude of the imaging camera by calculating the following equation (1). Here, Vx, Vy, and Vz are movement vectors of the imaging camera, a, b, and c are coefficients of a plane equation of a road surface calculated by the first calculation unit, and R is a rotation matrix of the imaging camera. Is the inverse matrix.
Figure 2020035158

ある実施態様では、姿勢推定装置はさらに、前記推定手段により推定された撮像カメラの姿勢に基づき撮像データを校正する校正手段を含む。ある実施態様では、前記撮像カメラは、複数の撮像カメラを含み、前記推定手段は、各々の撮像カメラの位置を推定し、前記構成手段は、複数の撮像カメラ間の撮像データを校正する。   In one embodiment, the posture estimating device further includes a calibrating means for calibrating the image data based on the posture of the imaging camera estimated by the estimating means. In one embodiment, the imaging camera includes a plurality of imaging cameras, the estimating unit estimates a position of each of the imaging cameras, and the configuration unit calibrates imaging data between the plurality of imaging cameras.

本発明に係るキャリブレーションシステムは、移動体に取り付けられた撮像カメラ、および撮像カメラによって撮像された撮像データを処理する処理手段を含む車載装置と、前記車載装置とは離間されたコンピュータ装置とを含み、前記コンピュータ装置は、前記撮像カメラにより撮像された撮像データを取得する取得手段と、前記取得手段により取得された撮像データを3次元座標情報に変換する変換手段と、前記3次元座標情報から路面情報を算出する第1の算出手段と、前記3次元座標情報から撮像カメラの移動情報を算出する第2の算出手段と、前記路面情報および前記移動情報に基づいて前記撮像カメラの姿勢を推定する推定手段と、前記推定手段により推定された撮像カメラの姿勢に基づき撮像データの校正を行う校正手段とを有する。   A calibration system according to the present invention includes an imaging camera attached to a moving body, an in-vehicle device including a processing unit that processes imaging data captured by the imaging camera, and a computer device that is separated from the in-vehicle device. An acquisition unit for acquiring image data captured by the imaging camera; a conversion unit configured to convert the image data acquired by the acquisition unit into three-dimensional coordinate information; First calculating means for calculating road surface information, second calculating means for calculating movement information of the imaging camera from the three-dimensional coordinate information, and estimating the attitude of the imaging camera based on the road surface information and the movement information Estimating means, and calibrating means for calibrating imaging data based on the attitude of the imaging camera estimated by the estimating means. To.

ある実施態様では、前記取得手段は、前記車載装置から有線または無線により撮像データを取得する。ある実施態様では、前記校正手段は、前記車載装置の前記処理手段を校正する。   In one embodiment, the acquisition unit acquires the imaging data from the in-vehicle device by wire or wirelessly. In one embodiment, the calibrating means calibrate the processing means of the on-vehicle device.

本発明によれば、撮像カメラにより撮像された撮像データの3次元座標情報用いて撮像カメラの姿勢を推定するようにしたので、従来のようにキャリブレーション用のシートや平坦で広い空間を必要とせずに、効率よく撮像カメラの姿勢の推定およびキャリブレーションを行うことができる。   According to the present invention, since the posture of the imaging camera is estimated using the three-dimensional coordinate information of the imaging data captured by the imaging camera, a calibration sheet or a flat and wide space is required as in the related art. Therefore, the posture and the calibration of the imaging camera can be efficiently performed.

本発明の実施例に係る姿勢推定装置の前提条件を説明する図である。It is a figure explaining the precondition of a posture estimating device concerning an example of the present invention. 本発明の実施例に係る姿勢推定装置の構成を示すブロック図である。It is a block diagram showing composition of a posture estimating device concerning an example of the present invention. 撮像カメラの撮像範囲の例示である。It is an illustration of an imaging range of an imaging camera. 本実施例に係る姿勢推定部の機能的な構成を示す図である。FIG. 3 is a diagram illustrating a functional configuration of a posture estimating unit according to the embodiment. SLAM処理による3次元座標情報への変換を説明する図である。It is a figure explaining conversion to three-dimensional coordinate information by SLAM processing. 本実施例に係る姿勢推定動作を示すフロー図である。It is a flowchart which shows the attitude | position estimation operation | movement which concerns on a present Example. 本発明の第1の変形例に係るキャリブレーションシステムを説明する図である。FIG. 7 is a diagram illustrating a calibration system according to a first modification of the present invention. 本発明の第2の変形例を説明する図である。It is a figure explaining the 2nd modification of the present invention. 従来のキャリブレーション方法を説明する図である。FIG. 9 is a diagram illustrating a conventional calibration method.

次に、本発明の実施の形態について、図面を参照して詳細に説明する。本発明のある実施態様では、姿勢推定装置は、移動体の周囲を撮像する撮像カメラと、撮像カメラからの撮像データを処理する機能を備えた移動体上に搭載される電子装置または車載装置とを含む。姿勢推定装置は、撮像カメラからの撮像データを取得し、SLAM技術を用いて、逐次的に車両周辺のシーン(風景)の3次元形状を復元し、加えてシーンに対する撮像カメラの姿勢を推定する。さらに姿勢推定装置は、推定された撮像カメラの姿勢に基づいて、撮像カメラまたは撮像データのキャリブレーションを行うことができる。キャリブレーションは、例えば、撮像カメラあるいは撮像データを処理する処理回路の内部パラメータ(例えば、撮像する範囲、撮像された画像のトリミング範囲、角度補正値など)を調整するものでも良いし、外部パラメータ(撮像カメラの取り付け位置、取り付け角度など)を調整するものでもよい。   Next, embodiments of the present invention will be described in detail with reference to the drawings. In one embodiment of the present invention, the posture estimating device includes an imaging camera that images the periphery of the moving object, and an electronic device or an in-vehicle device mounted on the moving object having a function of processing imaging data from the imaging camera. including. The posture estimating device acquires imaging data from an imaging camera, sequentially restores a three-dimensional shape of a scene (landscape) around the vehicle by using SLAM technology, and additionally estimates an attitude of the imaging camera with respect to the scene. . Further, the posture estimation device can calibrate the imaging camera or the imaging data based on the estimated posture of the imaging camera. The calibration may be, for example, adjustment of internal parameters (for example, an imaging range, a trimming range of a captured image, an angle correction value, etc.) of an imaging camera or a processing circuit for processing imaging data, or an external parameter ( The position of the imaging camera, the mounting angle, etc.) may be adjusted.

また、本発明の姿勢推定装置は、キャリブレーションを行う際に、一時的に車両に取り付けられるものであっても良いし、車両に搭載されているナビゲーション装置等の車載装置がその機能を実行するものであってもよい。車載装置は、撮像カメラによって撮像された撮像データに基づき車両の前方、側方、後方、俯瞰を表示する機能、撮像データに基づき周辺の障害物や他の車両を検出する機能などを備えることができる。さらに車載装置は、ナビゲーション機能、オーディオ・ビデオデータを再生する機能、テレビ・ラジオ放送を受信する機能、アプリケーションソフトウエアを実行する機能などが統合的に備えるものであってもよい。   Further, the posture estimation device of the present invention may be temporarily attached to a vehicle when performing calibration, or an in-vehicle device such as a navigation device mounted on the vehicle performs its function. It may be something. The in-vehicle device may have a function of displaying the front, side, rear, and bird's-eye views of the vehicle based on image data captured by the imaging camera, a function of detecting a nearby obstacle or another vehicle based on the image data, and the like. it can. Further, the in-vehicle device may be provided with a navigation function, a function of reproducing audio / video data, a function of receiving television / radio broadcasting, a function of executing application software, and the like.

さらに他の実施態様では、本発明の姿勢推定機能は、車両に搭載される車載装置とは別途、外部のコンピュータ装置によって実行されるようにしてもよい。撮像カメラによって撮像された撮像データは、有線または無線により外部のコンピュータ装置へ提供される。   In still another embodiment, the posture estimation function of the present invention may be executed by an external computer device separately from the on-vehicle device mounted on the vehicle. The imaging data captured by the imaging camera is provided to an external computer device by wire or wirelessly.

次に、本発明の実施例について説明する。図1は、本発明の実施例に係る姿勢推定装置の前提条件を説明する図である。同図において、車両Mは、路面(地面)R上に存在し、かつ路面Rを走行する。車両Mの前方には、撮像カメラ110が取付けられる。前提条件として、撮像カメラ110は、路面Rに対して平行に進むものとする。Vx、Vy、Vzは、車両Mが走行したときの車両Mまたは撮像カメラ110のX、Y、Z方向の移動ベクトルまたは速度を表し、a、b、cは、路面Rの法線ベクトルを表す。撮像カメラ110が路面Rに対して平行に進むことを前提とするため、路面(地面)Rの法線の単位ベクトルは、(a,b,c)=(0,0,1)、撮像カメラの移動ベクトルの単位ベクトルは、(Vx,Vy,Vz)=(0,1,0)である。なお、撮像カメラ110のXYZ座標は、実測値を入力する。   Next, examples of the present invention will be described. FIG. 1 is a diagram illustrating preconditions of a posture estimation device according to an embodiment of the present invention. In FIG. 1, a vehicle M exists on a road surface (ground) R and travels on the road surface R. An imaging camera 110 is mounted in front of the vehicle M. As a precondition, it is assumed that the imaging camera 110 advances parallel to the road surface R. Vx, Vy, and Vz represent the movement vectors or speeds of the vehicle M or the imaging camera 110 in the X, Y, and Z directions when the vehicle M travels, and a, b, and c represent the normal vectors of the road surface R. . Since it is assumed that the imaging camera 110 advances parallel to the road surface R, the unit vector of the normal to the road surface (ground) R is (a, b, c) = (0, 0, 1), and the imaging camera Is a unit vector of (Vx, Vy, Vz) = (0, 1, 0). As the XYZ coordinates of the imaging camera 110, an actual measurement value is input.

図2は、本発明の実施例に係る姿勢推定装置の概略構成を示すブロック図である。本実施例の姿勢推定装置100は、撮像カメラ110、入力部120、表示部130、音声出力部140、通信部150、記憶部160、制御部170を含んで構成される。この姿勢推定装置100の機能は、ナビゲーション機能等を実行する車載装置において実行されるものであってもよい。   FIG. 2 is a block diagram illustrating a schematic configuration of the posture estimation device according to the embodiment of the present invention. The posture estimation device 100 according to the present embodiment includes an imaging camera 110, an input unit 120, a display unit 130, an audio output unit 140, a communication unit 150, a storage unit 160, and a control unit 170. The function of the attitude estimation device 100 may be executed by an in-vehicle device that executes a navigation function or the like.

撮像カメラ110は、車両の周囲を撮像するカメラであり、ここでは、図1に示すように車両Mの前方に取付けられた例を示す。撮像カメラ110は、図2Aに示すように車両Mの前方に取り付けられ、光軸Cを中心として、左右方向に範囲θr、上下方向に範囲θhで周辺を撮像する。撮像カメラ110で撮像された撮像データは、逐次、制御部170に提供される。例えば、撮像カメラ110は、1秒間に30フレームの画像を撮像する。   The image capturing camera 110 is a camera that captures an image around the vehicle. Here, an example is shown in which the image capturing camera 110 is mounted in front of the vehicle M as shown in FIG. The imaging camera 110 is mounted in front of the vehicle M as shown in FIG. 2A, and captures an image of the periphery around the optical axis C in a range θr in the left-right direction and a range θh in the up-down direction. The imaging data captured by the imaging camera 110 is sequentially provided to the control unit 170. For example, the imaging camera 110 captures an image of 30 frames per second.

入力部120は、ユーザー等の外部からの指示を受け取り、これを制御部170へ提供する。例えば、ユーザーは、撮像カメラ110のXYZ座標の実測値を入力したり、姿勢推定の開始の指示などを入力することができる。表示部130は、撮像カメラ110で撮像された撮像データを表示したり、あるいは、後述する姿勢推定部176の推定結果などを表示することができる。音声出力部140は、例えば、姿勢推定部176の推定結果をなどを音声で出力することができる。通信部150は、無線または有線による通信手段を介して外部装置との通信を可能にする。   The input unit 120 receives an external instruction such as a user and provides the instruction to the control unit 170. For example, the user can input an actual measurement value of the XYZ coordinates of the imaging camera 110, input an instruction to start posture estimation, and the like. The display unit 130 can display image data captured by the image capturing camera 110, or display an estimation result of the posture estimating unit 176 described later, and the like. The audio output unit 140 can output, for example, the estimation result of the posture estimating unit 176 as audio. The communication unit 150 enables communication with an external device via wireless or wired communication means.

記憶部160は、例えば、撮像カメラ110からの撮像データ、制御部170が実行するためのプログラムやその他の必要なデータ等を記憶する。制御部170は、姿勢推定装置100の各部を制御する。制御部170は、撮像カメラ110からの撮像データを処理する画像処理部200、SLAM処理部210、姿勢推定部220、および校正部230を含んで構成される。これらの機能は、ソフトウエアおよび/またはハードウエアにより実行される。姿勢推定部220はさらに、図3に示すように移動ベクトル算出部222、路面算出部224および姿勢算出部226を含む。   The storage unit 160 stores, for example, imaging data from the imaging camera 110, a program to be executed by the control unit 170, other necessary data, and the like. The control unit 170 controls each unit of the posture estimation device 100. The control unit 170 includes an image processing unit 200 that processes image data from the imaging camera 110, a SLAM processing unit 210, a posture estimation unit 220, and a calibration unit 230. These functions are performed by software and / or hardware. The posture estimating unit 220 further includes a movement vector calculating unit 222, a road surface calculating unit 224, and a posture calculating unit 226, as shown in FIG.

画像処理部200は、撮像カメラ110から撮像データを受け取り、受け取った撮像データを処理する。画像処理部200は、例えば、車両の前方画像を表示部130に適切に表示するために撮像データを処理したり、あるいは、前方車両等を検出するために撮像データを処理する。画像処理部200は、撮像カメラの姿勢判定時ではなく、専ら撮像データを利用するときに動作される。   The image processing unit 200 receives image data from the image capturing camera 110 and processes the received image data. The image processing unit 200 processes, for example, image data to appropriately display an image ahead of the vehicle on the display unit 130, or processes image data to detect a vehicle ahead or the like. The image processing section 200 is operated not when determining the attitude of the imaging camera but exclusively when using imaging data.

SLAM処理部210は、撮像カメラ110の姿勢を判定するとき、単眼の撮像カメラ110から撮像データを受け取り、時間的に変化した複数の画像フレームに基づき車両前方の3次元空間のシーン(風景)を復元する。SLM処理部172によって処理されたデータは、3次元空間を復元する複数の点群の座標データを含む。   When determining the attitude of the imaging camera 110, the SLAM processing unit 210 receives imaging data from the monocular imaging camera 110, and converts a scene (landscape) in a three-dimensional space ahead of the vehicle based on a plurality of temporally changed image frames. Restore. The data processed by the SLM processing unit 172 includes coordinate data of a plurality of point groups for restoring a three-dimensional space.

図4は、SLAM処理部210による撮像データの3次元座標情報への変換を説明する図である。図4(A)は、撮像データの1フレーム画像の例示であり、路面Rや白線Wが写されている。このようなフレーム画像は、図4(B)に示すように、例えば、物体の輪郭を特徴点とする無数の点群情報に変換される。また、SLAM処理部210には、逐次、フレーム画像が入力されるため、その結果、3次元空間の点群情報が生成される。点群の1つ1つは、XYZの3次元空間における3次元座標情報を有している。   FIG. 4 is a diagram illustrating the conversion of the imaging data into three-dimensional coordinate information by the SLAM processing unit 210. FIG. 4A is an example of a one-frame image of the imaging data, in which a road surface R and a white line W are shown. As shown in FIG. 4B, such a frame image is converted, for example, into countless point group information having a contour of an object as a feature point. In addition, since the frame images are sequentially input to the SLAM processing unit 210, as a result, point group information in a three-dimensional space is generated. Each of the point groups has three-dimensional coordinate information in an XYZ three-dimensional space.

姿勢推定部220は、SLAM処理部210によって処理された3次元座標情報を受け取り、撮像カメラ110の姿勢を推定する。姿勢推定部220は、上記したように、移動ベクトル算出部222、路面算出部224および姿勢算出部226を含む。   The posture estimating unit 220 receives the three-dimensional coordinate information processed by the SLAM processing unit 210, and estimates the posture of the imaging camera 110. The posture estimating unit 220 includes the movement vector calculating unit 222, the road surface calculating unit 224, and the posture calculating unit 226, as described above.

移動ベクトル算出部222は、SLAM処理部210によって処理された3次元座標情報に基づき撮像カメラ110(または車両)の移動ベクトルを算出する。撮像カメラ110から提供される撮像データは、例えば、1秒間に30フレームであり、移動ベクトル算出部222は、図4(B)示すような点群情報の中から特徴点を抽出し、その特徴点の時間的な変化を捉えることによって、撮像カメラ110の単位時間当たりの移動量および移動方向を算出することができる。例えば、時刻T1時点の特徴点Pと、時刻T1から1秒経過後の時刻T2時点の特徴点Pとを比較すれば、撮像カメラ110が1秒間の間に、どの方向に、どれだけ移動したかを算出することができる。移動ベクトル算出部222によって算出された移動ベクトルは、図1で示したVx、Vy、Vzである。   The movement vector calculation unit 222 calculates a movement vector of the imaging camera 110 (or the vehicle) based on the three-dimensional coordinate information processed by the SLAM processing unit 210. The imaging data provided from the imaging camera 110 is, for example, 30 frames per second, and the movement vector calculation unit 222 extracts feature points from the point group information as shown in FIG. The amount of movement and the direction of movement of the imaging camera 110 per unit time can be calculated by capturing the temporal change of the point. For example, comparing the feature point P at the time T1 with the feature point P at the time T2 one second after the time T1 elapses, in which direction and how much the imaging camera 110 has moved during one second. Can be calculated. The movement vectors calculated by the movement vector calculation unit 222 are Vx, Vy, and Vz shown in FIG.

路面算出部224は、SLAM処理部210の処理結果である図4(B)に示す3次元の点群情報から、最も広い平面、すなわち路面を算出する。具体的には、路面算出部224は、3次元空間の点群情報に基づき、次の式(2)で規定される路面の平面方程式を算出する。a、b、cは、x、y、zの係数、dを定数である。
ax+by+cz+d=0 …(2)
The road surface calculation unit 224 calculates the widest plane, that is, the road surface, from the three-dimensional point group information shown in FIG. 4B, which is the processing result of the SLAM processing unit 210. Specifically, the road surface calculation unit 224 calculates a plane equation of the road surface defined by the following equation (2) based on the point cloud information in the three-dimensional space. a, b, and c are coefficients of x, y, and z, and d is a constant.
ax + by + cz + d = 0 (2)

姿勢算出部226は、移動ベクトル算出部222によって算出された移動ベクトルVx、Vy、Vzと、路面算出部224によって算出された路面の平面方程式の係数a、b、cを用いて、次の式(3)に従い撮像カメラ110の姿勢を算出する。   The posture calculation unit 226 uses the movement vectors Vx, Vy, and Vz calculated by the movement vector calculation unit 222 and the coefficients a, b, and c of the plane equation of the road surface calculated by the road surface calculation unit 224, using the following equation. According to (3), the attitude of the imaging camera 110 is calculated.

Figure 2020035158
Figure 2020035158

式(3)の要素rの行列は、撮像カメラ110の回転行列であり、Vx、Vy、Vz、a、b、cの行列は、カメラ座標系のベクトルであり、右辺の行列は、図1で説明した前提条件を反映する世界座標系のベクトルである。式(3)は、次の式(1)に変換される。   The matrix of the element r in the equation (3) is a rotation matrix of the imaging camera 110, the matrix of Vx, Vy, Vz, a, b, and c is a vector in the camera coordinate system, and the matrix on the right side is FIG. Is a vector in the world coordinate system that reflects the precondition described in. Equation (3) is converted to the following equation (1).

Figure 2020035158
Figure 2020035158

式(1)の要素Rの行列は、撮像カメラ110の回転行列の逆行列である。ここで、撮像カメラ110の回転行列について説明する。撮像カメラ110が設置されているXYZの3次元空間において、Z軸周りの回転角をrz、X軸周りの回転角をrx、Y軸周りの回転角をryとすると、撮像カメラ110の回転行列は、次の式(4)のように展開される。   The matrix of the element R in the equation (1) is an inverse matrix of the rotation matrix of the imaging camera 110. Here, the rotation matrix of the imaging camera 110 will be described. In an XYZ three-dimensional space in which the imaging camera 110 is installed, assuming that a rotation angle around the Z axis is rz, a rotation angle around the X axis is rx, and a rotation angle around the Y axis is ry, a rotation matrix of the imaging camera 110 Is expanded as in the following equation (4).

Figure 2020035158
Figure 2020035158

式(4)の右辺は、左からZ軸の回転行列、X軸の回転行列、Y軸の回転行列を示している。数(4)を逆行列に変換すると、掛け合わせる順番が逆になり、次の式(5)のように変形される。   The right side of Expression (4) indicates a rotation matrix of the Z axis, a rotation matrix of the X axis, and a rotation matrix of the Y axis from the left. When the equation (4) is converted into an inverse matrix, the order of multiplication is reversed, and the matrix is transformed as in the following equation (5).

Figure 2020035158
Figure 2020035158

回転行列の逆行列は、転置行列と同じになるので、式(5)は、次の式(6)に変換することができる。   Since the inverse of the rotation matrix is the same as the transposed matrix, equation (5) can be converted to the following equation (6).

Figure 2020035158
Figure 2020035158

式(6)の右辺を展開すると、式(7)になり、撮像カメラ110の回転行列の逆行列の各要素が算出される。   When the right side of Expression (6) is expanded, Expression (7) is obtained, and each element of the inverse matrix of the rotation matrix of the imaging camera 110 is calculated.

Figure 2020035158
Figure 2020035158

これにより、式(8)の関係が成り立つ。   Thereby, the relationship of Expression (8) holds.

Figure 2020035158
Figure 2020035158

式(8)に基づき、rx、ry、rzについて解くと、撮像カメラの姿勢を表す式(9)を得ることができる。   By solving for rx, ry, and rz based on Expression (8), Expression (9) representing the attitude of the imaging camera can be obtained.

Figure 2020035158
Figure 2020035158

a、b、c、Vyの値は、既知である。従って、最初にrxを求めれば、ry、rzを求めることができる。こうして、式(9)により、撮像カメラ110が、それぞれの軸に対してどの程度の角度で傾いているかを推定することができる。姿勢推定部220によって推定された撮像カメラ110の姿勢に関する情報は、較正部230に提供される。   The values of a, b, c, and Vy are known. Therefore, if rx is obtained first, ry and rz can be obtained. In this way, it is possible to estimate the angle at which the imaging camera 110 is tilted with respect to each axis by using Expression (9). Information about the posture of the imaging camera 110 estimated by the posture estimation unit 220 is provided to the calibration unit 230.

較正部230は、姿勢推定部220の推定結果に基づき、撮像カメラ110のキャリブレーションを行う。ある実施態様では、較正部230は、画像処理部220に設定される撮像カメラ110の内部パラメータを電子的に調整し、例えば、撮像データの位置補正、トリミング範囲、歪み補正などを調整するパラメータを最適化する。また、較正部230は、撮像データを表示部130に表示させながら、ユーザーにキャリブレーションの指示を与えるようにしてもよい。さらに、較正部230は、撮像カメラ110の位置情報(XYZ座標)の実測値が入力部120から入力されている場合、当該実測値を考慮したキャリブレーションを行うこともできる。   The calibration unit 230 performs calibration of the imaging camera 110 based on the estimation result of the posture estimation unit 220. In one embodiment, the calibration unit 230 electronically adjusts the internal parameters of the imaging camera 110 set in the image processing unit 220, and adjusts the parameters for adjusting, for example, the position correction, the trimming range, and the distortion correction of the imaging data. Optimize. Further, the calibration unit 230 may give a calibration instruction to the user while displaying the imaging data on the display unit 130. Further, when an actual measurement value of the position information (XYZ coordinates) of the imaging camera 110 is input from the input unit 120, the calibration unit 230 can perform calibration in consideration of the actual measurement value.

次に、本実施例の姿勢推定装置100の動作を図5のフローに示す。姿勢推定動作の開始は、特に限定されないが、例えば、入力部120からユーザーの指示があったとき等に開始される。先ず、車両を前方に走行させながら撮像カメラ110による撮像が開始される(S100)。次に、撮像カメラ110によって撮像された撮像データがSLAM処理部210に逐次供給され(S102)、SLAM処理部210は、撮像データを点群からなる3次元座標情報に変換する(S104)。次に、姿勢推定部220は、3次元座標情報に基づき撮像カメラの移動ベクトルを算出し(S106)、かつ平面(路面)を算出すし(S108)、上記した計算式により撮像カメラの姿勢(式(9))を算出する(S110)。次に、較正部230は、撮像カメラの推定された姿勢に基づき撮像カメラに関するキャリブレーションを行う(S112)。   Next, the operation of the posture estimation device 100 according to the present embodiment is shown in the flowchart of FIG. The start of the posture estimation operation is not particularly limited, but is started, for example, when a user's instruction is given from the input unit 120 or the like. First, the imaging by the imaging camera 110 is started while the vehicle is traveling forward (S100). Next, the image data captured by the image capturing camera 110 is sequentially supplied to the SLAM processing unit 210 (S102), and the SLAM processing unit 210 converts the image data into three-dimensional coordinate information composed of point clouds (S104). Next, the posture estimating unit 220 calculates a movement vector of the imaging camera based on the three-dimensional coordinate information (S106), calculates a plane (road surface) (S108), and calculates the posture (expression) of the imaging camera using the above-described calculation formula. (9)) is calculated (S110). Next, the calibration unit 230 performs calibration on the imaging camera based on the estimated posture of the imaging camera (S112).

このように本実施例によれば、撮像カメラ110によって撮像された撮像データから撮像カメラの姿勢を推定するようにしたので、従来のように、キャリブレーションシートを準備したり、そのための平坦な広い空間も不要となり、キャリブレーションに要する時間を短縮し、その作業効率を改善することができる。   As described above, according to the present embodiment, the posture of the imaging camera is estimated from the imaging data captured by the imaging camera 110, so that a calibration sheet is prepared or a flat wide No space is required, and the time required for calibration can be reduced, and the work efficiency can be improved.

次に、本発明の他の実施例について説明する。SLAM技術は、高度な演算能力を有するコンピュータ装置またはコンピュータ資源を必要とする。上記実施例では、車載装置がSLAM技術を実施する例を示したが、車載装置が高度な演算能力を備えていない場合がある。そこで、本実施例のキャリブレーションシステムは、外部のコンピュータ装置の資源を利用してSLAM技術を実施し、車載カメラのキャリブレーションを行う。   Next, another embodiment of the present invention will be described. SLAM technology requires a computing device or computer resource with a high degree of computing power. In the above-described embodiment, the example in which the in-vehicle device implements the SLAM technology has been described. Therefore, the calibration system according to the present embodiment executes the SLAM technology using the resources of the external computer device, and performs the calibration of the vehicle-mounted camera.

図6は、本実施例のキャリブレーションシステムを例示する図である。キャリブレーション装置300は、高度な演算能力を有するコンピュータ装置であり、キャリブレーション装置300は、図2に示したSLAM処理部210、姿勢推定部220および較正部230の機能を包含し、かつ車載装置との間で有線または無線によるデータ通信を行う機能を備えている。キャリブレーション装置300は、車載装置の通信部150を介して撮像カメラ110によって撮像された撮像データを受け取り、受け取った撮像データをSLAM処理し、撮像カメラの姿勢を推定し、その推定結果に応じたキャリブレーションのための制御信号を車載装置へ送信する。制御部170は、当該制御信号を受信すると、画像処理部200の撮像データに関する内部パラメータを電子的に調整する。   FIG. 6 is a diagram illustrating a calibration system according to the present embodiment. The calibration device 300 is a computer device having a high degree of arithmetic capability. The calibration device 300 includes the functions of the SLAM processing unit 210, the attitude estimation unit 220, and the calibration unit 230 shown in FIG. It has a function of performing wired or wireless data communication with the device. The calibration device 300 receives the imaging data captured by the imaging camera 110 via the communication unit 150 of the in-vehicle device, performs SLAM processing on the received imaging data, estimates the attitude of the imaging camera, and responds to the estimation result. A control signal for calibration is transmitted to the vehicle-mounted device. Upon receiving the control signal, the control unit 170 electronically adjusts internal parameters of the image processing unit 200 regarding the imaging data.

このように本実施例によれば、車載装置すなわち姿勢推定装置100の処理能力が低い場合には、外部のキャリブレーション装置によりSLAM等の画像処理や計算処理を高速に行うことができる。車載装置側では、推定された撮像カメラの姿勢に基づいたキャリブレーションのみを行えば良いことになる。   As described above, according to the present embodiment, when the processing capability of the in-vehicle device, that is, the posture estimation device 100, is low, image processing such as SLAM or calculation processing can be performed at high speed by an external calibration device. On the in-vehicle device side, only calibration based on the estimated attitude of the imaging camera need be performed.

次に、本発明の第1の変形例について説明する。上記実施例では、車両が直線的に走行した場合を想定して撮像カメラ110の姿勢を推定したが、本変形例では、車両がカーブしながら走行する場合であっても、撮像カメラ110の姿勢をより正確に算出する方法について説明する。   Next, a first modified example of the present invention will be described. In the above embodiment, the posture of the imaging camera 110 is estimated on the assumption that the vehicle travels linearly. However, in this modification, even when the vehicle travels while curving, the posture of the imaging camera 110 is A method for more accurately calculating will be described.

式(1)に基づき、カーブ走行を考慮した際の行列式は、次の式(10)のようになる。   Based on Equation (1), the determinant when considering the curve running is as shown in the following Equation (10).

Figure 2020035158
Figure 2020035158

ここで、Aの要素で表される行列は、撮像カメラ110の移動に係る回転行列であり、SLAM技術の出力データとして取得することができる。R’を要素とする行列は、Rを要素とする行列とAを要素とする行列の合成行列である。このような合成行列を用いれば、形式上は、式(1)と同じように計算することができるため、次の式(11)の関係が成り立つ。   Here, the matrix represented by the element of A is a rotation matrix related to the movement of the imaging camera 110, and can be acquired as output data of the SLAM technique. The matrix having R 'as an element is a composite matrix of a matrix having R as an element and a matrix having A as an element. If such a composite matrix is used, it can be formally calculated in the same manner as Expression (1), so that the following Expression (11) holds.

Figure 2020035158
Figure 2020035158

ここで、rx’、ry’、rz’は、式(9)のrx、ry、rzと形式的に同じ意味合いを持つが、R’の行列は、合成行列であるため、次の式(12)により、撮像カメラ110の姿勢の回転行列に戻す。   Here, rx ′, ry ′, and rz ′ have the same formal meaning as rx, ry, and rz in Equation (9). However, since the matrix of R ′ is a composite matrix, the following equation (12) is used. ) To return to the rotation matrix of the attitude of the imaging camera 110.

Figure 2020035158
Figure 2020035158

式(12)に基づき、式(11)を変換すると、式(13)が得られる。   When Expression (11) is converted based on Expression (12), Expression (13) is obtained.

Figure 2020035158
Figure 2020035158

このように第1の変形例によれば、車両が蛇行ないしカーブした走行をしても、式(13)に基づき撮像カメラ110の姿勢を算出することで、適切なキャリブレーションを行うことができる。   As described above, according to the first modified example, even when the vehicle is running meandering or curved, appropriate calibration can be performed by calculating the attitude of the imaging camera 110 based on Expression (13). .

次に、本発明の第2の変形例について説明する。上記実施例では、車載装置に1つの撮像カメラが搭載されている場合の撮像カメラの姿勢推定およびそのキャリブレーションを例示したが、第2の変形例は、車両に複数の撮像カメラが搭載されている場合のキャリブレーションに関する。   Next, a second modified example of the present invention will be described. In the above-described embodiment, the posture estimation and the calibration of the imaging camera when one imaging camera is mounted on the in-vehicle apparatus are illustrated. However, the second modified example includes a plurality of imaging cameras mounted on a vehicle. If so, about calibration.

図7(A)に示すように、車両Mには、フロントビューを撮像する撮像カメラ110A、レフトビューを撮像する撮像カメラ110B、リアビューを撮像する撮像カメラ110C、ライトビューを撮像する撮像カメラ110Dの4つの撮像カメラが搭載される。4つの撮像カメラ110A〜110Dによって撮像された撮像データは、画像処理部200に提供され、画像処理部200は、4つの撮像カメラ110A〜110Dからの撮像データを合成し、図7(C)に示すような車両Mを見下ろすような俯瞰画像Pa〜Pd(トップビュー画像)を生成し、これを表示部130に表示させることができる。   As shown in FIG. 7A, a vehicle M includes an imaging camera 110A for imaging a front view, an imaging camera 110B for imaging a left view, an imaging camera 110C for imaging a rear view, and an imaging camera 110D for imaging a right view. Four imaging cameras are mounted. The imaging data captured by the four imaging cameras 110A to 110D is provided to the image processing unit 200, and the image processing unit 200 combines the imaging data from the four imaging cameras 110A to 110D, and obtains the image shown in FIG. It is possible to generate overhead images Pa to Pd (top view images) that look down on the vehicle M as shown, and display them on the display unit 130.

一方、キャリブレーションを行うとき、各撮像カメラ110A〜110Dで撮像された撮像データは、上記実施例のときと同様に、SLAM処理部210へ供給され、姿勢推定部220は、各撮像カメラの姿勢を推定する。ある実施態様では、姿勢推定部220は、各撮像カメラに対応するSLAM処理された点群の座標情報を、図7(B)で示すようなICPアルゴリズムによって位置合わせを行い、撮像カメラ同士の相対位置を推定するようにしてもよい。撮像カメラの相対的な位置関係を調整することは、図7(C)で示すようなトップビュー画像を生成するときの各画像Pa、Pb、Pc、Pdの境界の不連続ままたはズレの発生を抑制する。   On the other hand, when performing calibration, the imaging data captured by each of the imaging cameras 110 </ b> A to 110 </ b> D is supplied to the SLAM processing unit 210, as in the above-described embodiment, and the attitude estimation unit 220 determines the orientation of each imaging camera. Is estimated. In one embodiment, the posture estimating unit 220 aligns the coordinate information of the point group subjected to the SLAM processing corresponding to each imaging camera by an ICP algorithm as shown in FIG. The position may be estimated. Adjusting the relative positional relationship of the imaging cameras is equivalent to the generation of discontinuity or deviation of the boundaries between the images Pa, Pb, Pc, and Pd when generating a top-view image as shown in FIG. Suppress.

なお、上記実施例では、制御部170がSLAM処理部210とは別個に姿勢推定部220および較正部230を備える例を示したが、これは一例であり、例えば、SLAM処理部210が姿勢推定部220および/または較正部230の機能を備えるものであってもよい。   In the above-described embodiment, an example has been described in which the control unit 170 includes the attitude estimation unit 220 and the calibration unit 230 separately from the SLAM processing unit 210. However, this is merely an example. It may have the function of the unit 220 and / or the calibration unit 230.

以上、本発明の好ましい実施の形態について詳述したが、本発明は、特定の実施形態に限定されるものではなく、特許請求の範囲に記載された発明の要旨の範囲において、種々の変形、変更が可能である。   As described above, the preferred embodiments of the present invention have been described in detail, but the present invention is not limited to the specific embodiments, and various modifications and changes can be made within the scope of the invention described in the claims. Changes are possible.

100:姿勢推定装置 110:撮像カメラ
120:入力部 130:表示部
140:音声出力部 150:通信部
160:記憶部 170:制御部
200:画像処理部 210:SLAM処理部
220:姿勢推定部 230:較正部
100: posture estimation device 110: imaging camera 120: input unit 130: display unit 140: audio output unit 150: communication unit 160: storage unit 170: control unit 200: image processing unit 210: SLAM processing unit 220: posture estimation unit 230 : Calibration unit

Claims (9)

移動体に取り付けられた撮像カメラと、
前記撮像カメラにより撮像された撮像データを受け取り、当該撮像データを3次元座標情報に変換する変換手段と、
前記3次元座標情報から路面情報を算出する第1の算出手段と、
前記3次元座標情報から撮像カメラの移動情報を算出する第2の算出手段と、
前記路面情報および前記移動情報に基づいて前記撮像カメラの姿勢を推定する推定手段と、
を有する姿勢推定装置。
An imaging camera attached to a moving object,
A conversion unit that receives imaging data captured by the imaging camera and converts the imaging data into three-dimensional coordinate information;
First calculating means for calculating road surface information from the three-dimensional coordinate information;
Second calculating means for calculating movement information of the imaging camera from the three-dimensional coordinate information;
Estimating means for estimating the attitude of the imaging camera based on the road surface information and the movement information,
A posture estimating device having:
前記変換手段は、前記撮像カメラから受け取った複数のフレーム画像に基づき前記3次元座標情報を生成し、
前記第2の算出手段は、前記3次元座標情報に含まれる点群を処理することにより路面情報を算出する、請求項1に記載の姿勢推定装置。
The conversion unit generates the three-dimensional coordinate information based on a plurality of frame images received from the imaging camera,
The posture estimating apparatus according to claim 1, wherein the second calculating means calculates road surface information by processing a point group included in the three-dimensional coordinate information.
前記推定手段は、次の式(1)を計算することにより、前記撮像カメラの姿勢を推定する、請求項1に記載の姿勢推定装置。
ここで、Vx、Vy、Vzは、前記撮像カメラの移動ベクトル、a、b、cは、第1の算出手段で算出された路面の平面方程式の係数、Rは、前記撮像カメラの回転行列の逆行列である。
Figure 2020035158
The posture estimating apparatus according to claim 1, wherein the estimating unit estimates the posture of the imaging camera by calculating the following equation (1).
Here, Vx, Vy, and Vz are movement vectors of the imaging camera, a, b, and c are coefficients of a plane equation of a road surface calculated by the first calculation unit, and R is a rotation matrix of the imaging camera. Is the inverse matrix.
Figure 2020035158
姿勢推定装置はさらに、前記推定手段により推定された撮像カメラの姿勢に基づき撮像データを校正する校正手段を含む、請求項1ないし3いずれか1つに記載の姿勢推定装置。 The posture estimating device according to any one of claims 1 to 3, wherein the posture estimating device further includes a calibration unit configured to calibrate imaging data based on the posture of the imaging camera estimated by the estimating unit. 前記撮像カメラは、複数の撮像カメラを含み、前記推定手段は、各々の撮像カメラの位置を推定し、前記構成手段は、複数の撮像カメラ間の撮像データを校正する、請求項1ないし4いずれか1つに記載の姿勢推定装置。 5. The imaging camera according to claim 1, wherein the imaging camera includes a plurality of imaging cameras, the estimation unit estimates a position of each imaging camera, and the configuration unit calibrates imaging data between the plurality of imaging cameras. 6. A posture estimating apparatus according to any one of the preceding claims. 移動体に取り付けられた撮像カメラ、および撮像カメラによって撮像された撮像データを処理する処理手段を含む車載装置と、
前記車載装置とは離間されたコンピュータ装置とを含み、
前記コンピュータ装置は、
前記撮像カメラにより撮像された撮像データを取得する取得手段と、
前記取得手段により取得された撮像データを3次元座標情報に変換する変換手段と、
前記3次元座標情報から路面情報を算出する第1の算出手段と、
前記3次元座標情報から撮像カメラの移動情報を算出する第2の算出手段と、
前記路面情報および前記移動情報に基づいて前記撮像カメラの姿勢を推定する推定手段と、
前記推定手段により推定された撮像カメラの姿勢に基づき撮像データの校正を行う校正手段と、
を有するキャリブレーションシステム。
An imaging camera attached to a moving body, and an in-vehicle device including a processing unit that processes imaging data captured by the imaging camera;
The in-vehicle device and a computer device separated from each other,
The computer device includes:
An acquisition unit configured to acquire imaging data captured by the imaging camera;
Conversion means for converting the image data acquired by the acquisition means into three-dimensional coordinate information;
First calculating means for calculating road surface information from the three-dimensional coordinate information;
Second calculating means for calculating movement information of the imaging camera from the three-dimensional coordinate information;
Estimating means for estimating the attitude of the imaging camera based on the road surface information and the movement information,
Calibration means for calibrating the imaging data based on the attitude of the imaging camera estimated by the estimation means,
A calibration system having:
前記取得手段は、前記車載装置から有線または無線により撮像データを取得する、請求項6に記載のキャリブレーションシステム。 The calibration system according to claim 6, wherein the acquisition unit acquires the imaging data from the in-vehicle device by wire or wirelessly. 前記校正手段は、前記車載装置の前記処理手段を校正する、請求項6に記載のキャリブレーションシステム。 The calibration system according to claim 6, wherein the calibration unit calibrates the processing unit of the vehicle-mounted device. 前記推定手段は、次の式(1)を計算することにより、前記撮像カメラの姿勢を推定する、請求項1に記載のキャリブレーションシステム。
ここで、Vx、Vy、Vzは、前記撮像カメラの移動ベクトル、a、b、cは、第1の算出手段で算出された路面の平面方程式の係数、Rは、前記撮像カメラの回転行列の逆行列である。
Figure 2020035158
The calibration system according to claim 1, wherein the estimating unit estimates the attitude of the imaging camera by calculating the following equation (1).
Here, Vx, Vy, and Vz are movement vectors of the imaging camera, a, b, and c are coefficients of a plane equation of a road surface calculated by the first calculation unit, and R is a rotation matrix of the imaging camera. Is the inverse matrix.
Figure 2020035158
JP2018160689A 2018-08-29 2018-08-29 Attitude estimation device and calibration system Pending JP2020035158A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018160689A JP2020035158A (en) 2018-08-29 2018-08-29 Attitude estimation device and calibration system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018160689A JP2020035158A (en) 2018-08-29 2018-08-29 Attitude estimation device and calibration system

Publications (1)

Publication Number Publication Date
JP2020035158A true JP2020035158A (en) 2020-03-05

Family

ID=69668195

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018160689A Pending JP2020035158A (en) 2018-08-29 2018-08-29 Attitude estimation device and calibration system

Country Status (1)

Country Link
JP (1) JP2020035158A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3905113A1 (en) * 2020-04-27 2021-11-03 Fujitsu Limited Camera height calculation method and image processing apparatus
CN114615441A (en) * 2020-12-04 2022-06-10 株式会社日立制作所 Calibration device and calibration method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3905113A1 (en) * 2020-04-27 2021-11-03 Fujitsu Limited Camera height calculation method and image processing apparatus
US11580663B2 (en) 2020-04-27 2023-02-14 Fujitsu Limited Camera height calculation method and image processing apparatus
CN114615441A (en) * 2020-12-04 2022-06-10 株式会社日立制作所 Calibration device and calibration method

Similar Documents

Publication Publication Date Title
JP4814669B2 (en) 3D coordinate acquisition device
US10217281B2 (en) Apparatus for reconstructing 3D model and method for using the same
JP4193886B2 (en) Image display device
JP6310652B2 (en) Video display system, video composition device, and video composition method
JP5133783B2 (en) In-vehicle device
JP2019536170A (en) Virtually extended visual simultaneous localization and mapping system and method
JP5612915B2 (en) Moving body detection apparatus and moving body detection method
JP6471522B2 (en) Camera parameter adjustment device
JP6151535B2 (en) Parameter acquisition apparatus, parameter acquisition method and program
JP2010145389A (en) Method of correcting three-dimensional erroneous array of attitude angle sensor by using single image
CN114007054B (en) Method and device for correcting projection of vehicle-mounted screen picture
JP5959311B2 (en) Data deriving apparatus and data deriving method
JP2011064566A (en) Distance estimation apparatus
JP2003178309A (en) Moving amount estimating device
JP2006234703A (en) Image processing device, three-dimensional measuring device, and program for image processing device
KR20220113781A (en) How to measure the topography of your environment
JP2020035158A (en) Attitude estimation device and calibration system
KR20170057684A (en) Method for assistance parking vehicle using front camera
JP5588332B2 (en) Image processing apparatus for vehicle and image processing method for vehicle
CN111145267B (en) 360-degree panoramic view multi-camera calibration method based on IMU assistance
JP2013024712A (en) Method and system for calibrating multiple camera
JP2016017913A (en) Posture information preparation system, posture information preparation method, and posture information preparation program
US20220277480A1 (en) Position estimation device, vehicle, position estimation method and position estimation program
JP7196920B2 (en) Driving support device, driving support method, and program
WO2016157666A1 (en) Camera attitude estimating device, operation supporting device and camera attitude estimating method