JP2020035158A - Attitude estimation device and calibration system - Google Patents
Attitude estimation device and calibration system Download PDFInfo
- Publication number
- JP2020035158A JP2020035158A JP2018160689A JP2018160689A JP2020035158A JP 2020035158 A JP2020035158 A JP 2020035158A JP 2018160689 A JP2018160689 A JP 2018160689A JP 2018160689 A JP2018160689 A JP 2018160689A JP 2020035158 A JP2020035158 A JP 2020035158A
- Authority
- JP
- Japan
- Prior art keywords
- imaging camera
- imaging
- unit
- estimating
- posture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、車両に取り付けられた撮像カメラのキャリブレーション(較正)に関し、特に、SLAM(Simultaneous Localization and Mapping)等の画像処理技術を用いた撮像カメラの姿勢の推定およびキャリブレーションに関する。 The present invention relates to calibration of an imaging camera mounted on a vehicle, and more particularly, to estimation and calibration of the orientation of an imaging camera using an image processing technique such as SLAM (Simultaneous Localization and Mapping).
近年、自動車などの車両に撮像カメラが取り付けられることが多くなっている。車載カメラは、車両内を撮像するカメラの他、車両の前方や後方、側方を撮像するカメラもある。車載カメラの撮像画像は、自車の前方画像、後方画像、側方画像、俯瞰画像等を提供するためにディスプレイに表示されたり、自車周辺の車両や障害物等を検出するために利用される。このように、車載カメラは、オプションとして取り付けられるという従来の立場から、車載装置に必須のものとしての認識が高まりつつある。 2. Description of the Related Art In recent years, an imaging camera is often attached to a vehicle such as an automobile. In-vehicle cameras include cameras that image the inside of a vehicle and cameras that image the front, rear, and sides of the vehicle. The image captured by the on-board camera is displayed on a display to provide a front image, a rear image, a side image, an overhead image, etc. of the own vehicle, and is used for detecting a vehicle, an obstacle, and the like around the own vehicle. You. As described above, the in-vehicle camera has been increasingly recognized as being indispensable to the in-vehicle apparatus from the conventional standpoint that it can be mounted as an option.
車載カメラの取り付けが一般化するに伴い、車載カメラの撮像画像の精度に対する要求も高まっている。車載カメラの誤差を較正する技術として、特許文献1には、車両に搭載されたカメラのキャリブレーション装置が開示されている。当該キャリブレーション装置は、複数枚の撮像画像から特徴点を抽出し、その特徴点の軌跡を解析することで、カメラの内部パラメータのキャリブレーションを行うことができる。
With the mounting of on-vehicle cameras becoming more common, there is a growing demand for the accuracy of images captured by on-vehicle cameras. As a technique for calibrating an error of an in-vehicle camera,
また、自己位置を推定する手段として、SLAM技術が用いられている。SLAM技術は、自己位置推定と環境地図作成の同時実行であり、自立走行を行うロボットなどに対して用いられる技術である。自己位置を把握する方法としては、GPS技術が一般的であるが、屋内やトンネルなどの環境においては、その精度が落ちてしまう可能性がある。このような状況下でも、自己位置推定を行うことができるのがSLAM技術であり、特に、カメラの画像情報を用いて自己位置推定を行うものを、VISUAL SLAMと呼ぶ。特許文献2や特許文献3には、SLAM技術を用いて、走行制御を行ったり、カメラの姿勢を求めたりする技術が開示されている。
In addition, SLAM technology is used as a means for estimating the self-position. The SLAM technique is a technique that is performed simultaneously with self-position estimation and environment map creation, and is used for a robot or the like that performs independent traveling. As a method of grasping the self-position, the GPS technology is generally used, but in an environment such as an indoor space or a tunnel, the accuracy may be reduced. Even in such a situation, the SLAM technique can perform the self-position estimation. In particular, the one that performs the self-position estimation using the image information of the camera is referred to as a visual SLAM.
従来の車載カメラのキャリブレーション方法を図8(A)、(B)に示す。例えば、車両1の前方に複数のキャリブレーション用のシート3、4、5が配置され、車両1に取付けられた車載カメラ2によりシート3、4、5上の複数のマーカーを撮像する。撮像された画像は、キャリブレーション装置に提供され、そこで車載カメラ2の姿勢を判定し、車載カメラ2あるいは撮像データのキャリブレーションを行う。
FIGS. 8A and 8B show a conventional on-vehicle camera calibration method. For example, a plurality of
しかし、従来のキャリブレーション方法は、複数のシート3〜5を準備しなければならず、また、複数のシート3〜5を車両周辺に配置するための大きな空間を必要とし、さらには、シート3〜5を配置する路面6は平坦であることが望まれる。このため、従来のキャリブレーションは、平坦で広場所の確保が必要であり、かつキャリブレーションに要する時間も長くかかっていた。 However, the conventional calibration method requires preparing a plurality of seats 3 to 5, and requires a large space for arranging the plurality of seats 3 to 5 around the vehicle. It is desired that the road surface 6 on which to 5 are arranged is flat. For this reason, in the conventional calibration, it is necessary to secure a flat and wide area, and the time required for the calibration has been long.
本発明は、このような従来の課題を解決するものであり、効率良く撮像カメラの姿勢を推定し、かつキャリブレーションを行うことができる姿勢推定装置およびキャリブレーションシステムを提供することを目的とする。 An object of the present invention is to solve such a conventional problem, and an object of the present invention is to provide a posture estimation device and a calibration system that can efficiently estimate the posture of an imaging camera and perform calibration. .
本発明に係る姿勢推定装置は、移動体に取り付けられた撮像カメラと、前記撮像カメラにより撮像された撮像データを受け取り、当該撮像データを3次元座標情報に変換する変換手段と、前記3次元座標情報から路面情報を算出する第1の算出手段と、前記3次元座標情報から撮像カメラの移動情報を算出する第2の算出手段と、前記路面情報および前記移動情報に基づいて前記撮像カメラの姿勢を推定する推定手段とを有する。 A posture estimating apparatus according to the present invention includes: an imaging camera attached to a moving object; a conversion unit that receives imaging data captured by the imaging camera and converts the imaging data into three-dimensional coordinate information; First calculating means for calculating road surface information from the information, second calculating means for calculating movement information of the imaging camera from the three-dimensional coordinate information, and an attitude of the imaging camera based on the road surface information and the movement information Estimating means for estimating.
ある実施態様では、前記変換手段は、前記撮像カメラから受け取った複数のフレーム画像に基づき前記3次元座標情報を生成し、前記第2の算出手段は、前記3次元座標情報に含まれる点群を処理することにより路面情報を算出する。ある実施態様では、前記推定手段は、次の式(1)を計算することにより、前記撮像カメラの姿勢を推定する。ここで、Vx、Vy、Vzは、前記撮像カメラの移動ベクトル、a、b、cは、第1の算出手段で算出された路面の平面方程式の係数、Rは、前記撮像カメラの回転行列の逆行列である。
ある実施態様では、姿勢推定装置はさらに、前記推定手段により推定された撮像カメラの姿勢に基づき撮像データを校正する校正手段を含む。ある実施態様では、前記撮像カメラは、複数の撮像カメラを含み、前記推定手段は、各々の撮像カメラの位置を推定し、前記構成手段は、複数の撮像カメラ間の撮像データを校正する。 In one embodiment, the posture estimating device further includes a calibrating means for calibrating the image data based on the posture of the imaging camera estimated by the estimating means. In one embodiment, the imaging camera includes a plurality of imaging cameras, the estimating unit estimates a position of each of the imaging cameras, and the configuration unit calibrates imaging data between the plurality of imaging cameras.
本発明に係るキャリブレーションシステムは、移動体に取り付けられた撮像カメラ、および撮像カメラによって撮像された撮像データを処理する処理手段を含む車載装置と、前記車載装置とは離間されたコンピュータ装置とを含み、前記コンピュータ装置は、前記撮像カメラにより撮像された撮像データを取得する取得手段と、前記取得手段により取得された撮像データを3次元座標情報に変換する変換手段と、前記3次元座標情報から路面情報を算出する第1の算出手段と、前記3次元座標情報から撮像カメラの移動情報を算出する第2の算出手段と、前記路面情報および前記移動情報に基づいて前記撮像カメラの姿勢を推定する推定手段と、前記推定手段により推定された撮像カメラの姿勢に基づき撮像データの校正を行う校正手段とを有する。 A calibration system according to the present invention includes an imaging camera attached to a moving body, an in-vehicle device including a processing unit that processes imaging data captured by the imaging camera, and a computer device that is separated from the in-vehicle device. An acquisition unit for acquiring image data captured by the imaging camera; a conversion unit configured to convert the image data acquired by the acquisition unit into three-dimensional coordinate information; First calculating means for calculating road surface information, second calculating means for calculating movement information of the imaging camera from the three-dimensional coordinate information, and estimating the attitude of the imaging camera based on the road surface information and the movement information Estimating means, and calibrating means for calibrating imaging data based on the attitude of the imaging camera estimated by the estimating means. To.
ある実施態様では、前記取得手段は、前記車載装置から有線または無線により撮像データを取得する。ある実施態様では、前記校正手段は、前記車載装置の前記処理手段を校正する。 In one embodiment, the acquisition unit acquires the imaging data from the in-vehicle device by wire or wirelessly. In one embodiment, the calibrating means calibrate the processing means of the on-vehicle device.
本発明によれば、撮像カメラにより撮像された撮像データの3次元座標情報用いて撮像カメラの姿勢を推定するようにしたので、従来のようにキャリブレーション用のシートや平坦で広い空間を必要とせずに、効率よく撮像カメラの姿勢の推定およびキャリブレーションを行うことができる。 According to the present invention, since the posture of the imaging camera is estimated using the three-dimensional coordinate information of the imaging data captured by the imaging camera, a calibration sheet or a flat and wide space is required as in the related art. Therefore, the posture and the calibration of the imaging camera can be efficiently performed.
次に、本発明の実施の形態について、図面を参照して詳細に説明する。本発明のある実施態様では、姿勢推定装置は、移動体の周囲を撮像する撮像カメラと、撮像カメラからの撮像データを処理する機能を備えた移動体上に搭載される電子装置または車載装置とを含む。姿勢推定装置は、撮像カメラからの撮像データを取得し、SLAM技術を用いて、逐次的に車両周辺のシーン(風景)の3次元形状を復元し、加えてシーンに対する撮像カメラの姿勢を推定する。さらに姿勢推定装置は、推定された撮像カメラの姿勢に基づいて、撮像カメラまたは撮像データのキャリブレーションを行うことができる。キャリブレーションは、例えば、撮像カメラあるいは撮像データを処理する処理回路の内部パラメータ(例えば、撮像する範囲、撮像された画像のトリミング範囲、角度補正値など)を調整するものでも良いし、外部パラメータ(撮像カメラの取り付け位置、取り付け角度など)を調整するものでもよい。 Next, embodiments of the present invention will be described in detail with reference to the drawings. In one embodiment of the present invention, the posture estimating device includes an imaging camera that images the periphery of the moving object, and an electronic device or an in-vehicle device mounted on the moving object having a function of processing imaging data from the imaging camera. including. The posture estimating device acquires imaging data from an imaging camera, sequentially restores a three-dimensional shape of a scene (landscape) around the vehicle by using SLAM technology, and additionally estimates an attitude of the imaging camera with respect to the scene. . Further, the posture estimation device can calibrate the imaging camera or the imaging data based on the estimated posture of the imaging camera. The calibration may be, for example, adjustment of internal parameters (for example, an imaging range, a trimming range of a captured image, an angle correction value, etc.) of an imaging camera or a processing circuit for processing imaging data, or an external parameter ( The position of the imaging camera, the mounting angle, etc.) may be adjusted.
また、本発明の姿勢推定装置は、キャリブレーションを行う際に、一時的に車両に取り付けられるものであっても良いし、車両に搭載されているナビゲーション装置等の車載装置がその機能を実行するものであってもよい。車載装置は、撮像カメラによって撮像された撮像データに基づき車両の前方、側方、後方、俯瞰を表示する機能、撮像データに基づき周辺の障害物や他の車両を検出する機能などを備えることができる。さらに車載装置は、ナビゲーション機能、オーディオ・ビデオデータを再生する機能、テレビ・ラジオ放送を受信する機能、アプリケーションソフトウエアを実行する機能などが統合的に備えるものであってもよい。 Further, the posture estimation device of the present invention may be temporarily attached to a vehicle when performing calibration, or an in-vehicle device such as a navigation device mounted on the vehicle performs its function. It may be something. The in-vehicle device may have a function of displaying the front, side, rear, and bird's-eye views of the vehicle based on image data captured by the imaging camera, a function of detecting a nearby obstacle or another vehicle based on the image data, and the like. it can. Further, the in-vehicle device may be provided with a navigation function, a function of reproducing audio / video data, a function of receiving television / radio broadcasting, a function of executing application software, and the like.
さらに他の実施態様では、本発明の姿勢推定機能は、車両に搭載される車載装置とは別途、外部のコンピュータ装置によって実行されるようにしてもよい。撮像カメラによって撮像された撮像データは、有線または無線により外部のコンピュータ装置へ提供される。 In still another embodiment, the posture estimation function of the present invention may be executed by an external computer device separately from the on-vehicle device mounted on the vehicle. The imaging data captured by the imaging camera is provided to an external computer device by wire or wirelessly.
次に、本発明の実施例について説明する。図1は、本発明の実施例に係る姿勢推定装置の前提条件を説明する図である。同図において、車両Mは、路面(地面)R上に存在し、かつ路面Rを走行する。車両Mの前方には、撮像カメラ110が取付けられる。前提条件として、撮像カメラ110は、路面Rに対して平行に進むものとする。Vx、Vy、Vzは、車両Mが走行したときの車両Mまたは撮像カメラ110のX、Y、Z方向の移動ベクトルまたは速度を表し、a、b、cは、路面Rの法線ベクトルを表す。撮像カメラ110が路面Rに対して平行に進むことを前提とするため、路面(地面)Rの法線の単位ベクトルは、(a,b,c)=(0,0,1)、撮像カメラの移動ベクトルの単位ベクトルは、(Vx,Vy,Vz)=(0,1,0)である。なお、撮像カメラ110のXYZ座標は、実測値を入力する。
Next, examples of the present invention will be described. FIG. 1 is a diagram illustrating preconditions of a posture estimation device according to an embodiment of the present invention. In FIG. 1, a vehicle M exists on a road surface (ground) R and travels on the road surface R. An
図2は、本発明の実施例に係る姿勢推定装置の概略構成を示すブロック図である。本実施例の姿勢推定装置100は、撮像カメラ110、入力部120、表示部130、音声出力部140、通信部150、記憶部160、制御部170を含んで構成される。この姿勢推定装置100の機能は、ナビゲーション機能等を実行する車載装置において実行されるものであってもよい。
FIG. 2 is a block diagram illustrating a schematic configuration of the posture estimation device according to the embodiment of the present invention. The posture estimation device 100 according to the present embodiment includes an
撮像カメラ110は、車両の周囲を撮像するカメラであり、ここでは、図1に示すように車両Mの前方に取付けられた例を示す。撮像カメラ110は、図2Aに示すように車両Mの前方に取り付けられ、光軸Cを中心として、左右方向に範囲θr、上下方向に範囲θhで周辺を撮像する。撮像カメラ110で撮像された撮像データは、逐次、制御部170に提供される。例えば、撮像カメラ110は、1秒間に30フレームの画像を撮像する。
The
入力部120は、ユーザー等の外部からの指示を受け取り、これを制御部170へ提供する。例えば、ユーザーは、撮像カメラ110のXYZ座標の実測値を入力したり、姿勢推定の開始の指示などを入力することができる。表示部130は、撮像カメラ110で撮像された撮像データを表示したり、あるいは、後述する姿勢推定部176の推定結果などを表示することができる。音声出力部140は、例えば、姿勢推定部176の推定結果をなどを音声で出力することができる。通信部150は、無線または有線による通信手段を介して外部装置との通信を可能にする。
The
記憶部160は、例えば、撮像カメラ110からの撮像データ、制御部170が実行するためのプログラムやその他の必要なデータ等を記憶する。制御部170は、姿勢推定装置100の各部を制御する。制御部170は、撮像カメラ110からの撮像データを処理する画像処理部200、SLAM処理部210、姿勢推定部220、および校正部230を含んで構成される。これらの機能は、ソフトウエアおよび/またはハードウエアにより実行される。姿勢推定部220はさらに、図3に示すように移動ベクトル算出部222、路面算出部224および姿勢算出部226を含む。
The
画像処理部200は、撮像カメラ110から撮像データを受け取り、受け取った撮像データを処理する。画像処理部200は、例えば、車両の前方画像を表示部130に適切に表示するために撮像データを処理したり、あるいは、前方車両等を検出するために撮像データを処理する。画像処理部200は、撮像カメラの姿勢判定時ではなく、専ら撮像データを利用するときに動作される。
The
SLAM処理部210は、撮像カメラ110の姿勢を判定するとき、単眼の撮像カメラ110から撮像データを受け取り、時間的に変化した複数の画像フレームに基づき車両前方の3次元空間のシーン(風景)を復元する。SLM処理部172によって処理されたデータは、3次元空間を復元する複数の点群の座標データを含む。
When determining the attitude of the
図4は、SLAM処理部210による撮像データの3次元座標情報への変換を説明する図である。図4(A)は、撮像データの1フレーム画像の例示であり、路面Rや白線Wが写されている。このようなフレーム画像は、図4(B)に示すように、例えば、物体の輪郭を特徴点とする無数の点群情報に変換される。また、SLAM処理部210には、逐次、フレーム画像が入力されるため、その結果、3次元空間の点群情報が生成される。点群の1つ1つは、XYZの3次元空間における3次元座標情報を有している。
FIG. 4 is a diagram illustrating the conversion of the imaging data into three-dimensional coordinate information by the
姿勢推定部220は、SLAM処理部210によって処理された3次元座標情報を受け取り、撮像カメラ110の姿勢を推定する。姿勢推定部220は、上記したように、移動ベクトル算出部222、路面算出部224および姿勢算出部226を含む。
The posture estimating unit 220 receives the three-dimensional coordinate information processed by the
移動ベクトル算出部222は、SLAM処理部210によって処理された3次元座標情報に基づき撮像カメラ110(または車両)の移動ベクトルを算出する。撮像カメラ110から提供される撮像データは、例えば、1秒間に30フレームであり、移動ベクトル算出部222は、図4(B)示すような点群情報の中から特徴点を抽出し、その特徴点の時間的な変化を捉えることによって、撮像カメラ110の単位時間当たりの移動量および移動方向を算出することができる。例えば、時刻T1時点の特徴点Pと、時刻T1から1秒経過後の時刻T2時点の特徴点Pとを比較すれば、撮像カメラ110が1秒間の間に、どの方向に、どれだけ移動したかを算出することができる。移動ベクトル算出部222によって算出された移動ベクトルは、図1で示したVx、Vy、Vzである。
The movement vector calculation unit 222 calculates a movement vector of the imaging camera 110 (or the vehicle) based on the three-dimensional coordinate information processed by the
路面算出部224は、SLAM処理部210の処理結果である図4(B)に示す3次元の点群情報から、最も広い平面、すなわち路面を算出する。具体的には、路面算出部224は、3次元空間の点群情報に基づき、次の式(2)で規定される路面の平面方程式を算出する。a、b、cは、x、y、zの係数、dを定数である。
ax+by+cz+d=0 …(2)
The road
ax + by + cz + d = 0 (2)
姿勢算出部226は、移動ベクトル算出部222によって算出された移動ベクトルVx、Vy、Vzと、路面算出部224によって算出された路面の平面方程式の係数a、b、cを用いて、次の式(3)に従い撮像カメラ110の姿勢を算出する。
The
式(3)の要素rの行列は、撮像カメラ110の回転行列であり、Vx、Vy、Vz、a、b、cの行列は、カメラ座標系のベクトルであり、右辺の行列は、図1で説明した前提条件を反映する世界座標系のベクトルである。式(3)は、次の式(1)に変換される。
The matrix of the element r in the equation (3) is a rotation matrix of the
式(1)の要素Rの行列は、撮像カメラ110の回転行列の逆行列である。ここで、撮像カメラ110の回転行列について説明する。撮像カメラ110が設置されているXYZの3次元空間において、Z軸周りの回転角をrz、X軸周りの回転角をrx、Y軸周りの回転角をryとすると、撮像カメラ110の回転行列は、次の式(4)のように展開される。
The matrix of the element R in the equation (1) is an inverse matrix of the rotation matrix of the
式(4)の右辺は、左からZ軸の回転行列、X軸の回転行列、Y軸の回転行列を示している。数(4)を逆行列に変換すると、掛け合わせる順番が逆になり、次の式(5)のように変形される。 The right side of Expression (4) indicates a rotation matrix of the Z axis, a rotation matrix of the X axis, and a rotation matrix of the Y axis from the left. When the equation (4) is converted into an inverse matrix, the order of multiplication is reversed, and the matrix is transformed as in the following equation (5).
回転行列の逆行列は、転置行列と同じになるので、式(5)は、次の式(6)に変換することができる。 Since the inverse of the rotation matrix is the same as the transposed matrix, equation (5) can be converted to the following equation (6).
式(6)の右辺を展開すると、式(7)になり、撮像カメラ110の回転行列の逆行列の各要素が算出される。
When the right side of Expression (6) is expanded, Expression (7) is obtained, and each element of the inverse matrix of the rotation matrix of the
これにより、式(8)の関係が成り立つ。 Thereby, the relationship of Expression (8) holds.
式(8)に基づき、rx、ry、rzについて解くと、撮像カメラの姿勢を表す式(9)を得ることができる。 By solving for rx, ry, and rz based on Expression (8), Expression (9) representing the attitude of the imaging camera can be obtained.
a、b、c、Vyの値は、既知である。従って、最初にrxを求めれば、ry、rzを求めることができる。こうして、式(9)により、撮像カメラ110が、それぞれの軸に対してどの程度の角度で傾いているかを推定することができる。姿勢推定部220によって推定された撮像カメラ110の姿勢に関する情報は、較正部230に提供される。
The values of a, b, c, and Vy are known. Therefore, if rx is obtained first, ry and rz can be obtained. In this way, it is possible to estimate the angle at which the
較正部230は、姿勢推定部220の推定結果に基づき、撮像カメラ110のキャリブレーションを行う。ある実施態様では、較正部230は、画像処理部220に設定される撮像カメラ110の内部パラメータを電子的に調整し、例えば、撮像データの位置補正、トリミング範囲、歪み補正などを調整するパラメータを最適化する。また、較正部230は、撮像データを表示部130に表示させながら、ユーザーにキャリブレーションの指示を与えるようにしてもよい。さらに、較正部230は、撮像カメラ110の位置情報(XYZ座標)の実測値が入力部120から入力されている場合、当該実測値を考慮したキャリブレーションを行うこともできる。
The
次に、本実施例の姿勢推定装置100の動作を図5のフローに示す。姿勢推定動作の開始は、特に限定されないが、例えば、入力部120からユーザーの指示があったとき等に開始される。先ず、車両を前方に走行させながら撮像カメラ110による撮像が開始される(S100)。次に、撮像カメラ110によって撮像された撮像データがSLAM処理部210に逐次供給され(S102)、SLAM処理部210は、撮像データを点群からなる3次元座標情報に変換する(S104)。次に、姿勢推定部220は、3次元座標情報に基づき撮像カメラの移動ベクトルを算出し(S106)、かつ平面(路面)を算出すし(S108)、上記した計算式により撮像カメラの姿勢(式(9))を算出する(S110)。次に、較正部230は、撮像カメラの推定された姿勢に基づき撮像カメラに関するキャリブレーションを行う(S112)。
Next, the operation of the posture estimation device 100 according to the present embodiment is shown in the flowchart of FIG. The start of the posture estimation operation is not particularly limited, but is started, for example, when a user's instruction is given from the
このように本実施例によれば、撮像カメラ110によって撮像された撮像データから撮像カメラの姿勢を推定するようにしたので、従来のように、キャリブレーションシートを準備したり、そのための平坦な広い空間も不要となり、キャリブレーションに要する時間を短縮し、その作業効率を改善することができる。
As described above, according to the present embodiment, the posture of the imaging camera is estimated from the imaging data captured by the
次に、本発明の他の実施例について説明する。SLAM技術は、高度な演算能力を有するコンピュータ装置またはコンピュータ資源を必要とする。上記実施例では、車載装置がSLAM技術を実施する例を示したが、車載装置が高度な演算能力を備えていない場合がある。そこで、本実施例のキャリブレーションシステムは、外部のコンピュータ装置の資源を利用してSLAM技術を実施し、車載カメラのキャリブレーションを行う。 Next, another embodiment of the present invention will be described. SLAM technology requires a computing device or computer resource with a high degree of computing power. In the above-described embodiment, the example in which the in-vehicle device implements the SLAM technology has been described. Therefore, the calibration system according to the present embodiment executes the SLAM technology using the resources of the external computer device, and performs the calibration of the vehicle-mounted camera.
図6は、本実施例のキャリブレーションシステムを例示する図である。キャリブレーション装置300は、高度な演算能力を有するコンピュータ装置であり、キャリブレーション装置300は、図2に示したSLAM処理部210、姿勢推定部220および較正部230の機能を包含し、かつ車載装置との間で有線または無線によるデータ通信を行う機能を備えている。キャリブレーション装置300は、車載装置の通信部150を介して撮像カメラ110によって撮像された撮像データを受け取り、受け取った撮像データをSLAM処理し、撮像カメラの姿勢を推定し、その推定結果に応じたキャリブレーションのための制御信号を車載装置へ送信する。制御部170は、当該制御信号を受信すると、画像処理部200の撮像データに関する内部パラメータを電子的に調整する。
FIG. 6 is a diagram illustrating a calibration system according to the present embodiment. The
このように本実施例によれば、車載装置すなわち姿勢推定装置100の処理能力が低い場合には、外部のキャリブレーション装置によりSLAM等の画像処理や計算処理を高速に行うことができる。車載装置側では、推定された撮像カメラの姿勢に基づいたキャリブレーションのみを行えば良いことになる。 As described above, according to the present embodiment, when the processing capability of the in-vehicle device, that is, the posture estimation device 100, is low, image processing such as SLAM or calculation processing can be performed at high speed by an external calibration device. On the in-vehicle device side, only calibration based on the estimated attitude of the imaging camera need be performed.
次に、本発明の第1の変形例について説明する。上記実施例では、車両が直線的に走行した場合を想定して撮像カメラ110の姿勢を推定したが、本変形例では、車両がカーブしながら走行する場合であっても、撮像カメラ110の姿勢をより正確に算出する方法について説明する。
Next, a first modified example of the present invention will be described. In the above embodiment, the posture of the
式(1)に基づき、カーブ走行を考慮した際の行列式は、次の式(10)のようになる。 Based on Equation (1), the determinant when considering the curve running is as shown in the following Equation (10).
ここで、Aの要素で表される行列は、撮像カメラ110の移動に係る回転行列であり、SLAM技術の出力データとして取得することができる。R’を要素とする行列は、Rを要素とする行列とAを要素とする行列の合成行列である。このような合成行列を用いれば、形式上は、式(1)と同じように計算することができるため、次の式(11)の関係が成り立つ。
Here, the matrix represented by the element of A is a rotation matrix related to the movement of the
ここで、rx’、ry’、rz’は、式(9)のrx、ry、rzと形式的に同じ意味合いを持つが、R’の行列は、合成行列であるため、次の式(12)により、撮像カメラ110の姿勢の回転行列に戻す。
Here, rx ′, ry ′, and rz ′ have the same formal meaning as rx, ry, and rz in Equation (9). However, since the matrix of R ′ is a composite matrix, the following equation (12) is used. ) To return to the rotation matrix of the attitude of the
式(12)に基づき、式(11)を変換すると、式(13)が得られる。 When Expression (11) is converted based on Expression (12), Expression (13) is obtained.
このように第1の変形例によれば、車両が蛇行ないしカーブした走行をしても、式(13)に基づき撮像カメラ110の姿勢を算出することで、適切なキャリブレーションを行うことができる。
As described above, according to the first modified example, even when the vehicle is running meandering or curved, appropriate calibration can be performed by calculating the attitude of the
次に、本発明の第2の変形例について説明する。上記実施例では、車載装置に1つの撮像カメラが搭載されている場合の撮像カメラの姿勢推定およびそのキャリブレーションを例示したが、第2の変形例は、車両に複数の撮像カメラが搭載されている場合のキャリブレーションに関する。 Next, a second modified example of the present invention will be described. In the above-described embodiment, the posture estimation and the calibration of the imaging camera when one imaging camera is mounted on the in-vehicle apparatus are illustrated. However, the second modified example includes a plurality of imaging cameras mounted on a vehicle. If so, about calibration.
図7(A)に示すように、車両Mには、フロントビューを撮像する撮像カメラ110A、レフトビューを撮像する撮像カメラ110B、リアビューを撮像する撮像カメラ110C、ライトビューを撮像する撮像カメラ110Dの4つの撮像カメラが搭載される。4つの撮像カメラ110A〜110Dによって撮像された撮像データは、画像処理部200に提供され、画像処理部200は、4つの撮像カメラ110A〜110Dからの撮像データを合成し、図7(C)に示すような車両Mを見下ろすような俯瞰画像Pa〜Pd(トップビュー画像)を生成し、これを表示部130に表示させることができる。
As shown in FIG. 7A, a vehicle M includes an
一方、キャリブレーションを行うとき、各撮像カメラ110A〜110Dで撮像された撮像データは、上記実施例のときと同様に、SLAM処理部210へ供給され、姿勢推定部220は、各撮像カメラの姿勢を推定する。ある実施態様では、姿勢推定部220は、各撮像カメラに対応するSLAM処理された点群の座標情報を、図7(B)で示すようなICPアルゴリズムによって位置合わせを行い、撮像カメラ同士の相対位置を推定するようにしてもよい。撮像カメラの相対的な位置関係を調整することは、図7(C)で示すようなトップビュー画像を生成するときの各画像Pa、Pb、Pc、Pdの境界の不連続ままたはズレの発生を抑制する。
On the other hand, when performing calibration, the imaging data captured by each of the
なお、上記実施例では、制御部170がSLAM処理部210とは別個に姿勢推定部220および較正部230を備える例を示したが、これは一例であり、例えば、SLAM処理部210が姿勢推定部220および/または較正部230の機能を備えるものであってもよい。
In the above-described embodiment, an example has been described in which the control unit 170 includes the attitude estimation unit 220 and the
以上、本発明の好ましい実施の形態について詳述したが、本発明は、特定の実施形態に限定されるものではなく、特許請求の範囲に記載された発明の要旨の範囲において、種々の変形、変更が可能である。 As described above, the preferred embodiments of the present invention have been described in detail, but the present invention is not limited to the specific embodiments, and various modifications and changes can be made within the scope of the invention described in the claims. Changes are possible.
100:姿勢推定装置 110:撮像カメラ
120:入力部 130:表示部
140:音声出力部 150:通信部
160:記憶部 170:制御部
200:画像処理部 210:SLAM処理部
220:姿勢推定部 230:較正部
100: posture estimation device 110: imaging camera 120: input unit 130: display unit 140: audio output unit 150: communication unit 160: storage unit 170: control unit 200: image processing unit 210: SLAM processing unit 220: posture estimation unit 230 : Calibration unit
Claims (9)
前記撮像カメラにより撮像された撮像データを受け取り、当該撮像データを3次元座標情報に変換する変換手段と、
前記3次元座標情報から路面情報を算出する第1の算出手段と、
前記3次元座標情報から撮像カメラの移動情報を算出する第2の算出手段と、
前記路面情報および前記移動情報に基づいて前記撮像カメラの姿勢を推定する推定手段と、
を有する姿勢推定装置。 An imaging camera attached to a moving object,
A conversion unit that receives imaging data captured by the imaging camera and converts the imaging data into three-dimensional coordinate information;
First calculating means for calculating road surface information from the three-dimensional coordinate information;
Second calculating means for calculating movement information of the imaging camera from the three-dimensional coordinate information;
Estimating means for estimating the attitude of the imaging camera based on the road surface information and the movement information,
A posture estimating device having:
前記第2の算出手段は、前記3次元座標情報に含まれる点群を処理することにより路面情報を算出する、請求項1に記載の姿勢推定装置。 The conversion unit generates the three-dimensional coordinate information based on a plurality of frame images received from the imaging camera,
The posture estimating apparatus according to claim 1, wherein the second calculating means calculates road surface information by processing a point group included in the three-dimensional coordinate information.
ここで、Vx、Vy、Vzは、前記撮像カメラの移動ベクトル、a、b、cは、第1の算出手段で算出された路面の平面方程式の係数、Rは、前記撮像カメラの回転行列の逆行列である。
Here, Vx, Vy, and Vz are movement vectors of the imaging camera, a, b, and c are coefficients of a plane equation of a road surface calculated by the first calculation unit, and R is a rotation matrix of the imaging camera. Is the inverse matrix.
前記車載装置とは離間されたコンピュータ装置とを含み、
前記コンピュータ装置は、
前記撮像カメラにより撮像された撮像データを取得する取得手段と、
前記取得手段により取得された撮像データを3次元座標情報に変換する変換手段と、
前記3次元座標情報から路面情報を算出する第1の算出手段と、
前記3次元座標情報から撮像カメラの移動情報を算出する第2の算出手段と、
前記路面情報および前記移動情報に基づいて前記撮像カメラの姿勢を推定する推定手段と、
前記推定手段により推定された撮像カメラの姿勢に基づき撮像データの校正を行う校正手段と、
を有するキャリブレーションシステム。 An imaging camera attached to a moving body, and an in-vehicle device including a processing unit that processes imaging data captured by the imaging camera;
The in-vehicle device and a computer device separated from each other,
The computer device includes:
An acquisition unit configured to acquire imaging data captured by the imaging camera;
Conversion means for converting the image data acquired by the acquisition means into three-dimensional coordinate information;
First calculating means for calculating road surface information from the three-dimensional coordinate information;
Second calculating means for calculating movement information of the imaging camera from the three-dimensional coordinate information;
Estimating means for estimating the attitude of the imaging camera based on the road surface information and the movement information,
Calibration means for calibrating the imaging data based on the attitude of the imaging camera estimated by the estimation means,
A calibration system having:
ここで、Vx、Vy、Vzは、前記撮像カメラの移動ベクトル、a、b、cは、第1の算出手段で算出された路面の平面方程式の係数、Rは、前記撮像カメラの回転行列の逆行列である。
Here, Vx, Vy, and Vz are movement vectors of the imaging camera, a, b, and c are coefficients of a plane equation of a road surface calculated by the first calculation unit, and R is a rotation matrix of the imaging camera. Is the inverse matrix.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018160689A JP2020035158A (en) | 2018-08-29 | 2018-08-29 | Attitude estimation device and calibration system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018160689A JP2020035158A (en) | 2018-08-29 | 2018-08-29 | Attitude estimation device and calibration system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020035158A true JP2020035158A (en) | 2020-03-05 |
Family
ID=69668195
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018160689A Pending JP2020035158A (en) | 2018-08-29 | 2018-08-29 | Attitude estimation device and calibration system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020035158A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3905113A1 (en) * | 2020-04-27 | 2021-11-03 | Fujitsu Limited | Camera height calculation method and image processing apparatus |
CN114615441A (en) * | 2020-12-04 | 2022-06-10 | 株式会社日立制作所 | Calibration device and calibration method |
-
2018
- 2018-08-29 JP JP2018160689A patent/JP2020035158A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3905113A1 (en) * | 2020-04-27 | 2021-11-03 | Fujitsu Limited | Camera height calculation method and image processing apparatus |
US11580663B2 (en) | 2020-04-27 | 2023-02-14 | Fujitsu Limited | Camera height calculation method and image processing apparatus |
CN114615441A (en) * | 2020-12-04 | 2022-06-10 | 株式会社日立制作所 | Calibration device and calibration method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4814669B2 (en) | 3D coordinate acquisition device | |
US10217281B2 (en) | Apparatus for reconstructing 3D model and method for using the same | |
JP4193886B2 (en) | Image display device | |
JP6310652B2 (en) | Video display system, video composition device, and video composition method | |
JP5133783B2 (en) | In-vehicle device | |
JP2019536170A (en) | Virtually extended visual simultaneous localization and mapping system and method | |
JP5612915B2 (en) | Moving body detection apparatus and moving body detection method | |
JP6471522B2 (en) | Camera parameter adjustment device | |
JP6151535B2 (en) | Parameter acquisition apparatus, parameter acquisition method and program | |
JP2010145389A (en) | Method of correcting three-dimensional erroneous array of attitude angle sensor by using single image | |
CN114007054B (en) | Method and device for correcting projection of vehicle-mounted screen picture | |
JP5959311B2 (en) | Data deriving apparatus and data deriving method | |
JP2011064566A (en) | Distance estimation apparatus | |
JP2003178309A (en) | Moving amount estimating device | |
JP2006234703A (en) | Image processing device, three-dimensional measuring device, and program for image processing device | |
KR20220113781A (en) | How to measure the topography of your environment | |
JP2020035158A (en) | Attitude estimation device and calibration system | |
KR20170057684A (en) | Method for assistance parking vehicle using front camera | |
JP5588332B2 (en) | Image processing apparatus for vehicle and image processing method for vehicle | |
CN111145267B (en) | 360-degree panoramic view multi-camera calibration method based on IMU assistance | |
JP2013024712A (en) | Method and system for calibrating multiple camera | |
JP2016017913A (en) | Posture information preparation system, posture information preparation method, and posture information preparation program | |
US20220277480A1 (en) | Position estimation device, vehicle, position estimation method and position estimation program | |
JP7196920B2 (en) | Driving support device, driving support method, and program | |
WO2016157666A1 (en) | Camera attitude estimating device, operation supporting device and camera attitude estimating method |