JP6880822B2 - Equipment, mobile equipment and methods - Google Patents

Equipment, mobile equipment and methods Download PDF

Info

Publication number
JP6880822B2
JP6880822B2 JP2017034016A JP2017034016A JP6880822B2 JP 6880822 B2 JP6880822 B2 JP 6880822B2 JP 2017034016 A JP2017034016 A JP 2017034016A JP 2017034016 A JP2017034016 A JP 2017034016A JP 6880822 B2 JP6880822 B2 JP 6880822B2
Authority
JP
Japan
Prior art keywords
acquisition
information
feature points
dimensional
dimensional information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017034016A
Other languages
Japanese (ja)
Other versions
JP2018139084A (en
Inventor
康宏 梶原
康宏 梶原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2017034016A priority Critical patent/JP6880822B2/en
Publication of JP2018139084A publication Critical patent/JP2018139084A/en
Application granted granted Critical
Publication of JP6880822B2 publication Critical patent/JP6880822B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、装置、移動体装置及び方法に関する。 The present invention relates to devices, mobile devices and methods.

従来、移動体の周囲の3次元情報を取得し、移動体の周囲の環境地図の生成や、移動体の位置、姿勢、速度等の移動体に関する情報の計測を行う装置が知られている(例えば特許文献1参照)。 Conventionally, there are known devices that acquire three-dimensional information around a moving body, generate an environmental map around the moving body, and measure information about the moving body such as the position, posture, and speed of the moving body (). For example, see Patent Document 1).

しかしながら、特許文献1に開示されている装置では、移動体の周囲の環境地図の生成や移動体に関する情報の計測を安定して精度良く行うことに関して改善の余地があった。 However, in the apparatus disclosed in Patent Document 1, there is room for improvement in generating an environmental map around the moving body and measuring information about the moving body in a stable and accurate manner.

本発明は、移動体に搭載される装置であって、前記移動体の周囲の3次元情報を取得する第1の取得手段と、前記第1の取得手段が3次元情報を取得する領域である第1の取得領域の少なくとも一部の3次元情報を取得する第2の取得手段と、前記第1の取得手段で取得された、前記第1の取得領域の3次元情報における特徴点を立体物の特徴点と非立体物の特徴点に分類し、その分類結果に基づいて、前記第2の取得手段が前記第1の取得領域において3次元情報を取得する領域である第2の取得領域を制御する制御手段と、前記第1の取得手段で取得された、前記第1の取得領域の3次元情報と、前記第2の取得手段で取得された、前記第2の取得領域の3次元情報とに基づいて、前記移動体の周囲の環境地図の生成及び前記移動体に関する情報の計測の少なくとも一方を行う手段と、を備え、前記制御手段は、前記非立体物の特徴点を相対的に多く含む領域を前記第2の取得領域とすることを特徴とする装置である。
The present invention is a device mounted on a moving body, and is a first acquisition means for acquiring three-dimensional information around the moving body and an area in which the first acquisition means acquires three-dimensional information. steric and second acquisition means for acquiring at least a portion of the 3-dimensional information of the first acquisition region, acquired by the first acquisition unit, a feature point definitive three-dimensional information of the first acquisition area A second acquisition area, which is an area in which the second acquisition means acquires three-dimensional information in the first acquisition area, is classified into a feature point of an object and a feature point of a non-three-dimensional object, and based on the classification result. The control means for controlling the above, the three-dimensional information of the first acquisition area acquired by the first acquisition means, and the three-dimensional information of the second acquisition area acquired by the second acquisition means. The control means includes means for generating an environmental map around the moving body and measuring information about the moving body based on the information, and the controlling means relative to the feature points of the non-three-dimensional object. It is an apparatus characterized in that a region containing a large amount of the above is the second acquisition region.

本発明によれば、移動体の周囲の環境地図の生成や移動体に関する情報の計測を安定して精度良く行うことができる。 According to the present invention, it is possible to generate an environmental map around a moving body and measure information about the moving body in a stable and accurate manner.

図1(a)及び図1(b)は、それぞれ本発明の一実施形態の移動体装置の外観を概略的に示す図である。1 (a) and 1 (b) are diagrams schematically showing the appearance of the mobile device according to the embodiment of the present invention, respectively. 図1のステレオカメラの撮影範囲と初期姿勢にある単眼カメラの撮影範囲を示す図である。It is a figure which shows the shooting range of the stereo camera of FIG. 1 and the shooting range of the monocular camera in the initial posture. 図1の地図生成・位置計測装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the map generation / position measuring apparatus of FIG. 地図生成・位置計測処理について説明するためのフローチャートである。It is a flowchart for demonstrating map generation and position measurement processing. 特徴点抽出処理1について説明するためのフローチャートである。It is a flowchart for demonstrating the feature point extraction process 1. 特徴点抽出処理2について説明するためのフローチャートである。It is a flowchart for demonstrating the feature point extraction process 2. 特徴点対応付け処理について説明するためのフローチャートである。It is a flowchart for demonstrating the feature point association processing. 基準カメラの座標系から単眼カメラの座標系への座標変換について説明するための図である。It is a figure for demonstrating the coordinate transformation from the coordinate system of a reference camera to the coordinate system of a monocular camera. 地図生成・位置計測装置により立体物が検出された領域を示す図である。It is a figure which shows the area where a three-dimensional object was detected by a map generation / position measuring apparatus. 地図生成・位置計測装置により抽出された特徴点を示す図である。It is a figure which shows the feature point extracted by the map generation / position measuring apparatus. 地図生成・位置計測装置により抽出された特徴点を立体物特徴点と非立体物特徴点に区別して示す図である。It is a figure which shows the feature point extracted by the map generation / position measuring apparatus separately into a three-dimensional object feature point and a non-three-dimensional object feature point. 特徴点分類処理を説明するためのフローチャートである。It is a flowchart for demonstrating the feature point classification process. 位置推定処理について説明するためのフローチャートである。It is a flowchart for demonstrating the position estimation process. 環境地図生成処理について説明するためのフローチャートである。It is a flowchart for demonstrating the environment map generation process. カメラ姿勢制御処理について説明するためのフローチャートである。It is a flowchart for demonstrating the camera attitude control processing. カメラ姿勢制御処理後の単眼カメラの撮影範囲を示す図である。It is a figure which shows the shooting range of a monocular camera after a camera attitude control process. 図17(a)及び図17(b)は、それぞれ変形例1の移動体装置の外観を概略的に示す図である。17 (a) and 17 (b) are diagrams schematically showing the appearance of the mobile device of the first modification, respectively. 変形例1のライダの投光範囲と初期姿勢にある単眼カメラの撮影範囲を示す図である。It is a figure which shows the light projection range of the lidar of the modification 1 and the photographing range of a monocular camera in an initial posture. 変形例1のライダの投光範囲と姿勢変更後の単眼カメラの撮影範囲を示す図である。It is a figure which shows the light projection range of the lidar of the modification 1 and the photographing range of a monocular camera after changing the posture. 変形例1のライダ(走査型)の投光系及び受光系の構成を説明するための図である。It is a figure for demonstrating the structure of the light emitting system and the light receiving system of the lidar (scanning type) of the modification 1. 変形例1のライダ(非走査型)の投光系及び受光系の構成と、光源又は受光素子と検出領域の関係を説明するための図である。It is a figure for demonstrating the structure of the light emitting system and the light receiving system of the lidar (non-scanning type) of the modification 1 and the relationship between a light source or a light receiving element, and a detection area. 変形例2のライダの投光範囲(初期状態)と単眼カメラの撮影範囲を示す図である。It is a figure which shows the light projection range (initial state) of the lidar of the modification 2 and the photographing range of a monocular camera. 変形例2のライダの投光範囲(変更後)と単眼カメラの撮影範囲を示す図である。It is a figure which shows the light projection range (after change) of the lidar of the modification 2 and the photographing range of a monocular camera. 変形例3のライダの投光範囲(初期状態)とステレオカメラの撮影範囲を示す図である。It is a figure which shows the light projection range (initial state) of the lidar of the modification 3 and the shooting range of a stereo camera. 変形例3のライダの投光範囲(変更後)とステレオカメラの撮影範囲を示す図である。It is a figure which shows the light projection range (after change) of the lidar of the modification 3 and the shooting range of a stereo camera. ステレオカメラとライダが一体的に構成される例について説明するための図である。It is a figure for demonstrating an example in which a stereo camera and a rider are integrally formed.

以下、本発明の一実施形態について図面を参照して説明する。図1(a)には、一実施形態の移動体装置1の側面図が模式的に示されている。図1(b)には、移動体装置1の正面図が概略的に示されている。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1A schematically shows a side view of the mobile device 1 of the embodiment. FIG. 1B schematically shows a front view of the mobile device 1.

《装置構成》
移動体装置1は、図1に示されるように、移動体としての車両10と、該車両10に搭載される、本発明の装置の一例としての地図生成・位置計測装置100とを備えている。車両10は、自動車である。
"Device configuration"
As shown in FIG. 1, the mobile device 1 includes a vehicle 10 as a mobile body and a map generation / position measuring device 100 as an example of the device of the present invention mounted on the vehicle 10. .. The vehicle 10 is an automobile.

地図生成・位置計測装置100は、自己位置すなわち車両10の位置を計測するとともに車両10周辺の環境地図を生成する装置であり、ステレオカメラ200及び単眼カメラ300を含んで構成される。 The map generation / position measuring device 100 is a device that measures its own position, that is, the position of the vehicle 10, and generates an environmental map around the vehicle 10, and includes a stereo camera 200 and a monocular camera 300.

ステレオカメラ200及び単眼カメラ300は、車両10のバックミラー近傍に設けられている。 The stereo camera 200 and the monocular camera 300 are provided in the vicinity of the rear-view mirror of the vehicle 10.

詳述すると、ステレオカメラ200及び単眼カメラ300は、上下に離間するように同一の支持部材を介して車両10の天井に吊り下げ支持されている。 More specifically, the stereo camera 200 and the monocular camera 300 are suspended and supported on the ceiling of the vehicle 10 via the same support member so as to be vertically separated from each other.

ステレオカメラ200は、左側撮像部である撮像部200aと、右側撮像部である撮像部200bと、視差画像生成部200c(図3参照)とを有する。撮像部200a、200bは、イメージセンサ(CMOSやCCD)を含む。 The stereo camera 200 has an image pickup unit 200a which is a left side image pickup unit, an image pickup unit 200b which is a right side image pickup unit, and a parallax image generation unit 200c (see FIG. 3). The imaging units 200a and 200b include an image sensor (CMOS or CCD).

ステレオカメラ200は、図2に示されるように、撮影範囲(左眼画角(撮像部200aの画角)と右眼画角(撮像部200bの画角)を併せた範囲)が車両10前方となるように上記支持部材に固定されている。 As shown in FIG. 2, the stereo camera 200 has a shooting range (a range in which the left-eye angle of view (the angle of view of the imaging unit 200a) and the right-eye angle of view (the angle of view of the imaging unit 200b) are combined) is in front of the vehicle 10. It is fixed to the support member so as to be.

視差画像生成部200cは、撮像部200a、200bで撮影した画像(輝度画像)に対して平行ステレオ法を用いて視差画像を生成する。 The parallax image generation unit 200c generates a parallax image by using the parallel stereo method with respect to the images (luminance images) captured by the imaging units 200a and 200b.

単眼カメラ300は、姿勢変更可能に設けられた撮像部300aと、該撮像部300aの姿勢を制御するカメラ姿勢制御部300b(図3参照)と、撮像部300aの姿勢を計測するカメラ姿勢計測部300c(図3参照)とを有する。なお、図2において、撮像部300aは、撮影範囲がステレオカメラ200の撮影範囲と略一致する初期姿勢にある。ここでは、撮像部300aは、ステレオカメラ200の撮影範囲に対して画角が同程度のものが用いられているが、画角が大きいものや小さいものを用いても良い。 The monocular camera 300 includes an image pickup unit 300a provided so that the posture can be changed, a camera posture control unit 300b (see FIG. 3) that controls the posture of the image pickup unit 300a, and a camera posture measurement unit that measures the posture of the image pickup unit 300a. It has 300c (see FIG. 3). In FIG. 2, the image pickup unit 300a is in the initial posture in which the shooting range substantially matches the shooting range of the stereo camera 200. Here, as the imaging unit 300a, one having an angle of view similar to that of the shooting range of the stereo camera 200 is used, but one having a large angle of view or one having a small angle of view may be used.

撮像部300aは、ステレオカメラ200の撮影範囲を含む所定範囲内で撮影範囲が変更可能となるようにパン方向(垂直軸周り)及びチルト方向(水平軸周り)に回転可能に(姿勢変更可能に)保持する保持機構を介して上記支持部材に取り付けられている。撮像部300aは、イメージセンサ(CMOSやCCD)を含む。 The imaging unit 300a can rotate in the pan direction (around the vertical axis) and the tilt direction (around the horizontal axis) so that the shooting range can be changed within a predetermined range including the shooting range of the stereo camera 200 (the posture can be changed). ) It is attached to the support member via a holding mechanism for holding. The image pickup unit 300a includes an image sensor (CMOS or CCD).

カメラ姿勢制御部300bは、上記保持機構を駆動して撮像部300aをパン方向及び/又はチルト方向に回転させる駆動部を有し、後述する記憶部530に格納されたカメラ姿勢情報530bを基に撮像部300aの姿勢制御を行う。上記駆動部は、パン方向回転用のステッピングモータ及びチルト方向回転用のステッピングモータを含む。 The camera posture control unit 300b has a drive unit that drives the holding mechanism to rotate the image pickup unit 300a in the pan direction and / or the tilt direction, and is based on the camera posture information 530b stored in the storage unit 530 described later. The posture of the imaging unit 300a is controlled. The drive unit includes a stepping motor for pan direction rotation and a stepping motor for tilt direction rotation.

カメラ姿勢計測部300cは、各ステッピングモータのステップ数(各ステッピングモータに印加される駆動パルスのパルス数)をカウントするカウンタを有し、撮像部300aのパン方向及びチルト方向の回転角(回転位置)すなわち撮像部300aの姿勢を計測する。 The camera attitude measuring unit 300c has a counter that counts the number of steps of each stepping motor (the number of drive pulses applied to each stepping motor), and the rotation angle (rotation position) of the imaging unit 300a in the pan direction and tilt direction. ) That is, the posture of the imaging unit 300a is measured.

なお、上記駆動部にステッピングモータに代えて、サーボモータを用いても良い。この場合、カメラ姿勢計測部は、サーボモータのエンコーダから、撮像部300aのパン方向及びチルト方向の回転角(回転位置)を得ることができる。 A servo motor may be used for the drive unit instead of the stepping motor. In this case, the camera posture measuring unit can obtain the rotation angle (rotation position) of the imaging unit 300a in the pan direction and the tilt direction from the encoder of the servomotor.

また、ステレオカメラ200と単眼カメラ300の位置関係は、図1の位置関係に限らず、要は、ステレオカメラ200の撮影範囲を含む所定範囲内で単眼カメラ300の撮影範囲が変更可能となる位置関係であれば良い。 Further, the positional relationship between the stereo camera 200 and the monocular camera 300 is not limited to the positional relationship shown in FIG. 1, and the point is that the shooting range of the monocular camera 300 can be changed within a predetermined range including the shooting range of the stereo camera 200. Any relationship is fine.

地図生成・位置計測装置100は、ステレオカメラ200及び単眼カメラ300に加えて、制御装置500を備えている。制御装置500は、例えばCPUやFPGAによって実現される。 The map generation / position measuring device 100 includes a control device 500 in addition to the stereo camera 200 and the monocular camera 300. The control device 500 is realized by, for example, a CPU or an FPGA.

制御装置500は、ステレオカメラ200から出力された輝度画像及び視差画像と、単眼カメラ300から出力された輝度画像とから画像中の特徴点を抽出する画像処理部510と、該画像処理部510が抽出した特徴点を基に車両10の位置を計測するとともに車両10周辺の環境地図を生成する位置計測部520と、該位置計測部520が計測した車両10の位置情報、画像処理部510が抽出した特徴点の3次元情報等を記憶する記憶部530と、ステレオカメラ200の撮像部200a、200b及び単眼カメラ300の撮像部300aを制御する撮像制御部540とを含む。 The control device 500 includes an image processing unit 510 that extracts feature points in the image from the brightness image and the parallax image output from the stereo camera 200 and the brightness image output from the monocular camera 300, and the image processing unit 510. The position measurement unit 520 that measures the position of the vehicle 10 based on the extracted feature points and generates an environmental map around the vehicle 10, and the position information and image processing unit 510 of the vehicle 10 measured by the position measurement unit 520 are extracted. It includes a storage unit 530 that stores three-dimensional information and the like of the feature points, and an image pickup control unit 540 that controls the image pickup units 200a and 200b of the stereo camera 200 and the image pickup unit 300a of the monocular camera 300.

画像処理部510は、画像中にある立体物を検出する立体物検出部510aと、画像中にある特徴点を抽出する特徴点抽出部510bと、同一のカメラで異なる時刻に撮影した画像間で同じ特徴点を探索する特徴点追跡部510cと、異なるカメラで同一時刻に撮影された画像間で同じ特徴点を探索する特徴点マッチング部510dとを含む。 The image processing unit 510 is between a three-dimensional object detection unit 510a that detects a three-dimensional object in an image, a feature point extraction unit 510b that extracts a feature point in the image, and images taken at different times by the same camera. It includes a feature point tracking unit 510c that searches for the same feature point, and a feature point matching unit 510d that searches for the same feature point between images taken at the same time by different cameras.

立体物検出部510aでは、例えば特開2015‐207281号公報に開示されている立体物抽出方法を用いることができる。 In the three-dimensional object detection unit 510a, for example, the three-dimensional object extraction method disclosed in Japanese Patent Application Laid-Open No. 2015-207281 can be used.

特徴点抽出部510bでは、SHIFT法やFAST法などの公知の技術を用いることができる。 In the feature point extraction unit 510b, known techniques such as the SHIFT method and the FAST method can be used.

特徴点追跡部510cでは、SHIFT法などの特徴量記述を用いた手法や、ブロックマッチングのような画像テンプレートベースの手法を用いることができる。 In the feature point tracking unit 510c, a method using feature description such as the SHIFT method or an image template-based method such as block matching can be used.

特徴点マッチング部510dは、単眼カメラ300で撮影した画像において、ステレオカメラ200で抽出された特徴点を探索する。 The feature point matching unit 510d searches for feature points extracted by the stereo camera 200 in the image taken by the monocular camera 300.

位置計測部520は、画像処理部510から得られる特徴点情報及び立体物情報を基に特徴点を分類する特徴点分類部520aと、車両10の位置を推定し、その推定結果を車両制御装置700に出力する位置推定部520bと、環境地図生成部520cとを含む。位置計測部520は、GNSS(衛星測位システム)600から自車両周辺の環境地図のベースとなる基準データを受信し、該基準データを基に自車両周辺の環境地図をリアルタイムに生成するとともに自車両の位置情報を取得し、生成した環境地図のデータと取得した自車両の位置情報を車両制御装置700に出力する。 The position measurement unit 520 estimates the position of the vehicle 10 and the feature point classification unit 520a that classifies the feature points based on the feature point information and the three-dimensional object information obtained from the image processing unit 510, and the estimation result is the vehicle control device. It includes a position estimation unit 520b that outputs to 700 and an environment map generation unit 520c. The position measurement unit 520 receives the reference data that is the base of the environmental map around the own vehicle from the GNSS (satellite positioning system) 600, generates the environmental map around the own vehicle in real time based on the reference data, and also generates the environmental map around the own vehicle in real time. The position information of the above is acquired, and the generated environment map data and the acquired position information of the own vehicle are output to the vehicle control device 700.

車両制御装置700は、受信した環境地図のデータと自車両の位置情報に基づいて自車両の制御(例えばオートブレーキ、オートステアリング、オートアクセル等)や、運転者への注意喚起(例えば警告音の発生、カーナビの画面上における警告表示等)を行う。 The vehicle control device 700 controls the own vehicle (for example, autobrake, autosteering, autoaccelerator, etc.) based on the received environmental map data and the position information of the own vehicle, and alerts the driver (for example, a warning sound). Occurrence, warning display on the car navigation screen, etc.).

記憶部530には、特徴点がどのカメラでどの時刻に画像上のどの位置に撮影されたかを示す情報が含まれる特徴点観測情報530aと、各時刻での単眼カメラ300の姿勢情報であるカメラ姿勢情報530bと、特徴点のある基準の座標系での3次元位置の情報を含む特徴点3次元情報530cと、位置計測部520で計測された車両の位置情報と、GNSS600から位置計測部520に送信された上記基準データとが格納される。 The storage unit 530 contains feature point observation information 530a including information indicating which camera captured the feature point at which position on the image at what time, and a camera which is posture information of the monocular camera 300 at each time. Attitude information 530b, feature point 3D information 530c including 3D position information in a reference coordinate system with feature points, vehicle position information measured by position measurement unit 520, and position measurement unit 520 from GNSS600. The above-mentioned reference data transmitted to is stored in.

《地図生成・位置計測処理》
以下、地図生成・位置計測装置100で実施される地図生成・位置計測処理の概要について、図4のフローチャートを参照して説明する。地図生成・位置計測処理は、位置計測部520が車両制御装置700から処理開始要求を受信したときに開始される。車両制御装置700は、例えば地図生成・位置計測装置100が搭載された車両10の電気系統がONになったときに位置計測部520に処理開始要求を送信する。
《Map generation / position measurement processing》
Hereinafter, an outline of the map generation / position measurement process performed by the map generation / position measurement device 100 will be described with reference to the flowchart of FIG. The map generation / position measurement process is started when the position measurement unit 520 receives the process start request from the vehicle control device 700. The vehicle control device 700 transmits a processing start request to the position measurement unit 520 when, for example, the electric system of the vehicle 10 on which the map generation / position measurement device 100 is mounted is turned on.

最初のステップS1では、特徴点抽出処理1を実施する。特徴点抽出処理1の詳細については後述する。 In the first step S1, the feature point extraction process 1 is performed. The details of the feature point extraction process 1 will be described later.

次のステップS2では、特徴点抽出処理2を実施する。特徴点抽出処理2の詳細については後述する。なお、図4では特徴点抽出処理2が特徴点抽出処理1の後となっているが、実際には特徴点抽出処理1、2は同時に開始され、一部の処理が並行して行われる。従って、図4において、特徴点抽出処理1、2の順序は逆でも良い。 In the next step S2, the feature point extraction process 2 is performed. The details of the feature point extraction process 2 will be described later. Although the feature point extraction process 2 is after the feature point extraction process 1 in FIG. 4, the feature point extraction processes 1 and 2 are actually started at the same time, and some of the processes are performed in parallel. Therefore, in FIG. 4, the order of the feature point extraction processes 1 and 2 may be reversed.

次のステップS3では、特徴点対応付け処理を実施する。特徴点対応付け処理の詳細については後述する。 In the next step S3, the feature point associating process is performed. The details of the feature point mapping process will be described later.

次のステップS4では、特徴点追跡処理を実施する。特徴点追跡処理は、特徴点追跡部510cにより、SHIFT法などの特徴量記述を用いた手法や、ブロックマッチングのような画像テンプレートベースの手法で行われる。 In the next step S4, the feature point tracking process is performed. The feature point tracking process is performed by the feature point tracking unit 510c by a method using a feature amount description such as the SHIFT method or an image template-based method such as block matching.

次のステップS5では、特徴点分類処理を実施する。特徴点分類処理の詳細については後述する。 In the next step S5, the feature point classification process is performed. The details of the feature point classification process will be described later.

次のステップS6では、位置推定処理を実施する。位置推定処理の詳細については後述する。 In the next step S6, the position estimation process is performed. The details of the position estimation process will be described later.

次のステップS7では、環境地図生成処理を実施する。環境地図生成処理の詳細については後述する。 In the next step S7, the environment map generation process is performed. The details of the environmental map generation process will be described later.

次のステップS8では、カメラ姿勢制御処理を実施する。カメラ姿勢制御処理の詳細については後述する。 In the next step S8, the camera attitude control process is performed. The details of the camera attitude control process will be described later.

ステップS9では、処理を終了するか否かを判断する。ここでの判断は、位置計測部520が車両制御装置700から処理終了要求を受信しているときに肯定され、受信していないときに否定される。車両制御装置700は、例えば、地図生成・位置計測装置100が搭載された車両10の電気系統がOFFになったときに位置計測部520に処理終了要求を送る。ステップS9での判断が肯定されるとフローは終了し、否定されるとステップS1に戻る。 In step S9, it is determined whether or not to end the process. The determination here is affirmed when the position measuring unit 520 receives the processing end request from the vehicle control device 700, and is denied when the position measuring unit 520 does not receive the processing end request. For example, the vehicle control device 700 sends a processing end request to the position measurement unit 520 when the electric system of the vehicle 10 on which the map generation / position measurement device 100 is mounted is turned off. If the determination in step S9 is affirmed, the flow ends, and if denied, the process returns to step S1.

《特徴点抽出処理1》
次に、特徴点抽出処理1(図4のステップS1)について、図5のフローチャートを参照して詳細に説明する。
<< Feature point extraction process 1 >>
Next, the feature point extraction process 1 (step S1 in FIG. 4) will be described in detail with reference to the flowchart of FIG.

最初のステップS1.1では、ステレオカメラ200で撮影を行う。具体的には、ステレオカメラ200の撮像部200a、200bが自車両前方を撮影し、撮像部200a、200bの撮影画像(輝度画像)のデータを視差画像生成部200cに送信するとともに撮像部200bの撮影画像(輝度画像)を特徴点抽出部510bに送信する。ステレオカメラ200は、撮像制御部540から撮影開始信号を受信したときに撮影を開始する。撮像制御部540は、撮影開始信号をステレオカメラ200と単眼カメラ300に同期して送信する。 In the first step S1.1, shooting is performed with the stereo camera 200. Specifically, the imaging units 200a and 200b of the stereo camera 200 photograph the front of the own vehicle, and the data of the captured images (brightness images) of the imaging units 200a and 200b are transmitted to the differential image generation unit 200c and the imaging unit 200b. The captured image (brightness image) is transmitted to the feature point extraction unit 510b. The stereo camera 200 starts shooting when it receives a shooting start signal from the image pickup control unit 540. The image pickup control unit 540 transmits the shooting start signal in synchronization with the stereo camera 200 and the monocular camera 300.

次のステップS1.2では、視差画像を生成する。具体的には、視差画像生成部200cが、受信した2つの輝度画像のデータを基に平行化のためのリマップ処理などを行って視差画像を生成し、該視差画像のデータを立体物検出部510aに送信する。 In the next step S1.2, a parallax image is generated. Specifically, the parallax image generation unit 200c generates a parallax image by performing remapping processing for parallelization based on the data of the two received luminance images, and the data of the parallax image is used as a stereoscopic object detection unit. It is transmitted to 510a.

次のステップS1.3では、立体物を検出する。具体的には、立体物検出部510aが、受信した視差画像のデータから、上述した立体物抽出方法を用いて立体物を検出し、その検出結果を特徴点分類部520aに送信する。 In the next step S1.3, a three-dimensional object is detected. Specifically, the three-dimensional object detection unit 510a detects a three-dimensional object from the received parallax image data by using the above-mentioned three-dimensional object extraction method, and transmits the detection result to the feature point classification unit 520a.

最後のステップS1.4では、画像中の特徴点を抽出する。具体的には、特徴点抽出部510bが、受信した撮像部200bの輝度画像のデータ(3次元情報)から、立体物及び非立体物の特徴点を抽出する。 In the final step S1.4, feature points in the image are extracted. Specifically, the feature point extraction unit 510b extracts feature points of a three-dimensional object and a non-three-dimensional object from the received luminance image data (three-dimensional information) of the imaging unit 200b.

《特徴点抽出処理2》
次に、特徴点抽出処理2(図4のステップS2)について、図6のフローチャートを参照して詳細に説明する。
<< Feature point extraction process 2 >>
Next, the feature point extraction process 2 (step S2 in FIG. 4) will be described in detail with reference to the flowchart of FIG.

最初のステップS2.1では、第k姿勢(k≧1)にある単眼カメラ300で撮影を行う。具体的には、単眼カメラ300の撮像部300aで自車両前方を撮影し、得られた輝度画像のデータ(3次元情報)を特徴点抽出部510bに送信する。なお、単眼カメラ300は、撮像制御部540から撮影開始信号を受信したときに撮影を開始する。すなわち、ステップS2.1は、ステレオカメラ200での撮影(上記ステップS1.1)と同時に開始される。 In the first step S2.1, a picture is taken with the monocular camera 300 in the kth posture (k ≧ 1). Specifically, the imaging unit 300a of the monocular camera 300 photographs the front of the own vehicle, and the obtained luminance image data (three-dimensional information) is transmitted to the feature point extraction unit 510b. The monocular camera 300 starts shooting when it receives a shooting start signal from the image pickup control unit 540. That is, step S2.1 is started at the same time as shooting with the stereo camera 200 (step S1.1).

ここで、「第k姿勢」は、単眼カメラ300の既知の複数種類(K種類)の姿勢のうち任意の一の姿勢であって、図4の地図生成・位置計測処理のk番目のループにおける姿勢を意味する。地図生成・位置計測処理の1番目(最初)のループにおいて特徴点抽出処理2が実施されるときの単眼カメラ300の姿勢は、初期姿勢である。 Here, the "kth posture" is any one of the known plurality of types (K types) of the monocular camera 300, and is in the kth loop of the map generation / position measurement process of FIG. Means posture. The posture of the monocular camera 300 when the feature point extraction process 2 is performed in the first (first) loop of the map generation / position measurement process is the initial posture.

次のステップS2.2では、単眼カメラ300の姿勢を計測する。具体的には、カメラ姿勢計測部300cが各ステッピングモータのステップ数をカウントして、単眼カメラ300の現在の姿勢がK種類の姿勢のうちいずれの姿勢であるかを判別する。この際、カウントしたステップ数を、カメラ姿勢情報530bとして記憶部530に格納する。なお、図4の地図生成・位置計測処理の最初のループにおいて特徴点抽出処理2が実施されるときの各ステッピングモータのステップ数は0であり、単眼カメラ300の姿勢は初期姿勢である。 In the next step S2.2, the posture of the monocular camera 300 is measured. Specifically, the camera posture measuring unit 300c counts the number of steps of each stepping motor to determine which of the K types of postures the current posture of the monocular camera 300 is. At this time, the counted number of steps is stored in the storage unit 530 as the camera posture information 530b. The number of steps of each stepping motor when the feature point extraction process 2 is executed in the first loop of the map generation / position measurement process of FIG. 4 is 0, and the posture of the monocular camera 300 is the initial posture.

最後のステップS2.3では、画像中の特徴点を抽出する。具体的には、特徴点抽出部510bが、受信した単眼カメラ300の撮影画像(輝度画像)のデータ(3次元情報)から、立体物及び非立体物の特徴点を抽出する。 In the final step S2.3, feature points in the image are extracted. Specifically, the feature point extraction unit 510b extracts feature points of a three-dimensional object and a non-three-dimensional object from the data (three-dimensional information) of the received image (luminance image) of the monocular camera 300.

《特徴点対応付け処理》
次に、特徴点対応付け処理(図4のステップS3)について、図7のフローチャートを参照して詳細に説明する。特徴点対応付け処理は、特徴点マッチング部510dにより実施される。
<< Feature point mapping process >>
Next, the feature point associating process (step S3 in FIG. 4) will be described in detail with reference to the flowchart of FIG. 7. The feature point associating process is performed by the feature point matching unit 510d.

特徴点対応付け処理は、ステレオカメラ200の輝度画像から抽出された特徴点を単眼カメラ300の座標系上で探索する処理である。すなわち、特徴点対応付け処理は、ステレオカメラ200で得られた特徴点について、単眼カメラ300の座標系上でどこにあるかを、ステレオカメラ200の輝度画像での観測座標と、その視差値から求める処理である。 The feature point associating process is a process of searching for feature points extracted from the luminance image of the stereo camera 200 on the coordinate system of the monocular camera 300. That is, in the feature point associating process, the location of the feature points obtained by the stereo camera 200 on the coordinate system of the monocular camera 300 is obtained from the observed coordinates in the brightness image of the stereo camera 200 and the parallax value thereof. It is a process.

最初のステップS3.1では、nに1をセットする。 In the first step S3.1, n is set to 1.

次のステップS3.2では、ステレオカメラ200の輝度画像(より詳細には撮像部200bの輝度画像)から抽出された第n特徴点の初期位置を算出する。その算出方法については、後述する。 In the next step S3.2, the initial position of the nth feature point extracted from the luminance image of the stereo camera 200 (more specifically, the luminance image of the imaging unit 200b) is calculated. The calculation method will be described later.

次のステップS3.3では、抽出された第n特徴点の初期位置近傍のiピクセルの画素ブロック内に単眼カメラ300の輝度画像から抽出された特徴点があるか否かを判断する。ここでの判断が肯定されるとステップS3.4に移行し、否定されるとステップS3.7に移行する。このように第n特徴点の初期位置周辺にある特徴点に対してマッチングを行うことで、類似パターンが続くような環境でロバストに特徴点のマッチングを行うことができる。 In the next step S3.3, it is determined whether or not there is a feature point extracted from the luminance image of the monocular camera 300 in the pixel block of i pixels near the initial position of the extracted nth feature point. If the judgment here is affirmed, the process proceeds to step S3.4, and if denied, the process proceeds to step S3.7. By matching the feature points around the initial position of the nth feature point in this way, it is possible to robustly match the feature points in an environment in which similar patterns continue.

次のステップS3.4では、コスト値を算出する。ここで「コスト値」とは、ステレオカメラ200の輝度画像から抽出された特徴点に対する、単眼カメラ300の輝度画像から抽出された特徴点の一致度を表す評価値である。 In the next step S3.4, the cost value is calculated. Here, the "cost value" is an evaluation value representing the degree of coincidence of the feature points extracted from the luminance image of the monocular camera 300 with respect to the feature points extracted from the luminance image of the stereo camera 200.

次のステップS3.5では、コスト値が閾値以下であるか否かを判断する。ここでの判断が肯定されるとステップS3.6に移行し、否定されるとステップS3.7に移行する。 In the next step S3.5, it is determined whether or not the cost value is equal to or less than the threshold value. If the judgment here is affirmed, the process proceeds to step S3.6, and if denied, the process proceeds to step S3.7.

次のステップS3.6では、単眼カメラ300の輝度画像上における第n特徴点の位置情報(以下では「単眼カメラ300の観測情報」とも呼ぶ)を特徴点観測情報530aに追加する。すなわち、第n特徴点の初期位置近傍のiピクセルの画素ブロック内にある特徴点のコスト値が閾値以下であれば単眼カメラ300の観測情報を特徴点観測情報530aとして記憶部530に追加する。第n特徴点の初期位置近傍のiピクセルの画素ブロック内に特徴点が存在しない場合、又は閾値以下のコスト値を持つ特徴点が存在しない場合は、特徴点観測情報530aに単眼カメラ300の観測情報を追加しない。 In the next step S3.6, the position information of the nth feature point on the luminance image of the monocular camera 300 (hereinafter, also referred to as “observation information of the monocular camera 300”) is added to the feature point observation information 530a. That is, if the cost value of the feature point in the i-pixel pixel block near the initial position of the nth feature point is equal to or less than the threshold value, the observation information of the monocular camera 300 is added to the storage unit 530 as the feature point observation information 530a. If there is no feature point in the pixel block of i-pixel near the initial position of the nth feature point, or if there is no feature point with a cost value below the threshold, the observation of the monocular camera 300 in the feature point observation information 530a. Do not add information.

次のステップS3.7では、n<Nであるか否かを判断する。Nは、ステレオカメラ200の輝度画像から抽出された特徴点の総数である。ここでの判断が肯定されるとステップS3.8に移行し、否定されるとフローは終了する。 In the next step S3.7, it is determined whether or not n <N. N is the total number of feature points extracted from the luminance image of the stereo camera 200. If the judgment here is affirmed, the process proceeds to step S3.8, and if it is denied, the flow ends.

ステップS3.8では、nをインクリメントする。ステップS3.8が実行されると、ステップS3.2に戻る。 In step S3.8, n is incremented. When step S3.8 is executed, the process returns to step S3.2.

次に、上記ステップS3.2における第n特徴点の初期位置の算出方法について図8を参照して説明する。 Next, a method of calculating the initial position of the nth feature point in step S3.2 will be described with reference to FIG.

ここで、ステレオカメラ200の左右2つの撮像部200a、200bのうち右側の撮像部200bを基準カメラとする。基準カメラで撮影された特徴点の基準カメラ座標系(基準カメラの座標系)での3次元座標P(Xi,Yi,Zi)は、該特徴点の基準カメラのセンサ座標系(イメージセンサの座標系)での2次元座標p(xi,yi)と、その視差値diを用いて次の(1)式で表す事ができる。

Figure 0006880822
但し、bはステレオカメラ200の基線長、fsはステレオカメラ200の焦点距離を示す値、cxs,cysはステレオカメラ200の中心を示す値である。これらの値は事前に校正されており、このシステムが動作する時点では既知のものとする。 Here, the right image pickup unit 200b of the two left and right image pickup units 200a and 200b of the stereo camera 200 is used as a reference camera. The three-dimensional coordinates P (Xi, Yi, Zi) in the reference camera coordinate system (coordinate system of the reference camera) of the feature point taken by the reference camera are the sensor coordinate system (coordinates of the image sensor) of the reference camera of the feature point. It can be expressed by the following equation (1) using the two-dimensional coordinates p (xi, yi) in the system) and its disparity value di.
Figure 0006880822
However, b is the baseline length of the stereo camera 200, f s is a value indicating the focal length of the stereo camera 200, and cx s and cy s are values indicating the center of the stereo camera 200. These values have been pre-calibrated and should be known at the time the system operates.

基準カメラ座標系での座標P(Xi,Yi,Zi)の、単眼カメラ300の座標系での座標(Xip,
Yip,Zip)への変換は、次の(2)式で行うことができる(図8参照)。

Figure 0006880822
Coordinates P (Xi, Yi, Zi) in the reference camera coordinate system, coordinates in the coordinate system of the monocular camera 300 (Xi p ,
Yi p, conversion to Zi p) may be carried out by the following equation (2) (see FIG. 8).
Figure 0006880822

pRrは、基準カメラ座標系から単眼カメラ300の座標系へ座標変換を行う回転成分である。pRrは、カメラ姿勢計測部300cによって計測することが可能である。
pTrは、基準カメラ座標系から単眼カメラ300の座標系へ座標変換を行う平行移動成分である。基準カメラ座標における単眼カメラ300の位置が既知であれば、pTr=pRr-1pTとして求めることが可能である。
pRr is a rotation component that transforms the coordinates from the reference camera coordinate system to the coordinate system of the monocular camera 300. pRr can be measured by the camera posture measuring unit 300c.
pTr is a translation component that transforms the coordinates from the reference camera coordinate system to the coordinate system of the monocular camera 300. If the position of the monocular camera 300 in the reference camera coordinates is known, it can be obtained as pTr = pRr -1 pT.

ステレオカメラ200で観測された特徴点の、単眼カメラ300で撮影された画像上で観測される位置を次の(3)式によって求めることができる。

Figure 0006880822
但し、fpは単眼カメラ300の焦点距離を示す値、cxp,cypは単眼カメラ300のセンサ座標系(イメージセンサの座標系)の中心を示す値である。これらの値は事前に校正されており、このシステムが動作する時点では既知のものとする。 The position of the feature point observed by the stereo camera 200 on the image taken by the monocular camera 300 can be obtained by the following equation (3).
Figure 0006880822
However, fp is a value indicating the focal length of the monocular camera 300, and cxp and cyp are values indicating the center of the sensor coordinate system (coordinate system of the image sensor) of the monocular camera 300. These values have been pre-calibrated and should be known at the time the system operates.

《立体物の検出》
次に、上記ステップS1.3における立体物の検出について具体的に説明する。
図9において、矩形破線で囲まれた領域が画像の中で立体物が検出された領域(以下では「立体物検出領域」とも呼ぶ)である。
例えば特開2015‐207281号公報などの既知の方法を利用することで、画像の中で人や車などの路面上にある立体物を検出することが可能である。図9における矩形破線のように、例えば凸型の4角形によって立体物検出領域を定義することができる。立体物検出領域の情報としては、例えば矩形破線の4つの頂点の画像上の座標を出力する。
《Detection of three-dimensional objects》
Next, the detection of the three-dimensional object in step S1.3 will be specifically described.
In FIG. 9, the area surrounded by the rectangular broken line is the area in which the three-dimensional object is detected in the image (hereinafter, also referred to as “three-dimensional object detection area”).
For example, by using a known method such as Japanese Patent Application Laid-Open No. 2015-207281, it is possible to detect a three-dimensional object on a road surface such as a person or a car in an image. As shown by the rectangular broken line in FIG. 9, the three-dimensional object detection region can be defined by, for example, a convex quadrangle. As the information of the three-dimensional object detection region, for example, the coordinates on the image of the four vertices of the rectangular broken line are output.

図10において、白丸は画像中から抽出された特徴点を示す。また、立体物検出領域は矩形破線で示されている。そこで、上記ステップS5の特徴点分類処理によって、図11に示されるように、特徴点の座標と立体物検出領域の情報から、特徴点を立体物特徴点(立体物の特徴点)と非立体物特徴点(立体物以外の特徴点)に分類することができる。 In FIG. 10, white circles indicate feature points extracted from the image. The three-dimensional object detection area is indicated by a rectangular broken line. Therefore, by the feature point classification process in step S5, as shown in FIG. 11, the feature points are divided into a three-dimensional object feature point (three-dimensional object feature point) and a non-three-dimensional object from the coordinates of the feature point and the information of the three-dimensional object detection area. It can be classified into object feature points (feature points other than three-dimensional objects).

《特徴点分類処理》
次に、特徴点分類処理(図4のステップS5)について、図12のフローチャートを参照して詳細に説明する。特徴点分類処理は、特徴点分類部520aにより実施される。
<< Feature point classification processing >>
Next, the feature point classification process (step S5 in FIG. 4) will be described in detail with reference to the flowchart of FIG. The feature point classification process is carried out by the feature point classification unit 520a.

最初のステップS5.1では、nに1をセットする。 In the first step S5.1, n is set to 1.

次のステップS5.2では、ステレオカメラ200の輝度画像(より詳細には撮像部200bの輝度画像)から抽出された第n特徴点が立体物検出領域内にあるか否かを判断する。具体的には、矩形の立体物検出領域の内部に特徴点が存在するか否かを計算する。このために、立体物検出領域を2つの三角形に分離し、特徴点が2つの三角形のいずれに含まれているかを判定する。ある点がある三角形の内部にあるか外部にあるかを判定する処理は、一般的に三角形の内外判定処理と呼ばれ、外積を用いた手法が知られており、それを用いればよい。ステップS5.2での判断が肯定されるとステップS5.3に移行し、否定されるとステップS5.4に移行する。 In the next step S5.2, it is determined whether or not the nth feature point extracted from the luminance image of the stereo camera 200 (more specifically, the luminance image of the imaging unit 200b) is within the stereoscopic object detection region. Specifically, it is calculated whether or not a feature point exists inside the rectangular three-dimensional object detection region. For this purpose, the three-dimensional object detection region is divided into two triangles, and it is determined which of the two triangles the feature points are included in. The process of determining whether a certain point is inside or outside a triangle is generally called an inside / outside determination process of a triangle, and a method using an outer product is known, and it may be used. If the judgment in step S5.2 is affirmed, the process proceeds to step S5.3, and if denied, the process proceeds to step S5.4.

ステップS5.3では、第n特徴点を立体物特徴点として記憶部530の特徴点3次元情報530cに登録する。 In step S5.3, the nth feature point is registered in the feature point three-dimensional information 530c of the storage unit 530 as a three-dimensional object feature point.

ステップS5.4では、第n特徴点を非立体物特徴点として記憶部530の特徴点3次元情報530cに登録する。 In step S5.4, the nth feature point is registered in the feature point three-dimensional information 530c of the storage unit 530 as a non-three-dimensional object feature point.

ステップS5.5では、n<Nであるか否かを判断する。Nは、ステレオカメラ200の輝度画像から抽出された特徴点の総数である。ここでの判断が肯定されるとステップS5.6に移行し、否定されるとフローは終了する。 In step S5.5, it is determined whether or not n <N. N is the total number of feature points extracted from the luminance image of the stereo camera 200. If the judgment here is affirmed, the process proceeds to step S5.6, and if denied, the flow ends.

ステップS5.6では、nをインクリメントする。ステップS5.6が実行されると、ステップS5.2に戻る。 In step S5.6, n is incremented. When step S5.6 is executed, the process returns to step S5.2.

《位置推定処理》
次に、位置推定処理(図4のステップS6)について図13を参照して説明する。位置推定処理は、位置推定部520bにより実施される。
<< Position estimation processing >>
Next, the position estimation process (step S6 in FIG. 4) will be described with reference to FIG. The position estimation process is performed by the position estimation unit 520b.

最初のステップS6.1では、RANSACによるインライア選別を行う。すなわち、RANSAC法により、非立体物特徴点の中から静止特徴点を抽出する。特徴点の中にはステレオカメラ200での視差計算での誤マッチングや、特徴点追跡部510cでの誤マッチングなどが起こりうるため、誤マッチングの影響を低減するためにRANSAC法を用いる。 In the first step S6.1, in-line selection by RANSAC is performed. That is, the static feature points are extracted from the non-three-dimensional feature points by the RANSAC method. Since erroneous matching in the parallax calculation by the stereo camera 200 and erroneous matching in the feature point tracking unit 510c may occur among the feature points, the RANSAC method is used to reduce the influence of the erroneous matching.

ここで、カメラの位置姿勢(R,t)をパラメータとするコスト関数は、ある特徴点に対して次の(4)式で求めることができる。

Figure 0006880822
ここで、exi r及びeyi rは、それぞれ基準カメラ(右側の撮像部200b)でのx方向及びy方向の再投影誤差である。exi lは、左カメラ(左側の撮像部200a)でのx方向の再投影誤差である。exi p及びeyi pは単眼カメラ300でのx座標とy座標の再投影誤差である。Wi rは、基準カメラでの重みであり、基準カメラで追跡成功した特徴点には1が、それ以外には0がセットされる。Wi pは、単眼カメラ300での重みであり、単眼カメラ300で検出された特徴点には1がセットされ、それ以外には0がセットされる。 Here, the cost function with the position and orientation (R, t) of the camera as a parameter can be obtained for a certain feature point by the following equation (4).
Figure 0006880822
Here, ex i r and e i r are the reprojection errors in the x direction and the y direction in the reference camera (imaging unit 200b on the right side), respectively. ex i l is the reprojection error in the x direction with the left camera (imaging unit 200a on the left side). ex i p and ey i p are the reprojection errors of the x and y coordinates of the monocular camera 300. W i r is the weight of the reference camera, and 1 is set for the feature points that are successfully tracked by the reference camera, and 0 is set for the other feature points. W i p is the weight of the monocular camera 300, and 1 is set for the feature points detected by the monocular camera 300, and 0 is set for the other feature points.

ここで、基準カメラ座標系での点の位置を[Xi r(R,t),Yi r(R,t),Zi r(R,t)]、地図座標系での点の位置を[Xi w,Yi w,Zi w]、単眼カメラ300の座標系での点の位置を[Xi p(R,t),Yi p(R,t),Zi p(R,t)]とすると、次の(5)式及び(6)式でそれぞれ変換することができる。

Figure 0006880822
Here, the position of the point in the reference camera coordinate system is [X i r (R, t), Y i r (R, t), Z i r (R, t)], and the position of the point in the map coordinate system. Is [X i w, Y i w , Z i w ], and the position of the point in the coordinate system of the monocular camera 300 is [X i p (R, t), Y i p (R, t), Z i p ( R, t)] can be converted by the following equations (5) and (6), respectively.
Figure 0006880822

次のステップS6.2では、インライアの特徴点で車両10の位置を推定する。具体的には、RANSAC法でインライアの特徴点が抽出された後、インライアの特徴点のみで車両10の位置の推定を行う。位置推定は上述した特徴点毎の再投影誤差のコストの最小化問題として定式化することができ、Levemberg-Marquart法などの非線形の最小化法を用いて最適な位置を推定することができる。 In the next step S6.2, the position of the vehicle 10 is estimated at the feature point of the inlay. Specifically, after the feature points of the inlyre are extracted by the RANSAC method, the position of the vehicle 10 is estimated only by the feature points of the inlyre. The position estimation can be formulated as a problem of minimizing the cost of the reprojection error for each feature point described above, and the optimum position can be estimated by using a non-linear minimization method such as the Levemberg-Marquart method.

次のステップS6.3では、立体物特徴点から静止特徴点を抽出する。具体的には、ステップS6.2で推定された位置情報を用いて立体物特徴点について再投影誤差を算出し、閾値計算により静止特徴点か否かを判定する。これにより、静止していた車両が動き出した場合などの静止していた特徴点が運動を始めた場合の影響を抑えることができる。 In the next step S6.3, the stationary feature points are extracted from the three-dimensional object feature points. Specifically, the reprojection error of the three-dimensional object feature point is calculated using the position information estimated in step S6.2, and whether or not it is a stationary feature point is determined by the threshold calculation. As a result, it is possible to suppress the influence when the stationary feature point starts to move, such as when the stationary vehicle starts to move.

次のステップS6.4では、静止特徴点で車両10の位置を推定する。具体的には、立体物特徴点のうち静止していると判定された特徴点について、再度位置推定のコスト関数(上記(4)式)に組み込み、非線形の最小化問題を解くことにより最適な位置を求める。 In the next step S6.4, the position of the vehicle 10 is estimated at the stationary feature point. Specifically, it is optimal to re-incorporate the feature points determined to be stationary among the three-dimensional object feature points into the cost function of position estimation (Equation (4) above) and solve the nonlinear minimization problem. Find the position.

《環境地図生成処理》
次に、環境地図生成処理(図4のステップS7)について、図14を参照して説明する。環境地図生成処理は、GNSS600から送信される、環境地図のベースとなる基準データに対して、特徴点情報を追加することにより、精度の高い環境地図を生成する処理である。環境地図生成処理は、環境地図生成部520cによって実施される。
《Environmental map generation process》
Next, the environment map generation process (step S7 in FIG. 4) will be described with reference to FIG. The environmental map generation process is a process of generating a highly accurate environmental map by adding feature point information to the reference data that is the base of the environmental map transmitted from the GNSS 600. The environmental map generation process is carried out by the environmental map generation unit 520c.

最初のステップS7.1では、nに1をセットする。 In the first step S7.1, n is set to 1.

次のステップS7.2では、ステレオカメラ200の輝度画像(より詳細には撮像部200bの輝度画像)から抽出された第n特徴点が環境地図上(但しn=1のときは基準データ上)に存在するか否かを判断する。ここでの判断が否定されるとステップS7.3に移行し、肯定されるとステップS7.4に移行する。 In the next step S7.2, the nth feature point extracted from the luminance image of the stereo camera 200 (more specifically, the luminance image of the imaging unit 200b) is on the environmental map (however, when n = 1, it is on the reference data). Determine if it exists in. If the judgment here is denied, the process proceeds to step S7.3, and if the judgment is affirmed, the process proceeds to step S7.4.

ステップS7.3では、第n特徴点が非立体物特徴点であるか否かを判断する。ここでの判断が肯定されるとステップS7.5に移行し、否定されるとステップS7.8に移行する。 In step S7.3, it is determined whether or not the nth feature point is a non-three-dimensional object feature point. If the judgment here is affirmed, the process proceeds to step S7.5, and if denied, the process proceeds to step S7.8.

ステップS7.4では、第n特徴点がインライアとして判定されたか否かを判断する。ここでの判断が肯定されるとステップS7.6に移行し、否定されるとステップS7.7に移行する。 In step S7.4, it is determined whether or not the nth feature point is determined as an inlier. If the judgment here is affirmed, the process proceeds to step S7.6, and if denied, the process proceeds to step S7.7.

ステップS7.5では、環境地図(但しn=1のときは基準データ)に、第n特徴点の3次元情報(非立体物特徴点であること)を特徴点3次元情報530cとして追加するとともに第n特徴点の観測情報(単眼カメラ300の輝度画像上における第n特徴点の位置情報)を特徴点観測情報530aとして追加する。すなわち、第n特徴点が環境地図に無い場合、第n特徴点が非立体物特徴点であればステレオカメラ200から得られる視差値を用いて3次元再構成を行い、立体物特徴点であれば環境地図への追加は行わない。ステップS7.5が実行されると、ステップS7.8に移行する。 In step S7.5, the three-dimensional information of the nth feature point (being a non-three-dimensional object feature point) is added as the feature point three-dimensional information 530c to the environment map (however, when n = 1, the reference data). The observation information of the nth feature point (position information of the nth feature point on the brightness image of the monocular camera 300) is added as the feature point observation information 530a. That is, when the nth feature point is not on the environmental map, if the nth feature point is a non-three-dimensional object feature point, three-dimensional reconstruction is performed using the parallax value obtained from the stereo camera 200, and the three-dimensional object feature point can be used. For example, it will not be added to the environmental map. When step S7.5 is executed, the process proceeds to step S7.8.

ステップS7.6では、環境地図(但しn=1のときは基準データ)に第n特徴点の観測情報(単眼カメラ300の輝度画像上における第n特徴点の位置情報)を特徴点観測情報530aとして追加する。ステップS7.6が実行されると、ステップS7.8に移行する。 In step S7.6, the observation information of the nth feature point (position information of the nth feature point on the luminance image of the monocular camera 300) is added to the environment map (however, reference data when n = 1). Add as. When step S7.6 is executed, the process proceeds to step S7.8.

ステップS7.7では、環境地図(但しn=1のときは基準データ)から第n特徴点を除外する。ステップS7.7が実行されると、ステップS7.8に移行する。 In step S7.7, the nth feature point is excluded from the environmental map (however, when n = 1, the reference data). When step S7.7 is executed, the process proceeds to step S7.8.

ステップS7.8では、バンドル調整を行う。すなわち、特徴点の情報が環境地図に追加された後、バンドル調整法を用いて全体の再投影誤差の最小化を行い車両10の位置情報と、特徴点の3次元情報を最適化する。 In step S7.8, bundle adjustment is performed. That is, after the feature point information is added to the environmental map, the overall reprojection error is minimized by using the bundle adjustment method, and the position information of the vehicle 10 and the three-dimensional information of the feature points are optimized.

ステップS7.9では、n<Nであるか否かを判断する。Nは、ステレオカメラ200の輝度画像から抽出された特徴点の総数である。ここでの判断が肯定されるとステップS7.95に移行し、否定されるとフローは終了する。 In step S7.9, it is determined whether or not n <N. N is the total number of feature points extracted from the luminance image of the stereo camera 200. If the judgment here is affirmed, the process proceeds to step S7.95, and if it is denied, the flow ends.

ステップS7.95では、nをインクリメントする。ステップS7.95が実行されると、ステップS7.2に戻る。 In step S7.95, n is incremented. When step S7.95 is executed, the process returns to step S7.2.

《カメラ姿勢制御処理》
次に、図4のステップS8のカメラ姿勢制御処理について、図15のフローチャートを参照して説明する。カメラ姿勢制御処理は、カメラ姿勢制御部300bにより実施される。なお、単眼カメラ300がとり得る既知の姿勢が予め複数種類(K種類)用意されているものとする。単眼カメラ300の姿勢は、静止した特徴点がなるべく多く画角に入る姿勢であることが好ましい。画像中の特徴点の中で、非立体物特徴点は、通常、静止した特徴点であるため、単眼カメラ300の姿勢は、非立体物特徴点がなるべく多く画角に入る姿勢であることが望ましい。
<< Camera attitude control processing >>
Next, the camera attitude control process in step S8 of FIG. 4 will be described with reference to the flowchart of FIG. The camera attitude control process is performed by the camera attitude control unit 300b. It is assumed that a plurality of types (K types) of known postures that the monocular camera 300 can take are prepared in advance. The posture of the monocular camera 300 is preferably a posture in which as many stationary feature points as possible enter the angle of view. Among the feature points in the image, the non-three-dimensional object feature points are usually stationary feature points, so that the posture of the monocular camera 300 is such that as many non-three-dimensional object feature points enter the angle of view as much as possible. desirable.

最初のステップS8.1では、kに1をセットする。 In the first step S8.1, k is set to 1.

次のステップS8.2では、第k姿勢にある単眼カメラ300で撮影可能な特徴点の数Naを算出する。Naは、座標変換とセンサ座標面への投影の式(上記(2)式や(3)式)を用いることにより算出することができる。 In the next step S8.2, the number Na of feature points that can be photographed by the monocular camera 300 in the k-th posture is calculated. Na can be calculated by using the equations for coordinate transformation and projection onto the sensor coordinate plane (the above equations (2) and (3)).

次のステップS8.3では、立体物特徴点のうち第k姿勢にある単眼カメラ300で撮影可能なものの数Nsを算出する。Nsは、座標変換とセンサ座標面への投影の式(上記(2)式や(3)式)を用いることにより算出することができる。 In the next step S8.3, the number Ns of the three-dimensional object feature points that can be photographed by the monocular camera 300 in the k-th posture is calculated. Ns can be calculated by using the equations for coordinate transformation and projection on the sensor coordinate plane (the above equations (2) and (3)).

次のステップS8.4では、姿勢スコアSを算出する。ここでは、S=Na−Nsと定義する。 In the next step S8.4, the posture score S is calculated. Here, it is defined as S = Na—Ns.

次のステップS8.5では、k<Kであるか否かを判断する。ここでの判断が肯定されるとステップS8.2に戻り、否定されるとステップS8.6に移行する。 In the next step S8.5, it is determined whether or not k <K. If the judgment here is affirmed, the process returns to step S8.2, and if denied, the process proceeds to step S8.6.

ステップS8.6では、予め用意された単眼カメラ300のK種類の姿勢のうち姿勢スコアSが最大となる姿勢を目標姿勢として選択する。 In step S8.6, the posture having the maximum posture score S is selected as the target posture among the K types of postures of the monocular camera 300 prepared in advance.

ステップS8.7では、許容角速度を計算する。すなわち、単眼カメラ300の姿勢制御における最大角速度を算出する。この最大角速度は、単眼カメラ300の回転運動時にモーションブラーが発生しない単眼カメラ300の角速度の上限である。 In step S8.7, the allowable angular velocity is calculated. That is, the maximum angular velocity in the attitude control of the monocular camera 300 is calculated. This maximum angular velocity is the upper limit of the angular velocity of the monocular camera 300 in which motion blur does not occur during the rotational movement of the monocular camera 300.

単眼カメラ300のフレーム間の特徴点の動き[vx,vy]は、フレーム間の回転運動R=[r1,r2,r3]がわかっている場合、次の(7)式で算出することができる。

Figure 0006880822
但し、xは、単眼カメラ300から見た特徴点の位置[x,y,z]である。fx,fyは、単眼カメラ300の内部パラメータとしての、ピクセル単位で表される焦点距離である。 The movement [v x , v y ] of the feature points between the frames of the monocular camera 300 can be calculated by the following equation (7) when the rotational movement R = [r 1 , r 2 , r 3] between the frames is known. Can be calculated.
Figure 0006880822
However, x is the position [x, y, z] of the feature point as seen from the monocular camera 300. fx and fy are focal lengths expressed in pixel units as internal parameters of the monocular camera 300.

単眼カメラ300の場合、x軸回り(チルト方向)の回転とY軸回り(パン方向)の回転なので、X軸周りにθ回転させた場合の特徴点の動き[vx,vy]は、次の(8)式で表現される。

Figure 0006880822
但し、cはcosθ,sはsinθである。 In the case of the monocular camera 300, the rotation is around the x-axis (tilt direction) and around the Y-axis (pan direction), so the movement of the feature points [v x , v y ] when rotated by θ around the X-axis is It is expressed by the following equation (8).
Figure 0006880822
However, c is cosθ and s is sinθ.

同様にY軸周りにφ回転させた場合の特徴点の動き[vx,vy]は、次の(9)式で表現される。

Figure 0006880822
但し、cはcosφ,sはsinφである。 Similarly, the movement [v x , v y ] of the feature point when φ-rotated around the Y-axis is expressed by the following equation (9).
Figure 0006880822
However, c is cosφ and s is sinφ.

モーションブラーが発生しないようにするためには、[vx,vy]それぞれが1以下の値であれば良い。 In order to prevent motion blur, each [v x , v y ] should be a value of 1 or less.

[vx,vy]のいずれもが1以下であるθとφの範囲は、例えば0.1度刻みでcosとsinの値を変化させ[vx,vy]の値を算出することにより求めることができる。 For the range of θ and φ where both [v x , v y ] are 1 or less, for example, the values of cos and sin are changed in 0.1 degree increments to calculate the value of [v x , v y]. Can be obtained by.

次のステップS8.8では、単眼カメラ300の姿勢をステップS8.6で選択した姿勢に移行させる。具体的には、カメラ姿勢制御部300bが、PID(Proportional-Integral-Differential)法を用いて、許容角速度(最大角速度)を超えない範囲でX軸回りの回転とY軸回りの回転それぞれで目標姿勢に近づくように単眼カメラ300の姿勢制御を行う。このとき、カメラ姿勢制御部300bは、上記ステップS2.2で計測されカメラ姿勢情報530bとして記憶部530に格納された単眼カメラ300の姿勢情報(チルト方向、パン方向の回転角)から、選択した姿勢に移行させるための各ステッピングモータのステップ数を計算して単眼カメラ300の姿勢制御を行う。 In the next step S8.8, the posture of the monocular camera 300 is shifted to the posture selected in step S8.6. Specifically, the camera attitude control unit 300b uses the PID (Proportional-Integral-Differential) method to target rotation around the X-axis and rotation around the Y-axis within a range that does not exceed the allowable angular velocity (maximum angular velocity). The attitude of the monocular camera 300 is controlled so as to approach the attitude. At this time, the camera attitude control unit 300b is selected from the attitude information (tilt direction, pan direction rotation angle) of the monocular camera 300 measured in step S2.2 and stored in the storage unit 530 as the camera attitude information 530b. The posture of the monocular camera 300 is controlled by calculating the number of steps of each stepping motor for shifting to the posture.

図16には、姿勢制御後の単眼カメラ300の撮影範囲の一例が示されている。図16では、単眼カメラ300の撮影範囲(画角)から、立体物かつ移動物体である先行車両が外れているのが分かる。 FIG. 16 shows an example of the photographing range of the monocular camera 300 after the attitude control. In FIG. 16, it can be seen that the preceding vehicle, which is a three-dimensional object and a moving object, is out of the shooting range (angle of view) of the monocular camera 300.

以上のようにしてカメラ姿勢制御処理(ステップS8)が実施された後、地図生成・位置計測処理を継続する場合(ステップS9でNOの場合)には、カメラ姿勢制御処理後の最適な姿勢にある単眼カメラ300で次のループにおけるステップS2(特徴点抽出処理2)が実施される。このとき、単眼カメラ300の撮影範囲内であってステレオカメラ200の撮影範囲外の領域の3次元情報を特徴点抽出の対象から除外することが好ましい。この領域では、特徴点の性質(静止点か否かや立体物が否か)の判定が精度良く行えないからである。カメラ姿勢制御処理(ステップS8)により、次のループにおけるステップS2以後の処理(ステップS3〜S5)の負荷が軽減され、ステップS6(位置推定処理)で高精度な位置情報が得られ、ステップS7(環境地図生成処理)で高精度な環境地図を生成できる。 When the map generation / position measurement process is continued after the camera posture control process (step S8) is performed as described above (NO in step S9), the optimum posture after the camera posture control process is obtained. Step S2 (feature point extraction process 2) in the next loop is performed on a monocular camera 300. At this time, it is preferable to exclude the three-dimensional information of the region within the shooting range of the monocular camera 300 and outside the shooting range of the stereo camera 200 from the target of feature point extraction. This is because in this region, the properties of the feature points (whether or not they are stationary points or whether or not they are three-dimensional objects) cannot be accurately determined. The camera attitude control process (step S8) reduces the load of the processes (steps S3 to S5) after step S2 in the next loop, and step S6 (position estimation process) obtains highly accurate position information, and step S7. (Environmental map generation process) can generate a highly accurate environmental map.

なお、上記実施形態の地図生成・位置計測装置100では、ステレオカメラ200と姿勢変更可能な単眼カメラ300の組み合わせが採用されているが、これに限られない。例えば、図17に示される変形例1の地図生成・位置計測装置100´のように、ライダ(Lidar:Light detecting and ranging)200と姿勢変更可能な単眼カメラ300の組み合わせを採用しても良い。図17(a)は、地図生成・位置計測装置100´が搭載された車両10を側面から見た模式図である。図17(b)は、車両10の正面図である。 The map generation / position measuring device 100 of the above embodiment uses a combination of a stereo camera 200 and a monocular camera 300 whose posture can be changed, but the present invention is not limited to this. For example, as in the map generation / position measuring device 100'of Modification 1 shown in FIG. 17, a combination of a lidar (Light detecting and ranking) 200 and a posture-changeable monocular camera 300 may be adopted. FIG. 17A is a schematic view of the vehicle 10 on which the map generation / position measuring device 100'is mounted, as viewed from the side. FIG. 17B is a front view of the vehicle 10.

ライダ400は、図17に示されるように、車両10の前側のナンバープレート近傍に投光範囲が車両10の前方を向くように取り付けられている。 As shown in FIG. 17, the rider 400 is attached near the license plate on the front side of the vehicle 10 so that the light projection range faces the front of the vehicle 10.

ライダ400は、レーザ光を出射して反射光を検知することで測距を行う測距装置であり、レーザレーダとも呼ばれる。ライダ400の測定結果から、車両10の前方の3次元情報が得られる。 The rider 400 is a distance measuring device that measures a distance by emitting laser light and detecting reflected light, and is also called a laser radar. From the measurement result of the rider 400, three-dimensional information in front of the vehicle 10 can be obtained.

単眼カメラ300は、車両10のバックミラー近傍に姿勢変更可能(パン方向・チルト方向に回転可能)に取り付けられている。 The monocular camera 300 is mounted in the vicinity of the rear-view mirror of the vehicle 10 so as to be able to change its posture (rotate in the pan direction and tilt direction).

地図生成・位置計測装置100´では、図18に示されるように、例えばライダ400の投光範囲と単眼カメラ300の画角を同等にし、上記実施形態と同様にして単眼カメラ300の姿勢制御(図19参照)、環境地図の生成、車両10の位置計測を行う。なお、ライダ400の測定結果である3次元情報における特徴点の抽出や、抽出された特徴点の分類も上記実施形態と同様にして行うことができる。立体物の検出は、ライダ400の測定結果を用いて行うことができる。 In the map generation / position measuring device 100', as shown in FIG. 18, for example, the projection range of the lidar 400 and the angle of view of the monocular camera 300 are made equal, and the posture control of the monocular camera 300 is performed in the same manner as in the above embodiment. (See FIG. 19), the environment map is generated, and the position of the vehicle 10 is measured. It should be noted that the extraction of the feature points in the three-dimensional information which is the measurement result of the rider 400 and the classification of the extracted feature points can be performed in the same manner as in the above embodiment. The detection of a three-dimensional object can be performed using the measurement result of the rider 400.

ライダ400の構成は、一例として図20に示されるように、半導体レーザ(LD)及びカップリングレンズを含む投光系と、反射ミラー、結像光学系及び光検出器を含む受光系とが走査ミラーを共用する走査型であっても良い。 As shown in FIG. 20 as an example, the configuration of the rider 400 is such that a light projecting system including a semiconductor laser (LD) and a coupling lens and a light receiving system including a reflection mirror, an imaging optical system and a photodetector scan. It may be a scanning type that shares a mirror.

また、ライダ400の構成は、一例として図21に示されるように、光源(例えば半導体レーザ)を含む投光系と、結像光学系及び受光素子を含む受光系とを含む非走査型であっても良い。この場合、光源の発光点及び受光素子の受光エリアの少なくとも一方を複数にすることで、検出領域を分割して検出することが可能となる。 Further, as shown in FIG. 21 as an example, the configuration of the rider 400 is a non-scanning type including a light projecting system including a light source (for example, a semiconductor laser) and a light receiving system including an imaging optical system and a light receiving element. You may. In this case, by making at least one of the light emitting point of the light source and the light receiving area of the light receiving element a plurality, the detection area can be divided and detected.

また、図22に示される変形例2の地図生成・位置計測装置100´´のように、ライダ400と固定(非可動)の単眼カメラ300´の組み合わせを採用しても良い。この場合、立体物の検出は、ライダ400の測定結果を用いて行うことができる。 Further, a combination of the rider 400 and the fixed (non-movable) monocular camera 300 ″ may be adopted as in the map generation / position measuring device 100 ″ of the second modification shown in FIG. 22. In this case, the detection of the three-dimensional object can be performed using the measurement result of the rider 400.

地図生成・位置計測装置100´´では、ライダ400を制御する、例えばFPGAやCPUによって実現される制御手段がライダ400の投光範囲を変更することにより、ライダ400が3次元情報を取得する領域を制御できる(図23参照)。投光範囲の変更は、ライダ400が走査型の場合は、走査位置毎に光源の点灯/消灯を制御することにより行うことができ、ライダ400が非走査型の場合は、光源における点灯させる発光点を選択することにより行うことができる。 In the map generation / position measuring device 100 ″, an area in which the rider 400 acquires three-dimensional information by controlling the rider 400, for example, a control means realized by an FPGA or a CPU changes the projection range of the rider 400. Can be controlled (see FIG. 23). When the lidar 400 is a scanning type, the projection range can be changed by controlling the lighting / extinguishing of the light source for each scanning position, and when the lidar 400 is a non-scanning type, the light emitted by the light source is turned on. This can be done by selecting a point.

また、図24に示される変形例3の地図生成・位置計測装置100´´´のように、ライダ400とステレオカメラ200の組み合わせを採用しても良い。この場合、立体物の検出は、ステレオカメラ200が生成する視差画像やライダ400の測定結果を用いて行うことができる。 Further, a combination of the rider 400 and the stereo camera 200 may be adopted as in the map generation / position measuring device 100 ″ ″ of the modification 3 shown in FIG. 24. In this case, the detection of the three-dimensional object can be performed by using the parallax image generated by the stereo camera 200 or the measurement result of the rider 400.

地図生成・位置計測装置100´´´では、ライダ400を制御する、例えばFPGAやCPUによって実現される制御手段がライダ400の投光範囲を変更することにより、ライダ400が3次元情報を取得する領域を制御できる(図25参照)。 In the map generation / position measuring device 100 ″, the rider 400 acquires three-dimensional information by controlling the rider 400, for example, a control means realized by an FPGA or a CPU changes the projection range of the rider 400. The area can be controlled (see FIG. 25).

また、地図生成・位置計測装置の構成として、ステレオカメラ200とライダ400が一体的に設けられた構成(図26参照)や、可動又は非可動の単眼カメラとライダが一体的に設けられた構成を採用しても良い。このように一体的に設けられた2つの取得手段は、例えば車両のバックミラー近傍や、車両の前側のナンバープレート近傍に取り付けることが可能である。 Further, as a configuration of the map generation / position measuring device, a configuration in which a stereo camera 200 and a rider 400 are integrally provided (see FIG. 26), or a configuration in which a movable or non-movable monocular camera and a rider are integrally provided. May be adopted. The two acquisition means integrally provided in this way can be attached, for example, to the vicinity of the rear-view mirror of the vehicle or the vicinity of the license plate on the front side of the vehicle.

以上の説明から分かるように、本発明の「装置」の一例である地図生成・位置計測装置においては、車両周辺の3次元情報を取得する取得手段の組み合わせとして、多様な組み合わせを採用することが可能である。無論、上記実施形態及び各変形例の組み合わせ以外の組み合わせも採用可能である。特に、立体物を精度良く検出する観点からは、組み合わされた2つの取得手段の少なくとも一方が距離情報を精度良く検出可能なもの(例えばステレオカメラ、ライダ等)であることが好ましい。なお、単眼カメラで時系列に撮影された複数フレームの画像から距離情報を取得することとしても良い。この場合、取得手段の組み合わせとして、2つの単眼カメラの組み合わせを採用することもできる。 As can be seen from the above description, in the map generation / position measuring device which is an example of the "device" of the present invention, various combinations can be adopted as the combination of the acquisition means for acquiring the three-dimensional information around the vehicle. It is possible. Of course, combinations other than the combinations of the above-described embodiment and each modification can also be adopted. In particular, from the viewpoint of accurately detecting a three-dimensional object, it is preferable that at least one of the two combined acquisition means can accurately detect the distance information (for example, a stereo camera, a rider, etc.). It is also possible to acquire the distance information from the images of a plurality of frames taken in time series by the monocular camera. In this case, a combination of two monocular cameras can be adopted as a combination of acquisition means.

以上説明した上記実施形態及び各変形例の地図生成・位置計測装置は、第1の観点からすると、移動体(例えば車両)に搭載される装置であって、移動体の周囲の3次元情報(より詳細には移動体の周囲に存在する物体の3次元位置情報)を取得する第1の取得手段と、該第1の取得手段が3次元情報を取得する領域である第1の取得領域の少なくとも一部の3次元情報を取得する第2の取得手段と、第1の取得手段で取得された、第1の取得領域の3次元情報に基づいて、第2の取得手段が第1の取得領域において3次元情報を取得する領域である第2の取得領域を制御する制御手段と、第1の取得手段で取得された、第1の取得領域の3次元情報と、第2の取得手段で取得された、第2の取得領域の3次元情報とに基づいて、移動体の周囲の環境地図を生成する生成手段と、を備える装置である。 From the first viewpoint, the map generation / position measuring device of the above-described embodiment and each modification is a device mounted on a moving body (for example, a vehicle), and three-dimensional information around the moving body (for example, a vehicle). More specifically, the first acquisition means for acquiring (three-dimensional position information of an object existing around the moving body) and the first acquisition area in which the first acquisition means acquires three-dimensional information. The second acquisition means is the first acquisition based on the second acquisition means for acquiring at least a part of the three-dimensional information and the three-dimensional information of the first acquisition area acquired by the first acquisition means. The control means for controlling the second acquisition area, which is the area for acquiring the three-dimensional information in the area, the three-dimensional information of the first acquisition area acquired by the first acquisition means, and the second acquisition means. It is a device including a generation means for generating an environment map around a moving body based on the acquired three-dimensional information of the second acquisition area.

また、上記実施形態及び各変形例の地図生成・位置計測装置は、第2の観点からすると、移動体(例えば車両)に搭載される装置であって、移動体の周囲の3次元情報(より詳細には移動体の周囲に存在する物体の3次元位置情報)を取得する第1の取得手段と、該第1の取得手段が3次元情報を取得する領域である第1の取得領域の少なくとも一部の3次元情報を取得する第2の取得手段と、第1の取得手段で取得された、第1の取得領域の3次元情報に基づいて、第2の取得手段が第1の取得領域において3次元情報を取得する領域である第2の取得領域を制御する制御手段と、第1の取得手段で取得された、第1の取得領域の3次元情報と、第2の取得手段で取得された、第2の取得領域の3次元情報とに基づいて、移動体の位置を推定する推定手段と、を備える装置である。なお、地図生成・位置計測装置は、移動体の位置に加えて又は代えて、移動体の姿勢(例えばロール角、ピッチ角、ヨー角)や移動体の速度を計測しても良い。移動体の位置に加えて、移動体の姿勢及び速度を計測することにより、車両制御を更に精度良く行うことができる。本明細書中、移動体の位置、姿勢及び速度等の移動体に関する情報を「移動体情報」とも呼ぶ。 Further, the map generation / position measuring device of the above-described embodiment and each modification is a device mounted on a moving body (for example, a vehicle) from the second viewpoint, and three-dimensional information around the moving body (more than that). In detail, at least a first acquisition means for acquiring (three-dimensional position information of an object existing around a moving body) and a first acquisition area in which the first acquisition means acquires three-dimensional information. Based on the second acquisition means for acquiring a part of the three-dimensional information and the three-dimensional information of the first acquisition area acquired by the first acquisition means, the second acquisition means is the first acquisition area. Control means for controlling the second acquisition area, which is an area for acquiring the three-dimensional information, the three-dimensional information of the first acquisition area acquired by the first acquisition means, and the acquisition by the second acquisition means. It is a device including an estimation means for estimating the position of a moving body based on the obtained three-dimensional information of the second acquisition area. The map generation / position measuring device may measure the posture (for example, roll angle, pitch angle, yaw angle) of the moving body and the speed of the moving body in addition to or instead of the position of the moving body. By measuring the posture and speed of the moving body in addition to the position of the moving body, vehicle control can be performed more accurately. In the present specification, information on a moving body such as the position, posture, and speed of the moving body is also referred to as "moving body information".

なお、上記実施形態及び各変形例では、環境地図の生成及び移動体情報の計測の双方を行う地図生成・位置計測装置を例にとって説明したが、本発明の「装置」は、環境地図の生成のみを行う装置であっても良いし、移動体情報の計測のみを行う装置であっても良い。 In the above embodiment and each modification, a map generation / position measuring device that generates both an environmental map and a moving object information has been described as an example, but the "device" of the present invention is an environmental map generation. It may be a device that performs only, or a device that only measures moving object information.

総括すると、本発明の装置は、移動体に搭載される装置であって、移動体の周囲の3次元情報(より詳細には移動体の周囲に存在する物体の3次元位置情報)を取得する第1の取得手段と、第1の取得手段が3次元情報を取得する領域である第1の取得領域の少なくとも一部の3次元情報を取得する第2の取得手段と、第1の取得手段で取得された、第1の取得領域の3次元情報に基づいて、第2の取得手段が第1の取得領域において3次元情報を取得する領域である第2の取得領域を制御する制御手段と、第1の取得手段で取得された、第1の取得領域の3次元情報と、第2の取得手段で取得された、第2の取得領域の3次元情報とに基づいて、移動体の周囲の環境地図の生成及び移動体に関する情報の計測の少なくとも一方を行う手段と、を備える装置である。 In summary, the device of the present invention is a device mounted on a moving body, and acquires three-dimensional information around the moving body (more specifically, three-dimensional position information of an object existing around the moving body). The first acquisition means, the second acquisition means for acquiring at least a part of the three-dimensional information in the first acquisition area, which is the area where the first acquisition means acquires the three-dimensional information, and the first acquisition means. With the control means for controlling the second acquisition area, which is the area in which the second acquisition means acquires the three-dimensional information in the first acquisition area, based on the three-dimensional information of the first acquisition area acquired in , Around the moving body based on the three-dimensional information of the first acquisition area acquired by the first acquisition means and the three-dimensional information of the second acquisition area acquired by the second acquisition means. It is a device provided with a means for generating at least one of the generation of an environmental map of the above and the measurement of information about a moving body.

上記実施形態及び各変形例の地図生成・位置計測装置によれば、第2の取得手段が3次元情報を取得する領域である第2の取得領域を、例えば第1の取得領域のうち静止点が相対的に多い領域に設定することができる。 According to the map generation / position measuring device of the above embodiment and each modification, the second acquisition area, which is the area where the second acquisition means acquires the three-dimensional information, is, for example, a stationary point in the first acquisition area. Can be set in a relatively large area.

この結果、移動体の周囲の環境地図の生成や移動体に関する情報(移動体情報)の計測を安定して精度良く行うことができる。 As a result, it is possible to generate an environmental map around the moving body and measure information about the moving body (moving body information) in a stable and accurate manner.

また、制御手段は、第1の取得領域の3次元情報における特徴点を立体物の特徴点と非立体物の特徴点に分類し、その分類結果に基づいて取得領域を制御することが好ましい。 Further, it is preferable that the control means classifies the feature points in the three-dimensional information of the first acquisition region into the feature points of the three-dimensional object and the feature points of the non-three-dimensional object, and controls the acquisition region based on the classification result.

また、制御手段は、非立体物の特徴点を相対的に多く含む領域を第2の取得領域としても良い。非立体物は、立体物に比べて移動物体である可能性が極めて低く、環境地図の生成や移動体情報の計測に用いるのに適しているからである。 Further, the control means may use a region containing a relatively large number of feature points of the non-three-dimensional object as the second acquisition region. This is because a non-three-dimensional object is extremely unlikely to be a moving object as compared with a three-dimensional object, and is suitable for use in generating an environmental map and measuring moving object information.

また、制御手段は、非立体物の特徴点を相対的に多く含む領域を一の第2の取得領域とし、立体物の特徴点の中で再投影誤差が少ない特徴点を相対的に多く含む領域を他の第2の取得領域とし、一及び他の第2の取得領域の3次元情報を互いに異なるタイミングで第2の取得手段に取得させても良い。 Further, the control means has a region containing a relatively large number of feature points of a non-three-dimensional object as one second acquisition region, and includes a relatively large number of feature points having a small reprojection error among the feature points of the three-dimensional object. The area may be set as another second acquisition area, and the second acquisition means may acquire the three-dimensional information of the first and other second acquisition areas at different timings.

この場合、非立体物の特徴点に加えて、立体物の特徴点のうち移動物体である可能性が低い特徴点(再投影誤差が少ない特徴点)を第2の取得領域に含ませることができ、環境地図の生成や移動体情報の計測に用いる特徴点の数が増え、環境地図の生成や移動体情報の計測を更に精度良く行うことができる。 In this case, in addition to the feature points of the non-three-dimensional object, the feature points of the three-dimensional object that are unlikely to be moving objects (feature points with a small reprojection error) may be included in the second acquisition region. As a result, the number of feature points used for generating an environmental map and measuring moving object information increases, and it is possible to generate an environmental map and measure moving object information with higher accuracy.

また、制御手段は、第1の取得領域の3次元情報から、基準面(例えば車両が走行する路面や歩道の路面)からの高さが3.0m以下の高さの物体のみを立体物として抽出して上記分類を行うことが好ましい。なお、立体物として抽出する物体の高さの上限は、3.0mに限らず、例えば2.5m、2.0m、1.5m等としても良い。 Further, the control means uses only the object having a height of 3.0 m or less from the reference surface (for example, the road surface on which the vehicle travels or the road surface of the sidewalk) as a three-dimensional object from the three-dimensional information of the first acquisition area. It is preferable to extract and perform the above classification. The upper limit of the height of the object to be extracted as a three-dimensional object is not limited to 3.0 m, and may be, for example, 2.5 m, 2.0 m, 1.5 m, or the like.

この場合、歩行者や前方車両などの移動物体の特徴点を排除しつつ、比較的高さのある建物や設置物などの特徴点を非立体物の特徴点と同様に静止物体の特徴点として扱うことができ、環境地図の生成や移動体情報の計測に用いる特徴点の数が増え、環境地図の生成や移動体情報の計測を更に精度良く行うことができる。 In this case, while eliminating the feature points of moving objects such as pedestrians and vehicles in front, the feature points of relatively tall buildings and installations are used as the feature points of stationary objects as well as the feature points of non-three-dimensional objects. It can be handled, the number of feature points used for generating an environmental map and measuring moving object information increases, and it is possible to generate an environmental map and measure moving object information more accurately.

また、第2の取得手段は姿勢変更可能な撮像装置(例えば単眼カメラ)であり、制御手段が撮像装置の姿勢を制御しても良い。 Further, the second acquisition means is an image pickup device (for example, a monocular camera) whose posture can be changed, and the control means may control the posture of the image pickup device.

また、制御手段は、撮像装置の既知の複数の姿勢のうち、第2の取得領域の3次元情報における特徴点の数から、該特徴点のうち立体物の特徴点の数を差し引いた数が最も多い姿勢を目標姿勢として撮像装置の姿勢を制御することが好ましい。 Further, the control means is the number obtained by subtracting the number of the feature points of the three-dimensional object from the number of feature points in the three-dimensional information of the second acquisition region among the plurality of known postures of the image pickup apparatus. It is preferable to control the posture of the imaging device with the most posture as the target posture.

この場合、撮像装置の撮影範囲(画角)に非立体物の特徴点が多く入るため、環境地図の生成や移動体情報の計測を更に精度良く行うことができる。 In this case, since many feature points of non-three-dimensional objects are included in the shooting range (angle of view) of the image pickup apparatus, it is possible to generate an environmental map and measure moving object information with higher accuracy.

また、制御手段は、第2の取得領域の3次元情報における特徴点の位置と撮像装置の内部パラメータとから算出される移動予測値が1以下となる角速度で撮像装置の姿勢を制御することが好ましい。 Further, the control means can control the posture of the image pickup device at an angular velocity at which the movement prediction value calculated from the position of the feature point in the three-dimensional information of the second acquisition region and the internal parameter of the image pickup device is 1 or less. preferable.

この場合、モーションブラーが発生しにくくなり、第1及び第2の取得手段でそれぞれ取得された3次元情報における特徴点の対応付けが容易になる。 In this case, motion blur is less likely to occur, and it becomes easy to associate feature points in the three-dimensional information acquired by the first and second acquisition means, respectively.

また、第2の取得手段はライダであり、制御手段がライダの投光範囲を制御しても良い。この場合、第2の取得領域を制御するために、光源の発光タイミングや発光点の数を制御すれば良いので、撮像装置の姿勢を変更する場合に用いる機構(例えばヒンジ等)や駆動部(例えばモータ)を設ける必要がない。 Further, the second acquisition means is a rider, and the control means may control the light projection range of the rider. In this case, in order to control the second acquisition region, it is sufficient to control the light emission timing of the light source and the number of light emission points, so that a mechanism (for example, a hinge or the like) or a drive unit (for example, a hinge) used when changing the posture of the image pickup apparatus is required. For example, it is not necessary to provide a motor).

また、上記実施形態又は各変形例の地図生成・位置計測装置と、該地図生成・位置計測装置が搭載される移動体(例えば車両)と、を備える移動体装置によれば、移動体の制御を安定して高精度に行うことができる。 Further, according to the mobile device including the map generation / position measurement device of the above embodiment or each modification and the moving body (for example, a vehicle) on which the map generation / position measurement device is mounted, the control of the moving body is provided. Can be performed stably and with high accuracy.

また、上記実施形態及び各変形例の地図生成・位置計測方法は、移動体(例えば車両)の周囲の3次元情報(より詳細には移動体の周囲に存在する物体の3次元位置情報)を取得する第1の取得工程と、第1の取得工程で3次元情報が取得される領域である第1の取得領域の少なくとも一部の3次元情報を取得する第2の取得工程と、第1の取得工程で取得された、第1の取得領域の3次元情報に基づいて、第2の取得工程で第1の取得領域において3次元情報が取得される領域である第2の取得領域を制御する工程と、第1の取得工程で取得された、第1の取得領域の3次元情報と、第2の取得工程で取得された、第2の取得領域の3次元情報とに基づいて、移動体の周囲の環境地図の生成及び前記移動体に関する情報の計測を行う工程と、を含む方法である。 Further, in the map generation / position measurement method of the above-described embodiment and each modification, three-dimensional information around a moving body (for example, a vehicle) (more specifically, three-dimensional position information of an object existing around the moving body) is obtained. The first acquisition step to acquire, the second acquisition step to acquire at least a part of the three-dimensional information of the first acquisition area, which is the area where the three-dimensional information is acquired in the first acquisition step, and the first Based on the three-dimensional information of the first acquisition area acquired in the acquisition process of, the second acquisition area, which is the area in which the three-dimensional information is acquired in the first acquisition area in the second acquisition process, is controlled. The movement is based on the three-dimensional information of the first acquisition area acquired in the first acquisition step and the three-dimensional information of the second acquisition area acquired in the second acquisition step. It is a method including a step of generating an environmental map around the body and measuring information about the moving body.

上記実施形態及び各変形例の地図生成・位置計測方法によれば、第2の取得工程で3次元情報が取得される領域である第2の取得領域を、例えば第1の取得領域のうち静止点が相対的に多い領域に設定することができる。 According to the map generation / position measurement method of the above embodiment and each modification, the second acquisition area, which is the area where the three-dimensional information is acquired in the second acquisition step, is, for example, stationary in the first acquisition area. It can be set in an area with a relatively large number of points.

この結果、環境地図の生成や移動体に関する情報(移動体情報)の計測を安定して精度良く行うことができる。 As a result, it is possible to generate an environmental map and measure information about a moving body (moving body information) in a stable and accurate manner.

なお、上記実施形態及び各変形例では、第2の取得工程で取得された、取得領域の3次元情報に基づいて、移動体の周囲の環境地図の生成及び移動体に関する情報の計測の双方を行っているが、一方のみを行うこととしても良い。 In the above embodiment and each modification, both the generation of the environmental map around the moving body and the measurement of the information about the moving body are performed based on the three-dimensional information of the acquisition area acquired in the second acquisition step. It is done, but it is also possible to do only one.

すなわち、本発明の「方法」は、移動体の周囲の3次元情報(より詳細には移動体の周囲に存在する物体の3次元位置情報)を取得する第1の取得工程と、前記第1の取得工程で3次元情報が取得される領域である第1の取得領域の少なくとも一部の3次元情報を取得する第2の取得工程と、前記第1の取得工程で取得された、前記第1の取得領域の3次元情報に基づいて、前記第2の取得工程で前記第1の取得領域において3次元情報が取得される領域である第2の取得領域を制御する工程と、前記第1の取得工程で取得された、前記第1の取得領域の3次元情報と、前記第2の取得工程で取得された、前記第2の取得領域の3次元情報とに基づいて、前記移動体の周囲の環境地図の生成及び前記移動体に関する情報の計測の少なくとも一方を行う工程と、を含む方法である。 That is, the "method" of the present invention includes a first acquisition step of acquiring three-dimensional information around a moving body (more specifically, three-dimensional position information of an object existing around the moving body), and the first acquisition step. A second acquisition step of acquiring at least a part of the three-dimensional information of the first acquisition area, which is an area in which the three-dimensional information is acquired in the acquisition step of the above, and the first acquisition step acquired in the first acquisition step. A step of controlling a second acquisition area, which is an area in which the three-dimensional information is acquired in the first acquisition area in the second acquisition step, based on the three-dimensional information of the first acquisition area, and the first acquisition step. Based on the three-dimensional information of the first acquisition area acquired in the acquisition step of the above and the three-dimensional information of the second acquisition area acquired in the second acquisition step of the moving body. It is a method including a step of generating an ambient map and at least one of measuring information about the moving body.

また、上記実施形態や各変形例では、地図生成・位置計測装置を自動車に搭載する場合を例にとって説明したが、これに限られない。例えば上記実施形態や各変形例の地図生成・位置計測装置を、自律して移動可能なロボット、自動車以外の車両、船舶、航空機等の移動体に搭載しても良い。この場合も、上記実施形態や各変形例と同様の効果が得られる。 Further, in the above-described embodiment and each modification, the case where the map generation / position measuring device is mounted on an automobile has been described as an example, but the present invention is not limited to this. For example, the map generation / position measuring device of the above embodiment or each modification may be mounted on a moving body such as a robot that can move autonomously, a vehicle other than an automobile, a ship, or an aircraft. In this case as well, the same effects as those of the above-described embodiment and each modification can be obtained.

また、上記実施形態及び各変形例の説明で用いた数値、形状等は、本発明の趣旨を逸脱しない範囲で適宜変更可能である。 In addition, the numerical values, shapes, and the like used in the above-described embodiment and the description of each modification can be appropriately changed without departing from the spirit of the present invention.

以下に、発明者が上記実施形態及び各変形例を発案するに至った思考プロセスについて説明する。 Hereinafter, the thinking process that led to the inventor's idea of the above embodiment and each modification will be described.

従来、車両などの移動体の自動運転において移動体自身の位置、姿勢、速度等の移動体情報を計測する必要があり、そのための一手法として、移動体に取り付けられたカメラを用いて移動体情報を検出するVisual−SLAMと呼ばれる技術がある。Visual−SLAMとは、時系列の映像から環境地図と呼ばれる周囲の静止物体の3次元位置情報を含む環境地図の生成と、移動体情報の推定を同時に行う手法である。 Conventionally, in the automatic operation of a moving body such as a vehicle, it is necessary to measure the moving body information such as the position, posture, and speed of the moving body itself. There is a technique called Visual-SLAM that detects information. Visual-SLAM is a method of simultaneously generating an environmental map including three-dimensional position information of surrounding stationary objects called an environmental map from a time-series image and estimating moving object information.

一般的なVisual−SLAMは画像特徴点を用いて行われ、環境地図にはステレオカメラやマルチビューステレオで3次元計測された画像特徴点の3次元位置情報が含まれている。その画像特徴点の3次元の座標と、その画像特徴点が観測された画像中の座標とを基に移動体情報を推定する手法が既に知られている。 A general Visual-SLAM is performed using image feature points, and the environment map includes three-dimensional position information of the image feature points measured three-dimensionally by a stereo camera or a multi-view stereo. A method of estimating moving object information based on the three-dimensional coordinates of the image feature point and the coordinates in the image in which the image feature point is observed is already known.

しかし、従来のVisual−SLAMにおいては、環境地図に含まれている画像特徴点は絶対的に静止しているという前提があるため、実環境、特に周囲の人や車両等の移動物体が多く存在する環境においては、その前提が崩れてしまい移動体情報の推定精度が低下することが懸念される。 However, in the conventional Visual-SLAM, since it is premised that the image feature points included in the environment map are absolutely stationary, there are many moving objects such as people and vehicles in the actual environment. In such an environment, there is a concern that the premise will be broken and the estimation accuracy of mobile information will decrease.

特に、車両に関する情報(例えば車両の位置、姿勢、速度等)を計測する場合や車両周辺の環境地図を生成する場合は、車両前方に先行車両があったり、車両前方を横断する車両があったりすると、画像の大半が速度を持つ画像特徴点で埋め尽くされてしまうことがあるため、取得する画像特徴点の中に3次元位置が不確かな画像特徴点が多く混ざってしまい環境地図の生成や車両に関する情報の計測の精度が著しく低下することが懸念される。すなわち、移動物体の特徴点を用いて環境地図の生成や移動体情報の計測を行うと、移動物体の3次元位置が不確かであるため、環境地図の生成や移動体情報の計測の精度が低下することが懸念される。 In particular, when measuring information about a vehicle (for example, the position, attitude, speed, etc. of the vehicle) or when generating an environmental map around the vehicle, there may be a vehicle in front of the vehicle or a vehicle crossing the front of the vehicle. Then, most of the image may be filled with image feature points with speed, so many image feature points with uncertain three-dimensional positions are mixed in the acquired image feature points, and an environmental map is generated. There is concern that the accuracy of measuring information about the vehicle will be significantly reduced. That is, when the environmental map is generated and the moving object information is measured using the feature points of the moving object, the accuracy of the environmental map generation and the measurement of the moving object information is lowered because the three-dimensional position of the moving object is uncertain. There is concern about doing so.

そこで、カメラに広角のレンズを利用し、画像中で動いている物体の領域を相対的に小さくする方法を用いることが考えられるが、この場合、空間分解能が下がり、位置、姿勢、速度推定の分解能が下がることが懸念される。 Therefore, it is conceivable to use a wide-angle lens for the camera and make the area of the moving object relatively small in the image. In this case, the spatial resolution is lowered and the position, orientation, and velocity are estimated. There is concern that the resolution will decrease.

また、特許文献1(特開2016−157197号公報)は、自己位置の推定に用いる初期の環境地図を生成して精度良く自己位置を推定することができる自己位置推定装置、自己位置推定方法およびプログラムを提供することを目的としている。特許文献1では、この目的を達成するために、画像入力部(カメラ)11から順に入力された時系列画像から物体の特徴点を抽出して、抽出した特徴点を追跡して移動ベクトルを算出する。そして、算出された特徴点の移動ベクトルの長さ及び方向に基づいて、特徴点が移動物体であるか否かを判定し、特徴点が移動物体であると判定した場合、特徴点に対応する物体を時系列画像から除去し、除去されなかった特徴点の物体の世界座標系における座標を含む地図情報を生成し、生成した地図情報に基づいて自己位置を推定している。すなわち、特許文献1では、移動物体を環境地図生成や移動体情報計測のための特徴点抽出領域から除外している。 Further, Patent Document 1 (Japanese Unexamined Patent Publication No. 2016-157197) describes a self-position estimation device, a self-position estimation method, and a self-position estimation device capable of generating an initial environmental map used for self-position estimation and estimating the self-position with high accuracy. The purpose is to provide a program. In Patent Document 1, in order to achieve this object, feature points of an object are extracted from a time-series image input in order from an image input unit (camera) 11, and the extracted feature points are tracked to calculate a movement vector. To do. Then, based on the calculated length and direction of the movement vector of the feature point, it is determined whether or not the feature point is a moving object, and when it is determined that the feature point is a moving object, it corresponds to the feature point. The object is removed from the time-series image, map information including the coordinates of the object of the feature point not removed in the world coordinate system is generated, and the self-position is estimated based on the generated map information. That is, in Patent Document 1, a moving object is excluded from the feature point extraction region for generating an environmental map and measuring moving object information.

しかし、特許文献1においても、画像の大半を移動物体が占めているような状況において、静止した特徴点を抽出できず、地図情報や自己位置推定の精度が低下することが懸念される。 However, even in Patent Document 1, in a situation where a moving object occupies most of the image, it is not possible to extract stationary feature points, and there is a concern that the accuracy of map information and self-position estimation will decrease.

そこで、発明者は、Visual−SLAMにおいて、移動体の周囲に移動物体がある環境でも効率的に精度の高い環境地図を生成し、精度の高い位置推定を実現すべく上記実施形態及び各変形例を発案するに至った。 Therefore, in Visual-SLAM, the inventor efficiently generates a highly accurate environment map even in an environment where there is a moving object around the moving body, and in order to realize highly accurate position estimation, the above-described embodiment and each modification Came to the idea.

例えば、上記実施形態の地図生成・位置計測装置100は、ステレオカメラ200と該ステレオカメラ200の視野内を撮影する単眼カメラ300とを備え、ステレオカメラ200で撮影された画像特徴点を静止している特徴点と運動している特徴点に分類し、画像中の領域内で静止している特徴点の数に応じて、単眼カメラ300の向きを制御し、単眼カメラ300で撮影した画像からステレオカメラ200で観測された特徴点を検出する処理を行い、ステレオカメラ200の観測情報と単眼カメラ300の観測情報を用いて、環境地図の生成や自己位置検出を行う。 For example, the map generation / position measuring device 100 of the above embodiment includes a stereo camera 200 and a monocular camera 300 that captures the inside of the field of view of the stereo camera 200, and stationary image feature points captured by the stereo camera 200. It is classified into a feature point that is present and a feature point that is moving, and the orientation of the monocular camera 300 is controlled according to the number of feature points that are stationary in the area in the image, and the image taken by the monocular camera 300 is stereo. The processing for detecting the feature points observed by the camera 200 is performed, and the environment map is generated and the self-position is detected by using the observation information of the stereo camera 200 and the observation information of the monocular camera 300.

1…移動体装置、10…車両(移動体)、100…地図生成・位置計測装置(装置)、200…ステレオカメラ、300、300´…単眼カメラ、300b…カメラ姿勢制御部(制御手段)、400…ライダ、位置計測部520(手段)。 1 ... Mobile device, 10 ... Vehicle (moving body), 100 ... Map generation / position measurement device (device), 200 ... Stereo camera, 300, 300'... Monocular camera, 300b ... Camera attitude control unit (control means), 400 ... Rider, position measurement unit 520 (means).

特開2016−157197号公報Japanese Unexamined Patent Publication No. 2016-157197

Claims (7)

移動体に搭載される装置であって、
前記移動体の周囲の3次元情報を取得する第1の取得手段と、
前記第1の取得手段が3次元情報を取得する領域である第1の取得領域の少なくとも一部の3次元情報を取得する第2の取得手段と、
前記第1の取得手段で取得された、前記第1の取得領域の3次元情報における特徴点を立体物の特徴点と非立体物の特徴点とに分類し、その分類結果に基づいて、前記第2の取得手段が前記第1の取得領域において3次元情報を取得する領域である第2の取得領域を制御する制御手段と、
前記第1の取得手段で取得された、前記第1の取得領域の3次元情報と、前記第2の取得手段で取得された、前記第2の取得領域の3次元情報とに基づいて、前記移動体の周囲の環境地図の生成及び前記移動体に関する情報の計測の少なくとも一方を行う手段と、を備え
前記制御手段は、前記非立体物の特徴点を相対的に多く含む領域を前記第2の取得領域とすることを特徴とする装置。
A device mounted on a moving body
A first acquisition means for acquiring three-dimensional information around the moving body, and
A second acquisition means for acquiring at least a part of the first acquisition area, which is an area in which the first acquisition means acquires three-dimensional information, and a second acquisition means.
The acquired by the first acquisition means, and classifying the feature points definitive three-dimensional information of the first acquisition region to the feature points of the feature point and the non-solid objects of the three-dimensional object, on the basis of the classification result, A control means for controlling the second acquisition area, which is an area in which the second acquisition means acquires three-dimensional information in the first acquisition area,
Based on the three-dimensional information of the first acquisition area acquired by the first acquisition means and the three-dimensional information of the second acquisition area acquired by the second acquisition means, the said A means for generating an environmental map around the moving body and measuring at least one of the information about the moving body .
The control means is a device characterized in that a region containing a relatively large number of feature points of the non-three-dimensional object is set as the second acquisition region .
前記制御手段は、
前記立体物の特徴点の中で再投影誤差が少ない特徴点を相対的に多く含む領域を他の前記第2の取得領域とし、
前記一及び他の第2の取得領域の3次元情報を互いに異なるタイミングで前記第2の取得手段に取得させることを特徴とする請求項に記載の装置。
The control means
Among the feature points of the three-dimensional object, a region containing a relatively large number of feature points having a small reprojection error is defined as the other second acquisition region.
Apparatus according to claim 1, characterized in that to get into the second acquisition means at different timings three-dimensional information of said one and other second acquisition region.
前記制御手段は、前記第1の取得領域の3次元情報から、基準面からの高さが3.0m以下の高さの物体のみを立体物として抽出して前記分類を行うことを特徴とする請求項1または2に記載の装置。 The control means is characterized in that only an object having a height of 3.0 m or less from a reference plane is extracted as a three-dimensional object from the three-dimensional information of the first acquisition region and the classification is performed. The device according to claim 1 or 2. 前記第2の取得手段は、姿勢変更可能な撮像装置であり、
前記制御手段は、前記撮像装置の姿勢を制御することを特徴とする請求項1〜3のいずれか一項に記載の装置。
The second acquisition means is an image pickup device whose posture can be changed.
The device according to any one of claims 1 to 3, wherein the control means controls the posture of the image pickup device.
前記制御手段は、前記撮像装置の既知の複数の姿勢のうち、前記第2の取得領域の3次元情報における特徴点の数から、該特徴点のうち前記立体物の特徴点の数を差し引いた数が最も多い姿勢を目標姿勢として前記撮像装置の姿勢を制御することを特徴とする請求項に記載の装置。 The control means subtracts the number of feature points of the three-dimensional object from the feature points in the three-dimensional information of the second acquisition region from the plurality of known postures of the image pickup device. The device according to claim 4 , wherein the posture of the imaging device is controlled with the posture having the largest number as a target posture. 請求項1〜5のいずれか一項に記載の装置と、
前記装置が搭載される移動体と、を備える移動体装置。
The device according to any one of claims 1 to 5.
A mobile device including a mobile body on which the device is mounted.
移動体の周囲の3次元情報を取得する第1の取得工程と、
前記第1の取得工程で3次元情報が取得される領域である第1の取得領域の少なくとも一部の3次元情報を取得する第2の取得工程と、
前記第1の取得工程で取得された、前記第1の取得領域の3次元情報における特徴点を立体物の特徴点と非立体物の特徴点に分類し、その分類結果に基づいて、前記第2の取得工程で前記第1の取得領域において3次元情報が取得される領域である第2の取得領域を制御する工程と、
前記第1の取得工程で取得された、前記第1の取得領域の3次元情報と、前記第2の取得工程で取得された、前記第2の取得領域の3次元情報とに基づいて、前記移動体の周囲の環境地図の生成及び前記移動体に関する情報の計測の少なくとも一方を行う工程と、を含み、
前記制御する工程は、前記非立体物の特徴点を相対的に多く含む領域を前記第2の取得領域とすることを特徴とする方法。
The first acquisition process to acquire the three-dimensional information around the moving body, and
A second acquisition step of acquiring at least a part of the three-dimensional information of the first acquisition area, which is an area in which the three-dimensional information is acquired in the first acquisition step,
The feature points in the three-dimensional information of the first acquisition region acquired in the first acquisition step are classified into the feature points of the three-dimensional object and the feature points of the non-three-dimensional object, and based on the classification result, the first In the second acquisition step, a step of controlling a second acquisition area, which is an area in which three-dimensional information is acquired in the first acquisition area, and a step of controlling the second acquisition area.
Based on the three-dimensional information of the first acquisition region acquired in the first acquisition step and the three-dimensional information of the second acquisition region acquired in the second acquisition step, the said and performing at least one of measurement information on the generation and the moving body environment map around the moving body, only including,
The control step is a method characterized in that a region containing a relatively large number of feature points of the non-three-dimensional object is set as the second acquisition region.
JP2017034016A 2017-02-24 2017-02-24 Equipment, mobile equipment and methods Active JP6880822B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017034016A JP6880822B2 (en) 2017-02-24 2017-02-24 Equipment, mobile equipment and methods

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017034016A JP6880822B2 (en) 2017-02-24 2017-02-24 Equipment, mobile equipment and methods

Publications (2)

Publication Number Publication Date
JP2018139084A JP2018139084A (en) 2018-09-06
JP6880822B2 true JP6880822B2 (en) 2021-06-02

Family

ID=63450856

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017034016A Active JP6880822B2 (en) 2017-02-24 2017-02-24 Equipment, mobile equipment and methods

Country Status (1)

Country Link
JP (1) JP6880822B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020000141A1 (en) * 2018-06-25 2020-01-02 Beijing Didi Infinity Technology And Development Co., Ltd. A high-definition map acquisition system
JP7313454B2 (en) * 2019-09-02 2023-07-24 古野電気株式会社 RELATIVE POSITION MEASURING DEVICE, RELATIVE POSITION MEASURING METHOD, AND RELATIVE POSITION MEASURING PROGRAM
JP2021043486A (en) 2019-09-06 2021-03-18 株式会社東芝 Position estimating device
JP7175252B2 (en) * 2019-10-29 2022-11-18 ヤンマーパワーテクノロジー株式会社 Ship docking support device
JP7337458B2 (en) 2020-01-28 2023-09-04 アルパイン株式会社 3D position estimation device and 3D position estimation method
JP7400708B2 (en) 2020-12-11 2023-12-19 トヨタ自動車株式会社 Sensor evaluation system, sensor evaluation device, vehicle

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001094975A (en) * 1999-09-20 2001-04-06 Hitachi Ltd Mobile object tracing method and device
JP5963353B2 (en) * 2012-08-09 2016-08-03 株式会社トプコン Optical data processing apparatus, optical data processing system, optical data processing method, and optical data processing program
JP6225889B2 (en) * 2014-11-19 2017-11-08 株式会社豊田中央研究所 Vehicle position estimation apparatus and program
JP2016177388A (en) * 2015-03-18 2016-10-06 株式会社リコー Mobile object position/attitude measuring apparatus

Also Published As

Publication number Publication date
JP2018139084A (en) 2018-09-06

Similar Documents

Publication Publication Date Title
JP6880822B2 (en) Equipment, mobile equipment and methods
CN106643699B (en) Space positioning device and positioning method in virtual reality system
ES2747387B1 (en) DEVICE AND METHOD TO OBTAIN DEPTH INFORMATION FROM A SCENE.
NL2010463C2 (en) METHOD FOR GENERATING A PANORAMA IMAGE
KR101947619B1 (en) Slam on a mobile device
CA2577840C (en) A method for automated 3d imaging
TWI496108B (en) AR image processing apparatus and method
US20120045100A1 (en) Position measuring apparatus, position measuring method, image processing apparatus and image processing method
KR20200071960A (en) Method and Apparatus for Vehicle Detection Using Lidar Sensor and Camera Convergence
JP2008096162A (en) Three-dimensional distance measuring sensor and three-dimensional distance measuring method
JP6969121B2 (en) Imaging system, image processing device and image processing program
CN108364304A (en) A kind of system and method for the detection of monocular airborne target
US20230138487A1 (en) An Environment Model Using Cross-Sensor Feature Point Referencing
JP2022089269A (en) Calibration device and calibration method
KR20150125862A (en) Apparatus for augmented reality using 3d reconstruction and mehhod thereof
JP2009258058A (en) Three-dimensional object position measuring device
JP2023505891A (en) Methods for measuring environmental topography
Gehrig et al. 6D vision goes fisheye for intersection assistance
Shan et al. Probabilistic egocentric motion correction of lidar point cloud and projection to camera images for moving platforms
CN110849285A (en) Welding spot depth measuring method, system and medium based on monocular camera
JP4918675B2 (en) 3D coordinate measurement method
KR101163453B1 (en) Measuring method of distance from object using laser sensor and vision sensor
KR20220078447A (en) Operation method of image restoration apparatus for restoring low-density area
CN208314856U (en) A kind of system for the detection of monocular airborne target
CN110969652A (en) Shooting method and system based on mechanical arm monocular camera serving as binocular stereoscopic vision

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191220

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210419

R151 Written notification of patent or utility model registration

Ref document number: 6880822

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151