JP2021149396A - Map generation apparatus, position estimation apparatus, vehicle control system, map generation method, computer program, and position estimation method - Google Patents

Map generation apparatus, position estimation apparatus, vehicle control system, map generation method, computer program, and position estimation method Download PDF

Info

Publication number
JP2021149396A
JP2021149396A JP2020047487A JP2020047487A JP2021149396A JP 2021149396 A JP2021149396 A JP 2021149396A JP 2020047487 A JP2020047487 A JP 2020047487A JP 2020047487 A JP2020047487 A JP 2020047487A JP 2021149396 A JP2021149396 A JP 2021149396A
Authority
JP
Japan
Prior art keywords
vehicle
map
feature points
unit
vehicle speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020047487A
Other languages
Japanese (ja)
Other versions
JP7393987B2 (en
Inventor
彰司 浅井
Shoji Asai
彰司 浅井
和孝 早川
Kazutaka Hayakawa
和孝 早川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Aisin Corp
Original Assignee
Toyota Central R&D Labs Inc
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc, Aisin Corp filed Critical Toyota Central R&D Labs Inc
Priority to JP2020047487A priority Critical patent/JP7393987B2/en
Publication of JP2021149396A publication Critical patent/JP2021149396A/en
Application granted granted Critical
Publication of JP7393987B2 publication Critical patent/JP7393987B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To efficiently and stably implement automatic drive control of a vehicle.SOLUTION: A map generation apparatus includes: an in-vehicle camera which is mounted on a vehicle to image an environment surrounding the vehicle; a detection unit which detects feature points from images captured by the in-vehicle camera; a calculation unit which calculates a three-dimensional position of the same feature point included in a plurality of captured images by using position and attitude of the in-vehicle camera; a vehicle speed control unit which controls a maximum speed of the vehicle so that the same feature point may be included in a plurality of captured images, by using the position and attitude of the in-vehicle camera and an azimuth to the position of the feature point calculated by the calculation unit; and a map generation unit which generates a map including information on three-dimensional positions by using the three-dimensional positions of different feature points calculated from each of the captured images.SELECTED DRAWING: Figure 1

Description

本発明は、地図作成装置、位置推定装置、車両制御システム、地図作成方法、コンピュータプログラム、および位置推定方法に関する。 The present invention relates to a cartographic device, a position estimation device, a vehicle control system, a cartographic method, a computer program, and a position estimation method.

車両に搭載された車載カメラの撮影画像内の特徴点を用いて、車両の自動運転を行う自動運転制御装置が知られている(例えば、特許文献1参照)。特許文献1に記載された自動運転制御装置は、車載カメラにより撮影された特徴点を用いて、駐車枠線のない駐車スペースに車両を駐車させる。 An automatic driving control device that automatically drives a vehicle by using feature points in an image captured by an in-vehicle camera mounted on the vehicle is known (see, for example, Patent Document 1). The automatic driving control device described in Patent Document 1 parks a vehicle in a parking space without a parking border by using feature points photographed by an in-vehicle camera.

特許第6564713号公報Japanese Patent No. 6564713

特許文献1に記載された装置は、運転者の手動運転時に撮影された撮影画像内から特徴点を検出し、検出した特徴点を用いて駐車スペースの地図を作成する。特徴点の検出時に、車両速度が速いと、地図作成のために必要な特徴点を検出できず、自動運転を実現できないおそれがある。一方で、特徴点検出時の車両速度を遅くし過ぎてしまうと、地図を作成するために必要以上の時間がかかるおそれがある。そのため、自動運転制御を効率的かつ安定的に実現したい課題があった。 The device described in Patent Document 1 detects feature points in a captured image taken during manual driving by a driver, and creates a map of a parking space using the detected feature points. If the vehicle speed is high when detecting feature points, the feature points required for map creation cannot be detected, and automatic driving may not be realized. On the other hand, if the vehicle speed at the time of detecting the feature point is too slow, it may take longer than necessary to create the map. Therefore, there is a problem that it is desired to realize automatic operation control efficiently and stably.

本発明は、上述した課題を解決するためになされたものであり、自動運転制御を効率的かつ安定的に実現するための技術を提供することを目的とする。 The present invention has been made to solve the above-mentioned problems, and an object of the present invention is to provide a technique for efficiently and stably realizing automatic driving control.

本発明は、上述の課題を解決するためになされたものであり、以下の形態として実現できる。 The present invention has been made to solve the above-mentioned problems, and can be realized as the following forms.

(1)本発明の一形態によれば、地図作成装置が提供される。この地図作成装置は、車両に搭載され、前記車両の周辺の環境を撮影する車載カメラと、前記車載カメラにより撮影された撮影画像から特徴点を検出する検出部と、前記車載カメラの位置および姿勢を用いて、複数の前記撮影画像に含まれる同一の前記特徴点の三次元位置を算出する算出部と、前記車載カメラの位置および姿勢と、前記算出部により算出された前記特徴点の位置への方位角とを用いて、同一の前記特徴点が前記複数の撮影画像に含まれるように、前記車両の上限車速を制御する車速制御部と、前記複数の撮影画像からそれぞれ算出された複数の異なる前記特徴点の三次元位置を用いて、各前記三次元位置の情報を含む地図を作成する地図作成部と、を備える。 (1) According to one embodiment of the present invention, a cartographic device is provided. This map-creating device is mounted on a vehicle and has an in-vehicle camera that captures the environment around the vehicle, a detection unit that detects feature points from an image captured by the in-vehicle camera, and a position and orientation of the in-vehicle camera. To the calculation unit that calculates the three-dimensional position of the same feature point included in the plurality of captured images, the position and orientation of the in-vehicle camera, and the position of the feature point calculated by the calculation unit. A vehicle speed control unit that controls the upper limit vehicle speed of the vehicle so that the same feature point is included in the plurality of captured images by using the azimuth angle of the vehicle, and a plurality of images calculated from the plurality of captured images. A map creation unit that creates a map including information on each of the three-dimensional positions by using three-dimensional positions of the different feature points is provided.

この構成によれば、上限車速が設定されることにより、最小限の減速の下で、異なる地点で撮影された同一の特徴点が複数の撮影画像に含まれる。これにより、三角測量の原理に基づいて、地図を作成するために必要な特徴点の三次元位置の情報が十分に得られ、安定的に複数の特徴点の位置情報を含む地図が作成される。このように、最小限の減速の下で、複数の特徴点の位置情報を含む地図が安定的に作成されることにより、自動運転制御における地図内の情報の欠落を抑制することができ、車両の自動運転制御が効率的かつ安定的に実現される。 According to this configuration, by setting the upper limit vehicle speed, the same feature points taken at different points are included in a plurality of captured images under the minimum deceleration. As a result, based on the principle of triangulation, sufficient information on the three-dimensional positions of the feature points necessary for creating a map can be obtained, and a map containing the position information of a plurality of feature points can be stably created. .. In this way, by stably creating a map containing the position information of a plurality of feature points under the minimum deceleration, it is possible to suppress the loss of information in the map in the automatic driving control, and the vehicle. Automatic operation control is realized efficiently and stably.

(2)上記態様の地図作成装置において、前記車速制御部は、前記車載カメラのフレームレートおよび画角を用いて、予め設定された枚数以上の前記撮影画像において、同一の前記特徴点が検出される車速以下となるように、前記上限車速を設定してもよい。
この構成によれば、車載カメラのフレームレートおよび画角を用いて、地図を作成するために必要最低限の車速に上限車速を留める。これにより、最小限の減速の下、複数の特徴点の位置情報を含む地図がより効率的に作成される。
(2) In the cartography apparatus of the above aspect, the vehicle speed control unit detects the same feature points in the captured images of a preset number or more by using the frame rate and the angle of view of the vehicle-mounted camera. The upper limit vehicle speed may be set so as to be equal to or lower than the vehicle speed.
According to this configuration, the upper limit vehicle speed is kept at the minimum vehicle speed necessary for creating a map by using the frame rate and the angle of view of the vehicle-mounted camera. As a result, a map containing position information of a plurality of feature points is created more efficiently with a minimum deceleration.

(3)上記態様の地図作成装置において、前記車速制御部は、出発地から目的地までの経路のうち、前記地図作成部による前記地図の作成区間に限って、前記上限車速を制御してもよい。
この構成によれば、地図を作成しない区間では、車両の上限車速が設定されないため、作成区間では地図が安定的に作成された上で、車両の運転が必要以上に制限されずに済む。
(3) In the map creation device of the above aspect, the vehicle speed control unit may control the upper limit vehicle speed only in the map creation section of the route from the departure point to the destination. good.
According to this configuration, since the upper limit vehicle speed of the vehicle is not set in the section where the map is not created, the map is stably created in the created section, and the driving of the vehicle is not restricted more than necessary.

(4)本発明の他の一形態によれば、位置推定装置が提供される。この位置推定装置は、車両に搭載され、前記車両の周辺の環境を撮影する車載カメラと、複数の特徴点の三次元位置の情報を含む地図を記憶している地図記憶部と、前記車載カメラにより撮影された撮影画像から特徴点を検出する検出部と、前記車載カメラの位置および姿勢と、前記検出部により検出された前記特徴点の位置への方位角とを用いて、同一の前記特徴点が前記複数の撮影画像に含まれるように、前記車両の上限車速を制御する車速制御部と、前記車速制御部により前記上限車速が制御されている状態で、前記検出部により検出された前記特徴点を、前記地図記憶部に記憶された前記地図内の前記特徴点に照合することにより、前記車両の位置を推定する位置推定部と、を備える。
この構成によれば、車載カメラの撮影画像から特徴点が検出される際に、車速が上限車速以下に設定されている。そのため、走行中の連続する撮影画像間で同一の特徴点を追跡できるため、車両の現在位置が安定的に推定される。これにより、車両において自動運転制御が安定的に行われる。
(4) According to another aspect of the present invention, a position estimation device is provided. This position estimation device includes an in-vehicle camera that is mounted on the vehicle and captures the environment around the vehicle, a map storage unit that stores a map including information on three-dimensional positions of a plurality of feature points, and the in-vehicle camera. The same feature using the detection unit that detects the feature point from the captured image captured by the camera, the position and orientation of the in-vehicle camera, and the azimuth angle to the position of the feature point detected by the detection unit. The vehicle speed control unit that controls the upper limit vehicle speed of the vehicle and the detection unit that detects the upper limit vehicle speed while the upper limit vehicle speed is controlled by the vehicle speed control unit so that the points are included in the plurality of captured images. It includes a position estimation unit that estimates the position of the vehicle by collating the feature points with the feature points in the map stored in the map storage unit.
According to this configuration, the vehicle speed is set to be equal to or lower than the upper limit vehicle speed when the feature point is detected from the image taken by the vehicle-mounted camera. Therefore, the same feature point can be tracked between consecutive captured images during traveling, so that the current position of the vehicle can be estimated stably. As a result, automatic driving control is stably performed in the vehicle.

(5)本発明の他の一形態によれば、車両制御システムが提供される。この車両制御システムは、上記記載の位置推定装置と、前記車両の過去の走行軌跡を記憶する軌跡記憶部と、前記車両が走行する経路が前記軌跡記憶部に記憶されている前記走行軌跡に対応する経路と同じである場合に、前記位置推定部により推定された前記車両の位置を、前記走行軌跡に追従させるように前記車両を制御する追従制御部と、を備える。
この構成によれば、過去の走行軌跡に追従した車両の自動運転を実現できる。
(5) According to another aspect of the present invention, a vehicle control system is provided. This vehicle control system corresponds to the position estimation device described above, a locus storage unit that stores the past travel locus of the vehicle, and the travel locus in which the route on which the vehicle travels is stored in the locus storage unit. The vehicle is provided with a tracking control unit that controls the vehicle so that the position of the vehicle estimated by the position estimation unit follows the traveling locus when the route is the same as the route to be performed.
According to this configuration, it is possible to realize automatic driving of the vehicle that follows the past traveling locus.

なお、本発明は、種々の態様で実現することが可能であり、例えば、地図作成装置、位置推定装置、および車両制御システムおよびこれらの装置を備える車両、および地図作成方法、位置推定方法、これら装置や方法を実行するためのコンピュータプログラム、このコンピュータプログラムを配布するためのサーバ装置、コンピュータプログラムを記憶した一時的でない記憶媒体等の形態で実現することができる。 The present invention can be realized in various aspects, for example, a map-making device, a position estimation device, a vehicle control system, a vehicle provided with these devices, a map-making method, a position estimation method, and the like. It can be realized in the form of a computer program for executing the device or method, a server device for distributing the computer program, a non-temporary storage medium for storing the computer program, or the like.

本発明の第1実施形態としての地図作成システムの概略ブロック図である。It is a schematic block diagram of the cartography system as the 1st Embodiment of this invention. 車載カメラの位置および姿勢の変化量についての説明図である。It is explanatory drawing about the change amount of the position and posture of an in-vehicle camera. 車載カメラの位置および姿勢の変化量についての説明図である。It is explanatory drawing about the change amount of the position and posture of an in-vehicle camera. 撮影画像から検出される特徴点と上限車速との関係についての説明図である。It is explanatory drawing about the relationship between the feature point detected from a photographed image, and the upper limit vehicle speed. 撮影画像から検出される特徴点と上限車速との関係についての説明図である。It is explanatory drawing about the relationship between the feature point detected from a photographed image, and the upper limit vehicle speed. 撮影画像から検出される特徴点と上限車速との関係についての説明図である。It is explanatory drawing about the relationship between the feature point detected from a photographed image, and the upper limit vehicle speed. 地図作成部により作成される地図についての説明図である。It is explanatory drawing about the map created by the map making part. 地図作成部により作成される地図についての説明図である。It is explanatory drawing about the map created by the map making part. 地図作成方法のフローチャートである。It is a flowchart of a map making method. 算出工程のサブフローのフローチャートである。It is a flowchart of the subflow of the calculation process. 第2実施形態の車両制御システムの概略ブロック図である。It is a schematic block diagram of the vehicle control system of the 2nd Embodiment. 車両制御方法のフローチャートである。It is a flowchart of a vehicle control method. 位置推定工程のサブフローのフローチャートである。It is a flowchart of the subflow of the position estimation process.

<第1実施形態>
図1は、本発明の第1実施形態としての地図作成システム100の概略ブロック図である。地図作成システム(地図作成装置)100は、車両10に搭載された車載カメラ11の撮影画像を用いて、車庫などの三次元構造の情報を含む地図を作成する。図1に示されるように、地図作成システム100は、車両10の後方周辺の環境を撮影する車載カメラ11と、車両10に搭載された制御装置20と、を備えている。
<First Embodiment>
FIG. 1 is a schematic block diagram of a cartography system 100 as a first embodiment of the present invention. The map creation system (map creation device) 100 creates a map including information on a three-dimensional structure such as a garage by using images taken by an in-vehicle camera 11 mounted on the vehicle 10. As shown in FIG. 1, the cartography system 100 includes an in-vehicle camera 11 that captures the environment around the rear of the vehicle 10 and a control device 20 mounted on the vehicle 10.

車載カメラ11は、単眼カメラである。本実施形態の車載カメラ11の画角は、水平100°、垂直55°、対角125°である。また、車載カメラ11のフレームレートは、30.0fpsである。制御装置20は、車載カメラ11により撮影された撮影画像を用いて、車両10に対して各種制御を行う。 The in-vehicle camera 11 is a monocular camera. The angle of view of the vehicle-mounted camera 11 of the present embodiment is horizontal 100 °, vertical 55 °, and diagonal 125 °. The frame rate of the vehicle-mounted camera 11 is 30.0 fps. The control device 20 performs various controls on the vehicle 10 by using the captured image captured by the vehicle-mounted camera 11.

図1に示されるように、制御装置20は、ユーザの各種操作を受け付ける入力部60と、各種画像を表示するモニタおよび音声を出力するスピーカで構成される出力部70と、CPU(Central Processing Unit)30と、ROM(Read Only Memory)21と、RAM(Random Access Memory)22と、各種情報を記憶する記憶部40と、を備えている。 As shown in FIG. 1, the control device 20 includes an input unit 60 that receives various operations of the user, an output unit 70 that includes a monitor that displays various images and a speaker that outputs audio, and a CPU (Central Processing Unit). ) 30, a ROM (Read Only Memory) 21, a RAM (Random Access Memory) 22, and a storage unit 40 for storing various information.

本実施形態の入力部60は、キーボードと、音声入力を受け付けるマイクとにより構成されている。CPU30は、ROM21に格納されているコンピュータプログラムをRAM22に展開して実行することにより、検出部31、算出部32、車速制御部33、および地図作成部34として機能する。 The input unit 60 of the present embodiment includes a keyboard and a microphone that receives voice input. The CPU 30 functions as a detection unit 31, a calculation unit 32, a vehicle speed control unit 33, and a map creation unit 34 by expanding and executing a computer program stored in the ROM 21 in the RAM 22.

記憶部40は、ハードディスクドライブ(HDD:Hard Disk Drive)などで構成されている。記憶部40は、経路案内に使用される地図データを記憶している地図データベース(地図DB)42を備えている。地図DB42は、さらに、後述する地図作成部34により作成される三次元情報を含む地図データも記憶する。 The storage unit 40 is composed of a hard disk drive (HDD: Hard Disk Drive) or the like. The storage unit 40 includes a map database (map DB) 42 that stores map data used for route guidance. The map DB 42 also stores map data including three-dimensional information created by the map creation unit 34, which will be described later.

検出部31は、車載カメラ11により撮影された複数の撮影画像のそれぞれから、FAST(Features from Accelerated Segment Test)アルゴリズムなどを用いて、特徴点を検出する。ここで「特徴点」とは、撮影画像の特徴を表す点(例えば、撮影画像中の建造物の角部等)を意味する。算出部32は、車載カメラ11の位置および姿勢を用いて、検出部31により検出された特徴点の三次元位置を算出する。本実施形態の算出部32は、ORB(Oriented FAST and Rotated BRIEF)等を用いて、複数の撮影画像に含まれる同一の特徴点を対応付ける。 The detection unit 31 detects feature points from each of the plurality of captured images captured by the vehicle-mounted camera 11 by using a FAST (Features from Accelerated Segment Test) algorithm or the like. Here, the "feature point" means a point representing the feature of the photographed image (for example, a corner of a building in the photographed image). The calculation unit 32 calculates the three-dimensional position of the feature point detected by the detection unit 31 using the position and orientation of the vehicle-mounted camera 11. The calculation unit 32 of the present embodiment associates the same feature points included in a plurality of captured images by using an ORB (Oriented FAST and Rotated BRIEF) or the like.

図2および図3は、車載カメラ11の位置および姿勢の変化量についての説明図である。車載カメラ11が起動すると、初めに、ワールド座標系における車載カメラ11の位置および姿勢を特定する必要がある。そのため、初めに、検出部31が、図2に示される(n−1)番目の撮影画像IMn-1を1番目の画像として、FAST等により特徴点画像FP1を検出する。算出部32は、検出された特徴点画像FP1に対して、OBR等によって特徴量を算出する。 2 and 3 are explanatory views of the amount of change in the position and posture of the vehicle-mounted camera 11. When the vehicle-mounted camera 11 is activated, it is first necessary to specify the position and orientation of the vehicle-mounted camera 11 in the world coordinate system. Therefore, first, the detection unit 31 detects the feature point image FP1 by FAST or the like, using the (n-1) th captured image IM n-1 shown in FIG. 2 as the first image. The calculation unit 32 calculates the feature amount of the detected feature point image FP1 by OBR or the like.

次に、検出部31は、n番目の撮影画像IMnを2番目の画像として、特徴点画像FP2を検出する。算出部32は、検出された特徴点画像FP2の特徴量を算出する。算出部32は、撮影画像IMn-1から算出した特徴点画像FP1の特徴量と、撮影画像IMnから算出した特徴点画像FP2の特徴量とを用いて、各撮影画像IMn-1,IMnにおける特徴点画像FP1,FP2を対応付ける。算出部32は、対応付けた特徴点画像FP1,FP2から、8点アルゴリズムおよびRANSAC(Random Sampling consensus)を用いることにより、基礎行列Fを算出する。 Next, the detection unit 31 detects the feature point image FP2 with the nth captured image IM n as the second image. The calculation unit 32 calculates the feature amount of the detected feature point image FP2. The calculation unit 32 uses the feature amount of the feature point image FP1 calculated from the captured image IM n-1 and the feature amount of the feature point image FP2 calculated from the captured image IM n to use each captured image IM n-1 , The feature point images FP1 and FP2 in IM n are associated with each other. The calculation unit 32 calculates the basic matrix F from the associated feature point images FP1 and FP2 by using an 8-point algorithm and RANSAC (Random Sampling consensus).

算出部32は、算出した基礎行列Fと、車載カメラ11の内部パラメータとを用いて、車載カメラ11の位置および姿勢を算出する。なお、図2に示される2つの撮影画像IMn-1,IMnのみでは、車載カメラ11の位置の単位(スケール)が不明である。そのため、本実施形態の算出部32は、車輪回転角センサ等を用いて車載カメラ11の移動距離を算出する。算出部32は、車載カメラ11の移動距離を用いて、車載カメラ11の位置の単位を確定する。算出部32は、確定させた車載カメラ11の位置および姿勢を用いて、三角測量の原理により特徴点P1の三次元位置を算出する。なお、本実施形態では、「位置」として現在地点を表す座標を例示し、「姿勢」として位置(座標値)とは異なる向きの要素(例えば、ロール・ピッチ・ヨーの回転角)を例示する。また、以降では、特徴点に対応して撮影画像内に含まれる特徴点画像を、単に「特徴点」とも呼ぶ。 The calculation unit 32 calculates the position and orientation of the vehicle-mounted camera 11 by using the calculated basic matrix F and the internal parameters of the vehicle-mounted camera 11. It should be noted that the unit (scale) of the position of the vehicle-mounted camera 11 is unknown only with the two captured images IM n-1 and IM n shown in FIG. Therefore, the calculation unit 32 of the present embodiment calculates the moving distance of the vehicle-mounted camera 11 by using the wheel rotation angle sensor or the like. The calculation unit 32 determines the unit of the position of the vehicle-mounted camera 11 by using the moving distance of the vehicle-mounted camera 11. The calculation unit 32 calculates the three-dimensional position of the feature point P1 by the principle of triangulation using the determined position and orientation of the vehicle-mounted camera 11. In the present embodiment, the "position" is an example of the coordinates representing the current position, and the "posture" is an example of an element having a direction different from the position (coordinate value) (for example, the rotation angle of the roll pitch yaw). .. Further, hereinafter, the feature point image included in the captured image corresponding to the feature point is also simply referred to as a “feature point”.

図3には、m(≧3)番目に撮影される撮影画像IMm-1,IMm内に含まれる、特徴点P1〜P3の特徴点画像FP3〜FP8が示されている。検出部31は、図2の特徴点P1に対する処理と同じように、撮影画像IMm-1,IMmの特徴点画像FP3〜FP8を検出する。算出部32は、図2の特徴点P1に対する処理と同じように、特徴点画像FP3〜FP8の特徴量を算出する。算出部32は、算出した特徴点画像FP3〜FP8の特徴量を用いて、各撮影画像IMm-1,IMmにおける特徴点画像FP3〜FP8を対応付ける。 FIG. 3 shows the feature point images FP3 to FP8 of the feature points P1 to P3 included in the captured images IM m-1 and IM m taken at the m (≧ 3) th position. The detection unit 31 detects the captured images IM m-1 and the feature point images FP3 to FP8 of the IM m in the same manner as the processing for the feature point P1 in FIG. The calculation unit 32 calculates the feature amounts of the feature point images FP3 to FP8 in the same manner as the processing for the feature point P1 in FIG. The calculation unit 32 associates the feature point images FP3 to FP8 in each of the captured images IM m-1 and IM m by using the calculated feature quantities of the feature point images FP3 to FP8.

算出部32は、対応付けた特徴点画像FP3〜FP8の内の三次元位置が既知の特徴点P1の特徴点画像FP3,FP6を用いて、再投影誤差の和が最小となる、車載カメラ11の位置および姿勢を算出する。再投影誤差とは、特徴点P1が撮影画像IMmに再投影された仮特徴点画像FP01と、特徴点画像FP6との矢印で表される差である。なお、3番目以降に撮影される撮影画像IMmでは、既知の特徴点P1の三次元位置の単位が確定しているため、車載カメラ11の位置の単位が確定している。そのため、算出部32は、車輪回転角センサ等を用いた車載カメラ11の移動距離を用いずに、特徴点P2,P3の三次元位置を算出できる。算出部32は、対応付けた三次元位置が未知の特徴点P2,P3について、車載カメラ11の位置および姿勢を用いて、三角測量の原理により三次元位置を算出する。 The calculation unit 32 uses the feature point images FP3 and FP6 of the feature point P1 whose three-dimensional positions are known among the associated feature point images FP3 to FP8, and the vehicle-mounted camera 11 that minimizes the sum of the reprojection errors. Calculate the position and posture of. The reprojection error is the difference represented by the arrow between the temporary feature point image FP01 in which the feature point P1 is reprojected on the captured image IM m and the feature point image FP6. Since the unit of the three-dimensional position of the known feature point P1 is fixed in the captured image IM m taken after the third, the unit of the position of the vehicle-mounted camera 11 is fixed. Therefore, the calculation unit 32 can calculate the three-dimensional positions of the feature points P2 and P3 without using the moving distance of the vehicle-mounted camera 11 using the wheel rotation angle sensor or the like. The calculation unit 32 calculates the three-dimensional position of the feature points P2 and P3 whose associated three-dimensional position is unknown by using the position and orientation of the vehicle-mounted camera 11 according to the principle of triangulation.

車速制御部33は、算出部32により特定された車載カメラ11の位置および姿勢と、車載カメラ11から特徴点の三次元位置への方位角とを用いて、同一の特徴点が複数の撮影画像に含まれるように、車両10の上限車速を制御する。具体的には、車速制御部33は、車載カメラ11のフレームレートおよび画角を用いて、予め設定された枚数以上の撮影画像に同一の特徴点が検出される車速以下に上限車速を設定する。 The vehicle speed control unit 33 uses the position and orientation of the vehicle-mounted camera 11 specified by the calculation unit 32 and the azimuth angle from the vehicle-mounted camera 11 to the three-dimensional position of the feature points, and the vehicle speed control unit 33 uses a plurality of captured images having the same feature points. The upper limit vehicle speed of the vehicle 10 is controlled so as to be included in. Specifically, the vehicle speed control unit 33 uses the frame rate and angle of view of the vehicle-mounted camera 11 to set the upper limit vehicle speed to be equal to or lower than the vehicle speed at which the same feature points are detected in the number of captured images or more set in advance. ..

図4ないし図6は、撮影画像から検出される特徴点と上限車速との関係についての説明図である。図4には、特徴点P5に対応する特徴点FP9が含まれているk番目の撮影画像IMkが示されている。図5には、特徴点P5に対応する特徴点FP10が含まれている(k+1)番目の撮影画像IMk+1が示されている。車両10の移動により車載カメラ11の位置および姿勢が変化すると、図4および図5に示されるように、同一の特徴点P5が対応する撮影画像IMk,IMk+1中の特徴点FP9,FP10の位置が変化する。k番目の撮影画像IMkを撮影した車載カメラ11の位置および姿勢から、(k+1)番目の撮影画像IMk+1を撮影した車載カメラ11の位置および姿勢までの変化量が所定値を超えると、撮影画像IMk+1に特徴点P5に対応する特徴点FP10が含まれない場合がある。そのため、車速制御部33は、車両10の上限車速を設定することにより、複数枚の撮影画像に同一の特徴点を含ませる。 4 to 6 are explanatory views on the relationship between the feature points detected from the captured image and the upper limit vehicle speed. FIG. 4 shows the k-th captured image IM k including the feature point FP9 corresponding to the feature point P5. FIG. 5 shows the (k + 1) th captured image IM k + 1 including the feature point FP10 corresponding to the feature point P5. When the position and orientation of the vehicle-mounted camera 11 change due to the movement of the vehicle 10, as shown in FIGS. 4 and 5, the feature points FP9 in the captured images IM k and IM k + 1 corresponding to the same feature point P5, The position of FP10 changes. When the amount of change from the position and orientation of the vehicle-mounted camera 11 that captured the k-th captured image IM k to the position and orientation of the vehicle-mounted camera 11 that captured the (k + 1) th captured image IM k + 1 exceeds a predetermined value. , The captured image IM k + 1 may not include the feature point FP10 corresponding to the feature point P5. Therefore, the vehicle speed control unit 33 sets the upper limit vehicle speed of the vehicle 10 to include the same feature points in a plurality of captured images.

図6には、車載カメラ11の位置の変化量と、特徴点P5との位置関係が示されている。車速制御部33は、設定する上限車速Vmaxを、下記式(1)を用いて算出する。なお、図6では、一例として、車載カメラ11の姿勢が変化していない例が示されている。 FIG. 6 shows the positional relationship between the amount of change in the position of the vehicle-mounted camera 11 and the feature point P5. The vehicle speed control unit 33 calculates the upper limit vehicle speed V max to be set by using the following formula (1). Note that FIG. 6 shows, as an example, an example in which the posture of the vehicle-mounted camera 11 has not changed.

Figure 2021149396
ΔT:撮影時間間隔(フレームレートの逆数)
α:方位角
θ:車載カメラ11の画角
Figure 2021149396
ΔT: Shooting time interval (reciprocal of frame rate)
α: Azimuth θ: Angle of view of the vehicle-mounted camera 11

上記式(1)における特徴点P5までの距離Dは、車載カメラ11の光軸を基準として横方向距離の仮定値である。本実施形態の車速制御部33は、距離Dとして、車両10の横幅の0.5倍を仮定値として用いる。この仮定値が用いられることにより、車載カメラ11は、車両10の車体側面よりも外側に存在する特徴点P5を、連続して撮影できる。 The distance D to the feature point P5 in the above formula (1) is an assumed value of the lateral distance with respect to the optical axis of the vehicle-mounted camera 11. The vehicle speed control unit 33 of the present embodiment uses 0.5 times the width of the vehicle 10 as a hypothetical value as the distance D. By using this assumed value, the vehicle-mounted camera 11 can continuously photograph the feature points P5 existing outside the vehicle body side surface of the vehicle 10.

方位角αは、k番目の撮影画像IMkが撮影されたときの車載カメラ11の光軸と、特徴点P5とが成す角度である。図4に示されるように、画像座標系における特徴点P5のx座標がxp、画像中心OCのx座標がxc、車載カメラ11の焦点距離がf、画素ピッチがpの場合、方位角αを式(2)で算出する。 The azimuth angle α is an angle formed by the optical axis of the vehicle-mounted camera 11 and the feature point P5 when the k-th captured image IM k is captured. As shown in FIG. 4, when the x-coordinate of the feature point P5 in the image coordinate system is xp, the x-coordinate of the image center OC is xc, the focal length of the in-vehicle camera 11 is f, and the pixel pitch is p, the azimuth angle α is set. Calculate with equation (2).

Figure 2021149396
Figure 2021149396

車速制御部33は、上記式(1)から算出される上限車速Vmaxを設定することにより、予め設定された枚数以上の撮影画像において、同一の特徴点P5が撮影画像内に含まれる。算出部32は、複数の撮影画像内に含まれる同一の特徴点に対して、三角測量との原理に基づいて、特徴点の三次元位置を算出する。 By setting the upper limit vehicle speed V max calculated from the above equation (1), the vehicle speed control unit 33 includes the same feature point P5 in the captured image in the number of captured images or more set in advance. The calculation unit 32 calculates the three-dimensional position of the feature points for the same feature points included in the plurality of captured images based on the principle of triangulation.

地図作成部34は、算出された複数の特徴点の三次元位置と特徴量とを含む地図を作成する。三次元位置を含む地図としては、車庫などの駐車スペースが挙げられる。地図に含める各特徴点の特徴量は、複数の撮影画像における特徴量の中央値とする。地図作成部34は、作成した地図を地図DB42に記憶させる。 The map creation unit 34 creates a map including the calculated three-dimensional positions of the plurality of feature points and the feature amount. Examples of the map including the three-dimensional position include a parking space such as a garage. The feature amount of each feature point included in the map is the median value of the feature amount in a plurality of captured images. The map creation unit 34 stores the created map in the map DB 42.

図7および図8は、地図作成部34により作成される地図についての説明図である。図7には、車両10が車庫の駐車スペースに駐車される際の車載カメラ11の撮影画像IMiが示されている。図8には、図7の状態を上方から見た平面視が示されている。図7および図8に示される状態では、経路RTに沿って、車両10の運転手が手動運転によって駐車スペースに駐車する。その際に、車速制御部33は、撮影画像IMiから検出された複数の特徴点Pnに対応する特徴点画像FPnが複数枚の撮影画像に含まれるように、上限車速Vmaxを設定する。そのため、車速制御部33の制御により、運転手のアクセルの踏み込み量にかかわらず、地図作成中の車両10の車速は上限車速Vmax以下になる。 7 and 8 are explanatory views of a map created by the map creation unit 34. FIG. 7 shows an image IM i taken by the vehicle-mounted camera 11 when the vehicle 10 is parked in the parking space of the garage. FIG. 8 shows a plan view of the state of FIG. 7 as viewed from above. In the state shown in FIGS. 7 and 8, the driver of the vehicle 10 manually parks in the parking space along the route RT. At that time, the vehicle speed control unit 33 sets the upper limit vehicle speed V max so that the feature point image FPn corresponding to the plurality of feature point Pn detected from the captured image IM i is included in the plurality of captured images. Therefore, under the control of the vehicle speed control unit 33, the vehicle speed of the vehicle 10 during map creation becomes equal to or less than the upper limit vehicle speed V max regardless of the amount of depression of the accelerator by the driver.

図9は、地図作成方法のフローチャートである。図9に示されるように、地図作成フローでは、初めに、車両10に搭載された車載カメラ11が、車両10の周辺環境を撮影する撮影工程を開始する(ステップS1)。次に、検出部31は、FASTアルゴリズムなどを用いて、車載カメラ11の撮影画像から特徴点を検出する検出工程を行う(ステップS2)。 FIG. 9 is a flowchart of a map creation method. As shown in FIG. 9, in the map creation flow, first, the vehicle-mounted camera 11 mounted on the vehicle 10 starts a photographing process of photographing the surrounding environment of the vehicle 10 (step S1). Next, the detection unit 31 performs a detection step of detecting feature points from the captured image of the vehicle-mounted camera 11 by using a FAST algorithm or the like (step S2).

算出部32は、検出部31により検出された特徴点を用いて、複数の撮影画像に含まれる特徴点の三次元位置を算出する算出工程を行う(ステップS3)。図10は、算出工程のサブフローのフローチャートである。図10に示されるように、算出工程では、算出部32は、初めに、検出部31により特徴点が検出された撮影画像が車載カメラ11により撮影された3番目以降の撮影画像であるか否かを判定する(ステップS31)。算出部32は、撮影画像が3番目の画像ではないと判定した場合には(ステップS31:NO)、図2の特徴点P1の三次元位置を算出するように、8点アルゴリズムなどを用いて、車載カメラ11の位置および姿勢を算出する(ステップS32)。具体的には、算出部32は、検出部31により検出された特徴点の特徴量を算出し、算出した特徴量を用いて1,2枚目の撮影画像に含まれる同一の特徴点を対応付ける。算出部32は、対応付けた同一の特徴点から、8点アルゴリズムおよびRANSACを用いることにより、基礎行列Fを算出する。算出部32は、基礎行列Fと、車載カメラ11の移動距離とを用いることにより、車載カメラ11の位置および姿勢を算出する。 The calculation unit 32 performs a calculation step of calculating the three-dimensional positions of the feature points included in the plurality of captured images by using the feature points detected by the detection unit 31 (step S3). FIG. 10 is a flowchart of a sub-flow of the calculation process. As shown in FIG. 10, in the calculation step, the calculation unit 32 first determines whether or not the captured image in which the feature point is detected by the detection unit 31 is the third or subsequent captured image captured by the vehicle-mounted camera 11. (Step S31). When the calculation unit 32 determines that the captured image is not the third image (step S31: NO), the calculation unit 32 uses an 8-point algorithm or the like to calculate the three-dimensional position of the feature point P1 in FIG. , The position and orientation of the vehicle-mounted camera 11 are calculated (step S32). Specifically, the calculation unit 32 calculates the feature amount of the feature point detected by the detection unit 31, and associates the same feature points included in the first and second captured images with the calculated feature amount. .. The calculation unit 32 calculates the basic matrix F from the same feature points associated with each other by using the 8-point algorithm and RANSAC. The calculation unit 32 calculates the position and orientation of the vehicle-mounted camera 11 by using the basic matrix F and the moving distance of the vehicle-mounted camera 11.

ステップS31の処理において撮影画像が3番目以降の画像であると判定された場合には(ステップS31:YES)、算出部32は、図3の特徴点P2,P3の三次元位置を算出するように、再投影誤差の和が最小となる車載カメラ11の位置および姿勢を算出する(ステップS33)。具体的には、算出部32は、検出部31により検出された特徴点の特徴量を算出し、複数の撮影画像に含まれる同一の特徴点を対応付ける。算出部32は、対応付けた特徴点の内の三次元位置が既知の特徴点を用いて、再投影誤差の和が最小となる車載カメラ11の位置および姿勢を算出する。その後、算出部32は、対応付けた各特徴点について、算出した車載カメラ11の位置および姿勢を用いて、図6に示される三角測量の原理により三次元位置を算出し(ステップS34)、算出工程を終了する。 When it is determined in the process of step S31 that the captured image is the third and subsequent images (step S31: YES), the calculation unit 32 calculates the three-dimensional positions of the feature points P2 and P3 in FIG. In addition, the position and orientation of the vehicle-mounted camera 11 that minimizes the sum of the reprojection errors are calculated (step S33). Specifically, the calculation unit 32 calculates the feature amount of the feature points detected by the detection unit 31, and associates the same feature points included in the plurality of captured images. The calculation unit 32 calculates the position and orientation of the vehicle-mounted camera 11 that minimizes the sum of the reprojection errors by using the feature points whose three-dimensional positions are known among the associated feature points. After that, the calculation unit 32 calculates the three-dimensional position of each of the associated feature points by using the calculated position and orientation of the vehicle-mounted camera 11 according to the principle of triangulation shown in FIG. 6 (step S34). End the process.

図9のステップS3の処理が行われると、車速制御部33は、車両10の上限車速Vmaxを制御する車速制御工程を行う(ステップS4)。車速制御部33は、図6に示されるように、車載カメラ11から特徴点P5までの方位角αを用いて、上記式(1)を解くことにより、上限車速Vmaxを算出する。車速制御部33は、車両の速度が上限車速Vmax以下になるように制御する。次に、地図作成部34は、算出部32に算出された複数の異なる特徴点の三次元位置を用いて、図7に示されるような三次元位置の情報を含む地図を作成する地図作成工程を行う(ステップS5)。 When the process of step S3 in FIG. 9 is performed, the vehicle speed control unit 33 performs vehicle speed control step of controlling the upper limit vehicle speed V max of the vehicle 10 (step S4). As shown in FIG. 6, the vehicle speed control unit 33 calculates the upper limit vehicle speed V max by solving the above equation (1) using the azimuth angle α from the vehicle-mounted camera 11 to the feature point P5. The vehicle speed control unit 33 controls the speed of the vehicle so that it is equal to or less than the upper limit vehicle speed V max. Next, the map creation unit 34 uses the three-dimensional positions of a plurality of different feature points calculated by the calculation unit 32 to create a map including information on the three-dimensional positions as shown in FIG. 7. (Step S5).

地図作成部34は、地図の作成が完了したか否かを判定する(ステップS6)。地図作成部34は、地図の作成がまだ完了していないと判定した場合には(ステップS6:NO)、ステップS1以降の処理を繰り返す。地図作成部34は、地図の作成が完了したと判定した場合には(ステップS6:YES)、地図作成フローを終了する。 The map creation unit 34 determines whether or not the map creation is completed (step S6). When the map creation unit 34 determines that the map creation has not been completed yet (step S6: NO), the map creation unit 34 repeats the processes after step S1. When the map creation unit 34 determines that the map creation is completed (step S6: YES), the map creation unit 34 ends the map creation flow.

以上説明したように、第1実施形態の地図作成システム100では、算出部32が、車載カメラ11の位置および姿勢を用いて、複数の撮影画像に含まれる同一の特徴点の三次元位置を算出する。車速制御部33は、車載カメラ11から特徴点の三次元位置への方位角αを用いて、同一の特徴点が複数の撮影画像に含まれるように、車両10の上限車速Vmaxを制御する。地図作成部34は、算出された複数の特徴点の三次元位置を用いて、三次元位置の情報を含む地図を作成する。そのため、第1実施形態の地図作成システム100は、複数の特徴点の三次元位置の情報を含む地図を作成する際に、車載カメラ11により撮影される複数の撮影画像に同一の特徴点が含まれるように上限車速Vmaxを設定している。すなわち、上限車速Vmaxが設定されることにより、最小限の減速の下で、異なる地点で撮影された同一の特徴点が複数の撮影画像に含まれる。これにより、三角測量の原理に基づいて、地図を作成するために必要な特徴点の三次元位置の情報が十分に得られ、安定的に複数の特徴点の位置情報を含む地図が作成される。このように、最小限の減速の下で、複数の特徴点の位置情報を含む地図が安定的に作成されることにより、自動運転制御における地図内の情報の欠落を抑制することができ、車両10の自動運転制御が効率的かつ安定的に実現される。 As described above, in the map creation system 100 of the first embodiment, the calculation unit 32 calculates the three-dimensional position of the same feature point included in the plurality of captured images by using the position and orientation of the in-vehicle camera 11. do. The vehicle speed control unit 33 controls the upper limit vehicle speed V max of the vehicle 10 so that the same feature point is included in a plurality of captured images by using the azimuth angle α from the vehicle-mounted camera 11 to the three-dimensional position of the feature point. .. The map creation unit 34 creates a map including information on the three-dimensional positions by using the calculated three-dimensional positions of the plurality of feature points. Therefore, when the map creation system 100 of the first embodiment creates a map including information on the three-dimensional positions of a plurality of feature points, the plurality of captured images captured by the in-vehicle camera 11 include the same feature points. The upper limit vehicle speed V max is set so as to be achieved. That is, by setting the upper limit vehicle speed V max , the same feature points taken at different points are included in a plurality of captured images under the minimum deceleration. As a result, based on the principle of triangulation, sufficient information on the three-dimensional positions of the feature points necessary for creating a map can be obtained, and a map containing the position information of a plurality of feature points can be stably created. .. In this way, by stably creating a map containing the position information of a plurality of feature points under the minimum deceleration, it is possible to suppress the loss of information in the map in the automatic driving control, and the vehicle. 10 automatic operation controls are realized efficiently and stably.

また、第1実施形態の車速制御部33は、車載カメラ11のフレームレートおよび画角を用いて、予め設定された枚数以上の撮影画像に同一の特徴点が検出される車速以下に上限車速Vmaxを設定する。すなわち、第1実施形態の地図作成システム100は、車載カメラ11のフレームレートおよび画角を用いて、地図を作成するために必要最低限の車速に上限車速Vmaxを求める。これにより、最小限の減速の下、複数の特徴点の位置情報を含む地図がより効率的に作成される。 Further, the vehicle speed control unit 33 of the first embodiment uses the frame rate and angle of view of the vehicle-mounted camera 11 to detect the same feature points in a preset number of captured images or more, and the upper limit vehicle speed V is equal to or lower than the vehicle speed. Set max. That is, the map creation system 100 of the first embodiment uses the frame rate and the angle of view of the vehicle-mounted camera 11 to obtain the upper limit vehicle speed V max at the minimum vehicle speed necessary for creating a map. As a result, a map containing position information of a plurality of feature points is created more efficiently with a minimum deceleration.

<第1実施形態の変形例>
上記第1実施形態では、図7および図8に示されるように、車両10が駐車スペースに駐車する場合の地図作成について説明したが、出発地から、設定された目的地に向かうまでの経路のうち、所定の区間における地図が作成されてもよい。例えば、特徴点の三次元位置の情報を含む地図が作成されていない車庫から所定の目的地まで車両10が移動する場合に、車両10が車庫を出るまでの区間に限って地図が作成されてもよい。この場合に、車速制御部33は、出発地から目的地までの経路のうち、地図作成部34により地図が作成される作成区間である車庫を出るまで区間に限って、車両の上限車速Vmaxを設定する。車速制御部33は、作成区間を過ぎると、設定していた車両10の上限車速Vmaxを解除する。
<Modified example of the first embodiment>
In the first embodiment, as shown in FIGS. 7 and 8, the map creation when the vehicle 10 is parked in the parking space has been described, but the route from the departure point to the set destination is described. Of these, a map for a predetermined section may be created. For example, when the vehicle 10 moves from the garage where the map including the three-dimensional position information of the feature points is not created to a predetermined destination, the map is created only in the section until the vehicle 10 leaves the garage. May be good. In this case, the vehicle speed control unit 33 of the route from the departure point to the destination, only the section until it exits the garage is created section by mapping unit 34 maps are created, the upper limit speed V max of the vehicle To set. When the created section is passed, the vehicle speed control unit 33 releases the set upper limit vehicle speed V max of the vehicle 10.

以上説明したように、車速制御部33は、地図作成部34により地図が作成される作成区間に限って、車両の上限車速Vmaxを設定してもよい。この変形例の地図作成システム100では、地図を作成しない区間では、車両の上限車速Vmaxが設定されないため、地図作成が必要な区間では地図が安定的に作成された上で、車両10の運転が必要以上に制限されずに済む。 As described above, the vehicle speed control unit 33 may set the upper limit vehicle speed V max of the vehicle only in the creation section in which the map is created by the map creation unit 34. In the map creation system 100 of this modified example, the upper limit vehicle speed V max of the vehicle is not set in the section where the map is not created. Therefore, the map is stably created in the section where the map creation is required, and then the vehicle 10 is operated. Is not restricted more than necessary.

<第2実施形態>
図11は、第2実施形態の車両制御システム200の概略ブロック図である。車両制御システム200は、複数の特徴点の三次元位置の情報を含む地図を用いて、車両10の自動運転を行うシステムである。第2実施形態の車両制御システム200では、第1実施形態の地図作成システム100と比較して、CPU30aが目的地設定部35、位置推定部36、および追従制御部37として機能し、記憶部40aが軌跡データベース(軌跡DB)43を備える点と、算出部32として機能しない点とが異なる。そのため、第2実施形態では、第1実施形態と異なる構成等について説明し、第1実施形態と同じ構成等についての説明を省略する。
<Second Embodiment>
FIG. 11 is a schematic block diagram of the vehicle control system 200 of the second embodiment. The vehicle control system 200 is a system that automatically drives the vehicle 10 by using a map including information on three-dimensional positions of a plurality of feature points. In the vehicle control system 200 of the second embodiment, the CPU 30a functions as a destination setting unit 35, a position estimation unit 36, and a follow-up control unit 37, and a storage unit 40a, as compared with the map creation system 100 of the first embodiment. Is different in that it has a locus database (trajectory DB) 43 and that it does not function as a calculation unit 32. Therefore, in the second embodiment, the configuration and the like different from those of the first embodiment will be described, and the description of the same configuration and the like as the first embodiment will be omitted.

目的地設定部35は、GPS(Global Positioning System)を構成する人工衛星から送信された電波を受信する。目的地設定部35は、位置推定部36により特定された車両10の現在位置と、入力部60が受け付けた目的地と、地図DB42に記憶された地図データとを用いて、現在位置から目的地までの経路を設定する。目的地設定部35は、設定した複数の経路候補を出力部70のモニタに表示させる。入力部60が複数の経路候補から1つの経路を選択する操作を受け付けると、目的地設定部35は、モニタに表示させる画像とスピーカから出力させる音声とを用いて、目的地までの経路を案内する。 The destination setting unit 35 receives radio waves transmitted from artificial satellites constituting a GPS (Global Positioning System). The destination setting unit 35 uses the current position of the vehicle 10 specified by the position estimation unit 36, the destination received by the input unit 60, and the map data stored in the map DB 42 from the current position to the destination. Set the route to. The destination setting unit 35 displays a plurality of set route candidates on the monitor of the output unit 70. When the input unit 60 receives an operation of selecting one route from a plurality of route candidates, the destination setting unit 35 guides the route to the destination by using the image displayed on the monitor and the voice output from the speaker. do.

図11に示される軌跡DB43は、車両10が過去に走行した走行軌跡を地図DBに記憶された地図と関連付けて記憶している。地図DB42は、例えば第1実施形態の地図作成システム100などによって作成された、複数の特徴点の三次元位置と特徴量との情報を含む地図を記憶している。 The locus DB 43 shown in FIG. 11 stores the travel locus that the vehicle 10 has traveled in the past in association with the map stored in the map DB. The map DB 42 stores a map including information on three-dimensional positions of a plurality of feature points and feature quantities, which is created by, for example, the map creation system 100 of the first embodiment.

位置推定部36は、車速制御部33により車両10の上限車速Vmaxが制御されている状態で、検出部31により検出した特徴点を用いて、車両10の現在位置を推定する。具体的には、位置推定部36は、複数の撮影画像に含まれ、検出部31により検出された同一の特徴点を対応付ける。対応付けられた特徴点のペアが予め設定された所定値(例えば30ペア)以上の組み合わせの場合に、位置推定部36は、第1実施形態の算出部32が行った、再投影誤差の和が最小となる車載カメラ11の位置および姿勢を算出する。なお、複数の撮影画像から所定値以上の特徴点が対応付けられない場合、および、1番目の撮影画像から特徴点が検出された場合には、位置推定部36は、検出部31により検出された特徴点と、地図DB42に記憶された地図内の特徴点とを対応付ける。位置推定部36は、対応付けた特徴点に対して、再投影誤差の和が最小となる車載カメラ11の位置および姿勢を算出する。位置推定部36は、算出した車載カメラ11の位置および姿勢を用いて、車両10の現在位置を推定する。 The position estimation unit 36 estimates the current position of the vehicle 10 by using the feature points detected by the detection unit 31 in a state where the upper limit vehicle speed V max of the vehicle 10 is controlled by the vehicle speed control unit 33. Specifically, the position estimation unit 36 is included in a plurality of captured images and associates the same feature points detected by the detection unit 31. When the pair of the associated feature points is a combination of a predetermined value (for example, 30 pairs) or more set in advance, the position estimation unit 36 is the sum of the reprojection errors performed by the calculation unit 32 of the first embodiment. Is calculated as the minimum position and orientation of the vehicle-mounted camera 11. When feature points of a predetermined value or more cannot be associated with a plurality of captured images, or when feature points are detected from the first captured image, the position estimation unit 36 is detected by the detection unit 31. The feature points in the map stored in the map DB 42 are associated with the feature points. The position estimation unit 36 calculates the position and orientation of the vehicle-mounted camera 11 that minimizes the sum of the reprojection errors with respect to the associated feature points. The position estimation unit 36 estimates the current position of the vehicle 10 by using the calculated position and orientation of the vehicle-mounted camera 11.

追従制御部37は、位置推定部36により推定された車両10の現在位置と、軌跡DB43に記憶された車両10の過去の走行軌跡とを用いて、車両10の操舵角を制御する。具体的には、追従制御部37は、推定された車両10の現在位置を、過去の走行軌跡に追従するように操舵角を制御する。例えば、追従制御部37は、既に三次元位置の情報を含む地図が完成された駐車スペースに対して、過去の駐車時の走行軌跡と同じ軌跡を追従するように、自動運転によって車両10を制御する。 The follow-up control unit 37 controls the steering angle of the vehicle 10 by using the current position of the vehicle 10 estimated by the position estimation unit 36 and the past travel locus of the vehicle 10 stored in the locus DB 43. Specifically, the follow-up control unit 37 controls the steering angle so that the estimated current position of the vehicle 10 follows the past travel locus. For example, the follow-up control unit 37 controls the vehicle 10 by automatic driving so as to follow the same locus as the running locus at the time of parking in the past with respect to the parking space for which the map including the information of the three-dimensional position has already been completed. do.

図12は、車両制御方法のフローチャートである。図12に示される車両制御フローでは、初めに、目的地設定部35が、入力部60が受け付けた操作に応じて、車両10の目的地を設定する(ステップS11)。第2実施形態では、地図DB42に予め三次元位置が既知である複数の特徴点を含む地図が登録された車庫に自動駐車する場合について説明する。目的地としての駐車後の位置が設定されると、ステップS12〜S14の処理が行われる。なお、ステップS12〜S14の各処理は、第1実施形態(図9)のステップS1,S2,S4の各処理と同じであるため、図12のステップS15以降の処理について説明する。 FIG. 12 is a flowchart of the vehicle control method. In the vehicle control flow shown in FIG. 12, first, the destination setting unit 35 sets the destination of the vehicle 10 according to the operation received by the input unit 60 (step S11). In the second embodiment, a case will be described in which the map DB 42 automatically parks in a garage in which a map including a plurality of feature points whose three-dimensional positions are known in advance is registered. When the position after parking as the destination is set, the processes of steps S12 to S14 are performed. Since the processes of steps S12 to S14 are the same as the processes of steps S1, S2, and S4 of the first embodiment (FIG. 9), the processes after step S15 of FIG. 12 will be described.

図12のステップS14の処理が行われると、位置推定部36は、車両10の現在位置を推定する位置推定工程を行う(ステップS15)。図13は、位置推定工程のサブフローのフローチャートである。図13に示されるように、位置推定部36は、初めに、検出部31が特徴点を検出した撮影画像が1番目の画像であるか否かを判定する(ステップS151)。位置推定部36は、特徴点が検出された撮影画像が1番目ではないと判定した場合(ステップS151:NO)、当該撮影画像と、1つ前の撮影画像との間で同一の特徴点を対応付ける(ステップS152)。位置推定部36は、対応付けた特徴点のペアが所定値以上の組み合わせか否かを判定する(ステップS153)。所定値以上の組み合わせの場合には(ステップS153:YES)、位置推定部36は、対応付けられた特徴点を用いて、後述のステップS155の処理を行う。 When the process of step S14 of FIG. 12 is performed, the position estimation unit 36 performs a position estimation step of estimating the current position of the vehicle 10 (step S15). FIG. 13 is a flowchart of a sub-flow of the position estimation process. As shown in FIG. 13, the position estimation unit 36 first determines whether or not the captured image in which the detection unit 31 has detected the feature point is the first image (step S151). When the position estimation unit 36 determines that the captured image in which the feature point is detected is not the first (step S151: NO), the position estimation unit 36 determines that the captured image and the previous captured image have the same feature point. Correspondence (step S152). The position estimation unit 36 determines whether or not the pair of the associated feature points is a combination of a predetermined value or more (step S153). In the case of a combination of a predetermined value or more (step S153: YES), the position estimation unit 36 performs the process of step S155, which will be described later, using the associated feature points.

ステップS153の処理において、対応付けられた特徴点のペアが所定値未満の組み合わせだった場合には(ステップS153:NO)、後述のステップS154の処理を行う。ステップS151の処理において、位置推定部36は、検出部により特徴点が検出された撮影画像が1番目である判定した場合には(ステップS151:YES)、検出された特徴点と、地図DB42に記憶された地図内の特徴点とを対応付ける(ステップS154)。位置推定部36は、ステップS153またはステップS154の処理において対応付けられた特徴点に対して、再投影誤差の和が最小となる車載カメラ11の位置および姿勢を算出し(ステップS155)、位置推定工程を終了する。なお、位置推定部36は、ステップS152で対応付けられた特徴点を用いることにより、ステップS154で対応付けられた特徴点を用いるよりも、車載カメラ11の位置および姿勢を短時間で算出できる。短時間で車載カメラ11の位置および姿勢が算出されると、追従制御部37の追従制度が向上する。 In the process of step S153, if the pair of the associated feature points is a combination of less than a predetermined value (step S153: NO), the process of step S154 described later is performed. In the process of step S151, when the position estimation unit 36 determines that the captured image in which the feature point is detected by the detection unit is the first (step S151: YES), the detected feature point and the map DB 42 are displayed. The feature points in the stored map are associated with each other (step S154). The position estimation unit 36 calculates the position and orientation of the vehicle-mounted camera 11 that minimizes the sum of the reprojection errors with respect to the feature points associated in the process of step S153 or step S154 (step S155), and position estimation is performed. End the process. By using the feature points associated in step S152, the position estimation unit 36 can calculate the position and orientation of the vehicle-mounted camera 11 in a shorter time than using the feature points associated in step S154. When the position and orientation of the vehicle-mounted camera 11 are calculated in a short time, the tracking system of the tracking control unit 37 is improved.

図12のステップS15の処理が行われると、追従制御部37は、位置推定部36により推定された位置から目的地まで、車両10を過去の走行軌跡に追従させる追従工程を行う(ステップS16)。追従制御部37は、目的地である駐車スペースに駐車した際の走行軌跡を、軌跡DB43から取得する。追従制御部37は、現在位置から、取得した走行軌跡に車両10が追従して走行するように、車両10の操舵角を制御する。なお、この際に、車速制御部33は、車両10の速度を上限車速Vmax以下に制御する。 When the process of step S15 of FIG. 12 is performed, the follow-up control unit 37 performs a follow-up step of making the vehicle 10 follow the past travel locus from the position estimated by the position estimation unit 36 to the destination (step S16). .. The follow-up control unit 37 acquires a travel locus when parked in a parking space, which is a destination, from the locus DB 43. The follow-up control unit 37 controls the steering angle of the vehicle 10 so that the vehicle 10 follows the acquired travel locus from the current position and travels. At this time, the vehicle speed control unit 33 controls the speed of the vehicle 10 to be equal to or less than the upper limit vehicle speed V max.

追従制御部37は、車両10を設定された目的地まで移動させる追従制御が終了したか否かを判定する(ステップS17)。追従制御が終了していないと判定された場合には(ステップS17:NO)、ステップS12以降の処理が繰り返される。追従制御部37は、追従制御が終了したと判定した場合には(ステップS17:YES)、車両制御フローを終了する。 The follow-up control unit 37 determines whether or not the follow-up control for moving the vehicle 10 to the set destination has been completed (step S17). If it is determined that the follow-up control has not been completed (step S17: NO), the processes after step S12 are repeated. When the follow-up control unit 37 determines that the follow-up control has been completed (step S17: YES), the follow-up control unit 37 ends the vehicle control flow.

以上説明したように、第2実施形態の位置推定部36は、車速制御部33により車両10の上限車速Vmaxが制御されている状態で、検出部31により検出された特徴点を、地図DB42に記憶された地図内の特徴点と照合することにより(図13のステップS154)、車両10の現在位置を推定する。この時、車速が上限車速Vmax以下に設定されている。そのため、走行中の連続する撮影画像間で同一の特徴点を追跡できるため、車両10の現在位置が安定的に推定される。これにより、車両10において自動運転制御が安定的に行われる。 As described above, the position estimation unit 36 of the second embodiment displays the feature points detected by the detection unit 31 in the state where the upper limit vehicle speed V max of the vehicle 10 is controlled by the vehicle speed control unit 33 in the map DB 42. The current position of the vehicle 10 is estimated by collating with the feature points in the map stored in (step S154 in FIG. 13). At this time, the vehicle speed is set to the upper limit vehicle speed V max or less. Therefore, the same feature point can be tracked between consecutive captured images during traveling, so that the current position of the vehicle 10 can be estimated stably. As a result, automatic driving control is stably performed in the vehicle 10.

また、第2実施形態の車両制御システム200では、軌跡DB43は、車両10が過去に走行した走行軌跡を記憶している。追従制御部37は、位置推定部36により推定された車両10の現在位置を、軌跡DB43に記憶された過去の走行軌跡に追従するように車両10を制御する。そのため、第2実施形態の車両制御システム200は、過去の走行軌跡に追従した車両10の自動運転を実現できる。 Further, in the vehicle control system 200 of the second embodiment, the locus DB 43 stores the travel locus in which the vehicle 10 has traveled in the past. The follow-up control unit 37 controls the vehicle 10 so that the current position of the vehicle 10 estimated by the position estimation unit 36 follows the past travel locus stored in the locus DB 43. Therefore, the vehicle control system 200 of the second embodiment can realize automatic driving of the vehicle 10 that follows the past traveling locus.

<その他の変形例>
上記実施形態において、ハードウェアによって実現されるとした構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されるとした構成の一部をハードウェアに置き換えるようにしてもよい。本発明は上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
<Other variants>
In the above embodiment, a part of the configuration realized by the hardware may be replaced with software, and conversely, a part of the configuration realized by the software may be replaced with the hardware. good. The present invention is not limited to the above-described embodiment, and can be implemented in various aspects without departing from the gist thereof. For example, the following modifications are also possible.

上記第1実施形態の地図作成システム100および第2実施形態の車両制御システム200の構成は、一例であり、種々変形可能である。例えば、地図作成システム100は、車載カメラ11を備え、検出部31、算出部32、車速制御部33、および地図作成部34として機能すればよく、入力部60、および出力部70を備えていなくてもよい。車両制御システム200は、車載カメラ11を備え、検出部31、算出部32、車速制御部33、および位置推定部36として機能すればよく、入力部60、および出力部70を備えておらず、目的地設定部35として機能しなくてもよい。 The configurations of the cartography system 100 of the first embodiment and the vehicle control system 200 of the second embodiment are examples and can be variously modified. For example, the cartography system 100 may include an in-vehicle camera 11, function as a detection unit 31, a calculation unit 32, a vehicle speed control unit 33, and a map creation unit 34, and does not include an input unit 60 and an output unit 70. You may. The vehicle control system 200 may include an in-vehicle camera 11, function as a detection unit 31, a calculation unit 32, a vehicle speed control unit 33, and a position estimation unit 36, and does not include an input unit 60 and an output unit 70. It does not have to function as the destination setting unit 35.

車両制御システム200は、追従制御部37として機能せずに、車両10の現在位置を推定する位置推定装置として機能してもよい。車両制御システム200により実行される車両制御フロー(図12)は、目的地が設定される工程(ステップS11)および追従工程(ステップS16)を備えていなくてもよい。 The vehicle control system 200 may function as a position estimation device that estimates the current position of the vehicle 10 without functioning as the follow-up control unit 37. The vehicle control flow (FIG. 12) executed by the vehicle control system 200 may not include a step of setting a destination (step S11) and a follow-up step (step S16).

上記第1実施形態の車載カメラ11のフレームレートおよび画角は、一例であって、異なる数値であってもよい。また、車両10に搭載される車載カメラ11の位置は、車両10の後方でなくてもよく、側方や前方であってもよい。また、車両10に複数の車載カメラ11が搭載されていてもよい。複数の車載カメラ11のフレームレートおよび画角については異なっていてもよい。車載カメラ11のフレームレートおよび画角に応じて、特徴点を特定するために撮影する撮影画像の枚数が設定されてもよい。 The frame rate and the angle of view of the vehicle-mounted camera 11 of the first embodiment are examples, and may be different numerical values. Further, the position of the vehicle-mounted camera 11 mounted on the vehicle 10 does not have to be the rear of the vehicle 10, and may be the side or the front. Further, a plurality of in-vehicle cameras 11 may be mounted on the vehicle 10. The frame rates and angles of view of the plurality of vehicle-mounted cameras 11 may be different. The number of captured images to be captured in order to identify the feature points may be set according to the frame rate and the angle of view of the vehicle-mounted camera 11.

検出部31が撮影画像から特徴点を検出する方法については、上記第1実施形態のFASTアルゴリズム、8点アルゴリズム、およびRANSACに限られず、周知の技術を適用できる。算出部32が複数の撮影画像に含まれる同一の特徴点を対応付ける方法については、上記第1実施形態のORBに限られず、周知の技術を適用できる。 The method for the detection unit 31 to detect the feature points from the captured image is not limited to the FAST algorithm, the 8-point algorithm, and the RANSAC of the first embodiment, and well-known techniques can be applied. The method in which the calculation unit 32 associates the same feature points included in the plurality of captured images is not limited to the ORB of the first embodiment, and a well-known technique can be applied.

車速制御部33の上限車速Vmaxの設定方法については、種々変形可能である。上記式(1)に示された以外の周知の方法によって上限車速Vmaxが設定されてもよい。また、上記式(1)における距離Dについて、上記第1実施形態では、車両10の横幅の0.5倍を仮定値として用いたが、0.5倍よりも大きくてもよいし、別の値が設定されてもよい。上記第1実施形態では、図6に示されるように、車載カメラ11の姿勢が変化していない例について説明したが、車載カメラ11の姿勢が変化していても、車速制御部33は、上限車速Vmaxを算出できる。 The method of setting the upper limit vehicle speed V max of the vehicle speed control unit 33 can be variously modified. The upper limit vehicle speed V max may be set by a well-known method other than that shown in the above formula (1). Further, regarding the distance D in the above formula (1), 0.5 times the width of the vehicle 10 is used as a hypothetical value in the above first embodiment, but it may be larger than 0.5 times, or another A value may be set. In the first embodiment, as shown in FIG. 6, an example in which the posture of the vehicle-mounted camera 11 does not change has been described, but even if the posture of the vehicle-mounted camera 11 changes, the vehicle speed control unit 33 has an upper limit. The vehicle speed V max can be calculated.

上記第1実施形態および上記第2実施形態では、1つの制御装置20,20aが検出部31、算出部32、および車速制御部33等として機能したが、これらの機能は、複数の制御装置に分散して行われてもよい。この場合に、変形例の制御装置が備える通信部を介した無線通信によって、各種データがやり取りされてもよい。 In the first embodiment and the second embodiment, one control device 20, 20a functions as a detection unit 31, a calculation unit 32, a vehicle speed control unit 33, etc., but these functions can be applied to a plurality of control devices. It may be distributed. In this case, various data may be exchanged by wireless communication via the communication unit included in the control device of the modified example.

上記第1実施形態および第2実施形態の入力部60および出力部70については、一例であり、種々変形可能である。例えば、入力部60は、出力部70に表示されたタッチパネルであってもよいし、モニタ70の回りに配置されたプッシュ式のボタンであってもよい。出力部70は、通信部を介して携帯型の端末に画像や音声が出力されてもよい。 The input unit 60 and the output unit 70 of the first embodiment and the second embodiment are examples and can be deformed in various ways. For example, the input unit 60 may be a touch panel displayed on the output unit 70, or may be a push-type button arranged around the monitor 70. The output unit 70 may output an image or sound to a portable terminal via the communication unit.

以上、実施形態、変形例に基づき本態様について説明してきたが、上記した態様の実施の形態は、本態様の理解を容易にするためのものであり、本態様を限定するものではない。本態様は、その趣旨並びに特許請求の範囲を逸脱することなく、変更、改良され得ると共に、本態様にはその等価物が含まれる。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することができる。 Although the present embodiment has been described above based on the embodiments and modifications, the embodiments of the above-described embodiments are for facilitating the understanding of the present embodiment and do not limit the present embodiment. This aspect may be modified or improved without departing from its spirit and claims, and this aspect includes its equivalents. In addition, if the technical feature is not described as essential in the present specification, it may be deleted as appropriate.

10…車両
11…車載カメラ
20,20a…制御装置
21…ROM
22…RAM
30,30a…CPU
31…検出部
32…算出部
33…車速制御部
34…地図作成部
35…目的地設定部
36…位置推定部
37…追従制御部
40,40a…記憶部
42…地図DB
43…軌跡DB
60…入力部
70…出力部
100…地図作成システム(地図作成装置)
200…車両制御システム(位置推定装置)
D…距離
FP1〜FP10,FPn…特徴点画像(特徴点)
FP01…仮特徴点画像
IMi,IMk,IMk+1,IMm,IMn-1,IMn…撮影画像
OC…画像中心
P1〜P3,P5,Pn…特徴点
RT…経路
max…上限車速
θ…車載カメラの画角
α…方位角
ΔT…撮影時間間隔
10 ... Vehicle 11 ... In-vehicle camera 20, 20a ... Control device 21 ... ROM
22 ... RAM
30, 30a ... CPU
31 ... Detection unit 32 ... Calculation unit 33 ... Vehicle speed control unit 34 ... Map creation unit 35 ... Destination setting unit 36 ... Position estimation unit 37 ... Follow-up control unit 40, 40a ... Storage unit 42 ... Map DB
43 ... Trajectory DB
60 ... Input unit 70 ... Output unit 100 ... Map creation system (map creation device)
200 ... Vehicle control system (position estimation device)
D ... Distance FP1 to FP10, FPn ... Feature point image (feature point)
FP01 ... Temporary feature point image IM i , IM k , IM k + 1 , IM m , IM n-1 , IM n ... Photographed image OC ... Image center P1-P3, P5, Pn ... Feature point RT ... Path V max ... Upper limit vehicle speed θ… Angle of view of in-vehicle camera α… Azimuth angle ΔT… Shooting time interval

Claims (8)

地図作成装置であって、
車両に搭載され、前記車両の周辺の環境を撮影する車載カメラと、
前記車載カメラにより撮影された撮影画像から特徴点を検出する検出部と、
前記車載カメラの位置および姿勢を用いて、複数の前記撮影画像に含まれる同一の前記特徴点の三次元位置を算出する算出部と、
前記車載カメラの位置および姿勢と、前記算出部により算出された前記特徴点の位置への方位角とを用いて、同一の前記特徴点が前記複数の撮影画像に含まれるように、前記車両の上限車速を制御する車速制御部と、
前記複数の撮影画像からそれぞれ算出された複数の異なる前記特徴点の三次元位置を用いて、各前記三次元位置の情報を含む地図を作成する地図作成部と、
を備える、地図作成装置。
It is a cartography device
An on-board camera mounted on the vehicle that captures the environment around the vehicle,
A detection unit that detects feature points from the captured image taken by the in-vehicle camera,
A calculation unit that calculates the three-dimensional position of the same feature point included in the plurality of captured images by using the position and orientation of the vehicle-mounted camera.
Using the position and orientation of the vehicle-mounted camera and the azimuth angle to the position of the feature point calculated by the calculation unit, the vehicle can include the same feature point in the plurality of captured images. A vehicle speed control unit that controls the upper limit vehicle speed,
A map creation unit that creates a map including information on each of the three-dimensional positions using the three-dimensional positions of the plurality of different feature points calculated from the plurality of captured images.
A cartography device equipped with.
請求項1に記載の地図作成装置であって、
前記車速制御部は、前記車載カメラのフレームレートおよび画角を用いて、予め設定された枚数以上の前記撮影画像において、同一の前記特徴点が検出される車速以下となるように、前記上限車速を設定する、地図作成装置。
The cartographic device according to claim 1.
The vehicle speed control unit uses the frame rate and angle of view of the vehicle-mounted camera so that the upper limit vehicle speed is equal to or lower than the vehicle speed at which the same feature points are detected in the preset number of captured images or more. A cartography device to set up.
請求項1または請求項2に記載の地図作成装置であって、
前記車速制御部は、出発地から目的地までの経路のうち、前記地図作成部による前記地図の作成区間に限って、前記上限車速を制御する、地図作成装置。
The cartographic device according to claim 1 or 2.
The vehicle speed control unit is a map creation device that controls the upper limit vehicle speed only in the map creation section of the route from the departure point to the destination.
位置推定装置であって、
車両に搭載され、前記車両の周辺の環境を撮影する車載カメラと、
複数の特徴点の三次元位置の情報を含む地図を記憶している地図記憶部と、
前記車載カメラにより撮影された撮影画像から特徴点を検出する検出部と、
前記車載カメラの位置および姿勢と、前記検出部により検出された前記特徴点の位置への方位角とを用いて、同一の前記特徴点が前記複数の撮影画像に含まれるように、前記車両の上限車速を制御する車速制御部と、
前記車速制御部により前記上限車速が制御されている状態で、前記検出部により検出された前記特徴点を、前記地図記憶部に記憶された前記地図内の前記特徴点に照合することにより、前記車両の位置を推定する位置推定部と、
を備える、位置推定装置。
It is a position estimation device
An on-board camera mounted on the vehicle that captures the environment around the vehicle,
A map storage unit that stores a map containing information on the three-dimensional positions of multiple feature points,
A detection unit that detects feature points from the captured image taken by the in-vehicle camera,
Using the position and orientation of the vehicle-mounted camera and the azimuth angle to the position of the feature point detected by the detection unit, the vehicle can include the same feature point in the plurality of captured images. A vehicle speed control unit that controls the upper limit vehicle speed,
In a state where the upper limit vehicle speed is controlled by the vehicle speed control unit, the feature points detected by the detection unit are compared with the feature points in the map stored in the map storage unit. A position estimation unit that estimates the position of the vehicle and
A position estimation device.
車両制御システムであって、
請求項4に記載の位置推定装置と、
前記車両の過去の走行軌跡を記憶する軌跡記憶部と、
前記車両が走行する経路が前記軌跡記憶部に記憶されている前記走行軌跡に対応する経路と同じである場合に、前記位置推定部により推定された前記車両の位置を、前記走行軌跡に追従させるように前記車両を制御する追従制御部と、
を備える、車両制御システム。
It ’s a vehicle control system.
The position estimation device according to claim 4 and
A locus storage unit that stores the past travel locus of the vehicle and
When the route on which the vehicle travels is the same as the route corresponding to the travel locus stored in the locus storage unit, the position of the vehicle estimated by the position estimation unit is made to follow the travel locus. A follow-up control unit that controls the vehicle and
A vehicle control system.
地図作成方法であって、情報処理装置が、
車両に搭載された車載カメラにより、前記車両の周辺の環境を撮影する撮影工程と、
前記車載カメラにより撮影された撮影画像から特徴点を検出する検出工程と、
前記車両に対する前記車載カメラの位置および姿勢を用いて、複数の前記撮影画像に含まれる同一の前記特徴点の三次元位置を算出する算出工程と、
前記車載カメラの位置および姿勢と、算出された前記特徴点の位置への方位角とを用いて、同一の前記特徴点が前記複数の撮影画像に含まれるように、前記車両の上限車速を制御する車速制御工程と、
前記複数の撮影画像からそれぞれ算出された複数の異なる前記特徴点の三次元位置を用いて、各前記三次元位置の情報を含む地図を作成する地図作成工程と、
を備える、地図作成方法。
It is a map creation method, and the information processing device
The shooting process of shooting the surrounding environment of the vehicle with the in-vehicle camera mounted on the vehicle,
A detection process for detecting feature points from an image taken by the in-vehicle camera, and
A calculation step of calculating the three-dimensional position of the same feature point included in the plurality of captured images by using the position and orientation of the vehicle-mounted camera with respect to the vehicle.
Using the position and orientation of the in-vehicle camera and the calculated azimuth angle to the position of the feature point, the upper limit vehicle speed of the vehicle is controlled so that the same feature point is included in the plurality of captured images. Vehicle speed control process and
A map creation step of creating a map including information on each of the three-dimensional positions using the three-dimensional positions of the plurality of different feature points calculated from the plurality of captured images.
How to make a map.
コンピュータプログラムであって、
車両に搭載された車載カメラにより、前記車両の周辺の環境を撮影する撮影機能と、
前記車載カメラにより撮影された撮影画像から特徴点を検出する検出機能と、
前記車両に対する前記車載カメラの位置および姿勢を用いて、複数の前記撮影画像に含まれる同一の前記特徴点の三次元位置を算出する算出機能と、
前記車載カメラの位置および姿勢と、算出された前記特徴点の位置への方位角とを用いて、同一の前記特徴点が前記複数の撮影画像に含まれるように、前記車両の上限車速を制御する車速制御機能と、
前記複数の撮影画像からそれぞれ算出された複数の異なる前記特徴点の三次元位置を用いて、各前記三次元位置の情報を含む地図を作成する地図作成機能と、
を情報処理装置に実現させる、コンピュータプログラム。
It ’s a computer program,
A shooting function that captures the environment around the vehicle with an in-vehicle camera mounted on the vehicle,
A detection function that detects feature points from the captured image taken by the in-vehicle camera, and
A calculation function for calculating the three-dimensional position of the same feature point included in the plurality of captured images by using the position and orientation of the vehicle-mounted camera with respect to the vehicle.
Using the position and orientation of the vehicle-mounted camera and the calculated azimuth angle to the position of the feature point, the upper limit vehicle speed of the vehicle is controlled so that the same feature point is included in the plurality of captured images. Vehicle speed control function and
A map creation function that creates a map including information on each of the three-dimensional positions by using the three-dimensional positions of a plurality of different feature points calculated from the plurality of captured images.
A computer program that realizes information processing equipment.
位置推定方法であって、情報処理装置が、
車両に搭載された車載カメラにより、前記車両の周辺の環境を撮影する撮影工程と、
前記車載カメラにより撮影された撮影画像から特徴点を検出する検出工程と、
前記車載カメラの位置および姿勢と、検出された前記特徴点の位置への方位角とを用いて、同一の前記特徴点が前記複数の撮影画像に含まれるように、前記車両の上限車速を制御する車速制御工程と、
検出された前記特徴点を、地図記憶部に記憶された複数の特徴点の三次元位置の情報を含む地図内の前記特徴点に照合することにより、前記車両の位置を推定する位置推定工程と、
を備える、位置推定方法。
It is a position estimation method, and the information processing device
The shooting process of shooting the surrounding environment of the vehicle with the in-vehicle camera mounted on the vehicle,
A detection process for detecting feature points from an image taken by the in-vehicle camera, and
Using the position and orientation of the in-vehicle camera and the azimuth angle to the position of the detected feature point, the upper limit vehicle speed of the vehicle is controlled so that the same feature point is included in the plurality of captured images. Vehicle speed control process and
A position estimation step of estimating the position of the vehicle by collating the detected feature points with the feature points in the map including information on the three-dimensional positions of the plurality of feature points stored in the map storage unit. ,
A position estimation method.
JP2020047487A 2020-03-18 2020-03-18 Map creation device, position estimation device, vehicle control system, map creation method, computer program, and location estimation method Active JP7393987B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020047487A JP7393987B2 (en) 2020-03-18 2020-03-18 Map creation device, position estimation device, vehicle control system, map creation method, computer program, and location estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020047487A JP7393987B2 (en) 2020-03-18 2020-03-18 Map creation device, position estimation device, vehicle control system, map creation method, computer program, and location estimation method

Publications (2)

Publication Number Publication Date
JP2021149396A true JP2021149396A (en) 2021-09-27
JP7393987B2 JP7393987B2 (en) 2023-12-07

Family

ID=77848865

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020047487A Active JP7393987B2 (en) 2020-03-18 2020-03-18 Map creation device, position estimation device, vehicle control system, map creation method, computer program, and location estimation method

Country Status (1)

Country Link
JP (1) JP7393987B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018146326A (en) * 2017-03-03 2018-09-20 日立オートモティブシステムズ株式会社 Device and method for estimating position of mobile body
JP2019132664A (en) * 2018-01-30 2019-08-08 株式会社豊田中央研究所 Vehicle position estimating device, vehicle position estimating method, and vehicle position estimating program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018146326A (en) * 2017-03-03 2018-09-20 日立オートモティブシステムズ株式会社 Device and method for estimating position of mobile body
JP2019132664A (en) * 2018-01-30 2019-08-08 株式会社豊田中央研究所 Vehicle position estimating device, vehicle position estimating method, and vehicle position estimating program

Also Published As

Publication number Publication date
JP7393987B2 (en) 2023-12-07

Similar Documents

Publication Publication Date Title
US11320836B2 (en) Algorithm and infrastructure for robust and efficient vehicle localization
JP7126414B2 (en) Method and device for automatically backing a vehicle
JP6896077B2 (en) Vehicle automatic parking system and method
US10380890B2 (en) Autonomous vehicle localization based on walsh kernel projection technique
CN110377025A (en) Sensor aggregation framework for automatic driving vehicle
CN107807659A (en) A kind of UAV Flight Control method and device
CN110386142A (en) Pitch angle calibration method for automatic driving vehicle
CN110388931A (en) The two-dimentional bounding box of object is converted into the method for the three-dimensional position of automatic driving vehicle
CN110096053A (en) Driving locus generation method, system and machine readable media for automatic driving vehicle
CN110239562A (en) The real-time perception adjustment based on surrounding vehicles behavior of automatic driving vehicle is adjusted with driving
CN108810473B (en) Method and system for realizing GPS mapping camera picture coordinate on mobile platform
CN110246182A (en) Vision-based global map positioning method and device, storage medium and equipment
CN110389580A (en) Method for planning the drift correction in the path of automatic driving vehicle
CN112146649A (en) Navigation method and device in AR scene, computer equipment and storage medium
EP2745193A1 (en) Systems and methods for navigating camera
WO2020133172A1 (en) Image processing method, apparatus, and computer readable storage medium
CN112284400B (en) Vehicle positioning method and device, electronic equipment and computer readable storage medium
WO2022007602A1 (en) Method and apparatus for determining location of vehicle
CN105324637B (en) Drive assist system, method and storage medium
CN111510704A (en) Method for correcting camera dislocation and device using same
JP4986883B2 (en) Orientation device, orientation method and orientation program
US20200217665A1 (en) Mobile platform, image capture path generation method, program, and recording medium
JP2021149396A (en) Map generation apparatus, position estimation apparatus, vehicle control system, map generation method, computer program, and position estimation method
CN116520847A (en) Path planning method, path planning device, mobile robot, electronic equipment and storage medium
TWI798789B (en) Navigation device, navigation system, navigation method, and media storaged the navigation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231127

R150 Certificate of patent or registration of utility model

Ref document number: 7393987

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231201