JP7393987B2 - Map creation device, position estimation device, vehicle control system, map creation method, computer program, and location estimation method - Google Patents

Map creation device, position estimation device, vehicle control system, map creation method, computer program, and location estimation method Download PDF

Info

Publication number
JP7393987B2
JP7393987B2 JP2020047487A JP2020047487A JP7393987B2 JP 7393987 B2 JP7393987 B2 JP 7393987B2 JP 2020047487 A JP2020047487 A JP 2020047487A JP 2020047487 A JP2020047487 A JP 2020047487A JP 7393987 B2 JP7393987 B2 JP 7393987B2
Authority
JP
Japan
Prior art keywords
vehicle
map
feature point
camera
vehicle speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020047487A
Other languages
Japanese (ja)
Other versions
JP2021149396A (en
Inventor
彰司 浅井
和孝 早川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Toyota Central R&D Labs Inc
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Toyota Central R&D Labs Inc, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2020047487A priority Critical patent/JP7393987B2/en
Publication of JP2021149396A publication Critical patent/JP2021149396A/en
Application granted granted Critical
Publication of JP7393987B2 publication Critical patent/JP7393987B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、地図作成装置、位置推定装置、車両制御システム、地図作成方法、コンピュータプログラム、および位置推定方法に関する。 The present invention relates to a map creation device, a position estimation device, a vehicle control system, a map creation method, a computer program, and a position estimation method.

車両に搭載された車載カメラの撮影画像内の特徴点を用いて、車両の自動運転を行う自動運転制御装置が知られている(例えば、特許文献1参照)。特許文献1に記載された自動運転制御装置は、車載カメラにより撮影された特徴点を用いて、駐車枠線のない駐車スペースに車両を駐車させる。 2. Description of the Related Art An automatic driving control device is known that automatically drives a vehicle using feature points in images taken by an on-vehicle camera mounted on the vehicle (for example, see Patent Document 1). The automatic driving control device described in Patent Document 1 uses feature points photographed by an on-vehicle camera to park a vehicle in a parking space without a parking frame line.

特許第6564713号公報Patent No. 6564713

特許文献1に記載された装置は、運転者の手動運転時に撮影された撮影画像内から特徴点を検出し、検出した特徴点を用いて駐車スペースの地図を作成する。特徴点の検出時に、車両速度が速いと、地図作成のために必要な特徴点を検出できず、自動運転を実現できないおそれがある。一方で、特徴点検出時の車両速度を遅くし過ぎてしまうと、地図を作成するために必要以上の時間がかかるおそれがある。そのため、自動運転制御を効率的かつ安定的に実現したい課題があった。 The device described in Patent Document 1 detects feature points from images taken during manual driving by a driver, and creates a map of parking spaces using the detected feature points. When detecting feature points, if the vehicle speed is high, the feature points necessary for map creation may not be detected, and there is a risk that automatic driving may not be realized. On the other hand, if the vehicle speed when detecting feature points is made too slow, there is a risk that it will take more time than necessary to create a map. Therefore, there was a problem in realizing automatic driving control efficiently and stably.

本発明は、上述した課題を解決するためになされたものであり、自動運転制御を効率的かつ安定的に実現するための技術を提供することを目的とする。 The present invention has been made to solve the above-mentioned problems, and an object of the present invention is to provide a technique for efficiently and stably realizing automatic driving control.

本発明は、上述の課題を解決するためになされたものであり、以下の形態として実現できる。 The present invention has been made to solve the above-mentioned problems, and can be realized as the following forms.

(1)本発明の一形態によれば、地図作成装置が提供される。この地図作成装置は、車両に搭載され、前記車両の周辺の環境を撮影する車載カメラと、前記車載カメラにより撮影された撮影画像から特徴点を検出する検出部と、前記車載カメラの位置および姿勢を用いて、複数の前記撮影画像に含まれる同一の前記特徴点の三次元位置を算出する算出部と、前記車載カメラの位置および姿勢と、前記算出部により算出された前記特徴点の位置への方位角とを用いて、同一の前記特徴点が前記複数の撮影画像に含まれるように、前記車両の上限車速を制御する車速制御部と、前記複数の撮影画像からそれぞれ算出された複数の異なる前記特徴点の三次元位置を用いて、各前記三次元位置の情報を含む地図を作成する地図作成部と、を備える。 (1) According to one embodiment of the present invention, a map creation device is provided. This map creation device is mounted on a vehicle and includes an on-vehicle camera that photographs the surrounding environment of the vehicle, a detection unit that detects feature points from images taken by the on-vehicle camera, and a position and orientation of the on-vehicle camera. a calculation unit that calculates the three-dimensional position of the same feature point included in a plurality of captured images using the above, the position and orientation of the in-vehicle camera, and the position of the feature point calculated by the calculation unit; a vehicle speed control unit that controls an upper limit vehicle speed of the vehicle so that the same feature point is included in the plurality of captured images using the azimuth angle of the plurality of captured images; A map creation unit that creates a map including information on each of the three-dimensional positions using the three-dimensional positions of the different feature points.

この構成によれば、上限車速が設定されることにより、最小限の減速の下で、異なる地点で撮影された同一の特徴点が複数の撮影画像に含まれる。これにより、三角測量の原理に基づいて、地図を作成するために必要な特徴点の三次元位置の情報が十分に得られ、安定的に複数の特徴点の位置情報を含む地図が作成される。このように、最小限の減速の下で、複数の特徴点の位置情報を含む地図が安定的に作成されることにより、自動運転制御における地図内の情報の欠落を抑制することができ、車両の自動運転制御が効率的かつ安定的に実現される。 According to this configuration, by setting the upper limit vehicle speed, the same feature point photographed at different points is included in the plurality of photographed images under minimum deceleration. As a result, based on the principle of triangulation, sufficient information on the three-dimensional positions of feature points necessary to create a map can be obtained, and a map containing the position information of multiple feature points can be stably created. . In this way, by stably creating a map that includes position information of multiple feature points under minimal deceleration, it is possible to suppress the lack of information in the map during automatic driving control, and to Automatic driving control will be realized efficiently and stably.

(2)上記態様の地図作成装置において、前記車速制御部は、前記車載カメラのフレームレートおよび画角を用いて、予め設定された枚数以上の前記撮影画像において、同一の前記特徴点が検出される車速以下となるように、前記上限車速を設定してもよい。
この構成によれば、車載カメラのフレームレートおよび画角を用いて、地図を作成するために必要最低限の車速に上限車速を留める。これにより、最小限の減速の下、複数の特徴点の位置情報を含む地図がより効率的に作成される。
(2) In the map creation device of the above aspect, the vehicle speed control unit detects the same feature point in a preset number or more of the captured images using the frame rate and angle of view of the in-vehicle camera. The upper limit vehicle speed may be set so as to be equal to or lower than the vehicle speed.
According to this configuration, the frame rate and angle of view of the vehicle-mounted camera are used to keep the upper limit vehicle speed at the minimum vehicle speed necessary for creating a map. As a result, a map including position information of a plurality of feature points can be created more efficiently with minimal deceleration.

(3)上記態様の地図作成装置において、前記車速制御部は、出発地から目的地までの経路のうち、前記地図作成部による前記地図の作成区間に限って、前記上限車速を制御してもよい。
この構成によれば、地図を作成しない区間では、車両の上限車速が設定されないため、作成区間では地図が安定的に作成された上で、車両の運転が必要以上に制限されずに済む。
(3) In the map creation device of the above aspect, the vehicle speed control unit may control the upper limit vehicle speed only in the section of the route from the departure point to the destination where the map is created by the map creation unit. good.
According to this configuration, since the upper limit vehicle speed of the vehicle is not set in the section where no map is created, the map is stably created in the section where the map is not created, and the driving of the vehicle is not unnecessarily restricted.

(4)本発明の他の一形態によれば、位置推定装置が提供される。この位置推定装置は、車両に搭載され、前記車両の周辺の環境を撮影する車載カメラと、複数の特徴点の三次元位置の情報を含む地図を記憶している地図記憶部と、前記車載カメラにより撮影された撮影画像から特徴点を検出する検出部と、前記車載カメラの位置および姿勢と、前記検出部により検出された前記特徴点の位置への方位角とを用いて、同一の前記特徴点が前記複数の撮影画像に含まれるように、前記車両の上限車速を制御する車速制御部と、前記車速制御部により前記上限車速が制御されている状態で、前記検出部により検出された前記特徴点を、前記地図記憶部に記憶された前記地図内の前記特徴点に照合することにより、前記車両の位置を推定する位置推定部と、を備える。
この構成によれば、車載カメラの撮影画像から特徴点が検出される際に、車速が上限車速以下に設定されている。そのため、走行中の連続する撮影画像間で同一の特徴点を追跡できるため、車両の現在位置が安定的に推定される。これにより、車両において自動運転制御が安定的に行われる。
(4) According to another aspect of the present invention, a position estimation device is provided. This position estimating device includes an on-vehicle camera that is mounted on a vehicle and photographs the environment around the vehicle, a map storage unit that stores a map including information on three-dimensional positions of a plurality of feature points, and the on-vehicle camera. A detection unit that detects a feature point from a photographed image taken by the camera, the position and orientation of the vehicle-mounted camera, and an azimuth angle to the position of the feature point detected by the detection unit are used to detect the same feature. a vehicle speed control unit that controls an upper limit vehicle speed of the vehicle, and the vehicle speed detected by the detection unit in a state where the upper limit vehicle speed is controlled by the vehicle speed control unit so that the point is included in the plurality of photographed images. A position estimating unit that estimates the position of the vehicle by comparing the feature points with the feature points in the map stored in the map storage unit.
According to this configuration, when a feature point is detected from an image captured by an on-vehicle camera, the vehicle speed is set to be equal to or lower than the upper limit vehicle speed. Therefore, since the same feature points can be tracked between successive captured images while the vehicle is running, the current position of the vehicle can be stably estimated. As a result, automatic driving control is stably performed in the vehicle.

(5)本発明の他の一形態によれば、車両制御システムが提供される。この車両制御システムは、上記記載の位置推定装置と、前記車両の過去の走行軌跡を記憶する軌跡記憶部と、前記車両が走行する経路が前記軌跡記憶部に記憶されている前記走行軌跡に対応する経路と同じである場合に、前記位置推定部により推定された前記車両の位置を、前記走行軌跡に追従させるように前記車両を制御する追従制御部と、を備える。
この構成によれば、過去の走行軌跡に追従した車両の自動運転を実現できる。
(5) According to another aspect of the present invention, a vehicle control system is provided. This vehicle control system includes the position estimating device described above, a trajectory storage section that stores a past trajectory of the vehicle, and a trajectory storage section in which a route traveled by the vehicle is stored in the trajectory storage section. and a tracking control unit that controls the vehicle so that the position of the vehicle estimated by the position estimating unit follows the travel trajectory when the route is the same as that of the vehicle.
According to this configuration, it is possible to realize automatic driving of a vehicle that follows a past travel trajectory.

なお、本発明は、種々の態様で実現することが可能であり、例えば、地図作成装置、位置推定装置、および車両制御システムおよびこれらの装置を備える車両、および地図作成方法、位置推定方法、これら装置や方法を実行するためのコンピュータプログラム、このコンピュータプログラムを配布するためのサーバ装置、コンピュータプログラムを記憶した一時的でない記憶媒体等の形態で実現することができる。 Note that the present invention can be realized in various aspects, and includes, for example, a map creation device, a position estimation device, a vehicle control system, a vehicle equipped with these devices, a map creation method, a position estimation method, and It can be realized in the form of a computer program for executing the apparatus or method, a server device for distributing this computer program, a non-temporary storage medium storing the computer program, etc.

本発明の第1実施形態としての地図作成システムの概略ブロック図である。1 is a schematic block diagram of a map creation system as a first embodiment of the present invention. 車載カメラの位置および姿勢の変化量についての説明図である。FIG. 2 is an explanatory diagram of the amount of change in the position and posture of the vehicle-mounted camera. 車載カメラの位置および姿勢の変化量についての説明図である。FIG. 2 is an explanatory diagram of the amount of change in the position and posture of the vehicle-mounted camera. 撮影画像から検出される特徴点と上限車速との関係についての説明図である。FIG. 2 is an explanatory diagram of the relationship between feature points detected from a photographed image and an upper limit vehicle speed. 撮影画像から検出される特徴点と上限車速との関係についての説明図である。FIG. 2 is an explanatory diagram of the relationship between feature points detected from a photographed image and an upper limit vehicle speed. 撮影画像から検出される特徴点と上限車速との関係についての説明図である。FIG. 2 is an explanatory diagram of the relationship between feature points detected from a photographed image and an upper limit vehicle speed. 地図作成部により作成される地図についての説明図である。It is an explanatory diagram about a map created by a map creation part. 地図作成部により作成される地図についての説明図である。It is an explanatory diagram about a map created by a map creation part. 地図作成方法のフローチャートである。It is a flowchart of a map creation method. 算出工程のサブフローのフローチャートである。It is a flowchart of the subflow of a calculation process. 第2実施形態の車両制御システムの概略ブロック図である。FIG. 2 is a schematic block diagram of a vehicle control system according to a second embodiment. 車両制御方法のフローチャートである。3 is a flowchart of a vehicle control method. 位置推定工程のサブフローのフローチャートである。It is a flowchart of the subflow of a position estimation process.

<第1実施形態>
図1は、本発明の第1実施形態としての地図作成システム100の概略ブロック図である。地図作成システム(地図作成装置)100は、車両10に搭載された車載カメラ11の撮影画像を用いて、車庫などの三次元構造の情報を含む地図を作成する。図1に示されるように、地図作成システム100は、車両10の後方周辺の環境を撮影する車載カメラ11と、車両10に搭載された制御装置20と、を備えている。
<First embodiment>
FIG. 1 is a schematic block diagram of a map creation system 100 as a first embodiment of the present invention. A map creation system (map creation device) 100 creates a map including information on a three-dimensional structure such as a garage, using images captured by an on-vehicle camera 11 mounted on a vehicle 10. As shown in FIG. 1, the map creation system 100 includes an on-vehicle camera 11 that photographs the environment around the rear of the vehicle 10, and a control device 20 mounted on the vehicle 10.

車載カメラ11は、単眼カメラである。本実施形態の車載カメラ11の画角は、水平100°、垂直55°、対角125°である。また、車載カメラ11のフレームレートは、30.0fpsである。制御装置20は、車載カメラ11により撮影された撮影画像を用いて、車両10に対して各種制御を行う。 The vehicle-mounted camera 11 is a monocular camera. The angle of view of the vehicle-mounted camera 11 of this embodiment is 100° horizontally, 55° vertically, and 125° diagonally. Further, the frame rate of the vehicle-mounted camera 11 is 30.0 fps. The control device 20 performs various controls on the vehicle 10 using captured images captured by the on-vehicle camera 11.

図1に示されるように、制御装置20は、ユーザの各種操作を受け付ける入力部60と、各種画像を表示するモニタおよび音声を出力するスピーカで構成される出力部70と、CPU(Central Processing Unit)30と、ROM(Read Only Memory)21と、RAM(Random Access Memory)22と、各種情報を記憶する記憶部40と、を備えている。 As shown in FIG. 1, the control device 20 includes an input section 60 that receives various user operations, an output section 70 that includes a monitor that displays various images, a speaker that outputs audio, and a CPU (Central Processing Unit). ) 30, a ROM (Read Only Memory) 21, a RAM (Random Access Memory) 22, and a storage section 40 for storing various information.

本実施形態の入力部60は、キーボードと、音声入力を受け付けるマイクとにより構成されている。CPU30は、ROM21に格納されているコンピュータプログラムをRAM22に展開して実行することにより、検出部31、算出部32、車速制御部33、および地図作成部34として機能する。 The input unit 60 of this embodiment includes a keyboard and a microphone that accepts voice input. The CPU 30 functions as a detection section 31, a calculation section 32, a vehicle speed control section 33, and a map creation section 34 by loading a computer program stored in the ROM 21 into the RAM 22 and executing it.

記憶部40は、ハードディスクドライブ(HDD:Hard Disk Drive)などで構成されている。記憶部40は、経路案内に使用される地図データを記憶している地図データベース(地図DB)42を備えている。地図DB42は、さらに、後述する地図作成部34により作成される三次元情報を含む地図データも記憶する。 The storage unit 40 is configured with a hard disk drive (HDD) or the like. The storage unit 40 includes a map database (map DB) 42 that stores map data used for route guidance. The map DB 42 also stores map data including three-dimensional information created by a map creation unit 34, which will be described later.

検出部31は、車載カメラ11により撮影された複数の撮影画像のそれぞれから、FAST(Features from Accelerated Segment Test)アルゴリズムなどを用いて、特徴点を検出する。ここで「特徴点」とは、撮影画像の特徴を表す点(例えば、撮影画像中の建造物の角部等)を意味する。算出部32は、車載カメラ11の位置および姿勢を用いて、検出部31により検出された特徴点の三次元位置を算出する。本実施形態の算出部32は、ORB(Oriented FAST and Rotated BRIEF)等を用いて、複数の撮影画像に含まれる同一の特徴点を対応付ける。 The detection unit 31 detects feature points from each of the plurality of images taken by the in-vehicle camera 11 using a FAST (Features from Accelerated Segment Test) algorithm or the like. Here, the term "feature point" refers to a point representing a feature of a photographed image (for example, a corner of a building in a photographed image). The calculation unit 32 calculates the three-dimensional position of the feature point detected by the detection unit 31 using the position and orientation of the in-vehicle camera 11. The calculation unit 32 of this embodiment uses ORB (Oriented FAST and Rotated BRIEF) or the like to associate the same feature points included in a plurality of captured images.

図2および図3は、車載カメラ11の位置および姿勢の変化量についての説明図である。車載カメラ11が起動すると、初めに、ワールド座標系における車載カメラ11の位置および姿勢を特定する必要がある。そのため、初めに、検出部31が、図2に示される(n-1)番目の撮影画像IMn-1を1番目の画像として、FAST等により特徴点画像FP1を検出する。算出部32は、検出された特徴点画像FP1に対して、OBR等によって特徴量を算出する。 2 and 3 are explanatory diagrams of the amount of change in the position and posture of the vehicle-mounted camera 11. When the vehicle-mounted camera 11 is activated, it is first necessary to specify the position and orientation of the vehicle-mounted camera 11 in the world coordinate system. Therefore, first, the detection unit 31 detects the feature point image FP1 by FAST or the like, using the (n-1)th captured image IM n-1 shown in FIG. 2 as the first image. The calculation unit 32 calculates a feature amount using OBR or the like for the detected feature point image FP1.

次に、検出部31は、n番目の撮影画像IMnを2番目の画像として、特徴点画像FP2を検出する。算出部32は、検出された特徴点画像FP2の特徴量を算出する。算出部32は、撮影画像IMn-1から算出した特徴点画像FP1の特徴量と、撮影画像IMnから算出した特徴点画像FP2の特徴量とを用いて、各撮影画像IMn-1,IMnにおける特徴点画像FP1,FP2を対応付ける。算出部32は、対応付けた特徴点画像FP1,FP2から、8点アルゴリズムおよびRANSAC(Random Sampling consensus)を用いることにより、基礎行列Fを算出する。 Next, the detection unit 31 detects a feature point image FP2 using the n-th captured image IM n as the second image. The calculation unit 32 calculates the feature amount of the detected feature point image FP2. The calculation unit 32 uses the feature amount of the feature point image FP1 calculated from the captured image IM n-1 and the feature amount of the feature point image FP2 calculated from the captured image IM n to calculate each captured image IM n-1 , The feature point images FP1 and FP2 in IM n are associated. The calculation unit 32 calculates a fundamental matrix F from the associated feature point images FP1 and FP2 by using an 8-point algorithm and RANSAC (Random Sampling consensus).

算出部32は、算出した基礎行列Fと、車載カメラ11の内部パラメータとを用いて、車載カメラ11の位置および姿勢を算出する。なお、図2に示される2つの撮影画像IMn-1,IMnのみでは、車載カメラ11の位置の単位(スケール)が不明である。そのため、本実施形態の算出部32は、車輪回転角センサ等を用いて車載カメラ11の移動距離を算出する。算出部32は、車載カメラ11の移動距離を用いて、車載カメラ11の位置の単位を確定する。算出部32は、確定させた車載カメラ11の位置および姿勢を用いて、三角測量の原理により特徴点P1の三次元位置を算出する。なお、本実施形態では、「位置」として現在地点を表す座標を例示し、「姿勢」として位置(座標値)とは異なる向きの要素(例えば、ロール・ピッチ・ヨーの回転角)を例示する。また、以降では、特徴点に対応して撮影画像内に含まれる特徴点画像を、単に「特徴点」とも呼ぶ。 The calculation unit 32 calculates the position and orientation of the vehicle-mounted camera 11 using the calculated basic matrix F and the internal parameters of the vehicle-mounted camera 11. Note that the unit (scale) of the position of the vehicle-mounted camera 11 is unknown from only the two captured images IM n-1 and IM n shown in FIG. 2 . Therefore, the calculation unit 32 of this embodiment calculates the moving distance of the vehicle-mounted camera 11 using a wheel rotation angle sensor or the like. The calculation unit 32 determines the unit of the position of the vehicle-mounted camera 11 using the moving distance of the vehicle-mounted camera 11. The calculation unit 32 uses the determined position and orientation of the vehicle-mounted camera 11 to calculate the three-dimensional position of the feature point P1 based on the principle of triangulation. Note that in this embodiment, the "position" is exemplified by coordinates representing the current location, and the "posture" is exemplified by elements (for example, rotation angles of roll, pitch, and yaw) that are different from the position (coordinate values). . Furthermore, hereinafter, a feature point image included in a captured image corresponding to a feature point will also be simply referred to as a "feature point."

図3には、m(≧3)番目に撮影される撮影画像IMm-1,IMm内に含まれる、特徴点P1~P3の特徴点画像FP3~FP8が示されている。検出部31は、図2の特徴点P1に対する処理と同じように、撮影画像IMm-1,IMmの特徴点画像FP3~FP8を検出する。算出部32は、図2の特徴点P1に対する処理と同じように、特徴点画像FP3~FP8の特徴量を算出する。算出部32は、算出した特徴点画像FP3~FP8の特徴量を用いて、各撮影画像IMm-1,IMmにおける特徴点画像FP3~FP8を対応付ける。 FIG. 3 shows feature point images FP3 to FP8 of feature points P1 to P3 included in the m-th (≧3) captured images IM m-1 and IM m . The detection unit 31 detects the feature point images FP3 to FP8 of the captured images IM m-1 and IM m in the same way as the processing for the feature point P1 in FIG. The calculation unit 32 calculates the feature amounts of the feature point images FP3 to FP8 in the same way as the processing for the feature point P1 in FIG. The calculation unit 32 uses the calculated feature amounts of the feature point images FP3 to FP8 to associate the feature point images FP3 to FP8 in each photographed image IM m-1 and IM m .

算出部32は、対応付けた特徴点画像FP3~FP8の内の三次元位置が既知の特徴点P1の特徴点画像FP3,FP6を用いて、再投影誤差の和が最小となる、車載カメラ11の位置および姿勢を算出する。再投影誤差とは、特徴点P1が撮影画像IMmに再投影された仮特徴点画像FP01と、特徴点画像FP6との矢印で表される差である。なお、3番目以降に撮影される撮影画像IMmでは、既知の特徴点P1の三次元位置の単位が確定しているため、車載カメラ11の位置の単位が確定している。そのため、算出部32は、車輪回転角センサ等を用いた車載カメラ11の移動距離を用いずに、特徴点P2,P3の三次元位置を算出できる。算出部32は、対応付けた三次元位置が未知の特徴点P2,P3について、車載カメラ11の位置および姿勢を用いて、三角測量の原理により三次元位置を算出する。 The calculation unit 32 uses the feature point images FP3 and FP6 of the feature point P1 whose three-dimensional position is known among the associated feature point images FP3 to FP8 to calculate the in-vehicle camera 11 that minimizes the sum of reprojection errors. Calculate the position and orientation of. The reprojection error is the difference represented by the arrow between the provisional feature point image FP01 in which the feature point P1 is reprojected onto the captured image IM m and the feature point image FP6. Note that in the third and subsequent photographed images IM m , the unit of the three-dimensional position of the known feature point P1 is determined, so the unit of the position of the vehicle-mounted camera 11 is determined. Therefore, the calculation unit 32 can calculate the three-dimensional positions of the feature points P2 and P3 without using the movement distance of the in-vehicle camera 11 using a wheel rotation angle sensor or the like. The calculation unit 32 calculates the three-dimensional positions of the associated feature points P2 and P3 whose three-dimensional positions are unknown, using the position and orientation of the vehicle-mounted camera 11, based on the principle of triangulation.

車速制御部33は、算出部32により特定された車載カメラ11の位置および姿勢と、車載カメラ11から特徴点の三次元位置への方位角とを用いて、同一の特徴点が複数の撮影画像に含まれるように、車両10の上限車速を制御する。具体的には、車速制御部33は、車載カメラ11のフレームレートおよび画角を用いて、予め設定された枚数以上の撮影画像に同一の特徴点が検出される車速以下に上限車速を設定する。 The vehicle speed control unit 33 uses the position and orientation of the in-vehicle camera 11 specified by the calculation unit 32 and the azimuth from the in-vehicle camera 11 to the three-dimensional position of the feature point, and uses the same feature point in multiple captured images. The upper limit vehicle speed of the vehicle 10 is controlled so as to be included in the above. Specifically, the vehicle speed control unit 33 uses the frame rate and angle of view of the in-vehicle camera 11 to set the upper limit vehicle speed to a value below the vehicle speed at which the same feature point is detected in a preset number or more of captured images. .

図4ないし図6は、撮影画像から検出される特徴点と上限車速との関係についての説明図である。図4には、特徴点P5に対応する特徴点FP9が含まれているk番目の撮影画像IMkが示されている。図5には、特徴点P5に対応する特徴点FP10が含まれている(k+1)番目の撮影画像IMk+1が示されている。車両10の移動により車載カメラ11の位置および姿勢が変化すると、図4および図5に示されるように、同一の特徴点P5が対応する撮影画像IMk,IMk+1中の特徴点FP9,FP10の位置が変化する。k番目の撮影画像IMkを撮影した車載カメラ11の位置および姿勢から、(k+1)番目の撮影画像IMk+1を撮影した車載カメラ11の位置および姿勢までの変化量が所定値を超えると、撮影画像IMk+1に特徴点P5に対応する特徴点FP10が含まれない場合がある。そのため、車速制御部33は、車両10の上限車速を設定することにより、複数枚の撮影画像に同一の特徴点を含ませる。 4 to 6 are explanatory diagrams of the relationship between feature points detected from photographed images and the upper limit vehicle speed. FIG. 4 shows the k-th captured image IM k that includes a feature point FP9 corresponding to the feature point P5. FIG. 5 shows the (k+1)th captured image IM k+1 that includes the feature point FP10 corresponding to the feature point P5. When the position and orientation of the in-vehicle camera 11 change due to the movement of the vehicle 10, as shown in FIGS. 4 and 5, the same feature point P5 changes to the feature point FP9, FP9, in the corresponding photographed images IMk , IMk +1 . The position of FP10 changes. If the amount of change from the position and orientation of the vehicle-mounted camera 11 that photographed the k-th photographed image IM k to the position and orientation of the vehicle-mounted camera 11 that photographed the (k+1)-th photographed image IM k+1 exceeds a predetermined value. , the captured image IM k+1 may not include the feature point FP10 corresponding to the feature point P5. Therefore, by setting the upper limit vehicle speed of the vehicle 10, the vehicle speed control unit 33 causes the plurality of captured images to include the same feature point.

図6には、車載カメラ11の位置の変化量と、特徴点P5との位置関係が示されている。車速制御部33は、設定する上限車速Vmaxを、下記式(1)を用いて算出する。なお、図6では、一例として、車載カメラ11の姿勢が変化していない例が示されている。 FIG. 6 shows the amount of change in the position of the vehicle-mounted camera 11 and the positional relationship with the feature point P5. The vehicle speed control unit 33 calculates the upper limit vehicle speed V max to be set using the following formula (1). Note that FIG. 6 shows, as an example, an example in which the attitude of the vehicle-mounted camera 11 does not change.

Figure 0007393987000001
ΔT:撮影時間間隔(フレームレートの逆数)
α:方位角
θ:車載カメラ11の画角
Figure 0007393987000001
ΔT: Shooting time interval (reciprocal of frame rate)
α: Azimuth angle θ: Angle of view of the in-vehicle camera 11

上記式(1)における特徴点P5までの距離Dは、車載カメラ11の光軸を基準として横方向距離の仮定値である。本実施形態の車速制御部33は、距離Dとして、車両10の横幅の0.5倍を仮定値として用いる。この仮定値が用いられることにより、車載カメラ11は、車両10の車体側面よりも外側に存在する特徴点P5を、連続して撮影できる。 The distance D to the feature point P5 in the above equation (1) is an assumed value of the lateral distance with the optical axis of the vehicle-mounted camera 11 as a reference. The vehicle speed control unit 33 of this embodiment uses 0.5 times the width of the vehicle 10 as the distance D as an assumed value. By using this assumed value, the in-vehicle camera 11 can continuously photograph the feature point P5 that exists outside the side surface of the vehicle 10.

方位角αは、k番目の撮影画像IMkが撮影されたときの車載カメラ11の光軸と、特徴点P5とが成す角度である。図4に示されるように、画像座標系における特徴点P5のx座標がxp、画像中心OCのx座標がxc、車載カメラ11の焦点距離がf、画素ピッチがpの場合、方位角αを式(2)で算出する。 The azimuth angle α is the angle formed by the optical axis of the vehicle-mounted camera 11 when the k-th photographed image IM k is photographed and the feature point P5. As shown in FIG. 4, when the x-coordinate of the feature point P5 in the image coordinate system is xp, the x-coordinate of the image center OC is xc, the focal length of the in-vehicle camera 11 is f, and the pixel pitch is p, the azimuth angle α is Calculated using formula (2).

Figure 0007393987000002
Figure 0007393987000002

車速制御部33は、上記式(1)から算出される上限車速Vmaxを設定することにより、予め設定された枚数以上の撮影画像において、同一の特徴点P5が撮影画像内に含まれる。算出部32は、複数の撮影画像内に含まれる同一の特徴点に対して、三角測量との原理に基づいて、特徴点の三次元位置を算出する。 The vehicle speed control unit 33 sets the upper limit vehicle speed V max calculated from the above equation (1), so that the same feature point P5 is included in the captured images of a preset number or more. The calculation unit 32 calculates the three-dimensional position of the same feature point included in a plurality of captured images based on the principle of triangulation.

地図作成部34は、算出された複数の特徴点の三次元位置と特徴量とを含む地図を作成する。三次元位置を含む地図としては、車庫などの駐車スペースが挙げられる。地図に含める各特徴点の特徴量は、複数の撮影画像における特徴量の中央値とする。地図作成部34は、作成した地図を地図DB42に記憶させる。 The map creation unit 34 creates a map including the calculated three-dimensional positions and feature amounts of the plurality of feature points. Examples of maps that include three-dimensional locations include parking spaces such as garages. The feature amount of each feature point included in the map is the median value of the feature amounts in a plurality of captured images. The map creation unit 34 stores the created map in the map DB 42.

図7および図8は、地図作成部34により作成される地図についての説明図である。図7には、車両10が車庫の駐車スペースに駐車される際の車載カメラ11の撮影画像IMiが示されている。図8には、図7の状態を上方から見た平面視が示されている。図7および図8に示される状態では、経路RTに沿って、車両10の運転手が手動運転によって駐車スペースに駐車する。その際に、車速制御部33は、撮影画像IMiから検出された複数の特徴点Pnに対応する特徴点画像FPnが複数枚の撮影画像に含まれるように、上限車速Vmaxを設定する。そのため、車速制御部33の制御により、運転手のアクセルの踏み込み量にかかわらず、地図作成中の車両10の車速は上限車速Vmax以下になる。 7 and 8 are explanatory diagrams of maps created by the map creation section 34. FIG. 7 shows an image IM i taken by the in-vehicle camera 11 when the vehicle 10 is parked in a parking space of a garage. FIG. 8 shows a plan view of the state shown in FIG. 7 from above. In the state shown in FIGS. 7 and 8, the driver of the vehicle 10 manually parks the vehicle in a parking space along the route RT. At this time, the vehicle speed control unit 33 sets the upper limit vehicle speed V max so that the feature point images FPn corresponding to the plurality of feature points Pn detected from the photographed image IM i are included in the plurality of photographed images. Therefore, under the control of the vehicle speed control unit 33, the vehicle speed of the vehicle 10 during map creation becomes equal to or lower than the upper limit vehicle speed Vmax , regardless of the amount by which the driver depresses the accelerator.

図9は、地図作成方法のフローチャートである。図9に示されるように、地図作成フローでは、初めに、車両10に搭載された車載カメラ11が、車両10の周辺環境を撮影する撮影工程を開始する(ステップS1)。次に、検出部31は、FASTアルゴリズムなどを用いて、車載カメラ11の撮影画像から特徴点を検出する検出工程を行う(ステップS2)。 FIG. 9 is a flowchart of the map creation method. As shown in FIG. 9, in the map creation flow, first, the in-vehicle camera 11 mounted on the vehicle 10 starts a photographing process of photographing the surrounding environment of the vehicle 10 (step S1). Next, the detection unit 31 performs a detection step of detecting feature points from the image taken by the vehicle-mounted camera 11 using the FAST algorithm or the like (step S2).

算出部32は、検出部31により検出された特徴点を用いて、複数の撮影画像に含まれる特徴点の三次元位置を算出する算出工程を行う(ステップS3)。図10は、算出工程のサブフローのフローチャートである。図10に示されるように、算出工程では、算出部32は、初めに、検出部31により特徴点が検出された撮影画像が車載カメラ11により撮影された3番目以降の撮影画像であるか否かを判定する(ステップS31)。算出部32は、撮影画像が3番目の画像ではないと判定した場合には(ステップS31:NO)、図2の特徴点P1の三次元位置を算出するように、8点アルゴリズムなどを用いて、車載カメラ11の位置および姿勢を算出する(ステップS32)。具体的には、算出部32は、検出部31により検出された特徴点の特徴量を算出し、算出した特徴量を用いて1,2枚目の撮影画像に含まれる同一の特徴点を対応付ける。算出部32は、対応付けた同一の特徴点から、8点アルゴリズムおよびRANSACを用いることにより、基礎行列Fを算出する。算出部32は、基礎行列Fと、車載カメラ11の移動距離とを用いることにより、車載カメラ11の位置および姿勢を算出する。 The calculation unit 32 uses the feature points detected by the detection unit 31 to perform a calculation step of calculating the three-dimensional positions of the feature points included in the plurality of captured images (step S3). FIG. 10 is a flowchart of a subflow of the calculation process. As shown in FIG. 10, in the calculation step, the calculation unit 32 first determines whether the captured image in which the feature point has been detected by the detection unit 31 is the third or subsequent captured image captured by the in-vehicle camera 11. (Step S31). If the calculation unit 32 determines that the captured image is not the third image (step S31: NO), the calculation unit 32 uses an 8-point algorithm or the like to calculate the three-dimensional position of the feature point P1 in FIG. , the position and orientation of the vehicle-mounted camera 11 are calculated (step S32). Specifically, the calculation unit 32 calculates the feature amount of the feature point detected by the detection unit 31, and uses the calculated feature amount to associate the same feature points included in the first and second captured images. . The calculation unit 32 calculates the fundamental matrix F from the same matched feature points by using the 8-point algorithm and RANSAC. The calculation unit 32 calculates the position and orientation of the vehicle-mounted camera 11 by using the basic matrix F and the movement distance of the vehicle-mounted camera 11.

ステップS31の処理において撮影画像が3番目以降の画像であると判定された場合には(ステップS31:YES)、算出部32は、図3の特徴点P2,P3の三次元位置を算出するように、再投影誤差の和が最小となる車載カメラ11の位置および姿勢を算出する(ステップS33)。具体的には、算出部32は、検出部31により検出された特徴点の特徴量を算出し、複数の撮影画像に含まれる同一の特徴点を対応付ける。算出部32は、対応付けた特徴点の内の三次元位置が既知の特徴点を用いて、再投影誤差の和が最小となる車載カメラ11の位置および姿勢を算出する。その後、算出部32は、対応付けた各特徴点について、算出した車載カメラ11の位置および姿勢を用いて、図6に示される三角測量の原理により三次元位置を算出し(ステップS34)、算出工程を終了する。 If it is determined in the process of step S31 that the photographed image is the third or subsequent image (step S31: YES), the calculation unit 32 calculates the three-dimensional positions of the feature points P2 and P3 in FIG. Then, the position and orientation of the vehicle-mounted camera 11 that minimizes the sum of reprojection errors are calculated (step S33). Specifically, the calculation unit 32 calculates the feature amount of the feature point detected by the detection unit 31, and associates the same feature point included in a plurality of captured images. The calculation unit 32 calculates the position and orientation of the vehicle-mounted camera 11 that minimizes the sum of reprojection errors, using feature points whose three-dimensional positions are known among the matched feature points. Thereafter, the calculation unit 32 uses the calculated position and orientation of the in-vehicle camera 11 to calculate the three-dimensional position of each associated feature point according to the principle of triangulation shown in FIG. 6 (step S34), and calculates Finish the process.

図9のステップS3の処理が行われると、車速制御部33は、車両10の上限車速Vmaxを制御する車速制御工程を行う(ステップS4)。車速制御部33は、図6に示されるように、車載カメラ11から特徴点P5までの方位角αを用いて、上記式(1)を解くことにより、上限車速Vmaxを算出する。車速制御部33は、車両の速度が上限車速Vmax以下になるように制御する。次に、地図作成部34は、算出部32に算出された複数の異なる特徴点の三次元位置を用いて、図7に示されるような三次元位置の情報を含む地図を作成する地図作成工程を行う(ステップS5)。 After the process of step S3 in FIG. 9 is performed, the vehicle speed control unit 33 performs a vehicle speed control step to control the upper limit vehicle speed V max of the vehicle 10 (step S4). As shown in FIG. 6, the vehicle speed control unit 33 calculates the upper limit vehicle speed V max by solving the above equation (1) using the azimuth angle α from the in-vehicle camera 11 to the feature point P5. The vehicle speed control unit 33 controls the speed of the vehicle to be equal to or lower than the upper limit vehicle speed Vmax . Next, the map creation unit 34 uses the three-dimensional positions of the plurality of different feature points calculated by the calculation unit 32 to create a map including three-dimensional position information as shown in FIG. (Step S5).

地図作成部34は、地図の作成が完了したか否かを判定する(ステップS6)。地図作成部34は、地図の作成がまだ完了していないと判定した場合には(ステップS6:NO)、ステップS1以降の処理を繰り返す。地図作成部34は、地図の作成が完了したと判定した場合には(ステップS6:YES)、地図作成フローを終了する。 The map creation unit 34 determines whether the creation of the map has been completed (step S6). If the map creation unit 34 determines that the creation of the map has not been completed yet (step S6: NO), the map creation unit 34 repeats the processing from step S1 onwards. When the map creation unit 34 determines that the map creation has been completed (step S6: YES), the map creation flow ends.

以上説明したように、第1実施形態の地図作成システム100では、算出部32が、車載カメラ11の位置および姿勢を用いて、複数の撮影画像に含まれる同一の特徴点の三次元位置を算出する。車速制御部33は、車載カメラ11から特徴点の三次元位置への方位角αを用いて、同一の特徴点が複数の撮影画像に含まれるように、車両10の上限車速Vmaxを制御する。地図作成部34は、算出された複数の特徴点の三次元位置を用いて、三次元位置の情報を含む地図を作成する。そのため、第1実施形態の地図作成システム100は、複数の特徴点の三次元位置の情報を含む地図を作成する際に、車載カメラ11により撮影される複数の撮影画像に同一の特徴点が含まれるように上限車速Vmaxを設定している。すなわち、上限車速Vmaxが設定されることにより、最小限の減速の下で、異なる地点で撮影された同一の特徴点が複数の撮影画像に含まれる。これにより、三角測量の原理に基づいて、地図を作成するために必要な特徴点の三次元位置の情報が十分に得られ、安定的に複数の特徴点の位置情報を含む地図が作成される。このように、最小限の減速の下で、複数の特徴点の位置情報を含む地図が安定的に作成されることにより、自動運転制御における地図内の情報の欠落を抑制することができ、車両10の自動運転制御が効率的かつ安定的に実現される。 As explained above, in the map creation system 100 of the first embodiment, the calculation unit 32 uses the position and orientation of the in-vehicle camera 11 to calculate the three-dimensional position of the same feature point included in a plurality of captured images. do. The vehicle speed control unit 33 controls the upper limit vehicle speed V max of the vehicle 10 using the azimuth angle α from the in-vehicle camera 11 to the three-dimensional position of the feature point so that the same feature point is included in a plurality of captured images. . The map creation unit 34 uses the calculated three-dimensional positions of the plurality of feature points to create a map including three-dimensional position information. Therefore, when the map creation system 100 of the first embodiment creates a map that includes information on the three-dimensional positions of a plurality of feature points, the same feature points are included in a plurality of captured images captured by the in-vehicle camera 11. The upper limit vehicle speed V max is set so that That is, by setting the upper limit vehicle speed Vmax , the same feature point photographed at different points is included in a plurality of photographed images under minimum deceleration. As a result, based on the principle of triangulation, sufficient information on the three-dimensional positions of feature points necessary to create a map can be obtained, and a map containing the position information of multiple feature points can be stably created. . In this way, by stably creating a map that includes position information of multiple feature points under minimal deceleration, it is possible to suppress the lack of information in the map during automatic driving control, and to 10 automatic driving controls are realized efficiently and stably.

また、第1実施形態の車速制御部33は、車載カメラ11のフレームレートおよび画角を用いて、予め設定された枚数以上の撮影画像に同一の特徴点が検出される車速以下に上限車速Vmaxを設定する。すなわち、第1実施形態の地図作成システム100は、車載カメラ11のフレームレートおよび画角を用いて、地図を作成するために必要最低限の車速に上限車速Vmaxを求める。これにより、最小限の減速の下、複数の特徴点の位置情報を含む地図がより効率的に作成される。 Further, the vehicle speed control unit 33 of the first embodiment uses the frame rate and angle of view of the on-vehicle camera 11 to set the upper limit vehicle speed V below the vehicle speed at which the same feature point is detected in a preset number or more of captured images. Set max . That is, the map creation system 100 of the first embodiment uses the frame rate and angle of view of the vehicle-mounted camera 11 to determine the upper limit vehicle speed V max as the minimum vehicle speed necessary to create a map. As a result, a map including position information of a plurality of feature points can be created more efficiently with minimal deceleration.

<第1実施形態の変形例>
上記第1実施形態では、図7および図8に示されるように、車両10が駐車スペースに駐車する場合の地図作成について説明したが、出発地から、設定された目的地に向かうまでの経路のうち、所定の区間における地図が作成されてもよい。例えば、特徴点の三次元位置の情報を含む地図が作成されていない車庫から所定の目的地まで車両10が移動する場合に、車両10が車庫を出るまでの区間に限って地図が作成されてもよい。この場合に、車速制御部33は、出発地から目的地までの経路のうち、地図作成部34により地図が作成される作成区間である車庫を出るまで区間に限って、車両の上限車速Vmaxを設定する。車速制御部33は、作成区間を過ぎると、設定していた車両10の上限車速Vmaxを解除する。
<Modified example of the first embodiment>
In the first embodiment described above, as shown in FIGS. 7 and 8, map creation when the vehicle 10 is parked in a parking space has been described. Of these, a map for a predetermined section may be created. For example, when the vehicle 10 moves from a garage to a predetermined destination for which a map containing information on the three-dimensional positions of feature points has not been created, a map is created only for the section until the vehicle 10 leaves the garage. Good too. In this case, the vehicle speed control section 33 sets the upper limit vehicle speed V max of the vehicle only in the section of the route from the departure point to the destination until leaving the garage, which is the section where the map is created by the map creation section 34. Set. When the vehicle speed control section 33 passes the created section, the vehicle speed control section 33 cancels the set upper limit vehicle speed V max of the vehicle 10 .

以上説明したように、車速制御部33は、地図作成部34により地図が作成される作成区間に限って、車両の上限車速Vmaxを設定してもよい。この変形例の地図作成システム100では、地図を作成しない区間では、車両の上限車速Vmaxが設定されないため、地図作成が必要な区間では地図が安定的に作成された上で、車両10の運転が必要以上に制限されずに済む。 As explained above, the vehicle speed control unit 33 may set the upper limit vehicle speed V max of the vehicle only in the creation section where the map is created by the map creation unit 34 . In the map creation system 100 of this modified example, the upper limit vehicle speed V max of the vehicle is not set in sections where no map is to be created. is not unduly restricted.

<第2実施形態>
図11は、第2実施形態の車両制御システム200の概略ブロック図である。車両制御システム200は、複数の特徴点の三次元位置の情報を含む地図を用いて、車両10の自動運転を行うシステムである。第2実施形態の車両制御システム200では、第1実施形態の地図作成システム100と比較して、CPU30aが目的地設定部35、位置推定部36、および追従制御部37として機能し、記憶部40aが軌跡データベース(軌跡DB)43を備える点と、算出部32として機能しない点とが異なる。そのため、第2実施形態では、第1実施形態と異なる構成等について説明し、第1実施形態と同じ構成等についての説明を省略する。
<Second embodiment>
FIG. 11 is a schematic block diagram of a vehicle control system 200 according to the second embodiment. The vehicle control system 200 is a system that automatically drives the vehicle 10 using a map that includes information on three-dimensional positions of a plurality of feature points. In the vehicle control system 200 of the second embodiment, compared to the map creation system 100 of the first embodiment, the CPU 30a functions as the destination setting section 35, the position estimation section 36, and the tracking control section 37, and the storage section 40a differs in that it includes a trajectory database (trajectory DB) 43 and that it does not function as a calculation unit 32. Therefore, in the second embodiment, configurations and the like that are different from the first embodiment will be described, and descriptions of the same configurations and the like as the first embodiment will be omitted.

目的地設定部35は、GPS(Global Positioning System)を構成する人工衛星から送信された電波を受信する。目的地設定部35は、位置推定部36により特定された車両10の現在位置と、入力部60が受け付けた目的地と、地図DB42に記憶された地図データとを用いて、現在位置から目的地までの経路を設定する。目的地設定部35は、設定した複数の経路候補を出力部70のモニタに表示させる。入力部60が複数の経路候補から1つの経路を選択する操作を受け付けると、目的地設定部35は、モニタに表示させる画像とスピーカから出力させる音声とを用いて、目的地までの経路を案内する。 The destination setting unit 35 receives radio waves transmitted from artificial satellites that constitute a GPS (Global Positioning System). The destination setting unit 35 uses the current position of the vehicle 10 specified by the position estimation unit 36, the destination accepted by the input unit 60, and the map data stored in the map DB 42 to determine the destination from the current position. Set the route to. The destination setting section 35 displays the plurality of set route candidates on the monitor of the output section 70. When the input unit 60 receives an operation to select one route from a plurality of route candidates, the destination setting unit 35 guides the route to the destination using the image displayed on the monitor and the audio output from the speaker. do.

図11に示される軌跡DB43は、車両10が過去に走行した走行軌跡を地図DBに記憶された地図と関連付けて記憶している。地図DB42は、例えば第1実施形態の地図作成システム100などによって作成された、複数の特徴点の三次元位置と特徴量との情報を含む地図を記憶している。 The trajectory DB 43 shown in FIG. 11 stores the travel trajectory that the vehicle 10 has traveled in the past in association with the map stored in the map DB. The map DB 42 stores a map created by, for example, the map creation system 100 of the first embodiment, and includes information on the three-dimensional positions and feature amounts of a plurality of feature points.

位置推定部36は、車速制御部33により車両10の上限車速Vmaxが制御されている状態で、検出部31により検出した特徴点を用いて、車両10の現在位置を推定する。具体的には、位置推定部36は、複数の撮影画像に含まれ、検出部31により検出された同一の特徴点を対応付ける。対応付けられた特徴点のペアが予め設定された所定値(例えば30ペア)以上の組み合わせの場合に、位置推定部36は、第1実施形態の算出部32が行った、再投影誤差の和が最小となる車載カメラ11の位置および姿勢を算出する。なお、複数の撮影画像から所定値以上の特徴点が対応付けられない場合、および、1番目の撮影画像から特徴点が検出された場合には、位置推定部36は、検出部31により検出された特徴点と、地図DB42に記憶された地図内の特徴点とを対応付ける。位置推定部36は、対応付けた特徴点に対して、再投影誤差の和が最小となる車載カメラ11の位置および姿勢を算出する。位置推定部36は、算出した車載カメラ11の位置および姿勢を用いて、車両10の現在位置を推定する。 The position estimation unit 36 estimates the current position of the vehicle 10 using the feature points detected by the detection unit 31 while the upper limit vehicle speed V max of the vehicle 10 is controlled by the vehicle speed control unit 33 . Specifically, the position estimation unit 36 associates the same feature points included in a plurality of captured images and detected by the detection unit 31. When the number of pairs of associated feature points exceeds a predetermined value (for example, 30 pairs), the position estimation unit 36 calculates the sum of reprojection errors performed by the calculation unit 32 of the first embodiment. The position and orientation of the in-vehicle camera 11 that minimizes are calculated. Note that if a predetermined value or more of feature points cannot be associated from multiple captured images, and if a feature point is detected from the first captured image, the position estimating unit 36 determines whether the feature points are detected by the detecting unit 31 or not. The feature points stored in the map are associated with feature points in the map stored in the map DB 42. The position estimating unit 36 calculates the position and orientation of the vehicle-mounted camera 11 that minimizes the sum of reprojection errors for the associated feature points. The position estimation unit 36 estimates the current position of the vehicle 10 using the calculated position and orientation of the vehicle-mounted camera 11.

追従制御部37は、位置推定部36により推定された車両10の現在位置と、軌跡DB43に記憶された車両10の過去の走行軌跡とを用いて、車両10の操舵角を制御する。具体的には、追従制御部37は、推定された車両10の現在位置を、過去の走行軌跡に追従するように操舵角を制御する。例えば、追従制御部37は、既に三次元位置の情報を含む地図が完成された駐車スペースに対して、過去の駐車時の走行軌跡と同じ軌跡を追従するように、自動運転によって車両10を制御する。 The tracking control unit 37 controls the steering angle of the vehicle 10 using the current position of the vehicle 10 estimated by the position estimation unit 36 and the past travel trajectory of the vehicle 10 stored in the trajectory DB 43. Specifically, the tracking control unit 37 controls the steering angle so that the estimated current position of the vehicle 10 follows the past travel trajectory. For example, the tracking control unit 37 automatically controls the vehicle 10 to follow the same trajectory as the past parking trajectory for a parking space for which a map including three-dimensional position information has already been completed. do.

図12は、車両制御方法のフローチャートである。図12に示される車両制御フローでは、初めに、目的地設定部35が、入力部60が受け付けた操作に応じて、車両10の目的地を設定する(ステップS11)。第2実施形態では、地図DB42に予め三次元位置が既知である複数の特徴点を含む地図が登録された車庫に自動駐車する場合について説明する。目的地としての駐車後の位置が設定されると、ステップS12~S14の処理が行われる。なお、ステップS12~S14の各処理は、第1実施形態(図9)のステップS1,S2,S4の各処理と同じであるため、図12のステップS15以降の処理について説明する。 FIG. 12 is a flowchart of the vehicle control method. In the vehicle control flow shown in FIG. 12, first, the destination setting unit 35 sets the destination of the vehicle 10 according to the operation received by the input unit 60 (step S11). In the second embodiment, a case will be described in which the vehicle is automatically parked in a garage in which a map including a plurality of feature points whose three-dimensional positions are known in advance is registered in the map DB 42. Once the parking position as the destination is set, steps S12 to S14 are performed. Note that each process in steps S12 to S14 is the same as each process in steps S1, S2, and S4 of the first embodiment (FIG. 9), so the processes after step S15 in FIG. 12 will be described.

図12のステップS14の処理が行われると、位置推定部36は、車両10の現在位置を推定する位置推定工程を行う(ステップS15)。図13は、位置推定工程のサブフローのフローチャートである。図13に示されるように、位置推定部36は、初めに、検出部31が特徴点を検出した撮影画像が1番目の画像であるか否かを判定する(ステップS151)。位置推定部36は、特徴点が検出された撮影画像が1番目ではないと判定した場合(ステップS151:NO)、当該撮影画像と、1つ前の撮影画像との間で同一の特徴点を対応付ける(ステップS152)。位置推定部36は、対応付けた特徴点のペアが所定値以上の組み合わせか否かを判定する(ステップS153)。所定値以上の組み合わせの場合には(ステップS153:YES)、位置推定部36は、対応付けられた特徴点を用いて、後述のステップS155の処理を行う。 After the process of step S14 in FIG. 12 is performed, the position estimating unit 36 performs a position estimating step of estimating the current position of the vehicle 10 (step S15). FIG. 13 is a flowchart of a subflow of the position estimation process. As shown in FIG. 13, the position estimation unit 36 first determines whether the photographed image in which the detection unit 31 detected the feature point is the first image (step S151). If the position estimation unit 36 determines that the captured image in which the feature point has been detected is not the first captured image (step S151: NO), the position estimation unit 36 determines whether the same feature point is detected between the captured image and the previous captured image. A correspondence is established (step S152). The position estimation unit 36 determines whether the matched pair of feature points is a combination of a predetermined value or more (step S153). If the combination is equal to or greater than the predetermined value (step S153: YES), the position estimation unit 36 uses the associated feature points to perform the process of step S155, which will be described later.

ステップS153の処理において、対応付けられた特徴点のペアが所定値未満の組み合わせだった場合には(ステップS153:NO)、後述のステップS154の処理を行う。ステップS151の処理において、位置推定部36は、検出部により特徴点が検出された撮影画像が1番目である判定した場合には(ステップS151:YES)、検出された特徴点と、地図DB42に記憶された地図内の特徴点とを対応付ける(ステップS154)。位置推定部36は、ステップS153またはステップS154の処理において対応付けられた特徴点に対して、再投影誤差の和が最小となる車載カメラ11の位置および姿勢を算出し(ステップS155)、位置推定工程を終了する。なお、位置推定部36は、ステップS152で対応付けられた特徴点を用いることにより、ステップS154で対応付けられた特徴点を用いるよりも、車載カメラ11の位置および姿勢を短時間で算出できる。短時間で車載カメラ11の位置および姿勢が算出されると、追従制御部37の追従制度が向上する。 In the process of step S153, if the matched pair of feature points is a combination less than the predetermined value (step S153: NO), the process of step S154 described later is performed. In the process of step S151, if the position estimation unit 36 determines that the captured image in which the feature point was detected by the detection unit is the first one (step S151: YES), the position estimation unit 36 stores the detected feature point and the map DB 42. The stored feature points in the map are associated with each other (step S154). The position estimation unit 36 calculates the position and orientation of the in-vehicle camera 11 that minimizes the sum of reprojection errors for the feature points associated in the process of step S153 or step S154 (step S155), and performs position estimation. Finish the process. Note that the position estimating unit 36 can calculate the position and orientation of the in-vehicle camera 11 in a shorter time by using the feature points associated in step S152 than by using the feature points associated in step S154. When the position and orientation of the vehicle-mounted camera 11 are calculated in a short time, the tracking accuracy of the tracking control unit 37 is improved.

図12のステップS15の処理が行われると、追従制御部37は、位置推定部36により推定された位置から目的地まで、車両10を過去の走行軌跡に追従させる追従工程を行う(ステップS16)。追従制御部37は、目的地である駐車スペースに駐車した際の走行軌跡を、軌跡DB43から取得する。追従制御部37は、現在位置から、取得した走行軌跡に車両10が追従して走行するように、車両10の操舵角を制御する。なお、この際に、車速制御部33は、車両10の速度を上限車速Vmax以下に制御する。 When the process of step S15 in FIG. 12 is performed, the tracking control unit 37 performs a tracking process of causing the vehicle 10 to follow the past travel trajectory from the position estimated by the position estimation unit 36 to the destination (step S16). . The follow-up control unit 37 acquires the travel trajectory when the vehicle is parked in the destination parking space from the trajectory DB 43. The tracking control unit 37 controls the steering angle of the vehicle 10 so that the vehicle 10 follows the acquired travel trajectory from the current position. Note that at this time, the vehicle speed control unit 33 controls the speed of the vehicle 10 to be equal to or lower than the upper limit vehicle speed V max .

追従制御部37は、車両10を設定された目的地まで移動させる追従制御が終了したか否かを判定する(ステップS17)。追従制御が終了していないと判定された場合には(ステップS17:NO)、ステップS12以降の処理が繰り返される。追従制御部37は、追従制御が終了したと判定した場合には(ステップS17:YES)、車両制御フローを終了する。 The follow-up control unit 37 determines whether the follow-up control for moving the vehicle 10 to the set destination has been completed (step S17). If it is determined that the follow-up control has not ended (step S17: NO), the processes from step S12 onwards are repeated. When the follow-up control unit 37 determines that the follow-up control has ended (step S17: YES), it ends the vehicle control flow.

以上説明したように、第2実施形態の位置推定部36は、車速制御部33により車両10の上限車速Vmaxが制御されている状態で、検出部31により検出された特徴点を、地図DB42に記憶された地図内の特徴点と照合することにより(図13のステップS154)、車両10の現在位置を推定する。この時、車速が上限車速Vmax以下に設定されている。そのため、走行中の連続する撮影画像間で同一の特徴点を追跡できるため、車両10の現在位置が安定的に推定される。これにより、車両10において自動運転制御が安定的に行われる。 As explained above, the position estimating unit 36 of the second embodiment transfers the feature points detected by the detecting unit 31 to the map DB 42 while the upper limit vehicle speed V max of the vehicle 10 is controlled by the vehicle speed control unit 33. The current position of the vehicle 10 is estimated by comparing it with the feature points in the map stored in the map (step S154 in FIG. 13). At this time, the vehicle speed is set below the upper limit vehicle speed Vmax . Therefore, since the same feature points can be tracked between successive captured images while the vehicle is running, the current position of the vehicle 10 can be stably estimated. Thereby, automatic driving control is stably performed in the vehicle 10.

また、第2実施形態の車両制御システム200では、軌跡DB43は、車両10が過去に走行した走行軌跡を記憶している。追従制御部37は、位置推定部36により推定された車両10の現在位置を、軌跡DB43に記憶された過去の走行軌跡に追従するように車両10を制御する。そのため、第2実施形態の車両制御システム200は、過去の走行軌跡に追従した車両10の自動運転を実現できる。 Furthermore, in the vehicle control system 200 of the second embodiment, the trajectory DB 43 stores the travel trajectory in which the vehicle 10 traveled in the past. The tracking control unit 37 controls the vehicle 10 so that the current position of the vehicle 10 estimated by the position estimating unit 36 follows the past travel trajectory stored in the trajectory DB 43. Therefore, the vehicle control system 200 of the second embodiment can realize automatic driving of the vehicle 10 that follows the past travel trajectory.

<その他の変形例>
上記実施形態において、ハードウェアによって実現されるとした構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されるとした構成の一部をハードウェアに置き換えるようにしてもよい。本発明は上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
<Other variations>
In the above embodiments, a part of the configuration that is realized by hardware may be replaced with software, or conversely, a part of the configuration that is realized by software may be replaced by hardware. good. The present invention is not limited to the above-described embodiments, and can be implemented in various forms without departing from the spirit thereof. For example, the following modifications are also possible.

上記第1実施形態の地図作成システム100および第2実施形態の車両制御システム200の構成は、一例であり、種々変形可能である。例えば、地図作成システム100は、車載カメラ11を備え、検出部31、算出部32、車速制御部33、および地図作成部34として機能すればよく、入力部60、および出力部70を備えていなくてもよい。車両制御システム200は、車載カメラ11を備え、検出部31、算出部32、車速制御部33、および位置推定部36として機能すればよく、入力部60、および出力部70を備えておらず、目的地設定部35として機能しなくてもよい。 The configurations of the map creation system 100 of the first embodiment and the vehicle control system 200 of the second embodiment are merely examples, and can be modified in various ways. For example, the map creation system 100 only needs to include the in-vehicle camera 11 and function as the detection unit 31, the calculation unit 32, the vehicle speed control unit 33, and the map creation unit 34, and does not include the input unit 60 and the output unit 70. It's okay. The vehicle control system 200 only needs to include the in-vehicle camera 11 and function as the detection section 31, the calculation section 32, the vehicle speed control section 33, and the position estimation section 36, and does not include the input section 60 and the output section 70. It does not have to function as the destination setting section 35.

車両制御システム200は、追従制御部37として機能せずに、車両10の現在位置を推定する位置推定装置として機能してもよい。車両制御システム200により実行される車両制御フロー(図12)は、目的地が設定される工程(ステップS11)および追従工程(ステップS16)を備えていなくてもよい。 The vehicle control system 200 may function as a position estimating device that estimates the current position of the vehicle 10 without functioning as the tracking control unit 37. The vehicle control flow (FIG. 12) executed by the vehicle control system 200 may not include the destination setting step (step S11) and the following step (step S16).

上記第1実施形態の車載カメラ11のフレームレートおよび画角は、一例であって、異なる数値であってもよい。また、車両10に搭載される車載カメラ11の位置は、車両10の後方でなくてもよく、側方や前方であってもよい。また、車両10に複数の車載カメラ11が搭載されていてもよい。複数の車載カメラ11のフレームレートおよび画角については異なっていてもよい。車載カメラ11のフレームレートおよび画角に応じて、特徴点を特定するために撮影する撮影画像の枚数が設定されてもよい。 The frame rate and angle of view of the vehicle-mounted camera 11 in the first embodiment are merely examples, and may be different numerical values. Moreover, the position of the vehicle-mounted camera 11 mounted on the vehicle 10 does not have to be at the rear of the vehicle 10, but may be at the side or the front. Further, a plurality of on-vehicle cameras 11 may be mounted on the vehicle 10. The frame rates and angles of view of the plurality of in-vehicle cameras 11 may be different. Depending on the frame rate and angle of view of the vehicle-mounted camera 11, the number of captured images to be captured in order to identify feature points may be set.

検出部31が撮影画像から特徴点を検出する方法については、上記第1実施形態のFASTアルゴリズム、8点アルゴリズム、およびRANSACに限られず、周知の技術を適用できる。算出部32が複数の撮影画像に含まれる同一の特徴点を対応付ける方法については、上記第1実施形態のORBに限られず、周知の技術を適用できる。 The method by which the detection unit 31 detects feature points from a photographed image is not limited to the FAST algorithm, 8-point algorithm, and RANSAC of the first embodiment, and any known technique can be applied. The method by which the calculation unit 32 associates the same feature points included in a plurality of photographed images is not limited to the ORB of the first embodiment, and any known technique can be applied.

車速制御部33の上限車速Vmaxの設定方法については、種々変形可能である。上記式(1)に示された以外の周知の方法によって上限車速Vmaxが設定されてもよい。また、上記式(1)における距離Dについて、上記第1実施形態では、車両10の横幅の0.5倍を仮定値として用いたが、0.5倍よりも大きくてもよいし、別の値が設定されてもよい。上記第1実施形態では、図6に示されるように、車載カメラ11の姿勢が変化していない例について説明したが、車載カメラ11の姿勢が変化していても、車速制御部33は、上限車速Vmaxを算出できる。 The method of setting the upper limit vehicle speed V max of the vehicle speed control section 33 can be modified in various ways. The upper limit vehicle speed V max may be set by a known method other than that shown in equation (1) above. Further, regarding the distance D in the above formula (1), in the first embodiment, 0.5 times the width of the vehicle 10 is used as an assumed value, but it may be larger than 0.5 times, or another value may be used. A value may be set. In the first embodiment described above, as shown in FIG. Vehicle speed V max can be calculated.

上記第1実施形態および上記第2実施形態では、1つの制御装置20,20aが検出部31、算出部32、および車速制御部33等として機能したが、これらの機能は、複数の制御装置に分散して行われてもよい。この場合に、変形例の制御装置が備える通信部を介した無線通信によって、各種データがやり取りされてもよい。 In the first embodiment and the second embodiment, one control device 20, 20a functions as the detection section 31, the calculation section 32, the vehicle speed control section 33, etc., but these functions are performed by multiple control devices. It may be performed in a distributed manner. In this case, various data may be exchanged by wireless communication via a communication unit included in the control device of the modification.

上記第1実施形態および第2実施形態の入力部60および出力部70については、一例であり、種々変形可能である。例えば、入力部60は、出力部70に表示されたタッチパネルであってもよいし、モニタ70の回りに配置されたプッシュ式のボタンであってもよい。出力部70は、通信部を介して携帯型の端末に画像や音声が出力されてもよい。 The input section 60 and output section 70 of the first embodiment and the second embodiment described above are merely examples, and can be modified in various ways. For example, the input unit 60 may be a touch panel displayed on the output unit 70, or may be a push button arranged around the monitor 70. The output unit 70 may output images and audio to a portable terminal via the communication unit.

以上、実施形態、変形例に基づき本態様について説明してきたが、上記した態様の実施の形態は、本態様の理解を容易にするためのものであり、本態様を限定するものではない。本態様は、その趣旨並びに特許請求の範囲を逸脱することなく、変更、改良され得ると共に、本態様にはその等価物が含まれる。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することができる。 Although the present aspect has been described above based on the embodiments and modified examples, the embodiments of the above-described aspect are for facilitating understanding of the present aspect, and do not limit the present aspect. This aspect may be modified and improved without departing from the spirit and scope of the claims, and this aspect includes equivalents thereof. Furthermore, if the technical feature is not described as essential in this specification, it can be deleted as appropriate.

10…車両
11…車載カメラ
20,20a…制御装置
21…ROM
22…RAM
30,30a…CPU
31…検出部
32…算出部
33…車速制御部
34…地図作成部
35…目的地設定部
36…位置推定部
37…追従制御部
40,40a…記憶部
42…地図DB
43…軌跡DB
60…入力部
70…出力部
100…地図作成システム(地図作成装置)
200…車両制御システム(位置推定装置)
D…距離
FP1~FP10,FPn…特徴点画像(特徴点)
FP01…仮特徴点画像
IMi,IMk,IMk+1,IMm,IMn-1,IMn…撮影画像
OC…画像中心
P1~P3,P5,Pn…特徴点
RT…経路
max…上限車速
θ…車載カメラの画角
α…方位角
ΔT…撮影時間間隔
10...Vehicle 11...Vehicle camera 20, 20a...Control device 21...ROM
22...RAM
30, 30a...CPU
31...Detection section 32...Calculation section 33...Vehicle speed control section 34...Map creation section 35...Destination setting section 36...Position estimation section 37...Following control section 40, 40a...Storage section 42...Map DB
43...Trajectory DB
60...Input section 70...Output section 100...Map creation system (map creation device)
200...Vehicle control system (position estimation device)
D...Distance FP1 to FP10, FPn...Feature point image (feature point)
FP01... Temporary feature point image IM i , IM k , IM k+1 , IM m , IM n-1 , IM n ... Captured image OC... Image center P1 to P3, P5, Pn... Feature point RT... Route V max ... Upper limit vehicle speed θ…Angle of view of the onboard camera α…Azimuth angle ΔT…Shooting time interval

Claims (8)

地図作成装置であって、
車両に搭載され、前記車両の周辺の環境を撮影する車載カメラと、
前記車載カメラにより撮影された撮影画像から特徴点を検出する検出部と、
前記車載カメラの位置および姿勢を用いて、複数の前記撮影画像に含まれる同一の前記特徴点の三次元位置を算出する算出部と、
前記車載カメラの位置および姿勢と、前記算出部により算出された前記特徴点の位置への方位角とを用いて、同一の前記特徴点が前記複数の撮影画像に含まれるように、前記車両の上限車速を制御する車速制御部と、
前記複数の撮影画像からそれぞれ算出された複数の異なる前記特徴点の三次元位置を用いて、各前記三次元位置の情報を含む地図を作成する地図作成部と、
を備える、地図作成装置。
A map creation device,
an on-vehicle camera that is mounted on a vehicle and photographs the environment around the vehicle;
a detection unit that detects feature points from an image taken by the in-vehicle camera;
a calculation unit that calculates a three-dimensional position of the same feature point included in the plurality of captured images using the position and orientation of the in-vehicle camera;
Using the position and orientation of the vehicle-mounted camera and the azimuth to the position of the feature point calculated by the calculation unit, the vehicle is configured to include the same feature point in the plurality of captured images. a vehicle speed control section that controls an upper limit vehicle speed;
a map creation unit that creates a map including information on each of the three-dimensional positions using the three-dimensional positions of the plurality of different feature points calculated from the plurality of captured images;
A map creation device comprising:
請求項1に記載の地図作成装置であって、
前記車速制御部は、前記車載カメラのフレームレートおよび画角を用いて、予め設定された枚数以上の前記撮影画像において、同一の前記特徴点が検出される車速以下となるように、前記上限車速を設定する、地図作成装置。
The map creation device according to claim 1,
The vehicle speed controller uses the frame rate and angle of view of the vehicle-mounted camera to adjust the upper limit vehicle speed so that the vehicle speed is equal to or lower than the vehicle speed at which the same feature point is detected in a preset number or more of the captured images. A map creation device that sets.
請求項1または請求項2に記載の地図作成装置であって、
前記車速制御部は、出発地から目的地までの経路のうち、前記地図作成部による前記地図の作成区間に限って、前記上限車速を制御する、地図作成装置。
The map creation device according to claim 1 or claim 2,
The vehicle speed control unit is a map creation device that controls the upper limit vehicle speed only in a section of the route from a departure point to a destination where the map is created by the map creation unit.
位置推定装置であって、
車両に搭載され、前記車両の周辺の環境を撮影する車載カメラと、
複数の特徴点の三次元位置の情報を含む地図を記憶している地図記憶部と、
前記車載カメラにより撮影された撮影画像から特徴点を検出する検出部と、
前記車載カメラの位置および姿勢と、前記検出部により検出された前記特徴点の位置への方位角とを用いて、同一の前記特徴点が前記複数の撮影画像に含まれるように、前記車両の上限車速を制御する車速制御部と、
前記車速制御部により前記上限車速が制御されている状態で、前記検出部により検出された前記特徴点を、前記地図記憶部に記憶された前記地図内の前記特徴点に照合することにより、前記車両の位置を推定する位置推定部と、
を備える、位置推定装置。
A position estimation device,
an on-vehicle camera that is mounted on a vehicle and photographs the environment around the vehicle;
a map storage unit storing a map including information on three-dimensional positions of a plurality of feature points;
a detection unit that detects feature points from an image taken by the in-vehicle camera;
Using the position and orientation of the vehicle-mounted camera and the azimuth to the position of the feature point detected by the detection unit, the vehicle is configured to include the same feature point in the plurality of captured images. a vehicle speed control section that controls an upper limit vehicle speed;
By comparing the feature points detected by the detection unit with the feature points in the map stored in the map storage unit while the upper limit vehicle speed is controlled by the vehicle speed control unit, a position estimation unit that estimates the position of the vehicle;
A position estimation device comprising:
車両制御システムであって、
請求項4に記載の位置推定装置と、
前記車両の過去の走行軌跡を記憶する軌跡記憶部と、
前記車両が走行する経路が前記軌跡記憶部に記憶されている前記走行軌跡に対応する経路と同じである場合に、前記位置推定部により推定された前記車両の位置を、前記走行軌跡に追従させるように前記車両を制御する追従制御部と、
を備える、車両制御システム。
A vehicle control system,
The position estimation device according to claim 4,
a trajectory storage unit that stores a past travel trajectory of the vehicle;
When the route traveled by the vehicle is the same as the route corresponding to the travel trajectory stored in the trajectory storage unit, the position of the vehicle estimated by the position estimation unit is caused to follow the travel trajectory. a follow-up control section that controls the vehicle in such a manner;
A vehicle control system equipped with
地図作成方法であって、情報処理装置が、
車両に搭載された車載カメラにより、前記車両の周辺の環境を撮影する撮影工程と、
前記車載カメラにより撮影された撮影画像から特徴点を検出する検出工程と、
前記車両に対する前記車載カメラの位置および姿勢を用いて、複数の前記撮影画像に含まれる同一の前記特徴点の三次元位置を算出する算出工程と、
前記車載カメラの位置および姿勢と、算出された前記特徴点の位置への方位角とを用いて、同一の前記特徴点が前記複数の撮影画像に含まれるように、前記車両の上限車速を制御する車速制御工程と、
前記複数の撮影画像からそれぞれ算出された複数の異なる前記特徴点の三次元位置を用いて、各前記三次元位置の情報を含む地図を作成する地図作成工程と、
を備える、地図作成方法。
A map creation method, the information processing device comprising:
a photographing step of photographing the environment around the vehicle with an on-vehicle camera mounted on the vehicle;
a detection step of detecting feature points from an image taken by the in-vehicle camera;
a calculation step of calculating the three-dimensional position of the same feature point included in the plurality of captured images using the position and orientation of the in-vehicle camera with respect to the vehicle;
Using the position and orientation of the vehicle-mounted camera and the calculated azimuth to the position of the feature point, the upper limit vehicle speed of the vehicle is controlled so that the same feature point is included in the plurality of captured images. A vehicle speed control process,
a map creation step of creating a map including information on each of the three-dimensional positions using the three-dimensional positions of the plurality of different feature points calculated from the plurality of captured images;
A map creation method comprising:
コンピュータプログラムであって、
車両に搭載された車載カメラにより、前記車両の周辺の環境を撮影する撮影機能と、
前記車載カメラにより撮影された撮影画像から特徴点を検出する検出機能と、
前記車両に対する前記車載カメラの位置および姿勢を用いて、複数の前記撮影画像に含まれる同一の前記特徴点の三次元位置を算出する算出機能と、
前記車載カメラの位置および姿勢と、算出された前記特徴点の位置への方位角とを用いて、同一の前記特徴点が前記複数の撮影画像に含まれるように、前記車両の上限車速を制御する車速制御機能と、
前記複数の撮影画像からそれぞれ算出された複数の異なる前記特徴点の三次元位置を用いて、各前記三次元位置の情報を含む地図を作成する地図作成機能と、
を情報処理装置に実現させる、コンピュータプログラム。
A computer program,
a photographing function for photographing the environment around the vehicle using an on-vehicle camera mounted on the vehicle;
a detection function that detects feature points from images taken by the in-vehicle camera;
a calculation function that calculates a three-dimensional position of the same feature point included in a plurality of captured images using the position and orientation of the in-vehicle camera with respect to the vehicle;
Using the position and orientation of the vehicle-mounted camera and the calculated azimuth to the position of the feature point, the upper limit vehicle speed of the vehicle is controlled so that the same feature point is included in the plurality of captured images. vehicle speed control function,
a map creation function that creates a map including information on each of the three-dimensional positions using the three-dimensional positions of the plurality of different feature points calculated from the plurality of captured images;
A computer program that allows an information processing device to realize the following.
位置推定方法であって、情報処理装置が、
車両に搭載された車載カメラにより、前記車両の周辺の環境を撮影する撮影工程と、
前記車載カメラにより撮影された撮影画像から特徴点を検出する検出工程と、
前記車載カメラの位置および姿勢と、検出された前記特徴点の位置への方位角とを用いて、同一の前記特徴点が前記複数の撮影画像に含まれるように、前記車両の上限車速を制御する車速制御工程と、
検出された前記特徴点を、地図記憶部に記憶された複数の特徴点の三次元位置の情報を含む地図内の前記特徴点に照合することにより、前記車両の位置を推定する位置推定工程と、
を備える、位置推定方法。
A position estimation method, the information processing device comprising:
a photographing step of photographing the environment around the vehicle with an on-vehicle camera mounted on the vehicle;
a detection step of detecting feature points from an image taken by the in-vehicle camera;
Controlling the upper limit vehicle speed of the vehicle so that the same feature point is included in the plurality of captured images using the position and orientation of the in-vehicle camera and the azimuth to the detected position of the feature point. A vehicle speed control process,
a position estimation step of estimating the position of the vehicle by comparing the detected feature point with the feature point in a map containing three-dimensional position information of a plurality of feature points stored in a map storage unit; ,
A position estimation method comprising:
JP2020047487A 2020-03-18 2020-03-18 Map creation device, position estimation device, vehicle control system, map creation method, computer program, and location estimation method Active JP7393987B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020047487A JP7393987B2 (en) 2020-03-18 2020-03-18 Map creation device, position estimation device, vehicle control system, map creation method, computer program, and location estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020047487A JP7393987B2 (en) 2020-03-18 2020-03-18 Map creation device, position estimation device, vehicle control system, map creation method, computer program, and location estimation method

Publications (2)

Publication Number Publication Date
JP2021149396A JP2021149396A (en) 2021-09-27
JP7393987B2 true JP7393987B2 (en) 2023-12-07

Family

ID=77848865

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020047487A Active JP7393987B2 (en) 2020-03-18 2020-03-18 Map creation device, position estimation device, vehicle control system, map creation method, computer program, and location estimation method

Country Status (1)

Country Link
JP (1) JP7393987B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018146326A (en) 2017-03-03 2018-09-20 日立オートモティブシステムズ株式会社 Device and method for estimating position of mobile body
JP2019132664A (en) 2018-01-30 2019-08-08 株式会社豊田中央研究所 Vehicle position estimating device, vehicle position estimating method, and vehicle position estimating program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018146326A (en) 2017-03-03 2018-09-20 日立オートモティブシステムズ株式会社 Device and method for estimating position of mobile body
JP2019132664A (en) 2018-01-30 2019-08-08 株式会社豊田中央研究所 Vehicle position estimating device, vehicle position estimating method, and vehicle position estimating program

Also Published As

Publication number Publication date
JP2021149396A (en) 2021-09-27

Similar Documents

Publication Publication Date Title
JP7126414B2 (en) Method and device for automatically backing a vehicle
CN109767475B (en) External parameter calibration method and system for sensor
CN110312912B (en) Automatic vehicle parking system and method
CN108932737B (en) Vehicle-mounted camera pitch angle calibration method and device, electronic equipment and vehicle
US7405746B2 (en) Image navigation device
EP3327464A1 (en) Algorithm and infrastructure for robust and efficient vehicle localization
CN106814753B (en) Target position correction method, device and system
WO2020133172A1 (en) Image processing method, apparatus, and computer readable storage medium
WO2013025730A1 (en) Systems and methods for navigating camera
WO2022007602A1 (en) Method and apparatus for determining location of vehicle
CN109447901B (en) Panoramic imaging method and device
CN112347205B (en) Updating method and device for vehicle error state
CN109141411B (en) Positioning method, positioning device, mobile robot, and storage medium
JPWO2020137315A1 (en) Positioning device and mobile
CN111241224B (en) Method, system, computer device and storage medium for target distance estimation
JP5086824B2 (en) TRACKING DEVICE AND TRACKING METHOD
JP2009204385A (en) Targeting device, method, and program
JP7393987B2 (en) Map creation device, position estimation device, vehicle control system, map creation method, computer program, and location estimation method
WO2014102995A1 (en) Monitoring system, method, and information-recording medium containing program
JP5557036B2 (en) Exit determination device, exit determination program, and exit determination method
TWI798789B (en) Navigation device, navigation system, navigation method, and media storaged the navigation program
CN115112144A (en) Navigation method, apparatus, device, storage medium and program product
CN108961337B (en) Vehicle-mounted camera course angle calibration method and device, electronic equipment and vehicle
WO2019144291A1 (en) Flight control method, apparatus, and machine-readable storage medium
US20190333286A1 (en) 3d model establishing device and calibration method applying to the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231127

R150 Certificate of patent or registration of utility model

Ref document number: 7393987

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231201