JP7149707B2 - Information processing device, its control method and program, and operation control system - Google Patents

Information processing device, its control method and program, and operation control system Download PDF

Info

Publication number
JP7149707B2
JP7149707B2 JP2018004469A JP2018004469A JP7149707B2 JP 7149707 B2 JP7149707 B2 JP 7149707B2 JP 2018004469 A JP2018004469 A JP 2018004469A JP 2018004469 A JP2018004469 A JP 2018004469A JP 7149707 B2 JP7149707 B2 JP 7149707B2
Authority
JP
Japan
Prior art keywords
unit
image
geometric information
information
dimensional shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018004469A
Other languages
Japanese (ja)
Other versions
JP2019125112A (en
JP2019125112A5 (en
Inventor
智昭 肥後
大輔 小竹
雅博 鈴木
望 糟谷
誠 冨岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018004469A priority Critical patent/JP7149707B2/en
Priority to PCT/JP2018/041667 priority patent/WO2019138677A1/en
Publication of JP2019125112A publication Critical patent/JP2019125112A/en
Priority to US16/921,389 priority patent/US11393123B2/en
Publication of JP2019125112A5 publication Critical patent/JP2019125112A5/ja
Application granted granted Critical
Publication of JP7149707B2 publication Critical patent/JP7149707B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Geometry (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は情報処理装置及びその制御方法及びプログラム、並びに、運転制御システムに関する。 The present invention relates to an information processing device, its control method and program, and an operation control system.

画像情報に基づく撮像装置の位置及び姿勢を計測する技術は、自動車やロボットの自己位置推定、複合現実感/拡張現実感における現実空間と仮想物体の位置合わせ、物体や空間の三次元モデリングなど様々な目的で利用される。 There are various technologies for measuring the position and orientation of imaging devices based on image information, such as self-position estimation of automobiles and robots, registration of real space and virtual objects in mixed reality/augmented reality, and 3D modeling of objects and spaces. used for the purpose.

特許文献1にはステレオカメラを用いてランドマークを精度良く計測することによって自己位置姿勢を推定する技術が開示されている。また、非特許文献1には単眼のカメラのみを用いて、深層学習で予め学習したモデルを利用してシーンの奥行きを推定することによって、自己位置推定を行う技術が開示されている。 Patent Literature 1 discloses a technique of estimating a self-position and orientation by accurately measuring landmarks using a stereo camera. Also, Non-Patent Document 1 discloses a technique of estimating the self-position by estimating the depth of a scene using only a monocular camera and using a model learned in advance by deep learning.

特開2009-20014号公報Japanese Unexamined Patent Application Publication No. 2009-20014

K. Tateno, F. Tombari, I. Laina and N. Navab, "CNN-SLAM: Real-time dense monocular SLAM with learned depth prediction", IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), 2017.K. Tateno, F. Tombari, I. Laina and N. Navab, "CNN-SLAM: Real-time dense monocular SLAM with learned depth prediction", IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), 2017. J. Engel, T. Schps, and D. Cremers. "LSD-SLAM: Large-Scale Direct Monocular SLAM", In European Conference on Computer Vision (ECCV), 2014.J. Engel, T. Schps, and D. Cremers. "LSD-SLAM: Large-Scale Direct Monocular SLAM", In European Conference on Computer Vision (ECCV), 2014.

しかしながら、自動車の自動運転や運転アシストに用いる自己位置推定のためのモジュールとして利用することなどを考えると、特許文献1や非特許文献1の手法よりも、より安定的に位置姿勢推定を行うことが求められる。 However, considering its use as a module for estimating the self-position used for automatic driving and assisted driving of automobiles, it is possible to perform position and orientation estimation more stably than the methods of Patent Literature 1 and Non-Patent Literature 1. is required.

本発明は上記問題に鑑みてなされたものであり、より安定的に位置姿勢推定を行う技術を提供しようとするものである。 The present invention has been made in view of the above problems, and aims to provide a technique for more stably estimating the position and orientation.

この課題を解決するため、例えば本発明の情報処理装置は以下の構成を備える。すなわち、
撮像視野の少なくとも一部が重複するように移動体に配置された第1の撮像装置及び第2の撮像装置における、前記第1の撮像装置が得た第1の画像、及び、前記第2の撮像装置が得た第2の画像を入力する入力手段と、
画像と該画像を撮影したシーンの三次元形状を表す距離情報とを教師データとして用いて、入力された画像に対応する撮影したシーンの三次元形状を表す距離情報を出力するように学習済みの学習済みモデルを学習モデル保持手段から取得する取得手段と、
前記第1の画像及び前記第2の画像から第1の撮影したシーンの三次元形状を表す距離情報を推定する第1の推定手段と、
前記第1の画像に対応する第2の撮影したシーンの三次元形状を表す距離情報を、前記学習済みモデルを用いて推定する第2の推定手段と、
前記第2の画像に対応する第3の撮影したシーンの三次元形状を表す距離情報を、前記学習済みモデルを用いて推定する第3の推定手段と、
前記第1、第2、第3の撮影したシーンの三次元形状を表す距離情報の少なくとも一つに基づいて、前記第1の撮像装置及び前記第2の撮像装置を含む撮像部の位置情報、当該撮像部が撮像した画像が表す撮影したシーンの三次元形状を表す距離情報の少なくとも一方を生成する生成手段とを有する。
In order to solve this problem, for example, the information processing apparatus of the present invention has the following configuration. i.e.
A first image obtained by the first imaging device and the second image obtained by the first imaging device and the second imaging device, which are arranged on a moving object so that at least a part of the imaging field of view overlaps. input means for inputting a second image obtained by the imaging device;
Using an image and distance information representing the three-dimensional shape of the scene in which the image was shot as training data, the learned system outputs distance information representing the three-dimensional shape of the scene in which the image was shot corresponding to the input image. Acquisition means for acquiring the trained model from the learning model holding means ;
a first estimating means for estimating distance information representing a three-dimensional shape of a first photographed scene from the first image and the second image;
second estimating means for estimating distance information representing a three-dimensional shape of a second shot scene corresponding to the first image using the learned model;
third estimating means for estimating distance information representing a three-dimensional shape of a third shot scene corresponding to the second image using the learned model;
position information of an imaging unit including the first imaging device and the second imaging device based on at least one of distance information representing the three-dimensional shape of the first, second, and third shot scenes ; a generating means for generating at least one of distance information representing a three-dimensional shape of a captured scene represented by an image captured by the imaging unit.

本発明によれば、撮像装置の不具合に対してロバストに位置姿勢推定を行うことができる。 According to the present invention, it is possible to perform position and orientation estimation robustly against defects in the imaging device.

第1の実施形態における自動車の構成を示した図。The figure which showed the structure of the motor vehicle in 1st Embodiment. 第1の実施形態における情報処理装置と運転処理部の機能構成例を示す図。The figure which shows the functional structural example of the information processing apparatus and operation processing part in 1st Embodiment. 第1の実施形態における情報処理装置のハードウェア構成を示す図。2 is a diagram showing the hardware configuration of the information processing apparatus according to the first embodiment; FIG. 第1の実施形態における情報処理システムが実施する処理手順を示すフローチャート。4 is a flowchart showing a processing procedure performed by the information processing system according to the first embodiment; 第1の実施形態における計測結果処理の手順を示すフローチャート。4 is a flowchart showing the procedure of measurement result processing according to the first embodiment; 第1の実施形態における変形例の処理手順を示すフローチャート。6 is a flow chart showing a processing procedure of a modified example of the first embodiment; 第1の実施形態における変形例の計測結果処理の手順を示すフローチャート。9 is a flowchart showing the procedure of measurement result processing according to a modification of the first embodiment; 第2の実施形態における情報処理システムが実施する処理手順を示すフローチャート。9 is a flowchart showing a processing procedure performed by an information processing system according to the second embodiment; 第2の実施形態における計測結果処理部が位置姿勢の不具合の有無を判定する手順を示すフローチャート。FIG. 11 is a flowchart showing a procedure for determining whether or not there is a problem in the position and orientation by a measurement result processing unit according to the second embodiment; FIG. 第2の実施形態における変形例の処理手順を示すフローチャート。10 is a flowchart showing a processing procedure of a modified example of the second embodiment; 第2の実施形態における計測結果処理部が幾何情報の不具合の有無を判定する手順を示すフローチャート。FIG. 11 is a flow chart showing a procedure for determining whether or not there is a defect in geometric information by a measurement result processing unit according to the second embodiment; FIG. 第3の実施形態における情報処理装置と運転処理部の機能構成例を示す図。The figure which shows the functional structural example of the information processing apparatus and operation processing part in 3rd Embodiment. 第3の実施形態における情報処理システムが実施する処理手順を示すフローチャート。10 is a flow chart showing a processing procedure performed by an information processing system according to the third embodiment; 第3の実施形態における計測結果処理部が不具合を解消する手順を示すフローチャート。13 is a flow chart showing a procedure for solving a problem by a measurement result processing unit according to the third embodiment; 第4の実施形態における情報処理装置と運転処理部の機能構成例を示す図。The figure which shows the functional structural example of the information processing apparatus and operation processing part in 4th Embodiment. 第4の実施形態における教師データを取得して学習を行う処理手順を示すフローチャート。FIG. 11 is a flow chart showing a processing procedure for acquiring teacher data and performing learning in the fourth embodiment; FIG. 第5の実施形態における自動車の構成を示した図。The figure which showed the structure of the motor vehicle in 5th Embodiment. 第5の実施形態における情報処理装置と運転処理部の機能構成例を示す図。The figure which shows the functional structural example of the information processing apparatus and operation processing part in 5th Embodiment. 第5の実施形態における情報処理システムが実施する処理手順を示すフローチャート。13 is a flowchart showing a processing procedure performed by an information processing system according to the fifth embodiment;

以下、本発明にかかる実施形態の情報処理装置を詳細に説明する。 Hereinafter, information processing apparatuses according to embodiments of the present invention will be described in detail.

本実施形態を説明するのに先立ち、用語の定義について説明する。 Prior to describing this embodiment, definitions of terms will be described.

幾何情報とは、撮影したシーンの三次元形状を表すものであり、画像の各画素に距離値を格納した距離画像として表される。距離画像を必ずしも形成する必要はなく、距離画像の各画素を、X、Y、Zの座標値で表すポイントクラウドなど三次元点群として表しても良く、三次元位置を表現可能な距離情報であれば良い。 Geometric information represents the three-dimensional shape of a captured scene, and is represented as a distance image in which a distance value is stored in each pixel of the image. It is not always necessary to form a distance image, and each pixel of the distance image may be represented as a three-dimensional point group such as a point cloud represented by X, Y, and Z coordinate values. Good to have.

位置姿勢とは位置を表す3自由度のパラメータと、姿勢を表す3自由度のパラメータとの合計6自由度のパラメータで表される。本実施形態では、主に撮像装置の位置と姿勢を表し、間接的に本装置が搭載される車両の位置姿勢をも表すものとする。 The position and orientation are represented by a total of 6 degrees of freedom parameters, ie, a 3-degree-of-freedom parameter representing the position and a 3-degree-of-freedom parameter representing the orientation. In this embodiment, it mainly represents the position and orientation of the imaging device, and indirectly represents the position and orientation of the vehicle in which the device is mounted.

学習モデルは、複数の画像とそれと同時刻に同視野を撮影した対応する距離画像に基づいて、入力画像に対応する距離画像が推定できるように予め学習したモデルを表す。学習モデルはCNN(Convolutional Neural Network)などの画像を入出力とするモデルとする。ただし、学習モデルはこれに限るものではなく、画像を入力として、三次元点群などの幾何情報を出力するようなモデルでもよい。 The learning model represents a model learned in advance so that a depth image corresponding to an input image can be estimated based on a plurality of images and corresponding depth images captured in the same field of view at the same time. The learning model is a model such as a CNN (Convolutional Neural Network) whose input and output are images. However, the learning model is not limited to this, and may be a model that takes an image as an input and outputs geometric information such as a three-dimensional point cloud.

不具合(又は非適正)とは、推定した幾何情報や位置姿勢が、理想的な幾何情報や位置姿勢とは大きく異なる状態にあることを示す。不具合が生じる要因としては、撮像装置や撮影シーン環境からくる画像に生じたノイズによるもの、学習モデルを用いた幾何情報推定において、学習が不十分なシーンで推定をすることによるもの、校正パラメータが実際とは異なることによるもの、撮像装置自体が故障しているなどの、様々な要因が考えられる。 Defective (or inappropriate) indicates that the estimated geometric information and position/orientation are in a state that is significantly different from the ideal geometric information and/or position/orientation. Factors that cause problems include noise generated in the image from the imaging device and shooting scene environment, geometric information estimation using a learning model, estimation in a scene where learning is insufficient, and calibration parameters. Various factors are conceivable, such as a difference from the actual situation and a failure of the imaging device itself.

異常とは、撮像装置の故障や撮像装置のレンズに傷や汚れが付くなど、正常な状態とは異なる状態にあることを示す。また、不具合についても広義の意味で異常と呼ぶことがある。 An abnormality indicates a state different from a normal state, such as a failure of the imaging device or scratches or stains on the lens of the imaging device. In addition, a defect may also be called an abnormality in a broad sense.

[第1の実施形態]
第1の実施形態では、情報処理装置が、車などの自動運転または運転アシストのため、車体の自己位置を推定する例を説明する。車体に取り付けた撮像装置の位置姿勢を安定的に求めるために複数のセンサ情報を用いることがしばしば行われるが、本実施形態では、2つの撮像装置を用いたステレオ構成のセンサを用いて、3系統の仮の幾何情報、3系統の仮の位置姿勢情報を推定し、それらの推定結果から安定的な幾何情報、及び、位置姿勢情報を求める。図1は本実施形態における自動車10000の運転制御システムの構成を示した図である。本実施形態では、自動車10000に取り付けられた撮像部10の位置姿勢を安定的に求め、求めた位置姿勢に従って運転制御を行うことで、自動運転または運転アシストを行う。そのために、情報処理装置1を用いて周囲の幾何情報や撮像部10の位置姿勢を算出する。算出した幾何情報および位置姿勢は運転処理装置12に供給される。そして、運転処理装置12は、それらに基づいてアクチュエータ部13を動作させることによって自動車10000を制御する。尚、仮の幾何情報とは、最終的に決定する幾何情報の候補、材料、参考となる幾何情報である。
[First embodiment]
In the first embodiment, an example in which an information processing device estimates the self-position of a vehicle body for automatic driving or driving assistance of a vehicle will be described. Information from a plurality of sensors is often used in order to stably determine the position and orientation of imaging devices attached to the vehicle body. Temporary geometric information of the system and temporary position and orientation information of the three systems are estimated, and stable geometric information and position and orientation information are obtained from the estimation results. FIG. 1 is a diagram showing the configuration of a driving control system for an automobile 10000 according to this embodiment. In this embodiment, automatic driving or driving assistance is performed by stably obtaining the position and orientation of the imaging unit 10 attached to the automobile 10000 and performing driving control according to the obtained position and orientation. Therefore, the information processing apparatus 1 is used to calculate the geometric information of the surroundings and the position and orientation of the imaging unit 10 . The calculated geometric information and position and orientation are supplied to the operation processing device 12 . Then, the operation processing device 12 controls the automobile 10000 by operating the actuator section 13 based on them. The provisional geometric information is a candidate for the finally determined geometric information, a material, and geometric information to be used as a reference.

<情報処理装置の構成>
図2は、主として、本実施形態における情報処理装置1と運転処理装置12のブロック構成図である。
<Configuration of information processing device>
FIG. 2 is mainly a block configuration diagram of the information processing device 1 and the operation processing device 12 in this embodiment.

情報処理装置1は、画像入力部100、学習モデル保持部101、幾何情報推定部102、位置姿勢算出部103、計測結果処理部104、表示情報生成部105、及び、装置全体の制御を司る制御部15を有する。この制御部15は、CPU(プロセッサ)、このCPUが実行するプログラムを記憶するため、及び、ワークエリアとして使用するためのメモリ(ROM及びRAM)で構成される。 The information processing apparatus 1 includes an image input unit 100, a learning model holding unit 101, a geometric information estimation unit 102, a position/orientation calculation unit 103, a measurement result processing unit 104, a display information generation unit 105, and controls for controlling the entire apparatus. It has a part 15 . The control unit 15 is composed of a CPU (processor), a memory (ROM and RAM) for storing programs executed by the CPU, and for use as a work area.

また、運転処理装置12は、周囲環境取得部106、目的地取得部107、及び、運転処理装置12の全体の制御を司る運転制御部108を備えている。この運転制御部108も、CPUと、CPUが実行するプログラム及びワークエリアとしてするメモリ(ROM及びRAM)とで構成される。 The operation processing device 12 also includes an ambient environment acquisition unit 106 , a destination acquisition unit 107 , and an operation control unit 108 that controls the operation processing device 12 as a whole. The operation control unit 108 is also composed of a CPU, a program executed by the CPU, and a memory (ROM and RAM) serving as a work area.

画像入力部100は、車体に取り付けられた撮像部10と接続される。表示情報生成部105は表示部11と接続される。そして、運転制御部108は、車両の車輪のトルク及び方向等を制御するアクチュエータ部13と接続されている。ただし、図2は、機器構成の一例であり、本発明の適用範囲を限定するものではない。 The image input unit 100 is connected to the imaging unit 10 attached to the vehicle body. The display information generation section 105 is connected to the display section 11 . The operation control unit 108 is connected to the actuator unit 13 that controls the torque, direction, etc. of the wheels of the vehicle. However, FIG. 2 is an example of the device configuration, and does not limit the scope of application of the present invention.

撮像部10は、三角測量に基づくステレオによる幾何情報推定を行うための2つの撮像装置から構成される。つまり、これら2つの撮像装置は、それら光軸方向が平行であり、それぞれの撮像視野範囲の大部分が互いに重複するように配置される。また、これら撮像装置は車の周囲環境を画像として時系列(例えば毎秒60フレーム)に撮像可能であって、1画素当たりR、G、Bの3成分の画像を撮像するビデオカメラである。 The imaging unit 10 is composed of two imaging devices for estimating geometric information in stereo based on triangulation. In other words, these two imaging devices are arranged such that their optical axis directions are parallel and their imaging field ranges mostly overlap each other. These imaging devices are video cameras capable of taking images of the surrounding environment of the vehicle in time series (for example, 60 frames per second), and taking images of three components of R, G, and B per pixel.

画像入力部100は、撮像部10の二つの撮像装置それぞれが撮像するシーンの2次元画像の画像データを時系列に入力し、学習モデル保持部101、幾何情報推定部102、位置姿勢算出部103、表示情報生成部105、運転処理装置12に供給する。以下では、二つの撮像装置について、どちらか一方を特定する場合には、第一の撮像装置および第二の撮像装置と言い、それぞれの撮像装置から得られる画像を特定する場合には第一の画像および第二の画像と言う。 The image input unit 100 inputs image data of a two-dimensional image of a scene captured by each of the two imaging devices of the imaging unit 10 in chronological order. , the display information generation unit 105 and the operation processing device 12 . Hereinafter, two imaging devices will be referred to as the first imaging device and the second imaging device when specifying one of them, and the first imaging device when specifying the images obtained from each imaging device. Say an image and a second image.

学習モデル保持部101は、1枚の画像から幾何情報を推定するための学習モデルを保持する。幾何情報推定部102は、図示しない校正パラメータ保持部が保持する校正パラメータを用いて、第一の画像と第二の画像(ステレオ画像)から三角測量法によって第一の幾何情報を推定する。更に、幾何情報推定部102は、学習モデル保持部101に保持された学習モデルを用いて、画像入力部100から入力した第一の画像に対応する第二の幾何情報を推定する。幾何情報推定部102は、同様に、学習モデルを用いて、第二の画像に対応する第三の幾何情報を推定する。そして、幾何情報推定部102は、推定した第一、第二、第三の幾何情報を位置姿勢算出部103に供給する。 The learning model holding unit 101 holds a learning model for estimating geometric information from one image. The geometric information estimation unit 102 estimates first geometric information from the first image and the second image (stereo image) by triangulation using calibration parameters held by a calibration parameter holding unit (not shown). Furthermore, the geometric information estimation unit 102 uses the learning model held in the learning model holding unit 101 to estimate second geometric information corresponding to the first image input from the image input unit 100 . The geometric information estimation unit 102 similarly uses the learning model to estimate third geometric information corresponding to the second image. The geometric information estimation unit 102 then supplies the estimated first, second, and third geometric information to the position/orientation calculation unit 103 .

位置姿勢算出部103は、画像入力部100が入力した画像と、幾何情報推定部102から入力した第一、第二、第三の幾何情報それぞれに基づいて、撮像部10の第一、第二、第三の位置姿勢を算出する。そして、位置姿勢算出部103は、算出した第一、第二、第三の位置姿勢を計測結果処理部104に供給する。 The position/orientation calculation unit 103 calculates the first and second positions of the imaging unit 10 based on the image input by the image input unit 100 and the first, second, and third geometric information input from the geometric information estimation unit 102, respectively. , to calculate the third pose. The position/orientation calculation unit 103 then supplies the calculated first, second, and third positions/orientations to the measurement result processing unit 104 .

計測結果処理部104は、位置姿勢算出部103より入力した第一、第二、第三の位置姿勢に基づいて、安定的な位置姿勢を算出する。算出方法については後述する。さらに、計測結果処理部104は、算出した位置姿勢に基づいて、前フレームで求めた幾何情報を更新する。つまり、計測結果処理部104は、位置姿勢算出部103が算出した第一、第二、第三の位置姿勢から、最終的な現在の位置姿勢、及び、最終的な現在の幾何情報を生成(決定)する。そして、計測結果処理部104は、決定した位置姿勢及び幾何情報を表示情報生成部105及び運転処理装置12に供給する。 The measurement result processing unit 104 calculates a stable position and orientation based on the first, second, and third positions and orientations input from the position and orientation calculation unit 103 . A calculation method will be described later. Furthermore, the measurement result processing unit 104 updates the geometric information obtained in the previous frame based on the calculated position and orientation. That is, the measurement result processing unit 104 generates the final current position and orientation and the final current geometric information from the first, second, and third positions and orientations calculated by the position and orientation calculation unit 103 ( decide. Then, the measurement result processing unit 104 supplies the determined position/orientation and geometric information to the display information generation unit 105 and the operation processing device 12 .

表示情報生成部105は、計測結果処理部104より入力した幾何情報と位置姿勢に基づいて表示情報を生成する。そして、表示情報生成部105は、生成した表示情報を表示部11に出力する。表示部11は車内に搭載されたディスプレイであり、表示情報生成部105から入力した表示情報を表示する。 The display information generation unit 105 generates display information based on the geometric information and the position and orientation input from the measurement result processing unit 104 . The display information generation unit 105 then outputs the generated display information to the display unit 11 . The display unit 11 is a display mounted in the vehicle, and displays display information input from the display information generation unit 105 .

運転処理装置12は、画像入力部100が入力した画像と、計測結果処理部104から受信した幾何情報と位置姿勢とに基づいて、アクチュエータ部13の制御と表示部11への表示情報の生成と出力を行う。その詳細について以下に説明する。 The operation processing device 12 controls the actuator unit 13 and generates display information on the display unit 11 based on the image input by the image input unit 100 and the geometric information and the position and orientation received from the measurement result processing unit 104. output. The details are described below.

周囲環境取得部106は、画像入力部100が入力した画像と、計測結果処理部104が入力した幾何情報と位置姿勢に基づいて、車体の周囲環境を表す情報(以下、周囲環境情報)を取得する。そして、周囲環境取得部106は、取得した周囲環境情報を運転制御部108に供給する。 The surrounding environment acquisition unit 106 acquires information representing the surrounding environment of the vehicle body (hereinafter referred to as surrounding environment information) based on the image input by the image input unit 100 and the geometric information and position/orientation input by the measurement result processing unit 104. do. Then, the ambient environment acquisition unit 106 supplies the acquired ambient environment information to the operation control unit 108 .

目的地取得部107は、図示しないユーザインターフェースを用いて、車の目的地をユーザから取得する。そして、目的地取得部107は、取得した目的地を示す情報を運転制御部108に供給する。 The destination acquisition unit 107 acquires the destination of the vehicle from the user using a user interface (not shown). Then, the destination acquisition unit 107 supplies information indicating the acquired destination to the operation control unit 108 .

運転制御部108は、周囲環境取得部106が入力した周囲環境と、目的地取得部107が入力した目的地に基づいて、安全に目的地に向かうためのアクチュエータ部13への制御値の算出及び出力を行う。また、運転制御部108は、目的地に向けて走行中における各種情報の生成と、表示部11への出力も行う。アクチュエータ部13は、運転制御部108から受信した制御値や信号に従って車の動きを制御/駆動を行う。 Based on the ambient environment input by the ambient environment acquisition unit 106 and the destination input by the destination acquisition unit 107, the operation control unit 108 calculates a control value for the actuator unit 13 for safely heading to the destination, and output. In addition, the operation control unit 108 also generates various types of information while traveling toward the destination and outputs the information to the display unit 11 . The actuator unit 13 controls/drives the movement of the vehicle according to the control values and signals received from the driving control unit 108 .

図3は、情報処理装置1の主要ハードウェア構成を示す図である。情報処理装置1はCPU151、ROM152、RAM153、外部メモリ154、入力部155、表示制御部156、通信I/F157、I/O158、及び、これらを接続するバス160を有する。ROM152は、BIOS(Basic Input/Output System)のプログラムやブートプログラムを記憶する。RAM13は、CPU151の主記憶装置として使用される。外部メモリ154は、情報処理装置1が実行するOS(オペレーティングシステム)や情報処理装置1が運転支援装置として機能するためのアプリケーションプログラム、並びに、学習モデルを保持する記憶装置であって、典型的にはハードディスク装置等の書き込み可能な大容量の不揮発性メモリである。入力部155はタッチパネルやキーボード、マウス、ロボットコントローラーであり、情報等の入力に係る処理を行う。表示制御部156はCPU151からの指示に従って表示部11に表示すべきメニュー等の各種画像を生成し、表示部11に向けて出力する。なお、表示部11は液晶表示装置やプロジェクタ、LEDインジケータなど、種類は問わない。通信インターフェイス157は、ネットワークを介して情報通信を行うものであり、通信インターフェイスはイーサネットでもよく、USBやシリアル通信、無線通信等種類は問わない。I/O158は、情報処理装置1と外部装置との接続を行う入出力部(I/O)であり、実施形態の場合、撮像部10、運転処理装置12が接続される。 FIG. 3 is a diagram showing the main hardware configuration of the information processing device 1. As shown in FIG. The information processing apparatus 1 has a CPU 151, a ROM 152, a RAM 153, an external memory 154, an input section 155, a display control section 156, a communication I/F 157, an I/O 158, and a bus 160 connecting these. The ROM 152 stores a BIOS (Basic Input/Output System) program and a boot program. The RAM 13 is used as a main storage device for the CPU 151 . The external memory 154 is a storage device that holds an OS (operating system) executed by the information processing device 1, an application program for the information processing device 1 to function as a driving support device, and a learning model. is a writable large-capacity non-volatile memory such as a hard disk drive. An input unit 155 is a touch panel, a keyboard, a mouse, and a robot controller, and performs processing related to input of information and the like. The display control unit 156 generates various images such as menus to be displayed on the display unit 11 according to instructions from the CPU 151 and outputs the images to the display unit 11 . Note that the display unit 11 may be of any type, such as a liquid crystal display device, a projector, or an LED indicator. The communication interface 157 performs information communication via a network, and the communication interface may be Ethernet, USB, serial communication, wireless communication, or the like. The I/O 158 is an input/output unit (I/O) that connects the information processing device 1 and an external device, and in the case of the embodiment, the imaging unit 10 and the operation processing device 12 are connected.

上記構成において、情報処理装置1のメイン電源がONになると、CPU151はROM152に格納されたブートプログラムを実行することにより、外部メモリ154からOSをRAM153にロードし、実行する。そして、CPU151は、OSの制御下にて、運転支援アプリケーションプログラムを外部メモリ154からRAM153にロードし、実行することで、情報処理装置1は運転支援装置として機能することになる。図2に示した、学習モデル保持部101は外部メモリ154により実現するものであるが、これ以外の処理部は、上記アプリケーションを実行するCPU151により実現されるものである。なお、図2に示す各種処理部の一部は、CPU151とは独立したハードウェアで実現させても構わない。 In the above configuration, when the main power supply of the information processing apparatus 1 is turned on, the CPU 151 executes the boot program stored in the ROM 152 to load the OS from the external memory 154 to the RAM 153 and execute it. Under the control of the OS, the CPU 151 loads the driving assistance application program from the external memory 154 to the RAM 153 and executes it, so that the information processing device 1 functions as a driving assistance device. The learning model holding unit 101 shown in FIG. 2 is implemented by the external memory 154, and the other processing units are implemented by the CPU 151 that executes the above applications. Note that some of the various processing units shown in FIG. 2 may be realized by hardware independent of the CPU 151 .

撮像部10は、先に説明したように、二つの撮像装置からなる。本実施形態における撮像部10の位置姿勢とは、第一の撮像装置を基準とした座標系における6自由度のパラメータで表されるものとする。第一の撮像装置と第二の撮像装置間は固定されており、一方の撮像装置における他方への相対的な位置姿勢は校正パラメータとして、予めキャリブレーションを行って求めておき、図示しない校正パラメータ保持部に保持されている。そのため、どちらかの撮像装置の位置姿勢を算出すれば、もう一方の撮像装置の位置姿勢を求めることができる。ここでは、撮像部10の位置姿勢とは第一の撮像装置を基準とした座標系であるとしたが、これに限るものではなく、第二の撮像装置を基準としてもよいし、二つの撮像装置とは異なる点に撮像部10の基準座標系を設定しても良い。その場合には、基準座標系からそれぞれの撮像装置への相対的な位置姿勢変換パラメータも既知であるとする。また、自動車10000と撮像部10との間の位置姿勢の関係については、予めキャリブレーションによって6自由度のパラメータが得られているものとする。このとき、基準座標系を自動車10000に対して固定しておいてもよい。故に、撮像部10の位置姿勢を求めることは、自動車10000の位置姿勢を求めることと等価の意味を持つ。また、先に説明した測定結果処理部104が決定する幾何情報も、基準となる撮像装置(実施形態では第一の撮像装置)の視点からの情報である。 The imaging unit 10 is composed of two imaging devices, as described above. The position and orientation of the imaging unit 10 in this embodiment are represented by parameters of six degrees of freedom in a coordinate system based on the first imaging device. The distance between the first imaging device and the second imaging device is fixed, and the position and orientation of one imaging device relative to the other is obtained as a calibration parameter by performing calibration in advance. It is held by the holding part. Therefore, by calculating the position and orientation of one of the imaging devices, it is possible to obtain the position and orientation of the other imaging device. Here, the position and orientation of the image pickup unit 10 are assumed to be a coordinate system based on the first image pickup device, but are not limited to this. The reference coordinate system of the imaging unit 10 may be set at a point different from that of the apparatus. In that case, it is assumed that relative position/orientation transformation parameters from the reference coordinate system to each imaging device are also known. Further, it is assumed that six degrees of freedom parameters for the relationship between the positions and orientations of the automobile 10000 and the imaging unit 10 are obtained in advance by calibration. At this time, the reference coordinate system may be fixed with respect to the automobile 10000 . Therefore, obtaining the position and orientation of the imaging unit 10 is equivalent to obtaining the position and orientation of the automobile 10000 . The geometric information determined by the measurement result processing unit 104 described above is also information from the viewpoint of the reference imaging device (the first imaging device in the embodiment).

<処理>
次に、本実施形態における処理手順について説明する。図4は、本実施形態における情報処理装置1及び運転処理装置12を含む情報処理システムが実施する処理手順を示すフローチャートである。同図において、ステップS1000~S1050、S1090が情報処理装置1(制御部15)の処理を示し、ステップS1000、S1060~S1080が運転処理装置12(運転制御部108)の処理を表すことになる。
<Processing>
Next, a processing procedure in this embodiment will be described. FIG. 4 is a flowchart showing a processing procedure performed by an information processing system including the information processing device 1 and the operation processing device 12 according to this embodiment. In the figure, steps S1000 to S1050 and S1090 represent processing of the information processing device 1 (control unit 15), and steps S1000 and S1060 to S1080 represent processing of the operation processing device 12 (operation control unit 108).

ステップS1000にて、制御部15はシステムの初期化を行う。すなわち、制御部15は、外部メモリ144からOS、アプリケーションプログラムをRAM153に読み込み実行することで、情報処理装置1を運転支援を行う装置として動作可能な状態にする。また、制御部15は学習モデル保持部101(外部メモリ154)が保持する学習モデルをRAM153に読み込む。また、制御部15は、情報処理装置1に接続された各機器(撮像部10など)の起動やパラメータの読み込み、撮像部10が有する二つの撮像装置の初期位置姿勢を読み込む。二つの撮像装置の内部パラメータ(焦点距離、画像中心位置、レンズ歪み等)は、事前に校正したものを用いる。さらに、運転処理装置12の運転制御部108は、ユーザが指定した目的地を目的地取得部107から受信し、自動車10000の目的地として設定する。 In step S1000, the control unit 15 initializes the system. That is, the control unit 15 loads the OS and the application program from the external memory 144 into the RAM 153 and executes them, thereby making the information processing device 1 operable as a device for assisting driving. Also, the control unit 15 reads the learning model held by the learning model holding unit 101 (external memory 154 ) into the RAM 153 . In addition, the control unit 15 starts up each device (such as the imaging unit 10 ) connected to the information processing apparatus 1 , reads parameters, and reads the initial positions and orientations of the two imaging devices included in the imaging unit 10 . The internal parameters (focal length, image center position, lens distortion, etc.) of the two imaging devices are calibrated in advance. Further, the operation control unit 108 of the operation processing device 12 receives the destination designated by the user from the destination acquisition unit 107 and sets it as the destination of the vehicle 10000 .

ステップS1010にて、制御部15は撮像部10を制御し、第一、第二の撮像装置によるシーン(画像)の撮影を行わせる。ステップS1020にて、制御部15は画像入力部100を制御し、第一の撮像装置と第二の撮像装置が撮像したシーンである、第一の画像と第二の画像を取得させる。 In step S1010, the control unit 15 controls the imaging unit 10 to capture a scene (image) by the first and second imaging devices. In step S1020, the control unit 15 controls the image input unit 100 to acquire a first image and a second image, which are scenes captured by the first imaging device and the second imaging device.

ステップS1030にて、制御部15は幾何情報推定部102を制御し、第一の画像と第二の画像に基づいて、第一、第二、第三の幾何情報を推定(生成)させる。幾何情報推定部102は、ステレオ法を用いて2枚の画像から第一の幾何情報を生成する。具体的には、幾何情報推定部102は、第一の画像と第二の画像における対応関係を求めて視差画像を算出し、二つの撮像装置間の既知の校正情報に基づいて三角測量を行って距離画像を推定する。また、幾何情報推定部102は、第一の画像を学習モデルに入力して第二の幾何情報を推定する。同様に、幾何情報推定部102は、第二の画像を学習モデルに入力して第三の幾何情報を推定する。 In step S1030, the control unit 15 controls the geometric information estimation unit 102 to estimate (generate) first, second, and third geometric information based on the first image and the second image. The geometric information estimation unit 102 generates first geometric information from the two images using the stereo method. Specifically, the geometric information estimating unit 102 obtains the correspondence between the first image and the second image, calculates the parallax image, and performs triangulation based on known calibration information between the two imaging devices. to estimate the range image. Also, the geometric information estimation unit 102 inputs the first image to the learning model to estimate the second geometric information. Similarly, the geometric information estimation unit 102 inputs the second image to the learning model to estimate the third geometric information.

ステップS1040にて、制御部15は位置姿勢算出部103を制御し、ステップS1030で算出された第一、第二、第三の幾何情報それぞれを用いて、撮像部10の位置姿勢を算出する。算出される位置姿勢は、第一、第二、第三の幾何情報それぞれから求められる第一、第二、第三の位置姿勢の3つである。具体的には、位置姿勢算出部103は前フレームの画像における各画素を、第一の幾何情報に基づいて現フレームに射影する。次に、位置姿勢算出部103は、前射影した前フレームの画素の画素値と現フレームの画素値との輝度差が最小となるように、Engelらの方法(非特許文献2)により位置姿勢を求めることで、第一の位置姿勢を得る。位置姿勢算出部103は、第二、第三の幾何姿勢についても同様の処理を行うことで、第二の位置姿勢、及び、第三の位置姿勢を得る。また、位置姿勢算出部103は位置姿勢を算出した後に、さらに対応する幾何情報を更新してもよい。具体的には、位置姿勢算出部103は、求めた第一、第二、第三の位置姿勢に基づいて第一、第二、第三の幾何情報それぞれを現在の時刻tにおける幾何情報として、過去の時刻t-iからの時系列フィルタリングによって幾何情報を更新する(非特許文献1に記載)。 In step S1040, the control unit 15 controls the position/orientation calculation unit 103 to calculate the position/orientation of the imaging unit 10 using the first, second, and third geometric information calculated in step S1030. The calculated positions and orientations are the first, second, and third positions and orientations obtained from the first, second, and third geometric information, respectively. Specifically, the position/orientation calculation unit 103 projects each pixel in the image of the previous frame onto the current frame based on the first geometric information. Next, the position/orientation calculation unit 103 calculates the position/orientation using the method of Engel et al. By obtaining , the first position and orientation are obtained. The position/posture calculation unit 103 obtains the second position/posture and the third position/posture by performing the same processing on the second and third geometric postures. After calculating the position and orientation, the position and orientation calculation unit 103 may further update the corresponding geometric information. Specifically, the position/orientation calculation unit 103 uses the first, second, and third geometric information as the geometric information at the current time t based on the obtained first, second, and third position/orientation, respectively. Geometric information is updated by time-series filtering from past time ti (described in Non-Patent Document 1).

ステップS1050にて、制御部15は計測結果処理部104を制御し、ステップS1040で算出された第一、第二、第三の位置姿勢に基づいて、撮像部10の最終的な位置姿勢を算出する。具体的な処理については後述する。また、制御部15は、求めた位置姿勢に基づいて、幾何情報を更新する。 In step S1050, the control unit 15 controls the measurement result processing unit 104 to calculate the final position and orientation of the imaging unit 10 based on the first, second, and third positions and orientations calculated in step S1040. do. Specific processing will be described later. Also, the control unit 15 updates the geometric information based on the determined position and orientation.

ステップS1060にて、運転制御部108は周囲環境取得部106を制御し、ステップS1050で算出された位置姿勢、更新された幾何情報、第一の画像および第二の画像に基づいて、周囲環境マップを取得させる。周囲環境マップとは、道路や車、建物などが三次元空間のどこに存在しているかを示したマップである。周囲環境取得部106は、幾何情報と第一の画像および第二の画像から意味的領域分割を行い、画像中の道路や車、建物などを特定する。そして、周囲環境取得部106は、前フレームまでに得られていた周囲環境マップ上で算出された位置姿勢に従って、幾何情報および意味的領域分割結果を用いて、周囲環境マップを更新する。 In step S1060, the operation control unit 108 controls the surrounding environment acquisition unit 106 to obtain a surrounding environment map based on the position and orientation calculated in step S1050, the updated geometric information, the first image, and the second image. get A surrounding environment map is a map showing where roads, cars, buildings, etc. exist in a three-dimensional space. The ambient environment acquisition unit 106 performs semantic segmentation from the geometric information, the first image, and the second image to identify roads, cars, buildings, and the like in the images. Then, the surrounding environment acquisition unit 106 updates the surrounding environment map using the geometric information and the semantic segmentation result according to the position and orientation calculated on the surrounding environment map obtained up to the previous frame.

ステップS1070にて、運転制御部108は表示情報生成部105を制御し、ステップS1060で求められた周囲環境マップに基づいて、指定した視点における周囲環境をレンダリングして得た画像にユーザに必要な情報を付加した表示情報を画像として生成する。そして、運転制御部108は、生成した画像を、ユーザが視認できるように、表示部11のディスプレイに表示させる。ここで、ユーザに必要な情報とは、例えば周囲環境マップと位置姿勢から求めた、周囲環境に対する自動車10000の位置姿勢である。 In step S1070, the operation control unit 108 controls the display information generation unit 105, and based on the surrounding environment map obtained in step S1060, an image obtained by rendering the surrounding environment at the designated viewpoint is displayed as necessary for the user. Display information to which information is added is generated as an image. Then, the operation control unit 108 displays the generated image on the display of the display unit 11 so that the user can visually recognize it. Here, the information necessary for the user is, for example, the position and orientation of the automobile 10000 with respect to the surrounding environment obtained from the surrounding environment map and the position and orientation.

ステップS1080にて、運転制御部108は、撮像部10の位置姿勢と周囲環境マップと目的地に基づいて、目的地に向かって車が安全に走行するための、アクチュエータの制御値を生成する。そして、運転制御部108は、生成したアクチュエータの制御値を用いてアクチュエータ部13を制御し、車を走行させる。 In step S1080, operation control unit 108 generates actuator control values for safely driving the vehicle toward the destination based on the position and orientation of imaging unit 10, the surrounding environment map, and the destination. Then, the driving control unit 108 controls the actuator unit 13 using the generated actuator control value to drive the vehicle.

ステップS1090では、制御部15は、システムを終了するか否か判定する。具体的には、不図示の入力部によりユーザが終了コマンドを入力していれば終了し、そうでなければステップS1010に戻り、上記処理を繰り返す。 In step S1090, the control unit 15 determines whether or not to terminate the system. Specifically, if the user has input an end command through an input unit (not shown), the process ends. If not, the process returns to step S1010 to repeat the above process.

<計測結果処理部における位置姿勢を求める処理>
図5は、本実施形態におけるステップS1050の処理、すなわち、計測結果処理部104の手順を示すフローチャートである。以下、同図を参照して、計測結果処理部104の処理内容を説明する。
<Processing for Obtaining Position and Orientation in Measurement Result Processing Unit>
FIG. 5 is a flow chart showing the process of step S1050, that is, the procedure of the measurement result processing unit 104 in this embodiment. Hereinafter, the processing contents of the measurement result processing unit 104 will be described with reference to the same figure.

ステップS1100にて、計測結果処理部104は初期化を行う。この初期化において、計測結果処理部104は、第一、第二、第三の位置姿勢の読み込みや、この後の処理で必要となる前フレーム画像や、周囲環境マップの幾何情報の読み込み、また、最適化問題を解く際のパラメータなどの読み込みを行う。 In step S1100, the measurement result processing unit 104 initializes. In this initialization, the measurement result processing unit 104 reads the first, second, and third positions and orientations, reads the previous frame image required for subsequent processing, reads the geometric information of the surrounding environment map, and , and read parameters for solving optimization problems.

ステップS1110にて、計測結果処理部104は、1フレーム前の画像と2フレーム前の画像における位置姿勢から、線形補間によって現フレームの位置姿勢を推定し、これを初期位置姿勢とする。ただし、初期位置姿勢はこれに限るものではなく、加速度センサやGPSセンサなどから初期位置姿勢を求めてもよい。 In step S1110, the measurement result processing unit 104 estimates the position and orientation of the current frame by linear interpolation from the positions and orientations of the image one frame before and the image two frames before, and uses this as an initial position and orientation. However, the initial position and orientation are not limited to this, and the initial position and orientation may be obtained from an acceleration sensor, a GPS sensor, or the like.

ステップS1120にて、計測結果処理部104は、第一、第二、第三の位置姿勢に関する信頼度を計算する。信頼度は第一、第二、第三の位置姿勢それぞれについて信頼できる度合いを数値化したものである。信頼度が高いほど、その位置姿勢は正しい位置姿勢からの誤差が小さい可能性が高いことを示す。信頼度の求め方としては、ステップS1040にて、非特許文献2の方法により位置姿勢を求めた際に、最小化した輝度差を用いて信頼度を表すものとする。つまり、ここで言う輝度差が小さいほど信頼度が高くなる関数を用いるものとする。 In step S1120, the measurement result processing unit 104 calculates the reliability of the first, second, and third positions and orientations. The reliability is a numerical representation of the reliability of each of the first, second, and third positions and orientations. A higher confidence indicates that the pose is likely to have a smaller error from the correct pose. As a method of obtaining the reliability, in step S1040, when the position and orientation are obtained by the method of Non-Patent Document 2, the minimized luminance difference is used to represent the reliability. In other words, a function is used in which the smaller the luminance difference referred to here, the higher the reliability.

ただし、信頼度は輝度差に限るものではなく、例えば、対応する幾何情報を求めた際に、非特許文献1の方法から得られる幾何情報の信頼度や、ステレオのマッチング度合いを信頼度として用いてもよい。 However, the reliability is not limited to the luminance difference. For example, when obtaining the corresponding geometric information, the reliability of the geometric information obtained from the method of Non-Patent Document 1 and the degree of stereo matching are used as the reliability. may

ステップS1130にて、計測結果処理部104は、第一、第二、第三の位置姿勢とそれに対応する信頼度、および初期位置姿勢に基づいて、最終出力の位置姿勢を求める。ここで、第一、第二、第三の位置姿勢をP1、P2、P3、初期位置姿勢をPI、計測結果処理部104が出力する位置姿勢をPOとし、第一、第二、第三の位置姿勢に対応する信頼度をc1、c2、c3とする。また、関数f(Pi,Pj)を位置姿勢PiとPjの差を求める関数とする。POは、以下の式Eを最小化する最適化問題を解くことによって得られる。
E=k*f(PI,PO)+c1*f(P1,PO)+c2*f(P2,PO)+c3*f(P3,PO) …(1)
ここで、kは調整パラメータである。ただし、POの求め方はこの方法に限るものではなく、カルマンフィルタを用いてPI、P1、P2、P3を入力として真の状態POを求めてもよい。
In step S1130, the measurement result processing unit 104 obtains the final output position and orientation based on the first, second, and third positions and orientations, their corresponding reliability levels, and the initial position and orientation. Here, the first, second, and third positions and orientations are P1, P2, and P3, the initial position and orientation are PI, and the position and orientation output by the measurement result processing unit 104 are PO. Let c1, c2, and c3 be the degrees of reliability corresponding to the positions and orientations. A function f(Pi, Pj) is a function for obtaining the difference between the positions and orientations Pi and Pj. PO is obtained by solving an optimization problem that minimizes Equation E below.
E=k*f(PI, PO)+c1*f(P1, PO)+c2*f(P2, PO)+c3*f(P3, PO) (1)
where k is an adjustment parameter. However, the method of obtaining PO is not limited to this method, and the true state PO may be obtained using a Kalman filter with PI, P1, P2, and P3 as inputs.

ステップS1140にて、計測結果処理部104は、ステップS1130で求めた位置姿勢に基づいて、幾何情報を更新する。具体的には、求めた位置姿勢に基づいて第一、第二、第三の幾何情報を現在の時刻tにおける幾何情報として、過去の時刻t-iからの幾何情報との信頼度を重みとした時系列フィルタリングによって幾何情報を更新する(非特許文献1に記載)。 In step S1140, measurement result processing section 104 updates the geometric information based on the position and orientation obtained in step S1130. Specifically, based on the determined position and orientation, the first, second, and third geometric information are assumed to be geometric information at the current time t, and the reliability of the geometric information from past time ti is taken as the weight. Geometric information is updated by time-series filtering (described in Non-Patent Document 1).

上記フローチャートではステップS1110の次にステップS1120を行う処理について説明したが、フローチャートは必ずしもこの順序であるとは限らない。ステップS1120の処理を先に行い、その後にステップS1110を行ってもよい。以上の処理により、計測結果処理部104は位置姿勢と幾何情報を求める。 Although the above flowchart describes the process of performing step S1120 after step S1110, the flowchart does not necessarily follow this order. The process of step S1120 may be performed first, and then step S1110 may be performed. Through the above processing, the measurement result processing unit 104 obtains the position and orientation and the geometric information.

<効果>
以上に述べたように、本第1の実施形態では、複数の計測系統から複数の幾何情報および複数の位置姿勢を推定する。それぞれの計測結果は画像を入力された後、独立して処理を行っているため、いずれかの計測結果に大きなノイズが生じていたとしても、他の計測結果に影響を及ぼすことは無い。そのため、複数の計測結果の全てが大きなノイズを生じる可能性は低く、時系列情報から予測される位置姿勢に対して誤差の少ない計測結果の重みを大きくすることによって、計測結果に何らかのノイズが紛れ込んだ場合であっても、安定的に位置姿勢を推定することができる。さらに、安定的な位置姿勢に基づいて幾何情報を更新することによって、より精度の高い幾何情報を求めることができる。
<effect>
As described above, in the first embodiment, a plurality of pieces of geometric information and a plurality of positions and orientations are estimated from a plurality of measurement systems. Since each measurement result is processed independently after the image is input, even if a large amount of noise occurs in one of the measurement results, it does not affect the other measurement results. Therefore, it is unlikely that all of the multiple measurement results will generate large amounts of noise. By increasing the weight of the measurement results with little error relative to the position and orientation predicted from the time-series information, some kind of noise will be mixed into the measurement results. Even in this case, the position and orientation can be stably estimated. Furthermore, by updating the geometric information based on the stable position and orientation, it is possible to obtain more accurate geometric information.

<変形例>
第1の実施形態においては、図4に示すフローチャートに従って処理を行う例について述べたが、これに限るものではない。ここで本実施形態における変形例の機能構成例および処理手順について説明する。変形例の機能構成例は図2に示す第1の実施形態と同様であるため、違いのある幾何情報推定部102、位置姿勢算出部103、計測結果処理部104についてのみ説明する。
<Modification>
In the first embodiment, an example of performing processing according to the flowchart shown in FIG. 4 has been described, but the present invention is not limited to this. Here, a functional configuration example and a processing procedure of a modification of the present embodiment will be described. Since the functional configuration example of the modification is the same as that of the first embodiment shown in FIG. 2, only the geometric information estimation unit 102, the position/orientation calculation unit 103, and the measurement result processing unit 104, which are different, will be described.

幾何情報推定部102は、先に説明した第1の実施形態と同様、第一、第二、第三の幾何情報を推定し、推定した第一、第二、第三の幾何情報を計測結果処理部104に出力する。または、幾何情報推定部102は、第一、第二、第三の幾何情報をいったん位置姿勢算出部103に供給し、それぞれの幾何情報に対応する第一、第二、第三の位置姿勢の算出結果に応じて対応する幾何情報を更新してもよい。具体的には、求めた第一、第二、第三の位置姿勢に基づいて、第一、第二、第三の幾何情報それぞれを現在の時刻tにおける幾何情報として、過去の時刻t-iからの時系列フィルタリングによって幾何情報を更新する(非特許文献1に記載)。 The geometric information estimating unit 102 estimates the first, second, and third geometric information, and uses the estimated first, second, and third geometric information as the measurement result, as in the first embodiment described above. Output to the processing unit 104 . Alternatively, the geometric information estimation unit 102 temporarily supplies the first, second, and third geometric information to the position/posture calculation unit 103, and calculates the first, second, and third positions/postures corresponding to the respective geometric information. Corresponding geometric information may be updated according to the calculation result. Specifically, based on the obtained first, second, and third positions and orientations, each of the first, second, and third geometric information is defined as geometric information at the current time t, and the past time t−i The geometric information is updated by time-series filtering from (described in Non-Patent Document 1).

計測結果処理部104は、幾何情報推定部102が更新した第一、第二、第三の幾何情報に基づいて、正確な幾何情報を算出する。算出方法については後述する。また、計測結果処理部104は、算出した幾何情報を位置姿勢算出部103に出力する。また、計測結果処理部104は、後述する位置姿勢算出部103が入力した位置姿勢に基づいて、幾何情報を更新する。さらに計測結果処理部104は、更新した幾何情報を表示情報生成部105、運転処理装置12に出力する。また、計測結果処理部104は、位置姿勢を表示情報生成部105、運転処理装置12に出力する。 The measurement result processing unit 104 calculates accurate geometric information based on the first, second, and third geometric information updated by the geometric information estimating unit 102 . A calculation method will be described later. The measurement result processing unit 104 also outputs the calculated geometric information to the position/orientation calculation unit 103 . The measurement result processing unit 104 also updates the geometric information based on the position and orientation input by the position and orientation calculation unit 103, which will be described later. Furthermore, the measurement result processing unit 104 outputs the updated geometric information to the display information generation unit 105 and the operation processing device 12 . The measurement result processing unit 104 also outputs the position and orientation to the display information generation unit 105 and the operation processing device 12 .

位置姿勢算出部103は、画像入力部100が入力した画像と計測結果処理部104が入力した幾何情報とに基づいて、撮像部10の位置姿勢を算出する。また、算出した位置姿勢を計測結果処理部104に入力する。 The position and orientation calculation unit 103 calculates the position and orientation of the imaging unit 10 based on the image input by the image input unit 100 and the geometric information input by the measurement result processing unit 104 . Also, the calculated position and orientation are input to the measurement result processing unit 104 .

次に、本変形例の処理手順について説明する。図6は、本変形例における、情報処理装置1を含む情報処理システムが実施する処理手順を示すフローチャートである。本フローチャートの多くのステップは図4のフローチャートと同様であるため、違いのあるステップS1041、ステップS1051について説明する。 Next, the processing procedure of this modified example will be described. FIG. 6 is a flowchart showing a processing procedure performed by an information processing system including the information processing device 1 in this modification. Since many steps of this flowchart are the same as those of the flowchart of FIG. 4, steps S1041 and S1051, which are different, will be described.

ステップS1041にて、制御部15は計測結果処理部104を制御し、ステップS1030で算出された第一、第二、第三の幾何情報を用いて撮影シーンの幾何情報を算出させる。具体的には、第一、第二、第三の幾何情報はそれぞれ計測点または計測領域ごとに信頼度を保持しており、信頼度の高い点や領域に三次元点や面を成すように幾何情報を構成することで求める。詳細は後述する。 In step S1041, the control unit 15 controls the measurement result processing unit 104 to calculate the geometric information of the shooting scene using the first, second, and third geometric information calculated in step S1030. Specifically, the first, second, and third pieces of geometric information each hold a degree of reliability for each measurement point or measurement area. Obtained by constructing geometric information. Details will be described later.

ステップS1051にて、制御部15は位置姿勢算出部103を制御し、ステップS1041で算出された幾何情報に基づいて、撮像部10の位置姿勢を算出させる。具体的には、これまでのフレームで求められている周囲環境マップにおける幾何情報に対して、計測結果処理部114が算出した幾何情報の位置合わせを行うことによって周囲環境マップに対する位置姿勢を算出する。また、1フレーム前の画像と2フレーム前の画像における位置姿勢から、線形補間によって現フレームの位置姿勢を求め、これを位置合わせする際の初期位置姿勢として用いる。また、位置合わせを行うことで、周囲環境マップの幾何情報も更新する。 In step S1051, the control unit 15 controls the position/orientation calculation unit 103 to calculate the position/orientation of the imaging unit 10 based on the geometric information calculated in step S1041. Specifically, the position and orientation with respect to the surrounding environment map are calculated by aligning the geometric information calculated by the measurement result processing unit 114 with the geometric information in the surrounding environment map obtained in the previous frames. . Also, the position and orientation of the current frame are obtained by linear interpolation from the positions and orientations of the image one frame before and the image two frames before, and are used as the initial position and orientation for alignment. Moreover, the geometric information of the surrounding environment map is also updated by performing the alignment.

<計測結果処理部における幾何情報を求める処理>
ここで、図7は、図6のステップS1041の計測結果処理部104の処理手順を示すフローチャートである。
<Processing for obtaining geometric information in the measurement result processing unit>
Here, FIG. 7 is a flow chart showing the processing procedure of the measurement result processing unit 104 in step S1041 of FIG.

ステップS1200にて、計測結果処理部104は初期化処理を行う。すなわち、計測結果処理部104は、第一、第二、第三の幾何情報の読み込みや、この後の処理で必要となる前フレーム画像や、周囲環境マップの幾何情報の読み込み、また、最適化問題を解く際のパラメータなどの読み込みを行う。 In step S1200, the measurement result processing unit 104 performs initialization processing. That is, the measurement result processing unit 104 reads the first, second, and third geometric information, reads the previous frame image required for subsequent processing, and the geometric information of the surrounding environment map, and performs optimization. Read parameters etc. when solving problems.

ステップS1210にて、計測結果処理部104は、第一、第二、第三の幾何情報それぞれに関する信頼度を計算する。信頼度は第一、第二、第三の幾何情報に対して、各計測点または各計測領域に対してそれぞれ信頼できる度合いを数値化したものである。信頼度が高いほど、その計測点や計測領域の存在する三次元位置は正しい可能性が高いことを示す。信頼度の求め方としては、第一の幾何情報については、ステレオにより第一の画像と第二の画像の対応関係を求める際に、微小領域ごとの類似度を計算する。この類似度が高いほど信頼度の高い領域であるとして信頼度を求める。第二、第三の幾何情報については、非特許文献1に示される方法により、幾何情報の信頼度を得ることが出来る。 In step S1210, the measurement result processing unit 104 calculates reliability for each of the first, second, and third geometric information. The reliability is a numerical representation of the degree of reliability of each measurement point or each measurement area with respect to the first, second, and third geometric information. The higher the reliability, the higher the possibility that the three-dimensional position where the measurement point or measurement area exists is correct. As a method of obtaining the reliability, for the first geometric information, the degree of similarity is calculated for each minute region when obtaining the correspondence between the first image and the second image in stereo. The higher the degree of similarity, the higher the reliability of the region, and the reliability is obtained. Regarding the second and third geometric information, the reliability of the geometric information can be obtained by the method shown in Non-Patent Document 1.

ステップS1220にて、計測結果処理部104は、第一、第二、第三の幾何情報とそれに対応する信頼度に基づいて、計測結果処理部104が出力する幾何情報を求める。具体的には各計測点または各計測領域における信頼度を重みとして、重み付きのICP(Iterative Closest Point)を行うことによって、三つの幾何情報を統合することによって、より正しい幾何情報を推定する。また、ICPによって第一、第二、第三の幾何情報を統合した際に、幾何情報を移動回転させるために用いた変換行列を用いて、撮像部10に対して計測結果処理部104が求めた幾何情報の位置姿勢を求めておく。以上の処理により、計測結果処理部104は幾何情報を求める。 In step S1220, the measurement result processing unit 104 obtains geometric information output by the measurement result processing unit 104 based on the first, second, and third geometric information and the reliability levels corresponding thereto. More specifically, by performing weighted ICP (Iterative Closest Point) using the reliability of each measurement point or each measurement area as a weight, the three pieces of geometric information are integrated to estimate more accurate geometric information. Also, when the first, second, and third geometric information are integrated by ICP, the measurement result processing unit 104 obtains the The position and orientation of the geometric information obtained from the Through the above processing, the measurement result processing unit 104 obtains geometric information.

第1の実施形態では計測結果処理部104は複数の位置姿勢から、位置姿勢を求めたが、上記の変形例で示したように、計測結果処理部104は複数の幾何情報から、幾何情報を求めてもよい。 In the first embodiment, the measurement result processing unit 104 obtains the position and orientation from a plurality of positions and orientations. you may ask.

図1の例では、画像入力部100は一つしか描かれていないが、これに限るものではなく、二つの撮像装置に対して一つずつ画像入力部を備えていてもよいし、一つの画像入力部が二つの撮像装置から画像を受け取っても良い。同様に、幾何情報推定部102や位置姿勢算出部103を複数備えていてもよい。また、学習モデル保持部101は二つの撮像装置それぞれに対して別々の学習モデルを保持していてもよい。 Although only one image input unit 100 is shown in the example of FIG. 1, the present invention is not limited to this. The image input unit may receive images from two imaging devices. Similarly, a plurality of geometric information estimation units 102 and position/orientation calculation units 103 may be provided. Also, the learning model holding unit 101 may hold separate learning models for each of the two imaging devices.

ステップS1070にて、表示情報生成部105が生成する表示情報は周囲環境に対する自動車10000の位置姿勢であるとして説明したが、これに限るものではない。例えば、撮像部10が撮像した画像や、周囲環境マップから得られる意味的領域分割の結果を二次元画像上にレンダリングした画像などでもよい。また、目的地などの情報であってもよい。これにより、ユーザは情報処理システムが認識した自動車10000に対する周囲の状況を視覚的に確認することができる。 Although the display information generated by the display information generation unit 105 in step S1070 is the position and orientation of the automobile 10000 with respect to the surrounding environment, the display information is not limited to this. For example, it may be an image captured by the imaging unit 10 or an image obtained by rendering the result of semantic segmentation obtained from the surrounding environment map on a two-dimensional image. Information such as a destination may also be used. This allows the user to visually confirm the surrounding conditions of the vehicle 10000 recognized by the information processing system.

ステップS1090では、システムを終了する条件として、ユーザが終了コマンドを入力する例を説明した。しかしながら、これに限るものではなく、システムを終了させる条件として、運転手であるユーザが、車の制御をシステムに委ねる自動運転モードから、人が運転するドライビングモードへ変更することとしてもよい。また、運転処理装置12が、得られた幾何情報や位置姿勢と目的地の不整合などにより、自動運転または運転アシストを行えない状況になったと判断したときに、システムを終了するようにしてもよい。 In step S1090, an example has been described in which the user inputs the termination command as the condition for terminating the system. However, the system is not limited to this, and as a condition for terminating the system, the user who is the driver may change from the automatic driving mode, in which the control of the vehicle is entrusted to the system, to the driving mode in which a person drives the vehicle. Further, the system may be terminated when the driving processing device 12 determines that automatic driving or driving assistance cannot be performed due to inconsistency between the obtained geometric information, position and orientation, and the destination. good.

第1の実施形態では、位置姿勢推定を車の自動運転または運転アシストのアプリケーションに適用した例を説明した。しかしながら、本実施形態で説明した情報処理装置1に適用可能なのは当該アプリケーションに限らず、学習モデルが出力した結果を含む複数の幾何情報、または位置姿勢結果を用いるものであればよい。例えば、工業用ロボットハンドの先端に取り付けてロボットハンドの位置姿勢を計測するロボットシステムとして用いてもよい。このときのロボットシステムには、ロボットアーム等のマニピュレータや、吸着ハンド等の把持装置、および計測結果処理部104が算出した位置姿勢に基づいてマニピュレータや把持装置を制御する制御部を備えていてもよい。また、複合現実感システムにおける現実空間と仮想物体との位置合わせとして用いてもよい。このときの複合現実感システムには、周囲環境を取得するための撮像装置が搭載されたヘッドマウントディスプレイを備えていてもよい。室内を清掃するロボット・空中を飛行するドローン・水中を移動する装置などが、上述の学習モデルを保持し学習モデルに基づいた仮の幾何情報を推定し、2つの撮像装置の画像を用いて生成される3次元の仮の幾何情報を推定しても良い。さらに、幾何情報または位置姿勢を推定して、自身の移動や周囲環境の取得に利用しても良い。 In the first embodiment, an example in which position/orientation estimation is applied to an application for automatic driving or driving assistance of a vehicle has been described. However, the application applicable to the information processing apparatus 1 described in the present embodiment is not limited to the application, and any application that uses a plurality of pieces of geometric information including the results output by the learning model or the position and orientation results may be used. For example, it may be used as a robot system that is attached to the tip of an industrial robot hand and measures the position and orientation of the robot hand. The robot system at this time may include a manipulator such as a robot arm, a grasping device such as a suction hand, and a control unit that controls the manipulator and the grasping device based on the position and orientation calculated by the measurement result processing unit 104. good. It may also be used for alignment between a real space and a virtual object in a mixed reality system. The mixed reality system at this time may include a head-mounted display equipped with an imaging device for acquiring the surrounding environment. A robot that cleans a room, a drone that flies in the air, a device that moves in water, etc. hold the learning model described above, estimate temporary geometric information based on the learning model, and generate it using the images of the two imaging devices. 3D temporary geometric information may be estimated. Furthermore, geometric information or position and orientation may be estimated and used to acquire the movement of the robot itself and the surrounding environment.

また、情報処理装置1の使用用途は位置姿勢推定に限らず、三次元再構成に用いてもよい。例えば、工業部品や建物といったCADモデルを生成するための計測システムとして用いてもよい。このときの計測システムは、計測結果処理部104が更新した幾何情報から三次元モデルを生成する三次元モデル生成部をさらに備えていてもよい。また 、RGBカメラや濃淡画像を取得するカメラなど、距離画像を取得することのできないカメラから高精度に距離画像を取得する装置として用いてもよい。 Further, the application of the information processing apparatus 1 is not limited to position and orientation estimation, and may be used for three-dimensional reconstruction. For example, it may be used as a measurement system for generating CAD models of industrial parts and buildings. The measurement system at this time may further include a three-dimensional model generation unit that generates a three-dimensional model from the geometric information updated by the measurement result processing unit 104 . Further, it may be used as a device for obtaining a range image with high accuracy from a camera that cannot obtain a range image, such as an RGB camera or a camera that obtains a grayscale image.

第1の実施形態では、車内の情報処理装置1が学習モデル保持部101、幾何情報推定部102、位置姿勢算出部103、計測結果処理部104を有する構成を説明した。しかしながら、クラウドサーバが本実施形態で示した情報処理装置1の一部の機能を有し、実行してもよい。例えば、クラウドサーバが学習モデル保持部101、幾何情報推定部102、位置姿勢算出部103、計測結果処理部104を有する構成であってもよい。この構成では、まず情報処理装置1が入力画像を不図示の通信部を用いてクラウドサーバに転送する。次に、クラウドサーバ上の学習モデル保持部101の保持する学習モデルを用いて幾何情報を推定する。また幾何情報推定部102は複数の幾何情報を推定する。そして、位置姿勢算出部103複数の位置姿勢を算出し、計測結果処理部104は安定的な位置姿勢を求め、幾何情報を更新する。そして、クラウドサーバが推定した幾何情報と位置姿勢を、通信部を用いて情報処理装置1に転送する。このような構成にすることで、情報処理装置1は計算負荷を減らすことができるため、小規模な計算機で省スペース化することができる。 In the first embodiment, the in-vehicle information processing apparatus 1 has the learning model holding unit 101, the geometric information estimation unit 102, the position/orientation calculation unit 103, and the measurement result processing unit 104. FIG. However, the cloud server may have and execute some of the functions of the information processing apparatus 1 shown in this embodiment. For example, the cloud server may include the learning model holding unit 101 , the geometric information estimation unit 102 , the position/orientation calculation unit 103 , and the measurement result processing unit 104 . In this configuration, the information processing apparatus 1 first transfers an input image to a cloud server using a communication unit (not shown). Next, geometric information is estimated using the learning model held by the learning model holding unit 101 on the cloud server. Also, the geometric information estimation unit 102 estimates a plurality of pieces of geometric information. Then, the position and orientation calculation unit 103 calculates a plurality of positions and orientations, and the measurement result processing unit 104 obtains stable positions and orientations, and updates the geometric information. Then, the geometric information and the position and orientation estimated by the cloud server are transferred to the information processing device 1 using the communication unit. By adopting such a configuration, the information processing apparatus 1 can reduce the calculation load, so that the space can be saved with a small-sized computer.

本実施形態においては、画像を撮像する撮像装置がRGBのビデオカメラである構成について説明した。ただし、RGBのビデオカメラに限るものではなく、現実空間の画像を撮像するカメラであれば何でもよく、たとえば濃淡画像を撮像するカメラでもあってもよいし、赤外画像や紫外画像、距離画像、三次元点群データを撮像できるカメラであってもよい。また、二台の撮像装置からなるステレオ構成として説明したが、これに限るものではなく、三台以上の複数のカメラやセンサを備えるカメラであってもよい。その場合、4つ以上の複数の幾何情報や位置姿勢を算出できるが、計測結果処理部104はこれら複数の計測結果に基づいて計算を行う。 In the present embodiment, the configuration in which the imaging device that captures an image is an RGB video camera has been described. However, it is not limited to the RGB video camera, and any camera that captures an image of the real space may be used. For example, a camera that captures a grayscale image, infrared image, ultraviolet image, distance image, A camera capable of capturing three-dimensional point cloud data may also be used. Also, although the stereo configuration has been described with two imaging devices, the present invention is not limited to this, and a camera having three or more cameras or sensors may be used. In that case, four or more pieces of geometric information and positions and orientations can be calculated, and the measurement result processing unit 104 performs calculations based on these pieces of measurement results.

[第2の実施形態]
第1の実施形態では、計測結果処理部104は複数の幾何情報または位置姿勢から、より正しい幾何情報または位置姿勢を算出した。これに対して、第2の実施形態では、計測結果処理部104は幾何情報または位置姿勢に対して判定を行い、幾何情報または位置姿勢に不具合が生じていれば、別の幾何情報または位置姿勢を用いるように切り替えを行う。このようにして、最適な幾何情報または位置姿勢を得られるセンサおよび計算結果を用いて自動運転または運転アシストを行う。本第2の実施形態における自動車の構成は第1の実施形態に示した図1と同様であるため、その説明は省略する。
[Second embodiment]
In the first embodiment, the measurement result processing unit 104 calculates more correct geometric information or position/orientation from a plurality of pieces of geometric information or position/orientation. On the other hand, in the second embodiment, the measurement result processing unit 104 performs determination on the geometric information or the position/orientation, and if there is a problem with the geometric information or the position/orientation, another geometric information or position/orientation is determined. switch to use In this way, automatic driving or driving assistance is performed using sensors and calculation results that can obtain optimum geometric information or position and orientation. Since the configuration of the vehicle in the second embodiment is the same as that shown in FIG. 1 for the first embodiment, the description thereof will be omitted.

<情報処理装置の構成>
本実施形態における情報処理装置2の機能構成例は第1の実施形態に示した図2と略同様である。異なる点は、幾何情報推定部102、位置姿勢算出部103、計測結果処理部104における処理内容である。よって、以下では、これらについて説明する。他の構成要素については第1の実施形態を参照されたい。
<Configuration of information processing device>
A functional configuration example of the information processing apparatus 2 according to the present embodiment is substantially the same as that shown in FIG. 2 of the first embodiment. The difference lies in the processing contents of the geometric information estimation unit 102 , the position/orientation calculation unit 103 , and the measurement result processing unit 104 . Therefore, these will be described below. See the first embodiment for other components.

幾何情報推定部102は、第1の実施形態と同様に、第一、第二、第三の幾何情報を推定できる機能を有するが、図示しないパラメータ保持部が保持するパラメータに従って、第一、第二、第三の幾何情報のいずれか一つを推定して、位置姿勢算出部103と計測結果処理部104に出力する。ここでのパラメータとは、第一、第二、第三の幾何情報のうちどの幾何情報を用いるかを指示したものである。 The geometric information estimation unit 102 has a function of estimating first, second, and third geometric information as in the first embodiment. Either one of the second and third geometric information is estimated and output to the position/orientation calculation unit 103 and the measurement result processing unit 104 . The parameter here indicates which of the first, second, and third geometric information is to be used.

位置姿勢算出部103は、画像入力部100が入力した画像と幾何情報推定部102が入力した幾何情報とに基づいて、撮像部10の位置姿勢を算出する。さらに位置姿勢算出部103は、算出した位置姿勢に基づいて幾何情報を更新する。そして、位置姿勢算出部103は、算出した位置姿勢および更新した幾何情報を計測結果処理部104に供給する。 The position and orientation calculation unit 103 calculates the position and orientation of the imaging unit 10 based on the image input by the image input unit 100 and the geometric information input by the geometric information estimation unit 102 . Further, the position/orientation calculation unit 103 updates the geometric information based on the calculated position/orientation. The position/orientation calculation unit 103 then supplies the calculated position/orientation and the updated geometric information to the measurement result processing unit 104 .

計測結果処理部104は、位置姿勢算出部103から入力した位置姿勢における不具合の有無を判定する。計測結果処理部104は、位置姿勢に不具合が無いと判定した場合、幾何情報および位置姿勢を表示情報生成部105、運転処理装置12に供給する。また、位置姿勢に不具合があった場合には、計測結果処理部104は、図示しないパラメータ保持部のパラメータを変更して、幾何情報推定部102に別の幾何情報を推定させ、さらに、位置姿勢算出部103にも、新たに推定した幾何情報に基づいて位置姿勢を算出させて、それらの不具合の有無を判定することを繰り返し、不具合の無いと判定された情報を出力対象として決定する。 A measurement result processing unit 104 determines whether or not there is a defect in the position and orientation input from the position and orientation calculation unit 103 . If the measurement result processing unit 104 determines that there is no problem with the position and orientation, the measurement result processing unit 104 supplies the geometric information and the position and orientation to the display information generation unit 105 and the operation processing device 12 . Further, when there is a problem with the position and orientation, the measurement result processing unit 104 changes the parameters in the parameter holding unit (not shown), causes the geometric information estimation unit 102 to estimate different geometric information, The calculation unit 103 is also caused to calculate the position and orientation based on the newly estimated geometric information, and repeatedly determine whether or not there is a defect, and the information determined to have no defect is determined as an output target.

<処理>
次に、本第2の実施形態における処理手順について説明する。図8は、第2の実施形態における情報処理装置1を含む情報処理システムが実施する処理手順を示すフローチャートである。
<Processing>
Next, a processing procedure in the second embodiment will be described. FIG. 8 is a flowchart showing a processing procedure performed by an information processing system including the information processing device 1 according to the second embodiment.

本実施形態におけるフローチャートは、第1の実施形態における図4のフローチャートと略同様であり、ステップS2000、ステップS2010、ステップS2020、ステッステップS2060、ステップS2070、ステップS2080、ステップS2090はそれぞれステップS1000、ステップS1010、ステップS1020、ステップS1060、ステップS1070、ステップS1080、ステップS1090と同様の処理であるため説明を省略し、違いのあるステップS2030、ステップS2040、ステップS2050について説明を行う。 The flowchart in this embodiment is substantially the same as the flowchart in FIG. 4 in the first embodiment. Since the processing is similar to that of steps S1010, S1020, S1060, S1070, S1080, and S1090, a description thereof will be omitted, and steps S2030, S2040, and S2050, which are different, will be described.

ステップS2030にて、制御部15が幾何情報推定部102を制御し、第一の画像と第二の画像に基づいて、第一、第二、第三の幾何情報のうち、指定されたいずれか一つの幾何情報を推定する。なお、それぞれの幾何情報の求め方についてはステップS1030で説明した処理と同様である。 In step S2030, the control unit 15 controls the geometric information estimating unit 102, based on the first image and the second image, one of the specified first, second, and third geometric information Estimate a piece of geometric information. Note that the method of obtaining each piece of geometric information is the same as the processing described in step S1030.

ステップS2040にて、制御部15は位置姿勢算出部103を制御し、ステップS2030で算出された幾何情報を用いて撮像部10の位置姿勢を算出する。また、位置姿勢算出部103は位置姿勢を算出した後に、さらに対応する幾何情報を更新してもよい。 In step S2040, the control unit 15 controls the position/orientation calculation unit 103 to calculate the position/orientation of the imaging unit 10 using the geometric information calculated in step S2030. After calculating the position and orientation, the position and orientation calculation unit 103 may further update the corresponding geometric information.

ステップS2050では、制御部15は計測結果処理部104を制御し、ステップS2040で算出された位置姿勢における不具合の有無を判定する。不具合が無かった場合はステップS2060に処理を進める。不具合があった場合には、ステップS2030に戻って別の幾何情報の推定からやり直す。ここで不具合の有無を判定する具体的な処理については後述する。 In step S2050, the control unit 15 controls the measurement result processing unit 104 to determine whether or not there is a defect in the position and orientation calculated in step S2040. If there is no problem, the process proceeds to step S2060. If there is a problem, the process returns to step S2030 to start again from estimating different geometric information. A specific process for determining whether or not there is a problem will be described later.

<計測結果処理部における位置姿勢の不具合の有無を判定する処理>
ここで、図9は、本第2の実施形態におけるステップS2050において計測結果処理部104が位置姿勢の不具合の有無を判定する手順を示すフローチャートである。
<Processing for Determining Presence or Absence of Poor Position and Orientation in Measurement Result Processing Unit>
Here, FIG. 9 is a flowchart showing a procedure for the measurement result processing unit 104 to determine whether or not there is a defect in the position and orientation in step S2050 according to the second embodiment.

ステップS2100にて、計測結果処理部104は初期化を行う。すなわち、位置姿勢の読み込みや、この後の処理で必要となる前フレーム画像や、周囲環境マップの幾何情報の読み込み、信頼度や類似度の閾値のパラメータの読み込みなどである。 In step S2100, the measurement result processing unit 104 initializes. That is, reading of the position and orientation, reading of the previous frame image required for subsequent processing, reading of the geometric information of the surrounding environment map, and reading of the threshold parameters of reliability and similarity.

ステップS2110では、計測結果処理部104は位置姿勢に関する信頼度を計算する。ここでは第一、第二、第三の位置姿勢のいずれか入力された位置姿勢について信頼度を求める。信頼度の求め方については、第1の実施形態におけるステップS1120で既に説明したので省略する。 In step S2110, the measurement result processing unit 104 calculates the reliability of the position and orientation. Here, the reliability is calculated for any one of the first, second, and third positions and orientations. Since the method of obtaining the reliability has already been described in step S1120 in the first embodiment, a description thereof will be omitted.

ステップS2120にて、計測結果処理部104は、ステップS2110で求めた信頼度が閾値Thpよりも大きいかどうかを確認する。信頼度がThpよりも大きい場合にはステップS2130に進む。信頼度がThp以下の場合には不具合有りと判定して処理を終了する。 In step S2120, the measurement result processing unit 104 confirms whether or not the reliability obtained in step S2110 is greater than the threshold Thp. If the reliability is greater than Thp, the process proceeds to step S2130. If the reliability is less than Thp, it is determined that there is a problem, and the process ends.

ステップS2130にて、計測結果処理部104は、1フレーム前の画像と2フレーム前の画像における位置姿勢から、線形補間によって現フレームの位置姿勢を求め、これを初期位置姿勢とする。ただし、初期位置姿勢はこれに限るものではなく、加速度センサやGPSセンサなどから初期位置姿勢を求めてもよい。 In step S2130, the measurement result processing unit 104 obtains the position and orientation of the current frame by linear interpolation from the positions and orientations of the image one frame before and the image two frames before, and sets this as the initial position and orientation. However, the initial position and orientation are not limited to this, and the initial position and orientation may be obtained from an acceleration sensor, a GPS sensor, or the like.

ステップS2140にて、計測結果処理部104は、ステップS2130で求めた初期位置姿勢とステップS2040で算出した位置姿勢との類似度を計算する。ここで、二つの位置姿勢の類似度とは、二つの位置姿勢が似ているほど高く、遠く離れて向きも異なるほど低い。例えば、類似度Sは次式(2)で求められる。
S=k1*|ti-t|+k2*||qi-q|| …(2)
ここで、k1、k2は調整パラメータであり、tiとtはそれぞれ初期位置姿勢と位置姿勢の位置を表す3次元のベクトル、qiとqはそれぞれ初期位置姿勢と位置姿勢の姿勢を表す四元数であり、|x|は実数3次元ベクトルxのノルムを表しており、||y||は四元数yのノルムを表している。ここでは、類似度の計算方法として式(2)について述べたが、これに限るものではない。位置姿勢が似ているほど高く、異なるほど低い値になるように計算されるものであれば、類似度はどのような計算式で求めてもよい。
In step S2140, the measurement result processing unit 104 calculates the degree of similarity between the initial position/orientation obtained in step S2130 and the position/orientation calculated in step S2040. Here, the degree of similarity between two positions and orientations is higher when the two positions and orientations are more similar, and lower when they are farther apart and have different orientations. For example, the similarity S is obtained by the following equation (2).
S=k1*|ti−t|+k2*||qi−q|| (2)
Here, k1 and k2 are adjustment parameters, ti and t are three-dimensional vectors representing the initial position and posture, respectively, and qi and q are quaternions representing the initial position and posture, respectively. where |x| represents the norm of the real three-dimensional vector x, and ||y|| represents the norm of the quaternion y. Here, the formula (2) has been described as a similarity calculation method, but the method is not limited to this. Any calculation formula may be used to calculate the degree of similarity as long as it is calculated such that the more similar the positions and orientations, the higher the value, and the lower the value, the more different the positions and orientations are.

ステップS2150にて、計測結果処理部104は、ステップS2140で求めた類似度が閾値Tspよりも大きいかどうかを確認する。類似度がTspよりも大きい場合には不具合無しと判定して処理を終了する。類似度がTsp以下の場合には不具合有りと判定して処理を終了する。 In step S2150, measurement result processing section 104 checks whether the similarity obtained in step S2140 is greater than threshold Tsp. If the degree of similarity is greater than Tsp, it is determined that there is no problem, and the process ends. If the degree of similarity is equal to or less than Tsp, it is determined that there is a problem, and the process ends.

以上の処理により、計測結果処理部104は位置姿勢の不具合の有無を判定する。 Through the above processing, the measurement result processing unit 104 determines whether or not there is a defect in the position and orientation.

<効果>
以上に述べたように、第2の実施形態では、複数の幾何情報の中から一つを選んで幾何情報および位置姿勢の推定を行い、得られた位置姿勢の不具合の有無を判定することによって、その位置姿勢を用いるか、別の幾何情報を推定し直すかを決める。計算処理中はどれか一つの幾何情報および位置姿勢を計算するだけでよいため、第1の実施形態で説明した複数の幾何情報や複数の位置姿勢を計算する場合と比較して、同時に処理するべき計算コストが低いため、比較的小規模な計算リソースであっても処理を行うことができる。また、計算した位置姿勢の不具合の有無を判定することによって、間違った位置姿勢を用いる可能性が低くなり、自動運転や運転アシストにおける安全性が高まる。
<effect>
As described above, in the second embodiment, one piece of geometric information is selected from a plurality of pieces of geometric information to estimate the geometric information and the position and orientation. , decides whether to use the pose or re-estimate another geometric information. Since it is only necessary to calculate any one of the geometric information and position/orientation during the calculation process, compared to the case of calculating a plurality of geometric information and/or a plurality of positions and orientations described in the first embodiment, processing can be performed simultaneously. Because of the low computational cost of the power, it can be processed even with relatively small computational resources. In addition, by determining whether or not there is a defect in the calculated position and orientation, the possibility of using an incorrect position and orientation is reduced, and safety in automatic driving and driving assistance is enhanced.

<変形例>
第2の実施形態においては、図8に示すフローチャートに従って処理を行う例について述べたが、これに限るものではない。ここで本実施形態における変形例の機能構成例および処理手順について説明する。変形例の機能構成例は第2の実施形態と同様であるため、違いのある幾何情報推定部102、位置姿勢算出部103、計測結果処理部104についてのみ説明する。
<Modification>
In the second embodiment, an example of performing processing according to the flowchart shown in FIG. 8 has been described, but the present invention is not limited to this. Here, a functional configuration example and a processing procedure of a modification of the present embodiment will be described. Since the functional configuration example of the modification is the same as that of the second embodiment, only the geometric information estimation unit 102, the position/orientation calculation unit 103, and the measurement result processing unit 104, which are different, will be described.

幾何情報推定部102は、第2の実施形態と同様にして第一、第二、第三の幾何情報のいずれか一つを推定して、計測結果処理部104に出力する。または、第一、第二、第三のいずれか一つの幾何情報をいったん位置姿勢算出部103に供給し、幾何情報に対応する位置姿勢を算出して対応する幾何情報を更新してもよい。 The geometric information estimation unit 102 estimates any one of the first, second, and third geometric information in the same manner as in the second embodiment, and outputs it to the measurement result processing unit 104 . Alternatively, any one of the first, second, and third geometric information may be temporarily supplied to the position and orientation calculation unit 103, the position and orientation corresponding to the geometric information may be calculated, and the corresponding geometric information may be updated.

計測結果処理部104は、幾何情報推定部102から入力した幾何情報における不具合の有無を判定する。幾何情報に不具合が無かった場合には、幾何情報を位置姿勢算出部103に出力する。また、幾何情報に不具合があった場合には、図示しないパラメータ保持部のパラメータを変更して幾何情報推定部102に別の幾何情報を推定させて、その幾何情報の不具合の有無を判定することを繰り返す。また、後述する位置姿勢算出部103が入力した位置姿勢に基づいて、幾何情報を更新する。さらに更新した幾何情報を表示情報生成部105、運転処理装置12に出力する。また、位置姿勢を表示情報生成部105、運転処理装置12に出力する。 The measurement result processing unit 104 determines whether or not the geometric information input from the geometric information estimating unit 102 has defects. If there is no defect in the geometric information, the geometric information is output to the position/orientation calculation unit 103 . If there is a defect in the geometric information, the parameters in the parameter holding unit (not shown) are changed to cause the geometric information estimating unit 102 to estimate other geometric information, and it is determined whether or not there is a defect in the geometric information. repeat. Also, the geometric information is updated based on the position and orientation input by the position and orientation calculation unit 103, which will be described later. Furthermore, the updated geometric information is output to the display information generation unit 105 and the operation processing device 12 . Also, the position and orientation are output to the display information generation unit 105 and the operation processing device 12 .

位置姿勢算出部103は、画像入力部100が入力した画像と計測結果処理部104が入力した幾何情報とに基づいて、撮像部10の位置姿勢を算出する。また、位置姿勢算出部103は、算出した位置姿勢を計測結果処理部104に供給する。 The position and orientation calculation unit 103 calculates the position and orientation of the imaging unit 10 based on the image input by the image input unit 100 and the geometric information input by the measurement result processing unit 104 . The position/orientation calculation unit 103 also supplies the calculated position/orientation to the measurement result processing unit 104 .

次に、本実施形態における変形例の処理手順について説明する。ここで、図10は、本第2の実施形態における情報処理装置1を含む情報処理システムが実施する変形例の処理手順を示すフローチャートである。本フローチャートの多くのステップは図8のフローチャートと同様であるため、違いのあるステップS2041、ステップS2051について説明する。 Next, a processing procedure of a modified example of this embodiment will be described. Here, FIG. 10 is a flow chart showing a processing procedure of a modification performed by an information processing system including the information processing apparatus 1 according to the second embodiment. Since many steps of this flowchart are the same as those of the flowchart of FIG. 8, steps S2041 and S2051, which are different, will be described.

ステップS2041にて、計測結果処理部104はステップS2030で算出された幾何情報における不具合の有無を判定する。判定方法の詳細は後述する。幾何情報に不具合が無かった場合には、ステップS2051に処理を進める。また、幾何情報に不具合があった場合には、ステップS2030に戻り、幾何情報推定部102に別の幾何情報を推定させる。 In step S2041, the measurement result processing unit 104 determines whether or not there is a defect in the geometric information calculated in step S2030. Details of the determination method will be described later. If there is no defect in the geometric information, the process proceeds to step S2051. If there is a problem with the geometric information, the process returns to step S2030 to cause the geometric information estimation unit 102 to estimate another geometric information.

ステップS2051にて、位置姿勢算出部103は、ステップS2041で算出された幾何情報に基づいて、撮像部10の位置姿勢を算出する。具体的には、これまでのフレームで求められている周囲環境マップにおける幾何情報に対して、計測結果処理部104が算出した幾何情報の位置合わせを行うことによって周囲環境マップに対する位置姿勢を算出する。また、1フレーム前の画像と2フレーム前の画像における位置姿勢から、線形補間によって現フレームの位置姿勢を求め、これを位置合わせする際の初期位置姿勢として用いる。また、位置合わせを行うことで、周囲環境マップの幾何情報も更新する。 In step S2051, the position/orientation calculation unit 103 calculates the position/orientation of the imaging unit 10 based on the geometric information calculated in step S2041. Specifically, the position and orientation with respect to the surrounding environment map are calculated by aligning the geometric information calculated by the measurement result processing unit 104 with the geometric information in the surrounding environment map obtained in the previous frames. . Also, the position and orientation of the current frame are obtained by linear interpolation from the positions and orientations of the image one frame before and the image two frames before, and are used as the initial position and orientation for alignment. Moreover, the geometric information of the surrounding environment map is also updated by performing the alignment.

<計測結果処理部における幾何情報の不具合の有無を判定する処理>
ここで、図11は、本第2の実施形態の変形例における、S2041の計測結果処理部104における幾何情報の不具合の有無を判定する手順を示すフローチャートである。
<Processing for Determining Presence or Absence of Defect in Geometric Information in Measurement Result Processing Unit>
Here, FIG. 11 is a flow chart showing the procedure for determining whether or not there is a defect in the geometric information in the measurement result processing unit 104 in S2041 in the modification of the second embodiment.

ステップS2200にて、計測結果処理部104は初期化を行う。すなわち、幾何情報の読み込みや、この後の処理で必要となる前フレーム画像や、周囲環境マップの幾何情報の読み込み、また、最適化問題を解く際のパラメータなどの読み込みである。 In step S2200, the measurement result processing unit 104 initializes. That is, it is the reading of geometric information, the reading of previous frame images required for subsequent processing, the geometric information of the surrounding environment map, and the reading of parameters for solving optimization problems.

ステップS2210にて、計測結果処理部104は、ステップS2030で求めた幾何情報に関する信頼度を計算する。計測結果処理部104は、第一、第二、第三の幾何情報のいずれが入力されたかに応じて、その入力された幾何情報について信頼度を求める。信頼度の求め方については、第1の実施形態における変形例の処理ステップS1210で既に説明したので省略する。 In step S2210, measurement result processing section 104 calculates the reliability of the geometric information obtained in step S2030. The measurement result processing unit 104 obtains the reliability of the input geometric information according to which one of the first, second, and third geometric information is input. Since the method of obtaining the reliability has already been explained in the processing step S1210 of the modified example of the first embodiment, the explanation thereof will be omitted.

ステップS2220にて、計測結果処理部104は、ステップS2210で求めた信頼度付きの幾何情報と、これまでの周囲環境マップにおける幾何情報との位置合わせを重み付きICPによって行う。 In step S2220, the measurement result processing unit 104 aligns the geometric information with reliability obtained in step S2210 with the geometric information in the surrounding environment map so far by weighted ICP.

ステップS2230にて、計測結果処理部104は、重み付きICPにおいて位置合わせの誤差が収束したかどうかを判定する。収束した場合には幾何情報には不具合無として処理を終了する。収束しなかった場合には幾何情報に不具合有として処理を終了する。以上の処理により、計測結果処理部104は幾何情報の不具合の有無を判定する。 In step S2230, measurement result processing section 104 determines whether the alignment error has converged in weighted ICP. If it converges, the processing is terminated assuming that there is no defect in the geometric information. If it does not converge, it is determined that there is a defect in the geometric information, and the process ends. Through the above processing, the measurement result processing unit 104 determines whether or not there is a defect in the geometric information.

以上に述べたように、第2の実施形態では計測結果処理部104は位置姿勢の不具合の有無を判定していたが、変形例で示したように、計測結果処理部104は幾何情報の不具合の有無を判定してもよい。 As described above, in the second embodiment, the measurement result processing unit 104 determines whether or not there is a defect in the position and orientation. You may determine the presence or absence of

第2の実施形態では幾何情報推定部102およびステップ2030において、第一、第二、第三の幾何情報のいずれかを指定するパラメータをパラメータ保持部が保持しているとして説明したが、これに限るものではない。パラメータとして、第一、第二、第三の幾何情報の信頼度を保持しておき、信頼度が最も高い幾何情報を選んで推定するようにしてもよい。また、信頼度はパラメータ保持部では保持せず、前フレームまでに得られた情報から計算される信頼度を用いてもよい。 In the second embodiment, in the geometric information estimating unit 102 and step 2030, the parameter holding unit holds a parameter specifying any one of the first, second, and third pieces of geometric information. It is not limited. Reliabilities of the first, second, and third geometric information may be stored as parameters, and the geometric information with the highest reliability may be selected and estimated. Also, the reliability may be calculated from the information obtained up to the previous frame, instead of being stored in the parameter storage unit.

第2の実施形態およびその変形例では、図9や図11のフローチャートを用いて、計測結果処理部104における位置姿勢または幾何情報の不具合の有無判定を行う方法について述べた。しなしながら、不具合の有無を判定する方法はこれらに限るものではない。例えば、第一の撮像装置および第二の撮像装置それぞれに異常が生じた場合にはエラー状態を示す信号を出すように設定してある場合、計測結果処理部は撮像装置のどちらかがエラー状態であることを示す信号を受け取った時点で、不具合有と判定し、エラー状態ではない撮像装置に基づいて幾何情報および位置姿勢を推定するように図示しないパラメータ保持部のパラメータを変更してもよい。 In the second embodiment and its modification, the method of determining whether there is a defect in the position/orientation or geometric information in the measurement result processing unit 104 has been described with reference to the flowcharts of FIGS. 9 and 11 . However, the method of determining the presence or absence of defects is not limited to these. For example, if a signal indicating an error state is output when an abnormality occurs in each of the first imaging device and the second imaging device, the measurement result processing unit determines whether one of the imaging devices is in an error state. Upon receiving a signal indicating that an error is present, it may be determined that there is a problem, and parameters in a parameter holding unit (not shown) may be changed so as to estimate geometric information and position/orientation based on an imaging device that is not in an error state. .

第2の実施形態における処理の流れを示す図8および図10のフローチャートでは、位置姿勢または幾何情報に不具合が無いと判定するまで幾何情報の推定に戻り、運転制御まではたどり着かないような説明を行ったが、これに限るものではない。運転制御は常に行いながら、最新の情報で更新されれば、運転制御のパラメータも更新してもよい。すなわち、運転制御については別スレッドを割り当てて継続的に制御を行っておき、位置姿勢や幾何情報に不具合が無いと判定された時には、それらの情報によって位置姿勢や周囲環境マップの更新を行うことで、運転制御にも反映させるようにしてもよい。これにより、幾何情報や位置姿勢に不具合が生じている場合であっても、自動運転や運転アシスト機能が停止することなく動作を続けることができる。 In the flowcharts of FIGS. 8 and 10 showing the flow of processing in the second embodiment, the explanation is such that until it is determined that there is no problem with the position/orientation or the geometric information, the geometric information is estimated, and the operation control is not reached. I did, but it's not limited to this. While the operation control is always performed, if updated with the latest information, the parameters of the operation control may be updated. In other words, a separate thread is allocated for operation control and control is continuously performed, and when it is determined that there is no problem with the position and orientation and geometric information, the position and orientation and the surrounding environment map are updated based on that information. It may also be reflected in operation control. As a result, even if there is a problem with the geometric information or the position and orientation, the operation can be continued without stopping the automatic driving and driving assist functions.

第2の実施形態における処理の流れを示す図8および図10のフローチャートでは、位置姿勢または幾何情報に不具合が無いと判定するまで幾何情報の推定に戻るため、第一、第二、第三の幾何情報および位置姿勢のすべてに不具合が生じている場合には、無限ループから抜け出せなくなる可能性があった。不具合有りの判定が3回連続で続いた場合には、画像撮像からやり直してもよい。または、表示情報生成部105が計測の不具合を知らせる画像を生成して表示をしてもよい。または、表示情報生成部105は人が運転するドライビングモードへ変更することを促すような表示をしてもよい。 In the flowcharts of FIGS. 8 and 10 showing the flow of processing in the second embodiment, the estimation of the geometric information is repeated until it is determined that there is no defect in the position and orientation or the geometric information. If there is a problem with both the geometric information and the position and orientation, there is a possibility that you will get stuck in an infinite loop. If the determination that there is a problem continues three times in succession, the image capturing may be restarted. Alternatively, the display information generation unit 105 may generate and display an image that informs of the measurement failure. Alternatively, the display information generation unit 105 may display a message prompting a change to a driving mode in which a person drives.

第2の実施形態において、ステップS2010およびステップS2020では二つの撮像装置が第一の画像と第二の画像を撮像して入力するものとして説明したが、これに限るものではない。例えば、通常は第一の撮像装置のみを用いて第一の画像を入力して用い、以降の処理では第二の幾何情報を推定してもよい。さらに、第二の幾何情報に不具合が有ると判定された場合には、ステップS2010の画像撮像に戻り、第二の撮像装置のみ、または第一の撮像装置と第二の撮像装置両方でシーンを撮像するようにしてもよい。これにより、通常は撮像装置一つだけを用いるため、電力の消費や計算コストを抑えることができる。 In the second embodiment, steps S2010 and S2020 have been described assuming that the two imaging devices capture and input the first image and the second image, but the present invention is not limited to this. For example, normally, only the first imaging device may be used to input and use the first image, and the second geometric information may be estimated in subsequent processing. Furthermore, if it is determined that there is a problem with the second geometric information, the process returns to step S2010 to capture an image, and the scene is captured using only the second imaging device or both the first imaging device and the second imaging device. You may make it image. As a result, since only one imaging device is normally used, power consumption and calculation costs can be suppressed.

第2の実施形態において、ステップS2070では、表示情報生成部105は不具合の有無を知らせるための表示情報を生成し、表示部11で表示してもよい。例えば、不具合が無い場合には、どの幾何情報または位置姿勢を用いて運転制御を行っているかを表示してもよい。どの撮像装置で撮像した画像であるかを表示してもよい。また、不具合が有る場合には、第一、第二、第三の幾何情報または位置姿勢のうち、どれに不具合が有るのかを表示してもよい。または、第一の撮像装置または第二の撮像装置の異常を知らせるような表示をしてもよい。または、不具合が一定時間連続して生じるようであれば、原因として考えられる部分の点検やメンテナンスを促す表示を行ってもよい。これにより、ユーザは情報処理システムの状態を視覚的に確認することができる。 In the second embodiment, in step S2070, the display information generation unit 105 may generate display information for notifying the presence or absence of a problem, and display the information on the display unit 11. FIG. For example, if there is no problem, it may be displayed which geometric information or position/orientation is used for operation control. It may be displayed which imaging device the image was captured by. Also, if there is a problem, it may be displayed which one of the first, second, and third geometric information or the position/orientation has the problem. Alternatively, a display may be made to inform an abnormality of the first imaging device or the second imaging device. Alternatively, if the problem continues for a certain period of time, an indication may be displayed to prompt inspection or maintenance of the part considered to be the cause. This allows the user to visually confirm the state of the information processing system.

第2の実施形態では、幾何情報をいずれか一つ推定する場合について述べたが、これに限るものではない。例えば、第1の実施形態と同様にして、第一、第二、第三の幾何情報または第一、第二、第三の位置姿勢を推定し、それぞれの不具合の有無を確認してもよい。不具合の無い幾何情報または位置姿勢が複数存在する場合には、その中からランダムに一つを選んで次のステップに進んでもよいし、第1の実施形態におけるステップS1050やステップS1041のように、不具合の無い複数の幾何情報または位置姿勢から、幾何情報または位置姿勢を求めてもよい。または、不具合の有る幾何情報または位置姿勢は式1における信頼度やICPを行う際の重みを不具合の無いものよりも低く設定することによって求めてもよい。こうすることにより、不具合の有るデータを明示的に除外することで、第1の実施形態における推定結果よりもロバストな推定を行うことができる。 Although the case of estimating any one piece of geometric information has been described in the second embodiment, the present invention is not limited to this. For example, similarly to the first embodiment, the first, second, and third geometric information or the first, second, and third positions and orientations may be estimated, and the presence or absence of defects in each may be checked. . If there are multiple pieces of geometric information or position/orientation without defects, one of them may be selected at random to proceed to the next step, or like steps S1050 and S1041 in the first embodiment, Geometric information or position/orientation may be obtained from a plurality of pieces of geometric information or position/orientation without defects. Alternatively, defective geometric information or position/orientation may be obtained by setting the reliability in Equation 1 or the weight for ICP to be lower than those without defects. By doing so, it is possible to perform estimation that is more robust than the estimation result in the first embodiment by explicitly excluding defective data.

[第3の実施形態]
上記第2の実施形態では、計測結果処理部は幾何情報または位置姿勢における不具合の有無を判定し、不具合の無い推定結果を用いて幾何情報または位置姿勢を算出していた。これに対して、第3の実施形態では、計測結果処理部は幾何情報または位置姿勢に対して判定を行うだけでなく、不具合が有る場合には、不具合の原因の解消や、不具合の回避によって、不具合の解決を図る。このようにして、不具合が有る場合でもロバストに幾何情報または位置姿勢を推定して自動運転または運転アシストを行う。本第3の実施形態における自動車の構成は第1の実施形態に示した図1と同様であるため省略する。
[Third embodiment]
In the second embodiment described above, the measurement result processing unit determines whether or not there is a defect in the geometric information or the position and orientation, and calculates the geometric information or the position and orientation using an estimation result with no defect. On the other hand, in the third embodiment, the measurement result processing unit not only judges the geometric information or the position and orientation, but also eliminates the cause of the problem and avoids the problem when there is a problem. , try to solve the problem. In this way, even if there is a problem, the geometric information or the position and orientation are estimated robustly to perform automatic driving or driving assistance. Since the configuration of the vehicle in the third embodiment is the same as that shown in FIG. 1 for the first embodiment, it will be omitted.

<情報処理装置の構成>
図12は、本第3の実施形態における情報処理装置1と運転処理装置12の機器構成例を示す図である。情報処理装置1は、画像入力部300、学習モデル保持部301、幾何情報推定部302、位置姿勢算出部303、計測結果処理部304、表示情報生成部305、校正算出部309、及び、装置全体の制御を司る制御部35を備えている。また、運転処理装置12は、周囲環境取得部306、目的地取得部307、及び、装置全体の制御を司る運転制御部308を備えている。画像入力部300、学習モデル保持部301、幾何情報推定部302、位置姿勢算出部303、表示情報生成部305、周囲環境取得部306、目的地取得部307、運転制御部308、並びに、制御部35は、第1の実施形態における画像入力部100、学習モデル保持部101、幾何情報推定部102、位置姿勢算出部103、表示情報生成部105、周囲環境取得部106、目的地取得部107、運転制御部108、及び、制御部15に対応する。同様の機能については説明を省略し、違いのある計測結果処理部304、校正算出部309について説明を行う。
<Configuration of information processing device>
FIG. 12 is a diagram showing a device configuration example of the information processing device 1 and the operation processing device 12 in the third embodiment. The information processing apparatus 1 includes an image input unit 300, a learning model holding unit 301, a geometric information estimation unit 302, a position/orientation calculation unit 303, a measurement result processing unit 304, a display information generation unit 305, a calibration calculation unit 309, and the entire apparatus. A control unit 35 is provided for controlling the . The operation processing device 12 also includes an ambient environment acquisition unit 306, a destination acquisition unit 307, and an operation control unit 308 that controls the entire device. Image input unit 300, learning model storage unit 301, geometric information estimation unit 302, position/orientation calculation unit 303, display information generation unit 305, ambient environment acquisition unit 306, destination acquisition unit 307, operation control unit 308, and control unit Reference numeral 35 denotes the image input unit 100, the learning model holding unit 101, the geometric information estimation unit 102, the position/orientation calculation unit 103, the display information generation unit 105, the ambient environment acquisition unit 106, the destination acquisition unit 107, It corresponds to the operation control unit 108 and the control unit 15 . Descriptions of similar functions are omitted, and the measurement result processing unit 304 and the calibration calculation unit 309, which are different, will be described.

計測結果処理部304は、位置姿勢算出部303が算出した第一、第二、第三の位置姿勢と、第一、第二、第三の幾何情報に基づいて、不具合や異常を検知し、それを解消するための動作を行う。そして、位置姿勢および幾何情報を算出し、表示情報生成部305、運転処理装置12に出力する。詳細は後述する。 The measurement result processing unit 304 detects a defect or abnormality based on the first, second, and third positions and orientations calculated by the position/orientation calculation unit 303 and the first, second, and third geometric information. Take action to resolve it. Then, the position and orientation and geometric information are calculated and output to the display information generation unit 305 and the operation processing device 12 . Details will be described later.

校正算出部309は、計測結果処理部304から校正を行う指示を受けると、第一の撮像装置と第二の撮像装置の校正を行い、校正パラメータを求める。求めた校正パラメータによって図示しない校正パラメータ保持部の校正パラメータを更新する。 Upon receiving an instruction to perform calibration from the measurement result processing unit 304, the calibration calculation unit 309 performs calibration of the first imaging device and the second imaging device, and obtains calibration parameters. The calibration parameters in the calibration parameter holding unit (not shown) are updated with the obtained calibration parameters.

<処理>
次に、本第3の実施形態における処理手順について説明する。図13は、本実施形態における情報処理装置3を含む情報処理システムが実施する処理手順を示すフローチャートである。
<Processing>
Next, a processing procedure in the third embodiment will be described. FIG. 13 is a flowchart showing a processing procedure performed by an information processing system including the information processing device 3 according to this embodiment.

本第3の実施形態におけるフローチャートは、第1の実施形態における図4のフローチャートと略同様であり、ステップS3000、ステップS3010、ステップS3020、ステップS3030、ステップS3040、ステッステップS3060、ステップS3070、ステップS3080、ステップS3090は、それぞれステップS1000、ステップS1010、ステップS1020、ステップS1030、ステップS1040、ステップS1060、ステップS1070、ステップS1080、ステップS1090と同様の処理であるため説明を省略し、違いのあるステップS3050、ステップS3051について説明を行う。 The flowchart in the third embodiment is substantially the same as the flowchart in FIG. 4 in the first embodiment, and includes steps S3000, S3010, S3020, S3030, S3040, S3060, S3070, and S3080. , S3090 are the same processes as steps S1000, S1010, S1020, S1030, S1040, S1060, S1070, S1080, and S1090, respectively, so the description is omitted, and steps S3050, Step S3051 will be explained.

ステップS3050にて、計測結果処理部304は、ステップS3040で算出された第一、第二、第三の位置姿勢および第一、第二、第三の幾何情報における不具合の有無をそれぞれ判定する。不具合が一つも無かった場合にはステップS3060に進む。不具合があった場合には、ステップS3051へ進む。不具合の有無を判定する具体的な処理については、第2の実施形態における図9および図11のフローチャートを用いて既に述べたため省略する。 In step S3050, the measurement result processing unit 304 determines the presence/absence of defects in the first, second, and third positions and orientations and the first, second, and third geometric information calculated in step S3040. If there is no problem, the process proceeds to step S3060. If there is a problem, the process advances to step S3051. The specific processing for determining whether or not there is a defect has already been described using the flowcharts of FIGS. 9 and 11 in the second embodiment, so a description thereof will be omitted.

ステップS3051では、計測結果処理部304は、第一、第二、第三の位置姿勢および第一、第二、第三の幾何情報において不具合が有ったものに基づいて、その不具合を解消するための処理を行う(詳細後述)。そして、計測結果処理部304は、処理をステップS3010に戻る。 In step S3051, the measurement result processing unit 304 solves the problem based on the first, second, and third position/orientation and the first, second, and third geometric information. (details will be described later). Then, the measurement result processing unit 304 returns the processing to step S3010.

なお、不具合を解消する間の運転制御については、人が運転するドライビングモードに切り替えて自動運転または運転アシストは行わないようにする。ただし、これに限るものではなく、不具合を解消するまでの時間が比較的短く、これまでの推定結果のままでも問題ない場合であれば、これまでの推定結果および時系列的な予測に基づいて運転制御を行ってもよい。例えば、周囲に障害物等がなく直線一本道を走行中で、その状態が続くことが推定可能である場合は、自動運転または運転アシストを行ってもよい。 As for the driving control while the problem is being resolved, the driving mode is switched to a driving mode in which a person drives the vehicle, and automatic driving or driving assistance is not performed. However, it is not limited to this, and if the time to resolve the problem is relatively short and there is no problem with the estimation results so far, we will Operation control may be performed. For example, when the vehicle is traveling on a straight road with no obstacles in the surroundings and it can be estimated that this state will continue, automatic driving or driving assistance may be performed.

<計測結果処理部が不具合を解消する処理>
ここで、図14は、本第3の実施形態におけるステップS3051における、計測結果処理部304が不具合を解消する手順を示すフローチャートである。
<Processing by the measurement result processing unit to eliminate the problem>
Here, FIG. 14 is a flow chart showing a procedure for the measurement result processing unit 304 to solve the problem in step S3051 in the third embodiment.

ステップS3100にて、計測結果処理部304は、第一、第二、第三の位置姿勢および第一、第二、第三の幾何情報において不具合の有ったものはどれなのかを示す情報を取得する。 In step S3100, the measurement result processing unit 304 obtains information indicating which of the first, second, and third positions and orientations and the first, second, and third pieces of geometric information have defects. get.

ステップS3110にて、計測結果処理部304は、入力された情報の分類を行う。分類方法の表記として、以下では、第一の位置姿勢または幾何情報に不具合があった場合は第一:×、不具合が無かった場合には第一:○などと表記するものとする。例えば、第一:○、第二:×、第三:×と表記した場合、第一の位置姿勢および幾何情報には不具合は無く、第二の位置姿勢または幾何情報に不具合が有り、第三の位置姿勢または幾何情報に不具合が有ることを示す。不具合の分類により、第一:○、第二:×、第三:×の場合、計測結果処理部304はステップS3111に処理を進める。また、第一:○、第二:○、第三:×または第一:○、第二:×、第三:○の場合、計測結果処理部304は処理をステップS3112に進める。また、第一:×、第二:○、第三:○の場合、計測結果処理部304はステップS3113に処理を進める。また、第一:×、第二:○、第三:×または第一:×、第二:×、第三:○の場合、計測結果処理部304はステップS3114に処理を進める。そして、第一:×、第二:×、第三:×の場合、計測結果処理部304はステップS3115に処理を進める。 In step S3110, measurement result processing section 304 classifies the input information. As notation of the classification method, hereinafter, when there is a problem with the first position/orientation or geometric information, it is described as first: x, and when there is no problem, it is described as first: o. For example, when notated as 1st: O, 2nd: X, and 3rd: X, there is no problem in the first position/orientation and geometric information, but there is a problem in the second position/orientation or geometric information, and the third position/orientation or geometric information is Indicates that there is a problem with the position, orientation, or geometric information of the . If the defect is classified as 1st: O, 2nd: X, or 3rd: X, the measurement result processing unit 304 advances the process to step S3111. In the case of 1st: ◯, 2nd: ◯, 3rd: × or 1st: ◯, 2nd: ×, 3rd: ◯, the measurement result processing unit 304 advances the process to step S3112. Moreover, in the case of the first: ×, the second: ○, and the third: ○, the measurement result processing unit 304 advances the process to step S3113. Also, in the case of first: ×, second: ○, third: × or first: ×, second: ×, third: ○, the measurement result processing unit 304 advances the process to step S3114. Then, in the case of the first: x, the second: x, and the third: x, the measurement result processing unit 304 advances the process to step S3115.

ステップS3111にて、計測結果処理部304は、学習モデル保持部301が保持する学習モデルの変更を行うことで、幾何情報推定部302における第二、第三の幾何情報の推定を改善させる。変更する学習モデルは撮像シーンと類似したシーンで学習を行ったモデルが好ましい。変更方法としては、撮像シーンの画像から特徴量を抽出し、抽出した特徴量に基づいて学習モデルを決定してもよいし、現在の自動車の位置に基づいて、他の自動車が過去に同様の位置で変更した経験から学習モデルを選択してもよい。 In step S<b>3111 , the measurement result processing unit 304 changes the learning model held by the learning model holding unit 301 to improve the estimation of the second and third geometric information in the geometric information estimation unit 302 . The learning model to be changed is preferably a model that has been trained in a scene similar to the shooting scene. As a change method, a feature amount may be extracted from the image of the captured scene, and a learning model may be determined based on the extracted feature amount. A learning model may be selected from positionally modified experience.

ステップS3112にて、計測結果処理部304は、第二、第三の幾何情報を推定する際に用いる学習モデル保持部301が保持する学習モデルそれぞれを統一することで、幾何情報推定部302における第二、第三の幾何情報いずれか一方の推定を改善する。統一する学習モデルとして採用するのは、不具合の無い幾何情報を推定するのに用いた学習モデルである。ただし、これに限るものではなく、一方の学習モデルに他方の学習モデルを統一するのではなく、ステップS3111と同様に両方の学習モデルを変更してもよい。 In step S3112, the measurement result processing unit 304 unifies the learning models held by the learning model holding unit 301 used when estimating the second and third pieces of geometric information. Improve the estimation of either the second or third geometric information. The learning model to be unified is the learning model used for estimating defect-free geometric information. However, the present invention is not limited to this, and instead of unifying one learning model with the other learning model, both learning models may be changed in the same manner as in step S3111.

ステップS3113にて、計測結果処理部304は、校正算出部309が撮像した時点での第一の撮像装置と第二の撮像装置の間の校正パラメータを算出する。校正パラメータは第二の位置姿勢と第三の位置姿勢に基づいて、一方から他方への変換を求めることで算出する。ただし、算出方法はこれに限るものではなく、第一の画像と第二の画像に基づいて算出してもよいし、第二の幾何情報と第三の幾何情報に基づいて算出してもよい。そして、計測結果処理部304はステップS3116に処理を進める。 In step S3113, the measurement result processing unit 304 calculates calibration parameters between the first imaging device and the second imaging device at the time when the calibration calculation unit 309 captures images. Calibration parameters are calculated by obtaining a transformation from one to the other based on the second pose and the third pose. However, the calculation method is not limited to this, and may be calculated based on the first image and the second image, or may be calculated based on the second geometric information and the third geometric information. . Then, the measurement result processing unit 304 advances the process to step S3116.

ステップS3116にて、計測結果処理部304は、ステップS3113で算出した校正パラメータと図示しない校正パラメータ保持部が保持する校正パラメータを比較して、その誤差を求める。校正誤差が大きく、第一の画像と第二の画像が撮像するシーンが重なる領域が画像中の半分の領域にも満たない場合、計測結果処理部304はステップS3117に処理を進める。校正誤差は存在するが、その誤差が小さい場合、計測結果処理部304はステップS3118に処理を進める。校正誤差はほぼゼロで算出した校正パラメータと校正パラメータ保持部が保持する校正パラメータがほぼ同一であると見なせる場合、計測結果処理部304はステップS3119に処理を進める。 In step S3116, the measurement result processing unit 304 compares the calibration parameter calculated in step S3113 with the calibration parameter held in the calibration parameter holding unit (not shown) to obtain the error. If the calibration error is large and the area where the scenes captured by the first image and the second image overlap is less than half of the area in the image, the measurement result processing unit 304 advances the process to step S3117. Although there is a calibration error, if the error is small, the measurement result processing unit 304 advances the process to step S3118. If the calibration parameter calculated with almost zero calibration error and the calibration parameter held by the calibration parameter holding unit can be considered to be almost the same, the measurement result processing unit 304 advances the process to step S3119.

ステップS3117にて、表示情報生成部305は、第一の撮像装置と第二の撮像装置の少なくとも一つを適切な位置姿勢に設置し直すように、ユーザに指示を行うための画像を生成し、表示部11を用いて表示する。具体的には、車内における第一の撮像装置と第二の撮像装置それぞれの位置姿勢を求めて、予め設定してある撮像装置の理想的な位置姿勢の範囲に入るように、ユーザが撮像装置を動かす。この時、表示情報生成部305は、理想的な撮像装置の位置姿勢と、現在の撮像装置の位置姿勢とがどの程度一致しているか、また、どのように動かせば理想的な位置姿勢に近づくかを示す画像を生成し、表示部31を用いて表示する。ユーザが撮像装置の設置を終えると、校正算出部309は現在の校正パラメータを算出し、これを図示しない校正パラメータ保持部の保持する校正パラメータとして更新する。このようにして、ユーザが撮像装置を適切な位置姿勢に設置し直すことによって、幾何情報推定部302における第一の幾何情報の推定を改善する。また、車内における撮像装置の位置姿勢を安定して求めるために、車内で計測した学習データによって学習した学習モデルを予め準備しておき、学習モデル保持部301が保持する学習モデルをこれに変更してもよい。 In step S3117, the display information generation unit 305 generates an image for instructing the user to re-install at least one of the first imaging device and the second imaging device in an appropriate position and orientation. , the display unit 11 is used to display. Specifically, the position and orientation of each of the first imaging device and the second imaging device in the vehicle are obtained, and the user adjusts the position and orientation of the imaging device so that they fall within the preset ideal position and orientation range of the imaging device. move the At this time, the display information generation unit 305 determines how much the ideal position and orientation of the imaging device match the current position and orientation of the imaging device, and how to move the imaging device to approach the ideal position and orientation. An image indicating whether or not is generated, and is displayed using the display unit 31 . After the user finishes installing the imaging apparatus, the calibration calculation unit 309 calculates the current calibration parameters, and updates the calibration parameters held in the calibration parameter holding unit (not shown). In this way, the user improves the estimation of the first geometric information in the geometric information estimation unit 302 by repositioning the imaging device in an appropriate position and orientation. In addition, in order to stably obtain the position and orientation of the imaging device in the vehicle, a learning model learned from learning data measured in the vehicle is prepared in advance, and the learning model held by the learning model holding unit 301 is changed to this learning model. may

ステップS3118にて、計測結果処理部304は、ステップS3113で算出した校正パラメータを用いて、図示しない校正パラメータ保持部が保持する校正パラメータを更新する。これにより、幾何情報推定部302における第一の幾何情報の推定を改善する。 In step S3118, the measurement result processing unit 304 uses the calibration parameters calculated in step S3113 to update the calibration parameters held by the calibration parameter holding unit (not shown). This improves the estimation of the first geometric information in the geometric information estimator 302 .

ステップS3119にて、幾何情報推定部302が第一の幾何情報を推定するために、第一の画像と第二の画像の対応関係を求める際に用いる特徴点の検出方法を変更する。これにより、幾何情報推定部302における第一の幾何情報の推定を改善する。特徴点の検出方法としては、SIFTやORB、AKAZEなど様々な特徴量が存在するが、特に限定するものではない。また、ここでは特徴点の検出方法を変更するものとして説明したが、これに限るものではない。例えば、ステレオの対応関係を求める類似度指標をSADやSSD、NCC、ZNCCなどの中で変更を行うことでステレオによる幾何情報推定を改善してもよいし、探索範囲や閾値などを変更してもよい。 In step S3119, in order for the geometric information estimating unit 302 to estimate the first geometric information, the feature point detection method used when obtaining the correspondence between the first image and the second image is changed. This improves the estimation of the first geometric information in the geometric information estimator 302 . There are various feature amounts such as SIFT, ORB, and AKAZE as methods for detecting feature points, but the method is not particularly limited. Also, although the method for detecting feature points has been described here as changing, the present invention is not limited to this. For example, geometric information estimation by stereo may be improved by changing the similarity index for determining the stereo correspondence among SAD, SSD, NCC, ZNCC, etc., or by changing the search range, threshold value, etc. good too.

ステップS3114にて、計測結果処理部304は、撮像部10のうち不具合の有る撮像装置の再起動を行うことで撮像装置自体の改善を行う。また、第一の撮像装置および第二の撮像装置それぞれが撮像した第一の画像と第二の画像に不具合の有無をユーザが確認できるように、表示情報生成部305は第一の画像と第二の画像を並べて表示するための画像を生成し、表示部11を用いて表示する。ここでは、撮像装置の再起動によって撮像装置の改善を行う例について説明したが、これに限るものではない。例えば、撮像装置が壊れて撮像できない場合には、撮像装置の交換を行うために、表示情報生成部305は撮像装置の交換を促す表示を行ってもよい。また、撮像装置のレンズに異常が生じている場合には、表示情報生成部305はレンズの交換やクリーニングを促す表示を行ってもよい。 In step S<b>3114 , the measurement result processing unit 304 restarts the defective imaging device of the imaging unit 10 to improve the imaging device itself. In addition, the display information generation unit 305 generates the first image and the second image so that the user can check whether there is any defect in the first image and the second image captured by the first imaging device and the second imaging device, respectively. An image for displaying the two images side by side is generated and displayed using the display unit 11 . Here, an example of improving the imaging device by restarting the imaging device has been described, but the present invention is not limited to this. For example, if the imaging device is broken and cannot capture an image, the display information generation unit 305 may display a prompt to replace the imaging device in order to replace the imaging device. Further, when there is an abnormality in the lens of the image pickup apparatus, the display information generation unit 305 may perform display prompting replacement or cleaning of the lens.

ステップS3115にて、表示情報生成部305は自動運転や運転アシスト機能を行えない状況にあること、および人が運転するドライビングモードに切り替えることを示す画像を生成して、表示部11を用いて表示する。さらに、人が運転している間に、ステップS3111、ステップS3112、ステップS3114、ステップS3117、ステップS3118、ステップS3119などの改善策を実行することで、システムの復旧を図る。以上の処理により、計測結果処理部304は不具合を解消する。 In step S<b>3115 , the display information generation unit 305 generates an image indicating that the automatic driving or the driving assist function cannot be performed and that the driving mode is switched to the driving mode for human driving, and displays the image using the display unit 11 . do. Furthermore, while the person is driving, the system is restored by executing improvement measures such as steps S3111, S3112, S3114, S3117, S3118, and S3119. Through the above processing, the measurement result processing unit 304 solves the problem.

<効果>
以上に述べたように、第3の実施形態によれば、推定した幾何情報や位置姿勢に不具合が有った場合には、それを解消するための対処を行うことによって、より安全かつ安定してシステムを連続的に動作させることができる。また、不具合の状況を表示してユーザに知らせることによって、ユーザは安心して自動運転や運転アシストの機能を用いることができる。
<effect>
As described above, according to the third embodiment, if there is a defect in the estimated geometric information or position/orientation, a countermeasure is taken to resolve the defect, thereby making the system safer and more stable. system can be operated continuously. In addition, by displaying and informing the user of the status of the problem, the user can use the functions of automatic driving and driving assistance with peace of mind.

<変形例>
第3の実施形態においては、図13に示すフローチャートに従って処理を行う例について述べたが、これに限るものではない。第3の実施形態ではステップS3040で位置姿勢を算出した後で、ステップS3050で不具合の有無を判定して、その対処を行う例について述べたが、第1の実施形態の変形例や第2の実施形態の変形例で示した例と同様にして、ステップS3030で算出した幾何情報を用いて不具合の有無を判定し、その対処を行い、その後で位置姿勢を算出してもよい。
<Modification>
In the third embodiment, an example of performing processing according to the flowchart shown in FIG. 13 has been described, but the present invention is not limited to this. In the third embodiment, the position and orientation are calculated in step S3040, and then the presence or absence of a defect is determined in step S3050. Similar to the example shown in the modified example of the embodiment, the geometric information calculated in step S3030 may be used to determine whether or not there is a problem, take measures, and then calculate the position and orientation.

第3の実施形態において、ステップS3050では、不具合の有無に応じてステップS3060またはステップS3051のどちらかに進む例について述べた。しかしながら、これに限るものではない。例えば、不具合が有った場合でも、第一、第二、第三の幾何情報および位置姿勢のいずれかに不具合が無い場合には、処理を二つに分け、ステップS3051で不具合への対処を行うとともに、不具合の無い幾何情報および位置姿勢を用いてステップS3060の処理を行ってもよい。これにより、不具合が有った場合でも、継続して自動運転または運転アシストの機能を使うことができる。 In the third embodiment, in step S3050, the example of proceeding to either step S3060 or step S3051 depending on whether there is a problem has been described. However, it is not limited to this. For example, even if there is a problem, if there is no problem in any of the first, second, and third geometric information and the position and orientation, the processing is divided into two, and the problem is dealt with in step S3051. At the same time, the process of step S3060 may be performed using geometric information and position/orientation without any defects. As a result, even if there is a problem, you can continue to use the automatic driving or driving assist function.

第3の実施形態において、ステップS3051では、不具合があった場合にはすぐにその対処を行う例について述べた。しかしながら、これに限るものではない。例えば、第一の撮像装置の前を遮蔽物が横切った場合には、第一、第二の幾何情報に不具合が有ると判定されるが、遮蔽物が無くなれば自然と不具合は改善される場合もある。そのため、不具合が数フレームに渡って連続的に生じた場合に対処を行うようにしてもよい。これにより、不要な計算負荷の増大を防ぐことができる。 In the third embodiment, in step S3051, an example has been described in which if there is a problem, it is dealt with immediately. However, it is not limited to this. For example, when an obstacle crosses in front of the first imaging device, it is determined that there is a problem with the first and second geometric information. There is also For this reason, it is possible to take measures when a defect occurs continuously over several frames. This can prevent an unnecessary increase in computational load.

[第4の実施形態]
第1、第2、第3の実施形態における幾何情報推定部は、既存の学習モデルを用いて幾何情報を推定する例について述べた。これに対して、第4の実施形態では、学習モデルを学習するための教師データを取得して学習を行い、学習モデルを生成する。このようにして、既存の学習モデルでは幾何情報を推定できないような未知のシーンに対しても、幾何情報の推定が可能となる新たな学習モデルを生成して自動運転または運転アシストを行う。本第4の実施形態における自動車の構成は第1の実施形態に示した図1と同様であるため省略する。
<情報処理装置の構成>
図15は本実施形態における情報処理装置1と運転処理装置12の機器構成例を示す図である。情報処理装置1は、画像入力部400、学習モデル保持部401、幾何情報推定部402、位置姿勢算出部403、計測結果処理部404、表示情報生成部405、学習部409、並びに制御部25を備えている。また、運転処理装置12は、周囲環境取得部406、目的地取得部407、運転制御部408を備えている。画像入力部400、学習モデル保持部401、幾何情報推定部402、位置姿勢算出部403、計測結果処理部404、表示情報生成部405、周囲環境取得部406、目的地取得部407、運転制御部408、アクチュエータ部43、及び、制御部45は、第3の実施形態における画像入力部300、学習モデル保持部301、幾何情報推定部302、位置姿勢算出部303、計測結果処理部304、表示情報生成部305、周囲環境取得部306、目的地取得部307、運転制御部308、アクチュエータ部33、及び、制御部35に対応する。同様の機能については説明を省略し、違いのある学習モデル保持部401、計測結果処理部404、学習部409について説明を行う。
[Fourth embodiment]
The geometric information estimation unit in the first, second, and third embodiments has described an example of estimating geometric information using an existing learning model. On the other hand, in the fourth embodiment, teacher data for learning a learning model is acquired, learning is performed, and a learning model is generated. In this way, automatic driving or driving assistance is performed by generating a new learning model that enables estimation of geometric information even for an unknown scene in which geometric information cannot be estimated by existing learning models. Since the configuration of the vehicle in the fourth embodiment is the same as that shown in FIG. 1 for the first embodiment, it will be omitted.
<Configuration of information processing device>
FIG. 15 is a diagram showing a device configuration example of the information processing device 1 and the operation processing device 12 in this embodiment. The information processing apparatus 1 includes an image input unit 400 , a learning model storage unit 401 , a geometric information estimation unit 402 , a position/orientation calculation unit 403 , a measurement result processing unit 404 , a display information generation unit 405 , a learning unit 409 , and a control unit 25 . I have it. The operation processing device 12 also includes an ambient environment acquisition unit 406 , a destination acquisition unit 407 and an operation control unit 408 . Image input unit 400, learning model storage unit 401, geometric information estimation unit 402, position/orientation calculation unit 403, measurement result processing unit 404, display information generation unit 405, ambient environment acquisition unit 406, destination acquisition unit 407, operation control unit 408, the actuator unit 43, and the control unit 45 are the image input unit 300, the learning model holding unit 301, the geometric information estimation unit 302, the position/orientation calculation unit 303, the measurement result processing unit 304, and the display information in the third embodiment. It corresponds to the generation unit 305 , the ambient environment acquisition unit 306 , the destination acquisition unit 307 , the operation control unit 308 , the actuator unit 33 and the control unit 35 . A description of similar functions will be omitted, and the learning model holding unit 401, the measurement result processing unit 404, and the learning unit 409, which are different, will be described.

学習モデル保持部401は、画像から幾何情報を推定するためのモデルを保持する。また、学習モデル保持部401は、後述する学習部409から供給された学習モデルを保持する。これにより、幾何情報推定部402が状況に応じて適切な学習モデルを選択できるようになる。 A learning model holding unit 401 holds a model for estimating geometric information from an image. Also, the learning model holding unit 401 holds a learning model supplied from a learning unit 409 which will be described later. This allows the geometric information estimation unit 402 to select an appropriate learning model according to the situation.

計測結果処理部404は、第3の実施形態における計測結果処理部304の機能に加えて、第一の画像および第二の画像と、それらの画像に対応する幾何情報に基づいて、学習モデルを学習する際に用いる教師データを生成する。そして、計測結果処理部404は、生成した教師データは学習部409に出力する。 In addition to the functions of the measurement result processing unit 304 in the third embodiment, the measurement result processing unit 404 creates a learning model based on the first image, the second image, and the geometric information corresponding to these images. Generate teacher data used for learning. Then, the measurement result processing unit 404 outputs the generated teacher data to the learning unit 409 .

学習部409は、計測結果処理部404から入力した教師データに基づいて学習を行い、学習モデルを生成する。生成した学習モデルは学習モデル保持部401に出力する。 The learning unit 409 performs learning based on the teacher data input from the measurement result processing unit 404 and generates a learning model. The generated learning model is output to the learning model holding unit 401 .

<処理>
次に、本第4の実施形態における処理手順について説明する。本第4の実施形態における処理手順は、第3の実施形態において図13を用いて説明したフローチャートに一部処理を追加するだけで、その他は同様であるため、説明を省略する。本第4の実施形態において教師データを取得して学習を行う処理手順は、第3の実施形態における図13のステップS3060の後に並行して行われる。ここで、図16は、この教師データを取得して学習を行う処理手順を示すフローチャートである。
<Processing>
Next, a processing procedure in the fourth embodiment will be described. The processing procedure in the fourth embodiment is similar to the flowchart described in the third embodiment with reference to FIG. 13 except that some processing is added, so description thereof will be omitted. In the fourth embodiment, the processing procedure for acquiring teacher data and learning is performed in parallel after step S3060 in FIG. 13 in the third embodiment. Here, FIG. 16 is a flow chart showing a processing procedure for acquiring this teacher data and performing learning.

ステップS4100にて、計測結果処理部404は、第一の画像と第二の画像を取得し、取得リストに保持する。ただし、これに限るものではなく、どちらか一方の画像のみを取得、保持してもよい。 In step S4100, the measurement result processing unit 404 acquires the first image and the second image and holds them in the acquisition list. However, it is not limited to this, and only one of the images may be acquired and held.

ステップS4110にて、計測結果処理部404は、位置姿勢を取得し、既に取得リストに保持してある画像と対応付けて取得リストに保持する。ただし、ここでの位置姿勢とは、計測結果処理部404が最終的に算出した位置姿勢であり、運転制御に用いられる位置姿勢である。 In step S4110, the measurement result processing unit 404 acquires the position and orientation, and stores them in the acquisition list in association with the images already stored in the acquisition list. However, the position and orientation here is the position and orientation finally calculated by the measurement result processing unit 404, and is the position and orientation used for operation control.

ステップS4120にて、計測結果処理部404は、取得リストに保持された画像に対応する幾何情報を取得可能であるかどうか判定する。取得可能であると判定した場合、計測結果処理部404は処理をステップS4130へ進める。また、取得不可能である場合には、計測結果処理部404は、取得リストは保持したままで処理を終了する。この場合、次のフレームまたは数フレーム後で、教師データを取得する処理を再度開始した際には、保持した取得リストに対してさらに追加していくことになる。ここで、幾何情報を取得可能であるとは、画像に対して更新した幾何情報が得られる場合である。 In step S4120, the measurement result processing unit 404 determines whether or not geometric information corresponding to the images held in the acquisition list can be acquired. If it is determined that acquisition is possible, the measurement result processing unit 404 advances the process to step S4130. If acquisition is not possible, the measurement result processing unit 404 ends the process while retaining the acquisition list. In this case, when the process of acquiring teacher data is restarted in the next frame or after several frames, further additions will be made to the acquired acquisition list. Here, being able to obtain geometric information means that geometric information updated with respect to an image can be obtained.

ステップS4130にて、計測結果処理部404は、取得リストに保持された画像および位置姿勢に基づいて、画像に対応する幾何情報を取得する。 In step S4130, measurement result processing section 404 acquires geometric information corresponding to the image based on the image and position/orientation held in the acquisition list.

ステップS4140にて、計測結果処理部404は、ステップS4130で対応付けた画像と幾何情報をセットにし、教師データとして学習部409に出力する。学習部409は計測結果処理部404から入力した教師データを保持する。 In step S4140, the measurement result processing unit 404 sets the image and the geometric information associated in step S4130, and outputs the set to the learning unit 409 as teacher data. A learning unit 409 holds teacher data input from the measurement result processing unit 404 .

ステップS4150にて、学習部409は、学習を開始するかどうか判断し、学習を開始する場合にはステップS4160に処理を進める。学習を開始しない場合には処理を終了する。この場合、教師データを取得する処理を再度開始した際には、教師データを追加で保持していく。また、学習を開始するかどうかの判断は、保持する教師データの量が十分かどうかで判断する。 In step S4150, learning unit 409 determines whether or not to start learning.If learning is to be started, the process proceeds to step S4160. If learning is not to be started, the processing is terminated. In this case, when the process of acquiring the teacher data is started again, the teacher data is additionally held. Also, whether or not to start learning is determined by whether or not the amount of retained teacher data is sufficient.

ステップS4160にて、学習部409は、保持する教師データ群を用いて学習を行い、学習モデルを生成する。具体的には、学習部409は、教師データは画像と幾何情報のペアとして与えられ、入力として画像を与えたときに出力として画像に対応する幾何情報を出力するようなCNNの重みを推定することで学習を行う。ただし、学習方法はこれに限るものではなく、CNN以外のモデルであってもよい。 In step S4160, learning unit 409 performs learning using the retained teacher data group to generate a learning model. Specifically, the learning unit 409 is given training data as a pair of an image and geometric information, and estimates CNN weights that output geometric information corresponding to the image when an image is given as an input. learn by doing. However, the learning method is not limited to this, and models other than CNN may be used.

ステップS4170にて、学習モデル保持部401は、ステップS4160で学習部409が生成した学習モデルを追加して保持する。追加して保持することによって、幾何情報推定部402が幾何情報を推定する際には、複数の学習モデルの中から学習モデルを選択して幾何情報を推定することができる。ただし、これに限るものではなく、学習モデル保持部401は学習モデルを新しい学習モデルに更新してもよい。以上の処理により、教師データを取得して学習を行う。 In step S4170, learning model holding unit 401 additionally holds the learning model generated by learning unit 409 in step S4160. By additionally holding, when the geometric information estimation unit 402 estimates geometric information, it is possible to select a learning model from among a plurality of learning models and estimate geometric information. However, it is not limited to this, and the learning model holding unit 401 may update the learning model to a new learning model. Through the above processing, teacher data is acquired and learning is performed.

<効果>
以上に述べたように第4の実施形態によれば、学習モデルを生成することによって、既存の学習モデルでは幾何情報を推定できなかったシーンに対して、生成した学習モデルを用いて幾何情報を推定し、安定した位置姿勢の推定を行い、より安全に自動運転または運転アシストを行うことができる。また、本情報処理装置が処理を行う中で教師データを自動的に生成することによって、学習モデルを学習するために必要となる膨大な教師データを別途作成したり、ラベル付けを行ったりする手間を省くことができる。
<effect>
As described above, according to the fourth embodiment, by generating a learning model, geometric information can be obtained using the generated learning model for a scene for which geometric information cannot be estimated by the existing learning model. It is possible to estimate a stable position and orientation, and perform safer automatic driving or driving assistance. In addition, by automatically generating teacher data while this information processing device is processing, it is possible to avoid the trouble of separately creating and labeling a huge amount of teacher data necessary for learning a learning model. can be omitted.

<変形例>
第4の実施形態において、計測結果処理部404は第3の実施形態における図13のステップS3060の後に教師データを取得する例について述べたが、これに限るものではない。例えば、第3の実施形態における図14のステップS3111の前後もしくは並行して画像を取得リストに保持してもよい。すなわち、学習モデルを用いて幾何情報を推定する第二、第三の幾何情報、およびそれらに対応する第二、第三の位置姿勢に不具合が生じている場合に限定して、画像を取得リストに保存してもよい。これにより、既存の学習モデルでは幾何情報を推定できないシーンの画像群を取得できるため、それらに基づいて生成した教師データで学習を行うことによって、より効率良く幾何情報を推定できるシーンを拡大することができる。
<Modification>
In the fourth embodiment, the example in which the measurement result processing unit 404 acquires teacher data after step S3060 in FIG. 13 in the third embodiment has been described, but the present invention is not limited to this. For example, images may be held in the acquisition list before, after, or in parallel with step S3111 of FIG. 14 in the third embodiment. In other words, only when there is a problem with the second and third geometric information for estimating geometric information using the learning model and the second and third positions and orientations corresponding to them, the image is acquired from the acquisition list can be saved to As a result, it is possible to acquire a group of images of scenes in which geometric information cannot be estimated by existing learning models. By performing learning with teacher data generated based on these images, it is possible to expand the number of scenes for which geometric information can be estimated more efficiently. can be done.

第4の実施形態において、計測結果処理部404は第3の実施形態における図13のステップS3060の後に学習を行う例について述べたが、これに限るものではない。例えば、学習を行うために必要となる画像や位置姿勢、幾何情報などは全てデータとして保存しておき、別途オフラインで学習を行うための情報処理装置を用いて教師データを生成し、学習を行ってもよい。この場合、学習部409は情報処理装置1とは別の情報処理装置にその機能を移動させてもよい。これにより、学習を行うための計算リソースを自動車内部に所持する必要がなくなり、情報処理装置41コストを抑えることができる。 In the fourth embodiment, the example in which the measurement result processing unit 404 performs learning after step S3060 in FIG. 13 in the third embodiment has been described, but the present invention is not limited to this. For example, images, positions and orientations, and geometric information required for learning are all stored as data, and a separate information processing device for offline learning is used to generate teacher data and perform learning. may In this case, the learning unit 409 may transfer its function to an information processing apparatus other than the information processing apparatus 1 . As a result, there is no need to have computational resources for learning inside the vehicle, and the cost of the information processing device 41 can be reduced.

第4の実施形態において、学習部409は計測結果処理部404が生成した教師データのみを用いて学習を行う例について述べたが、これに限るものではない。例えば、既存の学習モデルを学習した時に用いた教師データ群の一部または全てを加えて学習を行ってもよい。また、既存の学習モデルをベースとして、追加学習を行ってもよい。 In the fourth embodiment, the example in which the learning unit 409 performs learning using only the teacher data generated by the measurement result processing unit 404 has been described, but the present invention is not limited to this. For example, learning may be performed by adding part or all of the teacher data group used when learning the existing learning model. Further, additional learning may be performed based on an existing learning model.

第4の実施形態において、ステップS4120では画像に対して更新した幾何情報が得られる場合に幾何情報が取得可能であるとして説明したが、これに限るものではない。例えば、幾何情報が取得可能である条件として、画像に対して得られている幾何情報の割合が閾値以上としてもよい。または、画像に対応する一定範囲内のエリアから外に車が出た時に、幾何情報を更新した後に取得可能としてもよい。 In the fourth embodiment, in step S4120, it was explained that the geometric information can be obtained when the geometric information updated for the image is obtained, but the present invention is not limited to this. For example, the condition for obtaining geometric information may be that the ratio of geometric information obtained to the image is equal to or greater than a threshold. Alternatively, when the vehicle leaves the area within a certain range corresponding to the image, the geometric information may be acquired after the geometric information is updated.

第4の実施形態において、ステップS4100での画像の取得やステップS4130での幾何情報の取得は、いずれも自車が計測したものであり、それらを用いて教師データを生成する例について述べたが、これに限るものではない。例えば、サーバー上から必要となるエリアの画像または幾何情報をダウンロードして、それらを用いて教師データを生成してもよい。 In the fourth embodiment, the acquisition of the image in step S4100 and the acquisition of the geometric information in step S4130 are both measured by the own vehicle, and an example of generating teacher data using them has been described. , but not limited to this. For example, images or geometric information of the required area may be downloaded from a server and used to generate training data.

第4の実施形態において、幾何情報推定部402は学習モデル保持部401が保持する複数の学習モデルの中から状況に応じて適切な学習モデルを選択するとして説明したが、その具体例について述べる。学習モデルは予め、学習モデルに対応する教師データの一部の画像をサンプルシーン画像として紐付けておく。幾何情報推定部402は入力された画像とサンプルシーン画像との類似度を評価し、評価値の高いサンプルシーン画像に紐付いた学習モデルを用いて幾何情報の推定を行う。また、一つの学習モデルに対して複数のサンプルシーン画像が紐付けられていてもよい。 In the fourth embodiment, the geometric information estimation unit 402 selects an appropriate learning model from the plurality of learning models held by the learning model holding unit 401 according to the situation, but a specific example will be described. In the learning model, a partial image of teacher data corresponding to the learning model is linked in advance as a sample scene image. A geometric information estimation unit 402 evaluates the degree of similarity between the input image and the sample scene image, and estimates geometric information using a learning model linked to the sample scene image with a high evaluation value. Also, a plurality of sample scene images may be associated with one learning model.

第4の実施形態において、幾何情報推定部402は学習モデル保持部401が保持する複数の学習モデルの中から状況に応じて適切な学習モデルを選択するとして説明したが、これに限るものではない。例えば、複数の学習モデルに対して、それぞれ幾何情報を生成して、第四、第五の幾何情報をさらに生成して後の処理を行ってもよい。 In the fourth embodiment, the geometric information estimating unit 402 selects an appropriate learning model according to the situation from among the plurality of learning models held by the learning model holding unit 401, but the present invention is not limited to this. . For example, geometric information may be generated for each of a plurality of learning models, fourth and fifth geometric information may be further generated, and subsequent processing may be performed.

[第5の実施形態]
第1、第2、第3、第4の実施形態では、三角測量に基づく幾何情報を推定する方法として、撮像装置を二つ用いたステレオによる推定方法について述べた。これに対して、第5の実施形態では、撮像部が撮像する空間に向けて、所定のパターンを投影する投影部を備え、撮像装置一つと投影部によるアクティブステレオによって幾何情報を推定する。本実施形態における自動車の構成を図17に示す。本第5の実施形態では、自動車50000に取り付けられた撮像部50の位置姿勢を求めるために、投影部54と撮像部50によるアクティブステレオによる幾何情報と、第1の実施形態で既に説明した学習モデルを用いて推定する幾何情報の2系統の幾何情報と、それに対応する位置姿勢から、安定的な幾何情報および位置姿勢を求める。
<情報処理装置の構成>
図18は、本第5の実施形態における情報処理装置5と運転処理装置52の機能構成例を示す図である。情報処理装置5は、画像入力部500、学習モデル保持部501、幾何情報推定部502、位置姿勢算出部503、計測結果処理部504、表示情報生成部505、投影制御部509、及び、装置全体の制御を司る制御部55を備えている。また、運転処理装置52は、周囲環境取得部506、目的地取得部507、及び装置全体の制御を司る運転制御部508を備えている。画像入力部500、学習モデル保持部501、幾何情報推定部502、位置姿勢算出部503、計測結果処理部504、表示情報生成部505、周囲環境取得部506、目的地取得部507、運転制御部508、撮像部50、表示部51、運転処理装置52、アクチュエータ部53、並びに制御部55は、第1の実施形態における画像入力部100、学習モデル保持部101、幾何情報推定部102、位置姿勢算出部103、計測結果処理部104、表示情報生成部105、周囲環境取得部106、目的地取得部107、運転制御部108、撮像部10、表示部11、運転処理部12、アクチュエータ部13、並びに制御部15に対応する。同様の機能については説明を省略し、違いのある投影制御部509、画像入力部500、幾何情報推定部502について説明を行う。なお、位置姿勢算出部503、計測結果処理部504については、第1の実施形態における位置姿勢算出部103と計測結果処理部104と同様で、第1の実施形態では第一、第二、第三と3系統の幾何情報や位置姿勢を扱っていたのに対して、本実施形態では第一と第二の2系統の幾何情報と位置姿勢を扱うという違いだけであるため、説明を省略する。また、撮像部50は撮像装置一つで構成されており、撮像部50の撮像装置と投影部54の間の位置姿勢関係は予めキャリブレーションによって求めておき、図示しない校正パラメータ保持部に校正パラメータが保持されているものとする。
[Fifth Embodiment]
In the first, second, third, and fourth embodiments, the method of estimating geometric information based on triangulation has been described as a stereo estimation method using two imaging devices. On the other hand, in the fifth embodiment, a projection unit that projects a predetermined pattern toward the space imaged by the imaging unit is provided, and geometric information is estimated by active stereo using a single imaging device and the projection unit. FIG. 17 shows the configuration of the automobile in this embodiment. In the fifth embodiment, in order to obtain the position and orientation of the imaging unit 50 attached to the automobile 50000, geometric information obtained by active stereo by the projection unit 54 and the imaging unit 50 and the learning described in the first embodiment are used. Stable geometric information and position/orientation are obtained from the two systems of geometric information estimated using the model and the corresponding position/orientation.
<Configuration of information processing device>
FIG. 18 is a diagram showing a functional configuration example of the information processing device 5 and the operation processing device 52 in the fifth embodiment. The information processing apparatus 5 includes an image input unit 500, a learning model holding unit 501, a geometric information estimation unit 502, a position/orientation calculation unit 503, a measurement result processing unit 504, a display information generation unit 505, a projection control unit 509, and the entire apparatus. is provided with a control unit 55 for controlling . The operation processing device 52 also includes an ambient environment acquisition unit 506, a destination acquisition unit 507, and an operation control unit 508 that controls the entire device. Image input unit 500, learning model storage unit 501, geometric information estimation unit 502, position/orientation calculation unit 503, measurement result processing unit 504, display information generation unit 505, ambient environment acquisition unit 506, destination acquisition unit 507, operation control unit 508, the imaging unit 50, the display unit 51, the operation processing device 52, the actuator unit 53, and the control unit 55 are the same as the image input unit 100, the learning model holding unit 101, the geometric information estimation unit 102, the position/orientation unit 102 in the first embodiment. calculation unit 103, measurement result processing unit 104, display information generation unit 105, ambient environment acquisition unit 106, destination acquisition unit 107, operation control unit 108, imaging unit 10, display unit 11, operation processing unit 12, actuator unit 13, and corresponds to the control unit 15 . The description of the similar functions is omitted, and the projection control unit 509, the image input unit 500, and the geometric information estimation unit 502, which are different, will be described. Note that the position/orientation calculation unit 503 and the measurement result processing unit 504 are the same as the position/orientation calculation unit 103 and the measurement result processing unit 104 in the first embodiment. While the third and third systems of geometric information and position/orientation were handled, the only difference in this embodiment is that the first and second two systems of geometric information and position/orientation are handled, so a description thereof will be omitted. . The imaging unit 50 is composed of one imaging device, and the position and orientation relationship between the imaging device of the imaging unit 50 and the projection unit 54 is obtained in advance by calibration, and calibration parameters are stored in a calibration parameter holding unit (not shown). shall be retained.

投影制御部509は、撮像部の撮像空間に向けたパターン光の投影を制御し、投影部54を用いて投影を行う。また投影制御部509は、投影したパターンに関する情報を幾何情報推定部502に出力する。 A projection control unit 509 controls projection of the pattern light toward the imaging space of the imaging unit, and performs projection using the projection unit 54 . The projection control unit 509 also outputs information about the projected pattern to the geometric information estimation unit 502 .

画像入力部500は、撮像部50の撮像装置が、パターンが投影された被写体空間の2次元画像の画像データを時系列に入力し、処理を行った後で、学習モデル保持部501、幾何情報推定部502、位置姿勢算出部503、表示情報生成部505、運転処理装置52に出力する。画像入力部500が行う処理は、撮像した画像に対して、投影パターンの影響を受けた第一の画像と投影パターンの影響を受けない第二の画像とに分離することである。具体的には、投影部54が投影するパターンは赤外光とし、撮像部50は可視光と赤外光の2チャネルを撮像できるものとする。そして、画像入力部500は、赤外光チャネルの画像を第一の画像、可視光チャネルの画像を第二の画像として処理し、第一の画像、第二の画像を出力する。 The image input unit 500 inputs the image data of the two-dimensional image of the subject space on which the pattern is projected in time series by the imaging device of the imaging unit 50, and after processing, the learning model holding unit 501, the geometric information The information is output to the estimation unit 502 , the position/orientation calculation unit 503 , the display information generation unit 505 , and the operation processing device 52 . The process performed by the image input unit 500 is to separate the captured image into a first image affected by the projection pattern and a second image not affected by the projection pattern. Specifically, the pattern projected by the projection unit 54 is assumed to be infrared light, and the imaging unit 50 is capable of imaging two channels of visible light and infrared light. Then, the image input unit 500 processes the image of the infrared light channel as the first image and the image of the visible light channel as the second image, and outputs the first image and the second image.

幾何情報推定部502は、画像入力部500が入力する第一の画像と投影制御部509が入力するパターンに関する情報に基づくアクティブステレオによって第一の幾何情報を推定する。また、幾何情報推定部502は、学習モデル保持部501が保持する学習モデルを用いて、画像入力部500から入力した第二の画像から、第二の幾何情報を推定する。推定した第一、第二の幾何情報を位置姿勢算出部103に出力する。 The geometric information estimation unit 502 estimates the first geometric information by active stereo based on the first image input by the image input unit 500 and the pattern information input by the projection control unit 509 . Also, the geometric information estimation unit 502 estimates second geometric information from the second image input from the image input unit 500 using the learning model held by the learning model holding unit 501 . The estimated first and second geometric information are output to the position and orientation calculation unit 103 .

<処理>
次に、本第5の実施形態における処理手順について説明する。図19は、本第5の実施形態における情報処理装置5を含む情報処理システムが実施する処理手順を示すフローチャートである。
<Processing>
Next, a processing procedure in the fifth embodiment will be described. FIG. 19 is a flow chart showing a processing procedure performed by an information processing system including the information processing device 5 according to the fifth embodiment.

本第5の実施形態におけるフローチャートは、第1の実施形態における図4のフローチャートと略同様であり、ステップS5040、ステップS5050、ステッステップS5060、ステップS5070、ステップS5080、ステップS5090はそれぞれステップS1040、ステップS1050、ステップS1060、ステップS1070、ステップS1080、ステップS1090と同様の処理であるため説明を省略する。そして、違いのあるステップS5000、ステップS5010、ステップS5020、ステップS5030について以下に説明する。 The flowchart in the fifth embodiment is substantially the same as the flowchart in FIG. 4 in the first embodiment. Since the processing is the same as that of S1050, step S1060, step S1070, step S1080, and step S1090, description thereof is omitted. Steps S5000, S5010, S5020, and S5030, which are different, will be described below.

ステップS5000にて、制御部55はシステムの初期化を行う。第1の実施形態におけるステップS1000の処理に追加して、制御部55は、投影部54の起動および投影制御部509が投影するパターンの設定を読み込みも行うことになる。 At step S5000, the controller 55 initializes the system. In addition to the processing of step S1000 in the first embodiment, the control unit 55 also activates the projection unit 54 and reads the setting of the pattern projected by the projection control unit 509 .

ステップS5010にて、制御部55は投影制御部509を制御し、投影部54からシーンにパターンを投影し、撮像部50の撮像装置によるシーンの撮影を行わせ、撮像画像を画像入力部500に出力させる。 In step S<b>5010 , the control unit 55 controls the projection control unit 509 to project a pattern onto the scene from the projection unit 54 , cause the imaging device of the imaging unit 50 to capture the scene, and transmit the captured image to the image input unit 500 . output.

ステップS5020にて、制御部55は、画像入力部500を制御し、ステップS5010で撮像された画像を取得し、第一の画像と第二の画像に分離させる。 In step S5020, the control unit 55 controls the image input unit 500 to acquire the image captured in step S5010 and separate it into a first image and a second image.

ステップS5030にて、制御部55は幾何情報推定部502を制御し、第一の画像と第二の画像それぞれに基づいて、第一、第二の幾何情報を推定させる。第一の幾何情報はアクティブステレオにより求める。具体的には、幾何情報推定部502は、第一の画像と投影制御部509が入力する投影パターンの情報に基づいて、第一の画像と投影パターンとの対応関係を求める。そして、幾何情報推定部502は、図示しない校正パラメータ保持部から撮像部50の撮像装置と投影部54の位置姿勢関係を表す校正パラメータに基づいて三角測量を行って距離画像を推定する。また、幾何情報推定部502は、第1の実施形態と同様に、学習モデルを用いて、第二の画像から第二の幾何情報を推定することになる。 In step S5030, the control unit 55 controls the geometric information estimation unit 502 to estimate first and second geometric information based on the first image and the second image, respectively. The first geometric information is obtained by active stereo. Specifically, the geometric information estimating unit 502 obtains the correspondence relationship between the first image and the projection pattern based on the information of the first image and the projection pattern input by the projection control unit 509 . Then, the geometric information estimating unit 502 performs triangulation based on calibration parameters representing the position and orientation relationship between the imaging device of the imaging unit 50 and the projection unit 54 from a calibration parameter holding unit (not shown) to estimate a range image. Also, the geometric information estimation unit 502 estimates the second geometric information from the second image using the learning model, as in the first embodiment.

<効果>
以上に述べたように第5の実施形態によれば、パターン投影によるアクティブステレオを用いて幾何情報を推定する機能を有する。そのため、特徴の少ない未知のシーンにおいても、幾何情報を安定して求めることができるため、自動運転や運転アシストにおける安全性が高まる。
<effect>
As described above, the fifth embodiment has a function of estimating geometric information using active stereo by pattern projection. Therefore, even in an unknown scene with few features, geometric information can be stably obtained, which increases safety in automatic driving and driving assistance.

<変形例>
第5の実施形態において、画像入力部500は赤外光と可視光の2チャネルで分離を行う例を述べたが、第一の画像と第二の画像に分離する方法はこれに限らない。例えば、投影部54は赤外光のランダムドットパターンを投影するものとし、撮像部50は赤外光のモノクロ画像を撮像できるものとした場合、撮像した画像を第一の画像、ガウシアンブラーやフィルタ処理によってランダムドットパターンの影響が見えなくなるようにブラーさせた画像を第二の画像としてもよい。または、投影部54と撮像部50が高速に制御され、投影パターンが有る状態で撮像した画像を第一の画像、投影パターンが無い状態で撮像した画像を第二の画像としてもよい。
<Modification>
In the fifth embodiment, an example in which the image input unit 500 separates into two channels of infrared light and visible light has been described, but the method of separating into the first image and the second image is not limited to this. For example, if the projection unit 54 projects a random dot pattern of infrared light and the imaging unit 50 can capture a monochrome image of infrared light, the captured image is the first image, Gaussian blur or filter The second image may be an image that has been blurred by processing so that the effect of the random dot pattern is not visible. Alternatively, the projection unit 54 and the imaging unit 50 may be controlled at high speed, and an image captured with a projection pattern may be used as the first image, and an image captured without a projection pattern may be used as the second image.

第5の実施形態において、画像入力部500は第一の画像と第二の画像に分離する例について述べたが、これに限るものではない。例えば、画像を分離する処理については、幾何情報推定部502、位置姿勢推定部503、計測結果処理部504などの中で最初に分離する処理を行い、画像入力部500は一つの画像を入力してもよい。 In the fifth embodiment, the example in which the image input unit 500 separates the first image and the second image has been described, but the present invention is not limited to this. For example, with respect to the process of separating images, the geometric information estimation unit 502, the position/orientation estimation unit 503, the measurement result processing unit 504, and the like perform separation processing first, and the image input unit 500 inputs one image. may

第5の実施形態において、投影制御部509が投影するパターンはランダムドットパターンであるとして述べたが、投影パターンはこれに限るものではない。例えば、投影パターンはグリッドパターンでもよいし、高速に投影と撮像を行えるならば、位相シフトパターンやグレイコードパターンを用いて、複数の投影パターン撮像画像から幾何情報を推定してもよい。 In the fifth embodiment, the pattern projected by the projection control unit 509 is a random dot pattern, but the projection pattern is not limited to this. For example, the projection pattern may be a grid pattern, or if projection and imaging can be performed at high speed, a phase shift pattern or gray code pattern may be used to estimate geometric information from a plurality of projection pattern captured images.

第5の実施形態において、ステップS5050における計算結果処理は位置姿勢算出の後に行うものとして説明したが、これに限るものではない。第1の実施形態の変形例や第2の実施形態における変形例と同様に、幾何情報推定の後に計算結果処理を行って幾何情報を一つ求め、その後で位置姿勢算出を行ってもよい。 In the fifth embodiment, the calculation result processing in step S5050 is described as being performed after position and orientation calculation, but the present invention is not limited to this. As in the modification of the first embodiment and the modification of the second embodiment, after estimating geometric information, calculation result processing may be performed to obtain one piece of geometric information, and then position and orientation calculation may be performed.

第5の実施形態における処理手順は、第1の実施形態と略同様であると説明したが、これに限るものではない。第2の実施形態に対して、同様に処理を行うことによって、第一の幾何情報と第二の幾何情報を適切に切り替えてもよい。これにより比較的小規模な計算リソースであっても処理を行うことができる。 Although it has been described that the processing procedure in the fifth embodiment is substantially the same as that in the first embodiment, it is not limited to this. By performing similar processing to the second embodiment, the first geometric information and the second geometric information may be appropriately switched. This allows processing even with relatively small computing resources.

第5の実施形態における処理手順は、第1の実施形態と略同様であると説明したが、これに限るものではない。第3の実施形態に対して、同様に処理を行うことによって、不具合が有ったとしても、それを解消するための対処を行うことで、より安全かつ安定してシステムを連続的に動作させることができる。 Although it has been described that the processing procedure in the fifth embodiment is substantially the same as that in the first embodiment, it is not limited to this. By performing the same processing as in the third embodiment, even if there is a problem, by taking measures to eliminate it, the system can be operated continuously more safely and stably. be able to.

第5の実施形態における処理手順は、第1の実施形態と略同様であると説明したが、これに限るものではない。第4の実施形態に対して、同様に処理を行うことによって、学習モデルを生成し、既存の学習モデルでは幾何情報を推定できなかったシーンであっても、安定した位置姿勢の推定を行い、より安全に自動運転または運転アシストを行うことができる。 Although it has been described that the processing procedure in the fifth embodiment is substantially the same as that in the first embodiment, it is not limited to this. By performing the same processing as in the fourth embodiment, a learning model is generated, and stable position and orientation estimation is performed even for a scene in which geometric information could not be estimated by the existing learning model, Autonomous driving or driving assistance can be performed more safely.

第5の実施形態において、投影部54は撮像するシーンにパターンを投影する役割のみを持つ例について述べたが、これに限るものではない。例えば、投影部54が表示部51の機能を兼ねて、ユーザに対する表示を投影によって行ってもよい。また、投影部54は自動車50000のフロントライトとして用いてもよい。または、図示しないフロントライトを用いて投影部54の機能を兼ねてもよい。 In the fifth embodiment, the example in which the projection unit 54 has only the role of projecting the pattern onto the scene to be imaged has been described, but the present invention is not limited to this. For example, the projection unit 54 may also serve as the function of the display unit 51 and display to the user by projection. Also, the projection unit 54 may be used as a front light for the automobile 50000 . Alternatively, a front light (not shown) may be used to have the function of the projection unit 54 as well.

第5の実施形態において、他の光源や他の投影パターンが存在する場合であっても、一意にパターンを特定できるように、投影部54が投影するパターンは変調されていてもよい。これにより、近くに同じ機能を持った自動車が複数台存在している場合であっても、お互いの投影パターンが干渉を起こすことなく、安定して幾何情報を推定することができる。 In the fifth embodiment, the pattern projected by the projection unit 54 may be modulated so that the pattern can be uniquely identified even when there are other light sources and other projection patterns. As a result, even when a plurality of vehicles having the same function exist nearby, the geometric information can be stably estimated without mutual interference between projected patterns.

第5の実施形態において、投影部54は一つの投影装置で、撮像部50は一つの撮像装置からなる例について述べた。ただし、これに限るものではない。例えば、投影装置が複数台、撮像装置が複数台備わっていてもよい。その場合、幾何情報や位置姿勢が3つ以上の多数求めることができる。また、多数のうち一部を用いて処理を行ってもよい。これにより、多数の幾何情報や位置姿勢を用いて推定するため、より精度が高くロバスト性も高い幾何情報や位置姿勢を求めることができる。 In the fifth embodiment, the example in which the projection unit 54 is one projection device and the imaging unit 50 is one imaging device has been described. However, it is not limited to this. For example, a plurality of projection devices and a plurality of imaging devices may be provided. In that case, three or more pieces of geometric information and positions and orientations can be obtained. Moreover, you may process using a part out of many. As a result, since estimation is performed using a large amount of geometric information and position/orientation, it is possible to obtain geometric information and position/orientation with higher accuracy and robustness.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

1:情報処理装置、10:撮像部、11:表示部、12:運転処理装置、13:アクチュエータ部、100:画像入力部、101:学習モデル保持部、102:幾何情報推定部、103:位置姿勢算出部、104:計測結果処理部 1: information processing device, 10: imaging unit, 11: display unit, 12: operation processing unit, 13: actuator unit, 100: image input unit, 101: learning model holding unit, 102: geometric information estimation unit, 103: position Posture calculation unit 104: measurement result processing unit

Claims (16)

撮像視野の少なくとも一部が重複するように移動体に配置された第1の撮像装置及び第2の撮像装置における、前記第1の撮像装置が得た第1の画像、及び、前記第2の撮像装置が得た第2の画像を入力する入力手段と、
画像と該画像を撮影したシーンの三次元形状を表す距離情報とを教師データとして用いて、入力された画像に対応する撮影したシーンの三次元形状を表す距離情報を出力するように学習済みの学習済みモデルを学習モデル保持手段から取得する取得手段と、
前記第1の画像及び前記第2の画像から第1の撮影したシーンの三次元形状を表す距離情報を推定する第1の推定手段と、
前記第1の画像に対応する第2の撮影したシーンの三次元形状を表す距離情報を、前記学習済みモデルを用いて推定する第2の推定手段と、
前記第2の画像に対応する第3の撮影したシーンの三次元形状を表す距離情報を、前記学習済みモデルを用いて推定する第3の推定手段と、
前記第1、第2、第3の撮影したシーンの三次元形状を表す距離情報の少なくとも一つに基づいて、前記第1の撮像装置及び前記第2の撮像装置を含む撮像部の位置情報、当該撮像部が撮像した画像が表す撮影したシーンの三次元形状を表す距離情報の少なくとも一方を生成する生成手段と、
を有することを特徴とする情報処理装置。
A first image obtained by the first imaging device and the second image obtained by the first imaging device and the second imaging device, which are arranged on a moving object so that at least a part of the imaging field of view overlaps. input means for inputting a second image obtained by the imaging device;
Using an image and distance information representing the three-dimensional shape of the scene in which the image was shot as training data, the learned system outputs distance information representing the three-dimensional shape of the scene in which the image was shot corresponding to the input image. Acquisition means for acquiring the trained model from the learning model holding means ;
a first estimating means for estimating distance information representing a three-dimensional shape of a first photographed scene from the first image and the second image;
second estimating means for estimating distance information representing a three-dimensional shape of a second shot scene corresponding to the first image using the learned model;
third estimating means for estimating distance information representing a three-dimensional shape of a third shot scene corresponding to the second image using the learned model;
position information of an imaging unit including the first imaging device and the second imaging device based on at least one of distance information representing the three-dimensional shape of the first, second, and third shot scenes ; generating means for generating at least one of distance information representing a three-dimensional shape of a captured scene represented by an image captured by the imaging unit;
An information processing device comprising:
前記生成手段は、
前記第1の撮影したシーンの三次元形状を表す距離情報に基づいて前記撮像部の第1の位置情報を算出する第1の算出手段と、
前記第2の撮影したシーンの三次元形状を表す距離情報に基づいて前記撮像部の第2の位置情報を算出する第2の算出手段と、
前記第3の撮影したシーンの三次元形状を表す距離情報に基づいて前記撮像部の第3の位置情報を算出する第3の算出手段と、
前記第1、第2、第3の位置情報の少なくとも一つに基づいて、前記撮像部の位置情報を出力するための処理を行う処理手段と
を含むことを特徴とする請求項1に記載の情報処理装置。
The generating means is
a first calculation means for calculating first position information of the imaging unit based on distance information representing the three-dimensional shape of the first captured scene ;
a second calculation means for calculating second position information of the imaging unit based on distance information representing the three-dimensional shape of the second captured scene ;
a third calculation means for calculating third position information of the imaging unit based on distance information representing the three-dimensional shape of the third captured scene ;
2. The apparatus according to claim 1, further comprising: processing means for performing processing for outputting position information of said imaging unit based on at least one of said first, second and third position information. Information processing equipment.
前記生成手段は、
前記第1、第2、第3の撮影したシーンの三次元形状を表す距離情報に基づいて、前記撮像部における基準となる撮像装置で撮像した画像が表す奥行き情報を生成する
ことを特徴とする請求項1に記載の情報処理装置。
The generating means is
Depth information represented by an image captured by an imaging device serving as a reference in the imaging unit is generated based on distance information representing the three-dimensional shape of the first, second, and third captured scenes. The information processing device according to claim 1 .
前記生成手段は、
前記第1、第2、第3の撮影したシーンの三次元形状を表す距離情報の1つを前記撮像部の奥行き情報として出力する出力手段と、
該出力手段で出力する撮影したシーンの三次元形状を表す距離情報の適正、非適正を判定する判定手段と、
該判定手段が非適正であるとの判定をした場合、他の撮影したシーンの三次元形状を表す距離情報を前記出力手段の出力の対象として設定する設定手段と
を含むことを特徴とする請求項1に記載の情報処理装置。
The generating means is
output means for outputting one of the distance information representing the three-dimensional shapes of the first, second, and third photographed scenes as depth information of the imaging unit;
a judgment means for judging whether the distance information representing the three-dimensional shape of the photographed scene output by the output means is appropriate or inappropriate;
and setting means for setting distance information representing a three-dimensional shape of another photographed scene as an output target of the output means when the judgment means judges that it is inappropriate. Item 1. The information processing apparatus according to item 1.
前記生成手段は、生成した撮影したシーンの三次元形状を表す距離情報に基づいて前記撮像部の位置情報を算出するとともに、撮影したシーンの三次元形状を表す距離情報の更新を行う
ことを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
The generating means calculates the position information of the imaging unit based on the generated distance information representing the three-dimensional shape of the photographed scene, and updates the distance information representing the three-dimensional shape of the photographed scene. 5. The information processing apparatus according to any one of claims 1 to 4.
更に、前記生成手段が生成した情報に基づいて、ユーザへの表示情報を生成する表示情報生成手段を有することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。 6. The information processing apparatus according to claim 1, further comprising display information generating means for generating display information for a user based on the information generated by said generating means. 更に、前記位置情報に基づいて、撮像部に関する異常を検出する検出手段を有する
ことを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
6. The information processing apparatus according to any one of claims 1 to 5, further comprising detecting means for detecting an abnormality related to the imaging unit based on the position information.
更に、前記第2、第3の撮影したシーンの三次元形状を表す距離情報に基づいて前記撮像部が有する前記第1、第2の撮像装置間の校正を行う校正算出手段を備え、
前記検出手段が、前記第1の撮像装置と第2の撮像装置との間のキャリブレーションに異常が生じたことを検出した場合に、前記校正算出手段が校正を行う
ことを特徴とする請求項7に記載の情報処理装置。
further comprising calibration calculation means for performing calibration between the first and second imaging devices of the imaging unit based on distance information representing the three-dimensional shape of the second and third captured scenes ;
3. The calibration calculation means performs calibration when the detection means detects that an abnormality has occurred in the calibration between the first imaging device and the second imaging device. 8. The information processing device according to 7.
前記第1の撮影したシーンの三次元形状を表す距離情報に異常が生じたことを前記検出手段が検出した場合、前記生成手段は、前記第2、第3の撮影したシーンの三次元形状を表す距離情報の少なくとも一つに基づいて位置情報を生成する
ことを特徴とする請求項7に記載の情報処理装置。
When the detecting means detects that the distance information representing the three-dimensional shape of the first photographed scene is abnormal, the generating means reproduces the three-dimensional shape of the second and third photographed scenes. 8. The information processing apparatus according to claim 7, wherein the position information is generated based on at least one of the represented distance information.
前記第1の撮影したシーンの三次元形状を表す距離情報に異常が生じたことを前記検出手段が検出した場合、前記生成手段は、前記第2、第3の撮影したシーンの三次元形状を表す距離情報の少なくとも一つに基づいて撮影したシーンの三次元形状を表す距離情報を生成する
ことを特徴とする請求項7に記載の情報処理装置。
When the detecting means detects that the distance information representing the three-dimensional shape of the first photographed scene is abnormal, the generating means reproduces the three-dimensional shape of the second and third photographed scenes. 8. The information processing apparatus according to claim 7, wherein distance information representing a three-dimensional shape of a photographed scene is generated based on at least one of the represented distance information.
更に、前記撮影したシーンの三次元形状を表す距離情報に基づいて、前記取得手段が新たに取得すべきモデルを学習する学習手段を備えることを特徴とする請求項7乃至10のいずれか1項に記載の情報処理装置。 11. The apparatus according to any one of claims 7 to 10, further comprising learning means for learning a model to be newly acquired by said acquiring means based on distance information representing the three-dimensional shape of said photographed scene. The information processing device according to . 前記第2、第3の撮影したシーンの三次元形状を表す距離情報に異常が生じたことを前記検出手段が検出した場合、前記学習手段は、学習に用いるための追加の教師データを取得することを特徴とする請求項11に記載の情報処理装置。 When the detecting means detects that the distance information representing the three-dimensional shape of the second and third photographed scenes is abnormal, the learning means acquires additional teacher data for use in learning. 12. The information processing apparatus according to claim 11, characterized by: 更に、前記生成手段が生成した情報に基づき表示情報を生成する表示情報生成手段と、
前記表示情報を表示する表示手段と
を有すること特徴とする請求項1乃至12のいずれか1項に記載の情報処理装置。
Furthermore, display information generating means for generating display information based on the information generated by the generating means;
13. The information processing apparatus according to claim 1, further comprising display means for displaying said display information.
撮像視野の少なくとも一部が重複するように移動体に配置された第1の撮像装置及び第2の撮像装置における、前記第1の撮像装置が得た第1の画像、及び、前記第2の撮像装置が得た第2の画像を入力する入力工程と、
画像と該画像を撮影したシーンの三次元形状を表す距離情報とを教師データとして用いて、入力された画像に対応する撮影したシーンの三次元形状を表す距離情報を出力するように学習済みの学習済みモデルを学習モデル保持手段から取得する取得する取得工程と、
前記第1の画像及び前記第2の画像から第1の撮影したシーンの三次元形状を表す距離情報を推定する第1の推定工程と、
前記第1の画像に対応する第2の撮影したシーンの三次元形状を表す距離情報を、前記学習済みモデルを用いて推定する第2の推定工程と、
前記第2の画像に対応する第3の撮影したシーンの三次元形状を表す距離情報を、前記学習済みモデルを用いて推定する第3の推定工程と、
前記第1、第2、第3の撮影したシーンの三次元形状を表す距離情報の少なくとも一つに基づいて、前記第1の撮像装置及び前記第2の撮像装置を含む撮像部の位置情報、当該撮像部が撮像した画像が表す撮影したシーンの三次元形状を表す距離情報の少なくとも一方を生成する生成工程と、
を有することを特徴とする情報処理装置の制御方法。
A first image obtained by the first imaging device and the second image obtained by the first imaging device and the second imaging device, which are arranged on a moving object so that at least a part of the imaging field of view overlaps. an input step of inputting a second image obtained by the imaging device;
Using an image and distance information representing the three-dimensional shape of the scene in which the image was shot as training data, the learned system outputs distance information representing the three-dimensional shape of the scene in which the image was shot corresponding to the input image. an acquiring step of acquiring the learned model from the learning model holding means ;
a first estimation step of estimating distance information representing a three-dimensional shape of a first captured scene from the first image and the second image;
a second estimation step of estimating distance information representing a three-dimensional shape of a second captured scene corresponding to the first image using the learned model;
a third estimation step of estimating distance information representing a three-dimensional shape of a third captured scene corresponding to the second image using the learned model;
position information of an imaging unit including the first imaging device and the second imaging device based on at least one of distance information representing the three-dimensional shape of the first, second, and third shot scenes ; a generation step of generating at least one of distance information representing a three-dimensional shape of a captured scene represented by an image captured by the imaging unit;
A control method for an information processing device, comprising:
コンピュータが読み込み実行することで、前記コンピュータを、請求項1乃至13のいずれか1項に記載の情報処理装置として機能させるためのプログラム。 A program that, when read and executed by a computer, causes the computer to function as the information processing apparatus according to any one of claims 1 to 13. 請求項1乃至13のいずれか1項に記載の情報処理装置と、
前記情報処理装置における前記生成手段が生成した情報に基づいて前記移動体の運転を制御する運転制御手段と、
当該運転制御手段によって動作するアクチュエータ部とを有する
ことを特徴とする運転制御システム。
an information processing apparatus according to any one of claims 1 to 13;
an operation control means for controlling the operation of the moving body based on the information generated by the generation means in the information processing device;
and an actuator section operated by the operation control means.
JP2018004469A 2018-01-15 2018-01-15 Information processing device, its control method and program, and operation control system Active JP7149707B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018004469A JP7149707B2 (en) 2018-01-15 2018-01-15 Information processing device, its control method and program, and operation control system
PCT/JP2018/041667 WO2019138677A1 (en) 2018-01-15 2018-11-09 Information processing device, control method therefor, computer-readable storage medium, and driving control system
US16/921,389 US11393123B2 (en) 2018-01-15 2020-07-06 Information processing device, control method therefor, non-transitory computer-readable storage medium, and driving control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018004469A JP7149707B2 (en) 2018-01-15 2018-01-15 Information processing device, its control method and program, and operation control system

Publications (3)

Publication Number Publication Date
JP2019125112A JP2019125112A (en) 2019-07-25
JP2019125112A5 JP2019125112A5 (en) 2021-01-28
JP7149707B2 true JP7149707B2 (en) 2022-10-07

Family

ID=67218581

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018004469A Active JP7149707B2 (en) 2018-01-15 2018-01-15 Information processing device, its control method and program, and operation control system

Country Status (3)

Country Link
US (1) US11393123B2 (en)
JP (1) JP7149707B2 (en)
WO (1) WO2019138677A1 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10816984B2 (en) * 2018-04-13 2020-10-27 Baidu Usa Llc Automatic data labelling for autonomous driving vehicles
US11900258B2 (en) * 2018-05-23 2024-02-13 Sony Interactive Entertainment Inc. Learning device, image generating device, learning method, image generating method, and program
EP3954968A4 (en) * 2019-04-09 2023-05-03 Pioneer Corporation Position estimating device, estimating device, control method, program, and storage medium
JP7249919B2 (en) * 2019-09-17 2023-03-31 株式会社東芝 Estimation device, estimation method and program
US11127164B2 (en) * 2019-10-04 2021-09-21 Mitsubishi Electric Research Laboratories, Inc. Image processing system and method for landmark location estimation with uncertainty
US20220326010A1 (en) * 2019-10-04 2022-10-13 Nec Corporation Surface property estimation system
JP7298562B2 (en) 2020-07-20 2023-06-27 トヨタ自動車株式会社 Vehicle peripheral detection device
JP7389729B2 (en) 2020-09-10 2023-11-30 株式会社日立製作所 Obstacle detection device, obstacle detection system and obstacle detection method
JP7127901B1 (en) 2021-05-24 2022-08-30 Necプラットフォームズ株式会社 Information processing terminal, control method, and program
CN113487684A (en) * 2021-07-23 2021-10-08 浙江华睿科技股份有限公司 Calibration parameter determination method and device, storage medium and electronic device
WO2023007559A1 (en) * 2021-07-26 2023-02-02 日本電信電話株式会社 Device, method, and program for generating point cloud data

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013142991A (en) 2012-01-10 2013-07-22 Nippon Telegr & Teleph Corp <Ntt> Object area detection device, method and program
JP2015203680A (en) 2014-04-16 2015-11-16 キヤノン株式会社 Information processing device, method, and program
WO2017213052A1 (en) 2016-06-08 2017-12-14 パナソニックIpマネジメント株式会社 Ranging system and ranging method

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3436074B2 (en) * 1997-06-10 2003-08-11 トヨタ自動車株式会社 Car stereo camera
JP4985166B2 (en) 2007-07-12 2012-07-25 トヨタ自動車株式会社 Self-position estimation device
DE102009049849B4 (en) 2009-10-19 2020-09-24 Apple Inc. Method for determining the pose of a camera, method for recognizing an object in a real environment and method for creating a data model
JP5496008B2 (en) * 2010-08-06 2014-05-21 キヤノン株式会社 Position / orientation measuring apparatus, position / orientation measuring method, and program
JP5440461B2 (en) 2010-09-13 2014-03-12 株式会社リコー Calibration apparatus, distance measurement system, calibration method, and calibration program
JP5644468B2 (en) * 2010-12-20 2014-12-24 株式会社ニコン IMAGING DEVICE AND IMAGING DEVICE CONTROL PROGRAM
US9254846B2 (en) 2013-05-03 2016-02-09 Google Inc. Predictive reasoning for controlling speed of a vehicle
JP6426753B2 (en) * 2014-11-28 2018-11-21 マクセル株式会社 Imaging system
JP2017027520A (en) * 2015-07-27 2017-02-02 キヤノン株式会社 Three-dimensional (3d) data generation device and method, program, and recording medium
JP6747044B2 (en) * 2016-05-11 2020-08-26 株式会社豊田中央研究所 Travel route generation device, model learning device, and program
US9940729B1 (en) * 2016-11-18 2018-04-10 Here Global B.V. Detection of invariant features for localization
US10957068B2 (en) * 2017-01-06 2021-03-23 Canon Kabushiki Kaisha Information processing apparatus and method of controlling the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013142991A (en) 2012-01-10 2013-07-22 Nippon Telegr & Teleph Corp <Ntt> Object area detection device, method and program
JP2015203680A (en) 2014-04-16 2015-11-16 キヤノン株式会社 Information processing device, method, and program
WO2017213052A1 (en) 2016-06-08 2017-12-14 パナソニックIpマネジメント株式会社 Ranging system and ranging method

Also Published As

Publication number Publication date
JP2019125112A (en) 2019-07-25
US11393123B2 (en) 2022-07-19
US20200334855A1 (en) 2020-10-22
WO2019138677A1 (en) 2019-07-18

Similar Documents

Publication Publication Date Title
JP7149707B2 (en) Information processing device, its control method and program, and operation control system
US11216673B2 (en) Direct vehicle detection as 3D bounding boxes using neural network image processing
JP6586532B2 (en) Deep machine learning method and apparatus for robot gripping
CN106780608B (en) Pose information estimation method and device and movable equipment
WO2019149061A1 (en) Gesture-and gaze-based visual data acquisition system
CN111683193B (en) Image processing apparatus
US9330472B2 (en) System and method for distorted camera image correction
EP2887315B1 (en) Camera calibration device, method for implementing calibration, program and camera for movable body
US20150314452A1 (en) Information processing apparatus, method therefor, measurement apparatus, and working apparatus
JP6840697B2 (en) Line-of-sight direction estimation device, line-of-sight direction estimation method, and line-of-sight direction estimation program
CN111091038A (en) Training method, computer readable medium, and method and apparatus for detecting vanishing points
CN113012219A (en) Information processing apparatus, information processing method, and computer readable medium
JP2019124539A (en) Information processing device, control method therefor, and program
CN114252071A (en) Self-propelled vehicle navigation device and method thereof
US11080562B1 (en) Key point recognition with uncertainty measurement
Morales et al. Image generation for efficient neural network training in autonomous drone racing
US20210397195A1 (en) Robot navigation using a high-level policy model and a trained low-level policy model
JP5762099B2 (en) Posture recognition apparatus, work robot, posture recognition method, program, and recording medium
US20200159229A1 (en) System and method for creating a single perspective synthesized image
US11559888B2 (en) Annotation device
US20240046659A1 (en) Method for detecting an environment by means of images from at least two image sensors
Crnokić et al. Fusion of infrared sensors and camera for mobile robot navigation system-simulation scenario
JP2004363988A (en) Method and apparatus for detecting vehicle
Guerra Design of a Mobile Robot’s Control System for Obstacle Identification and Avoidance using Sensor Fusion and Model Predictive Control
JP2022072863A (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201214

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201214

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220927

R151 Written notification of patent or utility model registration

Ref document number: 7149707

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151