JP2021182177A - Vehicle steering system and vehicle steering method - Google Patents

Vehicle steering system and vehicle steering method Download PDF

Info

Publication number
JP2021182177A
JP2021182177A JP2020086403A JP2020086403A JP2021182177A JP 2021182177 A JP2021182177 A JP 2021182177A JP 2020086403 A JP2020086403 A JP 2020086403A JP 2020086403 A JP2020086403 A JP 2020086403A JP 2021182177 A JP2021182177 A JP 2021182177A
Authority
JP
Japan
Prior art keywords
vehicle
information
dimensional information
dimensional
fusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020086403A
Other languages
Japanese (ja)
Other versions
JP6949417B1 (en
Inventor
昌義 山田
Masayoshi Yamada
嵩智 渡邉
Takatomo Watanabe
裕之 矢代
Hiroyuki Yashiro
忠弘 中島
Tadahiro Nakajima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Aerospace Co Ltd
Acquisition Technology and Logistics Agency ATLA
Original Assignee
IHI Aerospace Co Ltd
Acquisition Technology and Logistics Agency ATLA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Aerospace Co Ltd, Acquisition Technology and Logistics Agency ATLA filed Critical IHI Aerospace Co Ltd
Priority to JP2020086403A priority Critical patent/JP6949417B1/en
Application granted granted Critical
Publication of JP6949417B1 publication Critical patent/JP6949417B1/en
Publication of JP2021182177A publication Critical patent/JP2021182177A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)

Abstract

To provide a vehicle steering system and a vehicle steering method capable of obtaining highly accurate ambient environment information including dead angle information in a wide range even in a case of a long interval between a self vehicle and the other vehicle.SOLUTION: A vehicle steering system includes: a self vehicle 10A; and the other vehicle 10B which is bi-directionally communicable with the self vehicle. Each one of the self vehicle and the other vehicle includes: an environment measurement device 12 for acquiring ambient three-dimensional information 1A and 1B; a self position orientation device 13 for acquiring position posture information 2A and 2B; a calculation device 14; and an inter-vehicle communication device 18 for bi-directionally communicating three-dimensional information and position posture information. Besides, the calculation device 14 of the self vehicle 10A has an information fusion function of generating fusion three-dimensional information 4 by fusing three-dimensional information of the self vehicle with three-dimensional information of the other vehicle with the use of the three-dimensional information and the position posture information received from the other vehicle.SELECTED DRAWING: Figure 2

Description

本発明は、無人車両又は有人車両の車両操縦システムと車両操縦方法に関する。 The present invention relates to a vehicle maneuvering system and a vehicle maneuvering method for unmanned or manned vehicles.

火山の噴火や原子力発電所の事故等の被災地において、あるいは危険な場所において、物資輸送、土木作業、偵察作業等を行う車両として、無人車両を用いることがある。
また空港や航空基地等の広大な場所を警備のために監視を行う車両として、カメラ等の監視用センサを搭載した無人車両を用いることがある。
Unmanned vehicles may be used as vehicles for transporting goods, civil engineering work, reconnaissance work, etc. in disaster areas such as volcanic eruptions and accidents at nuclear power plants, or in dangerous places.
In addition, an unmanned vehicle equipped with a monitoring sensor such as a camera may be used as a vehicle for monitoring a vast place such as an airport or an air base for security.

無人車両は、安全な場所にいる遠隔操縦者からの指令により、走行や各種作業を行う。また、無人車両は遠隔操縦者が操縦を行いやすいよう、周囲の画像や3次元情報等の周囲環境情報を遠隔操縦者に送信することが一般に行われている。 The unmanned vehicle runs and performs various tasks according to the command from the remote control operator in a safe place. Further, in an unmanned vehicle, it is common practice to transmit ambient environment information such as surrounding images and three-dimensional information to the remote control so that the remote control can easily control the vehicle.

遠隔操縦者はこれらの情報を参考に遠隔操縦を行う。遠隔操縦には、アクセル、ブレーキ、ステアリング、シフト等(以下、「操縦機器」)や各種作業装置の駆動量等を操作する必要がある。遠隔操縦手段は、これらの操作量を直接送信して行う手段、車両が進むべき座標のみを示し車両側が障害物等に衝突しないように自律的に操縦機器の操作量を決定する手段、あるいはその中間的な手段、のいずれであってもよい。 The remote control operator refers to this information to perform remote control. For remote control, it is necessary to operate the accelerator, brake, steering, shift, etc. (hereinafter, "control equipment") and the driving amount of various work devices. The remote control means is a means for directly transmitting these operation amounts, a means for indicating only the coordinates where the vehicle should travel, and a means for autonomously determining the operation amount of the control device so that the vehicle side does not collide with an obstacle or the like. It may be any of the intermediate means.

この遠隔操縦の際、無人車両が走行や各種作業に際して障害物回避を行うために、車両周囲の環境認識情報(例えば環境認識地図)を取得し、どこにどのような障害物が存在するかを認識することが行なわれている。「障害物回避」とは、回避すべき障害物を認識し、その手前で安全に停止または迂回することを意味する。 During this remote control, in order for an unmanned vehicle to avoid obstacles when driving or performing various tasks, it acquires environmental recognition information around the vehicle (for example, an environmental recognition map) and recognizes where and what kind of obstacles exist. Is being done. "Obstacle avoidance" means recognizing an obstacle to be avoided and safely stopping or circumventing it in front of it.

上述した周囲環境情報及び環境認識情報を取得する手段として、例えば特許文献1が開示されている。
特許文献1は、移動体にレーザレーダやカメラを備え、移動しながら得たカメラデータ、レーザデータ、位置姿勢からなるINSデータ、GPS時刻を用いて3次元画像を生成する。
For example, Patent Document 1 is disclosed as a means for acquiring the above-mentioned surrounding environment information and environment recognition information.
Patent Document 1 provides a moving body with a laser radar and a camera, and generates a three-dimensional image using camera data obtained while moving, laser data, INS data consisting of position and orientation, and GPS time.

また、隣接した複数台が互いに干渉せずに遠隔操作で駆動することができる作業用車両が、特許文献2に開示されている。 Further, Patent Document 2 discloses a work vehicle in which a plurality of adjacent vehicles can be driven by remote control without interfering with each other.

特許文献2では、各作業用車両が、独立して移動可能であり、他車両の方向の障害物を検出しその障害物情報を出力する障害物認識センサと、他車両と通信可能な相互通信装置と、自車両と他車両との干渉を防止する干渉防止装置と、を備える。他車両と自車両とが干渉する可能性がある場合には駆動アームの駆動を停止または減速する旨の抑制指令を自車両へ出力し、他車両への警報もしくは抑制指令を相互通信装置へ出力する。 In Patent Document 2, each work vehicle can move independently, and an obstacle recognition sensor that detects an obstacle in the direction of another vehicle and outputs the obstacle information, and mutual communication capable of communicating with the other vehicle. The device is provided with an interference prevention device for preventing interference between the own vehicle and another vehicle. When there is a possibility that the other vehicle interferes with the own vehicle, a suppression command to stop or decelerate the drive of the drive arm is output to the own vehicle, and an alarm or suppression command to the other vehicle is output to the mutual communication device. do.

特許第4486737号公報Japanese Patent No. 4486737 特開2016−45674号公報Japanese Unexamined Patent Publication No. 2016-45674

建機等の無人車両の遠隔操縦による作業や走行において、無人車両の周囲環境の3次元情報を取得し、遠隔操縦者に提供することにより、円滑な遠隔操縦を実現することが要望されている。 It is required to realize smooth remote control by acquiring 3D information of the surrounding environment of the unmanned vehicle and providing it to the remote controller in the work and running by remote control of unmanned vehicles such as construction machinery. ..

この要望を満たすため、特許文献1の技術により、単独の車両において、レーザレーダやカメラを用いて、複数の位置により計測した結果を合成し、周囲環境情報を生成することが可能である。
しかし、特許文献1の手段では、移動しながら得たデータを用いて周囲環境情報を生成するため、周囲環境情報の生成に時間がかかる。また、遠隔操縦する無人車両(自車両)で得たデータのみに基づくため、自車両の死角部分の情報を把握することができない。
In order to satisfy this demand, it is possible to generate ambient environment information by synthesizing the results measured at a plurality of positions by using a laser radar or a camera in a single vehicle by the technique of Patent Document 1.
However, in the means of Patent Document 1, since the ambient environment information is generated using the data obtained while moving, it takes time to generate the ambient environment information. Further, since it is based only on the data obtained by the remote-controlled unmanned vehicle (own vehicle), it is not possible to grasp the information of the blind spot portion of the own vehicle.

一方、特許文献2の手段では、他車両の方向の障害物を検出しその障害物情報を他車両と通信するので、自車両と他車両との干渉を防止することができる。
また特許文献2の手段では、自車両と他車両の障害物情報を重ね合わせた複合障害物情報が操縦装置へ送信されるため、自車両の死角部分の障害物情報を、自車両の遠隔操縦者が把握することができる。
On the other hand, in the means of Patent Document 2, since the obstacle in the direction of the other vehicle is detected and the obstacle information is communicated with the other vehicle, it is possible to prevent the own vehicle and the other vehicle from interfering with each other.
Further, in the means of Patent Document 2, since the complex obstacle information obtained by superimposing the obstacle information of the own vehicle and the other vehicle is transmitted to the control device, the obstacle information of the blind spot portion of the own vehicle can be remotely controlled by the own vehicle. Can be grasped by a person.

しかし、特許文献2の手段では、自車両と他車両が近接していることが前提となるため、自車両と他車両の間隔が大きい場合に、精度の高い死角情報が得られない。 However, in the means of Patent Document 2, since it is premised that the own vehicle and the other vehicle are close to each other, highly accurate blind spot information cannot be obtained when the distance between the own vehicle and the other vehicle is large.

本発明は上述した問題点を解決するために創案されたものである。すなわち本発明の目的は、自車両と他車両の間隔が大きい場合でも、死角情報を含む広範囲かつ高精度の周囲環境情報を得ることができる車両操縦システムと車両操縦方法を提供することにある。 The present invention has been devised to solve the above-mentioned problems. That is, an object of the present invention is to provide a vehicle maneuvering system and a vehicle maneuvering method capable of obtaining a wide range and highly accurate surrounding environment information including blind spot information even when the distance between the own vehicle and another vehicle is large.

本発明によれば、自車両と、前記自車両と双方向に通信可能な他車両と、を備え、
前記自車両と前記他車両はそれぞれ、周囲の3次元情報を取得する環境計測装置と、位置姿勢情報を取得する自己位置標定装置と、環境認識地図を生成する演算装置と、前記3次元情報及び前記位置姿勢情報を双方向に通信する車々間通信装置と、を有し、
前記自車両の前記演算装置はさらに、前記他車両から受信した前記3次元情報及び前記位置姿勢情報を用いて、前記自車両の前記3次元情報と前記他車両の前記3次元情報を融合して融合3次元情報を生成する情報融合機能を有する、車両操縦システムが提供される。
According to the present invention, the own vehicle and another vehicle capable of bidirectionally communicating with the own vehicle are provided.
The own vehicle and the other vehicle have an environment measurement device that acquires three-dimensional information of the surroundings, a self-positioning device that acquires position / orientation information, an arithmetic device that generates an environment recognition map, and the three-dimensional information and the above-mentioned three-dimensional information. It has an inter-vehicle communication device that bidirectionally communicates the position / attitude information.
The arithmetic unit of the own vehicle further fuses the three-dimensional information of the own vehicle and the three-dimensional information of the other vehicle by using the three-dimensional information and the position / attitude information received from the other vehicle. A vehicle maneuvering system having an information fusion function for generating fusion three-dimensional information is provided.

また本発明によれば、自車両と、前記自車両と双方向に通信可能な他車両と、を準備し、
前記自車両と前記他車両はそれぞれ、周囲の3次元情報と位置姿勢情報を取得し、かつ前記3次元情報及び前記位置姿勢情報を双方向に通信し、
さらに、前記他車両から受信した前記3次元情報及び前記位置姿勢情報を用いて、前記自車両の前記3次元情報と前記他車両の前記3次元情報を融合して融合3次元情報を生成する、車両操縦方法が提供される。
Further, according to the present invention, the own vehicle and another vehicle capable of bidirectional communication with the own vehicle are prepared.
The own vehicle and the other vehicle acquire surrounding three-dimensional information and position / attitude information, respectively, and communicate the three-dimensional information and the position / attitude information in both directions.
Further, using the three-dimensional information and the position / attitude information received from the other vehicle, the three-dimensional information of the own vehicle and the three-dimensional information of the other vehicle are fused to generate fusion three-dimensional information. A vehicle maneuvering method is provided.

本発明によれば、演算装置が、他車両から受信した3次元情報及び位置姿勢情報と自車両の3次元情報及び位置姿勢情報を用いて、自車両の3次元情報と他車両の3次元情報を融合して融合3次元情報を生成する。
この融合3次元情報は、複数の3次元情報の共通の点群情報が一致し、かつ共通しないそれぞれの点群情報を含んでいる。
従って、自車両と他車両の間隔が大きい場合でも、自車両からみた他車両の相対位置姿勢の誤差を補正し、死角情報を含む広範囲かつ高精度の周囲環境情報を得ることができる。
According to the present invention, the arithmetic unit uses the three-dimensional information and the position / attitude information received from the other vehicle, the three-dimensional information of the own vehicle, and the position / attitude information, and the three-dimensional information of the own vehicle and the three-dimensional information of the other vehicle. To generate fusion 3D information.
This fused three-dimensional information includes point cloud information in which common point cloud information of a plurality of three-dimensional information matches and does not common.
Therefore, even when the distance between the own vehicle and the other vehicle is large, it is possible to correct the error of the relative position / posture of the other vehicle as seen from the own vehicle and obtain a wide range and highly accurate surrounding environment information including blind spot information.

また、複数車両からの情報を高精度かつリアルタイムで融合できることで、車両の操縦者が死角情報を含む広範囲かつ高精度の周囲環境情報を把握でき、効率的な車両の操縦を行うことが可能となる。 In addition, by being able to combine information from multiple vehicles with high accuracy and in real time, the vehicle operator can grasp a wide range of highly accurate surrounding environment information including blind spot information, and it is possible to operate the vehicle efficiently. Become.

本発明による車両操縦システムの全体構成図である。It is an overall block diagram of the vehicle maneuvering system by this invention. 車両操縦システムの機能ブロック図である。It is a functional block diagram of a vehicle control system. 情報融合による死角の低減の概念図である。It is a conceptual diagram of reduction of blind spot by information fusion. 自車両と他車両による周囲の3次元情報を模式的に示す図である。It is a figure which shows typically the three-dimensional information of the surroundings by own vehicle and other vehicle. 自車両と他車両の車々間通信による情報提供を模式的に示す図である。It is a figure which shows typically the information provision by the vehicle-to-vehicle communication of own vehicle and other vehicle. スキャンマッチングによる補正を模式的に示す図である。It is a figure which shows the correction by scan matching schematically. 遠隔操縦装置の表示装置による表示内容を示す模式図である。It is a schematic diagram which shows the display content by the display device of a remote control device. 複数の他車両がある場合の図3と同様の概念図である。It is a conceptual diagram similar to FIG. 3 when there are a plurality of other vehicles. 自車両における情報融合処理の全体フロー図である。It is an overall flow chart of information fusion processing in own vehicle. 自車両における周囲環境3D画像生成処理の全体フロー図である。It is an overall flow chart of the surrounding environment 3D image generation processing in own vehicle. 他車両における情報提供処理の全体フロー図である。It is an overall flow chart of information provision processing in another vehicle. 平坦・凹凸エリアの調整方法を示す模式図である。It is a schematic diagram which shows the adjustment method of a flat / uneven area. 共通計測エリア算出の説明図である。It is explanatory drawing of common measurement area calculation. フィルタリングの説明図である。It is explanatory drawing of filtering.

以下、本発明の好ましい実施形態を添付図面に基づいて詳細に説明する。なお、各図において共通する部分には同一の符号を付し、重複した説明を省略する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In addition, the same reference numerals are given to the common parts in each figure, and duplicate description is omitted.

図1は、本発明による車両操縦システム100の全体構成図である。
この図において、車両操縦システム100は、自車両10Aと、自車両10Aと双方向に通信可能な他車両10Bと、を備える。
自車両10Aは、有人車両であって、車両内の表示装置に本発明に基づく周囲環境3D画像6(後述する)を表示して運転手が操作するものであってもよい。
この例において、自車両10Aは、遠隔操縦可能な無人車両であり、車両操縦システム100は、さらに無人車両を遠隔操縦する遠隔操縦装置20を備える。
以下、自車両10Aを情報融合側とも呼ぶ。また、他車両10Bを情報提供側とも呼ぶ。
FIG. 1 is an overall configuration diagram of a vehicle control system 100 according to the present invention.
In this figure, the vehicle maneuvering system 100 includes the own vehicle 10A and another vehicle 10B capable of bidirectional communication with the own vehicle 10A.
The own vehicle 10A may be a manned vehicle and may be operated by the driver by displaying the surrounding environment 3D image 6 (described later) based on the present invention on the display device in the vehicle.
In this example, the own vehicle 10A is an unmanned vehicle that can be remotely controlled, and the vehicle control system 100 further includes a remote control device 20 that remotely controls the unmanned vehicle.
Hereinafter, the own vehicle 10A is also referred to as an information fusion side. Further, the other vehicle 10B is also referred to as an information providing side.

図1において、自車両10Aは、車体11、環境計測装置12、自己位置標定装置13、演算装置14、ドライブバイワイヤ装置15、遠隔通信装置16、及び車々間通信装置18を有する。 In FIG. 1, the own vehicle 10A includes a vehicle body 11, an environment measuring device 12, a self-positioning device 13, an arithmetic device 14, a drive-by-wire device 15, a remote communication device 16, and an inter-vehicle communication device 18.

車体11は、車両として基本的な走行機能を有する。装輪タイプ又は装軌(無限軌道)タイプ、またはそのハイブリッドタイプなどがある。 The vehicle body 11 has a basic traveling function as a vehicle. There are wheeled type or tracked (tracked) type, or a hybrid type thereof.

図2は、車両操縦システム100の機能ブロック図である。 FIG. 2 is a functional block diagram of the vehicle control system 100.

図1と図2において、自車両10Aの環境計測装置12は、車体11に取付けられたカメラ、レーザレンジファインダ(LRF)、レーダ等である。
自車両10Aの環境計測装置12は、自車両10Aの周囲の3次元情報1Aを取得する。他車両10Bの環境計測装置12も、同様に他車両10Bの周囲の3次元情報1Bを取得する。
以下、3次元情報1Aが点群情報である場合を説明する。
In FIGS. 1 and 2, the environment measuring device 12 of the own vehicle 10A is a camera, a laser range finder (LRF), a radar, and the like attached to the vehicle body 11.
The environment measuring device 12 of the own vehicle 10A acquires the three-dimensional information 1A around the own vehicle 10A. The environment measuring device 12 of the other vehicle 10B also acquires the three-dimensional information 1B around the other vehicle 10B in the same manner.
Hereinafter, the case where the three-dimensional information 1A is the point cloud information will be described.

また、自車両10Aの自己位置標定装置13は、自車両10Aの絶対座標、速度、姿勢、及び加速度情報を取得するための全地球測位システム(GNSS)や慣性計測装置(IMU)、などのセンサを含み、自車両の位置と姿勢の情報(以下、「位置姿勢情報2A」)を決定する。 Further, the self-positioning device 13 of the own vehicle 10A is a sensor such as a global positioning system (GNSS) or an inertial measurement unit (IMU) for acquiring absolute coordinates, velocity, attitude, and acceleration information of the own vehicle 10A. To determine the position and attitude information of the own vehicle (hereinafter, "position / attitude information 2A") including.

また他車両10Bの自己位置標定装置13も、同様に、他車両の位置と姿勢の情報(以下、「位置姿勢情報2B」)を決定する。 Further, the self-positioning device 13 of the other vehicle 10B also determines the position and posture information of the other vehicle (hereinafter, “position / posture information 2B”) in the same manner.

演算装置14は、コンピュータ等により構成される。
自車両10Aの演算装置14は、環境計測装置12にて計測された3次元情報1Aから、自車両10Aの周囲の障害物情報や、自車両10Aが通過できる場所や、自車両10Aが通過できる速度を求め、これらを環境認識地図として生成する。
The arithmetic unit 14 is composed of a computer or the like.
The arithmetic unit 14 of the own vehicle 10A can pass the obstacle information around the own vehicle 10A, the place where the own vehicle 10A can pass, and the own vehicle 10A from the three-dimensional information 1A measured by the environmental measurement device 12. Find the speed and generate these as an environment recognition map.

以下、環境認識地図と環境認識情報は、自車両10Aの自律走行機能に必要な地図と情報を意味する。環境認識地図は、自車両自体が生成する。
また、後述する周囲環境情報、及び周囲環境3D画像6は、遠隔操縦者に提示する情報、地図、及び3D画像(3次元画像)を意味する。遠隔操縦者は、これらの情報(操縦支援情報)を用いて自車両10Aを遠隔操縦する。
Hereinafter, the environment recognition map and the environment recognition information mean the map and information necessary for the autonomous traveling function of the own vehicle 10A. The environment recognition map is generated by the own vehicle itself.
Further, the surrounding environment information and the surrounding environment 3D image 6 described later mean information, a map, and a 3D image (three-dimensional image) presented to the remote operator. The remote control operator remotely controls the own vehicle 10A using these information (control support information).

また演算装置14は、遠隔操縦装置20からのアクセル、ブレーキへの指令(又は速度指令)、ステアリング指令(又は方向指令)、または走行すべき座標指令等に基づき、自ら生成した環境認識地図において障害物等に衝突しないような経路を計画する。 Further, the arithmetic unit 14 has an obstacle in the environment recognition map generated by itself based on the accelerator, the brake command (or speed command), the steering command (or direction command), the coordinate command to be traveled, etc. from the remote control device 20. Plan a route that does not collide with objects.

また演算装置14は、計画した経路に基づいて各アクチュエータの制御量を算出しドライブバイワイヤ装置15に対して制御指令として出力する。 Further, the arithmetic unit 14 calculates the control amount of each actuator based on the planned path and outputs it as a control command to the drive-by-wire device 15.

また、自車両10Aの演算装置14は、他車両10Bから得た他車両10Bの3次元情報1Bを用いて、自らの3次元情報1Aとの融合を行う情報融合機能を有する。 Further, the arithmetic unit 14 of the own vehicle 10A has an information fusion function of fusing the three-dimensional information 1B of the other vehicle 10B obtained from the other vehicle 10B with its own three-dimensional information 1A.

なお、以下「融合」とは、複数の3次元情報1A,1Bの共通の点群情報を一致させ、かつこれに共通しないそれぞれの点群情報を含めて全体として1つの3次元情報(「融合3次元情報4」と呼ぶ)を作成することを意味する。このため後述するICP等のスキャンマッチング手法を用いる。
演算装置14による情報融合機能は、実質的にリアルタイムで実施することが好ましい。
なお、融合3次元情報4を生成する演算装置14と、環境認識地図を生成する演算装置14は別の装置であってもよい。
In addition, hereinafter, "fusion" means one three-dimensional information as a whole including common point group information of a plurality of three-dimensional information 1A and 1B and not common to each point group information ("fusion". It means to create (called 3D information 4). Therefore, a scan matching method such as ICP, which will be described later, is used.
It is preferable that the information fusion function by the arithmetic unit 14 is performed in substantially real time.
The arithmetic unit 14 that generates the fusion three-dimensional information 4 and the arithmetic unit 14 that generates the environment recognition map may be different devices.

自車両10Aのドライブバイワイヤ装置15は、車体11を無人で走行させるため、アクセル、ブレーキ、ステアリング、シフト等(「操縦機器」)に取付けられたアクチュエータ等である。ドライブバイワイヤ装置15は、演算装置14から受けた制御指令に従い、操縦機器を所定量動作させ、又は所定の位置に設定する機能を有する。
なお車両によっては、操縦機器そのものが制御指令を入力して所定量動作が可能な場合がある。この場合はアクチュエータは不要である。
The drive-by-wire device 15 of the own vehicle 10A is an actuator or the like attached to an accelerator, a brake, a steering, a shift, or the like (“control device”) in order to allow the vehicle body 11 to travel unmanned. The drive-by-wire device 15 has a function of operating a control device by a predetermined amount or setting a predetermined position according to a control command received from the arithmetic unit 14.
Depending on the vehicle, the control device itself may input a control command to perform a predetermined amount of operation. In this case, no actuator is required.

自車両10Aの遠隔通信装置16は、遠隔操縦装置20と通信を行うための通信機及びアンテナより構成される。
また遠隔通信装置16は、直接、遠隔操縦装置20と通信を行う場合だけでなく、遠隔操縦装置20との通信のための中継用通信機を搭載した、他の自車両10A、他車両10B、有人車両もしくは単なる中継器との間で通信を行うことにも用いられる。
The remote communication device 16 of the own vehicle 10A is composed of a communication device and an antenna for communicating with the remote control device 20.
Further, the remote communication device 16 is not only for direct communication with the remote control device 20, but also for another own vehicle 10A, another vehicle 10B, equipped with a relay communication device for communication with the remote control device 20. It is also used to communicate with manned vehicles or just repeaters.

自車両10Aと遠隔操縦装置20との通信距離は遠距離(例えば1km以上)であり、一般的に低通信容量となる。そのため、自車両10Aから遠隔操縦装置20への通信情報は、複数の車両からの3次元情報ではなく、単一の自車両10Aで融合した融合3次元情報4を2次元画像化した周囲環境3D画像6としており、通信負荷を低減することで低通信容量でも通信可能としている。 The communication distance between the own vehicle 10A and the remote control device 20 is a long distance (for example, 1 km or more), and generally has a low communication capacity. Therefore, the communication information from the own vehicle 10A to the remote control device 20 is not the three-dimensional information from a plurality of vehicles, but the surrounding environment 3D which is a two-dimensional image of the fused three-dimensional information 4 fused by the single own vehicle 10A. Image 6 shows that communication is possible even with a low communication capacity by reducing the communication load.

車々間通信装置18は、通信機及びアンテナにより構成される。車々間通信装置18は、複数の車両による3次元情報の融合を行うために、他車両10B(情報提供側)で取得した3次元情報1Bおよび位置姿勢情報2Bを、自車両10A(情報融合側)に提供するために用いる。他車両10Bは、1台に限定されず、2台以上でもよい。 The inter-vehicle communication device 18 is composed of a communication device and an antenna. The vehicle-to-vehicle communication device 18 uses the own vehicle 10A (information fusion side) to combine the three-dimensional information 1B and the position / attitude information 2B acquired by the other vehicle 10B (information providing side) in order to fuse the three-dimensional information by a plurality of vehicles. Used to provide to. The other vehicle 10B is not limited to one, and may be two or more.

自車両10Aと他車両10Bとの通信距離は短距離(例えば50〜100m)であり、通信容量の低下は実質的に発生しない。そのため、自車両10Aは、他車両10Bの3次元情報1Bと位置姿勢情報2Bを実質的にリアルタイムに受信でき、融合した融合3次元情報4の精度を高めることができる。 The communication distance between the own vehicle 10A and the other vehicle 10B is a short distance (for example, 50 to 100 m), and a decrease in communication capacity does not substantially occur. Therefore, the own vehicle 10A can receive the three-dimensional information 1B and the position / attitude information 2B of the other vehicle 10B in substantially real time, and can improve the accuracy of the fused three-dimensional information 4.

なお、遠隔通信装置16の通信容量と通信速度に余裕がある場合には、遠隔通信装置16が車々間通信装置18を兼ねてもよい。また、融合3次元情報4を画像化した周囲環境3D画像6ではなく、融合3次元情報4を遠隔操縦装置20に送信しても良い。 If the communication capacity and communication speed of the remote communication device 16 are sufficient, the remote communication device 16 may also serve as the inter-vehicle communication device 18. Further, the fusion 3D information 4 may be transmitted to the remote control device 20 instead of the surrounding environment 3D image 6 in which the fusion 3D information 4 is imaged.

図2において、自車両10Aと他車両10Bは、それぞれ環境計測装置12と車々間通信装置18を有する。 In FIG. 2, the own vehicle 10A and the other vehicle 10B each have an environment measuring device 12 and an inter-vehicle communication device 18.

自車両10Aはさらに、上述した演算装置14を有する。演算装置14は、他車両10Bから受信した3次元情報1B及び位置姿勢情報2Bを用いて自車両の3次元情報1Aと他車両の3次元情報1Bを融合して融合3次元情報4を生成する情報融合機能を有する。
融合3次元情報4には、死角情報を含む広範囲かつ高精度の周囲環境情報が含まれる。
The own vehicle 10A further has the above-mentioned arithmetic unit 14. The arithmetic unit 14 uses the three-dimensional information 1B and the position / attitude information 2B received from the other vehicle 10B to fuse the three-dimensional information 1A of the own vehicle and the three-dimensional information 1B of the other vehicle to generate the fused three-dimensional information 4. It has an information fusion function.
The fusion three-dimensional information 4 includes a wide range of highly accurate ambient environment information including blind spot information.

情報融合機能は、相対位置・姿勢補正機能Aと融合情報生成機能Bとを有する。
相対位置・姿勢補正機能Aは、自車両10Aと他車両10Bの3次元情報1A,1Bと位置姿勢情報2A,2Bを用いてスキャンマッチングにより他車両10Bの相対位置と相対姿勢を補正する。
融合情報生成機能Bは、補正後の他車両10Bの相対位置と相対姿勢に基づき、他車両10Bの3次元情報1Bを自車両の3次元情報1Aと融合して融合3次元情報4を生成する。
The information fusion function has a relative position / posture correction function A and a fusion information generation function B.
The relative position / posture correction function A corrects the relative position and relative posture of the other vehicle 10B by scan matching using the three-dimensional information 1A, 1B and the position / posture information 2A, 2B of the own vehicle 10A and the other vehicle 10B.
The fusion information generation function B generates the fusion 3D information 4 by fusing the 3D information 1B of the other vehicle 10B with the 3D information 1A of the own vehicle based on the corrected relative position and relative posture of the other vehicle 10B. ..

図2において、自車両10Aの演算装置14はさらに、融合3次元情報4から任意の視点・注視点における周囲環境3D画像6を作成する周囲環境3D画像生成機能Cを有する。
遠隔通信装置16は、周囲環境3D画像6を遠隔操縦装置20に送信する。
In FIG. 2, the arithmetic unit 14 of the own vehicle 10A further has an ambient environment 3D image generation function C that creates an ambient environment 3D image 6 at an arbitrary viewpoint / gazing point from the fusion 3D information 4.
The remote communication device 16 transmits the surrounding environment 3D image 6 to the remote control device 20.

他車両10Bは、自車両10Aと同一の構成であってもよい。この場合、他車両10Bの遠隔操縦は、他の遠隔操縦装置によって行われる。また他車両10Bは情報提供側であると同時に、自らの遠隔操縦のために情報融合側となってもよい。
他車両10Bは、上述した環境計測装置12と車々間通信装置18を有する限りで、無人車両に限定されず、有人車両であってもよい。
また、他車両10Bは1台に限定されず、2台以上でもよい。
The other vehicle 10B may have the same configuration as the own vehicle 10A. In this case, the remote control of the other vehicle 10B is performed by another remote control device. Further, the other vehicle 10B may be the information providing side and at the same time the information fusion side for its own remote control.
The other vehicle 10B is not limited to an unmanned vehicle and may be a manned vehicle as long as it has the above-mentioned environment measuring device 12 and the inter-vehicle communication device 18.
Further, the other vehicle 10B is not limited to one, and may be two or more.

図2において、遠隔操縦装置20は、自車両10Aと双方向に通信する遠隔通信装置22を有する。 In FIG. 2, the remote control device 20 has a remote communication device 22 that communicates bidirectionally with the own vehicle 10A.

遠隔操縦装置20は、自車両10Aと無線通信を行い、遠隔操縦装置20を操作する遠隔操縦者から、自車両10Aに対して走行指示や作業指示等の操縦指令を与え、また自車両10Aより得た情報を遠隔操縦者に対して提示または記録する装置である。 The remote control device 20 wirelessly communicates with the own vehicle 10A, and the remote control operator who operates the remote control device 20 gives a control command such as a running instruction or a work instruction to the own vehicle 10A, and also from the own vehicle 10A. It is a device that presents or records the obtained information to the remote control operator.

遠隔操縦装置20には、固定された場所から遠隔の自車両10Aを操縦するための据置型や、遠隔操縦者が自車両10Aと共に移動しながら、あるいは自車両10Aから離れた場所で移動しながら操縦するための装着・携帯型などの形態がある。 The remote control device 20 may be a stationary type for maneuvering the own vehicle 10A remotely from a fixed place, or while the remote controller moves with the own vehicle 10A or moves at a place away from the own vehicle 10A. There are forms such as wearing and portable type for maneuvering.

遠隔操縦装置20は、遠隔通信装置22、制御装置24、指令入力装置26、及び表示装置28を有する。
遠隔通信装置22は、アンテナ及び通信機により構成され、自車両10Aと双方向に通信する。制御装置24は、情報処理を行うコンピュータ等により構成される。指令入力装置26は、自車両10Aに対する操縦機器に指示や速度、その他の設定コマンドなどの操縦指令を入力する。表示装置28は、自車両10Aから送られる情報(周囲環境3D画像6など)を表示するディスプレイ等である。
The remote control device 20 includes a remote communication device 22, a control device 24, a command input device 26, and a display device 28.
The remote communication device 22 is composed of an antenna and a communication device, and communicates bidirectionally with the own vehicle 10A. The control device 24 is composed of a computer or the like that performs information processing. The command input device 26 inputs a control command such as an instruction, a speed, and other setting commands to the control device for the own vehicle 10A. The display device 28 is a display or the like that displays information (surrounding environment 3D image 6, etc.) sent from the own vehicle 10A.

遠隔操縦装置20と自車両10Aとの双方向の通信は、実質的にリアルタイムで実施することが好ましい。しかし、自車両10Aが自律走行中の場合には、必要時のみに通信してもよい。 It is preferable that the bidirectional communication between the remote control device 20 and the own vehicle 10A is performed in substantially real time. However, when the own vehicle 10A is autonomously traveling, communication may be performed only when necessary.

据置型の遠隔操縦装置20では、指令入力装置26は、車体11と同様な操縦機器を有するものがある。またタッチパネル式ディスプレイのように、指令入力装置と表示装置を兼ねる装置もある。 In the stationary remote control device 20, the command input device 26 may have a control device similar to that of the vehicle body 11. There is also a device that doubles as a command input device and a display device, such as a touch panel display.

図3は、本発明の情報融合による死角の低減の概念図である。この図において、(A)は従来例、(B)は本発明を示している。
本発明の車両操縦方法では、上述した自車両10A、遠隔操縦装置20、及び他車両10Bを準備し、他車両10Bから受信した3次元情報1B及び位置姿勢情報2Bと自車両の3次元情報1A及び位置姿勢情報2Aを用いて融合3次元情報4を生成する。
FIG. 3 is a conceptual diagram of reducing blind spots by information fusion of the present invention. In this figure, (A) shows a conventional example, and (B) shows the present invention.
In the vehicle maneuvering method of the present invention, the own vehicle 10A, the remote control device 20, and the other vehicle 10B described above are prepared, and the three-dimensional information 1B and the position / attitude information 2B received from the other vehicle 10B and the three-dimensional information 1A of the own vehicle are prepared. And the position / orientation information 2A is used to generate the fusion three-dimensional information 4.

図3(A)に示すように、遠隔操縦する自車両10A(自車両)で得たデータのみに基づく場合、障害物の背後等に発生する自車両10Aから見た死角部分の情報を把握することができない。
本発明では、自車両10Aから見た死角情報を得るため、図3(B)に示すように、他車両10Bにて周囲環境の3次元情報1B及び位置姿勢情報2Bを取得し、これらの取得情報を用いて、自車両の3次元情報1Aと他車両10Bの3次元情報1Bを融合する。融合された情報は、遠隔操縦者にリアルタイムに提供される。これにより、死角の少ない良好な周囲環境情報(例えば周囲環境3D画像6)を提供することができる。
As shown in FIG. 3A, when based only on the data obtained by the remotely controlled own vehicle 10A (own vehicle), the information of the blind spot portion seen from the own vehicle 10A generated behind an obstacle or the like is grasped. Can't.
In the present invention, in order to obtain the blind spot information seen from the own vehicle 10A, as shown in FIG. 3B, the other vehicle 10B acquires the three-dimensional information 1B and the position / attitude information 2B of the surrounding environment, and these acquisitions. Using the information, the three-dimensional information 1A of the own vehicle and the three-dimensional information 1B of the other vehicle 10B are fused. The fused information is provided to the remote controller in real time. Thereby, it is possible to provide good ambient environment information (for example, ambient environment 3D image 6) with few blind spots.

複数車両による情報融合を行うためには車両間の相対位置と相対姿勢を取得することが必要であるが、その方法としてGPS/INSのみを用いる方法では誤差が大きいことがある。そこで、本発明では、周囲環境の3次元の点群情報そのものを用いてICP(Iterative Closest Point)アルゴリズム等のスキャンマッチングによって補正を行うことにより、より精度の高い相対位置・姿勢を得る。 In order to perform information fusion by a plurality of vehicles, it is necessary to acquire the relative position and the relative posture between the vehicles, but the method using only GPS / INS as the method may have a large error. Therefore, in the present invention, a more accurate relative position / orientation can be obtained by performing correction by scan matching such as an ICP (Iterative Closest Point) algorithm using the three-dimensional point cloud information itself of the surrounding environment.

図4〜図6は、スキャンマッチングの説明図である。 4 to 6 are explanatory views of scan matching.

図4は、自車両10Aと他車両10Bによる周囲の3次元情報1A,1Bを模式的に示す図である。
図4(A)において、自車両10Aで取得する3次元情報1Aを黒丸(●)で示す。建物、瓦礫等の構造物5により、自車両10Aで取得できる3次元情報1Aは、構造物5の前面及び側面に限られ、背面側は自車両10Aの死角部分となる。
図4(B)において、他車両10Bで取得する3次元情報1Bを白丸(○)で示す。建物、瓦礫等の構造物5により、他車両10Bで取得できる3次元情報1Bは、構造物5の背面及び側面に限られ、前面側は他車両10Bの死角部分となる。
FIG. 4 is a diagram schematically showing the surrounding three-dimensional information 1A and 1B by the own vehicle 10A and the other vehicle 10B.
In FIG. 4A, the three-dimensional information 1A acquired by the own vehicle 10A is indicated by a black circle (●). The three-dimensional information 1A that can be acquired by the own vehicle 10A by the structure 5 such as a building and rubble is limited to the front surface and the side surface of the structure 5, and the back side is a blind spot portion of the own vehicle 10A.
In FIG. 4B, the three-dimensional information 1B acquired by the other vehicle 10B is indicated by a white circle (◯). The three-dimensional information 1B that can be acquired by the other vehicle 10B by the structure 5 such as a building and rubble is limited to the back surface and the side surface of the structure 5, and the front side is the blind spot portion of the other vehicle 10B.

図5は、自車両10Aと他車両10Bの車々間通信による情報提供を模式的に示す図である。
図5(A)において、車々間通信により、他車両10B(情報提供側)の周囲の3次元情報1Bと位置姿勢情報2Bが自車両10A(情報融合側)に提供される。
図5(B)において、自車両10Aと他車両10BのそれぞれのGPS/INSより得られる位置姿勢情報には誤差があるため、その差分から求めた自車両10Aに対する他車両10Bの相対位置と相対姿勢にも、誤差がある。
したがって誤差のある相対位置と相対姿勢に基づいて融合した自車両10Aの3次元情報1Aと他車両10Bの3次元情報1Bに、「ずれ」が生じる。これは図5(B)で、構造物5の側面の黒丸と白丸が食い違うことを意味する。
FIG. 5 is a diagram schematically showing information provision by vehicle-to-vehicle communication between the own vehicle 10A and another vehicle 10B.
In FIG. 5A, the three-dimensional information 1B and the position / attitude information 2B around the other vehicle 10B (information providing side) are provided to the own vehicle 10A (information fusion side) by vehicle-to-vehicle communication.
In FIG. 5B, since there is an error in the position / attitude information obtained from the GPS / INS of the own vehicle 10A and the other vehicle 10B, it is relative to the relative position of the other vehicle 10B with respect to the own vehicle 10A obtained from the difference. There is also an error in the posture.
Therefore, a "deviation" occurs between the three-dimensional information 1A of the own vehicle 10A and the three-dimensional information 1B of the other vehicle 10B, which are fused based on the relative position and the relative posture with an error. This means that the black circles and the white circles on the side surface of the structure 5 are inconsistent with each other in FIG. 5 (B).

図6は、スキャンマッチングによる補正を模式的に示す図である。
この図において、自車両10Aの3次元情報1A(黒丸●)と他車両10Bの3次元情報1B(白丸○)とには、共通の点群情報が存在する。この共通の点群情報が一致するように、対応する点群情報に基づいてスキャンマッチングにより自車両に対する他車両10Bの相対位置と相対姿勢を補正する。
具体的にはICPアルゴリズムを用いた場合、両方の点群間の距離の二乗和が最小となるように繰り返し計算が行われ、最も一致した際の相対位置姿勢が得られる。
FIG. 6 is a diagram schematically showing correction by scan matching.
In this figure, the three-dimensional information 1A (black circle ●) of the own vehicle 10A and the three-dimensional information 1B (white circle ○) of the other vehicle 10B have common point cloud information. The relative position and the relative posture of the other vehicle 10B with respect to the own vehicle are corrected by scan matching based on the corresponding point cloud information so that the common point cloud information matches.
Specifically, when the ICP algorithm is used, the calculation is repeated so that the sum of squares of the distances between both point clouds is minimized, and the relative position and orientation at the time of the most match is obtained.

言い換えれば、自車両10Aによる情報(1A,2A)である黒丸と、他車両10Bによる情報(1B、2B)である白丸は、それぞれのGPS/INSに含まれる誤差により、図5(B)のように食い違う。そこで、図6のように、“共通するデータ”を一致する(スキャンマッチング)よう移動させることで黒丸と白丸のデータ全体を平行移動及び回転させる。その平行移動量及び回転量が、自車両10Aから見た他車両10Bの相対位置と相対姿勢の補正量に相当する。 In other words, the black circles that are the information (1A, 2A) by the own vehicle 10A and the white circles that are the information (1B, 2B) by the other vehicle 10B are shown in FIG. It's different. Therefore, as shown in FIG. 6, by moving the "common data" so as to match (scan matching), the entire black circle and white circle data are translated and rotated. The amount of translation and the amount of rotation correspond to the amount of correction of the relative position and the relative posture of the other vehicle 10B as seen from the own vehicle 10A.

上述したスキャンマッチングにより、自車両に対する他車両10Bの相対位置と相対姿勢を補正することができる。この補正された相対位置と相対姿勢に基づき2車両の3次元情報1A、1Bを融合することにより、自車両10Aにとって死角のない融合3次元情報4が作成される。 By the above-mentioned scan matching, the relative position and the relative posture of the other vehicle 10B with respect to the own vehicle can be corrected. By fusing the three-dimensional information 1A and 1B of the two vehicles based on the corrected relative position and the relative posture, the fused three-dimensional information 4 having no blind spot for the own vehicle 10A is created.

図7は、遠隔操縦装置20の表示装置28による表示内容を示す模式図である。
表示装置28は、自車両10Aから送られる周囲環境3D画像6を表示する。周囲環境3D画像6は融合3次元情報4内の指示された注視点に対し、指示された視点、指示された距離から眺めた様子を2次元画像として表現したものである。
FIG. 7 is a schematic diagram showing the display contents of the remote control device 20 by the display device 28.
The display device 28 displays the surrounding environment 3D image 6 sent from the own vehicle 10A. The surrounding environment 3D image 6 represents a state of viewing from the designated viewpoint and the designated distance with respect to the designated gazing point in the fusion 3D information 4 as a two-dimensional image.

図7(A)は、周囲環境3D画像6の一例の車両正面画像の例である。この図において、斜線部分は、起伏が激しい箇所(例えば草地やブッシュ)であり、中央の白い部分は、起伏が少なく、走行に適した箇所(例えば車路)である。車両正面画像は、仮想的に操縦者が自車両10Aに乗車し、指令入力装置26を介して自車両10Aの操縦機器を直接操作する場合に適している。
この表示を行う場合には、遠隔操縦者は注視点を自車両10Aの前方、視点及び距離を自車両10Aの内部となるように指示すればよい。
なお図7(A)の場合、レーザレンジファインダによる点群情報とカメラによる画像とを色合わせして、点群情報をカメラ画像のようにカラー表示することが好ましい。
FIG. 7A is an example of a vehicle front image of an example of the surrounding environment 3D image 6. In this figure, the shaded area is a place with severe undulations (for example, grassland or bush), and the white part in the center is a place with few undulations and suitable for traveling (for example, a lane). The vehicle front image is suitable when the operator virtually gets on the own vehicle 10A and directly operates the control device of the own vehicle 10A via the command input device 26.
When this display is performed, the remote controller may indicate the gaze point to be in front of the own vehicle 10A and the viewpoint and distance to be inside the own vehicle 10A.
In the case of FIG. 7A, it is preferable that the point cloud information obtained by the laser range finder and the image taken by the camera are color-matched and the point cloud information is displayed in color like a camera image.

図7(B)は、周囲環境3D画像6の別例である。この場合、自車両10A及び他車両10Bの車体11の一部又は全部を周囲環境3D画像6に表示することができる。
この表示を行う場合には、遠隔操縦者は視点を自車両10Aの前方、視点及び距離を注視点の上方となるように指示すればよい。
またこの表示例は、自律運転する自車両10Aに対し、車両が進むべき位置又は方向を示す場合や、走行エリアや作業エリア全体を俯瞰する場合に適している。
FIG. 7B is another example of the ambient environment 3D image 6. In this case, a part or all of the vehicle body 11 of the own vehicle 10A and the other vehicle 10B can be displayed in the surrounding environment 3D image 6.
When this display is performed, the remote controller may indicate the viewpoint to be in front of the own vehicle 10A and the viewpoint and distance to be above the gazing point.
Further, this display example is suitable for indicating a position or direction in which the vehicle should travel with respect to the self-driving vehicle 10A, or for a bird's-eye view of the traveling area or the entire work area.

なお、周囲環境3D画像6はこの例に限定されず、遠隔操作の目的に応じて、斜めから見た2次元画像等に自由に変更することができる。 The surrounding environment 3D image 6 is not limited to this example, and can be freely changed to a two-dimensional image or the like viewed from an angle according to the purpose of remote control.

図8は、複数の他車両10Bがある場合の図3と同様の概念図である。
この場合、他車両10Bは、自車両10Aと同一の構成であることが好ましい。
FIG. 8 is a conceptual diagram similar to FIG. 3 when there are a plurality of other vehicles 10B.
In this case, it is preferable that the other vehicle 10B has the same configuration as the own vehicle 10A.

自車両10Aは、自車両の車々間通信装置18により双方向に通信可能な他車両10Bを探索する。通信可能な範囲を破線の円で示す。自車両10Aは、探索された他車両10Bが複数の場合、その一部又は全部と通信して、上述した融合3次元情報4を生成する。
「一部又は全部」の選択は、予め自車両10Aに設定しても、遠隔操縦装置20から指令してもよい。
また、自車両10Aは、生成した融合3次元情報4を他車両10Bに送信する情報共有機能を有する。
The own vehicle 10A searches for another vehicle 10B capable of bidirectional communication by the inter-vehicle communication device 18 of the own vehicle. The communicable range is indicated by a broken line circle. When there are a plurality of other vehicles 10B searched for, the own vehicle 10A communicates with a part or all of them to generate the above-mentioned fusion three-dimensional information 4.
The selection of "part or all" may be set in advance in the own vehicle 10A, or may be commanded from the remote control device 20.
Further, the own vehicle 10A has an information sharing function of transmitting the generated fusion three-dimensional information 4 to the other vehicle 10B.

この構成により、自車両10Aと同一の構成の他車両10Bを介して、共有する融合3次元情報4の範囲を、自車両が直接交信できない範囲まで広げることができる。
また、複数の他車両10Bがそれぞれ情報融合機能を有するので、広範囲の融合3次元情報4を作成する場合でも、個々の自車両10Aの計算負荷を小さくできる。
With this configuration, the range of the fusion three-dimensional information 4 shared via the other vehicle 10B having the same configuration as the own vehicle 10A can be expanded to a range in which the own vehicle cannot directly communicate.
Further, since each of the plurality of other vehicles 10B has an information fusion function, the calculation load of each own vehicle 10A can be reduced even when a wide range of fusion three-dimensional information 4 is created.

上述した本発明の実施形態によれば、演算装置14が、他車両10Bから受信した3次元情報1B及び位置姿勢情報2Bを用いて、自車両の3次元情報1Aと他車両の3次元情報1Bを融合して融合3次元情報4を生成する。
この融合3次元情報4は、複数の3次元情報1A,1Bの共通の点群情報が一致し、かつ共通しないそれぞれの点群情報を含んでいる。
従って、自車両と他車両10Bの間隔が大きい場合でも、自車両10Aからみた他車両10Bの相対位置姿勢の誤差を補正し、死角情報を含む広範囲かつ高精度の周囲環境情報(周囲環境3D画像6)を得ることができる。
According to the above-described embodiment of the present invention, the arithmetic unit 14 uses the three-dimensional information 1B and the position / attitude information 2B received from the other vehicle 10B to obtain the three-dimensional information 1A of the own vehicle and the three-dimensional information 1B of the other vehicle. Is fused to generate fusion three-dimensional information 4.
The fused three-dimensional information 4 includes point cloud information in which common point cloud information of the plurality of three-dimensional information 1A and 1B is matched and is not common.
Therefore, even when the distance between the own vehicle and the other vehicle 10B is large, the error in the relative position and orientation of the other vehicle 10B as seen from the own vehicle 10A is corrected, and a wide range and highly accurate surrounding environment information (surrounding environment 3D image) including blind spot information is corrected. 6) can be obtained.

また、複数車両からの情報を高精度かつリアルタイムで融合できることで、車両の操縦者が死角情報を含む広範囲かつ高精度の周囲環境情報(周囲環境3D画像6)を把握でき、効率的な車両の操縦を行うことが可能となる。 In addition, by fusing information from multiple vehicles with high accuracy and in real time, the driver of the vehicle can grasp a wide range of highly accurate surrounding environment information (surrounding environment 3D image 6) including blind spot information, and the efficient vehicle. It becomes possible to perform maneuvering.

図9は、自車両10Aにおける情報融合処理の全体フロー図である。
この図において、情報融合処理は、S1〜S5の各ステップ(工程)からなる。
なお情報融合する他車両の総数Nに対し、S1〜S5の各ステップはn=1からn=Nまでn=n+1で順に実施される。
FIG. 9 is an overall flow chart of information fusion processing in the own vehicle 10A.
In this figure, the information fusion process comprises each step (step) of S1 to S5.
It should be noted that each step of S1 to S5 is sequentially carried out from n = 1 to n = N with n = n + 1 with respect to the total number N of other vehicles for information fusion.

ステップS1では、車々間通信装置18による他車両(n)の情報(1B,2B)を取得し、かつ環境計測装置12により自車両の3次元情報1Aを取得する。
ステップS2では、自己位置標定装置13により、自車両の位置姿勢情報2Aを算出する。
ステップS3では、スキャンマッチングに供する3次元情報を調整する。
ステップS4では、スキャンマッチングによる相対位置姿勢を算出する。
ステップS5では、相対位置姿勢に基づく他車両(n)の3次元情報の自車両座標系への変換(すなわち、融合3次元情報を生成する。)
In step S1, the information (1B, 2B) of the other vehicle (n) is acquired by the inter-vehicle communication device 18, and the three-dimensional information 1A of the own vehicle is acquired by the environment measurement device 12.
In step S2, the position / attitude information 2A of the own vehicle is calculated by the self-positioning device 13.
In step S3, the three-dimensional information used for scan matching is adjusted.
In step S4, the relative position / posture by scan matching is calculated.
In step S5, the conversion of the three-dimensional information of the other vehicle (n) to the own vehicle coordinate system based on the relative position / orientation (that is, the fusion three-dimensional information is generated).

図10は、自車両10Aにおける周囲環境3D画像生成処理の全体フロー図である。
この図において、周囲環境3D画像生成処理は、T1〜T3の各ステップ(工程)が繰り返し実施される。
FIG. 10 is an overall flow chart of the surrounding environment 3D image generation processing in the own vehicle 10A.
In this figure, each step (step) of T1 to T3 is repeatedly carried out in the ambient environment 3D image generation process.

ステップT1では、遠隔通信装置22を介して、遠隔操縦装置20により操縦者の表示指示(視点、注視点、距離)を取得する。例えば指令入力装置26がタッチパネル式ディスプレイであり表示装置28と兼ねる場合、周囲環境3D画像6の表示に対して、スマートフォンを操作するようなスワイプ操作やピンチ操作などのタッチ操作により、表示をシフト、回転したり拡大・縮小することで、視点、注視点、距離を指示する。
ステップT2では、融合3次元情報4より、操縦者の表示指示に基づき周囲環境3D画像6を生成する。
ステップT3では、遠隔通信装置22を介して、周囲環境3D画像6を遠隔操縦装置20に送信する。
In step T1, the operator's display instruction (viewpoint, gazing point, distance) is acquired by the remote control device 20 via the remote communication device 22. For example, when the command input device 26 is a touch panel type display and also serves as a display device 28, the display is shifted with respect to the display of the surrounding environment 3D image 6 by a touch operation such as a swipe operation or a pinch operation such as operating a smartphone. By rotating or enlarging / reducing, the viewpoint, gaze point, and distance are specified.
In step T2, the surrounding environment 3D image 6 is generated from the fusion 3D information 4 based on the display instruction of the operator.
In step T3, the surrounding environment 3D image 6 is transmitted to the remote control device 20 via the remote communication device 22.

図11は、他車両10Bにおける情報提供処理の全体フロー図である。
この図において、情報提供処理は、U1〜U3の各ステップ(工程)が繰り返し実施される。
FIG. 11 is an overall flow chart of information provision processing in the other vehicle 10B.
In this figure, the information provision process is repeatedly carried out in each step (step) of U1 to U3.

ステップU1では、環境計測装置12により他車両の3次元情報1Bを取得する。
ステップU2では、自己位置標定装置13により、他車両の位置姿勢情報2Bを算出する。
ステップU3では、車々間通信装置18により他車両(n)の情報(1B,2B)を自車両10Aへ送信する。
In step U1, the environment measuring device 12 acquires the three-dimensional information 1B of another vehicle.
In step U2, the position / attitude information 2B of another vehicle is calculated by the self-positioning device 13.
In step U3, the information (1B, 2B) of the other vehicle (n) is transmitted to the own vehicle 10A by the inter-vehicle communication device 18.

図9において、S3では、S31,S32,S33の各ステップ(工程)が実施される。
ステップS31では、平坦・凹凸エリアを調整する。
ステップS32では、自・他車両の3次元情報1A,1Bの共通計測エリアを算出する。
ステップS33では、フィルタリングにより細かい凹凸を除去する。
以下、ステップS31,S32,S33を具体的に説明する。
In FIG. 9, in S3, each step (step) of S31, S32, and S33 is carried out.
In step S31, the flat / uneven area is adjusted.
In step S32, the common measurement area of the three-dimensional information 1A and 1B of the own vehicle and the other vehicle is calculated.
In step S33, fine irregularities are removed by filtering.
Hereinafter, steps S31, S32, and S33 will be specifically described.

(A)平坦・凹凸エリアの調整(ステップS31)
図12は、平坦・凹凸エリアの調整方法を示す模式図である。
(A) Adjustment of flat / uneven area (step S31)
FIG. 12 is a schematic diagram showing a method of adjusting a flat / uneven area.

点群同士のスキャンマッチングにおいては、そのマッチング対象の形状によってマッチングの精度が影響を受ける。
例えば、情報融合する地形が、平坦に近く凹凸が少ない場合、マッチング処理の過程において高さ方向のずれが水平方向のずれよりも全体誤差に大きく影響する。そのため、高さ方向のマッチング精度は相対的に高く、逆に水平方向のマッチング精度は相対的に低くなる。
一方、情報融合する地形が、凹凸が多く平坦部分が少ない場合、水平方向のマッチング精度は相対的に高く、逆に高さ方向のマッチング精度は相対的に低くなる。
In scan matching between point clouds, the matching accuracy is affected by the shape of the matching target.
For example, when the terrain in which information is fused is close to flat and has few irregularities, the deviation in the height direction has a greater effect on the overall error than the deviation in the horizontal direction in the process of matching processing. Therefore, the matching accuracy in the height direction is relatively high, and conversely, the matching accuracy in the horizontal direction is relatively low.
On the other hand, when the terrain in which information is fused has many irregularities and few flat portions, the matching accuracy in the horizontal direction is relatively high, and conversely, the matching accuracy in the height direction is relatively low.

そこで、高さ方向、水平方向共に同程度のマッチング精度とするために、3次元情報をスキャンマッチングに供する前に、平坦部分もしくは凹凸部分の情報を除去することが考えられる。 Therefore, in order to achieve the same level of matching accuracy in both the height direction and the horizontal direction, it is conceivable to remove the information on the flat portion or the uneven portion before subjecting the three-dimensional information to scan matching.

これを行うため、まず、自車両の3次元情報1Aに含まれる各計測点が、平坦エリア又は凹凸エリアのいずれに属するのか分類を行う。 In order to do this, first, it is classified whether each measurement point included in the three-dimensional information 1A of the own vehicle belongs to the flat area or the uneven area.

図12(A)は、平坦候補の抽出ステップを示している。
各計測点は3次元空間における座標(x,y,z)を有するため、平坦候補の抽出ステップにおいて、ある計測点において隣接する計測点との高さの差が閾値Hf[cm]以下である場合その計測点を平坦候補とする。隣接する計測点とは、例えばLRFによる計測において、対象とする計測点と時間的にその直前または直後に計測された点である。また、閾値Hfは、例えば5〜20cm(好ましくは10cm)である。
FIG. 12A shows a step of extracting flat candidates.
Since each measurement point has coordinates (x, y, z) in the three-dimensional space, the height difference between the measurement point and the adjacent measurement point at a certain measurement point is equal to or less than the threshold value Hf [cm] in the flat candidate extraction step. If the measurement point is a flat candidate. The adjacent measurement points are, for example, points measured immediately before or immediately after the target measurement point in the measurement by LRF. The threshold value Hf is, for example, 5 to 20 cm (preferably 10 cm).

全ての計測点にてこの判定を行った後、図12(C)に示すように、平坦候補が連続して存在する部分をクラスタリング等の手法により求め、それを平坦エリアとする。また、それ以外を凹凸エリアとする。 After making this determination at all the measurement points, as shown in FIG. 12 (C), a portion where flat candidates continuously exist is obtained by a method such as clustering, and is used as a flat area. In addition, the other areas are uneven areas.

次に、図12(D)に示すように、最終的に得られた平坦エリアの合計面積と凹凸エリアの合計面積比がF:Rとなるように、いずれかの計測点をマッチング対象の3次元情報から除去する。 Next, as shown in FIG. 12 (D), one of the measurement points is matched to 3 so that the final ratio of the total area of the flat area to the total area of the uneven area is F: R. Remove from dimensional information.

なお、F:Rはスキャンマッチングの結果、高さ方向と水平方向の融合精度が同程度となるために予め定めた数値である。F:Rは、例えば3:1〜8:1(好ましくは5:1)である。
ただし、3次元情報の除去過多によるスキャンマッチング精度の悪化を防止するため、除去する面積の上限値St[m]、または除去する面積の元の面積に対する上限比率Rt[%]を設けてもよい。上限値Stは、例えば250m、上限比率Rtは例えば10%である。
It should be noted that F: R is a predetermined numerical value because the fusion accuracy in the height direction and the horizontal direction is about the same as a result of scan matching. F: R is, for example, 3: 1 to 8: 1 (preferably 5: 1).
However, in order to prevent deterioration of scan matching accuracy due to excessive removal of 3D information, the upper limit value St [m 2 ] of the area to be removed or the upper limit ratio Rt [%] to the original area of the area to be removed may be provided. good. The upper limit value St is, for example, 250 m 2 , and the upper limit ratio Rt is, for example, 10%.

なお、本処理は自車両の3次元情報1Aについてのみ行うことが好ましい。他車両10BについてはステップS32の処理(自車両の3次元情報と他車両の3次元情報の共通計測エリアを算出)にて自車両との共通計測エリアがスキャンマッチングに供されるため、特に実施する必要は無い。 It is preferable that this process is performed only on the three-dimensional information 1A of the own vehicle. The other vehicle 10B is particularly implemented because the common measurement area with the own vehicle is used for scan matching in the process of step S32 (calculating the common measurement area of the three-dimensional information of the own vehicle and the three-dimensional information of the other vehicle). You don't have to.

(B)自・他車両の3次元情報の共通計測エリア算出(ステップS32)
図13は、共通計測エリア算出の説明図である。
(B) Calculation of common measurement area for 3D information of own vehicle and other vehicles (step S32)
FIG. 13 is an explanatory diagram of common measurement area calculation.

車両間の相対位置姿勢を求める際、一方の車両のみが計測し、もう一方の車両が計測していない箇所(図13(A)の死角)のデータを用いてスキャンマッチングを行うと、マッチング精度に悪影響が出る。
そのため、両車両が共通に計測している共通計測点同士をスキャンマッチングに供することが望ましい。
When determining the relative position and posture between vehicles, if scan matching is performed using the data of the location (blind spot in FIG. 13 (A)) that is measured by only one vehicle and not measured by the other vehicle, the matching accuracy is correct. Will be adversely affected.
Therefore, it is desirable to use the common measurement points that both vehicles are measuring in common for scan matching.

これを行うため、ある計測点に対して、その周囲(半径r[m]以内)に他車両の計測点が存在しない(あるいは一定数以上存在しない)場合は、その計測点を孤立点として、スキャンマッチングの対象から除去する。これを両車両の全計測点で行うことにより、概ね共通に計測している箇所のみを抽出することが可能と考えられる。 To do this, if there are no measurement points of other vehicles (or no more than a certain number) around a certain measurement point (within the radius r [m]), that measurement point is set as an isolated point. Remove from scan matching targets. By doing this at all the measurement points of both vehicles, it is considered possible to extract only the points that are measured in common.

別の手法として、自車両が保有または構築している周囲環境情報を用いて行う方法が考えられる。
図13(B)において、計測点Aは、他車両との間に遮蔽物体がなく、他車両の計測範囲なので、共通計測点である。また、計測点Bは、干渉判定線が遮蔽物体によって遮られているため、非共通計測点である。さらに、計測点Cは、他車両との間に遮蔽物体がないが、他車両の計測範囲外のため、非共通計測点である。
As another method, a method using the surrounding environment information owned or constructed by the own vehicle can be considered.
In FIG. 13B, the measurement point A is a common measurement point because there is no shielding object between the measurement point A and the other vehicle and the measurement range of the other vehicle. Further, the measurement point B is a non-common measurement point because the interference determination line is blocked by the shielding object. Further, the measurement point C is a non-common measurement point because there is no shielding object between the measurement point C and the other vehicle but it is out of the measurement range of the other vehicle.

すなわち、ある計測点A,B,Cに対して、周囲環境情報上でその計測点と他車両10Bの環境計測装置12のセンサを線で結ぶ(これを「干渉判定線」と呼ぶ)。計測点と他車両10Bの間に遮蔽物体が無く、かつ干渉判定線が相手側車両(すなわち他車両10B)の環境計測装置12の計測範囲に含まれる場合には、その計測点は両車両10A,10Bから共通に計測可能な共通計測点と考える。
これを全計測点で行うことにより、概ね共通に計測している箇所のみを抽出することができる。
That is, for a certain measurement point A, B, C, the measurement point is connected to the sensor of the environment measurement device 12 of the other vehicle 10B by a line on the surrounding environment information (this is called an "interference determination line"). If there is no shielding object between the measurement point and the other vehicle 10B and the interference determination line is included in the measurement range of the environmental measurement device 12 of the other vehicle (that is, the other vehicle 10B), the measurement point is the measurement point of both vehicles 10A. , 10B is considered as a common measurement point that can be measured in common.
By performing this at all measurement points, it is possible to extract only the points that are generally measured in common.

上記干渉判定線について、上記周囲環境情報が点群により構成されている場合、実際には遮蔽物体が存在するのに、干渉判定線が周囲環境情報上の点間を通り抜け、相手側車両(すなわち他車両10B)から計測可能となってしまうことが考えられる。これについては、干渉判定線を、半径c[cm]の円筒状の物体であるとして遮蔽物体との干渉判定を行うことにより回避可能である。 Regarding the interference determination line, when the surrounding environment information is composed of a point cloud, the interference determination line passes between the points on the surrounding environment information even though a shielded object actually exists, and the other vehicle (that is, the other vehicle (that is,). It is conceivable that it will be possible to measure from another vehicle 10B). This can be avoided by determining the interference determination line as a cylindrical object having a radius c [cm] and performing an interference determination with a shielding object.

以上の方法により、両車両の非共通計測領域を3次元情報から除去し、共通に計測している箇所のみをスキャンマッチングに供することにより、マッチング精度の悪化を防止することができる。 By the above method, the non-common measurement area of both vehicles is removed from the three-dimensional information, and only the part that is measured in common is used for scan matching, so that deterioration of matching accuracy can be prevented.

(C)フィルタリングによる細かい凹凸の除去(ステップS33)
図14は、フィルタリングの説明図である。
(C) Removal of fine irregularities by filtering (step S33)
FIG. 14 is an explanatory diagram of filtering.

スキャンマッチングの既知の用途には、SLAM(Simultaneous Localization And Mapping)による地図生成がある。これは車両等の移動体が周囲をLRF(レーザレンジファインダ)等により移動しながら計測し、時々刻々得られた情報のスキャンマッチング等を行って自己位置・姿勢の算出と地図生成を同時に行うものである。 Known applications for scan matching include mapping by SLAM (Simultaneus Localization And Mapping). This is a measurement in which a moving object such as a vehicle moves around by LRF (laser range finder), etc., and scan matching of the information obtained every moment is performed to calculate the self-position / posture and generate a map at the same time. Is.

このように単独の移動体にて時々刻々にスキャンマッチングを行う場合、それぞれのスキャンマッチングを行う間に移動体が進む距離や向きの変化は一般に小さい。そのため、スキャンマッチング対象となる移動前後の2つの地形の移動体からの見え方は大きく変化しないため、精度良くマッチングできる。 In this way, when scan matching is performed moment by moment with a single moving object, the change in the distance and orientation of the moving object during each scan matching is generally small. Therefore, the appearance of the two terrains before and after the movement, which is the scan matching target, from the moving body does not change significantly, so that matching can be performed with high accuracy.

しかし、不整地環境における複数車両による情報融合のためのスキャンマッチングの場合、地形を計測する位置や向きが単独移動体に比較して大きく、また不整地環境の凹凸により両車両が計測する地形の見え方が異なる。そのため、図14(A)に示すように、細かな形状が一致せず、マッチングの精度が悪くなるという問題がある。 However, in the case of scan matching for information fusion by multiple vehicles in an rough terrain environment, the position and orientation for measuring the terrain are larger than those of a single moving object, and the terrain measured by both vehicles due to the unevenness of the rough terrain environment. It looks different. Therefore, as shown in FIG. 14A, there is a problem that the fine shapes do not match and the matching accuracy is deteriorated.

そこで、各車両から計測される地形の見え方を極力同じにするために、細かい凹凸をフィルタリングにより除去することが考えられる。 Therefore, in order to make the appearance of the terrain measured from each vehicle as similar as possible, it is conceivable to remove fine irregularities by filtering.

フィルタリングの方法として、図14(B)に示すように、3次元空間を立体物(これをグリッドと呼ぶ)の集合とし、計測した3次元情報を配置する。なお立体物は、好ましくは一辺が所定長さg[cm]の立方体であるが、直方体でも、半径が所定長さの球形でもよい。
このとき、あるグリッドには複数の計測点が入り、別のグリッドには1点のみ計測点が入り、また別のグリッドには計測点が1点も無い場合があり得る。
この中であるグリッドに1つ以上の計測点が入る場合、これら1グリッド内の各計測点の3次元座標(x,y,z)を平均化した3次元座標(x,y,z)を求め、これをそのグリッドの3次元座標とする。図14(C)に示すように、これを両車両の3次元情報について実施し、スキャンマッチングに供する。
As a filtering method, as shown in FIG. 14B, a three-dimensional space is set as a set of three-dimensional objects (this is called a grid), and measured three-dimensional information is arranged. The three-dimensional object is preferably a cube having a side having a predetermined length g [cm], but may be a rectangular parallelepiped or a sphere having a radius having a predetermined length.
At this time, there may be a case where a plurality of measurement points are contained in one grid, only one measurement point is contained in another grid, and there is no measurement point in another grid.
When one or more measurement points are included in the grid, the three-dimensional coordinates (x, y, z) obtained by averaging the three-dimensional coordinates (x, y, z) of each measurement point in the one grid are used. Find it and use this as the 3D coordinates of the grid. As shown in FIG. 14C, this is performed for the three-dimensional information of both vehicles and subjected to scan matching.

グリッドの所定長さgは、これが小さすぎるとフィルタリングの効果が小さく、細かい凹凸が除去されない。また大きすぎるとマッチングを行う際の地形の特徴までもが失われるため、適切なサイズを選定する必要がある。長さgは、例えば10〜50cmである。 If the predetermined length g of the grid is too small, the filtering effect is small and fine irregularities cannot be removed. Also, if it is too large, even the characteristics of the terrain when matching will be lost, so it is necessary to select an appropriate size. The length g is, for example, 10 to 50 cm.

また、フィルタリングを行う別の効果として、3次元情報のデータが存在する部分のデータの粗密が無くなり均一化される。粗密のあるデータを用いてICP等のスキャンマッチングを行う際、密な部分のデータが疎な部分のデータより大きく影響するため、それによりマッチングの誤差が大きくなる場合がある。したがって、フィルタリングによりデータの粗密を無くすことで、スキャンマッチングの誤差を抑える効果がある。 Further, as another effect of filtering, the density of the data in the portion where the data of the three-dimensional information exists is eliminated and the data is made uniform. When performing scan matching such as ICP using coarse and dense data, the data in the dense portion has a greater influence than the data in the sparse portion, which may increase the matching error. Therefore, by eliminating the density of data by filtering, there is an effect of suppressing the error of scan matching.

このようにグリッド化、すなわちフィルタリングした3次元情報を用いてスキャンマッチングを行うことにより、不整地環境における複数車両の情報融合においてもマッチング情報の悪化を抑えることができる。 By performing scan matching using grids, that is, filtered three-dimensional information in this way, deterioration of matching information can be suppressed even in information fusion of a plurality of vehicles in an rough terrain environment.

図9において、S5では、S51のステップ(工程)が実施される。
ステップS51では、他車両融合情報の範囲選択を実施する。
In FIG. 9, in S5, the step (step) of S51 is carried out.
In step S51, the range of other vehicle fusion information is selected.

(D)他車両融合情報の範囲選択(ステップS51)
スキャンマッチングによって求められた相対位置姿勢に基づき、他車両の3次元情報を自車両の座標系に座標変換することで、情報融合を行う。
この際、他車両側の3次元情報について、その情報を全て用いて融合することを行ってもよい。
(D) Range selection of other vehicle fusion information (step S51)
Information fusion is performed by converting the three-dimensional information of another vehicle into the coordinate system of the own vehicle based on the relative position / orientation obtained by scan matching.
At this time, the three-dimensional information on the other vehicle side may be fused by using all the information.

しかし、求めた相対位置姿勢は幾分かの誤差を含んでいるため、この誤差により融合された3D情報は本来は一つの物体が二重に表示されることになる。従って、情報を融合するのは他車両側の全ての情報ではなく、自車両にとっての死角部分や自車両が情報を有していない部分のみとしたい場合がある。
なお、自車両の3次元情報は、ステップS31,S32,S33で除去したり、グリッド化した後の情報を用いる必要はなく、最も情報が豊富となるように計測した全ての情報を用いることで良い。
However, since the obtained relative position and orientation include some error, the 3D information fused by this error is originally displayed twice as one object. Therefore, it may be desired to fuse the information not with all the information on the other vehicle side, but only with the blind spot portion for the own vehicle or the portion where the own vehicle does not have the information.
It should be noted that the three-dimensional information of the own vehicle does not need to be removed in steps S31, S32, and S33, or the information after grid formation is used, and all the information measured so as to be the most abundant is used. good.

融合する他車両の情報の範囲選択を行うため、ステップS32の自・他車両の3次元情報の共通計測エリア算出の結果を利用する。
すなわちステップS32の処理においては、自車両と他車両の3次元情報の共通計測箇所を求めたが、この際に非共通計測領域として他車両の3次元情報から除去した部分は、自車両にとっての死角部分および自車両が情報を有していない部分に相当する。
したがって、ステップS32の処理において非共通計測領域として除去した部分を記録しておき、これをスキャンマッチングによって求められた相対位置姿勢に基づき、自車両の座標系に座標変換すれば良い。
In order to select the range of the information of the other vehicle to be fused, the result of the common measurement area calculation of the three-dimensional information of the own vehicle and the other vehicle in step S32 is used.
That is, in the process of step S32, the common measurement point of the three-dimensional information of the own vehicle and the other vehicle was obtained, but the portion removed from the three-dimensional information of the other vehicle as the non-common measurement area at this time is for the own vehicle. It corresponds to the blind spot and the part where the own vehicle does not have information.
Therefore, the portion removed as the non-common measurement area in the process of step S32 may be recorded, and the coordinate may be converted into the coordinate system of the own vehicle based on the relative position / orientation obtained by scan matching.

なお本発明は上述した実施の形態に限定されず、本発明の要旨を逸脱しない範囲で種々変更を加え得ることは勿論である。 It should be noted that the present invention is not limited to the above-described embodiment, and it goes without saying that various modifications can be made without departing from the gist of the present invention.

A 相対位置・姿勢補正機能、B 融合情報生成機能、
C 周囲環境3D画像生成機能、
1A,1B 3次元情報、2A,2B 位置姿勢情報、4 融合3次元情報、
5 構造物、6 周囲環境3D画像、10A 自車両、10B 他車両、
11 車体、12 環境計測装置、13 自己位置標定装置、14 演算装置、
15 ドライブバイワイヤ装置、16 遠隔通信装置、18 車々間通信装置、
20 遠隔操縦装置、22 遠隔通信装置、24 制御装置、
26 指令入力装置、28 表示装置、100 車両操縦システム
A Relative position / posture correction function, B Fusion information generation function,
C Surrounding environment 3D image generation function,
1A, 1B 3D information, 2A, 2B position / orientation information, 4 fusion 3D information,
5 Structure, 6 Surrounding environment 3D image, 10A own vehicle, 10B other vehicle,
11 car body, 12 environmental measurement device, 13 self-positioning device, 14 arithmetic unit,
15 drive-by-wire equipment, 16 remote communication equipment, 18 vehicle-to-vehicle communication equipment,
20 remote control device, 22 remote communication device, 24 control device,
26 Command input device, 28 Display device, 100 Vehicle maneuvering system

本発明によれば、自車両と、前記自車両と双方向に通信可能な他車両と、を備え、
前記自車両と前記他車両はそれぞれ、周囲の離散した点群の3次元情報である3次元点群情報を取得する環境計測装置と、位置姿勢情報を取得する自己位置標定装置と、演算装置と、前記3次元点群情報及び前記位置姿勢情報を双方向に通信する車々間通信装置と、を有し、
前記自車両の前記演算装置はさらに、前記他車両から受信した前記3次元点群情報及び前記位置姿勢情報を用いて、前記自車両の前記3次元点群情報と前記他車両の前記3次元点群情報を融合して融合3次元情報を生成する情報融合機能を有し、
前記情報融合機能は、前記自車両と前記他車両の前記3次元点群情報及び前記位置姿勢情報を用い、前記自車両と前記他車両のそれぞれの3次元点群情報に基づいてスキャンマッチングにより前記自車両から見た前記他車両の相対位置と相対姿勢を補正する相対位置・姿勢補正機能と、
補正後の前記相対位置と前記相対姿勢に基づき、前記他車両の前記3次元点群情報を前記自車両の前記3次元点群情報と融合して前記融合3次元情報を生成する融合情報生成機能と、を有する、車両操縦システムが提供される。
According to the present invention, the own vehicle and another vehicle capable of bidirectionally communicating with the own vehicle are provided.
The own vehicle and the other vehicle have an environment measurement device that acquires three-dimensional point cloud information, which is three-dimensional information of surrounding discrete point clouds, a self-positioning device that acquires position / orientation information, and a calculation device. , A vehicle-to-vehicle communication device that bidirectionally communicates the three-dimensional point cloud information and the position / attitude information.
The vehicle of the computing device further said received from other vehicles using a three-dimensional point group information and the position and orientation information, the three-dimensional point of the said another vehicle and the three-dimensional point group data of the vehicle have a data fusion function of generating fusion three-dimensional information by fusing the group information,
The information fusion function uses the three-dimensional point cloud information and the position / attitude information of the own vehicle and the other vehicle, and scan-matches based on the three-dimensional point cloud information of the own vehicle and the other vehicle. A relative position / attitude correction function that corrects the relative position and posture of the other vehicle as seen from the own vehicle, and
A fusion information generation function that generates the fusion 3D information by fusing the 3D point cloud information of the other vehicle with the 3D point cloud information of the own vehicle based on the corrected relative position and the relative posture. And, a vehicle maneuvering system is provided.

また本発明によれば、自車両と、前記自車両と双方向に通信可能な他車両と、を準備し、
前記自車両と前記他車両はそれぞれ、周囲の離散した点群の3次元情報である3次元点群情報と位置姿勢情報を取得し、かつ前記3次元点群情報及び前記位置姿勢情報を双方向に通信し、
さらに、前記他車両から受信した前記3次元点群情報及び前記位置姿勢情報を用いて、前記自車両の前記3次元点群情報と前記他車両の前記3次元点群情報を融合して融合3次元情報を生成し、
前記自車両は、前記自車両と前記他車両の前記3次元点群情報及び前記位置姿勢情報を用い、前記自車両と前記他車両のそれぞれの3次元点群情報に基づいてスキャンマッチングにより前記自車両から見た前記他車両の相対位置と相対姿勢を補正し、
補正後の前記相対位置と前記相対姿勢に基づき、前記他車両の前記3次元点群情報を前記自車両の前記3次元点群情報と融合して前記融合3次元情報を生成する、車両操縦方法が提供される。
Further, according to the present invention, the own vehicle and another vehicle capable of bidirectional communication with the own vehicle are prepared.
The own vehicle and the other vehicle acquire three-dimensional point cloud information and position / orientation information, which are three-dimensional information of surrounding discrete point clouds, respectively, and bidirectionally exchange the three-dimensional point cloud information and the position / attitude information. Communicate with
Furthermore, said received from other vehicles using a three-dimensional point group information and the position and orientation information, the fused the 3D point group information of the 3D point group information and the other vehicles of the vehicle fusion 3 Generate dimensional information ,
The own vehicle uses the three-dimensional point cloud information and the position / attitude information of the own vehicle and the other vehicle, and scan-matches the own vehicle based on the three-dimensional point cloud information of the own vehicle and the other vehicle. Correct the relative position and relative posture of the other vehicle as seen from the vehicle,
A vehicle maneuvering method for generating the fused three-dimensional information by fusing the three-dimensional point cloud information of the other vehicle with the three-dimensional point cloud information of the own vehicle based on the corrected relative position and the relative posture. Is provided.

本発明によれば、演算装置が、他車両から受信した3次元点群情報及び位置姿勢情報と自車両の3次元点群情報及び位置姿勢情報を用いて、自車両の3次元点群情報と他車両の3次元点群情報を融合して融合3次元情報を生成する。
この融合3次元情報は、複数の3次元点群情報の共通の点群情報が一致し、かつ共通しないそれぞれの点群情報を含んでいる。
従って、自車両と他車両の間隔が大きい場合でも、自車両からみた他車両の相対位置姿勢の誤差を補正し、死角情報を含む広範囲かつ高精度の周囲環境情報を得ることができる。
According to the present invention, computing device, using a three-dimensional point group information and the position and orientation information of the three-dimensional point group information and the position and orientation information and the vehicle received from the other vehicle, and the three-dimensional point group data of the vehicle Fusion 3D information is generated by fusing 3D point cloud information of other vehicles.
This fused three-dimensional information includes point cloud information in which common point cloud information of a plurality of three-dimensional point cloud information matches and does not common.
Therefore, even when the distance between the own vehicle and the other vehicle is large, it is possible to correct the error of the relative position / posture of the other vehicle as seen from the own vehicle and obtain a wide range and highly accurate surrounding environment information including blind spot information.

図1と図2において、自車両10Aの環境計測装置12は、車体11に取付けられたカメラ、レーザレンジファインダ(LRF)、レーダ等である。
自車両10Aの環境計測装置12は、自車両10Aの周囲の離散した点群の3次元情報である3次元点群情報(以下、3次元情報1Aを取得する。他車両10Bの環境計測装置12も、同様に他車両10Bの周囲の離散した点群の3次元情報である3次元点群情報(以下、3次元情報1Bを取得する。
以下、3次元情報1Aが点群情報である場合を説明する。
In FIGS. 1 and 2, the environment measuring device 12 of the own vehicle 10A is a camera, a laser range finder (LRF), a radar, and the like attached to the vehicle body 11.
The environment measuring device 12 of the own vehicle 10A acquires three-dimensional point cloud information (hereinafter, three-dimensional information 1A ) which is three-dimensional information of the discrete point cloud around the own vehicle 10A. Similarly, the environment measuring device 12 of the other vehicle 10B also acquires the three-dimensional point cloud information (hereinafter, three-dimensional information 1B ) which is the three-dimensional information of the discrete point cloud around the other vehicle 10B.
Hereinafter, the case where the three-dimensional information 1A is the point cloud information will be described.

Claims (15)

自車両と、前記自車両と双方向に通信可能な他車両と、を備え、
前記自車両と前記他車両はそれぞれ、周囲の3次元情報を取得する環境計測装置と、位置姿勢情報を取得する自己位置標定装置と、演算装置と、前記3次元情報及び前記位置姿勢情報を双方向に通信する車々間通信装置と、を有し、
前記自車両の前記演算装置はさらに、前記他車両から受信した前記3次元情報及び前記位置姿勢情報を用いて、前記自車両の前記3次元情報と前記他車両の前記3次元情報を融合して融合3次元情報を生成する情報融合機能を有する、車両操縦システム。
It is equipped with its own vehicle and another vehicle capable of bidirectional communication with the own vehicle.
The own vehicle and the other vehicle both have an environment measuring device for acquiring three-dimensional information of the surroundings, a self-positioning device for acquiring position / orientation information, a calculation device, and the three-dimensional information and the position / attitude information. It has an inter-vehicle communication device that communicates in the direction of the vehicle.
The arithmetic unit of the own vehicle further fuses the three-dimensional information of the own vehicle and the three-dimensional information of the other vehicle by using the three-dimensional information and the position / attitude information received from the other vehicle. Fusion A vehicle maneuvering system with an information fusion function that generates three-dimensional information.
前記情報融合機能は、前記自車両と前記他車両の前記3次元情報及び前記位置姿勢情報を用い、前記自車両と前記他車両のそれぞれの前記3次元情報に含まれる点群情報に基づいてスキャンマッチングにより前記自車両から見た前記他車両の相対位置と相対姿勢を補正する相対位置・姿勢補正機能と、
補正後の前記相対位置と前記相対姿勢に基づき、前記他車両の前記3次元情報を前記自車両の前記3次元情報と融合して前記融合3次元情報を生成する融合情報生成機能と、を有する、請求項1に記載の車両操縦システム。
The information fusion function uses the three-dimensional information of the own vehicle and the other vehicle and the position / attitude information, and scans based on the point cloud information included in the three-dimensional information of the own vehicle and the other vehicle. A relative position / posture correction function that corrects the relative position and posture of the other vehicle as seen from the own vehicle by matching,
It has a fusion information generation function that generates the fusion three-dimensional information by fusing the three-dimensional information of the other vehicle with the three-dimensional information of the own vehicle based on the corrected relative position and the relative posture. , The vehicle maneuvering system according to claim 1.
前記自車両の前記演算装置はさらに、前記融合3次元情報から任意の視点・注視点・距離における周囲環境3D画像を作成する周囲環境3D画像生成機能を有する、請求項1に記載の車両操縦システム。 The vehicle maneuvering system according to claim 1, wherein the arithmetic unit of the own vehicle further has an ambient environment 3D image generation function for creating an ambient environment 3D image at an arbitrary viewpoint, gazing point, and distance from the fused three-dimensional information. .. 前記自車両は、前記融合3次元情報を前記他車両に送信する情報共有機能を有する、請求項1に記載の車両操縦システム。 The vehicle maneuvering system according to claim 1, wherein the own vehicle has an information sharing function of transmitting the fusion three-dimensional information to the other vehicle. 前記自車両は、遠隔操縦可能な無人車両であり、
さらに前記無人車両を遠隔操縦する遠隔操縦装置を備える、請求項1に記載の車両操縦システム。
The own vehicle is an unmanned vehicle that can be remotely controlled.
The vehicle control system according to claim 1, further comprising a remote control device for remotely controlling the unmanned vehicle.
前記自車両はさらに、前記融合3次元情報から任意の視点・注視点・距離における周囲環境3D画像を前記遠隔操縦装置に送信する遠隔通信装置を有する、請求項5に記載の車両操縦システム。 The vehicle control system according to claim 5, wherein the own vehicle further includes a remote communication device that transmits a 3D image of the surrounding environment at an arbitrary viewpoint, gaze point, and distance from the fusion three-dimensional information to the remote control device. 前記遠隔操縦装置は、前記自車両と双方向に通信する遠隔通信装置と、情報処理を行う制御装置と、前記周囲環境3D画像を表示する表示装置と、を有する、請求項6に記載の車両操縦システム。 The vehicle according to claim 6, wherein the remote control device includes a remote communication device that bidirectionally communicates with the own vehicle, a control device that performs information processing, and a display device that displays a 3D image of the surrounding environment. Maneuvering system. 自車両と、前記自車両と双方向に通信可能な他車両と、を準備し、
前記自車両と前記他車両はそれぞれ、周囲の3次元情報と位置姿勢情報を取得し、かつ前記3次元情報及び前記位置姿勢情報を双方向に通信し、
さらに、前記他車両から受信した前記3次元情報及び前記位置姿勢情報を用いて、前記自車両の前記3次元情報と前記他車両の前記3次元情報を融合して融合3次元情報を生成する、車両操縦方法。
Prepare your own vehicle and another vehicle that can communicate bidirectionally with the own vehicle.
The own vehicle and the other vehicle acquire surrounding three-dimensional information and position / attitude information, respectively, and communicate the three-dimensional information and the position / attitude information in both directions.
Further, using the three-dimensional information and the position / attitude information received from the other vehicle, the three-dimensional information of the own vehicle and the three-dimensional information of the other vehicle are fused to generate fusion three-dimensional information. Vehicle maneuvering method.
前記自車両は、前記自車両と前記他車両の前記3次元情報及び前記位置姿勢情報を用い、前記自車両と前記他車両のそれぞれの前記3次元情報に含まれる点群情報に基づいてスキャンマッチングにより前記自車両から見た前記他車両の相対位置と相対姿勢を補正し、
補正後の前記相対位置と前記相対姿勢に基づき、前記他車両の前記3次元情報を前記自車両の前記3次元情報と融合して前記融合3次元情報を生成する、請求項8に記載の車両操縦方法。
The own vehicle uses the three-dimensional information of the own vehicle and the other vehicle and the position / attitude information, and scan matching is performed based on the point group information included in the three-dimensional information of the own vehicle and the other vehicle. Corrects the relative position and relative posture of the other vehicle as seen from the own vehicle.
The vehicle according to claim 8, wherein the fused three-dimensional information is generated by fusing the three-dimensional information of the other vehicle with the three-dimensional information of the own vehicle based on the corrected relative position and the relative posture. Maneuvering method.
前記自車両は、双方向に通信可能な前記他車両を探索し、探索された前記他車両が複数の場合、その一部又は全部と通信して、前記融合3次元情報を生成する、請求項8に記載の車両操縦方法。 The claim that the own vehicle searches for the other vehicle capable of bidirectional communication, and when there are a plurality of the searched other vehicles, communicates with a part or all of the searched other vehicles to generate the fusion three-dimensional information. 8. The vehicle maneuvering method according to 8. 前記融合3次元情報を生成する前に、前記自車両の前記3次元情報について、平坦エリアと凹凸エリアの合計面積比を調整する、請求項8に記載の車両操縦方法。 The vehicle maneuvering method according to claim 8, wherein the total area ratio of the flat area and the uneven area is adjusted with respect to the three-dimensional information of the own vehicle before the fusion three-dimensional information is generated. 前記自車両の前記3次元情報について、前記自車両の計測点に対して、周囲環境情報上で前記計測点と前記他車両の前記3次元情報を取得する環境計測装置のセンサを干渉判定線で結び、その間に遮蔽物体が無い、かつ前記干渉判定線が前記他車両の環境計測装置の計測範囲に含まれる場合に、前記計測点を前記自車両と前記他車両に共通の共通計測点として、共通計測点同士をスキャンマッチングする、請求項8に記載の車両操縦方法。 Regarding the three-dimensional information of the own vehicle, the sensor of the environment measuring device that acquires the measurement point and the three-dimensional information of the other vehicle on the surrounding environment information with respect to the measurement point of the own vehicle is used as an interference determination line. In the case where there is no shielding object between them and the interference determination line is included in the measurement range of the environment measurement device of the other vehicle, the measurement point is set as a common measurement point common to the own vehicle and the other vehicle. The vehicle maneuvering method according to claim 8, wherein common measurement points are scan-matched with each other. 前記干渉判定線を、円筒状の物体であるとして遮蔽物体との干渉判定を行う、請求項12に記載の車両操縦方法。 The vehicle maneuvering method according to claim 12, wherein the interference determination line is regarded as a cylindrical object and interference determination with a shielding object is performed. 前記自車両の前記3次元情報について、前記自車両の前記計測点から前記共通計測点を除去した前記計測点を非共通計測点として、前記スキャンマッチングによって求められた相対位置姿勢に基づき、前記自車両の座標系に座標変換する、請求項12に記載の車両操縦方法。 Regarding the three-dimensional information of the own vehicle, the measurement point obtained by removing the common measurement point from the measurement point of the own vehicle is set as a non-common measurement point, and the self is based on the relative position and orientation obtained by the scan matching. The vehicle maneuvering method according to claim 12, wherein the coordinates are converted into the coordinate system of the vehicle. 前記融合3次元情報を生成する前に、3次元空間を立体物のグリッドの集合とし、計測した前記3次元情報を配置し、
前記グリッドに1又は複数の計測点が入る場合、前記計測点の3次元座標を平均化してこれを該グリッドの3次元座標としてフィルタリングを実施する、請求項8に記載の車両操縦方法。
Before generating the fusion 3D information, the 3D space is set as a set of grids of three-dimensional objects, and the measured 3D information is arranged.
The vehicle maneuvering method according to claim 8, wherein when one or a plurality of measurement points are included in the grid, the three-dimensional coordinates of the measurement points are averaged and filtering is performed using the three-dimensional coordinates of the grid as the three-dimensional coordinates.
JP2020086403A 2020-05-18 2020-05-18 Vehicle maneuvering system and vehicle maneuvering method Active JP6949417B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020086403A JP6949417B1 (en) 2020-05-18 2020-05-18 Vehicle maneuvering system and vehicle maneuvering method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020086403A JP6949417B1 (en) 2020-05-18 2020-05-18 Vehicle maneuvering system and vehicle maneuvering method

Publications (2)

Publication Number Publication Date
JP6949417B1 JP6949417B1 (en) 2021-10-13
JP2021182177A true JP2021182177A (en) 2021-11-25

Family

ID=78001446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020086403A Active JP6949417B1 (en) 2020-05-18 2020-05-18 Vehicle maneuvering system and vehicle maneuvering method

Country Status (1)

Country Link
JP (1) JP6949417B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7560630B1 (en) 2023-09-12 2024-10-02 Kddi株式会社 VEHICLE MANAGEMENT DEVICE, VEHICLE MANAGEMENT SERVER, VEHICLE MANAGEMENT METHOD, AND COMPUTER PROGRAM

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024007313A (en) 2022-07-05 2024-01-18 吉谷土木株式会社 Crop support method and field work support system or the like

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4486737B2 (en) * 2000-07-14 2010-06-23 アジア航測株式会社 Spatial information generation device for mobile mapping
JP2013153280A (en) * 2012-01-24 2013-08-08 Mitsubishi Heavy Ind Ltd Travel control system and travel control method
JP2014048859A (en) * 2012-08-31 2014-03-17 Ihi Aerospace Co Ltd Remote control system
JP2016045674A (en) * 2014-08-22 2016-04-04 株式会社Ihiエアロスペース Work vehicle
WO2017042873A1 (en) * 2015-09-08 2017-03-16 株式会社日立製作所 Remote operation system and operation assistance system
WO2018193574A1 (en) * 2017-04-20 2018-10-25 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド Flight path generation method, information processing device, flight path generation system, program and recording medium
JP2019049888A (en) * 2017-09-11 2019-03-28 株式会社Ihiエアロスペース Remote control display apparatus and remote control display method
JP2019115012A (en) * 2017-12-26 2019-07-11 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Information processing device, flight control instruction method, program, and recording medium

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4486737B2 (en) * 2000-07-14 2010-06-23 アジア航測株式会社 Spatial information generation device for mobile mapping
JP2013153280A (en) * 2012-01-24 2013-08-08 Mitsubishi Heavy Ind Ltd Travel control system and travel control method
JP2014048859A (en) * 2012-08-31 2014-03-17 Ihi Aerospace Co Ltd Remote control system
JP2016045674A (en) * 2014-08-22 2016-04-04 株式会社Ihiエアロスペース Work vehicle
WO2017042873A1 (en) * 2015-09-08 2017-03-16 株式会社日立製作所 Remote operation system and operation assistance system
WO2018193574A1 (en) * 2017-04-20 2018-10-25 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド Flight path generation method, information processing device, flight path generation system, program and recording medium
JP2019049888A (en) * 2017-09-11 2019-03-28 株式会社Ihiエアロスペース Remote control display apparatus and remote control display method
JP2019115012A (en) * 2017-12-26 2019-07-11 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Information processing device, flight control instruction method, program, and recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7560630B1 (en) 2023-09-12 2024-10-02 Kddi株式会社 VEHICLE MANAGEMENT DEVICE, VEHICLE MANAGEMENT SERVER, VEHICLE MANAGEMENT METHOD, AND COMPUTER PROGRAM

Also Published As

Publication number Publication date
JP6949417B1 (en) 2021-10-13

Similar Documents

Publication Publication Date Title
US6748325B1 (en) Navigation system
US8073564B2 (en) Multi-robot control interface
US7801644B2 (en) Generic robot architecture
US8271132B2 (en) System and method for seamless task-directed autonomy for robots
US7668621B2 (en) Robotic guarded motion system and method
US7584020B2 (en) Occupancy change detection system and method
EP3220227A1 (en) Inspection system and method for performing inspections in a storage facility
EP3799618B1 (en) Method of navigating a vehicle and system thereof
US20080009967A1 (en) Robotic Intelligence Kernel
US20080009964A1 (en) Robotics Virtual Rail System and Method
CN114675671A (en) Multi-sensor environment mapping
US20230064071A1 (en) System for 3d surveying by an autonomous robotic vehicle using lidar-slam and an estimated point distribution map for path planning
JP6949417B1 (en) Vehicle maneuvering system and vehicle maneuvering method
CN109521780B (en) Control system and control method for remote control work vehicle
KR101132713B1 (en) Device for control of moving robot, moving robot system having the same and method for control of moving robot
AU2022247649A1 (en) Construction management system, data processing device, and construction management method
US11525697B2 (en) Limited-sensor 3D localization system for mobile vehicle
KR20240101479A (en) Controller and method
Garzón Oviedo et al. Towards a ground navigation system based in visual feedback provided by a mini UAV
Bouzerzour et al. Robust uncooperative ground target surveillance using vision-based sliding mode control of quadrotor uav
KR101635585B1 (en) Apparatus for remote controlling unmanned moving object
Kurdi et al. Navigation of mobile robot with cooperation of quadcopter
Cherubini et al. A redundancy-based approach for visual navigation with collision avoidance
EP4024155B1 (en) Method, system and computer program product of control of unmanned aerial vehicles
JP7548235B2 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210917

R150 Certificate of patent or registration of utility model

Ref document number: 6949417

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250