JP5610870B2 - Unmanned traveling vehicle guidance device and unmanned traveling vehicle guidance method - Google Patents

Unmanned traveling vehicle guidance device and unmanned traveling vehicle guidance method Download PDF

Info

Publication number
JP5610870B2
JP5610870B2 JP2010140704A JP2010140704A JP5610870B2 JP 5610870 B2 JP5610870 B2 JP 5610870B2 JP 2010140704 A JP2010140704 A JP 2010140704A JP 2010140704 A JP2010140704 A JP 2010140704A JP 5610870 B2 JP5610870 B2 JP 5610870B2
Authority
JP
Japan
Prior art keywords
traveling vehicle
unmanned traveling
unmanned
point
current position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010140704A
Other languages
Japanese (ja)
Other versions
JP2012003706A (en
Inventor
成敏 塩谷
成敏 塩谷
浩明 児玉
浩明 児玉
宅原 雅人
雅人 宅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2010140704A priority Critical patent/JP5610870B2/en
Publication of JP2012003706A publication Critical patent/JP2012003706A/en
Application granted granted Critical
Publication of JP5610870B2 publication Critical patent/JP5610870B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、無人走行車両の誘導装置及び無人走行車両の誘導方法に関するものである。   The present invention relates to an unmanned traveling vehicle guidance device and an unmanned traveling vehicle guidance method.

無人走行車両を遠隔操作で離れた目的地へ移動させるとき、無人走行車両の現在位置を計測しながら走行制御を行う必要がある。無人走行車両の現在位置を測定する方法として、GPS(Global Positioning System)を用いた方法がある。しかし、GPSは、GPS衛星から出力されるGPS衛星電波を常に4つ以上補足する必要があり、屋内や山間部や高い構造物のある市街地周辺では適用できない。   When an unmanned traveling vehicle is moved to a remote destination by remote control, it is necessary to perform traveling control while measuring the current position of the unmanned traveling vehicle. As a method of measuring the current position of the unmanned traveling vehicle, there is a method using GPS (Global Positioning System). However, GPS needs to always supplement four or more GPS satellite radio waves output from GPS satellites, and cannot be applied indoors, in mountainous areas, or around urban areas with high structures.

そこで、GPSを用いない方法として、車輪の回転数を積分するオドメトリを用いた方法、レーザレンジファインダを用いた三角測量による方法、及びカメラを用いた三角測量による方法等が従来から実用化されている。   Therefore, as a method not using GPS, a method using odometry that integrates the rotation speed of a wheel, a method using triangulation using a laser range finder, a method using triangulation using a camera, and the like have been put into practical use. Yes.

特に、カメラを用いた三角測量による方法の一例として、特許文献1に、入力画像を処理して移動空間に存在する物体のCADデータを自動的に生成し、生成したCADデータを探索し、探索したCADデータの情報を用いる技術が記載されている。   In particular, as an example of a triangulation method using a camera, Patent Document 1 automatically generates CAD data of an object existing in a moving space by processing an input image, searches the generated CAD data, and performs a search. A technique using information on the CAD data is described.

特開2006−3263号公報JP 2006-3263 A

しかしながら、オドメトリは、砂地などの路面性状に影響して車輪のスリップ率が大きくなり、相対移動量の計測精度が低下する。このスリップによる測定誤差の発生に対する方法として、カメラを用いた車速センサで車速を計測し、それを時間で積分することで移動量を計測する方式があるが、カメラのピントの合う距離は短いために計測レンジが限られ、不整地で無人走行車両が揺動すると計測できなくなる問題がある。   However, odometry affects road surface properties such as sand and the like, and the slip ratio of the wheels increases, and the relative movement measurement accuracy decreases. There is a method to measure the amount of movement by measuring the vehicle speed with a vehicle speed sensor using a camera and integrating it with time as a method for the occurrence of measurement error due to this slip, but the distance that the camera is focused on is short However, there is a problem that the measurement range is limited and measurement becomes impossible when the unmanned traveling vehicle swings on rough terrain.

また、レーザレンジファインダを用いた三角測量は、移動中に得られる地形データを照合することにより、スタート地点からの相対移動量を求めることによって、現在位置を求めるが、濡れた場所や、レーザの反射率の低い地形ではレーザによる地形計測が困難なことによる精度の低下、誤差の増大が生じる問題がある。   In addition, triangulation using the laser range finder obtains the current position by checking the amount of relative movement from the start point by collating the terrain data obtained during movement. In terrain with low reflectivity, there is a problem that accuracy is lowered and error is increased due to difficulty in terrain measurement using a laser.

さらに、カメラを用いた三角測量は、静止している対象物を移動体から計測する場合など、屋内などスペースが広くない場所での作業に限定される。   Furthermore, triangulation using a camera is limited to work in a place where the space is not wide, such as indoors, such as when a stationary object is measured from a moving object.

以上のような問題から、GPSが使用できない場所で無人走行車両を移動させる場合は、無人走行車両の移動量を精度よく計測できす、その結果目標地点へ精度良く到達できないという問題があった。   Due to the above problems, when an unmanned traveling vehicle is moved in a place where GPS cannot be used, the amount of movement of the unmanned traveling vehicle can be accurately measured, and as a result, the target point cannot be accurately reached.

本発明は、このような事情に鑑みてなされたものであって、GPSが使用できない場所でも無人走行車両を精度良く目標地点へ到達させることができる誘導装置及び誘導方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide a guidance device and a guidance method capable of causing an unmanned traveling vehicle to reach a target point with high accuracy even in a place where GPS cannot be used. To do.

上記課題を解決するために、本発明の誘導装置は以下の手段を採用する。   In order to solve the above problems, the guidance device of the present invention employs the following means.

すなわち、本発明に係る誘導装置は、被写体を撮影する撮影手段、及び自身の移動量を計測する計測手段を有し、前記計測手段によって自身の移動量を計測しながら目標地点へ移動する無人走行車両の誘導装置であって、前記無人走行車両が移動する移動領域を平面で示した平面画像から指定された目標地点を前記無人走行車両へ送信する送信手段と、前記撮影手段によって撮影された撮影画像から前記撮影手段の撮影面における複数の第1点、及び前記平面画像から前記移動領域における複数の第2点を、前記複数の第1点と前記複数の第2点とが各々対応し、かつ対応する該第1点及び該第2点が前記無人走行車両の現在位置と直線で結ばれる位置関係となるように指定する指定手段と、前記複数の第1点と前記複数の第2点に基づいて、前記撮影手段の中心の絶対座標を導出し、該中心を前記無人走行車両の現在位置する第1導出手段と、前記第1導出手段で導出された現在位置を起点として、前記無人走行車両が前記計測手段による現在位置の計測を行いつつ前記目標地点へ向けて走行している途中で、前記計測手段による計測誤差の累積値が所定値に達した場合に該累積値をリセットし、前記撮影手段によって新たに撮影された撮影画像から指定された複数の第1点、及び前記平面画像から指定された複数の第2点に基づいて前記無人走行車両の現在位置を再び導出する第2導出手段と、を備える。 That is, the guidance device according to the present invention includes an imaging unit that captures an image of a subject and a measurement unit that measures the amount of movement of the subject. The unmanned traveling moves to a target point while measuring the amount of movement of the subject by the measurement unit. A vehicle guidance device, a transmission means for transmitting to the unmanned traveling vehicle a target point designated from a planar image showing a moving area in which the unmanned traveling vehicle moves in a plane, and a photograph taken by the photographing means a plurality of first point in the imaging plane of the photographing means from an image, and a plurality of second points in the movement area from the planar image, the plurality of first point and the plurality of second points corresponding respectively, And designation means for designating the corresponding first point and the second point to be in a positional relationship that is connected with the current position of the unmanned traveling vehicle by a straight line, the plurality of first points, and the plurality of second points. on the basis of Wherein deriving the absolute coordinates of the center of the imaging means, a first derivation means for the said center and a current position of the unmanned vehicle, starting from the current position derived by said first derivation means, the unmanned vehicle wherein while performing the measurement of the current position by the measuring means in the middle of traveling toward the target position, the accumulated value of the measurement error due to the measurement means to reset the accumulated value when reaching a predetermined value, the photographing Second deriving means for deriving the current position of the unmanned traveling vehicle again based on a plurality of first points designated from the photographed image newly taken by the means and a plurality of second points designated from the planar image And comprising.

本発明によれば、無人走行車両は、被写体を撮影する撮影手段、及び自身の移動量を計測する計測手段を有し、計測手段によって自身の移動量を計測しながら目標地点へ移動する。   According to the present invention, the unmanned traveling vehicle has the photographing means for photographing the subject and the measuring means for measuring the amount of movement of the subject, and moves to the target point while measuring the amount of movement of the subject by the measuring means.

無人走行車両が移動する移動領域を平面で示した平面画像から指定された目標地点が、送信手段によって無人走行車両へ送信される。また、撮影手段によって撮影された撮影画像から撮影手段の撮影面における複数の第1点及び平面画像から移動領域における複数の第2点が、複数の第1点と複数の第2点とが各々対応し、かつ対応する該第1点及び該第2点が無人走行車両の現在位置と直線で結ばれる位置関係となるように、指定手段によって指定される。
そして、第1導出手段が、複数の第1点と複数の第2点に基づいて、撮影手段の中心の絶対座標を導出し、該中心を無人走行車両の現在位置とする
The target point designated from the plane image showing the moving area in which the unmanned traveling vehicle moves in a plane is transmitted to the unmanned traveling vehicle by the transmission means. In addition, a plurality of first points on a photographing surface of the photographing unit from a photographed image photographed by the photographing unit, a plurality of second points on a moving region from a planar image, a plurality of first points and a plurality of second points, respectively. The designation means designates the first point and the second point corresponding to each other so that the first point and the second point corresponding to each other are connected to the current position of the unmanned traveling vehicle by a straight line.
The first derivation means, based on the plurality of first point and a plurality of second points, to derive the absolute coordinates of the center of the imaging means, the said center to the current position of the unmanned vehicle.

無人走行車両は、第1導出手段によって導出された現在位置を起点として目標地点まで、計測手段による現在位置の計測を行いつつ目標地点へ向けて自律走行する。   The unmanned traveling vehicle autonomously travels to the target point while measuring the current position by the measuring unit from the current position derived by the first deriving unit to the target point.

第2導出手段は、無人走行車両が自律走行している途中で、計測手段による計測誤差の累積値が所定値に達した場合に該累積値をリセットし、無人走行車両が有する撮影手段で新たに撮影された撮影画像から指定された複数の第1点、及び平面画像から指定された複数の第2点に基づいて無人走行車両の現在位置を再び導出する。 The second deriving unit resets the accumulated value when the accumulated value of the measurement error by the measuring unit reaches a predetermined value while the unmanned traveling vehicle is autonomously traveling, and newly uses the photographing unit included in the unmanned traveling vehicle. The current position of the unmanned traveling vehicle is derived again based on the plurality of first points designated from the photographed image and the plurality of second points designated from the planar image.

このように、本発明は、無人走行車両の現在位置を計測する計測手段の累積誤差が所定値に達した場合に、無人走行車両が有する撮影手段で撮影された撮影画像から指定された複数の第1点、及び平面画像から指定された複数の第2点に基づいて無人走行車両の現在位置を導出するので、計測手段による累積誤差をリセットすることができ、その結果、GPSが使用できない場所でも無人走行車両を精度良く目標地点へ到達させることができる。   As described above, the present invention provides a plurality of images specified from the captured images captured by the imaging unit of the unmanned traveling vehicle when the accumulated error of the measuring unit that measures the current position of the unmanned traveling vehicle reaches a predetermined value. Since the current position of the unmanned traveling vehicle is derived based on the first point and a plurality of second points designated from the planar image, the accumulated error due to the measuring means can be reset, and as a result, the GPS cannot be used. However, the unmanned traveling vehicle can reach the target point with high accuracy.

また、本発明は、複数の第1点に対して、各々対応する第2点が指定され、対応する該第1点及び該第2点は、導出される現在位置と直線で結ばれる位置関係とされるFurther, the present invention is the first point of the multiple, the second point is designated, each corresponding, corresponding first point and the second point is connected by current position and the straight line that is derived It is a positional relationship.

これによれば、対応する該第1点及び該第2点が、導出される前記現在位置と直線で結ばれる位置関係とされる。この結果、第1点及び第2点に基づいて、現在位置を未知数とした方程式を複数個得ることとなるので、本発明は、より簡易に無人走行車両の現在位置を導出できる。 According to this , the first point and the second point corresponding to each other are in a positional relationship that is connected to the derived current position by a straight line. As a result, a plurality of equations with the current position as an unknown are obtained based on the first point and the second point, and the present invention can more easily derive the current position of the unmanned traveling vehicle.

また、本発明は、前記複数の第1点及び前記複数の第2点を、各々6カ所以上としてもよい。   In the present invention, the plurality of first points and the plurality of second points may each be 6 or more.

本発明によれば、複数の第1点及び複数の第2点を、各々6カ所以上とするので、xyz座標系において、18個以上の方程式が得られ、現在位置と共に無人走行車両の移動している方位等を導出できる。   According to the present invention, since the plurality of first points and the plurality of second points are each 6 or more, 18 or more equations are obtained in the xyz coordinate system, and the unmanned traveling vehicle moves together with the current position. It is possible to derive the orientation and the like.

また、本発明は、前記撮影手段が、前記無人走行車両が走行している間に、予め定められた同一の対象物が撮影画像のほぼ中央に位置するように所定の撮影区間毎に撮影を行い、前記計測手段が、前記撮影手段による所定の撮影区間毎の撮影で取得された複数の撮影画像に基づいて三角測量を行うことで、前記無人走行車両の移動量を計測してもよい。   In the present invention, the photographing unit may perform photographing for each predetermined photographing section so that the same predetermined object is located at substantially the center of the photographed image while the unmanned traveling vehicle is traveling. And the measurement unit may measure the amount of movement of the unmanned traveling vehicle by performing triangulation based on a plurality of captured images acquired by photographing for each predetermined photographing section by the photographing unit.

本発明によれば、無人走行車両が有する撮影手段が、無人走行車両が走行している間に、予め定められた同一の対象物が撮影画像のほぼ中央に位置するように所定の撮影区間毎に撮影を行う。そして、計測手段が、撮影手段による所定の撮影区間毎の撮影で取得された複数の撮影画像に基づいて三角測量を行うことで、無人走行車両の移動量を計測するので、本発明は、無人走行車両で得られた情報のみから、簡易に無人走行車両の移動量を計測することができる。   According to the present invention, the photographing means included in the unmanned traveling vehicle is provided for each predetermined photographing section so that the same predetermined object is positioned substantially at the center of the photographed image while the unmanned traveling vehicle is traveling. Take a photo. Then, the measurement means measures the amount of movement of the unmanned traveling vehicle by performing triangulation based on a plurality of photographed images acquired by photographing for each predetermined photographing section by the photographing means. The amount of movement of the unmanned traveling vehicle can be easily measured from only the information obtained from the traveling vehicle.

また、本発明は、前記計測手段が、前記無人走行車両の車輪の回転数を検知する回転数検知手段及び前記無人走行車両に働く慣性力を検知する慣性力検知手段の少なくとも一方を含んでもよい。   In the present invention, the measurement unit may include at least one of a rotation number detection unit that detects a rotation number of a wheel of the unmanned traveling vehicle and an inertial force detection unit that detects an inertial force acting on the unmanned traveling vehicle. .

本発明によれば、計測手段を、無人走行車両の車輪の回転数を検知する回転数検知手段及び無人走行車両に働く慣性力を検知する慣性力検知手段の少なくとも一方とするので、本発明は、無人走行車両で得られた情報のみから、簡易に無人走行車両の移動量を計測することができる。   According to the present invention, the measuring means is at least one of a rotational speed detecting means for detecting the rotational speed of the wheel of the unmanned traveling vehicle and an inertial force detecting means for detecting an inertial force acting on the unmanned traveling vehicle. The amount of movement of the unmanned traveling vehicle can be easily measured from only the information obtained from the unmanned traveling vehicle.

また、本発明は、前記計測手段が、テレセントリックレンズを備えた第2撮影手段を含み、該第2撮影手段によって連続して撮影された撮影画像に基づいて、前記無人走行車両の移動量を計測してもよい。   According to the present invention, the measuring unit includes a second photographing unit including a telecentric lens, and the movement amount of the unmanned traveling vehicle is measured based on the captured images continuously photographed by the second photographing unit. May be.

本発明によれば、計測手段を、テレセントリックレンズを備えた第2撮影手段とし、該第2撮影手段によって連続して撮影された撮影画像に基づいて、無人走行車両の移動量が計測される。これによって、本発明は、無人走行車両で得られた情報のみから、簡易に無人走行車両の移動量を計測することができる。   According to the present invention, the measuring means is the second photographing means provided with the telecentric lens, and the movement amount of the unmanned traveling vehicle is measured based on the photographed images continuously photographed by the second photographing means. Thus, the present invention can easily measure the movement amount of the unmanned traveling vehicle from only the information obtained from the unmanned traveling vehicle.

また、本発明は、前記計測手段が、前記無人走行車両の車輪の回転数を検知する回転数検知手段を含み、該回転数検知手段による前記無人走行車両の移動量の計測、及び前記第2撮影手段によって撮影された撮影画像に基づいた前記無人走行車両の移動量の計測のうち、より計測誤差が小さい計測を行ってもよい。   Further, in the present invention, the measurement unit includes a rotation number detection unit that detects a rotation number of a wheel of the unmanned traveling vehicle, the measurement of the movement amount of the unmanned traveling vehicle by the rotation number detection unit, and the second Of the measurement of the movement amount of the unmanned traveling vehicle based on the photographed image photographed by the photographing means, measurement with a smaller measurement error may be performed.

本発明によれば、回転数検知手段による前記無人走行車両の移動量の計測、及び第2撮影手段によって撮影された撮影画像に基づいた無人走行車両の移動量の計測のうち、より計測誤差の小さい計測が行われるので、本発明は、無人走行車両で得られた情報のみから、無人走行車両の移動量をより精度高く計測することができる。   According to the present invention, of the measurement of the movement amount of the unmanned traveling vehicle by the rotational speed detection means and the measurement of the movement amount of the unmanned traveling vehicle based on the photographed image photographed by the second photographing means, the measurement error is further reduced. Since small measurement is performed, the present invention can measure the movement amount of the unmanned traveling vehicle with higher accuracy only from the information obtained by the unmanned traveling vehicle.

一方、上記課題を解決するために、本発明の誘導方法は以下の手段を採用する。   On the other hand, in order to solve the above problems, the guiding method of the present invention employs the following means.

すなわち、本発明に係る誘導方法は、被写体を撮影する撮影手段、及び自身の移動量を計測する計測手段を有し、前記計測手段によって自身の移動量を計測しながら目標地点へ移動する無人走行車両の誘導方法であって、前記無人走行車両が移動する移動領域を平面で示した平面画像から指定された目標地点を前記無人走行車両へ送信する第1工程と、前記撮影手段によって撮影された撮影画像から前記撮影手段の撮影面における複数の第1点、及び前記平面画像から前記移動領域における複数の第2点を、前記複数の第1点と前記複数の第2点とが各々対応し、かつ対応する該第1点及び該第2点が前記無人走行車両の現在位置と直線で結ばれる位置関係となるように指定する第2工程と、前記複数の第1点と前記複数の第2点に基づいて、前記撮影手段の中心の絶対座標を導出し、該中心を前記無人走行車両の現在位置する第工程と、前記第工程で導出された現在位置を起点として、前記無人走行車両が前記計測手段による現在位置の計測を行いつつ目標地点へ向けて走行している途中で、前記計測手段による計測誤差の累積値が所定値に達した場合に該累積値をリセットし、前記撮影手段によって新たに撮影された撮影画像から指定された複数の第1点、及び前記平面画像から指定された複数の第2点に基づいて前記無人走行車両の現在位置を再び導出する第工程と、を含む。 That is, the guidance method according to the present invention includes an imaging unit that captures a subject and a measurement unit that measures the amount of movement of the subject, and the unmanned traveling moves to a target point while measuring the amount of movement of the subject by the measurement unit. A method for guiding a vehicle, the first step of transmitting to the unmanned traveling vehicle a target point designated from a planar image showing a moving area in which the unmanned traveling vehicle moves in a plane, and photographed by the photographing means a plurality of first point in the imaging plane of the imaging unit from the captured image, and said plurality of second points from the plane image in the moving area, the plurality of first point and the plurality of second points each corresponding to And a second step of designating the corresponding first point and the second point to be in a positional relationship in which the current position of the unmanned traveling vehicle is connected by a straight line, the plurality of first points, and the plurality of first points based on the 2-point Wherein deriving the absolute coordinates of the center of the imaging means, and a third step of the said center and a current position of the unmanned vehicle, starting from the current position derived in the third step, the unmanned vehicle is the measurement If the accumulated value of the measurement error by the measuring means reaches a predetermined value while traveling toward the target point while measuring the current position by the means, the accumulated value is reset, and the photographing means newly And a fourth step of deriving the current position of the unmanned traveling vehicle again based on a plurality of first points designated from the photographed image taken on the basis of and a plurality of second points designated from the planar image. .

本発明によれば、無人走行車両の現在位置を計測する計測手段の累積誤差が所定値に達した場合に、無人走行車両が有する撮影手段で撮影された撮影画像から指定された複数の第1点、及び平面画像から指定された複数の第2点に基づいて無人走行車両の現在位置を導出する。これにより、本発明は、計測手段による累積誤差をリセットすることができ、その結果、GPSが使用できない場所でも無人走行車両を精度良く目標地点へ到達させることができる。   According to the present invention, when the cumulative error of the measuring unit that measures the current position of the unmanned traveling vehicle reaches a predetermined value, the plurality of first images specified from the captured images captured by the capturing unit included in the unmanned traveling vehicle. The current position of the unmanned traveling vehicle is derived based on the points and the plurality of second points designated from the planar image. Thereby, this invention can reset the accumulation error by a measurement means, As a result, an unmanned traveling vehicle can be made to reach | attain a target point accurately also in the place where GPS cannot be used.

本発明によれば、GPSが使用できない場所でも無人走行車両を精度良く目標地点へ到達させることができる、という優れた効果を有する。   According to the present invention, there is an excellent effect that an unmanned traveling vehicle can accurately reach a target point even in a place where GPS cannot be used.

本発明の第1実施形態に係る無人走行車両誘導システムの模式図である。1 is a schematic diagram of an unmanned traveling vehicle guidance system according to a first embodiment of the present invention. 本発明の第1実施形態に係る誘導装置の電気的構成を示す模式図である。It is a mimetic diagram showing the electric composition of the guidance device concerning a 1st embodiment of the present invention. 本発明の第1実施形態に係る無人走行車両の電気的構成を示す模式図である。It is a mimetic diagram showing the electric composition of the unmanned traveling vehicle concerning a 1st embodiment of the present invention. 本発明の第1実施形態に係る走行誘導プログラムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the driving | running | working guidance program which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る無人走行車両の移動環境を示す模式図である。It is a schematic diagram which shows the movement environment of the unmanned traveling vehicle which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る無人走行車両の現在位置を計測するための教示点を示す模式図である。It is a schematic diagram which shows the teaching point for measuring the present position of the unmanned traveling vehicle which concerns on 1st Embodiment of this invention. 本発明の本発明の第1実施形態に係る教示点から無人走行車両の現在位置の導出の説明に要する模式図である。It is a schematic diagram required for description of derivation | leading-out of the present position of an unmanned traveling vehicle from the teaching point which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る無人走行車両の走行経路を示す模式図である。It is a schematic diagram which shows the driving | running route of the unmanned driving vehicle which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る無人走行車両が自律走行しながらカメラで撮影する範囲を示す模式図である。It is a schematic diagram which shows the range which the unmanned traveling vehicle which concerns on 1st Embodiment of this invention image | photographs with a camera, carrying out autonomous traveling. 本発明の第1実施形態に係る無人走行車両で連続して撮影された画像の一例を示す図である。It is a figure which shows an example of the image continuously image | photographed with the unmanned traveling vehicle which concerns on 1st Embodiment of this invention. 本発明の第2実施形態に係る無人走行車両の電気的構成を示す模式図である。It is a schematic diagram which shows the electrical structure of the unmanned traveling vehicle which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る移動量センサの構成を示す模式図である。It is a schematic diagram which shows the structure of the movement amount sensor which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る無人走行車両の移動面の傾斜角に対するオドメトリ及び移動量センサの計測誤差の変化を示すグラフである。It is a graph which shows the change of the measurement error of the odometry and movement amount sensor with respect to the inclination angle of the moving surface of the unmanned traveling vehicle which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る切替処理における走行距離の測定誤差を示すグラフである。It is a graph which shows the measurement error of the travel distance in the switching processing concerning a 3rd embodiment of the present invention.

以下に、本発明に係る無人走行車両の誘導装置の一実施形態について、図面を参照して説明する。   Hereinafter, an embodiment of a guidance device for an unmanned traveling vehicle according to the present invention will be described with reference to the drawings.

〔第1実施形態〕
以下、本発明の第1実施形態について説明する。
[First Embodiment]
The first embodiment of the present invention will be described below.

図1に無人走行車両誘導システム1の模式図を示す。   FIG. 1 shows a schematic diagram of an unmanned traveling vehicle guidance system 1.

無人走行車両誘導システム1は、誘導装置10及び無人走行車両15を備えている。   The unmanned traveling vehicle guidance system 1 includes a guidance device 10 and an unmanned traveling vehicle 15.

誘導装置10は、無人走行車両15の走行を誘導するための各種情報を無人走行車両15に向けて送信する。また、無人走行車両15は、無人で地面を走行する車両であり、誘導装置10から送信される情報に基づいて自律走行する。なお、本第1実施形態では、図1に示すように無人走行車両15は、地球とは異なる星(衛星、惑星、彗星等、図1では一例として月)を走行し、誘導装置10は、地球上に配置される。   The guidance device 10 transmits various information for guiding the traveling of the unmanned traveling vehicle 15 toward the unmanned traveling vehicle 15. The unmanned traveling vehicle 15 is a vehicle that travels unmanned on the ground, and autonomously travels based on information transmitted from the guidance device 10. In the first embodiment, as shown in FIG. 1, the unmanned traveling vehicle 15 travels on a star (satellite, planet, comet, etc., moon as an example in FIG. 1) different from the earth. Located on the earth.

図2は、誘導装置10の電気的構成を示すブロック図である。   FIG. 2 is a block diagram showing an electrical configuration of the guidance device 10.

誘導装置10は、誘導装置10全体の動作を司るCPU(Central Processing Unit)12、各種プログラムや各種パラメータ等が予め記憶されたROM(Read Only Memory)14、CPU12による各種プログラムの実行時のワークエリア等として用いられるRAM(Random Access Memory)16、詳細を後述する走行誘導プログラム等の各種プログラム及び各種情報を記憶する記憶手段としてのHDD(Hard Disk Drive)18を備えている。   The guidance device 10 includes a CPU (Central Processing Unit) 12 that controls the operation of the guidance device 10 as a whole, a ROM (Read Only Memory) 14 in which various programs and various parameters are stored in advance, and a work area when the CPU 12 executes various programs. A RAM (Random Access Memory) 16 used as a storage device, a variety of programs such as a travel guidance program, which will be described in detail later, and a hard disk drive (HDD) 18 as storage means for storing various information.

さらに、誘導装置10は、キーボード及びマウス等から構成され、各種操作の入力を受け付ける操作入力部20、各種画像を表示する画像表示部22、並びに無人走行車両15との各種情報の送受信を行う送受信部24を備えている。   Further, the guidance device 10 is configured by a keyboard, a mouse, and the like, and an operation input unit 20 that receives input of various operations, an image display unit 22 that displays various images, and transmission / reception that transmits and receives various information to and from the unmanned traveling vehicle 15 The unit 24 is provided.

なお、誘導装置10のオペレータは、操作入力部20を操作することによって、無人走行車両15を自律走行させるために必要な各種情報を入力する。   The operator of the guidance device 10 operates the operation input unit 20 to input various information necessary for causing the unmanned traveling vehicle 15 to autonomously travel.

これらCPU12、ROM14、RAM16、HDD18、操作入力部20、画像表示部22、及び外部インタフェース24は、システムバス30を介して相互に電気的に接続されている。従って、CPU12は、ROM14、RAM16、及びHDD18へのアクセス、操作入力部20に対する操作状態の把握、画像表示部22に対する各種の画像の表示、並びに送受信部24を介した無人走行車両15との各種情報の送受信等を各々行なうことができる。   The CPU 12, ROM 14, RAM 16, HDD 18, operation input unit 20, image display unit 22, and external interface 24 are electrically connected to each other via a system bus 30. Therefore, the CPU 12 accesses the ROM 14, the RAM 16, and the HDD 18, grasps the operation state with respect to the operation input unit 20, displays various images on the image display unit 22, and various types with the unmanned traveling vehicle 15 through the transmission / reception unit 24. Information can be transmitted and received.

図3は、無人走行車両15の電気的構成を示すブロック図である。   FIG. 3 is a block diagram showing an electrical configuration of the unmanned traveling vehicle 15.

無人走行車両15は、無人走行車両15全体の動作を司る制御部40、被写体を撮影するカメラ42、無人走行車両15の車輪の回転数を検知する車輪回転数センサ44、無人走行車両15に働く慣性力を検知する慣性センサ46、並びに磁気記憶装置又は半導体記憶装置で構成され、各種情報を記憶する記憶部48を備えている。   The unmanned traveling vehicle 15 works on the control unit 40 that controls the operation of the entire unmanned traveling vehicle 15, the camera 42 that captures the subject, the wheel rotational speed sensor 44 that detects the rotational speed of the wheel of the unmanned traveling vehicle 15, and the unmanned traveling vehicle 15. An inertial sensor 46 that detects an inertial force, and a storage unit 48 that includes a magnetic storage device or a semiconductor storage device and stores various types of information.

なお、カメラ42で取得された画像は、無人走行車両15の移動量及び現在位置を計測するために用いられ、車輪回転数センサ44で取得された回転数は、無人走行車両15の移動量を計測するために用いられ、慣性センサ46で取得された慣性力は、無人走行車両15が移動している方位(以下、「移動方位」という。)と姿勢を計測するために用いられる。また、カメラ42で撮影した画像を示す画像情報、車輪回転数センサ44、及び慣性センサ46の検知結果を示す情報は、誘導装置10から送信された情報と共に記憶部48に記憶される。   The image acquired by the camera 42 is used to measure the movement amount and the current position of the unmanned traveling vehicle 15, and the rotation speed acquired by the wheel rotation number sensor 44 represents the movement amount of the unmanned traveling vehicle 15. The inertial force used for measurement and acquired by the inertial sensor 46 is used for measuring the direction in which the unmanned traveling vehicle 15 is moving (hereinafter referred to as “movement direction”) and the posture. In addition, image information indicating an image captured by the camera 42, information indicating detection results of the wheel rotation number sensor 44, and the inertial sensor 46 are stored in the storage unit 48 together with information transmitted from the guidance device 10.

さらに、無人走行車両15は、誘導装置10との各種情報の送受信を行う送受信部50、及び不図示の操舵輪及び駆動輪に機械的に結合されたモータを有する駆動部52を備えている。   Further, the unmanned traveling vehicle 15 includes a transmission / reception unit 50 that transmits and receives various types of information to and from the guidance device 10 and a drive unit 52 that includes a motor that is mechanically coupled to steering wheels and drive wheels (not shown).

これら制御部40、車輪回転数センサ44、慣性センサ46、記憶部48、送受信部50、及び駆動部52は、システムバス54を介して相互に電気的に接続されている。従って、制御部40は、車輪回転数センサ44及び慣性センサ46に対する制御、記憶部48へのアクセス、送受信部50を介した誘導装置10との各種情報の送受信、並びに駆動部52を介した操舵輪及び駆動輪の制御等を各々行ない、無人走行車両15を自律走行させる。   The control unit 40, wheel rotation number sensor 44, inertial sensor 46, storage unit 48, transmission / reception unit 50, and drive unit 52 are electrically connected to each other via a system bus 54. Therefore, the control unit 40 controls the wheel speed sensor 44 and the inertial sensor 46, accesses the storage unit 48, transmits / receives various information to / from the guidance device 10 via the transmission / reception unit 50, and steers via the drive unit 52. The wheel and the drive wheel are controlled, and the unmanned traveling vehicle 15 is autonomously traveled.

このように、無人走行車両誘導システム1では、無人走行車両15は、カメラ42、車輪回転数センサ44、及び慣性センサ46等の計測機器で取得した情報を、送受信部50を介して誘導装置10へ送信する。そして、誘導装置10は送受信部24を介して受信した無人走行車両15からの情報に基づいた無人走行車両15を誘導するための情報を、無人走行車両15に送信する走行誘導処理を行う。   As described above, in the unmanned traveling vehicle guidance system 1, the unmanned traveling vehicle 15 uses the guidance device 10 to transmit information acquired by the measuring device such as the camera 42, the wheel rotation number sensor 44, and the inertial sensor 46 via the transmission / reception unit 50. Send to. Then, the guidance device 10 performs a traveling guidance process for transmitting information for guiding the unmanned traveling vehicle 15 based on the information from the unmanned traveling vehicle 15 received via the transmission / reception unit 24 to the unmanned traveling vehicle 15.

次に、本第1実施形態に係る誘導装置10の作用を説明する。   Next, the operation of the guidance device 10 according to the first embodiment will be described.

図4は、誘導装置10が走行誘導処理を行うために、CPU12によって実行される走行誘導プログラムの処理の流れを示すフローチャートであり、該走行誘導プログラムはHDD18の所定領域に予め記憶されている。   FIG. 4 is a flowchart showing the flow of a travel guidance program executed by the CPU 12 in order for the guidance device 10 to perform the travel guidance process. The travel guidance program is stored in a predetermined area of the HDD 18 in advance.

まず、ステップ100では、無人走行車両15の誘導に要する所定の初期条件を設定する。上記初期条件とは、詳細を後述するカメラ42で取得した画像を用いた三角測量による無人走行車両15の移動量の計測を実行する距離間隔(以下、「測量実行間隔T」という。)であり、無人走行車両15の移動量を計測する計測手段(本第1実施形態では、車輪回転数センサ44、慣性センサ46、及び詳細を後述するバンドル標定処理)の累積誤差をリセットする間隔(以下、「誤差リセット間隔T」という。)である。そして、上記各初期条件は、誘導装置10の操作入力部20を介してオペレータにより入力される。誤差リセット間隔Tは、無人走行車両15の移動量の測定に対して要求される精度から決定される。 First, in step 100, predetermined initial conditions required for guiding the unmanned traveling vehicle 15 are set. The initial condition is a distance interval (hereinafter referred to as “surveying execution interval T A ”) in which the movement amount of the unmanned traveling vehicle 15 is measured by triangulation using an image acquired by the camera 42 described in detail later. Yes, an interval for resetting the accumulated error of the measuring means for measuring the movement amount of the unmanned traveling vehicle 15 (in the first embodiment, the wheel rotation speed sensor 44, the inertial sensor 46, and the bundle orientation processing described in detail later) , Referred to as “error reset interval T B ”). The initial conditions are input by the operator via the operation input unit 20 of the guidance device 10. Error reset interval T B is determined from the accuracy required for the measurement of the amount of movement of the unmanned vehicle 15.

なお、計測手段の誤差は、予め試験により計測されている。そして、計測手段の誤差は、無人走行車両15の走行距離に応じて累積されるため、無人走行車両15の走行距離に対する累積誤差の大きさに基づいて誤差リセット間隔Tは決定される。 Note that the error of the measuring means is measured in advance by a test. Then, the error of the measuring means, to be accumulated in accordance with a running distance of the unmanned vehicle 15, the error reset interval T B based on the magnitude of the accumulated error with respect to the travel distance of the unmanned vehicle 15 is determined.

次のステップ102では、無人走行車両15の現在位置を導出する。   In the next step 102, the current position of the unmanned traveling vehicle 15 is derived.

ここで、ステップ102で実行される無人走行車両15の現在位置の導出方法について説明する。   Here, a method for deriving the current position of the unmanned traveling vehicle 15 executed in step 102 will be described.

図5に、無人走行車両15の移動環境の模式図を示す。図5に示すように無人走行車両15は、複数の物体(石、岩等の自然物及び人工物)がある地面を走行する。   In FIG. 5, the schematic diagram of the movement environment of the unmanned traveling vehicle 15 is shown. As shown in FIG. 5, the unmanned traveling vehicle 15 travels on the ground where there are a plurality of objects (natural objects such as stones and rocks and artificial objects).

そして、誘導装置10は、図5に示されるような地面を走行する無人走行車両15の現在位置を、カメラ42によって撮影された撮影画像から指定された複数の教示点P、及び無人走行車両15が移動する移動領域を平面で示した平面画像(以下、「移動地図」という。)から指定された複数の教示点Qに基づいて導出する(以下、「教示点指定方法」という。)。すなわち、ステップ102で導出された現在位置が無人走行車両15の初期位置となる。また、移動地図は、予めHDD18に記憶されており、移動地図としては、無人走行車両15の移動領域を事前に真上から撮影した衛星画像(無人車両は写っていない。)、無人走行車両15を月へ輸送するための不図示の輸送用機体によって、月への着陸前に撮影された画像等を用いる。 Then, the guidance device 10 indicates the current position of the unmanned traveling vehicle 15 traveling on the ground as shown in FIG. 5, a plurality of teaching points P n designated from the captured image captured by the camera 42, and the unmanned traveling vehicle. planar image showing the moving region 15 moves in a plane (hereinafter, "moving map" hereinafter.) derived based on the specified plurality of teaching point Q n from (hereinafter, "the teaching point specification method".) . That is, the current position derived in step 102 becomes the initial position of the unmanned traveling vehicle 15. The moving map is stored in advance in the HDD 18, and as the moving map, a satellite image obtained by photographing the moving area of the unmanned traveling vehicle 15 from directly above (the unmanned vehicle is not shown), the unmanned traveling vehicle 15. An image or the like taken before landing on the moon is used by a transport aircraft (not shown) for transporting the moon to the moon.

以下に、教示点指定方法についてより詳細に説明する。   Hereinafter, the teaching point designation method will be described in more detail.

まず、オペレータが、画像表示部22に表示された移動地図及び無人走行車両15から送信されたカメラ42で取得された撮影画像から、対応する教示点P,Qを指定する。ここでいう、対応する教示点P,Qとは、無人走行車両15の導出される現在位置と教示点Pと教示点Qとが直線で結ばれる位置関係とされることをいう。 First, the operator designates corresponding teaching points P n and Q n from the moving map displayed on the image display unit 22 and the captured image acquired by the camera 42 transmitted from the unmanned traveling vehicle 15. Here, the corresponding teaching points P n and Q n mean that the current position derived from the unmanned traveling vehicle 15 is in a positional relationship where the teaching point P n and the teaching point Q n are connected by a straight line. .

図6(A)は、撮影画像で指定された教示点Pを示し、図6(B)は、移動地図で指定された教示点Qを示す。図6(A),(B)の例では、教示点P,Qが各々3個ずつしか示されていないが、本第1実施形態では、教示点P,Qを各々6(n=1,2,・・・,6)個ずつ指定する。 FIG. 6A shows the teaching point P n specified in the captured image, and FIG. 6B shows the teaching point Q n specified in the moving map. In the example of FIGS. 6A and 6B, only three teaching points P n and Q n are shown, but in the first embodiment, teaching points P n and Q n are set to 6 ( n = 1, 2,..., 6) are designated one by one.

また、本第1実施形態では、オペレータが、移動地図及び撮影画像を表示した画像表示部22の画面上で、対応する教示点P,Qをマウスでポインティングすることで指定する。しかし、これに限らず、誘導装置10が、教示点P,Qを指定するために予め設定された条件に基づいて移動地図及び撮影画像から教示点を自動的に指定してもよい。 In the first embodiment, the operator designates the corresponding teaching points P n and Q n by pointing with the mouse on the screen of the image display unit 22 on which the moving map and the captured image are displayed. However, the present invention is not limited to this, and the guidance device 10 may automatically specify the teaching point from the moving map and the captured image based on conditions set in advance in order to specify the teaching points P n and Q n .

そして、図7に示すように、カメラ42の中心(以下、「カメラ中心」という。)をC(X,Y,Z)とすると、撮影画像上での教示点Pと移動地図上での教示点Qは、同じ光軸上にあることから、スケール係数Kを用いることによって、教示点Pと教示点Qとは下記(1)式のように表される。なお、カメラ中心C(X,Y,Z)は、無人走行車両15の現在位置を示しており未知数であり、スケール係数Kも、未知数である。また、移動地図は、平面画像であるため、移動地図上での教示点Qの高さを示すZ座標の値も未知数である。

Figure 0005610870
As shown in FIG. 7, if the center of the camera 42 (hereinafter referred to as “camera center”) is C (X c , Y c , Z c ), the teaching point P n on the captured image and the moving map are displayed. Since the above teaching point Q n is on the same optical axis, the teaching point P n and the teaching point Q n are expressed by the following equation (1) by using the scale factor K n . The camera center C (X c, Y c, Z c) are unknown indicates the current position of the unmanned vehicle 15, the scale factor K n are also unknown. The mobile maps are the planar image, the value of Z coordinates indicating the height of the teaching point Q n on moving map is also unknown.
Figure 0005610870

そして、絶対座標系での撮影画像の教示点Pは、下記(2)式のように表される。なお、(2)式において、pnは、カメラ42における座標系(以下、「カメラ座標系」という。)での撮影画像の教示点、Txyzは、下記(3)式で表される並行移動行列、Rxyzは、下記(4)式で表される回転行列である。また、θ,θ,θがカメラ42の姿勢、すなわち、無人走行車両15の姿勢を示しており未知数である。

Figure 0005610870
Figure 0005610870
Figure 0005610870
Then, the teaching point P n of the captured image in the absolute coordinate system is expressed as the following equation (2). In Equation (2), pn is a teaching point of a captured image in the coordinate system (hereinafter referred to as “camera coordinate system”) in the camera 42, and T xyz is a parallel expression represented by Equation (3) below. The movement matrix, R xyz, is a rotation matrix represented by the following equation (4). Further, θ x , θ y , and θ z indicate the posture of the camera 42, that is, the posture of the unmanned traveling vehicle 15, and are unknown numbers.
Figure 0005610870
Figure 0005610870
Figure 0005610870

また、カメラ42の焦点距離をfとし、カメラ42の1画素当たりの受光素子(例えば、CCD)のサイズをs,sとし、撮影画面上の各教示点をi、jとすると、座標系pは、下記(5)式のように表される。

Figure 0005610870
Also, assuming that the focal length of the camera 42 is f, the size of the light receiving element (for example, CCD) of the camera 42 is s y , s z, and each teaching point on the shooting screen is i, j, the coordinates The system pn is represented by the following formula (5).
Figure 0005610870

そして、(1)式を展開すると、(2)式に示すように教示点の合計個に対して、x,y,z座標に関する3個の方程式を得る。一方で未知数は上述したように、カメラ42の位置X,Y,Zとカメラ42の姿勢θ、θ、θとの6個に加え、スケール係数Kn(n個)及び移動地図上での教示点z座標(n個)の合計6+2n個となる。従って、6点(n≧6)以上の教示点を指定することによって、得られる方程式が未知数を上回り、無人走行車両15の現在位置を示すカメラ42の現在位置が、無人走行車両15の姿勢を示すカメラ42の姿勢と共に導出される。 When the expression (1) is expanded, 3 n equations relating to the x, y, and z coordinates are obtained for the total n teaching points as shown in the expression (2). On the other hand, as described above, the unknowns include, in addition to the six positions X c , Y c , Z c of the camera 42 and the postures θ x , θ y , θ z of the camera 42, a scale factor K n (n) and The total number of teaching points z coordinates (n) on the moving map is 6 + 2n. Therefore, by specifying 6 teaching points (n ≧ 6) or more, the obtained equation exceeds the unknown, and the current position of the camera 42 indicating the current position of the unmanned traveling vehicle 15 indicates the attitude of the unmanned traveling vehicle 15. It is derived together with the posture of the camera 42 shown.

次のステップ104では、オペレータによる、無人走行車両15を自律走行によって到達させる目標地点、及び目標地点に到達させる前に経由させる経由地点の指定を、操作入力部20を介して受け付ける。   In the next step 104, the designation of the target point by which the unmanned traveling vehicle 15 arrives by autonomous traveling and the waypoint to be routed before reaching the target point by the operator is accepted via the operation input unit 20.

なお、オペレータによる目標地点及び経由地点の指定は、誘導装置10の画像表示部22に表示された移動地図上で、操作入力部20を介して受け付けられる。なお、オペレータは、少なくとも目標地点を指定すればよく、必ずしも経由地点を指定する必要はない。   The designation of the target point and the waypoint by the operator is received via the operation input unit 20 on the moving map displayed on the image display unit 22 of the guidance device 10. The operator only needs to specify at least the target point, and does not necessarily specify the waypoint.

次のステップ106では、無人走行車両15の目標地点へ向けた自律走行の開始指示(以下、「走行開始信号」という。)を、送受信部24を介して無人走行車両15に送信する。なお、CPU12は、操作入力部20を介したオペレータによる走行開始信号を無人走行車両15に送信する旨の入力があった場合に、走行開始信号を無人走行車両15に送信する。また、ステップ100で設定された測量実行間隔T及び誤差リセット間隔T、ステップ102で計測された無人走行車両15の現在位置、並びにステップ104で設定された目標地点及び経由地点が、走行開始信号と共に送受信部24を介して誘導装置10から無人走行車両15に送信される。無人走行車両15は、誘導装置10から送信された測量実行間隔T、誤差リセット間隔T、現在位置、目標地点、及び経由地点を受信すると、これらを記憶部48に記憶する。 In the next step 106, an instruction to start autonomous driving toward the target point of the unmanned traveling vehicle 15 (hereinafter referred to as “traveling start signal”) is transmitted to the unmanned traveling vehicle 15 via the transmission / reception unit 24. The CPU 12 transmits a travel start signal to the unmanned travel vehicle 15 when there is an input for transmitting a travel start signal by the operator to the unmanned travel vehicle 15 via the operation input unit 20. Also, the set survey execution interval T A and the error reset interval T B in step 100, the current position of the unmanned vehicle 15 measured in step 102, and the target point and the transit point set in step 104, starts running Along with the signal, the signal is transmitted from the guidance device 10 to the unmanned traveling vehicle 15 through the transmission / reception unit 24. When the unmanned traveling vehicle 15 receives the surveying execution interval T A , the error reset interval T B , the current position, the target location, and the waypoint transmitted from the guidance device 10, these are stored in the storage unit 48.

そして、無人走行車両15は、誘導装置10から送信された走行開始信号を受信すると、目標地点へ向けて自律走行を開始する。   When the unmanned traveling vehicle 15 receives the traveling start signal transmitted from the guidance device 10, the unmanned traveling vehicle 15 starts autonomous traveling toward the target point.

ここで、無人走行車両15の自律走行について説明する。   Here, the autonomous traveling of the unmanned traveling vehicle 15 will be described.

まず、無人走行車両15は、走行開始信号と共に誘導装置10から送信された現在位置情報、目標地点、及び経由地点に基づいて、図8に示すように現在位置を起点として、経由地点、及び目標地点を結ぶ走行経路を生成する。   First, based on the current position information, the target point, and the waypoint transmitted from the guidance device 10 together with the travel start signal, the unmanned traveling vehicle 15 starts from the current position as shown in FIG. A travel route connecting points is generated.

そして、無人走行車両15は、車輪回転数センサ44によって検知された回転数の値を積分することによって無人走行車両15の移動量を計測し、慣性センサ46によって検知された慣性力の値を積分することによって無人走行車両15の方位と姿勢を計測しながら生成した走行経路に沿うように自律走行を行う。なお、無人走行車両15は、車輪回転数センサ44で計測された移動量、及び慣性センサ46で計測された方位に基づいて座標変換することによって、自身の現在位置を導出する。また、無人走行車両15は、自身の移動距離を距離カウントA及び距離カウントBとしてカウントする。   The unmanned traveling vehicle 15 measures the amount of movement of the unmanned traveling vehicle 15 by integrating the value of the rotational speed detected by the wheel rotational speed sensor 44, and integrates the value of the inertial force detected by the inertial sensor 46. By doing so, autonomous travel is performed along the travel route generated while measuring the direction and orientation of the unmanned travel vehicle 15. The unmanned traveling vehicle 15 derives its current position by performing coordinate conversion based on the amount of movement measured by the wheel rotation number sensor 44 and the direction measured by the inertial sensor 46. Further, the unmanned traveling vehicle 15 counts its travel distance as a distance count A and a distance count B.

さらに、無人走行車両15は、図9に示すように、自律走行を行っている間、予め定められた同一の対象物が画像のほぼ中央(撮影中心)に位置するように所定の撮影区間毎に撮影を行い、撮影により取得した画像を示す画像情報を送受信部50を介して誘導装置10へ送信する。なお、自律走行中の無人走行車両15は、同一対象物が撮影中心に来るようカメラ42の向きを変え、且つ各画像の重複が大きくなるように所定の撮影区間毎に画像を撮影する。   Further, as shown in FIG. 9, the unmanned traveling vehicle 15 is arranged for each predetermined shooting section so that the same predetermined object is positioned at the approximate center (shooting center) of the image while performing autonomous driving. The image information indicating the image acquired by the imaging is transmitted to the guidance device 10 via the transmission / reception unit 50. The unmanned traveling vehicle 15 that is traveling autonomously changes the direction of the camera 42 so that the same object comes to the center of photographing, and takes an image for each predetermined photographing section so that overlapping of each image becomes large.

上記所定の撮影区間とは、換言すると、図9に示すように、無人走行車両15の移動量の間隔を示すが、該撮影区間の長さは、カメラ42の解像度によって予め設定されている。具体的には、解像度が低いほど、カメラ42は、遠方を見渡せないため、撮影区間を短く設定する。   In other words, as shown in FIG. 9, the predetermined shooting section indicates an interval of the movement amount of the unmanned traveling vehicle 15, and the length of the shooting section is set in advance by the resolution of the camera 42. Specifically, as the resolution is lower, the camera 42 cannot look far away, so the shooting section is set shorter.

また、無人走行車両15は、移動量、現在位置、及びカメラ42によって撮影された撮影画像等を、送受信部50を介して誘導装置10へ適宜送信している。   Further, the unmanned traveling vehicle 15 appropriately transmits the movement amount, the current position, a captured image captured by the camera 42, and the like to the guidance device 10 via the transmission / reception unit 50.

次のステップ108では、無人走行車両15が目標地点に到達したか否かを判定し、肯定判定の場合は、本プログラムを終了する一方、否定判定の場合は、ステップ110へ移行する。なお、無人走行車両15は、自身が目標地点に到達すると、目標地点に到達したことを示す到達信号を、送受信部50を介して誘導装置10へ送信する。そして、誘導装置10は、無人走行車両15から送信された到達信号を受信した場合に、無人走行車両15が目標地点に到達したと判定する。   In the next step 108, it is determined whether or not the unmanned traveling vehicle 15 has reached the target point. If the determination is affirmative, the program is terminated. If the determination is negative, the process proceeds to step 110. When the unmanned traveling vehicle 15 reaches the target point, the unmanned traveling vehicle 15 transmits an arrival signal indicating that the unmanned traveling vehicle 15 has reached the target point to the guidance device 10 via the transmission / reception unit 50. And the guidance apparatus 10 determines with the unmanned traveling vehicle 15 having reached | attained the target point, when the arrival signal transmitted from the unmanned traveling vehicle 15 is received.

ステップ110では、無人走行車両15の距離カウントAが測量実行間隔Tに達したか否かを判定し、肯定判定の場合は、ステップ112へ移行する一方、否定判定の場合は、ステップ108へ戻る。なお、無人走行車両15は、距離カウントAが測量実行間隔Tに達すると、測量実行間隔Tに達したことを示す間隔T到達信号を送受信部50を介して誘導装置10へ送信する。そして、誘導装置10は、無人走行車両15から送信された間隔T到達信号を受信した場合に、無人走行車両15の距離カウントAが測量実行間隔Tに達したと判定する。無人走行車両15は、測量実行間隔Tに達した場合には、移動を停止する。 At step 110, it is determined whether the distance count A of the unmanned vehicle 15 has reached the survey execution interval T A, the case of affirmative determination, the system control shifts to step 112, in the case of negative determination, to step 108 Return. Incidentally, unmanned vehicle 15, the distance count A reached survey execution interval T A, and transmits the interval T A arrival signal indicating that reached survey execution interval T A to the induction device 10 via the transceiver 50 . The guiding device 10 determines when receiving the interval T A arrival signal transmitted from the unmanned vehicle 15, and distance count A of the unmanned vehicle 15 has reached the survey execution interval T A. Unmanned vehicle 15, when it reaches the surveying execution interval T A stops moving.

次のステップ112では、自律走行中においてカメラ42による所定の撮影区間毎の撮影で取得された所定の撮影区間毎の撮影画像に基づいて三角測量(以下、「バンドル標定処理」と呼ぶ。)を行うことで、無人走行車両15の移動量(現在位置)を導出する。   In the next step 112, triangulation (hereinafter referred to as “bundle orientation processing”) is performed based on the photographed image for each predetermined photographing section acquired by photographing for each predetermined photographing section by the camera 42 during autonomous traveling. By doing so, the movement amount (current position) of the unmanned traveling vehicle 15 is derived.

オペレータは、操作入力部20及び自律走行中に撮影された複数枚の撮影画像が表示された画像表示部22を介して図10の例に示すように、各撮影画像における同一の対象点に同一の番号を付加することによって、複数枚の撮影画像の対応付けを行う。そして、誘導装置10は、撮影画像上で対応付けられた対象点の座標情報に基づいて、バンドル標定処理を行うことで、各撮影画像を撮影した無人走行車両15の現在位置(進行方向(図9のX方向)及びX方向に直交する方向(図9のY方向))を導出する。   As shown in the example of FIG. 10, the operator can identify the same target point in each captured image through the operation input unit 20 and the image display unit 22 on which a plurality of captured images captured during autonomous traveling are displayed. Is associated with a plurality of captured images. Then, the guidance device 10 performs bundle orientation processing based on the coordinate information of the target points associated with each other on the captured image, so that the current position of the unmanned traveling vehicle 15 that captured each captured image (traveling direction (see FIG. 9 X direction) and a direction orthogonal to the X direction (Y direction in FIG. 9)).

なお、バンドル標定処理では、各撮影画像の重複する撮影対象領域が大きいと、位置の推定誤差が小さくなるため、撮影画像は、各画像の重複が大きくなるように所定の撮影区間毎に撮影される。   Note that in the bundle orientation processing, if the area to be imaged in which each captured image overlaps is large, the position estimation error is reduced. Therefore, the captured image is captured for each predetermined imaging section so that the overlap between the images is increased. The

一方、カメラ42で所定の撮影区間毎に撮影された撮影画像からバンドル標定ができない場合(無人走行車両15の移動領域周辺が一様な地形のため、対応付けに用いる対象物が存在せず撮影画像毎の対応付けができない場合)は、バンドル標定は行われずに、車輪回転数センサ44及び慣性センサ46を用いた自律走行を行う。   On the other hand, in the case where bundle orientation cannot be performed from the photographed images photographed for each predetermined photographing section by the camera 42 (because the area around the moving area of the unmanned traveling vehicle 15 is uniform terrain, there is no target to be used for association and photographing is performed. When each image cannot be associated), bundle orientation is not performed, and autonomous traveling using the wheel rotational speed sensor 44 and the inertial sensor 46 is performed.

そして、誘導装置10は、無人走行車両15の移動量(現在位置)の計測が終了すると、計測結果である現在位置と共に移動を再開させるための走行開始信号を、送受信部24を介して無人走行車両15に送信する。無人走行車両15は、現在位置と共に走行開始信号を受信すると、受信した現在位置から目標地点までの走行経路を再び生成し、該走行経路に沿って自律走行を再開すると共に、距離カウントAをリセットし、新たに距離カウントAをカウントする。   Then, after the measurement of the movement amount (current position) of the unmanned traveling vehicle 15 is completed, the guidance device 10 transmits a traveling start signal for resuming movement together with the current position as a measurement result via the transmission / reception unit 24. It transmits to the vehicle 15. When the unmanned traveling vehicle 15 receives the travel start signal together with the current position, the unmanned traveling vehicle 15 again generates a travel route from the received current position to the target location, resumes autonomous travel along the travel route, and resets the distance count A. Then, a new distance count A is counted.

次のステップ114では、無人走行車両15の距離カウントBが誤差リセット間隔Tに達したか否かを判定し、肯定判定の場合は、ステップ116へ移行する一方、否定判定の場合は、ステップ108へ戻る。そして、無人走行車両15は、自身の距離カウントBが誤差リセット間隔Tに達すると、誤差リセット間隔Tに達したことを示す間隔T到達信号を、送受信部50を介して誘導装置10へ送信する。そして、誘導装置10は、無人走行車両15から送信された間隔T到達信号を受信した場合に、無人走行車両15の距離カウントBが誤差リセット間隔Tに達したと判定する。無人走行車両15は、誤差リセット間隔Tに達した場合には、移動を停止する。 In the next step 114, the distance count B of unmanned vehicle 15 determines whether it has reached the error reset interval T B, when the affirmative determination is the program shifts to step 116, in the case of negative determination, Step Return to 108. The unmanned vehicle 15, when the own distance count B reaches the error reset interval T B, the interval T B arrival signal indicating that you have reached the error reset interval T B, the induction device via the transceiver 50 10 Send to. The guiding device 10 determines when receiving the interval T B arrival signals transmitted from the unmanned vehicle 15, and distance count B of unmanned vehicle 15 has reached the error reset interval T B. Unmanned vehicle 15, when it reaches the error reset interval T B stops moving.

ステップ116では、ステップ102で実行した教示点指定方法と同様の処理によって、無人走行車両15の現在位置を導出し、無人走行車両15へ導出した現在位置を送信し、ステップ108へ戻る。   In step 116, the current position of the unmanned traveling vehicle 15 is derived by the same processing as the teaching point designation method executed in step 102, the current position derived to the unmanned traveling vehicle 15 is transmitted, and the process returns to step 108.

なお、ステップ116による教示点指定方法では、無人走行車両15が誤差リセット間隔Tに達した位置でカメラ42によって新たに撮影された撮影画像から複数の教示点Pが指定される。また、平面地図から指定され複数の教示点Qは、新たに指定してもよいし、ステップ102で指定された教示点Qとしてもよい。 In the teaching point specified process according to step 116, unmanned vehicle 15 are a plurality of teaching points P n from the newly captured photographed image by the camera 42 at a position reached error reset interval T B is designated. Further, the plurality of teaching points Q n specified from the planar map may be newly specified or may be the teaching points Q n specified in step 102.

このように、教示点指定方法によって、車輪回転数センサ44、慣性センサ46、及びバンドル標定処理による移動量及び現在位置の誤差は、リセットされる。そして、無人走行車両15は、ステップ116で導出された現在位置を起点として、経由地点、及び目標地点を結ぶ走行経路を再び生成し、自律走行を再開すると共に、距離カウントBをリセットし、新たに距離カウントBをカウントする。   As described above, according to the teaching point designation method, the wheel rotational speed sensor 44, the inertial sensor 46, and the movement amount and the current position error caused by the bundle orientation processing are reset. Then, the unmanned traveling vehicle 15 again generates a traveling route connecting the transit point and the target point with the current position derived in step 116 as a starting point, restarts autonomous traveling, and resets the distance count B. A distance count B is counted.

以上説明したように、本第1実施形態に係る誘導装置10は、無人走行車両15の移動量が誤差リセット間隔Tに達した場合に、無人走行車両15が有するカメラ42で撮影された撮影画像から指定された複数の教示点P、及び移動地図から指定された複数の教示点Qに基づいて無人走行車両15の現在位置を導出するので、計測手段による累積誤差をリセットすることができ、その結果、GPSが使用できない場所でも無人走行車両15を精度良く目標地点へ到達させることができる。 As described above, the induction device 10 according to the first embodiment, capturing the movement amount of unmanned vehicle 15 when it reaches the error reset interval T B, taken by the camera 42 having the unmanned vehicle 15 Since the current position of the unmanned traveling vehicle 15 is derived based on the plurality of teaching points P n specified from the image and the plurality of teaching points Q n specified from the moving map, the accumulated error by the measuring unit can be reset. As a result, the unmanned traveling vehicle 15 can reach the target point with high accuracy even in a place where GPS cannot be used.

〔第2実施形態〕
以下、本発明の第2実施形態について説明する。
[Second Embodiment]
Hereinafter, a second embodiment of the present invention will be described.

なお、本第2実施形態に係る誘導装置10の構成は、図2に示される第1実施形態に係る誘導装置10の構成と同様であるので説明を省略する。   The configuration of the guidance device 10 according to the second embodiment is the same as the configuration of the guidance device 10 according to the first embodiment shown in FIG.

図11に、本第2実施形態に係る無人走行車両15の構成を示す。なお、図11における図3と同一の構成部分については図3と同一の符号を付して、その説明を省略する。   FIG. 11 shows the configuration of the unmanned traveling vehicle 15 according to the second embodiment. In FIG. 11, the same components as those in FIG. 3 are denoted by the same reference numerals as those in FIG.

無人走行車両15は、移動量センサ60を備えている。   The unmanned traveling vehicle 15 includes a movement amount sensor 60.

移動量センサ60は、図12に示すようにテレセントリックレンズ70を備えたカメラ72を有している。なお、テレセントリックレンズは、光軸が直線であるため、焦点が合う範囲では、撮影面までの距離の変化によって画像の拡大縮小(形状の変化)が起きないという特徴を有している。   The movement amount sensor 60 has a camera 72 provided with a telecentric lens 70 as shown in FIG. In addition, since the optical axis is a straight line, the telecentric lens has a feature that the enlargement / reduction of the image (change in shape) does not occur due to the change in the distance to the imaging surface within the in-focus range.

カメラ72から出力された撮影画像を示すアナログ信号は、画像キャプチャボード74に入力されデジタル信号に変換される。そして、画像処理部76が、画像キャプチャボード74から出力された撮影画像を示すデジタル信号対して画像処理を行うことで、カメラ72によって連続して撮影された撮影画像により示される被写体の位置に基づいて、無人走行車両15の移動量が計測される。   An analog signal indicating a captured image output from the camera 72 is input to the image capture board 74 and converted into a digital signal. Then, the image processing unit 76 performs image processing on the digital signal indicating the captured image output from the image capture board 74, so that the image processing unit 76 is based on the position of the subject indicated by the captured image continuously captured by the camera 72. Thus, the movement amount of the unmanned traveling vehicle 15 is measured.

なお、本第2実施形態に係る移動量センサ60は、図12に示すように、カメラ72とテレセントリックレンズ70は、地面に向いており、無人走行車両15が自律走行している間、地面を連続して撮影する。   As shown in FIG. 12, the movement amount sensor 60 according to the second embodiment is such that the camera 72 and the telecentric lens 70 face the ground, and the unmanned traveling vehicle 15 travels autonomously on the ground. Shoot continuously.

本第2実施形態に係る画像処理部76における画像処理は、カメラ72で連続して撮影された撮影画像から地面の模様の特徴点を抽出し、抽出した特徴点をトラッキング、すなわち、各撮影画像をブロックマッチングすることによって、連続する撮影画像における特徴点の位置の差分量を算出する。そして、画像処理部76は、算出した差分量、カメラ72、及びテレセントリックレンズ70のパラメータ等に基づいた幾何学計算によって、無人走行車両15の移動量を計測する。   In the image processing in the image processing unit 76 according to the second embodiment, feature points of the ground pattern are extracted from the captured images continuously captured by the camera 72, and the extracted feature points are tracked, that is, each captured image is captured. Are subjected to block matching to calculate the amount of difference between the positions of feature points in consecutive captured images. Then, the image processing unit 76 measures the movement amount of the unmanned traveling vehicle 15 by geometric calculation based on the calculated difference amount, the parameters of the camera 72, the telecentric lens 70, and the like.

さらに、本第2実施形態では、無人走行車両15が自律走行している場合は、車輪回転数センサ44では、車輪がスリップすると移動量に測定誤差が大きくなるため、移動量センサ60を優先して用いる。しかし、移動量センサ60は、不整地で無人走行車両15が揺動した場合、カメラ72のピントが合わず、移動量を正しく計測できない。そのため、不整地を無人走行車両15が移動する場合、無人走行車両15は、車輪回転数センサ44によって無人走行車両15の移動量を計測する。   Furthermore, in the second embodiment, when the unmanned traveling vehicle 15 is autonomously traveling, the wheel rotation number sensor 44 gives priority to the movement amount sensor 60 because a measurement error increases in the movement amount when the wheel slips. Use. However, when the unmanned traveling vehicle 15 swings on rough terrain, the movement amount sensor 60 cannot focus on the camera 72 and cannot accurately measure the movement amount. Therefore, when the unmanned traveling vehicle 15 moves on rough terrain, the unmanned traveling vehicle 15 measures the movement amount of the unmanned traveling vehicle 15 by the wheel rotation speed sensor 44.

なお、移動量センサ60及び車輪回転数センサ44の切り替え方法として、移動領域内の不整地が予め判明している場合には、判明している不整地に無人走行車両15が移動したときに車輪回転数センサ44に切り替わり、判明している不整地から無人走行車両15が移動したときに移動量センサ60に切り替わるように設定する方法してもよい。なお、これに限らず、慣性センサ46が、無人走行車両15の揺動の大きさを検知し、揺動の大きさが予め定められた大きさを超えた場合に車輪回転数センサ44に切り替わり、揺動の大きさが予め定められた大きさ以下となった場合に移動量センサ60に切り替わるように設定する方法等、他の方法としてもよい。   In addition, as a switching method of the movement amount sensor 60 and the wheel rotation speed sensor 44, when the rough terrain in the moving region is known in advance, the wheel when the unmanned traveling vehicle 15 moves to the known rough terrain. It may be switched to the rotational speed sensor 44 and set to switch to the movement amount sensor 60 when the unmanned traveling vehicle 15 moves from the known rough terrain. Not limited to this, the inertial sensor 46 detects the magnitude of the swing of the unmanned traveling vehicle 15 and switches to the wheel rotational speed sensor 44 when the magnitude of the swing exceeds a predetermined magnitude. Other methods such as a method of setting so as to switch to the movement amount sensor 60 when the magnitude of the swing is equal to or smaller than a predetermined magnitude may be used.

〔第3実施形態〕
以下、本発明の第3実施形態について説明する。
[Third Embodiment]
Hereinafter, a third embodiment of the present invention will be described.

なお、本第3実施形態に係る誘導装置10の構成は、図2に示される第1実施形態に係る誘導装置10の構成と同様であるので説明を省略する。また、本第3実施形態に係る無人走行車両15の構成は、図11に示される第2実施形態に係る無人走行車両15の構成と同様であるので説明を省略する。   The configuration of the guidance device 10 according to the third embodiment is the same as the configuration of the guidance device 10 according to the first embodiment shown in FIG. The configuration of the unmanned traveling vehicle 15 according to the third embodiment is the same as the configuration of the unmanned traveling vehicle 15 according to the second embodiment shown in FIG.

本第3実施形態に係る無人走行車両15は、自律走行において、車輪回転数センサ44による無人走行車両15の移動量の計測、及び移動量センサ60によって撮影された撮影画像に基づいた無人走行車両15の移動量の計測のうち、より計測誤差が小さい計測を行う。   The unmanned traveling vehicle 15 according to the third embodiment is an unmanned traveling vehicle based on measurement of the amount of movement of the unmanned traveling vehicle 15 by the wheel rotation number sensor 44 and a captured image photographed by the movement amount sensor 60 in autonomous traveling. Among the 15 movement amount measurements, measurement with a smaller measurement error is performed.

図13に、本第3実施形態に係る無人走行車両15の移動面の傾斜角に対する、車輪回転数センサ44で取得された回転数から求められる移動量(以下、「オドメトリ」という。)及び移動量センサ60から求められる移動量の計測誤差の変化を示す。図13に示されるように、オドメトリの計測誤差は、無人走行車両15の移動面の傾斜角が大きくなるほど大きくなるが、移動量センサ60の計測誤差は、無人走行車両15の移動面の傾斜角にかかわらずほぼ一定である。   In FIG. 13, the movement amount (hereinafter referred to as “odometry”) and movement obtained from the rotational speed acquired by the wheel rotational speed sensor 44 with respect to the inclination angle of the moving surface of the unmanned traveling vehicle 15 according to the third embodiment. The change of the measurement error of the movement amount calculated | required from the quantity sensor 60 is shown. As shown in FIG. 13, the measurement error of odometry increases as the inclination angle of the moving surface of the unmanned traveling vehicle 15 increases. However, the measurement error of the movement amount sensor 60 increases the inclination angle of the moving surface of the unmanned traveling vehicle 15. Regardless of whether or not.

これは、無人走行車両15の移動面の傾斜角が大きくなるほど、斜面を下り滑る力が増大し、移動面である土壌と車輪とのスリップ率が高くなるためである。すなわち、無人走行車両15の車輪のスリップ率とオドメトリの計測誤差には相関関係がある。一方、移動量センサ60の計測誤差は、撮影画像のブロックマッチングを行うときの量子化誤差、カメラ72のキャリブレーション誤差、移動面の傾斜による誤差等が含まれる。このうち、移動面の傾斜による誤差は、慣性センサ46で計測した無人走行車両15の姿勢に基づいて、補正するため、移動量センサ60の計測誤差は、ほぼ一定となる。   This is because as the inclination angle of the moving surface of the unmanned traveling vehicle 15 increases, the force of sliding down the slope increases, and the slip ratio between the soil, which is the moving surface, and the wheels increases. That is, there is a correlation between the slip ratio of the wheels of the unmanned traveling vehicle 15 and the odometry measurement error. On the other hand, the measurement error of the movement amount sensor 60 includes a quantization error when performing block matching of the captured image, a calibration error of the camera 72, an error due to the inclination of the moving surface, and the like. Among these, since the error due to the inclination of the moving surface is corrected based on the attitude of the unmanned traveling vehicle 15 measured by the inertial sensor 46, the measurement error of the movement amount sensor 60 is substantially constant.

そこで、本第3実施形態に係る無人走行車両15は、移動面の傾斜角から車輪のスリップ率を推定し、推定したスリップ率に基づいて、移動量センサ60及び車輪回転数センサ44を切り替えて無人走行車両15の移動量を計測する切替処理を行う。   Therefore, the unmanned traveling vehicle 15 according to the third embodiment estimates the wheel slip rate from the inclination angle of the moving surface, and switches the movement amount sensor 60 and the wheel rotation number sensor 44 based on the estimated slip rate. A switching process for measuring the movement amount of the unmanned traveling vehicle 15 is performed.

以下に、切替処理を具体的に説明する。   The switching process will be specifically described below.

まず、移動量センサ60の計測誤差を、予め試験を行うことにより取得する。   First, the measurement error of the movement amount sensor 60 is acquired by performing a test in advance.

また、無人走行車両15の車輪のスリップによるオドメトリ計測誤差と移動面の傾斜との関係を予め試験を行うことにより取得する。なお車輪のスリップは、移動面の傾斜角のみならず、移動面の土壌の特性、車輪の形状にも依存するため、これらを模擬した試験を予め行う。また、無人走行車両15の傾斜角に対するオドメトリ誤差情報、及び移動量センサ60の計測誤差を示す移動量センサ誤差情報を記憶部48に記憶させる。   Further, the relationship between the odometry measurement error due to the wheel slip of the unmanned traveling vehicle 15 and the inclination of the moving surface is acquired by performing a test in advance. Note that the wheel slip depends not only on the inclination angle of the moving surface but also on the soil characteristics of the moving surface and the shape of the wheel. Further, odometry error information with respect to the inclination angle of the unmanned traveling vehicle 15 and movement amount sensor error information indicating the measurement error of the movement amount sensor 60 are stored in the storage unit 48.

そして、無人走行車両15は、自律走行している場合に、現在の傾斜角と記憶部48に記憶されているオドメトリ誤差情報からオドメトリ計測誤差を推定し、移動量センサ誤差情報に示される移動量センサ60の計測誤差と比較する。この比較によって、移動量センサ60の計測誤差がオドメトリの計測誤差よりも小さい場合には、移動量センサ60を用いる。一方、移動量センサ60の計測誤差がオドメトリの計測誤差よりも大きい場合には、オドメトリを用いる。なお、移動量センサ60による移動量の計測ができない場合は、オドメトリによる移動量の計測を行う。   When the unmanned traveling vehicle 15 is autonomously traveling, the unmanned traveling vehicle 15 estimates the odometry measurement error from the current inclination angle and the odometry error information stored in the storage unit 48, and the movement amount indicated in the movement amount sensor error information. The measurement error of the sensor 60 is compared. If the measurement error of the movement amount sensor 60 is smaller than the measurement error of odometry by this comparison, the movement amount sensor 60 is used. On the other hand, when the measurement error of the movement amount sensor 60 is larger than the measurement error of odometry, odometry is used. If the movement amount cannot be measured by the movement amount sensor 60, the movement amount is measured by odometry.

この結果、図14(A)に示すように、傾斜角0°では、切替処理を行った場合、オドメトリのみの場合、及びオドメトリと慣性センサ46を用いた場合とでは、走行距離に対する計測誤差に有意な差はないが、図14(B)に示すように傾斜角20°では、切替処理を行った場合は、オドメトリのみの場合及びオドメトリと慣性センサ46を用いた場合に比較して走行距離に対する計測誤差が小さくなる。このように、無人走行車両15で得られた情報のみから、無人走行車両15の移動量をより精度高く計測することができる。   As a result, as shown in FIG. 14A, at an inclination angle of 0 °, when the switching process is performed, only when the odometry is performed, and when the odometry and the inertial sensor 46 are used, the measurement error with respect to the travel distance is increased. Although there is no significant difference, as shown in FIG. 14B, at an inclination angle of 20 °, when the switching process is performed, the mileage is compared with the case where only odometry is used and when odometry and the inertial sensor 46 are used. The measurement error for becomes smaller. Thus, the movement amount of the unmanned traveling vehicle 15 can be measured with higher accuracy only from the information obtained by the unmanned traveling vehicle 15.

以上、本発明を、上記各実施形態を用いて説明したが、本発明の技術的範囲は上記各実施形態に記載の範囲には限定されない。発明の要旨を逸脱しない範囲で上記各実施形態に多様な変更または改良を加えることができ、該変更または改良を加えた形態も本発明の技術的範囲に含まれる。   As mentioned above, although this invention was demonstrated using said each embodiment, the technical scope of this invention is not limited to the range as described in each said embodiment. Various changes or improvements can be added to the above-described embodiments without departing from the gist of the invention, and embodiments to which the changes or improvements are added are also included in the technical scope of the present invention.

例えば、上記各実施形態では、誘導装置10が地球上に配置されている場合について説明したが、本発明は、これに限定されるものではなく、誘導装置10が地球とは異なる星(例えば、月)に配置されている形態としてもよい。   For example, in each of the above embodiments, the case where the guidance device 10 is arranged on the earth has been described. However, the present invention is not limited to this, and the guidance device 10 is a star different from the earth (for example, It is good also as the form arrange | positioned in the moon.

また、上記各実施形態では、無人走行車両15が月面を走行する場合について説明したが、本発明は、これに限定されるものではなく、無人走行車両15が地球上を走行する形態としてもよい。この形態の場合、無人走行車両15がGPS衛星電波の受信ができない地球上を走行する場合や、GPS衛星電波の受信が可能な無人走行車両15が何らかの理由によってGPS衛星電波の受信が不可能となった場合に、誘導装置10が走行誘導プログラムを実行することによって、無人走行車両15を誘導して走行させる。   In the above embodiments, the case where the unmanned traveling vehicle 15 travels on the moon surface has been described. However, the present invention is not limited to this, and the unmanned traveling vehicle 15 may travel on the earth. Good. In this case, when the unmanned traveling vehicle 15 travels on the earth where GPS satellite radio waves cannot be received, or the unmanned traveling vehicle 15 capable of receiving GPS satellite radio waves cannot receive GPS satellite radio waves for some reason. In this case, the guidance device 10 executes the traveling guidance program to guide the unmanned traveling vehicle 15 to travel.

また、上記各実施形態では、誘導装置10が、無人走行車両15が有するカメラで撮影された撮影画像から指定された複数の教示点P、及び移動地図から指定された複数の教示点Qに基づいて無人走行車両15の現在位置を導出する場合について説明したが、本発明は、これに限定されるものではなく、無人走行車両15の制御部40が、誘導装置10で指定された複数の教示点P及び複数の教示点Qに基づいて、無人走行車両15の現在位置を導出する形態としてもよい。 Further, in each of the above-described embodiments, the guidance device 10 has a plurality of teaching points P n specified from a captured image captured by a camera included in the unmanned traveling vehicle 15 and a plurality of teaching points Q n specified from a moving map. However, the present invention is not limited to this, and the control unit 40 of the unmanned traveling vehicle 15 has a plurality of parts designated by the guidance device 10. The present position of the unmanned traveling vehicle 15 may be derived based on the teaching point P n and the plurality of teaching points Q n .

10 誘導装置
15 無人走行車両
12 CPU
42 カメラ
44 車輪回転数センサ
46 慣性センサ
60 移動量センサ
70 テレセントリックレンズ
72 カメラ
10 guidance device 15 unmanned vehicle 12 CPU
42 Camera 44 Wheel Rotation Sensor 46 Inertia Sensor 60 Travel Amount Sensor 70 Telecentric Lens 72 Camera

Claims (7)

被写体を撮影する撮影手段、及び自身の移動量を計測する計測手段を有し、前記計測手段によって自身の移動量を計測しながら目標地点へ移動する無人走行車両の誘導装置であって、
前記無人走行車両が移動する移動領域を平面で示した平面画像から指定された目標地点を前記無人走行車両へ送信する送信手段と、
前記撮影手段によって撮影された撮影画像から前記撮影手段の撮影面における複数の第1点、及び前記平面画像から前記移動領域における複数の第2点を、前記複数の第1点と前記複数の第2点とが各々対応し、かつ対応する該第1点及び該第2点が前記無人走行車両の現在位置と直線で結ばれる位置関係となるように指定する指定手段と、
前記複数の第1点と前記複数の第2点に基づいて、前記撮影手段の中心の絶対座標を導出し、該中心を前記無人走行車両の現在位置する第1導出手段と、
前記第1導出手段で導出された現在位置を起点として、前記無人走行車両が前記計測手段による現在位置の計測を行いつつ前記目標地点へ向けて走行している途中で、前記計測手段による計測誤差の累積値が所定値に達した場合に該累積値をリセットし、前記撮影手段によって新たに撮影された撮影画像から指定された複数の第1点、及び前記平面画像から指定された複数の第2点に基づいて前記無人走行車両の現在位置を再び導出する第2導出手段と、
を備える誘導装置。
An apparatus for guiding an unmanned traveling vehicle that has an imaging unit that captures a subject and a measuring unit that measures the amount of movement of the subject, and that moves to a target point while measuring the amount of movement of the subject by the measuring unit,
Transmitting means for transmitting to the unmanned traveling vehicle a target point designated from a planar image showing a moving region in which the unmanned traveling vehicle moves in a plane;
A plurality of first point in the imaging plane of the photographing means from the image captured by the imaging means, and a plurality of second points in the movement area from the planar image, the said plurality of first point of the plurality Designating means for designating such that the two points correspond to each other, and the corresponding first point and the second point are in a positional relationship connected to the current position of the unmanned traveling vehicle by a straight line;
Based on said plurality of second points and said plurality of first point, to derive the absolute coordinates of the center of the imaging means, a first derivation means for the said center and a current position of the unmanned vehicle,
Starting from the current position derived by said first deriving means, said in the course of unmanned vehicle is traveling toward the target position while performing the measurement of the current position by said measuring means, the measurement error due to the measurement means When the accumulated value reaches a predetermined value, the accumulated value is reset , and a plurality of first points designated from the photographed image newly photographed by the photographing means and a plurality of first points designated from the planar image are obtained. Second deriving means for deriving the current position of the unmanned traveling vehicle again based on two points;
A guidance device comprising:
前記複数の第1点及び前記複数の第2点を、各々6カ所以上とする請求項記載の誘導装置。 It said plurality of first point and said plurality of second points, the induction system of claim 1 wherein each 6 or more locations. 前記撮影手段は、前記無人走行車両が走行している間に、予め定められた同一の対象物が撮影画像のほぼ中央に位置するように所定の撮影区間毎に撮影を行い、
前記計測手段は、前記撮影手段による所定の撮影区間毎の撮影で取得された複数の撮影画像に基づいて三角測量を行うことで、前記無人走行車両の移動量を計測する請求項1又は請求項記載の誘導装置。
The photographing means performs photographing for each predetermined photographing section so that the same predetermined object is located at substantially the center of the photographed image while the unmanned traveling vehicle is traveling,
Said measuring means, said imaging means by by performing triangulation based on a plurality of captured images obtained by photographing a predetermined photographing interval claim 1 or claim to measure the amount of movement of the unmanned vehicle 2. The guidance device according to 2 .
前記計測手段は、前記無人走行車両の車輪の回転数を検知する回転数検知手段及び前記無人走行車両に働く慣性力を検知する慣性力検知手段の少なくとも一方を含む請求項1から請求項の何れか1項記載の誘導装置。 Said measuring means, rotational speed detecting means and from claim 1 comprising at least one of the inertial force detection means for detecting the inertial force acting on the unmanned vehicle according to claim 3 for detecting the rotational speed of a wheel of said unmanned vehicle The guidance device according to any one of the preceding claims. 前記計測手段は、テレセントリックレンズを備えた第2撮影手段を含み、該第2撮影手段によって連続して撮影された撮影画像に基づいて、前記無人走行車両の移動量を計測する請求項1から請求項の何れか1項記載の誘導装置。 The said measurement means contains the 2nd imaging | photography means provided with the telecentric lens, The movement amount of the said unmanned traveling vehicle is measured based on the picked-up image continuously image | photographed by this 2nd imaging | photography means. induction device according to any one of claim 4. 前記計測手段は、前記無人走行車両の車輪の回転数を検知する回転数検知手段を含み、該回転数検知手段による前記無人走行車両の移動量の計測、及び前記第2撮影手段によって撮影された撮影画像に基づいた前記無人走行車両の移動量の計測のうち、より計測誤差が小さい計測を行う請求項記載の誘導装置。 The measuring means includes a rotational speed detecting means for detecting the rotational speed of a wheel of the unmanned traveling vehicle, and is measured by the movement amount of the unmanned traveling vehicle by the rotational speed detecting means and photographed by the second photographing means. The guidance device according to claim 5, wherein the measurement with a smaller measurement error is performed among the measurement of the movement amount of the unmanned traveling vehicle based on the captured image. 被写体を撮影する撮影手段、及び自身の移動量を計測する計測手段を有し、前記計測手段によって自身の移動量を計測しながら目標地点へ移動する無人走行車両の誘導方法であって、
前記無人走行車両が移動する移動領域を平面で示した平面画像から指定された目標地点を前記無人走行車両へ送信する第1工程と、
前記撮影手段によって撮影された撮影画像から前記撮影手段の撮影面における複数の第1点、及び前記平面画像から前記移動領域における複数の第2点を、前記複数の第1点と前記複数の第2点とが各々対応し、かつ対応する該第1点及び該第2点が前記無人走行車両の現在位置と直線で結ばれる位置関係となるように指定する第2工程と、
前記複数の第1点と前記複数の第2点に基づいて、前記撮影手段の中心の絶対座標を導出し、該中心を前記無人走行車両の現在位置する第工程と、
前記第工程で導出された現在位置を起点として、前記無人走行車両が前記計測手段による現在位置の計測を行いつつ目標地点へ向けて走行している途中で、前記計測手段による計測誤差の累積値が所定値に達した場合に該累積値をリセットし、前記撮影手段によって新たに撮影された撮影画像から指定された複数の第1点、及び前記平面画像から指定された複数の第2点に基づいて前記無人走行車両の現在位置を再び導出する第工程と、
を含む誘導方法。
A method for guiding an unmanned traveling vehicle that has a photographing unit that photographs a subject and a measuring unit that measures the amount of movement of the subject, and moves to a target point while measuring the amount of movement of the subject by the measuring unit,
A first step of transmitting, to the unmanned traveling vehicle, a target point designated from a planar image showing a moving area in which the unmanned traveling vehicle moves in a plane;
A plurality of first point in the imaging plane of the photographing means from the image captured by the imaging means, and a plurality of second points in the movement area from the planar image, the said plurality of first point of the plurality A second step of designating that the two points correspond to each other and that the corresponding first point and the second point are in a positional relationship connected with the current position of the unmanned traveling vehicle in a straight line;
Based on said plurality of second points and said plurality of first point, to derive the absolute coordinates of the center of the imaging means, and a third step of the said center and a current position of the unmanned vehicle,
Accumulation of measurement errors by the measuring means while the unmanned traveling vehicle is traveling toward the target point while measuring the current position by the measuring means, starting from the current position derived in the third step. When the value reaches a predetermined value, the accumulated value is reset , and a plurality of first points designated from the photographed image newly photographed by the photographing means and a plurality of second points designated from the planar image A fourth step of deriving the current position of the unmanned traveling vehicle again based on:
Induction method including.
JP2010140704A 2010-06-21 2010-06-21 Unmanned traveling vehicle guidance device and unmanned traveling vehicle guidance method Active JP5610870B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010140704A JP5610870B2 (en) 2010-06-21 2010-06-21 Unmanned traveling vehicle guidance device and unmanned traveling vehicle guidance method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010140704A JP5610870B2 (en) 2010-06-21 2010-06-21 Unmanned traveling vehicle guidance device and unmanned traveling vehicle guidance method

Publications (2)

Publication Number Publication Date
JP2012003706A JP2012003706A (en) 2012-01-05
JP5610870B2 true JP5610870B2 (en) 2014-10-22

Family

ID=45535567

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010140704A Active JP5610870B2 (en) 2010-06-21 2010-06-21 Unmanned traveling vehicle guidance device and unmanned traveling vehicle guidance method

Country Status (1)

Country Link
JP (1) JP5610870B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6011562B2 (en) * 2014-02-27 2016-10-19 Jfeスチール株式会社 Self-propelled inspection device and inspection system
KR102257303B1 (en) * 2014-07-30 2021-05-31 얀마 파워 테크놀로지 가부시키가이샤 Remote control apparatus
US10339389B2 (en) * 2014-09-03 2019-07-02 Sharp Laboratories Of America, Inc. Methods and systems for vision-based motion estimation
JP6363462B2 (en) * 2014-10-03 2018-07-25 シャープ株式会社 Autonomous traveling device
JP6387782B2 (en) 2014-10-17 2018-09-12 ソニー株式会社 Control device, control method, and computer program
US9744670B2 (en) * 2014-11-26 2017-08-29 Irobot Corporation Systems and methods for use of optical odometry sensors in a mobile robot
JP6243944B2 (en) * 2016-03-18 2017-12-06 本田技研工業株式会社 Unmanned work vehicle
JP6235640B2 (en) * 2016-03-18 2017-11-22 本田技研工業株式会社 Unmanned work vehicle
JP6655129B2 (en) * 2018-06-27 2020-02-26 シャープ株式会社 Autonomous traveling device
JP7349909B2 (en) * 2019-12-27 2023-09-25 株式会社Ihiエアロスペース Position identification device, mobile object position identification system, and position identification method
JP7014261B2 (en) * 2020-06-15 2022-02-01 ソニーグループ株式会社 Control method and control device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3245284B2 (en) * 1993-12-01 2002-01-07 富士重工業株式会社 Self-position detection method for autonomous mobile work vehicles
JPH0854927A (en) * 1994-08-10 1996-02-27 Kawasaki Heavy Ind Ltd Landmark deciding method and device
RU2220643C2 (en) * 2001-04-18 2004-01-10 Самсунг Гванджу Электроникс Ко., Лтд. Automatic cleaning apparatus, automatic cleaning system and method for controlling of system (versions)
JP4984650B2 (en) * 2006-05-30 2012-07-25 トヨタ自動車株式会社 Mobile device and self-position estimation method of mobile device
US8339393B2 (en) * 2006-11-21 2012-12-25 Nec Corporation Three-dimensional map data generating system, three-dimensional map data generating method and three-dimensional map data generating program
JP2011043419A (en) * 2009-08-21 2011-03-03 Sony Corp Information processor, information processing method, and program

Also Published As

Publication number Publication date
JP2012003706A (en) 2012-01-05

Similar Documents

Publication Publication Date Title
JP5610870B2 (en) Unmanned traveling vehicle guidance device and unmanned traveling vehicle guidance method
KR102425272B1 (en) Method and system for determining a position relative to a digital map
EP2133662B1 (en) Methods and system of navigation using terrain features
CN104932515B (en) A kind of autonomous cruise method and equipment of cruising
KR100556103B1 (en) Method for aerial photogrammetry using computer controlled navigation and photographing system
JP6380936B2 (en) Mobile body and system
US20080195316A1 (en) System and method for motion estimation using vision sensors
JP2002511614A (en) Tracking and detection of object position
JP6138326B1 (en) MOBILE BODY, MOBILE BODY CONTROL METHOD, PROGRAM FOR CONTROLLING MOBILE BODY, CONTROL SYSTEM, AND INFORMATION PROCESSING DEVICE
KR101444685B1 (en) Method and Apparatus for Determining Position and Attitude of Vehicle by Image based Multi-sensor Data
US20190293450A1 (en) Attitude estimation apparatus, attitude estimation method, and observation system
JP5762131B2 (en) CALIBRATION DEVICE, CALIBRATION DEVICE CALIBRATION METHOD, AND CALIBRATION PROGRAM
WO2016059904A1 (en) Moving body
JP2016048172A (en) Image processor, image processing method, and program
EP3765820B1 (en) Positioning method and positioning apparatus
JP4436632B2 (en) Survey system with position error correction function
JP6135972B2 (en) Orientation method, orientation program, and orientation device
JP5716273B2 (en) Search target position specifying device, search target position specifying method and program
JP4986883B2 (en) Orientation device, orientation method and orientation program
JP5355443B2 (en) Position correction system
JP2018084492A (en) Self-position estimation method and self-position estimation device
CN105959529B (en) It is a kind of single as method for self-locating and system based on panorama camera
JP2021143861A (en) Information processor, information processing method, and information processing system
WO2021143664A1 (en) Method and apparatus for measuring distance of target object in vehicle, and vehicle
JP2017181393A (en) Navigation device and navigation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140805

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140902

R151 Written notification of patent or utility model registration

Ref document number: 5610870

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250