JP5610870B2 - Unmanned traveling vehicle guidance device and unmanned traveling vehicle guidance method - Google Patents
Unmanned traveling vehicle guidance device and unmanned traveling vehicle guidance method Download PDFInfo
- Publication number
- JP5610870B2 JP5610870B2 JP2010140704A JP2010140704A JP5610870B2 JP 5610870 B2 JP5610870 B2 JP 5610870B2 JP 2010140704 A JP2010140704 A JP 2010140704A JP 2010140704 A JP2010140704 A JP 2010140704A JP 5610870 B2 JP5610870 B2 JP 5610870B2
- Authority
- JP
- Japan
- Prior art keywords
- traveling vehicle
- unmanned traveling
- unmanned
- point
- current position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 36
- 238000005259 measurement Methods 0.000 claims description 64
- 238000003384 imaging method Methods 0.000 claims description 22
- 238000001514 detection method Methods 0.000 claims description 7
- 230000006698 induction Effects 0.000 claims description 6
- 238000009795 derivation Methods 0.000 claims description 5
- 238000009825 accumulation Methods 0.000 claims description 2
- 230000005540 biological transmission Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 6
- 230000036544 posture Effects 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000002689 soil Substances 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
本発明は、無人走行車両の誘導装置及び無人走行車両の誘導方法に関するものである。 The present invention relates to an unmanned traveling vehicle guidance device and an unmanned traveling vehicle guidance method.
無人走行車両を遠隔操作で離れた目的地へ移動させるとき、無人走行車両の現在位置を計測しながら走行制御を行う必要がある。無人走行車両の現在位置を測定する方法として、GPS(Global Positioning System)を用いた方法がある。しかし、GPSは、GPS衛星から出力されるGPS衛星電波を常に4つ以上補足する必要があり、屋内や山間部や高い構造物のある市街地周辺では適用できない。 When an unmanned traveling vehicle is moved to a remote destination by remote control, it is necessary to perform traveling control while measuring the current position of the unmanned traveling vehicle. As a method of measuring the current position of the unmanned traveling vehicle, there is a method using GPS (Global Positioning System). However, GPS needs to always supplement four or more GPS satellite radio waves output from GPS satellites, and cannot be applied indoors, in mountainous areas, or around urban areas with high structures.
そこで、GPSを用いない方法として、車輪の回転数を積分するオドメトリを用いた方法、レーザレンジファインダを用いた三角測量による方法、及びカメラを用いた三角測量による方法等が従来から実用化されている。 Therefore, as a method not using GPS, a method using odometry that integrates the rotation speed of a wheel, a method using triangulation using a laser range finder, a method using triangulation using a camera, and the like have been put into practical use. Yes.
特に、カメラを用いた三角測量による方法の一例として、特許文献1に、入力画像を処理して移動空間に存在する物体のCADデータを自動的に生成し、生成したCADデータを探索し、探索したCADデータの情報を用いる技術が記載されている。 In particular, as an example of a triangulation method using a camera, Patent Document 1 automatically generates CAD data of an object existing in a moving space by processing an input image, searches the generated CAD data, and performs a search. A technique using information on the CAD data is described.
しかしながら、オドメトリは、砂地などの路面性状に影響して車輪のスリップ率が大きくなり、相対移動量の計測精度が低下する。このスリップによる測定誤差の発生に対する方法として、カメラを用いた車速センサで車速を計測し、それを時間で積分することで移動量を計測する方式があるが、カメラのピントの合う距離は短いために計測レンジが限られ、不整地で無人走行車両が揺動すると計測できなくなる問題がある。 However, odometry affects road surface properties such as sand and the like, and the slip ratio of the wheels increases, and the relative movement measurement accuracy decreases. There is a method to measure the amount of movement by measuring the vehicle speed with a vehicle speed sensor using a camera and integrating it with time as a method for the occurrence of measurement error due to this slip, but the distance that the camera is focused on is short However, there is a problem that the measurement range is limited and measurement becomes impossible when the unmanned traveling vehicle swings on rough terrain.
また、レーザレンジファインダを用いた三角測量は、移動中に得られる地形データを照合することにより、スタート地点からの相対移動量を求めることによって、現在位置を求めるが、濡れた場所や、レーザの反射率の低い地形ではレーザによる地形計測が困難なことによる精度の低下、誤差の増大が生じる問題がある。 In addition, triangulation using the laser range finder obtains the current position by checking the amount of relative movement from the start point by collating the terrain data obtained during movement. In terrain with low reflectivity, there is a problem that accuracy is lowered and error is increased due to difficulty in terrain measurement using a laser.
さらに、カメラを用いた三角測量は、静止している対象物を移動体から計測する場合など、屋内などスペースが広くない場所での作業に限定される。 Furthermore, triangulation using a camera is limited to work in a place where the space is not wide, such as indoors, such as when a stationary object is measured from a moving object.
以上のような問題から、GPSが使用できない場所で無人走行車両を移動させる場合は、無人走行車両の移動量を精度よく計測できす、その結果目標地点へ精度良く到達できないという問題があった。 Due to the above problems, when an unmanned traveling vehicle is moved in a place where GPS cannot be used, the amount of movement of the unmanned traveling vehicle can be accurately measured, and as a result, the target point cannot be accurately reached.
本発明は、このような事情に鑑みてなされたものであって、GPSが使用できない場所でも無人走行車両を精度良く目標地点へ到達させることができる誘導装置及び誘導方法を提供することを目的とする。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a guidance device and a guidance method capable of causing an unmanned traveling vehicle to reach a target point with high accuracy even in a place where GPS cannot be used. To do.
上記課題を解決するために、本発明の誘導装置は以下の手段を採用する。 In order to solve the above problems, the guidance device of the present invention employs the following means.
すなわち、本発明に係る誘導装置は、被写体を撮影する撮影手段、及び自身の移動量を計測する計測手段を有し、前記計測手段によって自身の移動量を計測しながら目標地点へ移動する無人走行車両の誘導装置であって、前記無人走行車両が移動する移動領域を平面で示した平面画像から指定された目標地点を前記無人走行車両へ送信する送信手段と、前記撮影手段によって撮影された撮影画像から前記撮影手段の撮影面における複数の第1点、及び前記平面画像から前記移動領域における複数の第2点を、前記複数の第1点と前記複数の第2点とが各々対応し、かつ対応する該第1点及び該第2点が前記無人走行車両の現在位置と直線で結ばれる位置関係となるように指定する指定手段と、前記複数の第1点と前記複数の第2点に基づいて、前記撮影手段の中心の絶対座標を導出し、該中心を前記無人走行車両の現在位置とする第1導出手段と、前記第1導出手段で導出された現在位置を起点として、前記無人走行車両が前記計測手段による現在位置の計測を行いつつ前記目標地点へ向けて走行している途中で、前記計測手段による計測誤差の累積値が所定値に達した場合に該累積値をリセットし、前記撮影手段によって新たに撮影された撮影画像から指定された複数の第1点、及び前記平面画像から指定された複数の第2点に基づいて前記無人走行車両の現在位置を再び導出する第2導出手段と、を備える。 That is, the guidance device according to the present invention includes an imaging unit that captures an image of a subject and a measurement unit that measures the amount of movement of the subject. The unmanned traveling moves to a target point while measuring the amount of movement of the subject by the measurement unit. A vehicle guidance device, a transmission means for transmitting to the unmanned traveling vehicle a target point designated from a planar image showing a moving area in which the unmanned traveling vehicle moves in a plane, and a photograph taken by the photographing means a plurality of first point in the imaging plane of the photographing means from an image, and a plurality of second points in the movement area from the planar image, the plurality of first point and the plurality of second points corresponding respectively, And designation means for designating the corresponding first point and the second point to be in a positional relationship that is connected with the current position of the unmanned traveling vehicle by a straight line, the plurality of first points, and the plurality of second points. on the basis of Wherein deriving the absolute coordinates of the center of the imaging means, a first derivation means for the said center and a current position of the unmanned vehicle, starting from the current position derived by said first derivation means, the unmanned vehicle wherein while performing the measurement of the current position by the measuring means in the middle of traveling toward the target position, the accumulated value of the measurement error due to the measurement means to reset the accumulated value when reaching a predetermined value, the photographing Second deriving means for deriving the current position of the unmanned traveling vehicle again based on a plurality of first points designated from the photographed image newly taken by the means and a plurality of second points designated from the planar image And comprising.
本発明によれば、無人走行車両は、被写体を撮影する撮影手段、及び自身の移動量を計測する計測手段を有し、計測手段によって自身の移動量を計測しながら目標地点へ移動する。 According to the present invention, the unmanned traveling vehicle has the photographing means for photographing the subject and the measuring means for measuring the amount of movement of the subject, and moves to the target point while measuring the amount of movement of the subject by the measuring means.
無人走行車両が移動する移動領域を平面で示した平面画像から指定された目標地点が、送信手段によって無人走行車両へ送信される。また、撮影手段によって撮影された撮影画像から撮影手段の撮影面における複数の第1点及び平面画像から移動領域における複数の第2点が、複数の第1点と複数の第2点とが各々対応し、かつ対応する該第1点及び該第2点が無人走行車両の現在位置と直線で結ばれる位置関係となるように、指定手段によって指定される。
そして、第1導出手段が、複数の第1点と複数の第2点に基づいて、撮影手段の中心の絶対座標を導出し、該中心を無人走行車両の現在位置とする。
The target point designated from the plane image showing the moving area in which the unmanned traveling vehicle moves in a plane is transmitted to the unmanned traveling vehicle by the transmission means. In addition, a plurality of first points on a photographing surface of the photographing unit from a photographed image photographed by the photographing unit, a plurality of second points on a moving region from a planar image, a plurality of first points and a plurality of second points, respectively. The designation means designates the first point and the second point corresponding to each other so that the first point and the second point corresponding to each other are connected to the current position of the unmanned traveling vehicle by a straight line.
The first derivation means, based on the plurality of first point and a plurality of second points, to derive the absolute coordinates of the center of the imaging means, the said center to the current position of the unmanned vehicle.
無人走行車両は、第1導出手段によって導出された現在位置を起点として目標地点まで、計測手段による現在位置の計測を行いつつ目標地点へ向けて自律走行する。 The unmanned traveling vehicle autonomously travels to the target point while measuring the current position by the measuring unit from the current position derived by the first deriving unit to the target point.
第2導出手段は、無人走行車両が自律走行している途中で、計測手段による計測誤差の累積値が所定値に達した場合に該累積値をリセットし、無人走行車両が有する撮影手段で新たに撮影された撮影画像から指定された複数の第1点、及び平面画像から指定された複数の第2点に基づいて無人走行車両の現在位置を再び導出する。 The second deriving unit resets the accumulated value when the accumulated value of the measurement error by the measuring unit reaches a predetermined value while the unmanned traveling vehicle is autonomously traveling, and newly uses the photographing unit included in the unmanned traveling vehicle. The current position of the unmanned traveling vehicle is derived again based on the plurality of first points designated from the photographed image and the plurality of second points designated from the planar image.
このように、本発明は、無人走行車両の現在位置を計測する計測手段の累積誤差が所定値に達した場合に、無人走行車両が有する撮影手段で撮影された撮影画像から指定された複数の第1点、及び平面画像から指定された複数の第2点に基づいて無人走行車両の現在位置を導出するので、計測手段による累積誤差をリセットすることができ、その結果、GPSが使用できない場所でも無人走行車両を精度良く目標地点へ到達させることができる。 As described above, the present invention provides a plurality of images specified from the captured images captured by the imaging unit of the unmanned traveling vehicle when the accumulated error of the measuring unit that measures the current position of the unmanned traveling vehicle reaches a predetermined value. Since the current position of the unmanned traveling vehicle is derived based on the first point and a plurality of second points designated from the planar image, the accumulated error due to the measuring means can be reset, and as a result, the GPS cannot be used. However, the unmanned traveling vehicle can reach the target point with high accuracy.
また、本発明は、複数の第1点に対して、各々対応する第2点が指定され、対応する該第1点及び該第2点は、導出される現在位置と直線で結ばれる位置関係とされる。 Further, the present invention is the first point of the multiple, the second point is designated, each corresponding, corresponding first point and the second point is connected by current position and the straight line that is derived It is a positional relationship.
これによれば、対応する該第1点及び該第2点が、導出される前記現在位置と直線で結ばれる位置関係とされる。この結果、第1点及び第2点に基づいて、現在位置を未知数とした方程式を複数個得ることとなるので、本発明は、より簡易に無人走行車両の現在位置を導出できる。 According to this , the first point and the second point corresponding to each other are in a positional relationship that is connected to the derived current position by a straight line. As a result, a plurality of equations with the current position as an unknown are obtained based on the first point and the second point, and the present invention can more easily derive the current position of the unmanned traveling vehicle.
また、本発明は、前記複数の第1点及び前記複数の第2点を、各々6カ所以上としてもよい。 In the present invention, the plurality of first points and the plurality of second points may each be 6 or more.
本発明によれば、複数の第1点及び複数の第2点を、各々6カ所以上とするので、xyz座標系において、18個以上の方程式が得られ、現在位置と共に無人走行車両の移動している方位等を導出できる。 According to the present invention, since the plurality of first points and the plurality of second points are each 6 or more, 18 or more equations are obtained in the xyz coordinate system, and the unmanned traveling vehicle moves together with the current position. It is possible to derive the orientation and the like.
また、本発明は、前記撮影手段が、前記無人走行車両が走行している間に、予め定められた同一の対象物が撮影画像のほぼ中央に位置するように所定の撮影区間毎に撮影を行い、前記計測手段が、前記撮影手段による所定の撮影区間毎の撮影で取得された複数の撮影画像に基づいて三角測量を行うことで、前記無人走行車両の移動量を計測してもよい。 In the present invention, the photographing unit may perform photographing for each predetermined photographing section so that the same predetermined object is located at substantially the center of the photographed image while the unmanned traveling vehicle is traveling. And the measurement unit may measure the amount of movement of the unmanned traveling vehicle by performing triangulation based on a plurality of captured images acquired by photographing for each predetermined photographing section by the photographing unit.
本発明によれば、無人走行車両が有する撮影手段が、無人走行車両が走行している間に、予め定められた同一の対象物が撮影画像のほぼ中央に位置するように所定の撮影区間毎に撮影を行う。そして、計測手段が、撮影手段による所定の撮影区間毎の撮影で取得された複数の撮影画像に基づいて三角測量を行うことで、無人走行車両の移動量を計測するので、本発明は、無人走行車両で得られた情報のみから、簡易に無人走行車両の移動量を計測することができる。 According to the present invention, the photographing means included in the unmanned traveling vehicle is provided for each predetermined photographing section so that the same predetermined object is positioned substantially at the center of the photographed image while the unmanned traveling vehicle is traveling. Take a photo. Then, the measurement means measures the amount of movement of the unmanned traveling vehicle by performing triangulation based on a plurality of photographed images acquired by photographing for each predetermined photographing section by the photographing means. The amount of movement of the unmanned traveling vehicle can be easily measured from only the information obtained from the traveling vehicle.
また、本発明は、前記計測手段が、前記無人走行車両の車輪の回転数を検知する回転数検知手段及び前記無人走行車両に働く慣性力を検知する慣性力検知手段の少なくとも一方を含んでもよい。 In the present invention, the measurement unit may include at least one of a rotation number detection unit that detects a rotation number of a wheel of the unmanned traveling vehicle and an inertial force detection unit that detects an inertial force acting on the unmanned traveling vehicle. .
本発明によれば、計測手段を、無人走行車両の車輪の回転数を検知する回転数検知手段及び無人走行車両に働く慣性力を検知する慣性力検知手段の少なくとも一方とするので、本発明は、無人走行車両で得られた情報のみから、簡易に無人走行車両の移動量を計測することができる。 According to the present invention, the measuring means is at least one of a rotational speed detecting means for detecting the rotational speed of the wheel of the unmanned traveling vehicle and an inertial force detecting means for detecting an inertial force acting on the unmanned traveling vehicle. The amount of movement of the unmanned traveling vehicle can be easily measured from only the information obtained from the unmanned traveling vehicle.
また、本発明は、前記計測手段が、テレセントリックレンズを備えた第2撮影手段を含み、該第2撮影手段によって連続して撮影された撮影画像に基づいて、前記無人走行車両の移動量を計測してもよい。 According to the present invention, the measuring unit includes a second photographing unit including a telecentric lens, and the movement amount of the unmanned traveling vehicle is measured based on the captured images continuously photographed by the second photographing unit. May be.
本発明によれば、計測手段を、テレセントリックレンズを備えた第2撮影手段とし、該第2撮影手段によって連続して撮影された撮影画像に基づいて、無人走行車両の移動量が計測される。これによって、本発明は、無人走行車両で得られた情報のみから、簡易に無人走行車両の移動量を計測することができる。 According to the present invention, the measuring means is the second photographing means provided with the telecentric lens, and the movement amount of the unmanned traveling vehicle is measured based on the photographed images continuously photographed by the second photographing means. Thus, the present invention can easily measure the movement amount of the unmanned traveling vehicle from only the information obtained from the unmanned traveling vehicle.
また、本発明は、前記計測手段が、前記無人走行車両の車輪の回転数を検知する回転数検知手段を含み、該回転数検知手段による前記無人走行車両の移動量の計測、及び前記第2撮影手段によって撮影された撮影画像に基づいた前記無人走行車両の移動量の計測のうち、より計測誤差が小さい計測を行ってもよい。 Further, in the present invention, the measurement unit includes a rotation number detection unit that detects a rotation number of a wheel of the unmanned traveling vehicle, the measurement of the movement amount of the unmanned traveling vehicle by the rotation number detection unit, and the second Of the measurement of the movement amount of the unmanned traveling vehicle based on the photographed image photographed by the photographing means, measurement with a smaller measurement error may be performed.
本発明によれば、回転数検知手段による前記無人走行車両の移動量の計測、及び第2撮影手段によって撮影された撮影画像に基づいた無人走行車両の移動量の計測のうち、より計測誤差の小さい計測が行われるので、本発明は、無人走行車両で得られた情報のみから、無人走行車両の移動量をより精度高く計測することができる。 According to the present invention, of the measurement of the movement amount of the unmanned traveling vehicle by the rotational speed detection means and the measurement of the movement amount of the unmanned traveling vehicle based on the photographed image photographed by the second photographing means, the measurement error is further reduced. Since small measurement is performed, the present invention can measure the movement amount of the unmanned traveling vehicle with higher accuracy only from the information obtained by the unmanned traveling vehicle.
一方、上記課題を解決するために、本発明の誘導方法は以下の手段を採用する。 On the other hand, in order to solve the above problems, the guiding method of the present invention employs the following means.
すなわち、本発明に係る誘導方法は、被写体を撮影する撮影手段、及び自身の移動量を計測する計測手段を有し、前記計測手段によって自身の移動量を計測しながら目標地点へ移動する無人走行車両の誘導方法であって、前記無人走行車両が移動する移動領域を平面で示した平面画像から指定された目標地点を前記無人走行車両へ送信する第1工程と、前記撮影手段によって撮影された撮影画像から前記撮影手段の撮影面における複数の第1点、及び前記平面画像から前記移動領域における複数の第2点を、前記複数の第1点と前記複数の第2点とが各々対応し、かつ対応する該第1点及び該第2点が前記無人走行車両の現在位置と直線で結ばれる位置関係となるように指定する第2工程と、前記複数の第1点と前記複数の第2点に基づいて、前記撮影手段の中心の絶対座標を導出し、該中心を前記無人走行車両の現在位置とする第3工程と、前記第3工程で導出された現在位置を起点として、前記無人走行車両が前記計測手段による現在位置の計測を行いつつ目標地点へ向けて走行している途中で、前記計測手段による計測誤差の累積値が所定値に達した場合に該累積値をリセットし、前記撮影手段によって新たに撮影された撮影画像から指定された複数の第1点、及び前記平面画像から指定された複数の第2点に基づいて前記無人走行車両の現在位置を再び導出する第4工程と、を含む。 That is, the guidance method according to the present invention includes an imaging unit that captures a subject and a measurement unit that measures the amount of movement of the subject, and the unmanned traveling moves to a target point while measuring the amount of movement of the subject by the measurement unit. A method for guiding a vehicle, the first step of transmitting to the unmanned traveling vehicle a target point designated from a planar image showing a moving area in which the unmanned traveling vehicle moves in a plane, and photographed by the photographing means a plurality of first point in the imaging plane of the imaging unit from the captured image, and said plurality of second points from the plane image in the moving area, the plurality of first point and the plurality of second points each corresponding to And a second step of designating the corresponding first point and the second point to be in a positional relationship in which the current position of the unmanned traveling vehicle is connected by a straight line, the plurality of first points, and the plurality of first points based on the 2-point Wherein deriving the absolute coordinates of the center of the imaging means, and a third step of the said center and a current position of the unmanned vehicle, starting from the current position derived in the third step, the unmanned vehicle is the measurement If the accumulated value of the measurement error by the measuring means reaches a predetermined value while traveling toward the target point while measuring the current position by the means, the accumulated value is reset, and the photographing means newly And a fourth step of deriving the current position of the unmanned traveling vehicle again based on a plurality of first points designated from the photographed image taken on the basis of and a plurality of second points designated from the planar image. .
本発明によれば、無人走行車両の現在位置を計測する計測手段の累積誤差が所定値に達した場合に、無人走行車両が有する撮影手段で撮影された撮影画像から指定された複数の第1点、及び平面画像から指定された複数の第2点に基づいて無人走行車両の現在位置を導出する。これにより、本発明は、計測手段による累積誤差をリセットすることができ、その結果、GPSが使用できない場所でも無人走行車両を精度良く目標地点へ到達させることができる。 According to the present invention, when the cumulative error of the measuring unit that measures the current position of the unmanned traveling vehicle reaches a predetermined value, the plurality of first images specified from the captured images captured by the capturing unit included in the unmanned traveling vehicle. The current position of the unmanned traveling vehicle is derived based on the points and the plurality of second points designated from the planar image. Thereby, this invention can reset the accumulation error by a measurement means, As a result, an unmanned traveling vehicle can be made to reach | attain a target point accurately also in the place where GPS cannot be used.
本発明によれば、GPSが使用できない場所でも無人走行車両を精度良く目標地点へ到達させることができる、という優れた効果を有する。 According to the present invention, there is an excellent effect that an unmanned traveling vehicle can accurately reach a target point even in a place where GPS cannot be used.
以下に、本発明に係る無人走行車両の誘導装置の一実施形態について、図面を参照して説明する。 Hereinafter, an embodiment of a guidance device for an unmanned traveling vehicle according to the present invention will be described with reference to the drawings.
〔第1実施形態〕
以下、本発明の第1実施形態について説明する。
[First Embodiment]
The first embodiment of the present invention will be described below.
図1に無人走行車両誘導システム1の模式図を示す。 FIG. 1 shows a schematic diagram of an unmanned traveling vehicle guidance system 1.
無人走行車両誘導システム1は、誘導装置10及び無人走行車両15を備えている。
The unmanned traveling vehicle guidance system 1 includes a
誘導装置10は、無人走行車両15の走行を誘導するための各種情報を無人走行車両15に向けて送信する。また、無人走行車両15は、無人で地面を走行する車両であり、誘導装置10から送信される情報に基づいて自律走行する。なお、本第1実施形態では、図1に示すように無人走行車両15は、地球とは異なる星(衛星、惑星、彗星等、図1では一例として月)を走行し、誘導装置10は、地球上に配置される。
The
図2は、誘導装置10の電気的構成を示すブロック図である。
FIG. 2 is a block diagram showing an electrical configuration of the
誘導装置10は、誘導装置10全体の動作を司るCPU(Central Processing Unit)12、各種プログラムや各種パラメータ等が予め記憶されたROM(Read Only Memory)14、CPU12による各種プログラムの実行時のワークエリア等として用いられるRAM(Random Access Memory)16、詳細を後述する走行誘導プログラム等の各種プログラム及び各種情報を記憶する記憶手段としてのHDD(Hard Disk Drive)18を備えている。
The
さらに、誘導装置10は、キーボード及びマウス等から構成され、各種操作の入力を受け付ける操作入力部20、各種画像を表示する画像表示部22、並びに無人走行車両15との各種情報の送受信を行う送受信部24を備えている。
Further, the
なお、誘導装置10のオペレータは、操作入力部20を操作することによって、無人走行車両15を自律走行させるために必要な各種情報を入力する。
The operator of the
これらCPU12、ROM14、RAM16、HDD18、操作入力部20、画像表示部22、及び外部インタフェース24は、システムバス30を介して相互に電気的に接続されている。従って、CPU12は、ROM14、RAM16、及びHDD18へのアクセス、操作入力部20に対する操作状態の把握、画像表示部22に対する各種の画像の表示、並びに送受信部24を介した無人走行車両15との各種情報の送受信等を各々行なうことができる。
The
図3は、無人走行車両15の電気的構成を示すブロック図である。
FIG. 3 is a block diagram showing an electrical configuration of the unmanned traveling
無人走行車両15は、無人走行車両15全体の動作を司る制御部40、被写体を撮影するカメラ42、無人走行車両15の車輪の回転数を検知する車輪回転数センサ44、無人走行車両15に働く慣性力を検知する慣性センサ46、並びに磁気記憶装置又は半導体記憶装置で構成され、各種情報を記憶する記憶部48を備えている。
The
なお、カメラ42で取得された画像は、無人走行車両15の移動量及び現在位置を計測するために用いられ、車輪回転数センサ44で取得された回転数は、無人走行車両15の移動量を計測するために用いられ、慣性センサ46で取得された慣性力は、無人走行車両15が移動している方位(以下、「移動方位」という。)と姿勢を計測するために用いられる。また、カメラ42で撮影した画像を示す画像情報、車輪回転数センサ44、及び慣性センサ46の検知結果を示す情報は、誘導装置10から送信された情報と共に記憶部48に記憶される。
The image acquired by the
さらに、無人走行車両15は、誘導装置10との各種情報の送受信を行う送受信部50、及び不図示の操舵輪及び駆動輪に機械的に結合されたモータを有する駆動部52を備えている。
Further, the unmanned traveling
これら制御部40、車輪回転数センサ44、慣性センサ46、記憶部48、送受信部50、及び駆動部52は、システムバス54を介して相互に電気的に接続されている。従って、制御部40は、車輪回転数センサ44及び慣性センサ46に対する制御、記憶部48へのアクセス、送受信部50を介した誘導装置10との各種情報の送受信、並びに駆動部52を介した操舵輪及び駆動輪の制御等を各々行ない、無人走行車両15を自律走行させる。
The
このように、無人走行車両誘導システム1では、無人走行車両15は、カメラ42、車輪回転数センサ44、及び慣性センサ46等の計測機器で取得した情報を、送受信部50を介して誘導装置10へ送信する。そして、誘導装置10は送受信部24を介して受信した無人走行車両15からの情報に基づいた無人走行車両15を誘導するための情報を、無人走行車両15に送信する走行誘導処理を行う。
As described above, in the unmanned traveling vehicle guidance system 1, the unmanned traveling
次に、本第1実施形態に係る誘導装置10の作用を説明する。
Next, the operation of the
図4は、誘導装置10が走行誘導処理を行うために、CPU12によって実行される走行誘導プログラムの処理の流れを示すフローチャートであり、該走行誘導プログラムはHDD18の所定領域に予め記憶されている。
FIG. 4 is a flowchart showing the flow of a travel guidance program executed by the
まず、ステップ100では、無人走行車両15の誘導に要する所定の初期条件を設定する。上記初期条件とは、詳細を後述するカメラ42で取得した画像を用いた三角測量による無人走行車両15の移動量の計測を実行する距離間隔(以下、「測量実行間隔TA」という。)であり、無人走行車両15の移動量を計測する計測手段(本第1実施形態では、車輪回転数センサ44、慣性センサ46、及び詳細を後述するバンドル標定処理)の累積誤差をリセットする間隔(以下、「誤差リセット間隔TB」という。)である。そして、上記各初期条件は、誘導装置10の操作入力部20を介してオペレータにより入力される。誤差リセット間隔TBは、無人走行車両15の移動量の測定に対して要求される精度から決定される。
First, in step 100, predetermined initial conditions required for guiding the unmanned traveling
なお、計測手段の誤差は、予め試験により計測されている。そして、計測手段の誤差は、無人走行車両15の走行距離に応じて累積されるため、無人走行車両15の走行距離に対する累積誤差の大きさに基づいて誤差リセット間隔TBは決定される。
Note that the error of the measuring means is measured in advance by a test. Then, the error of the measuring means, to be accumulated in accordance with a running distance of the
次のステップ102では、無人走行車両15の現在位置を導出する。
In the next step 102, the current position of the unmanned traveling
ここで、ステップ102で実行される無人走行車両15の現在位置の導出方法について説明する。
Here, a method for deriving the current position of the unmanned traveling
図5に、無人走行車両15の移動環境の模式図を示す。図5に示すように無人走行車両15は、複数の物体(石、岩等の自然物及び人工物)がある地面を走行する。
In FIG. 5, the schematic diagram of the movement environment of the unmanned traveling
そして、誘導装置10は、図5に示されるような地面を走行する無人走行車両15の現在位置を、カメラ42によって撮影された撮影画像から指定された複数の教示点Pn、及び無人走行車両15が移動する移動領域を平面で示した平面画像(以下、「移動地図」という。)から指定された複数の教示点Qnに基づいて導出する(以下、「教示点指定方法」という。)。すなわち、ステップ102で導出された現在位置が無人走行車両15の初期位置となる。また、移動地図は、予めHDD18に記憶されており、移動地図としては、無人走行車両15の移動領域を事前に真上から撮影した衛星画像(無人車両は写っていない。)、無人走行車両15を月へ輸送するための不図示の輸送用機体によって、月への着陸前に撮影された画像等を用いる。
Then, the
以下に、教示点指定方法についてより詳細に説明する。 Hereinafter, the teaching point designation method will be described in more detail.
まず、オペレータが、画像表示部22に表示された移動地図及び無人走行車両15から送信されたカメラ42で取得された撮影画像から、対応する教示点Pn,Qnを指定する。ここでいう、対応する教示点Pn,Qnとは、無人走行車両15の導出される現在位置と教示点Pnと教示点Qnとが直線で結ばれる位置関係とされることをいう。
First, the operator designates corresponding teaching points P n and Q n from the moving map displayed on the
図6(A)は、撮影画像で指定された教示点Pnを示し、図6(B)は、移動地図で指定された教示点Qnを示す。図6(A),(B)の例では、教示点Pn,Qnが各々3個ずつしか示されていないが、本第1実施形態では、教示点Pn,Qnを各々6(n=1,2,・・・,6)個ずつ指定する。 FIG. 6A shows the teaching point P n specified in the captured image, and FIG. 6B shows the teaching point Q n specified in the moving map. In the example of FIGS. 6A and 6B, only three teaching points P n and Q n are shown, but in the first embodiment, teaching points P n and Q n are set to 6 ( n = 1, 2,..., 6) are designated one by one.
また、本第1実施形態では、オペレータが、移動地図及び撮影画像を表示した画像表示部22の画面上で、対応する教示点Pn,Qnをマウスでポインティングすることで指定する。しかし、これに限らず、誘導装置10が、教示点Pn,Qnを指定するために予め設定された条件に基づいて移動地図及び撮影画像から教示点を自動的に指定してもよい。
In the first embodiment, the operator designates the corresponding teaching points P n and Q n by pointing with the mouse on the screen of the
そして、図7に示すように、カメラ42の中心(以下、「カメラ中心」という。)をC(Xc,Yc,Zc)とすると、撮影画像上での教示点Pnと移動地図上での教示点Qnは、同じ光軸上にあることから、スケール係数Knを用いることによって、教示点Pnと教示点Qnとは下記(1)式のように表される。なお、カメラ中心C(Xc,Yc,Zc)は、無人走行車両15の現在位置を示しており未知数であり、スケール係数Knも、未知数である。また、移動地図は、平面画像であるため、移動地図上での教示点Qnの高さを示すZ座標の値も未知数である。
そして、絶対座標系での撮影画像の教示点Pnは、下記(2)式のように表される。なお、(2)式において、pnは、カメラ42における座標系(以下、「カメラ座標系」という。)での撮影画像の教示点、Txyzは、下記(3)式で表される並行移動行列、Rxyzは、下記(4)式で表される回転行列である。また、θx,θy,θzがカメラ42の姿勢、すなわち、無人走行車両15の姿勢を示しており未知数である。
また、カメラ42の焦点距離をfとし、カメラ42の1画素当たりの受光素子(例えば、CCD)のサイズをsy,szとし、撮影画面上の各教示点をi、jとすると、座標系pnは、下記(5)式のように表される。
そして、(1)式を展開すると、(2)式に示すように教示点の合計n個に対して、x,y,z座標に関する3n個の方程式を得る。一方で未知数は上述したように、カメラ42の位置Xc,Yc,Zcとカメラ42の姿勢θx、θy、θzとの6個に加え、スケール係数Kn(n個)及び移動地図上での教示点z座標(n個)の合計6+2n個となる。従って、6点(n≧6)以上の教示点を指定することによって、得られる方程式が未知数を上回り、無人走行車両15の現在位置を示すカメラ42の現在位置が、無人走行車両15の姿勢を示すカメラ42の姿勢と共に導出される。
When the expression (1) is expanded, 3 n equations relating to the x, y, and z coordinates are obtained for the total n teaching points as shown in the expression (2). On the other hand, as described above, the unknowns include, in addition to the six positions X c , Y c , Z c of the
次のステップ104では、オペレータによる、無人走行車両15を自律走行によって到達させる目標地点、及び目標地点に到達させる前に経由させる経由地点の指定を、操作入力部20を介して受け付ける。
In the next step 104, the designation of the target point by which the unmanned traveling
なお、オペレータによる目標地点及び経由地点の指定は、誘導装置10の画像表示部22に表示された移動地図上で、操作入力部20を介して受け付けられる。なお、オペレータは、少なくとも目標地点を指定すればよく、必ずしも経由地点を指定する必要はない。
The designation of the target point and the waypoint by the operator is received via the
次のステップ106では、無人走行車両15の目標地点へ向けた自律走行の開始指示(以下、「走行開始信号」という。)を、送受信部24を介して無人走行車両15に送信する。なお、CPU12は、操作入力部20を介したオペレータによる走行開始信号を無人走行車両15に送信する旨の入力があった場合に、走行開始信号を無人走行車両15に送信する。また、ステップ100で設定された測量実行間隔TA及び誤差リセット間隔TB、ステップ102で計測された無人走行車両15の現在位置、並びにステップ104で設定された目標地点及び経由地点が、走行開始信号と共に送受信部24を介して誘導装置10から無人走行車両15に送信される。無人走行車両15は、誘導装置10から送信された測量実行間隔TA、誤差リセット間隔TB、現在位置、目標地点、及び経由地点を受信すると、これらを記憶部48に記憶する。
In the next step 106, an instruction to start autonomous driving toward the target point of the unmanned traveling vehicle 15 (hereinafter referred to as “traveling start signal”) is transmitted to the unmanned traveling
そして、無人走行車両15は、誘導装置10から送信された走行開始信号を受信すると、目標地点へ向けて自律走行を開始する。
When the unmanned traveling
ここで、無人走行車両15の自律走行について説明する。
Here, the autonomous traveling of the unmanned traveling
まず、無人走行車両15は、走行開始信号と共に誘導装置10から送信された現在位置情報、目標地点、及び経由地点に基づいて、図8に示すように現在位置を起点として、経由地点、及び目標地点を結ぶ走行経路を生成する。
First, based on the current position information, the target point, and the waypoint transmitted from the
そして、無人走行車両15は、車輪回転数センサ44によって検知された回転数の値を積分することによって無人走行車両15の移動量を計測し、慣性センサ46によって検知された慣性力の値を積分することによって無人走行車両15の方位と姿勢を計測しながら生成した走行経路に沿うように自律走行を行う。なお、無人走行車両15は、車輪回転数センサ44で計測された移動量、及び慣性センサ46で計測された方位に基づいて座標変換することによって、自身の現在位置を導出する。また、無人走行車両15は、自身の移動距離を距離カウントA及び距離カウントBとしてカウントする。
The
さらに、無人走行車両15は、図9に示すように、自律走行を行っている間、予め定められた同一の対象物が画像のほぼ中央(撮影中心)に位置するように所定の撮影区間毎に撮影を行い、撮影により取得した画像を示す画像情報を送受信部50を介して誘導装置10へ送信する。なお、自律走行中の無人走行車両15は、同一対象物が撮影中心に来るようカメラ42の向きを変え、且つ各画像の重複が大きくなるように所定の撮影区間毎に画像を撮影する。
Further, as shown in FIG. 9, the unmanned traveling
上記所定の撮影区間とは、換言すると、図9に示すように、無人走行車両15の移動量の間隔を示すが、該撮影区間の長さは、カメラ42の解像度によって予め設定されている。具体的には、解像度が低いほど、カメラ42は、遠方を見渡せないため、撮影区間を短く設定する。
In other words, as shown in FIG. 9, the predetermined shooting section indicates an interval of the movement amount of the unmanned traveling
また、無人走行車両15は、移動量、現在位置、及びカメラ42によって撮影された撮影画像等を、送受信部50を介して誘導装置10へ適宜送信している。
Further, the unmanned traveling
次のステップ108では、無人走行車両15が目標地点に到達したか否かを判定し、肯定判定の場合は、本プログラムを終了する一方、否定判定の場合は、ステップ110へ移行する。なお、無人走行車両15は、自身が目標地点に到達すると、目標地点に到達したことを示す到達信号を、送受信部50を介して誘導装置10へ送信する。そして、誘導装置10は、無人走行車両15から送信された到達信号を受信した場合に、無人走行車両15が目標地点に到達したと判定する。
In the next step 108, it is determined whether or not the unmanned traveling
ステップ110では、無人走行車両15の距離カウントAが測量実行間隔TAに達したか否かを判定し、肯定判定の場合は、ステップ112へ移行する一方、否定判定の場合は、ステップ108へ戻る。なお、無人走行車両15は、距離カウントAが測量実行間隔TAに達すると、測量実行間隔TAに達したことを示す間隔TA到達信号を送受信部50を介して誘導装置10へ送信する。そして、誘導装置10は、無人走行車両15から送信された間隔TA到達信号を受信した場合に、無人走行車両15の距離カウントAが測量実行間隔TAに達したと判定する。無人走行車両15は、測量実行間隔TAに達した場合には、移動を停止する。
At step 110, it is determined whether the distance count A of the
次のステップ112では、自律走行中においてカメラ42による所定の撮影区間毎の撮影で取得された所定の撮影区間毎の撮影画像に基づいて三角測量(以下、「バンドル標定処理」と呼ぶ。)を行うことで、無人走行車両15の移動量(現在位置)を導出する。
In the next step 112, triangulation (hereinafter referred to as “bundle orientation processing”) is performed based on the photographed image for each predetermined photographing section acquired by photographing for each predetermined photographing section by the
オペレータは、操作入力部20及び自律走行中に撮影された複数枚の撮影画像が表示された画像表示部22を介して図10の例に示すように、各撮影画像における同一の対象点に同一の番号を付加することによって、複数枚の撮影画像の対応付けを行う。そして、誘導装置10は、撮影画像上で対応付けられた対象点の座標情報に基づいて、バンドル標定処理を行うことで、各撮影画像を撮影した無人走行車両15の現在位置(進行方向(図9のX方向)及びX方向に直交する方向(図9のY方向))を導出する。
As shown in the example of FIG. 10, the operator can identify the same target point in each captured image through the
なお、バンドル標定処理では、各撮影画像の重複する撮影対象領域が大きいと、位置の推定誤差が小さくなるため、撮影画像は、各画像の重複が大きくなるように所定の撮影区間毎に撮影される。 Note that in the bundle orientation processing, if the area to be imaged in which each captured image overlaps is large, the position estimation error is reduced. Therefore, the captured image is captured for each predetermined imaging section so that the overlap between the images is increased. The
一方、カメラ42で所定の撮影区間毎に撮影された撮影画像からバンドル標定ができない場合(無人走行車両15の移動領域周辺が一様な地形のため、対応付けに用いる対象物が存在せず撮影画像毎の対応付けができない場合)は、バンドル標定は行われずに、車輪回転数センサ44及び慣性センサ46を用いた自律走行を行う。
On the other hand, in the case where bundle orientation cannot be performed from the photographed images photographed for each predetermined photographing section by the camera 42 (because the area around the moving area of the unmanned traveling
そして、誘導装置10は、無人走行車両15の移動量(現在位置)の計測が終了すると、計測結果である現在位置と共に移動を再開させるための走行開始信号を、送受信部24を介して無人走行車両15に送信する。無人走行車両15は、現在位置と共に走行開始信号を受信すると、受信した現在位置から目標地点までの走行経路を再び生成し、該走行経路に沿って自律走行を再開すると共に、距離カウントAをリセットし、新たに距離カウントAをカウントする。
Then, after the measurement of the movement amount (current position) of the unmanned traveling
次のステップ114では、無人走行車両15の距離カウントBが誤差リセット間隔TBに達したか否かを判定し、肯定判定の場合は、ステップ116へ移行する一方、否定判定の場合は、ステップ108へ戻る。そして、無人走行車両15は、自身の距離カウントBが誤差リセット間隔TBに達すると、誤差リセット間隔TBに達したことを示す間隔TB到達信号を、送受信部50を介して誘導装置10へ送信する。そして、誘導装置10は、無人走行車両15から送信された間隔TB到達信号を受信した場合に、無人走行車両15の距離カウントBが誤差リセット間隔TBに達したと判定する。無人走行車両15は、誤差リセット間隔TBに達した場合には、移動を停止する。
In the next step 114, the distance count B of
ステップ116では、ステップ102で実行した教示点指定方法と同様の処理によって、無人走行車両15の現在位置を導出し、無人走行車両15へ導出した現在位置を送信し、ステップ108へ戻る。
In step 116, the current position of the unmanned traveling
なお、ステップ116による教示点指定方法では、無人走行車両15が誤差リセット間隔TBに達した位置でカメラ42によって新たに撮影された撮影画像から複数の教示点Pnが指定される。また、平面地図から指定され複数の教示点Qnは、新たに指定してもよいし、ステップ102で指定された教示点Qnとしてもよい。
In the teaching point specified process according to step 116,
このように、教示点指定方法によって、車輪回転数センサ44、慣性センサ46、及びバンドル標定処理による移動量及び現在位置の誤差は、リセットされる。そして、無人走行車両15は、ステップ116で導出された現在位置を起点として、経由地点、及び目標地点を結ぶ走行経路を再び生成し、自律走行を再開すると共に、距離カウントBをリセットし、新たに距離カウントBをカウントする。
As described above, according to the teaching point designation method, the wheel
以上説明したように、本第1実施形態に係る誘導装置10は、無人走行車両15の移動量が誤差リセット間隔TBに達した場合に、無人走行車両15が有するカメラ42で撮影された撮影画像から指定された複数の教示点Pn、及び移動地図から指定された複数の教示点Qnに基づいて無人走行車両15の現在位置を導出するので、計測手段による累積誤差をリセットすることができ、その結果、GPSが使用できない場所でも無人走行車両15を精度良く目標地点へ到達させることができる。
As described above, the
〔第2実施形態〕
以下、本発明の第2実施形態について説明する。
[Second Embodiment]
Hereinafter, a second embodiment of the present invention will be described.
なお、本第2実施形態に係る誘導装置10の構成は、図2に示される第1実施形態に係る誘導装置10の構成と同様であるので説明を省略する。
The configuration of the
図11に、本第2実施形態に係る無人走行車両15の構成を示す。なお、図11における図3と同一の構成部分については図3と同一の符号を付して、その説明を省略する。
FIG. 11 shows the configuration of the unmanned traveling
無人走行車両15は、移動量センサ60を備えている。
The
移動量センサ60は、図12に示すようにテレセントリックレンズ70を備えたカメラ72を有している。なお、テレセントリックレンズは、光軸が直線であるため、焦点が合う範囲では、撮影面までの距離の変化によって画像の拡大縮小(形状の変化)が起きないという特徴を有している。
The
カメラ72から出力された撮影画像を示すアナログ信号は、画像キャプチャボード74に入力されデジタル信号に変換される。そして、画像処理部76が、画像キャプチャボード74から出力された撮影画像を示すデジタル信号対して画像処理を行うことで、カメラ72によって連続して撮影された撮影画像により示される被写体の位置に基づいて、無人走行車両15の移動量が計測される。
An analog signal indicating a captured image output from the
なお、本第2実施形態に係る移動量センサ60は、図12に示すように、カメラ72とテレセントリックレンズ70は、地面に向いており、無人走行車両15が自律走行している間、地面を連続して撮影する。
As shown in FIG. 12, the
本第2実施形態に係る画像処理部76における画像処理は、カメラ72で連続して撮影された撮影画像から地面の模様の特徴点を抽出し、抽出した特徴点をトラッキング、すなわち、各撮影画像をブロックマッチングすることによって、連続する撮影画像における特徴点の位置の差分量を算出する。そして、画像処理部76は、算出した差分量、カメラ72、及びテレセントリックレンズ70のパラメータ等に基づいた幾何学計算によって、無人走行車両15の移動量を計測する。
In the image processing in the
さらに、本第2実施形態では、無人走行車両15が自律走行している場合は、車輪回転数センサ44では、車輪がスリップすると移動量に測定誤差が大きくなるため、移動量センサ60を優先して用いる。しかし、移動量センサ60は、不整地で無人走行車両15が揺動した場合、カメラ72のピントが合わず、移動量を正しく計測できない。そのため、不整地を無人走行車両15が移動する場合、無人走行車両15は、車輪回転数センサ44によって無人走行車両15の移動量を計測する。
Furthermore, in the second embodiment, when the unmanned traveling
なお、移動量センサ60及び車輪回転数センサ44の切り替え方法として、移動領域内の不整地が予め判明している場合には、判明している不整地に無人走行車両15が移動したときに車輪回転数センサ44に切り替わり、判明している不整地から無人走行車両15が移動したときに移動量センサ60に切り替わるように設定する方法してもよい。なお、これに限らず、慣性センサ46が、無人走行車両15の揺動の大きさを検知し、揺動の大きさが予め定められた大きさを超えた場合に車輪回転数センサ44に切り替わり、揺動の大きさが予め定められた大きさ以下となった場合に移動量センサ60に切り替わるように設定する方法等、他の方法としてもよい。
In addition, as a switching method of the
〔第3実施形態〕
以下、本発明の第3実施形態について説明する。
[Third Embodiment]
Hereinafter, a third embodiment of the present invention will be described.
なお、本第3実施形態に係る誘導装置10の構成は、図2に示される第1実施形態に係る誘導装置10の構成と同様であるので説明を省略する。また、本第3実施形態に係る無人走行車両15の構成は、図11に示される第2実施形態に係る無人走行車両15の構成と同様であるので説明を省略する。
The configuration of the
本第3実施形態に係る無人走行車両15は、自律走行において、車輪回転数センサ44による無人走行車両15の移動量の計測、及び移動量センサ60によって撮影された撮影画像に基づいた無人走行車両15の移動量の計測のうち、より計測誤差が小さい計測を行う。
The
図13に、本第3実施形態に係る無人走行車両15の移動面の傾斜角に対する、車輪回転数センサ44で取得された回転数から求められる移動量(以下、「オドメトリ」という。)及び移動量センサ60から求められる移動量の計測誤差の変化を示す。図13に示されるように、オドメトリの計測誤差は、無人走行車両15の移動面の傾斜角が大きくなるほど大きくなるが、移動量センサ60の計測誤差は、無人走行車両15の移動面の傾斜角にかかわらずほぼ一定である。
In FIG. 13, the movement amount (hereinafter referred to as “odometry”) and movement obtained from the rotational speed acquired by the wheel
これは、無人走行車両15の移動面の傾斜角が大きくなるほど、斜面を下り滑る力が増大し、移動面である土壌と車輪とのスリップ率が高くなるためである。すなわち、無人走行車両15の車輪のスリップ率とオドメトリの計測誤差には相関関係がある。一方、移動量センサ60の計測誤差は、撮影画像のブロックマッチングを行うときの量子化誤差、カメラ72のキャリブレーション誤差、移動面の傾斜による誤差等が含まれる。このうち、移動面の傾斜による誤差は、慣性センサ46で計測した無人走行車両15の姿勢に基づいて、補正するため、移動量センサ60の計測誤差は、ほぼ一定となる。
This is because as the inclination angle of the moving surface of the unmanned traveling
そこで、本第3実施形態に係る無人走行車両15は、移動面の傾斜角から車輪のスリップ率を推定し、推定したスリップ率に基づいて、移動量センサ60及び車輪回転数センサ44を切り替えて無人走行車両15の移動量を計測する切替処理を行う。
Therefore, the unmanned traveling
以下に、切替処理を具体的に説明する。 The switching process will be specifically described below.
まず、移動量センサ60の計測誤差を、予め試験を行うことにより取得する。
First, the measurement error of the
また、無人走行車両15の車輪のスリップによるオドメトリ計測誤差と移動面の傾斜との関係を予め試験を行うことにより取得する。なお車輪のスリップは、移動面の傾斜角のみならず、移動面の土壌の特性、車輪の形状にも依存するため、これらを模擬した試験を予め行う。また、無人走行車両15の傾斜角に対するオドメトリ誤差情報、及び移動量センサ60の計測誤差を示す移動量センサ誤差情報を記憶部48に記憶させる。
Further, the relationship between the odometry measurement error due to the wheel slip of the unmanned traveling
そして、無人走行車両15は、自律走行している場合に、現在の傾斜角と記憶部48に記憶されているオドメトリ誤差情報からオドメトリ計測誤差を推定し、移動量センサ誤差情報に示される移動量センサ60の計測誤差と比較する。この比較によって、移動量センサ60の計測誤差がオドメトリの計測誤差よりも小さい場合には、移動量センサ60を用いる。一方、移動量センサ60の計測誤差がオドメトリの計測誤差よりも大きい場合には、オドメトリを用いる。なお、移動量センサ60による移動量の計測ができない場合は、オドメトリによる移動量の計測を行う。
When the unmanned traveling
この結果、図14(A)に示すように、傾斜角0°では、切替処理を行った場合、オドメトリのみの場合、及びオドメトリと慣性センサ46を用いた場合とでは、走行距離に対する計測誤差に有意な差はないが、図14(B)に示すように傾斜角20°では、切替処理を行った場合は、オドメトリのみの場合及びオドメトリと慣性センサ46を用いた場合に比較して走行距離に対する計測誤差が小さくなる。このように、無人走行車両15で得られた情報のみから、無人走行車両15の移動量をより精度高く計測することができる。
As a result, as shown in FIG. 14A, at an inclination angle of 0 °, when the switching process is performed, only when the odometry is performed, and when the odometry and the
以上、本発明を、上記各実施形態を用いて説明したが、本発明の技術的範囲は上記各実施形態に記載の範囲には限定されない。発明の要旨を逸脱しない範囲で上記各実施形態に多様な変更または改良を加えることができ、該変更または改良を加えた形態も本発明の技術的範囲に含まれる。 As mentioned above, although this invention was demonstrated using said each embodiment, the technical scope of this invention is not limited to the range as described in each said embodiment. Various changes or improvements can be added to the above-described embodiments without departing from the gist of the invention, and embodiments to which the changes or improvements are added are also included in the technical scope of the present invention.
例えば、上記各実施形態では、誘導装置10が地球上に配置されている場合について説明したが、本発明は、これに限定されるものではなく、誘導装置10が地球とは異なる星(例えば、月)に配置されている形態としてもよい。
For example, in each of the above embodiments, the case where the
また、上記各実施形態では、無人走行車両15が月面を走行する場合について説明したが、本発明は、これに限定されるものではなく、無人走行車両15が地球上を走行する形態としてもよい。この形態の場合、無人走行車両15がGPS衛星電波の受信ができない地球上を走行する場合や、GPS衛星電波の受信が可能な無人走行車両15が何らかの理由によってGPS衛星電波の受信が不可能となった場合に、誘導装置10が走行誘導プログラムを実行することによって、無人走行車両15を誘導して走行させる。
In the above embodiments, the case where the unmanned traveling
また、上記各実施形態では、誘導装置10が、無人走行車両15が有するカメラで撮影された撮影画像から指定された複数の教示点Pn、及び移動地図から指定された複数の教示点Qnに基づいて無人走行車両15の現在位置を導出する場合について説明したが、本発明は、これに限定されるものではなく、無人走行車両15の制御部40が、誘導装置10で指定された複数の教示点Pn及び複数の教示点Qnに基づいて、無人走行車両15の現在位置を導出する形態としてもよい。
Further, in each of the above-described embodiments, the
10 誘導装置
15 無人走行車両
12 CPU
42 カメラ
44 車輪回転数センサ
46 慣性センサ
60 移動量センサ
70 テレセントリックレンズ
72 カメラ
10
42
Claims (7)
前記無人走行車両が移動する移動領域を平面で示した平面画像から指定された目標地点を前記無人走行車両へ送信する送信手段と、
前記撮影手段によって撮影された撮影画像から前記撮影手段の撮影面における複数の第1点、及び前記平面画像から前記移動領域における複数の第2点を、前記複数の第1点と前記複数の第2点とが各々対応し、かつ対応する該第1点及び該第2点が前記無人走行車両の現在位置と直線で結ばれる位置関係となるように指定する指定手段と、
前記複数の第1点と前記複数の第2点に基づいて、前記撮影手段の中心の絶対座標を導出し、該中心を前記無人走行車両の現在位置とする第1導出手段と、
前記第1導出手段で導出された現在位置を起点として、前記無人走行車両が前記計測手段による現在位置の計測を行いつつ前記目標地点へ向けて走行している途中で、前記計測手段による計測誤差の累積値が所定値に達した場合に該累積値をリセットし、前記撮影手段によって新たに撮影された撮影画像から指定された複数の第1点、及び前記平面画像から指定された複数の第2点に基づいて前記無人走行車両の現在位置を再び導出する第2導出手段と、
を備える誘導装置。 An apparatus for guiding an unmanned traveling vehicle that has an imaging unit that captures a subject and a measuring unit that measures the amount of movement of the subject, and that moves to a target point while measuring the amount of movement of the subject by the measuring unit,
Transmitting means for transmitting to the unmanned traveling vehicle a target point designated from a planar image showing a moving region in which the unmanned traveling vehicle moves in a plane;
A plurality of first point in the imaging plane of the photographing means from the image captured by the imaging means, and a plurality of second points in the movement area from the planar image, the said plurality of first point of the plurality Designating means for designating such that the two points correspond to each other, and the corresponding first point and the second point are in a positional relationship connected to the current position of the unmanned traveling vehicle by a straight line;
Based on said plurality of second points and said plurality of first point, to derive the absolute coordinates of the center of the imaging means, a first derivation means for the said center and a current position of the unmanned vehicle,
Starting from the current position derived by said first deriving means, said in the course of unmanned vehicle is traveling toward the target position while performing the measurement of the current position by said measuring means, the measurement error due to the measurement means When the accumulated value reaches a predetermined value, the accumulated value is reset , and a plurality of first points designated from the photographed image newly photographed by the photographing means and a plurality of first points designated from the planar image are obtained. Second deriving means for deriving the current position of the unmanned traveling vehicle again based on two points;
A guidance device comprising:
前記計測手段は、前記撮影手段による所定の撮影区間毎の撮影で取得された複数の撮影画像に基づいて三角測量を行うことで、前記無人走行車両の移動量を計測する請求項1又は請求項2記載の誘導装置。 The photographing means performs photographing for each predetermined photographing section so that the same predetermined object is located at substantially the center of the photographed image while the unmanned traveling vehicle is traveling,
Said measuring means, said imaging means by by performing triangulation based on a plurality of captured images obtained by photographing a predetermined photographing interval claim 1 or claim to measure the amount of movement of the unmanned vehicle 2. The guidance device according to 2 .
前記無人走行車両が移動する移動領域を平面で示した平面画像から指定された目標地点を前記無人走行車両へ送信する第1工程と、
前記撮影手段によって撮影された撮影画像から前記撮影手段の撮影面における複数の第1点、及び前記平面画像から前記移動領域における複数の第2点を、前記複数の第1点と前記複数の第2点とが各々対応し、かつ対応する該第1点及び該第2点が前記無人走行車両の現在位置と直線で結ばれる位置関係となるように指定する第2工程と、
前記複数の第1点と前記複数の第2点に基づいて、前記撮影手段の中心の絶対座標を導出し、該中心を前記無人走行車両の現在位置とする第3工程と、
前記第3工程で導出された現在位置を起点として、前記無人走行車両が前記計測手段による現在位置の計測を行いつつ目標地点へ向けて走行している途中で、前記計測手段による計測誤差の累積値が所定値に達した場合に該累積値をリセットし、前記撮影手段によって新たに撮影された撮影画像から指定された複数の第1点、及び前記平面画像から指定された複数の第2点に基づいて前記無人走行車両の現在位置を再び導出する第4工程と、
を含む誘導方法。 A method for guiding an unmanned traveling vehicle that has a photographing unit that photographs a subject and a measuring unit that measures the amount of movement of the subject, and moves to a target point while measuring the amount of movement of the subject by the measuring unit,
A first step of transmitting, to the unmanned traveling vehicle, a target point designated from a planar image showing a moving area in which the unmanned traveling vehicle moves in a plane;
A plurality of first point in the imaging plane of the photographing means from the image captured by the imaging means, and a plurality of second points in the movement area from the planar image, the said plurality of first point of the plurality A second step of designating that the two points correspond to each other and that the corresponding first point and the second point are in a positional relationship connected with the current position of the unmanned traveling vehicle in a straight line;
Based on said plurality of second points and said plurality of first point, to derive the absolute coordinates of the center of the imaging means, and a third step of the said center and a current position of the unmanned vehicle,
Accumulation of measurement errors by the measuring means while the unmanned traveling vehicle is traveling toward the target point while measuring the current position by the measuring means, starting from the current position derived in the third step. When the value reaches a predetermined value, the accumulated value is reset , and a plurality of first points designated from the photographed image newly photographed by the photographing means and a plurality of second points designated from the planar image A fourth step of deriving the current position of the unmanned traveling vehicle again based on:
Induction method including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010140704A JP5610870B2 (en) | 2010-06-21 | 2010-06-21 | Unmanned traveling vehicle guidance device and unmanned traveling vehicle guidance method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010140704A JP5610870B2 (en) | 2010-06-21 | 2010-06-21 | Unmanned traveling vehicle guidance device and unmanned traveling vehicle guidance method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012003706A JP2012003706A (en) | 2012-01-05 |
JP5610870B2 true JP5610870B2 (en) | 2014-10-22 |
Family
ID=45535567
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010140704A Active JP5610870B2 (en) | 2010-06-21 | 2010-06-21 | Unmanned traveling vehicle guidance device and unmanned traveling vehicle guidance method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5610870B2 (en) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6011562B2 (en) * | 2014-02-27 | 2016-10-19 | Jfeスチール株式会社 | Self-propelled inspection device and inspection system |
KR102257303B1 (en) * | 2014-07-30 | 2021-05-31 | 얀마 파워 테크놀로지 가부시키가이샤 | Remote control apparatus |
US10339389B2 (en) * | 2014-09-03 | 2019-07-02 | Sharp Laboratories Of America, Inc. | Methods and systems for vision-based motion estimation |
JP6363462B2 (en) * | 2014-10-03 | 2018-07-25 | シャープ株式会社 | Autonomous traveling device |
JP6387782B2 (en) | 2014-10-17 | 2018-09-12 | ソニー株式会社 | Control device, control method, and computer program |
US9744670B2 (en) * | 2014-11-26 | 2017-08-29 | Irobot Corporation | Systems and methods for use of optical odometry sensors in a mobile robot |
JP6243944B2 (en) * | 2016-03-18 | 2017-12-06 | 本田技研工業株式会社 | Unmanned work vehicle |
JP6235640B2 (en) * | 2016-03-18 | 2017-11-22 | 本田技研工業株式会社 | Unmanned work vehicle |
JP6655129B2 (en) * | 2018-06-27 | 2020-02-26 | シャープ株式会社 | Autonomous traveling device |
JP7349909B2 (en) * | 2019-12-27 | 2023-09-25 | 株式会社Ihiエアロスペース | Position identification device, mobile object position identification system, and position identification method |
JP7014261B2 (en) * | 2020-06-15 | 2022-02-01 | ソニーグループ株式会社 | Control method and control device |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3245284B2 (en) * | 1993-12-01 | 2002-01-07 | 富士重工業株式会社 | Self-position detection method for autonomous mobile work vehicles |
JPH0854927A (en) * | 1994-08-10 | 1996-02-27 | Kawasaki Heavy Ind Ltd | Landmark deciding method and device |
RU2220643C2 (en) * | 2001-04-18 | 2004-01-10 | Самсунг Гванджу Электроникс Ко., Лтд. | Automatic cleaning apparatus, automatic cleaning system and method for controlling of system (versions) |
JP4984650B2 (en) * | 2006-05-30 | 2012-07-25 | トヨタ自動車株式会社 | Mobile device and self-position estimation method of mobile device |
US8339393B2 (en) * | 2006-11-21 | 2012-12-25 | Nec Corporation | Three-dimensional map data generating system, three-dimensional map data generating method and three-dimensional map data generating program |
JP2011043419A (en) * | 2009-08-21 | 2011-03-03 | Sony Corp | Information processor, information processing method, and program |
-
2010
- 2010-06-21 JP JP2010140704A patent/JP5610870B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012003706A (en) | 2012-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5610870B2 (en) | Unmanned traveling vehicle guidance device and unmanned traveling vehicle guidance method | |
KR102425272B1 (en) | Method and system for determining a position relative to a digital map | |
EP2133662B1 (en) | Methods and system of navigation using terrain features | |
CN104932515B (en) | A kind of autonomous cruise method and equipment of cruising | |
KR100556103B1 (en) | Method for aerial photogrammetry using computer controlled navigation and photographing system | |
JP6380936B2 (en) | Mobile body and system | |
US20080195316A1 (en) | System and method for motion estimation using vision sensors | |
JP2002511614A (en) | Tracking and detection of object position | |
JP6138326B1 (en) | MOBILE BODY, MOBILE BODY CONTROL METHOD, PROGRAM FOR CONTROLLING MOBILE BODY, CONTROL SYSTEM, AND INFORMATION PROCESSING DEVICE | |
KR101444685B1 (en) | Method and Apparatus for Determining Position and Attitude of Vehicle by Image based Multi-sensor Data | |
US20190293450A1 (en) | Attitude estimation apparatus, attitude estimation method, and observation system | |
JP5762131B2 (en) | CALIBRATION DEVICE, CALIBRATION DEVICE CALIBRATION METHOD, AND CALIBRATION PROGRAM | |
WO2016059904A1 (en) | Moving body | |
JP2016048172A (en) | Image processor, image processing method, and program | |
EP3765820B1 (en) | Positioning method and positioning apparatus | |
JP4436632B2 (en) | Survey system with position error correction function | |
JP6135972B2 (en) | Orientation method, orientation program, and orientation device | |
JP5716273B2 (en) | Search target position specifying device, search target position specifying method and program | |
JP4986883B2 (en) | Orientation device, orientation method and orientation program | |
JP5355443B2 (en) | Position correction system | |
JP2018084492A (en) | Self-position estimation method and self-position estimation device | |
CN105959529B (en) | It is a kind of single as method for self-locating and system based on panorama camera | |
JP2021143861A (en) | Information processor, information processing method, and information processing system | |
WO2021143664A1 (en) | Method and apparatus for measuring distance of target object in vehicle, and vehicle | |
JP2017181393A (en) | Navigation device and navigation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130328 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140805 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140902 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5610870 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |