JP3740883B2 - Control method of unmanned mobile cart - Google Patents

Control method of unmanned mobile cart Download PDF

Info

Publication number
JP3740883B2
JP3740883B2 JP08272999A JP8272999A JP3740883B2 JP 3740883 B2 JP3740883 B2 JP 3740883B2 JP 08272999 A JP08272999 A JP 08272999A JP 8272999 A JP8272999 A JP 8272999A JP 3740883 B2 JP3740883 B2 JP 3740883B2
Authority
JP
Japan
Prior art keywords
program
sensor
wall
image
intersection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP08272999A
Other languages
Japanese (ja)
Other versions
JP2000276228A (en
Inventor
久人 中嶋
幸彦 北野
宏一 三谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Priority to JP08272999A priority Critical patent/JP3740883B2/en
Publication of JP2000276228A publication Critical patent/JP2000276228A/en
Application granted granted Critical
Publication of JP3740883B2 publication Critical patent/JP3740883B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Warehouses Or Storage Devices (AREA)
  • Image Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は工場や事務所、病院、福祉施設といった施設において無人で目的地まで移動を行う無人移動台車の制御方法に関するものである。
【0002】
【従来の技術】
無人移動台車の走行及び操舵の制御については、従来より台車周辺のセンシングを行う複数のセンサの信号を処理することで行うもの(例えば特開平7−141026号公報)と、台車に設けたカメラからの画像処理に基づいて行うもの(例えば特開平5−46240号公報)との2種が提供されている。
【0003】
前者の場合、たとえば台車の前後左右に超音波センサのようなセンサを取り付けて、前後のセンサで障害物の検知を、左右のセンサで通路に対する車体の平行度を検出し、これらの検出結果に基づいて走行と操舵とを行う。
【0004】
後者の場合、撮像した画像から交差点やコーナーなどにある誘導用マーカを検出して、台車を追従させることがなされている。
【0005】
【発明が解決しようとする課題】
ところでセンサを用いたものでは、障害物を検出することは可能であるが、移動路に交差点あるといった環境では、これらと障害物とを識別することが困難である。
【0006】
また、画像処理に基づくものでは、通路上に存在する未知のあらゆる障害物を検出することが困難であり、また誘導用のマーカを使用する時、予めマーカを設置しなくてはならない。
【0007】
本発明はこのような点に鑑みなされたものであって、その目的とするところは移動路に誘導用マーカを設置しなくてもよい上に、交差点ある環境でも通路上にある障害物を回避して指示された目的地までの無人走行を行わせることができる無人移動台車の制御方法を提供するにある。
【0008】
【課題を解決するための手段】
本発明は、台車に設けられて台車の車体周辺部のセンシングを行う複数個のセンサからの出力をもとに障害物の検出及び回避や通路に対する車体の平行度補償を行うセンサ用プログラムと、台車に設けた複数個のカメラから得られる台車の進行方向の画像をもとに通路の交差点やコーナーなどを認識する画像用プログラムと、上記両プログラムの演算結果に応じて進行方向の決定と走行速度や操舵量の制御を行うメインプログラムとで台車の走行操舵を制御する無人移動台車の制御方法であって、センサ用プログラムは台車車体の前部寄りの両側に取り付けたセンサの出力をもとに前進時の壁の有無の判定を行い、台車車体の後部寄りの両側に取り付けたセンサの出力をもとに後退時の壁の判定を行い、上記画像用プログラムは通路端を示す壁との境界線の途切れ部分の検出で交差点やT字路を認識することに特徴を有している。センサの出力結果とカメラによる画像の処理結果とを勘案して制御するものである。
【0009】
上記画像用プログラムは通路端を示す壁との境界線の途切れ部分の検出と同時に途切れ部までの距離の計測を行い、メインプログラムは上記途切れ部に対応するセンサ用プログラムの出力結果との照合により、T字路または交差点と障害物との識別を行うようにしておくのが好ましい。また、障害物検出時の回避動作を画像用プログラムが行った画像処理の結果に基づいて行うのが好ましい。
【0010】
画像用プログラムは通路端を示す壁との境界線を画像の水平方向において検出することでコーナーや行き止まりを認識するようにすればよい。
【0012】
センサ用プログラムにおいて車体側面のセンサによる壁の検出に際しては、壁までの距離が有無判定の閾値以上もしくは以下の状態が一定時間以上維持された時点で台車側部での通路有無を判定することが好ましい。
【0020】
【発明の実施の形態】
以下本発明を実施の形態の一例に基づいて詳述すると、図1は本発明において用いる無人移動台車の構成を示しており、独立駆動されることで操舵も兼ねている左右の駆動車輪のための駆動モータ4,4を備えて、該駆動モータ4,4を作動させることによって走行及び操舵を行う台車は、その車体の前後及び左右に夫々赤外線センサーや超音波センサーのような非接触式の距離検知センサ1a,1b,1c,1dを備えて、前方と後方並びに左右の側方の障害物や移動路に沿った壁を検出することができるようになっている。
【0021】
また、上記台車車体は前方に向けた左右一対のカメラ2a,2bを撮像手段として備えており、これらカメラ2a,2bが接続された画像処理装置8では、ステレオ視による距離測定を行うことができるものとなっている。なお、上記両カメラ2a,2bはカメラ回転機構3上に設置されて、その向きを変えることができるために、後退時にも進行方向の画像を得ることができる。
【0022】
上記駆動モータ4,4及び上記カメラ回転機構3の駆動制御を行う制御装置6は、マイクロコンピュータで構成されたもので、上記画像処理装置8を介してカメラ2a,2bが接続されているとともに、A/D変換装置7を介して各センサ1a,1b,1c,1dも接続されており、さらには上記駆動モータ4に付設されたエンコーダ5が接続されている。このエンコーダ5は、走行距離の計測のためのものである。
【0023】
上記制御装置6は、画像処理装置8を通じて得た情報と、センサ1a,1b,1c,1dから得た情報、そしてエンコーダ5を通じて得た走行距離情報をもとに、台車の走行と操舵についての制御を行うのであるが、この制御装置6では、センサ1a,1b,1c,1dからの信号によって障害物回避や台車の通路に対する平行度の補償を行うセンサ用プログラムと、カメラ2a,2bから得られた画像によって通路や交差点などの認識を行う画像用プログラムと、この両プログラムの演算結果に応じて右左折などの進行方向の決定を行うメインプログラムを並列的に実行することで、走行速度や操舵量を決定して台車の移動動作を制御する。また、上記エンコーダ5からのパルス信号をカウントして走行距離に変換することも、上記制御装置6において行う。
【0024】
次に、制御装置6において行う処理について説明する。台車1の進行方向に図2(a)に示すように、交差点10やT字路11があった場合、カメラからの画像(図2(b)参照)を画像用プログラムで処理した結果、壁との境界線が途切れた部分イが認識される。途切れた部分イが左右両方にある場合は交差点10が、片側のみにある場合はT字路11があることを制御装置6で検出することができる。
【0025】
もっとも、図3に示すように通路端に障害物12があった場合でも、上記画像用プログラムでは壁との境界線が途切れて認識されてT字路11と誤認されるおそれがある。このために、台車車体の進行方向側に取り付けたセンサ1aもしくはセンサ1bの信号をセンサ用プログラムで処理し、障害物12を検知した場合は途切れた部分が交差点やT字路でないと識別するものであり、障害物12を検知しなかった場合は交差点等であると識別する。
【0026】
そして、壁との境界線が途切れている部分が障害物12によるものであると判定した場合、回避動作を行うことが必要となる。この際、図4に示すように、左側の境界線に途切れがあった場合、右側に回避動作を、右側の境界線に途切れがあった場合、左側に回避動作を行うことにより、障害物によって行き詰まって後退を余儀なくされることを防ぐことができる。
【0027】
また、図5(a)及び図6(a)に示すように、台車の進行方向にコーナー13や行き止まり14があった場合、カメラからの画像を画像用プログラムで処理した結果、壁との境界線が水平方向に認識されるが、図6(b)に示すように水平方向に認識された境界線で左右両方の境界線が途切れている場合は行き止まり14であることを、図5(b)に示すように水平方向に認識された境界線で片側の境界線のみが途切れている場合は他の片側へと曲がっているコーナー13であることを認識することができる。
【0028】
台車の通路が略90°の縦横に交差している環境下では、台車が交差点10に進入したとき、図7(a)に示すように、左右に取り付けられたセンサ1c,1dは壁の反応が無い状態となり、センサ用プログラムでこれが検出される。一方、交差点への進入前にカメラ2a,2bからの画像を画像用プログラムが処理することで、この交差点10の認識と距離の計測とがなされているので、走行距離とこれらを照合することで、交差点10への進入が確実に検出される。
【0029】
交差点10から通路へ進入する場合は、図7(b)に示すように、左右のセンサ1c,1dで壁の反応が得られるようになるために、同様にセンサ用プログラムでこれが検出され、画像用プログラムの処理結果と走行距離とを照合することで通路への進入が確実に検出される。同様の手法でT字路への進入やコーナーへの進入の検出も行うことができる。
【0030】
左右のセンサ1c,1dで交差点などへの進入を検出する場合、センサ1c,1dで得られる壁の反応の有無を、図8に示すように、一定時間T同じ状態が維持されるかどうかで判定を行う。これにより、ノイズnの混入や机の脚のような棒状の障害物による誤検出を防止することができる。
【0031】
台車車体の側部にセンサ1c、1dだけでなく、前側と後側についての両側に夫々センサ1c,1d,1e,1fを取りつけて、図9に示すように、前進中は前側のセンサ1c,1dで、後退動作中は後側のセンサ1e,1fで交差点等への進入を検出すれば、早い段階で交差点などへの進入を検出することが可能となる。
【0032】
また、先に述べたように、通路が略90°の縦横に交差している環境下では、上述の手法で交差点への進入などを検出し、図10(a)に示すような出発地15からコーナー17、交差点18、T字路19を経た目的地16までの経路を、左側のセンサ1cと右側のセンサ1dとの図10(b)に示す壁の反応の有無の変化で置換して記憶することができる。
【0033】
ところで、カメラ2a,2bからの画像を画像用プログラムで処理した結果、左側の通路端を示す壁との境界線(もしくはその延長線)が、右側の通路端を示す壁との境界線(もしくはその延長線)と画面上で交差する位置を求めることで、台車の通路に対する大よその向きを検出することができる。図11に示すように、右に傾いている場合、交差する位置は左に偏り、左に傾いている場合はその逆となる。
【0034】
また、センサ用プログラムにおいて、走行中の左右のセンサ1c,1dの出力変化を監視し、車体の通路に対する平行度を補償するように操舵量を制御しているのであるが、この時、図12に示すように、センサ用プログラムで検出された台車車体の通路に対する向きと、画像用プログラムで検出されたそれとが大よそ一致した場合のみ、その結果を補償するような操舵量の制御を行う。この結果、正確な台車の通路に対する平行度の保持がなされる。
【0035】
一方、台車が通路の交差点を直進する際などは、台車側部のセンサ1c,1dは壁の反応が無い状態となるため、センサ用プログラムの処理結果で操舵量の制御を行うと意図しない台車の動作となる。そこで、図13に示すように、台車側部のセンサ1c,1dの反応に急激な変化があった場合は、センサ用プログラムでの通路に対する車体の平行度補償を中止することによってこれを防ぐ。
【0036】
また、図14に示すように、制御装置6を上位コンピュータ61と下位コンピュータ62とに分離し、センサ用プログラムと画像用プログラムを下位コンピュータ62で、それらの演算結果に応じて右左折などの進行方向の決定を行うメインプログラムを上位コンピュータ61で実行するものとし、そして上位コンピュータ61に電力供給を行う電源63の容量を下位コンピュータ62に電力供給を行う電源64の容量よりも大きくしておく。これによって上位コンピュータ61の安定性を下位コンピュータ62の安定性よりも高くしておくことができ、誤った指示による台車の暴走等を防止することができる。また、上位コンピュータ61と下位コンピュータ62の間で相互に正常動作を確認することにより、さらに安全性を高めることができる。
【0037】
加えるに、制御装置6が無線通信装置を備えて据え付けられた管理コンピュータなどと通信することができるようにしておくことで、管理コンピュータ側で台車の異常や現在位置の把握及び指示目的地の変更が可能となる。
【0038】
【発明の効果】
以上のように本発明においては、台車に設けられて台車の車体周辺部のセンシングを行う複数個のセンサからの出力をもとに障害物の検出及び回避や通路に対する車体の平行度補償を行うセンサ用プログラムと、台車に設けた複数個のカメラから得られる台車の進行方向の画像をもとに通路の交差点やコーナーなどを認識する画像用プログラムと、上記両プログラムの演算結果に応じて進行方向の決定と走行速度や操舵量の制御を行うメインプログラムとで台車の走行操舵を制御する無人移動台車の制御方法であって、センサ用プログラムは台車車体の前部寄りの両側に取り付けたセンサの出力をもとに前進時の壁の有無の判定を行い、台車車体の後部寄りの両側に取り付けたセンサの出力をもとに後退時の壁の判定を行い、上記画像用プログラムは通路端を示す壁との境界線の途切れ部分の検出で交差点やT字路を認識するために、つまりはセンサの出力結果とカメラによる画像の処理結果とを勘案して制御するために、移動路に誘導用マーカを設置しなくてもよい上に、交差点や行き止まりなどがある環境でも通路上にある障害物を回避して指示された目的地までの無人走行を行わせることができるものであり、また、センサによって交差点等へ進入や通路への進入を早めに検出することができ、交差点において曲がる場合など、その操舵動作の容易化を図ることができ、カメラによって交差点やT字路の検出を確実に行うことができる。
【0040】
特に画像用プログラムは通路端を示す壁との境界線の途切れ部分の検出と同時に途切れ部までの距離の計測を行い、メインプログラムは上記途切れ部に対応するセンサ用プログラムの出力結果との照合により、T字路または交差点と障害物との識別を行うようにしておくことで、障害物とT字路または交差点の検出に支障をもたらすことがなくなる。
【0041】
また、障害物検出時の回避動作を画像用プログラムが行った画像処理の結果に基づいて行うと、障害物回避の確実性が向上する。
【0042】
画像用プログラムは通路端を示す壁との境界線を画像の水平方向において検出することでコーナーや行き止まりを認識するものとすれば、コーナーや行き止まりを確実に検出することができる。
【0045】
センサ用プログラムにおいて車体側面のセンサによる壁の検出に際しては、壁までの距離が有無判定の閾値以上もしくは以下の状態が一定時間以上維持された時点で台車側部での通路有無を判定することで、交差点等への進入、あるいは交差点等から通路への進入の検出についての確実性が向上する。
【図面の簡単な説明】
【図1】本発明の実施の形態の一例のブロック回路図である。
【図2】同上の交差点及びT字路における動作説明図である。
【図3】同上の障害物検出についての動作説明図である。
【図4】同上の障害物回避についての動作フローチャートである。
【図5】同上のコーナー部における動作説明図である。
【図6】同上の行き止まりにおける動作説明図である。
【図7】同上の交差点についての動作説明図である。
【図8】同上の交差点検出にあたってのノイズ対策に関するタイムチャートである。
【図9】同上の交差点についての他の動作説明図である。
【図10】同上の経路記憶に関する説明図である。
【図11】同上の画像処理による車体平行度の検出についての説明図である。
【図12】同上の操舵量決定についてのフローチャートである。
【図13】同上の操舵量決定についての他のフローチャートである。
【図14】他例のブロック回路図である。
【符号の説明】
1a,1b,1c,1d センサ
2a,2b カメラ
4 駆動モータ
5 モータエンコーダ
6 制御装置
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a control method for an unmanned moving cart that moves unattended to a destination in a facility such as a factory, office, hospital, or welfare facility.
[0002]
[Prior art]
About control of driving | running | working and steering of an unmanned mobile trolley, it is conventionally performed by processing the signal of the several sensor which performs sensing of the periphery of a trolley (for example, Unexamined-Japanese-Patent No. 7-14026), and the camera provided in the trolley | bogie. There are provided two types based on the image processing (for example, Japanese Patent Laid-Open No. 5-46240).
[0003]
In the former case, for example, sensors such as ultrasonic sensors are attached to the front, rear, left and right of the carriage, the obstacles are detected by the front and rear sensors, and the parallelism of the vehicle body with respect to the passage is detected by the left and right sensors. Based on this, traveling and steering are performed.
[0004]
In the latter case, guidance markers at intersections and corners are detected from the captured image to cause the carriage to follow.
[0005]
[Problems to be solved by the invention]
By the way, it is possible to detect an obstacle with a sensor, but it is difficult to distinguish these from the obstacle in an environment where there is an intersection on the moving path.
[0006]
In addition, in the image processing, it is difficult to detect any unknown obstacles present on the passage, and when using a guidance marker, the marker must be installed in advance.
[0007]
The present invention has been made in view of the above problems, on the place good even without installing a guidance marker the path of travel and an object thereof an obstacle in the passage on even there is an intersection environment It is an object of the present invention to provide a control method for an unmanned mobile carriage that can perform unmanned traveling to a destination that is avoided.
[0008]
[Means for Solving the Problems]
The present invention is a sensor program for detecting and avoiding obstacles and compensating for parallelism of a vehicle body with respect to a passage based on outputs from a plurality of sensors that are provided on the vehicle and sense the periphery of the vehicle body of the vehicle, An image program that recognizes intersections and corners of passages based on the images of the traveling direction of the cart obtained from a plurality of cameras provided on the cart, and the determination and traveling of the traveling direction according to the calculation results of both programs A control method for an unmanned mobile trolley that controls the traveling steering of a truck with a main program that controls the speed and steering amount. The sensor program is based on the outputs of sensors attached to both sides of the front of the truck body. to perform the determination of the presence or absence of the forward-movement of the wall, a determination of wall during retraction based on the output of sensors attached to both sides of the rear side of the truck body, the image program indicates the passage end And particularly characterized recognize intersections and T-junction in the detection of break portion of the boundary line between. The control is performed in consideration of the output result of the sensor and the processing result of the image by the camera.
[0009]
The above image program measures the distance to the discontinuity at the same time as detecting the discontinuity of the boundary line with the wall that indicates the end of the passage, and the main program compares it with the output result of the sensor program corresponding to the discontinuity. It is preferable to identify the T-junction or intersection and the obstacle. Further, it is preferable that the avoidance operation at the time of obstacle detection is performed based on the result of image processing performed by the image program.
[0010]
The image program may recognize a corner or a dead end by detecting a boundary line with the wall indicating the end of the passage in the horizontal direction of the image.
[0012]
When detecting the wall by the sensor on the side of the vehicle body in the sensor program, the presence / absence of a passage on the side of the carriage is determined when the distance to the wall is greater than or equal to the presence / absence determination threshold or more than a certain time is maintained. preferable.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described in detail based on an example of an embodiment. FIG. 1 shows a configuration of an unmanned mobile carriage used in the present invention, for left and right drive wheels that also serve as steering by being independently driven. The carts that travel and steer by operating the drive motors 4 and 4 are non-contact type sensors such as an infrared sensor and an ultrasonic sensor on the front and rear and left and right of the vehicle body, respectively. The distance detection sensors 1a, 1b, 1c, and 1d are provided so that obstacles on the front and rear sides and the left and right sides and walls along the movement path can be detected.
[0021]
Further, the cart body includes a pair of left and right cameras 2a and 2b facing forward, and the image processing apparatus 8 to which the cameras 2a and 2b are connected can perform distance measurement by stereo vision. It has become a thing. Note that both the cameras 2a and 2b are installed on the camera rotation mechanism 3 and can change their directions, so that an image in the traveling direction can be obtained even when the vehicle moves backward.
[0022]
The control device 6 that controls the drive motors 4 and 4 and the camera rotation mechanism 3 is constituted by a microcomputer, and cameras 2a and 2b are connected via the image processing device 8, Each sensor 1a, 1b, 1c, 1d is also connected via the A / D conversion device 7, and an encoder 5 attached to the drive motor 4 is also connected. This encoder 5 is for measuring the travel distance.
[0023]
Based on the information obtained through the image processing device 8, the information obtained from the sensors 1 a, 1 b, 1 c, 1 d, and the travel distance information obtained through the encoder 5, the control device 6 performs the travel and steering of the carriage. The control device 6 obtains the control program 6 from the cameras 2a and 2b, and a sensor program that performs obstacle avoidance and compensation of parallelism with respect to the carriage path by signals from the sensors 1a, 1b, 1c, and 1d. By running in parallel the image program that recognizes passages and intersections based on the images obtained and the main program that determines the direction of travel such as turning left and right according to the calculation results of both programs, The amount of steering is determined and the movement of the carriage is controlled. The control device 6 also counts the pulse signal from the encoder 5 and converts it into a travel distance.
[0024]
Next, processing performed in the control device 6 will be described. As shown in FIG. 2 (a) in the traveling direction of the carriage 1, if there is an intersection 10 or a T-junction 11, the image from the camera (see FIG. 2 (b)) is processed by the image program. The part a where the boundary line is interrupted is recognized. The control device 6 can detect that the intersection 10 is present on both the left and right sides when the interrupted portion A is present, and that the T-junction 11 is present only on one side.
[0025]
However, even when there is an obstacle 12 at the end of the passage as shown in FIG. 3, the image program may be recognized as a T-junction 11 because the boundary with the wall is interrupted. For this purpose, when the signal of the sensor 1a or sensor 1b attached to the traveling direction side of the bogie body is processed by the sensor program and the obstacle 12 is detected, it is identified that the interrupted portion is not an intersection or a T-junction. If the obstacle 12 is not detected, it is identified as an intersection or the like.
[0026]
When it is determined that the portion where the boundary line with the wall is interrupted is due to the obstacle 12, it is necessary to perform an avoidance operation. At this time, as shown in FIG. 4, when the left boundary line is interrupted, the avoidance operation is performed on the right side, and when the right boundary line is interrupted, the avoidance operation is performed on the left side. It can prevent you from getting stuck and going back.
[0027]
As shown in FIGS. 5 (a) and 6 (a), when there is a corner 13 or a dead end 14 in the traveling direction of the carriage, the image from the camera is processed by the image program, so that the boundary with the wall is obtained. Although the line is recognized in the horizontal direction, as shown in FIG. 6 (b), when both the left and right boundary lines are interrupted at the boundary line recognized in the horizontal direction, it indicates that the dead end 14 is indicated in FIG. ), When only the boundary line on one side of the boundary line recognized in the horizontal direction is interrupted, it can be recognized that the corner 13 is bent to the other side.
[0028]
In an environment where the bogie passages intersect approximately 90 ° vertically and horizontally, when the bogie enters the intersection 10, as shown in FIG. This is detected by the sensor program. On the other hand, since the image program processes the images from the cameras 2a and 2b before entering the intersection, the intersection 10 is recognized and the distance is measured. The approach to the intersection 10 is reliably detected.
[0029]
When entering the passage from the intersection 10, as shown in FIG. 7 (b), the left and right sensors 1c and 1d are able to obtain a wall reaction. The approach to the passage is reliably detected by comparing the processing result of the program for use with the travel distance. The approach to the T-junction and the approach to the corner can be detected by the same method.
[0030]
When the left and right sensors 1c and 1d detect an approach to an intersection or the like, the presence or absence of a wall reaction obtained by the sensors 1c and 1d is determined by whether or not the same state is maintained for a certain time T as shown in FIG. Make a decision. As a result, it is possible to prevent erroneous detection due to noise n or a bar-like obstacle such as a desk leg.
[0031]
The sensors 1c, 1d, 1e, and 1f are attached not only to the sensors 1c and 1d on the side of the bogie body, but also to the front and rear sides, as shown in FIG. In 1d, if the approach to the intersection or the like is detected by the rear sensors 1e and 1f during the backward movement, the approach to the intersection or the like can be detected at an early stage.
[0032]
Further, as described above, in an environment where the passages intersect approximately 90 ° vertically and horizontally, the approach to the intersection is detected by the above-described method, and the departure point 15 as shown in FIG. 10 to the destination 16 via the corner 17, the intersection 18 and the T-junction 19 is replaced with the change in presence or absence of the reaction of the wall shown in FIG. 10B between the left sensor 1c and the right sensor 1d. Can be remembered.
[0033]
By the way, as a result of processing the images from the cameras 2a and 2b with the image program, the boundary line with the wall indicating the left passage end (or an extension line thereof) is the boundary line with the wall indicating the right passage end (or By calculating the position where the extension line) intersects the screen, the approximate direction of the carriage relative to the passage can be detected. As shown in FIG. 11, when it is tilted to the right, the intersecting position is biased to the left, and when it is tilted to the left, the opposite is true.
[0034]
In the sensor program, the output change of the left and right sensors 1c and 1d during traveling is monitored, and the steering amount is controlled so as to compensate for the parallelism with respect to the passage of the vehicle body. As shown in FIG. 5, only when the direction of the bogie body detected by the sensor program with respect to the passage is roughly coincident with that detected by the image program, the steering amount is controlled so as to compensate the result. As a result, the parallelism with respect to the accurate carriage path is maintained.
[0035]
On the other hand, when the carriage goes straight at the intersection of the aisle, the sensors 1c and 1d on the side of the carriage are in a state where there is no reaction of the wall. It becomes the operation. Therefore, as shown in FIG. 13, when there is a sudden change in the reaction of the sensors 1c and 1d on the side of the carriage, this is prevented by stopping the parallelism compensation of the vehicle body with respect to the passage in the sensor program.
[0036]
Further, as shown in FIG. 14, the control device 6 is separated into a high-order computer 61 and a low-order computer 62, and the sensor program and the image program are processed by the low-order computer 62, such as turning left or right according to the calculation results. The main program for determining the direction is executed by the host computer 61, and the capacity of the power source 63 that supplies power to the host computer 61 is set larger than the capacity of the power source 64 that supplies power to the lower computer 62. As a result, the stability of the upper computer 61 can be made higher than the stability of the lower computer 62, and the runaway of the carriage due to an erroneous instruction can be prevented. Further, by confirming normal operation between the upper computer 61 and the lower computer 62, safety can be further improved.
[0037]
In addition, by making it possible for the control device 6 to communicate with a management computer or the like installed with a wireless communication device, it is possible to grasp the abnormality of the cart, the current position, and change the designated destination on the management computer side. Is possible.
[0038]
【The invention's effect】
As described above, in the present invention, detection and avoidance of obstacles and compensation of parallelism of the vehicle body with respect to the passage are performed based on outputs from a plurality of sensors provided on the vehicle for sensing the periphery of the vehicle body of the vehicle. The program for the sensor, the program for the image that recognizes the intersections and corners of the passage based on the images of the traveling direction of the cart obtained from the multiple cameras provided on the cart, and the progress according to the calculation results of both programs It is a control method for an unmanned mobile trolley that controls the traveling steering of the carriage by determining the direction and the main program that controls the running speed and the steering amount, and the sensor program is a sensor attached to both sides of the carriage body near the front. Based on the output of the vehicle, the presence of a wall at the time of forward movement is determined, the wall at the time of backward movement is determined based on the outputs of sensors attached to both sides of the rear side of the bogie body, and the above image pro Ram to recognize intersections and T-junction in the detection of break portion of the boundary line between the wall showing the passage ends, in order to control in consideration the processing result of the image by the output and the camera that is, the sensor In addition, it is not necessary to install a guide marker on the moving path, and it is possible to perform unmanned traveling to the instructed destination by avoiding obstacles on the passage even in an environment where there is an intersection or a dead end. are those, also, can be detected early entry into entrance and passage to the intersection or the like by a sensor, such as when bent at the intersection, it is possible to facilitate the the steering operation, an intersection or T-shaped by the camera It is possible to reliably detect the road.
[0040]
In particular, the image program measures the distance to the discontinuity at the same time as detecting the discontinuity of the boundary line with the wall indicating the end of the passage, and the main program compares it with the output result of the sensor program corresponding to the discontinuity. By identifying the T-junction or intersection and the obstacle, detection of the obstacle and the T-junction or intersection is not hindered.
[0041]
Further, if the avoidance operation at the time of obstacle detection is performed based on the result of the image processing performed by the image program, the certainty of obstacle avoidance is improved.
[0042]
If the image program recognizes a corner or a dead end by detecting a boundary line with the wall indicating the end of the passage in the horizontal direction of the image, the corner or the dead end can be reliably detected.
[0045]
When detecting the wall by the sensor on the side of the vehicle body in the sensor program, it is determined whether or not there is a passage on the side of the carriage when the distance to the wall is greater than or equal to the threshold value for the presence / absence determination or is maintained for a certain period of time. Certainty about the detection of the approach to the intersection or the like, or the detection of the approach to the passage from the intersection or the like is improved.
[Brief description of the drawings]
FIG. 1 is a block circuit diagram of an example of an embodiment of the present invention.
FIG. 2 is an operation explanatory diagram at the intersection and T-junction of the above.
FIG. 3 is an operation explanatory diagram of obstacle detection according to the above.
FIG. 4 is an operation flowchart for obstacle avoidance as described above.
FIG. 5 is an operation explanatory diagram at the corner portion.
FIG. 6 is a diagram for explaining the operation at a dead end.
[Fig. 7] Fig. 7 is an explanatory diagram of the operation at the intersection described above.
FIG. 8 is a time chart relating to noise countermeasures in detecting the intersection described above.
FIG. 9 is another operation explanatory diagram of the above intersection.
FIG. 10 is an explanatory diagram related to path storage according to the above.
FIG. 11 is an explanatory diagram regarding detection of vehicle parallelism by image processing same as above.
FIG. 12 is a flowchart for determining the steering amount.
FIG. 13 is another flowchart for determining the steering amount.
FIG. 14 is a block circuit diagram of another example.
[Explanation of symbols]
1a, 1b, 1c, 1d Sensors 2a, 2b Camera 4 Drive motor 5 Motor encoder 6 Control device

Claims (5)

台車に設けられて台車の車体周辺部のセンシングを行う複数個のセンサからの出力をもとに障害物の検出及び回避や通路に対する車体の平行度補償を行うセンサ用プログラムと、台車に設けた複数個のカメラから得られる台車の進行方向の画像をもとに通路の交差点やコーナーなどを認識する画像用プログラムと、上記両プログラムの演算結果に応じて進行方向の決定と走行速度や操舵量の制御を行うメインプログラムとで台車の走行操舵を制御する無人移動台車の制御方法であって、センサ用プログラムは台車車体の前部寄りの両側に取り付けたセンサの出力をもとに前進時の壁の有無の判定を行い、台車車体の後部寄りの両側に取り付けたセンサの出力をもとに後退時の壁の判定を行い、上記画像用プログラムは通路端を示す壁との境界線の途切れ部分の検出で交差点やT字路を認識することを特徴とする無人移動台車の制御方法。And program sensor for parallelism compensation of the vehicle body with respect to detection and avoidance and path of the original obstacle output from the plurality of sensor for sensing the vehicle periphery of the truck provided a truck, provided dolly An image program that recognizes intersections and corners of passages based on images of the traveling direction of the carriage obtained from a plurality of cameras, and the determination of the traveling direction and the traveling speed and steering amount according to the calculation results of both programs A control program for an unmanned mobile trolley that controls the traveling steering of the trolley with a main program that controls the vehicle, and the sensor program is based on the outputs of the sensors attached to both sides near the front of the trolley car body. perform the determination of the presence or absence of the wall, a determination of wall during retraction based on the output of sensors attached to both sides of the rear side of the truck body, the image program at the boundary between the wall showing the path end Control method for an unmanned moving truck, characterized in that recognize detected intersection or T-shaped intersection of interrupted portions of the. 上記画像用プログラムは通路端を示す壁との境界線の途切れ部分の検出と同時に途切れ部までの距離の計測を行い、メインプログラムは上記途切れ部に対応するセンサ用プログラムの出力結果との照合により、T字路または交差点と障害物との識別を行うことを特徴とする請求項1記載の無人移動台車の制御方法。 The above image program measures the distance to the discontinuity at the same time as detecting the discontinuity of the boundary line with the wall that indicates the end of the passage, and the main program compares it with the output result of the sensor program corresponding to the discontinuity. 2. The control method for an unmanned mobile carriage according to claim 1, wherein a T-shaped road or intersection and an obstacle are identified . 上記メインプログラムは、障害物検出時の回避動作を画像用プログラムが行った画像処理の結果に基づいて行うことを特徴とする請求項1または2記載の無人移動台車の制御方法。 3. The unmanned mobile cart control method according to claim 1, wherein the main program performs an avoidance operation when an obstacle is detected based on a result of image processing performed by the image program . 上記画像用プログラムは通路端を示す壁との境界線を画像の水平方向において検出することでコーナーや行き止まりを認識することを特徴とする請求項1記載の無人移動台車の制御方法。 2. The control method for an unmanned mobile carriage according to claim 1, wherein the image program recognizes a corner or a dead end by detecting a boundary line with a wall indicating a passage end in a horizontal direction of the image . 上記センサ用プログラムにおいて車体側面のセンサによる壁の検出に際して、壁までの距離が有無判定の閾値以上もしくは以下の状態が一定時間以上維持された時点で台車側部での通路有無を判定することを特徴とする請求項1または4記載の無人移動台車の制御方法。 In detecting the wall by the sensor on the side of the vehicle body in the above-mentioned sensor program, the presence / absence of a passage on the side of the carriage is determined when the distance to the wall is maintained above or below a threshold value for determining whether or not there is a predetermined time or more. The method for controlling an unmanned mobile carriage according to claim 1 or 4, characterized in that :
JP08272999A 1999-03-26 1999-03-26 Control method of unmanned mobile cart Expired - Fee Related JP3740883B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP08272999A JP3740883B2 (en) 1999-03-26 1999-03-26 Control method of unmanned mobile cart

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP08272999A JP3740883B2 (en) 1999-03-26 1999-03-26 Control method of unmanned mobile cart

Publications (2)

Publication Number Publication Date
JP2000276228A JP2000276228A (en) 2000-10-06
JP3740883B2 true JP3740883B2 (en) 2006-02-01

Family

ID=13782524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP08272999A Expired - Fee Related JP3740883B2 (en) 1999-03-26 1999-03-26 Control method of unmanned mobile cart

Country Status (1)

Country Link
JP (1) JP3740883B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006141669A (en) * 2004-11-19 2006-06-08 Shimadzu Corp Mobile x-ray equipment
ITTO20090773A1 (en) * 2009-10-09 2011-04-10 Icam S R L SHUTTLE OF AN AUTOMATED WAREHOUSE, AND METHOD OF CONTROL TO DRIVE THIS SHUTTLE
JP5218479B2 (en) * 2010-06-10 2013-06-26 株式会社安川電機 Mobile system
JP6194604B2 (en) * 2013-03-15 2017-09-13 株式会社リコー Recognizing device, vehicle, and computer executable program
JP2015214381A (en) * 2014-05-07 2015-12-03 株式会社岡村製作所 Carriage
JP6837262B2 (en) * 2016-12-27 2021-03-03 日立Astemo株式会社 Travelable area detection device and travel support system
JP6954234B2 (en) * 2018-06-21 2021-10-27 株式会社ダイフク Transport system
JP7302397B2 (en) * 2019-09-06 2023-07-04 株式会社デンソー Wall shape measuring device

Also Published As

Publication number Publication date
JP2000276228A (en) 2000-10-06

Similar Documents

Publication Publication Date Title
KR101503418B1 (en) Semiautomatic parking machine
US5402051A (en) Floor cleaning robot and method of controlling same
EP3338752A1 (en) Traveling vehicle and method of controlling the traveling vehicle
WO2014156498A1 (en) Mobile body and position detection device
KR20170102192A (en) Parking assistance system and a control method using the information of the outside vehicle
JP2018142113A5 (en)
JP3740883B2 (en) Control method of unmanned mobile cart
JP2019053391A (en) Mobile body
JP5869303B2 (en) Automatic transfer system
KR100682511B1 (en) Autonomous travelling system and the travelling method of the tracked vehicle which uses magnetic field
JPH0884696A (en) Cleaning robot control method and device therefor
JP2019175136A (en) Mobile body
JP2019079171A (en) Movable body
US9768721B2 (en) Mobile body and mobile body system
JP7336935B2 (en) Vehicle control system and vehicle control method
JP2008175674A (en) Traveling vehicle, and measuring method of its wheel abrasion quantity
CN220199173U (en) AGV dolly based on inertia direction calibration
JP2836314B2 (en) Self-propelled bogie collision prevention control method
KR20120046565A (en) Control system and the method for preventing side impact of automatic driving vehicle
JPS61190613A (en) Running guide device of unattended running cart
KR102568565B1 (en) Management Robot and Method for Underground Facility
JP3021875B2 (en) Automated guided vehicle guidance
WO2016152584A1 (en) Vehicle
US20230305162A1 (en) Obstacle sensor inspection device and method
JP3045435B2 (en) Travel stop control device for unmanned working vehicles

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051031

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081118

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091118

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091118

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101118

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111118

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121118

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees