JP2683899B2 - Unmanned carrier - Google Patents

Unmanned carrier

Info

Publication number
JP2683899B2
JP2683899B2 JP62199998A JP19999887A JP2683899B2 JP 2683899 B2 JP2683899 B2 JP 2683899B2 JP 62199998 A JP62199998 A JP 62199998A JP 19999887 A JP19999887 A JP 19999887A JP 2683899 B2 JP2683899 B2 JP 2683899B2
Authority
JP
Japan
Prior art keywords
unit
linear mark
midpoint
moving vehicle
linear
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP62199998A
Other languages
Japanese (ja)
Other versions
JPS6444513A (en
Inventor
繁 佐々木
暢 尾崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP62199998A priority Critical patent/JP2683899B2/en
Publication of JPS6444513A publication Critical patent/JPS6444513A/en
Application granted granted Critical
Publication of JP2683899B2 publication Critical patent/JP2683899B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

【発明の詳細な説明】 〔概要〕 ライントラッキング方式、特に路面上の標識線を車体
に取付けたTVカメラで撮像しつつ、標識線に沿って車体
を運行させるようにしたライントラッキング方式に関
し、 極めて簡単な施工処理で無人の運搬車を運転すること
ができる無人運搬装置を提供することを目的とし、 床面上に線状のマークを施し、移動車に前記線状のマ
ークを撮像する手段と、撮像された線状マークの画像デ
ータを処理する演算部と、演算部における処理結果に基
づいて移動車を駆動、操舵する機構部とを備え、前記線
状のマークを追跡して移動車を自動運転するように構成
した。 〔産業上の利用分野〕 本発明はライントラッキング方式、特に路面上の標識
線を車体に取付けたTVカメラで撮像しつつ、標識線に沿
って車体を運行させるようにしたライントラッキング方
式に関するものである。 〔従来の技術〕 工場の中や各種の荷物を運搬する場所においては、荷
物運搬を人間の運転によって行なうことの作業能率の改
善、向上を目ざすために無人運搬車を運行させている場
合があるが、そのような無人運搬方式の従来例として
は、例えば第13図に示すようなものがある。 これは、路面のような床面1に形成した溝内に軌条2
を敷設する一方、運搬車3には集電器4を取付け、前記
軌条2に接触させた集電器4から電力の供給を受け、且
つこの軌条2にガイドされながら運搬車3が無人で走行
するものである。 〔発明が解決しようとする問題点〕 しかしながら、このような従来の無人運搬方式にあっ
ては、運搬車3の走行経路を新設したり、或は変更した
りしたい場合には、床面1を工事しなければならず、建
設或は改修手続が大がかりとなってしまうという問題が
ある。 本発明は、このような従来の問題点に着目してなされ
たもので、その目的は極めて簡単な施工処理で無人の運
搬車を運転することができる無人運搬装置を提供するこ
とである。 〔問題点を解決するための手段〕 第1図乃至第3図に本発明の原理を示す。第1図は道
路や構内の床面1に施された各種線状のマーク5を示す
図で、(a)は床面1に施された白色の線状マーク5a、
(b)は黄等の色に着色された線状マーク5bをそれぞれ
示す。また第1図(c)は線状マーク5a及び5bを対にし
て床面1に施した例を示し、第1図(d)は床面1に所
定寸法以下の切れ間隔で描かれた線状マーク5cを示す。 第2図は本発明の無人運搬装置に用いられる移動車を
示す。この移動車6は車体の前端部にTVカメラの様な撮
像手段7を搭載し、この撮像手段7によって床面上に施
された線状マーク5a,5b,5cを撮像するようになってい
る。第3図は前記撮像手段7の撮像視野を示す図であ
る。この図から明らかなように、撮像手段は線状マーク
5をその視野8のほぼ中央部に捕えるように方向設定さ
れている。 また、移動車6内には、第4図に示すように撮像され
た線状マークの画像データを処理する演算部9として、
撮像された画像データから線状マークに対応するデータ
を抽出する手段(フィルタ13に該当)と、前記画像デー
タを移動車の進行方向と交差させて複数の区画に分割す
る分割手段(n分割プロフィール処理部14に該当)と、
前記線状マークに対応するデータの中点を各区画に分割
された画像データから抽出する中点抽出手段15と、前記
中点抽出手段15によって抽出された各区画間における中
点を結んで線状マークのベクトルとし、該ベクトルの方
向成分の判定結果に基づいて走行経路の形状を認識する
判断手段16と、前記判断手段16における認識結果に基づ
いて移動車6の駆動及び操舵を制御する手段(第2図記
載の機構部10に該当)が備えられている。 〔作用〕 移動車6が走行軌道上に設置され、作動開始される
と、撮像部7が線状マーク5を撮像する。この撮像によ
って得られた線状マーク5の画像データはA/D変換され
て演算部9に転送される。演算部9では、分割手段にお
いて画像データを移動車6の進行方向と交差させてn分
割し、中点抽出手段15でこの分割した各区画について線
上マークの中点を抽出する。そして判断手段16におい
て、これら中点を結んで線状マークのベクトルとしこの
方向成分の判定結果に基づいて走行経路の形状を認識
し、この認識結果を機構部10へ伝送する。そして機構部
10は演算部9からの処理データに基づいて移動車6を駆
動及び操舵する。 〔実施例〕 第4図乃至第12図は本発明の一実施例を示す図であ
る。 第4図は、撮像部7及びこの撮像部7において撮像さ
れた画像データに基づいて演算処理を行なう演算部9の
一具体例を示す図である。撮像部7の出力端子にはA/D
変換器11が接続され、ここでA/D変換された画像データ
が演算部9に伝送される。演算部9は、デジタル化され
た画像データを一時格納するフレームメモリ12と、フレ
ームメモリ12からの出力データから線状マーク5に対応
するデータを抽出するフィルタ13と、前記出力データを
移動車6の進行方向と垂直にn分割するn分割プロフィ
ール処理部14と、n分割された各区画の画像成分につい
て線状マーク5に対応するデータの中点を抽出する中点
抽出部15と、中点抽出部15によって抽出された各区画間
における中点を結んで線状マーク5が延びる方向(真直
ぐか、カーブしているか)を判定する判断部16とから成
る。前記フィルタ13には、例えばメジアンフィルタが使
用される。 第5図は、本発明を実施する主要な要素であるn分割
プロフィール処理部14の具体例を示す図である。このn
分割プロフィール処理部14はクロック信号CLの入力に対
応してX方向の座標カウントを行なうXカウンタ17と、
Xカウンタ17の出力を受け所定のXカウント値毎にY方
向の座標カウントを行なうYカウンタ18と、Yカウンタ
18によって出力されたYカウント値が、 Ymax/n であるか否かを検出するn分割検出部19と、記憶領域が
n個の区画に分けられ且つデータの書込み入力及び読出
し出力が行なわれるメモリ24と、切換信号のオン・オフ
によってメモリ24に対するアドレス指定を、CPUから送
られたアドレス情報入力端子AとXカウンタ17からのカ
ウント値入力端子Bとの間で選択するセレクタ23と、切
換信号を反転させるインバータ20と、このインバータ20
からの反転切換信号によってメモリ24に対するライトイ
ネーブルWEのゲートを開閉するアンドゲート21と、アン
ドゲート21出力とn分割検出部19出力との論理積をとっ
てメモリ24にライトイネーブルWEを入力するアンドゲー
ト22とから成る。 かかる構成を有する無人運搬装置について、その動作
を説明する。 先ず移動車6の走行に際して、撮像部7での撮影によ
って得られた画信号はA/D変換器11によってデジタル信
号に変換されフレームメモリ12に画像データとして格納
される。このフレームメモリ12から読出された画像デー
タはフィルタ13においてノイズ除去され、n分割プロフ
ィール処理部14へ送られる。 n分割プロフィール処理部14では、切換信号Cがオフ
(即ち“0")に設定されることによりセレクタ23の入力
端子がBに設定され且つアンドゲート21がオン作動せし
められる。一方、クロック信号CLに同期してXカウンタ
17が作動し、メモリ24のX座標アドレスを順次指定する
のに従って当該メモリ24のデータ入力端子に画像データ
が送り込まれ、ライトイネーブルWEのオン状態の下で書
込みが行なわれる。そして、Xカウンタ17のカウント値
がメモリ24におけるX座標の最大アドレス値に一致する
と、Yカウンタ18が1だけカウントアップし、メモリ24
内の行替えが行なわれた後再びXカウンタ17の指定する
アドレスへ画像データの書込みが行なわれる。これを繰
返すことにより順次メモリ24への書込みが行なわれる
が、画像データをn分割するために、Yカウンタ18のカ
ウント値がn分割検出部19がチェックしYmax/nの検出を
行なう。 例えばメモリ24のY座標アドレスの最大値が512番地
であるとし、このY座標方向に4分割すると、n分割検
出部19はYカウント値が0〜127,128〜255,256〜383,38
4〜511の4つの区画に分け、各境界アドレス毎にライト
イネーブルWEをカットすることによって第6図に示すよ
うに、メモリ24に断面a,b,c,d,eで区切られ四区画に分
割されたデータ書込みを行なう。 第6図は、直線状に延びる線状マークを撮像した場合
におけるn分割プロフィール処理部14のメモリ24内のデ
ータ格納状態及び中点抽出部15における処理状態を示
す。この例では、線状マーク5の直線部分を把えた状態
を示している。 中点抽出を行なうに際しては、先ず切換信号Cがオン
(即ち“1")に設定されることによりセレクタ23の入力
端子がAに設定され且つアンドゲート21がオフ作動せし
められる。これによってライトイネーブルWEはカットさ
れ、CPUからのアドレス情報がメモリ24に入力されて当
該メモリ24に対する読出しが行なわれ、読出された画像
データはデータ出力端子から出力される。そしてこの出
力画像データは中点抽出部15へ送られる。 中点抽出部15では、4分割された各区画間の断面a〜
eについてそれぞれの線状マーク成分26を検出すると共
にその線状マーク成分についての中点を求める。このよ
うにして得られた中点情報は中点抽出部15から判断部16
へ出力される。判断部16では各々の断面で得られた中点
と中点を順次結んで線状マーク5のベクトルとする。そ
してこのベクトルを入力画像に重ね合わせると第7図に
示すようになる。即ちこの判断操作によって、撮像視野
のうち移動車6の車体に近い方からVa,Vb,Vc,Vdの方向
成分が得られる。これによって、判断部16は線状マーク
5が直線状であることを認識し、機構部10に対して指示
を出すから移動車6は直進する。 線状マーク5が直線のままであるときは、移動車6が
直進するにしたがって、第6図及び第7図に示す視野内
において継続的に直線となったマーク画像が得られるか
ら常に中点抽出による方向成分は直線となる。演算部9
では移動車6の前進に従って4分割された各区画の画像
データが更新されるのを受け所定の時間毎に4分割プロ
フィール処理を行ない中点抽出を行なった上、線状マー
ク5の方向成分を判定して移動車6の自動運転を制御す
る。 この真直に延びる線状マーク5が切れ線になっていた
場合については次の手順によって処理される。即ち、第
8図に示すように、視野8内に切れ線が入ってきた場
合、この欠落部分27を含んだ画像データは移動車6の進
行にしたがって第8図(a)から第8図(b)のように
移動する。第8図(a)では全ての断面a〜eに線状マ
ーク5の画像が掛かっており、各断面a〜e毎に中点抽
出が為され、ベクトル表示された方向成分Va,Vb,Vc,Vd
が得られる。ところが第8図(b)では断面cにおいて
線状マーク成分26が検出できず、そのため中点抽出も不
可能となる。このような場合は、1フレーム前のベクト
ルアドレスを断面c上の中点の仮候補として中点抽出部
15が出力し、方向成分Vb並びにVcをベクトル表示する。
これによってとぎれのない方向成分が得られ、移動車6
の自動運転制御が行なわれる。 次に、カーブでの線状マーク5の識別について説明す
る。第9図(a)及び(b)は移動車6がカーブに差し
かかった時の画像データに対する4分割プロフィール処
理と中点抽出による方向成分のベクトル表示とを示す図
である。移動車6が直線経路からカーブに差しかかる
と、4分割された視野8の区画のうち移動車6から最も
遠い位置に当る区間において線状マーク5の画像にカー
ブが現われ、ベクトル表示された方向成分Vdが、一つ手
前の方向成分Vcに対して或る角度斜めになって延びる。
この判断部16はベクトルアドレスから角度を把握する。
そして移動車6の進行に従ってカーブが次第に明らかに
なる一方、このカーブを描いている線状マーク5の中点
抽出によって得られるベクトル表示の方向成分がカーブ
の方向を指し示し、これに従って移動車は自動運転され
る。 次に、T字路の検出について述べる。第10図(a),
(b),(c)は移動車6がT字路に達する際の画像変
化を示す。第10図(a)はT字部分が最初に視野にとら
えられた状態を示す。このときは全ての断面a〜eに線
状マーク5が掛かっているから、各々の断面a,b,c,dに
ついて中点抽出が行なわれ方向成分がベクトル表示され
る。移動車6の前進によって、第10図(b)に示すよう
にT字部分が完全に視野内に入ると、断面eには線状マ
ーク5が掛からない状態となる。このような場合、断面
eについては1フレーム前のベクトルアドレスを仮候補
として出力し、中点と中点を結んだ方向成分がベクトル
で表わされる。更に移動車2の移動により、第10図
(c)に示すようにT字部分の画像が徐々に下方へ移動
すると、断面eでは数フレーム間線状マーク5の画像が
得られなくなる。このような場合は、断面dと断面eと
の間でのベクトルアドレスの出力を打ち切る。これに基
づいて機構部10では移動車6の停止或はT字路での右折
又は左折の制御を行なう。 更に、角度付きT字路での線状マーク5の識別につい
てみる(第11図)。移動車6が角度付きT字路(この場
合平面的に見て右上りとする)に差し掛かると、先ず第
11図(a)に示すように最初に断面eに斜めT字の部分
に相当する線状マーク(ここでは特に5aとする)が現わ
れる。このため断面eにおいて中点抽出を行なうと、中
点がC1とC2の2カ所に現われ、断面dにおける中点と前
記中点C1,C2を結ぶ二つのベクトルVd,Vpのアドレスが断
面dと断面eとの間に発生する。以後移動車6の進行に
従って次第に斜めT字路が現われ、第11図(b)に示す
ように二つのベクトルアドレスが断面dに現われるよう
なり、更に第11図(c)に示すように断面cに二つのベ
クトルアドレスが現われるというように、順次繰下がっ
て行く。そしてT字部分の画像が徐々に下方へ移動する
と、断面eでは数フレームにわたって線状マーク5(或
は5a)の画像が得られなくなり、断面dと断面eとの間
のベクトルアドレスの出力が打ち切られる。これに基づ
いて機構部10では移動車6の停止或はT字路での右折又
は左折の制御が行なわれる。 更に、十字路における線状マーク5の識別についてみ
る(第12図)。先ず第12図(a)に示すように各断面a
〜eにおいて単一のベクトルアドレスが出力され直線状
のベクトル方向成分が作成される。次に第12図(b)に
おけるように、十字部分が断面dに掛かると、この断面
dにおいて中点が2カ所(中央寄りと左端寄り)に現わ
れ、そのベクトルアドレス出力によって、縦方向の線状
マーク5に対応するベクトルVa〜Vdに対して左側に突出
した三角形状ベクトルVp,Vqが生成される。そして移動
車6がなおも進行するにしたがって断面dにおける中点
の出現場所が変化し(次第に中央寄りと右端寄りにな
る)、そのベクトルアドレス出力によって縦方向の線状
マーク5に対応するVa〜Vdに対して右側に突出した三角
形状ベクトルVs,Vtが生成される。このベクトル表示の
変化を機構部10は認識して十字路に対する最適運転を行
なう。 〔発明の効果〕 以上説明したように、本発明によれば、床面上に施さ
れた線状マークを撮像し、この撮像によって得られた画
像データから線上マークの中点を抽出してこれら中点を
結んで線状マークのベクトルとし、これから線上マーク
の方向成分を判定する構成を採用したから、演算処理に
基づいて移動車は経路に沿った運行を行なうことがで
き、加えて線状マークが直線或いは曲線のみならず急角
度の曲がり角、或いは角度付きT字路、V字路等につい
てもその経路の判断が容易に行えることから、簡単な施
工処理でかつ安価で信頼性の高い無人運搬装置を提供す
ることが可能になる。
DETAILED DESCRIPTION OF THE INVENTION [Outline] The present invention relates to a line tracking system, in particular, a line tracking system in which a vehicle body is driven along a marking line while an image of a marking line on a road surface is picked up by a TV camera attached to the vehicle body. For the purpose of providing an unmanned transportation device capable of operating an unmanned transportation vehicle with a simple construction process, a means for forming a linear mark on the floor surface and imaging the linear mark on a moving vehicle A processing unit that processes image data of the captured linear marks, and a mechanism unit that drives and steers the moving vehicle based on the processing result in the calculating unit. It is configured to operate automatically. BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a line tracking system, and more particularly to a line tracking system in which a vehicle body is operated along a marking line while imaging a marking line on a road surface with a TV camera attached to the vehicle body. is there. [Prior Art] In a factory or a place for carrying various kinds of luggage, an unmanned carrier may be operated to improve or improve the work efficiency of carrying luggage by human driving. However, a conventional example of such an unmanned transportation system is shown in FIG. 13, for example. This is a rail 2 in a groove formed on a floor 1 such as a road surface.
On the other hand, a current collector 4 is attached to the transport vehicle 3 to receive electric power from the current collector 4 in contact with the rail 2 and the transport vehicle 3 travels unmanned while being guided by the rail 2. Is. [Problems to be Solved by the Invention] However, in such a conventional unmanned transport system, when it is desired to newly install or change the traveling route of the transport vehicle 3, the floor surface 1 is There is a problem in that construction or renovation procedures become large-scale work because it requires construction work. The present invention has been made in view of such conventional problems, and an object of the present invention is to provide an unmanned transportation device capable of driving an unmanned transportation vehicle by an extremely simple construction process. [Means for Solving the Problems] FIGS. 1 to 3 show the principle of the present invention. FIG. 1 is a view showing various linear marks 5 provided on the floor surface 1 of a road or a premises. (A) is a white linear mark 5a provided on the floor surface 1,
(B) shows the linear marks 5b colored in yellow or the like. Also, FIG. 1 (c) shows an example in which linear marks 5a and 5b are paired and applied to the floor surface 1, and FIG. 1 (d) is a line drawn on the floor surface 1 at cut intervals of a predetermined dimension or less. Showing a circular mark 5c. FIG. 2 shows a mobile vehicle used in the unmanned transportation device of the present invention. The moving vehicle 6 has an image pickup means 7 such as a TV camera mounted on the front end of the vehicle body, and the image pickup means 7 picks up images of the linear marks 5a, 5b, 5c formed on the floor surface. . FIG. 3 is a view showing an image pickup field of the image pickup means 7. As is clear from this figure, the image pickup means is oriented so as to catch the linear mark 5 in the substantially central portion of its visual field 8. Further, in the moving vehicle 6, as a calculation unit 9 for processing the image data of the linear mark imaged as shown in FIG.
A means (corresponding to the filter 13) for extracting data corresponding to the linear mark from the imaged image data, and a dividing means (n division profile) for dividing the image data into a plurality of sections by intersecting the traveling direction of the moving vehicle. (Corresponding to the processing unit 14),
A midpoint extraction unit 15 for extracting the midpoint of the data corresponding to the linear mark from the image data divided into each section, and a line connecting the midpoints between the sections extracted by the midpoint extraction unit 15 Determining means 16 for recognizing the shape of the travel route based on the determination result of the direction component of the vector, and means for controlling the driving and steering of the moving vehicle 6 based on the recognition result by the determining means 16. (Corresponding to the mechanical unit 10 shown in FIG. 2) is provided. [Operation] When the moving vehicle 6 is installed on the traveling track and the operation is started, the image capturing unit 7 captures an image of the linear mark 5. The image data of the linear mark 5 obtained by this imaging is A / D converted and transferred to the calculation unit 9. In the calculation unit 9, the dividing means intersects the image data with the traveling direction of the moving vehicle 6 to divide the image data into n, and the midpoint extracting means 15 extracts the midpoint of the line mark for each of the divided sections. Then, the judgment means 16 recognizes the shape of the traveling route based on the judgment result of this direction component by connecting these midpoints to the vector of the linear mark, and transmits the recognition result to the mechanical section 10. And mechanical part
Reference numeral 10 drives and steers the moving vehicle 6 based on the processing data from the calculation unit 9. [Embodiment] FIGS. 4 to 12 are views showing an embodiment of the present invention. FIG. 4 is a diagram showing a specific example of the image pickup unit 7 and the arithmetic unit 9 that performs arithmetic processing based on image data picked up by the image pickup unit 7. The output terminal of the image pickup unit 7 has an A / D
A converter 11 is connected, and the A / D converted image data is transmitted to the calculation unit 9 here. The calculation unit 9 includes a frame memory 12 for temporarily storing the digitized image data, a filter 13 for extracting data corresponding to the linear mark 5 from the output data from the frame memory 12, and the output data for the mobile vehicle 6. N division profile processing unit 14 that divides the image component of each division divided into n perpendicular to the traveling direction, a midpoint extraction unit 15 that extracts the midpoint of the data corresponding to the linear mark 5, and the midpoint The determination unit 16 determines a direction (straight or curved) in which the linear mark 5 extends by connecting the midpoints between the sections extracted by the extraction unit 15. For the filter 13, for example, a median filter is used. FIG. 5 is a diagram showing a specific example of the n-division profile processing unit 14, which is a main element for implementing the present invention. This n
The division profile processing unit 14 includes an X counter 17 for counting coordinates in the X direction in response to the input of the clock signal CL,
A Y counter 18 that receives the output of the X counter 17 and counts coordinates in the Y direction for each predetermined X count value, and a Y counter
An n division detection unit 19 for detecting whether or not the Y count value output by 18 is Y max / n, a storage area is divided into n sections, and data write input and read output are performed. Switching between the memory 24 and a selector 23 for selecting addressing for the memory 24 by turning the switching signal on and off between the address information input terminal A sent from the CPU and the count value input terminal B from the X counter 17. Inverter 20 for inverting the signal and this inverter 20
AND gate 21 which opens and closes the gate of the write enable WE for the memory 24 by the inverted switching signal from the AND gate, and the AND of the output of the AND gate 21 and the output of the n division detection unit 19 is input to the memory 24. It consists of a gate 22. The operation of the unmanned transportation device having such a configuration will be described. First, when the moving vehicle 6 travels, the image signal obtained by the image pickup by the image pickup unit 7 is converted into a digital signal by the A / D converter 11 and stored in the frame memory 12 as image data. The image data read from the frame memory 12 is noise-removed by the filter 13 and sent to the n-division profile processing unit 14. In the n-divided profile processing unit 14, the input signal of the selector 23 is set to B and the AND gate 21 is turned on by setting the switching signal C to OFF (that is, "0"). On the other hand, the X counter is synchronized with the clock signal CL.
The image data is sent to the data input terminal of the memory 24 in accordance with the designation of the X coordinate address of the memory 24 in sequence, and writing is performed under the ON state of the write enable WE. When the count value of the X counter 17 matches the maximum address value of the X coordinate in the memory 24, the Y counter 18 counts up by 1, and the memory 24
After the line is changed, the image data is again written to the address designated by the X counter 17. By repeating this, writing to the memory 24 is sequentially performed, but in order to divide the image data into n, the count value of the Y counter 18 is checked by the n division detecting unit 19 to detect Y max / n. For example, assuming that the maximum value of the Y coordinate address of the memory 24 is 512, and if the Y division direction is divided into four, the n division detection unit 19 has Y count values of 0 to 127,128 to 255,256 to 383,38.
As shown in FIG. 6, by dividing the write enable WE at each boundary address into four sections of 4 to 511, the memory 24 is divided into four sections by cross sections a, b, c, d, e. Write divided data. FIG. 6 shows a data storage state in the memory 24 of the n-division profile processing unit 14 and a processing state in the midpoint extraction unit 15 when a linear mark extending linearly is imaged. In this example, the state where the straight line portion of the linear mark 5 is grasped is shown. When performing the midpoint extraction, first, the switching signal C is turned on (that is, "1") to set the input terminal of the selector 23 to A and the AND gate 21 is turned off. As a result, the write enable WE is cut, the address information from the CPU is input to the memory 24, the memory 24 is read, and the read image data is output from the data output terminal. Then, this output image data is sent to the midpoint extraction unit 15. In the midpoint extraction unit 15, a cross section a between the four divided sections
Each linear mark component 26 of e is detected, and the midpoint of the linear mark component is obtained. The midpoint information thus obtained is output from the midpoint extraction unit 15 to the determination unit 16
Output to The determination unit 16 sequentially connects the midpoints obtained in each cross section and the midpoints to obtain the vector of the linear mark 5. Then, when this vector is superimposed on the input image, it becomes as shown in FIG. That is, by this determination operation, the directional components V a , V b , V c , and V d are obtained from the imaging field of view closer to the vehicle body of the moving vehicle 6. As a result, the determination unit 16 recognizes that the linear mark 5 is linear and issues an instruction to the mechanical unit 10, so that the moving vehicle 6 goes straight. When the linear mark 5 remains straight, as the moving vehicle 6 goes straight, a mark image which is continuously straight within the field of view shown in FIGS. 6 and 7 is obtained. The direction component obtained by extraction is a straight line. Arithmetic unit 9
Then, as the image data of each of the four sections is updated as the moving vehicle 6 moves forward, the four-point profile processing is performed every predetermined time to perform midpoint extraction, and the direction component of the linear mark 5 is determined. A determination is made to control the automatic operation of the moving vehicle 6. The case where the linear mark 5 extending straight is a broken line is processed by the following procedure. That is, as shown in FIG. 8, when a cutting line is included in the visual field 8, the image data including the missing portion 27 is shown in FIGS. Move as in b). And an image of the linear mark 5 is applied to FIG. 8 (a) in all cross sections a to e, the middle point extraction is done for each section a to e, the direction is vector representation components V a, V b , V c , V d
Is obtained. However, in FIG. 8 (b), the linear mark component 26 cannot be detected in the cross section c, and therefore the midpoint extraction is also impossible. In such a case, the midpoint extraction unit uses the vector address of the previous frame as a temporary candidate for the midpoint on the cross section c.
15 and outputs the direction components V b and V c as a vector.
As a result, a continuous direction component is obtained, and the moving vehicle 6
Is automatically controlled. Next, the identification of the linear mark 5 on the curve will be described. FIGS. 9 (a) and 9 (b) are diagrams showing the four-division profile processing for the image data when the moving vehicle 6 is approaching a curve and the vector display of the direction component by the midpoint extraction. When the moving vehicle 6 approaches a curve from a straight line path, a curve appears in the image of the linear mark 5 in the section that is the farthest position from the moving vehicle 6 in the section of the field of view 8 that is divided into four, and the direction is displayed as a vector. The component V d extends at an angle with respect to the preceding direction component V c .
This judging unit 16 grasps the angle from the vector address.
While the curve gradually becomes clear as the moving vehicle 6 advances, the direction component of the vector display obtained by extracting the midpoint of the linear mark 5 that draws this curve points in the direction of the curve, and accordingly the moving vehicle automatically moves. Be driven. Next, the detection of the T-junction will be described. FIG. 10 (a),
(B) and (c) show image changes when the moving vehicle 6 reaches a T-shaped road. FIG. 10 (a) shows a state in which the T-shaped portion is first caught in the visual field. At this time, since the linear marks 5 are applied to all the cross sections a to e, the midpoint is extracted for each of the cross sections a, b, c, d, and the direction component is displayed as a vector. When the T-shaped portion is completely within the field of view as shown in FIG. 10 (b) due to the forward movement of the moving vehicle 6, the cross-section e is not covered with the linear mark 5. In such a case, for the cross-section e, the vector address one frame before is output as a temporary candidate, and the direction component connecting the midpoints is represented by a vector. Further, when the image of the T-shaped portion gradually moves downward as shown in FIG. 10 (c) due to the movement of the moving vehicle 2, the image of the linear mark 5 between several frames cannot be obtained in the cross section e. In such a case, the output of the vector address between the section d and the section e is terminated. Based on this, the mechanical unit 10 controls the stop of the moving vehicle 6 or the right turn or the left turn at the T-shaped road. Further, the identification of the linear mark 5 in the angled T-shape will be examined (Fig. 11). When the moving vehicle 6 approaches an angled T-shaped road (in this case, when viewed in plan, the upper right corner), first
As shown in FIG. 11 (a), a linear mark (especially 5a in this case) corresponding to an oblique T-shaped portion first appears in the cross section e. When performing midpoint extracted in this order section e, midpoint appear in two places C 1 and C 2, two vectors V d connecting the middle point in the cross-section d midpoint C 1, C 2, V p Address occurs between section d and section e. After that, an oblique T-shaped road gradually appears as the moving vehicle 6 progresses, two vector addresses appear in the section d as shown in FIG. 11 (b), and further the section c as shown in FIG. 11 (c). Two vector addresses appear at the same time, and so on. Then, when the image of the T-shaped portion gradually moves downward, the image of the linear mark 5 (or 5a) cannot be obtained over several frames in the cross section e, and the output of the vector address between the cross section d and the cross section e is output. Aborted. Based on this, the mechanical unit 10 controls the stopping of the moving vehicle 6 or the right turn or the left turn at the T-shaped road. Further, the identification of the linear mark 5 at the crossroads will be examined (Fig. 12). First, as shown in FIG. 12 (a), each cross section a
In e to e, a single vector address is output and a linear vector direction component is created. Next, as shown in FIG. 12 (b), when the cross portion is applied to the cross section d, the midpoints appear at two points (closer to the center and closer to the left end) in the cross section d, and the vector address output produces vertical lines. Triangular vectors V p and V q protruding leftward with respect to the vectors V a to V d corresponding to the circular mark 5 are generated. Then, as the moving vehicle 6 continues to move, the place of appearance of the midpoint in the cross section d changes (gradually toward the center and toward the right end), and the vector address output produces V a corresponding to the linear mark 5 in the vertical direction. Triangular vectors V s and V t protruding to the right with respect to V d are generated. The mechanical unit 10 recognizes this change in the vector display and performs an optimum operation on the crossroads. [Effects of the Invention] As described above, according to the present invention, the linear mark provided on the floor surface is imaged, and the midpoint of the linear mark is extracted from the image data obtained by this imaging. Since the vector of linear marks is connected by connecting the midpoints and the direction component of the linear mark is determined from this, the moving vehicle can operate along the route based on the calculation processing. Not only straight or curved marks but also sharp turns, angled T-shaped roads, V-shaped roads, etc. can be easily judged, so a simple construction process, inexpensive and highly reliable unmanned It becomes possible to provide a carrier.

【図面の簡単な説明】 第1図は本発明において経路表示のために用いられる各
種線状マークを表わす図、第2図は本発明の無人運搬装
置の原理を示す図、第3図は第2図の撮像部で撮像され
た画像視野を示す図、第4図は本発明における撮像部か
ら演算部に至る回路構成の一実施例を示す図、第5図は
前記実施例において用いられるn分割プロフィール処理
部の一構成例を示す図、第6図はn分割プロフィール処
理部における画像データの分割状態と、分割された各断
面における線状マークのデータ検出状態を示す図、第7
図は中点抽出によって得られたベクトルと入力画像とを
重ね合わせた図、第8図(a),(b)は切れ線が混入
している場合の線状マークの識別方法を示す図、第9図
(a),(b)はカーブした線状マークの識別方法を示
す図、第10図(a),(b),(c)はT字路の識別方
法を示す図、第11図(a),(b),(c)は斜行T字
路の識別方法を示す図、第12図(a),(b),(c)
は十字路の識別方法を示す図、第13図は従来の無人運搬
装置の一例を示す図である。 1……床面、5……線状マーク 6……移動車、7……撮像部 8……視野、9……演算部 10……機構部、11……A/D変換器 12……フレームメモリ、13……フィルタ 14……n分割プロフィール処理部 15……中点抽出部、16……判断部
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram showing various linear marks used for route display in the present invention, FIG. 2 is a diagram showing the principle of an unmanned transporter of the present invention, and FIG. 2 is a diagram showing a visual field of an image picked up by the image pickup unit in FIG. 2, FIG. 4 is a diagram showing an embodiment of a circuit configuration from the image pickup unit to the arithmetic unit in the present invention, and FIG. 5 is used in the embodiment. FIG. 6 is a diagram showing a configuration example of a division profile processing unit, FIG. 6 is a diagram showing a division state of image data in the n division profile processing unit, and a data detection state of a linear mark in each divided cross section;
FIG. 8 is a diagram in which a vector obtained by midpoint extraction and an input image are overlapped with each other, and FIGS. 8A and 8B are diagrams showing a method of identifying a linear mark when a cutting line is mixed, 9 (a) and 9 (b) are diagrams showing a method for identifying curved linear marks, and FIGS. 10 (a), (b), and (c) are diagrams showing a method for identifying T-shaped roads, and FIG. Figures (a), (b) and (c) are diagrams showing a method of identifying a skewed T-shaped road, and Figures 12 (a), (b) and (c).
Is a diagram showing a method of identifying a crossroads, and FIG. 13 is a diagram showing an example of a conventional unmanned transportation device. 1 ... Floor surface, 5 ... Linear mark 6 ... Movable vehicle, 7 ... Imaging unit 8 ... Field of view, 9 ... Calculation unit 10 ... Mechanical unit, 11 ... A / D converter 12 ... Frame memory 13 ... Filter 14 ... n division profile processing unit 15 ... Midpoint extraction unit, 16 ... Judgment unit

Claims (1)

(57)【特許請求の範囲】 1.床面上に施された線状のマークを追跡し、移動車を
自動運転する無人運搬装置であって、 前記線状のマークを撮像する手段と、 撮像された画像データから線状マークに対応するデータ
を抽出する手段と、 前記画像データを移動車の進行方向と交差させて複数の
区画に分割する分割手段と、 前記線状マークに対応するデータの中点を各区画に分割
された画像データから抽出する中点抽出手段と、 前記中点抽出手段によって抽出された各区画間における
中点を結んで線状マークのベクトルとし、該ベクトルの
方向成分の判定結果に基づいて走行経路の形状を認識す
る判断手段と、 前記判断手段における認識結果に基づいて移動車の駆動
及び操舵を制御する手段とを備えたことを特徴とする無
人運搬装置。
(57) [Claims] An unmanned transportation device that automatically tracks a linear mark on a floor surface and automatically drives a moving vehicle. The unit captures the linear mark and corresponds to the linear mark from the captured image data. Means for extracting data, a dividing means for dividing the image data into a plurality of sections by intersecting the traveling direction of the moving vehicle, and an image obtained by dividing the middle point of the data corresponding to the linear mark into each section. A midpoint extraction means for extracting from the data and a midpoint between the sections extracted by the midpoint extraction means are connected to form a vector of linear marks, and the shape of the travel route is determined based on the determination result of the direction component of the vector. An unmanned transporting apparatus, comprising: a determination unit that recognizes the position of the vehicle, and a unit that controls driving and steering of the moving vehicle based on a recognition result of the determination unit.
JP62199998A 1987-08-12 1987-08-12 Unmanned carrier Expired - Lifetime JP2683899B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62199998A JP2683899B2 (en) 1987-08-12 1987-08-12 Unmanned carrier

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62199998A JP2683899B2 (en) 1987-08-12 1987-08-12 Unmanned carrier

Publications (2)

Publication Number Publication Date
JPS6444513A JPS6444513A (en) 1989-02-16
JP2683899B2 true JP2683899B2 (en) 1997-12-03

Family

ID=16417099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62199998A Expired - Lifetime JP2683899B2 (en) 1987-08-12 1987-08-12 Unmanned carrier

Country Status (1)

Country Link
JP (1) JP2683899B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6318823B2 (en) * 2014-04-25 2018-05-09 株式会社リコー Automatic moving device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62139012A (en) * 1985-12-13 1987-06-22 Toyoda Autom Loom Works Ltd Method for deciding driving route of video unmanned carrier
JPS63147205A (en) * 1986-12-11 1988-06-20 Toshiba Corp Detecting device for guiding direction

Also Published As

Publication number Publication date
JPS6444513A (en) 1989-02-16

Similar Documents

Publication Publication Date Title
JP2844242B2 (en) Automatic traveling device
JP2660727B2 (en) Automatic traveling device
JPH10149217A (en) Automatic conveyance device
CN106406303B (en) Automatic running vehicle
JPH11272328A (en) Color mark, moving robot and method for guiding moving robot
JP2707546B2 (en) Vehicle steering control device
EP0354562B1 (en) Automatic travelling apparatus
JP2683899B2 (en) Unmanned carrier
JP3227247B2 (en) Roadway detection device
JP2603523B2 (en) Automatic traveling device
JPH08211936A (en) Guiding device for traveling object
JP2002008019A (en) Railway track recognition device and rolling stock using railway track recognition device
JP3871772B2 (en) Driving lane trajectory recognition device
JPH09167017A (en) Traveling controller for unmanned vehicle
JPH06199297A (en) Parking position measuring method
JPH031683B2 (en)
JP7484758B2 (en) Robot Control System
JPH0335108A (en) Lead position recognition device
JP2514405B2 (en) Automatic traveling device
JP2515733B2 (en) How to guide an unmanned vehicle
JP2679318B2 (en) Driving data processing device for autonomous vehicle
JPH10214326A (en) Running controller for automatic running vehicle
JP2844236B2 (en) Automatic traveling device
JP2022147855A (en) Automatic traveling device
JPH06325179A (en) Automatic speed measuring instrument