JP2022093887A - Unmanned carrier and unmanned carrier system - Google Patents

Unmanned carrier and unmanned carrier system Download PDF

Info

Publication number
JP2022093887A
JP2022093887A JP2020206609A JP2020206609A JP2022093887A JP 2022093887 A JP2022093887 A JP 2022093887A JP 2020206609 A JP2020206609 A JP 2020206609A JP 2020206609 A JP2020206609 A JP 2020206609A JP 2022093887 A JP2022093887 A JP 2022093887A
Authority
JP
Japan
Prior art keywords
image
automatic guided
guided vehicle
information
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020206609A
Other languages
Japanese (ja)
Inventor
聡 松島
Satoshi Matsushima
義徳 今井
Yoshinori Imai
ジャンポール バナヤット ソリバ
Jean-Paul Banayatto Soriba
デイビット モリーナ
David Molina
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seaos Inc
Original Assignee
Seaos Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seaos Inc filed Critical Seaos Inc
Priority to JP2020206609A priority Critical patent/JP2022093887A/en
Publication of JP2022093887A publication Critical patent/JP2022093887A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To provide an unmanned carrier that can autonomously travel using an inexpensive image sensor even in an environment where disturbance light is incident in an indoor facility such as a storehouse, and an unmanned carrier system.SOLUTION: An unmanned carrier includes: an image sensor that captures an image of an object in the direction of travel; a drive unit that independently controls the drive of multiple wheels; a robot control unit that transmits a control command to the drive unit for autonomous driving along a travel path based on an environmental map; and a wireless communication unit. The robot control unit has: a function for constantly updating the environmental map and a route based on image information from the image sensor; a function for registering an image of a specific shape or pattern arranged along the travel path as a landmark image in association with coordinate information on the environmental map; a first current position estimation function for estimating a current position based on the image information from the image sensor and the environmental map; and a second current position estimation function for estimating a current position based on the coordinate information on the landmark image and the environmental map, when the image information from the image sensor includes the landmark image. A projection image is included as the landmark image.SELECTED DRAWING: Figure 1

Description

本発明は、例えば、3D-SLAM(3dimension Simultaneous Localization AND Mapping)によるマップ更新機能を備え、自律走行が可能な無人搬送車および当該無人搬送車を含む無人搬送車システムに関する。 The present invention relates to an automatic guided vehicle having a map updating function by, for example, 3D-SLAM (3dimension Simultaneous Localization AND Mapping) and capable of autonomous traveling, and an automatic guided vehicle system including the automatic guided vehicle.

従来、有軌道式の無人搬送車(Automatic Guided Vehicle : AGV)の誘導方法としては、例えば、次のような方法が知られている。
(1)走行路に埋設され誘導ケーブルからの電波を無人搬送車が検出する方法
(2)走行路に誘導テープを貼り、磁気や反射光を無人搬送車が検出する方法
(3)走行路に誘導標識を設置し、誘導標識を無人搬送車が画像認識する方法
Conventionally, as a method for guiding an automated guided vehicle (AGV), for example, the following method is known.
(1) A method in which an automated guided vehicle is embedded in a driving path and detects radio waves from an inductive cable (2) A method in which an automated guided vehicle detects magnetism and reflected light by attaching an inductive tape to the traveling path (3) How to install a guide sign and the automatic guided vehicle recognizes the guide sign as an image

しかしながら、これらの方法では、予め走行路に誘導設備を設置する必要がある。
そこで、近年、無人搬送車が障害物をセンサ等で認識し、自律的に走行する無軌道式の無人搬方法が研究されている。障害物回避経路生成方法としては、ルールベース法、(仮想)ポテンシャル法および探索法が主なものとして知られている。特許文献1には、仮想ポテンシャル法を採用し、レーザレンジファインダから読み込まれた周囲の物体との距離情報・角度情報に基づいて、移動領域の環境地図を構成する複数の部分地図を作成することができる自律移動装置が開示されている。この自律移動装置においては、SLAM(Simultaneous Localization and Mapping)を用いてリアルタイムで自己位置の推定と環境地図の作成することが行われている。
However, in these methods, it is necessary to install guidance equipment on the traveling path in advance.
Therefore, in recent years, research has been conducted on an automatic guided vehicle that recognizes obstacles with a sensor or the like and travels autonomously. The rule-based method, the (virtual) potential method, and the search method are mainly known as obstacle avoidance route generation methods. In Patent Document 1, a virtual potential method is adopted, and a plurality of partial maps constituting an environmental map of a moving area are created based on distance information and angle information with surrounding objects read from a laser range finder. An autonomous mobile device capable of performing is disclosed. In this autonomous mobile device, SLAM (Simultaneous Localization and Mapping) is used to estimate the self-position and create an environmental map in real time.

特開2010-92147号公報Japanese Unexamined Patent Publication No. 2010-92147

上記(1)の誘導方法においては、誘導ケーブルを埋設するコストが高く、走行路を簡単に変更することもできない。(2)の誘導方法においては、走行路上に設置した誘導テープが損傷すると誘導ができなくなるため、定期的に誘導テープを貼り替える必要がある。倉庫のように、無人搬送車の走行路とフォークリフトの動線が重なる環境においては、誘導テープの貼り替えスパンは通常よりも短くなるという課題がある。 In the guidance method of (1) above, the cost of burying the guidance cable is high, and the travel path cannot be easily changed. In the guidance method of (2), if the guide tape installed on the road is damaged, guidance cannot be performed, so it is necessary to replace the guide tape on a regular basis. In an environment where the flow line of an automatic guided vehicle and the flow line of a forklift overlap, such as in a warehouse, there is a problem that the replacement span of the guide tape becomes shorter than usual.

上記(3)の誘導方法においては、計測誤差が累積することにより作成された環境地図に不整合が生じること、特に、環状の環境地図を作成する際に、開始部分と終了部分が一致しなくなること(環状経路問題)の課題が指摘されている。また、走行路周辺のレイアウトが変更された場合、環境地図全体を作り直す必要があるという課題が指摘されている。そのため、特許文献1では、環境地図を複数の部分地図に分割して管理することで、計測誤差の範囲を部分地図にとどめ、またレイアウト変更時に再作成が必要な範囲を部分地図単位にとどめることが提案されている。
しかしながら、有人搬送車や作業員が同一スペースで作業を行うような環境においては、作業空間内のレイアウトが定常的に変化するため、想定外の環境変化により自己位置推定の精度が低下するという問題がある。また、倉庫内のレイアウト変更時に必要なシステムの設定変更を最小限にしたいというニーズもある。
In the guidance method of (3) above, inconsistency occurs in the created environmental map due to the accumulation of measurement errors, and in particular, when creating a circular environmental map, the start part and the end part do not match. The problem of this (circular route problem) has been pointed out. In addition, it has been pointed out that if the layout around the track is changed, it is necessary to recreate the entire environmental map. Therefore, in Patent Document 1, by dividing the environmental map into a plurality of partial maps and managing them, the range of measurement error is limited to the partial map, and the range that needs to be recreated when the layout is changed is limited to the partial map unit. Has been proposed.
However, in an environment where manned vehicles and workers work in the same space, the layout in the work space changes constantly, so there is a problem that the accuracy of self-position estimation deteriorates due to unexpected environmental changes. There is. There is also a need to minimize the system setting changes required when changing the layout in the warehouse.

ところで、周囲の物体を把握する手段として、高価なレーザレンジファインダ(例えば、LiDAR(Light Detection and Ranging ))に代わる廉価なセンサを用いたいとのニーズがある。代替手段としてステレオカメラなどの安価な画像センサを用いることも考えられるが、無人搬送車の視野に外乱光が入射すると、周囲の物体把握が一時的に不能となり、無人搬送車が停止するという問題が生ずる。倉庫のように、屋外と連絡する入荷・出荷場所から常時外乱光が入射する環境下においては、ステレオカメラを用いて無人搬送車を構成することは困難であるという課題が存在している。 By the way, as a means for grasping surrounding objects, there is a need to use an inexpensive sensor instead of an expensive laser range finder (for example, LiDAR (Light Detection and Ranging)). It is conceivable to use an inexpensive image sensor such as a stereo camera as an alternative method, but if ambient light is incident on the field of view of the automatic guided vehicle, it will be temporarily impossible to grasp surrounding objects, and the automatic guided vehicle will stop. Occurs. There is a problem that it is difficult to construct an automatic guided vehicle using a stereo camera in an environment where ambient light is constantly incident from an arrival / shipment place that is in contact with the outdoors, such as a warehouse.

そこで、本発明は、上記課題を解決することを可能とする無人搬送車および無人搬送車システムを提供することを目的とする。 Therefore, an object of the present invention is to provide an automatic guided vehicle and an automatic guided vehicle system that can solve the above problems.

本発明の無人搬送車は、進行方向側の物体画像を撮像する画像センサと、複数の車輪の駆動を独立制御する駆動部と、環境地図に基づき走行路に沿って自律走行するための制御指令を駆動部に送信するロボット制御部と、無線通信部と、を備え、前記ロボット制御部が、画像センサからの画像情報に基づき環境地図およびルートを常時更新する機能と、前記走行路に沿って配置された特定の形状または模様の画像をランドマーク画像として環境地図上の座標情報と紐付けて登録する機能と、画像センサからの画像情報において特徴点認識を行い、環境地図と対照して現在位置を推定する第1の現在位置推定機能と、画像センサからの画像情報にランドマーク画像が含まれる場合、ランドマーク画像の座標情報に基づき現在位置を推定する第2の現在位置推定機能と、を備え、前記ランドマーク画像として、投影画像を含むことを特徴とする。
上記無人搬送車において、前記駆動部が、前記複数の車輪の回転情報をオドメトリ情報としてロボット制御部に送信する機能を備え、前記ロボット制御部が、前記オドメトリ情報および直前に記憶された現在位置情報に基づき現在位置を推定する第3の現在位置推定機能を備えることを特徴としてもよい。
上記無人搬送車において、前記ロボット制御部が、画像センサからの画像情報に仮想画像を付加した合成画像を連続生成する機能と、合成画像が含む仮想画像に基づき走行制御を行う機能と、を備えることを特徴としてもよい。
上記無人搬送車において、前記投影画像が、床面、壁面、および/または、天井に投影された、ライン、模様、人工コード、文字列、ロゴ、または、キャラクターの画像であり、前記ロボット制御部は、前記投影画像に基づき走行制御する機能を備えることを特徴としてもよい。
上記無人搬送車において、前記走行路に沿って投影されたラインに沿って走行するラインフォロー機能を備えることを特徴としてもよい。
上記無人搬送車において、前記ランドマーク画像が、二次元コードを含む人工コードの画像を含むことを特徴としてもよい。
The unmanned carrier of the present invention has an image sensor that captures an image of an object on the traveling direction side, a drive unit that independently controls the drive of a plurality of wheels, and a control command for autonomously traveling along a travel path based on an environmental map. A robot control unit and a wireless communication unit are provided, and the robot control unit constantly updates the environment map and the route based on the image information from the image sensor, and along the travel path. A function to register an image of a specific shape or pattern placed as a landmark image in association with the coordinate information on the environmental map, and feature point recognition in the image information from the image sensor, which is currently compared with the environmental map. A first current position estimation function that estimates the position, and a second current position estimation function that estimates the current position based on the coordinate information of the landmark image when the image information from the image sensor includes a landmark image. The landmark image is characterized by including a projected image.
In the automatic guided vehicle, the drive unit has a function of transmitting rotation information of the plurality of wheels to the robot control unit as odometry information, and the robot control unit has the odometry information and the current position information stored immediately before. It may be characterized by having a third current position estimation function for estimating the current position based on the above.
In the automatic guided vehicle, the robot control unit has a function of continuously generating a composite image in which a virtual image is added to image information from an image sensor, and a function of performing running control based on the virtual image included in the composite image. It may be characterized by that.
In the unmanned carrier, the projected image is an image of a line, a pattern, an artificial code, a character string, a logo, or a character projected on a floor surface, a wall surface, and / or a ceiling, and the robot control unit. May be characterized by having a function of traveling control based on the projected image.
The automatic guided vehicle may be characterized by having a line follow function for traveling along a line projected along the traveling path.
In the automatic guided vehicle, the landmark image may include an image of an artificial code including a two-dimensional code.

本発明の無人搬送車システムは、上記無人搬送車と、前記走行路に沿って、ライン、模様、人工コード、文字列、ロゴ、または、キャラクターの画像を投影するランドマーク画像投影装置と、を備える無人搬送車システムである。
上記無人搬送車システムにおいて、前記ランドマーク画像投影装置が、前記走行路に沿って、床面、壁面、および/または、天井に、ライン、模様、人工コード、文字列、ロゴ、または、キャラクターの画像を投影する機能を備えることを特徴としてもよい。
上記無人搬送車システムにおいて、前記ランドマーク画像投影装置が、前記走行路と作業区間の境界となる通路部分にライン、模様、人工コード、文字列、ロゴ、または、キャラクターの画像を投影する機能を備えることを特徴としてもよい。
上記無人搬送車システムにおいて、前記ランドマーク画像投影装置に、特定の画像を投影させる投影指令を送信するサーバを備えることを特徴としてもよい。
上記無人搬送車システムにおいて、前記投影指令は、前記無人搬送車に第1の走行制御を行わせるための第1の画像および前記無人搬送車に第2の走行制御を行わせるための第2の画像を投影させる投影指令を含むことを特徴としてもよい。
上記無人搬送車システムにおいて、前記サーバが、第1の時間帯に前記第1の画像を投影させる投影指令を送信し、第2の時間帯に前記第2の画像を投影させる投影指令を送信することを特徴としてもよい。
The automatic guided vehicle system of the present invention includes the automatic guided vehicle and a landmark image projection device that projects a line, a pattern, an artificial code, a character string, a logo, or an image of a character along the traveling path. It is an automatic guided vehicle system equipped.
In the automatic guided vehicle system, the landmark image projection device is a line, a pattern, an artificial code, a character string, a logo, or a character on the floor, the wall surface, and / or the ceiling along the traveling path. It may be characterized by having a function of projecting an image.
In the automatic guided vehicle system, the landmark image projection device has a function of projecting a line, a pattern, an artificial code, a character string, a logo, or an image of a character on a passage portion that is a boundary between a travel path and a work section. It may be characterized by being prepared.
The automatic guided vehicle system may be characterized in that the landmark image projection device is provided with a server that transmits a projection command for projecting a specific image.
In the automatic guided vehicle system, the projection command is a first image for causing the automatic guided vehicle to perform a first travel control and a second image for causing the automatic guided vehicle to perform a second travel control. It may be characterized by including a projection command for projecting an image.
In the unmanned carrier system, the server transmits a projection command for projecting the first image in the first time zone, and transmits a projection command for projecting the second image in the second time zone. It may be characterized by that.

本発明によれば、倉庫等の屋内施設において外乱光が入射する環境下においても安価な画像センサを用いて自律走行できる無人搬送車および無人搬送車システムを提供することが可能となる。また、倉庫内のレイアウト変更にも容易に対応することが可能である。 According to the present invention, it is possible to provide an automatic guided vehicle and an automatic guided vehicle system that can autonomously travel using an inexpensive image sensor even in an environment where ambient light is incident in an indoor facility such as a warehouse. In addition, it is possible to easily respond to layout changes in the warehouse.

実施形態例に係る無人搬送車システムの構成図である。It is a block diagram of the automatic guided vehicle system which concerns on embodiment. 実施形態例に係る無人搬送車の平面図である。It is a top view of the automatic guided vehicle which concerns on embodiment. 実施形態例に係る無人搬送車の側面図である。It is a side view of the automatic guided vehicle which concerns on embodiment. 実施形態例に係る倉庫の走行路を説明するための平面図である。It is a top view for demonstrating the traveling path of the warehouse which concerns on embodiment. 実施形態例に係るARマーカーが付された三角コーンおよび壁に貼られたカラーテープを説明する図である。It is a figure explaining the triangular cone to which the AR marker which concerns on embodiment is attached, and the color tape attached to the wall. 本実施形態における壁ライン認識領域および床ライン認識領域を説明するための図である。It is a figure for demonstrating the wall line recognition area and the floor line recognition area in this embodiment. 床面に設けられた床誘導ラインを用いた走行制御方法を説明するための図である。It is a figure for demonstrating the traveling control method using the floor guidance line provided on the floor surface. 壁に設けられた壁誘導ラインを用いた走行制御方法を説明するための図である。It is a figure for demonstrating the traveling control method using the wall guide line provided on the wall. 天井に設けられた天井誘導ラインを用いた走行制御方法を説明するための図である。It is a figure for demonstrating the traveling control method using the ceiling guidance line provided on the ceiling. 走行中におけるルート補正のフローチャートである。It is a flowchart of route correction during traveling. 補完情報を併用した現在位置取得のフローチャートである。It is a flowchart of the present position acquisition which also used the complementary information. 撮像画像に仮想画像を付加した合成画像を動的に生成する合成画像生成機能を説明するための図である。It is a figure for demonstrating the composite image generation function which dynamically generates the composite image which added the virtual image to the captured image.

以下では、本発明の実施形態例のシステム構成を説明し、次いで、本発明の搬送作業方法の一例として入出庫作業の手順を説明する。
<システム構成>
実施形態例の無人搬送車システムは、RMサーバ1と、WMSサーバ2と、管理端末3と、ハンディ端末4と、無線LAN親機5と、カゴ車6と、ランドマーク画像投影装置7と、複数台の無人搬送車10とを備えて構成される。ハンディ端末4、無線LAN親機5、カゴ車6、ランドマーク画像投影装置7および複数台の無人搬送車10は、倉庫等の屋内施設の作業場所に設置されている。
Hereinafter, the system configuration of the embodiment of the present invention will be described, and then the procedure of the warehousing / delivery work will be described as an example of the transport work method of the present invention.
<System configuration>
The automatic guided vehicle system of the embodiment includes an RM server 1, a WMS server 2, a management terminal 3, a handy terminal 4, a wireless LAN base unit 5, a basket car 6, a landmark image projection device 7, and the like. It is configured to include a plurality of automatic guided vehicles 10. The handy terminal 4, the wireless LAN base unit 5, the basket car 6, the landmark image projection device 7, and the plurality of automatic guided vehicles 10 are installed in the work place of an indoor facility such as a warehouse.

RMサーバ1は、無人搬送車10の管理を実現可能とするサーバであり、CPUおよび記憶装置を備えたサーバ装置にRMソフトウェアおよびデータベースソフトウェアをインストールして構築されている。このRMソフトウェアは、主要な機能を実現するソフトウェアモジュールとして、搬送車管理部1aと、作業調整部1bと、作業場所管理部1cと、課金情報管理部1dとを備えている。
搬送車管理部1aは、無人搬送車10が配置される作業場所情報や無人搬送車10の稼働情報を管理する。搬送車管理部1aでは、無人搬送車10の車両IDと作業対象となる作業場所IDが紐付けられて管理されている。
作業調整部1bは、複数台の無人搬送車10の稼働時間を管理する。作業調整部1bは、無人搬送車10の車両IDと稼働作業対象となる作業場所IDが紐付けられて管理しており、課金情報算出のインプットデータとなる。なお、同一の建物内の同一スペースで複数台の無人搬送車10が稼働される場合もあれば、一台のみが稼働される場合もある。
作業場所管理部1cは、作業場所ごとの基本マップを管理し、無人搬送車10に基本マップを送信する。基本マップでは、通行可能コースと、禁止区域とが設定されている。なお、作業場所の基本マップの管理をRMサーバ1では行わず、作業場所に設置された無人搬送車10および管理端末にて管理する構成としてもよい。
課金情報管理部1dは、搬送車管理部1aから無人搬送車10の稼働情報を取得し、クライアント毎に料金テーブルを参酌して、課金情報を算出する。
投影装置管理部1eは、特定の画像を特定のランドマーク画像投影装置7に投影させる投影指令を送信する。投影装置管理部1eは、第1の時間帯と第2の時間帯とで異なる画像を投影させる投影指令を送信する機能も備えている。
The RM server 1 is a server that makes it possible to manage the automatic guided vehicle 10, and is constructed by installing RM software and database software in a server device including a CPU and a storage device. This RM software includes a transport vehicle management unit 1a, a work adjustment unit 1b, a work location management unit 1c, and a billing information management unit 1d as software modules that realize main functions.
The automatic guided vehicle management unit 1a manages work location information in which the automatic guided vehicle 10 is arranged and operation information of the automatic guided vehicle 10. In the automatic guided vehicle management unit 1a, the vehicle ID of the automatic guided vehicle 10 and the work place ID to be worked are linked and managed.
The work adjustment unit 1b manages the operating time of a plurality of automatic guided vehicles 10. The work adjustment unit 1b manages the vehicle ID of the automatic guided vehicle 10 in association with the work place ID to be operated, and serves as input data for calculating billing information. In some cases, a plurality of automatic guided vehicles 10 may be operated in the same space in the same building, or only one of them may be operated.
The work place management unit 1c manages the basic map for each work place and transmits the basic map to the automatic guided vehicle 10. In the basic map, passable courses and prohibited areas are set. The basic map of the work place may not be managed by the RM server 1, but may be managed by the automatic guided vehicle 10 and the management terminal installed in the work place.
The billing information management unit 1d acquires the operation information of the automatic guided vehicle 10 from the transport vehicle management unit 1a, refers to the charge table for each client, and calculates the billing information.
The projection device management unit 1e transmits a projection command for projecting a specific image onto a specific landmark image projection device 7. The projection device management unit 1e also has a function of transmitting a projection command for projecting different images in the first time zone and the second time zone.

WMSサーバ2は、倉庫管理システム(Warehouse Management System)を実現可能とするサーバであり、CPUおよび記憶装置を備えたサーバ装置にWMSソフトウェアおよびデータベースソフトウェアをインストールして構築されている。このWMSソフトウェアは、主要な機能を実現するソフトウェアモジュールとして、在庫管理部2aと、注文処理部2bとを備えている。 The WMS server 2 is a server that makes it possible to realize a warehouse management system, and is constructed by installing WMS software and database software in a server device including a CPU and a storage device. This WMS software includes an inventory management unit 2a and an order processing unit 2b as software modules that realize main functions.

在庫管理部2aは、商品ID、保管先の番地、ステータス等を管理する在庫データベースを更新する。また、管理端末3から受信した入庫情報に応じて保管先の番地を割り当てる機能、入庫指示をハンディ端末4および無人搬送車10に送信する機能、入庫される商品の数量や配送状況のステータス等を管理する機能を備えている。
注文処理部2bは、管理端末3から受信した注文情報を管理する注文データベースを更新する。注文処理部2bは、注文情報に基づき出庫指示をハンディ端末4および無人搬送車10に送信し、ハンディ端末4から出庫情報を受信すると当該注文のステータスを完了に更新する。また、注文に応じて在庫を予約する引当機能を備えており、ある注文に応じた在庫の注文数で引当てると、その数量の分は他の注文からは予約ができなくなることで在庫が確保される。
The inventory management unit 2a updates the inventory database that manages the product ID, the address of the storage destination, the status, and the like. In addition, a function of assigning a storage address according to the warehousing information received from the management terminal 3, a function of sending a warehousing instruction to the handy terminal 4 and an automatic guided vehicle 10, a function of warehousing items, the status of delivery status, and the like. It has a function to manage.
The order processing unit 2b updates the order database that manages the order information received from the management terminal 3. The order processing unit 2b sends a delivery instruction to the handy terminal 4 and the automatic guided vehicle 10 based on the order information, and when the delivery information is received from the handy terminal 4, the status of the order is updated to complete. In addition, it has an allocation function to reserve inventory according to an order, and if you allocate by the number of orders in inventory according to one order, the quantity can not be reserved from other orders, so inventory is secured. Will be done.

ランドマーク画像投影装置7は、例えば、レーザー光線照射装置やプロジェクターであり、倉庫内の走行路に沿って天井、壁面または床面に複数台設置されている。ランドマーク画像投影装置7は、RMサーバ1と通信可能に構成されており、RMサーバ1からの投影指令に基づき、ランドマーク画像として利用可能な特定の形状や模様の画像を床面、壁面または天井などに投影する。ランドマーク画像投影装置7が投影する特定の形状や模様の画像としては、例えば、点線を含むライン、円や楕円、三角形を含む多角形、幾何学模様、人工コード、文字列、企業のロゴ、キャラクターが例示される。時間帯により異なる画像をランドマーク画像投影装置7に投影させてもよい。実施形態例のランドマーク画像投影装置7は、旋回装置を備えており、RMサーバ1からの指令に基づき、投影位置を変えることが可能である。
無人搬送車10は、図1に示すように、ロボット制御部11と、表示部12と、無線通信部13と、スピーカ14と、電源部15と、駆動系(21~23)と、センサ群(31~33)とを備えて構成される。
The landmark image projection device 7 is, for example, a laser beam irradiation device or a projector, and a plurality of the landmark image projection devices 7 are installed on the ceiling, wall surface, or floor surface along the traveling path in the warehouse. The landmark image projection device 7 is configured to be communicable with the RM server 1, and based on a projection command from the RM server 1, an image of a specific shape or pattern that can be used as a landmark image is displayed on the floor surface, wall surface, or. Project on the ceiling. Images of specific shapes and patterns projected by the landmark image projection device 7 include, for example, lines including dotted lines, polygons including circles and ellipses, triangles, geometric patterns, artificial codes, character strings, company logos, and the like. The character is illustrated. An image different depending on the time zone may be projected on the landmark image projection device 7. The landmark image projection device 7 of the embodiment includes a swivel device, and can change the projection position based on a command from the RM server 1.
As shown in FIG. 1, the automatic guided vehicle 10 includes a robot control unit 11, a display unit 12, a wireless communication unit 13, a speaker 14, a power supply unit 15, a drive system (21 to 23), and a sensor group. (31 to 33) are provided.

図2および図3に示すように、無人搬送車10の駆動系(21~23)はベース16の下面側に配置されており、その他のロボット制御部11等は、ベース16の上面側に配置されている。車輪19は駆動装置を有しない単輪であり、回転台18を介してベース16の下面に配置されている。
ベース16の進行方向側には、門形の枠17が設けられており、枠17の上部柱には表示部12を取り付けるためのアームと、非常停止ボタン24と、画像センサ33を吊り下げ固定するための固定具とが設けられている。
ベース16の進行方向と反対側には、係止柱42が設けられた連結部41が配置されている。図示の例では、コンテナを牽引可能なトレーラー50の係止板53が係止柱42に取り付けられている。トレーラー50は、ブロック状の胴部51と、長板状の支持部52と、一対の車輪54a,54bを備えた自走できない台車である。トレーラー50は、他のトレーラーをさらに連結することが可能である。
As shown in FIGS. 2 and 3, the drive system (21 to 23) of the automatic guided vehicle 10 is arranged on the lower surface side of the base 16, and the other robot control units 11 and the like are arranged on the upper surface side of the base 16. Has been done. The wheels 19 are single wheels having no drive device and are arranged on the lower surface of the base 16 via a rotary table 18.
A gate-shaped frame 17 is provided on the traveling direction side of the base 16, and an arm for attaching the display unit 12, an emergency stop button 24, and an image sensor 33 are suspended and fixed to the upper pillar of the frame 17. A fixing tool is provided for this purpose.
On the side opposite to the traveling direction of the base 16, a connecting portion 41 provided with a locking pillar 42 is arranged. In the illustrated example, the locking plate 53 of the trailer 50 capable of towing the container is attached to the locking pillar 42. The trailer 50 is a non-self-propelled trolley provided with a block-shaped body portion 51, a long plate-shaped support portion 52, and a pair of wheels 54a and 54b. The trailer 50 can be further connected to other trailers.

ロボット制御部11は、ロボット開発用の標準プラットフォームであるROS(Robot Operating System)を用いて構成された搬送用ソフトウェアが稼働するコンピュータであり、マップ管理部111と、運行管理部112と、ルート生成部113と、センサ管理部114と、仮想画像生成部115と、を備えている。
マップ管理部111は、3D-SLAM(3dimension Simultaneous Localization AND Mapping)によるマップ更新機能を備えている。マップ更新機能により更新される環境地図は、フロアー図や基本通路等の変更されることがない部分についての基本マップと、複数の部分マップとから構成されている。マップ管理部111は、カゴ車や荷箱等の常時変更が生じる物体の位置および形状情報をセンサ群(31~33)からの信号に基づき把握し、走行しながら自身の周辺にある部分マップ(周辺マップ)をリアルタイム更新する。
The robot control unit 11 is a computer on which transport software configured using ROS (Robot Operating System), which is a standard platform for robot development, is operated, and is a map management unit 111, an operation management unit 112, and a route generation. A unit 113, a sensor management unit 114, and a virtual image generation unit 115 are provided.
The map management unit 111 has a map update function by 3D-SLAM (3dimension Simultaneous Localization AND Mapping). The environmental map updated by the map update function is composed of a basic map for unchanged parts such as a floor map and a basic passage, and a plurality of partial maps. The map management unit 111 grasps the position and shape information of objects such as basket cars and packing boxes that are constantly changed based on the signals from the sensor group (31 to 33), and while traveling, the map management unit 111 is a partial map around itself ( Peripheral map) is updated in real time.

運行管理部112は、入出庫指示に基づき無人搬送車10の駆動系(21~23)を制御し、自律走行を可能とする。車軸に設けたエンコーダにより求められる車輪23a,23bの回転量の情報は、オドメトリ情報として記憶される。運行管理部112は、画像情報、オドメトリ情報、環境地図およびセンサ群(31~33)の観測データを用いて、RMサーバ1と通信を行うことなく自己位置を推定する機能を備えている(第1の現在位置推定機能)。ここで、別途6軸センサを設け、6軸センサからの情報も併用するようにしてもよい。自己位置の推定は、公知の推定方法(例えば、モンテカルロ法)を用いることができる。また、後述のラインフォロー機能を備えている。同一走行路で複数台の無人搬送車10を走行させる場合には、相互に自己位置を交換し、一定の車間距離を確保する機能を設けてもよい。運行管理部112は、画像センサからの画像情報に後述のランドマーク画像が含まれる場合、ランドマーク画像の座標情報に基づき現在位置を推定する第2の現在位置推定機能を備えている。
ルート生成部113は、ロボット制御部11の記憶装置に記憶された環境地図を利用して、RMサーバ1と通信を行うことなく、自律走行用のルートを生成する。入出庫位置となる商品の保管先の番地は、商品IDと紐づけて在庫管理部2aにより管理されている。トラック等の搬送車から荷受け・荷渡しをする荷さばき位置は、基本マップ上の番地により管理されている。入出庫指示が出されると、ルート生成部113は、基本マップおよび部分マップに基づき、荷さばき位置から入出庫位置までのルート(グローバルルート)を生成し、走行しながら部分マップが更新されると必要に応じて無人搬送車10の周辺ルート(ローカルルート)を補正する。
The operation management unit 112 controls the drive system (21 to 23) of the automatic guided vehicle 10 based on the entry / exit instruction to enable autonomous traveling. Information on the amount of rotation of the wheels 23a and 23b obtained by the encoder provided on the axle is stored as odometry information. The operation management unit 112 has a function of estimating its own position without communicating with the RM server 1 by using image information, odometry information, an environmental map, and observation data of sensor groups (31 to 33) (No. 1). Current position estimation function of 1). Here, a 6-axis sensor may be separately provided, and information from the 6-axis sensor may also be used together. For the estimation of the self-position, a known estimation method (for example, the Monte Carlo method) can be used. It also has a line follow function, which will be described later. When a plurality of automatic guided vehicles 10 are driven on the same travel path, a function of exchanging their own positions with each other and ensuring a constant inter-vehicle distance may be provided. The operation management unit 112 has a second current position estimation function that estimates the current position based on the coordinate information of the landmark image when the image information from the image sensor includes the landmark image described later.
The route generation unit 113 uses the environment map stored in the storage device of the robot control unit 11 to generate a route for autonomous traveling without communicating with the RM server 1. The storage address of the product, which is the warehousing / delivery position, is managed by the inventory management unit 2a in association with the product ID. The cargo handling position for receiving and delivering cargo from a transport vehicle such as a truck is managed by the address on the basic map. When the warehousing / delivery instruction is issued, the route generation unit 113 generates a route (global route) from the cargo handling position to the warehousing / delivery position based on the basic map and the partial map, and it is necessary to update the partial map while traveling. The peripheral route (local route) of the automatic guided vehicle 10 is corrected according to the above.

センサ管理部114は、前方センサ(31a~31c)、側方センサ(32a,32b)および画像センサ33からの観測信号を検知し、マップ管理部111や運行管理部112等に送信する。前方にもうけられた3つの前方センサ(31a~31c)は、距離センサ(例えば超音波センサ)であり、前方に存在する物体を例えば180度以上の範囲で検出する。側方にもうけられた2つの側方センサ(32a,32b)は、距離センサ(例えば超音波センサ)であり、側方に存在する物体を例えば120度以上の範囲で検出する。前方・側方に設けられた5つのセンサ(31a~31c,32a,32b)が障害物(人を含む)を検知すると、センサ管理部114から検知情報を受信した運行管理部112は、障害物を回避するか、回避が難しい場合には走行を一時停止する制御を行う。 The sensor management unit 114 detects observation signals from the front sensors (31a to 31c), side sensors (32a, 32b), and the image sensor 33, and transmits them to the map management unit 111, the operation management unit 112, and the like. The three front sensors (31a to 31c) provided in front are distance sensors (for example, ultrasonic sensors), and detect an object existing in front in a range of, for example, 180 degrees or more. The two side sensors (32a, 32b) provided on the sides are distance sensors (for example, ultrasonic sensors), and detect objects existing on the sides in a range of, for example, 120 degrees or more. When five sensors (31a to 31c, 32a, 32b) provided in the front and side detect an obstacle (including a person), the operation management unit 112 that receives the detection information from the sensor management unit 114 receives the detection information from the obstacle management unit 112. If it is difficult to avoid the problem, control is performed to suspend the vehicle.

仮想画像生成部115は、画像センサ33の撮像画像に仮想画像を付加した合成画像を動的に生成する合成画像生成機能を備えている。たとえば、仮想のラインの画像を付加した合成画像を動的に生成することで、当該付加された仮想のラインに基づき後述のラインフォロー機能を実行したり、方向転換位置を示すマークの画像を付加した合成画像を動的に生成することで、当該付加された仮想のマークに基づき方向転換制御をすることが可能となる。また、外乱光の入射する環境においては、仮想のランドマーク画像を付加した合成画像を動的に生成することで、走行制御をすることもできる。これらの場合、運行管理部112が保持している現在位置情報が正しいことが前提となるため、座標が既知のARマーカーやQRコード(登録商標)或いはバーコードなどの人工コード情報による補完情報を併用して現在位置を取得する構成とすることが好ましい。 The virtual image generation unit 115 has a composite image generation function that dynamically generates a composite image in which a virtual image is added to the captured image of the image sensor 33. For example, by dynamically generating a composite image with an image of a virtual line added, the line follow function described later can be executed based on the added virtual line, or an image with a mark indicating a turning position is added. By dynamically generating the combined image, it is possible to control the direction change based on the added virtual mark. Further, in an environment where ambient light is incident, traveling control can be performed by dynamically generating a composite image to which a virtual landmark image is added. In these cases, it is premised that the current position information held by the operation management unit 112 is correct, so supplementary information using artificial code information such as an AR marker with known coordinates, a QR code (registered trademark), or a barcode is used. It is preferable to use it in combination to acquire the current position.

図12(a)は画像センサ33の撮像画像であり、(b)は画像センサ33の撮像画像に仮想画像を付加した合成画像であり、(c)は(b)の平面模式図である。
図12(b)に示す合成画像においては、仮想誘導ライン81と仮想制御標識82が画像センサ33の撮像画像に付加されている。この付加された仮想誘導ライン81と仮想制御標識82に基づき、運行管理部112は走行制御を行う。たとえば、仮想誘導ライン81がベース16の中央に位置するようにラインフォローし、仮想制御標識82で90度右折する走行制御を行うことを開示する。無人搬送車10の走行により撮像画像におけるランドマーク画像が変化するとリアルタイムで無人搬送車10の現在位置は補正されるので、仮に仮想誘導ライン81と仮想制御標識82の描画位置が不正確なものであったとしても、無人搬送車10の走行に伴い描画位置は補正される。
12A is an image captured by the image sensor 33, FIG. 12B is a composite image in which a virtual image is added to the image captured by the image sensor 33, and FIG. 12C is a schematic plan view of FIG. 12B.
In the composite image shown in FIG. 12B, the virtual guidance line 81 and the virtual control sign 82 are added to the captured image of the image sensor 33. Based on the added virtual guidance line 81 and the virtual control sign 82, the operation management unit 112 performs traveling control. For example, it discloses that the virtual guidance line 81 is line-followed so as to be located at the center of the base 16 and the traveling control for turning 90 degrees to the right at the virtual control sign 82 is performed. When the landmark image in the captured image changes due to the traveling of the automatic guided vehicle 10, the current position of the automatic guided vehicle 10 is corrected in real time, so that the drawing positions of the virtual guidance line 81 and the virtual control sign 82 are inaccurate. Even if there is, the drawing position is corrected as the automatic guided vehicle 10 travels.

画像センサ33は、距離をおいて配置された二次元画像を撮影するステレオカメラにより構成される。ステレオカメラは、独立した2つのカメラを固定して構成してもよいし、二つのレンズ機構およびシャッター機構を一体的に備えるものにより構成してもよい。画像センサ33は、色情報を認識できるようカラーカメラにより構成することが好ましい。画像センサ33は、ベース16の前面側に取り付けられ、無人搬送車10の前方の2次元画像を撮影し、マップ管理部111に送信する。
マップ管理部111は、画像センサ33の撮像画像に基づいて距離情報を有する三次元画像を生成する。また、マップ管理部111は、特定の形状や模様を有する物体の画像または床面や壁面などに投影された特定の形状や模様の画像をランドマーク画像として、座標と関連付けて登録する機能も有している。有体物からなるランドマークとしては、三角コーン(安全コーン)や支柱などの防護標識を登録することもできるし、カラーテープや吊り看板などを登録することもできるし、ARマーカーやQRコード(登録商標)などの二次元コードや非常出口のプレートなどの情報標識を登録することもできる。加えて、ランドマーク画像投影装置7から床面、壁面または天井に投影された特定の形状や模様の画像をランドマークとすることもできる。ランドマーク画像投影装置7からの画像の投影は、指定した座標に行うこともできる。作業場所またクラウド上にランドマーク画像を管理するサーバを設置し、作業場所内に配置された複数の無人搬送車10でランドマーク情報(画像および座標情報)を共有してもよい。防護標識および情報標識は、作業場所の背景とのコントラストが高くなるカラーが付されていることが好ましい。
The image sensor 33 is composed of a stereo camera that captures two-dimensional images arranged at a distance. The stereo camera may be configured by fixing two independent cameras, or may be configured by integrally including two lens mechanisms and a shutter mechanism. The image sensor 33 is preferably configured by a color camera so that it can recognize color information. The image sensor 33 is attached to the front side of the base 16 and captures a two-dimensional image in front of the automatic guided vehicle 10 and transmits it to the map management unit 111.
The map management unit 111 generates a three-dimensional image having distance information based on the captured image of the image sensor 33. In addition, the map management unit 111 also has a function of registering an image of an object having a specific shape or pattern or an image of a specific shape or pattern projected on a floor surface or a wall surface as a landmark image in association with coordinates. is doing. As landmarks made of tangible objects, protective signs such as triangular cones (safety cones) and columns can be registered, color tapes and hanging signs can be registered, and AR markers and QR codes (registered trademarks) can be registered. ) And other two-dimensional codes and information signs such as emergency exit plates can also be registered. In addition, an image of a specific shape or pattern projected from the landmark image projection device 7 onto the floor surface, wall surface, or ceiling can be used as a landmark. The projection of the image from the landmark image projection device 7 can also be performed at the designated coordinates. A server for managing landmark images may be installed in the work place or in the cloud, and the landmark information (image and coordinate information) may be shared by a plurality of automatic guided vehicles 10 arranged in the work place. Protective signs and information signs are preferably colored in a color that contrasts well with the background of the work area.

表示部12は、タッチスクリーンにより構成されており、情報入力部を兼ねている。実施形態例では、表示部12を、ロボット制御部11と通信可能なプログラムが稼働するタブレット型端末により構成した。表示部12には、ルート生成部113が作成した推奨ルートが表示される。作業者がルートを承認すると、ルート生成部113は承認ルートを配列データに変換する。推奨ルートが好ましくない場合は、ルート変更指示を出すことができ、ルート生成部113が作成した別のルートが表示される。
無線通信部13は、ハンディ端末4およびRMサーバ1と無線LAN(例えばWi-Fi)により双方向の通信を行うことを可能とする。ハンディ端末4とRMサーバ1の通信モジュールを別モジュールにより構成し、RMサーバ1との通信は、LPWA(Low Power Wide Area Network)により行うように構成してもよい。
スピーカ14は、汎用的なスピーカにより構成されており、無人搬送車10の走行中は走行中であることを知らせるためのメロディが発音される。無人搬送車10が異常により停止した場合には、スピーカ14から異常を知らせる警報が発音される。なお、異常停止時に警報を発音せず、表示部12に異常を知らせる画像を表示させてもよいし、別途設けた表示灯により異常を知らせる構成を採用してもよい。
電源部15は、充電可能な二次電池を備えており、無人搬送車10をケーブルフリーで走行させることを可能とする。電源部15は、接触式の充電装置に加え、充電エリアに無人搬送車10を位置させることで非接触充電を可能とする受電装置を底面部または側面部に備えている。なお、非接触充電は必須の構成ではなく、接触式の充電装置のみを備える構成としてもよい。
The display unit 12 is composed of a touch screen and also serves as an information input unit. In the embodiment, the display unit 12 is configured by a tablet-type terminal running a program capable of communicating with the robot control unit 11. The recommended route created by the route generation unit 113 is displayed on the display unit 12. When the worker approves the route, the route generation unit 113 converts the approved route into array data. If the recommended route is not preferable, a route change instruction can be issued, and another route created by the route generation unit 113 is displayed.
The wireless communication unit 13 enables bidirectional communication with the handy terminal 4 and the RM server 1 by a wireless LAN (for example, Wi-Fi). The communication module of the handy terminal 4 and the RM server 1 may be configured by a separate module, and the communication with the RM server 1 may be configured to be performed by an LPWA (Low Power Wide Area Network).
The speaker 14 is composed of a general-purpose speaker, and a melody for notifying that the automatic guided vehicle 10 is running is sounded while the automatic guided vehicle 10 is running. When the automatic guided vehicle 10 is stopped due to an abnormality, an alarm notifying the abnormality is sounded from the speaker 14. It should be noted that the alarm may not be sounded at the time of abnormal stop, and an image for notifying the abnormality may be displayed on the display unit 12, or a configuration for notifying the abnormality may be adopted by a separately provided indicator lamp.
The power supply unit 15 is provided with a rechargeable secondary battery, and makes it possible to run the automatic guided vehicle 10 cable-free. In addition to the contact-type charging device, the power supply unit 15 is provided with a power receiving device on the bottom surface portion or the side surface portion that enables non-contact charging by locating the automatic guided vehicle 10 in the charging area. The non-contact charging is not an indispensable configuration, and may be configured to include only a contact-type charging device.

駆動系(21~23)は、駆動制御装置21と、駆動装置22a,22bと、車輪23a,23bとから構成される。
駆動制御装置21は、ロボット制御部11からの指示に基づき駆動装置22a,22bのそれぞれの駆動を独立制御するコンピュータである。無人搬送車10の方向転換は、右側の駆動装置22aによる車輪23aの回転角速度と、左側の駆動装置22bによる車輪23bの回転速度とを変えることにより行われる。
駆動装置22a,22bは、直流(DC)モータ、交流(AC)モータ、エンコーダ付モータ、ギヤドモータ等などの汎用モータを備えて構成され、車輪23a,23bを任意の回転角速度で回転させることができる。駆動装置22a,22bは、例えば分速50m以下の速度で500kgの積み荷を搬送することが可能である。実施形態例と異なり、車輪23a,23bのかじ取りを行うステアリング装置を駆動装置に別途設けてもよく、この場合、前述のオドメトリ情報には操舵角情報も含まれる。
実施形態例では、車輪23a,23bに、エポキシ樹脂等で塗装された床面の走行に適したタイヤを採用している。車輪23a,23bの直径、幅、トレッドパターンの有無は、搬送する物品の重量や床面の状況に応じて最適なものを採用することができる。
The drive system (21 to 23) includes a drive control device 21, drive devices 22a and 22b, and wheels 23a and 23b.
The drive control device 21 is a computer that independently controls the drive of each of the drive devices 22a and 22b based on an instruction from the robot control unit 11. The automatic guided vehicle 10 is changed in direction by changing the rotational angular velocity of the wheel 23a by the drive device 22a on the right side and the rotational speed of the wheel 23b by the drive device 22b on the left side.
The drive devices 22a and 22b are configured to include general-purpose motors such as direct current (DC) motors, alternating current (AC) motors, motors with encoders, geared motors, etc., and the wheels 23a and 23b can be rotated at arbitrary rotational angular speeds. .. The drive devices 22a and 22b can carry a load of 500 kg at a speed of, for example, 50 m / min or less. Unlike the embodiment, a steering device for steering the wheels 23a and 23b may be separately provided in the drive device. In this case, the odometry information described above includes steering angle information.
In the embodiment, tires suitable for running on a floor surface coated with epoxy resin or the like are used for the wheels 23a and 23b. The diameter, width, and presence / absence of the tread pattern of the wheels 23a and 23b can be optimally selected according to the weight of the article to be transported and the condition of the floor surface.

管理端末3は、ノートPC、デスクトップPC、タブレットなどの端末であり、RMサーバ1やWMSサーバ2の管理等のために用いられる。管理端末3から直接、ランドマーク画像投影装置7に投影指令を送信可能としてもよい。
ハンディ端末4は、ピッキング作業時のバーコードの読み取り等のために使用する携帯端末である。ハンディ端末4は、液晶画面等からなる表示部と、記憶装置等からなる記憶部と、プロセッサや内蔵時計等からなる制御部と、ボタン等からなる操作部と、バーコードリーダ部と、無線通信部と、二次電池とを備えている。本実施形態例では表示部と別に操作部を設けているが、表示部を情報入力が可能な液晶タッチ画面で構成してもよい。好ましい態様のハンディ端末4は、無人搬送車10のロボット制御部11と無線通信することが可能である。
無線LAN親機5が作業場所のフロアー内に配置されており、フロアー内のどの場所においても無線LAN例えばWi-Fi)へのアクセスが可能な環境が提供されている。
The management terminal 3 is a terminal such as a notebook PC, a desktop PC, or a tablet, and is used for managing the RM server 1 and the WMS server 2. It may be possible to transmit a projection command directly from the management terminal 3 to the landmark image projection device 7.
The handy terminal 4 is a mobile terminal used for reading a barcode during picking work. The handy terminal 4 has a display unit consisting of a liquid crystal screen or the like, a storage unit composed of a storage device or the like, a control unit composed of a processor or a built-in clock, an operation unit composed of buttons or the like, a bar code reader unit, and wireless communication. It has a unit and a secondary battery. In the present embodiment, the operation unit is provided separately from the display unit, but the display unit may be configured with a liquid crystal touch screen capable of inputting information. The handy terminal 4 of the preferred embodiment can wirelessly communicate with the robot control unit 11 of the automatic guided vehicle 10.
The wireless LAN base unit 5 is arranged on the floor of the work place, and an environment is provided in which access to the wireless LAN (for example, Wi-Fi) is possible at any place on the floor.

図4は、実施形態例に係る倉庫の走行路を説明するための平面図である。図中、網掛けがされている箇所が走行路である。床面の走行路と作業区間の境界には、ランドマーク画像投影装置7により部分的に床ライン71が投影されている。床ライン71を投影することが難しい場所については、カラーテープ(例えば虎模様のテープ)または塗装により床ライン71を形成してよもよい。図中、点線で図示した境界ライン72は、走行路と作業区間の境界であって、人やフォークリフトの通路となる部分を示している。境界ライン72には、床ライン71と異なる色、異なる形状または異なる模様の画像をランドマーク画像投影装置7により投影することが好ましい。実施形態例では、床ライン71と境界ライン72を異なる色の線で形成することで区別可能としている。投影された境界ライン72は、人やフォークリフトが通行しても劣化することがないし、人が作業空間を視認することにも資する。また、境界ライン72をランドマーク画像とすることで、走行路中のランドマーク情報が増えるので、自律走行の精度を高めることが可能となる。また、ランドマーク画像投影装置7により後述の床誘導ライン76を走行路の主要な部分に投影してもよい。 FIG. 4 is a plan view for explaining a traveling path of the warehouse according to the embodiment. In the figure, the shaded area is the running path. The floor line 71 is partially projected by the landmark image projection device 7 at the boundary between the travel path and the work section on the floor surface. For places where it is difficult to project the floor line 71, the floor line 71 may be formed by color tape (eg, tiger-patterned tape) or painting. In the figure, the boundary line 72 shown by the dotted line is the boundary between the traveling path and the working section, and indicates a portion that becomes a passage for a person or a forklift. It is preferable that the landmark image projection device 7 projects an image having a different color, a different shape, or a different pattern from the floor line 71 on the boundary line 72. In the embodiment, the floor line 71 and the boundary line 72 can be distinguished by forming the floor line 71 and the boundary line 72 with lines of different colors. The projected boundary line 72 does not deteriorate even when a person or a forklift passes through it, and contributes to the person's visual recognition of the work space. Further, by using the boundary line 72 as a landmark image, the landmark information in the travel path is increased, so that the accuracy of autonomous travel can be improved. Further, the floor guidance line 76, which will be described later, may be projected onto the main portion of the travel path by the landmark image projection device 7.

図5に示すように、走行路に沿った壁の画像センサ33に映り込む高さ(例えば、人の背よりも低い高さ)には作業者に注意喚起を促すためのカラーテープ(例えば虎模様のテープ)75が部分的に貼られている。カラーテープ75に代えて、塗装によりカラーラインを形成してもよい。走行制御をする上で必要な箇所には、ランドマーク画像投影装置7により後述の壁誘導ライン77および天井誘導ライン78が投影されている。 As shown in FIG. 5, a color tape (for example, a tiger) for calling attention to an operator at a height reflected on an image sensor 33 of a wall along a traveling path (for example, a height lower than the height of a person). Pattern tape) 75 is partially attached. Instead of the color tape 75, a color line may be formed by painting. The wall guidance line 77 and the ceiling guidance line 78, which will be described later, are projected by the landmark image projection device 7 at locations necessary for traveling control.

図示の例では、エリアA、BおよびCのいずれかをスタート地点およびゴール地点に設定することができる。符号73で図示するのは腰の高さほどの支柱であり、支柱にはカラーリング(例えば虎模様のテープ)が施されている。符号74で図示するのはカラーコーン(登録商標。以下省略)である。カラーコーン74の一部には、図5に示すようにARマーカー等の二次元コード79が付されている。走行路に接する柱の角部には、上下方向にわたりカラーテープ75が貼られている。カラーテープ75は塗装で代替することもできるし、ランドマーク画像投影装置7により特定の形状または模様の画像を投影してもよい。支柱73、カラーコーン74およびカラーテープ75は、作業者向けの標識としても機能するものである。このように、無人搬送車10が走行する空間には作業者向けの標識が設置されていることから、無人搬送車10はこれを特徴点情報をとして利用し、現在位置を把握するのに利用している。 In the illustrated example, any of areas A, B and C can be set as the start and finish points. Illustrated by reference numeral 73 is a support column as high as the waist, and the support column is colored (for example, a tiger-patterned tape). Illustrated by reference numeral 74 is a traffic cone (registered trademark, hereinafter omitted). As shown in FIG. 5, a two-dimensional code 79 such as an AR marker is attached to a part of the color cone 74. Color tape 75 is attached to the corners of the pillars in contact with the running path in the vertical direction. The color tape 75 may be replaced by painting, or an image of a specific shape or pattern may be projected by the landmark image projection device 7. The columns 73, the color cone 74 and the color tape 75 also function as markers for workers. In this way, since a sign for workers is installed in the space where the automatic guided vehicle 10 travels, the automatic guided vehicle 10 uses this as feature point information and uses it to grasp the current position. is doing.

本実施形態に係る無人搬送車10は、床または壁に設けられた誘導ライン76,77を検出して自律走行する機能も有している。具体的には、無人搬送車10は、まず、画像センサ33により撮像した撮像画像において、床面の走行路に形成されている床誘導ライン76と、壁面に形成されている壁誘導ライン77を認識する。ここで、図6は、本実施形態において、撮像画像中の領域に検出される誘導ラインが、床面に形成されたラインであるか、壁面に形成されたラインであるかを認識する方法を説明するための図である。図6に示すように、本実施形態において、無人搬送車10の運行管理部112は、撮像画像の画面中央下側の領域を床誘導ライン認識領域として設定し、撮像画像の画面中央下側および画面上部を除く領域を壁誘導ライン認識領域として設定している。そして、運行管理部112は、床誘導ライン認識領域において特定の色情報を有するライン画像を検出した場合には、当該ラインは床面に形成された床誘導ライン76であると認識し、床誘導ライン76に基づく走行制御を行う。また、運行管理部112は、壁誘導ライン認識領域において特定の色情報を有するライン画像を検出した場合には、当該ラインは壁面に形成された壁誘導ライン77であると認識し、壁誘導ライン77に基づく走行制御を行う。
なお、図6に示すように、床面の走行路に形成された床誘導ライン76および壁面に形成された壁誘導ライン77の両方を検出した場合には、両方のライン76,77に応じた走行制御を行わせることもできるし、特定の車両には床誘導ライン76に基づく第1の走行制御を行わせ、他の車両には壁誘導ライン77に基づく第2の走行制御を行わせることもできる。
The automatic guided vehicle 10 according to the present embodiment also has a function of detecting guidance lines 76 and 77 provided on the floor or wall and autonomously traveling. Specifically, the automatic guided vehicle 10 first includes a floor guidance line 76 formed on a traveling path on a floor surface and a wall guidance line 77 formed on a wall surface in an image captured by an image sensor 33. recognize. Here, FIG. 6 shows a method of recognizing in the present embodiment whether the guidance line detected in the region in the captured image is a line formed on the floor surface or a line formed on the wall surface. It is a figure for demonstrating. As shown in FIG. 6, in the present embodiment, the operation management unit 112 of the automatic guided vehicle 10 sets the area below the center of the screen of the captured image as the floor guidance line recognition area, and sets the area below the center of the screen of the captured image and The area excluding the upper part of the screen is set as the wall guidance line recognition area. Then, when the operation management unit 112 detects a line image having specific color information in the floor guidance line recognition region, the operation management unit 112 recognizes that the line is the floor guidance line 76 formed on the floor surface, and the floor guidance Travel control is performed based on the line 76. Further, when the operation management unit 112 detects a line image having specific color information in the wall guidance line recognition region, the operation management unit 112 recognizes that the line is the wall guidance line 77 formed on the wall surface, and recognizes that the line is the wall guidance line 77. Travel control based on 77 is performed.
As shown in FIG. 6, when both the floor guide line 76 formed on the running path of the floor surface and the wall guide line 77 formed on the wall surface were detected, both lines 76 and 77 were detected. It is also possible to perform travel control, to have a specific vehicle perform a first travel control based on the floor guidance line 76, and another vehicle to perform a second travel control based on the wall guidance line 77. You can also.

図7は、床面に形成した床誘導ライン76を用いた走行制御方法を説明するための図である。たとえば、無人搬送車10は、床面の走行路に床誘導ライン76を検出した場合、たとえば図7(A)に示すように、検出した床誘導ライン76の長手方向における中心線上を、床誘導ライン76に沿って走行するように、走行制御を行うラインフォロー機能を備えることができる。あるいは、無人搬送車10は、たとえば図7(B)に示すように、検出した床誘導ライン76を通路の端とみなし、床誘導ライン76を超えないように、あるいは、床誘導ライン76から一定距離離れて走行するように走行制御を行うことができる。ここで床ライン71または境界ライン72を床誘導ライン76として利用してもよい。
図8は、壁面に形成した壁誘導ライン77を用いた走行制御方法を説明するための図である。また、無人搬送車10は、走行路に沿った壁面に壁誘導ライン77を検出した場合には、図8(A)および図8(B)に示すように、検出した壁誘導ライン77から一定距離離れた位置を、壁誘導ライン77に沿って走行するように走行制御を行うことができる。ここで壁に貼られたカラーテープ75を壁誘導ライン77として利用してもよい。
FIG. 7 is a diagram for explaining a traveling control method using the floor guidance line 76 formed on the floor surface. For example, when the automatic guided vehicle 10 detects the floor guidance line 76 in the traveling path on the floor surface, for example, as shown in FIG. 7A, the floor guidance is on the center line in the longitudinal direction of the detected floor guidance line 76. A line follow function for controlling traveling can be provided so as to travel along the line 76. Alternatively, the automatic guided vehicle 10 regards the detected floor guide line 76 as the end of the passage, for example, as shown in FIG. 7B, so as not to exceed the floor guide line 76 or to be constant from the floor guide line 76. Travel control can be performed so that the vehicle travels a distance away. Here, the floor line 71 or the boundary line 72 may be used as the floor guidance line 76.
FIG. 8 is a diagram for explaining a traveling control method using the wall guide line 77 formed on the wall surface. Further, when the automatic guided vehicle 10 detects the wall guidance line 77 on the wall surface along the traveling path, it is constant from the detected wall guidance line 77 as shown in FIGS. 8A and 8B. Travel control can be performed so as to travel along the wall guidance line 77 at a position separated by a distance. Here, the color tape 75 attached to the wall may be used as the wall guide line 77.

さらに、本実施形態において、無人搬送車10は、天井に貼り付けたカラーテープや、天井から吊り下げた吊り看板、梁、照明器具などの画像をランドマーク画像として座標と関連付けて登録する機能に加え、天井に設けられた誘導ラインを検出して自律走行する機能も備えている。
図9は、天井に設けられた天井誘導ライン78を用いた走行制御方法を説明するための図である。図9に示すように、無人搬送車10の運行管理部112は、撮像画像の画面中央上側の領域を天井認識領域として設定する。運行管理部112は、天井認識領域においてライン画像を検出した場合には、当該ラインは天井に形成された天井誘導ライン78であると認識し、天井に形成された天井誘導ライン78に基づく走行制御を行う。たとえば、無人搬送車10は、検出した天井誘導ライン78の長手方向における中心線上を、天井誘導ライン78に沿って走行するように、走行制御を行うラインフォロー機能を備えることができる。天井誘導ライン78に基づく走行と、天井のランドマーク情報(たとえば、天井から吊り下げた吊り看板)を組み合わせて、吊り看板が真上に来る位置まで走行するように、走行制御を行うこともできる。特に、天井が低い病院などの施設では、天井に形成した天井誘導ライン78に基づいて走行制御を行うことは有用である。
Further, in the present embodiment, the automatic guided vehicle 10 has a function of registering an image of a color tape attached to the ceiling, a hanging signboard, a beam, a lighting fixture, etc. suspended from the ceiling as a landmark image in association with coordinates. In addition, it also has a function to detect the guidance line provided on the ceiling and drive autonomously.
FIG. 9 is a diagram for explaining a traveling control method using the ceiling guidance line 78 provided on the ceiling. As shown in FIG. 9, the operation management unit 112 of the automatic guided vehicle 10 sets the area on the upper center of the screen of the captured image as the ceiling recognition area. When the operation management unit 112 detects a line image in the ceiling recognition area, the operation management unit 112 recognizes that the line is a ceiling guidance line 78 formed on the ceiling, and controls traveling based on the ceiling guidance line 78 formed on the ceiling. I do. For example, the automatic guided vehicle 10 can be provided with a line follow function that controls traveling so as to travel along the ceiling guidance line 78 on the center line in the longitudinal direction of the detected ceiling guidance line 78. It is also possible to combine traveling based on the ceiling guidance line 78 with landmark information on the ceiling (for example, a hanging signboard suspended from the ceiling) to control traveling so that the hanging signboard travels to a position directly above. .. In particular, in a facility such as a hospital with a low ceiling, it is useful to perform traveling control based on the ceiling guidance line 78 formed on the ceiling.

なお、図6に示す床ライン認識領域および壁ライン認識領域、および図9に示す天井認識領域は一例であり、適宜、範囲を変更することができる。また、無人搬送車10は、特徴点情報として各ライン(71,72,76~78)から現在位置を推定する場合にも、上述したように、撮像画像の床ライン認識領域において認識したラインを床面に形成された床ライン71、境界ライン72または床誘導ライン76として認識し、撮像画像の壁ライン認識領域において認識したラインを壁面に形成された壁誘導ライン77として認識し、あるいは、撮像画像の天井認識領域において認識したラインを天井誘導ライン78と認識することで、現在位置を推定することができる。 The floor line recognition area and the wall line recognition area shown in FIG. 6 and the ceiling recognition area shown in FIG. 9 are examples, and the range can be changed as appropriate. Further, when the unmanned carrier 10 estimates the current position from each line (71, 72, 76 to 78) as feature point information, as described above, the unmanned carrier 10 recognizes the line recognized in the floor line recognition area of the captured image. It is recognized as a floor line 71, a boundary line 72 or a floor guide line 76 formed on the floor surface, and a line recognized in the wall line recognition area of the captured image is recognized as a wall guide line 77 formed on the wall surface, or is imaged. By recognizing the line recognized in the ceiling recognition area of the image as the ceiling guidance line 78, the current position can be estimated.

また、上述した例では、狭い通路やカーブなどの走行路において、高精度かつ安定した走行制御を行うために、支柱73、カラーコーン74、カラーテープ75および天井に取り付けた看板(不図示)などを特徴点情報として利用し、現在位置を推定する構成を例示したが、これに限定されず、たとえば、非接触充電機器に近接して充電できるように、非接触充電機器の付近における現在位置を推定する構成とすることもできる。たとえば、図4において、符号Dは充電エリアであり、符号Eは出入り口であり、符号Fは荷さばき場所である。符号Dの充電エリアでは、非接触で充電を行うための送電装置(図示せす)が配置されている。しかし、充電エリアではcmオーダーの精度で無人搬送車10を誘導しなくては、充電を行うことができない。そのため、無人搬送車10を送電装置に誘導するための床誘導ライン76が付されている。床誘導ライン76は、カラーテープで作成してもよいし、塗装により作成してもよいし、ランドマーク画像投影装置7により投影してもよい。ここで、カラーテープは、視認できるテープであれば足り、透光性のテープや模様が施されたテープも含まれる。また、床誘導ライン76は、点線からなるラインであってもよい。
運行管理部112は、画像センサ33がライン画像を検出すると、ラインに沿って無人搬送車10を誘導するラインフォロー機能を有している。ラインフォロー機能の実装形態としては、たとえば、あらかじめ設定した色情報を抜き出し、線の形状を認識することで、走行制御をすることが開示される。このラインフォロー機能により、無人搬送車10の受電装置が送電装置の上に位置するように、cmオーダーの精度で誘導することが可能である。
荷さばき場所Fは、トラック等の搬送車が発着する場所でもあり、外乱光の入射がある。
Further, in the above-mentioned example, in order to perform highly accurate and stable running control in a running path such as a narrow passage or a curve, a support column 73, a color cone 74, a color tape 75, a signboard attached to the ceiling (not shown), and the like. Is illustrated as a configuration for estimating the current position by using It can also be an estimated configuration. For example, in FIG. 4, reference numeral D is a charging area, reference numeral E is an entrance / exit, and reference numeral F is a loading / unloading place. In the charging area of reference numeral D, a power transmission device (shown) for non-contact charging is arranged. However, in the charging area, charging cannot be performed unless the automatic guided vehicle 10 is guided with an accuracy on the order of cm. Therefore, a floor guidance line 76 for guiding the automatic guided vehicle 10 to the power transmission device is attached. The floor guide line 76 may be created by color tape, may be created by painting, or may be projected by the landmark image projection device 7. Here, the color tape is sufficient as long as it is a visible tape, and includes a translucent tape and a tape with a pattern. Further, the floor guide line 76 may be a line composed of a dotted line.
The operation management unit 112 has a line follow function that guides the automatic guided vehicle 10 along the line when the image sensor 33 detects the line image. As an implementation form of the line follow function, for example, it is disclosed that traveling control is performed by extracting preset color information and recognizing the shape of the line. With this line follow function, it is possible to guide the automatic guided vehicle 10 so that the power receiving device is located above the power transmission device with an accuracy on the order of cm.
The cargo handling place F is also a place where a transport vehicle such as a truck arrives and departs, and is incident with ambient light.

無人搬送車10は、一定間隔でルート補正を行いながら走行している。図10は、走行中におけるルート補正のフローチャートである。
STEP601:ロボット制御部11は、画像センサにより進行方向およびその周辺の画像情報を取得し、画像情報において特徴点認識を行う。特徴点認識の詳細については後述する。
STEP602:ロボット制御部11は、現在位置の取得が可能な場合はSTEP603に進み、現在位置の取得が不可能な場合はSTEP606に進む。
The automatic guided vehicle 10 is traveling while correcting the route at regular intervals. FIG. 10 is a flowchart of route correction during traveling.
STEP601: The robot control unit 11 acquires image information in the traveling direction and its surroundings by an image sensor, and recognizes feature points in the image information. The details of feature point recognition will be described later.
STEP602: The robot control unit 11 proceeds to STEP603 when the current position can be acquired, and proceeds to STEP606 when the current position cannot be acquired.

STEP603:ロボット制御部11は、取得した現在位置に対応する部分マップを、画像情報に基づき更新する。
STEP604:ロボット制御部11は、設定されているルートの補正が必要かを判断し、必要である場合はSTEP605に進み、必要ない場合はSTEP601に戻る。
STEP605:ロボット制御部11は、設定されているルートを補正し、記憶装置に記憶する。
STEP603: The robot control unit 11 updates the acquired partial map corresponding to the current position based on the image information.
STEP604: The robot control unit 11 determines whether the correction of the set route is necessary, proceeds to STEP605 if necessary, and returns to STEP601 if it is not necessary.
STEP605: The robot control unit 11 corrects the set route and stores it in the storage device.

STEP606:ロボット制御部11は、記憶装置からオドメトリ情報を取得し、記憶装置に直前に記憶された現在位置情報とオドメトリ情報に基づき現在位置を算出する。
STEP607:ロボット制御部11は、現在位置の取得が可能な場合はSTEP608に進み、現在位置の取得が不可能な場合はSTEP609に進む。
STEP608:ロボット制御部11は、取得した現在位置に対応する部分マップを、画像情報に基づき更新する。
STEP609:無人搬送車10を停止し、表示部12に異常を知らせる画面を表示させ、またはスピーカ14から停止を知らせる警報を発音する。
STEP610:ロボット制御部11は、設定されているルートの補正が必要かを判断し、必要である場合はSTEP605に進み、必要ない場合はSTEP601に戻る。
STEP606: The robot control unit 11 acquires the odometry information from the storage device, and calculates the current position based on the current position information and the odometry information stored immediately before in the storage device.
STEP607: The robot control unit 11 proceeds to STEP608 when the current position can be acquired, and proceeds to STEP609 when the current position cannot be acquired.
STEP608: The robot control unit 11 updates the acquired partial map corresponding to the current position based on the image information.
STEP609: Stop the automatic guided vehicle 10, display a screen notifying the abnormality on the display unit 12, or sound an alarm notifying the stop from the speaker 14.
STEP610: The robot control unit 11 determines whether the correction of the set route is necessary, proceeds to STEP605 if necessary, and returns to STEP601 if it is not necessary.

STEP601における特徴点認識について補足の説明をする。周囲に設置されている物体が常時変更する倉庫では、カゴ車、商品箱などの常時移動される物体を含めた形で特徴点が抽出されるため、誤検知が生じやすい。そのため、実施形態例では、画像情報に基づく特徴点抽出により現在位置を取得できない場合には、ランドマーク情報や人工コード情報などの補完情報を併用して現在位置を取得している。図11は、補完情報を併用した現在位置取得のフローチャートである。 A supplementary explanation will be given regarding feature point recognition in STEP601. In a warehouse where objects installed around it are constantly changing, feature points are extracted in a form that includes objects that are constantly moving, such as basket cars and merchandise boxes, so false positives are likely to occur. Therefore, in the embodiment, when the current position cannot be acquired by the feature point extraction based on the image information, the current position is acquired by using the complementary information such as the landmark information and the artificial code information together. FIG. 11 is a flowchart of the current position acquisition using the complementary information.

STEP701:ロボット制御部11は、画像センサが取得した進行方向およびその周辺の画像情報において特徴点認識を行い、基本マップおよび部分マップと対照し、現在位置の取得を試みる。
STEP702:現在位置の取得が可能な場合はSTEP706に進み、現在位置の取得が不可能な場合はSTEP703に進む。
STEP703:取得した画像情報に対する特徴点認識の結果に基づき、予め座標と関連付けて登録された補完情報を検出する。例えば、画像情報で抽出された特定のARマーカーの座標情報を読み出し、画像中におけるARマーカーの位置や大きさに基づき現在位置を算出する。
STEP704:現在位置の取得が可能な場合はSTEP706に進み、現在位置の取得が不可能な場合はSTEP705に進む。
STEP705:無人搬送車10を停止し、表示部12に異常を知らせる画面を表示させ、またはスピーカ14から停止を知らせる警報を発音する。
STEP706:ロボット制御部11は、取得した現在位置を記憶装置に記憶する。
STEP7011: The robot control unit 11 recognizes feature points in the image information of the traveling direction and its surroundings acquired by the image sensor, compares it with the basic map and the partial map, and tries to acquire the current position.
STEP702: If the current position can be acquired, the process proceeds to STEP706, and if the current position cannot be acquired, the process proceeds to STEP703.
STEP703: Based on the result of feature point recognition for the acquired image information, the complementary information registered in advance in association with the coordinates is detected. For example, the coordinate information of a specific AR marker extracted from the image information is read out, and the current position is calculated based on the position and size of the AR marker in the image.
STEP704: If the current position can be acquired, the process proceeds to STEP706, and if the current position cannot be acquired, the process proceeds to STEP705.
STEP705: The automatic guided vehicle 10 is stopped, a screen notifying the abnormality is displayed on the display unit 12, or an alarm notifying the stop is sounded from the speaker 14.
STEP706: The robot control unit 11 stores the acquired current position in the storage device.

以上に説明した実施形態例の無人搬送車10は、誘導ケーブルや誘導テープを設置することなく、投影画像、周辺画像情報および安価な障害物センサに基づき自律走行を行うことが可能である。そのため、既存の倉庫においても、最小限の設備投資をすることで、無人搬送システムを構築することが可能である。 The automatic guided vehicle 10 of the embodiment described above can autonomously travel based on a projected image, peripheral image information, and an inexpensive obstacle sensor without installing a guide cable or a guide tape. Therefore, it is possible to construct an automatic guided vehicle even in an existing warehouse with a minimum of capital investment.

また、ランドマーク画像投影装置7の投影画像の投影位置等を変更することにより、倉庫内のレイアウト変更に容易に対応することが可能である。また、投影した仮想のランドマーク画像を併用することで、外乱光の入射する環境においても、現在位置の取得精度を高めることが可能である。 Further, by changing the projection position of the projected image of the landmark image projection device 7, it is possible to easily cope with the layout change in the warehouse. In addition, by using the projected virtual landmark image together, it is possible to improve the acquisition accuracy of the current position even in an environment where ambient light is incident.

以上、本発明の好ましい実施形態例について説明したが、本発明の技術的範囲は上記実施形態の記載に限定されるものではない。上記実施形態例には様々な変更・改良を加えることが可能であり、そのような変更または改良を加えた形態のものも本発明の技術的範囲に含まれる。
実施形態例では、無人搬送車10がWMSサーバ2から入庫情報や注文情報を受信する構成を説明したが、WMSサーバ2と連携しない無人搬送車システムを構築してもよく、例えば、ハンディ端末4や作業場所に設置された管理端末から入出庫指示を無人搬送車10に送信するようにしてもよい。
また、図10で説明した優先順序で現在位置取得を行わなくともよく、何の情報に基づき現在位置取得を優先して行うかは、ロボット制御部11により任意の優先度を設定することが可能である。例えば、距離センサやラインフォロー機能の優先度を画像センサ33からの情報に基づく現在位置取得に優先させてもよい。
Although the preferred embodiment of the present invention has been described above, the technical scope of the present invention is not limited to the description of the above embodiment. Various changes and improvements can be added to the above-described embodiments, and those in which such changes or improvements have been made are also included in the technical scope of the present invention.
In the example of the embodiment, the configuration in which the automatic guided vehicle 10 receives the warehousing information and the order information from the WMS server 2 has been described. However, an automatic guided vehicle system that does not cooperate with the WMS server 2 may be constructed, for example, the handy terminal 4. Or, the warehousing / delivery instruction may be transmitted to the automatic guided vehicle 10 from the management terminal installed at the work place.
Further, it is not necessary to acquire the current position in the priority order described with reference to FIG. 10, and the robot control unit 11 can set an arbitrary priority as to what information is used to prioritize the acquisition of the current position. Is. For example, the priority of the distance sensor or the line follow function may be prioritized to the acquisition of the current position based on the information from the image sensor 33.

さらに、上述した実施形態では、特に、GPSを利用できない屋内施設として倉庫を例示して説明したが、本発明は倉庫での利用に限定されるものではなく、物品の搬送が行われる倉庫以外の屋内施設(たとえば、GPSが利用できない工場や病院)においても利用することもできる。
また、本発明は、カメラで周囲の物体を適切に認識できない場合において無人搬送車が停止してしまうことを防止する発明であり、このような場面として、外乱光が入射する環境を例示して説明した。しかしながら、周囲の物体を適切に認識できない場面としては、外乱光が入射する環境に限定されず、たとえば、季節や時間帯によりカゴ車などの搬送什器や商品などの荷物の物量・配置が変化した場合や、人やフォークリフトなどが同一環境下に混在する場合など、周囲の物品の配置が時間とともに変化する環境もあり、このような環境においても、本発明は有用である。
Further, in the above-described embodiment, the warehouse is exemplified as an indoor facility in which GPS cannot be used, but the present invention is not limited to the use in the warehouse, and the invention is not limited to the warehouse in which the goods are transported. It can also be used in indoor facilities (for example, factories and hospitals where GPS is not available).
Further, the present invention is an invention for preventing an automatic guided vehicle from stopping when a camera cannot properly recognize a surrounding object, and exemplifies an environment in which ambient light is incident as such a scene. explained. However, the scene in which the surrounding objects cannot be properly recognized is not limited to the environment in which ambient light is incident. In some cases, such as when people and forklifts coexist in the same environment, the arrangement of surrounding articles may change with time, and the present invention is also useful in such an environment.

さらに、本発明に係る無人搬送車を用いた作業は、入出庫作業に限定されず、無人搬送車10により荷物を搬送する必要がある各種作業に適用することができる。 Further, the work using the automatic guided vehicle according to the present invention is not limited to the warehousing / delivery work, and can be applied to various works in which the automatic guided vehicle 10 needs to carry the load.

また、上述した実施形態では、画像センサ33を有する構成を例示したが、画像センサ33の数は特に限定されず、単一の画像センサ33を有する構成としてもよいし、複数の画像センサ33を有する構成としてもよい。複数の画像センサ33を有する構成の場合、複数の画像センサ33により撮像した複数の方位の撮像画像に基づいて、支柱73、カラーコーン74、カラーテープ75および天井に取り付けた看板(不図示)などの特徴点情報を認識し、現在位置の認識や走行制御を行うことで、現在位置の認識精度および走行制御の精度を高めることができる。 Further, in the above-described embodiment, the configuration having the image sensor 33 is exemplified, but the number of the image sensors 33 is not particularly limited, and the configuration may have a single image sensor 33, or a plurality of image sensors 33 may be used. It may be configured to have. In the case of a configuration having a plurality of image sensors 33, a support column 73, a color cone 74, a color tape 75, a signboard attached to the ceiling (not shown), etc., based on images captured in a plurality of directions captured by the plurality of image sensors 33, etc. By recognizing the feature point information of the above, recognizing the current position, and performing running control, it is possible to improve the recognition accuracy of the current position and the running control accuracy.

1 RMサーバ
2 WMSサーバ
3 管理端末
4 ハンディ端末
5 無線LAN親機
6 カゴ車
7 ランドマーク画像投影装置
10 無人搬送車
11 ロボット制御部
12 表示部
16 ベース
21 駆動制御装置
22 駆動装置
23 車輪
31 前方センサ
32 側方センサ
33 画像センサ
71 床ライン
72 通路ライン
73 支柱
74 カラーコーン
75 カラーテープ
76 床誘導ライン
77 壁誘導ライン
78 天井誘導ライン
79 二次元コード
81 仮想誘導ライン
82 仮想制御標識
1 RM server 2 WMS server 3 Management terminal 4 Handy terminal 5 Wireless LAN base unit 6 Basket car 7 Landmark image projection device 10 Automated guided vehicle 11 Robot control unit 12 Display unit 16 Base 21 Drive control device 22 Drive device 23 Wheel 31 Front Sensor 32 Side sensor 33 Image sensor 71 Floor line 72 Passage line 73 Prop 74 Color cone 75 Color tape 76 Floor guidance line 77 Wall guidance line 78 Ceiling guidance line 79 Two-dimensional code 81 Virtual guidance line 82 Virtual control sign

Claims (12)

進行方向側の物体画像を撮像する画像センサと、
複数の車輪の駆動を独立制御する駆動部と、
環境地図に基づき走行路に沿って自律走行するための制御指令を駆動部に送信するロボット制御部と、
無線通信部と、を備え、
前記ロボット制御部が、画像センサからの画像情報に基づき環境地図およびルートを常時更新する機能と、
前記走行路に沿って配置された特定の形状または模様の画像をランドマーク画像として環境地図上の座標情報と紐付けて登録する機能と、
画像センサからの画像情報において特徴点認識を行い、環境地図と対照して現在位置を推定する第1の現在位置推定機能と、
画像センサからの画像情報にランドマーク画像が含まれる場合、ランドマーク画像の座標情報に基づき現在位置を推定する第2の現在位置推定機能と、
を備え、
前記ランドマーク画像として、投影画像を含むことを特徴とする無人搬送車。
An image sensor that captures an image of an object in the direction of travel,
A drive unit that independently controls the drive of multiple wheels,
A robot control unit that sends control commands to the drive unit for autonomous driving along the travel path based on the environmental map, and a robot control unit.
With a wireless communication unit,
The robot control unit has a function to constantly update the environment map and route based on the image information from the image sensor.
A function to register an image of a specific shape or pattern arranged along the travel path as a landmark image in association with coordinate information on an environmental map, and
The first current position estimation function that recognizes feature points in the image information from the image sensor and estimates the current position in comparison with the environmental map,
When the image information from the image sensor includes a landmark image, a second current position estimation function that estimates the current position based on the coordinate information of the landmark image, and
Equipped with
An automatic guided vehicle characterized by including a projected image as the landmark image.
前記駆動部が、前記複数の車輪の回転情報をオドメトリ情報としてロボット制御部に送信する機能を備え、
前記ロボット制御部が、前記オドメトリ情報および直前に記憶された現在位置情報に基づき現在位置を推定する第3の現在位置推定機能を備えることを特徴とする請求項1に記載の無人搬送車。
The drive unit has a function of transmitting rotation information of the plurality of wheels as odometry information to the robot control unit.
The automatic guided vehicle according to claim 1, wherein the robot control unit includes a third current position estimation function that estimates the current position based on the odometry information and the current position information stored immediately before.
前記ロボット制御部が、画像センサからの画像情報に仮想画像を付加した合成画像を連続生成する機能と、
合成画像が含む仮想画像に基づき走行制御を行う機能と、を備えることを特徴とする請求項1または2に記載の無人搬送車。
The robot control unit has a function to continuously generate a composite image in which a virtual image is added to the image information from the image sensor.
The automatic guided vehicle according to claim 1 or 2, further comprising a function of performing traveling control based on a virtual image included in the composite image.
前記投影画像が、床面、壁面、および/または、天井に投影された、ライン、模様、人工コード、文字列、ロゴ、または、キャラクターの画像であり、
前記ロボット制御部は、前記投影画像に基づき走行制御する機能を備えることを特徴とする請求項1ないし3のいずれかに記載の無人搬送車。
The projected image is an image of a line, a pattern, an artificial code, a character string, a logo, or a character projected on a floor surface, a wall surface, and / or a ceiling.
The automatic guided vehicle according to any one of claims 1 to 3, wherein the robot control unit has a function of controlling traveling based on the projected image.
前記走行路に沿って投影されたラインに沿って走行するラインフォロー機能を備えることを特徴とする請求項1ないし4のいずれかに記載の無人搬送車。 The automatic guided vehicle according to any one of claims 1 to 4, further comprising a line follow function for traveling along a line projected along the traveling path. 前記ランドマーク画像が、二次元コードを含む人工コードの画像を含むことを特徴とする請求項1ないし5のいずれかに記載の無人搬送車。 The automatic guided vehicle according to any one of claims 1 to 5, wherein the landmark image includes an image of an artificial code including a two-dimensional code. 請求項1ないし6のいずれかに記載の無人搬送車と、
前記走行路に沿って、ライン、模様、人工コード、文字列、ロゴ、または、キャラクターの画像を投影するランドマーク画像投影装置と、
を備える無人搬送車システム。
The automatic guided vehicle according to any one of claims 1 to 6 and the automatic guided vehicle.
A landmark image projection device that projects an image of a line, pattern, artificial code, character string, logo, or character along the track.
An automatic guided vehicle system equipped with.
前記ランドマーク画像投影装置が、前記走行路に沿って、床面、壁面、および/または、天井に、ライン、模様、人工コード、文字列、ロゴ、または、キャラクターの画像を投影する機能を備えることを特徴とする請求項7に記載の無人搬送車システム。 The landmark image projection device has a function of projecting an image of a line, a pattern, an artificial code, a character string, a logo, or a character on a floor surface, a wall surface, and / or a ceiling along the traveling path. The unmanned transport vehicle system according to claim 7, wherein the system is characterized by the above. 前記ランドマーク画像投影装置が、前記走行路と作業区間の境界となる通路部分にライン、模様、人工コード、文字列、ロゴ、または、キャラクターの画像を投影する機能を備えることを特徴とする請求項7または8に記載の無人搬送車システム。 A claim characterized in that the landmark image projection device has a function of projecting an image of a line, a pattern, an artificial code, a character string, a logo, or a character on a passage portion that is a boundary between the travel path and a work section. Item 7. The automatic guided vehicle system according to Item 7. 前記ランドマーク画像投影装置に、特定の画像を投影させる投影指令を送信するサーバを備えることを特徴とする請求項7ないし9のいずれかに記載の無人搬送車システム。 The automatic guided vehicle system according to any one of claims 7 to 9, wherein the landmark image projection device includes a server for transmitting a projection command for projecting a specific image. 前記投影指令は、前記無人搬送車に第1の走行制御を行わせるための第1の画像および前記無人搬送車に第2の走行制御を行わせるための第2の画像を投影させる投影指令を含むことを特徴とする請求項10に記載の無人搬送車システム。 The projection command is a projection command for projecting a first image for causing the automatic guided vehicle to perform the first travel control and a second image for causing the automatic guided vehicle to perform the second travel control. The automatic guided vehicle system according to claim 10, wherein the automatic guided vehicle system is included. 前記サーバが、第1の時間帯に前記第1の画像を投影させる投影指令を送信し、第2の時間帯に前記第2の画像を投影させる投影指令を送信することを特徴とする請求項11に記載の無人搬送車システム。 A claim characterized in that the server transmits a projection command for projecting the first image in a first time zone and a projection command for projecting the second image in a second time zone. 11. The unmanned carrier system according to 11.
JP2020206609A 2020-12-14 2020-12-14 Unmanned carrier and unmanned carrier system Pending JP2022093887A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020206609A JP2022093887A (en) 2020-12-14 2020-12-14 Unmanned carrier and unmanned carrier system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020206609A JP2022093887A (en) 2020-12-14 2020-12-14 Unmanned carrier and unmanned carrier system

Publications (1)

Publication Number Publication Date
JP2022093887A true JP2022093887A (en) 2022-06-24

Family

ID=82081439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020206609A Pending JP2022093887A (en) 2020-12-14 2020-12-14 Unmanned carrier and unmanned carrier system

Country Status (1)

Country Link
JP (1) JP2022093887A (en)

Similar Documents

Publication Publication Date Title
JP6840369B2 (en) Automated guided vehicle and transportation work method using it
US10875448B2 (en) Visually indicating vehicle caution regions
KR101323705B1 (en) Autonomous freight transportation system using mobile robot for autonomous freight transportation
US9785911B2 (en) System and method for piece-picking or put-away with a mobile manipulation robot
CN104679004B (en) Automatic guided vehicle and its guidance method that flexible path is combined with fixed route
US20210395007A1 (en) Bin retrieval and transport systems and methods
KR20180109118A (en) A method for identifying the exact position of robot by combining QR Code Tag, beacon terminal, encoder and inertial sensor
US20130325210A1 (en) Collision avoiding method and associated system
WO2012103002A2 (en) Inferential load tracking
JP2011253414A (en) Unmanned carrier and travel control method
CN112875578A (en) Unmanned forklift control system
CN206312215U (en) A kind of mobile unit and stock article management system
US20060037528A1 (en) Method and apparatus for intelligent highway traffic control devices
KR102000825B1 (en) Automatic freight transferring and picking system
TWI671610B (en) Automatic guided vehicle , agv control system, and agv control method
CN107305386A (en) A kind of intelligent optical guidance system
JPWO2019054209A1 (en) Map making system and map making device
JP2018092393A (en) Automatic carrier vehicle control system
Behrje et al. An autonomous forklift with 3d time-of-flight camera-based localization and navigation
CN114924569A (en) AGV body path planning system for synthetic use of artificial diamond
EP3933727A1 (en) Intelligent warehousing technology for self-driving systems
CN114714357A (en) Sorting and carrying method, sorting and carrying robot and storage medium
US20210125493A1 (en) Travel control apparatus, travel control method, and computer program
CA3128210C (en) Proximate robot object detection and avoidance
JP2019079171A (en) Movable body

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231120