JP7415830B2 - unmanned vehicle - Google Patents

unmanned vehicle Download PDF

Info

Publication number
JP7415830B2
JP7415830B2 JP2020116596A JP2020116596A JP7415830B2 JP 7415830 B2 JP7415830 B2 JP 7415830B2 JP 2020116596 A JP2020116596 A JP 2020116596A JP 2020116596 A JP2020116596 A JP 2020116596A JP 7415830 B2 JP7415830 B2 JP 7415830B2
Authority
JP
Japan
Prior art keywords
map
sensor
unmanned vehicle
surrounding environment
structures
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020116596A
Other languages
Japanese (ja)
Other versions
JP2022014323A (en
Inventor
達也 三田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Industries Corp
Original Assignee
Toyota Industries Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Industries Corp filed Critical Toyota Industries Corp
Priority to JP2020116596A priority Critical patent/JP7415830B2/en
Publication of JP2022014323A publication Critical patent/JP2022014323A/en
Application granted granted Critical
Publication of JP7415830B2 publication Critical patent/JP7415830B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、無人車両に関するものである。 The present invention relates to an unmanned vehicle.

無人車両の状態(位置情報など)を推定する技術としてSLAM(Simultaneous Localization and Mapping)がある。SLAMは、自己位置推定の際、事前に取得した周囲の環境地図(初期地図)とセンサで取得した周囲環境を比較することで無人車両の自己位置を推定するが、事前に取得した周囲の環境は時間の経過とともに変化するため、初期地図を何らかの方法で更新しなければ、自己位置推定精度の悪化や自己位置推定ができないロストにつながる。例えば、特許文献1に開示の無人搬送車と在庫管理システムの連動システムにおいては、地図管理部は、在庫管理システムの入出庫情報に基づき、無人搬送車が使用する環境地図をリアルタイムに更新し、環境地図の精度を高くする。 SLAM (Simultaneous Localization and Mapping) is a technology for estimating the state (location information, etc.) of unmanned vehicles. When estimating the self-position, SLAM estimates the self-position of an unmanned vehicle by comparing the surrounding environment map (initial map) acquired in advance with the surrounding environment acquired by the sensor. Since the map changes over time, if the initial map is not updated in some way, it will lead to deterioration of self-position estimation accuracy or loss of self-position estimation. For example, in the interlocking system of an automatic guided vehicle and an inventory management system disclosed in Patent Document 1, the map management unit updates the environmental map used by the automatic guided vehicle in real time based on the storage/output information of the inventory management system. Improve the accuracy of environmental maps.

特開2015-172878号公報Japanese Patent Application Publication No. 2015-172878

ところで、在庫管理システムの入出庫情報に基づき、無人搬送車が使用する環境地図をリアルタイムに更新する場合においては、在庫管理システムが必要である。また、周囲環境に特徴のある既設構造物等がなければ、そもそもSLAMを使用できず、環境地図と、環境センサで取得した周囲環境とを比較する際(マッチングの際)において環境地図情報として周囲の環境情報を多く持っていた方がよい。 By the way, an inventory management system is required in the case where an environmental map used by an automatic guided vehicle is updated in real time based on the input/output information of the inventory management system. In addition, if there are no existing structures with characteristics in the surrounding environment, SLAM cannot be used in the first place, and when comparing the environmental map with the surrounding environment acquired by an environmental sensor (during matching), the surrounding environment is used as environmental map information. It is better to have as much environmental information as possible.

本発明の目的は、既設構造物の少ない環境でも自己位置推定を行うことができる無人車両を提供することにある。 An object of the present invention is to provide an unmanned vehicle that can estimate its own position even in an environment with few existing structures.

上記課題を解決するための無人車両は、車体と、前記車体に設けられ、前記車体の周囲に存在する物体を検出する環境センサと、地理的位置情報が紐付けされ、仮設構造物が除かれた周囲の環境を示す初期地図を記憶する記憶部と、無人車両の現在位置における前記環境センサで取得した既設構造物及び仮設構造物を含む第1センサ地図から、無人車両の現在位置における前記初期地図での既設構造物に対応する既設構造物を削除して仮設構造物を含む第2センサ地図を生成する削除部と、無人車両の現在位置における前記初期地図と前記第2センサ地図とを合成して、既設構造物及び仮設構造物を含む合成地図を作成する合成部と、地理的位置情報が紐付けされた前記合成地図と、前記環境センサで取得した周囲環境とを比較することで無人車両の自己位置を推定する自己位置推定部と、を備えることを要旨とする。 An unmanned vehicle for solving the above problems has a vehicle body, an environmental sensor installed on the vehicle body that detects objects existing around the vehicle body, and geographical location information is linked, and temporary structures are removed. a first sensor map that includes existing structures and temporary structures acquired by the environmental sensor at the current position of the unmanned vehicle; a deletion unit that deletes an existing structure corresponding to the existing structure on the map to generate a second sensor map including the temporary structure, and synthesizes the initial map and the second sensor map at the current position of the unmanned vehicle. A compositing unit that creates a composite map including existing structures and temporary structures, and a composite map linked with geographical location information, are compared with the surrounding environment acquired by the environmental sensor. The gist of the present invention is to include a self-position estimating section that estimates the self-position of the vehicle.

これによれば、削除部において、無人車両の現在位置における環境センサで取得した既設構造物及び仮設構造物を含む第1センサ地図から、無人車両の現在位置における初期地図での既設構造物に対応する既設構造物が削除されて仮設構造物を含む第2センサ地図が生成される。合成部において、無人車両の現在位置における初期地図と第2センサ地図とが合成されて、既設構造物及び仮設構造物を含む合成地図が作成される。そして、自己位置推定部において、地理的位置情報が紐付けされた合成地図と、環境センサで取得した周囲環境とを比較することで無人車両の自己位置が推定される。 According to this, in the deletion section, the existing structures in the initial map at the current position of the unmanned vehicle are matched from the first sensor map including the existing structures and temporary structures acquired by the environmental sensor at the current position of the unmanned vehicle. The existing structures are deleted and a second sensor map including the temporary structures is generated. In the synthesis section, the initial map at the current position of the unmanned vehicle and the second sensor map are synthesized to create a composite map including existing structures and temporary structures. Then, in the self-position estimating section, the self-position of the unmanned vehicle is estimated by comparing the composite map linked with the geographical position information and the surrounding environment acquired by the environmental sensor.

よって、周囲環境の中の仮設構造物及び既設構造物を含む合成地図と、環境センサで取得した周囲環境との比較により無人車両の自己位置を推定するため、既設構造物の少ない環境でも自己位置推定を行うことができる。 Therefore, since the self-position of an unmanned vehicle is estimated by comparing a composite map that includes temporary structures and existing structures in the surrounding environment with the surrounding environment acquired by an environmental sensor, the self-position can be estimated even in an environment with few existing structures. Estimates can be made.

また、無人車両において、前記合成部は、一定距離走行毎または一定時間経過毎に、前記合成地図を作成するとよい。
また、無人車両において、前記合成部は、前記合成地図における前記仮設構造物に対し保存期間の情報を追加し、保存期間の過ぎた時点で前記合成地図から削除するとよい。
Further, in the unmanned vehicle, the synthesis unit may create the composite map every time the vehicle travels a certain distance or every time a certain period of time passes.
Further, in the unmanned vehicle, it is preferable that the synthesis unit adds storage period information to the temporary structure in the synthetic map, and deletes the temporary structure from the synthetic map when the storage period has expired.

本発明によれば、既設構造物の少ない環境でも自己位置推定を行うことができる。 According to the present invention, self-position estimation can be performed even in an environment with few existing structures.

実施形態における無人フォークリフトの側面図。FIG. 1 is a side view of an unmanned forklift in an embodiment. 無人フォークリフトの電気的構成を示すブロック図。FIG. 2 is a block diagram showing the electrical configuration of an unmanned forklift. 無人フォークリフトのレーザセンサによる物体検出を説明するための平面図。FIG. 3 is a plan view for explaining object detection by a laser sensor of an unmanned forklift. 作用を説明するためのデータ処理の説明図。An explanatory diagram of data processing for explaining the effect. 作用を説明するためのフローチャート。Flowchart for explaining the action.

以下、本発明を具体化した一実施形態を図面に従って説明する。
図1に示すように、無人車両としての無人フォークリフト10は、車体11と、車体11の前下部に配置された駆動輪12と、車体11の後下部に配置された操舵輪13と、を備える。無人フォークリフト10は、車体11の前方に、荷役装置14を備える。荷役装置14は、車体11の前部に立設されたマスト15と、マスト15に装着されたリフトブラケット16と、リフトブラケット16に固定された一対のフォーク17と、を備える。フォーク17には、荷が積載される。図示は省略するが、荷はパレットに搭載された状態でフォーク17に積載される。本実施形態において、荷役装置14の前方と車体11の前方とは一致している。荷役装置14の前方とは、フォーク17の延びる方向である。荷役装置14は、マスト15を昇降動作させるリフトシリンダ18を備える。荷役装置14は、マスト15を傾動させるティルトシリンダ19を備える。リフトシリンダ18及びティルトシリンダ19は油圧シリンダである。
An embodiment embodying the present invention will be described below with reference to the drawings.
As shown in FIG. 1, an unmanned forklift 10 as an unmanned vehicle includes a vehicle body 11, a driving wheel 12 disposed at the front lower part of the vehicle body 11, and a steering wheel 13 disposed at the rear lower part of the vehicle body 11. . The unmanned forklift 10 includes a cargo handling device 14 in front of a vehicle body 11. The cargo handling device 14 includes a mast 15 erected at the front of the vehicle body 11, a lift bracket 16 attached to the mast 15, and a pair of forks 17 fixed to the lift bracket 16. A load is loaded onto the fork 17. Although not shown, the load is loaded onto the fork 17 while being mounted on a pallet. In this embodiment, the front of the cargo handling device 14 and the front of the vehicle body 11 are aligned. The front of the cargo handling device 14 is the direction in which the fork 17 extends. The cargo handling device 14 includes a lift cylinder 18 that moves the mast 15 up and down. The cargo handling device 14 includes a tilt cylinder 19 that tilts the mast 15. Lift cylinder 18 and tilt cylinder 19 are hydraulic cylinders.

図2に示すように、無人フォークリフト10は、駆動機構21と、油圧機構22と、制御装置23と、環境センサとしてのレーザセンサ40と、を備える。駆動機構21は、無人フォークリフト10を走行動作させるための部材であり、駆動輪12を駆動させるための走行用モータや、操舵輪13を操舵させるための操舵機構を含む。油圧機構22は、リフトシリンダ18及びティルトシリンダ19への作動油の給排を制御するための部材であり、ポンプを駆動させるための荷役モータや、コントロールバルブを含む。 As shown in FIG. 2, the unmanned forklift 10 includes a drive mechanism 21, a hydraulic mechanism 22, a control device 23, and a laser sensor 40 as an environmental sensor. The drive mechanism 21 is a member for running the unmanned forklift 10, and includes a running motor for driving the drive wheels 12 and a steering mechanism for steering the steering wheels 13. The hydraulic mechanism 22 is a member for controlling supply and discharge of hydraulic oil to the lift cylinder 18 and the tilt cylinder 19, and includes a cargo handling motor for driving a pump and a control valve.

制御装置23は、処理部24及び記憶部25を備える。処理部24は、変換部26と、自己位置推定部27と、削除部28と、合成部29を備える。自己位置推定部27は、マッチング部30を備える。 The control device 23 includes a processing section 24 and a storage section 25. The processing unit 24 includes a conversion unit 26 , a self-position estimation unit 27 , a deletion unit 28 , and a synthesis unit 29 . The self-position estimating section 27 includes a matching section 30.

記憶部25には、無人フォークリフト10を制御するための種々のプログラムが記憶されている。制御装置23は、各種処理のうち少なくとも一部の処理を実行する専用のハードウェア、例えば、特定用途向け集積回路:ASICを備えていてもよい。制御装置23は、コンピュータプログラムに従って動作する1つ以上のプロセッサ、ASIC等の1つ以上の専用のハードウェア回路、あるいは、それらの組み合わせを含む回路として構成し得る。プロセッサは、CPU、並びに、RAM及びROM等のメモリを含む。メモリは、処理をCPUに実行させるように構成されたプログラムコードまたは指令を格納している。メモリ、即ち、コンピュータ可読媒体は、汎用または専用のコンピュータでアクセスできるあらゆるものを含む。 The storage unit 25 stores various programs for controlling the unmanned forklift 10. The control device 23 may include dedicated hardware that executes at least some of the various processes, such as an application-specific integrated circuit (ASIC). The control device 23 may be configured as a circuit including one or more processors operating according to a computer program, one or more dedicated hardware circuits such as an ASIC, or a combination thereof. The processor includes a CPU and memory such as RAM and ROM. The memory stores program codes or instructions configured to cause the CPU to perform processes. Memory, or computer readable media, includes anything that can be accessed by a general purpose or special purpose computer.

制御装置23は、駆動機構21及び油圧機構22を制御することで、無人フォークリフト10を動作させる。本実施形態の無人フォークリフト10は、搭乗者による操作が行われることなく、制御装置23による制御によって自動で走行、操舵、荷役の動作を行うフォークリフトである。 The control device 23 operates the unmanned forklift 10 by controlling the drive mechanism 21 and the hydraulic mechanism 22. The unmanned forklift 10 of this embodiment is a forklift that automatically travels, steers, and handles cargo under the control of the control device 23 without being operated by a passenger.

無人フォークリフト10は、工場、物流センタ、空港、港湾などの荷を搬送する必要のある作業場で使用される。
図1に示すように、レーザセンサ40は、車体11における運転席を区画するヘッドガード20の後端に車体後方を向くように配置されている。レーザセンサ40は、車体11のどのような位置に配置されていてもよい。
The unmanned forklift 10 is used in factories, distribution centers, airports, ports, and other workplaces where it is necessary to transport loads.
As shown in FIG. 1, the laser sensor 40 is disposed at the rear end of a head guard 20 that partitions a driver's seat in the vehicle body 11 so as to face toward the rear of the vehicle body. The laser sensor 40 may be placed at any position on the vehicle body 11.

図3に示すように、車体11に設けられるレーザセンサ40は、車体11の周囲に存在する物体Obj1を検出するためのものであり、レーザを周辺に照射し、レーザが当たった物体Obj1から反射された反射光を受信することで周辺環境を認識可能なレーザレンジファインダである。本実施形態のレーザセンサ40としては、水平方向の照射角度を変更しながらレーザを照射する二次元のレーザレンジファインダが用いられ、記憶部25に記憶される周囲の環境地図である初期地図及び合成地図は二次元のレーザレンジファインダで事前に取得した点群(X,Yで表される点の集まり)である。 As shown in FIG. 3, the laser sensor 40 provided on the vehicle body 11 is for detecting an object Obj1 existing around the vehicle body 11, and irradiates the surrounding area with a laser and reflects from the object Obj1 that is hit by the laser. This is a laser range finder that can recognize the surrounding environment by receiving reflected light. As the laser sensor 40 of this embodiment, a two-dimensional laser range finder that emits laser while changing the irradiation angle in the horizontal direction is used. The map is a point group (a collection of points represented by X and Y) obtained in advance with a two-dimensional laser range finder.

なお、周囲環境を取得する環境センサとして、二次元のレーザセンサに代わり、三次元レーザセンサ、例えば、3DLiDARを使用してもよく、周囲の環境地図である初期地図及び合成地図は3DLiDAR等で事前に取得した点群(X,Y,Zで表される点の集まり)であってもよい。つまり、水平方向に加えて鉛直方向への照射角度を変更する三次元のレーザレンジファインダを用いてもよい。 Note that as an environmental sensor for acquiring the surrounding environment, a three-dimensional laser sensor, for example, 3DLiDAR, may be used instead of a two-dimensional laser sensor, and the initial map and composite map, which are surrounding environment maps, are prepared in advance using 3DLiDAR, etc. It may be a point group (a collection of points represented by X, Y, and Z) acquired in the above. That is, a three-dimensional laser range finder that changes the irradiation angle in the vertical direction as well as the horizontal direction may be used.

レーザセンサ40のレーザの照射範囲は、例えば、無人フォークリフト10の後方に延びる軸Bを中心とした範囲である。レーザセンサ40は、無人フォークリフト10の後方にレーザを照射するように配置されている。以下の説明において、軸Bの延びる方向をY方向、水平方向のうち軸Bに直交する方向をX方向として説明を行う。 The laser irradiation range of the laser sensor 40 is, for example, a range centered on the axis B extending rearward of the unmanned forklift 10. The laser sensor 40 is arranged to irradiate a laser beam to the rear of the unmanned forklift 10. In the following description, the direction in which the axis B extends is assumed to be the Y direction, and the direction perpendicular to the axis B in the horizontal direction is assumed to be the X direction.

レーザセンサ40は、物体Obj1までの距離を測定する。レーザセンサ40は、物体Obj1までの距離を、照射する角度に対応付けて制御装置23に出力する。レーザセンサ40の測定結果は、無人フォークリフト10に対する物体Obj1の相対座標を示しているともいえる。制御装置23は、レーザセンサ40の測定結果から無人フォークリフト10に対する物体Obj1の相対角度θ1,θ2と、無人フォークリフト10に対する物体Obj1の相対距離とを検出する。無人フォークリフト10に対する物体Obj1の相対角度とは、無人フォークリフト10が直進している状態、即ち、無人フォークリフト10の舵角が0の状態での後進方向である軸Bと物体Obj1とでなす角度である。無人フォークリフト10に対する物体Obj1の相対距離とは、無人フォークリフト10から物体Obj1までの距離である。 Laser sensor 40 measures the distance to object Obj1. The laser sensor 40 outputs the distance to the object Obj1 to the control device 23 in association with the irradiation angle. It can be said that the measurement result of the laser sensor 40 indicates the relative coordinates of the object Obj1 with respect to the unmanned forklift 10. The control device 23 detects the relative angles θ1 and θ2 of the object Obj1 with respect to the unmanned forklift 10 and the relative distance of the object Obj1 with respect to the unmanned forklift 10 from the measurement results of the laser sensor 40. The relative angle of the object Obj1 with respect to the unmanned forklift 10 is the angle formed by the object Obj1 and the axis B which is the backward movement direction when the unmanned forklift 10 is moving straight, that is, the steering angle of the unmanned forklift 10 is 0. be. The relative distance of the object Obj1 to the unmanned forklift 10 is the distance from the unmanned forklift 10 to the object Obj1.

図2に示すように、制御装置23の記憶部25には、周囲の環境地図である初期地図IM及び合成地図CMが記憶(登録)される。初期地図IMと合成地図CMとは、いずれも、地理的位置情報が紐付けされた状態で記憶(登録)される。地理的位置情報とは、位置の座標を示す情報である。周囲の環境地図である初期地図IM及び合成地図CMは、無人フォークリフト10の用いられる環境の形状、広さなど、無人フォークリフト10の周辺環境の物理的構造に関する情報である。位置の座標は、地図内に設定されている。 As shown in FIG. 2, the storage unit 25 of the control device 23 stores (registers) an initial map IM and a composite map CM, which are surrounding environment maps. Both the initial map IM and the composite map CM are stored (registered) with geographical position information linked to them. Geographical location information is information indicating the coordinates of a location. The initial map IM and composite map CM, which are surrounding environment maps, are information regarding the physical structure of the environment around the unmanned forklift 10, such as the shape and size of the environment in which the unmanned forklift 10 is used. The coordinates of the location are set within the map.

初期地図IMは、前処理として、オペレータが画像を見て手作業により、図4の地図データMD1に対し図4の地図データMD2で示すように、事前に取得した点群データから仮設構造物TS1を除去したものである。詳しくは、図4の地図データMD1においては、無人フォークリフト10の後方の直交する2軸座標系(XY座標系)で表される地図上において、既設構造物ES1と仮設構造物TS1を含んでいる。地図データMD1に対し前処理として仮設構造物TS1が除去される。これにより図4の地図データMD2においては、無人フォークリフト10の後方の直交する2軸座標系(XY座標系)で表される初期地図IM上において、仮設構造物TS1は除かれ、既設構造物ES1を含んでいることになる。 In the initial map IM, as a preprocessing, an operator looks at the image and manually creates a temporary structure TS1 from point cloud data acquired in advance, as shown in map data MD1 in FIG. 4 and map data MD2 in FIG. is removed. Specifically, the map data MD1 in FIG. 4 includes an existing structure ES1 and a temporary structure TS1 on a map expressed in an orthogonal two-axis coordinate system (XY coordinate system) behind the unmanned forklift 10. . Temporary structure TS1 is removed from map data MD1 as a preprocess. As a result, in the map data MD2 of FIG. 4, the temporary structure TS1 is excluded and the existing structure ES1 is It will contain.

このようにして、記憶部25の初期地図IMは、地理的位置情報が紐付けされ、仮設構造物TS1が除かれた周囲の環境を示すものである。レーザセンサ40で取得した周囲環境から記憶部25の初期地図IMが作成される。 In this way, the initial map IM in the storage unit 25 is associated with geographical position information and shows the surrounding environment with the temporary structure TS1 removed. An initial map IM in the storage unit 25 is created from the surrounding environment acquired by the laser sensor 40.

周囲の環境地図である初期地図IMは、無人フォークリフト10が用いられる周辺環境を予め把握できていれば、予め記憶部25に記憶されていてもよい。環境地図である初期地図IMを予め記憶部25に記憶する場合、建築物の壁、柱などの既設構造物の座標を環境地図として記憶する。周囲の環境地図である初期地図IM及び合成地図CMは、SLAM(Simultaneous Localization and Mapping)によるマッピングにより作成される。SLAMは、移動体の自己位置推定と環境地図作成を同時に行うものであり、移動体が未知の環境下で環境地図を作成できる。構築した地図情報を使って障害物などを回避しつつ特定のタスクを遂行する。 The initial map IM, which is a map of the surrounding environment, may be stored in the storage unit 25 in advance if the surrounding environment in which the unmanned forklift 10 is used can be grasped in advance. When storing the initial map IM, which is an environmental map, in the storage unit 25 in advance, the coordinates of existing structures such as walls and pillars of buildings are stored as the environmental map. The initial map IM and composite map CM, which are surrounding environment maps, are created by mapping using SLAM (Simultaneous Localization and Mapping). SLAM simultaneously estimates the self-position of a mobile object and creates an environmental map, and allows the mobile object to create an environmental map in an unknown environment. It uses the map information it has built to perform specific tasks while avoiding obstacles.

制御装置23は、周囲の環境地図である初期地図IM及び合成地図CM上での無人フォークリフト10の位置を推定する自己位置推定を行いながら駆動機構21を制御することで、所望の位置に無人フォークリフト10を移動させることが可能である。自己位置とは、車体11の一点を示す座標であり、例えば、車体11の水平方向の中央の座標である。 The control device 23 moves the unmanned forklift 10 to a desired position by controlling the drive mechanism 21 while performing self-position estimation to estimate the position of the unmanned forklift 10 on the initial map IM and composite map CM, which are surrounding environment maps. It is possible to move 10. The self-position is the coordinates indicating one point on the vehicle body 11, for example, the coordinates of the center of the vehicle body 11 in the horizontal direction.

周辺環境には既設構造物と仮設構造物があり、既設構造物は未来永劫変化しないもの(建物等)であり、仮設構造物は変化するもの(車両、荷物等)である。仮設構造物は例えばパレットであり、例えば、コンテナトラックによって所定の位置に配置される。 There are existing structures and temporary structures in the surrounding environment. Existing structures are things that will not change forever (buildings, etc.), and temporary structures are things that will change (vehicles, luggage, etc.). The temporary structure is, for example, a pallet, which is placed into position by, for example, a container truck.

図4に示すように、記憶部25に、既設構造物ES1及び仮設構造物TS1を含む合成地図CMが記憶される。図2の自己位置推定部27は、記憶部25に記憶される既設構造物ES1及び仮設構造物TS10を含む合成地図CMと、レーザセンサ40で取得した周囲環境とを比較することで無人フォークリフト10の自己位置を推定することができるようになっている。 As shown in FIG. 4, the storage unit 25 stores a composite map CM including the existing structure ES1 and the temporary structure TS1. The self-position estimating unit 27 in FIG. It is now possible to estimate the self-location of

次に、作用について説明する。
図5には、処理部24が実行する処理を示し、図4を用いて処理部24において実行する処理を説明する。
Next, the effect will be explained.
FIG. 5 shows the processing executed by the processing unit 24, and the processing executed in the processing unit 24 will be explained using FIG.

図4において、無人フォークリフト10の現在位置において符号MD2に示す初期地図が記憶部25に環境地図として記憶されているものとする。また、図4において、無人フォークリフト10の現在位置において符号SM1に示すレーザセンサ40によるセンサ地図、即ち、スキャンデータ(地図座標系)を得たものとする。 In FIG. 4, it is assumed that an initial map indicated by code MD2 at the current position of the unmanned forklift 10 is stored in the storage unit 25 as an environmental map. Further, in FIG. 4, it is assumed that a sensor map, that is, scan data (map coordinate system) is obtained by the laser sensor 40 indicated by symbol SM1 at the current position of the unmanned forklift 10.

図5の処理は一定周期で起動され、ステップS10→ステップS11→ステップS12→ステップS13→ステップS14の処理が実行される。
図2の変換部26は、図5のステップS10において、レーザセンサ40を用いて周囲環境データ(スキャンデータ)を取得してスキャンデータ(センサ座標系)を一時的に記憶する。
The process in FIG. 5 is activated at regular intervals, and the process of step S10→step S11→step S12→step S13→step S14 is executed.
In step S10 of FIG. 5, the conversion unit 26 in FIG. 2 acquires surrounding environment data (scan data) using the laser sensor 40 and temporarily stores the scan data (sensor coordinate system).

図2の変換部26は、図5のステップS11において、スキャンデータ(センサ座標系)を、現在座標(現在位置)を用いて地図座標系に変換してスキャンデータを地図座標系として一時的に記憶する。このスキャンデータ(地図座標系)を、図4において第1センサ地図SM1で表す。この図4の第1センサ地図SM1においては、無人フォークリフト10の後方の直交する2軸座標系(XY座標系)において、既設構造物ES10と仮設構造物TS10を有する。 In step S11 of FIG. 5, the conversion unit 26 in FIG. 2 converts the scan data (sensor coordinate system) into a map coordinate system using the current coordinates (current position) and temporarily converts the scan data into the map coordinate system. Remember. This scan data (map coordinate system) is represented by the first sensor map SM1 in FIG. The first sensor map SM1 in FIG. 4 includes an existing structure ES10 and a temporary structure TS10 in a two-axis coordinate system (XY coordinate system) orthogonal to each other behind the unmanned forklift 10.

このように、図2の変換部26は、環境センサとしてのレーザセンサ40で取得した既設構造物ES10及び仮設構造物TS10を含む周囲環境データAd1(図4参照)を地図座標系に変換して既設構造物ES10及び仮設構造物TS10を含む第1センサ地図SM1を生成する。 In this way, the conversion unit 26 in FIG. 2 converts the surrounding environment data Ad1 (see FIG. 4) including the existing structure ES10 and the temporary structure TS10 acquired by the laser sensor 40 as an environment sensor into the map coordinate system. A first sensor map SM1 including the existing structure ES10 and the temporary structure TS10 is generated.

図2の削除部28は、図5のステップS12において、得られた初期地図(仮設構造物が除かれた地図)IMを用いて、既設構造物に照射されたスキャンデータを削除してスキャンデータを地図座標系として一時的に記憶する。つまり、無人フォークリフト10の現在位置におけるレーザセンサ40で取得した既設構造物ES10及び仮設構造物TS10を含む第1センサ地図SM1から、無人フォークリフト10の現在位置における初期地図IMでの既設構造物ES1に対応する既設構造物ES10を削除して仮設構造物TS10を含む第2センサ地図SM2を生成する。即ち、第1センサ地図SM1と初期地図IMを比較して第1センサ地図SM1と初期地図IMの両方に共通してある物体を既設構造物として第1センサ地図SM1から削除する。 The deletion unit 28 in FIG. 2 deletes the scan data irradiated on the existing structure using the obtained initial map (map from which temporary structures have been removed) IM in step S12 in FIG. is temporarily stored as a map coordinate system. That is, from the first sensor map SM1 including the existing structures ES10 and temporary structures TS10 acquired by the laser sensor 40 at the current position of the unmanned forklift 10, to the existing structures ES1 in the initial map IM at the current position of the unmanned forklift 10. A second sensor map SM2 including the temporary structure TS10 is generated by deleting the corresponding existing structure ES10. That is, the first sensor map SM1 and the initial map IM are compared, and an object that is common to both the first sensor map SM1 and the initial map IM is deleted from the first sensor map SM1 as an existing structure.

既設構造物に照射されたスキャンデータを削除してスキャンデータを地図座標系として一時的に記憶するとき、初期地図IMでの既設構造物ES1との距離の差が0.5m以下のスキャンデータの点は既設構造物に照射された点としてスキャンデータから削除する。つまり、削除部28は、物体Obj1との距離の差が閾値以下のレーザセンサ40による検出点は既設構造物に照射された点として削除する。これは、現在位置(現在座標)を使ってスキャンデータを地図座標系に変換しているので、この時点で誤差を含んでおり、不必要なデータを登録しないようにするためであり、自己位置推定精度悪化を防ぐためである。 When deleting scan data irradiated to an existing structure and temporarily storing the scan data as a map coordinate system, scan data whose distance difference from the existing structure ES1 in the initial map IM is 0.5 m or less is deleted. The points are deleted from the scan data as points that were irradiated onto the existing structure. That is, the deletion unit 28 deletes a point detected by the laser sensor 40 whose distance difference from the object Obj1 is equal to or less than a threshold value as a point irradiated onto an existing structure. This is because the scan data is converted to the map coordinate system using the current position (current coordinates), so it contains errors at this point, and this is to prevent unnecessary data from being registered. This is to prevent deterioration of estimation accuracy.

削除後のスキャンデータ(地図座標系)を、図4において第2センサ地図SM2で表す。この図4の第2センサ地図SM2においては、無人フォークリフト10の後方の直交する2軸座標系(XY座標系)において、既設構造物ES10が削除されて仮設構造物TS10を有する。 The scan data (map coordinate system) after deletion is represented by the second sensor map SM2 in FIG. In the second sensor map SM2 of FIG. 4, in the orthogonal two-axis coordinate system (XY coordinate system) behind the unmanned forklift 10, the existing structure ES10 is deleted and a temporary structure TS10 is included.

図2の合成部29は、図5のステップS13において、初期地図(仮設構造物が除かれた地図)IMと、地図座標系に変換したスキャンデータを合成して合成地図CMを記憶する。つまり、無人フォークリフト10の現在位置における初期地図IMと第2センサ地図SM2とを合成して合成地図CMを作成する。これを、地理的位置情報を紐付けて記憶部25に登録する。図4を用いて説明すると、初期地図IMと第2センサ地図SM2とを合成処理することにより、無人フォークリフト10の後方の直交する2軸座標系(XY座標系)において、既設構造物ES1及び仮設構造物TS10を含む合成地図CMを得る。 In step S13 of FIG. 5, the synthesizing unit 29 in FIG. 2 synthesizes the initial map (map from which temporary structures have been removed) IM and the scan data converted into the map coordinate system, and stores the synthesized map CM. That is, the initial map IM at the current position of the unmanned forklift 10 and the second sensor map SM2 are combined to create a composite map CM. This is registered in the storage unit 25 in association with geographical position information. To explain using FIG. 4, by combining the initial map IM and the second sensor map SM2, existing structures ES1 and temporary A composite map CM including the structure TS10 is obtained.

このとき、合成部29は、レーザセンサ40でデータを取得する毎に合成地図CMを作成する。
図2の自己位置推定部27のマッチング部30は、図5のステップS14において、ステップS11でのスキャンデータ(地図座標系)と、地理的位置情報が紐付けされた合成地図CMとのマッチング(例えばNDTマッチング)により現在座標(自己位置)を推定する。つまり、地理的位置情報が紐付けされた合成地図CMと、レーザセンサ40で取得した周囲環境とを比較することで無人フォークリフト10の自己位置を推定する。
At this time, the synthesis unit 29 creates a composite map CM every time the laser sensor 40 acquires data.
In step S14 in FIG. 5, the matching unit 30 of the self-position estimating unit 27 in FIG. 2 performs matching ( For example, the current coordinates (self-position) are estimated by NDT matching). That is, the self-position of the unmanned forklift 10 is estimated by comparing the synthetic map CM with which geographical position information is linked and the surrounding environment acquired by the laser sensor 40.

図4の地図データMD1とスキャンデータ(第1センサ地図SM1)を比較すると一致しないので自己位置推定ができないが、本実施形態では、地図データMD2に、現在の仮設構造物の情報を加えて登録することにより、スキャンデータと環境地図が一致しやすくなり、ロストを防止できるとともに精度が上がる。 When the map data MD1 in FIG. 4 and the scan data (first sensor map SM1) are compared, they do not match, so self-position estimation cannot be performed. However, in this embodiment, information on the current temporary structure is added to the map data MD2 and registered. This makes it easier to match the scan data with the environmental map, preventing data loss and increasing accuracy.

つまり、従来、在庫管理システムの入出庫情報に基づき、無人搬送車が使用する環境地図をリアルタイムに更新する場合においては、在庫管理システムが必要である。また、周囲環境に特徴のある既設構造物等がなければ、そもそもSLAMを使用できない。さらに、環境地図と、環境センサで取得した周囲環境とを比較する際において(マッチングの際において)環境地図情報として周囲の環境情報を多く持っていた方がよい。さらに、自己位置を推定するためには周辺に構造物があった方がよく、一時的に存在する構造物があると背景の地図情報が現在位置から見えなくなり、環境地図と、環境センサで取得した周囲環境とを比較する際に(マッチングの際に)見えているもののみで自己位置推定を行うこととなり、ロストを招いたり自己位置推定精度が悪化してしまう。 That is, conventionally, an inventory management system is required when an environmental map used by an automatic guided vehicle is updated in real time based on input/output information from an inventory management system. Furthermore, if there are no existing structures with characteristics in the surrounding environment, SLAM cannot be used in the first place. Furthermore, when comparing the environmental map and the surrounding environment acquired by the environmental sensor (during matching), it is better to have as much surrounding environment information as the environment map information. Furthermore, in order to estimate one's own position, it is better to have structures nearby, and if there are structures that temporarily exist, the background map information will become invisible from the current position, and the information will be acquired using an environmental map and an environmental sensor. When comparing the surrounding environment, self-position estimation is performed using only what is visible (during matching), leading to loss of self-position and deterioration of self-position estimation accuracy.

本実施形態では、周囲環境の中の仮設構造物を用いて、環境センサで取得した周囲環境と、合成部で合成した地図との比較により無人車両の自己位置を推定するため、既設構造物が少ない環境でも、周囲環境と、合成部で合成した地図とを一致させやすくなり、ロストしにくくなるとともに精度が上がる。また、現時点におけるスキャンデータにあった仮設構造物を用いて自己位置推定を行うことにより、周囲の環境変化の大きい環境でも、周囲環境と、合成部で合成した地図とを一致させやすくなり、ロストしにくくなるとともに精度が上がる。このようにして、既設構造物が少ない環境でも周囲の環境変化の大きい環境でも自己位置推定が可能となる。 In this embodiment, the self-position of an unmanned vehicle is estimated using temporary structures in the surrounding environment by comparing the surrounding environment acquired by an environmental sensor and a map synthesized by a synthesis section. Even in a small environment, it becomes easier to match the surrounding environment with the map synthesized by the compositing section, making it less likely to be lost and increasing accuracy. In addition, by estimating the self-position using temporary structures that match the current scan data, even in environments with large changes in the surrounding environment, it becomes easier to match the surrounding environment with the map synthesized by the compositing section, making it possible to eliminate lost data. The accuracy increases as it becomes more difficult to do so. In this way, self-position estimation becomes possible even in environments with few existing structures and environments with large changes in the surrounding environment.

具体的には、以下のような状況下で使用される。
繁忙期の物流センタでは荷やトラックの出入りが多い(周囲環境が大きく変化する)。空港やコンテナヤードでは既設構造物が少なく、仮設構造物(例えばコンテナ)が多い。よって、特に、既設構造物が少なく、かつ、周囲環境が大きく変化する状況が存在し得る。
Specifically, it is used under the following circumstances.
During the busy season, there are many cargoes and trucks coming in and out of a distribution center (the surrounding environment changes significantly). At airports and container yards, there are few existing structures and many temporary structures (for example, containers). Therefore, in particular, there may be a situation where there are few existing structures and the surrounding environment changes significantly.

このような環境下においても、本実施形態では、周囲環境変化の大きい環境や既設構造物の少ない環境でも自己位置推定ができないロストが発生しにくくなる。
上記実施形態によれば、以下のような効果を得ることができる。
Even under such an environment, in this embodiment, it is difficult to cause a loss in which the self-position cannot be estimated, even in an environment with large changes in the surrounding environment or in an environment with few existing structures.
According to the above embodiment, the following effects can be obtained.

無人車両としての無人フォークリフト10の構成として、車体11と、車体11に設けられ、車体11の周囲に存在する物体Obj1を検出する環境センサとしてのレーザセンサ40と、地理的位置情報が紐付けされ、仮設構造物TS1が除かれた周囲の環境を示す初期地図IMを記憶する記憶部25と、無人フォークリフト10の現在位置におけるレーザセンサ40で取得した既設構造物ES10及び仮設構造物TS10を含む第1センサ地図SM1から、無人フォークリフト10の現在位置における初期地図IMでの既設構造物ES1に対応する既設構造物ES10を削除して仮設構造物TS10を含む第2センサ地図SM2を生成する削除部28と、無人フォークリフト10の現在位置における初期地図IMと第2センサ地図SM2とを合成して、既設構造物ES1及び仮設構造物TS10を含む合成地図CMを作成する合成部29と、地理的位置情報が紐付けされた合成地図CMと、レーザセンサ40で取得した周囲環境とを比較することで無人フォークリフト10の自己位置を推定する自己位置推定部27と、を備える。 The configuration of the unmanned forklift 10 as an unmanned vehicle is such that a vehicle body 11, a laser sensor 40 as an environmental sensor that is provided on the vehicle body 11 and detects an object Obj1 existing around the vehicle body 11, and geographical position information are linked. , a storage unit 25 that stores an initial map IM showing the surrounding environment from which the temporary structure TS1 has been removed; A deletion unit 28 that deletes the existing structure ES10 corresponding to the existing structure ES1 in the initial map IM at the current position of the unmanned forklift 10 from the one-sensor map SM1 to generate a second sensor map SM2 including the temporary structure TS10. , a synthesis unit 29 that synthesizes the initial map IM at the current position of the unmanned forklift 10 and the second sensor map SM2 to create a composite map CM including the existing structure ES1 and the temporary structure TS10, and geographic position information. The self-position estimating unit 27 estimates the self-position of the unmanned forklift 10 by comparing the synthetic map CM with which the unmanned forklift 10 is linked and the surrounding environment acquired by the laser sensor 40.

よって、周囲環境の中の仮設構造物及び既設構造物を含む合成地図CMと、環境センサとしてのレーザセンサ40で取得した周囲環境との比較により無人フォークリフト10の自己位置を推定するため、既設構造物の少ない環境でも自己位置推定を行うことができる。また、無人フォークリフト10の現在位置におけるレーザセンサ40による既設構造物及び仮設構造物をマッチングに用いるので、周囲環境変化の大きい環境でも自己位置推定を行うことができる。 Therefore, in order to estimate the self-position of the unmanned forklift 10 by comparing a composite map CM including temporary structures and existing structures in the surrounding environment with the surrounding environment acquired by the laser sensor 40 as an environment sensor, the existing structure Self-position estimation can be performed even in environments with few objects. Further, since existing structures and temporary structures detected by the laser sensor 40 at the current position of the unmanned forklift 10 are used for matching, self-position estimation can be performed even in an environment with large changes in the surrounding environment.

実施形態は前記に限定されるものではなく、例えば、次のように具体化してもよい。
○上記実施形態では図5に示すようにスキャンデータを取得する毎に合成地図を作成しているが、一定距離走行毎や一定時間経過毎に合成地図を作成してもよい。
The embodiment is not limited to the above, and may be embodied as follows, for example.
In the embodiment described above, a composite map is created every time scan data is acquired as shown in FIG. 5, but a composite map may be created every time a certain distance is traveled or every time a certain time elapses.

現在座標(現在位置)の精度は高くないので仮設構造物もずれて登録してしまい、それを使ってスキャンデータのマッチングをデータ取得毎に行うと地図が徐々にずれることがあるが、一定距離走行毎や一定時間経過毎に合成地図を作成することにより、誤差の蓄積が小さくなる。また、計算処理負荷が小さくなる効果がある。 Since the accuracy of the current coordinates (current position) is not high, temporary structures may also be registered with a difference, and if you use them to match scan data every time data is acquired, the map may gradually shift, but the map may shift over a certain distance. By creating a composite map every time a vehicle travels or after a certain period of time, the accumulation of errors is reduced. Moreover, there is an effect that the calculation processing load is reduced.

このように、合成部29は、一定距離走行毎または一定時間経過毎に、合成地図CMを作成するようにしてもよい。
〇仮設構造物をどれだけの期間保存しておくかについて、例えば、仮設構造物が自動車の場合にはすぐに移動する可能性があるので、できるだけデータに登録したくない。一方で、動かないであろうパレット等は長期間登録しても問題はない。そこで、初期地図に合成した仮設構造物毎に保存期間の情報を追加し、保存期間の過ぎた時点で地図から削除してもよい。保存期間は、信頼性の観点から決定する。具体的には、カメラにより周囲を撮像してディープラーニングによる画像認識処理により自動車等の移動体であること、あるいは、パレット等の静止物体であることを認識して、例えば、自動車であれば短い期間とし、パレットであれば長い期間とする。
In this way, the synthesis unit 29 may create a composite map CM every time the vehicle travels a certain distance or every time a certain period of time passes.
- Regarding how long to store temporary structures, for example, if the temporary structure is a car, there is a possibility that it will be moved soon, so we would like to avoid registering it in the data as much as possible. On the other hand, there is no problem in registering pallets and the like that are unlikely to move for a long period of time. Therefore, storage period information may be added to each temporary structure synthesized on the initial map, and the temporary structure may be deleted from the map when the storage period has expired. The retention period is determined from the viewpoint of reliability. Specifically, a camera captures an image of the surrounding area and uses deep learning to perform image recognition processing to recognize that it is a moving object such as a car or a stationary object such as a pallet. period, and if it is a pallet, it is a long period.

この場合には、自己位置推定精度の向上が図られるとともに、自己位置推定ができないロストを発生しにくくできる。
このように、合成部29は、合成地図CMにおける仮設構造物TS10に対し保存期間の情報を追加し、保存期間の過ぎた時点で合成地図CMから削除するようにすることもできる。
In this case, the accuracy of self-position estimation can be improved, and it is possible to prevent the occurrence of a loss in which the self-position cannot be estimated.
In this way, the synthesizing unit 29 can also add information about the retention period to the temporary structure TS10 in the composite map CM, and delete it from the composite map CM when the retention period has expired.

〇図5のステップS12において、第1センサ地図SM1から初期地図IMでの既設構造物ES1に対応する既設構造物ES10を削除すべく既設構造物に照射されたスキャンデータを削除する際に、静止物体でほとんど動かないものは既設構造物として地図に登録してもよい。つまり、このような静止物体はレーザセンサで検出した当初は仮設構造物としていたが、判定を行ってほとんど動かないことが分かれば合成地図や初期地図においては既設構造物として取り扱って登録してもよい。 〇In step S12 in FIG. 5, when deleting the scan data irradiated to the existing structure in order to delete the existing structure ES10 corresponding to the existing structure ES1 in the initial map IM from the first sensor map SM1, Objects that hardly move may be registered on the map as existing structures. In other words, when a stationary object like this is detected by a laser sensor, it is initially treated as a temporary structure, but if it is determined that it hardly moves, it can be treated as an existing structure and registered in the composite map or initial map. good.

この場合、自己位置推定精度の向上を図ることができるとともに自己位置推定ができないロストを発生しにくくできる。
〇環境センサとして、レーザセンサを用いたが、レーザセンサ以外にも例えばステレオカメラ等でもよい。
In this case, it is possible to improve the accuracy of self-position estimation, and it is possible to prevent the occurrence of a loss in which the self-position cannot be estimated.
A laser sensor was used as the environmental sensor, but other than the laser sensor, for example, a stereo camera or the like may be used.

〇車両はフォークリフトであったが、これに限ることなく、フォークリフト以外の産業車両に適用してもよいし、産業車両以外の車両に適用してもよい。 Although the vehicle was a forklift, the invention is not limited to this, and may be applied to industrial vehicles other than forklifts, or may be applied to vehicles other than industrial vehicles.

10…無人フォークリフト、11…車体、25…記憶部、27…自己位置推定部、28…削除部、29…合成部、40…レーザセンサ、CM…合成地図、ES1…既設構造物、ES10…既設構造物、IM…初期地図、Obj1…物体、SM1…第1センサ地図、SM2…第2センサ地図、TS10…仮設構造物。 10...Unmanned forklift, 11...Vehicle body, 25...Storage unit, 27...Self-position estimation unit, 28...Deletion unit, 29...Composition unit, 40...Laser sensor, CM...Synthesis map, ES1...Existing structure, ES10...Existing installation Structure, IM...Initial map, Obj1...Object, SM1...First sensor map, SM2...Second sensor map, TS10...Temporary structure.

Claims (5)

駆動機構と油圧機構とを備える車体と、
前記駆動機構及び前記油圧機構を制御することで、前記車体を動作させる制御装置と、を有し、
前記制御装置は、
前記車体に設けられ、前記車体の周囲に存在する物体を検出する環境センサと、
地理的位置情報が紐付けされ、仮設構造物が除かれた周囲の環境を示す初期地図を記憶する記憶部と、
無人車両の現在位置における前記環境センサで取得した既設構造物及び仮設構造物を含む第1センサ地図から、無人車両の現在位置における前記初期地図での既設構造物に対応する既設構造物を削除して仮設構造物を含む第2センサ地図を生成する削除部と、
無人車両の現在位置における前記初期地図と前記第2センサ地図とを合成して、既設構造物及び仮設構造物を含む合成地図を作成する合成部と、
地理的位置情報が紐付けされた前記合成地図と、前記環境センサで取得した周囲環境とを比較することで無人車両の自己位置を推定する自己位置推定部と、を備え
前記環境センサは、レーザを周辺に照射し、既設構造物及び仮設構造物を含む物体に当たって反射された反射光の測定結果としての周囲環境データを前記制御装置に出力し、
前記制御装置は、前記環境センサで取得した前記周囲環境データに地理的位置情報を紐付けする変換部をさらに備え、
前記制御装置は、前記自己位置推定部による自己位置の推定の前に前処理を行い、
前記前処理は、前記環境センサで無人車両の現在位置における前記周囲環境データを取得し、取得した前記周囲環境データに前記変換部が地理的位置情報を紐づけすることによって無人車両の周囲に存在する物体が示された地図データを作成するとともに、前記地図データから前記初期地図を作成して記憶部に記憶させることを含むことを特徴とする無人車両。
a vehicle body including a drive mechanism and a hydraulic mechanism ;
a control device that operates the vehicle body by controlling the drive mechanism and the hydraulic mechanism;
The control device includes:
an environmental sensor that is provided on the vehicle body and detects objects existing around the vehicle body;
a storage unit that stores an initial map associated with geographical location information and showing the surrounding environment with temporary structures removed;
Deleting existing structures corresponding to existing structures in the initial map at the current location of the unmanned vehicle from a first sensor map including existing structures and temporary structures acquired by the environmental sensor at the current location of the unmanned vehicle. a deletion unit that generates a second sensor map including the temporary structure;
a synthesis unit that synthesizes the initial map and the second sensor map at the current position of the unmanned vehicle to create a composite map including existing structures and temporary structures;
a self-position estimating unit that estimates the self-position of the unmanned vehicle by comparing the composite map to which geographical position information is linked and the surrounding environment acquired by the environmental sensor ;
The environmental sensor irradiates the surrounding area with a laser and outputs surrounding environment data to the control device as a measurement result of reflected light that hits objects including existing structures and temporary structures, and
The control device further includes a conversion unit that associates geographic position information with the surrounding environment data acquired by the environmental sensor,
The control device performs preprocessing before the self-position estimation unit estimates the self-position,
The preprocessing includes acquiring the surrounding environment data at the current position of the unmanned vehicle with the environmental sensor, and the converting unit associating the acquired surrounding environment data with geographic position information, thereby determining whether the unmanned vehicle exists around the unmanned vehicle. 1. An unmanned vehicle comprising the steps of: creating map data in which an object is shown, and creating the initial map from the map data and storing it in a storage unit .
前記削除部は、前記第1センサ地図と前記初期地図を比較して前記第1センサ地図と前記初期地図の両方に共通してある物体を既設構造物として前記第1センサ地図から削除する、請求項1に記載の無人車両。 The deletion unit compares the first sensor map and the initial map and deletes an object that is common to both the first sensor map and the initial map from the first sensor map as an existing structure. The unmanned vehicle described in item 1. 前記削除部は、前記初期地図にある既設構造物との距離が閾値以下にある点を既設構造物に照射された点として削除する、請求項1または2に記載の無人車両。 The unmanned vehicle according to claim 1 or 2, wherein the deletion unit deletes points on the initial map whose distance from an existing structure is equal to or less than a threshold value as points irradiated onto an existing structure. 前記合成部は、一定距離走行毎または一定時間経過毎に、前記合成地図を作成することを特徴とする請求項1~3のいずれか一項に記載の無人車両。 The unmanned vehicle according to any one of claims 1 to 3, wherein the synthesis unit creates the composite map every time a certain distance is traveled or every time a certain period of time has elapsed. 前記合成部は、前記合成地図における前記仮設構造物に対し保存期間の情報を追加し、保存期間の過ぎた時点で前記合成地図から削除することを特徴とする請求項1~4のいずれか一項に記載の無人車両。 Any one of claims 1 to 4, wherein the synthesis unit adds storage period information to the temporary structure in the synthetic map, and deletes the temporary structure from the synthetic map when the storage period expires. Unmanned vehicles as described in Section .
JP2020116596A 2020-07-06 2020-07-06 unmanned vehicle Active JP7415830B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020116596A JP7415830B2 (en) 2020-07-06 2020-07-06 unmanned vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020116596A JP7415830B2 (en) 2020-07-06 2020-07-06 unmanned vehicle

Publications (2)

Publication Number Publication Date
JP2022014323A JP2022014323A (en) 2022-01-19
JP7415830B2 true JP7415830B2 (en) 2024-01-17

Family

ID=80185326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020116596A Active JP7415830B2 (en) 2020-07-06 2020-07-06 unmanned vehicle

Country Status (1)

Country Link
JP (1) JP7415830B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010061483A (en) 2008-09-05 2010-03-18 Hitachi Ltd Self-traveling moving object and method for setting target position of the same
JP2015171933A (en) 2014-03-12 2015-10-01 株式会社豊田自動織機 Map information updating method in interlocking system of unmanned carrier and warehouse management system
JP2015172878A (en) 2014-03-12 2015-10-01 株式会社豊田自動織機 Linkage system for unmanned carrier and inventory management system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010061483A (en) 2008-09-05 2010-03-18 Hitachi Ltd Self-traveling moving object and method for setting target position of the same
JP2015171933A (en) 2014-03-12 2015-10-01 株式会社豊田自動織機 Map information updating method in interlocking system of unmanned carrier and warehouse management system
JP2015172878A (en) 2014-03-12 2015-10-01 株式会社豊田自動織機 Linkage system for unmanned carrier and inventory management system

Also Published As

Publication number Publication date
JP2022014323A (en) 2022-01-19

Similar Documents

Publication Publication Date Title
EP3063598B1 (en) Systems, methods, and industrial vehicles for determining the visibility of features
KR101589943B1 (en) Method and apparatus for sharing map data associated with automated industrial vehicles
US9056754B2 (en) Method and apparatus for using pre-positioned objects to localize an industrial vehicle
CA2845935C (en) Method and apparatus for using pre-positioned objects to localize an industrial vehicle
EP2748687B1 (en) Method and apparatus for using unique landmarks to locate industrial vehicles at start-up
US7864302B2 (en) Method for detecting objects with a pivotable sensor device
AU2014343128A1 (en) Systems, methods, and industrial vehicles for determining the visibility of features
US20140058634A1 (en) Method and apparatus for using unique landmarks to locate industrial vehicles at start-up
KR20140038523A (en) Method and apparatus for facilitating map data processing for industrial vehicle navigation
KR20210135589A (en) weight estimation system
US11768503B2 (en) Position estimation device, control device, industrial vehicle, logistics support system, position estimation method, and program
KR102300596B1 (en) Method for narrow lane driving of autonomous forklift and apparatus for the same
JP7415830B2 (en) unmanned vehicle
JP7081560B2 (en) Forklift and container attitude detection method
JP2021038088A (en) Forklift and container posture detection device
JP2019061452A (en) Map information update method
JP7081562B2 (en) Forklift and container attitude detection method
JP7363705B2 (en) Cargo handling system
JP2023030983A (en) forklift
WO2024014194A1 (en) Route setting method, program, and route setting system
JP7257431B2 (en) Mobile object control method, mobile object and program
JP7424241B2 (en) edge detection device
JP2023163604A (en) Cargo handling system
AU2016266099B2 (en) Method and apparatus for using unique landmarks to locate industrial vehicles at start-up
JP2023163605A (en) Cargo handling system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231218

R151 Written notification of patent or utility model registration

Ref document number: 7415830

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151