JP2021082057A - Detection system and detection program - Google Patents

Detection system and detection program Download PDF

Info

Publication number
JP2021082057A
JP2021082057A JP2019209629A JP2019209629A JP2021082057A JP 2021082057 A JP2021082057 A JP 2021082057A JP 2019209629 A JP2019209629 A JP 2019209629A JP 2019209629 A JP2019209629 A JP 2019209629A JP 2021082057 A JP2021082057 A JP 2021082057A
Authority
JP
Japan
Prior art keywords
trolley
detection
movement
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019209629A
Other languages
Japanese (ja)
Other versions
JP7366364B2 (en
Inventor
幹太 宮口
Kanta Miyaguchi
幹太 宮口
和人 神山
Kazuto Kamiyama
和人 神山
孝一 小野
Koichi Ono
孝一 小野
林 建一
Kenichi Hayashi
建一 林
洋介 藤田
Yosuke Fujita
洋介 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Takenaka Komuten Co Ltd
Qoncept Inc
Original Assignee
Takenaka Komuten Co Ltd
Qoncept Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Takenaka Komuten Co Ltd, Qoncept Inc filed Critical Takenaka Komuten Co Ltd
Priority to JP2019209629A priority Critical patent/JP7366364B2/en
Publication of JP2021082057A publication Critical patent/JP2021082057A/en
Application granted granted Critical
Publication of JP7366364B2 publication Critical patent/JP7366364B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To provide a detection system and a detection program making it possible to reliably detect an object at a high efficiency.SOLUTION: A server device 5 that detects a movable cart 1 includes: a movement unit 521 that moves the cart 1; an acquisition unit 522 that acquires images of the first and second floors which are object areas where the cart 1 imaged before and after the cart 1 is moved by the movement unit 521 may exist; and a detection unit 523 that detects the cart 1 on the basis of a difference between the images of the first and second floors, which are imaged before and after the cart 1 is moved, acquired by the acquisition unit 522. The detection unit 523 detects presence or absence of the cart 1 on the first or second floor. Further, the detection unit 523 detects a position of the cart 1. The detection unit 523 also detects an orientation of the cart 1.SELECTED DRAWING: Figure 2

Description

本発明は、検出システム、及び検出プログラムに関する。 The present invention relates to a detection system and a detection program.

従来、建築現場の資材を運搬するための装置として、作業員が手押しする運搬台車が知られていた(例えば、特許文献1参照)。 Conventionally, as a device for transporting materials at a construction site, a transport trolley pushed by a worker has been known (see, for example, Patent Document 1).

特開2016−32953号公報Japanese Unexamined Patent Publication No. 2016-32953

ところで、建築現場の規模が比較的大きい場合、複数の運搬台車が用いられ、当該運搬台車を必要な時(不定期)に移動させる多数の作業員を要していた。 By the way, when the scale of the construction site is relatively large, a plurality of transport trolleys are used, and a large number of workers are required to move the transport trolleys when necessary (irregularly).

そこで、建設現場の作業効率を低コストで向上させる観点から、複数の運搬台車各々にマーカーやランプ等の目印を付して、当該目印をカメラにて撮像することにより、各運搬台車を検出して遠隔操作する技術が提案されていた。 Therefore, from the viewpoint of improving the work efficiency of the construction site at low cost, each transport trolley is detected by attaching a marker, a lamp, or the like to each of the plurality of transport trolleys and imaging the mark with a camera. A technology for remote control has been proposed.

しかしながら、このような技術を採用した場合、マーカーやランプを柱や設置済資材等に隠れて撮像できずに、運搬台車を検出できず適切に遠隔操作することが困難となる可能性があった。特に、例えば、運搬台車に積載されている荷物によってマーカーやランプが隠れてしまったり、或は、運搬台車が相互に接近してマーカーやランプが他の運搬台車にて隠れてしまったりした場合、マーカーやランプを撮像できずに、運搬台車を検出できず適切に遠隔操作することが困難となる可能性があった。 However, when such a technology is adopted, there is a possibility that the marker or the lamp is hidden behind the pillar or the installed material and cannot be imaged, the transport trolley cannot be detected, and it becomes difficult to operate the vehicle appropriately remotely. .. In particular, for example, when the markers and lamps are hidden by the luggage loaded on the transport trolley, or when the transport trolleys approach each other and the markers and lamps are hidden by other transport trolleys. There was a possibility that the markers and lamps could not be imaged, the transport trolley could not be detected, and proper remote operation could be difficult.

本発明は上記事実に鑑みなされたもので、対象物について高効率で確実に検出することを可能にする検出システム及び検出プログラムを提供する事を目的とする。 The present invention has been made in view of the above facts, and an object of the present invention is to provide a detection system and a detection program that enable highly efficient and reliable detection of an object.

上述した課題を解決し、目的を達成するために、請求項1に記載の検出システムは、移動可能な対象物を検出する検出システムであり、前記対象物を移動させる移動手段と、前記移動手段が前記対象物を移動させる前後に撮像された前記対象物が存在し得る対象領域の画像を取得する取得手段と、前記取得手段が取得した前記対象物を移動させる前後に撮像された前記対象領域の画像の相互間の差分に基づいて、前記対象物を検出する検出手段と、を備える。 In order to solve the above-mentioned problems and achieve the object, the detection system according to claim 1 is a detection system that detects a movable object, and is a moving means for moving the object and the moving means. Acquiring means for acquiring an image of a target area in which the object may exist, and the target area captured before and after moving the object acquired by the acquisition means. A detection means for detecting the object based on the difference between the images of the above.

請求項2に記載の検出システムは、請求項1に記載の検出システムにおいて、前記検出手段は、前記対象領域における前記対象物の有無を検出する。 The detection system according to claim 2 is the detection system according to claim 1, wherein the detection means detects the presence or absence of the object in the target area.

請求項3に記載の検出システムは、請求項1又は2に記載の検出システムにおいて、前記検出手段は、前記対象物の位置を検出する。 The detection system according to claim 3 is the detection system according to claim 1 or 2, wherein the detection means detects the position of the object.

請求項4に記載の検出システムは、請求項1から3の何れか一項に記載の検出システムにおいて、前記検出手段は、前記対象物の向きを検出する。 The detection system according to claim 4 is the detection system according to any one of claims 1 to 3, wherein the detection means detects the orientation of the object.

請求項5に記載の検出システムは、請求項1から4の何れか一項に記載の検出システムにおいて、前記検出手段の検出結果に基づいて、前記対象物の移動を操作する移動操作手段、を備える。 The detection system according to claim 5 is the detection system according to any one of claims 1 to 4, wherein the movement operation means for operating the movement of the object based on the detection result of the detection means. Be prepared.

請求項6に記載の検出プログラムは、移動可能な対象物を検出する検出プログラムであり、コンピュータを、前記対象物を移動させる移動手段と、前記移動手段が前記対象物を移動させる前後に撮像された前記対象物が存在し得る対象領域の画像を取得する取得手段と、前記取得手段が取得した前記対象物を移動させる前後に撮像された前記対象領域の画像の相互間の差分に基づいて、前記対象物を検出する検出手段と、として機能させる。 The detection program according to claim 6 is a detection program that detects a movable object, and images a computer with a moving means for moving the object and before and after the moving means moves the object. Based on the difference between the acquisition means for acquiring the image of the target area in which the object can exist and the images of the target area captured before and after moving the object acquired by the acquisition means. It functions as a detection means for detecting the object.

請求項1に記載の検出システム、及び請求項6に記載の検出プログラムによれば、対象物を移動させる前後に撮像された対象領域の画像の相互間の差分に基づいて、対象物を検出することにより、例えば、遮蔽物(例えば、柱や設置済資材等)にて対象物の一部が隠れて画像に写っていない場合であっても、対象物を検出することができるので、対象物を確実に検出することが可能となる。また、例えば、対象物に検出用のマーカーやランプ等を設置する作業等を行う必要がないので、対象物を高効率で検出することが可能となる。また、例えば、人により無計画で使用順序に意図・関係がなく、無造作に並べられてしまった対象物を、高効率で確実に検出することが可能となる。 According to the detection system according to claim 1 and the detection program according to claim 6, the object is detected based on the difference between the images of the target area captured before and after moving the object. As a result, the object can be detected even when a part of the object is hidden by a shield (for example, a pillar, an installed material, etc.) and is not shown in the image. Can be reliably detected. Further, for example, it is not necessary to install a marker, a lamp, or the like for detection on the object, so that the object can be detected with high efficiency. Further, for example, it is possible to reliably detect objects that have been randomly arranged by a person without any intention or relationship in the order of use with high efficiency.

請求項2に記載の検出システムによれば、対象物が存在し得る各対象領域における対象物の有無を検出することにより、例えば、対象物の有無を考慮して対象物に関する任意の処理(例えば、対象物を遠隔操作する処理等)を行うことが可能となる。 According to the detection system according to claim 2, by detecting the presence or absence of the object in each target area where the object may exist, for example, arbitrary processing related to the object (for example, considering the presence or absence of the object). , Processing to remotely control the object, etc.) can be performed.

請求項3に記載の検出システムによれば、対象物の位置を検出することにより、例えば、対象物の位置を考慮して対象物に関する任意の処理(例えば、対象物を遠隔操作する処理等)を行うことが可能となる。 According to the detection system according to claim 3, by detecting the position of the object, for example, arbitrary processing related to the object in consideration of the position of the object (for example, a process of remotely controlling the object). Can be done.

請求項4に記載の検出システムによれば、対象物の向きを検出することにより、例えば、対象物の向きを考慮して対象物に関する任意の処理(例えば、対象物を遠隔操作する処理等)を行うことが可能となる。 According to the detection system according to claim 4, by detecting the direction of the object, for example, arbitrary processing related to the object in consideration of the direction of the object (for example, a process of remotely controlling the object). Can be done.

請求項5に記載の検出システムによれば、検出手段の検出結果に基づいて、対象物の移動を操作することにより、例えば、対象物を移動させることができるので、対象物に関する利便性を向上させることが可能となる。 According to the detection system according to claim 5, by manipulating the movement of the object based on the detection result of the detection means, for example, the object can be moved, so that the convenience regarding the object is improved. It becomes possible to make it.

本実施の形態に自動運転システムが適用される倉庫を示す図である。It is a figure which shows the warehouse to which the automatic operation system is applied to this embodiment. 自動運転システムのブロック図である。It is a block diagram of an automatic driving system. 台車の側面図である。It is a side view of a dolly. 設備情報を例示した図である。It is a figure which illustrated the equipment information. 台車情報を例示した図であるIt is a figure exemplifying the dolly information. 検出処理のフローチャートである。It is a flowchart of the detection process. 1階部分の平面図である。It is a top view of the first floor part. 1階部分の平面図である。It is a top view of the first floor part. 2階部分の平面図である。It is a top view of the second floor part. 台車検出処理のフローチャートである。It is a flowchart of a trolley detection process. 台車の移動ルートを例示した図である。It is a figure which illustrated the movement route of a dolly.

以下に添付図面を参照して、この発明に係る検出システム、及び検出プログラムの実施の形態を詳細に説明する。まず、〔I〕実施の形態の基本的概念を説明した後、〔II〕実施の形態の具体的内容について説明し、最後に、〔III〕実施の形態に対する変形例について説明する。ただし、実施の形態によって本発明が限定されるものではない。 Hereinafter, embodiments of the detection system and the detection program according to the present invention will be described in detail with reference to the accompanying drawings. First, the basic concept of the embodiment of [I] will be described, then the specific contents of the embodiment of [II] will be described, and finally, a modified example of the embodiment of [III] will be described. However, the present invention is not limited to the embodiments.

〔I〕実施の形態の基本的概念
まず、実施の形態の基本的概念について説明する。実施の形態は、概略的に、検出システム、及び検出プログラムに関する。
[I] Basic concept of the embodiment First, the basic concept of the embodiment will be described. Embodiments generally relate to detection systems and detection programs.

ここで、「検出システム」とは、移動可能な対象物を検出するシステムであり、例えば、対象物を検出する専用システム、あるいは、汎用的に用いられるシステム(例えば、サーバコンピュータ、パーソナルコンピュータ、タブレット端末等)に対して移動可能な対象物を検出するための機能を実装することにより実現されるシステム等を含む概念である。「検出システム」とは、例えば、移動手段、取得手段、及び検出手段を備え、任意で、移動操作手段等を含む概念である。 Here, the "detection system" is a system for detecting a movable object, for example, a dedicated system for detecting an object, or a system used for general purposes (for example, a server computer, a personal computer, a tablet). It is a concept that includes a system, etc. realized by implementing a function for detecting a movable object on a terminal, etc.). The "detection system" is a concept including, for example, a moving means, an acquiring means, and a detecting means, and optionally includes a moving operating means and the like.

「移動手段」とは、対象物を移動させる手段であり、具体的には、対象物を検出するために当該対象物を移動させる手段であり、例えば、所定距離だけ移動させる手段である。「所定距離」とは、予め定められた距離であり、例えば、対象物を撮像する撮像装置(例えば、カメラ等)で撮像した画像によって当該対象物が移動したことを認識できる程度の距離であり、一例としては、極わずかの距離であって、10cm程度〜30cm程度等を含む概念である。 The "moving means" is a means for moving an object, specifically, a means for moving the object in order to detect the object, for example, a means for moving the object by a predetermined distance. The "predetermined distance" is a predetermined distance, for example, a distance at which it is possible to recognize that the object has moved by an image captured by an imaging device (for example, a camera or the like) that images the object. As an example, it is a concept that includes a very short distance of about 10 cm to about 30 cm and the like.

また、「対象物」とは、移動可能な物であり、例えば、台車、車両、重機、及びモバイル・ランドスケープ(ベンチ、あるいは、ベンチ以外の任意の物体に対して遠隔操作で移動させる機能を設けた物であって、遠隔操作で移動させることにより風景を変更させる装置)等を含む概念である。 Further, the "object" is a movable object, and for example, a bogie, a vehicle, a heavy machine, and a mobile landscape (a bench or an arbitrary object other than the bench) are provided with a function of being remotely controlled. It is a concept that includes a device that changes the landscape by moving it remotely.

また、「取得手段」とは、移動手段が対象物を移動させる前後に撮像された対象物が存在し得る対象領域の画像を取得する手段であり、例えば、前述した撮像装置(例えば、カメラ等)で撮像した画像を取得する手段等を含む概念である。 Further, the "acquisition means" is a means for acquiring an image of a target area in which an object may exist, which is captured before and after the moving means moves the object. For example, the above-mentioned imaging device (for example, a camera or the like). ) Is a concept including means for acquiring an image captured in.

また、「対象領域」とは、対象物が存在する可能性がある領域であり、具体的には、撮像装置にて撮像される領域であり、例えば、建物の内部の領域又は建物の外部の領域等を含む概念であり、一例としては、建物の各フロアの領域等を含む概念である。 Further, the "target area" is an area in which an object may exist, specifically, an area imaged by an imaging device, for example, an area inside a building or an area outside the building. It is a concept including an area and the like, and as an example, it is a concept including an area and the like of each floor of a building.

また、「検出手段」とは、取得手段が取得した対象物を移動させる前後に撮像された対象領域の画像の相互間の差分に基づいて、対象物を検出する手段であり、例えば、対象物が存在し得る各対象領域における対象物の有無を検出する手段等を含む概念であり、また、対象物の位置を検出する手段等を含む概念であり、また、対象物の向きを検出する手段等を含む概念である。 Further, the "detection means" is a means for detecting an object based on the difference between the images of the target area captured before and after moving the object acquired by the acquisition means, for example, the object. Is a concept including means for detecting the presence or absence of an object in each target area where can exist, a concept including means for detecting the position of the object, and the like, and means for detecting the orientation of the object. It is a concept including.

また、「移動操作手段」とは、検出手段の検出結果に基づいて、対象物の移動を操作する手段であり、例えば、対象物を遠隔操作する手段等を含む概念である。 Further, the "movement operation means" is a means for operating the movement of the object based on the detection result of the detection means, and is a concept including, for example, a means for remotely controlling the object.

そして、以下に示す実施の形態では、「対象物」が遠隔操作可能な台車であり、また、「対象領域」が建物である倉庫の各フロアである場合について説明する。 Then, in the embodiment shown below, the case where the "object" is a trolley that can be remotely controlled and the "target area" is each floor of the warehouse which is a building will be described.

〔II〕実施の形態の具体的内容
次に、実施の形態の具体的内容について説明する。
[II] Specific contents of the embodiment Next, the specific contents of the embodiment will be described.

(構成)
まず、本実施の形態に係る自動運転システムの構成について説明する。図1は、本実施の形態に自動運転システムが適用される倉庫を示す図であり、図2は、自動運転システムのブロック図である。なお、図1に示すX―Y―Z方向が互いに直交する方向であり、具体的には、Z方向が垂直方向であり、X方向及びY方向が垂直方向に対して直交する水平方向であるものとして説明する。また、倉庫の中心点を基準にして、+Y方向の方角が「北」であり、−Y方向の方角が「南」であり、−X方向の方角が「東」であり、+X方向の方角が「西」であるものとして、以下説明する。
(Constitution)
First, the configuration of the automatic driving system according to the present embodiment will be described. FIG. 1 is a diagram showing a warehouse to which the automatic operation system is applied to the present embodiment, and FIG. 2 is a block diagram of the automatic operation system. The XYZ directions shown in FIG. 1 are orthogonal to each other. Specifically, the Z direction is a vertical direction, and the X and Y directions are horizontal directions orthogonal to the vertical direction. It will be explained as a thing. Also, with respect to the center point of the warehouse, the direction of + Y is "north", the direction of -Y is "south", the direction of -X is "east", and the direction of + X is. Will be described below assuming that is "west".

(構成−倉庫)
図1の倉庫900は、図2の自動運転システム100が適用される建物であり、例えば、1階部分901(対象領域)と2階部分902(対象部分)との相互間をエレベータ903を介して移動可能となっているものである。なお、この倉庫900については、図1では、説明の便宜上、概略のみが図示されている。
(Composition-Warehouse)
The warehouse 900 of FIG. 1 is a building to which the automatic operation system 100 of FIG. 2 is applied. For example, the first floor portion 901 (target area) and the second floor portion 902 (target portion) are connected to each other via an elevator 903. It is movable. Regarding this warehouse 900, only an outline is shown in FIG. 1 for convenience of explanation.

(構成−自動運転システム)
図2の自動運転システム100は、例えば、台車1、カメラ2、通信装置3、端末装置4、及びサーバ装置5を備える。
(Configuration-Automated driving system)
The automatic driving system 100 of FIG. 2 includes, for example, a dolly 1, a camera 2, a communication device 3, a terminal device 4, and a server device 5.

(構成−自動運転システム−台車)
図3は、台車の側面図である。図2の台車1は、対象物であり、例えば、隔操作可能な台車(つまり、自動運転可能な台車)であって、例えば、図3のように荷物8を積載しており、一例としては、図2通信部11、走行部12、操舵部13、記録部14、及び制御部15を備える。なお、ここでの台車1は、図1の外観が相互に同様な台車101〜104を総称しているものとし、これらの各台車101〜104を相互に区別する必要がない場合、この総称を用いて説明する(カメラ2も同様とする)。
(Configuration-Automated driving system-Bogie)
FIG. 3 is a side view of the dolly. The trolley 1 in FIG. 2 is an object, for example, a trolley that can be operated separately (that is, a trolley that can be automatically driven), and is loaded with luggage 8 as shown in FIG. 3, for example. 2. The communication unit 11, the traveling unit 12, the steering unit 13, the recording unit 14, and the control unit 15 are provided. It should be noted that the trolley 1 here is a generic term for trolleys 101 to 104 having similar appearances in FIG. 1, and when it is not necessary to distinguish each of these trolleys 101 to 104 from each other, this generic term is used. It will be described using (the same applies to the camera 2).

(構成−自動運転システム−台車−通信部)
通信部11は、外部装置との間で通信を通信手段である。この通信部11の具体的な種類や構成は任意であるが、例えば、通信装置3を介してサーバ装置5との間で無線通信を行うように公知の無線通信回路等を用いて構成することができる。
(Configuration-Automated driving system-Bogie-Communication unit)
The communication unit 11 is a means of communicating communication with an external device. The specific type and configuration of the communication unit 11 is arbitrary, but for example, it is configured by using a known wireless communication circuit or the like so as to perform wireless communication with the server device 5 via the communication device 3. Can be done.

(構成−自動運転システム−台車−走行部)
走行部12は、台車1を走行させる走行手段である。この走行部12の具体的な種類や構成は任意であるが、例えば、図3に示す車輪121、及び台車1に実装されている不図示のバッテリー、及び当該バッテリーからの電源によって駆動して車輪121を回転させるための台車1に実装されている不図示のモーター等を用いて構成することができる。
(Configuration-Automated driving system-Bogie-Running unit)
The traveling unit 12 is a traveling means for traveling the carriage 1. The specific type and configuration of the traveling unit 12 are arbitrary, but for example, the wheels 121 shown in FIG. 3, a battery (not shown) mounted on the carriage 1, and a wheel driven by a power source from the battery. It can be configured by using a motor (not shown) mounted on the carriage 1 for rotating 121.

(構成−自動運転システム−台車−操舵部)
操舵部13は、台車1の進行方向を変えるかじ取りを行う操舵手段である。この操舵部13の具体的な種類や構成は任意であるが、例えば、公知の方向転換機構等を用いて構成することができる。
(Configuration-Automated driving system-Bogie-Steering unit)
The steering unit 13 is a steering means for steering to change the traveling direction of the carriage 1. The specific type and configuration of the steering unit 13 are arbitrary, but can be configured by using, for example, a known direction changing mechanism or the like.

(構成−自動運転システム−台車−記録部)
記録部14は、台車1の動作に必要なプログラム及び各種のデータを記録する記録手段である。この記録部14の具体的な種類や構成は任意であるが、例えば、EEPROMやFlashメモリ等を用いて構成されている。ただし、EEPROMやFlashメモリに代えてあるいはEEPROMやFlashメモリと共に、ハードディスクの如き外部記録装置、磁気ディスクの如き磁気的記録媒体、DVDやブルーレイディスクの如き光学的記録媒体、又はROM、USBメモリ、SDカードの如き電気的記録媒体を含む、その他の任意の記録媒体を用いることができる(他の装置の記録部も同様とする)。
(Configuration-Automated driving system-Bogie-Recording unit)
The recording unit 14 is a recording means for recording a program and various data necessary for the operation of the carriage 1. The specific type and configuration of the recording unit 14 are arbitrary, but are configured by using, for example, EEPROM, Flash memory, or the like. However, instead of EEPROM or Flash memory, or together with EEPROM or Flash memory, an external recording device such as a hard disk, a magnetic recording medium such as a magnetic disk, an optical recording medium such as a DVD or Blu-ray disk, or a ROM, USB memory, SD. Any other recording medium, including an electrical recording medium such as a card, can be used (as well as the recording section of other devices).

記録部14には、例えば、台車識別情報(以下、識別情報を「ID」と称する」)が格納されている。「台車ID」とは、例えば、台車1を一意に識別するための情報である。ここでは、例えば、図1の台車101、102、103、104各々の記録部14に台車IDとして「ID101」、「ID102」、「ID103」、「ID104」各々が記録されていることとして以下説明する。 For example, the trolley identification information (hereinafter, the identification information is referred to as "ID") is stored in the recording unit 14. The "trolley ID" is, for example, information for uniquely identifying the trolley 1. Here, for example, it will be described below assuming that "ID101", "ID102", "ID103", and "ID104" are recorded as trolley IDs in the recording units 14 of the trolleys 101, 102, 103, and 104 of FIG. To do.

(構成−自動運転システム−台車−制御部)
制御部15は、台車1を制御する制御手段であり、具体的には、CPU、当該CPU上で解釈実行される各種のプログラム(OSなどの基本制御プログラムや、OS上で起動され特定機能を実現するアプリケーションプログラムを含む)、及びプログラムや各種のデータを格納するためのRAMの如き内部メモリを備えて構成されるコンピュータである(他の装置の制御部も同様とする)。なお、この制御部15の各部により行われる処理については後述する。
(Configuration-Automated driving system-Bogie-Control unit)
The control unit 15 is a control means for controlling the trolley 1, and specifically, a CPU, various programs interpreted and executed on the CPU (basic control programs such as an OS, and specific functions started on the OS). It is a computer configured to include an application program to be realized) and an internal memory such as a RAM for storing the program and various data (the same applies to the control unit of other devices). The processing performed by each unit of the control unit 15 will be described later.

(構成−自動運転システム−カメラ)
図2のカメラ2は、撮像の対象となる範囲である撮像範囲を撮像する撮像手段である。このカメラ2の具体的な種類や構成は任意であるが、例えば、サーバ装置5との間で通信可能に接続されており、一例としては、図1のカメラ21、22を備える。カメラ21は、自己の撮像範囲である1階部分901を撮像するカメラであり、例えば、自己を識別するカメラIDとして「ID21」が設定されて記録されているものである。カメラ22は、自己の撮像範囲である2階部分902を撮像するカメラであり、例えば、自己を識別するカメラIDとして「ID22」が設定されて記録されているものである。
(Configuration-Automated driving system-Camera)
The camera 2 in FIG. 2 is an imaging means that captures an imaging range that is a target range for imaging. The specific type and configuration of the camera 2 are arbitrary, but for example, they are connected to the server device 5 so as to be communicable, and as an example, the cameras 21 and 22 of FIG. 1 are provided. The camera 21 is a camera that captures the first-floor portion 901 that is the self-imaging range, and for example, "ID 21" is set and recorded as a camera ID that identifies the self. The camera 22 is a camera that captures the second floor portion 902, which is the self-imaging range, and for example, "ID 22" is set and recorded as a camera ID that identifies the self.

(構成−自動運転システム−通信装置)
図2の通信装置3は、サーバ装置5と、台車1及び端末装置4との間の無線通信を可能にする通信手段である。この通信装置3の具体的な種類や構成は任意であるが、例えば、公知の無線通信回路等を用いて構成することができる。
(Configuration-Automated driving system-Communication device)
The communication device 3 of FIG. 2 is a communication means that enables wireless communication between the server device 5 and the carriage 1 and the terminal device 4. The specific type and configuration of the communication device 3 is arbitrary, but for example, it can be configured by using a known wireless communication circuit or the like.

(構成−自動運転システム−端末装置)
図2の端末装置4は、サーバ装置5のユーザインターフェースとして機能する表示入力手段である。この端末装置4の具体的な種類や構成は任意であるが、例えば、少なくとも情報を表示する表示手段及びユーザからの操作を入力する入力手段としての機能を有するものであり、一例としては、ディスプレイにタッチパッドを重ねて構成されるタッチスクリーン等を備えるスマートフォン又はタブレット端末等を用いることができる。
(Configuration-Automated driving system-Terminal device)
The terminal device 4 of FIG. 2 is a display input means that functions as a user interface of the server device 5. The specific type and configuration of the terminal device 4 is arbitrary, but for example, it has at least a function as a display means for displaying information and an input means for inputting an operation from a user. As an example, a display A smartphone, tablet terminal, or the like provided with a touch screen or the like configured by stacking a touch pad on the device can be used.

(構成−自動運転システム−サーバ装置)
図2のサーバ装置5は、検出システムであり、例えば、カメラ2と通信可能に接続されており、また、通信装置3を介して台車1及び端末装置4と無線津信可能に接続されており、一例としては、記録部51、及び制御部52を備える。
(Configuration-Automated driving system-Server device)
The server device 5 of FIG. 2 is a detection system, and is, for example, communicably connected to the camera 2 and wirelessly connected to the carriage 1 and the terminal device 4 via the communication device 3. As an example, a recording unit 51 and a control unit 52 are provided.

(構成−自動運転システム−サーバ装置−記録部)
記録部51には、例えば、図面情報、設備情報、及び台車情報が格納されている。
(Configuration-Automated driving system-Server device-Recording unit)
For example, drawing information, equipment information, and trolley information are stored in the recording unit 51.

(構成−自動運転システム−サーバ装置−記録部−図面情報)
「図面情報」とは、対象領域を示す図面を特定する図面情報である。なお、この図面情報は任意であるが、例えば、図1の1階部分901及び2階部分902等の平面図を示す情報等が用いられる場合について説明する。また、この図面情報が特定する図面においては、任意の基準物(例えば、通り芯等)を基準にして位置及び方角を特定可能となっているものとして、以下説明する。そして、このような図面情報の具体的な格納手法は任意であるが、例えば、サーバ装置5の不図示の入力手段や端末装置4を介して、管理者が情報を入力することに格納されることとする(以下に示す設備情報も同様とする)。
(Configuration-Automated driving system-Server device-Recording unit-Drawing information)
"Drawing information" is drawing information that specifies a drawing indicating a target area. Although this drawing information is arbitrary, for example, a case where information showing a plan view of the first floor portion 901 and the second floor portion 902 of FIG. 1 is used will be described. Further, in the drawing specified by this drawing information, it will be described below assuming that the position and direction can be specified with reference to an arbitrary reference object (for example, a grid core or the like). The specific storage method of such drawing information is arbitrary, but it is stored in, for example, when the administrator inputs the information via an input means (not shown) of the server device 5 or the terminal device 4. (The same applies to the equipment information shown below).

(構成−自動運転システム−サーバ装置−記録部−設備情報)
「設備情報」とは、自動運転システム100の設備を特定する情報であり、例えば、カメラ2を特定する情報である。図4は、設備情報を例示した図である。「設備情報」は、例えば、項目「カメラID」、及び項目「設置位置情報」と、各項目に対応する情報とが相互に関連付けられている。項目「カメラID」に対応する情報は、前述のカメラIDである(図4では「ID21」、「ID22」等)。項目「設置位置情報」に対応する情報は、カメラ2が設置されている位置を特定する設置位置情報である(図4では、設置されている階数を特定する情報であって、「1階」、又は「2階」である)。ここでは、例えば、各階におけるカメラ2の具体的な設置位置及び撮像方向又は画角等が予め定められており、カメラ2で撮像された画像について画像認識することにより、当該画像中に写っている物の位置を、前述の図面情報が特定する図面上で特定可能となっているものとして説明する。
(Configuration-Automated driving system-Server device-Recording unit-Equipment information)
The "equipment information" is information that identifies the equipment of the automatic operation system 100, and is, for example, information that identifies the camera 2. FIG. 4 is a diagram illustrating equipment information. In the "equipment information", for example, the item "camera ID" and the item "installation position information" are associated with the information corresponding to each item. The information corresponding to the item "camera ID" is the above-mentioned camera ID ("ID21", "ID22", etc. in FIG. 4). The information corresponding to the item "installation position information" is the installation position information that specifies the position where the camera 2 is installed (in FIG. 4, it is the information that specifies the number of floors on which the camera 2 is installed, and is "the first floor". , Or "second floor"). Here, for example, the specific installation position, imaging direction, angle of view, etc. of the camera 2 on each floor are predetermined, and the image captured by the camera 2 is reflected in the image by recognizing the image. The position of the object will be described as being identifiable on the drawing specified by the above-mentioned drawing information.

(構成−自動運転システム−サーバ装置−記録部−台車情報)
「台車情報」とは、台車1を特定する台車情報である。図5は、台車情報を例示した図である。「台車情報」は、例えば、項目「台車名情報」、項目「台車ID」、項目「台車位置情報」、及び項目「台車方向情報」と、各項目に対応する情報とが相互に関連付けられている。項目「台車名情報」に対応する情報は、台車の名称を特定する台車名情報である(図5では、図1の台車101の名称を特定する「1号機」、台車102の名称を特定する「2号機」、台車103の名称を特定する「3号機」、及び台車104の名称を特定する「4号機」である)。項目「台車ID」に対応する情報は、前述の台車IDである(図5では前述の「ID101」等)。項目「台車位置情報」に対応する情報は、台車1が設けられている位置を特定する台車位置情報である。なお、この台車位置情報は任意であるが、例えば、図5では、台車が設けられている階数と、当該階数における前述の図面情報が特定する図面上の予め定められた任意の位置を基準とした座標とを用いることとし、階数が1階であり座標が(x11,y11)であることを特定する「1階,(x11,y11)」等を用いることとして、以下説明する。なお、ここでの具体的に記載している座標である「(x11,y11)」等については説明の便宜上の記載であることとする。
(Configuration-Automated driving system-Server device-Recording unit-Bogie information)
The "trolley information" is trolley information that identifies the trolley 1. FIG. 5 is a diagram illustrating dolly information. In the "trolley information", for example, the item "trolley name information", the item "trolley ID", the item "trolley position information", and the item "trolley direction information" are associated with each other. There is. The information corresponding to the item "Bogie name information" is the bogie name information for specifying the name of the bogie (in FIG. 5, "Unit 1" for specifying the name of the bogie 101 in FIG. 1 and the name of the bogie 102 are specified. "Unit 2", "Unit 3" that specifies the name of the trolley 103, and "Unit 4" that specifies the name of the trolley 104). The information corresponding to the item "trolley ID" is the above-mentioned trolley ID (in FIG. 5, the above-mentioned "ID101" and the like). The information corresponding to the item "trolley position information" is the trolley position information that specifies the position where the trolley 1 is provided. The trolley position information is arbitrary, but in FIG. 5, for example, in FIG. 5, the number of floors on which the trolley is provided and a predetermined arbitrary position on the drawing specified by the above-mentioned drawing information on the floor are used as a reference. The following will be described by using the above-mentioned coordinates and using "1st floor, (x11, y11)" or the like that specifies that the number of floors is the 1st floor and the coordinates are (x11, y11). It should be noted that the coordinates “(x11, y11)” and the like specifically described here are described for convenience of explanation.

項目「台車方向情報」に対応する情報は、台車1の向きとして当該台車1の正面側が向けられている方向を特定する台車方向情報である。なお、「台車1の正面側」の定義は任意であり、例えば、図3の台車1における−Y側又は+Y側の何れかであるが、例えば、前述のモーターを時計回りに回転させた場合に台車1が進行する方向が台車1の正面側であり、当該モーターを反時計回りに回転させた場合に台車1が進行する方向が台車1の背面側(つまり、台車1の正面側とは反対側)であるものとして説明する。また、この台車方向情報は任意であるが、例えば、図5では、図1の各台車1の中心を基準にし、「北」(+Y方向)の方角を0度とし、時計回りに360度で示す情報を用いることとし、つまり、一例としては、図5では不図示である「東」に対応する90度を示す「90」、及び図5に図示されている南に対応する180度を示す「180」等を用いることとして以下説明する。そして、このような台車情報の具体的な格納手法は任意であるが、例えば、台車名情報及び台車IDについては、前述の図面情報と同様にして格納されることとし、台車位置情報及び台車方向情報については、後述する検出処理にて格納される。 The information corresponding to the item "trolley direction information" is the trolley direction information that specifies the direction in which the front side of the trolley 1 is directed as the direction of the trolley 1. The definition of "front side of the carriage 1" is arbitrary, and is, for example, either the −Y side or the + Y side in the carriage 1 of FIG. 3, for example, when the above-mentioned motor is rotated clockwise. The direction in which the trolley 1 advances is the front side of the trolley 1, and the direction in which the trolley 1 advances when the motor is rotated counterclockwise is the back side of the trolley 1 (that is, the front side of the trolley 1). The other side). Further, the trolley direction information is arbitrary, but for example, in FIG. 5, the direction of "north" (+ Y direction) is set to 0 degrees with reference to the center of each trolley 1 in FIG. 1, and the clockwise direction is 360 degrees. The information shown is used, that is, as an example, "90" indicating 90 degrees corresponding to "east" not shown in FIG. 5 and 180 degrees corresponding to south shown in FIG. 5 are shown. This will be described below with reference to "180" and the like. The specific storage method of such trolley information is arbitrary, but for example, the trolley name information and the trolley ID are stored in the same manner as the above-mentioned drawing information, and the trolley position information and the trolley direction are stored. The information is stored in the detection process described later.

(構成−自動運転システム−サーバ装置−制御部)
制御部52は、サーバ装置5を制御する制御手段である。制御部52は、機能概念的には、例えば、移動部521、取得部522、検出部523、及び移動操作部524を備える。移動部521とは、台車1を移動させる移動手段である。取得部522は、移動部521が台車1を移動させる前後に撮像された台車1が存在し得る対象領域である1階部分901及び2階部分902の画像を取得する取得手段である。検出部523とは、取得部522が取得した台車1を移動させる前後に撮像された1階部分901及び2階部分902の画像の相互間の差分(詳細には、台車1を移動させる前後に撮像された1階部分901の画像の相互間の差分、及び台車1を移動させる前後に撮像された2階部分902の画像の相互間の差分)に基づいて、台車1を検出する検出手段である。移動操作部524は、検出手段の検出結果に基づいて、対象物の移動を操作する移動操作手段である。そして、このような制御部52により行われる各処理については、後述する。
(Configuration-Automated driving system-Server device-Control unit)
The control unit 52 is a control means for controlling the server device 5. The control unit 52 includes, for example, a movement unit 521, an acquisition unit 522, a detection unit 523, and a movement operation unit 524 in terms of functional concept. The moving unit 521 is a moving means for moving the carriage 1. The acquisition unit 522 is an acquisition means for acquiring images of the first floor portion 901 and the second floor portion 902, which are target areas in which the trolley 1 may exist, which is captured before and after the moving unit 521 moves the trolley 1. The detection unit 523 is a difference between the images of the first floor portion 901 and the second floor portion 902 captured before and after moving the trolley 1 acquired by the acquisition unit 522 (specifically, before and after moving the trolley 1). A detection means for detecting the trolley 1 based on the difference between the images of the first floor portion 901 captured and the difference between the images of the second floor portion 902 captured before and after moving the trolley 1. is there. The movement operation unit 524 is a movement operation means for operating the movement of an object based on the detection result of the detection means. Each process performed by the control unit 52 will be described later.

次に、このように構成される自動運転システム100により実行される検出処理及び移動処理について説明する。 Next, the detection process and the movement process executed by the automatic operation system 100 configured in this way will be described.

(処理−検出処理)
まず、検出処理について説明する。図6は、検出処理のフローチャートである(以下の各処理の説明ではステップを「S」と略記する)。「検出処理」とは、概略的には、サーバ装置5によって実行される処理であり、例えば、台車1を検出する処理である。この検出処理が実行されるタイミングは任意であるが、例えば、ユーザが端末装置4の不図示のタッチパネルを介して図1の台車1の台車名を選択した場合に、当該台車名に対応する台車IDを含む操作信号を端末装置4がサーバ装置5側に送信し、サーバ装置5の制御部52が当該操作信号を通信装置3を介して受信した場合に起動されることとし、当該検出処理が起動したところから説明する。ここでは、例えば、ユーザが端末装置4を介して、図1の台車101〜104の台車名である「1号機」〜「4号機」を選択した場合に、端末装置4が「ID101」〜「ID104」を含む操作信号をサーバ装置5に送信し、当該操作信号をサーバ装置5が受信して検出処理が起動された場合を例示して説明する。
(Processing-Detection processing)
First, the detection process will be described. FIG. 6 is a flowchart of the detection process (steps are abbreviated as “S” in the following description of each process). The "detection process" is generally a process executed by the server device 5, and is, for example, a process for detecting a dolly 1. The timing at which this detection process is executed is arbitrary, but for example, when the user selects the dolly name of the dolly 1 of FIG. 1 via a touch panel (not shown) of the terminal device 4, the dolly corresponding to the dolly name is selected. The terminal device 4 transmits an operation signal including an ID to the server device 5, and the control unit 52 of the server device 5 is activated when the operation signal is received via the communication device 3, and the detection process is performed. I will explain from the place where it started. Here, for example, when the user selects the dolly names "Unit 1" to "Unit 4" of the trolleys 101 to 104 in FIG. 1 via the terminal device 4, the terminal device 4 has "ID 101" to "ID 101" to ". The case where the operation signal including "ID 104" is transmitted to the server device 5 and the server device 5 receives the operation signal and the detection process is started will be described as an example.

図6のSA1において移動部521は、未だ選択していない台車IDを選択する。具体的には任意であるが、例えば、検出処理の起動時に受信した操作信号に含まれている台車IDにおいて、未だ選択していない台車IDを1個選択する。ここでは、例えば、「ID101」〜「ID104」の内の「ID101」を選択する。 In SA1 of FIG. 6, the moving unit 521 selects a dolly ID that has not yet been selected. Specifically, although it is arbitrary, for example, one trolley ID that has not yet been selected is selected from the trolley ID included in the operation signal received at the start of the detection process. Here, for example, "ID101" is selected from "ID101" to "ID104".

図6のSA2において移動部521は、台車1を移動させる。具体的には任意であるが、例えば、SA1で選択した台車IDを取得し、取得した台車IDと前進微動命令とを含む前進微動信号を生成し、生成した前進微動信号を、通信装置3を介して台車1に送信する。そして、この送信された前進微動信号は、全ての台車1に到達して各台車1にて受信されることになる。なお、「前進微動命令」とは、台車1を所定距離(例えば、10cm程度〜30cm程度)だけ前進させるための命令であり、例えば、台車1の走行部12の不図示モーターを時計回りに所定距離に対応する分だけ回転させるための命令である。ここでは、例えば、SA1で選択した台車IDである「ID101」を取得し、取得した台車IDである「ID101」と前進微動命令とを含む前進微動信号を生成して送信することにより、「ID101」を含む前進微動信号は、図1の台車101〜104にて受信されることになる。 In SA2 of FIG. 6, the moving unit 521 moves the carriage 1. Specifically, although it is arbitrary, for example, the trolley ID selected in SA1 is acquired, a forward tremor signal including the acquired trolley ID and a forward tremor command is generated, and the generated forward tremor signal is used in the communication device 3. It is transmitted to the trolley 1 via. Then, the transmitted forward fine movement signal reaches all the carriages 1 and is received by each carriage 1. The "forward fine movement command" is a command for advancing the carriage 1 by a predetermined distance (for example, about 10 cm to 30 cm). For example, a motor (not shown) of the traveling portion 12 of the carriage 1 is specified clockwise. It is a command to rotate by the amount corresponding to the distance. Here, for example, by acquiring the trolley ID "ID101" selected in SA1 and generating and transmitting a forward tremor signal including the acquired trolley ID "ID101" and a forward tremor command, "ID101" The forward tremor signal including "" will be received by the carriages 101 to 104 of FIG.

一方、前進微動信号を受信した台車1の制御部15は、受信した前進微動信号に含まれている台車IDを取得し、自己の記録部14に格納されている台車IDと当該取得した台車IDとを比較し、これらの各台車IDが相互に合致しない場合は、自己に対する前進微動信号ではないものと判断して制御せずに、各台車IDが相互に合致する場合は、自己に対する前進微動信号であるものと判断して、走行部12の不図示のモーターを時計回りに回転させて台車1を所定距離だけ前進させる。 On the other hand, the control unit 15 of the trolley 1 that has received the forward tremor signal acquires the trolley ID included in the received forward tremor signal, and the trolley ID stored in its own recording unit 14 and the acquired trolley ID. If each of these trolley IDs does not match each other, it is judged that it is not a forward tremor signal for itself and is not controlled. If each trolley ID matches each other, it is determined that it is not a forward tremor signal for itself. Determining that it is a signal, the motor (not shown) of the traveling unit 12 is rotated clockwise to advance the carriage 1 by a predetermined distance.

図7及び図8は、1階部分の平面図であり、図9は、2階部分の平面図である。ここでは、例えば、図1の台車101〜104の制御部15は、「ID101」を含む前進微動信号を受信するので、台車102〜104の制御部15は、前進微動信号に含まれている台車IDである「101」と、自己の台車IDである「ID102」〜「ID104」とが相互に合致しないので、自己に対する前進微動信号ではないものと判断して制御しないことになる。一方、台車101の制御部15は、前進微動信号に含まれている台車IDである「101」と、自己の台車IDである「ID101」とが相互に合致するので、自己に対する前進微動信号であるものと判断して、走行部12の不図示のモーターを時計回りに回転させて台車101を所定距離だけ前進させる。この場合、台車101は、図7に示す位置から図8に示す位置に向かって南側(−Y方向)に向かって所定距離だけ移動することになる。 7 and 8 are plan views of the first floor portion, and FIG. 9 is a plan view of the second floor portion. Here, for example, since the control unit 15 of the carriages 101 to 104 in FIG. 1 receives the forward fine movement signal including the “ID 101”, the control units 15 of the carriages 102 to 104 are included in the forward fine movement signal. Since the ID "101" and the own bogie IDs "ID102" to "ID104" do not match each other, it is determined that the signal is not a forward fine movement signal for the self and is not controlled. On the other hand, the control unit 15 of the trolley 101 uses the forward tremor signal for itself because the trolley ID "101" included in the forward fine movement signal and the own trolley ID "ID101" match each other. Determining that there is, the motor (not shown) of the traveling unit 12 is rotated clockwise to advance the carriage 101 by a predetermined distance. In this case, the carriage 101 moves from the position shown in FIG. 7 toward the position shown in FIG. 8 toward the south side (−Y direction) by a predetermined distance.

図6のSA3において取得部522は、移動部521が台車1を移動させる前後に撮像された対象領域の画像を取得する。具体的には任意であるが、例えば、図2のカメラ2が、所定時間毎(例えば、0.5秒〜1.0秒毎等)に、自己の撮像範囲の画像を撮像して、当該撮像した撮像時間を任意の手法(例えば、カメラ2にタイマーの如き計時手段が設けられており当該計時手段の計時結果を用いて特定する手法等)で特定し、当該撮像した画像及び特定した撮像時間と自己のカメラIDとを相互に対応付けて、サーバ装置5に送信し、サーバ装置5の制御部52が当該カメラ2側からの情報(画像、撮像時間、及びカメラIDが相互に対応付けられている情報)を記録部51に蓄積するように構成されている場合について説明する。つまり、前述の「画像、撮像時間、及びカメラIDが相互に対応付けられている情報」を記録部51に蓄積する処理が、ここで説明している検出処理とは並列に実行されており、台車1を移動させる前後の「画像、撮像時間、及びカメラIDが相互に対応付けられている情報」が記録部51に蓄積されるように構成されていることとして、説明する。なお、この「画像、撮像時間、及びカメラIDが相互に対応付けられている情報」を、「撮像関連情報」と称して以下説明する。つまり、サーバ装置5の記録部51に、所定時間間隔でカメラ2で撮像された画像を含む「撮像関連情報」が蓄積されている場合について説明する。 In SA3 of FIG. 6, the acquisition unit 522 acquires images of the target area captured before and after the moving unit 521 moves the carriage 1. Specifically, although it is arbitrary, for example, the camera 2 in FIG. 2 captures an image of its own imaging range at predetermined time intervals (for example, every 0.5 seconds to 1.0 seconds, etc.). The captured imaging time is specified by an arbitrary method (for example, a method in which the camera 2 is provided with a timing means such as a timer and is specified by using the timing result of the timing means), and the captured image and the specified imaging are specified. The time and its own camera ID are associated with each other and transmitted to the server device 5, and the control unit 52 of the server device 5 associates the information (image, imaging time, and camera ID) from the camera 2 side with each other. A case where the recording unit 51 is configured to store the information) will be described. That is, the process of accumulating the above-mentioned "information in which the image, the imaging time, and the camera ID are associated with each other" in the recording unit 51 is executed in parallel with the detection process described here. It will be described as being configured so that "information in which the image, the imaging time, and the camera ID are associated with each other" before and after moving the carriage 1 is accumulated in the recording unit 51. The "information in which the image, the imaging time, and the camera ID are associated with each other" will be referred to as "imaging-related information" and will be described below. That is, a case where "imaging-related information" including images captured by the camera 2 at predetermined time intervals is stored in the recording unit 51 of the server device 5 will be described.

図6のSA3の処理について詳細には、例えば、記録部51に記録されている「撮像関連情報」の内の、SA2で台車1を移動させる前の情報(以下、「移動前撮像関連情報」)、及びSA2で台車1を移動させた後の情報(以下、「移動後撮像関連情報」)を、撮像関連情報」に含まれるカメラID毎に、図5の設備情報に記録されているカメラID全てについて特定し、特定した情報を取得する。 For details on the processing of SA3 in FIG. 6, for example, among the "imaging-related information" recorded in the recording unit 51, the information before moving the carriage 1 by SA2 (hereinafter, "pre-movement imaging-related information"". ), And the information after the trolley 1 is moved by SA2 (hereinafter, "post-movement imaging-related information") is recorded in the equipment information of FIG. 5 for each camera ID included in the "imaging-related information". Identify all IDs and acquire the identified information.

より詳細には、例えば、まず、サーバ装置5にタイマーの如き不図示の計時手段(カメラ2の計時手段に対応する時間を計時している計時手段)が設けられていることとし、この計時手段の計時結果に基づいてSA2で前進微動信号を送信した時間を特定する(より詳細には、SA2で前進微動信号を送信した時の計時手段の計時結果が記録部51に記録されていることとし、この計時結果に基づいて、SA2で前進微動信号を送信した時間を特定する)。次に、記録部51に記録されている「撮像関連情報」において、当該特定した前進微動信号を送信した時間の直前の時間が撮像時間となっている「撮像関連情報」をカメラID毎に図5の設備情報に記録されているカメラID全てについて特定し、特定した「撮像関連情報」を「移動前撮像関連情報」として取得する。次に、記録部51に記録されている「撮像関連情報」において、当該特定した前進微動信号を送信した時間の後の時間が撮像時間となっている「撮像関連情報」をカメラID毎に図5の設備情報に記録されているカメラID全てについて特定し、特定した「撮像関連情報」を「移動後撮像関連情報」として取得する。なお、ここでの後の時間については、前進微動信号を送信した後に台車1が移動する時間等を考慮して、所定の待ち時間(例えば、SA2の前進微動命令に含まれる処理距離だけ台車1が移動し終える時間よりも十分に長い時間(4秒以上長い時間等)であって、台車1の車速等を考慮して予め定められる時間である5秒〜8秒等)だけ後の時間を採用してもよい。次に、「移動前撮像関連情報」に含まれる画像を、移動部521が台車1を移動させる前に撮像された対象領域の画像として取得し、また、「移動後撮像関連情報」に含まれる画像を、移動部521が台車1を移動させた後に撮像された対象領域の画像として取得する。 More specifically, for example, it is assumed that the server device 5 is provided with a time measuring means (not shown) such as a timer (a time measuring means for measuring the time corresponding to the time measuring means of the camera 2). The time when the forward fine movement signal is transmitted by SA2 is specified based on the time measurement result of (more specifically, it is assumed that the time measurement result of the time measuring means when the forward fine movement signal is transmitted by SA2 is recorded in the recording unit 51. , Based on this timekeeping result, specify the time when the forward tremor signal was transmitted by SA2). Next, in the "imaging-related information" recorded in the recording unit 51, the "imaging-related information" in which the time immediately before the time when the specified forward tremor signal is transmitted is the imaging time is shown for each camera ID. All the camera IDs recorded in the equipment information of No. 5 are specified, and the specified "imaging-related information" is acquired as "pre-movement imaging-related information". Next, in the "imaging-related information" recorded in the recording unit 51, the "imaging-related information" in which the time after the time when the specified forward tremor signal is transmitted is the imaging time is shown for each camera ID. All the camera IDs recorded in the equipment information of No. 5 are specified, and the specified "imaging-related information" is acquired as "post-movement imaging-related information". Regarding the time after this, the trolley 1 is set to a predetermined waiting time (for example, the processing distance included in the forward tremor command of the SA2) in consideration of the time for the trolley 1 to move after transmitting the forward tremor signal. The time is sufficiently longer than the time when the vehicle finishes moving (4 seconds or more longer, etc.), and the time after 5 seconds to 8 seconds, which is a predetermined time in consideration of the vehicle speed of the trolley 1, etc.) It may be adopted. Next, the image included in the "pre-movement imaging-related information" is acquired as an image of the target area captured before the moving unit 521 moves the carriage 1, and is also included in the "post-movement imaging-related information". The image is acquired as an image of the target area captured after the moving unit 521 moves the carriage 1.

ここでは、例えば、カメラID21に対応付けられている台車1を移動させる前に撮像された対象領域の画像(つまり、台車1を移動させる前にカメラ21が撮像した1階部分901の画像)として、図7に図示されている1階部分901を撮像した画像を取得し、また、カメラID21に対応付けられている台車1を移動させた後に撮像された対象領域の画像(つまり、台車1を移動させた後にカメラ21が撮像した1階部分901の画像)として、図8に図示されている1階部分901を撮像した画像を取得する。また、カメラID22に対応付けられている台車1を移動させる前後に撮像された対象領域の画像(つまり、台車1を移動させる前後にカメラ22が撮像した2階部分902の画像)として、図9に図示されている2階部分902を撮像した相互に同様な画像を取得する。 Here, for example, as an image of the target area captured before moving the trolley 1 associated with the camera ID 21 (that is, an image of the first floor portion 901 captured by the camera 21 before moving the trolley 1). , An image of the first floor portion 901 illustrated in FIG. 7 is acquired, and an image of the target area (that is, the trolley 1) captured after moving the trolley 1 associated with the camera ID 21 is obtained. As an image of the first floor portion 901 captured by the camera 21 after being moved), an image of the first floor portion 901 shown in FIG. 8 is acquired. Further, as an image of the target area captured before and after moving the carriage 1 associated with the camera ID 22 (that is, an image of the second floor portion 902 captured by the camera 22 before and after moving the carriage 1), FIG. The second-floor portion 902 illustrated in the above is imaged to obtain images similar to each other.

図6のSA4において検出部523は、台車検出処理を実行する。図10は、台車検出処理のフローチャートである。「台車検出処理」とは、例えば、SA3で取得した画像にもとづいて台車を検出する処理である。 In SA4 of FIG. 6, the detection unit 523 executes the trolley detection process. FIG. 10 is a flowchart of the trolley detection process. The "trolley detection process" is, for example, a process of detecting a trolley based on an image acquired by SA3.

図10のSB1において検出部523は、SA3で取得した画像を、「撮像関連情報」のカメラIDを基準にして、相互に同じカメラ2で撮像された、台車1を移動させる前に撮像された対象領域の画像(以下、「移動前対象領域画像」)、及び台車1を移動させた後に撮像された対象領域の画像(以下、「移動後対象領域画像」)の組み合わせに分ける。ここでは、例えば、カメラIDである「ID21」を基準にした図7及び図8の1階部分901を撮像した画像の組み合わせ、及びカメラIDである「ID22」を基準にした図9の2階部分902を撮像した画像の組み合わせに分ける。 In SB1 of FIG. 10, the detection unit 523 captured the image acquired by the SA3 with reference to the camera ID of the “imaging-related information” before moving the trolley 1, which was imaged by the same camera 2 to each other. It is divided into a combination of an image of the target area (hereinafter, "target area image before movement") and an image of the target area captured after moving the trolley 1 (hereinafter, "target area image after movement"). Here, for example, a combination of images obtained by capturing the first floor portion 901 of FIGS. 7 and 8 based on the camera ID “ID21”, and the second floor of FIG. 9 based on the camera ID “ID22”. Part 902 is divided into a combination of captured images.

図10のSB2において検出部523は、SB1で分けた組み合わせの画像の内の、未選択の組み合わせの画像を選択する。ここでは、例えば、「移動前対象領域画像」である図7の1階部分901の画像、及び「移動後対象領域画像」である図8の1階部分901の画像の組み合わせを選択する。 In SB2 of FIG. 10, the detection unit 523 selects an image of an unselected combination from the images of the combination divided by SB1. Here, for example, a combination of the image of the first floor portion 901 of FIG. 7 which is the “pre-movement target area image” and the image of the first floor portion 901 of FIG. 8 which is the “post-movement target area image” is selected.

図10のSB3において検出部523は、SB2で選択した画像に対応する対象領域に、図6のSA1で選択された台車IDに対応する検出対象の台車1が存在する可能性があるか否かを判定する。具体的には任意であるが、例えば、SB2で選択した「移動前対象領域画像」及び「移動後対象領域画像」について画像認識を行うことにより、台車1が存在するか否かを判定する。そして、「移動前対象領域画像」又は「移動後対象領域画像」の少なくとも一方において、画像認識にて台車1を1個も認識できなかった場合、検出対象の台車1が存在する可能性がないものと判定し(SB3のNO)、SB6へ移行する。また、「移動前対象領域画像」及び「移動後対象領域画像」の両方において、画像認識にて台車1を1個以上認識できた場合、検出対象の台車1が存在する可能性があるものと判定し(SB3のYES)、SB4へ移行する。ここでは、例えば、図7の1階部分901の画像及び図8の1階部分901の画像について画像認識において4個の台車1を認識できるので、この場合、検出対象の台車1が存在する可能性があるものと判定する。なお、ここでの画像認識では、4個の台車1が相互に同様であるので、台車101〜104を識別することは行われないことになる。 In SB3 of FIG. 10, the detection unit 523 may or may not have the dolly 1 to be detected corresponding to the dolly ID selected in SA1 of FIG. 6 in the target area corresponding to the image selected in SB2. To judge. Specifically, although it is arbitrary, for example, it is determined whether or not the trolley 1 exists by performing image recognition on the "pre-movement target area image" and the "post-movement target area image" selected in SB2. Then, if no trolley 1 can be recognized by image recognition in at least one of the "target area image before movement" or the "target area image after movement", there is no possibility that the trolley 1 to be detected exists. It is determined that it is (NO of SB3), and the process proceeds to SB6. Further, if one or more trolleys 1 can be recognized by image recognition in both the "target area image before movement" and the "target area image after movement", there is a possibility that the trolley 1 to be detected exists. Judgment (YES of SB3), and shift to SB4. Here, for example, four trolleys 1 can be recognized in image recognition for the image of the first floor portion 901 of FIG. 7 and the image of the first floor portion 901 of FIG. 8, so that the trolley 1 to be detected may exist in this case. Judge as having sex. In the image recognition here, since the four carriages 1 are similar to each other, the carriages 101 to 104 cannot be identified.

図10のSB4において検出部523は、SB2で選択した「移動前対象領域画像」及び「移動後対象領域画像」の相互間に差分が存在するか否かを判定する。具体的には任意であるが、例えば、SB2で選択した「移動前対象領域画像」及び「移動後対象領域画像」をSB1で分けた基準のカメラIDを特定し、図4の設備情報を参照して当該特定したカメラIDに対応する設置位置情報を特定し、図2の記録部51の図面情報において、特定した設置位置情報の階数に対応する階数の図面情報を、SB2で選択した「移動前対象領域画像」及び「移動後対象領域画像」に対応する図面情報として参照することにより、SB2で選択した「移動前対象領域画像」及び「移動後対象領域画像」についてSB3の画像認識で認識した台車1の位置を、前述の参照した図面情報が特定する図面上の座標を用いて特定し、特定結果に基づいて判定する。そして、「移動前対象領域画像」及び「移動後対象領域画像」について特定した台車1の座標が全て相互に同じである場合、差分が存在しないものと判定し(SB4のNO)、検出対象の台車1の存在を検出せずに(つまり、SB2で選択した「移動前対象領域画像」及び「移動後対象領域画像」をSB1で分けた基準のカメラIDに対応する対象領域に検出対象の台車1が存在しないことを検出し)、SB6に移行する。また、「移動前対象領域画像」及び「移動後対象領域画像」について特定した台車1の座標が全て同じでない場合(つまり、相互に異なるものが存在する場合)、差分が存在するものと判定し(SB4のYES)、検出対象の台車1の存在を検出し(つまり、SB2で選択した「移動前対象領域画像」及び「移動後対象領域画像」をSB1で分けた基準のカメラIDに対応する対象領域に検出対象の台車1が存在することを検出し)、SB5に移行する。 In SB4 of FIG. 10, the detection unit 523 determines whether or not there is a difference between the “pre-movement target area image” and the “post-movement target area image” selected in SB2. Specifically, although it is arbitrary, for example, the reference camera ID in which the “pre-movement target area image” and the “post-movement target area image” selected in SB2 are divided by SB1 is specified, and the equipment information in FIG. 4 is referred to. Then, the installation position information corresponding to the specified camera ID is specified, and in the drawing information of the recording unit 51 in FIG. 2, the drawing information of the number of floors corresponding to the number of floors of the specified installation position information is selected in SB2 as "move". By referring to the drawing information corresponding to the "pre-target area image" and the "post-movement target area image", the "pre-movement target area image" and the "post-movement target area image" selected in SB2 are recognized by the image recognition of SB3. The position of the trolley 1 is specified by using the coordinates on the drawing specified by the above-mentioned referenced drawing information, and is determined based on the specific result. Then, when the coordinates of the trolley 1 specified for the "pre-movement target area image" and the "post-movement target area image" are all the same, it is determined that there is no difference (NO in SB4), and the detection target is detected. Without detecting the existence of the trolley 1 (that is, the trolley to be detected in the target area corresponding to the reference camera ID obtained by dividing the "pre-movement target area image" and the "post-movement target area image" selected in SB2 by SB1. Detects that 1 does not exist) and shifts to SB6. Further, when the coordinates of the trolley 1 specified for the "target area image before movement" and the "target area image after movement" are not all the same (that is, when there are different ones), it is determined that there is a difference. (YES of SB4), the existence of the trolley 1 to be detected is detected (that is, the "pre-movement target area image" and the "post-movement target area image" selected in SB2 correspond to the reference camera ID divided by SB1. Detects that the trolley 1 to be detected exists in the target area), and shifts to SB5.

ここでは、例えば、SB2で選択した図7の1階部分901の画像及び図8の1階部分901の画像において、図2の記録部51の図面情報の1階部分901の平面図を特定する図面情報を参照することにより、各画像についてSB3の画像認識で認識した台車1の位置を、当該1階部分901の平面図上の座標を用いて特定するが、一例としては、図7の台車101の座標である「(x11,y11)」及び台車102の座標である「(x13,y11)」等、及び図8の台車101の座標である「(x11,y00)」及び台車102の座標である「(x13,y11)」等を特定し、台車101の座標が「(x11,y11)」と「(x11,y00)」とで相互に異なるので、差分が存在するものと判定し、検出対象の台車1が1階部分901に存在することを検出する。 Here, for example, in the image of the first floor portion 901 of FIG. 7 and the image of the first floor portion 901 of FIG. 8 selected in SB2, the plan view of the first floor portion 901 of the drawing information of the recording unit 51 of FIG. 2 is specified. By referring to the drawing information, the position of the trolley 1 recognized by the image recognition of SB3 for each image is specified by using the coordinates on the plan view of the first floor portion 901. As an example, the trolley of FIG. 7 is specified. "(X11, y11)" which is the coordinates of 101 and "(x13, y11)" which is the coordinates of the trolley 102, and "(x11, y00)" which is the coordinates of the trolley 101 of FIG. 8 and the coordinates of the trolley 102. "(X13, y11)" and the like are specified, and since the coordinates of the trolley 101 are different between "(x11, y11)" and "(x11, y00)", it is determined that there is a difference. It is detected that the trolley 1 to be detected exists in the first floor portion 901.

図10のSB5において検出部523は、検出対象の台車1の位置及び向きを検出する。具体的には任意であるが、例えば、まず、SB2で選択した「移動前対象領域画像」及び「移動後対象領域画像」をSB1で分けた基準のカメラIDを特定し、図4の設備情報を参照して当該特定したカメラIDに対応する設置位置情報を特定し、特定した設置位置情報が特定する階数を検出対象の台車1が設けられている階数として検出する。次に、SB4にて特定した台車1の座標(記録部51の図面情報が特定する図面上の座標)において、「移動前対象領域画像」及び「移動後対象領域画像」間で相互に異なっている座標を特定する。次に、特定した各座標の内の「移動前対象領域画像」の座標を検出対象の台車1の移動前の位置として特定し、また、特定した各位置の内の「移動後対象領域画像」の座標を検出対象の台車1の移動後の位置として特定し、特定したこれらの位置の内の、台車1の移動前の位置を台車1の位置として検出し、「移動前対象領域画像」における当該検出した位置に設けられている台車1を検出対象の台車として検出する。次に、前述の特定した検出対象の台車1の移動前の位置から、検出対象の台車1の移動後の位置に向かう方向を、検出対象の台車1の正面側の向きとして検出し、リターンする。 In SB5 of FIG. 10, the detection unit 523 detects the position and orientation of the dolly 1 to be detected. Specifically, although it is optional, for example, first, the reference camera ID in which the “pre-movement target area image” and the “post-movement target area image” selected in SB2 are divided by SB1 is specified, and the equipment information in FIG. 4 is specified. The installation position information corresponding to the specified camera ID is specified with reference to, and the number of floors specified by the specified installation position information is detected as the number of floors on which the trolley 1 to be detected is provided. Next, in the coordinates of the trolley 1 specified by SB4 (coordinates on the drawing specified by the drawing information of the recording unit 51), the "pre-movement target area image" and the "post-movement target area image" are different from each other. Identify the coordinates. Next, the coordinates of the "pre-movement target area image" in each of the specified coordinates are specified as the position before the movement of the trolley 1 to be detected, and the "post-movement target area image" in each of the specified positions is specified. The coordinates of the above are specified as the positions after the movement of the trolley 1 to be detected, and among these specified positions, the position before the movement of the trolley 1 is detected as the position of the trolley 1, and in the "pre-movement target area image". The trolley 1 provided at the detected position is detected as the trolley to be detected. Next, the direction from the position before the movement of the identified trolley 1 to be detected to the position after the movement of the trolley 1 to be detected is detected as the front side direction of the trolley 1 to be detected and returned. ..

ここでは、例えば、まず、SB2で選択した「移動前対象領域画像」及び「移動後対象領域画像」をSB1で分けた基準のカメラIDである「ID21」を特定し、図4の設備情報を参照して当該特定したカメラIDである「ID21」に対応する設置位置情報である「1階」を特定し、特定した「1階」を検出対象の台車1が設けられている階数として検出する。次に、SB4にて特定した台車1の位置(記録部51の図面情報が特定する図面上の座標)において、「移動前対象領域画像」及び「移動後対象領域画像」間で相互に異なっている位置として前述の台車101の座標である「(x11,y11)」と「(x11,y00)」を特定する。次に、特定した各位置の内の「移動前対象領域画像」の位置である「(x11,y11)」を検出対象の台車1の移動前の位置として特定し、また、特定した各位置の内の「移動後対象領域画像」の位置である「(x11,y00)」を検出対象の台車1の移動後の位置として特定し、特定したこれらの位置の内の、台車1の移動前の位置である「(x11,y11)」を台車1の位置として検出し、「移動前対象領域画像」における当該検出した位置である「(x11,y11)」に設けられている台車101を検出対象の台車として検出する。次に、前述の特定した検出対象の台車101の移動前の位置である「(x11,y11)」から、検出対象の台車1の移動後の位置である「(x11,y00)」に向かう方向である「南」の方向(−Y方向)を、検出対象の台車1の正面側の向きとして検出し、リターンする。 Here, for example, first, the “pre-movement target area image” and the “post-movement target area image” selected in SB2 are separated by SB1 to identify the reference camera ID “ID21”, and the equipment information in FIG. 4 is obtained. By referring to the specified camera ID, the installation position information "1st floor" corresponding to the specified camera ID "ID21" is specified, and the specified "1st floor" is detected as the number of floors on which the trolley 1 to be detected is provided. .. Next, at the position of the trolley 1 specified by SB4 (coordinates on the drawing specified by the drawing information of the recording unit 51), the "pre-movement target area image" and the "post-movement target area image" are different from each other. The coordinates "(x11, y11)" and "(x11, y00)" of the above-mentioned trolley 101 are specified as the positions. Next, "(x11, y11)", which is the position of the "pre-movement target area image" in each of the specified positions, is specified as the position before the movement of the trolley 1 to be detected, and the specified positions are also specified. "(X11, y00)", which is the position of the "post-movement target area image" in the above, is specified as the position after the movement of the trolley 1 to be detected, and among these specified positions, before the movement of the trolley 1. The position "(x11, y11)" is detected as the position of the trolley 1, and the trolley 101 provided at the detected position "(x11, y11)" in the "pre-movement target area image" is detected. Detected as a dolly. Next, the direction from "(x11, y11)", which is the position before the movement of the identified trolley 101 to be detected, to "(x11, y00)", which is the position after the movement of the trolley 1 to be detected. The direction of "south" (-Y direction) is detected as the direction of the front side of the dolly 1 to be detected, and the vehicle returns.

一方、図10のSB3の処理にて検出対象の台車1が存在する可能性がないものと判定した後(SB3のNO)、あるいは、SB4の処理にて差分が存在しないものと判定した(SB4のNO)後に実行されるSB6において、検出部523は、台車検出処理をリターンするか否かを判定する。具体的には任意であるが、例えば、SB1で分けた組み合わせ全てについて、SB2で選択したか否かに基づいて判定する。そして、全てについて選択したものと判定した場合、台車検出処理をリターンするものと判定し(SB6のYES)、リターンする。また、全てについて選択したわけではないものと判定した場合、台車検出処理をリターンしないものと判定し(SB6のNO)、SB2に移行し、繰り返し上述の処理を行う。 On the other hand, after determining that there is no possibility that the trolley 1 to be detected exists in the processing of SB3 in FIG. 10 (NO in SB3), or in the processing of SB4, it is determined that there is no difference (SB4). NO) In SB6 executed after, the detection unit 523 determines whether or not to return the carriage detection process. Specifically, it is arbitrary, but for example, all the combinations divided by SB1 are determined based on whether or not they are selected by SB2. Then, when it is determined that all of them have been selected, it is determined that the carriage detection process is returned (YES in SB6), and the return is performed. Further, when it is determined that not all of them have been selected, it is determined that the carriage detection process does not return (NO of SB6), the process proceeds to SB2, and the above-mentioned process is repeated.

図6のSA5において移動部521は、台車1を移動させることにより、SA2での移動前の位置に戻す。具体的には任意であるが、例えば、SA1で選択した台車IDを取得し、取得した台車IDと後進微動命令とを含む後進微動信号を生成し、生成した後進微動信号を、通信装置3を介して台車1に送信する。そして、この送信された後進微動信号は、全ての台車1に到達して各台車1にて受信されることになる。なお、「後進微動命令」とは、台車1を所定距離(例えば、前進微動命令の所定距離と同じであり、10cm程度〜30cm程度)だけ後進させるための命令であり、例えば、台車1の走行部12の不図示モーターを反時計回りに所定距離に対応する分だけ回転させるための命令である。ここでは、例えば、SA1で選択した台車IDである「ID101」を取得し、取得した台車IDである「ID101」と後進微動命令とを含む前後進微動信号を生成して送信することにより、「ID101」を含む後進微動信号は、図1の台車101〜104にて受信されることになる。 In SA5 of FIG. 6, the moving unit 521 returns to the position before the movement in SA2 by moving the carriage 1. Specifically, although it is arbitrary, for example, the trolley ID selected in SA1 is acquired, a reverse tremor signal including the acquired trolley ID and a reverse tremor command is generated, and the generated reverse tremor signal is used in the communication device 3. It is transmitted to the trolley 1 via. Then, the transmitted reverse fine movement signal reaches all the carriages 1 and is received by each carriage 1. The "backward fine movement command" is a command for moving the bogie 1 backward by a predetermined distance (for example, the same as the predetermined distance of the forward fine movement command, about 10 cm to 30 cm), and for example, the traveling of the bogie 1. This is a command for rotating a motor (not shown) of unit 12 counterclockwise by a predetermined distance. Here, for example, by acquiring the trolley ID "ID101" selected in SA1, generating and transmitting a forward / backward tremor signal including the acquired trolley ID "ID101" and a reverse tremor command, " The reverse fine movement signal including "ID101" will be received by the carriages 101 to 104 of FIG.

一方、後進微動信号を受信した台車1の制御部15は、受信した後進微動信号に含まれている台車IDを取得し、SA2で説明した場合と同様な処理を行って、自己に対する後進微動信号であるものと判断した場合に、走行部12の不図示のモーターを反時計回りに回転させて台車1を所定距離だけ後進させる。 On the other hand, the control unit 15 of the trolley 1 that has received the reverse tremor signal acquires the trolley ID included in the received reverse tremor signal, performs the same processing as that described in SA2, and performs the reverse tremor signal for itself. When it is determined that the above is true, the motor (not shown) of the traveling unit 12 is rotated counterclockwise to move the carriage 1 backward by a predetermined distance.

ここでは、例えば、図8の台車101の制御部15は、後進微動信号に含まれている台車IDである「101」と、自己の台車IDである「ID101」とが相互に合致するので、自己に対する後進微動信号であるものと判断して、走行部12の不図示のモーターを反時計回りに回転させて台車101を所定距離だけ後進させる。この場合、台車101は、図8に示す位置から図7に示す位置に向かって北側(+Y方向)に向かって所定距離だけ移動し、SA2での移動前の位置に戻ることになる。 Here, for example, in the control unit 15 of the dolly 101 of FIG. 8, the dolly ID “101” included in the reverse fine movement signal and the own dolly ID “ID 101” match each other. Determining that it is a reverse tremor signal with respect to itself, the motor (not shown) of the traveling unit 12 is rotated counterclockwise to move the dolly 101 backward by a predetermined distance. In this case, the dolly 101 moves from the position shown in FIG. 8 toward the position shown in FIG. 7 toward the north side (+ Y direction) by a predetermined distance, and returns to the position before the movement in SA2.

図6のSA6において検出部523は、SA4の処理結果に基づいて、図5の台車情報における台車位置情報を格納する。具体的には任意であるが、例えば、SA1で選択した台車IDを取得し、また、図10のSB5で検出した階数、座標、及び向きを取得した上で、図5の台車情報における、前述の取得した台車IDに対応する台車位置情報として、取得した階数及び座標に対応する情報を格納し、また、図5の台車情報における、前述の取得した台車IDに対応する台車方向情報として、取得した向きに対応する情報を格納する。ここでは、例えば、SA1で選択した台車IDである「ID101」を取得し、また、図10のSB5で検出した階数である「1階」、座標である「(x11,y11)」、及び向きである「南」を取得した上で、図5の台車情報における、最上段に図示されている情報を格納する。 In SA6 of FIG. 6, the detection unit 523 stores the trolley position information in the trolley information of FIG. 5 based on the processing result of SA4. Specifically, although it is arbitrary, for example, after acquiring the trolley ID selected in SA1 and the number of floors, coordinates, and orientation detected in SB5 in FIG. 10, the above-mentioned trolley information in FIG. 5 is described above. The information corresponding to the acquired floor number and coordinates is stored as the trolley position information corresponding to the acquired trolley ID, and the trolley direction information corresponding to the acquired trolley ID in the trolley information of FIG. 5 is acquired. Stores the information corresponding to the orientation. Here, for example, the dolly ID "ID101" selected in SA1 is acquired, and the number of floors "1st floor" detected in SB5 of FIG. 10, the coordinates "(x11, y11)", and the orientation. After acquiring the "south", the information shown at the top of the trolley information of FIG. 5 is stored.

なお、ここでは、例えば、図10の台車検出処理においては、例えば、SB5で検出した階数、座標、及び向きを検出しない場合も想定されるが、このような場合、SA6の処理はスキップしてSA7に移行することとしてもよい。 Here, for example, in the trolley detection process of FIG. 10, it is assumed that the floor number, coordinates, and orientation detected by SB5 are not detected, but in such a case, the SA6 process is skipped. It may be possible to shift to SA7.

図6のSA7において制御部52は、検出処理を終了するか否かを判定する。具体的には任意であるが、例えば、検出処理の起動時に受信した操作信号に含まれている台車IDをSA1にて全て選択したか否かに基づいて判定する。そして、全て選択したものと判定した場合、検出処理を終了するものと判定し(SA7のYES)、終了する。また、全て選択したわけではないものと判定した場合、検出処理を終了しないものと判定し(SA7のNO)、SA1に移行し、繰り返し上述の処理を行う。これにて、検出処理を終了する。 In SA7 of FIG. 6, the control unit 52 determines whether or not to end the detection process. Specifically, it is arbitrary, but for example, it is determined based on whether or not all the trolley IDs included in the operation signal received at the start of the detection process are selected by SA1. Then, when it is determined that all of them have been selected, it is determined that the detection process is terminated (YES of SA7), and the process is terminated. Further, when it is determined that not all of them have been selected, it is determined that the detection process is not completed (NO of SA7), the process proceeds to SA1, and the above-mentioned process is repeated. This ends the detection process.

(処理−移動処理)
次に、移動処理について説明する。「移動処理」とは、概略的には、サーバ装置5によって実行される処理であり、例えば、検出部523の検出結果に基づいて、台車1の移動を操作する処理である。この移動処理が実行されるタイミングは任意であるが、例えば、図6の検出処理を行うことにより、図5の台車情報における台車位置情報及び台車方向情報が格納された台車IDに対応する台車名を、サーバ装置5が通信装置3を介して端末装置4に送信することにより、端末装置4のユーザに表示して報知するように構成されていることとする。そして、この台車名を確認したユーザが、端末装置4のタッチパネルに表示されている台車名の内の1個の台車名と、台車1の目的地情報を入力した場合に、当該台車名に対応する台車ID及び当該目的地情報を含む移動信号を端末装置4がサーバ装置5側に送信し、サーバ装置5の制御部52が当該移動信号を通信装置3を介して受信した場合に移動処理が起動されることとし、当該移動処理が起動したところから説明する。ここでは、例えば、図1の台車101の台車名である「1号機」、及び「1号機」の移動の目的地を特定する目的地情報として2階部分902の座標である「2階,(x99,y99)」を入力した場合に、端末装置4が「ID101」及び「2階,(x99,y99)」を含む移動信号をサーバ装置5に送信し、当該操作信号をサーバ装置5が受信して移動処理が起動された場合を例示して説明する。
(Processing-Move processing)
Next, the movement process will be described. The "movement process" is generally a process executed by the server device 5, and is, for example, a process of operating the movement of the carriage 1 based on the detection result of the detection unit 523. The timing at which this movement process is executed is arbitrary, but for example, by performing the detection process of FIG. 6, the dolly name corresponding to the dolly ID in which the dolly position information and the dolly direction information in the dolly information of FIG. 5 are stored. Is configured to be displayed and notified to the user of the terminal device 4 by transmitting the server device 5 to the terminal device 4 via the communication device 3. Then, when the user who confirms the dolly name inputs the dolly name of one of the dolly names displayed on the touch panel of the terminal device 4 and the destination information of the dolly 1, the dolly name corresponds to the dolly name. When the terminal device 4 transmits a moving signal including the dolly ID and the destination information to the server device 5 and the control unit 52 of the server device 5 receives the moving signal via the communication device 3, the moving process is performed. It is assumed that the movement process is started, and the description will be made from the place where the movement process is started. Here, for example, the dolly name of the dolly 101 in FIG. 1 is "Unit 1", and the coordinates of the second floor portion 902 as the destination information for specifying the destination of movement of the "Unit 1", "2nd floor, ( When "x99, y99)" is input, the terminal device 4 transmits a mobile signal including "ID101" and "second floor, (x99, y99)" to the server device 5, and the server device 5 receives the operation signal. The case where the movement process is started will be described as an example.

移動操作部524は、台車1を目的地に向けて遠隔操作して移動させる。具体的には任意であるが、例えば、概略的には、図6のSA3で説明したように、カメラ2から所定時間毎に送信される対象領域の画像において、図5の台車位置情報及び台車方向情報を用いて画像認識することにより、移動処理の起動時に受信した移動信号に含まれている台車IDの台車1を、当該移動信号に含まれている目的地情報が特定する目的地に遠隔操作して移動させる。 The movement operation unit 524 remotely controls the dolly 1 toward the destination to move the dolly 1. Specifically, although it is optional, for example, roughly, as described in SA3 of FIG. 6, in the image of the target area transmitted from the camera 2 at predetermined time intervals, the dolly position information and the dolly of FIG. 5 are shown. By recognizing the image using the direction information, the dolly 1 of the dolly ID included in the movement signal received at the start of the movement processing is remoted to the destination specified by the destination information included in the movement signal. Operate and move.

詳細には、例えば、まず、移動処理の起動時に受信した移動信号に含まれている台車IDを取得し、図5の台車情報において、当該取得した台車IDに対応する台車位置情報及び台車方向情報を取得する。次に、カメラ2から所定時間間隔毎に送信させる対象領域の画像の内の、前述の取得した台車位置情報が特定する階数を撮像した画像において、前述の取得した台車位置情報が特定する位置に設けられている台車1を、移動させる対象の台車1として認識し、また、前述の取得した台車方向情報が特定する台車1の向きを当該認識した台車1の向きとして認識する。次に、図2の記録部51に記録されている図面情報を適宜参照して、認識した移動させる対象の台車1を、当該移動信号に含まれている目的地情報が特定する目的地に移動させるためのルートである移動ルートを、前述の認識した台車1の向きも考慮して生成する。次に、カメラ2から送信される画像において、移動させる台車1の位置及び当該台車1の周辺の状況(例えば、障害物の有無等)を特定しつつ、前述の生成した移動ルートに沿って目的地に移動させる。なお、ここでの移動させるための具体的な制御は任意であり、例えば、通信装置3を介して適宜のタイミングで、前述の認識した台車1の向きも考慮して、図2の台車1の走行部12及び操舵部13を制御する制御信号を無線送信することにより制御することとする。 Specifically, for example, first, the trolley ID included in the movement signal received at the start of the movement processing is acquired, and in the trolley information of FIG. 5, the trolley position information and the trolley direction information corresponding to the acquired trolley ID are obtained. To get. Next, in the image of the target area transmitted from the camera 2 at predetermined time intervals, in the image of the number of floors specified by the above-mentioned acquired trolley position information, at the position specified by the above-mentioned acquired trolley position information. The provided trolley 1 is recognized as the trolley 1 to be moved, and the orientation of the trolley 1 specified by the acquired trolley direction information described above is recognized as the recognized trolley 1. Next, with reference to the drawing information recorded in the recording unit 51 of FIG. 2 as appropriate, the recognized trolley 1 to be moved is moved to the destination specified by the destination information included in the movement signal. A movement route, which is a route for making the vehicle, is generated in consideration of the orientation of the dolly 1 recognized above. Next, in the image transmitted from the camera 2, the purpose is along the above-mentioned generated movement route while specifying the position of the trolley 1 to be moved and the situation around the trolley 1 (for example, the presence or absence of an obstacle). Move to the ground. The specific control for moving the trolley 1 here is arbitrary. For example, in consideration of the orientation of the trolley 1 recognized above at an appropriate timing via the communication device 3, the trolley 1 in FIG. 2 It is controlled by wirelessly transmitting a control signal for controlling the traveling unit 12 and the steering unit 13.

図11は、台車の移動ルートを例示した図である。ここでは、例えば、まず、移動処理の起動時に受信した移動信号に含まれている台車IDである「ID101」を取得し、図5の台車情報において、当該取得した台車IDである「ID101」に対応する台車位置情報である「1階,(x11,y11)」及び台車方向情報である「180」を取得する。次に、カメラ2から所定時間間隔毎に送信させる対象領域の画像の内の、前述の取得した台車位置情報である「1階,(x11,y11)」が特定する階数である「1階」を撮像したカメラ21からの画像において、前述の取得した台車位置情報「1階,(x11,y11)」が特定する位置に設けられている台車101を、移動させる対象の台車1として認識し、また、前述の取得した台車方向情報が特定する台車101の向きである「180」に対応する「南」の方向を当該認識した台車101の向きとして認識する。次に、図2の記録部51に記録されている図面情報を適宜参照して、認識した移動させる対象の台車101を、当該移動信号に含まれている目的地情報である「2階,(x99,y99)」が特定する目的地に移動させるためのルートとして図11の移動ルートを生成する。次に、カメラ2から送信される画像において台車101の位置及び当該台車101の周辺の状況(例えば、障害物の有無等)を特定しつつ、前述の生成した移動ルートに沿って目的地に移動させる。そして、このように処理することにより、時々刻々と変化する可能性がある台車101の周辺の状況を、所定時間間隔でカメラ2から受信する画像に基づいて把握した上で、台車101を自動的に目的地まで移動させることが可能となる。なお、ここでは、エレベータ903の制御も行うことにより、台車101を目的地に移動させることが可能となる。これにて、移動処理を終了する。 FIG. 11 is a diagram illustrating the movement route of the dolly. Here, for example, first, the trolley ID "ID101" included in the movement signal received at the start of the movement processing is acquired, and in the trolley information of FIG. 5, the acquired trolley ID "ID101" is used. The corresponding trolley position information "1st floor, (x11, y11)" and the trolley direction information "180" are acquired. Next, in the image of the target area transmitted from the camera 2 at predetermined time intervals, the “1st floor” which is the number of floors specified by the “1st floor, (x11, y11)” which is the above-mentioned acquired trolley position information. In the image from the camera 21 that captured the image, the trolley 101 provided at the position specified by the above-mentioned acquired trolley position information "1st floor, (x11, y11)" is recognized as the trolley 1 to be moved. Further, the direction of "south" corresponding to the direction "180" of the dolly 101 specified by the above-mentioned acquired dolly direction information is recognized as the direction of the recognized dolly 101. Next, with reference to the drawing information recorded in the recording unit 51 of FIG. 2 as appropriate, the recognized trolley 101 to be moved is referred to the destination information included in the movement signal, "2nd floor, ( The movement route shown in FIG. 11 is generated as a route for moving to the destination specified by "x99, y99)". Next, while specifying the position of the trolley 101 and the situation around the trolley 101 (for example, the presence or absence of obstacles) in the image transmitted from the camera 2, the user moves to the destination along the generated movement route described above. Let me. Then, by processing in this way, the situation around the dolly 101, which may change from moment to moment, is grasped based on the image received from the camera 2 at predetermined time intervals, and then the dolly 101 is automatically operated. It is possible to move to the destination. Here, by also controlling the elevator 903, the dolly 101 can be moved to the destination. This ends the move process.

(本実施の形態の効果)
本実施の形態によれば、台車1を移動させる前後に撮像された倉庫900の1階部分901及び2階部分902の画像の相互間の差分(つまり、台車1を移動させる前後の倉庫900の1階部分901の画像の差分、及び台車1を移動させる前後の倉庫900の2階部分902の画像の差分)に基づいて、台車1を検出することにより、例えば、遮蔽物(例えば、柱や設置済資材等)にて台車1の一部が隠れて画像に写っていない場合であっても、台車1を検出することができるので、台車1を確実に検出することが可能となる。また、例えば、台車1に検出用のマーカーやランプ等を設置する作業等を行う必要がないので、台車1を高効率で検出することが可能となる。また、例えば、人により無計画で使用順序に意図・関係がなく、無造作に並べられてしまった台車1を、高効率で確実に検出することが可能となる。
(Effect of this embodiment)
According to the present embodiment, the difference between the images of the first floor portion 901 and the second floor portion 902 of the warehouse 900 captured before and after moving the trolley 1 (that is, the difference between the images of the warehouse 900 before and after moving the trolley 1). By detecting the trolley 1 based on the difference between the images of the first floor portion 901 and the difference between the images of the second floor portion 902 of the warehouse 900 before and after moving the trolley 1, for example, a shield (for example, a pillar or a pillar) Even if a part of the trolley 1 is hidden by the installed materials or the like and is not shown in the image, the trolley 1 can be detected, so that the trolley 1 can be reliably detected. Further, for example, since it is not necessary to install a marker, a lamp, or the like for detection on the trolley 1, the trolley 1 can be detected with high efficiency. Further, for example, it is possible to reliably detect the trolleys 1 that have been randomly arranged by a person without any intention or relationship in the order of use with high efficiency.

また、台車1が存在し得る各倉庫900の1階部分901及び2階部分902における台車1の有無を検出することにより、例えば、台車1の有無を考慮して台車1に関する任意の処理(例えば、台車1を遠隔操作する処理等)を行うことが可能となる。 Further, by detecting the presence or absence of the dolly 1 in the first floor portion 901 and the second floor portion 902 of each warehouse 900 in which the dolly 1 can exist, for example, arbitrary processing related to the dolly 1 (for example, considering the presence or absence of the dolly 1) is taken into consideration. , Processing for remote control of the dolly 1 etc.) can be performed.

また、台車1の位置を検出することにより、例えば、台車1の位置を考慮して台車1に関する任意の処理(例えば、台車1を遠隔操作する処理等)を行うことが可能となる。 Further, by detecting the position of the dolly 1, for example, it is possible to perform arbitrary processing related to the dolly 1 (for example, a process of remotely controlling the dolly 1) in consideration of the position of the dolly 1.

また、台車1の向きを検出することにより、例えば、台車1の向きを考慮して台車1に関する任意の処理(例えば、台車1を遠隔操作する処理等)を行うことが可能となる。 Further, by detecting the orientation of the trolley 1, for example, it is possible to perform arbitrary processing related to the trolley 1 (for example, a processing for remotely controlling the trolley 1) in consideration of the orientation of the trolley 1.

また、検出部523の検出結果に基づいて、台車1の移動を操作することにより、例えば、台車1を移動させることができるので、台車1に関する利便性を向上させることが可能となる。 Further, by operating the movement of the trolley 1 based on the detection result of the detection unit 523, for example, the trolley 1 can be moved, so that the convenience of the trolley 1 can be improved.

〔III〕実施の形態に対する変形例
以上、本発明に係る実施の形態について説明したが、本発明の具体的な構成及び手段は、特許請求の範囲に記載した各発明の技術的思想の範囲内において、任意に改変及び改良することができる。以下、このような変形例について説明する。
[III] Modifications to the Embodiment The embodiments according to the present invention have been described above, but the specific configuration and means of the present invention are within the scope of the technical idea of each invention described in the claims. Can be arbitrarily modified and improved. Hereinafter, such a modification will be described.

(解決しようとする課題や発明の効果について)
まず、発明が解決しようとする課題や発明の効果は、上述の内容に限定されるものではなく、発明の実施環境や構成の細部に応じて異なる可能性があり、上述した課題の一部のみを解決したり、上述した効果の一部のみを奏したりすることがある。
(About the problem to be solved and the effect of the invention)
First, the problem to be solved by the invention and the effect of the invention are not limited to the above-mentioned contents, and may differ depending on the implementation environment and the details of the configuration of the invention, and only a part of the above-mentioned problems. Or may produce only some of the effects described above.

(分散や統合について)
また、上述した各電気的構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散や統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散又は統合して構成できる。また、本出願における「システム」とは、複数の装置によって構成されたものに限定されず、単一の装置によって構成されたものを含む。また、本出願における「装置」とは、単一の装置によって構成されたものに限定されず、複数の装置によって構成されたものを含む。
(About distribution and integration)
Further, each of the above-mentioned electrical components is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of dispersion or integration of each part is not limited to the one shown in the figure, and all or part of them are functionally or physically dispersed or integrated in arbitrary units according to various loads and usage conditions. Can be configured. Further, the "system" in the present application is not limited to a system composed of a plurality of devices, but includes a system composed of a single device. Further, the "device" in the present application is not limited to a device composed of a single device, but includes a device composed of a plurality of devices.

(形状、数値、構造、時系列について)
実施の形態や図面において例示した構成要素に関して、形状、数値、又は複数の構成要素の構造若しくは時系列の相互関係については、本発明の技術的思想の範囲内において、任意に改変及び改良することができる。
(About shape, numerical value, structure, time series)
With respect to the components illustrated in the embodiments and drawings, the shapes, numerical values, or the interrelationships of the structures or time series of the plurality of components shall be arbitrarily modified and improved within the scope of the technical idea of the present invention. Can be done.

(移動について(その1))
また、上記実施の形態の図6のSA2において、所定距離(例えば、10cm程度〜30cm程度)だけ前進させるものと説明したが、これに限らない。例えば、所定距離だけ後進させてもよいし、あるいは、10cm程度〜30cm程度よりも短い距離だけ移動させてもよいし、あるいは、当該10cm程度〜30cm程度よりも長い距離だけ移動させてもよい。
(About movement (1))
Further, in SA2 of FIG. 6 of the above-described embodiment, it has been described that the vehicle is advanced by a predetermined distance (for example, about 10 cm to 30 cm), but the present invention is not limited to this. For example, it may be moved backward by a predetermined distance, may be moved by a distance shorter than about 10 cm to 30 cm, or may be moved by a distance longer than the said 10 cm to 30 cm.

(移動について(その2))
また、上記実施の形態の図6のSA5で台車1を元の位置に戻す場合について説明したが、これに限らない。例えば、SA5を省略してSA2で移動させたままの状態としてもよい。この場合、図10のSB5では、台車1の移動後の位置を台車1の位置として検出してもよい。
(About movement (2))
Further, the case where the carriage 1 is returned to the original position has been described in SA5 of FIG. 6 of the above embodiment, but the present invention is not limited to this. For example, SA5 may be omitted and the state may be left as it is moved by SA2. In this case, in SB5 of FIG. 10, the position after the movement of the carriage 1 may be detected as the position of the carriage 1.

(カメラについて)
また、上記実施の形態の図2のカメラ2として、様々なカメラを用いてもよい。例えば、単眼カメラを用いてもよいし、ステレオカメラを用いてもよいし、RGB−Dカメラを用いてもよい。また、例えば、これらのカメラについては、予め撮像できるモノの大きさをキャリブレーションする事で、台車1に乗っている荷物の大きさ迄認識できる様構成したり、AIによる画像認識で荷物の種類を特定して、建設現場内の物量を把握したりできる様に構成してもよい。
(About the camera)
Moreover, various cameras may be used as the camera 2 of FIG. 2 of the above-described embodiment. For example, a monocular camera may be used, a stereo camera may be used, or an RGB-D camera may be used. In addition, for example, these cameras can be configured so that the size of the luggage on the trolley 1 can be recognized by calibrating the size of the object that can be imaged in advance, or the type of luggage can be recognized by image recognition by AI. May be configured so that the quantity in the construction site can be grasped by specifying.

(台車検出処理について(その1))
また、上記実施の形態の図10のSB3で行う「移動前対象領域画像」及び「移動後対象領域画像」について行う画像認識は任意であるが、例えば、自動運転システム100が適応される台車1の外形について予め行われる機械学習等により当該台車1の外形に基づいて台車1と他の物とを識別可能なモデルを生成し、生成したモデルを用いて画像認識を行うように処理してもよいし、他の公知の画像認識を行うように構成してもよい。なお、この場合、台車1には荷物8が積載されるが、当該積載される荷物8の形状及びサイズについては予め想定可能であるので、当該荷物8の形状及びサイズも反映してモデルを生成してもよい。また、例えば、台車1の一部が他の台車1又は遮蔽物に隠れてカメラ2の画像に写らないことも考えられるので、このように、台車1の一部が写っていない場合でも台車1であることを画像認識できるように、このような場合も想定して機械学習によってモデルを生成するように構成してもよい。
(About trolley detection processing (1))
Further, the image recognition performed on the "pre-movement target area image" and the "post-movement target area image" performed in SB3 of FIG. 10 of the above embodiment is optional, but for example, the trolley 1 to which the automatic driving system 100 is applied. A model that can distinguish the trolley 1 from other objects is generated based on the outer shape of the trolley 1 by machine learning or the like performed in advance, and the generated model is used for image recognition. Alternatively, it may be configured to perform other known image recognition. In this case, the trolley 1 is loaded with the luggage 8, but since the shape and size of the loaded luggage 8 can be assumed in advance, the model is generated by reflecting the shape and size of the luggage 8. You may. Further, for example, it is conceivable that a part of the trolley 1 is hidden by another trolley 1 or a shield and is not captured in the image of the camera 2. Therefore, even if a part of the trolley 1 is not captured in this way, the trolley 1 In order to be able to recognize the image, a model may be generated by machine learning assuming such a case.

(台車検出処理について(その2))
また、上記実施の形態の図10のSB3及びSB4の処理を任意に変更してもよい。例えば、SB3及びSB4の代わりに、以下の処理を行うように構成してもよい。具体的には、図6のSA2で移動させた距離を記録しておき、SB2で選択した「移動前対象領域画像」及び「移動後対象領域画像」において、当該記録した距離だけ動いた物体が存在するか否かを判定し、記録した距離だけ動いた物体が存在するものと判定した場合に、当該動いた物体を検出対象の台車1であるものと検出し、SB5に移行し、記録した距離だけ動いた物体が存在しないのと判定した場合に、検出対象の台車1を検出せずに、SB6に以降するように構成してもよい。また、このように構成した場合において、例えば、倉庫900には、台車1以外にも様々な装置や人が存在して当該装置や人が移動する場合、SB2で選択した「移動前対象領域画像」及び「移動後対象領域画像」において、当該記録した距離だけ動いた物体が複数存在する場合も考えられるが、この場合、以下の処理を行うように構成してもよい。例えば、複数の物体について画像認識を行って、台車1の外形であるか否かを判定し、台車1の画像であるものと判定した場合に、当該判定した物体を検出対象の台車1であるものと検出するように構成してもよい。あるいは、例えば、図6のSA2及びSA3と同様な処理を行うことにより、台車1を移動させる処理を再度行って、SB2で選択した「移動前対象領域画像」及び「移動後対象領域画像」において、当該記録した距離だけ動いた物体が存在するか否かを判定するように構成してもよい。なお、この台車1を移動させる処理については、記録した距離だけ動いた物体が1個のみ存在するまで、あるいは、記録した距離だけ動いた物体が存在しないのと判定するまで、繰り返し行うこととしてもよい。また、この処理を繰り返し行う場合、SA2で移動させる距離を徐々に長くしたり、あるいは、ランダムに変更したり、あるいは、画像認識できる程度まで徐々に短くしたりしてもよい。
(About dolly detection processing (2))
Further, the processing of SB3 and SB4 in FIG. 10 of the above embodiment may be arbitrarily changed. For example, instead of SB3 and SB4, the following processing may be performed. Specifically, the distance moved by SA2 in FIG. 6 is recorded, and in the "pre-movement target area image" and "post-movement target area image" selected in SB2, the object moved by the recorded distance is recorded. When it is determined whether or not the object exists and it is determined that the object that has moved by the recorded distance exists, the moving object is detected as the trolley 1 to be detected, and the object is transferred to SB5 and recorded. When it is determined that there is no object that has moved by a distance, the trolley 1 to be detected may not be detected, and the SB 6 may be set after the object. Further, in the case of such a configuration, for example, when various devices and people other than the trolley 1 exist in the warehouse 900 and the devices and people move, the “pre-movement target area image” selected in SB2 is selected. In the "image of the target area after movement", there may be a plurality of objects that have moved by the recorded distance. In this case, the following processing may be performed. For example, when image recognition is performed on a plurality of objects to determine whether or not it is the outer shape of the trolley 1, and it is determined that the image is an image of the trolley 1, the determined object is the trolley 1 to be detected. It may be configured to detect a thing. Alternatively, for example, by performing the same processing as SA2 and SA3 in FIG. 6, the processing for moving the carriage 1 is performed again, and in the "pre-movement target area image" and "post-movement target area image" selected in SB2. , It may be configured to determine whether or not there is an object that has moved by the recorded distance. The process of moving the dolly 1 may be repeated until it is determined that there is only one object that has moved by the recorded distance, or until it is determined that there is no object that has moved by the recorded distance. Good. Further, when this process is repeated, the distance moved by SA2 may be gradually increased, randomly changed, or gradually shortened to the extent that the image can be recognized.

(台車検出処理について(その3))
また、上述の「(台車検出処理について(その1))」では、台車1の外形に着目して画像認識を行って処理する場合を説明したが、これに限らない。例えば、台車1の所定位置又は台車1に積載されている荷物(一例としては、単管等)の所定位置にマーカー(つまり、台車検出処理での対象となる台車1であることを示す物)を設けて、画像認識にて当該マーカーを認識して、認識したマーカーに着目して図10のSB3及びSB4の処理を実行してもよい。なお、ここでの「マーカー」としては、任意の物を用いることができるが、例えば、コード情報(二次元コード情報)が付されている媒体(紙面等)を用いてもよいし、あるいは、各台車1に貼付される相互に共通な形状(例えば、三角形、又は、星型等)の媒体を用いてもよいし、又は、前述のコード情報又は共通の形状を台車1に記載し、当該記載されたものをマーカーとして用いてもよい。また、ここでの「マーカー」としては、例えば、任意の形状の立体構造の物を用いてもよく、一例としては、再帰性反射材を塗布した球形状(つまり、ボール状)の物を台車1の任意の位置又は台車1に積載されている荷物(一例としては、単管等)の任意の位置に取り付けて、当該球形状の物をマーカーとして用いてもよい。なお、ここでの立体構造の物に材料(塗料)を塗布するか否か、及び塗布する材料(塗料)は任意であり、例えば、再帰性反射材以外の任意の材料(例えば、蛍光塗料又は蓄光塗料)を塗布してもよく、あるいは、何らの材料も塗布しなくてもよい。
(About dolly detection processing (3))
Further, in the above-mentioned "(About the carriage detection process (No. 1))", the case where the image recognition is performed by paying attention to the outer shape of the carriage 1 is described, but the present invention is not limited to this. For example, a marker (that is, an object indicating that the trolley 1 is a target in the trolley detection process) at a predetermined position of the trolley 1 or a predetermined position of a load (for example, a single pipe or the like) loaded on the trolley 1. May be provided, the marker may be recognized by image recognition, and the processing of SB3 and SB4 in FIG. 10 may be executed focusing on the recognized marker. As the "marker" here, any object can be used, but for example, a medium (paper or the like) to which code information (two-dimensional code information) is attached may be used, or A medium having a mutually common shape (for example, a triangle or a star shape) attached to each trolley 1 may be used, or the above-mentioned code information or the common shape is described on the trolley 1 and the said The described one may be used as a marker. Further, as the "marker" here, for example, an object having a three-dimensional structure having an arbitrary shape may be used, and as an example, a spherical object (that is, a ball shape) coated with a retroreflective material is used as a trolley. It may be attached to an arbitrary position of 1 or an arbitrary position of a load (for example, a single pipe or the like) loaded on the trolley 1, and the spherical object may be used as a marker. Whether or not the material (paint) is applied to the three-dimensional structure here, and the material (paint) to be applied are arbitrary. For example, any material other than the retroreflective material (for example, fluorescent paint or Luminescent paint) may be applied, or no material may be applied.

(安全対策について)
また、上記実施の形態の自動運転システム100について、安全対策を施してもよい。例えば、台車1にスピーカ又は表示灯等を設けて、図6のSA2又はSA5で台車1を移動させる場合に、移動部521が警報信号を台車1に送信することにより、スピーカから警報音を出力したり、表示灯を警報のために発光させたりすることにより、台車1の周辺に対して台車1が移動することを報知して警報してもよい。また、台車1に接触センサーや衝撃センサーを搭載する事で障害物や他の台車、資材との接触を検知してエラーを出して台車1が止まる、と同時に、当該台車1がサーバ装置5に対して異常を返信するように構成してもよい。また、図6のSA2又はSA5で台車1を移動させる前に、移動部521が、カメラ2から受信する画像を画像認識することにより、台車1の周辺領域(例えば、図1の4個の台車1を中心とした半径1m〜1.5の領域等)に人が存在するか否かを判定し、存在しないものと判定した場合に、これらの各処理を実行し、人が存在するものと判定した場合、人が存在しなくなるまでこれらの処理を一端停止するように構成してもよい。
(About safety measures)
Further, safety measures may be taken for the automatic driving system 100 of the above embodiment. For example, when a speaker or an indicator light or the like is provided on the carriage 1 and the carriage 1 is moved by the SA2 or SA5 of FIG. 6, the moving unit 521 transmits an alarm signal to the carriage 1 to output an alarm sound from the speaker. Or, the indicator light may be made to emit light for an alarm to notify the movement of the trolley 1 to the periphery of the trolley 1 and give an alarm. Further, by mounting a contact sensor or an impact sensor on the trolley 1, the trolley 1 stops by detecting contact with an obstacle, another trolley, or a material and issuing an error, and at the same time, the trolley 1 is attached to the server device 5. It may be configured to reply an abnormality to the response. Further, before moving the carriage 1 with the SA2 or SA5 of FIG. 6, the moving unit 521 recognizes the image received from the camera 2 to image the peripheral region of the carriage 1 (for example, the four carriages of FIG. 1). It is determined whether or not a person exists in an area having a radius of 1 m to 1.5 centered on 1), and if it is determined that the person does not exist, each of these processes is executed and the person exists. If it is determined, these processes may be temporarily stopped until no one exists.

(マニュアル操作について)
また、上記実施の形態の台車1について、端末装置4の入力手段を介するユーザによる運転操作入力に基づいて、ユーザによるマニュアル運転を行えるように構成してもよい。この場合、図6の検出処理で格納した図5の台車情報における台車位置情報及び台車方向情報を、サーバ装置5の制御部52が端末装置4に送信して表示することにより、台車1の存在の有無、存在位置、及び向きをユーザに報知し、ユーザは、この報知された情報に基づいて、遠隔操作するように構成してもよい。この場合、例えば、カメラ2が所定時間間隔で端末装置4に対して撮像した画像を送信するように処理したり、あるいは、サーバ装置5が当該画像を端末装置4に送信するように処理したりして、ユーザが端末装置4側で倉庫900内の様子を視認しながら、台車1を遠隔でマニュアル操作できるように構成してもよい。
(About manual operation)
Further, the dolly 1 of the above embodiment may be configured so that the user can manually drive the dolly 1 based on the driving operation input by the user via the input means of the terminal device 4. In this case, the presence of the trolley 1 is displayed by the control unit 52 of the server device 5 transmitting the trolley position information and the trolley direction information in the trolley information of FIG. 5 stored in the detection process of FIG. 6 to the terminal device 4. The user may be notified of the presence / absence, the presence position, and the direction of the presence, and the user may be configured to perform remote control based on the notified information. In this case, for example, the camera 2 may process the image to be transmitted to the terminal device 4 at predetermined time intervals, or the server device 5 may process the image to be transmitted to the terminal device 4. Then, the trolley 1 may be configured to be manually operated remotely while the user visually recognizes the inside of the warehouse 900 on the terminal device 4 side.

(検出処理及び移動処理について)
また、上記実施の形態の図6の検出処理及び不図示の移動処理を適宜組み合わせたり、一部の処理を変更したりしてもよい。例えば、検出処理を行う前にユーザが任意の台車名を複数個入力し、また、目的地情報を入力した場合に、検出処理を行い、この後に連続して移動処理を行うように構成してもよい。なお、この場合、例えば、複数個の台車名の内の1個の台車名に対応する台車1に関して検出処理及び移動処理を連続して行うように構成してもよい。この場合、例えば、検出対象の台車1が、様々な原因(例えば、他の台車1に隠れて画像に写らない、あるいは、台車1のバッテリーが不足している等)により、検出処理において、全ての画像について図10のSB3の処理にて検出対象の台車1が存在する可能性がないものと判定したり、あるいは、SB4の処理にて差分が存在しないものと判定したりすることも想定される。この場合、認識できた台車1の内、移動先へ動かし易いものから移動を進め、最初に見えていた台車1(画像に写っていた台車1)を全て移動した後に、再度、先程見えなかった台車1(画像に写っていなかった台車1)の認識を試みて、もし見えたら又、同様に移動を開始するという処理を行うように構成してもよい。
(About detection processing and movement processing)
Further, the detection process of FIG. 6 and the movement process (not shown) of the above embodiment may be appropriately combined, or some processes may be changed. For example, when the user inputs a plurality of arbitrary trolley names before performing the detection process and also inputs the destination information, the detection process is performed, and then the movement process is continuously performed. May be good. In this case, for example, the detection process and the movement process may be continuously performed on the trolley 1 corresponding to one trolley name among the plurality of trolley names. In this case, for example, the trolley 1 to be detected is all hidden in the detection process due to various causes (for example, it is hidden by another trolley 1 and does not appear in the image, or the battery of the trolley 1 is insufficient). It is assumed that the processing of SB3 in FIG. 10 determines that there is no possibility that the dolly 1 to be detected exists, or the processing of SB4 determines that there is no difference. To. In this case, among the trolleys 1 that could be recognized, the one that was easy to move to the destination was moved, and after moving all the trolleys 1 that were initially visible (the trolley 1 shown in the image), they could not be seen again. It may be configured to try to recognize the dolly 1 (the dolly 1 not shown in the image), and if it can be seen, perform the process of starting the movement in the same manner.

(画像の差分の判定について)
また、上記実施の形態の図10のSB4での差分の判定に、検出閾値の概念を採用してもよい。具体的には、例えば、検出閾値として所定距離(例えば、10cm〜15cm等)が設定されていることとし、「移動前対象領域画像」について特定した台車1の座標と、「移動後対象領域画像」について特定した台車1の座標との間の距離が検出閾値未満である場合、差分が存在しないものと判定し(SB4のNO)、一方、「移動前対象領域画像」について特定した台車1の座標と、「移動後対象領域画像」について特定した台車1の座標との間の距離が検出閾値以上である場合、差分が存在するものと判定する(SB4のYES)ように処理してもよい。そして、このように構成することにより、例えば、台車1の移動量を用いて台車1を検出することが可能となり、特に、検出閾値を10cmに設定した場合、10cm以上の移動が発生した未知の台車1を、検出することが可能となる。
(About judgment of image difference)
Further, the concept of the detection threshold value may be adopted for the determination of the difference in SB4 of FIG. 10 of the above embodiment. Specifically, for example, it is assumed that a predetermined distance (for example, 10 cm to 15 cm) is set as a detection threshold, and the coordinates of the trolley 1 specified for the "pre-movement target area image" and the "post-movement target area image" If the distance from the coordinates of the trolley 1 specified for "is less than the detection threshold, it is determined that there is no difference (NO in SB4), while the trolley 1 specified for the" pre-movement target area image " If the distance between the coordinates and the coordinates of the trolley 1 specified for the "image of the target area after movement" is equal to or greater than the detection threshold, it may be determined that there is a difference (YES in SB4). .. With this configuration, for example, it is possible to detect the trolley 1 using the movement amount of the trolley 1, and in particular, when the detection threshold value is set to 10 cm, an unknown movement of 10 cm or more has occurred. The dolly 1 can be detected.

(組み合わせについて)
また、上記実施の形態及び変形例の技術を任意に組み合わせてもよい。
(About combination)
Further, the techniques of the above-described embodiments and modifications may be arbitrarily combined.

(付記)
付記1の検出システムは、移動可能な対象物を検出する検出システムであり、前記対象物を移動させる移動手段と、前記移動手段が前記対象物を移動させる前後に撮像された前記対象物が存在し得る対象領域の画像を取得する取得手段と、前記取得手段が取得した前記対象物を移動させる前後に撮像された前記対象領域の画像の相互間の差分に基づいて、前記対象物を検出する検出手段と、を備える。
(Additional note)
The detection system of Appendix 1 is a detection system that detects a movable object, and includes a moving means for moving the object and the object imaged before and after the moving means moves the object. The object is detected based on the difference between the acquisition means for acquiring an image of a possible target area and the images of the target area captured before and after moving the object acquired by the acquisition means. It is provided with a detection means.

付記2の検出システムは、付記1に記載の検出システムにおいて、前記検出手段は、前記対象領域における前記対象物の有無を検出する。 The detection system of Appendix 2 is the detection system of Appendix 1, wherein the detection means detects the presence or absence of the object in the target region.

付記3の検出システムは、付記1又は2に記載の検出システムにおいて、前記検出手段は、前記対象物の位置を検出する。 The detection system of Appendix 3 is the detection system according to Appendix 1 or 2, wherein the detection means detects the position of the object.

付記4の検出システムは、付記1から3の何れか一項に記載の検出システムにおいて、前記検出手段は、前記対象物の向きを検出する。 The detection system according to the appendix 4 is the detection system according to any one of the items 1 to 3, wherein the detection means detects the orientation of the object.

付記5の検出システムは、付記1から4の何れか一項に記載の検出システムにおいて、前記検出手段の検出結果に基づいて、前記対象物の移動を操作する移動操作手段、を備える。 The detection system of Appendix 5 includes a movement operation means for operating the movement of the object based on the detection result of the detection means in the detection system according to any one of the items 1 to 4.

付記6の検出プログラムは、移動可能な対象物を検出する検出プログラムであり、コンピュータを、前記対象物を移動させる移動手段と、前記移動手段が前記対象物を移動させる前後に撮像された前記対象物が存在し得る対象領域の画像を取得する取得手段と、前記取得手段が取得した前記対象物を移動させる前後に撮像された前記対象領域の画像の相互間の差分に基づいて、前記対象物を検出する検出手段と、として機能させる。 The detection program of Appendix 6 is a detection program that detects a movable object, and is a moving means for moving the object and the target imaged before and after the moving means moves the object. The object is based on the difference between the acquisition means for acquiring an image of the target area in which the object can exist and the images of the target area captured before and after moving the object acquired by the acquisition means. It functions as a detection means for detecting.

(付記の効果)
付記1に記載の検出システム、及び付記6の検出プログラムによれば、対象物を移動させる前後に撮像された対象領域の画像の相互間の差分に基づいて、対象物を検出することにより、例えば、遮蔽物(例えば、柱や設置済資材等)にて対象物の一部が隠れて画像に写っていない場合であっても、対象物を検出することができるので、対象物を確実に検出することが可能となる。また、例えば、対象物に検出用のマーカーやランプ等を設置する作業等を行う必要がないので、対象物を高効率で検出することが可能となる。また、例えば、人により無計画で使用順序に意図・関係がなく、無造作に並べられてしまった対象物を、高効率で確実に検出することが可能となる。
(Effect of appendix)
According to the detection system described in Appendix 1 and the detection program described in Appendix 6, the object is detected, for example, by detecting the object based on the difference between the images of the target area captured before and after moving the object. , Even if a part of the object is hidden by a shield (for example, a pillar or an installed material) and is not shown in the image, the object can be detected, so that the object can be reliably detected. It becomes possible to do. Further, for example, it is not necessary to install a marker, a lamp, or the like for detection on the object, so that the object can be detected with high efficiency. Further, for example, it is possible to reliably detect objects that have been randomly arranged by a person without any intention or relationship in the order of use with high efficiency.

付記2に記載の検出システムによれば、対象物が存在し得る各対象領域における対象物の有無を検出することにより、例えば、対象物の有無を考慮して対象物に関する任意の処理(例えば、対象物を遠隔操作する処理等)を行うことが可能となる。 According to the detection system described in Appendix 2, by detecting the presence or absence of the object in each target area where the object may exist, for example, arbitrary processing related to the object (for example, considering the presence or absence of the object) is performed. It is possible to perform processing (such as remote control of an object).

付記3に記載の検出システムによれば、対象物の位置を検出することにより、例えば、対象物の位置を考慮して対象物に関する任意の処理(例えば、対象物を遠隔操作する処理等)を行うことが可能となる。 According to the detection system described in Appendix 3, by detecting the position of the object, for example, arbitrary processing related to the object (for example, processing for remotely controlling the object) in consideration of the position of the object can be performed. It becomes possible to do.

付記4に記載の検出システムによれば、対象物の向きを検出することにより、例えば、対象物の向きを考慮して対象物に関する任意の処理(例えば、対象物を遠隔操作する処理等)を行うことが可能となる。 According to the detection system described in Appendix 4, by detecting the orientation of the object, for example, arbitrary processing related to the object (for example, processing for remotely controlling the object) in consideration of the orientation of the object can be performed. It becomes possible to do.

付記5に記載の検出システムによれば、検出手段の検出結果に基づいて、対象物の移動を操作することにより、例えば、対象物を移動させることができるので、対象物に関する利便性を向上させることが可能となる。 According to the detection system described in Appendix 5, for example, the object can be moved by manipulating the movement of the object based on the detection result of the detection means, so that the convenience regarding the object is improved. It becomes possible.

1 台車
2 カメラ
3 通信装置
4 端末装置
5 サーバ装置
8 荷物
11 通信部
12 走行部
13 操舵部
14 記録部
15 制御部
21 カメラ
22 カメラ
51 記録部
52 制御部
100 自動運転システム
101 台車
102 台車
103 台車
104 台車
121 車輪
521 移動部
522 取得部
523 検出部
524 移動操作部
900 倉庫
901 1階部分
902 2階部分
903 エレベータ
1 dolly 2 camera 3 communication device 4 terminal device 5 server device 8 luggage 11 communication unit 12 traveling unit 13 steering unit 14 recording unit 15 control unit 21 camera 22 camera 51 recording unit 52 control unit 100 automatic driving system 101 dolly 102 dolly 103 dolly 104 Bogie 121 Wheel 521 Moving part 522 Acquisition part 523 Detection part 524 Moving operation part 900 Warehouse 901 1st floor part 902 2nd floor part 903 Elevator

Claims (6)

移動可能な対象物を検出する検出システムであり、
前記対象物を移動させる移動手段と、
前記移動手段が前記対象物を移動させる前後に撮像された前記対象物が存在し得る対象領域の画像を取得する取得手段と、
前記取得手段が取得した前記対象物を移動させる前後に撮像された前記対象領域の画像の相互間の差分に基づいて、前記対象物を検出する検出手段と、
を備える検出システム。
It is a detection system that detects movable objects.
A means of moving the object and
An acquisition means for acquiring an image of a target area in which the object may exist, which is captured before and after the moving means moves the object.
A detection means for detecting the object based on the difference between the images of the target region captured before and after moving the object acquired by the acquisition means, and a detection means for detecting the object.
Detection system with.
前記検出手段は、前記対象領域における前記対象物の有無を検出する、
請求項1に記載の検出システム。
The detecting means detects the presence or absence of the object in the target area.
The detection system according to claim 1.
前記検出手段は、前記対象物の位置を検出する、
請求項1又は2に記載の検出システム。
The detecting means detects the position of the object.
The detection system according to claim 1 or 2.
前記検出手段は、前記対象物の向きを検出する、
請求項1から3の何れか一項に記載の検出システム。
The detecting means detects the orientation of the object.
The detection system according to any one of claims 1 to 3.
前記検出手段の検出結果に基づいて、前記対象物の移動を操作する移動操作手段、を備える、
請求項1から4の何れか一項に記載の検出システム。
A movement operation means for operating the movement of the object based on the detection result of the detection means is provided.
The detection system according to any one of claims 1 to 4.
移動可能な対象物を検出する検出プログラムであり、
コンピュータを、
前記対象物を移動させる移動手段と、
前記移動手段が前記対象物を移動させる前後に撮像された前記対象物が存在し得る対象領域の画像を取得する取得手段と、
前記取得手段が取得した前記対象物を移動させる前後に撮像された前記対象領域の画像の相互間の差分に基づいて、前記対象物を検出する検出手段と、
として機能させる検出プログラム。
A detection program that detects movable objects
Computer,
A means of moving the object and
An acquisition means for acquiring an image of a target area in which the object may exist, which is captured before and after the moving means moves the object.
A detection means for detecting the object based on the difference between the images of the target region captured before and after moving the object acquired by the acquisition means, and a detection means for detecting the object.
A detection program that functions as.
JP2019209629A 2019-11-20 2019-11-20 Detection system and detection program Active JP7366364B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019209629A JP7366364B2 (en) 2019-11-20 2019-11-20 Detection system and detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019209629A JP7366364B2 (en) 2019-11-20 2019-11-20 Detection system and detection program

Publications (2)

Publication Number Publication Date
JP2021082057A true JP2021082057A (en) 2021-05-27
JP7366364B2 JP7366364B2 (en) 2023-10-23

Family

ID=75965301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019209629A Active JP7366364B2 (en) 2019-11-20 2019-11-20 Detection system and detection program

Country Status (1)

Country Link
JP (1) JP7366364B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09160639A (en) * 1995-12-12 1997-06-20 Mitsubishi Electric Corp Traveling controller for vehicle
JP2001075648A (en) * 1999-09-07 2001-03-23 Shinko Electric Co Ltd Method and device for adjusting driving wheel diameter parameter of unmanned vehicle
JP2001325024A (en) * 2000-05-16 2001-11-22 Matsushita Electric Ind Co Ltd Mobile working robot
US20050278068A1 (en) * 2004-06-11 2005-12-15 Samsung Electronics Co., Ltd. System and method for detecting traveling state
JP2007037713A (en) * 2005-08-02 2007-02-15 Funai Electric Co Ltd Monitoring device and self-traveling type cleaner
JP2010089211A (en) * 2008-10-08 2010-04-22 Panasonic Corp Assembly parts supply system
US20170252925A1 (en) * 2016-03-02 2017-09-07 Gachon University Of Industry-Academic Cooperation Foundation Method and system for localizing mobile robot using external surveillance cameras
JP2019139549A (en) * 2018-02-13 2019-08-22 セイコーエプソン株式会社 System and method for controlling travel of transport vehicles

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09160639A (en) * 1995-12-12 1997-06-20 Mitsubishi Electric Corp Traveling controller for vehicle
JP2001075648A (en) * 1999-09-07 2001-03-23 Shinko Electric Co Ltd Method and device for adjusting driving wheel diameter parameter of unmanned vehicle
JP2001325024A (en) * 2000-05-16 2001-11-22 Matsushita Electric Ind Co Ltd Mobile working robot
US20050278068A1 (en) * 2004-06-11 2005-12-15 Samsung Electronics Co., Ltd. System and method for detecting traveling state
JP2007037713A (en) * 2005-08-02 2007-02-15 Funai Electric Co Ltd Monitoring device and self-traveling type cleaner
JP2010089211A (en) * 2008-10-08 2010-04-22 Panasonic Corp Assembly parts supply system
US20170252925A1 (en) * 2016-03-02 2017-09-07 Gachon University Of Industry-Academic Cooperation Foundation Method and system for localizing mobile robot using external surveillance cameras
JP2019139549A (en) * 2018-02-13 2019-08-22 セイコーエプソン株式会社 System and method for controlling travel of transport vehicles

Also Published As

Publication number Publication date
JP7366364B2 (en) 2023-10-23

Similar Documents

Publication Publication Date Title
CN101661098B (en) Multi-robot automatic locating system for robot restaurant
CN105916758B (en) Autonomous parking method, driver assistance used to perform the method and the vehicle with the driver assistance
US10071892B2 (en) Apparatus and method of obtaining location information of a motorized transport unit
KR102500299B1 (en) User terminal and control method thereof
US9544552B2 (en) Pickup system and pickup method
CN109927567A (en) Wireless vehicle charging
US20170261977A1 (en) Unmanned aircraft systems and methods to interact with specifically intended objects
CN105159236A (en) Vending robot system and control method thereof
KR102010035B1 (en) Parking guidance system having near home guide function
CN104842358A (en) Autonomous mobile multifunctional robot
WO2017083282A1 (en) Product delivery methods and systems utilizing portable unmanned delivery aircraft
JP2013149250A (en) Self-propelled apparatus and operational method for the same
CN110576852A (en) automatic parking method and device and vehicle
JP7340350B2 (en) Information processing device and information processing method
KR101094465B1 (en) Method and apparatus for simultaneously manipulating multiple moving objects, and recording medium containing computer readable programs performing the same
TWI537893B (en) Updating method of parking information and electronic device performing the same
CN114740835A (en) Path planning method, path planning device, robot, and storage medium
EP3879857A1 (en) Parking information management server, parking assist device, and parking assist system
JP2021082057A (en) Detection system and detection program
KR102171934B1 (en) Bidirectional following cart
US20220291696A1 (en) Transport system, control apparatus, transport method, and program
TWM510516U (en) Parking space guidance system for parking lot
US11343641B2 (en) Methods for learning deployment environment specific features for seamless access
WO2021255874A1 (en) Equipment control system, user terminal, equipment control method, and program
CN113421453B (en) Parking space convenient searching method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231002

R150 Certificate of patent or registration of utility model

Ref document number: 7366364

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150