WO2017163973A1 - 無人移動装置、引継方法、プログラム - Google Patents

無人移動装置、引継方法、プログラム Download PDF

Info

Publication number
WO2017163973A1
WO2017163973A1 PCT/JP2017/009931 JP2017009931W WO2017163973A1 WO 2017163973 A1 WO2017163973 A1 WO 2017163973A1 JP 2017009931 W JP2017009931 W JP 2017009931W WO 2017163973 A1 WO2017163973 A1 WO 2017163973A1
Authority
WO
WIPO (PCT)
Prior art keywords
mobile device
unmanned mobile
target object
tracking target
position information
Prior art date
Application number
PCT/JP2017/009931
Other languages
English (en)
French (fr)
Inventor
齋藤 敦
洋行 中嶋
一貴 萬浪
真平 釜谷
保馬 鈴木
真 稲田
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Publication of WO2017163973A1 publication Critical patent/WO2017163973A1/ja
Priority to US16/133,779 priority Critical patent/US20190019051A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • B64U2101/31UAVs specially adapted for particular uses or applications for imaging, photography or videography for surveillance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • B64U2201/104UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] using satellite radio beacon positioning systems, e.g. GPS
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • B64U2201/202Remote controls using tethers for connecting to ground station
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U50/00Propulsion; Power supply
    • B64U50/30Supply or distribution of electrical power
    • B64U50/37Charging when not in flight
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U50/00Propulsion; Power supply
    • B64U50/30Supply or distribution of electrical power
    • B64U50/39Battery swapping

Definitions

  • the present invention relates to an unmanned mobile device, and more particularly to an unmanned mobile device that takes over imaging, a handover method, and a program.
  • Multiple electronic devices may operate in cooperation. For example, an operation such as audio reproduction can be seamlessly transferred from a mobile terminal device to a stationary device. At that time, when the proximity state of the stationary device is detected, the mobile terminal device transmits operation information indicating the operation state at that time to the stationary device (for example, see Patent Document 1).
  • the present invention has been made in view of such circumstances, and an object of the present invention is to provide a technique for reliably executing takeover between unmanned mobile devices.
  • an unmanned mobile device is an unmanned mobile device having an imaging function and a communication function.
  • a first transmission unit that transmits the first position information to another unmanned mobile device; and, after the transmission request and the first position information are transmitted by the first transmission unit, the feature information about the appearance of the tracking target object, and the tracking
  • a second transmitter that transmits the second position information of the target object to another unmanned mobile device, and the second transmitter transmits the feature information and the second position information, and then takes over from the other unmanned mobile device.
  • a reception unit that receives a completion notification.
  • This device is an unmanned mobile device having an imaging function and a communication function, and from other unmanned mobile devices that are imaging the tracking target object, the takeover request of the tracking target object and the other unmanned mobile device
  • a first receiving unit that receives the first position information; characteristic information relating to an appearance of the tracking target object; and a second position of the tracking target object after receiving the takeover request and the first position information in the first receiving unit.
  • a second receiving unit that receives information from another unmanned mobile device, and a tracking target object that recognizes the detection of the tracking target object when the feature information received by the second receiving unit corresponds to the captured image A recognition unit; and a transmission unit that transmits a takeover completion notification to another unmanned mobile device when the tracking target object recognition unit recognizes the detection of the tracking target object.
  • Still another aspect of this embodiment is a takeover method.
  • This method is a takeover method in an unmanned mobile device having an imaging function and a communication function, and takes over a request for taking over an object to be followed and the first position information of the unmanned mobile device to other unattended mobile devices. Transmitting, after transmitting the takeover request and the first position information, transmitting the characteristic information regarding the appearance of the tracking target object and the second position information of the tracking target object to another unmanned mobile device; Receiving the handover completion notification from another unmanned mobile device after transmitting the feature information and the second position information.
  • Still another aspect of the present embodiment is also a takeover method.
  • This method is a takeover method in an unmanned mobile device having an imaging function and a communication function, and from another unmanned mobile device that is imaging a tracking target object, a takeover request for imaging of the tracking target object and other
  • After receiving the first position information of the unmanned mobile device, the handover request and the first position information, the feature information regarding the appearance of the tracking target object and the second position information of the tracking target object The step of receiving from the unmanned mobile device, the step of recognizing the detection of the tracking target object when the received feature information corresponds to the captured image, and the case of detecting the detection of the tracking target object. Transmitting a handover completion notification to the unmanned mobile device.
  • any combination of the above-described constituent elements and a representation of the present embodiment converted between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present embodiment.
  • FIG. 1 is a diagram illustrating a configuration of a tracking system according to a first embodiment. It is a figure which shows the structure of the 1st unmanned mobile device of FIG. 1, and a 2nd unmanned mobile device. It is a sequence diagram which shows the taking over procedure by the tracking system of FIG. It is a figure which shows the structure of the 2nd unmanned moving apparatus which concerns on Example 2. FIG. It is a sequence diagram which shows the taking over procedure by the tracking system which concerns on Example 2.
  • FIG. It is a figure which shows the structure of the tracking system which concerns on Example 3.
  • FIG. It is a figure which shows the structure of the 1st unmanned moving apparatus of FIG. It is a figure which shows the structure of the tracking system which concerns on Example 4.
  • FIG. It is a figure which shows the structure of the 1st unmanned moving apparatus of FIG. It is a figure which shows the structure of the tracking system which concerns on Example 5.
  • FIG. It is a figure which shows the structure of the 2nd unmanned moving apparatus of FIG. It is a figure which shows the structure of the tracking system which concerns on Example 6.
  • FIG. It is a sequence diagram which shows the taking over procedure by the tracking system of FIG.
  • the first embodiment relates to a tracking system including a plurality of unmanned mobile devices that are unmanned flying bodies such as drones.
  • the tracking system when each of the plurality of unmanned mobile devices sequentially tracks one object, the process is taken over. Since an unmanned mobile device such as a drone can go to a place where it is difficult for humans to visit, new needs are expected for disaster relief, security, and video shooting. However, since drone generally has a short battery duration and is difficult to operate for a long time, the range of use is limited. Therefore, it is difficult to apply to applications that require long-time tracking, such as checking the status of victims from the sky, tracking runaways, and tracking marathon runners.
  • the succeeding drone transmits position information, feature information of the follow-up target object, and the like to the succeeding drone by wireless communication.
  • the succeeding drone moves to the position indicated by the position information, and images the surrounding environment. If the captured image includes a tracking target object, the succeeding drone transmits a takeover completion notification to the succeeding drone.
  • the succeeding drone follows the object to be followed, and the succeeding drone finishes following the object to be followed.
  • FIG. 1 shows the configuration of the tracking system 100.
  • the tracking system 100 includes a first unmanned mobile device 10a and a second unmanned mobile device 10b, which are collectively referred to as the unmanned mobile device 10.
  • the number of unmanned mobile devices 10 included in the tracking system 100 may be “3 or more”.
  • the unmanned mobile device 10 is, for example, a drone and a flying object on which a person does not board.
  • the unmanned mobile device 10 has an imaging function and a communication function, and automatically performs flight and performs imaging and wireless communication.
  • the unmanned mobile device 10 is battery-driven.
  • the first unmanned mobile device 10 a flies to follow the tracking target object 12 and images the tracking target object 12.
  • the second unmanned mobile device 10b stands by at a charging station, for example, and does not fly so as to follow the tracking target object 12.
  • the first unmanned mobile device 10a corresponds to the above-mentioned drone to be taken over
  • the second unmanned mobile device 10b corresponds to the above-mentioned drone to take over. Thereafter, the roles of the first unmanned mobile device 10a and the second unmanned mobile device 10b are changed. In the following, the first unmanned mobile device 10a and the second unmanned mobile device will be described in order to focus on the takeover process at the time of the change. It is assumed that the role with the device 10b is as described above.
  • FIG. 2 shows the configuration of the first unmanned mobile device 10a and the second unmanned mobile device 10b.
  • the first unmanned mobile device 10a and the second unmanned mobile device 10b have a common configuration, but here, the process to be taken over in the first unmanned mobile device 10a will be described, and the takeover side in the second unmanned mobile device 10b will be described. Processing will be described.
  • the first unmanned mobile device 10a and the second unmanned mobile device 10b include an imaging unit 20, a position information processing unit 22, a takeover start processing unit 24, a tracking target object recognition unit 26, a tracking target object information processing unit 28, and a takeover completion processing unit. 30, a control unit 32, a storage unit 34, an automatic movement unit 36, and a communication unit 38.
  • the communication unit 38 of the first unmanned mobile device 10a includes a first transmission unit 50, a second transmission unit 52, and a reception unit 54
  • the communication unit 38 of the second unmanned mobile device 10b includes the first reception unit 60, A second receiver 62 and a transmitter 64 are included.
  • the process in each component is demonstrated according to the order of the taking over process from the 1st unmanned mobile device 10a to the 2nd unmanned mobile device 10b.
  • the imaging unit 20 is configured by a camera, an infrared element, and the like, and images the tracking target object 12.
  • a moving image is generated.
  • the imaging unit 20 outputs a moving image to the control unit 32.
  • the tracking target object recognition unit 26 inputs a moving image from the imaging unit 20 via the control unit 32.
  • the tracking target object recognition unit 26 recognizes the tracking target object 12 included in the moving image.
  • image recognition is used for recognizing the tracking target object 12, but since it is a known technique, the description thereof is omitted here.
  • the tracking target object recognition unit 26 controls the recognition result, for example, information such as whether or not the tracking target object 12 is included in the moving image and in which part of the moving image the tracking target object 12 is included. To the unit 32.
  • the position information processing unit 22 measures the position of the first unmanned mobile device 10a by receiving a signal from a GPS (Global Positioning System) satellite (not shown).
  • the position information processing unit 22 sequentially outputs position information (hereinafter referred to as “position information”) to the control unit 32.
  • the automatic movement unit 36 inputs the moving image from the imaging unit 20, the position information from the position information processing unit 22, and the recognition result from the tracking target object recognition unit 26 via the control unit 32. Based on these pieces of information, the automatic moving unit 36 controls the operation of the first unmanned moving apparatus 10a, that is, the flight so that the imaging unit 20 can continue to capture the tracking target object 12.
  • Such a process is a “following process of the tracking target object 12”, and the first unattended mobile device 10a can be said to be in the “following state”.
  • the takeover start processing unit 24 monitors the remaining battery level (not shown) via the control unit 32.
  • the battery supplies electric power for driving the first unmanned mobile device 10a.
  • the takeover start processing unit 24 requests to take over the imaging of the tracking target object 12, that is, a signal for requesting to take over the tracking process of the tracking target object 12 ( (Hereinafter referred to as “takeover request”).
  • the predetermined value is set in consideration of the time from the start to the end of takeover and the time until the return to the charging station.
  • the takeover start processing unit 24 inputs the position information from the position information processing unit 22 via the control unit 32 and includes the position information in the takeover request.
  • first position information the position information of the first unmanned mobile device 10a is referred to as “first position information”.
  • the takeover start processing unit 24 outputs a takeover request to the communication unit 38 via the control unit 32.
  • the first transmission unit 50 in the communication unit 38 transmits a takeover request to the second unattended mobile device 10b.
  • the first unattended mobile device 10a transitions to the “change standby state”.
  • the first transmission unit 50 sequentially inputs the first position information from the control unit 32, and sequentially transmits the first position information to the second unmanned mobile device 10b.
  • the second unattended mobile device 10b is waiting at the charging station, and the second unattended mobile device 10b can be said to be in the “standby state”.
  • the first receiving unit 60 in the communication unit 38 receives the takeover request from the first unmanned mobile device 10 a and outputs the takeover request to the control unit 32. Further, the first receiving unit 60 sequentially receives the first position information from the first unmanned mobile device 10 a following the takeover request, but also outputs them to the control unit 32.
  • the takeover start processing unit 24 inputs a takeover request from the first receiving unit 60 via the control unit 32. As a result, the second unattended mobile device 10b transitions to the “alternating state”. In the “alternating state”, the takeover start processing unit 24 instructs the position information processing unit 22 and the automatic movement unit 36 to start processing via the control unit 32.
  • the control unit 32 receives the first position information included in the takeover request and the first position information following the takeover request. Enter from.
  • the automatic movement unit 36 starts flying to the position indicated by the first position information.
  • the control unit receives the first position information included in the takeover request and the first position information following the takeover request. Input from 32.
  • the position information processing unit 22 sequentially acquires the position information of the second unmanned mobile device 10b. Further, the position information processing unit 22 sequentially calculates the difference between the position information of the second unmanned mobile device 10b and the first position information.
  • the position information processing unit 22 outputs information indicating that the first unmanned mobile device 10a has been approached to the tracking target object information processing unit 28 via the control unit 32.
  • tracking target object information processing unit 28 When the tracking target object information processing unit 28 is notified from the position information processing unit 22 via the control unit 32 that the first unmanned mobile device 10a has been approached, a signal for requesting information on the tracking target object 12 (Hereinafter referred to as “following target object information request”).
  • the tracking target object information processing unit 28 outputs a tracking target object information request to the control unit 32.
  • the communication unit 38 inputs the tracking target object information request via the control unit 32 and transmits the tracking target object information request to the first unmanned mobile device 10a.
  • the communication unit 38 receives the tracking target object information request from the second unmanned mobile device 10b and outputs the tracking target object information request to the control unit 32.
  • the tracking target object information processing unit 28 inputs a tracking target object information request from the communication unit 38 via the control unit 32.
  • the tracking target object information processing unit 28 receives the tracking target object information request, the tracking target object information processing unit 28 generates feature information regarding the appearance of the tracking target object 12.
  • the feature information is, for example, image feature point information when image recognition is executed in the tracking target object recognition unit 26.
  • the feature information may be an image obtained by capturing a moving image captured by the imaging unit 20.
  • the tracking target object information processing unit 28 generates position information of the tracking target object 12 (hereinafter referred to as “second position information”). More specifically, the tracking target object information processing unit 28 detects the tracking target object 12 from the first unmanned mobile device 10a based on the distance sensor, the detection position of the tracking target object 12 in the moving image captured by the imaging unit 20, and the like. The vector leading to is calculated. The tracking target object information processing unit 28 derives second position information by adding the calculated vector to the first position information acquired by the position information processing unit 22.
  • information such as the orientation of the imaging unit 20 and the zoom setting may be used.
  • the tracking target object information processing unit 28 generates a signal in which the feature information and the second position information are collected (hereinafter referred to as “following target object information”).
  • the tracking target object information processing unit 28 outputs the tracking target object information to the control unit 32.
  • the second transmission unit 52 inputs the tracking target object information via the control unit 32, and transmits the tracking target object information to the second unmanned mobile device 10b.
  • the second receiving unit 62 in the communication unit 38 receives the tracking target object information from the first unmanned mobile device 10a, and outputs the tracking target object information to the control unit 32. .
  • the tracking target object information includes feature information and second position information.
  • the tracking target object information processing unit 28 inputs the tracking target object information from the second receiving unit 62 via the control unit 32.
  • the tracking target object information processing unit 28 instructs the tracking target object recognition unit 26 to start recognition of the tracking target object 12.
  • the tracking target object recognition unit 26 starts recognizing the tracking target object 12 with respect to the moving image from the imaging unit 20 in accordance with an instruction from the tracking target object information processing unit 28.
  • the tracking target object recognition unit 26 detects whether the captured moving image includes feature information through the above-described image recognition. This feature information is input via the control unit 32 as output from the tracking target object information processing unit 28 to the control unit 32. If the tracking target object recognition unit 26 does not detect the tracking target object 12 within a predetermined time, the tracking target object recognition unit 26 reports that the tracking target object information processing unit 28 has not detected the tracking target object 12. When the follow target object information processing unit 28 receives the report, the follow target object information processing unit 28 outputs the follow target object information request to the control unit 32 again, and the above-described processing is repeated.
  • the tracking target object recognition unit 26 recognizes the detection of the tracking target object 12 when the feature information corresponds to the captured moving image.
  • the tracking target object recognition unit 26 recognizes the detection of the tracking target object 12
  • the tracking target object recognition unit 26 outputs recognition of the detection of the tracking target object 12 to the control unit 32.
  • the takeover completion processing unit 30 inputs the recognition of the detection of the tracking target object 12 from the tracking target object recognition unit 26 via the control unit 32.
  • the handover completion processing unit 30 generates a signal for notifying the completion of the handover (hereinafter referred to as “takeover completion notification”) when the recognition of the detection of the tracking target object 12 is input.
  • the takeover completion processing unit 30 outputs a takeover completion notification to the control unit 32.
  • the transmission unit 64 inputs a takeover completion notification via the control unit 32 and transmits the takeover completion notification to the first unattended mobile device 10a.
  • the second unattended mobile device 10b transitions to the “following state”. In the “following state”, the second unmanned mobile device 10b executes the “following process of the tracking target object 12” described above.
  • the receiving unit 54 in the communication unit 38 receives the takeover completion notification from the second unattended mobile device 10b and outputs the takeover completion notification to the control unit 32.
  • the takeover completion processing unit 30 inputs a takeover completion notification from the receiving unit 54 via the control unit 32.
  • the takeover completion processing unit 30 inputs a takeover completion notice, the “follow-up process of the follow-up target object 12” ends.
  • the automatic movement unit 36 flies to return to the charging station. As a result, the first unattended mobile device 10a transitions to the “return state”.
  • This configuration can be realized in terms of hardware by a CPU, memory, or other LSI of any computer, and in terms of software, it can be realized by a program loaded in the memory, but here it is realized by their cooperation.
  • Draw functional blocks Accordingly, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.
  • FIG. 3 is a sequence diagram showing a takeover procedure by the tracking system 100.
  • the first unmanned mobile device 10a is in a follow-up state (S10), and the second unmanned mobile device 10b is in a standby state (S12).
  • the first unattended mobile device 10a transmits a takeover request to the second unattended mobile device 10b (S14).
  • the first unmanned mobile device 10a transitions to the replacement standby state (S16), and the second unmanned mobile device 10b transitions to the replacement state (S18).
  • the second unmanned mobile device 10b moves (S20).
  • the first unmanned mobile device 10a sequentially transmits the first position information to the second unmanned mobile device 10b (S22).
  • the second unmanned mobile device 10b transmits a tracking target object information request to the first unmanned mobile device 10a (S26).
  • the first unmanned mobile device 10a transmits the tracking target object information to the second unmanned mobile device 10b (S28).
  • the second unattended mobile device 10b executes a recognition process for detecting the tracking target object 12 (S30). If not recognized, the second unmanned mobile device 10b transmits a tracking target object information request to the first unmanned mobile device 10a (S32). The first unmanned mobile device 10a transmits the tracking target object information to the second unmanned mobile device 10b (S34).
  • the second unmanned mobile device 10b executes a recognition process for detecting the tracking target object 12 (S36). If it can be recognized, the second unattended mobile device 10b transmits a takeover completion notification to the first unattended mobile device 10a (S38).
  • the first unmanned mobile device 10a transitions to the return state (S40), and the second unmanned mobile device 10b transitions to the follow-up state (S42).
  • the unmanned mobile device on the takeover side transmits the first position information of the unmanned mobile device, then the feature information regarding the appearance of the tracking target object, the second position information of the tracking target object, Since the unattended mobile device on the takeover side is moved close to the unattended mobile device, the tracking target object can be recognized. In addition, since the object to be tracked is recognized after being moved to the vicinity of the unmanned mobile device, it is possible to reliably execute takeover between the unattended mobile devices. In addition, since the object to be tracked is recognized after being moved close to the unmanned mobile device, the takeover can be executed efficiently.
  • the unmanned mobile device on the takeover side receives the first position information of the other unmanned mobile device, it receives the feature information regarding the appearance of the tracking target object and the second position information of the tracking target object.
  • the object to be followed can be recognized after moving near another unmanned mobile device.
  • the takeover can be reliably performed between the unattended mobile devices.
  • the takeover can be executed efficiently.
  • the replacement process can be executed smoothly without missing the tracking target. Therefore, even if the flight time of the unmanned mobile device is short, long-time tracking can be executed. Further, since it is only necessary that the object to be tracked or the replacement partner is reflected in the imaging unit at the time of handover, the degree of freedom of the relative positions of the two unmanned mobile devices can be increased. Further, since it is only necessary that the object to be tracked or the replacement partner is reflected in the imaging unit at the time of handover, the two unmanned mobile devices need not be brought close to each other.
  • the second embodiment relates to a tracking system including a plurality of unmanned mobile devices.
  • the second embodiment relates to processing handover when each of the plurality of unmanned mobile devices sequentially follows one object.
  • the second unmanned mobile device according to the second embodiment recognizes the first unmanned mobile device after confirming that the second unmanned mobile device has approached the first unmanned mobile device based on the distance from the first unmanned mobile device.
  • the second unmanned mobile device recognizes the first unmanned mobile device, and then transmits a tracking target object information request to the first unmanned mobile device.
  • the follow-up system 100 and the first unmanned mobile device 10a according to the second embodiment are the same type as those in FIGS. Here, it demonstrates centering on the difference with Example 1.
  • FIG. 4 shows the configuration of the second unmanned mobile device 10b.
  • the second unmanned mobile device 10b includes an unmanned mobile device recognition unit 70 as compared to FIG.
  • a process for recognizing the first unmanned mobile device 10a is added in the above-mentioned “(2) Processing in the second unmanned mobile device 10b”, and this portion will be described here.
  • the position information processing unit 22 detects that the first unmanned mobile device 10a has been approached via the control unit 32 when the distance is equal to or less than a predetermined value. Output to 70.
  • the unmanned mobile device recognition unit 70 is notified from the position information processing unit 22 via the control unit 32 that the first unmanned mobile device 10a has been approached, the first unmanned mobile device recognizes the moving image from the imaging unit 20. Recognition of the mobile device 10a is started.
  • the unmanned mobile device recognition unit 70 detects whether the feature information of the first unmanned mobile device 10a is included in the captured moving image by the above-described image recognition, similarly to the follow target object recognition unit 26. Since the feature information of the first unmanned mobile device 10a is known, it is stored in the unmanned mobile device recognition unit 70 in advance.
  • the unmanned mobile device recognition unit 70 recognizes the detection of the first unmanned mobile device 10a when the feature information of the first unmanned mobile device 10a corresponds to the captured moving image.
  • the unattended mobile device recognition unit 70 outputs the recognition of the detection of the first unmanned mobile device 10a to the control unit 32.
  • the tracking target object information processing unit 28 When the tracking target object information processing unit 28 is notified of the detection of the first unmanned mobile device 10a from the unmanned mobile device recognition unit 70 via the control unit 32, the tracking target object information processing unit 28 generates a tracking target object information request.
  • FIG. 5 is a sequence diagram showing a takeover procedure by the tracking system 100.
  • the first unmanned mobile device 10a is in a follow-up state (S60), and the second unmanned mobile device 10b is in a standby state (S62).
  • the first unattended mobile device 10a transmits a takeover request to the second unattended mobile device 10b (S64).
  • the first unattended mobile device 10a transitions to the replacement standby state (S66), and the second unattended mobile device 10b transitions to the replacement state (S68).
  • the second unmanned mobile device 10b moves (S70).
  • the first unmanned mobile device 10a sequentially transmits the first position information to the second unmanned mobile device 10b (S72). In the second unmanned mobile device 10b, the distance becomes equal to or smaller than a predetermined value (S74).
  • the second unattended mobile device 10b executes unattended mobile device recognition processing (S78). If it can be recognized, a follow target object information request is transmitted to the first unmanned mobile device 10a (S80). The first unmanned mobile device 10a transmits the tracking target object information to the second unmanned mobile device 10b (S82). The second unattended mobile device 10b executes a recognition process for detecting the tracking target object 12 (S84). If it can be recognized, the second unattended mobile device 10b transmits a takeover completion notification to the first unattended mobile device 10a (S86). The first unmanned mobile device 10a transitions to the return state (S88), and the second unmanned mobile device 10b transitions to the follow-up state (S90).
  • S78 unattended mobile device recognition processing
  • the takeover since the detection of the tracking target object is recognized after the detection of the unmanned mobile device on the side to be taken over is recognized, the takeover can be executed efficiently. Further, since the takeover is completed when the detection of both the unmanned mobile device on the side to be taken over and the detection target object are recognized, the takeover reliability can be improved. In addition, since the tracking system 100 on the side where the accuracy of the position information is taken over is included in the angle of view, the reliability with respect to the tracking target object can be improved.
  • the third embodiment relates to a follow-up system including a plurality of unmanned mobile devices, as in the past, and more particularly, to take over of a process when each of the plurality of unmanned mobile devices follows one object in order.
  • the first unmanned mobile device transmits the tracking target object information including the feature information.
  • the feature information is generated from a moving image captured by the imaging unit. Therefore, the characteristic information may change depending on the direction in which the tracking target object is imaged. Even in such a case, feature information that makes it easier for the second unmanned mobile device to recognize the detection of the tracking target object is required.
  • the second unmanned mobile device 10b according to the third embodiment is the same type as that in FIG. Here, it demonstrates centering on the difference from before.
  • FIG. 6 shows the configuration of the tracking system 100.
  • the tracking system 100 includes an unmanned mobile device 10 collectively referred to as a first unmanned mobile device 10a and a second unmanned mobile device 10b, as in FIG.
  • the first unmanned mobile device 10a images the tracking target object 12 at each of the points P1, P2, and P3 while flying.
  • the angle of view of the moving image captured at each of the points P1, P2, and P3 is different.
  • the tracking target object information is received, and recognition of the tracking target object 12 is started. Further, since the second unmanned mobile device 10b flies at a position different from the points P1, P2, and P3, it captures a moving image having a different angle of view from the moving image captured from them. Under such circumstances, the angle of view of the moving image captured by the second unmanned mobile device 10b is closest to the angle of view of the moving image captured from the point P3 among the three points. Therefore, if feature information is generated based on the moving image captured at the point P3 in the first unmanned mobile device 10a, the detection of the tracking target object 12 is easily recognized in the second unmanned mobile device 10b.
  • position information of the second unmanned mobile device 10b (hereinafter referred to as “third position information”) is also transmitted.
  • the third position information may be included in the tracking target object information request, or may be different from the tracking target object information request. Further, the third position information may be transmitted sequentially.
  • FIG. 7 shows the configuration of the first unmanned mobile device 10a.
  • the tracking target object information processing unit 28 of the first unmanned mobile device 10 a includes a derivation unit 72, a selection unit 74, and a generation unit 76.
  • the communication unit 38 in the first unmanned mobile device 10a receives the tracking target object information request from the second unmanned mobile device 10b, and the additional receiving unit 56 in the first unmanned mobile device 10a receives the request from the second unmanned mobile device 10b.
  • the third position information is received.
  • the additional reception unit 56 outputs the third position information to the tracking target object information processing unit 28.
  • the deriving unit 72 of the tracking target object information processing unit 28 derives a direction from the third position information to the second position information (hereinafter referred to as “reference direction”).
  • the deriving unit 72 outputs the reference direction to the selection unit 74.
  • the selection unit 74 inputs the reference direction from the derivation unit 72.
  • the selection unit 74 selects an image obtained by imaging the tracking target object 12 in a direction close to the reference direction from among the images obtained by imaging the tracking target object 12 by the imaging unit 20.
  • each image is generated by capturing a moving image captured by the imaging unit 20.
  • the direction from the first position information of the first unmanned mobile device 10a to the second position information when each image is captured is also derived.
  • the selection unit 74 selects a direction close to the reference direction by using vector calculation. However, since a known technique may be used, the description is omitted here.
  • the selection unit 74 outputs the selected image to the generation unit 76.
  • the generation unit 76 inputs an image from the selection unit 74.
  • the generation unit 76 generates feature information based on the image from the selection unit 74.
  • the generation unit 76 may use the tracking target object recognition unit 26 to generate feature information.
  • the feature information is generated based on the image captured in the direction close to the direction from the third position information to the second position information. Therefore, the feature information is included in the image captured by the unmanned mobile device on the takeover side. Can be brought closer. Further, since the feature information is brought close to the image captured by the unmanned mobile device on the takeover side, the detection of the tracking target object can be accurately recognized. In addition, since the feature information is brought close to the image captured by the unmanned mobile device on the takeover side, the detection of the tracking target object can be efficiently recognized.
  • Example 4 relates to a tracking system including a plurality of unmanned mobile devices, as in the past, and more particularly, to handover of processing when each of the plurality of unmanned mobile devices sequentially follows one object.
  • the first unmanned mobile device transmits the tracking target object information including the feature information.
  • feature information that facilitates recognition of the tracking target object in the second unmanned mobile device is required.
  • the second unmanned mobile device 10b according to the fourth embodiment is the same type as that in FIG. Here, it demonstrates centering on the difference from before.
  • FIG. 8 shows the configuration of the tracking system 100.
  • the tracking system 100 includes an unmanned mobile device 10 collectively referred to as a first unmanned mobile device 10a and a second unmanned mobile device 10b, as in FIG.
  • the first unmanned mobile device 10a and the second unmanned mobile device 10b fly at positions that are separated to some extent. Therefore, the angle of view of the moving image captured by the first unmanned mobile device 10a is different from the angle of view of the moving image captured by the second unattended mobile device 10b.
  • the feature information generated by the first unmanned mobile device 10a is a moving image having a view angle close to the angle of view of the moving image captured by the second unmanned mobile device 10b. It is preferred that it be generated from an image.
  • the first unmanned moving apparatus 10a moves so that the angle of view of the moving image to be captured is close to the angle of view of the second unattended moving apparatus 10b.
  • the second unmanned mobile device 10b receives the handover request from the first unmanned mobile device 10a, and then receives the position information of the second unmanned mobile device 10b (also referred to as “third position information”). ). Further, the third position information is sequentially transmitted.
  • FIG. 9 shows the configuration of the first unmanned mobile device 10a.
  • the automatic movement unit 36 of the first unmanned movement apparatus 10 a includes a derivation unit 72.
  • the additional receiving unit 56 in the first unmanned mobile device 10a receives the third position information from the second unmanned mobile device 10b.
  • the additional reception unit 56 outputs the third position information to the automatic movement unit 36.
  • the deriving unit 72 of the automatic moving unit 36 derives a route from the third position information to the second position information. Vector calculation is used to derive the route.
  • the automatic movement unit 36 moves near the route derived by the deriving unit 72.
  • the feature information can be brought close to the image captured by the unmanned moving device on the takeover side. Further, since the feature information is brought close to the image captured by the unmanned mobile device on the takeover side, the detection of the tracking target object can be accurately recognized. In addition, since the feature information is brought close to the image captured by the unmanned mobile device on the takeover side, the detection of the tracking target object can be efficiently recognized.
  • the fifth embodiment relates to a tracking system including a plurality of unmanned mobile devices, as in the past, and more particularly, to the handover of processing when each of the plurality of unmanned mobile devices tracks one object in turn.
  • the moving image is taken over.
  • the takeover timing becomes clear in the moving image.
  • natural takeover may be required.
  • the fifth embodiment aims to realize natural takeover in a moving image.
  • the first unmanned mobile device 10a according to the fifth embodiment is the same type as that in FIG. Here, it demonstrates centering on the difference from before.
  • FIG. 10 shows the configuration of the tracking system 100.
  • the tracking system 100 includes an unmanned mobile device 10 collectively referred to as a first unmanned mobile device 10a and a second unmanned mobile device 10b, as in FIG.
  • the first unmanned mobile device 10a captures the tracking target object 12, and the second unmanned mobile device 10b performs the takeover with the first unmanned mobile device 10a. Fly towards.
  • the second unmanned moving image is picked up by the second unmanned mobile device 10b until the position where the angle of view of the moving image after the takeover is close to the angle of view of the moving image taken by the first unmanned moving device 10a.
  • the moving device 10b moves and then takes over.
  • FIG. 11 shows the configuration of the second unmanned mobile device 10b.
  • the automatic movement unit 36 of the second unmanned movement apparatus 10 b includes a derivation unit 78.
  • the deriving unit 78 derives a direction from the first position information received by the first receiving unit 60 toward the second position information received by the second receiving unit 62.
  • the direction from the position information (hereinafter also referred to as “third position information”) of the second unmanned moving apparatus 10 b measured by the position information processing unit 22 to the second position information is the derivation unit 72. It moves so that it may become close to the direction derived in.
  • the predetermined value held in the position information processing unit 22 and compared with the distance may be changed according to whether or not the angle of view is made closer at the time of handover. For example, the predetermined value when the angle of view is made closer is made smaller than the predetermined value when the angle of view is not made closer.
  • the direction from the third position information to the second position information moves so as to be closer to the direction from the first position information to the second position information.
  • a moving image having an angle of view close to the angle of view of the captured moving image can be captured.
  • natural transfer can be performed since a moving image having an angle of view close to the angle of view of the moving image captured by the unmanned mobile device on the side to be transferred is captured, natural transfer can be performed.
  • Example 6 relates to a tracking system including a plurality of unmanned mobile devices, as in the past, and more particularly, to handover of processing when each of the plurality of unmanned mobile devices sequentially follows one object. So far, the first unattended mobile device and the second unattended mobile device have been directly communicated. On the other hand, in Example 6, communication is made between the first unmanned mobile device and the second unmanned mobile device via the base station device.
  • the first unmanned mobile device 10a and the second unmanned mobile device 10b in the sixth embodiment are of the same type as in FIG. Here, it demonstrates centering on the difference from before.
  • FIG. 12 shows the configuration of the tracking system 100.
  • the tracking system 100 includes a first unmanned mobile device 10a, a second unmanned mobile device 10b, and a base station device 14 that are collectively referred to as the unmanned mobile device 10.
  • the first unmanned mobile device 10a and the second unmanned mobile device 10b perform the same processing as before, but communicate via the base station device 14.
  • the second unattended mobile device 10b does not recognize the detection of the tracking target object 12. Therefore, the second unmanned mobile device 10b does not transmit the tracking target object information request, the first unattended mobile device 10a does not transmit the tracking target information, and the second unattended mobile device 10b does not transmit the takeover completion notification.
  • the base station device 14 recognizes the detection of the tracking target object 12.
  • the second unmanned mobile device 10b transmits a signal for requesting recognition of the detection of the tracking target object 12 (hereinafter, “recognition request”) instead of transmitting a tracking target object information request. Is transmitted to the base station apparatus 14.
  • the base station device 14 transmits a signal for requesting transmission of image information (hereinafter referred to as “image information request”) to each unmanned mobile device 10.
  • image information request includes an image generated by capturing a moving image captured by the unmanned mobile device 10 or a feature amount of the image.
  • the base station device 14 receives image information from each unmanned mobile device 10.
  • the base station device 14 compares the image information received from each unmanned mobile device 10. For example, the base station device 14 calculates the correlation value of the image and recognizes the detection of the tracking target object 12 in the second unmanned mobile device 10b on the assumption that the images are similar if the correlation value is equal to or greater than a certain value. Note that feature amounts may be used instead of images.
  • the base station device 14 transmits a takeover completion notification to each unmanned mobile device 10.
  • the second unmanned mobile device 10b receives the takeover completion notification
  • the second unmanned mobile device 10b transitions to the follow-up state.
  • the second unmanned mobile device 10a receives the takeover completion notification
  • the second unattended mobile device 10b transitions to the feedback state.
  • FIG. 13 is a sequence diagram illustrating a takeover procedure by the tracking system 100.
  • the first unmanned mobile device 10a is in a following state (S100), and the second unmanned mobile device 10b is in a standby state (S102).
  • the first unattended mobile device 10a transmits a takeover request to the base station device 14 (S104), and the base station device 14 transmits a takeover request to the second unattended mobile device 10b (S106).
  • the first unmanned mobile device 10a transitions to a change standby state (S108), and the second unmanned mobile device 10b transitions to a change state (S110).
  • the second unmanned mobile device 10b moves (S112).
  • the second unmanned mobile device 10b transmits a recognition request to the base station device 14 (S116) when the distance falls below a predetermined value (S114).
  • the base station device 14 transmits an image information request to the second unmanned mobile device 10b (S118), and the second unmanned mobile device 10b transmits image information to the base station device 14 (S120).
  • the base station device 14 transmits an image information request to the first unmanned mobile device 10a (S122), and the first unmanned mobile device 10a transmits image information to the base station device 14 (S124).
  • the base station apparatus 14 executes recognition processing for detecting the tracking target object 12 (S126). If it can be recognized, the base station device 14 transmits a takeover completion notification to the second unmanned mobile device 10b (S128), and transmits a takeover completion notification to the first unmanned mobile device 10a (S130).
  • the first unmanned mobile device 10a transitions to the return state (S132), and the second unmanned mobile device 10b transitions to the follow-up state (S134).
  • the degree of freedom of configuration can be determined. Moreover, since the process for recognizing the detection of the tracking target object in the unmanned mobile device is not necessary, an increase in the processing amount of the unmanned mobile device can be suppressed.
  • the unmanned mobile device 10 is an unmanned air vehicle such as a drone.
  • the present invention is not limited to this.
  • the unmanned mobile device 10 may be an unmanned vehicle, an unmanned ship, an exploration satellite, or any unmanned aircraft that is independent. According to this modification, the degree of freedom of configuration can be improved.
  • takeover can be reliably performed between unmanned mobile devices.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Astronomy & Astrophysics (AREA)
  • Software Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

第1送信部(50)は、追従対象物体の撮像の引継要求と第1無人移動装置(10a)の第1位置情報とを第2無人移動装置(10b)に送信する。第2送信部(52)は、第1送信部(50)において引継要求と第1位置情報とを送信してから、追従対象物体の外観に関する特徴情報と、追従対象物体の第2位置情報とを第2無人移動装置(10b)に送信する。受信部(54)は、第2送信部(52)において特徴情報と第2位置情報とを送信してから、第2無人移動装置(10b)からの引継完了通知を受信する。

Description

無人移動装置、引継方法、プログラム
 本発明は、無人移動装置に関し、特に撮像を引き継ぐ無人移動装置、引継方法、プログラムに関する。
 複数の電子機器を連携して動作させる場合がある。例えば、携帯端末装置から据置機器へオーディオ再生などの動作をシームレスに引き継ぐことがなされる。その際、携帯端末装置は、据置機器の近接状態を検出すると、その時点での動作状態を表す動作情報を据置機器に送信する(例えば、特許文献1参照)。
特開2014-27458号公報
 無人車両、無人航空機等の無人移動装置間において動作を引き継がせる場合、引き継ぐ側の無人移動装置は、引き継がれる側の無人移動装置の位置まで移動してから、動作が引き継がされる。このような状況において、動作の確実な引継が求められる。
 本発明はこうした状況に鑑みてなされたものであり、その目的は、無人移動装置間において引継を確実に実行する技術を提供することである。
 上記課題を解決するために、本実施形態のある態様の無人移動装置は、撮像機能と通信機能とを備えた無人移動装置であって、追従対象物体の撮像の引継要求と本無人移動装置の第1位置情報とを他の無人移動装置に送信する第1送信部と、第1送信部において引継要求と第1位置情報とを送信してから、追従対象物体の外観に関する特徴情報と、追従対象物体の第2位置情報とを他の無人移動装置に送信する第2送信部と、第2送信部において特徴情報と第2位置情報とを送信してから、他の無人移動装置からの引継完了通知を受信する受信部と、を備える。
 本実施形態の別の態様もまた、無人移動装置である。この装置は、撮像機能と通信機能とを備えた無人移動装置であって、追従対象物体を撮像している他の無人移動装置から、追従対象物体の撮像の引継要求と他の無人移動装置の第1位置情報とを受信する第1受信部と、第1受信部において引継要求と第1位置情報とを受信してから、追従対象物体の外観に関する特徴情報と、追従対象物体の第2位置情報とを他の無人移動装置から受信する第2受信部と、第2受信部において受信した特徴情報が、撮像した画像に対応している場合に、追従対象物体の検出を認識する追従対象物体認識部と、追従対象物体認識部において追従対象物体の検出を認識した場合に、他の無人移動装置に引継完了通知を送信する送信部と、を備える。
 本実施形態のさらに別の態様は、引継方法である。この方法は、撮像機能と通信機能とを備えた無人移動装置での引継方法であって、追従対象物体の撮像の引継要求と本無人移動装置の第1位置情報とを他の無人移動装置に送信するステップと、引継要求と第1位置情報とを送信してから、追従対象物体の外観に関する特徴情報と、追従対象物体の第2位置情報とを他の無人移動装置に送信するステップと、特徴情報と第2位置情報とを送信してから、他の無人移動装置からの引継完了通知を受信するステップと、を備える。
 本実施形態のさらに別の態様もまた、引継方法である。この方法は、撮像機能と通信機能とを備えた無人移動装置での引継方法であって、追従対象物体を撮像している他の無人移動装置から、追従対象物体の撮像の引継要求と他の無人移動装置の第1位置情報とを受信するステップと、引継要求と第1位置情報とを受信してから、追従対象物体の外観に関する特徴情報と、追従対象物体の第2位置情報とを他の無人移動装置から受信するステップと、受信した特徴情報が、撮像した画像に対応している場合に、追従対象物体の検出を認識するステップと、追従対象物体の検出を認識した場合に、他の無人移動装置に引継完了通知を送信するステップと、を備える。
 なお、以上の構成要素の任意の組合せ、本実施形態の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本実施形態の態様として有効である。
 本実施形態によれば、無人移動装置間において引継を確実に実行できる。
実施例1に係る追従システムの構成を示す図である。 図1の第1無人移動装置と第2無人移動装置の構成を示す図である。 図1の追従システムによる引継手順を示すシーケンス図である。 実施例2に係る第2無人移動装置の構成を示す図である。 実施例2に係る追従システムによる引継手順を示すシーケンス図である。 実施例3に係る追従システムの構成を示す図である。 図6の第1無人移動装置の構成を示す図である。 実施例4に係る追従システムの構成を示す図である。 図8の第1無人移動装置の構成を示す図である。 実施例5に係る追従システムの構成を示す図である。 図10の第2無人移動装置の構成を示す図である。 実施例6に係る追従システムの構成を示す図である。 図12の追従システムによる引継手順を示すシーケンス図である。
(実施例1)
 本発明を具体的に説明する前に、まず概要を述べる。実施例1は、ドローンなどの無人飛行体である無人移動装置が複数含まれた追従システムに関する。追従システムでは、複数の無人移動装置のそれぞれが順番に1つの物体を追従する場合に、処理の引継がなされる。ドローンのような無人移動装置は、人間が行きにくい場所に行くことが可能であるので、災害救助用途、セキュリティ、映像撮影の用途で新たなニーズが期待されている。しかしながら、ドローンでは、一般的に、バッテリの持続時間が短く、長時間の運用が難しいので、使用範囲が限定される。そのため、空からの被災者の状況の確認、逃走犯の追尾、マラソンランナーの追従など、特に長時間の追従を必要とする用途への応用が難しい。
 長時間の飛行に対応するためにバッテリ自動交換機の技術がある。これは、バッテリの残量がゼロに近づくと、ドローンがチャージ場所に自動的に戻って、チャージもしくはバッテリの交換を行い、再び飛行する技術である。これによると、長時間の飛行が可能になるが、追従対象の物体(以下、「追従対象物体」という)を一時的に見逃してしまう。追従対象物体の見逃しを抑制するためには、それまで追従対象物体を追従していたドローンが充電に戻っている間、別のドローンが追従対象物体を追従すればよい。この場合、ドローン間の引継が重要になる。
 これに対応するために、本実施例に係る追従システムでは、引き継がれる側のドローンは、無線通信によって、位置情報、追従対象物体の特徴情報等を引き継ぐ側のドローンに送信する。引き継ぐ側のドローンは、位置情報で示された位置まで移動し、周囲の環境を撮像する。撮像した画像に追従対象物体が含まれている場合、引き継ぐ側のドローンは、引継完了通知を引き継がれる側のドローンに送信する。引き継ぐ側のドローンは、追従対象物体を追従し、引き継がれる側のドローンは、追従対象物体の追従を終了する。
 図1は、追従システム100の構成を示す。追従システム100は、無人移動装置10と総称される第1無人移動装置10a、第2無人移動装置10bを含む。ここで、2台の無人移動装置10が示されているが、追従システム100に含まれる無人移動装置10の台数は「3以上」であってもよい。
 無人移動装置10は、例えば、ドローンであり、人が搭乗しない飛行体である。無人移動装置10は、撮像機能と通信機能とを備えており、自動的に飛行するとともに、撮像および無線通信を実行する。また、無人移動装置10は、バッテリ駆動である。図1の例において、第1無人移動装置10aは、追従対象物体12を追従するように飛行し、かつ追従対象物体12を撮像する。一方、第2無人移動装置10bは、例えば充電ステーションなどで待機しており、追従対象物体12を追従するように飛行していない。
 そのため、第1無人移動装置10aは前述の引き継がれる側のドローンに相当し、第2無人移動装置10bは前述の引き継ぐ側のドローンに相当する。その後、第1無人移動装置10aと第2無人移動装置10bとの役割は交代されるが、以下では交代の際の引継処理を中心に説明するため、第1無人移動装置10aと第2無人移動装置10bとの役割は前述の通りであるとする。
 図2は、第1無人移動装置10aと第2無人移動装置10bの構成を示す。第1無人移動装置10aと第2無人移動装置10bは共通した構成を有するが、ここでは、第1無人移動装置10aにおいて引き継がれる側の処理を説明し、第2無人移動装置10bにおいて引き継ぐ側の処理を説明する。第1無人移動装置10aと第2無人移動装置10bは、撮像部20、位置情報処理部22、引継開始処理部24、追従対象物体認識部26、追従対象物体情報処理部28、引継完了処理部30、制御部32、記憶部34、自動移動部36、通信部38を含む。また、第1無人移動装置10aの通信部38は、第1送信部50、第2送信部52、受信部54を含み、第2無人移動装置10bの通信部38は、第1受信部60、第2受信部62、送信部64を含む。以下では、第1無人移動装置10aから第2無人移動装置10bへの引継処理の順番にしたがって、各構成要素での処理を説明する。
(1)第1無人移動装置10aでの処理
 第1無人移動装置10aにおいて、撮像部20は、カメラ、赤外線素子等によって構成されており、追従対象物体12を撮像する。ここでは、例えば、動画像が生成される。撮像部20は、動画像を制御部32に出力する。追従対象物体認識部26は、制御部32を介して、撮像部20からの動画像を入力する。追従対象物体認識部26は、動画像中に含まれる追従対象物体12を認識する。追従対象物体12の認識には、例えば、画像認識が使用されるが、公知の技術であるのでここでは説明を省略する。追従対象物体認識部26は、認識結果、例えば、追従対象物体12が動画像中に含まれているか否か、追従対象物体12が動画像中のどの部分に含まれているか等の情報を制御部32に出力する。
 位置情報処理部22は、図示しないGPS(Global Positioning System)衛星からの信号を受信することによって、第1無人移動装置10aの位置を測位する。位置情報処理部22は、測位した位置の情報(以下、「位置情報」という)を制御部32に順次出力する。自動移動部36は、制御部32を介して、撮像部20からの動画像、位置情報処理部22からの位置情報、追従対象物体認識部26からの認識結果を入力する。自動移動部36は、これらの情報をもとに、撮像部20が追従対象物体12を撮像し続けられるように、第1無人移動装置10aの動作、つまり飛行を制御する。このような処理が「追従対象物体12の追従処理」であり、第1無人移動装置10aは「追従状態」であるといえる。
 引継開始処理部24は、制御部32を介して、図示しないバッテリの残量を監視する。当該バッテリは、第1無人移動装置10aを駆動させるための電力を供給する。引継開始処理部24は、バッテリの残量が所定値以下になった場合、追従対象物体12の撮像の引継を要求するため、つまり追従対象物体12の追従処理の引継を要求するための信号(以下、「引継要求」という)を生成する。ここで、所定値は、引継が開始してから終了するまでの時間と、充電ステーションに帰還するまでの時間とを考慮して設定される。引継開始処理部24は、制御部32を介して位置情報処理部22からの位置情報を入力し、位置情報を引継要求に含ませる。以下では、説明を明瞭にするために、第1無人移動装置10aの位置情報を「第1位置情報」という。
 引継開始処理部24は、制御部32を介して通信部38に引継要求を出力する。通信部38における第1送信部50は、引継要求を第2無人移動装置10bに送信する。第1送信部50が引継要求を送信した後、第1無人移動装置10aは「交代待機状態」に遷移する。「交代待機状態」において、第1送信部50は、制御部32から第1位置情報を順次入力し、第1位置情報を第2無人移動装置10bに順次送信する。
(2)第2無人移動装置10bでの処理
 第2無人移動装置10bは、充電ステーションに待機しており、第2無人移動装置10bは「待機状態」であるといえる。通信部38における第1受信部60は、第1無人移動装置10aからの引継要求を受信し、引継要求を制御部32に出力する。また、第1受信部60は、引継要求に続き、第1無人移動装置10aからの第1位置情報を順次受信するが、これらも制御部32に出力する。引継開始処理部24は、制御部32を介して、第1受信部60からの引継要求を入力する。これにより、第2無人移動装置10bは、「交代状態」に遷移する。「交代状態」において、引継開始処理部24は、制御部32を介して、位置情報処理部22、自動移動部36に処理の開始を指示する。
 自動移動部36は、制御部32を介して引継開始処理部24から処理の開始を指示されると、引継要求に含まれた第1位置情報、引継要求に続く第1位置情報を制御部32から入力する。自動移動部36は、第1位置情報に示された位置まで飛行を開始する。位置情報処理部22は、制御部32を介して引継開始処理部24から処理の開始を指示されると、引継要求に含まれた第1位置情報、引継要求に続く第1位置情報を制御部32から入力する。また、位置情報処理部22は、第2無人移動装置10bの位置情報を順次取得する。さらに、位置情報処理部22は、第2無人移動装置10bの位置情報と、第1位置情報との差を順次計算する。これは、第1無人移動装置10aと第2無人移動装置10bとの距離を監視していることに相当する。位置情報処理部22は、距離が所定値以下になった場合、第1無人移動装置10aに近づいたことを制御部32経由で追従対象物体情報処理部28に出力する。
 追従対象物体情報処理部28は、制御部32を介して位置情報処理部22から、第1無人移動装置10aに近づいたことを通知されると、追従対象物体12に関する情報を要求するための信号(以下、「追従対象物体情報要求」という)を生成する。追従対象物体情報処理部28は、追従対象物体情報要求を制御部32に出力する。通信部38は、制御部32を介して追従対象物体情報要求を入力し、追従対象物体情報要求を第1無人移動装置10aに送信する。
(3)第1無人移動装置10aでの処理
 通信部38は、第2無人移動装置10bからの追従対象物体情報要求を受信し、追従対象物体情報要求を制御部32に出力する。追従対象物体情報処理部28は、制御部32を介して通信部38からの追従対象物体情報要求を入力する。追従対象物体情報処理部28は、追従対象物体情報要求を入力すると、追従対象物体12の外観に関する特徴情報を生成する。特徴情報は、例えば、追従対象物体認識部26において画像認識を実行した場合の画像特徴点情報である。また、特徴情報は、撮像部20において撮像した動画像をキャプチャした画像であってもよい。
 また、追従対象物体情報処理部28は、追従対象物体12の位置情報(以下、「第2位置情報」という)を生成する。具体的に説明すると、追従対象物体情報処理部28は、距離センサや、撮像部20において撮像した動画像内の追従対象物体12の検出位置などから、第1無人移動装置10aから追従対象物体12へ至るベクトルを算出する。また、追従対象物体情報処理部28は、位置情報処理部22において取得した第1位置情報にこの算出したベクトルを加算することによって第2位置情報を導出する。ここで、ベクトルを算出するために、撮像部20の向き、ズームの設定等の情報が使用されてもよい。追従対象物体情報処理部28は、特徴情報と第2位置情報とをまとめた信号(以下、「追従対象物体情報」という)を生成する。追従対象物体情報処理部28は、追従対象物体情報を制御部32に出力する。第2送信部52は、制御部32を介して追従対象物体情報を入力し、追従対象物体情報を第2無人移動装置10bに送信する。
(4)第2無人移動装置10bでの処理
 通信部38における第2受信部62は、第1無人移動装置10aからの追従対象物体情報を受信し、追従対象物体情報を制御部32に出力する。前述のごとく、追従対象物体情報には、特徴情報と第2位置情報とが含まれる。追従対象物体情報処理部28は、制御部32を介して第2受信部62からの追従対象物体情報を入力する。追従対象物体情報処理部28は、追従対象物体情報を入力すると、追従対象物体認識部26に対して、追従対象物体12の認識の開始を指示する。
 追従対象物体認識部26は、追従対象物体情報処理部28からの指示にしたがって、撮像部20からの動画像に対して追従対象物体12の認識を開始する。追従対象物体認識部26は、前述の画像認識によって、撮像した動画像に特徴情報が含まれているかを検出する。この特徴情報は、追従対象物体情報処理部28が制御部32に出力したものを制御部32を介して入力されている。追従対象物体認識部26は、所定時間内に追従対象物体12を検出しなかった場合、検出しなかったことを追従対象物体情報処理部28に報告する。追従対象物体情報処理部28は、報告を受けると、追従対象物体情報要求を制御部32に再度出力し、前述の処理が繰り返される。追従対象物体認識部26は、撮像した動画像に特徴情報が対応している場合、追従対象物体12の検出を認識する。追従対象物体認識部26は、追従対象物体12の検出を認識した場合、追従対象物体12の検出の認識を制御部32に出力する。
 引継完了処理部30は、制御部32を介して追従対象物体認識部26から、追従対象物体12の検出の認識を入力する。引継完了処理部30は、追従対象物体12の検出の認識を入力すると、引継の完了を通知するための信号(以下、「引継完了通知」という)を生成する。引継完了処理部30は、引継完了通知を制御部32に出力する。送信部64は、制御部32を介して引継完了通知を入力し、引継完了通知を第1無人移動装置10aに送信する。これにより、第2無人移動装置10bは、「追従状態」に遷移する。「追従状態」において、第2無人移動装置10bは、前述の「追従対象物体12の追従処理」を実行する。
(5)第1無人移動装置10aでの処理
 通信部38における受信部54は、第2無人移動装置10bからの引継完了通知を受信し、引継完了通知を制御部32に出力する。引継完了処理部30は、制御部32を介して受信部54からの引継完了通知を入力する。引継完了処理部30は、引継完了通知を入力すると、「追従対象物体12の追従処理」を終了する。自動移動部36は、充電ステーションに戻るため飛行する。これにより、第1無人移動装置10aは、「帰還状態」に遷移する。
 この構成は、ハードウエア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。
 以上の構成による追従システム100の動作を説明する。図3は、追従システム100による引継手順を示すシーケンス図である。第1無人移動装置10aは追従状態であり(S10)、第2無人移動装置10bは待機状態である(S12)。第1無人移動装置10aは第2無人移動装置10bに引継要求を送信する(S14)。第1無人移動装置10aは交代待機状態に遷移し(S16)、第2無人移動装置10bは交代状態に遷移する(S18)。第2無人移動装置10bは移動する(S20)。第1無人移動装置10aは第2無人移動装置10bに第1位置情報を順次送信する(S22)。第2無人移動装置10bは、距離が所定値以下になる(S24)と、第1無人移動装置10aに追従対象物体情報要求を送信する(S26)。
 第1無人移動装置10aは、第2無人移動装置10bに追従対象物体情報を送信する(S28)。第2無人移動装置10bは、追従対象物体12の検出の認識処理を実行する(S30)。認識できなければ、第2無人移動装置10bは、第1無人移動装置10aに追従対象物体情報要求を送信する(S32)。第1無人移動装置10aは、第2無人移動装置10bに追従対象物体情報を送信する(S34)。第2無人移動装置10bは、追従対象物体12の検出の認識処理を実行する(S36)。認識できれば、第2無人移動装置10bは、第1無人移動装置10aに引継完了通知を送信する(S38)。第1無人移動装置10aは帰還状態に遷移し(S40)、第2無人移動装置10bは追従状態に遷移する(S42)。
 本実施例によれば、引き継がれる側の無人移動装置は、本無人移動装置の第1位置情報を送信してから、追従対象物体の外観に関する特徴情報と、追従対象物体の第2位置情報とを送信するので、引き継ぐ側の無人移動装置を本無人移動装置の近くに移動させてから、追従対象物体を認識させることができる。また、本無人移動装置の近くに移動させてから、追従対象物体を認識させるので、無人移動装置間において引継を確実に実行できる。また、本無人移動装置の近くに移動させてから、追従対象物体を認識させるので、効率的に引継を実行できる。
 また、引き継ぐ側の無人移動装置は、他の無人移動装置の第1位置情報を受信してから、追従対象物体の外観に関する特徴情報と、追従対象物体の第2位置情報とを受信するので、他の無人移動装置の近くに移動してから、追従対象物体を認識できる。また、他の無人移動装置の近くに移動してから、追従対象物体を認識するので、無人移動装置間において引継を確実に実行できる。また、他の無人移動装置の近くに移動してから、追従対象物体を認識するので、効率的に引継を実行できる。
 また、空からの被災者の状況の確認、逃走犯の追尾や、マラソンランナーの追従など、特に長時間の追従を必要とする用途へ適用できる。また、無人移動装置の受電が切れ、別の無人移動装置に処理を引き継いだとしても、追従対象を見逃すことなく、スムーズに交代処理を実行できる。そのため、無人移動装置の飛行時間が短くても、長時間の追従を実行できる。また、引継ぎの際に、追従対象物体、もしくは交代相手が撮像部に映っていればよいので、2台の無人移動装置の相対位置の自由度を高くできる。また、引継ぎの際に、追従対象物体、もしくは交代相手が撮像部に映っていればよいので、2台の無人移動装置を近づけなくてもよくできる。
(実施例2)
 次に、実施例2を説明する。実施例2は、実施例1と同様に、無人移動装置が複数含まれた追従システムに関し、特に、複数の無人移動装置のそれぞれが順番に1つの物体を追従する場合における処理の引継に関する。実施例2における第2無人移動装置は、第1無人移動装置との距離をもとに、第1無人移動装置に近づいたことを確認してから、第1無人移動装置を認識する。また、第2無人移動装置は、第1無人移動装置を認識してから、第1無人移動装置に追従対象物体情報要求を送信する。実施例2に係る追従システム100、第1無人移動装置10aは、図1、図2と同様のタイプである。ここでは、実施例1との差異を中心に説明する。
 図4は、第2無人移動装置10bの構成を示す。第2無人移動装置10bは、図2と比較して無人移動装置認識部70を含む。実施例2では、前述の「(2)第2無人移動装置10bでの処理」において第1無人移動装置10aを認識するための処理が追加されるので、ここではその部分を説明する。
(2)第2無人移動装置10bでの処理
 位置情報処理部22は、距離が所定値以下になった場合、第1無人移動装置10aに近づいたことを制御部32経由で無人移動装置認識部70に出力する。無人移動装置認識部70は、制御部32を介して位置情報処理部22から、第1無人移動装置10aに近づいたことを通知されると、撮像部20からの動画像に対して第1無人移動装置10aの認識を開始する。無人移動装置認識部70は、追従対象物体認識部26と同様に、前述の画像認識によって、撮像した動画像に第1無人移動装置10aの特徴情報が含まれているかを検出する。なお、第1無人移動装置10aの特徴情報は既知であるので、予め無人移動装置認識部70に記憶されている。
 無人移動装置認識部70は、撮像した動画像に第1無人移動装置10aの特徴情報が対応している場合、第1無人移動装置10aの検出を認識する。無人移動装置認識部70は、第1無人移動装置10aの検出を認識した場合、第1無人移動装置10aの検出の認識を制御部32に出力する。追従対象物体情報処理部28は、制御部32を介して無人移動装置認識部70から、第1無人移動装置10aの検出の認識を通知されると、追従対象物体情報要求を生成する。
 以上の構成による追従システム100の動作を説明する。図5は、追従システム100による引継手順を示すシーケンス図である。第1無人移動装置10aは追従状態であり(S60)、第2無人移動装置10bは待機状態である(S62)。第1無人移動装置10aは第2無人移動装置10bに引継要求を送信する(S64)。第1無人移動装置10aは交代待機状態に遷移し(S66)、第2無人移動装置10bは交代状態に遷移する(S68)。第2無人移動装置10bは移動する(S70)。第1無人移動装置10aは第2無人移動装置10bに第1位置情報を順次送信する(S72)。第2無人移動装置10bでは、距離が所定値以下になる(S74)。
 第2無人移動装置10bは無人移動装置認識処理を実行する(S78)。認識できれば、第1無人移動装置10aに追従対象物体情報要求を送信する(S80)。第1無人移動装置10aは、第2無人移動装置10bに追従対象物体情報を送信する(S82)。第2無人移動装置10bは、追従対象物体12の検出の認識処理を実行する(S84)。認識できれば、第2無人移動装置10bは、第1無人移動装置10aに引継完了通知を送信する(S86)。第1無人移動装置10aは帰還状態に遷移し(S88)、第2無人移動装置10bは追従状態に遷移する(S90)。
 本実施例によれば、引き継がれる側の無人移動装置の検出を認識してから、追従対象物体の検出を認識するので、引継を効率的に実行できる。また、引き継がれる側の無人移動装置と追従対象物体の両方の検出が認識された場合に、引継が完了とされるので、引継の信頼性を向上できる。また、位置情報の精度が高い引き継がれる側の追従システム100が画角内に含まれるので、追従対象物体を追従できていることに対する信頼性を向上できる。
(実施例3)
 次に、実施例3を説明する。実施例3は、これまでと同様に、無人移動装置が複数含まれた追従システムに関し、特に、複数の無人移動装置のそれぞれが順番に1つの物体を追従する場合における処理の引継に関する。第1無人移動装置は、特徴情報が含まれた追従対象物体情報を送信する。ここで、特徴情報は、撮像部において撮像した動画像から生成される。そのため、追従対象物体を撮像した方向に応じて特徴情報が変わる場合もある。そのような場合であっても、第2無人移動装置において追従対象物体の検出が認識されやすくなるような特徴情報が求められる。実施例3に係る第2無人移動装置10bは、図2と同様のタイプである。ここでは、これまでとの差異を中心に説明する。
 図6は、追従システム100の構成を示す。追従システム100は、図1と同様に、第1無人移動装置10a、第2無人移動装置10bと総称される無人移動装置10を含む。ここで、第1無人移動装置10aは、飛行しながら、ポイントP1、P2、P3のそれぞれにおいて追従対象物体12を撮像する。ここで、ポイントP1、P2、P3のそれぞれと追従対象物体12との相対的な位置関係は異なっているので、ポイントP1、P2、P3のそれぞれにおいて撮像した動画像の画角は異なる。
 一方、第2無人移動装置10bでは、追従対象物体情報が受信されており、追従対象物体12の認識が開始されている。また、第2無人移動装置10bは、ポイントP1、P2、P3とは異なった位置を飛行しているので、それらから撮像した動画像とは異なった画角の動画像を撮像する。このような状況下において、第2無人移動装置10bにおいて撮像した動画像の画角は、3つのポイントのうち、ポイントP3から撮像した動画像の画角に最も近い。そのため、第1無人移動装置10aにおいて、ポイントP3において撮像した動画像をもとに特徴情報が生成されると、第2無人移動装置10bにおいて追従対象物体12の検出が認識されやすくなる。
 これを実現するために、第2無人移動装置10bから追従対象物体情報要求が送信される場合、第2無人移動装置10bの位置情報(以下、「第3位置情報」という)も送信される。第3位置情報は追従対象物体情報要求に含まれてもよく、追従対象物体情報要求とは別であってもよい。さらに、第3位置情報は順次送信されてもよい。
 図7は、第1無人移動装置10aの構成を示す。図2と比較して、第1無人移動装置10aの追従対象物体情報処理部28は、導出部72、選択部74、生成部76を含む。第1無人移動装置10aにおける通信部38は、第2無人移動装置10bからの追従対象物体情報要求を受信し、第1無人移動装置10aにおける追加受信部56は、第2無人移動装置10bからの第3位置情報を受信する。追加受信部56は、第3位置情報を追従対象物体情報処理部28に出力する。追従対象物体情報処理部28の導出部72は、第3位置情報から第2位置情報に向かう方向(以下、「参照方向」という)を導出する。導出部72は、参照方向を選択部74に出力する。
 選択部74は、導出部72から参照方向を入力する。選択部74は、撮像部20において追従対象物体12を撮像した画像のうち、参照方向に近い方向で追従対象物体12を撮像した画像を選択する。ここで、各画像は、撮像部20において撮像した動画像をキャプチャすることによって生成されている。また、各画像を撮像したときの第1無人移動装置10aの第1位置情報から第2位置情報に向かう方向も導出されている。さらに、選択部74は、参照方向に近い方向をベクトル演算を利用して選択しているが、公知の技術が使用されればよいので、ここでは説明を省略する。選択部74は、選択した画像を生成部76に出力する。
 生成部76は、選択部74から画像を入力する。また、生成部76は、選択部74からの画像をもとに特徴情報を生成する。生成部76は、特徴情報を生成するために、追従対象物体認識部26を利用してもよい。
 本実施例によれば、第3位置情報から第2位置情報に向かう方向に近い方向で撮像した画像をもとに特徴情報を生成するので、引き継ぐ側の無人移動装置において撮像した画像に特徴情報を近づけることができる。また、引き継ぐ側の無人移動装置において撮像した画像に特徴情報を近づけるので、追従対象物体の検出の認識を正確にできる。また、引き継ぐ側の無人移動装置において撮像した画像に特徴情報を近づけるので、追従対象物体の検出の認識を効率的にできる。
(実施例4)
 次に、実施例4を説明する。実施例4は、これまでと同様に、無人移動装置が複数含まれた追従システムに関し、特に、複数の無人移動装置のそれぞれが順番に1つの物体を追従する場合における処理の引継に関する。第1無人移動装置は、特徴情報が含まれた追従対象物体情報を送信する。また、実施例4においても、実施例3と同様に、第2無人移動装置において追従対象物体の検出が認識されやすくなるような特徴情報が求められる。実施例4に係る第2無人移動装置10bは、図2と同様のタイプである。ここでは、これまでとの差異を中心に説明する。
 図8は、追従システム100の構成を示す。追従システム100は、図1と同様に、第1無人移動装置10a、第2無人移動装置10bと総称される無人移動装置10を含む。ここで、第1無人移動装置10aと第2無人移動装置10bは、ある程度離れた位置を飛行する。そのため、第1無人移動装置10aにおいて撮像した動画像の画角と、第2無人移動装置10bにおいて撮像した動画像の画角は異なる。第2無人移動装置10bにおいて追従対象物体12を検出する場合、第1無人移動装置10aにおいて生成される特徴情報は、第2無人移動装置10bにおいて撮像した動画像の画角と近い画角の動画像から生成される方が好ましい。
 そのような特徴情報を生成するために、第1無人移動装置10aは、撮像する動画像の画角が第2無人移動装置10bにおける画角と近くなるように移動する。これを実現するために、第2無人移動装置10bは、第1無人移動装置10aからの引継要求を受信した後、第2無人移動装置10bの位置情報(これもまた「第3位置情報」という)を送信する。さらに、第3位置情報は順次送信される。
 図9は、第1無人移動装置10aの構成を示す。図2と比較して、第1無人移動装置10aの自動移動部36は、導出部72を含む。第1無人移動装置10aにおける追加受信部56は、第2無人移動装置10bからの第3位置情報を受信する。追加受信部56は、第3位置情報を自動移動部36に出力する。自動移動部36の導出部72は、第3位置情報から第2位置情報に向かう経路を導出する。経路の導出にはベクトル演算が利用される。自動移動部36は、導出部72において導出した経路の近くに移動する。
 本実施例によれば、第3位置情報から第2位置情報に向かう経路の近くに移動するので、引き継ぐ側の無人移動装置において撮像した画像に特徴情報を近づけることができる。また、引き継ぐ側の無人移動装置において撮像した画像に特徴情報を近づけるので、追従対象物体の検出の認識を正確にできる。また、引き継ぐ側の無人移動装置において撮像した画像に特徴情報を近づけるので、追従対象物体の検出の認識を効率的にできる。
(実施例5)
 次に、実施例5を説明する。実施例5は、これまでと同様に、無人移動装置が複数含まれた追従システムに関し、特に、複数の無人移動装置のそれぞれが順番に1つの物体を追従する場合における処理の引継に関する。第1無人移動装置から第2無人移動装置への引継がなされることによって、動画像の撮像の引継がなされる。その際、第1無人移動装置において撮像した動画像の画角と、第2無人移動装置において撮像した動画像の画角とが大きく異なれば、引継のタイミングが動画像において明確になってしまう。動画像の内容によっては自然な引継が求められる場合もある。実施例5は、動画像において自然な引継を実現することを目的とする。実施例5に係る第1無人移動装置10aは、図2と同様のタイプである。ここでは、これまでとの差異を中心に説明する。
 図10は、追従システム100の構成を示す。追従システム100は、図1と同様に、第1無人移動装置10a、第2無人移動装置10bと総称される無人移動装置10を含む。ここで、第1無人移動装置10aは追従対象物体12を撮像しており、第2無人移動装置10bは、第1無人移動装置10aとの引継を実行するために、第1無人移動装置10aの方に向かって飛行する。その際、第2無人移動装置10bにおいて撮像される引継後の動画像の画角が、第1無人移動装置10aにおいて撮像された引継前の動画像の画角に近くなる位置まで、第2無人移動装置10bは移動してから引継を実行する。
 図11は、第2無人移動装置10bの構成を示す。図2と比較して、第2無人移動装置10bの自動移動部36は、導出部78を含む。導出部78は、第1受信部60において受信した第1位置情報から、第2受信部62において受信した第2位置情報に向かう方向を導出する。自動移動部36は、位置情報処理部22において測位した第2無人移動装置10bの位置情報(以下、これもまた「第3位置情報」という)から第2位置情報に向かう方向が、導出部72において導出した方向に近くなるように移動する。なお、位置情報処理部22に保持される所定値であって、かつ距離と比較される所定値が、引継の際に画角を近づけるか否かに応じて変更されてもよい。例えば、画角を近づける場合の所定値は、画角を近づけない場合の所定値よりも小さくされる。
 本実施例によれば、第3位置情報から第2位置情報に向かう方向が、第1位置情報から第2位置情報に向かう方向に近くなるように移動するので、引き継がれる側の無人移動装置において撮像した動画像の画角に近い画角の動画像を撮像できる。また、引き継がれる側の無人移動装置において撮像した動画像の画角に近い画角の動画像が撮像されるので、自然な引継を実行できる。
(実施例6)
 次に、実施例6を説明する。実施例6は、これまでと同様に、無人移動装置が複数含まれた追従システムに関し、特に、複数の無人移動装置のそれぞれが順番に1つの物体を追従する場合における処理の引継に関する。これまでは、第1無人移動装置と第2無人移動装置と通信が直接なされている。一方、実施例6では、基地局装置を介して第1無人移動装置と第2無人移動装置と通信がなされている。実施例6における第1無人移動装置10a、第2無人移動装置10bは、図2と同様のタイプである。ここでは、これまでとの差異を中心に説明する。
 図12は、追従システム100の構成を示す。追従システム100は、無人移動装置10と総称される第1無人移動装置10a、第2無人移動装置10b、基地局装置14を含む。第1無人移動装置10aおよび第2無人移動装置10bは、これまでと同様の処理を実行するが、基地局装置14を介して通信する。しかしながら、これまでと異なって、追従対象物体12の検出の認識が第2無人移動装置10bにおいてなされてない。そのため、第2無人移動装置10bは追従対象物体情報要求を送信せず、第1無人移動装置10aは追従対象情報を送信せず、第2無人移動装置10bは引継完了通知を送信しない。実施例6において追従対象物体12の検出の認識が基地局装置14においてなされる。
 第2無人移動装置10bは、距離が所定値以下になった場合、追従対象物体情報要求を送信する代わりに、追従対象物体12の検出の認識を要求するための信号(以下、「認識要求」という)を基地局装置14に送信する。基地局装置14は、認識要求を受信した場合、画像情報の送信を要求するための信号(以下、「画像情報要求」という)を各無人移動装置10に送信する。各無人移動装置10は、画像情報要求を受信すると、画像情報を基地局装置14に送信する。画像情報は、無人移動装置10において撮像した動画像をキャプチャすることによって生成した画像あるいは画像の特徴量を含む。基地局装置14は、各無人移動装置10からの画像情報を受信する。
 基地局装置14は、各無人移動装置10から受信した画像情報を比較する。例えば、基地局装置14は、画像の相関値を計算して一定の値以上であれば、画像が類似しているとして、第2無人移動装置10bにおける追従対象物体12の検出を認識する。なお、画像の代わりに、特徴量が使用されてもよい。追従対象物体12の検出を認識した場合、基地局装置14は、各無人移動装置10に引継完了通知を送信する。第2無人移動装置10bは、引継完了通知を受信した場合、追従状態に遷移し、第1無人移動装置10aは、引継完了通知を受信した場合、帰還状態に遷移する。
 以上の構成による追従システム100の動作を説明する。図13は、追従システム100による引継手順を示すシーケンス図である。第1無人移動装置10aは追従状態であり(S100)、第2無人移動装置10bは待機状態である(S102)。第1無人移動装置10aは基地局装置14に引継要求を送信し(S104)、基地局装置14は、第2無人移動装置10bに引継要求を送信する(S106)。第1無人移動装置10aは交代待機状態に遷移し(S108)、第2無人移動装置10bは交代状態に遷移する(S110)。第2無人移動装置10bは、移動する(S112)。第2無人移動装置10bは、距離が所定値以下になる(S114)と、基地局装置14に認識要求を送信する(S116)。
 基地局装置14は第2無人移動装置10bに画像情報要求を送信し(S118)、第2無人移動装置10bは基地局装置14に画像情報を送信する(S120)。基地局装置14は第1無人移動装置10aに画像情報要求を送信し(S122)、第1無人移動装置10aは基地局装置14に画像情報を送信する(S124)。基地局装置14は、追従対象物体12の検出の認識処理を実行する(S126)。認識できれば、基地局装置14は、第2無人移動装置10bに引継完了通知を送信し(S128)、第1無人移動装置10aに引継完了通知を送信する(S130)。第1無人移動装置10aは帰還状態に遷移し(S132)、第2無人移動装置10bは追従状態に遷移する(S134)。
 本実施例によれば、基地局装置を介して通信を実行するので、構成の自由度を判定できる。また、無人移動装置において追従対象物体の検出を認識するための処理が不要になるので、無人移動装置の処理量の増加を抑制できる。
 以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 本実施例1乃至6において、無人移動装置10は、ドローンなどの無人飛行体であるとしている。しかしながらこれに限らず例えば、無人移動装置10は、無人車両、無人船舶、探査衛星であってもよく、自立する無人機であればよい。本変形例によれば、構成の自由度を向上できる。
 10 無人移動装置、 12 追従対象物体、 20 撮像部、 22 位置情報処理部、 24 引継開始処理部、 26 追従対象物体認識部、 28 追従対象物体情報処理部、 30 引継完了処理部、 32 制御部、 34 記憶部、 36 自動移動部、 38 通信部、 50 第1送信部、 52 第2送信部、 54 受信部、 60 第1受信部、 62 第2受信部、 64 送信部、 100 追従システム。
 本発明によれば、無人移動装置間において引継を確実に実行できる。

Claims (12)

  1.  撮像機能と通信機能とを備えた無人移動装置であって、
     追従対象物体の撮像の引継要求と本無人移動装置の第1位置情報とを他の無人移動装置に送信する第1送信部と、
     前記第1送信部において引継要求と第1位置情報とを送信してから、前記追従対象物体の外観に関する特徴情報と、前記追従対象物体の第2位置情報とを前記他の無人移動装置に送信する第2送信部と、
     前記第2送信部において特徴情報と第2位置情報とを送信してから、前記他の無人移動装置からの引継完了通知を受信する受信部と、
     を備えることを特徴とする無人移動装置。
  2.  前記第2送信部は、前記第1送信部において引継要求と第1位置情報とを送信した後、本無人移動装置と前記他の無人移動装置との距離が所定値以下になった場合、特徴情報と第2位置情報とを送信することを特徴とする請求項1に記載の無人移動装置。
  3.  前記他の無人移動装置からの第3位置情報を受信する追加受信部と、
     前記追加受信部において受信した第3位置情報から第2位置情報に向かう方向を導出する導出部と、
     前記導出部において導出した方向に近い方向で前記追従対象物体を撮像した画像を選択する選択部と、
     前記選択部において選択した画像をもとに特徴情報を生成する生成部と、
     をさらに備えることを特徴とする請求項1または2に記載の無人移動装置。
  4.  前記他の無人移動装置からの第3位置情報を受信する追加受信部と、
     前記追加受信部において受信した第3位置情報から第2位置情報に向かう経路を導出する導出部とをさらに備え、
     本無人移動装置は、前記導出部において導出した経路の近くに移動することを特徴とする請求項1または2に記載の無人移動装置。
  5.  撮像機能と通信機能とを備えた無人移動装置であって、
     追従対象物体を撮像している他の無人移動装置から、前記追従対象物体の撮像の引継要求と前記他の無人移動装置の第1位置情報とを受信する第1受信部と、
     前記第1受信部において引継要求と第1位置情報とを受信してから、前記追従対象物体の外観に関する特徴情報と、前記追従対象物体の第2位置情報とを前記他の無人移動装置から受信する第2受信部と、
     前記第2受信部において受信した特徴情報が、撮像した画像に対応している場合に、前記追従対象物体の検出を認識する追従対象物体認識部と、
     前記追従対象物体認識部において前記追従対象物体の検出を認識した場合に、前記他の無人移動装置に引継完了通知を送信する送信部と、
     を備えることを特徴とする無人移動装置。
  6.  前記第2受信部は、前記第1受信部において引継要求と第1位置情報とを受信した後、本無人移動装置と前記他の無人移動装置との距離が所定値以下になった場合、特徴情報と第2位置情報とを受信することを特徴とする請求項5に記載の無人移動装置。
  7.  前記第1受信部において受信した引継要求と第1位置情報とをもとに、前記他の無人移動装置の検出を認識する無人移動装置認識部をさらに備え、
     前記第2受信部は、前記無人移動装置認識部において前記他の無人移動装置の検出を認識した場合に、特徴情報と第2位置情報とを受信することを特徴とする請求項5または6に記載の無人移動装置。
  8.  前記第1受信部において受信した第1位置情報から、前記第2受信部において受信した第2位置情報に向かう方向を導出する導出部をさらに備え、
     本無人移動装置は、本無人移動装置の第3位置情報から第2位置情報に向かう方向が前記導出部において導出した方向に近くなるように移動することを特徴とする請求項5から7のいずれかに記載の無人移動装置。
  9.  撮像機能と通信機能とを備えた無人移動装置での引継方法であって、
     追従対象物体の撮像の引継要求と本無人移動装置の第1位置情報とを他の無人移動装置に送信するステップと、
     引継要求と第1位置情報とを送信してから、前記追従対象物体の外観に関する特徴情報と、前記追従対象物体の第2位置情報とを前記他の無人移動装置に送信するステップと、
     特徴情報と第2位置情報とを送信してから、前記他の無人移動装置からの引継完了通知を受信するステップと、
     を備えることを特徴とする引継方法。
  10.  撮像機能と通信機能とを備えた無人移動装置での引継方法であって、
     追従対象物体を撮像している他の無人移動装置から、前記追従対象物体の撮像の引継要求と前記他の無人移動装置の第1位置情報とを受信するステップと、
     引継要求と第1位置情報とを受信してから、前記追従対象物体の外観に関する特徴情報と、前記追従対象物体の第2位置情報とを前記他の無人移動装置から受信するステップと、
     受信した特徴情報が、撮像した画像に対応している場合に、前記追従対象物体の検出を認識するステップと、
     前記追従対象物体の検出を認識した場合に、前記他の無人移動装置に引継完了通知を送信するステップと、
     を備えることを特徴とする引継方法。
  11.  撮像機能と通信機能とを備えた無人移動装置におけるプログラムであって、
     追従対象物体の撮像の引継要求と本無人移動装置の第1位置情報とを他の無人移動装置に送信するステップと、
     引継要求と第1位置情報とを送信してから、前記追従対象物体の外観に関する特徴情報と、前記追従対象物体の第2位置情報とを前記他の無人移動装置に送信するステップと、
     特徴情報と第2位置情報とを送信してから、前記他の無人移動装置からの引継完了通知を受信するステップとをコンピュータに実行させるためのプログラム。
  12.  撮像機能と通信機能とを備えた無人移動装置におけるプログラムであって、
     追従対象物体を撮像している他の無人移動装置から、前記追従対象物体の撮像の引継要求と前記他の無人移動装置の第1位置情報とを受信するステップと、
     引継要求と第1位置情報とを受信してから、前記追従対象物体の外観に関する特徴情報と、前記追従対象物体の第2位置情報とを前記他の無人移動装置から受信するステップと、
     受信した特徴情報が、撮像した画像に対応している場合に、前記追従対象物体の検出を認識するステップと、
     前記追従対象物体の検出を認識した場合に、前記他の無人移動装置に引継完了通知を送信するステップとをコンピュータに実行させるためのプログラム。
PCT/JP2017/009931 2016-03-23 2017-03-13 無人移動装置、引継方法、プログラム WO2017163973A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/133,779 US20190019051A1 (en) 2016-03-23 2018-09-18 Unmanned mobile apparatus capable of transferring imaging, method of transferring

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016058756A JP6774597B2 (ja) 2016-03-23 2016-03-23 無人移動装置、引継方法、プログラム
JP2016-058756 2016-03-23

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/133,779 Continuation US20190019051A1 (en) 2016-03-23 2018-09-18 Unmanned mobile apparatus capable of transferring imaging, method of transferring

Publications (1)

Publication Number Publication Date
WO2017163973A1 true WO2017163973A1 (ja) 2017-09-28

Family

ID=59899439

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/009931 WO2017163973A1 (ja) 2016-03-23 2017-03-13 無人移動装置、引継方法、プログラム

Country Status (3)

Country Link
US (1) US20190019051A1 (ja)
JP (1) JP6774597B2 (ja)
WO (1) WO2017163973A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019185746A (ja) * 2018-04-04 2019-10-24 株式会社日立製作所 顧客サービス引き継ぎ方法、非一時的記録媒体、及びサービスロボット

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6281720B2 (ja) * 2016-05-24 2018-02-21 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 撮像システム
JP2018073173A (ja) * 2016-10-31 2018-05-10 株式会社エンルートM’s 作業システム、その方法及びプログラム
JP7102794B2 (ja) * 2018-03-12 2022-07-20 オムロン株式会社 無人航空機、および見守り方法
JP6726224B2 (ja) * 2018-03-19 2020-07-22 Kddi株式会社 管理装置及び飛行装置管理方法
JP2021166316A (ja) * 2018-06-18 2021-10-14 ソニーグループ株式会社 移動体及び制御方法
JP7215866B2 (ja) * 2018-10-12 2023-01-31 i-PRO株式会社 追跡システム、巡回システム、および無人飛行体
WO2020075362A1 (ja) * 2018-10-12 2020-04-16 パナソニックi-PROセンシングソリューションズ株式会社 警備システム、及び、警備方法
JP2020071780A (ja) * 2018-11-01 2020-05-07 トヨタ自動車株式会社 自動走行車両支援システムおよびサーバ
WO2020110401A1 (ja) * 2018-11-29 2020-06-04 パナソニックIpマネジメント株式会社 無人飛行体、情報処理方法およびプログラム
JP7413003B2 (ja) 2019-12-20 2024-01-15 三菱重工業株式会社 誘導装置、飛行体、防空システム、および誘導プログラム
JP7137034B2 (ja) * 2020-06-26 2022-09-13 Kddi株式会社 管理装置、飛行管理方法、プログラム及び撮影システム
JP7048673B2 (ja) * 2020-06-26 2022-04-05 Kddi株式会社 管理装置、飛行装置管理方法及び撮影システム
WO2022138180A1 (ja) * 2020-12-23 2022-06-30 ソニーグループ株式会社 センサデバイスおよびそのデータ処理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004299025A (ja) * 2003-04-01 2004-10-28 Honda Motor Co Ltd 移動ロボット制御装置、移動ロボット制御方法及び移動ロボット制御プログラム
WO2015059739A1 (ja) * 2013-10-21 2015-04-30 株式会社日立製作所 搬送管理装置、搬送システム、および、搬送管理プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9643722B1 (en) * 2014-02-28 2017-05-09 Lucas J. Myslinski Drone device security system
WO2017013863A1 (ja) * 2015-07-17 2017-01-26 日本電気株式会社 照射システム、照射方法およびプログラム記憶媒体
US9692498B2 (en) * 2015-10-16 2017-06-27 At&T Intellectual Property I, L.P. Extending wireless signal coverage with drones
EP3168704B1 (en) * 2015-11-12 2021-02-24 Hexagon Technology Center GmbH 3d surveying of a surface by mobile vehicles
US10562398B2 (en) * 2016-11-22 2020-02-18 Walmart Apollo, Llc System and method for autonomous battery replacement
US10674719B2 (en) * 2018-02-12 2020-06-09 International Business Machines Corporation Wild-life surveillance and protection
JP6390015B2 (ja) * 2018-03-13 2018-09-19 株式会社プロドローン 生体探索システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004299025A (ja) * 2003-04-01 2004-10-28 Honda Motor Co Ltd 移動ロボット制御装置、移動ロボット制御方法及び移動ロボット制御プログラム
WO2015059739A1 (ja) * 2013-10-21 2015-04-30 株式会社日立製作所 搬送管理装置、搬送システム、および、搬送管理プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019185746A (ja) * 2018-04-04 2019-10-24 株式会社日立製作所 顧客サービス引き継ぎ方法、非一時的記録媒体、及びサービスロボット

Also Published As

Publication number Publication date
JP2017174110A (ja) 2017-09-28
JP6774597B2 (ja) 2020-10-28
US20190019051A1 (en) 2019-01-17

Similar Documents

Publication Publication Date Title
WO2017163973A1 (ja) 無人移動装置、引継方法、プログラム
US10165233B2 (en) Information processing method, electronic device and computer storage medium
Nguyen et al. Robust target-relative localization with ultra-wideband ranging and communication
RU2637838C2 (ru) Способ управления беспилотным летательным аппаратом и устройство для этого
US20200245217A1 (en) Control method, unmanned aerial vehicle, server and computer readable storage medium
US11032859B2 (en) Electronic device for controlling data communication of external electronic device and communication system
US20160309124A1 (en) Control system, a method for controlling an uav, and a uav-kit
KR101758093B1 (ko) 무인항공기 제어 시스템 및 방법
US11932391B2 (en) Wireless communication relay system using unmanned device and method therefor
US10299314B2 (en) Autonomous mobile robot, movement control method, movement control program, and system
US10097252B2 (en) Method and apparatus for beamforming in wireless communication system
US20190288387A1 (en) Directional antenna tracking method and communication device
KR102249176B1 (ko) 엔드 디바이스, 엔드 디바이스를 제어하기 위한 에지 서버 및 클라우드 서버를 포함하는 3자간 통신 시스템, 및 그의 동작 방법
CN110737273B (zh) 机器人自主充电对接控制方法、设备及计算机可读存储介质
US20200180759A1 (en) Imaging device, camera-equipped drone, and mode control method, and program
US11575832B2 (en) Imaging device, camera-mounted drone, mode control method, and program
KR20200023974A (ko) 회전형 라이다와 다중 카메라간의 센서 동기화 방법 및 그 장치
KR20190071238A (ko) 전자 장치 간의 무선 통신을 수행하는 방법, 이를 위한 전자 장치
KR102267764B1 (ko) 군집 드론 기반 광대역 정찰 감시 시스템 및 이를 이용한 광대역 정찰 감시 방법
KR102135314B1 (ko) 무인 비행체 시스템 및 무인 비행체의 제어 방법
JP2020010231A (ja) 電子機器、その制御方法、およびそのプログラム
CN112911151A (zh) 目标跟随方法、装置、设备、系统及存储介质
JP7059872B2 (ja) 移動式マニピュレータ、移動ロボット、サーバ、および移動式マニピュレータシステム
WO2022000209A1 (zh) 定位方法及定位设备
US11402460B2 (en) Method and system for processing a signal transmitted to a motor vehicle by a remote communicating entity

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17770016

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17770016

Country of ref document: EP

Kind code of ref document: A1