JP6181321B2 - 目標物体を誘導する方法、システム、及び装置 - Google Patents

目標物体を誘導する方法、システム、及び装置 Download PDF

Info

Publication number
JP6181321B2
JP6181321B2 JP2016553444A JP2016553444A JP6181321B2 JP 6181321 B2 JP6181321 B2 JP 6181321B2 JP 2016553444 A JP2016553444 A JP 2016553444A JP 2016553444 A JP2016553444 A JP 2016553444A JP 6181321 B2 JP6181321 B2 JP 6181321B2
Authority
JP
Japan
Prior art keywords
target object
uav
area
target
movable object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016553444A
Other languages
English (en)
Other versions
JP2017509330A (ja
Inventor
シェン、ユ
リウ、アン
ゾウ、グユエ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Publication of JP2017509330A publication Critical patent/JP2017509330A/ja
Application granted granted Critical
Publication of JP6181321B2 publication Critical patent/JP6181321B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K15/00Devices for taming animals, e.g. nose-rings or hobbles; Devices for overturning animals in general; Training or exercising equipment; Covering boxes
    • A01K15/02Training or exercising equipment, e.g. mazes or labyrinths for animals ; Electric shock devices ; Toys specially adapted for animals
    • A01K15/021Electronic training devices specially adapted for dogs or cats
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K15/00Devices for taming animals, e.g. nose-rings or hobbles; Devices for overturning animals in general; Training or exercising equipment; Covering boxes
    • A01K15/02Training or exercising equipment, e.g. mazes or labyrinths for animals ; Electric shock devices ; Toys specially adapted for animals
    • A01K15/021Electronic training devices specially adapted for dogs or cats
    • A01K15/023Anti-evasion devices
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K15/00Devices for taming animals, e.g. nose-rings or hobbles; Devices for overturning animals in general; Training or exercising equipment; Covering boxes
    • A01K15/02Training or exercising equipment, e.g. mazes or labyrinths for animals ; Electric shock devices ; Toys specially adapted for animals
    • A01K15/027Exercising equipment, e.g. tread mills, carousels
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K15/00Devices for taming animals, e.g. nose-rings or hobbles; Devices for overturning animals in general; Training or exercising equipment; Covering boxes
    • A01K15/04Devices for impeding movement; Devices for impeding passage through fencing, e.g. hobbles or the like; Anti-kicking devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/106Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/12Target-seeking control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K27/00Leads or collars, e.g. for dogs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Environmental Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Animal Husbandry (AREA)
  • Zoology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Remote Sensing (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Toys (AREA)
  • Business, Economics & Management (AREA)
  • Traffic Control Systems (AREA)
  • Astronomy & Astrophysics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Birds (AREA)
  • Biophysics (AREA)

Description

指定されたルートに沿って移動できる無人航空機(UAV)等の航空機に関する。
個人が家庭または建物の外部で定期的に運動すること、屋外で時間を使うことが必要なペットを飼うことがある。しかし、ペットの所有者がペットを外に連れていく時間がなく、それを望まない場合もある。そのため、所有者がペットを散歩させる人を雇用することがあり、これには費用がかかり得る。
UAV等の可動物体によって所定のルート、瞬時に指定されたルート、または指定された領域または地域の中の指定されていないルートに沿って目標物体を誘導する方法を提供する必要がある。UAVは、目標物体が屋外で運動すること、あるいは屋外で時間を使うことができるように、ルートに沿ってペットまたは目標物体を自律的にまたは半自律的に誘導できる。本発明においては、UAVによって目標物体を誘導するシステム及び方法を提供する。また、本発明によるシステム及び方法によれば、UAVが目標物体を指定されたルートまたは指定された地域に誘導する能力を高めることができる。通信は、指定されたルートまたは指定された地域の少なくとも一方に応じてユーザーとUAVの間で発生し得る。また、目標物体の行動または動作に関係する通信が発生し得る。UAVは目標物体の位置を突き止め、目標物体の行動及び動作を認識できる。目標物体は、ユーザーによって飼育されるペット等の動物であり得る。
本発明の1つの態様において、目標物体を誘導する方法は、次のステップ(a)〜(d)を備える。
(a)目標領域を指定するユーザー装置を介してユーザー入力を受け取るステップ。ここで、目標領域は、(1)目標物体の移動が許される許容領域、または(2)目標物体の移動が許可されない非許容領域を含む。(b)目標物体を誘導する可動物体から可動物体の場所を示す信号を受信するステップ。(c)可動物体が、目標物体が許容領域を出ることを示すインジケーター、または可動物体が非許容領域に進入することを示すインジケーターを受け取るステップ。ここで、インジケーターは可動物体の場所及び目標領域に基づいて生成される。(d)インジケーターに応じて可動物体を動作させるステップ。
ある実施形態において、目標物体は動物であり得る。可動物体はUAVであり得る。可動物体を動作させるステップは、UAVの飛行を制御して目標物体の移動を制御するステップを含み得る。可動物体を動作させるステップは、ユーザーに、UAVが許容領域から出るステップまたは非許容領域への進入を警告するステップを含み得る。ユーザー入力は、許容領域または非許容領域を指定するグローバル座標を含み得る。
ユーザー入力は、許容領域または非許容領域の境界を指定する地図上の画像または外郭線を含み得る。本発明に関わる方法は、UAVを使用して目標物体を誘導するステップを含んでよく、UAVは目標物体に物理的に取付けられる。UAVは、目標物体が装着するカラーに取付けられるリードを使用して目標物体に取付けられる。
ある実施形態において、UAVは、UAVが垂直に離陸することまたは着陸することの少なくとも一方を可能にする複数の回転翼を含んだ回転翼航空機であり得る。UAVは、UAVの場所についての情報を送信する位置設定装置を含み得る。位置設定装置はGPSセンサーであり得る。許容領域を出ることを示すインジケーターは、目標物体が許容領域を出るときに受け取ることができる。許容領域から出ることを示すインジケーターは、目標物体の許容領域境界から所定の閾値距離内にあり、目標物体が境界の方向に進んでいるときに受け取り得る。目標物体は閾値速度を超える速度で境界の方向に進むことがある。非許容領域に進入することを示すインジケーターは、目標物体が非許容領域に進入するときに受け取ることができる。非許容領域に進入することを示すインジケーターは、目標物体の非許容領域の境界から所定の閾値距離内にあり、目標物体が境界の方向に進んでいるときに受け取り得る。目標物体は、閾値速度を超える速度で境界の方向に進むことがある。可動物体を動作させることは、許容領域から出ることまたは非許容領域に進入することを示すインジケーターが受信されると、目標物体に対してユーザーの声を再生することを含み得る。本発明に関わる方法は、ユーザー装置からUAVにリアルタイムでユーザーの声を伝達することを含むこともあり得る。ユーザーの声は事前に録音されたものであり得る。可動物体を動作させることは、目標物体が所定の期間内にユーザーの声に反応しない場合に目標物体に電気ショックを与えることを含み得る。ユーザーインタフェースはUAVの画面あるいはスピーカでよく、警告を視聴覚的に認識可能にできる。
本発明の他の態様において、目標物体を誘導するためのシステムは、次の(a)〜(d)を個別にまたは複合的に可能にする1つ以上のプロセッサーを含み得る。(a)目標領域を指定するユーザー入力信号を受信する。ここで、目標領域は、(1)目標物体の移動許容領域、または、(2)目標物体の移動の非許容領域を含む。(b)目標物体を誘導する可動物体の場所を示す信号を受信する。(c)可動物体が、いつ許容領域から出るのか、またはいつ非許容領域に進入するのかを、目標領域、及び可動物体の場所を示す信号に基づいて判断する。(d)可動物体が、許容領域を出るのか、それとも非許容領域に進入するのかの判断に応じて可動物体を動作させることを決定する。
ある実施形態において、目標物体は動物であり得る。可動物体はUAVであり得る。可動物体を動作させることは、UAVの飛行を制御して目標物体の移動を制御することを含む。可動物体を動作させることは、ユーザーに、UAVが許容領域を出ることまたは非許容領域に進入することを警告することを含み得る。UAVは、UAVが目標物体を誘導している間、目標物体に物理的に取付けられる。UAVは、目標物体が装着するカラーに取付けられるリードを使用して目標物体に取付けられる。
UAVは、UAVが垂直に離陸することまたは着陸することの少なくとも一方を可能にする複数の回転翼を含んだ回転翼航空機であり得る。UAVは、UAVの場所の情報を送信する位置設定装置を含み得る。位置設定装置は、GPSセンサーであり得る。
ある実施形態において、許容領域を出ることを示すインジケーターは、目標物体が許容領域を出るときに出力し得る。許容領域を出ることを示すインジケーターは、目標物体が許容領域の境界の所定の閾値距離内にあり、目標物体が境界の方向に進んでいるときに出力し得る。目標物体は閾値速度を超える速度で境界の方向に進むことがある。1つ以上のプロセッサーは、目標物体が非許容領域に進入するときに、UAVが非許容領域に進入すると判断し得る。1つ以上のプロセッサーは、目標物体が非許容領域の境界の所定の閾値距離内にあり、目標物体が境界の方向に進んでいるときに、UAVが非許容領域に進入すると判断し得る。1つ以上のプロセッサーは、目標物体が閾値速度を超える速度で境界の方向に進んでいると判断し得る。
許容領域を出ることまたは非許容領域に進入することを示すインジケーターが受信されると、可動物体は、目標物体に対してユーザーの声を再生し得る。そして、1つ以上のプロセッサーは、可動物体の動作に影響を与え得る。ユーザーの声は、ユーザー装置からUAVにリアルタイムで伝達できる。ユーザーの声は事前に録音されたものであり得る。目標物体が所定の期間内にユーザーの声に反応しない場合、可動物体は、目標物体に電気ショックを与え得る。ユーザーインタフェースはUAVの画面あるいはスピーカでよく、警告を視聴覚的に認識可能にできる。
本発明の他の態様において、可動物体を使用して目標物体を誘導する方法は、次のステップ(a)〜(c)を含み得る。(a)UAVに搭載された1つ以上の視覚センサーを用いてカラーを装着する目標物体を認識するステップ、(b)目標物体が認識されるとリードを使用して、人間の助けを借りずに目標物体のカラーに可動物体を自動的に取付けるステップ、(c)目標物体がリードを介して可動物体に取付けられる間、可動物体を飛行させるステップ。
目標物体は動物であり得、可動物体は無人航空機(UAV)であり得る。UAVは、目標物体が移動中に飛行できる。リードは可撓性材料または曲げることができる材料から形成され得る。本発明に関わる方法は、UAVが飛行中にリードを伸ばすステップまたは引っ込めるステップをさらに含み得る。リードは1つ以上の磁気連結を使用して目標物体のカラーに取付けられる。リードはロボットアームを使用して目標物体のカラーに取付けできる。ロボットアームは、カラーにリードを誘導する1つ以上の拡張部を有し得る。
本発明に関わる方法は、1つ以上の視覚センサーを使用し、カラーを装着する目標物体の少なくとも1つの画像を取得し得る。また、1つ以上のプロセッサーを用いて、目標物体の画像から目標物体を認識し得る。可動物体は、カラーの画像から目標物体を認識する1つ以上のプロセッサーを含み得る。
可動物体はUAVであり得、本発明に関わる方法は、目標物体を認識してからその位置に到着し、目標物体のカラーにUAVを自動的に取付けるために目標物体のより近接にUAVを飛行させるステップをさらに含み得る。可動物体を飛行させるステップは、リードを引き寄せることによって目標物体を誘導することを含み得る。本発明に関わる方法は、目標物体の動きの予測及び可動物体の動きを比較して、可動物体がリードを引き寄せるのに用いる1つ以上のパラメータを決定する、ステップをさらに含み得る。
本発明に関わる方法は、次のステップ(a)〜(c)をさらに含み得る。(a)目標物体の移動中にリードを介して可動物体に取付けられる間、可動物体を使用して目標物体の画像を収集するステップ、(b)地図上で可動物体の場所をユーザーに表示するステップ、(c)目標物体の移動中にリードを介して可動物体に取付けられる間、目標物体に対してユーザーの声を再生するステップ。尚、ユーザーの声はユーザー装置から可動物体にリアルタイムで伝達できる。ユーザーの声は事前に録音されたものであり得、目標物体に対して命令を与え得る。
本発明の1つの態様において、UAVは目標物体を誘導でき、次の(a)〜(d)を含み得る。(a)カラーを装着する目標物体の画像を取得する1つ以上の視覚センサー、(b)カラーを装着する目標物体の画像から目標物体を個々にまたは集合的に認識する1つ以上のプロセッサー、(c)目標物体が認識されてから人間の助けを借りずに目標物体のカラーにリードを自動的に取付けるリード取付け機構、(d)目標物体がリードを介してUAVに取付けられる間、UAVの飛行を可能にする1つ以上の推進部。
目標物体は動物であり得る。UAVは、目標物体が移動中に飛行できる。リードは、可撓性材料または曲げることができる材料から形成され得る。リードは、UAVが飛行中に伸ばすこと、または引っ込めることができる。リードは1つ以上の磁気連結を使用し、目標物体のカラーに取付けられる。リードは、ロボットアームを用いて目標物体のカラーに取付けられる。ロボットアームは、カラーにリードを誘導する1つ以上の拡張部を含み得る。1つ以上の視覚センサーは、カラーを装着する目標物体の少なくとも1つの画像を取得する。UAVは、目標物体の画像から目標物体を認識し、カラーの画像から目標物体を認識する1つ以上のプロセッサーをさらに含み得る。このプロセッサーは1つ以上の推進部に与える信号を生成する。この信号は、UAVが目標物体を認識してからその位置に到着し、目標物体のカラーにUAVを自動的に取付けるために目標物体のより近接にUAVを飛行させるための信号である。
UAVは、リードを引き寄せることによって目標物体を誘導できる。1つ以上のプロセッサーは、目標物体の動きの予測及びUAVの動きを比較して、UAVがリードを引き寄せるのに使用する1つ以上のパラメータを決定できる。1つ以上の視覚センサーは、目標物体の移動中にリードを介して可動物体に取付けられる間、目標物体の画像を収集できる。1つ以上の視覚センサーは、目標物体のカラーの画像を収集できる。UAVは、目標物体の移動中にリードを介して可動物体に取付けられる間、目標物体に対してユーザーの声を再生する1つ以上のスピーカをさらに含み得る。ユーザーの声はユーザー装置からUAVにリアルタイムで伝達できる。ユーザーの声は事前に録音されたものであり得、目標物体に対して命令を与え得る。
また、本発明の他の態様において、UAVを使用し、目標物体を誘導する方法は、次のステップ(a)〜(c)を含み得る。(a)UAVに搭載された1つ以上の視覚センサーを用いて目標物体を認識するステップ、(b)目標物体を認識すると、人間の助けまたは本発明を使用することなく目標物体に対しアトラクターを自動的に表示するステップ、(c)目標物体が移動中でありアトラクターの後についていく間、UAVを飛行させるステップ。
目標物体は動物であり得る。本発明に関わる方法において、アトラクターは食べられるおやつであり得、選択された香りを放つステップをさらに含み得る。UAVは、目標物体の頭部の高さでまたは頭部の高さ近くでアトラクターをぶら下げられ、アトラクターを表示できる。アトラクターは、UAVによって運ばれる画面に表示される画像であり得る。画像は静止画像、目標物体の所有者の画像、ビデオ、あるいは目標物体の所有者のビデオであり得る。
本発明に関わる方法は、1つ以上の視覚センサーを使用し、UAVに対する目標物体の場所を決定すること、及びUAV飛行の速度を調整するまたは維持してアトラクターを知覚できるよう十分に目標物体に対して近い目標物体に近接して留まるステップをさらに含み得る。また本発明に関わる方法は、1つ以上の視覚センサーを使用し、UAVに対する目標物体の移動の軌跡を特定するステップ、及びUAV飛行の方向を調整するまたは維持して、アトラクターを知覚できるように十分に目標物体に対して近い目標物体に近接して留まるステップをさらに含み得る。また、本発明に関わる方法は、1つ以上の視覚センサーを使用し、目標物体の少なくとも1つの画像を取得するステップをさらに含み得る。
UAVは、目標物体の画像から目標物体を認識する1つ以上のプロセッサーをさらに含み得る。目標物体はカラーを装着していることがある。UAVは、1つ以上のプロセッサーを含み、カラーの画像から目標物体を認識できる。
本発明に関わる方法は、目標物体の移動中にリードを使用して可動物体に取付けられる間、目標物体に対してユーザーの声を再生するステップをさらに含み得る。ユーザーの声は、ユーザー装置からUAVにリアルタイムで伝達できる。ユーザーの声は事前に録音されたものであり得、目標物体に対して命令を与え得る。
本発明による他の実施形態において、目標物体を誘導するUAVは、次の(a)〜(d)を含み得る。(a)カラーを装着する目標物体の画像を取得する1つ以上の視覚センサー、(b)目標物体の画像から目標物体を個々にまたは集合的に認識する1つ以上のプロセッサー、(c)目標物体が認識されると、人間の助けまたは介入なしに目標物体に対してアトラクターを表示するアトラクター表示機構、(d)アトラクターが目標物体に対して表示される間、UAVの飛行を可能にする1つ以上の推進部。
目標物体は動物であり得る。アトラクターは食べられるおやつであり得、選択された香りを放つことがある。UAVは、目標物体の頭部の高さでまたは頭部の高さ近くでアトラクターをぶら下げることによってアトラクターを表示できる。アトラクターは、UAVによって運ばれる画面に表示される画像であり得る。画像は静止画像、目標物体の所有者の画像、ビデオ、あるいは目標物体の所有者のビデオであり得る。
UAVは、1つ以上の視覚センサーを使用し、UAVに対する目標物体の場所を決定し、UAV飛行の速度を調整するまたは維持してアトラクターを知覚できるように目標物体に対して十分に近く目標物体に近接して留まることができる。UAVは、1つ以上の視覚センサーを使用し、UAVに対する目標物体の移動の軌跡を決定し、アトラクターを知覚するために十分に目標物体に対して近い目標物体に近接して留まるためにUAV飛行の方向を調整するまたは維持するようにできる。1つ以上の視覚センサーは、目標物体の少なくとも1つの画像を取得できる。UAVは、目標物体の画像から目標物体を認識する1つ以上のプロセッサーをさらに含み得る。
目標物体はカラーを装着していることがある。UAVは、目標物体の移動中にリードを使用して可動物体に取付けられる間、目標物体に対してユーザーの声を再生するスピーカをさらに含み得る。ユーザーの声は、ユーザー装置からUAVにリアルタイムで伝達できる。ユーザーの声は事前に録音されたものであり得、目標物体に対して命令を与え得る。
本発明の他の態様において、目標物体を誘導する方法が提供され得る。目標物体を誘導する方法は、次のステップ(a)〜(d)を含み得る。(a)目標物体を誘導する場所が既知であるUAVを提供するステップ、(b)UAVに搭載された1つ以上の視覚センサーを用いて目標物体を認識するステップ、(c)UAVに搭載された1つ以上の視覚センサーを用いて目標物体により生じた廃棄物を認識するステップ、(d)廃棄物が目標物体により生じたことをユーザーに警告するステップ。
目標物体は動物であり得る。動物は犬または猫であり得る。本発明に関わる方法は、廃棄物が生じた場所についてユーザーに情報を提供するステップをさらに含み得る。UAVは、廃棄物の画像から廃棄物を認識する1つ以上のプロセッサーをさらに含み得る。ディスプレイを含んだユーザー装置を使用してユーザーに警告できる。ユーザー装置は、スマートフォン、タブレット、またはパーソナルコンピュータであり得る。ユーザー装置は、廃棄物が生じた場所を示す地図を表示できる。ユーザー装置は目標物体が発生させた廃棄物の画像を表示できる。UAVは、目標物体に物理的に取付けられ、目標物体を誘導できる。UAVは、目標物体が装着するカラーに取付けするリードによって目標物体に取付けられる。UAVは、目標物体に対してアトラクターを表示して目標物体を誘導できる。アトラクターは食べられるおやつであり得る。ユーザーは目標物体による廃棄物を除去する専門家であり得る。UAVは、UAVの場所に関する情報を送信する位置設定装置を含み得る。位置設定装置はGPSセンサーであり得る。
本発明の別の実施形態において、目標物体を誘導するUAVは、次の(a)〜(d)を含み得る。(a)目標物体及び目標物体により生じた廃棄物の画像を取得する1つ以上の視覚センサー、(b)(1)目標物体の画像から目標物体を認識する、及び(2)目標物体により生じた廃棄物の画像から廃棄物を個々にまたは集合的に認識する1つ以上のプロセッサー、(c)廃棄物が目標物体のことをユーザーに警告する信号をユーザー装置に送信する通信部、(d)目標物体を誘導する間、UAVの飛行を可能にする1つ以上の推進部。
目標物体は動物であり得る。動物は犬または猫であり得る。UAVは、廃棄物が生じた場所についてユーザーに情報を提供できる。ユーザー装置はディスプレイを含み得る。ユーザー装置はスマートフォン、タブレット、またはパーソナルコンピュータであり得る。ユーザー装置は、廃棄物が生じた場所を示す地図を表示できる。ユーザー装置は、目標物体から生じた廃棄物の画像を表示できる。
UAVは、目標物体に物理的に取付けられ、目標物体を誘導できる。UAVは、目標物体が装着するカラーに取付けられるリードを使用して目標物体に取付けられる。UAVは、目標物体に対してアトラクターを表示して目標物体を誘導できる。アトラクターは食べられるおかしであり得る。ユーザーは目標物体による廃棄物を除去する専門家であり得る。
UAVは、UAVが垂直に離陸することまたは着陸することの少なくとも一方を可能にする複数の回転翼を含んだ回転翼航空機であり得る。UAVは、UAVの場所についての情報を送信する位置設定装置を含み得る。位置設定装置はGPSセンサーであり得る。
本発明の他の態様において、目標物体を誘導する方法は、次のステップ(a)〜(d)を含み得る。(a)目標物体を誘導する場所が既知であるUAVを提供するステップ、(b)UAVに搭載された1つ以上の視覚センサーを用いて目標物体を認識するステップ、(c)UAVに搭載された1つ以上の視覚センサーを用いて目標物体の廃棄物を認識するステップ、(d)UAVを使用して廃棄物を認識し廃棄物を除去するステップ。
目標物体は動物であり得る。動物は犬または猫であり得る。UAVは、廃棄物が生じた場所についてユーザーに情報を提供できる。ユーザー装置はディスプレイを含み得る。ユーザー装置はスマートフォン、タブレット、またはパーソナルコンピュータであり得る。ユーザー装置は、廃棄物が生じた場所を示す地図を表示できる。ユーザー装置は、目標物体により生じた廃棄物の画像を表示できる。
UAVは、目標物体に物理的に取付けられ、目標物体を誘導できる。UAVは、目標物体が装着するカラーに取付けられるリードを使用して目標物体に取付けられる。UAVは、目標物体に対してアトラクターを表示して目標物体を誘導できる。アトラクターは食べられるおかしであり得る。ユーザーは目標物体による廃棄物を除去する専門家であり得る。
UAVは、UAVが垂直に離陸することまたは着陸することの少なくとも一方を可能にする複数の回転翼を含んだ回転翼航空機であり得る。UAVは、UAVの場所の情報を送信する位置設定装置を含み得る。位置設定装置をGPSセンサーとしてもよい。
本発明に関わる方法は、機械的なアームで廃棄物を除去するステップをさらに含み得る。
本発明の別の実施形態において、目標物体を誘導するUAVは、次の(a)〜(d)を含み得る。(a)目標物体及び目標物体により生じた廃棄物の画像を取得する1つ以上の視覚センサー、(b)(1)目標物体の画像から目標物体を認識する、及び(2)目標物体により生じた廃棄物の画像から廃棄物を個々にまたは集合的に認識する1つ以上のプロセッサー、(c)廃棄物が目標物体のことをユーザーに警告する信号をユーザー装置に送信する通信部、(d)目標物体を誘導する間、UAVの飛行を可能にする1つ以上の推進部。
目標物体は動物であり得る。動物は犬または猫であり得る。UAVは、廃棄物が生じた場所についてユーザーに情報を提供できる。UAVは、廃棄物の画像から廃棄物を認識する1つ以上のプロセッサーをさらに含み得る。UAVは、目標物体に物理的に取付けられ、目標物体を誘導できる。UAVは、目標物体が装着するカラーに取付けられるリードを使用して目標物体に取付けられる。UAVは、目標物体に対してアトラクターを表示して目標物体を誘導できる。
アトラクターは食べられるおやつであることがある。UAVは、UAVが垂直に離陸することまたは着陸することの少なくとも一方を可能にする複数の回転翼を含んだ回転翼航空機であり得る。UAVは、UAVの場所の情報を送信する位置設定装置を含み得る。位置設定装置をGPSセンサーとしてもよい。1つ以上の廃棄物除去部は、廃棄物を除去するためにUAVから伸びる機械的なアームを含み得る。
本発明の他の態様において、目標物体を誘導する方法は、次のステップ(a)〜(d)を含み得る。(a)ユーザー装置を介してユーザー入力を受け取るステップ、つまりUAVが目標物体を誘導するための移動ルートを受け取るステップ、(b)目標物体の移動中に移動ルートに沿ってUAVを飛行させ、場所が既知であるUAVを使用し目標物体を誘導するステップ、(c)UAVが移動ルートに沿って目標物体を誘導する間、ユーザー装置を介して移動ルートに対する変更を受信して、更新された移動ルートを提供するステップ、(d)更新された移動ルートに沿ってUAVを飛行させるステップ。
ユーザー入力は、移動ルートを指定するグローバル座標、更新された移動ルートを指定するグローバル座標、移動ルートを指定する地図上の画像または線、更新された移動ルートを指定する地図上の画像または線、を含み得る。
UAVは、目標物体に物理的に取付けられ、目標物体を誘導できる。UAVは、目標物体が装着するカラーに取付けられるリードを使用して目標物体に取付けられる。目標物体は動物であり得る。動物は犬または猫であり得る。UAVは、UAVが垂直に離陸することまたは着陸することの少なくとも一方を可能にする複数の回転翼を含んだ回転翼航空機であり得る。UAVは、UAVの場所の情報を送信する位置設定装置を含み得る。位置設定装置をGPSセンサーとしてもよい。
また、本発明に関わる方法は、次のステップ(a)〜(c)を含み得る。(a)UAVに搭載された1つ以上の視覚センサーを用いて目標物体の画像を取得するステップ、(b)1つ以上のプロセッサーを用いて、目標物体が、いつ移動ルートまたは更新された移動ルートから逸脱したのかを目標物体の画像に基づいて検出するステップ、(c)目標物体が移動ルートまたは更新された移動ルートから逸脱しているときに目標物体に対してユーザーの声を再生するステップ。ユーザーの声は、ユーザー装置からUAVにリアルタイムで伝達でき、事前に録音した声とし得る。また、本発明に関わる方法は、目標物体が所定の距離を越えて移動ルートを逸脱するときに、目標物体に電気ショックを与えるステップをさらに含み得る。
本発明の他の目的及び特徴は、明細書、特許請求の範囲、及び添付の図面を参照することによって明らかになるであろう。
(参照による組込み)
本明細書において言及される全ての刊行物、特許、および特許出願は、個別の刊行物、特許、または特許出願のそれぞれが具体的にかつ個別に示され参照により組み込まれるのと同程度に、参照によって本明細書に組み込まれる。
本発明の新規の特徴は、添付する特許請求の範囲において、詳細に示される。本発明の特徴及び利点は、本発明の原理を利用する例示的な実施形態を示す以下の詳細な説明、および以下の付随する図面を参照することによって、より深く理解されるであろう。
ユーザー、無人航空機(UAV)及び目標物体を含み、UAVがユーザーと通信中に目標物体を誘導するシステムの例を示す図である。 目標物体の移動が許容される、または許容されない領域を指定するために使用できる地図を示す図である。 ユーザーが、ユーザーインタフェース上で目標物体の移動の許容領域または非許容領域を指定する例を示す図である。 境界と、目標物体が接近できるかまたは交差できるかの少なくとも一方の境界を取り囲む閾を示す図である。 UAVが目標物体を誘導できる移動ルートの例を示す図である。 UAVが認識できるカラーを装着する目標物体を示す図である。 目標物体に物理的に接続される間、目標物体を誘導するUAVを示す図である。 ユーザーから目標物体に音声刺激または視覚刺激の少なくとも一方を示すUAVを示す図である。 目標物体に対する物理的な接続なしに目標物体を誘導するUAVを示す図である。 目標物体の廃棄物を認識するUAVを示す図である。 UAVが、目標物体の廃棄物の発生及び場所についてユーザーに警告するプロセスを示す図である。 本発明の実施形態に関わるUAVを示す図である。 本発明の実施形態に関わる支持機構及び搭載物を含んだ可動物体を示す図である。 本発明の実施形態に従って可動物体を制御するためのシステムを示す概略図である。
以下、本発明によるシステム、装置、及び方法について説明する。すなわち、所定のルート、瞬時に指定されたルート、または指定された領域または地域の中の指定されていないルートに沿って無人航空機(UAV)によって目標物体を誘導するための機構について説明する。本発明によるシステム、デバイス、及び方法によれば、目標物体の認識された行動または動作の少なくとも一方に対応できる。なお、UAVの説明は、任意の他のタイプのUAV、あるいは任意の他のタイプの可動物体に適用され得る。
本発明によれば、目標物体を誘導するUAVが実現できる。ユーザーは、UAVと通信中である装置を使用して命令をUAVに出し、目標物体を誘導できる。装置はUAVと直接的に通信することもあれば、ネットワーク上でUAVと通信することもある。ユーザーは、UAVが目標物体を誘導する前に、またはUAVがリアルタイムで目標物体を誘導している間、命令を出せる。ある実施形態において、UAVは、ユーザーの視覚または音声の少なくとも一方のストリームまたは記録を放送するためのインタフェースに接続できる。
また、UAVは、目標物体から指定された距離の範囲内に留まるようにできる。ある実施形態において、目標物体は物理的な取付け機構(例えば、リード)を使ってUAVに取付けできる。UAVは、物理的な取付け機構に対して力を使用して目標物体の誘導を支援し得る。UAVは1つ以上の視覚センサーを含み得る。視覚センサーは、目標物体の画像を認識するプロセッサーと通信し得る。UAVは、視覚センサー及び1つ以上のプロセッサーを使用し、目標物体に物理的に取付けることなく目標物体の指定された距離の範囲内に留まることができる。ある実施形態において、UAVは、目標物体がUAVからの指定距離に従うこと、またはUAVからの指定距離に留まることを拒絶した場合、目標物体にアトラクターを与えることができる。
また、UAVは、目標物体または人を先導するまたは導くことができる。ある実施形態において、目標物体は1匹以上の動物、ペットであり得る。ペットは、例えば、犬、猫、トカゲ、馬、兎、フェレット、豚、またはユーザーによってペットとして飼われ得るなんらかの齧歯動物であり得る。ペットは哺乳動物であってもよい。また、ある実施例において、ペットは爬虫類であり得る。ペットは、地表を横断し得る陸生のペットであり得る。また、ペットは空中を飛ぶことができてもよい(例えば、鳥)。UAVは、所定の経路に沿って、所定領域内の指定されていない経路に沿って、または特定の移動パラメータ(例えば、ルートの長さ、時間量、非許容領域の外部に留まること)に従ってどこへでも目標物体を先導できる。
また、UAVは、1つ以上のプロセッサーから所定の経路または領域に関する命令を受け取ることができる。プロセッサーはUAVに搭載されることもあれば、搭載されないこともある。例えば、1つ以上のプロセッサーは、サーバ、ユーザー装置等の外部装置上にあることもあれば、クラウドコンピューティングインフラストラクチャで提供されることもある。プロセッサーはさらに通信インタフェースを介して少なくとも1人のユーザーと通信できる。ユーザーは、UAVが、それぞれに沿ってまたはそれぞれの範囲内で目標物体を導くための経路または地理的地域を指定するためにパラメータを提供できる。また、UAVは、視覚センサーを有し得る。視覚センサーは、目標物体を認識でき、UAVは目標物体の場所を連続的に監視できる。ある実施形態において、視覚センサーは、例えばカラーまたはハーネス等、目標物体に装着する品目を認識できる。また、UAVは、目標物体から一定の距離を維持できる。ある実施例において、目標物体は、例えばリードによってUAVに取付けるまたは繋ぐことができる。リードは、一方の端部をUAVに、他方の端部を目標物体に取付け可能な可撓物体であり得る。
プロセッサーは、UAVに搭載された1つ以上の位置決めセンサーと通信し得る。位置決めセンサーは、相対座標系またはグローバル座標系でUAVの位置を決定できる。グローバル座標系は絶対座標系であってよい。ある実施形態において、グローバル座標系が経度と緯度を使用し、UAVの場所を定めることができる。相対座標系は、基準点または目印からUAVの距離または場所を特定できる。相対座標系は、既知の開始点からのUAVの移動または既知の領域内でのUAVの移動の測定値から得ることができる。UAVの絶対位置を決定する位置決めセンサーは、GPSセンサーであり得る。1つ以上の位置決めセンサーが、UAVの相対位置を特定するために使用できる。例えば、ジャイロスコープを使用すると、相対的な角速度を得ることができる。加速度計を使用すると、相対的な並進加速度を得ることができる。視覚センサーを使用すると、相対姿勢情報を得ることができる。超音波センサー、ライダー、または飛行時間カメラを使用すると、相対距離情報を得ることができる。UAVの相対位置または絶対位置をプロセッサーに通信できる。プロセッサーは、ユーザーインタフェースを介してUAVの局所位置または絶対位置をユーザーに知らせることができる。UAVの絶対位置または局所位置は、UAVに近接し得るか繋がれ得る目標物体の絶対位置または局所位置に一致することがある。
本発明によるシステム及び方法を使用することにより、UAVは、人間が多く介入する必要なく目標物体を散歩に連れ出すことが可能となる。例えば、人間は、UAVが目標物体を誘導する間、家にいてよい。人間はリアルタイムで状況を監視し、必要な場合に目標物体に介入し得る。人間は、UAVを使用して目標物体に情報伝達して遠隔で目標物体に介入し得る。また、人間は、必要に応じて、目標物体に直接介入できるように目標物体の場所を知ることができる。
図1には、ユーザー101、1つ以上のプロセッサー102、及び目標物体104を誘導または先導するUAV103を含む目標物体誘導システム100の例が示されている。UAV103は、所定の経路または未指定の経路に沿って目標物体104を誘導できる。UAV103は、指定された持続時間、目標物体104を誘導できる。ある実施形態において、目標物体はルートに沿ってUAVに付いて行くことができる。あるいは、目標物体104は、UAV103が目標物体に付いて行く間、地域内で歩き回ることができる。UAV103が目標物体104に付いて行く例では、UAVは目標物体が非許容地域に入ること、または許容地域から逸れることを防止できる。UAVは、目標物体が動き回っている間、目標物体に対して力をかけることもあれば、かけないこともある。
ユーザー101は、第1の場所105にいることがある。第1の場所は、家、庭、部屋、建物、車両、または別の空間もしくは領域であり得る。ユーザー101は、電子装置106上のユーザーインタフェースを介して1つ以上のプロセッサー102と通信できる。実施例においては、ユーザーインタフェースは、デスクトップコンピュータ、ラップトップコンピュータ、スマートフォン、スマートウォッチ、スマート眼鏡、タブレット、または1つ以上のプロセッサーと通信する別の装置等の電子ディスプレイ上にあり得る。電子装置106はモバイル機器であることもあれば、ないこともある。電子装置はUAVの飛行を手動で制御できる遠隔端末であることもあれば、そうでないこともある。電子装置は有線接続または無線接続107を介して直接的にUAVと通信し得る。電子装置は有線接続または無線接続108を介してプロセッサー102とさらに通信し得る。また、プロセッサー102は有線接続または無線接続109を介してUAVとさらに通信し得る。あるいは、プロセッサーは電子装置106またはUAV103の少なくとも一方に搭載され得る。例えば、UAVは1つ以上の車載プロセッサーを有し得る。1つ以上の車載プロセッサーは外部プロセッサー102またはユーザーインタフェース付きの電子装置106の少なくとも一方と通信できる。車載プロセッサーは、本明細書に説明されるプロセッサー102のあらゆる機能を実行し得る。また、UAVは、電子装置と直接的に通信し、中間装置またはプロセッサーと通信できる。
UAVは、視覚センサー111を含み得る。実施例においては、視覚センサー111はカメラであり得る。視覚センサー111は、UAVの本体に封入してもよく、外部搭載物としてUAVによって運ばれてもよい。視覚センサー111が搭載物として運ばれる場合、UAVはUAV本体の下方に視覚センサーを向けることできる。視覚センサーは、支持機構112等の1つ以上の付属品によってUAVに取付けできる。支持機構112は、視覚センサーがUAVとは無関係に回転するかまたは傾くことの少なくとも一方ができる。支持機構は視覚センサーが三次元で並進することまたは回転することの少なくとも一方を可能にできる。例えば、デカルト座標で、支持機構はx軸、y軸、またはz軸の回りでのUAVの移動とは関係なく、視覚の並進または回転の少なくとも一方を可能にできる。視覚センサー(例えば、カメラ)は、UAVまたは固定基準フレームの少なくとも一方に関してピッチ軸、ロール軸、またはヨー軸の少なくとも1つの軸の回りで回転し得る。類似する回転及び並進は、任意の他の三次元座標系(例えば、球座標)でも実現できる。ある実施形態において、支持機構は1つの軸の回りだけで、または2つの軸の回りだけで視覚センサーの回転または並進の少なくとも一方を可能にし得る。
また、目標物体104は、装着可能な識別子113を有し得る。例えば、目標物体はカラーを装着し得る。UAV視覚センサーは、目標物体の位置を特定するために装着可能な識別子上の視覚パターンを検出できる。ある実施形態において、目標物体104は、物理接続部114によってUAV103に繋ぐことができる。物理接続部114は、一方の端部で目標物体104に、別の端部でUAV103に接続される所与の長さの可撓コネクタであり得る。物理接続部は伸張または収縮することもあれば、しないこともある(したがって、その長さを変えることができる)。物理接続部は限られた最大長(例えば、約20m、15m、10m、7m、5m、4m、3m、2m、または1m以下)を有し得る。
ユーザー101は、UAV103が目標物体104を誘導または先導できるルートまたは地域を指定できる。ユーザーは、電子装置106またはUAVと通信することもあれば、しないこともある任意の他の装置上のユーザーインタフェースを介してルートまたは地域を指定できる。ユーザーは、目標物体をUAV103によって先導させたいと思う指定領域を生成できる。ある実施形態において、ユーザー101は、UAV103に目標物体104を誘導させたいと思う指定経路を指定できる。他の場合、ユーザー101は、地理的な領域の中で目標物体104を誘導するようにUAV103に命令できる。また、ユーザーは、UAVがその目標物体を誘導すべきではない領域を指定してもよい、または選んでもよい。指定された地理的な領域で目標物体を誘導するとき、UAV103には、地理的な領域で目標物体104を誘導する行為をさらに制約するユーザー101からの追加の命令を与え得る。また、追加命令は、目標物体104によるイベントまたはタスクの総持続時間、終了時間、総累積距離、ペース、または性能であり得る。総持続時間は、目標物体を誘導する時間の総量(例えば、30分の歩行等の歩行の長さ)を含んでよい。目標物体のペースは変わる可能性があるので、目標物体を誘導するUAVのルートまたは行動は、総持続時間に合うように改変され得る。また、終了時間は事前に設定され得る(例えば、目標物体の誘導を終了し、午後2時までに帰宅する)。同様に、目標物体のペースが変わる可能性があるので、目標物体を誘導するUAVのルートまたは行動は終了時間に適合するために改変され得る(例えば、目標物体がゆっくりと移動している場合、目標物体を時間通りに帰宅させるために近道が取られることがある)。総累積距離は、ユーザーが目標物体の移動距離を定めることを可能にし得る(例えば、ユーザーは1マイルの歩行を指定してよい)。また、ユーザーは、誘導のペースを設定してよい(例えば、最小4マイル/時の速度で目標物体を移動させる)。ユーザーは、目標物体によって完了され、UAVによって監視されるイベントまたはタスク(例えば、坂を上って歩く、坂を下って歩く、全速力で走る、物体を取ってくる等)を設定してよい。また、追加の命令は、目標物体を遠ざけておくために、非許容領域を含み得る。
UAV103は、1つ以上のセンサーを有し得る。UAVは画像センサー等の1つ以上の視覚センサーを含んでよい。例えば、画像センサーは単眼カメラ、ステレオ視カメラ、レーダ、ソナー、または赤外線カメラであってよい。UAVは、グローバルポジショニングシステム(GPS)センサー、慣性計測装置(IMU)の一部としてまたはIMUとは別個に使用され得る慣性センサー(例えば、加速度計、ジャイロスコープ、磁気探知器)、ライダー、超音波センサー、音響センサー、WiFiセンサー等、UAVの場所を決定するために使用され得る他のセンサーをさらに含み得る。
UAVは、追加の情報または処理のために、UAVの外部で追加の構成部品を使用するのではなく、環境から直接的に情報を収集するセンサーを搭載し得る。例えば、環境から直接的にデータを収集する視覚センサーまたは音声センサーを搭載し得る。また、UAVは、UAVに搭載されているが、環境についてデータを収集するためにUAVに搭載されていない1つ以上の構成部品から情報を得るセンサーを有し得る。UAVに搭載されない構成部品から情報を得るセンサーは、例えば、GPSセンサー、または衛星、塔、ルータ、サーバ、または他の外部装置等の別の装置から情報を得ることに依存する別のセンサーであり、環境についてデータを収集することができる。
センサーは、以下のような多様な例を含み得るが、これらに限定されない。位置設定センサー(例えば、グローバルポジショニングシステム(GPS)センサー、位置三角測量を可能にするモバイル機器送信機)、視覚センサー(例えば、カメラ等の可視光、赤外光、または紫外線光を検出できる画像化装置)、近接センサーまたは距離センサー(例えば、超音波センサー、ライダー、飛行時間カメラまたは深度カメラ)、慣性センサー(例えば、加速度計、ジャイロスコープ、慣性計測装置(IMU))、高度センサー、姿勢検出装置(例えば、コンパス)、圧力センサー(例えば、気圧計)、音声センサー(例えば、マイク)、フィールドセンサー(例えば、磁気探知器、電磁センサー)等。例えば、1台、2台、3台、4台、5台、またはそれ以上の任意の適切な数及び組合せのセンサーを使用できる。
また、データは、異なるタイプ(例えば、2つ、3つ、4つ、5つ、またはそれ以上のタイプ)のセンサーから受信できる。異なるタイプのセンサーは、異なるタイプの信号または情報(例えば、位置、向き、速度、加速度、近接性、圧力等)を測定するか、またはデータを入手するために異なるタイプの測定技法を利用するかの少なくとも一方が可能である。例えば、センサーは、アクティブセンサー(例えば、それ自体のエネルギー源からエネルギーを生成し、測定するセンサー)及びパッシブセンサー(例えば、使用可能なエネルギーを検出するセンサー)の任意の適切な組合せを含み得る。また、グローバル座標系に関して提供される絶対測定データ(例えば、GPSセンサーによって提供される位置データ、コンパスまたは磁気探知器によって提供される姿勢データ)を生成できるセンサーがある。一方、ローカル座標系(例えば、ジャイロスコープによって提供される相対角速度、加速度計によって提供される相対並進加速、視覚センサーによって提供される相対姿勢情報、超音波センサー、ライダー、または飛行時間カメラによって提供される相対距離情報)に関して提供される相対測定データを生成するセンサーもある。UAVに搭載されるまたは搭載されないセンサーは、UAVの場所、他の物体の場所、UAVの向き、または環境情報等の情報を収集し得る。単一センサーによって、あるいはセンサーを組み合わせることによって環境から完全な情報のセットを収集してもよい。センサーは、場所のマッピング、場所間のナビゲーション、障害物の検出、または目標の検出のために使用され得る。また、センサーは、環境またはその他の関心事項のモニタリングのために使用され得る。また、センサーは、動物等の目標物体を認識するために使用され得る。目標物体は環境内の他の物体と区別され得る。センサーは、目標物体によって装着されるまたは運ばれる物体を認識するために使用され得る。装着される、または運ばれる物体は環境の他の物体と区別され得る。
本明細書におけるUAVの説明は、任意のタイプの可動物体に適用し得る。UAVの説明は任意のタイプ(例えば、空気、土地、水、または宇宙を横断し得る)の無人可動物体に適用し得る。UAVは遠隔制御器からの命令に応じ得る。遠隔制御器はUAVに接続されなくてよく、遠隔制御器は遠くから無線でUAVと通信し得る。また、UAVは自律または半自律で動作し得る。UAVは、事前にプログラミングされた命令のセットに従い得る。また、UAVは、遠隔制御器から1つ以上の命令に応じて半自律で動作し得る。一方、それ以外の場合は自律で動作する。例えば、遠隔制御器からの1つ以上の命令は、1つ以上のパラメータに従ってUAVによって一連の自律行動または半自律行動を開始し得る。
UAVは航空機であり得る。UAVは、UAVが空中で動くことを可能にし得る1つ以上の推進部を有し得る。1つ以上の推進部は、UAVが、1以上の、2以上の、3以上の、4以上の、5以上の、6以上の自由度で動くようにできる。また、UAVは、1つ、2つ、3つ、またはそれ以上の回転軸の回りで回転し得る。回転軸は互いに直交し得る。回転軸は、UAVの飛行のコース全体で互いに直交のままであり得る。回転軸は、ピッチ軸、ロール軸、ヨー軸の少なくとも1つを含み得る。UAVは1つ以上の次元に沿って移動し得る。例えば、UAVは、1つ以上の回転翼によって生じる揚力のために上方に移動し得る。また、UAVは(UAV向きを基準にして上方であり得る)Z軸、X軸、(横方向であり得る)Y軸の少なくとも1つに沿って移動し得る。UAVは、互いに直交し得る1つ、2つ、または3つの軸に沿って移動し得る。
UAVは回転翼航空機であり得る。また、UAVは、複数の回転翼を有する多重回転翼航空機であり得る。複数の回転翼は回転し、UAVに揚力を与え得る。回転翼は、UAVが空気を横断して自由に動くようにできる推進部であり得る。回転翼は同じ速度で回転すること、同じ量の揚力もしくは推力を生じさせることの少なくとも一方を可能にする。また、回転翼は変化する速度で回転し得る。変化する速度は、UAVに異なる量の揚力または推力を生じさせこと、またはUAVが回転することの少なくとも1つを可能にし得る。また、1つ、2つ、3つ、4つ、5つ、6つ、7つ、8つ、9つ、10、またはそれ以上の回転翼をUAVに設けてもよい。回転翼は、その回転軸が互いに平行であるように配置され得る。また、回転翼は、互いを基準にして任意の角度にある回転軸を有することがあり、これはUAVの動きに影響を及ぼし得る。
図示されているUAVは、複数の回転翼を有し得る。回転翼はUAVの本体に接続され、UAVは、制御装置、1つ以上のセンサー、プロセッサー、及び電源を含み得る。センサーは、視覚センサー、UAVの環境情報を収集するその他のセンサーの少なくとも1つを含んでよい。センサーからの情報は、UAVの場所を特定するために使用され得る。回転翼は本体の中心部から分岐し得る1本以上のアームまたは拡張部を介して本体に接続され得る。例えば、1本以上のアームは、UAVの中心本体から放射状に伸長し、アームの端部または近くには回転翼が設けられ得る。
UAVの垂直位置または速度の少なくとも一方は、UAVの1つ以上の推進部への出力を維持または調整の少なくとも一方を実行することにより制御され得る。例えば、UAVの1つ以上の回転翼の回転の速度を加速すると、UAVの高度を上げさせる、またはより高速で高度を上げさせることに役立つことがある。1つ以上の回転翼の回転の速度を加速すると、回転翼の推力を増すことができる。UAVの1つ以上の回転翼の回転速度を減速すると、UAVの高度を下げさせる、またはより高速で高度を下げさせることに役立つことがある。1つ以上の回転翼の回転の速度を減速すると、1つ以上の回転翼の推力が減少し得る。UAVが離陸するとき、推進部に与えられる出力は、その以前の着陸状態から増加し得る。UAVが着陸するとき、推進部に与えられる出力はその以前の飛行状態から減少し得る。UAVは、実質的に垂直の離陸または垂直の着陸の少なくとも一方を可能にし得る。
UAVの側面方向位置または速度の少なくとも一方は、UAVの1つ以上の推進部への出力を維持または調整の少なくとも一方を実行することにより制御され得る。UAVの高度及びUAVの1つ以上の回転翼の回転の速度は、UAVの側面方向の移動に影響を及ぼし得る。例えば、UAVは特定の方向に傾けられるとその方向に移動するが、UAVの回転翼の速度は側面方向移動の速度または移動の軌跡の少なくとも一方に影響を及ぼし得る。UAVの側面方向位置または速度の少なくとも一方は、UAVの1つ以上の回転翼の回転の速度を変えるか維持することにより制御され得る。
UAVを小さい寸法にすることができる。UAVは、人間によって持ち上げられるか運ばれることの少なくとも一方が可能であり得る。UAVを、人間が片手で運べるようにできる。
UAVは、100cm未満の最大寸法(例えば、長さ、幅、高さ、対角線、直径)を有し得る。ある実施例において、最大寸法は、1mm、5mm、1cm、3cm、5cm、10cm、12cm、15cm、20cm、25cm、30cm、35cm、40cm、45cm、50cm、55cm、60cm、65cm、70cm、75cm、80cm、85cm、90cm、95cm、100cm、110cm、120cm、130cm、140cm、150cm、160cm、170cm、180cm、190cm、200cm、220cm、250cm、または300cm以下であり得る。また、UAVの最大寸法は、本明細書に記載される値のいずれか以上であり得る。UAVは、本明細書に記載される値の内の任意の2つの間の範囲に入る最大寸法を有し得る。
また、UAVは軽量であり得る。例えば、UAVは1mg、5mg、10mg、50mg、100mg、500mg、1g、2g、3g、5g、7g、10g、12g、15g、20g、25g、30g、35g、40g、45g、50g、60g、70g、80g、90g、100g、120g、150g、200g、250g、300g、350g、400g、450g、500g、600g、700g、800g、900g、1kg、1.1kg、1.2kg、1.3kg、1.4kg、1.5kg、1.7kg、2kg、2.2kg、2.5kg、3kg、3.5kg、4kg、4.5kg、5kg、5.5kg、6kg、6.5kg、7kg、7.5kg、8kg、8.5kg、9kg、9.5kg、10kg、11kg、12kg、13kg、14kg、15kg、17kg、または20kg以下の重さであり得る。UAVは、本明細書に記載される値のいずれか以上の重量を有し得る。UAVは、本明細書に記載される値の内のいずれか2つの間の範囲に入る重量を有し得る。
ユーザーは、目標物体を誘導する領域を指定できる。ユーザーは、UAVに搭載されたまたは搭載されていないプロセッサーと通信するユーザーインタフェースを使用して領域を指定できる。1つ以上のプロセッサーが、1つ以上のメモリ記憶装置と通信できる。メモリ記憶装置は、ユーザーによって過去に指定された領域またはルートを記憶できる。メモリ記憶装置は、地図等の地理データを記憶でき、記憶内容は更新され得る。ユーザーは、UAVが目標物体を誘導するたびに固有の領域もしくはルートを指定できる。また、ユーザーは、1つ以上の記憶されているルートもしくは領域を選択できる。図2には、UAVが目標物体を誘導し得る領域200の例が示されている。領域は、目標物体が移動することを許可されている地域、目標物体がそれを越えて移動することを許可されていない境界、または目標物体が移動するのを許可されていない地域の少なくとも1つとして定義され得る。図2において、地域201は、目標物体が移動することを許可されている領域であり得る。地域201は、目標物体がそれを越えて移動することを許可されていない境界202によって包囲され得る。ある実施形態において、地域は、目標物体が許可されていない小地域を包囲し得る。地域203は、目標物体が許可されている地域であり、境界によって包囲されている。地域203は、目標物体が移動することを許可されていない地域204を包囲する。また、地域は目標物体が許可されていない地域によって包囲された地域として定義できる。この場合、ユーザーは、複数の許可されていない地域が許可されている地域を包囲するように、目標物体が許可されていない複数の地域を指定し得る。例えば、地域205は、目標物体が許可されている地域であり得る。地域205は、目標物体が許可されていない地域206によって包囲され得る。ある実施形態において、UAVは、公園の中でペットの誘導を許可し得る。この場合、ペットを、道路206上または湖204の中へ誘導することを許可しないが、芝生203の中に留まることを許可し得る。
地域は、地理的な半径によって指定できる。例えば、地理的な半径が目標物体の初期の場所に中心がある半径方向の地域であり得る。あるいは、地理的な半径はユーザーの場所に中心がある半径方向の地域として指定され得る。ある実施形態において、地理的な半径は、中心点がユーザーによって定義された半径方向の地域であり得る。ユーザーはグローバル座標を使用して地理的地域を指定できる。また、地理的地域は、ユーザーによって指定された境界の中の地域として指定され得、境界はグローバル座標を使用して指定され得る。境界は、目標物体の許容地域または非許容地域の境界として機能し得る。従って、ユーザーは地理的な壁を指定し得る。どのような規則正しい形状または不規則な形状も境界とできる。地理的な地域は、ユーザーによって定義された障害物となり得る。例えば、ユーザーはUAVに、物理的な境界または特徴物を横断することなく地域内で目標物体を誘導するように命令できる。物理的な境界または特徴物は、フェンス、道路、溝、水路、または地面の切替え(例えば、芝生から土へまたは芝生から舗装へ)であり得る。UAVは、物理的な境界または特徴物を検出し、物理的な境界または特徴物の場所を事前に知ることができる。
ある実施形態において、ユーザーは目標物体の移動の許容地域及び非許容地域を指定する視覚地図を使用できる。視覚地図は、電子装置上のユーザーインタフェースに生成され得る。ユーザーインタフェースは、目標物体をUAVで先導できる空間、つまり局所的な空間の地図を提供し得る。ユーザーは、ユーザーインタフェースによって提供される地図上で、UAV及び目標物体の移動を許容するまたは非許容領域にマークを付けることができる。また、ユーザーは、ユーザーインタフェースに設けられるタッチスクリーンを使用し、地図上の領域にマークを付けることができる。ユーザーの指またはポインタ(例えば、マウスポインタ、トラックボールポインタ等)が、境界の外郭線をトレースするために使用され得る。ユーザーはユーザーインタフェース上で円を描いて領域を指定できる。また、ユーザーは点をクリックするか点にタッチして地域の座標を定義できる。図3に示される例において、ユーザーは、ユーザーインタフェース300に入力し、UAV及び目標物体の移動の許容地域または非許容地域を指定できる。ユーザーによる入力は、ユーザーインタフェースを含んだ電子装置がアクセスできる任意の方法によってユーザーインタフェースに通信することができる。例えば、ユーザーは触覚命令または音声命令によって電子装置上のユーザーインタフェースと通信し得る。例では、ユーザーは許容領域または非許容領域の名前または座標を話すことができ、例えばユーザーは命令「ドッグパーク許容」または「湖不許容」を出す。この場合、ユーザーは、ドッグパークをUAV及び目標物体の許容移動領域、湖を非許容移動地域として指定できる。あるいは、ユーザーは、地図上の地域を描画するまたはトレースして、UAV及び目標物体の許容移動領域、非許容移動地域を指定できる。ユーザーは、自分の指またはスタイラスを用いて地域を描画またはトレースできる。例えば、ユーザーは座標(X、Y)、(X、Y)、(X、Y)、(X、Y)のセットを定義できる。線分は、座標のセットを連結して地理的な地域を包囲する。ユーザーは包囲された地理的な地域を、目標物体の移動の許容地域または非許容地域として指定できる。また、ユーザーは第1の座標(X、Y)を定義し、第1の座標(X、Y)を含む閉じられた地域をトレースすることもできる。ユーザーはこの閉じられた地域を、目標物体の移動の許容地域または非許容地域として指定できる。
UAVは、UAVが持つ1つ以上の場所信号からある場所信号を受信して目標物体を誘導している間、1つ以上のプロセッサーは、UAVの場所を監視できる。1つ以上のプロセッサーは、目標物体の移動の許容領域または非許容領域の少なくとも一方を指定するユーザー入力信号を受信できる。1つ以上のプロセッサーは、目標物体を誘導するUAVからの位置決め信号と、目標物体の移動の許容領域または非許容領域の少なくとも一方を指定するユーザー入力信号とを比較し、UAVが目標物体を許容領域の外部にまたは非許容領域の中に誘導したかどうかを判断する。例えば、UAVからの位置決め信号(例えばGPS)は、ユーザーによって指定された許容地域及び非許容地域の地図と比較される。目標物体を誘導しているUAVが、目標物体の移動の許容領域を離れるか、または非許容領域に進入するか、少なくとも一方の場合に、プロセッサーは対応を開始できる。目標物体の場所は、UAVの場所として近似できる。例えば、目標物体を相対的に短いリードでUAVに取付けるとき等、UAVが目標物体に非常に近い場合、目標物体の場所とUAVの場所は一致すると近似される。ある実施形態において、目標物体の場所は、1つ以上の位置設定センサーによって特定されるUAVの場所と、1つ以上のセンサーで特定される目標物体の場所の組合せから特定できる。例えば、UAVの場所はGPSセンサーから既知であり得、UAVに対する目標物体の場所は、目標物体を認識する1つ以上の視覚センサーによって特定できる。1つ以上のプロセッサーは、UAVに対する目標物体の場所を決定することにより、目標物体の絶対的な場所を特定できる。また、別の実施形態において、目標物体の場所は、例えば、目標物体によって装着されるカラー内のGPSセンサー等、目標物体上の位置決めセンサーから既知である場合がある。目標物体上の位置決めセンサーは、UAVに搭載されたまたは搭載されていないプロセッサーと通信できる。
応答は、目標物体が許容領域から逸脱した、または非許容領域に進入したことをユーザーに知らせることである。ユーザーは、目標物体が許容領域から逸脱した、または非許容領域に進入したことを、電子装置上のユーザーインタフェースによって知らされる。電子装置は、音声信号、振動信号、テキストメッセージ、電話呼び出し、ビデオメッセージ、視覚画像メッセージ、電子通知、またはeメールの少なくとも1つの手段でユーザーに警告できる。ある実施形態において、応答は、UAVに対する飛行命令であり得、UAVはプロセッサーによって許容領域に再進入するまたは非許容領域を出るように命令され得る。プロセッサーは、UAVが許容領域から逸脱した、または非許容領域に進入したときに、UAVに飛行命令を自動的に与えることができる。あるいは、プロセッサーは、UAVが許容領域から逸脱した、または非許容領域に進入したことを電子装置がユーザーに警告した後の電子装置からのユーザー入力に応えて、UAVに飛行命令を与えることができる。飛行命令は、UAVが許容領域に戻ること、または非許容領域を出ることであり得る。ある実施形態において、飛行命令は、目標物体の移動を制御して、目標物体が許容領域に戻るまたは非許容領域を出るようにUAVが目標物体を誘う命令であり得る。たとえば、ユーザーはUAVにある特定の飛行命令を提供できる。この特定の飛行命令は、UAVが特定の方向及びその方向で指定された距離を飛行することであり得る。飛行命令は、UAVが指定された方向で指定された距離移動している間、UAVと目標物体との間で維持される必要があると指定された距離を含み得る。あるいは、ユーザーは、自動化された飛行シーケンスまたは所定の飛行シーケンスを開始させ、UAV及び目標物体を許容領域に戻すことができる。
位置決め信号は、UAVが、目標物体の移動の許容領域を出たこと、またはユーザーによって指定された境界を横断したときに目標物体の移動の非許容領域に進入したことを示し得る。ある実施形態において、位置決め信号は、UAVが、目標物体の移動の許容領域を出たこと、またはUAVが接近してユーザーによって指定された境界から所定の閾値距離内にあるときに目標物体の移動の非許容領域に進入したことを示し得る。位置決め信号は、目標物体とUAVが進んでいる方向に関わりなく、UAVが、ユーザーによって指定された境界から閾値距離範囲内で検出されるとき、許容領域を出たことを示し得る。また、位置決め信号は、UAVがユーザーによって指定された境界から閾値距離範囲内で検出されるとき、許容領域を出たこと、及び目標物体とUAVが境界に向かう方向を示し得る。目標物体の速度は決定できる。目標物体の速度は、UAVに搭載された速度センサーから決定できる。目標物体の速度は速度センサーによって決定されるUAVの速度として推定できる。別の実施形態において、UAVは目標物体の場所を検出するために視覚センサーを含むことがある。UAVは、UAVに搭載されたまたは搭載されていないプロセッサーを使用して視覚センサーにより取得される測定値から目標物体の速度を決定できる。また、目標物体は位置決めセンサーを装着できる。例えば、位置決めセンサーは、目標物体に装着されるカラーに埋め込まれる。位置決めセンサーはGPSセンサーであり得る。目標物体に装着された位置決めセンサーは、UAVに搭載されたまたは搭載されていない1つ以上のプロセッサーと通信し得る。1つ以上のプロセッサーは、位置決めセンサーから送信される情報に基づいて目標物体の速度を決定できる。目標物体の速度は、UAVが目標物体の移動の許容領域を出た旨、またはUAVがユーザーによって指定された境界を横断しときに目標物体の非許容領域に進入した旨、を示す係数であり得る。閾値速度を超える速度で境界の方向に進んでいる目標物体が検出されると、UAVが目標物体の移動の許容領域を出た旨、またはUAVがユーザーによって指定された境界を横断したときに目標物体の非許容領域に進入した旨、を示し得る。
図4には、境界402に近接した目標物体401の例が示されている。境界402は、第1の閾403と第2の閾404のどちらかまたは両方を有し得る。第1の閾403と第2の閾404は、境界402のどちらかの端縁の外形を描くことができる。境界402と第1の閾403と第2の閾404の間の距離は、ユーザーが定義できる。例では、閾と境界との間の距離は、少なくとも1インチ(in)、6in、1フィート(ft)、2ft、3ft、4ft、5ft、6ft、7ft、8ft、9ft、10ft、11ft、12ft、13ft、14ft、15ft、16ft、17ft、18ft、19ft、または20ftであり得る。ある実施形態において、境界と閾との間の距離は、20ftよりも大きいことがある。境界と閾との間の距離は、示されている値のいずれかの間に該当することがある。境界402と第1の閾403及び第2の閾404は不変であることもあれば、距離が変わることもある。距離は境界402に沿って変わり得る。距離は、第1の閾403と境界402との間の距離が、境界402と第2の閾404との間の距離と異なるように変わり得る。また、第1の境界は第1の閾値距離を有し、第2の境界は第2の閾値距離を有し得る。例えば、第1の境界が、目標物体が危険な領域(例えば、街路、駐車場、または他の攻撃的な動物を含んだ地域)に入り得ないことを示す場合、第1の境界と閾との間の距離は相対的に大きくなり得る。あるいは、第2の境界が、目標物体が比較的にあまり危険ではない領域(例えば、湖、隣人の庭、または土の堆積)に入り得ないことを示す場合、第1の境界と閾との間の距離は相対的に小さくなり得る。目標物体が進んでいる方向(405)は、目標物体が境界402、または閾値403、404を横断したことを示すかどうかを特定する上での係数となり得る。例えば、目標物体が境界402または閾403、404の方向に進んでいる場合、目標物体が許容領域を出るまたは非許容領域に進入する旨を示すことができる。
UAVは、物理的な取付け機構によって目標物体に物理的に接続または取付けできる。物理的な取付け機構は、目標物体をUAVに繋ぐリード、ロープ、または鎖であり得る。物理的な取付け機構は、一方の端部をUAVの本体の部位に、他方の端部を目標物体に取付けできる。物理的な取付け機構は、目標物体の首の回りに装着されるカラーに取付けできる。あるいは、物理的な取付け機構は、目標物体の身体に装着されるハーネスに取付け可能である。
UAVは、目標物体が境界または境界の閾に接近すると、目標物体が許容領域に入るようにまたは非許容領域から出るように、目標物体に抑止機構を提供できる。UAVは、非許容領域を包囲する境界から目標物体を引き離すために十分な力を提供することも、しないこともあり得る。ある実施形態において、UAVは、目標物体が非許容領域の中に移動するまたは許容領域から出るのを防ぐ抑止機構を必要とすることがある。UAVは1つのタイプの抑止機構のみを提供するようにできる。あるいは、UAVは、一次抑止機構の後に、少なくとも1つの追加の抑止機構が続くようにできる。追加の抑止機構は、一次抑止機構が実行された後、目標物体が指定の時間間隔以内に一時抑止機構に従うことができないときに追加できる。また、追加の抑止機構を一次抑止機構よりも厳しいものにできる。一次抑止機構と追加抑止機構との間の指定時間間隔は固定することもできれば、目標物体の行動に応じることもできる。例えば、目標物体が急速に不許容地域の境界に接近している場合、指定時間間隔を、目標物体がゆっくりと境界に接近している場合よりも短くできる。
抑止機構はユーザーの声であり得る。ユーザーの声は、UAVに搭載されたマイクを介して再生される録音でよい。録音は、UAVに搭載されたまたは搭載されていないメモリ記憶装置に記憶できる。ある実施形態において、ユーザーに、目標物体が許容領域を出る、または非許容領域に進入するように、目標物体が境界または境界の閾に接近している旨を、リアルタイムでユーザー装置を介して警告できる。ユーザーの声は、ユーザー装置からUAVにリアルタイムで送信できる。ユーザーの声の録音またはユーザーの声のリアルタイムでの送信は、UAVに搭載されたユーザーインタフェースを介して目標物体に与えられる。UAVに搭載されたユーザーインタフェースは、目標物体に音声警報を発するためのマイクを含み得る。音声警報は、ユーザーの声、不快な音、高ピッチのベルの音、または目標物体の注意と服従を命令する任意の他の音声刺激のライブストリームまたは録音であり得る。ユーザーは、ライブストリームまたは録音を通じて止まる、座る、または来るように目標物体に告げることができる。
ユーザーインタフェースは、警報を目標物体に視覚的に提供するように画面をさらに含み得る。警報は、音声と視覚の両方、あるいはどちらかの1つだけであることもある。視覚警報はビデオ録画またはユーザーのライブ映像であり得る。
ある例では、抑止機構は電気ショックであり得る。電気ショックカラーを目標物体に装着し、電気ショックを与えることができる。UAVは、有線接続または無線接続を介して電気ショックカラーと通信できる。有線接続の場合、有線接続はUAVと目標物体との間の物理的な取付け機構に埋め込むことができる。UAVは、目標物体が許容領域を出るまたは非許容領域に進入するように、境界または境界の閾に接近すると、目標物体に電気ショックを与えるように電気ショックカラーに命令できる。電気ショックは、目標物体が許容領域を出るまたは非許容領域に進入するように、境界または境界の閾に接近する目標物体に対する第1の対応となり得る。あるいは、電気ショックは、ユーザーのリアルタイムの声または録音された声を再生した後の二次対応であり得る。目標物体がユーザーの声に所定の期間内に応答しない場合、電気ショックを目標物体に与えることができる。所定の期間は固定値であり得、例えば、少なくとも1秒、5秒、10秒、15秒、20秒、25秒、30秒、35秒、40秒、45秒、50秒、55秒、または1分であり得る。ある実施形態において、この期間は、ユーザーの声と電気ショックとの間の時間が、目標物体が移動している速度に反比例するような、目標物体の速度の関数にできる。追加の抑止機構は単独で、あるいはユーザーの声または電気ショックの少なくとも一方と組み合わせて使用できる。そして、追加の抑止機構は、目標物体が認識するか、ある方向に移動することを止める信号として認識可能に調整されたノイズ(例えば、ビープ音、ブーンという音、またはサイレン)を発することを含み得る。また、追加の抑止機構は、目標物体を思いとどまらせる匂いを有する液体の噴霧であり得る。その液体は、例えばシトロネラであり得る。
目標物体の移動の許容領域または非許容領域の少なくとも一方を生じさせる境界を指定することに加え、または指定することの代わりに、ユーザーは、UAVがそれに沿って目標物体を先導または誘導できる特定のルートを指定することもできる。ユーザーは固有のルートを指定できる。ユーザーは、UAVに搭載されたもしくは搭載されていない記憶メモリ装置に記憶されている複数のルートから選択することもできる。記憶されているルートは、ユーザーが以前に使用したことがあるルートであり得る。ある実施形態において、記憶されているルートは、UAVを使用する領域内の他のユーザーが使用したルートでもあり得る。この場合、ルートはUAVを使用する領域内のユーザーによってネットワークを介して共有されている。図5には、UAV501が目標物体を誘導するために使用できると考えられるルートが存在する地図500が示されている。UAVは、家502から目標物体を誘導するルートを開始できる。UAVはルートRに沿って目標物体を誘導できる。UAVがルートの中間点503に達すると、UAVはルートRまたはルートRに沿って家502に戻ることができる。ユーザーは、家502に戻るためにUAVがルートRまたはルートRのどちらをとる必要があるのかを指定できる。ある実施形態において、ユーザーは、UAVが目標物体を誘導している間、リアルタイムでRまたはルートRの選択を指定できる。
さらに、ルートはリアルタイムで変更できる。例えば、UAVはRからRをたどる当初の計画をもってルートRに沿って目標物体の誘導を開始できる。ユーザーは、UAVがRからRの代わりにRからRに目標物体を誘導するように、リアルタイムでルートを更新できる。このようにして、ユーザーは、UAVが飛行中であり、ルートに沿って移動している間に、所定のルートからルートを改変する入力を提供し得る。これは、UAVが離れている間にイベントが起きた場合に柔軟性を与え得る。例えば、ユーザーが、目標物体が迅速に家に戻されることを必要とするイベントに気付いた場合、ユーザーは、より直接的にまたは迅速に目標物体を家に戻すために、目標物体がUAVと外出している間にルートを変更してよい。同様に、ユーザーが、最初に所定のルートに沿って工事または別のイベントの存在に気付き、目標物体がその地域を回避することを望む場合、ユーザーは、目標物体がUAVと外出している間に、より良いルートに改変し得る。
UAVは、移動ルートに沿って目標物体を誘導できる。UAVは目標物体を誘導中、飛行中であり得る。UAVは1つ以上の推進部を用いて飛行でき、例えば推進部は1つ以上の回転翼を含み得る。目標物体は、UAVが目標物体を誘導している間、移動中であり得る。UAVは、目標物体を誘導する必要がある領域または経路を記載する移動ルートを受け取ることができる。移動ルートは、UAVと通信中であるユーザー装置に対するユーザー入力であり得る。ユーザー装置はコンピュータ、タブレット、スマートフォン、スマートウォッチ、またはスマート眼鏡であり得る。UAVは、目標物体が動いている間、移動ルートに沿って飛行し目標物体をルートに沿って誘導できる。目標物体は、UAVの場所の近くで運動中であり得る。例えば、UAVを飛行中に固定し、目標物体をUAVのすぐ下方の地上に置くことができる。ある実施形態において、目標物体をUAVの下方の地上に置くことができ、UAVの右、左、後ろ、または前に偏位できる。目標物体は、例えばリード等、物理的な取付け機構を使用してUAVに物理的に取付けられる。リードは一方の端部をUAVに、他方の端部を目標物体に取付けできる。目標物体に取付けるリードの端部を、目標物体によって装着されるカラーまたはハーネスに取付けられる。
また、移動ルートはリアルタイムで更新できる。UAVは、指定開始場所から目標物体の誘導を開始できる。UAVは第1の移動ルートに沿って目標物体を誘導できる。UAVが第1の移動ルートに沿って目標物体を誘導する間、UAVは、UAVと通信中であるユーザー装置からルート更新を受信できる。この場合、第1の移動ルートから第2の移動ルートへ変更できる。ルートは、特定の場所を回避するために変更される。また、第1の移動ルートに入っていなかった場所を含めるために、移動ルートをより長くあるいはより短くするようにした第2の移動ルートに変更される。UAVが更新されたルートを受信すると、UAVは更新されたルートに沿って目標物体の誘導を続行できる。ルートは、UAVが目標物体を誘導している間、少なくとも一度更新できる。ある実施形態において、ルートは少なくとも1回、2回、3回、4回、5回、6回、7回、8回、9回、または10回更新できる。
ユーザーは、UAVと通信中であるユーザー装置を使用して移動ルートを更新できる。ユーザー装置は、有線接続または無線接続で通信できる。ユーザーは、例えばグローバル座標等、グローバルな位置設定識別子を使用して第1の移動ルートを指定できる。ある実施形態において、ユーザーは、画像または地図上の線を使用して第1の移動ルートを指定できる。地図は、ユーザー装置上のユーザーインタフェースに表示できる。プロセッサーは画像または線を読み取り、グローバル座標またはローカル座標で移動ルートを指定する。ユーザーは、座標、地図画像、または地図上の線を使用し、更新されたルートを提供できる。UAVの場所は、UAVに搭載された1つ以上の位置決めセンサーによって特定できる。ある実施形態において、位置決めセンサーはGPSセンサーであり得る。1つ以上の位置決めセンサーによって特定されたUAVの場所は、UAVに搭載されていないユーザー装置またはプロセッサーの少なくとも一方に送信される。UAVの場所は、UAVによって誘導されている目標物体の場所を大まかに指定できる。
UAVは、目標物体の画像を取得する1つ以上の視覚センサーを含み得る。目標物体の場所は、UAVに搭載された1つ以上の位置決めセンサーによって特定されたUAVの場所、及び目標物体の画像から1つ以上のプロセッサーによって特定できる。1つ以上のプロセッサーは、目標物体がいつ移動ルートから逸脱したのかを特定できる。移動ルートは第1の移動ルートまたは更新された移動ルートであり得る。プロセッサーが、目標物体が移動ルートから逸脱したことを検出すると、目標物体が移動ルートから逸脱し続けるのを防ぐこと、または目標物体を移動ルートに戻るように強制するか誘うことの少なくとも1つの目的で、目標物体にアトラクターまたは命令を与え得る。ある実施形態において、目標物体が移動ルートを逸脱しているとき、UAVは目標物体に対してユーザーの声のライブストリームまたは録音を再生できる。ライブストリームまたは録音は、目標物体をUAVにより近づけるために、または移動ルートから離れた方向に移動するのを止めるためのユーザーからの命令であり得る。ある実施形態において、ユーザーは目標物体の所有者であり得る。別の場合、ユーザーは目標物体を監視するために目標物体の所有者によって指定される個人であり得る。ユーザーの声は、ユーザー装置を介してUAVにリアルタイムで送信できる。あるいは、ユーザーの声を事前に録音し、UAVに搭載されたまたは搭載されていないメモリ記憶装置に記憶できる。また、目標物体が移動ルートを逸脱した場合、別の刺激を目標物体に与え得る。刺激は、ユーザーの声に加えて、またはユーザーの声の代わりに与られる。また、刺激は、例えば食べられるおやつ、または目標物体が関心を持つある匂いの発散等、アトラクターであり得る。アトラクターは、移動ルートに戻るように目標物体を誘導し得る。また別の実施形態において、刺激は電気ショックであり得る。電気ショックは、移動を停止する必要があることを目標物体に信号で知らせることができる。電気ショックは、目標物体が所定の距離移動ルートから逸脱した場合に与えても良い。
UAVは、目標物体を認識できる。UAVは、目標物体の特徴を検出できる画像認識アルゴリズムを使用して目標物体を認識できる。例えば、UAVは目標物体の大きさ、歩き方、配色/模様、または均整(例えば、手足、胴、顔)を識別し得る。
ある実施形態において、UAVは、UAVに搭載された視覚センサーを使用し、目標物体が装着するカラーを検出できる。目標物体が装着するカラーは、代替目標物体が装着する別のカラーから、目標物体が装着するカラーを区別できる一意の識別子を有し得る。区別する特徴は、模様、記号、または数字と文字の固有の組合せであり得る。
図6には、UAVが認識できるカラー602を装着する目標物体601の例が示されている。カラーの説明は、ハーネス、セーター、アンクルバンド、帽子、または足のブーティー等の任意の物体にも適用できる。UAVは、UAVに搭載された1つ以上の視覚センサーを使用してカラーを装着する目標物体を認識できる。カラー602は、記号603、文字604、または数字のパターンの内の少なくとも1つを含むことがある。記号603、文字604、または数字のパターンは、カラー上の表示画面に表示できる。記号603、文字604、または数字のパターンは、不変の表示または変化する表示であり得る。ある実施形態において、カラーに表示されたパターンはUAVに情報を伝えることができる。カラーは、例えばIR信号等、UAVによって検出できる信号を発することができる。カラーは、UAVとカラーを物理的に接続する接続機構への接続を可能にする少なくとも1つの構成部品605をさらに含み得る。構成部品605は、磁石、フック、穴、リベット、スナップ、または他の接続金物類であり得る。
UAVは、人間が介入せず自動的に物理的な接続機構(例えば、リード)を使用して目標物体のカラーに取付けられ得る。ある実施形態において、人間が介入してUAVを目標物体のカラーに取付ける必要がある。UAVは目標物体を検出する1つ以上の視覚センサーを使用し、目標物体を認識したことを確認した後、目標物体のカラーに取付けできる。リードは、磁気機構を使用すると、カラー上の磁石がリードの端部の磁石に引き付けられてカラーに取付けられる。また、リード端部またはカラーのどちらかの一方だけが磁石を含み得、他方の構成要素(例えば、リード端部またはカラー)は磁石に引き付けられる金属を含み得る。リードは、例えばプラスチック、ゴム、弾性材料、または別の可撓性材料等、可撓性材料または曲げることができる材料の少なくとも1つから作ることができる。
UAVは、人間の助けまたは介入なしに自動的に目標物体にリードを取付けできる。UAVは、機械的機構を使用し、少なくとも目標物体に取付けできる。機械的機構はフック、クランプ、またはロボットアームであり得る。機械的機構がロボットアームである場合、ロボットアームはUAVに搭載できる。ロボットアームは伸縮可能でリードを目標物体上の輪に誘導できる。ある実施形態において、ロボットアームは、テレスコープ式機構を使用し、伸縮できる。UAVは、UAVが目標物体にリードを取付けている間、目標物体のすぐ上方またはそばをホバーリングできる。1つ以上の視覚センサーは、UAVが目標物体にリードを取付けている間、目標物体の場所を検出できる。視覚センサーが目標物体の移動を検出すると、UAVは移動して目標物体のすぐ上方またはそばの場所に留まり得る。ロボットアームは、目標物体上の輪にリードを取付けための特徴をその末端に有し得る。リードは、例えばフック及びループ、スナップ、磁気機構、ベルクロ機構、または任意の他の機械的接続機構等、任意の機械的機構または電気的機構を使用し、輪に取付けできる。リードと目標物体上の輪との間の接続機構は一般的なものであり得る。また、接続機構は特定のリード及び輪の接続に固有であるサイズまたは形状を有することもあり得る。固有の接続機構は、UAVが間違った目標物体に接続することを防ぐことができる。また、UAVに搭載された1つ以上の視覚センサーは、UAVが目標物体にリードを取付けている間に目標物体を検出し、UAVが正しい目標物体にリードを取付けていることを検証できる。また、他のセンサーを使用して、リードが正しい目標物体に取付けられていることを検証できるようにしてもよい。例えば、目標物体の輪または他のウェアラブル接続はリードと相互作用して目標物体が正しいかどうかを確認し得る。例えば、接触または無線により、輪とリードとの間に信号が通るようにし得る。信号は、リード、UAV、またはシステム内のどこかであらゆるプロセッサーによって検証され得る輪の識別子を含み得る。
UAVと目標物体との間の物理的な接続機構は、固定長または調整可能な長さを有し得る。接続機構の長さは、UAVと目標物体との間の許可される距離を決定できる。物理的な接続機構の長さが調整可能である場合、物理的な接続機構を縮め得る。物理的な接続の最大伸長は固定できる、または場所または指定された境界からの距離によって決定できる。例えば、物理的な接続機構付きの目標物体に取付けるUAVが指定された境界から相対的に遠いとき、接続機構の長さを相対的に長く伸ばすことができる。逆に、UAVが指定された境界に相対的に近いとき、物理的な接続機構の長さを相対的に短くできる。物理的な接続機構は、UAVが飛行中に伸縮できる。
図7には、UAV701及び目標物体702の例が示されている。UAV701は、リード等の物理的な機構703を使用して目標物体702に接続される。UAV701は、少なくとも1台のカメラ等の車載視覚センサー704を有し得る。視覚センサー704は、UAVの本体上にあることもあれば、支持構造705によって、例えば底部表面等、UAVの表面から伸ばされることもある。視覚センサー704は、UAVを基準にして可動であり得る。視覚センサー704は、UAVの位置に関係なく回転または並進の少なくとも一方を実行可能である。視覚センサーは目標物体の少なくとも1つの画像を取得できる。視覚センサーは、移動して目標物体の移動を追跡できる。画像はUAVに搭載されたまたは搭載されていないメモリ記憶装置に記憶される。画像を分析すると目標物体を識別できる。画像は目標物体または目標物体によって装着されるカラー706の画像であり得る。UAVは、UAVに搭載された、または搭載されていない1つ以上のプロセッサーと通信し得る。プロセッサーは、視覚センサーからの画像を分析し、目標物体の画像またはカラー706の画像から目標物体を認識できる。目標物体702が1つ以上のプロセッサーによって確実に識別されると、UAV701は目標物体702に接近し、目標物体によって装着されるカラー706に物理的機構703を自動的に取付ける。UAVは、物理的機構の末端の嵌合接続部または連結接続部をカラーの対応する接続部707に接続する。その結果、物理的機構は、目標物体702によって装着されるカラー706に自動的に取付けられる。
いったん目標物体が確実に識別され、UAVに取付けられる物理的機構(例えば、リード)に接続されると、UAVは、目標物体が移動中に飛行できる。UAVはリードを引き寄せることで目標物体を誘導できる。UAVが引き寄せる牽引力は少なくとも目標物体の動き及びUAVの動きから計算できる。目標物体の動きとUAVの動きを比較して、UAVがリードを引き寄せるのに用いる1つ以上のパラメータを決定できる。ある実施形態において、決定できるパラメータは牽引力の大きさまたは方向の少なくとも一方であってよい。牽引力の大きさは所定の範囲内であり得る。牽引力の所定の範囲は、ユーザーによって決定されるかユーザー入力から計算できる。ユーザー入力は目標物体の重量であり得る。UAVは少なくとも1キログラム(kg)、2kg、3kg、4kg、5kg、10kg、15kg、20kg、25kg、30kg、35kg、40kg、50kg、55kg、60kg、65kg、70kg、75kg、80kg、85kg、90kg、95kg、100kg、105kg、110kg、115kg、120kg、125kg、130kg、135kg、140kg、145kg、または150kgの重量を有する目標物体を制御するために十分な力を提供できる。
UAVは、UAVが飛行中であり、目標物体が移動中に、または目標物体が静止している間、目標物体の画像を連続的に収集できる。目標物体は、UAVが目標物体の画像を収集している間、リードを介してUAVに取付けできる、または繋ぐことができる。目標物体の画像は、UAVに搭載されることもあれば、搭載されていないこともあるメモリ記憶装置に保存できる。UAVは、視覚センサーを用いて目標物体の画像を収集できる。視覚センサーは目標物体の静止画像またはビデオ画像を収集できる。UAVは、飛行環境の画像を収集する少なくとも1台の追加の視覚センサーを含み得る。ある実施形態において、すくなくとも1台の追加の視覚センサーは、飛行環境内の他の物体を追跡できる。ある実施形態において、画像は、UAVに搭載されたまたは搭載されていないプロセッサーと通信するユーザーインタフェースを使用してユーザーに表示できる。ユーザーインタフェースは、UAVが目標物体に取付けられる間、UAVの場所を表示することもできる。場所はユーザーインタフェースの地図上に示され得る。
UAVは、目標物体をリードまたは他の物理的な取付け機構によってUAVに取付ける間、目標物体に対してユーザーの声を再生できる。UAVは目標物体が移動中、またはUAVが飛行中の少なくとも一方に、目標物体に対してユーザーの声を再生できる。ユーザーの声は、UAVに搭載された音声ディスプレイまたは視覚ディスプレイを使用してUAVによって示される。目標物体は、ユーザーではない人間の声と比較して、親しいユーザーの声により反応しやすい。ある実施形態において、ユーザーの声はリアルタイムで目標物体に示される。ユーザーの声は、ユーザー装置からUAVにリアルタイムで伝達できる。ユーザーの声は、目標物体に命令を示し得る。また、ユーザーはユーザー装置上のユーザーインタフェースを通じて目標物体の画像または目標物体に取付けられるUAVの場所の少なくとも一方を受信できる。ユーザーは、目標物体の画像または場所に応じて目標物体に話しかけることを望むことがある。例えば、ユーザーは、目標物体の画像または場所に応じて目標物体に話しかけ、肯定的なフィードバックまたは否定的なフィードバックを与えることがある。ユーザーは、ユーザー装置を使用してUAVにその声を伝達し、目標物体にリアルタイムで話しかけることができる。ある実施形態において、ユーザーの声は事前に録音されたものであり得る。これは、ユーザーの音声録音またはビデオ録画でありえる。UAVに搭載されたまたは搭載されていないプロセッサーは、目標物体の画像または目標物体に取付けられるUAVの場所から、目標物体によって行われる動作または行動を認識できる。プロセッサーは、事前に録音されたユーザーの声を出力するようにUAVに命令し、目標物体の動作または行動に応じて目標物体に命令、否定的なフィードバックもしくは肯定的なフィードバックを与え得る。また、ユーザーは目標物体の画像またはユーザーの装置のユーザーインタフェース上で示される目標物体に取付けられるUAVの場所から、目標物体の動作または行動を認識できる。ユーザーは、目標物体の動作または行動に応じて、事前に録音されたユーザーの声を出力する命令をUAVに送信し、目標物体に命令、否定的なフィードバックもしくは肯定的なフィードバックを与えることができる。
図8には、目標物体に音声刺激及び視覚刺激を与えるUAV801及び目標物体802が示されている。視覚刺激は、UAV801に搭載されるか、UAVによって運ばれる画面803によって目標物体に与えられる。画面は恒久的に提示されることもあれば、不使用時に折り畳まれるかUAVの中に収納されることもある。音声刺激は、UAVに搭載されたマイクまたはスピーカ804によって与えられる。音声刺激はユーザーの声の録音またはライブストリームであり得る。ユーザーは、目標物体の所有者または目標物体がUAVによって誘導されている間、目標物体を監視するために指定された個人であり得る。ある実施形態において、マイクは、ユーザーの声を目標物体に聞かせ、目標物体からの音声応答(例えば、吠える、ニャーニャー鳴く、またはクンクン鳴く)を収集し、ユーザー装置を介してユーザーに伝達できる。UAV801は、1つ以上の視覚センサー805をさらに含み得る。視覚センサーは、目標物体の静止画像またはビデオ画像の少なくとも一方を収集できる。画像は、目標物体を認識するためにUAVに搭載されたまたは搭載されていない1つ以上のプロセッサーによって分析できる。画像をさらに分析すると、UAVの既知の場所に関連する目標物体の場所を特定できる。UAVは例えばリード806等の物理的接続を使用して目標物体に取付けられる。
ある実施形態において、UAVは、目標物体に取付けられない状態で目標物体を誘導し得る。UAVは、目標物体を認識して目標物体を誘導し、人間の助けまたは本発明なしに自動的に目標物体に対してアトラクターを示し得る。UAVは、アトラクターを示しながら飛行でき、目標物体はアトラクターに従って移動し得る。アトラクターは、目標物体の注意を引く視覚刺激、聴覚刺激、または嗅覚刺激であり得る。また、アトラクターは、例えば犬用のおやつ、ベーコン、ピーナツバター等、食べられるおやつ、または目標物体に望ましい別の食べられるおやつであり得る。ある実施形態において、アトラクターは香りを放つことがある。香りは、例えば食品または別の目標物体等、目標物体にとって関心のあるエンティティと関連付けられ得る。アトラクターはエンティティ自体からまたはエンティティと関連付けられた香りを有する化学品から香りを放つことができる。例えば、1片のベーコンをUAVに積載して保管し、ベーコンの香りを目標物体に向けて漂わせることができる。あるいは、UAVはUAVに搭載して保管されたベーコンのように匂う化学品を有し得る。UAVは、目標物体を引き付ける化学品の噴霧またはミストを発し得る。
ある実施形態において、アトラクターはUAVによって運ばれる画面上に表示される画像であり得る。画像は静止画像またはビデオであり得る。画像は目標物体の所有者を示す静止画像またはビデオであり得る。画像には、所有者の音声録音またはライブ音声ストリームが付随し得る。UAVは、目標物体に向けてユーザーの声を再生できる音声プレーヤ(例えば、スピーカまたはマイク)を含み得る。ユーザーの声は、目標物体が移動中にリードを使用してUAVに取付けられる間、または目標物体がリードなしでUAVによって誘導されている間に再生される。ユーザーの声は、ユーザー装置からUAVにリアルタイムで伝達することができる。ユーザーは目標物体の所有者であり得る。また、ユーザーの声は事前に録音されたものであり得る。食べられるおやつと画像の組み合わせは、両方同時にまたは個別に連続して使用することにより、目標物体を引き付けられる。
UAVは、UAVの本体の外部でアトラクターを運ぶことができる。アトラクターは、支持構造によってUAVに接続できる。アトラクターは、UAVに対して垂直または水平の少なくとも一方に移動できる。ある実施形態において、アトラクターはUAVに対して回転できる。UAVは、目標物体の頭部の高さでまたは頭部の高さ近くにアトラクターをぶら下げてアトラクターを表示できる。図9には、アトラクター903とともに目標物体902を誘導するUAV901が示されている。UAV901は、1つ以上の車載視覚センサーを含み得る。UAV901に搭載された視覚センサーは、1つ以上のプロセッサーを用いて、UAV901に対する目標物体902の場所を特定できる。UAVは、1つ以上のプロセッサーがUAVの飛行速度を調整または維持するように命令することにより、目標物体に近接して留まることができる。目標物体がアトラクター903を知覚できる距離に設定し、UAVを目標物体に近接させることができる。1つ以上の視覚センサーは、UAV903に対する目標物体902の移動の軌跡を特定できる。UAVに対する目標物体の移動の軌跡が特定されると、UAVに対して、飛行方向を調整するまたは維持する命令が出され、UAVは目標物体に近接して留まる。目標物体がアトラクター903を知覚できる距離に設定し、UAVを目標物体に近接させることができる。ある実施形態において、視覚センサーは、場所、目標物体、または目標物体の移動の軌跡の少なくとも1つを特定し、アトラクター903を移動させ得る。アトラクター903を移動させると、目標物体とアトラクターの相互作用を増加または減少させ得る。例えば、目標物体が上方へジャンプしている場合、アトラクターは目標物体との接触を回避するために持ち上げることができる。また、目標物体はUAVの側に移動することがある。この場合、アトラクターはUAVに対して回転することができ、目標物体を見通し線に留めることができる。
ある実施形態において、アトラクターは食べられるおやつであり得る。食べられるおやつは、当初目標物体を引き付け得る。しばらくすると、目標物体は、おやつを食べ切ってしまい、失望してだらしなくなり得る。UAVは、アトラクターとして使用されているおやつの少なくとも一部を目標物体に周期的に与えられる。おやつの一部は、目標物体がUAVによって誘導されている間、積極的な動作または行動に対する褒美、または目標物体の注意を引き付ける目的の少なくとも一方のために与えられる。UAVは、固定周期で、指定されたルートの場所で目標物体におやつの一部を与えられる。また、目標物体がアトラクターに対する興味を失いつつあるように見えることを1つ以上の視覚センサーが検出した場合、おやつの一部を与える。視覚センサーは、目標物体が移動を一時的に止める、またはUAVの場所から閾値の距離離れてぶらつくときに、目標物体がアトラクターに対する興味を失いつつあることを検出できる。
目標物体がUAVによって誘導されている間、目標物体から廃棄物が出ることがある。特定の場所では、目標物体から排泄された廃棄物を残すことが許されない場合がある。UAVは、目標物体を誘導し、目標物体の廃棄物を認識し得る。ある実施形態において、UAVは、目標物体の廃棄物を収集し処分できる。UAVは、1つ以上の視覚センサーを使用し、目標物体の廃棄物を認識できる。視覚センサーは、UAVに搭載され得る。視覚センサーは目標物体の認識に使用されるものと同じ視覚センサーであることもあれば、異なるセンサーの第2のセットであることもある。UAVは目標物体の廃棄物を認識し、ユーザー(例えば、目標物体の所有者)に対して、廃棄物が目標物体から排泄されたことを警告し得る。UAVはユーザーに対して、目標物体の廃棄物の場所を含む警報を示し得る。視覚センサーは、目標物体及び目標物体の廃棄物の画像を取得できる。画像は、静止写真またはビデオ画像であり得る。UAVは、画像から目標物体を認識し、画像から目標物体の廃棄物も認識できる1つ以上のプロセッサーを含み得る。1つ以上のプロセッサーは、UAVに搭載されても搭載されなくてもよい。UAVは、ユーザーに対し、目標物体から廃棄物が排泄されたことを警告する信号をユーザー装置に送信する通信部をさらに含み得る。
図10には、目標物体1002を誘導するUAV1001が示されている。UAVは、1つ以上のセンサー1003を含み得る。1つ以上の視覚センサー1003は、UAV1001の本体の内部にあり得る。または、支持構造1004によってUAV1001の外面から吊り下げられることもあり得る。ある実施形態において、視覚センサーは、UAV1001とは関係なく並進または回転の少なくとも一方を行うことができる。目標物体1002は、UAV1001に物理的な手段により取付けられる。ある実施形態において、目標物体1002は、UAV1001に取付けられない。視覚センサー1003は、目標物体1002を認識し、目標物体1002の画像を収集できる。また、視覚センサー1003は、1つ以上のプロセッサーを用いて目標物体の廃棄物1005を認識できる。1つ以上のプロセッサー1007は、UAVに搭載され得る。視覚センサーは廃棄物の画像を取得し得る。視覚センサーによって取得された画像は、メモリ記憶装置1006に記憶される。メモリ記憶装置は、UAVに搭載されても搭載されなくてもよい。1つ以上のプロセッサー1007は、視覚センサーで取得された廃棄物の1つ以上の画像から目標物体の廃棄物を認識できる。UAVは、目標物体が廃棄物を排泄したことをユーザー(例えば、目標物体の所有者)に警告するためにユーザー装置に信号を送信または伝送する通信部をさらに含み得る。
通信部は、ユーザー装置に信号または警報を送信または伝送し、目標物体が廃棄物を排泄したことをユーザーに警告できる。ユーザー装置はスマートフォン、タブレット、パソコン、スマートウォッチ、スマート眼鏡、または無線ページング装置であり得る。ユーザー装置はユーザーインタフェースを含み得る。ユーザーインタフェースは、ユーザーがユーザーインタフェースを使用してUAVを制御できるような対話型であり得る。警報は音声警報、視覚警報、または触覚(例えば、振動)警報であり得る。警報は、廃棄物が排泄された場所を含み得る。場所はグローバル座標により得られる。ある実施形態において、場所は、ユーザー装置上のユーザーインタフェースに表示される地図に示され得る。また、ユーザー装置は、目標物体の廃棄物の画像を表示することもできる。
ユーザーは、目標物体の場所、目標物体の動作、及び目標物体の廃棄物の場所についての警告を受け取り得る。ある実施形態において、ユーザーは目標物体の所有者であり得る。また、ユーザーは廃棄物除去専門家であっても良い。廃棄物除去専門家はユーザーの友人、ユーザーの知人、ボランティア、またはユーザーによって雇用された従業員であり得る。廃棄物除去専門家は、目標物体の廃棄物を除去する任意の人間であり得る。UAVに搭載された通信部は、目標物体による廃棄物排泄の時間または場所の少なくとも一方について廃棄物除去専門家に警報を示し得る。廃棄物除去専門家は、目標物体の廃棄物を処分するために目標物体の所有者によって契約できる。ある実施形態において、廃棄物除去専門家は、ボランティアであり得る。目標物体の所有者は、目標物体の廃棄物の除去の代わりに価値のある品(例えば、貨幣、掛売、または商品)を提供できる。廃棄物除去専門家は、一律の週次レート、月次レート、四半期レート、隔年レート、または年次レートで対価を得る。ある実施形態において、廃棄物除去専門家は廃棄物処分ごとに対価を得る。
図11には、目標物体1102から廃棄物1103が排泄された場合、UAV1101から示される警報の例が示されている。警報は廃棄物の正確な場所、または目標物体が廃棄物を排泄する一般的な地域を含み得る。警報は、UAVからUAVと通信するユーザー装置1105に送信される。ユーザー装置は、コンピュータ、スマートフォン、タブレット、スマートウォッチ、またはスマート眼鏡であり得る。廃棄物の場所または廃棄物の場所の地域は、相対座標またはグローバル座標で提供できる。警報は、廃棄物生成場所1104の指定半径の中で廃棄物除去専門家だけに提供できる。地域1104の外部の廃棄物除去専門家1107は、それらの電子装置1110に対する警報を受け取らないことがある。ある実施形態において、場所は、ユーザー装置1105上のユーザーインタフェースに表示された地図上に示される。警報は、廃棄物生成場所1104の指定半径内で、目標物体の所有者1106と廃棄物除去専門家1109のどちらかまたは両方に示される。目標物体の所有者または廃棄物除去専門家を、廃棄物を収集または処分の少なくとも一方を行うための警報を受け取る者として初期設定できる。また、目標物体の所有者は、廃棄物を収集または処分の少なくとも一方を行う者の初期設定であり得る。所有者は電子装置1111を使用し、廃棄物除去専門家に警報を転送することを選択できる。所有者は、自宅1108、事務所、店舗、学校、または他の場所を離れることを希望しないまたは離れることができない場合、廃棄物除去専門家に警報を転送することを選択し、廃棄物を収集または処分の少なくとも一方を行い得る。また、目標物体の所有者は、廃棄物除去専門家が指定された時間中の廃棄物警報の受取り者の初期設定となるように警報を制御できる。例えば、朝の時間と夕方の時間の間は、所有者を受取人の初期設定とし、昼日中は廃棄物除去専門家を受取人の初期設定とし得る。警報を受け取る受取人(例えば、所有者または廃棄物除去専門家)が、廃棄物が排泄される場所または地域に移動し、廃棄物を取り除き、回収し、処分し得る。
UAVは、目標物体の廃棄物を認識し、除去できる。UAVは、目標物体及び目標物体の廃棄物の1つ以上の画像を取得できる。UAVに搭載されたまたは搭載されていない1つ以上のプロセッサーは、目標物体の1つ以上の画像から目標物体を認識し、目標物体の廃棄物の1つ以上の画像から目標物体の廃棄物を認識できる。UAVは1つ以上の廃棄物除去部を含み得る。廃棄物除去部は、目標物体の廃棄物が認識されると廃棄物を除去できる。廃棄物除去部は、例えば機械アーム等、UAVから伸びて廃棄物を除去する機構を含み得る。この機構は伸張可能な構造であり得、その末端にはスコップ、シャベル、または使い捨て容器(例えば、プラスチック袋)が付いている。そして、それにより目標物体の廃棄物を収集、除去または処分の少なくとも1つを行い得る。UAVは、処分用容器(例えば、ゴミ箱、埋め立て、大型ごみ容器、または堆肥収集器)内で廃棄物を処分できるようになるまで目標物体の廃棄物を収集し、廃棄物を保管できる。UAVは、UAVの近傍の環境の画像を取得できる1つ以上の視覚センサーを含み得る。環境の画像は、処分用容器を認識できるUAVに搭載されたまたは搭載されていない1つ以上のプロセッサーによって分析できる。処分用容器の位置を特定すると、UAVは処分用容器内の廃棄物を処分できる。処分用容器が目標物体の許容領域の外部または非許容領域の内部に位置する場合、UAVは、処分用容器の位置を特定するまで廃棄物を保管し続けられる。
本発明に関わるシステム、装置、及び方法は、幅広い可動物体に適用できる。上述したように、UAV等の航空機に関する説明を、任意の可動物体に適用し、任意の可動物体に使用することが可能である。特にUAVに適用し得る。本発明における可動物体は、空気中で(例えば、固定翼機、回転翼航空機、または固定翼も回転翼も有さない航空機)、水中で(例えば、船舶または潜水艦)、地上で(例えば、車、トラック、バス、バン、オートバイ、自転車等の自動車、ステッキ、釣竿等の可動構造またはフレーム、または列車)、地下で(例えば、地下鉄)、宇宙で(例えば、宇宙飛行機、衛星、または宇宙探査機)等の任意の適切な環境の中で、またはこれらの環境の任意の組合せの中で移動きる。可動物体は、本明細書の他の箇所に説明される車両等の輸送手段であり得る。また、可動物体は、人間もしくは動物等の生体を使用して運ぶことができ、生体から発進することもできる。その場合、適切な動物は、鳥類、イヌ科の動物、ネコ科の動物、ウマ科の動物、ウシ科の動物、羊、豚、イルカ、齧歯動物、または昆虫を含み得る。
可動物質は6自由度(例えば、並進で3自由度と回転で3自由度)に関する環境内で自由に移動可能であり得る。一方、可動物体の移動は、所定の経路、軌道、または位置等によって、1つ以上の自由度に関して制約されることがある。移動は、エンジンまたはモータ等の任意の適切な作動機構によって実現できる。可動物体の作動機構は、電気エネルギー、磁気エネルギー、太陽エネルギー、風力エネルギー、重力エネルギー、化学エネルギー、核エネルギー、またはその任意の適切な組合せ等の任意の適切なエネルギー源によって電力を供給され得る。可動物体は、本明細書の他の箇所に説明されるように、推進システムを使用する自走式であり得る。また、推進システムは、電気エネルギー、磁気エネルギー、太陽エネルギー、風力エネルギー、重力エネルギー、化学エネルギー、核エネルギー、またはその任意の適切な組合せで実行してよい。また、可動物体は生物によって運ばれ得る。
ある実施形態において、可動物体は航空機であり得る。例えば、航空機は固定翼機(例えば、飛行機、グライダー)、回転翼航空機(例えば、ヘリコプター、回転翼機)、固定翼と回転翼の両方を有する航空機、またはどちらも有さない航空機(例えば、小型飛行船、熱気球)であり得る。航空機は、空気中を自己推進する等、自走式であり得る。自走式車両は、1つ以上のエンジン、モータ、車輪、車軸、磁石、回転翼、プロペラ、羽根、ノズル、またはその任意の適切な組合せを含んだ推進システム等の推進システムを利用できる。また、推進システムは、可動物体が表面から離陸する、表面に着陸する、その現在位置または向きの少なくとも一方を維持する(例えば、ホバーリングする)、向きまたは位置の少なくとも一方を変更可能に使用できる。
可動物体は、ユーザーによって遠隔で制御可能、あるいは可動物体中のまたは可動物体上の乗員によって局所的に制御可能である。ある実施形態において、可動物体はUAV等の無人可動物体である。UAV等の無人可動物体には可動物体に搭乗する乗員がいないことがある。可動物体は、人間によってまたは自律制御システム(例えば、コンピュータ制御システム)、またはその任意の適切な組合せによって制御できる。可動物体は、人工知能で構成されたロボット等の自律ロボットまたは半自律ロボットであることがある。
可動物体は任意の適切なサイズまたは寸法の少なくとも一方を有し得る。ある実施形態において、可動物体は、可動物体内部にまたは可動物体上に人間の乗員を備えるためのサイズまたは寸法の少なくとも一方を有し得る。また、可動物体は、可動物体内部にまたは可動物体上に人間の乗員を備えることができるサイズまたは寸法の少なくとも一方より、小さいサイズまたは寸法の少なくとも一方であってよい。可動物体は、人間によって持ち上げられるまたは運ばれるのに適したサイズまたは寸法の少なくとも一方であり得る。また、可動物体は、人間によって持ち上げられるか運ばれるのに適したサイズまたは寸法の少なくとも一方よりも大きいことがある。ある実施例においては、可動物体は、約2cm、5cm、10cm、50cm、1m、2m、5m、または10m以下の最大寸法(例えば、長さ、幅、高さ、直径、対角線)を有し得る。可動物体の最大寸法は、約2cm、5cm、10cm、50cm、1m、2m、5m、または10m以上であり得る。例えば、可動物体の対向する回転翼の軸間距離は、約2cm、5cm、10cm、50cm、1m、2m、5m、または10m以下であってよい。あるいは、対向する回転翼の軸間の距離は、約2cm、5cm、10cm、50cm、1m、2m、5m、または10m以上であってよい。
ある実施形態において、可動物体は、100cm×100cm×100cm未満、50cm×50cm×30cm未満、または、5cm×5cm×3cm未満の体積を有し得る。可動物体の総体積は、約1cm、2cm、5cm、10cm、20cm、30cm、40cm、50cm、60cm、70cm、80cm、90cm、100cm、150cm、200cm、300cm、500cm、750cm、1000cm、5000cm、10,000cm、100,000cm3、1m、または10m以下であり得る。逆に、可動物体の総体積は、1cm、2cm、5cm、10cm、20cm、30cm、40cm、50cm、60cm、70cm、80cm、90cm、100cm、150cm、200cm、300cm、500cm、750cm、1000cm、5000cm、10,000cm、100,000cm、1m、または10m以上でもあり得る。
ある実施形態において、可動物体は、32,000cm、20,000cm、10,000cm、1,000cm、500cm、100cm、50cm、10cm、または5cm以下の専有面積(あるいは可動物体によって包囲される側面方向断面積)を有し得る。逆に、専有面積は約32,000cm、20,000cm、10,000cm、1,000cm、500cm、100cm、50cm、10cm、または5cm以上であり得る。
ある実施形態においては、可動物体の重量は1000kg程度であり得る。可動物体の重量は、約1000kg、750kg、500kg、200kg、150kg、100kg、80kg、70kg、60kg、50kg、45kg、40kg、35kg、30kg、25kg、20kg、15kg、12kg、10kg、9kg、8kg、7kg、6kg、5kg、4kg、3kg、2kg、1kg、0.5kg、0.1kg、0.05kg、または0.01kg以下であり得る。逆に、可動物体の重量は約1000kg、750kg、500kg、200kg、150kg、100kg、80kg、70kg、60kg、50kg、45kg、40kg、35kg、30kg、25kg、20kg、15kg、12kg、10kg、9kg、8kg、7kg、6kg、5kg、4kg、3kg、2kg、1kg、0.5kg、0.1kg、0.05kg、または0.01kg以上であり得る。
ある実施形態において、可動物体は可動物体によって運ばれる積載物に比して小さいことがある。積載物は、以下にさらに詳細に説明するように、搭載物または支持機構の少なくとも一方を含んでよい。ある実施例においては、可動物体重量と積載物重量の割合は、約1:1を超えてよい、未満であってよい、または等しくてよい。また、他の実施例においては、可動物体重量と積載物重量の割合は約1:1を超えてよい、未満であってよい、または等しくてよい。また、支持機構重量と積載物重量の割合は、約1:1を超えてよい、未満であってよい、または等しくてよい。必要とされる場合には、可動物体重量と積載物重量の割合は、1:2、1:3、1:4、1:5、1:10以下またはさらに少ないことがある。逆に、可動物体重量と積載物重量の割合は、2:1、3:1、4:1、5:1、10:1以上またはさらに大きいことがある。
ある実施形態において、可動物体の消費エネルギーが低いことがある。例えば、可動物体は約5W/時、4W/時、3W/時、2W/時、1W/時未満、または以下のエネルギーを使用し得る。また、他の実施例では、可動物体の支持機構の消費エネルギーが低いことがある。例えば、支持機構は約5W/時、4W/時、3W/時、2W/時、1W/時未満、または以下のエネルギーを使用し得る。また、可動物体の搭載物の消費エネルギーは、約5W/時、4W/時、3W/時、2W/時、1W/時未満、または以下等の低いエネルギーであり得る。
図12には、無人航空機(UAV)1200が本発明の実施形態に従って示されている。UAVは、本明細書に説明されるように、可動物体の例であり得る。UAV1200は4つの回転翼1202、1204、1206、及び1208を有する推進システムを含み得る。任意の数の回転翼が使用され得る(例えば、1つ、2つ、3つ、4つ、5つ、6つ以上)。無人機の回転翼、回転翼アセンブリ、及び他の推進システムは、無人機がホバーリングするあるいは位置を維持する、向きを変更する、または場所を変更することの少なくとも1つのことができるようにし得る。対向する回転翼の軸間の距離は任意の適切な長さ410であり得る。例えば、長さ1210は、2m以下、または5m以下であり得る。ある実施形態において、長さ1210は40cmから1m、10cmから2m、または5cmから5mの範囲内にあり得る。UAVの本明細書の任意の説明は、異なるタイプの可動物体等の可動物体に適用してよく、逆の場合も同じである。UAVは、本明細書に説明される補助装置付き離陸システムまたは方法を使用してよい。
ある実施形態において、可動物体は積載物を運ぶように構成できる。積載物は、乗客、貨物、設備、計器等の内の1つ以上を含み得る。積載物は筐体内部に備え付けられることがある。筐体は可動物体の筐体とは別個であることもあれば、可動物体の筐体の一部分であることもある。逆に、積載物は筐体と共に備えつけられることがあり、その場合可動物体は筐体を有さない。また、積載物の一部分または積載物全体は筐体なしで提供できる。積載物は、可動物体に対してしっかりと固定できる。また、積載物は、可動物体に対して可動(例えば、可動物体に対して並進可能または回転可能)であり得る。積載物は、本明細書の他の箇所に説明されるように、搭載物または支持機構の少なくとも一方を含み得る。
ある実施形態において、端末は、可動物体、支持機構、及び、搭載物の固定基準フレーム(例えば、周囲環境)に対する移動と、互いに対する移動のいずれか、または両方を制御できる。端末は、可動物体、支持機構、または搭載物の少なくとも1つから遠い場所にある遠隔制御装置であり得る。端末は、支持プラットフォームに置いてもよく、取り付けてもよい。また、端末はハンドヘルドまたはウェアラブルな装置でよい。例えば、端末は、スマートフォン、タブレット、ラップトップ、コンピュータ、眼鏡、手袋、ヘルメット、マイク、またはその適切な組合せであり得る。端末は、キーボード、マウス、ジョイスティック、タッチスクリーン、またはディスプレイ等のユーザーインタフェースを備え得る。手動入力命令、音声制御、ジェスチャー制御、または、(例えば、端末の移動、場所、または、傾きを介した)位置制御等、任意の適切なユーザー入力を用いて、端末と相互作用できる。
端末を用いて、可動物体、支持機構、搭載物の1つ以上の任意の適切な状態を制御できる。例えば、端末を用いて、固定基準と互い、の少なくとも1つに対して、可動物体、支持機構、搭載物の1つ以上の、位置と向きのいずれかまたは両方を制御し得る。ある実施形態において、端末を用いて、支持機構の作動アッセンブリ、搭載物のセンサー、または、搭載物のエミッタ等、可動物体、支持機構、搭載物の1つ以上の個々の要素を制御できる。端末は、可動物体、支持機構、または、搭載物の少なくとも1つと通信するように適合された無線通信装置を含み得る。
端末は、可動物体、支持機構、または搭載物の少なくとも1つの情報を見るための適切なディスプレイユニットを備え得る。例えば、端末は、位置、並進速度、並進加速度、向き、角速度、角加速度、またはその任意の適切な組合せに関して可動物体、支持機構、または搭載物の少なくとも1つの情報を表示できる。ある実施形態において、端末は機能搭載物によって提供されるデータ等(例えば、カメラまたは他の画像捕捉装置によって記録される画像)の搭載物によって提供される情報を表示できる。
また、同じ端末は、可動物体、支持機構、または搭載物の少なくとも1つから情報を受信する、または表示するかの少なくとも一方だけではなく、可動物体、支持機構、または搭載物の少なくとも1つ、または可動物体、支持機構、または搭載物の少なくとも1つの状態を制御してもよい。例えば、端末は、搭載物によって捕捉される画像データ、または搭載物の位置についての情報を表示する一方で、環境に対する搭載物の位置決めを制御してもよい。また、異なる端末は、異なる機能のために使用されてよい。例えば、第1の端末は、可動物体、支持機構、または搭載物の少なくとも1つの移動または状態を制御してよい。一方、第2の端末は、可動物体、支持機構、または搭載物の少なくとも1つからの情報を受信、または表示の少なくとも一方を実行し得る。例えば、第1の端末は、環境に対する搭載物の位置決めを制御する。一方、第2の端末は搭載物によって捕捉される画像データを表示する。可動物体と、可動物体の制御とデータの受信の両方を行う、統合型端末または複数の端末との間で、多様な通信モードが利用され得る。例えば、少なくとも2つの異なる通信モードを、可動物体と、可動物体の制御と可動物体からのデータの受信の両方を行う端末との間に形成してもよい。
図13には、支持機構1302と搭載物1304を備える可動物体1300が、本発明の実施形態に従って示されている。可動物体1300は航空機として示されているが、この図は、制限を意図するものではなく、本明細書に記載する任意の適切なタイプの可動物体を用いてよい。航空機システムの文脈で本明細書に記載した実施形態はいずれも、任意の適切な可動物体(例えば、UAV)に適用可能なことを当業者は理解されよう。また、支持機構1302を使用せず、可動物体1300上に搭載物1304を設けてもよい。可動物体1300は推進機構1306、検出システム1308、及び通信システム1310を備え得る。
推進機構1306は、上述のように、回転翼、プロペラ、羽根、エンジン、モータ、車輪、車軸、磁石、またはノズルの内の1つ以上を備え得る。可動物体は、1つ以上の、2つ以上の、3つ以上の、または4つ以上の推進機構を有し得る。推進機構はすべて同じタイプであり得る。あるいは、1つ以上の推進機構は異なるタイプの推進機構であってもよい。推進機構1306は、本明細書の他の箇所に説明されるように、支持要素(例えば、駆動軸)等の任意の適切な手段を使用して可動物体1300に取り付けることができる。推進機構1306は、可動物体1300の、上部、底部、前部、背部、側部、または、それらの適切な組合せ等、任意の適切な部分に取り付けることができる。
ある実施形態において、推進機構1306は、可動物体1300が、その水平方向に動作せずに(例えば、滑走路を下ることなく)、表面から垂直に離陸、または、表面に垂直に着陸することを可能にする。また、推進機構1306は、可動物体1300が空中の特定の位置と向きの少なくとも一方でホバーリングし得る。1つ以上の推進機構1300を、他の推進機構と独立して制御し得るが、それぞれ同時に制御することも可能である。例えば、可動物体1300は、揚力または推力の少なくとも一方を可動物体に与える複数の水平方向に向いた回転翼を有し得る。複数の水平方向に向いた回転翼を作動させて、垂直方向の離着陸能力、及び、ホバーリング能力を可動物体1300に与え得る。また、水平方向に向いた回転翼の少なくとも1つは、時計回りに、あるいは、反時計回りに回転し得る。例えば、時計回りの回転翼の数を、反時計回りの回転翼の数と等しくてよい。水平方向に向いた各回転翼の回転速度はそれぞれ独立して変更すると、各回転翼が提供する揚力と推力の少なくとも1つを制御できる。それによって、(例えば、3以下の並進度と3以下の回転度に関して)可動物体500の空間的配置、速度、加速度、の少なくとも1つを調整する。
検出システム1308は、(例えば、最高3自由度の並進と最高3自由度の回転に関して)可動物体1300の空間配置、速度、または加速度の少なくとも1つを検出し得る1つ以上のセンサーを備え得る。1つ以上のセンサーは、グローバルポジショニングシステム(GPS)センサー、運動センサー、慣性センサー、近接センサー、または画像センサーを含み得る。検出システム1308が提供する検出データを用いて、(例えば、以下に記載のように、適切な処理ユニットと制御モジュールの少なくとも1つを用いて)可動物体1300の空間的配置、速度、向き、の少なくとも1つを制御できる。また、検出システム1308を使用して、気象条件、潜在的な障害物への近接性、地理的特徴の場所、人工構造物の場所等の、可動物体を取り囲む環境に関するデータを提供できる。
通信システム1310は、通信システム1314を有する端末1312と無線信号1316を介して通信することを可能にする。通信システム1310、1314は、無線通信に適した任意の数の送信機、受信機、または送受信機の少なくとも1つを備え得る。通信は、データを一方向にのみ送信できる片方向通信でよい。例えば、片方向通信は、端末1312にデータを送信する可動物体1300だけを備えてよく、逆も同様である。また、通信システム1310の1つ以上の送信機から通信システム1312の1つ以上の受信機にデータを送信してよく、逆もまた同様である。あるいは、通信は、データが可動物体1300と端末1312との間で両方向に送信できる双方向通信でもよい。双方向通信は、通信システム1310の1つ以上の送信機から通信システム1314の1つ以上の受信機にデータを送信してよく、逆もまた同様である。
ある実施形態において、端末1312は、可動物体1300、支持機構1302、及び、搭載物1304の少なくとも1つに制御データを提供する。そして、端末1312は、可動物体1300、支持機構1302、及び、搭載物1304の少なくとも1つから情報(例えば、可動物体、支持機構、または、搭載物の位置と動作の情報の少なくとも1つ、搭載物カメラによって撮影された画像データ等、搭載物によって検出されたデータ)を受信できる。また、端末からの制御データは、可動物体、支持機構、または搭載物の少なくとも1つの相対位置、移動、作動、または制御に関する命令を含んでよい。例えば、制御データによって、(例えば、推進機構1306の制御を介して)可動物体の場所と向きの1つ以上の修正を行い得る。また、(例えば、支持機構1302の制御を介して)可動物体に対して搭載物を移動させてもよい。また、端末からの制御データによって、カメラまたは他の撮像装置の操作の制御等、搭載物を制御し得る(例えば、静止画または動画を撮る、ズームインまたはズームアウトする、電源のオンまたはオフ、画像モードを切り替える、画像の解像度を変更する、フォーカスを変更する、被写界深度を変更する、露光時間を変更する、視野角または視野を変更する)。また、可動物体、支持機構、搭載物、の少なくとも1つからの通信は、(例えば、検出システム1308または搭載物1304の)1つ以上のセンサーからの情報を含んでよい。通信は、1つ以上の異なるタイプのセンサー(例えば、GPSセンサー、運動センサー、慣性センサー、近接センサー、または、画像センサー)からの検出した情報を含み得る。このような情報は、可動物体、支持機構、搭載物、の1つ以上の位置(例えば、場所または向き)、移動、または、加速度に関連し得る。搭載物からのこのような情報は、搭載物によって取得されたデータ、または搭載物の検出された状態を含み得る。端末1312から送信された制御データによって、可動物体1300、支持機構1302、または、搭載物1304の1つ以上の状態を制御できる。また、支持機構1302及び搭載物1304は、それぞれ、端末1312と通信する通信モジュールも備え得る。端末は、可動物体1300、支持機構1302、及び、搭載物1304のそれぞれと独立して通信し、それらを制御できる。
ある実施形態において、可動物体1300は、端末1312に加えて、または端末1312の代わりに別の遠隔装置と通信できる。端末1312は、可動物体1300だけではなく別の遠隔装置とも通信できるようにしてもよい。例えば、可動物体1300または端末1312の少なくとも一方は、別の可動物体、または別の可動物体の支持機構もしくは搭載物と通信可能であり得る。必要に応じて、遠隔装置は、第2の端末または他のコンピューティング装置(例えば、コンピュータ、ラップトップ、タブレット、スマートフォン、または他のモバイル機器)であり得る。遠隔装置は、可動物体1300にデータを送信し、可動物体1300からデータを受信し、端末1312にデータを伝送するか、または端末1312からデータを受信するかの少なくとも1つを行い得る。また、遠隔装置はインターネットまたは他の電気通信ネットワークに接続できる。よって、可動物体1300または端末1312の少なくとも一方から受信したデータを、ウェブサイトまたはサーバにアップロードできる。
図14には、本発明を適用した、可動物体を制御するシステム1400の概略ブロック図が示されている。システム1400は、本明細書に開示されるシステム、装置、及び方法の任意の適切な実施形態と組み合わせて使用できる。システム1400は、検出モジュール1402、処理装置1404、非一時的コンピュータ可読媒体1406、制御モジュール1408、及び通信モジュール1410を含み得る。
検出モジュール1402は、異なる方法で可動物体に関する情報を収集する異なるタイプのセンサーを利用できる。異なるタイプのセンサーは、異なるタイプの信号または異なるソースからの信号を検出し得る。例えば、センサーは、慣性センサー、GPSセンサー、近接センサー(例えば、ライダー)、または視覚/画像センサー(例えば、カメラ)を含み得る。検出モジュール1402は、複数のプロセッサーを有する処理装置1404に動作可能に接続される。また、検出モジュールは、適切な外部装置または外部システムに直接的に検出データを伝送する伝送モジュール1412(例えば、Wi−Fi画像伝送モジュール)に動作可能に接続される。例えば、伝送モジュール1412を使用して、検出モジュール1402のカメラによって取り込まれた画像を遠隔端末へ送信できる。
処理装置1404は、プログラム可能プロセッサー(例えば、中央演算処理装置(CPU))等の1つ以上のプロセッサーを有し得る。処理装置1404は、非一時的コンピュータ可読媒体1406に動作可能に接続できる。非一時的コンピュータ可読媒体1406は、1つ以上のステップを実行する処理装置1404によって実行可能な論理、コード、またはプログラム命令の少なくとも1つを記憶できる。非一時的コンピュータ可読媒体は、1つ以上のメモリ装置(例えば、SDカードもしくはランダムアクセスメモリ(RAM)等のリムーバブルメディアまたは外部記憶)を含み得る。また、検出モジュール1402からのデータは、非一時的コンピュータ可読媒体1406のメモリ装置に直接的に伝達され、非一時的コンピュータ可読媒体1406のメモリ装置の中に記憶できる。非一時的コンピュータ可読媒体1406のメモリ装置は、処理装置1404によって実行可能な論理、コード、またはプログラム命令の少なくとも1つを記憶でき、本明細書に記載される方法の任意の適切な実施形態を実行できる。例えば、処理装置1404は、処理装置1404の1台以上のプロセッサーに、検出モジュールによって生じる検出データを解析させる命令を実行できる。メモリ装置は、処理装置1404が処理すべき、検出モジュールからの検出データを記憶できる。ある実施形態では、非一時的コンピュータ可読媒体1406のメモリ装置を用いて、処理装置1404によって生成された処理結果を記憶することもできる。
また、ある実施形態において、処理装置1404は、可動物体の状態を制御する制御モジュール1408に動作可能に接続できる。例えば、制御モジュール1408は、6自由度に関する可動物体の空間配置、速度、または加速度の少なくとも1つを調整するように可動物体の推進機構を制御できる。また、制御モジュール1408は、支持機構、搭載物、または検出モジュールの状態の少なくとも1つを制御することも可能である。
処理装置1404は、通信モジュール1410に動作可能に接続できる。通信モジュール1410は、1つ以上の外部装置(例えば、端末、ディスプレイ装置、または、他の遠隔制御器)にデータを送信、その外部装置からデータを受信、の少なくとも一方を行う。有線通信または無線通信等、任意の適切な通信手段を使用できる。
例えば、通信モジュール1410は、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、赤外線ネットワーク、無線ネットワーク、WiFiネットワーク、2地点間(P2P)ネットワーク、電気通信ネットワーク、クラウド通信等の内の少なくとも1つを利用できる。また、塔、衛星、または移動局等の中継局を使用することもできる。無線通信は、近接性に依存することもあれば、近接性とは無関係であることもあり得る。また、通信に見通し線が必要とされることもあれば、必要とされないこともある。通信モジュール1410は、検出モジュール1402からの検出データ、処理装置1404によって生成される処理結果、所定の制御データ、端末または遠隔制御器からのユーザー命令等の1つ以上を送信、受信の少なくとも一方を実行できる。
システム1400の部品は、任意の適切な構成で配置できる。例えば、システム1400の部品の少なくとも1つは、可動物体、支持機構、搭載物、端末、検出システム、または、上述した少なくとも1つと通信する追加の外部装置に置いてよい。また、図14には、1つの処理ユニット1404と1つの非一時的コンピュータ可読媒体1406が示されているが、これは本発明の実施形態の制限を意図していない。当業者は、システム1400が、複数の処理ユニットと非一時的コンピュータ可読媒体の少なくとも1つを備えてよいことを理解するであろう。ある実施形態において、複数の処理ユニットと非一時的コンピュータ可読媒体の少なくとも1つは、可動物体、支持機構、搭載物、端末、検出モジュール、上記した少なくとも1つと通信する追加の外部装置、または、それらの適切な組み合わせ等、異なる場所に配置できる。よって、システム600によって行われる処理、またはメモリ機能の少なくとも一方の任意の適切な実施形態は、上記した場所の少なくとも1つで実行され得る。
本発明の好ましい実施形態を、本明細書に図示し説明したが、このような実施形態は、例示のみを目的としていることは当業者には明らかであろう。本発明を逸脱することなく、多くの変形実施形態、変更、代替形態を当業者は着想するであろう。本発明を実施するにあたり、本明細書に記載した発明の実施形態の様々な代替形態を採用し得ることを理解されたい。以下の特許請求の範囲は、本発明の範囲を定め、それにより特許請求の範囲の方法及び構造、並びにそれらの均等物を網羅することを目的としている。
[項目1]
目標物体を誘導する方法であって、
ユーザー装置から上記目標物体の移動が許可される許容領域または上記目標物体の移動が許可されない非許容領域を含む目標領域を指定するユーザー入力を受信するステップ、
上記目標物体を誘導する可動物体から上記可動物体の場所を示す信号を受信するステップ、
上記可動物体が上記許容領域を出ることを示すインジケーターまたは上記可動物体が上記非許容領域に進入することを示すインジケーターを受信するステップ、
上記インジケーターに応じて上記可動物体を動作させるステップ、を含み、
上記インジケーターは、上記可動物体の場所及び上記目標領域に基づいて生成される、
方法。
[項目2]
上記目標物体は、動物である、
項目1に記載の方法。
[項目3]
上記可動物体は、無人航空機(UAV)である、
項目1に記載の方法。
[項目4]
上記可動物体を動作させるステップは、上記目標物体の移動を制御するために、上記UAVの飛行を制御するステップを含む、
項目3に記載の方法。
[項目5]
上記可動物体を動作させるステップは、上記UAVが上記許容領域を出ることまたは上記非許容領域に進入することを上記ユーザーに警告するステップを含む、
項目3に記載の方法。
[項目6]
上記ユーザー入力は、上記許容領域または上記非許容領域を指定するグローバル座標を含む、
項目1に記載の方法。
[項目7]
上記ユーザー入力は、上記許容領域または上記非許容領域の境界を指定する地図上の画像または外郭線を備える、
項目1に記載の方法。
[項目8]
上記UAVを使用して上記目標物体を誘導し、
上記UAVは、上記目標物体に物理的に取付けられる、
項目3に記載の方法。
[項目9]
上記UAVは、上記目標物体のカラーに取付けられるリードによって上記目標物体に取付けられる、
項目8に記載の方法。
[項目10]
上記UAVは、上記UAVが垂直に離陸することまたは着陸することの少なくとも一方を可能にする複数の回転翼を備える回転翼航空機である、
項目3に記載の方法。
[項目11]
上記UAVは、上記UAVの場所の情報を送信する位置設定装置を備える、
項目3に記載の方法。
[項目12]
上記位置設定装置は、GPSセンサーである、
項目11に記載の方法。
[項目13]
上記許容領域を出ることを示す上記インジケーターは、上記目標物体が上記許容領域を出るときに受信される、
項目1に記載の方法。
[項目14]
上記許容領域を出ることを示す上記インジケーターは、上記目標物体が上記許容領域の境界の所定の閾値距離内にあり、上記目標物体が上記境界の方向に進んでいるときに受信される、
項目1に記載の方法。
[項目15]
上記目標物体は、閾値速度を超える速度で上記境界の方向に進んでいる、
項目14に記載の方法。
[項目16]
上記非許容領域に進入することを示す上記インジケーターは、上記目標物体が上記非許容領域に進入するときに受信される、
項目1に記載の方法。
[項目17]
上記非許容領域に進入することを示すインジケーターは、上記目標物体が上記非許容領域の境界の所定の閾値距離内にあり、上記目標物体が上記境界の方向に進んでいるときに受信される、
項目1に記載の方法。
[項目18]
上記目標物体は、閾値速度を超える速度で上記境界の方向に進んでいる、
項目17に記載の方法。
[項目19]
上記可動物体を動作させるステップは、上記許容領域を出ることまたは上記非許容領域に進入することを示す上記インジケーターが受信されると、上記目標物体に対して上記ユーザーの声を再生するステップを含む、
項目1に記載の方法。
[項目20]
上記ユーザー装置から上記UAVにリアルタイムで上記ユーザーの声を転送するステップをさらに含む、
項目19に記載の方法。
[項目21]
上記ユーザーの声は、事前に録音されたものである、
項目19に記載の方法。
[項目22]
上記可動物体を動作させるステップは、上記目標物体が所定の期間内に上記ユーザーの声に反応しない場合に上記目標物体に電気ショックを与えるステップを含む、
項目19に記載の方法。
[項目23]
上記ユーザーインタフェースは、上記UAVの画面であり、上記警報が視覚的に示される、
項目3に記載の方法。
[項目24]
上記ユーザーインタフェースは、上記UAVのスピーカであり、上記警報が聞こえるように提供される、
項目3に記載の方法。
[項目25]
目標物体を誘導するシステムであって、
(a)上記目標物体の移動が許可される許容領域または上記目標物体の移動が許可されない非許容領域を含む目標領域を指定するユーザー入力を示す信号を受信する、
(b)上記目標物体を誘導する可動物体の場所を示す信号を受信する、
(c)上記可動物体がいつ上記許容領域を出るか、またはいつ上記非許容領域に進入するかを、上記目標領域及び上記可動物体の場所を示す信号に基づいて特定する、
(d)上記可動物体が上記許容領域を出るのか、それとも上記非許容領域に進入するのかの判断に応じて可動物体を動作させることを決定する、
ことを個別にまたは集合的に実行する1つ以上のプロセッサーを備える、
システム。
[項目26]
上記目標物体は、動物である、
項目25に記載のシステム。
[項目27]
上記可動物体は、UAVである、
項目26に記載のシステム。
[項目28]
上記可動物体を動作させることは、上記UAVの飛行を制御して上記目標物体の移動を制御することを含む、
項目27に記載のシステム。
[項目29]
上記可動物体を動作させることは、上記UAVが上記許容領域を出ることまたは上記非許容領域に進入することを上記ユーザーに警告することを含む、
項目27に記載のシステム。
[項目30]
上記ユーザー入力は、上記許容領域または上記非許容領域を指定するグローバル座標を備える、
項目25に記載のシステム。
[項目31]
上記ユーザー入力は、上記許容領域または上記非許容領域の境界を指定する地図上の画像または外郭線を備える、
項目25に記載のシステム。
[項目32]
上記UAVは、上記UAVが上記目標物体を誘導している間に上記目標物体に物理的に取付けられる、
項目27に記載のシステム。
[項目33]
上記UAVは、上記目標物体のカラーに取付けられるリードによって上記目標物体に取付けられる、
項目32に記載のシステム。
[項目34]
上記UAVは、上記UAVが垂直に離陸することまたは着陸することの少なくとも一方を可能にする複数の回転翼を備える回転翼航空機である、
項目27に記載のシステム。
[項目35]
上記UAVは、上記UAVの場所の情報を送信する位置設定装置を備える、
項目27に記載のシステム。
[項目36]
上記位置設定装置は、GPSセンサーである、
項目35に記載のシステム。
[項目37]
上記許容領域を出ることを示す上記インジケーターは、上記目標物体が上記許容領域を出るときに提供される、
項目25に記載のシステム。
[項目38]
上記許容領域を出ることを示す上記インジケーターは、上記目標物体が上記許容領域の境界の所定の閾値距離内にあり、上記目標物体が上記境界の方向に進んでいるときに提供される、
項目25に記載のシステム。
[項目39]
上記目標物体は、閾値速度を超える速度で上記境界の方向に進むことがある、
項目38に記載のシステム。
[項目40]
上記1つ以上のプロセッサーは、上記目標物体が上記非許容領域に進入するときに、上記UAVが上記非許容領域に進入すると判断する、
項目25に記載のシステム。
[項目41]
上記1つ以上のプロセッサーは、上記目標物体が上記非許容領域の境界の所定の閾値距離内にあり、上記目標物体が上記境界の方向に進んでいるときに、上記UAVが上記非許容領域に進入すると判断する、
項目25に記載のシステム。
[項目42]
上記1つ以上のプロセッサーは、上記目標物体が閾値速度を超える速度で上記境界の方向に進んでいると判断する、
項目41に記載のシステム。
[項目43]
上記可動物体を動作させることは、上記許容領域を出ることまたは上記非許容領域に進入することを示す上記インジケーターが受信されると、上記目標物体に対して上記ユーザーの声を再生することを含み、
上記1つ以上のプロセッサーは、上記可動物体を動作させる、
項目25に記載のシステム。
[項目44]
上記ユーザーの声は、上記ユーザー装置から上記UAVにリアルタイムで転送される、
項目43に記載のシステム。
[項目45]
上記ユーザーの声は、事前に録音されたものである、
項目43に記載のシステム。
[項目46]
上記可動物体を動作させることは、上記目標物体が所定の期間内に上記ユーザーの声に反応しない場合に、上記目標物体に電気ショックを与えることを含む、
項目43に記載のシステム。
[項目47]
上記ユーザーインタフェースは、上記UAVの画面であり、上記警報が視覚的に示される、
項目27に記載のシステム。
[項目48]
上記ユーザーインタフェースは、上記UAVのスピーカであり、上記警報が聞こえるように提供される、
項目25に記載のシステム。
[項目49]
可動物体を使用して目標物体を誘導する方法において、
上記UAVに搭載された1つ以上の視覚センサーを用いてカラーを装着している上記目標物体を認識するステップ、
上記目標物体が認識されるとリードを使用して、人間の助けを借りずに上記目標物体のカラーに上記可動物体を自動的に取付けるステップ、
上記目標物体が上記リードを介して上記可動物体に取付けられる間、上記可動物体を飛行させるステップ、を含む、
方法。
[項目50]
上記目標物体は、動物である、
項目49に記載の方法。
[項目51]
上記可動物体は、無人航空機(UAV)であり、上記UAVが、上記目標物体が移動中に飛行している、
項目49に記載の方法。
[項目52]
上記リードは、可撓性材料または曲げることができる材料から形成される、
項目49に記載の方法。
[項目53]
上記UAVは、飛行中に上記リードを伸ばすステップまたは引っ込めるステップをさらに含む、
項目49に記載の方法。
[項目54]
上記リードは、1つ以上の複数磁気連結を使用して上記カラーに取付けられる、
項目49に記載の方法。
[項目55]
上記リードは、ロボットアームを用いて上記目標物体の上記カラーに取付けられる、
項目49に記載の方法。
[項目56]
上記ロボットアームは、上記カラーに上記リードを誘導する1つ以上の拡張部を備える、
項目55に記載の方法。
[項目57]
上記1つ以上の視覚センサーを使用し、上記カラーを装着している上記目標物体の少なくとも1つの画像を取得するステップをさらに含む、
項目49に記載の方法。
[項目58]
上記1つ以上のプロセッサーを用いて、上記目標物体の上記画像から上記目標物体を認識するステップをさらに含む、
項目57に記載の方法。
[項目59]
上記可動物体が、上記カラーの上記画像から上記目標物体を認識する1つ以上のプロセッサーを備える、
項目57に記載の方法。
[項目60]
上記可動物体がUAVであり、上記UAVは、上記目標物体を認識し、上記目標物体の近接に飛行し、上記目標物体の上記カラーに自動的に取付けられるステップをさらに含む、
項目57に記載の方法。
[項目61]
上記可動物体を飛行させるステップは、上記リードを引き寄せることによって上記目標物体を誘導するステップを含む、
項目49に記載の方法。
[項目62]
上記目標物体の動きの計算及び上記可動物体の動きを比較するステップをさらに含み、上記可動物体が上記リードを引き寄せるのに用いる1つ以上のパラメータを決定する、
項目61に記載の方法。
[項目63]
上記目標物体が移動中であり、上記リードを介して上記可動物体に取付けられる間、上記可動物体を使用して上記目標物体の画像を収集するステップをさらに含む、
項目49に記載の方法。
[項目64]
地図上で上記可動物体の場所を上記ユーザーに表示するステップをさらに含む、
項目49に記載の方法。
[項目65]
上記目標物体が移動中であり、上記リードを介して上記可動物体に取付けられる間、上記目標物体に対して上記ユーザーの声を再生するステップをさらに含む、
項目49に記載の方法。
[項目66]
上記ユーザーの声は、上記ユーザー装置から上記可動物体にリアルタイムで伝達される、
項目65に記載の方法。
[項目67]
上記ユーザーの声は、事前に録音されたものである、
項目65に記載の方法。
[項目68]
上記ユーザーの声は、上記目標物体に対して命令を話す、
項目65に記載の方法。
[項目69]
目標物体を誘導するUAVにおいて、
上記UAVは、
カラーを装着する上記目標物体の画像を取得する1つ以上の視覚センサーと、
上記カラーを装着する上記目標物体の画像から上記目標物体を個々にまたは集合的に認識する1つ以上のプロセッサーと、
上記目標物体が認識されると、人間の助けを借りずに上記目標物体の上記カラーにリードを自動的に取付けるリード取付け機構と、
上記目標物体が上記リードを介して上記UAVに取付けられる間、上記UAVの飛行を許可する1つ以上の推進部と、を備える
UAV。
[項目70]
上記目標物体は、動物である、
項目69に記載のUAV。
[項目71]
上記UAVは、上記目標物体が移動中に飛行する、
項目69に記載のUAV。
[項目72]
上記リードは、可撓性材料または曲げることができる材料から形成される、
項目69に記載のUAV。
[項目73]
上記リードは、上記UAVが飛行中に伸ばすことができる、または引っ込めることができる、
項目69に記載のUAV。
[項目74]
上記リードは、1つ以上の磁気連結を使用し、上記目標物体の上記カラーに取付けられる、
項目69に記載のUAV。
[項目75]
上記リードは、ロボットアームを用いて上記目標物体の上記カラーに取付けられる、
項目69に記載のUAV。
[項目76]
上記ロボットアームは、上記カラーに上記リードを誘導する1つ以上の拡張部を含む、
項目75に記載の方法。
[項目77]
上記1つ以上の視覚センサーは、上記カラーを装着する上記目標物体の少なくとも1つの画像を取得する、
項目69に記載のUAV。
[項目78]
上記UAVは、上記目標物体の上記画像から上記目標物体を認識する1つ以上のプロセッサーをさらに備える、
項目77に記載のUAV。
[項目79]
上記UAVは、上記カラーの画像から上記目標物体を認識する1つ以上のプロセッサーをさらに備える、
項目77に記載のUAV。
[項目80]
上記1つ以上のプロセッサーは、上記目標物体を認識し、上記目標物体に近接して上記UAVを飛行させて上記目標物体の上記カラーに上記UAVを自動的に取付ける上記1つ以上の推進部に信号を生成する、
項目77に記載のUAV。
[項目81]
上記UAVは、上記リードを引き寄せて上記目標物体を誘導する、
項目69に記載のUAV。
[項目82]
上記1つ以上のプロセッサーは、上記目標物体の動きの計算及び上記UAVの動きを比較し、上記UAVが上記リードを引き寄せるのに用いる1つ以上のパラメータを決定する、
項目81に記載のUAV。
[項目83]
上記1つ以上の視覚センサーは、上記目標物体が移動中に上記リードを介して上記UAVに取付けられる間、上記目標物体の画像を収集する、
項目69に記載のUAV。
[項目84]
上記1つ以上の視覚センサーは、上記目標物体の上記カラーの画像を収集する、
項目83に記載のUAV。
[項目85]
上記目標物体が移動中に上記リードを介して上記UAVに取付けられる間に上記目標物体に対して上記ユーザーの声を再生する1つ以上のスピーカをさらに備える、
項目69に記載のUAV。
[項目86]
上記ユーザーの声は、上記ユーザー装置から上記UAVにリアルタイムで伝達される、
項目85に記載のUAV。
[項目87]
上記ユーザーの声は、事前に録音されたものである、
項目85に記載のUAV。
[項目88]
上記ユーザーの声は、上記目標物体に命令を示す、
項目85に記載のUAV。
[項目89]
UAVを使用して目標物体を誘導する方法において、
上記UAVに搭載された1つ以上の視覚センサーを用いて上記目標物体を認識するステップ、
上記目標物体が認識されると、人間の助けまたは本発明なしに上記目標物体に対しアトラクターを自動的に表示するステップ、
上記目標物体が移動中であり、上記アトラクターについていく間、上記UAVを飛行させるステップ、を含む、
方法。
[項目90]
上記目標物体は、動物である、
項目89に記載の方法。
[項目91]
上記アトラクターは、食べられるおやつである、
項目89に記載の方法。
[項目92]
上記アトラクターを使用し、選択された香りを放つステップ、をさらに含む、
項目89に記載の方法。
[項目93]
上記UAVは、上記目標物体の頭部の高さまたは頭部の高さ近くに上記アトラクターをぶら下げて上記アトラクターを表示する、
項目89に記載の方法。
[項目94]
上記アトラクターは、上記UAVによって運ばれる画面に表示される画像を備える、
項目89に記載の方法。
[項目95]
上記画像は、静止画像である、
項目89に記載の方法。
[項目96]
上記画像は、上記目標物体の所有者の画像である、
項目95に記載の方法。
[項目97]
上記画像は、ビデオである、
項目89に記載の方法。
[項目98]
上記画像は、上記目標物体の上記所有者のビデオである、
項目97に記載の方法。
[項目99]
上記1つ以上の視覚センサーを使用して、
上記UAVに対する上記目標物体の場所を決定するステップ、
上記UAV飛行の速度を調整または維持して上記目標物体に対して近い上記目標物体に近接して留まり上記アトラクターを知覚するステップ、をさらに含む、
項目89に記載の方法。
[項目100]
上記1つ以上の視覚センサーを使用して、
上記UAVに対する上記目標物体の移動の軌跡を決定するステップ、
上記UAV飛行の上記方向を調整または維持して上記目標物体に対して近い上記目標物体に近接して留まり上記アトラクターを知覚するステップ、をさらに含む、
項目89に記載の方法。
[項目101]
上記1つ以上の視覚センサーを使用して上記目標物体の少なくとも1つの画像を取得するステップ、をさらに含む、
項目89に記載の方法。
[項目102]
上記UAVは、上記目標物体の画像から上記目標物体を認識する1つ以上のプロセッサーをさらに備える、
項目101に記載の方法。
[項目103]
上記目標物体は、カラーを装着している、
項目101に記載の方法。
[項目104]
上記UAVは、上記カラーの画像から上記目標物体を認識する1つ以上のプロセッサーをさらに備える、
項目103に記載の方法。
[項目105]
上記目標物体の移動中に上記リードを介してUAVに取付けられる間、上記目標物体に対して上記ユーザーの声を再生するステップをさらに含む、
項目89に記載の方法。
[項目106]
上記ユーザーの声は、上記ユーザー装置から上記UAVにリアルタイムで伝達される、
項目105に記載の方法。
[項目107]
上記ユーザーの声は、事前に録音されたものである、
項目105に記載の方法。
[項目108]
上記ユーザーの声は、上記目標物体に命令を言う、
項目105に記載の方法。
[項目109]
目標物体を誘導するUAVにおいて、
カラーを装着する目標物体の画像を取得する1つ以上の視覚センサーと、
上記目標物体の上記画像から上記目標物体を個々にまたは集合的に認識する1つ以上のプロセッサーと、
上記目標物体が認識されると、人間の助けまたは介入なしに上記目標物体に対してアトラクターを表示するアトラクター表示機構と、
上記アトラクターが上記目標物体に対して表示される間、上記UAVの飛行を可能にする1つ以上の推進部と、を備える、
UAV。
[項目110]
上記目標物体は、動物である、
項目109に記載のUAV。
[項目111]
上記アトラクターは、食べられるおやつである、
項目109に記載のUAV。
[項目112]
上記アトラクターは、選択された香りを放つ、
項目109に記載のUAV。
[項目113]
上記UAVは、上記目標物体の頭部の高さまたは頭部の高さ近くに上記アトラクターをぶら下げて上記アトラクターを表示する、
項目109に記載のUAV。
[項目114]
上記アトラクターは、上記UAVによって運ばれる画面に表示される画像を含む、
項目109に記載のUAV。
[項目115]
上記画像は、静止画像である、
項目109に記載のUAV。
[項目116]
上記画像は、上記目標物体の所有者の画像である、
項目115に記載のUAV。
[項目117]
上記画像は、ビデオである、
項目109に記載のUAV。
[項目118]
上記画像は、上記目標物体の上記所有者のビデオである、
項目117に記載のUAV。
[項目119]
上記UAVは、上記1つ以上の視覚センサーを使用し、
上記UAVに対する上記目標物体の場所を決定し、
上記UAV飛行の上記速度を調整または維持して上記目標物体に近接して留まり上記アトラクターを知覚する、
項目109に記載のUAV。
[項目120]
上記UAVは、上記1つ以上の視覚センサーを使用し、
上記UAVに対する上記目標物体の移動の軌跡を決定し、
上記UAV飛行の上記速度を調整または維持して上記目標物体に近接して留まり上記アトラクターを知覚する、
項目109に記載のUAV。
[項目121]
上記1つ以上の視覚センサーは、上記目標物体の少なくとも1つ画像を取得する、
項目109に記載のUAV。
[項目122]
上記UAVは、上記目標物体の上記画像から上記目標物体を認識する1つ以上のプロセッサーをさらに備える、
項目121に記載のUAV。
[項目123]
上記目標物体は、カラーを装着している、
項目121に記載のUAV。
[項目124]
上記UAVは、上記カラーの上記画像から上記目標物体を認識する1つ以上のプロセッサーをさらに備える、
項目123に記載のUAV。
[項目125]
上記UAVは、上記目標物体の移動中に上記リードを介して上記UAVに取付けられ間に上記目標物体に対して上記ユーザーの声を再生するスピーカをさらに備える、
項目109に記載のUAV。
[項目126]
上記ユーザーの声は、上記ユーザー装置から上記UAVにリアルタイムで伝達される、
項目125に記載のUAV。
[項目127]
上記ユーザーの声は、事前に録音されたものである、
項目125に記載のUAV。
[項目128]
上記ユーザーの声は、上記目標物体に命令を示す、
項目125に記載のUAV。
[項目129]
目標物体を誘導する方法において、
上記目標物体を誘導する、場所が既知であるUAVを提供するステップ、
上記UAVに搭載された1つ以上の視覚センサーを用いて上記目標物体を認識するステップ、
上記UAVに搭載された上記1つ以上の視覚センサーを用いて上記目標物体により生じた廃棄物を認識するステップ、
上記廃棄物が上記目標物体により生じたことを上記ユーザーに警告するステップ、を含む、
方法。
[項目130]
上記目標物体は、動物である、
項目129に記載の方法。
[項目131]
上記動物は、犬または猫である、
項目130に記載の方法。
[項目132]
上記廃棄物が生じた場所を上記ユーザーに示すステップ、をさらに含む、
項目129に記載の方法。
[項目133]
上記UAVは、上記廃棄物の上記画像から上記廃棄物を認識する1つ以上のプロセッサーをさらに備える、
項目129に記載の方法。
[項目134]
上記ユーザーは、表示装置を備えるユーザー装置によって警告を受ける、
項目129に記載の方法。
[項目135]
上記ユーザー装置は、スマートフォン、タブレット、またはパーソナルコンピュータである、
項目134に記載の方法。
[項目136]
上記ユーザー装置は、上記廃棄物が生じた場所を示す地図を表示する、
項目134に記載の方法。
[項目137]
上記ユーザー装置は、上記目標物体の上記廃棄物の画像を表示する、
項目134に記載の方法。
[項目138]
上記UAVは、上記目標物体に物理的に取付けられて上記目標物体を誘導する、
項目129に記載の方法。
[項目139]
上記UAVは、上記目標物体のカラーに取付けられるリードによって上記目標物体に取付けられる、
項目138に記載の方法。
[項目140]
上記UAVは、上記目標物体に対してアトラクターを表示し上記目標物体を誘導する、
項目129に記載の方法。
[項目141]
上記アトラクターは、食べられるおやつである、
項目140に記載の方法。
[項目142]
上記ユーザーは、目標物体廃棄物除去専門家である、
項目129に記載の方法。
[項目143]
上記UAVは、上記UAVが垂直に離陸することまたは着陸することの少なくとも一方を可能にする複数の回転翼を備える回転翼航空機である、
項目129に記載の方法。
[項目144]
上記UAVは、上記UAVの場所の情報を送信する位置設定装置を備える、
項目129に記載の方法。
[項目145]
上記位置設定装置は、GPSセンサーである、
項目144に記載の方法。
[項目146]
目標物体を誘導するUAVにおいて、
上記目標物体及び上記目標物体により生じた廃棄物の画像を取得する1つ以上の視覚センサーと、
上記目標物体の画像から上記目標物体を認識し、上記目標物体により生じた上記廃棄物の上記画像から上記目標物体の上記廃棄物を個々にまたは集合的に認識する1つ以上のプロセッサーと、
上記廃棄物が上記目標物体によって生じたことを上記ユーザーに警告する信号をユーザー装置に送信する通信部と、
上記目標物体を誘導する間、上記UAVの飛行を可能にする1つ以上の推進部と、
を備える、
UAV。
[項目147]
上記目標物体は、動物である、
項目146に記載のUAV。
[項目148]
上記動物は、犬または猫である、
項目147に記載のUAV。
[項目149]
上記UAVは、上記廃棄物が生じた場所について上記ユーザーに情報を提供する、
項目146に記載のUAV。
[項目150]
上記ユーザー装置は、表示装置を備える、
項目146に記載のUAV。
[項目151]
上記ユーザー装置は、スマートフォン、タブレット、またはパーソナルコンピュータである、
項目150に記載のUAV。
[項目152]
上記ユーザー装置は、上記廃棄物が生じた場所を示す地図を表示する、
項目150に記載のUAV。
[項目153]
上記ユーザー装置は、上記目標物体により生じた上記廃棄物の画像を表示する、
項目150に記載のUAV。
[項目154]
上記UAVは、上記目標物体に物理的に取付けられて上記目標物体を誘導する、
項目146に記載のUAV。
[項目155]
上記UAVは、上記目標物体のカラーに取付けられるリードによって上記目標物体に取付けられる、
項目154に記載のUAV。
[項目156]
上記UAVは、上記目標物体に対してアトラクターを表示して上記目標物体を誘導する、
上記項目146に記載のUAV。
[項目157]
上記アトラクターは、食べられるおやつである、
項目156に記載のUAV。
[項目158]
上記ユーザーは、目標物体廃棄物除去専門家である、
項目146に記載のUAV。
[項目159]
上記UAVは、上記UAVが垂直に離陸することまたは着陸することの少なくとも一方を可能にする複数の回転翼を含んだ回転翼航空機である、
項目146に記載のUAV。
[項目160]
上記UAVは、上記UAVの場所についての情報を送信する位置設定装置を備える、
項目146に記載のUAV。
[項目161]
上記位置設定装置は、GPSセンサーである、
項目160に記載のUAV。
[項目162]
目標物体を誘導する方法において、
場所が既知であり上記目標物体を誘導するUAVを提供するステップ、
上記UAVに搭載された1つ以上の視覚センサーを用いて上記目標物体を認識するステップ、
上記UAVに搭載された1つ以上の視覚センサーを用いて上記目標物体の廃棄物を認識するステップ、
上記UAVを使用し、上記廃棄物を認識して上記廃棄物を除去するステップ、を含む、
方法。
[項目163]
上記目標物体は、動物である、
項目162に記載の方法。
[項目164]
上記動物は、犬または猫である、
項目163に記載の方法。
[項目165]
上記UAVは、上記廃棄物が生じた場所の情報を上記ユーザーに伝えるステップ、をさらに含む、
項目162に記載の方法。
[項目166]
上記UAVは、上記廃棄物の上記画像から上記廃棄物を認識する1つ以上のプロセッサーをさらに備える、
項目162に記載の方法。
[項目167]
上記UAVは、上記目標物体に物理的に取付けられて上記目標物体を誘導する、
項目162に記載の方法。
[項目168]
上記UAVは、上記目標物体のカラーに取付けられるリードによって上記目標物体に取付けられる、
項目167に記載の方法。
[項目169]
上記UAVは、上記目標物体に対してアトラクターを表示して上記目標物体を誘導する、
項目162に記載の方法。
[項目170]
上記アトラクターは、食べられるおやつである、
項目169に記載の方法。
[項目171]
上記UAVは、上記UAVが垂直に離陸することまたは着陸することの少なくとも一方を可能にする複数の回転翼を含んだ回転翼航空機である、
項目162に記載の方法。
[項目172]
上記UAVは、上記UAVの場所の情報を送信する位置設定装置を含む、
項目162に記載の方法。
[項目173]
上記位置設定装置は、GPSセンサーである、
項目172に記載の方法。
[項目174]
機械的なアームで上記廃棄物を除去するステップをさらに含む、
項目162に記載の方法。
[項目175]
目標物体を誘導するUAVにおいて、
上記目標物体及び上記目標物体の廃棄物の画像を取得する1つ以上の視覚センサーと、
上記目標物体の上記画像から上記目標物体を認識すると共に上記目標物体の上記廃棄物の上記画像から上記目標物体の上記廃棄物を個々にまたは集合的に認識する1つ以上のプロセッサーと、
上記廃棄物の前期認識に応じて上記廃棄物を除去する1つ以上の廃棄物除去部と、
上記目標物体を誘導する間に上記UAVの飛行を可能にする1つ以上の推進部と、
を備える、
UAV。
[項目176]
上記目標物体は、動物である、
項目175に記載のUAV。
[項目177]
上記動物は、犬または猫である、
項目175に記載のUAV。
[項目178]
上記UAVは、上記廃棄物が生じた場所の情報を上記ユーザーに伝える、
項目175に記載のUAV。
[項目179]
上記UAVは、上記廃棄物の上記画像から上記廃棄物を認識する1つ以上のプロセッサーをさらに備える、
項目175に記載のUAV。
[項目180]
上記UAVは、上記目標物体に物理的に取付けられて上記目標物体を誘導する、
項目175に記載のUAV。
[項目181]
上記UAVは、上記目標物体のカラーに取付けられるリードに取付けられる、
項目175に記載のUAV。
[項目182]
上記UAVは、上記目標物体に対してアトラクターを表示して上記目標物体を誘導する、
項目175に記載のUAV。
[項目183]
上記アトラクターは、食べられるおやつである、
項目182に記載のUAV。
[項目184]
上記UAVは、上記UAVが垂直に離陸することまたは着陸することの少なくとも一方を可能にする複数の回転翼を含んだ回転翼航空機である、
項目175に記載のUAV。
[項目185]
上記UAVは、上記UAVの場所の情報を送信する位置設定装置を備える、
項目175に記載のUAV。
[項目186]
上記位置設定装置は、GPSセンサーである、
項目182に記載のUAV。
[項目187]
上記1つ以上の廃棄物除去部は、上記廃棄物を除去する上記UAVから伸びる機械的なアームを含む、
項目175に記載のUAV。
[項目188]
目標物体を誘導する方法において
UAVが上記目標物体を誘導する移動ルートをユーザー装置からユーザー入力として受け取るステップ、
上記目標物体の移動中に上記移動ルートに沿って上記UAVを飛行させ、場所が既知である上記UAVを使用して上記目標物体を誘導するステップ、
上記UAVが上記移動ルートに沿って上記目標物体を誘導する間、上記ユーザー装置を使用して上記移動ルートに対する変更を受信し更新された移動ルートを提供するステップ、
上記更新された移動ルートに沿って上記UAVを飛行させるステップ、を含む、
方法。
[項目189]
上記ユーザー入力は、上記移動ルートを画定するグローバル座標を備える、
項目188に記載の方法。
[項目190]
上記ユーザー入力は、上記更新された移動ルートを画定するグローバル座標を備える、
項目188に記載の方法。
[項目191]
上記ユーザー入力は、地図上に上記移動ルートを画定する画像または線を備える、
項目188に記載の方法。
[項目192]
上記ユーザー入力は、上記更新された移動ルートを画定する地図上の画像または線を備える、
項目188に記載の方法。
[項目193]
上記UAVは、上記目標物体に物理的に取付けられて上記目標物を誘導する
項目188に記載の方法。
[項目194]
上記UAVは、上記目標物体のカラーに取付けられるリードに取付けられる、
項目193に記載の方法。
[項目195]
上記目標物体は、動物である、
項目188に記載の方法。
[項目196]
上記動物は、犬または猫である、
項目195に記載の方法。
[項目197]
上記UAVが、上記UAVが垂直に離陸すること及び着陸することの少なくとも一方を可能にする複数の回転翼を含んだ回転翼航空機である、
項目188に記載の方法。
[項目198]
上記UAVが、上記UAVの場所の情報を送信する位置設定装置を含む、
項目188に記載の方法。
[項目199]
上記位置設定装置は、GPSセンサーである、
項目198に記載の方法。
[項目200]
上記UAVに搭載された1つ以上の視覚センサーを用いて上記目標物体の画像を取得するステップ、をさらに含む、
項目188に記載の方法。
[項目201]
上記1つ以上のプロセッサーにより、上記目標物体が、上記移動ルートまたは上記更新された移動ルートからいつ逸脱したかを上記目標物体の上記画像に基づいて検出する、
項目200に記載の方法。
[項目202]
上記目標物体が上記移動ルートまたは上記更新された移動ルートから逸脱しているときに上記目標物体に上記ユーザーの声を再生するステップ、をさらに含む、
項目201に記載の方法。
[項目203]
上記ユーザーの声は、上記ユーザー装置から上記UAVにリアルタイムで伝達される、
項目202に記載の方法。
[項目204]
上記ユーザーの声は、事前に録音されたものである、
項目202に記載の方法。
[項目205]
上記目標物体が所定距離を超えて上記移動ルートから逸脱すると、上記目標物体に電気ショックを与えるステップ、をさらに含む、
項目201に記載の方法。

Claims (48)

  1. 目標物体を誘導する方法であって、
    ユーザー装置から前記目標物体の移動が許可される許容領域または前記目標物体の移動が許可されない非許容領域を含む目標領域を指定する入力を受信するステップ、
    前記目標物体を誘導する無人航空機(UAV)から前記UAVの場所を示す信号を受信するステップ、
    前記UAVが前記許容領域を出ることを示すインジケーターまたは前記UAVが前記非許容領域に進入することを示すインジケーターを受信するステップ、
    前記インジケーターに応じて前記UAVを動作させるステップ、を含み、
    前記インジケーターは、前記UAVの場所及び前記目標領域に基づいて生成される、
    方法。
  2. 前記目標物体は、動物である、
    請求項1に記載の方法。
  3. 前記UAVを動作させるステップは、前記目標物体の移動を制御するために、前記UAVの飛行を制御するステップを含む、
    請求項1又は2に記載の方法。
  4. 前記UAVを動作させるステップは、前記UAVが前記許容領域を出ることまたは前記非許容領域に進入することをユーザーに警告するステップを含む、
    請求項1から3の何れか1つに記載の方法。
  5. 前記入力は、前記許容領域または前記非許容領域を指定するグローバル座標を含む、
    請求項1からの何れか1つに記載の方法。
  6. 前記入力は、前記許容領域または前記非許容領域の境界を指定する地図上の画像または外郭線を備える、
    請求項1からの何れか1つに記載の方法。
  7. 前記UAVを使用して前記目標物体を誘導し、
    前記UAVは、前記目標物体に物理的に取付けられる、
    請求項1から6の何れか1つに記載の方法。
  8. 前記UAVは、前記目標物体のカラーに取付けられるリードによって前記目標物体に取付けられる、
    請求項に記載の方法。
  9. 前記UAVは、前記UAVの場所の情報を送信するステップを含む、
    請求項1から8の何れか1つに記載の方法。
  10. 前記許容領域を出ることを示す前記インジケーターは、前記目標物体が前記許容領域を出るとき受信される、
    請求項1からの何れか1つに記載の方法。
  11. 前記UAVを動作させるステップは、前記許容領域を出ることまたは前記非許容領域に進入することを示す前記インジケーターが受信されると、前記目標物体に対してユーザーの声を再生するステップを含む、
    請求項1からの何れか1つに記載の方法。
  12. 前記ユーザー装置から前記UAVにリアルタイムで前記ユーザーの声を転送するステップをさらに含む、
    請求項11に記載の方法。
  13. 前記ユーザーの声は、事前に録音されたものである、
    請求項11又は12に記載の方法。
  14. 前記UAVを動作させるステップは、前記目標物体が所定の期間内に前記ユーザーの声に反応しない場合に前記目標物体に電気ショックを与えるステップを含む、
    請求項11から13の何れか1つに記載の方法。
  15. 前記警告が視覚的に前記UAVの画面で表示される、
    請求項に記載の方法。
  16. 前記UAVはスピーカがあり、前記警告が前記スピーカで放送される、
    請求項に記載の方法。
  17. 目標物体を誘導する方法であって、
    ユーザー装置から前記目標物体の移動が許可される許容領域を含む目標領域を指定する入力を受信するステップ、
    前記目標物体を誘導する可動物体から前記可動物体の場所を示す信号を受信するステップ、
    前記可動物体が前記許容領域を出ることを示すインジケーターを受信するステップ、
    前記インジケーターに応じて前記可動物体を動作させるステップ、を含み、
    前記インジケーターは、前記可動物体の場所及び前記目標領域に基づいて生成され、
    前記許容領域を出ることを示す前記インジケーターは、前記目標物体が前記許容領域の境界の所定の閾値距離内にあり、前記目標物体が前記境界の方向に進んでいるときに受信される、
    方法。
  18. 目標物体を誘導する方法であって、
    ユーザー装置から前記目標物体の移動が許可されない非許容領域を含む目標領域を指定する入力を受信するステップ、
    前記目標物体を誘導する可動物体から前記可動物体の場所を示す信号を受信するステップ、
    前記可動物体が前記非許容領域に進入することを示すインジケーターを受信するステップ、
    前記インジケーターに応じて前記可動物体を動作させるステップ、を含み、
    前記インジケーターは、前記可動物体の場所及び前記目標領域に基づいて生成され、
    前記非許容領域に進入することを示すインジケーターは、前記目標物体が前記非許容領域の境界の所定の閾値距離内にあり、前記目標物体が前記境界の方向に進んでいるときに受信される、
    方法。
  19. 前記目標物体は、閾値速度を超える速度で前記境界の方向に進んでいる、
    請求項17又は18に記載の方法。
  20. 目標物体を誘導するシステムであって、
    (a)前記目標物体の移動が許可される許容領域または前記目標物体の移動が許可されない非許容領域を含む目標領域を指定する入力信号を受信する、
    (b)前記目標物体を誘導するUAVの場所を示す信号を受信する、
    (c)前記UAVがいつ前記許容領域を出るか、またはいつ前記非許容領域に進入するかを、前記目標領域及び前記UAVの場所を示す信号に基づいて特定する、
    (d)前記UAVが前記許容領域を出るのか、それとも前記非許容領域に進入するのかの判断に応じて前記UAVを動作させることを決定する、
    ことを実行する1つ以上のプロセッサーを備える、
    システム。
  21. 前記目標物体は、動物である、
    請求項20に記載のシステム。
  22. 前記UAVを動作させることは、前記UAVが前記許容領域を出ることまたは前記非許容領域に進入することをユーザーに警告することを含む、
    請求項20又は21に記載のシステム。
  23. 前記入力は、前記許容領域または前記非許容領域を指定するグローバル座標を備える、
    請求項20から22の何れか1つに記載のシステム。
  24. 前記入力は、前記許容領域または前記非許容領域の境界を指定する地図上の画像または外郭線を備える、
    請求項20から23の何れか1つに記載のシステム。
  25. 前記UAVは、前記UAVが前記目標物体を誘導している間に前記目標物体に物理的に取付けられる、
    請求項20から24の何れか1つに記載のシステム。
  26. 前記UAVは、前記目標物体のカラーに取付けられるリードによって前記目標物体に取付けられる、
    請求項25に記載のシステム。
  27. 前記UAVは、前記UAVの場所の情報を送信する位置設定装置を備える、
    請求項20から26の何れか1つに記載のシステム。
  28. 前記許容領域を出ることを示す前記信号は、前記目標物体が前記許容領域を出るときに提供される、
    請求項20から27の何れか1つに記載のシステム。
  29. 前記1つ以上のプロセッサーは、前記目標物体が前記非許容領域に進入するときに、前記UAVが前記非許容領域に進入すると判断する、
    請求項20から27の何れか1つに記載のシステム。
  30. 前記UAVを動作させることは、前記許容領域を出ることまたは前記非許容領域に進入することを示す前記信号が受信されると、前記目標物体に対してユーザーの声を再生することを含み、
    前記1つ以上のプロセッサーは、前記UAVを動作させる、
    請求項20から27の何れか1つに記載のシステム。
  31. 前記ユーザーの声は、ユーザー装置から前記UAVにリアルタイムで転送される、
    請求項30に記載のシステム。
  32. 前記ユーザーの声は、事前に録音されたものである、
    請求項30に記載のシステム。
  33. 前記UAVを動作させることは、前記目標物体が所定の期間内に前記ユーザーの声に反応しない場合に、前記目標物体に電気ショックを与えることを含む、
    請求項30から32の何れか1つに記載のシステム。
  34. 前記警告が視覚的に前記UAVに表示される、
    請求項22に記載のシステム。
  35. 前記UAVはスピーカがあり、前記警告が前記スピーカで放送される、
    請求項22に記載のシステム。
  36. 目標物体を誘導するシステムであって、
    (a)前記目標物体の移動が許可される許容領域を含む目標領域を指定する入力信号を受信する、
    (b)前記目標物体を誘導する可動物体の場所を示す信号を受信する、
    (c)前記可動物体がいつ前記許容領域を出るかを、前記目標領域及び前記可動物体の場所を示す信号に基づいて特定する、
    (d)前記可動物体が前記許容領域を出るのかの判断に応じて可動物体を動作させることを決定する、
    ことを実行する1つ以上のプロセッサーを備え、
    前記許容領域を出ることを示す前記信号は、前記目標物体が前記許容領域の境界の所定の閾値距離内にあり、前記目標物体が前記境界の方向に進んでいるときに提供される、
    システム。
  37. 前記目標物体は、閾値速度を超える速度で前記境界の方向に進むことがある、
    請求項36に記載のシステム。
  38. 目標物体を誘導するシステムであって、
    (a)前記目標物体の移動が許可されない非許容領域を含む目標領域を指定する入力信号を受信する、
    (b)前記目標物体を誘導する可動物体の場所を示す信号を受信する、
    (c)前記可動物体がいつ前記非許容領域に進入するかを、前記目標領域及び前記可動物体の場所を示す信号に基づいて特定する、
    (d)前記可動物体が前記非許容領域に進入するのかの判断に応じて可動物体を動作させることを決定する、
    ことを実行する1つ以上のプロセッサーを備え、
    前記1つ以上のプロセッサーは、前記目標物体が前記非許容領域の境界の所定の閾値距離内にあり、前記目標物体が前記境界の方向に進んでいるときに、前記可動物体が前記非許容領域に進入すると判断する、
    システム。
  39. 前記1つ以上のプロセッサーは、前記目標物体が閾値速度を超える速度で前記境界の方向に進んでいると判断する、
    請求項38に記載のシステム。
  40. 目標物体を誘導する装置であって、
    ユーザー装置から前記目標物体の移動が許可される許容領域または前記目標物体の移動が許可されない非許容領域を含む目標領域を指定する入力を受信し、
    前記目標物体を誘導する無人航空機(UAV)から前記UAVの場所を示す信号を受信し、
    前記UAVが前記許容領域を出ることを示すインジケーターまたは前記UAVが前記非許容領域に進入することを示すインジケーターを受信し、
    前記インジケーターに応じて前記UAVを動作させ、
    前記インジケーターは、前記UAVの場所及び前記目標領域に基づいて生成される、
    装置。
  41. 目標物体を誘導する装置であって、
    ユーザー装置から前記目標物体の移動が許可される許容領域を含む目標領域を指定する入力を受信し、
    前記目標物体を誘導する可動物体から前記可動物体の場所を示す信号を受信し、
    前記可動物体が前記許容領域を出ることを示すインジケーターを受信し、
    前記インジケーターに応じて前記可動物体を動作させ、
    前記インジケーターは、前記可動物体の場所及び前記目標領域に基づいて生成され、
    前記許容領域を出ることを示す前記インジケーターは、前記目標物体が前記許容領域の境界の所定の閾値距離内にあり、前記目標物体が前記境界の方向に進んでいるときに受信される、
    装置。
  42. 目標物体を誘導する装置であって、
    ユーザー装置から前記目標物体の移動が許可されない非許容領域を含む目標領域を指定する入力を受信し、
    前記目標物体を誘導する可動物体から前記可動物体の場所を示す信号を受信し、
    前記可動物体が前記非許容領域に進入することを示すインジケーターを受信し、
    前記インジケーターに応じて前記可動物体を動作させ、
    前記インジケーターは、前記可動物体の場所及び前記目標領域に基づいて生成され、
    前記非許容領域に進入することを示すインジケーターは、前記目標物体が前記非許容領域の境界の所定の閾値距離内にあり、前記目標物体が前記境界の方向に進んでいるときに受信される、
    装置。
  43. 目標物体を誘導する方法であって、
    ユーザー装置から前記目標物体の移動が許可される許容領域または前記目標物体の移動が許可されない非許容領域を含む目標領域を指定する入力を受信するステップ、
    前記目標物体を誘導する可動物体から前記可動物体の場所を示す信号を受信するステップ、
    前記可動物体が前記許容領域を出ることを示すインジケーターまたは前記可動物体が前記非許容領域に進入することを示すインジケーターを受信するステップ、
    前記インジケーターに応じて前記可動物体を動作させるステップ、を含み、
    前記インジケーターは、前記可動物体の場所及び前記目標領域に基づいて生成され、
    前記可動物体は、前記目標物体に物理的に取付けられることなく前記目標物体の指定された距離の範囲内に留まって、前記目標物体を誘導する、
    方法。
  44. 目標物体を誘導する方法であって、
    ユーザー装置から前記目標物体の移動が許可される許容領域または前記目標物体の移動が許可されない非許容領域を含む目標領域を指定する入力を受信するステップ、
    前記目標物体を誘導する可動物体から前記可動物体の場所を示す信号を受信するステップ、
    前記可動物体が前記許容領域を出ることを示すインジケーターまたは前記可動物体が前記非許容領域に進入することを示すインジケーターを受信するステップ、
    前記インジケーターに応じて前記可動物体を動作させるステップ、を含み、
    前記インジケーターは、前記可動物体の場所及び前記目標領域に基づいて生成され、
    前記可動物体は、前記目標物体を先導する、
    方法。
  45. 目標物体を誘導するシステムであって、
    (a)前記目標物体の移動が許可される許容領域または前記目標物体の移動が許可されない非許容領域を含む目標領域を指定する入力信号を受信する、
    (b)前記目標物体を誘導する可動物体の場所を示す信号を受信する、
    (c)前記可動物体がいつ前記許容領域を出るか、またはいつ前記非許容領域に進入するかを、前記目標領域及び前記可動物体の場所を示す信号に基づいて特定する、
    (d)前記可動物体が前記許容領域を出るのか、それとも前記非許容領域に進入するのかの判断に応じて可動物体を動作させることを決定する、
    ことを実行する1つ以上のプロセッサーを備え、
    前記可動物体は、前記目標物体に物理的に取付けられることなく前記目標物体の指定された距離の範囲内に留まって、前記目標物体を誘導する、
    システム。
  46. 目標物体を誘導するシステムであって、
    (a)前記目標物体の移動が許可される許容領域または前記目標物体の移動が許可されない非許容領域を含む目標領域を指定する入力信号を受信する、
    (b)前記目標物体を誘導する可動物体の場所を示す信号を受信する、
    (c)前記可動物体がいつ前記許容領域を出るか、またはいつ前記非許容領域に進入するかを、前記目標領域及び前記可動物体の場所を示す信号に基づいて特定する、
    (d)前記可動物体が前記許容領域を出るのか、それとも前記非許容領域に進入するのかの判断に応じて可動物体を動作させることを決定する、
    ことを実行する1つ以上のプロセッサーを備え、
    前記可動物体は、前記目標物体を先導する、
    システム。
  47. 目標物体を誘導する装置であって、
    ユーザー装置から前記目標物体の移動が許可される許容領域または前記目標物体の移動が許可されない非許容領域を含む目標領域を指定する入力を受信し、
    前記目標物体を誘導する可動物体から前記可動物体の場所を示す信号を受信し、
    前記可動物体が前記許容領域を出ることを示すインジケーターまたは前記可動物体が前記非許容領域に進入することを示すインジケーターを受信し、
    前記インジケーターに応じて前記可動物体を動作させ、
    前記インジケーターは、前記可動物体の場所及び前記目標領域に基づいて生成され、
    前記可動物体は、前記目標物体に物理的に取付けられることなく前記目標物体の指定された距離の範囲内に留まって、前記目標物体を誘導する、
    装置。
  48. 目標物体を誘導する装置であって、
    ユーザー装置から前記目標物体の移動が許可される許容領域または前記目標物体の移動が許可されない非許容領域を含む目標領域を指定する入力を受信し、
    前記目標物体を誘導する可動物体から前記可動物体の場所を示す信号を受信し、
    前記可動物体が前記許容領域を出ることを示すインジケーターまたは前記可動物体が前記非許容領域に進入することを示すインジケーターを受信し、
    前記インジケーターに応じて前記可動物体を動作させ、
    前記インジケーターは、前記可動物体の場所及び前記目標領域に基づいて生成され、
    前記可動物体は、前記目標物体を先導する、
    装置。
JP2016553444A 2014-10-31 2014-10-31 目標物体を誘導する方法、システム、及び装置 Active JP6181321B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2014/090082 WO2016065625A1 (en) 2014-10-31 2014-10-31 Systems and methods for walking pets

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017140393A Division JP6560305B2 (ja) 2017-07-19 2017-07-19 目標物体を誘導する方法及びuav

Publications (2)

Publication Number Publication Date
JP2017509330A JP2017509330A (ja) 2017-04-06
JP6181321B2 true JP6181321B2 (ja) 2017-08-16

Family

ID=55856440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016553444A Active JP6181321B2 (ja) 2014-10-31 2014-10-31 目標物体を誘導する方法、システム、及び装置

Country Status (4)

Country Link
US (6) US9661827B1 (ja)
JP (1) JP6181321B2 (ja)
CN (2) CN111913494B (ja)
WO (1) WO2016065625A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102319260B1 (ko) 2020-03-30 2021-11-01 (주)한컴텔라딘 도로를 추종하도록 마련된 비행 경로에 따라 도로 상공을 비행하고, 신호등과의 연동을 수행하는 드론 및 그 동작 방법

Families Citing this family (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11425891B2 (en) 2012-09-19 2022-08-30 Botsitter, Llc Method and system for remote monitoring, care and maintenance of animals
US11249495B2 (en) 2012-09-19 2022-02-15 Botsitter, Llc Method and system for remote monitoring, care and maintenance of animals
US11278000B2 (en) * 2012-09-19 2022-03-22 Botsitter, Llc Method and system for remote monitoring, care and maintenance of animals
US10555498B2 (en) * 2012-09-19 2020-02-11 Botsitter, Llc Method and system for remote monitoring, care and maintenance of animals
US11297801B2 (en) * 2013-12-17 2022-04-12 Swift Paws, Inc. Lure chasing system
CN111913494B (zh) 2014-10-31 2023-10-17 深圳市大疆创新科技有限公司 用于遛宠物的系统和方法
CN105874397A (zh) * 2014-11-28 2016-08-17 深圳市大疆创新科技有限公司 无人机及其水样检测方法
CN104808675B (zh) * 2015-03-03 2018-05-04 广州亿航智能技术有限公司 基于智能终端的体感飞行操控系统及终端设备
WO2017020222A1 (zh) * 2015-08-03 2017-02-09 北京艾肯拓科技有限公司 控制外部设备的移动的方法和设备
US20170039857A1 (en) * 2015-08-08 2017-02-09 Kenneth S. Kwan Systems and methods for interacting with aerial drones
KR20170022489A (ko) * 2015-08-20 2017-03-02 엘지전자 주식회사 무인항공체 및 이의 제어방법
CA2947688C (en) * 2015-11-06 2023-08-01 David RANCOURT Tethered wing structures complex flight path
US10853756B2 (en) * 2016-03-02 2020-12-01 International Business Machines Corporation Vehicle identification and interception
CN105912021B (zh) * 2016-05-31 2019-10-01 莆田市荔城区任西贸易有限公司 一种遛狗无人机
KR101917195B1 (ko) * 2016-07-22 2018-11-09 이창섭 반려동물 배변훈련장치 및 방법
US10170011B2 (en) 2016-07-26 2019-01-01 International Business Machines Corporation Guide drones for airplanes on the ground
US10820574B2 (en) * 2016-07-29 2020-11-03 International Business Machines Corporation Specialized contextual drones for virtual fences
US9987971B2 (en) 2016-07-29 2018-06-05 International Business Machines Corporation Drone-enhanced vehicle external lights
EP3761135B1 (en) * 2016-09-27 2022-10-26 SZ DJI Technology Co., Ltd. System and method for controlling an unmanned vehicle in presence of a live object
CN106325290A (zh) * 2016-09-30 2017-01-11 北京奇虎科技有限公司 一种基于无人机的监控系统及设备
US11518510B1 (en) * 2016-10-06 2022-12-06 Gopro, Inc. Systems and methods for controlling an unmanned aerial vehicle
US11068837B2 (en) * 2016-11-21 2021-07-20 International Business Machines Corporation System and method of securely sending and receiving packages via drones
KR102680675B1 (ko) * 2016-12-05 2024-07-03 삼성전자주식회사 비행 제어 방법 및 이를 지원하는 전자 장치
KR101796555B1 (ko) * 2017-01-19 2017-11-10 차영천 드론을 이용한 견인장치
CN107114263A (zh) * 2017-04-12 2017-09-01 丁永胜 一种基于位置信息的散养羊智能监控方法和系统
JP2018185167A (ja) * 2017-04-24 2018-11-22 三菱電機株式会社 飛行制御装置および形状測定装置
CN107047366B (zh) * 2017-04-28 2019-11-08 徐州网递智能科技有限公司 一种自动化智能牵引无人机的控制方法及其无人机
US20180321681A1 (en) * 2017-05-05 2018-11-08 Pinnacle Vista, LLC Leading drone method
US10133281B1 (en) * 2017-05-05 2018-11-20 Pinnacle Vista, LLC Leading drone system
CN107309872B (zh) * 2017-05-08 2021-06-15 南京航空航天大学 一种带有机械臂的飞行机器人及其控制方法
CN107263493A (zh) * 2017-06-12 2017-10-20 苏州寅初信息科技有限公司 一种具有保护机构的智能牵引机器人及其保护方法
CN107049719B (zh) * 2017-06-12 2019-10-18 尚良仲毅(沈阳)高新科技有限公司 一种基于无人机的智能导盲警示方法及其系统
KR20190009103A (ko) * 2017-07-18 2019-01-28 삼성전자주식회사 외부 객체와의 거리에 기반하여 이동 되는 전자 장치 및 그 제어 방법
WO2019028528A1 (en) * 2017-08-11 2019-02-14 Bucher Municipal Pty Ltd WASTE COLLECTION SYSTEM
CN109426708A (zh) * 2017-08-22 2019-03-05 上海荆虹电子科技有限公司 一种宠物管理系统及方法
US10777008B2 (en) * 2017-08-31 2020-09-15 Disney Enterprises, Inc. Drones generating various air flow effects around a virtual reality or augmented reality user
US10909830B1 (en) 2017-11-07 2021-02-02 Pica Product Development, Llc Personal emergency alert system, method and device
US10798541B2 (en) 2017-11-07 2020-10-06 Pica Product Development, Llc Systems, methods and devices for remote trap monitoring
US10694338B2 (en) 2017-11-07 2020-06-23 Pica Product Development, Llc Cellular automated external defibrillator (AED) tracker
CN108012326B (zh) * 2017-12-07 2019-06-11 珠海市一微半导体有限公司 基于栅格地图的机器人监视宠物的方法及芯片
CN108033006A (zh) * 2017-12-16 2018-05-15 佛山市神风航空科技有限公司 一种智能仿生机械鸟
US11048277B1 (en) 2018-01-24 2021-06-29 Skydio, Inc. Objective-based control of an autonomous unmanned aerial vehicle
CN108353805A (zh) * 2018-02-01 2018-08-03 深圳市启智来科技有限公司 一种用于宠物照料的智能飞行装置
US20190250601A1 (en) * 2018-02-13 2019-08-15 Skydio, Inc. Aircraft flight user interface
KR102111432B1 (ko) * 2018-02-27 2020-05-15 (주)호모미미쿠스 동물의 독립 태스크 수행을 지원하는 원격 제어 시스템 및 방법
WO2019168258A1 (ko) * 2018-02-27 2019-09-06 (주)호모미미쿠스 동물의 독립 태스크 수행을 지원하는 원격 제어 시스템 및 방법과 동물 웨어러블 다용도 모듈화 플랫폼 시스템
EP3764779A4 (en) * 2018-03-14 2022-03-16 Protect Animals with Satellites, LLC CORRECTION COLLAR USING GEOLOCATION TECHNOLOGY
CN108617538A (zh) * 2018-05-08 2018-10-09 黎弋凡 一种用于放牧的驱使项圈及定位导航方法
CN108719270A (zh) * 2018-06-06 2018-11-02 杨育萱 一种基于虚拟电子围栏的生物防治系统及方法
CN108762311A (zh) * 2018-06-22 2018-11-06 东汉太阳能无人机技术有限公司 飞机的飞行控制方法及装置
JP7018594B2 (ja) * 2018-07-09 2022-02-14 パナソニックIpマネジメント株式会社 制御装置、情報処理方法及び係留装置
TWI662290B (zh) * 2018-08-16 2019-06-11 National Formosa University 航空物聯網與圈養動物之穿戴式系統
US11307584B2 (en) 2018-09-04 2022-04-19 Skydio, Inc. Applications and skills for an autonomous unmanned aerial vehicle
CN109159134A (zh) * 2018-10-09 2019-01-08 上海思依暄机器人科技股份有限公司 一种机器人控制方法及机器人
JP7394322B2 (ja) * 2018-11-28 2023-12-08 パナソニックIpマネジメント株式会社 無人飛行体、制御方法及びプログラム
CN110547218A (zh) * 2019-04-30 2019-12-10 内蒙古物通天下网络科技有限责任公司 一种牲畜寻找系统
CN110146070B (zh) * 2019-05-13 2021-01-15 珠海市一微半导体有限公司 一种适用于宠物引诱的激光导航方法
CN110321796A (zh) * 2019-05-30 2019-10-11 北京迈格威科技有限公司 一种犬只训导方法、装置、系统及存储介质
CA3144145A1 (en) * 2019-08-15 2021-01-18 Kenneth Scott EHRMAN Corrective collar utilizing geolocation technology
US11958183B2 (en) 2019-09-19 2024-04-16 The Research Foundation For The State University Of New York Negotiation-based human-robot collaboration via augmented reality
CN110677488B (zh) * 2019-09-30 2022-06-14 青岛海尔科技有限公司 物联网系统的事件规划方法和装置、存储介质及电子装置
CN110622919B (zh) * 2019-10-31 2021-08-13 义乌市坤玥玩具有限公司 一种宠物行走保护器
US20210261247A1 (en) * 2020-02-26 2021-08-26 Nxp B.V. Systems and methodology for voice and/or gesture communication with device having v2x capability
CN111838005B (zh) * 2020-06-22 2022-04-19 中国科学院深圳先进技术研究院 用于观测动物活动的观测装置
KR102430073B1 (ko) * 2020-08-11 2022-08-08 울산과학기술원 동물 산책용 드론
KR102214408B1 (ko) * 2020-08-27 2021-02-09 임형순 반려동물용 원격 통제장치
JP7259824B2 (ja) * 2020-10-02 2023-04-18 トヨタ自動車株式会社 誘導車両
US11726475B2 (en) 2020-11-30 2023-08-15 At&T Intellectual Property I, L.P. Autonomous aerial vehicle airspace claiming and announcing
US11797896B2 (en) 2020-11-30 2023-10-24 At&T Intellectual Property I, L.P. Autonomous aerial vehicle assisted viewing location selection for event venue
US11443518B2 (en) 2020-11-30 2022-09-13 At&T Intellectual Property I, L.P. Uncrewed aerial vehicle shared environment privacy and security
JP7319244B2 (ja) * 2020-12-07 2023-08-01 Hapsモバイル株式会社 制御装置、プログラム、システム、及び方法
KR102405763B1 (ko) * 2021-01-29 2022-06-03 한국항공대학교산학협력단 노즈워크 기능을 갖는 반려동물 놀이용 드론, 이를 포함하는 노즈워크 기능을 갖는 반려동물 놀이용 드론 세트 및 이를 이용한 반려동물 노즈워크 유도 방법
KR102440081B1 (ko) * 2021-02-05 2022-09-05 동의대학교 산학협력단 반려동물 자율 산책 드론
CN113269946B (zh) * 2021-03-22 2022-08-02 陇东学院 一种社区物联网救助用安防报警装置
CN113184075B (zh) * 2021-05-25 2022-08-26 重庆邮电大学 一种仿安乐蜥的抗风振爬附机器人
CN113892440A (zh) * 2021-09-29 2022-01-07 湖南纳九物联科技有限公司 一种遛狗时监控牵绳用的装置及方法
CN114342826B (zh) * 2021-12-09 2022-11-29 深圳先进技术研究院 一种电击装置及应用
CN114403042A (zh) * 2021-12-13 2022-04-29 深圳先进技术研究院 一种大动物焦虑症动物模型
IT202200011069A1 (it) 2022-05-26 2023-11-26 Trade Company S R L Dispositivo a pilotaggio remoto per l'addestramento e la conduzione di animali
BE1030608B1 (nl) * 2022-06-10 2024-01-15 Somomo Bvba Verrijkingswerkwijze en -systeem voor roofdieren in dierentuinen
US20240284873A1 (en) * 2023-02-24 2024-08-29 Zaid Almanssoori Robodayton Hybrid System
US20240324557A1 (en) * 2023-03-30 2024-10-03 Audrey Havican Method of communication with a pet

Family Cites Families (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3716029A (en) * 1971-01-22 1973-02-13 C Pillsbury Animal exercising device
US4865328A (en) * 1984-03-16 1989-09-12 The United States Of America As Represented By The Secretary Of The Navy Low-cost, expendable, crushable target aircraft
JP3343364B2 (ja) 1991-07-31 2002-11-11 東芝ライテック株式会社 低圧水銀蒸気放電ランプ
JPH0536383U (ja) * 1991-10-21 1993-05-18 株式会社ケンウツド 移動体の補助装置
US5255629A (en) * 1992-03-09 1993-10-26 Jerry Paterson Rider remote-controlled cutting horse trainer
US5870973A (en) * 1996-05-30 1999-02-16 Invisible Fence Company, Inc. Electronic animal control system transmitter with variable phase control
JPH10319116A (ja) * 1997-05-20 1998-12-04 Aisin Seiki Co Ltd 電磁波利用の動物体検出装置
JP2000157089A (ja) * 1998-11-25 2000-06-13 Taiji Nishimura 電話機能付首輪
US6213056B1 (en) * 1999-06-21 2001-04-10 Martin Bergmann Automatic horse walker
US7937042B2 (en) * 2000-06-09 2011-05-03 Dot Holdings, Llc Animal training and tracking system using RF identification tags
US20020046713A1 (en) * 2000-09-08 2002-04-25 Otto James R. Method for remotely controlling movement of an animal
JP2003150717A (ja) 2001-11-09 2003-05-23 Toto Ltd 生活習慣改善支援装置
US6904868B2 (en) * 2002-07-12 2005-06-14 Robert S. Block Interactive mobile food dispenser
ITPR20030019A1 (it) * 2003-03-19 2004-09-20 Bice Srl Guinzaglio per animali applicabile a veicolo.
US6782847B1 (en) * 2003-06-18 2004-08-31 David Shemesh Automated surveillance monitor of non-humans in real time
JP2005289307A (ja) 2004-04-05 2005-10-20 Seiko Epson Corp 飛行案内装置、歩行案内方法、飛行案内プログラム
US7156054B1 (en) * 2004-06-16 2007-01-02 Rick York Horse walker/animal conditioning system
US7409924B2 (en) * 2004-07-15 2008-08-12 Lawrence Kates Training, management, and/or entertainment system for canines, felines, or other animals
US7479884B1 (en) * 2004-08-31 2009-01-20 Cedar Ridge Research System and method for monitoring objects, people, animals or places
US8395484B2 (en) * 2004-08-31 2013-03-12 Cedar Ridge Research Llc System and method for monitoring objects, people, animals or places
JP4316477B2 (ja) * 2004-11-18 2009-08-19 パナソニック株式会社 移動ロボットの追従方法
US7620493B2 (en) * 2005-06-10 2009-11-17 The Board Of Regents, The University Of Texas System System, method and apparatus for providing navigational assistance
JP2008061640A (ja) * 2006-09-08 2008-03-21 Kofukuka Nakakawaji 犬の緩和装置
US20080262669A1 (en) * 2006-09-22 2008-10-23 Jadi, Inc. Autonomous vehicle controller
US8221290B2 (en) 2007-08-17 2012-07-17 Adidas International Marketing B.V. Sports electronic training system with electronic gaming features, and applications thereof
CN101278653B (zh) * 2007-09-26 2011-08-24 深圳先进技术研究院 一种家庭宠物看护的智能机器人装置
CN101278654B (zh) * 2007-09-26 2010-12-01 深圳先进技术研究院 一种宠物看护机器人系统
US8178825B2 (en) * 2007-10-29 2012-05-15 Honeywell International Inc. Guided delivery of small munitions from an unmanned aerial vehicle
US9026272B2 (en) * 2007-12-14 2015-05-05 The Boeing Company Methods for autonomous tracking and surveillance
US8392065B2 (en) 2008-09-11 2013-03-05 Deere & Company Leader-follower semi-autonomous vehicle with operator on side
US8989972B2 (en) * 2008-09-11 2015-03-24 Deere & Company Leader-follower fully-autonomous vehicle with operator on side
US8028662B2 (en) * 2008-10-31 2011-10-04 Raymond Laurel D Method of training a dog to chew acceptable objects through scent marking and chemical composition thereof
EP2386052A1 (en) * 2009-01-09 2011-11-16 Mbda Uk Limited Missile guidance system
IL201681A (en) * 2009-10-22 2014-06-30 Abraham Abershitz System and method for UAV
FI122052B (fi) * 2009-11-06 2011-08-15 Domuset Oy Menetelmä ja järjestely kotona olevan lemmikkieläimen kulkureitin seuraamiseksi
US8253572B2 (en) * 2010-01-22 2012-08-28 Lytle Jr Bradley D Electronic tether system and method with rate of change detection and vehicle braking features
WO2011146584A1 (en) * 2010-05-18 2011-11-24 Woodstream Corporation, Inc. Custom-shape wireless dog fence system and method
CN102809969A (zh) * 2011-06-03 2012-12-05 鸿富锦精密工业(深圳)有限公司 无人飞行载具控制系统及方法
CA2841987A1 (en) * 2011-06-13 2012-12-20 Robert Jesurum Pet restraint system
US9582006B2 (en) * 2011-07-06 2017-02-28 Peloton Technology, Inc. Systems and methods for semi-autonomous convoying of vehicles
WO2013033954A1 (zh) * 2011-09-09 2013-03-14 深圳市大疆创新科技有限公司 陀螺式动态自平衡云台
CA2851154A1 (en) * 2011-10-05 2013-04-11 Radio Systems Corporation Image-based animal control systems and methods
US9329001B2 (en) * 2011-10-26 2016-05-03 Farrokh Mohamadi Remote detection, confirmation and detonation of buried improvised explosive devices
US8805008B1 (en) * 2011-11-02 2014-08-12 The Boeing Company Tracking closely spaced objects in images
US8922363B2 (en) * 2011-11-07 2014-12-30 Min Jae SO Animal training apparatus for locating collar transceiver using GPS and method of controlling the same
US9110168B2 (en) * 2011-11-18 2015-08-18 Farrokh Mohamadi Software-defined multi-mode ultra-wideband radar for autonomous vertical take-off and landing of small unmanned aerial systems
CN102530255A (zh) * 2011-12-13 2012-07-04 江西洪都航空工业集团有限责任公司 一种牵引式无人机精确伞降装置与方法
CN202464124U (zh) * 2012-01-13 2012-10-03 安徽理工大学 一种四旋翼飞行器
JP3175361U (ja) 2012-02-19 2012-05-10 株式会社クラフト 山岳用ナビゲーションシステム
US9030491B1 (en) * 2012-04-18 2015-05-12 The United States Of America As Represented By The Secretary Of The Navy System and method for displaying data from multiple devices on a single user interface
CN102722697B (zh) * 2012-05-16 2015-06-03 北京理工大学 一种无人飞行器视觉自主导引着陆的目标跟踪方法
US20140018979A1 (en) * 2012-07-13 2014-01-16 Honeywell International Inc. Autonomous airspace flight planning and virtual airspace containment system
AU2013299897A1 (en) * 2012-08-06 2015-02-26 Radio Systems Corporation Housebreaking reward system
US20150350614A1 (en) * 2012-08-31 2015-12-03 Brain Corporation Apparatus and methods for tracking using aerial video
US8707900B1 (en) * 2012-09-19 2014-04-29 Krystalka Ronette Womble Method and system for remote monitoring, care and maintenance of animals
US8800488B2 (en) * 2012-10-02 2014-08-12 Alex Jon Stone Internet controlled pet feeder
US20140100773A1 (en) * 2012-10-07 2014-04-10 Practical Intellect, Llc Method of Assistance for the Visually Impaired
CN203152217U (zh) * 2012-11-15 2013-08-28 韩晴羽 一种养狗机器人
JP6029446B2 (ja) 2012-12-13 2016-11-24 セコム株式会社 自律飛行ロボット
US9776716B2 (en) * 2012-12-19 2017-10-03 Elwah LLC Unoccupied flying vehicle (UFV) inter-vehicle communication for hazard handling
US8930044B1 (en) * 2012-12-28 2015-01-06 Google Inc. Multi-part navigation process by an unmanned aerial vehicle for navigating to a medical situatiion
US9538725B2 (en) * 2013-03-08 2017-01-10 Eb Partners Mobile telephone dog training tool and method
JP6190750B2 (ja) * 2013-04-16 2017-08-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 排泄物検知システム、排泄物検知方法、および、排泄物検知プログラム
CN103345157A (zh) * 2013-06-21 2013-10-09 南京航空航天大学 一种无人飞行器三自由度模型构建方法
CN103490842B (zh) * 2013-09-26 2016-09-28 深圳市大疆创新科技有限公司 数据传输系统及方法
CN103576692A (zh) * 2013-11-07 2014-02-12 哈尔滨工程大学 一种多无人机协同飞行方法
US20150175276A1 (en) * 2013-12-19 2015-06-25 Kenneth Lee Koster Delivery platform for unmanned aerial vehicles
CN103914076B (zh) * 2014-03-28 2017-02-15 浙江吉利控股集团有限公司 一种基于无人机的货物传送系统和方法
CN103941750B (zh) * 2014-04-30 2016-08-31 东北大学 基于小型四旋翼无人机的构图装置及方法
US9087451B1 (en) * 2014-07-14 2015-07-21 John A. Jarrell Unmanned aerial vehicle communication, monitoring, and traffic management
US9170117B1 (en) * 2014-08-21 2015-10-27 International Business Machines Corporation Unmanned aerial vehicle navigation assistance
CN110174903B (zh) * 2014-09-05 2023-05-09 深圳市大疆创新科技有限公司 用于在环境内控制可移动物体的系统和方法
US9429945B2 (en) * 2014-10-22 2016-08-30 Honeywell International Inc. Surveying areas using a radar system and an unmanned aerial vehicle
CN111913494B (zh) 2014-10-31 2023-10-17 深圳市大疆创新科技有限公司 用于遛宠物的系统和方法
US9530058B2 (en) * 2014-12-11 2016-12-27 Toyota Motor Engineering & Manufacturing North America, Inc. Visual-assist robots
US9637233B2 (en) 2015-09-21 2017-05-02 International Business Machines Corporation Unmanned aerial vehicle for interacting with a pet

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102319260B1 (ko) 2020-03-30 2021-11-01 (주)한컴텔라딘 도로를 추종하도록 마련된 비행 경로에 따라 도로 상공을 비행하고, 신호등과의 연동을 수행하는 드론 및 그 동작 방법

Also Published As

Publication number Publication date
US20170215381A1 (en) 2017-08-03
CN111913494B (zh) 2023-10-17
JP2017509330A (ja) 2017-04-06
US20200359600A1 (en) 2020-11-19
US10729103B2 (en) 2020-08-04
CN111913494A (zh) 2020-11-10
CN106455523B (zh) 2020-08-04
US20180077902A1 (en) 2018-03-22
US9661827B1 (en) 2017-05-30
US10159218B2 (en) 2018-12-25
US9861075B2 (en) 2018-01-09
US20190116758A1 (en) 2019-04-25
US11246289B2 (en) 2022-02-15
US20170127652A1 (en) 2017-05-11
CN106455523A (zh) 2017-02-22
US20220159928A1 (en) 2022-05-26
WO2016065625A1 (en) 2016-05-06

Similar Documents

Publication Publication Date Title
US11246289B2 (en) Systems and methods for walking pets
JP6560305B2 (ja) 目標物体を誘導する方法及びuav
US11697411B2 (en) Apparatus and methods for obstacle detection
JP6538852B2 (ja) 機体の高度制限及び制御
JP6278539B2 (ja) 状況に基づく飛行モード選択
JP6133499B2 (ja) 飛行制限区域における航空制御
US9262929B1 (en) Ground-sensitive trajectory generation for UAVs
JP6235716B2 (ja) ある環境内で無人航空機を制御する方法、及び、ある環境内で無人航空機を制御するシステム
JP2019507924A (ja) Uav軌道を調整するシステム及び方法
JP6700397B2 (ja) 飛行制限をサポートする方法、装置、及び非一時的コンピュータ可読媒体
JP6372835B1 (ja) 警告方法
JP6385512B2 (ja) 飛行制限区域に対する飛行制御
JP6912518B2 (ja) 機体の高度制限及び制御
JP6422090B2 (ja) 警告方法、及び、警告装置
GB2559185A (en) Surveillance apparatus

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170719

R150 Certificate of patent or registration of utility model

Ref document number: 6181321

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250