JPWO2018185831A1 - 移動体、制御システム、制御方法及びプログラム - Google Patents

移動体、制御システム、制御方法及びプログラム Download PDF

Info

Publication number
JPWO2018185831A1
JPWO2018185831A1 JP2019510528A JP2019510528A JPWO2018185831A1 JP WO2018185831 A1 JPWO2018185831 A1 JP WO2018185831A1 JP 2019510528 A JP2019510528 A JP 2019510528A JP 2019510528 A JP2019510528 A JP 2019510528A JP WO2018185831 A1 JPWO2018185831 A1 JP WO2018185831A1
Authority
JP
Japan
Prior art keywords
moving body
operation information
displayed
display object
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019510528A
Other languages
English (en)
Other versions
JP6661143B2 (ja
Inventor
俊二 菅谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Optim Corp
Original Assignee
Optim Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Optim Corp filed Critical Optim Corp
Publication of JPWO2018185831A1 publication Critical patent/JPWO2018185831A1/ja
Application granted granted Critical
Publication of JP6661143B2 publication Critical patent/JP6661143B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/102Simultaneous control of position or course in three dimensions specially adapted for aircraft specially adapted for vertical take-off of aircraft

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

移動体20は、移動可能で撮像機能を備えた装置であり、本実施形態では、ドローン又はマルチコプターと呼ばれる、飛行可能な回転翼機である。表示物10は、移動体20に対して動作を通知したい位置に配置されており、移動体20が行う動作を示す動作情報が人間の解釈可能な文字、記号又は図形の少なくともいずれか1によって表示されたものである。表示物10においては、例えば、動作情報が手書きで媒体に記入されていたり、動作情報が媒体に印刷されていたり、動作情報が手書きないし印刷されたシールが構造物に貼付されていたり、或いは、動作情報が光学的な表示装置によって表示されている。移動体20は表示物を撮像してその撮像結果を解析し、動作情報が示す動作を実行する。

Description

本発明は、移動体、制御システム、制御方法及びプログラムに関する。
ドローンと呼ばれる移動体を制御する仕組みとして、例えば特許文献1には、ユーザが操作するタブレットから移動体に対して制御コマンドを無線送信するシステムが開示されている。
特開2016−94188号公報
特許文献1に記載された仕組みは、操作者の操作によって移動体をリアルタイムに遠隔制御するものであるが、将来的には、人間がわざわざリアルタイムに指示しなくても、移動体が自律的に自身の動作を制御することが望まれている。また、移動体は人間の居住空間においても飛行などの動作を行う装置であるため、その移動体の周りにいる人間にとっては移動体がどのように動作するのかを理解しやすいほうが望ましい。
本発明の目的は、操作者の操作によって移動体をリアルタイムに遠隔制御しなくても移動体が動作することが可能で且つ移動体がどのような動作を行うかを人間にとって理解しやすい技術を提供することにある。
課題を解決する手段
本発明は、移動体によって行われる動作を示す動作情報が人間の解釈可能な文字、記号又は図形の少なくともいずれか1によって表示された表示物を撮像する撮像部と、撮像された撮像画像を解析し、前記動作情報が示す動作を実行する動作実行部とを備えることを特徴とする移動体を提供する。
前記動作情報は、前記動作情報は、前記移動体の移動に関する動作を示すようにしてもよい。
前記動作情報は、前記移動体が周囲の環境に対して行う動作を示すようにしてもよい。
前記動作情報は、条件及び当該条件を満たした場合に行う動作を示し、前記動作実行部は、前記動作情報によって示される条件を満たすか否かを判断し、当該条件が満たされる場合に当該動作情報によって示される動作を行うようにしてもよい。
前記動作情報は、前記移動体の動作の制限を示すようにしてもよい。
前記動作情報は、前記移動体の動作に関する位置の範囲を示すようにしてもよい。
前記動作実行部は、前記撮像画像において筆跡を認識し、当該筆跡に応じて前記動作を実行するようにしてもよい。
前記表示物において複数の動作情報がそれぞれ異なる色で表示されており、前記動作実行部は、前記撮像画像における各動作情報を表示する色に応じた動作を実行するようにしてもよい。
また、本発明は、移動体によって行われる動作を示す動作情報が人間の解釈可能な文字、記号又は図形の少なくともいずれか1によって表示された表示物を撮像する撮像部と、撮像された撮像画像を解析し、前記動作情報が示す動作を移動体に実行させる動作実行部とを備えることを特徴とする制御システムを提供する。
また、本発明は、移動体によって行われる動作を示す動作情報が人間の解釈可能な文字、記号又は図形の少なくともいずれか1によって表示された表示物を撮像するステップと、撮像された撮像画像を解析し、前記動作情報が示す動作を実行するステップとを備えることを特徴とする制御方法を提供する。
また、本発明は、移動体が備えるコンピュータに、移動体によって行われる動作を示す動作情報が人間の解釈可能な文字、記号又は図形の少なくともいずれか1によって表示された表示物を撮像するステップと、撮像された撮像画像を解析し、前記動作情報が示す動作を実行するステップとを実行させるためのプログラムを提供する。
本発明によれば、操作者の操作によって移動体をリアルタイムに遠隔制御しなくても移動体が動作することが可能で且つ人間にとって移動体がどのような動作を行うかが理解しやすくなる。
本発明の一実施形態に係る制御システム1の概要を例示する図。 移動体20のハードウェア構成を例示する図。 移動体20の機能構成を例示する図。 表示物10を例示する図。 表示物10を例示する図。 移動体20の動作を例示するフローチャート。 移動体20の移動経路と表示物の表示内容との関係を例示する図。
1…制御システム、10…表示物10…移動体、21…撮像部、22…動作実行部、221…画像解析部、222…移動部、223…処理部、201…CPU、202…RAM、203…ROM、204…補助記憶装置、205…通信IF、206…カメラ、207…測位装置、208…回転機構、209…処理機構。
1.構成
図1は、本発明の一実施形態に係る制御システム1の概要を例示する図である。制御システム1は、複数の表示物10と、移動体20とを備えている。移動体20は、移動可能で撮像機能を備えた装置であり、本実施形態では、ドローン又はマルチコプターと呼ばれる、飛行可能な回転翼機である。表示物10は、移動体20に対して、その移動体20が行う動作を通知する位置に配置されている。この表示物10には、移動体20が行う動作を示す動作情報が人間の解釈可能な(つまり人間が見ただけで意味が分かる)文字、記号又は図形の少なくともいずれか1によって表示されている。その表示形態は、例えば、動作情報が手書きで媒体に記入されているとか、動作情報が媒体に印刷されているとか、動作情報が手書きないし印刷されたシールが構造物に貼付されているとか、或いは、動作情報が光学的な表示装置によって表示されているなど、どのような形態であってもよい。
図2は、移動体20のハードウェア構成を例示する図である。移動体20は、CPU201(Central Processing Unit)、ROM(Read Only Memory)202、RAM(Random Access Memory)203、補助記憶装置204、通信IF205、カメラ206、測位装置207、回転機構208及び処理機構209を有する。CPU201は、各種の演算を行うプロセッサである。RAM203は、CPU201がプログラムを実行する際のワークエリアとして機能する揮発性メモリである。ROM202は、例えば移動体20の起動に用いられるプログラムおよびデータを記憶した不揮発性メモリである。補助記憶装置204は、例えばHDD(Hard Disk Drive)又はSSD(Solid State Drive)などの不揮発性の記憶装置であり、移動体20において用いられるプログラムおよびデータを記憶する。CPU201がこのプログラムを実行することにより移動体20はコンピュータ装置として機能し、後述する図3に示される機能が実現される。通信IF205は、移動体20が外部装置とデータ通信を行う場合に、図示せぬネットワークを介した通信を行う。この通信は無線通信であってもよいし有線通信であってもよい。カメラ206は、例えば移動体20の鉛直下方の空間を撮像し、撮像した画像を示す画像データを生成する。測位装置207は、例えばGPS(Global Positioning System)ユニットであり、移動体20の位置を検出する。回転機構208は、移動体20において揚力及び推進力を発生させる手段であり、プロペラ、シャフト、モータ、その他の駆動機構などを含む。処理機構209は決められた処理を行う機構であり、例えば移動体20の行う動作が農薬散布であれば、農薬を貯留するタンクとその農薬を散布する散布装置などを含んでいる。
図3は、移動体20の機能構成を例示する図である。移動体20は、撮像部21と、画像解析部221、移動部222及び処理部223を含む動作実行部22とを有する。撮像部21はカメラ206によって実現され、画像解析部221はCPU201によって実現され、移動部222はCPU201、測位装置207及び回転機構208によって実現され、処理部223は移動体20のCPU201、カメラ206、測位装置207、回転機構208及び処理機構209によって実現される。撮像部21は、撮像を行う手段であり、例えば表示物10を撮像してその撮像画像を示す撮像画像データを生成する。画像解析部221は例えばOCR(Optical Character Recognition/Reader)等の画像認識技術や言語処理技術を利用して、撮像画像データを解析して動作情報の内容を特定する。移動部222及び処理部223は、特定された動作情報に応じた動作(例えば移動や農薬散布など)を行う。
図4は、表示物10を例示する図である。図4(a)の例では、移動体20が移動するときの高度及び速度と移動体20が移動中に行う処理(1秒ごとに静止画撮影)とが文字で表示され、移動方向が矢印記号で表示されている。移動体20はこのような表示物10から、移動する方向、高度及び速度と、その移動中に行う処理とを読み取って、これら動作を実行する。
図4(b)の例では、移動体20が移動する方向とその移動中に行う処理(移動しながら動作撮影)とがいずれも文字で表示されている。図4(c)の例では、移動体20が移動する方向が矢印記号で表示され、その移動中に行う処理(動画撮影)が文字で表示されており、さらに、次の表示物10の位置までの距離(100m)が文字で表示されている。移動体20はこのような表示物10から、移動する方向とその移動中に行う処理とを読み取って、これら動作を実行しながら次の表示物10の位置へと向かい、指定された距離だけ移動すると表示物10を探索する。
図4(d)の例では、移動体20が表示物10の位置で行う処理(荷物投下)が文字で表示されている。移動体20はこのような表示物10から処理を読み取って、この動作を実行する。図4(e)の例では、移動体20が行う処理(農薬散布)とその動作を行う位置的範囲(表示物10の位置を中心として半径100mの円の範囲内)とが文字で表示されている。移動体20はこのような表示物10から処理と位置的範囲を読み取って、その位置的範囲において動作を実行する。図4(f)の例では、移動体20が行う処理(農薬散布)が文字で表示され、その動作を行う位置的範囲が文字、記号及び図形で表示されている。
図5(a)の例では、移動体20に対する動作の制限(進入禁止)が文字で表示されている。移動体20はこのような表示物10から動作の制限を読み取って、それまでの進行方向を変更する。図5(b)の例では、移動体20に対する動作の制限(進入禁止)が文字で表示され、その制限の位置的範囲が文字、記号及び図形で表示されている。図5(c)の例では、移動体20に対する動作の制限(農薬散布しないということ)及びその制限の位置的範囲が文字で表示されている。移動体20はこのような表示物10から動作の制限を読み取って、それまで農薬散布を行っていたとしても、制限の位置的範囲においては農薬散布を中止する。
図5(d)の例では、条件(エリアAに害虫が発生していること)と、その条件を満たした場合に移動体20が行う動作(農薬散布)とが文字で表示されている。エリアAの位置は移動体20が予め記憶しており、移動体20はこのような表示物10から条件及び動作を読み取って、その条件が満たされると、その動作を実行する。より具体的には、移動体20の補助記憶装置204には、撮像画像の解析結果に相当する条件が記憶されている。例えば撮像画像に含まれるオブジェクト(植物の画像オブジェクト)の形状、色、大きさ等が所定の状態であれば害虫発生症状、水分不足症状、肥料不足症状、生育完了症状・・・であることなどが記憶されている。移動体20の動作実行部22は、撮像画像に含まれるオブジェクトの形状、色、大きさ等を画像認識技術により解析し、その解析結果が補助記憶装置204に記憶されている条件(害虫発生症状、水分不足症状、肥料不足症状、生育完了症状・・・)のいずれかに合致するか否かを判断する。そして、動作実行部22は、解析結果が動作情報で指定された条件に合致する場合には、動作情報で指定された動作を実行する。
図5(e)の例では、条件(エリアAに害虫が発生していること)と、その条件を満たした場合に移動体20が行う動作(農薬散布)とが或る色αの文字で表示されており、また、条件(エリアBに害虫が発生していること)と、その条件を満たした場合に移動体20が行う動作(農薬散布)とが別の色βの文字で表示されている。ここで、色αの文字で表示された動作情報は、色βの文字で表示された動作情報よりも優先される。従って、移動体20はこのような表示物10から条件及び動作を読み取ると、エリアA及びエリアBについて害虫発生状況を調べ、エリアAに害虫が発生していれば、エリアBの害虫発生状況に関わらず、まずエリアAについて動作(農薬散布)を実行する。一方、エリアAに害虫が発生しておらずエリアBに害虫が発生している場合、又は、エリアAに害虫が発生していてエリアAの農薬散布してもなお農薬が余っている場合には、移動体20はエリアBについて動作(農薬散布)を実行する。
図5(f)の例では、条件と、その条件を満たした場合に移動体20が行う動作を終了することがいずれも文字で表示されている。
以上のように、動作情報は、移動体20の移動に関する動作を示すようにしてもよい。また、動作情報は、移動体20が周囲の環境に対して行う動作(例えば撮像、荷物投下、農薬散布など)を示すようにしてもよい。動作情報は、条件及び当該条件を満たした場合に行う動作を示し、動作実行部22は、動作情報によって示される条件を満たすか否かを判断し、当該条件が満たされる場合に当該動作情報によって示される動作を行うようにしてもよい。また、動作情報は、移動体20の動作の制限を示すようにしてもよい。また、動作情報は、移動体20の動作に関する位置の範囲を示すようにしてもよい。また、表示物10において複数の動作情報がそれぞれ異なる色で表示されており、動作実行部22は、撮像画像における各動作情報を表示する色に応じた動作を実行するようにしてもよい。
2.動作
図6は、移動体20の動作を例示するフローチャートである。図5において、移動体20の移動部222は、予め与えられた指示に従い、回転機構208を駆動して所定の基地施設から離陸し、移動体20を移動させる(ステップS11)。この指示には、移動体20が最初に撮像するべき表示物10の位置を示す位置情報が含まれており、移動部222はその位置を目的地として移動体20を移動させる。
移動部222は定期的に移動体20の位置を検出しており、検出された位置が上記位置情報の示す位置に一致すると、撮像部24が撮像を行いながら表示物10を探索し、探索の結果発見した表示物10の撮像を行う(ステップS12)。
画像解析部25は、撮像された撮像画像に含まれる表示物10を解析して(ステップS13)、表示物10に表示された動作情報によって示される動作を決定する(ステップS14)。動作実行部22は、決定された動作を実行する(ステップS15)。以降、全ての動作が終了するまで(ステップS16;NO)、ステップS12〜S15の処理が繰り返される。全ての動作が終了すると(ステップS16;YES)、移動体20の処理は終了する。
図7は、移動体20の移動経路と表示物の表示内容との関係を例示する図である。図に示すように、スタート地点Sからゴール地点Gに至るまでの移動体20の移動経路において、要所となる地点(例えば前回撮像した表示物10から一定の距離だけ離れた地点とか、それまでの移動体20の動作が変更される地点)には表示物10が配置されており、移動体20はこの表示物10に表示された動作情報(図7の例では、移動方向を示す矢印記号)に従って、動作(図7の例では、移動)する。
以上説明した本実施形態によれば、動作を特定するための動作情報を含む表示物10を各所に配置するだけで、移動体20がその表示物を解析して自律的に動作することが可能となる。この動作情報は、例えば人間が解釈できない符号化された情報(2次元バーコード等)ではなく、人間の解釈可能な文字、記号又は図形の少なくともいずれか1によって表示されるから、例えば人間が動作情報を自ら記入ないし入力して移動体20に動作を指示することが容易となる。また、移動体20の周囲にいる人間は、その移動体20のどのように動作するかをおおよそ把握していないと、場合によっては移動体20による不意の動作によって危険な状況になることが予想される。これに対し、本実施形態では、移動体20の周囲にいる人間は表示物10を見ることで、その移動体20がどのような動作を行うかを容易に理解できるから、上記のような危険性が小さくなる。
3.変形例
本発明は上述の実施形態に限定されるものではなく、種々の変形実施が可能である。以下、変形例をいくつか説明する。以下の変形例のうち2つ以上のものが組み合わせて用いられてもよい。
3−1.変形例1
動作実行部22は、撮像画像において筆跡を認識し、当該筆跡に応じて動作を実行するようにしてもよい。具体的には、移動体20に対して動作情報を与えることができる人間を1又は複数人の特定の人間に限定しておき、その人間の筆跡の特徴を補助記憶装置204に記憶させておく。動作実行部22は、撮像画像において動作情報を示す筆跡を認識し、その筆跡が補助記憶装置204に記憶されているものと一致するときは、動作情報で指定された動作を実行する。一方、撮像画像において動作情報を示す筆跡が補助記憶装置204に記憶されているものと一致しないときは、動作実行部22は、動作情報で指定された動作を実行しない。このようにすれば、権限の無い第3者が移動体20に対して動作を指示する、というような不正行為を排除できる。
3−2.変形例2
図4に例示した表示物10に表示される動作情報の表示形態は一例に過ぎず、動作情報が人間の解釈可能な文字、記号又は図形の少なくともいずれか1によって表示されていれば、どのようなものであってもよい。なお、動作情報に含まれる条件は、自然環境に関する条件(例えば温度、湿度、降水量)を指定するものであってもよい。この場合、移動体20は、これらの条件によって指定された自然環境に関する値(温度、湿度、降水量)を例えば移動体20自身が備えるセンサや地上等に設置されたセンサから取得し、取得した値が上記条件を充足すると、動作情報にて指定された動作を行うようにする。
3−3.変形例3
本発明における移動体は、実施形態で例示した回転翼機のように空中を飛行する移動体20に限定されず、例えば地面や水中を移動する移動体であってもよい。
3−4.変形例4
図3で例示した機能構成の一部が移動体20以外の装置に実装されていてもよい。例えば、画像解析部221が、移動体20とは別の外部装置(例えば移動体20と通信可能なコンピュータ装置)により実現されてもよい。この場合、撮像部21が撮像した撮像画像データが移動体20の通信IF205経由で外部装置に送信され、その外部装置において、画像解析部が撮像画像に含まれる表示物10を解析して、表示物10に表示された動作情報によって示される動作を決定し、その動作を移動体20に通知する。この通知に応じて、移動体20の動作実行部22が通知された動作を実行する。このように、本発明を制御システムの発明として把握することも可能である。つまり、本発明の制御システムは、移動体によって行われる動作を示す動作情報が人間の解釈可能な文字、記号又は図形の少なくともいずれか1によって表示された表示物を撮像する撮像部と、撮像された撮像画像を解析し、前記動作情報が示す動作を移動体に実行させる動作実行部とを備える。
なお、CPU201により実行されるプログラムは、光ディスク、磁気ディスク、半導体メモリなどの記憶媒体により提供されてもよいし、インターネット等の通信回線を介してダウンロードされてもよい。また、これらのプログラムは、実施形態で説明したすべてのステップを実行させるものでなくてもよい。

Claims (11)

  1. 移動体によって行われる動作を示す動作情報が人間の解釈可能な文字、記号又は図形の少なくともいずれか1によって表示された表示物を撮像する撮像部と、
    撮像された撮像画像を解析し、前記動作情報が示す動作を実行する動作実行部と
    を備えることを特徴とする移動体。
  2. 前記動作情報は、前記移動体の移動に関する動作を示す
    ことを特徴とする請求項1に記載の移動体。
  3. 前記動作情報は、前記移動体が周囲の環境に対して行う動作を示す
    ことを特徴とする請求項1又は2に記載の移動体。
  4. 前記動作情報は、条件及び当該条件を満たした場合に行う動作を示し、
    前記動作実行部は、前記動作情報によって示される条件を満たすか否かを判断し、当該条件が満たされる場合に当該動作情報によって示される動作を行う
    ことを特徴とする請求項1〜3のいずれか1項に記載の移動体。
  5. 前記動作情報は、前記移動体の動作の制限を示す
    ことを特徴とする請求項1〜4のいずれか1項に記載の移動体。
  6. 前記動作情報は、前記移動体の動作に関する位置の範囲を示す
    ことを特徴とする請求項1〜5のいずれか1項に記載の移動体。
  7. 前記動作実行部は、前記撮像画像において筆跡を認識し、当該筆跡に応じて前記動作を実行する
    ことを特徴とする請求項1〜6のいずれか1項に記載の移動体。
  8. 前記表示物において複数の動作情報がそれぞれ異なる色で表示されており、
    前記動作実行部は、前記撮像画像における各動作情報を表示する色に応じた動作を実行する
    ことを特徴とする請求項1〜7のいずれか1項に記載の移動体。
  9. 移動体によって行われる動作を示す動作情報が人間の解釈可能な文字、記号又は図形の少なくともいずれか1によって表示された表示物を撮像する撮像部と、
    撮像された撮像画像を解析し、前記動作情報が示す動作を移動体に実行させる動作実行部と
    を備えることを特徴とする制御システム。
  10. 移動体によって行われる動作を示す動作情報が人間の解釈可能な文字、記号又は図形の少なくともいずれか1によって表示された表示物を撮像するステップと、
    撮像された撮像画像を解析し、前記動作情報が示す動作を移動体に実行させるステップと
    を備えることを特徴とする制御方法。
  11. 移動体が備えるコンピュータに、
    移動体によって行われる動作を示す動作情報が人間の解釈可能な文字、記号又は図形の少なくともいずれか1によって表示された表示物を撮像するステップと、
    撮像された撮像画像を解析し、前記動作情報が示す動作を実行するステップと
    を実行させるためのプログラム。
JP2019510528A 2017-04-04 2017-04-04 移動体、制御システム、制御方法及びプログラム Active JP6661143B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/014084 WO2018185831A1 (ja) 2017-04-04 2017-04-04 移動体、制御システム、制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2018185831A1 true JPWO2018185831A1 (ja) 2019-11-07
JP6661143B2 JP6661143B2 (ja) 2020-03-11

Family

ID=63713066

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019510528A Active JP6661143B2 (ja) 2017-04-04 2017-04-04 移動体、制御システム、制御方法及びプログラム

Country Status (2)

Country Link
JP (1) JP6661143B2 (ja)
WO (1) WO2018185831A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6661143B2 (ja) * 2017-04-04 2020-03-11 株式会社オプティム 移動体、制御システム、制御方法及びプログラム
JP7012040B2 (ja) * 2019-03-28 2022-01-27 本田技研工業株式会社 動作領域制限方法、及びロボット制御装置
WO2021245892A1 (ja) * 2020-06-04 2021-12-09 三菱電機株式会社 自動走行制御装置、自動走行制御システム、及び警告情報決定方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6336409A (ja) * 1986-07-31 1988-02-17 Daifuku Co Ltd 光学誘導式移動車の誘導設備
JPH10129996A (ja) * 1996-10-29 1998-05-19 Ohbayashi Corp 自動搬送システム
JPH11184521A (ja) * 1997-12-24 1999-07-09 Mitsubishi Electric Corp 自動配車システム
JPH11272328A (ja) * 1998-03-25 1999-10-08 Nippon Signal Co Ltd:The 色標識,移動ロボットおよび移動ロボットの誘導方法
JP2000194417A (ja) * 1998-12-28 2000-07-14 Mitsubishi Electric Corp 自動配車システム
JP2010061533A (ja) * 2008-09-05 2010-03-18 Fuji Heavy Ind Ltd 自律走行車の走行システム
JP2010152426A (ja) * 2008-12-24 2010-07-08 Central Motor Co Ltd 自動搬送車及びその自動搬送車を使用する自動搬送車運行システム
JP2012140101A (ja) * 2011-01-04 2012-07-26 Topcon Corp 飛行体の飛行制御システム
JP2012234461A (ja) * 2011-05-09 2012-11-29 Nippon Yusoki Co Ltd 無人搬送システム
JP2013254336A (ja) * 2012-06-06 2013-12-19 Ntt Data Corp ノート、筆跡情報管理装置、筆跡情報管理方法、筆跡情報管理プログラム
WO2016002276A1 (ja) * 2014-06-30 2016-01-07 エイディシーテクノロジー株式会社 車両制御装置
WO2018185831A1 (ja) * 2017-04-04 2018-10-11 株式会社オプティム 移動体、制御システム、制御方法及びプログラム

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6336409A (ja) * 1986-07-31 1988-02-17 Daifuku Co Ltd 光学誘導式移動車の誘導設備
JPH10129996A (ja) * 1996-10-29 1998-05-19 Ohbayashi Corp 自動搬送システム
JPH11184521A (ja) * 1997-12-24 1999-07-09 Mitsubishi Electric Corp 自動配車システム
JPH11272328A (ja) * 1998-03-25 1999-10-08 Nippon Signal Co Ltd:The 色標識,移動ロボットおよび移動ロボットの誘導方法
JP2000194417A (ja) * 1998-12-28 2000-07-14 Mitsubishi Electric Corp 自動配車システム
JP2010061533A (ja) * 2008-09-05 2010-03-18 Fuji Heavy Ind Ltd 自律走行車の走行システム
JP2010152426A (ja) * 2008-12-24 2010-07-08 Central Motor Co Ltd 自動搬送車及びその自動搬送車を使用する自動搬送車運行システム
JP2012140101A (ja) * 2011-01-04 2012-07-26 Topcon Corp 飛行体の飛行制御システム
JP2012234461A (ja) * 2011-05-09 2012-11-29 Nippon Yusoki Co Ltd 無人搬送システム
JP2013254336A (ja) * 2012-06-06 2013-12-19 Ntt Data Corp ノート、筆跡情報管理装置、筆跡情報管理方法、筆跡情報管理プログラム
WO2016002276A1 (ja) * 2014-06-30 2016-01-07 エイディシーテクノロジー株式会社 車両制御装置
WO2018185831A1 (ja) * 2017-04-04 2018-10-11 株式会社オプティム 移動体、制御システム、制御方法及びプログラム

Also Published As

Publication number Publication date
WO2018185831A1 (ja) 2018-10-11
JP6661143B2 (ja) 2020-03-11

Similar Documents

Publication Publication Date Title
US11246289B2 (en) Systems and methods for walking pets
CN107168352B (zh) 目标追踪系统及方法
CN108780325B (zh) 用于调整无人飞行器轨迹的系统和方法
Andrew et al. Aerial animal biometrics: Individual friesian cattle recovery and visual identification via an autonomous uav with onboard deep inference
Olivares-Mendez et al. Towards an autonomous vision-based unmanned aerial system against wildlife poachers
WO2018185831A1 (ja) 移動体、制御システム、制御方法及びプログラム
US20200034620A1 (en) Self-reliant autonomous mobile platform
JP6640089B2 (ja) 無人車両の探索
US20170055517A1 (en) Biomimetic and zoosemiotic aerial vehicle controlled by automatic pilot
WO2021094851A1 (en) System and methods for automated wildlife detection, monitoring and control
Saska et al. Formation control of unmanned micro aerial vehicles for straitened environments
Tripicchio et al. Confined spaces industrial inspection with micro aerial vehicles and laser range finder localization
JP6849272B2 (ja) 無人航空機を制御するための方法、無人航空機、及び無人航空機を制御するためのシステム
JPWO2020136703A1 (ja) 無人航空機制御システム、無人航空機制御方法、及びプログラム
Martins et al. A computer vision based algorithm for obstacle avoidance
KR102403122B1 (ko) 전자 장치 및 그 제어 방법
Ribeiro et al. Multi-robot systems for precision agriculture
US20180129208A1 (en) Method for flight control by how a device is thrown
Doran et al. Conceptual design of human-drone communication in collaborative environments
Algabri et al. Wireless vision-based fuzzy controllers for moving object tracking using a quadcopter
US20220214700A1 (en) Control method and device, and storage medium
JP6679052B2 (ja) 移動体、移動体制御方法、プログラム及び移動体制御システム
del Cerro et al. Aerial fleet in rhea project: A high vantage point contributions to robot 2013
JP6621942B2 (ja) 遠隔制御システム、遠隔制御方法、およびプログラム
Wisniewski et al. Reinforcement Learning for Pan-Tilt-Zoom Camera Control, with Focus on Drone Tracking

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A5211

Effective date: 20190614

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190614

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190614

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200129

R150 Certificate of patent or registration of utility model

Ref document number: 6661143

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250