JP2020086569A - デバイス制御システム - Google Patents

デバイス制御システム Download PDF

Info

Publication number
JP2020086569A
JP2020086569A JP2018215451A JP2018215451A JP2020086569A JP 2020086569 A JP2020086569 A JP 2020086569A JP 2018215451 A JP2018215451 A JP 2018215451A JP 2018215451 A JP2018215451 A JP 2018215451A JP 2020086569 A JP2020086569 A JP 2020086569A
Authority
JP
Japan
Prior art keywords
simulation
sensor signal
sensor
condition
controlled device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018215451A
Other languages
English (en)
Inventor
正峰 渡邉
Masamine Watanabe
正峰 渡邉
翼 中村
Tasuku Nakamura
翼 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mind In A Device
Mind In A Device Co Ltd
University of Tokyo NUC
Original Assignee
Mind In A Device
Mind In A Device Co Ltd
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mind In A Device, Mind In A Device Co Ltd, University of Tokyo NUC filed Critical Mind In A Device
Priority to JP2018215451A priority Critical patent/JP2020086569A/ja
Priority to CN201911002760.5A priority patent/CN111198513A/zh
Priority to EP19206856.7A priority patent/EP3654120A1/en
Priority to US16/676,085 priority patent/US20200159175A1/en
Publication of JP2020086569A publication Critical patent/JP2020086569A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/048Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators using a predictor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B17/00Systems involving the use of models or simulators of said systems
    • G05B17/02Systems involving the use of models or simulators of said systems electric
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/0206Control of position or course in two dimensions specially adapted to water vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39014Match virtual world with real world

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Feedback Control In General (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】 被制御デバイスを適切に制御する。【解決手段】 センサー部11,31は、特定物理量に対応する実センサー信号を出力する。コントローラー2は、(a)被制御デバイス1および環境領域ENVの少なくとも一方の特定の状態情報をシミュレーション条件として環境領域ENV内の特定事象のシミュレーションを行いシミュレーション結果を導出し、そのシミュレーション結果から特定物理量を仮想的に測定して実センサー信号に対応する仮想センサー信号を生成し、(b)実センサー信号と仮想センサー信号とに基づいてシミュレーション条件を更新し、(c)シミュレーション条件およびシミュレーション条件の少なくとも一方から、被制御デバイス1の制御信号を生成する。そして、実センサー信号と仮想センサー信号との誤差が収束するまで、反復的に、シミュレーションおよび仮想センサー信号の生成、並びにシミュレーション条件の更新を行う。【選択図】 図1

Description

本発明は、デバイス制御システムに関するものである。
一般的に、デバイス制御システムにおいて、移動体、ロボットなどといった運動体や、照明機器、空調機器などを制御する電子機器などといった被制御デバイスは、センサーで得られたセンサー信号に従ってコントローラーによって自動制御されたり、ユーザーからの指令に従って手動制御されたりする。
例えば、ある浮上移動システムは、被制御デバイスとしての飛行体と周辺領域とについて、周辺領域外部の空気の流れを定常流と仮定した流体−構造連成解析で飛行体の胴体の移動を計算し飛行体の挙動を特定して経路予測を行い、目標経路に近づくように羽の駆動を行う(例えば特許文献1参照)。また、例えば、被制御デバイスとしてのある自動車は、各種センサーのセンサー信号に基づいて自動運転を行っている(例えば特許文献2参照)。さらに、例えば、被制御デバイスとしてのある作業ロボットは、各種センサーのセンサー信号に基づいてアクチュエーターやモーターを制御して特定の動作を行う。さらに、例えば、スマートハウスは、各種センサーのセンサー信号に基づいて宅内電子機器(照明機器、空調機器など)を制御している(例えば特許文献3参照)。
特開2005−263073号公報 特開2018−106438号公報 特開2013−169104号公報
しかしながら、上述のシステムでは、センサー信号に基づいて被制御デバイスが制御されているが、被制御デバイスが最適に制御されていない可能性がある。
例えば、センサー信号には直接的に表れない被制御デバイスの状態情報、被制御デバイス周辺の環境の状態情報などが制御に考慮されていない可能性がある。
また、例えば、特定の計算モデルに従ってセンサー信号から状態情報を計算し、その状態情報に基づいて制御が行われる場合、その計算モデルに起因する状態情報の計算値の誤差が考慮されていない可能性がある。
本発明は、上記の問題に鑑みてなされたものであり、被制御デバイスが適切に制御される制御システムを得ることを目的とする。
本発明に係るデバイス制御システムは、ある環境領域内で固定されるか移動する被制御デバイスと、環境領域または被制御デバイスに設置され特定物理量を測定し測定した物理量に対応する実センサー信号を出力するセンサー部と、実センサー信号に基づいて被制御デバイスを制御するコントローラーとを備える。コントローラーは、(a)被制御デバイスおよび環境領域の少なくとも一方の特定の状態情報をシミュレーション条件として環境領域内の特定事象のシミュレーションを行いシミュレーション結果を導出し、シミュレーション結果から、特定物理量を仮想的に測定して実センサー信号に対応する仮想センサー信号を生成するシミュレーターと、(b)実センサー信号および仮想センサー信号に基づいてシミュレーション条件を更新するシミュレーション条件更新部と、(c)シミュレーション条件およびシミュレーション結果の少なくとも一方に基づいて、被制御デバイスの制御信号を生成する制御信号生成部とを備える。そして、実センサー信号と仮想センサー信号との間のセンサー誤差が所定条件を満たすように収束するまで、反復的に、(a)シミュレーターは、シミュレーションおよび仮想センサー信号の生成を行い、(b)シミュレーション条件更新部は、シミュレーション条件の更新を行う。
本発明に係るデバイス制御方法は、ある環境領域内で固定されるか移動する被制御デバイスまたは環境領域に設置され特定物理量を測定し測定した物理量に対応する実センサー信号を出力するセンサー部から実センサー信号を取得するステップと、被制御デバイスおよび環境領域の少なくとも一方の特定の状態情報をシミュレーション条件として環境領域内の特定事象のシミュレーションを行いシミュレーション結果を導出するステップと、シミュレーション結果から、特定物理量を仮想的に測定して実センサー信号に対応する仮想センサー信号を生成するステップと、実センサー信号と仮想センサー信号とに基づいてシミュレーション条件を更新するステップと、シミュレーション条件およびシミュレーション結果の少なくとも一方に基づいて、被制御デバイスの制御信号を生成するステップとを備える。そして、実センサー信号と仮想センサー信号との間のセンサー誤差が所定条件を満たすように収束するまで、反復的に、シミュレーションおよび仮想センサー信号の生成、並びにシミュレーション条件の更新を行う。
本発明に係るデバイス制御プログラムは、コンピューターを、上述のコントローラーとして動作させる。
本発明によれば、被制御デバイスが適切に制御される制御システムなどが得られる。
本発明の上記又は他の目的、特徴および優位性は、添付の図面とともに以下の詳細な説明から更に明らかになる。
図1は、本発明の実施の形態1に係るデバイス制御システムの構成を示す図である。 図2は、図1における被制御デバイス1およびコントローラー2の電気的構成を示すブロック図である。 図3は、図2におけるコントローラー2において実現される処理部の構成を示すブロック図である。 図4は、実施の形態1に係るデバイス制御システムの動作について説明するフローチャートである。 図5は、本発明の実施の形態2に係るデバイス制御システムの構成を示す図である。 図6は、実施の形態2に係るデバイス制御システムの動作について説明するフローチャートである。 図7は、本発明の実施の形態3に係るデバイス制御システムにおける被制御デバイス1を示す斜視図である。 図8は、本発明の実施の形態3に係るデバイス制御システムにおけるシミュレーションについて説明する図である。 図9は、実施の形態3における環境領域ENVの別の例について示す斜視図である。 図10は、本発明の実施の形態4に係るデバイス制御システムにおける被制御デバイス1を示す斜視図である。 図11は、本発明の実施の形態4に係るデバイス制御システムにおけるシミュレーションの一例について説明する図である。 図12は、本発明の実施の形態4に係るデバイス制御システムにおけるシミュレーションの別の例について説明する図である。 図13は、本発明の実施の形態5に係るデバイス制御システムにおける被制御デバイス1を示す斜視図である。 図14は、本発明の実施の形態5に係るデバイス制御システムにおけるシミュレーションについて説明する図である。 図15は、本発明の実施の形態6に係るデバイス制御システムにおける被制御デバイス1を示す斜視図である。 図16は、本発明の実施の形態6に係るデバイス制御システムにおけるシミュレーションについて説明する図である。 図17は、本発明の実施の形態6に係るデバイス制御システムにおける、他の自律動作物体のシミュレーションについて説明する図である。
以下、図に基づいて本発明の実施の形態を説明する。
実施の形態1.
図1は、本発明の実施の形態1に係るデバイス制御システムの構成を示す図である。図1に示すデバイス制御システムは、被制御デバイス1およびコントローラー2を備える。
被制御デバイス1は、各種動作を行う動作部1aを備え、(a)環境領域ENV内に固定され電気的な制御に従って動作部1aを駆動する物体(少なくとも一部の構造が可動な運動体、電気設備を制御するシステムなど)、あるいは、(b)環境領域ENV内を移動し電気的な制御に従って動作部1aを駆動する物体(つまり、移動体)である。
なお、環境領域ENVは、被制御デバイス1が存在する空間であり、ここでは、サイズや形状を予め設定される。環境領域ENVは、静止していてもよいし、移動してもよい。例えば、被制御デバイス1が移動体である場合、環境領域ENVを、被制御デバイス1の移動に従って移動させるようにしてもよいし、被制御デバイス1の移動に拘わらず静止させるようにしてもよい。
また、図1では、便宜上、被制御デバイス1、環境領域ENVなどを立方体で表現しているが、それらの形状やサイズは特に限定されるものではない。例えば、環境領域ENVを、所定のカメラの視野に含まれる領域の一部(例えばカメラから所定の距離範囲内の部分)としてもよい。
さらに、図1に示すデバイス制御システムは、被制御デバイス1に設置されたセンサー部11、および環境領域ENV内(被制御デバイス1外)に設置されたセンサー部31を備える。センサー部11,31は、1または複数のセンサー、信号処理回路、通信回路などを備え、センサーで特定物理量(被制御デバイス1の制御に直接的または間接的に使用可能な物理量)を測定し、測定した物理量に対応する実センサー信号を信号処理回路、通信回路などで出力する。
そして、コントローラー2は、センサー部11,31の実センサー信号に基づいて被制御デバイス1を制御する電子デバイスである。コントローラー2は、被制御デバイス1の外部に設置されていてもよいし、被制御デバイス1の内部に設置されていてもよい。なお、コントローラー2が被制御デバイス1の外部に設置される場合、コントローラー2と被制御デバイス1との間で無線または有線のデータ通信が可能なように、所定通信規格のデータ通信回路がコントローラー2および被制御デバイス1にそれぞれ設けられる。
図2は、図1における被制御デバイス1およびコントローラー2の電気的構成を示すブロック図である。
図2において、被制御デバイス1は、上述の動作部1a、上述のセンサー部11、および制御部12を備える。
動作部1aは、(a)電力で機械的な運動を行う内部デバイス(例えばモーター、アクチュエーターなど)、(b)環境領域ENVに対して光、音、熱などを発する、機械的な運動を伴わず電気的な動作を行い環境領域ENVに対して作用する内部デバイス(例えば照明、熱源、音響出力装置など)などである。制御部12は、コントローラー2からの制御信号に従って動作部1aを電気的に制御する電子回路である。
なお、センサー部11は、図2に示すようにコントローラー2に対して直接的に実センサー信号をコントローラー2へ送信するようにしてもよいし、制御部12が、センサー部11から実センサー信号を受信しコントローラー2へ送信するようにしてもよい。
また、図2において、コントローラー2は、演算処理装置21、記憶装置22、およびインターフェイス部23を備える。
演算処理装置21は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などを備えるコンピューターであり、ROM、記憶装置22などからプログラムを読み出してRAMにロードし、CPUで実行することで、各種処理部として動作する。演算処理装置21は、後述のシミュレーションの演算処理を高速に実行するための、専用アクセラレーターチップ、GPU(Graphics Processing Unit)などの専用演算回路を備えていてもよい。
記憶装置22は、フラッシュメモリー、ハードディスクドライブなどといった不揮発性の記憶装置であって、後述の処理に必要なデータやプログラムを格納している。記憶装置には、デバイス制御プログラム22aが記憶されている。なお、デバイス制御プログラム22aは、可搬性のあるコンピューター読取可能な記録媒体(コンパクトディスクなど)に格納され、その記録媒体から記憶装置22にインストールされるようにしてもよい。
インターフェイス部23は、被制御デバイス1(具体的には、センサー部11、制御部12など)やセンサー部31との接続(つまり、実センサー信号、制御信号などの送受)を行う電子回路である。コントローラー2が被制御デバイス1の外部に配置される場合には、インターフェイス部23には、上述のデータ通信回路(周辺機器インターフェイス、ネットワークインターフェイスなど)が含まれる。なお、外部のセンサー部31が設けられている場合には、インターフェイス部23は、そのようなデータ通信回路で実センサー信号のための無線または有線のデータ通信を行う。また、コントローラー2が被制御デバイス1に内蔵される場合には、インターフェイス部23は、例えば、コントローラー2のI/O(Input/Output)回路を備える。
図3は、図2におけるコントローラー2において実現される処理部の構成を示すブロック図である。コントローラー2では、演算処理装置21は、デバイス制御ブログラムを実行することで、シミュレーション条件初期設定部41、シミュレーション条件更新部42、シミュレーター43、制御信号生成部44、および制御部45として動作する。
シミュレーション条件初期設定部41は、実センサー信号から、シミュレーション条件(後述の未知部分)の初期値を導出する。
例えば、シミュレーション条件初期設定部41は、機械学習済みのディープニューラルネットワーク(以下、DNNという)を備え、その機械学習済みDNNで、複数の実センサー信号の値に対応する、シミュレーション条件(未知部分)としての1または複数の状態情報の初期値を導出する。つまり、実センサー信号の値が機械学習済みDNNの入力値とされ、機械学習済みDNNの演算処理が実行されることで、シミュレーション条件の初期値が得られる。
なお、シミュレーション条件初期設定部41におけるDNNの機械学習については、複数の学習データで実行され、各学習データは、実験で予め、実際の実センサー信号の値と、シミュレーション条件の測定値(あるいは所定のモデルなどで得られる値)との組み合わせとして得られる。
また、例えば、時系列における各タイムステップにおいて、制御信号の生成のために、反復的にシミュレーションが行われる場合、あるタイムステップでのシミュレーション条件(未知部分)の初期値は、直近の過去の1または複数のタイムステップのシミュレーション条件(未知部分)の確定値から推定される値などとしてもよい。
シミュレーション条件更新部42は、実センサー信号と対応する仮想センサー信号(後述)とに基づいてシミュレーター43のシミュレーション条件を更新する。
なお、図3に示すように、シミュレーション条件は、シミュレーションの演算処理に要求される拘束条件値であって、(a)予め固定的に設定されているもの、センサー部11,31で直接的に検知されるものなどといった既知の条件(以下、既知部分という)と、(b)既知の条件以外である未知の条件(以下、未知部分という)とを含む。
シミュレーション条件更新部42は、シミュレーション条件の未知部分を更新し、シミュレーション条件の既知部分を更新しない。
この実施の形態では、シミュレーション条件更新部42は、センサー誤差演算部42aを備え、実センサー信号と対応する仮想センサー信号(後述)との間のセンサー誤差に基づいてシミュレーター43のシミュレーション条件を設定して更新する。センサー誤差演算部42aは、センサー部11,31の実センサー信号と、対応する仮想センサー信号(後述)との誤差をセンサー誤差として演算する。なお、センサー部11,31におけるセンサーの数は、特に限定されず、したがって、実センサー信号の数は、センサー部11,31におけるセンサーの数と同一であり、1または複数である。
例えば、シミュレーション条件更新部42は、機械学習済みのDNNを備え、その機械学習済みDNNで、複数の実センサー信号についてのセンサー誤差の値に対応する、シミュレーション条件(未知部分)(あるいはその修正量)を導出する。つまり、センサー誤差の値が機械学習済みDNNの入力値とされ、機械学習済みDNNの演算処理が実行されることで、シミュレーション条件の値が得られる。また、例えば、その機械学習済みのDNNの入力として、センサー誤差の代わりに実センサー信号および仮想センサー信号を使用し、シミュレーション条件の値を得るようにしてもよい。なお、このとき、機械学習済みDNNの入力として、現時点(つまり、更新前の)のシミュレーション条件の値を追加してもよい。
シミュレーション条件更新部42におけるDNNの機械学習は、複数の学習データで実行される。DNNの入力としてセンサー誤差を使用する場合には、各学習データは、実験で予め、実際の実センサー信号の値を使用して、実センサー信号の値に対応する任意の誤差(つまり、任意の仮想センサー信号の値に対する誤差)と、その仮想センサー信号の値に対応するシミュレーション条件の値(あるいはその修正量)との組み合わせとして得られる。また、DNNの入力として実センサー信号および仮想センサー信号を使用する場合には、各学習データは、実験で予め、実際の実センサー信号の値を使用して、実センサー信号の値に対して任意の誤差を与えた値を仮想センサー信号の値とし、その仮想センサー信号の値に対応するシミュレーション条件の値(あるいはその修正量)を特定し、その実センサー信号の値および仮想センサー信号の値とそのシミュレーション条件の値との組み合わせとして得られる。
シミュレーター43は、(a)被制御デバイス1および環境領域ENVの少なくとも一方の特定の状態情報をシミュレーション条件として、環境領域ENV内の特定事象のシミュレーション(物理シミュレーションなど)を行いシミュレーション結果を導出し、(b)そのシミュレーション結果から、特定物理量を仮想的に測定して実センサー信号に対応する仮想センサー信号を生成する。つまり、センサー部11,31の各センサーの配置や仕様をシミュレートした仮想センサーで、そのシミュレーションの結果として得られる事象を測定した場合に得られる値が仮想センサー信号とされる。
なお、シミュレーション条件に使用される特定の状態情報は、連続値の変数であってもよいし、クラス(分類)などといった離散値の変数であってもよい。
制御信号生成部44は、上述のシミュレーション条件(つまり、上述の既知部分と未知部分。未知部分については、反復計算で得られる上述の特定の状態情報の確定値)から、被制御デバイス1の制御信号を生成する。
例えば、制御信号生成部44は、所定の計算モデルやエキスパートシステム(ルールベースまたは知識ベースに基づく推論エンジンにより適切な解を推定するシステム)などで、そのシミュレーション条件としての特定状態情報の値から被制御デバイス1の制御信号を生成する。
制御部45は、実センサー信号の取得、上述のシミュレーションの実行、制御信号の出力などを制御する。また、制御部45は、上述のようにセンサー誤差が収束するまで、反復的に、(a)シミュレーター43に、シミュレーションおよび仮想センサー信号の生成を実行させ、(b)シミュレーション条件更新部42に、シミュレーション条件の更新を実行させる。
次に、実施の形態1に係るデバイス制御システムの動作について説明する。図4は、実施の形態1に係るデバイス制御システムの動作について説明するフローチャートである。
図示せぬユーザーインターフェイスを介して入力される所定のユーザー操作に従って、制御部45は、当該デバイス制御システムの動作を開始させ、シミュレーター43に、シミュレーション条件の既知部分を設定する。なお、この既知部分は、センサー部11,31の実センサー信号から得られるデータ、記憶装置22などに予め格納され準備されているデータなどである。
制御部45は、まず、センサー部11,31からある時点の実センサー信号を取得し(ステップS1)、シミュレーション条件初期設定部41は、取得した実センサー信号に基づき、シミュレーション条件の初期値を特定しシミュレーター43に設定する(ステップS2)。そして、シミュレーター43は、シミュレーション条件(未知部分)の初期値とシミュレーション条件(既知部分)に基づいて、所定のシミュレーションの演算処理を実行し、仮想センサー信号の初期値を導出する。
次に、センサー誤差演算部42aは、取得された実センサー信号と、現時点の仮想センサー信号との差をセンサー誤差として演算する(ステップS3)。
そして、制御部45は、そのセンサー誤差が所定の判定条件を満たすか否かを判定し(ステップS4)、そのセンサー誤差が所定の判定条件を満たす場合には、シミュレーション条件の反復的な更新を終了し、そうではない場合には、以下のように、シミュレーション条件の更新を行わせる。例えば、その判定条件は、すべての実センサー信号についての誤差の2乗の総和や平均が所定閾値未満となることとされる。つまり、シミュレーション条件が適切なものになり、仮想センサー信号が実センサー信号に十分近づけば、シミュレーション条件の反復的な更新が終了する。
センサー誤差が上述の収束条件を満たさない場合、シミュレーション条件設定部42は、すべての実センサー信号のセンサー誤差を入力として、DNNで、シミュレーション条件の各値の修正量(あるいは更新後の値)を計算し、その計算結果に従って、シミュレーション条件(未知部分)を更新する(ステップS5)。
そして、シミュレーター43は、シミュレーション条件が更新されるたびに、上述のシミュレーションの演算処理を実行し(ステップS6)、シミュレーション結果に基づいて仮想センサー信号を新たに生成する(ステップS7)。
その後、ステップS3に戻り、センサー誤差演算部41は、新たに生成された仮想センサー信号と取得済みの実センサー信号とのセンサー誤差を生成する。その後、上述したように、センサー誤差が上述の判定条件を満たすまで、反復的に、シミュレーション条件の更新、シミュレーション、仮想センサー信号の生成、およびセンサー誤差の演算が実行される(ステップS3〜S7)。
一方、センサー誤差が上述の判定条件を満たす場合、制御部45は、その時点でシミュレーション条件の値を確定し、制御信号生成部44は、確定されたシミュレーション条件および確定されたシミュレーション条件に対応するシミュレーション結果の少なくとも一方に基づいて制御信号を生成し、被制御デバイス1に出力する(ステップS8)。
例えば、被制御デバイス1が、機械的な動作を行う運動体である場合、後述のように、制御信号生成部44は、上述のシミュレーション条件およびシミュレーション結果の少なくとも一方に基づいて、その運動体の姿勢制御、その運動体の経路探索などを行う。
例えば、被制御デバイス1が、運動体としての、有人または無人の飛行体(ドローン、ヘリコプター、飛行機、エアロカーなど)、面上移動体(地表面上の自動車、海面上の船舶など)などといった移動体である場合、制御信号生成部44は、上述のシミュレーション条件およびシミュレーション結果の少なくとも一方に基づいて、(a)その移動体の経路探索を行い、経路探索により得られた経路に対応する制御信号を生成し被制御デバイス1に出力したり、(b)制御信号でその移動体の姿勢制御を行ったりする。
例えば、被制御デバイス1が、運動体としての、作業ロボットである場合、制御信号生成部44は、上述のシミュレーション条件およびシミュレーション結果の少なくとも一方に基づいて、(a)その作業ロボットの可動部位の移動経路の探索を行い、経路探索により得られた経路に対応する制御信号を生成し被制御デバイス1に出力したり、(b)制御信号でその作業ロボットの姿勢制御を行ったりする。
その後、制御部45は、図示せぬユーザーインターフェイスに対するユーザー操作に従って被制御デバイス1の動作の制御を終了するか否かを判定し(ステップS9)、制御を終了すると判定した場合には、被制御デバイス1の制御を終了し、制御を終了しないと判定した場合には、ステップS1に戻り、次の時点(次のタイムステップ)の実センサー信号を取得し、その実センサー信号に対して、ステップS2以降の同様の処理を実行させ、その実センサー信号に対応する制御信号を生成する。
このようにして、センサー誤差演算部41、シミュレーション条件設定部42、およびシミュレーター43は、ある1時点での実センサー信号に対して、センサー誤差が、所定判定条件が成立して収束するまで、反復的に、上述のシミュレーション条件の更新などを実行し、センサー誤差が収束するとシミュレーション条件の値が確定され、確定されたシミュレーション条件の値に基づいて制御信号が生成される。
以上のように、上記実施の形態1によれば、センサー部11,31は、環境領域ENVまたは被制御デバイス1に設置され特定物理量を測定し測定した物理量に対応する実センサー信号を出力する。コントローラー2は、その実センサー信号に基づいて被制御デバイス1を制御する。そして、コントローラー2は、(a)被制御デバイス1および環境領域ENVの少なくとも一方の特定の状態情報をシミュレーション条件として環境領域ENV内の特定事象のシミュレーションを行いシミュレーション結果を導出し、そのシミュレーション結果から、特定物理量を仮想的に測定して実センサー信号に対応する仮想センサー信号を生成するシミュレーター43と、(b)実センサー信号と仮想センサー信号とに基づいてシミュレーション条件を更新するシミュレーション条件更新部42と、(c)シミュレーション条件およびシミュレーション結果に基づいて被制御デバイス1の制御信号を生成する制御信号生成部44とを備える。そして、実センサー信号と仮想センサー信号との間のセンサー誤差が収束するまで、反復的に、(a)シミュレーター43は、シミュレーションおよび仮想センサー信号の生成を行い、(b)シミュレーション条件設定部42は、シミュレーション条件の更新を行う。
これにより、上述のシミュレーションによるフィードバックループで実世界とシミュレーション結果とが十分近づいた状態でのシミュレーション条件の確定値が得られ、シミュレーション条件の確定値として得られる状態情報に基づいて、被制御デバイス1が適切に制御される。
実施の形態2.
図5は、本発明の実施の形態2に係るデバイス制御システムの構成を示す図である。図5に示すように、実施の形態2に係るデバイス制御システムでは、環境領域ENV内に、被制御デバイス1の他に別の自律動作物体61(つまり、コントローラー2の制御下になく自律的に動作する物体)が存在する場合、当該別の自律動作物体61の意図推論が実行され、その意図推論の結果を考慮して、被制御デバイス1の制御信号が生成される。
つまり、制御信号生成部44は、所定の制御モデル(上述の計算モデルやエキスパートシステムなど)に従ってシミュレーション条件から制御信号を生成して被制御デバイスの動作を決定するが、その際、実施の形態2では、制御信号生成部44は、(a)環境領域ENV内に他の自律動作物体61が存在する場合には、当該制御モデルと同一の制御モデルで自律動作物体61が自己の動作を決定していると仮定して、自律動作物体61の動作を推定し、(b)推定した自律動作物体61の動作を考慮して、被制御デバイス1のための制御信号を生成する。
具体的には、制御信号生成部44は、(a)実センサー部11,31の実センサー信号、確定されたシミュレーション条件、対応するシミュレーション結果などから、自律動作物体61の状態情報の値(上述のシミュレーション条件に相当)を推定し、(b)推定した状態情報の値からその制御モデルで自律動作物体61の動作を予測し、(c)予測した他の自律動作物体61の動作を考慮して、他の自律動作物体61の動作とコンフリクト(物理的な衝突など)しないような被制御デバイス1の動作となるように制御信号を生成する。
その際、自律動作物体61が、当該被制御デバイス1と同種の物体である場合、制御信号生成部44は、その自律動作物体61の状態情報を上述のシミュレーション条件として、シミュレーター43に、当該被制御デバイス1と同様のシミュレーションを実行させてシミュレーション結果を導出し、そのシミュレーション条件およびシミュレーション結果の少なくとも一方に基づいて、上述の制御モデルで自律動作物体61の動作を予測するようにしてもよい。
なお、自律動作物体61が、当該被制御デバイス1と異種の物体である場合、制御信号生成部44は、その自律動作物体61の種別に応じた状態情報の値を、実センサー信号、確定されたシミュレーション条件、対応するシミュレーション結果などから推定し、その自律動作物体61の状態情報を上述のシミュレーション条件として、シミュレーター43に、その自律動作物体61の種別に応じたシミュレーションを実行させてシミュレーション結果を導出し、そのシミュレーション条件およびシミュレーション結果の少なくとも一方に基づいて、上述の制御モデルで自律動作物体61の動作を予測するようにしてもよい。
次に、実施の形態2に係るデバイス制御システムの動作について説明する。図6は、実施の形態2に係るデバイス制御システムの動作について説明するフローチャートである。
実施の形態2では、制御信号生成部44は、図6に示す処理を実行して被制御デバイス1のための制御信号を生成する。
実施の形態2では、実施の形態1と同様にしてシミュレーション条件が確定された後、制御信号生成部44は、環境領域ENV内に他の自律動作物体61が存在するか否かを判定する(ステップS21)。
例えば、制御信号生成部44は、実センサー信号(例えば、センサー部11,31におけるカメラにより得られる可視撮影画像信号)に基づいて、環境領域ENV内に他の自律動作物体61が存在するか否かを判定する。なお、その際、制御信号生成部44は、自律動作物体61の種別を併せて特定するようにしてもよい。
環境領域ENV内に他の自律動作物体61が存在すると判定した場合、制御信号生成部44は、センサー部11,31の実センサー信号、上述のシミュレーション条件、上述のシミュレーション結果などに基づいて、その自律動作物体61の状態情報を推定する(ステップS22)。
そして、制御信号生成部44は、推定された状態情報をシミュレーション条件としてシミュレーションをシミュレーター43に実行させ(ステップS23)、自律動作物体61のためのシミュレーション条件およびシミュレーション結果の少なくとも一方に基づいて、自律動作物体61の動作を推定し(ステップS24)、推定した自律動作物体61の動作を考慮して、被制御デバイス1のための制御信号を生成する(ステップS25)。
一方、環境領域ENV内に他の自律動作物体61が存在しないと判定した場合、制御信号生成部44は、実施の形態1と同様にして制御信号を生成する(ステップS26)。
なお、実施の形態2に係るデバイス制御システムのその他の構成および動作については実施の形態1と同様であるので、その説明を省略する。
以上のように、上記実施の形態2によれば、制御信号生成部44は、(a)環境領域ENV内に他の自律動作物体61が存在する場合、被制御デバイス1のための制御モデルと同一の制御モデルで他の自律動作物体61が他の自律動作物体61の動作を決定していると仮定して、他の自律動作物体61の動作を推定し、(b)推定した他の自律動作物体61の動作を考慮して、被制御デバイス1のための制御信号を生成する。
これにより、他の自律動作物体61の動作を考慮して、被制御デバイス1が適切に制御される。
実施の形態3.
実施の形態3に係るデバイス制御システムは、実施の形態1または2に係るデバイス制御システムの一具体例である。図7は、本発明の実施の形態3に係るデバイス制御システムにおける被制御デバイス1を示す斜視図である。実施の形態3では、被制御デバイス1は、飛行機、ヘリコプター、ドローン、エアロカーなどといった飛行体101である。なお、この飛行体101は、有人飛行体および無人飛行体のいずれでもよい。また、この飛行体101は、自動運転される飛行体でも、操縦士(運転者)の手動運転も許可する半自動運転の飛行体でもよい。
実施の形態3において、センサー部11,31は、(a)風速計および風圧計、並びに(b)CCD(Charge-Coupled Device)、CMOSイメージセンサーなどといったイメージングセンサーを有するカメラのうちの少なくとも一方を含む。このカメラは、環境領域ENVの一部(例えば、飛行体101の進行方向部分)または全部を撮影する。具体的には、実施の形態3においては、センサー部11は、(a)飛行体101の機体に設置された機載風速計および機載風圧計、(b)イメージングセンサーを有するカメラ、(c)飛行体101の進行方向の所定視野の距離画像を生成するLiDARまたはRADARセンサー、(d)飛行体101の現在位置を検出する位置検出センサー(例えばGPS(Global Positioning System)センサー)、(e)ローター回転計、および(f)飛行体101の現在の向きを検出するジャイロセンサーを含み、外部のセンサー部31は、構造物121などに設置された風速計および風圧計を含む。なお、機載風速計としてしては、例えばホットフィルム風速計が使用される。
図8は、本発明の実施の形態3に係るデバイス制御システムにおけるシミュレーションについて説明する図である。
実施の形態3では、シミュレーター43は、環境領域ENV内の流体シミュレーションを実行する。その際、環境領域ENV内の流体を空気としナビエ・ストークス方程式を支配方程式とした有限要素法、境界要素法、差分法など、あるいは粒子法などで流体数値解析が実行され、これにより、例えば図8に示すように設定されたシミュレーション条件(環境領域ENVの境界条件など)に対応する環境領域ENV内の風速分布および風圧分布が得られる。その際、ローターの回転に起因する飛行体101(あるいは飛行体101のローター)周辺の所定局所領域における空気の流れも併せて解析され、ローターの回転を考慮した環境領域ENV内(特に飛行体101近傍)の風速分布および風圧分布が得られる。
なお、上述の有限要素法などの場合、環境領域ENVがメッシュで分割され、離散的に、風速分布および風圧分布が計算される。その際、環境領域ENVの所定局所領域以外の領域のメッシュを、所定局所領域のメッシュより粗くするようにしてもよい。例えば、所定局所領域と環境領域ENV全域のメッシュとを合成して、部分的に粗さの異なるメッシュを形成し、そのようなメッシュを使用して上述の流体数値解析を行うようにしてもよい。
実施の形態3では、シミュレーション条件の既知部分は、予め用意されているデータやセンサーで直接的に測定されたデータであり、ここでは、環境領域ENVの3次元マップ(環境領域ENVおよび環境領域ENV内の構造物121の形状データ)、飛行体101の仕様データ(飛行体101の形状や推進力の強度など)、(飛行体101がローターを有する場合の)機体ローター状態情報(単位時間たりの回転数など)、機体姿勢状態データ(機首の向き、ピッチ、ヨーなど)、機体位置データなどを含み、シミュレーション条件の未知部分は、動的に変化し、センサーで直接的に測定されないデータであり、ここでは、環境領域ENVの境界条件(境界上の各位置での風速および風圧)を含む。
なお、この境界条件については、自由度を減らすために、環境領域ENVの外縁の境界面において、各面内での境界条件(風速および風圧)は一定であるとしてもよい。その場合、自由度が、境界面の数と風速、風圧などの境界条件での物理量の数との積となる。
また、流体の時間的変化を考慮する場合、例えば、シミュレーション条件の既知部分に、1タイムステップ前について得られたシミュレーション結果(環境領域ENV内の風速分布および風圧分布)が含められ、その環境領域ENV内の風速分布および風圧分布に基づいて、現タイムステップの流体シミュレーションが行われる。
なお、1タイムステップ前についてのシミュレーション結果が存在しない場合、例えば、設定された境界条件に基づいて、環境領域ENV内の風速分布および風圧分布が安定状態になるまで、時系列に沿って、流体シミュレーションを進行させ、安定状態に到達している環境領域ENV内の風速分布および風圧分布が、上述の1タイムステップ前について得られたシミュレーション結果(環境領域ENV内の風速分布および風圧分布)として使用される。
また、実施の形態3では、センサー部11の機載風速計および機載風圧計、カメラ、LiDAR(Laser Imaging Detection and Ranging)またはRADARセンサー、並びにセンサー部31の機外風速計および機外風圧計に対応して、仮想センサー信号として、仮想機載風速計信号、仮想機載風圧計信号、仮想可視撮影画像信号、仮想距離画像信号、仮想機外風速計信号、および仮想機外風圧計信号が生成される。
仮想機載風速計信号および仮想機載風圧計信号、並びに仮想機外風速計信号および仮想機外風圧計信号は、センサー部11,31(機載風速計および機載風圧計、並びに機外風速計および機外風圧計)の仕様に対応して、シミュレーション結果の風速分布および風圧分布から導出される。仮想可視撮影画像信号は、例えば、カメラの仕様(焦点距離など)に基づき、カメラ(つまり飛行体101)の現在位置および向きからカメラ視野を特定し、カメラ視野に写り込む構造物121などの画像を3次元マップデータに基づいて特定することで得られる。仮想距離画像信号は、例えば、LiDARセンサーまたはRADARセンサー(つまり飛行体101)の現在位置および向きからセンサー視野内の物体までの距離を、その現在位置および3次元マップデータで特定することで得られる。なお、実センサー信号および仮想センサー信号としての画像信号については、画像解像度を低下させたり、各種画像処理を施されたりするようにしてもよい(以下、同様)。
なお、ある測定位置での風速および風圧と境界条件との間には、ある程度の関連性があると推定されるため、上述のシミュレーション条件更新部42の機械学習済みDNNによって、測定位置での風速および風圧のセンサー誤差に基づき、シミュレーション条件としての境界条件が修正されていくことが期待される。
また、上昇気流や下降気流が発生する際に特有な雲の状態(雲の形状、色など)があるため、可視撮影画像における雲の状態と境界条件(そのような雲の存在する位置の境界条件)との間には、ある程度の関連性があると推定される。したがって、上述のシミュレーション条件更新部42の機械学習済みDNNによって、測定位置での可視撮影画像のセンサー誤差に基づき、シミュレーション条件としての境界条件が修正されていくことが期待される。
次に、実施の形態3に係るデバイス制御システムの動作について説明する。
実施の形態3では、コントローラー2は、上述のセンサー部11,31から実センサー信号を取得し、センサー誤差が収束するまで、反復的に、シミュレーション条件(未知部分)の更新、流体シミュレーション、仮想センサー信号の生成、およびセンサー誤差の演算を実行し、シミュレーション条件の値を確定する。
そして、シミュレーション条件の値の確定後、コントローラー2は、確定したシミュレーション条件の値に対応する制御信号を生成し、飛行体101に出力する。
例えば、コントローラー2は、確定したシミュレーション条件のうちの境界条件データおよびシミュレーション結果の風速分布および風圧分布に基づき、経路探索を実行することで適切な経路を特定し、その経路に沿って飛行するための制御信号を生成し飛行体101に供給したりする。
なお、経路探索では、例えば、境界条件データおよびシミュレーション結果に基づいて、構造物121および大気状態の悪い箇所(渦が発生している箇所、上昇気流や下降気流がある箇所)を避けるように、経路が選択される。
ここで、実施の形態2で示した他の自律動作物体61が環境領域ENV内に存在する場合について説明する。その場合、実施の形態2で述べたように制御信号生成部44は、自律動作物体61の意図推論を行い、その結果を考慮して、飛行体101の動作を制御する。
具体的には、例えば図7に示すように、他の自律動作物体61として飛行体161が環境領域ENV内に存在する場合、コントローラー2は、上述のカメラの可視撮影画像信号に基づいて、環境領域ENV内の飛行体161を検出する。そして、飛行体161が飛行体101と同種である場合(例えば、両者ともにドローンである場合)、コントローラー2の制御信号生成部44は、確定されたシミュレーション条件としての境界条件を、その自律動作物体61についてのシミュレーション条件に設定し、実施の形態2で述べたように、自律動作物体61についての流体シミュレーション(特に、自律動作物体61周辺の局所的な領域での流体シミュレーション)をシミュレーター43に実行させる。
そして、制御信号生成部44は、その流体シミュレーションの結果に基づいて、その飛行体161の動作(つまり、今後の飛行経路)を推定し、推定した飛行体161の飛行経路を考慮して、(例えば両者が衝突しないように)飛行体101の経路を設定し、その経路を飛行するための制御信号を生成する。
図9は、実施の形態3における環境領域ENVの別の例について示す斜視図である。また、制御信号生成部44は、飛行体101の姿勢制御のための制御信号を生成する場合、9に示すように、その飛行体101の推進装置(プロペラなど)によって発生する気流の影響が及ぶ領域を、環境領域ENVに設定し、その飛行体101の比較的近傍の境界面における境界条件をシミュレーション条件として、流体シミュレーションを実行し、境界面の風(つまり、飛行体101で発する気流の影響を受けない環境風)を特定し、その環境風の風速、風圧などに対応した制御信号を生成し姿勢制御を行うようにしてもよい。
なお、実施の形態3に係るデバイス制御システムのその他の構成および動作については実施の形態1または2と同様であるので、その説明を省略する。
また、上述の機体位置データのうち、鉛直方向の位置(つまり、高さ)について、センサー部11の位置検出精度が低い場合には、機体位置データのうちの水平位置(緯度経度)をシミュレーション条件の既知部分とし、高さをシミュレーション条件の未知部分としてもよい。
以上のように、上記実施の形態3によれば、シミュレーション条件の確定値やそのシミュレーション条件の確定値に対応するシミュレーション結果に基づいて、飛行体101が適切に制御される。
実施の形態4.
実施の形態4に係るデバイス制御システムは、実施の形態1または2に係るデバイス制御システムの一具体例である。図10は、本発明の実施の形態4に係るデバイス制御システムにおける被制御デバイス1を示す斜視図である。実施の形態4では、被制御デバイス1は、地表面または水面上を移動する自動車、オートバイ、船舶などといった面上移動体201であり、その面に沿って2次元的に移動する。なお、図10に例示している面上移動体201は、自動車である。なお、地表面は3次元空間内の平面または曲面である。また、面上移動体201は、モーターの動力を推進力に使用していてもよいし、内燃機関の動力を推進力に使用していてもよい。
さらに、実施の形態4では、被制御デバイス1における制御部12は、既知の自動運転方式の自動運転機能を有する。自動運転機能では、周辺の環境状態(対向車の状態、接地状態など)に対応して、目標の経路を進行するように、動作部1a(モーターや内燃機関)が電子制御される。したがって、実施の形態4では、コントローラー2が、センサー部11,31を使用して、以下のようにして、自機の状態とともに周辺の環境状態を認識する。
実施の形態4において、センサー部11,31は、イメージングセンサーを有するカメラを含む。具体的には、実施の形態4においては、センサー部11は、実施の形態3と同様の、イメージングセンサーを有するカメラ、およびLiDARまたはRADARセンサーを含む。カメラは、可視撮影画像信号を出力する。LiDARまたはRADARセンサーは、距離画像信号を出力する。面上移動体201が自動車である場合、センサー部11は、GPSコンパスなどの車体向きセンサー、舵角センサー、車速ベクトル(車速の大きさと向き)を測定する車速センサー、ヨーレートセンサーを含んでいてもよい。また、センサー部11は、音響センサー(マイクロフォンなど)、位置検出センサー(例えばGPSセンサー)、ジャイロセンサーなどを含んでいてもよい。
(a)対向移動体の行動シミュレーション
図11は、本発明の実施の形態4に係るデバイス制御システムにおけるシミュレーションの一例について説明する図である。
実施の形態4では、シミュレーター43は、例えば、実センサー信号に基づく可視撮影画像および距離画像に基づいて、環境領域ENV内における対向移動体211(道路221上の対向車など)が検出されると、環境領域ENV内における対向移動体の行動シミュレーションを実行する。
この行動シミュレーションでは、例えば図11に示すシミュレーション条件が設定され、3次元マップデータ、例えば位置検出センサーによる機体位置データ、およびに可視撮影画像および距離画像から特定される相対距離データに基づいて、3次元マップ上での対向移動体211の存在位置が特定され、その位置の経路形状(例えば、直進路、カーブ、交差点などの道路形状)が特定され、そのような対向移動体211の状態で、ある行動目標(右折、左折、直進、発進、停止など)に対して、対向移動体211がどのような位置(経路内での位置)および姿勢(向き)を取るかが推定される。
また、実施の形態4では、センサー部11のカメラ、LiDARまたはRADARセンサーに対応して、仮想センサー信号として、仮想可視撮影画像信号、および仮想距離画像信号が生成される。仮想可視撮影画像信号は、例えば、カメラの仕様(焦点距離など)に基づき、カメラ(つまり面上移動体201)の現在位置および向きからカメラ視野を特定し、カメラ視野に写り込む対向移動体211、構造物、道路221などの画像を3次元マップデータおよびシミュレーション結果に基づいて特定することで得られる。仮想距離画像信号は、例えば、LiDARセンサーまたはRADARセンサー(つまり面上移動体201)の現在位置および向きからセンサー視野内の物体(対向移動体211、構造物など)までの距離を3次元マップデータで特定することで得られる。
そして、確定されたシミュレーション条件としての対向移動体動作目標データに基づいて、制御信号生成部44は、面上移動体201が対向移動体211に衝突しないようにするための、面上移動体201の制御信号を生成する。
(b)面上移動体201の車体状態シミュレーション
図12は、本発明の実施の形態4に係るデバイス制御システムにおけるシミュレーションの別の例について説明する図である。
実施の形態4では、面上移動体201が自動車であり、シミュレーター43は、面上移動体201の回頭時に、車体状態シミュレーションを実行する。
この車体状態シミュレーションでは、例えば図12に示すシミュレーション条件が設定され、車体仕様データ、タイヤ仕様データ、舵角センサーによる舵角データ、車速センサー、ジャイロなどによる車速ベクトルデータ、車体に設置されたGPSコンパスなどによる車体向きデータ、トルクセンサーなどによるトルクデータなどに基づいて、タイヤ接地面変形シミュレーションおよびモデル解析(車体モデルに基づくコーナリングフォース、ヨーレートなどの各種物理量の導出)が行われる。
また、実施の形態4では、センサー部11のヨーレートセンサーに対応して、仮想センサー信号として、仮想ヨーレート信号が設定される。
なお、この実施の形態4では、舵角センサー、車速ベクトルセンサー、車体向きセンサー、トルクセンサーなどの実センサー信号が、シミュレーション条件更新部42の入力(機械学習済みDNNの入力)として使用されるようにしてもよい。
そして、確定されたシミュレーション条件としての接地摩擦係数データに基づいて、制御信号生成部44は、面上移動体201が所望の挙動を示すように、面上移動体201の制御信号を生成する。
次に、実施の形態4に係るデバイス制御システムの動作について説明する。
実施の形態4では、コントローラー2は、上述のセンサー部11,31から実センサー信号を取得し、センサー誤差が収束するまで、反復的に、シミュレーション条件(未知部分)の更新、シミュレーション(上述の行動シミュレーションまたは車体状態シミュレーション)、仮想センサー信号の生成、およびセンサー誤差の演算を実行し、シミュレーション条件の値を確定する。
そして、シミュレーション条件の値の確定後、コントローラー2は、確定したシミュレーション条件の値に対応する制御信号を生成し、面上移動体201に出力する。
行動シミュレーションの場合、コントローラー2は、確定した対向移動体211の動作目標に基づき、対向移動体211の動作を妨げないように面上移動体201を制御するための制御信号を面上移動体201に出力し、面上移動体201の制御部12は、その制御信号に従って、目標の走行状態となるように動作部1aを制御する。
車体状態シミュレーションの場合、コントローラー2は、確定した接地摩擦係数に基づき、面上移動体201の挙動が不適切にならないように舵角、トルクなどを制御するための制御信号を生成し面上移動体201に出力し、面上移動体201の制御部12は、その制御信号に従って、目標の運転状態となるように動作部1aを制御する。
なお、実施の形態4に係るデバイス制御システムのその他の構成および動作については実施の形態1または2と同様であるので、その説明を省略する。
以上のように、上記実施の形態4によれば、シミュレーション条件の確定値として得られる状態情報に基づいて、面上移動体201が適切に制御される。
実施の形態5.
実施の形態5に係るデバイス制御システムは、実施の形態1または2に係るデバイス制御システムの一具体例である。図13は、本発明の実施の形態5に係るデバイス制御システムにおける被制御デバイス1を示す斜視図である。実施の形態5では、被制御デバイス1は、人型作業ロボット、人型介護支援ロボット、装着型作業ロボット、装着型介護支援ロボットなどといった作業ロボット301である。図13に例示している作業ロボット301は、人型介護支援ロボットである。
さらに、実施の形態5では、作業ロボット301は、環境領域ENV内の作業対象に対する特定作業を実行し、作業ロボット301における制御部12は、自動作業機能(あるいは自動作業支援機能)を有する。自動作業機能(あるいは自動作業支援機能)では、周辺の環境状態に対応して、目標の作業を実行するように、動作部1a(モーターやアクチュエータ)が電子制御される。したがって、周辺の環境状態を認識する必要があり、実施の形態5では、コントローラー2が、センサー部11,31を使用して、以下のようにして、周辺の環境状態を認識する。
実施の形態5において、センサー部11は、イメージングセンサーを有するカメラを含む。具体的には、実施の形態5においては、センサー部11は、実施の形態3または4と同様の、イメージングセンサーを有するカメラ、およびLiDARまたはRADARセンサーを含む。なお、センサー部11は、音響センサー(マイクロフォンなど)、機体姿勢状態センサー(ロボットの関節の角度センサーなど)、位置検出センサー(例えばGPSセンサー)、およびジャイロセンサーを含んでいてもよい。センサー部31は、例えば、介護対象のバイタルデータを計測するセンサーを含んでいてもよい。
図14は、本発明の実施の形態5に係るデバイス制御システムにおけるシミュレーションについて説明する図である。
実施の形態5では、シミュレーター43は、作業ロボット301の作業領域シミュレーションを実行する。作業領域シミュレーションでは、(a)作業対象認識データ(作業ロボット301(センサー部11)を原点としたローカル座標系における作業対象の位置および姿勢を示すデータ)がシミュレーション条件(未知部分)とされ、作業対象が存在する部屋やその部屋内の構造物などの3次元マップデータ(グローバル座標系で記述された形状データ)、作業ロボット301の機体形状、可動関節の位置などを示すロボット機体仕様データ、作業対象の形状やサイズなどを示す作業対象基本データ、作業ロボット301の向き、関節の角度状態などを示す機体姿勢状態データ、作業ロボット301の現在位置を示す機体位置データなどがシミュレーション条件(既知部分)とされ、(b)それらのシミュレーション条件に基づいて、所定の計算モデルに従って、グローバル座標系における作業ロボットの位置および姿勢が導出される。作業対象が人間(被介護者)である場合、作業対象の姿勢は、例えば多関節を有する人体骨格モデルで表現されるようにしてもよい。
なお、作業ロボット301の向きは、例えばジャイロセンサーで得られる。また、作業ロボット301の関節の角度状態は、例えば、角度センサーによって得られる。さらに、作業ロボット301の現在位置は、例えばGPSなどの位置検出センサーで得られる。
また、実施の形態5では、センサー部11のカメラ、およびLiDARまたはRADARセンサーに対応して、仮想センサー信号として、仮想可視撮影画像信号、および仮想距離画像信号が生成される。仮想可視撮影画像信号は、例えば、作業ロボット301のカメラの仕様(焦点距離など)に基づき、カメラの現在位置および向きからカメラ視野を特定し、カメラ視野に写り込む作業対象や構造物などの画像を3次元マップデータや作業対象基本データに基づいて特定することで得られる。仮想距離画像信号は、例えば、作業ロボット301のLiDARセンサーまたはRADARセンサーの現在位置および向きからセンサー視野内の物体までの距離を3次元マップデータで特定することで得られる。
次に、実施の形態5に係るデバイス制御システムの動作について説明する。
実施の形態5では、コントローラー2は、上述のセンサー部11,31から実センサー信号を取得し、センサー誤差が収束するまで、反復的に、シミュレーション条件(未知部分)の更新、作業領域シミュレーション、仮想センサー信号の生成、およびセンサー誤差の演算を実行し、シミュレーション条件の値を確定する。
そして、シミュレーション条件の値の確定後、コントローラー2は、確定したシミュレーション条件の値に対応する制御信号を生成し、作業ロボット301に出力する。
例えば、コントローラー2は、確定した作業対象認識データに基づいて、作業対象に対する特定作業のための動作パターン(作業ロボット301の移動、関節の動作など)を示す制御信号を作業ロボット301に出力し、作業ロボット301の制御部12は、その制御信号に従って、指定された動作パターン(例えば作業対象が被介護者である場合、抱きかかえの動作パターンなど、また、例えば作業対象が荷物である場合、持ち上げの動作パターンなど)で動作するように動作部1aを制御する。
ここで、実施の形態2で示した他の自律動作物体61が環境領域ENV内に存在する場合について説明する。その場合、実施の形態2で述べたように制御信号生成部44は、自律動作物体61の意図推論を行い、その結果を考慮して、作業ロボット301の動作を制御する。
具体的には、例えば図13に示すように、他の自律動作物体61として協働作業者361が環境領域ENV内に存在する場合、コントローラー2は、上述のカメラの可視撮影画像信号に基づいて、環境領域ENV内の協働作業者361を検出する。そして、コントローラー2の制御信号生成部44は、センサー部11,31の実センサー信号(可視撮影画像信号、距離画像信号など)、上述のシミュレーション結果、3次元マップデータなどの他の既知の条件などに基づいて、その協働作業者361についての作業対象認識データを推定する。
なお、協働作業者361は、人型ロボットでもよいし、装着型ロボットを装着した作業者(人間)でもよいし、装着型ロボットを装着してない作業者(人間)でもよいが、コントローラー2は、協働作業者361が当該作業ロボット61と同一の作業ロボットであると仮定して、動作の推定を行う。
そして、推定された作業対象認識データがシミュレーション条件とされて同様のシミュレーションが実行され、制御信号生成部44は、作業対象認識データおよびそのシミュレーション結果に基づいてその協働作業者361の動作を推定し、推定した協働作業者361の動作を考慮して(例えば、協働作業者361の動作を邪魔しないように)、作業ロボット301のための制御信号を生成する。
なお、実施の形態5に係るデバイス制御システムのその他の構成および動作については実施の形態1または2と同様であるので、その説明を省略する。
以上のように、上記実施の形態5によれば、シミュレーション条件の確定値として得られる状態情報に基づいて、作業ロボット301が適切に制御される。
実施の形態6.
実施の形態6に係るデバイス制御システムは、実施の形態1または2に係るデバイス制御システムの一具体例である。図15は、本発明の実施の形態6に係るデバイス制御システムにおける被制御デバイス1を示す斜視図である。実施の形態6では、被制御デバイス1は、スマートハウス、ホールなどに設けられた電気設備制御システム401である。
さらに、実施の形態6では、電気設備制御システム401は、環境領域ENV内に設置されている電気設備412を制御する。この電気設備412は、動作部1aに相当し、環境領域ENVに対して作用する照明機器、空調機器などといった装置である。
なお、実施の形態6では、例えば、動作部1aとしての電気設備412とは別に1つの筐体413が設けられ、その筐体413内に、制御部12およびコントローラー2が配置されるようにしてもよい。その場合、センサー部11は、その筐体413に配置されるセンサー部であって、センサー部31は、その筐体413から離間して環境領域ENV内に配置されるセンサー部である。
電気設備制御システム401は、自動制御機能を有し、周辺の環境状態に対応して、目標の状態になるように、動作部1a(電気設備412)を電子制御する。例えば、自動制御機能では、環境領域ENV内の温度分布に基づいて、目標温度分布に近づくように電気設備412(空調機器など)が自動的に制御され、環境領域ENV内の照度分布に基づいて、目標照度分布に近づくように電気設備412(照明機器など)が自動的に制御される。したがって、周辺の環境状態を認識する必要があり、実施の形態6では、コントローラー2が、以下のようにして、周辺の環境状態を認識する。
実施の形態6において、センサー部11,31は、温度センサーおよび照度センサーを含む。また、実施の形態6においては、センサー部11,31は、温度センサーおよび照度センサーの他に、イメージングセンサーを有するカメラ、音響センサー(マイクロフォンなど)などを含むようにしてもよい。このカメラは、環境領域ENVの一部または全部を撮影する。
図16は、本発明の実施の形態6に係るデバイス制御システムにおけるシミュレーションについて説明する図である。
実施の形態6では、シミュレーター43は、環境領域ENV内の熱流体シミュレーションおよび照度シミュレーションを実行し、環境領域ENV内の温度分布および照度分布を導出する。熱流体シミュレーションでは、環境領域ENVの境界条件(壁面や開口部での温度、風速など)がシミュレーション条件(未知部分)とされ、環境領域ENVの3次元マップデータ、電気設備412(空調機器および発熱する機器)の各設定(動作状態)での発熱量や風量(風速)を示す電気設備仕様データなどがシミュレーション条件(既知部分)とされ、既知の数値シミュレーション方法で、環境領域ENV内の温度分布および風速分布が導出される。照度シミュレーションでは、環境領域ENVの境界条件(窓や開口部での外界からの入射光量など)がシミュレーション条件(未知部分)とされ、環境領域ENVの3次元マップデータ、電気設備412(照明機器や発光する機器)の各設定(動作状態)での発光色および発光量を示す電気設備仕様データなどがシミュレーション条件(既知部分)とされ、既知の数値シミュレーション方法で、環境領域ENV内の照度分布が導出される。
また、実施の形態6では、センサー部11,31の温度センサーおよび照度センサーに対応して、仮想センサー信号として、仮想温度センサー信号および仮想照度センサー信号が生成される。仮想温度センサー信号は、例えば、熱流体シミュレーションの結果から得られる温度センサーの設置位置における温度から、温度センサーの仕様(温度に対する電気的特性など)に基づいて特定される。仮想照度センサー信号は、例えば、照度シミュレーションの結果から得られる照度センサーの設置位置における照度から、照度センサーの仕様(照度に対する電気的特性など)に基づいて特定される。
次に、実施の形態6に係るデバイス制御システムの動作について説明する。
実施の形態6では、コントローラー2は、上述のセンサー部11,31から実センサー信号を取得し、センサー誤差が収束するまで、反復的に、シミュレーション条件(未知部分)の更新、熱流体シミュレーションおよび照度シミュレーション、仮想センサー信号の生成、並びにセンサー誤差の演算を実行し、シミュレーション条件の値を確定する。
そして、シミュレーション条件の値の確定後、コントローラー2は、確定したシミュレーション条件およびシミュレーション結果に対応する制御信号を生成し、電気設備制御システム401に出力する。
例えば、コントローラー2は、確定した環境領域ENVの境界条件に基づいて、環境領域ENV内の温度分布および照度分布を目標に近づけるように各電気設備412の設定を特定し、特定した設定を示す制御信号を電気設備制御システム401に出力する。電気設備制御システム401の制御部12は、その制御信号に従って、指定された設定を各電気設備412に適用する。
ここで、実施の形態2で示した他の自律動作物体61が環境領域ENV内に存在する場合について説明する。その場合、実施の形態2で述べたように制御信号生成部44は、自律動作物体61の意図推論を行い、その結果を考慮して、電気設備制御システム401の動作を制御する。
具体的には、例えば図15に示すように、他の自律動作物体61として人物461が環境領域ENV内に存在する場合、コントローラー2は、上述のカメラの可視撮影画像信号に基づいて、環境領域ENV内の人物461を検出する。
図17は、本発明の実施の形態6に係るデバイス制御システムにおける、他の自律動作物体のシミュレーションについて説明する図である。この場合、自律動作物体は、人であるので、被制御デバイス1(電気設備制御システム401)とは異種の自律動作物体である。
図17に示すように、上述のシミュレーション結果から特定される人物461周囲の温度データおよび流速データ、並びに、可視撮影画像信号に基づく可視撮影画像から特定される人体姿勢データがシミュレーション条件とされ、所定の人体状態シミュレーションが実行され、人物461の感覚(暑い、寒いなどといった温感状態)がシミュレーション結果として得られる。
そして、制御信号生成部44は、そのシミュレーション条件およびシミュレーション結果に基づいて、人物461の感覚などを考慮して、電気設備制御システム401のための制御信号を生成する。例えば、シミュレーション結果が、「暑い」という温感状態を示している場合、制御信号生成部44は、人物461の位置の温度を下げるために、電気設備制御システム401における空調機器の設定温度を下げるための制御信号を生成する。
なお、実施の形態6に係るデバイス制御システムのその他の構成および動作については実施の形態1または2と同様であるので、その説明を省略する。
以上のように、上記実施の形態6によれば、シミュレーション条件の確定値として得られる状態情報に基づいて、電気設備制御システム401が適切に制御される。
なお、上述の実施の形態に対する様々な変更および修正については、当業者には明らかである。そのような変更および修正は、その主題の趣旨および範囲から離れることなく、かつ、意図された利点を弱めることなく行われてもよい。つまり、そのような変更および修正が請求の範囲に含まれることを意図している。
例えば、上記実施の形態のいずれかにおいて、センサー部11,31におけるカメラには、ステレオカメラを使用するようにし、ステレオカメラの撮影画像信号から、可視撮影画像信号および距離画像信号を得るようにしてもよい。また、センサー部11,31がステレオカメラを含む場合、センサー部11,31は、LiDARセンサーやRADARセンサーを含まなくてもよい。
また、上記実施の形態のいずれかにおいて、シミュレーション条件の既知部分のデータ(例えば、実センサー信号として測定されるデータ)を未知部分に含めるようにしてもよい。そのようにすることで、例えばセンサーの不具合などで、実センサー信号の値が不適切になった場合でも、他の実センサー信号から、適切な値のデータが得られる。つまり、実センサー信号の値が不適切になった場合、他の実センサー信号から、適切な値のデータが得られるように、上述のDNNが機械学習される。また、例えば、3次元マップデータは、カメラの撮影画像から推定できる場合には、3次元マップデータを、シミュレーション条件の既知部分ではなく未知部分としてもよい。その場合、3次元マップデータまたは3次元道路マップデータを予め用意しておく必要がなくなる。
さらに、上記実施の形態のいずれかにおいて、仮想可視撮影画像信号および実センサー信号としての可視撮影画像信号は、撮影された階調を有する可視画像の信号でもよいし、その可視画像に対してエッジ抽出を行うことで得られたエッジ画像の信号でもよい。
さらに、上記実施の形態のいずれかにおいて、制御信号を、シミュレーター43におけるシミュレーションに使用してもよい。例えば、時系列に沿って、制御信号が順次生成される場合、1タイムステップ前の制御信号が、現タイムステップのシミュレーションに使用される。これにより、シミュレーションの精度が高まる。
さらに、上記実施の形態のいずれかにおいて、シミュレーター43におけるシミュレーションが、一連の複数タイムステップにかけて進行するシミュレーションであり、時系列に沿って複数タイムステップの仮想センサー信号を生成する場合、複数タイムステップの実センサー信号および複数タイムステップの仮想センサー信号(あるいは複数タイムステップのセンサー誤差(両者の差))を入力としたリカレントニューラルネットワークを、シミュレーション条件更新部42における上述の機械学習済みDNNとして使用するようにしてもよい。
さらに、上記実施の形態のいずれかにおいて、実センサー信号は、リアルタイムでセンサー部11,31からコントローラー2へ供給されるようにしてもよいし、センサー部11,31とコントローラー2との間で一時的にバッファリングされるようにしてもよい。
本発明は、例えば、デバイスを制御するシステムに適用可能である。
1 被制御デバイス
2 コントローラー
11,31 センサー部
21 演算処理装置(コンピューターの一例)
22a デバイス制御プログラム
41 センサー誤差演算部
42 シミュレーション条件設定部
43 シミュレーター
44 制御信号生成部

Claims (7)

  1. ある環境領域内で固定されるか移動する被制御デバイスと、
    前記環境領域または前記被制御デバイスに設置され特定物理量を測定し測定した前記物理量に対応する実センサー信号を出力するセンサー部と、
    前記実センサー信号に基づいて前記被制御デバイスを制御するコントローラーとを備え、
    前記コントローラーは、(a)前記被制御デバイスおよび前記環境領域の少なくとも一方の特定の状態情報をシミュレーション条件として前記環境領域内の特定事象のシミュレーションを行いシミュレーション結果を導出し、前記シミュレーション結果から、前記特定物理量を仮想的に測定して前記実センサー信号に対応する仮想センサー信号を生成するシミュレーターと、(b)前記実センサー信号および前記仮想センサー信号に基づいて前記シミュレーション条件を更新するシミュレーション条件更新部と、(c)前記シミュレーション条件および前記シミュレーション結果の少なくとも一方に基づいて、前記被制御デバイスの制御信号を生成する制御信号生成部とを備え、
    前記実センサー信号と前記仮想センサー信号との間のセンサー誤差が所定条件を満たすように収束するまで、反復的に、(a)前記シミュレーターは、前記シミュレーションおよび前記仮想センサー信号の生成を行い、(b)前記シミュレーション条件更新部は、前記シミュレーション条件の更新を行うこと、
    を特徴とするデバイス制御システム。
  2. 前記シミュレーション条件更新部は、前記実センサー信号と前記仮想センサー信号との間の前記センサー誤差に基づいて前記シミュレーション条件を更新することを特徴とする請求項1記載のデバイス制御システム。
  3. 前記制御信号生成部は、(a)所定の制御モデルに従って前記シミュレーション条件から前記制御信号を生成して前記被制御デバイスの動作を決定し、(b)前記環境領域内に他の自律動作物体が存在する場合、当該制御モデルと同一の制御モデルで前記他の自律動作物体が前記他の自律動作物体の動作を決定していると仮定して、前記他の自律動作物体の動作を推定し、(c)推定した前記他の自律動作物体の動作を考慮して、前記制御信号を生成することを特徴とする請求項1または請求項2記載のデバイス制御システム。
  4. 前記被制御デバイスは、機械的な動作を行う運動体であり、
    前記制御信号生成部は、前記シミュレーション条件および前記シミュレーション結果の少なくとも一方に基づいて、前記運動体の姿勢制御および経路探索の少なくとも一方を行うこと、
    を特徴とする請求項1から請求項3のうちのいずれか1項記載のデバイス制御システム。
  5. 前記被制御デバイスは、電気設備制御システムであり、前記シミュレーション条件に基づいて、電気設備の制御を行うことを特徴とする請求項1から請求項3のうちのいずれか1項記載のデバイス制御システム。
  6. ある環境領域内で固定されるか移動する被制御デバイスまたは前記環境領域に設置され特定物理量を測定し測定した前記物理量に対応する実センサー信号を出力するセンサー部から前記実センサー信号を取得するステップと、
    前記被制御デバイスおよび前記環境領域の少なくとも一方の特定の状態情報をシミュレーション条件として前記環境領域内の特定事象のシミュレーションを行いシミュレーション結果を導出するステップと、
    前記シミュレーション結果から、前記特定物理量を仮想的に測定して前記実センサー信号に対応する仮想センサー信号を生成するステップと、
    前記実センサー信号と前記仮想センサー信号とに基づいて前記シミュレーション条件を更新するステップと、
    前記シミュレーション条件および前記シミュレーション結果の少なくとも一方に基づいて、前記被制御デバイスの制御信号を生成するステップとを備え、
    前記実センサー信号と前記仮想センサー信号との間のセンサー誤差が所定条件を満たすように収束するまで、反復的に、前記シミュレーションおよび前記仮想センサー信号の生成、並びに前記シミュレーション条件の更新を行うこと、
    を特徴とするデバイス制御方法。
  7. コンピューターを、ある環境領域、または前記環境領域内の被制御デバイスに設置され特定物理量を測定し測定した前記物理量に対応する実センサー信号を出力するセンサー部により得られた前記実センサー信号に基づいて前記被制御デバイスを制御するコントローラーとして動作させ、
    前記コントローラーは、(a)前記被制御デバイスおよび前記環境領域の少なくとも一方の特定の状態情報をシミュレーション条件として前記環境領域内の特定事象のシミュレーションを行いシミュレーション結果を導出し、前記シミュレーション結果から、前記特定物理量を仮想的に測定して前記実センサー信号に対応する仮想センサー信号を生成するシミュレーターと、(b)前記実センサー信号および前記仮想センサー信号に基づいて前記シミュレーション条件を更新するシミュレーション条件更新部と、(c)前記シミュレーション条件および前記シミュレーション結果の少なくとも一方に基づいて、前記被制御デバイスの制御信号を生成する制御信号生成部とを備え、
    前記実センサー信号と前記仮想センサー信号との間のセンサー誤差が所定条件を満たすように収束するまで、反復的に、(a)前記シミュレーターは、前記シミュレーションおよび前記仮想センサー信号の生成を行い、(b)前記シミュレーション条件更新部は、前記シミュレーション条件の更新を行うこと、
    を特徴とするデバイス制御プログラム。
JP2018215451A 2018-11-16 2018-11-16 デバイス制御システム Pending JP2020086569A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018215451A JP2020086569A (ja) 2018-11-16 2018-11-16 デバイス制御システム
CN201911002760.5A CN111198513A (zh) 2018-11-16 2019-10-21 设备控制系统
EP19206856.7A EP3654120A1 (en) 2018-11-16 2019-11-04 Device control system comprising a simulator
US16/676,085 US20200159175A1 (en) 2018-11-16 2019-11-06 Device control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018215451A JP2020086569A (ja) 2018-11-16 2018-11-16 デバイス制御システム

Publications (1)

Publication Number Publication Date
JP2020086569A true JP2020086569A (ja) 2020-06-04

Family

ID=68426271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018215451A Pending JP2020086569A (ja) 2018-11-16 2018-11-16 デバイス制御システム

Country Status (4)

Country Link
US (1) US20200159175A1 (ja)
EP (1) EP3654120A1 (ja)
JP (1) JP2020086569A (ja)
CN (1) CN111198513A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022124477A1 (ko) * 2020-12-07 2022-06-16 삼성전자주식회사 전자 장치 및 그 제어 방법

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200306960A1 (en) * 2019-04-01 2020-10-01 Nvidia Corporation Simulation of tasks using neural networks
JPWO2021065543A1 (ja) * 2019-09-30 2021-04-08
JP7213394B2 (ja) * 2020-03-26 2023-01-26 株式会社日立製作所 無人飛行体制御支援システム及び無人飛行体制御支援方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008290610A (ja) * 2007-05-25 2008-12-04 Denso Corp 車両用ナビゲーション装置
JP2010172990A (ja) * 2009-01-28 2010-08-12 Seiko Epson Corp ロボット制御装置、ロボットの制御方法
WO2014097418A1 (ja) * 2012-12-19 2014-06-26 株式会社東芝 走行計画作成装置、運転支援装置および運転制御装置
JP2015148410A (ja) * 2014-02-07 2015-08-20 株式会社東芝 空調制御装置、空調制御システム、空調制御方法及びプログラム
JP2016158440A (ja) * 2015-02-26 2016-09-01 公益財団法人鉄道総合技術研究所 列車状態推定装置および列車状態推定方法、ならびにプログラム
JP2018106438A (ja) * 2016-12-27 2018-07-05 みこらった株式会社 自動車及び自動車用プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3760911B2 (ja) * 2002-11-27 2006-03-29 トヨタ自動車株式会社 モデル作成方法、モデル作成プログラム及びシミュレーション装置
JP4118242B2 (ja) 2004-03-19 2008-07-16 シャープ株式会社 羽ばたき飛行ロボットシステム
US8165723B2 (en) * 2006-03-10 2012-04-24 Power Analytics Corporation Real-time system for verification and monitoring of protective device settings within an electrical power distribution network and automatic correction of deviances found
KR101703144B1 (ko) * 2012-02-09 2017-02-06 한국전자통신연구원 차량의 자율주행 장치 및 그 방법
JP2013169104A (ja) 2012-02-16 2013-08-29 Sharp Corp 通信機器、家電、コントローラ、通信システム、家電制御方法、消費電力制御方法、プログラム
US20160314224A1 (en) * 2015-04-24 2016-10-27 Northrop Grumman Systems Corporation Autonomous vehicle simulation system
US10496766B2 (en) * 2015-11-05 2019-12-03 Zoox, Inc. Simulation system and methods for autonomous vehicles
WO2018176000A1 (en) * 2017-03-23 2018-09-27 DeepScale, Inc. Data synthesis for autonomous control systems

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008290610A (ja) * 2007-05-25 2008-12-04 Denso Corp 車両用ナビゲーション装置
JP2010172990A (ja) * 2009-01-28 2010-08-12 Seiko Epson Corp ロボット制御装置、ロボットの制御方法
WO2014097418A1 (ja) * 2012-12-19 2014-06-26 株式会社東芝 走行計画作成装置、運転支援装置および運転制御装置
JP2015148410A (ja) * 2014-02-07 2015-08-20 株式会社東芝 空調制御装置、空調制御システム、空調制御方法及びプログラム
JP2016158440A (ja) * 2015-02-26 2016-09-01 公益財団法人鉄道総合技術研究所 列車状態推定装置および列車状態推定方法、ならびにプログラム
JP2018106438A (ja) * 2016-12-27 2018-07-05 みこらった株式会社 自動車及び自動車用プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022124477A1 (ko) * 2020-12-07 2022-06-16 삼성전자주식회사 전자 장치 및 그 제어 방법

Also Published As

Publication number Publication date
EP3654120A1 (en) 2020-05-20
CN111198513A (zh) 2020-05-26
US20200159175A1 (en) 2020-05-21

Similar Documents

Publication Publication Date Title
US11592845B2 (en) Image space motion planning of an autonomous vehicle
JP2020086569A (ja) デバイス制御システム
Thomas et al. Toward image based visual servoing for aerial grasping and perching
JP6235716B2 (ja) ある環境内で無人航空機を制御する方法、及び、ある環境内で無人航空機を制御するシステム
JP6487010B2 (ja) ある環境内で無人航空機を制御する方法、ある環境のマップを生成する方法、システム、プログラムおよび通信端末
JP6207746B2 (ja) 航空機姿勢制御方法及び装置
JP6585673B2 (ja) 航空機姿勢制御方法
EP1901153A1 (en) Control system for unmanned 4-rotor-helicopter
KR102244988B1 (ko) 군집 비행을 위한 복수 개의 무인항공기의 군집 비행 제어 시스템 및 방법
CN111596684A (zh) 固定翼无人机密集编队与防撞避障半实物仿真系统及方法
CN112789672A (zh) 控制和导航系统、姿态优化、映射和定位技术
JP2021162572A (ja) 位置算出方法及び情報処理システム
Gao et al. Dubins path‐based dynamic soaring trajectory planning and tracking control in a gradient wind field
Ali et al. Prototyping non-holonomic hovercraft for path planning and obstacle avoidance
KR20210075647A (ko) 깊이 카메라를 이용한 무인 비행체의 비행 제어를 위한 학습 방법 및 장치
JP6950117B1 (ja) 学習装置、情報処理装置、及び学習済の制御モデル
Cowling Towards autonomy of a quadrotor UAV
JP6778067B2 (ja) 雲位置推定装置、雲位置推定方法及び雲位置推定プログラム
WO2021220528A1 (ja) 学習装置、情報処理装置、及び学習済の制御モデル
WO2022004385A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20230242250A1 (en) Aerial Vehicle Path Determination
Chen Design and Implementation of Navigation Systems for Unmanned Aerial Vehicles
AlMahamid et al. VizNav: A Modular Off-Policy Deep Reinforcement Learning Framework for Vision-Based Autonomous UAV Navigation in 3D Dynamic Environments
Yeagley Optimal Control for Stabilization of Quadrotor Vehicle Trajectories
Albaker et al. Mathematical modelling and realization of flight trajectories for an intelligent fixed-wing solar-powered UAV

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210713

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220609

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221208