JPWO2019111701A1 - 制御装置、および制御方法、プログラム、並びに移動体 - Google Patents

制御装置、および制御方法、プログラム、並びに移動体 Download PDF

Info

Publication number
JPWO2019111701A1
JPWO2019111701A1 JP2019558116A JP2019558116A JPWO2019111701A1 JP WO2019111701 A1 JPWO2019111701 A1 JP WO2019111701A1 JP 2019558116 A JP2019558116 A JP 2019558116A JP 2019558116 A JP2019558116 A JP 2019558116A JP WO2019111701 A1 JPWO2019111701 A1 JP WO2019111701A1
Authority
JP
Japan
Prior art keywords
self
posture
time
unit
series information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019558116A
Other languages
English (en)
Other versions
JP7180612B2 (ja
Inventor
小林 大
大 小林
諒 渡辺
諒 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2019111701A1 publication Critical patent/JPWO2019111701A1/ja
Application granted granted Critical
Publication of JP7180612B2 publication Critical patent/JP7180612B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/08Control of attitude, i.e. control of roll, pitch, or yaw
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

本開示は、自己位置が不明でも、再度、迅速に自己位置を推定することができるようにする制御装置、および制御方法、プログラム、並びに移動体に関する。LIDARや車輪エンコーダにより検出される時系列に供給される情報を格納し、格納された時系列の情報を用いて自己位置を推定する場合、キッドナップ状態などの予め予測できない姿勢変化が検出されたときには、格納された時系列の情報をリセットしてから、再度、自己位置を推定する。搭載された計算機に従い自律的に移動する多足ロボット、飛翔体、車載システムに適用することができる。

Description

本開示は、制御装置、および制御方法、プログラム、並びに移動体に関し、特に、自己位置が不明な状態でも、計算機により行動計画を生成し、自律的な移動を実現できるようにした制御装置、および制御方法、プログラム、並びに移動体に関する。
ロボット等の移動体の自律的な移動を実現するためには、行動を計画する起点となる自己の位置を認識・推定する必要がある。そこで、自己の周囲の状況をセンサ等の手段で認識して、自己の位置を推定し、自律的な移動を計画する技術が提案されている。
例えば、連続的に過去に検出してきた自己位置の情報を利用して自己位置を順次推定する場合、何らかの外力により、それまでの自己位置の傾向とは全く異なる自己位置に移動してしまった場合、過去の自己位置の情報との連続性を失うことにより、自己位置を認識することができない状態となる。
そこで、自己位置が認識できない状態である、スリップやキッドナップ(自己位置が認識できない状態)などの異常移動状態が発生するときに、多重状態情報を補正して移動装置の最終位置情報を算出し、キッドナップ中の移動距離を反映する技術が提案されている(特許文献1参照)。
また、走行に係る制御入力量と実際の移動量の差による変動を監視するとともに、変動が外乱によって制御可能な範囲を逸脱し、自己位置を認識できない状態になったときに走行を停止する技術が提案されている(特許文献2参照)。
特許第4718518号公報 特開2013−45298号公報
特許文献1においては、キッドナップ後の補正にキッドナップ中の移動距離を反映することを明示しており、再度、自己位置を求めるものではないため、正確に自己位置を検出することができない恐れがある。
また、特許文献2においては、制御入力量と実際の移動量の差による変動監視に限定されており、複数のセンサを用いて、再度、自己位置を推定することはできない恐れがある。
本開示は、このような状況に鑑みてなされたものであり、特に、自己位置が不明な状態から、再度、自己位置を推定できるようにするものである。
本開示の一側面の制御装置は、センサ情報に基づいて、自己の姿勢を検出する自己姿勢検出部と、前記自己姿勢検出部による検出結果に基づいて、予め予測できない姿勢の変化を検出する姿勢変化検出部と、センサ情報に基づいて、第1の推定モデルにより自己位置を推定すると共に、前記姿勢変化検出部により、前記予め予測できない姿勢の変化が検出される場合、前記第1の推定モデルと異なる第2の推定モデルにより自己位置を推定する自己位置推定部とを含む制御装置である。
前記自己位置推定部には、前記センサ情報を時系列情報として蓄積する時系列情報蓄積部と、前記時系列情報蓄積部に蓄積された時系列情報を用いて、前記自己位置を推定し、推定結果を時系列情報自己位置として出力する時系列情報自己位置推定部を含ませるようにすることができ、前記時系列情報蓄積部は、前記予め予測できない姿勢の変化が検出される場合、蓄積された過去の前記時系列情報がリセットされるようにすることができ、前記時系列情報自己位置推定部には、前記第1の推定モデルとして、前記時系列情報蓄積部に蓄積された時系列情報を用いて、前記自己位置を推定させ、前記第2の推定モデルとして、前記時系列情報蓄積部に蓄積された過去の時系列情報がリセットされた後の、前記時系列情報蓄積部に蓄積された時系列情報を用いて、前記自己位置を推定させるようにすることができる。
前記時系列情報蓄積部に蓄積された過去の時系列情報は、前記リセットにより、所定の時間以上長く蓄積された時系列情報から削除されるようにすることができる。
前記時系列情報自己位置推定部には、前記時系列情報蓄積部に蓄積された過去の時系列情報が前記リセットされた後、前記時系列情報蓄積部に蓄積された時間が長い前記時系列情報ほど、前記時系列情報により推定される自己位置の重みを軽くして、前記時系列情報自己位置を推定させるようにすることができる。
前記自己位置推定部には、事前確率密度分布の観測値を最新の時系列情報により更新するステップを繰り返すカルマンフィルタを用いて時系列情報自己位置を推定する時系列情報自己位置推定部を含ませるようにすることができ、前記時系列情報自己位置推定部には、前記第1の推定モデルとして、前記時系列情報自己位置を、事前確率密度分布の観測値を最新の時系列情報により更新するステップを繰り返すカルマンフィルタを用いて推定させ、前記第2の推定モデルとして、前記予め予測できない姿勢の変化が検出される場合、最新の前記時系列情報の重みを最大にした後、前記カルマンフィルタを用いて、前記時系列情報自己位置を推定させるようにすることができる。
前記自己位置推定部には、前記センサ情報によりセンシングされる時系列情報として蓄積する時系列情報蓄積部と、前記時系列情報蓄積部に蓄積された時系列情報を用いて、前記自己位置を推定し、推定結果を時系列情報自己位置として出力する時系列情報自己位置推定部と、前記センサ情報によりセンシングされる現在の情報である現在情報に基づいて、前記自己位置を推定し、現在情報自己位置として出力する現在情報自己位置推定部とを含ませるようにすることができ、前記自己位置推定部には、前記予め予測できない姿勢の変化が検出されない場合、前記時系列情報自己位置を自己位置推定結果として採用し、前記予め予測できない姿勢の変化が検出された場合、前記現在情報自己位置を自己位置推定結果として採用するようにさせることができる。
前記自己位置推定部には、前記姿勢変化検出部の検出結果に応じて、動作モードを、少なくとも第1のモード、第2のモード、および第3のモードに遷移させるようにすることができ、動作開始時において、前記動作モードは、第1のモードとされ、前記第1の推定モデルにより前記自己位置を推定させるようにすることができ、前記第1のモードにおいて、前記姿勢変化検出部により、前記予め予測できない姿勢の変化が検出される場合、前記動作モードを第2のモードに遷移させ、前記予め予測できない姿勢の変化が検出されたことを通知させるようにすることができ、前記第2のモードにおいて、所定時間が経過した後、前記動作モードを第3のモードに遷移させ、前記第2の推定モデルにより、前記自己位置を推定させるようにすることができ、前記第3のモードにおいて、所定時間が経過した後、前記動作モードを前記第1のモードに遷移させるようにすることができる。
前記自己位置推定部には、前記センサ情報を時系列情報として蓄積する時系列情報蓄積部と、前記時系列情報蓄積部に蓄積された時系列情報を用いて、前記自己位置を推定し、推定結果を時系列情報自己位置として出力する時系列情報自己位置推定部と、前記センサ情報によりセンシングされる現在の情報である現在情報に基づいて、前記自己位置を推定し、現在情報自己位置として出力する現在情報自己位置推定部とを含ませるようにすることができ、前記第1のモードにおいて、前記第1の推定モデルである、前記時系列情報蓄積部に蓄積された時系列情報を用いた、前記時系列情報自己位置推定部により推定された前記時系列情報自己位置を自己位置推定結果として採用させ、前記第3のモードにおいて、前記第2の推定モデルである、前記現在情報を用いた、前記現在情報自己位置推定部により推定された前記現在情報自己位置を自己位置推定結果として採用させるようにすることができる。
前記予め予測できない姿勢の変化は、前記自己位置および姿勢の変化に連続性がなくなる状態への変化であり、前記第1のモードは通常モードであり、前記第2のモードは自己位置不定モードであり、前記第3のモードは現在情報自己位置推定モードであるようにすることができる。
前記動作モードが、前記第3のモードである、前記現在情報自己位置推定モードの場合、前記予め予測できない姿勢の変化が検出されたとき、前記自己位置推定部には、前記動作モードを、前記第2のモードである、前記自己位置不定モードに遷移させるようにすることができる。
前記自己位置および姿勢の変化に連続性がなくなる状態には、キッドナップ状態、足裏接地面及び車輪のスリップ状態、非固定物体の乗り降りおよびセンサ異常状態を含ませるようにすることができる。
前記予め予測できない姿勢の変化は、事故発生状態への変化であり、前記第1のモードは通常モードであり、前記第2のモードは事故直後モードであり、前記第3のモードは制御回復モードであるようにすることができる。
前記事故発生状態には、人、物体、および他機・他車との衝突、パンク、部品欠け、部品および貨物落下状態を含ませるようにすることができる。
前記時系列情報は、LIDARにより検出される3次元点群情報、および車輪エンコーダにより検出される位置情報、姿勢、速度、加速度、および角速度とすることができ、時系列情報自己位置推定部には、前記時系列情報に基づいて、カルマンフィルタまたは粒子フィルタを用いて、前記自己位置を推定させ、推定結果を時系列情報自己位置として出力させ、前記現在情報は、ステレオカメラにより撮像される視差画像とすることができ、現在情報自己位置推定部には、前記視差画像よりデプス画像を生成させ、前記デプス画像より画像特徴量を抽出させて、前記画像特徴量に基づいて自己位置を推定させ、推定結果を現在情報自己位置として出力させる。
前記自己姿勢検出部が前記自己の姿勢を検出する際に使用する前記センサ情報には、鉛直方向の加速度を含ませるようにすることができ、前記自己姿勢検出部には、前記鉛直方向の加速度の変化の周波数成分を抽出する周波数成分抽出部と、前記周波数成分抽出部により抽出された周波数成分より特徴量を抽出する特徴量抽出部と、前記特徴量に基づいて、前記自己の姿勢を検出する姿勢検出部とを含ませるようにすることができる。
既知の姿勢に対するセンサ情報に基づいて、学習により、前記姿勢と、前記周波数成分の特徴量とが対応付けられた状態で登録されたデータベースをさらに含ませるようにすることができ、前記姿勢検出部には、前記特徴量に基づいて、前記データベースより、対応する姿勢を検索することにより、前記姿勢を検出させるようにすることができる。
前記データベースには、前記既知の姿勢に対するセンサ情報に基づいて、ニューラルネットワークを用いた学習により、前記姿勢と、前記周波数成分の特徴量とが対応付けられた状態で登録されるようにすることができる。
本開示の一側面の制御方法は、センサ情報に基づいて、自己の姿勢を検出する自己姿勢検出処理と、前記自己姿勢検出処理による検出結果に基づいて、予め予測できない姿勢の変化を検出する姿勢変化検出処理と、センサ情報に基づいて、第1の推定モデルにより自己位置を推定すると共に、前記姿勢変化検出処理により、前記予め予測できない姿勢の変化が検出される場合、前記第1の推定モデルと異なる第2の推定モデルにより自己位置を推定する自己位置推定処理とを含む制御方法である。
本開示の一側面のプログラムは、センサ情報に基づいて、自己の姿勢を検出する自己姿勢検出部と、前記自己姿勢検出部による検出結果に基づいて、予め予測できない姿勢の変化を検出する姿勢変化検出部と、センサ情報に基づいて、第1の推定モデルにより自己位置を推定すると共に、前記姿勢変化検出部により、前記予め予測できない姿勢の変化が検出される場合、前記第1の推定モデルと異なる第2の推定モデルにより自己位置を推定する自己位置推定部としてコンピュータを機能させるプログラムである。
本開示の一側面の移動体は、センサ情報に基づいて、自己の姿勢を検出する自己姿勢検出部と、前記自己姿勢検出部による検出結果に基づいて、予め予測できない姿勢の変化を検出する姿勢変化検出部と、センサ情報に基づいて、第1の推定モデルにより自己位置を推定すると共に、前記姿勢変化検出部により、前記予め予測できない姿勢の変化が検出される場合、前記第1の推定モデルと異なる第2の推定モデルにより自己位置を推定する自己位置推定部と、前記自己位置推定部により推定された自己位置の周辺の状況に基づいて、行動計画を生成する行動計画生成部と、前記行動計画生成部により決定された行動計画に基づいて移動体の動作を制御する制御部とを含む移動体。
本開示の一側面においては、センサ情報に基づいて、自己の姿勢が検出され、検出結果に基づいて、予め予測できない姿勢の変化が検出され、センサ情報に基づいて、第1の推定モデルにより自己位置が推定されると共に、前記予め予測できない姿勢の変化が検出される場合、前記第1の推定モデルと異なる第2の推定モデルにより自己位置が推定される。
本開示の一側面によれば、特に、自己位置が不明な状態になっても、再度、自己位置を推定することが可能となる。
本開示の概要を説明する移動体の構成例を示す図である。 本開示の概要を説明する図である。 本開示の移動体を制御する移動体制御システムの構成例を説明するブロック図である。 本開示の好適な実施の形態に係る認識処理部とその周辺の構成例の詳細なブロック図である。 姿勢検出を説明する図である。 図4の特徴量姿勢DBを生成する特徴量姿勢DB生成部の構成例である。 時系列情報自己位置推定処理を説明するフローチャートである。 現在情報自己位置推定処理を説明するフローチャートである。 姿勢変化検出処理を説明するフローチャートである。 自律移動制御処理を説明するフローチャートである。 特徴量姿勢DB学習処理を説明するフローチャートである。 第1の変形例の自律移動制御処理を説明するフローチャートである。 第2の変形例における動作モードの状態変化を説明する図である。 第2の変形例の自律移動制御処理を説明するフローチャートである。 図14の通常モード処理を説明するフローチャートである。 図14の位置不定モード処理を説明するフローチャートである。 図14の現在情報自己位置推定モード処理を説明するフローチャートである。 第3の変形例における動作モードの状態変化を説明する図である。 第3の変形例の自律移動制御処理を説明するフローチャートである。 図19の事故直後モード処理を説明するフローチャートである。 図19の制御回復モード処理を説明するフローチャートである。 汎用のコンピュータの構成例を説明する図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.本開示の概要
2.好適な実施の形態
3.第1の変形例
4.第2の変形例
5.第3の変形例
6.ソフトウェアにより実行させる例
<<1.本開示の概要>>
本開示の移動体は、連続的に推定してきた過去の自己位置の推定結果を用いて、新たな自己位置推定を繰り返すとき、外力により自己位置が失われた後にも、再度、新たに自己位置を推定する移動体である。
図1は、本開示の移動体11の概要となる構成例を示している。
移動体11は、例えば、ロボットなどであり、センサ群21、自律移動制御部22、およびアクチュエータ群23を備えている。
センサ群21は、移動体11の内部、および移動体11の周囲の状況の認識に必要な各種の情報を検出するセンサ21a−1乃至21a−nを備えており、検出結果を自律移動制御部22に出力する。また、センサ21a−1乃至21a−nについて特に区別する必要がない場合、単に、センサ21aと称するものとし、その他の構成についても同様に称する。
より具体的には、センサ21a−1乃至21a−nは、例えば、移動体11の周囲を撮像するカメラ、移動体11の動きを検出する加速度センサ、移動体11の周囲に存在する物体までの距離を測定するLIDAR、ToF(Time of Flight)センサ、方向を検出する地磁気センサ、ジャイロセンサ、加速度センサ、周囲の気圧の変化を検出する気圧センサ、接触の有無等を検出する接触センサ、温度を検出する温度センサ、湿度を検出する湿度センサ、PSD(Position Sensitive Detector)測距センサおよび、地球上の位置を検出するGNSS(Global Navigation Satellite System)などを含む。
自律移動制御部22は、センサ群21の各種の検出結果より、周囲の状況を認識し、認識結果に基づいて行動計画を生成し、行動計画に応じて、ロボットを駆動させるアクチュエータ群23の各種アクチュエータ23a−1乃至23a−nを動作させる。また、アクチュエータ23a−1乃至23a−nについて特に区別する必要がない場合、単に、アクチュエータ23aと称するものとし、その他の構成についても同様に称する。
より詳細には、自律移動制御部22は、認識処理部31、行動計画処理部32、および行動制御処理部33を備えている。
認識処理部31は、センサ群21より供給される検出結果に基づいて、認識処理を実行し、例えば、画像、人、物体、表情の種類、位置、属性、および自らや障害物の位置等を認識し、認識結果として行動計画処理部32に出力する。また、認識処理部31は、センサ群21より供給される検出結果に基づいて、自己位置を推定する。この際、認識処理部31は、所定のモデルを用いて自己位置を推定する。さらに、認識処理部31は、センサ群21により供給される検出結果に基づいて、外力の影響により、所定のモデルを用いた自己位置の推定ができない状態になると、所定のモデルとは異なるモデルで自己位置を推定する。
行動計画処理部32は、認識結果に基づいて、移動体11の全体の行動である、移動体11の移動に係る機器の移動の軌跡、状態変化、および速度または加速度などの行動計画を生成し、行動制御処理部33に供給する。
行動制御処理部33は、行動計画処理部32より供給される行動計画に基づいて、アクチュエータ群23のアクチュエータ23a−1乃至23a−nのそれぞれの具体的な動きを制御するための制御信号を生成し、アクチュエータ群23を動作させる。
アクチュエータ群23は、行動制御処理部33より供給される制御信号に基づいて、移動体11を具体的に動作させるアクチュエータ23a−1乃至23a−nを動作させる。より詳細には、アクチュエータ23a−1乃至23a−nは、移動体11の具体的な動き実現するモータ、サーボモータ、ブレーキ等の動作を制御信号に基づいて動作させる。
また、アクチュエータ23a−1乃至23a−nは、伸縮運動、屈伸運動、または旋回運動などを実現させる構成を含むと共に、情報を表示するLED(Light Emission Diode)やLCD(Liquid Crystal Display)などからなる表示部、および、音声を出力するスピーカなどの構成をさらに含むこともできる。したがって、アクチュエータ群23が制御信号に基づいて、制御されることにより、移動体11を駆動させる各種の装置の動作が実現されると共に、情報が表示される、および音声が出力される。
すなわち、アクチュエータ群23のアクチュエータ23a−1乃至23a−nが制御されることにより、移動体11の移動に係る動作が制御されると共に、情報の表示や音声の出力などの各種の情報の提示も制御される。
<本開示の自己位置推定の概要>
認識処理部31は、センサ群21より供給される検出結果に基づいて、自己位置を推定する。この際、認識処理部31は、所定のモデルとして、過去の自己位置の推定結果を利用して、現在の自己位置を推定する。そして、認識処理部31は、センサ群21より供給される検出結果に基づいて、外力により、それまでとは異なる大きな挙動が検出されるなどして、過去の自己位置の推定結果を利用できない状態を検出すると、所定のモデルとは異なるモデルを利用して、例えば、自らの周辺の現在の情報に基づいて自己位置を推定する。
より詳細には、認識処理部31は、例えば、図2で示されるように、時刻(t−1)において、推定モデルMAにより、時刻(t−1)におけるセンサ群21により供給される検出結果と、過去の時刻(t−2)における情報である、自己位置D(t−2)とを利用して、現在の自己位置D(t−1)を推定する。
同様に、時刻tにおいて、認識処理部31は、推定モデルMAにより、時刻tにおけるセンサ群21により供給される検出結果と、過去の時刻(t−1)における情報である、自己位置D(t−1)(さらに、必要に応じて、過去の時刻(t−2)における情報である、自己位置D(t−2))とを利用して、現在の自己位置D(t)を推定する。
次に、時刻(t+1)において、認識処理部31は、外力により、自己位置が大きく変化し、過去の自己位置推定結果との連続例が失われて、利用することができない状態になった場合、推定モデルを推定モデルMAと異なる推定モデルMBに切り替えて、例えば、現在の時刻(t+1)におけるセンサ群21により供給される検出結果のみを用いて、自己位置D(t+1)を推定する。
すなわち、認識処理部31は、例えば、自己位置を、連続的に推定できている場合には、推定モデルMAにより現在の検出結果と過去の自己位置推定結果とを利用して自己位置を推定する。一方、何らかの外力により自己位置が大きく変化し、過去の自己位置推定結果がりようできないときには、認識処理部31は、推定モデルMAと異なる、現在のセンサ群21の検出結果のみから自己位置を推定することができる推定モデルMBにより自己位置を推定する。ただし、一般に、推定モデルMBは、推定モデルMAよりも自己位置の検出精度が低いため、通常は、推定モデルMAが利用される。
このようにセンサ群21の検出結果に応じて、自己位置が喪失された状態になっても、推定モデルを切り替えることで、自己位置の推定を継続することができるようになる。
結果として、自己位置が不明な状態になっても、再度、自己位置の推定を継続させることが可能となり、継続的に自律行動を実現することが可能となる。
<<2.好適な実施の形態>>
<本開示の移動体を制御する移動体制御システムの構成例>
上述した機能を実現させるための移動体11を制御する移動体制御システムについて説明する。
図3は、本開示の移動体11を制御する移動体制御システム100の概略的な機能の構成例を示すブロック図である。尚、図3の移動体制御システム100は、本技術が適用され得るロボットからなる移動体11を制御する移動体制御システムの一例であるが、他の移動体、例えば、航空機、船舶、およびマルチローターコプター(ドローン)などを制御するシステムとして適用することもできる。また、ロボットについても、車輪型のロボットや搭乗可能な自動運転車でもよいし、多足歩行型のロボットでもよい。
移動体制御システム100は、入力部101、データ取得部102、通信部103、移動体内部機器104、出力制御部105、出力部106、駆動系制御部107、駆動系システム108、記憶部109、及び、自律移動制御部110を備える。入力部101、データ取得部102、通信部103、出力制御部105、駆動系制御部107、記憶部109、及び、自律移動制御部110は、通信ネットワーク111を介して、相互に接続されている。通信ネットワーク111は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、IEEE802.3 等のLAN(Local Area Network)、又は、FlexRay(登録商標)等の任意の規格に準拠した通信ネットワークやバス、あるいは規格化されていない独自の通信方式等からなる。なお、移動体制御システム100の各部は、通信ネットワーク111を介さずに、直接接続される場合もある。
なお、以下、移動体制御システム100の各部が、通信ネットワーク111を介して通信を行う場合、通信ネットワーク111の記載を省略するものとする。例えば、入力部101と自律移動制御部110が、通信ネットワーク111を介して通信を行う場合、単に入力部101と自律移動制御部110が通信を行うと記載する。
入力部101は、搭乗者が各種のデータや指示等の入力に用いる装置を備える。例えば、入力部101は、タッチパネル、ボタン、マイクロフォン、スイッチ、及び、レバー等の操作デバイス、並びに、音声やジェスチャ等により手動操作以外の方法で入力可能な操作デバイス等を備える。また、例えば、入力部101は、赤外線若しくはその他の電波を利用したリモートコントロール装置、又は、移動体制御システム100の操作に対応したモバイル機器若しくはウェアラブル機器等の外部接続機器であってもよい。入力部101は、搭乗者により入力されたデータや指示等に基づいて入力信号を生成し、移動体制御システム100の各部に供給する。
データ取得部102は、移動体制御システム100の処理に用いるデータを取得する各種のセンサ等を備え、取得したデータを、移動体制御システム100の各部に供給する。
例えば、データ取得部102は、移動体の状態等を検出するための各種のセンサを備えることでセンサ群112を構成し、図1のセンサ21a−1乃至21a−nより構成されるセンサ群21に対応する。具体的には、例えば、データ取得部102は、ジャイロセンサ、加速度センサ、慣性計測装置(IMU)、及び、アクセル等の加速入力の操作量、減速入力の操作量、方向指示入力の操作量、エンジンやモータ等の駆動装置の回転数や入出力エネルギー・燃料量、エンジンやモータ等のトルク量、若しくは、車輪や関節の回転速度やトルク等を検出するためのセンサ等を備える。
また、例えば、データ取得部102は、移動体の外部の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ、偏光カメラ、及び、その他のカメラ等の撮像装置を備える。また、例えば、データ取得部102は、天候又は気象等を検出するための環境センサ、及び、移動体の周囲の物体を検出するための周囲情報検出センサを備える。環境センサは、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ等からなる。周囲情報検出センサは、例えば、レーザ測距センサ、超音波センサ、レーダ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等からなる。
さらに、例えば、データ取得部102は、移動体の現在位置を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、GNSS(Global Navigation Satellite System)衛星からのGNSS信号を受信するGNSS受信機等を備える。
通信部103は、移動体内部機器104、並びに、移動体外部の様々な機器、サーバ、基地局等と通信を行い、移動体制御システム100の各部から供給されるデータを送信したり、受信したデータを移動体制御システム100の各部に供給したりする。なお、通信部103がサポートする通信プロトコルは、特に限定されるものではなく、また、通信部103が、複数の種類の通信プロトコルをサポートすることも可能である。
例えば、通信部103は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、又は、WUSB(Wireless USB)等により、移動体内部機器104と無線通信を行う。また、例えば、通信部103は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、又は、MHL(Mobile High-definition Link)等により、移動体内部機器104と有線通信を行う。
さらに、例えば、通信部103は、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)との通信を行う。また、例えば、通信部103は、P2P(Peer To Peer)技術を用いて、移動体の近傍に存在する端末(例えば、歩行者若しくは店舗の端末、又は、MTC(Machine Type Communication)端末)との通信を行う。さらに、例えば、移動体11が車両の場合、通信部103は、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、移動体と家との間(Vehicle to Home)の通信、及び、歩車間(Vehicle to Pedestrian)通信等のV2X通信を行う。また、例えば、通信部103は、ビーコン受信部を備え、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行規制又は所要時間等の情報を取得する。
移動体内部機器104は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、移動体に搬入され若しくは取り付けられる情報機器、及び、任意の目的地までの経路探索を行うナビゲーション装置等を含む。
出力制御部105は、移動体の搭乗者又は移動体外部に対する各種の情報の出力を制御する。例えば、出力制御部105は、視覚情報(例えば、画像データ)及び聴覚情報(例えば、音声データ)のうちの少なくとも1つを含む出力信号を生成し、出力部106に供給することにより、出力部106からの視覚情報及び聴覚情報の出力を制御する。具体的には、例えば、出力制御部105は、データ取得部102の異なる撮像装置により撮像された画像データを合成して、俯瞰画像又はパノラマ画像等を生成し、生成した画像を含む出力信号を出力部106に供給する。また、例えば、出力制御部105は、衝突、接触、危険地帯への進入等の危険に対する警告音又は警告メッセージ等を含む音声データを生成し、生成した音声データを含む出力信号を出力部106に供給する。
出力部106は、移動体の搭乗者又は移動体外部に対して、視覚情報又は聴覚情報を出力することが可能な装置を備える。例えば、出力部106は、表示装置、インストルメントパネル、オーディオスピーカ、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ、ランプ等を備える。出力部106が備える表示装置は、通常のディスプレイを有する装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)表示機能を有する装置等の運転者の視野内に視覚情報を表示する装置であってもよい。尚、出力制御部105および出力部106は、自律移動の処理には必須の構成ではないため、必要に応じて省略するようにしてもよい。
駆動系制御部107は、各種の制御信号を生成し、駆動系システム108に供給することにより、駆動系システム108の制御を行う。また、駆動系制御部107は、必要に応じて、駆動系システム108以外の各部に制御信号を供給し、駆動系システム108の制御状態の通知等を行う。
駆動系システム108は、移動体の駆動系に関わる各種の装置を備える。例えば、駆動系システム108は、4本の脚の各関節に備わった角度やトルクを指定可能なサーボモータ、ロボット自体の移動の動きを4本の足の動きに分解・置換するモーションコントローラ並びに、各モータ内のセンサや足裏面のセンサによるフィードバック制御装置を備える。
別の例では、駆動系システム108は、4基ないし6基の機体上向きのプロペラを持つモータ、ロボット自体の移動の動きを各モータの回転量に分解・置換するモーションコントローラを備える。
さらに、別の例では、駆動系システム108は、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、舵角を調節するステアリング機構、制動力を発生させる制動装置、ABS(Antilock Brake System)、ESC(Electronic Stability Control)、並びに、電動パワーステアリング装置等を備える。尚、出力制御部105、出力部106、駆動系制御部107、および駆動系システム108は、アクチュエータ群113を構成し、図1のアクチュエータ23a−1乃至23a−nからなるアクチュエータ群23に対応する。
記憶部109は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイス等を備える。記憶部109は、移動体制御システム100の各部が用いる各種プログラムやデータ等を記憶する。例えば、記憶部109は、ダイナミックマップ等の3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ、及び、移動体の周囲の情報を含むローカルマップ等の地図データを記憶する。
自律移動制御部110は、自動運転又は運転支援等の自律移動に関する制御を行う。具体的には、例えば、自律移動制御部110は、移動体の衝突回避あるいは衝撃緩和、移動体間距離に基づく追従移動、移動体速度維持移動、または、移動体の衝突警告の機能実現を目的とした協調制御を行う。また、例えば、自律移動制御部110は、操作者・ユーザの操作に拠らずに自律的に移動する自律移動等を目的とした協調制御を行う。自律移動制御部110は、検出部131、自己位置推定部132、状況分析部133、計画部134、及び、動作制御部135を備える。このうち、検出部131、自己位置推定部132、および状況分析部133は、認識処理部121を構成し、図1の認識処理部31に対応する。また、計画部134は、行動計画処理部122を構成し、図1の行動計画処理部32に対応する。さらに、動作制御部135は、行動制御処理部123を構成し、図1の行動制御処理部33に対応する。
検出部131は、自律移動の制御に必要な各種の情報の検出を行う。検出部131は、移動体外部情報検出部141、移動体内部情報検出部142、及び、移動体状態検出部143を備える。
移動体外部情報検出部141は、移動体制御システム100の各部からのデータ又は信号に基づいて、移動体の外部の情報の検出処理を行う。例えば、移動体外部情報検出部141は、移動体の周囲の物体の検出処理、認識処理、及び、追跡処理、並びに、物体までの距離の検出処理を行う。検出対象となる物体には、例えば、移動体、人、障害物、構造物、道路、信号機、交通標識、道路標示等が含まれる。また、例えば、移動体外部情報検出部141は、移動体の周囲の環境の検出処理を行う。検出対象となる周囲の環境には、例えば、天候、気温、湿度、明るさ、及び、路面の状態等が含まれる。移動体外部情報検出部141は、検出処理の結果を示すデータを自己位置推定部132、状況分析部133のマップ解析部151、及び、状況認識部152、並びに、動作制御部135等に供給する。
移動体内部情報検出部142は、移動体制御システム100の各部からのデータ又は信号に基づいて、移動体内部の情報の検出処理を行う。例えば、移動体内部情報検出部142は、運転者の認証処理及び認識処理、運転者の状態の検出処理、搭乗者の検出処理、及び、移動体内部の環境の検出処理等を行う。検出対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線方向等が含まれる。検出対象となる移動体内部の環境には、例えば、気温、湿度、明るさ、臭い等が含まれる。移動体内部情報検出部142は、検出処理の結果を示すデータを状況分析部133の状況認識部152、及び、動作制御部135等に供給する。
移動体状態検出部143は、移動体制御システム100の各部からのデータ又は信号に基づいて、移動体の状態の検出処理を行う。検出対象となる移動体の状態には、例えば、速度、加速度、舵角、異常の有無及び内容、運転操作の状態、パワーシートの位置及び傾き、ドアロックの状態、並びに、その他の移動体搭載機器の状態等が含まれる。移動体状態検出部143は、検出処理の結果を示すデータを状況分析部133の状況認識部152、及び、動作制御部135等に供給する。
自己位置推定部132は、移動体外部情報検出部141、及び、状況分析部133の状況認識部152等の移動体制御システム100の各部からのデータ又は信号に基づいて、移動体の位置及び姿勢等の推定処理を行う。また、自己位置推定部132は、必要に応じて、自己位置の推定に用いるローカルマップ(以下、自己位置推定用マップと称する)を生成する。自己位置推定用マップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いた高精度なマップとされる。自己位置推定部132は、推定処理の結果を示すデータを状況分析部133のマップ解析部151、及び、状況認識部152等に供給する。また、自己位置推定部132は、自己位置推定用マップを記憶部109に記憶させる。
さらに、自己位置推定部132は、センサ群112より供給される検出結果に基づいて、時系列に供給される時系列情報をデータベースに蓄積すると共に、蓄積した時系列の情報に基づいて、自己位置を推定し、時系列情報自己位置として出力する。また、自己位置推定部132は、センサ群112より供給される現在の検出結果に基づいて、自己位置を推定し、現在情報自己位置として出力する。そして、自己位置推定部132は、時系列情報自己位置と、現在情報自己位置とを統合する、または、切り替えることにより自己位置推定結果として出力する。さらに、自己位置推定部132は、センサ群112より供給される検出結果に基づいて、移動体11の姿勢を検出し、姿勢の変化が検出されて、自己位置が大きく変化し、時系列情報自己位置の推定精度が低下するとみなされるとき、現在情報自己位置のみから自己位置を推定する。また、例えば、移動体11が別の移動体に搭載されて移動するような場合、自己位置推定部132は、センサ群112より供給される検出結果に基づいて、移動体11の姿勢の変化が検出されなくても、自己位置が大きく変化するので、時系列情報自己位置の推定精度が低下するとみなし、現在情報自己位置のみから自己位置を推定する。これは、例えば、移動体11が車両であって、カーフェリーボートに搭載されて移動するような場合が考えられる。このようにすることで、外力の影響の有無に関わらず、予め予測できない姿勢の変化があって、自己位置が大きく変化するようなときにでも、現在情報自己位置のみから自己位置が推定されるので、自己位置を所定の精度で推定することができる。尚、自己位置推定部132の詳細な構成については、図4を参照して後述する。
状況分析部133は、移動体及び周囲の状況の分析処理を行う。状況分析部133は、マップ解析部151、状況認識部152、及び、状況予測部153を備える。
マップ解析部151は、自己位置推定部132及び移動体外部情報検出部141等の移動体制御システム100の各部からのデータ又は信号を必要に応じて用いながら、記憶部109に記憶されている各種のマップの解析処理を行い、自律移動の処理に必要な情報を含むマップを構築する。マップ解析部151は、構築したマップを、状況認識部152、状況予測部153、並びに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
状況認識部152は、自己位置推定部132、移動体外部情報検出部141、移動体内部情報検出部142、移動体状態検出部143、及び、マップ解析部151等の移動体制御システム100の各部からのデータ又は信号に基づいて、移動体に関する状況の認識処理を行う。例えば、状況認識部152は、移動体の状況、移動体の周囲の状況、及び、移動体の運転者の状況等の認識処理を行う。また、状況認識部152は、必要に応じて、移動体の周囲の状況の認識に用いるローカルマップ(以下、状況認識用マップと称する)を生成する。状況認識用マップは、例えば、占有格子地図(Occupancy Grid Map)、道路地図(Lane Map)、または、点群地図(Point Cloud Map)とされる。
認識対象となる移動体の状況には、例えば、移動体の位置、姿勢、動き(例えば、速度、加速度、移動方向等)、並びに、異常の有無及び内容等が含まれる。認識対象となる移動体の周囲の状況には、例えば、周囲の静止物体の種類及び位置、周囲の動物体の種類、位置及び動き(例えば、速度、加速度、移動方向等)、周囲の道路の構成及び路面の状態、並びに、周囲の天候、気温、湿度、及び、明るさ等が含まれる。認識対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線の動き、並びに、運転操作等が含まれる。
状況認識部152は、認識処理の結果を示すデータ(必要に応じて、状況認識用マップを含む)を自己位置推定部132及び状況予測部153等に供給する。また、状況認識部152は、状況認識用マップを記憶部109に記憶させる。
状況予測部153は、マップ解析部151、及び状況認識部152等の移動体制御システム100の各部からのデータ又は信号に基づいて、移動体に関する状況の予測処理を行う。例えば、状況予測部153は、移動体の状況、移動体の周囲の状況、及び、運転者の状況等の予測処理を行う。
予測対象となる移動体の状況には、例えば、移動体の挙動、異常の発生、及び、移動可能距離等が含まれる。予測対象となる移動体の周囲の状況には、例えば、移動体の周囲の動物体の挙動、信号の状態の変化、及び、天候等の環境の変化等が含まれる。予測対象となる運転者の状況には、例えば、運転者の挙動及び体調等が含まれる。
状況予測部153は、予測処理の結果を示すデータを、及び状況認識部152からのデータとともに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
ルート計画部161は、マップ解析部151及び状況予測部153等の移動体制御システム100の各部からのデータ又は信号に基づいて、目的地までのルートを計画する。例えば、ルート計画部161は、グローバルマップに基づいて、現在位置から指定された目的地までのルートを設定する。また、例えば、ルート計画部161は、渋滞、事故、通行規制、工事等の状況、及び、運転者の体調等に基づいて、適宜ルートを変更する。ルート計画部161は、計画したルートを示すデータを行動計画部162等に供給する。
行動計画部162は、マップ解析部151及び状況予測部153等の移動体制御システム100の各部からのデータ又は信号に基づいて、ルート計画部161により計画されたルートを計画された時間内で安全に移動するための移動体の行動を計画する。例えば、行動計画部162は、発進、停止、進行方向(例えば、前進、後退、左折、右折、方向転換等)、移動速度、及び、追い越し等の計画を行う。行動計画部162は、計画した移動体の行動を示すデータを動作計画部163等に供給する。
より詳細には、行動計画部162は、それぞれルート計画部161により計画されたルートのそれぞれについて、計画された時間内で安全に移動するための移動体の行動計画の候補を行動計画候補として生成する。より具体的には、行動計画部162は、例えば、環境を格子状に区切って、到達判定および経路の重みを最適化して最良のパスを生成するA*algorithm(A star探索アルゴリズム)、道路中心線に従って経路を設定するLane algorithm、および、自己位置からインクリメンタルに到達可能な場所へのパスを適切に枝刈りしながら伸ばしていくRRT(Rapidly-exploring Random Tree) algorithmなどにより行動計画候補を生成する。
動作計画部163は、マップ解析部151及び状況予測部153等の移動体制御システム100の各部からのデータ又は信号に基づいて、行動計画部162により計画された行動を実現するための移動体の動作を計画する。例えば、動作計画部163は、加速、減速、及び、移動軌道等の計画を行う。動作計画部163は、計画した移動体の動作を示すデータを、動作制御部135等に供給する。
動作制御部135は、移動体の動作の制御を行う。
より詳細には、動作制御部135は、移動体外部情報検出部141、移動体内部情報検出部142、及び、移動体状態検出部143の検出結果に基づいて、衝突、接触、危険地帯への進入、運転者の異常、移動体の異常等の緊急事態の検出処理を行う。動作制御部135は、緊急事態の発生を検出した場合、急停止や急旋回等の緊急事態を回避するための移動体の動作を計画する。
また、動作制御部135は、動作計画部163により計画された移動体の動作を実現するための加減速制御を行う。例えば、動作制御部135は、計画された加速、減速、又は、急停止を実現するための駆動力発生装置又は制動装置の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
動作制御部135は、動作計画部163により計画された移動体の動作を実現するための方向制御を行う。例えば、動作制御部135は、動作計画部163により計画された移動軌道又は急旋回を実現するためのステアリング機構の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
<認識処理部の詳細な構成例>
次に、図4を参照して、図3の移動体制御システム100のうち、認識処理部31に対応する自律移動制御部110の認識処理部121と、その周辺の具体的な構成例について説明する。
尚、ここでは、移動体が車輪型移動ロボットからなる移動体11である例について説明するが、その他のロボットや車両などの移動体であってもよい。
センサ群112は、LIDAR201、車輪エンコーダ202、ステレオカメラ203、および内界センサ204を備えているものとする。当然のことながら、4足歩行ロボットや車両等であれば、その他のセンサを使用するようにしてもよい。
LIDAR201は、移動体11の周囲の物体までの距離を3次元点群データとして取得し、検出部131を介して、自己位置推定部132の時系列情報自己位置推定部221に時系列情報として出力する。
車輪エンコーダ202は、移動体11の位置情報(X,Y,Z)、姿勢(クォータニオン)、速度(dx,dy,dz)、加速度(ax,ay,az)、および角速度(wx,wy,wz)を検出し、検出部131を介して、時系列情報自己位置推定部221に時系列情報として出力する。
ステレオカメラ203は、移動体11の周囲の視差画像を撮像して、検出部131を介して、現在情報自己位置推定部223に現在情報として出力する。
内界センサ204は、加速度センサ、ジャイロセンサ、および地磁気センサなどの総称であり、移動体11の加速度、角度、角速度、および地磁気方向等を検出し、検出部131を介して、自己位置推定部132に出力する。
自己位置推定部132は、時系列情報自己位置推定部221、時系列情報DB222、現在情報自己位置推定部223、位置画像特徴量DB224、自己位置推定結果切替部225、自己姿勢検出部226、特徴量姿勢DB227、および姿勢変化検出部228を備えている。
時系列情報自己位置推定部221は、LIDAR201および車輪エンコーダ202より供給される、自己位置、および周囲の障害物の位置を表現する3次元点群データ等の時系列情報を時系列情報DB222に格納する。また、時系列情報自己位置推定部221は、時系列情報DB222より、過去から現在までの時系列情報を必要に応じて読み出し、読み出した過去から現在までの時系列情報に基づいて自己位置を推定し、自己位置推定結果切替部225に供給する。
尚、時系列情報自己位置推定部221による、SLAM(Simultaneous Localisation and Mapping)を用いた具体的な自己位置推定方法については、「拡張カルマンフィルタを用いた移動ロボットの自己位置推定と環境認識」森本祐介,正滑川徹、「Simultaneous Localisation and Mapping (SLAM): Part I The Essential Algorithms Hugh Durrant-Whyte, Fellow, IEEE, and Tim Bailey」、および「Simultaneous Localisation and Mapping (SLAM): Part II State of the Art Tim Bailey and Hugh Durrant-Whyte」を参照されたい。尚、時系列情報自己位置推定部221により時系列情報に基づいて推定される自己位置を時系列情報自己位置と称する。
現在情報自己位置推定部223は、ステレオカメラ203より供給される視差画像に基づいて、デプス画像(距離画像)を生成し、デプス画像より画像特徴量を抽出する。そして、現在情報自己位置推定部223は、位置と画像特徴量とが対応付けて記憶されている位置画像特徴量DB224より、抽出した特徴量に対応する位置の情報に基づいて、自己位置を推定し、自己位置推定結果切替部225に供給する。尚、現在情報自己位置推定部223により現在情報に基づいて推定される自己位置を現在情報自己位置と称する。
自己姿勢検出部226は、内界センサ204より供給される検出結果に基づいて、移動体11の自己の姿勢を検出して姿勢変化検出部228に出力する。
より詳細には、自己姿勢検出部226は、周波数成分抽出部271、特徴量抽出部272、および姿勢検出部273を備えている。
周波数成分抽出部271は、内界センサ204の検出結果に基づいて、移動体11の振動の周波数成分を、例えば、FFT(Fast Fourier Transform)により抽出し、特徴量抽出部272に出力する。
特徴量抽出部272は、周波数成分抽出部271より供給された移動体11の振動の周波数成分より特徴量を抽出して姿勢検出部273に出力する。
姿勢検出部273は、予め学習により特徴量と姿勢とが対応付けて登録されている特徴量姿勢DB227にアクセスし、抽出された特徴量に基づいて、対応付けて登録されている姿勢を抽出し、現在の移動体11の姿勢の情報として、姿勢変化検出部228に出力する。姿勢検出部273が特徴量に基づいて検出する姿勢の情報は、少なくとも通常歩行状態、抱き上げ、および静止状態の3種類の姿勢を含むものである。
より具体的には、移動体11が走行している状態と、突然持ち上げられてしまう、いわゆる、抱き上げ状態(kidnap状態)とは、例えば、鉛直方向の加速度と、その周波数解析結果であるパワースペクトルとに基づいて、識別することができる。
図5の上段は、鉛直方向の加速度を示しており、内界センサ204の出力が20Hzであるときの1.6秒分、すなわち、32要素のついての変位を示しており、横軸が時間であり、縦軸が加速度である。
また、図5の下段は、左からx方向(x)、y方向(y)、z(z)方向の加速度であり、x方向(rx)、y方向(ry)、z方向(zy)のそれぞれの回転速度のパワースペクトルであり、横軸が周波数(Hz:10Hz分ずつ)であり、縦軸がそれぞれのパワースペクトルである。ここでは、x,y方向が水平方向の座標系であり、z方向が垂直(鉛直)方向の座標系である。
さらに、図5の左部の上段および下段は、いずれも抱き上げ状態(kidnap状態)における波形を示しており、図5の右部の上段および下段は、いずれも走行状態における波形を示している。
図5の上段で示されるような波形に、FFTを用いた周波数解析が掛けられることにより、図5の下段で示されるような波形となる。
走行状態であるときには、図5の右上段で示されるように、鉛直方向の加速度には変化がないことが示されている。これに対して、抱き上げ状態ときには、図5の左上段で示されるように、0.4秒付近において小さくなった後、1.1秒乃至1.4秒の範囲で大きく変化している。
この結果、パワースペクトルにおいては、特に、鉛直方向であるz方向大きな変化が現れて、走行状態においては、全範囲において平均してほぼ1.0以下程度であるが、抱き上げ状態においては、2.5Hzまでの範囲では平均してほぼ2.5を超える大きな値となる。また、抱き上げ状態においては、x,y方向の2.5Hzまでの範囲において、平均してほぼ1.0以上となり、5Hz乃至10Hzまでの範囲において、平均がほぼ2.0以下となる。これに対して、走行状態においては、x,y方向の2.5Hzまでの範囲において、平均してほぼ2.0以上となり、5Hz乃至10Hzまでの範囲において、平均して1.0以下となる。
これにより、抱き上げ状態については、z方向に対して、2.5Hzまでの範囲でパワースペクトルが2.5以上で、x,y方向の2.5Hzまでの範囲において、平均してほぼ1.0以上となり、5Hz乃至10Hzまでの範囲において、平均がほぼ2.0以下となる。
すなわち、このような、x,y,z方向のそれぞれの周波数帯域ごとのパワースペクトルの分布が、抱き上げ状態の特徴量となる。
尚、姿勢の検出方法は、これ以外の方法でもよく、例えば、「加速度センサとジャイロセンサを用いたジェスチャ認識、板口貴司 金森務 片寄晴弘 佐藤宏介 井口征士著」および「ユーザの身体的特徴情報を用いた行動認識モデルの学習手法、前川卓也 渡部 晋治著」を参照されたい。
特徴量姿勢DB227には、このように特徴量と、姿勢とが対応付けて登録されている。そこで、姿勢検出部273は、特徴量姿勢DB227にアクセスし、周波数解析結果より得られる特徴量に対応付けて登録されている姿勢を検出する。
尚、特徴量姿勢DB227を生成する特徴量姿勢DB生成部301(図6)については、図6を参照して詳細を後述する。
姿勢変化検出部228は、自己姿勢検出部226より出力される姿勢情報を取得して、姿勢の変化の有無を検出し、検出結果を自己位置推定結果切替部225に出力する。より詳細には、姿勢変化検出部228は、移動体11の少なくとも通常歩行状態、抱き上げ、および静止状態の3種類の姿勢の変化を検出し、検出結果を自己位置推定結果切替部225に出力する。
自己位置推定結果切替部225は、時系列情報自己位置推定部221より供給される時系列情報自己位置と、現在情報自己位置推定部223より供給される現在情報自己位置とを切り替える、または、統合して自己位置推定結果として、状況分析部133に出力する。
また、自己位置推定結果切替部225は、姿勢変化判定部251を備えており、姿勢変化検出部228より姿勢の変化が検出されたことが通知されるか否かを判定し、姿勢の変化が検出されたことを通知されると、時系列情報DB222に格納されている時系列情報をリセットして全て消去する。
<特徴量姿勢DB生成部の構成例>
次に、図6を参照して、図4の特徴量姿勢DB227を生成する特徴量姿勢DB生成部301の構成例について説明する。
特徴量姿勢DB生成部301は、過去の姿勢がわかっている内界センサ204の検出結果が登録された姿勢DB302の情報に基づいて、姿勢毎に検出結果より抽出される特徴量との関係を学習して、特徴量姿勢DB227に登録する。
より詳細には、特徴量姿勢DB生成部301は、周波数成分抽出部311、特徴量抽出部312、および特徴量姿勢学習部313を備えている。
周波数成分抽出部311は、周波数成分抽出部271に対応する構成であり、過去の姿勢がわかっている内界センサ204の検出結果を姿勢DB302より読み出す。そして、周波数成分抽出部311は、読み出した検出結果である振動の周波数成分を、例えば、FFT(Fast Fourier Transform)を掛けることにより解析して抽出し、姿勢の情報と共に特徴量抽出部312に出力する。
特徴量抽出部312は、特徴量抽出部272に対応する構成であり、周波数成分抽出部311より供給される周波数成分より特徴量を抽出して、姿勢の情報と共に特徴量姿勢学習部313に出力する。
特徴量姿勢学習部313は、予めわかっている姿勢と対応する特徴量との関係を学習し、学習結果として得られた、姿勢と特徴量との関係を対応付けて、特徴量姿勢DB227に登録する。
<時系列情報自己位置推定処理>
次に、図7のフローチャートを参照して、時系列情報自己位置推定処理について説明する。
ステップS11において、LIDAR201は、移動体11の周囲の物体までの距離を3次元点群データとして取得し、検出部131を介して、自己位置推定部132の時系列情報自己位置推定部221に時系列情報として出力する。
ステップS12において、車輪エンコーダ202は、移動体11の位置情報、姿勢、速度、加速度、および角速度を検出し、検出部131を介して、時系列情報自己位置推定部221に時系列情報として出力する。
ステップS13において、時系列情報自己位置推定部221は、最新の時系列情報を取得し、時系列情報DB222に登録する。
ステップS14において、時系列情報自己位置推定部221は、時系列情報DB222に登録されている最新の時系列情報と、過去の時系列情報とから、例えば、SLAMにより自己位置を推定し、推定結果を時系列情報自己位置情報として自己位置推定結果切替部225に出力する。
ステップS15において、時系列情報自己位置推定部221は、処理の終了が指示されたか否かを判定し、終了ではない場合、処理は、ステップS11に戻る。
そして、ステップS15において、処理の終了が指示された場合、処理は、終了する。
以上の処理により、LIDAR201および車輪エンコーダ202により検出される時系列情報が順次検出されて、時系列情報DB206に順次蓄積されて、時系列に蓄積された過去から現在までの時系列に蓄積された時系列情報に基づいて、時系列情報自己位置が推定されて、繰り返し自己位置推定結果切替部225に出力される。
<現在情報自己位置推定処理>
次に、図8のフローチャートを参照して、現在情報自己位置推定処理について説明する。
ステップS31において、ステレオカメラ203は、移動体11の周囲の視差画像を撮像して、検出部131を介して、現在情報自己位置推定部223に現在情報として出力する。
ステップS32において、現在情報自己位置推定部223は、ステレオカメラ203より供給される視差画像に基づいて、デプス画像(距離画像)を生成する。
ステップS33において、現在情報自己位置推定部223は、生成したデプス画像より、画像特徴量を抽出する。
ステップS34において、現在情報自己位置推定部223は、位置と画像特徴量とが対応付けて記憶されている位置画像特徴量DB224より、抽出した画像特徴量に対応する位置の情報を検出することで自己位置を推定し、推定結果を現在情報自己位置として自己位置推定結果切替部225に供給する。
ステップS35において、現在情報自己位置推定部223は、処理の終了が指示されたか否かを判定し、終了ではない場合、処理は、ステップS31に戻る。
そして、ステップS35において、処理の終了が指示された場合、処理は、終了する。
以上の処理により、ステレオカメラ203により視差画像が現在情報として撮像され、現在情報としての視差画像よりデプス画像が生成され、生成されたデプス画像の画像特徴量が抽出されて、画像特徴量に対応付けて登録されている位置情報に基づいて、現在情報自己位置が推定され、繰り返し自己位置推定結果切替部225に出力される。
<姿勢変化検出処理>
次に、図9のフローチャートを参照して、姿勢変化検出処理について説明する。
ステップS51において、内界センサ204が、移動体11の加速度、角度、角速度、および地磁気方向等を検出し、検出部131を介して、自己位置推定部132の自己姿勢検出部226に出力する。
ステップS52において、自己姿勢検出部226の周波数成分抽出部271は、内界センサ204により検出された加速度、角度、角速度、および地磁気方向の検出結果に、FFTを掛けて周波数解析し、解析結果を特徴量抽出部272に出力する。
ステップS53において、特徴量抽出部272は、周波数解析結果より特徴量を抽出して、姿勢検出部273に出力する。
ステップS54において、姿勢検出部273は、図5を参照して説明したように、特徴量姿勢DB227にアクセスし、特徴量に基づいて、対応する姿勢の情報を検索して、検索結果を現在の姿勢として検出し、姿勢変化検出部228に出力する。
ステップS55において、姿勢変化検出部228は、自己姿勢検出部226より供給される、新たな現在の姿勢の情報を記憶すると共に、自己位置推定結果切替部225に通知する。
ステップS56において、姿勢変化検出部228は、自己姿勢検出部226より供給された、新たな現在の姿勢の情報と、直前までに記憶されていた姿勢の情報とを比較し、姿勢に変化が生じたか否かを判定する。
ステップS56において、直前までの姿勢と、現在の姿勢とが異なり変化が生じているとみなされた場合、処理は、ステップS57に進む。
ステップS57において、姿勢変化検出部228は、姿勢が変化したことを自己位置推定結果切替部225に通知する。
一方、ステップS56において、姿勢の変化が検出されない場合、ステップS57の処理がスキップされる。
ステップS58において、自己姿勢検出部226は、処理の終了が指示されたか否かを判定し、終了ではない場合、処理は、ステップS51に戻る。すなわち、終了が指示されるまで、ステップS51乃至S58の処理が繰り返されて、自己姿勢が検出されると共に、変化の有無が検出され続ける。
そして、ステップS58において、処理の終了が指示された場合、処理は、終了する。
以上の処理により、移動体11の姿勢が検出されると共に、検出された姿勢の情報が自己位置推定結果切替部225に通知される。また、検出された姿勢の情報が順次記憶され、検出された現在の姿勢の情報と直前までに記憶されている姿勢との比較により、姿勢が変化しているか否かが判定されて、姿勢変化が検出された場合、姿勢変化が検出されたことが、自己位置推定結果切替部225に通知される。
<自律移動制御処理>
次に、図10のフローチャートを参照して、図4の移動体制御システム100における自律移動制御処理について説明する。
ステップS71において、自己位置推定結果切替部225の姿勢変化判定部251は、姿勢変化検出処理により検出される、抱き上げ状態(kidnap状態)であることを示す姿勢に変化する姿勢変化が検出されたことが通知されたか否かを判定する。
ステップS71において、抱き上げ状態(kidnap状態)であることを示す姿勢に変化する姿勢変化が検出された場合、処理は、ステップS72に進む。
ステップS72において、自己位置推定結果切替部225は、移動体11を所定時間だけ停止するように行動制御処理部123に対して指示を出力する。これにより、行動制御処理部123は、アクチュエータ群113を制御して、所定時間だけ移動体11の動作を停止させる。
ステップS73において、自己位置推定結果切替部225は、所定時間が経過し、動作の停止が解除された後、時系列情報DB222に登録されている過去の時系列情報をリセットする。
尚、ステップS71において、姿勢変化が検出されていないとみなされた場合、ステップS72,S73の処理はスキップされる。すなわち、この場合、時系列情報DB222に登録されている過去の時系列情報は、リセットされることなく、登録された状態が維持される。また、抱き上げ状態が検出されると、過去の時系列情報を用いて自己位置を推定することができないので、時系列情報DB222に登録されている時系列情報の情報が全て消去されてリセットされる。
ステップS74において、自己位置推定結果切替部225は、時系列情報自己位置推定部221の推定結果である時系列情報自己位置を、自己位置推定結果として状況分析部133に出力する。
ステップS75において、状況分析部133は、自己位置の推定結果に基づいて、自己位置の周囲の状況を分析し、分析結果を行動計画処理部122に出力する。
ステップS76において、行動計画処理部122は、自己位置の推定結果に基づいた周囲の分析結果により、目的地までのルートを計画し、計画されたルートに基づいて、行動計画を決定し、アクチュエータ群113を制御するための動作計画を生成し、行動制御処理部123に出力する。
ステップS77において、行動制御処理部123は、動作計画部163より供給される動作計画に基づいて、アクチュエータ群113を制御する。
ステップS78において、自律移動制御部110は、終了が指示されたか否かを判定し、終了が指示されていない場合、処理は、ステップS71に戻る。すなわち、ステップS71乃至S78の処理が繰り返される。そして、ステップS78において、終了が指示された場合、処理は、終了する。
以上の処理により、外力の影響などにより抱き上げ状態になる姿勢変化が検出されていない場合は、時系列情報DB222に登録されている過去の時系列情報はリセットされることがないので、信頼性の高い現在から過去に至る全ての時系列情報を利用して推定される時系列情報自己位置が自己位置推定結果として出力される。
これに対して、外力の影響などにより抱き上げ状態になるという予め予測できない姿勢変化が検出された場合は、時系列情報DB222に登録されている、比較的信頼性の低い、過去の時系列情報がリセットされて消去され、抱き上げ状態に姿勢変化が検出されたタイミングの後のタイミングからの、比較的新しい時系列情報を利用して推定された時系列情報自己位置が自己位置推定結果として出力される。
すなわち、外力の影響などにより抱き上げ状態になるという予め予測できない姿勢変化の検出の有無により、過去から現在に至るまでの全ての時系列情報を用いて時系列情報自己位置を推定する第1の推定モデルと、抱き上げ状態になる姿勢変化が検出されたタイミングで時系列情報DB222がリセットされた後の比較的新しい時系列情報を用いて時系列情報自己位置を推定する第2の推定モデルとが切り替えられる。
このため、抱き上げ状態などの外力による姿勢の変化が検出されない場合には、時系列情報DB222に、過去から現在に至るまでの、時系列に連続性が高い時系列情報過去から現在に至るまでの時系列情報を用いて、高精度に時系列情報自己位置を推定することができる。
一方、抱き上げ状態などの予め予測できない姿勢の変化が検出された場合には、時系列情報DB222に登録される時系列情報がリセットされるので、抱き上げなどの外力などにより、直前までの自己位置が変化することで、使用することができない過去の時系列情報を除いた、比較的新しい、抱き上げ状態以降の信頼性の高い時系列情報に基づいて、時系列情報自己位置を推定することが可能となる。また、時系列情報DB222に登録される時系列情報は、リセット後も時間の経過に従って、徐々に増えることにより、信頼性が向上していく。
結果として、予め予測できない姿勢変化の有無によらず、信頼性の高い時系列情報自己位置を推定させることが可能となる。
尚、以上においては、姿勢変化として、いずれかの姿勢から抱き上げ状態が検出されるときに、時系列情報DB222がリセットされる例について説明してきたが、時系列情報DB222の時系列情報がリセットされるタイミングは、抱き上げ状態以外であってもよい。例えば、舗装道路、砂利道、雪道、雨でぬれている路面、階段、平面、線路不整備走行路などの路面状態を検出して、例えば、雪道、および砂利道などであるときの4足歩行ロボットにおける足裏接地面のスリップや、車輪型ロボットにおける車輪のスリップが検出されたタイミング、または、非固定物体の乗り降りが検出されたタイミングでもよい。また、センサの検出結果を統計処理することにより、検出結果の変化に基づいて、センサの異常を検出し、環境変化(電磁ノイズ、モノの影)により視野が狭くなる、または、無くなるなどが検出されるタイミングでもよい。さらに、移動体11が車両などの場合、カーフェリーボートに搭載されて移動することにより、乗船前後の自己位置や姿勢が所定値よりも大きく変化していることが検出されるタイミングでもよい。また、移動体11が車両などの場合であって、タイヤがパンクすることにより、エンジンが停止し、パンクの修理前後などで、自己位置や姿勢が所定値よりも大きく変化していることが検出されるタイミングでもよい。すなわち、自己位置や姿勢の、時系列の変化における連続性が低下する状況(連続性がなくなる状態)等の、予め事前に予測できない姿勢変化が検出されるタイミングであれば、他のタイミングであってもよい。
また、ステップS74においては、時系列情報自己位置推定部221により推定される時系列情報自己位置が自己位置として採用される例について説明してきたが、時系列情報自己位置と、現在情報自己位置との両方をカルマンフィルタや粒子フィルタなどにより統合した結果を、自己位置推定結果として出力するようにしてもよい。
さらに、以上においては、周波数成分の特徴量を利用して姿勢を検出する例について説明してきたが、姿勢を確率または確度にとして求めるようにしてもよい。この場合、複数の姿勢変化に対して、それぞれの確率あるいは確度に基づいた重みを利用して、それぞれの姿勢であるときの結果を、融合するようにしてもよい。
また、以上においては、移動体11が車輪型移動ロボットである場合に、時系列情報として、LIDAR201と車輪エンコーダ202により検出される情報を用い、現在情報としてステレオカメラ203により撮像される視差画像を用いる例について説明してきた。
しかしながら、時系列情報および現在情報については、これに限らず、移動体11の形態に合わせたものとしてもよい。すなわち、移動体11がドローンである場合には、時系列情報を、LIDARとIMU(慣性計測装置)や加速度センサにより検出される情報にして、現在情報をGNSSにより取得される情報にしてもよい。
また、移動体11が車両である場合には、時系列情報を、LIDARにより検出される情報にして、現在情報をGNSSにより取得される情報にしてもよい。
さらに、移動体11が多足歩行ロボットである場合には、時系列情報を、LIDAR、IMU(慣性計測装置)、およびアクチュエータに付属のセンサにより検出される情報にして、現在情報をステレオカメラ、IMU(慣性計測装置)、およびアクチュエータに付属のセンサにより取得される情報にしてもよい。
また、ステレオカメラに代えて、LIDAR、およびToFセンサを用いるようにしてもよい。
さらに、以上においては、自己姿勢検出部226による自己姿勢の検出には、内界センサ204(加速度センサとジャイロセンサとの組み合わせ)の検出結果が用いられ、現在情報自己位置推定部223における現在情報自己位置推定には、ステレオカメラ203による視差画像が用いられ、時系列情報自己位置推定部221における時系列情報自己位置推定には、LIDAR201と車輪エンコーダ202センシング結果が用いられてきた。
しかしながら、自己姿勢検出部226において、自己姿勢が検出でき、現在情報自己位置推定部223において現在情報自己位置推定ができ、時系列情報自己位置推定部221において時系列情報自己位置推定ができれば、それぞれに供給されるセンシング結果は他のセンサによる検出結果でもよい。
また、時系列情報自己位置推定部221、現在情報自己位置推定部223、および自己姿勢検出部226のそれぞれにLIDAR201のセンシング結果である、3次元点群情報が供給されるようにして、それぞれ3次元点群情報に基づいて、自己姿勢検出、現在情報自己位置推定、および時系列情報自己位置推定が実現されるようにしてもよい。さらに、時系列情報自己位置推定部221、現在情報自己位置推定部223、および自己姿勢検出部226にステレオカメラ203のセンシング結果である、視差画像が供給されるようにして、視差画像に基づいて、それぞれ自己姿勢検出、現在情報自己位置推定、および時系列情報自己位置推定が実現されるようにしてもよい。
<特徴量姿勢DB学習処理>
次に、図11のフローチャートを参照して、特徴量姿勢DB学習処理について説明する。
ステップS91において、周波数成分抽出部311は、過去の姿勢がわかっている内界センサ204の検出結果を姿勢DB302より読み出して、振動の周波数成分を、例えば、FFT(Fast Fourier Transform)により解析して特徴量抽出部312に出力する。
ステップS92において、特徴量抽出部312は、周波数成分抽出部311より供給される周波数成分より特徴量を抽出して特徴量姿勢学習部313に出力する。
ステップS93において、特徴量姿勢学習部313は、予めわかっている姿勢と対応する特徴量との関係を、例えば、ニューラルネットワークなどを利用して学習する。
ステップS94において、特徴量姿勢学習部313は、学習結果として得られた、姿勢と周波数成分の特徴量との関係を対応付けて、特徴量姿勢DB227に登録する。
以上の処理により、周波数成分の特徴量と姿勢とが対応付けられて特徴量姿勢DB227に登録される。結果として、周波数成分の特徴量から姿勢を検出することが可能となる。
<<3.第1の変形例>>
以上においては、外力の影響により自己位置が不定である場合においては、時系列情報DB222に登録されている時系列情報をリセットする例について説明してきたが、自己位置が不定となった直後においては時系列情報の信頼度が低いことが予想される。そこで、自己位置が不定となり、時系列情報をリセットした後は、時系列情報の信頼度が所定値より高くなるまでは、現在情報自己位置を自己位置推定結果として採用するようにしてもよい。
<第1の変形例の自律移動制御処理>
次に、図12のフローチャートを参照して、図4の移動体制御システム100における時系列情報の信頼度が所定値より高くなるまでは、現在情報自己位置を自己位置推定結果として採用するようにするようにした自律移動制御処理について説明する。
時系列情報の信頼度は、例えば、時系列情報として蓄積されている情報数に基づいて設定される値としてもよい。すなわち、時系列情報自己位置は、過去の情報から現在の情報までの複数の情報を用いることにより推定されるものであるので、自己位置推定の利用可能な情報数が信頼度の指標となる。
時系列情報の信頼度の別の例は、たとえば、時系列情報に基づいて算出した過去x秒間の自己位置推定の結果と、実際の過去x秒間の自己位置の距離差の時間平均の逆数としていもよい。
尚、図12のフローチャートにおけるステップS101乃至S108の処理は、図10のフローチャートにおけるステップS71乃至S78の処理と同様であるので、その説明は省略する。
ステップS101において、外力の影響により抱き上げ状態を示す姿勢に姿勢が変化したと判定された場合、換言すれば、予め予測できない姿勢変化が検出されたと判定された場合、処理は、ステップS109に進む。
ステップS109において、自己位置推定結果切替部225は、例えば、リセットがなされた後に、新たに時系列情報DB222に登録された時系列情報の情報数が所定数よりも多いか否かにより、時系列情報の信頼度が所定の閾値よりも高いか否かを判定する。
ステップS109において、時系列情報DB222に登録されている時系列情報の情報数が所定数よりも多く、信頼度が所定値よりも高いとみなされた場合、処理は、ステップS104に進む。
すなわち、この場合、時系列情報DB222に登録されている時系列情報に信頼度が所定値よりも高いので、ステップS104において、時系列情報自己位置が自己位置推定結果として採用される。
一方、ステップS109において、リセットが掛けられた直後に近いタイミングなどで、時系列情報DB222に登録されている時系列情報の情報数が所定数よりも少なく、信頼度が所定値よりも低いとみなされた場合、処理は、ステップS110に進む。
ステップS110において、自己位置推定結果切替部225は、現在情報自己位置推定部223の推定結果である現在情報自己位置を、自己位置推定結果として状況分析部133に出力する。
以上の処理により、外力の影響などにより抱き上げ状態になる姿勢変化が検出されていない場合は、時系列情報DB222に登録されている過去の時系列情報はリセットされることがないので、信頼性の高い現在から過去に至る全ての時系列情報を利用して推定される時系列情報自己位置が自己位置推定結果として出力される。
これに対して、外力の影響などにより抱き上げ状態になる姿勢変化が検出された場合は、時系列情報DB222に登録されている、比較的信頼性の低い、過去の時系列情報がリセットされて消去されると同時に、現在情報を利用して推定された現在情報自己位置が自己位置推定結果として出力される。
すなわち、外力の影響などにより抱き上げ状態になる姿勢変化の検出の有無により、過去から現在に至るまでの全ての時系列情報を用いて時系列情報自己位置を推定する第1の推定モデルと、抱き上げ状態になる姿勢変化が検出されたタイミング以降の現在情報を用いて現在情報自己位置を推定する第2の推定モデルとが切り替えられる。
このため、抱き上げ状態などの外力による姿勢の変化が検出されない場合には、時系列情報DB222に、過去から現在に至るまでの、時系列に連続性が高い時系列情報過去から現在に至るまでの時系列情報を用いて、高精度に時系列情報自己位置を推定することができる。
一方、抱き上げ状態などの外力による姿勢の変化が検出された場合には、信頼性の高い現在情報に基づいて、現在情報自己位置を推定することが可能となる。
さらに、時系列情報DB222に登録される時系列情報がリセットされた後、所定時間が経過して時系列情報が所定数よりも多く登録されて、信頼性が復帰すると、推定モデルは、過去から現在に至るまでの全ての時系列情報を用いて時系列情報自己位置を推定する第1の推定モデルに復帰する。
いずれにおいても、結果として、予め予測できない姿勢変化の有無によらず、信頼性の高い時系列情報自己位置を推定させることが可能となる。
すなわち、時系列情報DB222に登録された時系列情報がリセットされた後においても、信頼度が所定値よりも高い状態になるまでは、現在情報自己位置が自己位置推定結果として採用することが可能となり、信頼度の低い時系列情報に基づいた、自己位置推定結果による推定精度の極端な低下を防止することが可能となる。
尚、以上においては、時系列情報がリセットされた後は、時系列情報の信頼度が所定値よりも高い状態になるまで、現在情報自己位置が自己位置推定結果として採用する例について説明してきた。
しかしながら、時系列情報自己位置が、事前確率密度分布の観測値を最新の時系列情報により更新するステップを繰り返すカルマンフィルタが用いられて推定されるような場合、姿勢の変化が検出されたときに、最新の時系列情報の重みを最大にした後、通常のカルマンフィルタを用いて、時系列情報自己位置を推定するようにしてもよい。
また、時系列情報がリセットされた後は、時系列情報DB222に登録された時系列情報のうち、最新の時系列情報について推定される自己位置の重みを大きくし、古い時系列情報により推定される自己位置ほど重みを軽く小さくするようにして求めるようにしてもよい。この場合、重みが0になってしまうような時系列情報については、時系列情報DB222より削除するようにしてもよい。このようにすることで、人間などの記憶における忘却と類似した処理を実現することが可能となり、時系列情報DB222に登録される時系列情報を古いものから順に削除することが可能となり、自己位置の推定精度の低下を防止しつつ、時系列情報DB222に蓄積される時系列情報の情報量を適切に圧縮することが可能となる。
<<4.第2の変形例>>
以上においては、自己姿勢の変化が検出されたときに自己位置推定結果切替部225における動作を切り替える例について説明してきたが、動作モードを切り替えるようにしてもよい。
図13は、自律移動制御部110における動作モードの状態遷移を説明する図である。
自律移動制御部110における動作モードは、通常モードSt1、位置不定モードSt2、および現在情報自己位置推定モードSt3の3種類の動作モードからなる。
通常モードSt1は、時系列情報推定情報が、自己位置推定結果として採用される動作モードである。通常モードSt1においては、外力による姿勢の変化が検出されないときには、動作モードが、矢印C0で示されるように、通常モードSt1に戻る状態が継続される。また、通常モードSt1においては、外力による姿勢の変化が検出されるときには、矢印C1で示されるように、動作モードが、位置不定モードSt2に遷移する。
位置不定モードSt2は、自己位置が不定状態であることが通知され続ける動作モードである。位置不定モードSt2においては、所定の時間が経過すると、矢印C2で示されるように、動作モードが、現在情報自己位置推定モードSt3に遷移する。
現在情報自己位置推定モードSt3は、現在情報自己位置を自己位置推定結果として採用する動作モードである。現在情報自己位置推定モードSt3においては、所定時間が経過するまでは、矢印C4で示されるように、動作モードが、現在情報自己位置推定モードSt3に戻る状態が継続される。また、現在情報自己位置推定モードSt3においては、所定時間が経過すると、矢印C3で示されるように、動作モードが、通常モードに遷移し、元の状態に復帰する。また、現在情報自己位置推定モードにおいては、外力による姿勢の変化が検出されると、すなわち、予め予測できない姿勢変化が検出されると、矢印C4で示されるように、動作モードが、位置不定モードSt2に遷移する。
<第2の変形例の自律移動制御処理>
次に、図14のフローチャートを参照して、通常モード、位置不定モード、および現在情報自己位置推定モードの3種類の動作モードからなる自律移動制御部110における自律移動制御処理について説明する。
ステップS121において、自己位置推定結果切替部225は、通常モード処理を実行して、通常モードで動作する。尚、通常モード処理については、図15を参照して詳細を後述する。
ステップS122において、自己位置推定結果切替部225の姿勢変化判定部251は、姿勢変化検出処理により、例えば、抱き上げ状態(kidnap状態)であることを示す姿勢に変化する姿勢変化(予め予測できない姿勢変化)が検出されたことが通知されたか否かを判定する。
ステップS122において、姿勢変化(予め予測できない姿勢変化)が検出されていないとみなされた場合、処理は、ステップS125に進む。
ステップS125において、処理の終了が指示されたか否かが判定されて、終了が指示されない場合、処理は、ステップS121に戻る。また、ステップS122において、姿勢変化が検出されない場合、ステップS121,S122,S125の処理が繰り返されて、通常モードの動作状態が維持されて、通常モード処理が継続される。尚、ステップS125において、処理の終了が指示された場合、処理は、終了する。
<通常モード処理>
ここで、図15のフローチャートを参照して、通常モード処理について説明する。尚、図15のフローチャートにおけるステップS141乃至S144の処理は、図10のフローチャートにおけるステップS74乃至S78の処理と同様であるので、その説明は省略する。
すなわち、通常モード処理においては、時系列情報自己位置が、自己位置推定結果として出力される。
ここで、図14のフローチャートの説明に戻る。
ステップS122において、姿勢変化(予め予測できない姿勢変化)が検出されているとみなされた場合、動作モードは、通常モードから位置不定モードに変化して、処理は、ステップS123に進む。
ステップS123において、自律移動制御部110は、位置不定モード処理を実行して、位置不定モードで動作し、自己位置が不定であることが通知され続けることにより、動作が停止する。尚、位置不定モード処理については、図16のフローチャートを参照して詳細を後述する。
ステップS124において、動作モードが現在情報自己位置推定モードに遷移し、現在情報自己位置推定モード処理が実行されて、その後、ステップS125に進む。
ステップS125において、動作の終了が指示されたか否かが判定され、終了が指示されていない場合、処理は、ステップS121に戻る。すなわち、終了が指示されるまで、ステップS121乃至S125の処理が繰り返される。そして、ステップS125において、処理の終了が指示されると、処理が終了する。尚、現在情報自己位置推定モード処理については、図17を参照して詳細を後述する。
すなわち、動作モードは、通常モードSt1から開始され、姿勢の変化が検出されない限り、ステップS121,S122,S125の処理が繰り返されて、通常モード処理が実行され続ける。そして、ステップS122において、姿勢の変化(予め予測できない姿勢変化)が検出されると、動作モードが位置不定モードSt2に遷移して、ステップS123において、位置不定モード処理が実行される。そして、その後、動作モードが、現在情報自己位置推定モードSt3に遷移して、ステップS124において、現在情報自己位置推定モード処理が実行される。そして、終了が指示されない限り、動作モードは、再び、通常モードに遷移する。
<位置不定モード処理>
次に、図16のフローチャートを参照して、位置不定モード処理について説明する。
ステップS161において、自己位置推定結果切替部225は、姿勢変化に伴って自己位置が不定であることを行動制御処理部123に通知する。この通知に伴って、行動制御処理部123は、アクチュエータ群113を制御して、移動体11の動作を停止させる。
ステップS162において、自己位置推定結果切替部225は、所定時間が経過して、現在情報自己位置推定モードに遷移できる状態になったか否かを判定し、遷移できない場合、処理は、ステップS161に戻る。すなわち、所定時間が経過して、現在情報自己位置推定モードに遷移できる状態になるまで、ステップS161,S162の処理が繰り返される。
そして、ステップS162において、所定時間が経過して、現在情報自己位置推定モードに遷移できる状態になると、処理は、終了し、動作モードが、位置不定モードから現在情報自己位置推定モードに遷移する。
また、別の実施形態として、自己位置推定結果切替部225は、過去x秒間の姿勢の変化量を、センサ値等をもとに算出し、その姿勢変化量の時間平均が所定量を下回った時に、位置不定モードから現在情報自己位置推定モードに遷移できる状態とすることもできる。
さらに、別の実施形態として、自己位置推定結果切替部225は、過去X秒間の自己機体に対する重力方向の変化量を、センサ値等をもとに算出し、その変化量の時間平均が所定量を下回った時に、位置不定モードから現在情報自己位置推定モードに遷移できる状態とすることもできる。
以上の処理により、位置不定モードにおいては、所定の時間が経過するまで、自己位置推定結果が位置不定であることを通知する処理が繰り返される。そして、所定時間が経過して、現在情報自己位置推定モードに遷移できる状態になると動作モードが、現在情報自己位置推定モードに遷移する。
<現在情報自己位置推定モード処理>
次に、図17のフローチャートを参照して、現在情報自己位置推定モード処理について説明する。
ステップS181において、自己位置推定結果切替部225は、所定時間だけ動作の停止を行動制御処理部123に指示する。この指示に伴って、行動制御処理部123は、アクチュエータ群113を制御して、移動体11の動作を所定時間だけ停止させる。
ステップS182において、自己位置推定結果切替部225の姿勢変化判定部251は、姿勢変化検出処理により検出される、抱き上げ状態(kidnap状態)であることを示す姿勢への変化(予め予測できない姿勢変化)が検出されたか否かを判定する。
ステップS182において、抱き上げ状態(kidnap状態)であることを示す姿勢への姿勢変化(予め予測できない姿勢変化)が検出された場合、処理は、図14のステップS123に戻る。すなわち、動作モードが、現在情報自己位置推定モードから位置不定モードに戻り、処理は、ステップS123の位置不定モード処理に進む。
一方、ステップS182において、抱き上げ状態(kidnap状態)であることを示す姿勢に変化する姿勢変化(予め予測できない姿勢変化)が検出されない場合、処理は、ステップS183に進む。
ステップS183において、自己位置推定結果切替部225は、現在情報自己位置推定部223の推定結果である現在情報自己位置を、自己位置推定結果として状況分析部133に出力する。
ステップS184において、状況分析部133は、自己位置の推定結果に基づいて、自己位置の周囲の状況を分析し、分析結果を行動計画処理部122に出力する。
ステップS185において、行動計画処理部122は、自己位置の推定結果の周囲の分析結果により、目的地までのルートを計画し、計画されたルートに基づいて、行動計画を決定し、アクチュエータ群113を制御するための動作計画を生成し、アクチュエータ群113を制御するための動作計画を生成し、行動制御処理部123に出力する。
ステップS186において、行動制御処理部123は、動作計画部163より供給される動作計画に基づいて、アクチュエータ群113を制御する。
ステップS187において、自律移動制御部110は、所定時間が経過したか否かを判定し、所定時間が経過していない場合、処理は、ステップS182に戻る。すなわち、所定時間が経過するまで、ステップS182乃至S187の処理が繰り返される。そして、ステップS187において、所定時間が経過した場合、処理は、ステップS188に進む。
ステップS188において、自己位置推定結果切替部225は、時系列情報DB222に登録されている過去の時系列情報をリセットし、現在情報自己位置推定モード処理は、終了し、処理は、図14のステップS125に戻る。
以上の処理により、抱き上げ状態などの姿勢に変化する自己姿勢の変化(予め予測できない姿勢変化)が検出されたとき、動作モードを通常モードから、位置不定モードに切り替えることで、自己位置推定結果が位置不定であることが通知され、所定時間だけ動作を停止させた後、現在情報自己位置推定モードにして、所定時間だけ現在情報自己位置を自己位置推定結果として採用する。そして、所定時間が経過した後、時系列情報DB222に登録されている時系列情報をリセットさせることで、抱き上げ状態などの後にでも、適切に自己位置を推定しながら自律移動制御処理を継続することが可能となる。
<<5.第3の変形例>>
以上においては、抱き上げ状態、走行路が雪道や、走行路が砂利道であることによるスリップ、センサ異常を生じさせる環境変化(電磁ノイズ、モノの影)により視野が狭くなる、または、無くなるような自己姿勢の変化、すなわち、予め予測できない姿勢変化が検出されたときに自己位置推定結果切替部225における動作モードを、通常モードSt1、位置不定モードSt2、および現在情報自己位置推定モードSt3の3種類の動作モードに切り替えるようにする例について説明してきた。
しかしながら、予め予測できない自己姿勢の変化の種別は、さらに、人、物体、および他車などの衝突、パンクや部品欠け、部品や貨物落下などの不慮の故障などであってもよい。
図18は、予め予測できない自己姿勢の変化の種別が、さらに、人や物体や他車との衝突、パンクや部品欠けや部品や貨物落下などの不慮の故障などである場合の自律移動制御部110における動作モードの状態遷移を説明する図である。
自律移動制御部110における動作モードは、通常モードSt11、事故直後モードSt12、および制御回復モードSt13の3種類の動作モードからなる。
通常モードSt11は、図13の通常モードSt1と同様であり、時系列情報推定情報が、自己位置推定結果として採用される動作モードである。通常モードSt11においては、外力による姿勢の変化が検出されないときには、動作モードは、矢印C10で示されるように、通常モードSt1に戻る状態が継続される。また、通常モードSt11においては、予め予測できない姿勢の変化として、事故の発生が検出されると、矢印C11で示されるように、動作モードが、事故直後モードSt12に遷移する。
事故直後モードSt12は、事故直後の状態であり、時系列情報DB222の時系列情報がリセットされ、動作を停止させる動作モードである。事故直後モードSt12においては、所定の時間が経過すると、矢印C12で示されるように、動作モードが、制御回復モードSt13に遷移する。
制御回復モードSt13は、自己位置として現在情報自己位置を自己位置推定結果として採用する動作モードである。制御回復モードSt13においては、所定時間が経過するまでは、矢印C14で示されるように、動作モードが、制御回復モードSt13に戻る状態が継続される。また、制御回復モードSt13においては、所定時間が経過すると、矢印C13で示されるように、動作モードが、通常モードSt11に遷移し、元の状態に復帰する。
<第3の変形例の自律移動制御処理>
次に、図19のフローチャートを参照して、通常モード、事故直後モード、および制御回復モードの3種類の動作モードからなる自律移動制御部110における自律移動制御処理について説明する。
ステップS201において、自律移動制御部110は、通常モード処理を実行して、通常モードで動作する。尚、通常モード処理については、図15を参照して説明した処理と同様であるので、その説明は省略する。
ステップS202において、自己位置推定結果切替部225の姿勢変化判定部251は、姿勢変化検出処理により検出される、事故が発生しているような異常状態を示す姿勢に変化する姿勢変化(予め予測できない姿勢変化)が検出されたことが通知されたか否かを判定する。
ステップS202において、姿勢変化(予め予測できない姿勢変化)が検出されていないとみなされた場合、処理は、ステップS205に進む。
ステップS205において、処理の終了が指示されたか否かが判定されて、終了が指示されない場合、処理は、ステップS201に戻る。すなわち、事故が発生しているような異常状態を示す姿勢に変化する姿勢変化(予め予測できない姿勢変化)が検出されない限り、ステップS201,S202,S205の処理が繰り返されて、通常モードの動作状態が維持されて、通常モード処理が継続される。尚、ステップS205において、処理の終了が指示された場合、処理は、終了する。
ステップS202において、姿勢変化(予め予測できない姿勢変化)が検出されているとみなされた場合、動作モードは、通常モードから事故直後モードに変化して、処理は、ステップS203に進む。
ステップS203において、自律移動制御部110は、事故直後モード処理を実行して、事故直後モードで動作し、動作が停止されて、時系列情報DB222に登録された時系列情報がリセットされる。尚、事故直後モード処理については、図20を参照して詳細を後述する。
ステップS204において、動作モードが制御回復モード処理に遷移し、制御回復モードで動作し、その後、ステップS205に進む。制御回復モード処理においては、現在情報自己位置が自己位置推定結果として採用され、所定時間が経過した後、終了が指示されない限り、処理が、ステップS201に戻り、動作モードが、通常モードに復帰する。尚、制御回復モード処理については、図21を参照して詳細を後述する。
すなわち、動作モードは、通常モードSt11から開始され、予め予測できない、事故が発生しているような異常状態を示す姿勢の変化が検出されない限り、ステップS201,S202,S205の処理が繰り返されて、通常モード処理が実行され続ける。そして、ステップS202において、事故が発生しているような異常状態を示す姿勢の変化(予め予測できない姿勢変化)が検出されると、動作モードが事故直後モードSt12に遷移して、ステップS203において、事故直後モード処理が実行される。そして、その後、動作モードが、制御回復モードSt13に遷移して、ステップS204において、事故回復モード処理が実行される。そして、終了が指示されない限り、動作モードは、再び、通常モードに遷移する。
<事故直後モード処理>
次に、図20のフローチャートを参照して、事故直後モード処理について説明する。
ステップS211において、自己位置推定結果切替部225は、動作の停止を行動制御処理部123に指示する。この指示に伴って、行動制御処理部123は、アクチュエータ群113を制御して、移動体11の動作を停止させる。
ステップS212において、自己位置推定結果切替部225は、時系列情報DB222に登録されている時系列情報をリセットさせる。
ステップS213において、自己位置推定結果切替部225は、所定時間が経過して、制御回復モードに遷移できる状態になったか否かを判定し、所定時間が経過して、遷移できるまで、同様の処理を繰り返す。
そして、ステップS213において、所定時間が経過して、制御回復モードに遷移できる状態になると、処理は、終了し、動作モードが、事故直後モードから制御回復モードに遷移する。
また、別の実施形態として、自己位置推定結果切替部225は、過去x秒間の姿勢の変化量を、センサ値等をもとに算出し、その姿勢変化量の時間平均が所定量を下回った時に、事故直後モードから制御回復モードに遷移できる状態とすることもできる。
さらに、別の実施形態として、自己位置推定結果切替部225は、過去X秒間の自己機体に対する重力方向の変化量を、センサ値等をもとに算出し、その変化量の時間平均が所定量を下回った時に、事故直後モードから制御回復モードに遷移できる状態とすることもできる。
以上の処理により、事故直後モードにおいて、事故が発生した直後であるので、動作を停止させることが指示されることにより動作が停止され、時系列情報DB222の時系列情報がリセットされる。そして、所定時間が経過して、制御回復モードに遷移できる状態になると動作モードが、制御回復モードに遷移する。
<制御回復モード処理>
次に、図21のフローチャートを参照して、制御回復モード処理について説明する。尚、図21のフローチャートにおけるステップS221乃至S226の処理は、図17のステップS181,S183乃至S187の処理と同様であるので、その説明は省略する。
すなわち、図21の制御回復モードにおいては、所定時間が経過するまで、現在情報自己位置が自己位置推定結果として採用されて、動作モードが通常モードに復帰する。
結果として、予め予測できない、事故が発生するような姿勢の変化が検出されても、安全に動作を停止させた後、自己位置についても、現在情報自己位置が自己位置推定結果として採用されるので、事故の直後で、自律移動制御部110が復帰したタイミングにおいても、自己位置推定に用いるには精度が低いことが予想される時系列情報がリセットされて、現在情報自己位置が自己位置推定結果として採用されることにより、自己位置推定結果の精度の大きな低下を防止することが可能となる。
尚、姿勢の変化に基づいて検出される予め予測できない姿勢変化であれば、事故以外が検出される場合であってもよく、例えば、強風、地震、津波、第三者からの攻撃、車両が搭載されうる乗り物(例えば、カーフェリーボードなど)の加速度の変化、線路や道路のがたつきが検出される場合であってもよい。
この場合、動作モードを通常モードから事故直後モード、または、位置不定モードに遷移させ、以降において、制御回復モード、または、現在情報自己位置推定モードに遷移させた後、通常モードに遷移させるようにしてもよい。
<<6.ソフトウェアにより実行させる例>>
ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどに、記録媒体からインストールされる。
図22は、汎用のコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタフェース1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。
入出力インタフェース1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア1011に対してデータを読み書きするドライブ1010が接続されている。
CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア1011ら読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
尚、図22におけるCPU1001が、図3における自律移動制御部110の機能を実現させる。また、図22における記憶部1008が、図3における記憶部109を実現する。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
尚、本開示は、以下のような構成も取ることができる。
<1> センサ情報に基づいて、自己の姿勢を検出する自己姿勢検出部と、
前記自己姿勢検出部による検出結果に基づいて、予め予測できない姿勢の変化を検出する姿勢変化検出部と、
センサ情報に基づいて、第1の推定モデルにより自己位置を推定すると共に、前記姿勢変化検出部により、前記予め予測できない姿勢の変化が検出される場合、前記第1の推定モデルと異なる第2の推定モデルにより自己位置を推定する自己位置推定部とを含む
制御装置。
<2> 前記自己位置推定部は、
前記センサ情報を時系列情報として蓄積する時系列情報蓄積部と、
前記時系列情報蓄積部に蓄積された時系列情報を用いて、前記自己位置を推定し、推定結果を時系列情報自己位置として出力する時系列情報自己位置推定部を含み、
前記時系列情報蓄積部は、前記予め予測できない姿勢の変化が検出される場合、蓄積された過去の前記時系列情報がリセットされ、
前記時系列情報自己位置推定部は、
前記第1の推定モデルとして、前記時系列情報蓄積部に蓄積された時系列情報を用いて、前記自己位置を推定し、
前記第2の推定モデルとして、前記時系列情報蓄積部に蓄積された過去の時系列情報がリセットされた後の、前記時系列情報蓄積部に蓄積された時系列情報を用いて、前記自己位置を推定する
<1>に記載の制御装置。
<3> 前記時系列情報蓄積部に蓄積された過去の時系列情報は、前記リセットにより、所定の時間以上長く蓄積された時系列情報から削除される
<2>に記載の制御装置。
<4> 前記時系列情報自己位置推定部は、前記時系列情報蓄積部に蓄積された過去の時系列情報が前記リセットされた後、前記時系列情報蓄積部に蓄積された時間が長い前記時系列情報ほど、前記時系列情報により推定される自己位置の重みを軽くして、前記時系列情報自己位置を推定する
<2>に記載の制御装置。
<5> 前記自己位置推定部は、
事前確率密度分布の観測値を最新の時系列情報により更新するステップを繰り返すカルマンフィルタを用いて時系列情報自己位置を推定する時系列情報自己位置推定部を含み、
前記時系列情報自己位置推定部は、
前記第1の推定モデルとして、前記時系列情報自己位置を、事前確率密度分布の観測値を最新の時系列情報により更新するステップを繰り返すカルマンフィルタを用いて推定し、
前記第2の推定モデルとして、前記予め予測できない姿勢の変化が検出される場合、最新の前記時系列情報の重みを最大にした後、前記カルマンフィルタを用いて、前記時系列情報自己位置を推定する
<1>に記載の制御装置。
<6> 前記自己位置推定部は、
前記センサ情報によりセンシングされる時系列情報として蓄積する時系列情報蓄積部と、
前記時系列情報蓄積部に蓄積された時系列情報を用いて、前記自己位置を推定し、推定結果を時系列情報自己位置として出力する時系列情報自己位置推定部と、
前記センサ情報によりセンシングされる現在の情報である現在情報に基づいて、前記自己位置を推定し、現在情報自己位置として出力する現在情報自己位置推定部とを含み、
前記自己位置推定部は、
前記予め予測できない姿勢の変化が検出されない場合、前記時系列情報自己位置を自己位置推定結果として採用し、
前記予め予測できない姿勢の変化が検出された場合、前記現在情報自己位置を自己位置推定結果として採用する
<1>に記載の制御装置。
<7> 前記自己位置推定部は、
前記姿勢変化検出部の検出結果に応じて、動作モードを、少なくとも第1のモード、第2のモード、および第3のモードに遷移させ、
動作開始時において、前記動作モードは、第1のモードとされ、前記第1の推定モデルにより前記自己位置を推定し、
前記第1のモードにおいて、前記姿勢変化検出部により、前記予め予測できない姿勢の変化が検出される場合、前記動作モードを第2のモードに遷移させ、前記予め予測できない姿勢の変化が検出されたことを通知し、
前記第2のモードにおいて、所定時間が経過した後、前記動作モードを第3のモードに遷移させ、前記第2の推定モデルにより、前記自己位置を推定し、
前記第3のモードにおいて、所定時間が経過した後、前記動作モードを前記第1のモードに遷移させる
<1>に記載の制御装置。
<8> 前記自己位置推定部は、
前記センサ情報を時系列情報として蓄積する時系列情報蓄積部と、
前記時系列情報蓄積部に蓄積された時系列情報を用いて、前記自己位置を推定し、推定結果を時系列情報自己位置として出力する時系列情報自己位置推定部と、
前記センサ情報によりセンシングされる現在の情報である現在情報に基づいて、前記自己位置を推定し、現在情報自己位置として出力する現在情報自己位置推定部とを含み、
前記第1のモードにおいて、前記第1の推定モデルである、前記時系列情報蓄積部に蓄積された時系列情報を用いた、前記時系列情報自己位置推定部により推定された前記時系列情報自己位置を自己位置推定結果として採用し、
前記第3のモードにおいて、前記第2の推定モデルである、前記現在情報を用いた、前記現在情報自己位置推定部により推定された前記現在情報自己位置を自己位置推定結果として採用する
<7>に記載の制御装置。
<9> 前記予め予測できない姿勢の変化は、前記自己位置および姿勢の変化に連続性がなくなる状態への変化であり、
前記第1のモードは通常モードであり、前記第2のモードは自己位置不定モードであり、前記第3のモードは現在情報自己位置推定モードである
<8>に記載の制御装置。
<10> 前記動作モードが、前記第3のモードである、前記現在情報自己位置推定モードの場合、前記予め予測できない姿勢の変化が検出されたとき、前記自己位置推定部は、前記動作モードを、前記第2のモードである、前記自己位置不定モードに遷移させる
<9>に記載の制御装置。
<11> 前記自己位置および姿勢の変化に連続性がなくなる状態は、キッドナップ状態、足裏接地面及び車輪のスリップ状態、非固定物体の乗り降りおよびセンサ異常状態を含む
<9>に記載の制御装置。
<12> 前記予め予測できない姿勢の変化は、事故発生状態への変化であり、
前記第1のモードは通常モードであり、前記第2のモードは事故直後モードであり、前記第3のモードは制御回復モードである
<8>に記載の制御装置。
<13> 前記事故発生状態は、人、物体、および他機・他車との衝突、パンク、部品欠け、部品および貨物落下状態を含む
<12>に記載の制御装置。
<14> 前記時系列情報は、LIDARにより検出される3次元点群情報、および車輪エンコーダにより検出される位置情報、姿勢、速度、加速度、および角速度であり、
時系列情報自己位置推定部は、前記時系列情報に基づいて、カルマンフィルタまたは粒子フィルタを用いて、前記自己位置を推定し、推定結果を時系列情報自己位置として出力し、
前記現在情報は、ステレオカメラにより撮像される視差画像であり、
現在情報自己位置推定部は、前記視差画像よりデプス画像を生成し、前記デプス画像より画像特徴量を抽出して、前記画像特徴量に基づいて自己位置を推定し、推定結果を現在情報自己位置として出力する
<8>に記載の制御装置。
<15> 前記自己姿勢検出部が前記自己の姿勢を検出する際に使用する前記センサ情報は、鉛直方向の加速度を含み、
前記自己姿勢検出部は、
前記鉛直方向の加速度の変化の周波数成分を抽出する周波数成分抽出部と、
前記周波数成分抽出部により抽出された周波数成分より特徴量を抽出する特徴量抽出部と、
前記特徴量に基づいて、前記自己の姿勢を検出する姿勢検出部とを含む
<1>乃至<14>の少なくともいずれかに記載の制御装置。
<16> 既知の姿勢に対するセンサ情報に基づいて、学習により、前記姿勢と、前記周波数成分の特徴量とが対応付けられた状態で登録されたデータベースをさらに含み、
前記姿勢検出部は、前記特徴量に基づいて、前記データベースより、対応する姿勢を検索することにより、前記姿勢を検出する
<15>に記載の制御装置。
<17> 前記データベースは、前記既知の姿勢に対するセンサ情報に基づいて、ニューラルネットワークを用いた学習により、前記姿勢と、前記周波数成分の特徴量とが対応付けられた状態で登録される
<16>に記載の制御装置。
<18> センサ情報に基づいて、自己の姿勢を検出する自己姿勢検出処理と、
前記自己姿勢検出処理による検出結果に基づいて、予め予測できない姿勢の変化を検出する姿勢変化検出処理と、
センサ情報に基づいて、第1の推定モデルにより自己位置を推定すると共に、前記姿勢変化検出処理により、前記予め予測できない姿勢への変化が検出される場合、前記第1の推定モデルと異なる第2の推定モデルにより自己位置を推定する自己位置推定処理とを含む
制御方法。
<19> センサ情報に基づいて、自己の姿勢を検出する自己姿勢検出部と、
前記自己姿勢検出部による検出結果に基づいて、予め予測できない姿勢の変化を検出する姿勢変化検出部と、
センサ情報に基づいて、第1の推定モデルにより自己位置を推定すると共に、前記姿勢変化検出部により、前記予め予測できない姿勢の変化が検出される場合、前記第1の推定モデルと異なる第2の推定モデルにより自己位置を推定する自己位置推定部と
してコンピュータを機能させるプログラム。
<20> センサ情報に基づいて、自己の姿勢を検出する自己姿勢検出部と、
前記自己姿勢検出部による検出結果に基づいて、予め予測できない姿勢の変化を検出する姿勢変化検出部と、
センサ情報に基づいて、第1の推定モデルにより自己位置を推定すると共に、前記姿勢変化検出部により、前記予め予測できない姿勢の変化が検出される場合、前記第1の推定モデルと異なる第2の推定モデルにより自己位置を推定する自己位置推定部と、
前記自己位置推定部により推定された自己位置の周辺の状況に基づいて、行動計画を生成する行動計画生成部と、
前記行動計画生成部により決定された行動計画に基づいて移動体の動作を制御する制御部と
を含む移動体。
11 移動体, 21 センサ群, 21a,21a−1乃至21a−n センサ, 22 自律移動制御部, 23 アクチュエータ群, 23a,23a−1乃至23a−n アクチュエータ, 31 認識処理部, 32 行動計画処理部, 33 行動制御処理部, 41 ルート計画部, 42 行動計画部, 43 動作計画部, 102 データ取得部, 105 出力制御部, 106 出力部, 107 駆動系制御部, 108 駆動系システム, 110 自律移動制御部, 112 センサ群, 113 アクチュエータ群, 121 認識処理部, 122 行動計画処理部, 123 行動制御処理部, 134 計画部, 161 ルート計画部, 162 行動計画部, 163 動作計画部, 201 LIDAR, 202 車輪エンコーダ, 203 ステレオカメラ, 204 内界センサ, 221 時系列情報自己位置推定部, 222 時系列情報DB, 223 現在情報自己位置推定部, 224 位置画像特徴量DB, 225 自己位置推定結果切替部, 226 自己姿勢検出部, 227 特徴量姿勢DB, 228 姿勢変化検出部, 251 姿勢変化判定部, 271 周波数成分抽出部, 272 特徴量抽出部, 273 姿勢検出部

Claims (20)

  1. センサ情報に基づいて、自己の姿勢を検出する自己姿勢検出部と、
    前記自己姿勢検出部による検出結果に基づいて、予め予測できない姿勢の変化を検出する姿勢変化検出部と、
    センサ情報に基づいて、第1の推定モデルにより自己位置を推定すると共に、前記姿勢変化検出部により、前記予め予測できない姿勢の変化が検出される場合、前記第1の推定モデルと異なる第2の推定モデルにより自己位置を推定する自己位置推定部とを含む
    制御装置。
  2. 前記自己位置推定部は、
    前記センサ情報を時系列情報として蓄積する時系列情報蓄積部と、
    前記時系列情報蓄積部に蓄積された時系列情報を用いて、前記自己位置を推定し、推定結果を時系列情報自己位置として出力する時系列情報自己位置推定部を含み、
    前記時系列情報蓄積部は、前記予め予測できない姿勢の変化が検出される場合、蓄積された過去の前記時系列情報がリセットされ、
    前記時系列情報自己位置推定部は、
    前記第1の推定モデルとして、前記時系列情報蓄積部に蓄積された時系列情報を用いて、前記自己位置を推定し、
    前記第2の推定モデルとして、前記時系列情報蓄積部に蓄積された過去の時系列情報がリセットされた後の、前記時系列情報蓄積部に蓄積された時系列情報を用いて、前記自己位置を推定する
    請求項1に記載の制御装置。
  3. 前記時系列情報蓄積部に蓄積された過去の時系列情報は、前記リセットにより、所定の時間以上長く蓄積された時系列情報から削除される
    請求項2に記載の制御装置。
  4. 前記時系列情報自己位置推定部は、前記時系列情報蓄積部に蓄積された過去の時系列情報が前記リセットされた後、前記時系列情報蓄積部に蓄積された時間が長い前記時系列情報ほど、前記時系列情報により推定される自己位置の重みを軽くして、前記時系列情報自己位置を推定する
    請求項2に記載の制御装置。
  5. 前記自己位置推定部は、
    事前確率密度分布の観測値を最新の時系列情報により更新するステップを繰り返すカルマンフィルタを用いて時系列情報自己位置を推定する時系列情報自己位置推定部を含み、
    前記時系列情報自己位置推定部は、
    前記第1の推定モデルとして、前記時系列情報自己位置を、事前確率密度分布の観測値を最新の時系列情報により更新するステップを繰り返すカルマンフィルタを用いて推定し、
    前記第2の推定モデルとして、前記予め予測できない姿勢の変化が検出される場合、最新の前記時系列情報の重みを最大にした後、前記カルマンフィルタを用いて、前記時系列情報自己位置を推定する
    請求項1に記載の制御装置。
  6. 前記自己位置推定部は、
    前記センサ情報によりセンシングされる時系列情報として蓄積する時系列情報蓄積部と、
    前記時系列情報蓄積部に蓄積された時系列情報を用いて、前記自己位置を推定し、推定結果を時系列情報自己位置として出力する時系列情報自己位置推定部と、
    前記センサ情報によりセンシングされる現在の情報である現在情報に基づいて、前記自己位置を推定し、現在情報自己位置として出力する現在情報自己位置推定部とを含み、
    前記自己位置推定部は、
    前記予め予測できない姿勢の変化が検出されない場合、前記時系列情報自己位置を自己位置推定結果として採用し、
    前記予め予測できない姿勢の変化が検出された場合、前記現在情報自己位置を自己位置推定結果として採用する
    請求項1に記載の制御装置。
  7. 前記自己位置推定部は、
    前記姿勢変化検出部の検出結果に応じて、動作モードを、少なくとも第1のモード、第2のモード、および第3のモードに遷移させ、
    動作開始時において、前記動作モードは、前記第1のモードとされ、前記第1の推定モデルにより前記自己位置を推定し、
    前記第1のモードにおいて、前記姿勢変化検出部により、前記予め予測できない姿勢の変化が検出される場合、前記動作モードを第2のモードに遷移させ、前記予め予測できない姿勢の変化が検出されたことを通知し、
    前記第2のモードにおいて、所定時間が経過した後、前記動作モードを第3のモードに遷移させ、前記第2の推定モデルにより、前記自己位置を推定し、
    前記第3のモードにおいて、所定時間が経過した後、前記動作モードを前記第1のモードに遷移させる
    請求項1に記載の制御装置。
  8. 前記自己位置推定部は、
    前記センサ情報を時系列情報として蓄積する時系列情報蓄積部と、
    前記時系列情報蓄積部に蓄積された時系列情報を用いて、前記自己位置を推定し、推定結果を時系列情報自己位置として出力する時系列情報自己位置推定部と、
    前記センサ情報によりセンシングされる現在の情報である現在情報に基づいて、前記自己位置を推定し、現在情報自己位置として出力する現在情報自己位置推定部とを含み、
    前記第1のモードにおいて、前記第1の推定モデルである、前記時系列情報蓄積部に蓄積された時系列情報を用いた、前記時系列情報自己位置推定部により推定された前記時系列情報自己位置を自己位置推定結果として採用し、
    前記第3のモードにおいて、前記第2の推定モデルである、前記現在情報を用いた、前記現在情報自己位置推定部により推定された前記現在情報自己位置を自己位置推定結果として採用する
    請求項7に記載の制御装置。
  9. 前記予め予測できない姿勢の変化は、前記自己位置および姿勢の変化に連続性がなくなる状態への変化であり、
    前記第1のモードは通常モードであり、前記第2のモードは自己位置不定モードであり、前記第3のモードは現在情報自己位置推定モードである
    請求項8に記載の制御装置。
  10. 前記動作モードが、前記第3のモードである、前記現在情報自己位置推定モードの場合、前記予め予測できない姿勢の変化が検出されたとき、前記自己位置推定部は、前記動作モードを、前記第2のモードである、前記自己位置不定モードに遷移させる
    請求項9に記載の制御装置。
  11. 前記自己位置および姿勢の変化に連続性がなくなる状態は、キッドナップ状態、足裏接地面及び車輪のスリップ状態、非固定物体の乗り降りおよびセンサ異常状態を含む
    請求項9に記載の制御装置。
  12. 前記予め予測できない姿勢の変化は、事故発生状態への変化であり、
    前記第1のモードは通常モードであり、前記第2のモードは事故直後モードであり、前記第3のモードは制御回復モードである
    請求項8に記載の制御装置。
  13. 前記事故発生状態は、人、物体、および他機・他車との衝突、パンク、部品欠け、部品および貨物落下状態を含む
    請求項12に記載の制御装置。
  14. 前記時系列情報は、LIDARにより検出される3次元点群情報、および車輪エンコーダにより検出される位置情報、姿勢、速度、加速度、および角速度であり、
    時系列情報自己位置推定部は、前記時系列情報に基づいて、カルマンフィルタまたは粒子フィルタを用いて、前記自己位置を推定し、推定結果を時系列情報自己位置として出力し、
    前記現在情報は、ステレオカメラにより撮像される視差画像であり、
    現在情報自己位置推定部は、前記視差画像よりデプス画像を生成し、前記デプス画像より画像特徴量を抽出して、前記画像特徴量に基づいて自己位置を推定し、推定結果を現在情報自己位置として出力する
    請求項8に記載の制御装置。
  15. 前記自己姿勢検出部が前記自己の姿勢を検出する際に使用する前記センサ情報は、鉛直方向の加速度を含み、
    前記自己姿勢検出部は、
    前記鉛直方向の加速度の変化の周波数成分を抽出する周波数成分抽出部と、
    前記周波数成分抽出部により抽出された周波数成分より特徴量を抽出する特徴量抽出部と、
    前記特徴量に基づいて、前記自己の姿勢を検出する姿勢検出部とを含む
    請求項1に記載の制御装置。
  16. 既知の姿勢に対するセンサ情報に基づいて、学習により、前記姿勢と、前記周波数成分の特徴量とが対応付けられた状態で登録されたデータベースをさらに含み、
    前記姿勢検出部は、前記特徴量に基づいて、前記データベースより、対応する姿勢を検索することにより、前記姿勢を検出する
    請求項15に記載の制御装置。
  17. 前記データベースは、前記既知の姿勢に対するセンサ情報に基づいて、ニューラルネットワークを用いた学習により、前記姿勢と、前記周波数成分の特徴量とが対応付けられた状態で登録される
    請求項16に記載の制御装置。
  18. センサ情報に基づいて、自己の姿勢を検出する自己姿勢検出処理と、
    前記自己姿勢検出処理による検出結果に基づいて、予め予測できない姿勢の変化を検出する姿勢変化検出処理と、
    センサ情報に基づいて、第1の推定モデルにより自己位置を推定すると共に、前記姿勢変化検出処理により、前記予め予測できない姿勢の変化が検出される場合、前記第1の推定モデルと異なる第2の推定モデルにより自己位置を推定する自己位置推定処理とを含む
    制御方法。
  19. センサ情報に基づいて、自己の姿勢を検出する自己姿勢検出部と、
    前記自己姿勢検出部による検出結果に基づいて、予め予測できない姿勢の変化を検出する姿勢変化検出部と、
    センサ情報に基づいて、第1の推定モデルにより自己位置を推定すると共に、前記姿勢変化検出部により、前記予め予測できない姿勢の変化が検出される場合、前記第1の推定モデルと異なる第2の推定モデルにより自己位置を推定する自己位置推定部と
    してコンピュータを機能させるプログラム。
  20. センサ情報に基づいて、自己の姿勢を検出する自己姿勢検出部と、
    前記自己姿勢検出部による検出結果に基づいて、予め予測できない姿勢の変化を検出する姿勢変化検出部と、
    センサ情報に基づいて、第1の推定モデルにより自己位置を推定すると共に、前記姿勢変化検出部により、前記予め予測できない姿勢の変化が検出される場合、前記第1の推定モデルと異なる第2の推定モデルにより自己位置を推定する自己位置推定部と、
    前記自己位置推定部により推定された自己位置の周辺の状況に基づいて、行動計画を生成する行動計画生成部と、
    前記行動計画生成部により決定された行動計画に基づいて移動体の動作を制御する制御部と
    を含む移動体。
JP2019558116A 2017-12-05 2018-11-21 制御装置、および制御方法、プログラム、並びに移動体 Active JP7180612B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017233094 2017-12-05
JP2017233094 2017-12-05
PCT/JP2018/042921 WO2019111701A1 (ja) 2017-12-05 2018-11-21 制御装置、および制御方法、プログラム、並びに移動体

Publications (2)

Publication Number Publication Date
JPWO2019111701A1 true JPWO2019111701A1 (ja) 2020-11-26
JP7180612B2 JP7180612B2 (ja) 2022-11-30

Family

ID=66750936

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019558116A Active JP7180612B2 (ja) 2017-12-05 2018-11-21 制御装置、および制御方法、プログラム、並びに移動体

Country Status (5)

Country Link
US (1) US11592829B2 (ja)
EP (1) EP3722904B1 (ja)
JP (1) JP7180612B2 (ja)
KR (1) KR102625488B1 (ja)
WO (1) WO2019111701A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7175216B2 (ja) * 2019-02-15 2022-11-18 ルネサスエレクトロニクス株式会社 異常検知装置、異常検知システム、異常検知方法
EP3966598A4 (en) * 2019-05-07 2022-12-21 Nokia Technologies OY PRIVACY MANAGEMENT
JP7385388B2 (ja) 2019-07-22 2023-11-22 株式会社ダイヘン 自己位置推定装置
JP2021060669A (ja) * 2019-10-03 2021-04-15 ソニー株式会社 情報処理装置、情報処理方法、情報処理システム及びプログラム
FR3106665B1 (fr) * 2020-01-27 2022-02-18 Continental Automotive Procédé et dispositif de localisation d’un véhicule
US11833661B2 (en) * 2020-10-31 2023-12-05 Google Llc Utilizing past contact physics in robotic manipulation (e.g., pushing) of an object
KR102434973B1 (ko) * 2020-11-06 2022-08-22 한국항공우주연구원 우주탐사장비의 이상 검출 방법
CN112687173B (zh) * 2020-12-25 2022-06-21 安徽机电职业技术学院 一种基于主被动安全协同优化的汽车碰撞演示平台
US20220315041A1 (en) * 2021-03-30 2022-10-06 Ghost Locomotion Inc. Scheduling state transitions in an autonomous vehicle
JP7156445B1 (ja) 2021-05-18 2022-10-19 三菱電機株式会社 携帯端末、歩行ロボット、プログラム、および位置演算支援方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010079869A (ja) * 2008-08-25 2010-04-08 Murata Machinery Ltd 自律移動装置
JP2010152787A (ja) * 2008-12-26 2010-07-08 Fujitsu Ltd 環境地図生成プログラム、環境地図生成方法及び移動ロボット
JP2017134617A (ja) * 2016-01-27 2017-08-03 株式会社リコー 位置推定装置、プログラム、位置推定方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5239467Y2 (ja) 1971-03-31 1977-09-07
US7103460B1 (en) 1994-05-09 2006-09-05 Automotive Technologies International, Inc. System and method for vehicle diagnostics
US7162056B2 (en) * 2002-08-16 2007-01-09 Evolution Robotics, Inc. Systems and methods for the automated sensing of motion in a mobile robot using visual data
US7689321B2 (en) * 2004-02-13 2010-03-30 Evolution Robotics, Inc. Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system
KR101297388B1 (ko) * 2006-06-16 2013-08-19 삼성전자주식회사 위치 보정 기능을 제공하는 이동 장치 및 위치 보정 방법
KR100941418B1 (ko) * 2007-03-20 2010-02-11 삼성전자주식회사 이동 로봇의 위치 인식 방법
BRPI0910450A2 (pt) * 2008-04-24 2016-07-19 Evolution Robotics Inc limpador robótico
CN101509781B (zh) * 2009-03-20 2011-09-14 同济大学 基于单目摄像头的步行机器人定位系统
US9014848B2 (en) 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
JP2013045298A (ja) 2011-08-24 2013-03-04 Hitachi Plant Technologies Ltd 無人搬送車
US20140031980A1 (en) * 2011-11-11 2014-01-30 Jens-Steffen Gutmann Systems and methods for extending slam to multiple regions

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010079869A (ja) * 2008-08-25 2010-04-08 Murata Machinery Ltd 自律移動装置
JP2010152787A (ja) * 2008-12-26 2010-07-08 Fujitsu Ltd 環境地図生成プログラム、環境地図生成方法及び移動ロボット
JP2017134617A (ja) * 2016-01-27 2017-08-03 株式会社リコー 位置推定装置、プログラム、位置推定方法

Also Published As

Publication number Publication date
EP3722904A4 (en) 2021-01-06
EP3722904A1 (en) 2020-10-14
JP7180612B2 (ja) 2022-11-30
EP3722904B1 (en) 2022-06-01
KR20200090777A (ko) 2020-07-29
KR102625488B1 (ko) 2024-01-17
US11592829B2 (en) 2023-02-28
WO2019111701A1 (ja) 2019-06-13
US20200387162A1 (en) 2020-12-10

Similar Documents

Publication Publication Date Title
JP7180612B2 (ja) 制御装置、および制御方法、プログラム、並びに移動体
JP7151725B2 (ja) 制御装置、および制御方法、プログラム、並びに移動体
US11537131B2 (en) Control device, control method, and mobile body
JP7180670B2 (ja) 制御装置、制御方法、並びにプログラム
WO2020226085A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US11014494B2 (en) Information processing apparatus, information processing method, and mobile body
JP7257737B2 (ja) 情報処理装置、自己位置推定方法、及び、プログラム
WO2020250725A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
US20200278208A1 (en) Information processing apparatus, movable apparatus, information processing method, movable-apparatus control method, and programs
US11812197B2 (en) Information processing device, information processing method, and moving body
WO2019203022A1 (ja) 移動体、情報処理装置、情報処理方法、及びプログラム
US20200230820A1 (en) Information processing apparatus, self-localization method, program, and mobile body
US11500386B2 (en) Control apparatus, control method, program, and mobile object
JP7192771B2 (ja) 情報処理装置、情報処理方法、プログラム、及び、車両
WO2021187299A1 (ja) 情報処理装置、情報処理方法およびプログラム
WO2019176278A1 (ja) 情報処理装置、情報処理方法、プログラム、及び移動体
JPWO2019049710A1 (ja) 信号処理装置、および信号処理方法、プログラム、並びに移動体
WO2021140916A1 (ja) 移動体、情報処理装置、情報処理方法、及びプログラム
JPWO2020116204A1 (ja) 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221031

R151 Written notification of patent or utility model registration

Ref document number: 7180612

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151