JP3653212B2 - Moving object motion control data generation apparatus and method - Google Patents

Moving object motion control data generation apparatus and method Download PDF

Info

Publication number
JP3653212B2
JP3653212B2 JP2000235352A JP2000235352A JP3653212B2 JP 3653212 B2 JP3653212 B2 JP 3653212B2 JP 2000235352 A JP2000235352 A JP 2000235352A JP 2000235352 A JP2000235352 A JP 2000235352A JP 3653212 B2 JP3653212 B2 JP 3653212B2
Authority
JP
Japan
Prior art keywords
data
environment
moving object
abstract
environment data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000235352A
Other languages
Japanese (ja)
Other versions
JP2002049424A (en
Inventor
憲三 岩間
Original Assignee
憲三 岩間
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 憲三 岩間 filed Critical 憲三 岩間
Priority to JP2000235352A priority Critical patent/JP3653212B2/en
Publication of JP2002049424A publication Critical patent/JP2002049424A/en
Application granted granted Critical
Publication of JP3653212B2 publication Critical patent/JP3653212B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、移動物体の動作制御データ生成方法に関し、特に、動作制御データの生成手法に関する。
【0002】
【従来技術および発明が解決しようとする課題】
従来、ロボットの動作プログラミングを簡易にするために、種々の試みがなされている。その一つとして、特開平6−214645号公報には、途中に種々の障害物が散在していても、任意の走行パターンを学習させて、そのパターン通りに走行させることができるロボットの学習方法が開示されている。簡単に説明する。学習モードに切り換えて、ロボットを実際に動作させ、動作開始からストップキーを押すまでの障害物との距離および指示した方向を記憶装置に記憶する。自動走行モードに切り換えて、前記記憶装置のデータを順次読み出し、その読み出した方向及び距離と、方向測定手段による測定方向及び距離測定手段による測定距離とを比較しながら走行させるというものである。かかる学習方式により、ロボットへのプログラミングが不要となる。
【0003】
しかしながら、上記制御方法においては、以下のような問題があった。センシング内容と動作指示をそのままの形で記憶すると周りの環境が少し異なるだけで、記憶したセンシング内容と一致しなくなり、動作を再現できない。かかる問題を解決するために、異なる環境ごとに全データを記憶することも考えられるが、これでは、膨大な記憶容量が必要となる。
【0004】
かかる問題はロボットを自走させる場合だけでなく、ゲームにおけるキャラクターの動きについても同様である。
【0005】
この発明は上記問題を解決し、移動物体の動作プログラミングを簡易にすることができる移動物体の動作学習方法または移動物体の動作決定装置を提供することを目的とする。
【0006】
【課題を解決するための手段および発明の効果】
1)本発明にかかる移動物体動作制御データ生成装置においては、移動物体の動作を人間が用いる環境特定単語で制御するために、前記移動物体の動作制御用のデータを生成する移動物体動作制御データ生成装置であって、B)前記移動物体は、b1)操作者から前記移動物体を前記環境下にて移動させる移動命令が与えられると、当該移動命令に基づいて、前記移動物体を移動させる駆動手段、b2)所定時間毎に前記移動物体の方向別周辺環境データの集合である集合環境データを計測する集合環境データ計測手段を備え、C)移動物体動作制御データ生成装置移動物体動作制御データ生成装置は、c1)前記集合環境データ計測手段が計測した前記所定時間ごとの集合環境データを、前記移動物体の動作データとともに記憶する第1の記憶手段、c2)前記移動中に操作者から当該環境を表す環境特定単語が与えられると、前記集合環境データに付加して記憶させる付加手段、c3)前記方向別環境データの相互関係と周辺環境の抽象化環境データとの対応規則を記憶した第1規則記憶手段、c4)前記対応規則に基づいて、前記第1の記憶手段に記憶された前記所定時間毎の集合環境データから、周辺環境の抽象化集合環境データを特定する抽象化集合環境データ特定手段、c5)前記方向別の抽象化集合環境データを記憶する第2の記憶手段、c6)前記第2の記憶手段に記憶された抽象化集合環境データのうち、前記環境特定単語が付加されている抽象化集合環境データを注目集合環境データとして決定し、前記注目集合環境データとともに、その前後所定数の集合環境データを連データとして決定する連データ決定手段、c7)前記複数の連データのうち、環境特定単語が同じ連データを抽出し、かかる連データの各方向別抽象化環境データについて、異なる値の方向別抽象化環境データを捨てて、同じ値の方向別抽象化環境データを有する共通抽象化集合環境データで構成された連データを当該環境特定単語に対応する動作指令連データとして生成する生成手を備えている。
【0007】
このように、所定時間ごとの集合環境データおよび前記移動物体の動作データを与えられた環境特定単語とともに記憶し、前記対応規則に基づいて、前記所定時間毎の集合環境データから、周辺環境の抽象化集合環境データを特定し、前記抽象化集合環境データのうち、注目集合環境データとともに、その前後所定数の集合環境データを連データとして決定し、前記複数の連データに基づき、共通抽象化集合環境データで構成された連データを当該環境特定単語に対応する動作指令連データとして生成している。したがって、操作者は環境特定単語を与えるだけで、前記動作指令連データに基づく動作制御が可能となる。また、環境特定単語によってで前記移動物体の動作を制御できるので、プログラミングも簡易となる。
【0008】
2)本発明にかかる移動物体動作制御データ生成装置においては、前記生成手段は、前記複数の連データのうち、環境特定単語および動作が同じ連データを抽出し、かかる連データの各方向別抽象化環境データについて、異なる値の方向別抽象化環境データを捨てて、同じ値の方向別抽象化環境データを有する共通抽象化集合環境データで構成された連データを当該環境特定単語に対応する動作指令連データとして生成する。したがって、環境特定単語および動作が同じ連データを一般化した動作指令連データを生成することができる。
【0009】
3)本発明にかかる移動物体動作制御データ生成装置においては、前記生成手段は、前記抽出した連データの各方向別環境データについて、異なる値の方向別抽象化環境データを捨てる場合に、連データを構成する方向別抽象化環境データの値を、注目環境集合環境データを中心に鏡対称入れ替えを行なう。したがって、時間軸方向に対して、対象である状況下において、一方だけでも検出すれば、他方については、現実に動作させなくても、前記連データを取得することができる。
【0010】
4)本発明にかかる移動物体動作制御データ生成装置においては、前記生成手段は、前記抽出した連データの各方向別環境データについて、異なる値の方向別抽象化環境データを捨てる場合に、連データを構成する各方向別抽象化環境データについて、その値を進行方向に対して直交する方向に鏡対称入れ替えを行なう。したがって、前記進行方向に対して直交する方向に対して、対象である状況下において、一方だけでも検出すれば、他方については現実に動作させなくても、前記連データを取得することができる。
【0011】
5)本発明にかかる移動物体動作制御データ生成装置においては、前記生成された複数の環境データについて、動作の回転方向が異なる場合には、さらに、各方向別抽象化環境データについて、異なる値の方向別抽象化環境データを捨てて、同じ値の方向別抽象化環境データを有する共通抽象化集合環境データで構成された連データとする。したがって、左右の回転方向を覗いた一般化した動作指令連データを得ることができる。
【0012】
6)本発明にかかる移動物体動作制御データ生成装置においては、前記得られた複数の動作指令連データについて、操作者によって、試運用し、仮に適用した場合に、他の動作指令連データと区別できないほど、抽象化されたものは削除する。このように候補を複数作成し、条件に合致しないものを排除することにより、過度に一般化された候補による誤動作を防止できる。
【0013】
7)本発明にかかる移動物体動作制御データ生成装置の使用方法においては、操作者は、前記移動物体を前記環境下にて、任意に移動させて前記移動物体の動作を制御するデータを生成させる。したがって、操作者は全パターンについて、これを分析してその動きをさせなくても、前記移動物体に環境特定単語に対応する動作指令連データを学習させることができる。
【0014】
8)本発明にかかる移動物体動作制御データ生成装置は、A)通路および各通路が交わる通路交わり点で構成された環境下で、移動物体の動作を人間が用いる環境特定単語で制御するために、前記移動物体に前記環境特定単語を学習させる移動物体動作制御データ生成装置であって、B)前記移動物体は、b1)操作者から前記移動物体を前記環境下にて移動させる移動命令が与えられると、当該移動命令に基づいて、前記移動物体を移動させる駆動手段、b2)所定時間毎に方向別距離データの集合である集合距離データを計測する集合距離データ計測手段を備え、C)前記移動物体動作制御データ生成装置は、c1)前記所定時間ごとの集合距離データを、前記移動物体の動作データとともに記憶する第1の記憶手段、c2)前記移動中に前記通路交わり点にて、操作者から当該環境を表す環境特定単語が与えられると、前記集合距離データに付加して記憶させる付加手段、c3)前記集合距離データを構成する方向別距離データの値の相互関係と周辺環境の抽象化環境データとの対応規則を記憶した第1規則記憶手段、c4)前記対応規則に基づいて、前記第1の記憶手段に記憶された前記所定時間毎の集合距離データから、周辺環境の抽象化集合環境データを特定する抽象化集合環境データ特定手段、c5)前記方向別の抽象化集合環境データを記憶する第2の記憶手段、c6)前記第2の記憶手段に記憶された抽象化集合環境データのうち、前記環境特定単語が付加されている抽象化集合環境データを注目抽象化集合環境データとして決定し、前記注目抽象化集合環境データとともに、その前後所定数の抽象化集合環境データを連データとして決定する連データ決定手段、c7)前記複数の連データのうち、環境特定単語および動作が同じ連データを抽出し、かかる連データの各方向別環境データについて、異なる値の方向別抽象化環境データを捨てて、同じ値の方向別抽象化環境データを有する共通抽象化集合環境データで構成された連データを当該環境特定単語に対応する連データとして生成する生成手段を備えている。
【0015】
このように、所定時間ごとの集合距離データおよび前記移動物体の動作データを与えられた環境特定単語とともに記憶し、前記対応規則に基づいて、前記所定時間毎の集合距離データから、周辺環境の抽象化集合環境データを特定し、前記抽象化集合環境データのうち、注目集合環境データとともに、その前後所定数の集合環境データを連データとして決定し、前記複数の連データに基づき、共通抽象化集合環境データで構成された連データを当該環境特定単語に対応する動作指令連データとして生成している。したがって、操作者から与えられた環境特定単語により、前記動作指令連データに基づく動作制御が可能となる。また、環境特定単語によってで前記移動物体の動作を制御できるので、プログラミングも簡易となる。
【0016】
また、共通抽象化集合環境データの生成においては、前記複数の連データのうち、環境特定単語および動作が同じ連データを抽出し、かかる連データの各方向別抽象化環境データについて、異なる値の方向別抽象化環境データを捨てて、同じ値の方向別抽象化環境データを有する共通抽象化集合環境データで構成された連データを当該環境特定単語に対応する動作指令連データとして生成する。したがって、環境特定単語および動作が同じ連データを一般化した動作指令連データを生成することができる。
【0017】
9)本発明にかかる移動物体動作制御データ生成装置においては、前記生成手段は、前記抽出した連データの各方向別抽象化環境データについて、異なる値の方向別抽象化環境データを捨てる場合に、連データを構成する方向別抽象化環境データの値を、注目抽象化集合環境データを中心に鏡対称入れ替えを行なう。
【0018】
値を、注目環境集合環境データを中心に鏡対称入れ替えを行なう。したがって、時間軸方向に対して、対象である状況下において、一方だけでも検出すれば、他方については、現実に動作させなくても、前記連データを取得することができる。
【0019】
10)本発明にかかる移動物体動作制御データ生成装置においては、前記生成手段は、前記抽出した連データの各方向別環境データについて、異なる値の方向別抽象化環境データを捨てる場合に、連データを構成する各方向別抽象化環境データについて、その値を進行方向に対して直交する方向に鏡対称入れ替えを行なう。したがって、前記進行方向に対して直交する方向に対して、対象である状況下において、一方だけでも検出すれば、他方については現実に動作させなくても、前記連データを取得することができる。
【0020】
11)本発明にかかる移動物体動作制御データ生成方法は、移動物体の動作を人間が用いる環境特定単語で制御するために、前記移動物体の動作制御用のデータを生成する移動物体動作制御データ生成方法であって、1)前記移動物体を移動させつつ、所定時間毎に前記移動物体の方向別周辺環境データの集合である集合環境データを計測し、2)前記所定時間ごとの集合環境データを、前記移動物体の動作データとともに記憶し、3)前記移動中に操作者から当該環境を表す環境特定単語が与えられると、前記集合環境データに付加して記憶し、4)あらかじめ記憶した前記方向別環境データの相互関係と周辺環境の抽象化環境データとの対応規則に基づいて、前記記憶された前記所定時間毎の集合環境データから、周辺環境の抽象化集合環境データを特定して記憶し、5)前記記憶された抽象化集合環境データのうち、前記環境特定単語が付加されている抽象化集合環境データを注目集合環境データとして決定し、前記注目集合環境データとともに、その前後所定数の集合環境データを連データとして決定し、6)前記複数の連データのうち、環境特定単語が同じ連データを抽出し、かかる連データの各方向別抽象化環境データについて、異なる値の方向別抽象化環境データを捨てて、同じ値の方向別抽象化環境データを有する共通抽象化集合環境データで構成された連データを当該環境特定単語に対応する動作指令連データとして生成する。
【0021】
このように、所定時間ごとの集合環境データおよび前記移動物体の動作データを与えられた環境特定単語とともに記憶し、前記対応規則に基づいて、前記所定時間毎の集合環境データから、周辺環境の抽象化集合環境データを特定し、前記抽象化集合環境データのうち、注目集合環境データとともに、その前後所定数の集合環境データを連データとして決定し、前記複数の連データに基づき、共通抽象化集合環境データで構成された連データを当該環境特定単語に対応する動作指令連データとして生成している。したがって、操作者から与えられた環境特定単語により、前記動作指令連データに基づく動作制御が可能となる。また、環境特定単語によってで前記移動物体の動作を制御できるので、プログラミングも簡易となる。
【0022】
以下に、特許請求の範囲に用いた用語と実施形態との関係について説明をする。
【0023】
「環境特定単語」:移動物体が移動する際の周りの環境を示す単語であり、実施形態では、交差点、三叉路等が該当する。
【0024】
「集合環境データ」:方向別周辺環境データの集合であり、実施形態では、左、左前、前、右前、右の5つセンサの方向別周辺環境データの集合をいい、方向別周辺環境データを含む概念である。
【0025】
「方向別周辺環境データ」:実施形態では、図11に示す各時刻毎の各センサの距離(40)などが該当し、方向別距離データを含む概念である。
【0026】
「動作データ」:移動物体の移動状態を示すデータであり、実施形態では、移動物体に対して操作者によって与えられている駆動命令に基づくデータが該当する。
【0027】
「抽象化環境データ」:実施形態では、図5に示すテーブルにおける「その方向に面あり」などが該当する。
【0028】
「抽象化集合環境データ」:実施形態では、図12〜図16に示す各時刻毎の「面」、「空き」などが該当する。
【0029】
「集合環境データ」:方向別周辺環境データの集合であり、実施形態では、左、左前、前、右前、右の5つセンサの方向別周辺環境データの集合をいう。
【0030】
「注目集合環境データ」:操作者から与えられた環境特定単語が付加された抽象化集合環境データをいう。
【0031】
「連データ」:注目集合環境データとその前後所定数の集合環境データで構成された集合環境データの集まりをいう。
【0032】
「鏡対称入れ替え」:実施形態では、前進方向に対する鏡対称入れ替え処理、およびまたは時間軸方向に対する鏡対称入れ替え処理が該当する。
【0033】
「方向別距離データ」:実施形態では、図11に示す各時刻毎の各センサの距離(40)などが該当する。
【0034】
「集合距離データ」:方向別距離データの集合をいう。
【0035】
「通路交わり点」:実施形態では、交差点、三叉路、曲がり角など、通路が交わる(接続される)点をいう。
【0036】
【発明の実施の形態】
1.機能ブロック図の説明
本発明の一実施形態を図面に基づいて説明する。図1に示す移動物体動作制御データ生成装置10は、通路および各通路が交わる通路交わり点で構成された環境下で、移動物体の動作を人間が用いる環境特定単語で制御するために、移動物体1に前記環境特定単語を学習させる装置であって、第1の記憶手段3、付加手段5、第1規則記憶手段7、抽象化集合環境データ特定手段9、第2の記憶手段11、連データ決定手段13、および生成手段15を備えている
まず、移動物体1について説明する。移動物体1は、操作者から前記環境下にて移動させる移動命令が与えられると、当該移動命令に基づいて、自らを移動させる駆動手段4、および所定時間毎に方向別距離データの集合である集合距離データを計測する集合距離データ計測手段2を備えている。
【0037】
第1の記憶手段3は、前記所定時間ごとの集合距離データを、前記移動物体の動作データとともに記憶する。付加手段5は、前記移動中に前記通路交わり点にて、操作者から当該環境を表す環境特定単語が与えられると、前記集合距離データに付加して記憶させる。第1規則記憶手段7は、前記集合距離データを構成する方向別距離データの値の相互関係と周辺環境の抽象化環境データとの対応規則を記憶する。抽象化集合環境データ特定手段9は、前記対応規則に基づいて、第1の記憶手段3に記憶された前記所定時間毎の集合距離データから、周辺環境の抽象化集合環境データを特定する。第2の記憶手段11は、前記方向別の抽象化集合環境データを記憶する。連データ決定手段13は、第2の記憶手段11に記憶された抽象化集合環境データのうち、前記環境特定単語が付加されている抽象化集合環境データを注目抽象化集合環境データとして決定し、前記注目抽象化集合環境データとともに、その前後所定数の抽象化集合環境データを連データとして決定する。生成手段15は、前記複数の連データのうち、環境特定単語および動作が同じ連データを抽出し、かかる連データの各方向別環境データについて、異なる値の方向別抽象化環境データを捨てて、同じ値の方向別抽象化環境データを有する共通抽象化集合環境データで構成された連データを当該環境特定単語に対応する連データとして生成する。
【0038】
このように、所定時間ごとの集合距離データおよび前記移動物体の動作データを与えられた環境特定単語とともに記憶し、前記対応規則に基づいて、前記所定時間毎の集合距離データから、周辺環境の抽象化集合環境データを特定し、前記抽象化集合環境データのうち、注目集合環境データとともに、その前後所定数の集合環境データを連データとして決定し、前記複数の連データに基づき、共通抽象化集合環境データで構成された連データを当該環境特定単語に対応する動作指令連データとして生成している。したがって、操作者が環境特定単語を与えるだけで、前記動作指令連データに基づく動作制御が可能となる。また、環境特定単語によってで前記移動物体の動作を制御できるので、プログラミングも簡易となる。
【0039】
また、共通抽象化集合環境データの生成においては、前記複数の連データのうち、環境特定単語および動作が同じ連データを抽出し、かかる連データの各方向別抽象化環境データについて、異なる値の方向別抽象化環境データを捨てて、同じ値の方向別抽象化環境データを有する共通抽象化集合環境データで構成された連データを当該環境特定単語に対応する動作指令連データとして生成する。したがって、環境特定単語および動作が同じ連データを一般化した動作指令連データを生成することができる。
【0040】
2.ハードウェア構成
図1に示す動作制御データ生成装置10を備えた動作計画決定ロボット(以下ロボットと略す)20について説明する。
【0041】
ロボット20は図2に示すように、一対の前輪47,一対の後輪48で自走可能であり、側壁には5つのセンサ40s1〜40s5が設けられている。5つのセンサは図3に示すように、かかるセンサにより全周に渡って障害物との距離を測定することができる。ロボット20はリモコンからの駆動命令をアンテナ21で受信して、かかる駆動命令に基づいて、自走する。
【0042】
ロボット20のハードウェア構成について図4を用いて説明する。ロボット20は、CPU23、RAM27、キーボード28、インターフェイス31、通信ボード28およびバスライン29を備えている。CPU23は、ROM25に記憶された制御プログラムにしたがいバスライン29を介して、各部を制御する。
【0043】
なお、この制御プログラムは、PCカード等の記録媒体から読み出してROM25に書き込むようにしてもよい。なお、PCカード以外に、フレキシブルディスク、CD−ROM、ICカード等のプログラムを実体的に一体化したコンピュータ可読の記録媒体から、ROM25にインストールさせるようにしてもよい。さらに、通信回線を用いてダウンロードするようにしてもよい。
【0044】
操作者の与えた開始命令、終了命令、各種の駆動命令は、通信ボード28を介して、CPU23に与えられる。インターフェイス31には、5つのセンサ40s1〜40s5が接続されている。
【0045】
また、インターフェイス31には、後輪駆動モータMを駆動制御するモータ駆動部37、ハンドリング制御を行うモータ駆動部38が接続されている。モータ駆動部37は図2に示す後輪47を、モータ駆動部38は前輪48をそれぞれ制御する。
【0046】
RAM27にはその他、各種の演算結果等が記憶される。
【0047】
ROM25には、図5に示すように、環境データと抽象化環境データの対応テーブルが記憶されている。かかる対応テーブルにより、ロボット20は、5つのセンサから抽出したセンサ値に応じて、周りの環境を把握することができる。この意味では、環境データは条件(具体的数値)であり、抽象化環境データは結果(検出された環境を表すデータ)の関係にある。
【0048】
3.フローチャート
つぎに、ROM25に記憶されているプログラムについて説明する。ROM25には、図7〜図10に示す複数のプログラムが記憶されている。
【0049】
図7は、全体のフローチャートである。操作者は、図6に示す軌跡120に沿ってロボット20が移動するように、リモコン(図示せず)から動作制御命令を与える。かかる動作制御命令は、図4に示す通信ボード28で受信され、CPU23に与えられる。CPU23は、図8に示す駆動処理プログラムに基づいて駆動処理を行う。具体的には、CPU23は、移動命令である駆動命令が与えられるか否か判断しており(図8ステップS11)、駆動命令が与えられると、かかる駆動命令を実行する信号をモータ駆動部37,39に与える(ステップS13)。これにより、モータM1,M2が駆動され、ロボット20は図6に示す軌跡120に沿って移動する。なお、与えられた駆動命令はRAM27に一時的に記憶される(ステップS15)。
【0050】
移動に際して、CPU23は、センサ値の検出処理を行う(図7ステップS1)。かかる検出処理の詳細について、図9を用いて説明する。CPU23は、所定時間(この場合Δt秒)が経過するか否か判断しており(図9ステップS21)、所定時間が経過すると、5つのセンサ40s1〜40s5の検出値を記憶する(ステップS23)。CPU23は、現在の駆動命令とともに、集合データとしてRAM27に記憶する(ステップS25)。これにより、図11Aに示す時刻t1の時の各センサの値およびそのときの動きが記憶される。ステップS21〜ステップS25の処理を繰り返すことにより、図11Aに示すように、所定時間間隔毎の集合距離データが複数RAM27に記憶される。
【0051】
なお、各センサはロボット20のボディ(側壁)に設けられているので、ロボット20が回転すると一緒に回転する。したがって、各センサ値はロボット20が回転中は検出しないようにしている。また、図11Aにおいて、回転前と回転後でセンサ値が全く異なる値となっているのはそのためである。このようにロボットの進行方向をY方向とする座標系で数値を検出することにより、ロボットの進行方向に対する相対的な環境データを抽出することができる。
【0052】
なお、操作者は、ロボット20が移動中に、学習させる環境特定単語および動作特定単語を適当なタイミングで入力する。例えば、時刻t1では「通路・前進」、時刻t7では「交差点・右折」、時刻t10では「通路・前進」・・・というように、リモコン(図示せず)を操作して、ロボット20に与える。
【0053】
ロボット20では、移動中は、図9に示すプログラムとともに、図10に示すプログラムも実行されている。CPU23は、環境特定単語および動作特定単語が操作者から与えられるか否か判断しており(ステップS31)、環境特定単語および動作特定単語が操作者から与えられると、そのタイミングで、前記集合距離データに付加する。
【0054】
これにより、図11Bに示すように、環境特定単語および動作特定単語が付加された集合距離データが生成される。
【0055】
つぎに、CPU23は、前記集合距離データに基づいて、周辺環境の抽象化環境データを生成する(図7ステップS3)。抽象化環境データ生成処理について、簡単に説明する。図11Aに示すように各時刻毎に5つの方向別距離データが計測されている。これを集合距離データという。かかる集合距離データについて、図5に示す対応テーブルを用いて、方向別距離データから方向別環境データを生成する。例えば、時刻t1、t2において、左方向は、センサ値がともに「40」で、かつ、動作はともに「前進」である。したがって、ルール3により、面があると判断する。左前方向、右前方向、右方向についても、同様である。
【0056】
なお、前方向はセンサ値が無限大であるので、「空き」であると判断する。また、時刻t2から時刻t3にて、前方向は、「無限大」から「85」と、センサ値が大幅に異なる。したがって、ルール4によって、それらの間に端があると判断する。左前方向も同様である。
【0057】
なお、本実施形態においては、5方向の距離を計測するようにしたので、ルール1,2を適用できる場合が生じていないが、左後ろ、右後ろ、後ろなどの8方向の距離を計測した場合には、ルール1,2を適用して、抽象化環境データを生成することができる。さらに、細かく、例えば、12方向,16方向などより多くの方向にセンサを設けて、その値を計測するようにしてもよい。
【0058】
これにより、図12〜図16に示すような抽象化環境データが生成される。
【0059】
つぎに、CPU23は、図7ステップS5に示す抽象化連データの生成処理を行う。抽象化連データの生成処理について、図17を用いて説明する。CPU23は、連データを決定する(図17ステップS41)。連データとは、「通路」、「交差点」・・などの環境特定単語が付加されている抽象化集合環境データを中心とする前後所定個数の抽象化集合環境データの集まりをいう。本実施形態においては、前記連データの中心となる抽象化集合環境データを注目集合環境データといい、かかる注目集合環境データを中心として、前後2つずつ、計5つの抽象化集合環境データを1つの連データとして、決定するようにした。これにより、図12から図16に示す抽象化集合環境データによって、複数の連データが決定される。
【0060】
つぎに、CPU23は、環境特定単語および駆動命令が同じ連データをグループ化する(図17ステップS43)。たとえば、環境特定単語「三叉路」駆動命令「右回り」である連データは、t7を注目集合環境データとするt5からt9の連データ、t23を注目集合環境データとするt21からt26の連データである。したがって、これらが1つのグループとされる。同様にして、環境特定単語「通路」駆動命令「前進」である連データは、t10、t18、t29,t39,t47,t55,t64,t73,t82,t90,t100を注目集合環境データとする連データである。環境特定単語「交差点」駆動命令「左回り」である連データは、t14,t60である。環境特定単語「交差点」駆動命令「右回り」である連データは、t51,t86である。環境特定単語「三叉路」駆動命令「左回り」である連データは、t77,t96である。環境特定単語「曲がり角」駆動命令「右回り」である連データは、t43である。単語「曲がり角」駆動命令「左回り」である連データは、t69である。環境特定単語「交差点」駆動命令「前進」である連データは、t35である。環境特定単語「三叉路」駆動命令「直進」である連データは、t105である。
【0061】
つぎに、処理対象グループ番号iを初期化し(図17ステップS45)、i番目のグループについて、一般化処理を行う(ステップS47)。一般化処理とは、各グループに属する連データの各方向別環境データを抽象化することをいう。例えば、環境特定単語「交差点」駆動命令「右回り」であるグループでは、注目集合環境データt51,t87を中心として、両者を重ねあわせる。この場合、図18A,Bに示すように、t49とt85では、左、前、右前、右が一致し、t50とt86では左、左前、〜右のすべてが一致し、t52とt88では左、左前、〜右のすべてが一致し、t53とt89では左、左前、〜右のすべてが一致する。したがって、環境特定単語「交差点」駆動命令「右回り」のグループとしては、図18Cに示すように、一般化される。
【0062】
つぎに、CPU23は、全グループについて一般化処理が終了したか否か判断する(ステップS49)。全グループについて一般化処理が終了していなければ、処理対象グループ番号iをインクリメントCPU(ステップS51)、ステップS47の処理を繰り返す。
【0063】
このようにして、環境特定単語と駆動命令のペアが「三叉路・右回り」、「三叉路・左回り」、「三叉路・直進」、「通路・前進」、「交差点、左回り」、「交差点・右回り」、「交差点・前進」、「曲がり角・右回り」、「曲がり角・左回り」についてそれぞれ、生成される。図19に、2つの連データから、環境特定単語と駆動命令のペアが「交差点・左回り」が生成される様子を示す。図20に、2つの連データから、環境特定単語と駆動命令のペアが「三叉路・右回り」を、図21に、2つの連データから、環境特定単語と駆動命令のペアがそれぞれ「三叉路・左回り」、「交差点・右回り」である場合を示す。図22に環境特定単語と駆動命令のペアが「通路・直進」の抽象化連データを示す。
【0064】
このようにして、駆動命令が異なる環境特定単語ごとに、抽象化連データが生成される。
【0065】
かかる抽象化連データを動作指令連データとして、ロボット20に記憶させておき、操作者が、環境特定単語とともに、動作特定単語をロボット20に与えると、図6において、軌跡120以外の軌跡についても、操作者の意図する動きをロボット20にさせることができる。
【0066】
例えば、図23Aにおいて、地点130にロボット20がおかれ、軌跡140にて、ロボット20を移動させたい場合には、操作者は、「通路・直進」、「三叉路・右回転」、「通路・直進」と命令を与える。ロボット20は、「通路・直進」、「三叉路・右回転」の各動作指令連データを読み出す。ロボット20は、定期的に環境データを検出して、検出した環境データが現在の動作指令連データのいずれかの動作指令データと一致するか否か判断し、一致する場合には、そのまま、その動作指令データによる駆動命令をモータ駆動部37,38に出力すればよい。一方、検出した環境データが現在の動作指令データと一致しなければ、つぎの、動作指令データと一致するか否かを判断するようにすればよい。これにより、順次、動作指令データに沿った制御がなされる。
【0067】
例えば、図22における1つめの動作指令データ(左:null,左前:面、前:空き,右:面,右前:null,動作:前進)から、モータの制御情報、「前進」を読み出し、モータ駆動部37,38に制御命令を与える。ロボットが動き出し、CPU23はΔt秒後のセンサ値が、現在の動作指令データ(1つめの動作指令データ)に一致するか否かを判断する。一致すれば、現在の動作「前進」を続ける。一方、一致しない場合には、2つめの動作指令データ(左:null,左前:面、前:null,右:面,右前:null,動作:前進)と一致するか否か判断する。この2つの動作指令データでも、一致しない場合には、3つめの動作指令データに一致するか否か判断する・・・と、並べられた動作指令データに沿って、動作が制御される。
【0068】
なお、前記動作指令連データは、複数の動作指令データで構成されており、各動作指令連データにおける両端(例えば、+2や−2)の動作指令データは、前記一般化の程度が高い。したがって、本来であれば、次の動作指令連データによる制御に移行していなければならない場合でも、移行していない場合がある。このような場合には、以下に説明するようにして、次の動作指令連データに移行させるようにすればよい。例えば、図23Bに示すように、現在、動作指令連データR1で動作制御されている状態で、途中から動作指令連データR2による制御に切り替えられる場合において、環境CnからCn+5まで移動物体が移動する場合、次のようにして、動作指令連データが切り替えられる。
【0069】
検出環境Cn+3にて、動作指令連データR1の−2における動作指令データと一致し、つぎに、検出環境Cn+4にて、動作指令連データR1の−1における動作指令データと一致しているとする。かかる状況下で、検出環境Cn+5に進むと、動作指令連データR1の0における動作指令データと一致しない場合には、次の動作指令連データR2の0における動作指令データと一致するか否か判断する。一致する場合には、この動作指令連データにおける−2,−1の時の動作指令データが、検出環境Cn+4、Cn+3と一致するかを判断し、すべて一致する場合には、つぎの動作指令連データR2による動作制御に切り替えればよい。
【0070】
なお、かかる検出環境は、前記Δt経過後でも、後述した時間軸圧縮をした場合としてもよい。
【0071】
このようにして、本実施形態においては、前記動作指令連データを順に呼び出しておいて、周辺環境が変化して次の動作指令連データによる制御に移行するかが決定される。したがって、操作者は、制御を希望する順に、動作別の環境特定単語を与えるだけで、ロボットの環境特定単語に対する動作指令連データによってその動作が制御される。
【0072】
4.他の実施形態
上記実施形態においては、ある環境下で、ロボットを移動させて、抽出した環境データについて、環境特定単語および駆動命令が同じ場合には、これらをまとめる一般化を行っている。しかし、かかる一般化は適度なものでなければ誤動作をおこすおそれがある。すなわち、過度に一般化されると、他の動作指令連データでも、条件が一致してしまう。また、上記実施形態においては、図6における環境下で、任意に移動させているので、各グループ毎の対象として、すべてのパターンが検出されない場合もある。
【0073】
そこで、以下のようにして、方向性およびまたは時間軸に対して、鏡対称入れ替え処理をした候補を複数生成し、実際に動かしてみて、不適切な候補を排除することにより、より適切な一般化をすることができる。
【0074】
例えば、三叉路の場合、同じ右折であっても、図24Aに示すような右折と、図24Bに示すような右折とがある。この場合、両者の連データは、それぞれ、図25A、図25Bに示すようなデータであり、このまま、一般化をすると、図25Cに示すような、動作指令連データとなる。これに対して、いずれかを前進方向に対する鏡対称入れ替え処理をして、新たな候補を生成して、一般化すると、図26Cに示すような動作指令連データが生成される。なお、この場合、例2のデータ(図25Bのデータ)を左と右、左前と右前のデータをそれぞれ入れ替えている。
【0075】
また、いずれかを時間軸方向に対する鏡対象入れ替え処理をして、一般化すると図27Cに示すような動作指令連データとなる。なお、この場合、例2のデータ(図25Bのデータ)をt+2を軸として、tとt+4、t+1とt3のデータをそれぞれ入れ替えている。
【0076】
また、時間軸および前進方向に対する双方の鏡対象入れ替え処理をするようにしてもよい。この場合を、図28Cに示す。
【0077】
また、三叉路を直進する場合には、図29A,図29Bのような場合が考えられる。この場合、両者の連データは、それぞれ、図30A、図30Bに示すようなデータであり、このまま、一般化をすると、図30Cに示すような、動作指令連データとなる。これに対して、同様に、前進方向に対する鏡対称入れ替え処理、時間軸方向に対する鏡対称入れ替え処理、前進および時間軸方向に対する鏡対称入れ替え処理をした場合を、それぞれ図31C、図32C、図33Cに示すような動作指令連データとなる。
【0078】
このようにして、生成された抽象化連データは、それぞれ候補として記憶しておく。そして、ロボット20を動かしながら、かかる候補のうち、他のグループの条件と誤動作する候補は、過度の一般化が行われているとして、削除するようにするとともに、各グループについて、小グループ化して記憶しておき、現実の適用では、いずれか満足するものを選択するようにすればよい。このように、環境特定単語および駆動命令の組み合わせとしては同じであっても、全部まとめて一般化するのではなく、複数の小グループに区分して記憶しておき、実際の適用段階で、いずれか適する候補を特定することにより、過度の一般化による誤動作を回避することができる。
【0079】
例えば、環境特定単語および駆動命令が同じ場合として、「三叉路・右折」として、候補が3つあり、前記前進方向に対する鏡対称入れ替え処理および時間軸方向に対する鏡対称入れ替え処理を行うことにより、候補が7つ得られたとする。これら7つをさらにそれぞれ小グループとして記憶しておき、テストすると、そのうちの2つの小グループについては、他のグループ(例えば、「交差点・右折」)と誤動作する場合には、これを削除し、残りの5つの小グループを「三叉路・右折」の候補として記憶しておく。そして、現実に操作者から「通路・前進」、「三叉路・右折」という動作指令が与えられた場合、現在の環境が前記5つの小グループのデータと一致するか否かを判断するようにすればよい。
【0080】
なお、上記実施形態においては、駆動命令と環境特定単語とが同じ場合で一般化するようしたが、環境特定単語が同じであれば、回転方向を無視して、右回りと左回りとを回転として、一般化した候補を生成することもできる。かかる例を図34に示す。図34において、図34Aに示す「交差点・右回り」と図34Bに示す「交差点・左回り」を方向性を除いて、図34Cに示すように「交差点・回転」と一般化する。図35は、「三叉路・右回り」と「三叉路・左回り」とから、「三叉路・回転」を生成した例を示す。このようなまとめる一般化については、右回りと左回りは回転として一般化するなどのルールをあらかじめ記憶しておけばよい。
【0081】
さらに、駆動命令と環境特定単語とが同じ場合でなくても、環境特定単語が同じものをまとめる一般化をするようにしてもよい。
【0082】
なお、一般化の程度の異なる複数の候補を生成して、検査を行い、過度の一般化が行われている場合には、これを排除し、複数の候補を記憶しておき、いずれかの動作指令連データで動作制御することにより、ロボットに所望の動きをさせることができる。
【0083】
なお、単語入力のタイミングがずれる場合も考えられる。このような場合は、注目集合環境データの位置を時刻方向に前後ずらしてみて、最も一致する場合とすればよい。
【0084】
前記前進方向に対する鏡対称入れ替え処理および時間軸方向に対する鏡対称入れ替え処理は、2つの場合について説明したが、3つ以上で合っても同様に適用できる。例えば、抽出された連データが3つ(連データ1,2,3)ある場合、それぞれ2つを用いて、鏡対称入れ替え処理なし、鏡対称入れ替え処理あり(前進方向およびまたは時間軸方向)をして組み合わせた場合の一般化、これに加えて、3つ全部を用いて、鏡対称入れ替え処理なし、鏡対称入れ替え処理あり(前進方向およびまたは時間軸方向)をして組み合わせた場合に一般化を行うようにすればよい。
【0085】
本実施形態においては、センサ値として距離を用いたので、一般化処理とは各センサの値および所定のルールに基づいて、周辺環境の形状を把握する処理に該当する。ただし、これに限定されず、予め定められたルールの基づいて、環境集合データを抽象化(一般化)する処理はすべて含む。環境集合データとは、図3に示す5つのセンサに基づいて全方向の環境の組み合わせのデータをいう。
【0086】
また、上記実施形態においては、センサから抽出したデータから環境データを生成したが、センサから抽出したデータを以下のように時間軸方向に圧縮するようにしてもよい。これは、周辺の環境の変化に比べて、センサが検出する時間間隔がかなり短い場合には、上記実施形態のように注目集合環境データの前2つ、後ろ2つが等しくなってしまう場合があるからである。
【0087】
このように時間軸方向に圧縮しても、各データは時系列方向の意味合いは残しているので、問題はない。逆に、ロボットの移動速度にかかわらずに所望の動作をさせることができる。
【0088】
また、端の認識については、当該端部が近づいてくるのか遠ざかっているのかについても判断するようにしてもよい。これにより、より正確に周辺環境の形状を把握することができる。例えば、時刻txとtx+1の間で、ある方向のセンサ値が「無限大」から「100」となった場合には、端が近づいたと判断できる。また、時刻txとtx+1の間で、ある方向のセンサ値が「45」から「100」となった場合には、近い距離から遠い距離となる端があると判断できる。また、逆の場合、例えば、センサ値が「100」から「45」となった場合には、遠い距離から近い距離となる端があると判断できる。
【0089】
上記実施形態においては、2次元の距離データを採用したが、3次元の距離データの場合も同様に適用できる。例えば、環境を構成する物体の高さを採用してもよい。例えば、高さが一定の値(例えば5mm)未満であれば乗り上げて移動し、前記値以上であれば迂回するなどを学習させることができる。さらに、上り坂とか下り坂などを環境特定単語として入力するようにしてもよい。
【0090】
また、上記実施形態においては、環境データとしてロボットの周辺の環境との距離を用いた場合について説明したが、表面の材質、色、その他センサで検出できる環境データであればどのようなものを用いてもよい。
【0091】
また、自分自身以外は移動しない場合について説明したが、相手物が移動してくる場合に、相手物の移動速度、保有エネルギー、物体の形状等、異なる修正ルールを記憶しておき、修正するようにすればよい。
【0092】
また、本実施形態においては、ロボットに適用した場合について説明したが、コンピュータゲームにも同様に適用できる。例えば、コンピュータを用いたゲームで、ユーザは、ある物体の過去の動きからその物体の動くルールを推測して、先回りしてその物体を破壊する得点を競うなどに適用可能である。
【0093】
本実施形態においては、図1に示す機能を実現する為に、CPU23を用い、ソフトウェアによってこれを実現している。しかし、その一部もしくは全てを、ロジック回路等のハードウェアによって実現してもよい。
【図面の簡単な説明】
【図1】本発明にかかる移動物体動作制御データ生成装置10の機能ブロック図である。
【図2】図1に示す移動物体動作制御データ生成装置を備えたロボット20の外観図である。
【図3】5つのセンサの検出方向を示す図である。
【図4】ロボット20のハードウエア構成の一例を示す図である。
【図5】方向別距離データから方向別環境データを生成するテーブルを示す。
【図6】ロボット20を動作させる軌跡を示す図である。
【図7】全体のフローチャートである。
【図8】駆動処理のフローチャートである。
【図9】センサ値の検出処理のフローチャートである。
【図10】環境特定単語の入力処理のフローチャートである。
【図11】検出されたセンサ値の一例を示す。
【図12】前記センサ値から生成された抽象化環境データである。
【図13】前記センサ値から生成された抽象化環境データである。
【図14】前記センサ値から生成された抽象化環境データである。
【図15】前記センサ値から生成された抽象化環境データである。
【図16】前記センサ値から生成された抽象化環境データである。
【図17】抽象化連データの生成処理のフローチャートである。
【図18】各グループにおける一般化の処理を説明するための図である。
【図19】各グループにおける一般化の処理を説明するための図である。
【図20】各グループにおける一般化の処理を説明するための図である。
【図21】各グループにおける一般化の処理を説明するための図である。
【図22】通路・前進における動作指令データを示す。
【図23】ロボット20を動作させる環境を示す。
【図24】三叉路における異なるパターンの動作例を示す。
【図25】図24において検出されたセンサ値から得られたデータを示す。
【図26】図24において検出されたセンサ値を左右方向に鏡対称入れ替え処理をした場合のデータを示す。
【図27】図24において検出されたセンサ値を時間軸方向に鏡対称入れ替え処理をした場合のデータを示す。
【図28】図24において検出されたセンサ値を左右方向および時間軸方向に鏡対称入れ替え処理をした場合のデータを示す。
【図29】三叉路における異なるパターンの動作例を示す。
【図30】図29において検出されたセンサ値から得られたデータを示す。
【図31】図29において検出されたセンサ値を左右方向に鏡対称入れ替え処理をした場合のデータを示す。
【図32】図29において検出されたセンサ値を時間軸方向に鏡対称入れ替え処理をした場合のデータを示す。
【図33】図29において検出されたセンサ値を左右方向および時間軸方向に鏡対称入れ替え処理をした場合のデータを示す。
【図34】三叉路にて、右回り、左回りをまとめて、回転にした場合のデータである。
【図35】交差点にて、右回り、左回りをまとめて、回転にした場合のデータである。
【符号の説明】
23・・・・・・・・・・・CPU
27・・・・・・・・・・・メモリ
40s1〜40s5・・・・・・センサ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a method for generating motion control data for a moving object, and more particularly to a method for generating motion control data.
[0002]
[Background Art and Problems to be Solved by the Invention]
Conventionally, various attempts have been made to simplify robot motion programming. As one of them, Japanese Patent Laid-Open No. 6-214645 discloses a robot learning method in which an arbitrary traveling pattern can be learned and traveled according to the pattern even when various obstacles are scattered on the way. Is disclosed. Briefly described. By switching to the learning mode, the robot is actually operated, and the distance from the obstacle until the stop key is pressed and the designated direction are stored in the storage device. By switching to the automatic travel mode, the data in the storage device is sequentially read, and the travel is performed while comparing the read direction and distance with the measurement direction by the direction measurement means and the measurement distance by the distance measurement means. This learning method eliminates the need for programming the robot.
[0003]
However, the above control method has the following problems. If the sensing contents and operation instructions are stored as they are, the surrounding environment will be slightly different, and will not match the stored sensing contents, and the operation cannot be reproduced. In order to solve such a problem, it is conceivable to store all data for each different environment, but this requires a huge storage capacity.
[0004]
Such a problem applies not only to the case where the robot is driven by itself, but also to the movement of the character in the game.
[0005]
SUMMARY OF THE INVENTION An object of the present invention is to provide a moving object motion learning method or a moving object motion determination device capable of solving the above-described problems and simplifying the motion programming of a moving object.
[0006]
[Means for Solving the Problems and Effects of the Invention]
1) In the moving object motion control data generating apparatus according to the present invention, the moving object motion control data for generating motion control data for the moving object is used to control the motion of the moving object with an environment specific word used by a human. B) The moving object is a generating device. B1) Drive that moves the moving object based on the moving command when an operator gives a moving command to move the moving object in the environment. Means, b2) comprising collective environment data measuring means for measuring collective environment data, which is a set of surrounding environmental data for each direction of the moving object at predetermined time intervals, and C) moving object motion control data generating device generating moving object motion control data The apparatus is: c1) first storage means for storing the collective environment data for each predetermined time measured by the collective environment data measuring means together with the motion data of the moving object; c2) If an environment specific word representing the environment is given by the operator during the movement, an additional means for adding and storing it to the collective environment data, c3) the interrelation between the environmental data by direction and the abstract environment data of the surrounding environment C4) Based on the correspondence rule, based on the correspondence rule, from the set environment data stored in the first storage means, the abstract set environment data of the surrounding environment C5) second storage means for storing the direction-specific abstract set environment data, c6) of the abstract set environment data stored in the second storage means , The abstract set environment data to which the environment specific word is added is determined as the focused set environment data, and a predetermined number of set environment data before and after the focused set environment data are determined as continuous data. Data determining means, c7) extracting the continuous data having the same environment specific word from the plurality of continuous data, and discarding the abstracted environment data by direction of different values for the abstracted environment data by direction of the continuous data. And a generator for generating continuous data composed of common abstract set environment data having direction-specific abstract environment data of the same value as operation command continuous data corresponding to the environment specific word.
[0007]
As described above, the collective environment data for each predetermined time and the movement data of the moving object are stored together with the given environment specific word, and based on the correspondence rules, the abstract of the surrounding environment is obtained from the collective environment data for the predetermined time. Specific set environment data is determined as continuous data together with the attention set environment data of the abstract set environment data, and based on the plurality of continuous data, a common abstract set The continuous data composed of the environmental data is generated as the operation command continuous data corresponding to the environment specific word. Therefore, the operator can perform motion control based on the motion command sequence data only by giving an environment specific word. In addition, since the operation of the moving object can be controlled by the environment specific word, programming is also simplified.
[0008]
2) In the moving object motion control data generation device according to the present invention, the generation means extracts continuous data having the same environment specific word and motion from the plurality of continuous data, and abstracts the continuous data for each direction. For the environment data, the abstract environment data by direction of different values is discarded, and the continuous data composed of the common abstract set environment data having the abstract environment data by direction of the same value corresponds to the environment specific word Generated as command sequence data. Therefore, it is possible to generate motion command continuous data that generalizes continuous data having the same environment specific word and motion.
[0009]
3) In the moving object motion control data generation device according to the present invention, the generation means discards the direction-specific abstract environment data of different values for the direction-specific environment data of the extracted continuous data. The values of the direction-specific abstract environment data composing the image are mirror-symmetrically exchanged around the target environment set environment data. Therefore, if only one is detected in the target situation in the time axis direction, the continuous data can be obtained without actually operating the other.
[0010]
4) In the moving object motion control data generation device according to the present invention, the generation means discards the direction-specific abstract environment data of different values for the direction-specific environment data of the extracted continuous data. The direction-specific abstracted environment data is mirror-symmetrically exchanged in the direction orthogonal to the traveling direction. Therefore, if only one is detected in the direction orthogonal to the traveling direction, the continuous data can be acquired without actually operating the other.
[0011]
5) In the moving object motion control data generation device according to the present invention, when the rotation direction of the motion is different for the plurality of generated environment data, different values are obtained for the abstract environment data for each direction. The direction-specific abstract environment data is discarded, and continuous data composed of common abstract set environment data having the same direction-specific abstract environment data is assumed. Therefore, it is possible to obtain generalized operation command continuous data looking in the left and right rotation directions.
[0012]
6) In the moving object motion control data generation device according to the present invention, when the plurality of obtained motion command sequence data is trial-operated and temporarily applied by an operator, it is distinguished from other motion command sequence data. Remove things that are so abstract that you can't. In this way, by creating a plurality of candidates and excluding those that do not meet the conditions, it is possible to prevent malfunctions caused by excessively generalized candidates.
[0013]
7) In the method of using the moving object motion control data generation device according to the present invention, the operator generates data for controlling the movement of the moving object by arbitrarily moving the moving object in the environment. . Therefore, the operator can cause the moving object to learn the motion command sequence data corresponding to the environment specific word without analyzing and analyzing all the patterns.
[0014]
8) A moving object motion control data generating apparatus according to the present invention is provided for controlling the motion of a moving object with an environment specific word used by a human in an environment composed of a path and a path intersection where each path intersects. A moving object motion control data generating apparatus for causing the moving object to learn the environment specific word, wherein B) the moving object is provided with a movement command to move the moving object under the environment from an operator b1) A driving means for moving the moving object based on the movement command; b2) a set distance data measuring means for measuring set distance data that is a set of direction-specific distance data every predetermined time; and C) The moving object motion control data generating device includes: c1) first storage means for storing the set distance data for each predetermined time together with motion data of the moving object; c2) the path intersection point during the movement. When an environment specific word representing the environment is given by the operator, additional means for adding to and stored in the set distance data, c3) the interrelation between the values of the distance-specific distance data constituting the set distance data A first rule storage means for storing correspondence rules with the abstract environment data of the surrounding environment; c4) based on the correspondence rules, from the set distance data stored in the first storage means for each predetermined time, Abstracted set environment data specifying means for specifying the abstract set environment data of the environment, c5) Second storage means for storing the abstract set environment data for each direction, c6) Stored in the second storage means Among the abstract set environment data, the abstract set environment data to which the environment specific word is added is determined as the attention abstract set environment data, and a predetermined number of abstracts before and after the target abstract set environment data are determined. Continuous data determining means for determining collective environment data as continuous data, c7) extracting continuous data having the same environment specific word and action from the plurality of continuous data, and different values for the environmental data for each direction of the continuous data A generation unit that discards the direction-specific abstract environment data and generates continuous data composed of common abstract set environment data having the same direction-specific abstract environment data as continuous data corresponding to the environment specific word I have.
[0015]
As described above, the set distance data for each predetermined time and the movement data of the moving object are stored together with the given environment specific word, and based on the correspondence rule, the abstract of the surrounding environment is obtained from the set distance data for the predetermined time. Specific set environment data is determined as continuous data together with the attention set environment data of the abstract set environment data, and based on the plurality of continuous data, a common abstract set The continuous data composed of the environmental data is generated as the operation command continuous data corresponding to the environment specific word. Therefore, the operation control based on the operation command continuous data can be performed by the environment specific word given by the operator. In addition, since the operation of the moving object can be controlled by the environment specific word, programming is also simplified.
[0016]
Further, in the generation of the common abstract set environment data, the continuous data having the same environment specific word and the same operation is extracted from the plurality of continuous data, and different values are obtained for the abstract environment data for each direction of the continuous data. The direction-specific abstract environment data is discarded, and continuous data composed of common abstract set environment data having the same value of direction-specific abstract environment data is generated as operation command continuous data corresponding to the environment specific word. Therefore, it is possible to generate motion command continuous data that generalizes continuous data having the same environment specific word and motion.
[0017]
9) In the moving object motion control data generation device according to the present invention, the generation means discards the direction-specific abstract environment data of different values for the direction-specific abstract environment data of the extracted continuous data. The values of the direction-specific abstract environment data constituting the continuous data are mirror-symmetrically exchanged around the target abstract set environment data.
[0018]
The values are mirror-symmetrically exchanged around the focused environment set environment data. Therefore, if only one is detected in the target situation in the time axis direction, the continuous data can be obtained without actually operating the other.
[0019]
10) In the moving object motion control data generation device according to the present invention, the generation means discards the direction-specific abstract environment data having different values for the direction-specific environment data of the extracted continuous data. The direction-specific abstracted environment data is mirror-symmetrically exchanged in the direction orthogonal to the traveling direction. Therefore, if only one is detected in the direction orthogonal to the traveling direction, the continuous data can be acquired without actually operating the other.
[0020]
11) The moving object motion control data generation method according to the present invention generates moving object motion control data for generating motion control data for the moving object in order to control the motion of the moving object with an environment specific word used by a human. The method comprises: 1) measuring collective environment data, which is a set of surrounding environment data for each direction of the moving object, while moving the moving object, and 2) collecting collective environment data for each predetermined time Stored together with the movement data of the moving object, 3) when an environment specific word representing the environment is given by the operator during the movement, and added and stored in the collective environment data, and 4) the direction stored in advance Based on the correspondence rule between the mutual relationship of the different environment data and the abstract environment data of the surrounding environment, the abstract set environment data of the surrounding environment is obtained from the stored set environment data every predetermined time. 5) Among the stored abstract set environment data, the abstract set environment data to which the environment specific word is added is determined as the notice set environment data, together with the notice set environment data, A predetermined number of collective environment data before and after that are determined as continuous data. 6) Among the plurality of continuous data, the environment specific words are extracted with the same continuous data, and the abstract environment data for each direction of the continuous data is different. Abandoning the abstract environment data by direction of values and generating continuous data composed of common abstract set environment data having abstract environment data by direction of the same value as action command continuous data corresponding to the environment specific word .
[0021]
As described above, the collective environment data for each predetermined time and the movement data of the moving object are stored together with the given environment specific word, and based on the correspondence rules, the abstract of the surrounding environment is obtained from the collective environment data for the predetermined time. Specific set environment data is determined as continuous data together with the attention set environment data of the abstract set environment data, and based on the plurality of continuous data, a common abstract set The continuous data composed of the environmental data is generated as the operation command continuous data corresponding to the environment specific word. Therefore, the operation control based on the operation command continuous data can be performed by the environment specific word given by the operator. In addition, since the operation of the moving object can be controlled by the environment specific word, programming is also simplified.
[0022]
The relationship between the terms used in the claims and the embodiments will be described below.
[0023]
“Environment specific word”: a word indicating an environment around the moving object, and corresponds to an intersection, a three-way road, or the like in the embodiment.
[0024]
“Gathering environment data”: A collection of surrounding environment data by direction. In the embodiment, it is a collection of surrounding environment data by direction of the five sensors of left, left front, front, right front, and right. It is a concept that includes.
[0025]
“Directional environment data by direction”: In the embodiment, the distance (40) of each sensor at each time shown in FIG. 11 corresponds to the concept including distance data by direction.
[0026]
“Operation data”: Data indicating the moving state of the moving object, and in the embodiment, corresponds to data based on a driving command given to the moving object by the operator.
[0027]
“Abstract environment data”: In the embodiment, “there is a plane in that direction” in the table shown in FIG.
[0028]
“Abstract set environment data”: In the embodiment, “surface”, “vacant”, etc. for each time shown in FIGS.
[0029]
“Aggregate environment data”: A set of surrounding environment data by direction, and in the embodiment, a set of surrounding environment data by direction of five sensors, left, left front, front, right front, and right.
[0030]
“Attention set environment data”: Abstract set environment data to which an environment specific word given by an operator is added.
[0031]
“Sequential data”: A collection of collective environment data composed of noticeable collective environment data and a predetermined number of collective environment data before and after.
[0032]
“Mirror symmetry replacement”: In the embodiment, mirror symmetry replacement processing in the forward direction and / or mirror symmetry replacement processing in the time axis direction are applicable.
[0033]
“Distance data by direction”: In the embodiment, the distance (40) of each sensor at each time shown in FIG.
[0034]
“Aggregation distance data”: A collection of direction-specific distance data.
[0035]
“Passage intersection”: In the embodiment, it refers to a point where passages intersect (connect) such as an intersection, a three-way intersection, or a corner.
[0036]
DETAILED DESCRIPTION OF THE INVENTION
1. Functional block diagram description
An embodiment of the present invention will be described with reference to the drawings. The moving object motion control data generation device 10 shown in FIG. 1 is configured to control a moving object with an environment-specific word used by a human in an environment composed of a passage and a passage intersection where each passage intersects. 1 is a device for learning the environment specific words, the first storage means 3, the addition means 5, the first rule storage means 7, the abstract set environment data specification means 9, the second storage means 11, the continuous data A determination unit 13 and a generation unit 15 are provided.
First, the moving object 1 will be described. The moving object 1 is a set of driving means 4 that moves itself based on the movement command and a set of distance-specific distance data every predetermined time when a movement command is given by the operator to move in the environment. A set distance data measuring means 2 for measuring set distance data is provided.
[0037]
The first storage means 3 stores the set distance data for each predetermined time together with the motion data of the moving object. When the environment specifying word representing the environment is given by the operator at the intersection of the passages during the movement, the adding means 5 adds and stores it in the set distance data. The first rule storage means 7 stores a correspondence rule between the interrelationships between the values of the direction-specific distance data constituting the aggregate distance data and the abstract environment data of the surrounding environment. The abstract set environment data specifying unit 9 specifies the abstract set environment data of the surrounding environment from the set distance data for each predetermined time stored in the first storage unit 3 based on the correspondence rule. The second storage unit 11 stores the abstract set environment data for each direction. The continuous data determination unit 13 determines the abstract set environment data to which the environment specific word is added from the abstract set environment data stored in the second storage unit 11 as the attention abstract set environment data, Along with the noticeable abstract collective environment data, a predetermined number of abstract collective environment data is determined as continuous data. The generation unit 15 extracts continuous data having the same environment specific word and action from the plurality of continuous data, discards the direction-specific abstract environment data of different values for the environmental data for each direction of the continuous data, Consecutive data composed of common abstracted set environment data having direction-specific abstract environment data of the same value is generated as continuous data corresponding to the environment specific word.
[0038]
As described above, the set distance data for each predetermined time and the movement data of the moving object are stored together with the given environment specific word, and based on the correspondence rule, the abstract of the surrounding environment is obtained from the set distance data for the predetermined time. Specific set environment data is determined as continuous data together with the attention set environment data of the abstract set environment data, and based on the plurality of continuous data, a common abstract set The continuous data composed of the environmental data is generated as the operation command continuous data corresponding to the environment specific word. Therefore, the operation control based on the operation command sequence data can be performed only by giving the environment specific word by the operator. In addition, since the operation of the moving object can be controlled by the environment specific word, programming is also simplified.
[0039]
Further, in the generation of the common abstract set environment data, the continuous data having the same environment specific word and the same operation is extracted from the plurality of continuous data, and different values are obtained for the abstract environment data for each direction of the continuous data. The direction-specific abstract environment data is discarded, and continuous data composed of common abstract set environment data having the same value of direction-specific abstract environment data is generated as operation command continuous data corresponding to the environment specific word. Therefore, it is possible to generate motion command continuous data that generalizes continuous data having the same environment specific word and motion.
[0040]
2. Hardware configuration
An operation plan determination robot (hereinafter abbreviated as “robot”) 20 provided with the operation control data generation device 10 shown in FIG. 1 will be described.
[0041]
As shown in FIG. 2, the robot 20 can be self-propelled by a pair of front wheels 47 and a pair of rear wheels 48, and five sensors 40s1 to 40s5 are provided on the side walls. As shown in FIG. 3, the five sensors can measure the distance from the obstacle over the entire circumference. The robot 20 receives a drive command from the remote controller with the antenna 21 and self-runs based on the drive command.
[0042]
The hardware configuration of the robot 20 will be described with reference to FIG. The robot 20 includes a CPU 23, a RAM 27, a keyboard 28, an interface 31, a communication board 28, and a bus line 29. The CPU 23 controls each unit via the bus line 29 according to a control program stored in the ROM 25.
[0043]
The control program may be read from a recording medium such as a PC card and written in the ROM 25. In addition to the PC card, the ROM 25 may be installed from a computer-readable recording medium in which programs such as a flexible disk, a CD-ROM, and an IC card are substantially integrated. Furthermore, it may be downloaded using a communication line.
[0044]
The start command, end command, and various drive commands given by the operator are given to the CPU 23 via the communication board 28. Five sensors 40s1 to 40s5 are connected to the interface 31.
[0045]
The interface 31 is connected to a motor drive unit 37 that controls the drive of the rear wheel drive motor M and a motor drive unit 38 that performs handling control. The motor drive unit 37 controls the rear wheel 47 shown in FIG. 2, and the motor drive unit 38 controls the front wheel 48, respectively.
[0046]
In addition, the RAM 27 stores various calculation results and the like.
[0047]
As shown in FIG. 5, the ROM 25 stores a correspondence table between environment data and abstract environment data. With this correspondence table, the robot 20 can grasp the surrounding environment according to the sensor values extracted from the five sensors. In this sense, the environment data is a condition (a specific numerical value), and the abstract environment data is in a relationship of results (data representing the detected environment).
[0048]
3. flowchart
Next, programs stored in the ROM 25 will be described. The ROM 25 stores a plurality of programs shown in FIGS.
[0049]
FIG. 7 is an overall flowchart. The operator gives an operation control command from a remote controller (not shown) so that the robot 20 moves along the locus 120 shown in FIG. The operation control command is received by the communication board 28 shown in FIG. The CPU 23 performs drive processing based on the drive processing program shown in FIG. Specifically, the CPU 23 determines whether or not a drive command which is a movement command is given (step S11 in FIG. 8). When the drive command is given, a signal for executing the drive command is sent to the motor drive unit 37. , 39 (step S13). Thereby, the motors M1 and M2 are driven, and the robot 20 moves along the locus 120 shown in FIG. The given drive command is temporarily stored in the RAM 27 (step S15).
[0050]
When moving, the CPU 23 performs a sensor value detection process (step S1 in FIG. 7). Details of such detection processing will be described with reference to FIG. The CPU 23 determines whether or not a predetermined time (Δt seconds in this case) elapses (step S21 in FIG. 9), and stores the detection values of the five sensors 40s1 to 40s5 when the predetermined time elapses (step S23). . The CPU 23 stores the current drive command in the RAM 27 as aggregate data (step S25). Thereby, the value of each sensor at the time t1 shown in FIG. 11A and the movement at that time are stored. By repeating the processing of step S21 to step S25, the set distance data for each predetermined time interval is stored in the plurality of RAMs 27 as shown in FIG.
[0051]
Since each sensor is provided on the body (side wall) of the robot 20, it rotates together with the rotation of the robot 20. Therefore, each sensor value is not detected while the robot 20 is rotating. Further, in FIG. 11A, the sensor values are completely different before and after the rotation. Thus, by detecting numerical values in the coordinate system in which the robot traveling direction is the Y direction, it is possible to extract environmental data relative to the robot traveling direction.
[0052]
The operator inputs the environment specific word and the action specific word to be learned at an appropriate timing while the robot 20 is moving. For example, at time t1, “passage / forward”, at time t7 “intersection / right turn”, at time t10 “passage / forward”, etc., the remote controller (not shown) is operated and given to the robot 20. .
[0053]
In the robot 20, during the movement, the program shown in FIG. 10 is executed together with the program shown in FIG. The CPU 23 determines whether or not the environment specifying word and the action specifying word are given from the operator (step S31). When the environment specifying word and the action specifying word are given from the operator, the set distance is determined at that timing. Append to data.
[0054]
Thereby, as shown in FIG. 11B, set distance data to which the environment specific word and the action specific word are added is generated.
[0055]
Next, the CPU 23 generates abstract environment data of the surrounding environment based on the set distance data (step S3 in FIG. 7). The abstract environment data generation process will be briefly described. As shown in FIG. 11A, five distance-specific distance data are measured at each time. This is called set distance data. For such aggregate distance data, direction-specific environment data is generated from the direction-specific distance data using the correspondence table shown in FIG. For example, at times t1 and t2, in the left direction, both the sensor values are “40” and the movements are both “forward”. Therefore, it is determined by rule 3 that there is a surface. The same applies to the left front direction, right front direction, and right direction.
[0056]
Since the sensor value in the forward direction is infinite, it is determined to be “vacant”. Further, from time t2 to time t3, the sensor value is significantly different in the forward direction from “infinity” to “85”. Therefore, it is determined by rule 4 that there is an end between them. The same applies to the left front direction.
[0057]
In this embodiment, since distances in five directions are measured, there is no case where rules 1 and 2 can be applied, but distances in eight directions such as left rear, right rear, and rear are measured. In this case, abstract environment data can be generated by applying rules 1 and 2. Furthermore, finely, for example, sensors may be provided in more directions such as 12 directions and 16 directions, and the values thereof may be measured.
[0058]
Thereby, the abstract environment data as shown in FIGS. 12 to 16 is generated.
[0059]
Next, the CPU 23 performs an abstraction continuous data generation process shown in step S5 of FIG. The abstracted continuous data generation process will be described with reference to FIG. The CPU 23 determines continuous data (step S41 in FIG. 17). The continuous data refers to a collection of a predetermined number of abstract set environment data around the abstract set environment data to which environment specific words such as “passage” and “intersection” are added. In the present embodiment, the abstract collective environment data that is the center of the continuous data is referred to as “attention collective environment data”. I decided to determine it as two consecutive data. As a result, a plurality of pieces of continuous data are determined based on the abstract set environment data shown in FIGS.
[0060]
Next, the CPU 23 groups consecutive data having the same environment specific word and drive command (step S43 in FIG. 17). For example, the continuous data with the environment specific word “three-way” driving command “clockwise” is continuous data from t5 to t9 with t7 as the attention set environment data, and continuous data from t21 to t26 with t23 as the attention set environment data. is there. Therefore, these are made into one group. Similarly, the continuous data that is the environment specific word “passage” drive command “forward” is the continuous data with t10, t18, t29, t39, t47, t55, t64, t73, t82, t90, t100 as the attention set environment data. It is data. The continuous data that is the environment specific word “intersection” driving command “counterclockwise” is t14, t60. The continuous data that is the environment specific word “intersection” driving command “clockwise” is t51, t86. The continuous data which is the environment specific word “three-way intersection” driving instruction “counterclockwise” is t77, t96. The continuous data that is the environment specific word “turning corner” driving command “clockwise” is t43. The continuous data having the word “turning angle” driving instruction “counterclockwise” is t69. The continuous data that is the environment specific word “intersection” driving command “forward” is t35. The continuous data having the environment specific word “three-way intersection” driving command “straight ahead” is t105.
[0061]
Next, the processing target group number i is initialized (step S45 in FIG. 17), and generalization processing is performed for the i-th group (step S47). Generalization processing means abstracting environmental data for each direction of continuous data belonging to each group. For example, in the group having the environment specific word “intersection” driving instruction “clockwise”, the attention set environment data t51 and t87 are centered on each other. In this case, as shown in FIGS. 18A and 18B, at t49 and t85, the left, front, right front, and right match, at t50 and t86, all of the left, front left, to right match, and at t52 and t88, the left, All of the left front, ~ right match, and t53 and t89 match all of the left, front left, ~ right. Accordingly, the group of the environment specific word “intersection” driving command “clockwise” is generalized as shown in FIG. 18C.
[0062]
Next, the CPU 23 determines whether or not the generalization process has been completed for all groups (step S49). If the generalization process has not been completed for all groups, the process target group number i is incremented by the CPU (step S51), and the process of step S47 is repeated.
[0063]
In this way, the environment specific word and drive command pairs are “three-way crossing / clockwise”, “three-way crossing / counterclockwise”, “three-way crossing / straight ahead”, “passage / forward”, “intersection, counterclockwise”, “intersection / It is generated for “clockwise”, “intersection / forward”, “turning / clockwise”, and “turning / clockwise”. FIG. 19 shows a state where an “intersection / counterclockwise” pair of environment specific words and drive commands is generated from two pieces of continuous data. In FIG. 20, the pair of environment specific word and drive command is “three-way crossing / clockwise” from two consecutive data, and in FIG. 21, the pair of environment specific word and drive command is “three-way / This indicates the case of “counterclockwise” and “intersection / clockwise”. FIG. 22 shows abstract continuous data in which a pair of environment specific word and drive command is “passage / straight forward”.
[0064]
In this way, the abstract continuous data is generated for each environment specific word having a different drive command.
[0065]
Such abstracted continuous data is stored in the robot 20 as motion command continuous data, and when the operator gives the motion specific word to the robot 20 together with the environment specific word, in FIG. The robot 20 can be caused to move as intended by the operator.
[0066]
For example, in FIG. 23A, when the robot 20 is placed at a point 130 and it is desired to move the robot 20 along the trajectory 140, the operator can select “passage / straight forward”, “three-way crossing / right turn”, “passage / Go straight and give the command. The robot 20 reads the operation command series data of “passage / straight forward” and “three-way / right turn”. The robot 20 periodically detects the environmental data, determines whether the detected environmental data matches any operation command data of the current operation command continuous data. A drive command based on the operation command data may be output to the motor drive units 37 and 38. On the other hand, if the detected environmental data does not match the current operation command data, it may be determined whether or not it matches the next operation command data. Thereby, the control according to the operation command data is sequentially performed.
[0067]
For example, from the first operation command data (left: null, left front: surface, front: empty, right: surface, right front: null, operation: forward) in FIG. A control command is given to the drive units 37 and 38. The robot starts moving, and the CPU 23 determines whether or not the sensor value after Δt seconds matches the current operation command data (first operation command data). If they match, the current operation “advance” continues. On the other hand, if they do not match, it is determined whether or not they match the second operation command data (left: null, left front: surface, front: null, right: surface, right front: null, operation: forward). If these two operation command data do not match, it is determined whether or not they match the third operation command data, and the operation is controlled along the arranged operation command data.
[0068]
The operation command sequence data is composed of a plurality of operation command data, and the operation command data at both ends (for example, +2 and -2) in each operation command sequence data is highly generalized. Therefore, even if it is originally necessary to shift to the control based on the next operation command continuous data, there is a case where the shift is not performed. In such a case, it is only necessary to shift to the next operation command sequence data as described below. For example, as shown in FIG. 23B, in the case where the operation is currently controlled by the operation command continuous data R1, and the control is switched from the middle to the control by the operation command continuous data R2, the moving object from the environment Cn to Cn + 5 When moving, the operation command sequence data is switched as follows.
[0069]
In the detection environment Cn + 3, it matches the operation command data at -2 of the operation command sequence data R1, and then in the detection environment Cn + 4, matches the operation command data at -1 of the operation command sequence data R1. Suppose that Under such circumstances, when the process proceeds to the detection environment Cn + 5, if the operation command data at 0 of the operation command sequence data R1 does not match, it is determined whether or not the operation command data at 0 of the next operation command sequence data R2 matches. Judge. If they match, it is determined whether or not the operation command data at -2 and -1 in the operation command sequence data matches the detection environments Cn + 4 and Cn + 3. What is necessary is just to switch to operation control by the operation command continuous data R2.
[0070]
Such a detection environment may be a case where the time axis compression described later is performed even after the Δt has elapsed.
[0071]
In this way, in the present embodiment, the operation command sequence data is sequentially called, and it is determined whether the surrounding environment changes and the control is shifted to the next operation command sequence data. Therefore, the operator simply gives an environment specific word for each operation in the order in which control is desired, and the operation is controlled by the motion command sequence data for the environment specific word of the robot.
[0072]
4). Other embodiments
In the above embodiment, when the environment specific word and the drive command are the same for the extracted environment data by moving the robot under a certain environment, generalization is performed to collect them. However, if such generalization is not appropriate, there is a risk of malfunction. That is, when generalized excessively, the conditions are matched even in other operation command continuous data. Further, in the above embodiment, since it is arbitrarily moved under the environment in FIG. 6, not all patterns may be detected as targets for each group.
[0073]
Therefore, by generating multiple candidates that have undergone mirror symmetry exchange processing with respect to directionality and / or time axis as follows, try to move them and eliminate inappropriate candidates, so that more appropriate general Can be made.
[0074]
For example, in the case of a three-way road, even if it is the same right turn, there are a right turn as shown in FIG. 24A and a right turn as shown in FIG. 24B. In this case, the continuous data of both are data as shown in FIGS. 25A and 25B, respectively, and when generalized as they are, the operation command continuous data as shown in FIG. 25C is obtained. On the other hand, if one of them is subjected to mirror symmetry replacement processing with respect to the forward direction to generate a new candidate and generalize it, operation command sequence data as shown in FIG. 26C is generated. In this case, the data in Example 2 (data in FIG. 25B) is replaced with left and right, and left front and right front data, respectively.
[0075]
Further, when either of them is subjected to mirror object replacement processing in the time axis direction and generalized, the operation command continuous data as shown in FIG. 27C is obtained. In this case, the data of Example 2 (data of FIG. 25B) is replaced with t + 2 and t + 1 and t3 data about t + 2.
[0076]
Moreover, you may make it perform both mirror object replacement | exchange processes with respect to a time-axis and a forward direction. This case is shown in FIG. 28C.
[0077]
Further, when going straight on the three-way road, the cases shown in FIGS. 29A and 29B are conceivable. In this case, the continuous data of both are data as shown in FIGS. 30A and 30B, respectively, and when generalized as they are, the operation command continuous data as shown in FIG. 30C is obtained. On the other hand, similarly, the cases where the mirror symmetry replacement processing with respect to the forward direction, the mirror symmetry replacement processing with respect to the time axis direction, and the mirror symmetry replacement processing with respect to the forward direction and time axis direction are performed are shown in FIGS. 31C, 32C, and 33C, respectively. The operation command sequence data is as shown.
[0078]
In this way, the generated abstracted continuous data is stored as candidates. And while moving the robot 20, among those candidates, the candidates that malfunction with the conditions of other groups are deleted because they are excessively generalized, and each group is divided into small groups. It is only necessary to memorize and select one satisfying in actual application. In this way, even if the combination of the environment specific word and the drive command is the same, it is not generalized all together, but is divided into a plurality of small groups and stored in the actual application stage. By specifying such suitable candidates, malfunctions due to excessive generalization can be avoided.
[0079]
For example, assuming that the environment specific word and the drive command are the same, there are three candidates as “three-way / right turn”, and the candidate is obtained by performing the mirror symmetry replacement processing in the forward direction and the mirror symmetry replacement processing in the time axis direction. Assume that seven were obtained. If these seven are further memorized as small groups and tested, and two of these small groups malfunction with other groups (for example, “intersection / right turn”), they are deleted, The remaining five small groups are stored as candidates for “three-way intersection / right turn”. When the operation command “passage / forward” or “three-way / right turn” is actually given from the operator, it is determined whether or not the current environment matches the data of the five small groups. That's fine.
[0080]
In the above embodiment, generalization is performed when the drive command and the environment specific word are the same. However, if the environment specific word is the same, the rotation direction is ignored and the clockwise rotation and the counterclockwise rotation are performed. As a result, generalized candidates can also be generated. Such an example is shown in FIG. In FIG. 34, “intersection / clockwise” shown in FIG. 34A and “intersection / clockwise” shown in FIG. 34B are generalized as “intersection / rotation” as shown in FIG. FIG. 35 shows an example in which “three-way / rotation” is generated from “three-way / clockwise” and “three-way / clockwise”. For such generalization, it is only necessary to store in advance a rule that generalizes clockwise and counterclockwise as rotation.
[0081]
Furthermore, even if the drive command and the environment specific word are not the same, generalization may be performed to collect the same environment specific word.
[0082]
It should be noted that a plurality of candidates with different degrees of generalization are generated and inspected, and if excessive generalization is performed, this is excluded and a plurality of candidates are stored, By controlling the operation with the operation command continuous data, it is possible to cause the robot to make a desired movement.
[0083]
Note that there may be cases where the timing of word input is shifted. In such a case, the position of the attention set environment data is shifted forward and backward in the time direction, and the best match may be obtained.
[0084]
The mirror symmetry replacement process with respect to the forward direction and the mirror symmetry replacement process with respect to the time axis direction have been described for two cases, but the same applies even if three or more are combined. For example, when there are three pieces of extracted continuous data (continuous data 1, 2, 3), two are used respectively, no mirror symmetry replacement processing, and mirror symmetry replacement processing (forward direction and / or time axis direction). Generalization when combined, and in addition to this, generalization when using all three, without mirror symmetry replacement processing, with mirror symmetry replacement processing (forward direction and / or time axis direction) Should be done.
[0085]
In this embodiment, since the distance is used as the sensor value, the generalization process corresponds to a process of grasping the shape of the surrounding environment based on the value of each sensor and a predetermined rule. However, the present invention is not limited to this, and includes all processes for abstracting (generalizing) environment set data based on predetermined rules. The environmental set data is data of a combination of environments in all directions based on the five sensors shown in FIG.
[0086]
Moreover, in the said embodiment, although environmental data were produced | generated from the data extracted from the sensor, you may make it compress the data extracted from the sensor to a time-axis direction as follows. This is because when the time interval detected by the sensor is considerably shorter than the change in the surrounding environment, the front two sets and the back two of the attention set environment data may be equal as in the above embodiment. Because.
[0087]
Even if compression is performed in the time axis direction in this way, there is no problem because each data retains the meaning in the time series direction. Conversely, a desired operation can be performed regardless of the moving speed of the robot.
[0088]
As for edge recognition, it may be determined whether the edge is approaching or moving away. Thereby, the shape of the surrounding environment can be grasped more accurately. For example, when the sensor value in a certain direction changes from “infinity” to “100” between times tx and tx + 1, it can be determined that the end is approaching. Further, when the sensor value in a certain direction is changed from “45” to “100” between the times tx and tx + 1, it can be determined that there is an end that is far from a short distance. In the opposite case, for example, when the sensor value is changed from “100” to “45”, it can be determined that there is an end that is a short distance from a long distance.
[0089]
In the above embodiment, two-dimensional distance data is used, but the same applies to the case of three-dimensional distance data. For example, the height of an object constituting the environment may be employed. For example, if the height is less than a certain value (for example, 5 mm), the user can get on and move, and if the height is more than the value, the user can learn to make a detour. Furthermore, you may make it input an uphill or a downhill as an environment specific word.
[0090]
In the above-described embodiment, the case where the distance from the environment around the robot is used as the environment data has been described. However, any environmental data that can be detected by a sensor, such as the surface material, color, and the like is used. May be.
[0091]
In addition, the explanation has been given for the case where only the person moves, but when the opponent moves, different correction rules such as the moving speed of the opponent, the stored energy, the shape of the object, etc. are stored and corrected. You can do it.
[0092]
In this embodiment, the case where the present invention is applied to a robot has been described. However, the present embodiment can be similarly applied to a computer game. For example, in a game using a computer, a user can apply a rule of guessing a rule of movement of an object from past movements of the object and competing for a score to destroy the object in advance.
[0093]
In the present embodiment, the CPU 23 is used to realize the function shown in FIG. 1, and this is realized by software. However, some or all of them may be realized by hardware such as a logic circuit.
[Brief description of the drawings]
FIG. 1 is a functional block diagram of a moving object motion control data generation apparatus 10 according to the present invention.
FIG. 2 is an external view of a robot 20 including the moving object motion control data generation device shown in FIG.
FIG. 3 is a diagram showing detection directions of five sensors.
4 is a diagram illustrating an example of a hardware configuration of a robot 20. FIG.
FIG. 5 shows a table for generating direction-specific environment data from direction-specific distance data.
6 is a diagram showing a trajectory for operating the robot 20. FIG.
FIG. 7 is an overall flowchart.
FIG. 8 is a flowchart of a driving process.
FIG. 9 is a flowchart of sensor value detection processing;
FIG. 10 is a flowchart of an environment specific word input process.
FIG. 11 shows an example of detected sensor values.
FIG. 12 is abstract environment data generated from the sensor value.
FIG. 13 is abstract environment data generated from the sensor value.
FIG. 14 is abstract environment data generated from the sensor value.
FIG. 15 is abstract environment data generated from the sensor value.
FIG. 16 is abstract environment data generated from the sensor value.
FIG. 17 is a flowchart of an abstraction continuous data generation process.
FIG. 18 is a diagram for explaining generalization processing in each group;
FIG. 19 is a diagram for explaining a generalization process in each group;
FIG. 20 is a diagram for explaining generalization processing in each group;
FIG. 21 is a diagram for explaining a generalization process in each group;
FIG. 22 shows operation command data in passage and forward movement.
FIG. 23 shows an environment in which the robot 20 is operated.
FIG. 24 shows an operation example of different patterns on a three-way road.
25 shows data obtained from sensor values detected in FIG. 24. FIG.
FIG. 26 shows data in a case where the sensor values detected in FIG. 24 are mirror-symmetrically exchanged in the left-right direction.
27 shows data when the sensor values detected in FIG. 24 are mirror-symmetrically exchanged in the time axis direction.
FIG. 28 shows data when the sensor values detected in FIG. 24 are mirror-symmetrically exchanged in the left-right direction and the time axis direction.
FIG. 29 shows an operation example of different patterns on a three-way road.
30 shows data obtained from sensor values detected in FIG. 29. FIG.
FIG. 31 shows data in a case where the sensor values detected in FIG. 29 are mirror-symmetrically exchanged in the left-right direction.
32 shows data when the sensor values detected in FIG. 29 are mirror-symmetrically exchanged in the time axis direction.
FIG. 33 shows data when the sensor values detected in FIG. 29 are mirror-symmetrically exchanged in the left-right direction and the time axis direction.
FIG. 34 shows data when a clockwise turn and a counterclockwise turn are combined and rotated on a three-way road.
FIG. 35 shows data when rotating clockwise and counterclockwise at an intersection.
[Explanation of symbols]
23 .... CPU
27 ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ Memory
40s1 ~ 40s5 ・ ・ ・ ・ ・ ・ Sensor

Claims (13)

A)移動物体の動作を人間が用いる環境特定単語で制御するために、前記移動物体の動作制御用のデータを生成する移動物体動作制御データ生成装置であって、
B)前記移動物体は、
b1)操作者から前記移動物体を前記環境下にて移動させる移動命令が与えられると、当該移動命令に基づいて、前記移動物体を移動させる駆動手段、
b2)所定時間毎に前記移動物体の方向別周辺環境データの集合である集合環境データを計測する集合環境データ計測手段、
を備え、
C)前記移動物体動作制御データ生成装置は、
c1)前記集合環境データ計測手段が計測した前記所定時間ごとの集合環境データを、前記移動物体の動作データとともに記憶する第1の記憶手段、
c2)前記移動中に操作者から当該環境を表す環境特定単語が与えられると、前記集合環境データに付加して記憶させる付加手段、
c3)前記方向別環境データの相互関係と周辺環境の抽象化環境データとの対応規則を記憶した第1規則記憶手段、
c4)前記対応規則に基づいて、前記第1の記憶手段に記憶された前記所定時間毎の集合環境データから、周辺環境の抽象化集合環境データを特定する抽象化集合環境データ特定手段、
c5)前記方向別の抽象化集合環境データを記憶する第2の記憶手段、
c6)前記第2の記憶手段に記憶された抽象化集合環境データのうち、前記環境特定単語が付加されている抽象化集合環境データを注目集合環境データとして決定し、前記注目集合環境データとともに、その前後所定数の集合環境データを連データとして決定する連データ決定手段、
c7)前記複数の連データのうち、環境特定単語が同じ連データを抽出し、かかる連データの各方向別抽象化環境データについて、異なる値の方向別抽象化環境データを捨てて、同じ値の方向別抽象化環境データを有する共通抽象化集合環境データで構成された連データを当該環境特定単語に対応する動作指令連データとして生成する生成手段、
を備えたことを特徴とする移動物体動作制御データ生成装置。
A) A moving object motion control data generating device that generates data for motion control of the moving object in order to control the motion of the moving object with an environment specific word used by a human,
B) The moving object is
b1) When a movement command for moving the moving object in the environment is given by an operator, a driving unit that moves the moving object based on the movement command;
b2) Collective environment data measuring means for measuring collective environment data which is a set of surrounding environmental data according to the direction of the moving object at predetermined time intervals,
With
C) The moving object motion control data generation device includes:
c1) first storage means for storing the collective environment data for each predetermined time measured by the collective environment data measuring means together with the motion data of the moving object;
c2) When an environment specific word representing the environment is given by the operator during the movement, an adding means for adding and storing the collective environment data;
c3) a first rule storage means for storing correspondence rules between the interrelationships of the environmental data by direction and the abstract environment data of the surrounding environment;
c4) Abstracted set environment data specifying means for specifying the abstract set environment data of the surrounding environment from the set environment data for each predetermined time stored in the first storage means based on the correspondence rule;
c5) second storage means for storing the abstracted set environment data for each direction;
c6) Among the abstract set environment data stored in the second storage means, the abstract set environment data to which the environment specific word is added is determined as the notice set environment data, and together with the notice set environment data, Continuous data determining means for determining a predetermined number of collective environment data before and after as continuous data,
c7) From the plurality of continuous data, the continuous data having the same environment specific word is extracted, and for each direction abstraction environment data of the continuous data, the different value direction abstraction environment data is discarded, and the same value is obtained. Generating means for generating continuous data composed of common abstract set environment data having direction-specific abstract environment data as operation command continuous data corresponding to the environment specific word;
A moving object motion control data generation apparatus comprising:
請求項1の移動物体動作制御データ生成装置において、
前記生成手段は、前記複数の連データのうち、環境特定単語および動作が同じ連データを抽出し、かかる連データの各方向別抽象化環境データについて、異なる値の方向別抽象化環境データを捨てて、同じ値の方向別抽象化環境データを有する共通抽象化集合環境データで構成された連データを当該環境特定単語に対応する動作指令連データとして生成すること、
を特徴とするもの。
In the moving object motion control data generation device according to claim 1,
The generation means extracts continuous data having the same environment specific word and action from the plurality of continuous data, and discards the abstract environment data by direction of different values for the abstract environment data by direction of the continuous data. Generating continuous data composed of common abstract set environment data having the same value of direction-specific abstract environment data as action command continuous data corresponding to the environment specific word,
It is characterized by.
請求項2の移動物体動作制御データ生成装置において、
前記生成手段は、前記抽出した連データの各方向別環境データについて、異なる値の方向別抽象化環境データを捨てる場合に、連データを構成する方向別抽象化環境データの値を、注目環境集合環境データを中心に鏡対称入れ替えを行なうこと、
を備えたことを特徴とするもの。
The moving object motion control data generation device according to claim 2,
When the generation means discards the direction-specific abstract environment data of different values for each direction-specific environment data of the extracted continuous data, the generation means sets the value of the direction-specific abstract environment data constituting the continuous data as a target environment set. Performing mirror-symmetrical replacement around environmental data,
Characterized by comprising.
請求項2または請求項3の移動物体動作制御データ生成装置において、
前記生成手段は、前記抽出した連データの各方向別環境データについて、異なる値の方向別抽象化環境データを捨てる場合に、連データを構成する各方向別抽象化環境データについて、その値を進行方向に対して直交する方向に鏡対称入れ替えを行なうこと、
を備えたことを特徴とするもの。
In the moving object motion control data generation apparatus of Claim 2 or Claim 3,
When the generation means discards the direction-specific abstract environment data having different values for each direction of the extracted continuous data, the generation unit advances the values of the direction-specific abstract environment data constituting the continuous data. Performing mirror symmetry replacement in a direction perpendicular to the direction,
Characterized by comprising.
請求項2の移動物体動作制御データ生成装置において、
前記生成された複数の環境データについて、動作の回転方向が異なる場合には、さらに、各方向別抽象化環境データについて、異なる値の方向別抽象化環境データを捨てて、同じ値の方向別抽象化環境データを有する共通抽象化集合環境データで構成された連データとすること、
を特徴とするもの。
The moving object motion control data generation device according to claim 2,
When the rotation direction of the operation is different for the plurality of generated environment data, the direction-specific abstract environment data having different values is discarded for the direction-specific abstract environment data, and the direction-specific abstracts having the same value are discarded. Continuous data composed of common abstraction set environment data having a generalized environment data,
It is characterized by.
請求項2の移動物体動作制御データ生成装置において、
前記得られた複数の動作指令連データについて、操作者によって、試運用し、仮に適用した場合に、他の動作指令連データと区別できないほど、抽象化されたものは削除すること、
を特徴とするもの。
The moving object motion control data generation device according to claim 2,
For the plurality of obtained motion command continuous data, when the operator performs trial operation and temporarily applied, the abstracted data is deleted so that it cannot be distinguished from other motion command continuous data.
It is characterized by.
請求項2の移動物体動作制御データ生成装置の使用方法であって、
操作者は、前記移動物体を前記環境下にて、任意に移動させて前記移動物体の動作を制御するデータを生成させること、
を特徴とするもの。
A method of using the moving object motion control data generation device according to claim 2,
An operator causes the moving object to arbitrarily move in the environment to generate data for controlling the operation of the moving object.
It is characterized by.
A)通路および各通路が交わる通路交わり点で構成された環境下で、移動物体の動作を人間が用いる環境特定単語で制御するために、前記移動物体に前記環境特定単語を学習させる移動物体動作制御データ生成装置であって、
B)前記移動物体は、
b1)操作者から前記移動物体を前記環境下にて移動させる移動命令が与えられると、当該移動命令に基づいて、前記移動物体を移動させる駆動手段、
b2)所定時間毎に方向別距離データの集合である集合距離データを計測する集合距離データ計測手段、
を備え、
C)前記移動物体動作制御データ生成装置は、
c1)前記所定時間ごとの集合距離データを、前記移動物体の動作データとともに記憶する第1の記憶手段、
c2)前記移動中に前記通路交わり点にて、操作者から当該環境を表す環境特定単語が与えられると、前記集合距離データに付加して記憶させる付加手段、
c3)前記集合距離データを構成する方向別距離データの値の相互関係と周辺環境の抽象化環境データとの対応規則を記憶した第1規則記憶手段、
c4)前記対応規則に基づいて、前記第1の記憶手段に記憶された前記所定時間毎の集合距離データから、周辺環境の抽象化集合環境データを特定する抽象化集合環境データ特定手段、
c5)前記方向別の抽象化集合環境データを記憶する第2の記憶手段、
c6)前記第2の記憶手段に記憶された抽象化集合環境データのうち、前記環境特定単語が付加されている抽象化集合環境データを注目抽象化集合環境データとして決定し、前記注目抽象化集合環境データとともに、その前後所定数の抽象化集合環境データを連データとして決定する連データ決定手段、
c7)前記複数の連データのうち、環境特定単語および動作が同じ連データを抽出し、かかる連データの各方向別環境データについて、異なる値の方向別抽象化環境データを捨てて、同じ値の方向別抽象化環境データを有する共通抽象化集合環境データで構成された連データを当該環境特定単語に対応する連データとして生成する生成手段、
を備えたことを特徴とするもの。
A) A moving object action that causes the moving object to learn the environment-specific word in order to control the movement of the moving object with an environment-specific word used by a human in an environment composed of a path and a path intersection where each path intersects A control data generation device comprising:
B) The moving object is
b1) When a movement command for moving the moving object in the environment is given by an operator, a driving unit that moves the moving object based on the movement command;
b2) a set distance data measuring means for measuring set distance data, which is a set of direction-specific distance data at predetermined time intervals;
With
C) The moving object motion control data generation device includes:
c1) first storage means for storing the set distance data for each predetermined time together with the motion data of the moving object;
c2) When an environment specific word representing the environment is given by the operator at the intersection of the passages during the movement, an addition means for adding and storing the set distance data;
c3) a first rule storage means for storing a correspondence rule between the interrelationships of the direction-specific distance data constituting the set distance data and the abstract environment data of the surrounding environment;
c4) Abstracted set environment data specifying means for specifying the abstract set environment data of the surrounding environment from the set distance data for each predetermined time stored in the first storage means based on the correspondence rule;
c5) second storage means for storing the abstracted set environment data for each direction;
c6) Of the abstract set environment data stored in the second storage means, the abstract set environment data to which the environment specific word is added is determined as the notice abstract set environment data, and the notice abstract set Continuous data determination means for determining a predetermined number of abstracted set environment data before and after the environmental data as continuous data,
c7) From among the plurality of continuous data, extract the continuous data having the same environment specific word and action, discard the abstracted environmental data by direction of different values for the environmental data by direction of the continuous data, Generating means for generating continuous data composed of common abstract set environment data having direction-specific abstract environment data as continuous data corresponding to the environment specific word;
Characterized by comprising.
請求項8の移動物体動作制御データ生成装置において、
前記生成手段は、前記抽出した連データの各方向別抽象化環境データについて、異なる値の方向別抽象化環境データを捨てる場合に、連データを構成する方向別抽象化環境データの値を、注目抽象化集合環境データを中心に鏡対称入れ替えを行なうこと、
を特徴とするもの。
In the moving object motion control data generation device according to claim 8,
The generation means pays attention to the value of the direction-specific abstract environment data constituting the continuous data when discarding the direction-specific abstract environment data of the extracted continuous data for each direction. Performing mirror-symmetric swapping around the abstract set environment data,
It is characterized by.
請求項8または請求項9の移動物体動作制御データ生成装置において、
前記生成手段は、前記抽出した連データの各方向別抽象化環境データについて、異なる値の方向別抽象化環境データを捨てる場合に、連データを構成する各方向別抽象化環境データについて、その値を進行方向に対して直交する方向に鏡対称入れ替えを行なうこと、
を特徴とするもの。
In the moving object motion control data generation device according to claim 8 or 9,
When the generation means discards the direction-specific abstract environment data having different values for the extracted direction-specific abstract environment data, the value of the direction-specific abstract environment data constituting the continuous data The mirror symmetry in a direction perpendicular to the direction of travel,
It is characterized by.
移動物体の動作を人間が用いる環境特定単語で制御するために、前記移動物体の動作制御用のデータを生成する移動物体動作制御データ生成方法であって、
前記移動物体を移動させつつ、所定時間毎に前記移動物体の方向別周辺環境データの集合である集合環境データを計測し、
前記所定時間ごとの集合環境データを、前記移動物体の動作データとともに記憶し、
前記移動中に操作者から当該環境を表す環境特定単語が与えられると、前記集合環境データに付加して記憶し、
あらかじめ記憶した前記方向別環境データの相互関係と周辺環境の抽象化環境データとの対応規則に基づいて、前記記憶された前記所定時間毎の集合環境データから、周辺環境の抽象化集合環境データを特定して記憶し、
前記記憶された抽象化集合環境データのうち、前記環境特定単語が付加されている抽象化集合環境データを注目集合環境データとして決定し、前記注目集合環境データとともに、その前後所定数の集合環境データを連データとして決定し、
前記複数の連データのうち、環境特定単語が同じ連データを抽出し、かかる連データの各方向別抽象化環境データについて、異なる値の方向別抽象化環境データを捨てて、同じ値の方向別抽象化環境データを有する共通抽象化集合環境データで構成された連データを当該環境特定単語に対応する動作指令連データとして生成すること、
を特徴とする移動物体動作制御データ生成方法。
A moving object motion control data generation method for generating data for motion control of the moving object in order to control the motion of the moving object with an environment specific word used by a human,
While moving the moving object, to measure the collective environment data that is a set of surrounding environment data for each direction of the moving object, every predetermined time,
The gathering environment data for each predetermined time is stored together with the movement data of the moving object,
When an environment specific word representing the environment is given from the operator during the movement, it is stored in addition to the collective environment data,
Based on the correspondence rule between the inter-relationships of the environment data for each direction stored in advance and the abstract environment data of the surrounding environment, the abstract set environment data of the surrounding environment is obtained from the stored set environment data every predetermined time. Identify and remember,
Of the stored abstracted collective environment data, the abstracted collective environment data to which the environment specific word is added is determined as the noticeable collective environment data, and a predetermined number of collective environment data before and after the noticed collective environment data Is determined as continuous data,
From the plurality of continuous data, the continuous data having the same environment specific word is extracted, and for each direction abstraction environment data of the continuous data, the direction-specific abstraction environment data of different values are discarded, and the same value direction Generating continuous data composed of common abstract set environment data having abstract environment data as operation command continuous data corresponding to the environment specific word;
A moving object motion control data generation method characterized by:
入力装置、制御装置、および記憶装置を備えたコンピュータを、移動物体の動作を人間が用いる環境特定単語で制御するために前記移動物体の動作制御用のデータを生成する移動物体動作制御データ生成装置として機能させるためのプログラムを記録した記録媒体であって、
前記プログラムは、前記コンピュータに、以下の処理を実行させるためのプログラムであること、
前記移動物体が、操作者から与えられた移動命令に基づいて、移動した際に計測された所定時間毎に前記移動物体の方向別周辺環境データの集合である集合環境データを、前記移動物体の動作データとともに記憶し、
前記移動中に操作者から当該環境を表す環境特定単語が与えられると、前記集合環境データに付加して記憶し、
あらかじめ記憶した前記方向別環境データの相互関係と周辺環境の抽象化環境データとの対応規則に基づいて、前記記憶された前記所定時間毎の集合環境データから、周辺環境の抽象化集合環境データを特定して記憶し、
前記記憶された抽象化集合環境データのうち、前記環境特定単語が付加されている抽象化集合環境データを注目集合環境データとして決定し、前記注目集合環境データとともに、その前後所定数の集合環境データを連データとして決定し、
前記複数の連データのうち、環境特定単語が同じ連データを抽出し、かかる連データの各方向別抽象化環境データについて、異なる値の方向別抽象化環境データを捨てて、同じ値の方向別抽象化環境データを有する共通抽象化集合環境データで構成された連データを当該環境特定単語に対応する動作指令連データとして生成すること、
を特徴とするプログラムを記録した記録媒体。
Moving object motion control data generation device for generating data for controlling the movement of a moving object in order to control a computer including the input device, the control device, and the storage device with an environment specific word used by a human A recording medium recording a program for functioning as
The program is a program for causing the computer to execute the following processing;
Collective environment data, which is a set of surrounding environment data for each direction of the moving object, for each predetermined time measured when the moving object moves based on a movement command given by an operator, Memorize with motion data,
When an environment specific word representing the environment is given from the operator during the movement, it is stored in addition to the collective environment data,
Based on the correspondence rule between the inter-relationships of the environment data for each direction stored in advance and the abstract environment data of the surrounding environment, the abstract set environment data of the surrounding environment is obtained from the stored set environment data every predetermined time. Identify and remember,
Of the stored abstracted collective environment data, the abstracted collective environment data to which the environment specific word is added is determined as the noticeable collective environment data, and a predetermined number of collective environment data before and after the noticed collective environment data Is determined as continuous data,
From the plurality of continuous data, the continuous data having the same environment specific word is extracted, and for each direction abstraction environment data of the continuous data, the direction-specific abstraction environment data of different values are discarded, and the same value direction Generating continuous data composed of common abstract set environment data having abstract environment data as operation command continuous data corresponding to the environment specific word;
The recording medium which recorded the program characterized by these.
コンピュータによって生成された、移動物体の動作を人間が用いる環境特定単語で制御するために前記移動物体の動作制御用のデータを記録した記録媒体であって、
前記移動物体の動作制御用のデータは、以下の手法により生成されたこと、
前記移動物体が、操作者から与えられた移動命令に基づいて、移動した際に計測された所定時間毎に前記移動物体の方向別周辺環境データの集合である集合環境データを、前記移動物体の動作データとともに記憶し、
前記移動中に操作者から当該環境を表す環境特定単語が与えられると、前記集合環境データに付加して記憶し、
あらかじめ記憶した前記方向別環境データの相互関係と周辺環境の抽象化環境データとの対応規則に基づいて、前記記憶された前記所定時間毎の集合環境データから、周辺環境の抽象化集合環境データを特定して記憶し、
前記記憶された抽象化集合環境データのうち、前記環境特定単語が付加されている抽象化集合環境データを注目集合環境データとして決定し、前記注目集合環境データとともに、その前後所定数の集合環境データを連データとして決定し、
前記複数の連データのうち、環境特定単語が同じ連データを抽出し、かかる連データの各方向別抽象化環境データについて、異なる値の方向別抽象化環境データを捨てて、同じ値の方向別抽象化環境データを有する共通抽象化集合環境データで構成された連データを当該環境特定単語に対応する動作指令連データとして生成する、
を特徴とする動作制御用のデータを記録した記録媒体。
A computer-generated recording medium on which movement control data of the moving object is recorded in order to control the movement of the moving object with an environment specific word used by a human,
The movement control data of the moving object is generated by the following method,
Collective environment data, which is a set of surrounding environment data for each direction of the moving object, for each predetermined time measured when the moving object moves based on a movement command given by an operator, Memorize with motion data,
When an environment specific word representing the environment is given from the operator during the movement, it is stored in addition to the collective environment data,
Based on the correspondence rule between the inter-relationships of the environment data for each direction stored in advance and the abstract environment data of the surrounding environment, the abstract set environment data of the surrounding environment is obtained from the stored set environment data every predetermined time. Identify and remember,
Of the stored abstracted collective environment data, the abstracted collective environment data to which the environment specific word is added is determined as the noticeable collective environment data, and a predetermined number of collective environment data before and after the noticed collective environment data Is determined as continuous data,
From the plurality of continuous data, the continuous data having the same environment specific word is extracted, and for each direction abstraction environment data of the continuous data, the direction-specific abstraction environment data of different values are discarded, and the same value direction Generating continuous data composed of common abstract set environment data having abstract environment data as operation command continuous data corresponding to the environment specific word;
A recording medium on which data for operation control is recorded.
JP2000235352A 2000-08-03 2000-08-03 Moving object motion control data generation apparatus and method Expired - Fee Related JP3653212B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000235352A JP3653212B2 (en) 2000-08-03 2000-08-03 Moving object motion control data generation apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000235352A JP3653212B2 (en) 2000-08-03 2000-08-03 Moving object motion control data generation apparatus and method

Publications (2)

Publication Number Publication Date
JP2002049424A JP2002049424A (en) 2002-02-15
JP3653212B2 true JP3653212B2 (en) 2005-05-25

Family

ID=18727575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000235352A Expired - Fee Related JP3653212B2 (en) 2000-08-03 2000-08-03 Moving object motion control data generation apparatus and method

Country Status (1)

Country Link
JP (1) JP3653212B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3653224B2 (en) * 2000-12-28 2005-05-25 憲三 岩間 Robot, word learning apparatus and method thereof
US20070112462A1 (en) * 2005-11-10 2007-05-17 Jong-Myeong Kim Method for detecting if command implementation was completed on robot common framework, method for transmitting and receiving signals and device thereof

Also Published As

Publication number Publication date
JP2002049424A (en) 2002-02-15

Similar Documents

Publication Publication Date Title
CN110522359A (en) The control method of clean robot and clean robot
CN110786783B (en) Cleaning method of cleaning robot and cleaning robot
JP4307310B2 (en) GAME DEVICE AND GAME PROGRAM
CN1331102C (en) Navigation apparatus
CN107456172A (en) Clean robot and barrier crossing method
CN108279674B (en) Intelligent moving method, device, robot and storage medium
JP2019109872A (en) Artificial intelligence-based robot, and method for controlling the same
JP5774847B2 (en) Vehicle travel reproduction evaluation device
CN108177162A (en) The interference region setting device of mobile robot
CN110013671A (en) Movement executes method and apparatus, storage medium and electronic device
CN112656307B (en) Cleaning method and cleaning robot
CN108759822A (en) A kind of mobile robot 3D positioning systems
JP3653212B2 (en) Moving object motion control data generation apparatus and method
CN111123732A (en) Method, device, storage medium and terminal equipment for simulating automatic driving vehicle
CN112613469B (en) Target object motion control method and related equipment
KR101974448B1 (en) Controlling mobile robot based on asynchronous target classification
KR101974447B1 (en) Controlling mobile robot based on reinforcement learning using game environment abstraction
JPS6093522A (en) Controller of moving robot
JP3653224B2 (en) Robot, word learning apparatus and method thereof
Ruiz Capturing a Dubins car with a differential drive robot
Fernau et al. On the parameterized complexity of the generalized rush hour puzzle.
JPH10128686A (en) Control method for robot manipulator and control device for robot manipulator
Gutmann et al. The CS Freiburg team: Playing robotic soccer based on an explicit world model
KR20090013523A (en) Cleaning robot advanced and controlling method the same
CN110695955B (en) Robot obstacle crossing method and robot

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050225

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees