JP3604649B2 - Mobile control unit - Google Patents
Mobile control unit Download PDFInfo
- Publication number
- JP3604649B2 JP3604649B2 JP2001154460A JP2001154460A JP3604649B2 JP 3604649 B2 JP3604649 B2 JP 3604649B2 JP 2001154460 A JP2001154460 A JP 2001154460A JP 2001154460 A JP2001154460 A JP 2001154460A JP 3604649 B2 JP3604649 B2 JP 3604649B2
- Authority
- JP
- Japan
- Prior art keywords
- self
- confirmation information
- propelled
- position confirmation
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012790 confirmation Methods 0.000 claims description 121
- 238000001514 detection method Methods 0.000 claims description 115
- 230000002159 abnormal effect Effects 0.000 claims description 9
- 230000005856 abnormality Effects 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 6
- 230000005540 biological transmission Effects 0.000 claims description 5
- 230000004044 response Effects 0.000 claims description 5
- 238000000034 method Methods 0.000 description 61
- 238000012545 processing Methods 0.000 description 24
- 230000000694 effects Effects 0.000 description 9
- 238000001816 cooling Methods 0.000 description 4
- 238000010438 heat treatment Methods 0.000 description 4
- 238000001931 thermography Methods 0.000 description 4
- 239000003086 colorant Substances 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、複数の自走移動体の移動を制御する移動体制御装置に関する。
【0002】
【従来の技術】
この種の移動体制御装置としては、例えば特開平8−66564号公報に記載されているものが知られている。
この従来例には、自走車と装置本体側とから構成されるゲーム機であって、自走車には基台上のレーストラックを走行可能にされ、その位置及び方向を知らせる前後LEDが設けられ、装置本体側には走行制御を行う制御部、基台上方に配設され、フレーム走査を行って前後LEDを撮像するCCDカメラ及び基台上方の送信LEDとから構成され、制御部はCCDカメラで撮像されたフレーム画像から前後LEDを追跡するようにして自走車の位置を検出し、その検出位置データと目標位置データとに応じて移動制御信号を送信LEDから自走車に送信するようにした移動体の遠隔制御装置が記載されている。
【0003】
【発明が解決しようとする課題】
しかしながら、上記従来例にあっては、複数の自走車の位置を検出する際に、各自走車の初期位置において、移動体に設けた発光手段を個別に発光動作させるか、固有の発光光を発光させることにより、各自走車の初期位置を特定し、この状態から各自走車に設けた前後LEDを点灯させて、その動きをCCDカメラで撮像して追跡するようにしているので、複数の自走車が接近したときには両者の判別が困難であると共に、絶えず各自走車の前後LEDの移動を監視していないと、現在位置を正確に検出することができないという未解決の課題がある。
【0004】
そこで、本発明は、上記従来例の未解決の課題に着目してなされたものであり、複数の移動体の位置が接近している場合でも正確に位置を検出することができると共に、任意の時点で移動体の位置を誤検出することなく正確に検出して、移動体の正確な移動制御を行うことができる移動体制御装置を提供することを目的としている。
【0005】
【課題を解決するための手段】
上記目的を達成するために、請求項1に係る移動体制御装置は、複数の自走移動体の位置を検出する位置検出手段と、該位置検出手段で検出した自走移動体位置に応じて当該自走移動体の移動制御を行う移動制御手段とを備えた移動体制御装置において、前記各自走移動体は制御信号の入力によって前記位置検出手段で検出可能で且つ自己を識別可能な位置確認情報を発する位置確認情報発生手段を有し、前記位置検出手段は前記各自走移動体の位置確認情報発生手段で発生する位置確認情報を所定領域の画像情報として検出するように構成され、前記移動制御手段は前記各自走移動体の位置確認情報発生手段に対して前記制御信号を送信する位置確認情報発生指令部と、該位置確認情報発生指令部で制御信号を送信してから所定時間経過後に前記位置検出手段で検出した画像情報を読込み、当該画像情報から各自走移動体の位置を判別する位置判別部と、該位置判別部で判別した各自走移動体の位置に基づいて当該各自走移動体に対して移動指令を送出する移動指令送出部とを有し、前記位置判別部は、前記自走移動体の位置確認情報発生手段で位置確認情報を発生した位置確認情報発生状態を検出する画像情報と、その前後何れかの位置確認情報非発生状態を検出する画像情報とを読込み、位置確認情報発生状態と位置確認情報非発生状態とで状態変化があったときに位置検出対象候補として位置確認情報発生状態の画像情報に基づいて位置判別を行うように構成されているていることを特徴としている。
【0006】
この請求項1に係る発明では、移動制御手段における位置確認情報発生指令部で制御信号を自走移動体に送信することにより、この自走移動体の位置確認情報発生手段で特定光や特定温度等の個別に認識可能な位置確認情報を発し、この位置確認情報を位置検出手段で所定領域の画像情報として検出する。この位置検出手段で検出した画像情報に基づいて位置判別部で、各自走移動体の位置を判別し、移動指令送出部で各自走移動体の位置に基づいて自走移動体の移動指令を送出することにより、各自走移動体の移動制御を行う。位置判別部では、各自走移動体の位置判別を行う際に、位置確認情報発生状態を検出する画像情報と、その前後の位置確認情報非発生状態を検出する画像情報とで状態変化を生じているか否かを判別し、状態変化を生じているときに、その状態変化位置を位置検出対象候補とすることにより、他の状態変化を生じない定常発光位置や定常温度位置をノイズとして容易に判別することができ、自走移動体の位置を正確に検出することができる。
【0007】
また、請求項2に係る移動体制御装置は、複数の自走移動体の位置を検出する位置検出手段と、該位置検出手段で検出した自走移動体位置に応じて当該自走移動体の移動制御を行う移動制御手段とを備えた移動体制御装置において、前記各自走移動体は制御信号の入力によって前記位置検出手段で検出可能な位置確認情報を発生する位置確認情報発生手段を有し、前記位置検出手段は前記各自走移動体の位置確認情報発生手段で発生する位置確認情報を所定領域の画像情報として検出するように構成され、前記移動制御手段は前記各自走移動体の位置確認情報発生発光手段に対して異なるタイミングで前記制御信号を送信する位置確認情報発生指令部と、該位置確認情報発生指令部で制御信号を送信してから所定時間経過後に前記位置検出手段で検出した画像情報を読込み、当該画像情報から自走移動体の位置を判別する位置判別部と、該位置判別部で判別した各自走移動体の位置に基づいて当該各自走移動体に対して移動指令を送出する移動指令送出部とを有し、前記位置判別部は、前記自走移動体の位置確認情報発生手段で位置確認情報を発生した位置確認情報発生状態を検出する画像情報と、その前後何れかの位置確認情報非発生状態を検出する画像情報とを読込み、位置確認情報発生状態と位置確認情報非発生状態とで状態変化があったときに位置検出対象候補として位置確認情報発生状態の画像情報に基づいて位置判別を行うように構成されていることを特徴としている。
【0008】
この請求項2に係る発明では、移動制御手段の位置確認情報発生指令部で、各自走移動体に対して異なるタイミングで制御信号を送信することにより、この制御信号を受信した自走移動体の位置確認情報発生手段でのみ発光や温度変化等を生じる位置確認情報を発生させ、この位置確認情報を位置検出手段で画像情報として検出することにより、この画像情報から位置判別手段で、請求項1の場合と同様に自走移動体の位置を誤検出を伴うことなく正確に検出することができる。
【0009】
さらに、請求項3に係る移動体制御装置は、請求項1又は2に係る発明において、前記位置判別部は、前記自走移動体の位置確認情報発生手段で位置確認情報を発生した位置確認情報発生状態を検出する画像情報と、その前後何れかの位置確認情報非発生状態を検出する画像情報とを読込み、位置確認情報発生状態と位置確認情報非発生状態とで状態変化があったときに位置検出対象候補として抽出する候補抽出手段と、該候補抽出手段で抽出した位置検出対象候補が正規の位置検出対象であるか否かを判定する正規位置検出候補判定手段と、該正規位置検出候補判定手段で正規の位置検出対象と判定されたときに、位置確認情報発生状態の画像情報に基づいて位置情報を算出する位置情報算出手段とを備えていることを特徴としている。
【0010】
さらにまた、請求項4に係る移動体制御装置は、請求項3に係る発明において、前記正規位置検出候補判定手段は、候補抽出手段で抽出した位置検出対象候補が正規の位置検出対象と判定されたときに、位置確認情報発生状態から位置確認情報非発生状態としたときの画像情報を読込み、位置確認情報の状態変化があったときに正規の検出対象として決定するように構成されていることを特徴としている。
この請求項4に係る発明では、正規位置検出候補判定手段で、正規の位置検出対象と判定した後に、再度位置確認情報発生状態から位置確認状態非発生状態としたときの状態変化を確認してから正規の検出対象として決定することにより、より正確な位置検出候補の特定を行うことができる。
【0011】
なおさらに、請求項5に係る移動体制御装置は、請求項1乃至4の何れかの発明において、前記位置判別部は、位置確認情報発生状態と位置確認情報非発生状態とで状態変化がないときに前記自走移動体に対して検出異常を通知するように構成されていることを特徴としている。
この請求項5に係る発明では、位置確認情報発生状態を検出する画像情報と、その前後の位置確認情報非発生状態を検出する画像情報とで状態変化を生じているか否かを判別したときに、両者に状態変化がないときに検出異常と判断して該当する自走移動体に対して検出異常を通知することにより、自走移動体側で減速制御等の接触回避動作を行うことができる。
【0012】
また、請求項6に係る移動体制御装置は、請求項5に係る発明において、前記移動指令送出部は、前記位置判別部で検出異常状態と判断されたときに、該当する走行移動体に対して減速指令を送出するように構成されていることを特徴としている。
【0013】
この請求項6に係る発明では、位置判別部で検出異常状態と判断されたときに、移動指令送出で、該当する走行移動体に対して減速指令を送出することにより、自走移動体の不確定な移動を抑制して、他の移動体の接触や衝突を防止することができる。ここで、減速指令とは自走移動体の現在の移動速度より低い速度指令を送出すればよく、停止指令を含むものである。
【0014】
さらに、請求項7に係る移動体制御装置は、請求項1乃至6の何れかの発明において、前記位置確認情報発生手段は、移動方向を識別可能な位置確認情報を発生するように構成されていることを特徴としている。
【0015】
この請求項7に係る発明では、移動制御手段の位置確認情報発生指令部で、各自走移動体に対して異なるタイミングで制御信号を送信することにより、この制御信号を受信した自走移動体の位置確認情報発生手段でのみ発光や温度変化等を生じる位置確認情報を発生させ、この位置確認情報を位置検出手段で画像情報として検出することにより、この画像情報から自走移動体の位置を誤検出を伴うことなく正確に検出することができる。
【0016】
さらにまた、請求項8に係る移動体制御装置は、請求項1乃至6の何れかの発明において、前記位置確認情報発生手段は、制御信号が入力されたときに、発光状態及び非発光状態の何れかに状態変化する発光手段を有することを特徴としている。
【0017】
この請求項8に係る発明では、位置確認情報発生手段に制御信号を入力することにより、発光手段が発光状態及び非発光状態の何れかに状態変化するので、この状態変化を位置検出手段を構成する撮像装置で画像情報として検出することにより、発光状態又は非発光状態の位置を容易に特定することができる。
【0018】
なおさらに、請求項9に係る移動体制御装置は、請求項1乃至6の何れかの発明において、前記位置確認情報発生手段は、制御信号が入力されたときに、温度変化を生じる温度変化手段を有することを特徴としている。
【0019】
この請求項9に係る発明では、位置確認情報発生手段に制御信号を入力することにより、温度変化手段で加熱手段又は冷却手段で常温とは異なる温度に変化させることにより、この温度変化を位置検出手段を構成するサーモグラフィで画像情報として検出することにより、温度変化を生じた位置を容易に特定することができる。
【0022】
【発明の実施の形態】
以下、本発明の実施の形態を図面について説明する。
図1は本発明の第1の実施形態を示す全体構成図であって、所定形状の走行フィールド1内に複数の移動体としてのバッテリ等の電源を内蔵する自走ロボットR1〜R3が任意の方向に自走可能に配置されている。
【0023】
これら自走ロボットR1〜R3の夫々は、図2に示すように、例えば3つの走行車輪2aを有し、これら走行車輪2aの内1つが操舵輪として構成されていると共に、少なくとも1つが駆動輪として構成され、これら操舵輪及び駆動輪が駆動操舵機構3によって駆動操舵制御される。この駆動操舵機構3は、制御装置4から駆動操舵指令が入力されると、この駆動操舵指令に応じて操舵輪及び駆動輪を制御する。
【0024】
制御装置4には後述するシステムコントローラ20から送信される制御信号に応じて点灯及び消灯制御される各自走ロボットR1〜R3で識別可能な例えば赤、緑及び青の発光を行うLED5を有する位置確認情報発生手段を構成する発光手段としての発光装置6が接続されていると共に、後述するシステムコントローラ20から無線送信される移動速度及び移動方向を指示する移動指令と前記制御信号とで構成される指令情報を受信すると共に、指令情報に基づく動作を開始したことを表す応答情報を後述するシステムコントローラ20に送信するTCP/IPプロトコルを採用した無線LAN回路7が接続されており、無線LAN回路7で指令情報を受信すると、制御装置4で受信した指令情報の内容に応じて駆動操舵機構3及び発光装置6を制御すると共に、その制御開始を表す応答情報を無線LAN回路7を介してシステムコントローラ20に送信する。
【0025】
また、走行フィールド1の上方には、走行フィールド1の全域を視野範囲に納めたCCDセンサ、CMOSセンサ等で構成される2次元画像情報を出力する位置検出手段としてのカラーイメージセンサ11が配設されている。
そして、カラーイメージセンサ11で撮像された走行フィールド1の2次元画像情報が例えば有線でシステムコントローラ20に入力される。
【0026】
このシステムコントローラ20は、システム制御用コンピュータ21と、このシステム制御用コンピュータ21に接続されて、前記各自走ロボットR1〜R3に対して指令情報を例えば無線LANによるTCP/IPプロトコルを使用して送信すると共に、各自走ロボットR1〜R3から送信される応答情報を受信する無線LAN回路22とを備えている。
【0027】
ここで、システム制御用コンピュータ21は、入出力インタフェース21aと、演算処理装置21bと、ROM,RAM等のメモリ21cとを少なくとも備え、入出力インタフェース21aにカラーイメージセンサ11及び無線LAN回路22が接続され、演算処理装置21aではカラーイメージセンサ11から出力される2次元画像情報に基づいて図3に示す移動体制御処理を実行して、各自走ロボットR1〜R3に対する指令情報を形成してこれを無線LAN回路22に出力し、メモリ21cには演算処理装置21aで実行する移動体制御処理に必要なプログラムが格納されていると共に、演算処理結果等を格納する。
【0028】
そして、演算処理装置21bで実行する移動体制御処理は、図3に示すように、先ず、ステップS1で、カラーイメージセンサ11の2次元画像情報を読込み、次いでステップS2に移行して、読込んだ2次元画像情報をRGBの各輝点ビットに分解し、輝度レベルを量子化して非発光状態画像情報としてメモリ21cの所定記憶領域に記憶する。
【0029】
次いでステップS3に移行して、全ての自走ロボットR1〜R3に対して発光制御信号を無線LAN回路22を介して送信してからステップS4に移行し、各自走ロボットR1〜R3から発光装置6を作動させた旨を表す応答情報を受信してから実際に自走ロボットRiにおける発光装置6のLED5から発光が得られるまでの遅延時間以上に設定された所定時間が経過したか否かを判定し、所定時間が経過していないときにはこれが経過するまで待機し、所定時間が経過したときにはステップS5に移行する。
【0030】
このステップS5では、再度カラーイメージセンサ11から出力される2次元画像情報を読込み、次いでステップS6に移行して、読込んだ2次元画像情報をRGBの各輝点ビットに分解し、輝度レベルを量子化して発光状態画像情報としてメモリ21cの所定記憶領域に記憶し、次いでステップS7に移行して、自走ロボットR1〜R3に対して発光を停止させる発光停止制御信号を無線LAN回路22を介して送信してからステップS8に移行する。
【0031】
このステップS8では、メモリ21cの所定記憶領域に記憶されている非発光状態画像情報と発光状態画像情報とを比較して状態変化が生じている位置検出対象候補が存在するか否かを判定し、位置検出対象候補が存在しない場合には、ステップS9に移行して、位置検出対象候補を検出できない回数を表す変数Nを“1”だけインクリメントしてからステップS10に移行して、変数Nが予め設定した所定値Nsに達したか否かを判定し、N<NsであるときにはステップS11に移行して、自走ロボットR1〜R3に対して減速指令を無線LAN回路22を介して送信してから前記ステップS1に戻り、N≧Nsであるときには該当する自走ロボットR1〜R3の発光装置6が異常となる等の異常状態であると判断してステップS12に移行し、各自走ロボットR1〜R3に対して移動を停止する停止指令を送信してから移動体制御処理を終了する。
【0032】
一方、前記ステップS8の判定結果が位置検出対象候補が存在するものであるときには、ステップS13に移行して、位置検出対象候補の輝度面積が予め設定された発光装置6に対応して設定した輝度面積範囲内であるか否かを判定し、位置検出対象候補の輝度面積が予め設定した輝度面積範囲外であるときには位置検出対象候補から除外して前記ステップS9に移行し、設定した輝度面積範囲内であるときにはステップS14に移行して、位置検出対象候補の輝度レベルが予め設定された輝度レベル範囲内であるか否かを判定し、輝度レベル範囲外であるときには位置検出対象候補から除外して前記ステップS9に移行し、輝度レベル範囲内であるときにステップS15に移行して、位置検出対象候補の現在位置が前回の位置データと移動速度とに基づいて算出される移動可能範囲内であるか否かを判定し、現在位置が移動可能範囲外であるときには位置検出対象候補から除外して前記ステップS9に移行し、現在位置が移動可能範囲内であるときには正規の位置検出対象候補であると判断してステップS16に移行する。
【0033】
このステップS16では、再度カラーイメージセンサ11から出力される2次元画像情報を読込み、次いでステップS17に移行して、読込んだ2次元画像情報をRGBの各輝点ビットに分解し、輝度レベルを量子化して非発光状態情報としてメモリ21cの所定記憶領域に記憶し、次いでステップS18に移行して、メモリ21cの所定記憶領域に記憶されているステップS6で記憶した発光状態情報とステップS17で記憶した非発光状態情報とを比較して状態変化個所を抽出し、次いでステップS19に移行して、状態変化個所が正規の位置検出対象候補と一致しているか否かを判定し、両者が不一致であるときには前記ステップS9に移行し、両者が一致している場合にはステップS20に移行する。
【0034】
このステップS20では、正規の位置検出対象候補の位置を自走ロボットR1〜R3の現在位置として確定し、次いでステップS21に移行して、確定した自走ロボットR1〜R3の現在位置をメモリ21cの所定記憶領域にログ情報として記憶し、次いでステップS22に移行して、自走ロボットR1〜R3に対して現在位置情報を無線LAN回路22を介して送信し、次いでステップS23に移行して、変数Nを“0”にクリアしてから前記ステップS1に戻る。
【0035】
この図3の移動制御処理において、ステップS1〜S10及びS13〜S21,S23の処理が位置判別部に対応し、このうちステップS8の処理が候補抽出手段に対応し、ステップS13〜S19の処理が正規位置検出候補判定手段に対応し、ステップS20及びS21の処理が位置情報算出手段に対応し、ステップS11,S12及びステップS22の処理が移動指令送出部に対応している。
【0036】
次に、上記実施形態の動作を説明する。
今、走行フィールド1に3台の自走ロボットR1〜R3が任意の位置に停止しており、発光装置6でLED5が消灯制御されているものとする。
この状態で、システム制御用コンピュータ21の演算処理装置21bで図3の移動制御処理が実行開始されると、先ず、カラーイメージセンサ11で撮像した2次元画像情報を読込み(ステップS1)、この2次元画像情報をRGB各輝点ビットに分解してから画像変換してメモリ21cの所定記憶領域にRGB各輝点ビット毎に非発光状態画像情報として記憶する(ステップS2)。
【0037】
次いで、各自走ロボットR1〜R3に対して発光制御信号を無線LAN回路22を介して送信する(ステップS3)。この発光制御信号を各自走ロボットR1〜R3の制御装置4が無線LAN回路7を介して受信すると、発光装置6に対して発光制御信号を出力することにより、LED5が点灯制御され、自走ロボットR1のLED5が赤色、自走ロボットR2のLED5が緑色、自走ロボットR3のLED5が青色の発光を生じる。
【0038】
これら各自走ロボットR1〜R3のLED5が点灯して異なる色の発光状態となると、これらがカラーイメージセンサ11で撮像されることにより、このカラーイメージセンサ11から出力される2次元画像情報をRGB各輝点ビットに分解してから画像変換してメモリ21cの所定記憶領域にRGB各輝点ビット毎の発光状態画像情報として記憶する(ステップS6)。
【0039】
その後、各自走ロボットR1〜R3に対して消灯制御信号を送信することにより、各自走ロボットR1〜R3のLED5が消灯されて非発光状態となる。
この状態で、メモリ21cに記憶されているRGB各輝点ビット毎の非発光状態画像情報と発光状態画像情報とを比較することにより、RGB各輝点ビット毎に非発光状態から発光状態となった位置を抽出することができ、状態変化があった位置を位置検出候補として設定する。
【0040】
したがって、走行フィールド1に走行ロボットR1〜R3以外の発光体が存在しない場合には、RGB各輝点ビット毎の非発光状態画像情報と発光状態画像情報とに夫々各自走ロボットR1〜R3に対応する1個の状態変化を生じた輝点が存在することになる。この場合には、各自走ロボットR1〜R3が位置検出対象候補として存在することになり、ステップS8からステップS13〜S15に移行し、各自走ロボットR1〜R3の位置検出対象候補の面積が設定面積範囲内であり、輝度レベルも設定輝度レベル範囲内であり、前回の位置情報と、この前回の位置情報及び前々回の位置情報に基づく移動距離及び移動時間とに基づいて算出される移動速度とに基づいて算出される移動可能範囲内であるときに正規の位置検出対象候補であると判断し、各自走ロボットR1〜R3のLED5が非発光状態となっている現在のカラーイメージセンサ11で検出した2次元画像情報を読込み、この2次元画像情報をRGB各輝点ビット毎に分解してから画像変換してメモリ21cの所定記憶領域にRGB各輝点ビット毎の非発光状態画像情報として記憶する(ステップS17)。
【0041】
その後、再度RGB各輝点ビット毎の発光状態画像情報と非発光状態画像情報とを比較して状態変化が生じている位置が正規の位置検出対象候補位置と一致するかを判断し(ステップS19)、一致したときには各自走ロボットR1〜R3の現在位置を確定し、現在位置情報をメモリ21cの所定記憶領域にログ情報として記憶すると共に、各自走ロボットR1〜R3の現在位置情報を無線LAN回路22を介して自走ロボットR1〜R3に送信する。
【0042】
このため、自走ロボットR1〜R3では、自身の制御装置4で設定される目標位置情報とシステムコントローラ20から送信される現在位置情報との偏差に基づいて移動速度及び移動方向を設定し、設定した移動速度及び移動方向を駆動操舵機構3に出力することにより、駆動輪及び操舵輪が駆動制御されて目標位置に向かって移動制御される。
【0043】
一方、自走ロボットR1〜R3の何れかのLED5及び発光装置6を含む発光系統に異常が発生して、例えば自走ロボットR2のLED5がシステム制御用コンピュータ21の演算処理装置21bからの点灯制御信号を受信しても非点灯状態を継続する場合には、カラーイメージセンサ11から読込んだ2次元画像情報をRGB各輝点ビット毎に分解してから画像変換した非発光画像情報及び発光画像情報のうち、自走ロボットR2に対応する緑色輝点ビットの非発光画像情報及び発光画像情報に状態変化が生じないことになり、ステップS8で位置検出対象候補が存在しないと判断されてステップS9に移行し、変数Nが“1”だけインクリメントされてステップS10に移行し、N<NsであるときにはステップS11に移行して、各自走ロボットR1〜R3に対して減速指令を送信して、各自走ロボットR1〜R3での接触や衝突を回避してからステップS1に戻ってステップS1〜S8の位置検出対象候補の確認処理を繰り返す。このとき、変数Nが設定値Nsに達する前に自走ロボットR2のLED5が正常状態に復帰したときにはステップS8からステップS13に移行して、上述した正規の位置検出対象候補であるか否かを判断してから現在位置を確定するが、変数Nが設定Nsに達したときには、自走ロボットR2の発光系統が異常であると判断してステップS12に移行して、各自走ロボットR1〜R3に停止指令を送信して、各自走ロボットR1〜R3の移動を直ちに停止させる。
【0044】
同様に、非発光画像情報及び発光画像情報で状態変化が検出されて位置検出対象候補が存在すると判断されたときに、照明の反射光や他の位置検出対象外の移動体又は固定物に設けた発光源の発光等を検出することにより、各位置検出対象候補の発光画像情報の面積が設定面積範囲外、輝度レベルが設定輝度レベル外及び現在位置が移動可能範囲外の何れかである場合には、正規の位置検出対象候補ではないと判断されて、位置検出対象候補が削除されることにより、複数の位置検出対象候補が存在した場合に、正規の位置検出対象候補のみを正確に検出することができる。
【0045】
そのうえ、正規の位置検出対象候補に対して再度非発光状態画像情報を読込み、これと先に記憶した発光状態画像情報とを比較して、状態変化する位置が正規の位置検出対象候補の位置と一致するか否かを判断するので、より確実に正規の位置検出対象候補を絞り込むことができる。
このように、上記第1の実施形態によると、各自走ロボットR1〜R3で識別可能な発光色に設定しているので、互いに近接した場合でも、両者の位置を正確に検出することができる。
【0046】
なお、上記第1の実施形態においては、位置確認情報として、各自走ロボットR1〜R3のLED5で異なる色で発光させることを採用した場合について説明したが、これに限定されるものではなく、ヒータやペルチェ素子等の加熱素子や冷却素子を使用し、イメージセンサ11に代えてサーモグラフィを適用することにより、温度変化の有無に応じて位置検出対象候補の存在を判定するようにしてもよい。
【0047】
次に、本発明の第2の実施形態を図4について説明する。
この第2の実施形態は、各自走ロボットR1〜R3で異なる発光色を発光させる場合に代えて、各自走ロボットR1〜R3で同一色を異なるタイミングで発光させることにより、位置検出対象候補を検出するようにしたものである。
すなわち、第2の実施形態では、各自走ロボットR1〜R3のLED5で白色光を発生させると共に、イメージセンサ11をモノクロイメージセンサとし、さらに、システム制御用コンピュータ21の演算処理装置21bで実行する移動制御処理が、図4に示すように変更されている。
【0048】
この移動制御処理は、前述した第1の実施形態における図3の処理において、ステップS1の前に自走ロボットR1〜R3を選択するための変数iを“1”にセットするステップS31が追加されていると共に、ステップS3の処理が自走ロボットRiに対して発光制御信号を送信するステップS32に変更され、さらに、ステップS22の次に自走ロボットを特定する変数iを“1”だけインクリメントすると共に、変数Nを“0”にクリアするステップS33及び変数iが“4”となったか否かを判定し、i<4であるときには前記ステップS1に戻り、i=4であるときは前記ステップS31に戻るステップS34が追加されていることを除いては前記図3と同様の処理を行い、図3との対応処理には同一ステップ番号を付し、その詳細説明はこれを省略する。
【0049】
この図4の移動制御処理において、ステップS31,S32,S1〜S10,S13〜S21及びS33,S34の処理が位置判別部に対応し、このうちステップS8の処理が候補抽出手段に対応し、ステップS13〜S19の処理が正規位置検出候補判定手段に対応し、ステップS20及びS21の処理が位置情報算出手段に対応し、ステップS11,S12及びステップS22の処理が移動指令送出部に対応している。
【0050】
この第2の実施形態によると、図4の移動制御処理が実行開始されると、先ず、各自走ロボットR1〜R3のLED5を非発光状態として非発光状態画像情報をメモリ21cの所定記憶領域に記憶し、次いで、最初に自走ロボットR1に対して発光制御信号を送信して、この自走ロボットR1のLED1のみを発光させ、この状態で発光状態画像情報をメモリ21cの所定記憶領域に記憶する。
【0051】
そして、これらメモリ21cに記憶された非発光状態画像情報及び発光状態画像情報を比較して、状態変化が生じているか否かを判定し、状態変化が生じている場合には、位置検出対象候補が存在するものと判断してステップS8からステップS13に移行し、前述した第1の実施形態と同様に自走ロボットR1に対応する位置検出対象候補が正規の位置検出対象候補であるか否かを判定し、正規の位置検出対象候補である場合には、再度非発光状態画像情報をメモリ21cの所定記憶領域に記憶し、この非発光状態画像情報と先に記憶した発光状態画像情報とを比較して、状態変化が生じている位置が正規の位置検出対象候補と合致するか否かを判定し、両者が合致するときに、ステップS19からステップS20に移行して、自走ロボットR1の現在位置を確定すると共に、確定した現在位置をメモリ21cにログ情報として記憶し、さらに現在位置情報を自走ロボットR1に送信してからステップS33に移行し、変数iをインクリメントしてこの変数を“2”に設定すると共に、変数Nを“0”にクリアしてからステップS34を経てステップS1に戻り、自走ロボットR2に対して、上記自走ロボットR1と同様の位置検出対象候補検出処理及び正規の位置検出対象候補判定処理を行って、自走ロボットR2の現在位置を確定し、確定した現在位置情報をログ情報としてメモリ21cに記憶すると共に、自走ロボットR2に送信する。
【0052】
その後、変数iを“3”に設定してからステップS1に戻り、自走ロボットR3に対して上記と同様の処理を行って、自走ロボットR2の現在位置を確定し、確定した現在位置情報をログ情報としてメモリ21cに記憶すると共に、自走ロボットR3に送信する。
その後、ステップS33に移行して、変数iをインクリメントすると、i=4となるので、ステップS34からステップS31に戻り、変数iが“1”に設定されて、上記移動制御処理を繰り返す。
【0053】
この第2の実施形態でも、位置検出対象候補が検出されない場合、正規の位置検出対象候補でない場合、正規の位置検出対象候補であってもその後に読込んだ非発光状態画像情報と発光状態画像情報とが一致しない場合には、誤検出又は発光異常であるものと判断して各自走ロボットR1〜R3に対して減速指令を送信して接触等を防止すると共に、誤検出又は発光異常状態が所定回数以上継続したときに、異常状態の発生と判断して各自走ロボットR1〜R3に停止指令を送信して、各自走ロボットR1〜R3を停止させる。
【0054】
なお、上記第2の実施形態においては、自走ロボットR1〜R3のLED5で白色光を発光させる場合について説明したが、これに限定されるものではなく、イメージセンサ11で検出可能であれば、赤色光等の任意の光を発光させることができ、走行フィールド1が照明や太陽光で明るい場合には、赤外線LEDを使用して赤外光を発光させると共に、イメージセンサ11として赤外線カメラ等の赤外線を検出可能な撮像装置を適用すれば、照明等の影響を受けることなく正確な位置検出を行うことができる。
【0055】
また、上記第2の実施形態においても、位置確認情報として、各自走ロボットR1〜R3のLED5で発光させることを採用した場合について説明したが、これに限定されるものではなく、ヒータやペルチェ素子等の加熱素子や冷却素子を使用し、イメージセンサ11に代えてサーモグラフィを適用することにより、温度変化の有無に応じて位置検出対象候補の存在を判定するようにしてもよい。
【0056】
さらに、上記第1及び第2の実施形態においては、自走ロボットR1〜R3の移動制御が自走ロボット内の制御装置4で目標位置を設定して自走する場合について説明したが、これに限定されるものではなく、目標位置をシステム制御用コンピュータ21から指示するようにしてもよい。
さらにまた、上記第1及び第2の実施形態においては、自走移動体として自走ロボットR1〜R3を適用した場合について説明したが、これに限定されるものではなく、ロボット以外に自走可能な自動車、移動可能な模型等の任意の移動体に本発明を適用することができる。
【0057】
なおさらに、上記第1及び第2の実施形態においては、各自走ロボットR1〜R3に1つのLED5を設けた場合について説明したが、これに限定されるものではなく、前後に2つの識別可能な異なる発光色又は異なるタイミングで発光するLEDを配設するか、発光素子を進行方向を表す矢印形状に配設して進行方向も同時に検出するようにしてもよい。
【0058】
また、上記第1及び第2の実施形態においては、システムコントローラ20と自走ロボットR1〜R3とで無線LANを使用して通信する場合について説明したが、これに限定されるものではなく、ブルーツース等の近距離無線通信ネットワークを適用したり、各自走ロボットR1〜R3毎に異なる周波数で無線通信するようにしてもよく、さらには両者間で光通信を行うようにしてもよく、その他の任意の通信方法を適用することができる。
【0059】
【発明の効果】
以上説明したように、請求項1に係る発明によれば、移動制御手段における位置確認情報発生指令部で制御信号を自走移動体に送信することにより、この自走移動体の位置確認情報発生手段で特定光や特定温度等の個別に認識可能な位置確認情報を発し、この位置確認情報を位置検出手段で所定領域の画像情報として検出し、この位置検出手段で検出した画像情報に基づいて位置判別部で、各自走移動体の位置を判別し、移動指令送出部で各自走移動体の位置に基づいて自走移動体の移動指令を送出することにより、各自走移動体の移動制御を行うので、自走移動体の位置を正確に検出して、より正確な移動制御精度を向上させることができるという効果が得られる。
また、位置判別部で、各自走移動体の位置判別を行う際に、位置確認情報発生状態を検出する画像情報と、その前後の位置確認情報非発生状態を検出する画像情報とで状態変化を生じているか否かを判別し、状態変化を生じているときに、その状態変化位置を位置検出対象候補とすることにより、他の状態変化を生じない定常発光位置や定常温度位置をノイズとして容易に判別することができ、自走移動体の位置を正確に検出することができるという効果が得られる。
【0060】
また、請求項2に係る発明によれば、移動制御手段の位置確認情報発生指令部で、各自走移動体に対して異なるタイミングで制御信号を送信することにより、この制御信号を受信した自走移動体の位置確認情報発生手段でのみ発光や温度変化等を生じる位置確認情報を発生させ、この位置確認情報を位置検出手段で画像情報として検出することにより、この画像情報から位置判別手段で、請求項1の場合と同様に自走移動体の位置を誤検出を伴うことなく正確に検出することができるという効果が得られる。
【0061】
さらに、請求項3に係る発明によれば、候補抽出手段で、位置確認情報の状態変化があったときに位置検出対象候補として抽出した後に、正規位置検出候補判定手段で、位置検出対象候補の輝度等のレベルや大きさ等をが所定範囲であるか否か等を判断することにより、正規の位置検出候補であるか否かを判断するので、位置検出候補の判断をより正確に行うことができるという効果が得られる。
【0062】
さらにまた、請求項4に係る発明によれば、正規位置検出候補判定手段で、正規の位置検出対象と判定した後に、再度位置確認情報発生状態から位置確認状態非発生状態としたときの状態変化を確認してから正規の検出対象として決定することにより、より正確な位置検出候補の特定を行うことができるという効果が得られる。
【0063】
なおさらに、請求項5に係る発明によれば、位置確認情報発生状態を検出する画像情報と、その前後の位置確認情報非発生状態を検出する画像情報とで状態変化を生じているか否かを判別したときに、両者に状態変化がないときに検出異常と判断して該当する自走移動体に対して検出異常を通知することにより、自走移動体側で減速制御等の接触回避動作を行うことができるという効果が得られる。
【0064】
また、請求項6に係る発明によれば、位置判別部で検出異常状態と判断されたときに、移動指令送出部で、該当する走行移動体に対して減速指令を送出することにより、自走移動体の不確定な移動を抑制して、他の移動体の接触や衝突を防止することができるという効果が得られる。
【0065】
さらに、請求項7に係る発明によれば、各自走移動体に設けた位置確認情報発生手段が移動方向を識別可能な位置確認情報を発生することにより、これを位置検出手段で画像情報として検出したときに移動方向を容易に判別することができるという効果が得られる。
【0066】
さらにまた、請求項8に係る発明によれば、位置確認情報発生手段に制御信号を入力することにより、発光手段が発光状態及び非発光状態の何れかに状態変化するので、この状態変化を位置検出手段を構成する撮像装置で画像情報として検出することにより、発光状態又は非発光状態の位置を容易に特定することができるという効果が得られる。
【0067】
なおさらに、請求項9に係る発明によれば、位置確認情報発生手段に制御信号を入力することにより、温度変化手段で加熱手段又は冷却手段で常温とは異なる温度に変化させることにより、この温度変化を位置検出手段を構成するサーモグラフィで画像情報として検出することにより、温度変化を生じた位置を容易に特定することができるという効果が得られる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態を示す走行フィールドを示す説明図である。
【図2】第1の実施形態の構成を示すブロック図である。
【図3】図2のシステム制御用コンピュータで実行する移動制御処理手順の一例を示すフローチャートである。
【図4】本発明の第2の実施形態を示すシステム制御用コンピュータで実行する移動制御処理手順の一例を示すフローチャートである。
【符号の説明】
1 走行フィールド
2 走行輪
3 駆動操舵機構
4 制御装置
5 LED
6 発光装置
7 無線受信回路
11 カラーイメージセンサ
20 システムコントローラ
21 システム制御用コンピュータ
21a 入出力インタフェース
21b 演算処理装置
21c メモリ
22 無線送信回路[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a moving object control device that controls movement of a plurality of self-propelled moving objects.
[0002]
[Prior art]
As this type of moving object control device, for example, a device described in Japanese Patent Application Laid-Open No. 8-66564 is known.
This conventional example is a game machine comprising a self-propelled vehicle and a main body of the device. The self-propelled vehicle can run on a race track on a base, and front and rear LEDs for indicating its position and direction are provided. A control unit for controlling the traveling is provided on the apparatus main body side, a CCD camera that is disposed above the base, captures the front and rear LEDs by performing frame scanning, and includes a transmission LED above the base. The position of the self-propelled vehicle is detected by tracking the front and rear LEDs from the frame image captured by the CCD camera, and a movement control signal is transmitted from the LED to the self-propelled vehicle according to the detected position data and target position data. A mobile remote control device is described.
[0003]
[Problems to be solved by the invention]
However, in the above conventional example, when detecting the positions of a plurality of self-propelled vehicles, at the initial position of each self-propelled vehicle, the light emitting means provided on the moving body is individually operated to emit light, or the unique light emission light is used. By illuminating, the initial position of each self-propelled vehicle is specified, and from this state, the front and rear LEDs provided on each self-propelled vehicle are turned on, and the movement is imaged and tracked by a CCD camera. There is an unsolved problem that it is difficult to distinguish between the two when the self-propelled vehicle approaches, and the current position cannot be accurately detected unless the movement of the front and rear LEDs of each self-propelled vehicle is constantly monitored. .
[0004]
Therefore, the present invention has been made by focusing on the unsolved problems of the above-described conventional example, and it is possible to accurately detect the position even when the positions of a plurality of moving bodies are approaching, and to set an arbitrary position. It is an object of the present invention to provide a moving object control device capable of accurately detecting the position of a moving object without erroneous detection at a point in time and performing accurate movement control of the moving object.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, a moving object control device according to
[0006]
According to the first aspect of the present invention, the position confirmation information generation command section of the movement control means transmits a control signal to the self-propelled moving body, so that the position confirmation information generating means of the self-propelled moving body generates a specific light or a specific temperature. And the like, which is individually recognizable, and this position confirmation information is detected by the position detecting means as image information of a predetermined area. The position determining unit determines the position of each self-propelled moving body based on the image information detected by the position detecting means, and the movement command transmitting unit sends a movement command of the self-propelled moving body based on the position of each self-propelled moving body. By doing so, the movement of each self-propelled moving object is controlled.In the position determination unit, when determining the position of each self-propelled moving body, a state change occurs between image information for detecting a state of occurrence of position confirmation information and image information for detecting a state of non-occurrence of position confirmation information before and after the state. By determining whether or not there is a status change, when a status change occurs, the status change position is used as a position detection target candidate, so that a steady light emission position or a steady temperature position where no other status change occurs can be easily determined as noise. And the position of the self-propelled moving object can be accurately detected.
[0007]
In addition, the moving body control device according to claim 2 includes a position detecting unit that detects a position of the plurality of self-propelled moving bodies, and a position of the self-propelled moving body detected according to the position of the self-propelled moving body detected by the position detecting unit. A moving body control device having movement control means for performing movement control, wherein each of the self-propelled moving bodies has position confirmation information generating means for generating position confirmation information detectable by the position detecting means by input of a control signal. Wherein the position detecting means is configured to detect position confirmation information generated by the position confirmation information generating means of each self-propelled moving body as image information of a predetermined area, and the movement control means is configured to detect the position of each self-propelled moving body. A position confirmation information generation command section for transmitting the control signal to the information generation light emitting means at different timings, and the position detection information generation section transmits the control signal at a predetermined time after the position detection information generation command section transmits the control signal. Reading the image information detected in the above, the position determining unit that determines the position of the self-propelled moving body from the image information, and based on the position of each self-propelled moving body determined by the position determining unit, A movement command sending unit for sending a movement command.The position determination unit has image information for detecting a position confirmation information generation state in which the position confirmation information has been generated by the position confirmation information generation means of the self-propelled moving object, and a position confirmation information non-generation state in any one of before and after the image information. Is read, and when there is a state change between the position confirmation information generation state and the position confirmation information non-generation state, the position is determined as a position detection target candidate based on the image information of the position confirmation information generation state. Is configured asIt is characterized by having.
[0008]
In the invention according to claim 2, the position confirmation information generation command section of the movement control means transmits a control signal to each self-propelled moving body at a different timing, so that the self-propelled mobile body receiving the control signal can receive the control signal. Only the position confirmation information generating means generates position confirmation information that causes light emission, temperature change, and the like, and the position detection information is detected as image information by the position detection means.In the position determining means, as in the case of
[0009]
Further, the mobile object control device according to
[0010]
Still further, the moving object control device according to
In the invention according to the fourth aspect, the normal position detection candidate determining means determines a state change when the position confirmation information is changed from the position confirmation information generation state to the position confirmation state non-generation state after the normal position detection candidate is determined. By determining as a regular detection target from, more accurate position detection candidates can be specified.
[0011]
Still further, the moving object control apparatus according to
In the invention according to
[0012]
In addition, the moving object control device according to claim 6 providesPertaining to 5In the invention,The movement command sending unit sends a deceleration command to the corresponding traveling moving body when the position determination unit determines that the detection is abnormal.It is characterized by having such a configuration.
[0013]
In the invention according to claim 6,When the position determination unit determines that the detection is abnormal, a deceleration command is sent to the corresponding traveling moving body by sending a movement command, thereby suppressing uncertain movement of the self-propelled moving body, and Contact and collision of the moving object can be prevented. Here, the deceleration command may be a speed command lower than the current moving speed of the self-propelled moving body, and includes a stop command.
[0014]
Furthermore, the moving object control device according to claim 7 is the moving object control device according to
[0015]
In the invention according to claim 7,By transmitting a control signal to each self-propelled moving body at a different timing by the position confirmation information generation command section of the movement control means, only the position confirmation information generating means of the self-propelled moving body that receives the control signal emits light or emits light. By generating position confirmation information that causes a temperature change and the like, and detecting the position confirmation information as image information by the position detecting means, the position of the self-propelled mobile body is accurately detected from this image information without erroneous detection.be able to.
[0016]
Furthermore, the moving object control device according to claim 8 is the moving object control device according to
[0017]
In the invention according to claim 8,By inputting a control signal to the position confirmation information generating means, the state of the light emitting means changes to one of a light emitting state and a non-light emitting state. This state change is detected as image information by the imaging device constituting the position detecting means. By this, the position of the light emitting state or the non-light emitting state can be easily specified.be able to.
[0018]
Still further, the moving object control device according to claim 9 is a mobile device control device according to claim 9.Any of 1 to 6In the invention,The position confirmation information generating means has a temperature changing means for causing a temperature change when a control signal is input.It is characterized by that.
[0019]
In the invention according to claim 9,By inputting a control signal to the position confirmation information generation means, the temperature change means changes the temperature to a temperature different from the normal temperature by the heating means or the cooling means, and this temperature change is used as image information by thermography constituting the position detection means. Easily identify the location where the temperature change occurred by detectingIt is possibleYou.
[0022]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is an overall configuration diagram showing a first embodiment of the present invention, in which self-propelled robots R1 to R3 each having a built-in power source such as a battery as a plurality of moving objects in a traveling
[0023]
As shown in FIG. 2, each of these self-propelled robots R1 to R3 has, for example, three traveling
[0024]
The
[0025]
A
Then, two-dimensional image information of the traveling
[0026]
The
[0027]
Here, the
[0028]
Then, as shown in FIG. 3, the moving object control processing executed by the
[0029]
Next, the process proceeds to step S3, in which a light emission control signal is transmitted to all the self-propelled robots R1 to R3 via the wireless LAN circuit 22, and then the process proceeds to step S4. It is determined whether or not a predetermined time that has been set to be equal to or longer than the delay time from when the response information indicating that has been activated is received until the light emission is obtained from the
[0030]
In this step S5, the two-dimensional image information output from the
[0031]
In step S8, the non-light emitting state image information and the light emitting state image information stored in the predetermined storage area of the
[0032]
On the other hand, when the result of the determination in step S8 is that the position detection target candidate exists, the process proceeds to step S13, where the luminance area of the position detection target candidate is set to the luminance set in correspondence with the light emitting device 6 set in advance. It is determined whether or not it is within the area range. If the luminance area of the position detection target candidate is out of the preset luminance area range, the position detection target candidate is excluded from the position detection target candidate, and the process proceeds to step S9. If it is within, the process proceeds to step S14, and it is determined whether or not the luminance level of the position detection target candidate is within a preset luminance level range, and if it is outside the luminance level range, it is excluded from the position detection target candidate. Then, the process proceeds to step S9, and if the current position of the position detection target candidate is within the luminance level range, the process proceeds to step S15. It is determined whether or not the current position is within the movable range calculated based on the degree. If the current position is outside the movable range, the current position is excluded from position detection target candidates, and the process proceeds to step S9. If it is within the possible range, it is determined that the candidate is a legitimate position detection target candidate, and the process proceeds to step S16.
[0033]
In this step S16, the two-dimensional image information output from the
[0034]
In this step S20, the position of the legitimate position detection target candidate is determined as the current position of the self-propelled robots R1 to R3, and then the process proceeds to step S21, where the determined current position of the self-propelled robots R1 to R3 is stored in the
[0035]
In the movement control process of FIG. 3, the processes of steps S1 to S10 and S13 to S21 and S23 correspond to the position determining unit, of which the process of step S8 corresponds to the candidate extraction unit, and the processes of steps S13 to S19. The processing in steps S20 and S21 corresponds to the position information calculation means, and the processing in steps S11, S12, and S22 corresponds to the movement command transmission unit.
[0036]
Next, the operation of the above embodiment will be described.
Now, it is assumed that three self-propelled robots R1 to R3 are stopped at arbitrary positions in the traveling
In this state, when the movement control process of FIG. 3 is started by the
[0037]
Next, a light emission control signal is transmitted to each of the self-propelled robots R1 to R3 via the wireless LAN circuit 22 (step S3). When the
[0038]
When the
[0039]
After that, by transmitting a light-off control signal to each of the self-propelled robots R1 to R3, the
In this state, by comparing the non-light emitting state image information and the light emitting state image information for each of the RGB bright point bits stored in the
[0040]
Therefore, when no illuminant other than the traveling robots R1 to R3 is present in the traveling
[0041]
Thereafter, the light emitting state image information and the non-light emitting state image information for each of the RGB bright spot bits are compared again to determine whether the position where the state change occurs matches the normal position detection target candidate position (step S19). If they match, the current positions of the self-propelled robots R1 to R3 are determined, the current position information is stored as log information in a predetermined storage area of the
[0042]
For this reason, in the self-propelled robots R1 to R3, the moving speed and the moving direction are set based on the deviation between the target position information set by the
[0043]
On the other hand, if an abnormality occurs in the light emitting system including any one of the
[0044]
Similarly, when a state change is detected in the non-light-emitting image information and the light-emitting image information and it is determined that a position detection target candidate is present, the position detection target is provided on the reflected light of illumination or on a moving object or a fixed object other than the position detection target. The area of the light emission image information of each position detection target candidate is outside the set area range, the luminance level is outside the set luminance level, and the current position is outside the movable range by detecting the light emission of the light emission source that has been detected. Is detected as not a legitimate position detection target candidate and the position detection target candidate is deleted, so that if there are multiple position detection target candidates, only the legitimate position detection target candidate is correctly detected. can do.
[0045]
In addition, the non-emission state image information is read again for the normal position detection target candidate, and the read non-emission state image information is compared with the previously stored light emission state image information. Since it is determined whether or not they match, it is possible to narrow down the regular position detection target candidates more reliably.
As described above, according to the first embodiment, since the emission colors are set so as to be identifiable by the self-propelled robots R1 to R3, the positions of both can be accurately detected even when they are close to each other.
[0046]
In the above-described first embodiment, the case has been described in which the
[0047]
Next, a second embodiment of the present invention will be described with reference to FIG.
In the second embodiment, the position detection target candidates are detected by causing the self-propelled robots R1 to R3 to emit the same color at different timings instead of causing the self-propelled robots R1 to R3 to emit different emission colors. It is intended to be.
That is, in the second embodiment, the white light is generated by the
[0048]
This movement control processing is different from the processing of FIG. 3 in the first embodiment described above in that a step S31 of setting a variable i for selecting the self-propelled robots R1 to R3 to “1” before step S1 is added. At the same time, the processing of step S3 is changed to step S32 of transmitting a light emission control signal to the self-propelled robot Ri, and a variable i for specifying the self-propelled robot is incremented by "1" after step S22. At the same time, it is determined in step S33 that the variable N is cleared to "0" and whether or not the variable i is "4". When i <4, the process returns to the step S1. When i = 4, the process returns to the step S1. The same processing as that of FIG. 3 is performed except that step S34 of returning to S31 is added, and the processing corresponding to FIG. Description thereof is omitted this.
[0049]
In the movement control process of FIG. 4, the processes of steps S31, S32, S1 to S10, S13 to S21, and S33 and S34 correspond to the position determining unit, and among them, the process of step S8 corresponds to the candidate extracting unit. The processes of S13 to S19 correspond to the normal position detection candidate determining unit, the processes of steps S20 and S21 correspond to the position information calculating unit, and the processes of steps S11, S12 and S22 correspond to the movement command transmitting unit. .
[0050]
According to the second embodiment, when the movement control processing of FIG. 4 is started, first, the
[0051]
Then, the non-light emitting state image information and the light emitting state image information stored in the
[0052]
Thereafter, the variable i is set to “3”, and the process returns to step S1 to perform the same processing as described above for the self-propelled robot R3, to determine the current position of the self-propelled robot R2, and to determine the determined current position information. Is stored in the
Thereafter, the process proceeds to step S33, and when the variable i is incremented, i = 4. Therefore, the process returns from step S34 to step S31, the variable i is set to "1", and the above movement control process is repeated.
[0053]
Also in the second embodiment, when the position detection target candidate is not detected, when it is not a legitimate position detection target candidate, even if it is a legitimate position detection target candidate, the non-light emitting state image information and the light emitting state image If the information does not match, it is determined that an erroneous detection or light emission abnormality has occurred, and a deceleration command is transmitted to each of the self-propelled robots R1 to R3 to prevent contact and the like. When a predetermined number of times or more have elapsed, it is determined that an abnormal state has occurred, and a stop command is transmitted to each of the self-propelled robots R1 to R3 to stop each of the self-propelled robots R1 to R3.
[0054]
In the second embodiment, the case where the
[0055]
Further, in the second embodiment as well, the case where the
[0056]
Further, in the first and second embodiments, the case where the movement control of the self-propelled robots R1 to R3 is self-propelled by setting the target position by the
Furthermore, in the first and second embodiments, a case has been described in which the self-propelled robots R1 to R3 are applied as self-propelled moving bodies. However, the present invention is not limited to this, and self-propelled robots other than robots can be used. The present invention can be applied to any moving object such as a simple car, a movable model, and the like.
[0057]
Furthermore, in the first and second embodiments, the case where one
[0058]
Further, in the first and second embodiments, the case where the
[0059]
【The invention's effect】
As described above, according to the first aspect of the present invention, the position confirmation information generation command section of the movement control means transmits a control signal to the self-propelled moving body, thereby generating the position confirmation information of the self-propelled moving body. Means for issuing individually recognizable position confirmation information such as specific light and a specific temperature, detecting the position confirmation information as image information of a predetermined area by position detection means, and based on the image information detected by the position detection means. The position determination unit determines the position of each self-propelled moving body, and the movement command sending unit sends a movement command of the self-propelled moving body based on the position of each self-propelled moving body, thereby controlling movement of each self-propelled moving body. Therefore, there is an effect that the position of the self-propelled moving body can be accurately detected, and more accurate movement control accuracy can be improved.
Further, when the position determination unit determines the position of each self-propelled moving body, a state change is performed between image information for detecting a state of occurrence of position confirmation information and image information for detecting a state of non-occurrence of position confirmation information before and after that. By judging whether or not a state change has occurred, when a state change has occurred, the state change position is set as a candidate for position detection, so that a steady light emission position or a steady temperature position where no other state change occurs can be easily regarded as noise. And the position of the self-propelled moving body can be accurately detected.
[0060]
According to the second aspect of the present invention, the position confirmation information generation command unit of the movement control means transmits a control signal to each self-propelled moving body at a different timing, thereby receiving the self-propelled mobile unit. Only the position confirmation information generating means of the moving body generates position confirmation information that causes light emission, temperature change, and the like, and the position confirmation information is detected as image information by the position detection means.In the position determining means, as in the case of
[0061]
Further, according to the invention according to
[0062]
furtherAlso, Claims4According to the invention according toAfter the normal position detection candidate determining unit determines that the position is a normal position detection target, the state change when the position check information generation state is changed to the position check state non-generation state is checked again, and then determined as the normal detection target. Accordingly, an effect that a more accurate position detection candidate can be specified can be obtained.
[0063]
Still more, Claims5According to the invention according toWhen it is determined whether or not a state change has occurred between the image information for detecting the position confirmation information occurrence state and the image information for detecting the position confirmation information non-occurrence state before and after the state information, when there is no state change in both, The self-propelled moving body performs a contact avoidance operation such as deceleration control by notifying the corresponding self-propelled moving body of the detection abnormality.The effect that it can be obtained is obtained.
[0064]
Also, Claims6According to the invention according toWhen the position determination unit determines that the detection is abnormal, the movement command sending unit sends a deceleration command to the corresponding traveling moving body, thereby suppressing uncertain movement of the self-propelled moving body. Prevent contact and collision with other moving objectsThe effect that it can be obtained is obtained.
[0065]
Claims7According to the invention according toThe position confirmation information generating means provided on each self-propelled moving body generates position confirmation information capable of identifying the moving direction, so that when the position detecting means detects this as image information, the moving direction can be easily determined.The effect that it can be obtained is obtained.
[0066]
furtherAlso,Claim8According to the invention according toBy inputting a control signal to the position confirmation information generating means, the state of the light emitting means changes to one of a light emitting state and a non-light emitting state. This state change is detected as image information by the imaging device constituting the position detecting means. By this, the position of the light emitting state or the non-light emitting state can be easily specified.The effect that it can be obtained is obtained.
[0067]
Still more, Claims9According to the invention according toBy inputting a control signal to the position confirmation information generation means, the temperature change means changes the temperature to a temperature different from the normal temperature by the heating means or the cooling means, and this temperature change is used as image information by thermography constituting the position detection means. Easily identify the location where the temperature change occurred by detectingThe effect that it can be obtained is obtained.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram illustrating a traveling field according to a first embodiment of the present invention.
FIG. 2 is a block diagram showing a configuration of the first embodiment.
FIG. 3 is a flowchart showing an example of a movement control processing procedure executed by the system control computer of FIG. 2;
FIG. 4 is a flowchart illustrating an example of a movement control processing procedure executed by a system control computer according to a second embodiment of the present invention.
[Explanation of symbols]
1 Running field
2 Running wheels
3 Drive steering mechanism
4 Control device
5 LED
6 Light emitting device
7 Wireless receiver circuit
11 Color image sensor
20 System controller
21 Computer for system control
21a I / O interface
21b arithmetic processing unit
21c memory
22 Wireless transmission circuit
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001154460A JP3604649B2 (en) | 2001-05-23 | 2001-05-23 | Mobile control unit |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001154460A JP3604649B2 (en) | 2001-05-23 | 2001-05-23 | Mobile control unit |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002351540A JP2002351540A (en) | 2002-12-06 |
JP3604649B2 true JP3604649B2 (en) | 2004-12-22 |
Family
ID=18998801
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001154460A Expired - Fee Related JP3604649B2 (en) | 2001-05-23 | 2001-05-23 | Mobile control unit |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3604649B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013242222A (en) * | 2012-05-21 | 2013-12-05 | Toyota Industries Corp | Position detection system |
JP6397663B2 (en) * | 2014-06-18 | 2018-09-26 | シャープ株式会社 | Self-propelled electronic device |
JP7296557B2 (en) * | 2019-05-30 | 2023-06-23 | パナソニックIpマネジメント株式会社 | Position recognition system |
-
2001
- 2001-05-23 JP JP2001154460A patent/JP3604649B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2002351540A (en) | 2002-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4245367B2 (en) | Robot cleaner, its system and control method | |
US8120761B2 (en) | Method and apparatus for position judgment | |
JP6941120B2 (en) | Vehicle lighting systems, vehicle systems, vehicles and data communication systems | |
KR100993033B1 (en) | Entertainment system | |
CA2429880C (en) | Collaborative pointing devices | |
JP4972084B2 (en) | Method and system for controlling lighting | |
JP4115946B2 (en) | Mobile robot and autonomous traveling system and method thereof | |
CN102278955B (en) | Robot device and method of controlling robot device | |
US10573179B2 (en) | Illuminating device, illuminating guidance system and illuminating guidance method | |
US20140347196A1 (en) | System and Method for Recognizing a Parking Place That is Potentially Becoming Free | |
CN106660215B (en) | Early warning system and robot system | |
WO2013104316A1 (en) | Method and device for filter-processing imaging information of emission light source | |
WO2014010546A1 (en) | Failure-assessment apparatus | |
US20180288848A1 (en) | Vehicle imaging systems and methods for lighting diagnosis | |
US20140022068A1 (en) | Vehicle-mounted surrounding object recognizing apparatus and drive support apparatus using the same | |
JP5348215B2 (en) | Information acquisition apparatus, information acquisition method, information acquisition program, and information acquisition system | |
JP2009015759A (en) | Traffic light recognition apparatus | |
US20190007142A1 (en) | Light identification transmission device and light identification communication system | |
CN104412312B (en) | Communication equipment and communication means for vehicle | |
CN111918453A (en) | LED light scene control system and control method thereof | |
JP3604649B2 (en) | Mobile control unit | |
JP2010055765A (en) | Illumination system for crime prevention | |
US11919462B2 (en) | Vehicle occupant monitoring apparatus and vehicle occupant protecting system | |
WO2018149678A1 (en) | Single frame object tracking using thermal imaging | |
CN112954861B (en) | Lighting device, lighting device and operation method of lighting system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040304 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040601 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040802 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040831 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040929 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071008 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081008 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091008 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091008 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101008 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111008 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111008 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121008 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131008 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |