JP3635626B2 - Robot remote control system and robot image remote control processing system - Google Patents

Robot remote control system and robot image remote control processing system Download PDF

Info

Publication number
JP3635626B2
JP3635626B2 JP33209799A JP33209799A JP3635626B2 JP 3635626 B2 JP3635626 B2 JP 3635626B2 JP 33209799 A JP33209799 A JP 33209799A JP 33209799 A JP33209799 A JP 33209799A JP 3635626 B2 JP3635626 B2 JP 3635626B2
Authority
JP
Japan
Prior art keywords
robot
unit
image
signal
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP33209799A
Other languages
Japanese (ja)
Other versions
JP2001195113A (en
Inventor
勝之 馬場
重秋 井野
陽一 高本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
tmsuk Co Ltd
Original Assignee
tmsuk Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by tmsuk Co Ltd filed Critical tmsuk Co Ltd
Priority to JP33209799A priority Critical patent/JP3635626B2/en
Publication of JP2001195113A publication Critical patent/JP2001195113A/en
Application granted granted Critical
Publication of JP3635626B2 publication Critical patent/JP3635626B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、ロボットの遠隔制御を行うロボット遠隔制御システム、および、そのロボット遠隔制御システムと画像の遠隔伝送を行う画像遠隔処理システムとを有するロボット画像遠隔制御処理システムに関する。
【0002】
【従来の技術】
従来のロボット遠隔制御システムとしては、例えば特開平7−295637号公報に受付・案内ロボットシステムとして記載されているものがある。
この公報に記載された受付・案内ロボットシステムにおいて、ロボット本体と外部制御装置との間はデータ送受信部や音声送受信部で空間的に結合されており、データの送受信は赤外線信号で行われ、音声の送受信はFM信号で行われている。
【0003】
【発明が解決しようとする課題】
しかしながら、従来のロボット遠隔制御システムとしての受付・案内ロボットシステムでは、ロボット本体と外部制御装置との間が赤外線信号やFM信号で行われており、両者の距離を一定(例えば100m)以上離して使用することは不可能で、ましてや東京と北九州、若しくは米国等の遠隔地間で使用することは不可能であった。
このロボット遠隔制御システムおよびロボット画像遠隔制御処理システムでは、遠隔制御されるロボット装置、画像処理部が少なくとも日本のいずれに配置されても、遠隔制御が可能なことが要求されている。
【0004】
本発明は、遠隔制御されるロボット装置が少なくとも日本のいずれに配置されても遠隔制御が可能なロボット遠隔制御システム、および、遠隔制御される画像処理部が少なくとも日本のいずれに配置されても遠隔制御が可能なロボット画像遠隔制御処理システムを提供することを目的とする。
【0005】
【課題を解決するための手段】
この課題を解決するために本発明のロボット遠隔制御システムは、ロボット遠隔制御部とロボットコントロール部とロボットコントロール部から制御されるロボット機構部とを備えたロボット遠隔制御システムであって、ロボット遠隔制御部は、前記ロボットコントロール部に動作指示を与えるための動作コードを発生する第1のコンピュータ装置と、第1のコンピュータ装置から出力される動作コードを無線伝送データに変換する第1のデータ通信カードと、無線伝送データをアンテナを介して電波信号として送信する第1の移動体通信装置とを有し、ロボットコントロール部は、電波信号をアンテナを介して受信して無線伝送データを出力する第2の移動体通信装置と、無線伝送データを動作コードに変換する第2のデータ通信カードと、動作コードを第2のデータ通信カードから入力して出力する第2のコンピュータ装置と、第2のコンピュータ装置から出力された動作コードに基づいて前後退、左右回転を含む動作を行う前記ロボット機構部に動きを与えるロボットシーケンサ制御部とを有し、第1のコンピュータ装置は、前進・後退・回転を含む動作を指示する動作指示キースイッチを有し、動作の指示を示す動作指示信号を動作指示キースイッチから入力したときは動作コードテーブルを検索し、動作指示信号に対応する動作コードを読み出して、読み出した動作コードを第1の移動体通信装置に出力し、ロボットシーケンサ制御部は、動作コードが入力された場合に動作コードに対する動作指示が記憶された動作指示テーブルを検索し、検索した動作指示をリレーを動作させるためのリレーパターン信号として読み出す動作指示検索手段を有する構成を備えている。
これにより、被制御体としてのロボットコントロール部が少なくとも日本のいずれの地に配置されていても、ロボット遠隔制御部によりロボット機構部は制御されるロボット遠隔制御システムが得られる。
【0006】
この課題を解決するための本発明のロボット画像遠隔制御処理システムは、ロボット遠隔制御システムと画像遠隔処理システムとから成るロボット画像遠隔制御処理システムであって、ロボット遠隔制御システムはロボット遠隔制御部とロボットコントロール部とロボットコントロールから制御されるロボット機構部とから成り、画像遠隔処理システムは画像遠隔制御部と画像処理部とから成り、ロボット遠隔制御部は、ロボットコントロール部に動作指示を与えるための動作コードを発生すると共に画像処理部を制御するための制御コードを発生する第1のコンピュータ装置と、第1のコンピュータ装置から出力される動作コードと制御コードとを第1の無線伝送データに変換する第1のデータ通信カードと、第1の無線伝送データをアンテナを介して第1の電波信号として送信する第1の移動体通信装置とを有し、ロボットコントロール部は、第1の電波信号をアンテナを介して受信して第1の無線伝送データを出力する第2の移動体通信装置と、第1の無線伝送データを動作コードと制御コードとに変換する第2のデータ通信カードと、動作コードと制御コードとを第2のデータ通信カードから入力して出力する第2のコンピュータ装置と、第2のコンピュータ装置から出力された動作コードに基づいて前進、後退、左右回転を含む動作を行うロボット機構部に動きを与えると共に第2のコンピュータ装置から出力される制御コードをそのまま出力するロボットシーケンサ制御部とを有し、ロボット機構部は、周囲の被写体を撮像してアナログ画像信号として出力する複数のカメラと、ロボットコントロール部のロボットシーケンサ制御部から出力される制御コードに基づいて複数のカメラからのアナログ画像信号を選択して出力する画像選択部とを有し、画像遠隔制御部は、アナログ音声信号とデジタル音声信号との相互変換を行うと共にデジタル画像信号をアナログ画像信号へ変換する画像音声変換部と、デジタル音声信号とデジタル画像信号の入出力を行うと共に画像送信指示データを出力する第3のコンピュータ装置と、第3のコンピュータ装置から出力されるデジタル音声信号や画像送信指示データを第2の無線伝送データに変換する第3のデータ通信カードと、第2の無線伝送データをアンテナを介して第2の電波信号として送信する第3の移動体通信装置とを有し、画像処理部は、第2の電波信号をアンテナを介して受信して第2の無線伝送データを出力する第4の移動体通信装置と、第2の無線伝送データをデジタル音声信号に変換すると共にデジタル画像信号を第3の無線伝送データに変換する第4のデータ通信カードと、デジタル音声信号を第4のデータ通信カードから入力して出力すると共にデジタル画像信号を出力する第4のコンピュータ装置と、第4のコンピュータ装置から出力されたデジタル音声信号をアナログ音声信号へ又はマイクロフォンからのアナログ音声信号をデジタル音声信号へ変換すると共に画像選択部からのアナログ画像信号をデジタル画像信号へ変換して第4のコンピュータ装置へ出力する画像音声変換部とを有する構成を備えている。
これにより、遠隔制御される画像処理部が少なくとも日本のいずれに配置されても遠隔制御が可能なロボット画像遠隔制御処理システムが得られる。
【0007】
【発明の実施の形態】
本発明の請求項1に記載のロボット遠隔制御システムは、ロボット遠隔制御部とロボットコントロール部とロボットコントロール部から制御されるロボット機構部とを備えたロボット遠隔制御システムであって、ロボット遠隔制御部は、ロボットコントロール部に動作指示を与えるための動作コードを発生する第1のコンピュータ装置と、第1のコンピュータ装置から出力される動作コードを無線伝送データに変換する第1のデータ通信カードと、無線伝送データをアンテナを介して電波信号として送信する第1の移動体通信装置とを有し、ロボットコントロール部は、電波信号をアンテナを介して受信して無線伝送データを出力する第2の移動体通信装置と、無線伝送データを動作コードに変換する第2のデータ通信カードと、動作コードを第2のデータ通信カードから入力して出力する第2のコンピュータ装置と、第2のコンピュータ装置から出力された動作コードに基づいて前後退、左右回転を含む動作を行うロボット機構部に動きを与えるロボットシーケンサ制御部とを有し、第1のコンピュータ装置は、前進・後退・回転を含む動作を指示する動作指示キースイッチを有し、動作の指示を示す動作指示信号を動作指示キースイッチから入力したときは動作コードテーブルを検索し、動作指示信号に対応する動作コードを読み出して、読み出した動作コードを第1の移動体通信装置に出力し、ロボットシーケンサ制御部は、動作コードが入力された場合に動作コードに対する動作指示が記憶された動作指示テーブルを検索し、検索した動作指示をリレーを動作させるためのリレーパターン信号として読み出す動作指示検索手段を有することとしたものである。
これにより、ロボット遠隔制御部からの動作指示信号は移動体通信装置(例えばPHS装置)を介して伝送され、被制御体としてのロボットコントロール部が少なくとも日本のいずれの地に配置されていても、ロボット遠隔制御部によりロボット機構部は制御されるという作用を有する。また、通信可能な範囲であれば、極めて危険な箇所等でも遠隔地の操作者がロボット装置のロボット機構部を自由に操り作業を行うことが出来、また、動作指示キースイッチを介してロボット装置に対して動作指示を与えるようにしたので、操作者は例えば前進指示の場合には前進の動作指示キースイッチを押下すればよく、ロボット装置の操作を極めて簡単なものにすることができるという作用を有する。
また、ロボット機構部はロボットシーケンサ制御部により自動的に制御されるという作用を有する。
【0008】
請求項に記載のロボット画像遠隔制御処理システムは、ロボット遠隔制御システムと画像遠隔処理システムとを備えたロボット画像遠隔制御処理システムであって、ロボット遠隔制御システムはロボット遠隔制御部とロボットコントロール部とロボットコントロールから制御されるロボット機構部とから成り、画像遠隔処理システムは画像遠隔制御部と画像処理部とから成り、ロボット遠隔制御部は、ロボットコントロール部に動作指示を与えるための動作コードを発生すると共に前記画像処理部を制御するための制御コードを発生する第1のコンピュータ装置と、第1のコンピュータ装置から出力される動作コードと制御コードとを第1の無線伝送データに変換する第1のデータ通信カードと、第1の無線伝送データをアンテナを介して第1の電波信号として送信する第1の移動体通信装置とを有し、ロボットコントロール部は、第1の電波信号をアンテナを介して受信し第1の無線伝送データを出力する第2の移動体通信装置と、第1の無線伝送データを動作コードと制御コードとに変換する第2のデータ通信カードと、動作コードと制御コードとを第2のデータ通信カードから入力して出力する第2のコンピュータ装置と、第2のコンピュータ装置から出力された動作コードに基づいて前進、後退、左右回転を含む動作を行うロボット機構部に動きを与えると共に第2のコンピュータ装置から出力される制御コードをそのまま出力するロボットシーケンサ制御部とを有し、ロボット機構部は、周囲の被写体を撮像してアナログ画像信号として出力する複数のカメラと、ロボットコントロール部のロボットシーケンサ制御部から出力される制御コードに基づいて複数のカメラからのアナログ画像信号を選択して出力する画像選択部とを有し、画像遠隔制御部は、アナログ音声信号とデジタル音声信号との相互変換を行うと共にデジタル画像信号をアナログ画像信号へ変換する画像音声変換部と、デジタル音声信号とデジタル画像信号の入出力を行うと共に画像送信指示データを出力する第3のコンピュータ装置と、第3のコンピュータ装置から出力されるデジタル音声信号や画像送信指示データを第2の無線伝送データに変換する第3のデータ通信カードと、第2の無線伝送データをアンテナを介して第2の電波信号として送信する第3の移動体通信装置とを有し、画像処理部は、第2の電波信号をアンテナを介して受信して第2の無線伝送データを出力する第4の移動体通信装置と、第2の無線伝送データをデジタル音声信号に変換すると共にデジタル画像信号を第3の無線伝送データに変換する第4のデータ通信カードと、デジタル音声信号を第4のデータ通信カードから入力して出力すると共にデジタル画像信号を出力する第4のコンピュータ装置と、第4のコンピュータ装置から出力されたデジタル音声信号をアナログ音声信号へ又はマイクロフォンからのアナログ音声信号をデジタル音声信号へ変換すると共に画像選択部からのアナログ画像信号をデジタル画像信号へ変換して第4のコンピュータ装置へ出力する画像音声変換部と、を有することとしたものである。
これにより、ロボット遠隔制御部からの動作指示信号は移動体通信装置(例えばPHS装置)を介して伝送され、被制御体としてのロボットコントロール部が少なくとも日本のいずれの地に配置されていても、ロボット遠隔制御部によりロボット機構部は制御されるとと共に、画像処理部からの画像信号も自動的に画像遠隔制御部に伝送され、画像モニタに自動的に表示され、またロボット機構部に配置された複数のカメラのいずれかが選択されるという作用を有する。
【0009】
請求項に記載のロボット画像遠隔制御処理システムは、請求項に記載のロボット画像遠隔制御処理システムにおいて、複数のカメラは、ロボット機構部の頭部、足部および手部に配置されたを有することとしたものである。
これにより、請求項で得られる作用の他、ロボット機構部の頭部、足部および手部からの画像がモニタされるという作用を有する。
以下、本発明の実施の形態について、図1〜図20を用いて説明する。
【0010】
(実施の形態1)
図1は、本発明の実施の形態1によるロボット遠隔制御システムを含むロボット画像遠隔制御処理システムを示すブロック図である。
図1において、Aはロボット画像遠隔制御処理システム、1は遠隔制御装置、2はロボット装置、3はロボット遠隔制御部、4はロボットコントロール部、4Aはロボット機構部、5は画像遠隔制御部、6は画像処理部、7、8、9、10はアンテナ、LS1、LS2は基地局(例えばPHS基地局)、Nは公衆回線網であり、ロボット遠隔制御部3とアンテナ7、8と基地局LS1、LS2と公衆回線網Nとロボットコントロール部4とロボット機構部4Aとはロボット遠隔制御システムを構成し、画像遠隔制御部5とアンテナ9、10と基地局LS1、LS2と公衆回線網Nと画像処理部6とは画像遠隔処理システムを構成する。ロボット遠隔制御システムと画像遠隔処理システムとはロボット画像遠隔制御処理システムAを構成する。
【0011】
このように構成されたロボット画像遠隔制御処理システムAについて、その動作を説明する。
ロボット遠隔制御システム3から出力された動作コード、制御コードを含む電波信号はアンテナ7、基地局LS1、公衆回線網N、基地局LS2、アンテナ8を介して電波信号としてロボットコントロール部4に出力され、ロボットコントロール部4で電波信号を動作コード、制御コードに変換し、さらに動作コードを制御対象リレーを示すリレー信号に変換する。そして、リレー信号に応じてロボット機構部4Aが動作する。また、制御コードに応じてロボット機構部4Aを制御する。ロボット機構部4Aは、後述する複数のカメラと複数のカメラのいずれかを選択する後述の画像選択部6とを有し、画像選択部6の出力信号が画像処理部6に入力される。
【0012】
図2は図1のロボット遠隔制御システムを示すブロック図である。
図2において、ロボット遠隔制御部3、ロボットコントロール部4、ロボット機構部4A、アンテナ7、8、基地局LS1、LS2、公衆回線網Nは図1と同様のものなので、同一符号を付し、説明は省略する。
11は入力装置12からの動作指示を動作コードに変換するCPU(中央処理装置)、13は動作指示や動作コードを表示する表示装置、14はデータをプリンタ等へ出力する出力装置、15はデータを記憶するRAM、16はプログラムやデータを記憶するROM、17は動作コードを外部へ出力するためのインタフェース部であり、これらは第1のコンピュータ装置11Aを構成する。
【0013】
18は第1のコンピュータ装置11Aから出力される動作コードを無線伝送データに変換する第1のデータ通信カード、19は第1のデータ通信カード18からの無線伝送データをアンテナ7を介して電波信号(第1の電波信号)として送信する第1の移動体通信装置、20は第1の移動体通信装置19から出力された電波信号をアンテナ8を介して受信して無線伝送データを出力する第2の移動体通信装置、21は第2の移動体通信装置からの無線伝送データを動作コードに変換する第2のデータ通信カード、23Aは第2のデータ通信カード21からの動作コードをインタフェース部22を介して入力する第2のコンピュータ装置である。
第2のコンピュータ装置23Aは、データの授受のインタフェースを司るインタフェース部22、29と、データを処理するCPU23と、指令等を入力するための入力装置24と、データを表示する表示装置25と、データをプリンタ等へ出力する出力装置26と、データを記憶するRAM27と、プログラム、データを記憶するROM28とを有する。30は第2のコンピュータ装置23Aから出力された動作コードに基づいて、前進、後退、左右回転等の動作を行うロボット機構部4Aに動きを与えるロボットシーケンサ制御部である。
【0014】
次に、このように構成されたロボット遠隔制御システムについて、図4〜図8を用いてPHSを例に説明する。図4はロボット遠隔制御部における動作を示すフローチャートであり、図5はロボットコントロール部における動作を示すフローチャートであり、図6はロボットコントロール部のロボットシーケンサ制御部における動作を示すフローチャートであり、図7はロボットシーケンサ制御部におけるリレー変換回路を示す回路図であり、図8はロボット機構部におけるリレー回路を示す回路図である。
【0015】
まず図4において、移動体通信装置としてのPHS19からダイヤル接続を行い、PHSダイヤル接続完了信号がデータ通信カード18、インタフェース部17を介してCPU11へ通知されると、CPU11は動作指示可能と判定し、動作指示可能であることを表示装置13に表示する(S1)。表示装置13から動作指示可能であることを通知された操作者は動作指示内容に対応する動作指示キースイッチをオンし、オンとなった動作指示キースイッチは動作指示信号を出力する。CPU11は上記動作指示信号が入力されたか否かを判定し(S2)、動作指示信号が入力されたと判定したときは、動作コード検索手段(図示せず)により、動作コードテーブルを検索し(S3)、上記動作指示信号に対応する動作コードを動作コードテーブルから読み出す(S4)。動作指示キースイッチに対応する動作コードの例を(表1)に示す。
【表1】
(表1)は、例えば前進を指示する動作指示キースイッチをオンすることにより発生する動作指示信号はF8(8ビット)の動作コードに変換されることを表わす。CPU11で読み出された動作コードはインタフェース部17を介してデータ通信カード18へ出力される(S5)。ステップ2でCPU11が動作指示信号は入力されなかったと判定したときは、CPU11は動作指示無しを示す「0」コードを出力し、ステップ5へ移行する(S6)。
【0016】
次に、操作者は、制御内容に対応する制御キースイッチをオンし、オンとなった制御キースイッチは制御信号を出力する。CPU11は上記制御信号が入力されたか否かを判定し(S7)、制御信号が入力されたと判定したときは、制御コード検索手段(図示せず)により、制御コードテーブルを検索し(S8)、上記制御信号に対応する制御コードを制御コードテーブルから読み出す(S9)。CPU11で読み出された制御コードはインタフェース部17を介してデータ通信カード18へ出力される(S10)。制御キースイッチに対応する制御コードの例を(表2)に示す。
【表2】
(表2)は、例えば頭部を指示する制御指示キースイッチをオンすることにより発生する制御信号(頭部に配置されたカラーCCDカメラからの出力信号を選択するための制御信号)はA1(8ビット)の制御コードに変換されることを表わす。
【0017】
ステップ1〜10がCPU11における動作、つまり第1のコンピュータ装置11Aの動作である。データ通信カード18は第2のコンピュータ装置11Aからの動作コードを無線伝送データ(第1の無線伝送データ)へ変換して移動体通信装置(PHS)19に出力し、移動体通信装置19は無線伝送データを電波信号(第1の電波信号)としてアンテナ7から送信する。
第2の移動体通信装置20は、アンテナ7からの電波信号をPHS基地局LS1、公衆回線網N、PHS基地局LS2、アンテナ8を介して受信して無線伝送データを第2のデータ通信カード21に出力する。第2のデータ通信カード21は、無線伝送データを動作コードと制御コードに変換してインタフェース部22を介してCPU23へ出力する。CPU23における動作を図5に示す。
【0018】
図5において、まずCPU23は、動作コード又は制御コードを受信したか否かを判定し(S11)、受信したと判定したときは動作コード又は制御コードをインタフェース部29を介してロボットシーケンサ制御部30へ出力する。
図6に、ロボットシーケンサ制御部30の動作を示す。
図6において、ロボットシーケンサ制御部30はまず動作コードが入力されたか否かを判定し(S21)、入力されたと判定したときは、ロボットシーケンサ制御部30の動作指示検索手段(図示せず)は、動作指示テーブルを検索し(S22)、動作コードに対応するリレーパターン信号(動作指示信号)を読み出す(S23)。リレーパターン信号は図7に示すようにビットパターンデータであり、例えばリレーパターン信号がリレーK1を示す場合は、リレー変換回路はリレーK1を動作させる。(表3)に動作指示テーブルの一例を示す。
【表3】
(表3)は、動作コードがF8の場合、リレーパターン信号が「11001001」のビットパターンデータであることを示し、またこのパターンはリレーK1をオンとするオン指示信号であることを示す。このようにしてロボットシーケンサ制御部30はリレーK1のオン信号を図8のリレー接点K1aのオン信号としてロボット機構部4Aに出力する。ロボットシーケンサ制御部30は、制御コードが入力されたときはそのままロボット機構部4Aへ出力する。
【0019】
図8はロボット機構部4Aにおけるリレー回路であり、リレー接点K1aがオンであることにより、図8に示すように、条件1と条件2とが成立すればリレーBがオンとなることを示す。しかし、図8では、条件1は成立しているが条件2は成立しておらず、リレーOK1はオン、リレーOK2はオフとなっている。ここで、条件2も成立してリレーOK2がオンとなると、リレーBがオンとなり、そのオン接点Baを介してモータリレーMAがオンとなり、前後進用モータ(図示しない)が正回転してロボットコントロール部4およびロボット機構部4Aを内蔵したロボット装置2は前進する。なお、前後進用モータは逆回転することにより後退することもできる。
【0020】
上記前進、後退動作は通常動作の一部であるが、ロボット遠隔制御部3からは通常動作の他、非常停止等の非常動作や、サーボフリー等の保守動作の動作コードも発生される。さらに、ロボット機構部4Aの状態を示す状態コードを伝送する動作もある。ロボットシーケンサ制御部30は、ロボット機構部4Aからの状態信号(状態を示す信号)に基づいて状態テーブル(図示せず)を検索し、状態コードを読み出す。この状態コードのロボット遠隔制御部3への伝送は、上述した伝送と同様で、ただ方向がロボットコントロール部4からロボット遠隔制御部3への方向である点が異なるのみである。
【0021】
次に、画像遠隔処理システムについて、その動作を図3を用いて説明する。
図3は図1の画像遠隔処理システムを示すブロック図である。
図3において、ロボット機構部4A、画像遠隔制御部5、アンテナ9、10、画像処理部6、基地局LS1、LS2、公衆回線網Nは図1と同様のものなので、同一符号を付し、説明は省略する。
31Aは第3のコンピュータ装置であり、第3のコンピュータ装置31Aは、データの授受のインタフェースを司るインタフェース部37、41と、データを処理するCPU31と、動作指示等を入力するための入力装置32と、データを表示する表示装置33と、データをプリンタ等へ出力する出力装置34と、データを記憶するRAM35と、プログラム、データを記憶するROM36とを有する。38はデジタル音声信号とアナログ音声信号との相互変換を行うと共にデジタル画像信号をアナログ画像信号に変換して画像モニタ39へ出力する画像音声変換部、40は入力音声をアナログ音声信号として出力すると共に入力アナログ音声信号を音声として出力するイヤホンマイクロフォン、42は第3のコンピュータ装置31Aから出力されるデジタル音声信号を第2の無線伝送データに変換する第3のデータ通信カード、43は第2の無線伝送データをアンテナ9を介して第2の電波信号として送信する第3の移動体通信装置であり、これらはいずれも画像遠隔制御部5に内蔵されている。
【0022】
44は第2の電波信号をアンテナ10を介して受信して第2の無線伝送データを出力する第4の移動体通信装置、45は第2の無線伝送データをデジタル音声信号に変換すると共に後述の第4のコンピュータ装置47Aから出力されるデジタル画像信号を第3の無線伝送データに変換する第4のデータ通信カード、47Aはデジタル音声信号が第4のデータ通信カード45から入力されると共に後述の画像音声変換部54を介する後述の白黒やカラーのCCDカメラ55からのデジタル画像信号、及び後述の画像音声変換部54を介する後述のイヤホンマイクロフォン56からのデジタル音声信号を第4のデータ通信カード45へ出力する第4のコンピュータ装置である。
【0023】
第4のコンピュータ装置47Aは、データの授受のインタフェースを司るインタフェース部46、53と、データを処理するCPU47と、動作指示等を入力するための入力装置48と、データを表示する表示装置49と、データをプリンタ等へ出力する出力装置50と、データを記憶するRAM51と、プログラム、データを記憶するROM52とを有する。54はデジタル音声信号とアナログ音声信号との相互変換を行うと共にデジタル画像信号をアナログ画像信号に変換して画像モニタ39へ出力する画像音声変換部であり、第4のコンピュータ装置47Aと画像処理部6に内蔵されている。
【0024】
55a、55b、55cはロボット機構部4Aの各々頭部、足部、手部に配置され、被写体を撮像してアナログのカラー画像信号として出力する白黒やカラーのCCDカメラ、56はロボット機構部4Aの頭部に配置され、入力音声をアナログ音声信号として出力すると共に入力アナログ音声信号を音声として出力するイヤホンマイクロフォン、57は頭部の白黒やカラーのCCDカメラ(頭部カメラ)55a、足部の白黒やカラーのCCDカメラ(足部カメラ)55b、手部の白黒やカラーのCCDカメラ(手部カメラ)55cのうちのいずれかをロボットコントロール部4からの制御コードに基づいて選択する画像選択部である。
【0025】
このように構成された画像遠隔処理システムについて、以下その動作を説明する。
画像遠隔制御部5の第3のコンピュータ装置31Aの入力装置32から入力された画像送信指示信号はCPU31から画像送信指示データとしてインタフェース部41を介して第3のデータ通信カード42に入力される。第3のデータ通信カード42は入力された画像送信指示データを第2の無線伝送データに変換して第3の移動体通信装置43へ出力し、第3の移動体通信装置43は第3のデータ通信カード42からの無線伝送データをアンテナ9を介して第2の電波信号として送信する。
【0026】
アンテナ9、PHS基地局LS1、公衆回線網N、PHS基地局LS2、アンテナ10を介して第2の電波信号を受信した第4の移動体通信装置44は、第2の電波信号を第2の無線伝送データへ変換し、第4のデータ通信カード45へ入力する。第4のデータ通信カード45は第2の無線伝送データを画像送信指示データへ変換する。第4のデータ通信カード45からインタフェース部46を介して画像送信指示データが入力されたCPU47は、ロボット機構部4Aの画像選択部57で選択されたCCDカメラからのカラー等の画像信号を今までとは逆方向にアンテナ10、9を介して画像遠隔制御部5へ送信する。画像選択部57を介するCCDカメラからのアナログのカラー等の画像信号は画像音声変換部54でデジタル画像信号へ変換され、第4のコンピュータ装置47Aを介して第4のデータ通信カード45に入力され、第4のデータ通信カード45は第4のコンピュータ装置47Aからのデジタル画像信号を第3の無線伝送データへ変換し、第4の移動体通信装置44は第4のデータ通信カード45からの第3の無線伝送データを第3の電波信号へ変換してアンテナ10から送信する。アンテナ10からの第3の電波信号はPHS基地局LS2、公衆回線網N、PHS基地局LS1、アンテナ9を介して画像遠隔制御部5の第3の移動体通信装置43に受信され、第3の移動体通信装置43から第3の無線伝送データとして第3のデータ通信カードを介してデジタル画像信号として第3のコンピュータ装置31Aに入力される。
【0027】
第3のコンピュータ装置31AのCPU31は、入力したデジタル画像信号をインタフェース部37を介して画像音声変換部38へ出力し、画像音声変換部38は、デジタル画像信号をアナログのカラー画像信号に変換して画像モニタ39に出力し、カラー画像を表示する。
音声信号に関しても画像信号と同様である。すなわち、イヤホンマイクロフォン40からのアナログ音声信号は画像音声変換部38でデジタル音声信号に変換され、画像信号と同様の信号路、通信路を経て画像音声変換部54からアナログ音声信号として出力され、イヤホンマイクロフォン56から音声として出力される。また、イヤホンマイクロフォン56からのアナログ音声信号は画像音声変換部54でデジタル音声信号に変換され、画像信号と同様の信号路、通信路を経て画像音声変換部38からアナログ音声信号として出力され、イヤホンマイクロフォン40から音声として出力される。
【0028】
なお、本実施の形態では移動体通信装置の例としてPHS装置について記載したが、本発明はこれに限らず、携帯電話機についても同様に適用可能であり、したがって、携帯電話機が国際的な電話回線を介して外国との間で使用可能となれば、ロボット装置の遠隔制御を国際的に行うことができる。
【0029】
以上のように本実施の形態によれば、ロボット遠隔制御部3からの動作指示信号は移動体通信装置(例えばPHS装置)19を介して伝送され、移動体通信装置14の電波信号が届くところならどこでも(例えば日本のどこでも)動作指示を与えることができるので、被制御体としてのロボットコントロール部4、ロボット機構部4Aがいずれの地に配置されても、ロボット遠隔制御部3によりロボット機構部4Aを制御することができる。また、画像処理部6からの画像信号も自動的に画像遠隔制御部5に伝送され、画像モニタ39に自動的に表示することができる。
【0030】
また、CPU11は入力装置12から入力される動作指示および制御を動作コードおよび制御コードに変換するようにしたことにより、自動的にロボットコントロール部4によりロボット機構部4Aを制御することができると共に、ロボット機構部4Aのカメラ55a〜55cからの画像を選択することができる。
【0031】
さらに、動作指示キースイッチを介してロボット装置2に対して動作指示を与えるようにしたので、操作者は例えば前進指示の場合には前進の動作指示キースイッチを押下しさえすればよく、ロボット装置2の操作を極めて簡単なものにすることができる。
【0032】
さらに、CPU11は、動作指示が入力された場合に動作指示に対する動作コードが記憶された動作コードテーブルを検索し、検索した動作コードを読み出す動作コード検索手段を有することにより、動作指示が入力されると自動的に動作コードを発生して自動的にロボット機構部4Aを制御することができる。また、制御コードの場合も同様で、自動的にカメラ55a〜55cのいずれかを選択することができる。
【0033】
さらに、ロボットシーケンサ制御部30は、動作コードが入力された場合に動作コードに対する動作指示が記憶された動作指示テーブルを検索し、検索した動作指示を読み出す動作指示検索手段を有することにより、ロボット機構部4Aをロボットシーケンサ制御部30により自動的に制御することができる。
【0034】
(実施の形態2)
図9は本発明の実施の形態2によるロボット遠隔制御システムを示す構成図である。
図9において、PHS基地局LS1、LS2、公衆回線網Nは実施の形態1の図1と同様のものであるので、同一符号を付し、説明は省略する。
Bは本実施の形態2のロボット遠隔制御システム、1Aはロボット遠隔制御システムBを構成する遠隔制御装置、2Aはロボット遠隔制御システムBを構成するロボット装置、61は遠隔制御装置1Aのコンピュータ装置(第1のコンピュータ装置)、62は遠隔制御装置1Aの操作装置、63は遠隔制御装置1Aの移動体通信装置(第1の移動体通信装置)、71はロボット装置2Aのコンピュータ装置(第2のコンピュータ装置)、72はロボット装置2Aのロボット機構部、73はロボット装置2Aの移動体通信装置(第2の移動体通信装置)である。
【0035】
このように構成されたロボット遠隔制御システムBについて、以下その動作を説明する。
操作装置62は、ロボット装置の動作部(後述する頭部、腕指部等の動作部)を操作するものであり、操作量に応じた操作信号(例えば回転角度に応じた電圧値、オン・オフ等)を出力する。操作装置62からの操作信号は第1のコンピュータ装置61に入力され、第1のコンピュータ装置61は上記電圧値等に応じた操作データ(したがって操作量に応じた操作データ)を発生して第1の移動体通信装置63へ出力する。操作データを入力した第1の移動体通信装置63は操作データを含む電波信号(操作データ等電波信号)をPHS基地局LS1へ送信する。PHS基地局LS1は操作データ等電波信号を公衆回線網Nを介してPHS基地局LS2へ送信し、PHS基地局LS2は上記操作データ等電波信号をロボット装置2Aの第2の移動体通信装置73へ送信する。第2の移動体通信装置73は受信した操作データ等電波信号から操作データを取り出して第2のコンピュータ装置71へ出力する。第2のコンピュータ装置71は、上記操作データを入力して、これをロボット機構部72を制御するための制御データへ変換してロボット機構部72へ出力する。ロボット機構部72は、第2のコンピュータ装置71からの制御データを入力して、各動作部を制御する。動作部としては、頭部や、腕指部、走行部がある。指部は腕指部に含まれる。
【0036】
図10は、図9の遠隔制御装置1Aを詳細に示すブロック図である。
図10において、61、62、63は図9と同様のコンピュータ装置、操作装置、移動体通信装置、611は遠隔制御装置1A全体を制御する操作制御部、612は移動体通信装置63との間でデータの授受を行う入出力I/F部(入出力インタフェース部)、613は表示データを表示部614へ出力する出力I/F部(出力インタフェース部)、615はA/D変換部、616はD/A変換部、617は入力I/F部(入力インタフェース部)、621はロボット機構部72の動作部としての頭部の操作信号を出力する頭部操作部、622はロボット機構部72の動作部としての胴部の操作信号を出力する胴部操作部、623はロボット機構部72の動作部としての腕指部の操作信号を出力する腕操作部、624は腕操作部623内の指部操作部、625は走行する動輪(対象動輪),走行における前進、後退および走行速度を指示する走行操作部626を含む操作盤、631は第1の移動体通信装置としてのPHS送受信装置、632はPHS送受信を行うためのアンテナである。
【0037】
次に、図10の頭部操作部621、腕操作部623および走行操作部625について、図12,図13を用いて説明する。図12は、図10の頭部操作部621と腕操作部623を示す構成図である。図13は図10の胴部操作部622と操作盤625とを示す斜視図である。
図12において、Hは操作者、621は操作者Hの頭部に装着されロボット装置2Aの前後動及び左右動を操作する頭部操作部、621aは画像を表示するヘッドマウントディスプレイ、621bはヘッドマウントディスプレイ621aと共に回動し頭部の上下回転を検出するための上下角度検出部、621cは上下角度検出部621bと一体化された軸棒、621dは頭部の左右回動に伴って回動する軸棒621cの回動角を検出する左右角度検出部である。623R,Lは各々操作者Hの右の腕部や左の腕部の動きに連動する。腕操作部623Rは操作者Hの右の腕指部、623Lは操作者Hの左の腕指部である。
【0038】
100Rは右腕指部623Rを椅子等に固定するための腕指部取付部、101Rはロボット装置2Aの右の肩の前後、左右(肩の前後とは腕振りの前後、肩の左右とは腕の左右方向への持ち上げ)を操作する肩操作部、102Rは右の上腕の回転を操作する上腕操作部、103Rは右の肘の屈伸を操作する肘操作部、104Rは右の前腕の回転を操作する前腕操作部、105Rは右の手首の回転を操作する手首操作部、624Rは右の指の親指、人指し指、中指を操作する指部操作部(薬指と小指は中指の操作と一体化している)、100Lは左腕指部623Lを椅子等に固定するための腕指部取付部、101Lは左の肩の前後、左右(肩の前後とは腕振りの前後、肩の左右とは腕の左方向への持ち上げ)を操作する肩操作部、102Lは左の上腕の回転を操作する上腕操作部、103Lは左の肘の屈伸を操作する肘操作部、104Lは左の前腕の回転を操作する前腕操作部、105Lは左の手首の回転を操作する手首操作部、624Lは左の指の親指、人指し指、中指を操作する指部操作部(薬指と小指は中指の操作と一体化している)である。なお、上記左右角度検出部621dは椅子に取り付けた支持部材(図示せず)を介して椅子に固定される。
【0039】
図13において、操作盤625は操作者Hの足元に置かれ操作される。622は胴部の上下を操作する胴部操作部、走行操作部626は図10と同様のものであり、111は右動輪前転とその走行速度を操作する操作レバー、112は右動輪後転とその走行速度を操作する操作レバー、113は左動輪前転とその走行速度を操作する操作レバー、114は左動輪後転とその走行速度を操作する操作レバー、115〜118は押釦スイッチである。押釦スイッチ115〜118は動作規制無効指令たとえば走行禁止無効指令(近傍の障害物等によってロボット装置が発生する走行禁止を無効とするような指令)を出力するためのものである。 このように構成された遠隔制御装置1Aについて、その使用データを説明する。
(表4)に、コンピュータ装置61の入力インタフェース部617を介して操作制御部611に入力される操作信号すなわち操作盤625からの操作信号を示す。
【表4】
(表4)に示すように、非常停止、動輪の左右と前進、後退等を示す信号が操作制御部611に入力される。非常停止信号は、例えば操作盤625の押しボタン115をオンとすることにより発生し、入力インターフェース部617を介して操作制御部611に入力され、入出力インターフェース部612、移動体通信装置63を介して後述のロボット装置2A(図11参照)へ伝送される。また、右輪の前進指令は操作盤625の操作レバー111を操作者Hが足で引き上げることにより発生し、また操作レバー111の引き上げ角度に応じた速度を示す速度信号が発生する。これらの信号のうち前進信号は同様に、入力インターフェース部617を介して操作制御部611に入力され、入力インターフェース部612、移動体通信装置63を介して図11のロボット装置2Aへ伝送され、後述のロボット装置2Aの走行用モータ730により走行部729の動輪729R(図14参照)を駆動する。上記速度信号について後述するようにA/D変換部615を介して操作制御部611に入力される。
【0040】
(表5)に、コンピュータ装置61の出力インタフェース部613を介して操作制御部611から表示部614に出力される信号を示す。
【表5】
(表5)に示すように、表示部614には、ロボットの各状態が表示される。これらのロボットの各状態(非常停止、運転中等)を示す信号は後述のロボット装置2Aのセンサ部735(図11)でセンサ信号として発生し、これらのセンサ信号は、入力インターフェース部716を介してロボット制御部711に入力され、移動体通信装置73を介して遠隔制御装置1Aに伝送され、移動体通信装置63、入出力インターフェース部612、操作制御部611、出力インターフェース部613を介して、表示部614に表示される。
【0041】
(表6)に、A/D変換部615でA/D変換されて操作制御部611に入力される操作信号を示す。
【表6】
(表6)に示すように、頭部の操作信号、腕指部の操作信号、動輪の速度指示信号が操作制御部611に入力される。これらの信号は、図12に示すように操作者が腕や指などを動作させることにより、あるいは操作盤625のレバー111等を操作することにより発生する。(表6)の動作範囲とは、例えば90度の場合、左右、前後あるいは上下の範囲が90度ということであり、一般には左右、前後あるいは上下に最大±45度移動することを意味する。上記各信号は、図10の各操作部621〜623、操作盤625の走行操作部で発生し、A/D変換部615を介して操作制御部611に入力され、入出力インターフェース部612、移動体通信装置63を介して、ロボット装置2Aに入力され、後述のロボット装置2Aのモータ部722の各モータを駆動して、ロボットの頭部、腕指部等を動作させる。
【0042】
(表7)に、D/A変換部616でD/A変換されて腕操作部623に出力される信号を示す。
【表7】
(表7)に示すように、1、2、3の指3本分の反力信号が指操作部624に出力され、この反力信号に応じた負荷が各指に荷重される。なお、反力信号は、後述のロボット装置2Aの指反力検出部734(図11参照)において発生し、移動体通信装置73、63を介して操作制御部611に入力され、D/A変換部616でD/A変換されて腕操作部623に入力され、指操作部624の指部分に反力を発生させる。したがって、ロボット装置2Aの指が動きにくい物を操作しているときには、指操作部624の指に重い負荷がかかり、ロボット装置2Aにおける指の動きを遠隔制御装置1A側で実感することができる。
【0043】
次に、図10の遠隔制御装置について、その動作を図15を用いて説明する。図15は図10の遠隔制御装置の動作を示すフローチャートである。
まずPHS装置631はロボット装置2Aからの送信信号をPHS基地局LS1(図9参照)を介して受信する。受信データは、(表5)に示すロボット状態データおよび(表7)に示す指反力データである。これらのデータは入出力インタフェース部612を介して操作制御部611に入力される(S31)。次に、操作制御部611はD/A変換部616を介して腕操作部623に指反力データを出力し、腕操作部623は上記指反力データに基づいて指の反力制御を行う(S32)。この指反力制御の動作原理については後述する。また、操作制御部611は、(表5)のロボット状態データを出力インタフェース部613を介して表示部614に出力して、表示する。
【0044】
次に、頭部操作部621、胴部操作部622、腕操作部623、走行操作部626からの操作信号((表6)参照)は、A/D変換部615でデジタルデータ(操作データ)に変換されて操作制御部611に入力され、また、操作盤625からの操作対象動輪や、前進・後退などを示すオン・オフ信号((表4)参照)は入力インタフェース部617を介して同様に操作データとして操作制御部611に入力される(S33)。操作制御部611は各操作データを入出力インタフェース部612を介してPHS装置631へ出力し(S34)、PHS装置631は上記各操作データを変調して電波信号としてPHS基地局LS1(図9参照)へ送信する。前述したように、PHS装置631からの電波信号はPHS基地局LS1、公衆回線網N、PHS基地局LS2を介してロボット装置2Aで受信され、ロボット装置2Aの各動作を制御する。なお、A/D変換部615に入力される走行操作部626からの操作信号は、前述したように対象動輪の選択信号と速度指示信号である。
【0045】
図11は、図9のロボット装置2Aを詳細に示すブロック図である。
図11において、71、72、73は図9と同様のコンピュータ装置、ロボット機構部、移動体通信装置、711はロボット装置2A全体を制御するロボット制御部、712は移動体通信装置73との間でデータの授受を行う入出力I/F部(入出力インタフェース部)、713はロボット機構部72へデータを出力する出力I/F部(出力インタフェース部)、714はデジタルデータをアナログ信号へ変換してロボット機構部72へ出力するD/A変換部、715はロボット機構部72からのアナログ信号をデジタルデータへ変換するA/D変換部、716はロボット機構部72からのデータを入力する入力I/F部(入力インタフェース部)、721は出力インタフェース部713とD/A変換部714とからデータを入力してモータ駆動電圧を発生するドライバ部、722はモータ部、723は頭部用モータ724により駆動されるロボット装置2Aの頭部、725は頭部位置検出部、726は胴部用モータ727により駆動されるロボット装置2Aの胴部、728は胴部位置検出部、729は走行用モータ730により駆動されるロボット装置2Aの走行部、731は腕や指を駆動する腕部用モータ732により駆動される腕指部、733は腕指位置検出部、734は親指、人指し指、中指(薬指、小指を含む)の反力を検出する指反力検出部、735はロボット装置2A近傍の障害物等を検出するセンサ部、73aは移動体通信装置としてのPHS装置、73bはPHS送受信を行うためのアンテナである。
【0046】
また、図14はロボット装置2Aを示す構成図である。
図14において、コンピュータ装置71、頭部用や胴部用,走行用,腕指部用等のモータを収納したモータ部722、頭部723、胴部726は図11と同様のものである。729Lは走行部729を構成する左の動輪、729Rは走行部729を構成する右の動輪、731Lは左の腕指部、731Rは右の腕指部であり、201Lは左の肩部、202Lは左の上腕部、203Lは左の肘部、204Lは左の前腕部、205Lは左の手首部、206Lは左の指部、201Rは右の肩部、202Rは右の上腕部、203Rは右の肘部、204Rは右の前腕部、205Rは右の手首部、206Rは右の指部である。なお、PHS装置73aとの接続はコンピュータ装置71の適宜の位置で行われる。
図14において、モータ部722と頭部723、胴部726、走行部729、腕指部731との間にはワイヤが配設され、このワイヤを介してモータ部722の各モータの駆動力が伝達され、各部に前後、左右、上下の動作が与えられる。
【0047】
このように構成されたロボット装置2Aについて、その使用データを説明する。
(表8)に、コンピュータ装置71の入力インタフェース部716を介してロボット制御部711に入力されるセンサ信号を示す。
【表8】
これは、(表5)を用いて説明したように、ロボット装置2Aの近傍の障害物等を示す信号である。近傍の障害物は光や赤外線,超音波センサで検知される。 (表9)に、(表4)、(表6)に対応する信号を示し、非常停止信号、動輪の左右進と前進・後退を示す信号、頭部用モータ724、胴部用モータ727、走行用モータ730、腕部用モータ732の正転、逆転を示す信号などを示す。
【表9】
これらの信号は出力インタフェース部713を介してロボット制御部711からドライバ部721へ出力される。
【0048】
(表10)に、ロボット機構部72の各検出部からA/D変換部715を介して入力される信号を示す。
【表10】
(表10)の動作範囲とは、例えば90度の場合、左右、前後あるいは上下の範囲が90度ということであり、一般には左右、前後あるいは上下に最大±45度移動することを意味する。
(表11)に、D/A変換部714でD/A変換されてドライバ部721へ出力される信号を示す。
【表11】
これらの信号は速度を示す速度指示信号であり、動輪モータの速度信号は前述したように遠隔制御装置1Aの操作盤625の各レバー111〜114で発生し、指のモータ速度はロボット制御部711において発生する。
【0049】
このように構成されたロボット装置2Aについて、その動作を図16〜図18を用いて説明する。図16はロボット装置2Aの動作を示すフローチャートであり、図17は図16の各部制御処理を示すフローチャート、図18は図16の走行制御処理を示すフローチャートである。
まず図16において、PHS装置73aは遠隔制御装置1Aからの送信信号をPHS基地局LS2(図9参照)を介して受信する。受信データは、(表9)に示す各信号の元になる各操作データおよび(表11)に示す速度指示データである。これらの受信データは入出力インタフェース部712を介してロボット制御部711に入力され(S41)、制御データとして出力インタフェース部713およびD/A変換部714を介してドライバ部721へ出力される(S42、S43)。制御データを入力したドライバ部721は、頭部用モータ724、胴部用モータ727、走行用モータ730、腕部用モータ732に対してモータ駆動電圧を供給し、各モータは頭部723、胴部726、走行部729、腕指部731を駆動する。なお、この場合、頭部723、胴部726、腕指部731(指部を除く)は位置制御であり、指部は位置制御および速度制御、走行部729は対象動輪の選択制御および速度制御である。これらの各制御については後に詳細に説明するが、頭部723、胴部726および腕指部731の制御については図17の各部制御処理を用いて説明し、走行部729については図18の走行制御処理を用いて説明する。
次に、ロボット制御部711は、A/D変換部715を介して、頭部位置検出部725、胴部位置検出部728、腕指位置検出部733、指反力検出部734からの頭部位置データ、胴部位置データ、腕指位置データ、指反力データを入力し、また、センサ部735からのデータ(例えば近傍の障害物検知を示すデータ)を入力インタフェース部716を介してロボット状態データとして入力する。これらのデータのうち各位置データは各部のフィードバックデータとして使用される。また、指反力データおよびロボット状態データは、入出力インタフェース部712とPHS装置73aを介して、遠隔制御装置1Aへ送信される(S44)。
【0050】
次に、図16の各部制御処理(S42)について図17を用いて説明する。
まず、ロボット制御部711は動作禁止の有無について判定する(S51)。動作禁止が有る場合にはこの制御処理を行わない。動作禁止とは例えば、危険防止のための腕左右動作禁止等があげられる。この腕左右動作禁止が有る場合には腕左右動作は行わない。しかし、(表4)に示すような動作規制の無効指令が腕左右動作に対して有効な場合、例え腕左右動作禁止状態であっても腕左右動作を行う。したがって、ステップS51における動作禁止は各動作について判定を行う。動作禁止が無い場合は、位置指示があるか否かを判定する(S52)。位置指示がある場合とは、遠隔制御装置1Aから実位置(つまり検出位置)とは異なる位置指示の操作データが送信されてきた場合や、何らかの変動により指示位置と検出位置とが異なった場合である。位置指示無しの場合には本制御処理を終了する。
【0051】
ステップS52で位置指示有りの場合は次に、偏差量が正か負かを判定する(S53)。偏差量が正の場合にはロボット制御部711は、(表9)に示すように、ドライバ部721に対して、正(モータ正転)を指示し(S54)、負の場合には逆(モータ逆転)を指示する(S55)。次に、速度指示の有無を判定する(S56)。例えば指反力データに応じて指位置変化の速度が変化するような場合には速度指示有りとなる。速度指示が有る場合は、ロボット制御部711は、偏差量に応じた速度を指示する(S57)。
【0052】
次に、図16の走行制御処理(S43)について図18を用いて説明する。
まず、走行禁止の有無について判定する(S71)。走行禁止とは例えば、障害物検知による走行禁止である。この走行禁止が有る場合には走行は行わない。しかし、(表4)に示すような動作規制の無効指令が走行に対して有効な場合、例え走行禁止状態であっても走行を行う。走行禁止が有る場合には、その旨を操作者に報知して本走行制御処理を終了する(S78)。走行禁止が無い場合は、走行指示があるか否かを判定する(S72)。走行指示が無い場合には本走行制御処理を終了する。走行指示が有る場合には次に前進か否かを判定する(S73)。前進と判定した場合には出力インタフェース部713を介してドライバ部721に対して前進を指示し(S74)、前進ではなく後退と判定した場合には後退を指示する(S75)。次に、ロボット制御部711は、速度指示の有無を判定し(S76)、速度指示が無い場合には本走行制御処理を終了し、(表11)に示すような速度指示が有る場合には指示速度をD/A変換部714を介して出力する(S77)。
【0053】
次に、腕指部731の指部の指反力の検出原理および指反力データに基づく指負荷動作について、図19、図20を用いて説明する。
図19は指反力の検出原理を説明するための説明図であり、図20は指反力データに基づく指負荷動作を説明するための説明図である。
図19において、722は図11と同様のモータ部、731は図11と同様のロボット機構部72の腕指部(正確には腕指部731の指部)、301は回動部、301aは回転部301を軸支する固定部、301bは一端が回動部301に固定され回動部301の回動に伴って回動する可動部、302は一端が腕指部731の固定部に固定され他端が可動部301bに固定されたことにより可動部301bに上方向の力F1を与えるばねやゴム等の弾性体、303はワイヤ304を固定するワイヤ固定部、305はワイヤ304にテンションを与えるテンションプーリ、305aはテンションプーリ305を回動自在に支持するプーリシャトル、306は可動部301bに適当な力を与えるためにワイヤ304を巻き取る巻取りプーリ、307は一端が固定され他端がプーリシャトル305aに固定されたばねやゴム等の弾性体、308は可変抵抗器としてのポテンショメータ309の軸を回動させるポテンショメータプーリ、310は一端がプーリシャトル305aに固定され他端が弾性体311に固定されたワイヤである。
【0054】
また図20において、623は図10と同様の操作者の腕操作部、624は図10と同様の操作者の指操作部、624aは操作者の指操作部624に反力を与える反力発生部、401は操作者の指部の動きに応じて位置P1〜P2の範囲で左右に移動する移動プーリ、402は固定プーリ、403は一端が移動プーリ401に固定され他端が合成樹脂製の摩擦板404に固定されたワイヤ、405は一端が可動不能に固定され他端が磁性体からなる挟み板406に固定されたばね、407は摩擦板404を押圧する押え板、408は電磁石410を構成する電磁石棒、409は同じく電磁石410を構成するコイルである。
【0055】
まず図19を用いて指反力の検出原理について説明する。
巻取りプーリ306によりワイヤ304を巻き取ると、弾性体302の力F1に抗して力F2によって可動部301bは下方向へ回動する。巻取りプーリ306によるワイヤ304の巻取り量が多くなるほど、弾性体302の力F1に抗するために力F2は大きくなり、また可動部301bの回動角も大きくなる。力F2が大きくなると、ワイヤ304のテンションも大きくなり、弾性体307と311の力によってバランスされているテンションプーリ305に対して、ワイヤ304を介して左方向F3の力が働き、ポテンショメータプーリ308が回転し、これに伴ってポテンショメータ309も回転し、その抵抗値が変化する。すなわち、可動部301bの回動角に応じたテンション(例えば可動部301bが指の場合には回動角の大きな方向とは物を掴む方向となる)がワイヤ304に与えられ、そのワイヤ304のテンションに応じた抵抗値がポテンショメータ309で得られる。この抵抗値をモータ部722の指用モータにおいて電圧値に変換してロボット制御部711に出力することにより、例えば指反力データとしてPHS回線を介して遠隔制御装置1Aへ送信することができる。
【0056】
次に図20を用いて指反力データに基づく指負荷動作について説明する。
ロボット装置2Aから指反力データを受信した遠隔制御装置1Aにおいては、指反力データはPHS装置631、入出力インタフェース部612を介して操作制御部611に入力される。操作制御部611からの指反力データはD/A変換部616により指反力データに応じた制御電圧値に変換され、これにより、腕操作部623の反力発生部624aのコイル409に指反力データに応じた制御電流aが流れ、この制御電流aの値に応じた力F4が電磁石棒408により押え板407に与えられる。すなわち、図19のワイヤ304のテンションに応じた力F4が押え板407に与えられ、ワイヤ304のテンションに応じた摩擦力が摩擦板404に発生する。摩擦板404に大きな摩擦力が発生すると、ワイヤ403を動かす力が大きくなり、結局移動プーリ401を介して指操作部を動かす指にかかる力(負荷力)が増加する。このようにして指操作部における指負荷力(指反力)を制御することができる。
【0057】
なお、本実施の形態では移動体通信装置の例としてPHS装置について記載したが、本発明はこれに限らず、携帯電話機についても同様に適用可能であり、したがって、携帯電話機が国際的な電話回線を介して外国との間で使用可能となれば、ロボット装置の遠隔制御を国際的に行うことができる。
【0058】
以上のように本実施の形態によれば、遠隔制御装置1Aは、ロボット装置2Aの頭部723と指や腕からなる腕指部731と走行部729とを操作する頭部操作部621と腕操作部623と走行操作部626とを有する操作装置62と、操作装置62における操作量に応じた操作データを発生する第1のコンピュータ装置61と、第1のコンピュータ装置61からの操作データを公衆回線網Nに接続された基地局LS1へ送信する第1の移動体通信装置63とを有し、ロボット装置2Aは、公衆回線網Nに接続された基地局LS2から操作データを受信する第2の移動体通信装置73と、操作データに基づいて頭部723と腕指部731と走行部729との制御データを発生する第2のコンピュータ装置71と、制御データに基づいてモータ部722に内蔵された頭部用モータ724と腕部用モータ732と走行用モータ730とを駆動して頭部723と腕指部731と走行部729とに動作を与えるロボット機構部72とを有するようにしたことにより、遠隔制御装置1Aからの操作データを移動体通信装置63を介して伝送することができるので、ロボット装置2Aはその操作データを受信して制御データに変換し、その制御データに基づいてロボット機構部の頭部723、腕指部731、走行部729を動作させることができる。
【0059】
また、ロボット機構部72は、現在の腕位置と現在の指位置とを検出する腕指部内の腕指位置検出部733と、現在の頭部位置を検出する頭部723内の頭部位置検出部725と、腕指部731内の指部における反力を検出する指反力検出部734とを備え、第2のコンピュータ装置71は、現在の腕位置と現在の指位置と現在の頭部位置とに基づいて指部を含む腕指部731と頭部723とを位置制御すると共に、指反力検出部734で検出した反力である検出反力を第2の移動体通信装置73を介して遠隔制御装置1Aへ送信し、第1のコンピュータ装置61は、第1の移動体通信装置63を介して受信した検出反力に基づいて腕操作部623内の指部操作部624に対して負荷を与えるようにしたことにより、頭部723と腕指部731とはフィードバック制御されることにより位置を正確に制御することができ、指部における反力に基づいて指部操作部624の負荷を制御することにより実感を伴う指操作を行うことができる。
【0060】
【発明の効果】
以上のように本発明の請求項1に記載のロボット遠隔制御システムによれば、ロボット遠隔制御部とロボットコントロール部とロボットコントロール部から制御されるロボット機構部とを備えたロボット遠隔制御システムであって、ロボット遠隔制御部は、ロボットコントロール部に動作指示を与えるための動作コードを発生する第1のコンピュータ装置と、第1のコンピュータ装置から出力される動作コードを無線伝送データに変換する第1のデータ通信カードと、無線伝送データをアンテナを介して電波信号として送信する第1の移動体通信装置とを有し、ロボットコントロール部は、電波信号をアンテナを介して受信して無線伝送データを出力する第2の移動体通信装置と、無線伝送データを動作コードに変換する第2のデータ通信カードと、動作コードを第2のデータ通信カードから入力して出力する第2のコンピュータ装置と、第2のコンピュータ装置から出力された動作コードに基づいて前後退、左右回転を含む動作を行うロボット機構部に動きを与えるロボットシーケンサ制御部とを有し、第1のコンピュータ装置は、前進・後退・回転を含む動作を指示する動作指示キースイッチを有し、動作の指示を示す動作指示信号を動作指示キースイッチから入力したときは動作コードテーブルを検索し、動作指示信号に対応する動作コードを読み出して、読み出した動作コードを第1の移動体通信装置に出力することにより、ロボット遠隔制御部からの動作指示信号は移動体通信装置(例えばPHS装置)を介して伝送され、被制御体としてのロボットコントロール部が少なくとも日本のいずれの地に配置されていても、ロボット遠隔制御部によりロボット機構部は制御されるという有利な効果が得られる。また、通信可能な範囲であれば、極めて危険な箇所等でも遠隔地の操作者がロボット装置のロボット機構部を自由に操り作業を行うことが出来、また、動作指示キースイッチを介してロボット装置に対して動作指示を与えるようにしたので、操作者は例えば前進指示の場合には前進の動作指示キースイッチを押下すればよく、ロボット装置の操作を極めて簡単なものにすることができるという有利な効果が得られる。また、ロボットシーケンサ制御部は、動作コードが入力された場合に動作コードに対する動作指示が記憶された動作指示テーブルを検索し、検索した動作指示をリレーを動作させるためのリレーパターン信号として読み出す動作指示検索手段を有することにより、ロボット機構部はロボットシーケンサ制御部により自動的に制御されるという有利な効果が得られる。
【0061】
請求項に記載のロボット画像遠隔制御処理システムは、ロボット遠隔制御システムと画像遠隔処理システムとを備えたロボット画像遠隔制御処理システムであって、ロボット遠隔制御システムはロボット遠隔制御部とロボットコントロール部とロボットコントロールから制御されるロボット機構部とから成り、画像遠隔処理システムは画像遠隔制御部と画像処理部とから成り、ロボット遠隔制御部は、ロボットコントロール部に動作指示を与えるための動作コードを発生すると共に前記画像処理部を制御するための制御コードを発生する第1のコンピュータ装置と、第1のコンピュータ装置から出力される動作コードと制御コードとを第1の無線伝送データに変換する第1のデータ通信カードと、第1の無線伝送データをアンテナを介して第1の電波信号として送信する第1の移動体通信装置とを有し、ロボットコントロール部は、第1の電波信号をアンテナを介して受信し第1の無線伝送データを出力する第2の移動体通信装置と、第1の無線伝送データを動作コードと制御コードとに変換する第2のデータ通信カードと、動作コードと制御コードとを第2のデータ通信カードから入力して出力する第2のコンピュータ装置と、第2のコンピュータ装置から出力された動作コードに基づいて前進、後退、左右回転を含む動作を行うロボット機構部に動きを与えると共に第2のコンピュータ装置から出力される制御コードをそのまま出力するロボットシーケンサ制御部とを有し、ロボット機構部は、周囲の被写体を撮像してアナログ画像信号として出力する複数のカメラと、ロボットコントロール部のロボットシーケンサ制御部から出力される制御コードに基づいて複数のカメラからのアナログ画像信号を選択して出力する画像選択部とを有し、画像遠隔制御部は、アナログ音声信号とデジタル音声信号との相互変換を行うと共にデジタル画像信号をアナログ画像信号へ変換する画像音声変換部と、デジタル音声信号とデジタル画像信号の入出力を行うと共に画像送信指示データを出力する第3のコンピュータ装置と、第3のコンピュータ装置から出力されるデジタル音声信号や画像送信指示データを第2の無線伝送データに変換する第3のデータ通信カードと、第2の無線伝送データをアンテナを介して第2の電波信号として送信する第3の移動体通信装置とを有し、画像処理部は、第2の電波信号をアンテナを介して受信して第2の無線伝送データを出力する第4の移動体通信装置と、第2の無線伝送データをデジタル音声信号に変換すると共にデジタル画像信号を第3の無線伝送データに変換する第4のデータ通信カードと、デジタル音声信号を第4のデータ通信カードから入力して出力すると共にデジタル画像信号を出力する第4のコンピュータ装置と、第4のコンピュータ装置から出力されたデジタル音声信号をアナログ音声信号へ又はマイクロフォンからのアナログ音声信号をデジタル音声信号へ変換すると共に画像選択部からのアナログ画像信号をデジタル画像信号へ変換して第4のコンピュータ装置へ出力する画像音声変換部と、を有することにより、ロボット遠隔制御部からの動作指示信号は移動体通信装置(例えばPHS装置)を介して伝送され、被制御体としてのロボットコントロール部が少なくとも日本のいずれの地に配置されていても、ロボット遠隔制御部によりロボット機構部は制御されるとと共に、画像処理部からの画像信号も自動的に画像遠隔制御部に伝送され、画像モニタに自動的に表示され、またロボット機構部に配置された複数のカメラのいずれかが選択されるという有利な効果が得られる。
【0062】
請求項に記載のロボット画像遠隔制御処理システムは、請求項に記載のロボット画像遠隔制御処理システムにおいて、複数のカメラは、ロボット機構部の頭部、足部および手部に配置されたを有することにより、請求項で得られる作用の他、ロボット機構部の頭部、足部および手部からの画像がモニタされるという有利な効果が得られる。
【図面の簡単な説明】
【図1】
本発明の実施の形態1によるロボット遠隔制御システムを含むロボット画像遠隔制御処理システムを示すブロック図
【図2】
図1のロボット遠隔制御システムを示すブロック図
【図3】
図1の画像遠隔処理システムを示すブロック図
【図4】
ロボット遠隔制御部における動作を示すフローチャート
【図5】
ロボットコントロール部における動作を示すフローチャート
【図6】
ロボットコントロール部のロボットシーケンサ制御部における動作を示すフローチャート
【図7】
ロボットシーケンサ制御部におけるリレー変換回路を示す回路図
【図8】
ロボット機構部におけるリレー回路を示す回路図
【図9】
本発明の実施の形態2によるロボット遠隔制御システムを示す構成図
【図10】
図9の遠隔制御装置を詳細に示すブロック図
【図11】
図9のロボット装置を詳細に示すブロック図
【図12】
図10の頭部操作部と腕操作部を示す構成図
【図13】
図10の胴部操作部と操作盤とを示す斜視図
【図14】
ロボット装置を示す構成図
【図15】
図10の遠隔制御装置の動作を示すフローチャート
【図16】
ロボット装置の動作を示すフローチャート
【図17】
図16の各部制御処理を示すフローチャート
【図18】
図16の走行制御処理を示すフローチャート
【図19】
指反力の検出原理を説明するための説明図
【図20】
指反力データに基づく指負荷動作を説明するための説明図
【符号の説明】
A ロボット画像遠隔制御処理システム
B ロボット遠隔制御システム
1、1A 遠隔制御装置
2、2A ロボット装置
3 ロボット遠隔制御部
4 ロボットコントロール部
4A、72 ロボット機構部
5 画像遠隔制御部
6 画像処理部
7、8、9、10 アンテナ
LS1、LS2 基地局
N 公衆回線網
11、23、31、47 CPU(中央処理装置)
11A、61 第1のコンピュータ装置
12、24、32、48 入力装置
13、25、33、49 表示装置
14、26、34、50 出力装置
15、27、35、51 RAM
16、28、36、52 ROM
17、22、29、37、41、46、53 インタフェース部
18 第1のデータ通信カード
19、63 第1の移動体通信装置
20、73 第2の移動体通信装置
21 第2のデータ通信カード
23A、71 第2のコンピュータ装置
30 ロボットシーケンサ制御部
31A 第3のコンピュータ装置
38、54 画像音声変換部
39 画像モニタ
40、56 イヤホンマイクロフォン
42 第3のデータ通信カード
43 第3の移動体通信装置
44 第4の移動体通信装置
45 第4のデータ通信カード
47A 第4のコンピュータ装置
55a カラーCCDカメラ(カメラ、頭部カメラ)
55b カラーCCDカメラ(カメラ、足部カメラ)
55c カラーCCDカメラ(カメラ、手部カメラ)
57 画像選択部
301 回動部
301a 固定部
301b 可動部
302 弾性体
303 ワイヤ固定部
304 ワイヤ
305 テンションプーリ
305a プーリシャトル
306 巻き取りプーリ
307 弾性体
308 ポテンションメータプーリ
309 ポテンションメータ
310 ワイヤ
311 弾性体
401 移動プーリ
402 固定プーリ
403 ワイヤ
404 摩擦板
405 ばね
406 挟み板
407 押え板
408 電磁石棒
409 コイル
410 電磁石
611 操作制御部
612、712 入出力インタフェース部
613、713 出力インタフェース部
614 表示部
615、715 A/D変換部
616、714 D/A変換部
617、716 入力インタフェース部
621 頭部操作部
622 胴部操作部
623 腕操作部
624 指部操作部
625 操作盤
626 走行操作部
631、73a PHS装置
632、73b アンテナ
711 ロボット制御部
721 ドライバ部
722 モータ部
723 頭部
724 頭部用モータ
725 頭部位置検出部
726 胴部
727 胴部用モータ
728 同部位置検出部
729 走行部
730 走行用モータ
731 腕指部
732 腕部用モータ
733 腕指位置検出部
734 指反力検出部
735 センサ部
[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to a robot remote control system that performs remote control of a robot, and a robot image remote control processing system that includes the robot remote control system and an image remote processing system that performs remote transmission of images.
[0002]
[Prior art]
  As a conventional robot remote control system, for example, there is one described in Japanese Patent Application Laid-Open No. 7-295537 as a reception / guide robot system.
  In the reception / guidance robot system described in this publication, the robot body and the external control device are spatially coupled by a data transmission / reception unit and a voice transmission / reception unit, and data transmission / reception is performed by infrared signals, Are transmitted and received by FM signals.
[0003]
[Problems to be solved by the invention]
  However, in the reception / guidance robot system as a conventional robot remote control system, the robot body and the external control device are operated by infrared signals or FM signals, and the distance between them is kept constant (for example, 100 m) or more. It was impossible to use it, and it was impossible to use it between remote places such as Tokyo and Kitakyushu or the United States.
  In the robot remote control system and the robot image remote control processing system, it is required that remote control is possible regardless of whether the robot apparatus to be remotely controlled and the image processing unit are arranged at least in Japan.
[0004]
  The present invention relates to a robot remote control system capable of remote control regardless of whether the robot apparatus to be remotely controlled is located at least in Japan, and to remotely control whether the image processing unit to be remotely controlled is located at least in Japan. An object of the present invention is to provide a robot image remote control processing system capable of control.
[0005]
[Means for Solving the Problems]
  In order to solve this problem, a robot remote control system according to the present invention is a robot remote control system including a robot remote control unit, a robot control unit, and a robot mechanism unit controlled by the robot control unit. A first computer device that generates an operation code for giving an operation instruction to the robot control unit, and a first data communication card that converts the operation code output from the first computer device into wireless transmission data And a first mobile communication device that transmits radio transmission data as a radio signal via an antenna, and the robot control unit receives a radio signal via the antenna and outputs radio transmission data. A mobile communication device, a second data communication card for converting wireless transmission data into an operation code, Retracted before based operation code and the second computer unit to enter output from the second data communications card, the operation code outputted from the second computer unit, right and left rotationincludingA robot sequencer control unit that gives motion to the robot mechanism unit that performs the operation, and the first computer device moves forward, backward, and rotatesincludingWhen an operation instruction signal indicating an operation instruction is input from the operation instruction key switch, the operation code table is searched and the operation code corresponding to the operation instruction signal is read and read. Output the operation code to the first mobile communication deviceWhen the operation code is input, the robot sequencer controller searches the operation instruction table storing the operation instruction for the operation code, and reads out the searched operation instruction as a relay pattern signal for operating the relay. Has search meansIt has a configuration.
  ThisA robot remote control system in which the robot mechanism is controlled by the robot remote controller even if the robot controller as the controlled body is located at least anywhere in JapanIs obtained.
[0006]
  A robot image remote control processing system of the present invention for solving this problem is a robot image remote control processing system comprising a robot remote control system and an image remote processing system, and the robot remote control system includes a robot remote control unit, The image remote processing system consists of an image remote control unit and an image processing unit. The robot remote control unit is used to give an operation instruction to the robot control unit. A first computer device that generates an operation code and a control code for controlling the image processing unit, and converts the operation code and control code output from the first computer device into first wireless transmission data The first data communication card and the first wireless transmission data A first mobile communication device that transmits the first radio signal via the antenna, and the robot control unit receives the first radio signal via the antenna and outputs the first wireless transmission data. The second mobile communication device, the second data communication card for converting the first wireless transmission data into the operation code and the control code, and the operation code and the control code are input from the second data communication card. And the second computer device that outputs and the forward, backward, and left-right rotation based on the operation code output from the second computer deviceincludingA robot sequencer control unit that gives motion to the robot mechanism unit that performs the operation and outputs the control code output from the second computer device as it is. A plurality of cameras that output as image data, and an image selection unit that selects and outputs analog image signals from the plurality of cameras based on a control code output from the robot sequencer control unit of the robot control unit. An image audio conversion unit that performs mutual conversion between an analog audio signal and a digital audio signal and converts a digital image signal into an analog image signal; inputs and outputs the digital audio signal and the digital image signal; and image transmission instruction data And a third computer device that outputs the data output from the third computer device. A third data communication card for converting a total audio signal or image transmission instruction data into second wireless transmission data, and a third moving body for transmitting the second wireless transmission data as a second radio signal via an antenna And a communication device, wherein the image processing unit receives the second radio signal via the antenna and outputs the second wireless transmission data, and the second wireless transmission data. A fourth data communication card that converts the digital image signal into the third wireless transmission data and converts the digital image signal into the third wireless transmission data, and inputs and outputs the digital audio signal from the fourth data communication card and outputs the digital image signal. A fourth computer device and a digital audio signal output from the fourth computer device into an analog audio signal or an analog audio signal from a microphone as digital sound And a configuration having an image-speech conversion unit for converting into a digital image signal to the fourth computer device an analog image signal from the image selecting unit converts the signal.
  As a result, a robot image remote control processing system capable of remote control regardless of whether the image processing unit to be remotely controlled is arranged at least in Japan can be obtained.
[0007]
DETAILED DESCRIPTION OF THE INVENTION
  A robot remote control system according to claim 1 of the present invention is a robot remote control system including a robot remote control unit, a robot control unit, and a robot mechanism unit controlled by the robot control unit. Includes a first computer device that generates an operation code for giving an operation instruction to the robot control unit, a first data communication card that converts the operation code output from the first computer device into wireless transmission data, A first mobile communication device that transmits radio transmission data as a radio signal via an antenna, and the robot control unit receives a radio signal via the antenna and outputs radio transmission data. Body communication device, second data communication card for converting wireless transmission data into operation code, and operation code A second computer unit to output the input from the second data communications cards, retracted before based on the operation code outputted from the second computer unit, right and left rotationincludingA robot sequencer control unit that gives motion to the robot mechanism unit that performs the operation, and the first computer device moves forward / backward / rotates.includingWhen an operation instruction signal indicating an operation instruction is input from the operation instruction key switch, the operation code table is searched and the operation code corresponding to the operation instruction signal is read and read. Output the operation code to the first mobile communication deviceWhen the operation code is input, the robot sequencer controller searches the operation instruction table storing the operation instruction for the operation code, and reads out the searched operation instruction as a relay pattern signal for operating the relay. Has search meansThat's what it meant.
  Thereby, the operation instruction signal from the robot remote control unit is transmitted via a mobile communication device (for example, a PHS device), and the robot control unit as a controlled body is disposed at least in any place in Japan. The robot mechanism is controlled by the robot remote controller. Also, as long as communication is possible, a remote operator can freely operate the robot mechanism of the robot apparatus even in extremely dangerous places, and the robot apparatus can be operated via an operation instruction key switch. For example, in the case of a forward instruction, the operator only has to press the forward movement instruction key switch, and the operation of the robot apparatus can be made extremely simple. Have
  In addition, the robot mechanism unit has an action of being automatically controlled by the robot sequencer control unit.
[0008]
  Claim2The robot image remote control processing system described in 1 is a robot image remote control processing system including a robot remote control system and an image remote processing system. The robot remote control system includes a robot remote control unit, a robot control unit, and a robot control. The image remote processing system includes an image remote control unit and an image processing unit. The robot remote control unit generates an operation code for giving an operation instruction to the robot control unit. A first computer device that generates a control code for controlling the image processing unit, and first data that converts an operation code and a control code output from the first computer device into first wireless transmission data The communication card and the first wireless transmission data are transmitted via the antenna to the first power A first mobile communication device that transmits as a signal, and the robot control unit receives a first radio wave signal via an antenna and outputs a first wireless transmission data; A second data communication card that converts the first wireless transmission data into an operation code and a control code, and a second computer device that inputs and outputs the operation code and the control code from the second data communication card; Based on the operation code output from the second computer device, forward, backward, left / right rotationincludingA robot sequencer control unit that gives motion to the robot mechanism unit that performs the operation and outputs the control code output from the second computer device as it is. A plurality of cameras that output as image data, and an image selection unit that selects and outputs analog image signals from the plurality of cameras based on a control code output from the robot sequencer control unit of the robot control unit. An image audio conversion unit that performs mutual conversion between an analog audio signal and a digital audio signal and converts a digital image signal into an analog image signal; inputs and outputs the digital audio signal and the digital image signal; and image transmission instruction data And a third computer device that outputs the data output from the third computer device. A third data communication card for converting a total audio signal or image transmission instruction data into second wireless transmission data, and a third moving body for transmitting the second wireless transmission data as a second radio signal via an antenna And a communication device, wherein the image processing unit receives the second radio signal via the antenna and outputs the second wireless transmission data, and the second wireless transmission data. A fourth data communication card that converts the digital image signal into the third wireless transmission data and converts the digital image signal into the third wireless transmission data, and inputs and outputs the digital audio signal from the fourth data communication card and outputs the digital image signal. A fourth computer device and a digital audio signal output from the fourth computer device into an analog audio signal or an analog audio signal from a microphone as digital sound In which it was decided to have a, and an image-speech conversion unit for converting into a digital image signal to the fourth computer device an analog image signal from the image selecting unit converts the signal.
  Thereby, the operation instruction signal from the robot remote control unit is transmitted via a mobile communication device (for example, a PHS device), and the robot control unit as a controlled body is disposed at least in any place in Japan. When the robot mechanism is controlled by the robot remote control unit, the image signal from the image processing unit is also automatically transmitted to the image remote control unit, automatically displayed on the image monitor, and arranged in the robot mechanism unit. In addition, any one of the plurality of cameras is selected.
[0009]
  Claim3The robot image remote control processing system according to claim 12In the robot image remote control processing system described in (1), the plurality of cameras are arranged on the head, the foot, and the hand of the robot mechanism unit.
  As a result, the claim2In addition to the effects obtained in the above, the images from the head, feet and hands of the robot mechanism are monitored.
  Hereinafter, embodiments of the present invention will be described with reference to FIGS.
[0010]
  (Embodiment 1)
  FIG. 1 is a block diagram showing a robot image remote control processing system including a robot remote control system according to Embodiment 1 of the present invention.
  In FIG. 1, A is a robot image remote control processing system, 1 is a remote control device, 2 is a robot device, 3 is a robot remote control unit, 4 is a robot control unit, 4A is a robot mechanism unit, 5 is an image remote control unit, 6 is an image processing unit, 7, 8, 9, and 10 are antennas, LS1 and LS2 are base stations (for example, PHS base stations), N is a public line network, robot remote control unit 3, antennas 7 and 8, and base station LS1, LS2, public line network N, robot control unit 4 and robot mechanism unit 4A constitute a robot remote control system, image remote control unit 5, antennas 9, 10 and base stations LS1, LS2 and public line network N. The image processing unit 6 constitutes an image remote processing system. The robot remote control system and the image remote processing system constitute a robot image remote control processing system A.
[0011]
  The operation of the robot image remote control processing system A configured as described above will be described.
  A radio signal including an operation code and a control code output from the robot remote control system 3 is output to the robot control unit 4 as a radio signal via the antenna 7, the base station LS1, the public network N, the base station LS2, and the antenna 8. The robot control unit 4 converts the radio wave signal into an operation code and a control code, and further converts the operation code into a relay signal indicating a relay to be controlled. Then, the robot mechanism unit 4A operates according to the relay signal. Further, the robot mechanism unit 4A is controlled according to the control code. The robot mechanism unit 4 </ b> A includes a plurality of cameras to be described later and an image selection unit 6 to select one of the plurality of cameras, and an output signal from the image selection unit 6 is input to the image processing unit 6.
[0012]
  FIG. 2 is a block diagram showing the robot remote control system of FIG.
  2, the robot remote control unit 3, the robot control unit 4, the robot mechanism unit 4A, the antennas 7 and 8, the base stations LS1 and LS2, and the public line network N are the same as those in FIG. Description is omitted.
  11 is a CPU (central processing unit) that converts operation instructions from the input device 12 into operation codes, 13 is a display device that displays operation instructions and operation codes, 14 is an output device that outputs data to a printer, and 15 is data. 16 is a ROM for storing programs and data, and 17 is an interface unit for outputting operation codes to the outside. These components constitute the first computer apparatus 11A.
[0013]
  Reference numeral 18 denotes a first data communication card that converts an operation code output from the first computer apparatus 11A into wireless transmission data, and reference numeral 19 denotes a radio signal transmitted from the first data communication card 18 via the antenna 7. The first mobile communication device 20 that transmits as (first radio signal) 20 receives a radio signal output from the first mobile communication device 19 via the antenna 8 and outputs wireless transmission data. 2 is a mobile communication device, 21 is a second data communication card that converts wireless transmission data from the second mobile communication device into an operation code, and 23A is an interface unit that receives the operation code from the second data communication card 21. 22 is a second computer device that inputs via the computer 22.
  The second computer device 23A includes interface units 22 and 29 that control an interface for data exchange, a CPU 23 that processes data, an input device 24 for inputting commands and the like, a display device 25 that displays data, It has an output device 26 that outputs data to a printer, a RAM 27 that stores data, and a ROM 28 that stores programs and data. Reference numeral 30 denotes a robot sequencer control unit that gives movement to the robot mechanism unit 4A that performs operations such as forward, backward, and left-right rotation based on the operation code output from the second computer device 23A.
[0014]
  Next, the robot remote control system configured as described above will be described using PHS as an example with reference to FIGS. 4 is a flowchart showing the operation in the robot remote control unit, FIG. 5 is a flowchart showing the operation in the robot control unit, FIG. 6 is a flowchart showing the operation in the robot sequencer control unit of the robot control unit, and FIG. FIG. 8 is a circuit diagram showing a relay conversion circuit in the robot sequencer control unit, and FIG. 8 is a circuit diagram showing a relay circuit in the robot mechanism unit.
[0015]
  First, in FIG. 4, when a dial connection is made from the PHS 19 as a mobile communication device and a PHS dial connection completion signal is notified to the CPU 11 via the data communication card 18 and the interface unit 17, the CPU 11 determines that an operation instruction is possible. The display device 13 displays that the operation instruction is possible (S1). The operator who is notified from the display device 13 that the operation instruction is possible turns on the operation instruction key switch corresponding to the operation instruction content, and the operation instruction key switch that is turned on outputs an operation instruction signal. The CPU 11 determines whether or not the operation instruction signal is input (S2). When it is determined that the operation instruction signal is input, the operation code table is searched by an operation code search means (not shown) (S3). The operation code corresponding to the operation instruction signal is read from the operation code table (S4). An example of an operation code corresponding to the operation instruction key switch is shown in (Table 1).
[Table 1]
(Table 1) indicates that, for example, an operation instruction signal generated by turning on an operation instruction key switch for instructing forward is converted into an operation code of F8 (8 bits). The operation code read by the CPU 11 is output to the data communication card 18 via the interface unit 17 (S5). When the CPU 11 determines in step 2 that no operation instruction signal has been input, the CPU 11 outputs a “0” code indicating no operation instruction, and proceeds to step 5 (S6).
[0016]
  Next, the operator turns on the control key switch corresponding to the control content, and the turned on control key switch outputs a control signal. The CPU 11 determines whether or not the control signal is input (S7). When it is determined that the control signal is input, the control code search means (not shown) searches the control code table (S8), A control code corresponding to the control signal is read from the control code table (S9). The control code read by the CPU 11 is output to the data communication card 18 via the interface unit 17 (S10). Examples of control codes corresponding to the control key switches are shown in (Table 2).
[Table 2]
(Table 2) shows that, for example, a control signal (control signal for selecting an output signal from a color CCD camera arranged on the head) generated by turning on a control instruction key switch that indicates the head is A1 ( It is converted into a control code of 8 bits).
[0017]
  Steps 1 to 10 are operations in the CPU 11, that is, operations of the first computer apparatus 11A. The data communication card 18 converts the operation code from the second computer device 11A into wireless transmission data (first wireless transmission data) and outputs it to the mobile communication device (PHS) 19, and the mobile communication device 19 is wireless. The transmission data is transmitted from the antenna 7 as a radio signal (first radio signal).
  The second mobile communication device 20 receives a radio signal from the antenna 7 via the PHS base station LS1, the public line network N, the PHS base station LS2, and the antenna 8, and transmits wireless transmission data to the second data communication card. To 21. The second data communication card 21 converts the wireless transmission data into an operation code and a control code and outputs it to the CPU 23 via the interface unit 22. The operation in the CPU 23 is shown in FIG.
[0018]
  In FIG. 5, first, the CPU 23 determines whether or not an operation code or a control code has been received (S 11). If it is determined that the operation code or control code has been received, the robot sequencer control unit 30 receives the operation code or control code via the interface unit 29. Output to.
  FIG. 6 shows the operation of the robot sequencer control unit 30.
  In FIG. 6, the robot sequencer control unit 30 first determines whether or not an operation code has been input (S21). When it is determined that an operation code has been input, the operation instruction search means (not shown) of the robot sequencer control unit 30 Then, the operation instruction table is searched (S22), and the relay pattern signal (operation instruction signal) corresponding to the operation code is read (S23). The relay pattern signal is bit pattern data as shown in FIG. 7. For example, when the relay pattern signal indicates the relay K1, the relay conversion circuit operates the relay K1. Table 3 shows an example of the operation instruction table.
[Table 3]
(Table 3) indicates that when the operation code is F8, the relay pattern signal is bit pattern data “11001001”, and this pattern is an ON instruction signal for turning on the relay K1. In this way, the robot sequencer control unit 30 outputs the ON signal of the relay K1 to the robot mechanism unit 4A as the ON signal of the relay contact K1a in FIG. When the control code is input, the robot sequencer control unit 30 outputs the control code to the robot mechanism unit 4A as it is.
[0019]
  FIG. 8 shows a relay circuit in the robot mechanism unit 4A. When the relay contact K1a is turned on, the relay B is turned on when the conditions 1 and 2 are satisfied as shown in FIG. However, in FIG. 8, Condition 1 is satisfied, but Condition 2 is not satisfied, and relay OK1 is on and relay OK2 is off. Here, if the condition 2 is also satisfied and the relay OK2 is turned on, the relay B is turned on, the motor relay MA is turned on via the on contact Ba, and the forward / reverse motor (not shown) rotates forward to rotate the robot. The robot apparatus 2 incorporating the control unit 4 and the robot mechanism unit 4A moves forward. The forward / reverse motor can be moved backward by rotating in the reverse direction.
[0020]
  The forward and backward operations are a part of normal operations, but the robot remote control unit 3 generates operation codes for emergency operations such as emergency stop and maintenance operations such as servo-free in addition to normal operations. Further, there is an operation of transmitting a status code indicating the status of the robot mechanism unit 4A. The robot sequencer control unit 30 searches a status table (not shown) based on the status signal (signal indicating the status) from the robot mechanism unit 4A and reads the status code. Transmission of this status code to the robot remote control unit 3 is the same as the transmission described above, except that the direction is the direction from the robot control unit 4 to the robot remote control unit 3.
[0021]
  Next, the operation of the image remote processing system will be described with reference to FIG.
  FIG. 3 is a block diagram showing the image remote processing system of FIG.
  In FIG. 3, the robot mechanism unit 4A, the image remote control unit 5, the antennas 9, 10, the image processing unit 6, the base stations LS1, LS2, and the public line network N are the same as those in FIG. Description is omitted.
  Reference numeral 31A denotes a third computer device. The third computer device 31A includes interface units 37 and 41 that control an interface for data exchange, a CPU 31 that processes data, and an input device 32 for inputting operation instructions and the like. A display device 33 that displays data, an output device 34 that outputs data to a printer, a RAM 35 that stores data, and a ROM 36 that stores programs and data. Reference numeral 38 denotes an image / sound conversion unit that performs mutual conversion between a digital sound signal and an analog sound signal, converts the digital image signal to an analog image signal and outputs the analog image signal to the image monitor 39, and 40 outputs the input sound as an analog sound signal. An earphone microphone that outputs an input analog audio signal as audio, 42 is a third data communication card that converts a digital audio signal output from the third computer device 31A into second radio transmission data, and 43 is a second radio communication card. This is a third mobile communication device that transmits transmission data as a second radio wave signal via an antenna 9, all of which are built in the image remote control unit 5.
[0022]
  Reference numeral 44 denotes a fourth mobile communication device that receives the second radio wave signal via the antenna 10 and outputs second radio transmission data. Reference numeral 45 converts the second radio transmission data into a digital audio signal and will be described later. A fourth data communication card 47A for converting a digital image signal output from the fourth computer device 47A into third wireless transmission data, and 47A receives a digital audio signal from the fourth data communication card 45 and will be described later. A fourth data communication card receives a digital image signal from a monochrome or color CCD camera 55 (to be described later) via the image / audio converter 54 and a digital audio signal from an earphone microphone 56 (to be described later) via an image / audio converter 54 described later. 45 is a fourth computer device that outputs to 45.
[0023]
  The fourth computer device 47A includes interface units 46 and 53 that control an interface for data exchange, a CPU 47 that processes data, an input device 48 for inputting operation instructions and the like, and a display device 49 that displays data. , An output device 50 for outputting data to a printer or the like, a RAM 51 for storing data, and a ROM 52 for storing programs and data. Reference numeral 54 denotes an image / audio conversion unit that performs mutual conversion between a digital audio signal and an analog audio signal, converts the digital image signal into an analog image signal, and outputs the analog image signal to the image monitor 39. The fourth computer device 47A and the image processing unit 6 is built in.
[0024]
  55a, 55b, and 55c are arranged on the head, foot, and hand of the robot mechanism unit 4A, respectively, and a monochrome or color CCD camera that captures an image of the subject and outputs it as an analog color image signal. 56 is the robot mechanism unit 4A. An earphone microphone 57 for outputting the input sound as an analog sound signal and outputting the input analog sound signal as a sound, 57 is a monochrome or color CCD camera (head camera) 55a for the head, An image selection unit that selects one of the monochrome and color CCD camera (foot camera) 55b and the monochrome and color CCD camera (hand camera) 55c of the hand based on the control code from the robot control unit 4. It is.
[0025]
  The operation of the image remote processing system configured as described above will be described below.
  An image transmission instruction signal input from the input device 32 of the third computer device 31A of the image remote control unit 5 is input from the CPU 31 to the third data communication card 42 via the interface unit 41 as image transmission instruction data. The third data communication card 42 converts the input image transmission instruction data into second wireless transmission data and outputs it to the third mobile communication device 43. The third mobile communication device 43 Wireless transmission data from the data communication card 42 is transmitted as a second radio wave signal via the antenna 9.
[0026]
  The fourth mobile communication device 44 that has received the second radio signal via the antenna 9, the PHS base station LS1, the public network N, the PHS base station LS2, and the antenna 10 sends the second radio signal to the second radio signal. The data is converted into wireless transmission data and input to the fourth data communication card 45. The fourth data communication card 45 converts the second wireless transmission data into image transmission instruction data. The CPU 47 to which the image transmission instruction data is input from the fourth data communication card 45 through the interface unit 46 has received the image signals such as color from the CCD camera selected by the image selection unit 57 of the robot mechanism unit 4A until now. Is transmitted to the image remote control unit 5 via the antennas 10 and 9 in the opposite direction. An image signal such as an analog color from the CCD camera via the image selection unit 57 is converted into a digital image signal by the image / sound conversion unit 54 and input to the fourth data communication card 45 via the fourth computer device 47A. The fourth data communication card 45 converts the digital image signal from the fourth computer device 47A into the third wireless transmission data, and the fourth mobile communication device 44 receives the fourth data communication card 45 from the fourth data communication card 45. 3 is converted into a third radio signal and transmitted from the antenna 10. The third radio signal from the antenna 10 is received by the third mobile communication device 43 of the image remote control unit 5 via the PHS base station LS2, the public network N, the PHS base station LS1, and the antenna 9, and the third The mobile communication device 43 inputs the third wireless transmission data to the third computer device 31A as a digital image signal via the third data communication card.
[0027]
  The CPU 31 of the third computer device 31A outputs the input digital image signal to the image / sound conversion unit 38 via the interface unit 37, and the image / sound conversion unit 38 converts the digital image signal into an analog color image signal. Output to the image monitor 39 to display a color image.
  The sound signal is the same as the image signal. That is, the analog audio signal from the earphone microphone 40 is converted into a digital audio signal by the image / audio conversion unit 38, and is output as an analog audio signal from the image / audio conversion unit 54 through the same signal path and communication path as the image signal. The sound is output from the microphone 56. Also, the analog audio signal from the earphone microphone 56 is converted into a digital audio signal by the image / audio converter 54, and is output as an analog audio signal from the image / audio converter 38 through the same signal path and communication path as the image signal. The sound is output from the microphone 40.
[0028]
  In this embodiment, the PHS device is described as an example of the mobile communication device. However, the present invention is not limited to this, and the present invention can be applied to a mobile phone as well. Therefore, the mobile phone is an international telephone line. If the robot can be used with a foreign country, the robot apparatus can be remotely controlled internationally.
[0029]
  As described above, according to the present embodiment, the operation instruction signal from the robot remote control unit 3 is transmitted via the mobile communication device (for example, PHS device) 19 and the radio signal of the mobile communication device 14 arrives. Since the operation instruction can be given anywhere (for example, anywhere in Japan), the robot remote control unit 3 controls the robot mechanism unit regardless of the location of the robot control unit 4 or the robot mechanism unit 4A as the controlled body. 4A can be controlled. Further, the image signal from the image processing unit 6 is also automatically transmitted to the image remote control unit 5 and can be automatically displayed on the image monitor 39.
[0030]
  Further, the CPU 11 can automatically control the robot mechanism unit 4A by the robot control unit 4 by converting the operation instruction and control input from the input device 12 into the operation code and the control code. Images from the cameras 55a to 55c of the robot mechanism unit 4A can be selected.
[0031]
  Further, since the operation instruction is given to the robot apparatus 2 via the operation instruction key switch, the operator only has to press the forward operation instruction key switch in the case of the advance instruction, for example. The operation of 2 can be made extremely simple.
[0032]
  Further, when the operation instruction is input, the CPU 11 has an operation code search means for searching an operation code table in which an operation code corresponding to the operation instruction is stored and reading the searched operation code, so that the operation instruction is input. It is possible to automatically generate an operation code and automatically control the robot mechanism unit 4A. The same applies to the control code, and any one of the cameras 55a to 55c can be automatically selected.
[0033]
  Further, the robot sequencer control unit 30 has an operation instruction retrieval unit that retrieves an operation instruction table in which an operation instruction for the operation code is stored when an operation code is input, and reads out the retrieved operation instruction. The unit 4A can be automatically controlled by the robot sequencer control unit 30.
[0034]
  (Embodiment 2)
  FIG. 9 is a block diagram showing a robot remote control system according to Embodiment 2 of the present invention.
  In FIG. 9, the PHS base stations LS1 and LS2 and the public line network N are the same as those in FIG.
  B is a robot remote control system of the second embodiment, 1A is a remote control device constituting the robot remote control system B, 2A is a robot device constituting the robot remote control system B, 61 is a computer device of the remote control device 1A ( (First computer device), 62 is an operation device of the remote control device 1A, 63 is a mobile communication device (first mobile communication device) of the remote control device 1A, and 71 is a computer device (second computer) of the robot device 2A. 72 is a robot mechanism unit of the robot apparatus 2A, and 73 is a mobile communication apparatus (second mobile communication apparatus) of the robot apparatus 2A.
[0035]
  The operation of the robot remote control system B configured as described above will be described below.
  The operation device 62 operates an operation unit (an operation unit such as a head and arm fingers described later) of the robot apparatus, and an operation signal corresponding to the operation amount (for example, a voltage value corresponding to the rotation angle, Off). An operation signal from the operation device 62 is input to the first computer device 61, and the first computer device 61 generates operation data corresponding to the voltage value and the like (and hence operation data corresponding to the operation amount) to generate the first. To the mobile communication device 63. The first mobile communication device 63 that has input the operation data transmits a radio signal including the operation data (a radio signal such as operation data) to the PHS base station LS1. The PHS base station LS1 transmits a radio signal such as operation data to the PHS base station LS2 via the public network N, and the PHS base station LS2 transmits the radio signal such as operation data to the second mobile communication device 73 of the robot apparatus 2A. Send to. The second mobile communication device 73 extracts the operation data from the received radio signal such as the operation data and outputs it to the second computer device 71. The second computer device 71 inputs the operation data, converts it into control data for controlling the robot mechanism unit 72, and outputs the control data to the robot mechanism unit 72. The robot mechanism unit 72 inputs control data from the second computer device 71 and controls each operation unit. As the operation unit, there are a head, an arm finger unit, and a traveling unit. The finger part is included in the arm finger part.
[0036]
  FIG. 10 is a block diagram showing in detail the remote control device 1A of FIG.
  10, reference numerals 61, 62, and 63 denote the same computer apparatus, operation apparatus, and mobile communication apparatus as in FIG. An input / output I / F unit (input / output interface unit) for exchanging data at 613, an output I / F unit (output interface unit) for outputting display data to the display unit 614, 615, an A / D conversion unit, 616 Is a D / A conversion unit, 617 is an input I / F unit (input interface unit), 621 is a head operation unit that outputs a head operation signal as an operation unit of the robot mechanism unit 72, and 622 is a robot mechanism unit 72. A torso operation unit that outputs an operation signal of the torso as an operation unit of the robot, an arm operation unit to output an operation signal of an arm finger as an operation unit of the robot mechanism unit 72, and 624 in the arm operation unit 623. finger An operation unit, 625 is a driving wheel (target driving wheel) for traveling, an operation panel including a traveling operation unit 626 for instructing forward, backward, and traveling speed in traveling, 631 is a PHS transmission / reception device as a first mobile communication device, and 632 is It is an antenna for performing PHS transmission / reception.
[0037]
  Next, the head operation unit 621, the arm operation unit 623, and the travel operation unit 625 of FIG. 10 will be described with reference to FIGS. 12 is a configuration diagram showing the head operation unit 621 and the arm operation unit 623 of FIG. FIG. 13 is a perspective view showing the body operation unit 622 and the operation panel 625 of FIG.
  In FIG. 12, H is an operator, 621 is a head operation unit that is attached to the head of the operator H and controls the back and forth movement and the left and right movement of the robot apparatus 2A, 621a is a head mounted display that displays an image, and 621b is a head. A vertical angle detector for rotating with the mount display 621a to detect the vertical rotation of the head, 621c is a shaft bar integrated with the vertical angle detector 621b, and 621d is rotated with the horizontal rotation of the head. It is a left-right angle detection unit that detects the rotation angle of the shaft rod 621c. 623R and L are interlocked with the movement of the right arm and the left arm of the operator H, respectively. The arm operation part 623R is the right arm finger part of the operator H, and 623L is the left arm finger part of the operator H.
[0038]
  Reference numeral 100R denotes an arm finger part mounting portion for fixing the right arm finger part 623R to a chair or the like, and 101R denotes front and rear, right and left of the right shoulder of the robot apparatus 2A. , 102R is the upper arm operation unit for operating the right upper arm, 103R is the elbow operation unit for operating the right elbow, and 104R is the rotation of the right forearm. Forearm operation unit to be operated, 105R is a wrist operation unit for operating the rotation of the right wrist, 624R is a finger operation unit for operating the thumb, index finger, and middle finger of the right finger (the ring finger and the little finger are integrated with the operation of the middle finger) 100L is an arm finger attachment portion for fixing the left arm finger 623L to a chair or the like, 101L is front and rear of the left shoulder, left and right (the front and rear of the shoulder is the front and rear of the arm swing, and the left and right of the shoulder is the arm Shoulder operation part to operate (lifting leftward), 102L is left Upper arm operation unit for manipulating the rotation of the upper arm, 103L is an elbow operation unit for manipulating the bending and stretching of the left elbow, 104L is a forearm operation unit for manipulating the rotation of the left forearm, and 105L is a wrist operation for manipulating the rotation of the left wrist. 624L is a finger operation unit for operating the thumb, index finger, and middle finger of the left finger (the ring finger and the little finger are integrated with the operation of the middle finger). The left / right angle detector 621d is fixed to the chair via a support member (not shown) attached to the chair.
[0039]
  In FIG. 13, the operation panel 625 is placed and operated at the foot of the operator H. Reference numeral 622 denotes a torso operating unit for operating the upper and lower parts of the torso, a traveling operation unit 626 is the same as that in FIG. 10, 111 denotes an operation lever for operating the right moving wheel forward and its traveling speed, and 112 denotes an operation for rotating the right moving wheel , An operation lever for operating the traveling speed, 113 an operation lever for operating the left moving wheel forward and its traveling speed, 114 an operation lever for operating the left moving wheel backward and its traveling speed, and 115 to 118 are push button switches. . The pushbutton switches 115 to 118 are for outputting an operation restriction invalid command, for example, a travel prohibition invalid command (a command for invalidating the travel prohibition generated by the robot device due to a nearby obstacle or the like). The usage data of the remote control device 1A configured as described above will be described.
Table 4 shows an operation signal input to the operation control unit 611 via the input interface unit 617 of the computer device 61, that is, an operation signal from the operation panel 625.
[Table 4]
As shown in (Table 4), signals indicating emergency stop, left and right driving wheels, forward movement, backward movement, and the like are input to the operation control unit 611. The emergency stop signal is generated, for example, when the push button 115 of the operation panel 625 is turned on, and is input to the operation control unit 611 through the input interface unit 617, and is input through the input / output interface unit 612 and the mobile communication device 63. Then, it is transmitted to the robot apparatus 2A (see FIG. 11) described later. The right wheel forward command is generated when the operator H lifts the operation lever 111 of the operation panel 625 with his / her foot, and a speed signal indicating a speed corresponding to the lifting angle of the operation lever 111 is generated. Among these signals, the forward signal is similarly input to the operation control unit 611 via the input interface unit 617 and transmitted to the robot apparatus 2A of FIG. 11 via the input interface unit 612 and the mobile communication device 63, which will be described later. The driving motor 730 of the robot apparatus 2A drives the driving wheel 729R (see FIG. 14) of the traveling unit 729. The speed signal is input to the operation control unit 611 via the A / D conversion unit 615 as described later.
[0040]
  Table 5 shows signals output from the operation control unit 611 to the display unit 614 via the output interface unit 613 of the computer device 61.
[Table 5]
As shown in (Table 5), each state of the robot is displayed on the display unit 614. Signals indicating the states (emergency stop, operation, etc.) of these robots are generated as sensor signals by a sensor unit 735 (FIG. 11) of the robot apparatus 2A described later, and these sensor signals are transmitted via the input interface unit 716. It is input to the robot controller 711, transmitted to the remote control device 1A via the mobile communication device 73, and displayed via the mobile communication device 63, the input / output interface unit 612, the operation control unit 611, and the output interface unit 613. Displayed on the part 614.
[0041]
  Table 6 shows operation signals that are A / D converted by the A / D conversion unit 615 and input to the operation control unit 611.
[Table 6]
As shown in Table 6, a head operation signal, an arm finger operation signal, and a driving wheel speed instruction signal are input to the operation control unit 611. These signals are generated when the operator moves his arms or fingers as shown in FIG. 12 or operates the lever 111 of the operation panel 625 or the like. For example, in the case of 90 degrees, the operation range of (Table 6) means that the range of left and right, front and rear, or top and bottom is 90 degrees, and generally means that the movement is up to ± 45 degrees left and right, front and back, or top and bottom. Each signal is generated in each operation unit 621 to 623 in FIG. 10 and the traveling operation unit of the operation panel 625, and is input to the operation control unit 611 via the A / D conversion unit 615, and the input / output interface unit 612 moves. It is input to the robot apparatus 2A via the body communication device 63, and each motor of a motor unit 722 of the robot apparatus 2A described later is driven to operate the robot head, arm fingers, and the like.
[0042]
Table 7 shows signals that are D / A converted by the D / A conversion unit 616 and output to the arm operation unit 623.
[Table 7]
As shown in Table 7, reaction force signals for three fingers 1, 2, and 3 are output to the finger operation unit 624, and a load corresponding to the reaction force signal is applied to each finger. The reaction force signal is generated in a finger reaction force detection unit 734 (see FIG. 11) of the robot apparatus 2A, which will be described later, and is input to the operation control unit 611 via the mobile communication devices 73 and 63, and is converted into D / A conversion. D / A conversion is performed by the unit 616 and input to the arm operation unit 623, and a reaction force is generated on the finger portion of the finger operation unit 624. Therefore, when an object on which the finger of the robot apparatus 2A is difficult to move is operated, a heavy load is applied to the finger of the finger operation unit 624, and the movement of the finger in the robot apparatus 2A can be sensed on the remote control apparatus 1A side.
[0043]
  Next, the operation of the remote control device of FIG. 10 will be described with reference to FIG. FIG. 15 is a flowchart showing the operation of the remote control device of FIG.
  First, the PHS device 631 receives a transmission signal from the robot device 2A via the PHS base station LS1 (see FIG. 9). The received data is robot state data shown in (Table 5) and finger reaction force data shown in (Table 7). These data are input to the operation control unit 611 via the input / output interface unit 612 (S31). Next, the operation control unit 611 outputs finger reaction force data to the arm operation unit 623 via the D / A conversion unit 616, and the arm operation unit 623 performs finger reaction force control based on the finger reaction force data. (S32). The operation principle of this finger reaction force control will be described later. Further, the operation control unit 611 outputs the robot state data of (Table 5) to the display unit 614 via the output interface unit 613 for display.
[0044]
  Next, operation signals (see (Table 6)) from the head operation unit 621, the torso operation unit 622, the arm operation unit 623, and the travel operation unit 626 are converted into digital data (operation data) by the A / D conversion unit 615. In addition, an operation target moving wheel from the operation panel 625 and an on / off signal indicating forward / backward movement (see (Table 4)) are similarly input via the input interface unit 617. The operation data is input to the operation control unit 611 (S33). The operation control unit 611 outputs each operation data to the PHS device 631 via the input / output interface unit 612 (S34), and the PHS device 631 modulates each operation data to generate a radio signal as a PHS base station LS1 (see FIG. 9). ). As described above, the radio signal from the PHS device 631 is received by the robot device 2A via the PHS base station LS1, the public network N, and the PHS base station LS2, and controls each operation of the robot device 2A. Note that the operation signals from the travel operation unit 626 that are input to the A / D conversion unit 615 are the target driving wheel selection signal and the speed instruction signal as described above.
[0045]
  FIG. 11 is a block diagram showing in detail the robot apparatus 2A of FIG.
  11, reference numerals 71, 72, and 73 denote the same computer apparatus, robot mechanism, and mobile communication apparatus as in FIG. 9, reference numeral 711 denotes a robot control section that controls the entire robot apparatus 2A, and reference numeral 712 denotes the mobile communication apparatus 73. The input / output I / F unit (input / output interface unit) that exchanges data with 713, the output I / F unit (output interface unit) that outputs data to the robot mechanism unit 72, and 714 converts digital data into analog signals. A D / A converter for outputting to the robot mechanism 72, 715 is an A / D converter for converting an analog signal from the robot mechanism 72 into digital data, and 716 is an input for inputting data from the robot mechanism 72 An I / F unit (input interface unit) 721 is a motor that inputs data from the output interface unit 713 and the D / A conversion unit 714. A driver unit for generating a dynamic voltage, 722 is a motor unit, 723 is a head of the robot apparatus 2A driven by a head motor 724, 725 is a head position detecting unit, and 726 is driven by a torso motor 727. The body of the robot apparatus 2A, 728 is the body position detecting section, 729 is the traveling section of the robot apparatus 2A driven by the traveling motor 730, and 731 is the arm driven by the arm motor 732 that drives the arms and fingers. Finger part, 733 is an arm finger position detection part, 734 is a finger reaction force detection part that detects the reaction force of the thumb, index finger, and middle finger (including ring finger and little finger), and 735 detects an obstacle or the like in the vicinity of the robot apparatus 2A. A sensor unit 73a is a PHS device as a mobile communication device, and 73b is an antenna for performing PHS transmission / reception.
[0046]
  FIG. 14 is a block diagram showing the robot apparatus 2A.
  In FIG. 14, a computer device 71, a motor unit 722, a head 723, and a torso 726 containing motors for the head, body, running, arm fingers, and the like are the same as those in FIG. 729L is a left driving wheel constituting the traveling unit 729, 729R is a right driving wheel constituting the traveling unit 729, 731L is a left arm finger, 731R is a right arm finger, 201L is a left shoulder, 202L Is the left upper arm, 203L is the left elbow, 204L is the left forearm, 205L is the left wrist, 206L is the left finger, 201R is the right shoulder, 202R is the right upper arm, and 203R is The right elbow, 204R is the right forearm, 205R is the right wrist, and 206R is the right finger. The connection with the PHS device 73a is performed at an appropriate position of the computer device 71.
  In FIG. 14, wires are arranged between the motor unit 722 and the head 723, the trunk 726, the travel unit 729, and the arm fingers 731, and the driving force of each motor of the motor unit 722 is transmitted via the wires. Each part is given front / rear, left / right and up / down movements.
[0047]
  The use data of the robot apparatus 2A configured as described above will be described.
  Table 8 shows sensor signals input to the robot control unit 711 via the input interface unit 716 of the computer device 71.
[Table 8]
  This is a signal indicating an obstacle or the like in the vicinity of the robot apparatus 2A as described with reference to (Table 5). Nearby obstacles are detected by light, infrared and ultrasonic sensors. (Table 9) shows signals corresponding to (Table 4) and (Table 6), an emergency stop signal, a signal indicating left and right advancement and forward / backward movement of the driving wheel, a head motor 724, a trunk motor 727, Signals indicating forward rotation and reverse rotation of the traveling motor 730 and the arm motor 732 are shown.
[Table 9]
These signals are output from the robot control unit 711 to the driver unit 721 via the output interface unit 713.
[0048]
  Table 10 shows signals input from the detection units of the robot mechanism unit 72 via the A / D conversion unit 715.
[Table 10]
For example, in the case of 90 degrees, the operation range of (Table 10) means that the range of left and right, front and back, or top and bottom is 90 degrees, and generally means that the movement is up to ± 45 degrees left and right, front and back, or top and bottom.
  Table 11 shows signals that are D / A converted by the D / A conversion unit 714 and output to the driver unit 721.
[Table 11]
These signals are speed instruction signals indicating the speed, and the speed signal of the driving wheel motor is generated at each of the levers 111 to 114 of the operation panel 625 of the remote control device 1A as described above, and the motor speed of the finger is determined by the robot controller 711. Occurs in
[0049]
  The operation of the robot apparatus 2A configured as described above will be described with reference to FIGS. FIG. 16 is a flowchart showing the operation of the robot apparatus 2A, FIG. 17 is a flowchart showing each part control process of FIG. 16, and FIG. 18 is a flowchart showing the travel control process of FIG.
  First, in FIG. 16, the PHS device 73a receives a transmission signal from the remote control device 1A via the PHS base station LS2 (see FIG. 9). The received data is each operation data that is a source of each signal shown in (Table 9) and speed instruction data shown in (Table 11). These received data are input to the robot controller 711 via the input / output interface unit 712 (S41), and are output as control data to the driver unit 721 via the output interface unit 713 and the D / A converter 714 (S42). , S43). The driver unit 721 to which the control data is input supplies a motor driving voltage to the head motor 724, the torso motor 727, the travel motor 730, and the arm motor 732. The part 726, the traveling part 729, and the arm finger part 731 are driven. In this case, the head portion 723, the torso portion 726, and the arm finger portion 731 (excluding the finger portion) are position control, the finger portion is position control and speed control, and the traveling portion 729 is target object wheel selection control and speed control. It is. Each of these controls will be described in detail later, but the control of the head 723, the torso 726, and the arm finger portion 731 will be described using the control processing of each part of FIG. This will be described using control processing.
  Next, the robot controller 711 receives the head from the head position detector 725, the torso position detector 728, the arm finger position detector 733, and the finger reaction force detector 734 via the A / D converter 715. Position data, torso position data, arm finger position data, and finger reaction force data are input, and data from the sensor unit 735 (for example, data indicating nearby obstacle detection) is input to the robot state via the input interface unit 716. Enter as data. Of these data, each position data is used as feedback data of each part. The finger reaction force data and the robot state data are transmitted to the remote control device 1A via the input / output interface unit 712 and the PHS device 73a (S44).
[0050]
  Next, each part control process (S42) of FIG. 16 is demonstrated using FIG.
  First, the robot control unit 711 determines whether or not the operation is prohibited (S51). If the operation is prohibited, this control process is not performed. The operation prohibition includes, for example, arm left / right operation prohibition for risk prevention. When this arm left / right motion prohibition is performed, the arm left / right motion is not performed. However, when an operation restriction invalid command as shown in (Table 4) is valid for the arm left-right motion, the arm left-right motion is performed even in the arm left-right motion prohibited state. Therefore, the operation prohibition in step S51 is determined for each operation. If there is no operation prohibition, it is determined whether or not there is a position instruction (S52). The case where there is a position instruction is a case where operation data of a position instruction different from the actual position (that is, the detected position) is transmitted from the remote control device 1A, or a case where the indicated position differs from the detected position due to some variation. is there. If there is no position instruction, this control process is terminated.
[0051]
  If there is a position instruction in step S52, it is next determined whether the deviation is positive or negative (S53). When the deviation amount is positive, the robot control unit 711 instructs the driver unit 721 to perform positive (motor forward rotation) as shown in (Table 9) (S54). The motor reverse rotation is instructed (S55). Next, the presence / absence of a speed instruction is determined (S56). For example, when the finger position change speed changes according to the finger reaction force data, there is a speed instruction. When there is a speed instruction, the robot control unit 711 instructs a speed according to the deviation amount (S57).
[0052]
  Next, the traveling control process (S43) in FIG. 16 will be described with reference to FIG.
  First, it is determined whether or not travel is prohibited (S71). The travel prohibition is, for example, travel prohibition based on obstacle detection. When this travel prohibition is present, travel is not performed. However, when the operation regulation invalidation command as shown in (Table 4) is valid for traveling, traveling is performed even in the traveling prohibited state. If there is a travel prohibition, the operator is notified of this fact and the travel control process is terminated (S78). If there is no travel prohibition, it is determined whether there is a travel instruction (S72). If there is no travel instruction, the travel control process ends. If there is a traveling instruction, it is next determined whether or not to move forward (S73). When it is determined that the vehicle is moving forward, the driver unit 721 is instructed to move forward via the output interface unit 713 (S74), and when it is determined that the vehicle is not moving forward but is moved backward, the vehicle is instructed to move backward (S75). Next, the robot control unit 711 determines whether or not there is a speed instruction (S76). If there is no speed instruction, the robot control unit 711 ends the traveling control process, and if there is a speed instruction as shown in (Table 11). The command speed is output via the D / A converter 714 (S77).
[0053]
  Next, the finger load operation based on the finger reaction force detection principle and finger reaction force data of the arm finger portion 731 will be described with reference to FIGS. 19 and 20.
  FIG. 19 is an explanatory diagram for explaining the detection principle of finger reaction force, and FIG. 20 is an explanatory diagram for explaining a finger load operation based on finger reaction force data.
  19, 722 is a motor unit similar to FIG. 11, 731 is an arm finger part of the robot mechanism part 72 similar to FIG. 11 (more precisely, a finger part of the arm finger part 731), 301 is a rotating part, 301a is A fixed portion that pivotally supports the rotating portion 301, 301 b is a movable portion that is fixed to the rotating portion 301 and rotates as the rotating portion 301 rotates, and 302 has one end fixed to the fixing portion of the arm finger portion 731. Since the other end is fixed to the movable portion 301b, an elastic body such as a spring or rubber that applies an upward force F1 to the movable portion 301b, 303 is a wire fixing portion for fixing the wire 304, and 305 is a tension for the wire 304. A tension pulley to be applied, 305a is a pulley shuttle that rotatably supports the tension pulley 305, 306 is a take-up pulley for winding the wire 304 to give an appropriate force to the movable portion 301b, 30 Is an elastic body such as a spring or rubber whose one end is fixed and the other end is fixed to the pulley shuttle 305a. The other end is a wire fixed to the elastic body 311.
[0054]
  In FIG. 20, 623 is the operator's arm operation unit similar to FIG. 10, 624 is the operator's finger operation unit similar to FIG. 10, and 624 a is a reaction force that generates a reaction force on the operator's finger operation unit 624. , 401 is a moving pulley that moves left and right within the range of positions P1 to P2 according to the movement of the finger of the operator, 402 is a fixed pulley, 403 is fixed to the moving pulley 401 and the other end is made of synthetic resin. A wire 405 is fixed to the friction plate 404, a spring 405 is fixed to a sandwich plate 406 whose one end is immovably fixed and the other end is made of a magnetic material, 407 is a pressing plate that presses the friction plate 404, and 408 constitutes an electromagnet 410. Similarly, an electromagnet bar 409 is a coil constituting the electromagnet 410.
[0055]
  First, the detection principle of the finger reaction force will be described with reference to FIG.
  When the wire 304 is wound up by the winding pulley 306, the movable portion 301b is rotated downward by the force F2 against the force F1 of the elastic body 302. As the winding amount of the wire 304 by the winding pulley 306 increases, the force F2 increases against the force F1 of the elastic body 302, and the rotation angle of the movable portion 301b also increases. When the force F2 increases, the tension of the wire 304 also increases, and the force in the left direction F3 acts on the tension pulley 305 balanced by the forces of the elastic bodies 307 and 311 via the wire 304, so that the potentiometer pulley 308 The potentiometer 309 rotates with the rotation, and the resistance value thereof changes. That is, a tension corresponding to the rotation angle of the movable portion 301b (for example, when the movable portion 301b is a finger, the direction in which the rotation angle is large is the direction in which the object is gripped) is given to the wire 304. A resistance value corresponding to the tension is obtained by the potentiometer 309. By converting this resistance value into a voltage value in the finger motor of the motor unit 722 and outputting the voltage value to the robot control unit 711, for example, finger reaction force data can be transmitted to the remote control device 1A via the PHS line.
[0056]
  Next, a finger load operation based on finger reaction force data will be described with reference to FIG.
  In the remote control device 1A that has received the finger reaction force data from the robot device 2A, the finger reaction force data is input to the operation control unit 611 via the PHS device 631 and the input / output interface unit 612. The finger reaction force data from the operation control unit 611 is converted into a control voltage value corresponding to the finger reaction force data by the D / A conversion unit 616, whereby the finger force is applied to the coil 409 of the reaction force generation unit 624 a of the arm operation unit 623. A control current a corresponding to the reaction force data flows, and a force F4 corresponding to the value of the control current a is applied to the presser plate 407 by the electromagnet bar 408. That is, a force F4 corresponding to the tension of the wire 304 in FIG. 19 is applied to the holding plate 407, and a frictional force corresponding to the tension of the wire 304 is generated in the friction plate 404. When a large frictional force is generated in the friction plate 404, the force that moves the wire 403 increases, and eventually the force (load force) applied to the finger that moves the finger operating unit via the moving pulley 401 increases. In this manner, the finger load force (finger reaction force) in the finger operation unit can be controlled.
[0057]
  In this embodiment, the PHS device is described as an example of the mobile communication device. However, the present invention is not limited to this, and the present invention can be applied to a mobile phone as well. Therefore, the mobile phone is an international telephone line. If the robot can be used with a foreign country, the robot apparatus can be remotely controlled internationally.
[0058]
  As described above, according to the present embodiment, the remote control device 1A includes the head operation unit 621 and the arm for operating the head 723 of the robot device 2A, the arm finger unit 731 composed of fingers and arms, and the traveling unit 729. An operation device 62 having an operation unit 623 and a travel operation unit 626, a first computer device 61 that generates operation data according to an operation amount in the operation device 62, and operation data from the first computer device 61 are made public. A first mobile communication device 63 that transmits to the base station LS1 connected to the network N, and the robot device 2A receives the operation data from the base station LS2 connected to the public network N Mobile communication device 73, a second computer device 71 that generates control data for head 723, arm finger portion 731 and running portion 729 based on operation data, and a motor based on control data 722 has a robot mechanism unit 72 that drives a head motor 724, an arm unit motor 732, and a traveling motor 730 to operate the head unit 723, arm finger unit 731, and traveling unit 729. By doing so, since the operation data from the remote control device 1A can be transmitted via the mobile communication device 63, the robot device 2A receives the operation data and converts it into control data. Based on the above, the head 723, the arm fingers 731 and the traveling unit 729 of the robot mechanism can be operated.
[0059]
  The robot mechanism unit 72 also detects an arm finger position detection unit 733 in the arm finger part that detects the current arm position and the current finger position, and a head position detection in the head 723 that detects the current head position. Unit 725, and a finger reaction force detection unit 734 that detects a reaction force in the finger part in the arm finger part 731, and the second computer device 71 includes a current arm position, a current finger position, and a current head part. Based on the position, the arm finger portion 731 including the finger portion and the head 723 are controlled in position, and the detected reaction force detected by the finger reaction force detection unit 734 is detected by the second mobile communication device 73. To the remote control device 1A, and the first computer device 61 sends a response to the finger operation unit 624 in the arm operation unit 623 based on the detected reaction force received through the first mobile communication device 63. Thus, the head 723 and the arm fingers 73 are provided. And can accurately control the position by being feedback control, it is possible to perform finger operation with feeling by controlling the load of the finger operation portion 624 on the basis of the reaction force at the fingers.
[0060]
【The invention's effect】
  As described above, the robot remote control system according to claim 1 of the present invention is a robot remote control system including a robot remote control unit, a robot control unit, and a robot mechanism unit controlled by the robot control unit. The robot remote control unit generates a first computer device that generates an operation code for giving an operation instruction to the robot control unit, and a first computer device that converts the operation code output from the first computer device into wireless transmission data. A data communication card and a first mobile communication device that transmits wireless transmission data as a radio signal via an antenna. The robot control unit receives the radio signal via the antenna and transmits the wireless transmission data. A second mobile communication device for outputting, and a second data communication card for converting wireless transmission data into an operation code. De and a second computer device that outputs to input operation code from the second data communications cards, retracted before based on the operation code outputted from the second computer unit, right and left rotationincludingA robot sequencer control unit that gives motion to the robot mechanism unit that performs the operation, and the first computer device moves forward / backward / rotates.includingWhen an operation instruction signal indicating an operation instruction is input from the operation instruction key switch, the operation code table is searched and the operation code corresponding to the operation instruction signal is read and read. The operation instruction signal from the robot remote control unit is transmitted via the mobile communication device (for example, a PHS device), and the robot control unit as the controlled body is output by outputting the obtained operation code to the first mobile communication device. However, at least in any place in Japan, there is an advantageous effect that the robot mechanism unit is controlled by the robot remote control unit. Also, as long as communication is possible, a remote operator can freely operate the robot mechanism of the robot apparatus even in extremely dangerous places, and the robot apparatus can be operated via an operation instruction key switch. For example, in the case of a forward instruction, the operator only has to press the forward movement instruction key switch, and the operation of the robot apparatus can be made extremely simple. Effects can be obtained.In addition, the robot sequencer control unit searches the operation instruction table in which the operation instruction for the operation code is stored when the operation code is input, and reads out the searched operation instruction as a relay pattern signal for operating the relay. By having the search means, an advantageous effect is obtained that the robot mechanism section is automatically controlled by the robot sequencer control section.
[0061]
  Claim2The robot image remote control processing system described in 1 is a robot image remote control processing system including a robot remote control system and an image remote processing system. The robot remote control system includes a robot remote control unit, a robot control unit, and a robot control. The image remote processing system includes an image remote control unit and an image processing unit. The robot remote control unit generates an operation code for giving an operation instruction to the robot control unit. A first computer device that generates a control code for controlling the image processing unit, and first data that converts an operation code and a control code output from the first computer device into first wireless transmission data The communication card and the first wireless transmission data are transmitted via the antenna to the first power A first mobile communication device that transmits as a signal, and the robot control unit receives a first radio wave signal via an antenna and outputs a first wireless transmission data; A second data communication card that converts the first wireless transmission data into an operation code and a control code, and a second computer device that inputs and outputs the operation code and the control code from the second data communication card; Based on the operation code output from the second computer device, forward, backward, left / right rotationincludingA robot sequencer control unit that gives motion to the robot mechanism unit that performs the operation and outputs the control code output from the second computer device as it is. A plurality of cameras that output as image data, and an image selection unit that selects and outputs analog image signals from the plurality of cameras based on a control code output from the robot sequencer control unit of the robot control unit. An image audio conversion unit that performs mutual conversion between an analog audio signal and a digital audio signal and converts a digital image signal into an analog image signal; inputs and outputs the digital audio signal and the digital image signal; and image transmission instruction data And a third computer device that outputs the data output from the third computer device. A third data communication card for converting a total audio signal or image transmission instruction data into second wireless transmission data, and a third moving body for transmitting the second wireless transmission data as a second radio signal via an antenna And a communication device, wherein the image processing unit receives the second radio signal via the antenna and outputs the second wireless transmission data, and the second wireless transmission data. A fourth data communication card that converts the digital image signal into the third wireless transmission data and converts the digital image signal into the third wireless transmission data, and inputs and outputs the digital audio signal from the fourth data communication card and outputs the digital image signal. A fourth computer device and a digital audio signal output from the fourth computer device into an analog audio signal or an analog audio signal from a microphone as digital sound And an image / sound conversion unit that converts the analog image signal from the image selection unit into a digital image signal and outputs the digital image signal to the fourth computer device, so that the operation instruction signal from the robot remote control unit is When the robot mechanism unit is controlled by the robot remote control unit, the robot control unit is transmitted via a mobile communication device (for example, a PHS device) and the robot control unit as a controlled body is located at any location in Japan. At the same time, the image signal from the image processing unit is also automatically transmitted to the image remote control unit, automatically displayed on the image monitor, and one of a plurality of cameras arranged in the robot mechanism unit is selected. Effects can be obtained.
[0062]
  Claim3The robot image remote control processing system according to claim 12The robot image remote control processing system according to claim 1, wherein the plurality of cameras are arranged on a head, a foot, and a hand of the robot mechanism unit.2In addition to the effects obtained in the above, an advantageous effect is obtained in that images from the head, feet and hands of the robot mechanism are monitored.
[Brief description of the drawings]
[Figure 1]
  The block diagram which shows the robot image remote control processing system containing the robot remote control system by Embodiment 1 of this invention
[Figure 2]
  The block diagram which shows the robot remote control system of FIG.
[Fig. 3]
  Block diagram showing the image remote processing system of FIG.
[Fig. 4]
  Flow chart showing the operation of the robot remote control unit
[Figure 5]
  Flow chart showing the operation of the robot controller
[Fig. 6]
  Flow chart showing the operation of the robot sequencer in the robot controller
[Fig. 7]
  Circuit diagram showing relay conversion circuit in robot sequencer controller
[Fig. 8]
  Circuit diagram showing relay circuit in robot mechanism
FIG. 9
  The block diagram which shows the robot remote control system by Embodiment 2 of this invention
FIG. 10
  Block diagram showing in detail the remote control device of FIG.
FIG. 11
  The block diagram which shows the robot apparatus of FIG. 9 in detail
FIG.
  The block diagram which shows the head operation part and arm operation part of FIG.
FIG. 13
  The perspective view which shows the trunk | drum operation part and operation panel of FIG.
FIG. 14
  Configuration diagram showing a robot device
FIG. 15
  The flowchart which shows operation | movement of the remote control apparatus of FIG.
FIG. 16
  Flow chart showing operation of robotic device
FIG. 17
  The flowchart which shows each part control processing of FIG.
FIG. 18
  The flowchart which shows the traveling control processing of FIG.
FIG. 19
  Explanatory drawing for explaining the detection principle of finger reaction force
FIG. 20
  Explanatory drawing for explaining finger load operation based on finger reaction force data
[Explanation of symbols]
  A Robot image remote control processing system
  B Robot remote control system
  1, 1A Remote control device
  2, 2A Robot device
  3 Robot remote control
  4 Robot controller
  4A, 72 Robot mechanism
  5 Image remote control unit
  6 Image processing section
  7, 8, 9, 10 Antenna
  LS1, LS2 base station
  N Public network
  11, 23, 31, 47 CPU (Central Processing Unit)
  11A, 61 First computer device
  12, 24, 32, 48 input device
  13, 25, 33, 49 Display device
  14, 26, 34, 50 Output device
  15, 27, 35, 51 RAM
  16, 28, 36, 52 ROM
  17, 22, 29, 37, 41, 46, 53 Interface section
  18 First data communication card
  19, 63 First mobile communication device
  20, 73 Second mobile communication device
  21 Second data communication card
  23A, 71 Second computer device
  30 Robot sequencer controller
  31A Third computer device
  38, 54 Image / audio converter
  39 Image Monitor
  40, 56 Earphone microphone
  42 Third data communication card
  43 Third mobile communication device
  44 Fourth mobile communication device
  45 Fourth data communication card
  47A Fourth computer device
  55a Color CCD camera (camera, head camera)
  55b Color CCD camera (camera, foot camera)
  55c color CCD camera (camera, hand camera)
  57 Image selector
  301 Rotating part
  301a fixed part
  301b Movable part
  302 Elastic body
  303 Wire fixing part
  304 wires
  305 Tension pulley
  305a Pulley shuttle
  306 Winding pulley
  307 Elastic body
  308 Potentiometer pulley
  309 Potentiometer
  310 wire
  311 Elastic body
  401 Moving pulley
  402 fixed pulley
  403 wire
  404 friction plate
  405 Spring
  406 sandwich plate
  407 Presser plate
  408 Electromagnetic bar
  409 coil
  410 electromagnet
  611 Operation control unit
  612, 712 I / O interface part
  613, 713 Output interface section
  614 Display
  615, 715 A / D converter
  616, 714 D / A converter
  617, 716 Input interface section
  621 Head operation unit
  622 Torso operation part
  623 Arm operation unit
  624 finger operation unit
  625 operation panel
  626 Traveling operation unit
  631, 73a PHS device
  632, 73b Antenna
  711 Robot controller
  721 Driver part
  722 Motor part
  723 head
  724 Head motor
  725 Head position detector
  726 trunk
  727 Torso motor
  728 Same position detection unit
  729 Traveling part
  730 Motor for traveling
  731 Arm fingers
  732 Motor for arm
  733 Arm finger position detector
  734 Finger reaction force detection unit
  735 Sensor unit

Claims (3)

ロボット遠隔制御部とロボットコントロール部と前記ロボットコントロール部から制御されるロボット機構部とを備えたロボット遠隔制御システムであって、
前記ロボット遠隔制御部は、前記ロボットコントロール部に動作指示を与えるための動作コードを発生する第1のコンピュータ装置と、前記第1のコンピュータ装置から出力される前記動作コードを無線伝送データに変換する第1のデータ通信カードと、前記無線伝送データをアンテナを介して電波信号として送信する第1の移動体通信装置とを有し、
前記ロボットコントロール部は、前記電波信号をアンテナを介して受信して前記無線伝送データを出力する第2の移動体通信装置と、前記無線伝送データを前記動作コードに変換する第2のデータ通信カードと、前記動作コードを前記第2のデータ通信カードから入力して出力する第2のコンピュータ装置と、前記第2のコンピュータ装置から出力された前記動作コードに基づいて前後退、左右回転を含む動作を行う前記ロボット機構部に動きを与えるロボットシーケンサ制御部とを有し、
前記第1のコンピュータ装置は、前進・後退・回転を含む動作を指示する動作指示キースイッチを有し、前記動作の指示を示す動作指示信号を前記動作指示キースイッチから入力したときは動作コードテーブルを検索し、前記動作指示信号に対応する動作コードを読み出して、読み出した前記動作コードを前記第1の移動体通信装置に出力し、
前記ロボットシーケンサ制御部は、前記動作コードが入力された場合に前記動作コードに対する前記動作指示が記憶された動作指示テーブルを検索し、前記検索した動作指示をリレーを動作させるためのリレーパターン信号として読み出す動作指示検索手段を有することを特徴とするロボット遠隔制御システム。
A robot remote control system comprising a robot remote control unit, a robot control unit, and a robot mechanism unit controlled from the robot control unit,
The robot remote control unit converts a first computer device that generates an operation code for giving an operation instruction to the robot control unit, and the operation code output from the first computer device into wireless transmission data. A first data communication card; and a first mobile communication device that transmits the wireless transmission data as a radio signal via an antenna;
The robot control unit includes a second mobile communication device that receives the radio signal via an antenna and outputs the wireless transmission data, and a second data communication card that converts the wireless transmission data into the operation code. A second computer device that inputs and outputs the operation code from the second data communication card, and an operation including forward and backward movement and left-right rotation based on the operation code output from the second computer device A robot sequencer control unit for giving motion to the robot mechanism unit for performing
The first computer device has an operation instruction key switch for instructing an operation including a forward movement, a backward movement, and a rotation , and an operation code table when an operation instruction signal indicating the operation instruction is input from the operation instruction key switch. And reading the operation code corresponding to the operation instruction signal, and outputting the read operation code to the first mobile communication device ,
When the operation code is input, the robot sequencer control unit searches an operation instruction table in which the operation instruction for the operation code is stored, and uses the searched operation instruction as a relay pattern signal for operating a relay. A robot remote control system comprising operation instruction retrieval means for reading .
ロボット遠隔制御システムと画像遠隔処理システムとを備えたロボット画像遠隔制御処理システムであって、
前記ロボット遠隔制御システムはロボット遠隔制御部とロボットコントロール部と前記ロボットコントロールから制御されるロボット機構部とを有し、前記画像遠隔処理システムは画像遠隔制御部と画像処理部とを有し、
前記ロボット遠隔制御部は、前記ロボットコントロール部に動作指示を与えるための動作コードを発生すると共に前記画像処理部を制御するための制御コードを発生する第1のコンピュータ装置と、前記第1のコンピュータ装置から出力される前記動作コードと前記制御コードとを第1の無線伝送データに変換する第1のデータ通信カードと、前記第1の無線伝送データをアンテナを介して第1の電波信号として送信する第1の移動体通信装置とを有し、
前記ロボットコントロール部は、前記第1の電波信号をアンテナを介して受信し前記第1の無線伝送データを出力する第2の移動体通信装置と、前記第1の無線伝送データを前記動作コードと前記制御コードとに変換する第2のデータ通信カードと、前記動作コードと前記制御コードとを前記第2のデータ通信カードから入力して出力する第2のコンピュータ装置と、前記第2のコンピュータ装置から出力された前記動作コードに基づいて前進、後退、左右回転を含む動作を行う前記ロボット機構部に動きを与えると共に前記第2のコンピュータ装置から出力される前記制御コードをそのまま出力するロボットシーケンサ制御部とを有し、
前記ロボット機構部は、周囲の被写体を撮像してアナログ画像信号として出力する複数のカメラと、前記ロボットコントロール部のロボットシーケンサ制御部から出力される制御コードに基づいて前記複数のカメラからのアナログ画像信号を選択して出力する画像選択部とを有し、
前記画像遠隔制御部は、アナログ音声信号とデジタル音声信号との相互変換を行うと共にデジタル画像信号をアナログ画像信号へ変換する画像音声変換部と、デジタル音声信号とデジタル画像信号の入出力を行うと共に画像送信指示データを出力する第3のコンピュータ装置と、前記第3のコンピュータ装置から出力されるデジタル音声信号や画像送信指示データを第2の無線伝送データに変換する第3のデータ通信カードと、前記第2の無線伝送データをアンテナを介して第2の電波信号として送信する第3の移動体通信装置とを有し、
前記画像処理部は、前記第2の電波信号をアンテナを介して受信して前記第2の無線伝送データを出力する第4の移動体通信装置と、前記第2の無線伝送データをデジタル音声信号に変換すると共にデジタル画像信号を第3の無線伝送データに変換する第4のデータ通信カードと、デジタル音声信号を前記第4のデータ通信カードから入力して出力すると共にデジタル画像信号を出力する第4のコンピュータ装置と、前記第4のコンピュータ装置から出力されたデジタル音声信号をアナログ音声信号へ又はマイクロフォンからのアナログ音声信号をデジタル音声信号へ変換すると共に前記画像選択部からのアナログ画像信号をデジタル画像信号へ変換して前記第4のコンピュータ装置へ出力する画像音声変換部と、を有することを特徴とするロボット画像遠隔制御処理システム。
A robot image remote control processing system comprising a robot remote control system and an image remote processing system,
The robot remote control system has a robot remote control unit, a robot control unit, and a robot mechanism unit controlled by the robot control, and the image remote processing system has an image remote control unit and an image processing unit,
The robot remote control unit generates an operation code for giving an operation instruction to the robot control unit and generates a control code for controlling the image processing unit; and the first computer A first data communication card for converting the operation code and the control code output from the apparatus into first wireless transmission data; and transmitting the first wireless transmission data as a first radio wave signal via an antenna. A first mobile communication device that
The robot control unit receives the first radio wave signal via an antenna and outputs the first radio transmission data; the first radio transmission data as the operation code; A second data communication card for converting into the control code; a second computer device for inputting and outputting the operation code and the control code from the second data communication card; and the second computer device. Robot sequencer control that gives motion to the robot mechanism that performs operations including forward, backward, and left-right rotation based on the operation code output from the robot and outputs the control code output from the second computer device as it is And
The robot mechanism unit images a surrounding subject and outputs it as analog image signals, and analog images from the plurality of cameras based on a control code output from a robot sequencer control unit of the robot control unit An image selection unit that selects and outputs a signal;
The image remote control unit performs mutual conversion between an analog audio signal and a digital audio signal, converts an image audio signal into an analog image signal, and inputs / outputs the digital audio signal and the digital image signal. A third computer device that outputs image transmission instruction data; a third data communication card that converts digital audio signals and image transmission instruction data output from the third computer device into second wireless transmission data; A third mobile communication device that transmits the second wireless transmission data as a second radio wave signal via an antenna;
The image processing unit receives the second radio wave signal via an antenna and outputs the second wireless transmission data; and the second wireless transmission data is converted into a digital audio signal. And a fourth data communication card for converting a digital image signal into third wireless transmission data, a digital audio signal being input from the fourth data communication card and output, and a digital image signal being output. 4 and a digital audio signal output from the fourth computer device are converted into an analog audio signal or an analog audio signal from a microphone is converted into a digital audio signal, and the analog image signal from the image selection unit is converted into a digital signal. An audio / video conversion unit that converts the image signal into an image signal and outputs the image signal to the fourth computer device. Bot image remote control processing system.
前記複数のカメラは、前記ロボット機構部の頭部、足部および手部に配置されたことを特徴とする請求項に記載のロボット画像遠隔制御処理システム。The robot image remote control processing system according to claim 2 , wherein the plurality of cameras are arranged on a head, a foot, and a hand of the robot mechanism unit.
JP33209799A 1998-11-24 1999-11-22 Robot remote control system and robot image remote control processing system Expired - Fee Related JP3635626B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33209799A JP3635626B2 (en) 1998-11-24 1999-11-22 Robot remote control system and robot image remote control processing system

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP33312898 1998-11-24
JP10-333128 1998-11-24
JP11-304739 1999-10-26
JP30473999 1999-10-26
JP33209799A JP3635626B2 (en) 1998-11-24 1999-11-22 Robot remote control system and robot image remote control processing system

Publications (2)

Publication Number Publication Date
JP2001195113A JP2001195113A (en) 2001-07-19
JP3635626B2 true JP3635626B2 (en) 2005-04-06

Family

ID=27338706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33209799A Expired - Fee Related JP3635626B2 (en) 1998-11-24 1999-11-22 Robot remote control system and robot image remote control processing system

Country Status (1)

Country Link
JP (1) JP3635626B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020000538A (en) * 2001-12-05 2002-01-05 이정욱 Remote robot control system using ethernet
JP4509753B2 (en) * 2004-12-01 2010-07-21 株式会社テムザック Double-arm robot system
JP2006334695A (en) * 2005-05-31 2006-12-14 Kyoto Univ Remote control device
US9409292B2 (en) 2013-09-13 2016-08-09 Sarcos Lc Serpentine robotic crawler for performing dexterous operations
US9566711B2 (en) * 2014-03-04 2017-02-14 Sarcos Lc Coordinated robotic control
US10071303B2 (en) 2015-08-26 2018-09-11 Malibu Innovations, LLC Mobilized cooler device with fork hanger assembly
US10807659B2 (en) 2016-05-27 2020-10-20 Joseph L. Pikulski Motorized platforms
JP7189811B2 (en) * 2019-03-08 2022-12-14 株式会社フジ医療器 controller chair

Also Published As

Publication number Publication date
JP2001195113A (en) 2001-07-19

Similar Documents

Publication Publication Date Title
US6232735B1 (en) Robot remote control system and robot image remote control processing system
JP3635626B2 (en) Robot remote control system and robot image remote control processing system
JP5122770B2 (en) Mobile object guidance system capable of video recognition
CN100539451C (en) Rotating user interface
JP4915417B2 (en) robot
US4865610A (en) Devices for controlling electrically operated appliances
KR101451271B1 (en) Broadcast receiving apparatus and control method thereof
WO2004110702A1 (en) Robot remote control system
EP1761019B1 (en) Mobile robot system and method of remote-controlling the same
KR20060019273A (en) Head mounted display information terminal and apparatus and method for inputting key
CN109605363A (en) Robot voice control system and method
JPH06103956B2 (en) Remote control transmitter that emits control commands
JP2007213190A (en) Communication robot improvement system
KR100925707B1 (en) Automatic Public-Performance Apparatus for Robot
KR20210071785A (en) Mobile robot that can be used as a shopping cart
KR20130060952A (en) Remote control system for service robot
JPH07295637A (en) Reception and information robot system
JPH06350893A (en) Image pickup device
JP2007160427A (en) Robot control system
US20200001459A1 (en) Robot system and control method of the same
KR20100086208A (en) Robot
JP2706864B2 (en) Surveillance TV camera remote control system
KR20180029150A (en) Remote mobile robot and control method for the remote mobile robot using user terminal
JP2006067393A (en) Viewing system
KR101480890B1 (en) Broadcast receiving apparatus and control method thereof

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040329

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20040903

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040910

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20040903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041224

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090114

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100114

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110114

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120114

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130114

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees