JP4288843B2 - 遠隔作業支援システム - Google Patents
遠隔作業支援システム Download PDFInfo
- Publication number
- JP4288843B2 JP4288843B2 JP2000325916A JP2000325916A JP4288843B2 JP 4288843 B2 JP4288843 B2 JP 4288843B2 JP 2000325916 A JP2000325916 A JP 2000325916A JP 2000325916 A JP2000325916 A JP 2000325916A JP 4288843 B2 JP4288843 B2 JP 4288843B2
- Authority
- JP
- Japan
- Prior art keywords
- operator
- work
- image
- support system
- instruction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40136—Stereo audio and vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40183—Tele-machining
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40195—Tele-operation, computer assisted manual operation
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- User Interface Of Digital Computer (AREA)
- Digital Computer Display Output (AREA)
- Closed-Circuit Television Systems (AREA)
Description
【発明の属する技術分野】
本発明は、遠隔作業支援システムに関するものである。
【0002】
【従来の技術】
従来、一般に、製造業において、工場部門と設計部門とはそれぞれの設備環境が異なるので、互いにかなり離れた場所に設置されることが多い。したがって、工場部門と設計部門との間における情報交換は、部品図、組立図等の図面、作業指示書、設計担当者が工場部門に出張した際の打合せ、作業訓練等によって行われるようになっている。
【0003】
特に、工場部門において突発性の障害が発生した場合には、電話、ファクシミリ等による指示で対応し、それでも十分でない場合には、設計担当者が工場部門に出張して対応するようにしている。
【0004】
ところで、最近、工場部門と設計部門とを企業内ネットワークで接続し、図面、作業指示書等をリアルタイムで発行したり、打合せに応じて改版したりすることができるようにした遠隔作業支援システムが提供されている。そして、工場部門の製造ラインにおいて設計上の問題が発生すると、問題が発生した部位を作業者がディジタルカメラで撮影し、撮影によって取得された画像情報を企業内ネットワークで設計部門に送るようにしている。
【0005】
【発明が解決しようとする課題】
しかしながら、前記従来の遠隔作業支援システムにおいては、作業者が確認した部位だけが撮影されるので、特定の画像情報だけが送られるにすぎない。したがって、設計担当者は、前記画像情報を受け取った後、作業者に、問題が発生した部位における背景を撮影するように指示したり、撮影する部位を変えるように指示したりしなければならない。
【0006】
そのため、問題が発生した原因を分析するのに時間がかかり、結局、設計担当者が工場部門に出張して、問題が発生した部位の周辺の部分、異なる部位等を自分の目で直接確認する必要が生じる。
【0007】
すなわち、企業内ネットワークによって工場部門と設計部門とが接続されているにもかかわらず、作業者と設計担当者とは、図面、作業指示書等と同レベルの情報を共有することができず、情報の共有性は低い。
【0008】
また、最近は、工場部門を海外に移転させる企業が増加してきている。したがって、問題が発生した原因を分析するのに必要な時間が長くなるだけでなく、製造品のコストが高くなってしまう。
【0009】
本発明は、前記従来の遠隔作業支援システムの問題点を解決して、作業者と設計担当者との間で情報の共有性を高くすることができ、問題が発生した原因を分析するのに必要な時間を短くすることができるだけでなく、製造品のコストを低くすることができる遠隔作業支援システムを提供することを目的とする。
【0010】
【課題を解決するための手段】
そのために、本発明の遠隔作業支援システムにおいては、第1の操作者の右目及び左目に対応させて二つ配設され、第1の操作者による作業の対象となる作業対象装置を撮影する撮像手段と、前記第1の操作者の右目及び左目に対応させて二つ配設され、前記各撮像手段によって撮影された作業対象装置の画像を第1の操作者に対して表示するための第1の表示部と、第2の操作者の右目及び左目に対応させて二つ配設され、前記画像を第2の操作者に対して表示するための第2の表示部と、前記第2の操作者によって操作される操作部と、該操作部の操作に基づいて、前記各第1の表示部の画面に指示内容を表示する指示内容表示処理手段と、前記作業対象装置における所定の部位について検査を行うための検査装置と、前記第1の操作者側に配設され、前記検査装置による検査結果を第2の操作者側に送る検査情報送信処理手段と、前記第2の操作者側に配設され、前記検査装置による検査の測定基準値を検索する測定基準値検索処理手段と、前記第2の操作者側に配設され、前記測定基準値を第1の操作者側に送る測定基準値送信処理手段とを有する。
【0011】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照しながら詳細に説明する。
【0012】
図1は本発明の第1の実施の形態における遠隔作業支援システムを示す第1の概念図、図2は本発明の第1の実施の形態における遠隔作業支援システムを示す第2の概念図、図3は本発明の第1の実施の形態における作業者端末の使用状態を示す図である。
【0013】
図において、1は第1の操作者としての作業者、1aは該作業者1の右目、1bは前記作業者1の左目、2は設計担当者及び第2の操作者としての作業指示者、2aは該作業指示者2の右目、2bは前記作業指示者2の左目、3は前記作業者1による作業の対象となる作業対象装置、4は作業者1の右手、S1は作業者1側の端末としての作業者端末、S2は作業指示者2側の端末としての作業指示者端末である。
【0014】
前記作業対象装置3は、第1のスイッチ3a、第2のスイッチ3b、モータギヤ3c、該モータギヤ3cと噛(し)合させられる出力ギヤ3d、タイミングベルト3e、テンションプーリ3f及び第1、第2のプーリ3g、3hを備え、前記タイミングベルト3eは前記第1、第2のプーリ3g、3h及びテンションプーリ3f間に張設される。
【0015】
また、5は画像入力装置、6は前記作業対象装置3を撮影する撮像手段としてのカメラ、7は第1のLCD、8は第2のLCD、9は作業者1の音声を入力するための第1の音声入力手段としてのマイク、10は第1の音声出力手段としてのスピーカ、11は画像入力部、12、22はLCD制御部、13、21はCPU、14、35はメモリ、15、36は電源部、16、20、39はインタフェース部、17、19、38はモデム、18は該モデム17、19間に配設された通信ネットワークとしてのインターネット網、23はLCD、24は指示入力アイコン、25は部品検索アイコン、26は形状入力アイコン、27は完了アイコン、28はマウスアイコン、29は作業指示者2の音声を入力するための第2の音声入力手段としてのマイク、30は第2の音声出力手段としてのスピーカ、31は作業指示者2の左手、32は作業指示者2によって操作される操作部としてのマウス、33は左スイッチ、34は右スイッチ、37はイントラネット網、40はデータベース(DB)、90はキーボードである。
【0016】
前記構成の遠隔作業支援システムにおいて、カメラ6によって撮影された作業対象装置3の画像(作業者1の右手4の画像も含まれる。)は、第1、第2のLCD7、8の画面に作業者1に対して表示され、作業者1は前記画像を目視する。なお、第1、第2のLCD7、8によって第1の表示部が、LCD23によって第2の表示部が構成される。カメラ6は作業者1の右目1a及び左目1bのほぼ中央に配置される。
【0017】
また、第1のLCD7は右目1aと対向する位置に、第2のLCD8は左目1bと対向する位置に配設される。なお、第1、第2のLCD7、8を一つの大きなLCDにして、作業者1の顔と対向させて配設することもできるが、第1、第2のLCD7、8を分割して配設する方が、画像入力装置5を小型化し、軽量化することができる。したがって、図3に示されるように、画像入力装置5を作業者1の顔に装着した場合、違和感がなくなるとともに、重さで画像入力装置5が作業者1の顔からずれることが少なくなる。
【0018】
作業者1側、すなわち、作業者端末S1側においてカメラ6によって撮影された作業対象装置3の画像は、画像入力部11においてディジタル信号に変換され、CPU13、インタフェース部16、モデム17、インターネット網18及びモデム19を介して、遠隔地に配設された作業指示者2側、すなわち、作業指示者端末S2側に画像情報として送られ、LCD23の画面に作業指示者2に対して表示される。そして、前記カメラ6は、作業者1の視線とほぼ同じ画角を有するので、作業指示者2は、LCD23の画面に表示された画像を、作業者1の視線と同じ視線で目視することができる。したがって、作業者1及び作業指示者2は、作業対象装置3の画像情報を共有することができる。
【0019】
次に、作業者1及び作業指示者2によって共有される画像情報に作業指示を入力する方法について説明する。
【0020】
前記LCD23の画面には、作業指示者2が左手31でマウス32を操作することによってマウスアイコン28が任意の位置に指示内容として表示されるほかに、作業指示者2が指示を入力するための指示入力アイコン24、作業指示者2が部品検索を行うための部品検索アイコン25、作業指示者2が部品の形状を入力するための形状入力アイコン26、完了アイコン27等のアイコン群が画面の上部の位置に指示内容として表示される。そのために、前記CPU13に図示されない第1の指示内容表示処理手段が、CPU21に図示されない第2の指示内容表示処理手段が配設され、第1、第2の指示内容表示処理手段によって、前記マウスアイコン28及びアイコン群が表示される。
【0021】
作業指示者2は、マウス32を操作して、指示入力アイコン24、部品検索アイコン25及び形状入力アイコン26のうちの所定のアイコンを選択し、続いて、画面上に表示されるコマンドに従って所定の指示を入力する。
【0022】
図4は本発明の第1の実施の形態における遠隔作業支援システムの動作を示す第1のフローチャート、図5は本発明の第1の実施の形態における遠隔作業支援システムの動作を示す第2のフローチャート、図6は本発明の第1の実施の形態における遠隔作業支援システムの動作を示す第3のフローチャート、図7は本発明の第1の実施の形態における遠隔作業支援システムの動作を示す第4のフローチャート、図8は本発明の第1の実施の形態における遠隔作業支援システムの動作を示す第5のフローチャート、図9は本発明の第1の実施の形態における遠隔作業支援システムの動作を示す第6のフローチャート、図10は本発明の第1の実施の形態における点指示アイコンが選択されたときのLCDの画面の表示例を示す図、図11は本発明の第1の実施の形態における範囲指示アイコンが選択されたときのLCDの画面の表示例を示す図、図12は本発明の第1の実施の形態における部品検索アイコンが選択されたときのLCDの画面の表示例を示す図、図13は本発明の第1の実施の形態における形状入力アイコンが選択されたときのLCDの画面の表示例を示す第1の図、図14は本発明の第1の実施の形態における形状入力アイコンが選択されたときのLCDの画面の表示例を示す第2の図である。
【0023】
作業指示者2(図2)が、指示入力アイコン24を選択すると、図10に示されるように、LCD23の画面の右下に、リアルタイム指示アイコン45、点指示アイコン46及び範囲指示アイコン47から成る詳細指示アイコン群が表示される。
【0024】
そして、作業指示者2が、詳細指示アイコン群のうちのリアルタイム指示アイコン45を選択すると、マウスアイコン28の座標値(x,y)が検出され、続いて、作業指示者2がマウスアイコン28を移動させると、移動先のマウスアイコン28の座標値(x,y)が検出され、該座標値(x,y)がインターネット網18を介してCPU13(図1)に送られる。該CPU13は、あらかじめメモリ14に記録されているマウスアイコン表示プログラムを起動し、前記座標値(x,y)のデータを用いて、第1、第2のLCD7、8の画面にマウスアイコンを表示する。したがって、作業者1は第1、第2のLCD7、8の画面に表示されたマウスアイコンを目視することによって、遠隔地にいる作業指示者2の作業指示を確認することができる。
【0025】
また、作業指示者2が、点指示アイコン46を選択すると、LCD23の画面上において、図5に示されるフローチャートに従って、マウスアイコン28の色及びサイズが変更され、図10に示されるように、マウスアイコン28に代えて指示アイコン41が作成され、表示される。そして、作業指示者2は、マウス32を操作して前記指示アイコン41を移動させ、作業者1による作業の部位を指示するための指示点において左スイッチ33を押す。
【0026】
これにより、指示アイコン41は、複写され、前記左スイッチ33が押された指示点の座標位置に、前記指示点を表す複写アイコンCi(i=1、2、…)が固定された状態で表示される。なお、複写アイコンCiの座標値(Xa,Ya)は、指示点の順番を表す値iと共にメモリ35に記録される。そして、座標値(Xa,Ya)及び値iが画像情報としてインターネット網18を介してCPU13に送られると、CPU13は、メモリ14にあらかじめ記録されている複写アイコン表示プログラムを起動し、前記座標値(Xa,Ya)及び値iに基づいて、第1、第2のLCD7、8の画面に複写アイコン及び前記値iを表示する。
【0027】
これにより、作業指示者2が作業者1に作業指示を説明するに当たり、作業の部位を複写アイコンCiによって任意に特定することができるので、作業を簡素化することができる。また、作業者1は、第1、第2のLCD7、8の画面に表示された複写アイコンを目視することによって、作業指示者2の作業指示を確認することができる。
【0028】
そして、作業指示者2が、範囲指示アイコン47を選択すると、LCD23の画面上において、図6に示されるフローチャートに従って、作業者1による作業の部位を指示する指示枠を設定することができる。そのために、作業指示者2が、マウス32を操作し、マウスアイコン28を移動させることによって、前記指示枠の始点を入力し、左スイッチ33を押すと、始点の座標値(X1,Y1)がメモリ35に記録され、再びマウスアイコン28を移動させることによって、前記指示枠の終点を入力し、左スイッチ33を押すと、終点の座標値(X2,Y2)がメモリ35に記録される。そして、前記各座標値(X1,Y1)、(X2,Y2)に基づいて指示枠が設定され、該指示枠を表す指示枠アイコンFj(j=1、2、…)が、図11に示されるように、LCD23の画面に表示される。なお、指示枠の順番を表す値jは、前記各座標値(X1,Y1)、(X2,Y2)と共にメモリ35に記録される。また、前記各座標値(X1,Y1)、(X2,Y2)及び値jは、画像情報としてインターネット網18を介してCPU13に送られ、CPU13は、メモリ14にあらかじめ記録されている指示枠アコン表示プログラムを起動し、前記座標値(X1,Y1)、(X2,Y2)及び値jのデータに基づいて、第1、第2のLCD7、8の画面に指示枠アイコン及び値jを表示する。
【0029】
これにより、作業指示者2が作業者1に作業指示を説明するに当たり、作業の部位を指示枠アイコンFjによって任意に特定することができるので、作業を簡素化することができる。また、作業者1は、第1、第2のLCD7、8の画面に表示された指示枠アイコンを目視することによって、作業指示者2の作業指示を確認することができる。
【0030】
そして、作業指示者2が、部品検索アイコン25を選択すると、図12に示されるように、LCD23の画面の右下に部品ウィンドウ51が表示される。このとき、作業指示者2は、図7に示されるフローチャートに従って、マウスアイコン28を部品番号入力欄52に移動させ、該部品番号入力欄52を入力状態にした後、部品検索を希望する部品番号をキーボード90によって入力する。その後、部品ウィンドウ51内に表示されたスタート(START)ボタン55にマウスアイコン28を移動させ、左スイッチ33又は右スイッチ34によってスタートボタン55を押すと、前記CPU21の図示されない部品検索処理手段は、部品検索処理を行う。そして、データがある場合、部品番号に対応する部品の名称が名称欄53に、部品番号に対応する部品の図形が図形欄54に表示される。
【0031】
この場合、部品検索処理は、メモリ35に記録された部品データに基づいて行われるが、メモリ35に部品データが記録されていない場合、イントラネット網37を介して、データベース40に記録された部品データに基づいて行われる。そして、データベース40において目的とする部品データが検索された場合、検索された部品、すなわち、検索部品50の部品データはメモリ35にダウンロードされる。
【0032】
部品検索処理が終了すると、部品ウィンドウ51に部品情報送信要否(Y/N)コマンドが表示される。作業指示者2が部品情報送信要否コマンドに要(Y)を入力すると、部品情報は、画像情報としてインターネット網18を介してメモリ14に送られ、記録される。また、第1、第2のLCD7、8の画面には、部品ウィンドウ51と同じ部品ウィンドウが表示される。
【0033】
なお、56はエンド(END)ボタン、58は実際に作業対象装置3に搭載され、作業者1による作業の対象となる部品、すなわち、対象部品である。
【0034】
これにより、作業指示者2が作業者1に作業指示を説明するに当たり、対象部品58の名称及び形状を特定することができるので、作業を簡素化することができる。また、作業者1は、第1、第2のLCD7、8の画面に表示された部品ウィンドウを目視することによって、作業指示者2の作業指示を確認することができる。
【0035】
例えば、図12に示されるように、対象部品58の形状と検索部品50の形状とが異なる(検索部品50にはねじ穴があるのに対して、対象部品58にはねじ穴がない。)ことを容易に確認することができる。
【0036】
また、作業指示者2が形状入力アイコン26を選択すると、図13に示されるように、LCD23の画面の右下に部品ウィンドウ51が表示される。このとき、作業指示者2は、図8及び9に示されるフローチャートに従って、マウスアイコン28を部品番号入力欄52に移動させ、該部品番号入力欄52を入力状態にした後、部品検索を希望する部品番号をキーボード90によって入力する。その後、部品ウィンドウ51内に表示されたスタートボタン55にマウスアイコン28を移動させ、左スイッチ33又は右スイッチ34によってスタートボタン55を押すと、前記部品検索処理手段は部品検索処理を行う。そして、データがある場合、部品番号に対応する部品の名称が名称欄53に、部品番号に対応する検索部品50の図形が図形欄54に表示される。
【0037】
この場合、部品検索処理は、メモリ35に記録された部品データに基づいて行われるが、メモリ35に部品データが記録されていない場合、イントラネット網37を介して、データベース40に記録された部品データに基づいて行われる。そして、データベース40において目的とする部品データが検索された場合、該部品データはメモリ35にダウンロードされる。
【0038】
次に、前記検索部品50を対象部品58に重ね表示するために、該対象部品58の画像の表示倍率、すなわち、画像倍率値を算出するための処理について説明する。
【0039】
まず、作業指示者2は、マウスアイコン28を対象部品58の位置に移動させ、該対象部品58の大きさを指定する。そのために、図13に示されるように、対象部品58を包囲する包囲枠の始点の座標値(x1,y1)及び終点の座標値(x2,y2)を左スイッチ33を押して記録すると、記録された座標値(x1,y1)、(x2,y2)から、包囲枠のX軸方向及びY軸方向の長さΔx、Δyが、LCD23の表示画素数(M,N)に基づいて算出される。この場合、対象部品58の寸法は、検索部品50の部品データに基づいて確認することができる。前記長さΔx、Δy、部品データ、及びマウス32の表示ドット数の相関関係に基づいて、LCD23の画面上において検索部品50を対象部品58に重ね表示するための画像倍率値Sx 、Sy が算出される。
【0040】
すなわち、LCD23の表示画素数(M,N)、カメラ6の撮像素子の画素数(m,n)、前記撮像素子の画素ピッチ(w,h)、対象部品58の実際のサイズ(X,Y)等が分かっているので、長さΔx、Δyに基づいて前記画像倍率値Sx 、Sy が次の式によって算出され、算出された画像倍率値Sx 、Sy は部品ウィンドウ51内に表示される。
【0041】
Sx =m・w・Δx/(M・X)
Sy =n・h・Δy/(N・Y)
作業指示者2は、画像倍率値Sx 、Sy を確認した後、部品ウィンドウ51内のフィックス(Fix)ボタン57にマウスアイコン28を移動させ、左スイッチ33又は右スイッチ34によってフィックスボタン57を押す。これによって、図形欄54に表示された検索部品50は、図14に示されるように、前記画像倍率値Sx 、Sy を用いて変換され、前記始点の座標値(x1,y1)及び終点の座標値(x2,y2)に基づいて対象部品58と重ね合わせられる。
【0042】
このとき、前記部品データ、座標値(x1,y1)、(x2,y2)及び画像倍率値Sx 、Sy が、重ね表示情報及び画像情報としてインターネット網18を介してCPU13に送られ、該CPU13は、前記重ね表示情報をメモリ14に記録するとともに、該メモリ14にあらかじめ記録されている形状入力アイコン表示プログラムを起動し、前記部品データ、座標値(x1,y1)、(x2,y2)及び画像倍率値Sx 、Sy に基づいて、第1、第2のLCD7、8の画面に表示された対象部品に検索部品を重ねて表示する。
【0043】
これにより、作業指示者2が作業者1に作業指示を説明するに当たり、対象部品58と検索部品50との差を明らかにすることができるので、作業を簡素化することができる。また、作業者1が作業指示を受けるに当たり、図面を探す時間を短くすることができる。なお、4は作業者1の右手、27は完了アイコンである。
【0044】
ところで、この場合、作業者1と作業指示者2との間において画像情報を共有することができるが、画像情報を作業者端末S1から作業指示者端末S2に送ったり、作業指示者端末S2から作業者端末S1に送ったりするタイミングを設定するのが困難であり、作業者1の状態を作業指示者2が把握するのが困難である。
【0045】
そこで、作業者1のCPU13にマイク9及びスピーカ10が、作業指示者2のCPU21にマイク29及びスピーカ30が接続される。したがって、作業者端末S1と作業指示者端末S2との間で画像情報を送受信する際に、作業者1がマイク9を使用して、作業指示の依頼を音声で入力することができ、作業指示者2は、作業指示の依頼を、LCD23の画面に表示されたメッセージだけでなく、スピーカ30から出力された音声でも確認することができる。そのために、CPU13に図示されない第1の音声情報送信処理手段が、CPU21に図示されない第2の音声情報送信処理手段が配設され、第1の音声情報送信処理手段は音声情報を作業指示者2側に、第2の音声情報送信処理手段は音声情報を作業者1側に送る。
【0046】
また、作業指示の依頼を音声で確認した作業指示者2は、作業指示を画像で送るときに、マイク29を使用し、作業箇所の位置を説明した内容を音声で入力することができ、作業者1は、作業指示を、画像で確認するだけでなく、スピーカ10から出力された音声でも確認することができる。
【0047】
このように、作業者1及び作業指示者2において情報の共有性を高くすることができるので、問題が発生した原因を分析するのに必要な時間を短くすることができるだけでなく、製造品のコストを低くすることができる。
【0048】
次に、フローチャートについて説明する。
ステップS1 指示入力アイコン24が選択されたかどうかを判断する。指示入力アイコン24が選択された場合はステップS2に、選択されていない場合はステップS10に進む。
ステップS2 詳細指示アイコン群を表示する。
ステップS3 リアルタイム指示アイコン45が選択されたどうかを判断する。リアルタイム指示アイコン45が選択された場合はステップS4に、選択されていない場合はステップS8に進む。
ステップS4 マウスアイコン28の座標値(x,y)を検出する。
ステップS5 マウスアイコン28を移動させる。
ステップS6 座標値(x,y)を送る。
ステップS7 左スイッチ33が押されたかどうかを判断する。左スイッチ33が押された場合はステップS1に、押されていない場合はステップS4に戻る。
ステップS8 点指示アイコン46が選択されたかどうかを判断する。点指示アイコン46が選択された場合はステップS13に、選択されていない場合はステップS9に進む。
ステップS9 範囲指示アイコン47が選択されたかどうかを判断する。範囲指示アイコン47が選択された場合はステップS26に進み、選択されていない場合はステップS1に戻る。
ステップS10 部品検索アイコン25が選択されたかどうかを判断する。部品検索アイコン25が選択された場合はステップS40に、選択されていない場合はステップS11に進む。
ステップS11 形状入力アイコン26が選択されたかどうかを判断する。形状入力アイコン26が選択された場合はステップS54に、選択されていない場合はステップS12に進む。
ステップS12 完了アイコン27が選択されたかどうかを判断する。完了アイコン27が選択された場合は処理を終了し、選択されていない場合はステップS1に戻る。
ステップS13 値iに1をセットする。
ステップS14 マウスアイコン28の色及びサイズを変更する。すなわち、指示アイコン41を表示する。
ステップS15 指示点を入力する。
ステップS16 左スイッチ33が押されたかどうかを判断する。左スイッチ33が押された場合はステップS17に、押されていない場合はステップS22に進む。
ステップS17 複写アイコンCiを作成する。
ステップS18 複写アイコンCiを表示し、座標値(Xa,Ya)を記録する。
ステップS19 座標値(Xa,Ya)を送る。
ステップS20 次の指示点が入力されたかどうかを判断する。次の指示点が入力された場合はステップS21に、入力されていない場合はステップS24に進む。
ステップS21 値iをインクリメントし、ステップS16に戻る。
ステップS22 右スイッチ34が押されたかどうかを判断する。右スイッチ34が押された場合はステップS23に進み、押されていない場合はステップS16に戻る。
ステップS23 複写アイコンCiの消去が指示されたかどうかを判断する。複写アイコンCiの消去が指示された場合はステップS24に、指示されていない場合はステップS25に進む。
ステップS24 複写アイコンCiを消去する。
ステップS25 マウスアイコン28を初期化し、ステップS1に戻る。
ステップS26 値jに1をセットする。
ステップS27 始点を入力する。
ステップS28 左スイッチ33が押されたかどうかを判断する。左スイッチ33が押された場合はステップS29に、押されていない場合はステップS32に進む。
ステップS29 始点の座標値(X1,Y1)を記録する。
ステップS30 終点を入力する。
ステップS31 左スイッチ33が押されたかどうかを判断する。左スイッチ33が押された場合はステップS33に、押されていない場合はステップS32に進む。
ステップS32 右スイッチ34が押されたかどうかを判断する。右スイッチ34が押された場合はステップS38に進み、押されていない場合はステップS27に戻る。
ステップS33 終点の座標値(X2,Y2)を記録する。
ステップS34 指示枠アイコンFjを表示する。
ステップS35 座標値(X1,Y1)、(X2,Y2)を送る。
ステップS36 次の指示枠の設定が指示されたかどうかを判断する。次の指示枠の設定が指示された場合はステップS37に、指示されていない場合はステップS38に進む。
ステップS37 値jをインクリメントし、ステップS27に戻る。
ステップS38 指示枠の消去が指示されたかどうかを判断する。指示枠の消去が指示された場合はステップS39に進み、指示されていない場合はステップS1に戻る。
ステップS39 指示枠を消去し、ステップS1に戻る。
ステップS40 部品ウィンドウ51を表示する。
ステップS41 部品番号を入力する。
ステップS42 スタートボタン55が押されたかどうかを判断する。スタートボタン55が押された場合はステップS45に、押されていない場合はステップS43に進む。
ステップS43 エンドボタン56が押されたかどうかを判断する。エンドボタン56が押された場合はステップS44に進み、押されていない場合はステップS40に戻る。
ステップS44 部品ウィンドウ51を消去し、ステップS1に戻る。
ステップS45 部品検索処理を行う。
ステップS46 データがあるかどうかを判断する。データがある場合はステップS49に、ない場合はステップS47に進む。
ステップS47 再入力の指示を表示する。
ステップS48 部品ウィンドウ51内の表示をクリアし、ステップS40に戻る。
ステップS49 名称及び図形を表示する。
ステップS50 部品情報を送るかどうかを判断する。部品情報を送る場合はステップS51に、送らない場合はステップS53に進む。
ステップS51 部品情報を送る。
ステップS52 送信が終了したかどうかを判断する。送信が終了した場合はステップS53に進み、終了していない場合はステップS51に戻る。
ステップS53 次の部品を検索するかどうかを判断する。次の部品を検索する場合はステップS40に戻り、検索しない場合はステップS44に進む。
ステップS54 部品ウィンドウ51を表示する。
ステップS55 部品番号を入力する。
ステップS56 スタートボタン55が押されたかどうかを判断する。スタートボタン55が押された場合はステップS59に、押されていない場合はステップS57に進む。
ステップS57 エンドボタン56が押されたかどうかを判断する。エンドボタン56が押された場合はステップS58に進み、押されていない場合はステップS55に戻る。
ステップS58 部品ウィンドウ51を消去し、ステップS1に戻る。
ステップS59 部品検索処理を行う。
ステップS60 データがあるかどうかを判断する。データがある場合はステップS63に、ない場合はステップS61に進む。
ステップS61 再入力の指示を表示する。
ステップS62 部品ウィンドウ51内の表示をクリアし、ステップS55に戻る。
ステップS63 名称及び図形を表示し、記録する。
ステップS64 包囲枠を入力する。
ステップS65 始点を入力する。
ステップS66 左スイッチ33が押されたかどうかを判断する。左スイッチ33が押された場合はステップS69に、押されていない場合はステップS67に進む。
ステップS67 右スイッチ34が押されたかどうかを判断する。右スイッチ34が押された場合はステップS68に進み、押されていない場合はステップS65に戻る。
ステップS68 再指定が行われたかどうかを判断する。再指定が行われた場合はステップS65に戻り、行われていない場合はステップS58に進む。
ステップS69 始点の座標値(x1,y1)を記録する。
ステップS70 終点を入力する。
ステップS71 左スイッチ33が押されたかどうかを判断する。左スイッチ33が押された場合はステップS72に進み、押されていない場合はステップS65に戻る。
ステップS72 終点の座標値(x2,y2)を記録する。
ステップS73 画像倍率値Sx 、Sy を算出する。
ステップS74 画像倍率値Sx 、Sy を表示する。
ステップS75 フィックスボタン57が押されたかどうかを判断する。フィックスボタン57が押された場合はステップS77に、押されていない場合はステップS76に進む。
ステップS76 終了入力が行われたかどうかを判断する。終了入力が行われた場合はステップS58に進み、行われていない場合はステップS74に戻る。
ステップS77 検索部品50を変換する。
ステップS78 重ね表示を行う。
ステップS79 重ね表示情報を送る。
ステップS80 次の形状入力アイコン26が選択されたかどうかを判断する。次の形状入力アイコン26が選択された場合はステップS54に、選択されていない場合はステップS58に進む。
【0049】
ところで、第1の実施の形態においては、作業者1がねじ緩み又はベルト緩みを検査している場合、その作業状況を確認することができるが、緩みという力情報を作業指示者2が取得することができない。そこで、作業者1がねじ緩み又はベルト緩みを検査するための検査装置を備えるようにした、本発明の第2の実施の形態について説明する。なお、第1の実施の形態と同じ構造を有するものについては、同じ符号を付与することによってその説明を省略する。
【0050】
図15は本発明の第2の実施の形態における検査装置の斜視図、図16は本発明の第2の実施の形態における遠隔作業支援システムを示す第1の概念図、図17は本発明の第2の実施の形態における遠隔作業支援システムを示す第2の概念図、図18は本発明の第2の実施の形態におけるLCDの画面の表示例を示す図である。
【0051】
図において、59は作業対象装置3における所定の部位について検査を行うための検査装置、60は作業工具、61は力センサ部、62は操作部、63は検査方向目印、64は信号線、65はセンサ制御部、66は力情報表示ウィンドウである。
【0052】
前記検査装置59は、作業工具60と操作部62との間に、二つの力F1、F2及び一つの回転トルクTを測定することができる力センサ部61を備える。この場合、力F1は作業工具60の曲がり方向(検査方向目印63を含む垂直方向)に作用する力、力F2は作業工具60の軸方向に作用する力、回転トルクTは作業工具60の軸回りに作用するトルクである。
【0053】
そして、前記力センサ部61は、各方向に力F1、F2及び回転トルクTが作用した場合に、力F1、F2及び回転トルクTに比例した電圧を発生させる。該電圧は、信号線64によってセンサ制御部65に送られてディジタル信号に変換され、該ディジタル信号はCPU13に送られる。CPU13は、メモリ14にあらかじめ記録されている力測定プログラムを起動し、前記ディジタル信号を力の大きさに変換し、検査結果としての力データとしてメモリ14に記録する。なお、記録された力データに基づいて、メモリ14にあらかじめ記録されている力データ表示プログラムによって、第1の操作者としての作業者1が目視している第1、第2のLCD7、8の画面に力情報表示ウィンドウが作成され、該力情報表示ウィンドウ内の数値表示欄に、力F1、F2及び回転トルクTの力データが指示内容として表示される。
【0054】
また、前記力データは、設計担当者及び第2の操作者としての作業指示者2からの指示によってインターネット網18を介してメモリ35にダウンロードされる。そして、メモリ35にあらかじめ記録された力データ表示プログラムによって、作業指示者2が目視しているLCD23の画面に力情報表示ウィンドウ66が作成され、図18に示される数値表示欄66a〜66cに、力F1、F2及び回転トルクTの力データが表示される。
【0055】
また、力センサ部61からセンサ制御部65を介して得られたディジタル信号を、そのままインターネット網18を介して作業指示者2のCPU21に送り、メモリ35にあらかじめ記録された力測定プログラム及び力データ表示プログラムによって、各数値表示欄66a〜66cに力データを表示することもできる。そのために、前記CPU13に図示されない検査情報送信処理手段が配設され、該検査情報送信処理手段によって前記ディジタル信号が作業指示者端末S2に送られる。
【0056】
この場合、CPU13は、前記力測定プログラム及び力データ表示プログラムを起動し、力センサ部61からセンサ制御部65を介して送られたディジタル信号に基づいて、第1、第2のLCD7、8の画面における前記数値表示欄に力データを表示することもできる。
【0057】
したがって、作業者1及び作業指示者2は、作業者1が検査装置59の作業工具60の先端を作業対象装置3における検査の対象となる部位に接触させ、操作部62を検査方向に動かすことによって、部位の組立状態を同時に確認することができる。
【0058】
また、図16に示されるように、作業者1が力F1の検査方向を、タイミングベルト3eにおけるテンションプーリ3fと第1のプーリ3gとの間の部分A、及びテンションプーリ3fと第2のプーリ3hとの間の部分Bの各張設方向に合わせることによって、タイミングベルト3eの張力を測定することができる。しかも、測定された張力と、第1、第2のLCD7、8に表示された力情報表示ウィンドウ、又はLCD23に表示された力情報表示ウィンドウ66の各力F1、F2とが等しいかどうかを容易に確認することができる。
【0059】
なお、必要に応じて、作業指示者2は、メモリ35又はデータベース40にあらかじめ記録されている前記検査装置59による検査の測定基準値を検索し、該測定基準値を第1、第2のLCD7、8に表示された力情報表示ウィンドウ、又はLCD23に表示された力情報表示ウィンドウ66の欄外に表示することもできる。そのために、前記CPU21に図示されない測定基準値検索処理手段が配設され、該測定基準値検索処理手段は前記測定基準値を検索する。また、前記CPU21に図示されない測定基準値送信処理手段が配設され、該測定基準値送信処理手段は前記測定基準値を作業者端末S1に送る。この場合、作業者1及び作業指示者2が、力データと測定基準値とが等しいかどうかを同時に確認することができる。
【0060】
また、第1、第2のLCD7、8の画面に複写アイコン、指示枠等が表示されるので、特に、作業対象装置3に形状の同じ部品が隣接させて配設されていて、所定の部品について検査を行う場合に、作業者1は、検査の対象となる部品を容易に特定することができる。
【0061】
次に、本発明の第3の実施の形態について説明する。
【0062】
図19は本発明の第3の実施の形態における遠隔作業支援システムを示す図である。
【0063】
図において、67は作業対象装置、68は作業者用パソコン、69はLCDである。第1の操作者としての作業者1の顔に画像入力装置5が装着され、該画像入力装置5において、カメラ6、第1、第2のLCD7、8、マイク9及びスピーカ10が一体に形成される。そして、作業者1は、右手4に検査装置59を把持し、該検査装置59によって前記作業対象装置67の組立状態を検査する。
【0064】
前記カメラ6は、作業者1の視線上、すなわち、作業者1の右目1a(図1)と左目1bとのほぼ中央に配設され、カメラ6のレンズは、撮影視野と作業者1が両目で目視することができる視野とがほぼ同じになるよう、例えば、水平視野角が60〔°〕以上で、かつ、垂直視野角が40〔°〕以上になるように設定される。
【0065】
この場合、カメラ6によって撮影された作業対象装置67の画像は、画像入力装置5に配設された図示されない画像入力部においてディジタル信号に変換され、該ディジタル信号は作業者用パソコン68に送られ、該作業者用パソコン68の図示されないCPUによって処理される。なお、前記LCD69は第1、第2のLCD7、8の補助表示用として使用され、現場にいる他の作業者に画像情報を提供することができる。
【0066】
ところで、前記各実施の形態においては、1台のカメラ6によって撮影された作業対象装置3、67の画像が第1、第2のLCD7、8の画面に表示されるようになっている。したがって、作業者1は、目視している画像に距離感を持つことができない。その結果、両目で経験した距離感覚と同じ距離感覚で前記画像を目視しながら作業対象装置3、67に手を延ばそうとすると、違和感が生じ、空振りしてしまう。
【0067】
また、1台のカメラ6によって撮影された作業対象装置3、67の画像が一つのLCD23の画面に表示されるようになっているので、設計担当者及び第2の操作者としての作業指示者2は、目視している画像に距離感を持つことができない。
【0068】
そこで、作業者1の右目1a及び左目1bに対応させて2台のカメラを配設し、各カメラによって撮影された作業対象装置3、67の画像を、作業指示者端末S2(図2)側において二つのLCDの画面に表示するようにした本発明の第4の実施の形態について説明する。なお、第1の実施の形態と同じ構造を有するものについては、同じ符号を付与することによってその説明を省略する。
【0069】
図20は本発明の第4の実施の形態における遠隔作業支援システムを示す第1の概念図、図21は本発明の第4の実施の形態における遠隔作業支援システムを示す第2の概念図、図22は本発明の第4の実施の形態における作業者端末の使用状態を示す図である。
【0070】
図において、70はステレオ画像を入力する画像入力装置、7は第1の操作者としての作業者1の右目1aに対応させて配設された第1のLCD、8は作業者1の左目1bに対応させて配設された第2のLCD、71は作業者1の右目1aに対応させて配設された撮像手段としての第1のカメラ、72は作業者1の左目1bに対応させて配設された撮像手段としての第2のカメラ、73は設計担当者及び第2の操作者としての作業指示者2の右目2aに対応させて配設された第2の表示部としての第3のLCD、74は作業指示者2の左目2bに対応させて配設された第2の表示部としての第4のLCDである。
【0071】
この場合、第1、第2のカメラ71、72によって撮影された画像が、第1、第2のLCD7、8の画面にそれぞれ表示されるので、作業者1は、視差がある二つの画像を目視することができ、目視している画像に距離感を持つことができる。したがって、作業者1が前記画像を目視しながら作業対象装置3に手を延ばそうとするときに、違和感が生じることがなく、空振りすることがない。
【0072】
また、第1、第2のカメラ71、72によって撮影された画像が、第3、第4のLCD73、74の画面にそれぞれ表示されるので、作業指示者2は、視差がある二つの画像を目視することができ、目視している画像に距離感を持つことができる。
【0073】
なお、一つのLCDに視差のある立体画像を表示することもできる。そのために、CPU13、21のうちの少なくとも一方に図示されない立体画像表示処理手段が配設され、該立体画像表示処理手段は、作業者1側のLCD、及び作業指示者2側の一つのLCDのうちの少なくとも一方の画面に立体画像を表示する。この場合、作業者1側のLCD、及び作業指示者2側のLCDのうちの少なくとも一方の画面に表示された立体画像に距離感を持つことができる。
【0074】
ところで、前記各実施の形態においては、作業者1が、作業対象装置3、67(図19)について、又は作業対象装置3、67に対する作業について、ある程度の知識、経験等を有することを前提として作業を行うようになっている。ところが、作業者1が初心者で前記知識、経験等を有しない場合、作業指示者2による作業指示が作業者1には理解できないことがある。
【0075】
そこで、作業者1及び作業指示者2をいずれも同じ作業環境に置くことによって、作業者1が作業を行う前に、作業指示者2が作業対象装置3、67を組み立てたり、検査したりして、その際の作業情報を作業者1に送り、作業者1が必要な作業を事前に体験することができるようにした、本発明の第5の実施の形態について説明する。なお、第4の実施の形態と同じ構造を有するものについては、同じ符号を付与することによってその説明を省略する。
【0076】
図23は本発明の第5の実施の形態における遠隔作業支援システムを示す第1の概念図、図24は本発明の第5の実施の形態における遠隔作業支援システムを示す第2の概念図である。
【0077】
図において、75は第1の操作者としての作業者1の左手、76は作業者1用のマウス、77は左スイッチ、78は右スイッチ、79は作業対象装置3と同じ構造を有する事前体験用作業対象装置、80は設計担当者及び第2の操作者としての作業指示者2の右手、81は作業指示者2用の画像入力装置、82は第3のカメラ、83は第4のカメラ、84は画像入力部、85は作業指示者2用の検査装置、65、86はセンサ制御部である。
【0078】
まず、作業者1が初心者である場合、撮像手段としての第1、第2のカメラ71、72及び検査装置59の電源をオフにする。そして、作業指示者2が第3、第4のカメラ82、83によって事前体験用作業対象装置79を撮影すると、撮影された事前体験用作業対象装置79の画像が第1、第2のLCD7、8の画面に表示されるとともに、第3、第4のLCD82、83の画面に表示される。この場合、第4の実施の形態と同じように、第3のカメラ82によって撮影された事前体験用作業対象装置79の画像が第1、第3のLCD7、73の画面に、第4のカメラ83によって撮影された事前体験用作業対象装置79の画像が第2、第4のLCD8、74にそれぞれ表示される。
【0079】
そして、作業指示者2が事前体験用作業対象装置79の組立状態を検査するために、検査装置85を用いて各力F1、F2及び回転トルクTを測定すると、CPU21の図示されない操作情報送信処理手段は、作業指示者2が事前体験用作業対象装置79の組立状態を検査したときの画像、各力F1、F2、回転トルクT、音、作業環境等の操作情報を指示内容として作業者端末S1に送る。そして、前記CPU13の図示されない第1の操作情報表示処理手段は、第1、第2のLCD7、8の画面の各力情報表示ウィンドウに力データを表示する。なお、前記CPU21の図示されない第2の操作情報表示処理手段は、第3、第4のLCD73、74の画面の各力情報表示ウィンドウに力データを表示する。
【0080】
したがって、作業者1は、作業対象装置3を組み立てたり、検査したりする前に、作業指示者2が事前体験用作業対象装置79の組立状態を検査したときの画像、各力F1、F2、回転トルクT、音、作業環境等の操作情報を入手することができるので、必要な作業を事前に体験することができる。
【0081】
続いて、作業者1は、作業対象装置3を組み立てたり、検査したりするために、第1、第2のカメラ71、72及び検査装置59の電源をオンにし、第3、第4のカメラ82、83及び検査装置85の電源をオフにする。この場合、第1のカメラ71によって撮影された作業対象装置3の画像は、第1、第3のLCD7、73の画面に、第2のカメラ72によって撮影された作業対象装置3の画像は、第2、第4のLCD8、74の画面にそれぞれ表示される。
【0082】
このように、作業者1は、作業対象装置3を組み立てたり、検査したりする前に必要な作業を事前に体験することができるので、事前に体験した作業及びそのときの作業環境を思い浮かべながら作業を実施することができる。また、仮に、作業者1が事前に体験した作業及びそのときの作業環境を忘れても、作業指示者2は再び前記操作情報を作業者用端末S1側に送ることができる。
【0083】
本実施の形態においては、一人の作業者1と一人の作業指示者2との間において操作情報を送受信するようになっているが、複数の作業者と複数の作業指示者との間で操作情報を送受信することもできる。この場合、中心になる作業指示者が、各作業者及び他の作業指示者に作業指示を送るのに対応させて、インターネット網18に接続された各画像入力装置のカメラ、LCD、及び検査装置の電源がオン・オフさせられる。
【0084】
次に、本発明の第6の実施の形態について説明する。なお、第3の実施の形態と同じ構造を有するものについては、同じ符号を付与することによってその説明を省略する。
【0085】
図25は本発明の第6の実施の形態における遠隔作業支援システムを示す図である。
【0086】
この場合、ステレオ画像を入力するための画像入力装置70において、撮像手段としての第1、第2のカメラ71、72、第1、第2のLCD7、8、マイク9及びスピーカ10が一体に形成される。そして、第1の操作者としての作業者1は、右手4に検査装置59を把持し、該検査装置59によって、作業対象装置67の組立状態を検査する。
【0087】
前記第1のカメラ71は作業者1の右目1a(図1)及び第1のLCD7に対応させて、第2のカメラ72は作業者1の左目1b及び第2のLCD8に対応させて配設される。
【0088】
次に、本発明の第7の実施の形態について説明する。なお、第5の実施の形態と同じ構造を有するものについては、同じ符号を付与することによってその説明を省略する。
【0089】
図26は本発明の第7の実施の形態における遠隔作業支援システムを示す第1の概念図、図27は本発明の第7の実施の形態における遠隔作業支援システムを示す第2の概念図である。
【0090】
図において、91は第1の操作者としての作業者1の図示されない右手に装着するためのグローブ、92は設計担当者及び第2の操作者としての作業指示者2の図示されない右手に装着するためのグローブ、93は前記グローブ91を任意の位置に移動させるための図示されない移動機構を駆動する駆動部としてのドライバ、94は作業指示者2の動作を前記グローブ92の位置によって検出する検出部である。この場合、第1のカメラ71によって撮影された作業対象装置3の画像は、第1、第3のLCD7、73の画面に、第2のカメラ72によって撮影された作業対象装置3の画像は、第2、第4のLCD8、74の画面にそれぞれ表示される。
【0091】
作業者1が初心者である場合、作業指示者2が右手にグローブ92を装着し、事前体験用作業対象装置79の組立状態を検査するために、検査装置85を移動させると、グローブ92の位置が検出部94によって検出され、検出信号がCPU21に送られる。そして、CPU21の図示されない動作情報送信処理手段は、検出信号を動作情報としてインターネット網18を介してCPU13に送る。
【0092】
該CPU13は、前記動作情報に従って、ドライバ93を駆動し、グローブ91を前記グローブ92の位置に対応する位置に置くことによって、作業者1を動作させる。したがって、作業者1は、前記第1、第2のLCD7、8の画面に表示された作業指示者2の指示内容としての動作にならって作業対象装置3を組み立てたり、検査したりすることができる。
【0093】
次に、三次元で認識される画像が表示された画面に、三次元的な指示内容を表示することができるようにした本発明の第8の実施の形態について説明する。なお、第5の実施の形態と同じ構造を有するものについては、同じ符号を付与することによってその説明を省略する。
【0094】
図28は本発明の第8の実施の形態における遠隔作業支援システムを示す第1の概念図、図29は本発明の第8の実施の形態における遠隔作業支援システムを示す第2の概念図、図30は本発明の第8の実施の形態における指示手袋の表側を示す図、図31は本発明の第8の実施の形態における指示手袋の裏側を示す図である。
【0095】
図において、91、93は間隔センサ、92、94はセンサ制御部、95は操作手袋としての指示手袋、96は背景幕である。
【0096】
設計担当者及び第2の操作者としての作業指示者2の右手80に装着された指示手袋95が第3、第4のカメラ82、83によって撮影され、撮影された指示手袋95の画像が第3、第4のLCD73、74の画面に表示される。したがって、作業指示者2は指示手袋95を三次元で認識することができる。
【0097】
指示手袋95は、所定の指としての人指し指95a、及び該人指し指95a以外の指を含む本体部95bを備え、人指し指95aと本体部95bとは互いに色を異ならせてあり、しかも、人指し指95aの色は背景幕96の色と異ならせてあり、本体部95bの色は背景幕96の色と同じにされる。
【0098】
したがって、本体部95b及び背景幕96の色に合わせてクロマキー処理を行うことによって、人指し指95aだけを指示内容として浮き出させ、表示することができる。
【0099】
そのために、作業指示者2は、第3、第4のLCD73、74の画面に表示された画像を見ながら、クロマキー処理を行う部分にマウス32を移動させ、クロマキー処理を行う部分を指定する。CPU21は、メモリ35にあらかじめ記録されたクロマキー合成プログラムによって、人指し指95aだけが浮き出るように画像処理を行う。
【0100】
次に、クロマキー処理が行われて人指し指95aだけ浮き出ている画像と、第1、第2のカメラ71、72によって撮影された作業対象装置3の画像とを合成し、合成によって得られた画像を第1、第2のLCD7、8及び第3、第4のLCD73、74の画面にそれぞれ表示する。したがって、第1の操作者としての作業者1及び作業指示者2は、作業対象装置3及び人指し指95aの画像を三次元で認識することができる。
【0101】
この場合、第3、第4のカメラ82、83間の間隔と、第1、第2のカメラ71、72間の間隔とが大幅に異なると、人指し指95aの画像と作業対象装置3の画像とを適切に合成することができなくなる。そこで、本実施の形態においては、第1、第2のカメラ71、72間の間隔を測定するために、画像入力装置70に間隔センサ91が、第3、第4のカメラ82、83間の間隔を測定するために、画像入力装置81に間隔センサ93が配設され、前記画像の合成が行われる際に、間隔センサ91、93の各センサ出力を確認するようにしている。
【0102】
間隔センサ91は、第1、第2のカメラ71、72間の距離に比例したセンサ出力を発生させる。したがって、作業者1がマウス76を操作して間隔を測定する指示をCPU13に入力すると、該CPU13はセンサ制御部92を介して間隔センサ91からのセンサ出力を読み込み、メモリ14にあらかじめ記録された間隔測定・表示プログラムによって前記センサ出力を距離に変換し、該距離を第1、第2のLCD7、8の画面に表示する。前記距離は、インターネット網18を介して作業指示者端末S2に送られ、第3、第4のLCD73、74の画面にも表示される。
【0103】
同様に、間隔センサ93によって発生させられたセンサ出力は、センサ制御部94を介してCPU21に読み込まれ、該CPU21において距離に変換され、該距離は、第3、第4のLCD73、74及び第1、第2のLCD7、8の画面にそれぞれ表示される。
【0104】
そして、作業者1及び作業指示者2は、表示された二つの距離に基づいて、第1、第2のカメラ71、72間の間隔、及び第3、第4のカメラ82、83間の間隔を調整する。そのために、例えば、各第1、第2のカメラ71、72及び第3、第4のカメラ82、83を固定している図示されないねじを緩め、第1、第2のカメラ71、72及び第3、第4のカメラ82、83を必要に応じて中心方向又は外方向に動かした後、前記ねじを締めて再び固定する。
【0105】
なお、あらかじめ作業者1及び作業指示者2の両目の間隔を測定し、両目の間隔の近い者同士で作業者1と作業指示者2とを組み合わせれば、前記間隔の調整は不要になる。
【0106】
また、各間隔センサ91、93が配設された位置に、各CPU13、21からの制御信号に基づいて前記間隔を調整することができるアクチュエータ又はメカニズムを配設し、各間隔センサ91、93のセンサ出力の平均値を算出し、該平均値を目標値として、前記アクチュエータ又はメカニズムの制御を行うためのプログラムを各メモリ14、35に記録することによって、前記間隔を自動的に調整することもできる。
【0107】
このように、第1、第2のLCD7、8及び第3、第4のLCD73、74の各画面に作業指示者2の指示内容が三次元的に表示されるので、臨場感のある指示を行うことができる。そして、作業指示者2は、あたかも目の前に作業対象装置3があるような臨場感を体感することができるので、人指し指95aを用いた簡単な操作で作業者1に指示を出すことができる。
【0108】
ところで、前記第8の実施の形態においては、作業指示者2は、あたかも目の前に作業対象装置3があるような臨場感を体感することができるが、実際には作業指示者端末S2に作業対象装置3は存在しないので、作業指示者2は人指し指95aに触覚を覚えることができず、しかも、人指し指95aを空間に浮かせた状態に置かなければならない。したがって、指示する時間が長くなると、手が疲れたり、指示している位置がずれたり、人指し指95aが振動したりしてしまう。
【0109】
そこで、作業指示者2の人指し指95aに触覚を与えるようにした本発明の第9の実施の形態について説明する。なお、第8の実施の形態と同じ構造を有するものについては、同じ符号を付与することによってその説明を省略する。
【0110】
図32は本発明の第9の実施の形態における作業指示者側の遠隔作業支援システムを示す概念図である。
【0111】
まず、第3、第4のカメラ82、83と事前体験用作業対象装置79との距離を、第1、第2のカメラ71(図28)、72と作業対象装置3との距離に合わせる。このとき、メモリ35に記録された画像構成プログラムが起動され、第1、第2のカメラ71、72によって撮影され、濃度が低くされた作業対象装置3の画像と第3、第4のカメラ82、83によって撮影された事前体験用作業対象装置79の画像とが合成され、合成された画像が第3、第4のLCD73、74の画面に表示される。そして、設計担当者及び第2の操作者としての作業指示者2は、事前体験用作業対象装置79の大きさと作業対象装置3の大きさとが等しくなるように距離の調整を行い、調整が行われた時点で、事前体験用作業対象装置79の前方の所定の箇所に背景幕96を配設する。その後、第8の実施の形態と同様に、人指し指95aだけが浮き出るように画像にクロマキー処理を行い、人指し指95aの画像と作業対象装置3の画像及び事前体験用作業対象装置79の画像とを合成する。
【0112】
したがって、人指し指95aを背景幕96に触れさせて作業者1に指示を出すことができるので、作業指示者2は人指し指95aに触覚を覚えることができるだけでなく、人指し指95aを空間に浮かせた状態に置く必要がなくなる。したがって、指示する時間が長くなっても、手が疲れたり、指示している位置がずれたり、人指し指95aが振動したりすることがない。
【0113】
ところで、前記第8、第9の実施の形態においては、作業指示者2は人指し指95aによって三次元的に第1の操作者としての作業者1に指示を出すことができるようになっているが、作業において、掴(つか)む、擦(こす)る、叩(たた)く等の手全体を使った動作で指示を出す必要がある場合、前述されたようなクロマキー処理を指示手袋95の全体に対して行うと、第1、第2のカメラ71、72によって撮影された作業対象装置3の画像が指示手袋95で隠れてしまう。そこで、第1、第2のカメラ71、72によって撮影された作業対象装置3の画像が指示手袋95で隠れてしまうことがないようにした本発明の第10の実施の形態について説明する。なお、第8の実施の形態と同じ構造を有するものについては、同じ符号を付与することによってその説明を省略する。
【0114】
図33は本発明の第10の実施の形態における作業指示者側の遠隔作業支援システムを示す概念図、図34は本発明の第10の実施の形態における指示手袋の表側を示す図、図35は本発明の第10の実施の形態における指示手袋の裏側を示す図である。
【0115】
この場合、設計担当者及び第2の操作者としての作業指示者2は右手80に操作手袋としての指示手袋97を装着する。そして、クロマキー処理による画像の合成が行われ、作業者1(図28)に指示手袋97の動きによって三次元的に指示を出すことができる。
【0116】
図34に示されるように、指示手袋97おいて、側面部99及び爪部100a〜100eの色と本体部98の色とが互いに異ならせられる。前記側面部99及び爪部100a〜100eの色は背景幕96と異なる色にされ、本体部98の色は背景幕96と同じ色にされる。そして、本体部98及び背景幕96の色に合わせてクロマキー処理を行うことによって、前記側面部99及び爪部100a〜100eだけが浮き出た画像を表示することができる。なお、指示手袋97は、爪部100a〜100eの有無、親指の位置等によって、右手及び左手の区別、並びに表側及び裏側の区別を目視で行うことができる。図34及び35に示される指示手袋97は右手仕様である。
【0117】
このように、側面部99及び爪部100a〜100eだけが作業対象装置3の画像に合成されるので、作業指示者2が手全体を使った動作で指示を出しても、作業対象装置3の画像を不必要に隠してしまうことがない。
【0118】
また、前記指示手袋97は第3、第4のカメラ82、83によって撮影されるので、第1の操作者としての作業者1及び作業指示者2は三次元的に画像を認識することができる。
【0119】
ところで、前記各実施の形態においては、画像入力装置5(図19)、70が作業者1の顔に装着されるので、作業者1は両手が自由になり、画像入力装置5、70を装着していない場合と同じ作業性を得ることができる。しかも、作業者1の顔の動きに第1、第2のLCD7、8が追従するので、作業者1は、作業指示者2からの指示内容を、作業姿勢に関係なく、確実に目視することができる。
【0120】
ところが、作業指示者2が同じ作業面に対して複数の指示を出す場合、作業面を撮影しているカメラ6が動かないように固定する必要がある。カメラ6が動いてしまうと、カメラ6の動きに合わせて作業指示者2が指示位置を修正しなければならない。
【0121】
そこで、カメラ6を固定することができるようにした第11の実施の形態について説明する。
【0122】
図36は本発明の第11の実施の形態における画像入力装置を示す斜視図である。
【0123】
図において、110は画像入力装置、6は撮像手段としてのカメラ、7、8は第1、第2のLCD、9はマイク、111は支持台としての台座部、113は固定装置であり、該固定装置113は、パン固定ねじ112、チルト固定ねじ114、チルト台115、シャフト116、高さ固定ねじ117及びスタンド118を備える。
【0124】
この場合、画像入力装置110は、図示されない作業台上に配設された固定装置113に固定される。これにより、第1の操作者としての作業者1(図1)の顔の動きに従ってカメラ6が動いてしまうことがないので、設計担当者及び第2の操作者としての作業指示者2からの指示内容が表示される位置と、作業対象装置3における作業の位置とが一致させられる。しかも、カメラ6と作業対象装置3との距離が一定になるので、部品の重ね表示の精度を高くすることができる。
【0125】
また、画像入力装置110が作業台上に配設されるので、作業者1は、目が疲れた場合、顔を移動させるだけで、手を使うことなく、第1、第2のLCD7、8の画面から視線を外すことができる。
【0126】
なお、作業者1は、作業中、顔を画像入力装置110に押し付けている必要があるので、姿勢保持にストレスを感じることがある。その場合、作業者1は、可能な限り座位状態で画像入力装置110を覗(のぞ)くような姿勢になるように、固定装置113のチルト方向(矢印A方向)、パン方向(矢印B方向)及び高さ方向(矢印C方向)を調整することによって、ストレスを軽減することができる。
【0127】
次に、本発明の第12の実施の形態について説明する。
【0128】
図37は本発明の第12の実施の形態における画像入力装置を示す図である。
【0129】
図において、119は画像入力装置、71、72は第1、第2のカメラ、7、8は第1、第2のLCD、9はマイク、111は支持台としての台座部、113は固定装置であり、該固定装置113は、パン固定ねじ112、チルト固定ねじ114、チルト台115、シャフト116、高さ固定ねじ117及びスタンド118を備える。前記画像入力装置119は、チルト固定ねじ114の中心線を中心にして矢印A方向に、パン固定ねじ112の中心線を中心にして矢印B方向に回動させたり、矢印C方向に移動させたりすることができる。
【0130】
この場合、第1、第2のカメラ71、72によってステレオ画像を入力することができる。
【0131】
なお、本発明は前記実施の形態に限定されるものではなく、本発明の趣旨に基づいて種々変形させることが可能であり、それらを本発明の範囲から排除するものではない。
【0132】
【発明の効果】
以上詳細に説明したように、本発明によれば、遠隔作業支援システムにおいては、第1の操作者の右目及び左目に対応させて二つ配設され、第1の操作者による作業の対象となる作業対象装置を撮影する撮像手段と、前記第1の操作者の右目及び左目に対応させて二つ配設され、前記各撮像手段によって撮影された作業対象装置の画像を第1の操作者に対して表示するための第1の表示部と、第2の操作者の右目及び左目に対応させて二つ配設され、前記画像を第2の操作者に対して表示するための第2の表示部と、前記第2の操作者によって操作される操作部と、該操作部の操作に基づいて、前記各第1の表示部の画面に指示内容を表示する指示内容表示処理手段と、前記作業対象装置における所定の部位について検査を行うための検査装置と、前記第1の操作者側に配設され、前記検査装置による検査結果を第2の操作者側に送る検査情報送信処理手段と、前記第2の操作者側に配設され、前記検査装置による検査の測定基準値を検索する測定基準値検索処理手段と、前記第2の操作者側に配設され、前記測定基準値を第1の操作者側に送る測定基準値送信処理手段とを有する。
【0133】
この場合、撮像手段によって撮影された作業対象装置の画像が、第1の表示部の画面に表示され、第2の操作者による操作部の操作に基づいて、前記画面に指示内容が表示されるので、第1、第2の操作者において情報の共有性を高くすることができ、問題が発生した原因を分析するのに必要な時間を短くすることができるだけでなく、製造品のコストを低くすることができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態における遠隔作業支援システムを示す第1の概念図である。
【図2】本発明の第1の実施の形態における遠隔作業支援システムを示す第2の概念図である。
【図3】本発明の第1の実施の形態における作業者端末の使用状態を示す図である。
【図4】本発明の第1の実施の形態における遠隔作業支援システムの動作を示す第1のフローチャートである。
【図5】本発明の第1の実施の形態における遠隔作業支援システムの動作を示す第2のフローチャートである。
【図6】本発明の第1の実施の形態における遠隔作業支援システムの動作を示す第3のフローチャートである。
【図7】本発明の第1の実施の形態における遠隔作業支援システムの動作を示す第4のフローチャートである。
【図8】本発明の第1の実施の形態における遠隔作業支援システムの動作を示す第5のフローチャートである。
【図9】本発明の第1の実施の形態における遠隔作業支援システムの動作を示す第6のフローチャートである。
【図10】本発明の第1の実施の形態における点指示アイコンが選択されたときのLCDの画面の表示例を示す図である。
【図11】本発明の第1の実施の形態における範囲指示アイコンが選択されたときのLCDの画面の表示例を示す図である。
【図12】本発明の第1の実施の形態における部品検索アイコンが選択されたときのLCDの画面の表示例を示す図である。
【図13】本発明の第1の実施の形態における形状入力アイコンが選択されたときのLCDの画面の表示例を示す第1の図である。
【図14】本発明の第1の実施の形態における形状入力アイコンが選択されたときのLCDの画面の表示例を示す第2の図である。
【図15】本発明の第2の実施の形態における検査装置の斜視図である。
【図16】本発明の第2の実施の形態における遠隔作業支援システムを示す第1の概念図である。
【図17】本発明の第2の実施の形態における遠隔作業支援システムを示す第2の概念図である。
【図18】本発明の第2の実施の形態におけるLCDの画面の表示例を示す図である。
【図19】本発明の第3の実施の形態における遠隔作業支援システムを示す図である。
【図20】本発明の第4の実施の形態における遠隔作業支援システムを示す第1の概念図である。
【図21】本発明の第4の実施の形態における遠隔作業支援システムを示す第2の概念図である。
【図22】本発明の第4の実施の形態における作業者端末の使用状態を示す図である。
【図23】本発明の第5の実施の形態における遠隔作業支援システムを示す第1の概念図である。
【図24】本発明の第5の実施の形態における遠隔作業支援システムを示す第2の概念図である。
【図25】本発明の第6の実施の形態における遠隔作業支援システムを示す図である。
【図26】本発明の第7の実施の形態における遠隔作業支援システムを示す第1の概念図である。
【図27】本発明の第7の実施の形態における遠隔作業支援システムを示す第2の概念図である。
【図28】本発明の第8の実施の形態における遠隔作業支援システムを示す第1の概念図である。
【図29】本発明の第8の実施の形態における遠隔作業支援システムを示す第2の概念図である。
【図30】本発明の第8の実施の形態における指示手袋の表側を示す図である。
【図31】本発明の第8の実施の形態における指示手袋の裏側を示す図である。
【図32】本発明の第9の実施の形態における作業指示者側の遠隔作業支援システムを示す概念図である。
【図33】本発明の第10の実施の形態における作業指示者側の遠隔作業支援システムを示す概念図である。
【図34】本発明の第10の実施の形態における指示手袋の表側を示す図である。
【図35】本発明の第10の実施の形態における指示手袋の裏側を示す図である。
【図36】本発明の第11の実施の形態における画像入力装置を示す斜視図である。
【図37】本発明の第12の実施の形態における画像入力装置を示す図である。
【符号の説明】
1 作業者
1a、2a 右目
1b、2b 左目
2 作業指示者
3、67 作業対象装置
5、70、81、110、119 画像入力装置
6 カメラ
7、8、73、74 第1〜第4のLCD
9、29 マイク
13、21 CPU
18 インターネット網
23 LCD
32 マウス
50 検索部品
58 対象部品
59、85 検査装置
71、72 第1、第2のカメラ
79 事前体験用作業対象装置
93 ドライバ
94 検出部
95、97 指示手袋
95a 人指し指
96 背景幕
99 側面部
100a〜100e 爪部
111 台座部
S1 作業者端末
S2 作業指示者端末
Claims (13)
- (a)第1の操作者の右目及び左目に対応させて二つ配設され、第1の操作者による作業の対象となる作業対象装置を撮影する撮像手段と、
(b)前記第1の操作者の右目及び左目に対応させて二つ配設され、前記各撮像手段によって撮影された作業対象装置の画像を第1の操作者に対して表示するための第1の表示部と、
(c)第2の操作者の右目及び左目に対応させて二つ配設され、前記画像を第2の操作者に対して表示するための第2の表示部と、
(d)前記第2の操作者によって操作される操作部と、
(e)該操作部の操作に基づいて、前記各第1の表示部の画面に指示内容を表示する指示内容表示処理手段と、
(f)前記作業対象装置における所定の部位について検査を行うための検査装置と、
(g)前記第1の操作者側に配設され、前記検査装置による検査結果を第2の操作者側に送る検査情報送信処理手段と、
(h)前記第2の操作者側に配設され、前記検査装置による検査の測定基準値を検索する測定基準値検索処理手段と、
(i)前記第2の操作者側に配設され、前記測定基準値を第1の操作者側に送る測定基準値送信処理手段とを有することを特徴とする遠隔作業支援システム。 - 前記指示内容は、第1の操作者による作業の部位を指示する指示点を表すための複写アイコンである請求項1に記載の遠隔作業支援システム。
- 前記複写アイコンは、指示点の順番を表す数字と共に複数表示される請求項2に記載の遠隔作業支援システム。
- 前記指示内容は、第1の操作者による作業の部位を指示する指示枠を表すための指示枠アイコンである請求項1に記載の遠隔作業支援システム。
- 前記指示枠アイコンは、指示枠の順番を表す数字と共に複数表示される請求項4に記載の遠隔作業支援システム。
- 前記指示内容は、部品検索処理手段によって検索され、前記作業対象装置における対象部品に重ね表示される検索部品である請求項1に記載の遠隔作業支援システム。
- 前記検索部品を対象部品に重ね表示するための画像倍率値が算出される請求項6に記載の遠隔作業支援システム。
- 前記第1、第2の表示部のうちの少なくとも一方の表示部の画面に立体画像を表示する立体画像表示処理手段を有する請求項1に記載の遠隔作業支援システム。
- (a)前記第1の操作者側の端末、及び第2の操作者側の端末のうちの少なくとも一方が複数配設され、
(b)前記各端末間が通信ネットワークを介して接続される請求項1に記載の遠隔作業支援システム。 - (a)第1の操作者の右目及び左目に対応させて二つ配設され、第1の操作者による作業の対象となる作業対象装置を撮影する撮像手段と、
(b)前記第1の操作者の右目及び左目に対応させて二つ配設され、前記撮像手段によって撮影された作業対象装置の画像を第1の操作者に対して表示するための第1の表示部と、
(c)第2の操作者の右目及び左目に対応させて二つ配設され、前記画像を第2の操作者に対して表示するための第2の表示部と、
(d)前記第2の操作者によって操作される操作部と、
(e)該操作部の操作に基づいて、前記各第1の表示部の画面に指示内容を表示する指示内容表示処理手段と、
(f)前記第2の操作者側に配設された事前体験用作業対象装置と、
(g)前記第2の操作者側に配設され、第2の操作者による前記事前体験用作業対象装置の操作情報を第1の操作者側に送る操作情報送信処理手段と、
(h)前記第1の操作者側に配設され、前記操作情報を第1の表示部の画面に表示する操作情報表示処理手段と、
(i)前記第2の操作者の動作を検出する検出部と、
(j)前記第2の操作者側に配設され、前記検出部によって検出された第2の操作者の動作を表す動作情報を第1の操作者側に送る動作情報送信処理手段と、
(k)前記動作情報に従って第1の操作者を動作させるための駆動部とを有するとともに、
(l)前記第2の操作者の手に装着される操作手袋の所定の指の画像と前記作業対象装置の画像とが合成された画像が、前記第1、第2の表示部に表示されることを特徴とする遠隔作業支援システム。 - 前記第2の操作者側に配設された事前体験用作業対象装置の前方に背景幕が配設される請求項10に記載の遠隔作業支援システム。
- 前記操作手袋の側面部及び爪部の画像と前記作業対象装置の画像とが合成される請求項10に記載の遠隔作業支援システム。
- 少なくとも前記各撮像手段及び前記各第1の表示部を備えた画像入力装置が支持台上に配設される請求項1又は10に記載の遠隔作業支援システム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000325916A JP4288843B2 (ja) | 2000-10-25 | 2000-10-25 | 遠隔作業支援システム |
US09/881,348 US6694194B2 (en) | 2000-10-25 | 2001-06-15 | Remote work supporting system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000325916A JP4288843B2 (ja) | 2000-10-25 | 2000-10-25 | 遠隔作業支援システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002132487A JP2002132487A (ja) | 2002-05-10 |
JP4288843B2 true JP4288843B2 (ja) | 2009-07-01 |
Family
ID=18803203
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000325916A Expired - Fee Related JP4288843B2 (ja) | 2000-10-25 | 2000-10-25 | 遠隔作業支援システム |
Country Status (2)
Country | Link |
---|---|
US (1) | US6694194B2 (ja) |
JP (1) | JP4288843B2 (ja) |
Families Citing this family (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BRPI0508748B1 (pt) | 2004-03-26 | 2018-05-02 | Takahashi Atsushi | Sistema tridimensional para orientação e instruções visuais remotas, dotado de visor tridimensional com câmeras. |
JP4553362B2 (ja) * | 2005-01-31 | 2010-09-29 | キヤノン株式会社 | システム、画像処理装置、情報処理方法 |
US7843470B2 (en) | 2005-01-31 | 2010-11-30 | Canon Kabushiki Kaisha | System, image processing apparatus, and information processing method |
US7715037B2 (en) * | 2005-03-01 | 2010-05-11 | Xerox Corporation | Bi-directional remote visualization for supporting collaborative machine troubleshooting |
JP4323446B2 (ja) * | 2005-03-15 | 2009-09-02 | 日本電信電話株式会社 | 作業指示システムとそのプログラム |
JP4738870B2 (ja) | 2005-04-08 | 2011-08-03 | キヤノン株式会社 | 情報処理方法、情報処理装置および遠隔複合現実感共有装置 |
JP4933164B2 (ja) * | 2005-07-01 | 2012-05-16 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラムおよび記憶媒体 |
JP2007034439A (ja) * | 2005-07-22 | 2007-02-08 | Advanced Telecommunication Research Institute International | 触力覚検索システムおよび触力覚検索プログラム |
JP4389855B2 (ja) | 2005-09-05 | 2009-12-24 | トヨタ自動車株式会社 | 車両用操作装置 |
JP2007156950A (ja) * | 2005-12-07 | 2007-06-21 | Toyota Motor Corp | 車両用操作装置 |
US8094189B2 (en) | 2007-01-30 | 2012-01-10 | Toyota Jidosha Kabushiki Kaisha | Operating device |
JP4356763B2 (ja) * | 2007-01-30 | 2009-11-04 | トヨタ自動車株式会社 | 操作装置 |
NZ582133A (en) * | 2007-05-18 | 2012-12-21 | Uab Research Foundation | Virtual reality system that reders common view to multiple users for medical image manipulation |
JP4900277B2 (ja) * | 2008-02-20 | 2012-03-21 | コニカミノルタホールディングス株式会社 | 頭部装着式映像表示装置 |
WO2010050301A1 (ja) * | 2008-10-27 | 2010-05-06 | コニカミノルタオプト株式会社 | 映像表示システム |
JP5168161B2 (ja) * | 2009-01-16 | 2013-03-21 | ブラザー工業株式会社 | ヘッドマウントディスプレイ |
US9367216B2 (en) * | 2009-05-21 | 2016-06-14 | Sony Interactive Entertainment Inc. | Hand-held device with two-finger touch triggered selection and transformation of active elements |
US20110063425A1 (en) * | 2009-09-15 | 2011-03-17 | Delphi Technologies, Inc. | Vehicle Operator Control Input Assistance |
US9858475B2 (en) | 2010-05-14 | 2018-01-02 | Intuitive Surgical Operations, Inc. | Method and system of hand segmentation and overlay using depth data |
US8621362B2 (en) | 2011-01-21 | 2013-12-31 | Xerox Corporation | Mobile screen methods and systems for collaborative troubleshooting of a device |
US9113050B2 (en) * | 2011-01-13 | 2015-08-18 | The Boeing Company | Augmented collaboration system |
WO2012113686A1 (de) * | 2011-02-22 | 2012-08-30 | Rheinmetall Defence Electronics Gmbh | Simulator zur ausbildung eines teams, insbesondere zur ausbildung einer hubschrauberbesatzung |
US8893010B1 (en) * | 2011-07-20 | 2014-11-18 | Google Inc. | Experience sharing in location-based social networking |
US9886552B2 (en) | 2011-08-12 | 2018-02-06 | Help Lighting, Inc. | System and method for image registration of multiple video streams |
US9020203B2 (en) | 2012-05-21 | 2015-04-28 | Vipaar, Llc | System and method for managing spatiotemporal uncertainty |
WO2014076236A1 (en) * | 2012-11-15 | 2014-05-22 | Steen Svendstorp Iversen | Method of providing a digitally represented visual instruction from a specialist to a user in need of said visual instruction, and a system therefor |
US20150355463A1 (en) * | 2013-01-24 | 2015-12-10 | Sony Corporation | Image display apparatus, image display method, and image display system |
US9940750B2 (en) | 2013-06-27 | 2018-04-10 | Help Lighting, Inc. | System and method for role negotiation in multi-reality environments |
JP2015052895A (ja) * | 2013-09-06 | 2015-03-19 | 株式会社東芝 | 情報処理装置及び情報処理方法 |
JP6459972B2 (ja) * | 2013-11-13 | 2019-01-30 | ソニー株式会社 | 表示制御装置、表示制御方法、およびプログラム |
US10719123B2 (en) * | 2014-07-15 | 2020-07-21 | Nant Holdings Ip, Llc | Multiparty object recognition |
JP6387825B2 (ja) | 2014-12-26 | 2018-09-12 | セイコーエプソン株式会社 | 表示システム、及び、情報表示方法 |
US10339382B2 (en) * | 2015-05-31 | 2019-07-02 | Fieldbit Ltd. | Feedback based remote maintenance operations |
JP6451511B2 (ja) * | 2015-06-04 | 2019-01-16 | 富士通株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US10628114B2 (en) | 2015-09-30 | 2020-04-21 | Sony Corporation | Displaying images with integrated information |
US20180241967A1 (en) * | 2016-03-15 | 2018-08-23 | Mitsubishi Electric Corporation | Remote work assistance device, instruction terminal and onsite terminal |
JP6493296B2 (ja) * | 2016-04-28 | 2019-04-03 | 京セラドキュメントソリューションズ株式会社 | 作業支援システム |
CN110402420B (zh) * | 2017-03-23 | 2022-05-17 | 东芝三菱电机产业系统株式会社 | 钢铁厂的分析支援装置 |
JP6987537B2 (ja) * | 2017-06-07 | 2022-01-05 | キヤノン株式会社 | 画像処理装置、撮像装置、作業支援システム、制御方法およびプログラム |
US20190124251A1 (en) * | 2017-10-23 | 2019-04-25 | Sony Corporation | Remotely controllable camera on eyeglass-type mount for the blind |
JP6669714B2 (ja) * | 2017-11-28 | 2020-03-18 | ファナック株式会社 | 教示操作盤およびロボット制御システム |
JP6590050B2 (ja) * | 2018-08-16 | 2019-10-16 | セイコーエプソン株式会社 | 表示装置、表示システム、表示装置の制御方法、及び、プログラム |
JP7287045B2 (ja) * | 2019-03-26 | 2023-06-06 | コベルコ建機株式会社 | 遠隔操作システム |
JP7398227B2 (ja) * | 2019-09-03 | 2023-12-14 | 東芝システムテクノロジー株式会社 | 作業支援システム及びプログラム |
WO2023218740A1 (ja) * | 2022-05-13 | 2023-11-16 | 株式会社Nttドコモ | 表示制御システムおよびウェアラブル装置 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3882305A (en) * | 1974-01-15 | 1975-05-06 | Kearney & Trecker Corp | Diagnostic communication system for computer controlled machine tools |
JP3045321B2 (ja) * | 1991-01-22 | 2000-05-29 | 日本電信電話株式会社 | ハンドセット形テレビ装置とそれを用いたテレビ電話装置 |
JP2955451B2 (ja) * | 1993-09-21 | 1999-10-04 | 株式会社クボタ | 作業遠隔指示装置 |
JP3277658B2 (ja) * | 1993-12-28 | 2002-04-22 | 株式会社日立製作所 | 情報表示装置 |
US5877961A (en) * | 1996-09-24 | 1999-03-02 | Genicom Corporation | Electronic support work station and method of operation |
JP3106107B2 (ja) * | 1996-11-20 | 2000-11-06 | 株式会社東芝 | プラント内情報通信システム |
JP3217723B2 (ja) * | 1997-03-13 | 2001-10-15 | ▲すすむ▼ 舘 | 遠隔通信システム及び遠隔通信方法 |
JP3450704B2 (ja) * | 1997-09-01 | 2003-09-29 | キヤノン株式会社 | 位置姿勢検出装置及び情報処理方法 |
US6393380B1 (en) * | 1998-02-13 | 2002-05-21 | Sierra Concepts Corporation | Interactive support system manufacturing equipment |
JP3556829B2 (ja) | 1998-03-23 | 2004-08-25 | 淳 高橋 | 眼鏡型モニター式拡大鏡 |
JP2949116B1 (ja) * | 1998-08-10 | 1999-09-13 | 株式会社エイ・ティ・アール知能映像通信研究所 | 反射光学系を用いたディスプレイ装置 |
JP2000299852A (ja) * | 1999-02-12 | 2000-10-24 | Sanyo Electric Co Ltd | 指示情報伝達装置 |
JP2000231625A (ja) * | 1999-02-12 | 2000-08-22 | Sanyo Electric Co Ltd | 指示情報伝達装置 |
JP2000299851A (ja) * | 1999-02-12 | 2000-10-24 | Sanyo Electric Co Ltd | 指示情報伝達装置 |
FI990715A (fi) * | 1999-03-31 | 2000-10-01 | Valmet Corp | Tuotantolaitoksen huoltojärjestely |
US6556950B1 (en) * | 1999-09-30 | 2003-04-29 | Rockwell Automation Technologies, Inc. | Diagnostic method and apparatus for use with enterprise control |
-
2000
- 2000-10-25 JP JP2000325916A patent/JP4288843B2/ja not_active Expired - Fee Related
-
2001
- 2001-06-15 US US09/881,348 patent/US6694194B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
US20020049510A1 (en) | 2002-04-25 |
JP2002132487A (ja) | 2002-05-10 |
US6694194B2 (en) | 2004-02-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4288843B2 (ja) | 遠隔作業支援システム | |
US7142191B2 (en) | Image information displaying device | |
JP4115117B2 (ja) | 情報処理装置および方法 | |
KR101610705B1 (ko) | 카메라를 구비한 단말기 및 그 단말기에서 이미지 처리 방법 | |
WO2001086920A2 (en) | Apparatus and method for the kinematic control of hand-held devices | |
WO2005064538A1 (en) | Automatic area of importance display | |
JP7168974B2 (ja) | 施工支援システム | |
JPWO2017122274A1 (ja) | 画像表示装置 | |
JPWO2018025825A1 (ja) | 撮像システム | |
JP2009069855A (ja) | 内視鏡制御システム | |
JP2019008636A (ja) | 撮像システム | |
JPH10336503A (ja) | 画像処理装置及び方法及び記憶媒体 | |
JP6853747B2 (ja) | 点検報告書作成システム | |
JPH05292543A (ja) | 視覚装置 | |
JP7319803B2 (ja) | 配筋計測システム,配筋計測システムにおける検査画像表示方法,配筋計測システムにおける検査画像表示プログラム | |
JP4281752B2 (ja) | ビデオカメラの遠隔制御システム、ビデオカメラの遠隔制御方法、撮影装置及び撮影方法 | |
JP2022014758A (ja) | 情報処理装置及びプログラム | |
CN101398711A (zh) | 手持摄影机的光标定位方法 | |
JP2007026088A (ja) | モデル生成装置 | |
JP2005123750A (ja) | 映像・地図連動システム及びその連動方法 | |
JP4270088B2 (ja) | 仮想人体モデルを用いた製品の評価システム | |
JP2019008735A (ja) | 図面作成システム、図面作成方法及びプログラム | |
JP2006238082A5 (ja) | ||
US11356632B2 (en) | Display-information generating apparatus, information processing apparatus, and imaging system | |
WO2024190674A1 (ja) | 情報処理方法、情報処理装置、及び情報処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090310 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090323 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120410 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120410 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120410 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130410 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140410 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |