JP3982664B2 - Image presentation device - Google Patents

Image presentation device Download PDF

Info

Publication number
JP3982664B2
JP3982664B2 JP02062099A JP2062099A JP3982664B2 JP 3982664 B2 JP3982664 B2 JP 3982664B2 JP 02062099 A JP02062099 A JP 02062099A JP 2062099 A JP2062099 A JP 2062099A JP 3982664 B2 JP3982664 B2 JP 3982664B2
Authority
JP
Japan
Prior art keywords
robot
image
operator
observer
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP02062099A
Other languages
Japanese (ja)
Other versions
JP2000218575A (en
Inventor
昌彦 稲見
直樹 川上
康幸 柳田
太郎 前田
▲すすむ▼ 舘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Todai TLO Ltd
Original Assignee
Todai TLO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Todai TLO Ltd filed Critical Todai TLO Ltd
Priority to JP02062099A priority Critical patent/JP3982664B2/en
Publication of JP2000218575A publication Critical patent/JP2000218575A/en
Application granted granted Critical
Publication of JP3982664B2 publication Critical patent/JP3982664B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Accommodation For Nursing Or Treatment Tables (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、テレイグジスタンス(Tele-Existence)などの分野において利用される画像提示装置に関し、特に、任意形状の物体をスクリーンとして映像を投影し、映像によって表示される対象物を物体の存在する位置に対話的に提示するために用いられる装置に関する。
【0002】
【従来の技術】
従来において、遠方にあったり危険な場所にあったりするためにオペレータが対象物を直接に操作できない場合に、オペレータの動きに追従して動くように制御されたロボットを配置し、オペレータがロボットを介して対象物を間接的に操作することが行われている。これによって、オペレータは、ロボットの配置された環境にいるような感覚で精密な作業を行うことが可能である。このようなシステムは、テレイグジスタンスシステム、テレイグジスタンス型ロボットシステム、又はテレロボティクスなどと呼称されている。
【0003】
例えば、医者が遠方にいる病人又は負傷者などの被看護者を看護する場合を想定する。被看護者はベッドに横たわっており、その側には看護のためのロボットが配置されている。ロボットは、医者の動きに追従して動くように制御されている。ロボットの目の位置にはカメラが設けられ、カメラによって被看護者が撮影されている。
【0004】
医者は、コックピット内において、バーチャルリアリティ(Virtual Reality ) 又はコンピュータビジュアライゼーション(Computer Visualization) の技術によって被看護者の像を見ながら、被看護者に対する看護を行うように動作する。医者のその動作に応じてロボットが動作し、ロボットによって被看護者の実際の看護が行われる。この場合において、医者はロボットのオペレータであり、被看護者はロボットの観察者である。
【0005】
【発明が解決しようとする課題】
このように、従来から介護やコミュニケーションなどを目的として人型のロボットが開発されつつある。しかし、ロボットの大きさや形状は人間に近くなってきたものの、その外観は人間とは大きく異なっている。
【0006】
そこで、このような人型のロボットに表情を生成するために、ロボットの頭部にCRTを搭載し、CRTによって頭部映像を表示することが提案されている。しかし、この場合には、顔面の形状がCRTの形状によって決まってしまうので、正面から見る以外は不自然な表情となってしまう。また、CRTによる表示領域は広くないので、顔面以外の部分に表情を持たすことは実際上困難である。
【0007】
また、ロボットの顔面に、機械的に動かすことの可能な目、眉、又は口などの部品を装着しておき、それらを細かく制御して動かし、これによって現実感のある表情を再現しようとする研究が行われている。しかし、その機械部品などが表情を再現するのに中途半端であった場合には、より冷たい表情を連想させ却って逆効果であるとの指摘もされている。
【0008】
上に述べたように、オペレータが遠隔地の被看護者(人間)に対して働きかける作業を行おうとした場合に、テレイグジスタンスシステムを用いることによって、オペレータ自身はあたかも遠隔地にいるかのような臨場感を体感することが可能である。しかし、オペレータの分身ともいえるロボットの姿はオペレータの姿とは異なっている。したがって、ロボットにより働きかけられる被看護者からそのロボットを見ると、それはやはりロボットであり、ロボットの中にオペレータの姿を観察することはできない。
【0009】
因みに、介護などの現場において、リフトなどの装置により被介護者をベッドから移動させる装置がある。しかし、多くの被介護者は機械のみにより扱われることに不安感を抱き心理的な抵抗を持つとされている。
【0010】
本発明は、上述の問題に鑑みてなされたもので、機械的な部品によっては表現することの困難な細かい形状、色、質感などを視覚的に実現することを目的とする。
【0011】
【課題を解決するための手段】
請求項1の発明に係る装置は、図1に示すように、観察者21から観察される位置に再帰性反射材RUが塗布されたロボット23と、前記ロボット23をオペレータ11の動きに追従して動くように制御する制御手段15と、前記ロボット23を観察する観察者21の位置に対応する位置から前記オペレータ11の映像を撮影する撮影手段14と、前記観察者21の位置から前記ロボット23 に向かって前記オペレータ11の映像を投影する投影手段22と、を有してなる。
【0012】
ここにおいて、観察者21は、人間ではなくロボットであってもよい。つまり、例えばロボット同士が向かい合うようにし、一方のロボットをオペレータの動きに追従して動くように制御し、他方のロボットを別の観察者の動きに追従して動くように制御するように構成してもよい。
【0013】
請求項2の発明に係る装置は、図2に示すように、前記オペレータ11による観察が可能であって再帰性反射材が塗布された第2のロボット13Bと、前記第2のロボット13Bを前記観察者21の動きに追従して動くように制御する第2の制御手段25Bと、前記第2のロボット13Bを観察するオペレータ11の位置に対応する位置から前記観察者21の映像を撮影する第2の撮影手段24Bと、前記オペレータ11の位置から前記第2のロボット13Bに向かって前記観察者21の映像を投影する第2の投影手段12Bと、を有してなる。
【0014】
請求項3の発明に係る装置では、前記撮影手段14は、前記ロボット23を観察する観察者21の視点に対応する位置に設けられ、前記第2の撮影手段24Bは、前記第2のロボット13Bを観察するオペレータ11の視点に対応する位置に設けられ、前記投影手段22から前記ロボット23に向かって投影される映像の光が前記第2の撮影手段24Bに入射することを防ぐ手段、及び前記第2の投影手段12Bから前記第2のロボット13Bに向かって投影される映像の光が前記撮影手段14Bに入射することを防ぐ手段が設けられてなる。
【0015】
請求項4の発明に係る装置は、前記制御手段15が、前記オペレータ11の動きの検出信号に基づいて、前記ロボット23の動作を制御する構成となっているものである。
【0016】
【発明の実施の形態】
〔第1の実施形態〕
図1は本発明に係る第1の実施形態の画像提示装置1の構成を示すブロック図である。
【0017】
図1において、画像提示装置1は、互いに離れた場所にある2つのコックピットCP1,CP2によって構成されている。一方のコックピットCP1にはオペレータ11が居て、他方のコックピットCP2には観察者21が居る。ここでは、観察者21は被看護者であり、オペレータ11は医者などの看護者であるとする。つまり、観察者21はオペレータ11によって間接的に看護される状況にある(図3を参照)。
【0018】
オペレータ11は、その動きを検出するためのセンサを身につけている。そのようなセンサとして、例えば、ヘッドポジションセンサ、データグローブ、又はデータスーツなどが用いられる。また、センサとして、オペレータ11の状態を非接触で計測する3次元計測装置を用いることも可能である。それらのセンサの出力信号は、位置・姿勢制御部15によって制御信号となり、コックピットCP2のロボット23に送出される。
【0019】
オペレータ11は、映像提示装置12により提示される画像(映像)を観察することができる。映像提示装置12として、CAVE型ディスプレイが好適に用いられる。しかし、HMP22と同様なディスプレイ、又はヘッドマウンテッドディスプレイ(HMD:Head Mounted Display)、その他の形式の映像提示装置を用いることも可能である。コックピットCP2の頭部カメラ24から送られてくる画像情報は、画像処理部16を介して画像提示装置12に出力され、観察者21の画像がオペレータ11に提示される。
【0020】
オペレータ11の前方には、移動カメラ14が設置されている。移動カメラ14は、公知の6自由度の両眼立体視カメラである。移動カメラ14は、観察者21の位置及び姿勢に応じて移動するのであるが、観察者21は余り大きく動かないので、通常のテレイグジスタンス用のカメラで充分である。移動カメラ14は、オペレータ11の画像(映像)をリアルタイムで撮影し、その画像情報をコックピットCP2に送出する。図示は省略したが、移動カメラ14には、音声を出力するためのスピーカが備えられている。
【0021】
また、図示は省略したが、オペレータ11又は移動カメラ14には、音声を検出するためのマイクロフォンが備えられており、検出された音声情報はコックピットCP2のロボット23に送出される。
【0022】
他方、観察者21は、その動きを検出するためのセンサを身につけている。そのようなセンサとして、オペレータ11において用いられるものと同様なものを用いることができる。但し、観察者21はオペレータ11と比較して動きが少ないので、簡便なセンサで間に合う場合もある。それらのセンサの出力信号は、位置・姿勢制御部25によって制御信号となり、コックピットCP1の移動カメラ14に送出される。
【0023】
観察者21は、さらにHMP(頭部搭載型プロジェクタ)22を装着している。HMP22は、画像処理部26から出力される画像情報に基づいて、観察者21の視点と光学的に共役な位置から前方に向かって画像(映像)を投影する。HMP22として位置センサ付のものを用いた場合には、これによって上に述べたセンサに代えることも可能である。HMP22の構造に関しては、川上他著「オブジェクト指向型ディスプレイの研究」(情報処理学会研究報告 Vol98,No.9 P79−84)にその一例が記載されている。なお、HMP22から投影される画像の内容については後述する。
【0024】
さらに、コックピットCP2には、頭部、胸部、腕部、及び脚部など、人間の外観に似た形状で且つ人間の動きに似た動きをすることの可能な人型のロボット23が配備されている。ロボット23の表面には、特に観察者21により観察される部分、つまりHMP22により画像が投影される部分、例えばロボット23の顔面、頭部、肩、腕などに、再帰性反射材RUが塗布されている。ロボット23は、オペレータ11の動きに追従して動くように、位置・姿勢制御部15からの制御信号によって制御される。つまり、ロボット23は、オペレータ11の位置及び姿勢と同じ状態となるように制御される。
【0025】
ロボット23の頭部には、その顔面の目の位置に頭部カメラ24が設けられている。頭部カメラ24は、ロボット23の向いた方向の画像をリアルタイムで撮影し、その画像情報をコックピットCP1の画像処理部16に送出する。通常、頭部カメラ24によって観察者21が撮影される。その視野が広い場合には、ロボット23自身、例えばその腕、手、脚などが撮影される。
【0026】
図示は省略したが、ロボット23には、音声を出力するためのスピーカが備えられている。また、観察者21又はロボット23には、音声を検出するためのマイクロフォンが備えられており、検出された音声情報はコックピットCP1の移動カメラ14に送出される。
【0027】
次に、HMP22からロボット23に向かって投影される画像(映像)について説明する。
【0028】
移動カメラ14は、オペレータ11を撮影するが、オペレータ11に対する撮影位置は、ロボット23に対する観察者21の視点位置つまりHMP22の投影位置と同じ関係にある。また、ロボット23はオペレータ11と同じ動作をするので、観察者21からロボット23を見ると、オペレータ11がロボット23と入れ替わったような状態である。しかし、ロボット23のおおよその形状はオペレータ11のそれに近いが、その外観は大きく異なっている。そこで、HMP22によってオペレータ11の画像をロボット23に投影し、ロボット23にオペレータ11と同じ表情や質感を与えるのである。
【0029】
つまり、観察者21からロボット23を見たときに、ロボット23が恰もオペレータ11自身であるように見せるための画像が、HMP22から投影される。しかもその画像はオペレータ11の動き及び表情などに応じて変化する。これによって、機械的な部品によっては表現することの困難な細かい形状、色、質感などを視覚的に実現することができ、また、オペレータ11の表情をロボット23上で再現することができる。オペレータ11又は観察者21の位置が変化した場合であっても、それぞれの位置及び姿勢が検出されており、それぞれの位置及び姿勢に応じて、HMP22から投影すべき画像が生成される。そのために画像処理部26において行われる画像処理の内容それ自体については、イメージ・ベースト・レンダリングの手法などの公知の画像処理技術を利用することが可能である。
【0030】
HMP22から投影された画像は、ロボット23の表面に塗布された再帰性反射材RUによって反射され、観察者21に鮮明な画像(映像)を提示する。ここで、再帰性反射材RUは、光源の方向に強い指向性を持って反射する材料であり、コーナーキューブアレイ又はガラスビーズなどを用いて実現される。したがってロボット23に投影された画像は、観察者21の視線方向に高い輝度を有する。観察者21は、ロボット23上に投影された画像を極めて高い輝度で観察することができる。
【0031】
なお、移動カメラ14によりオペレータ11を撮影する際に、腕や衣服などにより死角となって移動カメラ14によっては撮影できない部分が生じる。死角となった部分の画像は、HMP22によって投影することができず、したがってその部分の画像はロボット23に表示されない。しかし、移動カメラ14から見て死角の部分は観察者21から見ても死角となるので、何ら問題はない。なお、上に述べた画像提示方法に関し、本発明者らの提案した特願平10−172722号を参照することができる。
【0032】
次に、上のように構成された画像提示装置1の動作について説明する。
【0033】
オペレータ11は、映像提示装置12により提示された観察者21の映像を見ながら、観察者21を看護するための動作を行う。オペレータ11の動作は、そのままロボット23の動作となり、ロボット23によって観察者21の看護が行われる。
【0034】
オペレータ11の映像が移動カメラ14によって捕らえられ、その映像がHMP22によってロボット23に投影される。オペレータ11の声もマイクロフォンにより捕らえられ、効果音が加えられてロボット23のスピーカーから発せられる。
【0035】
観察者21は、ロボット23によって看護を受けるのであるが、ロボット23にはオペレータ11の画像が投影されているので、ロボット23が恰もオペレータ11自身であるように見える。すなわち、観察者21は、オペレータ11の表情などを細かく観察することができる。このように、観察者21は、ロボット23ではなく、オペレータ11を見ながら、またオペレータ11と会話をしながら、看護を受けることとなる。したがって、観察者21からロボット23を観察したときに、そこにオペレータ11の姿や細かい表情の動きを読み取ることができ、機械によって看護を受けるという不安感を和らげ、心理的な抵抗を低減することができる。
【0036】
なお、オペレータ11についても、テレイグジスタンスの利点である白由な運動を自然に伝えながら遠隔から介護を行えるので、現場に行って介護を行うのと同等の効果をあげられる。
【0037】
なお、位置・姿勢制御部15,25及び画像処理部16,26は、いずれのコックピットCP1,2に配置されてもよく、コックピットCP1,2以外の場所に配置されてもよい。それらは、互いに別個の装置として構成することも可能であり、また、全体で1つの装置として構成することも可能である。また、例えば、位置・姿勢制御部15をHMP12B又はロボット23に組み込んだり、画像処理部16をロボット23又は映像提示装置12に組み込んだりすることも可能である。
〔第2の実施形態〕
図2は本発明に係る第2の実施形態の画像提示装置1Bの構成を示すブロック図、図3は画像提示装置1Bの構成を模式的に示すブロック図である。なお、第2の実施形態の画像提示装置1Bにおいて、第1の実施形態の画像提示装置1の構成要素に対応する構成要素については同じ数字符号を付し、その説明を省略し又は簡略化する。以下同様である。
【0038】
画像提示装置1Bにおいては、コックピットCP1にもロボット23と同様なロボット13Bが配備されている。ロボット13Bの表面には再帰性反射材RUが塗布されている。ロボット13Bは、観察者21の動きに追従して動くように、位置・姿勢制御部15Bからの制御信号によって制御される。つまり、ロボット13Bは、観察者21の位置及び姿勢と同じ状態となるように制御される。
【0039】
第1の実施形態の移動カメラ14に代えて、ロボット13Bの頭部に組み込まれた頭部カメラ14Bが用いられる。頭部カメラ14Bは、ロボット13Bの向いた方向の画像をリアルタイムで撮影し、その画像情報をコックピットCP2の画像処理部26Bに送出する。
【0040】
また、第1の実施形態の映像提示装置12に代えて、HMP12Bが用いられる。オペレータ11がHMP12Bを頭部に装着し、HMP12Bからロボット13Bに向かって画像を投影する。
【0041】
すなわち、HMP12Bは、画像処理部16Bから出力される画像情報に基づいて、オペレータ11の視点と光学的に共役な位置から前方に向かって画像を投影する。これによって、オペレータ11にとって、ロボット13Bが恰も観察者21自身であるかのように見える。
【0042】
このように、第2の実施形態の画像提示装置1Bにおいて、オペレータ11は、観察者21と同じ姿勢をしたロボット13Bを看護する。ロボット13Bには観察者21の画像が投影されているので、実際の観察者21を看護するように感じられる。したがって、オペレータ11が観察者21を抱き上げたりする場合に、より一層リアルに看護を行うことができる。
【0043】
上に述べた画像提示装置1Bにおいて、オペレータ11が再帰性反射材RUを塗布した衣服や手袋を着用し、HMP12Bからの画像を自分の衣服や手袋上に投影することによって、ロボット23Bの位置又は姿勢を確認することができる。
【0044】
つまり、例えば、オペレータ11が自分の手を見ることによって、ロボット23Bも同じようにその手を見るように動作するので、ロボット23Bの手が頭部カメラ24Bによって撮影され、その画像がHMP12Bからオペレータ11の手に投影される。オペレータ11は、自分の手に投影された画像を見ることによって、ロボット23Bの手の状態を確認することができる。
【0045】
これによって、オペレータ11は、自分の手の動きとロボット23Bの手の動きとの時間的又は位置的なずれを知ることができ、それを自分自身でフィードバックすることによってより精密な作業を行うことが可能となる。
【0046】
ところで、HMP12Bから投影される画像の光が頭部カメラ14Bに直接に入射すると、頭部カメラ14Bの撮影可能な明かるさの範囲を越えることがある。そうなると、頭部カメラ14Bは、所謂「目眩まし」の状態となり、正常な撮影を行うことができない。HMP22Bと頭部カメラ24Bとの関係においても同様である。これを防止するためには、HMP12Bから投影される画像の光が頭部カメラ14Bに入射しないようにすればよい。そのためには次の方策がある。
【0047】
第1の方策は、画像処理部16Bによって、HMP12Bに出力する画像情報のうちの頭部カメラ14Bに対応する部分の画像を黒画像としておく。そのためには、位置・姿勢制御部15B,25Bに入力される信号又はそれらから出力される制御信号などに基づいて、画像中の所定の領域を黒領域とする処理を行う。
【0048】
第2の方策は、HMP12Bの前に液晶シャッターなどを配備し、頭部カメラ14Bに入射しようとする部分の光を選択的に遮断する。第3の方策は、HMP12Bの前と頭部カメラ14Bの前とに互いに偏光角度の異なる偏光フィルタを配置する。
【0049】
なお、第1の方策及び第2の方策を用いる際には、観察者21の目の画像がロボット13Bに投影されるよう、つまり観察者21の表情が分かるよう、観察者21の目の位置とロボット13Bの目の位置(頭部カメラ14Bが配置される位置)とをずらしておく必要がある。
〔第3の実施形態〕
図4は本発明に係る第3の実施形態の画像提示装置1Cの構成を示すブロック図である。
【0050】
第3の実施形態の画像提示装置1Cでは、3つのコックピットCP1〜3が設けられる。第3のコックピットCP3には、2つのロボット13C,23Cが配備される。それぞれのロボット13C,23Cには、頭部カメラ14C,24Cの他に、HMP18C,28Cが搭載されている。HMP18C,28Cは、互いに相手のロボット23C,13Cに対して画像を投影する。
【0051】
第2のコックピットCP1では、移動カメラ17Cによってオペレータ11を撮影する。移動カメラ17Cにより得られたオペレータ11の画像は、画像処理部19Cを経て、HMP18Cによって投影される。
【0052】
第3のコックピットCP3では、移動カメラ27Cによってオペレータ21を撮影する。移動カメラ27Cにより得られたオペレータ21の画像は、画像処理部29Cを経て、HMP28Cによって投影される。
【0053】
上に述べた画像提示装置1Cの動作は、基本的には画像提示装置1Bと同様であるが、それぞれ相手のオペレータ11,21がテレイグジスタンスを行っているロボット13C,23Cの画像が、それぞれのオペレータ11,21の映像提示装置12C,22Cによって提示される。したがって、オペレータ11,21は、それぞれロボット13C,23Cによってテレイグジスタンスを行っている相手を見ながらそれぞれテレイグジスタンスを行い、現実世界を共有し、実体験することができる。
〔第4の実施形態〕
図5は本発明に係る第4の実施形態の画像提示装置1Dの構成を示すブロック図である。
【0054】
第4の実施形態の画像提示装置1Dは、第3の実施形態の画像提示装置1Cと基本的に同じであるが、次の点で異なる。すなわち、コックピットCP1,2にもロボット20D,30Dが配備されている。ロボット20D,30Dの表面には再帰性反射材RUが塗布されている。ロボット20D,30Dは、オペレータ21,11の動きに追従して動くように、位置・姿勢制御部25D,15Dからの制御信号によって制御される。
【0055】
第3の実施形態の移動カメラ17C,27Cに代えて、ロボット20D,30Dの頭部に組み込まれた頭部カメラ17D,27Dが用いられる。また、映像提示装置12C,22Cに代えて、HMP12D,22Dが用いられる。
【0056】
この実施形態の画像提示装置1Dでは、それぞれ相手のオペレータ11,21がテレイグジスタンスを行うロボット13D,23Dの画像が、それぞれのオペレータ11,21の目前のロボット20D,30Dに投影される。オペレータ11,21は、ロボット20D,30Dに投影された画像を見ながらテレイグジスタンスを行う。
〔第5の実施形態〕
図6は本発明に係る第5の実施形態の画像提示装置1Eの構成を示すブロック図である。
【0057】
第5の実施形態の画像提示装置1Eでは、ロボット13Eは、ロボット制御部42Eによって制御される。その際に、ロボット13Eの位置及び姿勢を示す信号がロボット制御部42Eにフィードバックされる。
【0058】
グラフィックエンジン41Eは、ロボット13E及びオペレータ11のそれぞれの位置及び姿勢に基づいて、CG画像(コンピュータグラフィックス画像)を生成する。生成したCG画像が、HMP12Eからロボット13Eに向かって投影される。
【0059】
画像提示装置1Eによると、グラフィックエンジン41Eで生成した任意の画像をロボット13Eに投影することができる。
【0060】
上に述べた各実施形態の動作及び効果は、次のように表すこともできる。つまり、オペレータ11及び観察者21などにより観察される画像のうち、大まかな形状をロボットによって作り、細かな部分をHMPから投影される画像によって作り、リアリティを増大させる。これによって、オペレータ11又は観察者21による外部世界との物理的接触又は作業をロボットにより行い、精神的接触をそのロボットに投影された映像により行うことが可能になるのである。
【0061】
これは、コンピュータグラフィックスにおけるテクスチャマッピングの現実世界における実装と見ることもできる。
【0062】
上に述べた実施形態において、オペレータ11及び観察者21の動きに追従してロボットがリアルタイムで動くように制御したが、オペレータ11又は観察者21の動きを予め撮影しておき、撮影した映像の再生に合わせてロボットを動かすようにしてもよい。また、オペレータ11及び観察者21の実画像のみでなく、CG画像を重畳させてもよい。ロボットとして人型のロボットを用いたが、それに限らず、例えば、ペットロボット、又は壁からアームのみが延びているようなマニピュレータ型のロボットなどにも適用可能である。
【0063】
さらに、画像提示装置1,1B〜Eの全体又は各部の構成、配置、個数、動作内容又は動作順序、及び動作タイミングなどは、本発明の趣旨に沿って適宜変更することができる。
【0064】
【発明の効果】
本発明によると、機械的な部品によっては表現することの困難な細かい形状、色、質感などを視覚的に実現することができる。
【0065】
したがって、例えばテレイグジスタンスシステムのロボットによって看護を受ける場合などにおいて、機械によって看護を受けるという不安感を和らげ、心理的な抵抗を低減することができる。
【図面の簡単な説明】
【図1】本発明に係る第1の実施形態の画像提示装置の構成を示すブロック図である。
【図2】本発明に係る第2の実施形態の画像提示装置の構成を示すブロック図である。
【図3】第2の実施形態の画像提示装置の構成を模式的に示すブロック図である。
【図4】本発明に係る第3の実施形態の画像提示装置の構成を示すブロック図である。
【図5】本発明に係る第4の実施形態の画像提示装置の構成を示すブロック図である。
【図6】本発明に係る第5の実施形態の画像提示装置の構成を示すブロック図である。
【符号の説明】
1,1B〜E 画像提示装置
11 オペレータ(観察者)
12B,12D,12E HMP(投影手段、第2の投影手段)
13B〜13E ロボット(第2のロボット、物体)
14 移動カメラ(撮影手段)
14B 頭部カメラ(撮影手段、第2の撮影手段)
15 位置・姿勢制御部(制御手段)
15B〜13D 位置・姿勢制御部(制御手段、第2の制御手段)
16B〜16D 画像処理部(防ぐ手段)
17C 移動カメラ(撮影手段、第2の撮影手段)
17D 頭部カメラ(撮影手段、第2の撮影手段)
21 観察者(オペレータ)
22 HMP(投影手段)
22B,22D HMP(投影手段、第2の投影手段)
23 ロボット(物体)
23B〜23D ロボット(第2のロボット、物体)
24B 頭部カメラ(撮影手段、第2の撮影手段)
25B〜23D 位置・姿勢制御部(制御手段、第2の制御手段)
26B〜26D 画像処理部(防ぐ手段)
27C 移動カメラ(撮影手段、第2の撮影手段)
27D 頭部カメラ(撮影手段、第2の撮影手段)
41E グラフィックエンジン(画像生成手段)
42E ロボット制御部(制御手段)
RU 再帰性反射材
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image presentation apparatus used in a field such as Tele-Existence, and in particular, an image is projected using an object of an arbitrary shape as a screen, and an object displayed by the image exists as an object. The present invention relates to a device used to interactively present a position.
[0002]
[Prior art]
Conventionally, when an operator cannot directly operate an object because it is far away or in a dangerous place, a robot controlled to move following the movement of the operator is arranged, and the operator moves the robot. Indirect manipulation of the object is performed. As a result, the operator can perform precise work as if he were in the environment where the robot was placed. Such a system is called a teleexistence system, a teleexistence type robot system, or telerobotics.
[0003]
For example, suppose that a doctor cares for a patient such as a sick person or an injured person who is far away. The patient is lying on the bed, and a robot for nursing is arranged on the side. The robot is controlled to move following the movement of the doctor. A camera is provided at the position of the robot's eyes, and the patient is photographed by the camera.
[0004]
In the cockpit, the doctor operates to perform nursing care for the patient while looking at the image of the patient by using the virtual reality or computer visualization technology. The robot operates according to the movement of the doctor, and the actual nursing of the patient is performed by the robot. In this case, the doctor is a robot operator, and the care recipient is a robot observer.
[0005]
[Problems to be solved by the invention]
Thus, humanoid robots have been developed for the purpose of nursing care and communication. However, although the size and shape of robots have become closer to humans, their appearance is very different from humans.
[0006]
Therefore, in order to generate a facial expression on such a humanoid robot, it has been proposed to mount a CRT on the robot's head and display the head image by the CRT. However, in this case, since the shape of the face is determined by the shape of the CRT, the expression becomes unnatural except when viewed from the front. In addition, since the display area by CRT is not large, it is practically difficult to have facial expressions other than the face.
[0007]
In addition, parts such as eyes, eyebrows, or mouth that can be moved mechanically are mounted on the face of the robot, and they are controlled and moved in order to reproduce realistic facial expressions. Research is underway. However, it has also been pointed out that if the machine part is halfway in reproducing a facial expression, it is counterproductive by reminiscent of a cooler facial expression.
[0008]
As described above, when an operator tries to work on a remote nurse (human), using the tele-existence system makes the operator feel as if he is in a remote location. It is possible to experience a sense of reality. However, the appearance of a robot, which can be said to be an operator, is different from that of an operator. Therefore, when the robot is viewed from a nurse to be worked on by the robot, it is still a robot, and the appearance of the operator cannot be observed in the robot.
[0009]
Incidentally, there is a device that moves a cared person from a bed by a device such as a lift at a site such as nursing. However, many care recipients are thought to have anxiety about being treated only by machines and have psychological resistance.
[0010]
The present invention has been made in view of the above-described problems, and an object thereof is to visually realize fine shapes, colors, textures, and the like that are difficult to express depending on mechanical parts.
[0011]
[Means for Solving the Problems]
As shown in FIG. 1, the apparatus according to the invention of claim 1At the position observed from the observer 21A position corresponding to the position of the robot 23 coated with the retroreflective material RU, the control means 15 for controlling the robot 23 so as to follow the movement of the operator 11, and the observer 21 observing the robot 23. Imaging means 14 for taking an image of the operator 11 from above, and projection means 22 for projecting the image of the operator 11 from the position of the observer 21 toward the robot 23.
[0012]
Here, the observer 21 may be a robot instead of a human. In other words, for example, the robots face each other, one robot is controlled to move following the movement of the operator, and the other robot is controlled to move following the movement of another observer. May be.
[0013]
As shown in FIG. 2, the apparatus according to the second aspect of the present invention includes a second robot 13B that can be observed by the operator 11 and coated with a retroreflective material, and the second robot 13B. A second control means 25B that controls to move following the movement of the observer 21 and a second image that captures an image of the observer 21 from a position corresponding to the position of the operator 11 that observes the second robot 13B. 2 imaging means 24B, and second projection means 12B for projecting the image of the observer 21 from the position of the operator 11 toward the second robot 13B.
[0014]
In the apparatus according to the invention of claim 3, the photographing means 14 is provided at a position corresponding to the viewpoint of the observer 21 who observes the robot 23, and the second photographing means 24B is the second robot 13B. Means for preventing the light of the image projected from the projection means 22 toward the robot 23 from entering the second photographing means 24B, and a position corresponding to the viewpoint of the operator 11 who observes Means are provided for preventing the image light projected from the second projection means 12B toward the second robot 13B from entering the photographing means 14B.
[0015]
An apparatus according to the invention of claim 4The control means 15 is configured to control the operation of the robot 23 on the basis of the motion detection signal of the operator 11.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
[First Embodiment]
FIG. 1 is a block diagram showing a configuration of an image presentation device 1 according to the first embodiment of the present invention.
[0017]
In FIG. 1, the image presentation device 1 is configured by two cockpits CP <b> 1 and CP <b> 2 that are separated from each other. One cockpit CP1 has an operator 11 and the other cockpit CP2 has an observer 21. Here, it is assumed that the observer 21 is a nurse and the operator 11 is a nurse such as a doctor. That is, the observer 21 is in a situation where the operator 11 is indirectly nursed (see FIG. 3).
[0018]
The operator 11 wears a sensor for detecting the movement. As such a sensor, for example, a head position sensor, a data glove, or a data suit is used. Moreover, it is also possible to use a three-dimensional measuring device that measures the state of the operator 11 in a non-contact manner as a sensor. The output signals of these sensors become control signals by the position / posture control unit 15 and are sent to the robot 23 in the cockpit CP2.
[0019]
The operator 11 can observe an image (video) presented by the video presentation device 12. As the video presentation device 12, a CAVE type display is preferably used. However, it is also possible to use a display similar to the HMP 22, a head mounted display (HMD), or other types of video presentation devices. Image information sent from the head camera 24 of the cockpit CP2 is output to the image presentation device 12 via the image processing unit 16, and an image of the observer 21 is presented to the operator 11.
[0020]
A moving camera 14 is installed in front of the operator 11. The moving camera 14 is a known binocular stereoscopic camera with six degrees of freedom. Although the moving camera 14 moves according to the position and posture of the observer 21, the observer 21 does not move so much, and therefore a normal tele-distance camera is sufficient. The moving camera 14 takes an image (video) of the operator 11 in real time and sends the image information to the cockpit CP2. Although not shown, the moving camera 14 is provided with a speaker for outputting sound.
[0021]
Although not shown, the operator 11 or the mobile camera 14 is provided with a microphone for detecting voice, and the detected voice information is sent to the robot 23 in the cockpit CP2.
[0022]
On the other hand, the observer 21 wears a sensor for detecting the movement. As such a sensor, a sensor similar to that used in the operator 11 can be used. However, since the observer 21 moves less than the operator 11, a simple sensor may be in time. The output signals of these sensors become control signals by the position / posture control unit 25 and are sent to the moving camera 14 in the cockpit CP1.
[0023]
The observer 21 further wears an HMP (head mounted projector) 22. Based on the image information output from the image processing unit 26, the HMP 22 projects an image (video) forward from a position optically conjugate with the viewpoint of the observer 21. When the HMP 22 with a position sensor is used, it can be replaced with the above-described sensor. An example of the structure of HMP22 is described in Kawakami et al., “Research on Object Oriented Display” (Information Processing Society of Japan Vol. 98, No. 9 P79-84). The contents of the image projected from the HMP 22 will be described later.
[0024]
Further, the cockpit CP2 is provided with a humanoid robot 23 having a shape similar to a human appearance such as a head, a chest, an arm, and a leg and capable of moving similar to a human movement. ing. On the surface of the robot 23, a retroreflecting material RU is applied to a portion observed by the observer 21, that is, a portion where an image is projected by the HMP 22, for example, the face, head, shoulder, arm, etc. of the robot 23. ing. The robot 23 is controlled by a control signal from the position / posture control unit 15 so as to follow the movement of the operator 11. That is, the robot 23 is controlled to be in the same state as the position and posture of the operator 11.
[0025]
A head camera 24 is provided on the head of the robot 23 at the position of the eyes on the face. The head camera 24 takes an image of the direction in which the robot 23 faces in real time, and sends the image information to the image processing unit 16 of the cockpit CP1. Usually, the observer 21 is photographed by the head camera 24. When the field of view is wide, the robot 23 itself, for example, its arms, hands, legs, etc. are photographed.
[0026]
Although not shown, the robot 23 is provided with a speaker for outputting sound. The observer 21 or the robot 23 is provided with a microphone for detecting sound, and the detected sound information is sent to the moving camera 14 in the cockpit CP1.
[0027]
Next, an image (video) projected from the HMP 22 toward the robot 23 will be described.
[0028]
The moving camera 14 photographs the operator 11, but the photographing position with respect to the operator 11 has the same relationship as the viewpoint position of the observer 21 with respect to the robot 23, that is, the projection position of the HMP 22. Further, since the robot 23 performs the same operation as the operator 11, when the robot 23 is viewed from the observer 21, the operator 11 is in a state of being replaced with the robot 23. However, although the approximate shape of the robot 23 is close to that of the operator 11, the appearance is greatly different. Therefore, the image of the operator 11 is projected onto the robot 23 by the HMP 22, and the same expression and texture as the operator 11 are given to the robot 23.
[0029]
That is, when viewing the robot 23 from the observer 21, an image for making the robot 23 appear to be the operator 11 itself is projected from the HMP 22. Moreover, the image changes according to the movement and expression of the operator 11. As a result, fine shapes, colors, textures, and the like that are difficult to express depending on mechanical parts can be visually realized, and the expression of the operator 11 can be reproduced on the robot 23. Even when the position of the operator 11 or the observer 21 is changed, the respective positions and postures are detected, and images to be projected from the HMP 22 are generated according to the respective positions and postures. For this purpose, a known image processing technique such as an image-based rendering method can be used for the content of the image processing performed in the image processing unit 26 itself.
[0030]
The image projected from the HMP 22 is reflected by the retroreflecting material RU applied to the surface of the robot 23 and presents a clear image (video) to the observer 21. Here, the retroreflecting material RU is a material that reflects with a strong directivity in the direction of the light source, and is realized using a corner cube array or glass beads. Therefore, the image projected on the robot 23 has high brightness in the line-of-sight direction of the observer 21. The observer 21 can observe the image projected on the robot 23 with extremely high luminance.
[0031]
It should be noted that when the operator 11 is photographed by the moving camera 14, there are portions that cannot be photographed by the moving camera 14 due to blind spots due to arms or clothes. The image of the part that has become the blind spot cannot be projected by the HMP 22, and therefore the image of that part is not displayed on the robot 23. However, since the blind spot as viewed from the moving camera 14 becomes a blind spot as viewed from the observer 21, there is no problem. Regarding the image presentation method described above, Japanese Patent Application No. 10-172722 proposed by the present inventors can be referred to.
[0032]
Next, the operation of the image presentation device 1 configured as described above will be described.
[0033]
The operator 11 performs an operation for nursing the observer 21 while watching the video of the observer 21 presented by the video presentation device 12. The operation of the operator 11 becomes the operation of the robot 23 as it is, and the observer 21 is cared for by the robot 23.
[0034]
An image of the operator 11 is captured by the moving camera 14, and the image is projected onto the robot 23 by the HMP 22. The voice of the operator 11 is also captured by the microphone, and a sound effect is added and emitted from the speaker of the robot 23.
[0035]
The observer 21 receives nursing care by the robot 23. Since the image of the operator 11 is projected on the robot 23, the robot 23 appears to be the operator 11 itself. That is, the observer 21 can observe the expression of the operator 11 in detail. As described above, the observer 21 receives nursing care while looking at the operator 11 instead of the robot 23 and talking with the operator 11. Therefore, when observing the robot 23 from the observer 21, it is possible to read the figure of the operator 11 and the movement of fine expressions there, to relieve anxiety of receiving nursing by the machine, and to reduce psychological resistance. Can do.
[0036]
The operator 11 can also provide care from a distance while naturally transmitting the white movement that is an advantage of teleexistence, so that the same effect as performing care at the site can be obtained.
[0037]
The position / posture control units 15 and 25 and the image processing units 16 and 26 may be disposed in any cockpit CP1 or 2, or may be disposed in a place other than the cockpit CP1 or 2. They can be configured as separate devices, or can be configured as a single device as a whole. Further, for example, the position / posture control unit 15 can be incorporated into the HMP 12B or the robot 23, and the image processing unit 16 can be incorporated into the robot 23 or the video presentation device 12.
[Second Embodiment]
FIG. 2 is a block diagram showing the configuration of the image presentation device 1B according to the second embodiment of the present invention, and FIG. 3 is a block diagram schematically showing the configuration of the image presentation device 1B. Note that, in the image presentation device 1B of the second embodiment, components corresponding to the components of the image presentation device 1 of the first embodiment are denoted by the same reference numerals, and description thereof is omitted or simplified. . The same applies hereinafter.
[0038]
In the image presentation device 1B, a robot 13B similar to the robot 23 is also provided in the cockpit CP1. A retroreflecting material RU is applied to the surface of the robot 13B. The robot 13B is controlled by a control signal from the position / posture control unit 15B so as to follow the movement of the observer 21. That is, the robot 13B is controlled to be in the same state as the position and posture of the observer 21.
[0039]
Instead of the moving camera 14 of the first embodiment, a head camera 14B incorporated in the head of the robot 13B is used. The head camera 14B takes an image of the direction in which the robot 13B is directed in real time, and sends the image information to the image processing unit 26B of the cockpit CP2.
[0040]
Moreover, it replaces with the image | video presentation apparatus 12 of 1st Embodiment, and HMP12B is used. The operator 11 wears the HMP 12B on the head and projects an image from the HMP 12B toward the robot 13B.
[0041]
That is, the HMP 12B projects an image forward from a position optically conjugate with the viewpoint of the operator 11 based on the image information output from the image processing unit 16B. This makes it appear to the operator 11 that the robot 13B is the observer 21 itself.
[0042]
Thus, in the image presentation device 1B of the second embodiment, the operator 11 cares for the robot 13B that has the same posture as the observer 21. Since the image of the observer 21 is projected on the robot 13B, it feels like nursing the actual observer 21. Therefore, when the operator 11 lifts the observer 21, nursing can be performed more realistically.
[0043]
In the image presentation apparatus 1B described above, the operator 11 wears clothes and gloves coated with the retroreflecting material RU, and projects the image from the HMP 12B onto his clothes and gloves, thereby the position of the robot 23B or The posture can be confirmed.
[0044]
That is, for example, when the operator 11 looks at his / her hand, the robot 23B operates to look at the hand in the same manner, so the hand of the robot 23B is taken by the head camera 24B, and the image is taken from the HMP 12B. 11 projected onto the hand. The operator 11 can confirm the state of the hand of the robot 23B by viewing the image projected on his / her hand.
[0045]
Thereby, the operator 11 can know the temporal or positional deviation between the movement of his / her hand and the movement of the hand of the robot 23B, and perform more precise work by feeding it back on his / her own. Is possible.
[0046]
By the way, if the light of the image projected from the HMP 12B is directly incident on the head camera 14B, it may exceed the range of brightness that can be taken by the head camera 14B. In this case, the head camera 14B is in a so-called “dimmed” state and cannot perform normal photographing. The same applies to the relationship between the HMP 22B and the head camera 24B. In order to prevent this, the light of the image projected from the HMP 12B may be prevented from entering the head camera 14B. To do so, there are the following measures.
[0047]
In the first measure, the image processing unit 16B sets the image of the portion corresponding to the head camera 14B in the image information output to the HMP 12B as a black image. For this purpose, a predetermined region in the image is processed as a black region based on signals input to the position / posture control units 15B and 25B or control signals output from them.
[0048]
In the second measure, a liquid crystal shutter or the like is provided in front of the HMP 12B to selectively block the light of the part that is about to enter the head camera 14B. In the third measure, polarizing filters having different polarization angles are arranged in front of the HMP 12B and in front of the head camera 14B.
[0049]
When using the first policy and the second policy, the position of the eyes of the observer 21 is such that the image of the eyes of the observer 21 is projected onto the robot 13B, that is, the facial expression of the observer 21 can be understood. And the position of the eyes of the robot 13B (position where the head camera 14B is disposed) need to be shifted.
[Third Embodiment]
FIG. 4 is a block diagram showing a configuration of an image presentation device 1C according to the third embodiment of the present invention.
[0050]
In the image presentation device 1C of the third embodiment, three cockpits CP1 to CP3 are provided. Two robots 13C and 23C are arranged in the third cockpit CP3. In addition to the head cameras 14C and 24C, HMPs 18C and 28C are mounted on the robots 13C and 23C, respectively. The HMPs 18C and 28C project images onto the partner robots 23C and 13C.
[0051]
In the second cockpit CP1, the operator 11 is photographed by the moving camera 17C. The image of the operator 11 obtained by the moving camera 17C is projected by the HMP 18C through the image processing unit 19C.
[0052]
In the third cockpit CP3, the operator 21 is photographed by the moving camera 27C. The image of the operator 21 obtained by the moving camera 27C is projected by the HMP 28C through the image processing unit 29C.
[0053]
The operation of the image presentation device 1C described above is basically the same as that of the image presentation device 1B. However, the images of the robots 13C and 23C in which the counterpart operators 11 and 21 are performing tele-distance, respectively, Are presented by the video presentation devices 12C and 22C of the operators 11 and 21. Accordingly, the operators 11 and 21 can perform the tele-distance while watching the opponents performing the tele-distance by the robots 13C and 23C, respectively, and can share the real world and experience it.
[Fourth Embodiment]
FIG. 5 is a block diagram showing a configuration of an image presentation device 1D according to the fourth embodiment of the present invention.
[0054]
The image presentation device 1D of the fourth embodiment is basically the same as the image presentation device 1C of the third embodiment, but differs in the following points. That is, the robots 20D and 30D are also provided in the cockpits CP1 and CP2. A retroreflecting material RU is applied to the surfaces of the robots 20D and 30D. The robots 20D and 30D are controlled by control signals from the position / posture control units 25D and 15D so as to follow the movements of the operators 21 and 11.
[0055]
Instead of the mobile cameras 17C and 27C of the third embodiment, head cameras 17D and 27D incorporated in the heads of the robots 20D and 30D are used. Further, HMPs 12D and 22D are used instead of the video presentation devices 12C and 22C.
[0056]
In the image presentation device 1D of this embodiment, the images of the robots 13D and 23D in which the counterpart operators 11 and 21 perform tele-distance are projected onto the robots 20D and 30D in front of the operators 11 and 21, respectively. The operators 11 and 21 perform tele-distance while viewing images projected on the robots 20D and 30D.
[Fifth Embodiment]
FIG. 6 is a block diagram showing a configuration of an image presentation device 1E according to the fifth embodiment of the present invention.
[0057]
In the image presentation device 1E of the fifth embodiment, the robot 13E is controlled by the robot control unit 42E. At that time, a signal indicating the position and posture of the robot 13E is fed back to the robot controller 42E.
[0058]
The graphic engine 41E generates a CG image (computer graphics image) based on the respective positions and postures of the robot 13E and the operator 11. The generated CG image is projected from the HMP 12E toward the robot 13E.
[0059]
According to the image presentation device 1E, an arbitrary image generated by the graphic engine 41E can be projected onto the robot 13E.
[0060]
The operation and effect of each embodiment described above can also be expressed as follows. That is, of the images observed by the operator 11 and the observer 21, a rough shape is created by the robot, and a fine portion is created by the image projected from the HMP, thereby increasing the reality. This makes it possible for the operator 11 or the observer 21 to make physical contact or work with the outside world using the robot, and to make mental contact using the image projected on the robot.
[0061]
This can also be viewed as a real world implementation of texture mapping in computer graphics.
[0062]
In the embodiment described above, the robot is controlled so as to move in real time following the movement of the operator 11 and the observer 21, but the movement of the operator 11 or the observer 21 is captured in advance, You may make it move a robot according to reproduction | regeneration. Further, not only the actual images of the operator 11 and the observer 21 but also a CG image may be superimposed. Although a humanoid robot is used as the robot, the present invention is not limited to this. For example, the present invention can also be applied to a pet robot or a manipulator robot in which only an arm extends from a wall.
[0063]
further, PaintingThe configuration, arrangement, number, operation content or operation sequence, operation timing, and operation timing of the whole or each part of the image presentation devices 1 and 1B to 1E can be appropriately changed in accordance with the spirit of the present invention.
[0064]
【The invention's effect】
According to the present invention, it is possible to visually realize fine shapes, colors, textures, and the like that are difficult to express depending on mechanical parts.
[0065]
Therefore, for example, when nursing is received by a robot of the telexistence system, the anxiety of receiving nursing by a machine can be relieved and psychological resistance can be reduced.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an image presentation device according to a first embodiment of the present invention.
FIG. 2 is a block diagram showing a configuration of an image presentation apparatus according to a second embodiment of the present invention.
FIG. 3 is a block diagram schematically illustrating a configuration of an image presentation apparatus according to a second embodiment.
FIG. 4 is a block diagram illustrating a configuration of an image presentation apparatus according to a third embodiment of the present invention.
FIG. 5 is a block diagram illustrating a configuration of an image presentation device according to a fourth embodiment of the present invention.
FIG. 6 is a block diagram illustrating a configuration of an image presentation device according to a fifth embodiment of the present invention.
[Explanation of symbols]
1,1B-E Image presentation device
11 Operator (Observer)
12B, 12D, 12E HMP (projection means, second projection means)
13B to 13E Robot (second robot, object)
14 Moving camera (photographing means)
14B Head camera (photographing means, second photographing means)
15 Position / attitude control unit (control means)
15B-13D Position / attitude control unit (control means, second control means)
16B to 16D Image processing unit (means for preventing)
17C moving camera (photographing means, second photographing means)
17D head camera (photographing means, second photographing means)
21 Observer (operator)
22 HMP (projection means)
22B, 22D HMP (projection means, second projection means)
23 Robot (object)
23B-23D Robot (second robot, object)
24B head camera (photographing means, second photographing means)
25B-23D Position / attitude control unit (control means, second control means)
26B-26D Image processing part (means for preventing)
27C Moving camera (photographing means, second photographing means)
27D head camera (photographing means, second photographing means)
41E graphic engine (image generation means)
42E Robot controller (control means)
RU retroreflective material

Claims (4)

観察者から観察される位置に再帰性反射材が塗布されたロボットと、前記ロボットをオペレータの動きに追従して動くように制御する制御手段と、前記ロボットを観察する前記観察者の位置に対応する位置から前記オペレータの映像を撮影する撮影手段と、前記観察者の位置から前記ロボットに向かって前記オペレータの映像を投影する投影手段と、を有することを特徴とする画像提示装置。A robot retroreflective material applied to the position to be observed from the observer, and a control controlling means to move to follow the robot to the movement of the operator, corresponding to the position of the observer who observes the robot An image presentation apparatus comprising: an imaging unit that captures an image of the operator from a position to be projected; and a projection unit that projects the image of the operator from the position of the observer toward the robot. 前記オペレータによる観察が可能であって再帰性反射材が塗布された第2のロボットと、前記第2のロボットを前記観察者の動きに追従して動くように制御する第2の制御手段と、前記第2のロボットを観察するオペレータの位置に対応する位置から前記観察者の映像を撮影する第2の撮影手段と、前記オペレータの位置から前記第2のロボットに向かって前記観察者の映像を投影する第2の投影手段と、を有してなる請求項1記載の画像提示装置。A second robot that can be observed by the operator and coated with a retroreflecting material; and a second control unit that controls the second robot to move following the movement of the observer; A second imaging means for capturing an image of the observer from a position corresponding to the position of an operator observing the second robot; and an image of the observer from the position of the operator toward the second robot. The image presentation apparatus according to claim 1, further comprising: a second projecting unit that projects. 前記撮影手段は、前記ロボットを観察する観察者の視点に対応する位置に設けられ、前記第2の撮影手段は、前記第2のロボットを観察するオペレータの視点に対応する位置に設けられ、前記投影手段から前記ロボットに向かって投影される映像の光が前記第2の撮影手段に入射することを防ぐ手段、及び前記第2の投影手段から前記第2のロボットに向かって投影される映像の光が前記撮影手段に入射することを防ぐ手段が設けられてなる、請求項記載の画像提示装置。The imaging means is provided at a position corresponding to the viewpoint of an observer observing the robot, and the second imaging means is provided at a position corresponding to the viewpoint of an operator observing the second robot, Means for preventing the light of the image projected from the projection means toward the robot from entering the second photographing means, and the image projected from the second projection means toward the second robot. The image presentation apparatus according to claim 2 , further comprising means for preventing light from entering the photographing means. 前記制御手段は、前記オペレータの動きの検出信号に基づいて、前記ロボットの動作を制御する構成となっていることを特徴とする、請求項1に記載の画像呈示装置。 The image presenting apparatus according to claim 1, wherein the control unit is configured to control an operation of the robot based on a detection signal of the operator's movement .
JP02062099A 1999-01-28 1999-01-28 Image presentation device Expired - Lifetime JP3982664B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP02062099A JP3982664B2 (en) 1999-01-28 1999-01-28 Image presentation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02062099A JP3982664B2 (en) 1999-01-28 1999-01-28 Image presentation device

Publications (2)

Publication Number Publication Date
JP2000218575A JP2000218575A (en) 2000-08-08
JP3982664B2 true JP3982664B2 (en) 2007-09-26

Family

ID=12032302

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02062099A Expired - Lifetime JP3982664B2 (en) 1999-01-28 1999-01-28 Image presentation device

Country Status (1)

Country Link
JP (1) JP3982664B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108972494A (en) * 2018-06-22 2018-12-11 华南理工大学 A kind of Apery manipulator crawl control system and its data processing method

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7705877B2 (en) 2004-01-28 2010-04-27 Hewlett-Packard Development Company, L.P. Method and system for display of facial features on nonplanar surfaces
CN102431034B (en) * 2011-09-05 2013-11-20 天津理工大学 Color recognition-based robot tracking method
US10265057B2 (en) 2013-08-14 2019-04-23 Intuitive Surgical Operations, Inc. Endoscope control system
CN107305378A (en) * 2016-04-20 2017-10-31 上海慧流云计算科技有限公司 A kind of method that image procossing follows the trail of the robot of object and follows the trail of object
WO2019065303A1 (en) * 2017-09-29 2019-04-04 本田技研工業株式会社 Service provision system, service provision method, and management device for service provision system
CN111695585A (en) * 2019-03-14 2020-09-22 顶级手套国际有限公司 Glove taking and placing method and system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108972494A (en) * 2018-06-22 2018-12-11 华南理工大学 A kind of Apery manipulator crawl control system and its data processing method
CN108972494B (en) * 2018-06-22 2020-09-22 华南理工大学 Humanoid manipulator grabbing control system and data processing method thereof

Also Published As

Publication number Publication date
JP2000218575A (en) 2000-08-08

Similar Documents

Publication Publication Date Title
US11819273B2 (en) Augmented and extended reality glasses for use in surgery visualization and telesurgery
US7626569B2 (en) Movable audio/video communication interface system
US6774869B2 (en) Teleportal face-to-face system
US7843470B2 (en) System, image processing apparatus, and information processing method
Tachi Telexistence: Enabling humans to be virtually ubiquitous
Tachi et al. Telesarphone: Mutual telexistence master-slave communication system based on retroreflective projection technology
WO2010102288A2 (en) Methods, systems, and computer readable media for shader-lamps based physical avatars of real and virtual people
EP4031050A1 (en) Surgical virtual reality user interface
Roberts et al. Communicating eye-gaze across a distance: Comparing an eye-gaze enabled immersive collaborative virtual environment, aligned video conferencing, and being together
WO2021062375A1 (en) Augmented and extended reality glasses for use in surgery visualization and telesurgery
Lincoln et al. Animatronic shader lamps avatars
JP2534617B2 (en) Real-time recognition and synthesis method of human image
JP3982664B2 (en) Image presentation device
Tachi From 3D to VR and further to telexistence
WO2018084087A1 (en) Image display system, image display device, control method therefor, and program
Saraiji et al. Real-time egocentric superimposition of operator's own body on telexistence avatar in virtual environment
JP2830291B2 (en) 3D display device
JPH1184313A (en) Video observation device
JP7356697B2 (en) Image observation system
JPWO2021220494A5 (en)
JP5656809B2 (en) Conversation video display system
CN113614675A (en) Head-mounted information processing device and head-mounted display system
JP4144981B2 (en) Stereoscopic image display device
JPH09147142A (en) Displaying method and device therefor
WO2023140120A1 (en) Surgical robot system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20040116

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20040830

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20040928

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20040831

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20040928

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20041217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060911

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070131

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070628

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100713

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100713

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110713

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120713

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130713

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term