JP3982664B2 - Image presentation device - Google Patents
Image presentation device Download PDFInfo
- Publication number
- JP3982664B2 JP3982664B2 JP02062099A JP2062099A JP3982664B2 JP 3982664 B2 JP3982664 B2 JP 3982664B2 JP 02062099 A JP02062099 A JP 02062099A JP 2062099 A JP2062099 A JP 2062099A JP 3982664 B2 JP3982664 B2 JP 3982664B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- image
- operator
- observer
- projected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Manipulator (AREA)
- Accommodation For Nursing Or Treatment Tables (AREA)
- Closed-Circuit Television Systems (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、テレイグジスタンス(Tele-Existence)などの分野において利用される画像提示装置に関し、特に、任意形状の物体をスクリーンとして映像を投影し、映像によって表示される対象物を物体の存在する位置に対話的に提示するために用いられる装置に関する。
【0002】
【従来の技術】
従来において、遠方にあったり危険な場所にあったりするためにオペレータが対象物を直接に操作できない場合に、オペレータの動きに追従して動くように制御されたロボットを配置し、オペレータがロボットを介して対象物を間接的に操作することが行われている。これによって、オペレータは、ロボットの配置された環境にいるような感覚で精密な作業を行うことが可能である。このようなシステムは、テレイグジスタンスシステム、テレイグジスタンス型ロボットシステム、又はテレロボティクスなどと呼称されている。
【0003】
例えば、医者が遠方にいる病人又は負傷者などの被看護者を看護する場合を想定する。被看護者はベッドに横たわっており、その側には看護のためのロボットが配置されている。ロボットは、医者の動きに追従して動くように制御されている。ロボットの目の位置にはカメラが設けられ、カメラによって被看護者が撮影されている。
【0004】
医者は、コックピット内において、バーチャルリアリティ(Virtual Reality ) 又はコンピュータビジュアライゼーション(Computer Visualization) の技術によって被看護者の像を見ながら、被看護者に対する看護を行うように動作する。医者のその動作に応じてロボットが動作し、ロボットによって被看護者の実際の看護が行われる。この場合において、医者はロボットのオペレータであり、被看護者はロボットの観察者である。
【0005】
【発明が解決しようとする課題】
このように、従来から介護やコミュニケーションなどを目的として人型のロボットが開発されつつある。しかし、ロボットの大きさや形状は人間に近くなってきたものの、その外観は人間とは大きく異なっている。
【0006】
そこで、このような人型のロボットに表情を生成するために、ロボットの頭部にCRTを搭載し、CRTによって頭部映像を表示することが提案されている。しかし、この場合には、顔面の形状がCRTの形状によって決まってしまうので、正面から見る以外は不自然な表情となってしまう。また、CRTによる表示領域は広くないので、顔面以外の部分に表情を持たすことは実際上困難である。
【0007】
また、ロボットの顔面に、機械的に動かすことの可能な目、眉、又は口などの部品を装着しておき、それらを細かく制御して動かし、これによって現実感のある表情を再現しようとする研究が行われている。しかし、その機械部品などが表情を再現するのに中途半端であった場合には、より冷たい表情を連想させ却って逆効果であるとの指摘もされている。
【0008】
上に述べたように、オペレータが遠隔地の被看護者(人間)に対して働きかける作業を行おうとした場合に、テレイグジスタンスシステムを用いることによって、オペレータ自身はあたかも遠隔地にいるかのような臨場感を体感することが可能である。しかし、オペレータの分身ともいえるロボットの姿はオペレータの姿とは異なっている。したがって、ロボットにより働きかけられる被看護者からそのロボットを見ると、それはやはりロボットであり、ロボットの中にオペレータの姿を観察することはできない。
【0009】
因みに、介護などの現場において、リフトなどの装置により被介護者をベッドから移動させる装置がある。しかし、多くの被介護者は機械のみにより扱われることに不安感を抱き心理的な抵抗を持つとされている。
【0010】
本発明は、上述の問題に鑑みてなされたもので、機械的な部品によっては表現することの困難な細かい形状、色、質感などを視覚的に実現することを目的とする。
【0011】
【課題を解決するための手段】
請求項1の発明に係る装置は、図1に示すように、観察者21から観察される位置に再帰性反射材RUが塗布されたロボット23と、前記ロボット23をオペレータ11の動きに追従して動くように制御する制御手段15と、前記ロボット23を観察する観察者21の位置に対応する位置から前記オペレータ11の映像を撮影する撮影手段14と、前記観察者21の位置から前記ロボット23 に向かって前記オペレータ11の映像を投影する投影手段22と、を有してなる。
【0012】
ここにおいて、観察者21は、人間ではなくロボットであってもよい。つまり、例えばロボット同士が向かい合うようにし、一方のロボットをオペレータの動きに追従して動くように制御し、他方のロボットを別の観察者の動きに追従して動くように制御するように構成してもよい。
【0013】
請求項2の発明に係る装置は、図2に示すように、前記オペレータ11による観察が可能であって再帰性反射材が塗布された第2のロボット13Bと、前記第2のロボット13Bを前記観察者21の動きに追従して動くように制御する第2の制御手段25Bと、前記第2のロボット13Bを観察するオペレータ11の位置に対応する位置から前記観察者21の映像を撮影する第2の撮影手段24Bと、前記オペレータ11の位置から前記第2のロボット13Bに向かって前記観察者21の映像を投影する第2の投影手段12Bと、を有してなる。
【0014】
請求項3の発明に係る装置では、前記撮影手段14は、前記ロボット23を観察する観察者21の視点に対応する位置に設けられ、前記第2の撮影手段24Bは、前記第2のロボット13Bを観察するオペレータ11の視点に対応する位置に設けられ、前記投影手段22から前記ロボット23に向かって投影される映像の光が前記第2の撮影手段24Bに入射することを防ぐ手段、及び前記第2の投影手段12Bから前記第2のロボット13Bに向かって投影される映像の光が前記撮影手段14Bに入射することを防ぐ手段が設けられてなる。
【0015】
請求項4の発明に係る装置は、前記制御手段15が、前記オペレータ11の動きの検出信号に基づいて、前記ロボット23の動作を制御する構成となっているものである。
【0016】
【発明の実施の形態】
〔第1の実施形態〕
図1は本発明に係る第1の実施形態の画像提示装置1の構成を示すブロック図である。
【0017】
図1において、画像提示装置1は、互いに離れた場所にある2つのコックピットCP1,CP2によって構成されている。一方のコックピットCP1にはオペレータ11が居て、他方のコックピットCP2には観察者21が居る。ここでは、観察者21は被看護者であり、オペレータ11は医者などの看護者であるとする。つまり、観察者21はオペレータ11によって間接的に看護される状況にある(図3を参照)。
【0018】
オペレータ11は、その動きを検出するためのセンサを身につけている。そのようなセンサとして、例えば、ヘッドポジションセンサ、データグローブ、又はデータスーツなどが用いられる。また、センサとして、オペレータ11の状態を非接触で計測する3次元計測装置を用いることも可能である。それらのセンサの出力信号は、位置・姿勢制御部15によって制御信号となり、コックピットCP2のロボット23に送出される。
【0019】
オペレータ11は、映像提示装置12により提示される画像(映像)を観察することができる。映像提示装置12として、CAVE型ディスプレイが好適に用いられる。しかし、HMP22と同様なディスプレイ、又はヘッドマウンテッドディスプレイ(HMD:Head Mounted Display)、その他の形式の映像提示装置を用いることも可能である。コックピットCP2の頭部カメラ24から送られてくる画像情報は、画像処理部16を介して画像提示装置12に出力され、観察者21の画像がオペレータ11に提示される。
【0020】
オペレータ11の前方には、移動カメラ14が設置されている。移動カメラ14は、公知の6自由度の両眼立体視カメラである。移動カメラ14は、観察者21の位置及び姿勢に応じて移動するのであるが、観察者21は余り大きく動かないので、通常のテレイグジスタンス用のカメラで充分である。移動カメラ14は、オペレータ11の画像(映像)をリアルタイムで撮影し、その画像情報をコックピットCP2に送出する。図示は省略したが、移動カメラ14には、音声を出力するためのスピーカが備えられている。
【0021】
また、図示は省略したが、オペレータ11又は移動カメラ14には、音声を検出するためのマイクロフォンが備えられており、検出された音声情報はコックピットCP2のロボット23に送出される。
【0022】
他方、観察者21は、その動きを検出するためのセンサを身につけている。そのようなセンサとして、オペレータ11において用いられるものと同様なものを用いることができる。但し、観察者21はオペレータ11と比較して動きが少ないので、簡便なセンサで間に合う場合もある。それらのセンサの出力信号は、位置・姿勢制御部25によって制御信号となり、コックピットCP1の移動カメラ14に送出される。
【0023】
観察者21は、さらにHMP(頭部搭載型プロジェクタ)22を装着している。HMP22は、画像処理部26から出力される画像情報に基づいて、観察者21の視点と光学的に共役な位置から前方に向かって画像(映像)を投影する。HMP22として位置センサ付のものを用いた場合には、これによって上に述べたセンサに代えることも可能である。HMP22の構造に関しては、川上他著「オブジェクト指向型ディスプレイの研究」(情報処理学会研究報告 Vol98,No.9 P79−84)にその一例が記載されている。なお、HMP22から投影される画像の内容については後述する。
【0024】
さらに、コックピットCP2には、頭部、胸部、腕部、及び脚部など、人間の外観に似た形状で且つ人間の動きに似た動きをすることの可能な人型のロボット23が配備されている。ロボット23の表面には、特に観察者21により観察される部分、つまりHMP22により画像が投影される部分、例えばロボット23の顔面、頭部、肩、腕などに、再帰性反射材RUが塗布されている。ロボット23は、オペレータ11の動きに追従して動くように、位置・姿勢制御部15からの制御信号によって制御される。つまり、ロボット23は、オペレータ11の位置及び姿勢と同じ状態となるように制御される。
【0025】
ロボット23の頭部には、その顔面の目の位置に頭部カメラ24が設けられている。頭部カメラ24は、ロボット23の向いた方向の画像をリアルタイムで撮影し、その画像情報をコックピットCP1の画像処理部16に送出する。通常、頭部カメラ24によって観察者21が撮影される。その視野が広い場合には、ロボット23自身、例えばその腕、手、脚などが撮影される。
【0026】
図示は省略したが、ロボット23には、音声を出力するためのスピーカが備えられている。また、観察者21又はロボット23には、音声を検出するためのマイクロフォンが備えられており、検出された音声情報はコックピットCP1の移動カメラ14に送出される。
【0027】
次に、HMP22からロボット23に向かって投影される画像(映像)について説明する。
【0028】
移動カメラ14は、オペレータ11を撮影するが、オペレータ11に対する撮影位置は、ロボット23に対する観察者21の視点位置つまりHMP22の投影位置と同じ関係にある。また、ロボット23はオペレータ11と同じ動作をするので、観察者21からロボット23を見ると、オペレータ11がロボット23と入れ替わったような状態である。しかし、ロボット23のおおよその形状はオペレータ11のそれに近いが、その外観は大きく異なっている。そこで、HMP22によってオペレータ11の画像をロボット23に投影し、ロボット23にオペレータ11と同じ表情や質感を与えるのである。
【0029】
つまり、観察者21からロボット23を見たときに、ロボット23が恰もオペレータ11自身であるように見せるための画像が、HMP22から投影される。しかもその画像はオペレータ11の動き及び表情などに応じて変化する。これによって、機械的な部品によっては表現することの困難な細かい形状、色、質感などを視覚的に実現することができ、また、オペレータ11の表情をロボット23上で再現することができる。オペレータ11又は観察者21の位置が変化した場合であっても、それぞれの位置及び姿勢が検出されており、それぞれの位置及び姿勢に応じて、HMP22から投影すべき画像が生成される。そのために画像処理部26において行われる画像処理の内容それ自体については、イメージ・ベースト・レンダリングの手法などの公知の画像処理技術を利用することが可能である。
【0030】
HMP22から投影された画像は、ロボット23の表面に塗布された再帰性反射材RUによって反射され、観察者21に鮮明な画像(映像)を提示する。ここで、再帰性反射材RUは、光源の方向に強い指向性を持って反射する材料であり、コーナーキューブアレイ又はガラスビーズなどを用いて実現される。したがってロボット23に投影された画像は、観察者21の視線方向に高い輝度を有する。観察者21は、ロボット23上に投影された画像を極めて高い輝度で観察することができる。
【0031】
なお、移動カメラ14によりオペレータ11を撮影する際に、腕や衣服などにより死角となって移動カメラ14によっては撮影できない部分が生じる。死角となった部分の画像は、HMP22によって投影することができず、したがってその部分の画像はロボット23に表示されない。しかし、移動カメラ14から見て死角の部分は観察者21から見ても死角となるので、何ら問題はない。なお、上に述べた画像提示方法に関し、本発明者らの提案した特願平10−172722号を参照することができる。
【0032】
次に、上のように構成された画像提示装置1の動作について説明する。
【0033】
オペレータ11は、映像提示装置12により提示された観察者21の映像を見ながら、観察者21を看護するための動作を行う。オペレータ11の動作は、そのままロボット23の動作となり、ロボット23によって観察者21の看護が行われる。
【0034】
オペレータ11の映像が移動カメラ14によって捕らえられ、その映像がHMP22によってロボット23に投影される。オペレータ11の声もマイクロフォンにより捕らえられ、効果音が加えられてロボット23のスピーカーから発せられる。
【0035】
観察者21は、ロボット23によって看護を受けるのであるが、ロボット23にはオペレータ11の画像が投影されているので、ロボット23が恰もオペレータ11自身であるように見える。すなわち、観察者21は、オペレータ11の表情などを細かく観察することができる。このように、観察者21は、ロボット23ではなく、オペレータ11を見ながら、またオペレータ11と会話をしながら、看護を受けることとなる。したがって、観察者21からロボット23を観察したときに、そこにオペレータ11の姿や細かい表情の動きを読み取ることができ、機械によって看護を受けるという不安感を和らげ、心理的な抵抗を低減することができる。
【0036】
なお、オペレータ11についても、テレイグジスタンスの利点である白由な運動を自然に伝えながら遠隔から介護を行えるので、現場に行って介護を行うのと同等の効果をあげられる。
【0037】
なお、位置・姿勢制御部15,25及び画像処理部16,26は、いずれのコックピットCP1,2に配置されてもよく、コックピットCP1,2以外の場所に配置されてもよい。それらは、互いに別個の装置として構成することも可能であり、また、全体で1つの装置として構成することも可能である。また、例えば、位置・姿勢制御部15をHMP12B又はロボット23に組み込んだり、画像処理部16をロボット23又は映像提示装置12に組み込んだりすることも可能である。
〔第2の実施形態〕
図2は本発明に係る第2の実施形態の画像提示装置1Bの構成を示すブロック図、図3は画像提示装置1Bの構成を模式的に示すブロック図である。なお、第2の実施形態の画像提示装置1Bにおいて、第1の実施形態の画像提示装置1の構成要素に対応する構成要素については同じ数字符号を付し、その説明を省略し又は簡略化する。以下同様である。
【0038】
画像提示装置1Bにおいては、コックピットCP1にもロボット23と同様なロボット13Bが配備されている。ロボット13Bの表面には再帰性反射材RUが塗布されている。ロボット13Bは、観察者21の動きに追従して動くように、位置・姿勢制御部15Bからの制御信号によって制御される。つまり、ロボット13Bは、観察者21の位置及び姿勢と同じ状態となるように制御される。
【0039】
第1の実施形態の移動カメラ14に代えて、ロボット13Bの頭部に組み込まれた頭部カメラ14Bが用いられる。頭部カメラ14Bは、ロボット13Bの向いた方向の画像をリアルタイムで撮影し、その画像情報をコックピットCP2の画像処理部26Bに送出する。
【0040】
また、第1の実施形態の映像提示装置12に代えて、HMP12Bが用いられる。オペレータ11がHMP12Bを頭部に装着し、HMP12Bからロボット13Bに向かって画像を投影する。
【0041】
すなわち、HMP12Bは、画像処理部16Bから出力される画像情報に基づいて、オペレータ11の視点と光学的に共役な位置から前方に向かって画像を投影する。これによって、オペレータ11にとって、ロボット13Bが恰も観察者21自身であるかのように見える。
【0042】
このように、第2の実施形態の画像提示装置1Bにおいて、オペレータ11は、観察者21と同じ姿勢をしたロボット13Bを看護する。ロボット13Bには観察者21の画像が投影されているので、実際の観察者21を看護するように感じられる。したがって、オペレータ11が観察者21を抱き上げたりする場合に、より一層リアルに看護を行うことができる。
【0043】
上に述べた画像提示装置1Bにおいて、オペレータ11が再帰性反射材RUを塗布した衣服や手袋を着用し、HMP12Bからの画像を自分の衣服や手袋上に投影することによって、ロボット23Bの位置又は姿勢を確認することができる。
【0044】
つまり、例えば、オペレータ11が自分の手を見ることによって、ロボット23Bも同じようにその手を見るように動作するので、ロボット23Bの手が頭部カメラ24Bによって撮影され、その画像がHMP12Bからオペレータ11の手に投影される。オペレータ11は、自分の手に投影された画像を見ることによって、ロボット23Bの手の状態を確認することができる。
【0045】
これによって、オペレータ11は、自分の手の動きとロボット23Bの手の動きとの時間的又は位置的なずれを知ることができ、それを自分自身でフィードバックすることによってより精密な作業を行うことが可能となる。
【0046】
ところで、HMP12Bから投影される画像の光が頭部カメラ14Bに直接に入射すると、頭部カメラ14Bの撮影可能な明かるさの範囲を越えることがある。そうなると、頭部カメラ14Bは、所謂「目眩まし」の状態となり、正常な撮影を行うことができない。HMP22Bと頭部カメラ24Bとの関係においても同様である。これを防止するためには、HMP12Bから投影される画像の光が頭部カメラ14Bに入射しないようにすればよい。そのためには次の方策がある。
【0047】
第1の方策は、画像処理部16Bによって、HMP12Bに出力する画像情報のうちの頭部カメラ14Bに対応する部分の画像を黒画像としておく。そのためには、位置・姿勢制御部15B,25Bに入力される信号又はそれらから出力される制御信号などに基づいて、画像中の所定の領域を黒領域とする処理を行う。
【0048】
第2の方策は、HMP12Bの前に液晶シャッターなどを配備し、頭部カメラ14Bに入射しようとする部分の光を選択的に遮断する。第3の方策は、HMP12Bの前と頭部カメラ14Bの前とに互いに偏光角度の異なる偏光フィルタを配置する。
【0049】
なお、第1の方策及び第2の方策を用いる際には、観察者21の目の画像がロボット13Bに投影されるよう、つまり観察者21の表情が分かるよう、観察者21の目の位置とロボット13Bの目の位置(頭部カメラ14Bが配置される位置)とをずらしておく必要がある。
〔第3の実施形態〕
図4は本発明に係る第3の実施形態の画像提示装置1Cの構成を示すブロック図である。
【0050】
第3の実施形態の画像提示装置1Cでは、3つのコックピットCP1〜3が設けられる。第3のコックピットCP3には、2つのロボット13C,23Cが配備される。それぞれのロボット13C,23Cには、頭部カメラ14C,24Cの他に、HMP18C,28Cが搭載されている。HMP18C,28Cは、互いに相手のロボット23C,13Cに対して画像を投影する。
【0051】
第2のコックピットCP1では、移動カメラ17Cによってオペレータ11を撮影する。移動カメラ17Cにより得られたオペレータ11の画像は、画像処理部19Cを経て、HMP18Cによって投影される。
【0052】
第3のコックピットCP3では、移動カメラ27Cによってオペレータ21を撮影する。移動カメラ27Cにより得られたオペレータ21の画像は、画像処理部29Cを経て、HMP28Cによって投影される。
【0053】
上に述べた画像提示装置1Cの動作は、基本的には画像提示装置1Bと同様であるが、それぞれ相手のオペレータ11,21がテレイグジスタンスを行っているロボット13C,23Cの画像が、それぞれのオペレータ11,21の映像提示装置12C,22Cによって提示される。したがって、オペレータ11,21は、それぞれロボット13C,23Cによってテレイグジスタンスを行っている相手を見ながらそれぞれテレイグジスタンスを行い、現実世界を共有し、実体験することができる。
〔第4の実施形態〕
図5は本発明に係る第4の実施形態の画像提示装置1Dの構成を示すブロック図である。
【0054】
第4の実施形態の画像提示装置1Dは、第3の実施形態の画像提示装置1Cと基本的に同じであるが、次の点で異なる。すなわち、コックピットCP1,2にもロボット20D,30Dが配備されている。ロボット20D,30Dの表面には再帰性反射材RUが塗布されている。ロボット20D,30Dは、オペレータ21,11の動きに追従して動くように、位置・姿勢制御部25D,15Dからの制御信号によって制御される。
【0055】
第3の実施形態の移動カメラ17C,27Cに代えて、ロボット20D,30Dの頭部に組み込まれた頭部カメラ17D,27Dが用いられる。また、映像提示装置12C,22Cに代えて、HMP12D,22Dが用いられる。
【0056】
この実施形態の画像提示装置1Dでは、それぞれ相手のオペレータ11,21がテレイグジスタンスを行うロボット13D,23Dの画像が、それぞれのオペレータ11,21の目前のロボット20D,30Dに投影される。オペレータ11,21は、ロボット20D,30Dに投影された画像を見ながらテレイグジスタンスを行う。
〔第5の実施形態〕
図6は本発明に係る第5の実施形態の画像提示装置1Eの構成を示すブロック図である。
【0057】
第5の実施形態の画像提示装置1Eでは、ロボット13Eは、ロボット制御部42Eによって制御される。その際に、ロボット13Eの位置及び姿勢を示す信号がロボット制御部42Eにフィードバックされる。
【0058】
グラフィックエンジン41Eは、ロボット13E及びオペレータ11のそれぞれの位置及び姿勢に基づいて、CG画像(コンピュータグラフィックス画像)を生成する。生成したCG画像が、HMP12Eからロボット13Eに向かって投影される。
【0059】
画像提示装置1Eによると、グラフィックエンジン41Eで生成した任意の画像をロボット13Eに投影することができる。
【0060】
上に述べた各実施形態の動作及び効果は、次のように表すこともできる。つまり、オペレータ11及び観察者21などにより観察される画像のうち、大まかな形状をロボットによって作り、細かな部分をHMPから投影される画像によって作り、リアリティを増大させる。これによって、オペレータ11又は観察者21による外部世界との物理的接触又は作業をロボットにより行い、精神的接触をそのロボットに投影された映像により行うことが可能になるのである。
【0061】
これは、コンピュータグラフィックスにおけるテクスチャマッピングの現実世界における実装と見ることもできる。
【0062】
上に述べた実施形態において、オペレータ11及び観察者21の動きに追従してロボットがリアルタイムで動くように制御したが、オペレータ11又は観察者21の動きを予め撮影しておき、撮影した映像の再生に合わせてロボットを動かすようにしてもよい。また、オペレータ11及び観察者21の実画像のみでなく、CG画像を重畳させてもよい。ロボットとして人型のロボットを用いたが、それに限らず、例えば、ペットロボット、又は壁からアームのみが延びているようなマニピュレータ型のロボットなどにも適用可能である。
【0063】
さらに、画像提示装置1,1B〜Eの全体又は各部の構成、配置、個数、動作内容又は動作順序、及び動作タイミングなどは、本発明の趣旨に沿って適宜変更することができる。
【0064】
【発明の効果】
本発明によると、機械的な部品によっては表現することの困難な細かい形状、色、質感などを視覚的に実現することができる。
【0065】
したがって、例えばテレイグジスタンスシステムのロボットによって看護を受ける場合などにおいて、機械によって看護を受けるという不安感を和らげ、心理的な抵抗を低減することができる。
【図面の簡単な説明】
【図1】本発明に係る第1の実施形態の画像提示装置の構成を示すブロック図である。
【図2】本発明に係る第2の実施形態の画像提示装置の構成を示すブロック図である。
【図3】第2の実施形態の画像提示装置の構成を模式的に示すブロック図である。
【図4】本発明に係る第3の実施形態の画像提示装置の構成を示すブロック図である。
【図5】本発明に係る第4の実施形態の画像提示装置の構成を示すブロック図である。
【図6】本発明に係る第5の実施形態の画像提示装置の構成を示すブロック図である。
【符号の説明】
1,1B〜E 画像提示装置
11 オペレータ(観察者)
12B,12D,12E HMP(投影手段、第2の投影手段)
13B〜13E ロボット(第2のロボット、物体)
14 移動カメラ(撮影手段)
14B 頭部カメラ(撮影手段、第2の撮影手段)
15 位置・姿勢制御部(制御手段)
15B〜13D 位置・姿勢制御部(制御手段、第2の制御手段)
16B〜16D 画像処理部(防ぐ手段)
17C 移動カメラ(撮影手段、第2の撮影手段)
17D 頭部カメラ(撮影手段、第2の撮影手段)
21 観察者(オペレータ)
22 HMP(投影手段)
22B,22D HMP(投影手段、第2の投影手段)
23 ロボット(物体)
23B〜23D ロボット(第2のロボット、物体)
24B 頭部カメラ(撮影手段、第2の撮影手段)
25B〜23D 位置・姿勢制御部(制御手段、第2の制御手段)
26B〜26D 画像処理部(防ぐ手段)
27C 移動カメラ(撮影手段、第2の撮影手段)
27D 頭部カメラ(撮影手段、第2の撮影手段)
41E グラフィックエンジン(画像生成手段)
42E ロボット制御部(制御手段)
RU 再帰性反射材[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image presentation apparatus used in a field such as Tele-Existence, and in particular, an image is projected using an object of an arbitrary shape as a screen, and an object displayed by the image exists as an object. The present invention relates to a device used to interactively present a position.
[0002]
[Prior art]
Conventionally, when an operator cannot directly operate an object because it is far away or in a dangerous place, a robot controlled to move following the movement of the operator is arranged, and the operator moves the robot. Indirect manipulation of the object is performed. As a result, the operator can perform precise work as if he were in the environment where the robot was placed. Such a system is called a teleexistence system, a teleexistence type robot system, or telerobotics.
[0003]
For example, suppose that a doctor cares for a patient such as a sick person or an injured person who is far away. The patient is lying on the bed, and a robot for nursing is arranged on the side. The robot is controlled to move following the movement of the doctor. A camera is provided at the position of the robot's eyes, and the patient is photographed by the camera.
[0004]
In the cockpit, the doctor operates to perform nursing care for the patient while looking at the image of the patient by using the virtual reality or computer visualization technology. The robot operates according to the movement of the doctor, and the actual nursing of the patient is performed by the robot. In this case, the doctor is a robot operator, and the care recipient is a robot observer.
[0005]
[Problems to be solved by the invention]
Thus, humanoid robots have been developed for the purpose of nursing care and communication. However, although the size and shape of robots have become closer to humans, their appearance is very different from humans.
[0006]
Therefore, in order to generate a facial expression on such a humanoid robot, it has been proposed to mount a CRT on the robot's head and display the head image by the CRT. However, in this case, since the shape of the face is determined by the shape of the CRT, the expression becomes unnatural except when viewed from the front. In addition, since the display area by CRT is not large, it is practically difficult to have facial expressions other than the face.
[0007]
In addition, parts such as eyes, eyebrows, or mouth that can be moved mechanically are mounted on the face of the robot, and they are controlled and moved in order to reproduce realistic facial expressions. Research is underway. However, it has also been pointed out that if the machine part is halfway in reproducing a facial expression, it is counterproductive by reminiscent of a cooler facial expression.
[0008]
As described above, when an operator tries to work on a remote nurse (human), using the tele-existence system makes the operator feel as if he is in a remote location. It is possible to experience a sense of reality. However, the appearance of a robot, which can be said to be an operator, is different from that of an operator. Therefore, when the robot is viewed from a nurse to be worked on by the robot, it is still a robot, and the appearance of the operator cannot be observed in the robot.
[0009]
Incidentally, there is a device that moves a cared person from a bed by a device such as a lift at a site such as nursing. However, many care recipients are thought to have anxiety about being treated only by machines and have psychological resistance.
[0010]
The present invention has been made in view of the above-described problems, and an object thereof is to visually realize fine shapes, colors, textures, and the like that are difficult to express depending on mechanical parts.
[0011]
[Means for Solving the Problems]
As shown in FIG. 1, the apparatus according to the invention of claim 1At the position observed from the observer 21A position corresponding to the position of the
[0012]
Here, the
[0013]
As shown in FIG. 2, the apparatus according to the second aspect of the present invention includes a
[0014]
In the apparatus according to the invention of
[0015]
An apparatus according to the invention of claim 4The control means 15 is configured to control the operation of the
[0016]
DETAILED DESCRIPTION OF THE INVENTION
[First Embodiment]
FIG. 1 is a block diagram showing a configuration of an
[0017]
In FIG. 1, the
[0018]
The
[0019]
The
[0020]
A moving camera 14 is installed in front of the
[0021]
Although not shown, the
[0022]
On the other hand, the
[0023]
The
[0024]
Further, the cockpit CP2 is provided with a
[0025]
A head camera 24 is provided on the head of the
[0026]
Although not shown, the
[0027]
Next, an image (video) projected from the
[0028]
The moving camera 14 photographs the
[0029]
That is, when viewing the
[0030]
The image projected from the
[0031]
It should be noted that when the
[0032]
Next, the operation of the
[0033]
The
[0034]
An image of the
[0035]
The
[0036]
The
[0037]
The position / posture control units 15 and 25 and the image processing units 16 and 26 may be disposed in any cockpit CP1 or 2, or may be disposed in a place other than the cockpit CP1 or 2. They can be configured as separate devices, or can be configured as a single device as a whole. Further, for example, the position / posture control unit 15 can be incorporated into the
[Second Embodiment]
FIG. 2 is a block diagram showing the configuration of the
[0038]
In the
[0039]
Instead of the moving camera 14 of the first embodiment, a
[0040]
Moreover, it replaces with the image | video presentation apparatus 12 of 1st Embodiment, and HMP12B is used. The
[0041]
That is, the
[0042]
Thus, in the
[0043]
In the
[0044]
That is, for example, when the
[0045]
Thereby, the
[0046]
By the way, if the light of the image projected from the
[0047]
In the first measure, the
[0048]
In the second measure, a liquid crystal shutter or the like is provided in front of the
[0049]
When using the first policy and the second policy, the position of the eyes of the
[Third Embodiment]
FIG. 4 is a block diagram showing a configuration of an image presentation device 1C according to the third embodiment of the present invention.
[0050]
In the image presentation device 1C of the third embodiment, three cockpits CP1 to CP3 are provided. Two
[0051]
In the second cockpit CP1, the
[0052]
In the third cockpit CP3, the
[0053]
The operation of the image presentation device 1C described above is basically the same as that of the
[Fourth Embodiment]
FIG. 5 is a block diagram showing a configuration of an image presentation device 1D according to the fourth embodiment of the present invention.
[0054]
The image presentation device 1D of the fourth embodiment is basically the same as the image presentation device 1C of the third embodiment, but differs in the following points. That is, the
[0055]
Instead of the
[0056]
In the image presentation device 1D of this embodiment, the images of the
[Fifth Embodiment]
FIG. 6 is a block diagram showing a configuration of an
[0057]
In the
[0058]
The
[0059]
According to the
[0060]
The operation and effect of each embodiment described above can also be expressed as follows. That is, of the images observed by the
[0061]
This can also be viewed as a real world implementation of texture mapping in computer graphics.
[0062]
In the embodiment described above, the robot is controlled so as to move in real time following the movement of the
[0063]
further, PaintingThe configuration, arrangement, number, operation content or operation sequence, operation timing, and operation timing of the whole or each part of the
[0064]
【The invention's effect】
According to the present invention, it is possible to visually realize fine shapes, colors, textures, and the like that are difficult to express depending on mechanical parts.
[0065]
Therefore, for example, when nursing is received by a robot of the telexistence system, the anxiety of receiving nursing by a machine can be relieved and psychological resistance can be reduced.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an image presentation device according to a first embodiment of the present invention.
FIG. 2 is a block diagram showing a configuration of an image presentation apparatus according to a second embodiment of the present invention.
FIG. 3 is a block diagram schematically illustrating a configuration of an image presentation apparatus according to a second embodiment.
FIG. 4 is a block diagram illustrating a configuration of an image presentation apparatus according to a third embodiment of the present invention.
FIG. 5 is a block diagram illustrating a configuration of an image presentation device according to a fourth embodiment of the present invention.
FIG. 6 is a block diagram illustrating a configuration of an image presentation device according to a fifth embodiment of the present invention.
[Explanation of symbols]
1,1B-E Image presentation device
11 Operator (Observer)
12B, 12D, 12E HMP (projection means, second projection means)
13B to 13E Robot (second robot, object)
14 Moving camera (photographing means)
14B Head camera (photographing means, second photographing means)
15 Position / attitude control unit (control means)
15B-13D Position / attitude control unit (control means, second control means)
16B to 16D Image processing unit (means for preventing)
17C moving camera (photographing means, second photographing means)
17D head camera (photographing means, second photographing means)
21 Observer (operator)
22 HMP (projection means)
22B, 22D HMP (projection means, second projection means)
23 Robot (object)
23B-23D Robot (second robot, object)
24B head camera (photographing means, second photographing means)
25B-23D Position / attitude control unit (control means, second control means)
26B-26D Image processing part (means for preventing)
27C Moving camera (photographing means, second photographing means)
27D head camera (photographing means, second photographing means)
41E graphic engine (image generation means)
42E Robot controller (control means)
RU retroreflective material
Claims (4)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP02062099A JP3982664B2 (en) | 1999-01-28 | 1999-01-28 | Image presentation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP02062099A JP3982664B2 (en) | 1999-01-28 | 1999-01-28 | Image presentation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000218575A JP2000218575A (en) | 2000-08-08 |
JP3982664B2 true JP3982664B2 (en) | 2007-09-26 |
Family
ID=12032302
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP02062099A Expired - Lifetime JP3982664B2 (en) | 1999-01-28 | 1999-01-28 | Image presentation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3982664B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108972494A (en) * | 2018-06-22 | 2018-12-11 | 华南理工大学 | A kind of Apery manipulator crawl control system and its data processing method |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7705877B2 (en) | 2004-01-28 | 2010-04-27 | Hewlett-Packard Development Company, L.P. | Method and system for display of facial features on nonplanar surfaces |
CN102431034B (en) * | 2011-09-05 | 2013-11-20 | 天津理工大学 | Color recognition-based robot tracking method |
US10265057B2 (en) | 2013-08-14 | 2019-04-23 | Intuitive Surgical Operations, Inc. | Endoscope control system |
CN107305378A (en) * | 2016-04-20 | 2017-10-31 | 上海慧流云计算科技有限公司 | A kind of method that image procossing follows the trail of the robot of object and follows the trail of object |
WO2019065303A1 (en) * | 2017-09-29 | 2019-04-04 | 本田技研工業株式会社 | Service provision system, service provision method, and management device for service provision system |
CN111695585A (en) * | 2019-03-14 | 2020-09-22 | 顶级手套国际有限公司 | Glove taking and placing method and system |
-
1999
- 1999-01-28 JP JP02062099A patent/JP3982664B2/en not_active Expired - Lifetime
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108972494A (en) * | 2018-06-22 | 2018-12-11 | 华南理工大学 | A kind of Apery manipulator crawl control system and its data processing method |
CN108972494B (en) * | 2018-06-22 | 2020-09-22 | 华南理工大学 | Humanoid manipulator grabbing control system and data processing method thereof |
Also Published As
Publication number | Publication date |
---|---|
JP2000218575A (en) | 2000-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11819273B2 (en) | Augmented and extended reality glasses for use in surgery visualization and telesurgery | |
US7626569B2 (en) | Movable audio/video communication interface system | |
US6774869B2 (en) | Teleportal face-to-face system | |
US7843470B2 (en) | System, image processing apparatus, and information processing method | |
Tachi | Telexistence: Enabling humans to be virtually ubiquitous | |
Tachi et al. | Telesarphone: Mutual telexistence master-slave communication system based on retroreflective projection technology | |
WO2010102288A2 (en) | Methods, systems, and computer readable media for shader-lamps based physical avatars of real and virtual people | |
EP4031050A1 (en) | Surgical virtual reality user interface | |
Roberts et al. | Communicating eye-gaze across a distance: Comparing an eye-gaze enabled immersive collaborative virtual environment, aligned video conferencing, and being together | |
WO2021062375A1 (en) | Augmented and extended reality glasses for use in surgery visualization and telesurgery | |
Lincoln et al. | Animatronic shader lamps avatars | |
JP2534617B2 (en) | Real-time recognition and synthesis method of human image | |
JP3982664B2 (en) | Image presentation device | |
Tachi | From 3D to VR and further to telexistence | |
WO2018084087A1 (en) | Image display system, image display device, control method therefor, and program | |
Saraiji et al. | Real-time egocentric superimposition of operator's own body on telexistence avatar in virtual environment | |
JP2830291B2 (en) | 3D display device | |
JPH1184313A (en) | Video observation device | |
JP7356697B2 (en) | Image observation system | |
JPWO2021220494A5 (en) | ||
JP5656809B2 (en) | Conversation video display system | |
CN113614675A (en) | Head-mounted information processing device and head-mounted display system | |
JP4144981B2 (en) | Stereoscopic image display device | |
JPH09147142A (en) | Displaying method and device therefor | |
WO2023140120A1 (en) | Surgical robot system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20040116 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20040830 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20040928 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20040831 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20040928 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20041217 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050418 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060911 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070131 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070328 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070628 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100713 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100713 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110713 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120713 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130713 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |