JP2000218575A - Image display device - Google Patents

Image display device

Info

Publication number
JP2000218575A
JP2000218575A JP11020620A JP2062099A JP2000218575A JP 2000218575 A JP2000218575 A JP 2000218575A JP 11020620 A JP11020620 A JP 11020620A JP 2062099 A JP2062099 A JP 2062099A JP 2000218575 A JP2000218575 A JP 2000218575A
Authority
JP
Japan
Prior art keywords
robot
image
operator
observer
presentation device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11020620A
Other languages
Japanese (ja)
Other versions
JP3982664B2 (en
Inventor
Masahiko Inami
昌彦 稲見
Naoki Kawakami
直樹 川上
Yasuyuki Yanagida
康幸 柳田
Taro Maeda
太郎 前田
Susumu Tate
▲すすむ▼ 舘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP02062099A priority Critical patent/JP3982664B2/en
Publication of JP2000218575A publication Critical patent/JP2000218575A/en
Application granted granted Critical
Publication of JP3982664B2 publication Critical patent/JP3982664B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Accommodation For Nursing Or Treatment Tables (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To permit visual display of image with fine shape, color, quality or the like by providing a control means to control a robot applied with coating of recurrent reflective material to follow up movement of an operator, an image picking up means for picking up an image of an operator from a position corresponding to a position of an observer, and a projecting means. SOLUTION: After an operator 11 wears a sensor for detecting movement of the operator 11, e.g. a head position sensor, data glove, data suit or the like, a sensor signal is outputted to a robot applied with coating of recurrent reflective material through a position and posture controller 15B. The operator 11 observes image information outputted from a head camera 24B of the robot 23B through an image processor 16B, by means of an image display device 12B. Also, after an observer 21 wears a similar sensor, a sensor signal is outputted to the robot 13B on the side of the operator 11 to move the robot 13B in almost the similar manner to movement of the observer 21, and image information from the head camera 24B is displayed at the device 12B.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、テレイグジスタン
ス(Tele-Existence)などの分野において利用される画
像提示装置に関し、特に、任意形状の物体をスクリーン
として映像を投影し、映像によって表示される対象物を
物体の存在する位置に対話的に提示するために用いられ
る装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image presenting apparatus used in the field of tele-existence and the like, and in particular, projects an image using an object of an arbitrary shape as a screen and displays the image. The present invention relates to a device used to interactively present an object at a position where an object exists.

【0002】[0002]

【従来の技術】従来において、遠方にあったり危険な場
所にあったりするためにオペレータが対象物を直接に操
作できない場合に、オペレータの動きに追従して動くよ
うに制御されたロボットを配置し、オペレータがロボッ
トを介して対象物を間接的に操作することが行われてい
る。これによって、オペレータは、ロボットの配置され
た環境にいるような感覚で精密な作業を行うことが可能
である。このようなシステムは、テレイグジスタンスシ
ステム、テレイグジスタンス型ロボットシステム、又は
テレロボティクスなどと呼称されている。
2. Description of the Related Art Conventionally, when an operator cannot directly operate an object due to being located far away or in a dangerous place, a robot that is controlled to move following the movement of the operator is arranged. In some cases, an operator indirectly operates an object via a robot. Thus, the operator can perform a precise operation as if he were in the environment where the robot is arranged. Such a system is called a telexistence system, a telexistence type robot system, or telerobotics.

【0003】例えば、医者が遠方にいる病人又は負傷者
などの被看護者を看護する場合を想定する。被看護者は
ベッドに横たわっており、その側には看護のためのロボ
ットが配置されている。ロボットは、医者の動きに追従
して動くように制御されている。ロボットの目の位置に
はカメラが設けられ、カメラによって被看護者が撮影さ
れている。
[0003] For example, suppose that a doctor cares for a care recipient such as a sick or injured person who is far away. The care recipient is lying on a bed, on the side of which a nursing robot is located. The robot is controlled to follow the doctor's movement. A camera is provided at the position of the eyes of the robot, and the care recipient is photographed by the camera.

【0004】医者は、コックピット内において、バーチ
ャルリアリティ(Virtual Reality) 又はコンピュータ
ビジュアライゼーション(Computer Visualization) の
技術によって被看護者の像を見ながら、被看護者に対す
る看護を行うように動作する。医者のその動作に応じて
ロボットが動作し、ロボットによって被看護者の実際の
看護が行われる。この場合において、医者はロボットの
オペレータであり、被看護者はロボットの観察者であ
る。
[0004] The doctor operates in the cockpit to provide care to the care recipient while viewing the care recipient's image by the technique of virtual reality (virtual reality) or computer visualization (computer visualization). The robot operates according to the operation of the doctor, and the robot performs actual nursing of the care recipient. In this case, the doctor is the operator of the robot and the care recipient is the observer of the robot.

【0005】[0005]

【発明が解決しようとする課題】このように、従来から
介護やコミュニケーションなどを目的として人型のロボ
ットが開発されつつある。しかし、ロボットの大きさや
形状は人間に近くなってきたものの、その外観は人間と
は大きく異なっている。
As described above, a humanoid robot has been conventionally developed for the purpose of nursing care, communication, and the like. However, although the size and shape of the robot have become closer to humans, their appearance is significantly different from humans.

【0006】そこで、このような人型のロボットに表情
を生成するために、ロボットの頭部にCRTを搭載し、
CRTによって頭部映像を表示することが提案されてい
る。しかし、この場合には、顔面の形状がCRTの形状
によって決まってしまうので、正面から見る以外は不自
然な表情となってしまう。また、CRTによる表示領域
は広くないので、顔面以外の部分に表情を持たすことは
実際上困難である。
In order to generate an expression on such a humanoid robot, a CRT is mounted on the head of the robot.
It has been proposed to display a head image on a CRT. However, in this case, since the shape of the face is determined by the shape of the CRT, the expression becomes unnatural except when viewed from the front. In addition, since the display area by the CRT is not large, it is practically difficult to have an expression in a part other than the face.

【0007】また、ロボットの顔面に、機械的に動かす
ことの可能な目、眉、又は口などの部品を装着してお
き、それらを細かく制御して動かし、これによって現実
感のある表情を再現しようとする研究が行われている。
しかし、その機械部品などが表情を再現するのに中途半
端であった場合には、より冷たい表情を連想させ却って
逆効果であるとの指摘もされている。
In addition, mechanically movable parts such as eyes, eyebrows, and mouth are mounted on the face of the robot, and the parts are finely controlled and moved, thereby reproducing a realistic expression. Attempts are being made to research.
However, it has been pointed out that if the mechanical parts or the like are halfway in reproducing the facial expression, it is counterproductive rather than reminiscent of a colder facial expression.

【0008】上に述べたように、オペレータが遠隔地の
被看護者(人間)に対して働きかける作業を行おうとし
た場合に、テレイグジスタンスシステムを用いることに
よって、オペレータ自身はあたかも遠隔地にいるかのよ
うな臨場感を体感することが可能である。しかし、オペ
レータの分身ともいえるロボットの姿はオペレータの姿
とは異なっている。したがって、ロボットにより働きか
けられる被看護者からそのロボットを見ると、それはや
はりロボットであり、ロボットの中にオペレータの姿を
観察することはできない。
[0008] As described above, when an operator attempts to work on a care recipient (human) in a remote place, by using the teleexistence system, the operator himself is as if he is in a remote place. It is possible to experience a sense of realism like this. However, the robot, which can be said to be an alter ego of the operator, is different from the operator. Therefore, when the robot is viewed from the care recipient who is approached by the robot, it is still a robot, and the operator cannot be observed in the robot.

【0009】因みに、介護などの現場において、リフト
などの装置により被介護者をベッドから移動させる装置
がある。しかし、多くの被介護者は機械のみにより扱わ
れることに不安感を抱き心理的な抵抗を持つとされてい
る。
[0009] Incidentally, there is a device for moving a care receiver from a bed by a device such as a lift at the site of care or the like. However, many caregivers are said to have anxiety about being handled only by machines and have psychological resistance.

【0010】本発明は、上述の問題に鑑みてなされたも
ので、機械的な部品によっては表現することの困難な細
かい形状、色、質感などを視覚的に実現することを目的
とする。
The present invention has been made in view of the above-described problems, and has as its object to visually realize fine shapes, colors, textures, and the like that are difficult to express depending on mechanical parts.

【0011】[0011]

【課題を解決するための手段】請求項1の発明に係る装
置は、図1に示すように、再帰性反射材RUが塗布され
たロボット23と、前記ロボット23をオペレータ11
の動きに追従して動くように制御する制御手段15と、
前記ロボット23を観察する観察者21の位置に対応す
る位置から前記オペレータ11の映像を撮影する撮影手
段14と、前記観察者21の位置から前記ロボット23
に向かって前記オペレータ11の映像を投影する投影手
段22と、を有してなる。
As shown in FIG. 1, the apparatus according to the first aspect of the present invention comprises a robot 23 coated with a retroreflective material RU and an operator 11
Control means 15 for controlling to move following the movement of
Photographing means 14 for photographing the image of the operator 11 from a position corresponding to the position of the observer 21 observing the robot 23;
And projection means 22 for projecting the image of the operator 11 toward the camera.

【0012】ここにおいて、観察者21は、人間ではな
くロボットであってもよい。つまり、例えばロボット同
士が向かい合うようにし、一方のロボットをオペレータ
の動きに追従して動くように制御し、他方のロボットを
別の観察者の動きに追従して動くように制御するように
構成してもよい。
Here, the observer 21 may be a robot instead of a human. That is, for example, the robots are configured to face each other, to control one robot to follow the movement of the operator, and to control the other robot to follow the movement of another observer. You may.

【0013】請求項2の発明に係る装置は、図2に示す
ように、前記オペレータ11による観察が可能であって
再帰性反射材が塗布された第2のロボット13Bと、前
記第2のロボット13Bを前記観察者21の動きに追従
して動くように制御する第2の制御手段25Bと、前記
第2のロボット13Bを観察するオペレータ11の位置
に対応する位置から前記観察者21の映像を撮影する第
2の撮影手段24Bと、前記オペレータ11の位置から
前記第2のロボット13Bに向かって前記観察者21の
映像を投影する第2の投影手段12Bと、を有してな
る。
As shown in FIG. 2, the apparatus according to the second aspect of the present invention includes a second robot 13B which can be observed by the operator 11 and is coated with a retroreflective material. A second control means 25B for controlling the movement of the observer 21 in accordance with the movement of the observer 21, and an image of the observer 21 from a position corresponding to the position of the operator 11 observing the second robot 13B. A second imaging unit 24B for imaging, and a second projection unit 12B for projecting an image of the observer 21 from the position of the operator 11 toward the second robot 13B.

【0014】請求項3の発明に係る装置では、前記撮影
手段14は、前記ロボット23を観察する観察者21の
視点に対応する位置に設けられ、前記第2の撮影手段2
4Bは、前記第2のロボット13Bを観察するオペレー
タ11の視点に対応する位置に設けられ、前記投影手段
22から前記ロボット23に向かって投影される映像の
光が前記第2の撮影手段24Bに入射することを防ぐ手
段、及び前記第2の投影手段12Bから前記第2のロボ
ット13Bに向かって投影される映像の光が前記撮影手
段14Bに入射することを防ぐ手段が設けられてなる。
In the apparatus according to a third aspect of the present invention, the photographing means is provided at a position corresponding to a viewpoint of an observer observing the robot and the second photographing means is provided.
4B is provided at a position corresponding to the viewpoint of the operator 11 observing the second robot 13B, and light of an image projected from the projection unit 22 toward the robot 23 is transmitted to the second imaging unit 24B. Means are provided for preventing light from entering, and means for preventing light of an image projected from the second projecting means 12B toward the second robot 13B from entering the photographing means 14B.

【0015】請求項4の発明に係る装置は、再帰性反射
材RUが塗布された物体23と、前記物体23を変形さ
せる手段15と、前記物体23の変形した形状に対応す
る映像を生成する画像生成手段26と、前記観察者21
の位置から前記物体23に向かって前記映像を投影する
投影手段22と、を有してなる。
According to a fourth aspect of the present invention, an object 23 coated with a retroreflective material RU, a means 15 for deforming the object 23, and an image corresponding to the deformed shape of the object 23 are generated. Image generating means 26 and the observer 21
And projecting means 22 for projecting the video from the position toward the object 23.

【0016】[0016]

【発明の実施の形態】〔第1の実施形態〕図1は本発明
に係る第1の実施形態の画像提示装置1の構成を示すブ
ロック図である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS [First Embodiment] FIG. 1 is a block diagram showing the configuration of an image presentation device 1 according to a first embodiment of the present invention.

【0017】図1において、画像提示装置1は、互いに
離れた場所にある2つのコックピットCP1,CP2に
よって構成されている。一方のコックピットCP1には
オペレータ11が居て、他方のコックピットCP2には
観察者21が居る。ここでは、観察者21は被看護者で
あり、オペレータ11は医者などの看護者であるとす
る。つまり、観察者21はオペレータ11によって間接
的に看護される状況にある(図3を参照)。
In FIG. 1, the image presentation device 1 is composed of two cockpits CP1 and CP2 that are located apart from each other. An operator 11 is in one cockpit CP1, and an observer 21 is in the other cockpit CP2. Here, it is assumed that the observer 21 is a care recipient and the operator 11 is a nurse such as a doctor. That is, the observer 21 is in a state of being indirectly cared for by the operator 11 (see FIG. 3).

【0018】オペレータ11は、その動きを検出するた
めのセンサを身につけている。そのようなセンサとし
て、例えば、ヘッドポジションセンサ、データグロー
ブ、又はデータスーツなどが用いられる。また、センサ
として、オペレータ11の状態を非接触で計測する3次
元計測装置を用いることも可能である。それらのセンサ
の出力信号は、位置・姿勢制御部15によって制御信号
となり、コックピットCP2のロボット23に送出され
る。
The operator 11 is wearing a sensor for detecting the movement. For example, a head position sensor, a data glove, a data suit, or the like is used as such a sensor. Further, a three-dimensional measuring device that measures the state of the operator 11 in a non-contact manner can be used as the sensor. The output signals of these sensors become control signals by the position / posture control unit 15 and are sent to the robot 23 in the cockpit CP2.

【0019】オペレータ11は、映像提示装置12によ
り提示される画像(映像)を観察することができる。映
像提示装置12として、CAVE型ディスプレイが好適
に用いられる。しかし、HMP22と同様なディスプレ
イ、又はヘッドマウンテッドディスプレイ(HMD:He
ad Mounted Display)、その他の形式の映像提示装置を
用いることも可能である。コックピットCP2の頭部カ
メラ24から送られてくる画像情報は、画像処理部16
を介して画像提示装置12に出力され、観察者21の画
像がオペレータ11に提示される。
The operator 11 can observe an image (video) presented by the video presentation device 12. As the video presentation device 12, a CAVE type display is preferably used. However, a display similar to the HMP22 or a head mounted display (HMD: He
ad Mounted Display) and other types of video presentation devices are also possible. The image information sent from the head camera 24 of the cockpit CP2 is transmitted to the image processing unit 16
The image of the observer 21 is output to the image presentation device 12 via the.

【0020】オペレータ11の前方には、移動カメラ1
4が設置されている。移動カメラ14は、公知の6自由
度の両眼立体視カメラである。移動カメラ14は、観察
者21の位置及び姿勢に応じて移動するのであるが、観
察者21は余り大きく動かないので、通常のテレイグジ
スタンス用のカメラで充分である。移動カメラ14は、
オペレータ11の画像(映像)をリアルタイムで撮影
し、その画像情報をコックピットCP2に送出する。図
示は省略したが、移動カメラ14には、音声を出力する
ためのスピーカが備えられている。
In front of the operator 11, the mobile camera 1
4 are installed. The moving camera 14 is a known six-degree-of-freedom binocular stereoscopic camera. The moving camera 14 moves according to the position and the posture of the observer 21, but since the observer 21 does not move so much, a normal camera for telexistence is sufficient. The moving camera 14
An image (video) of the operator 11 is photographed in real time, and the image information is sent to the cockpit CP2. Although not shown, the mobile camera 14 is provided with a speaker for outputting sound.

【0021】また、図示は省略したが、オペレータ11
又は移動カメラ14には、音声を検出するためのマイク
ロフォンが備えられており、検出された音声情報はコッ
クピットCP2のロボット23に送出される。
Although not shown, the operator 11
Alternatively, the moving camera 14 is provided with a microphone for detecting sound, and the detected sound information is transmitted to the robot 23 in the cockpit CP2.

【0022】他方、観察者21は、その動きを検出する
ためのセンサを身につけている。そのようなセンサとし
て、オペレータ11において用いられるものと同様なも
のを用いることができる。但し、観察者21はオペレー
タ11と比較して動きが少ないので、簡便なセンサで間
に合う場合もある。それらのセンサの出力信号は、位置
・姿勢制御部25によって制御信号となり、コックピッ
トCP1の移動カメラ14に送出される。
On the other hand, the observer 21 is wearing a sensor for detecting the movement. As such a sensor, the same sensor as that used in the operator 11 can be used. However, since the observer 21 moves less than the operator 11, there may be a case where a simple sensor can be used. Output signals of these sensors become control signals by the position / posture control unit 25 and are sent to the mobile camera 14 in the cockpit CP1.

【0023】観察者21は、さらにHMP(頭部搭載型
プロジェクタ)22を装着している。HMP22は、画
像処理部26から出力される画像情報に基づいて、観察
者21の視点と光学的に共役な位置から前方に向かって
画像(映像)を投影する。HMP22として位置センサ
付のものを用いた場合には、これによって上に述べたセ
ンサに代えることも可能である。HMP22の構造に関
しては、川上他著「オブジェクト指向型ディスプレイの
研究」(情報処理学会研究報告 Vol98,No.9
P79−84)にその一例が記載されている。なお、
HMP22から投影される画像の内容については後述す
る。
The observer 21 further wears an HMP (head mounted projector) 22. The HMP 22 projects an image (video) forward from a position optically conjugate with the viewpoint of the observer 21 based on the image information output from the image processing unit 26. When a HMP 22 having a position sensor is used, the HMP 22 can be replaced with the sensor described above. Regarding the structure of HMP22, see Kawakami et al., “Research on Object-Oriented Display” (Information Processing Society of Japan Vol. 98, No. 9).
P79-84) describes one example. In addition,
The contents of the image projected from the HMP 22 will be described later.

【0024】さらに、コックピットCP2には、頭部、
胸部、腕部、及び脚部など、人間の外観に似た形状で且
つ人間の動きに似た動きをすることの可能な人型のロボ
ット23が配備されている。ロボット23の表面には、
特に観察者21により観察される部分、つまりHMP2
2により画像が投影される部分、例えばロボット23の
顔面、頭部、肩、腕などに、再帰性反射材RUが塗布さ
れている。ロボット23は、オペレータ11の動きに追
従して動くように、位置・姿勢制御部15からの制御信
号によって制御される。つまり、ロボット23は、オペ
レータ11の位置及び姿勢と同じ状態となるように制御
される。
Further, the head,
A humanoid robot 23 having a shape similar to a human appearance, such as a chest, arms, and legs, and capable of performing a motion similar to a human motion is provided. On the surface of the robot 23,
In particular, the portion observed by the observer 21, that is, HMP2
The retroreflective material RU is applied to a portion where an image is projected by the device 2, such as the face, head, shoulder, and arm of the robot 23. The robot 23 is controlled by a control signal from the position / posture control unit 15 to move following the movement of the operator 11. That is, the robot 23 is controlled to be in the same state as the position and the posture of the operator 11.

【0025】ロボット23の頭部には、その顔面の目の
位置に頭部カメラ24が設けられている。頭部カメラ2
4は、ロボット23の向いた方向の画像をリアルタイム
で撮影し、その画像情報をコックピットCP1の画像処
理部16に送出する。通常、頭部カメラ24によって観
察者21が撮影される。その視野が広い場合には、ロボ
ット23自身、例えばその腕、手、脚などが撮影され
る。
A head camera 24 is provided on the head of the robot 23 at the position of the eyes on the face. Head camera 2
4 captures an image in the direction of the robot 23 in real time, and sends the image information to the image processing unit 16 of the cockpit CP1. Usually, the observer 21 is photographed by the head camera 24. When the field of view is wide, the robot 23 itself, for example, its arms, hands, and legs are photographed.

【0026】図示は省略したが、ロボット23には、音
声を出力するためのスピーカが備えられている。また、
観察者21又はロボット23には、音声を検出するため
のマイクロフォンが備えられており、検出された音声情
報はコックピットCP1の移動カメラ14に送出され
る。
Although not shown, the robot 23 is provided with a speaker for outputting sound. Also,
The observer 21 or the robot 23 is provided with a microphone for detecting sound, and the detected sound information is transmitted to the moving camera 14 in the cockpit CP1.

【0027】次に、HMP22からロボット23に向か
って投影される画像(映像)について説明する。
Next, an image (video) projected from the HMP 22 toward the robot 23 will be described.

【0028】移動カメラ14は、オペレータ11を撮影
するが、オペレータ11に対する撮影位置は、ロボット
23に対する観察者21の視点位置つまりHMP22の
投影位置と同じ関係にある。また、ロボット23はオペ
レータ11と同じ動作をするので、観察者21からロボ
ット23を見ると、オペレータ11がロボット23と入
れ替わったような状態である。しかし、ロボット23の
おおよその形状はオペレータ11のそれに近いが、その
外観は大きく異なっている。そこで、HMP22によっ
てオペレータ11の画像をロボット23に投影し、ロボ
ット23にオペレータ11と同じ表情や質感を与えるの
である。
The moving camera 14 photographs the operator 11, and the photographing position for the operator 11 has the same relationship as the viewpoint position of the observer 21 with respect to the robot 23, that is, the projection position of the HMP 22. Further, since the robot 23 performs the same operation as the operator 11, when the observer 21 looks at the robot 23, it is as if the operator 11 has been replaced with the robot 23. However, although the approximate shape of the robot 23 is close to that of the operator 11, its appearance is greatly different. Therefore, the image of the operator 11 is projected onto the robot 23 by the HMP 22 to give the robot 23 the same expression and texture as the operator 11.

【0029】つまり、観察者21からロボット23を見
たときに、ロボット23が恰もオペレータ11自身であ
るように見せるための画像が、HMP22から投影され
る。しかもその画像はオペレータ11の動き及び表情な
どに応じて変化する。これによって、機械的な部品によ
っては表現することの困難な細かい形状、色、質感など
を視覚的に実現することができ、また、オペレータ11
の表情をロボット23上で再現することができる。オペ
レータ11又は観察者21の位置が変化した場合であっ
ても、それぞれの位置及び姿勢が検出されており、それ
ぞれの位置及び姿勢に応じて、HMP22から投影すべ
き画像が生成される。そのために画像処理部26におい
て行われる画像処理の内容それ自体については、イメー
ジ・ベースト・レンダリングの手法などの公知の画像処
理技術を利用することが可能である。
That is, when the robot 23 is viewed from the observer 21, an image for projecting the robot 23 as if it were the operator 11 itself is projected from the HMP 22. In addition, the image changes according to the movement and expression of the operator 11. This makes it possible to visually realize fine shapes, colors, textures, and the like that are difficult to express depending on mechanical parts.
Can be reproduced on the robot 23. Even when the position of the operator 11 or the observer 21 changes, the respective positions and postures are detected, and an image to be projected is generated from the HMP 22 according to the respective positions and postures. For this purpose, a known image processing technique such as an image-based rendering technique can be used for the content of the image processing performed in the image processing unit 26 itself.

【0030】HMP22から投影された画像は、ロボッ
ト23の表面に塗布された再帰性反射材RUによって反
射され、観察者21に鮮明な画像(映像)を提示する。
ここで、再帰性反射材RUは、光源の方向に強い指向性
を持って反射する材料であり、コーナーキューブアレイ
又はガラスビーズなどを用いて実現される。したがって
ロボット23に投影された画像は、観察者21の視線方
向に高い輝度を有する。観察者21は、ロボット23上
に投影された画像を極めて高い輝度で観察することがで
きる。
The image projected from the HMP 22 is reflected by the retroreflective material RU applied to the surface of the robot 23, and presents a clear image (video) to the observer 21.
Here, the retroreflective material RU is a material that reflects with high directivity in the direction of the light source, and is realized using a corner cube array, glass beads, or the like. Therefore, the image projected on the robot 23 has high luminance in the direction of the line of sight of the observer 21. The observer 21 can observe the image projected on the robot 23 with extremely high luminance.

【0031】なお、移動カメラ14によりオペレータ1
1を撮影する際に、腕や衣服などにより死角となって移
動カメラ14によっては撮影できない部分が生じる。死
角となった部分の画像は、HMP22によって投影する
ことができず、したがってその部分の画像はロボット2
3に表示されない。しかし、移動カメラ14から見て死
角の部分は観察者21から見ても死角となるので、何ら
問題はない。なお、上に述べた画像提示方法に関し、本
発明者らの提案した特願平10−172722号を参照
することができる。
Note that the operator 1 is
When photographing 1, there is a portion that cannot be photographed by the moving camera 14 due to a blind spot due to an arm, clothing, or the like. The image of the blind spot cannot be projected by the HMP 22, and therefore the image of
3 is not displayed. However, there is no problem since the blind spot viewed from the mobile camera 14 becomes a blind spot viewed from the observer 21. Regarding the image presentation method described above, reference can be made to Japanese Patent Application No. 10-172722 proposed by the present inventors.

【0032】次に、上のように構成された画像提示装置
1の動作について説明する。
Next, the operation of the image presentation apparatus 1 configured as described above will be described.

【0033】オペレータ11は、映像提示装置12によ
り提示された観察者21の映像を見ながら、観察者21
を看護するための動作を行う。オペレータ11の動作
は、そのままロボット23の動作となり、ロボット23
によって観察者21の看護が行われる。
The operator 11 looks at the image of the observer 21 presented by the image
Perform the operation for nursing. The operation of the operator 11 becomes the operation of the robot 23 as it is,
Thus, the nursing of the observer 21 is performed.

【0034】オペレータ11の映像が移動カメラ14に
よって捕らえられ、その映像がHMP22によってロボ
ット23に投影される。オペレータ11の声もマイクロ
フォンにより捕らえられ、効果音が加えられてロボット
23のスピーカーから発せられる。
An image of the operator 11 is captured by the moving camera 14, and the image is projected to the robot 23 by the HMP 22. The voice of the operator 11 is also captured by the microphone, and a sound effect is added to the voice to be emitted from the speaker of the robot 23.

【0035】観察者21は、ロボット23によって看護
を受けるのであるが、ロボット23にはオペレータ11
の画像が投影されているので、ロボット23が恰もオペ
レータ11自身であるように見える。すなわち、観察者
21は、オペレータ11の表情などを細かく観察するこ
とができる。このように、観察者21は、ロボット23
ではなく、オペレータ11を見ながら、またオペレータ
11と会話をしながら、看護を受けることとなる。した
がって、観察者21からロボット23を観察したとき
に、そこにオペレータ11の姿や細かい表情の動きを読
み取ることができ、機械によって看護を受けるという不
安感を和らげ、心理的な抵抗を低減することができる。
The observer 21 receives nursing care by the robot 23.
Is projected, the robot 23 appears to be the operator 11 itself. That is, the observer 21 can closely observe the expression of the operator 11 and the like. In this way, the observer 21 can read the robot 23
Instead, he / she receives nursing while looking at the operator 11 and talking with the operator 11. Therefore, when observing the robot 23 from the observer 21, it is possible to read the figure of the operator 11 and the movement of the fine expression there, to alleviate the anxiety of receiving nursing by a machine and to reduce psychological resistance. Can be.

【0036】なお、オペレータ11についても、テレイ
グジスタンスの利点である白由な運動を自然に伝えなが
ら遠隔から介護を行えるので、現場に行って介護を行う
のと同等の効果をあげられる。
It is to be noted that the operator 11 can also provide remote care while naturally transmitting the white movement, which is an advantage of telexistence, and thus has the same effect as going to the site and providing care.

【0037】なお、位置・姿勢制御部15,25及び画
像処理部16,26は、いずれのコックピットCP1,
2に配置されてもよく、コックピットCP1,2以外の
場所に配置されてもよい。それらは、互いに別個の装置
として構成することも可能であり、また、全体で1つの
装置として構成することも可能である。また、例えば、
位置・姿勢制御部15をHMP12B又はロボット23
に組み込んだり、画像処理部16をロボット23又は映
像提示装置12に組み込んだりすることも可能である。 〔第2の実施形態〕図2は本発明に係る第2の実施形態
の画像提示装置1Bの構成を示すブロック図、図3は画
像提示装置1Bの構成を模式的に示すブロック図であ
る。なお、第2の実施形態の画像提示装置1Bにおい
て、第1の実施形態の画像提示装置1の構成要素に対応
する構成要素については同じ数字符号を付し、その説明
を省略し又は簡略化する。以下同様である。
The position / posture control units 15 and 25 and the image processing units 16 and 26 are provided with any of the cockpits CP1 and CP2.
2 and may be arranged in a place other than the cockpits CP1 and CP2. They may be configured as separate devices from each other, or may be configured as one device as a whole. Also, for example,
HMP12B or robot 23
And the image processing unit 16 can be incorporated into the robot 23 or the video presenting device 12. [Second Embodiment] FIG. 2 is a block diagram showing the configuration of an image presentation device 1B according to a second embodiment of the present invention, and FIG. 3 is a block diagram schematically showing the configuration of the image presentation device 1B. In the image presentation device 1B of the second embodiment, the same reference numerals are given to components corresponding to the components of the image presentation device 1 of the first embodiment, and the description thereof will be omitted or simplified. . The same applies hereinafter.

【0038】画像提示装置1Bにおいては、コックピッ
トCP1にもロボット23と同様なロボット13Bが配
備されている。ロボット13Bの表面には再帰性反射材
RUが塗布されている。ロボット13Bは、観察者21
の動きに追従して動くように、位置・姿勢制御部15B
からの制御信号によって制御される。つまり、ロボット
13Bは、観察者21の位置及び姿勢と同じ状態となる
ように制御される。
In the image presentation device 1B, a robot 13B similar to the robot 23 is provided in the cockpit CP1. The retroreflective material RU is applied to the surface of the robot 13B. The robot 13B has the observer 21
Position / posture control unit 15B so as to follow the movement of
Is controlled by a control signal from That is, the robot 13B is controlled to be in the same state as the position and the posture of the observer 21.

【0039】第1の実施形態の移動カメラ14に代え
て、ロボット13Bの頭部に組み込まれた頭部カメラ1
4Bが用いられる。頭部カメラ14Bは、ロボット13
Bの向いた方向の画像をリアルタイムで撮影し、その画
像情報をコックピットCP2の画像処理部26Bに送出
する。
The head camera 1 incorporated in the head of the robot 13B in place of the mobile camera 14 of the first embodiment
4B is used. The head camera 14B is the robot 13
An image in the direction of B is captured in real time, and the image information is sent to the image processing unit 26B of the cockpit CP2.

【0040】また、第1の実施形態の映像提示装置12
に代えて、HMP12Bが用いられる。オペレータ11
がHMP12Bを頭部に装着し、HMP12Bからロボ
ット13Bに向かって画像を投影する。
The image presentation device 12 according to the first embodiment
Instead, HMP12B is used. Operator 11
Wears the HMP12B on the head and projects an image from the HMP12B toward the robot 13B.

【0041】すなわち、HMP12Bは、画像処理部1
6Bから出力される画像情報に基づいて、オペレータ1
1の視点と光学的に共役な位置から前方に向かって画像
を投影する。これによって、オペレータ11にとって、
ロボット13Bが恰も観察者21自身であるかのように
見える。
That is, the HMP 12B has the image processing unit 1
Operator 1 based on the image information output from 6B
An image is projected forward from a position optically conjugate to the first viewpoint. Thereby, for the operator 11,
It looks as if the robot 13B is the observer 21 itself.

【0042】このように、第2の実施形態の画像提示装
置1Bにおいて、オペレータ11は、観察者21と同じ
姿勢をしたロボット13Bを看護する。ロボット13B
には観察者21の画像が投影されているので、実際の観
察者21を看護するように感じられる。したがって、オ
ペレータ11が観察者21を抱き上げたりする場合に、
より一層リアルに看護を行うことができる。
As described above, in the image presentation device 1B of the second embodiment, the operator 11 cares for the robot 13B having the same posture as the observer 21. Robot 13B
, The image of the observer 21 is projected, so that it feels like nursing the actual observer 21. Therefore, when the operator 11 lifts the observer 21,
Nursing can be performed even more realistically.

【0043】上に述べた画像提示装置1Bにおいて、オ
ペレータ11が再帰性反射材RUを塗布した衣服や手袋
を着用し、HMP12Bからの画像を自分の衣服や手袋
上に投影することによって、ロボット23Bの位置又は
姿勢を確認することができる。
In the above-described image presentation apparatus 1B, the operator 11 wears clothes or gloves coated with the retroreflective material RU, and projects the image from the HMP 12B onto his or her clothes or gloves, whereby the robot 23B Can be confirmed.

【0044】つまり、例えば、オペレータ11が自分の
手を見ることによって、ロボット23Bも同じようにそ
の手を見るように動作するので、ロボット23Bの手が
頭部カメラ24Bによって撮影され、その画像がHMP
12Bからオペレータ11の手に投影される。オペレー
タ11は、自分の手に投影された画像を見ることによっ
て、ロボット23Bの手の状態を確認することができ
る。
That is, for example, when the operator 11 looks at his or her own hand, the robot 23B operates to look at the hand in the same manner, so that the hand of the robot 23B is photographed by the head camera 24B and the image is taken. HMP
The image is projected from 12B onto the hand of the operator 11. The operator 11 can check the state of the hand of the robot 23B by looking at the image projected on his own hand.

【0045】これによって、オペレータ11は、自分の
手の動きとロボット23Bの手の動きとの時間的又は位
置的なずれを知ることができ、それを自分自身でフィー
ドバックすることによってより精密な作業を行うことが
可能となる。
Thus, the operator 11 can know the temporal or positional deviation between the movement of his / her hand and the movement of the hand of the robot 23B. Can be performed.

【0046】ところで、HMP12Bから投影される画
像の光が頭部カメラ14Bに直接に入射すると、頭部カ
メラ14Bの撮影可能な明かるさの範囲を越えることが
ある。そうなると、頭部カメラ14Bは、所謂「目眩ま
し」の状態となり、正常な撮影を行うことができない。
HMP22Bと頭部カメラ24Bとの関係においても同
様である。これを防止するためには、HMP12Bから
投影される画像の光が頭部カメラ14Bに入射しないよ
うにすればよい。そのためには次の方策がある。
When the light of the image projected from the HMP 12B is directly incident on the head camera 14B, the light may exceed the range of brightness that can be photographed by the head camera 14B. Then, the head camera 14B is in a so-called “dazzling” state, and cannot perform normal photographing.
The same applies to the relationship between the HMP 22B and the head camera 24B. In order to prevent this, the light of the image projected from the HMP 12B may be prevented from entering the head camera 14B. There are the following measures for that.

【0047】第1の方策は、画像処理部16Bによっ
て、HMP12Bに出力する画像情報のうちの頭部カメ
ラ14Bに対応する部分の画像を黒画像としておく。そ
のためには、位置・姿勢制御部15B,25Bに入力さ
れる信号又はそれらから出力される制御信号などに基づ
いて、画像中の所定の領域を黒領域とする処理を行う。
As a first measure, the image processing section 16B sets the image of the portion corresponding to the head camera 14B in the image information output to the HMP 12B as a black image. For this purpose, a process of setting a predetermined area in an image as a black area is performed based on signals input to the position / posture control units 15B and 25B or control signals output therefrom.

【0048】第2の方策は、HMP12Bの前に液晶シ
ャッターなどを配備し、頭部カメラ14Bに入射しよう
とする部分の光を選択的に遮断する。第3の方策は、H
MP12Bの前と頭部カメラ14Bの前とに互いに偏光
角度の異なる偏光フィルタを配置する。
In the second measure, a liquid crystal shutter or the like is provided in front of the HMP 12B to selectively block light from entering the head camera 14B. The third measure is H
A polarization filter having a different polarization angle is arranged in front of the MP 12B and in front of the head camera 14B.

【0049】なお、第1の方策及び第2の方策を用いる
際には、観察者21の目の画像がロボット13Bに投影
されるよう、つまり観察者21の表情が分かるよう、観
察者21の目の位置とロボット13Bの目の位置(頭部
カメラ14Bが配置される位置)とをずらしておく必要
がある。 〔第3の実施形態〕図4は本発明に係る第3の実施形態
の画像提示装置1Cの構成を示すブロック図である。
When using the first policy and the second policy, the observer's 21 eyes are projected on the robot 13B, that is, the observer's 21 facial expressions are understood. It is necessary to shift the position of the eyes from the position of the eyes of the robot 13B (the position where the head camera 14B is arranged). [Third Embodiment] FIG. 4 is a block diagram showing the configuration of an image presentation device 1C according to a third embodiment of the present invention.

【0050】第3の実施形態の画像提示装置1Cでは、
3つのコックピットCP1〜3が設けられる。第3のコ
ックピットCP3には、2つのロボット13C,23C
が配備される。それぞれのロボット13C,23Cに
は、頭部カメラ14C,24Cの他に、HMP18C,
28Cが搭載されている。HMP18C,28Cは、互
いに相手のロボット23C,13Cに対して画像を投影
する。
In the image presentation device 1C of the third embodiment,
Three cockpits CP1 to CP3 are provided. The third cockpit CP3 includes two robots 13C and 23C.
Is deployed. Each of the robots 13C and 23C has an HMP18C, in addition to the head cameras 14C and 24C.
28C is mounted. The HMPs 18C and 28C project images to each other's robots 23C and 13C.

【0051】第2のコックピットCP1では、移動カメ
ラ17Cによってオペレータ11を撮影する。移動カメ
ラ17Cにより得られたオペレータ11の画像は、画像
処理部19Cを経て、HMP18Cによって投影され
る。
In the second cockpit CP1, the operator 11 is photographed by the moving camera 17C. The image of the operator 11 obtained by the moving camera 17C is projected by the HMP 18C via the image processing unit 19C.

【0052】第3のコックピットCP3では、移動カメ
ラ27Cによってオペレータ21を撮影する。移動カメ
ラ27Cにより得られたオペレータ21の画像は、画像
処理部29Cを経て、HMP28Cによって投影され
る。
In the third cockpit CP3, the operator 21 is photographed by the moving camera 27C. The image of the operator 21 obtained by the moving camera 27C is projected by the HMP 28C via the image processing unit 29C.

【0053】上に述べた画像提示装置1Cの動作は、基
本的には画像提示装置1Bと同様であるが、それぞれ相
手のオペレータ11,21がテレイグジスタンスを行っ
ているロボット13C,23Cの画像が、それぞれのオ
ペレータ11,21の映像提示装置12C,22Cによ
って提示される。したがって、オペレータ11,21
は、それぞれロボット13C,23Cによってテレイグ
ジスタンスを行っている相手を見ながらそれぞれテレイ
グジスタンスを行い、現実世界を共有し、実体験するこ
とができる。 〔第4の実施形態〕図5は本発明に係る第4の実施形態
の画像提示装置1Dの構成を示すブロック図である。
The operation of the image presenting apparatus 1C described above is basically the same as that of the image presenting apparatus 1B, except that the images of the robots 13C and 23C in which the opponent operators 11 and 21 are performing teleexistence, respectively. Are presented by the video presenting devices 12C and 22C of the operators 11 and 21, respectively. Therefore, the operators 11 and 21
Can perform telexistence while looking at the opponents performing telexistence by the robots 13C and 23C, respectively, to share the real world and to experience the real world. [Fourth Embodiment] FIG. 5 is a block diagram showing the configuration of an image presentation device 1D according to a fourth embodiment of the present invention.

【0054】第4の実施形態の画像提示装置1Dは、第
3の実施形態の画像提示装置1Cと基本的に同じである
が、次の点で異なる。すなわち、コックピットCP1,
2にもロボット20D,30Dが配備されている。ロボ
ット20D,30Dの表面には再帰性反射材RUが塗布
されている。ロボット20D,30Dは、オペレータ2
1,11の動きに追従して動くように、位置・姿勢制御
部25D,15Dからの制御信号によって制御される。
The image presentation device 1D of the fourth embodiment is basically the same as the image presentation device 1C of the third embodiment, but differs in the following points. That is, cockpit CP1,
2, robots 20D and 30D are also provided. The retroreflective material RU is applied to the surfaces of the robots 20D and 30D. The robots 20D and 30D are connected to the operator 2
The movement is controlled by control signals from the position / posture control units 25D and 15D so as to follow the movements of the movements 1 and 11.

【0055】第3の実施形態の移動カメラ17C,27
Cに代えて、ロボット20D,30Dの頭部に組み込ま
れた頭部カメラ17D,27Dが用いられる。また、映
像提示装置12C,22Cに代えて、HMP12D,2
2Dが用いられる。
The mobile cameras 17C and 27 according to the third embodiment
Instead of C, head cameras 17D and 27D incorporated in the heads of the robots 20D and 30D are used. Also, instead of the video presenting devices 12C and 22C, HMP12D, 2
2D is used.

【0056】この実施形態の画像提示装置1Dでは、そ
れぞれ相手のオペレータ11,21がテレイグジスタン
スを行うロボット13D,23Dの画像が、それぞれの
オペレータ11,21の目前のロボット20D,30D
に投影される。オペレータ11,21は、ロボット20
D,30Dに投影された画像を見ながらテレイグジスタ
ンスを行う。 〔第5の実施形態〕図6は本発明に係る第5の実施形態
の画像提示装置1Eの構成を示すブロック図である。
In the image presenting apparatus 1D of this embodiment, the images of the robots 13D and 23D whose telecommunication operators 11 and 21 perform teleexistence are displayed by the robots 20D and 30D in front of the operators 11 and 21 respectively.
Projected to The operators 11 and 21 are
Tele-existence is performed while viewing the images projected on D and 30D. [Fifth Embodiment] FIG. 6 is a block diagram showing the configuration of an image presentation device 1E according to a fifth embodiment of the present invention.

【0057】第5の実施形態の画像提示装置1Eでは、
ロボット13Eは、ロボット制御部42Eによって制御
される。その際に、ロボット13Eの位置及び姿勢を示
す信号がロボット制御部42Eにフィードバックされ
る。
In the image presentation device 1E of the fifth embodiment,
The robot 13E is controlled by a robot control unit 42E. At this time, a signal indicating the position and orientation of the robot 13E is fed back to the robot control unit 42E.

【0058】グラフィックエンジン41Eは、ロボット
13E及びオペレータ11のそれぞれの位置及び姿勢に
基づいて、CG画像(コンピュータグラフィックス画
像)を生成する。生成したCG画像が、HMP12Eか
らロボット13Eに向かって投影される。
The graphic engine 41E generates a CG image (computer graphics image) based on the respective positions and postures of the robot 13E and the operator 11. The generated CG image is projected from the HMP 12E toward the robot 13E.

【0059】画像提示装置1Eによると、グラフィック
エンジン41Eで生成した任意の画像をロボット13E
に投影することができる。
According to the image presentation device 1E, an arbitrary image generated by the graphic engine 41E can be transferred to the robot 13E.
Can be projected.

【0060】上に述べた各実施形態の動作及び効果は、
次のように表すこともできる。つまり、オペレータ11
及び観察者21などにより観察される画像のうち、大ま
かな形状をロボットによって作り、細かな部分をHMP
から投影される画像によって作り、リアリティを増大さ
せる。これによって、オペレータ11又は観察者21に
よる外部世界との物理的接触又は作業をロボットにより
行い、精神的接触をそのロボットに投影された映像によ
り行うことが可能になるのである。
The operation and effect of each embodiment described above are as follows.
It can also be expressed as: That is, the operator 11
Of the image observed by the observer 21 and the like, a rough shape is created by a robot,
From the image projected from the camera to increase reality. As a result, it is possible for the operator 11 or the observer 21 to make physical contact with or work with the outside world by using a robot, and to perform mental contact using an image projected on the robot.

【0061】これは、コンピュータグラフィックスにお
けるテクスチャマッピングの現実世界における実装と見
ることもできる。
This can be viewed as a real-world implementation of texture mapping in computer graphics.

【0062】上に述べた実施形態において、オペレータ
11及び観察者21の動きに追従してロボットがリアル
タイムで動くように制御したが、オペレータ11又は観
察者21の動きを予め撮影しておき、撮影した映像の再
生に合わせてロボットを動かすようにしてもよい。ま
た、オペレータ11及び観察者21の実画像のみでな
く、CG画像を重畳させてもよい。ロボットとして人型
のロボットを用いたが、それに限らず、例えば、ペット
ロボット、又は壁からアームのみが延びているようなマ
ニピュレータ型のロボットなどにも適用可能である。
In the above embodiment, the robot is controlled so as to move in real time following the movements of the operator 11 and the observer 21. The robot may be moved in accordance with the reproduction of the video. Further, not only real images of the operator 11 and the observer 21 but also CG images may be superimposed. Although a humanoid robot is used as the robot, the present invention is not limited to this, and may be applied to, for example, a pet robot or a manipulator-type robot in which only an arm extends from a wall.

【0063】さらに、ロボットではない機械装置、又は
機械装置ではない物体であって、種々の作用又は原理に
よって変形するものに対しても、本発明を適用すること
が可能である。その他、画像提示装置1,1B〜Eの全
体又は各部の構成、配置、個数、動作内容又は動作順
序、及び動作タイミングなどは、本発明の趣旨に沿って
適宜変更することができる。
Further, the present invention can be applied to a mechanical device that is not a robot or an object that is not a mechanical device and that is deformed by various actions or principles. In addition, the configuration, arrangement, number, operation content or operation sequence, operation timing, and the like of the whole or each part of the image presentation devices 1, 1B to E can be appropriately changed in accordance with the gist of the present invention.

【0064】[0064]

【発明の効果】本発明によると、機械的な部品によって
は表現することの困難な細かい形状、色、質感などを視
覚的に実現することができる。
According to the present invention, fine shapes, colors, textures, etc., which are difficult to express depending on mechanical parts, can be realized visually.

【0065】したがって、例えばテレイグジスタンスシ
ステムのロボットによって看護を受ける場合などにおい
て、機械によって看護を受けるという不安感を和らげ、
心理的な抵抗を低減することができる。
Therefore, for example, when nursing is performed by a robot of the telexistence system, the anxiety of receiving nursing by a machine can be relieved.
Psychological resistance can be reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る第1の実施形態の画像提示装置の
構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of an image presentation device according to a first embodiment of the present invention.

【図2】本発明に係る第2の実施形態の画像提示装置の
構成を示すブロック図である。
FIG. 2 is a block diagram illustrating a configuration of an image presentation device according to a second embodiment of the present invention.

【図3】第2の実施形態の画像提示装置の構成を模式的
に示すブロック図である。
FIG. 3 is a block diagram schematically illustrating a configuration of an image presentation device according to a second embodiment.

【図4】本発明に係る第3の実施形態の画像提示装置の
構成を示すブロック図である。
FIG. 4 is a block diagram illustrating a configuration of an image presentation device according to a third embodiment of the present invention.

【図5】本発明に係る第4の実施形態の画像提示装置の
構成を示すブロック図である。
FIG. 5 is a block diagram illustrating a configuration of an image presentation device according to a fourth embodiment of the present invention.

【図6】本発明に係る第5の実施形態の画像提示装置の
構成を示すブロック図である。
FIG. 6 is a block diagram illustrating a configuration of an image presentation device according to a fifth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1,1B〜E 画像提示装置 11 オペレータ(観察者) 12B,12D,12E HMP(投影手段、第2の投
影手段) 13B〜13E ロボット(第2のロボット、物体) 14 移動カメラ(撮影手段) 14B 頭部カメラ(撮影手段、第2の撮影手段) 15 位置・姿勢制御部(制御手段) 15B〜13D 位置・姿勢制御部(制御手段、第2の
制御手段) 16B〜16D 画像処理部(防ぐ手段) 17C 移動カメラ(撮影手段、第2の撮影手段) 17D 頭部カメラ(撮影手段、第2の撮影手段) 21 観察者(オペレータ) 22 HMP(投影手段) 22B,22D HMP(投影手段、第2の投影手段) 23 ロボット(物体) 23B〜23D ロボット(第2のロボット、物体) 24B 頭部カメラ(撮影手段、第2の撮影手段) 25B〜23D 位置・姿勢制御部(制御手段、第2の
制御手段) 26B〜26D 画像処理部(防ぐ手段) 27C 移動カメラ(撮影手段、第2の撮影手段) 27D 頭部カメラ(撮影手段、第2の撮影手段) 41E グラフィックエンジン(画像生成手段) 42E ロボット制御部(制御手段) RU 再帰性反射材
1, 1B-E Image presentation device 11 Operator (observer) 12B, 12D, 12E HMP (projection means, second projection means) 13B-13E Robot (second robot, object) 14 Moving camera (photographing means) 14B Head camera (imaging means, second imaging means) 15 Position / posture control section (control means) 15B-13D Position / posture control section (control means, second control means) 16B-16D Image processing section (prevention means) 17C Moving camera (photographing means, second photographing means) 17D Head camera (photographing means, second photographing means) 21 Observer (operator) 22 HMP (projecting means) 22B, 22D HMP (projecting means, second photographing means) 23B (object) 23B-23D Robot (second robot, object) 24B Head camera (photographing means, second photographing means) 25B 23D Position / posture control unit (control means, second control means) 26B to 26D Image processing unit (prevention means) 27C Moving camera (photographing means, second photographing means) 27D Head camera (photographing means, second photographing means) 41E Graphic engine (image generating means) 42E Robot controller (control means) RU retroreflective material

───────────────────────────────────────────────────── フロントページの続き (72)発明者 柳田 康幸 東京都田無市緑町1丁目1番2−405号東 大多摩第2宿舎 (72)発明者 前田 太郎 東京都台東区谷中1丁目2番19号 (72)発明者 舘 ▲すすむ▼ 茨城県つくば市梅園2丁目31番14号 Fターム(参考) 3F059 AA10 DA01 DA05 DB03 EA00 4C341 LL30 5C054 CE11 CF08 FA00 FD02 HA12 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Yasuyuki Yanagida 1-2-1405 Midoricho, Tanashi-shi, Tokyo East Otama No.2 Dormitory (72) Inventor Taro Maeda 1-219 Yanaka, Taito-ku, Tokyo No. (72) Inventor Tachi ▲ Susumu ▼ 2-31-14 Umezono, Umezono, Tsukuba City, Ibaraki Prefecture 3F059 AA10 DA01 DA05 DB03 EA00 4C341 LL30 5C054 CE11 CF08 FA00 FD02 HA12

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】再帰性反射材が塗布されたロボットと、 前記ロボットをオペレータの動きに追従して動くように
制御する制御手段と、 前記ロボットを観察する観察者の位置に対応する位置か
ら前記オペレータの映像を撮影する撮影手段と、 前記観察者の位置から前記ロボットに向かって前記オペ
レータの映像を投影する投影手段と、 を有することを特徴とする画像提示装置。
1. A robot to which a retroreflective material is applied, control means for controlling the robot to move following an operator's movement, and a position corresponding to a position of an observer observing the robot. An image presentation device comprising: a photographing unit that photographs an image of an operator; and a projecting unit that projects an image of the operator from the position of the observer toward the robot.
【請求項2】前記オペレータによる観察が可能であって
再帰性反射材が塗布された第2のロボットと、 前記第2のロボットを前記観察者の動きに追従して動く
ように制御する第2の制御手段と、 前記第2のロボットを観察するオペレータの位置に対応
する位置から前記観察者の映像を撮影する第2の撮影手
段と、 前記オペレータの位置から前記第2のロボットに向かっ
て前記観察者の映像を投影する第2の投影手段と、 を有してなる請求項1記載の画像提示装置。
2. A second robot which can be observed by the operator and is coated with a retroreflective material, and a second robot which controls the second robot to move following the movement of the observer. Control means, and second photographing means for photographing the image of the observer from a position corresponding to the position of the operator observing the second robot, and moving from the position of the operator toward the second robot. The image presentation device according to claim 1, further comprising: a second projection unit configured to project an image of an observer.
【請求項3】前記撮影手段は、前記ロボットを観察する
観察者の視点に対応する位置に設けられ、 前記第2の撮影手段は、前記第2のロボットを観察する
オペレータの視点に対応する位置に設けられ、 前記投影手段から前記ロボットに向かって投影される映
像の光が前記第2の撮影手段に入射することを防ぐ手
段、及び前記第2の投影手段から前記第2のロボットに
向かって投影される映像の光が前記撮影手段に入射する
ことを防ぐ手段が設けられてなる、 請求項3記載の画像提示装置。
3. The photographing means is provided at a position corresponding to a viewpoint of an observer observing the robot, and the second photographing means is provided at a position corresponding to a viewpoint of an operator observing the second robot. Means for preventing light of an image projected from the projection means toward the robot from being incident on the second photographing means, and from the second projection means toward the second robot. The image presentation device according to claim 3, further comprising means for preventing light of the projected image from being incident on the photographing means.
【請求項4】再帰性反射材が塗布された物体と、 前記物体を変形させる手段と、 前記物体の変形した形状に対応する映像を生成する画像
生成手段と、 前記観察者の位置から前記物体に向かって前記映像を投
影する投影手段と、 を有することを特徴とする画像提示装置。
4. An object coated with a retroreflective material, means for deforming the object, image generating means for generating an image corresponding to the deformed shape of the object, and the object from the position of the observer. An image presentation device, comprising: projection means for projecting the video toward.
JP02062099A 1999-01-28 1999-01-28 Image presentation device Expired - Lifetime JP3982664B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP02062099A JP3982664B2 (en) 1999-01-28 1999-01-28 Image presentation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02062099A JP3982664B2 (en) 1999-01-28 1999-01-28 Image presentation device

Publications (2)

Publication Number Publication Date
JP2000218575A true JP2000218575A (en) 2000-08-08
JP3982664B2 JP3982664B2 (en) 2007-09-26

Family

ID=12032302

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02062099A Expired - Lifetime JP3982664B2 (en) 1999-01-28 1999-01-28 Image presentation device

Country Status (1)

Country Link
JP (1) JP3982664B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7705877B2 (en) 2004-01-28 2010-04-27 Hewlett-Packard Development Company, L.P. Method and system for display of facial features on nonplanar surfaces
CN102431034A (en) * 2011-09-05 2012-05-02 天津理工大学 Color recognition-based robot tracking method
WO2015023513A1 (en) * 2013-08-14 2015-02-19 Intuitive Surgical Operations, Inc. Endoscope control system
CN107305378A (en) * 2016-04-20 2017-10-31 上海慧流云计算科技有限公司 A kind of method that image procossing follows the trail of the robot of object and follows the trail of object
WO2019065303A1 (en) * 2017-09-29 2019-04-04 本田技研工業株式会社 Service provision system, service provision method, and management device for service provision system
CN111695585A (en) * 2019-03-14 2020-09-22 顶级手套国际有限公司 Glove taking and placing method and system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108972494B (en) * 2018-06-22 2020-09-22 华南理工大学 Humanoid manipulator grabbing control system and data processing method thereof

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7705877B2 (en) 2004-01-28 2010-04-27 Hewlett-Packard Development Company, L.P. Method and system for display of facial features on nonplanar surfaces
CN102431034A (en) * 2011-09-05 2012-05-02 天津理工大学 Color recognition-based robot tracking method
WO2015023513A1 (en) * 2013-08-14 2015-02-19 Intuitive Surgical Operations, Inc. Endoscope control system
US10265057B2 (en) 2013-08-14 2019-04-23 Intuitive Surgical Operations, Inc. Endoscope control system
US10925586B2 (en) 2013-08-14 2021-02-23 Intuitive Surgical Operations, Inc Endoscope control system
US11950756B2 (en) 2013-08-14 2024-04-09 Intuitive Surgical Operations, Inc. Endoscope control system
CN107305378A (en) * 2016-04-20 2017-10-31 上海慧流云计算科技有限公司 A kind of method that image procossing follows the trail of the robot of object and follows the trail of object
WO2019065303A1 (en) * 2017-09-29 2019-04-04 本田技研工業株式会社 Service provision system, service provision method, and management device for service provision system
JPWO2019065303A1 (en) * 2017-09-29 2020-11-05 本田技研工業株式会社 Service provision system, service provision method, and management device for service provision system
JP7023971B2 (en) 2017-09-29 2022-02-22 本田技研工業株式会社 Service provision system, service provision method, and management device for service provision system
US11518036B2 (en) 2017-09-29 2022-12-06 Honda Motor Co., Ltd. Service providing system, service providing method and management apparatus for service providing system
CN111695585A (en) * 2019-03-14 2020-09-22 顶级手套国际有限公司 Glove taking and placing method and system

Also Published As

Publication number Publication date
JP3982664B2 (en) 2007-09-26

Similar Documents

Publication Publication Date Title
US6774869B2 (en) Teleportal face-to-face system
US7321682B2 (en) Image generation system, image generation method, program, and information storage medium
CN107924584A (en) Augmented reality
CN111684336A (en) Image display device using retina scanning type display unit and method thereof
CN111103688A (en) Anti-dizzy device, system and method
WO2003063086A1 (en) Image processing system, image processing apparatus, and display apparatus
JP4580678B2 (en) Gaze point display device
JP2000310826A (en) Virtual environmental experience display device
WO2020017435A1 (en) Information processing device, information processing method, and program
Tachi From 3D to VR and further to telexistence
JP3982664B2 (en) Image presentation device
JP6687751B2 (en) Image display system, image display device, control method thereof, and program
JPH1196366A (en) Method and device for synthesizing facial image of person wearing head mount display
Saraiji et al. Real-time egocentric superimposition of operator's own body on telexistence avatar in virtual environment
JP2830291B2 (en) 3D display device
JPH1184313A (en) Video observation device
JP2744394B2 (en) Realism image display device and realism image input / output device
JP2595942B2 (en) 3D image display device
CN113614675A (en) Head-mounted information processing device and head-mounted display system
JP3088326B2 (en) 3D image display device
JPH09181972A (en) Image composition device
JPH10260377A (en) Stereoscopic video display device
WO2023136072A1 (en) Calibration device, display device, calibration method, and image display method
JPH07104718A (en) Stereoscopic information display device for a great number of persons
JPH11327739A (en) Image display device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20040116

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20040830

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20040928

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20040831

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20040928

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20041217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060911

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070131

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070628

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100713

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100713

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110713

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120713

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130713

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term