JP2003510864A - Method and system for time / motion compensation for a head mounted display - Google Patents

Method and system for time / motion compensation for a head mounted display

Info

Publication number
JP2003510864A
JP2003510864A JP2001525460A JP2001525460A JP2003510864A JP 2003510864 A JP2003510864 A JP 2003510864A JP 2001525460 A JP2001525460 A JP 2001525460A JP 2001525460 A JP2001525460 A JP 2001525460A JP 2003510864 A JP2003510864 A JP 2003510864A
Authority
JP
Japan
Prior art keywords
image
camera
hmd
data
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001525460A
Other languages
Japanese (ja)
Inventor
エドワーズ,エリック,シー.
Original Assignee
カナデアン スペース エージェンシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by カナデアン スペース エージェンシー filed Critical カナデアン スペース エージェンシー
Publication of JP2003510864A publication Critical patent/JP2003510864A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)

Abstract

(57)【要約】 頭に装着するディスプレイで使用する、時間と動きを補償する方法とシステムを開示する。この方法によれば、遠隔カメラは、光景窓を含む頭部装着ディスプレイ(HMD)1上で表示する画像をキャプチャする。画像とカメラ位置データはHMDを含むシステムに送信され、HMDをかぶる人に表示される。HMD位置が決定される。HMD位置とHMDの知られた位置の間のオフセットは、カメラの位置と知られたカメラの位置の間のオフセットと同じになるように決定される。画像は2つの決定されたオフセットの間の差に基づいて画像の光景窓に対してオフセットされる。 SUMMARY A method and system for time and motion compensation for use in a head mounted display is disclosed. According to this method, a remote camera captures an image to be displayed on a head mounted display (HMD) 1 including a view window. The image and camera position data are transmitted to a system including the HMD and displayed to a person wearing the HMD. The HMD position is determined. The offset between the HMD position and the known position of the HMD is determined to be the same as the offset between the camera position and the known camera position. The image is offset with respect to the image view window based on the difference between the two determined offsets.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】 発明の分野 本発明は一般にテレプレゼンスシステムに関し、より具体的にはテレプレゼン
スシステムにおける動きの補償に関する。
FIELD OF THE INVENTION The present invention relates generally to telepresence systems, and more specifically to motion compensation in telepresence systems.

【0002】 発明の背景 遠隔制御の分野は、携帯コントローラの制御の下で飛ぶ模型飛行機を見ていた
日々からずっと進歩している。ロボット工学およびロボットの遠隔操作は、より
遠隔からのよりよい遠隔制御システムを求める強い、差し迫ったニーズを生み出
している。明らかに、遠隔制御の理想的な形態は、固有の危険や移動などがなく
、遠隔ロボットを操作するすべての感覚をオペレータに提供することを必要とす
る。これを実現するためにテレプレゼンスシステムが使用される。
BACKGROUND OF THE INVENTION The field of remote control has advanced much since the days of seeing model airplanes flying under the control of portable controllers. Robotics and remote control of robots are creating a strong and pressing need for better remote control systems from a greater distance. Obviously, the ideal form of remote control would need to provide the operator with all the sensation of operating a remote robot without inherent danger or movement. A telepresence system is used to achieve this.

【0003】 テレプレゼンスシステムは感覚フィードバックシステムであって、遠隔システ
ムを感知し監視することを可能にする。典型的なテレプレゼンスセンサはカメラ
、および、頭に装着するディスプレイである。このシステムは遠隔の場所からの
視覚的なフィードバックをオペレータに提供する。たとえば、自動車用のテレプ
レゼンスシステムではフロントガラスにカメラが備えられている。車両の制御は
自動的に車両を操作するアクチュエータで提供される。オペレータは車のキャビ
ンのコピーを提供される。フロントガラスはディスプレイに置き換えられ、制御
は車両内のアクチュエータとの通信を介してリンクされる。車のキャビン内でス
テアリングホイールを回すと、ステアリングホイールが車両をターンさせる。同
様に、カメラは車の正面の画像をキャプチャし、画像は車のキャビン内のディス
プレイに表示される。
A telepresence system is a sensory feedback system that allows sensing and monitoring of remote systems. Typical telepresence sensors are cameras and head-mounted displays. This system provides the operator with visual feedback from a remote location. For example, a telepresence system for an automobile is equipped with a camera on the windshield. Control of the vehicle is provided by an actuator that automatically operates the vehicle. The operator is provided with a copy of the car cabin. The windshield is replaced by a display and control is linked via communication with actuators in the vehicle. When you turn the steering wheel inside the car's cabin, the steering wheel turns the vehicle. Similarly, the camera captures an image of the front of the car, which is displayed on the display in the car's cabin.

【0004】 現在、頭部装着ディスプレイ(HMD)を使用して視覚的なフィードバックを
提供する傾向がある。頭に装着するディスプレイ(頭部装着デスプレイ)はユー
ザが頭にかぶる小さな1つまたは2つのディスプレイである。有利にも、2つの
ディスプレイを伴うHMDはステレオ映像を提供し、ユーザが視野の深さを認識
できるようになっている。別法としては、このようなHMDは各ディスプレイに
2つの同じ画像を提供する。残念ながら、頭に装着するディスプレイはユーザに
、ユーザのほぼ前方にある情報しか提供しない。したがってユーザが頭を回転す
ると、見える画像と期待される画像は異なる。したがって、カメラは検出された
HMDの動きにしたがって動く機構の上に搭載されている。こうして、ユーザの
前にある画像はユーザの頭の位置に従う。
Currently, there is a tendency to use head-mounted displays (HMDs) to provide visual feedback. A head-worn display (head-mounted display) is one or two small displays worn by the user on the head. Advantageously, an HMD with two displays provides a stereo image, allowing the user to perceive the depth of field. Alternatively, such an HMD provides two identical images on each display. Unfortunately, head-mounted displays only provide the user with information that is approximately in front of the user. Therefore, when the user rotates his / her head, the image seen and the expected image are different. Therefore, the camera is mounted on a mechanism that moves according to the detected movement of the HMD. Thus, the image in front of the user follows the position of the user's head.

【0005】 一般に、テレプレゼンスシステムの目的は、ロボットの場所における視覚的な
感覚を提供することと、同時に、ロボットを制御する制御システムを提供するこ
とである。このように、テレプレゼンスシステムは異なる状況に適したフィード
バックを提供することを目的とする。
In general, the purpose of a telepresence system is to provide a visual sensation at the location of the robot and at the same time to provide a control system for controlling the robot. Thus, the telepresence system aims to provide feedback suitable for different situations.

【0006】 残念なことに、カメラはHMDと完全に同期で動くわけではないので、頭が動
いている間、画像はユーザの期待と完全に一致するわけではない。この不一致に
よって、オペレータの方向感覚が失われ、吐き気がするという結果になる可能性
がある。
Unfortunately, the camera does not move in perfect synchronization with the HMD, so the image does not exactly match the user's expectations while the head is moving. This discrepancy can result in disorientation of the operator and nausea.

【0007】 タバタの名義で1996年11月26日に発行された米国特許第5,579,
026号の開示と、コダマの名義で1999年6月29日に発行された米国特許
第5,917,460号の開示は、たとえばバーチャルリアリティおよびゲーム
で使用される画像ディスプレイを中心としている。ここには、投影される画像の
位置が制御ユニットに応答して置き代わるか、オペレータの頭の回転する動きに
応答して置き代わることのできる、頭に装着するディスプレイが説明されている
。頭を追跡する実行の本質は、ユーザの視点から見れば、頭の動きと反対に操作
することによって、頭が動いている間画像を空間内のほぼ停止した位置にとどめ
ることができるということである。重要なことに、これらの特許はスレーブ型の
カメラを使用した視覚的なテレプレゼンスには関し述べていない。スレーブ型の
カメラの実行では、カメラはHMDの動きに従っているはずなので、画像は常に
頭が向いている方向であり、HMDの動きに対する補償は不必要である。
US Pat. No. 5,579, issued on Nov. 26, 1996 in the name of Tabata.
The disclosure of US Pat. No. 026 and the disclosure of US Pat. No. 5,917,460, issued June 29, 1999 in the name of Kodama, focus on, for example, virtual reality and image displays used in games. Described herein is a head-worn display in which the position of the projected image can be displaced in response to a control unit or in response to a rotating movement of the operator's head. From the user's perspective, the essence of the head-tracking run is that by manipulating it in the opposite direction of the head's movement, the image can remain at a nearly stationary position in space while the head is moving. is there. Importantly, these patents do not address visual telepresence using slave cameras. In a slave camera implementation, the camera should follow the HMD's motion, so the image is always headed, and compensation for the HMD's motion is unnecessary.

【0008】 さらに、米国特許5,579,026号はユーザの前にあるバーチャル空間内
にあるテレビ画面のシミュレーションなどの、シミュレートされた平面画像を表
示することに関し、この特許はHMDを装着している人に対して固定されたフレ
ームを提供する。こうして任意の方向の画像がシミュレートされ、必要に応じて
形成される。残念なことに、テレプレゼンスシステムでは、視野の特定の方向に
関するビデオデータが入手できないことがしばしばある。これはシステムを大幅
に複雑にするので、ビデオデータ表示に関する先行技術は本当に適用可能である
わけではなく、当業者はこのようなものを参照しない。
Further, US Pat. No. 5,579,026 relates to displaying a simulated planar image, such as a simulation of a television screen in a virtual space in front of a user, which wears an HMD. Providing a fixed frame for those who are Thus, an image in any direction is simulated and formed as needed. Unfortunately, telepresence systems often do not have video data available for a particular direction of view. This adds significant complexity to the system, so the prior art for displaying video data is not really applicable and the person skilled in the art does not refer to such.

【0009】 コダマの名義で1999年6月29日に発行された米国特許第5,917,4
60号では、HMDの3軸(上/下、左/右、前/後)の移動に対処するシステ
ムが提供されている。移動は外見上線型であり、機械的な機構を介して合わせら
れている。ディスプレイは検出された頭の動きに応答して動かされるので、対象
はユーザの視野からはほぼ静止した位置にとどまる。
US Pat. No. 5,917,4 issued Jun. 29, 1999 in the name of Kodama
In No. 60, a system that deals with the movement of the HMD in three axes (up / down, left / right, front / rear) is provided. Movement is linear in appearance and is coordinated via a mechanical mechanism. Since the display is moved in response to the detected head movement, the subject remains in a substantially stationary position from the user's field of view.

【0010】 これは、カメラがHMDの動きを追跡するテレプレゼンスで使用するには適し
ていない。当業者であれば、カメラが頭の動きに応答して回転するテレプレゼン
スシステムに関しては、あと知恵がなければ、頭が回転した時に視覚的な基準を
維持するためにドロウ(draw)されないであろう。もちろん、問題が難しけ
れば解決法も難しくなるという結果になる。
This is not suitable for use in telepresence where the camera tracks HMD movement. One of ordinary skill in the art would not be able to draw a telepresence system in which the camera rotates in response to head movement without the aid of wisdom to maintain a visual reference when the head rotates. Let's do it. Of course, the harder the problem, the harder the solution.

【0011】 たとえばテレプレゼンスシステムでは、カメラの画像のキャプチャと頭の動き
の間の遅延はしばしば不確定である。上記の特許のシステムを実行してこの問題
を解決しようとしても、うまくいかない。カメラの応答時間と通信の遅延から生
じる不明な遅延があるので、解決法はささいなものではない。
In telepresence systems, for example, the delay between capturing an image of the camera and head movement is often indeterminate. Trying to solve this problem by running the system of the above patent does not work. The solution is not trivial as there are unknown delays resulting from camera response times and communication delays.

【0012】 米国特許第5,933,125号では、名目上シミュレーションされた環境内
で、頭の動きの予想を使用してバーチャル画像の生成において期待される遅延を
あらかじめ補償することが開示されている。この手段によって、画像の生成にお
ける時間遅延は、場面をシフトし安定した基準の視覚的なフレームを提供するこ
とによって補償される。この方法は、頭のトラッキング情報を使用して適切な精
度で次の頭の位置を予想できる短い遅延と小さな移動には適用可能である。この
特許は通常の値として100msecを開示している。頭の動きの効果的な予想
は、頭の角速度と角加速度が含まれる頭の動きに関する総合的な情報によって補
助される。頭のわずかな動きに関しては、もたらされるエラーは小さい。典型的
にはこれらは短い期間に発生する。この開示された例は時間遅延の知識に依存し
ており、時間遅延は名目的に一定であると考えられている。残念なことに、時間
遅延が大きくなり頭が大きく動く可能性がある時には、予想アルゴリズム内のエ
ラーが不明になりシステムはうまく機能しなくなる。
US Pat. No. 5,933,125 discloses the use of head motion estimation to pre-compensate for expected delays in the generation of virtual images in a nominally simulated environment. There is. By this means, the time delay in the generation of the image is compensated by shifting the scene to provide a stable reference visual frame. This method is applicable for short delays and small movements where the head tracking information can be used to predict the next head position with reasonable accuracy. This patent discloses 100 msec as a normal value. Effective prediction of head movements is aided by comprehensive information about head movements, including angular velocity and acceleration of the head. For slight head movements, the error introduced is small. These typically occur in short time periods. This disclosed example relies on knowledge of the time delay, which is considered to be nominally constant. Unfortunately, when the time delay is large and the head can move a lot, the error in the prediction algorithm becomes unknown and the system fails.

【0013】 さらに、米国特許5,933,125号は、予想されない画像の動きは補償で
きず、オペレータの頭の動きに正しく応答して発生する画像の動きだけを補償す
る。またこの特許は、遠隔のスレーブカメラを使用する視覚的なテレプレゼンス
システムは述べていない。
Further, US Pat. No. 5,933,125 cannot compensate for unexpected image movements, only image movements that occur in response to correct operator head movements. Nor does this patent mention a visual telepresence system using remote slave cameras.

【0014】 いかなる形態の補償の予想にも依存せず、画像キャプチャと画像表示の間で遅
延が変化しても機能するシステムを提供すると非常に有利である。
It would be highly advantageous to provide a system that does not rely on any form of compensation prediction and that will work with varying delays between image capture and image display.

【0015】 発明の目的 本発明は先行技術のこれらの欠点と他の欠点を克服するために、テレプレゼン
スシステムにおいて頭の動きとカメラの動きの間の時間遅延を補償する方法を提
供することを目的とする。
OBJECTS OF THE INVENTION The present invention seeks to overcome these and other drawbacks of the prior art by providing a method of compensating for the time delay between head movement and camera movement in a telepresence system. To aim.

【0016】 発明の概要 本発明はHMDを着用する人に、視覚的なキャプチャ/視覚的な表示システム
の中に時間遅延または望ましくない動きがある場合でも安定した視覚基準のフレ
ームを提供する方法と装置に関する。
SUMMARY OF THE INVENTION The present invention is a method and method for providing a person wearing a HMD with a stable visual reference frame, even in the presence of time delays or undesired motion in a visual capture / visual display system. Regarding the device.

【0017】 本発明によれば、頭が動いた時にカメラの動きにおける時間遅延によって生じ
る方向感覚の喪失を部分的に除去するために、カメラの位置がHMDの位置と再
び同期化するまで、頭部装着ディスプレイ(HMD)のディスプレイ上に表示さ
れる画像をHMDの視野に対してオフセットする。画像をオフセットすると、画
像情報が入手できないディスプレイの領域が生じる結果となる。これらのディス
プレイの領域には無地のシェーディングまたは視覚的な手掛かりを提供する所定
の特徴の組という形態の埋め草データが提供される。変化された画像が再びディ
スプレイと重なると、埋め草は必要なくなる。
According to the invention, in order to partially eliminate the loss of directional sense caused by the time delay in the movement of the camera when the head is moved, the head is re-synchronized with the position of the HMD until the position of the camera is resynchronized. The image displayed on the display of the component mounted display (HMD) is offset with respect to the visual field of the HMD. Offsetting the image results in areas of the display where image information is not available. Areas of these displays are provided with padding data in the form of a set of predetermined features that provide plain shading or visual cues. When the altered image again overlaps the display, no vegetation is needed.

【0018】 本発明によれば、頭に装着するディスプレイ(頭部装着ディスプレイ)のため
の動きを補償する方法が提供される。この方法は次のステップを含む。すなわち
、画像キャプチャデバイスからの画像を、視野を持つモニタを含む頭部装着ディ
スプレイに提供するステップと;画像に関連づけられたカメラ位置データを提供
するステップと;頭の位置データを提供するステップと;カメラ位置データと頭
の位置データに従ってモニタの視野に対して画像の場所を調整するステップと;
調整された場所において視野にとどまる画像の部分を表示するステップである。
According to the present invention, there is provided a method of motion compensation for a head mounted display (head mounted display). The method includes the following steps. Providing an image from an image capture device to a head mounted display including a monitor with a field of view; providing camera position data associated with the image; providing head position data; Adjusting the location of the image relative to the field of view of the monitor according to the camera position data and the head position data;
Displaying the portion of the image that remains in the field of view at the adjusted location.

【0019】 典型的には、位置データは方向データと場所データのうち少なくとも1つを含
む。場所データはまた変位移動(displacement)データとも呼ばれ
る。典型的には、画像データのない視野の部分は予め定められた埋め草で埋めら
れる。視野の中で表示される画像データがまったくない場合、全視野は予め定め
られた埋め草で埋められる。
The position data typically includes at least one of orientation data and location data. Place data is also referred to as displacement data. Typically, parts of the field of view without image data are filled with a predetermined fill. If there is no image data displayed in the field of view, then the entire field of view is filled with a predetermined fill.

【0020】 たとえば、画像は次のステップで調節される。これらのステップは、頭部装着
ディスプレイの位置とカメラの位置の間のオフセットを決定するステップと;頭
部装着ディスプレイの位置とカメラの位置の間のオフセットと等しい量のオフセ
ットになるように画像をオフセットするステップである。
For example, the image is adjusted in the next step. These steps determine the offset between the position of the head-mounted display and the position of the camera; the image is adjusted to be an amount equal to the offset between the position of the head-mounted display and the position of the camera. This is the step of offsetting.

【0021】 有利にも、このようなシステムは予想プロセスの精度によって限定されず、画
像キャプチャと画像表示の間の時間遅延によっても限定されない。このようなシ
ステムは反応的であり、HMDの位置とカメラの位置について感知された情報を
使用してキャプチャされた画像の変化を公式化する。本発明は、必要とされる頭
の位置の情報とカメラ位置の情報が異なる時間に感知され、1つの感知と別の感
知の間に遅延があってもそれを補償することが可能なため、補償が可能であるた
めの時間遅延に限度を有しない。
Advantageously, such a system is not limited by the accuracy of the prediction process, nor by the time delay between image capture and image display. Such systems are responsive and use the sensed information about the position of the HMD and the position of the camera to formulate changes in the captured image. The present invention allows the required head position information and camera position information to be sensed at different times to compensate for the delay between one and another sensing. There is no limit on the time delay for compensation to be possible.

【0022】 さらに有利なことに、本発明はシステム内の時間遅延に関する知識を必要とせ
ず、一定でない時間遅延があっても正しく機能する。時間遅延を測定する必要は
なく、時間遅延は画像の変化を決定する際に使用されない。
Further advantageously, the present invention does not require knowledge of the time delay in the system and will work correctly with non-constant time delays. It is not necessary to measure the time delay and it is not used in determining the change in the image.

【0023】 発明の詳細な説明 頭の動きと、現在の頭の方向に関する画像の表示との間に大幅な時間遅延が発
生するような、長い距離を越えて動作するテレプレゼンスシステムに関して本発
明を説明する。しかし、本発明はカメラ駆動機構が提供する応答レートが不十分
であり、通常の頭の動きでも画像の快適な光景を提供しない時にも等しく適用可
能である。また、カメラが動くプラットフォームに搭載されている時など、カメ
ラが望ましくない、モデル化されない動きをする可能性がある状況でも同様に適
用可能である。
DETAILED DESCRIPTION OF THE INVENTION The present invention relates to a telepresence system operating over a long distance such that there is a significant time delay between the movement of the head and the display of an image of the current head orientation. explain. However, the present invention is equally applicable when the camera drive provides a poor response rate and does not provide a comfortable view of the image with normal head movements. It is likewise applicable in situations where the camera may have undesired, unmodeled movement, such as when the camera is mounted on a moving platform.

【0024】 図1を参照すると、テレプレゼンスシステムの簡単なブロック図が示されてい
る。3軸の頭追跡装置3を含む頭部装着ディスプレイ(HMD)1をオペレータ
5がかぶっている。HMD1は第1のコンピュータ7と結合され、図2に示され
るように、第1のコンピュータ7に、HMD1の縦揺れ角21、偏揺れ角22、
および横揺れ角23の形態でHMDの位置に関するHMD値を提供する。もちろ
ん、HMD1はオペレータ5がかぶっているので、これらのHMD値はオペレー
タ5の頭の位置に関連する。これらの値は好ましくは1秒について100回より
も多い間隔で第1のコンピュータ7に提供されるが、他の間隔もまた許容できる
。HMD値は第1のコンピュータ7によってカメラ11の位置を制御する制御値
に変換される。制御値は機構13に送信され、カメラの方向に影響を与えるよう
にカメラが向けられる。図2に見られるように、この機構はカメラ11の縦揺れ
24、偏揺れ25、および横揺れ26を制御する。制御値に応答して、カメラの
位置はHMD1の動きにしたがって動く。
Referring to FIG. 1, a simple block diagram of a telepresence system is shown. An operator 5 wears a head mounted display (HMD) 1 including a triaxial head tracking device 3. The HMD 1 is connected to the first computer 7, and as shown in FIG. 2, the HMD 1 has a pitch angle 21, a yaw angle 22,
And the HMD value for the position of the HMD in the form of a roll angle 23. Of course, since the HMD 1 is worn by the operator 5, these HMD values are related to the position of the operator 5's head. These values are preferably provided to the first computer 7 at more than 100 intervals per second, but other intervals are also acceptable. The HMD value is converted by the first computer 7 into a control value for controlling the position of the camera 11. The control value is transmitted to the mechanism 13 and the camera is oriented so as to influence the direction of the camera. As seen in FIG. 2, this mechanism controls pitch 24, yaw 25, and roll 26 of camera 11. In response to the control value, the position of the camera moves according to the movement of HMD1.

【0025】 カメラを向ける機構13が物理的に第1のコンピュータ7に結合されている時
、HMDの動きが検出されるとカメラ11は動き始める。カメラの動きとHMD
の動きの間の遅延は、非常に小さい通信遅延、最小である処理遅延、および変化
するポインティング機構の動作によって決定される。これらの遅延によってしば
しば、HMD1が動いている時に、カメラ11から提供される画像が静止してい
るかまたはHMDの動きよりもかなりゆっくり動くという結果になる。もちろん
、オペレータの心は視覚的な枠組みの中での動きを期待しているので、画像の静
止またはゆっくりした動きは混乱させるものであり、しばしば、吐き気をもよお
したり方向感覚を失ってしまうという結果になる。
When the camera pointing mechanism 13 is physically coupled to the first computer 7, the camera 11 begins to move when a motion of the HMD is detected. Camera movement and HMD
The delay between movements of is determined by very small communication delay, minimal processing delay, and varying pointing mechanism behavior. These delays often result in an image provided by the camera 11 being stationary or moving much slower than the HMD's movements when the HMD 1 is moving. Of course, the operator's mind expects movement in a visual framework, so still or slow motion in the image is confusing, often resulting in nausea and loss of direction. become.

【0026】 この問題は、宇宙にあるシステムを地上から制御するために使用する時など、
通信の遅延時間が大きい時にさらに顕著になる。遅延が秒のオーダになると、H
MDが動いている間のオペレータの方向感覚の喪失が大きくなる。重要なことに
、方向感覚の喪失はオペレータが疲労する原因となり、オペレータのシステム使
用が限定されるか、一日の間のシステムの使用が限定されるという結果になる。
This problem arises when used to control a system in space from the ground, such as
It becomes more noticeable when the communication delay time is large. If the delay is on the order of seconds, H
The loss of sense of direction for the operator during movement of the MD increases. Significantly, loss of orientation causes operator fatigue, resulting in limited operator system use or limited system use during the day.

【0027】 図1を再び参照すると、カメラ11はビデオデータキャプチャレートで常に画
像を取得している。各画像は第1のコンピュータに送信され、必要であれば処理
されて、HMD1に供給される。本発明によれば、遠隔システムはまたカメラの
位置情報と、関連づけられた各画像を第1のコンピュータ7に提供する。このよ
うに、第1のコンピュータ7によって受信される各フレームは、フレームに関連
づけられたカメラ位置情報を有する。カメラ位置情報は好ましくは、知られた方
向に対する位置である。別法としては、カメラ位置情報は第1のコンピュータ7
によって、知られたカメラの方向に対する位置情報に変形され、HMD1の座標
空間と似た座標空間内に置かれる。
Referring back to FIG. 1, the camera 11 is constantly acquiring images at the video data capture rate. Each image is transmitted to the first computer, processed if necessary, and supplied to the HMD 1. According to the invention, the remote system also provides the location information of the camera and each associated image to the first computer 7. Thus, each frame received by the first computer 7 has camera position information associated with the frame. The camera position information is preferably position relative to a known direction. Alternatively, the camera position information is stored in the first computer 7
Is transformed into position information for the known camera direction and placed in a coordinate space similar to the coordinate space of the HMD 1.

【0028】 HMDの位置の値を使用して、カメラ11の座標空間に似た座標空間内で現在
のHMDの方向を決定する。こうして、カメラの方向とHMDの方向の間のオフ
セットは決定可能である。HMD1はオペレータ5がかぶっているので、HMD
の方向はオペレータ5の頭の位置に直接相関している。もちろん、直接の相関は
感知された位置データに関連し、使用に際しては一般に、HMD位置センサのリ
フレッシュレートのためにほぼ直接的に相関している。カメラの方向とHMDの
方向の間のオフセットは、ローカルシステムと遠隔システムの間の遅延に関連す
る。
The HMD position value is used to determine the current HMD orientation in a coordinate space similar to that of the camera 11. Thus, the offset between the camera direction and the HMD direction can be determined. Since the operator 5 is wearing the HMD 1, the HMD 1
The direction of is directly correlated to the position of the operator's 5 head. Of course, the direct correlation is related to the sensed position data and, in use, is generally a near direct correlation due to the refresh rate of the HMD position sensor. The offset between the camera direction and the HMD direction is related to the delay between the local system and the remote system.

【0029】 したがって、ゼロではないオフセットが決定されると、第1のコンピュータは
カメラが提供した画像をHMDの視野に対してオフセットし、決定されたオフセ
ットを補償する。図3a、図3b、図3c、図3d、図3eを参照すると、画像
表示のいくつかの例が示されている。図3aでは、カメラの方向とHMDの方向
の間のゼロオフセットに関する画像が示されている。HMD1はカメラ11と同
じ方向を向いており、HMD1の中のディスプレイに表示される画像はカメラに
よってキャプチャされた画像と同じなので、これはフィードバックシステムの定
常状態である。HMDの方向がカメラの位置よりも下を向いている時、図3bに
示されるように画像は垂直の方向でオフセットされる。カメラの方向が水平にオ
フセットされると、図3cに示されるように画像は水平にオフセットされる。図
3dと図3eでは、カメラの方向が回転しHMDの方向に対してオフセットされ
ているので、画像は回転し視野に対してオフセットされる。
Therefore, when a non-zero offset is determined, the first computer offsets the image provided by the camera with respect to the field of view of the HMD and compensates for the determined offset. Referring to FIGS. 3a, 3b, 3c, 3d, 3e, some examples of image displays are shown. In Figure 3a, an image is shown for zero offset between the camera direction and the HMD direction. This is a steady state of the feedback system, as the HMD 1 is facing the same direction as the camera 11 and the image displayed on the display in the HMD 1 is the same as the image captured by the camera. When the direction of the HMD is pointing below the position of the camera, the image is offset in the vertical direction as shown in Figure 3b. When the camera direction is horizontally offset, the image is horizontally offset as shown in Figure 3c. In Figures 3d and 3e, the image is rotated and offset with respect to the field of view because the camera orientation is rotated and offset with respect to the HMD orientation.

【0030】 図4a、図4b、図4c、図4dに説明されているような即時の訂正は簡単に
見えるが、システムの定常状態の性質は、いつも変化している画像の視野と表示
の視野を必要とする。したがって、感知された位置データの2つの動的な組の間
で比較することが必要である。
While the immediate corrections as illustrated in FIGS. 4a, 4b, 4c, 4d appear simple, the steady state nature of the system is that the field of view of the image and the field of view of the display are constantly changing. Need. Therefore, it is necessary to compare between the two dynamic sets of sensed position data.

【0031】 図4a、図4b、図4cおよび図4dを参照すると、オペレータが頭を左に向
けた時のHMD1に関する視野が示されている。第1の定常状態では(頭を向け
る前)、カメラ11によってキャプチャされる正確な画像は図4aのHMD1の
ディスプレイの中に示されている。頭を回転すると、画像はオペレータ5の一部
ではなく、視野の中にあるため、オペレータ5は画像が右に動くことを「期待」
する。この期待は意識的である場合もあり無意識的である場合もある。HMDが
動いても画像が静止していると想像すると、個人は頭が動いている間に視野から
手掛かりをつかむため、方向感覚を失う結果になることが明らかである。
Referring to FIGS. 4a, 4b, 4c and 4d, there is shown a field of view for the HMD 1 when the operator turns his head to the left. In the first steady state (before turning the head), the exact image captured by the camera 11 is shown in the display of the HMD 1 of Figure 4a. When the head is rotated, the operator 5 "expects" to move the image to the right because the image is in the field of view, not part of the operator 5.
To do. This expectation may be conscious or unconscious. Imagine that the image is still when the HMD moves, but it is clear that an individual loses the sense of direction as he or she grabs clues from the field of view while the head is moving.

【0032】 オペレータ5に「期待通りの」画像内の対象の移動を提供するために、画像は
HMD1とカメラ11の間の方向の差とほぼ同じ場所にオフセットされる。たと
えば、図4bの画像の中で、頭の回転によって、灯台は視野からシフトして見え
なくなっている。HMDをα度回転させると、オペレータは灯台など、視野の中
で静止している対象が視野の中でα度シフトすることを期待する。これは、個人
用ビジョンシステムの中にいるオペレレータの居心地のよさを維持するために重
要である(彼らの目と心)。同時に、カメラはカメラ自体の方向をHMDの方向
と一致させるように動き始める。したがって図4cの画像に示されたように、オ
ペレータの視野内の画像のより多くの場面がカメラ11から入手できるようにな
る。カメラの方向がHMDの方向に「追いつく」と、カメラの視野とHMDの視
野はさらに重なる。カメラ11がHMDの視野に「追いつき終わった」ときに、
再び、図4dの画像に示されるように、カメラによってキャプチャされた全画像
を示す。
In order to provide the operator 5 with the movement of the object within the “expected” image, the image is offset approximately at the same directional difference between the HMD 1 and the camera 11. For example, in the image of FIG. 4b, the rotation of the head causes the lighthouse to shift out of view and disappear. When the HMD is rotated by α degrees, the operator expects a stationary object in the field of view, such as a lighthouse, to shift by α degrees in the field of view. This is important to keep the operators cozy in their personal vision system (their eyes and mind). At the same time, the camera begins to move so that the orientation of the camera itself matches the orientation of the HMD. Therefore, more of the image in the operator's field of view is available from the camera 11, as shown in the image of FIG. 4c. When the direction of the camera “catch up” with the direction of the HMD, the view of the camera and the view of the HMD further overlap. When the camera 11 "has finished catching up" with the HMD's field of view,
Again, as shown in the image of FIG. 4d, it shows the full image captured by the camera.

【0033】 図5を参照すると、ネットワーク上で使用する本発明の別の実施形態が示され
ている。ここではたとえば、2つのコンピュータ7と15がネットワーク(また
は複数のネットワーク)17を介して通信する。第1のコンピュータ7はHMD
1を周辺機器として含む。第2のコンピュータ15はカメラ11とカメラのポイ
ンティング機構13とを周辺機器として含む。ここで第1のコンピュータ7また
は第2のコンピュータ15のいずれかの中で処理が実行されるが、画像のオフセ
ットの原因となり、オペレータ5が方向感覚を失う結果になるネットワーク遅延
があるかも知れないので、画像処理は好ましくは第1のコンピュータ7の中で実
行される。もちろん、ネットワーク遅延が大きいことが知られている時は、画像
処理を第1のコンピュータ上で実行することが重要である。
Referring to FIG. 5, another embodiment of the invention for use on a network is shown. Here, for example, two computers 7 and 15 communicate via a network (or a plurality of networks) 17. The first computer 7 is an HMD
1 is included as a peripheral device. The second computer 15 includes a camera 11 and a camera pointing mechanism 13 as peripheral devices. The processing is now performed in either the first computer 7 or the second computer 15, but there may be network delays that cause image offsets and result in the operator 5 being disoriented. Therefore, the image processing is preferably performed in the first computer 7. Of course, it is important to perform image processing on the first computer when network latency is known to be large.

【0034】 図6を参照すると、本発明を実施する方法の簡単なフロー図が示されている。
画像はカメラ11によってキャプチャされる。センサは縦揺れ、横揺れ、偏揺れ
に関するカメラの方向の値という形で位置データをキャプチャする。位置データ
は好ましくは画像と同時にキャプチャされる。別法としては、位置データはほぼ
同時にキャプチャされるが、画像キャプチャの直後または直前のいずれかに限定
された量だけオフセットされる。位置データはそこで、画像データと関連づけら
れる。データを関連づける簡単な方法は、ヘッダ情報またはトレーラ情報のいず
れかとして位置データを画像データを伴ってコード化することである。もちろん
、画像データと位置データはまた、画像フレーム番号などの関連する識別子で識
別することもできる。別法としては、2つのデータは同期環境で並列に送信され
る。
Referring to FIG. 6, a simple flow diagram of a method of practicing the present invention is shown.
The image is captured by the camera 11. The sensor captures position data in the form of camera orientation values for pitch, roll, and yaw. The position data is preferably captured simultaneously with the image. Alternatively, the position data is captured at about the same time, but offset by a limited amount, either immediately after or just prior to image capture. The position data is then associated with the image data. A simple way to associate the data is to encode the position data with the image data either as header information or trailer information. Of course, the image data and the position data can also be identified by associated identifiers such as image frame numbers. Alternatively, the two data are sent in parallel in a synchronous environment.

【0035】 画像データと位置データは次いで第1のコンピュータ7に送信される。画像デ
ータと位置データが受信されると、第1のコンピュータ7において処理のための
準備が行われる。ついで、HMD1の位置データが第1のコンピュータ7によっ
て取得され、本発明にしたがって画像を変化するために使用される。変化された
画像はディスプレイに提供され、ディスプレイ上でオペレータ5に表示される。
HMDの位置データは必要となる直前に集められるので、HMDの位置データの
キャプチャと変化された画像の表示の間の遅延は非常に小さく、オペレータが方
向感覚を失うことはほとんどないかまたはまったくない。
The image data and the position data are then transmitted to the first computer 7. When the image data and the position data are received, the first computer 7 prepares for processing. The position data of the HMD 1 is then acquired by the first computer 7 and used to change the image according to the invention. The changed image is provided to the display and displayed to the operator 5 on the display.
Since the HMD position data is collected just before it is needed, the delay between capturing the HMD position data and displaying the modified image is very small and the operator has little or no loss of orientation. .

【0036】 同時に、位置データは間隔を置いて機構13に提供され、機構は受信された位
置データとカメラ11の現在の方向にしたがってカメラ11を動かす。
At the same time, position data is provided at intervals to the mechanism 13, which moves the camera 11 according to the received position data and the current direction of the camera 11.

【0037】 典型的には、画像データを変化するステップは次のステップを含むが、このう
ちの一部は前もって実行される。角度の動きとディスプレイまたは画像ピクセル
の間の相関関係は、α度のオフセットの結果、第1の方向へNピクセル、第2の
別の方向へMピクセルだけ画像が動くように決定される。回転に基づく画像回転
の変化も決定される。好ましくは、変化は高速な画像処理を提供できるために十
分に簡単である。すなわち、小さな画像処理の遅延はほぼデータを表示する際の
遅延になるので、容認できる。
Typically, the steps of modifying the image data include the following steps, some of which are performed in advance. The correlation between angular movement and display or image pixels is determined so that the offset of α degrees results in an image movement of N pixels in a first direction and M pixels in a second alternative direction. Changes in image rotation based on rotation are also determined. Preferably, the changes are simple enough to be able to provide fast image processing. In other words, a small image processing delay is almost the same as the delay in displaying the data, and is therefore acceptable.

【0038】 画像データが受信されると、画像データは高速処理のためにメモリに記憶され
る。HMD位置データが取得され、カメラ位置データと比較される。差を使用し
て変化を実行し、まだ機構13が考慮していないHMDの動きがある場合、その
HMDの動きについて画像の位置を訂正する。また、たとえば慣性位置センサな
どのようにカメラの位置センサが機構13から独立している時、この方法はカメ
ラ11の無意識的な動きも訂正する。
When the image data is received, the image data is stored in memory for high speed processing. The HMD position data is acquired and compared with the camera position data. The difference is used to perform the change, and if there is an HMD motion that mechanism 13 has not yet taken into account, the image position is corrected for that HMD motion. Also, when the position sensor of the camera, such as an inertial position sensor, is independent of the mechanism 13, this method also corrects unconscious movement of the camera 11.

【0039】 上記の実施形態では、汎用プロセッサを使用して画像を変化する。代替の実施
形態ではハードウェア実行による変化が使用される。ハードウェア実行は修正し
にくいが、性能にすばらしい効果を与える。並列ハードウェア変化プロセッサを
使用すると、画像のソフトウェア変化を実行するために必要な時間のうちわずか
な一部の時間で画像を変化することができる。
In the above embodiments, a general purpose processor is used to transform the image. Alternate embodiments use hardware implemented changes. Hardware implementation is hard to modify, but has a great effect on performance. A parallel hardware change processor can change an image in a fraction of the time needed to perform a software change of the image.

【0040】 図7を参照すると、衛星に基づいたテレプレゼンスシステムが示されている。
ここでは、頭の動きと画像表示の間の秒オーダの遅延が結果として生じる。さら
に、遅延はいつも予想可能であるわけではない。ここでHMD101はオペレー
タ5の頭に付けられて示されている。HMDはHMDに対する位置データを感知
する頭追跡装置103を備える。HMDはまた、表示データをHMDに提供し、
HMD位置データを通信リンク108に提供するコンピュータ107と結合され
る。通信リンク108はHMD位置データを衛星117にアップリンクし、HM
D位置データは衛星117からトランシーバ116に送信される。トランシーバ
と通信するコンピュータ115はデータをジンバル113に提供して、データに
したがってカメラ111の位置を訂正する。カメラ111は逆の通信パス、すな
わちコンピュータ115、トランシーバ116、衛星117、通信リンク108
からコンピュータ107という通信パスで提供される画像をキャプチャする。オ
プションとしては、異なる戻りパスが使用される。ここで画像データはHMD1
01の中で表示するために処理される。画像と共に、センサ114によって感知
されたカメラ位置データも提供される。カメラ位置データは、カメラ111が感
知された位置にあった時とほぼ同じ時にキャプチャされた画像(複数可)に関連
づけられる。
Referring to FIG. 7, a satellite-based telepresence system is shown.
Here, a delay of the order of seconds between head movement and image display results. Moreover, delays are not always predictable. Here, the HMD 101 is shown attached to the head of the operator 5. The HMD comprises a head tracking device 103 that senses position data for the HMD. The HMD also provides the display data to the HMD,
Coupled to a computer 107 that provides HMD location data on communication link 108. The communication link 108 uplinks the HMD position data to the satellite 117,
The D position data is transmitted from satellite 117 to transceiver 116. Computer 115 in communication with the transceiver provides the data to gimbal 113 and corrects the position of camera 111 according to the data. The camera 111 has the opposite communication path, namely computer 115, transceiver 116, satellite 117, communication link 108.
Captures an image provided by the communication path of the computer 107. Optionally, a different return path is used. Here, the image data is HMD1
Processed for display in 01. Along with the image, camera position data sensed by sensor 114 is also provided. The camera position data is associated with the image (s) captured at about the same time the camera 111 was at the sensed position.

【0041】 コンピュータ107はカメラ位置データと画像を、頭追跡装置103から受信
されたデータと共に使用して、本発明にしたがって画像を変化する。明らかなよ
うに、HMDの動きとカメラの動きの間の遅延は秒単位で測定可能である。カメ
ラ画像のキャプチャとコンピュータ107における画像受信との間の遅延もまた
秒単位で測定可能である。したがって、本発明の適用がなければ、ユーザの大幅
な方向感覚の喪失が結果として生じる。
Computer 107 uses the camera position data and the image with the data received from head tracking device 103 to transform the image in accordance with the present invention. As can be seen, the delay between the HMD movement and the camera movement can be measured in seconds. The delay between capturing the camera image and receiving the image at computer 107 can also be measured in seconds. Therefore, without the application of the present invention, a significant loss of orientation for the user would result.

【0042】 図8を参照すると、カメラ111によってキャプチャされた画像が示されてい
る。画像はHMDの方向とカメラの方向が並んだ時、画像キャプチャの時のカメ
ラの方向と表示の時のHMDの方向が並んだ時にキャプチャされたものとして表
示されている。方向が1つから別の方向にオフセットされると、図9に示される
ようにオペレータの視野の中で画像がシフトされる。カメラの映像視野を越えた
所には画像データはないので、残りの表示領域はグレーなどの中間的な色で影を
付けられる。別法としては、残りの表示領域は影を付けられて基準ポイントを提
供し、オペレータ105の方向感覚の喪失をさらに限定する。さらなる別法とし
ては、画像データが入手不可能な視野の部分は空白のままである。典型的には空
白の領域はオペレータの気を散らさないように黒である。図10を参照すると、
カメラ111の方向がHMDの方向に「追いつき終わった」時、HMDの視野は
再び、カメラによってキャプチャされた全画像を表示する。
Referring to FIG. 8, an image captured by the camera 111 is shown. The image is displayed as captured when the direction of the HMD and the direction of the camera are aligned, and when the direction of the camera when capturing the image and the direction of the HMD when displaying are aligned. When the directions are offset from one to another, the image is shifted in the operator's field of view, as shown in FIG. Since there is no image data beyond the field of view of the camera, the remaining display area is shaded with an intermediate color such as gray. Alternatively, the remaining display area is shaded to provide a reference point, further limiting the loss of orientation of the operator 105. As a further alternative, the part of the field of view for which no image data is available remains blank. The blank areas are typically black so as not to distract the operator. Referring to FIG.
When the orientation of the camera 111 "catch up" in the direction of the HMD, the HMD's field of view again displays the full image captured by the camera.

【0043】 別法としては、カメラは表示できる画像領域よりも大きな画像領域をキャプチ
ャし、画像の一部だけが表示される。この方法は帯域幅の要件を増大し、追加デ
ータはしばしば理由なく表示されないため、それほど好ましくないと考えられる
Alternatively, the camera captures a larger image area than can be displayed and only a portion of the image is displayed. This method increases bandwidth requirements and is often considered less desirable as additional data is often not displayed for no reason.

【0044】 有利には、HMD1とカメラ11の各々に関して独立しており、カメラを動か
す機構13からも独立した位置インジケータで実行された時、機構13の不正確
さ、通信によって発生した遅延、機構13によって発生した遅延、処理遅延、細
かなオペレータの動きなどを含むすべてのタイプの動きが補償される。
Advantageously, the inaccuracy of the mechanism 13, the delay caused by the communication, the mechanism when carried out with a position indicator independent of each of the HMD 1 and the camera 11 and independent of the mechanism 13 for moving the camera. All types of motion are compensated, including delays caused by 13, processing delays, fine operator motion, and so on.

【0045】 処理がHMDにローカルに行われるか、またはHMDと同じ位置にありその間
に最小の遅延しかないコンピュータ上で行われた時、処理とHMDセンサデータ
を読み取る遅延のみに関連する時間遅延エラー内で各画像は正確にディスプレイ
上に並ぶ。
When processing is done locally on the HMD or on a computer at the same location as the HMD with minimal delay between them, a time delay error associated only with the processing and the delay reading the HMD sensor data. Within each image is exactly aligned on the display.

【0046】 したがって、不連続的な場面の変化は予想される視覚的な結果にしたがって滑
らかな遷移に変換される。
Therefore, discontinuous scene changes are transformed into smooth transitions according to the expected visual result.

【0047】 また、表示される画像の中で強調されるか又は示される、画像データ内の特徴
または場所を決定するために、画像データを処理してから表示することも本発明
の範囲内にある。たとえば、全体として明るい画像または暗い画像についてコン
トラストを改善することができる。また、特徴を識別し、ラベルを付けるか強調
することもできる。別法としては、画像を処理せずに、アイコンまたは別の画像
を表示された画像に重ねる。
It is also within the scope of the invention to process the image data before displaying it to determine features or locations in the image data that are highlighted or shown in the displayed image. is there. For example, the contrast can be improved for generally bright or dark images. Also, features can be identified and labeled or highlighted. Alternatively, the image or another image is superimposed on the displayed image without processing the image.

【0048】 別法としては、制御値は第1のコンピュータではなくカメラを向けるポインテ
ィング機構内で決定される。このような実施形態では、HMD位置データは遠隔
システムに送信され、HMDの動きに関連するカメラの動きが決定され開始され
る。
Alternatively, the control value is determined in a pointing mechanism that points the camera rather than the first computer. In such an embodiment, the HMD position data is transmitted to the remote system to determine and initiate camera movements related to HMD movements.

【0049】 上記の実施形態は3つの回転軸のうち任意の軸に関する方向の動きを補償する
。別法としては本発明は軸に沿った移動の線型的な動きを補償する。さらに別法
としては、本発明は線型的な動きと任意の回転軸に関する動きを補償する。移動
と方向は位置の両方の形態であり、1つまたは両方に関するデータは本明細書と
請求項では位置データと呼ばれる。
The embodiments described above compensate for directional movement about any of the three axes of rotation. Alternatively, the invention compensates for linear movement of movement along the axis. As a further alternative, the present invention compensates for linear motion and motion about any axis of rotation. Movement and direction are both forms of position, and data relating to one or both is referred to herein as position data.

【0050】 上記の実施形態は視野のゆがみに関しては画像を訂正しない。視野のゆがみを
補償することは本発明による時間/動きの補償のコンセプトの中で可能であるが
、観察される場面の視野の深さが変化するため、一般には単一のカメラの使用に
は適しない。視野のゆがみの補償は、範囲センサまたは3次元のビジョンシステ
ムを使用した深さデータのキャプチャを必要とするであろう。
The embodiments described above do not correct the image for field distortion. Compensating for field distortions is possible within the concept of time / motion compensation according to the present invention, but due to the varying depth of field of view of the scene being observed, it is generally not suitable for use with a single camera. Not suitable. Compensating for field distortions would require capturing depth data using range sensors or a three-dimensional vision system.

【0051】 上記の実施形態は異なる構成要素間の物理的な通信リンクまたはワイヤレス通
信リンクに関して説明されたが、明らかに、実行可能である限り、どちらも本発
明の中で有用である。また、HMDはコンピュータの周辺機器として説明された
が、HMDは内部プロセッサを備えてスタンドアローンのデバイスとして機能す
る場合もある。
Although the above embodiments have been described with reference to physical or wireless communication links between different components, both are clearly useful within the invention, as far as practicable. Although the HMD has been described as a peripheral device for a computer, the HMD may include an internal processor and function as a stand-alone device.

【0052】 本発明の別の実施形態によれば、表示された画像の場所に対応しない視野内の
領域は、これらの場所に関して以前にキャプチャされた画像に関連する現在の画
像データで埋められる。好ましくは、任意の以前にキャプチャされた画像は視野
の中で強調されず、「古い」画像データによるオペレータの混乱を避ける。たと
えば、カメラから受信された各画像は関連づけられた位置データと共にバッファ
される。視野の中の幾つかの領域が画像データによって占められていない時、プ
ロセッサは視野の中のこれらの場所に関して画像データを持つ別の画像を決定し
、その場所は以前にキャプチャされた画像に関連づけられたカメラの位置データ
に基づいて実行された変化と現在のHMD位置データにしたがって決定される。
ついで画像データは決められた場所(複数可)において「透明な」ように表示さ
れる。たとえば、画像データはほとんどゴーストのように見える、低いコントラ
ストで表示することができる。別法としては色を淡くして画像データをさらにゴ
ーストのような外見にする。さらに別法としては、画像は現在の画像データと同
じように表示される。
According to another embodiment of the invention, regions in the field of view that do not correspond to the locations of the displayed images are filled with current image data associated with previously captured images for those locations. Preferably, any previously captured image is not highlighted in the field of view to avoid operator confusion with "old" image data. For example, each image received from the camera is buffered with associated position data. When some area in the field of view is not occupied by image data, the processor determines another image with image data for those locations in the field of view, which location is associated with the previously captured image. It is determined according to the change performed based on the obtained camera position data and the current HMD position data.
The image data is then displayed as "transparent" at the defined location (s). For example, image data can be displayed with low contrast, which almost looks like ghost. Alternatively, lighten the colors to make the image data look more like a ghost. Still alternatively, the image is displayed as if it were current image data.

【0053】 上記の説明は例示的なものであり、請求項を限定する意図ではない。[0053]   The descriptions above are intended to be illustrative, not limiting.

【図面の簡単な説明】[Brief description of drawings]

本発明は次の図面に関連して説明される。   The present invention will be described with reference to the following drawings.

【図1】 第1のコンピュータに結合され遠隔カメラと通信するHMDを組み込んだシス
テムの簡単なブロック図である。
FIG. 1 is a simplified block diagram of a system incorporating an HMD coupled to a first computer and in communication with a remote camera.

【図2】 関連するシステムの動きの軸を示す簡略図である。[Fig. 2]   FIG. 6 is a simplified diagram showing axes of motion of the associated system.

【図3a】 HMDの視野内に現れる画像のシミュレートした光景を示す簡略図である。FIG. 3a   FIG. 6 is a simplified diagram showing a simulated scene of an image appearing within the field of view of an HMD.

【図3b】 ユーザの頭が下向きに動いたことに応答して、HMDの視野内で垂直にオフセ
ットされた図3aの画像の一部をシミュレートした光景を示す簡略図である。
3b is a simplified diagram showing a simulated scene of a portion of the image of FIG. 3a vertically offset within the field of view of the HMD in response to the user's head moving downwards.

【図3c】 ユーザの頭が横向きに動いたことに応答して、HMDの視野内で水平にオフセ
ットされた図3aの画像の一部をシミュレートした光景を示す簡略図である。
FIG. 3c is a simplified diagram showing a simulated scene of a portion of the image of FIG. 3a horizontally offset within the field of view of the HMD in response to the user's head moving sideways.

【図3d】 ユーザが頭を傾けたことに応答して、HMDの視野内で傾けられた図3aの画
像の一部をシミュレートした光景を示す簡略図である。
FIG. 3d is a simplified diagram showing a simulated scene of a portion of the image of FIG. 3a tilted within the field of view of the HMD in response to the user tilting his or her head.

【図3e】 ユーザの頭の横向きで水平な動きと傾けた動きの組み合わせに応答して、HM
Dの視野内で垂直と水平にオフセットされ、傾けられた、図3aの画像の一部を
シミュレートした光景を示す簡略図である。
FIG. 3e shows the HM in response to a combination of sideways horizontal and tilted movements of the user's head.
3b is a simplified diagram showing a scene simulating a portion of the image of FIG. 3a, vertically and horizontally offset and tilted within the field of view of D. FIG.

【図4a】 HMDの視野の中に現れる画像のシミュレートした光景を示す簡略図である。Figure 4a   FIG. 6 is a simplified diagram showing a simulated scene of an image appearing in the field of view of an HMD.

【図4b】 ユーザの頭の横向きの動きに応答してHMDの視野の中で水平にオフセットさ
れた図4aの画像の一部をシミュレートした光景を示す簡略図である。
4b is a simplified diagram showing a simulated scene of a portion of the image of FIG. 4a horizontally offset in the field of view of the HMD in response to a lateral movement of the user's head.

【図4c】 カメラの動きがユーザの頭の横向きの動きに部分的に追いつかれている時に、
図4aの画像の一部を含むHMDの視野の中で見える画像と、キャプチャされH
MDの視野の中で表示される追加の画像データとをシミュレートした光景を示す
簡略図である。
FIG. 4c: When the camera movement is partially caught up with the sideways movement of the user's head,
An image seen in the field of view of the HMD, including a portion of the image of FIG.
FIG. 6 is a simplified diagram showing a scene simulating additional image data displayed within the field of view of the MD.

【図4d】 カメラの動きがユーザの頭の横向きの動きに完全に追いつかれた後に、図4a
の画像の一部を含むHMDの視野の中で見える画像と、キャプチャされHMDの
視野の中で表示される追加の画像データとをシミュレートした光景を示す簡略図
である。
4d after the movement of the camera has completely caught up with the sideways movement of the user's head, FIG.
FIG. 3 is a simplified diagram showing a scene simulating an image visible in the field of view of the HMD including a portion of the image of FIG. 1 and additional image data captured and displayed in the field of view of the HMD.

【図5】 第1のコンピュータに結合され、遠隔カメラに結合された第2のコンピュータ
とネットワーク上で通信するHMDを組み込んだシステムの簡単なブロック図で
ある。
FIG. 5 is a simplified block diagram of a system incorporating an HMD that is coupled to a first computer and communicates over a network with a second computer coupled to a remote camera.

【図6】 本発明による方法の簡単なフロー図である。[Figure 6]   3 is a simple flow diagram of the method according to the invention.

【図7】 衛星通信リンクを介して通信するテレプレゼンスシステムの簡単なブロック図
である。
FIG. 7 is a simplified block diagram of a telepresence system communicating via a satellite communication link.

【図8】 遠隔カメラがキャプチャした通りの画像である。[Figure 8]   The image is as captured by the remote camera.

【図9】 エンドレスな画像表示空間内で変化された図8の画像と同じ画像である。[Figure 9]   9 is the same image as that of FIG. 8 changed in the endless image display space.

【図10】 有限な画像表示空間を有するディスプレイ上で表示された図9の画像と同じ画
像である。
FIG. 10 is the same image as that of FIG. 9 displayed on a display having a finite image display space.

Claims (22)

【特許請求の範囲】[Claims] 【請求項1】 画像キャプチャデバイスからキャプチャされた画像を、視野
を持つディスプレイを含む頭部装着ディスプレイに提供するステップと; カメラの位置に関連し、前記キャプチャされた画像に関連づけられたカメラ位
置データを提供するステップと; 前記頭部装着ディスプレイの位置に関連するHMD位置データを提供するステ
ップと; 前記カメラ位置データと前記HMD位置データにしたがって、画像内の静止し
た対象の表示場所を視野に対して変えるように前記画像を変化するステップと; 前記表示場所において視野の中にとどまっている、画像の部分を表示するステ
ップと;を含む頭に装着するディスプレイのための動きを補償する方法。
1. Providing an image captured from an image capture device to a head mounted display including a display with a field of view; camera position data related to the position of the camera and associated with the captured image. Providing HMD position data related to the position of the head-mounted display; according to the camera position data and the HMD position data, a display position of a stationary object in an image with respect to a field of view. Changing the image so as to change it; and displaying a portion of the image that remains in the field of view at the display location, the method for compensating motion for a head-worn display.
【請求項2】 HMD位置データは頭部装着ディスプレイの現在の位置に関
連するデータであり、カメラ位置データは、関連づけられた画像がキャプチャさ
れた時の前記カメラの位置に関連するデータであって、画像を変化するステップ
は、 前記HMD位置と前記カメラ位置の間のオフセットを決定するステップと; 前記HMD位置と前記カメラ位置の間のオフセットに比例する量のオフセット
となるように前記画像をオフセットするステップと;を含む請求項1記載の方法
2. The HMD position data is data related to the current position of the head mounted display and the camera position data is data related to the position of the camera when the associated image was captured. Changing the image, determining an offset between the HMD position and the camera position; offsetting the image to an amount proportional to the offset between the HMD position and the camera position The method of claim 1, further comprising:
【請求項3】 画像データが入手できない視野の部分は予め定められた埋め
草で埋める請求項2記載の方法。
3. The method according to claim 2, wherein a portion of the visual field for which image data is not available is filled with a predetermined vegetation.
【請求項4】 予め定められた埋め草は頭部装着ディスプレイを着用する人
の方向を維持する特徴を有する請求項3に記載の方法。
4. The method of claim 3, wherein the predetermined vegetation has the characteristic of maintaining the orientation of the person wearing the head mounted display.
【請求項5】 キャプチャされた画像は頭部装着ディスプレイの視野を埋め
るために必要な画像よりも大きく、該キャプチャされた画像のうち一部だけが表
示される請求項1記載の方法。
5. The method of claim 1, wherein the captured image is larger than the image required to fill the field of view of the head mounted display, and only a portion of the captured image is displayed.
【請求項6】 システムは2つの頭部装着ディスプレイと2つのカメラを備
える請求項1記載の方法。
6. The method of claim 1, wherein the system comprises two head mounted displays and two cameras.
【請求項7】 システムは、カメラの位置を感知し、カメラの位置のデータ
を提供する独立した位置センサを備える請求項1記載の方法。
7. The method of claim 1, wherein the system comprises an independent position sensor for sensing camera position and providing camera position data.
【請求項8】 システムは、頭部装着ディスプレイの位置を感知し、そのH
MD位置データを提供する独立した位置センサを備える請求項7記載の方法。
8. The system senses the position of the head-mounted display and determines its H
8. The method of claim 7, comprising an independent position sensor that provides MD position data.
【請求項9】 システムは、頭部装着ディスプレイの位置を感知し、そのH
MD位置データを提供する独立した位置センサを備える請求項1記載の方法。
9. The system senses the position of a head-mounted display and determines its H
The method of claim 1, comprising an independent position sensor that provides MD position data.
【請求項10】 システムは、 カメラを動かす機構と; HMD位置データをカメラを動かす機構と通信するシステムに送信する手段と
;を備え、 前記カメラを動かす機構は前記HMD位置データの変化に応答して前記カメラ
を動かす請求項1記載の方法。
10. The system comprises a mechanism for moving a camera; means for transmitting HMD position data to the system in communication with the mechanism for moving the camera, the mechanism for moving the camera responsive to changes in the HMD position data. The method of claim 1, wherein the camera is moved by moving the camera.
【請求項11】 HMD位置データは方向データを含む請求項1記載の方法
11. The method of claim 1, wherein the HMD position data comprises orientation data.
【請求項12】 カメラ位置データは方向データを含む請求項11記載の方
法。
12. The method of claim 11, wherein the camera position data comprises orientation data.
【請求項13】 カメラ位置データは変位移動データを含む請求項12記載
の方法。
13. The method of claim 12, wherein the camera position data comprises displacement movement data.
【請求項14】 HMD位置データは変位移動データを含む請求項1記載の
方法。
14. The method of claim 1, wherein the HMD position data comprises displacement movement data.
【請求項15】 カメラ位置データは変位移動データを含む請求項14記載
の方法。
15. The method of claim 14, wherein the camera position data comprises displacement movement data.
【請求項16】 カメラ位置データは方向データを含む請求項15記載の方
法。
16. The method of claim 15, wherein the camera position data comprises orientation data.
【請求項17】 画像を変化して視野のゆがみを低減するステップを有し、
カメラは範囲センサを有している請求項1記載の方法。
17. A step of altering the image to reduce distortion of the field of view,
The method of claim 1, wherein the camera comprises a range sensor.
【請求項18】 表示される位置において、視野の中にとどまる画像の部分
を表示する頭部装着ディスプレイと; キャプチャされた画像を、視野を持つモニタを含む頭部装着ディスプレイに提
供する画像キャプチャデバイスと; カメラの位置に関連し、前記キャプチャされた画像に関連づけられたカメラ位
置データを提供するセンサと; 前記頭部装着ディスプレイの位置に関連するHMD位置データを提供するセン
サと; 前記カメラ位置データと前記HMD位置データにしたがって、画像内の静止し
た対象の表示された位置を視野に対して変えるように画像を変化するプロセッサ
と;を備える頭に装着するディスプレイのための動きを補償する装置。
18. A head-mounted display that displays the portion of the image that remains in the field of view at the displayed position; an image capture device that provides the captured image to a head-mounted display that includes a monitor with a field of view. A sensor for providing camera position data related to the position of the camera and associated with the captured image; a sensor for providing HMD position data related to the position of the head mounted display; A processor for changing the image to change the displayed position of a stationary object in the image with respect to the field of view according to the HMD position data;
【請求項19】 画像キャプチャデバイスは範囲センサを備える請求項18
記載の頭に装着するディスプレイのための動きを補償する装置。
19. The image capture device comprises a range sensor.
A motion compensation device for the head mounted display described.
【請求項20】 範囲センサはステレオ映像システムを含む請求項19記載
の頭に装着するディスプレイのための動きを補償する装置。
20. The motion compensating apparatus for a head mounted display of claim 19, wherein the range sensor comprises a stereo vision system.
【請求項21】 画像データが入手不可能な視野の部分が検出された時にお
いて、関連づけられたカメラ位置データとHMD位置データに依存して変化され
た時に、その部分の中に表示するための以前にキャプチャされた画像を決定する
ステップと; これらの視野の部分に、前記変化された以前にキャプチャされた画像データを
表示するステップと;を含む請求項2記載の方法。
21. When a part of the field of view for which image data is not available is detected, when the part is changed depending on the associated camera position data and HMD position data, it is displayed in that part. 3. The method of claim 2 including the steps of determining previously captured images; and displaying the altered previously captured image data in those portions of the field of view.
【請求項22】 変化された以前にキャプチャされた画像データを表示する
ステップは、変化された以前にキャプチャされた画像データを強調しないステッ
プを含む請求項21に記載の方法。
22. The method of claim 21, wherein the step of displaying the modified previously captured image data comprises the step of not enhancing the modified previously captured image data.
JP2001525460A 1999-09-22 2000-09-22 Method and system for time / motion compensation for a head mounted display Pending JP2003510864A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15513299P 1999-09-22 1999-09-22
US60/155,132 1999-09-22
PCT/CA2000/001063 WO2001022149A1 (en) 1999-09-22 2000-09-22 Method and system for time/motion compensation for head mounted displays

Publications (1)

Publication Number Publication Date
JP2003510864A true JP2003510864A (en) 2003-03-18

Family

ID=22554218

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001525460A Pending JP2003510864A (en) 1999-09-22 2000-09-22 Method and system for time / motion compensation for a head mounted display

Country Status (4)

Country Link
JP (1) JP2003510864A (en)
CA (1) CA2385548C (en)
GB (1) GB2372169B (en)
WO (1) WO2001022149A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007333929A (en) * 2006-06-14 2007-12-27 Nikon Corp Video display system
JP2009088683A (en) * 2007-09-27 2009-04-23 Fujifilm Corp Image display device, image display method, and image display program
KR20170106162A (en) * 2016-03-11 2017-09-20 주식회사 상화 Virtual reality experience apparatus
KR20180075731A (en) * 2016-12-26 2018-07-05 엘지디스플레이 주식회사 Apparatus and method for measuring latency of head mounted display
JP2018137609A (en) * 2017-02-22 2018-08-30 株式会社東芝 Partial image processing device
JP2019184830A (en) * 2018-04-10 2019-10-24 キヤノン株式会社 Image display device and image display method

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7734101B2 (en) 2000-10-11 2010-06-08 The United States Of America As Represented By The Secretary Of The Army Apparatus and system for testing an image produced by a helmet-mounted display
WO2004105383A1 (en) * 2003-05-20 2004-12-02 Matsushita Electric Industrial Co., Ltd. Imaging system
US20140098296A1 (en) * 2012-10-04 2014-04-10 Ati Technologies Ulc Method and apparatus for changing a perspective of a video
GB201305402D0 (en) * 2013-03-25 2013-05-08 Sony Comp Entertainment Europe Head mountable display
CN105721856B (en) * 2014-12-05 2017-12-15 北京蚁视科技有限公司 A kind of remote image display methods for near-to-eye
DE102016102808A1 (en) * 2016-02-17 2017-08-17 Krauss-Maffei Wegmann Gmbh & Co. Kg Method for controlling a sighting device arranged to be directionally arranged on a vehicle
WO2019095090A1 (en) * 2017-11-14 2019-05-23 深圳市柔宇科技有限公司 Method and device for data processing
CN111989065A (en) * 2018-04-20 2020-11-24 柯惠Lp公司 Compensation of observer movement in a robotic surgical system with a stereoscopic display
GB2614698A (en) * 2021-11-15 2023-07-19 Mo Sys Engineering Ltd Controlling adaptive backdrops

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4347508A (en) * 1978-12-21 1982-08-31 Redifon Simulation Limited Visual display apparatus
JPH05324800A (en) * 1991-10-12 1993-12-07 British Aerospace Plc <Baf> Display device
JPH06326944A (en) * 1993-05-14 1994-11-25 Olympus Optical Co Ltd Head-mounted type video display device
JPH07199280A (en) * 1993-12-30 1995-08-04 Canon Inc Camera system
JPH0821975A (en) * 1994-07-06 1996-01-23 Olympus Optical Co Ltd Head-mounted type video display system
US5933125A (en) * 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5579026A (en) * 1993-05-14 1996-11-26 Olympus Optical Co., Ltd. Image display apparatus of head mounted type
US5610678A (en) * 1993-12-30 1997-03-11 Canon Kabushiki Kaisha Camera including camera body and independent optical viewfinder

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4347508A (en) * 1978-12-21 1982-08-31 Redifon Simulation Limited Visual display apparatus
JPH05324800A (en) * 1991-10-12 1993-12-07 British Aerospace Plc <Baf> Display device
JPH06326944A (en) * 1993-05-14 1994-11-25 Olympus Optical Co Ltd Head-mounted type video display device
JPH07199280A (en) * 1993-12-30 1995-08-04 Canon Inc Camera system
JPH0821975A (en) * 1994-07-06 1996-01-23 Olympus Optical Co Ltd Head-mounted type video display system
US5933125A (en) * 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007333929A (en) * 2006-06-14 2007-12-27 Nikon Corp Video display system
JP2009088683A (en) * 2007-09-27 2009-04-23 Fujifilm Corp Image display device, image display method, and image display program
US8040421B2 (en) 2007-09-27 2011-10-18 Fujifilm Corporation Image display device, portable device with photography function, image display method and computer readable medium which controls the display based on an attitude angle of the display
US8482649B2 (en) 2007-09-27 2013-07-09 Fujifilm Corporation Image display device, portable device with photography function, image display method and computer readable medium
KR101914140B1 (en) 2016-03-11 2018-11-02 주식회사 상화 Virtual reality experience apparatus
KR20170106162A (en) * 2016-03-11 2017-09-20 주식회사 상화 Virtual reality experience apparatus
KR20170106164A (en) * 2016-03-11 2017-09-20 주식회사 상화 Virtual reality experience apparatus
KR101885127B1 (en) 2016-03-11 2018-08-03 주식회사 상화 Virtual reality experience apparatus
KR101885128B1 (en) 2016-03-11 2018-08-03 주식회사 상화 Virtual reality experience apparatus
KR101914141B1 (en) 2016-03-11 2018-12-28 주식회사 상화 Virtual reality experience apparatus
KR20180075731A (en) * 2016-12-26 2018-07-05 엘지디스플레이 주식회사 Apparatus and method for measuring latency of head mounted display
KR102528318B1 (en) 2016-12-26 2023-05-03 엘지디스플레이 주식회사 Apparatus and method for measuring latency of head mounted display
JP2018137609A (en) * 2017-02-22 2018-08-30 株式会社東芝 Partial image processing device
JP2019184830A (en) * 2018-04-10 2019-10-24 キヤノン株式会社 Image display device and image display method
JP7121523B2 (en) 2018-04-10 2022-08-18 キヤノン株式会社 Image display device, image display method

Also Published As

Publication number Publication date
CA2385548A1 (en) 2001-03-29
WO2001022149A1 (en) 2001-03-29
GB2372169A (en) 2002-08-14
CA2385548C (en) 2010-09-21
GB2372169B (en) 2004-05-26
GB0206051D0 (en) 2002-04-24

Similar Documents

Publication Publication Date Title
US7312766B1 (en) Method and system for time/motion compensation for head mounted displays
US11127195B2 (en) Continuous time warp for virtual and augmented reality display systems and methods
EP3379525B1 (en) Image processing device and image generation method
EP3051525B1 (en) Display
CN106062826B (en) Image generation device and image generation method
JP2003510864A (en) Method and system for time / motion compensation for a head mounted display
WO2016017245A1 (en) Information processing device, information processing method, and image display system
CN104781873A (en) Image display device and image display method, mobile body device, image display system, and computer program
CN111182940B (en) Viewing digital content in a vehicle without motion sickness
WO2020003860A1 (en) Information processing device, information processing method, and program
WO2020090316A1 (en) Information processing device, information processing method, and program
CN105828021A (en) Specialized robot image acquisition control method and system based on augmented reality technology
CA2526281A1 (en) Stabilization of the effects of jitter on a displayed image
EP4207067A1 (en) Apparatus and method for virtual reality
Ikei et al. Live stereoscopic 3D image with constant capture direction of 360 cameras for high-quality visual telepresence
JP7203157B2 (en) Video processing device and program
WO2022004130A1 (en) Information processing device, information processing method, and storage medium
JP7247371B2 (en) Image processing device, system, image processing method, and image processing program
GB2575824A (en) Generating display data
WO2021014673A1 (en) Device, method, and program for controlling image display
TW201944365A (en) A method to enhance first-person-view experience
KR102542641B1 (en) Apparatus and operation method for rehabilitation training using hand tracking
US20240020927A1 (en) Method and system for optimum positioning of cameras for accurate rendering of a virtual scene
US20240033618A1 (en) Information processing apparatus and image generating method
JP3694608B2 (en) Method and apparatus for controlling operation of operation mechanism

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100511

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101019