JP2020523706A - 仮想現実による乗り物酔い防止のためのシステムおよび方法 - Google Patents

仮想現実による乗り物酔い防止のためのシステムおよび方法 Download PDF

Info

Publication number
JP2020523706A
JP2020523706A JP2019569396A JP2019569396A JP2020523706A JP 2020523706 A JP2020523706 A JP 2020523706A JP 2019569396 A JP2019569396 A JP 2019569396A JP 2019569396 A JP2019569396 A JP 2019569396A JP 2020523706 A JP2020523706 A JP 2020523706A
Authority
JP
Japan
Prior art keywords
orientation
acceleration
display
data
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019569396A
Other languages
English (en)
Other versions
JP7232779B2 (ja
Inventor
リチャード ジェイ. リコスキー,
リチャード ジェイ. リコスキー,
Original Assignee
ハダル, インコーポレイテッド
ハダル, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ハダル, インコーポレイテッド, ハダル, インコーポレイテッド filed Critical ハダル, インコーポレイテッド
Publication of JP2020523706A publication Critical patent/JP2020523706A/ja
Application granted granted Critical
Publication of JP7232779B2 publication Critical patent/JP7232779B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0044Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense
    • A61M2021/005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense images, e.g. video
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0492Change of orientation of the displayed image, e.g. upside-down, mirrored
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/16Use of wireless transmission of display information

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Anesthesiology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Hematology (AREA)
  • Biomedical Technology (AREA)
  • Psychology (AREA)
  • Acoustics & Sound (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本デバイスと関連付けられる、検出される速度、角速度、重力、運動、位置、および配向のうちの1つ以上のものに基づいて、位置および配向データを生成するように構成される、位置および配向センサを含む感覚補償デバイスに関する、システムおよび方法が、本明細書に開示される。本デバイスはまた、随意に、リアルタイム画像を捕捉し、本デバイスに隣接する面積のリアルタイム画像データを生成するように構成される、光学センサを含む。本デバイスは、i)リアルタイム画像データを受信し、ii)位置および配向データを受信し、iii)リアルタイム画像データおよび位置および配向データに基づいて、補償画像データを生成するように構成される、プロセッサを含む。

Description

(関連出願の参照)
本願は、2017年6月14日に出願され、「Virtual Reality Motion Sickness Prevention」と題された、米国仮特許出願第62/519,287号の優先権および利益を主張する。上記に参照される出願の内容全体は、参照することによって本明細書に組み込まれる。
多くの人々が、航海(例えば、船舶、潜水艦、ダイビング等)、飛行、運転、またはさらに他の状況に起因するかどうかにかかわらず、乗り物酔いに罹患する。乗物酔いは、消耗性であり、吐き気、嘔吐をもたらし、潜水艦上での操作を実行し続けること、飛行機を安全に操作し続けること、またはダイビングを楽しみ続けることにかかわらず、人々が彼らの仕事を計画されたように実行することを妨げ得る。米国特許第5,966,680号(「第‘680号特許」)により詳細に説明されるように、乗物酔いは、人が生じているものとして見ている運動と人が内部的に知覚する運動との間の不整合から生じる。乗物酔いは、認知されているが見られていない運動、見られているが認知されていない運動、または認知され、見られている異なるタイプまたは量の運動から生じ得る。例えば、船舶内の人が、船舶内のある運動またはその欠如のインジケーションを見ている(例えば、人が、見ている物体と同一の基準フレーム内にいる)が、その人の前庭系が、異なる運動(例えば、船舶の運動、すなわち、全体としてヨー、ピッチ、またはロール)を知覚する。故に、乗り物酔いにつながる感覚不整合を補償するための手段を可能にする必要性が、存在する。
第‘680号特許において説明されるように、感覚不整合を補償するための1つの方法は、ユーザの脳を訓練し、感覚不整合を補正する、すなわち、ユーザが知覚しているものを補正するために、環境に対するユーザの運動を反映させるための視覚配向合図を提供する、ウェアラブルアクセサリである。代替実施形態では、第‘680号特許は、視覚的合図を表示しないが、ユーザによって知覚されるものを、眼鏡上に投影され、任意の観察される移動の大きさを効果的に最小限にする、緩徐に変化する視覚環境表示となるように生産するように、画像を記録し、これを他の画像と平均化する。さらに、そのようなデバイスおよびその視覚的合図は、ユーザが合図を適切に考慮し、感覚不整合によってもたらされる影響を緩和することを可能にするための、付加的なユーザ訓練およびユーザ経験を要求する。
故に、感覚不整合の有害作用を被る人に、ユーザがそのような有害作用につながる知覚不整合を克服することをより自然かつ容易に可能にするシステム、方法、およびデバイスを提供する必要性が、存在する。
米国特許第5,966,680号明細書
人の知覚される周囲の彼らの感覚不整合によってもたらされる影響を緩和または軽減させるための仮想現実および/または拡張現実機構を提供するための、システムおよび方法が、本明細書に開示される。ある側面によると、感覚補償デバイスは、本デバイスと関連付けられる、検出される速度、角速度、重力、運動、位置、加速度、および配向のうちの1つ以上のものに基づいて、配向および加速度データを生成するように構成される、位置および配向センサを含む。いくつかの実装では、本デバイスは、リアルタイム画像を捕捉し、本デバイスに隣接する面積のリアルタイム画像データを生成するように構成される、光学センサを含む。本デバイスはさらに、i)リアルタイム画像データを受信し、ii)配向および加速度データを受信し、iii)リアルタイム画像データおよび配向および加速度データに基づいて、補償画像データを生成するように構成される、プロセッサを含む。本デバイスは、補償画像の一部が、捕捉されるリアルタイム画像に関連して調節される配向および加速度を伴う捕捉されるリアルタイム画像を含むように、補償画像データから導出される補償画像を表示するように構成される、ディスプレイを含む。
配向および加速度データは、慣性基準点に関連するロール、ピッチ、およびヨーのデータのうちの少なくとも1つを含んでもよい。慣性基準点は、基準水平線を含んでもよい。配向および加速度データは、慣性基準点と本デバイスの検出された配向および加速度との間の差分位置を含んでもよい。補償画像の一部は、慣性基準点と本デバイスの検出された位置および配向との間の差分位置に比例して調節されてもよい。補償画像の一部は、検出された差分位置の方向または配向として、逆の方向または配向に調節されてもよい。補償画像の一部は、本デバイスの、反時計回り方向の1度以上の度数だけの検出されたロールに比例して、1度以上の度数だけ時計回りにロールされてもよい。
本デバイスは、頭部搭載型であってもよく、ハンドヘルド型であってもよく、または光学システムに取り外し可能に接続可能であってもよい。光学システムまたは器具は、眼鏡を含んでもよい。ディスプレイは、LCD、LED、シリコン上液晶(LCoS)、および/またはOLED要素を含んでもよい。ディスプレイは、コンピュータモニタ、テレビ、モバイルデバイスディスプレイ、コンピュータタブレットディスプレイ、プロジェクタから壁または隔壁の一部の上への投影、および/または任意の他の視覚ディスプレイ装置を含んでもよい。
本デバイスに隣接する面積は、本デバイスの前方、後方、および側方における面積の少なくとも1つのものを含んでもよい。光学センサは、少なくとも1つのビデオカメラを含んでもよい。補償画像データは、捕捉されたリアルタイム画像に関するオーバーレイ、背景、および影画像のうちの少なくとも1つの表示を可能にするデータを含んでもよい。オーバーレイ、背景、または影画像のうちの少なくとも1つは、基準水平線および空のうちの少なくとも一方を含んでもよい。空は、1つ以上の星を含む、夜空であってもよい。
別の側面では、感覚補償デバイスは、本デバイスと関連付けられる、検出された速度、角速度、重力、運動、位置、加速度、および配向のうちの1つ以上のものに基づいて、配向および加速度データを生成するように構成される、配向および加速度センサを含む。本デバイスは、それを通してユーザが本デバイスに隣接する面積を視認する、光学要素を含む。本デバイスはまた、i)配向および加速度データを受信し、ii)配向および加速度画像データを生成するように構成される、プロセッサを含む。本デバイスはさらに、配向および加速度画像が、本デバイスに隣接する面積のビューに関連して調節される配向および加速度を有する1つ以上の特徴を含むように、配向および加速度画像データから導出される配向および加速度画像を、光学要素を介してユーザに表示するように構成される、ディスプレイを含む。
位置および配向画像データは、光学要素を介して本デバイスに隣接する面積のビュー上に、オーバーレイ画像の少なくとも1つの表示を可能にする、データを含んでもよい。オーバーレイは、基準水平線および空のうちの少なくとも一方を含んでもよい。
別の側面では、コンピューティングデバイスは、本デバイスと関連付けられる、検出された速度、角速度、重力、運動、加速度、および配向のうちの1つ以上のものに基づいて、配向および加速度データを生成するように構成される、配向および加速度センサを含む。本デバイスはまた、i)配向および加速度データを受信し、ii)配向および加速度データに基づいて、補償画像データを生成するように構成される、プロセッサを含む。本デバイスはさらに、補償画像の一部が、本デバイスに隣接する面積のユーザのビューに関連して調節される配向および加速度を有する1つ以上の特徴を含む、補償画像データから導出される補償画像を表示するように構成される、ディスプレイを含む。本デバイスは、表示がプロジェクタまたはポータブルコンピュータタブレットを介して投影される、コンピュータデスクトップ、ラップトップ、モバイルデバイス、コンピュータであってもよい。
さらなる側面では、ハンドヘルド型モバイルコンピューティングデバイスは、本デバイスと関連付けられる、検出された速度、角速度、重力、運動、位置、加速度、および配向のうちの1つ以上のものに基づいて、位置および配向データを生成するように構成される、配向および加速度センサを含む。本デバイスは、リアルタイム画像を捕捉し、本デバイスに隣接する面積のリアルタイム画像データを生成するように構成される、光学センサを含む。本デバイスはまた、i)リアルタイム画像データを受信し、ii)配向および加速度データを受信し、iii)リアルタイム画像データおよび配向および加速度データに基づいて、補償画像データを生成するように構成される、プロセッサを含む。本デバイスはさらに、補償画像の一部が、捕捉されたリアルタイム画像に関連して調節される配向および加速度を伴う捕捉されるリアルタイム画像を含むように、補償画像データから導出される補償画像を表示するように構成される、ディスプレイを含む。
本発明の他の目的、特徴、および利点が、添付される図面と併せて以下の詳細な説明を精査することに応じて明白となるであろう。
本明細書に説明されるシステムおよび方法が、添付の請求項に記載される。しかしながら、説明の目的のために、いくつかの例証的側面が、以下の図に記載される。
図1は、ユーザに画像を表示する、またはユーザの周囲の彼らの既存の視知覚を拡張させるように構成される、光学デバイスを描写する。
図2は、本明細書に説明されるシステムおよび方法の少なくとも一部を実装するための、例示的コンピュータシステムのブロック図である。
図3Aは、水平線に関連して車両と関連付けられる垂直および水平軸を示す概念図である。
図3Bは、潜水艦と関連付けられるピッチ、ロール、およびヨーを図示する概念図である。
図4Aは、光学デバイスによって提供される画像の表示を示す。
図4Bは、水平線を図示する。
図5Aは、アルファ度だけロールが生じるときの非補償画像または直接視知覚の表示を示す。
図5Bは、水平線に関連するロールの変化を図示する。
図6Aは、アルファ度の反時計回りのロールが検出されるときの補償画像の表示を示す。
図6Bは、水平線に関連するロールの変化を図示する。
図7は、水平線と、少なくとも1つの星を伴う夜空とを含む画像、またはユーザの知覚される視野にわたる、水平線と、少なくとも1つの星を伴う夜空とのオーバーレイの別の表示である。
図8は、アルファ度の検出されるロールが検出されるときの水平線と、少なくとも1つの星を伴う夜空とを含む画像、またはユーザの知覚される視野にわたる、水平線と、少なくとも1つの星を伴う夜空とのオーバーレイの表示である。
図9は、ユーザの周囲の種々の位置における複数の仮想ディスプレイを含む、ユーザを囲繞する仮想または拡張現実空間を描写する。
図10は、ユーザの周囲に継続的に延在されることが可能であるディスプレイを含む、ユーザを囲繞する仮想または拡張現実空間を描写する。
図11は、感覚不整合の有害作用を緩和する方法による、例示的プロセスである。
本発明の全体的な理解を提供するために、ある例証的側面が、ここで、説明されるであろう。しかしながら、本明細書に説明されるシステムおよび方法が、他の好適な用途のために適合および修正され得ること、およびそのような他の追加および修正が、本明細書の範囲から逸脱することはないであろうことが、当業者によって理解されるであろう。
人は、自動車、電車、ボート、船舶、および飛行機等の移動車両内で乗物酔いに罹患し得る。乗物酔いの影響は、深刻であり得、動作不可能にし得る。乗物酔いは、多くの場合、人の周囲に関する彼らの視知覚と人の内耳(例えば、前庭系)および脳を介して知覚される運動との間の感覚不整合によってもたらされる。そのような状況では、人の脳は、その感知された運動を、人の眼が見ているものと一致させることができない。眩暈は、実際には運動が存在しないとき、身体が運動を知覚し、身体の姿勢を変化させることによってそのような知覚された運動に逆らうように試みる、感覚不整合の1つのタイプである。
図1は、ユーザに画像を表示する、またはユーザの周囲の彼らの既存の視知覚を拡張させるように構成される、光学デバイス100を描写する。デバイス100は、ユーザの眼を被覆するように構成されながら、ユーザに画像および他の情報を表示する1つ以上の表示要素を提供する、筐体102を含んでもよい。本デバイスは、デバイス100の正面、後方、またはそれに隣接する等、デバイス100に隣接する面積内のリアルタイムビデオ画像を捕捉するように構成される、ビデオカメラ等の光学センサ104を含んでもよい。デバイス100は、配向および加速度センサ106、例えば、デバイス100と関連付けられる速度、角速度、重力、運動、位置、加速度、ならび/または配向を検出するための、加速度計を含んでもよい。デバイス100は、図2に関して説明されるもの等のコンピュータシステムを含んでもよい。いくつかの実装では、デバイス100は、一対の眼鏡を含んでもよい。そのような構成では、デバイス100は、ユーザがデバイス100の光学要素、すなわち、眼鏡を通してデバイス100の正面の面積を視認することが可能であるであろうため、光学センサ104を実装しなくてもよい。デバイス100は、眼鏡の表面上に投影されるかまたはユーザの片眼または両眼に直接投影され、ユーザに配向および加速度画像を提示する、ディスプレイを含んでもよい。ある側面では、デバイス100は、コンピュータ、ラップトップ、またはタブレットを含んでもよい。
配向および加速度センサ106は、少なくとも1つの加速度計を含んでもよい。加速度計は、地球の表面における約9.81m/秒の一直線に下向きの地球の重力に起因する加速度を検出することに基づいて、地球の重力を検出してもよい。加速度計は、重力が、常時、地球の表面に対して垂直に作用するため、地球の基準水平線を決定するために使用されてもよい。基準水平線は、地球の表面および空が出会うと考えられる線として参照され得る。いくつかの実装では、加速度計は、3軸加速度計を含む。いくつかの実装では、加速度計または他の位置感知要素を含むセンサ(またはセンサデータを受信するプロセッサ)は、慣性基準点を確立してもよく、これから、ユーザへの後続の表示が、慣性基準点に対する位置、加速度、および/または配向の感知される変化に基づいて調節される。基準点の1つの成分が、地球の水平線に対応する平面を含んでもよい。
図2は、デバイス100における実装コンピュータ処理を含む、本明細書に説明されるシステムおよび方法の少なくとも一部を実装するための、例示的コンピュータシステム200のブロック図である。例示的システム200は、プロセッサ202と、メモリ208と、相互接続バス218とを含む。プロセッサ202は、コンピュータシステム200をマルチプロセッサシステムとして構成するための、単一のマイクロプロセッサまたは複数のマイクロプロセッサを含んでもよい。メモリ208は、例証的に、主メモリと、読取専用メモリとを含む。システム200はまた、例えば、種々のディスクドライブ、テープドライブ等を有する、大容量記憶装置210を含む。主メモリ208はまた、動的ランダムアクセスメモリ(DRAM)および高速キャッシュメモリを含む。動作および使用時、主メモリ208は、処理データ(例えば、地形モデル)が主メモリ208内に記憶されると、プロセッサ202による実行のための命令の少なくとも一部を記憶する。
いくつかの側面では、システム200はまた、ネットワーク216を介したデータ通信のためのインターフェース212として実施例として示される、通信のための1つ以上の入力/出力インターフェースを含んでもよい。データインターフェース212は、モデム、イーサネット(登録商標)カード、または任意の他の好適なデータ通信デバイスであってもよい。データインターフェース212は、直接または別の外部インターフェースを通してのいずれかにおいて、イントラネット、インターネット(internet)、またはインターネット(Internet)等のネットワーク216への比較的に高速なリンクを提供してもよい。ネットワーク216への通信リンクは、例えば、光学、有線、または無線(例えば、衛星または802.11Wi−Fiまたはセルラーネットワークを介した)リンク等の任意の好適なリンクであってもよい。いくつかの側面では、通信は、音響モデムを経由して生じ得る。例えば、AUVに関して、通信は、そのようなモデムを経由して生じ得る。代替として、システム200は、ネットワーク216を介したウェブベースの通信対応のホストコンピュータシステムを含んでもよい。いくつかの側面では、システム200はまた、好適な入力/出力ポートを含む、またはプログラミングおよび/またはデータ打込、読出、または操作目的のためのローカルユーザインターフェースとしての役割を果たす、ローカルディスプレイ204およびユーザインターフェース206(例えば、キーボード、マウス、タッチスクリーン)または同等物との相互接続のための相互接続バス218を使用してもよい。代替として、サーバ運用要員は、ネットワーク216を介して遠隔端末デバイス(図に図示せず)からシステムを制御および/またはプログラミングするために、システム200と相互作用してもよい。
いくつかの側面では、システムは、1つ以上のセンサ(例えば、光学センサ104および配向および加速度センサ106)に結合される、デバイス100等のプロセッサを要求する。センサ104および/またはセンサ106によって感知または検出された情報に対応するデータが、メモリ208または大容量記憶210内に記憶されてもよく、プロセッサ202によって読み出しおよび/または受信されてもよい。プロセッサ202は、これらのメモリデバイス内に記憶される命令を実行し、本願に説明される方法のうちのいずれか、例えば、感覚補償および/またはユーザへの画像の修正、調整、および/または補償表示の生成を実施してもよい。
本システムは、情報を表示するための、ディスプレイ204と、前述のデータの少なくとも一部を記憶するための、メモリ208(例えば、ROM、RAM、フラッシュ等)と、前述のデータの少なくとも一部を記憶するための、大容量記憶装置210(例えば、ソリッドステートドライブ)とを含んでもよい。前述のコンポーネントの任意のセットが、入力/出力(I/O)インターフェース212を介してネットワーク216に結合されてもよい。前述のコンポーネントはそれぞれ、相互接続バス218を介して通信してもよい。
いくつかの側面では、本システムは、1つ以上のセンサに結合される、プロセッサを要求する。センサ104は、1つ以上の画像捕捉コンポーネントおよび/またはビデオカメラを含んでもよい。センサ106は、例えば、1つ以上の加速度計または1つ以上のジャイロスコープ等の、1つ以上の慣性検出要素を含んでもよい。
感知されたビデオ画像、および/または感知された配向および加速度、および/または位置、配向、および加速度の変化、および1人のユーザまたは複数のユーザに感覚補償を提供するためのプロセスに対応するデータが、プロセッサ202によって実施されてもよい。本システムは、情報を表示するためのディスプレイ204と、前述のデータの少なくとも一部を記憶するためのメモリ208(例えば、ROM、RAM、フラッシュ等)と、前述のデータの少なくとも一部を記憶するための大容量記憶装置210(例えば、ソリッドステートドライブ)とを含んでもよい。前述のコンポーネントの任意のセットが、入力/出力(I/O)インターフェース212を介してネットワーク216に結合されてもよい。前述のコンポーネントはそれぞれ、相互接続バス218を介して通信してもよい。配向および加速度データは、本デバイスと関連付けられる、検出された速度、角速度、重力、運動、位置、加速度、および配向に基づいたデータを含んでもよい。
動作時、プロセッサ202は、センサ104および/または106からデータを受信し、デバイス100およびユーザの配向および/または加速度の変化を計算し、次いで、本明細書に説明されるように、ユーザに提示される画像の側面または一部を修正および/または調節し、ユーザの視知覚と内耳との間の感覚不整合の可能性として考えられる有害作用を低減させる。随意に、プロセッサ202は、例えば、デバイス100が位置する船舶から付加的情報を受信してもよい。付加的情報は、例えば、ナビゲーション情報、船舶の状態情報、および/または高度情報を含んでもよく、プロセッサ202は、そのような情報および/または第‘680号特許に説明される情報の一部を含んでもよい。システムプロセッサ202からの出力は、ディスプレイ204にダイレクトされ、および/またはデバイス100の外部にある別のディスプレイ、例えば、船舶の制御室ディスプレイに伝送されてもよい。
システム200内に含有されるコンポーネントは、サーバ、ワークステーション、パーソナルコンピュータ、ネットワーク端末、ポータブルデバイス、モバイルデバイス、および同等物として使用される汎用コンピュータシステム内に典型的に見出されるものである。事実上、これらのコンポーネントは、当技術分野において周知であるそのようなコンピュータコンポーネントの広いカテゴリを表現することが意図される。
本発明のシステムおよび方法に関わる方法が、非一過性のコンピュータ使用可能および/または可読可能媒体を含むコンピュータプログラム製品内で具現化され得ることが、当業者に明白となるであろう。例えば、そのようなコンピュータ使用可能媒体は、その上に記憶されるコンピュータ可読プログラムコードを有する、CD ROMディスク、従来のROMデバイス、またはランダムアクセスメモリ、ハードドライブデバイスまたはコンピュータディスケット、フラッシュメモリ、DVD、または任意の同様のデジタルメモリ媒体等の読取専用メモリデバイスから成ってもよい。
随意に、本システム100および/または200は、慣性ナビゲーションシステム、ドップラセンサ、高度計、ホログラフィックマップの装着部分上にセンサを固定するためのジンバルシステム、全地球測位システム(GPS)、長基線(LBL)ナビゲーションシステム、超短基線(USBL)ナビゲーション、または任意の他の好適なナビゲーションシステムを含んでもよい。
図3Aは、基準水平線308に関連して車両306と関連付けられる垂直軸304(「Z」軸)および水平軸302(「X」軸)を示す、2次元断面図300である。図示されていないが、中心点312に交差する船首から船尾までの車両306(すなわち、潜水艦の船体)の中心を通して延在する「Y」軸もまた、存在する。海洋の表面上での船舶乗船に関して、水平軸302は、地球の水平線または基準水平線308に略平行であるべきである。また、基準水平線308は、海洋表面において比較的に一直線に下向きの加速度を有する、地球の重力310に対して垂直であるべきである。
図3Bは、潜水艦352と関連付けられるピッチ、ロール、およびヨーを図示する3次元概念図350である。潜水艦352が「Y」軸354の方向に移動していると仮定して、ロール360は、潜水艦の、その船首から船尾までの軸354に沿った回転または回転配向を表す。ピッチ362は、潜水艦352の中心点366から垂直にだけではなく、水平線308のような実質的に平行方向にも延在するその「X」軸356に沿った、潜水艦の回転または回転配向を表す。ヨー364は、基準水平線308に対して実質的に垂直方向に延在する、その「Z」軸358に沿った潜水艦の回転を表す。「X」軸356および「Y」軸354によって画定される平面はまた、概して、少なくとも潜水艦352の近傍内の基準水平線308に対して平行に置かれてもよい。いくつかの構成では、配向および加速度センサ106は、潜水艦352が、水を通して移動し、その周囲の環境に起因して配向および加速度の変化を被るにつれて、潜水艦352内に位置している間、デバイス100と関連付けられるロール360、ピッチ362、および/またはヨー364を感知、検出、および/または測定する。
デバイス100は、デバイス100が潜水艦352内に位置するため、潜水艦352、したがって、デバイス100と関連付けられる、検出された速度、角速度、重力、運動、位置、加速度、および配向のうちの1つ以上のものに基づいて、配向および加速度データを生成するように構成される、配向および加速度センサを含んでもよい。しかしながら、ピッチ362の変化の程度は、潜水艦352内のデバイス100の場所に応じて変動し得る。センサ106は、配向および加速度データ内に含まれ得る、決定される基準水平線308に関連する基準等の慣性基準点に関連する、ロール360、ピッチ362、および/またはヨー364の変化を検出してもよい。例えば、決定された慣性基準点は、潜水艦352の中心点366に対応してもよい。慣性基準点は、静止していてもよい、または相対的であってもよい。例えば、潜水艦は、静止慣性基準点を使用し、長距離または短距離にわたる水中ナビゲーションを可能にしてもよい。潜水艦は、表面に浮上し、例えば、GPS情報を使用し、慣性センサから導出されるその場所情報を較正または調節することによって、その慣性基準点を定期的にリセットしてもよい。慣性基準は、地球の水平線または基準水平線308に対して相対的であってもよく、これは、例えば、地球の重力加速度を検出することによって決定され得る。慣性基準点が、例えば、本デバイスが、加速度の閾値未満のものを被るとき、デバイス100によって確立されてもよい。例えば、潜水艦352が、平水内で静止しているとき、センサ106は、実質的に地球の重力加速度のみを検出し得る。
デバイス100は、リアルタイム画像を捕捉し、本デバイスに隣接する面積のリアルタイム画像を生成するために、光学センサを使用してもよい。デバイス100は、i)リアルタイム画像データを受信し、ii)配向および加速度データを受信し、iii)リアルタイム画像データおよび配向および加速度データに基づいて、補償画像データを生成するように構成される、プロセッサを含んでもよい。デバイス100は、補償画像の一部が、捕捉されるリアルタイム画像に関連して調節される配向および加速度を伴う捕捉されるリアルタイム画像を含むように、補償画像データから導出される補償画像を表示するディスプレイ、例えば、ディスプレイ205を含んでもよい。
潜水艦352上の人に関して、潜水艦乗組員の眼は、潜水艦のローカル基準フレーム、すなわち、視覚基準フレーム、例えば、部屋、台、器具等内で彼らが見ているもの上に係止される。潜水艦が移動する、すなわち、ヨー、ピッチ、またはロールすると、人が見ているもの(潜水艦の彼らの視覚基準フレーム)は、彼らが認知しているもの、すなわち、慣性基準フレームと合致しなくなる。1つの実装では、仮想現実システム、例えば、デバイス100が、ユーザに、ユーザの慣性基準フレームに合致するように調整された画像を表示する。
図4Aは、基準水平線401を示す。図4Bは、表面405上に位置付けられる物体407を含む、ユーザによって見られているビュー403を示す。潜水艦が、水平であり、基準水平線401が、水平であり、ビュー403もまた、水平であるため、感覚不整合は、存在しない。
図5Aは、角度アルファだけ、水平軸508、すなわち、図3Bの「X」軸356に対して傾斜され、潜水艦が、ここで、本角度アルファだけ反時計回りにロールされていることを反映する、基準水平線501(すなわち、地球の水平線)を示す。その結果、ユーザが、潜水艦352上に位置付けられるため、図5Bは、ユーザによって見られているビュー503が、依然として、表面または甲板が実際には反時計回り方向にアルファ度だけ傾斜(ロール)されているにもかかわらず水平に出現する、表面505と、その表面上に位置付けられる物体507との両方を含むことを示す。ユーザによって見られているビュー503と、基準水平線501の角度アルファによって反映される潜水艦352の実際の配向との間の不整合が、乗り物酔いにつながるものである。加えて、角度の変化率および変化の加速度が、乗り物酔いに寄与し得る。本発明は、角度アルファだけのロールに限定されるものではなく、並進運動に加えて、ヨー、ピッチ、ロールの任意の組み合わせを含む、任意タイプの移動が、さらに説明されるように、調節され得る。
図6Aおよび6Bは、補償画像が、本発明に従って、感覚不整合の有害作用を緩和するために使用され得る方法を図示する。本実装では、図6Bは、基準水平線601が、依然として、角度アルファだけ傾斜されることを示し、再び、潜水艦が、本角度アルファだけ反時計回りにロールされることを示す。本システムおよび/またはデバイス100は、光学センサ104が捕捉するもの、例えば、潜水艦が反時計回りにロールするとき、図5でユーザが見るであろうもののビデオを記録する。本システムはさらに、1つ以上のセンサ106(例えば、加速度計)を通して、船舶の、角度アルファだけの反時計回りのロールを検出する。本システムはさらに、処理されたビデオをリアルタイムまたは近リアルタイムにユーザに表示する前に、記録されたビデオを、ユーザが今見ているビュー603に示されるように、検出された移動に合致させるように処理する。補償画像とも称される、処理されたビデオ(例えば、同一の角度アルファだけではあるが時計回りの方向に回転された、記録されたビデオ)は、ユーザが図6Aに示されるものを見るように、ユーザへのリアルタイムまたは近リアルタイムの表示のために生成される。ユーザが見ているもの(例えば、角度アルファだけのロール)は、ユーザが認知しているもの(例えば、潜水艦の、その角度アルファだけのロール)を反映するため、乗り物酔いが、回避されることができる。言い換えると、物体605および607上のアルファ度だけの傾斜またはロールは、ユーザにアルファ度だけの反時計回り方向の傾斜またはロールの視覚感覚を与え、これは、ユーザの反時計回りのロールの感覚に対応する。本実装の1つの技術的利点は、例えば、船員が乱流内の船舶上で文書をより効果的に精査するための能力を含む。船員によって装着される仮想現実システムが、乱流内の船舶の移動を検出し、文書の表示を潜水艦の移動に合致させるように調節する。船員が見ているもの(文書の処理された表示)は、あるレートおよび/または加速度における角度の変化を含む、船員の前庭系によって知覚されるもの(乱流内の船舶の移動)に合致するため、乗り物酔いおよびその副作用が、回避されることができる。
記録されたビデオの処理は、記録されたビデオのある部分を解析すること、記録されたビデオの1つ以上の部分を回転、スケーリング、または別様に調節することを含んでもよい。同様に、記録されたビデオの処理はまた、記録されたビデオのあるシーケンスを解析すること、記録されたビデオの1つ以上の時間区画を回転、スケーリング、または別様に調節することを含んでもよい。いくつかの実施形態では、処理されたビデオは、Microsoft Oculus VRヘッドセット等の仮想現実デバイス、拡張現実デバイス、または任意の他の仮想現実ヘッドセット(例えば、デバイス100)を通してユーザに表示されてもよい。いくつかの実施形態では、処理されたビデオは、電話またはタブレット等の任意のハンドヘルドモバイルデバイスと対応するゴーグルを通した表示のために生成されてもよい。いくつかの実施形態では、処理されたビデオは、3D環境としての表示のために生成されてもよい。いくつかの実施形態では、処理されたビデオが、異なるタイルが異なるビューを示す球状ディスプレイ内での表示のために生成され、本システムは、ユーザが、ユーザが被っている移動に最良に対応する1つ以上のタイルを示されるように、検出されたユーザの移動の関数として、タイルの位置を自動的に調節してもよい。いくつかの実施形態では、タイルは、1つのタイルが、視野から外に回転するにつれて、ユーザが、視野の中に移動するタイルに再合焦し、彼らの活動を継続し得るように、同一のビューを示してもよい。いくつかの実施形態では、タイルは、アプリケーションを伴うコンピュータデスクトップを示してもよい。いくつかの実施形態では、タイルは、Unix(登録商標)端末、Emacsウィンドウ、またはMicrosoft Word文書を示してもよい。いくつかの実施形態では、タイルは、ユーザがC++またはJava(登録商標)等のコンピュータ言語でプログラミングすることを可能にする、Eclipse等の統合された開発環境を示してもよい。
図7は、基準水平線704と、少なくとも1つの星706を伴う夜空702とを含む画像700、または基準水平線704と、少なくとも1つの星706を伴う夜空702とを含む、光学器具(例えば、眼鏡)を通したユーザの直接ビュー上のオーバーレイの別の表示である。1つの構成では、VRヘッドセットとして動作するデバイス100は、画像700を表示する。潜水艦または船舶または飛行機内の封入された空間では、ユーザは、地球の水平線を知覚することが可能ではない。図7では、デバイス100は、光学センサ104によって捕捉されるビデオ画像に基づいて、デバイス100の正面の面積のビューを表示する。センサ104から元々捕捉されたビデオ画像およびデ−タは、基準水平線704および/または空702を含むように修正されている。水平線704は、センサ104から元々捕捉されたビデオ画像に関連してオーバーレイ、影、または背景として表示されてもよい。基準水平線704および/または空702は、視認者が、彼らの内耳による変化の視認者感覚と相関する、潜水艦(または他の船舶)の配向および加速度の変化を視覚的に知覚し、乗物酔いを緩和することを可能にする。
図8は、アルファ度のロールが検出されるときの、基準水平線804と、少なくとも1つの星806を伴う夜空802とを含む、画像800の表示である。基準水平線804および/または空802は、視認者が、水平線804のアルファ度だけの傾斜またはロールを示すことによって、潜水艦(または他の船舶)のアルファ度だけのロールを視覚的に知覚することを可能にする。これは、視認者が、彼らの視知覚を彼らの内耳による彼らの運動感覚と相関させ、乗り物酔いを緩和することを可能にする。再び、センサ104から元々捕捉されたビデオ画像およびデータは、アルファ度だけ傾斜された基準水平線804および/または空802を含むように修正されている。水平線804は、センサ104から元々捕捉されたビデオ画像に関連してオーバーレイ、影、または背景として表示されてもよい。
図8はまた、基準水平線804と、少なくとも1つの星806を伴う夜空802とを含む、光学器具(例えば、眼鏡)を通したユーザの直接ビュー上のオーバーレイを図示する。本実装では、デバイス100は、視認者が、彼らに隣接する(すなわち、彼らの正面の)面積を直接視認することを可能にするように構成されるが、デバイス100は、水平線804、空802、および/または星806を表示するビューの少なくとも一方の眼に対してオーバーレイを提供する。さらなる実装では、デバイス100は、眼鏡への物理的な取付が可能である取り付け可能に接続解除可能なユニットとして構成され、それによって、水平線804、空、および/または星806のオーバーレイが、眼鏡を使用して、視認者の少なくとも一方の眼に表示される。図6Aおよび6Bに関して説明されるような物体の位置、加速度、および配向を修正することの代わりに、視認者が、常時、視認者の知覚された前庭系による配向および加速度と相関しているべきである、基準水平線の配向および加速度を知覚することを可能にする特徴が、光学器具を介して、捕捉された画像に追加されるかまたは直接ビュー上にオーバーレイされる。
検出される配向および加速度の変化は、デバイス100によって比例的に表示されてもよい。例えば、ピッチのベータ度の検出された変化は、ピッチのベータ度だけの変化として表示されてもよい。随意に、表示変化は、ピッチ、ロール、および/またはヨーの検出された変化のある割合または一部であってもよい。図6Bおよび8は、デバイス100がロールを処理する方法の実施例であるが、デバイス100は、ピッチおよびヨーの検出された変化に対しても、類似する技法を適用する。ある実装では、デバイス100は、同時に、ロール、ピッチ、およびヨーの変化を検出および処理し、ロール、ピッチ、およびヨーと関連付けられる変化の組み合わせに基づいて、補償画像を生成する。
図9は、視認者の周囲の種々の位置における複数の仮想ディスプレイまたはタイル904、906、908、910、912、および914を含む、デバイス100の視認者902を球状に囲繞する、仮想または拡張現実空間900を描写する。いくつかの実装では、処理されたビデオまたは補償画像が、異なるタイルが異なるビューを示す球状ディスプレイ内での表示のために生成されてもよく、本システムは、視認者が、視認者が被っている移動に最良に対応する1つ以上のタイルを示されるように、本デバイスまたは視認者の移動の関数として、タイルのうちの1つ以上のものの位置を自動的に調節してもよい。各タイルの位置、加速度、および配向は、ロール、ピッチ、およびヨーの検出された変化に応答して修正されてもよい。例えば、デバイス100がベータ度の下向きのピッチを検出する場合、タイル904は、ユーザの前庭系による下向きのピッチの感覚に対応するであろう、上向きの移動の視覚印象をユーザ902に与えることに相応して、ベータ度だけ上向きに偏移してもよい。いくつかの実装では、タイル904、906、908、910、912、および/または914の画像は、図6Bまたは8に関して説明される様式で修正、調節、または補償されてもよい。
図10は、視認者1002の周囲に継続的に仮想的に延在されることが可能であるディスプレイ1004を含む、視聴者1002を囲繞する仮想または拡張現実空間1000を描写する。複数のタイルを提示する代わりに、デバイス100は、実質的には、タイル904−914等の複数のタイルをともに仮想的にステッチングし、異なるタイル間により良好な遷移を提供してもよい。ディスプレイ1004の一部が、図9のタイルに類似する様式で位置、加速度、および配向において偏移してもよい。図6A−10に関して説明される技法が、拡張現実アプリケーションを使用するハンドヘルドモバイルデバイスを使用して、適用されてもよい。例えば、カメラを伴うモバイルデバイスが、タッチスクリーンを視認する視認者によって保持されてもよい。カメラは、リアルタイムビデオを捕捉し、ディスプレイ上に捕捉されたビデオを表示してもよい一方、感覚補償アプリケーションを起動するプロセッサは、基準水平線および/または空を表示される画像上にオーバーレイする。
図11は、感覚不整合の有害作用を緩和するための例示的プロセス1100である。最初に、センサ106を使用して、デバイス100と関連付けられる、検出される速度、角速度、重力、運動、位置、加速度、および配向のうちの1つ以上のものに基づいて、配向および加速度データを生成する(ステップ1102)。光学センサ104を使用して、リアルタイム画像を捕捉し、本デバイスに隣接する面積のリアルタイム画像データを生成する(ステップ1104)。プロセッサを使用して、リアルタイム画像データを受信し、配向および加速度データを受信し、リアルタイム画像データおよび配向および加速度データに基づいて、補償画像データを生成する(ステップ1106)。次いで、補償画像の一部が、捕捉されたリアルタイム画像に関連して調節される配向および加速度を伴う捕捉されたリアルタイム画像を含むように、補償画像データから導出される補償画像を表示する(ステップ1108)。
前述に言及されるように、本発明は、船舶酔い以外にも、自動車酔いまたは飛行機酔い等の任意のタイプの乗物酔いに対しても等しく適用される。一実施例では、幼児が、本を読みながら、自動車に乗っている。自動車が、角を曲がるにつれて、幼児は、感覚不整合を被り得る。幼児によって装着される仮想現実システムが、角を曲がる自動車から生じる加速度および任意のヨー、ロール、またはピッチを検出し、それに応じて表示を調節する。同様に、操縦士が、彼の飛行機とともに旋回している。飛行機のヨー、ロール、またはピッチの視覚をダイヤル上に表示する代わりに、視覚現実システムが、ヨー、ロール、またはピッチに関する情報を取得し、データ(例えば、操縦士が通常、彼のコックピット内で見るであろうもの)を捕捉し、該データを、ヨー、ロール、またはピッチを考慮するように処理し、操縦士が見るための処理されたデータを表示する。
本明細書に説明される種々の特徴、方法、システム、およびデバイスが、米国特許第5,966,680号(その内容全体は、参照することによって本明細書に組み込まれる)に説明される特徴と組み合わされてもよい。
そのような側面が、実施例としてのみ提供されることが、当業者に明白となるであろう。多数の変形例、代替、変更、および代用が、本発明を実践する際に当業者によって採用され得る。
故に、本発明は、本明細書に開示される側面に限定されるべきではなく、法令下で許容される限り広義に解釈される以下の請求項から理解されるべきであることを理解されたい。

Claims (22)

  1. 感覚補償デバイスであって、
    配向および加速度センサであって、前記配向および加速度センサは、前記デバイスと関連付けられる検出される速度、角速度、重力、運動、位置、加速度、および配向のうちの1つ以上のものに基づいて、配向および加速度データを生成するように構成される、配向および加速度センサと、
    光学センサであって、前記光学センサは、リアルタイム画像を捕捉し、前記デバイスに隣接する面積のリアルタイム画像データを生成するように構成される、光学センサと、
    プロセッサであって、前記プロセッサは、i)前記リアルタイム画像データを受信し、ii)位置および配向データを受信し、iii)前記リアルタイム画像データおよび前記配向および加速度データに基づいて、補償画像データを生成するように構成される、プロセッサと、
    ディスプレイであって、前記ディスプレイは、前記補償画像データから導出される補償画像を表示するように構成され、前記補償画像の一部は、前記捕捉されたリアルタイム画像に関連して調節される配向および加速度を伴う前記捕捉されたリアルタイム画像を含む、ディスプレイと
    を備える、感覚補償デバイス。
  2. 前記配向および加速度データは、慣性基準点に関連するロール、ピッチ、およびヨーデータのうちの少なくとも1つを含む、請求項1に記載のデバイス。
  3. 前記慣性基準点は、基準水平線を含む、請求項2に記載のデバイス。
  4. 前記配向および加速度データは、前記慣性基準点と前記デバイスの検出された配向および加速度との間の差分位置を含む、請求項2および3のうちのいずれかに記載のデバイス。
  5. 前記補償画像の一部は、前記慣性基準点と前記デバイスの前記検出された配向および加速度との間の前記差分位置に比例して調節される、請求項4に記載のデバイス。
  6. 前記補償画像の一部は、前記検出された差分位置の変化の方向と逆方向に調節される、請求項5に記載のデバイス。
  7. 前記補償画像の一部は、前記デバイスの反時計回り方向の1度以上の度数だけの検出されたロールに比例して、1度以上の度数だけ時計回りにロールされる、請求項6に記載のデバイス。
  8. 前記デバイスは、頭部搭載型、ハンドヘルド型、および光学システムに取り外し可能に接続可能であるもののうちの1つである、請求項1−7のうちのいずれかに記載のデバイス。
  9. 前記光学システムは、眼鏡を含む、請求項8に記載のデバイス。
  10. 前記ディスプレイは、LCD、LED、シリコン上液晶(LCoS)、およびOLED要素のうちの少なくとも1つを含む、請求項1−9のうちのいずれかに記載のデバイス。
  11. 前記デバイスに隣接する前記面積は、前記デバイスの前方、後方、および側方における面積の少なくとも1つのものを含む、請求項1−10のうちのいずれかに記載のデバイス。
  12. 前記光学センサは、少なくとも1つのビデオカメラを含む、請求項1−11のうちのいずれかに記載のデバイス。
  13. 前記補償画像データは、前記捕捉されたリアルタイム画像に関するオーバーレイ、背景、および影画像のうちの少なくとも1つの表示を可能にするデータを含む、請求項1−12のうちのいずれかに記載のデバイス。
  14. 前記オーバーレイ、背景、または影画像のうちの少なくとも1つは、基準水平線および空のうちの少なくとも一方を含む、請求項13に記載のデバイス。
  15. 前記空は、1つ以上の星を含む夜空である、請求項14に記載のデバイス。
  16. 前記補償画像は、ナビゲーション情報を含む、請求項1−15のうちのいずれかに記載のデバイス。
  17. 感覚補償デバイスであって、
    配向および加速度センサであって、前記配向および加速度センサは、前記デバイスと関連付けられる検出された速度、角速度、重力、運動、位置、および配向のうちの1つ以上のものに基づいて、配向および加速度データを生成するように構成される、配向および加速度センサと、
    光学要素であって、ユーザは、それを通して前記デバイスに隣接する面積を視認する、光学要素と、
    プロセッサであって、前記プロセッサは、i)前記配向および加速度データを受信し、ii)配向および加速度画像データを生成するように構成される、プロセッサと、
    ディスプレイであって、前記ディスプレイは、前記配向および加速度画像データから導出される配向および加速度画像を前記光学要素を介して前記ユーザに表示するように構成され、前記配向および加速度画像は、前記デバイスに隣接する前記面積のビューに関連して調節される配向および加速度を有する1つ以上の特徴を含む、ディスプレイと
    を備える、感覚補償デバイス。
  18. 前記配向および加速度画像データは、前記光学要素を介して前記デバイスに隣接する前記面積のビュー上にオーバーレイ画像の少なくとも1つの前記表示を可能にするデータを含む、請求項17に記載のデバイス。
  19. 前記オーバーレイは、基準水平線および空のうちの少なくとも一方を含む、請求項18に記載のデバイス。
  20. コンピューティングデバイスであって、
    配向および加速度センサであって、前記配向および加速度センサは、前記デバイスと関連付けられる検出された速度、角速度、重力、運動、加速度、および配向のうちの1つ以上のものに基づいて、配向および加速度データを生成するように構成される、配向および加速度センサと、
    プロセッサであって、前記プロセッサは、i)前記配向および加速度データを受信し、ii)前記配向および加速度データに基づいて、補償画像データを生成するように構成される、プロセッサと、
    ディスプレイであって、前記ディスプレイは、前記補償画像データから導出される補償画像を表示するように構成され、前記補償画像の一部は、前記デバイスに隣接する面積のユーザのビューに関連して調節される配向および加速度を有する1つ以上の特徴を含む、ディスプレイと
    を備える、コンピューティングデバイス。
  21. 前記デバイスは、前記表示がプロジェクタおよびポータブルコンピュータタブレットを介して投影される、1つまたはあるコンピュータデスクトップ、モバイルデバイス、コンピュータである、請求項20に記載のデバイス。
  22. ハンドヘルド型モバイルコンピューティングデバイスであって、
    配向および加速度センサであって、前記配向および加速度センサは、前記デバイスと関連付けられる検出された速度、角速度、重力、運動、位置、加速度、および配向のうちの1つ以上のものに基づいて、配向および加速度データを生成するように構成される、配向および加速度センサと、
    光学センサであって、前記光学センサは、リアルタイム画像を捕捉し、前記デバイスに隣接する面積のリアルタイム画像データを生成するように構成される、光学センサと、
    プロセッサであって、前記プロセッサは、i)前記リアルタイム画像データを受信し、ii)前記配向および加速度データを受信し、iii)前記リアルタイム画像データおよび前記位置および配向データに基づいて、補償画像データを生成するように構成される、プロセッサと、
    ディスプレイであって、前記ディスプレイは、前記補償画像データから導出される補償画像を表示するように構成され、前記補償画像の一部は、前記捕捉されたリアルタイム画像に関連して調節される配向および加速度を伴う前記捕捉されたリアルタイム画像を含む、ディスプレイと
    を備える、ハンドヘルド型モバイルコンピューティングデバイス。
JP2019569396A 2017-06-14 2018-06-14 仮想現実による乗り物酔い防止のためのシステムおよび方法 Active JP7232779B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762519287P 2017-06-14 2017-06-14
US62/519,287 2017-06-14
PCT/US2018/037641 WO2018232184A1 (en) 2017-06-14 2018-06-14 Systems and methods for virtual reality motion sickness prevention

Publications (2)

Publication Number Publication Date
JP2020523706A true JP2020523706A (ja) 2020-08-06
JP7232779B2 JP7232779B2 (ja) 2023-03-03

Family

ID=64658284

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019569396A Active JP7232779B2 (ja) 2017-06-14 2018-06-14 仮想現実による乗り物酔い防止のためのシステムおよび方法

Country Status (6)

Country Link
US (1) US10621698B2 (ja)
EP (1) EP3638351A4 (ja)
JP (1) JP7232779B2 (ja)
AU (1) AU2018285543B2 (ja)
CA (1) CA3067345A1 (ja)
WO (1) WO2018232184A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190340797A1 (en) * 2018-05-03 2019-11-07 Visteon Global Technologies, Inc. System and method for a dynamic map display with actual images
CN110547759A (zh) * 2018-05-31 2019-12-10 托比股份公司 鲁棒会聚信号
EP3906080A1 (fr) * 2019-01-04 2021-11-10 Boarding Ring Dispositif de confort visuel
WO2020176770A1 (en) * 2019-02-27 2020-09-03 Starkey Laboratories, Inc. Hearing assistance devices with motion sickness prevention and mitigation features
KR102254744B1 (ko) * 2020-02-18 2021-05-20 이범준 멀미 저감을 위한 vr 컨텐츠 제공 시스템 및 방법
US11119314B1 (en) * 2020-07-17 2021-09-14 Synapcis Inc. Apparatus and method for mitigating motion sickness through cyclical object projection in digital space
WO2022169478A1 (en) 2021-02-02 2022-08-11 Synapcis Inc. Resetting circadian rhythms via color palette transitions in a virtual sky
JP7282113B2 (ja) * 2021-02-10 2023-05-26 株式会社日立製作所 ユーザのリソースへのアクセスを制御するシステム及び方法
EP4261071A1 (en) 2022-04-14 2023-10-18 Airbus Defence and Space GmbH Display arrangement for video workstation in a vehicle

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070034212A1 (en) * 2002-11-26 2007-02-15 Artis Llc. Motion-Coupled Visual Environment for Prevention or Reduction of Motion Sickness and Simulator/Virtual Environment Sickness
JP2008230575A (ja) * 2007-03-23 2008-10-02 Hamamatsu Univ School Of Medicine 乗り物酔い防止回復装置
US20090179987A1 (en) * 2004-07-16 2009-07-16 Samuel Kim Motion sickness reduction
US20110282130A1 (en) * 2010-05-14 2011-11-17 Advitech, Inc. System and method for prevention and control of the effects of spatial disorientation
JP2012019452A (ja) * 2010-07-09 2012-01-26 Mitsubishi Electric Corp 画像処理装置及び画像処理方法
US20140176296A1 (en) * 2012-12-19 2014-06-26 HeadsUp Technologies, Inc. Methods and systems for managing motion sickness

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5966680A (en) 1996-02-15 1999-10-12 Butnaru; Hanan Motion sickness/vertigo prevention device and method
US6497649B2 (en) * 2001-01-21 2002-12-24 University Of Washington Alleviating motion, simulator, and virtual environmental sickness by presenting visual scene components matched to inner ear vestibular sensations
US7918781B1 (en) * 2006-03-22 2011-04-05 The United States Of America As Represented By The Secretary Of The Army Systems and methods for suppressing motion sickness
US9994228B2 (en) * 2010-05-14 2018-06-12 Iarmourholdings, Inc. Systems and methods for controlling a vehicle or device in response to a measured human response to a provocative environment
US9298985B2 (en) * 2011-05-16 2016-03-29 Wesley W. O. Krueger Physiological biosensor system and method for controlling a vehicle or powered equipment
US9123143B2 (en) * 2011-08-11 2015-09-01 Aaron I. Krakowski System and method for motion sickness minimization using integration of attended and unattended datastreams
JP6060512B2 (ja) * 2012-04-02 2017-01-18 セイコーエプソン株式会社 頭部装着型表示装置
US20140055339A1 (en) * 2012-08-22 2014-02-27 David Stanasolovich Adaptive visual output based on motion compensation of a mobile device
ES2727282T3 (es) 2012-12-21 2019-10-15 General Equipment For Medical Imaging S A Oncovision Detector de centelleo de rayos gama que conserva la distribución original de la luz de centelleo
US9788714B2 (en) * 2014-07-08 2017-10-17 Iarmourholdings, Inc. Systems and methods using virtual reality or augmented reality environments for the measurement and/or improvement of human vestibulo-ocular performance
US8708884B1 (en) * 2013-03-11 2014-04-29 The United States Of America As Represented By The Secretary Of The Army Systems and methods for adaptive mitigation of motion sickness
US9836122B2 (en) * 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
CN105094310B (zh) * 2014-05-09 2019-08-16 梦工厂动画公司 虚拟现实驾乘系统中减少晕车的方法和系统
US10139902B2 (en) * 2015-09-16 2018-11-27 Colopl, Inc. Method and apparatus for changing a field of view without synchronization with movement of a head-mounted display
US9902403B2 (en) * 2016-03-03 2018-02-27 Uber Technologies, Inc. Sensory stimulation for an autonomous vehicle
US10043318B2 (en) * 2016-12-09 2018-08-07 Qualcomm Incorporated Display synchronized image warping
KR20180073327A (ko) * 2016-12-22 2018-07-02 삼성전자주식회사 영상 표시 방법, 저장 매체 및 전자 장치
JP6945632B2 (ja) * 2016-12-29 2021-10-13 株式会社ソニー・インタラクティブエンタテインメント 視線追跡を用いたvr、低遅延、無線hmdビデオストリーミングのためのフォービエイテッドビデオリンク
US20180286351A1 (en) * 2017-03-31 2018-10-04 Eye Labs, LLC Sensory stimuli delivery systems for head-mounted displays

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070034212A1 (en) * 2002-11-26 2007-02-15 Artis Llc. Motion-Coupled Visual Environment for Prevention or Reduction of Motion Sickness and Simulator/Virtual Environment Sickness
US20090179987A1 (en) * 2004-07-16 2009-07-16 Samuel Kim Motion sickness reduction
JP2008230575A (ja) * 2007-03-23 2008-10-02 Hamamatsu Univ School Of Medicine 乗り物酔い防止回復装置
US20110282130A1 (en) * 2010-05-14 2011-11-17 Advitech, Inc. System and method for prevention and control of the effects of spatial disorientation
JP2012019452A (ja) * 2010-07-09 2012-01-26 Mitsubishi Electric Corp 画像処理装置及び画像処理方法
US20140176296A1 (en) * 2012-12-19 2014-06-26 HeadsUp Technologies, Inc. Methods and systems for managing motion sickness

Also Published As

Publication number Publication date
AU2018285543A1 (en) 2020-02-06
EP3638351A1 (en) 2020-04-22
CA3067345A1 (en) 2018-12-20
JP7232779B2 (ja) 2023-03-03
EP3638351A4 (en) 2021-03-10
AU2018285543B2 (en) 2023-10-05
WO2018232184A1 (en) 2018-12-20
US20180365804A1 (en) 2018-12-20
US10621698B2 (en) 2020-04-14

Similar Documents

Publication Publication Date Title
JP7232779B2 (ja) 仮想現実による乗り物酔い防止のためのシステムおよび方法
US10732707B2 (en) Perception based predictive tracking for head mounted displays
US7128705B2 (en) Motion-coupled visual environment for prevention or reduction of motion sickness and simulator/virtual environment sickness
KR20160147735A (ko) 헤드부 위치 검출 장치 및 헤드부 위치 검출 방법, 화상 처리 장치 및 화상 처리 방법, 표시 장치, 및 컴퓨터 프로그램
EP2131153B1 (en) Methods and apparatus to assist pilots under conditions in which spatial disorientation may be present
US20070247457A1 (en) Device and Method for Presenting an Image of the Surrounding World
US20140176296A1 (en) Methods and systems for managing motion sickness
KR20170049433A (ko) 디스플레이 시스템에서의 전정 안근 반사 보정의 방법
WO2016013272A1 (ja) 情報処理装置及び情報処理方法、並びに画像表示システム
WO2016163183A1 (ja) 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム
US10816813B1 (en) Systems and methods for enhancing accuracy of spatial location and rotational orientation determination of wearable head-mounted display device
TWI620100B (zh) 虛擬實境移動畫面顯示方法、虛擬實境裝置及記錄媒體
JP7027753B2 (ja) 情報処理装置及びプログラム
CN112308906B (zh) 视角校正方法、虚拟实境显示系统与运算装置
US11681358B1 (en) Eye image stabilized augmented reality displays
JP6503407B2 (ja) コンテンツ表示プログラム、コンピュータ装置、コンテンツ表示方法、及びコンテンツ表示システム
JPH1084518A (ja) 表示装置
ES2226584A1 (es) Sistema antimareo.
Brendley et al. Demonstration of a motion coupled virtual environment (MOCOVE)–A device for reducing spatial disorientation in uncoupled virtual and motion environments
JP2007088660A (ja) 画像表示装置および画像表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230220

R150 Certificate of patent or registration of utility model

Ref document number: 7232779

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150