JP2018524673A - 仮想現実の反応性アニメーション - Google Patents

仮想現実の反応性アニメーション Download PDF

Info

Publication number
JP2018524673A
JP2018524673A JP2017560742A JP2017560742A JP2018524673A JP 2018524673 A JP2018524673 A JP 2018524673A JP 2017560742 A JP2017560742 A JP 2017560742A JP 2017560742 A JP2017560742 A JP 2017560742A JP 2018524673 A JP2018524673 A JP 2018524673A
Authority
JP
Japan
Prior art keywords
display
housing
processor
animation
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2017560742A
Other languages
English (en)
Other versions
JP2018524673A5 (ja
Inventor
バレスト,アダム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2018524673A publication Critical patent/JP2018524673A/ja
Publication of JP2018524673A5 publication Critical patent/JP2018524673A5/ja
Ceased legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Cardiology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Optics & Photonics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

仮想現実ヘッドマウントディスプレイの光学システム及び方法が提供される。一実施形態では、システムは、ユーザ頭部に搭載され、且つディスプレイに結合される筐体であって、ディスプレイへのビューフォーカスを可能にする筐体と、前記筐体に動作可能に結合され、及び第1の位置から第2の位置への前記筐体の第1の位置変化を検出し、且つ前記第1の変化よりも大きい前記筐体の第2の位置変化を検出するように構成されたセンサとを含む。プロセッサは、ディスプレイに結合され、及び前記ディスプレイ上での出力のために第1のアニメーションをレンダリングし、センサが第1の位置変化を検出すると、第2のアニメーションを事前ロードし、且つセンサが第2の位置変化を検出することに基づき、ディスプレイへの出力のために第2のアニメーションをレンダリングするように構成された。

Description

技術分野
本発明は、概して、仮想現実に関し、特に反応性アニメーションにより強化された仮想現実に関する。
背景
この項は、以下に説明及び/又は特許請求される本発明の様々な態様に関連し得る技術の様々な態様を読者に紹介することを目的とする。この考察は、本発明の様々な態様のよりよい理解を促進するために、背景情報を読者に提供するのに有用であると考えられる。したがって、これらの文章はこの観点から読まれるべきであり、先行技術の承認として読まれるべきではないことを理解されたい。
近年、仮想現実(VR)は一層注目される主題となっている。これは、テスト、娯楽、及び教示を含む様々な機能を実行するために、VRがあらゆる分野で実用的に使用可能なためである。例えば、技術者及び建築家は、新しい設計のモデリング及びテストにVRを使用することができる。医師は、VRを使用して事前に様々な手術を練習し完全なものにすることができ、軍事専門家は、戦場オペレーションをシミュレートすることにより戦略を策定することができる。VRは、インタラクティブ経験を提供し、且つ観客の楽しみを強化するためにゲーム及び娯楽産業でも広く使用されている。VRは、現実に感じられ、現実世界又は虚構世界での現実的な生活経験を正確に複製することができるシミュレーション環境の作成を可能にする。更に、VRは、テレプレゼンス及びテレイグジスタンス又はバーチャルアーチファクト(VA)の概念を用いてユーザの仮想存在を提供するリモート通信環境をカバーする。
大半の仮想現実システムは、他の多感覚入力及び出力デバイスと連携し、それらとの通信を処理することになる高度なコンピュータを利用して、インタラクティブ仮想現実を作成する。仮想環境との人間の対話を正確にシミュレートするために、VRシステムは、人間の感覚を表す情報の入力及び出力を促進することを目指す。その結果、これらの高度な計算システムは、立体視ディスプレイ及び仮想味覚、仮想視覚、仮想臭覚、仮想サウンド、及び仮想触覚を含むことができるそのような感覚経験を表す他のデバイス等の没入型マルチメディアデバイスと組み合わせられる。しかし、多くの状況では、人間の感覚の中でも特に、視覚は恐らく評価ツールとして最も有用である。したがって、視覚化の光学システムは、大半の仮想現実システムの重要な部分である。
概要
仮想現実ヘッドマウントディスプレイの光学システム及び方法が提供される。一実施形態では、本システムは、ユーザ頭部に搭載され、且つディスプレイに結合される筐体であって、ディスプレイへのビューフォーカスを可能にする筐体と、前記筐体に動作可能に結合され、及び第1の位置から第2の位置への前記筐体の第1の位置変化を検出し、且つ前記第1の変化よりも大きい前記筐体の第2の位置変化を検出するように構成されたセンサとを含む。プロセッサは、ディスプレイに結合され、及び前記ディスプレイ上での出力のために第1のアニメーションをレンダリングし、センサが第1の位置変化を検出すると、第2のアニメーションを事前ロードし、且つセンサが第2の位置変化を検出することに基づき、ディスプレイへの出力のために第2のアニメーションをレンダリングするように構成された。
別の実施形態では、本方法は、ヘッドマウント筐体を介してユーザに仮想現実経験を提供し、本方法は、プロセッサを使用して、筐体を介してユーザにより見られる画像をレンダリングすることを含み、筐体はディスプレイに結合される。本方法は、また、プロセッサを使用して、前記筐体の第1の位置変化を検出することと、プロセッサを使用して、前記第1の変化よりも大きい変化を定義する前記筐体の第2の位置変化を検出することと、プロセッサを使用して、前記ディスプレイへの出力のために第1のアニメーションをレンダリングすることとを含む。次に、前記第1の位置変化を検出するプロセッサの状態において、第2のアニメーションが、プロセッサを含む計算システムに事前ロードされ、及び前記第2の位置変化を検出するプロセッサの状態において、第2のアニメーションは、前記ディスプレイへの出力のために、プロセッサを使用してレンダリングされる。
本発明の技法を通して追加の特徴及び利点が実現される。本発明の他の実施形態及び態様は、本明細書において詳述され、特許請求される本発明の一部と見なされる。利点及び特徴を有する本発明をよりよく理解するために、説明及び図面を参照されたい。
図面の簡単な説明
本発明は、添付図を参照して、決して限定ではない以下の実施形態及び実行例により、よりよく理解され示される。
本発明の一実施形態による反応性アニメーション用に構成されたVRヘッドマウント光学システムを利用するユーザ/プレーヤを示す。 本発明の一実施形態による、図1の例で使用されるシステム等の光学システムを動作させる方法を示すフローチャートである。
図2では、表されるブロックは純粋に機能的エンティティであり、必ずしも物理的に別個のエンティティに対応するわけではない。すなわち、表されるブロックは、ソフトウェア、ハードウェアの形態で開発されてもよく、又は1つ若しくは複数のプロセッサを含む1つ若しくは幾つかの集積回路で実施されてもよい。
可能な場合は常に、同じ参照番号が図全体を通して同じ又は同様の部分を指すために使用される。
説明
本発明の図及び説明は、明確さのために、典型的なデジタルマルチメディアコンテンツ配信方法及びシステムに見られる多くの他の要素を省きながら、本発明の明確な理解のために関連する要素を説明するように簡略化されていることを理解されたい。しかし、そのような要素は当技術分野で周知であるため、そのような要素の詳細な考察は本明細書に提供されない。本明細書での開示は、当業者に既知のそのような全ての変形形態及び変更形態に向けられる。
図1は、反応性アニメーション機能及び特徴を有する仮想現実(VR)システム(110)の例を示す。この実施形態では、VRシステム(110)は、少なくとも1つのプロセッサ若しくはコンピュータ(125)(配置が筐体ユニットの内部又は外部であり得ることを示すために破線で示されている)を有するか、又は少なくとも1つのプロセッサ若しくはコンピュータ(125)に結合されるヘッドマウント光学システムである。プロセッサ(125)は、計算環境又はネットワーク内の他のプロセッサ及びコンピュータとの通信の処理を行うように構成され得る。加えて、VRシステム(110)は、データを記憶する記憶ロケーションにアクセス可能であるか、又は記憶ロケーションを含む。システムは有線又は無線であり得る。
図に示されるもの等の一実施形態では、VRシステム110は、筐体(120)からなる光学システムを含む。当業者に既知のように、様々な設計が使用可能である。図1の実施形態では、筐体は、ユーザ(プレーヤとも呼ばれる)の頭部の周囲に半径方向に延びるように構成される調整可能ストラップ(135)を含む。筐体(120)を定位置に確実に保持し、構造的剛性を加えるのに役立つように、追加のストラップ(138)が追加され得る。一実施形態では、ストラップ(135)は長さ調整可能であり、固定具を含むことができるか、又は伸縮性材料から作られてもよい。他の実施形態では、当業者により理解することができるように、ストラップは、固定具等の追加の構成要素を有し得る。筐体(120)は、代替的に、より少ない構造、例えば、サングラスのように装着できるようにするもので作られ得るか、又は頭部若しくは顔を部分的若しくは全体的に覆うマスクのようにより徹底的に作られ得るか、又は必要とされる徹底性若しくは用途に応じてそれらの中間で設計することもできる。
一実施形態では、筐体(110)は、目を覆う少なくとも1つの表示セクション(122)を含むディスプレイに結合するように構成される。一実施形態では、表示セクション(122)は、両目を覆って広がり、少なくとも1つのディスプレイの閲覧を可能にする1枚のレンズを有する。別の実施形態では、図1に示されるように、第1のレンズが第1のディスプレイと人の目のうちの第1の目との間に配置され、第2のレンズがディスプレイと人の目のうちの第2の目との間に配置されるように視覚平面を画定する2枚のレンズ(123)が提供される。別の実施形態では、1枚の単一レンズを両目上に提供することができる。単一の表示エリア及び単一のレンズが提供される場合、レンズはディスプレイと人の目との間に配置される。一実施形態では、目はそれぞれ別個のフレーム(123)で覆うことができる。示される実施形態では、筐体(110)は、単一のディスプレイに結合されるように構成されるが、代替の実施形態では、特に左目のレンズ及び右目のレンズが左目ディスプレイ及び右目ディスプレイに結合されるように別個のレンズが提供される場合、2つ以上のディスプレイを使用し得る。加えて、
ディスプレイ(図示せず)は、様々な方法で提供することができる。一実施形態では、受け取りエリアが表示セクション(120)に提供されて、ディスプレイ、プロセッサ、及び他の構成要素を有するスマートフォン等のモバイルデバイスを受ける。一例は、無線通信インタフェース、及び移動、位置、若しくは姿勢若しくはユーザの頭部、又は上記パラメータのいずれかの変化若しくは変化率を検知する1つ又は複数のセンサ(加速度計)であり得る。
一実施形態では、ディスプレイ及びプロセッサは、筐体(120)及び表示セクション(122)に結合することができ、又はローカル若しくはリモートデバイス(ゲームユニット、モバイルタブレット、携帯電話、デスクトップ、サーバ、若しくはそれらに結合されて一体となる他の計算手段への通信の処理におけるものであり得る。一実施形態では、表示セクション(122)は、更には、当業者により理解することができるように、スマートフォン又は他のデバイスに接続されたディスプレイを受けるのに十分大きい受け取りエリア(図示せず)を含むこともできる。
別の実施形態では、VRシステム(110)は、ディスプレイ(図示せず)に結合するように構成された筐体(120)で構成される仮想現実ヘッドマウントディスプレイを有する光学システムである。筐体(120)は、それぞれディスプレイの第1及び第2の部分へのユーザの第1及び第2の目による合焦を提供する第1及び第2の光路をそれぞれ画定する。述べたように、筐体に動作可能に結合され、及び第1の位置から第2の位置への筐体の第1の位置変化を検出し、且つ第1の変化よりも大きい変化を定義する筐体の第2の位置変化を検出するように構成されるセンサを提供し得、それにより、ディスプレイに結合されたプロセッサは、ディスプレイ上での出力のための第1のアニメーションをレンダリングし、センサが第1の位置変化を検出すると、第2のアニメーションを事前ロードし、且つセンサが第2の位置変化を検出すると、ディスプレイへの出力のために第2のアニメーションをレンダリングするように構成される。
理解を容易にするために、ここで例示的な例を提供する。図1では、ユーザは、ユーザが直立しており、前を向いているとき、水平軸及び垂直軸が平衡状態である中央位置に立っている。ユーザはヘッドマウントVRシステム(110)を装着している。頭部傾斜の形態での位置変化が生じると、プロセッサ(125)は、図2に関連しても考察されるように、アニメーションモードにシフトする。この実施形態では、偏差角の値は10度に設定される。これは、0度〜10度の頭部傾斜が位置変化として認識されるが、予め選択される値(ここでは10%)が満たされるか又は超えられるまで、反応性アニメーションモードにならないことを意味する。
この例では、反応性アニメーションになる(ロードされる)と、更なる頭部又は体の移動は、変化が再び特定の値よりも大きい場合、追加の反応性アニメーションを開始させる。この例では、この値は14.7度に設定される。値を超えた後、任意の更なる位置変化は反応性アニメーションフェーズを開始させ、考察されるように、投射される画像が追加の位置変化に応答するように画像をディスプレイに投射する。図1に示される例では、考察されるように偏差値に10度及び14.7度で達するが、これらの値は単に例示を目的として使用され、他の値を選択することもできる。なお、偏差値14.7を超え、反応性アニメーションモードに完全になると、全ての追加の頭部追跡移動は、常にアクティブ化され、且つ視線がユーザインタフェース(UI)内の他のグラフィカルユーザインタフェース(GUI)要素に触れる際に更新している(頭部移動を通して)フィードバック経験をもたらす追加のアニメーションを開始する。
一実施形態では、コンテンツ(例えば、第1のアニメーション)を見ている間、立っているユーザに適用される「視線」が特定される。視線がX度増大する場合、第2のアニメーションが事前ロードされ、視線がY度ずれる(X<Y)場合、アニメーションはアクティブ化される。例えば、ゲームHをプレイ中のユーザの例示的な場合を使用することができる。ゲームHは、モバイルデバイスにダウンロードするか、又は他の手段を通してプレイ中であり得るホラージャンルのゲームである。ユーザ/プレーヤは、頭部傾斜(X度)により反応性アニメーションを開始し、反応性アニメーションに関与する。次に、ユーザの頭部は、ユーザが頭部傾斜のみで特定の動作を選択するように、その時点から略UIとして使用される。一実施形態では、自発的動作又は非自発的動作の両方が使用可能である。例えば、プレーヤがこのVR世界に入る際、プレーヤが自発的に選択する様々なホラーシーン及び選択肢がプレーヤに提示される。しかし、一事例では、ユーザは特に陰惨なシーンを見ることがあり、プレーヤは、ユーザの頭部を特定の方向に非自発的に動かして、他のシーンを表示させる。一実施形態では、この非自発的な動作は、例えば、ゲーム内でユーザ/プレーヤが配置されるVR虚構部屋の異なるエリア内の他の事前ロードされた画像を提供し得る。一実施形態では、利用可能な技術ユーザ/プレーヤは、M-GO Advanced、Oculus Rift又はGear VRのようなシステムなど、利用可能な技術を利用することができる。
一実施形態では、VRシステムは、更には、ユーザ/プレーヤが表示中のコンテンツに強く反応し、ゲームにおいて後に又は他のゲームでその知識を使用して、その特定のユーザに向けてより特別に設計された経験を提供するタイプの画像及び事例を捕捉することもできる。
反応性アニメーションは、当業者に既知のように、多くの方法でプロセッサ(125)により提供することができる。例えば、一実施形態では、これは、大半が挙動及び事象の指示に基づく非常にインタラクティブなマルチメディアアニメーションを構成するデータタイプ及び機能の集合として提供することができる。挙動は時変反応値であり、一方、事象は、恐らく豊富な情報を伝達する任意の幾つかの複雑な条件セットである。最も従来的な値は挙動として扱うことができ、そうして画像が扱われる場合、アニメーションになる。
同様に図1に示されるような代替の実施形態では、ユーザは、直立中央ボディポジションにおり、VRシステム(110)でのコンテンツ閲覧に携わっている。この実施形態では、ユーザが視線を中央メジアンよりも下に下げると随時、装置は、事前ロードされたものの代わりに動的な経験を開始する。これは、前のロケーションにおける記憶されたものを有する代わりに、経験が動的に作成されることを意味し得る。これにより、ここで、他のデバイス又はクラウド等のネットワークと通信するプロセッサ(125)を通してライブで投射されている、実際の場所でのカメラ又は他のデバイスの使用を含み得る動的な現実世界経験にアクセスすることができる。
別の実施形態では、VRシステム110は、追加の感覚刺激を提供することができる他の構成要素を含み得る。例えば、視覚的構成要素により、ユーザが重力、速度、加速度等を経験することができるのと同時に、システム110は、視覚的構成要素に結び付けられて、ユーザの視覚経験を強化する風、湿気、匂い等の他の物理的刺激を提供することができる。
本発明の一実施形態では、VRシステム110を通してユーザに提供されるコンテンツは、拡張現実の形態で提示することもできる。近年、拡張現実は、娯楽分野を含む様々な分野で使用することができる独自の経験を提供するように拡大されてきた。拡張現実は、多くの場合、適応型HTTPストリーミング(マルチビットレートスイッチングとも呼ばれる)等のコンピュータ生成感覚入力を通して、感覚入力を使用して現実作業要素を作成し、急速にマルチメディアコンテンツ配信の主要技術になりつつある。既に使用されている適応型HTTPストリーミングプロトコルの中でも特に、最も有名なものは、AppleからのHTTP Live Streaming(HLS)、MicrosoftからのSilverlight Smooth Streaming(SSS)、AdobeからのAdobe Dynamic Streaming(ADS)、及びSA4グループ内の3GPPにより開発された動的適応型HTTPストリーミング(DASH)である。拡張現実の技術は、当業者に既知であり、これ以上考察しない。
図2は、図1の実施形態で考察される等のヘッドマウントディスプレイを介して仮想現実経験をユーザに対して使用する一実施形態を記述するフローチャートの図である。ステップ210は、偏差角を予め選択することができ、視線のベースラインが確立される初期ステップである。ステップ220は、プロセッサ(125)を使用して、ユーザの第1の位置変化を検出する。ステップ230に示されるように、変化があり、変化が予め選択される偏差値を超える場合、反応性アニメーションになる(ステップ240)。次に、第2の位置変化があり、第2の値を超える場合、反応性アニメーションに完全になる(ステップ250)。別個の実施形態では、値の任意の水平変化及び垂直変化は、システムと完全に連動することができる。
反応性アニメーションが完全になると、任意の追加の頭部移動は、ステップ260に示されるように、それに従って対応するシーンを提供する。換言すれば、考察されるように、反応性アニメーションモードになると、全ての追加の頭部追跡移動は追加のアニメーションを開始させ、常にアクティブ化され、且つこれらの他のユーザインタフェースを通して仮想的に見ることができる他のグラフィックユーザインタフェースデバイス及びコンポーネントに視線が触れる際に更新しているフィードバック経験をもたらす。
幾つかの実施形態について説明したが、当業者が現在及び将来の両方において様々な改善形態及び改良形態をなし得、これらが以下の特許請求の範囲内にあることが理解される。これらの請求項は、最初に説明された本発明の適切な保護を維持するように解釈されるべきである。

Claims (8)

  1. 仮想現実ヘッドマウントディスプレイの光学システムであって、
    前記ディスプレイに結合される、ユーザの頭部に搭載される筐体であって、前記ディスプレイへのビューフォーカスを可能にする筐体と、
    前記筐体に動作可能に結合され、及び第1の位置から第2の位置への前記筐体の第1の位置変化を検出し、且つ前記第1の変化よりも大きい前記筐体の第2の位置変化を検出するように構成されたセンサと
    を含み、それにより、
    前記ディスプレイに結合されるプロセッサは、前記ディスプレイ上での出力のために第1のアニメーションをレンダリングし、前記センサが前記第1の位置変化を検出すると、第2のアニメーションを事前ロードし、且つ前記センサが前記第2の位置変化を検出することに基づき、前記ディスプレイへの出力のために前記第2のアニメーションをレンダリングするように構成された、光学システム。
  2. 前記筐体は、前記ディスプレイを更に含む第1の筐体である、請求項1に記載の光学システム。
  3. 前記ディスプレイ、前記センサ、及び前記プロセッサは、前記第1の筐体に結合される第2の筐体内に統合される、請求項2に記載の光学システム。
  4. 前記第1の位置変化は、前記第1の位置からの第1の角度を定義し、及び前記第2の位置変化は、前記第1の位置からの第2の角度を定義し、前記第2の角度は前記第1の角度よりも大きい、請求項1に記載の光学システム。
  5. 前記第1の角度は10度を超える、請求項4に記載の光学システム。
  6. 前記第2の角度は14.7度である、請求項5に記載の光学システム。
  7. ヘッドマウント筐体を介してユーザに仮想現実経験を提供する方法であって、
    プロセッサを使用して、前記筐体を介してユーザにより見られる画像をレンダリングすることであって、前記筐体はディスプレイに結合される、レンダリングすることと、
    前記プロセッサを使用して、前記筐体の第1の位置変化を検出することと、
    前記プロセッサを使用して、前記第1の変化よりも大きい変化を定義する前記筐体の第2の位置変化を検出することと、
    前記プロセッサを使用して、前記ディスプレイへの出力のために第1のアニメーションをレンダリングすることと、
    前記第1の位置変化を検出する前記プロセッサの状態において、前記プロセッサを含む計算システムに第2のアニメーションを事前ロードすることと、
    前記プロセッサを使用して、前記第2の位置変化を検出する前記プロセッサの状態において、前記ディスプレイへの出力のために前記第2のアニメーションをレンダリングすることと
    を含む方法。
  8. 第1及び第2の画像は、それぞれ第1及び第2の光路を介してユーザの第1及び第2の目によって見られる前記ディスプレイのそれぞれの部分によって提供される、請求項7に記載の方法。
JP2017560742A 2015-06-01 2015-09-14 仮想現実の反応性アニメーション Ceased JP2018524673A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562169137P 2015-06-01 2015-06-01
US62/169,137 2015-06-01
PCT/US2015/049897 WO2016195733A1 (en) 2015-06-01 2015-09-14 Reactive animation for virtual reality

Publications (2)

Publication Number Publication Date
JP2018524673A true JP2018524673A (ja) 2018-08-30
JP2018524673A5 JP2018524673A5 (ja) 2018-10-18

Family

ID=54197110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017560742A Ceased JP2018524673A (ja) 2015-06-01 2015-09-14 仮想現実の反応性アニメーション

Country Status (6)

Country Link
US (1) US20180169517A1 (ja)
EP (1) EP3302740A1 (ja)
JP (1) JP2018524673A (ja)
KR (1) KR20180013892A (ja)
CN (1) CN107708819A (ja)
WO (1) WO2016195733A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10551993B1 (en) * 2016-05-15 2020-02-04 Google Llc Virtual reality content development environment
US10868848B2 (en) * 2016-07-25 2020-12-15 Peraso Technologies Inc. Wireless multimedia communications system and method
CN107229333B (zh) * 2017-05-25 2018-08-14 福州市极化律网络科技有限公司 基于视野变换的最佳参照物选取方法及装置
CN107203267B (zh) * 2017-05-25 2018-10-02 福州市极化律网络科技有限公司 基于视野判断的虚拟世界探索方法及装置
US11537264B2 (en) 2018-02-09 2022-12-27 Sony Interactive Entertainment LLC Methods and systems for providing shortcuts for fast load when moving between scenes in virtual reality
US11048483B2 (en) 2019-09-24 2021-06-29 Rockwell Automation Technologies, Inc. Industrial programming development with an extensible integrated development environment (IDE) platform
US11042362B2 (en) 2019-09-26 2021-06-22 Rockwell Automation Technologies, Inc. Industrial programming development with a trained analytic model
US11163536B2 (en) 2019-09-26 2021-11-02 Rockwell Automation Technologies, Inc. Maintenance and commissioning
US11392112B2 (en) * 2019-09-26 2022-07-19 Rockwell Automation Technologies, Inc. Virtual design environment
CN110958325B (zh) * 2019-12-11 2021-08-17 联想(北京)有限公司 一种控制方法、装置、服务器及终端

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014128810A1 (ja) * 2013-02-22 2014-08-28 ソニー株式会社 ヘッドマウントディスプレイ及び画像表示装置
WO2016002318A1 (ja) * 2014-06-30 2016-01-07 ソニー株式会社 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像処理システム
JP2016115122A (ja) * 2014-12-15 2016-06-23 株式会社コロプラ ヘッドマウントディスプレイシステム、ヘッドマウントディスプレイへ表示するための方法、及びプログラム
JP2016177748A (ja) * 2015-03-23 2016-10-06 株式会社コロプラ コンピュータ・プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090013263A1 (en) * 2007-06-21 2009-01-08 Matthew Jonathan Fortnow Method and apparatus for selecting events to be displayed at virtual venues and social networking
US9348141B2 (en) * 2010-10-27 2016-05-24 Microsoft Technology Licensing, Llc Low-latency fusing of virtual and real content
US20150316766A1 (en) * 2012-03-23 2015-11-05 Google Inc. Enhancing Readability on Head-Mounted Display
US9671566B2 (en) * 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
WO2014200779A2 (en) * 2013-06-09 2014-12-18 Sony Computer Entertainment Inc. Head mounted display
US20150097719A1 (en) * 2013-10-03 2015-04-09 Sulon Technologies Inc. System and method for active reference positioning in an augmented reality environment
US10001645B2 (en) * 2014-01-17 2018-06-19 Sony Interactive Entertainment America Llc Using a second screen as a private tracking heads-up display
US9551873B2 (en) * 2014-05-30 2017-01-24 Sony Interactive Entertainment America Llc Head mounted device (HMD) system having interface with mobile computing device for rendering virtual reality content
US9910505B2 (en) * 2014-06-17 2018-03-06 Amazon Technologies, Inc. Motion control for managing content

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014128810A1 (ja) * 2013-02-22 2014-08-28 ソニー株式会社 ヘッドマウントディスプレイ及び画像表示装置
WO2016002318A1 (ja) * 2014-06-30 2016-01-07 ソニー株式会社 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像処理システム
JP2016115122A (ja) * 2014-12-15 2016-06-23 株式会社コロプラ ヘッドマウントディスプレイシステム、ヘッドマウントディスプレイへ表示するための方法、及びプログラム
JP2016177748A (ja) * 2015-03-23 2016-10-06 株式会社コロプラ コンピュータ・プログラム

Also Published As

Publication number Publication date
US20180169517A1 (en) 2018-06-21
WO2016195733A1 (en) 2016-12-08
CN107708819A (zh) 2018-02-16
EP3302740A1 (en) 2018-04-11
KR20180013892A (ko) 2018-02-07

Similar Documents

Publication Publication Date Title
JP2018524673A (ja) 仮想現実の反応性アニメーション
JP7366196B2 (ja) 広範囲同時遠隔ディジタル提示世界
JP6700463B2 (ja) ヘッドマウントディスプレイ上の視覚的作用を制限するためのフィルタリング及びペアレンタルコントロール法
JP6912661B2 (ja) 検出された手入力に基づく仮想手ポーズのレンダリング
Anthes et al. State of the art of virtual reality technology
EP3458937B1 (en) Co-presence handling in virtual reality
US10296086B2 (en) Dynamic gloves to convey sense of touch and movement for virtual objects in HMD rendered environments
Karthika et al. Hololens
Kang Effect of interaction based on augmented context in immersive virtual reality environment
JP2022184724A (ja) コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム
WO2024129277A1 (en) Reconstruction of occluded regions of a face using machine learning
CN112262373B (zh) 基于视图的断点
Guo Application of Virtual Reality Technology in the Development of Game Industry
Pranith et al. Real‐Time Applications of Virtual Reality
Seligmann Creating a mobile VR interactive tour guide
US20240177359A1 (en) Training a machine learning model for reconstructing occluded regions of a face
US20230381644A1 (en) Game Save System and Method
Webster et al. Turn-key solutions: Virtual reality
Trivedi et al. Virtual and Augmented Reality
CN106484114B (zh) 基于虚拟现实的交互控制方法及装置
Hao A Serious Game: Warped Reality
KR20210006689A (ko) 게임 이미지 변경 방법 및 장치
Budhiraja Software techniques for improving head mounted displays to create comfortable user experiences in virtual reality

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180906

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191016

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191111

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200114

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20200624