JP2024001210A - 遊園地乗り物のための触覚フィードバックシステム及び方法 - Google Patents

遊園地乗り物のための触覚フィードバックシステム及び方法 Download PDF

Info

Publication number
JP2024001210A
JP2024001210A JP2023175134A JP2023175134A JP2024001210A JP 2024001210 A JP2024001210 A JP 2024001210A JP 2023175134 A JP2023175134 A JP 2023175134A JP 2023175134 A JP2023175134 A JP 2023175134A JP 2024001210 A JP2024001210 A JP 2024001210A
Authority
JP
Japan
Prior art keywords
ride
vehicle
screen
amusement park
haptic feedback
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023175134A
Other languages
English (en)
Inventor
グレゴリー エス ホール
S Hall Gregory
ダンテ ラマー ブルーノ
Lamar Bruno Dante
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universal City Studios LLC
Original Assignee
Universal City Studios LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universal City Studios LLC filed Critical Universal City Studios LLC
Publication of JP2024001210A publication Critical patent/JP2024001210A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G7/00Up-and-down hill tracks; Switchbacks
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G31/00Amusement arrangements
    • A63G31/16Amusement arrangements creating illusions of travel
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72427User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/013Force feedback applied to a game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04809Textured surface identifying touch areas, e.g. overlay structure for a virtual keyboard
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】乗り物車両の動きや遊園地アトラクションの目に見える風景以上のものを体験することができる。【解決手段】遊園地乗り物システムは、乗り物車両12と、乗り物経路上の乗り物車両12の位置を追跡し得る乗り物制御システム50と、表面改質構成要素を有する画面を有する触覚フィードバックシステム40と、を含む。表面改質構成要素は、乗り物車両12上に設置され得る。触覚フィードバックシステム40はまた、メモリとプロセッサとを有する制御システムを含む。メモリは、プロセッサにより実行されたときに、位置と関連付けられた記憶された風景32に基づいて、触覚フィードバックシステム40に乗り物制御システム50からのデータを乗り物車両12の周囲の風景32を表す触覚情報に変換させ得る命令を記憶する。【選択図】図2

Description

[関連出願の相互参照]
この出願は、2018年5月16日に出願された、米国仮特許出願第62/672,285号の利益を主張し、その米国仮特許出願はその全体が参照により本明細書に組み込まれる。
本開示は、概して、遊園地の分野に関する。より具体的には、本開示の実施形態は、遊園地体験を高めるために利用され、遊園地乗り物及び他のアトラクションのための触覚フィードバック技術を含む方法及び設備に関する。
この欄は、下記に記載され及び/又は請求される、本技術の様々な態様に関連し得る技術の様々な態様を読者に紹介することを意図している。この説明は、本開示の様々な態様のより良い理解を促進するための背景情報を読者に提供するのに役立つものと考えられる。したがって、これらの記述はこの観点で読まれるべきであり、先行技術の承認としてではないことを理解されたい。
様々な遊園地乗り物は、ユニークな動きや視覚的体験をゲストに提供するために作り出されてきた。興奮は、多くの場合、乗り物が乗り物経路に沿って動くとき又はモーションルーティンに従うときに、車両の速度又は方向の変化によって発生する。動きに加えて、乗り物経路に沿った車両周囲の風景が、遊園地乗り物の全体的な興奮を高める。現在、遊園地乗り物車両の態様を強化することを可能にする機能を含むように、遊園地乗り物システムを改善することが望ましいということが認識されている。
最初に請求された主題と範囲が同等の特定の実施形態を以下に要約する。これらの実施形態は、開示の範囲を限定することを意図するものではなく、むしろ、これらの実施形態は、特定の開示される実施形態の簡潔な要約を提供することのみを意図する。実際に、本開示は、以下で説明される実施形態と類似又は異なり得る様々な形態を含み得る。
実施形態によれば、遊園地乗り物システムは、乗り物車両、乗り物経路上の乗り物車両の位置を追跡し得る乗り物制御システム、及び、表面改質構成要素を有する画面を有する触覚フィードバックシステムと、を含む。表面改質構成要素は、乗り物車両上に設置することができる。触覚フィードバックシステムはまた、メモリとプロセッサとを有する制御システムを含む。メモリは、プロセッサにより実行されたときに、位置に関連付けられた記憶された風景に基づいて、触覚フィードバックシステムに乗り物制御システムからのデータを乗り物車両の周囲の風景を表す触覚情報に変換させ得る命令を記憶する。
実施形態によれば、方法は、表面改質構成要素を備える画面を含む触覚フィードバックシステムで、遊園地乗り物の乗り物コントローラから乗り物経路に沿った乗り物車両の位置を示す位置データを受信することと、触覚表現を乗り物経路に沿った位置と相関させるデータベースに基づいて遊園地乗り物の風景を表す触覚情報に位置データを変換することと、画面の表面改質構成要素を作動させることにより、触覚情報に基づいて、画面の外面に、その位置での遊園地乗り物の風景を再現することと、を含む。表面改質構成要素は、画面の外面の一部を上下させるように構成されている。
実施形態によれば、遊園地乗り物システムは、遊園地乗り物の乗り物制御システムと通信可能に結合することができる触覚フィードバックシステムを含み、触覚フィードバックシステムは、乗り物車両上に設置され得る画面を有し、表面改質構成要素と、遊園地乗り物の乗り物経路に沿って乗り物車両の位置に基づいて遊園地乗り物の風景を再現し得る命令を記憶するメモリと、乗り物制御システムからのデータにより示される特定の位置での風景に対応する触覚フィードバックを、表面改質構成要素を介して触覚フィードバックシステムに提供させる命令を実行し得るプロセッサと、を有する。
本開示のこれら及び他の特徴、態様、及び利点は、以下の詳細な説明が、図面全体にわたって同様の文字が同様の部分を表す添付の図面を参照して読まれるときに、より良く理解されるであろう。
本実施形態による、ゲストの周囲の乗り物環境を再現する触覚フィードバックを提供するように構成された触覚フィードバックシステムを有する遊園地乗り物を示す図である。 本実施形態による、触覚フィードバックシステムに統合された図1の遊園地乗り物の乗り物制御システム、乗り物環境(例えば、風景)のモデルを記憶する乗り物制御システムのブロック図である。 本実施形態による、図2の乗り物制御システムからの命令に基づいて、ビューに対応する画面又は表面の触感(texture)を作り出すために作動するように構成されたセルを組み込んだ触覚フィードバックシステムの画面又は表面を示す図である。 本実施形態による、グリッドパターンで配列されたセルを有する図3の画面であって、ビューに対応する触感を与えるようにされた部分(textured portion)を有する画面の平面図である。 本実施形態による、乗り物制御システムからの命令に基づいてポートを介して注入された流体に応じてビューに対応する触感効果を提供するために調整される(例えば、流体圧力に基づいて膨張させる)ように構成された柔軟層を組み込む、図2の触覚フィードバックシステムの画面又は表面を示す図である。 本実施形態による、乗り物制御システムからの命令に基づいてビューに対応する画面又は表面の異なる領域に異なる振動を提供するために振動するように構成された図2の触覚フィードバックシステムの画面又は表面を示す図である。 本実施形態による、乗り物車両の窓に対応するか、乗り物車両の窓を含む複数のアクティブ表面を有する触覚フィードバックシステムを備えた乗り物車両を示す図であり、各アクティブ表面は、乗り物制御システムからの命令に基づいてそれぞれのビューについての触覚情報を提供するように構成されている。 本実施形態による、乗り物制御システムからの命令に基づく設置された乗り物車両の位置とアクティブ表面の方向とに基づいてビュー情報を提供するために回転するように構成されたアクティブ表面(例えば、図3~図6に関して記載される画面若しくは表面又はそれらの組み合わせ)を含む触覚フィードバックシステムを有する乗り物車両を示す図である。
本開示の一以上の具体的な実施形態が以下に説明されるであろう。これらの実施形態の簡潔な説明を提供するために、実際の実装の全ての特徴が本明細書に記載されていない場合がある。いずれのエンジニアリング又は設計プロジェクトと同様に、このような実際の実装の開発では、実装毎に異なり得る、システム関連及びビジネス関連の制約への準拠などの、開発者の特定の目標を達成するために、実装固有の多数の決定を行わなければならないということを理解されたい。さらに、そのような開発努力は、複雑で時間を要する場合もあるが、それにもかかわらず、この開示の利益を有する当業者にとって、設計、製作、及び製造の日常的な作業であることを理解されたい。
遊園地アトラクションは、動き及び視覚的効果を使用して、ゲストに楽しく全体的に前向きな体験を提供する。特定の遊園地アトラクションは、遊園地アトラクションの乗り物車両が遊園地アトラクションの乗り物経路に沿って走行するときに、風景を変更することにより、環境をシミュレートすることができる。風景は、テーマアトラクションに関連付けられた環境をシミュレートするアニメの人物、キャラクタ、及び景観の組み合わせを含み得る。例えば、遊園地アトラクションは、乗り物の風景に関連付けられた情報を記憶し、乗り物経路に沿って乗り物車両を追跡する乗り物風景システム(RSS)を含み得る。例えば、RSSは、乗り物車両若しくは他の物体又は遊園地アトラクションのエリアの周囲の風景の3次元(3D)情報(例えば、3Dマップ又はモデル)を記憶する機能(例えば、処理電気回路及びメモリ)を含む。RSSはまた、実行されたときに、遊園地アトラクションの様々な構成要素を作動させて、乗り物経路に沿った乗り物車両の位置に基づいて、乗り物車両の風景又は及び/又は機能(例えば、乗り物経路に沿った方向、速度等)を変更する命令を記憶することができ、それによって乗り物の動作中に興奮をゲストに提供する。本実施形態は、乗り物の風景に関連付けられた光学的データ及び/又は他のデータを触覚体験に変換し、乗り物体験を高める触覚フィードバックを使用する遊園地乗り物システムを含む。乗り物車両の周囲の風景に関連付けられた3D情報及びデータを使用することにより、開示されたシステム及び方法は、リアルタイムに乗り物車両の周囲の風景を表す触覚情報を生成する。このように、ゲストは、自分の触覚を使って、遊園地アトラクションの風景を体験することができる。「リアルタイム」の用語は、発生した実際のイベントに本質的に対応する、遅延が制限された時間枠を指すことに注意されたい。
本明細書で開示された遊園地乗り物システムは、1以上のメモリ及び1以上のプロセッサを有する乗り物制御システムを含み得る。これらのメモリ及びプロセッサは、以下でさらに詳細に記載されるような特徴及び機能を含み得る。特定の実施形態では、制御システムは、乗り物車両上に内在するコンピュータ(例えば、タブレット)又は複数のコンピュータ(例えば、様々な携帯機器)と通信可能に結合され得る。1以上のコンピュータは、遊園地アトラクションの動作にわたってゲストが利用可能である。集合的に、制御システム及びコンピュータは、以下で更に詳細に説明される特徴を組み込み、これらの機能を実行することができる。乗り物制御システムは、乗り物経路に沿って乗り物車両を追跡し、1以上のコンピュータ上で触覚機能を作動させ、ゲストが触覚で乗り物車両の周囲の風景を体験することができるように構成されている。例えば、乗り物制御システムは、乗り物内(例えば、待ち行列、乗り物車両、乗車ステーションで)のゲストの周囲の風景を表すという方法で画面の表面を変更する機能を1以上のコンピュータの画面上で作動させることができる。ゲストは、画面上で手を触れたり動かしたりして周囲の風景を感じ、理解することができ、これにより、乗り物車両の動きや遊園地アトラクションの目に見える風景以上のものを体験することができる。
上記を念頭に置いて、図1は、本開示による、遊園地アトラクションにいる間、ゲストがその周囲の風景を感じ、理解することを可能にする機能を含む遊園地アトラクションの実施形態を示す。特に、図1は、乗り物経路14(例えば、トラック)に沿って走行する複数の乗り物車両12を備えた遊園地アトラクション10(以下、「乗り物10」と称する。)の実施形態を示す。特定の実施形態では、乗り物車両12は、互いに接続された複数の乗り物車両の列車を形成する。他の実施形態では、各乗り物車両12は、乗り物10の他の乗り物車両12から分離され、他の乗り物車両12と独立に動作する。乗り物車両12は、乗り物10の動作にわたって1以上のゲスト20を支持及び輸送する。加えて、乗り物車両12それぞれは、乗り物12に乗っているときにゲスト20が前向きな体験を有することができる様々な機能を含む。例えば、乗り物車両12は、乗り物車両12の位置を追跡し、乗り物10のコントローラ30と通信する追跡装置26(例えば、全地球測位システム追跡装置、センサなど)を含むことができる。追跡装置26は、信号28を乗り物10のコントローラ30に出力し、コントローラ30に乗り物経路14に沿った乗り物車両12の位置に関連付けられた情報を提供する。乗り物車両12の位置に基づいて、追跡装置26により決定されるように、コントローラ30は、信号36を介して、乗り物車両12の周囲の風景32の1以上の機能を作動し、及び/又は、乗り物車両12の特定の動き(例えば、回転、速度、方向の変更など)を制御し、ゲスト20にエキサイティングで楽しめる体験を提供することができる。風景32は、テーマアトラクションを作り出し、ゲスト20を楽しませる視覚的効果を作り出すオブジェクト及び/又はアニメの人物34を含む。したがって、乗り物10の動作中、信号36は、リアルタイムで風景32又はアニメの人物34の特定の特徴を作動させ、ゲスト20を楽しませ、従事させる。特定の実施形態では、各乗り物車両12は、追跡装置26を含む。他の実施形態では、乗り物車両12の一部のみが追跡装置26を含む。例えば、乗り物車両12が互いに結合している実施形態では、追跡装置26は、乗り物車両12の一部(例えば、接続された乗り物車両のグループ内の全ての他の乗り物車両12)に配置することができる。
乗り物車両12は、ゲスト20が、周囲の風景32を見る代わり又は見ることに加えて、周囲の風景32を感じ、理解することができる触覚フィードバックシステム40(例えば、コンピュータ)又はゲストインタフェースを含み得る。例えば、以下に更に詳細に説明されるように、触覚フィードバックシステム40の画面上に、風景32及び/又は他の周囲の特徴に関連付けられたコントローラ30により提供された情報(例えば、光学的データ)を再現することができる。触覚フィードバックシステム40は、窓、乗り物車両12に固定又は取り外し可能に取り付けられたコンピュータタブレット、又は、表面上で風景32を再現する方法で画面の表面の触感を変更する作動可能な表面機能を有する任意の他の適切な画面を含むことができる。表面の触感を変更することにより、ゲスト20は、表面を触って風景32を感じ、理解することができる。特定の実施形態では、触覚フィードバックシステム40は、乗り物10の待ち行列又は乗車ステーションにいる間にゲスト20に提供される携帯用電子機器であり得る。この特定の実施形態では、乗り物車両12は、触覚フィードバックシステム40ためのドッキングステーションを含み得る。携帯用の触覚フィードバックシステムはまた、全体的に楽しませ前向きな体験を提供する待ち行列周囲の環境をゲスト20に体験させることができる。携帯用の触覚フィードバックシステムは、乗り物10内(例えば、待ち行列内)のゲスト20の位置が追跡できるように追跡装置(例えば、追跡装置26)を含み得る。
触覚フィードバックシステム40は、ドッキングステーション結合されているか、乗り物車両12が乗車ステーションから解放される前に、触覚フィードバックシステム40は、触覚フィードバックシステム40が乗り物10で使用するために準備ができていることを示すペアリング信号46をコントローラ30に送信することができる。使用の準備ができると、触覚フィードバックシステム40は、信号42を受信し、乗り物車両12が乗り物経路14に沿って動いているときに触覚フィードバックシステム40の画面上に風景32を再現することができる。例えば、使用しないとき、触覚フィードバックシステム40は、待機モードとすることができる。待機モードである間、触覚フィードバックシステム40は、コントローラ30から信号42を受信しない可能性があり、したがって、風景32は触覚フィードバックシステム40の画面上に再現されない。触覚フィードバックシステム40をアクティブモードとするために(例えば、画面上に風景32を再現するモード)、ゲスト20又は乗り物操作者は、触覚フィードバックシステム40を動作させて、ペアリング信号42を送信するスイッチを作動させることができる。乗り物10の終了後、コントローラ30は、別のゲスト20が乗り物10に入るまでシステム40を待機モードにするために、信号を触覚フィードバックシステム40に送信することができる。特定の実施形態では、触覚フィードバックシステム40は、特定の時間後に活動が検出されなかった場合、待機モードに入ることができる。例えば、画面は、ゲスト20が画面を触っていることを検出するセンサ(例えば、圧力センサ)を含むことができる。画面が長期間触れられていないままである場合、触覚フィードバックシステム40は、自動的に待機モードとすることができる。ゲスト20が画面に触れると、触覚フィードバックシステム40は、自動的にアクティブモードに入る。
コントローラ30は、例えば風景32及びその触覚形式での再現に対応するデータなど、乗り物10に関連付けられた情報を記憶し、乗り物10内の乗り物車両12及び/又はゲスト20の位置を追跡するように構成されている。乗り物車両12及び/又はゲスト20の位置に基づいて、コントローラ30は、触覚フィードバックシステム40に信号42を送信する。信号42は、風景32に関連付けられたデータを含み、触覚フィードバックシステム40を動作させて、周囲の風景32を再現する画面上の表面機能を作動させる。ゲスト20は、表面機能を感じ、理解するために画面を触れることができ、それによって、他の感覚に加えてゲスト20の触覚を使用して、周囲の環境(例えば、風景32及びアニメの人物34)体験することができる。
以下の実施形態の議論を容易にするために、乗り物車両12を追跡することを言及する。しかしながら、開示された実施形態はまた、乗り物10又は遊園地内の他の位置でゲスト20を追跡することに適用可能であることを理解されたい(例えば、携帯用触覚フィードバックシステムを介して)。乗り物車両12、コントローラ30、及び触覚フィードバックシステム40はそれぞれ、それらの間の通信を容易にし、ゲスト20の遊園地体験を高める機能を含む。図2は、コントローラ30がゲスト20により使用される触覚フィードバックシステム40に統合された乗り物制御システム50の実施形態のブロック図を示す。図示された実施形態では、乗り物制御システム50は、コントローラ30、触覚フィードバックシステム40、作動可能な風景32、及び乗り物車両12を含む。コントローラ30、触覚フィードバックシステム40、風景32、及び乗り物車両12間の通信は、無線又は有線接続を介することができる。コントローラ30は、乗り物10の状態(例えば、乗車、降車、操作、非操作、遅延など)を監視し、操作パラメータを制御する(例えば、開始、一時停止、再開、リセット、又はその他のアトラクションのパラメータを調整する)ように構成されている。加えて、コントローラ30は、これらに限定されないが、乗車ステーションからの乗り物車両12の解放、降車ステーションでの乗り物車両の停止、乗り物経路14に沿った乗り物車両12の速度及び動きの制御、風景32、アニメの人物34、乗り物10の機能の中で特に触覚フィードバックシステム40の視覚的効果の作動など、乗り物10の様々な機能を制御するように構成されている。
上記のように、コントローラ30は、乗り物10の風景32に関連付けられた情報(例えば、光学的データ)を含む信号42を送信する。信号42は、触覚フィードバックシステム40を動作させて、周囲の風景32を再現する画面上で表面機能を作動させる。触覚フィードバックシステム40を作動させ、コントローラ30と触覚フィードバックシステム40との間の通信を可能にするために、触覚フィードバックシステム40は、コントローラ30にペアリング信号46を送信することができる。ペアリング信号46は、乗り物車両12が乗車ステーションから解放される準備ができたとき(例えば、拘束具が固定され、乗り物ドアが閉められたときなど)、乗り物操作者又はゲスト20がスイッチを作動させるとき(例えば、触覚フィードバックシステム40のボタンを押す)、触覚フィードバックシステム40が乗り物車両のドッキングステーションに配置されたとき(例えば、携帯用触覚フィードバックシステム40を使用する場合)に送信され得る。触覚フィードバックシステム40は、1以上のプロセッサ54、1以上のメモリ56(例えば、ハードドライブ)、及び画面58を含むことができる。メモリ56は、プロセッサ54により実行されたときに、刺激に応答してコントローラ30にペアリング信号46を送信するように触覚フィードバックシステム40に命令する命令を記憶する。例えば、ゲスト20又は乗り物操作者は、ペアリング信号46を送信するために、触覚フィードバックシステム40のスイッチを作動させることができる。ペアリング信号46は、コントローラ30に、触覚フィードバックシステム40が信号42を介して乗り物10の視覚的態様(例えば、風景32)に関連付けられたコントローラ30に記憶された情報を受信する準備ができていることを示す。
触覚フィードバックシステム40と同様に、コントローラ30は、乗り物10の境界内での乗り物車両12及び特定の実施形態ではゲスト20の位置(例えば、携帯用の触覚フィードバックシステムの追跡装置により監視される待ち行列の位置)を追跡する追跡装置(例えば、追跡装置26)から受信した情報に基づいて、コントローラ30が乗り物10の特定の構成要素を監視し、追跡し、作動させることができるように、少なくとも1以上のプロセッサ60と1以上のメモリ62(例えば、ハードドライブ)とを含む。メモリ56、62は、1以上の有形の、非一時的な機械可読媒体を含む。例として、そのような機械可読媒体は、RAM、ROM、EPROM、EEPROM、光学ディスクストレージ、磁気ディスクストレージ若しくは他の磁気記憶装置、又は機械で実行可能な命令又はデータ構造の形式で所望のプログラムコードを実行又は記憶するために使用でき、プロセッサ54、60により又は任意の汎用若しくは特殊目的のコンピュータ若しくはプロセッサを備えた他の機械によってアクセス可能である任意の他の媒体を含み得る。コントローラ30及び触覚フィードバックシステム40はまた、乗り物10の他の構成要素との通信を容易にするために、通信回路64、68及び/又は入力出力回路70、72を含み得る。加えて、コントローラ30は、無線又は有線接続を介して、操作中で1以上の乗り物機能を制御するのに使用される入力を提供するために乗り物操作者が使用することができる操作入力装置又は操作インタフェースに結合され得る。
コントローラ30のメモリ62は、乗り物10に関連付けられた3D情報(例えば、モデル74)を記憶することができる。例えば、メモリ62は、乗り物10の3Dマップを記憶することができる。3Dマップは、乗り物経路14と、乗り物経路14に沿った乗り物車両12の周囲の風景32の構造的特徴(例えば、アニメの人物、キャラクタ、景観など)とを含むことができる。本質的に、この3Dマップには、周囲の触覚表現を提供して、これらの周囲の触覚体験を可能にし、他の感覚(例えば、視覚入力、音声入力、温度)を補うデータが含まれ得る。乗り物10の3Dマップ、追跡装置26からのタイミング又は位置データに基づいて、コントローラ30は、乗り物10の操作中の乗り物経路14に沿った乗り物車両12の各位置、及び/又は乗り物10の境界内のゲスト20の位置での構造的特徴を特定することができる。コントローラ30のプロセッサ60は、3Dマップからのデータ(例えば、光学的データ)を使用して、触覚フィードバックシステム40の画面59の表面上で機能を作動させることができる。上記の通り、画面58の表面上で作動される機能は、乗り物車両12の周囲の風景32を表す。例えば、画面58は、画面58の表面を改質し、又は、例えば乗り物経路14に沿った乗り物車両12及び/又はゲスト20の位置に関連付けられたデータに応じて信号(例えば、音波、振動)を発する1以上の機能を含むことができる。作動されると、画面58上の機能は、乗り物車両12の周囲の風景32を再現する触覚情報にデータを変換する。すなわち、1以上の機能は、画面58の触感を変更し、触覚フィードバックを提供し、ゲスト20が彼らの手を使用して彼らの他の感覚に加えて乗り物10の操作中に周囲の風景32を感じ、理解することを可能にする。
3Dマップに加えて、コントローラ30のメモリ62はまた、本明細書に記載の方法及び制御アクションを実行するために、コントローラ30のプロセッサ60により実行可能な命令を記憶する。例えば、プロセッサ60は、信号28を介して乗り物車両12の位置を追跡するための命令を実行することができる。プロセッサ60はまた、乗り物経路14に沿った乗り物車両12の位置に基づいて特定の時間に、信号36を介して、乗り物10及び/又は風景32の1以上の機能を作動させるための命令を実行することができる。例えば、乗り物10の操作中、風景32の1以上の部分がアニメーション化され、乗り物車両12が風景32に近接しているときに、アクション(例えば、移動、話す)又は他の視覚的効果を実行することができる。乗り物経路14に沿った乗り物車両12の位置に基づいて、乗り物10の風景32の一部を作動させることにより、ゲスト20は、楽しく愉快な体験を提供する、乗り物車両12の周囲のアニメーション及び視覚的効果を容易に見る又は理解することができる。
上記の通り、触覚フィードバックシステム40は、ゲスト20に触覚を介して風景32を体験することも可能にすることができる。したがって、コントローラ30のプロセッサ60はまた、コントローラ30のメモリ60に記憶された命令を実行し、風景32の3Dマップに関連付けられたデータを含む信号42を触覚フィードバックシステム40に送信することができる。信号42の受信に応答して、触覚フィードバックシステム40のプロセッサ54は、触覚フィードバックシステム40のメモリ56に記憶された命令を実行し、乗り物車両12の位置に基づいてリアルタイムに画面58の表面機能を作動させる。画面58上の作動された表面機能は、乗り物車両12の周囲の風景32をシミュレートする(例えば、再現する)。例えば、画面58は、乗り物10の間コントローラ30により送信された信号42により動作される刺激に応答する1以上の機能を含む。1以上の表面機能は、風景32を再現するために画面58の表面の触感を変更する。ゲスト20は、画面58の表面を横切って手を触れて動かし、触覚で周囲の風景32を感じ、理解することができる。このように、ゲスト20は、本明細書で開示された触覚フィードバックシステム40を含まない乗り物に比べて、より楽しくエキサイティングな体験をすることができる。
触覚フィードバックシステム40を乗り物10のコントローラ30に統合することは、風景32を再現する画面58の解像度を向上させることができる。これは、部分的には、風景32をスキャンし、スキャンから収集されたデータを分析してリアルタイムに風景32を再現する触覚フィードバックシステム40よりも、風景32に関連付けられた3Dマップ及び他の情報を提供するコントローラ30によるものである。さらに、触覚フィードバックシステム40が風景32に関連付けられたデータをスキャン及び分析しないので、触覚フィードバックシステム40が風景32をスキャンするためのリアルタイムセンサを有する必要がなくなり得る。したがって、触覚フィードバックシステム40の設計が簡単になり、それによって触覚フィードバックシステム40の全体のコスト及び動作効率を低減することができる。
信号42に応答して画面58の1以上の機能の作動を可能にするために、触覚フィードバックシステム40のプロセッサ54は、メモリ56に記憶された命令を実行し、信号42から受信した情報(例えば、光学的データ)を、点字と同様に、周囲の風景32に関連付けられた構造的機能の形状を形成する、画面58の表面上の隆起に変換することができる。例えば、図3は、画面58が、外面82の少なくとも一部で周囲の風景32に関連付けられた構造的特徴の形状を形成する隆起80を形成する複数のペグ(peg)78(又はセル)を含む触覚フィードバックシステム40の実施形態を示す。図示された実施形態では、画面58の外面82は、平面部84(例えば、持ち上げられていない、平らにされた)と、隆起80を有する隆起部86とを含む。各部84、86は、画面58の外面82に風景32をシミュレートする輪郭を形成し、ゲスト20が彼らの触覚を使って彼らの周囲の風景32を感じることを可能にする。複数のペグ78は、図4に示すように、グリッドパターンで配列することができる。ペグ78は、画面上の画素と同様のものである。画面58の表面82上のペグ78の量は変化し得る。画面58の単位インチ当たりのペグ78の数が多いほど、表面82上で再現される風景32の解像度が高まる。ペグ78は、画面58から離れる方向及びゲストの手に向かう方向に1以上の刺激(例えば、磁場、電流)に応答して動く。ペグ78の少なくとも一部が画面58から突き出て、それによって画面58の表面82上に隆起80を形成する。
特定の実施形態では、画面58は、刺激に応答して膨張又は収縮するポケット又はセルを有し得る。例えば、図5は、画面58がポケット88を含む触覚フィードバックシステム40の実施形態を示す。各ポケット88は、受信された信号に基づいて膨張又は収縮し、外面82上に隆起80を形成することができる柔軟表面層(例えば、膜、フィルムなど)を含むことができる。各ポケット88は、独立に作動することができ、選択的に乗り物車両12の周囲の風景32の構造的特徴に関連付けられた形状を形成する隆起80を形成することができる。このように、触覚フィードバックシステム40は、乗り物10の操作中に乗り物車両12が乗り物経路14に沿って動くときに風景32をリアルタイムで再現することができる。例えば、ポケット88は、隆起80を形成し、触覚情報を提供するために、ポケット88を膨張させる(又は膨らませる)流体で満たすことができる。具体的な例として、環境で見ることができるアニメの人物の顔もまた、ゲスト20の体験を向上させるように感じることができる。いくつかの実施形態では、触覚フィードバックは、直接的に風景に対応しない場合があるが、雰囲気を示す場合がある。例えば、静かで平和な環境は、滑らかな触覚フィードバックを提供することができる一方、不気味な環境は、滑らかな触覚フィードバックにより時間間隔を空けられた周期的な高強度の触覚活動を含むことができる。
図示された実施形態では、触覚フィードバックシステム40は、画面58の層の一部を形成する流体タンク90を含む。流体タンク90は、隆起80を形成するためにそれぞれのポケット88の表面層を膨張させるのに使用することができる任意の適切な流体92(例えば、気体、液体又はその両方)を格納することができる。流体タンク90は、触覚フィードバックシステム40の特定数の使用後に補充することができる。使用中、流体タンク90は、流体92を流体タンク90に継続的に提供可能な流体源に取り外し可能に結合することができる。流体導管(fluid channel)98(又はポート)は、流動的にそれぞれのポケット88を流体タンク90に結合させる。各流体導管98は、隆起80を形成するために、独立に流体92をそれぞれのポケット88に供給する。例えば、動作において、触覚フィードバックシステム40のプロセッサ54は、刺激に応答して、流体タンク90とポケット88との間に配置されたバルブ100を作動させることができる。バルブ100が作動されると、流体導管98が開かれ、流体タンク90とポケット88との間の流体の伝達が可能になる。したがって、流体92が流体タンク90からポケット88に流れ、それによってポケット88を流体92で満たし、ポケット88の表面層を膨張させて、隆起80を形成する。風景32が乗り物車両12の位置に基づいて変更すると、触覚フィードバックシステム40のプロセッサ54は、別の刺激に応答してバルブ100を閉じ、流体92がポケット99に入るのを阻止して、それぞれのポケット88から流体92を解放し、流体92を流体タンク90に向かわせる排出導管108(又はポート)内に配置された排出バルブ104を開けることができる。一実施形態では、バルブ100は、流体92がポケット88の方向に流れてポケット88を膨張させ、隆起80を形成することを可能にするために一方向に切り替えられ、流体92が流体タンク90の方向に流れて流体92をポケット88から排出することを可能にするために別の方向に切り替えられる双方向バルブであり得る。この実施形態では、画面58は、排出導管108を有していなくても良い。
特定の実施形態では、画面58は、ポケット88とペグ78の組み合わせを含むことができる。各ポケット88及び/又はペグ78は、独立に作動して、乗り物車両12の周囲の風景32を再現する触覚情報(例えば、隆起80)を生成することができる。乗り物車両12が乗り物経路14に沿って動くとき、触覚フィードバックシステム40は、プロセッサ54を介して、画面58上に提供される触覚情報がリアルタイムに変更する風景32を再現するように変化するように作動するポケット88及び/又はペグ78を変化させる。ポケット88とペグ78の組み合わせは、ゲスト20が風景32の特徴を区別し得る異なる触感を感じることを可能にする。例えば、特定の実施形態では、ペグ78は、ポケット88内の流体92より大きな硬さを有することができる。したがって、ペグ78は、硬いもの(例えば、岩)を再現するために作動することができ、ポケット88は、柔らかいもの(例えば、水、葉など)を再現するために作動することができる。
別の実施形態では、ポケット88は、電気粘性(ER)又は磁性(ER)の材料などの材料を含むことができる。すなわち、ポケット88は、ER又はMR材料で満たすことができる。この特定の実施形態では、触覚フィードバックシステム40は、導管98、108を含まなくてよい。ER及びMR材料は、電気刺激及び磁気刺激にそれぞれ応答する。それぞれの刺激がないと、ER及びMR材料は液体状態である。しかし、それぞれの刺激が適用されると、ER及びMR材料の粘性が増加する。粘性の増加により、固体ゲルの形態をもたらし、それによって画面58の外面82上に隆起80を形成する。例えば、ER及びMR材料が液体状態であるとき、画面の外面82は、滑らか(例えば、平ら、ざらつきのない)であるように見える。すなわち、外面82は隆起80を有さない。しかし、それぞれの刺激が適用されるとき、ER及びMR材料の粘性が増加し、ポケット88に画面58の外面82上に隆起80を形成する方法で膨張させるように固体ゲルを形成する。
特定の実施形態では、触覚フィードバックシステム40は、信号42からの受信した情報(例えば、光学的データ)を音波又は振動に変換することができる。振動110は、図6に示すように、画面58の外面82上にパターン112を作り出し、乗り物車両12の周囲の風景32を再現する。例えば、外面82上の振動110の強度は、変わり得る。振動110の強度に基づいて、周囲の風景32を表す、外面82上の異なる形状及び/又は輪郭が作り出される。ゲスト20は、画面58を横切って指を走らせ、隆起80、表面変化、及び/又は振動110を感じることができ、それによって、彼らの触覚を使ってリアルタイムに乗り物車両12の周囲の風景32を体験することができる。
他の実施形態では、画面58は、磁場に応答する磁性粒子(例えば、ナノ磁気粒子)を含む。各磁性粒子は、コントローラ30から受信した信号42に応答して磁場により独立に作動することができる。磁性粒子は、画面58の外面82を改質し、触覚フィードバックをゲスト20に提供することができる。例えば、信号42に応答して、触覚フィードバックシステム40は、画面58の磁場を作動及び/又は変更させることができる。磁性粒子は、磁場に応答して振動することができる。振動110は、画面58上に周囲の風景32を表すパターン112を形成することができる。他の実施形態では、磁場は、磁性粒子に移動させることができる。例えば、磁場は、画面58上に傾斜を形成することができる。磁性粒子は、磁場に基づいて、画面58上の周囲の風景32を表すパターン112を形成するように移行することができる。
一実施形態では、画面58は、刺激(例えば、電流、温度)に応答する高分子化合物を含むことができる。例えば、画面58は、電気信号に応答して振動する強誘電性ポリマーなどの電気活性高分子(EPA)を含むことができる。触覚フィードバックシステム40は、コントローラ30からの信号42に応答して電気信号を生成するように構成することができる。振動110の強度に基づいて、ゲスト20は、乗り物車両12の周囲の風景32をシミュレートする、画面58上の異なる形状を感じることができる。一実施形態では、画面58は、異なる周波数及び強度で振動する発光ダイオード(LED)を含むことができる。LEDは、信号42に応答して触覚フィードバックシステム40のプロセッサ54により作動し、乗り物車両12が乗り物経路14に沿って走行するときに異なる強度の振動110に基づいて乗り物車両12の周囲の風景32をシミュレートすることができる。圧電材料、カーボンナノチューブなどの他の材料もまた、本開示の範囲内である。したがって、このように、乗り物車両12が乗り物経路14に沿って動くとき、触覚フィードバックシステム40は、画面58上に提供された触覚情報がリアルタイムに変化する風景32を再現するために変化するように、画面58の外面82を変化させる。
上記の通り、触覚フィードバックシステム40は、触覚フィードバックシステム40が乗り物10の動作中、風景32に関連付けられた情報をスキャン及び分析する必要がないように、乗り物制御システム50と統合することができる。このように、画面58に提供された触覚情報の解像度は、周囲の環境に関連する情報をスキャン及び分析する装置に比べて改善することができる。画面58上に提供された触覚フィードバックは、180°から360°の視野を表すことができる。触覚フィードバックシステム40は、乗り物車両12に固定的に取り付けられ又は取り外し可能に結合することができ、乗り物車両12に統合される1以上の画面を含むことができる。1以上の画面58は、窓、アーム又はハンドレスト、乗り物拘束具(例えば、ラップバー(lap bar))、ゲスト20が占有する乗客席の前に配置された乗客席の後ろ、又はゲスト20へのアクセスを容易にし、ゲスト20に快適を提供する任意の他の適切な位置に設置することができる。
図7は、触覚フィードバックシステム40が乗り物車両12の一部に固定された複数の画面58を含む、乗り物10の実施形態を示す。画面58は、ゲスト20が容易にアクセス可能な乗り物車両12の領域に設置されている。例えば、図示されるように、画面58は、乗り物車両12の窓124に設置されている。画面58の配列は、ゲスト20が乗り物車両12の周囲の風景32のかなりの部分の触覚体験を有することができるように、180°の視野を提供する。ゲスト20は、手を画面58の表面128上に置いて、乗り物車両12が乗り物経路14に沿って動くときにリアルタイムで乗り物車両12の周囲の風景32に対応する変化を感じることができる。図示された実施形態では、ゲスト20は、乗り物10の操作中、画面58を動かすことができない。
窓124は、透明又は不透明であり得る。特定の実施形態では、乗り物車両12は、使用されていないときに窓124を保持する窓区画(window compartment)を有することができる。このように、乗り物車両12は、窓124がゲスト20の視野を遮ることなく、ゲスト20により使用され得る。例えば、ゲスト20が乗り物車両12に入るとき、乗り物操作者は、車の窓を上げるのと同様に、窓区画から窓124を解放するスイッチを作動させることができる。乗り物10の終了後、コントローラ30は、窓区画内の窓124の保管を引き起こす信号を乗り物車両12に送ることができる。例えば、窓124は、窓区画に下げられても良い。
特定の実施形態では、画面58は移動可能である。例えば、触覚フィードバックシステム40は、図8に示すように、ゲスト20が触覚フィードバックシステム40、その結果として画面58を動かすことを可能にする可動アームに設置することができる。図示された実施形態では、触覚フィードバックシステム40は、乗り物車両12に取り付けられた可動アーム130上に配置される。可動アーム130は、旋回、回転、変位、スライド、ピボット、又は、ゲスト20が乗り物車両12の周囲の風景32を感じることができる方法でゲスト20が画面58を動かすことを可能にする他の移動をすることができる。特定の実施形態では、画面58は、乗り物車両12の周囲の風景32の一部、例えば約180°未満の視野に対応する光学的データ(例えば、信号42)を受信することができる。ゲスト20は、可動アーム130を介して、画面58を動かし、画面58を所望の視野領域に向けて配置し、選択された領域で乗り物車両12の周囲の風景32を感知することができる。
一実施形態では、可動アーム130は、触覚フィードバックシステム40のドッキングステーションの一部であり得る。上記の通り、触覚フィードバックシステム40は、携帯機器を含むことができる。携帯用の触覚フィードバックシステムは、乗り物10の入口又は乗車ステーションでゲスト20に提供することができる。ゲスト20が乗り物車両12に乗り込むと、乗り物操作者は、ゲスト20から携帯画面(例えば、携帯用の触覚フィードバックシステム)を回収し、当該画面をドッキングステーションに設置する。ドッキングされると、携帯画面は乗り物車両12の位置及び乗り物経路14に沿った風景32に関連付けられた光学的データ(例えば、信号42)を受信し、光学的データを携帯画面上の触覚情報に変換することができる。
図1~図8に示された実施形態の様々な態様は、本明細書に従って組み合わせることができることに注意されたい。さらに、図示された実施形態は、一般に、乗り物環境の記憶されたモデルに基づいてアクティブな表面又は複数の表面を制御するコントローラシステムを含むが、いくつかの実施形態は、記憶されたモデルを利用せず又は含まない場合がある。さらに、コントローラシステムは、それぞれの乗り物車両の、搭載され及び搭載されない構成要素(components onboard and offboard)を含むことができる。
本明細書で開示された触覚フィードバックシステムは、ゲストが触覚で遊園地乗り物の視覚的態様を体験することを可能にし、また雰囲気又はテーマ(例えば、不気味な、穏やかな、強烈な)の触覚体験を可能にする。触覚フィードバックシステムは、ゲスト及び/又は遊園地乗り物の乗り物車両の周囲の風景に関連付けられた情報を受信し、受信した情報を触覚フィードバックシステムの画面上にその風景を再現する触覚データに変換する。このように、ゲストは、画面上の触覚フィードバックを感じ、遊園地乗り物内にいる間のゲストの周囲の風景を体験することができる。開示された触覚フィードバックシステムを乗り物制御システムに統合することにより、触覚フィードバックシステムが、遊園地乗り物の乗り物車両の周囲の風景をスキャンし、スキャンされたデータをリアルタイムに分析するセンサを有する必要性を無くすことができる。むしろ、触覚フィードバックシステムは、乗り物制御システムに記憶された乗り物車両の周囲の環境に関連付けられた情報を受信することができる。このように、触覚フィードバックの解像度を、リアルタイムでオブジェクトをスキャンし分析するシステムよりも高めることができる。
本明細書では本開示の特定の特徴のみを示し説明してきたが、多くの修正及び変更が当業者に浮かぶであろう。したがって、添付の特許請求の範囲が本開示の真の精神の範囲内にある全てのそのような修正及び変更を網羅することを意図していることを理解されるべきである。
本明細書で提示及び請求されている技術は、本技術分野を明らかに改善し、したがって、抽象的、無形、又は純粋に理論的ではない、実用的性質の有形物及び具体例に参照及び適用されている。さらに、本明細書の最後に添付する何れかの請求項が、「…[機能]を[実行]するための手段」又は「…[機能]を[実行]するためのステップ」として指定された1以上の要素を含んでいる場合、そのような要素が米国特許法112条(f)に従って解釈されるべきであることが意図されている。一方で、他のいずれかの形で指定された要素を含むあらゆる請求項については、このような要素を米国特許法112条(f)に従って解釈すべきではないことが意図されている。

Claims (20)

  1. 乗り物車両と、
    乗り物経路上の前記乗り物車両の位置を追跡するように構成された乗り物制御システムと、
    触覚フィードバックシステムと、
    を備え、
    前記触覚フィードバックシステムは、
    前記乗り物車両上に設置され、表面改質構成要素を備える画面と、
    メモリ及びプロセッサを備える制御システムと、
    を備え、
    前記メモリは、前記プロセッサにより実行されたときに、前記位置と関連付けられた記憶された風景データに基づいて、前記触覚フィードバックシステムに前記乗り物制御システムからのデータを前記乗り物車両の周囲の風景を表す触覚情報に変換させる命令を記憶する、
    遊園地乗り物システム。
  2. 前記乗り物車両に配置され、前記制御システムに信号を送信するように構成された追跡装置を備え、前記信号は、前記乗り物車両の前記位置を示す、
    請求項1に記載の遊園地乗り物システム。
  3. 前記触覚フィードバックシステムの前記画面は、取り外し可能に前記乗り物車両に結合している、
    請求項1に記載の遊園地乗り物システム。
  4. 前記触覚フィードバックシステムの前記画面は、前記乗り物車両の一部の周りに配置された複数の窓を備える、
    請求項1に記載の遊園地乗り物システム。
  5. 前記表面改質構成要素は、複数のペグを備え、前記複数のペグの各ペグは、個別に作動される、
    請求項1に記載の遊園地乗り物システム。
  6. 前記表面改質構成要素は、複数のセルを備え、前記複数のセルの各セルは、流体を備え、個別に作動される、
    請求項1に記載の遊園地乗り物システム。
  7. 前記複数のセルの各セルは、前記流体により作動するように構成され、前記流体は、前記複数のセルの各セルの外面を膨張させ、前記画面の表面に隆起を作り出す、
    請求項6に記載の遊園地乗り物システム。
  8. 前記複数のセルの作動されたセル内で前記流体の粘度が上昇し、前記画面の表面に隆起を作り出す、
    請求項6に記載の遊園地乗り物システム。
  9. 前記表面改質構成要素は、電気活性高分子(EAP)、カーボンナノチューブ、圧電材料、磁性材料、発光ダイオード(LED)、又はこれらの組み合わせを含む、
    請求項1に記載の遊園地乗り物システム。
  10. 表面改質構成要素を備える画面を含む触覚フィードバックシステムで、遊園地乗り物の乗り物コントローラから乗り物経路に沿った乗り物車両の位置を示す位置データを受信することと、
    触覚表現を前記乗り物経路に沿った位置と相関させるデータベースに基づいて、前記遊園地乗り物の風景を表す触覚情報に前記位置データを変換することと、
    前記画面の前記表面改質構成要素を作動させることにより、前記触覚情報に基づいて、前記画面の外面に、前記位置での前記遊園地乗り物の前記風景を再現することであって、前記表面改質構成要素は、前記画面の外面の一部を上下させるように構成されている、再現することと、
    を含む、
    方法。
  11. 追跡装置を使用して前記乗り物経路に沿って前記乗り物車両の位置を追跡することを含む、
    請求項10に記載の方法。
  12. 前記表面改質構成要素は、ペグ、セル、又はその両方を含み、前記表面改質構成要素の各表面改質構成要素は、個別に作動するように構成されている、
    請求項10に記載の方法。
  13. 前記表面改質構成要素は、その中に流体が配置されたセルを含む、
    請求項10に記載の方法。
  14. 前記風景を表す前記画面の前記外面に隆起を形成することを含み、前記隆起を形成することは、前記セルが作動されるときに、流体を備えた前記セルを拡張することを含む、
    請求項13に記載の方法。
  15. 前記風景を表す前記画面の前記外面に隆起を形成することを含み、前記隆起を形成することは、前記セルが作動されるときに、前記流体の粘度を増加させて前記セルを膨張させることを含む、
    請求項13に記載の方法。
  16. 遊園地乗り物システムであって、
    前記遊園地乗り物の乗り物制御システムに通信可能に結合するように構成された触覚フィードバックシステムと、
    を備え、
    前記触覚フィードバックシステムは、
    乗り物車両上に設置されるように構成され、表面改質構成要素を備える画面と、
    前記遊園地乗り物の乗り物経路に沿って前記乗り物車両の位置に基づいて前記遊園地乗り物の風景を再現するように構成された命令を記憶するメモリと、
    前記乗り物制御システムからのデータにより示される特定の位置での前記風景に対応する触覚フィードバックを、前記表面改質構成要素を介して前記触覚フィードバックシステムに提供させる前記命令を実行するように構成されたプロセッサと、
    を備える、
    遊園地乗り物システム。
  17. 前記表面改質構成要素は、複数のペグ、複数のセル、又はその両方を含み、前記複数のペグの各ペグ及び前記複数のセルの各セルは、個別に作動される、
    請求項16に記載の遊園地乗り物システム。
  18. 前記表面改質構成要素は、前記画面の外面で隆起を作り出す流体を中に入れるように構成された複数のセルを含む、
    請求項16に記載の遊園地乗り物システム。
  19. 前記乗り物車両を備える、
    請求項16に記載の遊園地乗り物システム。
  20. 前記触覚フィードバックシステムは、取り外し可能に前記乗り物車両に取り付けられている、
    請求項19に記載の遊園地乗り物システム。
JP2023175134A 2018-05-16 2023-10-10 遊園地乗り物のための触覚フィードバックシステム及び方法 Pending JP2024001210A (ja)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201862672285P 2018-05-16 2018-05-16
US62/672,285 2018-05-16
US16/412,041 US11036391B2 (en) 2018-05-16 2019-05-14 Haptic feedback systems and methods for an amusement park ride
US16/412,041 2019-05-14
PCT/US2019/032714 WO2019222532A1 (en) 2018-05-16 2019-05-16 Haptic feedback systems and methods for an amusement park ride
JP2020561905A JP7366061B2 (ja) 2018-05-16 2019-05-16 遊園地乗り物のための触覚フィードバックシステム及び方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020561905A Division JP7366061B2 (ja) 2018-05-16 2019-05-16 遊園地乗り物のための触覚フィードバックシステム及び方法

Publications (1)

Publication Number Publication Date
JP2024001210A true JP2024001210A (ja) 2024-01-09

Family

ID=68533687

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020561905A Active JP7366061B2 (ja) 2018-05-16 2019-05-16 遊園地乗り物のための触覚フィードバックシステム及び方法
JP2023175134A Pending JP2024001210A (ja) 2018-05-16 2023-10-10 遊園地乗り物のための触覚フィードバックシステム及び方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020561905A Active JP7366061B2 (ja) 2018-05-16 2019-05-16 遊園地乗り物のための触覚フィードバックシステム及び方法

Country Status (9)

Country Link
US (2) US11036391B2 (ja)
EP (2) EP4245391A3 (ja)
JP (2) JP7366061B2 (ja)
KR (1) KR20210008530A (ja)
CN (1) CN112105427B (ja)
CA (1) CA3098030A1 (ja)
ES (1) ES2962597T3 (ja)
SG (1) SG11202010103PA (ja)
WO (1) WO2019222532A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019206405A1 (de) * 2019-05-03 2020-11-05 Zf Friedrichshafen Ag Bedienelement
US20210157004A1 (en) * 2019-11-26 2021-05-27 Universal City Studios Llc Autonomous scanning and mapping system
WO2023283041A1 (en) * 2021-07-06 2023-01-12 Universal City Studios Llc Systems and methods for a multi-degree of freedom ride vehicle

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3594787A (en) 1969-07-16 1971-07-20 Millard J Ickes Scene scanner and tactile display device for the blind
US5942970A (en) 1998-10-08 1999-08-24 Norman; Jim Image optical-to-tactile converter
US6712613B2 (en) 2000-08-31 2004-03-30 Fujitsu Siemens Computers Gmbh Display device suited for a blind person
US7225115B2 (en) * 2001-10-04 2007-05-29 Novint Technologies, Inc. Coordinating haptics with visual images in a human-computer interface
US20050062841A1 (en) * 2003-09-18 2005-03-24 Rivera-Cintron Carlos A. System and method for multi-media record, distribution and playback using wireless communication
US20130218456A1 (en) 2006-02-16 2013-08-22 John S. Zelek Wearable tactile navigation system
KR100851279B1 (ko) 2006-12-07 2008-08-08 한국전자통신연구원 전기 유변 유체를 이용한 점자 디스플레이 장치 및 그 제조방법
US8588464B2 (en) 2007-01-12 2013-11-19 International Business Machines Corporation Assisting a vision-impaired user with navigation based on a 3D captured image stream
US20080198222A1 (en) 2007-02-02 2008-08-21 Sanjay Gowda System and method for tele-presence
US8271888B2 (en) 2009-01-23 2012-09-18 International Business Machines Corporation Three-dimensional virtual world accessible for the blind
EP2539883A1 (en) 2010-02-24 2013-01-02 Ipplex Holdings Corporation Augmented reality panorama supporting visually impaired individuals
CN102293709B (zh) 2011-06-10 2013-02-27 深圳典邦科技有限公司 一种智能导盲装置
US20130250078A1 (en) 2012-03-26 2013-09-26 Technology Dynamics Inc. Visual aid
EP2650859A1 (en) * 2012-04-13 2013-10-16 Thomson Licensing Haptic chair for motion simulation
JP6132361B2 (ja) * 2012-04-27 2017-05-31 国立大学法人電気通信大学 ユーザインタフェース装置
US20140004941A1 (en) * 2012-06-29 2014-01-02 Sony Computer Entertainment Inc. Conversion of haptic events into screen events
US11487349B2 (en) * 2013-11-11 2022-11-01 Whitewater West Industries, Ltd. Interactive amusement attraction system and method
US9711065B2 (en) 2012-11-20 2017-07-18 Arizona Board Of Regents On Behalf Of Arizona State University Responsive dynamic three-dimensional tactile display using hydrogel
EP2854120A1 (en) * 2013-09-26 2015-04-01 Thomson Licensing Method and device for controlling a haptic device
US20150125831A1 (en) 2013-11-07 2015-05-07 Srijit Chandrashekhar Nair Tactile Pin Array Device
US9639158B2 (en) * 2013-11-26 2017-05-02 Immersion Corporation Systems and methods for generating friction and vibrotactile effects
US9433870B2 (en) 2014-05-21 2016-09-06 Universal City Studios Llc Ride vehicle tracking and control system using passive tracking elements
US9616350B2 (en) * 2014-05-21 2017-04-11 Universal City Studios Llc Enhanced interactivity in an amusement park environment using passive tracking elements
US20160170508A1 (en) * 2014-12-11 2016-06-16 Toyota Motor Engineering & Manufacturing North America, Inc. Tactile display devices
US9358473B2 (en) * 2015-03-24 2016-06-07 Anthony Frolov Interactive amusement attraction
WO2017035663A1 (en) * 2015-09-03 2017-03-09 Miovision Technologies Incorporated System and method for detecting and tracking objects
US10724874B2 (en) * 2015-10-13 2020-07-28 Here Global B.V. Virtual reality environment responsive to predictive route navigation
US9865178B2 (en) 2015-11-24 2018-01-09 International Business Machines Corporation System and method for tracking articles with tactile feedback for visually impaired spectators
JP2017131340A (ja) * 2016-01-26 2017-08-03 フィールズ株式会社 娯楽空間制御装置、娯楽空間生成システム、娯楽空間制御方法およびコンピュータプログラム
CN105748265B (zh) 2016-05-23 2021-01-22 京东方科技集团股份有限公司 一种导航装置及方法
US10423229B2 (en) * 2017-08-17 2019-09-24 Google Llc Adjusting movement of a display screen to compensate for changes in speed of movement across the display screen
ES1203462Y (es) * 2017-12-04 2018-04-13 Palacios Pablo Jorge Dispositivo mecanico de representacion haptica con displays de segmentos resaltables
US10905970B2 (en) * 2018-02-26 2021-02-02 Disney Enterprises, Inc. Scent blending

Also Published As

Publication number Publication date
JP7366061B2 (ja) 2023-10-20
SG11202010103PA (en) 2020-11-27
ES2962597T3 (es) 2024-03-20
US20210311624A1 (en) 2021-10-07
EP4245391A3 (en) 2024-01-10
CN112105427A (zh) 2020-12-18
WO2019222532A1 (en) 2019-11-21
US11036391B2 (en) 2021-06-15
JP2021522904A (ja) 2021-09-02
EP3793700B1 (en) 2023-08-16
CN112105427B (zh) 2023-01-24
EP3793700A1 (en) 2021-03-24
KR20210008530A (ko) 2021-01-22
CA3098030A1 (en) 2019-11-21
US20190354282A1 (en) 2019-11-21
EP4245391A2 (en) 2023-09-20

Similar Documents

Publication Publication Date Title
JP2024001210A (ja) 遊園地乗り物のための触覚フィードバックシステム及び方法
KR102588344B1 (ko) 가상 현실 이동식 포드
CN103576856B (zh) 用于触觉遥控游戏的系统和方法
CN105094310B (zh) 虚拟现实驾乘系统中减少晕车的方法和系统
ES2942279T3 (es) Sistemas y métodos de control de atracciones en parques de atracciones
US7352356B2 (en) Refreshable scanning tactile graphic display for localized sensory stimulation
US9120021B2 (en) Interactive lean sensor for controlling a vehicle motion system and navigating virtual environments
US11361514B2 (en) Dynamic surfaces for virtual reality applications
CN102640199B (zh) 用于通过触觉反馈仿真特定运动的方法及其实现装置
WO2000010664A1 (en) Location based entertainment device
CN109906423A (zh) 姿势输入系统及姿势输入方法
CN107077229B (zh) 人机接口装置和系统
RU2768117C2 (ru) Система аттракциона для катания (варианты), система крепления и способ её эксплуатации
KR102319074B1 (ko) 3축 움직임이 가능한 행잉 시뮬레이터 시스템 및 그 방법
KR102502123B1 (ko) 모션 시뮬레이터 시스템
Müller et al. Augmenting Elastic Displays with Active Vibrotactile Feedback
WO2024042359A1 (ja) 情報処理方法及び情報処理装置
CN206081600U (zh) 一种vr骑乘装置
CN110347163A (zh) 一种无人驾驶设备的控制方法、设备及无人驾驶控制系统
Chen Dynamic simulation and application of virtual reality using dual axis device to remote control

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231027

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231027