JP2024509462A - ユーザの反応時間を利用したインタラクティブコンテンツの応答ウィンドウの変更 - Google Patents

ユーザの反応時間を利用したインタラクティブコンテンツの応答ウィンドウの変更 Download PDF

Info

Publication number
JP2024509462A
JP2024509462A JP2023555390A JP2023555390A JP2024509462A JP 2024509462 A JP2024509462 A JP 2024509462A JP 2023555390 A JP2023555390 A JP 2023555390A JP 2023555390 A JP2023555390 A JP 2023555390A JP 2024509462 A JP2024509462 A JP 2024509462A
Authority
JP
Japan
Prior art keywords
player
response
instructions
computer
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023555390A
Other languages
English (en)
Inventor
テイラー、マイケル
ブラック、グレン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2024509462A publication Critical patent/JP2024509462A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/422Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle automatically for the purpose of assisting the player, e.g. automatic braking in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/44Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment involving timing of operations, e.g. performing an action within a time slot
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Dermatology (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】視線追跡センサ(212)、加速度計、及び他のモーションセンサ(210)、及び筋肉センサ(208)を含むセンサは、画面に表示されるコンピュータゲームのオブジェクトと、ユーザがそのオブジェクトに注意を移すことと、そのオブジェクトに応じてユーザがアクションを起こすこととの間のタイミングのギャップを識別する(302)。【解決手段】ユーザの反応時間が予想範囲外であったものの、意図が正しかった場合、ゲームは意図したエクスペリエンスを維持するために結果を調整する(312)。【選択図】図1

Description

本願は、コンピュータ技術に必然的に根差し、具体的な技術的改善をもたらす、技術的に独創的で非定型的な解決策に関する。
本明細書で理解されるように、コンピュータゲームでは、プレイヤーの決定は、プレイヤーの入力(通常はボタンを押す)を介してゲームコンソールによって判定されなければならない。本明細書でまた理解されるように、一部のプレイヤーは他のプレイヤーよりもゲームコントローラを操作するのに困難がある場合があり、ゲームの楽しみを減少させることがある。
本明細書でさらに理解されるように、視線追跡センサ、加速度計及び他のモーションセンサ、及び筋肉センサを含むセンサは、画面に表示されるオブジェクトと、ユーザのそのオブジェクトへの注意の移行と、オブジェクトに応答してユーザがアクションすることとの間のタイミングのギャップを識別する。ユーザの反応時間が予想範囲外であったものの、意図が正しかった場合、ゲームは意図したエクスペリエンスを維持するために結果を調整する。例には、一人用のシューティングゲームでの敵の識別と対応が含まれる。エクスペリエンスに対する開発者のビジョンの忠実性を維持するために、応答ウィンドウは動的に変更され、ユーザがゲーム内イベントに応答して適切なアクションを選択する時間を増やすことを可能にする。打撃のダメージを遅延及び無効化させる、敵のヒットボックスを拡大する、などがあり得る。
したがって、デバイスは、一時的な信号ではない、また、ひいては、コンピュータシミュレーションのプレイヤーの注意の少なくとも1つのインジケーションをセンサから受信するために、少なくとも1つのプロセッサによって実行可能な命令を含む、少なくとも1つのコンピュータメモリを含む。命令は、インジケーションに少なくとも部分的に基づいてタイミングギャップを少なくとも部分的に特定するために実行可能である。さらに、命令は、プレイヤーから受け取った入力が正しい入力であるかどうかを識別し、入力が正しいと識別することに応じて、かつタイミングギャップに少なくとも部分的に基づいて、コンピュータシミュレーションの結果を第1の結果から第2の結果に変更するために実行可能である。
センサには、カメラ、モーションセンサ、または筋電図(EMG)センサのうちの1つまたは複数が含まれる場合がある。
結果は、プレイヤーがシミュレーション内イベントに応答してアクションを選択するためのより長い時間を与えるために、応答ウィンドウを変更することによって、またはプレイヤーに関連付けられたシミュレーションキャラクタへのダメージを遅延させることによって、またはプレイヤーに関連付けられたシミュレーションキャラクタへのダメージを無効にすることによって、またはシミュレーションキャラクタの周囲のヒット領域を、外側にヒットが登録されていない第1の領域から外側にヒットが登録されていない第2の領域に拡張することによって、少なくとも部分的に変更することができ、第2の領域は第1の領域より大きく、ヒットは第2の領域の内側に登録されている。上記の任意の組み合わせを使用できる。
別の態様では、装置は、コンピュータシミュレーションのイベントに対するコンピュータシミュレーションのプレイヤーの反応時間がある期間を超えるかどうかを識別するための命令を備えて構成された少なくとも1つのプロセッサを含む。命令は、プレイヤーのアクションが正しいかどうか識別し、プレイヤーのアクションが正しく反応時間がある期間を超えていることを識別することに応じて、コンピュータシミュレーションの結果を変更するべく実行可能である。さらに、命令は、プレイヤーのアクションが正しくなく、反応時間がある期間を超えていることを識別することに応じて、コンピュータシミュレーションの結果を変更しないようにするべく実行可能である。同様に、命令は、プレイヤーのアクションが正しく、反応時間がある期間を超えていないと識別することに応じて、コンピュータシミュレーションの結果を変更しないようにするべく実行可能である。
別の態様では、方法は、正しいユーザ入力及び相対的に長い第1の長さを有する反応時間の遅延に応答して、コンピュータゲームの結果を変更することを含む。他方で、方法は、正しくないユーザ入力及び第1の長さを有する反応時間の遅延に応答してコンピュータゲームの結果を変更しないこと、及び正しいユーザ入力及び第1の長さより短い第2の長さを有する反応時間の遅延に応答してコンピュータゲームの結果を変更しないことも含む。
本願の詳細は、その構造と動作との両方について、添付の図面を参照すると最もよく理解でき、図面において、類似の参照符号は、類似の部分を指す。
本原理による実施例を含む例示的なシステムのブロック図である。 図1のコンポーネントのいずれかを使用するか、またはそれらのコンポーネントを呼び出すことができる、本原理と一致する例示的なゲームシステムを示す。 例示的なフローチャート形式で例示的な全体的なロジックを示す。 例示的なフローチャート形式で例示的な調整ロジックを示す。 ユーザのキャラクタに対する攻撃を調整または無効にすることを概略的に示す。 敵キャラクタの周囲にヒットゾーンを拡張することを概略的に示す。
本開示は、概して、限定されることなく、コンピュータゲームネットワークなどの家電(CE)デバイスネットワークの態様を含むコンピュータエコシステムに関する。本明細書のシステムは、クライアントコンポーネントとサーバコンポーネントとの間でデータが交換され得るように、ネットワークを通じて接続され得るサーバコンポーネント及びクライアントコンポーネントを含み得る。クライアントコンポーネントは、Sony PlayStation(登録商標)などのゲーム機、あるいはMicrosoft(登録商標)もしくはNintendo(登録商標)または他の製造者によって作成されたゲーム機、仮想現実(VR)ヘッドセット、拡張現実(AR)ヘッドセット、ポータブルテレビ(例えば、スマートテレビ、インターネット対応テレビ)、ラップトップ及びタブレットコンピュータなどのポータブルコンピュータ、ならびにスマートフォン及び下記に説明される追加の例を含む他のモバイルデバイス、を含む1つ以上のコンピューティングデバイスを含み得る。これらのクライアントデバイスは、様々な動作環境で動作し得る。例えば、クライアントコンピュータのいくつかは、実施例として、Linux(登録商標)オペレーティングシステム、Microsoft(登録商標)のオペレーティングシステム、またはUnix(登録商標)オペレーティングシステム、またはApple,Inc.(登録商標)もしくはGoogle(登録商標)によって制作されたオペレーティングシステムを採用し得る。これらの動作環境は、Microsoft(登録商標)もしくはGoogle(登録商標)もしくはMozilla(登録商標)によって作成されたブラウザ、または以下で議論されるインターネットサーバによってホストされるウェブサイトにアクセスできる他のブラウザプログラムなど、1つ以上の閲覧プログラムを実行するために使用され得る。また、1つ以上のコンピュータゲームプログラムを実行するために、本原理による動作環境が用いられ得る。
サーバ及び/またはゲートウェイは、インターネットなどのネットワークを通じてデータを受信及び送信するようにサーバを構成する命令を実行する1つ以上のプロセッサを含み得る。または、クライアント及びサーバは、ローカルイントラネットまたは仮想プライベートネットワークを介して接続することができる。サーバまたはコントローラは、Sony PlayStation(登録商標)などのゲーム機、パーソナルコンピュータなどによってインスタンス化されてよい。
クライアントとサーバとの間でネットワークを介して情報を交換することができる。この目的及びセキュリティのために、サーバ及び/またはクライアントは、ファイアウォール、ロードバランサ、テンポラリストレージ、及びプロキシ、ならびに信頼性及びセキュリティのための他のネットワークインフラストラクチャを含むことができる。1つまたは複数のサーバは、ネットワークメンバーにオンラインソーシャルウェブサイトなどのセキュアコミュニティを提供する方法を実施する装置を形成することができる。
プロセッサは、アドレスライン、データライン及び制御ラインなどの様々なライン、並びにレジスタ及びシフトレジスタによって論理を実行することができる、シングルチッププロセッサまたはマルチチッププロセッサであってよい。
一実施形態に含まれるコンポーネントは、他の実施形態では、任意の適切な組み合わせで使用することができる。例えば、本明細書に記載される、及び/または図で示される様々なコンポーネントのいずれも、組み合わされ、交換され、または他の実施形態から除外されてもよい。
「A、B及びCのうちの少なくとも1つを有するシステム」(同様に「A、BまたはCのうちの少なくとも1つを有するシステム」及び「A、B、Cのうちの少なくとも1つを有するシステム」)は、A単独、B単独、C単独、A及びBを一緒に、A及びCを一緒に、B及びCを一緒に、及び/またはA、B及びCを一緒に有するシステムなどを含む。
ここで、具体的に図1を参照すると、本原理による、上述され、以下でさらに説明される例示的なデバイスのうちの1つ以上を含み得る例示的なシステム10が示されている。システム10に含まれる例示的なデバイスのうちの第1のデバイスは、TVチューナ(同等にTVを制御するセットトップボックス)を備えたインターネット対応TVなどのこれに限定されないオーディオビデオデバイス(AVD)12といった一般消費者向け電子製品(CE)デバイスである。あるいは、AVD12はまた、コンピュータ制御型インターネット対応(「スマート」)電話、タブレットコンピュータ、ノートブックコンピュータ、HMD、ウェアラブルコンピュータ制御デバイス、コンピュータ制御型インターネット対応ミュージックプレイヤー、コンピュータ制御型インターネット対応ヘッドフォン、インプラント可能な皮膚用デバイスなどのコンピュータ制御型インターネット対応のインプラント可能なデバイスなどであってよい。いずれにしても、AVD12は、本原理を実施する(例えば、本原理を実施するように他のCEデバイスと通信し、本明細書に説明されるロジックを実行し、本明細書に説明されるいずれかの他の機能及び/または動作を行う)ように構成されることを理解されたい。
したがって、このような原理を実施するために、AVD12は、図1に示すコンポーネントの一部または全てによって確立され得る。例えば、AVD12は、高解像度フラットスクリーンまたは「4K」以上の超高解像度フラットスクリーンによって実装してもよく、ユーザ入力信号をディスプレイ上のタッチを介して受け取るためのタッチ対応であってもよい、1つ以上のディスプレイ14を含むことが可能である。AVD12は、本発明の原理に従ってオーディオを出力するための1つ以上のスピーカ16と、AVD12を制御するようにAVD12に可聴コマンドを入力するための、オーディオ受信器/マイクロホンなどの少なくとも1つの追加入力デバイス18と、を含み得る。例示的AVD12はまた、1つ以上のプロセッサ24の制御の下、インターネット、WAN、LANなどの少なくとも1つのネットワーク22を通じて通信するための1つ以上のネットワークインタフェース20を含み得る。また、グラフィックプロセッサ24Aが含まれていてもよい。したがって、インタフェース20は、限定されることなく、Wi-Fi(登録商標)送受信機であり得、このWi-Fi(登録商標)送受信機は、限定されることなく、メッシュネットワーク送受信機などの無線コンピュータネットワークインタフェースの実施例である。プロセッサ24は、本原理を実施するように、画像を提示するようにディスプレイ14を制御すること及びそこから入力を受信することなど、本明細書に記載されるAVD12の他の要素を含むAVD12を制御することを理解されたい。さらに、ネットワークインタフェース20は、有線もしくは無線のモデムもしくはルータ、または、無線テレフォニ送受信機もしくは上述したWi-Fi(登録商標)送受信機などの他の適切なインタフェースであってよいことに留意されたい。
上記に加えて、AVD12はまた、例えば、別のCEデバイスに物理的に接続するための高精細マルチメディアインタフェース(HDMI(登録商標))ポートもしくはUSBポート、及び/またはヘッドフォンを通してAVD12からユーザにオーディオを提供するためにAVD12にヘッドフォンを接続するためのヘッドフォンポートなどの1つ以上の入力ポート26を含み得る。例えば、入力ポート26は、オーディオビデオコンテンツのケーブルまたは衛星ソース26aに有線でまたは無線で接続されてもよい。したがって、ソース26aは、別個のもしくは統合されたセットトップボックス、または衛星受信機であってよい。あるいは、ソース26aは、コンテンツを含むゲームコンソールまたはディスクプレイヤーであってもよい。ソース26aは、ゲームコンソールとして実装されるとき、CEデバイス44に関連して以下で説明されるコンポーネントの一部または全てを含んでよい。
AVD12はさらに、一時的信号でない、ディスクベースまたはソリッドステート記憶装置などの1つ以上のコンピュータメモリ28を含んでもよく、これらは、いくつかの場合にはスタンドアロンデバイスとして、またはパーソナルビデオレコーディングデバイス(PVR)としてAVDのシャーシで具体化され、またはAVプログラムを再生するために、AVDのシャーシの内部もしくは外部のいずれかでビデオディスクプレイヤーとして具体化され、または着脱可能メモリ媒体として具体化される。また、いくつかの実施形態では、AVD12は、限定するものではないが、サテライト基地局もしくは携帯電話基地局から地理的位置情報を受信し、情報をプロセッサ24に提供し、及び/またはAVD12がプロセッサ24と併せて配置される高度を判定するように構成される、携帯電話受信機、GPS受信機、及び/または高度計30などの位置受信機または場所受信機を含み得る。コンポーネント30はまた、AVD12の位置及び向きを三次元で決定するために、通常、加速度計、ジャイロスコープ、及び磁力計の組み合わせを含む慣性測定ユニット(IMU)によって実装され得る。
AVD12の説明を続けると、ある実施形態では、AVD12は、1つまたは複数のカメラ32を備えてよく、1つまたは複数のカメラ32は、サーマルイメージングカメラ、ウェブカメラなどのデジタルカメラ、及び/またはAVD12に統合され、本原理に従って写真/画像及び/またはビデオを収集するようプロセッサ24によって制御可能なカメラであってよい。AVD12にはまた、ブルートゥース(登録商標)及び/または近距離無線通信(NFC)技術をそれぞれ使用した他のデバイスとの通信のためのブルートゥース(登録商標)送受信機34及び他のNFC素子36が含まれ得る。例示的なNFC素子は、無線周波数識別(RFID)素子であってもよい。
さらにまた、AVD12は、プロセッサ24に入力をもたらす1つ以上の補助センサ37(例えば、加速度計、ジャイロスコープ、サイクロメータなどのモーションセンサ、または磁気センサ、赤外線(IR)センサ、光学センサ、速度センサ及び/またはケイデンスセンサ、ジェスチャセンサ(例えば、ジェスチャコマンドを検知するためのセンサ)を含み得る。AVD12は、プロセッサ24への入力をもたらすOTA(無線経由)TV放送を受信するための無線経由テレビ放送ポート38を含み得る。前述に加えて、AVD12はまた、赤外線データ協会(IRDA)デバイスなどの赤外線(IR)送信機及び/またはIR受信機及び/またはIR送受信機42を含み得ることに留意されたい。バッテリ(図示せず)は、AVD12に電力を供給するために設けられてもよく、運動エネルギーを電力に変換してバッテリを充電し、及び/またはAVD12に電力を供給することができる運動エネルギーハーベスタであってもよい。
さらに図1を参照すると、AVD12に加えて、システム10は、1つ以上の他のCEデバイスタイプを含んでもよい。一実施例では、第1のCEデバイス44は、AVD12に直接送信されるコマンドを介して及び/または後述のサーバを通じて、コンピュータゲームの音声及びビデオをAVD12に送信するために使用され得るコンピュータゲームコンソールであり得る一方、第2のCEデバイス46は第1のCEデバイス44と同様のコンポーネントを含み得る。示される例では、第2のCEデバイス46は、プレイヤーによって操作されるコンピュータゲームコントローラまたはプレイヤー47によって装着されるヘッドマウントディスプレイ(HMD)として構成され得る。図示した例では、2つのCEデバイス44、46のみを示しているが、より少ないデバイスまたはより多いデバイスを使用してもよいことが理解されよう。本明細書のデバイスは、AVD12用に示されているコンポーネントの一部またはすべてを実装することができる。次の図に示されているコンポーネントのいずれかに、AVD12の場合に示されているコンポーネントの一部またはすべてが組み込まれている場合がある。
次に、上記の少なくとも1つのサーバ50についてであるが、このサーバは、少なくとも1つのサーバプロセッサ52と、ディスクベースまたはソリッドステート記憶装置などの少なくとも1つの有形コンピュータ可読記憶媒体54と、サーバプロセッサ52の制御下で、ネットワーク22を通じて図1の他のデバイスとの通信を可能にし、実際に、本原理に従ってサーバとクライアントデバイスとの間の通信を促進し得る少なくとも1つのネットワークインタフェース56とを含む。ネットワークインタフェース56は、例えば、有線もしくは無線モデムもしくはルータ、Wi-Fi(登録商標)送受信機、または、例えば、無線テレフォニ送受信機などの他の適切なインタフェースであってよいことに留意されたい。
したがって、いくつかの実施形態では、サーバ50は、インターネットサーバまたはサーバ「ファーム」全体であってよく、「クラウド」機能を含み、システム10のデバイスが、例えば、ネットワークゲームアプリケーションの例示的な実施形態においてサーバ50を介して「クラウド」環境にアクセスできるように、その「クラウド」機能を実行してもよい。あるいは、サーバ50は、図1に示されている他のデバイスと同じ部屋にある、またはその近くにある、1つ以上のゲームコンソール、または他のコンピュータによって実装されてもよい。
図2は、プレイヤー200がコンピュータシミュレーションコントローラ202を操作してシミュレーションコンソール204を制御し、ディスプレイ206にコンピュータゲームなどのコンピュータシミュレーションを提示できることを示す。図2に示されるコンポーネントは、図1に示されるコンポーネントの一部またはすべてを含むことができ、PlayStation(登録商標)のコンポーネントであり得る。
図2に示されるシステムは、プレイヤー200の注意を感知するための1つ以上のセンサを含み得る。例えば、システムは、プレイヤーの筋肉の動きを感知する筋電図(EMG)センサなどの1つ以上の筋肉センサ208を含んでもよい。システムは、コントローラ202の動きを感知するために、加速度計、ジャイロスコープ、及び磁力計などの1つまたは複数のモーションセンサ210を含んでもよい。システムは、プレイヤー200の目が注視している方向を感知するために、1つまたは複数のカメラ212を含んでもよい。システムは、コントローラでどのコントロールが押されたかを感知するために、1つまたは複数のボタンセンサ214を含んでもよい。モーションセンサ210はコントローラ202上に示されているが、プレイヤー200が装着するHMDなど、本明細書に示される任意の適切なコンポーネントと係合し得ることを理解されたい。カメラ212はコンソール204に示されているが、プレイヤー200によって装着されるHMDまたはディスプレイ206など、本明細書に示される任意の適切なコンポーネントと係合し得ることを理解されたい。
カメラ212からの画像は、コンソール204などの、本明細書のデバイスのいずれかにおける1つまたは複数のプロセッサに送信され、視線追跡画像認識を使用してカメラ画像からプレイヤー200の視線の方向を判定し、コンピュータゲームの中でどのオブジェクトをプレイヤーが見ているか判定する。
他の実装形態では、プレイヤー200の画像を使用する代わりに、または使用することに加えて、プロセッサは、プレイヤーが、例えばゲームコントローラ202によって、コンピュータゲームのオブジェクト上に画面のカーソルをホバリングしていると判定し得る(好ましくは、ホバリングしたオブジェクトを強調表示せずに)。どちらの場合も、プロセッサによって使用される信号はプレイヤーの注意を示すが、たとえばプレイヤーがゲームコントローラのキーを押すことによって入力されるようなコンピュータゲーム入力信号ではない。
同様に、プロセッサは、モーションセンサ210及び/またはボタンセンサ214からの信号を使用して、プレイヤー200がコントローラ202を移動及び/または操作している方式及び時間を判定することができる。システムはまた、筋肉センサ208を使用して、及び/またはカメラ212からの画像を使用してプレイヤー200の画像認識を使用して、プレイヤー200のアクションの方式及び時間を判定することができる。
ここで図3を参照する。ブロック300から始まり、ゲームイベントとその表示時間が識別される。通常、ゲームイベントは、コントローラ202を使用して入力されるプレイヤーからの応答を必要とするか、またはそれを暗示する。
ブロック302で、プレイヤーがゲームイベントに反応した時間が識別される。反応は、本明細書に記載のセンサのいずれかからの信号に基づいて識別され得る。
決定ダイヤモンド304に進み、プレイヤーの反応が正しかったかどうかが判定される。「正しさ」は、ゲーム開発者によって実装されたゲームのルールのコンテキストで判定され、ゲームのメタデータまたはその他の場所で示される場合がある。例えば、ブロック300のイベントがモンスターの出現である場合、プレイヤーからの正しい反応は、ゲームのプレイヤーのキャラクタにモンスターを撃たせることであり得る。
プレイヤーが正しいアクションをとらなかった場合、例えばゲーム開発者の意図した通りに、モンスターにプレイヤーのキャラクタを倒させることにより、ゲームのいずれの結果をも変えることなく、ロジックは状態306で終了し得る。一方、プレイヤーが正しい応答をした場合、ロジックは決定ダイヤモンド308に進むことができる。
決定ダイヤモンド308では、ブロック300でゲームイベントが提示されたときと、ブロック302でプレイヤーがそれに反応したときとの間の期間が、閾値期間を超えるなど過剰であるかどうかが判定される。そうでない場合、ロジックは、例えば、プレイヤー(正しい応答を入力したと判定されたことを思い出す)がモンスターを殺したことを示すことによって、ゲームのいずれかの結果を変更することなく状態310で終了することができる。
対照的に、プレイヤーの反応時間が(決定ダイヤモンド308で)過剰であり、かつ(決定ダイヤモンド304で)正しいことが識別された場合、ロジックはブロック312でゲームの結果を変更することができる。より具体的には、ブロック300で提示されたイベントに対する応答を正しく入力するが、入力が遅いプレイヤーは、ゲームの経路を変更することによって、プレイヤーにはどうしようもない可能性がある遅さに対するペナルティを軽減させることができる。図3のステップは交換されてもよいことに留意されたい。例えば、決定ダイヤモンド308が決定ダイヤモンド304の前に発生してもよい。
さらに図4は示す。図4のブロック400でプレイヤーの応答時間が長すぎる(しかし応答は正しかった)場合、ブロック402で、将来のイベントに対する応答ウィンドウを増加させて、プレイヤーがシミュレーション内イベントに応じてアクションを選択する時間を増やすことを可能にすることができる。さらに、またはその代わりに、ブロック404で、プレイヤーに関連するシミュレーションキャラクタへのダメージなどのシミュレーションキャラクタに影響を与えるイベントを遅延させることによって、及び/または、プレイヤーに関連付けられたシミュレーションキャラクタへのダメージなどのシミュレーションキャラクタに影響を与えるイベントを無効にすることによって、ゲームの結果を変更することができる。さらにまた、ブロック406で、シミュレーションキャラクタの周囲のヒット領域を、外側にヒットが登録されていない第1の領域から、外側にヒットが登録されていない第2の領域に拡張することによって、結果を変更することができ、第2の領域は第1の領域より大きく、ヒットは第2の領域の内側に登録される。
図5は図4のブロック404の原理を示し、対して図6は図4のブロック406の原理を示す。
図5に示すように、プレイヤーまたはユーザに関連付けられたゲームキャラクタ500は、コンピュータシミュレーションにおいて、武器504を振り回す敵キャラクタ502によって攻撃されている。プレイヤーは、正しく反応したが攻撃を逸らすには遅すぎた可能性があり、その場合、ゲームは、プレイヤーキャラクタ500が死亡するか重度に無力化した状態から、506で示されるような肉体の傷などの軽度の傷害を負う状態に変更される。
図6では、シミュレーションにおける敵キャラクタ600は、プレイヤーが比較的小さなヒットゾーン602内でキャラクタ600を攻撃することに成功した場合に、死亡するか重傷を負うものとしてエミュレートされ得る。プレイヤーは、正しく反応したがヒットゾーン602内部で攻撃を実行するには遅すぎたまたはあまりに不正確であった可能性があり、その場合、ゲームは、将来のイベントまたは現在のイベントに対して、ヒットゾーンを、図6に示しているより大きなサイズ604に拡大することによって、変更される。
図2のコントローラ202は、ゲームの状態を変更するためにシミュレーションと通信する可変の難易度設定を有することができる。本質的に、プレイヤーの意図及びなされた意思決定が識別され(例えば、生体測定センサ208を使用した筋肉のけいれんの検出、またはカメラ212を使用した視線の追跡などによって)、それに応じてゲームが選択的に変更される。コンピュータシミュレーションは、図1のHMD46に提示される仮想現実(VR)シミュレーションであっても、そうでなくてもよい。プレイヤーの注意はまた、照準のレチクル/追跡している敵を同じレートで知ることなどによって、ゲームのデータを使用して識別することもできる。プレイヤーが敵をはっきりと見ていることをインジケートしている。プレイヤーを正しい方向へと強制するために、プレイヤーに強制的にコントローラ202へのコントロールを移させる磁石を設けることができる。フォースフィードバックは、正しい反応が「撃たない」の場合はトリガーを硬くする、または正しい反応が「撃つ」の場合はトリガーを柔らかくするためなどに使用できる。
コントローラ上の指の追跡は、ボタンを押すかジョイスティックを動かす前に使用して、反応や応答の正しさのインジケーションとしてリアルタイムでプレイヤーの手のポーズを追跡することができる。この目的には、シースルーカメラ及び/または容量性センサを使用できる。システムは、プレイヤーの反応時間がどのくらいであるかを透過的に学習し、それをプレイヤーのプロフィールの一部にし、次いでそれに基づいて将来のゲームでプレイヤーに与えるハンディキャップを調整する。プレイヤーは、オンラインゲームに関して同様の応答時間である他の人とマッチングされる場合がある。ハンディキャップは、プレイヤーが朝により注意力があり、そのため反応時間がより短いということを考慮して、時間帯に基づいて変化させてもよい。しばらくプレイした後にプレイヤーが疲労する可能性があるため、ハンディキャップはまたプレイが行われた時間の長さに基づいて変化させてもよい。現在の原理は、プレイヤーのキャラクタがとるべき正しい位置と応答を示すことによってプレイヤーを訓練するために使用することもできる。
いくつかの例示的な実施形態を参照して本原理を説明したが、これらは限定することを意図しておらず、各種の代替的な構成が本明細書で特許請求される主題を実施するために使用されてよいことは理解されよう。

Claims (20)

  1. デバイスであって、
    一時的な信号ではなく、少なくとも1つのプロセッサにより実行可能な命令を含む少なくとも1つのコンピュータメモリを備え、前記命令は、
    コンピュータシミュレーションのプレイヤーの注意の少なくとも1つのインジケーションをセンサから受信すること、
    前記インジケーションに少なくとも部分的に基づいて、タイミングギャップを少なくとも部分的に特定すること、
    前記プレイヤーから受け取った入力が正しい入力であるかどうかを識別すること、
    前記入力が正しいと識別することに応じて、かつ前記タイミングギャップに少なくとも部分的に基づいて、前記コンピュータシミュレーションの結果を第1の結果から第2の結果に変更すること、
    のために実行可能である、前記デバイス。
  2. 前記センサは、少なくとも1つのカメラを含む、請求項1に記載のデバイス。
  3. 前記センサは、少なくとも1つのモーションセンサを含む、請求項1に記載のデバイス。
  4. 前記センサは、少なくとも1つの筋電図(EMG)センサを含む、請求項1に記載のデバイス。
  5. 前記命令は、前記プレイヤーがシミュレーション内イベントに応答してアクションを選択するためのより長い時間を与えるために、応答ウィンドウを変更することによって少なくとも部分的に前記結果を変更するために実行可能である、請求項1に記載のデバイス。
  6. 前記命令は、前記プレイヤーに関連付けられたシミュレーションキャラクタに影響を与えるイベントを遅延させることによって、少なくとも部分的に前記結果を変更するために実行可能である、請求項1に記載のデバイス。
  7. 前記命令は、前記プレイヤーに関連付けられたシミュレーションキャラクタに影響を与えるイベントを無効にすることによって、少なくとも部分的に前記結果を変更するために実行可能である、請求項1に記載のデバイス。
  8. 前記命令は、シミュレーションキャラクタの周囲のヒット領域を、外側にヒットが登録されていない第1の領域から、外側にヒットが登録されていない第2の領域に拡張することによって、少なくとも部分的に前記結果を変更するために実行可能であり、前記第2の領域は前記第1の領域より大きく、ヒットは前記第2の領域の内側に登録されている、請求項1に記載のデバイス。
  9. 前記少なくとも1つのプロセッサを備えている、請求項1に記載のデバイス。
  10. 前記センサは、前記プレイヤーが装着可能なコンピュータゲームヘッドセットによってサポートされる、請求項1に記載のデバイス。
  11. 前記センサはコンピュータゲームコンソールによってサポートされる、請求項1に記載のデバイス。
  12. 装置であって、
    命令によって構成された少なくとも1つのプロセッサを備え、前記命令は、
    コンピュータシミュレーションのイベントに対する前記コンピュータシミュレーションのプレイヤーの反応時間がある期間を超えるかどうかを識別すること、
    前記プレイヤーのアクションが正しいかどうかを識別すること、
    前記プレイヤーの前記アクションが正しく、前記反応時間が前記期間を超えていることを識別することに応じて、前記コンピュータシミュレーションの結果を変更すること、
    前記プレイヤーの前記アクションが正しくなく、前記反応時間が前記期間を超えていることを識別することに応じて、前記コンピュータシミュレーションの結果を変更すること、及び
    前記プレイヤーの前記アクションが正しく、前記反応時間が前記期間を超えていないと識別することに応答して、前記コンピュータシミュレーションの結果を変更しないこと、
    を行うためのものである、前記装置。
  13. コンピュータシミュレーションにおけるイベントに対する前記コンピュータシミュレーションのプレイヤーの反応時間がある期間を超えるかどうかを識別することは、少なくとも1つのセンサからの信号に少なくとも部分的に基づく、請求項12に記載の装置。
  14. 前記センサは、少なくとも1つのカメラを含む、請求項13に記載の装置。
  15. 前記センサは、少なくとも1つのモーションセンサを含む、請求項13に記載の装置。
  16. 前記センサは、少なくとも1つの筋電図(EMG)センサを含む、請求項13に記載の装置。
  17. 前記命令は、前記プレイヤーがシミュレーション内イベントに応答してアクションを選択するためのより長い時間を与えるために、応答ウィンドウを変更することによって少なくとも部分的に前記結果を変更するために実行可能である、請求項12に記載の装置。
  18. 前記命令は、前記プレイヤーに関連付けられたシミュレーションキャラクタへのダメージを変更することによって、少なくとも部分的に前記結果を変更するために実行可能である、請求項12に記載の装置。
  19. 前記命令は、シミュレーションキャラクタの周囲のヒット領域を、外側にヒットが登録されていない第1の領域から、外側にヒットが登録されていない第2の領域に拡張することによって、少なくとも部分的に前記結果を変更するために実行可能であり、前記第2の領域は前記第1の領域より大きく、ヒットは前記第2の領域の内側に登録されている、請求項12に記載の装置。
  20. 方法であって、
    正しいユーザ入力及び第1の長さを有する反応時間の遅延に応答してコンピュータゲームの結果を変更すること、
    正しくないユーザ入力及び前記第1の長さを有する反応時間の遅延に応答して前記コンピュータゲームの結果を変更しないこと、及び
    正しいユーザ入力及び前記第1の長さより短い第2の長さを有する反応時間の遅延に応答して前記コンピュータゲームの結果を変更しないこと、
    を含む、前記方法。
JP2023555390A 2021-03-12 2022-03-10 ユーザの反応時間を利用したインタラクティブコンテンツの応答ウィンドウの変更 Pending JP2024509462A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US17/200,682 2021-03-12
US17/200,682 US11771993B2 (en) 2021-03-12 2021-03-12 Changing response window for interactive content using user's reaction time
PCT/US2022/019781 WO2022192561A1 (en) 2021-03-12 2022-03-10 Changing response window for interactive content using user's reaction time

Publications (1)

Publication Number Publication Date
JP2024509462A true JP2024509462A (ja) 2024-03-01

Family

ID=83195484

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023555390A Pending JP2024509462A (ja) 2021-03-12 2022-03-10 ユーザの反応時間を利用したインタラクティブコンテンツの応答ウィンドウの変更

Country Status (5)

Country Link
US (1) US11771993B2 (ja)
EP (1) EP4304750A1 (ja)
JP (1) JP2024509462A (ja)
CN (1) CN117042855A (ja)
WO (1) WO2022192561A1 (ja)

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3547374B2 (ja) * 2000-06-23 2004-07-28 コナミ株式会社 ゲームシステム及びそれに用いる記憶媒体
US20070066403A1 (en) * 2005-09-20 2007-03-22 Conkwright George C Method for dynamically adjusting an interactive application such as a videogame based on continuing assessments of user capability
US7361091B2 (en) * 2005-10-07 2008-04-22 Howard Letovsky Player skill equalizer for video games
JP2007244522A (ja) * 2006-03-14 2007-09-27 Sony Computer Entertainment Inc ゲーム制御プログラム、ゲーム制御方法、及びゲーム装置
US8475274B2 (en) * 2007-04-26 2013-07-02 Sony Computer Entertainment America Llc Method and apparatus for dynamically adjusting game or other simulation difficulty
US20110172017A1 (en) * 2007-08-30 2011-07-14 Camelot Co., Ltd Game machine, game program, and game machine control method
US20090186693A1 (en) * 2007-12-26 2009-07-23 Edge Of Reality, Ltd. Interactive video game display method, apparatus, and/or system for object interaction
WO2010106435A1 (en) * 2009-03-20 2010-09-23 Pub Company S.R.L. Video game hardware systems and software methods using electroencephalography
US8210925B2 (en) * 2009-05-26 2012-07-03 Microsoft Corporation Adjusting difficulty level of a multiplayer game
US11253781B2 (en) * 2009-07-10 2022-02-22 Valve Corporation Player biofeedback for dynamically controlling a video game state
US8905838B2 (en) * 2012-06-26 2014-12-09 Empire Technology Development Llc Detecting game play-style convergence and changing games
TW201416112A (zh) * 2012-10-23 2014-05-01 Hon Hai Prec Ind Co Ltd 體感遊戲動作指導系統及方法
US20150065273A1 (en) * 2013-08-29 2015-03-05 Josiah Lake Sports Training Device with Motion Detecting Randomized Play Display.
US9498704B1 (en) * 2013-09-23 2016-11-22 Cignition, Inc. Method and system for learning and cognitive training in a virtual environment
US10561928B2 (en) * 2017-09-29 2020-02-18 Igt Using gaze detection to change timing and behavior
US10725538B2 (en) * 2018-06-19 2020-07-28 Igt Interacting with game elements using eye movement tracking

Also Published As

Publication number Publication date
CN117042855A (zh) 2023-11-10
EP4304750A1 (en) 2024-01-17
WO2022192561A1 (en) 2022-09-15
US20220288492A1 (en) 2022-09-15
US11771993B2 (en) 2023-10-03

Similar Documents

Publication Publication Date Title
US9557814B2 (en) Biometric interface for a handheld device
US11833430B2 (en) Menu placement dictated by user ability and modes of feedback
WO2019109778A1 (zh) 游戏对局结果的展示方法、装置及终端
US11565175B2 (en) Force feedback to improve gameplay
JP2024054207A (ja) 3次元仮想環境におけるスキル照準方法、スキル照準装置、コンピュータデバイス及びコンピュータプログラム
CN108786108B (zh) 目标对象控制方法、装置、存储介质及设备
JP7356596B2 (ja) 仮想及び拡張現実hmdシステムにおける高速予測追跡及びレイテンシ補償のための光強度ベースのcmos及びイベント検出センサの組み合わせ
WO2024011894A1 (zh) 虚拟对象的控制方法、装置、存储介质及计算机设备
JP2024509462A (ja) ユーザの反応時間を利用したインタラクティブコンテンツの応答ウィンドウの変更
WO2022100324A1 (zh) 虚拟场景的显示方法、装置、终端及存储介质
CN111052192A (zh) 基于注意力的玩家选择ai确定
US11745101B2 (en) Touch magnitude identification as input to game
US20240042314A1 (en) Away from keyboard (afk) helper for game players
US11972060B2 (en) Gesture training for skill adaptation and accessibility
US20240119921A1 (en) Gradual noise canceling in computer game
US20230221566A1 (en) Vr headset with integrated thermal/motion sensors
US20240001239A1 (en) Use of machine learning to transform screen renders from the player viewpoint
US20240066399A1 (en) Smooth switchover of computer game control
CN111208903B (zh) 信息传输方法、穿戴式设备及介质
US20240115933A1 (en) Group control of computer game using aggregated area of gaze
US20220355211A1 (en) Controller action recognition from video frames using machine learning
US11474620B2 (en) Controller inversion detection for context switching
US10773153B2 (en) Method and system for a personal interaction game platform
KR101639037B1 (ko) 실시간 선택 스킬을 적용한 게임화면 표시방법 및 어플리케이션
CN111450539A (zh) 信息显示方法、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230908