JP2021516823A - 音源決定方法並びにその装置、コンピュータプログラム、及び電子装置 - Google Patents

音源決定方法並びにその装置、コンピュータプログラム、及び電子装置 Download PDF

Info

Publication number
JP2021516823A
JP2021516823A JP2020551314A JP2020551314A JP2021516823A JP 2021516823 A JP2021516823 A JP 2021516823A JP 2020551314 A JP2020551314 A JP 2020551314A JP 2020551314 A JP2020551314 A JP 2020551314A JP 2021516823 A JP2021516823 A JP 2021516823A
Authority
JP
Japan
Prior art keywords
sound source
virtual object
source virtual
position mark
transparency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020551314A
Other languages
English (en)
Other versions
JP7170742B2 (ja
Inventor
イオウ,ハンハオ
シェン,シアオビン
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2021516823A publication Critical patent/JP2021516823A/ja
Priority to JP2022175217A priority Critical patent/JP2023011794A/ja
Application granted granted Critical
Publication of JP7170742B2 publication Critical patent/JP7170742B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/80Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
    • G01S3/802Systems for determining direction or deviation from predetermined direction
    • G01S3/808Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems
    • G01S3/8083Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems determining direction of source
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5378Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for displaying an additional top view, e.g. radar screens or maps
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/20Position of source determined by a plurality of spaced direction-finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/26Position of receiver fixed by co-ordinating a plurality of position lines defined by path-difference measurements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/162Interface to dedicated audio devices, e.g. audio drivers, interface to CODECs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • A63F2300/306Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display for displaying a marker associated to an object or location in the game field
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • A63F2300/6072Methods for processing data by generating or executing the game program for sound processing of an input signal, e.g. pitch and rhythm extraction, voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • A63F2300/6081Methods for processing data by generating or executing the game program for sound processing generating an output signal, e.g. under timing constraints, for spatialization
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Stereophonic System (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

音源決定方法であって、アプリケーションクライアントによって制御される第1仮想キャラクターの仮想シーンにおける第1位置を取得するステップと、第1位置に関連付けられた音源検出領域では、音源仮想オブジェクトの仮想シーンにおける第2位置を検出するステップと、第1位置と第2位置との間の音源距離に基づき、音源仮想オブジェクトにマッチングした位置マークの透明度を決定するステップであって、位置マークが、音源仮想オブジェクトが位置する第2位置を識別するために用いられるステップと、アプリケーションクライアントのインタラクティブインタフェースに、透明度に応じて、音源仮想オブジェクトの位置マークを表示するステップと、を含む。音源決定装置、記憶媒体、電子装置及びコンピュータプログラムも提供する。当該方法により、ユーザは、仮想シーンにおいて、音源仮想オブジェクトの位置を正確に決定することができる。

Description

本出願は、2018年5月29日にて中国特許庁に提出された、出願番号が2018105324132であって、出願名称が「音源決定方法と装置、記憶媒体、及び電子装置」である中国特許出願に基づく優先権を主張し、その全内容を本出願に参照により援用する。
本出願はコンピュータ分野に関わり、具体的に、音源決定技術に関わる。
いくつかの端末アプリケーションにおいて、仮想オブジェクトが発する音声を仮想シーンでシミュレーションすることで、当該仮想シーンに参加しているユーザが、聴覚を通じて当該仮想シーンにおける音源オブジェクトの位置を決定し、仮想シーンに配置された、当該音源オブジェクトとのインタラクティブタスクを完了することができる。
しかしながら、仮想シーンで再生される音声は、一般的にマシンシミュレーションによって取得されるから、音声の正確度を保証できないため、シミュレーションされた音声のみに基づいて音源オブジェクトを決定するプロセスでは、音源オブジェクトを正確に決定できないという問題が存在する可能性がある。
上記の問題に鑑みて、有効な解決策はまだ提案されていない。
本出願の実施例は、ユーザが仮想シーンにおいて、音源仮想オブジェクトの位置を正確に決定することができるように、音源決定方法と装置、記憶媒体、及び電子装置を提供する。
本出願の実施例の一態様によれば、音源決定方法を提供し、アプリケーションクライアントによって制御される第1仮想キャラクターの仮想シーンにおける第1位置を取得するステップと、前記第1位置に関連付けられた音源検出領域では、音源仮想オブジェクトの前記仮想シーンにおける第2位置を検出するステップと、前記第1位置と前記第2位置との間の音源距離に基づき、前記音源仮想オブジェクトにマッチングした位置マークの透明度を決定するステップであって、前記位置マークが、前記音源仮想オブジェクトが位置する前記第2位置を識別するために用いられるステップと、前記アプリケーションクライアントのインタラクティブインタフェースに、前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示するステップと、を含む。
本出願の実施例の別の態様によれば、音源決定装置をさらに提供し、アプリケーションクライアントによって制御される第1仮想キャラクターの仮想シーンにおける第1位置を取得するための第1取得ユニットと、前記第1位置に関連付けられた音源検出領域では、音源仮想オブジェクトの前記仮想シーンにおける第2位置を検出するための第2取得ユニットと、前記第1位置と前記第2位置との間の音源距離に基づき、前記音源仮想オブジェクトにマッチングした位置マークの透明度を決定するための第1決定ユニットであって、前記位置マークが、前記音源仮想オブジェクトが位置する前記第2位置を識別するために用いられる第1決定ユニットと、前記アプリケーションクライアントのインタラクティブインタフェースに、前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示するための表示ユニットと、を含む。
本出願の実施例のさらに別の態様によれば、記憶媒体をさらに提供し、当該記憶媒体にはコンピュータプログラムが記憶され、当該コンピュータプログラムは、実行されるときに、前記音源決定方法を実行するように配置される。
本出願の実施例のさらに別の態様によれば、メモリと、プロセッサと、メモリに記憶され、プロセッサで実行され得るコンピュータプログラムとを含む電子装置をさらに提供し、前記プロセッサは、コンピュータプログラムによって、前記音源決定方法を実行する。
本出願の実施例のさらに別の態様によれば、命令が含まれるコンピュータプログラム製品をさらに提供し、前記コンピュータプログラム製品は、コンピュータで実行されるときに、前記音源決定方法を前記コンピュータに実行させる。
本出願の実施例によって提供される音源決定方法において、アプリケーションクライアントによって制御される第1仮想キャラクターの仮想シーンにおける第1位置を取得するステップと、前記第1位置に関連付けられた音源検出領域では、音源仮想オブジェクトの前記仮想シーンにおける第2位置を検出するステップと、前記第1位置と前記第2位置との間の音源距離に基づき、前記音源仮想オブジェクトにマッチングした位置マークの透明度を決定するステップであって、位置マークが、音源仮想オブジェクトが位置する第2位置を識別するために用いられるステップと、アプリケーションクライアントのインタラクティブインタフェースに、前記透明度に応じて、音源仮想オブジェクトの位置マークを表示するステップとを含む。前記方法において、音源仮想オブジェクトの仮想シーンにおける第2位置を取得した後、第1仮想キャラクターが位置する第1位置と当該第2位置との間の距離に基づき透明度を決定することができ、さらに、当該透明度に応じて、インタラクティブインタフェースに音源仮想オブジェクトの位置マークを表示し、このようにして、ユーザは、シミュレーションされた音声のみによって音源仮想オブジェクトの仮想シーンにおける位置を決定するのではなく、騒々しい環境においても、ユーザが音源仮想オブジェクトの仮想シーンにおける位置を正確に決定することに影響を与えず、仮想シーンにおいてシミュレーションされた音声のみに基づき音源仮想オブジェクトの位置を決定することによる、決定された音源仮想オブジェクトの位置の正確度を保証できないという問題を解決する。
ここで説明する図面は、本出願に対するさらなる理解を提供するために用いられ、本出願の一部を構成し、本出願の例示的な実施例及びその説明は、本出願に対する不適切な限定を構成するものではなく、本出願を解釈するために用いられる。
本出願の実施例による音源決定方法の応用環境の概略図である。 本出願の実施例による任意選択な音源決定方法のフロー概略図である。 本出願の実施例による任意選択な音源決定方法の概略図である。 本出願の実施例による他の任意選択な音源決定方法の概略図である。 本出願の実施例による他の任意選択な音源決定方法の概略図である。 本出願の実施例による他の任意選択な音源決定方法の概略図である。 本出願の実施例による他の任意選択な音源決定方法の概略図である。 本出願の実施例による他の任意選択な音源決定方法の概略図である。 本出願の実施例による他の任意選択な音源決定方法の概略図である。 本出願の実施例による任意選択な音源決定装置の構成概略図である。 本出願の実施例による任意選択な電子装置の構成概略図である。
当業者が本出願の技術案をよりよく理解するために、以下は本出願の実施例の図面を結合して、本出願の実施例の技術案を明らか且つ完全に記載し、明らかに、記載された実施例は全ての実施例ではなく、本出願の一部の実施例のみである。本出願の実施例に基づき、創造的な作業なしに当業者によって得られる他の全ての実施例は、いずれも本出願の保護範囲にあるものとする。
なお、本出願の明細書、特許請求の範囲、及び前記図面における「第1」、「第2」などの用語は、特定の順序又は優先順位を記載するためのものではなく、類似のオブジェクトを区別するために用いられることに留意されたい。理解するように、このように使用されるデータは適切な状況で互いに置き換えられるから、本明細書に記載される本出願の実施例は、本明細書における図示又は記載される順序以外の順序で実施可能である。さらに、「含む(include)」、「有する(contain)」という用語及びこれらの任意の変形は、非排他的な包括を包含することを意味する。例えば、一連のステップ又はユニットを含むプロセス、方法、システム、製品、又は機器は、必ず明らかに列挙されたステップ又はユニットに限定されず、明らかに列挙されていないか又はそのようなプロセス、方法、製品、又は機器にとって固有の他のステップ又はユニットが含まれる場合がある。
本出願の実施例の一態様によれば、音源決定方法を提供し、任意選択な実施形態として、前記音源決定方法は、図1に示される環境に適用されてもよいが、これに限定されていない。
アプリケーションクライアント102がネットワーク104を介してサーバ106とインタラクトする過程では、アプリケーションクライアント102は、それによって制御される第1仮想キャラクターの仮想シーンにおける第1位置を取得し、第1位置に関連付けられた音源検出領域では、音源仮想オブジェクトの仮想シーンにおける第2位置を検出する。第2位置が検出された後、第1位置と第2位置との間の音源距離に基づき、音源仮想オブジェクトにマッチングした位置マークの透明度を決定する。位置マークの透明度を決定した後、当該透明度に応じて、音源仮想オブジェクトの位置マークを表示する。
なお、関連技術において、モバイル端末においてアプリケーションクライアントを実行する過程では、ユーザは一般的に、シミュレーションされた音声に応じて、音源仮想オブジェクトの仮想シーンにおける位置を決定する。ただし、シミュレーションされた音源の方向及び位置は明確ではないため、ユーザは一般的に、当該シミュレーションされた音声に基づき、音源仮想オブジェクトの仮想シーンにおける位置を正確に決定できず、特に、ユーザの現在の環境が比較的騒々しい場合に、ユーザがシミュレーションされた音声をはっきりと聞くさえ難しくなるため、ユーザが仮想シーンにおいて音源仮想オブジェクトの位置を正確に特定することはより困難になる。
本実施例において、音源仮想オブジェクトの仮想シーンにおける第2位置を取得した後、第1仮想キャラクターが位置する第1位置と第2位置との間の距離に基づき、位置マークの透明度を決定することができ、さらに、当該透明度に応じて、音源仮想オブジェクトの位置マークを表示し、即ち、アプリケーションクライアントのインタラクティブインタフェースに、音源仮想オブジェクトの位置決め情報を表示し、当該方法は仮想シーンにおいて位置マークを表示することで、音源仮想オブジェクトの仮想シーンにおける位置をユーザに通知し、シミュレーションされた音声のみに基づき音源仮想オブジェクトの仮想シーンにおける位置を決定するのではなく、対照的に、本出願は、音源仮想オブジェクトの位置をより直感的にユーザに通知することができ、従来技術における決定された音源仮想オブジェクトの位置決め情報の正確度が低いという問題を解決し、音源仮想オブジェクトの位置決め情報の正確度を向上させる。
任意選択で、前記音源決定方法は、例えば、携帯電話、タブレット、ラップトップ、PC(パーソナルコンピュータ)、その他の端末などの、データを計算できる端末に適用されてもよいが、これらに限定されない。前記ネットワークは、無線ネットワーク又は有線ネットワークを含んでもよいが、これらに限定されない。当該無線ネットワークは、ブルートゥース(Bluetooth)、WIFI、及び無線通信を実現する他のネットワークを含む。前記有線ネットワークは、広域ネットワーク、メトロポリタンエリアネットワーク、及びローカルエリアネットワークを含んでもよいが、これらに限定されない。前記サーバは、データ計算を実行できる任意のハードウェア機器を含んでもよいが、これに限定されない。
任意選択で、任意選択な実施形態として、図2に示すように、前記音源決定方法は、
アプリケーションクライアントによって制御される第1仮想キャラクターの仮想シーンにおける第1位置を取得するステップS202と、
前記第1位置に関連付けられた音源検出領域では、音源仮想オブジェクトの前記仮想シーンにおける第2位置を検出するステップS204と、
前記第1位置と前記第2位置との間の音源距離に基づき、前記音源仮想オブジェクトにマッチングした位置マークの透明度を決定するステップS206であって、前記位置マークが、前記音源仮想オブジェクトが位置する前記第2位置を識別するために用いられるステップS206と、
前記アプリケーションクライアントのインタラクティブインタフェースに、前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示するステップS208と、を含む。
任意選択で、前記音源決定方法は、ゲーム分野又はシミュレーション訓練分野に適用されてもよいが、これらに限定されない。以下、前記音源決定方法をゲーム分野に関連して説明する。前記第1仮想キャラクターは、ユーザによって制御されるゲームキャラクターであってもよいが、これに限定されない。前記音源仮想オブジェクトは、ゲームにおける、音声を発し得るオブジェクトであってもよいが、これに限定されない。前記位置マークはクライアントに表示されており、音源仮想オブジェクトの位置を表示するためのアイコンであってもよい。ゲーム中に、ユーザによって制御されるゲームキャラクターの音源検出範囲内で、音声を発生させるオブジェクトが検出される場合、音声を発生させるオブジェクトとユーザによって制御されるゲームキャラクターとの間の距離に基づき、アイコンの透明度を決定する。決定したアイコンの透明度に基づき、クライアントの表示インタフェースに当該透明度のアイコンを表示する。
例えば、以下、図3を結合して説明する。図3に示すように、現在ユーザがゲームしている間に、他のユーザによって制御される、家屋近傍にある前方のゲームオブジェクトは、現在ユーザによって制御されるゲームオブジェクトの音源検出範囲内に位置する。家屋近傍にあるゲームオブジェクトが例えば銃の音などの音声を発した後、現在ユーザによって制御されるゲームオブジェクトと家屋近傍にあるゲームオブジェクトとの間の距離に基づき、家屋近傍にあるゲームオブジェクトの位置を示すためのアイコンの透明度を決定し、当該透明度に応じてクライアントにアイコンを表示する。
本出願の実施例において、音源仮想オブジェクトの仮想シーンにおける第2位置を取得した後、第1仮想キャラクターが位置する第1位置と第2位置との間の距離に基づき、音源仮想オブジェクトの位置マークの透明度を決定し、さらに当該透明度に応じて該位置マークを表示することで、アプリケーションクライアントに音源仮想オブジェクトの位置決め情報を表示し、当該方法は、仮想シーンにおいて位置マークを表示することで、音源仮想オブジェクトの仮想シーンにおける位置をユーザに通知し、シミュレーションされた音声のみに基づき、音源仮想オブジェクトの仮想シーンにおける位置を決定するのではなく、対照的に、本出願は、音源仮想オブジェクトの位置をより直感的にユーザに通知することができ、ユーザが決定した音源仮想オブジェクトの位置決め情報の正確度が低いという問題を解決し、音源仮想オブジェクトの位置決め情報の正確度を向上させる。
任意選択な実施案として、前記第1位置と前記第2位置との間の音源距離に基づき、前記音源仮想オブジェクトにマッチングした位置マークの透明度を決定することは、
前記音源仮想オブジェクトにマッチングした前記音源検出領域の検出半径を取得するステップS1と、
前記音源距離と前記検出半径という両者の間の比に基づき、前記透明度を決定するステップS2であって、前記比が小さくなる場合、前記透明度が指示する透明程度を小さくなるように調整し、前記比が大きくなる場合、前記透明度が指示する透明程度を大きくなるように調整するステップS2と、を含む。
任意選択で、引き続いて前記ゲーム分野に関連して説明する。図4に示すように、ユーザによって制御されるゲームにおけるキャラクターの検出半径をRとし、検出半径内に、音声を発することができるオブジェクC1と、音声を発することができるオブジェクトC2とが存在する。C1とユーザによって制御されるゲームキャラクターとの間の距離と、検出半径との比はR1/Rであり、C3とユーザによって制御されるゲームキャラクターとの間の距離と、検出半径との比はR3/Rであり、R1/RがR3/Rより大きいから、C1の位置マークの透明度が、C3の位置マークの透明度より大きく、即ち、C3の位置マークと比べると、C1の位置マークの表示効果がより透明である。音声を発することができるオブジェクトC2がユーザによって制御されるゲームキャラクターの検出半径の外に位置するため、C2とユーザによって制御されるゲームキャラクターとの間の距離と、検出半径との比が1より大きく、前記音源距離と検出半径との比が1以上である場合、位置マークの透明度が100%であり得るから、位置マークは完全に透明であり、ユーザに見られない。
本実施例によれば、音源距離と前記検出半径という両者の間の比に基づき前記透明度を決定することで、第1位置から遠い音源仮想オブジェクトの位置マークであるほど、透明になり、これによって、音源仮想オブジェクトの位置を正確に位置決めすることができ、音源決定の正確度を向上させるという効果が得られる。
任意選択な実施案として、前記音源仮想オブジェクトにマッチングした前記音源検出領域の検出半径を取得することは、
前記音源仮想オブジェクトによって生成される音声の音源タイプ、及び前記音源仮想オブジェクトが位置する環境の環境標識を取得するステップS1と、
前記音源タイプ及び前記環境標識に基づき前記検出半径を決定するステップS2と、を含む。
任意選択で、異なる音源タイプに対して、音源検出領域の検出半径もそれに応じて変更する。例えば、引き続いて前記ゲーム分野に関連して説明する。図5に示すように、A1、A2はドアの開閉音が発生する位置であり、図5における最小の点線円は、ドアの開閉音を検出し得る範囲であるから、A1位置のドアの開閉音が検出され、第1仮想オブジェクトのクライアントに表示されることができるが、A2位置のドアの開閉音が検出されることができない。同様に、B1、B2は銃の音が発生する位置であり、図5の中央の点線円は銃の音の検出範囲であるから、B1の位置で発生された銃の音が検出されることができるが、B2の位置で発生された銃の音が検出されることができない。同様に、C1、C2は、エアドロップ音が発生する位置であり、図5における最大の点線円はエアドロップ音を検出し得る範囲であり、C1位置のエアドロップ音が検出されることができるが、C2位置のエアドロップ音が検出されることができない。
また、環境の違いも音源検出領域の検出半径に影響する。例えば、同じように銃の音を検出しても、晴れた日の検出半径と雨の日の検出半径は異なる。そこで、検出半径を決定する場合、環境の環境標識に基づき検出半径を調整してもよい。例えば、異なる環境標識に対して異なる係数を設置し、環境標識が異なる場合に、検出半径と環境標識に対応する係数に基づき、現在の環境における検出半径を決定することができる。
なお、異なる音源タイプについて、異なる音源検出領域の検出半径を事前に設置してもよい。又は、一部の異なる音源タイプについて、対応する音源検出領域の検出半径を同じ値に設置してもよい。
本実施例によれば、音源仮想オブジェクトによって生成される音声の音源タイプと、音源仮想オブジェクトが位置する環境の環境標識に基づき、検出半径を決定することで、位置音源決定の正確度を向上させるとともに、位置マーク表示の柔軟性を向上させる。
任意選択な実施案として、前記音源タイプ及び前記環境標識に基づき前記検出半径を決定することは、
前記音源タイプに対して配置された初期検出半径を取得するステップS1であって、前記音源タイプによって指示する音声の周波数が前記初期検出半径の大きさに反比例するステップS1と、
前記環境標識にマッチングした音声トリガー閾値を取得するステップS2と、
前記音声トリガー閾値に基づき、前記初期検出半径を縮小するように調整することで、前記検出半径を取得するステップステップS3と、を含む。
例えば、引き続いて前記ゲーム分野に関連して説明する。ゲーム中に、ユーザによって制御されるゲームキャラクターが音源仮想オブジェクトを検出するための検出半径の初期値を設置する必要がある。音源仮想オブジェクトが発する音声の周波数によって决定することができる。例えば、銃の音を検出する検出半径とドアの開閉音を検出する検出半径との音声周波数が異なる場合、音声周波数が小さい音声であるほど、対応する検出半径がより大きい。さらに、ユーザによって制御されるゲームキャラクターの現在の環境を決定し、当該環境に対応する環境標識に基づき、対応する音声トリガー閾値を決定し、当該音声トリガー閾値に基づき、音源タイプに基づき決定された初期検出半径を相応的に縮小して、このように、音源タイプと環境標識に対応する検出半径を取得する。
本実施例によれば、初期検出半径を取得し、環境標識にマッチングした音声トリガー閾値に基づき検出半径を縮小することで、異なる環境に応じて初期検出半径を調整し、表示位置決定の正確度を向上させるという効果が得られる。
任意選択な実施案として、前記アプリケーションクライアントのインタラクティブインタフェースに、前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示することは、
前記音源仮想オブジェクトによって生成される音声の音源タイプを取得するステップS1と、
前記音源タイプにマッチングした前記音源仮想オブジェクトの前記位置マークを表示するステップS2と、を含む。
例えば、引き続いて前記ゲーム分野に関連して説明する。図6に示すように、音声を発することができるオブジェクトによって生成される音声は必ずしも同じではない。例えば、自動車がエンジン音を生成する場合、相応的に、自動車に対応する位置を、1台の自動車のアイコンとしてマークし、射撃によって銃の音を生成する場合、相応的に、銃の音に対応する位置を銃弾のアイコンとしてマークする。
本実施例によれば、音源仮想オブジェクトによって生成される音声の音源タイプに基づき位置マークを決定することで、ユーザが位置マークに基づき音源タイプを正確に決定するようにし、音源決定の正確度を向上させるという目的を達成する。
任意選択な実施案として、前記音源タイプにマッチングした前記音源仮想オブジェクトの前記位置マークを表示することは、
前記音源タイプにマッチングした色に応じて前記位置マークを表示するステップS1と、
前記音源タイプにマッチングした形状に応じて前記位置マークを表示するステップS2と、
前記音源タイプにマッチングした標識に応じて前記位置マークを表示するステップS3と、の少なくとも1つを含む。
例えば、引き続いて前記ゲーム分野に関連して説明する。前記位置マークを表示する場合、異なる色又は形状、或いは標識によって表示することができる。例えば、異なる色の位置マークで音声の慌ただしさ程度を表すことができる。例えば、銃の音の場合、銃の音は、銃弾という標識で表され、慌ただしい銃の音について、赤い銃弾という標識で表され、慌ただしくない銃の音について白い銃弾という標識で表示される。或いは、異なる形状の位置マークで音声の慌ただしさ程度を表す。例えば、慌ただしい銃の音について短機関銃の銃弾という標識で表され、慌ただしくない銃の音について狙撃銃の銃弾という標識で表される。
本実施例によれば、異なる色、形状を利用して位置マークを調整することで、ユーザが異なる表示スキームに従って、音源仮想オブジェクトによって生成される音声の音源タイプを知ることができるようにし、音源決定の正確度を向上させるとともに、位置マーク表示の柔軟性を向上させる。
任意選択な実施案として、前記音源タイプにマッチングした前記音源仮想オブジェクトの前記位置マークを表示することは、
前記アプリケーションクライアントの前記インタラクティブインタフェースに表示されるマップにおける前記第2位置に、前記音源仮想オブジェクトの前記位置マークを表示するステップS1と、
前記アプリケーションクライアントの前記インタラクティブインタフェースに表示されるユニバーサルホイールにおける、前記第2位置に対応する方向に、前記音源仮想オブジェクトの前記位置マークを表示するステップS2と、の少なくとも1つを含む。
例えば、引き続いて前記ゲーム分野に関連して説明する。インタラクティブインタフェースに位置マークを表示する際に、位置マークをマップに表示してもよく、位置マークをユニバーサルホイールに表示してもよい。前記ユニバーサルホイールは、方向付きのホイールであってもよい。
本実施例によれば、インタラクティブインタフェースのマップに位置マークを表示するか、又はインタラクティブインタフェースのユニバーサルホイールに位置マークを表示することで、インタラクティブインタフェースのメインインタフェースを遮蔽することがなく、音源決定の正確度を向上させるとともに、ユーザ体験を向上させることができる。
任意選択な実施案として、前記音源タイプにマッチングした前記音源仮想オブジェクトの前記位置マークを表示することは、
前記音源仮想オブジェクトには消音装置が配置された場合、前記位置マークの表示範囲を調整するステップS1であって、前記消音装置が配置された前記音源仮想オブジェクトの前記位置マークの表示範囲が、前記消音装置が配置されていない前記音源仮想オブジェクトの前記位置マークの表示範囲より大きいステップS1を含む。
例えば、引き続いて前記ゲーム分野に関連して説明する。図7に示すように、図7は、消音装置が配置された音源仮想オブジェクトをミニマップに表示する状況である。自動車が検出半径内で音声を出した後、自動車の位置マークの透明度を決定した後、自動車の位置マークをミニマップに表示する。検出半径内において、消音装置が配置された銃器から音声を出した後、銃器には消音器が配置されるので、音声が出された銃器の位置マークの透明度を決定した後、銃器の位置マークをミニマップに表示する場合、前記銃器の位置マークを拡大した後、ミニマップに表示する。
本実施例によれば、消音装置が配置された場合、位置マークの表示範囲を調整することで、音源決定の正確度を向上させるとともに、位置マーク表示の柔軟性を向上させることができる。
任意選択な実施案として、前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示することは、
複数の前記音源仮想オブジェクトが検出され、且つ複数の前記音源仮想オブジェクトが前記第1仮想キャラクターの異なる方向に位置する場合、複数の音源仮想オブジェクトにそれぞれマッチングした位置マークの透明度に応じて、複数の前記音源仮想オブジェクトのそれぞれの前記位置マークを同時に表示するステップS1を含む。
例えば、引き続いて前記ゲーム分野に関連して説明する。ゲーム中に、ユーザによって制御されるゲームキャラクターが、音声を発する複数のオブジェクトを検出した場合、上記の音声が異なる方向に分布している場合、各音源仮想オブジェクトを位置マークによって表示する。
なお、前記音源仮想オブジェクトには1つの制御閾値があり、検出された音源仮想オブジェクトの数が当該制御閾値を超える場合、一部の音源仮想オブジェクトに対応する位置マークを表示しなくてもよいことに留意されたい。
本実施例によれば、異なる方向における音源仮想オブジェクトの位置マークを同時に表示することで、複数の音源仮想オブジェクトを同時に表示するという効果が得られ、音源決定の正確度を向上させるとともに、ユーザが複数の音源仮想オブジェクトの仮想環境における位置を同時に知ることができる。
任意選択な実施案として、前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示することは、
複数の前記音源仮想オブジェクトが検出され、且つ複数の前記音源仮想オブジェクトが前記第1仮想キャラクターの同じ方向にある場合、複数の前記音源仮想オブジェクトのそれぞれの音声トリガー開始時間を取得するステップS1と、
2つの隣接する前記音源仮想オブジェクトの前記音声トリガー開始時間のトリガー時間間隔を順次取得するステップS2と、
前記トリガー時間間隔が第1閾値より大きい場合、2つの隣接する前記音源仮想オブジェクトのそれぞれにマッチングした位置マークの透明度を順次決定し、決定した透明度に応じて、2つの隣接する前記音源仮想オブジェクトの前記位置マークを順次表示するステップS3と、
前記トリガー時間間隔が前記第1閾値より小さい場合、2つの隣接する前記音源仮想オブジェクトのうちの、前記音声トリガー開始時間がより後ろにある対象音源仮想オブジェクトについて、前記対象音源仮想オブジェクトにマッチングした位置マークの透明度を決定し、決定した前記透明度に応じて前記対象音源仮想オブジェクトの前記位置マークを表示するステップS4と、を含む。
例えば、引き続いて前記ゲーム分野に関連して説明する。ユーザによって制御されるキャラクターが複数の音声を検出し、且つ前記複数の音声を発する複数の音源仮想オブジェクトがユーザによって制御されるゲームキャラクターの同じ方向にある場合、複数の音声の間の間隔が所定の第1閾値より大きい場合、前記音声が検出された順序に従って、各音声のそれぞれ対応する音源仮想オブジェクトの位置マークを順次表示する。前記音声の間の間隔が第1閾値より小さい場合、検出された時間に従って、後に検出された音声に対応する位置マークを使用して、先に検出された音声の位置マークを置き換える必要がある。
任意選択で、前記第1閾値は、先に検出された音声に対応する位置マークの表示周期であってもよい。
以下、図8を結合して説明する。検出された銃の音と車の音が同じ方向にある。図8に示すように、図8におけるa状況は、車の音が先に検出され、銃の音が後に検出され、銃の音の表示周期が車の音の表示周期内であり、この場合、車の音の位置マークのみを表示する。図8におけるb状況は、車の音が先に検出され、銃の音が後に検出され、銃の音の位置マークの表示周期の一部が車の音の位置マークの表示周期内であり、この場合、銃の音が検出された後、銃の音の位置マークを表示し、車の音の位置マークを表示していない。図8におけるc状況は、車の音が先に検出され、銃の音が後に検出され、銃の音の位置マークの表示周期が車の音の位置マークの表示周期と重ならなく、この場合、検出された先後順序に従って、車の音の位置マークと銃の音の位置マークを順次表示する。
本実施例によれば、前記技術案によって同じ方向における音源仮想オブジェクトの位置マークを表示することで、同じ方向における複数の位置マークが同時に表示されることによる、互いに遮蔽するという状況を回避することができ、音源決定の正確度を向上させるとともに、位置マークの表示効率を向上させる。
任意選択な実施案として、前記アプリケーションクライアントによって制御される第1仮想キャラクターの仮想シーンにおける第1位置を取得した後、さらに、
前記第1位置に関連付けられた前記音源検出領域では、音声を発生させる複数の仮想オブジェクトが検出され、且つ前記複数の仮想オブジェクトが同じ仮想キャラクターに関連つけられた場合、前記複数の仮想オブジェクトのそれぞれの音声トリガー開始時間を取得するステップS1と、
前記音声トリガー開始時間に基づき、前記複数の仮想オブジェクトから、対象仮想オブジェクトを前記音源仮想オブジェクトとして決定するステップS2と、を含む。
例えば、引き続いてゲーム分野に関連して説明する。前記仮想キャラクターは、ゲームにおける他のユーザによって制御されるキャラクターであってもよい。検出された複数の音声が同じゲームキャラクターによって生成されるものである場合、前記複数の音声の位置マークから1つの位置マークを選択して表示する。表示規則は、最初に検出された音声の位置マークを表示することであってもよく、又は、最後に検出された音声の位置マークを表示することであってもよい。
本実施例によれば、音声トリガー開始時間に基づき音源仮想オブジェクトを決定することで、複数の仮想オブジェクトが同じ位置で同時に表示されることによる、互いに遮蔽するという問題を回避することができ、音源決定の正確度を向上させるとともに、位置マークの表示効率を向上させる。
任意選択な実施案として、前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示することは、
前記音源仮想オブジェクトの前記位置マークに含まれる方向マークを取得するステップS1であって、前記方向マークが、音声トリガー開始時間の前記第1仮想キャラクターに対する前記音源仮想オブジェクトの移動方向を指示するために用いられるステップS1と、
前記音源仮想オブジェクトにマッチングした表示周期内で前記方向マークを表示するステップS2と、を含む。
例えば、引き続いてゲーム分野に関連して説明する。音声が検出された場合、前記方向マークは、音声を発するオブジェクトの移動方向である。図9に示すように、インタラクティブインタフェースに車の音の位置マークを表示するとともに、自動車の移動方向を表示する。前記移動方向は、今回の自動車の位置マークを表示する間に更新されることがない。
本実施例によれば、音源仮想オブジェクトの移動方向を表示することで、インタラクティブインタフェースにおいて音源仮想オブジェクトの移動方向を明らかに了解し、音源決定の正確度を向上させるとともに、ユーザ体験を向上させる。
任意選択な実施案として、前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示する前に、さらに、
前記音源仮想オブジェクトが位置する前記第2位置が、前記仮想シーンにおける指定位置にある場合、前記音源仮想オブジェクトの前記位置マークの表示を禁止するステップS1であって、前記指定位置には、前記音源仮想オブジェクトの前記仮想シーンにおける生成地が含まれるステップS1と、
前記音源仮想オブジェクトが指定姿態にある場合、前記音源仮想オブジェクトの前記位置マークの表示を禁止するステップS2であって、前記指定姿態には匍匐状態が含まれるステップS2と、
前記音源仮想オブジェクトと前記第1仮想キャラクターが同じ陣営マークを有する場合、前記第1仮想キャラクターに対して、前記音源仮想オブジェクトの前記位置マークの表示を禁止するステップS3と、の少なくとも1つを含む。
例えば、引き続いて前記ゲーム分野に関連して説明する。ゲーム中に、生成地などの特殊位置にある場合、音声が検出されたとしても、音声の位置マークを表示することがない。又は、音声を発した音源仮想オブジェクトが例えば、うつ伏せ、匍匐前進などの特殊状態にある場合、音源仮想オブジェクトから発した音声が検出されたとしても、音声の位置マークを表示することがなく、又は、音声を発した音源仮想オブジェクトとユーザによって制御されるキャラクターが同じ陣営にある場合、音源仮想オブジェクトが音声を発しても、音声の位置マークを表示することがない。
本実施例によれば、上記の場合に位置マークの表示を禁止することで、一定の条件で、音源仮想オブジェクトを隠すことができ、これによって、音源決定の正確度を向上させるとともに、位置マーク表示の柔軟性を向上させる。
なお、上記の各方法実施例について、簡単に説明するために、一連の動作の組み合わせとして表現されたが、当業者が知っているように、本出願は、説明された動作順序に限定されず、なぜならば、本出願によれば、一部のステップが他の順序で又は同時に実行できるためである。また、当業者が知っているように、明細書で説明された実施例はいずれも好適な実施例に属し、関連する動作及びモジュールは、本出願に必らずしも必須ではない。
以上の実施形態の説明によれば、当業者が明らかに理解するように、上記の実施例による方法は、ソフトウェアと必要な汎用ハードウェアプラットフォームとの組み合わせという形態で実現されることができ、無論、ハードウェアを利用してもよいが、一般的に、前者はより好適な実施形態である。このような理解に基づき、本出願の技術案は、本質的又は従来技術に寄与する部分が、ソフトウェア製品という形態で具現化されてもよく、当該コンピュータソフトウェア製品は1つの記憶媒体(例えばROM/RAM、磁気ディスク、光ディスク)に記憶され、本出願の各実施例に記載の方法を1台の端末機器(携帯電話、コンピュータ、サーバ、又はネットワーク機器など)に実行させるための、いくつかの命令を含む。
本出願の実施例の他の態様によれば、前記音源決定方法を実施するための音源決定装置をさらに提供し、図10に示すように、当該装置は、
(1)アプリケーションクライアントによって制御される第1仮想キャラクターの仮想シーンにおける第1位置を取得するための第1取得ユニット1002と、
(2)前記第1位置に関連付けられた音源検出領域から、音源仮想オブジェクトの前記仮想シーンにおける第2位置を検出するための第2取得ユニット1004と、
(3)前記第1位置と前記第2位置との間の音源距離に基づき、前記音源仮想オブジェクトにマッチングした位置マークの透明度を決定するための第1決定ユニット1006であって、前記位置マークが、前記音源仮想オブジェクトが位置する前記第2位置を識別するために用いられる第1決定ユニット1006と、
(4)前記アプリケーションクライアントのインタラクティブインタフェースに、前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示するための表示ユニット1008と、を含む。
任意選択で、前記音源決定装置は、ゲーム分野又はシミュレーション訓練分野に適用されてもよいが、これらに限定されない。任意選択な実施案として、前記第1決定ユニット1006は、
前記音源仮想オブジェクトにマッチングした前記音源検出領域の検出半径を取得するための第1取得モジュールと、
前記音源距離と前記検出半径という両者の間の比に基づき前記透明度を決定するための第1決定モジュールであって、前記比が小さくなる場合、前記透明度が指示する透明程度を小さくなるように調整し、前記比が大きくなる場合、前記透明度が指示する透明程度を大きくなるように調整する第1決定モジュールと、を含む。
本実施例によれば、音源距離と前記検出半径という両者の間の比に基づき前記透明度を決定することで、第1位置から遠い音源仮想オブジェクトの位置マークであるほど、透明になり、これにより、音源仮想オブジェクトの位置を正確に位置決めし、音源決定の正確度を向上させるという効果が得られる。
任意選択な実施案として、前記第1取得モジュールは、
前記音源仮想オブジェクトによって生成される音声の音源タイプ、及び前記音源仮想オブジェクトが位置する環境の環境標識を取得するための取得サブモジュールと、
前記音源タイプ及び前記環境標識に基づき前記検出半径を決定するための決定サブモジュールと、を含む。
本実施例によれば、音源仮想オブジェクトによって生成される音声の音源タイプと、音源仮想オブジェクトが位置する環境の環境標識に基づき、検出半径を決定することで、位置音源決定の正確度を向上させるとともに、位置マーク表示の柔軟性を向上させることができる。
任意選択な実施案として、前記決定サブモジュールは具体的に以下のために用いられ、
前記音源タイプに対して配置した初期検出半径を取得し、前記音源タイプによって指示される音声の周波数は、前記初期検出半径の大きさに反比例し、
前記環境標識にマッチングした音声トリガー閾値を取得し、
前記音声トリガー閾値に基づき、前記初期検出半径を縮小するように調整することで、前記検出半径を取得する。
本実施例によれば、初期検出半径を取得し、環境標識にマッチングした音声トリガー閾値に基づき検出半径を縮小することで、異なる環境に応じて初期検出半径を調整し、表示位置決定の正確度を向上させるという効果が得られる。
任意選択な実施案として、前記表示ユニット1008は、
前記音源仮想オブジェクトによって生成される音声の音源タイプを取得するための第2取得モジュールと、
前記音源タイプにマッチングした前記音源仮想オブジェクトの前記位置マークを表示するための第1表示モジュールと、を含む。
本実施例によれば、音源仮想オブジェクトによって生成される音声の音源タイプに基づき位置マークを決定することで、ユーザが位置マークにより音源タイプを正確に決定するようにし、音源決定の正確度を向上させるという目的を達成する。
任意選択な実施案として、前記第1表示モジュールは、
前記音源タイプにマッチングした色に応じて、前記位置マークを表示するための第1表示サブモジュールと、
前記音源タイプにマッチングした形状に応じて、前記位置マークを表示するための第2表示サブモジュールと、
前記音源タイプにマッチングした標識に応じて、前記位置マークを表示するための第3表示サブモジュール、のうちの少なくとも1つを含む。
本実施例によれば、異なる色、形状を利用して位置マークを調整することで、ユーザが異なる表示スキームに従って、音源仮想オブジェクトによって生成される音声の音源タイプを知ることができるようにし、音源決定の正確度を向上させるとともに、位置マーク表示の柔軟性を向上させる。
任意選択な実施案として、前記第1表示モジュールは、
前記アプリケーションクライアントの前記インタラクティブインタフェースに表示されるマップにおける前記第2位置に、前記音源仮想オブジェクトの前記位置マークを表示するための第4表示サブモジュールと、
前記アプリケーションクライアントの前記インタラクティブインタフェースに表示されるユニバーサルホイールにおける、前記第2位置に対応する方向に、前記音源仮想オブジェクトの前記位置マークを表示するための第5表示サブモジュール、のうちの少なくとも1つを含む。
本実施例によれば、インタラクティブインタフェースのマップに位置マークを表示するか、又はインタラクティブインタフェースのユニバーサルホイールに位置マークを表示することで、インタラクティブインタフェースのメインインタフェースを遮蔽することがなく、音源決定の正確度を向上させるとともに、ユーザ体験を向上させることができる。
任意選択な実施案として、前記第1表示モジュールは、
前記音源仮想オブジェクトには消音装置が配置された場合、前記位置マークの表示範囲を調整するための調整サブモジュールであって、前記消音装置が配置された前記音源仮想オブジェクトの前記位置マークの表示範囲が、前記消音装置が配置されていない前記音源仮想オブジェクトの前記位置マークの表示範囲より大きい調整サブモジュールを含む。
本実施例によれば、消音装置が配置された場合、位置マークの表示範囲を調整することで、音源決定の正確度を向上させるとともに、位置マーク表示の柔軟性を向上させることができる。
任意選択な実施案として、前記表示ユニット1008は、
複数の前記音源仮想オブジェクトが検出され、且つ複数の前記音源仮想オブジェクトが前記第1仮想キャラクターの異なる方向に位置する場合、複数の前記音源仮想オブジェクトにそれぞれマッチングした位置マークの透明度に応じて、複数の前記音源仮想オブジェクトのそれぞれの前記位置マークを同時に表示するための第2表示モジュールを含む。
本実施例によれば、異なる方向における音源仮想オブジェクトの位置マークを同時に表示することで、複数の音源仮想オブジェクトを同時に表示するという効果が得られ、音源決定の正確度を向上させるとともに、ユーザが複数の音源仮想オブジェクトの仮想環境ににおける位置を同時に知ることができる。
任意選択な実施案として、前記表示ユニット1008は、
複数の前記音源仮想オブジェクトが検出され、且つ複数の前記音源仮想オブジェクトが前記第1仮想キャラクターの同じ方向にある場合、複数の前記音源仮想オブジェクトのそれぞれの音声トリガー開始時間を取得するための第3取得モジュールと、
2つの隣接する前記音源仮想オブジェクトの前記音声トリガー開始時間のトリガー時間間隔を順次取得するための第4取得モジュールと、
前記トリガー時間間隔が第1閾値より大きい場合、2つの隣接する前記音源仮想オブジェクトのそれぞれにマッチングした位置マークの透明度を順次決定し、決定した透明度に応じて、2つの隣接する前記音源仮想オブジェクトの前記位置マークを順次表示するための第3決定モジュールと、
前記トリガー時間間隔が前記第1閾値より小さい場合、2つの隣接する前記音源仮想オブジェクトのうちの、前記音声トリガー開始時間がより後ろにある対象音源仮想オブジェクトについて、前記目標音源仮想オブジェクトにマッチングした位置マークの前記透明度を決定し、決定した前記透明度に応じて、前記対象音源仮想オブジェクトの前記位置マークを表示するための第4決定モジュールと、を含む。
本実施例によれば、前記技術案によって同じ方向における音源仮想オブジェクトの位置マークを表示することで、同じ方向における複数の位置マークが同時に表示されることによる、互いに遮蔽するという状況を回避することができ、音源決定の正確度を向上させるとともに、位置マークの表示効率を向上させる。
任意選択な実施案として、前記装置はさらに、
前記アプリケーションクライアントによって制御される第1仮想キャラクターの仮想シーンにおける第1位置を取得した後、前記第1位置に関連付けられた前記音源検出領域では、音声を発生させる複数の仮想オブジェクトが検出され、且つ前記複数の仮想オブジェクトが同じ仮想キャラクターに関連つけられた場合、前記複数の仮想オブジェクトのそれぞれの音声トリガー開始時間を取得するための検出ユニットと、
前記音声トリガー開始時間に基づき、前記複数の仮想オブジェクトから、対象仮想オブジェクトを前記音源仮想オブジェクトとして決定するための第2決定ユニットと、を含む。
本実施例によれば、音声トリガー開始時間に基づき音源仮想オブジェクトを決定することで、複数の仮想オブジェクトが同じ位置で同時に表示されることによる、互いに遮蔽するという問題を回避することができ、音源決定の正確度を向上させるとともに、位置マークの表示効率を向上させる。
任意選択な実施案として、前記表示ユニット1008は、
前記音源仮想オブジェクトの前記位置マークに含まれる方向マークを取得するための第5取得モジュールであって、前記方向マークが、音声トリガー開始時間の前記第1仮想キャラクターに対する前記音源仮想オブジェクトの移動方向を指示するために用いられる第5取得モジュールと、
前記音源仮想オブジェクトが前記位置マークを表示する表示周期内で、前記方向マークを表示するための第3表示モジュールと、を含む。
本実施例によれば、音源仮想オブジェクトの移動方向を表示することで、インタラクティブインタフェースにおいて音源仮想オブジェクトの移動方向を明らかに了解することができ、音源決定の正確度を向上させるとともに、ユーザ体験を向上させる。
任意選択な実施案として、前記装置はさらに、
前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示する前に、前記音源仮想オブジェクトが位置する前記第2位置が、前記仮想シーンにおける指定位置にある場合、前記音源仮想オブジェクトの前記位置マークの表示を禁止するための第1禁止ユニットであって、前記指定位置には、前記音源仮想オブジェクトの前記仮想シーンにおける生成地が含まれる第1禁止ユニットと、
前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示する前に、前記音源仮想オブジェクトが指定姿態にある場合、前記音源仮想オブジェクトの前記位置マークの表示を禁止するための第2禁止ユニットであって、前記指定姿態には匍匐状態が含まれる第2禁止ユニットと、
前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示する前に、前記音源仮想オブジェクトと前記第1仮想キャラクターが同じ陣営マークを有する場合、前記第1仮想キャラクターに対して、前記音源仮想オブジェクトの前記位置マークの表示を禁止するための第3禁止ユニット、のうちの少なくとも1つを含む。
本実施例によれば、上記の場合に位置マークの表示を禁止することで、一定の条件で、音源仮想オブジェクトを隠すことができ、これによって、音源決定の正確度を向上させるとともに、位置マーク表示の柔軟性を向上させる。
本出願の実施例の他の態様によれば、前記音源決定方法を実施するための電子装置をさらに提供し、図11に示すように、当該電子装置はメモリとプロセッサとを含み、当該メモリにはコンピュータプログラムが記憶され、当該プロセッサは、コンピュータプログラムをによって上記の方法実施例のいずれか1つのステップを実行するように配置される。
任意選択で、本実施例において、前記電子装置はコンピュータネットワーク内の複数のネットワーク機器のうちの少なくとも1つのネットワーク機器に配置されてもよい。
任意選択で、本実施例において、前記プロセッサは、コンピュータプログラムによって以下のステップを実行するように配置され、
ステップS1、アプリケーションクライアントによって制御される第1仮想キャラクターの、仮想シーンにおける第1位置を取得し、
ステップS2、前記第1位置に関連付けられた音源検出領域では、音源仮想オブジェクトの前記仮想シーンにおける第2位置を検出し、
ステップS3、前記第1位置と前記第2位置との間の音源距離に基づき、前記音源仮想オブジェクトにマッチングした位置マークの透明度を決定し、前記位置マークが、前記音源仮想オブジェクトが位置する前記第2位置を識別するために用いられ、
ステップS4、前記アプリケーションクライアントのインタラクティブインタフェースに、前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示する。
任意選択で、当業者は、図11に示される構成が単に例示のためのものであり、電子装置がスマートフォン(例えばAndroidフォン、iOSフォンなど)、タブレットコンピュータ、パームトップコンピュータ及びモバイルインターネットデバイス(Mobile Internet Devices、MID)、PADなどの端末機器であってもよいことを理解できる。図11は上記の電子装置の構成を限定するものではない。例えば、電子装置は、図11に示されるものより多い又はより少ないアセンブリ(例えばネットワークインタフェース、表示装置など)を含んでもよく、或いは、図11に示されるものと異なる配置を有してもよい。
メモリ1102は、ソフトウェアプログラム及びモジュール、例えば、本出願の実施例における音源決定方法及び装置に対応するプログラム命令/モジュールを記憶するために用いられ、プロセッサ1104は、メモリ1102に記憶されるソフトウェアプログラム及びモジュールを実行することで、様々な機能アプリケーション及びデータ処理を実行し、即ち、前記音源決定方法を実現する。メモリ1102は高速ランダムメモリを含んでもよく、例えば1つ以上の磁気記憶装置、フラッシュメモリ、又は他の不揮発性ソリッドステートメモリなどの不揮発性メモリを含んでもよい。いくつかの実例において、メモリ1102はさらに、プロセッサ1104に対してリモートに配置されたメモリを含んでもよく、これらのリモートメモリはネットワークを介して端末に接続される。上記のネットワークの実例はインターネット、企業イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク、及びそれらの組み合わせを含んでもよいが、これらに限定されない。
伝送装置1106は、1つのネットワークを介してデータを受信又は送信するために用いられる。上記のネットワークの具体例は、有線ネットワーク及び無線ネットワークを含んでもよい。一例において、伝送装置1106は、インターネット又はローカルエリアネットワークと通信し得るようにネットワーク回線を介して他のネットワーク機器及びルータに接続されるネットワークアダプタ(Network Interface Controller、NIC)を含む。一例において、伝送装置1106は、無線方式でインターネットと通信するための、無線周波数(Radio Frequency、RF)モジュールである。
具体的に、メモリ1102は、音源仮想オブジェクトの位置マークを記憶するために用いられる。
本出願の実施例はさらに記憶媒体を提供し、当該記憶媒体にはコンピュータプログラムが記憶され、当該コンピュータプログラムは、実行時に、上記の方法実施例のいずれか1つのステップを実行するように配置される。
任意選択で、本実施例において、前記記憶媒体は、以下のステップを実行するためのコンピュータプログラムを記憶するように配置され、
ステップS1、アプリケーションクライアントによって制御される第1仮想キャラクターの、仮想シーンにおける第1位置を取得し、
ステップS2、前記第1位置に関連付けられた音源検出領域では、音源仮想オブジェクトの前記仮想シーンにおける第2位置を検出し、
ステップS3、前記第1位置と前記第2位置との間の音源距離に基づき、前記音源仮想オブジェクトにマッチングした位置マークの透明度を決定し、前記位置マークが、前記音源仮想オブジェクトが位置する前記第2位置を識別するために用いられ、
ステップS4、前記アプリケーションクライアントのインタラクティブインタフェースに、前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示する。
任意選択で、本実施例において、前記記憶媒体は、以下のステップを実行するためのコンピュータプログラムを記憶するように配置され、
ステップS1、前記音源仮想オブジェクトにマッチングした前記音源検出領域の検出半径を取得し、
ステップS2、前記音源距離と前記検出半径という両者の間の比に基づき、前記透明度を決定し、前記比が小さくなる場合、前記透明度が指示する透明程度を小さくなるように調整し、前記比が大きくなる場合、前記透明度が指示する透明程度を大きくなるように調整する。
任意選択で、本実施例において、前記記憶媒体は、以下のステップを実行するためのコンピュータプログラムを記憶するように配置され、
ステップS1、前記音源仮想オブジェクトによって生成される音声の音源タイプ、及び前記音源仮想オブジェクトが位置する環境の環境標識を取得し、
ステップS2、前記音源タイプ及び前記環境標識に基づき前記検出半径を決定する。
任意選択で、本実施例において、前記記憶媒体は、以下のステップを実行するためのコンピュータプログラムを記憶するように配置され、
ステップS1、前記音源タイプに対応する初期検出半径を取得し、前記音源タイプによって指示される音声の周波数が前記初期検出半径の大きさに反比例し、
ステップS2、前記環境標識にマッチングした音声トリガー閾値を取得し、
ステップS3、前記音声トリガー閾値に基づき、前記初期検出半径を縮小するように調整することで、前記検出半径を取得する。
任意選択で、本実施例において、前記記憶媒体は、以下のステップを実行するためのコンピュータプログラムを記憶するように配置され、
ステップS1、前記音源仮想オブジェクトによって生成される音声の音源タイプを取得し、
ステップS2、前記音源タイプにマッチングした前記音源仮想オブジェクトの前記位置マークを表示する。
任意選択で、本実施例において、前記記憶媒体は、以下のステップを実行するためのコンピュータプログラムを記憶するように配置され、
ステップS1、前記音源タイプにマッチングした色に応じて前記位置マークを表示し、
ステップS2、前記音源タイプにマッチングした形状に応じて前記位置マークを表示し、
ステップS3、前記音源タイプにマッチングした標識に応じて前記位置マークを表示する。
任意選択で、本実施例において、前記記憶媒体は、以下のステップを実行するためのコンピュータプログラムを記憶するように配置され、
ステップS1、前記アプリケーションクライアントの前記インタラクティブインタフェースに表示されるマップにおける前記第2位置に、前記音源仮想オブジェクトの前記位置マークを表示し、
ステップS2、前記アプリケーションクライアントの前記インタラクティブインタフェースに表示されるユニバーサルホイールにおける、前記第2位置に対応する方向に、前記音源仮想オブジェクトの前記位置マークを表示する。
任意選択で、本実施例において、前記記憶媒体は、以下のステップを実行するためのコンピュータプログラムを記憶するように配置され、
ステップS1、前記音源仮想オブジェクトには消音装置が配置された場合、前記位置マークの表示範囲を調整し、前記消音装置が配置された前記音源仮想オブジェクトの前記位置マークの表示範囲は、前記消音装置が配置されていない前記音源仮想オブジェクトの前記位置マークの表示範囲より大きい。
任意選択で、本実施例において、前記記憶媒体は、以下のステップを実行するためのコンピュータプログラムを記憶するように配置され、
ステップS1、複数の前記音源仮想オブジェクトが検出され、且つ複数の前記音源仮想オブジェクトが前記第1仮想キャラクターの異なる方向に位置する場合、複数の前記音源仮想オブジェクトにそれぞれマッチングした位置マークの透明度に応じて、複数の前記音源仮想オブジェクトのそれぞれの前記位置マークを同時に表示する。
任意選択で、本実施例において、前記記憶媒体は、以下のステップを実行するためのコンピュータプログラムを記憶するように配置され、
ステップS1、複数の前記音源仮想オブジェクトが検出され、且つ複数の前記音源仮想オブジェクトが前記第1仮想キャラクターの同じ方向にある場合、複数の前記音源仮想オブジェクトのそれぞれの音声トリガー開始時間を取得し、
ステップS2、2つの隣接する前記音源仮想オブジェクトの前記音声トリガー開始時間のトリガー時間間隔を順次取得し、
ステップS3、前記トリガー時間間隔が第1閾値より大きい場合、2つの隣接する前記音源仮想オブジェクトのそれぞれにマッチングした位置マークの透明度を順次決定し、決定した透明度に応じて、2つの隣接する前記音源仮想オブジェクトの前記位置マークを順次表示し、
ステップS4、前記トリガー時間間隔が前記第1閾値より小さい場合、2つの隣接する前記音源仮想オブジェクトのうちの、前記音声トリガー開始時間がより後ろにある対象音源仮想オブジェクトについて、前記対象音源仮想オブジェクトにマッチングした位置マークの透明度を決定し、決定した前記透明度に応じて、前記対象音源仮想オブジェクトの前記位置マークを表示する。
任意選択で、本実施例において、前記記憶媒体は、以下のステップを実行するためのコンピュータプログラムを記憶するように配置され、
ステップS1、前記第1位置に関連付けられた前記音源検出領域では、音声を発生させる複数の仮想オブジェクトが検出され、且つ前記複数の仮想オブジェクトが同じ仮想キャラクターに関連つけられた場合、前記複数の仮想オブジェクトのそれぞれの音声トリガー開始時間を取得し、
ステップS2、前記音声トリガー開始時間に基づき、前記複数の仮想オブジェクトから、対象仮想オブジェクトを前記音源仮想オブジェクトとして決定する。
任意選択で、本実施例において、前記記憶媒体は、以下のステップを実行するためのコンピュータプログラムを記憶するように配置され、
ステップS1、前記音源仮想オブジェクトの前記位置マークに含まれる方向マークを取得し、前記方向マークが、音声トリガー開始時間の前記第1仮想キャラクターに対する前記音源仮想オブジェクトの移動方向を指示するために用いられ、
ステップS2、前記音源仮想オブジェクトにマッチングした表示周期内で前記方向マークを表示する。
任意選択で、本実施例において、前記記憶媒体は、以下のステップを実行するためのコンピュータプログラムを記憶するように配置され、
ステップS1、前記音源仮想オブジェクトが位置する前記第2位置が、前記仮想シーンにおける指定位置にある場合、前記音源仮想オブジェクトの前記位置マークの表示を禁止し、前記指定位置には、前記音源仮想オブジェクトの前記仮想シーンにおける生成地が含まれ、
ステップS2、前記音源仮想オブジェクトが指定姿態にある場合、前記音源仮想オブジェクトの前記位置マークの表示を禁止し、前記指定姿態には匍匐状態が含まれ、
ステップS3、前記音源仮想オブジェクトと前記第1仮想キャラクターとが同じ陣営マークを有する場合、前記第1仮想キャラクターに対して、前記音源仮想オブジェクトの前記位置マークの表示を禁止する。
任意選択で、本実施例では、当業者は、上記の実施例の様々な方法におけるステップの全て又は一部が、プログラムによって端末機器の関連ハードウェアに命令することで完了することができることを理解できる。当該プログラムはコンピュータ可読記憶媒体に記憶され、記憶媒体は、フラッシュメモリディスク、読み取り専用メモリ(Read−Only Memory、ROM)、ランダムアクセスメモリ(Random Access Memory、RAM)、磁気ディスク又は光ディスクを含んでもよい。
上記の本出願の実施例のシリアル番号は実施例の優劣を表すものではなく、説明のためだけのものである。
上記の実施例における統合されたユニットは、ソフトウェア機能ユニットという形式で実施され、独立製品として販売又は使用される場合、上記のコンピュータ可読記憶媒体に記憶されてもよい。そのような理解に基づいて、本出願の技術案が本質的又は従来技術に寄与する部分、或いは当該技術案の全て又は一部について、ソフトウェア製品という形式で具現化されてもよい。当該コンピュータソフトウェア製品は、記憶媒体に記憶され、本出願の各実施例に記載の方法のステップの全て又は一部を、1台又は複数台のコンピュータ機器(パーソナルコンピュータ、サーバ、ネットワーク機器など)に実行させるためのいくつかの命令を含む。
上述した本出願の実施例では、各実施形態に対する記載はそれぞれ強調点を有し、ある実施例において詳細に説明されていない部分について、他の実施例の関連する記載を参照すればよい。
本出願により提供されるいくつかの実施例では、開示されたクライアントが他の形態で実施されてもよいことは理解すべきである。上記の装置の実施例は、単なる例示であり、例えば、前記ユニットの分割は、論理機能の分割だけであり、実際の実現では、他の分割方法があり得る。例えば、複数のユニット又はアセンブリを、別のシステムに組み込むか、又は統合してもよく、或いは、一部の機能を無視するか、又は実行しないことができる。また、表示又は検討された相互結合又は直接結合又は通信接続について、いくつかのインタフェース、ユニット又はモジュールを介した間接結合又は通信接続であってもよく、電気的又は他の形態であり得る。
個別の部品として説明される前記ユニットは、物理的に個別であってもよく、そうではなくてもよく、ユニットとして表示される部品は物理的なユニットであってもよく、そうではなくてもよく、即ち、1つの場所に位置してもよいし、複数のネットワークユニットに分布されてもよい。実際のニーズに応じて、本実施例の目的を達成するために、ユニットの一部又は全てを選択してもよい。
また、本出願の各実施例における各機能ユニットが1つの処理ユニットに統合されてもよいし、各ユニットが単独で物理的に存在してもよいし、2つ以上のユニットが1つのユニットに統合されてもよい。上記の統合されたユニットは、ハードウェアという形式で実現されてもよいし、ソフトウェア機能ユニットという形式で実現されてもよい。
上記は本出願の好適な実施形態にすぎないが、当業者にとって、本出願の趣旨から逸脱することなく、さまざまな改良及び修飾を行うことができ、これらの改良及び修飾も、本出願の保護範囲と見なされるべきであることに留意されたい。
本出願は、2018年5月29日にて中国特許庁に提出された、出願番号が2018105324132であって、名称が「音源決定方法と装置、記憶媒体、及び電子装置」である中国特許出願に基づく優先権を主張し、その全内容を本出願に参照により援用する。
本出願はコンピュータ分野に関わり、具体的に、音源決定技術に関わる。
いくつかの端末アプリケーションにおいて、仮想オブジェクトが発する音声を仮想シーンでシミュレーションすることで、当該仮想シーンに参加しているユーザが、聴覚を通じて当該仮想シーンにおける音源オブジェクトの位置を決定し、仮想シーンに配置された、当該音源オブジェクトとのインタラクティブタスクを完了することができる。
しかしながら、仮想シーンで再生される音声は、一般的にマシンシミュレーションによって取得され、音声の正確度を保証できないため、シミュレーションされた音声のみに基づいて音源オブジェクトを決定するプロセスでは、音源オブジェクトを正確に決定できないという問題が存在する可能性がある。
上記の問題に鑑みて、有効な解決策は本件出願前にまだ提案されていない。
本出願の実施例は、ユーザが仮想シーンにおいて、音源仮想オブジェクトの位置を正確に決定することができるように、音源決定方法と装置、記憶媒体、及び電子装置を提供する。
本出願の実施例の一態様によれば、音源決定方法を提供し、アプリケーションクライアントによって制御される第1仮想キャラクターの仮想シーンにおける第1位置を取得するステップと、前記第1位置に関連付けられた音源検出領域で音源仮想オブジェクトの前記仮想シーンにおける第2位置を検出するステップと、前記第1位置と前記第2位置との間の音源距離に基づき、前記音源仮想オブジェクトにマッチングした位置マークの透明度を決定するステップであって、前記位置マークが、前記音源仮想オブジェクトが位置する前記第2位置を識別するために用いられるステップと、前記アプリケーションクライアントのインタラクティブインタフェースに、前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示するステップと、を含む。
本出願の実施例の別の態様によれば、音源決定装置をさらに提供し、アプリケーションクライアントによって制御される第1仮想キャラクターの仮想シーンにおける第1位置を取得するための第1取得ユニットと、前記第1位置に関連付けられた音源検出領域で音源仮想オブジェクトの前記仮想シーンにおける第2位置を検出するための第2取得ユニットと、前記第1位置と前記第2位置との間の音源距離に基づき、前記音源仮想オブジェクトにマッチングした位置マークの透明度を決定するための第1決定ユニットであって、前記位置マークが、前記音源仮想オブジェクトが位置する前記第2位置を識別するために用いられる第1決定ユニットと、前記アプリケーションクライアントのインタラクティブインタフェースに、前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示するための表示ユニットと、を含む。
本出願の実施例のさらに別の態様によれば、記憶媒体をさらに提供し、当該記憶媒体にはコンピュータプログラムが記憶され、当該コンピュータプログラムは、実行されるときに、前記音源決定方法を実行するように配置される。
本出願の実施例のさらに別の態様によれば、メモリと、プロセッサと、メモリに記憶され、プロセッサで実行され得るコンピュータプログラムとを含む電子装置をさらに提供し、前記プロセッサは、コンピュータプログラムによって、前記音源決定方法を実行する。
本出願の実施例のさらに別の態様によれば、命令が含まれるコンピュータプログラム製品をさらに提供し、前記コンピュータプログラム製品は、コンピュータで実行されるときに、前記音源決定方法を前記コンピュータに実行させる。
本出願の実施例によって提供される音源決定方法において、アプリケーションクライアントによって制御される第1仮想キャラクターの仮想シーンにおける第1位置を取得するステップと、前記第1位置に関連付けられた音源検出領域で音源仮想オブジェクトの前記仮想シーンにおける第2位置を検出するステップと、前記第1位置と前記第2位置との間の音源距離に基づき、前記音源仮想オブジェクトにマッチングした位置マークの透明度を決定するステップであって、位置マークが、音源仮想オブジェクトが位置する第2位置を識別するために用いられるステップと、アプリケーションクライアントのインタラクティブインタフェースに、前記透明度に応じて、音源仮想オブジェクトの位置マークを表示するステップとを含む。前記方法において、音源仮想オブジェクトの仮想シーンにおける第2位置を取得した後、第1仮想キャラクターが位置する第1位置と当該第2位置との間の距離に基づき透明度を決定することができ、さらに、当該透明度に応じて、インタラクティブインタフェースに音源仮想オブジェクトの位置マークを表示し、このようにして、ユーザは、シミュレーションされた音声のみによって音源仮想オブジェクトの仮想シーンにおける位置を決定するのではなく、騒々しい環境においても、ユーザが音源仮想オブジェクトの仮想シーンにおける位置を正確に決定することに影響を与えず、仮想シーンにおいてシミュレーションされた音声のみに基づき音源仮想オブジェクトの位置を決定することによる、決定された音源仮想オブジェクトの位置の正確度を保証できないという問題を解決する。
ここで説明する図面は、本出願に対するさらなる理解を提供するために用いられ、本出願の一部を構成し、本出願の例示的な実施例及びその説明は、本出願に対する不適切な限定を構成するものではなく、本出願を解釈するために用いられる。
本出願の実施例による音源決定方法の応用環境の概略図である。 本出願の実施例による任意選択な音源決定方法のフロー概略図である。 本出願の実施例による任意選択な音源決定方法の概略図である。 本出願の実施例による他の任意選択な音源決定方法の概略図である。 本出願の実施例による他の任意選択な音源決定方法の概略図である。 本出願の実施例による他の任意選択な音源決定方法の概略図である。 本出願の実施例による他の任意選択な音源決定方法の概略図である。 本出願の実施例による他の任意選択な音源決定方法の概略図である。 本出願の実施例による他の任意選択な音源決定方法の概略図である。 本出願の実施例による任意選択な音源決定装置の構成概略図である。 本出願の実施例による任意選択な電子装置の構成概略図である。
当業者が本出願の技術案をよりよく理解するために、以下は本出願の実施例の図面を結合して、本出願の実施例の技術案を明らか且つ完全に記載し、明らかに、記載された実施例は全ての実施例ではなく、本出願の一部の実施例のみである。本出願の実施例に基づき、創造的な作業なしに当業者によって得られる他の全ての実施例は、いずれも本出願の保護範囲にあるものとする。
なお、本出願の明細書、特許請求の範囲、及び前記図面における「第1」、「第2」などの用語は、特定の順序又は優先順位を記載するためのものではなく、類似のオブジェクトを区別するために用いられることに留意されたい。理解するように、このように使用されるデータは適切な状況で互いに置き換えられるから、本明細書に記載される本出願の実施例は、本明細書における図示又は記載される順序以外の順序で実施可能である。さらに、「含む(include)」、「有する(contain)」という用語及びこれらの任意の変形は、非排他的な包括を包含することを意味する。例えば、一連のステップ又はユニットを含むプロセス、方法、システム、製品、又は機器は、必ず明らかに列挙されたステップ又はユニットに限定されず、明らかに列挙されていないか又はそのようなプロセス、方法、製品、又は機器にとって固有の他のステップ又はユニットが含まれる場合がある。
本出願の実施例の一態様によれば、音源決定方法を提供し、任意選択な実施形態として、前記音源決定方法は、図1に示される環境に適用されてもよいが、これに限定されていない。
アプリケーションクライアント102がネットワーク104を介してサーバ106とインタラクトする過程では、アプリケーションクライアント102は、それによって制御される第1仮想キャラクターの仮想シーンにおける第1位置を取得し、第1位置に関連付けられた音源検出領域で音源仮想オブジェクトの仮想シーンにおける第2位置を検出する。第2位置が検出された後、第1位置と第2位置との間の音源距離に基づき、音源仮想オブジェクトにマッチングした位置マークの透明度を決定する。位置マークの透明度を決定した後、当該透明度に応じて、音源仮想オブジェクトの位置マークを表示する。
なお、関連技術において、モバイル端末においてアプリケーションクライアントを実行する過程では、ユーザは一般的に、シミュレーションされた音声に応じて、音源仮想オブジェクトの仮想シーンにおける位置を決定する。ただし、シミュレーションされた音源の方向及び位置は明確ではないため、ユーザは一般的に、当該シミュレーションされた音声に基づき、音源仮想オブジェクトの仮想シーンにおける位置を正確に決定できず、特に、ユーザの現在の環境が比較的騒々しい場合に、ユーザがシミュレーションされた音声をはっきりと聞くことさえ難しくなるため、ユーザが仮想シーンにおいて音源仮想オブジェクトの位置を正確に特定することはより困難になる。
本実施例において、音源仮想オブジェクトの仮想シーンにおける第2位置を取得した後、第1仮想キャラクターが位置する第1位置と第2位置との間の距離に基づき、位置マークの透明度を決定することができ、さらに、当該透明度に応じて、音源仮想オブジェクトの位置マークを表示し、即ち、アプリケーションクライアントのインタラクティブインタフェースに、音源仮想オブジェクトの位置決め情報を表示し、当該方法は仮想シーンにおいて位置マークを表示し、音源仮想オブジェクトの仮想シーンにおける位置をユーザに通知することで、シミュレーションされた音声のみに基づき音源仮想オブジェクトの仮想シーンにおける位置を決定するのではなく、対照的に、本出願は、音源仮想オブジェクトの位置をより直感的にユーザに通知することができ、従来技術における決定された音源仮想オブジェクトの位置決め情報の正確度が低いという問題を解決し、音源仮想オブジェクトの位置決め情報の正確度を向上させる。
任意選択で、前記音源決定方法は、例えば、携帯電話、タブレット、ラップトップ、PC(パーソナルコンピュータ)、その他の端末などの、データを計算できる端末に適用されてもよいが、これらに限定されない。前記ネットワークは、無線ネットワーク又は有線ネットワークを含んでもよいが、これらに限定されない。当該無線ネットワークは、ブルートゥース(Bluetooth)、WIFI、及び無線通信を実現する他のネットワークを含む。前記有線ネットワークは、広域ネットワーク、メトロポリタンエリアネットワーク、及びローカルエリアネットワークを含んでもよいが、これらに限定されない。前記サーバは、データ計算を実行できる任意のハードウェア機器を含んでもよいが、これに限定されない。
任意選択で、任意選択な実施形態として、図2に示すように、前記音源決定方法は、
アプリケーションクライアントによって制御される第1仮想キャラクターの仮想シーンにおける第1位置を取得するステップS202と、
前記第1位置に関連付けられた音源検出領域音源仮想オブジェクトの前記仮想シーンにおける第2位置を検出するステップS204と、
前記第1位置と前記第2位置との間の音源距離に基づき、前記音源仮想オブジェクトにマッチングした位置マークの透明度を決定するステップS206であって、前記位置マークが、前記音源仮想オブジェクトが位置する前記第2位置を識別するために用いられるステップS206と、
前記アプリケーションクライアントのインタラクティブインタフェースに、前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示するステップS208と、を含む。
任意選択で、前記音源決定方法は、ゲーム分野又はシミュレーション訓練分野に適用されてもよいが、これらに限定されない。以下、前記音源決定方法をゲーム分野に関連して説明する。前記第1仮想キャラクターは、ユーザによって制御されるゲームキャラクターであってもよいが、これに限定されない。前記音源仮想オブジェクトは、ゲームにおける、音声を発し得るオブジェクトであってもよいが、これに限定されない。前記位置マークはクライアントに表示されており、音源仮想オブジェクトの位置を表示するためのアイコンであってもよい。ゲーム中に、ユーザによって制御されるゲームキャラクターの音源検出範囲内で、音声を発生させるオブジェクトが検出される場合、音声を発生させるオブジェクトとユーザによって制御されるゲームキャラクターとの間の距離に基づき、アイコンの透明度を決定する。決定したアイコンの透明度に基づき、クライアントの表示インタフェースに当該透明度のアイコンを表示する。
例えば、以下、図3を結合して説明する。図3に示すように、現在ユーザがゲームしている間に、他のユーザによって制御される、家屋近傍にある前方のゲームオブジェクトは、現在ユーザによって制御されるゲームオブジェクトの音源検出範囲内に位置する。家屋近傍にあるゲームオブジェクトが例えば銃の音などの音声を発した後、現在ユーザによって制御されるゲームオブジェクトと家屋近傍にあるゲームオブジェクトとの間の距離に基づき、家屋近傍にあるゲームオブジェクトの位置を示すためのアイコンの透明度を決定し、当該透明度に応じてクライアントにアイコンを表示する。
本出願の実施例において、音源仮想オブジェクトの仮想シーンにおける第2位置を取得した後、第1仮想キャラクターが位置する第1位置と第2位置との間の距離に基づき、音源仮想オブジェクトの位置マークの透明度を決定し、さらに当該透明度に応じて該位置マークを表示することで、アプリケーションクライアントに音源仮想オブジェクトの位置決め情報を表示し、当該方法は、仮想シーンにおいて位置マークを表示、音源仮想オブジェクトの仮想シーンにおける位置をユーザに通知することで、シミュレーションされた音声のみに基づき、音源仮想オブジェクトの仮想シーンにおける位置を決定するのではなく、対照的に、本出願は、音源仮想オブジェクトの位置をより直感的にユーザに通知することができ、ユーザが決定した音源仮想オブジェクトの位置決め情報の正確度が低いという問題を解決し、音源仮想オブジェクトの位置決め情報の正確度を向上させる。
任意選択な実施案として、前記第1位置と前記第2位置との間の音源距離に基づき、前記音源仮想オブジェクトにマッチングした位置マークの透明度を決定することは、
前記音源仮想オブジェクトにマッチングした前記音源検出領域の検出半径を取得するステップS1と、
前記音源距離と前記検出半径という両者の間の比に基づき、前記透明度を決定するステップS2であって、前記比が小さくなる場合、前記透明度が小さくなるように調整し、前記比が大きくなる場合、前記透明度が大きくなるように調整するステップS2と、を含む。
任意選択で、引き続いて前記ゲーム分野に関連して説明する。図4に示すように、ユーザによって制御されるゲームにおけるキャラクターの検出半径をRとし、検出半径内に、音声を発することができるオブジェクC1と、音声を発することができるオブジェクトC2とが存在する。C1とユーザによって制御されるゲームキャラクターとの間の距離と、検出半径との比はR1/Rであり、C3とユーザによって制御されるゲームキャラクターとの間の距離と、検出半径との比はR3/Rであり、R1/RがR3/Rより大きいから、C1の位置マークの透明度が、C3の位置マークの透明度より大きく、即ち、C3の位置マークと比べると、C1の位置マークの表示効果がより透明である。音声を発することができるオブジェクトC2がユーザによって制御されるゲームキャラクターの検出半径の外に位置するため、C2とユーザによって制御されるゲームキャラクターとの間の距離と、検出半径との比が1より大きく、前記音源距離と検出半径との比が1以上である場合、位置マークの透明度が100%であり得るから、位置マークは完全に透明であり、ユーザに見られない。
本実施例によれば、音源距離と前記検出半径という両者の間の比に基づき前記透明度を決定することで、第1位置から遠い音源仮想オブジェクトの位置マークであるほど、透明になり、これによって、音源仮想オブジェクトの位置を正確に位置決めすることができ、音源決定の正確度を向上させるという効果が得られる。
任意選択な実施案として、前記音源仮想オブジェクトにマッチングした前記音源検出領域の検出半径を取得することは、
前記音源仮想オブジェクトによって生成される音声の音源タイプ、及び前記音源仮想オブジェクトが位置する環境の環境標識を取得するステップS1と、
前記音源タイプ及び前記環境標識に基づき前記検出半径を決定するステップS2と、を含む。
任意選択で、異なる音源タイプに対して、音源検出領域の検出半径もそれに応じて変更する。例えば、引き続いて前記ゲーム分野に関連して説明する。図5に示すように、A1、A2はドアの開閉音が発生する位置であり、図5における最小の点線円は、ドアの開閉音を検出し得る範囲であるから、A1位置のドアの開閉音が検出され、第1仮想オブジェクトのクライアントに表示されることができるが、A2位置のドアの開閉音が検出されることができない。同様に、B1、B2は銃の音が発生する位置であり、図5の中央の点線円は銃の音の検出範囲であるから、B1の位置で発生された銃の音が検出されることができるが、B2の位置で発生された銃の音が検出されることができない。同様に、C1、C2は、エアドロップ音が発生する位置であり、図5における最大の点線円はエアドロップ音を検出し得る範囲であり、C1位置のエアドロップ音が検出されることができるが、C2位置のエアドロップ音が検出されることができない。
また、環境の違いも音源検出領域の検出半径に影響する。例えば、同じように銃の音を検出しても、晴れた日の検出半径と雨の日の検出半径は異なる。そこで、検出半径を決定する場合、環境の環境標識に基づき検出半径を調整してもよい。例えば、異なる環境標識に対して異なる係数を設置し、環境標識が異なる場合に、検出半径と環境標識に対応する係数に基づき、現在の環境における検出半径を決定することができる。
なお、異なる音源タイプについて、異なる音源検出領域の検出半径を事前に設置してもよい。又は、一部の異なる音源タイプについて、対応する音源検出領域の検出半径を同じ値に設置してもよい。
本実施例によれば、音源仮想オブジェクトによって生成される音声の音源タイプと、音源仮想オブジェクトが位置する環境の環境標識に基づき、検出半径を決定することで、位置音源決定の正確度を向上させるとともに、位置マーク表示の柔軟性を向上させる。
任意選択な実施案として、前記音源タイプ及び前記環境標識に基づき前記検出半径を決定することは、
前記音源タイプに対して配置された初期検出半径を取得するステップS1であって、前記音源タイプによって指示する音声の周波数が前記初期検出半径の大きさに反比例するステップS1と、
前記環境標識にマッチングした音声トリガー閾値を取得するステップS2と、
前記音声トリガー閾値に基づき、前記初期検出半径を縮小するように調整することで、前記検出半径を取得するステップS3と、を含む。
例えば、引き続いて前記ゲーム分野に関連して説明する。ゲーム中に、ユーザによって制御されるゲームキャラクターが音源仮想オブジェクトを検出するための検出半径の初期値を設置する必要がある。音源仮想オブジェクトが発する音声の周波数によって决定することができる。例えば、銃の音を検出する検出半径とドアの開閉音を検出する検出半径との音声周波数が異なる場合、音声周波数が小さい音声であるほど、対応する検出半径がより大きい。さらに、ユーザによって制御されるゲームキャラクターの現在の環境を決定し、当該環境に対応する環境標識に基づき、対応する音声トリガー閾値を決定し、当該音声トリガー閾値に基づき、音源タイプに基づき決定された初期検出半径を相応的に縮小して、このように、音源タイプと環境標識に対応する検出半径を取得する。
本実施例によれば、初期検出半径を取得し、環境標識にマッチングした音声トリガー閾値に基づき検出半径を縮小することで、異なる環境に応じて初期検出半径を調整し、表示位置決定の正確度を向上させるという効果が得られる。
任意選択な実施案として、前記アプリケーションクライアントのインタラクティブインタフェースに、前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示することは、
前記音源仮想オブジェクトによって生成される音声の音源タイプを取得するステップS1と、
前記音源タイプにマッチングした前記音源仮想オブジェクトの前記位置マークを表示するステップS2と、を含む。
例えば、引き続いて前記ゲーム分野に関連して説明する。図6に示すように、音声を発することができるオブジェクトによって生成される音声は必ずしも同じではない。例えば、自動車がエンジン音を生成する場合、相応的に、自動車に対応する位置を、1台の自動車のアイコンとしてマークし、射撃によって銃の音を生成する場合、相応的に、銃の音に対応する位置を銃弾のアイコンとしてマークする。
本実施例によれば、音源仮想オブジェクトによって生成される音声の音源タイプに基づき位置マークを決定することで、ユーザが位置マークに基づき音源タイプを正確に決定するようにし、音源決定の正確度を向上させるという目的を達成する。
任意選択な実施案として、前記音源タイプにマッチングした前記音源仮想オブジェクトの前記位置マークを表示することは、
前記音源タイプにマッチングした色に応じて前記位置マークを表示するステップS1と、
前記音源タイプにマッチングした形状に応じて前記位置マークを表示するステップS2と、
前記音源タイプにマッチングした標識に応じて前記位置マークを表示するステップS3と、の少なくとも1つを含む。
例えば、引き続いて前記ゲーム分野に関連して説明する。前記位置マークを表示する場合、異なる色又は形状、或いは標識によって表示することができる。例えば、異なる色の位置マークで音声の慌ただしさ程度を表すことができる。例えば、銃の音の場合、銃の音は、銃弾という標識で表され、慌ただしい銃の音について、赤い銃弾という標識で表され、慌ただしくない銃の音について白い銃弾という標識で表示される。或いは、異なる形状の位置マークで音声の慌ただしさ程度を表す。例えば、慌ただしい銃の音について短機関銃の銃弾という標識で表され、慌ただしくない銃の音について狙撃銃の銃弾という標識で表される。
本実施例によれば、異なる色、形状を利用して位置マークを調整することで、ユーザが異なる表示スキームに従って、音源仮想オブジェクトによって生成される音声の音源タイプを知ることができるようにし、音源決定の正確度を向上させるとともに、位置マーク表示の柔軟性を向上させる。
任意選択な実施案として、前記音源タイプにマッチングした前記音源仮想オブジェクトの前記位置マークを表示することは、
前記アプリケーションクライアントの前記インタラクティブインタフェースに表示されるマップにおける前記第2位置に、前記音源仮想オブジェクトの前記位置マークを表示するステップS1と、
前記アプリケーションクライアントの前記インタラクティブインタフェースに表示されるユニバーサルホイールにおける、前記第2位置に対応する方向に、前記音源仮想オブジェクトの前記位置マークを表示するステップS2と、の少なくとも1つを含む。
例えば、引き続いて前記ゲーム分野に関連して説明する。インタラクティブインタフェースに位置マークを表示する際に、位置マークをマップに表示してもよく、位置マークをユニバーサルホイールに表示してもよい。前記ユニバーサルホイールは、方向付きのホイールであってもよい。
本実施例によれば、インタラクティブインタフェースのマップに位置マークを表示するか、又はインタラクティブインタフェースのユニバーサルホイールに位置マークを表示することで、インタラクティブインタフェースのメインインタフェースを遮蔽することがなく、音源決定の正確度を向上させるとともに、ユーザ体験を向上させることができる。
任意選択な実施案として、前記音源タイプにマッチングした前記音源仮想オブジェクトの前記位置マークを表示することは、
前記音源仮想オブジェクトには消音装置が配置された場合、前記位置マークの表示範囲を調整するステップS1であって、前記消音装置が配置された前記音源仮想オブジェクトの前記位置マークの表示範囲が、前記消音装置が配置されていない前記音源仮想オブジェクトの前記位置マークの表示範囲より大きいステップS1を含む。
例えば、引き続いて前記ゲーム分野に関連して説明する。図7に示すように、図7は、消音装置が配置された音源仮想オブジェクトをミニマップに表示する状況である。自動車が検出半径内で音声を出した後、自動車の位置マークの透明度を決定した後、自動車の位置マークをミニマップに表示する。検出半径内において、消音装置が配置された銃器から音声を出した後、銃器には消音器が配置されるので、音声が出された銃器の位置マークの透明度を決定した後、銃器の位置マークをミニマップに表示する場合、前記銃器の位置マークを拡大した後、ミニマップに表示する。
本実施例によれば、消音装置が配置された場合、位置マークの表示範囲を調整することで、音源決定の正確度を向上させるとともに、位置マーク表示の柔軟性を向上させることができる。
任意選択な実施案として、前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示することは、
複数の前記音源仮想オブジェクトが検出され、且つ複数の前記音源仮想オブジェクトが前記第1仮想キャラクターの異なる方向に位置する場合、複数の音源仮想オブジェクトにそれぞれマッチングした位置マークの透明度に応じて、複数の前記音源仮想オブジェクトのそれぞれの前記位置マークを同時に表示するステップS1を含む。
例えば、引き続いて前記ゲーム分野に関連して説明する。ゲーム中に、ユーザによって制御されるゲームキャラクターが、音声を発する複数のオブジェクトを検出した場合、上記の音声が異なる方向に分布している場合、各音源仮想オブジェクトを位置マークによって表示する。
なお、前記音源仮想オブジェクトには1つの制御閾値があり、検出された音源仮想オブジェクトの数が当該制御閾値を超える場合、一部の音源仮想オブジェクトに対応する位置マークを表示しなくてもよいことに留意されたい。
本実施例によれば、異なる方向における音源仮想オブジェクトの位置マークを同時に表示することで、複数の音源仮想オブジェクトを同時に表示するという効果が得られ、音源決定の正確度を向上させるとともに、ユーザが複数の音源仮想オブジェクトの仮想環境における位置を同時に知ることができる。
任意選択な実施案として、前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示することは、
複数の前記音源仮想オブジェクトが検出され、且つ複数の前記音源仮想オブジェクトが前記第1仮想キャラクターの同じ方向にある場合、複数の前記音源仮想オブジェクトのそれぞれの音声トリガー開始時間を取得するステップS1と、
2つの隣接する前記音源仮想オブジェクトの前記音声トリガー開始時間のトリガー時間間隔を順次取得するステップS2と、
前記トリガー時間間隔が第1閾値より大きい場合、2つの隣接する前記音源仮想オブジェクトのそれぞれにマッチングした位置マークの透明度を順次決定し、決定した透明度に応じて、2つの隣接する前記音源仮想オブジェクトの前記位置マークを順次表示するステップS3と、
前記トリガー時間間隔が前記第1閾値より小さい場合、2つの隣接する前記音源仮想オブジェクトのうちの、前記音声トリガー開始時間がより後ろにある対象音源仮想オブジェクトについて、前記対象音源仮想オブジェクトにマッチングした位置マークの透明度を決定し、決定した前記透明度に応じて前記対象音源仮想オブジェクトの前記位置マークを表示するステップS4と、を含む。
例えば、引き続いて前記ゲーム分野に関連して説明する。ユーザによって制御されるキャラクターが複数の音声を検出し、且つ前記複数の音声を発する複数の音源仮想オブジェクトがユーザによって制御されるゲームキャラクターの同じ方向にある場合、複数の音声の間の間隔が所定の第1閾値より大きい場合、前記音声が検出された順序に従って、各音声のそれぞれ対応する音源仮想オブジェクトの位置マークを順次表示する。前記音声の間の間隔が第1閾値より小さい場合、検出された時間に従って、後に検出された音声に対応する位置マークを使用して、先に検出された音声の位置マークを置き換える必要がある。
任意選択で、前記第1閾値は、先に検出された音声に対応する位置マークの表示期間であってもよい。
以下、図8を結合して説明する。検出された銃の音と車の音が同じ方向にある。図8に示すように、図8におけるa状況は、車の音が先に検出され、銃の音が後に検出され、銃の音の表示期間が車の音の表示期間内であり、この場合、車の音の位置マークのみを表示する。図8におけるb状況は、車の音が先に検出され、銃の音が後に検出され、銃の音の位置マークの表示期間の一部が車の音の位置マークの表示期間内であり、この場合、銃の音が検出された後、銃の音の位置マークを表示し、車の音の位置マークを表示していない。図8におけるc状況は、車の音が先に検出され、銃の音が後に検出され、銃の音の位置マークの表示期間が車の音の位置マークの表示期間と重ならなく、この場合、検出された先後順序に従って、車の音の位置マークと銃の音の位置マークを順次表示する。
本実施例によれば、前記技術案によって同じ方向における音源仮想オブジェクトの位置マークを表示することで、同じ方向における複数の位置マークが同時に表示されることによる、互いに遮蔽するという状況を回避することができ、音源決定の正確度を向上させるとともに、位置マークの表示効率を向上させる。
任意選択な実施案として、前記アプリケーションクライアントによって制御される第1仮想キャラクターの仮想シーンにおける第1位置を取得した後、さらに、
前記第1位置に関連付けられた前記音源検出領域では、音声を発生させる複数の仮想オブジェクトが検出され、且つ前記複数の仮想オブジェクトが同じ仮想キャラクターに関連つけられた場合、前記複数の仮想オブジェクトのそれぞれの音声トリガー開始時間を取得するステップS1と、
前記音声トリガー開始時間に基づき、前記複数の仮想オブジェクトから、対象仮想オブジェクトを前記音源仮想オブジェクトとして決定するステップS2と、を含む。
例えば、引き続いてゲーム分野に関連して説明する。前記仮想キャラクターは、ゲームにおける他のユーザによって制御されるキャラクターであってもよい。検出された複数の音声が同じゲームキャラクターによって生成されるものである場合、前記複数の音声の位置マークから1つの位置マークを選択して表示する。表示規則は、最初に検出された音声の位置マークを表示することであってもよく、又は、最後に検出された音声の位置マークを表示することであってもよい。
本実施例によれば、音声トリガー開始時間に基づき音源仮想オブジェクトを決定することで、複数の仮想オブジェクトが同じ位置で同時に表示されることによる、互いに遮蔽するという問題を回避することができ、音源決定の正確度を向上させるとともに、位置マークの表示効率を向上させる。
任意選択な実施案として、前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示することは、
前記音源仮想オブジェクトの前記位置マークに含まれる方向マークを取得するステップS1であって、前記方向マークが、音声トリガー開始時間の前記第1仮想キャラクターに対する前記音源仮想オブジェクトの移動方向を指示するために用いられるステップS1と、
前記音源仮想オブジェクトにマッチングした表示期間内で前記方向マークを表示するステップS2と、を含む。
例えば、引き続いてゲーム分野に関連して説明する。音声が検出された場合、前記方向マークは、音声を発するオブジェクトの移動方向である。図9に示すように、インタラクティブインタフェースに車の音の位置マークを表示するとともに、自動車の移動方向を表示する。前記移動方向は、今回の自動車の位置マークを表示する間に更新されることがない。
本実施例によれば、音源仮想オブジェクトの移動方向を表示することで、インタラクティブインタフェースにおいて音源仮想オブジェクトの移動方向を明らかに了解し、音源決定の正確度を向上させるとともに、ユーザ体験を向上させる。
任意選択な実施案として、前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示する前に、さらに、
前記音源仮想オブジェクトが位置する前記第2位置が、前記仮想シーンにおける指定位置にある場合、前記音源仮想オブジェクトの前記位置マークの表示を禁止するステップS1であって、前記指定位置には、前記音源仮想オブジェクトの前記仮想シーンにおける生成地が含まれるステップS1と、
前記音源仮想オブジェクトが指定姿態にある場合、前記音源仮想オブジェクトの前記位置マークの表示を禁止するステップS2であって、前記指定姿態には匍匐状態が含まれるステップS2と、
前記音源仮想オブジェクトと前記第1仮想キャラクターが同じ陣営マークを有する場合、前記第1仮想キャラクターに対して、前記音源仮想オブジェクトの前記位置マークの表示を禁止するステップS3と、の少なくとも1つを含む。
例えば、引き続いて前記ゲーム分野に関連して説明する。ゲーム中に、生成地などの特殊位置にある場合、音声が検出されたとしても、音声の位置マークを表示することがない。又は、音声を発した音源仮想オブジェクトが例えば、うつ伏せ、匍匐前進などの特殊状態にある場合、音源仮想オブジェクトから発した音声が検出されたとしても、音声の位置マークを表示することがなく、又は、音声を発した音源仮想オブジェクトとユーザによって制御されるキャラクターが同じ陣営にある場合、音源仮想オブジェクトが音声を発しても、音声の位置マークを表示することがない。
本実施例によれば、上記の場合に位置マークの表示を禁止することで、一定の条件で、音源仮想オブジェクトを隠すことができ、これによって、音源決定の正確度を向上させるとともに、位置マーク表示の柔軟性を向上させる。
なお、上記の各方法実施例について、簡単に説明するために、一連の動作の組み合わせとして表現されたが、当業者られているように、本出願は、説明された動作順序に限定されず、なぜならば、本出願によれば、一部のステップが他の順序で又は同時に実行できるためである。また、当業者られているように、明細書で説明された実施例はいずれも好適な実施例に属し、関連する動作及びモジュールは、本出願に必らずしも必須ではない。
以上の実施形態の説明によれば、当業者が明らかに理解するように、上記の実施例による方法は、ソフトウェアと必要な汎用ハードウェアプラットフォームとの組み合わせという形態で実現されることができ、無論、ハードウェアを利用してもよいが、一般的に、前者はより好適な実施形態である。このような理解に基づき、本出願の技術案は、本質的又は従来技術に寄与する部分が、ソフトウェア製品という形態で具現化されてもよく、当該コンピュータソフトウェア製品は1つの記憶媒体(例えばROM/RAM、磁気ディスク、光ディスク)に記憶され、本出願の各実施例に記載の方法を1台の端末機器(携帯電話、コンピュータ、サーバ、又はネットワーク機器など)に実行させるための、いくつかの命令を含む。
本出願の実施例の他の態様によれば、前記音源決定方法を実施するための音源決定装置をさらに提供し、図10に示すように、当該装置は、
(1)アプリケーションクライアントによって制御される第1仮想キャラクターの仮想シーンにおける第1位置を取得するための第1取得ユニット1002と、
(2)前記第1位置に関連付けられた音源検出領域から、音源仮想オブジェクトの前記仮想シーンにおける第2位置を検出するための第2取得ユニット1004と、
(3)前記第1位置と前記第2位置との間の音源距離に基づき、前記音源仮想オブジェクトにマッチングした位置マークの透明度を決定するための第1決定ユニット1006であって、前記位置マークが、前記音源仮想オブジェクトが位置する前記第2位置を識別するために用いられる第1決定ユニット1006と、
(4)前記アプリケーションクライアントのインタラクティブインタフェースに、前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示するための表示ユニット1008と、を含む。
任意選択で、前記音源決定装置は、ゲーム分野又はシミュレーション訓練分野に適用されてもよいが、これらに限定されない。任意選択な実施案として、前記第1決定ユニット1006は、
前記音源仮想オブジェクトにマッチングした前記音源検出領域の検出半径を取得するための第1取得モジュールと、
前記音源距離と前記検出半径という両者の間の比に基づき前記透明度を決定するための第1決定モジュールであって、前記比が小さくなる場合、前記透明度が小さくなるように調整し、前記比が大きくなる場合、前記透明度が大きくなるように調整する第1決定モジュールと、を含む。
本実施例によれば、音源距離と前記検出半径という両者の間の比に基づき前記透明度を決定することで、第1位置から遠い音源仮想オブジェクトの位置マークであるほど、透明になり、これにより、音源仮想オブジェクトの位置を正確に位置決めし、音源決定の正確度を向上させるという効果が得られる。
任意選択な実施案として、前記第1取得モジュールは、
前記音源仮想オブジェクトによって生成される音声の音源タイプ、及び前記音源仮想オブジェクトが位置する環境の環境標識を取得するための取得サブモジュールと、
前記音源タイプ及び前記環境標識に基づき前記検出半径を決定するための決定サブモジュールと、を含む。
本実施例によれば、音源仮想オブジェクトによって生成される音声の音源タイプと、音源仮想オブジェクトが位置する環境の環境標識に基づき、検出半径を決定することで、位置音源決定の正確度を向上させるとともに、位置マーク表示の柔軟性を向上させることができる。
任意選択な実施案として、前記決定サブモジュールは具体的に以下のために用いられ、
前記音源タイプに対して配置した初期検出半径を取得し、前記音源タイプによって指示される音声の周波数は、前記初期検出半径の大きさに反比例し、
前記環境標識にマッチングした音声トリガー閾値を取得し、
前記音声トリガー閾値に基づき、前記初期検出半径を縮小するように調整することで、前記検出半径を取得する。
本実施例によれば、初期検出半径を取得し、環境標識にマッチングした音声トリガー閾値に基づき検出半径を縮小することで、異なる環境に応じて初期検出半径を調整し、表示位置決定の正確度を向上させるという効果が得られる。
任意選択な実施案として、前記表示ユニット1008は、
前記音源仮想オブジェクトによって生成される音声の音源タイプを取得するための第2取得モジュールと、
前記音源タイプにマッチングした前記音源仮想オブジェクトの前記位置マークを表示するための第1表示モジュールと、を含む。
本実施例によれば、音源仮想オブジェクトによって生成される音声の音源タイプに基づき位置マークを決定することで、ユーザが位置マークにより音源タイプを正確に決定するようにし、音源決定の正確度を向上させるという目的を達成する。
任意選択な実施案として、前記第1表示モジュールは、
前記音源タイプにマッチングした色に応じて、前記位置マークを表示するための第1表示サブモジュールと、
前記音源タイプにマッチングした形状に応じて、前記位置マークを表示するための第2表示サブモジュールと、
前記音源タイプにマッチングした標識に応じて、前記位置マークを表示するための第3表示サブモジュール、のうちの少なくとも1つを含む。
本実施例によれば、異なる色、形状を利用して位置マークを調整することで、ユーザが異なる表示スキームに従って、音源仮想オブジェクトによって生成される音声の音源タイプを知ることができるようにし、音源決定の正確度を向上させるとともに、位置マーク表示の柔軟性を向上させる。
任意選択な実施案として、前記第1表示モジュールは、
前記アプリケーションクライアントの前記インタラクティブインタフェースに表示されるマップにおける前記第2位置に、前記音源仮想オブジェクトの前記位置マークを表示するための第4表示サブモジュールと、
前記アプリケーションクライアントの前記インタラクティブインタフェースに表示されるユニバーサルホイールにおける、前記第2位置に対応する方向に、前記音源仮想オブジェクトの前記位置マークを表示するための第5表示サブモジュール、のうちの少なくとも1つを含む。
本実施例によれば、インタラクティブインタフェースのマップに位置マークを表示するか、又はインタラクティブインタフェースのユニバーサルホイールに位置マークを表示することで、インタラクティブインタフェースのメインインタフェースを遮蔽することがなく、音源決定の正確度を向上させるとともに、ユーザ体験を向上させることができる。
任意選択な実施案として、前記第1表示モジュールは、
前記音源仮想オブジェクトには消音装置が配置された場合、前記位置マークの表示範囲を調整するための調整サブモジュールであって、前記消音装置が配置された前記音源仮想オブジェクトの前記位置マークの表示範囲が、前記消音装置が配置されていない前記音源仮想オブジェクトの前記位置マークの表示範囲より大きい調整サブモジュールを含む。
本実施例によれば、消音装置が配置された場合、位置マークの表示範囲を調整することで、音源決定の正確度を向上させるとともに、位置マーク表示の柔軟性を向上させることができる。
任意選択な実施案として、前記表示ユニット1008は、
複数の前記音源仮想オブジェクトが検出され、且つ複数の前記音源仮想オブジェクトが前記第1仮想キャラクターの異なる方向に位置する場合、複数の前記音源仮想オブジェクトにそれぞれマッチングした位置マークの透明度に応じて、複数の前記音源仮想オブジェクトのそれぞれの前記位置マークを同時に表示するための第2表示モジュールを含む。
本実施例によれば、異なる方向における音源仮想オブジェクトの位置マークを同時に表示することで、複数の音源仮想オブジェクトを同時に表示するという効果が得られ、音源決定の正確度を向上させるとともに、ユーザが複数の音源仮想オブジェクトの仮想環境における位置を同時に知ることができる。
任意選択な実施案として、前記表示ユニット1008は、
複数の前記音源仮想オブジェクトが検出され、且つ複数の前記音源仮想オブジェクトが前記第1仮想キャラクターの同じ方向にある場合、複数の前記音源仮想オブジェクトのそれぞれの音声トリガー開始時間を取得するための第3取得モジュールと、
2つの隣接する前記音源仮想オブジェクトの前記音声トリガー開始時間のトリガー時間間隔を順次取得するための第4取得モジュールと、
前記トリガー時間間隔が第1閾値より大きい場合、2つの隣接する前記音源仮想オブジェクトのそれぞれにマッチングした位置マークの透明度を順次決定し、決定した透明度に応じて、2つの隣接する前記音源仮想オブジェクトの前記位置マークを順次表示するための第3決定モジュールと、
前記トリガー時間間隔が前記第1閾値より小さい場合、2つの隣接する前記音源仮想オブジェクトのうちの、前記音声トリガー開始時間がより後ろにある対象音源仮想オブジェクトについて、前記目標音源仮想オブジェクトにマッチングした位置マークの前記透明度を決定し、決定した前記透明度に応じて、前記対象音源仮想オブジェクトの前記位置マークを表示するための第4決定モジュールと、を含む。
本実施例によれば、前記技術案によって同じ方向における音源仮想オブジェクトの位置マークを表示することで、同じ方向における複数の位置マークが同時に表示されることによる、互いに遮蔽するという状況を回避することができ、音源決定の正確度を向上させるとともに、位置マークの表示効率を向上させる。
任意選択な実施案として、前記装置はさらに、
前記アプリケーションクライアントによって制御される第1仮想キャラクターの仮想シーンにおける第1位置を取得した後、前記第1位置に関連付けられた前記音源検出領域では、音声を発生させる複数の仮想オブジェクトが検出され、且つ前記複数の仮想オブジェクトが同じ仮想キャラクターに関連つけられた場合、前記複数の仮想オブジェクトのそれぞれの音声トリガー開始時間を取得するための検出ユニットと、
前記音声トリガー開始時間に基づき、前記複数の仮想オブジェクトから、対象仮想オブジェクトを前記音源仮想オブジェクトとして決定するための第2決定ユニットと、を含む。
本実施例によれば、音声トリガー開始時間に基づき音源仮想オブジェクトを決定することで、複数の仮想オブジェクトが同じ位置で同時に表示されることによる、互いに遮蔽するという問題を回避することができ、音源決定の正確度を向上させるとともに、位置マークの表示効率を向上させる。
任意選択な実施案として、前記表示ユニット1008は、
前記音源仮想オブジェクトの前記位置マークに含まれる方向マークを取得するための第5取得モジュールであって、前記方向マークが、音声トリガー開始時間の前記第1仮想キャラクターに対する前記音源仮想オブジェクトの移動方向を指示するために用いられる第5取得モジュールと、
前記音源仮想オブジェクトが前記位置マークを表示する表示期間内で、前記方向マークを表示するための第3表示モジュールと、を含む。
本実施例によれば、音源仮想オブジェクトの移動方向を表示することで、インタラクティブインタフェースにおいて音源仮想オブジェクトの移動方向を明らかに了解することができ、音源決定の正確度を向上させるとともに、ユーザ体験を向上させる。
任意選択な実施案として、前記装置はさらに、
前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示する前に、前記音源仮想オブジェクトが位置する前記第2位置が、前記仮想シーンにおける指定位置にある場合、前記音源仮想オブジェクトの前記位置マークの表示を禁止するための第1禁止ユニットであって、前記指定位置には、前記音源仮想オブジェクトの前記仮想シーンにおける生成地が含まれる第1禁止ユニットと、
前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示する前に、前記音源仮想オブジェクトが指定姿態にある場合、前記音源仮想オブジェクトの前記位置マークの表示を禁止するための第2禁止ユニットであって、前記指定姿態には匍匐状態が含まれる第2禁止ユニットと、
前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示する前に、前記音源仮想オブジェクトと前記第1仮想キャラクターが同じ陣営マークを有する場合、前記第1仮想キャラクターに対して、前記音源仮想オブジェクトの前記位置マークの表示を禁止するための第3禁止ユニット、のうちの少なくとも1つを含む。
本実施例によれば、上記の場合に位置マークの表示を禁止することで、一定の条件で、音源仮想オブジェクトを隠すことができ、これによって、音源決定の正確度を向上させるとともに、位置マーク表示の柔軟性を向上させる。
本出願の実施例の他の態様によれば、前記音源決定方法を実施するための電子装置をさらに提供し、図11に示すように、当該電子装置はメモリとプロセッサとを含み、当該メモリにはコンピュータプログラムが記憶され、当該プロセッサは、コンピュータプログラムによって上記の方法実施例のいずれか1つのステップを実行するように配置される。
任意選択で、本実施例において、前記電子装置はコンピュータネットワーク内の複数のネットワーク機器のうちの少なくとも1つのネットワーク機器に配置されてもよい。
任意選択で、本実施例において、前記プロセッサは、コンピュータプログラムによって以下のステップを実行するように配置され、
ステップS1、アプリケーションクライアントによって制御される第1仮想キャラクターの、仮想シーンにおける第1位置を取得し、
ステップS2、前記第1位置に関連付けられた音源検出領域で音源仮想オブジェクトの前記仮想シーンにおける第2位置を検出し、
ステップS3、前記第1位置と前記第2位置との間の音源距離に基づき、前記音源仮想オブジェクトにマッチングした位置マークの透明度を決定し、前記位置マークが、前記音源仮想オブジェクトが位置する前記第2位置を識別するために用いられ、
ステップS4、前記アプリケーションクライアントのインタラクティブインタフェースに、前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示する。
任意選択で、当業者は、図11に示される構成が単に例示のためのものであり、電子装置がスマートフォン(例えばAndroidフォン、iOSフォンなど)、タブレットコンピュータ、パームトップコンピュータ及びモバイルインターネットデバイス(Mobile Internet Devices、MID)、PADなどの端末機器であってもよいことを理解できる。図11は上記の電子装置の構成を限定するものではない。例えば、電子装置は、図11に示されるものより多い又はより少ないアセンブリ(例えばネットワークインタフェース、表示装置など)を含んでもよく、或いは、図11に示されるものと異なる配置を有してもよい。
メモリ1102は、ソフトウェアプログラム及びモジュール、例えば、本出願の実施例における音源決定方法及び装置に対応するプログラム命令/モジュールを記憶するために用いられ、プロセッサ1104は、メモリ1102に記憶されるソフトウェアプログラム及びモジュールを実行することで、様々な機能アプリケーション及びデータ処理を実行し、即ち、前記音源決定方法を実現する。メモリ1102は高速ランダムメモリを含んでもよく、例えば1つ以上の磁気記憶装置、フラッシュメモリ、又は他の不揮発性ソリッドステートメモリなどの不揮発性メモリを含んでもよい。いくつかの実例において、メモリ1102はさらに、プロセッサ1104に対してリモートに配置されたメモリを含んでもよく、これらのリモートメモリはネットワークを介して端末に接続される。上記のネットワークの実例はインターネット、企業イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク、及びそれらの組み合わせを含んでもよいが、これらに限定されない。
伝送装置1106は、1つのネットワークを介してデータを受信又は送信するために用いられる。上記のネットワークの具体例は、有線ネットワーク及び無線ネットワークを含んでもよい。一例において、伝送装置1106は、インターネット又はローカルエリアネットワークと通信し得るようにネットワーク回線を介して他のネットワーク機器及びルータに接続されるネットワークアダプタ(Network Interface Controller、NIC)を含む。一例において、伝送装置1106は、無線方式でインターネットと通信するための、無線周波数(Radio Frequency、RF)モジュールである。
具体的に、メモリ1102は、音源仮想オブジェクトの位置マークを記憶するために用いられる。
本出願の実施例はさらに記憶媒体を提供し、当該記憶媒体にはコンピュータプログラムが記憶され、当該コンピュータプログラムは、実行時に、上記の方法実施例のいずれか1つのステップを実行するように配置される。
任意選択で、本実施例において、前記記憶媒体は、以下のステップを実行するためのコンピュータプログラムを記憶するように配置され、
ステップS1、アプリケーションクライアントによって制御される第1仮想キャラクターの、仮想シーンにおける第1位置を取得し、
ステップS2、前記第1位置に関連付けられた音源検出領域で音源仮想オブジェクトの前記仮想シーンにおける第2位置を検出し、
ステップS3、前記第1位置と前記第2位置との間の音源距離に基づき、前記音源仮想オブジェクトにマッチングした位置マークの透明度を決定し、前記位置マークが、前記音源仮想オブジェクトが位置する前記第2位置を識別するために用いられ、
ステップS4、前記アプリケーションクライアントのインタラクティブインタフェースに、前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示する。
任意選択で、本実施例において、前記記憶媒体は、以下のステップを実行するためのコンピュータプログラムを記憶するように配置され、
ステップS1、前記音源仮想オブジェクトにマッチングした前記音源検出領域の検出半径を取得し、
ステップS2、前記音源距離と前記検出半径という両者の間の比に基づき、前記透明度を決定し、前記比が小さくなる場合、前記透明度が小さくなるように調整し、前記比が大きくなる場合、前記透明度が大きくなるように調整する。
任意選択で、本実施例において、前記記憶媒体は、以下のステップを実行するためのコンピュータプログラムを記憶するように配置され、
ステップS1、前記音源仮想オブジェクトによって生成される音声の音源タイプ、及び前記音源仮想オブジェクトが位置する環境の環境標識を取得し、
ステップS2、前記音源タイプ及び前記環境標識に基づき前記検出半径を決定する。
任意選択で、本実施例において、前記記憶媒体は、以下のステップを実行するためのコンピュータプログラムを記憶するように配置され、
ステップS1、前記音源タイプに対応する初期検出半径を取得し、前記音源タイプによって指示される音声の周波数が前記初期検出半径の大きさに反比例し、
ステップS2、前記環境標識にマッチングした音声トリガー閾値を取得し、
ステップS3、前記音声トリガー閾値に基づき、前記初期検出半径を縮小するように調整することで、前記検出半径を取得する。
任意選択で、本実施例において、前記記憶媒体は、以下のステップを実行するためのコンピュータプログラムを記憶するように配置され、
ステップS1、前記音源仮想オブジェクトによって生成される音声の音源タイプを取得し、
ステップS2、前記音源タイプにマッチングした前記音源仮想オブジェクトの前記位置マークを表示する。
任意選択で、本実施例において、前記記憶媒体は、以下のステップを実行するためのコンピュータプログラムを記憶するように配置され、
ステップS1、前記音源タイプにマッチングした色に応じて前記位置マークを表示し、
ステップS2、前記音源タイプにマッチングした形状に応じて前記位置マークを表示し、
ステップS3、前記音源タイプにマッチングした標識に応じて前記位置マークを表示する。
任意選択で、本実施例において、前記記憶媒体は、以下のステップを実行するためのコンピュータプログラムを記憶するように配置され、
ステップS1、前記アプリケーションクライアントの前記インタラクティブインタフェースに表示されるマップにおける前記第2位置に、前記音源仮想オブジェクトの前記位置マークを表示し、
ステップS2、前記アプリケーションクライアントの前記インタラクティブインタフェースに表示されるユニバーサルホイールにおける、前記第2位置に対応する方向に、前記音源仮想オブジェクトの前記位置マークを表示する。
任意選択で、本実施例において、前記記憶媒体は、以下のステップを実行するためのコンピュータプログラムを記憶するように配置され、
ステップS1、前記音源仮想オブジェクトには消音装置が配置された場合、前記位置マークの表示範囲を調整し、前記消音装置が配置された前記音源仮想オブジェクトの前記位置マークの表示範囲は、前記消音装置が配置されていない前記音源仮想オブジェクトの前記位置マークの表示範囲より大きい。
任意選択で、本実施例において、前記記憶媒体は、以下のステップを実行するためのコンピュータプログラムを記憶するように配置され、
ステップS1、複数の前記音源仮想オブジェクトが検出され、且つ複数の前記音源仮想オブジェクトが前記第1仮想キャラクターの異なる方向に位置する場合、複数の前記音源仮想オブジェクトにそれぞれマッチングした位置マークの透明度に応じて、複数の前記音源仮想オブジェクトのそれぞれの前記位置マークを同時に表示する。
任意選択で、本実施例において、前記記憶媒体は、以下のステップを実行するためのコンピュータプログラムを記憶するように配置され、
ステップS1、複数の前記音源仮想オブジェクトが検出され、且つ複数の前記音源仮想オブジェクトが前記第1仮想キャラクターの同じ方向にある場合、複数の前記音源仮想オブジェクトのそれぞれの音声トリガー開始時間を取得し、
ステップS2、2つの隣接する前記音源仮想オブジェクトの前記音声トリガー開始時間のトリガー時間間隔を順次取得し、
ステップS3、前記トリガー時間間隔が第1閾値より大きい場合、2つの隣接する前記音源仮想オブジェクトのそれぞれにマッチングした位置マークの透明度を順次決定し、決定した透明度に応じて、2つの隣接する前記音源仮想オブジェクトの前記位置マークを順次表示し、
ステップS4、前記トリガー時間間隔が前記第1閾値より小さい場合、2つの隣接する前記音源仮想オブジェクトのうちの、前記音声トリガー開始時間がより後ろにある対象音源仮想オブジェクトについて、前記対象音源仮想オブジェクトにマッチングした位置マークの透明度を決定し、決定した前記透明度に応じて、前記対象音源仮想オブジェクトの前記位置マークを表示する。
任意選択で、本実施例において、前記記憶媒体は、以下のステップを実行するためのコンピュータプログラムを記憶するように配置され、
ステップS1、前記第1位置に関連付けられた前記音源検出領域では、音声を発生させる複数の仮想オブジェクトが検出され、且つ前記複数の仮想オブジェクトが同じ仮想キャラクターに関連つけられた場合、前記複数の仮想オブジェクトのそれぞれの音声トリガー開始時間を取得し、
ステップS2、前記音声トリガー開始時間に基づき、前記複数の仮想オブジェクトから、対象仮想オブジェクトを前記音源仮想オブジェクトとして決定する。
任意選択で、本実施例において、前記記憶媒体は、以下のステップを実行するためのコンピュータプログラムを記憶するように配置され、
ステップS1、前記音源仮想オブジェクトの前記位置マークに含まれる方向マークを取得し、前記方向マークが、音声トリガー開始時間の前記第1仮想キャラクターに対する前記音源仮想オブジェクトの移動方向を指示するために用いられ、
ステップS2、前記音源仮想オブジェクトにマッチングした表示期間内で前記方向マークを表示する。
任意選択で、本実施例において、前記記憶媒体は、以下のステップを実行するためのコンピュータプログラムを記憶するように配置され、
ステップS1、前記音源仮想オブジェクトが位置する前記第2位置が、前記仮想シーンにおける指定位置にある場合、前記音源仮想オブジェクトの前記位置マークの表示を禁止し、前記指定位置には、前記音源仮想オブジェクトの前記仮想シーンにおける生成地が含まれ、
ステップS2、前記音源仮想オブジェクトが指定姿態にある場合、前記音源仮想オブジェクトの前記位置マークの表示を禁止し、前記指定姿態には匍匐状態が含まれ、
ステップS3、前記音源仮想オブジェクトと前記第1仮想キャラクターとが同じ陣営マークを有する場合、前記第1仮想キャラクターに対して、前記音源仮想オブジェクトの前記位置マークの表示を禁止する。
任意選択で、本実施例では、当業者は、上記の実施例の様々な方法におけるステップの全て又は一部が、プログラムによって端末機器の関連ハードウェアに命令することで完了することができることを理解できる。当該プログラムはコンピュータ可読記憶媒体に記憶され、記憶媒体は、フラッシュメモリディスク、読み取り専用メモリ(Read−Only Memory、ROM)、ランダムアクセスメモリ(Random Access Memory、RAM)、磁気ディスク又は光ディスクを含んでもよい。
上記の本出願の実施例のシリアル番号は実施例の優劣を表すものではなく、説明のためだけのものである。
上記の実施例における統合されたユニットは、ソフトウェア機能ユニットという形式で実施され、独立製品として販売又は使用される場合、上記のコンピュータ可読記憶媒体に記憶されてもよい。そのような理解に基づいて、本出願の技術案が本質的又は従来技術に寄与する部分、或いは当該技術案の全て又は一部について、ソフトウェア製品という形式で具現化されてもよい。当該コンピュータソフトウェア製品は、記憶媒体に記憶され、本出願の各実施例に記載の方法のステップの全て又は一部を、1台又は複数台のコンピュータ機器(パーソナルコンピュータ、サーバ、ネットワーク機器など)に実行させるためのいくつかの命令を含む。
上述した本出願の実施例では、各実施形態に対する記載はそれぞれ強調点を有し、ある実施例において詳細に説明されていない部分について、他の実施例の関連する記載を参照すればよい。
本出願により提供されるいくつかの実施例では、開示されたクライアントが他の形態で実施されてもよいことは理解すべきである。上記の装置の実施例は、単なる例示であり、例えば、前記ユニットの分割は、論理機能の分割だけであり、実際の実現では、他の分割方法があり得る。例えば、複数のユニット又はアセンブリを、別のシステムに組み込むか、又は統合してもよく、或いは、一部の機能を無視するか、又は実行しないことができる。また、表示又は検討された相互結合又は直接結合又は通信接続について、いくつかのインタフェース、ユニット又はモジュールを介した間接結合又は通信接続であってもよく、電気的又は他の形態であり得る。
個別の部品として説明される前記ユニットは、物理的に個別であってもよく、そうではなくてもよく、ユニットとして表示される部品は物理的なユニットであってもよく、そうではなくてもよく、即ち、1つの場所に位置してもよいし、複数のネットワークユニットに分布されてもよい。実際のニーズに応じて、本実施例の目的を達成するために、ユニットの一部又は全てを選択してもよい。
また、本出願の各実施例における各機能ユニットが1つの処理ユニットに統合されてもよいし、各ユニットが単独で物理的に存在してもよいし、2つ以上のユニットが1つのユニットに統合されてもよい。上記の統合されたユニットは、ハードウェアという形式で実現されてもよいし、ソフトウェア機能ユニットという形式で実現されてもよい。
上記は本出願の好適な実施形態にすぎないが、当業者にとって、本出願の趣旨から逸脱することなく、さまざまな改良及び修飾を行うことができ、これらの改良及び修飾も、本出願の保護範囲と見なされるべきであることに留意されたい。

Claims (28)

  1. 端末機器が実行する音源決定方法であって、
    アプリケーションクライアントによって制御される第1仮想キャラクターの仮想シーンにおける第1位置を取得するステップと、
    前記第1位置に関連付けられた音源検出領域では、音源仮想オブジェクトの前記仮想シーンにおける第2位置を検出するステップと、
    前記第1位置と前記第2位置との間の音源距離に基づき、前記音源仮想オブジェクトにマッチングした位置マークの透明度を決定するステップであって、前記位置マークが、前記音源仮想オブジェクトが位置する前記第2位置を識別するために用いられるステップと、
    前記アプリケーションクライアントのインタラクティブインタフェースに、前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示するステップと、を含む方法。
  2. 前記第1位置と前記第2位置との間の音源距離に基づき、前記音源仮想オブジェクトにマッチングした位置マークの透明度を決定する前記ステップは、
    前記音源仮想オブジェクトにマッチングした前記音源検出領域の検出半径を取得するステップと、
    前記音源距離と前記検出半径との比に基づき前記透明度を決定し、前記比が小さくなる場合、前記透明度が指示する透明程度を小さくなるように調整し、前記比が大きくなる場合、前記透明度が指示する透明程度を大きくなるように調整するステップと、を含む請求項1に記載の方法。
  3. 前記音源仮想オブジェクトにマッチングした前記音源検出領域の検出半径を取得する前記ステップは、
    前記音源仮想オブジェクトによって生成される音声の音源タイプ、及び前記音源仮想オブジェクトが位置する環境の環境標識を取得するステップと、
    前記音源タイプ及び前記環境標識に基づき前記検出半径を決定するステップと、を含む請求項2に記載の方法。
  4. 前記音源タイプ及び前記環境標識に基づき前記検出半径を決定するステップは、
    前記音源タイプに対応する初期検出半径を取得するステップであって、前記音源タイプによって示される音声の周波数が前記初期検出半径の大きさに反比例するステップと、
    前記環境標識にマッチングした音声トリガー閾値を取得するステップと、
    前記音声トリガー閾値に基づき、前記初期検出半径を縮小するように調整することで、前記検出半径を取得するステップと、を含む請求項3に記載の方法。
  5. 前記アプリケーションクライアントのインタラクティブインタフェースに、前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示する前記ステップは、
    前記音源仮想オブジェクトによって生成される音声の音源タイプを取得するステップと、
    前記音源タイプにマッチングした前記音源仮想オブジェクトの前記位置マークを表示するステップと、を含む請求項1乃至4のいずれか1項に記載の方法。
  6. 前記音源タイプにマッチングした前記音源仮想オブジェクトの前記位置マークを表示するステップは、
    前記音源タイプにマッチングした色に応じて前記位置マークを表示するステップと、
    前記音源タイプにマッチングした形状に基づき前記位置マークを表示するステップと、
    前記音源タイプにマッチングした標識に基づき前記位置マークを表示するステップのうちの少なくとも1つを含む請求項5に記載の方法。
  7. 前記音源タイプにマッチングした前記音源仮想オブジェクトの前記位置マークを表示する前記ステップは、
    前記アプリケーションクライアントの前記インタラクティブインタフェースに表示されるマップにおける前記第2位置に、前記音源仮想オブジェクトの前記位置マークを表示するステップと、
    前記アプリケーションクライアントの前記インタラクティブインタフェースに表示されるユニバーサルホイールにおける、前記第2位置に対応する方向に、前記音源仮想オブジェクトの前記位置マークを表示するステップのうちの少なくとも1つを含む請求項5に記載の方法。
  8. 前記音源タイプにマッチングした前記音源仮想オブジェクトの前記位置マークを表示するステップは、
    前記音源仮想オブジェクトに消音装置が配置された場合、前記位置マークの表示範囲を調整するステップであって、前記消音装置が配置された前記音源仮想オブジェクトの前記位置マークの表示範囲が、前記消音装置が配置されていない前記音源仮想オブジェクトの前記位置マークの表示範囲より大きいステップ、を含む請求項5に記載の方法。
  9. 前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示する前記ステップは、
    複数の前記音源仮想オブジェクトが検出され、且つ複数の前記音源仮想オブジェクトが前記第1仮想キャラクターの異なる方向に位置する場合、複数の前記音源仮想オブジェクトのそれぞれにマッチングした位置マークの透明度に応じて、複数の前記音源仮想オブジェクトのそれぞれの前記位置マークを同時に表示するステップ、を含む請求項1乃至4のいずれか1項に記載の方法。
  10. 前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示する前記ステップは、
    複数の前記音源仮想オブジェクトが検出され、且つ複数の前記音源仮想オブジェクトが前記第1仮想キャラクターの同じ方向にある場合、複数の前記音源仮想オブジェクトのそれぞれの音声トリガー開始時間を取得するステップと、
    2つの隣接する前記音源仮想オブジェクトの前記音声トリガー開始時間のトリガー時間間隔を順次取得するステップと、
    前記トリガー時間間隔が第1閾値より大きい場合、2つの隣接する前記音源仮想オブジェクトのそれぞれにマッチングした位置マークの透明度を順次決定し、決定した透明度に応じて、2つの隣接する前記音源仮想オブジェクトの前記位置マークを順次表示するステップと、
    前記トリガー時間間隔が前記第1閾値より小さい場合、2つの隣接する前記音源仮想オブジェクトのうちの、前記音声トリガー開始時間がより後ろにある対象音源仮想オブジェクトについて、前記対象音源仮想オブジェクトにマッチングした位置マークの透明度を決定し、決定した前記透明度に応じて、前記対象音源仮想オブジェクトの前記位置マークを表示するステップと、を含む請求項1乃至4のいずれか1項に記載の方法。
  11. 前記アプリケーションクライアントによって制御される第1仮想キャラクターの仮想シーンにおける第1位置を取得した後、さらに、
    前記第1位置に関連付けられた前記音源検出領域では、音声を発生させる複数の仮想オブジェクトが検出され、且つ前記複数の仮想オブジェクトが同一の仮想キャラクターに関連付けられる場合、前記複数の仮想オブジェクトのそれぞれの音声トリガー開始時間を取得するステップと、
    前記音声トリガー開始時間に基づき、前記複数の仮想オブジェクトから、対象仮想オブジェクトを前記音源仮想オブジェクトとして決定するステップと、を含む請求項1乃至10のいずれか1項に記載の方法。
  12. 前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示するステップは
    前記音源仮想オブジェクトの前記位置マークに含まれる方向マークを取得するステップであって、前記方向マークが、音声トリガー開始時間の前記第1仮想キャラクターに対する前記音源仮想オブジェクトの移動方向を指示するために用いられるステップと、
    前記音源仮想オブジェクトにマッチングした表示周期内で前記方向マークを表示するステップと、を含む請求項1乃至11のいずれか1項に記載の方法。
  13. 前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示する前に、さらに、
    前記音源仮想オブジェクトが位置する前記第2位置が、前記仮想シーンにおける指定位置にある場合、前記音源仮想オブジェクトの前記位置マークの表示を禁止するステップであって、前記指定位置に、前記音源仮想オブジェクトの前記仮想シーンにおける生成地が含まれるステップと、
    前記音源仮想オブジェクトが指定姿態にある場合、前記音源仮想オブジェクトの前記位置マークの表示を禁止するステップであって、前記指定姿態に、匍匐状態が含まれるステップと、
    前記音源仮想オブジェクトと前記第1仮想キャラクターとが同じ陣営マークを有する場合、前記第1仮想キャラクターに対して、前記音源仮想オブジェクトの前記位置マークの表示を禁止するステップと、の少なくとも1つを含む請求項1乃至11のいずれか1項に記載の方法。
  14. 音源決定装置であって、
    アプリケーションクライアントによって制御される第1仮想キャラクターの仮想シーンにおける第1位置を取得するための第1取得ユニットと、
    前記第1位置に関連付けられた音源検出領域では、音源仮想オブジェクトの前記仮想シーンにおける第2位置を検出するための第2取得ユニットと、
    前記第1位置と前記第2位置との間の音源距離に基づき、前記音源仮想オブジェクトにマッチングした位置マークの透明度を決定するための第1決定ユニットであって、前記位置マークが、前記音源仮想オブジェクトが位置する前記第2位置を識別するために用いられる第1決定ユニットと、
    前記アプリケーションクライアントのインタラクティブインタフェースに、前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示するための表示ユニットと、を含む装置。
  15. 前記第1決定ユニットは、
    前記音源仮想オブジェクトにマッチングした前記音源検出領域の検出半径を取得するための第1取得モジュールと、
    前記音源距離と前記検出半径との比に基づき前記透明度を決定するための第1決定モジュールであって、前記比が小さくなる場合、前記透明度が指示する透明程度を小さくなるように調整し、前記比が大きくなる場合、前記透明度が指示する透明程度を大きくなるように調整する第1決定モジュールと、を含む請求項14に記載の装置。
  16. 前記第1取得モジュールは、
    前記音源仮想オブジェクトによって生成される音声の音源タイプ、及び前記音源仮想オブジェクトが位置する環境の環境標識を取得するための取得サブモジュールと、
    前記音源タイプ及び前記環境標識に基づき前記検出半径を決定するための決定サブモジュールと、を含む請求項14又は15に記載の装置。
  17. 前記決定サブモジュールはさらに、
    前記音源タイプに対応する初期検出半径を取得するステップであって、前記音源タイプによって指示される音声の周波数が前記初期検出半径の大きさに反比例するステップと、
    前記環境標識にマッチングした音声トリガー閾値を取得するステップと、
    前記音声トリガー閾値に基づき、前記初期検出半径を縮小するように調整することで、前記検出半径を取得するステップと、を実行するために用いられる請求項16に記載の装置。
  18. 前記表示ユニットは、
    前記音源仮想オブジェクトによって生成される音声の音源タイプを取得するための第2取得モジュールと、
    前記音源タイプにマッチングした前記音源仮想オブジェクトの前記位置マークを表示するための第1表示モジュールと、を含む請求項14乃至17のいずれか1項に記載の装置。
  19. 前記第1表示モジュールは、
    前記音源タイプにマッチングした色に応じて、前記位置マークを表示するための第1表示サブモジュールと、
    前記音源タイプにマッチングした形状に応じて、前記位置マークを表示するための第2表示サブモジュールと、
    前記音源タイプにマッチングした標識に応じて、前記位置マークを表示するための第3表示サブモジュールと、の少なくとも1つを含む請求項18に記載の装置。
  20. 前記第1表示モジュールは、
    前記アプリケーションクライアントの前記インタラクティブインタフェースに表示されるマップにおける前記第2位置に、前記音源仮想オブジェクトの前記位置マークを表示するための第4表示サブモジュールと、
    前記アプリケーションクライアントの前記インタラクティブインタフェースに表示されるユニバーサルホイールにおける、前記第2位置に対応する方向に、前記音源仮想オブジェクトの前記位置マークを表示するための第5表示サブモジュールと、の少なくとも1つを含む請求項18又は19に記載の装置。
  21. 前記第1表示モジュールは、
    前記音源仮想オブジェクトに消音装置が配置された場合、前記位置マークの表示範囲を調整するための調整サブモジュールであって、前記消音装置が配置された前記音源仮想オブジェクトの前記位置マークの表示範囲が、前記消音装置が配置されていない前記音源仮想オブジェクトの前記位置マークの表示範囲より大きい調整サブモジュール、を含む請求項18乃至20のいずれか1項に記載の装置。
  22. 前記表示ユニットは、
    複数の前記音源仮想オブジェクトが検出され、且つ複数の前記音源仮想オブジェクトが前記第1仮想キャラクターの異なる方向に位置する場合、同時に、複数の前記音源仮想オブジェクトのそれぞれにマッチングした位置マークの透明度に応じて、複数の前記音源仮想オブジェクトのそれぞれの前記位置マークを表示するための第2表示モジュール、を含む請求項14乃至17のいずれか1項に記載の装置。
  23. 前記表示ユニットは、
    複数の前記音源仮想オブジェクトが検出され、且つ複数の前記音源仮想オブジェクトが前記第1仮想キャラクターの同じ方向にある場合、複数の前記音源仮想オブジェクトのそれぞれの音声トリガー開始時間を取得するための第3取得モジュールと、
    2つの隣接する前記音源仮想オブジェクトの前記音声トリガー開始時間のトリガー時間間隔を順次取得するための第4取得モジュールと、
    前記トリガー時間間隔が第1閾値より大きい場合、2つの隣接する前記音源仮想オブジェクトのそれぞれにマッチングした位置マークの透明度を順次決定し、決定した透明度に応じて、2つの隣接する前記音源仮想オブジェクトの前記位置マークを順次表示するための第3決定モジュールと、
    前記トリガー時間間隔が前記第1閾値より小さい場合、2つの隣接する前記音源仮想オブジェクトのうちの、前記音声トリガー開始時間がより後ろにある対象音源仮想オブジェクトについて、前記対象音源仮想オブジェクトにマッチングした位置マークの透明度を決定し、決定した前記透明度に応じて前記対象音源仮想オブジェクトの前記位置マークを表示するための第4決定モジュールと、を含む請求項14乃至22のいずれか1項に記載の装置。
  24. 前記装置はさらに、
    前記アプリケーションクライアントによって制御される第1仮想キャラクターの、仮想シーンにある第1位置を取得した後、前記第1位置に関連付けられた前記音源検出領域では、音声を発生させる複数の仮想オブジェクトが検出され、且つ前記複数の仮想オブジェクトが同一の仮想キャラクターに関連つけられた場合、前記複数の仮想オブジェクトのそれぞれの音声トリガー開始時間を取得するための検出ユニットと、
    前記音声トリガー開始時間に応じて、前記複数の仮想オブジェクトから、対象仮想オブジェクトを前記音源仮想オブジェクトとして決定するための第2決定ユニットと、を含む請求項14乃至23のいずれか1項に記載の装置。
  25. 前記表示ユニットはさらに、
    前記音源仮想オブジェクトの前記位置マークに含まれる方向マークを取得するための第5取得モジュールであって、前記方向マークが、音声トリガー開始時間の前記第1仮想キャラクターに対する前記音源仮想オブジェクトの移動方向を指示するために用いられる第5取得モジュールと、
    前記音源仮想オブジェクトにマッチングした表示周期内で前記方向マークを表示するための第3表示モジュールと、を含む請求項14乃至24のいずれか1項に記載の装置。
  26. 前記装置はさらに、
    前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示する前に、前記音源仮想オブジェクトが位置する前記第2位置が、前記仮想シーンにおける指定位置にある場合、前記音源仮想オブジェクトの前記位置マークの表示を禁止するための第1禁止ユニットであって、前記指定位置に、前記音源仮想オブジェクトの前記仮想シーンにおける生成地が含まれる第1禁止ユニットと、
    前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示する前に、前記音源仮想オブジェクトが指定姿態にある場合、前記音源仮想オブジェクトの前記位置マークの表示を禁止するための第2禁止ユニットであって、前記指定姿態に匍匐状態が含まれる第2禁止ユニットと、
    前記透明度に応じて、前記音源仮想オブジェクトの前記位置マークを表示する前に、前記音源仮想オブジェクトと前記第1仮想キャラクターとが同じ陣営マークを有する場合、前記第1仮想キャラクターに対して、前記音源仮想オブジェクトの前記位置マークの表示を禁止するための第3禁止ユニットと、の少なくとも1つを含む請求項14乃至24のいずれか1項に記載の装置。
  27. コンピュータで実行されるときに、請求項1乃至13のいずれか1項に記載の方法を前記コンピュータに実行させるコンピュータプログラム。
  28. メモリとプロセッサとを含む電子装置であって、前記メモリにコンピュータプログラムが記憶され、前記プロセッサは、前記コンピュータプログラムによって請求項1乃至13のいずれか1項に記載の方法を実行するように配置される電子装置。

JP2020551314A 2018-05-29 2019-04-03 音源決定方法並びにその装置、コンピュータプログラム、及び電子装置 Active JP7170742B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022175217A JP2023011794A (ja) 2018-05-29 2022-11-01 音源決定方法並びにその装置、コンピュータプログラム、及び電子装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810532413.2 2018-05-29
CN201810532413.2A CN108854069B (zh) 2018-05-29 2018-05-29 音源确定方法和装置、存储介质及电子装置
PCT/CN2019/081259 WO2019228061A1 (zh) 2018-05-29 2019-04-03 音源确定方法和装置、存储介质及电子装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022175217A Division JP2023011794A (ja) 2018-05-29 2022-11-01 音源決定方法並びにその装置、コンピュータプログラム、及び電子装置

Publications (2)

Publication Number Publication Date
JP2021516823A true JP2021516823A (ja) 2021-07-08
JP7170742B2 JP7170742B2 (ja) 2022-11-14

Family

ID=64336542

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020551314A Active JP7170742B2 (ja) 2018-05-29 2019-04-03 音源決定方法並びにその装置、コンピュータプログラム、及び電子装置
JP2022175217A Pending JP2023011794A (ja) 2018-05-29 2022-11-01 音源決定方法並びにその装置、コンピュータプログラム、及び電子装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022175217A Pending JP2023011794A (ja) 2018-05-29 2022-11-01 音源決定方法並びにその装置、コンピュータプログラム、及び電子装置

Country Status (5)

Country Link
US (2) US11536796B2 (ja)
JP (2) JP7170742B2 (ja)
KR (1) KR102473628B1 (ja)
CN (1) CN108854069B (ja)
WO (1) WO2019228061A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108854069B (zh) 2018-05-29 2020-02-07 腾讯科技(深圳)有限公司 音源确定方法和装置、存储介质及电子装置
JP7399623B2 (ja) * 2019-03-25 2023-12-18 株式会社バンダイナムコエンターテインメント ゲームシステム、プログラム及びゲーム装置
CN110898430B (zh) * 2019-11-26 2021-12-07 腾讯科技(深圳)有限公司 音源定位方法和装置、存储介质及电子装置
CN110882540B (zh) * 2019-11-26 2021-04-09 腾讯科技(深圳)有限公司 音源定位方法和装置、存储介质及电子装置
JPWO2022220102A1 (ja) * 2021-04-12 2022-10-20
CN113457132B (zh) * 2021-06-23 2024-03-01 北京达佳互联信息技术有限公司 对象投放方法、装置、电子设备及存储介质
CN113559512A (zh) * 2021-08-04 2021-10-29 网易(杭州)网络有限公司 声源音效的处理方法、装置、计算机设备以及存储介质
CN115703011A (zh) * 2021-08-05 2023-02-17 腾讯科技(深圳)有限公司 虚拟世界中的声音提示方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012055490A (ja) * 2010-09-08 2012-03-22 Copcom Co Ltd ゲームプログラム及びゲーム装置
JP2017055935A (ja) * 2015-09-16 2017-03-23 株式会社カプコン ゲームプログラムおよびゲームシステム
CN107992281A (zh) * 2017-10-27 2018-05-04 网易(杭州)网络有限公司 补偿声音信息的视觉显示方法及装置、存储介质、设备
JP2019042509A (ja) * 2017-08-30 2019-03-22 ネットイーズ (ハンチョウ) ネットワーク カンパニー リミテッド 音声情報を補償するビジュアル方法及び装置、プログラム、記憶媒体、電子機器

Family Cites Families (172)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6210272B1 (en) * 1997-12-22 2001-04-03 Health Hero Network, Inc. Multi-player interactive electronic game for health education
DE69432199T2 (de) * 1993-05-24 2004-01-08 Sun Microsystems, Inc., Mountain View Graphische Benutzerschnittstelle mit Verfahren zur Schnittstellebildung mit fernsteuernden Einrichtungen
US5682469A (en) * 1994-07-08 1997-10-28 Microsoft Corporation Software platform having a real world interface with animated characters
US5768382A (en) * 1995-11-22 1998-06-16 Walker Asset Management Limited Partnership Remote-auditing of computer generated outcomes and authenticated biling and access control system using cryptographic and other protocols
US6031549A (en) * 1995-07-19 2000-02-29 Extempo Systems, Inc. System and method for directed improvisation by computer controlled characters
US5717869A (en) * 1995-11-03 1998-02-10 Xerox Corporation Computer controlled display system using a timeline to control playback of temporal data representing collaborative activities
US6219045B1 (en) * 1995-11-13 2001-04-17 Worlds, Inc. Scalable virtual world chat client-server system
US5752880A (en) * 1995-11-20 1998-05-19 Creator Ltd. Interactive doll
US20030177347A1 (en) * 1995-11-22 2003-09-18 Bruce Schneier Methods and apparatus for awarding prizes based on authentication of computer generated outcomes using coupons
US8092224B2 (en) * 1995-11-22 2012-01-10 James A. Jorasch Systems and methods for improved health care compliance
US5880731A (en) * 1995-12-14 1999-03-09 Microsoft Corporation Use of avatars with automatic gesturing and bounded interaction in on-line chat session
US6476830B1 (en) * 1996-08-02 2002-11-05 Fujitsu Software Corporation Virtual objects for building a community in a virtual world
US5802296A (en) * 1996-08-02 1998-09-01 Fujitsu Software Corporation Supervisory powers that provide additional control over images on computers system displays to users interactings via computer systems
US6213871B1 (en) * 1997-02-19 2001-04-10 Kabushiki Kaisha Bandai Nurturing simulation apparatus for virtual creatures
US6750881B1 (en) * 1997-02-24 2004-06-15 America Online, Inc. User definable on-line co-user lists
US5907831A (en) * 1997-04-04 1999-05-25 Lotvin; Mikhail Computer apparatus and methods supporting different categories of users
US5971855A (en) * 1997-09-30 1999-10-26 Tiger Electronics, Ltd. Apparatus and method of communicating between electronic games
US6173267B1 (en) * 1998-02-24 2001-01-09 Laurie Cairns Method for product promotion
US6267672B1 (en) * 1998-10-21 2001-07-31 Ayecon Entertainment, L.L.C. Product sales enhancing internet game system
US6337698B1 (en) * 1998-11-20 2002-01-08 Microsoft Corporation Pen-based interface for a notepad computer
US7061493B1 (en) * 1999-04-07 2006-06-13 Fuji Xerox Co., Ltd. System for designing and rendering personalities for autonomous synthetic characters
NZ515624A (en) * 1999-04-21 2003-04-29 David Leason Lottery-type rewards system with reward validation/redeeming through the internet
US6273815B1 (en) * 1999-06-08 2001-08-14 Katherine C. Stuckman Virtual electronic pet and method for use therewith
US7054831B2 (en) * 1999-07-07 2006-05-30 Eric Koenig System and method for combining interactive game with interactive advertising
US6522333B1 (en) * 1999-10-08 2003-02-18 Electronic Arts Inc. Remote communication through visual representations
JP2001154966A (ja) * 1999-11-29 2001-06-08 Sony Corp コンピュータ・ネットワーク上で構築・提供される共有仮想空間上で複数ユーザが参加可能な仮想会話を支援する会話支援システム及び会話支援方法、並びに、プログラム記憶媒体
US6404438B1 (en) * 1999-12-21 2002-06-11 Electronic Arts, Inc. Behavioral learning for a visual representation in a communication environment
US7210104B2 (en) * 2000-02-16 2007-04-24 Sega Corporation Information display method and information display system for finding another user in a plurality of users based upon registered information
US7081033B1 (en) * 2000-03-07 2006-07-25 Hasbro, Inc. Toy figure for use with multiple, different game systems
US20020147640A1 (en) * 2000-04-04 2002-10-10 Laura Daniele System for obtaining credits for playing games and awarding and redeeming coupons
US6954728B1 (en) * 2000-05-15 2005-10-11 Avatizing, Llc System and method for consumer-selected advertising and branding in interactive media
US6951516B1 (en) * 2001-08-21 2005-10-04 Nintendo Co., Ltd. Method and apparatus for multi-user communications using discrete video game platforms
CN1432169A (zh) * 2000-06-02 2003-07-23 朴钟赫 利用在线游戏做广告的方法
JP2002024285A (ja) * 2000-06-30 2002-01-25 Sanyo Electric Co Ltd ユーザ支援方法およびユーザ支援装置
AU2001276885A1 (en) * 2000-07-12 2002-01-21 Cachestream Corporation Credit system
JP2002055935A (ja) * 2000-08-07 2002-02-20 Sony Corp 情報処理装置および情報処理方法、サービス提供システム、並びに記録媒体
US7062722B1 (en) * 2000-08-22 2006-06-13 Bruce Carlin Network-linked interactive three-dimensional composition and display of saleable objects in situ in viewer-selected scenes for purposes of promotion and procurement
JP2002083320A (ja) * 2000-09-07 2002-03-22 Sony Corp 仮想会話支援システム及び仮想会話支援、並びに記憶媒体
WO2002020111A2 (en) * 2000-09-07 2002-03-14 Omnisky Corporation Coexistent interaction between a virtual character and the real world
US7314407B1 (en) * 2000-09-25 2008-01-01 Pearson Carl P Video game system using trading cards
JP2002109394A (ja) * 2000-09-26 2002-04-12 Sony Corp コミュニティサービス提供装置、コミュニティサービス提供方法、プログラム格納媒体およびコミュニティシステム
ZA200103659B (en) * 2000-10-09 2001-11-26 Ajay Ganesh Ubale Net related interactive quiz game.
US8117281B2 (en) * 2006-11-02 2012-02-14 Addnclick, Inc. Using internet content as a means to establish live social networks by linking internet users to each other who are simultaneously engaged in the same and/or similar content
US7168051B2 (en) * 2000-10-10 2007-01-23 Addnclick, Inc. System and method to configure and provide a network-enabled three-dimensional computing environment
US6910186B2 (en) * 2000-12-08 2005-06-21 Kyunam Kim Graphic chatting with organizational avatars
JP2002210238A (ja) * 2001-01-24 2002-07-30 Sony Computer Entertainment Inc 記録媒体、プログラム、プログラム実行システム及びプログラム実行装置
AU2002240270A1 (en) * 2001-02-09 2002-08-28 Softcoin, Inc. Providing promotions over a network
US6435875B1 (en) * 2001-02-12 2002-08-20 Mattel, Inc. Electronic bulldozer game
US20020130894A1 (en) * 2001-03-15 2002-09-19 Young Christopher I. Web page character
US7249139B2 (en) * 2001-07-13 2007-07-24 Accenture Global Services Gmbh Secure virtual marketplace for virtual objects and services
US20030018523A1 (en) * 2001-07-20 2003-01-23 Ethan Rappaport Rewards program using electronically encoded instruments
JPWO2003026764A1 (ja) * 2001-09-19 2005-01-06 株式会社エイティング オンラインゲーム方法
US7765484B2 (en) * 2001-09-28 2010-07-27 Aol Inc. Passive personalization of lists
US6758746B1 (en) * 2001-10-26 2004-07-06 Thomas C. Hunter Method for providing customized interactive entertainment over a communications network
US6729884B1 (en) * 2001-11-13 2004-05-04 Metavante Corporation E-Critter game for teaching personal values and financial responsibility to a child
US20050222906A1 (en) * 2002-02-06 2005-10-06 Chen Timothy T System and method of targeted marketing
US20040043806A1 (en) * 2002-02-08 2004-03-04 Keith Kirby Online vehicle collection and play activity
US7012602B2 (en) * 2002-03-14 2006-03-14 Centric Software, Inc. Virtual three-dimensional display for product development
JP3690672B2 (ja) * 2002-05-17 2005-08-31 任天堂株式会社 ゲームシステムおよびゲームプログラム
WO2004023451A1 (en) * 2002-09-09 2004-03-18 Ingeeni Studios, Inc. Artificial intelligence platform
US6890179B2 (en) * 2002-10-08 2005-05-10 Cashflow Technologies, Inc. Interactive games for teaching financial principles
JP2004135051A (ja) * 2002-10-10 2004-04-30 Sony Corp 情報処理システム、サービス提供装置および方法、情報処理装置および方法、記録媒体、並びにプログラム
US20040093266A1 (en) * 2002-11-12 2004-05-13 Dohring Doug Carl Method of mutually enhancing retail sales and user traffic on a web site
EP1563882A4 (en) * 2002-11-20 2006-01-18 Sega Corp GAME IMAGE DISPLAY CONTROL PROGRAM, GAME DEVICE, AND RECORDING MEDIUM
JP3639280B2 (ja) 2003-02-12 2005-04-20 任天堂株式会社 ゲームメッセージ表示方法およびゲームプログラム
US20040221243A1 (en) * 2003-04-30 2004-11-04 Twerdahl Timothy D Radial menu interface for handheld computing device
JP4048150B2 (ja) * 2003-05-12 2008-02-13 任天堂株式会社 ゲーム装置およびゲームプログラム並びにゲームシステム
US7862428B2 (en) * 2003-07-02 2011-01-04 Ganz Interactive action figures for gaming systems
US20050043076A1 (en) * 2003-08-21 2005-02-24 Lin Yuhjen James RPG toys playing process and RPG toy for playing the process
US7677948B2 (en) * 2003-12-31 2010-03-16 Ganz System and method for toy adoption and marketing
US7534157B2 (en) * 2003-12-31 2009-05-19 Ganz System and method for toy adoption and marketing
US7465212B2 (en) * 2003-12-31 2008-12-16 Ganz System and method for toy adoption and marketing
US7600201B2 (en) * 2004-04-07 2009-10-06 Sony Corporation Methods and apparatuses for viewing choices and making selections
US20050250416A1 (en) * 2004-04-23 2005-11-10 Barthold Mark J Toy and card package
US20050250415A1 (en) * 2004-04-23 2005-11-10 Barthold Mark J Toy and card package
CN1950133A (zh) * 2004-05-10 2007-04-18 世嘉股份有限公司 电子游戏装置、其数据处理方法和程序、及记录介质
US7379047B2 (en) * 2004-06-30 2008-05-27 Microsoft Corporation Using a physical object to control an attribute of an interactive display application
US20060048064A1 (en) * 2004-08-31 2006-03-02 Microsoft Corporation Ambient display of data in a user interface
US8353750B2 (en) * 2004-09-23 2013-01-15 Patchen Jeffery Allen Response game systems and method
US7342587B2 (en) * 2004-10-12 2008-03-11 Imvu, Inc. Computer-implemented system and method for home page customization and e-commerce support
US20060160594A1 (en) * 2004-10-15 2006-07-20 Kevin Brase Interactive deduction game
US7556563B2 (en) * 2005-01-10 2009-07-07 Mattel, Inc. Internet enabled multiply interconnectable environmentally interactive character simulation module method and system
US20070130001A1 (en) * 2005-11-18 2007-06-07 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Real-world profile data for making virtual world contacts
US20070112624A1 (en) * 2005-11-15 2007-05-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Use of patron profiles in virtual world environment
US7720687B2 (en) * 2005-10-03 2010-05-18 The Invention Science Fund I, Llc Virtual world property disposition after real-world occurrence
US20070073582A1 (en) * 2005-09-27 2007-03-29 Searete Llc Real-world incentives offered to virtual world participants
US20060224971A1 (en) * 2005-03-31 2006-10-05 Matthew Paulin System and method for online multi-media discovery and promotion
US20060242234A1 (en) * 2005-04-21 2006-10-26 Microsoft Corporation Dynamic group formation for social interaction
US20060271433A1 (en) * 2005-05-03 2006-11-30 Hughes Michael L Method and apparatus for providing a higher level of security and reliability in distributing treats to children
US7396281B2 (en) * 2005-06-24 2008-07-08 Disney Enterprises, Inc. Participant interaction with entertainment in real and virtual environments
US20070021203A1 (en) * 2005-06-28 2007-01-25 Samsung Electronics Co., Ltd. Mobile handset video game system and method
US20070082720A1 (en) * 2005-09-12 2007-04-12 Jonathan Bradbury Methods of playing video games
US7780532B2 (en) * 2005-10-14 2010-08-24 Leviathan Entertainment, Llc Ownership of game environments in a virtual world
US20070111770A1 (en) * 2005-10-14 2007-05-17 Leviathan Entertainment, Llc Financing Options in a Virtual Environment
US8819533B2 (en) * 2005-11-28 2014-08-26 Mattel, Inc. Interactive multimedia diary
WO2007072019A2 (en) * 2005-12-22 2007-06-28 Pkr Limited Improvements relating to on-line gaming
US8109819B2 (en) * 2006-02-21 2012-02-07 Topcoder, Inc. Internet contest
US20070218965A1 (en) * 2006-03-15 2007-09-20 Tilston Christopher I Player deception in a video game
US7803048B2 (en) * 2006-03-15 2010-09-28 Microsoft Corporation Radar manipulation in a video game
US8777619B2 (en) * 2006-05-24 2014-07-15 Raydon Corporation Vehicle crew training system for ground and air vehicles
US9205329B2 (en) * 2006-07-25 2015-12-08 Mga Entertainment, Inc. Virtual world electronic game
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US20080077595A1 (en) * 2006-09-14 2008-03-27 Eric Leebow System and method for facilitating online social networking
US8062089B2 (en) * 2006-10-02 2011-11-22 Mattel, Inc. Electronic playset
JP4671196B2 (ja) * 2006-10-31 2011-04-13 株式会社スクウェア・エニックス ネットワークゲームシステム、ネットワークゲーム用端末装置、ゲーム画面の表示方法、並びにプログラム及び記録媒体
US20080115087A1 (en) * 2006-11-13 2008-05-15 Microsoft Corporation Tracking recent contacts
NZ564006A (en) * 2006-12-06 2009-03-31 2121200 Ontario Inc System and method for product marketing using feature codes
GB0703974D0 (en) * 2007-03-01 2007-04-11 Sony Comp Entertainment Europe Entertainment device
US8458612B2 (en) * 2007-07-29 2013-06-04 Hewlett-Packard Development Company, L.P. Application management framework for web applications
US20090069084A1 (en) * 2007-09-12 2009-03-12 Reece Alex D System and Methods for Monitoring and Controlling the Actions of an Avatar in a Virtual Environment
EP2085128A1 (en) * 2007-10-03 2009-08-05 Sony Computer Entertainment Europe Limited Apparatus and method of on-line abuse avoidance
US8140982B2 (en) * 2007-11-08 2012-03-20 International Business Machines Corporation Method and system for splitting virtual universes into distinct entities
US8127235B2 (en) * 2007-11-30 2012-02-28 International Business Machines Corporation Automatic increasing of capacity of a virtual space in a virtual world
US9545571B2 (en) * 2008-01-25 2017-01-17 Nintendo Co., Ltd. Methods and apparatus for a video game magic system
US8555207B2 (en) * 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
JP5390115B2 (ja) * 2008-03-31 2014-01-15 株式会社バンダイナムコゲームス プログラム、ゲームシステム
US20090253517A1 (en) * 2008-04-04 2009-10-08 Zipzapplay, Inc. Open game engine and marketplace with associated game editing and creation tools
KR101527993B1 (ko) * 2008-04-05 2015-06-10 소우셜 커뮤니케이션즈 컴퍼니 가상 환경과의 인터페이스 방법
US20090303175A1 (en) * 2008-06-05 2009-12-10 Nokia Corporation Haptic user interface
US8365076B2 (en) * 2008-06-10 2013-01-29 International Business Machines Corporation System for concurrently managing multiple avatars
US8407084B2 (en) * 2008-06-13 2013-03-26 Sony Computer Entertainment America Inc. User selectable game information associated with an asset
WO2010013899A2 (ko) * 2008-07-30 2010-02-04 에스케이텔레콤 주식회사 커뮤니케이션 그룹에 대한 통신 기능 제공 방법과 그를 위한 이동통신 단말기 및 프리젠스 서버
US8628422B2 (en) * 2008-10-14 2014-01-14 Wms Gaming Inc. Gaming system having virtual assets and achievements
US20100134484A1 (en) * 2008-12-01 2010-06-03 Microsoft Corporation Three dimensional journaling environment
EP2370944A4 (en) * 2008-12-08 2014-01-08 Sony Online Entertainment Llc ONLINE SIMULATIONS AND NETWORK APPLICATIONS
US8057290B2 (en) * 2008-12-15 2011-11-15 Disney Enterprises, Inc. Dance ring video game
WO2010075634A1 (en) 2008-12-30 2010-07-08 Karen Collins Method and system for visual representation of sound
US9056246B2 (en) * 2009-02-13 2015-06-16 Daybreak Game Company Llc Dynamic reverse engineering
US20100280965A1 (en) * 2009-04-30 2010-11-04 Nokia Corporation Method and apparatus for intuitive management of privacy settings
US8661353B2 (en) * 2009-05-29 2014-02-25 Microsoft Corporation Avatar integrated shared media experience
US8549432B2 (en) * 2009-05-29 2013-10-01 Apple Inc. Radial menus
JP5468326B2 (ja) 2009-07-29 2014-04-09 株式会社カプコン 効果音生成装置及びその効果音生成装置を実現するための効果音生成プログラム
US9043474B2 (en) * 2010-01-20 2015-05-26 Microsoft Technology Licensing, Llc Communication sessions among devices and interfaces with mixed capabilities
US20110183301A1 (en) * 2010-01-27 2011-07-28 L-3 Communications Corporation Method and system for single-pass rendering for off-axis view
US8719730B2 (en) * 2010-04-23 2014-05-06 Ganz Radial user interface and system for a virtual world game
JP2012073088A (ja) * 2010-09-28 2012-04-12 Sony Corp 位置情報提供装置、位置情報提供方法、位置情報提供システム、及びプログラム
NL2006997C2 (en) * 2011-06-24 2013-01-02 Bright Minds Holding B V Method and device for processing sound data.
KR101830656B1 (ko) * 2011-12-02 2018-02-21 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US10030931B1 (en) * 2011-12-14 2018-07-24 Lockheed Martin Corporation Head mounted display-based training tool
JP6065370B2 (ja) * 2012-02-03 2017-01-25 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2013117806A2 (en) * 2012-02-07 2013-08-15 Nokia Corporation Visual spatial audio
WO2013188690A2 (en) * 2012-06-15 2013-12-19 Michael Wang Projector based display systems and methods
US9671874B2 (en) * 2012-11-08 2017-06-06 Cuesta Technology Holdings, Llc Systems and methods for extensions to alternative control of touch-based devices
US9542958B2 (en) * 2012-12-18 2017-01-10 Seiko Epson Corporation Display device, head-mount type display device, method of controlling display device, and method of controlling head-mount type display device
CN105073073B (zh) * 2013-01-25 2018-12-07 胡海 用于声音可视化及声源定位的设备与方法
WO2014146072A1 (en) * 2013-03-15 2014-09-18 Meadows James W Apparatus and method for simulated gameplay based on a geospatial position
KR102127640B1 (ko) * 2013-03-28 2020-06-30 삼성전자주식회사 휴대 단말 및 보청기와 휴대 단말에서 음원의 위치를 제공하는 방법
JP6249202B2 (ja) * 2013-05-10 2017-12-20 ソニー株式会社 画像表示装置、画像表示方法、およびプログラム
US10394414B1 (en) * 2013-07-19 2019-08-27 Kabam, Inc. Facilitating automatic execution of user interactions in a virtual space
US9684369B2 (en) * 2014-04-08 2017-06-20 Eon Reality, Inc. Interactive virtual reality systems and methods
USD822036S1 (en) * 2014-04-16 2018-07-03 Regents Of The University Of Minnesota Display screen or portion thereof with graphical user interface
JP6663634B2 (ja) 2014-05-29 2020-03-13 フリュー株式会社 ビデオゲーム装置、ビデオゲームの制御方法、ビデオゲーム制御プログラム、および記録媒体
KR20160026317A (ko) * 2014-08-29 2016-03-09 삼성전자주식회사 음성 녹음 방법 및 장치
CN113628500A (zh) * 2014-09-30 2021-11-09 深圳市大疆创新科技有限公司 用于支持模拟移动的系统和方法
EP3007029B1 (en) * 2014-10-07 2017-12-27 LG Electronics Inc. Mobile terminal and wearable device
JP2016208348A (ja) * 2015-04-24 2016-12-08 セイコーエプソン株式会社 表示装置、表示装置の制御方法、及び、プログラム
WO2016185740A1 (ja) * 2015-05-18 2016-11-24 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
CN104898953B (zh) * 2015-06-16 2016-10-26 深圳市腾讯计算机系统有限公司 基于触控屏的操控方法和装置
US11278807B2 (en) * 2016-06-13 2022-03-22 Sony Interactive Entertainment LLC Game play companion application
US11045737B2 (en) * 2016-06-13 2021-06-29 Sony Interactive Entertainment LLC In-game location based game play companion application
JP6518213B2 (ja) 2016-06-17 2019-05-22 株式会社カプコン ゲームプログラム及びゲームシステム
SG10201606458WA (en) * 2016-08-04 2018-03-28 Creative Tech Ltd A companion display module to a main display screen for displaying auxiliary information not displayed by the main display screen and a processing method therefor
EP3297298B1 (en) * 2016-09-19 2020-05-06 A-Volute Method for reproducing spatially distributed sounds
JP6534376B2 (ja) * 2016-10-19 2019-06-26 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
CN107890673A (zh) * 2017-09-30 2018-04-10 网易(杭州)网络有限公司 补偿声音信息的视觉显示方法及装置、存储介质、设备
CN107899235B (zh) * 2017-10-13 2019-05-17 网易(杭州)网络有限公司 信息处理方法及装置、存储介质、电子设备
CN108014495A (zh) * 2017-11-23 2018-05-11 网易(杭州)网络有限公司 视觉补偿声音信息的方法、存储介质及电子设备
CN107992252B (zh) * 2017-11-28 2020-12-22 网易(杭州)网络有限公司 信息提示方法、装置、电子设备及存储介质
CN108854069B (zh) * 2018-05-29 2020-02-07 腾讯科技(深圳)有限公司 音源确定方法和装置、存储介质及电子装置
CN108744516B (zh) * 2018-05-29 2020-09-29 腾讯科技(深圳)有限公司 获取定位信息的方法和装置、存储介质及电子装置
US11195543B2 (en) * 2019-03-22 2021-12-07 Clear Peaks LLC Systems, devices, and methods for synchronizing audio
US11291911B2 (en) * 2019-11-15 2022-04-05 Microsoft Technology Licensing, Llc Visualization of sound data extending functionality of applications/services including gaming applications/services

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012055490A (ja) * 2010-09-08 2012-03-22 Copcom Co Ltd ゲームプログラム及びゲーム装置
JP2017055935A (ja) * 2015-09-16 2017-03-23 株式会社カプコン ゲームプログラムおよびゲームシステム
JP2019042509A (ja) * 2017-08-30 2019-03-22 ネットイーズ (ハンチョウ) ネットワーク カンパニー リミテッド 音声情報を補償するビジュアル方法及び装置、プログラム、記憶媒体、電子機器
CN107992281A (zh) * 2017-10-27 2018-05-04 网易(杭州)网络有限公司 补偿声音信息的视觉显示方法及装置、存储介质、设备

Also Published As

Publication number Publication date
US11536796B2 (en) 2022-12-27
JP2023011794A (ja) 2023-01-24
US11971494B2 (en) 2024-04-30
KR102473628B1 (ko) 2022-12-05
CN108854069B (zh) 2020-02-07
KR20200127213A (ko) 2020-11-10
US20230091660A1 (en) 2023-03-23
JP7170742B2 (ja) 2022-11-14
CN108854069A (zh) 2018-11-23
US20200348387A1 (en) 2020-11-05
WO2019228061A1 (zh) 2019-12-05

Similar Documents

Publication Publication Date Title
JP7170742B2 (ja) 音源決定方法並びにその装置、コンピュータプログラム、及び電子装置
US11241625B2 (en) Positioning information prompting method and apparatus, storage medium, and electronic device
US10765947B2 (en) Visual display method for compensating sound information, computer readable storage medium and electronic device
CN109597481B (zh) Ar虚拟人物绘制方法、装置、移动终端及存储介质
JP2019042509A (ja) 音声情報を補償するビジュアル方法及び装置、プログラム、記憶媒体、電子機器
CN108259990A (zh) 一种视频剪辑的方法及装置
CN110210605B (zh) 硬件算子匹配方法及相关产品
CN109937393B (zh) 支持增强现实软件应用
CN106504311A (zh) 一种动态流体效果的渲染方法和装置
CN116310745B (zh) 图像处理方法、数据处理方法、相关装置及存储介质
CN108549486A (zh) 虚拟场景中实现解说的方法及装置
JP2024509064A (ja) 位置マークの表示方法及び装置、機器並びにコンピュータプログラム
US20160134719A1 (en) Methods and systems for displaying graphic representations in a user interface
CN106325648A (zh) 图标的设置方法及移动终端
CN110882540B (zh) 音源定位方法和装置、存储介质及电子装置
CN109471541A (zh) 基于虚拟画面的空中鼠标追踪方法、系统及存储介质
WO2024051402A1 (zh) 方位提示信息的显示方法和装置、存储介质及电子设备
CN113918014A (zh) 虚拟物体控制方法、装置、设备及存储介质
CN117853859A (zh) 图像处理方法、相关装置及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201021

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200923

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221101

R150 Certificate of patent or registration of utility model

Ref document number: 7170742

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150