JPWO2020218094A1 - 情報処理システム、情報処理装置、情報処理装置の制御方法、及びプログラム - Google Patents

情報処理システム、情報処理装置、情報処理装置の制御方法、及びプログラム Download PDF

Info

Publication number
JPWO2020218094A1
JPWO2020218094A1 JP2021516024A JP2021516024A JPWO2020218094A1 JP WO2020218094 A1 JPWO2020218094 A1 JP WO2020218094A1 JP 2021516024 A JP2021516024 A JP 2021516024A JP 2021516024 A JP2021516024 A JP 2021516024A JP WO2020218094 A1 JPWO2020218094 A1 JP WO2020218094A1
Authority
JP
Japan
Prior art keywords
information processing
user
processing device
audio signal
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021516024A
Other languages
English (en)
Other versions
JP7170851B2 (ja
Inventor
徹 小木曽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2020218094A1 publication Critical patent/JPWO2020218094A1/ja
Application granted granted Critical
Publication of JP7170851B2 publication Critical patent/JP7170851B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/87Communicating with other players during game play, e.g. by e-mail or chat
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

ユーザが装着、あるいは把持して用いる周辺装置に接続される情報処理装置であって、上記周辺装置の少なくとも一つは、周囲の音声を集音し、当該集音した音声を表す音声信号を出力するデバイスを備え、情報処理装置が、当該ユーザが装着あるいは把持する周辺装置が出力する音声信号を受け入れ、受け入れた音声信号のうち、所定の規則に基づいて少なくとも一部の音声信号を選択し、当該選択した音声信号を出力し、その他の音声信号を遮断する情報処理装置である。

Description

本発明は、情報処理システム、情報処理装置、情報処理装置の制御方法、及びプログラムに関する。
音声による制御やチャットの処理のため、近年では家庭用ゲーム機やパーソナルコンピュータ等の情報処理装置に対し、音声入力可能な周辺装置が複数接続される場合がある。
しかしながら、このように複数の音声入力デバイスが存在する現場において、ユーザが発声した音声等を処理すると、各音声入力デバイスが同じ音を集音するタイミングのずれや各音声入力デバイスの特性の相違から、意図しない音声となってしまう場合がある。
例えばネットワークを介して行われるゲームに参加する複数のプレイヤのうち、一部の数人のプレイヤが一箇所に集まっている場合、各プレイヤ間でチャットを行おうとするときには、次のような問題が生じる。
すなわち、集まっているプレイヤの一人が発声した音声は、当該発声したプレイヤの音声入力デバイス(例えばマイク)により集音されるだけでなく、隣接してプレイしている別のプレイヤの音声入力デバイスにも集音されてしまう場合がある。この場合、各プレイヤの音声を単にミキシング処理したのでは、音声がこもってしまったり、エコーが生じるなどして、聞き取りにくい音となってしまう。
本発明は上記実情に鑑みて為されたもので、上述のような事情に考慮した複数の音声入力デバイスの制御を実現できる情報処理システム、情報処理装置、情報処理装置の制御方法、及びプログラムを提供することを、その目的の一つとする。
上記従来例の問題点を解決する本発明の一態様は、ユーザが装着、あるいは把持して用いる周辺装置と、情報処理装置とを含む情報処理システムであって、前記周辺装置の少なくとも一つは、周囲の音声を集音し、当該集音した音声を表す音声信号を出力する音声入力手段を備え、前記情報処理装置は、ユーザが装着あるいは把持する前記少なくとも一つの周辺装置が出力する音声信号を受け入れる手段と、前記受け入れた音声信号のうち、所定の規則に基づいて少なくとも一部の音声信号を選択する選択手段と、前記選択手段が選択した音声信号を出力し、その他の音声信号を遮断する手段と、を含むこととしたものである。
本発明によると、音声がこもったり、エコーが生じたりして、聞き取りにくい音となってしまうことを防止して、複数の音声入力周辺装置の制御を実現できる。
本発明の実施の形態に係る情報処理システムの構成例を表すブロック図である。 本発明の実施の形態に係る情報処理装置の音声入力制御部の構成例を表すブロック図である。 本発明の実施の形態に係る情報処理装置の制御部の例を表す機能ブロック図である。 本発明の実施の形態に係る情報処理システムの動作の例を表す説明図である。
本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る情報処理システム1は、図1に例示するように、家庭用ゲーム機やPC等の情報処理装置10と、コントローラ20とを含んで構成される。ここでコントローラ20は複数あってもよい。またこの情報処理システム1には、チャットコントローラ30や、ヘッドセット40、あるいはヘッドマウントディスプレイ50等、それぞれが音声入力デバイスを備えた複数の周辺装置がさらに含まれ、情報処理装置10に接続されていてもよい。
情報処理装置10は、図1に例示したように、制御部11と、記憶部12と、操作制御部13と、出力制御部14と、音声入力制御部15と、通信部16とを含んで構成される。またコントローラ20は、操作部21と、マイク22と、通信部23と、表示部24と、音声出力部25とを含む。さらにチャットコントローラ30は、操作部31と、マイク32と、通信部33と、表示部34とを含んでなる。
情報処理装置10の制御部11は、CPU等のプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。本実施の形態では、この制御部11は、複数のアプリケーションプログラムを並列的に実行(いわゆるマルチタスキング処理を)しているものとする。
具体的に情報処理装置10が家庭用ゲーム機である場合、制御部11は、ゲームのアプリケーションや、ネットワークを介して音声信号を授受するチャットアプリケーション等種々のアプリケーションプログラムを実行している。またこの制御部11は、システムプログラムを実行しており、このシステムプログラムの処理として、コントローラ20やヘッドセット40等、装置ごとに、当該装置を利用するユーザを認証する処理を実行して、コントローラ20等、各装置を特定する情報ごとに、ユーザを特定する情報(例えばユーザ名)を関連付けて記憶する。
そして制御部11は、操作制御部13からコントローラ20を特定する情報とともに操作情報の入力を受けると、実行中のアプリケーションのうちから操作情報の出力先となるアプリケーションを選択する。例えばゲームアプリケーションが起動しているときには、原則としてゲームアプリケーションを選択し、所定の操作情報については例外的にシステムで処理する、などとしてここでの出力先の選択の条件を予め定めておき、当該条件に従って選択すればよい。
制御部11は、操作情報の出力先のアプリケーションやシステムの処理として、操作制御部13から入力された、コントローラ20を特定する情報と操作情報とを用いた処理を実行する。またこの制御部11は、複数の装置から受信した音声情報の各々をミキシングする際の、各音声信号のミキシングの音量を決定する。これらの制御部11の動作については後に述べる。
記憶部12は、メモリデバイスやハードディスクドライブ等であり、制御部11によって実行されるプログラムを保持する。またこの記憶部12は制御部11のワークメモリとしても動作する。
操作制御部13は、コントローラ20との間で無線または有線にて通信可能に接続され、コントローラ20からコントローラ20にてユーザが行った操作の内容を表す操作情報を受信して、当該操作情報の受信元であるコントローラ20を特定する情報とともに制御部11に出力する。
さらに本実施の形態では、この操作制御部13は、制御部11から入力される指示に従い、表示制御信号等を、指示されたコントローラ20に対して送出する。
出力制御部14は、家庭用テレビや、モニタ、ヘッドマウントディスプレイ50等の表示デバイスに接続され、制御部11から入力される指示に従って、音声や映像等の信号をこれらの表示デバイスに出力する。またこの出力制御部14は、映像と音声信号とを異なる装置に対して出力してもよい。例えば映像についてはモニタに出力し、音声信号についてはコントローラ20やヘッドセット40に出力するようにしてもよい。
音声入力制御部15は、コントローラ20やチャットコントローラ30、ヘッドセット40、ヘッドマウントディスプレイ50等、音声入力デバイスを備えた周辺装置から音声信号を受信する。またこの音声入力制御部15は、図2に例示するように、ミキサ部151と、ミュート部152と、スイッチ部153と、出力部154とを含んで構成され、受信した音声信号のうち、予め定められた装置(例えばチャットコントローラ30)以外の装置から入力された音声信号をミキサ部151にて合成する。
具体的に、このミキサ部151は、コントローラ20やヘッドセット40、ヘッドマウントディスプレイ50等の各装置から受信した音声信号ごとに音量を定めて、当該定めた音量で各装置から受信した音声信号を合成する。本実施の形態のある例では、このミキサ部151は、制御部11から入力される指示に従って、各装置から受信した音声信号の音量を定める。
また、例えば制御部11が、ヘッドセット40からの音声信号の音量を「255」、その他の音量を「0」とした場合は、このミキサ部151は選択手段としても機能する。この例ではミキサ部151は、ヘッドセット40のみからの音声信号を選択的に出力することとなる。そしてこの場合、ヘッドセット40以外のコントローラ20やヘッドマウントディスプレイ50等から受信した音声信号があっても、ミキサ部151の出力には含められない。
さらに本実施の形態の一例では、この情報処理装置10には複数のコントローラ20が接続されることがあり得る。この場合も、ミキサ部151は、制御部11から入力される指示に従って各コントローラ20から受信した音声信号の音量を定める。例えばユーザAが利用するコントローラ20aから受信した音声信号の音量を「255」、その他のユーザB,Cが利用するコントローラ20b,cから受信した音声信号の音量を「0」とする指示が制御部11から入力された場合、ミキサ部151は、コントローラ20aから受信した音声信号を選択的に出力することとなる。
ミュート部152は、ミキサ部151が出力する音声信号について、そのまま出力するか、あるいは出力しない(ミュートする)かを、制御部11から入力される指示に従って切り替える。このミュート部152は、制御部11がミュートしない旨の指示を出力しているときには、ミキサ部151が出力する音声信号をそのまま出力する。またこのミュート部152は、制御部11がミュートする旨の指示を出力しているときには、ミキサ部151が出力する音声信号をスイッチ部153に出力せず破棄する(ミュートする)。
スイッチ部153は、情報処理装置10が受信した音声信号のうち、ミキサ部151に入力されていない装置からの音声信号(以下、割り込み音声信号と呼ぶ。ここでの例ではチャットコントローラ30から受信した音声信号)からの入力を受け入れる。またこのスイッチ部153は、ミュート部152が音声信号を出力するときには、当該音声信号の入力を受け入れる。スイッチ部153は、ミュート部152から受け入れた音声信号(あれば)と、割り込み音声信号(あれば)とのいずれかを、制御部11から入力される指示に従って選択して出力する。
出力部154は、スイッチ部153が出力する音声信号を、制御部11に出力する。このように本実施の形態の一例に係る音声入力制御部15は、音声入力デバイスを備えた各周辺装置から音声信号を受信し、ミキシングし、あるいはいずれかを選択して出力し、制御部11の処理に供する。
通信部16は、ネットワークインタフェース等であり、制御部11から入力される指示に従い、ネットワークを介して種々の情報を送信する。またこの通信部16はネットワークを介して受信した情報を制御部11に出力している。
コントローラ20の操作部21は、ボタンやジョイスティック等を含み、ユーザの操作を受け入れて、当該ユーザが行った操作の内容を表す操作情報を、通信部23に出力する。またマイク22は、周囲の音声を集音し、当該集音した音声を表すディジタルの音声信号を出力している。
通信部23は、例えばブルートゥース(登録商標)等の無線通信手段であり、操作部21にてユーザが行った操作の内容を表す情報(操作情報)を情報処理装置10に送出する。またこの通信部23は、マイク22が出力する音声信号を、情報処理装置10に出力する。またこの通信部23は、情報処理装置10が出力する表示制御信号を表示部24に出力する。さらにこの通信部23は、情報処理装置10から音声信号を受信すると、当該受信した音声信号を音声出力部25に出力する。
表示部24は、例えばLED等を含む。この表示部24は、通信部23から表示制御信号の入力を受けて、LEDを点灯ないし消灯する。音声出力部25は、スピーカー等の振動子を備えたデバイスであり、情報処理装置10から受信した音声信号に基づいて音声を鳴動する。
さらにチャットコントローラ30は、ユーザが音声入力を指示している間だけ音声の入力を受け入れて出力する、いわゆるプッシュ・トゥー・トーク装置(PTT装置)であり、その操作部31は、例えばボタンを含む。またマイク32は、周囲の音声を集音して音声信号に変換して出力している。
通信部33は、例えばブルートゥース(登録商標)等の無線通信手段であり、ユーザが操作部31のボタンを押下している間に、マイク32が出力する音声信号を、情報処理装置10に出力する。またこの通信部33は、ユーザが操作部31のボタンを押下していないときには、マイク32が出力する音声信号を、情報処理装置10に出力することなく破棄する。さらにこの通信部33は、情報処理装置10が出力する表示制御信号を表示部34に出力する。
表示部34は、例えばLED等を含む。この表示部34は、通信部33から表示制御信号の入力を受けて、LEDを点灯ないし消灯する。このチャットコントローラ30の動作についても後に述べる。
ヘッドセット40は、例えばヘッドフォンやマイク等を備える。このヘッドセット40は、情報処理装置10が出力する音声信号に基づいてスピーカーを鳴動する。またこのヘッドセット40は、マイクにて集音した音声信号を、情報処理装置10に対して送出する。
ヘッドマウントディスプレイ50は、ディスプレイとスピーカーとマイクとを含んで構成される。このヘッドマウントディスプレイ50は、情報処理装置10が出力する映像信号や音声信号を受け入れて、ディスプレイに映像を表示し、また、スピーカーを鳴動させる。またこのヘッドマウントディスプレイ50は、マイクにて集音した音声信号を、情報処理装置10に対して送出する。
ここで情報処理装置10の制御部11の動作について説明する。本実施の形態では、この制御部11は、システムの処理として図3に例示するように、機能的に、音声入力処理部111と、ミュート処理部112と、割り込み処理部113と、表示処理部114とを含む。
なお、本実施の形態の以下の例では、制御部11は、情報処理装置10に接続された、音声入力デバイスを備えた装置のうちの一つを、割り込み装置として定めておくものとする。
音声入力処理部111は、音声入力デバイスを備えた装置(割り込み装置を定める場合、割り込み装置を除くこととする)を対象装置として、次の処理を行う。音声入力処理部111は、所定の規則に従って、情報処理装置10に接続されている、対象装置ごとのミキシングの音量を定める。この所定の規則は、例えば次のようなものとすることができる。すなわち、制御部11は、予め対象装置ごとに優先順位を定めておき、接続された装置のうち、優先順位の最も高い対象装置から受信する音声信号のミキシングの音量を予め定められた0より大きい値(0を含まない)とする。この値は例えば最大値、あるいは、対象装置ごとに、対象装置の種類に応じて異なった値が設定されてもよい、以下、この0より大きい値を出力値と呼ぶ。また、接続された装置のうち、優先順位の最も高い対象装置以外の対象装置から受信する音声信号のミキシングの音量を最低値とする。この最低値は、例えば音量「0」を表す値とすればよい。この最低値を、以下では遮断値と呼ぶ。
なお、ここでの規則や音量の設定の例は一例であり、他にも種々の方法があり得る。例えば制御部11は、ユーザが選択した対象装置について、当該対象装置から受信する音声信号のミキシングの音量を予め定められた出力値、それ以外の対象装置から受信する音声信号のミキシングの音量を遮断値としてもよい。
また複数のユーザが情報処理装置10を利用している場合を考慮して、ここでの規則は、次のようなものであってもよい。すなわち、
(1)原則としてユーザごとに一つの対象装置を選択する。
(2)ユーザごとに選択した対象装置が当該ユーザの音声以外を集音しにくい音声入力デバイスを備えるものとして予め定められた対象装置である場合は、当該対象装置のミキシングの音量を出力値とする。
(3)ユーザごとに選択した対象装置が、当該ユーザの音声以外を集音しにくい音声入力デバイスを備えるものとして予め定められた対象装置でない(ここでは便宜的に広集音装置と呼ぶ)場合、選択された対象装置が広集音装置であるユーザについては、いずれかのユーザを一人選び、当該選ばれたユーザについて選択した対象装置のミキシングの音量を出力値とする。
(4)(2),(3)でミキシングの音量を出力値としていない対象装置についてのミキシングの音量を遮断値とする。
この例によると、マイクの指向性が比較的強いヘッドセット40等を音声入力デバイスとして利用しているユーザについては、当該ヘッドセット40が集音した音声信号がアプリケーションとしての処理で利用可能となるとともに、マイクの指向性が比較的弱い、広集音装置であるコントローラ20等を音声入力デバイスとして利用しているユーザについては、コントローラ20を音声入力デバイスとするユーザのうち一人のユーザが操作するコントローラ20が集音した音声信号のみが、アプリケーションとしての処理で利用されるようになる。
なお、いずれの場合も、広集音装置を利用しているユーザがコントローラ20を操作して、音声信号の入力を要求したときには、当該ユーザのコントローラ20等の広集音装置のミキシング音量を出力値とし、その他の広集音装置のミキシング音量を遮断値とする。
ミュート処理部112は、ユーザが操作するコントローラ20から受信した操作情報として、ミュートをするべき旨の操作情報を受け入れたときに、音声入力制御部15に対してミュートの指示を出力する。
割り込み処理部113は、予め定めた割り込み装置から入力される指示(例えば選択を要求する指示)に従い、当該割り込み装置から受信される音声信号を選択する指示を、音声入力制御部15に出力してもよい。また割り込み装置から、選択を解除するべき旨の指示が受信されると、制御部11は、この割り込み装置以外の装置から受信した音声信号を選択するべき旨の指示を、音声入力制御部15に出力する。
表示処理部114は、音声信号の入力の状態を示すために、音声入力処理部111、ミュート処理部112、及び割り込み処理部113が出力する指示に応じて、各装置に対する表示制御信号を出力する。この表示制御信号の具体的な例については後に述べる。
[動作例]
本実施の形態の情報処理システム1は以上のような構成を基本的に備えており、次のように動作する。以下では、1つの情報処理装置10をユーザA,B,Cの3人が共用してゲームを行う例(図4(a))について説明する。
このとき、各ユーザA,B,Cはそれぞれのコントローラ20a,b,cを持って操作するものとする。すなわち、情報処理装置10は当初、各コントローラ20を操作するユーザを認証し、各コントローラを特定する情報に関連付けて、認証したユーザを特定する情報を記録する。またこの情報処理装置10には、割り込み装置としてのチャットコントローラ30が接続されているものとする。
このとき情報処理装置10は、予め定めた規則として、次の規則に従うものとする:
(1)原則としてユーザごとに一つの対象装置を選択する。
(2)ユーザごとに選択した対象装置が当該ユーザの音声以外を集音しにくい音声入力デバイスを備えるものとして予め定められた対象装置である場合は、当該対象装置のミキシングの音量を出力値(図4では「255」)とする。
(3)ユーザごとに選択した対象装置が当該ユーザの音声以外を集音しにくい音声入力デバイスを備えるものとして予め定められた対象装置でない(ここでは便宜的に広集音装置と呼ぶ)場合、選択された対象装置が広集音装置であるユーザについては、いずれかのユーザを一人選び、当該選ばれたユーザについて選択した対象装置のミキシングの音量を出力値とする。
(4)(2),(3)でミキシングの音量を出力値としていない対象装置についてのミキシングの音量を遮断値とする。
そして情報処理装置10は、この規則に従い、当該情報処理装置10に接続されているコントローラ20a,b,cを対象装置として、これら対象装置ごとのミキシングの音量を定める。ここではコントローラ20は広集音装置であるものとする。この例では、情報処理装置10は、上記所定の規則に基づき、例えば最初に接続されたコントローラ20(ユーザAのコントローラ20aとする)のミキシングの音量を出力値、それ以外の対象装置から受信する音声信号のミキシングの音量を遮断値とする。
このため、情報処理装置10では、ユーザAが使用しているコントローラ20aが集音して情報処理装置10へ送出した音声信号がアプリケーションの処理に供されることとなる。
例えばアプリケーションがチャットアプリケーションであれば、情報処理装置10は、コントローラ20aが集音して情報処理装置10へ送出した音声信号を、チャットの相手先へ送出することとなる。また相手先から受信した音声信号は、所定の方法で定めた出力先(例えばここでは各コントローラ20a,b,c)に出力する。
このときコントローラ20b,cの送出した音声信号は情報処理装置10の音声入力制御部15の動作により破棄される。これにより、各コントローラ20a,b,cで集音された音が混合され、音声がこもってしまったり、エコーが生じてしまうことが回避される。
またここでユーザCが、ヘッドセット40を装着し、ヘッドセット40のユーザとして情報処理装置10の認証を受けると(図4(b))、情報処理装置10は、新たな装置の認証を行ったことを契機として、再度、上記規則に従って、情報処理装置10に接続されているコントローラ20a,b,c、及びユーザCの利用するヘッドセット40を対象装置として、これら対象装置ごとのミキシングの音量を定める。
ここでヘッドセット40は広集音装置でないものとすると、ここでは情報処理装置10は、上記所定の規則に基づき、まずユーザCについてはヘッドセット40のミキシングの音量を出力値とする。また、他のユーザA,Bについては、例えば最初に接続されたコントローラ20(ユーザAのコントローラ20aとする)のミキシングの音量を出力値、それ以外の対象装置(ユーザBのコントローラ20b)から受信する音声信号のミキシングの音量を遮断値とする。
このときには、ユーザCの発声した声はヘッドセット40によって集音される。そしてユーザAが使用しているコントローラ20aが集音して情報処理装置10へ送出した音声信号と、このヘッドセット40が送出した音声信号とミキシングされて、アプリケーションの処理に供されることとなる。
このときコントローラ20b,cの送出した音声信号は情報処理装置10の音声入力制御部15の動作により破棄される。これにより、各コントローラ20a,b,cで集音された音が混合され、音声がこもってしまったり、エコーが生じてしまうことが回避される。なお、ヘッドセット40は比較的指向性が強いため、ヘッドセット40が出力する音声信号に含まれるユーザAの音声は十分小さいものとなる。このため、ヘッドセット40が集音して得た音声信号がコントローラ20aが送出した音声信号とミキシングされても音声がこもってしまったり、エコーが生じてしまうことはない。
さらにここでユーザBがコントローラ20bを操作して、音声信号の入力を要求する操作を行うと、当該操作の内容を表す情報が情報処理装置10に伝達される。情報処理装置10では、当該要求を受けて、ユーザCについてはヘッドセット40のミキシングの音量を出力値のままとし、ここで音声信号の入力を要求したコントローラ20bのミキシングの音量を出力値、それ以外の対象装置(ユーザAのコントローラ20a)から受信する音声信号のミキシングの音量を遮断値とする。
このとき、コントローラ20a,cの送出した音声信号は情報処理装置10の音声入力制御部15の動作により破棄される。これにより、各コントローラ20a,b,cで集音された音が混合され、音声がこもってしまったり、エコーが生じてしまうことが回避される。
またこのチャットアプリケーションの処理を行う情報処理装置10は、チャットの相手先から受信した音声信号を、各コントローラ20に出力して、各コントローラ20にて音声を鳴動させる。
[ミュート]
また本実施の形態の一例では、いずれかのユーザがコントローラ20を操作してミュートの指示を行うと、音声入力デバイスを備える各装置(割り込み装置を除く)からの音声信号がミュートされる。つまり本実施の形態の一例では、いずれかのコントローラ20等からミュートの指示が行われると、すべての音声入力が遮断される。
具体的にユーザA,B,Cのいずれかのユーザが自己の操作するコントローラ20を操作してミュートの指示を行うと、当該ミュートの操作が行われたことを表す操作情報が情報処理装置10に送出される。
情報処理装置10では、コントローラ20からミュートをするべき旨の操作情報を受け入れて、音声入力制御部15に対してミュートの指示を出力する。このときには、音声入力制御部15のミキサ部151がどのような音量の設定で、各装置が送出する音声信号をミキシングしていたとしても、ミュート部152が、ミキサ部151が出力する音声信号を出力しない(ミュートする)よう制御する。
これにより、ユーザの一つの操作によって、全体的にミュートが行われることとなり、装置ごとにミュートを設定する手間がなく、ミュートの操作性が向上する。
またミュートの指示の内容によっては(例えばミュートを指示するためのボタンを長押しするなどした場合は)、制御部11は、出力制御部14の処理として、音声信号を出力しないよう制御してもよい(全ミュート)。このようにすると、テレビやヘッドセット、コントローラ20からの音声出力も停止される。
[音声入力デバイスを備える周辺装置側でのミュート]
またここで、コントローラ20等、音声入力デバイスを備える周辺装置側で音声信号の送出をするか否かを制御可能な場合は、情報処理装置10は、いずれかのユーザがコントローラ20を操作してミュートの指示を行ったときには、このような装置に対して、音声信号の送出を停止するよう指示してもよい。
[出力モード]
さらに本実施の形態では音声入力制御部15から音声信号の入力を受けた制御部11は、通常は当該入力された音声信号を、制御部11にて実行中の任意のアプリケーションで利用可能なように制御する。以下では、この制御を行う制御部11の動作モードを、便宜的に共有モードと呼ぶ。しかしながら本実施の形態のある例では、入力された音声信号を、特定のアプリケーションにのみ利用させることが好適な場合もある。
具体的には、割り込み装置(ここでの例ではチャットコントローラ30)からの音声信号については特定のアプリケーションにのみ利用させることとしてもよい。
また、アプリケーションが音声入力を求めているのに、ミュートされた状態にあると、音声入力ができないので、アプリケーション側からの要求により一時的にミュートを解除可能な状態としたときには、当該一時的にミュートを解除した状態で入力される音声信号については、専ら当該要求したアプリケーションに対して音声信号を出力すべきである。
そこで制御部11は、一つのアプリケーションの処理において、音声入力の必要が生じると、音声入力が要求されている旨の表示をモニタ等に出力し、また、このアプリケーションを特定する情報(アプリケーション名でよい)を一時的に保持する。
ここでユーザがコントローラ20にて所定のアンミュートの操作を行うと、制御部11は当該操作が為されたことを検出して、音声入力制御部15のミキサ部151に対して、当該操作が行われたコントローラ20のミキシング音量を最大とする(他のコントローラ20等についてはミキシング音量を遮断値とする)。なお、複数のコントローラ20にてアンミュートの操作が行われたときには、最も早くアンミュートの操作が行われたコントローラ20についてのみミキシング音量を最大としてもよい。
そして制御部11は、次にユーザがコントローラ20にてミュートの操作を行うまでの間、あるいは所定の時間が経過するまでの間にコントローラ20から受信した音声信号を、先に一時的に保持した情報で特定されるアプリケーションの処理に供する(一時アンミュート)。この音声信号については、当該情報で特定されるアプリケーション以外の、他のアプリケーションに対しては利用不能に設定する。この設定を行ったときの制御部11の動作モードを、便宜的に排他モードと呼ぶ。
このような排他モードの制御については、入力される情報を特定のアプリケーションのみの処理に供するための広く知られたオペレーティングシステムの動作と同様であるので、ここでの詳しい説明は省略する。
[ミュート状態等の表示]
次に、表示処理部114による表示制御信号の例について説明する。本実施の形態の一例では、制御部11は、
(1)ミュートしていない状態では表示部24のLEDを消灯させる表示制御信号、
(2)ミュートしている状態では表示部24のLEDを点灯させる表示制御信号、
(3)全ミュートの場合は、表示部24のLEDを点滅させる表示制御信号、
をそれぞれの場合に出力する。
これによると、ミュートの状態にあるか否かを表す表示制御信号が情報処理装置10から出力され、コントローラ20等が当該表示制御信号に応じて表示部24の表示を変化させて(消灯、点灯、点滅などと変化させることによって)、ミュートの状態にあるか否かを明示するので、ユーザは音声入力が可能な状態にあるか否かがわかりやすい。
さらに本実施の形態では、制御部11は、
(4)ミキシング音量を遮断値としているデバイスに対しては、表示部24のLEDを全ミュートの場合とは区別可能な態様で点滅させる表示制御信号を出力してもよい。
ここで区別可能な態様としては、点滅の周期を、全ミュートの場合に比べて長くするなどといったものでよい。これによると、他者が音声入力を行っている場合など、自分が所持するコントローラ20を介して音声入力ができない場合を明示できる。
またここでは表示部24のLEDを制御するものとしたが、表示部24を例えば液晶表示部として、液晶表示部のバックライトの色や、表示内容を変更することでユーザに状態を通知することとしてもよい。
1 情報処理システム、10 情報処理装置、11 制御部、12 記憶部、13 操作制御部、14 出力制御部、15 音声入力制御部、16 通信部、20 コントローラ、21 操作部、22 マイク、23 通信部、24 表示部、25 音声出力部、30 チャットコントローラ、31 操作部、32 マイク、33 通信部、34 表示部、40 ヘッドセット、50 ヘッドマウントディスプレイ、111 音声入力処理部、112 ミュート処理部、113 割り込み処理部、114 表示処理部、151 ミキサ部、152 ミュート部、153 スイッチ部、154 出力部。

Claims (7)

  1. ユーザが装着、あるいは把持して用いられ、それぞれが周囲の音声を集音し、当該集音した音声を表す音声信号を出力する音声入力手段を備える複数の周辺装置に接続される情報処理装置であって、
    前記情報処理装置は、ユーザが装着あるいは把持する前記少なくとも一つの周辺装置が出力する音声信号を受け入れる手段と、
    前記受け入れた音声信号のうち、所定の規則に基づいて少なくとも一部の音声信号を選択する選択手段と、
    前記選択手段が選択した音声信号を出力し、その他の音声信号を遮断する手段と、
    を有する情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記選択手段は、
    ユーザの使用する周辺装置が、当該ユーザ以外の音声を集音しにくい周辺装置として予め定められた周辺装置であるときには、当該周辺装置を選択し、
    当該ユーザ以外の音声を集音しにくい周辺装置として予め定められた周辺装置でないユーザが使用する周辺装置については、当該周辺装置のうち一つを選択する
    情報処理装置。
  3. 請求項1または2に記載の情報処理装置であって、
    さらに、前記周辺装置のうち、出力する音声信号が遮断される周辺装置に対し、当該周辺装置を介した音声入力ができない状態にあることを表す表示を行うよう、表示制御信号を出力する情報処理装置。
  4. 請求項1から3のいずれか一項に記載の情報処理装置であって、
    前記出力された、前記選択手段により選択された音声信号が、チャットアプリケーションの処理に供される情報処理装置。
  5. ユーザが装着、あるいは把持して用いる周辺装置と、情報処理装置とを含む情報処理システムであって、
    前記周辺装置の少なくとも一つは、周囲の音声を集音し、当該集音した音声を表す音声信号を出力する音声入力手段を備え、
    前記情報処理装置は、ユーザが装着あるいは把持する前記少なくとも一つの周辺装置が出力する音声信号を受け入れる手段と、
    前記受け入れた音声信号のうち、所定の規則に基づいて少なくとも一部の音声信号を選択する選択手段と、
    前記選択手段が選択した音声信号を出力し、その他の音声信号を遮断する手段と、
    を含む情報処理システム。
  6. ユーザが装着、あるいは把持して用いられ、それぞれが周囲の音声を集音し、当該集音した音声を表す音声信号を出力する音声入力手段を備える複数の周辺装置に接続される情報処理装置の制御方法であって、
    前記情報処理装置において、音声信号を受け入れる手段が、ユーザが装着あるいは把持する前記少なくとも一つの周辺装置が出力する音声信号を受け入れる工程と、
    選択手段が、前記受け入れた音声信号のうち、所定の規則に基づいて少なくとも一部の音声信号を選択する工程と、
    音声信号の出力を制御する手段が、前記選択手段が選択した音声信号を出力し、その他の音声信号を遮断する工程と、
    を実行する情報処理装置の制御方法。
  7. ユーザが装着、あるいは把持して用いられ、周囲の音声を集音し、当該集音した音声を表す音声信号を出力する音声入力手段を備える複数の周辺装置に接続される情報処理装置を、
    ユーザが装着あるいは把持する前記少なくとも一つの周辺装置が出力する音声信号を受け入れる手段と、
    前記受け入れた音声信号のうち、所定の規則に基づいて少なくとも一部の音声信号を選択する選択手段と、
    前記選択手段が選択した音声信号を出力し、その他の音声信号を遮断する手段と、
    として機能させるプログラム。

JP2021516024A 2019-04-26 2020-04-14 情報処理システム、情報処理装置、情報処理装置の制御方法、及びプログラム Active JP7170851B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019086343 2019-04-26
JP2019086343 2019-04-26
PCT/JP2020/016480 WO2020218094A1 (ja) 2019-04-26 2020-04-14 情報処理システム、情報処理装置、情報処理装置の制御方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2020218094A1 true JPWO2020218094A1 (ja) 2021-11-11
JP7170851B2 JP7170851B2 (ja) 2022-11-14

Family

ID=72941893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021516024A Active JP7170851B2 (ja) 2019-04-26 2020-04-14 情報処理システム、情報処理装置、情報処理装置の制御方法、及びプログラム

Country Status (5)

Country Link
US (1) US20220161128A1 (ja)
EP (1) EP3960259A4 (ja)
JP (1) JP7170851B2 (ja)
CN (1) CN113710334B (ja)
WO (1) WO2020218094A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016511594A (ja) * 2013-02-26 2016-04-14 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 音声信号を発生するための方法及び装置
JP2017047784A (ja) * 2015-09-02 2017-03-09 アルパイン株式会社 音声入力装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4202640B2 (ja) * 2001-12-25 2008-12-24 株式会社東芝 短距離無線通信用ヘッドセット、これを用いたコミュニケーションシステム、および短距離無線通信における音響処理方法
US7904188B2 (en) * 2004-10-26 2011-03-08 Panasonic Corporation Information outputting device, information output controlling method, and information output controlling program
CN101179693B (zh) * 2007-09-26 2011-02-02 深圳市迪威视讯股份有限公司 一种会议电视系统的混音处理方法
CN103917947B (zh) * 2011-11-09 2017-09-22 索尼电脑娱乐公司 信息处理装置、信息处理方法、程序和信息存储介质
US20150249736A1 (en) * 2014-02-28 2015-09-03 Plantronics, Inc. Notification of Muting During Voice Activity for Multiple Muters
WO2016047902A1 (ko) * 2014-09-23 2016-03-31 엘지전자 주식회사 이동 단말기 및 그 제어 방법
EP3285497B1 (en) * 2015-04-17 2021-10-27 Sony Group Corporation Signal processing device and signal processing method
CN108369476B (zh) * 2015-12-11 2021-12-28 索尼公司 信息处理设备、信息处理方法和计算机可读介质
US20170351476A1 (en) * 2016-06-03 2017-12-07 Avaya Inc. Create private interaction workspace

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016511594A (ja) * 2013-02-26 2016-04-14 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 音声信号を発生するための方法及び装置
JP2017047784A (ja) * 2015-09-02 2017-03-09 アルパイン株式会社 音声入力装置

Also Published As

Publication number Publication date
JP7170851B2 (ja) 2022-11-14
WO2020218094A1 (ja) 2020-10-29
EP3960259A4 (en) 2023-05-17
EP3960259A1 (en) 2022-03-02
CN113710334B (zh) 2024-06-18
CN113710334A (zh) 2021-11-26
US20220161128A1 (en) 2022-05-26

Similar Documents

Publication Publication Date Title
US8064972B2 (en) User interface for wireless headset on a gaming console
US7931537B2 (en) Voice input in a multimedia console environment
WO2020218094A1 (ja) 情報処理システム、情報処理装置、情報処理装置の制御方法、及びプログラム
WO2020218095A1 (ja) 情報処理システム、コントローラ、情報処理装置、情報処理装置の制御方法、及びプログラム
WO2020218096A1 (ja) 情報処理システム、情報処理装置、情報処理装置の制御方法、及びプログラム
CN113271376A (zh) 通信控制方法、电子设备和耳机
US20220406287A1 (en) Audio cancellation system and method
EP4105929A1 (en) Audio cancellation system and method
WO2022263861A1 (en) Transfer function generation system and method
JP2022063332A (ja) コントローラ装置、及びその制御方法
US11524224B2 (en) Operating device
US11985494B2 (en) Apparatus for providing audio data to multiple audio logical devices
US20240135912A1 (en) Audio cancellation system and method
JP2012248990A (ja) 電子機器及びテレビ電話方法
WO2024119926A1 (zh) 耳机贴合度检测方法和耳机
US20220391245A1 (en) Information processing apparatus
JP2024036087A (ja) 会議システム、サーバ、音声出力方法及びユーザ端末
WO2022215025A1 (en) Apparatus for providing audio data to multiple audio logical devices
TW201907995A (zh) 遊戲控制器以及遊戲控制系統
JP2023097781A (ja) 音声処理システム及び音声処理方法
JP2024062812A (ja) プログラム、および仮想空間制御装置
JP2004236162A (ja) 電子機器および同機器のエラー報知方法
WO2013140439A1 (ja) 再生装置、再生システム、再生装置の制御方法およびプログラム
JP2005341605A (ja) 通信システムおよび通信端末装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210416

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221101

R150 Certificate of patent or registration of utility model

Ref document number: 7170851

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150