JP2021128775A - 選択的対話提示を容易にするためのシステムおよび方法 - Google Patents

選択的対話提示を容易にするためのシステムおよび方法 Download PDF

Info

Publication number
JP2021128775A
JP2021128775A JP2021020419A JP2021020419A JP2021128775A JP 2021128775 A JP2021128775 A JP 2021128775A JP 2021020419 A JP2021020419 A JP 2021020419A JP 2021020419 A JP2021020419 A JP 2021020419A JP 2021128775 A JP2021128775 A JP 2021128775A
Authority
JP
Japan
Prior art keywords
individual
audio content
user
central
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021020419A
Other languages
English (en)
Inventor
アラナ マーク
Arana Mark
アラナ マーク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Disney Enterprises Inc
Original Assignee
Disney Enterprises Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Disney Enterprises Inc filed Critical Disney Enterprises Inc
Publication of JP2021128775A publication Critical patent/JP2021128775A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/762Media network packet handling at the source 
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/433Query formulation using audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/438Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/483Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K17/00Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations
    • G06K17/0022Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations arrangements or provisious for transferring data to distant stations, e.g. from a sensing device
    • G06K17/0029Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations arrangements or provisious for transferring data to distant stations, e.g. from a sensing device the arrangement being specially adapted for wireless interrogation of grouped or bundled articles tagged with wireless record carriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1827Network arrangements for conference optimisation or adaptation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/764Media network packet handling at the destination 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4755End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for defining user preferences, e.g. favourite actors or genre
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4856End-user interface for client configuration for language selection, e.g. for the menu or subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • H04N5/607Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals for more than one sound signal, e.g. stereo, multilanguages

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

【課題】マルチメディア提示のための選択的対話提示を容易にするシステム及び方法を提供する。
【解決手段】方法は、マルチメディア提示のためのメディア情報を取得し、表示デバイス上のマルチメディア提示の視覚コンテンツを提示し、個々のユーザデバイスへの、音声提示デバイスのセット上のマルチメディア提示の効果音声コンテンツと同期して、マルチメディア提示の個々の対話音声コンテンツを提示し、個々のユーザデバイスに、視覚コンテンツおよび/もしくは効果音声コンテンツの提示ならびに/または他の動作と同期する個々の対話音声コンテンツを提示する。
【選択図】図2

Description

本開示は、特にマルチメディア提示の消費に関する、選択的対話提示を容易にするためのシステムおよび方法に関する。
映画館は従来、プロジェクタを使用した大型の投影スクリーン上に映画を投影する。音響効果および音楽は、いくつかの壁に取り付けられたサラウンド音響スピーカを通して再生され得る。多くの場合、中央スピーカ(複数可)は、投影スクリーンの後方に位置決めされ、投影スクリーンを通して音声を投影していた。中央スピーカ(複数可)は、主に対話を提示する音声チャネルとして機能していた。より最近では、プロジェクタおよび投影スクリーンは、発光ダイオード(LED)スクリーンに取って変わられつつある。これらの現代のLEDスクリーンは、鮮明さおよび解像度を向上させた、より鮮やかな色定義を可能にし得る。しかしながら、LEDスクリーンは、中央音声チャネルスピーカが、LEDスクリーンを通した音声投影のためにLEDスクリーンの後方に位置決めされることを可能にしない場合がある。代わりに、音声チャネルはまた、壁に取り付けられたスピーカのうちの1つ以上を通して提示され得る。
映画は、多くの場合、1つの母国言語のターゲット視聴者に向けて製作される。映画が外国言語で提示されるとき、映画はその全体において、外国言語の声優によって吹き替えられ得るか、または映画は母国言語の対話を維持しながら、外国言語の字幕を含むように修正され得る。
本開示の1つの態様は、選択的対話提示を容易にするように構成されたシステムに関する。劇場の客の中には、より良好な体験を得るために、個別化された音声トラックを有することから利益を得る者もいる。例えば、フランス語話者は、フランス語トラックを聴くことを選好する可能性があり、一方、別の母国言語の顧客は、彼らの母国言語の対話を聞きたがる可能性がある。いくつかの現在の解決法では、効果音声および母国言語の対話が従来の方式で提示されている間に、異なるユーザがヘッドフォンを使用して、彼らの選好する言語を聴き得る。しかしながら、ヘッドフォンを介した対話は元の母国言語の対話を完全には遮蔽することができないという問題が存在し得るため、ヘッドフォンを介した対話は可能な限り明瞭ではない場合がある。
本開示の1つ以上の態様は、効果音声が典型的には劇場において展開される音声提示デバイス(例えば、壁に取り付けられたサラウンド音響スピーカ)によって提供され得る技術を説明し得る。対話音声に関して、従来は投影スクリーンおよび/または壁に取り付けられたスピーカのうちの1つ以上の後方に置かれる中央チャネルスピーカ(複数可)に依存する代わりに、本明細書において提示されるシステムの1つ以上の実装形態は、ユーザの頭により近いユーザデバイスを使用し得る。ユーザデバイスの例は、ヘッドフォン、座席のヘッドレストに組み込まれたスピーカ、骨伝導ヘッドフォン、モバイルコンピューティングプラットフォーム、および/または他のデバイスのうちの1つ以上を含み得る。個々のユーザデバイスは、所与の言語の対話音声を選択的に提示するように構成され得る。このように、個々のユーザは、劇場体験の利益を依然として享受しながら、彼らの個別化された対話トラックを有し得る。
選択的対話提示を容易にするように構成されたシステムの1つ以上の実装形態は、1つ以上のサーバ、1つ以上のユーザデバイス、1つ以上の表示デバイス、1つ以上の音声提示デバイス、および/または他の構成要素のうちの1つ以上を含み得る。個々の表示デバイスおよび/または音声提示デバイスの個々のセットは、映画館、ホームシアタールーム、および/または他の場所に物理的に位置し、かつ/または固定され得る。いくつかの実装形態において、個々のユーザデバイスは、映画館、映画館に関連付けられたモバイルデバイス、および/または個々のユーザに関連付けられたモバイルデバイスに物理的に位置し、かつ/または固定されたもののうちの1つ以上であり得る。
1つ以上のサーバは、非一時的な電子記憶装置、1つ以上の物理プロセッサ、および/または他の構成要素のうちの1つ以上を含み得る。1つ以上のサーバは、クライアント/サーバアーキテクチャおよび/または他の通信スキームを介して、1つ以上のユーザデバイス、1つ以上の表示デバイス、および/または1つ以上の音声提示デバイスと通信し得る。
非一時的な電子記憶装置は、マルチメディア提示のためのメディア情報および/または他の情報を記憶し得る。メディア情報は、視覚情報、音声情報、同期情報、および/または他の情報のうちの1つ以上を含み得る。視覚情報は、マルチメディア提示の視覚コンテンツを定義し得る。視覚コンテンツは、画像、画像シーケンス、点灯制御シーケンス、および/または他のコンテンツの形態であり得る。音声情報は、効果音声コンテンツ、対話音声コンテンツのセット、および/またはマルチメディア提示の音声コンテンツの他の形態のうちの1つ以上を定義し得る。効果音声コンテンツは、音響効果および/または他の効果音声を含み得る。対話音声コンテンツのセットは、異なる言語の別個かつ独特な対話音声コンテンツを含み得る。非限定的な例示として、対話音声コンテンツのセットは、第1の言語の第1の対話音声コンテンツ、第2の言語の第2の対話音声コンテンツ、および/または他の対話音声コンテンツのうちの1つ以上を含み得る。同期情報は、視覚コンテンツ、効果音声コンテンツ、および対話音声コンテンツのうちの個々のもののうちの1つ以上の同期された再生を容易にする情報を含み得る。
1つ以上の物理プロセッサは、機械可読命令によって構成され得る。機械可読命令を実行することは、1つ以上の物理プロセッサに選択的対話提示を容易にさせ得る。機械可読命令は、1つ以上のコンピュータプログラム構成要素を含み得る。コンピュータプログラム構成要素は、視覚構成要素、効果構成要素、対話構成要素、および/または他の構成要素のうちの1つ以上を含み得る。
視覚構成要素は、個々の表示デバイス上での視覚コンテンツの提示を実施するように構成され得る。非限定的な例示として、視覚構成要素は、コマンドおよび/または命令を個々の表示デバイスに通信し、視覚コンテンツを提示し得る。
効果構成要素は、音声提示デバイスの個々のセットによって効果音声コンテンツの提示を実施するように構成され得る。効果音声コンテンツの提示は、対応する視覚コンテンツの提示と同期し得る。非限定的な例示として、効果構成要素は、コマンドおよび/または命令を個々の音声提示デバイスに通信し、効果音声コンテンツを再生し得る。
対話構成要素は、個々のユーザデバイスへの、個々の対話音声コンテンツを定義する音声情報の通信を実施するように構成され得る。個々のユーザデバイスへの通信は、個々のユーザデバイスに、視覚コンテンツおよび/または効果音声コンテンツの提示と同期して個々の対話音声コンテンツを提示させ得る。個々のユーザデバイスは、個々の言語の個々の対話音声コンテンツを選択的に提示するように構成され得る。非限定的な例示として、第1の対話音声コンテンツを定義する音声情報は、第1のユーザに関連付けられた第1のユーザデバイスに通信され、第1のユーザデバイスに、視覚コンテンツおよび/または効果音声コンテンツの提示と同期して第1の対話音声コンテンツを提示させ得る。非限定的な例示として、第2の対話音声コンテンツを定義する音声情報は、第2のユーザに関連付けられた第2のユーザデバイスに通信され、第2のユーザデバイスに、視覚コンテンツおよび/または効果音声コンテンツの提示と同期して第2の対話音声コンテンツを提示させ得る。
本明細書に開示のシステムおよび/または方法のこれらのおよび他の対象物、特徴および特性、ならびに、構造および部品の組み合わせの関連付けられた要素の動作および機能の方法ならびに製造の経済性は、添付の図面を参照しながら、以下の説明および添付の請求項を考慮すると、より明らかになり、それら図面のすべては本明細書の一部を形成し、同様の参照番号が様々な図の対応する部品を指定する。しかしながら、図面は例示および説明のみを目的とし、本発明の制限の定義を意図していないことが明示的に理解される。本明細書および請求項にて使用されるように、「a」、「an」、および「the」の単数形は、文脈により、明示的に別段の記載がされない限り、複数の対象を含む。
1つ以上の実装形態による、選択的対話提示を容易にするように構成されたシステムを例示する。 1つ以上の実装形態による、選択的対話提示を容易にする方法を例示する。 ユーザデバイスの実装形態を例示する。 ユーザデバイスの実装形態を例示する。 ユーザデバイスの実装形態を例示する。 ユーザデバイスの実装形態を例示する。 選択的対話提示を容易にするように構成されたシステムを利用する例示的な環境を例示する。
図1は、1つ以上の実装形態による、選択的対話提示を容易にするように構成されたシステム100を例示する。効果音声は、典型的には劇場において展開される音声提示デバイス(例えば、壁に取り付けられたサラウンド音響スピーカ)によって提供され得る。対話音声に関して、ユーザの頭により近いユーザデバイスが利用され得る。ユーザデバイスの例は、ヘッドフォン、座席のヘッドレストに組み込まれたスピーカ、骨伝導ヘッドフォン、モバイルコンピューティングプラットフォーム、および/または他のデバイスのうちの1つ以上を含み得る。個々のユーザデバイスは、所与の言語の対話音声を選択的に提示するように構成され得る。このように、個々のユーザは、劇場体験(例えば、音響効果のためのサラウンド音響音声)の利益を依然として享受しながら、彼らの個別化された対話トラックを有し得る。
システム100は、1つ以上のサーバ102、1つ以上のユーザデバイス122、1つ以上の表示デバイス126、1つ以上の音声提示デバイス127、および/または他の構成要素のうちの1つ以上を含み得る。1つ以上のサーバ102は、1つ以上の物理プロセッサ104、非一時的な電子記憶装置118、および/または他の構成要素のうちの1つ以上を含み得る。非一時的な電子記憶装置118は、1つ以上のサーバ102、1つ以上のユーザデバイス122、1つ以上の表示デバイス126、1つ以上の音声提示デバイス127、および/またはシステム100の他の構成要素によって利用された情報を記憶するように構成され得る。
非一時的な電子記憶装置118は、個々のマルチメディア提示のためのメディア情報および/または他の情報を記憶するように構成され得る。所与のマルチメディア提示のためのメディア情報は、視覚情報、音声情報、同期情報、および/または他の情報のうちの1つ以上を含み得る。
視覚情報は、マルチメディア提示の視覚コンテンツを定義し得る。視覚コンテンツは、画像、画像シーケンス、点灯制御シーケンス、および/または他のコンテンツの形態であり得る。
音声情報は、効果音声コンテンツ、対話音声コンテンツのセット、および/またはマルチメディア提示の音声コンテンツの他の形態のうちの1つ以上を定義し得る。効果音声コンテンツは、音響効果および/または他の効果音声を含み得る。対話音声コンテンツのセットは、異なる言語の別個かつ独特な対話音声コンテンツを含み得る。非限定的な例示として、所与のマルチメディア提示のための対話音声コンテンツのセットは、第1の言語の第1の対話音声コンテンツ、第2の言語の第2の対話音声コンテンツ、および/または他の対話音声コンテンツのうちの1つ以上を含み得る。
同期情報は、視覚コンテンツ、効果音声コンテンツ、および対話音声コンテンツのうちの個々のもののうちの1つ以上の同期された再生を容易にする情報を含み得る。同期情報は、効果音声コンテンツ内の1つ以上の音声フィンガープリントおよび/もしくは透かし、視覚コンテンツの1つ以上に関連付けられたタイムコード、効果音声コンテンツおよび/もしくは対話音声コンテンツのうちの個々のもの、ならびに/または他の情報のうちの1つ以上を含み得る。
1つ以上の音声提示デバイス127の個々の音声提示デバイスは、音声コンテンツを提示するように構成されたデバイスを含み得る。音声提示デバイスは、言葉、音響、および/または他の音声コンテンツの形態で音声コンテンツを提示するように構成され得る。音声提示デバイスは例えば、スピーカを含み得る。いくつかの実装形態において、音声提示デバイスのセットは、ユーザのグループに対してサラウンド音響音声を提供するように配設され得る。いくつかの実装形態において、個々の音声提示デバイスは、壁に取り付けられ得る。
非一時的な電子記憶装置118は、プロファイル情報および/または他の情報を記憶するように構成され得る。プロファイル情報は、システムのユーザのためのユーザプロファイルを含み得る。個々のユーザプロファイルは、個々のユーザのための言語選好を示し得る。非限定的な例示として、第1のユーザのための第1のユーザプロファイルは、第1の言語の言語選好を示し得る。非限定的な例示として、第2のユーザのための第2のユーザプロファイルは、第2の言語のための言語選好を示し得る。
1つ以上の表示デバイス126の個々の表示デバイスは、視覚コンテンツを提示するように構成され得る。表示デバイスは、LEDスクリーン、タッチスクリーン、モニタ、スクリーンのセット、および/または他のディスプレイのうちの1つ以上を含み得る。
1つ以上のユーザデバイス122の個々のユーザデバイスは、音声コンテンツを提示するように構成されたデバイスを含み得る。ユーザデバイスは、対話音声コンテンツを提示するように構成され得る。ユーザデバイスは、1つ以上の音声出力デバイスおよび/または他の構成要素を含み得る。1つ以上のユーザデバイス122の個々のユーザデバイスは、モバイルデバイス、固定式デバイス、および/または他のユーザデバイスのうちの1つ以上を含み得る。モバイルデバイスは、モバイルコンピューティングプラットフォーム、モバイルヘッドフォン、および/または他のデバイスのうちの1つ以上を含み得る。モバイルコンピューティングプラットフォームは、携帯電話、スマートフォン、ラップトップ、タブレットコンピュータ、仮想現実(および/または拡張現実)プラットフォーム、および/または他のユーザデバイスのうちの1つ以上を含み得る。モバイルヘッドフォンは、イヤホン式ヘッドフォン、耳覆い型ヘッドフォン、骨伝導ヘッドフォン、および/または他のモバイルヘッドフォンのうちの1つ以上を含み得る。固定式デバイスは、ヘッドレストに取り付けられた音声デバイスを含み得る。ヘッドレストに取り付けられた音声デバイスは、1つ以上のスピーカおよび/または他の構成要素を含み得る。
いくつかの実装形態において、個々のユーザデバイスは、システム100の他の構成要素との有線および/または無線通信を容易にするように構成された構成要素を含み得る。例えば、個々のユーザデバイスは、1つ以上の無線通信構成要素を含み得る。無線通信構成要素は、無線周波数トランシーバ、Bluetoothデバイス、Wi−Fiデバイス、近距離通信デバイス、および/または他の無線通信構成要素のうちの1つ以上を含み得る。非限定的な例示として、個々のユーザデバイスは、無線周波数電磁信号を発し、かつ/または受信するように構成された無線周波数識別(RFID)チップを備え得る。いくつかの実装形態において、RFIDチップは、検出情報および/または他の情報を発するように構成され得る。検出情報は、ユーザデバイスの存在を伝達する情報、ユーザデバイスの同一性を伝達する情報、ユーザデバイスのユーザの同一性を伝達する情報、および/または他の情報のうちの1つ以上を含み得る。
1つ以上の物理プロセッサ104は、機械可読命令106によって構成され得る。機械可読命令106を実行することは、1つ以上の物理プロセッサ104に選択的対話提示を容易にさせ得る。機械可読命令106は、1つ以上のコンピュータプログラム構成要素を含み得る。1つ以上のコンピュータプログラム構成要素は、視覚構成要素108、効果構成要素110、対話構成要素112、検出構成要素114、および/または他の構成要素のうちの1つ以上を含み得る。
視覚構成要素108は、1つ以上の表示デバイス126の個々の表示デバイス上での視覚コンテンツの提示を実施するように構成され得る。非限定的な例示として、視覚構成要素108は、1つ以上の表示デバイス126の個々の表示デバイスへの、視覚コンテンツを定義する視覚情報、同期情報、視覚コンテンツを提示するためのコマンドおよび/もしくは命令、ならびに/または他の情報のうちの1つ以上の通信を実施し得る。
効果構成要素110は、1つ以上の音声提示デバイス127の音声提示デバイスの個々のセットによって効果音声コンテンツの提示を実施するように構成され得る。効果音声コンテンツの提示は、対応する視覚コンテンツの提示と同期し得る。非限定的な例示として、効果構成要素110は、1つ以上の音声提示デバイス127の音声提示デバイスの個々のセットへの、効果音声コンテンツを定義する音声情報、同期情報、効果音声コンテンツを提示するためのコマンドおよび/もしくは命令、ならびに/または他の情報のうちの1つ以上の通信を実施し得る。
対話構成要素112は、1つ以上のユーザデバイス122の個々のユーザデバイスへの、個々の対話音声コンテンツを定義する音声情報の通信を実施するように構成され得る。個々のユーザデバイスを定義する音声情報への通信は、個々のユーザデバイスに、視覚コンテンツおよび/または効果音声コンテンツの提示と同期して個々の対話音声コンテンツを提示させ得る。個々のユーザデバイスは、個々の言語の個々の対話音声コンテンツを選択的に提示するように構成され得る。非限定的な例示として、対話構成要素112は、第1のユーザに関連付けられた第1のユーザデバイスへの、第1の対話音声コンテンツを定義する音声情報、同期情報、および/または他の情報の通信を実施し、第1のユーザデバイスに、視覚コンテンツおよび/または効果音声コンテンツの提示と同期して第1の対話音声コンテンツを提示させるように構成され得る。非限定的な例示として、対話構成要素112は、第2のユーザに関連付けられた第2のユーザデバイスへの、第2の対話音声コンテンツを定義する音声情報、同期情報、および/または他の情報の通信を実施し、第2のユーザデバイスに、視覚コンテンツおよび/または効果音声コンテンツの提示と同期して第2の対話音声コンテンツを提示させるように構成され得る。
いくつかの実装形態において、個々のユーザデバイスへの、個々の対話音声コンテンツを定義する音声情報の通信を実施することは、個々の対話音声コンテンツを定義する音声情報、同期情報、および/または他の情報のうちの1つ以上を、個々のユーザデバイスにストリーミングすることを含み得る。ストリーミングすることは、継続的かつ増分的に情報を通信することを含み得る。
いくつかの実装形態において、個々のユーザデバイスへの、個々の対話音声コンテンツを定義する音声情報の通信を実施することは、個々のユーザデバイスへの、対話音声コンテンツを定義する音声情報の通信を実施することを含み得る。個々のユーザデバイスは、個々の言語の個々の対話音声コンテンツを選択的に提示するように構成され得る。
いくつかの実装形態において、対話音声コンテンツのセットから個々の対話音声コンテンツを選択的に提示することは、無線通信の特定の周波数にチューニングされている個々のユーザデバイスに基づき得る。非限定的な例示として、個々の対話音声コンテンツを定義する音声情報および個々のユーザデバイスは、無線通信の個々の周波数に関連付けられ得る。個々のユーザデバイスへの、個々の対話音声コンテンツを定義する音声情報の通信を実施することは、個々の周波数のうちの関連付けられたものにチューニングされた個々の対話音声コンテンツを無線通信することを含み得る。したがって、個々のユーザデバイスは、対話音声コンテンツを定義する音声情報を、それらがチューニングされ得る個々の周波数において受信するか、または「拾い上げる」だけであってもよい。いくつかの実装形態において、個々のユーザデバイスは、チューニングおよび/またはそれが再生することができる対話音声コンテンツの対応する言語に基づいて、ラベル付けられ、かつ/または選別され得る。
いくつかの実装形態において、対話音声コンテンツのセットから個々の対話音声コンテンツを選択的に提示することは、個々のユーザデバイスへのユーザ入力に基づきみ得る。いくつかの実装形態において、個々のユーザデバイスは、異なる言語の対話音声コンテンツのセットを定義する音声情報を取得し得る。個々のユーザデバイスは、1つの対話音声コンテンツのみがユーザ消費のために個々のユーザデバイスによって再生され得るように、対話音声コンテンツのうちの個々のものを定義する音声情報の間で選択するように構成された1つ以上のスイッチを含み得る。スイッチは、(例えば、グラフィカルユーザインターフェース上に提示された)物理スイッチおよび/または仮想スイッチを含み得る。
いくつかの実装形態において、対話構成要素112は、個々のユーザデバイス上でのユーザインターフェースの提示を実施するように構成され得る。いくつかの実装形態において、個々のユーザデバイス上でユーザインターフェースの提示を実施することは、個々のユーザデバイスがサーバ(複数可)102からユーザインターフェースおよび/またはアクセス情報をコンパイルするために必要な情報を通信することを含み得る。ユーザインターフェースは、ユーザ入力および/または個々の言語の選択を取得するように構成され得る。いくつかの実装形態において、ユーザ入力および/または個々の言語の選択に応答して、個々のユーザデバイスが、ユーザ入力および/または個々の言語の選択に対応する、個々の言語の個々の対話音声コンテンツを選択的に提示するように構成され得る。いくつかの実装形態において、対話構成要素112はストリーミングすることおよび/または他の技術によって、対話音声コンテンツを定義する音声情報を、個々のユーザデバイスに通信し得る。いくつかの実装形態において、個々のユーザデバイスは、音声情報および/または他の情報をダウンロードし得る。
検出構成要素114は、システム100を利用する1つ以上の環境内で1つ以上のユーザデバイスの存在を検出するように構成され得る。検出構成要素114は、検出情報および/または他の情報を伝達する出力信号を取得するように構成され得る。出力信号は、個々のユーザデバイスから取得され得る。いくつかの実装形態において、環境は1つ以上のリーダを含み得る。1つ以上のリーダは、個々のユーザデバイスの1つ以上の無線通信構成要素を介して、個々のユーザデバイスから情報を取得するように構成され得る。非限定的な例示として、環境は、個々のユーザデバイスのRFIDチップと通信するように構成された、1つ以上のRFIDリーダを含み得る。検出情報は、環境付近の、かつ/または環境内の個々のユーザデバイスの検出を容易にし得る。非限定的な例示として、検出構成要素114は、第1のユーザデバイス、第2のユーザデバイス、および/または他のユーザデバイスのうちの1つ以上の存在を検出するように構成され得る。
検出構成要素114は、個々のユーザデバイスの個々のユーザを識別するように構成され得る。いくつかの実装形態において、個々のユーザの同一性は検出情報に含まれ得、かつ/または個々のユーザデバイスから要求され得る。ユーザは個々のユーザデバイスへの入力を提供し、個々のユーザの同一性を取得するための許可を提供し得る。非限定的な例示として、検出構成要素114は、第1のユーザデバイスの第1のユーザ、第2のユーザデバイスの第2のユーザ、および/または他のユーザのうちの1つ以上を識別するように構成され得る。
検出構成要素114は、個々のユーザのユーザプロファイルを取得するように構成され得る。ユーザプロファイルは、電子記憶装置118および/または他の記憶場所によって記憶されたプロファイル情報から取得され得る。いくつかの実装形態において、個々のユーザデバイスは、個々のユーザデバイスの個々のユーザのためのプロファイル情報を記憶し得る。
対話構成要素112は、ユーザのユーザプロファイルに基づいて、個々のユーザに関連付けられた個々のユーザデバイスに通信するための個々の音声コンテンツを定義する音声情報を選択するように構成され得る。非限定的な例示として、第1の言語の言語選好を示す第1のユーザプロファイルに応答して、対話構成要素112は、第1のユーザデバイスに通信される第1の対話音声コンテンツを定義する音声情報を選択するように構成され得る。非限定的な例示として、第2の言語の言語選好を示す第2のユーザプロファイルに応答して、対話構成要素112は、第2のユーザデバイスに通信される第2の対話音声コンテンツを定義する音声情報を選択するように構成され得る。
図3は、ユーザデバイス302の実装形態を例示する。ユーザデバイス302は、1つ以上の音声出力デバイス304、1つ以上の無線周波数(RF)トランシーバ306、1つ以上のスイッチ308、および/または他の構成要素のうちの1つ以上を含み得る。ユーザデバイス302は、固定式デバイスまたはモバイルデバイスを備え得る。非限定的な例示として、固定式デバイスは、座席内に取り付けられた構成要素を含み得る。非限定的な例示として、モバイルデバイスは、ヘッドフォンを含み得る。1つ以上の音声出力デバイス304は、音声コンテンツを提示するように構成され得る。非限定的な例示として、個々の音声出力デバイスは、スピーカ、骨伝導要素、および/または他のデバイスのうちの1つ以上を含み得る。1つ以上の無線周波数トランシーバ306は、1つ以上のサーバとの無線通信を容易にするように構成され得る(図3には図示せず)。個々の対話音声コンテンツは、無線通信の個々の周波数に関連付けられ得る。いくつかの実装形態において、対話音声コンテンツのセットは、無差別に通信され得る。ユーザデバイス302は、1つ以上のスイッチ308を介して、所与の言語の対話音声コンテンツを再生するための個々の周波数に選択的にチューニングするように構成され得る。
図4は、ユーザデバイス402の実装形態を例示する。ユーザデバイス402は、1つ以上の音声出力デバイス404、1つ以上の無線周波数トランシーバ406、1つ以上のスイッチ408、および/または他の構成要素のうちの1つ以上を含み得る。ユーザデバイス402は、耳覆い型ヘッドフォンなどのモバイルデバイスを備え得る。1つ以上の音声出力デバイス404は、音声コンテンツを提示するように構成され得る。非限定的な例示として、個々の音声出力デバイスは、スピーカ、骨伝導要素、および/または他のデバイスのうちの1つ以上を含み得る。1つ以上の無線周波数トランシーバ406は、1つ以上のサーバとの無線通信を容易にするように構成され得る(図3には図示せず)。
ユーザデバイス402は、1つ以上のスイッチ408を介して、所与の言語の対話音声コンテンツを再生するための個々の周波数に選択的にチューニングするように構成され得る。
図5は、ユーザデバイス502の実装形態を例示する。ユーザデバイス502は、1つ以上の物理プロセッサ504、非一時的な電子記憶装置510、1つ以上の音声出力デバイス512、1つ以上のRFトランシーバ514、および/または他の構成要素のうちの1つ以上を含み得る。1つ以上の音声出力デバイス512は、音声コンテンツを提示するように構成され得る。非限定的な例示として、個々の音声出力デバイスは、スピーカ、骨伝導要素、および/または他のデバイスのうちの1つ以上を含み得る。いくつかの実装形態において、1つ以上の音声出力デバイス510は、ポートおよび/または他のコネクタ(有線および/または無線)を介して、ユーザインターフェース502に取り外し可能に接続可能であってもよい。1つ以上の無線周波数トランシーバ514は、1つ以上のサーバとの無線通信を容易にするように構成され得る(図5には図示せず)。1つ以上の無線周波数トランシーバ514は、ユーザデバイス502の検出を容易にするように構成され得る。
非一時的な電子記憶装置510は、ユーザデバイス502によって利用される情報を記憶するように構成され得る。非一時的な電子記憶装置510は、個々のマルチメディア提示のためのメディア情報、プロファイル情報、および/または他の情報を記憶するように構成され得る。プロファイル情報は、1つ以上のユーザプロファイルを含み得る。個々のユーザプロファイルは、個々のユーザプロファイルに関連付けられた個々のユーザのための言語選好を示し得る。
1つ以上の物理プロセッサ504は、機械可読命令506によって構成され得る。機械可読命令506を実行することは、1つ以上の物理プロセッサ504に選択的対話提示を容易にさせ得る。機械可読命令506は、1つ以上のコンピュータプログラム構成要素を含み得る。1つ以上のコンピュータプログラム構成要素は、ユーザインターフェース構成要素508および/または他の構成要素を含み得る。
ユーザインターフェース構成要素508は、ユーザデバイス502上でのユーザインターフェースの提示を実施するように構成され得る。ユーザインターフェースは、ユーザ入力および/または個々の言語の選択を取得するように構成され得る。ユーザ入力および/または個々の言語の選択に応答して、ユーザデバイス502は、ユーザ入力および/または個々の言語の選択に対応する、個々の言語の個々の対話音声コンテンツを選択的に提示するように構成され得る。いくつかの実装形態において、個々の対話音声コンテンツを選択的に提示することは、サーバからストリーミングされている個々の対話音声コンテンツを定義する情報を受信することに基づき得る(図5には図示せず)。いくつかの実装形態において、個々の対話音声コンテンツを選択的に提示することは、電子記憶装置510から個々の対話音声コンテンツを定義する情報を取得することに基づき得る。
図6は、ユーザデバイス602の実装形態を例示する。ユーザデバイス602は、モバイルコンピューティングプラットフォームなどのモバイルデバイスを備え得る。ユーザデバイス602は、ユーザ入力および/または個々の言語の選択を取得するように構成されたユーザインターフェース604を提示し得る。ユーザインターフェース604は、ユーザインターフェース604とのユーザ対話を容易にするように構成された1つ以上のユーザインターフェース要素を含み得る。非限定的な例示として、ユーザインターフェース要素は、テキスト入力フィールド、ドロップダウンメニュー、チェックボックス、表示ウィンドウ、仮想ボタン、および/またはユーザ対話を容易にするように構成された他の要素のうちの1つ以上を含み得る。例えば、チェックボックス606のセットは、個々のチェックボックスに対応するユーザ入力および/または個々の言語の選択を取得するように構成され得る。ユーザ入力および/または個々の言語の選択に応答して、ユーザデバイス602は、ユーザ入力および/または選択に対応する、個々の言語の個々の対話音声コンテンツを選択的に提示するように構成され得る。いくつかの実装形態において、個々の対話音声コンテンツを選択的に提示することは、サーバからストリーミングされている個々の対話音声コンテンツを定義する情報を受信することに基づき得る(図5には図示せず)。いくつかの実装形態において、個々の対話音声コンテンツを選択的に提示することは、ユーザデバイス602上でローカルに記憶された個々の対話音声コンテンツを定義する情報を取得することに基づき得る。
図7は、1つ以上の実装形態による、選択的対話提示を容易にするように構成されたシステムを利用する例示的な環境700を例示する。環境700は、例えば、映画館を含み得る。システム700は、1つ以上のサーバ702、表示デバイス704、音声提示デバイスのセット(706、708、710、および712)、ユーザデバイスのセット(714、716、718、720、および722)、および/または他の構成要素のうちの1つ以上を含み得る。1つ以上のサーバ702は、1つ以上の物理プロセッサ、非一時的な電子記憶装置、および/または他の構成要素のうちの1つ以上を含み得る。非一時的な電子記憶装置は、1つ以上のサーバ702、ユーザデバイスのセット、表示デバイス704、音声提示デバイスのセット、および/または他の構成要素によって利用される情報を記憶するように構成され得る。
図1に戻ると、サーバ(複数可)102、1つ以上のユーザデバイス122、1つ以上の表示デバイス126、1つ以上の音声提示デバイス127、外部リソース(複数可)124、および/または他の構成要素は、1つ以上の電子通信リンクを介して、動作可能にリンクされ得る。例えば、このような電子通信リンクは、1つ以上のネットワーク120を介して、少なくとも部分的に確立され得る。1つ以上のネットワーク120は、インターネット、Bluetooth、および/または他のネットワークを含み得る。これは限定を意図していないこと、および本開示の範囲が、システム100の構成要素がいくつかの他の通信媒体を介して動作可能にリンクされ得る実装形態を含むことが理解される。
外部リソース(複数可)124は、情報のソース、システム100の外部の情報のホストおよび/もしくはプロバイダ、システム100に参加する外部エンティティ、ならびに/または他のリソースを含み得る。いくつかの実装形態において、本明細書において外部リソース(複数可)124に帰属する機能のうちのいくつかまたはすべては、システム100に含まれるリソースによって提供され得る。
サーバ(複数可)102は、ネットワークおよび/またはコンピューティングプラットフォーム(複数可)122との情報の交換を可能にする通信ラインまたはポートを含み得る。図1におけるサーバ(複数可)102の例示は、限定を意図していない。サーバ(複数可)102は、本明細書においてサーバ(複数可)102に帰属する機能を提供するために一緒に動作している複数のハードウェア、ソフトウェア、および/またはファームウェア構成要素を含み得る。例えば、サーバ(複数可)102は、サーバ(複数可)102として一緒に動作しているコンピューティングプラットフォームのクラウドによって実装され得る。
電子記憶装置118は、情報を電子的に記憶する電子記憶媒体を含み得る。電子記憶装置118の電子記憶媒体は、サーバ(複数可)102と一体的に提供されている(すなわち、実質的に取り外しができない)システム記憶装置、および/または、例えば、ポートもしくはドライブを介して、サーバ(複数可)102に取り外し可能に接続可能である取り外し可能な記憶装置のうちの一方または両方を含み得る。ポートは、USBポート、firewireポート、および/または他のポートを含み得る。ドライブは、ディスクドライブおよび/または他のドライブを含み得る。電子記憶装置118は、光学可読記憶媒体(例えば、光学ディスクなど)、磁気可読記憶媒体(例えば、磁気テープ、じきハードドライブ、フロッピーディスクなど)、電荷に基づく記憶媒体(例えば、EEPROM、RAMなど)、ソリッドステート記憶媒体(例えば、フラッシュドライブなど)、および/または他の電子可読記憶媒体のうちの1つ以上を含み得る。電子記憶装置118は、1つ以上の仮想ストレージリソース(例えば、クラウドストレージ、仮想プライベートネットワーク、および/または他の仮想ストレージリソース)を含み得る。電子記憶装置118は、ソフトウェアアルゴリズム、プロセッサ(複数可)104によって判定される情報、コンピューティングプラットフォーム(複数可)122から受信される情報、および/またはシステム100が本明細書に記載の通りに機能することを可能にする他の情報を記憶し得る。
プロセッサ(複数可)104は、サーバ(複数可)102において、情報処理能力を提供するように構成され得る。したがって、プロセッサ(複数可)104は、デジタルプロセッサ、アナログプロセッサ、情報を処理するように設計されたデジタル回路、情報を処理するように設計されたアナログ回路、状態機械、および/または電子的に情報を処理するための他の機構のうちの1つ以上を含み得る。プロセッサ(複数可)104は図1において単一のエンティティとして示されるが、これは、例示目的に過ぎない。いくつかの実装形態において、プロセッサ(複数可)104は、1つ以上の処理ユニットを含み得る。これらの処理ユニットは同じデバイス内に物理的に位置し得るか、またはプロセッサ(複数可)104は、連携して動作する複数のデバイスの処理機能を表し得る。プロセッサ(複数可)104は、構成要素108、110、112、および/または114を実行するように構成され得る。プロセッサ(複数可)104は、ソフトウェア、ハードウェア、ファームウェア、ソフトウェア、ハードウェアおよび/もしくはファームウェアのいくつかの組み合わせ、ならびに/またはプロセッサ(複数可)104上の処理能力を構成するための他の機構によって、構成要素108、110、112、および/または114を実行するように構成され得る。
構成要素108、110、112、および/または114が、単一の処理ユニット内に共に位置するものとして図1に例示されているが、プロセッサ(複数可)104が複数の処理ユニットを含む実装形態において、構成要素108、110、112、および/または114のうちの1つ以上が他の構成要素から離れて位置し得ることを理解されたい。コンピュータプログラム構成要素は本明細書において、機械可読命令106を通してプロセッサ(複数可)104を介して実装されるものとして記載されているが、これは単に、参照の容易さのためであり、限定を意味するものではない。いくつかの実装形態において、本明細書に記載のコンピュータプログラム構成要素の1つ以上の機能は、ハードウェア(例えば、専用チップ、フィールドプログラマブルゲートアレイ)を介して実装され得る。本明細書に記載のコンピュータプログラム構成要素の1つ以上の機能は、ソフトウェア実装、ハードウェア実装、ならびに/またはソフトウェアおよびハードウェア実装のうちの1つ以上であってもよい。構成要素108、110、112、および/または114のうちのいずれも、記載より多い、または少ない機能を提供し得るように、上述の異なる構成要素108、110、112、および/または114によって提供される機能についての記載は、例示の目的のためであり、限定を意図しない。例えば、構成要素108、110、112、および/または114のうちの1つ以上は、削除することができ、その機能のいくつかまたはすべては、構成要素108、110、112、114および/または他の構成要素のうちの他のものによって提供され得る。別の例として、プロセッサ(複数可)104は、構成要素108、110、112、および/または114のうちの1つに帰属する機能のうちのいくつかまたはすべてを実施し得る、1つ以上の追加の構成要素を実行するように構成され得る。
図2は、選択的対話提示を容易にする方法200を例示する。以下に提示する方法200の動作は、例示を意図している。いくつかの実装形態において、方法200は、記載されていない1つ以上の追加の動作により、かつ/または考察される動作のうちの1つ以上なしに、達成することができる。追加的に、方法200の動作の順が図2に例示され、以下の記載は限定を意図するものではない。
いくつかの実装形態において、方法200は、1つ以上の処理デバイス(例えば、デジタルプロセッサ、アナログプロセッサ、情報を処理するように設計されたデジタル回路、情報を処理するように設計されたアナログ回路、状態機械、および/または情報を電子的に処理するための他の機構)、機械可読命令を記憶する記憶媒体、1つ以上の表示デバイス、1つ以上のユーザデバイス、1つ以上の音声提示デバイス、および/または他の構成要素を備えるシステムにおいて実装され得る。1つ以上の処理デバイスは、電子記憶媒体上に電子的に記憶された命令に応答して、方法200の動作のいくつかまたはすべてを実行する1つ以上のデバイスを含み得る。1つ以上の処理デバイスは、ハードウェア、ファームウェア、および/またはソフトウェアを通じて、特に方法200の動作のうちの1つ以上を実行するために設計されるように構成された1つ以上のデバイスを含み得る。
動作202において、マルチメディア提示のためのメディア情報が取得され得る。メディア情報は、視覚情報、音声情報、および/または他の情報のうちの1つ以上を含み得る。視覚情報は、マルチメディア提示の視覚コンテンツを定義し得る。視覚コンテンツは、画像、画像シーケンス、点灯制御シーケンス、および/または他のコンテンツの形態であってもよい。音声情報は、効果音声コンテンツ、対話音声コンテンツのセット、および/またはマルチメディア提示の音声コンテンツの他の形態のうちの1つ以上を定義し得る。効果音声コンテンツは、音響効果および/または他の効果音声を含み得る。対話音声コンテンツのセットは、異なる言語の別個かつ独特な対話音声コンテンツを含み得る。非限定的な例示として、対話音声コンテンツのセットは、第1の言語の第1の対話音声コンテンツ、第2の言語の第2の対話音声コンテンツ、および/または他の対話音声コンテンツのうちの1つ以上を含み得る。いくつかの実装形態において、(図1に示され、本明細書に記載される)視覚構成要素108、効果構成要素110、および/または対話構成要素112のうちの1つ以上と同じか、または同様の1つ以上の構成要素を実行する1つ以上の物理プロセッサによって動作202が実施され得る。
動作204において、表示デバイス上の視覚コンテンツの提示が実施され得る。いくつかの実装形態において、(図1に示され、本明細書に記載される)視覚構成要素108と同じか、または同様の構成要素を実行する1つ以上の物理プロセッサによって動作204が実施され得る。
動作206において、音声提示デバイスのセットにより、効果音声コンテンツの提示が実施され得る。効果音声コンテンツの提示は、視覚コンテンツの提示と同期し得る。いくつかの実装形態において、(図1に示され、本明細書に記載される)効果構成要素110と同じか、または同様の構成要素を実行する1つ以上の物理プロセッサによって動作206が実施され得る。
動作208において、ユーザに関連付けられたユーザデバイスのセットに含まれた個々のユーザデバイスへの、個々の対話音声コンテンツの通信が実施され得る。個々のユーザデバイスへの通信は、個々のユーザデバイスに、視覚コンテンツおよび/または効果音声コンテンツの提示と同期して個々の対話音声コンテンツを提示させ得る。個々のユーザデバイスは、個々の言語の個々の対話音声コンテンツを選択的に提示するように構成され得る。非限定的な例示として、第1の対話音声コンテンツは、第1のユーザに関連付けられた第1のユーザデバイスに通信され、第1のユーザデバイスに、視覚コンテンツおよび/または効果音声コンテンツの提示と同期して第1の対話音声コンテンツを提示させ得る。非限定的な例示として、第2の対話音声コンテンツは、第2のユーザに関連付けられた第2のユーザデバイスに通信され、第2のユーザデバイスに、視覚コンテンツおよび/または効果音声コンテンツの提示と同期して第2の対話音声コンテンツを提示させ得る。いくつかの実装形態において、(図1に示され、本明細書に記載される)対話構成要素112と同じか、または同様の構成要素を実行する1つ以上の物理プロセッサによって動作208が実施され得る。
現在最も実用的かつ好ましい実装形態であると考えられていることに基づいて、例示の目的で本技術について詳細に記載しているが、このような詳細が単にその目的のためであり、その技術が開示された実装形態に限定されず、むしろ反対に、添付の請求項の趣旨および範囲内にある修正および同等の配置を網羅することを意図されていることが理解される。例えば、本技術は、可能な範囲で、任意の実装形態の1つ以上の特徴を任意の他の実装形態の1つ以上の特徴と組み合わせることができることを企図していることが理解される。

Claims (20)

  1. 選択的対話提示を容易にするように構成されたシステムであって、前記システムが、
    マルチメディア提示のためのメディア情報を記憶する非一時的な電子記憶装置であって、前記メディア情報が視覚情報および音声情報を含み、前記視覚情報が、前記マルチメディア提示の視覚コンテンツを定義し、前記音声情報が、効果音声コンテンツおよび前記マルチメディア提示の中心音声コンテンツのセットを定義し、前記効果音声コンテンツが、サラウンド音響効果を含み、前記中心音声コンテンツのセットが別個かつ独特な中心音声コンテンツを含み、その結果、前記中心音声コンテンツのセットが第1の中心音声コンテンツおよび第2の中心音声コンテンツを含む、非一時的な電子記憶装置と、
    1つ以上の物理プロセッサであって、
    表示デバイス上で前記視覚コンテンツの提示を実施することと、
    音声提示デバイスのセットによって前記効果音声コンテンツの提示を実施することであって、前記効果音声コンテンツの前記提示が、前記視覚コンテンツの前記提示と同期している、実施することと、
    前記視覚コンテンツおよび前記効果音声コンテンツの前記提示と同期して個々の中心音声コンテンツを個々のユーザデバイスに提示させるように、ユーザに関連付けられたユーザデバイスのセットに含まれた前記個々のユーザデバイスへの、前記個々の中心音声コンテンツを定義する前記音声情報の通信を実施することであって、その結果、前記第1の中心音声コンテンツを定義する前記音声情報が、第1のユーザに関連付けられた第1のユーザデバイスに通信され、前記第1のユーザデバイスに、前記視覚コンテンツおよび前記効果音声コンテンツの前記提示と同期して前記第1の中心音声コンテンツを提示させ、前記第2の中心音声コンテンツを定義する前記音声情報が、第2のユーザに関連付けられた第2のユーザデバイスに通信され、前記第2のユーザデバイスに、前記視覚コンテンツおよび前記効果音声コンテンツの前記提示と同期して前記第2の中心音声コンテンツを提示させる、実施することと、を行うように、機械可読命令によって構成された、1つ以上の物理プロセッサと、を備える、システム。
  2. 前記個々のユーザデバイスへの、前記個々の中心音声コンテンツを定義する前記音声情報の通信を実施することが、前記個々のユーザデバイスへの、前記中心音声コンテンツのセットを定義する前記音声情報の通信を実施することを含み、前記個々のユーザデバイスが、前記中心音声コンテンツのセットからの前記個々の中心音声コンテンツを選択的に提示するように構成されている、請求項1に記載のシステム。
  3. 前記個々の中心音声コンテンツが個々の対話音声コンテンツおよび中心効果音声を含み、前記個々の中心音声コンテンツにおける前記個々の対話音声コンテンツが所与の言語および/またはレーティングの対話を含む、請求項2に記載のシステム。
  4. 前記1つ以上の物理プロセッサが、
    前記個々のユーザデバイス上のユーザインターフェースの提示を実施することであって、前記ユーザインターフェースが、ユーザ入力ならびに/または個々の言語および/もしくは個々のレーティングの選択を取得するように構成されている、実施することと、
    前記ユーザ入力ならびに/または前記個々の言語および/もしくは個々のレーティングの選択に応答して、前記ユーザ入力ならびに/または前記個々の言語および/もしくは個々のレーティングの選択に対応する前記個々の中心音声コンテンツを選択的に提示することと、を行うように、前記機械可読命令によってさらに構成されている、請求項3に記載のシステム。
  5. 前記個々の中心音声コンテンツを定義する前記音声情報が、無線通信の個々の周波数に関連付けられ、前記個々のユーザデバイスへの、前記個々の中心音声コンテンツを定義する前記音声情報の通信を実施することが、無線通信の前記個々の周波数のうちの関連付けられた1つにおいて、前記個々の中心音声コンテンツを定義する前記音声情報を無線通信することを含む、請求項2に記載にシステム。
  6. 前記1つ以上の物理プロセッサが、
    前記個々のユーザデバイスの存在を検出し、前記個々のユーザデバイスの個々のユーザを識別することであって、前記第1のユーザデバイスの存在を検出することおよび前記第1のユーザを識別すること、ならびに前記第2のユーザデバイスの存在を検出することおよび前記第2のユーザを識別することを含む、検出し、識別することと、
    前記個々のユーザのためのユーザプロファイルを取得することであって、個々のユーザプロファイルが前記個々のユーザのための言語および/またはレーティング選好を示し、前記第1のユーザのための第1のユーザプロファイルおよび前記第2のユーザのための第2のユーザプロファイルを取得することを含む、取得することと、
    前記ユーザの前記ユーザプロファイルに基づいて、前記個々のユーザに関連付けられた前記個々のユーザデバイスに通信するために、前記個々の中心音声コンテンツを定義する前記音声情報を選択することであって、その結果、第1の言語および/または第1のレーティング選好を示す前記第1のユーザプロファイルに応答して、前記第1のユーザデバイスに通信される前記第1の中心音声コンテンツを定義する前記音声情報を選択し、第2の言語および/または第2のレーティング選好を示す前記第2のユーザプロファイルに応答して、前記第2のユーザデバイスに通信される前記第2の中心音声コンテンツを定義する前記音声情報を選択する、選択することと、を行うように、前記機械可読命令によってさらに構成されている、請求項1に記載のシステム。
  7. 前記個々のユーザデバイスが、可動である、請求項1に記載のシステム。
  8. 前記個々のユーザデバイスへの、前記個々の中心音声コンテンツを定義する前記音声情報の通信を実施することが、前記個々の中心音声コンテンツを定義する前記音声情報を、前記個々のユーザデバイスへとストリーミングすることを含む、請求項1に記載のシステム。
  9. 前記個々の中心音声コンテンツを定義する前記音声情報の、前記個々のユーザデバイスへの通信を実施することが無線通信を介する、請求項1に記載のシステム。
  10. 前記非一時的な電子記憶装置が、同期情報をさらに記憶し、前記同期情報が、前記視覚コンテンツ、前記効果音声コンテンツ、または前記個々の中心音声コンテンツのうちの2つ以上の同期された再生を容易にする、請求項1に記載のシステム。
  11. 選択的対話提示を容易にする方法であって、前記方法が、
    マルチメディア提示のためのメディア情報を記憶することであって、前記メディア情報が視覚情報および音声情報を含み、前記視覚情報が、前記マルチメディア提示の視覚コンテンツを定義し、前記音声情報が、効果音声コンテンツおよび前記マルチメディア提示の中心音声コンテンツのセットを定義し、前記効果音声コンテンツがサラウンド音響効果を含み、前記中心音声コンテンツのセットが別個かつ独特な中心音声コンテンツを含み、その結果、前記中心音声コンテンツのセットが第1の中心音声コンテンツおよび第2の中心音声コンテンツを含む、記憶することと、
    表示デバイス上で前記視覚コンテンツの提示を実施することと、
    音声提示デバイスのセットによって前記効果音声コンテンツの提示を実施することであって、前記効果音声コンテンツの前記提示が、前記視覚コンテンツの前記提示と同期している、実施することと、
    前記視覚コンテンツおよび前記効果音声コンテンツの前記提示と同期して個々の中心音声コンテンツを個々のユーザデバイスに提示させるように、ユーザに関連付けられたユーザデバイスのセットに含まれた前記個々のユーザデバイスへの、前記個々の中心音声コンテンツを定義する前記音声情報の通信を実施することであって、第1のユーザデバイスに、前記視覚コンテンツおよび前記効果音声コンテンツの前記提示に同期して前記第1の中心音声コンテンツを提示させるように、前記第1の中心音声コンテンツを定義する前記音声情報を第1のユーザに関連付けられた前記第1のユーザデバイスに通信すること、ならびに第2のユーザデバイスに、前記視覚コンテンツおよび前記効果音声コンテンツの前記提示に同期して前記第2の中心音声コンテンツを提示させるように、前記第2の中心音声コンテンツを定義する前記音声情報を第2のユーザに関連付けられた前記第2のユーザ装デバイスに通信することを含む、実施することと、を含む、方法。
  12. 前記個々のユーザデバイスへの、前記個々の中心音声コンテンツを定義する前記音声情報の通信を実施することが、前記個々のユーザデバイスへの、前記中心音声コンテンツのセットを定義する前記音声情報の通信を実施することを含み、前記個々のユーザデバイスが、前記中心音声コンテンツのセットからの前記個々の中心音声コンテンツを選択的に提示するように構成されている、請求項11に記載の方法。
  13. 前記個々の中心音声コンテンツが、個々の対話音声コンテンツおよび中心効果音声を含み、前記個々の中心音声コンテンツにおける前記個々の対話音声コンテンツが、所与の言語および/またはレーティングの対話を含む、請求項12に記載の方法。
  14. 前記個々のユーザデバイス上のユーザインターフェースの提示を実施することであって、前記ユーザインターフェースが、ユーザ入力ならびに/または個々の言語および/もしくは個々のレーティングの選択を取得するように構成されている、実施することと、
    前記ユーザ入力ならびに/または前記個々の言語および/もしくは個々のレーティングの選択に応答して、前記ユーザ入力ならびに/または前記個々の言語および/もしくは個々のレーティングの選択に対応する前記個々の中心音声コンテンツを選択的に提示することと、をさらに含む、請求項13に記載の方法。
  15. 前記個々の中心音声コンテンツを定義する前記音声情報が、無線通信の個々の周波数に関連付けられ、前記個々のユーザデバイスへの、前記個々の中心音声コンテンツを定義する前記音声情報の通信を実施することが、無線通信の前記個々の周波数のうちの関連付けられた1つにおいて、前記個々の中心音声コンテンツを定義する前記音声情報を無線通信することを含む、請求項12に記載の方法。
  16. 前記個々のユーザデバイスの存在を検出し、前記個々のユーザデバイスの個々のユーザを識別することであって、前記第1のユーザデバイスの存在を検出することおよび前記第1のユーザを識別すること、ならびに前記第2のユーザデバイスの存在を検出することおよび前記第2のユーザを識別することを含む、検出し、識別することと、
    前記個々のユーザのためのユーザプロファイルを取得することであって、個々のユーザプロファイルが前記個々のユーザのための言語および/またはレーティング選好を示し、前記第1のユーザのための第1のユーザプロファイルおよび前記第2のユーザのための第2のユーザプロファイルを取得することを含む、取得することと、
    前記ユーザの前記ユーザプロファイルに基づいて、前記個々のユーザに関連付けられた前記個々のユーザデバイスに通信するために、前記個々の中心音声コンテンツを定義する前記音声情報を選択することであって、第1の言語および/または第1のレーティング選好を示す前記第1のユーザプロファイルに応答して、前記第1のユーザデバイスに通信される前記第1の中心音声コンテンツを定義する前記音声情報を選択すること、および第2の言語および/または第2のレーティング選好を示す前記第2のユーザプロファイルに応答して、前記第2のユーザデバイスに通信される前記第2の中心音声コンテンツを定義する前記音声情報を選択することを含む、選択することと、をさらに含む、請求項11に記載の方法。
  17. 前記個々のユーザデバイスが、可動である、請求項11に記載の方法。
  18. 前記個々のユーザデバイスへの、前記個々の中心音声コンテンツを定義する前記音声情報の通信を実施することが、前記個々の中心音声コンテンツを定義する前記音声情報を、前記個々のユーザデバイスへとストリーミングすることを含む、請求項11に記載の方法。
  19. 前記個々のユーザデバイスへの、前記個々の中心音声コンテンツを定義する前記音声情報の通信を実施することが、無線通信を介する、請求項11に記載の方法。
  20. 同期情報を記憶することであって、前記同期情報が、前記視覚コンテンツ、前記効果音声コンテンツ、または前記個々の中心音声コンテンツのうちの2つ以上の同期された再生を容易にする、記憶することをさらに含む、請求項11に記載の方法。
JP2021020419A 2020-02-14 2021-02-12 選択的対話提示を容易にするためのシステムおよび方法 Pending JP2021128775A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/791,694 2020-02-14
US16/791,694 US10917451B1 (en) 2020-02-14 2020-02-14 Systems and methods to facilitate selective dialogue presentation

Publications (1)

Publication Number Publication Date
JP2021128775A true JP2021128775A (ja) 2021-09-02

Family

ID=74537179

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021020419A Pending JP2021128775A (ja) 2020-02-14 2021-02-12 選択的対話提示を容易にするためのシステムおよび方法

Country Status (4)

Country Link
US (1) US10917451B1 (ja)
EP (1) EP3869796A1 (ja)
JP (1) JP2021128775A (ja)
CN (2) CN118200658A (ja)

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1042567A (en) 1912-10-29 Kuenzel Gas Producer & Smelter Construction Process for producing combustible gas.
US20020016736A1 (en) 2000-05-03 2002-02-07 Cannon George Dewey System and method for determining suitable breaks for inserting content
US6483568B1 (en) * 2001-06-29 2002-11-19 Harris Corporation Supplemental audio content system for a cinema and related methods
KR101121778B1 (ko) 2004-01-06 2012-03-23 삼성전자주식회사 무선으로 영상기기 주변의 기기를 제어하는 방법 및 장치
US20080181585A1 (en) 2007-01-26 2008-07-31 Disney Enterprises, Inc. System and Method for Allocating Excess Capacity on a Storage Medium
US20090288120A1 (en) 2008-05-15 2009-11-19 Motorola, Inc. System and Method for Creating Media Bookmarks from Secondary Device
US8463100B2 (en) 2009-11-05 2013-06-11 Cosmo Research Company Limited System and method for identifying, providing, and presenting content on a mobile device
GB201017174D0 (en) * 2010-10-12 2010-11-24 Muvemedia Ltd System and method for delivering multilingual video or film sound tracks or multilingual spoken or sung dialog for synchronization and playback
US20120095749A1 (en) * 2010-10-14 2012-04-19 Antonio Capretta Multi-functional audio distribution system and method for movie theaters and other public and private venues
US9565426B2 (en) 2010-11-12 2017-02-07 At&T Intellectual Property I, L.P. Lip sync error detection and correction
US9697871B2 (en) * 2011-03-23 2017-07-04 Audible, Inc. Synchronizing recorded audio content and companion content
US9131551B2 (en) 2012-06-11 2015-09-08 Disney Enterprises, Inc. Coordinated visual presentation using audience display devices
CN104469255A (zh) 2013-09-16 2015-03-25 杜比实验室特许公司 改进的音频或视频会议
US9788084B2 (en) 2013-04-05 2017-10-10 NBCUniversal, LLC Content-object synchronization and authoring of dynamic metadata
CN106464953B (zh) * 2014-04-15 2020-03-27 克里斯·T·阿纳斯塔斯 双声道音频系统和方法
US9833723B2 (en) 2014-12-31 2017-12-05 Opentv, Inc. Media synchronized control of peripherals
US10284809B1 (en) * 2016-11-07 2019-05-07 Gopro, Inc. Systems and methods for intelligently synchronizing events in visual content with musical features in audio content
CN106954139A (zh) * 2017-04-19 2017-07-14 音曼(北京)科技有限公司 一种联合耳机和扬声器的声场渲染方法及系统
US10439835B2 (en) * 2017-08-09 2019-10-08 Adobe Inc. Synchronized accessibility for client devices in an online conference collaboration
US10560502B2 (en) 2017-08-24 2020-02-11 OpenExchange, Inc. Method to re-synchronize live media streams, commands, and on-screen events transmitted through different internet pathways

Also Published As

Publication number Publication date
US10917451B1 (en) 2021-02-09
CN113271492A (zh) 2021-08-17
CN118200658A (zh) 2024-06-14
EP3869796A1 (en) 2021-08-25

Similar Documents

Publication Publication Date Title
US10891105B1 (en) Systems and methods for displaying a transitional graphical user interface while loading media information for a networked media playback system
US10514885B2 (en) Apparatus and method for controlling audio mixing in virtual reality environments
US20190139312A1 (en) An apparatus and associated methods
JP6334552B2 (ja) ステージパフォーマンスから導かれるデータに基づきアンビエントライティング効果を生成する方法
US11711879B2 (en) Systems and methods for emulating an environment created by the outputs of a plurality of devices
WO2018126613A1 (zh) 一种音频数据播放方法和双屏移动终端
JP2019165466A (ja) 相互作用視聴覚映画を再生する装置、方法およびコンピュータプログラム
US20170092253A1 (en) Karaoke system
GB2550877A (en) Object-based audio rendering
EP3874912A1 (en) Selecting a method for extracting a color for a light effect from video content
US11510300B2 (en) Determinning light effects based on video and audio information in dependence on video and audio weights
US10172221B2 (en) Method of controlling lighting sources, corresponding system and computer program product
CN105430449B (zh) 媒体文件播放方法、装置及系统
JP7037654B2 (ja) キャプチャされた空間オーディオコンテンツの提示用の装置および関連する方法
JP2021128775A (ja) 選択的対話提示を容易にするためのシステムおよび方法
US20220295135A1 (en) Video providing system and program
EP3321795B1 (en) A method and associated apparatuses
JP6324829B2 (ja) 映像提供システムおよびプロラム
JP5581437B1 (ja) 映像提供システムおよびプロラム
US20230007752A1 (en) Sound and Light Experiences
US20230276108A1 (en) Apparatus and method for providing audio description content
US20220284648A1 (en) Context real avatar audience creation during live video sharing
Filimowicz An audiovisual colocation display system
WO2023235659A1 (en) Contextual user interface element detection
KR20190081160A (ko) 입체 음향 컨텐츠 저작 툴을 이용한 광고 제공 방법 및 이를 위한 어플리케이션

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231117