JPWO2019188393A1 - 情報処理装置、情報処理方法、送信装置、及び送信方法 - Google Patents
情報処理装置、情報処理方法、送信装置、及び送信方法 Download PDFInfo
- Publication number
- JPWO2019188393A1 JPWO2019188393A1 JP2020510644A JP2020510644A JPWO2019188393A1 JP WO2019188393 A1 JPWO2019188393 A1 JP WO2019188393A1 JP 2020510644 A JP2020510644 A JP 2020510644A JP 2020510644 A JP2020510644 A JP 2020510644A JP WO2019188393 A1 JPWO2019188393 A1 JP WO2019188393A1
- Authority
- JP
- Japan
- Prior art keywords
- voice
- voice response
- response
- content
- timing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 81
- 230000010365 information processing Effects 0.000 title claims abstract description 60
- 238000003672 processing method Methods 0.000 title claims abstract description 11
- 230000005540 biological transmission Effects 0.000 title claims description 42
- 230000004044 response Effects 0.000 claims abstract description 672
- 238000004891 communication Methods 0.000 claims description 160
- 238000012545 processing Methods 0.000 claims description 140
- 230000006870 function Effects 0.000 claims description 18
- 238000005516 engineering process Methods 0.000 abstract description 29
- 230000008569 process Effects 0.000 description 60
- 238000004458 analytical method Methods 0.000 description 52
- 238000007726 management method Methods 0.000 description 36
- 238000010586 diagram Methods 0.000 description 17
- 238000011161 development Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 6
- 230000010267 cellular communication Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 238000013523 data management Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 210000001072 colon Anatomy 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42203—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/09—Arrangements for device control with a direct linkage to broadcast information or to broadcast space-time; Arrangements for control of broadcast-related services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/76—Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet
- H04H60/81—Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet characterised by the transmission system itself
- H04H60/82—Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet characterised by the transmission system itself the transmission system being the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4394—Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/458—Scheduling content for creating a personalised stream, e.g. by combining a locally stored advertisement with an incoming stream; Updating operations, e.g. for OS modules ; time-related management operations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
- H04N21/4825—End-user interface for program selection using a list of items to be played back in a given order, e.g. playlists
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Social Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
2.本技術の実施の形態
(1)第1の実施の形態:音声応答時間に基づいた音声応答のタイミング制御を行う構成
(2)第2の実施の形態:視聴者からの指示発話に基づいた音声応答のタイミング制御を行う構成
(3)第3の実施の形態:音声応答時間に基づいた音声応答のタイミング制御時に、視聴者からの指示発話に基づいた音声応答のタイミング制御を行う構成
3.変形例
4.コンピュータの構成
図1は、本技術を適用したコンテンツ・音声AI連携システムの一実施の形態の構成の例を示すブロック図である。
図3は、第1の実施の形態の構成の第1の例を示す図である。
図4は、第1の実施の形態の各装置の詳細な構成の第1の例を示すブロック図である。
2つ目の音声応答タイミング:2018-01-29 18:01:05 〜 2018-01-29 18:01:55
3つ目の音声応答タイミング:2018-01-29 18:02:05 〜 2018-01-29 18:02:55
4つ目の音声応答タイミング:2018-01-29 18:03:05 〜 2018-01-29 18:03:55
・・・
次に、図8のフローチャートを参照して、第1の実施の形態の各装置の処理の第1の例の流れを説明する。
図9は、第1の実施の形態の構成の第2の例を示す図である。
図10は、第1の実施の形態の各装置の詳細な構成の第2の例を示すブロック図である。
2つ目の音声応答タイミング:2018-01-29 18:01:05 〜 2018-01-29 18:01:55
3つ目の音声応答タイミング:2018-01-29 18:02:05 〜 2018-01-29 18:02:55
4つ目の音声応答タイミング:2018-01-29 18:03:05 〜 2018-01-29 18:03:55
・・・
次に、図13のフローチャートを参照して、第1の実施の形態の各装置の処理の第2の例の流れを説明する。
図14は、第2の実施の形態の構成の例を示す図である。
図15は、第2の実施の形態の各装置の詳細な構成の例を示すブロック図である。
次に、図16のフローチャートを参照して、第2の実施の形態の各装置の処理の流れを説明する。
図17は、第3の実施の形態の各装置の詳細な構成の第1の例を示すブロック図である。
次に、図18のフローチャートを参照して、第3の実施の形態の各装置の処理の第1の例の流れを説明する。
図19は、第3の実施の形態の各装置の詳細な構成の第2の例を示すブロック図である。
次に、図20のフローチャートを参照して、第3の実施の形態の各装置の処理の第2の例の流れを説明する。
上述した説明では、受信装置20と音声ユーザインタフェース装置30とが別の装置であると説明したが、例えば、図21に示すように、それらの装置を一体化して1つの装置(情報処理装置)として構成されるようにしてもよい。
放送配信システム10から受信装置20に送られる放送信号(デジタル放送信号)を伝送するための放送方式としては、例えば、米国等で採用されている方式であるATSC(Advanced Television Systems Committee)のほか、日本等が採用する方式であるISDB(Integrated Services Digital Broadcasting)や、欧州の各国等が採用する方式であるDVB(Digital Video Broadcasting)などを適用することができる。また、その伝送路としては、地上波放送に限らず、例えば、放送衛星(BS:Broadcasting Satellite)や通信衛星(CS:Communications Satellite)等を利用した衛星放送や、ケーブルテレビ(CATV:Cable Television)等の有線放送などにも適用することができる。
なお、上述した説明では、配信対象のコンテンツとして、番組やCMを例示したが、本技術が適用されるコンテンツには、動画や音楽のほか、例えば、電子書籍やゲーム、広告など、あらゆるコンテンツが含まれる。また、上述した説明では、コンテンツの配信経路として、放送配信システム10による放送経由での配信を説明したが、OTT(Over The Top)サービス等を提供する通信配信システムによって、通信経由でストリーミング配信されるようにしてもよい。さらに、番組等のコンテンツを構成するコンポーネント(例えば、映像や音声、字幕など)の全部が、放送経由又は通信経由で配信されるようにしてもよいし、コンポーネントの一部が放送経由又は通信経由で配信される(残りの一部は通信経由又は放送経由で配信される)ようにしてもよい。
なお、本明細書で使用している名称は、一例であって、実際には、他の名称が用いられる場合がある。ただし、これらの名称の違いは、形式的な違いであって、対象のものの実質的な内容が異なるものではない。例えば、上述した「スキル」は、「アクション」や「アプリケーション」などと称される場合がある。また、上述した「AIアシスタンスサービス」は、「AIアシスタントサービス」などと称される場合がある。
コンテンツに連携した音声AIアシスタンスサービスを利用するに際し、前記コンテンツを視聴する視聴者の発話に対する音声応答に適した時間を示す音声応答時間情報に基づいて、前記音声応答のタイミングを制御する制御部を備える
情報処理装置。
(2)
前記音声応答時間情報は、前記コンテンツの再生時間軸上における前記音声応答に適した時間を示す情報である
前記(1)に記載の情報処理装置。
(3)
前記音声応答時間情報は、通信経由で取得される
前記(1)又は(2)に記載の情報処理装置。
(4)
前記コンテンツは、第1の装置により再生され、
前記音声応答時間情報は、第2の装置により通信経由で配信され、
前記第2の装置では、前記コンテンツの再生時間軸上の全部又は一部の時間を対象とした前記音声応答時間情報を含むメタデータから、前記第1の装置により再生中の前記コンテンツに対する前記音声応答に適した時間を示す前記音声応答時間情報が抽出されて配信され、
前記制御部は、通信経由で配信された前記音声応答時間情報に基づいて、前記音声応答のタイミングを制御する
前記(3)に記載の情報処理装置。
(5)
前記音声応答時間情報は、放送経由で取得される
前記(1)又は(2)に記載の情報処理装置。
(6)
前記コンテンツは、第1の装置により再生され、
前記音声応答時間情報は、第2の装置により放送経由で配信され、
前記第2の装置では、前記コンテンツの再生時間軸上の全部又は一部の時間を対象とした前記音声応答時間情報を含むメタデータが配信され、
前記第1の装置では、放送経由で配信された前記メタデータから、再生中の前記コンテンツに対する前記音声応答に適した時間を示す前記音声応答時間情報が抽出され、
前記制御部は、前記第1の装置により抽出された前記音声応答時間情報に基づいて、前記音声応答のタイミングを制御する
前記(5)に記載の情報処理装置。
(7)
前記制御部は、前記視聴者の発話に基づいて、前記音声応答のタイミングを制御する
前記(1)乃至(6)のいずれかに記載の情報処理装置。
(8)
前記制御部は、前記音声応答のタイミングとなるまで待機する際に、当該待機中であることを示す情報が提示されるようにする
前記(7)に記載の情報処理装置。
(9)
前記制御部は、前記視聴者により前記音声応答の開始指示がなされた場合、待機中の前記音声応答を開始するようにする
前記(7)に記載の情報処理装置。
(10)
前記制御部は、前記音声応答のタイミングとなるまで待機する場合、待機中であることを示す第1のメッセージを、前記コンテンツを再生中である第1の装置に通知し、
前記第1の装置では、通知された前記第1のメッセージに基づいて、待機中であることを示すアイコンを表示するようにし
前記制御部は、前記視聴者により前記音声応答の開始指示がなされた場合、待機中の前記音声応答の待機が解除されたことを示す第2のメッセージを、前記第1の装置に通知し、
前記第1の装置では、通知された前記第2のメッセージに基づいて、待機中であることを示すアイコンの表示を消すようにする
前記(9)に記載の情報処理装置。
(11)
前記音声応答時間情報は、前記音声応答に適した時間として、再生中の前記コンテンツの発話音声の出力のない時間を含む
前記(2)に記載の情報処理装置。
(12)
前記コンテンツは、放送経由で配信される放送コンテンツであり、
前記音声応答は、前記放送コンテンツを視聴する視聴者の発話に対する応答である
前記(1)乃至(11)のいずれかに記載の情報処理装置。
(13)
前記音声応答時間情報は、HTTPレスポンスを利用して、前記音声応答の音声データとともに、通信経由で配信される
前記(3)又は(4)に記載の情報処理装置。
(14)
前記コンテンツは、MPEG-DASHに準拠したストリームとして、放送経由で配信され、
前記音声応答時間情報は、MPDを利用して、放送経由で配信される
前記(5)又は(6)に記載の情報処理装置。
(15)
前記音声AIアシスタンスサービスのユーザインタフェースとして機能する音声処理装置として構成される
前記(1)乃至(14)のいずれかに記載の情報処理装置。
(16)
放送経由で配信される前記コンテンツを受信して再生する受信装置として構成される
前記(1)乃至(14)のいずれかに記載の情報処理装置。
(17)
情報処理装置の情報処理方法において、
前記情報処理装置が、
コンテンツに連携した音声AIアシスタンスサービスを利用するに際し、前記コンテンツを視聴する視聴者の発話に対する音声応答に適した時間を示す音声応答時間情報に基づいて、前記音声応答のタイミングを制御する
情報処理方法。
(18)
コンテンツに連携した音声AIアシスタンスサービスを利用するに際し、前記コンテンツを視聴する視聴者の発話に対する音声応答に適した時間を示す音声応答時間情報を含むメタデータを生成する生成部と、
生成した前記メタデータを送信する送信部と
を備える送信装置。
(19)
前記生成部は、前記コンテンツの再生時間軸上の全部又は一部の時間を対象とした前記音声応答時間情報を、前記音声AIアシスタンスサービスに用いられることを識別するための識別情報により識別可能に表現されたMPDを生成し、
前記送信部は、前記MPDとともに、前記コンテンツを、MPEG-DASHに準拠したストリームとして、放送経由で配信する
前記(18)に記載の送信装置。
(20)
送信装置の送信方法において、
前記送信装置が、
コンテンツに連携した音声AIアシスタンスサービスを利用するに際し、前記コンテンツを視聴する視聴者の発話に対する音声応答に適した時間を示す音声応答時間情報を含むメタデータを生成し、
生成した前記メタデータを送信する
送信方法。
Claims (20)
- コンテンツに連携した音声AIアシスタンスサービスを利用するに際し、前記コンテンツを視聴する視聴者の発話に対する音声応答に適した時間を示す音声応答時間情報に基づいて、前記音声応答のタイミングを制御する制御部を備える
情報処理装置。 - 前記音声応答時間情報は、前記コンテンツの再生時間軸上における前記音声応答に適した時間を示す情報である
請求項1に記載の情報処理装置。 - 前記音声応答時間情報は、通信経由で取得される
請求項2に記載の情報処理装置。 - 前記コンテンツは、第1の装置により再生され、
前記音声応答時間情報は、第2の装置により通信経由で配信され、
前記第2の装置では、前記コンテンツの再生時間軸上の全部又は一部の時間を対象とした前記音声応答時間情報を含むメタデータから、前記第1の装置により再生中の前記コンテンツに対する前記音声応答に適した時間を示す前記音声応答時間情報が抽出されて配信され、
前記制御部は、通信経由で配信された前記音声応答時間情報に基づいて、前記音声応答のタイミングを制御する
請求項3に記載の情報処理装置。 - 前記音声応答時間情報は、放送経由で取得される
請求項2に記載の情報処理装置。 - 前記コンテンツは、第1の装置により再生され、
前記音声応答時間情報は、第2の装置により放送経由で配信され、
前記第2の装置では、前記コンテンツの再生時間軸上の全部又は一部の時間を対象とした前記音声応答時間情報を含むメタデータが配信され、
前記第1の装置では、放送経由で配信された前記メタデータから、再生中の前記コンテンツに対する前記音声応答に適した時間を示す前記音声応答時間情報が抽出され、
前記制御部は、前記第1の装置により抽出された前記音声応答時間情報に基づいて、前記音声応答のタイミングを制御する
請求項5に記載の情報処理装置。 - 前記制御部は、前記視聴者の発話に基づいて、前記音声応答のタイミングを制御する
請求項1に記載の情報処理装置。 - 前記制御部は、前記音声応答のタイミングとなるまで待機する際に、当該待機中であることを示す情報が提示されるようにする
請求項7に記載の情報処理装置。 - 前記制御部は、前記視聴者により前記音声応答の開始指示がなされた場合、待機中の前記音声応答を開始するようにする
請求項8に記載の情報処理装置。 - 前記制御部は、前記音声応答のタイミングとなるまで待機する場合、待機中であることを示す第1のメッセージを、前記コンテンツを再生中である第1の装置に通知し、
前記第1の装置では、通知された前記第1のメッセージに基づいて、待機中であることを示すアイコンを表示するようにし、
前記制御部は、前記視聴者により前記音声応答の開始指示がなされた場合、待機中の前記音声応答の待機が解除されたことを示す第2のメッセージを、前記第1の装置に通知し、
前記第1の装置では、通知された前記第2のメッセージに基づいて、待機中であることを示すアイコンの表示を消すようにする
請求項9に記載の情報処理装置。 - 前記音声応答時間情報は、前記音声応答に適した時間として、再生中の前記コンテンツの発話音声の出力のない時間を含む
請求項2に記載の情報処理装置。 - 前記コンテンツは、放送経由で配信される放送コンテンツであり、
前記音声応答は、前記放送コンテンツを視聴する視聴者の発話に対する応答である
請求項1に記載の情報処理装置。 - 前記音声応答時間情報は、HTTPレスポンスを利用して、前記音声応答の音声データとともに、通信経由で配信される
請求項4に記載の情報処理装置。 - 前記コンテンツは、MPEG-DASHに準拠したストリームとして、放送経由で配信され、
前記音声応答時間情報は、MPDを利用して、放送経由で配信される
請求項6に記載の情報処理装置。 - 前記音声AIアシスタンスサービスのユーザインタフェースとして機能する音声処理装置として構成される
請求項1に記載の情報処理装置。 - 放送経由で配信される前記コンテンツを受信して再生する受信装置として構成される
請求項1に記載の情報処理装置。 - 情報処理装置の情報処理方法において、
前記情報処理装置が、
コンテンツに連携した音声AIアシスタンスサービスを利用するに際し、前記コンテンツを視聴する視聴者の発話に対する音声応答に適した時間を示す音声応答時間情報に基づいて、前記音声応答のタイミングを制御する
情報処理方法。 - コンテンツに連携した音声AIアシスタンスサービスを利用するに際し、前記コンテンツを視聴する視聴者の発話に対する音声応答に適した時間を示す音声応答時間情報を含むメタデータを生成する生成部と、
生成した前記メタデータを送信する送信部と
を備える送信装置。 - 前記生成部は、前記コンテンツの再生時間軸上の全部又は一部の時間を対象とした前記音声応答時間情報を、前記音声AIアシスタンスサービスに用いられることを識別するための識別情報により識別可能に表現されたMPDを生成し、
前記送信部は、前記MPDとともに、前記コンテンツを、MPEG-DASHに準拠したストリームとして、放送経由で配信する
請求項18に記載の送信装置。 - 送信装置の送信方法において、
前記送信装置が、
コンテンツに連携した音声AIアシスタンスサービスを利用するに際し、前記コンテンツを視聴する視聴者の発話に対する音声応答に適した時間を示す音声応答時間情報を含むメタデータを生成し、
生成した前記メタデータを送信する
送信方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018064977 | 2018-03-29 | ||
JP2018064977 | 2018-03-29 | ||
PCT/JP2019/010762 WO2019188393A1 (ja) | 2018-03-29 | 2019-03-15 | 情報処理装置、情報処理方法、送信装置、及び送信方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019188393A1 true JPWO2019188393A1 (ja) | 2021-04-15 |
JP7366003B2 JP7366003B2 (ja) | 2023-10-20 |
Family
ID=68058377
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020510644A Active JP7366003B2 (ja) | 2018-03-29 | 2019-03-15 | 情報処理装置、情報処理方法、送信装置、及び送信方法 |
Country Status (6)
Country | Link |
---|---|
US (2) | US11438650B2 (ja) |
EP (1) | EP3780640A4 (ja) |
JP (1) | JP7366003B2 (ja) |
KR (1) | KR102630037B1 (ja) |
CN (1) | CN111903138A (ja) |
WO (1) | WO2019188393A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111243587A (zh) * | 2020-01-08 | 2020-06-05 | 北京松果电子有限公司 | 语音交互方法、装置、设备及存储介质 |
WO2022180882A1 (ja) * | 2021-02-25 | 2022-09-01 | パナソニックIpマネジメント株式会社 | 音声制御方法、サーバ装置、及び、発話体 |
CN115565535B (zh) * | 2022-09-21 | 2024-04-12 | 南京浮点智算数字科技有限公司 | 一种智能语音客服系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008301362A (ja) * | 2007-06-01 | 2008-12-11 | Toshiba Corp | 移動無線端末装置 |
JP2011086232A (ja) * | 2009-10-19 | 2011-04-28 | Sharp Corp | ネットワークシステム、通信方法、通信機器、および通信プログラム |
JP2016192121A (ja) * | 2015-03-31 | 2016-11-10 | ソニー株式会社 | 制御装置、制御方法及びコンピュータプログラム |
US20170329848A1 (en) * | 2016-05-13 | 2017-11-16 | Google Inc. | Personalized and Contextualized Audio Briefing |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6993606B1 (en) * | 1999-11-18 | 2006-01-31 | Sony Corporation | Communication method and communication apparatus for data communication between devices connected by a network |
US20080208589A1 (en) * | 2007-02-27 | 2008-08-28 | Cross Charles W | Presenting Supplemental Content For Digital Media Using A Multimodal Application |
EP1998478A2 (en) | 2007-06-01 | 2008-12-03 | Kabushiki Kaisha Toshiba | Mobile communication device |
JP2008306426A (ja) | 2007-06-07 | 2008-12-18 | Toshiba Corp | 携帯電話機 |
JP4774115B2 (ja) | 2009-07-21 | 2011-09-14 | 富士通東芝モバイルコミュニケーションズ株式会社 | 移動無線端末装置 |
JP5903939B2 (ja) * | 2012-03-08 | 2016-04-13 | ソニー株式会社 | 受信装置、受信方法、及びプログラム |
JP2014153663A (ja) | 2013-02-13 | 2014-08-25 | Sony Corp | 音声認識装置、および音声認識方法、並びにプログラム |
CN104284249A (zh) * | 2013-07-11 | 2015-01-14 | 腾讯科技(深圳)有限公司 | 视频播放方法及装置 |
WO2015195950A1 (en) | 2014-06-20 | 2015-12-23 | Principia Biophamram Inc. | Lmp7 inhibitors |
US10659851B2 (en) * | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
WO2017197329A1 (en) | 2016-05-13 | 2017-11-16 | Google Llc | Personalized and contextualized audio briefing |
WO2017197184A1 (en) | 2016-05-13 | 2017-11-16 | Google Llc | Led design language for visual affordance of voice user interfaces |
US10332513B1 (en) * | 2016-06-27 | 2019-06-25 | Amazon Technologies, Inc. | Voice enablement and disablement of speech processing functionality |
US10271093B1 (en) * | 2016-06-27 | 2019-04-23 | Amazon Technologies, Inc. | Systems and methods for routing content to an associated output device |
WO2018005334A1 (en) | 2016-06-27 | 2018-01-04 | Amazon Technologies, Inc. | Systems and methods for routing content to an associated output device |
US20180081618A1 (en) * | 2016-09-16 | 2018-03-22 | Lenovo Enterprise Solutions (Singapore) Pte. Ltd. | Audio segment playback coordination |
US10033870B1 (en) * | 2017-04-12 | 2018-07-24 | Noble Systems Corporation | Agent interaction with a party using multiple channels of communication |
US20190034542A1 (en) * | 2017-07-26 | 2019-01-31 | Scripps Networks Interactive, Inc. | Intelligent agent system and method of accessing and delivering digital files |
US11025919B2 (en) * | 2017-10-03 | 2021-06-01 | Koninklijke Kpn N.V. | Client-based adaptive streaming of nonlinear media |
-
2019
- 2019-03-15 EP EP19774967.4A patent/EP3780640A4/en active Pending
- 2019-03-15 JP JP2020510644A patent/JP7366003B2/ja active Active
- 2019-03-15 US US16/976,995 patent/US11438650B2/en active Active
- 2019-03-15 WO PCT/JP2019/010762 patent/WO2019188393A1/ja active Application Filing
- 2019-03-15 CN CN201980021237.9A patent/CN111903138A/zh active Pending
- 2019-03-15 KR KR1020207025449A patent/KR102630037B1/ko active IP Right Grant
-
2022
- 2022-07-26 US US17/873,209 patent/US11930248B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008301362A (ja) * | 2007-06-01 | 2008-12-11 | Toshiba Corp | 移動無線端末装置 |
JP2011086232A (ja) * | 2009-10-19 | 2011-04-28 | Sharp Corp | ネットワークシステム、通信方法、通信機器、および通信プログラム |
JP2016192121A (ja) * | 2015-03-31 | 2016-11-10 | ソニー株式会社 | 制御装置、制御方法及びコンピュータプログラム |
US20170329848A1 (en) * | 2016-05-13 | 2017-11-16 | Google Inc. | Personalized and Contextualized Audio Briefing |
Non-Patent Citations (5)
Title |
---|
「色んなサイトをタイムトラベル・「WAYBACK MACHINE」が装いも新たにΒ版として新ドメインでスタート」, JPN6011009926, 29 January 2011 (2011-01-29), ISSN: 0005033750 * |
STITCHER: ""Our Stitcher Alexa Skill"", STITCHER BLOG, JPN6019013150, 9 November 2017 (2017-11-09), pages 1 - 7, XP055638619, ISSN: 0005033749 * |
TAYLOR MARTIN, ET AL., "THE COMPLETE LIST OF ALEXA COMMANDS SO FAR", JPN6019013147, 20 April 2017 (2017-04-20), pages 1 - 11, ISSN: 0005033748 * |
押切 孝雄(外1名), 「はじめてでもよくわかる! WEBマーケティング集中講義」, vol. 初版, JPN6023013969, 17 April 2014 (2014-04-17), JP, pages 64 - 66, ISSN: 0005033752 * |
玉生 洋一, 「WINDOWS8 倍速・時短技ユーザー・ハンドブック」, vol. 第1版, JPN6023013968, 3 June 2013 (2013-06-03), JP, pages 242, ISSN: 0005033751 * |
Also Published As
Publication number | Publication date |
---|---|
US11930248B2 (en) | 2024-03-12 |
EP3780640A1 (en) | 2021-02-17 |
US20210006862A1 (en) | 2021-01-07 |
US11438650B2 (en) | 2022-09-06 |
EP3780640A4 (en) | 2021-02-17 |
JP7366003B2 (ja) | 2023-10-20 |
US20220360849A1 (en) | 2022-11-10 |
KR102630037B1 (ko) | 2024-01-29 |
CN111903138A (zh) | 2020-11-06 |
KR20200136382A (ko) | 2020-12-07 |
WO2019188393A1 (ja) | 2019-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9131256B2 (en) | Method and apparatus for synchronizing content playback | |
RU2534977C2 (ru) | Устройство обработки информации, способ управления данными и программа | |
US11930248B2 (en) | Information processing apparatus, information processing method, transmission apparatus, and transmission method | |
US11115335B2 (en) | Information processing device and information processing method | |
US9032452B2 (en) | Method and apparatus for simulating head-end connectivity on a set-top box | |
KR102640835B1 (ko) | 송신 장치, 수신 장치, 및 데이터 처리 방법 | |
JP2005269607A (ja) | インスタント対話型オーディオ/ビデオ管理システム | |
JP2009303062A (ja) | 放送受信端末、放送データ合成方法、プログラムおよび記録媒体 | |
JP2010245773A (ja) | コンテンツ配信システム、コンテンツ受信端末、コンテンツの配信方法およびプログラム | |
KR102408267B1 (ko) | 수신 장치, 송신 장치 및 데이터 처리 방법 | |
JPWO2016174959A1 (ja) | 受信装置、送信装置、およびデータ処理方法 | |
KR20050101791A (ko) | 맞춤형 프로그램 컨텐츠 제공 방법 및 시스템 | |
KR102628917B1 (ko) | 송신 장치, 수신 장치, 및 데이터 처리 방법 | |
JP6647131B2 (ja) | 配信装置及びプログラム | |
US11343588B2 (en) | Information processing apparatus, information processing method, transmission apparatus, and transmission method | |
JP2022183550A (ja) | 受信装置、クライアント端末装置、およびプログラム | |
JP2017092601A (ja) | 受信機およびプログラム | |
KR20140134097A (ko) | 클라우드 환경에서 녹화 서비스 제공 방법 및 장치 | |
JP2003116119A (ja) | 視聴者参加型放送番組配信方法、この方法に用いる送信システム及び受信システム | |
JP2019092227A (ja) | 映像受信装置、映像受信方法、映像送信装置および映像送信方法 | |
JP2014232978A (ja) | デジタル放送受信装置 | |
JP2020102740A (ja) | 送受信システム及び送受信方法 | |
US20100071006A1 (en) | Broadcast receiving apparatus and method for providing and receiving an edited broadcast thereof | |
JP2015167400A (ja) | 情報処理装置、データ管理方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220309 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230411 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230607 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20230810 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230912 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231010 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7366003 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |