JPWO2019188393A1 - 情報処理装置、情報処理方法、送信装置、及び送信方法 - Google Patents

情報処理装置、情報処理方法、送信装置、及び送信方法 Download PDF

Info

Publication number
JPWO2019188393A1
JPWO2019188393A1 JP2020510644A JP2020510644A JPWO2019188393A1 JP WO2019188393 A1 JPWO2019188393 A1 JP WO2019188393A1 JP 2020510644 A JP2020510644 A JP 2020510644A JP 2020510644 A JP2020510644 A JP 2020510644A JP WO2019188393 A1 JPWO2019188393 A1 JP WO2019188393A1
Authority
JP
Japan
Prior art keywords
voice
voice response
response
content
timing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020510644A
Other languages
English (en)
Other versions
JP7366003B2 (ja
Inventor
卓己 津留
卓己 津留
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2019188393A1 publication Critical patent/JPWO2019188393A1/ja
Application granted granted Critical
Publication of JP7366003B2 publication Critical patent/JP7366003B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/09Arrangements for device control with a direct linkage to broadcast information or to broadcast space-time; Arrangements for control of broadcast-related services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/76Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet
    • H04H60/81Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet characterised by the transmission system itself
    • H04H60/82Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet characterised by the transmission system itself the transmission system being the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/458Scheduling content for creating a personalised stream, e.g. by combining a locally stored advertisement with an incoming stream; Updating operations, e.g. for OS modules ; time-related management operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4825End-user interface for program selection using a list of items to be played back in a given order, e.g. playlists
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本技術は、コンテンツに連携して利用される音声AIアシスタンスサービスの利便性を向上させることができるようにする情報処理装置、情報処理方法、送信装置、及び送信方法に関する。コンテンツに連携した音声AIアシスタンスサービスを利用するに際し、当該コンテンツを視聴する視聴者の発話に対する音声応答に適した時間を示す音声応答時間情報に基づいて、音声応答のタイミングを制御する制御部を備える情報処理装置が提供されることで、コンテンツに連携して利用される音声AIアシスタンスサービスの利便性を向上させることができるようになる。本技術は、例えば、音声AIアシスタンスサービスと連携したシステムに適用することができる。

Description

本技術は、情報処理装置、情報処理方法、送信装置、及び送信方法に関し、特に、コンテンツに連携して利用される音声AIアシスタンスサービスの利便性を向上させることができるようにした情報処理装置、情報処理方法、送信装置、及び送信方法に関する。
放送コンテンツに連動して実行される放送アプリケーションが提案されている(例えば、特許文献1参照)。放送アプリケーションを利用することで、例えば、放送コンテンツに関連する情報の表示を行うことができる。
また、ユーザの発話内容を解析する音声認識に関する技術が提案されている(例えば、特許文献2参照)。例えば、この技術を、テレビ受像機や携帯端末装置に適用すると、ユーザが発した言葉を解析し、その発話に応じた処理を実行することが可能となる。
特開2013−187781号公報 特開2014−153663号公報
近年、音声AIアシスタンスサービスが急速に普及しているが、テレビ受像機等の受信機で再生される放送コンテンツや放送アプリケーションに連携して、音声AIアシスタンスサービスを利用する際に、放送コンテンツ等のコンテンツを視聴する視聴者の発話に対する応答音声の出力が、当該コンテンツの音声と重なって、視聴者による視聴の妨げになる恐れがある。そのため、視聴者の発話の応答音声の出力に際し、視聴者による視聴の妨げにならないようにして、当該音声AIアシスタンスサービスの利便性を向上させるための技術が求められていた。
本技術はこのような状況に鑑みてなされたものであり、コンテンツに連携して利用される音声AIアシスタンスサービスの利便性を向上させることができるようにするものである。
本技術の第1の側面の情報処理装置は、コンテンツに連携した音声AIアシスタンスサービスを利用するに際し、前記コンテンツを視聴する視聴者の発話に対する音声応答に適した時間を示す音声応答時間情報に基づいて、前記音声応答のタイミングを制御する制御部を備える情報処理装置である。
本技術の第1の側面の情報処理装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。また、本技術の第1の側面の情報処理方法は、上述した本技術の第1の側面の情報処理装置に対応する情報処理方法である。
本技術の第1の側面の情報処理装置、及び情報処理方法においては、コンテンツに連携した音声AIアシスタンスサービスを利用するに際し、前記コンテンツを視聴する視聴者の発話に対する音声応答に適した時間を示す音声応答時間情報に基づいて、前記音声応答のタイミングが制御される。
本技術の第2の側面の送信装置は、コンテンツに連携した音声AIアシスタンスサービスを利用するに際し、前記コンテンツを視聴する視聴者の発話に対する音声応答に適した時間を示す音声応答時間情報を含むメタデータを生成する生成部と、生成した前記メタデータを送信する送信部とを備える送信装置である。
本技術の第2の側面の送信装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。また、本技術の第2の側面の送信方法は、上述した本技術の第2の側面の送信装置に対応する送信方法である。
本技術の第2の側面の送信装置、及び、送信方法においては、コンテンツに連携した音声AIアシスタンスサービスを利用するに際し、前記コンテンツを視聴する視聴者の発話に対する音声応答に適した時間を示す音声応答時間情報を含むメタデータが生成され、生成された前記メタデータが送信される。
本技術の第1の側面、及び第2の側面によれば、コンテンツに連携して利用される音声AIアシスタンスサービスの利便性を向上させることができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用したコンテンツ・音声AI連携システムの一実施の形態の構成の例を示すブロック図である。 コンテンツに連携して利用される音声AIアシスタンスサービスの応答タイミングの例を示す図である。 第1の実施の形態の構成の第1の例を示す図である。 第1の実施の形態の各装置の詳細な構成の第1の例を示すブロック図である。 音声アシスタンスサーバと処理サーバとの間の通信の例を示す図である。 音声アシスタンスサーバと処理サーバとの間の通信の例を示す図である。 音声ユーザインタフェース装置と音声アシスタンスサーバとの間の通信の例を示す図である。 第1の実施の形態の各装置の処理の第1の例の流れを説明するフローチャートである。 第1の実施の形態の構成の第2の例を示す図である。 第1の実施の形態の各装置の詳細な構成の第2の例を示すブロック図である。 放送配信システムと受信装置との間でやり取りされるメタデータの例を示す図である。 MPDの記述の例を示す図である。 第1の実施の形態の各装置の処理の第2の例の流れを説明するフローチャートである。 第2の実施の形態の構成の例を示す図である。 第2の実施の形態の各装置の詳細な構成の例を示すブロック図である。 第2の実施の形態の各装置の処理の流れを説明するフローチャートである。 第3の実施の形態の各装置の詳細な構成の第1の例を示すブロック図である。 第3の実施の形態の各装置の処理の第1の例の流れを説明するフローチャートである。 第3の実施の形態の各装置の詳細な構成の第2の例を示すブロック図である。 第3の実施の形態の各装置の処理の第2の例の流れを説明するフローチャートである。 受信装置の他の構成の例を示すブロック図である。 コンピュータの構成の例を示す図である。
以下、図面を参照しながら本技術の実施の形態について説明する。なお、説明は以下の順序で行うものとする。
1.システムの構成
2.本技術の実施の形態
(1)第1の実施の形態:音声応答時間に基づいた音声応答のタイミング制御を行う構成
(2)第2の実施の形態:視聴者からの指示発話に基づいた音声応答のタイミング制御を行う構成
(3)第3の実施の形態:音声応答時間に基づいた音声応答のタイミング制御時に、視聴者からの指示発話に基づいた音声応答のタイミング制御を行う構成
3.変形例
4.コンピュータの構成
<1.システムの構成>
(コンテンツ・音声AI連携システムの構成)
図1は、本技術を適用したコンテンツ・音声AI連携システムの一実施の形態の構成の例を示すブロック図である。
コンテンツ・音声AI連携システム1は、コンテンツを配信するためのシステムであって、配信されたコンテンツと連携して音声AIアシスタンスサービスを利用することが可能である。
図1において、コンテンツ・音声AI連携システム1は、放送配信システム10、受信装置20、音声ユーザインタフェース装置30、音声アシスタンスサーバ40、及び処理サーバ50を含んで構成される。
また、コンテンツ・音声AI連携システム1において、視聴者宅に設置される受信装置20と音声ユーザインタフェース装置30は、インターネット60を介して、データセンタ等に設置される音声アシスタンスサーバ40や処理サーバ50などの各種のサーバと接続可能であって、各種のデータをやりとりすることができる。
放送配信システム10は、1又は複数の放送サーバ等から構成される。放送配信システム10は、配信対象のコンテンツに対して必要な処理を施し、その処理の結果得られる放送信号(放送波)を、送信所に設置された送信アンテナから送出する。
受信装置20は、例えば、テレビ受像機やパーソナルコンピュータ等の固定受信機、あるいはスマートフォンや携帯電話機、タブレット型コンピュータ等のモバイル受信機として構成される。受信装置20は、放送配信システム10から送信されてくる放送信号を受信して処理することで、配信対象のコンテンツ(例えば、放送番組やCMなど)を再生する。
音声ユーザインタフェース装置30は、例えば、Bluetooth(登録商標)、無線LAN(Local Area Network)、若しくはセルラー方式の通信などの無線通信、又は有線通信を行うことが可能な音声処理装置(例えばスピーカ)であって、スマートスピーカやホームエージェントなどとも称される。この種のスピーカは、音楽の再生のほか、例えば、音声AIアシスタンスサービスのユーザインタフェースとして機能したり、あるいは、照明器具や空調設備などの機器に対する音声操作を行ったりすることができる。
音声ユーザインタフェース装置30は、クラウド側の音声アシスタンスサーバ40等のサーバと連携することで、エンドユーザ(コンテンツの視聴者)に対し、音声AIアシスタンスサービスを提供することができる。ここで、音声AIアシスタンスサービスとは、例えば、音声認識処理や自然言語解析処理等の処理を組み合わせて、エンドユーザの問いかけや要求に対し、適切に回答したり、動作したりする機能やサービスのことをいう。
音声アシスタンスサーバ40は、音声AIアシスタンスサービスを提供するための機能や各種のデータベースなどを有している。音声アシスタンスサーバ40は、音声ユーザインタフェース装置30からの要求(リクエスト)に応じて、音声AIアシスタンスサービスを提供するための処理を行い、その処理結果(レスポンス)を、インターネット60を介して、音声ユーザインタフェース装置30に返信する。
処理サーバ50は、音声アシスタンスサーバ40と連携して、音声AIアシスタンスサービスを提供するための処理を行い、その処理結果(レスポンス)を、インターネット60又はネットワーク70(例えば専用線等の通信回線)を介して、音声アシスタンスサーバ40に送信する。なお、処理サーバ50による処理結果は、音声アシスタンスサーバ40だけでなく、インターネット60を介して、受信装置20又は音声ユーザインタフェース装置30に送信されるようにしてもよい。
コンテンツ・音声AI連携システム1は、以上のように構成される。
ところで、視聴者が、放送番組やCM等のコンテンツを視聴中に、音声AIアシスタンスサービスを利用して当該コンテンツに関連したアプリケーションに対し、何らかの発話を行ったとき、その発話に対する応答の音声と、放送番組等のコンテンツの音声とが重なってしまい、コンテンツの視聴の妨げになってしまう。
例えば、図2においては、視聴者2が、ドラマ番組を視聴中に、あるシーンに出演している女優が誰かを知りたいとき、音声AIアシスタンスサービスを利用して、「この女優は誰?」である発話を行った場面を示している。
このとき、音声ユーザインタフェース装置30は、視聴者2の発話をマイクロフォンにより収音し、その発話の音声データを、インターネット60を介して音声アシスタンスサーバ40に送信する。音声アシスタンスサーバ40は、放送局ごとに設けられた処理サーバ50と連携して処理を行うことで、発話に対する応答の音声データを生成し、インターネット60を介して音声ユーザインタフェース装置30に送信する。
ここで、音声ユーザインタフェース装置30が、音声アシスタンスサーバ40からの応答の音声データを受信してその音声データに応じた応答音声を出力するとき、そのタイミングによっては、視聴者2が受信装置20により視聴中のドラマ番組での女優の会話のシーンとタイミングが重なって、女優の発話が聞き取れない可能性がある。
図2の例では、「この女優の名前はXXXXで、主な主演作品は、・・・」である応答音声が、「そうだ!今日はインド料理を食べに行こう!!」である女優の発話に重なっている。このように、音声応答のタイミングによっては、音声AIアシスタンスサービスが、視聴者2のドラマ番組の視聴の妨げになることがある。
そのため、放送番組等のコンテンツに連携して音声AIアシスタンスサービスを利用する際に、視聴者の発話に対する音声応答が、視聴者の所望のタイミングとなるようにして、当該音声AIアシスタンスサービスの利便性を向上させたいという要請がある。
そこで、本技術では、視聴者の発話に対する音声応答に適したタイミングを示す情報(以下、音声応答時間情報という)に基づき、音声応答のタイミングを制御することで、放送番組等のコンテンツに連携して利用される音声AIアシスタンスサービスの利便性を向上させることができるようにする。以下、本技術の実施の形態として、第1の実施の形態乃至第3の実施の形態を説明する。
<2.本技術の実施の形態>
(1)第1の実施の形態
まず、第1の実施の形態として、図3乃至図13を参照しながら、通信経由又は放送経由で取得される音声応答時間情報に基づき、音声応答のタイミングを制御する構成を示す。
(構成の第1の例)
図3は、第1の実施の形態の構成の第1の例を示す図である。
図3においては、視聴者2により視聴されている放送番組の進行に合わせた処理の流れを、図3のA乃至Cによって、時系列で示している。
10時10分00秒に、視聴者2が、ドラマ番組を視聴中に、「この女優は誰?」である発話を行ったとき、ユーザインタフェース装置30は、視聴者2の発話をマイクロフォンにより収音し、その発話の音声データを、質問リクエストとして、音声アシスタンスサーバ40に送信する(図3のA)。
音声アシスタンスサーバ40は、視聴中のドラマ番組を制作した放送局により提供される処理サーバ50と連携して処理を行うことで、発話に対する応答の音声データを生成する。また、ここでは、応答の音声データとともに、その音声応答に適したタイミングを示す音声応答時間情報が、音声応答タイミングメタデータとして生成される。そして、音声応答タイミングメタデータ(音声応答時間情報)は、応答の音声データとともに、ユーザインタフェース装置30に送信される(図3のB)。
10時10分02秒において、ユーザインタフェース装置30は、音声アシスタンスサーバ40から応答の音声データとともに音声応答タイミングメタデータを受信したが、音声応答時間情報の示す時間(時刻)が、10時10分10秒を示しているため、その時間(時刻)まで待機する(図3のB)。すなわち、視聴中のドラマ番組では、10時10分02秒頃に、会話のシーンとなるため、例えば、「そうだ!今日はインド料理を食べに行こう!!」である女優の発話などに重ならないように、音声応答を行うタイミングをずらしている。
そして、10時10分10秒になったとき、ユーザインタフェース装置30は、音声応答時間情報の示す時間(時刻)となったので、待機中にバッファに保持していた応答の音声データに基づき、「この女優の名前はXXXXで、主な主演作品は、・・・」である応答音声を出力する(図3のC)。このとき、視聴中のドラマ番組では、会話のシーンではないため、視聴者2によるドラマ番組の視聴の妨げになる可能性は少ない。
このように、ユーザインタフェース装置30では、通信経由で得られる音声応答タイミングメタデータ(音声応答時間情報)に基づき、音声応答に適したタイミング、すなわち、視聴している番組の展開から、会話の切れ目などの視聴の妨げにならない時間に、音声応答を行うことが可能となる。これにより、視聴者2は、番組視聴を邪魔されることなく、応答音声(知りたい情報)を聞くことが可能となる。
なお、図3においては、説明を分かりやすくするために、現実の時刻を用いた場合を例に説明したが、実際には、受信装置20にて再生中のコンテンツのメディアタイムを用いて、音声応答のタイミングを制御することができる。
(各装置の詳細な構成の第1の例)
図4は、第1の実施の形態の各装置の詳細な構成の第1の例を示すブロック図である。
図4においては、放送局側(送信側)に設けられる放送配信システム10と、ローカル側(受信側)に設けられる受信装置20の構成の例を示している。また、図4においては、ローカル側に設けられる音声ユーザインタフェース装置30と、クラウド側に設けられる音声アシスタンスサーバ40及び処理サーバ50の構成の例を示している。
図4において、放送配信システム10は、番組コンテンツ処理部101、放送付随アプリケーション生成部102、マルチプレクサ103、及び送出部104を含んで構成される。
番組コンテンツ処理部101は、そこに入力されるコンテンツに対して必要な処理(例えばAVエンコードなど)を施し、マルチプレクサ103に供給する。なお、コンテンツは、例えば放送番組やCM等であって、外部のサーバ、カメラ、又は記録媒体などから取得される。
放送付随アプリケーション生成部102は、放送付随アプリケーションを生成し、マルチプレクサ103に供給する。ここで、放送付随アプリケーションは、放送番組等のコンテンツに連動して実行されるアプリケーションである。
マルチプレクサ103は、番組コンテンツ処理部101から供給されるコンテンツと、放送付随アプリケーション生成部102から供給される放送付随アプリケーションを多重化し、その結果得られるストリームを、送出部104に供給する。
送出部104は、マルチプレクサ103から供給されるストリームに対して必要な処理(例えば誤り訂正符号化処理や変調処理など)を施し、その結果得られる放送信号(放送ストリーム)を、送信所に設置された送信用アンテナから送信する。
図4において、受信装置20は、チューナ201、デマルチプレクサ202、AVデコーダ203、放送付随アプリケーション実行部204、レンダラ205、ディスプレイ206、スピーカ207、メディアタイム管理部208、及び通信部209を含んで構成される。
チューナ201は、視聴者宅等に設置された受信用アンテナを介して、放送配信システム10から送信されてくる放送信号(放送ストリーム)を受信して必要な処理(例えば復調処理や誤り訂正復号化処理など)を施し、その結果得られるストリームを、デマルチプレクサ202に供給する。
デマルチプレクサ202は、チューナ201から供給されるストリームを、映像、音声、及び放送付随アプリケーションのストリームに分離する。デマルチプレクサ202は、映像及び音声のストリームを、AVデコーダ203に供給し、放送付随アプリケーションのストリームを、放送付随アプリケーション実行部204に供給する。
AVデコーダ203は、デマルチプレクサ202から供給される映像ストリームをデコードし、レンダラ205に供給する。また、AVデコーダ203は、デマルチプレクサ202から供給される音声ストリームをデコードし、レンダラ205に供給する。
レンダラ205は、AVデコーダ203から供給される映像データに対し、レンダリング処理を行い、その結果得られる映像を、LCD(Liquid Crystal Display)やOLED(Organic Light Emitting Diode)等のディスプレイ206に表示する。
また、レンダラ205は、AVデコーダ203から供給される音声データに対し、レンダリング処理を行い、その結果得られる音声を、スピーカ207から出力する。これにより、受信装置20では、放送番組等のコンテンツの映像が、ディスプレイ206に表示され、その映像に同期した音声が、スピーカ207から出力される。
放送付随アプリケーション実行部204は、例えば、HTML5やJavaScript(登録商標)等に対応したブラウザである。放送付随アプリケーション実行部204は、デマルチプレクサ202から供給されるアプリデータに基づき、放送付随アプリケーションを実行し、その映像データをレンダラ205に供給する。
レンダラ205は、放送付随アプリケーション実行部204から供給される映像データに対し、レンダリング処理を行い、その結果得られる映像を、ディスプレイ206に表示する。これにより、受信装置20では、放送番組等のコンテンツに連動した放送付随アプリケーションの映像が、ディスプレイ206に表示される。
メディアタイム管理部208は、受信装置20により再生中のコンテンツのメディアタイムを管理する。メディアタイム管理部208は、放送付随アプリケーション実行部204からの問い合わせに応じて、再生中のコンテンツの現在のメディアタイムを供給する。
通信部209は、例えば、無線LAN、若しくはセルラー方式の通信などの無線通信、又は有線通信に対応した通信モジュールとして構成される。通信部209は、所定の通信方式に従い、インターネット60を介して、処理サーバ50(の通信部501)との間で通信を行い、各種のデータをやり取りする。ここでは、例えば、ウェブソケット(WebSocket)等の通信が行われ、通信部209は、放送付随アプリケーション実行部204から供給される現在のメディアタイムを、処理サーバ50(の通信部501)に送ることができる。
図4において、音声ユーザインタフェース装置30は、マイクロフォン301、スピーカ302、通信部303、音声応答出力制御部304、タイマ305、バッファ306、及びセッティング管理部307を含んで構成される。
マイクロフォン301は、視聴者2の発話を収音し、その発話の音声データを、通信部303に供給する。
通信部303は、無線LAN、若しくはセルラー方式の通信などの無線通信、又は有線通信に対応した通信モジュールとして構成される。
通信部303は、マイクロフォン301から供給される発話の音声データを、インターネット60を介して、音声アシスタンスサーバ40に送信する。また、通信部303は、音声アシスタンスサーバ40から送信されてくる応答の音声データ及び音声応答タイミングメタデータ(音声応答時間情報)を、インターネット60を介して受信し、音声応答出力制御部304に供給する。なお、詳細は後述するが、応答の音声データ及び音声応答タイミングメタデータは、第2レスポンスメッセージに含めて送られる。
音声応答出力制御部304には、通信部303から応答の音声データ及び音声応答タイミングメタデータが供給される。音声応答出力制御部304は、通信経由で取得した音声応答タイミングメタデータに基づき、音声応答時間情報の示す時間に応じたタイミングで、応答の音声データを、スピーカ302に供給する。
ここでは、音声応答出力制御部304によって、音声応答時間情報の示す時間がタイマ305に渡されることで計時が行われ、音声応答に適したタイミングとなるまで、応答の音声データがバッファ306により一時的に保持される。そして、音声応答に適したタイミングとなったとき、音声応答出力制御部304は、バッファ306に一時的に保持された応答の音声データを読み出し、スピーカ302に供給する。
スピーカ302は、音声応答出力制御部304から供給される応答の音声データに応じた応答音声を出力する。
セッティング管理部307は、視聴者2からの設定入力に従い、各種の設定を行う。ここでは、例えば、応答音声の出力に際して、音声応答に適したタイミングまで待つかどうかのタイミング制御のオン/オフの設定などが行われる。なお、ここでの設定入力に際しては、ボタンやタッチパネル(不図示)によって視聴者2の操作入力を受け付けることは勿論、マイクロフォン301によって視聴者2の音声入力を受け付けるようにしてもよい。
図4において、音声アシスタンスサーバ40は、通信部401、通信部402、音声解析部403、及びメッセージ生成部404を含んで構成される。
通信部401は、音声ユーザインタフェース装置30から送信されてくる発話の音声データを、インターネット60を介して受信し、音声解析部403に供給する。
音声解析部403は、通信部401から供給される発話の音声データを解析し、発話の音声データをテキストデータに変換する。音声解析部403は、発話の音声データの解析結果に応じたリクエストメッセージを、通信部402に供給する。
通信部402は、音声解析部403から供給されるリクエストメッセージを、ネットワーク70を介して、処理サーバ50に送信する。また、通信部402は、処理サーバ50から送信されてくる第1レスポンスメッセージを、ネットワーク70を介して受信し、メッセージ生成部404に供給する。
メッセージ生成部404は、通信部402から供給される第1レスポンスメッセージを変換して、音声ユーザインタフェース装置30に応答するための第2レスポンスメッセージを生成し、通信部401に供給する。
なお、ここでは、説明の都合上、処理サーバ50から送信されて音声アシスタンスサーバ40により受信されるレスポンスメッセージと、音声アシスタンスサーバ40から送信されて音声ユーザインタフェース装置30により受信されるレスポンスメッセージとを区別するために、前者を第1レスポンスメッセージと称し、後者を第2レスポンスメッセージと称している。
メッセージ生成部404は、音声生成部404−1及びメタデータマージ部404−2から構成される。また、第1レスポンスメッセージは、音声応答データ及び音声応答タイミングメタデータ(音声応答時間情報)を含んでいる。
音声生成部404−1は、処理サーバ50から送られる第1レスポンスメッセージに含まれる音声応答データを、応答の音声データに変換する。メタデータマージ部404−2は、処理サーバ50から送られる第1レスポンスメッセージに含まれる音声応答タイミングメタデータ(音声応答時間情報)を、応答の音声データを含む第2レスポンスメッセージにマージする。
このように、メッセージ生成部404では、音声生成部404−1及びメタデータマージ部404−2によって、テキスト形式のデータ(音声応答データ、音声応答タイミングメタデータ)を含む第1レスポンスメッセージ(例えばHTTPレスポンス)が処理されることで、音声形式のデータ(応答の音声データ)とテキスト形式のデータ(音声応答タイミングメタデータ)を含む第2レスポンスメッセージ(例えばHTTPレスポンス)が生成される。なお、第1レスポンスメッセージと第2レスポンスメッセージの詳細については、図5乃至図7を参照して説明する。
通信部401は、メッセージ生成部404から供給される第2レスポンスメッセージを、インターネット60を介して、音声ユーザインタフェース装置30に送信する。
なお、通信部401と通信部402は、無線通信又は有線通信に対応した通信モジュールとして構成される。また、図4においては、説明の都合上、通信部401と通信部402を別の通信モジュールとして説明したが、それらが一体となって1つの通信モジュールとして構成されるようにしてもよい。
図4において、処理サーバ50は、通信部501、処理部502、及び記録部503を含んで構成される。
通信部501は、音声アシスタンスサーバ40から送信されてくるリクエストメッセージを、ネットワーク70を介して受信し、処理部502に供給する。また、通信部501は、ウェブソケット等の通信により受信装置20から送信されてくる現在のメディアタイムを受信し、処理部502に供給する。なお、通信部501は、無線通信又は有線通信に対応した通信モジュールとして構成される。
処理部502は、通信部501から供給されるリクエストメッセージに基づいて、記録部503に記録された音声応答データを抽出し、通信部501に供給する。この音声応答データは、視聴者2の発話に対する音声応答のデータとされる。
また、処理部502は、通信部501から供給される現在のメディアタイムに基づいて、記録部503に記録された音声応答タイミングメタデータ(番組全体のメタデータ)から、音声応答に適した時間を示す音声応答時間情報を抽出し、音声応答タイミングメタデータとして、通信部501に供給する。
記録部503は、半導体メモリや、HDD、光ディスク等の記録媒体であって、音声応答データや音声応答タイミングメタデータ等の各種のデータを記録することができる。なお、音声応答データや音声応答タイミングメタデータは、記録部503に記録されたものに限らず、例えば、外部のサーバから取得したり、あるいは、記録部503に記録されたデータや外部のサーバから取得したデータ等の各種のデータに基づき、処理部502により生成したりするようにしてもよい。
通信部501は、処理部502から供給される音声応答データ及び音声応答タイミングメタデータを、第1レスポンスメッセージとして、ネットワーク70を介して音声アシスタンスサーバ40に送信する。
なお、コンテンツ・音声AI連携システム1においては、スキルと呼ばれるプログラムが実行されることで、放送番組等のコンテンツと連携して音声AIアシスタンスサービスを利用することが可能となる。例えば、音声アシスタンスサーバ40において、複数のスキルの中から、対象のスキルが特定され、特定された対象のスキルのエンドポイントURLによって、処理サーバ50の処理部502と連携することで、視聴者の発話に対する音声応答を行うための処理が行われる。すなわち、処理部502は、対象のスキルの一部を構成しているとも言える。
ここで、スキルとは、どのような音声に反応するのか、どのような単語をパラメータにしてどの機能を実現するのか、その機能を実際に実行する処理サーバ(処理プログラム)は何か、といった情報を含み、これらの情報に基づき、音声ユーザインタフェース装置30から送られる音声に対する対応処理を行うプログラム(コンピュータプログラム)である。
以上のようにコンテンツ・音声AI連携システム1は構成されるが、ここで、図5乃至図7を参照して、音声アシスタンスサーバ40と処理サーバ50との間で、通信経由でやり取りされる音声応答データと音声応答タイミングメタデータの詳細について説明する。
図5に示すように、処理サーバ50において、記録部503には、通信経由で配信される音声応答タイミングメタデータが記録されるが、この音声応答タイミングメタデータは、放送経由で配信される放送番組ごとに、番組全体のメタデータとして提供される。図5の例では、次の4つの音声応答タイミングが例示されている。
1つ目の音声応答タイミング:2018-01-29 18:00:05 〜 2018-01-29 18:00:55
2つ目の音声応答タイミング:2018-01-29 18:01:05 〜 2018-01-29 18:01:55
3つ目の音声応答タイミング:2018-01-29 18:02:05 〜 2018-01-29 18:02:55
4つ目の音声応答タイミング:2018-01-29 18:03:05 〜 2018-01-29 18:03:55
・・・
処理部502は、受信装置20と処理サーバ50とのウェブソケット等の通信によって、現在のメディアタイムを取得しているため、このメディアタイムに基づき、番組全体のメタデータの中から、音声応答に適した1つの音声応答タイミングのみを抽出することができる。そして、処理部502は、抽出した1つの音声応答タイミング(音声応答時間情報)を、音声応答タイミングメタデータとして、HTTPレスポンス等の所定の形式のメッセージによって、音声アシスタンスサーバ40に送信する。
ここでは、図6に示すように、番組全体のメタデータのうち、3つ目の音声応答タイミングを、音声応答に適した時間であるとして抽出したときに、第1レスポンスメッセージとしてHTTPレスポンスを利用する場合には、HTTPレスポンスのボディに、抽出した3つ目の音声応答タイミングのテキストデータを記述する。また、このHTTPレスポンスのボディには、音声応答データのテキストデータも記述することができる。
これらのテキストデータは、例えば、JSON(JavaScript(登録商標) Object Notation)形式のデータとして記述することができる。JSON形式のオブジェクトは、キーと値のペアをコロン(:)で対にして、これらの対を、コンマ(,)で区切ってゼロ個以上列挙し、全体を波括弧({})でくくることで表現される。
図6の例では、音声応答データ("outputSpeech")のオブジェクトに対し、"type"の値として、"PlainText"である形式が記述され、"text"の値として、"XXXX"であるテキストデータが記述されている。また、音声応答タイミング("responseTiming")のオブジェクトに対し、startの値として、"2018-01-29T18:02:05Z"である開始時刻が記述され、endの値として、"2018-01-29T18:02:55Z"である終了時刻が記述されている。
また、このHTTPレスポンスは、音声アシスタンスサーバ40により受信され、処理されるが、例えば、第2レスポンスメッセージとしてHTTPレスポンスを利用する場合には、図7に示すような処理が行われる。
すなわち、音声アシスタンスサーバ40は、処理サーバ50から受信したHTTPレスポンスのボディに記述された音声応答データのテキストデータを、応答の音声データに変換するとともに、音声応答タイミングのテキストデータ(音声応答時間情報)をマージして、マルチパート形式のHTTPレスポンスを生成する。
このように、音声アシスタンスサーバ40では、処理サーバ50から受信した第1レスポンスメッセージ(HTTPレスポンス)が処理され、テキスト形式のデータ(音声応答データ、音声応答タイミングメタデータ(音声応答時間情報))が、音声形式のデータ(応答の音声データ)とテキスト形式のデータ(音声応答タイミングメタデータ(音声応答時間情報))に変換され、第2レスポンスメッセージ(マルチパート形式のHTTPレスポンス)として、音声ユーザインタフェース装置30に送信される。
なお、通信経由で配信される音声応答タイミングメタデータとして提供される番組全体のメタデータであるが、ある番組の全部の時間帯を対象とした音声応答タイミングを用意することは勿論、一部の時間帯を対象とした音声応答タイミングを用意するようにしてもよい。また、本技術の実施の形態では、音声応答タイミングメタデータは、番組全体のメタデータを表す場合と、そこから抽出された音声応答時間情報を表す場合があるので、特に区別する必要がある場合には、明記するようにする。
(各装置の処理の第1の例の流れ)
次に、図8のフローチャートを参照して、第1の実施の形態の各装置の処理の第1の例の流れを説明する。
ここでは、事前の設定として、ステップS101の処理が実行される。すなわち、音声ユーザインタフェース装置30において、セッティング管理部307が、視聴者2からの指示に従い、応答音声の出力の自動タイミング制御をオンに設定する。
この事前の設定が行われた後、放送配信システム10は、放送ストリームを送信する(S131)。このとき、放送配信システム10においては、放送付随アプリケーション生成部102によって、放送付随アプリケーションが生成され、マルチプレクサ103によって、生成された放送付随アプリケーションが、放送番組等のコンテンツを含むストリームに挿入されている。
この放送ストリームは、受信装置20により受信され、放送番組等のコンテンツが再生されるとともに、ステップS132の処理が実行される。ステップS132において、放送付随アプリケーション実行部204は、デマルチプレクサ202により分離されたストリームから得られるアプリデータに基づき、放送付随アプリケーションを実行する。これにより、受信装置20では、視聴者2により選局された放送番組が再生されるとともに、当該番組に連動した放送付随アプリケーションが実行される。
その後、放送番組を視聴中の視聴者2によって、質問発話がなされた場合、ステップS102以降の処理が実行される。
すなわち、音声ユーザインタフェース装置30において、マイクロフォン301が、視聴者2による発話を収音し、その発話の音声データが、音声アシスタンスサーバ40に送信される。そして、音声アシスタンスサーバ40においては、音声ユーザインタフェース装置30からの発話の音声データが解析され、その解析結果に応じたリクエストメッセージが、処理サーバ50に送信される。
このリクエストメッセージは、ネットワーク70を介して、処理サーバ50により受信され、ステップS103,S104の処理が実行される。
ステップS103において、処理部502は、音声アシスタンスサーバ40からのリクエストメッセージに基づいて、現在のメディアタイムを取得する。ここでは、処理サーバ50(の通信部501)と、受信装置20(の通信部209)とが、例えばウェブソケット等の通信方式に従い、通信を行うことで、処理部502は、放送付随アプリケーションを実行中の放送付随アプリケーション実行部204から、現在のメディアタイムを取得することができる。
ステップS104において、処理部502は、取得した現在のメディアタイムに基づいて、記録部503に記録された番組全体のメタデータから、音声応答に適した時間を示す音声応答時間情報を抽出し、リクエストメッセージに応じた音声応答データとともに、第1レスポンスメッセージとして音声アシスタンスサーバ40に送信する。
ここで、音声応答に適した時間とは、例えば、視聴している番組の展開から、会話の切れ目などの視聴の妨げにならない時間のほか、例えば、応答音声の時間的な長さ(応答の長さ)などを考慮してもよい。すなわち、視聴の妨げにならない時間であっても、その時間内に応答音声の出力を完了できないのであれば、より長い他の時間を、音声応答に適した時間として抽出することができる。また、例えば、受信装置20にて再生中のコンテンツの再生時間軸上で、最後のほうの時間帯が、音声応答に適した時間として抽出可能な場合であっても、視聴者の発話後、応答音声を出力するまでに時間を要するときには、より前のほうの時間帯が、音声応答に適した時間として抽出されるようにしてもよい。
音声アシスタンスサーバ40では、処理サーバ50からの第1レスポンスメッセージに基づき、音声応答データから応答の音声データを生成するとともに、音声応答時間情報がマージされ、第2レスポンスメッセージが生成される。この第2レスポンスメッセージは、インターネット60を介して、音声ユーザインタフェース装置30により受信され、ステップS105乃至S108の処理が実行される。
ステップS105において、音声応答出力制御部304は、音声アシスタンスサーバ40からの第2レスポンスメッセージに基づいて、応答の音声データに音声応答時間情報が付加されているかどうかを確認(判定)する。ステップS105において、音声応答時間情報が付加されていると判定された場合(S105の「YES」)、処理は、ステップS106に進められる。
ステップS106において、音声応答出力制御部304は、セッティング管理部307に問い合わせることで、自動タイミング制御の設定がオンになっているかどうかを確認(判定)する。ステップS106において、例えば事前の設定の処理(S101)によって、自動タイミング制御の設定がオンになっていると判定された場合(S106の「YES」)、処理は、ステップS107に進められる。
ステップS107において、音声応答出力制御部304は、付加された音声応答時間情報に基づき、音声応答に適したタイミングとなるまで待機する。そして、音声応答に適したタイミングになったとき、音声応答出力制御部304は、応答の音声データをスピーカ302に供給することで、応答音声を出力する(S108)。
このようにして、音声ユーザインタフェース装置30は、通信経由で取得される音声応答タイミングメタデータ(音声応答時間情報)に基づき、音声応答に適した時間、すなわち、視聴している番組の展開から、会話の切れ目などの視聴の妨げにならない時間に、音声応答を行うことが可能となる。これにより、視聴者2は、番組視聴を邪魔されることなく、応答音声(知りたい情報)を聞くことが可能となる。
なお、音声ユーザインタフェース装置30においては、音声応答時間情報が付加されていないと判定された場合(S105の「NO」)、あるいは、自動タイミング制御設定がオフになっていると判定された場合(S106の「NO」)には、ステップS107の処理はスキップされ、ステップS108の処理が実行される。すなわち、この場合には、音声応答タイミングの待機は行われずに、直ちに応答音声が出力される。
以上、第1の実施の形態の各装置の処理の第1の例の流れとして、通信経由で取得される音声応答タイミングメタデータ(音声応答時間情報)に基づき、視聴者2の発話に対する音声応答のタイミングを制御する場合の処理の流れを説明した。
(構成の第2の例)
図9は、第1の実施の形態の構成の第2の例を示す図である。
図9においては、図3と同様に、視聴者2により視聴されている放送番組の進行に合わせた処理の流れを、図9のA乃至Cによって、時系列で示している。一方で、図9に示した処理では、図3に示した処理で、応答の音声データとともに、通信経由で送られていた音声応答タイミングメタデータを、放送経由で送るようにする。
受信装置20は、放送配信システム10から、放送番組等のコンテンツや放送付随アプリケーションとともに送られる音声応答タイミングメタデータ(番組全体のメタデータ)を取得して記録している。受信装置20は、ユーザインタフェース装置30からの問い合わせに応じて、記録している番組全体のメタデータから、音声応答に適した時間を示す音声応答時間情報を抽出し、音声応答タイミングメタデータとして通知することができる。
10時10分00秒に、視聴者2が、ドラマ番組を視聴中に、「この女優は誰?」である発話を行ったとき、ユーザインタフェース装置30は、視聴者2の発話をマイクロフォンにより収音し、その発話の音声データを、音声アシスタンスサーバ40に送信する(図9のA)。
10時10分02秒において、ユーザインタフェース装置30は、音声アシスタンスサーバ40から応答の音声データを受信したが、受信装置20から取得した音声応答タイミングメタデータに基づき、音声応答時間情報の示す時間(時刻)が、10時10分10秒を示しているため、その時間(時刻)まで待機する(図9のB)。すなわち、視聴中のドラマ番組では、10時10分02秒頃に、会話のシーンとなるため、女優の発話などに重ならないように、音声応答を行うタイミングをずらしている。
そして、10時10分10秒になったとき、ユーザインタフェース装置30は、音声応答時間情報の示す時間(時刻)となったので、待機中にバッファに保持していた応答の音声データに基づき、「この女優の名前はXXXXで、主な主演作品は、・・・」である応答音声を出力する(図9のC)。
このように、ユーザインタフェース装置30では、放送経由で得られる音声応答タイミングメタデータ(音声応答時間情報)に基づき、音声応答に適したタイミング、すなわち、視聴している番組の展開から、会話の切れ目などの視聴の妨げにならない時間に、音声応答を行うことが可能となる。これにより、視聴者2は、番組視聴を邪魔されることなく、応答音声(知りたい情報)を聞くことが可能となる。
なお、図9においても、図3と同様に、現実の時刻を用いた場合を例に説明したが、実際には、受信装置20にて再生中のコンテンツのメディアタイムを用いて、音声応答のタイミングを制御することができる。
(各装置の詳細な構成の第2の例)
図10は、第1の実施の形態の各装置の詳細な構成の第2の例を示すブロック図である。
図10においては、図4と同様に、放送局側(送信側)の放送配信システム10とローカル側(受信側)の受信装置20の構成の例と、ローカル側の音声ユーザインタフェース装置30とクラウド側の音声アシスタンスサーバ40及び処理サーバ50の構成の例を示している。
図10において、放送配信システム10は、番組コンテンツ処理部101、放送付随アプリケーション生成部102、マルチプレクサ103、送出部104、及びメタデータ生成部105を含んで構成される。すなわち、図10に示した放送配信システム10は、図4に示した構成と比べて、メタデータ生成部105が追加されている。
メタデータ生成部105は、音声応答タイミングメタデータを生成し、マルチプレクサ103に供給する。この音声応答タイミングメタデータは、放送配信される番組ごとの番組全体のメタデータであって、音声応答に適した時間を含む音声応答時間情報として抽出されるメタデータの候補を含んでいる。
マルチプレクサ103は、コンテンツ及び放送付随アプリケーションとともに、メタデータ生成部105から供給される音声応答タイミングメタデータを多重化し、その結果得られるストリームを、送出部104に供給する。
図10において、受信装置20は、チューナ201、デマルチプレクサ202、AVデコーダ203、放送付随アプリケーション実行部204、レンダラ205、ディスプレイ206、スピーカ207、メディアタイム管理部208、通信部210、音声応答タイミングメタデータ管理部211、及び記録部212を含んで構成される。すなわち、図10に示した受信装置20は、図4に示した構成と比べて、通信部209の代わりに、通信部210、音声応答タイミングメタデータ管理部211、及び記録部212が追加されている。
通信部210は、例えば、Bluetooth(登録商標)、無線LAN、若しくはセルラー方式の通信などの無線通信、又は有線通信に対応した通信モジュールとして構成される。通信部210は、所定の通信方式に従い、音声ユーザインタフェース装置30(の通信部309)との間で通信を行い、各種のデータをやり取りする。
音声応答タイミングメタデータ管理部211は、デマルチプレクサ202により分離されたストリームから得られる音声応答タイミングメタデータ(番組全体のメタデータ)を取得し、記録部212に記録する。
また、音声応答タイミングメタデータ管理部211は、音声ユーザインタフェース装置30(の音声応答出力制御部304)から、音声応答タイミングメタデータの取得リクエストを受け取った場合、メディアタイム管理部208に問い合わせを行うことで、現在のメディアタイムを取得する。音声応答タイミングメタデータ管理部211は、取得した現在のメディアタイムに基づいて、記録部212に記録された音声応答タイミングメタデータ(番組全体のメタデータ)から、音声応答に適した時間を示す音声応答時間情報を抽出し、音声応答タイミングメタデータとして、音声ユーザインタフェース装置30に送信する。
記録部212は、半導体メモリや、HDD、光ディスク等の記録媒体であって、音声応答タイミングメタデータ等の各種のデータを記録することができる。
図10において、音声ユーザインタフェース装置30は、マイクロフォン301、スピーカ302、通信部303、音声応答出力制御部304、タイマ305、バッファ306、セッティング管理部307、音声解析部308、及び通信部309を含んで構成される。すなわち、図10に示した音声ユーザインタフェース装置30は、図4に示した構成と比べて、音声解析部308及び通信部309が追加されている。
音声解析部308は、マイクロフォン301から供給される発話の音声データを処理し、通信部303に供給する。また、音声解析部308は、発話の音声データの解析を行うとともに、セッティング管理部307と連携することで、発話の音声データの解析結果に基づいたタイミング制御対象発話の設定を行う。
通信部309は、例えば、Bluetooth(登録商標)などの無線通信、又は有線通信に対応した通信モジュールとして構成される。通信部309は、所定の通信方式に従い、受信装置20(の通信部210)との間で通信を行い、各種のデータをやり取りする。なお、図10においては、説明の都合上、通信部303と通信部309を別の通信モジュールとして説明したが、それらが一体となって1つの通信モジュールとして構成されるようにしてもよい。
音声応答出力制御部304には、通信部303から応答の音声データが供給され、通信部309から音声応答タイミングメタデータが供給される。音声応答出力制御部304は、放送経由で取得した音声応答タイミングメタデータに基づき、音声応答時間情報の示す時間に応じたタイミング(音声応答に適したタイミング)で、応答の音声データを、スピーカ302に供給する。
図10において、音声アシスタンスサーバ40は、通信部401、通信部402、音声解析部403、及び音声生成部404−1を含んで構成される。すなわち、図10に示した音声アシスタンスサーバ40は、図4に示した構成と比べて、音声応答タイミングメタデータが通信経由で配信されず、対応する処理を行う必要がないため、メッセージ生成部404のメタデータマージ部405−2が除かれている。
また、図10において、処理サーバ50は、通信部501、処理部502、及び記録部503を含んで構成される。すなわち、図10に示した処理サーバ50は、図4に示した構成と同様に構成されるが、音声応答タイミングメタデータを通信経由で配信しないため、記録部503には、音声応答タイミングメタデータが記録されておらず、音声応答データのみが記録されている。
以上のようにコンテンツ・音声AI連携システム1は構成されるが、ここで、図11乃至図12を参照して、放送配信システム10と受信装置20との間で、放送経由でやり取りされる音声応答タイミングメタデータの詳細について説明する。
図11に示すように、放送配信システム10において、メタデータ生成部105によって、放送経由で配信される音声応答タイミングメタデータが生成されるが、この音声応答タイミングメタデータは、放送経由で配信される番組(生放送は除く)ごとに、番組全体のメタデータとして生成される。
1つ目の音声応答タイミング:2018-01-29 18:00:05 〜 2018-01-29 18:00:55
2つ目の音声応答タイミング:2018-01-29 18:01:05 〜 2018-01-29 18:01:55
3つ目の音声応答タイミング:2018-01-29 18:02:05 〜 2018-01-29 18:02:55
4つ目の音声応答タイミング:2018-01-29 18:03:05 〜 2018-01-29 18:03:55
・・・
マルチプレクサ103では、コンテンツ及び放送付随アプリケーションが多重化されるストリームに対し、当該コンテンツに適合した形式に音声応答タイミングメタデータが変換されて挿入される。
ここで、例えば、コンテンツを、MPEG-DASH(Dynamic Adaptive Streaming over HTTP)に準拠したストリームとして配信する場合、その映像や音声のファイルの制御情報であるMPD(Media Presentation Description)を利用して、音声応答タイミングメタデータを伝送することが可能となる。
図12は、音声応答タイミングメタデータを、MPDに挿入した場合の例を示している。ここで、MPDは、Period要素と、AdaptationSet要素と、Representation要素とが階層構造をなして構成される。
Period要素は、放送番組等のコンテンツの構成を記述する単位となる。また、AdaptationSet要素とRepresentation要素は、コンテンツを構成する映像や音声、字幕等のコンポーネントのストリームごとに利用され、それぞれのストリームの属性を記述することができる。
また、Period要素内には、EventStream要素を記述することができる。また、EventStream要素には、その属性として、schemeIdUri属性とtimescale属性を記述することができる。
schemeIdUri属性には、スキームを識別するためのURI(Uniform Resource Identifier)を記述する。図12のMPDの記述例では、音声応答タイミングメタデータを伝送するためのスキームを識別するURIとして、'urn:XXX'を定義し、schemeIdUri属性の属性値として記述している。また、timescale属性には、その属性値として、'1000'であるタイムスケールを記述している。
EventStream要素は、Event要素の上位要素となる。Event要素は、その属性として、プレゼンテーションタイム(開始時刻)が指定されるpresentationTime属性と、その開始時刻からの期間が指定されるduration属性を記述することができる。
図12のMPDの記述例では、番組全体のメタデータを、該当するPeriod要素ごとに分けて、EventStream要素内のpresentationTime属性とduration属性の属性値として記述している。
具体的には、番組全体のメタデータに記述された1つ目と2つ目の音声応答タイミングを、1つ目のPeriod要素(start属性 = 'PT0S')内に記述し、3つ目と4つ目の音声応答タイミングを、2つ目のPeriod要素(start属性 = 'PT2M0S')内に記述している。
このように、MPDを利用して音声応答タイミングメタデータを伝送することで、受信装置20では、放送ストリームに挿入されたMPDから、音声応答タイミングメタデータ(番組全体のメタデータ)を取得し、記録部212に記録しておくことができる。そして、受信装置20では、音声ユーザインタフェース装置30からの問い合わせに応じて、記録部212に記録している音声応答タイミングメタデータ(番組全体のメタデータ)から、音声応答に適した時間を示す音声応答時間情報を抽出し、音声応答タイミングメタデータとして通知することができる。
なお、放送経由で配信される音声応答タイミングメタデータとして提供される番組全体のメタデータであるが、ある番組の全部の時間帯を対象とした音声応答タイミングを用意することは勿論、一部の時間帯を対象とした音声応答タイミングを用意するようにしてもよい。
(各装置の処理の第2の例の流れ)
次に、図13のフローチャートを参照して、第1の実施の形態の各装置の処理の第2の例の流れを説明する。
ここでは、事前の設定として、ステップS151の処理が実行される。すなわち、音声ユーザインタフェース装置30において、セッティング管理部307が、視聴者2からの指示に従い、自動タイミング制御をオンに設定する。また、ここでは、タイミング制御対象のインボケーションネームや、音声応答タイミングメタデータの取得先(メタデータ取得通信先)が設定される。
なお、インボケーションネーム(Invocation Name)は、スキルを呼び出すための呼び出し名である。すなわち、エンドユーザ(コンテンツの視聴者)は、スキルを使用する際には、インボケーションネームを発する必要がある。ここでは、例えば、タイミング制御対象のインボケーションネームとして、"TV show"を設定するとともに、メタデータ取得通信先として、受信装置20を設定することができる。
この事前の設定が行われた後、放送配信システム10においては、ステップS181乃至S182の処理が実行される。
すなわち、メタデータ生成部105によって、音声応答タイミングメタデータ(番組全体のメタデータ)が生成され、マルチプレクサ103によって、生成された音声応答タイミングメタデータが、放送番組等のコンテンツを含むストリームに挿入される(S181)。また、送出部104によって、音声応答タイミングメタデータを挿入した放送ストリームが送信される(S182)。
この放送ストリームは、受信装置20により受信され、放送番組等のコンテンツが再生されるとともに、ステップS183の処理が実行される。ステップS183において、音声応答タイミングメタデータ管理部211は、デマルチプレクサ202により分離されたストリームから得られる音声応答タイミングメタデータを取得する。この音声応答タイミングメタデータ(番組全体のメタデータ)は、記録部212に記録される。
その後、放送番組を視聴中の視聴者2によって、質問発話がなされた場合、ステップS152以降の処理が実行される。
すなわち、音声ユーザインタフェース装置30において、マイクロフォン301が、視聴者2による発話を収音し、その発話の音声データが、音声アシスタンスサーバ40に送信される(S152)。そして、音声アシスタンスサーバ40においては、音声ユーザインタフェース装置30からの発話の音声データが解析され、その解析結果に応じたリクエストメッセージが、処理サーバ50に送信される。
このとき、音声ユーザインタフェース装置30では、音声解析部308が、セッティング管理部307と連携することで、発話の音声データの解析結果に基づき、視聴者2の発話から、事前の設定の処理(S151)により設定された対象のインボケーションネームの抽出を行い、当該インボケーションネームが抽出された発話を、タイミング制御対象発話として設定する(S153)。
また、音声アシスタンスサーバ40からのリクエストメッセージは、ネットワーク70を介して、処理サーバ50により受信され、ステップS154の処理が実行される。
ステップS154において、処理部502は、音声アシスタンスサーバ40からのリクエストメッセージに基づいて、記録部503に記録された音声応答データを抽出し、音声アシスタンスサーバ40に送信する。音声アシスタンスサーバ40においては、音声生成部404−1によって、音声応答データに応じた応答の音声データが生成され、音声ユーザインタフェース装置30に送信される。
この応答の音声データは、インターネット60を介して音声ユーザインタフェース装置30により受信され、ステップS155以降の処理が実行される。
ステップS155において、音声応答出力制御部304は、セッティング管理部307に問い合わせることで、受信した応答の音声データが、タイミング制御対象発話に対する応答かどうかを確認(判定)する。ステップS155において、ステップS153の処理で設定されたタイミング制御対象発話に対する応答であると判定された場合(S155の「YES」)、処理は、ステップS156に進められる。
ステップS156において、音声応答出力制御部304は、セッティング管理部307に問い合わせることで、自動タイミング制御の設定がオンになっているかどうかを確認(判定)する。ステップS156において、事前の設定の処理(S151)によって、自動タイミング制御の設定がオンになっていると判定された場合(S156の「YES」)、処理は、ステップS157に進められる。
ステップS157において、音声応答出力制御部304は、事前の設定の処理(S151)にてメタデータ取得通信先として設定された受信装置20から、音声応答タイミングメタデータを受信することで、音声応答時間情報を取得する。
すなわち、ここでは、音声応答出力制御部304が、受信装置20に対し、音声応答タイミングメタデータの取得リクエストを発行することで、受信装置20では、ステップS158乃至S159の処理が実行される。
ステップS158において、音声応答タイミングメタデータ管理部211は、音声ユーザインタフェース装置30からの取得リクエストに基づいて、メディアタイム管理部208に問い合わせを行うことで、現在のメディアタイムを取得する。
ステップS159において、音声応答タイミングメタデータ管理部211は、取得した現在のメディアタイムに基づいて、記録部212に記録された音声応答タイミングメタデータ(番組全体のメタデータ)から、音声応答に適した時間を示す音声応答時間情報を抽出し、音声応答タイミングメタデータとして、音声ユーザインタフェース装置30に送信する。ここで、音声応答に適した時間とは、例えば、視聴している番組の展開から、会話の切れ目などの視聴の妨げにならない時間のほか、例えば、応答音声の時間的な長さ(応答の長さ)や、再生中のコンテンツの再生時間軸上の時間帯などを考慮するようにしてもよい。
この音声応答タイミングメタデータ(音声応答時間情報)は、音声ユーザインタフェース装置30により受信され、ステップS160乃至S161の処理が実行される。
ステップS160において、音声応答出力制御部304は、取得した音声応答時間情報に基づき、音声応答に適したタイミングとなるまで待機する。そして、音声応答に適したタイミングになったとき、音声応答出力制御部304は、応答の音声データを、スピーカ302に供給することで、応答音声を出力する(S161)。
このようにして、音声ユーザインタフェース装置30は、放送経由で取得される音声応答タイミングメタデータ(音声応答時間情報)に基づき、音声応答に適した時間、すなわち、視聴している番組の展開から、会話の切れ目などの視聴の妨げにならない時間に、音声応答を行うことが可能となる。これにより、視聴者2は、番組視聴を邪魔されることなく、応答音声(知りたい情報)を聞くことが可能となる。
なお、音声ユーザインタフェース装置30においては、タイミング制御対象発話に対する応答ではないと判定された場合(S155の「NO」)、あるいは、自動タイミング制御設定がオフになっていると判定された場合(S156の「NO」)には、ステップS157乃至S160の処理はスキップされ、ステップS161の処理が実行される。すなわち、この場合には、音声応答タイミングの待機は行われずに、直ちに応答音声が出力される。
以上、第1の実施の形態の各装置の処理の第2の例の流れとして、放送経由で取得される音声応答タイミングメタデータ(音声応答時間情報)に基づき、視聴者2の発話に対する音声応答のタイミングを制御する場合の処理の流れを説明した。
以上のように、第1の実施の形態では、音声ユーザインタフェース装置30の音声応答出力制御部304が、放送番組等のコンテンツに連携した音声AIアシスタンスサービスを利用するに際し、コンテンツを視聴する視聴者の発話に対する音声応答に適した時間を示す音声応答時間情報に基づいて、音声応答のタイミングを制御する。この音声応答時間情報は、放送番組等のコンテンツの再生時間軸上における音声応答に適した時間を示す情報とすることができる。
ここで、音声応答時間情報(音声応答タイミングメタデータ)が、通信経由で取得される場合には、放送番組等のコンテンツは、受信装置20(第1の装置)により再生され、音声応答時間情報は、処理サーバ50(第2の装置)により通信経由で配信され、処理サーバ50(第2の装置)では、コンテンツの再生時間軸上の全部又は一部の時間を対象とした音声応答時間情報を含む音声応答タイミングメタデータ(番組全体のメタデータ)から、受信装置20(第1の装置)により再生中のコンテンツに対する音声応答に適した時間を示す音声応答時間情報が抽出されて配信される。そして、音声ユーザインタフェース装置30では、音声応答出力制御部304によって、通信経由で配信された音声応答時間情報に基づき、音声応答のタイミングが制御される。
また、音声応答時間情報(音声応答タイミングメタデータ)が、放送経由で取得される場合には、放送番組等のコンテンツは、受信装置20(第1の装置)により再生され、音声応答時間情報は、放送配信システム10の放送サーバ(第2の装置)により放送経由で配信され、当該放送サーバ(第2の装置)では、コンテンツの再生時間軸上の全部又は一部の時間を対象とした音声応答時間情報を含む音声応答タイミングメタデータ(番組全体のメタデータ)が配信され、受信装置20(第1の装置)では、放送経由で配信された音声応答タイミングメタデータ(番組全体のメタデータ)から、再生中のコンテンツに対する音声応答に適した時間を示す音声応答時間情報が抽出される。そして、音声ユーザインタフェース装置30では、音声応答出力制御部304によって、受信装置20(第1の装置)により抽出された音声応答時間情報に基づき、音声応答のタイミングが制御される。
このような機能を有する音声ユーザインタフェース装置30は、音声応答出力制御部304を備える情報処理装置であるとも言える。
(2)第2の実施の形態
ところで、上述した第1の実施の形態では、システム側で、音声応答時間情報に基づき、視聴者の発話に対する音声応答のタイミングを制御する構成を示したが、視聴者2によっては、当該音声応答のタイミングが、所望のタイミングと異なることも想定される。
そこで、次に、第2の実施の形態として、図14乃至図16を参照しながら、視聴者2からの指示発話に基づき、音声応答のタイミングを制御する構成を示す。
(構成の例)
図14は、第2の実施の形態の構成の例を示す図である。
図14においては、視聴者2により視聴されている放送番組の進行に合わせた処理の流れを、図14のA乃至Dによって、時系列で示している。
図14のAに示すように、視聴者2が、ドラマ番組を視聴中に、「この女優は誰?」である発話を行ったとき、ユーザインタフェース装置30は、視聴者2の発話をマイクロフォンにより収音し、その発話の音声データを、音声アシスタンスサーバ40に送信する。
その後、図14のBに示すように、音声アシスタンスサーバ40は、視聴中のドラマ番組の放送局により提供される処理サーバ50と連携して処理を行うことで、発話に対する応答の音声データを生成し、ユーザインタフェース装置30に送信する。
そして、ユーザインタフェース装置30は、音声アシスタンスサーバ40からの応答の音声データに応じた応答音声を出力することになるが、当該応答音声の出力が、視聴中のドラマ番組の会話のシーンと重なっている。このとき、視聴者2が、「ちょっと待って!」などの停止指示(待機指示)を行った場合には、応答音声の出力を停止するとともに、待機状態であることを示すアイコン(以下、待機中アイコンともいう)を提示して、応答を待機するようにする。
すなわち、図14のCに示すように、ユーザインタフェース装置30からの応答音声の出力は停止され、受信装置20の画面には、ドラマ番組の映像に重畳して、待機中アイコン251が表示されている。
その後、視聴中のドラマ番組が進行して、例えばCMに移ったときなどに、視聴者2が、「もういいよ!」などの開始指示(待機解除指示)を行った場合には、停止していた応答音声の出力を開始(再開)するとともに、待機中アイコン251を消すようにする。
すなわち、図14のDに示すように、応答音声の出力が開始(再開)され、ユーザインタフェース装置30は、音声アシスタンスサーバ40からの応答の音声データに基づき、「この女優の名前はXXXXで、主な主演作品は、・・・」である応答音声を出力する。
このとき、受信装置20では、例えばCMが再生されており、視聴者2のドラマ番組の視聴の妨げにならないタイミングで、音声応答が出力されている。つまり、この例において、視聴者2は、会話のシーンだけでなく、会話のないシーンでもドラマ番組に集中したかったため、CMになるまで、応答を待機させたことになる。
(各装置の詳細な構成の例)
図15は、第2の実施の形態の各装置の詳細な構成の例を示すブロック図である。
図15においては、図4及び図10と同様に、送信側の放送配信システム10と受信側の受信装置20の構成の例と、ローカル側の音声ユーザインタフェース装置30とクラウド側の音声アシスタンスサーバ40及び処理サーバ50の構成の例を示している。
なお、図15において、放送配信システム10の構成は、図4に示した構成と同様であるため、ここでは、その説明は省略する。また、図15において、音声アシスタンスサーバ40及び処理サーバ50の構成は、図10に示した構成と同様であるため、ここでは、その説明は省略する。
図15において、受信装置20は、チューナ201、デマルチプレクサ202、AVデコーダ203、放送付随アプリケーション実行部204、レンダラ205、ディスプレイ206、スピーカ207、通信部210、及び音声応答待機通知部213を含んで構成される。すなわち、図15に示した受信装置20の構成は、図4に示した構成と比べて、メディアタイム管理部208及び通信部209の代わりに、音声応答待機通知部213及び通信部210が設けられている。
音声応答待機通知部213は、音声ユーザインタフェース装置30(の音声応答出力制御部304)からの待機状態を示す通知を受け取った場合、レンダラ205に対し、待機中アイコンの表示を指示する。また、音声応答待機通知部213は、音声ユーザインタフェース装置(の音声応答出力制御部304)からの解除状態を示す通知を受け取った場合、レンダラ205に対し、待機中アイコンの削除を指示する。
図15において、音声ユーザインタフェース装置30は、マイクロフォン301、スピーカ302、通信部303、音声応答出力制御部304、バッファ306、音声解析部308、及び通信部309を含んで構成される。すなわち、図15に示した音声ユーザインタフェース装置30は、図4に示した構成と比べて、タイマ305及びセッティング管理部307が除かれた代わりに、音声解析部308及び通信部309が追加されている。
音声解析部308は、マイクロフォン301から供給される発話の音声データの解析を行い、その解析結果に基づき、応答音声の出力の停止指示(待機指示)、又は開始指示(待機解除指示)の発話がなされたかどうかを確認(判定)する。
音声解析部308は、応答音声の出力の停止指示又は開始指示の発話がなされていないと判定した場合、発話の音声データを、通信部303に供給する。これにより、発話の音声データは、インターネット60を介して音声アシスタンスサーバ40に送信される。また、音声解析部308は、応答音声の出力の停止指示又は開始指示の発話がなされたと判定した場合、その旨を、音声応答出力制御部304に通知する。
音声応答出力制御部304は、音声解析部308からの通知に基づいて、応答音声の出力の停止が指示された場合には、現在出力中の応答音声の出力が停止され、応答音声の出力の開始(再開)が指示された場合には、待機中(停止中)の応答音声の出力が開始(再開)されるようにする。また、音声応答出力制御部304は、音声解析部308からの通知に基づいて、受信装置20(の音声応答待機通知部213)に対し、待機状態又は解除状態を示す通知がなされるようにする。
(各装置の処理の流れ)
次に、図16のフローチャートを参照して、第2の実施の形態の各装置の処理の流れを説明する。
受信装置20にて再生されている放送番組を視聴中の視聴者2によって、発話がなされた場合、音声ユーザインタフェース装置30では、マイクロフォン301によって、その発話が収音される(S201)。また、音声解析部308によって、収音された発話の音声データが解析され、その解析結果に基づき、応答音声の出力の停止指示(待機指示)、又は開始指示(待機解除指示)の発話がなされたかどうかを確認(判定)する(S202)。
ここでは、ステップS202の判定処理の結果に従い、通常発話、停止発話、又は開始発話の3つの処理のうち、いずれかの処理が実行される。
第1に、ステップS202の判定処理で、例えば「この女優は誰?」である発話など、応答音声の出力の停止指示又は開始指示の発話ではなく、通常の発話がなされたと判定された場合、処理は、ステップS203に進められ、通常発話の処理が実行される。
この通常発話の処理では、音声ユーザインタフェース装置30によって、発話の音声データが、音声アシスタンスサーバ40に送信される(S203A)。音声アシスタンスサーバ40では、音声ユーザインタフェース装置30からの発話の音声データが解析され、その解析結果に応じたリクエストメッセージが生成される。
このリクエストメッセージは、処理サーバ50により受信され、ステップS203Bの処理が実行される。すなわち、処理部502は、リクエストメッセージに基づいて、音声応答データを抽出し、音声アシスタンスサーバ40に送信する。音声アシスタンスサーバ40では、音声応答データに基づき、応答の音声データが生成され、音声ユーザインタフェース装置30に送信される。
音声ユーザインタフェース装置30では、音声応答出力制御部304が、音声アシスタンスサーバ40からの応答の音声データに応じた応答音声を、スピーカ302から出力する。これにより、視聴者2は、音声ユーザインタフェース装置30から出力される応答音声を確認することができる。
第2に、ステップS202の判定処理で、例えば「ちょっと待って!」である発話など、応答音声の出力の停止指示の発話がなされたと判定された場合、処理は、ステップS204に進められ、停止発話の処理が実行される。
この停止発話の処理では、音声ユーザインタフェース装置30によって、ステップS204A乃至S204Cの処理が実行される。すなわち、音声解析部308は、音声応答出力制御部304に対し、応答音声の出力を停止するように通知(通達)する(S204A)。
これにより、音声応答出力制御部304は、音声解析部308からの通知に従い、スピーカ302から現在出力中の応答音声を停止する(S204B)。このとき、音声応答出力制御部304は、応答の音声データをバッファ306に一時的に保持するようにする。
また、音声応答出力制御部304は、応答音声の出力が待機状態であることを、受信装置20に通知する(S204C)。この待機状態を示す通知は、Bluetooth(登録商標)などの無線通信によって、受信装置20により受信され、ステップS204Dの処理が実行される。
すなわち、音声応答待機通知部213は、音声ユーザインタフェース装置30(の音声応答出力制御部304)からの待機状態を示す通知に基づいて、レンダラ205に対し、待機中アイコンの表示を指示する(S204D)。これにより、受信装置20のディスプレイ206の画面には、待機中アイコン251が表示されるため、視聴者2は、自身の発話によって、応答音声が待機中であることを確認することができる。
第3に、ステップS202の判定処理で、例えば「もういいよ!」である発話など、応答音声の出力の開始指示の発話がなされたと判定された場合、処理は、ステップS205に進められ、開始発話の処理が実行される。
この開始発話の処理では、音声ユーザインタフェース装置30によって、ステップS205A乃至S205Cの処理が実行される。すなわち、音声解析部308は、音声応答出力制御部304に対し、応答音声の出力を開始するように通知する(S205A)。
これにより、音声応答出力制御部304は、音声解析部308からの通知に従い、バッファ306に一時的に保持していた応答の音声データに応じた応答音声を、スピーカ302から出力して、待機中の応答音声の出力を再開する(S205B)。
また、音声応答出力制御部304は、待機中だった応答音声の出力が解除されたことを、受信装置20に通知する(S205C)。この解除状態を示す通知は、受信装置20により受信され、ステップS205Dの処理が実行される。
すなわち、音声応答待機通知部213は、音声ユーザインタフェース装置30からの解除状態を示す通知に基づいて、レンダラ205に対し、待機中アイコンの削除を指示する(S205D)。これにより、受信装置20のディスプレイ206の画面では、待機中アイコン251の表示が消される。
例えば、視聴者2は、ドラマ番組の視聴中に、応答音声をCMまで待機させていた場合に、応答音声の出力の開始指示の発話を行って、「この女優の名前はXXXXで、主な主演作品は、・・・」である応答音声を確認することができる。これにより、視聴者2は、自分の聞きたいタイミングで、応答音声(知りたい情報)を聞くことができる。
以上、第2の実施の形態の各装置の処理の流れとして、視聴者2からの指示発話に基づき、音声応答のタイミングを制御する場合の処理の流れを説明した。
なお、待機中アイコンは、応答音声の出力が待機中であることを示す情報の一例であって、当該待機中であることを通知することができる情報であれば、他の情報を用いることができる。また、例えば、受信装置20や音声ユーザインタフェース装置30において、待機情報として、ランプを点灯させるなどしてもよい。
(3)第3の実施の形態
ところで、第1の実施の形態では、システム側で、音声応答時間情報に基づき、視聴者の発話に対する音声応答のタイミングを制御しているため、視聴者2によっては、所望のタイミングで、音声応答を行いたい者も想定される。すなわち、第1の実施の形態に示した構成においても、第2の実施の形態に示した構成と同様に、視聴者2からの指示発話に基づき、音声応答のタイミングの制御が行われるようにしてもよい。
そこで、次に、第3の実施の形態として、図17乃至図20を参照しながら、通信経由又は放送経由で取得した音声応答タイミングメタデータ(音声応答時間情報)、及び視聴者2からの指示発話に基づき、音声応答のタイミングを制御する構成を示す。
(各装置の詳細な構成の第1の例)
図17は、第3の実施の形態の各装置の詳細な構成の第1の例を示すブロック図である。
図17においては、図4及び図15と同様に、送信側の放送配信システム10と受信側の受信装置20の構成の例と、ローカル側の音声ユーザインタフェース装置30とクラウド側の音声アシスタンスサーバ40及び処理サーバ50の構成の例を示している。
なお、図17において、放送配信システム10、音声アシスタンスサーバ40、及び処理サーバ50の構成は、図4に示した構成と同様であるため、ここでは、その説明は省略する。
図17において、受信装置20は、チューナ201、デマルチプレクサ202、AVデコーダ203、放送付随アプリケーション実行部204、レンダラ205、ディスプレイ206、スピーカ207、メディアタイム管理部208、通信部209、通信部210、及び音声応答待機通知部213を含んで構成される。すなわち、図17に示した受信装置20の構成は、図4に示した構成と比べて、音声応答待機通知部213及び通信部210が追加されている。
音声応答待機通知部213は、音声ユーザインタフェース装置30(の音声応答出力制御部304)からの待機状態を示す通知を受け取った場合には、レンダラ205に対し、待機中アイコンの表示を指示し、解除状態を示す通知を受け取った場合には、レンダラ205に対し、待機中アイコンの削除を指示する。
図17において、音声ユーザインタフェース装置30は、マイクロフォン301、スピーカ302、通信部303、音声応答出力制御部304、タイマ305、バッファ306、セッティング管理部307、音声解析部308、及び通信部309を含んで構成される。すなわち、図17に示した音声ユーザインタフェース装置30の構成は、図4に示した構成と比べて、音声解析部308及び通信部309が追加されている。
音声応答出力制御部304は、通信経由で取得された音声応答タイミングメタデータ(音声応答時間情報)に基づいて、音声応答タイミングまで待機するとき、受信装置20(の音声応答待機通知部213)に対し、待機状態を示す通知がなされるようにする。また、音声応答出力制御部304は、音声解析部308からの通知に基づいて、応答音声の出力の開始(再開)が指示されたとき、待機中(停止中)の応答音声の出力が開始(再開)されるようにする。このとき、音声応答出力制御部304は、音声解析部308からの通知に基づいて、受信装置20(の音声応答待機通知部213)に対し、解除状態を示す通知がなされるようにする。
(各装置の処理の第1の例の流れ)
次に、図18のフローチャートを参照して、第3の実施の形態の各装置の処理の第1の例の流れを説明する。
受信装置20にて再生されている放送番組を視聴中の視聴者2によって、質問発話がなされた場合、ステップS301乃至S303の処理が実行される。
ステップS301乃至S303においては、上述した図8のステップS102乃至S107と同様に、発話の音声データの解析結果に応じたリクエストメッセージが、処理サーバ50に送信されることで、処理サーバ50では、受信装置20から取得した現在のメディアタイムに基づき、音声応答タイミングメタデータ(番組全体のメタデータ)から、音声応答に適した時間を示す音声応答時間情報が抽出され、リクエストメッセージに応じた音声応答データが送信される(S301,S302)。
そして、応答の音声データと音声応答タイミングメタデータ(音声応答時間情報)は、インターネット60を介して、音声ユーザインタフェース装置30により受信され、音声応答出力制御部304は、通信経由で取得された音声応答タイミングメタデータ(音声応答時間情報)に基づいて、音声応答タイミングまで待機する(S303)。
ステップS304において、音声応答出力制御部304は、応答音声の出力が待機状態であることを、受信装置20に通知する。この待機状態を示す通知は、受信装置20により受信され、ステップS305の処理が実行される。
すなわち、音声応答待機通知部213は、音声ユーザインタフェース装置30(の音声応答出力制御部304)からの待機状態を示す通知に基づいて、レンダラ205に対し、待機中アイコンの表示を指示する(S305)。これにより、受信装置20のディスプレイ206の画面には、待機中アイコン251が表示されるため、視聴者2は、応答音声が待機中であることを確認することができる。
ここでは、例えば、視聴者2が、待機中アイコン251を確認して、音声応答が待機中になっていることに気づいたときに、応答音声の出力の開始指示の発話(例えば「もういいよ!」など)がなされた場合を想定する(S306,S307)。
このとき、音声ユーザインタフェース装置30では、音声解析部308によって、マイクロフォン301により収音された発話の音声データが解析され、ステップS308乃至S310の処理が実行される。すなわち、音声解析部308は、音声応答出力制御部304に対し、応答音声の出力を開始するように通知する(S308)。
これにより、音声応答出力制御部304は、音声解析部308からの通知に従い、バッファ306に一時的に保持していた応答の音声データに応じた応答音声を、スピーカ302から出力して、待機中の応答音声の出力を再開する(S309)。
また、音声応答出力制御部304は、待機中だった応答音声の出力が解除されたことを、受信装置20に通知する(S310)。この解除状態を示す通知は、受信装置20により受信され、ステップS311の処理が実行される。
すなわち、音声応答待機通知部213は、音声ユーザインタフェース装置30からの解除状態を示す通知に基づいて、レンダラ205に対し、待機中アイコンの削除を指示して、ディスプレイ206の画面に表示中の待機中アイコン251が消されるようにする(S311)。
なお、この例では、待機中アイコン251に気づいた視聴者2が開始指示の発話を行った場合を想定したが、開始指示の発話を行わない場合には、例えば、その後、音声応答時間情報の示す時間になったときに、スピーカ302から応答音声が出力される。
以上、第3の実施の形態の各装置の処理の第1の例の流れとして、通信経由で取得した音声応答タイミングメタデータ(音声応答時間情報)、及び視聴者2からの指示発話に基づき、音声応答のタイミングを制御する場合の処理の流れを説明した。
(各装置の詳細な構成の第2の例)
図19は、第3の実施の形態の各装置の詳細な構成の第2の例を示すブロック図である。
図19においては、図10及び図15と同様に、送信側の放送配信システム10と受信側の受信装置20の構成の例と、ローカル側の音声ユーザインタフェース装置30とクラウド側の音声アシスタンスサーバ40及び処理サーバ50の構成の例を示している。
なお、図19において、放送配信システム10、音声アシスタンスサーバ40、及び処理サーバ50の構成は、図10に示した構成と同様であるため、ここでは、その説明は省略する。
図19において、受信装置20は、チューナ201、デマルチプレクサ202、AVデコーダ203、放送付随アプリケーション実行部204、レンダラ205、ディスプレイ206、スピーカ207、メディアタイム管理部208、通信部210、音声応答タイミングメタデータ管理部211、記録部212、及び音声応答待機通知部213を含んで構成される。すなわち、図19に示した受信装置20の構成は、図10に示した構成と比べて、音声応答待機通知部213が追加されている。
音声応答待機通知部213は、音声ユーザインタフェース装置30(の音声応答出力制御部304)からの待機状態を示す通知を受け取った場合には、レンダラ205に対し、待機中アイコンの表示を指示し、解除状態を示す通知を受け取った場合には、レンダラ205に対し、待機中アイコンの削除を指示する。
図19において、音声ユーザインタフェース装置30は、マイクロフォン301、スピーカ302、通信部303、音声応答出力制御部304、タイマ305、バッファ306、セッティング管理部307、音声解析部308、及び通信部309を含んで構成される。すなわち、図19に示した音声ユーザインタフェース装置30は、図10に示した音声ユーザインタフェース装置30と同様に構成されるが、音声応答出力制御部304及び音声解析部308による処理の内容が異なる。
音声応答出力制御部304は、放送経由で取得された音声応答タイミングメタデータ(音声応答時間情報)に基づいて、音声応答タイミングまで待機するとき、受信装置20(の音声応答待機通知部213)に対し、待機状態を示す通知がなされるようにする。また、音声応答出力制御部304は、音声解析部308からの通知に基づいて、応答音声の出力の開始(再開)が指示されたとき、待機中(停止中)の応答音声の出力が開始(再開)されるようにする。このとき、音声応答出力制御部304は、音声解析部308からの通知に基づいて、受信装置20(の音声応答待機通知部213)に対し、解除状態を示す通知がなされるようにする。
(各装置の処理の第2の例の流れ)
次に、図20のフローチャートを参照して、第3の実施の形態の各装置の処理の第2の例の流れを説明する。
受信装置20にて再生されている放送番組を視聴中の視聴者2によって、質問発話がなされた場合、ステップS351乃至S354の処理が実行される。
ステップS351乃至S354においては、上述した図13のステップS152乃至S160と同様に、発話の音声データの解析結果に応じたリクエストメッセージが、処理サーバ50に送信されることで、リクエストメッセージに応じた音声応答データが送信される(S351,S352)。
一方で、音声ユーザインタフェース装置30では、受信した応答の音声データが、タイミング制御対象発話に対する応答となる場合には、受信装置20から、音声応答タイミングメタデータ(音声応答時間情報)が取得される(S353)。これにより、音声応答出力制御部304は、放送経由で取得された音声応答タイミングメタデータ(音声応答時間情報)に基づいて、音声応答タイミングまで待機する(S354)。
ステップS355乃至S356においては、上述した図18のステップS304乃至S305と同様に、音声応答出力制御部304によって、応答音声の出力が待機状態であることが通知され、この通知を受けた受信装置20では、音声応答待機通知部213によって、待機中アイコンの表示が指示される。
また、ステップS357乃至S362においては、上述した図18のステップS306乃至S311と同様に、視聴者2から応答音声の出力の開始指示の発話がなされた場合に、音声ユーザインタフェース装置30では、待機中だった応答音声の出力が再開される。また、このとき、音声応答出力制御部304によって、応答音声の出力が解除状態であることが通知され、この通知を受けた受信装置20では、音声応答待機通知部213によって、表示されている待機中アイコンの削除が指示される。
以上、第3の実施の形態の各装置の処理の第2の例の流れとして、放送経由で取得した音声応答タイミングメタデータ(音声応答時間情報)、及び視聴者2からの指示発話に基づき、音声応答のタイミングを制御する場合の処理の流れを説明した。
以上のように、第3の実施の形態では、音声ユーザインタフェース装置30の音声応答出力制御部304が、放送番組等のコンテンツに連携した音声AIアシスタンスサービスを利用するに際し、コンテンツを視聴する視聴者の発話に対する音声応答に適した時間を示す音声応答時間情報、及び当該視聴者の発話に基づいて、音声応答のタイミングを制御する。
また、音声ユーザインタフェース装置30において、音声応答出力制御部304が、音声応答のタイミングとなるまで待機する際に、当該待機中であることを示す情報が提示されるようにすることができる。さらに、音声応答出力制御部304は、視聴者により音声応答の開始指示がなされた場合、待機中の音声応答を開始するようにすることができる。
また、音声応答出力制御部304は、音声応答のタイミングとなるまで待機する場合、待機状態を示す通知(第1のメッセージ)を、放送番組等のコンテンツを再生中である受信装置20(第1の装置)に通知し、受信装置20(第1の装置)では、待機状態を示す通知(第1のメッセージ)に基づいて、待機中アイコン251(アイコン)を表示するようにし、視聴者により音声応答の開始指示がなされた場合、解除状態を示す通知(第2のメッセージ)を、受信装置20(第1の装置)に通知し、受信装置20(第1の装置)では、解除状態を示す通知(第2のメッセージ)に基づいて、待機中アイコン251(アイコン)の表示を消すようにすることができる。
このような機能を有する音声ユーザインタフェース装置30は、音声応答出力制御部304を備える情報処理装置であるとも言える。
このように、第1の実施の形態で示した構成では、システム側で、音声応答のタイミングを自動制御するため、例えば、本編の会話とかぶってもいいから、応答音声を早く聞きたい視聴者にとっては、余計なお節介になる可能性がある。そこで、第3の実施の形態の構成では、音声ユーザインタフェース装置30が、音声応答時間情報に基づき、応答音声の出力を待機している間でも、第2の実施の形態と同様に、受信装置20に待機中アイコンを表示させる。応答音声を早く聞きたい視聴者は、待機中アイコンを確認して、応答音声の出力が待機中であることを認識したとき、「もういいよ!」などと応答音声出力の開始指示を発話することで、即座に、応答音声を聞くことが可能になる。なお、自動タイミング調整が、視聴者にとっても的確であるならば、第2の実施の形態の構成のような、余計なインタラクションが必要なくなるというメリットもある。
<3.変形例>
(他の構成の例)
上述した説明では、受信装置20と音声ユーザインタフェース装置30とが別の装置であると説明したが、例えば、図21に示すように、それらの装置を一体化して1つの装置(情報処理装置)として構成されるようにしてもよい。
すなわち、図21に示した受信装置20は、音声AIアシスタンスサービスに対応したテレビ受像機やスマートフォン等の機器であって、チューナ201乃至メディアタイム管理部208、及び音声応答待機通知部213のほかに、音声ユーザインタフェース装置30側のマイクロフォン301、通信部303、音声応答出力制御部304、タイマ305、バッファ306、セッティング管理部307、及び音声解析部308が設けられている。ただし、図21において、スピーカ207は、音声ユーザインタフェース装置30側のスピーカ302としても用いられる。また、通信部303は、受信装置20側の通信部209としても用いられる。
図21に示した受信装置20においても、音声応答出力制御部304によって、音声応答時間情報に基づき、音声応答のタイミングが制御される。また、音声応答待機通知部213によって、待機中アイコンが提示される。
なお、図21においては、受信装置20が音声AIアシスタンスサービスに対応した場合の構成について説明したが、音声応答待機通知部213等の機能が、音声ユーザインタフェース装置30側に設けられ、必要な情報は、受信装置20側から取得するようにしてもよい。また、図21においては、第3の実施の形態に対応した構成を示したが、第1の実施の形態及び第2の実施の形態においても同様に、受信装置20と音声ユーザインタフェース装置30とを一体化してもよい。
また、音声AIアシスタンスサービスを提供するための機能としては、ローカル側の機能(例えば、音声応答出力制御部304や音声解析部308の機能など)と、クラウド側の機能(例えば、音声解析部403や音声生成部404−1、メタデータマージ部404−2の機能など)があるが、それらの機能のすべてが、ローカル側の装置(端末)又はクラウド側の装置(サーバ)で実装されるようにしてもよし、あるいは、それらの機能の一部が、ローカル側の装置(端末)又はクラウド側の装置(サーバ)で実装されるようにしてもよい。
また、上述した図1のコンテンツ・音声AI連携システム1においては、視聴者宅で、1つの受信装置20(例えばテレビ受像機)と、1つの音声ユーザインタフェース装置30(スマートスピーカ)とが設置される場合を図示したが、例えば、視聴者宅ごとに、本技術を適用した受信装置20と音声ユーザインタフェース装置30をそれぞれ設置することができる。また、視聴者宅において、受信装置20と音声ユーザインタフェース装置30は、同一の部屋に設置されることが想定されるが、異なる部屋に設置してもよい。さらに、1つの受信装置20に対し、複数の音声ユーザインタフェース装置30を設けるようにしてもよいし、その逆に、1つの音声ユーザインタフェース装置30に対し、複数の受信装置20を設けるようにしてもよい。
さらに、上述した図1のコンテンツ・音声AI連携システム1においては、1つの音声アシスタンスサーバ40と、1つの処理サーバ50とが設置される場合を図示したが、これらのサーバは、例えば、機能や事業者(例えば放送事業者)ごとに、複数設けるようにしてもよい。一方で、音声アシスタンスサーバ40と処理サーバ50の機能の全部又は一部をまとめて、1又は複数のサーバにより提供されるようにしてもよい。
(放送方式の例)
放送配信システム10から受信装置20に送られる放送信号(デジタル放送信号)を伝送するための放送方式としては、例えば、米国等で採用されている方式であるATSC(Advanced Television Systems Committee)のほか、日本等が採用する方式であるISDB(Integrated Services Digital Broadcasting)や、欧州の各国等が採用する方式であるDVB(Digital Video Broadcasting)などを適用することができる。また、その伝送路としては、地上波放送に限らず、例えば、放送衛星(BS:Broadcasting Satellite)や通信衛星(CS:Communications Satellite)等を利用した衛星放送や、ケーブルテレビ(CATV:Cable Television)等の有線放送などにも適用することができる。
また、上述した放送配信システム10は、1又は複数の放送サーバ等から構成されるものであって、例えば、一般的なデジタル放送のシステムでは、マルチプレクサ103(マルチプレクササーバ)と、送出部104(送出サーバ)とは、異なる場所に設置されるものである。より具体的には、例えば、マルチプレクサ103は、放送局内に設置される一方で、送出部104は、送信所に設置される。さらに、番組コンテンツ処理部101(番組コンテンツサーバ)、放送付随アプリケーション生成部102(放送付随アプリケーションサーバ)、及びメタデータ生成部105(メタデータサーバ)は、マルチプレクサ103(マルチプレクササーバ)と同一の場所(例えば放送局内の場所)又は異なる場所(例えば放送局外の場所)に設置されるようにすることができる。
(コンテンツ・アプリケーションの例)
なお、上述した説明では、配信対象のコンテンツとして、番組やCMを例示したが、本技術が適用されるコンテンツには、動画や音楽のほか、例えば、電子書籍やゲーム、広告など、あらゆるコンテンツが含まれる。また、上述した説明では、コンテンツの配信経路として、放送配信システム10による放送経由での配信を説明したが、OTT(Over The Top)サービス等を提供する通信配信システムによって、通信経由でストリーミング配信されるようにしてもよい。さらに、番組等のコンテンツを構成するコンポーネント(例えば、映像や音声、字幕など)の全部が、放送経由又は通信経由で配信されるようにしてもよいし、コンポーネントの一部が放送経由又は通信経由で配信される(残りの一部は通信経由又は放送経由で配信される)ようにしてもよい。
また、放送付随アプリケーションは、例えば、HTML5などのマークアップ言語やJavaScript(登録商標)等のスクリプト言語で開発されたアプリケーションとすることができるが、それに限らず、例えば、Java(登録商標)などのプログラミング言語で開発されたアプリケーションであってもよい。また、放送付随アプリケーションは、ブラウザ(放送付随アプリケーション実行部204)により実行されるアプリケーションに限らず、いわゆるネイティブアプリケーションとして、OS(Operating System)環境などで実行されるようにしてもよい。
さらに、上述した説明では、放送付随アプリケーションが、放送配信システム10により放送経由で配信される場合を説明したが、それに限らず、例えば、放送付随アプリケーションを生成するアプリケーションサーバによって、通信経由で(インターネット60を経由して)配信されるようにしてもよい。また、上述した説明では、放送付随アプリケーションは、放送経由で配信されるコンテンツに連動するとして説明したが、通信経由で配信されるコンテンツに連動して実行されるアプリケーションであってもよい。
(その他)
なお、本明細書で使用している名称は、一例であって、実際には、他の名称が用いられる場合がある。ただし、これらの名称の違いは、形式的な違いであって、対象のものの実質的な内容が異なるものではない。例えば、上述した「スキル」は、「アクション」や「アプリケーション」などと称される場合がある。また、上述した「AIアシスタンスサービス」は、「AIアシスタントサービス」などと称される場合がある。
<4.コンピュータの構成>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。図22は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成の例を示す図である。
コンピュータ1000において、CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003は、バス1004により相互に接続されている。バス1004には、さらに、入出力インターフェース1005が接続されている。入出力インターフェース1005には、入力部1006、出力部1007、記録部1008、通信部1009、及び、ドライブ1010が接続されている。
入力部1006は、キーボード、マウス、マイクロフォンなどよりなる。出力部1007は、ディスプレイ、スピーカなどよりなる。記録部1008は、ハードディスクや不揮発性のメモリなどよりなる。通信部1009は、ネットワークインターフェースなどよりなる。ドライブ1010は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体1011を駆動する。
以上のように構成されるコンピュータ1000では、CPU1001が、ROM1002や記録部1008に記録されているプログラムを、入出力インターフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ1000(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供することができる。
コンピュータ1000では、プログラムは、リムーバブル記録媒体1011をドライブ1010に装着することにより、入出力インターフェース1005を介して、記録部1008にインストールすることができる。また、プログラムは、有線又は無線の伝送媒体を介して、通信部1009で受信し、記録部1008にインストールすることができる。その他、プログラムは、ROM1002や記録部1008に、あらかじめインストールしておくことができる。
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであってもよいし、複数のコンピュータによって分散処理されるものであってもよい。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
また、本技術は、以下のような構成をとることができる。
(1)
コンテンツに連携した音声AIアシスタンスサービスを利用するに際し、前記コンテンツを視聴する視聴者の発話に対する音声応答に適した時間を示す音声応答時間情報に基づいて、前記音声応答のタイミングを制御する制御部を備える
情報処理装置。
(2)
前記音声応答時間情報は、前記コンテンツの再生時間軸上における前記音声応答に適した時間を示す情報である
前記(1)に記載の情報処理装置。
(3)
前記音声応答時間情報は、通信経由で取得される
前記(1)又は(2)に記載の情報処理装置。
(4)
前記コンテンツは、第1の装置により再生され、
前記音声応答時間情報は、第2の装置により通信経由で配信され、
前記第2の装置では、前記コンテンツの再生時間軸上の全部又は一部の時間を対象とした前記音声応答時間情報を含むメタデータから、前記第1の装置により再生中の前記コンテンツに対する前記音声応答に適した時間を示す前記音声応答時間情報が抽出されて配信され、
前記制御部は、通信経由で配信された前記音声応答時間情報に基づいて、前記音声応答のタイミングを制御する
前記(3)に記載の情報処理装置。
(5)
前記音声応答時間情報は、放送経由で取得される
前記(1)又は(2)に記載の情報処理装置。
(6)
前記コンテンツは、第1の装置により再生され、
前記音声応答時間情報は、第2の装置により放送経由で配信され、
前記第2の装置では、前記コンテンツの再生時間軸上の全部又は一部の時間を対象とした前記音声応答時間情報を含むメタデータが配信され、
前記第1の装置では、放送経由で配信された前記メタデータから、再生中の前記コンテンツに対する前記音声応答に適した時間を示す前記音声応答時間情報が抽出され、
前記制御部は、前記第1の装置により抽出された前記音声応答時間情報に基づいて、前記音声応答のタイミングを制御する
前記(5)に記載の情報処理装置。
(7)
前記制御部は、前記視聴者の発話に基づいて、前記音声応答のタイミングを制御する
前記(1)乃至(6)のいずれかに記載の情報処理装置。
(8)
前記制御部は、前記音声応答のタイミングとなるまで待機する際に、当該待機中であることを示す情報が提示されるようにする
前記(7)に記載の情報処理装置。
(9)
前記制御部は、前記視聴者により前記音声応答の開始指示がなされた場合、待機中の前記音声応答を開始するようにする
前記(7)に記載の情報処理装置。
(10)
前記制御部は、前記音声応答のタイミングとなるまで待機する場合、待機中であることを示す第1のメッセージを、前記コンテンツを再生中である第1の装置に通知し、
前記第1の装置では、通知された前記第1のメッセージに基づいて、待機中であることを示すアイコンを表示するようにし
前記制御部は、前記視聴者により前記音声応答の開始指示がなされた場合、待機中の前記音声応答の待機が解除されたことを示す第2のメッセージを、前記第1の装置に通知し、
前記第1の装置では、通知された前記第2のメッセージに基づいて、待機中であることを示すアイコンの表示を消すようにする
前記(9)に記載の情報処理装置。
(11)
前記音声応答時間情報は、前記音声応答に適した時間として、再生中の前記コンテンツの発話音声の出力のない時間を含む
前記(2)に記載の情報処理装置。
(12)
前記コンテンツは、放送経由で配信される放送コンテンツであり、
前記音声応答は、前記放送コンテンツを視聴する視聴者の発話に対する応答である
前記(1)乃至(11)のいずれかに記載の情報処理装置。
(13)
前記音声応答時間情報は、HTTPレスポンスを利用して、前記音声応答の音声データとともに、通信経由で配信される
前記(3)又は(4)に記載の情報処理装置。
(14)
前記コンテンツは、MPEG-DASHに準拠したストリームとして、放送経由で配信され、
前記音声応答時間情報は、MPDを利用して、放送経由で配信される
前記(5)又は(6)に記載の情報処理装置。
(15)
前記音声AIアシスタンスサービスのユーザインタフェースとして機能する音声処理装置として構成される
前記(1)乃至(14)のいずれかに記載の情報処理装置。
(16)
放送経由で配信される前記コンテンツを受信して再生する受信装置として構成される
前記(1)乃至(14)のいずれかに記載の情報処理装置。
(17)
情報処理装置の情報処理方法において、
前記情報処理装置が、
コンテンツに連携した音声AIアシスタンスサービスを利用するに際し、前記コンテンツを視聴する視聴者の発話に対する音声応答に適した時間を示す音声応答時間情報に基づいて、前記音声応答のタイミングを制御する
情報処理方法。
(18)
コンテンツに連携した音声AIアシスタンスサービスを利用するに際し、前記コンテンツを視聴する視聴者の発話に対する音声応答に適した時間を示す音声応答時間情報を含むメタデータを生成する生成部と、
生成した前記メタデータを送信する送信部と
を備える送信装置。
(19)
前記生成部は、前記コンテンツの再生時間軸上の全部又は一部の時間を対象とした前記音声応答時間情報を、前記音声AIアシスタンスサービスに用いられることを識別するための識別情報により識別可能に表現されたMPDを生成し、
前記送信部は、前記MPDとともに、前記コンテンツを、MPEG-DASHに準拠したストリームとして、放送経由で配信する
前記(18)に記載の送信装置。
(20)
送信装置の送信方法において、
前記送信装置が、
コンテンツに連携した音声AIアシスタンスサービスを利用するに際し、前記コンテンツを視聴する視聴者の発話に対する音声応答に適した時間を示す音声応答時間情報を含むメタデータを生成し、
生成した前記メタデータを送信する
送信方法。
1 コンテンツ・音声AI連携システム, 10 放送配信システム, 20 受信装置, 30 音声ユーザインタフェース装置, 40 音声アシスタンスサーバ, 50 処理サーバ, 60 インターネット, 70 ネットワーク, 101 番組コンテンツ処理部, 102 放送付随アプリケーション生成部, 103 マルチプレクサ, 104 送出部, 105 メタデータ生成部, 201 チューナ, 202 デマルチプレクサ, 203 AVデコーダ, 204 放送付随アプリケーション実行部, 205 レンダラ, 206 ディスプレイ, 207 スピーカ, 208 メディアタイム管理部, 209 通信部, 210 通信部, 211 音声応答タイミングメタデータ管理部, 212 記録部, 213 音声応答待機通知部, 301 マイクロフォン, 302 スピーカ, 303 通信部, 304 音声応答出力制御部, 305 タイマ, 306 バッファ, 307 セッティング管理部, 308 音声解析部, 309 通信部, 401 通信部, 402 通信部, 403 音声解析部, 404 メッセージ生成部, 404−1 音声生成部, 404−2 メタデータマージ部, 501 通信部, 502 処理部, 503 記録部, 1000 コンピュータ, 1001 CPU

Claims (20)

  1. コンテンツに連携した音声AIアシスタンスサービスを利用するに際し、前記コンテンツを視聴する視聴者の発話に対する音声応答に適した時間を示す音声応答時間情報に基づいて、前記音声応答のタイミングを制御する制御部を備える
    情報処理装置。
  2. 前記音声応答時間情報は、前記コンテンツの再生時間軸上における前記音声応答に適した時間を示す情報である
    請求項1に記載の情報処理装置。
  3. 前記音声応答時間情報は、通信経由で取得される
    請求項2に記載の情報処理装置。
  4. 前記コンテンツは、第1の装置により再生され、
    前記音声応答時間情報は、第2の装置により通信経由で配信され、
    前記第2の装置では、前記コンテンツの再生時間軸上の全部又は一部の時間を対象とした前記音声応答時間情報を含むメタデータから、前記第1の装置により再生中の前記コンテンツに対する前記音声応答に適した時間を示す前記音声応答時間情報が抽出されて配信され、
    前記制御部は、通信経由で配信された前記音声応答時間情報に基づいて、前記音声応答のタイミングを制御する
    請求項3に記載の情報処理装置。
  5. 前記音声応答時間情報は、放送経由で取得される
    請求項2に記載の情報処理装置。
  6. 前記コンテンツは、第1の装置により再生され、
    前記音声応答時間情報は、第2の装置により放送経由で配信され、
    前記第2の装置では、前記コンテンツの再生時間軸上の全部又は一部の時間を対象とした前記音声応答時間情報を含むメタデータが配信され、
    前記第1の装置では、放送経由で配信された前記メタデータから、再生中の前記コンテンツに対する前記音声応答に適した時間を示す前記音声応答時間情報が抽出され、
    前記制御部は、前記第1の装置により抽出された前記音声応答時間情報に基づいて、前記音声応答のタイミングを制御する
    請求項5に記載の情報処理装置。
  7. 前記制御部は、前記視聴者の発話に基づいて、前記音声応答のタイミングを制御する
    請求項1に記載の情報処理装置。
  8. 前記制御部は、前記音声応答のタイミングとなるまで待機する際に、当該待機中であることを示す情報が提示されるようにする
    請求項7に記載の情報処理装置。
  9. 前記制御部は、前記視聴者により前記音声応答の開始指示がなされた場合、待機中の前記音声応答を開始するようにする
    請求項8に記載の情報処理装置。
  10. 前記制御部は、前記音声応答のタイミングとなるまで待機する場合、待機中であることを示す第1のメッセージを、前記コンテンツを再生中である第1の装置に通知し、
    前記第1の装置では、通知された前記第1のメッセージに基づいて、待機中であることを示すアイコンを表示するようにし、
    前記制御部は、前記視聴者により前記音声応答の開始指示がなされた場合、待機中の前記音声応答の待機が解除されたことを示す第2のメッセージを、前記第1の装置に通知し、
    前記第1の装置では、通知された前記第2のメッセージに基づいて、待機中であることを示すアイコンの表示を消すようにする
    請求項9に記載の情報処理装置。
  11. 前記音声応答時間情報は、前記音声応答に適した時間として、再生中の前記コンテンツの発話音声の出力のない時間を含む
    請求項2に記載の情報処理装置。
  12. 前記コンテンツは、放送経由で配信される放送コンテンツであり、
    前記音声応答は、前記放送コンテンツを視聴する視聴者の発話に対する応答である
    請求項1に記載の情報処理装置。
  13. 前記音声応答時間情報は、HTTPレスポンスを利用して、前記音声応答の音声データとともに、通信経由で配信される
    請求項4に記載の情報処理装置。
  14. 前記コンテンツは、MPEG-DASHに準拠したストリームとして、放送経由で配信され、
    前記音声応答時間情報は、MPDを利用して、放送経由で配信される
    請求項6に記載の情報処理装置。
  15. 前記音声AIアシスタンスサービスのユーザインタフェースとして機能する音声処理装置として構成される
    請求項1に記載の情報処理装置。
  16. 放送経由で配信される前記コンテンツを受信して再生する受信装置として構成される
    請求項1に記載の情報処理装置。
  17. 情報処理装置の情報処理方法において、
    前記情報処理装置が、
    コンテンツに連携した音声AIアシスタンスサービスを利用するに際し、前記コンテンツを視聴する視聴者の発話に対する音声応答に適した時間を示す音声応答時間情報に基づいて、前記音声応答のタイミングを制御する
    情報処理方法。
  18. コンテンツに連携した音声AIアシスタンスサービスを利用するに際し、前記コンテンツを視聴する視聴者の発話に対する音声応答に適した時間を示す音声応答時間情報を含むメタデータを生成する生成部と、
    生成した前記メタデータを送信する送信部と
    を備える送信装置。
  19. 前記生成部は、前記コンテンツの再生時間軸上の全部又は一部の時間を対象とした前記音声応答時間情報を、前記音声AIアシスタンスサービスに用いられることを識別するための識別情報により識別可能に表現されたMPDを生成し、
    前記送信部は、前記MPDとともに、前記コンテンツを、MPEG-DASHに準拠したストリームとして、放送経由で配信する
    請求項18に記載の送信装置。
  20. 送信装置の送信方法において、
    前記送信装置が、
    コンテンツに連携した音声AIアシスタンスサービスを利用するに際し、前記コンテンツを視聴する視聴者の発話に対する音声応答に適した時間を示す音声応答時間情報を含むメタデータを生成し、
    生成した前記メタデータを送信する
    送信方法。
JP2020510644A 2018-03-29 2019-03-15 情報処理装置、情報処理方法、送信装置、及び送信方法 Active JP7366003B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018064977 2018-03-29
JP2018064977 2018-03-29
PCT/JP2019/010762 WO2019188393A1 (ja) 2018-03-29 2019-03-15 情報処理装置、情報処理方法、送信装置、及び送信方法

Publications (2)

Publication Number Publication Date
JPWO2019188393A1 true JPWO2019188393A1 (ja) 2021-04-15
JP7366003B2 JP7366003B2 (ja) 2023-10-20

Family

ID=68058377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020510644A Active JP7366003B2 (ja) 2018-03-29 2019-03-15 情報処理装置、情報処理方法、送信装置、及び送信方法

Country Status (6)

Country Link
US (2) US11438650B2 (ja)
EP (1) EP3780640A4 (ja)
JP (1) JP7366003B2 (ja)
KR (1) KR102630037B1 (ja)
CN (1) CN111903138A (ja)
WO (1) WO2019188393A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111243587A (zh) * 2020-01-08 2020-06-05 北京松果电子有限公司 语音交互方法、装置、设备及存储介质
WO2022180882A1 (ja) * 2021-02-25 2022-09-01 パナソニックIpマネジメント株式会社 音声制御方法、サーバ装置、及び、発話体
CN115565535B (zh) * 2022-09-21 2024-04-12 南京浮点智算数字科技有限公司 一种智能语音客服系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008301362A (ja) * 2007-06-01 2008-12-11 Toshiba Corp 移動無線端末装置
JP2011086232A (ja) * 2009-10-19 2011-04-28 Sharp Corp ネットワークシステム、通信方法、通信機器、および通信プログラム
JP2016192121A (ja) * 2015-03-31 2016-11-10 ソニー株式会社 制御装置、制御方法及びコンピュータプログラム
US20170329848A1 (en) * 2016-05-13 2017-11-16 Google Inc. Personalized and Contextualized Audio Briefing

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6993606B1 (en) * 1999-11-18 2006-01-31 Sony Corporation Communication method and communication apparatus for data communication between devices connected by a network
US20080208589A1 (en) * 2007-02-27 2008-08-28 Cross Charles W Presenting Supplemental Content For Digital Media Using A Multimodal Application
EP1998478A2 (en) 2007-06-01 2008-12-03 Kabushiki Kaisha Toshiba Mobile communication device
JP2008306426A (ja) 2007-06-07 2008-12-18 Toshiba Corp 携帯電話機
JP4774115B2 (ja) 2009-07-21 2011-09-14 富士通東芝モバイルコミュニケーションズ株式会社 移動無線端末装置
JP5903939B2 (ja) * 2012-03-08 2016-04-13 ソニー株式会社 受信装置、受信方法、及びプログラム
JP2014153663A (ja) 2013-02-13 2014-08-25 Sony Corp 音声認識装置、および音声認識方法、並びにプログラム
CN104284249A (zh) * 2013-07-11 2015-01-14 腾讯科技(深圳)有限公司 视频播放方法及装置
WO2015195950A1 (en) 2014-06-20 2015-12-23 Principia Biophamram Inc. Lmp7 inhibitors
US10659851B2 (en) * 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
WO2017197329A1 (en) 2016-05-13 2017-11-16 Google Llc Personalized and contextualized audio briefing
WO2017197184A1 (en) 2016-05-13 2017-11-16 Google Llc Led design language for visual affordance of voice user interfaces
US10332513B1 (en) * 2016-06-27 2019-06-25 Amazon Technologies, Inc. Voice enablement and disablement of speech processing functionality
US10271093B1 (en) * 2016-06-27 2019-04-23 Amazon Technologies, Inc. Systems and methods for routing content to an associated output device
WO2018005334A1 (en) 2016-06-27 2018-01-04 Amazon Technologies, Inc. Systems and methods for routing content to an associated output device
US20180081618A1 (en) * 2016-09-16 2018-03-22 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Audio segment playback coordination
US10033870B1 (en) * 2017-04-12 2018-07-24 Noble Systems Corporation Agent interaction with a party using multiple channels of communication
US20190034542A1 (en) * 2017-07-26 2019-01-31 Scripps Networks Interactive, Inc. Intelligent agent system and method of accessing and delivering digital files
US11025919B2 (en) * 2017-10-03 2021-06-01 Koninklijke Kpn N.V. Client-based adaptive streaming of nonlinear media

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008301362A (ja) * 2007-06-01 2008-12-11 Toshiba Corp 移動無線端末装置
JP2011086232A (ja) * 2009-10-19 2011-04-28 Sharp Corp ネットワークシステム、通信方法、通信機器、および通信プログラム
JP2016192121A (ja) * 2015-03-31 2016-11-10 ソニー株式会社 制御装置、制御方法及びコンピュータプログラム
US20170329848A1 (en) * 2016-05-13 2017-11-16 Google Inc. Personalized and Contextualized Audio Briefing

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
「色んなサイトをタイムトラベル・「WAYBACK MACHINE」が装いも新たにΒ版として新ドメインでスタート」, JPN6011009926, 29 January 2011 (2011-01-29), ISSN: 0005033750 *
STITCHER: ""Our Stitcher Alexa Skill"", STITCHER BLOG, JPN6019013150, 9 November 2017 (2017-11-09), pages 1 - 7, XP055638619, ISSN: 0005033749 *
TAYLOR MARTIN, ET AL., "THE COMPLETE LIST OF ALEXA COMMANDS SO FAR", JPN6019013147, 20 April 2017 (2017-04-20), pages 1 - 11, ISSN: 0005033748 *
押切 孝雄(外1名), 「はじめてでもよくわかる! WEBマーケティング集中講義」, vol. 初版, JPN6023013969, 17 April 2014 (2014-04-17), JP, pages 64 - 66, ISSN: 0005033752 *
玉生 洋一, 「WINDOWS8 倍速・時短技ユーザー・ハンドブック」, vol. 第1版, JPN6023013968, 3 June 2013 (2013-06-03), JP, pages 242, ISSN: 0005033751 *

Also Published As

Publication number Publication date
US11930248B2 (en) 2024-03-12
EP3780640A1 (en) 2021-02-17
US20210006862A1 (en) 2021-01-07
US11438650B2 (en) 2022-09-06
EP3780640A4 (en) 2021-02-17
JP7366003B2 (ja) 2023-10-20
US20220360849A1 (en) 2022-11-10
KR102630037B1 (ko) 2024-01-29
CN111903138A (zh) 2020-11-06
KR20200136382A (ko) 2020-12-07
WO2019188393A1 (ja) 2019-10-03

Similar Documents

Publication Publication Date Title
US9131256B2 (en) Method and apparatus for synchronizing content playback
RU2534977C2 (ru) Устройство обработки информации, способ управления данными и программа
US11930248B2 (en) Information processing apparatus, information processing method, transmission apparatus, and transmission method
US11115335B2 (en) Information processing device and information processing method
US9032452B2 (en) Method and apparatus for simulating head-end connectivity on a set-top box
KR102640835B1 (ko) 송신 장치, 수신 장치, 및 데이터 처리 방법
JP2005269607A (ja) インスタント対話型オーディオ/ビデオ管理システム
JP2009303062A (ja) 放送受信端末、放送データ合成方法、プログラムおよび記録媒体
JP2010245773A (ja) コンテンツ配信システム、コンテンツ受信端末、コンテンツの配信方法およびプログラム
KR102408267B1 (ko) 수신 장치, 송신 장치 및 데이터 처리 방법
JPWO2016174959A1 (ja) 受信装置、送信装置、およびデータ処理方法
KR20050101791A (ko) 맞춤형 프로그램 컨텐츠 제공 방법 및 시스템
KR102628917B1 (ko) 송신 장치, 수신 장치, 및 데이터 처리 방법
JP6647131B2 (ja) 配信装置及びプログラム
US11343588B2 (en) Information processing apparatus, information processing method, transmission apparatus, and transmission method
JP2022183550A (ja) 受信装置、クライアント端末装置、およびプログラム
JP2017092601A (ja) 受信機およびプログラム
KR20140134097A (ko) 클라우드 환경에서 녹화 서비스 제공 방법 및 장치
JP2003116119A (ja) 視聴者参加型放送番組配信方法、この方法に用いる送信システム及び受信システム
JP2019092227A (ja) 映像受信装置、映像受信方法、映像送信装置および映像送信方法
JP2014232978A (ja) デジタル放送受信装置
JP2020102740A (ja) 送受信システム及び送受信方法
US20100071006A1 (en) Broadcast receiving apparatus and method for providing and receiving an edited broadcast thereof
JP2015167400A (ja) 情報処理装置、データ管理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230607

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20230810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231010

R150 Certificate of patent or registration of utility model

Ref document number: 7366003

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150