JP7463242B2 - 受信装置、サーバ及び音声情報処理システム - Google Patents

受信装置、サーバ及び音声情報処理システム Download PDF

Info

Publication number
JP7463242B2
JP7463242B2 JP2020155675A JP2020155675A JP7463242B2 JP 7463242 B2 JP7463242 B2 JP 7463242B2 JP 2020155675 A JP2020155675 A JP 2020155675A JP 2020155675 A JP2020155675 A JP 2020155675A JP 7463242 B2 JP7463242 B2 JP 7463242B2
Authority
JP
Japan
Prior art keywords
scene
command
voice
receiving
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020155675A
Other languages
English (en)
Other versions
JP2022049456A (ja
Inventor
澄彦 山本
雅俊 村上
和幸 岡野
雅也 加藤
秀行 堤竹
雅史 辻
友美 西口
聡 内野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TVS Regza Corp
Original Assignee
TVS Regza Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TVS Regza Corp filed Critical TVS Regza Corp
Priority to JP2020155675A priority Critical patent/JP7463242B2/ja
Priority to PCT/CN2021/075126 priority patent/WO2021155812A1/zh
Priority to CN202180001659.7A priority patent/CN113498538A/zh
Publication of JP2022049456A publication Critical patent/JP2022049456A/ja
Application granted granted Critical
Publication of JP7463242B2 publication Critical patent/JP7463242B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Selective Calling Equipment (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本実施形態は、受信装置、サーバ及び音声情報処理システムに関する。
テレビ受信装置に対し、音声認識技術を用いたスマートスピーカなどから音声によるコマンド(音声コマンド)による操作制御ができる。通常、スマートスピーカは、音声コマンドを与える前に、トリガワードを与えてスマートスピーカを起動する必要がある。
特開2019-207286号公報 特開2020-122819号公報
ところが、例えばテレビ受信装置が表示する放送番組の映像を視聴しているユーザ(視聴者)が、興味を持った一映像シーン(画像)に対して音声コマンドによって操作しようとした場合、音声コマンドの前に発したトリガワードをスマートスピーカが処理している間に、その映像シーンは過ぎ去ってしまう。そのため、ユーザの発した音声コマンドは、視聴者が興味を持った時点の映像シーンに対する音声コマンドとならない可能性がある。
そこで、本実施形態では、ユーザが指定する映像シーンに対して音声コマンドを実行処理する受信装置、サーバ及び音声情報処理システムを提供することを目的とする。
一実施形態に係る受信装置は、表示手段から映像コンテンツを出力中に、前記映像コンテンツの一画像であるシーンを指定するための制御信号であるシーン指定信号を受信する制御信号受信手段と、音声を受波し、前記音声に対して音声認識を実行して、前記シーンに係るコマンドを取得する音声コマンド取得手段を起動するための起動命令を前記シーン指定信号を受信した後に生成する制御手段とを具備する。
図1は、実施例に係るシステムの構成例を示す図である。 図2は、受信装置の構成を概略的に示す図である。 図3は、スマート装置の構成例を示すブロック図である。 図4は、サーバの構成例を示すブロック図である。 図5は、第1の実施形態に係るシステムの動作例を示すタイミングチャートである。 図6は、同実施形態に係るシステムの動作例を示すフローチャートである。 図7は、同実施形態に係るシステムの動作例を示す図である。 図8は、第2の実施形態に係るシステムのシーケンスチャートである。 図9は、同実施形態に係るシステムにおけるデータフローの一例示す図である。 図10は、変形例に係るシステムの第1のデータフロー例を示す図である。 図11は、変形例に係るシステムの第2のデータフロー例を示す図である。 図12は、変形例に係るシステムの第3のデータフロー例を示す図である。
以下、図面を参照しながら実施形態を説明する。
図1は、実施例に係るシステムの構成例を示す図である。
受信装置100は、例えば、デジタルテレビ放送の受信装置(テレビジョン受信装置、テレビ受信装置とも称する)であり、図示せぬアンテナやケーブル放送などから、高度広帯域衛星デジタル放送などの4K/8K放送の放送信号や、既存の地上デジタル放送、BSデジタル放送、CSデジタル放送などの2K放送の放送信号を受信する。4K/8K放送、2K放送など各種デジタル放送の放送信号を指して各種放送信号と称することもある。受信装置100は、放送信号から、映像信号、音声信号、文字信号などコンテンツに関するデータ(コンテンツデータと称する)を取得し、ユーザにコンテンツを提供する。また受信装置100は、放送信号ではなく、例えばDVD、ハードディスクなど記憶媒体やインターネット上の図示せぬコンテンツサーバなどからデジタルテレビ放送用の映像データなどを取得することでもよい。
リモコン200は、受信装置100に付属のリモートコントローラであり、電源オンオフ、チャンネル切り替えなど、受信装置100を遠隔で制御する。ユーザ5がリモコン200を操作すると、赤外線などによる制御信号(リモコン制御信号と称する)が受信装置100に対してリモコン200から出力される。本実施形態におけるリモコン200には、シーン指定ボタン201が設けられている。
ユーザ5がシーン指定ボタン201を押下すると、シーン指定ボタン201に対応するリモコン制御信号(シーン指定信号と称する)が出力される。受信装置100は、シーン指定信号を受信すると、受信したタイミングに表示器170、スピーカ171などから出力中のコンテンツ(映像、音声、文字など)のシーン(映像フレーム)を特定し、そのシーンに係る視聴コンテンツ情報、シーン指定時間データを取得する。
シーンとは、基本的には瞬間の画像であり、映像の1フレームを示す。ただし、ユーザは通常、映像の1フレームを見分ける分解能はないと考えられるため、ユーザにとってのシーンは、映像の1フレームでなく、数秒程度の時間幅を持つ映像を示すことでもよい。
視聴コンテンツ情報とは、出力中のコンテンツが放送されているチャンネルなど、コンテンツが何であるかを特定するための情報である。シーン指定時間データとは、指定したシーンの放送時刻などの時刻情報である。視聴コンテンツ情報、シーン指定時間データを含めてシーン特定情報と称する。受信装置100は、取得したシーン特定情報を、メモリなどに記憶させることでもよい。また、リモコン200において、シーン指定ボタン201は、例えば「いいね」ボタンなどのような既存のボタンを代用することでもよい。また、リモコン200のファームウェアなどを更新することで、既存のボタンに割り当てることでもよい。また、特に受信装置100に付属のリモコン200である必要はなく、シーン指定ボタン201に専用のボタン装置などでもよく、さらに専用のボタン装置をリモコン200に接続できるようにしてもよい。また、受信装置100は、特定したシーンの瞬間画像(映像フレーム)のデータをメモリなどに記憶させることでもよい。また、リモコン200が出力するシーン指定信号をスマート装置300が受信できるようにしてもよい。
スマート装置300は、スマートスピーカであり、スピーカ、マイク、カメラ、音声認識手段などを内蔵し、マイクから音声を受波し、受波した音声から音声認識手段により、音声に重畳されたコマンドなどを取り出すことができる。スマート装置300は、外部装置とのインターフェースを備え、外部装置とデータのやり取りができる。例えば、スマート装置300は、受信装置100、リモコン200、ネットワーク500に接続するインターフェースを備える。また、スマート装置300は、音声により「質問」を受信した場合、ネットワーク500の上の人工知能エンジン(AIエンジン)等から「質問」に対する「答え」を取得できる。スマート装置300がAIエンジンを持っていてもよい。
サーバ400は、視聴コンテンツの関連情報(視聴コンテンツ関連情報とも称する)を提供するサーバであり、例えばクラウドサーバであってもよい。サーバ400は、ネットワーク500を介して、受信装置100、スマート装置300とデータのやり取りをする。本実施形態のおけるサーバ400は、受信装置100やスマート装置300からシーン特定情報及びコマンドを受信すると、シーン特定情報によって特定されるシーンに対してコマンドに基づいた処理を実施する。サーバ400は、処理結果を、受信装置100やスマート装置300に出力する。例えば、サーバ400は、スマート装置300から受信した「質問」に対する「答え」を作成し、スマート装置300に出力する。
ネットワーク500は、電気通信回線であり、例えば、インターネットである。
図2は、受信装置100の構成を概略的に示すブロック図である。
受信装置100は、放送波を受信する機能である基本機能160、システム制御部161、通信制御部162、アプリケーション制御部163を含む。また受信装置100は、表示器170、スピーカ171と接続している。
基本機能160は、放送チューナ101、デマルチプレクサ102、デスクランブラ103、映像デコーダ104、音声デコーダ105、字幕デコーダ106、キャッシュデータ部107、伝送制御信号解析部111を含む。
放送チューナ101は、放送波で送られてきたストリーム(放送信号)を復調する。復調されたストリーム(放送信号)は、デマルチプレクサ102に入力される。デマルチプレクサ102は、入力された多重化されているストリームを映像ストリーム、音声ストリーム、字幕ストリーム、アプリケーションデータ、伝送制御信号に分離し、映像ストリーム、音声ストリーム、字幕ストリーム、アプリケーションデータはデスクランブラ103に入力され、伝送制御信号は伝送制御信号解析部111に入力される。
デスクランブラ103は、必要に応じてそれぞれのストリームをデスクランブルして、映像ストリームを映像デコーダ104に、音声ストリームを音声デコーダ105に、字幕ストリームを字幕デコーダ106に、アプリケーションデータをキャッシュデータ部107にそれぞれ入力する。
映像ストリームは映像デコーダ104でデコードされ、音声ストリームは音声デコーダ105でデコードされ、字幕ストリームは字幕デコーダ106でデコードされる。
伝送制御信号解析部111は、伝送制御信号やSI信号(Signaling Information)などに含まれる各種制御情報の解析を行う。伝送制御信号解析部111は、また解析した伝送制御信号のうち、アプリケーションデータに関する制御情報であるMH-AIT、データ伝送メッセージ等を、アプリケーション制御部163に送り、さらに解析させる。伝送制御信号解析部111は、伝送制御信号、SI信号などの各種制御情報ら、放送中のコンテンツに係る視聴コンテンツ情報などを抽出し、図示せぬメモリなどに格納する。
アプリケーション制御部163は、伝送制御信号解析部111より送られてきた、アプリケーションデータに関する制御情報であるMH-AIT、データ伝送メッセージ等の制御情報の管理、制御を行う。
またアプリケーション制御部163は、キャッシュデータ部107に保存されたキャッシュされたデータを用いて、ブラウザ164を制御することでデータ放送の画面表示制御を行う。また、ブラウザ164は、字幕デコーダ106の出力データにより字幕の画面重畳データを生成する。
デコードされた映像信号及び字幕、データ放送などの表示内容(コンテンツ)は、合成器165で合成され表示器170に出力される。
また音声デコーダ105でデコードされた音声データは、スピーカ171に出力される。
なお、映像デコーダ104のコーデック種別は、H.265とするが、これに限定されるものではなく、MPEG-2、H.264のいずれでもよい。またコーデック種別は、これに限るものではない。
システム制御部161は、通信制御部162にて受信される外部装置などからの制御信号に基づいて、受信装置100の各種機能に対する制御を実施する。例えば、システム制御部161は、通信制御部162のリモコンI/F162-2からシーン指定信号を受信した場合、スマート装置300の音声検出機能もしくは音声認識によるコマンド取得機能(音声コマンド取得機能と称することもある)を起動(オン)にするための制御信号を作成し、制御信号をスマート装置300に送信する。またシステム制御部161は、シーン指定信号を受信すると、シーン指定信号を受信すると、受信したタイミングに表示器170、スピーカ171などから出力中のコンテンツのシーンを特定し、そのシーンに係る視聴コンテンツ情報、シーン指定時間データを取得する。システム制御部161は、シーン指定時間データを、例えば受信装置100内部の図示せぬ時計によって決定してもよいし、放送信号に含まれる時刻情報から決定してもよい。
通信制御部162は、各種インターフェースを含む。
ネットワークI/F162-1は、ネットワーク500に対するインターフェースである。通信制御部162は、ネットワークI/F162-1、ネットワーク500を経由してサーバ400と接続することがきる。通信制御部162は、サービス事業者装置(図示せず)が管理しているアプリーションやコンテンツを、ネットワークを経由して取得することができる。この取得したアプリケーションやコンテンツは、通信制御部162からブラウザ164に送られ、表示等に使用される。
リモコンI/F162-2は、リモコン200とのインターフェースであり、例えば赤外線通信の機能を備えていてもよい。リモコンI/F162-2は、リモコン200が出力するリモコン制御信号を受信する。
スマート装置I/F162-3は、スマート装置300とのインターフェースであり、例えば、有線のケーブルを接続することでもよいし、Wifi(登録商標)、Blootooth(登録商標)など無線通信のインターフェースであってもよい。スマート装置I/F162-3により、受信装置100は、スマート装置300と直接データ通信が可能となる。なお、受信装置100は、ネットワークI/F162-1を介してスマート装置300とデータ通信をすることもできる。
図3は、スマート装置300の構成例を示すブロック図である。
スマート装置300は、音声認識部310、システムコントローラ301、プログラムなどを格納したROM302、一時的なメモリとして用いられるRAM303、モータ制御部304、モータ制御部304により制御されるモータ321、モータ321により駆動され、スマート装置300の向きなどを変更する駆動機構322を搭載している。さらに、スマート装置300は、時計305、カメラ311、マイク312、スピーカ313、インターフェース314、バッテリ333を搭載している。
スマート装置300は、マイク312から受波した音声を、音声認識部310に入力して、音声に重畳されたコマンドなどを取り出すことができる。取り出されたコマンドは、例えば、インターフェース314から外部装置へ出力することができる。また、本実施形態におけるスマート装置300は、音声コマンドの受波機能または音声認識によるコマンド取得機能を起動するための制御信号を受信すると、自身の音声コマンド取得機能を起動する。通常のスマート装置300は、音声コマンド取得機能を起動する前に、トリガワードと呼ばれる音声コマンドを受信する必要があるが、本実施形態におけるスマート装置300では、リモコン200が出力するシーン指定信号によりシーンが指定されてから音声コマンドの受波を開始する。
例えば、インターフェース314が、リモコン200からのシーン指定信号(S2b)を受信すると、システムコントローラ301は、音声検出機能を構成するマイク312をオンする。また、システムコントローラ301は、音声検出機能をオンしてピックアップした「音声信号」と、ピックアップ時の「音声検知時間データ」と「スマートスピーカ識別情報」とを「音声コマンド情報(単にコマンドと称する場合もある)」としてRAM303に一時的に記憶させる。またシステムコントローラ301は、インターフェース314を介してサーバ400へ「音声コマンド情報」を送信するように制御する。
図4は、サーバの構成例を示すブロック図である。サーバ400は、インターフェース411、システムコントローラ422、記憶部423、解析部424を含む。例えば、テレビジョン受信装置、スマートスピーカから送信されたシーン指定データとコマンドは、システムコントローラ422の制御の下で、一旦、記憶部423に取り込まれる(バッファリングされる)。解析部424は、記憶部423に取り込まれた受信データを解析する。解析部424は、受信したシーン指定データから、放送番組のシーンを特定し、特定したシーンに対してコマンドを実行する。例えば、シーン指定データによって、ある旅番組において草原を車が走るシーンが指定され、コマンドが「場所はどこか教えて」という内容だったとする。サーバ400は、これらのシーン指定データとコマンドとを受信すると、解析部424が、シーン指定データに指定されるシーン(画像)に表示される場所をデータベースなどから取得し、コンテンツ関連情報として、例えば、「ここは長野県の八ヶ岳です」といった内容を、受信装置100やスマート装置300に出力する。コンテンツ関連情報は、受信装置100やスマート装置300からユーザに提供される。
(第1の実施形態)
本実施形態においては、リモコン200からのシーン指定信号をスマート装置300が受信する場合の動作例について示す。
この場合、シーン指定ボタン201が操作されて、スマート装置300がシーン指定信号を受信すると、スマート装置300は、音声検出機能を即座にオンし、このことによりピックアップした音声信号と、前記ピックアップ時の音声検知時間データとを「音声コマンド」としてメモリに記憶する手段を有することでもよい。そして、前記「音声コマンド」を前記サーバ400へ送信する手段を有する。例えば、リモコン200のシーン指定ボタン201が操作されると、受信装置100は、少なくとも、前記シーン指定信号を受信したときの映像のシーンの時間位置を示すシーン指定時間データと前記シーンを含むコンテンツのコンテンツ情報(番組情報等)とを、「シーン指定データ」として情報記録部に記録する手段や、前記「シーン指定データ」をサーバ400へ送信する手段を備えてもよい。
つまり、図1に示すように、系路S0で、番組を視聴しているユーザ5が映像シーンに関して何か問合わせをしたいような場合、ユーザ5は、リモコン200のシーン指定ボタン201にタッチする(S1)。すると、リモコン200は、受信装置100とスマート装置300に対して、それぞれ、シーン指定信号(S2a),(S2b)を送信する。
すると、受信装置100は、リモコンからのシーン指定信号(S2a)を受信し、少なくとも、前記シーン指定信号(S2a)を受信したときの前記映像のシーンの時間位置を示す「シーン指定時間データ」と、前記シーンを含むコンテンツの「コンテンツ情報(例えば番組情報)」と「TV識別情報」とを「シーン指定データ」として、情報記録部に記録する。そして、前記「シーン指定データ」をサーバ400へ送信する。
またスマート装置300は、リモコン200からの前記シーン指定信号(S2b)を受信し、音声検出機能をオンしてピックアップした「音声信号」と、前記ピックアップ時の「音声検知時間データ」と「スマートスピーカ識別情報」とを「音声コマンド情報」としてメモリに記憶する。そして、前記「音声コマンド情報」を前記サーバ400へ送信する。
なお、上記データの記憶時間が微少な時間であれば、「シーン指定時間データ」と「音声検知時間データ」とは、「シーン指定データ」と「音声コマンド情報」とが前記サーバ400へ送信されるときの「リアルタイム時間データ」であってもよい。これらの時間データは、ここでは、「シーン指定データ」と「音声コマンド情報」とをペアとするための「組み合わせ照合用データ」と称される。
サーバ400では、シーン指定データと音声コマンド情報とをリンクさせて、データベースとしてメモリに保持する。このデータベースは、種々の用途で解析処理される。リンクのための参照情報としては、「シーン指定時間データ」と「音声検知時間データ」との近似した時間データが利用される。
図5は、第1の実施形態に係るシステムの動作例を示すタイミングチャートであり、上記した音声情報処理システムが動作するときの一例を時間経過に沿って示している。図5の(2a)は、リアルタイム時間経過を示す。(2b)は、受信装置100の画面での番組シーンの経過を示している。(2c)は、リモコン200での時間経過であり、時刻t1にて、シーン指定ボタン201が操作されたことを示している。(2d)は、スマート装置300での時間経過であり、時刻t1にて、音声検出機能がオンし、マイクから音声がピックアップされる様子を示している。音声検出機能がオンしてから、いつオフするかは、一定レベル以上の周囲音声が途絶えた場合、或は、所定時間経過後(30秒、或は2分間など、・・・)があり、ユーザが任意に設定してもよい。
(2e)は、受信装置100での時間経過であり、受信装置100が、シーン指定データを生成しサーバへ送信処理する時間帯を示している。
(2f)は、サーバ400での時間経過である。サーバ400では、受信装置100及びスマート装置300からの「シーン指定データ」と「音声コマンド情報」とを受信し、シーン指定データと音声コマンド情報とをリンクさせて、データベースとしてメモリに保持する。また、サーバ400は、前記データベースを、種々の用途で解析処理したり、各受信装置100及び又はスマート装置300へ解析結果を返信したりする。
上記の例は、リアルタイムで放送されている番組についての情報の収集例を示したが、放送番組が、一度、記録再生装置に記録され、その番組が再生される場合でも上記の考え方は、適用できる。
その場合、時間情報は、番組のスタート時点からの経過時間が、先の時刻t1として採用される。また「シーン指定データ」が、クラウドサーバに送信される場合、このシーン指定データに含まれる番組情報(番組名等)には、再生番組であることの識別情報(或は属性情報と称してもよい)が付加されている。さらにまた、「シーン指定データ」と「音声コマンド情報」がクラウドサーバへ送信される場合、両者をリンクさせるための参照時間情報として、「リアルタイムの時間情報」が付加されて送信される。
図6は、同実施形態に係るシステムの動作例を示すフローチャートであり、図1、図2で示したリモコン200において、シーン指定モードの起動操作があった場合の動作例を示している。リモコン200では、シーン指定ボタン201がシーン指定モードを起動するボタンとして兼用されていてもよいし、別途、予め動作モードを決めるためのシーン指定モード起動ボタンが存在してもよい。
今、リモコン200は、シーン指定モードが起動されているものとする(SA1)。そしてユーザ5は、画面を見ながら番組を視聴しているものとする。ここで、例えば気になるシーンがあったとする。ユーザは、このときシーン指定ボタン201を操作する(SA2)。すると、受信装置100では、通信制御部162、システム制御部161が共同しで動作する。少なくとも現在のシーンの時間データと、番組情報(チャンネルや番組名等)とを「シーン指定データ」を一時的にシステム制御部161内のメモリのシーン情報記憶部に記憶する(SA3)。次に、シーン情報記憶部に記憶している「シーン指定データ」と受信装置100を識別する「TV識別情報」とを一体化して、ネットワークI/F162-1を介してクラウドサーバへ送信する(SA5)。なおTV識別情報がシーン指定データに含まれている場合は一体化する必要はない。
一方、スマート装置300においては、ユーザが、シーン指定ボタン201を操作する(SA2)と、シーン指定信号をインターフェース314が受信する。するとシステムコントローラ301は、スピーカ313をオンし、音声入力を可能とする(SA7)。
システムコントローラ301の制御の下で、音声を集音し、音声データとこの集音時の時間データとが「音声コマンド情報」としてメモリ(RAM303)に格納される(SA8)。
次に「音声コマンド情報」と対応する受信装置100の「TV識別情報」及び又は「リモコン識別情報」をサーバ400へ送信する。なお、「音声コマンド情報」を送信する場合、スマート装置300の「スピーカ識別情報」及び又は「リモコン識別情報」をサーバ400へ送信してもよい。なお、「音声コマンド情報」にすでに「スピーカ識別情報」が含まれている場合は、上記送信時に「スピーカ識別情報」を改めて追加する必要はない。
なお音声コマンドに相当する用語としては、例えば、以下のような用語がある。
「今のシーンは、何処の撮影場所?」、「場所はどこ?」「今の人は誰?」、「今の車のメーカは?」、「今の車種は?」、「このホテルはどこ」、「このレストランはどこ
?」、「メーカは?」、「止めて」、「記録して」、「戻って」、「ストップ」などがある。また、記録再生装置からの再生映像に対するコマンドの場合、例えば、「一時停止」、「巻き戻し」、「早送り」、「スキップ」、画面を真っ黒にする「マスク」、「電源オフ」、などがある。
上記したステップSA3,SA3-SA5、SA6は、受信装置100内のシステム制御部161内の機能ブロックとして記述することができる。また上記したステップSA3,SA7-SA9、SA6は、スマート装置300内のシステムコントローラ301内の機能ブロックとして記述することができる。多数のテレビジョン受信装置、スマートスピーカから送信されたシーン指定データと音声コマンドは、システムコントローラ422の制御の下で、一旦、記憶部423に取り込まれる(バッファリングされる)。解析部424は、記憶部423に取り込まれた受信データを解析し、まず、番組毎にデータ整理を行う。本実施形態における解析部424は、受信装置100やスマート装置300から受信したシーン特定情報及びコマンドに基づいて、データベースを検索して、シーン特定情報に関連する関連提供情報を取得し、受信装置100やスマート装置300に出力する。
図7は、同実施形態に係るシステムの動作例を示す図であり、受信装置100からサーバ400へ「シーン指定データ」が送信され、スマート装置300から「音声コマンド情報」が送信された場合のサーバ400の動作例を示している。
サーバ400は、先の「シーン指定データ」をバッファ423aに一旦格納し、「音声コマンド情報」をバッファ423bに一旦格納する。「シーン指定データ」と「音声コマンド情報」とは、異なるテレビジョン装置とスマートスピーカからも次々と送信されてくる。
組み合わせエンジン424aは、互いに対応する「シーン指定データ」と「音声コマンド情報」を、組み合わせ照合用データに基づいて組み合わせ、組となった「シーン指定データ」と「音声コマンド情報」をペア格納部423cに格納する。
ペア格納部423cに格納されている「音声コマンド情報」は、コマンド解析部424bにおいて解析され、音声コマンドの内容が把握される。
コマンド解析の結果、音声コマンドがTV制御用コマンド(例えば、「一時停止」、「巻き戻し」、「早送り」、「スキップ」、画面を真っ黒にする「マスク」、「電源オフ」、など)であるのか、或は映像シーンに関する情報取得用のコマンド(例えば、今のシーンは、何処の撮影場所?」、「場所はどこ?」「今の人は誰?」、「今の車のメーカは?」、「今の車種は?」、「このホテルはどこ」、「このレストランはどこ?」、「メーカは?」・・など)であるのかの判定が行われる。
音声コマンドがTV制御用コマンド423dであった場合、その制御用コマンドがバッファ423eに準備され、TV制御用として、対応する受信装置100に送信される。
音声コマンドがシーン関連情報取得用コマンド423fであった場合、このコマンドを用いて、番組メタ情報記憶部423hから、コマンドに対応する情報が読み出され、バッファ423gに準備される。コマンドに対応する情報としては、例えば、監督名、プロデューサ名、俳優のプロローグ、観光地名所、等がある。これらの情報は、例えば音声情報として、スマート装置300に音声応答情報として送信される。また、応答情報としてピクチャーインピクチャー(PIP)用の映像データが送られてもよい。尚、番組メタ情報記憶部423hは、サーバ400自身が番組情報や各種のメディア情報から関連情報を収集して蓄積した蓄積情報を記憶している。また、蓄積情報内には、各テレビジョン受信装置から視聴履歴なども収集されて蓄積されている。
上記したように、本実施形態では、映像シーンに対する情報を取得する音声コマンドをスマートスピーカに与える場合、前記音声コマンドの入力タイミングの即時性を実現し得る受信装置、サーバ、音声情報処理システム及び方法を提供することができる。
上記のシステムは以下のように記述することが可能である。
(1) 映像を出力するテレビジョン装置が、リモコンからのシーン指定信号を受信し、少なくとも、前記シーン指定信号を受信したときの前記映像のシーンの時間位置を示すシーン指定時間データと、前記シーンを含むコンテンツのコンテンツ情報とを「シーン指定データ」として、情報記録部に記録する手段と、
前記「シーン指定データ」をクラウドサーバへ送信する手段と、を有し、
少なくとも音声をピックアップする機能を有するスマート装置が、
前記リモコンからの前記シーン指定信号を受信し、音声検出機能をオンしてピックアップした音声信号と、前記ピックアップ時の音声検知時間データとを「音声コマンド情報」としてメモリに記憶する手段と、前記「音声コマンド情報」を前記クラウドサーバへ送信する手段と、を備えた音声情報処理システム。
(2)前記テレビジョン装置は、上記(1)において、前記映像のシーンの画像を、記憶する手段を備える。これにより、ユーザは、記憶したシーンを後で確認したり、この記憶したシーンに対して音声コマンドを実行したりすることができる。
(3)前記テレビジョン装置は、上記(1)又は(2)において、前記映像のシーンの画像を、小画面に一定時間表示する手段を備える。これにより、ユーザは、興味を持ったシーンを目視して音声コマンドを発話することができる。
(4)前記テレビジョン装置は、上記(1)乃至(3)のいずれかにおいて、前記クラウドサーバから送られてくる前記「音声コマンド情報」に含まれるコマンドを受け取り、前記コマンドに応じた動作の制御を行う制御手段(システム制御部161)を有する。これにより、ユーザは興味あるシーンの保存、繰り返し再生(スチール再生)などを行うことが可能となる。また当該シーンに対するチャプター設定などの編集処理を行うことも容易となる。
(5)前記スマート装置は、上記(1)乃至(4)のいずれかにおいて、前記クラウドサーバに送られた前記「音声コマンド情報」に含まれるコマンドに基づいて、前記クラウドサーバで取得された「音声データ」を受け取り、前記「音声データ」に対応した音声をスピーカより出力する。
通常のスマート装置300は、音声コマンドを受け付ける前にトリガワードを受信する必要がある。このような通常のスマート装置300の場合、ユーザが興味を持った瞬間のシーンを迅速に指定できないことがある。すなわち、興味を持った瞬間に音声コマンドを発したとしても、通常のスマート装置300がコマンドを実行するのは、トリガワードと音声コマンドを受信し、音声認識によりコマンドを取り出した後になり、コマンドが実行されるシーンは、興味を持ったシーンよりも遅れたシーンになってしまう。本実施形態におけるスマート装置300は、ユーザはシーンを指定してから音声コマンドを発するために、指定したシーンに対して音声コマンドを実行することができる。
例えば、テレビジョン放送の番組映像を視聴しているユーザ(視聴者)が、時々刻々表示される映像シーンについてさらなる関連情報を知りたい場合がある。関連情報とは、例えば映像シーンに出てきた出演者の名前、風景の場所(例えば地域名や住所など)の情報である。このような場合に、本実施形態によれば、ユーザの興味がある映像シーンに対して音声コマンドにより、関連情報を取得することが可能となる。
(第2の実施形態)
本実施形態においては、リモコン200が出力するシーン指定信号を、受信装置100が受信し、受信装置100からスマート装置300を起動させる起動命令を、サーバ400を介してスマート装置300に送信する場合の動作例について示す。本実施形態によって、スマート装置300の状態をサーバ400が認識することができ、スマート装置300からのコマンドを適切に処理することが可能となる。
図8は、第2の実施形態に係るシステムのシーケンスチャートであり、ユーザ5と受信装置100、サーバ400、スマート装置300間のデータなどのやり取り、各機能の処理のフローを表している。
ユーザ5は、受信装置100で旅番組を視聴中に、すごく綺麗な草原をかっこよい車が走るシーンを見て、「この場所はどこか知りたい」、「この車のメーカを知りたい」と思ったとする。ユーザ5は、そのシーンを見た瞬間にリモコン200のシーン指定ボタン201を押下する。(ステップS51)。
受信装置100において、システム制御部161は、リモコン200から出力されるシーン指定信号をリモコンI/F162-2経由で受信すると(ステップS101)、シーン指定信号を受信したタイミングで表示器170、スピーカ171に出力されているコンテンツシーンに対するシーン指定時間データを取得する。シーン指定時間データは、例えば、シーンが表示された時の絶対時刻であってもよいし、コンテンツ開始からシーンが表示されるまでのカウント時刻(相対時間)であってもよい。また、シーン指定時間データは、受信装置100が内部で備えている時計やカウンターで取得してもよいし、放送信号の番組情報等から取得してもよい。
また同時に、システム制御部161は、出力コンテンツに係る視聴コンテンツ情報を取得する。システム制御部161は、視聴コンテンツ情報とシーン指定時間データとを含めてシーン特定情報を作成する(ステップS102)。システム制御部161は、作成したシーン特定情報を、ネットワークI/F162-2からネットワーク500経由でサーバ400に送信する(ステップS103)。サーバ400は、システム制御部161から送信されたシーン特定情報を受信し、記憶部423に格納する(ステップS131)。
さらに、受信装置100において、システム制御部161は、スマート装置300に対して音声コマンド取得機能を起動させるための起動信号をネットワークI/F162-2からネットワーク500へ出力する(ステップS104)。起動信号は、一旦サーバ400で受信された後、ネットワーク500経由でスマート装置300に転送される(ステップS132、S141)。このステップにより、スマート装置300の状態をサーバ400が管理することができる。なお、本実施形態においては、受信装置100がスマート装置300に対して明示的に起動信号を送信する例を示しているが、ステップS103で出力したシーン特定情報を起動信号として利用してもよい。
サーバ400において、システムコントローラ422は、受信装置100から起動信号を受信すると、データ処理のモードを変更する(ステップS132、S133)。このモード変更により、後段で受信するコマンドは、ステップS131で受信したシーン特定情報に対して実行するモードとなる(ステップS133)。なお、説明のためにステップS133として明示的にモード変更を示したが、例えば、システムコントローラ422は、ステップS131やS132によってシーン特定情報や起動信号を受信したら、後段で受信されるコマンドがシーン特定情報に対して実行するコマンドであると判断すれば、特にステップS133はなくてもよい。
スマート装置300において、システムコントローラ422は、起動信号を受信すると、音声認識部310の音声コマンド取得機能を有効にする(ステップS142)。また、ステップS142において同時にモード変更を行っているが、スマート装置300の動作が、通常の処理動作から変わること示している。スマート装置300の通常の動作(通常モード)においては、トリガワードを受信したら音声コマンド取得機能を起動するが、本実施形態においては、スマート装置300は起動信号をトリガにして、音声コマンド取得機能を起動する。なお、ステップS141において、システムコントローラ422は、起動信号を受信したら、音声コマンド取得機能を起動すればよいため、特にステップS142におけるモード変更の動作はなくてもよい。
スマート装置300は、音声コマンド取得機能を起動した旨を、スピーカ313から音声でユーザに通知してもよい(ステップS143)。ユーザは、スピーカ313から音声コマンド取得機能が有効になった旨を聞くことで、音声コマンドの発話が可能になったと認識できる(ステップS52)。
以上の手順により、ユーザ5は、リモコン200から指定したシーンに対して音声コマンドを発することが可能になる。
図9は、同実施形態に係るシステムにおけるデータフローの一例示す図であり、ユーザ5が視聴中コンテンツのシーンを指定した後、指定したシーンに対して音声コマンドを発話できるようになるまでのシステムにおけるデータの流れを示している。
ユーザ5は、リモコン200のシーン指定ボタン201を押下する(データラインL201、図8のステップS51に相当)。リモコン200がシーン指定信号を出力し、受信装置100が受信する(データラインL202、図8のステップS103、S131に相当)。受信装置100はシーン特定情報、起動信号を出力し、ネットワーク500を介してサーバ400がそれぞれ受信する(データラインL203、L204、図8のステップS103、S131、S104、S132に相当)。サーバ400は、起動信号を出力し、ネットワーク500を介してスマート装置300が起動信号を受信する(データラインL205、L206、図8のステップS132、S141に相当)。スマート装置300は、音声コマンド取得機能を起動した旨の音声通知を出力する(データラインL207、図8のステップS142、S52に相当)。ユーザ5は、音声コマンド取得機能を起動した旨の音声通知を聞くと、スマート装置300に対して音声コマンドを発話する(データラインL208、図8のステップS53に相当)。
図8に戻り、ユーザ5は、音声コマンドを発話する(ステップS53)。例えば、「この場所はどこか知りたい」というフレーズ(音声コマンド)を発話する。スマート装置300において、マイク312が音声を受波すると、受波した音声に対して音声認識部310が音声認識を実施する(ステップS144、S145)。本実施形態においては、音声認識部310がスマート装置300に設置されている場合を示しているが、ネットワーク500上の外部の音声認識装置などを使用してもよい。音声認識部310は、音声認識により得たテキストデータに基づいて、音声コマンドに重畳された指令(コマンド)を取得する(ステップS146)。ここでコマンドの取得は、例えば、スマート装置200が、テキストデータを外部の図示せぬテキスト変換装置に送信して、テキスト変換装置がコマンドに変換して、スマート装置200に送り返すことでもよい。スマート装置200は取得したコマンドをサーバ400に送信し、サーバ400はコマンドを受信する(ステップS134)。なお、ステップS146におけるテキスト変換装置は受信装置100にあってもよく、この場合は、ステップS147におけるサーバ400へのコマンドの送信は、受信装置100が行う。また、ステップS146におけるテキスト変換装置はサーバ400にあってもよく、この場合は、サーバ400自身がコマンドの管理をすればよい。
サーバ400は、ステップS131で記憶部423に格納したシーン特定情報とステップS134で受信したコマンドとに基づいて、コンテンツ関連情報を生成する(ステップS135)。具体的には、サーバ400は、シーン特定情報からシーンを特定し、特定したシーンに対して受信したコマンドに係る処理を実施し、コンテンツ関連情報を得る。コンテンツ関連情報とは、特定したシーンに対するコマンドの結果であり、ユーザが発した音声コマンドに対する応答となる。例えば、「この場所はどこか知りたい」という音声コマンドに対する応答として、「長野県の八ヶ岳です」といったコンテンツ関連情報を生成する。コンテンツ関連情報は、必要に応じて、受信装置100、スマート装置300に送信される。受信装置100がコンテンツ関連情報を受信した場合は、例えば、コンテンツ関連情報が文字情報として画面に表示されることでもよい。スマート装置300がコンテンツ関連情報を受信した場合は、例えば、コンテンツ関連情報が音声で発せられることでもよい。
スマート装置300が続けて次の音声コマンドを受波した場合、再度ステップS145に戻り、音声認識を実施し、コンテンツ関連情報を作成し、コンテンツ関連情報を受信装置100やスマート装置300に送信する(ステップS149のYES)。例えば、1つ目の音声コマンドの後に、「さらに」、「続けて」などのキーワードが音声認識で取得された場合には、次の音声コマンドが来るものと判断し、再度ステップS145からの処理を繰り返してもよい。
一方、スマート装置300は、例えば、ある一定時間以上、次の音声コマンドが来なかった場合、ステップS131で記憶部423に格納したシーン特定情報に対する音声コマンドの取得を終了し、通常のモードに戻る(ステップS149のYES、S150)。スマート装置300は、通常のモードに戻ると、その旨をサーバ400に通知する。サーバ400は、スマート装置300が通常のモードに戻ったことを認識すると、自身のモードを、ステップS131、S132でシーン特定情報や起動信号を受信する前のモードに戻す(ステップS138)。
以上の手順により、ユーザ5は、リモコン200から指定したシーンに対して音声コマンドを実行することができる。例えば、ユーザ5は、受信装置100で番組を視聴中に、現れた物や風景に対して「この場所はどこか知りたい」、「この車のメーカを知りたい」と思ったら、リモコン200からシーン指定ボタン201を押下してから、スマート装置300に対して、「この場所はどこか知りたい」、「この車のメーカを知りたい」などの音声コマンドを発する。この手順により、ユーザが興味を持ったシーンに対して知りたい情報、例えば、「ここは奥多摩です」といった回答や、車のメーカのWWW(World Wide Web)などが、受信装置100に表示されたり、スマート装置300から音声で出力されたりする。
(変形例)
本変形例においては、リモコン200からのシーン指定信号が出力された後、受信装置スマート装置300を起動させる(モード変更)するための起動命令を送信する形態の例について示す。スマート装置300を起動させた後の動作は、第1及び第2の実施形態に示したフローと同様である。
図10は、変形例に係るシステムの第1のデータフロー例を示す図であり、ユーザ5が視聴中コンテンツのシーンを指定した後、指定したシーンに対して音声コマンドを発話できるようになるまでのシステムにおけるデータの流れを示している。
ユーザ5は、リモコン200のシーン指定ボタン201を押下する(データラインL301)。リモコン200がシーン指定信号を出力し、受信装置100が受信する(データラインL302)。受信装置100はスマート装置I/F162-3から起動信号を出力し、スマート装置300はインターフェース部314で受信する(データラインL303)。受信装置100は、リモコン200からのシーン指定信号をトリガにシーン特定情報を取得し、ネットワーク500を介してサーバ400にシーン特定情報を出力する(データラインL304、L305)。スマート装置300は、起動信号の受信をトリガに音声コマンド取得機能を起動し、「音声コマンド受付できます」など音声を出力する。(データラインL306)。ユーザ5は、音声コマンド取得機能を起動した旨の音声通知を聞くと、スマート装置300に対して音声コマンドを発話する(データラインL307)。
図11は、変形例に係るシステムの第2のデータフロー例を示す図であり、ユーザ5が視聴中コンテンツのシーンを指定した後、指定したシーンに対して音声コマンドを発話できるようになるまでのシステムにおけるデータの流れを示している。
ユーザ5は、リモコン200のシーン指定ボタン201を押下する(データラインL401)。リモコン200がシーン指定信号を出力し、受信装置100のリモコンI/F162-2が受信する(データラインL402)。リモコンI/F162-2は、システム制御部161にシーン指定信号を出力する(データラインL403)。システム制御部161は、シーン指定信号に基づいて、スマート装置300に起動信号を出力する(データラインL404)。受信装置100は、リモコン200からのシーン指定信号をトリガにシーン特定情報を取得し、ネットワーク500を介してサーバ400にシーン特定情報を出力する(データラインL405、L406)。スマート装置300は、起動信号の受信をトリガに音声コマンド取得機能を起動し、「音声コマンド受付できます」など音声を出力する。(データラインL407)。ユーザ5は、音声コマンド取得機能を起動した旨の音声通知を聞くと、スマート装置300に対して音声コマンドを発話する(データラインL408)。
図12は、変形例に係るシステムの第3のデータフロー例を示す図であり、ユーザ5が視聴中コンテンツのシーンを指定した後、指定したシーンに対して音声コマンドを発話できるようになるまでのシステムにおけるデータの流れを示している。本変形例のデータフローは、第1の実施形態におけるデータフローに相当する。
ユーザ5は、リモコン200のシーン指定ボタン201を押下する(データラインL101)。リモコン200がシーン指定信号を出力し、受信装置100が受信する(データラインL102)。また同時にスマート装置300も、リモコン200が出力するシーン指定信号を受信する(データラインL103)。受信装置100は、リモコン200からのシーン指定信号をトリガにシーン特定情報を取得し、ネットワーク500を介してサーバ400にシーン特定情報を出力する(データラインL104、L105)。スマート装置300は、データラインL103におけるシーン指定信号の受信をトリガに音声コマンド取得機能を起動し、「音声コマンド受付できます」など音声を出力する。(データラインL106)。ユーザ5は、音声コマンド取得機能を起動した旨の音声通知を聞くと、スマート装置300に対して音声コマンドを発話する(データラインL107)。
以上の変形例の手順により、ユーザ5は、リモコン200から指定したシーンに対して音声コマンドを発することが可能になる。
以上述べた少なくとも1つの実施形態によれば、ユーザが指定する映像シーンに対して音声コマンドを実行処理する受信装置、サーバ及び音声情報処理システムを提供することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。さらにまた、請求項の各構成要素において、構成要素を分割して表現した場合、或いは複数を合わせて表現した場合、或いはこれらを組み合わせて表現した場合であっても本発明の範疇である。また、複数の実施形態を組み合わせてもよく、この組み合わせで構成される実施例も発明の範疇である。
また、図面は、説明をより明確にするため、実際の態様に比べて、各部の幅、厚さ、形状等について模式的に表される場合がある。ブロック図においては、結線されていないブロック間もしくは、結線されていても矢印が示されていない方向に対してもデータや信号のやり取りを行う場合もある。ブロック図に示される各機能や、フローチャート、シーケンスチャートに示す処理は、ハードウェア(ICチップなど)、ソフトウェア(プログラムなど)、デジタル信号処理用演算チップ(Digital Signal Processor、DSP)、またはこれらのハードウェアとソフトウェアの組み合わせによって実現してもよい。また請求項を制御ロジックとして表現した場合、コンピュータを実行させるインストラクションを含むプログラムとして表現した場合、及び前記インストラクションを記載したコンピュータ読み取り可能な記録媒体として表現した場合でも本発明の装置を適用したものである。また、使用している名称や用語についても限定されるものではなく、他の表現であっても実質的に同一内容、同趣旨であれば、本発明に含まれるものである。
100・・・テレビジョン受信装置、200・・・リモコン、300・・・スマート装置、400・・・サーバ、500・・・ネットワーク。

Claims (9)

  1. 表示手段から映像コンテンツを出力中に、前記映像コンテンツの一画像であるシーンを指定するための制御信号であるシーン指定信号を受信する制御信号受信手段と、
    音声を受波し、前記音声に対して音声認識を実行して、前記シーンに係るコマンドを取得する音声コマンド取得手段を起動するための起動命令を前記シーン指定信号を受信した後に生成する制御手段とを具備した受信装置。
  2. 前記制御手段は、前記シーン指定信号を受信したタイミングで前記表示手段から出力中であるシーンを特定し、特定した前記シーンの時間位置を示すシーン指定時間データと前記シーンを含む映像コンテンツに係る視聴コンテンツ情報とを取得する請求項1に記載の受信装置。
  3. 前記制御手段は、前記シーン指定信号を受信したタイミングで前記表示手段から出力中であるシーンを特定し、特定した前記シーンの画像データを記憶手段に記憶する請求項1または請求項2のいずれか1項に記載の受信装置。
  4. 前記シーン指定時間データ、前記視聴コンテンツ情報及び前記コマンドを外部サーバへ出力する送信手段と、
    前記外部サーバによる前記コマンドの実行結果を受信する受信手段とを具備した請求項2に記載の受信装置。
  5. 前記音声コマンド取得手段を含むスマートスピーカを備える請求項1乃至請求項4のいずれか1項に記載の受信装置。
  6. 前記音声コマンド取得手段は、外付けのスマートスピーカに含まれ、
    前記制御手段は、前記音声コマンド取得手段に対して電気通信回線経由で前記起動命令を送信し、前記コマンドの取得を起動させる請求項1乃至請求項4のいずれか1項に記載の受信装置。
  7. 前記音声コマンド取得手段は、外付けのスマートスピーカに含まれ、
    前記制御手段は、前記音声コマンド取得手段に対してケーブルまたは近距離無線などの伝送手段により前記起動命令を送信し、前記コマンドの取得を起動させる請求項1乃至請求項4のいずれか1項に記載の受信装置。
  8. 起動命令に基づいて、音声を受波し、前記音声に対して音声認識を実行して、コマンドを取得するスマートスピーカとデータ送受信が可能なサーバであって、
    映像コンテンツの一画像であるシーンの時間位置を示すシーン指定時間データと前記シーンに係る視聴コンテンツ情報とを受信した後に前記スマートスピーカの機能を起動するための起動命令を受信し、前記シーンに係る第1コマンドを受信する受信手段と、
    前記起動命令を前記スマートスピーカに出力する起動命令出力手段と、
    前記シーン指定時間データと前記視聴コンテンツ情報とに基づいて前記シーンを特定する解析手段と、
    前記特定したシーンに対して前記第1コマンドを実行し、実行結果を得るコマンド実行手段と、
    前記実行結果を出力する出力手段とを具備したサーバ。
  9. 表示手段から映像コンテンツを出力中に、前記映像コンテンツの一画像であるシーンを指定するための制御信号であるシーン指定信号を受信する制御信号受信手段と、
    前記シーン指定信号を受信した後に、起動命令を生成し、前記シーン指定信号を受信したタイミングに前記表示手段から出力中であるシーンを特定し、特定した前記シーンの時間位置を示すシーン指定時間データと視聴コンテンツ情報とを取得する制御手段と、
    前記起動命令と前記シーン指定時間データと前記視聴コンテンツ情報を出力する出力手段とを備えた受信装置と、
    前記起動命令を受信する手段と、
    音声を受波し、前記音声に対して音声認識を実行し、前記音声認識の結果から前記シーンに係るコマンドを取得し、前記コマンドを出力する音声コマンド取得手段とを備えた音声コマンド取得装置と
    前記起動命令と前記シーン指定時間データと前記視聴コンテンツ情報と前記コマンドとを受信する受信手段と、
    前記シーン指定時間データと前記視聴コンテンツ情報とに基づいて前記シーンを特定する解析手段と、
    前記シーンに対して前記コマンドを実行し、実行結果を得るコマンド実行手段と、
    前記実行結果を出力する出力手段とを備えたサーバとを具備した音声情報処理システム。
JP2020155675A 2020-02-07 2020-09-16 受信装置、サーバ及び音声情報処理システム Active JP7463242B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020155675A JP7463242B2 (ja) 2020-09-16 2020-09-16 受信装置、サーバ及び音声情報処理システム
PCT/CN2021/075126 WO2021155812A1 (zh) 2020-02-07 2021-02-03 接收装置、服务器以及语音信息处理系统
CN202180001659.7A CN113498538A (zh) 2020-02-07 2021-02-03 接收装置、服务器以及语音信息处理系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020155675A JP7463242B2 (ja) 2020-09-16 2020-09-16 受信装置、サーバ及び音声情報処理システム

Publications (2)

Publication Number Publication Date
JP2022049456A JP2022049456A (ja) 2022-03-29
JP7463242B2 true JP7463242B2 (ja) 2024-04-08

Family

ID=80853880

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020155675A Active JP7463242B2 (ja) 2020-02-07 2020-09-16 受信装置、サーバ及び音声情報処理システム

Country Status (1)

Country Link
JP (1) JP7463242B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002218417A (ja) 2001-01-19 2002-08-02 Ntt Data Corp 番組特定識別子を用いた番組関連情報提供システム
JP2007529055A (ja) 2003-10-27 2007-10-18 松下電器産業株式会社 データ受信端末及びメール作成方法
JP2016192121A (ja) 2015-03-31 2016-11-10 ソニー株式会社 制御装置、制御方法及びコンピュータプログラム
JP2018182692A (ja) 2017-04-21 2018-11-15 ソニー株式会社 情報処理装置、受信装置、及び情報処理方法
JP2019520626A (ja) 2016-04-29 2019-07-18 ブイタッチ・カンパニー・リミテッド 動作−音声の多重モード命令に基づいた最適制御方法およびこれを適用した電子装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002218417A (ja) 2001-01-19 2002-08-02 Ntt Data Corp 番組特定識別子を用いた番組関連情報提供システム
JP2007529055A (ja) 2003-10-27 2007-10-18 松下電器産業株式会社 データ受信端末及びメール作成方法
JP2016192121A (ja) 2015-03-31 2016-11-10 ソニー株式会社 制御装置、制御方法及びコンピュータプログラム
JP2019520626A (ja) 2016-04-29 2019-07-18 ブイタッチ・カンパニー・リミテッド 動作−音声の多重モード命令に基づいた最適制御方法およびこれを適用した電子装置
JP2018182692A (ja) 2017-04-21 2018-11-15 ソニー株式会社 情報処理装置、受信装置、及び情報処理方法

Also Published As

Publication number Publication date
JP2022049456A (ja) 2022-03-29

Similar Documents

Publication Publication Date Title
US20020006266A1 (en) Record/play apparatus and method for extracting and searching index simultaneously
US8914820B2 (en) Systems and methods for memorializing a viewers viewing experience with captured viewer images
EP1449213B1 (en) System for synchronizing the playback of two or more connected playback devices using closed captioning
JP4940348B1 (ja) 映像出力装置および映像出力方法
JP4678246B2 (ja) 番組検索支援システム
JP4973906B2 (ja) 情報処理装置および方法、並びにプログラム
US20220007085A1 (en) Automatically generating supercuts
KR101873793B1 (ko) 디바이스간 동기화된 인터랙션을 제공하는 콘텐츠 동기화 장치 및 방법
US20230401030A1 (en) Selecting options by uttered speech
JP7463242B2 (ja) 受信装置、サーバ及び音声情報処理システム
US11477541B2 (en) Automatically generating supercuts
WO2021018212A1 (zh) 具备通知功能的电子装置及电子装置的控制方法
WO2021155812A1 (zh) 接收装置、服务器以及语音信息处理系统
KR20100030474A (ko) 서비스 정보 제공방법 및 그 장치
WO2021109839A1 (zh) 指令控制装置、控制方法及非易失性存储介质
US11949942B2 (en) Display device
JP2001197329A (ja) デジタルテレビジョンシステム及びカーナビゲーションシステム
US20050117876A1 (en) Data recording system, data recording apparatus, data transmission apparatus, data recording method and recording medium on which a recording program is recorded
JP2008131081A (ja) テレビ受像機及び/又は録画再生装置の動作設定システム、リモートコントローラ及びテレビ受像機及び/又は録画再生装置
JP2007081768A (ja) マルチメディア装置
WO2012070534A1 (ja) 映像音声出力装置、および映像音声出力方法、ならびに該映像音声出力装置を備えたテレビジョン受像機
JP2002142197A (ja) 番組情報を利用した番組録画システム及び方法並びに番組録画制御プログラムを記録した記録媒体
KR20110007384A (ko) 동영상 추출 방식을 이용한 외국어 학습 시스템 및 그 방법
KR101459302B1 (ko) 영상 재생 장치 및 영상 재생 장치의 영상 데이터 디스플레이 방법
JPH11298865A (ja) 番組受信装置及びプログラムを記録したコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240327

R150 Certificate of patent or registration of utility model

Ref document number: 7463242

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150