JP7428134B2 - 情報処理装置及び情報処理装置、並びに情報処理システム - Google Patents

情報処理装置及び情報処理装置、並びに情報処理システム Download PDF

Info

Publication number
JP7428134B2
JP7428134B2 JP2020554788A JP2020554788A JP7428134B2 JP 7428134 B2 JP7428134 B2 JP 7428134B2 JP 2020554788 A JP2020554788 A JP 2020554788A JP 2020554788 A JP2020554788 A JP 2020554788A JP 7428134 B2 JP7428134 B2 JP 7428134B2
Authority
JP
Japan
Prior art keywords
video content
virtual character
data
information
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020554788A
Other languages
English (en)
Other versions
JPWO2020090215A1 (ja
Inventor
義治 出葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020090215A1 publication Critical patent/JPWO2020090215A1/ja
Application granted granted Critical
Publication of JP7428134B2 publication Critical patent/JP7428134B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Graphics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Description

本明細書で開示する技術は、放送型の動画コンテンツに関連するサービスを提供する情報処理装置及び情報処理装置、並びに情報処理システムに関する。
テレビ放送サービスが広範に普及して久しい。また最近では、IPTV(Internet Protocol TV)やOTT(Over-The-Top)といった、ネットワークを利用した放送型の動画配信サービスも浸透しつつある。
他方、口頭又はテキスト形式の自然言語入力を解釈してユーザの意図を推測して、ユーザとの対話などのアクションを実行するシステムの利用も広まりつつある。この種の対話機能を備えたシステムは、「エージェント」や「アシスタント」とも呼ばれるが、専用の電子機器や、テレビやスマートフォンなどの情報端末上で実行されるアプリケーションとして実現される。また、この種のシステムの対話機能は、AI(Artificial Intelligence)機能や、インターネットなどを介して接続されるバックエンドの対話エンジンなどを利用して実現される。
例えば、テレビやセットトップボックスに接続して、メディア再生やその他の任意の機能を制御する仮想アシスタントについて提案がなされている(特許文献1を参照のこと)。
特表2017-530567号公報
本明細書で開示する技術の目的は、放送型の動画コンテンツに関連するサービスを提供する情報処理装置及び情報処理装置、並びに情報処理システムを提供することにある。
本明細書で開示する技術の第1の側面は、
放送型の動画コンテンツを受信する受信部と、
前記動画コンテンツ中で発生するイベントに応じた仮想キャラクタの動作を示唆する情報の所在又は取得方法を含むデータを第2の機器に通知する通知部と、
を具備する情報処理装置である。
第1の側面に係る情報処理装置は、例えば、放送波又はストリーム配信される前記動画コンテンツを受信するテレビ受信機であり、StreamEvent又はWebSocketなどにより、前記イベントのトリガーを受信する。
また、本明細書で開示する技術の第2の側面は、
放送型の動画コンテンツを受信する受信ステップと、
前記動画コンテンツを表示部に表示する表示ステップと、
前記動画コンテンツ中で発生するイベントに応じて、仮想キャラクタの動作を示唆する情報の所在又は取得方法を含むデータを第2の機器に通知する通知ステップと、
を有する情報処理方法である。
また、本明細書で開示する技術の第3の側面は、
放送型の動画コンテンツ中で発生するイベントに応じた仮想キャラクタの動作を示唆する情報の所在又は取得方法を含むデータの通知を第1の機器から受け取る受信部と、
前記第1の機器から通知された前記データに基づいて前記情報を取得し、取得した前記情報に基づいて、前記仮想キャラクタの駆動を制御する制御部と、
を具備する情報処理装置である。
第3の側面に係る情報処理装置は、前記放送型の動画コンテンツを受信するテレビ受信機としての前記第1の機器から前記通知を受け取るが、2次元又は3次元表示可能な表示部に表示する前記仮想キャラクタの駆動を制御する。
また、本明細書で開示する技術の第4の側面は、
放送型の動画コンテンツ中で発生するイベントに応じた仮想キャラクタの動作を示唆する情報の所在又は取得方法を含むデータの通知を第1の機器から受け取る受信ステップと、
前記第1の機器から通知された前記データに基づいて前記情報を取得する取得ステップと、
前記取得ステップで取得した前記情報に基づいて、仮想キャラクタの駆動を制御する制御ステップと、
を有する情報処理方法である。
また、本明細書で開示する技術の第5の側面は、
放送型の動画コンテンツを受信する第1の機器と、
仮想キャラクタの駆動を制御する第2の機器と、
を具備し、
前記第1の機器は、前記イベントのトリガーを受信したことに応答して、前記動画コンテンツ中で発生するイベントに応じた仮想キャラクタの動作を示唆する情報の所在又は取得方法を含むデータを前記第2の機器に通知し、
前記第2の機器は、前記第1の機器から通知された前記データに基づいて前記情報を取得して、前記仮想キャラクタの駆動を制御する、
情報処理システムである。
但し、ここで言う「システム」とは、複数の装置(又は特定の機能を実現する機能モジュール)が論理的に集合した物のことを言い、各装置や機能モジュールが単一の筐体内にあるか否かは特に問わない。
本明細書で開示する技術によれば、放送型の動画コンテンツの内容に応じて仮想キャラクタを自動駆動させる情報処理装置及び情報処理装置、並びに情報処理システムを提供することができる。
なお、本明細書に記載された効果は、あくまでも例示であり、本発明の効果はこれに限定されるものではない。また、本発明が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、対話システム100の構成例を模式的に示した図である。 図2は、表示装置110の構成例を示した図である。 図3は、対話装置120の構成例を模式的に示した図である。 図4は、対話エンジンフロントエンド410と対話エンジンバックエンド420の機能的構成例を示した図である。 図5は、対話システム100における動作シーケンス例を示した図である。 図6は、シーン記述データの一例を示した図である。 図7は、シーン記述データの他の例を示した図である。 図8は、表示装置110の基本的な動作例を示したフローチャートである。 図9は、受信状態の対話装置120が実施する処理動作の手順を示したフローチャートである。 図10は、シーン追従会話モード下での対話装置120の処理動作を示したフローチャートである。 図11は、MRデバイスによって室内に仮想キャラクタの映像が出現している複合現実空間を例示した図である。 図12は、放送番組本編を表示する主画面に設けられたサブ画面に仮想キャラクタが表示されている様子を示した図である。 図13は、ペット型ロボットが、ユーザと一緒に視聴している放送型データコンテンツの内容に応じて自律駆動している様子を示した図である。
以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
図1には、本明細書で開示する技術を適用した対話システム100の構成例を模式的に示している。図示の対話システム100は、表示装置110と、対話装置120で構成される。
表示装置110と対話装置120は、基本的には、同じユーザによって使用されるものとする。例えば、表示装置110と対話装置120は、リビングルームなどユーザと同じ空間に設置されている。表示装置110は、放送やストリーミング配信されたコンテンツを表示し、ユーザは、表示装置110が表示するコンテンツを視聴する。また、対話装置120は、ユーザと対話し、ユーザからの音声やジェスチャなどのコマンドを受け付けたり、ユーザに情報を提示したりする。
表示装置110は、例えばルータ経由でインターネットなどの外部ネットワークに相互接続されている。また、対話装置120は、室内に設置されたアクセスポイント経由でインターネットなどの外部ネットワークに相互接続されている。
また、表示装置110と対話装置120は、図示しない通信手段を介して接続されているものとする。通信手段は、有線又は無線のいずれであってもよい。例えば、イーサネット(登録商標)、Wi-Fi(登録商標)やBluetooth(登録商標)などの既存の通信規格に基づく通信を利用して表示装置110と対話装置120が接続してもよいし、独自接続であってもよい。また、赤外線通信やその他の簡素な通信手段を利用して、表示装置110から対話装置120への一方向通信のみであってもよい。
表示装置110は、放送型の動画コンテンツを表示する大画面を装備している。表示装置110は、例えば放送信号を選局受信するテレビ受信機により構成されるが、セットトップボックスに接続されたディスプレイであってもよい。放送信号は、地上波及び衛星波のいずれを問わない。また、表示装置110が利用する放送サービスはテレビ放送に限定されず、例えばIPTVやOTTといったネットワークを利用した放送型の動画配信サービスも含めることができる。後者の場合、表示装置110は、ネットワークインターフェースカードを装備したディスプレイにより構成することができる。もちろん、これら以外のプッシュ型コンテンツ配信サービスにより提供される動画コンテンツを含めてもよい。
図2には、表示装置110の構成例を示している。表示装置110は、主制御部201と、バス202と、ストレージ部203と、通信インターフェース(IF)部204と、拡張インターフェース(IF)部205と、チューナ/復調部206と、デマルチプレクサ(DEMUX)207と、映像デコーダ208と、音声デコーダ209と、文字スーパーデコーダ210と、字幕デコーダ211と、字幕合成部212と、データデコーダ213と、キャッシュ部214と、アプリケーション(AP)制御部215と、ブラウザ部216と、音源部217と、映像合成部218と、表示部219と、音声合成部220と、音声出力部221と、操作入力部222を備えている。
主制御部201は、例えばCPU(Cetral Processing Unit)とROM(Read Only Memory)、及びRAM(Random Access Memory)で構成され、所定の動作プログラムに従って表示装置110全体を制御する。ROMは、オペレーティングシステム(OS)などの基本動作プログラムやその他の動作プログラムが格納された不揮発性メモリである。ROM内には、表示装置110の動作に必要な動作設定値が記憶されてもよい。RAMはOSやその他の動作プログラム実行時のワークエリアとなる。バス202は、主制御部201と表示装置110内の各部との間でデータ送受信を行うためのデータ通信路である。なお、本実施形態では、放送サービス(放送局又はストリーム配信サーバ)側から動画コンテンツ中のイベントに同期したトリガー配信が行われることを想定しているが(後述)、主制御部201は、トリガー配信をデコードした結果を、データデコーダ213(後述)から受け取ることができる。
ストレージ部203は、フラッシュROMやSSD(Solid State Drive)、HDD(Hard Disc Drive)などの不揮発性の記憶デバイスで構成される。ストレージ部203は、表示装置110の動作プログラムや動作設定値、表示装置110を使用するユーザの個人情報などを記憶する。また、ストレージ部203は、インターネットを介してダウンロードした動作プログラムやその動作プログラムで作成した各種データなどを記憶する。また、ストレージ部203は、放送波やインターネットを通じて取得した動画、静止画、音声などのコンテンツも記憶可能である。
通信インターフェース部204は、ルータ(前述)などを介してインターネットと接続され、インターネット上の各サーバ装置やその他の通信機器とデータの送受信を行う。また、通信インターフェース部204は、通信回線を介して伝送される番組のデータストリームの取得も行うものとする。ルータとは、イーサネット(登録商標)などの有線接続、あるいはWi-Fi(登録商標)などの無線接続のいずれであってもよい。また、通信インターフェース部204は、対話装置120との通信手段を含んでいてもよい。対話装置120との通信手段は、対話装置120への一方向通信のみであってもよい。
チューナ/復調部206は、アンテナ(図示しない)を介して地上波放送又は衛星放送などの放送波を受信し、主制御部201の制御に基づいてユーザの所望するサービス(放送局など)のチャンネルに同調(選局)する。また、チューナ/復調部206は、受信した放送信号を復調して放送データストリームを取得する。なお、複数画面同時表示や裏番組録画などを目的として、表示装置110が複数のチューナ/復調部を搭載する構成(すなわち多重チューナ)であってもよい。
デマルチプレクサ207は、入力した放送データストリーム中の制御信号に基づいてリアルタイム提示要素である映像データストリーム、音声データストリーム、文字スーパーデータストリーム、字幕データストリームを、それぞれ映像デコーダ208、音声デコーダ209、文字スーパーデコーダ210、字幕デコーダ211に分配する。デマルチプレクサ207に入力されるデータは、放送サービスや、IPTVやOTTなどの配信サービスによるデータを含む。前者は、チューナ/復調部206で選局受信及び復調された後にデマルチプレクサ207に入力され、後者は、通信インターフェース部204で受信された後にデマルチプレクサ207に入力される。
また、デマルチプレクサ207は、マルチメディアアプリケーションやその構成要素であるファイル系データを再生し、アプリケーション制御部215に出力し、又はキャッシュ部214で一時的に蓄積する。また、デマルチプレクサ207は、上記の映像、音声、及び字幕以外のデータの提示を行うプレーヤで利用するデータ若しくはアプリケーションに対するデータのストリーミングに用いるために、汎用データを抽出してデータデコーダ213に出力する。
映像デコーダ208は、デマルチプレクサ207から入力した映像データストリームを復号して映像情報を出力する。また、音声デコーダ209は、デマルチプレクサ207から入力した音声データストリームを復号して音声情報を出力する。また、複数種類の映像データストリーム及び音声データストリームを同時に復号処理するために、表示装置110は複数の映像デコーダ208及び音声デコーダ143を備えてもよい。
文字スーパーデコーダ210は、デマルチプレクサ207から入力した文字スーパーデータストリームを復号して文字スーパー情報を出力する。字幕デコーダ211は、デマルチプレクサ207から入力した字幕データストリームを復号して字幕情報を出力する。字幕合成部212は、文字スーパーデコーダ210から出力された文字スーパー情報と、字幕デコーダ211から出力された字幕情報は、字幕合成部212とを合成処理する。
データデコーダ213は、MPEG-2 TSストリームに映像及び音声とともに多重化されるデータストリームをデコードする。本実施形態では、データデコーダ213は、PSI(Program Specific Information)テーブルの1つであるPMT(Program Map Table)の記述子領域に格納された汎用イベントメッセージをデコードした結果を、主制御部201に通知する。また、データデコーダ213は、WebSocketを利用して伝送されたデータをデコードして、主制御部201に通知する。具体的には、StreamEventやWebSocketなどを利用して、動画コンテンツ中のイベントに同期したトリガー配信が行われるが、データデコーダ213はトリガー配信をデコードした結果を、主制御部201に通知する。
アプリケーション制御部215は、放送データストリームに含まれる制御情報をデマルチプレクサ207から入力し、または、通信インターフェース部204を介してインターネット200上のサーバ装置から取得して、これら制御情報を解釈する。
ブラウザ部216は、キャッシュ部214若しくは通信インターフェース部204を介してインターネット上のサーバ装置から取得したマルチメディアアプリケーションファイルやその構成要素であるファイル系データを、アプリケーション制御部215の指示に従って提示する。ここで言うマルチメディアアプリケーションファイルは、例えばHTML(Hyper Text Markup Language)文書やBML(Broadcast Markup Language)文書などである。また、ブラウザ部216は、音源部217に働きかけることにより、アプリケーションの音声情報の再生も行うものとする。
映像合成部218は、映像デコーダ208から出力された映像情報と、字幕合成部212から出力された字幕情報と、ブラウザ部216から出力されたアプリケーション情報を入力し、適宜選択し又は重畳する処理を行う。映像合成部218はビデオRAM(図示を省略)を備え、このビデオRAMに入力された映像情報に基づいて表示部219の表示駆動が実施される。また、映像合成部218は、主制御部201の制御に基づいて、必要に応じて、EPG(Electronic Program Guide)画面や、主制御部201が実行するアプリケーションによって生成されたグラフィックスなどの画面情報の重畳処理も行う。
表示部219は、例えば液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイなどからなる表示デバイスであり、映像合成部218で選択又は重畳処理を施された映像情報をユーザに提示する。
音声合成部220は、音声デコーダ209から出力された音声情報と、音源部217で再生されたアプリケーションの音声情報を入力して、適宜選択又は合成などの処理を行う。
音声出力部221は、1台又は複数台のスピーカで構成される。音声出力部221は、複数のスピーカを組み合わせたスピーカアレイ(多チャンネルスピーカ若しくは超多チャンネルスピーカ)や、パネルスピーカであってもよい。音声出力部221は、音声合成部220で処理された音声情報をユーザに提示する。
拡張インターフェース部205は、表示装置110の機能を拡張するためのインターフェース群であり、例えば、アナログ映像/音声インターフェースや、USB(Universal SerialBus)インターフェース、メモリインタフェースなどで構成される。拡張インターフェース部205は、DVI(Digital Visual Interface)端子やHDMI(登録商標)端子やDisplay Port(登録商標)端子などからなるデジタルインターフェースを含んでいてもよい。
操作入力部222は、ユーザが表示装置110に対する操作指示の入力を行う指示入力部である。操作入力部222は、例えば、リモコン(図示しない)から送信されるコマンドを受信するリモコン受信部とボタンスイッチを並べた操作キーで構成される。また、操作入力部222は、表示部219の画面に重畳されたタッチパネルを含んでもよい。また、操作入力部222は、拡張インターフェース部205に接続されたキーボードなどの外付け入力デバイスを含んでもよい。
表示装置110は、テレビ受信機の他、ブルーレイ(登録商標)ディスクレコーダやHDDレコーダなどのディスクドライブレコーダ、STB(Set Top Box)、デジタル放送受信機能や放送通信連携機能を備えたパーソナルコンピュータ(Personal Computer)やタブレットなどの多機能情報端末、ナビゲーション装置、ゲーム機などであってもよい。
再び図1を参照しながら説明する。対話装置120は、口頭又はテキスト形式の自然言語入力を解釈してユーザの意図を推測してユーザとのインタラクションを実現するデバイスであり、いわゆる「エージェント」や「アシスタント」とも呼ばれる機能を装備している。
対話装置120は、基本的には、「エージェント」や「アシスタント」の振る舞いを表出する仮想キャラクタを表示するためのサブ画面を装備していることを想定している(図1には、対話装置120のサブ画面に仮想キャラクタの映像を表示している様子を示している)。対話装置120は、ユーザとの対話に応じて、この仮想キャラクタを自律駆動させる。サブ画面は、例えばライトフィールドディスプレイのような3D表示機能を有し又はリアルな映像表現が可能な画面で構成され、仮想キャラクタを3D表示できることが好ましい。なお、ライトフィールド(Light Field)は観察者の視野の範囲にあるすべての光を含む可視空間のことであり、ライトフィールドディスプレイは、理想的には、観察者の目に入るあらゆる光を再現する表示装置である。但し、対話装置120のサブ画面は、2D表示機能しか持たなくてもよい。
あるいは、対話装置120は、ヘッドマウントディスプレイのような、現実空間上に仮想キャラクタの映像を複合的に表示するMR(Mixed Reality)デバイスであってもよい。図11には、MRデバイスによって、室内に仮想キャラクタの映像が出現している複合現実空間を例示している。
あるいは、表示装置110として利用されるテレビ受信機で、ユーザと対話する仮想キャラクタを自律駆動するためのアプリケーションを起動して、表示部219の画面内に子画面を設けて、仮想キャラクタを表示するようにしてもよい。図12には、放送番組本編を表示する主画面に設けられたサブ画面に仮想キャラクタが表示されている様子を示した図である。
あるいは、対話装置120は、仮想キャラクタを3D表示するサブ画面を装備したデバイスではなく、ペット型ロボットであってもよく、ロボットの関節動作によって「エージェント」や「アシスタント」としての振る舞いを表現するようにしてもよい。この場合、対話装置120は、ユーザとの対話に応じて、ロボットは関節などの可動部を自律駆動させる。図13には、ペット型ロボットが、ユーザと一緒に視聴している放送型データコンテンツの内容に応じて自律駆動している様子を示している。
あるいは、ユーザが所持するスマートフォンやタブレットなどの情報端末で「エージェント」や「アシスタント」のアプリケーションを起動して、対話装置120として利用することも想定される。この場合、情報端末が持つ画面や、情報端末に外部接続されたディスプレイに、仮想キャラクタが表示される。また、表示装置110と同じ部屋内に設置された情報家電でアプリケーションを起動して、対話装置120として利用することも想定される。
要するに、対話装置120は、基本的には3D表示機能を装備したデバイスであるが、その他の形態のデバイスで置き換えることも可能である。対話装置120は、いずれの形態であれ、本実施形態では、表示装置110で表示する放送型の動画コンテンツを、ユーザと一緒になって視聴するものとする。
図3には、対話装置120の構成例を模式的に示している。但し、図3では、対話装置120として、音声エージェントのような専用デバイスを想定している。対話装置120は、処理部301と、通信部302と、表示部303と、音声入力部304と、音声出力部305と、センサ部306と、記録部307を備えている。
通信部302は、イーサネット(登録商標)などの有線通信又はWi-Fi(登録商標)などの無線通信を利用して、アクセスポイント(図1を参照のこと)経由でインターネットなどの外部ネットワークに接続している。また、通信部302は、例えばDLNA(登録商標)(Digital Living Network Alliance)などの規格に則って、ホームネットワークを介して家庭内の各CE機器と相互接続していてもよいし、IoT(Internet of Things)デバイスとのインターフェース機能をさらに備えていてもよい。
表示部303は、本実施形態に係る対話システム100において、表示装置110の主画面に対する「サブ画面」として機能して、エージェント」や「アシスタント」の振る舞いを表出する仮想キャラクタを表示することを想定している。表示部303は、より好ましくは、例えばライトフィールドディスプレイ(前述)のような3D表示機能を有し又はリアルな映像表現が可能な画面で構成され、仮想キャラクタを3D表示することができる。もちろん、表示部303は、2D表示機能しか持たなくてもよい。但し、表示部303を、対話装置120に外付け接続されたMRデバイスやその他のディスプレイで構成することもできる。
音声入力部304は、マイクなどの収音素子で構成され、対話装置120が設置された室内で発生する音声の入力に用いられる。室内で発生する音声として、テレビ番組の視聴者若しくは音声エージェントを利用するユーザによる発話を挙げることができる。音声入力部304は、複数のマイクを組み合わせたマイクロフォンアレイを備えていてもよい。
音声出力部305は、スピーカなどの音響発生素子で構成される。コーン型スピーカやフラットパネル型スピーカなどを音声出力部305に用いることができる。また、音声出力部305は、複数のスピーカを組み合わせたスピーカアレイ(多チャンネルスピーカ若しくは超多チャンネルスピーカ)を備えていてもよい。音響出力部305は、音声エージェント機能の合成音声の出力などに用いられる。
センサ部306は、例えば、対話装置120が設置されている室内の環境情報をセンシングする。センサ部306の構成、すなわちどのようなセンサ素子を含むかは任意である。例えば、センサ部306は、カメラや物体検出センサ、深度センサを含んでいてもよい。また、センサ部306は、照度センサや温度センサ、湿度センサなどの環境情報を検出する環境センサを備えていてもよい。また、センサ部306は、赤外線センサや人感センサを備えていてもよい。また、センサ部306は、ユーザの脈拍や発汗、脳波、筋電位、呼気などを検出する生体センサを備えていてもよい。また、センサ部306は、IMU(Inertial Measurement Unit)などを備え、対話装置120本体の姿勢などを検出するようにしてもよい。
記録部307は、例えばHDDやSSDなどの大容量記録装置で構成され、各種データの記録に使用される。記録部307は、対話装置120内に配設される他、USBなどのインターフェースを介して対話装置120に外付け接続される場合もある。
処理部301は、プロセッサ及びメモリを含み、メモリにロードしたプログラムを実行して、各種処理を実施して、対話装置120内の動作を統括的にコントロールする。処理部301内では、基本的には、OSが提供する実行環境下で、さまざまなアプリケーションが実行される。例えばマルチプロセッサが利用可能な場合、あるいはOSによってマルチスレッド実行が可能な場合においては、並列実行可能な処理単位はすべてメモリに読み出され並列実行させることができる。
処理部301が実行するアプリケーションの中には、音声エージェントなどユーザとの対話機能を実現するための対話アプリケーションを挙げることができる。また、処理部301が複数の対話アプリケーションを並列実行することにより、対話装置120が複数のエージェントデバイスとして機能することも可能である。本実施形態では、対話アプリケーションは、仮想キャラクタを表示部303に提示することを想定している。
対話装置120は、ユーザとの充実した対話機能を実現するために、AI機能を搭載していてもよい。また、対話装置120は、図1などに示したようなスタンドアロンの装置としてではなく、対話エンジンのフロントエンドとして構成され、インターネット上のサーバやクラウドで構成される対話エンジンによるバックエンドの制御下で動作するようにしてもよい。
図4には、対話エンジンフロントエンド410と対話エンジンバックエンド420の機能的構成例を示している。
対話エンジンフロントエンド410は、ローカル側(すなわち、ユーザの近傍)に配置され、対話装置120が実行する対話アプリケーションであり、対話装置120が装備する音声入力部304及び音声出力部305などの各機能モジュールを活用することができる。
一方、クラウド側は、対話エンジンバックエンド420と、複数の外部エージェントサービス430A、430B、430C、…を含んでいる。対話エンジンバックエンド420並びに外部エージェントサービス430A、430B、430C、…はいずれも、ローカル側のユーザからの問い合わせに回答するエージェントサービスを提供する。但し、前者は対話エンジンフロントエンド410と直接連携するのに対し、後者は対話エンジンフロントエンド410とは直接には連携せず、対話エンジンフロントエンド410に対し対話エンジンバックエンド420の介在により間接的にエージェントサービスを提供することから「外部エージェントサービス」と呼んで、対話エンジンバックエンド420とは区別している。また、外部エージェントサービス430A、430B、430C、…の少なくとも一部(図4に示す例では、外部エージェントサービス430C)は、ローカル側に設置された外部エージェントデバイス440と直接連携している。
対話エンジンバックエンド420は、音声認識部421と、意味解析部422と、音声合成部423と、制御部424を備えている。
音声認識部421は、対話エンジンフロントエンド410側の音声入力部304で収音されたユーザの発話を音声認識して、テキスト情報に変換する。意味解析部332は、音声認識されたテキスト情報に基づいて、ユーザの発話データの意味解析を行う。また、音声合成部423は、ユーザに対する回答若しくはフィードバックとなるテキスト情報を音声データに変換する。音声データは、対話エンジンフロントエンド410に送られ、音声出力部305からユーザに対して音声出力される。なお、対話エンジンフロントエンド410は、音声出力以外に、表示部303の画面に表示する仮想キャラクタの動作や振舞いによって、ユーザにフィードバックを与えるようにしてもよい。
制御部424は、対話エンジンフロントエンド410のユーザと対話するための処理を実行する。例えば、制御部424は、ユーザが問い合わせた情報を検索したり、ユーザが要求したコンテンツを取得したり、商品の注文を行ったりする。ユーザからの問い合わせに対してより優れた回答を実現するために、制御部424は、学習機能やAI機能を搭載していてもよい。制御部424は、表示部303の画面に表示する仮想キャラクタを生成するための処理の一部(又は全部)を実行するようにしてもよい。
また、制御部424は、ユーザとより優れた対話を実現するために、さらに外部エージェントサービス430A、430B、430C、…のリソースを活用することができる。制御部424は、利用可能なすべての外部エージェントサービス430A、430B、430C、…を呼び出してもよいし、いずれか一部の外部エージェントデバイスを選択して呼び出すようにしてもよい。
また、対話エンジンバックエンド420から外部エージェントサービス430A、430B、430C、…を呼び出す方法はいくつか考えられる。例えば、ユーザからの問い合わせを意味解析部422で意味解析して得たテキスト情報を、外部エージェントサービス430Bに送信してもよいし、そのテキスト情報を音声合成部423で音声合成した音声データを外部エージェントサービス430Aに送信して、ユーザからの音声入力のような形態で問い合わせしてもよい。あるいは、対話エンジンバックエンド420が外部エージェントサービス430Cにリクエストする場合には、音声合成部423で音声合成した音声データを対話エンジンフロントエンド410に送信して、対話装置120の音声出力部305から、あたかもユーザが問い合わせるような音声を出力して、外部エージェントデバイス440を通じて問い合わせするようにすることもできる。
また、外部リソースである外部エージェントサービス430A、430B、430C、…からエージェントシステム100に対して回答する方法もいくつか考えられる。例えば、外部エージェントサービス430Bは、テキスト情報などからなる(若しくは、音声合成前の)処理結果を対話エンジンバックエンド420に送る。また、外部エージェントサービス430A及び430Cは、処理結果を音声合成した音声データを対話エンジンバックエンド420に送る。対話エンジンバックエンド420は、外部エージェントサービス430A及び430Cから送られてきた音声データを音声認識部421により音声認識し、その音声認識結果を意味解析部422により意味解析する。
そして、制御部424は、各外部エージェントサービス430A、430B、430C、…からの回答を意味解析結果のレベルで集計して、ユーザに対する回答文を生成する。複数の回答を集計する方法は任意である。対話エンジンバックエンド420自身が得た回答と照らし合わせて特定の外部エージェントサービスからの回答を選択してもよいし、多数決など所定の選択基準に基づいて特定の外部エージェントサービスからの回答を選択してもよいし、複数の外部エージェントサービスからの回答を合成して1つの回答文を生成するようにしてもよい。いずれにせよ、音声合成部423は、制御部424で生成した回答文を音声データに変換して、対話エンジンフロントエンド410に送る。そして、対話エンジンフロントエンド410では、ユーザに対する回答の音声が、音声出力部305から ユーザに対して音声出力される。
各外部エージェントサービス430A、430B、430C、…の機能的構成はほぼ同様である。以下では、代表して、外部エージェントサービス430Cの機能的構成について説明する。
外部エージェントサービス430Cは、音声認識部431Cと、意味解析部432Cと、処理部433Cと、音声合成部434Cを備えている。
音声認識部431Cは、音声エージェントデバイス440の音声入力部441で収音された発話を音声認識して、テキスト情報に変換する。なお、音声入力部441で収音する音声は、ユーザの発話の他、対話エンジンフロントエンド410の音声出力部305から出力する音声である場合も想定される。
意味解析部432Cは、音声認識されたテキスト情報に基づいて、ユーザの発話データの意味解析を行う。処理部433Cは、ユーザからの問い合わせに回答するための処理を実行する。例えば、外部エージェントサービス430Cを指定する「起動ワード」がユーザから音声入力されたことが意味解析結果により分かると、処理部433Cは処理実行を開始する。
音声合成部434Cは、ユーザに対する回答となるテキスト情報を音声データに変換する。音声データは、音声エージェントデバイス440に送られ、音声出力部442からユーザに対して音声出力される。なお、音声合成部434Cで生成した音声データは、音声エージェントデバイス440に送信して音声出力される他、対話エンジンバックエンド420に送信され、音声認識部421に入力される場合も想定される。
B.仮想キャラクタの具体的動作
本実施形態に係る対話システム100では、放送型の動画コンテンツを表示する表示装置110を主画面として位置付ける一方、対話装置120が装備する表示部303はサブ画面に位置付けられる。そして、対話装置120は、サブ画面としての表示部303上で仮想キャラクタを自律駆動させる。より具体的には、対話装置120は、ユーザとの対話機能を有するが、表示装置110の主画面に表示している放送型の動画コンテンツユーザと一緒になって視聴しているときに、その放送型の動画コンテンツの内容に応じて、サブ画面上の仮想キャラクタが自律駆動して自分の表情や仕草、振る舞い、動作を切り替えていく。
本実施形態に係る対話システム100は、対話装置120が、ユーザとともに視聴している放送型の動画コンテンツの内容に応じて、サブ画面上の仮想キャラクタを自律駆動させる、という点に主な特徴がある。
また、本実施形態に係る対話システム100は、仮想キャラクタの自律駆動を示唆するための情報が外部から対話装置120に提供される、という点に他の主な特徴がある。本明細書では、仮想キャラクタの自律駆動を示唆する情報のことを「シーン記述データ」と呼ぶ。例えば、放送局又はストリーム配信サーバなどのサービス側が、放送又は配信する動画コンテンツ向けのシーン記述データを作成又は編集して、所定のWebサイトにアップロードしておいてもよい。
例えば、表示装置110側で放送チャンネルを切り替える度に、新たに提供されるシーン記述データに基づいて、対話装置120は表示する仮想キャラクタを切り替える。具体的には、対話装置120は、放送局毎に、サービス側で用意された仮想キャラクタを切り替えるようにしてもよい。
また、放送チャンネルではなく、放送番組が切り替わる度に、新たに提供されるシーン記述データに基づいて、対話装置120は、番組専用の仮想キャラクタに切り替えるようにしてもよい。
また、対話装置120は、コンテンツの配信元を切り替えたり受信するストリーミングコンテンツを切り替えたりする度に、新たに提供されるシーン記述データに基づいて、配信サービス側で用意された仮想キャラクタを切り替えるようにしてもよい。また、対話装置120は、配信元ではなく、配信コンテンツ毎に、配信サービス側で用意された仮想キャラクタを切り替えるようにしてもよい。
また、対話装置120は、同じ放送番組内あるいは同じストリーミングコンテンツ内でも、動画コンテンツのシーンやコンテキストに応じて新たに提供されるシーン記述データに基づいて、仮想キャラクタを切り替えたり、仮想キャラクタが表出する動作をコントロールしたりするようにしてもよい。
例えば、ユーザがドラマ番組を視聴中にクライマックスシーンが到来すると、対話装置120は、新たに提供されるシーン記述データに基づいて、ユーザの感情を代弁し又はユーザに同調するような仮想キャラクタの動作を表出するようにしてもよい。
また、ユーザが野球やサッカーなどのスポーツ番組を視聴中に、自軍(ユーザが応援しているチーム)が得点したり逆に失点したりしたときに、対話装置120は、新たに提供されるシーン記述データに基づいて、ユーザの感情を代弁し又はユーザに同調するような仮想キャラクタの動作を表出するようにしてもよい。例えば、対話装置120は、自軍が優勢のときには、一緒に喜んだり、相槌を打ったりし、動画コンテンツの進行(ゲームの経過など)に追従して合いの手を入れたり、感情や表情を変えたりする。
また、ユーザがニュース番組を視聴中に、対話装置120は、コーナー毎に提供されるシーン記述データに基づいて、国内、国際、社会、経済、芸能、スポーツ、科学、地域などのうち、ユーザの関心があるジャンルを紹介するような仮想キャラクタの動作を表出するようにしてもよい。
また、対話装置120は、放送やストリーミングする番組本編ではなく、番組本編に挿入されるCMのタイミングで新たに提供されるシーン記述データに基づいて、仮想キャラクタが該当する商品を紹介する動作を表出するようにしてもよい。その際、対話装置120は、ユーザのプロファイルと商品とのマッチング処理などを行い、ユーザの商品に対する興味の度合いなどに応じて、仮想キャラクタによる商品のお薦めの仕方を変化させるようにしてもよい。
また、いずれの種類の動画コンテンツを視聴中であれ、基本的には、仮想キャラクタは、ユーザからの質問や雑談には応答するものとする。
上記のように、本実施形態に係る対話システム100では、対話装置120は、逐次提供されるシーン記述データに基づいて、放送型の動画コンテンツ毎に仮想キャラクタを切り替えたり、動画コンテンツのシーン毎の仮想キャラクタの感情表現を変化させたりする。したがって、ユーザは、対話装置120と一緒に放送型の動画コンテンツを視聴することで、独りで視聴する場合よりもより多くコンテンツを楽しむことができる。
対話装置120は、スタンドアロンで仮想キャラクタの動作を制御してもよいが、図4に示したように、対話エンジンフロントエンド410と対話エンジンバックエンド420の協調動作によって仮想キャラクタの動作を制御するようにしてもよい。
また、対話装置120が、外部から提供されたシーン記述データに完全にしたがって仮想キャラクタを動作させるか、シーン記述データの記述内容をある程度参考にして仮想キャラクタを動作させるか、あるいは、シーン記述データの記述内容に拘束されずに完全に自律的に仮想キャラクタを動作させるかは、任意である。例えば、対話装置120がシーン記述データに従うべきかどうかをユーザが指定するようにしてもよい。
図5には、本実施形態に係る対話システム100において、放送型の動画コンテンツの視聴中に対話装置120が感情表現を実施するための動作シーケンス例を示している。
放送局やストリーム配信サーバなどのサービス側は、放送型の動画コンテンツを送信期間中に、仮想キャラクタの感情表現などを実施するトリガーとなり得るイベントが動画コンテンツ内で発生したことを通知するトリガー配信を逐次実行する。
図5に示す動作シーケンス例では、放送局やストリーム配信サーバなどのサービス側は、放送型の動画コンテンツを配信している期間中に(SEQ501)に、動画コンテンツ内でイベントが発生する度に、その動画コンテンツを受信(選局受信)する表示装置110に対して、トリガー配信を逐次実施する(SEQ511、SEQ512、…)。
すなわち、放送局又はストリーム配信サーバなどのサービス側は、放送型の動画コンテンツ内でトリガーとなり得るイベントが発生したことに同期して、トリガー配信を実施する。ストリーミングサービスの場合、動画コンテンツ内でイベントが発生してからトリガー配信が表示装置110に届くまでにネットワーク遅延などの遅延時間が発生する可能性があるが、ここでは遅延時間は無視し得るものとする。
本実施形態では、サービス側は、放送サービスの標準規格やストリーム配信サービスの標準規格によって既に規定されている手段を使ってトリガー配信を実施することものとする。
例えば、放送サービスの場合、放送局側は、StreamEventなどを利用して、放送番組を選局受信する表示装置110に対してトリガー配信を実施することができる。ARIB(Association of Radio Industries and Business:電波産業会)では、映像及び音声のストリームやデータなどのコンテンツとともにPSIテーブルを多重化したMPEG(Moving Picture Expers Group)-2 TS(Transport Stream)パケットを放送信号の送信形式として規定している。PSIテーブルの1つであるPMTの記述子領域に汎用イベントメッセージを格納することで、StreamEventを利用したトリガー配信を実施することができる。
また、コンテンツストリーミングサービスの場合、ストリーム配信サーバなどのサービス側は、WebSocketなどを利用して、コンテンツストリームを受信する表示装置110に対してトリガー配信を実施することができる。WebSocketは、サーバとクライアントが一度コネクションを行った後は、必要な通信をすべてそのコネクション上で専用のプロトコルを用いて行うことを規定した、TCP(Transmission Control Protocol)上で動作するプロトコルである。WebSocketは、Webサーバとクライアント間で、ヘッダーによるオーバーヘッドが少なく、高効率な伝送を実現することができる。WebSocketは、RFC(Request for Comments) 6455,“The WebSocket Protocol”として規定されている。
いずれの放送規格又は通信規格に基づくにせよ、放送局又はストリーム配信サーバなどのサービス側は、トリガー配信(SEQ511、SEQ512、…)において、シーン記述データ(前述)の所在又は取得方法に関する情報を含んだトリガーデータを、表示装置110に送信する。シーン記述データの所在又は取得方法は、例えばURI(Uniform Resource Ideitifier)又はURL(Unoform Resouce Locator)の形式で記述することができる。
表示装置110は、例えばStreamEvent又はWebSocketなどの形式でトリガーデータを受信すると、必要に応じて対話装置120が処理可能なデータ形式に適宜変換して、トリガーデータを対話装置120に転送する(SEQ521、SEQ522、…)。
トリガーデータは、シーン記述データ自体を含まず、シーン記述データの所在又は取得方法をURI又はURLなどの形式で指定する、簡素で小容量のデータからなる。したがって、表示装置110と対話装置120間の一方向通信のみの簡素な通信手段(前述)を用いてトリガーデータを転送することが可能である。
対話装置120は、表示装置110からトリガーデータを受信すると(SEQ521、SEQ522、…)、トリガーデータ内でURI又はURLなどの形式で指定された所在又は取得方法に従って、所定のWebサイトからシーン記述データを取得する(SEQ531、SEQ532、…)。
そして、対話装置120は、取得したシーン記述データに基づいて、サブ画面(表示部303)に表示する仮想キャラクタを自律駆動させる(SEQ541、SEQ542、…)。
なお、表示装置110がトリガーデータを対話装置120に転送する際に(SEQ521、SEQ522、…)、サブ画面で表示する仮想キャラクタのデータ(以下、「配信キャラクタ」ともいう)を併せて対話装置120に送信するようにしてもよい。仮想キャラクタのデータは、放送局やストリーム配信サーバが、動画コンテンツに付随して、マルチメディアコンテンツとして配信したものでもよいし、表示装置110にあらかじめ装備されているものでもよい。一方、対話装置120は、あらかじめ備えている仮想キャラクタ(以下、「マイキャラクタ」ともいう)も有している。対話装置120は、マイキャラクタと配信キャラクタのうちいずれか一方を選択して、サブ画面で自律駆動させるものとする。
対話装置120は、スタンドアロンで仮想キャラクタの動作を制御してもよいが、図4に示したように、対話エンジンフロントエンド410と対話エンジンバックエンド420の協調動作によって仮想キャラクタの動作を制御するようにしてもよい。
例えば、ユーザが視聴しているドラマ番組の中でクライマックスシーンなどのイベントが発生すると、サービス側からトリガー配信が行われ、これに応答して、表示装置110から対話装置120へトリガーデータが転送される。そして、対話装置120は、新たに取得したシーン記述データに基づいて、ユーザの感情を代弁し又はユーザに同調するような仮想キャラクタの動作を表出することができる。
また、ユーザが野球やサッカーなどのスポーツ番組を視聴中に、得点若しくは失点、ファインプレーなどのイベントが発生すると、サービス側からトリガー配信が行われ、これに応答して、表示装置110から対話装置120へトリガーデータが転送される。そして、対話装置120は、新たに取得したシーン記述データに基づいて、自軍の得点やファインプレーを一緒に喜んだり相槌を打ったりし、自軍の失点やエラーを一緒に悲しんだり落胆したりするなど、ゲームの経過などに追従した仮想キャラクタの動作を表出することかできる。
また、ユーザがニュース番組を視聴中に、国内、国際、社会、経済、芸能、スポーツ、科学、地域などのコーナー毎にサービス側からトリガー配信が行われ、これに応答して、表示装置110から対話装置120へトリガーデータが転送される。そして、対話装置120は、逐次取得したシーン記述データに基づいて、ユーザの関心があるジャンルを紹介するような仮想キャラクタの動作を表出することができる。
また、放送やストリーミングの番組本編に挿入されるCMのタイミングでサービス側からトリガー配信が行われ、これに応答して、表示装置110から対話装置120へトリガーデータが転送される。そして、対話装置120は、ユーザのプロファイルと商品とのマッチング処理などを行い、ユーザの商品に対する興味の度合いなどに応じて、仮想キャラクタによる商品のお薦めの仕方を変化させるようにしてもよい。
また、いずれの種類のイベントに応答した動作を実行している最中であれ、仮想キャラクタは、ユーザからの質問や雑談には応答するものとする。
図6には、シーン記述データの一例を示している。同図では、サッカーのゴールシーンというイベントに関する、イベントの開始時間及び終了時間、イベントの種別(「サッカー」)、イベントの内容(「ゴールした」、「チーム名」、「得点状況」)などを含んでいる。なお、映像からシーンを表現する手法はさまざまであり、図6に示すようなシーン記述データを既存の手法に基づいて自動生成することができる。
図7には、シーン記述データの他の例を示している。同図では、ユーザの状況に応じた感情の表現の典型を記述している。具体的には、「サッカー」というイベント種別において、「ゴールした」というイベントが発生した際に、「喜ぶ」又は「悲しむ」のいずれかの感情を表現することを記述している。
なお、図6に示したような、シーンに関する具体的な情報を記述するデータと、図7に示したような、シーンに対応した感情表現を示唆するデータとを個別のシーン記述データファイルとして、トリガーデータでは、これらのような2つのデータファイルの組み合わせを、イベントに対応したシーン記述データとして指定するようにしてもよい。あるいは、図6に示したようなデータ部分と図7に示したようなデータ部分をともに含む1つのシーン記述データファイルとして構成するようにしてもよい。
また、シーン記述データで使用する文書構造若しくは文法は任意であり、図6及び図7は一例を示したものに過ぎない。
また、対話装置120は、仮想キャラクタを自律駆動させる際に、視聴中の動画コンテンツ内でイベントが発生する度に提供されるシーン記述データを利用するかしないか、あるいはどの程度利用するかは任意である。例えば、対話装置120は、ユーザの指示に従って、シーン記述データを利用するかしないか、あるいはどの程度利用するかを決定するようにしてもよい。また、シーン記述データの中で、そのシーン記述データの記述内容が必須又は任意のいずれであるかを指定するようにしてもよい。
図8には、表示装置110の基本的な動作例をフローチャートの形式で示している。
表示装置110は、主電源が投入されて、起動を開始すると、ペアとなっている対話装置120が起動しているかどうかをチェックする(ステップS801)。
そして、対話装置120がまだ起動していない場合には、表示装置110は、対話装置120に起動を指示して(ステップS802)、対話装置120が表示装置110からトリガーデータなどを受信可能な受信状態にして(ステップS803)、本処理を終了する。
なお、対話装置120ではなく、MRデバイスやペット型ロボットを使ってユーザと対話するシステム構成の場合には、ステップS801では、MRデバイスやペット型ロボットの起動状態のチェックを行い、ステップS802ではMRデバイスやペット型ロボットを起動させて、受信可能状態にする。また、表示装置110の画面に子画面を設けて仮想キャラクタを表示するシステム構成の場合には、仮想キャラクタの自動駆動用アプリケーションの起動状態のチェックを行い、ステップS802ではこのアプリケーションを受信可能状態にする。
図9には、受信状態の対話装置120が実施する処理動作の手順をフローチャートの形式で示している。
対話装置120は、表示装置110からトリガーデータが配信されているかどうかをチェックする(ステップS901)。
表示装置110からトリガーデータが配信されていないときには(ステップS901のNo)、対話装置120は、自律会話モードに移行して(ステップS902)、表示装置110の画面で表示している放送型の動画コンテンツの内容(シーン)に依らず、仮想キャラクタを自律的にユーザと対話させながら、トリガーデータが配信されるまで待機する。
一方、表示装置110からトリガーデータが配信されているときには(ステップS901のYes)、対話装置120は、配信キャラクタのデータも表示装置110から配信されているかどうかをさらにチェックする(ステップS903)。
表示装置110から配信キャラクタが配信されていない場合には(ステップS903のNo)、対話装置120は、マイキャラクタを選択する(ステップS904)。
また、表示装置110から配信キャラクタが配信されている場合には(ステップS903のYes)、対話装置120は、選択可能な(言い換えれば、対話装置120上で自律駆動させることが可能な)配信キャラクタの一覧からなるキャラクタ選択画面をユーザに提示する(ステップS905)。
そして、ユーザがキャラクタ一覧画面の中からいずれかの配信コンテンツを選択すると(ステップS906のYes)、対話装置120は、ユーザが選択した配信キャラクタを表示部303に表示して自律駆動させることを選択する(ステップS907)。
また、ユーザがキャラクタ一覧画面の中からいずれの配信コンテンツも選択しなかった場合には(ステップS906のNo)、対話装置120は、マイキャラクタを選択して(ステップS904)、マイキャラクタを表示部303に表示して自律駆動させるようにする。
そして、対話装置120は、上記のようにしてマイキャラクタ又は配信キャラクタのいずれかを選択すると、シーン追従会話モードに移行する(ステップS908)。このシーン追従会話モードでは、対話装置120は、トリガーデータで指定されている所在又は取得方法に従って取得したシーン記述データに基づいて、選択したマイキャラクタ又は配信キャラクタのいずれかを用いて、ユーザとの対話を行う。
その後、対話装置120は、表示装置110から次のトリガーデータが配信されるまでは、選択したマイキャラクタ又は配信キャラクタを使って、ユーザとの会話を行う。
図10には、シーン追従会話モード下で対話装置120が実施する処理動作の手順をフローチャートの形式で示している。
対話装置120は、表示装置110からトリガーデータを受信すると(ステップS1001のYes)、トリガーデータで指定されている所在又は取得方法に従って、シーン記述データを取得する(ステップS1002)。
次いで、対話装置120は、いずれかの感情データを選択することが可能かどうかをチェックする(ステップS1003)。
感情データを選択できないときには(ステップS1003のNo)、対話装置120は、シーン記述データで指定された、お薦めの感情データに基づいた表現を行うように、仮想キャラクタを駆動させる(ステップS1004)。
一方、感情データを選択可能である場合には(ステップS1003のYes)、対話装置120は、感情データのカテゴリに適合するユーザデータがあるかどうかをさらにチェックする(ステップS1005)。
そして、感情データのカテゴリに適合するユーザデータがある場合には(ステップS1005のYes)、対話装置120は、ユーザデータに応じた感情表現を行うように、仮想キャラクタを駆動させる(ステップS1006)。
また、感情データのカテゴリに適合するユーザデータがない場合には(ステップS1005のNo)、対話装置120は、中立的な感情表現を行うように、仮想キャラクタを駆動させる(ステップS1007)。
以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本明細書で開示する技術は、放送型の動画コンテンツを視聴するシステムに好適に適用することができる。本明細書では、主にMPEG-2システムに適用した実施形態を中心に説明してきたが、本明細書で開示する技術の適用範囲はこれに限定されるものではない。例えば、MPEG-4やMPEG-DASH(Dynamic Adaptive Streaming over HTTP)など他の動画配信システムにも同様に本明細書で開示する技術を適用することができる。
要するに、例示という形態により本明細書で開示する技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)放送型の動画コンテンツを受信する受信部と、
前記動画コンテンツ中で発生するイベントに応じた仮想キャラクタの動作を示唆する情報の所在又は取得方法を含むデータを第2の機器に通知する通知部と、
を具備する情報処理装置。
(2)前記受信部は、放送波又はストリーム配信される前記動画コンテンツを受信する、
上記(1)に記載の情報処理装置。
(3)前記受信部が前記イベントのトリガーを受信したことに応答して、前記通知部が前記第2の機器に前記データを通知する、
上記(1)又は(2)のいずれかに記載の情報処理装置。
(4)前記受信部は、StreamEvent又はWebSocketにより、前記イベントのトリガーを受信する、
上記(3)に記載の情報処理装置。
(5)前記情報処理装置は、前記放送型の動画コンテンツを表示する表示部を備えたテレビ受信機である、
上記(1)乃至(4)のいずれかに記載の情報処理装置。
(6)放送型の動画コンテンツを受信する受信ステップと、
前記動画コンテンツを表示部に表示する表示ステップと、
前記動画コンテンツ中で発生するイベントに応じて、仮想キャラクタの動作を示唆する情報の所在又は取得方法を含むデータを第2の機器に通知する通知ステップと、
を有する情報処理方法。
(7)放送型の動画コンテンツ中で発生するイベントに応じた仮想キャラクタの動作を示唆する情報の所在又は取得方法を含むデータの通知を第1の機器から受け取る受信部と、
前記第1の機器から通知された前記データに基づいて前記情報を取得し、取得した前記情報に基づいて、前記仮想キャラクタの駆動を制御する制御部と、
を具備する情報処理装置。
(8)前記受信部は、前記放送型の動画コンテンツを受信するテレビ受信機としての前記第1の機器から前記通知を受け取る、
上記(7)に記載の情報処理装置。
(9)2次元又は3次元表示可能な表示部をさらに備え、
前記制御部は、前記表示部を用いて表示する前記仮想キャラクタの駆動を制御する、
上記(7)又は(8)のいずれかに記載の情報処理装置。
(10)前記制御部は、MRデバイスを用いて前記仮想キャラクタを表示する、
上記(7)又は(8)のいずれかに記載の情報処理装置。
(11)前記制御部は、前記放送型の動画コンテンツを受信するテレビ受信機としての前記第1の機器の子画面で前記仮想キャラクタを表示する、
上記(7)又は(8)のいずれかに記載の情報処理装置。
(12)前記制御部は、取得した前記情報に基づいて、ペット型ロボットの駆動を制御する、
上記(7)又は(8)のいずれかに記載の情報処理装置。
(13)前記制御部は、前記動画コンテンツ中の前記イベントの位置情報、前記イベントの種別、前記イベントの内容を含んだ前記データを取得する、
上記(7)乃至(12)のいずれかに記載の情報処理装置。
(14)前記制御部は、前記イベントに対する前記仮想キャラクタの感情表現に関する情報を含んだ前記データを取得する、
上記(7)乃至(13)のいずれかに記載の情報処理装置。
(15)前記受信部は、前記第1の機器から前記仮想キャラクタのデータをさらに受信する、
上記(7)乃至(14)のいずれかに記載の情報処理装置。
(16)放送型の動画コンテンツ中で発生するイベントに応じた仮想キャラクタの動作を示唆する情報の所在又は取得方法を含むデータの通知を第1の機器から受け取る受信ステップと、
前記第1の機器から通知された前記データに基づいて前記情報を取得する取得ステップと、
前記取得ステップで取得した前記情報に基づいて、仮想キャラクタの駆動を制御する制御ステップと、
を有する情報処理方法。
(17)放送型の動画コンテンツを受信する第1の機器と、
仮想キャラクタの駆動を制御する第2の機器と、
を具備し、
前記第1の機器は、前記イベントのトリガーを受信したことに応答して、前記動画コンテンツ中で発生するイベントに応じた仮想キャラクタの動作を示唆する情報の所在又は取得方法を含むデータを前記第2の機器に通知し、
前記第2の機器は、前記第1の機器から通知された前記データに基づいて前記情報を取得して、前記仮想キャラクタの駆動を制御する、
情報処理システム。
(18)放送型の動画コンテンツを受信する受信部、
前記動画コンテンツ中で発生するイベントに応じた仮想キャラクタの動作を示唆する情報の所在又は取得方法を含むデータを第2の機器に通知する通知部、
としてコンピュータを機能させるようにコンピュータ可読形式で記述されたコンピュータプログラム。
(19)放送型の動画コンテンツ中で発生するイベントに応じた仮想キャラクタの動作を示唆する情報の所在又は取得方法を含むデータの通知を第1の機器から受け取る受信部、
前記第1の機器から通知された前記データに基づいて前記情報を取得する制御部、
取得した前記情報に基づいて、前記仮想キャラクタの駆動を制御する制御部、
としてコンピュータを機能させるようにコンピュータ可読形式で記述されたコンピュータプログラム。
100…対話システム、110…表示装置、120…対話装置
201…制御部、202…バス、203…ストレージ部
204…通信インターフェース(IF)部
205…拡張インターフェース(IF)部
206…チューナ/復調部、207…デマルチプレクサ
208…映像デコーダ、209…音声デコーダ
210…文字スーパーデコーダ、211…字幕デコーダ
212…字幕合成部、213…データデコーダ、214…キャッシュ部
215…アプリケーション(AP)制御部、216…ブラウザ部
217…音源部、218…映像合成部、219…表示部
220…音声合成部、221…音声出力部、222…操作入力部
301…処理部、302…通信部、303…表示部
304…音声入力部、305…音声出力部
306…センサ部、307…記録部
410…対話エンジンフロントエンド
420…対話エンジンバックエンド、421…音声認識部
422…意味解析部、423…音声合成部、424…制御部
430…外部エージェントサービス、431…音声認識部
432…意味解析部、433…処理部、434…音声合成部
440…音声エージェントデバイス、441…音声入力部
442…音声出力部

Claims (15)

  1. 放送型の動画コンテンツを受信する受信部と、
    前記動画コンテンツを表示する表示部と、
    前記動画コンテンツ中で発生するイベントに応じた仮想キャラクタの動作を示唆する情報の所在又は取得方法を含むデータを、仮想キャラクタを駆動する第2の機器に通知する通知部と、
    を具備し、
    前記動画コンテンツの送信元が前記動画コンテンツの送信中に送信した前記イベントのトリガーを受信したことに応答して、前記通知部が前記第2の機器に前記データを通知する、
    情報処理装置。
  2. 前記受信部は、放送波又はストリーム配信される前記動画コンテンツを受信する、
    請求項1に記載の情報処理装置。
  3. 前記受信部は、StreamEvent又はWebSocketにより、前記イベントのトリガーを受信する、
    請求項1に記載の情報処理装置。
  4. 放送型の動画コンテンツを受信する受信ステップと、
    前記動画コンテンツを表示部に表示する表示ステップと、
    前記動画コンテンツ中で発生するイベントに応じて、仮想キャラクタの動作を示唆する情報の所在又は取得方法を含むデータを、仮想キャラクタを駆動する第2の機器に通知する通知ステップと、
    を有し、
    前記通知ステップでは、前記動画コンテンツの送信元が前記動画コンテンツの送信中に送信した前記イベントのトリガーを受信したことに応答して、前記第2の機器に前記データを通知する、
    情報処理方法。
  5. 放送型の動画コンテンツを表示中の第1の機器が前記動画コンテンツの送信元からイベントのトリガーを受信したことに応答して通知した、仮想キャラクタの動作を示唆する情報の所在又は取得方法を含むデータを受信する受信部と、
    前記第1の機器から通知された前記データに基づいて前記情報を取得し、取得した前記情報に基づいて、前記仮想キャラクタの駆動を制御する制御部と、
    を具備する情報処理装置。
  6. 前記受信部は、前記放送型の動画コンテンツを受信するテレビ受信機としての前記第1の機器から前記通知を受け取る、
    請求項5に記載の情報処理装置。
  7. 2次元又は3次元表示可能な表示部をさらに備え、
    前記制御部は、前記表示部を用いて表示する前記仮想キャラクタの駆動を制御する、
    請求項5に記載の情報処理装置。
  8. 前記制御部は、MRデバイスを用いて前記仮想キャラクタを表示する、
    請求項5に記載の情報処理装置。
  9. 前記制御部は、前記放送型の動画コンテンツを受信するテレビ受信機としての前記第1の機器の子画面で前記仮想キャラクタを表示する、
    請求項5に記載の情報処理装置。
  10. 前記制御部は、取得した前記情報に基づいて、ペット型ロボットの駆動を制御する、
    請求項5に記載の情報処理装置。
  11. 前記制御部は、前記動画コンテンツ中の前記イベントの位置情報、前記イベントの種別、前記イベントの内容を含んだ前記データを取得する、
    請求項5に記載の情報処理装置。
  12. 前記制御部は、前記イベントに対する前記仮想キャラクタの感情表現に関する情報を含んだ前記データを取得する、
    請求項5に記載の情報処理装置。
  13. 前記受信部は、前記第1の機器から前記仮想キャラクタのデータをさらに受信する、
    請求項5に記載の情報処理装置。
  14. 放送型の動画コンテンツを表示中の第1の機器が前記動画コンテンツの送信元からイベントのトリガーを受信したことに応答して通知した、仮想キャラクタの動作を示唆する情報の所在又は取得方法を含むデータを受信する受信ステップと、
    前記第1の機器から通知された前記データに基づいて前記情報を取得する取得ステップと、
    前記取得ステップで取得した前記情報に基づいて、仮想キャラクタの駆動を制御する制御ステップと、
    を有する情報処理方法。
  15. 放送型の動画コンテンツを受信して表示する第1の機器と、
    仮想キャラクタの駆動を制御する第2の機器と、
    を具備し、
    前記第1の機器は、前記動画コンテンツの送信元が前記動画コンテンツの送信中に送信したイベントのトリガーを受信したことに応答して、前記イベントに応じた仮想キャラクタの動作を示唆する情報の所在又は取得方法を含むデータを前記第2の機器に通知し、
    前記第2の機器は、前記第1の機器から通知された前記データに基づいて前記情報を取得して、前記仮想キャラクタの駆動を制御する、
    情報処理システム。
JP2020554788A 2018-10-29 2019-09-02 情報処理装置及び情報処理装置、並びに情報処理システム Active JP7428134B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018202874 2018-10-29
JP2018202874 2018-10-29
PCT/JP2019/034366 WO2020090215A1 (ja) 2018-10-29 2019-09-02 情報処理装置及び情報処理装置、並びに情報処理システム

Publications (2)

Publication Number Publication Date
JPWO2020090215A1 JPWO2020090215A1 (ja) 2021-09-24
JP7428134B2 true JP7428134B2 (ja) 2024-02-06

Family

ID=70463910

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020554788A Active JP7428134B2 (ja) 2018-10-29 2019-09-02 情報処理装置及び情報処理装置、並びに情報処理システム

Country Status (5)

Country Link
US (1) US11985390B2 (ja)
EP (1) EP3876547A4 (ja)
JP (1) JP7428134B2 (ja)
KR (1) KR102700436B1 (ja)
WO (1) WO2020090215A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024014526A1 (ja) * 2022-07-15 2024-01-18 ソニーグループ株式会社 情報処理装置および方法
US12100088B2 (en) * 2022-12-30 2024-09-24 Theai, Inc. Recognition of intent of artificial intelligence characters
CN116994277A (zh) * 2023-09-26 2023-11-03 北京游刃科技有限公司 一种视觉域信息知识构建的方法、装置和电子设备

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002118828A (ja) 2000-10-06 2002-04-19 Matsushita Electric Ind Co Ltd 動作端末およびその制御方法
JP2003324402A (ja) 2002-05-07 2003-11-14 Nippon Hoso Kyokai <Nhk> 外部機器連動型コンテンツ生成装置、その方法及びそのプログラム、外部機器連動型コンテンツ再生装置、その方法及びそのプログラム
JP2004179696A (ja) 2002-11-22 2004-06-24 Asahi Satellite Broadcasting Ltd 放送システム、放送システムに利用可能な放送送信装置および放送受信装置
JP2006245941A (ja) 2005-03-02 2006-09-14 Sharp Corp コンテンツ視聴システム、コンテンツ受信装置およびコンテンツ視聴用家庭内機器
JP2010239360A (ja) 2009-03-31 2010-10-21 Nippon Hoso Kyokai <Nhk> 連携受信システム及びプログラム
JP2013247434A (ja) 2012-05-24 2013-12-09 Toshiba Corp 情報処理装置及び情報処理方法
JP2015194864A (ja) 2014-03-31 2015-11-05 Kddi株式会社 遠隔操作方法ならびにシステムならびにそのユーザ端末および視聴端末
US20150379752A1 (en) 2013-03-20 2015-12-31 Intel Corporation Avatar-based transfer protocols, icon generation and doll animation
WO2016174960A1 (ja) 2015-04-30 2016-11-03 ソニー株式会社 受信装置、送信装置、およびデータ処理方法
JP2017139640A (ja) 2016-02-04 2017-08-10 株式会社Jストリーム コンテンツ付加情報提供システム
US20180026733A1 (en) 2015-03-01 2018-01-25 Lg Electronics Inc. Apparatus for transmitting broadcast signal, apparatus for receiving broadcast signal, method for transmitting broadcast signal and method for receiving broadcast signal

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7822687B2 (en) * 2002-09-16 2010-10-26 Francois Brillon Jukebox with customizable avatar
KR20110134814A (ko) * 2008-08-28 2011-12-15 (주)수연미디어 방송 컨텐츠와 연계되어 동작하는 컨텐츠 로봇 및 그 제어 방법
WO2010067221A1 (en) * 2008-12-09 2010-06-17 Koninklijke Philips Electronics N.V. Method and system for providing immersive effects
US9159165B2 (en) * 2010-07-13 2015-10-13 Sony Computer Entertainment Inc. Position-dependent gaming, 3-D controller, and handheld as a remote
KR102024145B1 (ko) * 2012-11-21 2019-09-23 주식회사 케이티 이동 로봇을 이용한 이벤트 제공 방법 및 시스템
JP5726987B2 (ja) * 2013-11-05 2015-06-03 株式会社 ディー・エヌ・エー コンテンツの配信システム、配信プログラム及び配信方法
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
WO2016153241A1 (ko) * 2015-03-23 2016-09-29 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
US20180115796A1 (en) * 2015-03-26 2018-04-26 Lg Electronics Inc. Broadcast signal transmitting device, broadcast signal receiving device, broadcast signal transmitting method, and broadcast signal receiving method
KR102304023B1 (ko) * 2015-04-03 2021-09-24 한국과학기술원 증강현실 기반 인터렉티브 저작 서비스 제공 시스템
US10095795B2 (en) * 2015-12-02 2018-10-09 Sap Se Content provisioning system for wearable technology devices
US10120386B2 (en) * 2016-11-18 2018-11-06 Robert Bosch Start-Up Platform North America, LLC, Series 1 Robotic creature and method of operation
US11587292B2 (en) * 2018-07-30 2023-02-21 Disney Enterprises, Inc. Triggered virtual reality and augmented reality events in video streams

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002118828A (ja) 2000-10-06 2002-04-19 Matsushita Electric Ind Co Ltd 動作端末およびその制御方法
JP2003324402A (ja) 2002-05-07 2003-11-14 Nippon Hoso Kyokai <Nhk> 外部機器連動型コンテンツ生成装置、その方法及びそのプログラム、外部機器連動型コンテンツ再生装置、その方法及びそのプログラム
JP2004179696A (ja) 2002-11-22 2004-06-24 Asahi Satellite Broadcasting Ltd 放送システム、放送システムに利用可能な放送送信装置および放送受信装置
JP2006245941A (ja) 2005-03-02 2006-09-14 Sharp Corp コンテンツ視聴システム、コンテンツ受信装置およびコンテンツ視聴用家庭内機器
JP2010239360A (ja) 2009-03-31 2010-10-21 Nippon Hoso Kyokai <Nhk> 連携受信システム及びプログラム
JP2013247434A (ja) 2012-05-24 2013-12-09 Toshiba Corp 情報処理装置及び情報処理方法
US20150379752A1 (en) 2013-03-20 2015-12-31 Intel Corporation Avatar-based transfer protocols, icon generation and doll animation
JP2015194864A (ja) 2014-03-31 2015-11-05 Kddi株式会社 遠隔操作方法ならびにシステムならびにそのユーザ端末および視聴端末
US20180026733A1 (en) 2015-03-01 2018-01-25 Lg Electronics Inc. Apparatus for transmitting broadcast signal, apparatus for receiving broadcast signal, method for transmitting broadcast signal and method for receiving broadcast signal
WO2016174960A1 (ja) 2015-04-30 2016-11-03 ソニー株式会社 受信装置、送信装置、およびデータ処理方法
JP2017139640A (ja) 2016-02-04 2017-08-10 株式会社Jストリーム コンテンツ付加情報提供システム

Also Published As

Publication number Publication date
US20220053241A1 (en) 2022-02-17
EP3876547A1 (en) 2021-09-08
JPWO2020090215A1 (ja) 2021-09-24
EP3876547A4 (en) 2021-09-08
WO2020090215A1 (ja) 2020-05-07
KR102700436B1 (ko) 2024-08-30
US11985390B2 (en) 2024-05-14
KR20210077683A (ko) 2021-06-25

Similar Documents

Publication Publication Date Title
JP7428134B2 (ja) 情報処理装置及び情報処理装置、並びに情報処理システム
US8893169B2 (en) Systems and methods for selectively obscuring portions of media content using a widget
US11227620B2 (en) Information processing apparatus and information processing method
US20110214141A1 (en) Content playing device
US20120240177A1 (en) Content provision
JP2008167018A (ja) 録画再生装置
US20080133604A1 (en) Apparatus and method for linking basic device and extended devices
EP2811750A1 (en) Set top box interaction method and associated set top box and system
EP2501146A2 (en) Content provision
GB2530871A (en) Systems and methods for performing ASR in the presence of heterographs
WO2018080445A1 (en) Systems and methods for resuming a media asset
KR20160093292A (ko) 콘텐츠 제공 방법 및 상기 방법을 수행하는 콘텐츠 제공 서버, 해설자 단말
CN113077799A (zh) 具有两个音频链路的解码器装备
Ohmata et al. Hybridcast: A new media experience by integration of broadcasting and broadband
KR102630037B1 (ko) 정보 처리 장치, 정보 처리 방법, 송신 장치, 및 송신 방법
KR101784004B1 (ko) 복수의 컨텐츠 제공자로부터 제공되는 컨텐츠를 제공/수신하기 위한 방법 및 그 방법을 이용한 시스템 및 장치
JP2008245038A (ja) 放送受信機及び表示方法
JP5997500B2 (ja) 放送通信連携受信装置
US20140075471A1 (en) Apparatus, systems and methods for accessing supplemental information pertaining to a news segment
WO2021049048A1 (ja) 映像提供システムおよびプログラム
CN113490021B (zh) 一种用户界面显示方法及显示设备
JP4421666B1 (ja) コンテンツ受信装置及びコンテンツ再生方法
CN111095943A (zh) 电视节目和额外多媒体内容的组合广播方法
KR101664500B1 (ko) 영상 표시 기기의 외국어 사전 기능 자동 제공 방법
KR20130038130A (ko) 클라우드 기반 사용자 메뉴 제공 방법 및 그 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240108

R151 Written notification of patent or utility model registration

Ref document number: 7428134

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151