JP2022546190A - 動画ストーリーラインの適応 - Google Patents

動画ストーリーラインの適応 Download PDF

Info

Publication number
JP2022546190A
JP2022546190A JP2022502547A JP2022502547A JP2022546190A JP 2022546190 A JP2022546190 A JP 2022546190A JP 2022502547 A JP2022502547 A JP 2022502547A JP 2022502547 A JP2022502547 A JP 2022502547A JP 2022546190 A JP2022546190 A JP 2022546190A
Authority
JP
Japan
Prior art keywords
output
input
sublayer
environmental
storylines
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022502547A
Other languages
English (en)
Inventor
ビュッセル,ベアート
ボテア,アディ
チェン,ベイ
章宏 岸本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2022546190A publication Critical patent/JP2022546190A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/735Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8541Content authoring involving branching, e.g. to different story endings

Abstract

ニューラル・ネットワークは、入力層、1以上の隠れ層および出力層を有する。入力層は、状況コンテキスト入力副層、(いくつかの実施形態においては)背景コンテキスト入力副層および環境入力副層に分割される。出力層は、選択または順序付け出力副層および環境出力副層を有する。層(副層を含む。)の各々は、複数のニューロンを有し、複数のニューロンの各々は、活性値を有する。状況コンテキスト、環境情報および背景コンテキストは、ニューラル・ネットワークに入力されてもよく、ニューラル・ネットワークは、視聴者のセンチメント、環境もしくは背景またはこれらの組み合わせに基づいて、ストーリーを変更するために用いられる、選択されたストーリーラインを動的に選択および順序付けするために用いる出力を生成する。

Description

本発明は、人工知能および人工現実(アーティフィシャル・リアリティ)に関する。より詳細には、本発明は、ユーザまたは視聴者のコンテキストもしくは環境またはこれらの両方に基づいて、1以上のメディア(ビデオもしくは音声またはこれらの両方)ストリームを動的に変更し、もしくは適応し、またはこれらの両方を行い、拡張された視聴者経験をもたらし、もしくはメディア・プロバイダの目的をより効果的に達成し、またはこれらの両方をすることに関する。
人工知能およびコンシューマ・エレクトロニクスの分野は、映画およびエンターテイメント産業に集り、複数の現場におけるビデオおよび音声コンテンツを、複数の経路を介してユーザにもたらしている。映画、コンサートおよびイベントは、現場(劇場、コンサートホールおよびスタジアムなど)やテレビジョン上のみならず、コンピュータやiPhone(登録商標)上のメディアとしても経験されており、ここでは、コンテンツは、オンデマンドで、連続的にまたは間欠的に、そして種々の時間、位置およびユーザの状況において消費されることができる。しかしながら、典型的には、これらのメディアは、一定不変のコンテンツで、イベント、画像、音声もしくはスピーチまたはこれらの組み合わせが固定的な順序のもののみで利用可能である。そのようなメディアは静的である傾向があり、一定不変で、メディアが提示される環境もしくはユーザまたは視聴者がメディアを消費するコンテキストまたはこれらの両方における変化に反応できない傾向がある。多くの場合、一度コンテンツが作成されると、例えば、ユーザまたは視聴者の構成(視聴者層)、数、気持ち、感情、ユーザまたは視聴者の背景、もしくはメディアが提示される環境のパラメータまたはこれらの組み合わせなど、ユーザまたは視聴者のセンチメント、コンテキストまたは環境に基づいて、コンテンツを変更する方法がない。
ユーザまたは視聴者のセンチメント、コンテキストおよび環境に適応可能にメディア・コンテンツおよび順序付けを変更することを可能とすることが求められている。このため、当該技術分野において上記課題を解決することが必要である。
第1の側面から観るとは、本発明は、メディア・ストリームを適合させるための制御システムを提供し、本制御システムは、入力層、1以上の隠れ層および出力層を有するニューラル・ネットワークであって、入力層は、状況コンテキスト入力副層および環境入力副層を有し、出力層は、選択または順序付け出力副層および環境出力副層を有し、層の各々は、複数のニューロンを有し、複数のニューロンの各々は、活性値を有する、ニューラル・ネットワークと;それぞれ、視聴者をモニタする1以上のセンサからの1以上のコンテキスト入力と、状況コンテキスト入力副層に接続された1以上のセンチメント出力とを有する1以上の状況コンテキスト・モジュールと;1以上の環境センサ入力と、環境入力副層に接続された環境出力とを有する1以上の環境情報モジュールと、選択または順序付け出力副層に接続された1以上の選択モジュールと;選択または順序付け出力副層に接続された1以上の順序付けモジュールとを含み、選択モジュールは、1以上の選択されたストーリーラインを選択するために動作可能であり、順序付けモジュールは、選択されたストーリーラインを、再生されるストーリーに順序付けするために動作可能である。
さらなる側面から観るとは、本発明は、ニューラル・ネットワークを訓練する方法を提供し、本方法は、複数のセンチメント活性値およびセンチメント・ニューロンについて、それぞれ、状況コンテキスト入力副層におけるセンチメント・ニューロンにセンチメント活性値を入力するステップであって、状況コンテキスト入力副層は、ニューラル・ネットワークの入力層の一部であり、センチメント活性値は、センチメント入力パターンを形成する、入力するステップと;複数の環境活性値および環境ニューロンについて、それぞれ、環境入力副層における環境ニューロンに環境活性値を入力するステップであって、環境入力副層は、ニューラル・ネットワークの入力層の一部であり、環境活性値は、環境入力パターンを形成する、入力するステップと;センチメント入力パターンおよび環境入力パターンを、ニューラル・ネットワークを通して伝播させるステップと;ニューラル・ネットワークの出力層に適用される損失関数を最小化することによって、1以上の重みおよび1以上のバイアスをどれだけ変化するかを決定するステップであって、出力層は、それぞれ出力活性値を有する、選択または順序付け出力副層および環境出力副層を有する、決定するステップと;重みおよびバイアスを変化させるために後方伝搬するステップと;出力活性値が所望の結果に達するまで前2ステップを繰り返し、訓練を終了させるステップと;を含む。
さらなる側面から観るとは、本発明は、請求項1~14のいずれか1項に記載の制御システムを制御するための制御実装方法を提供し、本方法は、視聴者と、状況コンテキスト入力副層に接続された1以上のセンチメント出力とをモニタするステップと;1以上の選択されたストーリーラインを選択するステップと;選択されたストーリーラインを、再生されるストーリーに順序付けするステップとを含む。
さらなる側面から観るとは、本発明は、システムを管理するためのコンピュータ・プログラム製品を提供し、本コンピュータ・プログラム製品は、処理回路によって可読であり、かつ、処理回路によって、本発明の方法を実行するための実行命令を格納するコンピュータ可読ストレージ媒体を含む。
さらなる側面から観るとは、本発明は、コンピュータ可読媒体に格納され、デジタル・コンピュータの内部メモリに読み込み可能なコンピュータ・プログラムを提供し、コンピュータ・プログラムは、プログラムがコンピュータ上で実行された場合、本発明の方法を実行するためのソフトウェア・コード部分を含む。
さらなる側面から観るとは、本発明は、ストーリーライン制御システムを提供し、本ストーリーライン制御システムは、入力層、1以上の隠れ層および出力層を有するニューラル・ネットワークであって、入力層は、状況コンテキスト入力副層、背景コンテキスト入力副層および環境入力副層を有し、出力層は、選択または順序付け出力副層および環境出力副層を有し、層の各々は、複数のニューロンを有し、複数のニューロンの各々は、活性値を有する、ニューラル・ネットワークと;それぞれ、視聴者をモニタする1以上のセンサからの1以上のコンテキスト入力と、状況コンテキスト入力副層に接続された1以上のセンチメント出力とを有する1以上の状況コンテキスト・モジュールと;1以上の環境センサ入力および環境入力副層に接続された環境出力を有する1以上の環境情報モジュールと、選択または順序付け出力副層に接続された1以上の選択モジュールと;選択または順序付け出力副層に接続された1以上の順序付けモジュールとを含み、選択モジュールは、1以上の選択されたストーリーラインを選択し、順序付けモジュールは、選択されたストーリーラインを、再生されるストーリーに順序付けする。
本発明は、訓練するための方法およびシステムを稼働させる方法を含むストーリーライン制御システムである。
システムにおいてニューラル・ネットワークが用いられる。いくつかの実施形態においては、ニューラル・ネットワークは、畳み込みニューラル・ネットワーク(CNN)である。ニューラル・ネットワークは、入力層、1以上の隠れ層および出力層を有する。入力層は、状況コンテキスト入力副層、(いくつかの実施形態においては)背景コンテキスト入力副層および環境入力副層に分割される。出力層は、選択または順序付け出力副層および環境出力副層を有する。層(副層を含む。)の各々は、複数のニューロンを有し、複数のニューロンの各々は、活性値を有する。
1以上の状況コンテキスト・モジュールは、それぞれ、視聴者をモニタする1以上のセンサからの1以上のコンテキスト入力と、状況コンテキスト入力副層に接続された1以上のセンチメント出力とを有する。
1以上の環境情報モジュールは、視聴者環境をモニタする1以上の環境センサ入力と、環境入力副層に接続された環境出力とを有する。
いくつかの実施形態においては、1以上の背景コンテキスト・モジュールは、視聴者の特性を含む1以上の背景入力と、環境入力副層に接続される背景出力とを有する。
1以上の選択モジュールは、選択または順序付け出力副層に接続され、1以上の選択されたストーリーラインの選択を制御する。
1以上の順序付けモジュールは、選択または順序付け出力副層に接続され、選択されたストーリーラインを順序付けし、例えば、ストーリーライン制御システムによって、ストーリーが再生される前またはストーリーが再生されながら、選択されたストーリーラインがストーリーを変更するようにする。
以下、本発明について、以下の図面に説明されるような好ましい実施形態を参照して、一例としてのみ、説明する。
本発明の1つのアーキテクチャを示すブロック図。 環境における1以上のユーザを示す図。 開始点、代替開始点、分岐点、終了点および代替終了点を含む、1以上の主ストーリーラインおよび1以上の代替ストーリーラインを有するストーリーを示す。 本発明のニューラル・ネットワークの実施形態のシステム・アーキテクチャ図。 本発明の一実施形態を訓練するために用いられる訓練プロセスのフローチャート。 本発明の一実施形態のステップを示す動作プロセスのフローチャート。
本明細書において、用語”視聴者(audience)”は、1以上のユーザを意味する。用語”ユーザ”および”視聴者”は、一般性を失うことなく同義に使用される。非限定的な例として、視聴者コンテキストは、ユーザのセンチメント、構成(例えばユーザの層-年齢、教育、ステータス、社会的および政治的観点)、プロファイル(例えば好き、嫌い)、気持ち、感情、位置、数、時刻、環境に対する反応、メディアに対する反応、もしくは感情的な状態またはこれらの組み合わせが含まれる。いくつかの実施形態においては、2種類のユーザ/視聴者コンテキストが用いられ、それは、背景コンテキストおよび状況コンテキストである。
メディアは、ユーザの1以上に身体的な知覚を感じさせるシステムの任意の知覚出力を意味する。メディアの非限定的な例として、ビデオ、音声、スピーチ、部屋または空間の環境の変化(例えば、気流、温度、湿度など)、におい、照明、特殊効果などを挙げることができる。
環境またはユーザ/視聴者環境は、システムによって出力される任意の時間での知覚出力の一部または全部の全体である。
経験(エクスペリエンス)または視聴者/ユーザ経験は、メディア/ストーリーが再生されていること含む環境によって任意の時間に起こされる、ユーザ/視聴者によって感じられる知覚的な経験である。
1以上のメディアは、ストーリーを含み、各ストーリーは、1以上の"ストーリーライン"、例えば、サブコンポーネントまたはセグメントを有する。ストーリーラインは、開始点および終了点を有する。典型的には、ストーリーラインは、1以上のストーリーおよびストーリーの一部である、関連付けられた環境を作るために、順に再生、例えば、1以上の出力デバイス上で出力される。同一もしくは異なるまたはこれらの両方のメディアの1以上の第2のストーリーラインが、開始/終了に基づいてもしくは第1のストーリーラインにおけるキューで、またはこれらの両方で、開始または終了してもよい。
例えば、第1のビデオ・ストーリーラインが、”おばあちゃん”の家のドアの前まで歩く”赤ずきん”の画像のシーケンスを再生する。”赤ずきん”がドアを開いたとき(第1のビデオ・ストーリーにおけるキュー)、第1の音声ストーリーラインが、再生を開始し、ドアを開く音がなる。ドアが開いた後、第1のビデオおよび第1の音声ストーリーラインは、例えば、終了点で終了する。第1のビデオおよび第1の音声ストーリーラインの終了点では、第2のビデオ・ストーリーラインが、(その開始点で)開始し、”赤ずきん”が家の中には歩いて行くことを示す画像のシーケンスが再生される。第2のビデオ・ストーリーラインの中盤で、”赤ずきん”が、”大きくて悪い狼”に会う。この第2のビデオ・ストーリーラインにおけるキュー・ポイントは、オムニバス・ミュージックの第2の音声セグメントの(その開始点での)開始と、照明を落とし、音声ボリュームを上げる第1の制御システムストーリーラインとを待つ。
これらのストーリーラインのコンテンツ、選択および順序付けは、1以上のシステム出力を駆動し、ストーリーが再生されている間、動的なユーザ/視聴者環境を作り出す。コンテンツ、選択および環境が時間とともに変化する場合、ユーザ/視聴者の経験は、時間とともに変化する。
”ストーリー”は、ストーリーライン・シーケンスにおいて再生される1以上のストーリーラインの選択である。各ストーリーラインは、1以上のストーリーライン・コンテンツを有する。各ストーリーラインは、例えばビデオ、音声、環境変化(温度、気流)、におい、照明などの1または複数のメディア・タイプで再生されるか、または出力される。ストーリーラインの選択、ストーリーラインのコンテンツおよびストーリーラインの順序付けはすべて、ユーザ/視聴者の環境および経験に影響を与える。したがって、ストーリーラインの選択、コンテンツもしくは順序付けまたはこれらの組み合わせのうちの任意のものを変えることは、ストーリー中、ユーザ/視聴者の環境および経験を変化させる。環境および経験における変化は、ユーザ・コンテキストを変化させ、これは、システムに入力され、次いで、ストーリーラインの選択、コンテンツもしくは順序付けまたはこれらの組み合わせを変える可能性がある。
本発明は、ストーリーをユーザ/視聴者に配信もしくは再生またはこれらの両方をする間、リアルタイムに、ストーリーにおけるストーリーラインの選択および順序付けによってストーリー変更を可能とするシステムおよび方法である。ストーリー変更は、状況コンテキスト(ユーザ/視聴者の経験)、環境もしくは背景コンテキストまたはこれらの組み合わせに基づくことができる。
いくつかの実施形態においては、システムは、ユーザ/視聴者のコンテキストをモニタまたは入力し、1以上のストーリーラインの選択もしくは順序付けまたはこれらの両方をどのように変更するかを決定し、ストーリーもしくは環境またはこれらの両方、ひいては視聴者の経験を変化させる。いくつかの実施形態においては、変化は、いくつかの基準、例えば、経験の創出、メッセージの伝達もしくは視聴者/ユーザの反応の測定またはこれらの組み合わせに関するメディア・プロバイダの目的に基づいてなされる。
いくつかの実施形態においては、2種類のユーザ/視聴者コンテキストを使用し、これは、背景コンテキストおよび状況コンテキストである。ユーザ/視聴者の背景コンテキストは、ストーリーの再生の前に存在するコンテキストである。背景コンテキストの非限定的な例としては、ユーザ構成(例えば、ユーザ層、-年齢、教育、社会経済的ステータス、収入水準、社会的および政治的な観点)、ユーザ・プロファイル(好き、嫌い)、時刻、視聴者におけるユーザ数、天候、視聴者の位置が含まれる。状況コンテキストの非限定的な例は、気持ち、感情、環境に対する反応(環境/ストーリーについての言葉による記述、顔の表情反応など)のような視聴者における1以上のユーザのセンチメントが含まれる。
システムは、視聴者における1以上のユーザに関する背景コンテキスト情報を収集することができる。この情報は、ソーシャル・メディア、ユーザ入力、ユーザのシステムの使用をモニタすること、画像認識などから収集することができる。いくつかの実施形態においては、非ユーザ情報を含む背景コンテキスト情報、例えば、天候が入力される。背景コンテキスト情報は、カレンダー、システム・クロック、ネットワーク検索などから取得することができ、例えば、ユーザの調査からの情報を使用することができる。
加えて、システムは、状況コンテキストをモニタし、入力する。いくつかの実施形態においては、状況コンテキストは、表情もしくはユーザの気持ちまたはこれらの両方を識別するために使用される顔認識システムから収集される。いくつかの実施形態においては、システムは、単語の使用、意味、表現、ボリュームなどについて音声入力を解析し、感情状態を判定する。いくつかの実施形態においては、システムは、ストーリーラインの選択および順序付けが変化することに伴う、環境入力、メディア・タイプ、もしくは、ストーリーおよびストーリーライン・メディア・コンテンツ、またはこれらの組み合わせにおける変化に対する、視聴者の反応(例えば、顔認識および分析および音声分析などにより)を測定、記録、推測もしくは予測またはこれらの組み合わせをすることができる。
ストーリーにおいてストーリーラインのシーケンスを提示している間、システムは、音、音レベル、光レベル、光周波数、におい、湿度、温度、気流などの環境入力をモニタする。
好ましい実施形態においては、ニューラル・ネットワークが使用される。訓練フェーズの間、状況コンテキスト情報、背景コンテキスト情報もしくは環境情報またはこれらの組み合わせを含む訓練データがニューラル・ネットワークに入力される。ニューラル・ネットワークは、以下に説明するような既知の後方伝搬技術を用いて訓練される。
訓練の間、入力が入力層に入力され、出力層の出力が所望の結果と比較される。例えば、ニューラル・ネットワークの内部の詳細をどのように変更するかを決定するために損失関数を最小する際に、差分が使用される。入力が再び入力され、新たな出力が所望の出力と比較される。プロセスは、システムが訓練されるまで反復される。
動作フェーズの間、ニューラル・ネットワークの出力は、ストーリーラインおよび環境出力の選択および順序付けを制御して、メディアとして再生する1以上のストーリーを生成する。結果として得られるストーリーは、視聴者(または視聴者のモデル)に対して再生され、環境を作り出す。
動作中、視聴者の経験がモニタされ、訓練済みニューラル・ネットワークによって決定されるようにストーリーラインの選択もしくは順序付け(環境的なストーリーライン出力を含む)またはこれらの両方が変化する。ストーリーを変更するために、選択コントローラは、ストーリーラインの選択を変更し、シーケンス・コントローラは、ストーリーのシーケンスを変更し、変更されたストーリーを生成する。変更されたストーリーは、以前のストーリーラインと比較して、追加、削除もしくは変更またはこれらの組み合わせがなされたストーリーラインを有する可能性がある。
訓練済みシステムは、動作フェーズの間、より予測可能に(predictably)1以上の視聴者の経験を生成するためにストーリーラインおよび環境出力を選択および順序付けする能力が高まる。動作システムは、ストーリーを作成し、視聴体験をモニタし、即時の視聴者体験に基づいて、1以上のストーリーライン(環境出力を含む)の選択および順序付けを動的に変更し、予測可能な視聴者の反応または応答とともに視聴者のために異なる環境および結果(outcome)を作り出すことができる。これらの変更は、将来のためのストーリーのためになされてもよいし、または、ストーリーが再生されている間に”オン・ザ・フライ”で生じてもよい。
いくつかの実施形態においては、動作システムは、動的な背景コンテキスト、状況コンテキストもしくは環境またはこれらの組み合わせを織り込んだ、視聴者経験に基づいて、出力を提供するように訓練される点に留意されたい。
本発明によれば、視聴者の経験をより興奮、スリリング、影響的なものとする目的で、人工知能を使用して、そのストーリーラインを適応させることによって、視聴者のメディア(例えば、映画)とのエンゲージメント(engagement)を増大させることができる。
本発明によれば、メディア・プレゼンテーション(例えば映画)の視聴数が増加される可能性があり、これは、ストーリーラインを適応することによって、背景コンテキストおよび状況コンテキストに応じてメディア・プレゼンテーションが変化し、メディア・プロバイダの目標を達成することによって測定されるような、視聴者経験における向上を生じさせるので、視聴経験がより強烈になるためである。これらの目標は、より多くのチケットを販売すること、より多くのネットワーク・ビューを有すること、もしくはより多様な視聴者にリーチすることまたはこれらの組み合わせを含む。
本発明は、例えば、状況コンテキスト、背景コンテキストもしくは環境またはこれらの組み合わせを測定し、後の分析および使用のため例えば外部ストレージ上にこれらの情報を格納することによって、1以上のストーリーラインまたはストーリーに対する視聴者経験をモニタおよび記録することができる。
いくつかの実施形態においては、畳み込みニューラル・ネットワーク(CNN)が、ストーリーラインの選択もしくはストーリーラインの順序付けまたはこれらの両方、または環境制御またはこれらの組み合わせを変更するために使用される。
ここで、図面、特に図1を参照し、図1は、本発明の1つのアーキテクチャ100のブロック図である。
一実施形態において、制御システム160は、1以上のネットワーク、クラウド環境、リモートストレージもしくはアプリケーション・サーバ110またはこれらの組み合わせに接続110Cされる。ネットワーク接続110Cは、既知の任意の接続で、標準インタフェース110Cで、任意の標準的なネットワーク110に接続し、ネットワーク110は、インターネット、イントラネット、ワイド・エリア・ネットワーク(WAN)、ローカル・エリア・ネットワーク(LAN)、クラウドもしくは例えばWi-fi(登録商標)などの無線周波接続またはこれらの組み合わせを含む。
ネットワーク接続110Cは、通信インタフェース104を介して、任意の既知のシステム・バス101によって制御システム160のコンポーネントに接続される。これらの中で、メディア・データは、通信インタフェース104を介して、システム160へ、またシステム160から、通信することができる。
例えば、中央処理ユニット(CPU)103、コプロセッサ103もしくはグラフィカル・プロセッシング・ユニット(GPU)またはこれらの組み合わせなどの1以上のコンピュータ・プロセッサがシステム・バス101に接続される。
1以上の入力/出力(I/O)コントローラ105が、システム・バス101に接続される。I/Oコントローラ105は、1以上のI/O接続115に接続される。I/O接続またはバス115は、例えば、無線周波数や光接続などのハード配線または無線によってI/Oデバイスを接続する。I/Oデバイスの例としては、外部ストレージ111(例えば、CD/DVDデバイスのようなポータブル・データ・ストレージ、外部ハード・ドライブ、クラウド・ストレージなど)、1以上の入力センサ112、例えばグラフィカル・ユーザ・インタフェース(GUI)などの1以上のディスプレイ113、例えば環境コントローラなどの1以上の他のコントローラ114とが含まれる。メディア・コンテンツもしくはストーリーライン情報またはこれらの両方は、ネットワーク接続110CもしくはI/O接続115またはこれらの組み合わせを超えて、例えば外部ストレージ111,ディスプレイ/GUI113および他の(例えば環境)出力114と通信されてもよい。
1以上のメモリ102がシステム・バス101に接続される。例えば1以上のオペレーティングシステム(OpSys)などのシステム・ソフトウェア106、例えばキャッシュメモリなどのオペレーション・ストレージ107、および1以上のアプリケーション・ソフトウェア・モジュール108がメモリ102にアクセス可能に格納される。
他のアプリケーションが、システム160上で実行するためにメモリ102に常駐していてもよい。これらのアプリケーションの1以上の機能も、実行のために結果がシステム160に提供されるとして、システム160に対し外部的に実行されてもよい。状況コンテキスト・モジュール120は、ストーリーラインまたはストーリーが再生されている間、状況コンテキストに影響を与える入力を解析する。背景コンテキスト・モジュール130は、背景コンテキスト情報を解析する。環境モジュール140は、ストーリーラインまたはストーリーが再生されている間、環境の効果を分析する。選択モジュール150は、再生するためのストーリーラインを選択する。順序付けモジュール165は、選択されたストーリーラインが再生されるシーケンスを選択する。選択モジュール150および順序付けモジュール165の出力は、状況コンテキスト120、背景コンテキスト130、環境情報140もしくはシステム構成またはこれらの組み合わせの分析に基づいて、ストーリーを再生する前あるいはストーリーを再生しながら動的に、実行することができる。環境モジュール170は、環境出力を、選択され、順序付けされたストーリーラインおよびプログラムと調整し、I/Oコントローラ105を介して環境出力を制御する。
図2は、ユーザ環境200における1以上のユーザ/視聴者250の図である。環境200は、1以上の入力および1以上の出力を有する空間を含む。入力は、イメージ・キャプチャ・デバイス(例えば、カメラ205)、オーディオ・キャプチャ・デバイス210(マイクロフォン210)およびグラフィカル・ユーザ・インタフェース(GUI)113のようなセンサ112を含む。入力は、また、温度検出器230、湿度検出器(図示せず)112および位置検出器280のような環境入力を含む。出力は、GUI113、テレビジョン、ディスプレイ、家庭用エンターテイメント・システム255および音声出力装置(例えば、スピーカ)215を含む。いくつかの環境出力(例えば225)は、環境コントローラ105によって、例えば、バス115を介して、制御され、照明225、温度、湿度および空気流を含む環境パラメータを制御する。
携帯電話275、データ・アシスタント、モニタ(例えば、"fitbit(登録商標)"および心拍数モニタ)、血圧モニタ、呼吸検出器、モーション検出器のような補助デバイスおよびコンピュータは、入力もしくは出力またはこれらの両方をユーザ、典型的には250に提供する。マイクロフォン210、温度センサ230、携帯電話275およびカメラ205のような入力およびスピーカ215、携帯電話275、照明225のような出力は、おもちゃ245などを含む環境200の任意の場所に位置してもよい。入力および出力は、例えば、バス115を用いてハードワイヤードでまたは無線で接続することができる。
視聴者(典型的には250)は、1以上のユーザ250を含む。ユーザ250は、異なる特性を有する。例えば、1人のユーザ250は、親250Pであってよく、他のユーザ250は、若年者250Cとすることができる。視聴者250は様々である可能性がある。視聴者250の非限定的な例は、TVを見る家族、映画を見るグループ、ビデオゲームをプレイするグループ、エンターテイメント会場における群衆、コマーシャルの視聴者、教室の生徒、テーマパークでのグループ、映画館の観客、競技または政治的なイベントに参加する人々を含む。
制御システム160は、I/Oデバイス(112、113、114など)への接続がある任意の場所に位置してもよい。例えば、制御システム160は、エンターテイメント・システム255内に位置してもよい。いくつかの実施形態においては、制御システム160は、ネットワーク/クラウド110に通信インタフェース104を介して(有線または無線で)接続される110C。
センサ112は、特に、それぞれのI/Oコントローラ105へのバス接続115を介したユーザ250から信号(例えば、画像および音声)をキャプチャする。信号が処理され、受信された信号の内容が、状況コンテキスト・モジュール120、背景コンテキスト・モジュール130および環境モジュール140のうちの1以上によって解析される。いくつかの実施形態では、ネットワーク/クラウド110、インタフェース113を介したユーザ入力、センサ、もしくは携帯電話275およびストレージ111のような補助デバイスからの入力、またはこれらの組み合わせのうちの1以上から情報がまた受信される。
これらの入力を使用して、状況コンテキスト・モジュール120、背景コンテキスト・モジュール130および環境モジュール140は、状況コンテキスト260、背景コンテキストもしくは環境200における環境パラメータ(例えば、温度、音量、照明レベル、湿度など)またはこれらの組み合わせを決定する。
非限定的な例が提示される。
ステレオカメラ205は、状況コンテキスト・モジュール120のために状況コンテキスト・モジュール120に信号を提供し、状況コンテキスト・モジュール120は、身体姿勢認識を実行し、驚き、笑い、悲しみ、興奮などのような1以上のユーザ250の反応260を決定する。
カメラ205は、状況コンテキスト・モジュール120に信号を提供し、状況コンテキスト・モジュール120は、顔認識を行い、表情に基づいて、ユーザ250の反応260を決定する。
赤外線カメラ205は、状況コンテキスト・モジュール120に信号を提供し、状況コンテキスト・モジュール120は、ユーザ250の反応260を表す身体および顔の温度を決定する。
温度計230センサ112は、環境モジュール140に信号を提供し、環境200の環境パラメータである周囲温度を測定する。
マイクロフォン210は、環境モジュール140に信号を提供し、環境200内の周囲音レベルを決定する。
マイクロフォン210は、状況コンテキスト・モジュール120に信号を提供し、状況コンテキスト・モジュール120は、音声および音(例えば、泣いている、笑っている)の認識を行う。1以上ユーザ250の反応260を決定するために自然言語処理NLPが使用されてもよい。いくつかの実施形態においては、状況コンテキスト・モジュール120は、NLPを実行し、再生するストーリーに言及しているキーフレーズを検出する。NLPは、ストーリーの進行もしくは終了またはこれらの両方に関するユーザ250の期待もしくはセンチメントまたはこれらの両方を示す、ユーザ250が話したフェーズ(phases)を検出することができる。
センサ112から受信した画像データを用いて、状況コンテキスト・モジュール120は、ユーザ250の反応260の標示を与える可能性のある年齢認識を実行することができる。
状況コンテキスト・モジュール120は、モーション・センサ112からのモーション・データ(例えば、迅速な動き、動きなし、歩き方など)を使用して、ユーザ反応260を決定することができる。
背景コンテキスト・モジュール130は、ネットワーク110、ユーザ入力113(例えば、ユーザ調査)もしくは格納されたメモリ111またはこれらの組み合わせから受信した情報を使用して、1以上のユーザ250のユーザプロファイルを形成する。情報は、ソーシャル・メディア・アカウント上の記述およびアクティビティ、ソーシャル・メディア上のユーザグループおよび友人に関する情報、ユーザの検索活動、訪問したウェブ・サイト、求めた商品情報、購入されたアイテムなどから収集されてもよい。同様の情報は、携帯電話275のような補助デバイス上のアクティビティからアクセスされてもよい。もちろん、適切な許可およびアクセス特権が、この情報にアクセスする際に取得される必要がある。
状況コンテキスト・モジュール120の出力は、センチメントもしくはユーザ反応またはこれらの両方のセットを含み、これらの各々は、ユーザの1以上についてのセンチメント/反応260のレベルを表す反応値/スコアを有する。これは、ユーザ250の各々のセンチメント・ステータスまたはセンチメント・パターンを表す。いくつかの実施形態においては、このセンチメント・パターン/ステータスは、図4において説明するようなニューラル・ネットワークにおける状況コンテキスト副層に入力される。いくつかの実施形態においては、まず、ユーザ250は、それらのセンチメント・ステータスに従って分類される。いくつかの実施形態においては、アグリゲータは、複数のユーザ250のセンチメント/反応260を集約し、視聴者250もしくは視聴者全体250またはこれらの両方における1以上のグループ(250P,250C)のセンチメント・ステータスを表す、センチメント/反応260の集約されたセットおよび対応する値を決定する。ストーリーが再生されている間、センチメント・ステータスは、変化する可能性がある。
背景コンテキスト・モジュール130の出力は、ユーザ250のうちの1以上のユーザ・プロファイルである。各ユーザ・プロファイルは、所与のユーザ250についてのユーザ特性の各々のレベルを表す関連特性値/スコアを有する複数のユーザ特性を有する。いくつかの実施形態においては、ユーザ・プロファイルは、類似度によってグループ化される。いくつかの実施形態においては、プロファイル・アグリゲータは、複数のユーザ250のプロファイルを集約し、視聴者250もしくは視聴者全体250またはこれらの両方における1以上のグループ(250P,250C)のプロファイルを表す、それぞれのプロファイル値/スコアを有する集約プロファイルを決定する。プロファイルは、ストーリーが再生されている間に変化する可能性があるが、いくつかの実施形態においては、プロファイルの変化は、あまり動的ではないと予想される。いくつかの実施形態においては、図4で示すように、特性のプロファイルが、活性値のパターン410として、背景コンテキスト副層454に入力される。
環境モジュール140の出力は、環境200の環境プロファイルである。環境プロファイルは、複数の環境パラメータを有し、各々は、所定の時刻に環境200において各パラメータが有するレベルを表す関連パラメータ値/スコアを有する。環境プロファイルは、ストーリーが再生される間変化する。制御システム160は、また、ストーリーラインの選択および順序付けを変更することによって、環境200およびひいては環境プロファイルを変更することができる。いくつかの実施形態においては、環境パラメータの環境プロファイルは、図4に示すように、環境副層456に、活性値のパターン410として入力される。
図3は、開始点301、代替開始点302、分岐点380、終了点309および代替終了点310を含む、1以上のメインストーリーライン(304,394)および1以上の代替ストーリーライン383を有するストーリー300を示す。
図3は、開始点301から直接終了点309までのメインストーリーラインまたはストーリーの1以上のストーリーライン(303,323,333,343,363,393,典型的には383)を有するストーリー300の図である。ここには、第1のストーリーおよび代替ストーリーライン383を定義するストーリーライン383がある。代替ストーリーは、第1/オリジナルのストーリーにおいて、ストーリーライン383を加えること、挿入することもしくは削除することまたはこれらの組み合わせを行うことによって第1/オリジナルのストーリーから展開する。
ストーリー300は、例えば開始点301および終了点309を有する。代替開始点302および代替終了点310が存在し得る。
加えて、分岐点が存在する。分岐点は、ストーリー300における、ストーリーライン383を挿入、削除、または追加することによってストーリー300が変更され得る点である。いくつかの実施形態においては、代替的なストーリーライン383が、例えば分岐点340および345で開始および終了し、ストーリーの連続性を変えることなく、オリジナルのストーリーの内容を変更する。
分岐点は、通常、ストーリーラインの開始点、例えば320、330、340、360,370,典型的には380、またはストーリーラインの終了点315、325、335、365、典型的には385と一致する。ストーリーラインの開始点380を分岐点に一致させ、ストーリーラインの終了点385を分岐点に一致させることによって、ストーリー300は、シーケンスにおける以前のストーリーラインの代わりに挿入されたストーリーラインを(分岐点に一致する開始点および終了点で)再生することによって変化する可能性がある。
例えば、ストーリー300は、もとは、301で開始し、点301と分岐点315との間でストーリーライン304を再生するように順序付けされる。システムは、開始点302で開始し、ストーリーライン304の代わりにストーリーライン303を再生し、ストーリーライン303および304の両方の終了点で共通する分岐点315でストーリーライン303を終了させることによって、ストーリー300を変更することができる。ストーリーライン304をストーリーライン303の代わりに用いることによって、制御システム160は、ストーリー300におけるストーリーライン383の選択(303ではなく304を選択する)および順序付け(304を最初に再生し、303を再生しない)を変更した。
さらなる例として、オリジナルのストーリー300が301で開始し、開始点301と直接309との間で単一のストーリーラインを再生することによって継続すると仮定する。このオリジナルのストーリーは、異なるストーリーラインを異なる順序で選択することによって、多くの方法で変更することができる。ストーリーは、301で開始し、分岐点320まで継続することができ、分岐点320では、ストーリーライン323が選択されて、分岐点325まで再生される。代替的に、オリジナルのストーリーが、302で開始し、分岐点330まで継続してもよく、分岐点330では、システム160は、ストーリーライン333を選択し、分岐点335においてオリジナルのストーリーラインに戻る。また再び、システムは、301から開始するストーリーラインを再生することができ、システム160は、ストーリーライン343を選択して、分岐点340で開始し、分岐点345でオリジナルのストーリーラインに戻ってくることができる。ストーリーライン393および394は、いずれのストーリーの終了点をシステムが分岐点370で選択し、再生するかに応じて、ストーリー300において代替終了点(309または310のいずれか)を提供する。代替ストーリーライン(例えば363)内において、例えばキュー点で、別のストーリーライン305を開始または終了することができる、分岐点367が存在し得ることに留意されたい。
ストーリーライン383を”再生”することにより、順序付けられ再生された、選択されたストーリーライン383に対応する、上述したように、1以上の出力が、視聴者250にメディアを提供することを可能とする。
図4は、本発明のニューラル・ネットワーク400の一実施形態のシステム・アーキテクチャ図である。
ニューラル・ネットワーク400は、複数のニューロン、典型的には405を有する。ニューロン405の各々は、活性値410と参照される値を格納する。例えば、ニューロン405は、値”3”の活性値を保持する。明確化のため図4においては、ニューロンおよび活性値の大部分には符番が付されていない。
ニューラル・ネットワーク400は、複数の層、例えば、420、422,424、425、典型的には426を含む。第1層または入力層420と、最終層または出力層426が存在する。入力層420と出力層426との間には、1以上の隠れ層、例えば422,424が存在する。層425の各々は、複数のニューロン405を有する。いくつかの実施形態においては、層425の数および層各々におけるニューロン405の数は、実験によって経験的に決定される。
いくつかの実施形態においては、前層の全てのニューロンは、それぞれ、エッジ415によって、次層のニューロンの各々に接続される。例えば、次(隠れ)層422の典型的なニューロン406は、エッジ415によって、入力層420内の各ニューロン405に個別に接続される。いくつかの実施形態においては、エッジ415の1以上は、関連する重みW418を有する。同様なやり方430で、次の層、例えば422の各ニューロン406は、エッジ415によって、前層、例えば420のニューロン405のすべてに接続される。同種の接続415が、第2の隠れ層424における各ニューロンと、第1の隠れ層422の各ニューロンとの間でなされ、同様に、出力層426の各ニューロン495と、第2隠れ層424のすべてのニューロンとの間でもなされる。これらの接続430は、明確化のため図4には示されていない。
いくつかの実施形態においては、各ニューロン406内の活性値410は、前層における各接続されたニューロン405の活性値410の重み付け総和によって決定される。各活性値410は、それぞれニューロン406を、前層、例えば420における対応するニューロン405の各々に接続するエッジ415の重み(W,418)によって重み付けされる。
従って、前層、例えば420における活性値410のパターンは、それぞれのエッジ415の重み(w,418)とともに、次の層、例えば422における活性値406のパターンを決定する。同様のやり方で、前層、例えば422における活性値406のセットの重み付け総和は、各ニューロン、典型的には405の活性値、ひいては、次層、例えば424におけるニューロンの活性値のパターンを決定する。このプロセスは、出力層426におけるニューロン495の各々における活性値、典型的には490の活性値で表される、活性値のパターンが現れるまで継続する。よって、入力層420において活性値のパターン405が与えられると、ニューラル・ネットワーク400の構造、重み(w,418)およびバイアスb(以下に説明する。)は、出力層326におけるニューロン495の各々の活性値である活性値出力パターンを決定する。入力層420における活性値のセットが変化し、ひいては、出力層426における活性値のセットも同様に変化する。隠れ層(422,424)における変化する活性値のセットは、物理的な意味を有してもよくまたは有していなくともよい、抽象化のレベルである。
いくつかの実施形態においては、入力層420は、2以上の副層、例えば452,454,および典型的には456に細分される。
入力副層452は、状況コンテキスト副層452であり、状況コンテキスト・モジュール120の出力からの活性値410を受け取る。入力層452での活性値のパターンは、視聴者250のセンチメント/反応260のステータスを表す。例えば、状況コンテキスト副層452のニューロン405は、視聴者の幸福、興奮および不安などの反応を表す。
入力副層454は、背景コンテキスト副層453であり、背景コンテキスト・モジュール130の出力からの活性値410を受け取る。背景コンテキスト副層454内のニューロン405の活性値410は、ユーザ/視聴者250のプロファイルにおける特性の値/スコアを表す。いくつかの実施形態においては、背景コンテキスト副層454における活性値410のパターンは、特性のユーザ/視聴者250のプロファイルの時点における背景コンテキスト・ステータスを表す。
入力副層456は、環境副層456であり、環境モジュール140の出力からの活性値410を受け取る。環境副層456内のニューロン405の活性値410は、環境プロファイルにおける環境パラメータを表す値/スコアである。いくつかの実施形態においては、環境副層456内の活性値410のパターンは、ストーリーが再生されている間に時間的に変化するような環境プロファイル・ステータスを表す。
いくつかの実施形態においては、出力層426は、2以上の副層、例えば、482および484、典型的には480に細分される。
出力副層482は、どのストーリーラインが選択され、選択されたストーリーラインの各々が、例えば分岐点(380,385)で、いつ開始され、いつ終了するかを決定するニューロン495を有する。
出力副層484は、どのように制御システム160がI/Oデバイス、特に、環境200を変えるための環境出力を制御するかを決定するニューロン495を有する。
ニューラル・ネットワーク400における一の層から次の層への遷移の一数学的表現は、以下の通りである:
Figure 2022546190000002
ここで、a は、次のレベル、ここではレベル1のn番目のニューロン406の活性値410であり;wn,kは、現在のレベル、ここではレベル0のk番目のニューロン405と、次のレベル、ここではレベル1のn番目のニューロン406との間のエッジ415の重み(w,418)であり;bは、次のレベルのn番目のニューロン406の重み付け総和のためのバイアス値である。いくつかの実施形態においては、バイアス値は、ニューロンをオンするためのしきい値と考えることができる。
項σは、スケーリング係数である。例えば、スケーリング係数は、シグモイド関数または正規化線形ユニット、例えばReLU(a)=max(0,a)とすることができる。
ニューラル・ネットワークは、全ての重み(w,418)およびバイアスbについての値を求めることによって訓練される。いくつかの実施形態においては、既知の後方伝搬法が、重みおよびバイアス値を求めるために使用される。
いくつかの実施形態においては、訓練を開始するために、重みおよびバイアスが、ランダム値またはある初期値セットのいずれかに設定される。出力層426の出力、すなわち活性値パターンが、所望の結果と比較される。損失関数(例えば、差分の二乗和の平方根)を介した実際の出力と所望の結果との比較は、所与の入力に対して出力が所望の出力にいかに近いかを測定する。損失関数は、重みおよびバイアスを所望の値に近づけるためにどれだけの大きさおよび方向で変化させるかを決定するための反復処理を介して、例えば勾配降下法によって、最小化される。重みおよびバイアスは、変更、すなわち後方伝播され、別の反復が行われる。出力層が、入力層に課された所与の活性値パターンに対して所望の結果に近い活性値パターンを生成するまで複数の反復が行われる。
代替実施形態においては、ニューラル・ネットワーク400は、畳み込みニューラル・ネットワーク(CNN)である。CNNにおいては、隠れ層のうちの1以上が、畳み込み層であり、この畳み込み層では、層内のパターンを検出し、強調し、または強調を抑えるための1以上のフィルタを用いて畳み込みが実行される。例えば、画像におけるサブシェイプもしくは音声のサブパターンまたはこれらの両方を検出するための異なるフィルタ・タイプが存在する。好ましい実施形態においては、フィルタ470は、層に対する入力にわたる畳み込みをし、層に対する入力の新たなパターンを生成する、値の行列である。
図5は、本発明の一実施形態を訓練するために用いられる訓練プロセス500のフローチャートである。
訓練プロセス500は、訓練されていないニューラル・ネットワーク400とともに開始される。状況コンテキスト・モジュール120、背景コンテキスト・モジュール130および環境モジュール140から、初期の活性値パターンが入力層420に入力される。代替的には、入力はシミュレートされてもよい。
例えば、状況コンテキスト・モジュール120の出力は、視聴者250のセンチメント/反応260のステータスを表す活性値410のパターンとして状況コンテキスト副層452に入力される(505)。背景コンテキスト・モジュール130の出力は、ある時点における背景コンテキスト・ステータスのステータスを表す活性値410のパターン、つまり、特性のユーザ/視聴者250プロファイルのステータスとして、背景コンテキスト副層454に入力される。環境モジュール140の出力は、環境プロファイルにおける環境パラメータのステータスを表す活性値410のパターンとして環境副層456に入力される(505)。
ステップ510では、重み418およびバイアスbが初期的に設定される。
ステップ520では、活性値410が出力層426に伝播される。
ステップ530では、副層482の出力が、ストーリーラインの所望の選択および順序付けと比較される。さらに、副層484の出力が、環境出力の所望の構成と比較される。損失関数は、新しい重み418およびバイアスbのセットのために必要な変化の大きさおよび方向を決定するために最小化される。
ステップ540において、新しい重み418およびバイアスbが、既知の方法によって後方伝播され、新しいセットの出力(482,484)が受領される。
入力活性値を再入力した後、ステップ550で確認が行われる。副層482および484の出力が所望の選択および順序付けおよび環境出力の許容範囲内にあれば、プロセス500は、終了する。もしそうでなければ、制御は、ステップ530で損失関数を最小化するために戻り、処理が再び反復される。
図6は、本発明の一実施形態の動作するステップを示す動作プロセス600のフローチャートである。
ステップ605において、状況コンテキスト・モジュール120の出力が、視聴者250のセンチメント/反応260のステータスを表す活性値410のパターンとして、状況コンテキスト副層452に入力される(605)。背景コンテキスト・モジュール130の出力が、ある時点における背景コンテキスト・ステータスのステータスを表す活性値410のパターン、つまり、特性のユーザ/視聴者250のプロファイルのステータス、として、背景コンテキスト副層454に入力される(605)。環境モジュール140の出力が、環境プロファイルにおける環境パラメータのステータスを表す活性値410のパターンとして、環境副層456に入力される(605)。
ステップ610では、副層484の出力が、環境コントローラ170に提供される。環境コントローラ170の出力は、I/Oコントローラおよびバス115を介して環境出力114を制御し、環境を変更する(620)。
ステップ610において、副層482の出力は、選択モジュール150および順序付けモジュール165に提供される。選択モジュール150は、副層482内の活性値のパターンから、いずれのストーリーライン283を再生すべきとして選択されているかを決定する。順序付けモジュール165は、選択されたストーリーラインを再生するための順序付けを決定する。
一実施形態のステップ630では、選択モジュール150は、利用可能なストーリーラインのリストを調べる。ストーリーラインが選択されない場合、副層482の活性値のパターンによって指定された全てのストーリーラインに当たり、選択するまで、リストの調べを継続する。代替実施形態においては、副層482の活性値のパターンは、どのストーリーラインが選択されるかを直接識別する。
順序付けモジュール165は、副層482の活性値のパターンから、選択されたストーリーが再生されるシーケンスを決定する。副層482の活性値のパターンは、また、選択されたストーリーラインが開始および終了する分岐点を決定する。ステップ640は、ストーリーを再生することまたはストーリーが再生されるシーケンスをモニタする。ステップ640において、順序付けモジュール165は、分岐点に到達したかどうかを判定し、順序付けモジュール165が、この分岐点において、選択されたストーリーラインの1つを変更(例えば、追加、削除、挿入)する必要があるかどうかを判定する。そうでなければ、順序付けモジュール165は、次の分岐点に到達するまで待機し、再び判定が行われる。
選択されたストーリーラインからのストーリーラインが分岐点で再生される必要がある場合には、ステップ650においてストーリーラインが変化する。新しいストーリーラインが再生され、(例えば、副層482の活性値のパターンによって示されるように)適切な分岐点で終了し、シーケンスにおけるこの時点では、オリジナルのストーリーラインが再生されない。
本開示の種々の実施形態の説明が、説明のために提示されたが、しかしながら、網羅的であること、または、開示される実施形態に限定されることを意図するものではない。説明される実施形態の範囲および精神を逸脱することなく、多くの変更および変形が当業者にとって明らかであろう。本明細書で使用される用語は、実施形態の原理、実際の応用または市場で発見される技術に対する技術的改善を最もよく説明するために、あるいは、他の当業者が、本明細書で開示される実施形態を理解できるように選ばれたものである。
種々の実施形態が、以下の番号付き条項において特定される:
(付記1)
メディア・ストリームを適合させるための制御システムであって、
入力層、1以上の隠れ層および出力層を有するニューラル・ネットワークであって、前記入力層は、状況コンテキスト入力副層および環境入力副層を有し、前記出力層は、選択または順序付け出力副層および環境出力副層を有し、前記層の各々は、複数のニューロンを有し、前記複数のニューロンの各々は、活性値を有する、前記ニューラル・ネットワークと、
それぞれ、視聴者をモニタする1以上のセンサからの1以上のコンテキスト入力と、前記状況コンテキスト入力副層に接続された1以上のセンチメント出力とを有する1以上の状況コンテキスト・モジュールと、
1以上の環境センサ入力と、前記環境入力副層に接続された環境出力とを有する1以上の環境情報モジュールと、
前記選択または順序付け出力副層に接続された1以上の選択モジュールと、
前記選択または順序付け出力副層に接続された1以上の順序付けモジュールと
を含み、前記選択モジュールは、1以上の選択されたストーリーラインを選択するために動作可能であり、前記順序付けモジュールは、選択された前記ストーリーラインを、再生されるストーリーに順序付けするために動作可能である、制御システム。
(付記2)
前記コンテキスト入力は、顔画像、赤外線画像、音声入力、音声ボリューム・レベル検出器、テキスト、話し言葉、携帯電話入力、心拍、血圧および呼吸数のうちの1以上を含む、付記1に記載の制御システム。
(付記3)
前記状況コンテキスト・モジュールは、
顔認識、位置認識、自然言語処理(NLP)、キーフレーズの認識および音声認識
の機能のうちの1以上を実行するように動作可能である、付記1または2に記載の制御システム。
(付記4)
前記センチメント出力は、
気持ち、感情、笑い、悲しみ、期待、恐れ、興奮、環境に対する反応、1以上のストーリーラインに対する反応
のうちの1以上の視聴者センチメントを表す、付記1~3のいずれかに記載の制御システム。
(付記5)
前記環境センサ入力は、
オーディオ・キャプチャ・デバイス、マイクロフォン、ビデオ・キャプチャ・デバイス、カメラ、赤外線カメラ、ネットワーク接続、気象入力、位置センサ、携帯電話、温度計、湿度検出器、気流検出器、光強度検出器、光検出器およびモーション・センサ
のうちの1以上を含む、付記1~4のいずれかに記載の制御システム。
(付記6)
前記環境出力は、ボリューム・コントロール、照明コントロール、温度コントロール、湿度コントロール、加熱システム・コントロール、冷却システム・コントロールおよび気流コントロールのうちの1以上を含む、付記1~5のいずれかに記載の制御システム。
(付記7)
前記選択モジュールは、前記ニューラル・ネットワークにより処理された、前記センチメント出力の動的パターンおよび前記環境出力の動的パターンに基づいて、選択された前記ストーリーラインの1以上を選択するために動作可能である、付記1~6のいずれかに記載の制御システム。
(付記8)
前記順序付けモジュールは、前記ニューラル・ネットワークにより処理された、前記センチメント出力の動的パターンおよび前記環境出力の動的パターンに基づいて、選択された前記ストーリーラインの1以上を順序付けするために動作可能である、付記1~7のいずれかに記載の制御システム。
(付記9)
前記ニューラル・ネットワークは、畳み込みニューラル・ネットワーク(CNN)である、付記1~8のいずれかに記載の制御システム。
(付記10)
選択された前記ストーリーラインの1以上は、分岐点で始まり、分岐点で終わる、付記1~9のいずれかに記載の制御システム。
(付記11)
前記ニューラル・ネットワークは、さらに、背景コンテキスト入力副層を含む、付記1~10のいずれかに記載の制御システム。
(付記12)
前記背景コンテキスト入力副層の1以上のニューロンの活性値は、
視聴者層、年齢、教育水準、社会経済的状態、収入水準、社会的および政治的な観点、ユーザ・プロファイル、好き、嫌い、時刻、視聴者のユーザ数、天候、視聴者の位置
のうちの1以上の表現を含む、付記11に記載の制御システム。
(付記13)
1以上のユーザの背景コンテキスト情報が
ソーシャル・メディアの投稿、ソーシャル・メディアの使用量、携帯電話の使用量、視聴者調査、検索履歴、カレンダー、システム時計、画像分析および位置情報のソースのうち
の1以上のソースから生まれている、付記11または12に記載の制御システム。
(付記14)
前記選択モジュールは、選択された前記ストーリーラインの1以上を選択するために動作可能であり、前記順序付けモジュールは、前記ニューラル・ネットワークにより処理された、センチメント出力の動的パターン、背景コンテキストおよび環境出力に基づいて、選択された前記ストーリーラインの1以上を順序付けする、付記11~13のいずれかに記載の制御システム。
(付記15)
ニューラル・ネットワークを訓練する方法であって、
複数のセンチメント活性値およびセンチメント・ニューロンについて、それぞれ、状況コンテキスト入力副層におけるセンチメント・ニューロンにセンチメント活性値を入力するステップであって、前記状況コンテキスト入力副層は、前記ニューラル・ネットワークの入力層の一部であり、前記センチメント活性値は、センチメント入力パターンを形成する、入力するステップと、
複数の環境活性値および環境ニューロンについて、それぞれ、環境入力副層における環境ニューロンに環境活性値を入力するステップであって、前記環境入力副層は、前記ニューラル・ネットワークの前記入力層の一部であり、前記環境活性値は、環境入力パターンを形成する、入力するステップと、
前記センチメント入力パターンおよび前記環境入力パターンを、前記ニューラル・ネットワークを通して伝播させるステップと、
前記ニューラル・ネットワークの出力層に適用される損失関数を最小化することによって、1以上の重みおよび1以上のバイアスをどれだけ変化するかを決定するステップであって、前記出力層は、それぞれ出力活性値を有する、選択または順序付け出力副層および環境出力副層を有する、決定するステップと、
前記重みおよび前記バイアスを変化させるために後方伝搬するステップと、
前記出力活性値が所望の結果に達するまで前2ステップを繰り返し、訓練を終了させるステップと
を含む、方法。
(付記16)
前記方法は、前記訓練が終了した後、
1以上の選択されたストーリーラインを選択するステップと、
初期ストーリー内で選択された前記ストーリーラインを挿入するステップであって、選択された前記ストーリーラインの開始点は、前記初期ストーリーの開始分岐点で開始され、選択された前記ストーリーラインの終了点は、前記初期ストーリーの終了分岐点で終了される、挿入するステップと、
を含む、付記15に記載の方法。
(付記17)
前記環境出力層は、選択された前記ストーリーラインに関連付けられた1以上の環境出力を制御する出力活性値の動的パターンを有する、付記16に記載の方法。
(付記18)
選択された前記ストーリーラインを選択するステップおよび選択された前記ストーリーラインを順序付けするステップは、動的センチメント入力パターンによって決定される、付記16または17に記載の方法。
(付記19)
付記1~14のいずれかに記載の制御システムを制御するための制御実装方法であって、前記方法は、
視聴者と、状況コンテキスト入力副層に接続された1以上のセンチメント出力とをモニタするステップと、
1以上の選択されたストーリーラインを選択するステップと、
選択された前記ストーリーラインを、再生されるストーリーに順序付けするステップと
を含む、方法。
(付記20)
システムを管理するためのコンピュータ・プログラム製品であって、
処理回路によって可読であり、かつ、前記処理回路によって、付記15~19のいずれかに記載の方法を実行するための実行命令を格納するコンピュータ可読ストレージ媒体
を含む、コンピュータ・プログラム製品。
(付記21)
コンピュータ可読媒体に格納され、デジタル・コンピュータの内部メモリに読み込み可能なコンピュータ・プログラムであって、前記プログラムがコンピュータ上で実行された場合、付記15~19のいずれかに記載の方法を実行するための前記ソフトウェア・コード部分を含む、プログラム。
本開示の種々の実施形態の説明が、説明のために提示されたが、しかしながら、網羅的であること、または、開示される実施形態に限定されることを意図するものではない。説明される実施形態の範囲および精神を逸脱することなく、多くの変更および変形が当業者にとって明らかであろう。本明細書で使用される用語は、実施形態の原理、実際の応用または市場で発見される技術に対する技術的改善を最もよく説明するために、あるいは、他の当業者が、本明細書で開示される実施形態を理解できるように選ばれたものである。

Claims (21)

  1. メディア・ストリームを適合させるための制御システムであって、
    入力層、1以上の隠れ層および出力層を有するニューラル・ネットワークであって、前記入力層は、状況コンテキスト入力副層および環境入力副層を有し、前記出力層は、選択または順序付け出力副層および環境出力副層を有し、前記層の各々は、複数のニューロンを有し、前記複数のニューロンの各々は、活性値を有する、前記ニューラル・ネットワークと、
    それぞれ、視聴者をモニタする1以上のセンサからの1以上のコンテキスト入力と、前記状況コンテキスト入力副層に接続された1以上のセンチメント出力とを有する1以上の状況コンテキスト・モジュールと、
    1以上の環境センサ入力と、前記環境入力副層に接続された環境出力とを有する1以上の環境情報モジュールと、
    前記選択または順序付け出力副層に接続された1以上の選択モジュールと、
    前記選択または順序付け出力副層に接続された1以上の順序付けモジュールと
    を含み、前記選択モジュールは、1以上の選択されたストーリーラインを選択するために動作可能であり、前記順序付けモジュールは、選択された前記ストーリーラインを、再生されるストーリーに順序付けするために動作可能である、制御システム。
  2. 前記コンテキスト入力は、顔画像、赤外線画像、音声入力、音声ボリューム・レベル検出器、テキスト、話し言葉、携帯電話入力、心拍、血圧および呼吸数のうちの1以上を含む、請求項1に記載の制御システム。
  3. 前記状況コンテキスト・モジュールは、
    顔認識、位置認識、自然言語処理(NLP)、キーフレーズの認識および音声認識
    の機能のうちの1以上を実行するように動作可能である、請求項1または2に記載の制御システム。
  4. 前記センチメント出力は、
    気持ち、感情、笑い、悲しみ、期待、恐れ、興奮、環境に対する反応、1以上のストーリーラインに対する反応
    のうちの1以上の視聴者センチメントを表す、請求項1~3のいずれか1項に記載の制御システム。
  5. 前記環境センサ入力は、
    オーディオ・キャプチャ・デバイス、マイクロフォン、ビデオ・キャプチャ・デバイス、カメラ、赤外線カメラ、ネットワーク接続、気象入力、位置センサ、携帯電話、温度計、湿度検出器、気流検出器、光強度検出器、光検出器およびモーション・センサ
    のうちの1以上を含む、請求項1~4のいずれか1項に記載の制御システム。
  6. 前記環境出力は、ボリューム・コントロール、照明コントロール、温度コントロール、湿度コントロール、加熱システム・コントロール、冷却システム・コントロールおよび気流コントロールのうちの1以上を含む、請求項1~5のいずれか1項に記載の制御システム。
  7. 前記選択モジュールは、前記ニューラル・ネットワークにより処理された、前記センチメント出力の動的パターンおよび前記環境出力の動的パターンに基づいて、選択された前記ストーリーラインの1以上を選択するために動作可能である、請求項1~6のいずれか1項に記載の制御システム。
  8. 前記順序付けモジュールは、前記ニューラル・ネットワークにより処理された、前記センチメント出力の動的パターンおよび前記環境出力の動的パターンに基づいて、選択された前記ストーリーラインの1以上を順序付けするために動作可能である、請求項1~7のいずれか1項に記載の制御システム。
  9. 前記ニューラル・ネットワークは、畳み込みニューラル・ネットワーク(CNN)である、請求項1~8のいずれか1項に記載の制御システム。
  10. 選択された前記ストーリーラインの1以上は、分岐点で始まり、分岐点で終わる、請求項1~9のいずれか1項に記載の制御システム。
  11. 前記ニューラル・ネットワークは、さらに、背景コンテキスト入力副層を含む、請求項1~10のいずれか1項に記載の制御システム。
  12. 前記背景コンテキスト入力副層の1以上のニューロンの活性値は、
    視聴者層、年齢、教育水準、社会経済的ステータス、収入水準、社会的および政治的な観点、ユーザ・プロファイル、好き、嫌い、時刻、視聴者のユーザ数、天候、視聴者の位置
    のうちの1以上の表現を含む、請求項11に記載の制御システム。
  13. 1以上のユーザの背景コンテキスト情報が
    ソーシャル・メディアの投稿、ソーシャル・メディアの使用量、携帯電話の使用量、視聴者調査、検索履歴、カレンダー、システム時計、画像分析および位置情報のソースのうち
    の1以上のソースから生まれている、請求項11または12に記載の制御システム。
  14. 前記選択モジュールは、選択された前記ストーリーラインの1以上を選択するために動作可能であり、前記順序付けモジュールは、前記ニューラル・ネットワークにより処理された、センチメント出力の動的パターン、背景コンテキストおよび環境出力に基づいて、選択された前記ストーリーラインの1以上を順序付けする、請求項11~13のいずれか1項に記載の制御システム。
  15. ニューラル・ネットワークを訓練する方法であって、
    複数のセンチメント活性値およびセンチメント・ニューロンについて、それぞれ、状況コンテキスト入力副層におけるセンチメント・ニューロンにセンチメント活性値を入力するステップであって、前記状況コンテキスト入力副層は、前記ニューラル・ネットワークの入力層の一部であり、前記センチメント活性値は、センチメント入力パターンを形成する、入力するステップと、
    複数の環境活性値および環境ニューロンについて、それぞれ、環境入力副層における環境ニューロンに環境活性値を入力するステップであって、前記環境入力副層は、前記ニューラル・ネットワークの前記入力層の一部であり、前記環境活性値は、環境入力パターンを形成する、入力するステップと、
    前記センチメント入力パターンおよび前記環境入力パターンを、前記ニューラル・ネットワークを通して伝播させるステップと、
    前記ニューラル・ネットワークの出力層に適用される損失関数を最小化することによって、1以上の重みおよび1以上のバイアスをどれだけ変化するかを決定するステップであって、前記出力層は、それぞれ出力活性値を有する、選択または順序付け出力副層および環境出力副層を有する、決定するステップと、
    前記重みおよび前記バイアスを変化させるために後方伝搬するステップと、
    前記出力活性値が所望の結果に達するまで前2ステップを繰り返し、訓練を終了させるステップと
    を含む、方法。
  16. 前記方法は、前記訓練が終了した後、
    1以上の選択されたストーリーラインを選択するステップと、
    初期ストーリー内で選択された前記ストーリーラインを挿入するステップであって、選択された前記ストーリーラインの開始点は、前記初期ストーリーの開始分岐点で開始され、選択された前記ストーリーラインの終了点は、前記初期ストーリーの終了分岐点で終了される、挿入するステップと、
    を含む、請求項15に記載の方法。
  17. 前記環境出力層は、選択された前記ストーリーラインに関連付けられた1以上の環境出力を制御する出力活性値の動的パターンを有する、請求項16に記載の方法。
  18. 選択された前記ストーリーラインを選択するステップおよび選択された前記ストーリーラインを順序付けするステップは、動的センチメント入力パターンによって決定される、請求項16または17に記載の方法。
  19. 請求項1~14のいずれか1項に記載の制御システムを制御するための制御実装方法であって、前記方法は、
    視聴者と、状況コンテキスト入力副層に接続された1以上のセンチメント出力とをモニタするステップと、
    1以上の選択されたストーリーラインを選択するステップと、
    選択された前記ストーリーラインを、再生されるストーリーに順序付けするステップと
    を含む、方法。
  20. システムを管理するためのコンピュータ・プログラム製品であって、
    処理回路によって可読であり、かつ、前記処理回路によって、請求項15~19のいずれか1項に記載の方法を実行するための実行命令を格納するコンピュータ可読ストレージ媒体
    を含む、コンピュータ・プログラム製品。
  21. コンピュータ可読媒体に格納され、デジタル・コンピュータの内部メモリに読み込み可能なコンピュータ・プログラムであって、前記プログラムがコンピュータ上で実行された場合、請求項15~19のいずれか1項に記載の方法を実行するためのソフトウェア・コード部分を含む、プログラム。
JP2022502547A 2019-08-22 2020-08-14 動画ストーリーラインの適応 Pending JP2022546190A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/548,804 US11429839B2 (en) 2019-08-22 2019-08-22 Adapting movie storylines
US16/548,804 2019-08-22
PCT/IB2020/057670 WO2021033104A1 (en) 2019-08-22 2020-08-14 Adapting movie storylines

Publications (1)

Publication Number Publication Date
JP2022546190A true JP2022546190A (ja) 2022-11-04

Family

ID=74646326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022502547A Pending JP2022546190A (ja) 2019-08-22 2020-08-14 動画ストーリーラインの適応

Country Status (6)

Country Link
US (1) US11429839B2 (ja)
JP (1) JP2022546190A (ja)
CN (1) CN114303159A (ja)
DE (1) DE112020002997T5 (ja)
GB (1) GB2602904B (ja)
WO (1) WO2021033104A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019067783A1 (en) 2017-09-29 2019-04-04 Chappell Arvel A PRODUCTION AND CONTROL OF KINEMATIC CONTENT IN RESPONSE TO AN EMOTIONAL USER STATUS
US11037351B2 (en) * 2017-12-22 2021-06-15 Bram Hall System and method for directed storyline customization
CN115081402B (zh) * 2022-07-13 2023-05-09 平安科技(深圳)有限公司 基于溯因推理的故事情节拓展方法、装置、设备及介质

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4305131A (en) 1979-02-05 1981-12-08 Best Robert M Dialog between TV movies and human viewers
US4591248A (en) 1982-04-23 1986-05-27 Freeman Michael J Dynamic audience responsive movie system
JPS6361830A (ja) 1986-09-02 1988-03-18 Kanji Murakami 環境制御装置
JP4432246B2 (ja) 2000-09-29 2010-03-17 ソニー株式会社 観客状況判定装置、再生出力制御システム、観客状況判定方法、再生出力制御方法、記録媒体
EP1582965A1 (en) 2004-04-01 2005-10-05 Sony Deutschland Gmbh Emotion controlled system for processing multimedia data
US9839856B2 (en) 2008-03-11 2017-12-12 Disney Enterprises, Inc. Method and system for providing interactivity based on sensor measurements
US8046691B2 (en) 2008-12-31 2011-10-25 Microsoft Corporation Generalized interactive narratives
US8515737B2 (en) 2010-04-06 2013-08-20 Automated Insights, Inc. Systems for dynamically generating and presenting narrative content
US8775161B1 (en) 2011-01-07 2014-07-08 Narrative Science Inc. Method and apparatus for triggering the automatic generation of narratives
EP2750759B1 (en) 2011-08-29 2016-12-21 Cardiac Pacemakers, Inc. Algorithm for narrative generation
US9503772B2 (en) 2012-03-27 2016-11-22 Myndplay Ltd. Control mechanisms
US20130262092A1 (en) 2012-04-02 2013-10-03 Fantasy Journalist, Inc. Narrative Generator
CN103903003A (zh) 2012-12-28 2014-07-02 重庆凯泽科技有限公司 一种采用Widrow-Hoff学习算法的方法
KR101355340B1 (ko) 2013-07-19 2014-01-24 주식회사 헬로우펀치 생체정보 인식형 인형 완구
US10768704B2 (en) 2015-03-17 2020-09-08 Whirlwind VR, Inc. System and method for modulating a peripheral device based on an unscripted feed using computer vision
US9697867B2 (en) 2015-09-25 2017-07-04 Intel Corporation Interactive adaptive narrative presentation
US10692533B2 (en) 2015-10-07 2020-06-23 Google Llc Storyline experience
US20170252648A1 (en) 2016-03-07 2017-09-07 Tapas Media, Inc. Streaming narrative episodes with micronarratives to a networked device
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US10171858B2 (en) * 2017-03-02 2019-01-01 Adobe Systems Incorporated Utilizing biometric data to enhance virtual reality content and user response
CN116389554A (zh) 2017-03-08 2023-07-04 理查德.A.罗思柴尔德 用于提高用户在体育活动中的表现的系统及其方法
US10572773B2 (en) * 2017-05-05 2020-02-25 Intel Corporation On the fly deep learning in machine learning for autonomous machines
US10348658B2 (en) 2017-06-15 2019-07-09 Google Llc Suggested items for use with embedded applications in chat conversations
US11176484B1 (en) * 2017-09-05 2021-11-16 Amazon Technologies, Inc. Artificial intelligence system for modeling emotions elicited by videos
WO2019067783A1 (en) * 2017-09-29 2019-04-04 Chappell Arvel A PRODUCTION AND CONTROL OF KINEMATIC CONTENT IN RESPONSE TO AN EMOTIONAL USER STATUS
WO2019076845A1 (en) 2017-10-16 2019-04-25 Lego A/S INTERACTIVE GAMING APPARATUS
US10861439B2 (en) * 2018-10-22 2020-12-08 Ca, Inc. Machine learning model for identifying offensive, computer-generated natural-language text or speech
US20210350346A1 (en) * 2020-05-06 2021-11-11 Capital One Services, Llc System and method for using passive multifactor authentication to provide access to secure services
US11341689B1 (en) * 2020-11-05 2022-05-24 International Business Machines Corporation Dynamic virtual audience generation

Also Published As

Publication number Publication date
US11429839B2 (en) 2022-08-30
US20210056407A1 (en) 2021-02-25
GB2602904A (en) 2022-07-20
DE112020002997T5 (de) 2022-03-31
CN114303159A (zh) 2022-04-08
WO2021033104A1 (en) 2021-02-25
GB2602904B (en) 2024-03-13
GB202203703D0 (en) 2022-05-04

Similar Documents

Publication Publication Date Title
Sirkkunen et al. Journalism in virtual reality: Opportunities and future research challenges
TWI778477B (zh) 互動方法、裝置、電子設備以及儲存媒體
US11792485B2 (en) Systems and methods for annotating video media with shared, time-synchronized, personal reactions
JP2022546190A (ja) 動画ストーリーラインの適応
US11375256B1 (en) Artificial intelligence system for modeling emotions elicited by videos
JP7254772B2 (ja) ロボットインタラクションのための方法及びデバイス
WO2019231559A1 (en) Interactive video content delivery
US11176484B1 (en) Artificial intelligence system for modeling emotions elicited by videos
CN114746159B (zh) 人工智能(ai)控制的相机视角生成器和ai广播员
JP2022534708A (ja) 動的に反応する仮想キャラクターのためのマルチモーダルモデル
EP3899857A1 (en) Real-time route configuring of entertainment content
EP4173299A1 (en) Techniques for providing interactive interfaces for live streaming events
AU2015334593A1 (en) System and method for real-time customization and synchoronization of media content
CN114746158A (zh) 人工智能(ai)控制的相机视角生成器和ai广播员
King Articulating digital stardom1
US10268969B2 (en) Artificial intelligence controlled entertainment performance
CN117377519A (zh) 通过分布式输入的情绪分析来模拟现场赛事的人群噪声
US20160357498A1 (en) Gamified Adaptive Digital Disc Jockey
JP6367748B2 (ja) 認識装置、映像コンテンツ提示システム
CN106113057A (zh) 基于机器人的音视频宣传方法和系统
US20210256565A1 (en) Dynamic media content for in-store screen experiences
US20220337886A1 (en) Virtual Spectator Experience for Live Events
Varanda Soi Moi: The Techno-Soma-Aesthetics of a Dance for the iPhone
KR20210053739A (ko) 게임 플레이 콘텐츠 제작 장치
JP2023501866A (ja) 成人向けライトフィールドディスプレイシステム発明者:ジョナサン・シャン・カラフィンブレンダン・エルウッド・ベベンシージョン・ドーム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220302

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220518

RD16 Notification of change of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7436

Effective date: 20220331

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240220