JP2022546190A - 動画ストーリーラインの適応 - Google Patents
動画ストーリーラインの適応 Download PDFInfo
- Publication number
- JP2022546190A JP2022546190A JP2022502547A JP2022502547A JP2022546190A JP 2022546190 A JP2022546190 A JP 2022546190A JP 2022502547 A JP2022502547 A JP 2022502547A JP 2022502547 A JP2022502547 A JP 2022502547A JP 2022546190 A JP2022546190 A JP 2022546190A
- Authority
- JP
- Japan
- Prior art keywords
- output
- input
- sublayer
- environmental
- storylines
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000007613 environmental effect Effects 0.000 claims abstract description 80
- 230000004913 activation Effects 0.000 claims abstract description 65
- 210000002569 neuron Anatomy 0.000 claims abstract description 58
- 238000013528 artificial neural network Methods 0.000 claims abstract description 50
- 238000000034 method Methods 0.000 claims description 41
- 230000008859 change Effects 0.000 claims description 22
- 238000006243 chemical reaction Methods 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 12
- 238000013527 convolutional neural network Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 10
- 230000015654 memory Effects 0.000 claims description 8
- 238000003058 natural language processing Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 8
- 230000001815 facial effect Effects 0.000 claims description 7
- 230000008451 emotion Effects 0.000 claims description 6
- 238000012544 monitoring process Methods 0.000 claims description 6
- 230000001902 propagating effect Effects 0.000 claims description 6
- 210000004027 cell Anatomy 0.000 claims description 5
- 230000036772 blood pressure Effects 0.000 claims description 3
- 230000029058 respiratory gaseous exchange Effects 0.000 claims description 3
- 238000001816 cooling Methods 0.000 claims description 2
- 238000010438 heat treatment Methods 0.000 claims description 2
- 238000011160 research Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 description 20
- 230000008569 process Effects 0.000 description 9
- 238000012163 sequencing technique Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000035943 smell Effects 0.000 description 3
- 230000002996 emotional effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 206010011469 Crying Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 230000000366 juvenile effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
- G06F16/735—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8541—Content authoring involving branching, e.g. to different story endings
Abstract
Description
(付記1)
メディア・ストリームを適合させるための制御システムであって、
入力層、1以上の隠れ層および出力層を有するニューラル・ネットワークであって、前記入力層は、状況コンテキスト入力副層および環境入力副層を有し、前記出力層は、選択または順序付け出力副層および環境出力副層を有し、前記層の各々は、複数のニューロンを有し、前記複数のニューロンの各々は、活性値を有する、前記ニューラル・ネットワークと、
それぞれ、視聴者をモニタする1以上のセンサからの1以上のコンテキスト入力と、前記状況コンテキスト入力副層に接続された1以上のセンチメント出力とを有する1以上の状況コンテキスト・モジュールと、
1以上の環境センサ入力と、前記環境入力副層に接続された環境出力とを有する1以上の環境情報モジュールと、
前記選択または順序付け出力副層に接続された1以上の選択モジュールと、
前記選択または順序付け出力副層に接続された1以上の順序付けモジュールと
を含み、前記選択モジュールは、1以上の選択されたストーリーラインを選択するために動作可能であり、前記順序付けモジュールは、選択された前記ストーリーラインを、再生されるストーリーに順序付けするために動作可能である、制御システム。
(付記2)
前記コンテキスト入力は、顔画像、赤外線画像、音声入力、音声ボリューム・レベル検出器、テキスト、話し言葉、携帯電話入力、心拍、血圧および呼吸数のうちの1以上を含む、付記1に記載の制御システム。
(付記3)
前記状況コンテキスト・モジュールは、
顔認識、位置認識、自然言語処理(NLP)、キーフレーズの認識および音声認識
の機能のうちの1以上を実行するように動作可能である、付記1または2に記載の制御システム。
(付記4)
前記センチメント出力は、
気持ち、感情、笑い、悲しみ、期待、恐れ、興奮、環境に対する反応、1以上のストーリーラインに対する反応
のうちの1以上の視聴者センチメントを表す、付記1~3のいずれかに記載の制御システム。
(付記5)
前記環境センサ入力は、
オーディオ・キャプチャ・デバイス、マイクロフォン、ビデオ・キャプチャ・デバイス、カメラ、赤外線カメラ、ネットワーク接続、気象入力、位置センサ、携帯電話、温度計、湿度検出器、気流検出器、光強度検出器、光検出器およびモーション・センサ
のうちの1以上を含む、付記1~4のいずれかに記載の制御システム。
(付記6)
前記環境出力は、ボリューム・コントロール、照明コントロール、温度コントロール、湿度コントロール、加熱システム・コントロール、冷却システム・コントロールおよび気流コントロールのうちの1以上を含む、付記1~5のいずれかに記載の制御システム。
(付記7)
前記選択モジュールは、前記ニューラル・ネットワークにより処理された、前記センチメント出力の動的パターンおよび前記環境出力の動的パターンに基づいて、選択された前記ストーリーラインの1以上を選択するために動作可能である、付記1~6のいずれかに記載の制御システム。
(付記8)
前記順序付けモジュールは、前記ニューラル・ネットワークにより処理された、前記センチメント出力の動的パターンおよび前記環境出力の動的パターンに基づいて、選択された前記ストーリーラインの1以上を順序付けするために動作可能である、付記1~7のいずれかに記載の制御システム。
(付記9)
前記ニューラル・ネットワークは、畳み込みニューラル・ネットワーク(CNN)である、付記1~8のいずれかに記載の制御システム。
(付記10)
選択された前記ストーリーラインの1以上は、分岐点で始まり、分岐点で終わる、付記1~9のいずれかに記載の制御システム。
(付記11)
前記ニューラル・ネットワークは、さらに、背景コンテキスト入力副層を含む、付記1~10のいずれかに記載の制御システム。
(付記12)
前記背景コンテキスト入力副層の1以上のニューロンの活性値は、
視聴者層、年齢、教育水準、社会経済的状態、収入水準、社会的および政治的な観点、ユーザ・プロファイル、好き、嫌い、時刻、視聴者のユーザ数、天候、視聴者の位置
のうちの1以上の表現を含む、付記11に記載の制御システム。
(付記13)
1以上のユーザの背景コンテキスト情報が
ソーシャル・メディアの投稿、ソーシャル・メディアの使用量、携帯電話の使用量、視聴者調査、検索履歴、カレンダー、システム時計、画像分析および位置情報のソースのうち
の1以上のソースから生まれている、付記11または12に記載の制御システム。
(付記14)
前記選択モジュールは、選択された前記ストーリーラインの1以上を選択するために動作可能であり、前記順序付けモジュールは、前記ニューラル・ネットワークにより処理された、センチメント出力の動的パターン、背景コンテキストおよび環境出力に基づいて、選択された前記ストーリーラインの1以上を順序付けする、付記11~13のいずれかに記載の制御システム。
(付記15)
ニューラル・ネットワークを訓練する方法であって、
複数のセンチメント活性値およびセンチメント・ニューロンについて、それぞれ、状況コンテキスト入力副層におけるセンチメント・ニューロンにセンチメント活性値を入力するステップであって、前記状況コンテキスト入力副層は、前記ニューラル・ネットワークの入力層の一部であり、前記センチメント活性値は、センチメント入力パターンを形成する、入力するステップと、
複数の環境活性値および環境ニューロンについて、それぞれ、環境入力副層における環境ニューロンに環境活性値を入力するステップであって、前記環境入力副層は、前記ニューラル・ネットワークの前記入力層の一部であり、前記環境活性値は、環境入力パターンを形成する、入力するステップと、
前記センチメント入力パターンおよび前記環境入力パターンを、前記ニューラル・ネットワークを通して伝播させるステップと、
前記ニューラル・ネットワークの出力層に適用される損失関数を最小化することによって、1以上の重みおよび1以上のバイアスをどれだけ変化するかを決定するステップであって、前記出力層は、それぞれ出力活性値を有する、選択または順序付け出力副層および環境出力副層を有する、決定するステップと、
前記重みおよび前記バイアスを変化させるために後方伝搬するステップと、
前記出力活性値が所望の結果に達するまで前2ステップを繰り返し、訓練を終了させるステップと
を含む、方法。
(付記16)
前記方法は、前記訓練が終了した後、
1以上の選択されたストーリーラインを選択するステップと、
初期ストーリー内で選択された前記ストーリーラインを挿入するステップであって、選択された前記ストーリーラインの開始点は、前記初期ストーリーの開始分岐点で開始され、選択された前記ストーリーラインの終了点は、前記初期ストーリーの終了分岐点で終了される、挿入するステップと、
を含む、付記15に記載の方法。
(付記17)
前記環境出力層は、選択された前記ストーリーラインに関連付けられた1以上の環境出力を制御する出力活性値の動的パターンを有する、付記16に記載の方法。
(付記18)
選択された前記ストーリーラインを選択するステップおよび選択された前記ストーリーラインを順序付けするステップは、動的センチメント入力パターンによって決定される、付記16または17に記載の方法。
(付記19)
付記1~14のいずれかに記載の制御システムを制御するための制御実装方法であって、前記方法は、
視聴者と、状況コンテキスト入力副層に接続された1以上のセンチメント出力とをモニタするステップと、
1以上の選択されたストーリーラインを選択するステップと、
選択された前記ストーリーラインを、再生されるストーリーに順序付けするステップと
を含む、方法。
(付記20)
システムを管理するためのコンピュータ・プログラム製品であって、
処理回路によって可読であり、かつ、前記処理回路によって、付記15~19のいずれかに記載の方法を実行するための実行命令を格納するコンピュータ可読ストレージ媒体
を含む、コンピュータ・プログラム製品。
(付記21)
コンピュータ可読媒体に格納され、デジタル・コンピュータの内部メモリに読み込み可能なコンピュータ・プログラムであって、前記プログラムがコンピュータ上で実行された場合、付記15~19のいずれかに記載の方法を実行するための前記ソフトウェア・コード部分を含む、プログラム。
本開示の種々の実施形態の説明が、説明のために提示されたが、しかしながら、網羅的であること、または、開示される実施形態に限定されることを意図するものではない。説明される実施形態の範囲および精神を逸脱することなく、多くの変更および変形が当業者にとって明らかであろう。本明細書で使用される用語は、実施形態の原理、実際の応用または市場で発見される技術に対する技術的改善を最もよく説明するために、あるいは、他の当業者が、本明細書で開示される実施形態を理解できるように選ばれたものである。
Claims (21)
- メディア・ストリームを適合させるための制御システムであって、
入力層、1以上の隠れ層および出力層を有するニューラル・ネットワークであって、前記入力層は、状況コンテキスト入力副層および環境入力副層を有し、前記出力層は、選択または順序付け出力副層および環境出力副層を有し、前記層の各々は、複数のニューロンを有し、前記複数のニューロンの各々は、活性値を有する、前記ニューラル・ネットワークと、
それぞれ、視聴者をモニタする1以上のセンサからの1以上のコンテキスト入力と、前記状況コンテキスト入力副層に接続された1以上のセンチメント出力とを有する1以上の状況コンテキスト・モジュールと、
1以上の環境センサ入力と、前記環境入力副層に接続された環境出力とを有する1以上の環境情報モジュールと、
前記選択または順序付け出力副層に接続された1以上の選択モジュールと、
前記選択または順序付け出力副層に接続された1以上の順序付けモジュールと
を含み、前記選択モジュールは、1以上の選択されたストーリーラインを選択するために動作可能であり、前記順序付けモジュールは、選択された前記ストーリーラインを、再生されるストーリーに順序付けするために動作可能である、制御システム。 - 前記コンテキスト入力は、顔画像、赤外線画像、音声入力、音声ボリューム・レベル検出器、テキスト、話し言葉、携帯電話入力、心拍、血圧および呼吸数のうちの1以上を含む、請求項1に記載の制御システム。
- 前記状況コンテキスト・モジュールは、
顔認識、位置認識、自然言語処理(NLP)、キーフレーズの認識および音声認識
の機能のうちの1以上を実行するように動作可能である、請求項1または2に記載の制御システム。 - 前記センチメント出力は、
気持ち、感情、笑い、悲しみ、期待、恐れ、興奮、環境に対する反応、1以上のストーリーラインに対する反応
のうちの1以上の視聴者センチメントを表す、請求項1~3のいずれか1項に記載の制御システム。 - 前記環境センサ入力は、
オーディオ・キャプチャ・デバイス、マイクロフォン、ビデオ・キャプチャ・デバイス、カメラ、赤外線カメラ、ネットワーク接続、気象入力、位置センサ、携帯電話、温度計、湿度検出器、気流検出器、光強度検出器、光検出器およびモーション・センサ
のうちの1以上を含む、請求項1~4のいずれか1項に記載の制御システム。 - 前記環境出力は、ボリューム・コントロール、照明コントロール、温度コントロール、湿度コントロール、加熱システム・コントロール、冷却システム・コントロールおよび気流コントロールのうちの1以上を含む、請求項1~5のいずれか1項に記載の制御システム。
- 前記選択モジュールは、前記ニューラル・ネットワークにより処理された、前記センチメント出力の動的パターンおよび前記環境出力の動的パターンに基づいて、選択された前記ストーリーラインの1以上を選択するために動作可能である、請求項1~6のいずれか1項に記載の制御システム。
- 前記順序付けモジュールは、前記ニューラル・ネットワークにより処理された、前記センチメント出力の動的パターンおよび前記環境出力の動的パターンに基づいて、選択された前記ストーリーラインの1以上を順序付けするために動作可能である、請求項1~7のいずれか1項に記載の制御システム。
- 前記ニューラル・ネットワークは、畳み込みニューラル・ネットワーク(CNN)である、請求項1~8のいずれか1項に記載の制御システム。
- 選択された前記ストーリーラインの1以上は、分岐点で始まり、分岐点で終わる、請求項1~9のいずれか1項に記載の制御システム。
- 前記ニューラル・ネットワークは、さらに、背景コンテキスト入力副層を含む、請求項1~10のいずれか1項に記載の制御システム。
- 前記背景コンテキスト入力副層の1以上のニューロンの活性値は、
視聴者層、年齢、教育水準、社会経済的ステータス、収入水準、社会的および政治的な観点、ユーザ・プロファイル、好き、嫌い、時刻、視聴者のユーザ数、天候、視聴者の位置
のうちの1以上の表現を含む、請求項11に記載の制御システム。 - 1以上のユーザの背景コンテキスト情報が
ソーシャル・メディアの投稿、ソーシャル・メディアの使用量、携帯電話の使用量、視聴者調査、検索履歴、カレンダー、システム時計、画像分析および位置情報のソースのうち
の1以上のソースから生まれている、請求項11または12に記載の制御システム。 - 前記選択モジュールは、選択された前記ストーリーラインの1以上を選択するために動作可能であり、前記順序付けモジュールは、前記ニューラル・ネットワークにより処理された、センチメント出力の動的パターン、背景コンテキストおよび環境出力に基づいて、選択された前記ストーリーラインの1以上を順序付けする、請求項11~13のいずれか1項に記載の制御システム。
- ニューラル・ネットワークを訓練する方法であって、
複数のセンチメント活性値およびセンチメント・ニューロンについて、それぞれ、状況コンテキスト入力副層におけるセンチメント・ニューロンにセンチメント活性値を入力するステップであって、前記状況コンテキスト入力副層は、前記ニューラル・ネットワークの入力層の一部であり、前記センチメント活性値は、センチメント入力パターンを形成する、入力するステップと、
複数の環境活性値および環境ニューロンについて、それぞれ、環境入力副層における環境ニューロンに環境活性値を入力するステップであって、前記環境入力副層は、前記ニューラル・ネットワークの前記入力層の一部であり、前記環境活性値は、環境入力パターンを形成する、入力するステップと、
前記センチメント入力パターンおよび前記環境入力パターンを、前記ニューラル・ネットワークを通して伝播させるステップと、
前記ニューラル・ネットワークの出力層に適用される損失関数を最小化することによって、1以上の重みおよび1以上のバイアスをどれだけ変化するかを決定するステップであって、前記出力層は、それぞれ出力活性値を有する、選択または順序付け出力副層および環境出力副層を有する、決定するステップと、
前記重みおよび前記バイアスを変化させるために後方伝搬するステップと、
前記出力活性値が所望の結果に達するまで前2ステップを繰り返し、訓練を終了させるステップと
を含む、方法。 - 前記方法は、前記訓練が終了した後、
1以上の選択されたストーリーラインを選択するステップと、
初期ストーリー内で選択された前記ストーリーラインを挿入するステップであって、選択された前記ストーリーラインの開始点は、前記初期ストーリーの開始分岐点で開始され、選択された前記ストーリーラインの終了点は、前記初期ストーリーの終了分岐点で終了される、挿入するステップと、
を含む、請求項15に記載の方法。 - 前記環境出力層は、選択された前記ストーリーラインに関連付けられた1以上の環境出力を制御する出力活性値の動的パターンを有する、請求項16に記載の方法。
- 選択された前記ストーリーラインを選択するステップおよび選択された前記ストーリーラインを順序付けするステップは、動的センチメント入力パターンによって決定される、請求項16または17に記載の方法。
- 請求項1~14のいずれか1項に記載の制御システムを制御するための制御実装方法であって、前記方法は、
視聴者と、状況コンテキスト入力副層に接続された1以上のセンチメント出力とをモニタするステップと、
1以上の選択されたストーリーラインを選択するステップと、
選択された前記ストーリーラインを、再生されるストーリーに順序付けするステップと
を含む、方法。 - システムを管理するためのコンピュータ・プログラム製品であって、
処理回路によって可読であり、かつ、前記処理回路によって、請求項15~19のいずれか1項に記載の方法を実行するための実行命令を格納するコンピュータ可読ストレージ媒体
を含む、コンピュータ・プログラム製品。 - コンピュータ可読媒体に格納され、デジタル・コンピュータの内部メモリに読み込み可能なコンピュータ・プログラムであって、前記プログラムがコンピュータ上で実行された場合、請求項15~19のいずれか1項に記載の方法を実行するためのソフトウェア・コード部分を含む、プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/548,804 US11429839B2 (en) | 2019-08-22 | 2019-08-22 | Adapting movie storylines |
US16/548,804 | 2019-08-22 | ||
PCT/IB2020/057670 WO2021033104A1 (en) | 2019-08-22 | 2020-08-14 | Adapting movie storylines |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022546190A true JP2022546190A (ja) | 2022-11-04 |
Family
ID=74646326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022502547A Pending JP2022546190A (ja) | 2019-08-22 | 2020-08-14 | 動画ストーリーラインの適応 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11429839B2 (ja) |
JP (1) | JP2022546190A (ja) |
CN (1) | CN114303159A (ja) |
DE (1) | DE112020002997T5 (ja) |
GB (1) | GB2602904B (ja) |
WO (1) | WO2021033104A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019067783A1 (en) | 2017-09-29 | 2019-04-04 | Chappell Arvel A | PRODUCTION AND CONTROL OF KINEMATIC CONTENT IN RESPONSE TO AN EMOTIONAL USER STATUS |
US11037351B2 (en) * | 2017-12-22 | 2021-06-15 | Bram Hall | System and method for directed storyline customization |
CN115081402B (zh) * | 2022-07-13 | 2023-05-09 | 平安科技(深圳)有限公司 | 基于溯因推理的故事情节拓展方法、装置、设备及介质 |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4305131A (en) | 1979-02-05 | 1981-12-08 | Best Robert M | Dialog between TV movies and human viewers |
US4591248A (en) | 1982-04-23 | 1986-05-27 | Freeman Michael J | Dynamic audience responsive movie system |
JPS6361830A (ja) | 1986-09-02 | 1988-03-18 | Kanji Murakami | 環境制御装置 |
JP4432246B2 (ja) | 2000-09-29 | 2010-03-17 | ソニー株式会社 | 観客状況判定装置、再生出力制御システム、観客状況判定方法、再生出力制御方法、記録媒体 |
EP1582965A1 (en) | 2004-04-01 | 2005-10-05 | Sony Deutschland Gmbh | Emotion controlled system for processing multimedia data |
US9839856B2 (en) | 2008-03-11 | 2017-12-12 | Disney Enterprises, Inc. | Method and system for providing interactivity based on sensor measurements |
US8046691B2 (en) | 2008-12-31 | 2011-10-25 | Microsoft Corporation | Generalized interactive narratives |
US8515737B2 (en) | 2010-04-06 | 2013-08-20 | Automated Insights, Inc. | Systems for dynamically generating and presenting narrative content |
US8775161B1 (en) | 2011-01-07 | 2014-07-08 | Narrative Science Inc. | Method and apparatus for triggering the automatic generation of narratives |
EP2750759B1 (en) | 2011-08-29 | 2016-12-21 | Cardiac Pacemakers, Inc. | Algorithm for narrative generation |
US9503772B2 (en) | 2012-03-27 | 2016-11-22 | Myndplay Ltd. | Control mechanisms |
US20130262092A1 (en) | 2012-04-02 | 2013-10-03 | Fantasy Journalist, Inc. | Narrative Generator |
CN103903003A (zh) | 2012-12-28 | 2014-07-02 | 重庆凯泽科技有限公司 | 一种采用Widrow-Hoff学习算法的方法 |
KR101355340B1 (ko) | 2013-07-19 | 2014-01-24 | 주식회사 헬로우펀치 | 생체정보 인식형 인형 완구 |
US10768704B2 (en) | 2015-03-17 | 2020-09-08 | Whirlwind VR, Inc. | System and method for modulating a peripheral device based on an unscripted feed using computer vision |
US9697867B2 (en) | 2015-09-25 | 2017-07-04 | Intel Corporation | Interactive adaptive narrative presentation |
US10692533B2 (en) | 2015-10-07 | 2020-06-23 | Google Llc | Storyline experience |
US20170252648A1 (en) | 2016-03-07 | 2017-09-07 | Tapas Media, Inc. | Streaming narrative episodes with micronarratives to a networked device |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US10171858B2 (en) * | 2017-03-02 | 2019-01-01 | Adobe Systems Incorporated | Utilizing biometric data to enhance virtual reality content and user response |
CN116389554A (zh) | 2017-03-08 | 2023-07-04 | 理查德.A.罗思柴尔德 | 用于提高用户在体育活动中的表现的系统及其方法 |
US10572773B2 (en) * | 2017-05-05 | 2020-02-25 | Intel Corporation | On the fly deep learning in machine learning for autonomous machines |
US10348658B2 (en) | 2017-06-15 | 2019-07-09 | Google Llc | Suggested items for use with embedded applications in chat conversations |
US11176484B1 (en) * | 2017-09-05 | 2021-11-16 | Amazon Technologies, Inc. | Artificial intelligence system for modeling emotions elicited by videos |
WO2019067783A1 (en) * | 2017-09-29 | 2019-04-04 | Chappell Arvel A | PRODUCTION AND CONTROL OF KINEMATIC CONTENT IN RESPONSE TO AN EMOTIONAL USER STATUS |
WO2019076845A1 (en) | 2017-10-16 | 2019-04-25 | Lego A/S | INTERACTIVE GAMING APPARATUS |
US10861439B2 (en) * | 2018-10-22 | 2020-12-08 | Ca, Inc. | Machine learning model for identifying offensive, computer-generated natural-language text or speech |
US20210350346A1 (en) * | 2020-05-06 | 2021-11-11 | Capital One Services, Llc | System and method for using passive multifactor authentication to provide access to secure services |
US11341689B1 (en) * | 2020-11-05 | 2022-05-24 | International Business Machines Corporation | Dynamic virtual audience generation |
-
2019
- 2019-08-22 US US16/548,804 patent/US11429839B2/en active Active
-
2020
- 2020-08-14 GB GB2203703.0A patent/GB2602904B/en active Active
- 2020-08-14 CN CN202080059505.9A patent/CN114303159A/zh active Pending
- 2020-08-14 WO PCT/IB2020/057670 patent/WO2021033104A1/en active Application Filing
- 2020-08-14 DE DE112020002997.2T patent/DE112020002997T5/de active Pending
- 2020-08-14 JP JP2022502547A patent/JP2022546190A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
US11429839B2 (en) | 2022-08-30 |
US20210056407A1 (en) | 2021-02-25 |
GB2602904A (en) | 2022-07-20 |
DE112020002997T5 (de) | 2022-03-31 |
CN114303159A (zh) | 2022-04-08 |
WO2021033104A1 (en) | 2021-02-25 |
GB2602904B (en) | 2024-03-13 |
GB202203703D0 (en) | 2022-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sirkkunen et al. | Journalism in virtual reality: Opportunities and future research challenges | |
TWI778477B (zh) | 互動方法、裝置、電子設備以及儲存媒體 | |
US11792485B2 (en) | Systems and methods for annotating video media with shared, time-synchronized, personal reactions | |
JP2022546190A (ja) | 動画ストーリーラインの適応 | |
US11375256B1 (en) | Artificial intelligence system for modeling emotions elicited by videos | |
JP7254772B2 (ja) | ロボットインタラクションのための方法及びデバイス | |
WO2019231559A1 (en) | Interactive video content delivery | |
US11176484B1 (en) | Artificial intelligence system for modeling emotions elicited by videos | |
CN114746159B (zh) | 人工智能(ai)控制的相机视角生成器和ai广播员 | |
JP2022534708A (ja) | 動的に反応する仮想キャラクターのためのマルチモーダルモデル | |
EP3899857A1 (en) | Real-time route configuring of entertainment content | |
EP4173299A1 (en) | Techniques for providing interactive interfaces for live streaming events | |
AU2015334593A1 (en) | System and method for real-time customization and synchoronization of media content | |
CN114746158A (zh) | 人工智能(ai)控制的相机视角生成器和ai广播员 | |
King | Articulating digital stardom1 | |
US10268969B2 (en) | Artificial intelligence controlled entertainment performance | |
CN117377519A (zh) | 通过分布式输入的情绪分析来模拟现场赛事的人群噪声 | |
US20160357498A1 (en) | Gamified Adaptive Digital Disc Jockey | |
JP6367748B2 (ja) | 認識装置、映像コンテンツ提示システム | |
CN106113057A (zh) | 基于机器人的音视频宣传方法和系统 | |
US20210256565A1 (en) | Dynamic media content for in-store screen experiences | |
US20220337886A1 (en) | Virtual Spectator Experience for Live Events | |
Varanda | Soi Moi: The Techno-Soma-Aesthetics of a Dance for the iPhone | |
KR20210053739A (ko) | 게임 플레이 콘텐츠 제작 장치 | |
JP2023501866A (ja) | 成人向けライトフィールドディスプレイシステム発明者:ジョナサン・シャン・カラフィンブレンダン・エルウッド・ベベンシージョン・ドーム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220302 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20220518 |
|
RD16 | Notification of change of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7436 Effective date: 20220331 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240220 |