JP2018042240A - 感情状態検出に基づいてビデオコンテンツを処理するためのシステム及び方法 - Google Patents

感情状態検出に基づいてビデオコンテンツを処理するためのシステム及び方法 Download PDF

Info

Publication number
JP2018042240A
JP2018042240A JP2017170948A JP2017170948A JP2018042240A JP 2018042240 A JP2018042240 A JP 2018042240A JP 2017170948 A JP2017170948 A JP 2017170948A JP 2017170948 A JP2017170948 A JP 2017170948A JP 2018042240 A JP2018042240 A JP 2018042240A
Authority
JP
Japan
Prior art keywords
video content
user
video
emotional state
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017170948A
Other languages
English (en)
Inventor
チンタラポーディ プラモド
Chintalapoodi Pramod
チンタラポーディ プラモド
ゴスワミ ナバラン
Goswami Nabarun
ゴスワミ ナバラン
サドワニ ヘマント
Sadhwani Hemant
サドワニ ヘマント
スリバヴィ マドヴェシュ
Sulibhavi Madhvesh
スリバヴィ マドヴェシュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2018042240A publication Critical patent/JP2018042240A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/29Arrangements for monitoring broadcast services or broadcast-related services
    • H04H60/33Arrangements for monitoring the users' behaviour or opinions
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/36Monitoring, i.e. supervising the progress of recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B31/00Arrangements for the associated working of recording or reproducing apparatus with related apparatus
    • G11B31/006Arrangements for the associated working of recording or reproducing apparatus with related apparatus with video camera or receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/61Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42201Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8549Creating video summaries, e.g. movie trailer

Abstract

【課題】ユーザの感情状態検出に基づいてビデオコンテンツを処理するためのシステム及び方法を提供する。
【解決手段】1又は2以上のユーザの感情状態検出に基づいてビデオコンテンツを処理するためのシステム及び方法の様々な態様を本明細書に開示する。システムは、ビデオ処理デバイス上で第1のビデオコンテンツを視聴している第1のユーザの感情状態の変化を検出するビデオ処理デバイスを含む。1又は2以上の時間インスタンスでの第1のユーザの感情状態の検出された変化中に視聴された第1のビデオコンテンツの1又は2以上の画像フレーム群は、変化した感情状態に関連付けられる。第2のビデオコンテンツが、第1のユーザの感情状態の検出された変化に基づいて、第1のビデオコンテンツの関連付けられた1又は2以上の画像フレーム群を用いて発生される。
【選択図】図1

Description

〔関連出願への相互参照/引用による組み込み〕
なし。
本発明の開示の様々な実施形態は、ビデオコンテンツの処理のためのシステム及び方法に関する。より具体的には、本発明の開示の様々な実施形態は、ユーザの感情状態検出に基づいてビデオコンテンツを処理するためのシステム及び方法に関する。
ビデオ処理技術の分野における最近の進歩は、様々な電子デバイス及び付属のアプリケーションの機能の範囲を広げている。以前は、ビデオ編集目的でビデオを処理するのに高額な機械が使用された。しかし、ビデオ編集及び関連のデバイスのコストは、ビデオ処理デバイス及びビデオ処理技術における絶え間ない進歩に起因して時間と共に低下している。ビデオフレームシーケンスのビデオ編集のための様々なツール、アプリケーション、機械、及び/又はデバイスは、庭用電化製品(CE)、メディア、及び/又は動画制作及びポストプロダクション産業のような様々な産業において幅広く使用されている。現在、取り込まれたビデオコンテンツの操作は、時間を消費する処理である場合がある。更に、一様な高品質の結果を生成するためには高レベルの専門性を必要とする場合がある。ビデオ編集技術においてある一定のレベルの自動化が台頭してきたが、後処理技術は、依然として莫大な計算リソースを必要とする場合があり、従って、消費者用途には非実用的である可能性がある。従って、デジタルビデオコンテンツの高速かつ高品質処理のためにインテリジェントな方式で人的要素を使用することができる先進的かつ効率的な技術又はシステムが要求される場合がある。
記述したシステムと本出願の残りの部分に図面を参照して列挙するような本発明の開示の一部の態様との比較を通して、当業者には従来の慣習的な手法の更なる限界及び欠点が明らかになるであろう。
特許請求の範囲により完全に列挙するように実質的に図のうちの少なくとも1つに示すような及び/又はそれに関連付けて記載するような1又は2以上のユーザの感情状態検出に基づいてビデオコンテンツを処理するシステム及び方法を提供する。
本発明の開示のこれら及び他の特徴及び利点は、全体を通して類似の参照番号が類似の部分を指す添付図面と共に本発明の開示の以下の詳細説明の精査から認めることができる。
本発明の開示の実施形態により1又は2以上のユーザの感情状態検出に基づいてビデオコンテンツを処理するネットワーク環境を示すブロック図である。 本発明の開示の実施形態により1又は2以上のユーザの感情状態検出に基づいてビデオコンテンツを処理する例示的ビデオ処理デバイスのブロック図である。 本発明の開示の実施形態により1又は2以上のユーザの感情状態検出に基づいてビデオコンテンツを処理する開示のシステム及び方法の実施のための例示的シナリオを示す図である。 本発明の開示の実施形態により1又は2以上のユーザの感情状態検出に基づいてビデオコンテンツを処理する例示的方法の実施のための流れ図を集合的に示す図である。 本発明の開示の実施形態により1又は2以上のユーザの感情状態検出に基づいてビデオコンテンツを処理する例示的方法の実施のための流れ図を集合的に示す図である。
以下に説明する実施は、感情状態検出に基づいてビデオを処理する本発明の開示のシステム及び方法に見出すことができる。本発明の開示の例示的態様は、ビデオ処理デバイス上で第1のビデオコンテンツを視聴している第1のユーザの感情状態の変化を検出することができるビデオ処理デバイスを含むことができる。1又は2以上の時間インスタンスで検出された第1のユーザの感情状態の変化中に視聴された第1のビデオコンテンツの1又は2以上の画像フレーム群は、変化した感情状態に関連付けることができる。関連付けられた第1のビデオコンテンツの1又は2以上の画像フレーム群を用いて第2のビデオコンテンツを発生させることができる。第2のビデオコンテンツの発生は、検出された第1のユーザの感情状態の変化に基づくことができる。
実施形態により、感情状態は、平常状態、嬉しい状態、悲しい状態、怒り状態、軽蔑状態、恐れ状態、驚き状態、困惑状態、及び/又は優しい状態に対応する場合がある。関連付けに向けてビデオ処理デバイス上での第1のビデオコンテンツの視聴中に第1のユーザの変化した感情状態に関連付けられたレベルを決定することができる。第1のユーザが第1のビデオコンテンツを視聴している場合がある間に第1のユーザの複数の感情状態をモニタすることができる。モニタは、ビデオ処理デバイスに通信的に結合された画像取り込みデバイスを用いて取り込まれた第1のユーザの1又は2以上の画像又はビデオ、及び/又は第1のユーザに関連付けられた1又は2以上の着用可能デバイスから受信されたセンサデータに基づくことができる。
実施形態により、変化した感情状態に関連付けられた第1のビデオコンテンツの1又は2以上の画像フレーム群は、第2のビデオコンテンツの発生に向けて選択することができる。第1のユーザの複数の異なる感情状態の検出に基づいて、第1のビデオコンテンツから複数のビデオコンテンツ項目を同時に発生させることができる。
実施形態により、第2のユーザがビデオ処理デバイス上で第1のビデオコンテンツを視聴している間に第2のユーザの感情状態の変化を検出することができる。第1のビデオコンテンツの1又は2以上の他の画像フレーム群は、第2のユーザの変化した感情状態に関連付けることができる。この関連付けは、第1のビデオコンテンツが視聴されている間の1又は2以上の他の時間インスタンスで検出された第2のユーザの感情状態の変化中に行うことができる。
実施形態により、検出された第1のユーザ及び第2のユーザの感情状態の変化に基づいて第2のビデオコンテンツと第3のビデオコンテンツを同時に発生させることができる。第3のビデオコンテンツは、第1のビデオコンテンツの関連付けられた1又は2以上の他の画像フレーム群を用いて発生させることができる。第1のビデオコンテンツは、検出された第1のユーザの感情状態の変化に基づいて自動的に編集することができる。
実施形態により、発生された第2のビデオコンテンツは、検出された第1のユーザの感情状態の変化に基づいて第1のビデオコンテンツから自動的に発生された感情ビデオハイライトに対応することができる。検出された第1のユーザの感情状態の変化に基づく単一ビデオコンテンツを発生させるために、ビデオ処理デバイス上で視聴されている複数のビデオコンテンツ項目の各々から選択された1又は2以上の画像フレーム群を組み合わることができる。
図1は、本発明の開示の実施形態により感情状態検出に基づいてビデオを処理するネットワーク環境を示すブロック図である。図1を参照すると、例示的ネットワーク環境100が示されている。ネットワーク環境100は、ビデオ処理デバイス102と、サーバ104と、通信ネットワーク106と、画像取り込みユニット108と、複数の感情状態110と、第1のユーザ112及び第2のユーザ114のような1又は2以上のユーザとを含むことができる。ビデオ処理デバイス102は、表示画面116と、表示画面116上にレンダリングされたアプリケーションインタフェース118とを含むことができる。1又は2以上の着用可能デバイス120も示されている。複数の感情状態110は、第1のユーザ112及び/又は第2のユーザ114に関連付けることができる。ビデオ処理デバイス102は、サーバ104及び/又は1又は2以上の着用可能デバイス120に通信ネットワーク106を通じて通信的に結合することができる。第1のユーザ112及び第2のユーザ114のような1又は2以上のユーザは、ビデオ処理デバイス102に関連付けることができる。
ビデオ処理デバイス102は、処理される1又は2以上のビデオコンテンツ項目をサーバ104から通信ネットワーク106を通じて受信するように構成することができる適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。実施形態により、外部ストレージ媒体又は別の電子デバイスのような外部デバイスから有線又は無線の通信媒体を通して1又は2以上のビデオを処理に向けてビデオ処理デバイス102に転送することができる。ビデオ処理デバイス102の例は、コンピュータデバイス、ビデオ編集機械、スマート電話、ラップトップ、スマートテレビジョン(TV)、動き取り込みシステム、カメラ、アクションカム、カムコーダ、タブレットコンピュータ、プロジェクタ、及び/又はビデオ処理デバイスを含むことができるがこれらに限定されない。
サーバ104は、複数の取り込まれたビデオを格納するように構成することができる適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。サーバ104は、ビデオ処理デバイス102のようなリモート電子デバイスに通信的に結合することができる。サーバ104は、クラウドベースのサーバ、ウェブサーバ、データベースサーバ、ファイルサーバ、アプリケーションサーバ、又はその組合せとすることができる。サーバ104は、当業者に公知のいくつかの技術を用いて実施することができる。
通信ネットワーク106は、ビデオ処理デバイス102がサーバ104と通信することを可能にする媒体を含むことができる。通信ネットワーク106は、有線又は無線の通信ネットワークとすることができる。通信ネットワーク106の例は、ローカルエリアネットワーク(LAN)、無線ローカルエリアネットワーク(WLAN)、クラウドネットワーク、長期的進化(LTE)ネットワーク、従来の電話サービス(POTS)、メトロポリタンエリアネットワーク(MAN)、及び/又はインターネットを含むことができるがこれらに限定されない。ネットワーク環境100内の様々なデバイスは、様々な有線及び無線の通信プロトコルに従って通信ネットワーク106に接続するように構成することができる。そのような有線及び無線の通信プロトコルの例は、送信制御プロトコル及びインターネットプロトコル(TCP/IP)、ユーザデータグラムプロトコル(UDP)、ハイパーテキスト転送プロトコル(HTTP)、ファイル転送プロトコル(FTP)、ZigBee、EDGE、赤外線(IR)、IEEE 802.11、802.16、長期的進化(LTE)、ライトフィデリティ(Li−Fi)、及び/又は他のセルラー通信プロトコル、インターネット・オブ・シングズ(IOT)通信プロトコル、又はBluetooth(BT)通信プロトコルを含むことができるがこれらに限定されない。
画像取り込みユニット108は、1又は2以上のユーザの1又は2以上の画像又はビデオを取り込むように構成することができる適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。実施形態により、画像取り込みユニット108は、ビデオ処理デバイス102の内蔵カメラ又は画像センサに対応することができる。これに代えて、画像取り込みユニット108は、ビデオ処理デバイス102に接続された外部カメラとすることができる。
複数の感情状態110は、ビデオ処理デバイス102によって検出される1又は2以上のユーザの感情状態に対応する。「EM1、EM2、EM3、...、EMn」のような複数の感情状態110は、平常の感情、嬉しい感情、悲しい感情、怒りの感情、軽蔑の感情、恐れの感情、驚きの感情、困惑した感情、及び/又は優しい感情を含むことができる。複数の感情状態110は、画像取り込みユニット108によって取り込まれた1又は2以上のユーザの1又は2以上の画像又はビデオに基づいて検出することができる。実施形態により、1又は2以上のユーザの各々は、ビデオ処理デバイス102と通信的に結合することができる1又は2以上の着用可能デバイス120のうちの着用可能デバイスに関連付けることができる。1又は2以上のユーザの感情状態の変化をモニタするために、着用可能デバイスから受信されるセンサデータを更に利用することができる。
表示画面116は、アプリケーションインタフェース118をレンダリングして取り込みビデオを編集することを可能にするように構成することができる適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。実施形態により、表示画面116は、ビデオ処理デバイス102の一部として実施することができる。表示画面116は、液晶ディスプレイ(LCD)、発光ダイオード(LED)利用ディスプレイ、有機LEDディスプレイ技術、及び/又は網膜ディスプレイ技術などのようないくつかの公知の技術によって実現することができる。
アプリケーションインタフェース118は、ビデオ処理デバイス102の表示画面116上にレンダリングすることができる。アプリケーションインタフェース118は、ビデオ処理デバイス102におけるビデオ編集処理を容易にすることができる。アプリケーションインタフェース118は、ビデオ処理デバイス内に事前格納することができる。アプリケーションインタフェース118は、収集したビデオコンテンツ及び対応するビデオフレームをビデオ処理デバイス102における処理に向けてレンダリングするように構成することができる。
1又は2以上の着用可能デバイス120は、着用可能電子機器及び/又は電子インプラントを指す場合がある。1又は2以上の着用可能デバイス120は、ビデオ処理デバイス102又はサーバ104のような接続されたデバイスにセンサデータを通信するように構成することができる適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。1又は2以上の着用可能デバイス120は、第1のユーザ112及び第2のユーザ114のようなユーザによって着用することができる。例えば、ユーザのカロリー摂取量、カロリー燃焼量、睡眠パターン、及び/又は発汗量又は心拍数のような生理学的パラメータ、又は身体活動を測定するために、ユーザによって着用されたスマート眼鏡、スマートバンド、又はスマート腕時計を使用することができる。1又は2以上の着用可能デバイス120の例は、着用可能心イベント記録計、生体適合性センサ(排卵周期を予想するために心拍数、パルス酸素測定法、呼吸数、及び/又は血圧のような生理学的パラメータをモニタするために人体に取り付けるか、着用するか、又は埋め込むことができる)、「ObamacareマイクロチップRFIDインプラント」のような埋込可能無線周波数デバイス、及び/又は第1のユーザ112又は第2のユーザ114のようなユーザの感情状態の追跡に向けて当該ユーザの生理学的パラメータのモニタに関するセンサデータを供給することができる他の着用可能又は埋込可能なデバイスを含むことができるがこれらに限定されない。実施形態により、1又は2以上の着用可能デバイス120を用いない場合があり、感情状態は、画像取り込みユニット108によって取り込まれるユーザのビデオを用いて検出することができる。
作動時に、ビデオ処理デバイス102は、1又は2以上のビデオコンテンツを受信するように構成することができる。1又は2以上のビデオコンテンツは、サーバ104から通信ネットワーク106を通じて受信することができる。実施形態により、1又は2以上のビデオコンテンツは、外部ストレージデバイスのような外部デバイスから有線又は無線の通信媒体を通して受信することができる。ビデオ処理デバイス102は、受信した1又は2以上のビデオコンテンツのうちの少なくとも第1のビデオコンテンツをアプリケーションインタフェース118を通じてレンダリングするように構成することができる。実施形態により、第1のビデオは、第1のユーザ112のようなユーザから受け入れた入力に基づいてレンダリングすることができる。これに代えて、ビデオ処理デバイス102は、ユーザ定義順序で1又は2以上のビデオコンテンツを処理するための1又は2以上の事前構成された設定を含むことができる。
実施形態により、第1のユーザ112のような1又は2以上のユーザは、ビデオ処理デバイス102の表示画面116上で第1のビデオコンテンツを視聴している場合がある。ビデオ処理デバイス102は、ビデオ処理デバイス102上で第1のビデオコンテンツを視聴している場合がある第1のユーザ112の1又は2以上の画像又はビデオを画像取り込みユニット108を用いて取り込むことができる。ビデオ処理デバイス102は、第1のユーザ112が第1のビデオコンテンツを視聴している間に第1のユーザ112の感情を継続的にモニタするように構成することができる。感情は、第1のユーザ112の取り込まれた1又は2以上の画像又はビデオの解析に基づいてモニタすることができる。
実施形態により、ビデオ処理デバイス102は、ビデオ処理デバイス102上で第1のビデオコンテンツを視聴している第1のユーザ112の感情状態の変化を検出するように構成することができる。感情状態の変化は、第1のユーザ112の複数の感情状態110のうちの平常のような第1の感情状態から嬉しいのような第2の感情状態への遷移に対応する場合がある。
実施形態により、ビデオ処理デバイス102は、ビデオ処理デバイス102上での第1のビデオコンテンツの視聴中に第1のユーザ112の変化した感情状態に関連付けられたレベルを決定するように構成することができる。決定されるレベルは、感情状態の程度に対応する場合がある。例えば、第1のユーザ112が第1のビデオコンテンツを視聴している時に、やや嬉しい感情状態又は興奮感情状態のような嬉しさの程度を検出することができる。
実施形態により、ビデオ処理デバイス102は、第1のビデオコンテンツの1又は2以上の画像フレーム群を興奮感情状態のような変化した感情状態に関連付けるように構成することができる。この関連付けは、第1のビデオコンテンツがビデオ処理デバイス102上で視聴されている時に第1のユーザ112の感情状態の検出された変化中の1又は2以上の時間インスタンスで行うことができる。
実施形態により、ビデオ処理デバイス102は、変化した感情状態に関連付けられた第1のビデオコンテンツの1又は2以上の画像フレーム群を選択するように構成することができる。ビデオ処理デバイス102は、変化した感情状態に関連付けられた1又は2以上の選択画像フレーム群を用いて第2のビデオコンテンツを発生させるように構成することができる。発生された第2のビデオコンテンツは、検出された第1のユーザ112の変化した感情状態に基づいて第1のビデオコンテンツから動的に発生される興奮感情ハイライトのような感情ハイライトに対応することができる。
実施形態により、第1のユーザ112と第2のユーザ114は、ビデオ処理デバイス102上で第1のビデオコンテンツを同時に視聴している場合がある。そのような実施形態において、ビデオ処理デバイス102は、第1のユーザ112の感情と第2のユーザ114の感情とを同時にモニタするように構成することができる。ビデオ処理デバイス102は、第1のユーザ112に加えて、検出された第2のユーザ114の感情状態の変化中に視聴された第1のビデオコンテンツの1又は2以上の他の画像フレーム群を第2のユーザ114の変化した感情状態と更に関連付けることができる。ビデオ処理デバイス102は、検出された第1のユーザ112、並びに第2のユーザ114の変化した感情状態に基づいて第2のビデオコンテンツと別のビデオとを同時に発生させるように構成することができる。
実施形態により、ビデオ処理デバイス102は、1日、1ヶ月、又は1年にわたって視聴された全てのコンテンツ項目に関する複数の感情状態110の各々に関する感情ハイライトを発生させるように構成することができる。実施形態により、第1のユーザ112は、複数のビデオ処理デバイス内の様々なメディアコンテンツを視聴することができる。複数のビデオ処理デバイスは、ビデオ処理デバイス102と類似とすることができる。そのような実施形態において、複数のビデオ処理デバイス内で発生された感情ハイライトを集中格納に向けてサーバ104に通信することができる。その後に、サーバ104は、複数のビデオ処理デバイス上で視聴されているメディアコンテンツのセグメントを含むことができる悲しみ感情ハイライト、嬉しい感情ハイライト、又は怒り感情ハイライトという感情ハイライトを発生させることができる。これらのセグメントは、複数の感情状態110のうちの1又は2以上に関連付けられた1又は2以上の画像フレーム群に対応することができる。
図2は、本発明の開示の実施形態により感情状態検出に基づいてビデオを処理する例示的ビデオ処理デバイスのブロック図を示している。図2を図1に記載の要素に関連付けて説明する。図2を参照すると、ビデオ処理デバイス102が示されている。ビデオ処理デバイス102は、ビデオプロセッサ202のような1又は2以上のプロセッサと、メモリ204と、I/Oデバイス206のような1又は2以上の入力/出力(I/O)デバイスと、感情解析器208と、ネットワークインタフェース210とを含むことができる。I/Oデバイス206内には、更に画像取り込みユニット108、表示画面116、及びアプリケーションインタフェース118が示されている。
ビデオプロセッサ202は、メモリ204、I/Oデバイス206、感情解析器208、及びネットワークインタフェース210に通信的に結合することができる。ネットワークインタフェース210は、ビデオプロセッサ202の制御下でサーバ104と通信ネットワーク106を通じて通信することができる。
ビデオプロセッサ202は、メモリ204に格納された命令セットを実行するように構成することができる適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。ビデオプロセッサ202は、当業技術で公知のいくつかのプロセッサ技術に基づいて実施することができる。ビデオプロセッサ202の例は、X86ベースのプロセッサ、X86−64ベースのプロセッサ、縮小命令セットコンピュータ(RISC)プロセッサ、特定用途向け集積回路(ASIC)プロセッサ、複合命令セットコンピュータ(CISC)プロセッサ、中央演算処理装置(CPU)、明示的並列命令コンピュータ(EPIC)プロセッサ、超長命令語(VLIW)プロセッサ、及び/又は他のプロセッサ又は制御回路とすることができる。
メモリ204は、ビデオプロセッサ202によって実行可能な機械コード及び/又は命令セットを格納するように構成することができる適切な論理部、回路、及び/又はインタフェースを含むことができる。メモリ204は、処理される1又は2以上の取り込まれたビデオ及び処理された又は編集されたビデオを格納するように更に構成することができる。メモリ204は、アプリケーションインタフェース118及び1又は2以上のユーザによって事前設定された1又は2以上の構成可能な設定を格納するように更に構成することができる。メモリ204は、オペレーティングシステム及び付属のアプリケーションを格納するように更に構成することができる。メモリ204の例は、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、電気的消去可能プログラマブル読取専用メモリ(EEPROM)、ハードディスクドライブ(HDD)、固体ドライブ(SSD)、CPUキャッシュ、及び/又はセキュアデジタル(SD)カードを含むことができるがこれらに限定されない。
I/Oデバイス206は、第1のユーザ112のような1又は2以上のユーザから入力を受け入れるように構成することができる適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。I/Oデバイス206は、出力を1又は2以上のユーザに提供するように更に構成することができる。I/Oデバイス206は、ビデオプロセッサ202と通信するように作動可能にすることができる様々な入力デバイス及び出力デバイスを含むことができる。入力デバイスの例は、画像取り込みユニット108、タッチ画面、キーボード、赤外線センサ、マウス、ジョイスティック、マイクロフォン、モーションセンサ、光センサ、地理空間的場所検出センサのような1又は2以上のセンサ、及び/又はドッキングステーションを含むことができるがこれらに限定されない。出力デバイスの例は、表示画面116、プロジェクタ画面、及び/又はスピーカを含むことができるがこれらに限定されない。
感情解析器208は、画像取り込みユニット108によって取り込まれた1又は2以上の画像又はビデオを解析するように構成することができる適切な論理部、回路、及び/又はインタフェースを含むことができる。感情解析器208は、第1のユーザ112及び第2のユーザ114のような1又は2以上のユーザに関連付けられた1又は2以上の着用可能デバイス120から受信されたセンサデータを解析するように更に構成することができる。感情解析器208は、受信した1又は2以上の画像又はビデオ、及び/又はセンサデータの解析に基づいて、1又は2以上のユーザの感情状態の変化を継続的に検出するように構成することができる。実施形態により、感情解析器208は、ビデオプロセッサ202の一部とすることができる。これに代えて、感情解析器208は、ビデオ処理デバイス102内の個別のプロセッサ又は回路として実施することができる。実施形態により、感情解析器208及びビデオプロセッサ202は、これらの機能を実行する統合プロセッサ又はプロセッサクラスターとして実施することができる。実施形態により、感情解析器208は、ビデオプロセッサ202による実行時にビデオ処理デバイス102の機能を実行することができるメモリ204に格納された命令セットとして実施することができる。
ネットワークインタフェース210は、サーバ104と通信ネットワーク106を通じて通信するように(図1に示すように)構成することができる適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。ネットワークインタフェース210は、ビデオ処理デバイス102と通信ネットワーク106との有線又は無線の通信をサポートする公知の技術を実施することができる。ネットワークインタフェース210は、アンテナ、無線周波(RF)送受信機、1又は2以上の増幅器、チューナ、1又は2以上の発振器、デジタル信号プロセッサ、コーダ−復号器(CODEC)チップセット、加入者識別モジュール(SIM)カード、及び/又はローカルバッファを含むことができるがこれらに限定されない。ネットワークインタフェース210は、有線又は無線の通信によって通信ネットワーク106と通信することができる。無線通信は、移動通信のための世界システム(GSM)、拡張データGSM環境(EDGE)、広帯域符号分割多重アクセス(W−CDMA)、符号分割多重アクセス(CDMA)、時分割多重アクセス(TDMA)、Bluetooth、長期的進化(LTE)、無線フィデリティ(Wi−Fi)(IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、及び/又はIEEE 802.11nのような)、ライトフィデリティ(Li−Fi)、ボイスオーバーインターネットプロトコル(VoIP)、Wi−MAX、電子メールのためのプロトコル、インスタントメッセージ、及び/又はショートメッセージサービス(SMS)のような複数の通信規格、プロトコル、及び技術のうちの1又は2以上を使用することができる。
作動時に、ビデオプロセッサ202は、ネットワークインタフェース210を用いて1又は2以上のビデオコンテンツを受信するように構成することができる。1又は2以上のビデオコンテンツは、サーバ104から通信ネットワーク106を通じて受信することができる。実施形態により、1又は2以上のビデオコンテンツは、外部ストレージデバイスのような外部デバイスから有線又は無線の通信媒体を通して受信することができる。ビデオプロセッサ202は、受信した1又は2以上のビデオコンテンツのうちの少なくとも第1のビデオコンテンツをアプリケーションインタフェース118を通じてレンダリングするように構成することができる。
実施形態により、第1のユーザ112のような1又は2以上のユーザは、ビデオ処理デバイス102の表示画面116上で第1のビデオコンテンツを視聴している場合がある。ビデオプロセッサ202は、ビデオ処理デバイス102上で第1のビデオコンテンツを視聴している場合がある第1のユーザ112の1又は2以上の画像又はビデオを画像取り込みユニット108を用いて取り込むことができる。感情解析器208は、第1のユーザ112が第1のビデオコンテンツを視聴している間に第1のユーザ112の感情を継続的にモニタするように構成することができる。感情は、第1のユーザ112の取り込まれた1又は2以上の画像又はビデオの解析に基づいてモニタすることができる。
実施形態により、感情解析器208は、ビデオ処理デバイス102上で第1のビデオコンテンツを視聴している第1のユーザ112の感情状態の変化を検出するように構成することができる。感情状態の変化は、第1のユーザ112の複数の感情状態110のうちの平常のような第1の感情状態から嬉しいのような第2の感情状態への遷移に対応する場合がある。第1のユーザ112の感情状態の変化は、第1のユーザ112の感情のモニタに基づいて検出することができる。
実施形態により、顔の表情の変化、手又は顔の動き、ユーザの着座位置、及び/又は身体姿勢を含む1又は2以上のファクタは、第1のユーザ112の感情状態を示すことができる。単独又は組合せのいずれかで捉えたそのような1又は2以上のファクタは、第1のユーザ112の感情状態の検出において高い精度を与えることができる。例えば、第1のビデオを視聴している間に頭の後部に置かれた両手及び上方に傾いた顔は、くつろいだ感情状態を示すとすることができる。それに対して、第1のビデオを視聴している間に頭の上部に置かれた両手及び下向きに傾いた顔は、狼狽した(又は非常に悲しい)感情状態を示すとすることができる。
従来の感情検出技術では、事前指定された感情のうちからユーザの特定の感情を検出するために、事前指定されたある一定の顔面表情又は生物学的健康パラメータを使用することができる。しかし、人的な感情及び感情表現又は身体言語の程度は、国別又は地域別のような地理的な場所に従って異なる可能性がある。更に、年齢及び性別は、ユーザが自分の感情をどのように表すかに影響を及ぼす可能性もある。従って、複数の感情状態110の正確な検出に向けて、画像処理技術を使用する感情検出をカスタマイズする必要がある可能性がある。
実施形態により、感情解析器208は、第1のユーザ112のようなユーザに関する特定の感情を検出するために、ビデオ処理デバイス102の地理的場所情報を利用して感情検出技術を調節するように構成することができる。例えば、ビデオ処理デバイス102の現在の地理的場所情報に基づいて、異なる顔面表情の手法又は設定を感情検出に向けて適用することができる。そのような顔面表情の手法又は設定は、地理的場所に特定のプレマップされた顔面特徴に従って感情表現又は身体言語を検出するのに適することができる。実施形態により、感情解析器208は、第1のユーザ112の年齢層又は性別に基づいて感情検出技術をカスタマイズするように構成することができる。これに代えて、様々な年齢層、地理的場所、又は男性及び女性の個人に対して同じ設定又は感情検出技術を使用することができる。感情検出技術は、第1のユーザ112のようなユーザの感情状態の検出及び/又は認識のための顔面表情、手又は顔の動き、ユーザ着座位置、及び/又は身体姿勢の解析を指す場合がある。
実施形態により、感情解析器208は、ビデオ処理デバイス102上での第1のビデオコンテンツの視聴中に第1のユーザ112の変化した感情状態に関連付けられたレベルを決定するように構成することができる。決定されるレベルは、感情状態の程度に対応することができる。例えば、第1のユーザ112が第1のビデオコンテンツを視聴している時に、やや嬉しい感情状態又は興奮感情状態のような嬉しさの程度を検出することができる。
実施形態により、第1のユーザ112は、1又は2以上の着用可能デバイス120に関連付けることができる。そのような実施形態において、ビデオプロセッサ202は、第1のユーザ112の複数の感情状態110のような感情をモニタするために1又は2以上の着用可能デバイス120からセンサデータを更に受信することができる。ビデオプロセッサ202は、検出された第1のユーザ112の感情状態の変化を画像処理技術に基づいて検証するためにセンサデータを更に利用するように構成することができる。センサデータは、血圧、発汗量、心拍数、及び体温などのような様々な人間の生理学的パラメータの測定値に対応することができる。例えば、画像処理技術を用いた1又は2以上のファクタの解析に基づいて検出された高い発汗量と結び付けられる悲しい感情状態又は不安の感情状態により、高い不安レベルを確認することができる。実施形態により、ビデオプロセッサ202は、画像処理技術を用いた1又は2以上のファクタの解析に基づいて第1のビデオコンテンツ内でユーザがゴルフを楽しんでいること、カート競技、クリケット、又は他のスポーツをしていることのようなユーザの現在状態を検出するように構成することができる。そのような場合に、感情解析器208は、第1のユーザ112の感情をモニタするために様々な人間の生理学的パラメータのベースレベルを相応に調節するように構成することができる。ユーザ112が特定の場面に対して興奮した場合に、新しいレベルへの感情を実行時に計算することができ、従って、感激的な瞬間だけを取り込んで記録することができる。ビデオプロセッサ202は、画像取り込みユニット108のようなカメラからの全ての画像フレームを記録する代わりに、感激的な感情状態に関連付けられたある一定の画像フレーム群を新しいビデオとして格納するように構成することができる。
実施形態により、ビデオプロセッサ202は、第1のビデオコンテンツの1又は2以上の画像フレーム群を興奮感情状態のような変化した感情状態に関連付けるように構成することができる。この関連付けは、第1のビデオコンテンツがビデオ処理デバイス102上で視聴されている時に検出される第1のユーザ112の感情状態の変化中の1又は2以上の時間インスタンスで行うことができる。例えば、「150枚」の画像フレームの第1の群は、第1のビデオコンテンツのタイムスタンプ「00:01:25」から「00:01:30」(「時間:分:秒」フォーマット)までとすることができる。第1のビデオコンテンツの再生中の時間インスタンス「00:01:28」において平常感情状態から興奮感情状態への第1のユーザ112の感情状態の第1の変化を検出することができる。検出された第1のユーザ112の感情状態の変化の前及び後の2秒は、興奮感情状態のような変化した感情状態に関連付けることができる。同様に、「150枚」の画像フレームの第2の群は、第1のビデオコンテンツのタイムスタンプ「00:02:30」から「00:02:35」までとすることができる。第1のビデオコンテンツの再生中の時間インスタンス「00:02:33」において平常感情状態から興奮感情状態への第1のユーザ112の感情状態の第2の変化を検出することができる。検出された第1のユーザ112の感情状態の変化の前及び後の2秒(合計で5秒)は、興奮感情状態に関連付けることができる。従って、他の画像フレーム群は、第1のビデオコンテンツの再生中の興奮感情状態に関連付けることができる。
実施形態により、ビデオプロセッサ202は、変化した感情状態に関連付けられた第1のビデオコンテンツの1又は2以上の画像フレーム群を選択するように構成することができる。例えば、第1のユーザ112の興奮感情状態に関連付けられた「150枚」の画像フレームの第1の群、「150枚」の画像フレームの第2の群、及び他の画像フレーム群を選択することができる。ビデオプロセッサ202は、複数の感情状態110のうちの少なくとも1つに関連付けることができない第1のビデオコンテンツの画像フレームをフィルタリングするように構成することができる。平常感情状態に関連付けられた画像フレームは、フィルタリングすることができる。
実施形態により、ビデオプロセッサ202は、変化した感情状態に関連付けられた1又は2以上の選択画像フレーム群をその再生時間に従って接合するように構成することができる。実施形態により、ビデオプロセッサ202は、変化した感情状態に関連付けられた1又は2以上の選択画像フレーム群を含むことができる第2のビデオコンテンツを接合作動の結果として発生させるように構成することができる。従って、検出された第1のユーザ112の感情状態の変化に基づいて第1のビデオコンテンツの自動編集を実施することができる。発生された第2のビデオコンテンツは、検出された第1のユーザ112の変化した感情状態に基づいて第1のビデオコンテンツから動的に発生された興奮感情ハイライトのような感情ハイライトに対応することができる。
実施形態により、感情解析器208は、ビデオ処理デバイス102上での第1のビデオコンテンツの再生中に平常感情から悲しみ、怒り、軽蔑、恐れ、驚き、困惑、優しさのような他のピーク感情への第1のユーザ112の感情状態の様々な変化(又は遷移)を検出するように構成することができる。例えば、第1のビデオコンテンツの再生中の時間インスタンス「00:03:20」及び「00:20:10」において、平常感情状態から悲しい感情状態への第1のユーザ112の感情状態の第3及び第4の変化を検出することができる。従って、悲しい感情状態の検出中に視聴された第1のビデオコンテンツの第3の画像フレーム群及び第4の画像フレーム群は、悲しい感情状態に関連付けることができる。その後に、ビデオプロセッサ202は、悲しい感情状態に関連付けられた第3の画像フレーム群及び第4の画像フレーム群を用いて第3のビデオコンテンツを発生させることができる。実施形態により、第2のビデオコンテンツと第3のビデオコンテンツは、第1のビデオコンテンツから同時に発生させることができる。実施形態により、感情解析器208は、ビデオ処理デバイス102上での第1のビデオコンテンツの再生中に嬉しい状態から悲しい状態へ、そこから再度嬉しい状態へのような1つのピーク感情から別のピーク感情への第1のユーザ112の感情状態の様々な変化(又は遷移)を検出するように構成することができる。例えば、ビデオ処理デバイス102はTVとすることができる。第1のユーザ112は、TV上でクリケットを観戦している場合がある。打者がボールを空中高く打った場合に、第1のユーザ112は、それが「6点ヒット」であると思うが、直ちにボールが野手によってキャッチされるのを見る可能性がある。そのようなシナリオでは、感情解析器208は、第1のビデオコンテンツの単一場面に関して悲しい状態から嬉しい状態(6点ヒットだと思った時)へ、そこから悲しい状態(ボールがキャッチされた時)へのような1つのピーク感情から別のピーク感情への第1のユーザ112の感情状態の様々な変化(又は遷移)を迅速に検出するように構成することができる。
実施形態により、第1のユーザ112と第2のユーザ114は、ビデオ処理デバイス102上で第1のビデオコンテンツを同時に視聴している場合がある。そのような実施形態において、感情解析器208は、第1のユーザ112の感情と第2のユーザ114の感情とを同時にモニタするように構成することができる。感情解析器208は、第1のユーザ112に加えて、ビデオ処理デバイス102上で第1のビデオコンテンツを視聴している第2のユーザ114の感情状態の変化を検出するように構成することができる。検出された第2のユーザ114の変化した感情状態に応答して、ビデオプロセッサ202は、第2のユーザ114の感情状態の検出された変化中に視聴された第1のビデオコンテンツの1又は2以上の他の画像フレーム群を第2のユーザ114の変化した感情状態と更に関連付けることができる。ビデオプロセッサ202は、第1のユーザ112、並びに第2のユーザ114の検出された変化した感情状態に基づいて第2のビデオコンテンツと別のビデオとを同時に発生させるように構成することができる。別の言い方をすると、感情解析器208は、第1のユーザ112及び第2のユーザ114のような複数のユーザの感情を同時にモニタするように構成することができる。従って、複数のユーザがテレビジョン(TV)番組のような第1のビデオコンテンツを視聴している間に、複数の異なる感情ハイライトを自動的に発生させることができる。複数の異なる感情ビデオハイライトは、複数のユーザのうちの各ユーザの特定の検出された感情状態に各々が関連付けられた複数の画像フレーム群を含む異なるビデオに対応することができる。例えば、ジョン、ジャック、及びジムという3人のユーザは、TV番組を視聴している場合がある。TV番組の視聴中にジョンが興奮状態になり、悲しくなる瞬間を感情解析器208によって検出することができる。従って、悲しいビデオハイライト及び興奮状態のビデオハイライトという2つの感情ビデオハイライトを発生させることができる。悲しいビデオハイライトは、検出されたジョンの悲しい感情状態でタグ付けされた全ての画像フレーム群を含むことができる。興奮状態のビデオハイライトは、検出されたジョンの興奮感情状態でタグ付けされた全ての画像フレーム群を含む。TV番組の他の画像フレームは、発生された感情ビデオハイライトからフィルタリングして除外することができる。同様に、ジャック及びジムは、TV番組を視聴している時のある一定の瞬間に興奮状態になる及び/又は悲しくなる可能性がある。感情状態の変化は、各個人に関して異なる場合があり、1人のユーザは、ビデオコンテンツの特定の場面を視聴している間に興奮状態にならない可能性があるが、他のユーザは、同じ場面を視聴して興奮状態になる可能性がある。従って、ジョンに関して感情状態遷移検出に基づいて発生された2つの感情ビデオハイライトと同様に、ジャック及びジムに関して異なる感情ビデオハイライトを発生させることができる。
実施形態により、複数のユーザがテレビジョンのTV番組のような第1のビデオコンテンツを視聴している間に複数の異なる感情ハイライトを同時に発生させることができる。複数の異なる感情ハイライトは、主TV番組が表示されている間にTV上で同時に再生することができる。複数の異なる感情ハイライトの再生は、全てのユーザに対してTV表示画面の一方の部分において、主TV番組がTV画面の他方の部分上で再生されている間にピクチャーインピクチャーウィンドウのような様々な表示機構によって行うことができる。そのような場合に、ビデオ処理デバイス102は、TV自体とするか又はTVに統合されたものとすることができる。実施形態により、ジョン、ジャック、及びジムの興奮感情状態のような特定の感情に対して複数のユーザの組合せ感情ビデオハイライトを発生させることが望ましい場合がある。従って、ビデオプロセッサ202は、検出されたジョン、ジャック、及びジムの興奮感情状態でタグ付けされた全ての画像フレーム群を含むことができる単一組合せ興奮状態ビデオハイライトを発生かつ表示することができる。言い換えれば、各ユーザに関する全ての興奮状態の瞬間は、TV上で再生することができる。悲しいビデオハイライトに嬉しい感情ハイライトが続き、更に興奮感情ハイライトが続くことのような感情ビデオハイライトの表示シーケンスを構成可能にし、ユーザが望み通りに設定することができることを理解することができる。更に、TV番組を視聴する間に、ジョンのような特定のユーザ又はジョン、ジャック、及びジムのような複数のユーザの全員の全ての嬉しい瞬間のような特定の感情ビデオハイライトのみの表示は、アプリケーションインタフェース118を用いて構成可能にすることができる。実施形態により、TVのようなビデオ処理デバイス102上での発生された感情ビデオハイライトの再生時に、検出されたユーザの感情状態、そのレベル、及び/又はユーザ名又はユーザのサムネイル画像を表示することができる。
実施形態により、発生された感情ビデオハイライト(第2のビデオコンテンツのような)の再生は、選択されたモードに基づいて制御することができる。第1のユーザ112のようなユーザは、ビデオ処理デバイス102の表示画面116上にレンダリングされたアプリケーションインタフェース118を用いて複数のモードから特定のモードを選択することができる。複数のモードは、スポーツモード、通常モード又はデフォルトモード、気分モード、又は組合せ気分モードを含むことができる。スポーツモードは、感情状態の検出に対する閾値を通常モード又は気分モードのような他のモードと比較して変更することができる感情状態遷移の変化の検出に関する構成設定を指す場合がある。スポーツモードでは、感情解析器208は、第1のユーザ112の感情をモニタするために様々な人間の生理学的パラメータのベースレベルを相応に調節するように構成することができる。通常モードでは、ビデオ処理デバイス102は、複数の感情状態110を検出して処理することができる。気分モードが選択される場合に、選択される特定の気分の限定的な感情ビデオハイライトを発生させるために、ビデオ処理デバイス102は、嬉しい感情状態のような特定の感情状態及びそれに関連付けられたレベルをモニタして検出することができる。気分モードは、複数の感情状態110のうちの1つに対応する。組合せ気分モードは、ビデオ処理デバイス102によって検出して処理される複数の感情状態110のうちの2又は3以上の感情状態を選択するために使用することができる。
実施形態により、複数のユーザのような既知のユーザに対して感情状態の遷移のモニタ及び検出に関する優先度リストを定めることができる。例えば、これらの複数のユーザは、TVを視聴している場合がある。複数のユーザのうちの1人は、優先度リスト内の高優先度ユーザとして定めることができる。そのような場合に、感情解析器208は、複数のユーザのうちの特定のユーザの感情状態の変化の検出をこのユーザが優先度リストからの高優先度ユーザとして識別された場合に動的に切り換えることができる。
実施形態により、第1のユーザ112のようなユーザは、第1のビデオコンテンツのようなビデオを視聴しているのではなく、外部カメラによって取り込まれたビデオ又はライブビデオ撮影の一部の中に含まれる場合がある。そのような場合に、ビデオ撮影中にユーザによって着用される1又は2以上の着用可能デバイス120は、ユーザの感情状態及び感情状態の変化を検出することができる。ビデオプロセッサ202は、外部カメラから記録されたビデオを受信し、かつ1又は2以上の着用可能デバイス120からユーザの感情状態の変化に関する情報を受信することができる。ビデオプロセッサ202は、1又は2以上の着用可能デバイス120からの情報に基づいて、受信した記録されたビデオの1又は2以上の画像フレーム群を様々な変化した感情状態に関連付けるように構成することができる。その後に、1又は2以上の感情ビデオハイライトは、第1のビデオコンテンツからの第2のビデオコンテンツの発生に関して記述したものと類似の処理で発生させることができる。
実施形態により、感情状態検出に基づいて複数のビデオコンテンツ項目を編集するために、複数のビデオコンテンツ項目は、1又は2以上のユーザによってビデオ処理デバイス102上で視聴される場合がある。そのような実施形態において、ビデオプロセッサ202は、複数のビデオコンテンツ項目の各々から選択される1又は2以上の画像フレーム群を組み合わせて、検出された第1のユーザ112のような1又は2以上のユーザの感情状態の変化に基づく単一ビデオコンテンツを発生させるように構成することができる。
実施形態により、図1で記述したビデオ処理デバイス102によって実行される機能又は作動は、ビデオプロセッサ202及び/又は感情解析器208によって実行することができる。ビデオプロセッサ202及び/又は感情解析器208によって実行される他の作動は、図3及び図4における説明から理解することができる。
図3は、本発明の開示の実施形態により感情状態検出に基づいてビデオを処理する本発明の開示のシステム及び方法の実施のための例示的シナリオを示している。図3を図1及び図2に記載の要素に関連付けて説明する。図3を参照すると、アプリケーションインタフェース118上で再生されている第1のビデオ302と、第1のビデオ302の複数のセグメント302aから302eと、1又は2以上のビデオハイライト304から308とが示されている。更に、ビデオ処理デバイス102(図1)に内蔵の画像取り込みユニット108が示されている。
例示的シナリオにより、第1のユーザ112は、ビデオ処理デバイス102上で第1のビデオ302を視聴する間に第1のビデオ302を編集しようと望む場合がある。複数の感情状態110には数値を割り当てることができる。平常感情状態、悲しい感情状態、及び嬉しい感情状態には、それぞれ「0」、「1」、及び「2」という数値を割り当てることができる。複数の感情状態110の各々は、悲しみの程度(又はレベル)を表すことができる1.1、1.2、1.3、...、1.9のようなレベルに更に細分類することができ、この場合1.1は、悲しみの最低レベルを表すことができ、1.9は、この順序で最高の悲しみレベルを表すことができる。同じく2.1は、嬉しさの最低レベルを表すことができ、2.9は、この順序で最高の嬉しさレベルを表すことができる。実施形態により、「*.1」から「*.4」までのレベルスコアは、感情状態の「レベル1」(低レベル)にまとめることができる。同じく「*.5」から「*.7」までのレベルスコアは、感情状態の「レベル2」(中レベル)にまとめることができる。更に、最後に「*.8」から「*.9」までのレベルスコアは、感情状態の「レベル3」にまとめることができる。例えば、「2.1から2.4まで」、「2.5から2.7まで」、及び「2.8から2.9まで」の範囲は、嬉しさの低レベル、中レベル、及び高レベルを示すことができる。同じく他の感情カテゴリに関して低、中、及び高のレベル範囲を定めることができる。
実施形態により、感情解析器208は、第1のビデオ302の再生時間「00:05:05」においてビデオ処理デバイス102上で第1のビデオ302を視聴している第1のユーザ112の感情状態の変化を検出するように構成することができる。感情状態の変化は、平常「0」のような第1の感情状態から嬉しい「2」のような第2の感情状態への遷移に対応する場合がある。「00:05:00」から始まって「00:05:10」まで続くとすることができ、かつ連続する「300枚」の画像フレームを含むことができる第1のビデオ302の第1のセグメント302aは、検出された嬉しい感情状態を表すことができる数値「2」に関連付けることができる。更に、感情解析器208は、第1のユーザ112の嬉しい感情状態のような「2.8」というレベルの変化した感情状態を決定するように構成することができる。レベル「2.8」は、「レベル3」の嬉しさを示すことができる。
感情解析器208は、第1のビデオ302の再生時間「00:10:23」において第1のビデオ302を視聴している第1のユーザ112の平常「0」感情状態から嬉しい「2」感情状態への第2の遷移を検出するように構成することができる。従って、「00:10:20」から始まって「00:10:25」まで続くとすることができ、かつ連続する「150枚」の画像フレームを含むことができる第1のビデオ302の第2のセグメント302bは、検出された嬉しい感情状態を表すことができる数値「2」に関連付けることができる。更に、感情解析器208は、第1のユーザ112の「2.6」というレベルの嬉しい感情状態を決定するように構成することができる。レベル「2.6」は、やや嬉しい状態のような「レベル2」の嬉しさを示すことができる。
更に、第1のビデオ302の再生時間「00:15:12」において、感情解析器208は、第1のビデオ302を視聴している第1のユーザ112の平常「0」感情状態から悲しい「1」感情状態への第3の遷移を検出するように構成することができる。従って、「00:15:10」から始まって「00:15:13」まで続くとすることができ(3秒セグメント)、かつ連続する「150枚」の画像フレームを含むことができる第1のビデオ302の第3のセグメント302cは、検出された悲しい感情状態を表すことができる数値「1」に関連付けることができる。更に、感情解析器208は、第1のユーザ112の「2.5」というレベルの悲しい感情状態を決定するように構成することができる。レベル「2.5」は、やや悲しい状態のような「レベル2」の悲しさを示すことができる。同じく「00:18:10」から始まって「00:18:20」まで続くとすることができ(10秒セグメント)、かつ連続する「300枚」の画像フレームを含むことができる第1のビデオ302の第4のセグメント302dは、検出された嬉しい感情状態を表すことができる数値「2」に関連付けることができる。非常に嬉しい状態のようなレベル「3」の嬉しさを示すことができる「2.9」というレベルを決定することができる。最後に、「00:55:00」から始まって「00:55:05」まで続くとすることができ(5秒セグメント)、かつ連続する「150枚」の画像フレームを含むことができる第1のビデオ302の第5のセグメント302eは、検出された悲しい感情状態を表すことができる数値「1」に関連付けることができる。非常に悲しい状態のようなレベル「3」の悲しさを示すことができる「2.9」というレベルを決定し、第5のセグメント302eの画像フレームに割り当てることができる。
検出された第1のユーザ112の感情状態の変化に基づいて、ビデオプロセッサ202は、第1のセグメント302a、第2のセグメント302b、及び第4のセグメント302dを選択して第1のビデオハイライト304を発生させるように構成することができる。第1のビデオハイライト304は、決定されたレベルには関係なく嬉しい感情ハイライトとすることができる。これに代えて、検出された第1のユーザ112の感情状態の変化と決定されたレベルとに基づいて、ビデオプロセッサ202は、第1のセグメント302a及び第4のセグメント302dを選択して第2のビデオハイライト306を発生させるように構成することができる。第2のビデオハイライト306は、第1のビデオ302から自動的に編集された嬉しい感情状態の「レベル3」の感情ハイライトを含むことができる。
実施形態により、ビデオプロセッサ202は、第3のセグメント302c及び第4のセグメント302eを選択して第3のビデオハイライト308を発生させるように構成することができる。第3のビデオハイライト308は、第1のビデオ302から動的に編集された悲しい感情ハイライトとすることができる。すなわち、人間の感情検出に基づいて、第1のビデオ302は、消費者用途に即応する高速、高品質、かつ効率的な方式で自動的に編集することができる。
図4Aと図4Bは、集合的に本発明の開示の実施形態により感情状態検出に基づいてビデオを処理する例示的方法の実施のための流れ図を示している。図4A図4Bを参照すると、流れ図400が示されている。流れ図400を図1、図2、及び図3に記載の要素に関連付けて説明する。流れ図400に記載の方法は、ビデオ処理デバイス102に実施することができる。本方法は、段階402で始まり、段階404に進行する。
段階404において、ビデオ処理デバイス102によって1又は2以上のビデオコンテンツを受信することができる。1又は2以上のビデオコンテンツは、サーバ104から通信ネットワーク106を通じて受信することができる。実施形態により、1又は2以上のビデオコンテンツは、外部ストレージデバイスのような外部デバイスから有線又は無線の通信媒体を通して受信することができる。段階406において、受信された1又は2以上のビデオコンテンツのうちの少なくとも第1のビデオコンテンツは、ビデオ処理デバイス102においてレンダリングすることができる。第1のビデオコンテンツは、アプリケーションインタフェース118を通じてレンダリングすることができる。実施形態により、第1のビデオは、第1のユーザ112のようなユーザから受信された入力に基づいてレンダリングすることができる。これに代えて、ビデオ処理デバイス102は、ユーザ定義順序で1又は2以上のビデオコンテンツを処理するための1又は2以上の事前構成された設定を含むことができる。
段階408において、ビデオ処理デバイス102上で第1のビデオコンテンツを視聴している場合がある第1のユーザ112の1又は2以上の画像又はビデオは、画像取り込みユニット108を用いて取り込むことができる。段階410において、第1のユーザ112に関連付けられた1又は2以上の着用可能デバイス120からのセンサデータは、ビデオ処理デバイス102によって受信することができる。
段階412において、第1のビデオコンテンツを視聴している第1のユーザ112の感情は、ビデオ処理デバイス102によって継続的にモニタすることができる。感情は、取り込まれた第1のユーザ112の1又は2以上の画像又はビデオ、及び/又は受信されたセンサデータの解析に基づいてモニタすることができる。段階414において、ビデオ処理デバイス102上で第1のビデオコンテンツを視聴している第1のユーザ112の感情状態の変化を検出することができる。感情状態の変化は、第1のユーザ112の複数の感情状態110のうちの平常のような第1の感情状態から嬉しいのような第2の感情状態への遷移に対応する場合がある。
段階416において、ビデオ処理デバイス102上で第1のビデオコンテンツを視聴中の第1のユーザ112の変化した感情状態に関連付けられたレベルを決定することができる。決定されるレベルは、検出される変化した感情状態の程度に対応することができる。段階418において、第1のビデオコンテンツの1又は2以上の画像フレーム群は、嬉しい感情状態のような変化した感情状態に関連付けることができる。この関連付けは、第1のビデオコンテンツがビデオ処理デバイス102上で視聴されている時に検出される第1のユーザ112の感情状態の変化(又は遷移)中の1又は2以上の時間インスタンスで行うことができる。
段階420において、第2の感情状態のような変化した感情状態に関連付けられた第1のビデオコンテンツの1又は2以上の画像フレーム群を選択することができる。1又は2以上の画像フレーム群の選択例を図3に示している。段階422において、複数の感情状態110のうちの少なくとも1つに関連付けることができない第1のビデオコンテンツの画像フレームは、フィルタリングすることができる。平常感情状態に関連付けられた画像フレームは、フィルタリングすることができる。
段階424において、変化した感情状態に関連付けられた選択された1又は2以上の画像フレーム群は、接合することができる。選択された1又は2以上の画像フレーム群は、これらの画像フレーム群の再生時間に従う予め決められた順序で接合することができる。段階426において、変化した感情状態に関連付けられた選択された1又は2以上の画像フレーム群を含むことができる第2のビデオコンテンツを発生させることができる。発生された第2のビデオコンテンツは、検出された第1のユーザ112の感情状態の変化に基づいて第1のビデオコンテンツから動的に発生される嬉しい感情ハイライト又は悲しい感情ハイライトのような感情ハイライトに対応することができる。制御は、終了段階428に移ることができる。これに代えて、実施形態により、第1のユーザ112の複数の異なる感情状態に基づいて第1のビデオコンテンツから複数のビデオコンテンツ項目を同時に発生させることができる。
本発明の開示の実施形態により、感情状態検出に基づいてビデオコンテンツを処理するシステムを開示する。システム(ビデオ処理デバイス102(図1)のような)は、1又は2以上の回路(以下ではビデオプロセッサ202及び/又は感情解析器208(図2)と呼ぶ)を含むことができる。感情解析器208は、ビデオ処理デバイス102上で第1のビデオコンテンツを視聴している第1のユーザ112の感情状態の変化を検出するように構成することができる。ビデオプロセッサ202は、1又は2以上の時間インスタンスで検出された第1のユーザ112の感情状態の変化中に視聴された第1のビデオコンテンツの1又は2以上の画像フレーム群を変化した感情状態に関連付けるように構成することができる。ビデオプロセッサ202は、検出された第1のユーザの感情状態の変化に基づいて関連付けられた第1のビデオコンテンツの1又は2以上の画像フレーム群を用いて第2のビデオコンテンツを発生させるように更に構成することができる。
本発明の開示の様々な実施形態は、感情状態検出に基づいてビデオコンテンツを処理するために、機械コードが格納された非一時的コンピュータ可読媒体及び/又はストレージ媒体、非一時的機械可読媒体及び/又はストレージ媒体、及び/又は機械及び/又はコンピュータによって実行可能な命令セットを提供することができる。ビデオ処理デバイス102内の命令セットは、機械及び/又はコンピュータをして、ビデオ処理デバイス102上で第1のビデオコンテンツを視聴している第1のユーザ112の感情状態の変化の検出を含む段階を実行させることができる。1又は2以上の時間インスタンスで検出された第1のユーザ112の感情状態の変化中に視聴された第1のビデオコンテンツの1又は2以上の画像フレーム群は、変化した感情状態に関連付けることができる。検出された第1のユーザの感情状態の変化に基づいて関連付けられた第1のビデオコンテンツの1又は2以上の画像フレーム群を用いて第2のビデオコンテンツを発生させることができる。
本発明の開示は、ハードウエア、又はハードウエアとソフトウエアの組合せに実現することができる。本発明の開示は、中央集中様式で少なくとも1つのコンピュータシステムに実現するか、又は相互接続したいくつかのコンピュータシステムにわたって様々な要素を分散させることができる分散様式で実現することができる。本明細書で説明する方法を実施するようになったコンピュータシステム又は他の装置は、適切なものとすることができる。ハードウエアとソフトウエアの組合せは、ロードされて実行された時に、本明細書で説明する方法を実施するようにコンピュータシステムを制御することができるコンピュータプログラムを有する汎用コンピュータシステムとすることができる。本発明の開示は、他の機能も実行する集積回路の一部分を含むハードウエアに実現することができる。
本発明の開示はまた、本明細書で記述した方法の実施を可能にする全ての特徴を含み、かつコンピュータシステム内にロードされた時にこれらの方法を実施することができるコンピュータプログラム製品に具現化することができる。この関連において、コンピュータプログラムは、特定の機能を直接に実施するか、又はa)別の言語、コード、又は表記への変換、b)異なる材料形態における複製のいずれか又は両方の後に実施するかのいずれかで情報処理機能を有するシステムに行わせることが意図された命令セットのあらゆる言語、コード、又は表記におけるあらゆる表現を意味する。
本発明の開示をある一定の実施形態を参照して記述したが、本発明の開示の範囲から逸脱することなく様々な変更を加えることができ、かつ均等物を代用することができることは当業者によって理解されるであろう。更に、特定の状況又は材料を本発明の開示の教示に適応させるために、本発明の開示の範囲から逸脱することなく多くの修正を加えることができる。従って、本発明の開示は、開示する特定の実施形態に限定されず、むしろ本発明の開示は、添付の特許請求の範囲に収まる全ての実施形態を含むことになるように意図している。
100 ネットワーク環境
108 画像取り込みユニット
110 複数の感情状態
112 第1のユーザ
114 第2のユーザ

Claims (20)

  1. ビデオコンテンツを処理するためのシステムであって、
    ビデオ処理デバイス上で第1のビデオコンテンツを視聴している第1のユーザの感情状態の変化を検出し、
    前記第1のユーザの前記感情状態の前記検出された変化中に視聴された前記第1のビデオコンテンツの1又は2以上の画像フレーム群を該変化した感情状態に関連付け、かつ
    前記第1のユーザの前記感情状態の前記検出された変化に基づいて、前記第1のビデオコンテンツの前記関連付けられた1又は2以上の画像フレーム群を用いて第2のビデオコンテンツを発生させる、
    ように構成されたビデオ処理デバイス内の1又は2以上の回路、
    を含むことを特徴とするシステム。
  2. 前記感情状態は、平常、嬉しさ、悲しさ、怒り、軽蔑、恐れ、驚き、困惑、及び/又は優しさのうちの1つに対応することを特徴とする請求項1に記載のシステム。
  3. 前記1又は2以上の回路は、前記関連付けに向けて前記ビデオ処理デバイス上での前記第1のビデオコンテンツの前記視聴中に前記第1のユーザの前記変化した感情状態に関連付けられたレベルを決定するように構成されることを特徴とする請求項1に記載のシステム。
  4. 前記1又は2以上の回路は、更に、前記ビデオ処理デバイスに通信的に結合された画像取り込みデバイスを用いて取り込まれた前記第1のユーザの1又は2以上の画像又はビデオ、及び/又は該第1のユーザに関連付けられた1又は2以上の着用可能デバイスから受信されたセンサデータのうちの1又は2以上に基づいて前記第1のビデオコンテンツを視聴している該第1のユーザの複数の感情状態をモニタするように構成されることを特徴とする請求項1に記載のシステム。
  5. 前記1又は2以上の回路は、更に、前記第2のビデオコンテンツの前記発生に向けて前記変化した感情状態に関連付けられた前記第1のビデオコンテンツの前記1又は2以上の画像フレーム群を選択するように構成されることを特徴とする請求項1に記載のシステム。
  6. 前記1又は2以上の回路は、更に、前記第1のユーザの複数の異なる感情状態の検出に基づいて前記第1のビデオコンテンツから複数のビデオコンテンツ項目を同時に発生させるように構成されることを特徴とする請求項1に記載のシステム。
  7. 前記1又は2以上の回路は、更に、前記ビデオ処理デバイス上で前記第1のビデオコンテンツを視聴している第2のユーザの感情状態の変化を検出するように構成され、
    前記第2のユーザの前記感情状態の前記変化は、前記第1のユーザの該感情状態の該変化の前記検出と同時に検出される、
    ことを特徴とする請求項1に記載のシステム。
  8. 前記1又は2以上の回路は、更に、1又は2以上の他の時間インスタンスでの前記第2のユーザの前記感情状態の前記検出された変化中に視聴された前記第1のビデオコンテンツの1又は2以上の他の画像フレーム群を該第2のユーザの該変化した感情状態に関連付けるように構成されることを特徴とする請求項7に記載のシステム。
  9. 前記1又は2以上の回路は、更に、前記第1のユーザ及び前記第2のユーザの前記感情状態の前記検出された変化に基づいて前記第2のビデオコンテンツ及び第3のビデオコンテンツを同時に発生させるように構成され、
    前記第3のビデオコンテンツは、前記第1のビデオコンテンツの前記関連付けられた1又は2以上の他の画像フレーム群を用いて発生される、
    ことを特徴とする請求項8に記載のシステム。
  10. 前記1又は2以上の回路は、前記第1のユーザの前記感情状態の前記検出された変化に基づいて前記第1のビデオコンテンツを自動的に編集するように構成されることを特徴とする請求項1に記載のシステム。
  11. 前記発生された第2のビデオコンテンツは、前記第1のユーザの前記感情状態の前記検出された変化に基づいて前記第1のビデオコンテンツから自動的に発生された感情ビデオハイライトに対応することを特徴とする請求項1に記載のシステム。
  12. 前記1又は2以上の回路は、前記ビデオ処理デバイス上で視聴された複数のビデオコンテンツ項目の各々から選択された1又は2以上の画像フレーム群を組み合わせて、前記第1のユーザの前記感情状態の前記検出された変化に基づいて単一ビデオコンテンツを発生させるように構成されることを特徴とする請求項1に記載のシステム。
  13. ビデオコンテンツを処理する方法であって、
    ビデオ処理デバイス内の1又は2以上の回路により、該ビデオ処理デバイス上で第1のビデオコンテンツを視聴している第1のユーザの感情状態の変化を検出する段階と、
    前記1又は2以上の回路により、前記第1のユーザの前記感情状態の前記検出された変化中に視聴された前記第1のビデオコンテンツの1又は2以上の画像フレーム群を該変化した感情状態に関連付ける段階と、
    前記1又は2以上の回路により、前記第1のユーザの前記感情状態の前記検出された変化に基づいて、前記第1のビデオコンテンツの前記関連付けられた1又は2以上の画像フレーム群を用いて第2のビデオコンテンツを発生させる段階と、
    を含むことを特徴とする方法。
  14. 前記感情状態は、平常、嬉しさ、悲しさ、怒り、軽蔑、恐れ、驚き、困惑、及び/又は優しさのうちの1つに対応することを特徴とする請求項13に記載の方法。
  15. 前記1又は2以上の回路により、前記関連付けに向けて前記ビデオ処理デバイス上での前記第1のビデオコンテンツの前記視聴中に前記第1のユーザの前記変化した感情状態に関連付けられたレベルを決定する段階を更に含むことを特徴とする請求項13に記載の方法。
  16. 前記1又は2以上の回路により、前記ビデオ処理デバイスに通信的に結合された画像取り込みデバイスを用いて取り込まれた前記第1のユーザの1又は2以上の画像又はビデオ、及び/又は該第1のユーザに関連付けられた1又は2以上の着用可能デバイスから受信されたセンサデータのうちの1又は2以上に基づいて前記第1のビデオコンテンツを視聴している該第1のユーザの複数の感情状態をモニタする段階を更に含むことを特徴とする請求項13に記載の方法。
  17. 前記1又は2以上の回路により、前記第2のビデオコンテンツの前記発生に向けて前記変化した感情状態に関連付けられた前記第1のビデオコンテンツの前記1又は2以上の画像フレーム群を選択する段階を更に含むことを特徴とする請求項13に記載の方法。
  18. 前記1又は2以上の回路により、前記第1のユーザの前記感情状態の前記検出された変化と前記関連付けとに基づいて前記第1のビデオコンテンツを自動的に編集する段階を更に含むことを特徴とする請求項13に記載の方法。
  19. 前記発生された第2のビデオコンテンツは、前記第1のユーザの前記感情状態の前記検出された変化に基づいて前記第1のビデオコンテンツから自動的に発生された感情ビデオハイライトに対応することを特徴とする請求項13に記載の方法。
  20. 前記1又は2以上の回路により、前記第1のユーザの複数の異なる感情状態の検出に基づいて前記第1のビデオコンテンツから複数のビデオコンテンツ項目を同時に発生させる段階を更に含むことを特徴とする請求項13に記載の方法。
JP2017170948A 2016-09-09 2017-09-06 感情状態検出に基づいてビデオコンテンツを処理するためのシステム及び方法 Pending JP2018042240A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/260,637 2016-09-09
US15/260,637 US10529379B2 (en) 2016-09-09 2016-09-09 System and method for processing video content based on emotional state detection

Publications (1)

Publication Number Publication Date
JP2018042240A true JP2018042240A (ja) 2018-03-15

Family

ID=59968913

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017170948A Pending JP2018042240A (ja) 2016-09-09 2017-09-06 感情状態検出に基づいてビデオコンテンツを処理するためのシステム及び方法

Country Status (5)

Country Link
US (1) US10529379B2 (ja)
EP (1) EP3293900A1 (ja)
JP (1) JP2018042240A (ja)
KR (1) KR101944630B1 (ja)
CN (1) CN107809673B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022516640A (ja) * 2019-01-28 2022-03-01 ルーシッド ラブス インコーポレイテッド 生体データを利用したハイライト映像生成方法及びその装置
EP3975182A1 (en) 2020-09-28 2022-03-30 Mazda Motor Corporation Video editing equipment

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10567844B2 (en) * 2017-02-24 2020-02-18 Facebook, Inc. Camera with reaction integration
US10636449B2 (en) * 2017-11-06 2020-04-28 International Business Machines Corporation Dynamic generation of videos based on emotion and sentiment recognition
US11249945B2 (en) * 2017-12-14 2022-02-15 International Business Machines Corporation Cognitive data descriptors
US10237615B1 (en) * 2018-02-15 2019-03-19 Teatime Games, Inc. Generating highlight videos in an online game from user expressions
US10621983B2 (en) * 2018-04-20 2020-04-14 Spotify Ab Systems and methods for enhancing responsiveness to utterances having detectable emotion
US10566010B2 (en) * 2018-04-20 2020-02-18 Spotify Ab Systems and methods for enhancing responsiveness to utterances having detectable emotion
US10622007B2 (en) * 2018-04-20 2020-04-14 Spotify Ab Systems and methods for enhancing responsiveness to utterances having detectable emotion
DE102018210973A1 (de) * 2018-07-04 2020-01-09 Siemens Healthcare Gmbh Verfahren zu einem Überwachen eines Patienten während einer medizinischen Bildgebungsuntersuchung, insbesondere einer Magnetresonanzuntersuchung
CN109005464A (zh) * 2018-08-28 2018-12-14 深圳市有钱科技有限公司 视频播放方法、存储介质及计算机设备
CN109819325B (zh) * 2019-01-11 2021-08-20 平安科技(深圳)有限公司 热点视频标注处理方法、装置、计算机设备及存储介质
KR102335968B1 (ko) * 2019-05-31 2021-12-06 이화여자대학교 산학협력단 디지털 콘텐츠를 소비하는 소비자의 상태 진단 방법 및 장치
CN111586493A (zh) * 2020-06-01 2020-08-25 联想(北京)有限公司 一种多媒体文件的播放方法及装置
KR20220006926A (ko) * 2020-07-09 2022-01-18 삼성전자주식회사 요약 비디오를 생성하는 디바이스 및 방법
CN114205534A (zh) * 2020-09-02 2022-03-18 华为技术有限公司 一种视频编辑方法及设备
WO2022059818A1 (ko) * 2020-09-18 2022-03-24 주식회사 사이 동영상 검색에서 크라우드 메타 정보들의 서사 구성 방법
US11895368B2 (en) * 2022-03-04 2024-02-06 Humane, Inc. Generating, storing, and presenting content based on a memory metric
CN115761569B (zh) * 2022-10-20 2023-07-04 之江实验室 一种基于情感分类的视频情感定位方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005128884A (ja) * 2003-10-24 2005-05-19 Sony Corp 情報コンテンツの編集装置及び編集方法
JP2012169743A (ja) * 2011-02-10 2012-09-06 Jvc Kenwood Corp 情報処理装置及び情報処理方法
JP2014502454A (ja) * 2010-11-12 2014-01-30 マイクロソフト コーポレーション 聴衆に基づくコンテンツの提示およびカスタム化
JP2015133625A (ja) * 2014-01-14 2015-07-23 キヤノン株式会社 画像再生装置、その制御方法、および制御プログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005015902A1 (ja) * 2003-08-06 2005-02-17 Matsushita Electric Industrial Co., Ltd. 番組推薦装置
EP1582965A1 (en) 2004-04-01 2005-10-05 Sony Deutschland Gmbh Emotion controlled system for processing multimedia data
US8593672B2 (en) * 2009-05-01 2013-11-26 Konica Minolta Business Technologies, Inc. Information equipment apparatus
US8326002B2 (en) 2009-08-13 2012-12-04 Sensory Logic, Inc. Methods of facial coding scoring for optimally identifying consumers' responses to arrive at effective, incisive, actionable conclusions
US20120324491A1 (en) 2011-06-17 2012-12-20 Microsoft Corporation Video highlight identification based on environmental sensing
US20160241533A1 (en) * 2011-11-07 2016-08-18 Anurag Bist System and Method for Granular Tagging and Searching Multimedia Content Based on User's Reaction
US20130159228A1 (en) 2011-12-16 2013-06-20 Microsoft Corporation Dynamic user experience adaptation and services provisioning
US9032434B2 (en) 2012-10-12 2015-05-12 Google Inc. Unsupervised content replay in live video
KR20140094336A (ko) 2013-01-22 2014-07-30 삼성전자주식회사 사용자 감정 추출이 가능한 전자기기 및 전자기기의 사용자 감정 추출방법
US9264770B2 (en) * 2013-08-30 2016-02-16 Rovi Guides, Inc. Systems and methods for generating media asset representations based on user emotional responses
US20150243325A1 (en) * 2014-02-24 2015-08-27 Lyve Minds, Inc. Automatic generation of compilation videos
US20150257706A1 (en) 2014-03-17 2015-09-17 Htc Corporation Portable electronic device and method for physiological measurement
KR20160065670A (ko) 2014-12-01 2016-06-09 삼성전자주식회사 컨텐트를 제공하는 방법 및 디바이스
CN105898567A (zh) * 2015-12-08 2016-08-24 乐视移动智能信息技术(北京)有限公司 基于用户情绪的节目播放方法和系统
US10154191B2 (en) * 2016-05-18 2018-12-11 Microsoft Technology Licensing, Llc Emotional/cognitive state-triggered recording
US20180041552A1 (en) * 2016-08-02 2018-02-08 Facebook, Inc. Systems and methods for shared broadcasting

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005128884A (ja) * 2003-10-24 2005-05-19 Sony Corp 情報コンテンツの編集装置及び編集方法
JP2014502454A (ja) * 2010-11-12 2014-01-30 マイクロソフト コーポレーション 聴衆に基づくコンテンツの提示およびカスタム化
JP2012169743A (ja) * 2011-02-10 2012-09-06 Jvc Kenwood Corp 情報処理装置及び情報処理方法
JP2015133625A (ja) * 2014-01-14 2015-07-23 キヤノン株式会社 画像再生装置、その制御方法、および制御プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022516640A (ja) * 2019-01-28 2022-03-01 ルーシッド ラブス インコーポレイテッド 生体データを利用したハイライト映像生成方法及びその装置
EP3975182A1 (en) 2020-09-28 2022-03-30 Mazda Motor Corporation Video editing equipment
CN114286151A (zh) * 2020-09-28 2022-04-05 马自达汽车株式会社 视频编辑装置

Also Published As

Publication number Publication date
KR101944630B1 (ko) 2019-01-31
EP3293900A1 (en) 2018-03-14
CN107809673A (zh) 2018-03-16
US20180075876A1 (en) 2018-03-15
CN107809673B (zh) 2021-08-06
US10529379B2 (en) 2020-01-07
KR20180028931A (ko) 2018-03-19

Similar Documents

Publication Publication Date Title
JP2018042240A (ja) 感情状態検出に基づいてビデオコンテンツを処理するためのシステム及び方法
US11049147B2 (en) System and method for providing recommendation on an electronic device based on emotional state detection
JP6898524B2 (ja) オーディオビジュアルコンテンツを選択的に記憶するために深層学習を利用するシステムおよび方法
US9712736B2 (en) Electroencephalography (EEG) camera control
EP2919142B1 (en) Electronic apparatus and method for providing health status information
KR102420100B1 (ko) 건강 상태 정보를 제공하는 전자 장치, 그 제어 방법, 및 컴퓨터 판독가능 저장매체
CN104699958B (zh) 一种根据用户身体状况推荐菜谱的方法及装置
CN110084153B (zh) 用于自动共享图片的智能相机
TWI779113B (zh) 音頻活動追蹤及概括的裝置、方法、設備以及電腦可讀儲存媒體
CN108712603B (zh) 一种图像处理方法及移动终端
CN101286196A (zh) 图像存储处理装置和方法、图像搜索装置和方法以及程序
WO2015001437A1 (en) Image processing method and apparatus, and electronic device
US11303802B2 (en) Image capturing apparatus, control method therefor, and storage medium
US11720814B2 (en) Method and system for classifying time-series data
US9465815B2 (en) Method and apparatus for acquiring additional information of electronic device including camera
WO2021134250A1 (zh) 情绪管理方法、设备及计算机可读存储介质
JP6608314B2 (ja) 画像評価装置、画像評価方法および画像評価プログラム
CN113963091A (zh) 图像处理方法、移动终端及存储介质
EP3799407A1 (en) Initiating communication between first and second users
KR20220107683A (ko) 전자 장치 및 이의 제어 방법
CN115205964A (zh) 用于姿态预测的图像处理方法、装置、介质及设备
CN113050843A (zh) 情绪识别及管理方法、计算机程序及电子装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181210

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190417