JP6547977B2 - 感情状態検出に基づいて電子デバイス上で推奨を提供するためのシステム及び方法 - Google Patents

感情状態検出に基づいて電子デバイス上で推奨を提供するためのシステム及び方法 Download PDF

Info

Publication number
JP6547977B2
JP6547977B2 JP2017170947A JP2017170947A JP6547977B2 JP 6547977 B2 JP6547977 B2 JP 6547977B2 JP 2017170947 A JP2017170947 A JP 2017170947A JP 2017170947 A JP2017170947 A JP 2017170947A JP 6547977 B2 JP6547977 B2 JP 6547977B2
Authority
JP
Japan
Prior art keywords
electronic device
emotional state
user
content item
circuits
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017170947A
Other languages
English (en)
Other versions
JP2018041460A (ja
Inventor
チンタラポーディ プラモド
チンタラポーディ プラモド
サドワニ ヘマント
サドワニ ヘマント
スリバヴィ マドヴェシュ
スリバヴィ マドヴェシュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2018041460A publication Critical patent/JP2018041460A/ja
Application granted granted Critical
Publication of JP6547977B2 publication Critical patent/JP6547977B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0269Targeted advertisements based on user profile or attribute
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0255Targeted advertisements based on user history
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0261Targeted advertisements based on user location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0282Rating or review of business operators or products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4668Learning process for intelligent management, e.g. learning user preferences for recommending movies for recommending content, e.g. movies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Strategic Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Databases & Information Systems (AREA)
  • Game Theory and Decision Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biomedical Technology (AREA)
  • Dermatology (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Description

〔関連出願への相互参照/引用による組み込み〕
なし。
本発明の開示の様々な実施形態は、ユーザの感情状態の検出に関する。より具体的には、本発明の開示の様々な実施形態は、ユーザの感情状態検出に基づいて電子デバイス上で推奨を提供するためのシステム及び方法に関する。
感情は、人間生活において重要な役割を果たしており、心拍又は顔面表情の変化等のある一定の生理的及び行動的発現をもたらす場合があることは公知である。ユーザの感情を識別するための試みが行われてきたが、既存のシステムは、依然として、ユーザと感情的又は共感的に接続する機能を欠いている場合がある。関連コンテンツをユーザに推奨することに重点を置く既存システムは、最終消費者による実用用途に適する人間感情状態の変化を考慮に入れることがほとんどない。すなわち、人間感情状態のこのような変化をインテリジェントな方式で使用して実用性の強化と共に感情ベースの推奨を与えることができる高度なシステムが要求されると考えられる。
上述のシステムの本出願の残り部分に列挙するようなかつ図面を参照する本発明の開示の一部の態様との比較を通じて当業者には慣例的かつ従来型手法の更なる限界及び欠点が明らかになるであろう。
特許請求の範囲により完全に列挙するように実質的に図面のうちの少なくとも1つに示し、及び/又はそれに関連して説明するようなユーザの感情状態検出に基づいて電子デバイス上で推奨を提供するためのシステム及び方法を提供する。
本発明の開示のこれら及び他の特徴及び利点は、全体を通じて類似の参照番号が類似の部分を指す添付図面と共に本発明の開示の以下の詳細説明の精査から認めることができる。
本発明の開示の実施形態によるユーザの感情状態検出に基づいて電子デバイス上で推奨を提供するためのネットワーク環境を示すブロック図である。 本発明の開示の実施形態によるユーザの感情状態検出に基づいて推奨を提供するための例示的電子デバイスのブロック図である。 本発明の開示の実施形態によるユーザの感情状態検出に基づいて推奨を提供するための別の例示的電子デバイスのブロック図である。 本発明の開示の実施形態による感情状態検出に基づいて電子デバイス上で推奨を提供するための開示するシステム及び方法の実施のための第1の例示的シナリオを集合的に示す図である。 本発明の開示の実施形態による感情状態検出に基づいて電子デバイス上で推奨を提供するための開示するシステム及び方法の実施のための第1の例示的シナリオを集合的に示す図である。 本発明の開示の実施形態による感情状態検出に基づいて電子デバイス上で推奨を提供するための開示するシステム及び方法の実施のための第2の例示的シナリオを集合的に示す図である。 本発明の開示の実施形態による感情状態検出に基づいて電子デバイス上で推奨を提供するための開示するシステム及び方法の実施のための第2の例示的シナリオを集合的に示す図である。 本発明の開示の実施形態によるユーザの感情状態検出に基づいて電子デバイス上で推奨を提供するための例示的方法を示す第1の流れ図である。 本発明の開示の実施形態によるユーザの感情状態検出に基づいて電子デバイス上で推奨を提供するための別の例示的方法を集合的に示す第2の流れ図である。 本発明の開示の実施形態によるユーザの感情状態検出に基づいて電子デバイス上で推奨を提供するための別の例示的方法を集合的に示す第2の流れ図である。
以下に説明する実施は、ユーザの感情状態検出に基づいて電子デバイス上で推奨を提供するための開示するシステム及び方法に見出すことができる。本発明の開示の例示的態様は、電子デバイスを含むことができ、これは、電子デバイスに関連付けられたユーザの第1感情状態から第2感情状態への感情状態の移行を検出することができる。ユーザのアイデンティティ情報及び検出された移行に基づいて、ユーザの第2感情状態に関連付けられてタグ付けされたコンテンツ項目は、ネットワークデバイスから取り出すことができる。取り出されたタグ付きコンテンツ項目に関連する製品又はサービスを推奨するために、電子デバイス上でアプリケーションを起動することができる。アプリケーションはユーザの感情状態の検出された移行及び電子デバイスの現在位置に応答して起動することができる。
実施形態により、第1感情状態及び第2感情状態は、平常、嬉しさ、悲しさ、怒り、軽蔑、恐怖、驚き、困惑、及び優しさに対応することができる。ネットワークデバイスは、サーバ、無線ホームネットワーク内で電子デバイスに接続した別の電子デバイス、及び/又はクラウドベースのサービスに対応することができる。
実施形態により、ユーザに関連付けられた着用可能デバイス及び/又は電子デバイスの内蔵カメラからセンサデータを受信することができる。センサデータはまた、ユーザの感情状態の移行を検出するための電子デバイス上のテキストベースの入力及び/又は電子デバイス上の音声ベースの入力に対応することができる。
実施形態により、電子デバイス上で取り出されたタグ付きコンテンツ項目に基づいて、製品又はサービスを検索することができる。ユーザの検出された感情状態の移行に基づいて、電子デバイスのホーム画面インタフェースを動的にカスタマイズすることができる。電子デバイスのホーム画面インタフェースは、ネットワークデバイス内で第2感情状態に関連付けられて最後にタグ付けされたコンテンツ項目に基づいて更に動的にカスタマイズすることができる。
本発明の開示の例示的態様によれば、電子デバイス上でコンテンツ項目を視聴しているユーザに関して、第1感情状態から第2感情状態への感情状態の移行を検出することができる。検出された移行中に視聴されたコンテンツ項目の一部分は、ユーザの第2感情状態に関連付けることができる。検出された第2感情状態への移行の原因は、第2感情状態に関連付けられたコンテンツ項目のその部分内で識別することができる。識別された原因に基づいて、製品又はサービスに関して推奨を発生させることができる。推奨はユーザの感情状態の検出された移行及び電子デバイスの現在位置に応答して発生させることができる。
実施形態により、コンテンツ項目のその部分内で識別された原因は、コンテンツ項目のその部分の画像フレーム、画像フレーム内の物体、コンテキストに対応する場合がある。電子デバイス上でのコンテンツ項目の視聴中に、ユーザの第2感情状態のレベルを決定することができる。決定されたレベルが閾値よりも高い時に、コンテンツ項目のその部分を第2感情状態に関連付けることができる。
実施形態により、コンテンツ項目のその部分内で識別された原因は、第2感情状態、ユーザのアイデンティティ情報、検出された移行のタイムスタンプ、及び/又は第2感情状態の決定されたレベルを用いてタグ付けすることができる。第2感情状態に関連付けられてタグ付けされた原因に関連する製品又はサービスは、推奨のために事前指定された検索エンジンを用いてリアルタイム又はほぼリアルタイムで検索することができる。
実施形態により、コンテンツ項目のその部分内でタグ付けされた原因は、電子デバイスと通信的に結合されたサーバ又はネットワークデバイスに通信することができる。製品又はサービスに関して発生された推奨の表示は、電子デバイス、又は電子デバイスに通信的に結合された別の電子デバイス上で制御することができる。
実施形態により、別の電子デバイスに通知を通信して、発生された推奨を表示するために他方の電子デバイスのホーム画面インタフェースをアンロックすることができる。実施形態により、発生された推奨は、発生された推奨の使用パターンに関連付けられた機械学習に基づいて更新することができる。
図1は、本発明の開示の実施形態によるユーザの感情状態検出に基づいて電子デバイス上で推奨を提供するためのネットワーク環境を示すブロック図である。図1を参照すると、例示的ネットワーク環境100が示されている。例示的ネットワーク環境100は、第1電子デバイス102及び第2電子デバイス104等の1又は2以上の電子デバイスと、サーバ106と、1又は2以上の着用可能デバイス108と、通信ネットワーク110と、ユーザ112等の1又は2以上のユーザとを含むことができる。ユーザ112に関連付けられた複数の感情状態114を更に示している。
第1電子デバイス102は、画像取り込みユニット102aと、表示画面102bと、表示画面102b上にレンダリングされたアプリケーションインタフェース102cとを含むことができる。同様に、第2電子デバイス104は、画像取り込みユニット104aと、表示画面104bと、アプリケーションインタフェース104cとを含むことができる。第1電子デバイス102、第2電子デバイス104、及びサーバ106は、通信ネットワーク110を通じて相互に通信的に結合することができるネットワークデバイスとすることができる。1又は2以上の着用可能デバイス108は、別々の短距離通信チャネルを通じて又は通信ネットワーク110を通じて、第1電子デバイス102又は第2電子デバイス104等の1又は2以上の電子デバイスのうちの1つに通信的に結合することができる。ユーザ112は、1又は2以上の着用可能デバイス108、第1電子デバイス102、及び/又は第2電子デバイス104に関連付けることができる。
第1電子デバイス102及び第2電子デバイス104等の1又は2以上の電子デバイスは、ユーザ112の第1感情状態から第2感情状態への感情状態の移行を検出するように構成可能な適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。第1電子デバイス102及び第2電子デバイス104の例は、以下に限定されるものではないが、スマートテレビ(TV)、スマートフォン、ディスプレイデバイス、ラップトップ、タブレットコンピュータ、カメラ、アクションカム、ビデオカメラ、デジタルサイネージ、プロジェクタ、及び/又はビデオ処理デバイスを含むことができる。
画像取り込みユニット102a及び104aは、ユーザ112の1又は2以上の画像又は映像を取り込むように構成可能な適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。実施形態により、画像取り込みユニット102a及び104aは、それぞれの電子デバイスの内蔵カメラ又は画像センサを指す場合がある。
表示画面102b及び104bは、図示のように、それぞれのアプリケーションインタフェース102c及び104cをレンダリングするように構成可能な適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。表示画面102b及び104bは、液晶ディスプレイ(LCD)、発光ダイオード(LED)ベースのディスプレイ、有機LEDディスプレイ技術、Retinaディスプレイ技術等のいくつかの公知の技術を通じて達成することができる。
アプリケーションインタフェース102c及び104cは、第1電子デバイス102及び第2電子デバイス104等のそれぞれの電子デバイスに事前格納されたアプリケーションに対応することができる。アプリケーションインタフェース102cは、ビデオ又はTV番組等の1又は2以上のコンテンツ項目を第1電子デバイス102の表示画面102b上にレンダリングするように構成することができる。アプリケーションインタフェース104cは、第2電子デバイス104の表示画面104b上にレンダリングすることができる。アプリケーションインタフェース104cは、スマートフォン等の第2電子デバイス104とユーザ112との対話を容易にすることができる。実施形態により、アプリケーションインタフェース104cは、第2電子デバイス104の表示画面104b上に表示されるホーム画面に対応する場合がある。
サーバ106は、タグ付けされたコンテンツ項目、又は第1電子デバイス102からのユーザ112等のユーザの特定の感情状態がタグ付けされた一連の画像フレーム等のコンテンツ項目の一部分を受信して格納するように構成可能な適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。ユーザ112の感情状態の移行は、第1電子デバイス102、第2電子デバイス104、及び1又は2以上の着用可能デバイス108等の様々な電子デバイスを用いてモニタして連続的に追跡することができる。サーバ106は、第1電子デバイス102、第2電子デバイス104、及び1又は2以上の着用可能デバイス108等の様々な電子デバイスから、検出された感情状態の移行に関連する情報をタイムスタンプと共に受信するように更に構成することができる。サーバ106は、クラウドベースのサーバ、ウェブサーバ、データベースサーバ、ファイルサーバ、アプリケーションサーバ、又はその組合せとすることができる。サーバ106は、当業者には公知のいくつかの技術を用いて実施することができる。
1又は2以上の着用可能デバイス108は、着用可能電子機器及び/又は電子インプラントを指す場合がある。1又は2以上の着用可能デバイス108は、第1電子デバイス102又は第2電子デバイス104等の接続したデバイスにセンサデータを通信するように構成可能な適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。1又は2以上の着用可能デバイス108は、ユーザ112によって着用することができる。例えば、ユーザ112によって着用されるスマート眼鏡、スマートバンド、又はスマート腕時計を用いて、カロリー摂取量、カロリー消費量、睡眠パターン、及び/又は発汗又は心拍数等の生理的パラメータ、又はユーザ112の物理的活動を測定することができる。1又は2以上の着用可能デバイス108の例は、以下に限定されるものではないが、着用可能な心イベント記録計、生体適合性センサ(排卵周期の予想、心拍数、パルス酸素濃度計、呼吸数、及び/又は血圧等の生理的パラメータのモニタのために人間の身体に取り付け、着用、又はその中に埋込可能な)、「オバマケアマイクロチップRFIDインプラント」等の埋め込み可能無線周波数デバイス、及び/又はユーザ112の感情状態の追跡のためにユーザ112の生理的パラメータのモニタに関連するセンサデータを提供することができる他のこのような着用可能又は埋め込み可能デバイスを含むことができる。
通信ネットワーク110は、これを通じて第1電子デバイス102、第2電子デバイス104、1又は2以上の着用可能デバイス108、及びサーバ106が相互に通信することができる媒体を含むことができる。通信ネットワーク110は、無線通信ネットワークとすることができる。通信ネットワーク110の例は、以下に限定されるものではないが、無線ホームネットワーク等の無線ローカルエリアネットワーク(WLAN)、クラウドネットワーク、「All−joyn」又はInternet−of−Things(IoT)通信フレームワーク、ロングタームエボリューション(LTE)ネットワーク、plain old telephone service(POTS)、メトロポリタンエリアネットワーク(MAN)、及び/又はインターネットを含むことができる。例示的ネットワーク環境100内の様々なデバイスは、様々な無線通信プロトコルに従って通信ネットワーク110に接続するように構成することができる。このような無線通信プロトコルの例は、以下に限定されるものではないが、伝送制御プロトコル及びインターネットプロトコル(TCP/IP)、ユーザデータグラムプロトコル(UDP)、ハイパーテキスト転送プロトコル(HTTP)、ファイル転送プロトコル(FTP)、ZigBee、EDGE、赤外線(IR)、IEEE 802.11、802.16、ロングタームエボリューション(LTE)、Light Fidelity(Li−Fi)、及び/又は他のセルラー通信プロトコル又はBluetooth(BT)通信プロトコルを含むことができる。
複数の感情状態114は、第1電子デバイス102及び/又は第2電子デバイス104によって検出されるユーザ112等の1又は2以上のユーザの感情状態を指す。「EM1、EM2、EM3、...、EMn」等の複数の感情状態114は、平常、嬉しさ、悲しさ、怒り、軽蔑、恐怖、驚き、困惑、及び/又は優しさの感情を含むことができる。画像取り込みユニット102a又は104aによって取り込まれるユーザ112の1又は2以上の画像又は映像に基づいて、複数の感情状態114を検出することができる。実施形態により、ユーザ112等の1又は2以上のユーザの各々は、第1電子デバイス102及び/又は第2電子デバイス104と通信的に結合することができる1又は2以上の着用可能デバイス108に関連付けることができる。1又は2以上の着用可能デバイス108から受信するセンサデータを更に利用して、ユーザ112の感情状態の移行をモニタ又は追跡することができる。
作動中に、第1電子デバイス102は、1又は2以上のコンテンツ項目を受信するように構成することができる。1又は2以上のコンテンツ項目は、通信ネットワーク110を通じてサーバ106、ネットワークサービスプロバイダの別のサーバ(図示せず)、又はネットワークデバイスから受信することができる。1又は2以上のコンテンツ項目は、TVチャネルのTV番組、映画、加入済みのネットワークサービスプロバイダから受信するTV広告等のビデオとすることができる。1又は2以上のコンテンツ項目はまた、第1電子デバイス102、又は通信ネットワーク110等の無線ネットワーク内で接続したネットワークデバイスに事前格納されたビデオ、画像、又は他のファイルとすることができる。1又は2以上のコンテンツ項目は、更に、第1電子デバイス102によってインターネットからアクセス可能なウェブコンテンツに対応する場合がある。第1電子デバイス102は、アプリケーションインタフェース102cを通じて受信したコンテンツ項目からビデオ等の少なくとも1つのコンテンツ項目をレンダリングするように構成することができる。
実施形態により、ユーザ112等の1又は2以上のユーザは、表示画面102b上でビデオ等のレンダリングされたコンテンツ項目を視聴している場合がある。第1電子デバイス102は、第1電子デバイス102上でコンテンツ項目を視聴しているユーザ112の1又は2以上の画像又は映像を画像取り込みユニット102aを用いて取り込むことができる。更に、ユーザ112の感情状態の移行を検出するために、1又は2以上の着用可能デバイス108から受信するセンサデータを更に利用して、ユーザ112の生理的特性及び/又は行動的特性をモニタ又は追跡することができる。
実施形態により、第1電子デバイス102は、第1電子デバイス102上で第1コンテンツ項目を視聴しているユーザ112の第1感情状態から第2感情状態への感情状態の移行を検出するように構成することができる。例えば、ユーザ112の平常の感情状態から興奮した感情状態への移行である。第1感情状態及び第2感情状態は、複数の感情状態114に対応する場合がある。
実施形態により、第1電子デバイス102上で第1コンテンツ項目を視聴中に、音声ベースの入力又はテキストベースの入力を第2電子デバイス104等の別の電子デバイス上で提供することができる。第2電子デバイス104はまた、受信した音声ベースの入力及び/又はテキストベースの入力に基づいて、ユーザ112の感情状態をモニタすることができる。第2電子デバイス104でユーザ112の感情状態の移行が検出されると、このような情報は、第1電子デバイス102又はサーバ106等の接続したネットワークデバイスに通信することができる。通信は、連続的又は定期的に行うことができ、ユーザ112の感情状態の最後に検出された移行が報告され、これに応じて更新することができる。従って、ユーザ112の感情状態の移行は、第1電子デバイス102、第2電子デバイス104、及び1又は2以上の着用可能デバイス108等の様々な電子デバイスを用いてモニタして連続的に追跡することができる。第1電子デバイス102等の1次デバイスがスイッチオフ状態にある時に、1又は2以上の着用可能デバイス108、第2電子デバイス104、又は他のデバイス等の2次デバイスが、以前の使用パターンデータに基づいて感情追跡の制御を行って、これに応じて作用することができる。サーバ106は、第1電子デバイス102、第2電子デバイス104、及び1又は2以上の着用可能デバイス108等の様々な電子デバイスから、検出された感情状態の移行に関連する情報をタイムスタンプと共に受信するように更に構成することができる。
実施形態により、第1電子デバイス102は、第1電子デバイス102上で第1コンテンツ項目を視聴中にユーザ112の第2感情状態のレベルを決定するように構成することができる。決定されるレベルは、ユーザ112が第1コンテンツ項目を視聴している間の嬉しい(スケール5.1)から非常に嬉しい(スケール5.5)、興奮又は歓喜状態(スケール5.9)までのような特定の感情状態のスケールに対応することができる。同様に、検出される他の感情状態、感情状態のレベルを検出することができる。
実施形態により、第1電子デバイス102は、検出された移行中に視聴された第1コンテンツ項目の一部分をユーザ112の第2感情状態に関連付けるように構成することができる。決定されたレベルが閾値よりも高い時に、第1コンテンツ項目のその部分を第2感情状態に関連付けることができる。
実施形態により、第1電子デバイス102は、第2感情状態に関連付けられた第1コンテンツ項目のその部分内で検出された第2感情状態への移行の原因を識別するように構成することができる。第1コンテンツ項目のその部分内で識別される原因は、第1コンテンツ項目のその部分の画像フレーム、画像フレーム内の物体、コンテキスト、又はテーマに対応する場合がある。
実施形態により、第1電子デバイス102は、第1コンテンツ項目のその部分内で識別された原因を1又は2以上のパラメータにタグ付けするように構成することができる。1又は2以上のパラメータは、第2感情状態、ユーザ112のアイデンティティ情報、検出された移行のタイムスタンプ、及び/又は第2感情状態の決定されたレベルとすることができる。第1電子デバイス102は、第1コンテンツ項目のその部分内でタグ付けされた原因を第1電子デバイス102に通信的に結合されたサーバ106又はネットワークデバイスに通信するように構成することができる。これらの特徴をより詳細に説明するために、例示的シナリオを図4Aに示して説明する。
実施形態により、第1電子デバイス102は、第2感情状態に関連付けられてタグ付けされた原因に関連する製品又はサービスをリアルタイム又はほぼリアルタイムで検索するように構成することができる。検索は、タグ付けされた原因に基づいて、事前指定された検索エンジンを用いて実行することができる。タグ付けされた原因に関する検索は、インターネット検索エンジンを通じたグローバル検索、又は予め決められた設定によるローカル検索とすることができる。第1電子デバイス102は、ユーザ112の検出された感情状態の移行及び第1電子デバイスの現在位置に応答して、識別された原因に基づいて、製品又はサービスのための推奨を発生させるように構成することができる。
実施形態により、第1電子デバイス102は、発生された推奨を表示するためにスマートフォン等の第2電子デバイス104のホーム画面インタフェースをアンロックするように第2電子デバイス104に通知を通信するように構成することができる。このような通知は、ユーザ112が第1電子デバイス102から離れて移動する時に、又はユーザ112が第1電子デバイス102の直接の視野方向にいない場合に通信することができる。
実施形態により、第1電子デバイス102で検出された第2感情状態への移行は、スマートフォン等の第2電子デバイス104に通信することができる。第2電子デバイス104のホーム画面インタフェースがアンロックされる前でさえも、第2電子デバイス104は、第1電子デバイス102で以前に検出された第2感情状態をユーザ112が第2電子デバイス104で維持するのに事前インストールされたアプリケーションから取り出されたどのコンテンツ、アプリケーション、壁紙、派生データが適切であるかを決定することができる。複数の電子デバイス間での感情状態のこのようなシームレスな維持又は担持は、第2感情状態のような最後に検出された感情状態が悲しさのような否定的な感情ではなく嬉しさのような肯定的な感情である時に行うことができる。
例えば、ユーザ112は、第1電子デバイス102上でクリケットの試合を視聴している場合がある。ある一定のシナリオでは、ユーザ112は、第1電子デバイス102から離れて別の場所に移動する(車を運転する等)必要がある場合がある。このようなシナリオでは、第2電子デバイス104は、推奨を提供する、又はユーザ112が車を運転中に第2電子デバイス104上で「クリケットの実況放送を流す」、アプリケーションインタフェース104cを通じて「クリケットの得点のアラート」を提供する等のある一定のアクションを行うように構成することができる。従って、第1電子デバイス102で検出された第2感情状態への移行は、スマートフォン等の第2電子デバイス104に通信することができる。
実施形態により、ある一定のシナリオにおいて、退屈、怒り、悲しさ、困惑、又は苛立ち等の否定的な感情が、第1電子デバイス102で最後に検出された感情状態である場合がある。このようなシナリオでは、第2電子デバイス104は、事前インストールされたアプリケーションから取り出されたどの推奨、コンテンツ、アプリケーション、壁紙、派生データが、ユーザ112が第1電子デバイスで以前に検出されたユーザ112の否定的な感情状態を変化させるか又はこれに影響を与えるのに適切であるかを決定することができる。事前インストールされたアプリケーションから取り出されたこのような推奨、コンテンツ、アプリケーション、壁紙、派生データは、第2電子デバイス104において、ユーザ112の否定的な感情状態を嬉しい感情状態のような肯定的な感情状態に変化させるのに有効とすることができる。
実施形態により、スマートフォン等の第2電子デバイス104は、第2電子デバイス104に関連付けられたユーザ112の第1感情状態から第2感情状態への感情状態の移行を更に検出するように構成することができる。ユーザ112の感情状態の移行の検出のために、第2電子デバイス104は、ユーザ112に関連付けられた1又は2以上の着用可能デバイス108、及び/又は第2電子デバイス104の画像取り込みユニット104a等の内蔵カメラから受信したデータ(センサデータ等)を利用することができる。実施形態により、第2電子デバイス104はまた、ユーザ112の感情状態の移行の検出のために、第2電子デバイス104上のテキストベースの入力及び/又は音声ベースの入力を利用することができる。
実施形態により、第2電子デバイス104は、画像取り込みユニット104a等の内蔵カメラを用いて1又は2以上の着用可能デバイス108から受信するセンサデータ、及び/又は受信したテキストベースの入力及び/又は音声ベースの入力に基づいてユーザ112を識別するように構成することができる。実施形態により、スマートフォン等の第2電子デバイス104は、ユーザ112のアイデンティティ情報及び検出された移行に基づいて、ユーザ112の検出された第2感情状態に関連付けられてタグ付けされたコンテンツ項目をネットワークデバイスから取り出すように構成することができる。ネットワークデバイスは、サーバ106、通信ネットワーク110等の無線ホームネットワーク内で第2電子デバイス104に接続した第1電子デバイス102等の別の電子デバイス、及び/又は他の加入済みのクラウドベースのサービスに対応することができる。
実施形態により、第2電子デバイス104は、第2電子デバイス104で取り出されたタグ付きコンテンツ項目に基づいて、1又は2以上の製品又はサービスを検索するように構成することができる。実施形態により、第2電子デバイス104は、取り出されたタグ付きコンテンツ項目に関連する少なくとも1つの製品又はサービスを推奨するために、第2電子デバイス104上でアプリケーションを起動するように構成することができる。アプリケーションは、ユーザ112の検出された感情状態の移行及び第2電子デバイス104の現在位置に応答して起動することができる。この特徴をより詳細に説明するために、例示的シナリオを図4Bに示して説明する。
図2は、本発明の開示の実施形態によるユーザの感情状態検出に基づいて推奨を提供するための例示的電子デバイスのブロック図を示している。図1の要素に関連して図2を説明する。図2を参照すると、第1電子デバイス102が示されている。第1電子デバイス102は、プロセッサ202等の1又は2以上のプロセッサと、メモリ204と、I/Oデバイス206等の1又は2以上の入出力(I/O)デバイスと、感情操作回路208と、ネットワークインタフェース210とを含むことができる。メモリは、感情学習エンジン212及び推奨学習エンジン214を含むことができる。更に、I/Oデバイス206内には画像取り込みユニット102a、表示画面102b、及びアプリケーションインタフェース102cが示されている。
プロセッサ202は、メモリ204、I/Oデバイス206、感情操作回路208、及びネットワークインタフェース210と通信的に結合することができる。ネットワークインタフェース210は、プロセッサ202の制御の下で通信ネットワーク110を通じてサーバ106と通信することができる。
プロセッサ202は、メモリ204内に格納された命令セットを実行するように構成可能な適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。プロセッサ202は、当業者には公知の多くのプロセッサ技術に基づいて実施することができる。プロセッサ202の例は、X86ベースのプロセッサ、X86−64ベースのプロセッサ、縮小命令セットコンピュータ(RISC)プロセッサ、特定用途向け集積回路(ASIC)プロセッサ、複合命令セットコンピュータ(CISC)プロセッサ、中央演算処理装置(CPU)、明示的並列命令コンピュータ(EPIC)プロセッサ、超長命令語(VLIW)プロセッサ、及び/又は他のプロセッサ又は制御回路とすることができる。
メモリ204は、プロセッサ202によって実行可能な機械コード及び/又は命令セットを格納するように構成可能な適切な論理部、回路、及び/又はインタフェースを含むことができる。メモリ204は、ユーザ112の取り込まれた画像又は映像、及び1又は2以上の着用可能デバイス108から受信したセンサデータを格納するように更に構成することができる。メモリ204は、アプリケーションインタフェース102c、並びに感情学習エンジン212及び推奨学習エンジン214に関連付けられた様々なデータ、機能、及び訓練データセットを格納するように更に構成することができる。メモリ204は、オペレーティングシステム及び関連するアプリケーションを格納するように更に構成することができる。メモリ204の例は、以下に限定されるものではないが、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、電気的消去可能プログラマブル読取専用メモリ(EEPROM)、ハードディスクドライブ(HDD)、固体ディスク(SSD)、CPUキャッシュ、及び/又はセキュアデジタル(SD)カードを含むことができる。
I/Oデバイス206は、ユーザ112等の1又は2以上のユーザから入力を受信するように構成可能な適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。I/Oデバイス206は、1又は2以上のユーザに出力を提供するように更に構成することができる。I/Oデバイス206は、プロセッサ202と通信するように作動可能である場合がある様々な入力デバイス及び出力デバイスを含むことができる。入力デバイスの例は、以下に限定されるものではないが、画像取り込みユニット102a、タッチスクリーン、キーボード、赤外線センサ、マウス、ジョイスティック、マイクロフォン、運動センサ、光センサ、地理空間位置検出センサ等の1又は2以上のセンサ、及び/又はドッキングステーションを含むことができる。出力デバイスの例は、以下に限定されるものではないが、表示画面102b、プロジェクタ画面、及び/又はスピーカを含むことができる。
感情操作回路208は、画像取り込みユニット102aによって取り込まれた1又は2以上の画像又は映像を処理するように構成可能な適切な論理部、回路、及び/又はインタフェースを含むことができる。感情操作回路208は、ユーザ112の感情状態の移行を検出するために、ユーザ112に関連付けられた1又は2以上の着用可能デバイス108から受信したセンサデータを処理するように更に構成することができる。感情操作回路208は、取り込まれた1又は2以上の画像、映像、及び/又はセンサデータの処理に基づいて、ユーザ112の感情状態の移行を連続的に検出するように構成することができる。感情操作回路208は、第2感情状態に関連付けられたある一定の画像フレーム等のコンテンツ項目のある一定の部分内で検出された第2感情状態への移行の原因を識別するように更に構成することができる。
実施形態により、感情操作回路208は、プロセッサ202の一部とすることができる。これに代えて、感情操作回路208は、第1電子デバイス102内の個別のプロセッサ又は回路として実施することができる。実施形態により、感情操作回路208及びプロセッサ202は、感情操作回路208及びプロセッサ202の機能を実行する統合プロセッサ又はプロセッサのクラスターとして実施することができる。実施形態により、感情操作回路208は、プロセッサ202による実行時に第1電子デバイス102の機能を実行することができるメモリ204内に格納された命令セットとして実施可能である。
ネットワークインタフェース210は、第2電子デバイス104、1又は2以上の着用可能デバイス108、及びサーバ106と(図1に示すような)通信ネットワーク110を通じて通信するように構成可能な適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。ネットワークインタフェース210は、通信ネットワーク110との第1電子デバイス102の有線又は無線通信をサポートするために公知の技術を実施することができる。ネットワークインタフェース210は、以下に限定されるものではないが、アンテナ、無線周波数(RF)送受信機、1又は2以上の増幅器、チューナ、1又は2以上の発振器、デジタルシグナルプロセッサ、符号器−復号器(CODEC)チップセット、加入者識別モジュール(SIM)カード、及び/又はローカルバッファを含むことができる。ネットワークインタフェース210は、有線又は無線通信を通じて通信ネットワーク110と通信することができる。無線通信は、移動通信用グローバルシステム(GSM)、強化データGSM環境(EDGE)、広帯域符号分割多元接続(W−CDMA)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、Bluetooth、ロングタームエボリューション(LTE)、Wireless Fidelity(Wi−Fi)(IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、及び/又はIEEE 802.11n等)、Light−Fidelity(Li−Fi)、voice over Internet Protocol(VoIP)、Wi−Max、電子メールのためのプロトコル、インスタントメッセージ、及び/又はショートメッセージサービス(SMS)等の通信規格、プロトコル、及び技術のうちの1又は2以上を使用することができる。
感情学習エンジン212は、ユーザ112等のヒト対象者の様々な感情を複数の感情状態114のうちの1つに分類するように構成可能な機械学習モデルとすることができる。実施形態により、感情学習エンジン212は、履歴データに基づいて訓練された分類器とすることができる。分類器又は感情学習エンジン212を訓練するのに利用可能な1又は2以上の技術の例は、以下に限定されるものではないが、サポートベクトル機械(SVM)、ロジスティック回帰、ベイズ分類器、決定木分類器、連結詞ベースの分類器、K最近傍(KNN)分類器、又はランダムフォレスト(RF)分類器を含む。
実施形態により、訓練ステージにおいて、感情学習エンジン212を用いて複数の感情状態114に数値を割り当てることができる。例えば、感情は、「0=平常、1=怒り、2=軽蔑、3=嫌悪、4=恐怖、5=嬉しさ、6=悲しさ、7=驚き」のような複数の感情状態114のうちの1つに分類することができる。複数の感情状態114の各々は、更に、5.1、5.2、5.3、...、5.9等の嬉しさのレベル(又はスケール)を表すことができる様々なレベルに細分類することができ、この場合の5.1は、嬉しさを示すことができ、5.9は、興奮しているなどのこの順序において最高レベルの嬉しさを示すことができる。同様に、1.9は、激怒を示すことができる。嬉しい感情、悲しい感情、又は怒りの感情のような様々な感情を検出するために、感情学習エンジン212は、事前に訓練することができる。
推奨学習エンジン214は、第1電子デバイス102において、発生された推奨のユーザ112による使用パターンに関連付けられた機械学習に基づいて、発生された推奨を更新するように構成可能な別の機械学習モデルとすることができる。推奨学習エンジン214を訓練するのに利用可能な1又は2以上の技術の例は、以下に限定されるものではないが、線形回帰ベースの方法、ニューラルネットワーク、ベイジアンネットワーク、サポートベクトル機械(SVM)、決定木ベースの方法、及び/又は最近傍ベースの方法を含むことができる。
作動中に、プロセッサ202は、第1電子デバイス102上でコンテンツ項目を視聴しているユーザ112の1又は2以上の画像又は映像を画像取り込みユニット102aを用いて取り込むように構成することができる。感情操作回路208は、ユーザ112がコンテンツ項目を視聴中にユーザ112の生理的特性及び/又は行動的特性を連続的にモニタするように構成することができる。実施形態により、ユーザ112の生理的特性及び/又は行動的特性は、顔面表情、手又は顔の動き、ユーザの座位、身体姿勢、及び/又は声紋に対応する場合がある。単独又は組合せのいずれかで得られたこのような生理的特性及び/又は行動的特性は、ユーザ112の現在の感情状態検出での精度の改善をもたらすことができる。ユーザ112の生理的特性及び/又は行動的特性は、ユーザ112の取り込まれた1又は2以上の画像又は映像の分析に基づいてモニタすることができる。
実施形態により、プロセッサ202は、ユーザ112の生理的特性及び/又は行動的特性をモニタ又は追跡するために1又は2以上の着用可能デバイス108からセンサデータを受信するように構成することができる。センサデータは、血圧、発汗、心拍数、及び体温など等の様々な人間の生理的パラメータの測定値に対応する場合がある。例えば、1又は2以上のファクタの分析に基づいて画像処理技術を用いて検出される悲しさ又は不安の感情状態は、高い発汗率との組合せで高い不安レベルを裏付けることができる。
実施形態により、感情操作回路208は、ユーザ112の平常等の第1感情状態から嬉しさ、怒り、又は興奮等の第2感情状態への感情状態の移行を検出するように構成することができる。第1感情状態及び第2感情状態は、複数の感情状態114に対応する場合がある。
実施形態により、感情操作回路208は、第1電子デバイス102上でのコンテンツ項目の視聴中に平常から悲しさ、怒り、軽蔑、恐怖、驚き、困惑、優しさ等の他のピーク感情へのユーザ112の感情状態の様々な移行を検出するように構成することができる。例えば、平常の感情状態から嬉しい感情状態へのユーザ112の感情状態の第1の移行は、第1時間インスタンスで検出することができる。同様に、平常の感情状態から怒りの感情状態へのユーザ112の感情状態の第2の移行は、コンテンツ項目を視聴している第2時間インスタンスで検出することができる。実施形態により、複数のユーザは、第1電子デバイス102上でコンテンツ項目を同時に視聴している場合がある。このような実施形態において、感情操作回路208は、第1電子デバイス102上でコンテンツ項目を視聴している複数のユーザの感情を同時にモニタして感情状態の移行を検出するように構成することができる。例えば、複数のユーザは、グループ討論をする場合がある。感情操作回路208は、グループ討論の録音された音声に基づいて、及び/又はグループ内の各ユーザに関連付けられた1又は2以上の着用可能デバイス108から取り込まれた生理的パラメータに基づいて、感情を同時にモニタして感情状態の移行を検出するように構成することができる。その後、検出された移行に従って推奨を発生させることができ、TV又はディスプレイデバイス等の共通のメディア画面に表示することができ、又はグループ内の各ユーザに関連付けられたスマート腕時計又はスマートフォン等の個々のデバイスに通信することができる。
実施形態により、感情操作回路208は、第1電子デバイス102上でのコンテンツ項目の視聴中にユーザ112の第2感情状態のレベルを決定するように構成することができる。決定されるレベルは、ユーザ112がコンテンツ項目を視聴している間の嬉しいから非常に嬉しい、興奮又は歓喜状態までのような特定の感情状態のスケールに対応する場合がある。決定されるレベルは、ユーザ112が第1コンテンツ項目を視聴している嬉しい(スケール5.1)から非常に嬉しい(スケール5.5)、興奮又は歓喜(スケール5.9)までのような特定の感情状態のスケール(「n.1」から「n.9」まで等。n=検出された特定の感情状態のための数値識別子)に対応する場合がある。同様に、検出される他の感情状態、感情状態のレベルを検出することができる。例えば、悲しい感情の様々なレベルは、6.1(退屈な状態を示す)、6.2から6.3(悲しい状態)、6.4から6.6(非常に悲しい状態)、及び6.7から6.9(最終的の悲嘆及び悲痛)のようにスケーリングすることができる。
実施形態により、感情操作回路208は、検出された移行中に視聴されたコンテンツ項目の一部分をユーザ112の第2感情状態に関連付けるように構成することができる。決定されたレベルが閾値よりも高い時に、コンテンツ項目のその部分は、第2感情状態に関連付けることができる。
実施形態により、感情操作回路208は、第2感情状態に関連付けられたコンテンツ項目のその部分内で検出された第2感情状態への移行の原因を識別するように構成することができる。第1コンテンツ項目のその部分内で識別される原因は、第1コンテンツ項目のその部分の画像フレーム、画像フレーム内の物体、コンテキスト、又はテーマに対応する場合がある。言い換えれば、視聴されるコンテンツにおいて興奮した感情状態等の第2感情状態への検出された移行の実際の又は正確な原因が何であるかを識別することができる。視聴されたコンテンツは、画像処理に基づいて分析され、感情状態の移行を引き起こした部分から画像フレーム内の1又は2以上の物体を識別することができる。例えば、「ジェームズボンド」映画を見ている1個人は、「スマートフォン又はオメガ腕時計」等の物体を見て興奮する場合があるのに対して、同じ「ジェームズボンド」映画を見ている別の個人は、「globe−trotter」のバッグ又はカメラのような特定の製造業者銘柄の製品を見て興奮する場合がある。
実施形態により、プロセッサ202は、コンテンツ項目のその部分内で識別された原因を1又は2以上のパラメータにタグ付けするように構成することができる。1又は2以上のパラメータは、第2感情状態、ユーザ112のユーザID等のアイデンティティ情報、検出された移行のタイムスタンプ、及び/又は第2感情状態の決定されたレベルとすることができる。プロセッサ202は、コンテンツ項目のその部分内でタグ付けされた原因(又は第2感情状態に関連付けられてタグ付けされたコンテンツ)をサーバ106、又は第1電子デバイス102に通信的に結合されたネットワークデバイスにネットワークインタフェース210を通じて通信するように構成することができる。
実施形態により、プロセッサ202は、第2感情状態に関連付けられてタグ付けされた原因に関連する製品又はサービスをリアルタイム又はほぼリアルタイムで検索するように構成することができる。検索は、タグ付けされた原因に基づいて、事前指定された検索エンジンを用いて実行することができる。タグ付けされた原因に関する検索は、インターネット検索エンジンを通じたグローバル検索又は予め決められた設定によるローカル検索とすることができる。
実施形態により、プロセッサ202は、ユーザ112の検出された感情状態の移行及び第1電子デバイス102の現在位置に応答して、識別された原因に基づいて製品又はサービスのための推奨を発生させるように構成することができる。プロセッサ202は、第1電子デバイス102、又は第1電子デバイス102に通信的に結合された第2電子デバイス104等の別の電子デバイス上で製品又はサービスに関して発生された推奨の表示を制御するように構成することができる。実施形態により、プロセッサ202は、発生された推奨の使用パターンに関連付けられた機械学習に基づいて、推奨学習エンジン214を用いて、発生された推奨を更新するように構成することができる。
実施形態により、第1電子デバイス102で検出された第2感情状態への移行は、スマートフォン等の第2電子デバイス104に通信することができる。第2電子デバイス104のホーム画面インタフェースがアンロックされる前でさえも、第2電子デバイス104は、第1電子デバイス102で以前に検出された第2感情状態をユーザ112が第2電子デバイス104で維持するように、事前インストールされたアプリケーションから取り出されたどのコンテンツ、アプリケーション、壁紙、派生データが適切であるかを決定することができる。複数の電子デバイス間での感情状態のこのようなシームレスな維持又は担持は、第2感情状態のような最後に検出された感情状態が悲しさのような否定的な感情ではなく嬉しさのような肯定的な感情である時に行うことができる。
実施形態により、プロセッサ202は、ユーザ112の感情状態の移行の検出に基づいて、第1電子デバイス102上に現在表示されているコンテンツ項目の表示を動的に変更するように構成することができる。例えば、ユーザ112は、TV等の第1電子デバイス102で映画を視聴している場合がある。第1電子デバイス102は、ユーザ112が、平常の感情状態からユーザ112が映画を観るのが退屈になるなどの悲しい感情状態に移行するのを検出することができる。このようなシナリオでは、第1電子デバイス102は、悲しい感情状態を打開するのに適する別の映画を自動的に再生することができる。同様に、ユーザ112が眠気を感じていると識別されると、第1電子デバイス102は、自動的に自己の電源を切ることができる。これに代えて、ユーザ112が興奮した感情状態にあることが検出されると、興奮の瞬間は、ユーザ112のソーシャルネットワークプロファイルで共有することができる。これは、第1電子デバイス102によって提供されるようなユーザ112との感情的な結びつきである「感動」体験と呼ぶことができる。
別の例では、ユーザ112は、TV等の第1電子デバイス102上で映画を視聴している場合がある。第1電子デバイス102は、平常又は悲しい感情状態から嬉しい感情状態のような肯定的な感情状態に移行するのを検出することができる。このようなシナリオでは、第1電子デバイス102は、ユーザ112に関連付けられた第2電子デバイス104等の複数の他のデバイスのホーム画面を自動的に変更することができる。例えば、ホーム画面の変更アクションは、ユーザ112に関連付けられたスマート腕時計、スマートフォン、又はあらゆる他のアクティブかつ使用中のデバイス等の現在作動中のデバイス又はアクティブなデバイスに同時に適用することができる。
実施形態により、ユーザ112の検出された感情状態の移行に応答して、識別された原因に基づいて、製品又はサービスのための推奨の発生及び表示は、選択されたモードに基づいて制御することができる。ユーザ112等のユーザは、表示画面102b上にレンダリングされたアプリケーションインタフェース102cを用いて、第1電子デバイス102等の電子デバイス上で複数のモードから特定のモードを選択することができる。複数のモードは、楽しみモード、健康モード、平和モード、又は通常モードを含むことができる。楽しみモードは、ユーザ112によって所望されるような楽しみ関連の推奨の発生に関連付けられた構成設定を指す場合がある。例えば、ジョークアプリケーションにリンクされたジョークアプリケーションアイコンは、表示画面102b上にレンダリングすることができ、これは、悲しい感情状態に対して適切とすることができる。健康モードは、健康の維持を手助けし又は健康を促進する推奨の発生を指すことができる。例えば、プロセッサ202は、ユーザ112の積極的な気分を促すために特定のパズルゲームを解くための推奨を発生させるように構成することができる。これは、退屈な感情状態が検出される場合に行うことができる。別の例では、第1電子デバイス102のホーム画面上に様々なやる気を引き起こす格言を表示することができる。実施形態により、表示される格言の種類は、悲しい感情状態等の特定の感情状態の決定されたレベルに基づいて動的に変更することもできる。スケール6.1(退屈な状態)から6.9(最終的の悲嘆状態)等の異なるレベルに関して、異なる種類の格言を表示することができる。平和モードは、怒っている人を落ち着かせるように試み、リラックスする体験を与える推奨の発生を指す場合がある。例えば、プロセッサ202は、静かな音楽(メロディー曲等)を再生し、再生される静かな音楽のある一定の部分を第1電子デバイス102上に表示するための推奨を発生させるように構成することができる。これは、怒りの感情状態が検出される場合に、ユーザ112を平和な状態に落ち着かせるために行うことができる。通常モードは、楽しみモード、平和モード、及び通常モード等のユーザ指定で制御されるモードに関係なく、全タイプの推奨を発生させるためのデフォルトモードである。様々な感情状態における推奨の発生の様々な他の例について、図5A及び5Bでより詳細に説明する。
実施形態により、図1に示すような第1電子デバイス102によって実行される機能又は作動は、プロセッサ202及び/又は感情操作回路208によって実行することができる。プロセッサ202及び/又は感情操作回路208によって実行される他の作動については、図4A、7A、及び7Bの描写から理解することができる。
図3は、本発明の開示の実施形態によるユーザの感情状態検出に基づいて推奨を提供するための別の例示的電子デバイスのブロック図を示している。図1及び2の要素に関連して図3を説明する。図3を参照すると、第2電子デバイス104が示されている。第2電子デバイス104の構成要素は、第1電子デバイス102の構成要素に類似することができる。第2電子デバイス104は、プロセッサ302等の1又は2以上のプロセッサと、メモリ304と、I/Oデバイス306等の1又は2以上の入出力(I/O)デバイスと、感情操作回路308と、感知デバイス310と、ネットワークインタフェース312とを含むことができる。メモリ304は、感情学習エンジン314及び推奨学習エンジン316を含むことができる。更に、I/Oデバイス206内には画像取り込みユニット104a、表示画面104b、及びアプリケーションインタフェース104cが示されている。
プロセッサ302は、メモリ304、I/Oデバイス306、感情操作回路308、感知デバイス310、及びネットワークインタフェース312と通信的に結合することができる。ネットワークインタフェース312は、プロセッサ202の制御の下で通信ネットワーク110を通じて第1電子デバイス102等のネットワークデバイスと通信することができる。
プロセッサ302は、メモリ304内に格納された命令セットを実行するように構成可能な適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。プロセッサ302の例は、プロセッサ202の例に類似とすることができる。メモリ304は、プロセッサ302によって実行可能な機械コード及び/又は命令セットを格納するように構成可能な適切な論理部、回路、及び/又はインタフェースを含むことができる。メモリ304は、事前インストールされたアプリケーションに関連付けられたアプリケーションインタフェース104c及び感情学習エンジン314を格納するように更に構成することができる。メモリ304は、オペレーティングシステム及び関連するアプリケーションを格納するように更に構成することができる。メモリ304の例は、メモリ204の例に類似とすることができる。
I/Oデバイス306は、ユーザ112等の1又は2以上のユーザから入力を受信するように構成可能な適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。I/Oデバイス306は、1又は2以上のユーザに出力を提供するように更に構成することができる。入力デバイスの例は、以下に限定されるものではないが、画像取り込みユニット104a、タッチスクリーン、キーボード、赤外線センサ、マウス、マイクロフォン、運動センサ、光センサ、及び/又はドッキング・ステーションを含むことができる。出力デバイスの例は、以下に限定されるものではないが、表示画面104b、プロジェクタ画面、及び/又はスピーカを含むことができる。
感情操作回路308は、画像取り込みユニット104aによって取り込まれた1又は2以上の画像又は映像を処理するように構成可能な適切な論理部、回路、及び/又はインタフェースを含むことができる。感情操作回路308は、感情操作回路208の実施と類似に実施することができる。
感知デバイス310は、物理的又は定量的属性を検出して、対応する出力をセンサデータとして提供するために適切な論理部、回路、インタフェース、及び/又はコードを含む1又は2以上のセンサを含むことができる。物理的又は定量的属性は、以下に限定されるものではないが、方位、運動、接触、近接性、地磁気場、屋内測位、及び/又は周囲照明を含むことができる。感知デバイス310内の1又は2以上のセンサは、第2電子デバイス104のジオロケーションを検出するように構成することができる。1又は2以上のセンサの例は、以下に限定されるものではないが、加速度計、全地球測位システム(GPS)センサ、屋内測位システム、コンパス又はマグノメータ、周囲照明センサ、トライコーダ、ジャイロスコープ、近接センサ、画像センサ、照度計、タッチセンサ、及び/又は赤外線センサを含むことができる。
ネットワークインタフェース312は、(図1に示すような)通信ネットワーク110を通じて第1電子デバイス102、1又は2以上の着用可能デバイス108、及びサーバ106と通信するように構成可能な適切な論理部、回路、インタフェース、及び/又はコードを含むことができる。ネットワークインタフェース312は、ネットワークインタフェース210と類似する無線通信のための公知の技術を実施することができる。
感情学習エンジン314は、ユーザ112等のヒト対象者の様々な感情を複数の感情状態114のうちの1つに分類するように構成可能な機械学習モデルとすることができる。感情学習エンジン314は、第1電子デバイス102の感情学習エンジン212(図2)に類似とすることができる。
推奨学習エンジン316は、第2電子デバイス104において、発生された推奨のユーザ112による使用パターンに関連付けられた機械学習に基づいて、推奨を発生又は発生された推奨を更新するように構成可能な別の機械学習モデルとすることができる。感情操作回路308は、今後のために第2電子デバイス104のホーム画面インタフェースのカスタマイズに関する推奨及びユーザ体験の発生を即興で行うための作動中にユーザ112の感情状態の移行又は変化を連続的に機械学習するように構成することができる。推奨学習エンジン316は、第1電子デバイス102の推奨学習エンジン214(図2)に類似することができる。
作動中に、プロセッサ302は、第2電子デバイス104の画像取り込みユニット104a等の内蔵カメラを用いてユーザ112の1又は2以上の画像又は映像を受信するように構成することができる。感情操作回路308は、受信したユーザ112の1又は2以上の画像又は映像内のユーザ112の生理的特性及び/又は行動的特性の分析に基づいてユーザ112の感情をモニタするように構成することができる。実施形態により、感情操作回路308は、精度を改善するために感情学習エンジン314を利用してユーザ112の感情をモニタするように構成することができる。
実施形態により、プロセッサ302は、ネットワークインタフェース312を通じて1又は2以上の着用可能デバイス108からセンサデータを受信するように構成することができる。1又は2以上の着用可能デバイス108は、第2電子デバイス104に通信的に結合することができる。心拍数又は発汗値等のユーザ112の受信するセンサデータは、ユーザ112の感情状態の移行の検出に利用することができる。更に、実施形態により、プロセッサ302はまた、ユーザ112の感情状態の移行の検出のために、第2電子デバイス104上のテキストベースの入力及び/又は音声ベースの入力を利用することができる。
実施形態により、感情操作回路308は、第2電子デバイス104に関連付けられたユーザ112の第1感情状態から第2感情状態への感情状態の移行を検出するように構成することができる。プロセッサ302は、1又は2以上の着用可能デバイス108から受信するセンサデータ、ユーザ112の1又は2以上の受信した画像又は映像、及び/又は受信したテキストベースの入力及び/又は音声ベースの入力に基づいてユーザ112を識別するように構成することができる。
実施形態により、プロセッサ302は、ユーザ112の検出された第2感情状態に関連付けられてタグ付けされたコンテンツ項目をネットワークインタフェース312を通じてネットワークデバイスから取り出すように構成することができる。検出された第2感情状態に関連付けられてタグ付けされたコンテンツ項目は、ユーザ112のアイデンティティ情報及び検出された移行に基づいて取り出すことができる。ネットワークデバイスは、サーバ106、通信ネットワーク110等の無線ホームネットワーク内で第2電子デバイス104に接続した第1電子デバイス102等の別の電子デバイス、及び/又は他の加入済みのクラウドベースのサービスに対応する場合がある。
実施形態により、プロセッサ302は、第2電子デバイス104で取り出されたタグ付きコンテンツ項目に基づいて1又は2以上の製品又はサービスを検索するように構成することができる。実施形態により、プロセッサ302は、取り出されたタグ付きコンテンツ項目に関連する少なくとも1つの製品又はサービスを推奨するために、第2電子デバイス104上でアプリケーションを起動するように構成することができる。アプリケーションは、ユーザ112の検出された感情状態の移行及び第2電子デバイス104の現在位置に応答して起動することができる。
実施形態により、ユーザ112の検出された感情状態の移行に基づいて、取り出されたタグ付きコンテンツ項目に関連する製品だけでなく、様々なサービスに関しても推奨を発生させることができ、又はユーザ112のリアルタイム又はほぼリアルタイムの支援のために関連情報を提供することができる。例えば、ユーザ112が、第1の都市から第2の都市に移動中とする。ユーザ112は、ハイウェイが保守作業のために通行止めになっているのを見出す場合がある。ユーザ112は、スマートフォン等の第2電子デバイス104をアンロックすることができる。アンロック時に、ユーザ112の感情状態は、「困惑している」と認識することができる。このようなシナリオでは、第2電子デバイス104のアプリケーションインタフェース104cのホーム画面は、価値を付加してユーザ体験を高めることができる特定の推奨を発生させてそれを提供することができる。推奨学習エンジン316を用いて発生される推奨の例は、「X氏がこの地域を最近通過したので、タップして「X氏」に電話する」とすることができる。「X氏」は、ソーシャルネットワークアプリケーションのユーザ112のソーシャルネットワークプロファイルから検出されたユーザ112の友人とすることができ、携帯電話番号は、連絡先アプリケーションから取り出すことができる。別の推奨は、「A氏」及び「B氏」(友人)が、この近くに住んでいます。道案内をしてもらうために彼らに相談する」とすることができる。別の推奨又はアクションは、事前ロードされた代替ルートを含む地図アプリケーションの表示とすることができる。同じ感情状態に関して、推奨は、以前のユーザ体験、使用パターン、及びネットワークデバイス又はサーバ108等のクラウドベースのサービスから取り出された入力に基づく新しい学習次第で変えることができる。
実施形態により、第2電子デバイス104のプロセッサ302は、第2電子デバイス104のホーム画面インタフェースを動的にカスタマイズするように構成することができる。ホーム画面インタフェースは、ユーザ112の検出された感情状態の移行、及び第1電子デバイス102等のネットワークデバイス内で第2感情状態に関連付けられて最後にタグ付けされたコンテンツ項目に基づいてカスタマイズすることができる。例えば、第2電子デバイス104は、ユーザ112の検出された感情状態の移行、及び第1電子デバイス102等のネットワークデバイス上での最近のアクションに基づいて、ホーム画面インタフェース上の壁紙を自動的に変更するように構成することができる。例えば、最近のアクションは、ウェブ閲覧、TV視聴とすることができる。
実施形態により、怒り又は嬉しさ等のユーザ112の検出された現在の感情状態、及び推奨学習エンジン316を用いて以前に機械学習されたユーザ体験に基づいて、電話連絡先アプリケーション、地図、ソーシャルネットワークアプリケーションを関連データと共に事前ロードすることができる。従って、ユーザインタフェースがアプリケーションのためにカスタマイズされるだけでなく、アプリケーションに関連付けられたデータは、ユーザ112の検出された現在の感情状態により分析、配置、及び/又はカスタマイズすることができる。これらの特徴をより詳細に説明するために、例示的シナリオを図5A及び5Bに示して説明する。
実施形態により、図1に示すような第2電子デバイス104によって実行される機能又は作動は、プロセッサ302及び/又は感情操作回路308によって実行することができる。プロセッサ302及び/又は感情操作回路308によって実行される他の作動については、図4B、5A、5B、及び6の描写から理解することができる。
図4A及び図4Bは、本発明の開示の実施形態による感情状態検出に基づいて電子デバイス上で推奨を提供するための開示するシステム及び方法の実施のための第1の例示的シナリオを集合的に示している。図1、2、及び3の要素に関連して図4A及び図4Bを説明する。図4Aを参照すると、TV等の第1電子デバイス102が、画像取り込みユニット102a、表示画面102b、及びアプリケーションインタフェース102cと共に示されている。アプリケーションインタフェース102cを通じて表示画面102b上にレンダリングされたビデオ402等のコンテンツ項目が更に示されている。更に、ビデオ402の第1部分402aが示されている。更に、第1物体404a、第2物体404b、及びイベント406が、ユーザ112の興奮した感情状態の考えられる識別された原因として示されている。ユーザ112に関連付けられたスマートバンド408、レベル410、及びユーザ識別子(ID)412も示されている。
第1の例示的シナリオによれば、第1電子デバイス102は、スマートTV又はタブレットデバイスとすることができる。スマートバンド408は、1又は2以上の着用可能デバイス108に対応することができる。ユーザ112は、第1電子デバイス102上でビデオ402を視聴中とすることができる。ビデオ402は、第1電子デバイス102のブラウザ等のアプリケーションインタフェース102cを通じて再生することができる。
実施形態により、ユーザ112の映像は、画像取り込みユニット102aによって取り込むことができる。実施形態により、第1電子デバイス102の感情操作回路208は、スマートバンド408からセンサデータを受信するように構成することができる。感情操作回路208は、ユーザ112の平常の感情状態「0」等の第1感情状態から嬉しさの感情状態「5」等の第2感情状態への感情状態の移行を検出するように構成することができる。第1電子デバイス102上でビデオ402を視聴しているユーザ112の第2感情状態への移行は、ビデオ402の再生時間12分2秒「00:12:02」と12分4秒「00:12:04」の間に検出することができる。ユーザ112の感情状態の移行の検出時間において第1電子デバイス102上で再生されたコンテンツは、ビデオ402の第1部分402a等のある一定の部分で検出された移行の原因を識別するために有用とすることができる。
第2感情状態への移行の検出の前後2秒のような予め決められた期間は、検出された移行の原因を識別するための更に別の分析のために考慮に入れることができる。従って、(示すような)タイムスタンプ「00:12:00」から始まり「00:12:06」までの「180」個の画像フレームシーケンスを含むことができるビデオ402の第1部分402aは、分析目的に使用することができる。「180」個の画像フレームの第1部分402aは、検出された嬉しい感情状態を表すことができる数値「5」に関連付けることができる。更に、感情操作回路208は、ユーザ112の嬉しい感情状態等の第2感情状態の数値「5.9」のようなレベル410を決定するように構成することができる。スケール「5.9」のレベル410は、ビデオ402の第1部分402aを視聴しているユーザ112の興奮又は歓喜状態を示すことができる。決定されたレベル410が閾値を超える時に、ビデオ402の第1部分402を興奮した感情状態に関連付けることができる。
実施形態により、第1電子デバイス102の感情操作回路208は、第1物体404a、第2物体404b、及びイベント406(コンテキスト等)を第1部分402aにおいて考えられる原因として識別するように構成することができる。第1物体404aは、ビデオ402内の有名な人物「ジェームズボンド」等の登場人物とすることができる。第2物体404bは、登場人物が保持する特定の製造業者銘柄のカメラとすることができる。イベント406は、カメラ等の第2物体404bを用いた乱闘シーン等のある一定のアクションシーンを指す場合がある。
実施形態により、第1電子デバイス102のプロセッサ202は、第1物体404a、第2物体404b、及びイベント406、及び/又はビデオ402の第1部分402aの1又は2以上の画像フレーム等の識別された原因を1又は2以上のパラメータにタグ付けするように構成することができる。1又は2以上のパラメータは、興奮した感情状態、「5.9」等の決定されたレベル410、ユーザ112のユーザID412等のアイデンティティ情報、及び/又は検出された移行のタイムスタンプとすることができる。
実施形態により、第1電子デバイス102のプロセッサ202は、タグ付けされたコンテンツ(第1物体404a、第2物体404b、及びイベント406(メタデータ、及び/又は第1部分402aの1又は2以上の画像フレームとすることができる)をネットワークデバイスに通信するように構成することができる。ネットワークデバイスは、サーバ106等のクラウドサーバ、又は第1電子デバイス102に通信可能に接続したネットワークデバイスとすることができる。
実施形態により、第1電子デバイス102は、ユーザ112の検出された感情状態の移行に応答して、識別された原因に基づいて、製品又はサービスのための推奨を発生させるように構成することができる。例えば、TV又はタブレットデバイス等の第1電子デバイス102上に表示されるその後の広告は、それを見てユーザ112に興奮を生じさせるか又は引き起こした製造業者銘柄のカメラ等の第2物体404bに関連付けることができる。
実施形態により、推奨を発生させる代わりに、第1電子デバイス102は、イベント406又は第1物体404aに関連付けられた別のビデオを自動的に表示するように構成することができる。更に、実施形態により、第1電子デバイス102は、第1部分402aと共に「このビデオを見てワクワクしています」等の興奮の瞬間をユーザ112に関連付けられたソーシャルプロファイルで共有するように構成することができる。共有は、推奨学習エンジン316の結果に基づいて、ユーザ112が最近第1電子デバイス102上で特定のビデオを視聴中に興奮したなどの類似するシナリオの下でのユーザ112の以前のアクションに基づいて実行することができる。実施形態により、発生される推奨の最終消費者は、第2電子デバイス104とすることができる。このような実施形態において、第1電子デバイス102上では推奨が発生されない場合がある。
4Bを参照すると、第2電子デバイス104が、画像取り込みユニット104a、表示画面104b、及びアプリケーションインタフェース104cと共に示されている。更に、アプリケーションインタフェース104c上には、第1物体404a及び第2物体404bに関連付けられた第1推奨414及び第2推奨416が示されている。
第1の例示的シナリオによれば、第2電子デバイス104は、スマートフォンとすることができる。ユーザ112は、第1の場所に配置することができる第1電子デバイス102から離れて移動する場合がある。例えば、ユーザ112は、ビデオ402を見る数日又は1ヶ月のようなある一定の期間後に友人の家又は新しい都市のような第2の場所を訪問しなければならない(図4A)。
実施形態により、スマートフォン等の第2電子デバイス104の感情操作回路308は、第2電子デバイス104に関連付けられたユーザ112の平常等の第1感情状態から興奮等の第2感情状態への感情状態の移行を検出するように構成することができる。第2電子デバイス104は、ユーザ112の感情状態の移行の検出のために、ユーザ112に関連付けられたスマートバンド408、及び/又は第2電子デバイス104の画像取り込みユニット104a等の内蔵カメラから受信したデータを利用することができる。
実施形態により、第2電子デバイス104は、スマートバンド408、画像取り込みユニット104aから受信したデータ、及び/又は受信したテキストベースの入力及び/又は音声ベースの入力に基づいて、ユーザID412「U001」等のユーザ112を識別するように構成することができる。実施形態により、スマートフォン等の第2電子デバイス104のプロセッサ302は、ユーザ112の検出された第2感情状態に関連付けられた1又は2以上のタグ付けされたコンテンツ項目をサーバ106等のネットワークデバイスから取り出すように構成することができる。第1物体404a及び/又は第2物体404b等の1又は2以上のタグ付けされたコンテンツ項目は、ユーザ112のユーザID「U001」等のアイデンティティ情報、及び興奮した感情状態等の第2感情状態への検出された移行に基づいて取り出すことができる。
実施形態により、第2電子デバイス104のプロセッサ302は、第2電子デバイス104で取り出された第1物体404a及び/又は第2物体404b等の1又は2以上のタグ付きコンテンツ項目に基づいて、1又は2以上の製品又はサービスを検索するように構成することができる。第2電子デバイス104のプロセッサ302は、取り出されたタグ付きコンテンツ項目に関連する少なくとも1つの製品又はサービスを推奨するために、第2電子デバイス104上でアプリケーションインタフェース104c等のアプリケーションを起動するように構成することができる。例えば、第1の推奨414は、起動したアプリケーションのアプリケーションインタフェース104cを通じてレンダリングすることができる。第1の推奨は、図示のように、第2電子デバイス104の第2の場所のような現在位置の周辺にある近隣施設又は「B」という店にある製造業者銘柄「X」のカメラ等の取り出された第2物体404bに関連付けられた値引き等の広告とすることができる。アプリケーションは、ユーザ112の興奮した感情状態への検出された感情状態の移行に応答して起動することができる。
別の例では、第2の推奨416は、起動したアプリケーションのアプリケーションインタフェース104cを通じてレンダリングすることができる。第2の推奨は、第2電子デバイス104の現在位置における第1物体404a等の取り出されたタグ付きコンテンツ項目に関連する広告、又は感情ベースの推奨の一部分、又は関連情報とすることができる。「登場人物「ジェームズボンド」等の〈第1物体404a〉に関連付けられた新しい映画を購入しませんか?」等の感情ベースの推奨を発生させてアプリケーションインタフェース104cを通じてレンダリングすることができる。第2電子デバイス104の現在位置で利用可能なオンラインウェブポータルへのリンク、又は第2電子デバイス104の第2位置のような現在位置の周辺にある近隣の物理的店舗「C」への地図も図示のようにレンダリングすることができる。
図5A及び5Bは、本発明の開示の実施形態による感情状態検出に基づいて電子デバイス上で推奨を提供するための開示するシステム及び方法の実施のための第2の例示的シナリオを集合的に示している。図1、2、3、4A、及び4Bの要素に関連して図5A及び図5Bを説明する。図5Aを参照すると、第2電子デバイス104上に第1のホーム画面502が示されている。更に、ユーザ112とユーザ112の母のような近い家族の第1ポートレート506とを含む第2のホーム画面504が、感情ベースの推奨508、及び音楽アプリケーションアイコン510a、ビデオストリーミングアプリケーションアイコン510b、ヨガアプリケーションアイコン510c、及び地図アプリケーションアイコン510d等の複数のアプリケーションアイコン510と共に示されている。
第2の例示的シナリオによれば、第2電子デバイス104は、スマートフォン又はタブレットデバイスとすることができる。作動中に、スマートフォン等の第2電子デバイス104の感情操作回路308は、第2電子デバイス104に関連付けられたユーザ112の平常等の第1感情状態から怒りの感情状態等の第2感情状態への感情状態の移行を検出するように構成することができる。次に、第2電子デバイス104のプロセッサ302は、ユーザ112の検出された感情状態の移行、及び第1電子デバイス102等のネットワークデバイス内で第2感情状態に関連付けられて最後にタグ付けされたコンテンツ項目に基づいて、第2電子デバイス104の第1ホーム画面インタフェース502を動的にカスタマイズすることができる。
ユーザ112の怒りの感情状態への移行が検出されるのに応答して、第2電子デバイス104のプロセッサ302は、第1ホーム画面502から第2ホーム画面504に動的に変更することができる。例えば、第1ポートレート506等の楽しそうな家族写真は、第2電子デバイス104の第2ホーム画面504上に自動的に設定することができる。「落ち着いて安全運転を」のような感情ベースの推奨508は、第2ホーム画面504上にレンダリングすることができる。
更に、音楽アプリケーションにリンクされた音楽アプリケーションアイコン510aは、怒りの感情状態に適切な瞑想楽曲と共に事前ロードすることができる。「YouTubeアプリケーション」等のビデオストリーミングアプリケーションにリンクされたビデオストリーミングアプリケーションアイコン510bは、検出された怒りの感情状態に応じてリラックス体験のために視覚的に心地よいビデオの推奨と共に事前ロードすることができる。カスタマイズの他の例は、ヨガアプリケーションにリンクされたヨガアプリケーションアイコン510c、並びにヨガアプリケーションアイコン510cの選択時にレンダリングされた筋肉をほぐすことができる運動に関連付けられたリアルタイムにカスタマイズされた推奨とすることができる。地図アプリケーションにリンクされた地図アプリケーションアイコン510dは、リラックスするのに適切な庭、湖、又はゲームセンター等の近隣の場所を訪ねるための推奨と共に事前ロードすることができる。
検出された感情状態の移行に基づく上述の第2電子デバイス104のホーム画面インタフェース上でのリアルタイム又はほぼリアルタイムのカスタマイズは、例示的ものであり、開示するシステム及び方法の実用性を示すために説明したことは理解されるものとする。しかし、本発明の開示の範囲は、上述の例に限定されず、図面を参照して本出願に説明したような本発明の開示の様々な態様に基づいて、他の類似のカスタマイズが当業者には明らかになるであろう。
図5Bを参照すると、第2電子デバイス104上に第3ホーム画面512が更に示されている。第3ホーム画面512上にある一定の配置でレンダリングされた壁紙514、ジョークアプリケーションアイコン510e、ゲームアプリケーションアイコン510f、音楽アプリケーションアイコン510a、及び地図アプリケーションアイコン510dが更に示されている。更に、電話アプリケーション516、電話アプリケーション516上の第1通話推奨518a及び第2通話推奨518bも示されている。
作動中に、スマートフォン等の第2電子デバイス104の感情操作回路308は、第2電子デバイス104に関連付けられたユーザ112の平常の感情状態から悲しい感情状態への感情状態の移行を検出するように構成することができる。次に、第2電子デバイス104のプロセッサ302は、第2電子デバイス104の(図5Aに示す)第1ホーム画面502を動的にカスタマイズすることができる。第1ホーム画面502は、ユーザ112の検出された感情状態の移行、及び第1電子デバイス102等のネットワークデバイス内で悲しい感情状態に関連付けられて最後にタグ付けされたコンテンツ項目に基づいて動的にカスタマイズすることができる。
ユーザ112の悲しい感情状態への移行が検出されるのに応答して、第2電子デバイス104のプロセッサ302は、第1ホーム画面502を第3ホーム画面512に動的に変更することができる。例えば、壁紙514のような気持ちの良い風景写真又は花の写真は、第3ホーム画面512上に自動的に設定することができる。次に、悲しい感情状態の場合に、音楽アプリケーションにリンクされた音楽アプリケーションアイコン510aは、悲しい感情状態に適切なメロディ楽曲と共に事前ロードすることができる。次に、地図アプリケーションにリンクされた地図アプリケーションアイコン510dは、悲しい感情状態を克服するために適切な友人の家のような近隣の場所を訪問するための推奨と共に事前ロードすることができる。カスタマイズの別の例は、悲しい感情状態の時にユーザ112によっていつも遊ばれるゲームアプリケーションにリンクされたゲームアプリケーションアイコン510fとすることができる。悲しい感情状態に適切とすることができるジョークアプリケーションにリンクされたジョークアプリケーションアイコン510eがレンダリングされる場合がある。
実施形態により、第2電子デバイス104の感情操作回路308は、ユーザ112の悲しい感情状態のレベルを決定するように構成することができる。「6.9」等の決定されたレベルのうちで数値「6」は悲しい感情状態を示し、小数値「.9」は、スケール「0から9」のうちで極度の悲しさのような高いレベルの悲しさを示している。このようなシナリオでは、決定されたレベルが閾値よりも高い時に、第1通話推奨518a及び第2通話推奨518bに示すように、親友、親族、又は家族に電話を掛けることを薦めるために電話アプリケーション516を起動することができる。従って、人間感情状態の移行をインテリジェントな方式で利用して、感情ベースの推奨に実用性の強化を与えることができる。
図6は、本発明の開示の実施形態によるユーザの感情状態検出に基づいて電子デバイス上で推奨を提供するための例示的方法を示す第1の流れ図を示している。図6を参照すると、流れ図600が示されている。図1、2、3、4B、5A、及び5Bの要素に関連して流れ図600を説明する。流れ図600による方法は、第2電子デバイス104等の電子デバイスに実施することができる。本方法は、段階602から開始され、段階604に進む。
段階604において、ユーザ112に関連付けられたセンサデータは、1又は2以上の着用可能デバイス108から受信することができる。実施形態により、テキストベースの入力及び/又は音声ベースの入力を電子デバイス(第2電子デバイス104等)上で受信することができ、これをユーザ112の感情状態の移行の検出に利用することができる。段階606において、ユーザ112の1又は2以上の画像又は映像は、画像取り込みユニット104a等の内蔵カメラから電子デバイス(第2電子デバイス104等)によって受信することができる。
段階608において、電子デバイス(第2電子デバイス104等)に関連付けられたユーザ112の第1感情状態から第2感情状態への感情状態の移行を検出することができる。第1感情状態及び第2感情状態は、複数の感情状態114のうちの平常、嬉しさ、悲しさ、怒り、軽蔑、恐怖、驚き、困惑、及び/又は優しさに対応することができる。段階610において、ユーザ112のアイデンティティ情報及び検出された移行に基づいて、ユーザ112の第2感情状態に関連付けられてタグ付けされたコンテンツ項目をネットワークデバイスから取り出すことができる。ネットワークデバイスは、サーバ106、無線ホームネットワーク(通信ネットワーク110等)内で第2電子デバイス104等の電子デバイスに接続した第1電子デバイス102等の別の電子デバイス、及び/又は他のクラウドベースのサービスに対応する場合がある。
段階612において、電子デバイス(第2電子デバイス104等)上で取り出されたタグ付きコンテンツ項目に基づいて、製品又はサービスを検索することができる。製品又はサービスの検索は、電子デバイス(第2電子デバイス104等)の現在位置に更に基づくことができる。段階614において、取り出されたタグ付きコンテンツ項目に関連する製品又はサービスを推奨するために、電子デバイス(第2電子デバイス104等)上でアプリケーションを起動することができる。アプリケーションは、ユーザ112の検出された感情状態の移行及び電子デバイス(第2電子デバイス104等)の現在位置に応答して起動することができる。
段階616において、電子デバイスの第1ホーム画面502等のホーム画面インタフェースは、ユーザ112の検出された感情状態の移行に基づいて動的にカスタマイズすることができる。電子デバイス(第2電子デバイス104等)のホーム画面インタフェースは、更に、ネットワークデバイス(第1電子デバイス102又はサーバ106等)内の第2感情状態に関連付けられて最後にタグ付けされたコンテンツ項目に基づいて動的にカスタマイズすることができる。第2ホーム画面504及び第3ホーム画面512等のカスタマイズされたホーム画面インタフェースの例については、図5A及び5Bに示して説明している。制御は、最終段階618に移ることができる。
図7A及び7Bは、本発明の開示の実施形態によるユーザの感情状態検出に基づいて電子デバイス上で推奨を提供するための別の例示的方法を示す第2の流れ図を集合的に示している。図7A及び7Bを参照すると、流れ図700が示されている。図1、2、及び4Aの要素に関連して流れ図700を説明する。流れ図700による本方法は、第1電子デバイス102等の電子デバイスに実施することができる。本方法は、702から開始され、段階704に進む。
段階704において、1又は2以上のコンテンツ項目は、電子デバイス(第1電子デバイス102等)によって受信することができる。段階706において、受信した1又は2以上のコンテンツ項目からのコンテンツ項目は、電子デバイス(第1電子デバイス102等)上にレンダリングすることができる。
段階708において、電子デバイス(第1電子デバイス102等)上にレンダリングされたコンテンツ項目を視聴しているユーザ112の1又は2以上の画像又は映像を受信することができる。1又は2以上の画像又は映像は、画像取り込みユニット102aを用いて受信することができる。段階710において、ユーザ112に関連付けられた1又は2以上の着用可能デバイス108(スマートバンド408等)からセンサデータを受信することができる。実施形態により、センサデータを受信しない場合がある。
段階712において、電子デバイス上にレンダリングされたコンテンツ項目を視聴しているユーザ112の第1感情状態から第2感情状態への感情状態の移行を検出することができる。段階714において、電子デバイス(第1電子デバイス102等)上にレンダリングされたコンテンツ項目の視聴中に、ユーザ112の第2感情状態のレベルを決定することができる。
段階716において、検出された移行中に視聴されたコンテンツ項目(ビデオ402等)の一部分(第1部分402a等)をユーザ112の第2感情状態に関連付けることができる。決定されたレベルが閾値よりも高い時に、コンテンツ項目のその部分を第2感情状態に関連付けることができる。段階718において、検出された第2感情状態への移行の原因は、第2感情状態に関連付けられたコンテンツ項目のその部分内で識別することができる。コンテンツ項目のその部分内で識別された原因は、コンテンツ項目のその部分の画像フレーム、画像フレーム内で検出される物体、及び/又はコンテキストに対応する場合がある。
段階720において、コンテンツ項目のその部分内で識別された原因は、第2感情状態、ユーザ112のアイデンティティ情報、検出された移行のタイムスタンプ、及び/又は第2感情状態の決定されたレベルにタグ付けすることができる。段階722において、コンテンツ項目のその部分内でタグ付けされた原因は、第1電子デバイス102等の電子デバイスに通信的に結合されたサーバ106又は第2電子デバイス104等のネットワークデバイスに通信することができる。
段階724において、第2感情状態に関連付けられてタグ付けされた原因に関連する製品又はサービスは、事前指定された検索エンジンを用いてリアルタイム又はほぼリアルタイムで検索することができる。第2感情状態に関連付けられてタグ付けされた原因に加えて、製品又はサービスの検索は、更に、電子デバイス(第1電子デバイス102等)の現在位置に基づくことができる。段階726において、識別された原因に基づいて、製品又はサービスに関して1又は2以上の推奨を発生させることができる。推奨は、ユーザ112の検出された感情状態の移行及び電子デバイス(第1電子デバイス102等)の現在位置に応答して発生させることができる。
段階728において、発生された1又は2以上の推奨は、発生された推奨の使用パターンに関連付けられた機械学習に基づいて更新することができる。プロセッサ202は、このような更新のために推奨学習エンジン214を利用するように構成することができる。段階730において、発生された1又は2以上の推奨を表示するために、第2電子デバイス104等の別の電子デバイスのホーム画面インタフェースをアンロックするようにこの別の電子デバイスに通知を通信することができる。
段階732において、製品又はサービスに関して発生された推奨の表示は、電子デバイス(第1電子デバイス102等)、又は電子デバイスに通信的に結合された別の電子デバイス(第2電子デバイス104等)上で制御することができる。制御は、最終段階734に移ることができる。
本発明の開示の実施形態により、ユーザの感情状態検出に基づいて電子デバイス上で推奨を提供するためのシステムを開示する。システム(第2電子デバイス104(図1)等)は、1又は2以上の回路(以降、プロセッサ302及び/又は感情操作回路308(図3)と呼ぶ)を含むことができる。感情操作回路308は、電子デバイスに関連付けられたユーザ(ユーザ112等)の第1感情状態から第2感情状態への感情状態の移行を検出するように構成することができる。プロセッサ302は、ユーザのアイデンティティ情報及び検出された移行に基づいて、ユーザの第2感情状態に関連付けられてタグ付けされたコンテンツ項目をネットワークデバイスから取り出すように構成することができる。プロセッサ302はユーザの感情状態の検出された移行及び電子デバイスの現在位置に応答して、取り出されたタグ付きコンテンツ項目に関連する製品又はサービスを推奨するために電子デバイス上でアプリケーションを起動するように更に構成することができる。
本発明の開示の実施形態により、ユーザの感情状態検出に基づいて電子デバイス上で推奨を提供するための別のシステムを開示する。システム(第2電子デバイス102(図1)等)は、1又は2以上の回路(以降、プロセッサ202及び/又は感情操作回路208(図2)と呼ぶ)を含むことができる。感情操作回路208は、電子デバイス(第1電子デバイス102等)上でコンテンツ項目を視聴しているユーザ(ユーザ112等)の第1感情状態から第2感情状態への感情状態の移行を検出するように構成することができる。感情操作回路208は、検出された移行中に視聴されたコンテンツ項目の一部分をユーザの第2感情状態に関連付けるように更に構成することができる。感情操作回路208は、検出された第2感情状態への移行の原因を第2感情状態に関連付けられたコンテンツ項目のその部分内で識別するように更に構成することができる。プロセッサ202はユーザの感情状態の検出された移行及び電子デバイス(第1電子デバイス102等)の現在位置に応答して、識別された原因に基づいて、製品又はサービスのための推奨を発生させるように構成することができる。
本発明の開示の様々な実施形態は、機械コードが格納され、及び/又はユーザの感情状態検出に基づいて推奨を提供するために機械及び/又はコンピュータによって実行可能な命令セットを有する非一時的コンピュータ可読媒体及び/又はストレージ媒体、及び/又は非一時的機械可読媒体及び/又はストレージ媒体を提供することができる。命令セットは、電子デバイス(第2電子デバイス104等)に関連付けられたユーザ(ユーザ112等)の第1感情状態から第2感情状態への感情状態の移行の検出を含む段階を機械及び/又はコンピュータに実行させることができる。ユーザのアイデンティティ情報及び検出された移行に基づいて、ユーザの第2感情状態に関連付けられてタグ付けされたコンテンツ項目は、ネットワークデバイスから取り出すことができる。取り出されたタグ付きコンテンツ項目に関連する製品又はサービスを推奨するために、電子デバイス上でアプリケーションを起動することができる。アプリケーションはユーザの感情状態の検出された移行及び電子デバイス(第2電子デバイス104等)の現在位置に応答して起動することができる。
本発明の開示の様々な実施形態は、機械コードが格納され、及び/又はユーザの感情状態検出に基づいて推奨を提供するために機械及び/又はコンピュータによって実行可能な命令セットを有する非一時的コンピュータ可読媒体及び/又はストレージ媒体、及び/又は非一時的機械可読媒体及び/又はストレージ媒体を提供することができる。命令セットは、電子デバイス(第1電子デバイス102等)上でコンテンツ項目を視聴しているユーザ(ユーザ112等)の第1感情状態から第2感情状態への感情状態の移行の検出を含む段階を機械及び/又はコンピュータに実行させることができる。検出された移行中に視聴されたコンテンツ項目の一部分は、ユーザの第2感情状態に関連付けることができる。検出された第2感情状態への移行の原因は、第2感情状態に関連付けられたコンテンツ項目のその部分内で識別することができる。識別された原因に基づいて、製品又はサービスに関して推奨を発生させることができる。推奨はユーザの感情状態の検出された移行及び電子デバイスの現在位置に応答して発生させることができる。
本発明の開示は、ハードウエアに又はハードウエアとソフトウエアの組合せに実現することができる。本発明の開示は、少なくとも1つのコンピュータシステムにおいて集中様式で、又は複数の相互接続したコンピュータシステムにわたって異なる要素を分散させることができる分散様式で実現することができる。本明細書に説明する方法を実行するようになったコンピュータシステム又は他の装置を適切とすることができる。ハードウエア及びソフトウエアの組合せは、ロードされて実行された時にコンピュータシステムをそれが本明細書に説明する方法を実行するように制御することができるコンピュータプログラムを有する汎用コンピュータシステムとすることができる。本発明の開示は、他の機能も実行する集積回路の一部分を含むハードウエアに実現することができる。
本発明の開示はまた、本明細書に説明する方法の実施を可能にする全ての特徴を含み、かつコンピュータシステムにロードにされた時にこれらの方法を実行することができるコンピュータプログラム製品に埋め込むことができる。本発明の関連では、コンピュータプログラムは、情報処理機能を有するシステムをして特定の機能を直接に、又はa)別の言語、コード、又は表記への変換、b)異なる材料形態での再現のうちのいずれか又は両方の後に実行させることを意図した命令セットのあらゆる言語、コード、又は表記におけるあらゆる表現を意味する。
ある一定の実施形態を参照して本発明の開示を説明したが、本発明の開示の範囲から逸脱することなく様々な変更を加えることができ、かつ均等物で置換することができることは当業者によって理解されるであろう。これに加えて、特定の状況又は内容を本発明の開示の教示に適応させるためにその範囲から逸脱することなく多くの修正を加えることができる。従って、本発明の開示は、開示した特定の実施形態に限定されず、むしろ、本発明の開示は、添付の特許請求の範囲に収まる全ての実施形態を含むことになるように意図している。
100 ネットワーク環境
102 第1電子デバイス
104 第2電子デバイス
112 ユーザ
114 ユーザに関連付けられた複数の感情状態

Claims (20)

  1. 電子デバイス内の1又は2以上の回路であって、
    前記電子デバイス上でコンテンツ項目を視聴しているユーザであって、前記電子デバイスに関連付けられたユーザの第1感情状態から第2感情状態への感情状態の移行を検出し、
    前記検出された移行中に視聴された前記コンテンツ項目の一部分を前記ユーザの前記第2感情状態に関連付け、
    前記ユーザのアイデンティティ情報と前記検出された移行とに基づいて、該ユーザの前記第2感情状態に関連付けられてタグ付けされたコンテンツ項目をネットワークデバイスから取り出し、かつ
    前記ユーザの前記感情状態の前記検出された移行と前記電子デバイスの現在位置とに応答して、前記取り出されたタグ付きコンテンツ項目に関連する製品又はサービスを推奨するアプリケーションを該電子デバイス上で起動する、
    ように構成された前記1又は2以上の回路、
    を含むことを特徴とする、推奨を提供するためのシステム。
  2. 前記第1感情状態及び前記第2感情状態は、平常、嬉しさ、悲しさ、怒り、軽蔑、恐怖、驚き、困惑、及び/又は優しさの感情状態のうちの1つに対応することを特徴とする請求項1に記載のシステム。
  3. 前記ネットワークデバイスは、サーバ、無線ネットワーク内で前記電子デバイスに接続した別の電子デバイス、及び/又はクラウドベースのサービスのうちの1つに対応することを特徴とする請求項1に記載のシステム。
  4. 前記1又は2以上の回路は、前記ユーザの前記感情状態の前記移行の前記検出のために、該ユーザに関連付けられた着用可能デバイス、前記電子デバイスの内蔵カメラ、該電子デバイス上のテキストベースの入力、及び/又は該電子デバイス上の音声ベースの入力のうちの1又は2以上からセンサデータを受信するように更に構成されることを特徴とする請求項1に記載のシステム。
  5. 前記1又は2以上の回路は、前記電子デバイス上で前記取り出されたタグ付きコンテンツ項目に基づいて前記製品又は前記サービスを検索するように更に構成されることを特徴とする請求項1に記載のシステム。
  6. 前記1又は2以上の回路は、前記ユーザの前記感情状態の前記検出された移行と前記ネットワークデバイス内で前記第2感情状態に関連付けられて最後にタグ付けされたコンテンツ項目とに基づいて前記電子デバイスのホーム画面インタフェースを動的にカスタマイズするように更に構成されることを特徴とする請求項1に記載のシステム。
  7. 電子デバイス内の1又は2以上の回路であって、
    前記電子デバイス上でコンテンツ項目を視聴しているユーザの第1感情状態から第2感情状態への感情状態の移行を検出し、
    前記検出された移行中に視聴された前記コンテンツ項目の一部分を前記ユーザの前記第2感情状態に関連付け、
    前記第2感情状態への前記検出された移行の原因を該第2感情状態に関連付けられた前記コンテンツ項目の前記部分内で識別し、かつ
    前記ユーザの前記感情状態の前記検出された移行と前記電子デバイスの現在位置とに応答して、前記識別された原因に基づいて製品又はサービスのための推奨を発生させる、
    ように構成された前記1又は2以上の回路、
    を含むことを特徴とする、推奨を提供するためのシステム。
  8. 前記コンテンツ項目の前記部分内の前記識別された原因は、該コンテンツ項目の該部分の画像フレーム、該画像フレーム内の物体、コンテキストのうちの1又は2以上に対応することを特徴とする請求項7に記載のシステム。
  9. 前記1又は2以上の回路は、前記電子デバイス上で前記コンテンツ項目の視聴中の前記ユーザの前記第2感情状態のレベルを決定するように更に構成され、
    前記コンテンツ項目の前記部分は、前記決定されたレベルが閾値よりも高い時に前記第2感情状態に関連付けられる、
    ことを特徴とする請求項7に記載のシステム。
  10. 前記1又は2以上の回路は、前記コンテンツ項目の前記部分内で前記識別された原因を、前記第2感情状態、前記ユーザのアイデンティティ情報、前記検出された移行のタイムスタンプ、及び/又は該第2感情状態の前記決定されたレベルのうちの1又は2以上にタグ付けするように更に構成されることを特徴とする請求項9に記載のシステム。
  11. 前記1又は2以上の回路は、前記第2感情状態に関連付けられて前記タグ付けされた原因に関連する製品又はサービスを前記推奨のために事前指定された検索エンジンを用いてリアルタイム又はほぼリアルタイムで検索するように更に構成されることを特徴とする請求項10に記載のシステム。
  12. 前記1又は2以上の回路は、前記コンテンツ項目の前記部分内で前記タグ付けされた原因を前記電子デバイスに通信的に結合されたサーバ又はネットワークデバイスに通信するように更に構成されることを特徴とする請求項10に記載のシステム。
  13. 前記1又は2以上の回路は、前記電子デバイス又は該電子デバイスに通信的に結合された別の電子デバイス上で前記製品又は前記サービスに関して前記発生された推奨の表示を制御するように更に構成されることを特徴とする請求項7に記載のシステム。
  14. 前記1又は2以上の回路は、前記発生された推奨を表示するように別の電子デバイスに該他の電子デバイスのホーム画面インタフェースをアンロックする通知を通信するように更に構成されることを特徴とする請求項7に記載のシステム。
  15. 前記1又は2以上の回路は、前記発生された推奨を、該発生された推奨の使用パターンに関連付けられた機械学習に基づいて更新するように更に構成されることを特徴とする請求項7に記載のシステム。
  16. 推奨を提供する方法であって、
    電子デバイスの1又は2以上の回路により、前記電子デバイス上でコンテンツ項目を視聴しているユーザであって、該電子デバイスに関連付けられたユーザの第1感情状態から第2感情状態への感情状態の移行を検出する段階と、
    前記1又は2以上の回路により、前記検出された移行中に視聴された前記コンテンツ項目の一部分を前記ユーザの前記第2感情状態に関連付け、
    前記1又は2以上の回路により、前記ユーザの前記第2感情状態に関連付けられてタグ付けされたコンテンツ項目を該ユーザのアイデンティティ情報と前記検出された移行とに基づいてネットワークデバイスから取り出す段階と、
    前記1又は2以上の回路により、前記ユーザの前記感情状態の前記検出された移行と前記電子デバイスの現在位置とに応答して、前記取り出されたタグ付きコンテンツ項目に関連する製品又はサービスを推奨するアプリケーションを該電子デバイス上で起動する段階と、
    を含むことを特徴とする方法。
  17. 前記1又は2以上の回路により、前記電子デバイス上で前記取り出された前記タグ付きコンテンツ項目に基づいて前記製品又は前記サービスを検索する段階を更に含むことを特徴とする請求項16に記載の方法。
  18. 前記1又は2以上の回路により、前記ユーザの前記感情状態の前記検出された移行と前記ネットワークデバイス内で前記第2感情状態に関連付けられて最後にタグ付けされたコンテンツ項目とに基づいて前記電子デバイスのホーム画面インタフェースを動的にカスタマイズする段階を更に含むことを特徴とする請求項16に記載の方法。
  19. 推奨を提供する方法であって、
    電子デバイスの1又は2以上の回路により、該電子デバイス上でコンテンツ項目を視聴しているユーザの第1感情状態から第2感情状態への感情状態の移行を検出する段階と、 前記1又は2以上の回路により、前記検出された移行中に視聴された前記コンテンツ項目の一部分を前記ユーザの前記第2感情状態に関連付ける段階と、
    前記1又は2以上の回路により、前記第2感情状態への前記検出された移行の原因を該第2感情状態に関連付けられた前記コンテンツ項目の前記部分内で識別する段階と、
    前記1又は2以上の回路により、前記ユーザの前記感情状態の前記検出された移行と前記電子デバイスの現在位置とに応答して、前記識別された原因に基づいて製品又はサービスのための推奨を発生させる段階と、
    を含むことを特徴とする方法。
  20. 前記コンテンツ項目の前記部分内で前記識別された原因は、該コンテンツ項目の該部分の画像フレーム、該画像フレーム内の物体、コンテキストのうちの1又は2以上に対応することを特徴とする請求項19に記載の方法。
JP2017170947A 2016-09-09 2017-09-06 感情状態検出に基づいて電子デバイス上で推奨を提供するためのシステム及び方法 Active JP6547977B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/260,502 US11049147B2 (en) 2016-09-09 2016-09-09 System and method for providing recommendation on an electronic device based on emotional state detection
US15/260,502 2016-09-09

Publications (2)

Publication Number Publication Date
JP2018041460A JP2018041460A (ja) 2018-03-15
JP6547977B2 true JP6547977B2 (ja) 2019-07-24

Family

ID=59846373

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017170947A Active JP6547977B2 (ja) 2016-09-09 2017-09-06 感情状態検出に基づいて電子デバイス上で推奨を提供するためのシステム及び方法

Country Status (5)

Country Link
US (1) US11049147B2 (ja)
EP (1) EP3293691A1 (ja)
JP (1) JP6547977B2 (ja)
KR (1) KR102013493B1 (ja)
CN (1) CN107807947B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10960173B2 (en) 2018-11-02 2021-03-30 Sony Corporation Recommendation based on dominant emotion using user-specific baseline emotion and emotion analysis

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3300655A1 (en) * 2016-09-28 2018-04-04 Stichting IMEC Nederland A method and system for emotion-triggered capturing of audio and/or image data
JP6653398B2 (ja) * 2016-12-28 2020-02-26 本田技研工業株式会社 情報提供システム
DE102017203570A1 (de) * 2017-03-06 2018-09-06 Volkswagen Aktiengesellschaft Verfahren und vorrichtung zur darstellung von empfohlenen bedienhandlungen eines vorschlagssystems und interaktion mit dem vorschlagssystem
US10790053B2 (en) * 2017-04-18 2020-09-29 International Business Machines Corporation Appetite improvement system through memory association
KR102132407B1 (ko) * 2017-11-22 2020-07-10 인하대학교 산학협력단 점진적 딥러닝 학습을 이용한 적응적 영상 인식 기반 감성 추정 방법 및 장치
CN112055865B (zh) * 2018-03-15 2024-08-09 Arm有限公司 用于行为和/或生物状态处理的系统、装置和/或过程
US11259729B2 (en) * 2018-03-15 2022-03-01 Arm Ltd. Systems, devices, and/or processes for behavioral and/or biological state processing
CN108401129A (zh) * 2018-03-22 2018-08-14 广东小天才科技有限公司 基于穿戴式设备的视频通话方法、装置、终端及存储介质
CN108647052B (zh) * 2018-04-28 2020-12-01 Oppo广东移动通信有限公司 应用程序预加载方法、装置、存储介质及终端
CN108616772B (zh) * 2018-05-04 2020-10-30 维沃移动通信有限公司 一种弹幕显示方法、终端和服务器
CN108733429B (zh) * 2018-05-16 2020-01-21 Oppo广东移动通信有限公司 系统资源配置的调整方法、装置、存储介质及移动终端
CN108694619A (zh) * 2018-06-20 2018-10-23 新华网股份有限公司 电影票房预测方法和系统
US11755905B2 (en) 2018-06-22 2023-09-12 Semiconductor Energy Laboratory Co., Ltd. Data processing method, image display method, data processing device, and image display device
CN108989887A (zh) * 2018-07-17 2018-12-11 奇酷互联网络科技(深圳)有限公司 移动终端和推送视频的方法、装置
WO2020050862A1 (en) * 2018-09-07 2020-03-12 Hewlett-Packard Development Company, L.P. Determining sentiments of customers and employees
WO2020058944A1 (en) * 2018-09-21 2020-03-26 Curtis Steve System and method for distributing revenue among users based on quantified and qualified emotional data
CN110970113B (zh) * 2018-09-30 2023-04-14 宁波方太厨具有限公司 基于用户情绪的智能菜谱推荐方法
CN109549624A (zh) * 2018-11-04 2019-04-02 南京云思创智信息科技有限公司 一种基于深度学习的实时视频情感分析方法及系统
KR102688533B1 (ko) 2018-12-07 2024-07-26 구글 엘엘씨 하나 이상의 컴퓨터 애플리케이션에서 사용 가능한 액션을 선택하고 사용자에게 제공하기 위한 시스템 및 방법
KR20200089957A (ko) * 2019-01-18 2020-07-28 삼성전자주식회사 전자 장치 및 이의 제어 방법
US11933974B2 (en) * 2019-02-22 2024-03-19 Semiconductor Energy Laboratory Co., Ltd. Glasses-type electronic device
JP6611972B1 (ja) 2019-03-05 2019-11-27 正通 亀井 アドバイス提示システム
JP7090573B2 (ja) * 2019-03-15 2022-06-24 ヤフー株式会社 提供装置、提供方法及び提供プログラム
JP7139270B2 (ja) * 2019-03-18 2022-09-20 ヤフー株式会社 推定装置、推定方法及び推定プログラム
CN110069991A (zh) * 2019-03-18 2019-07-30 深圳壹账通智能科技有限公司 反馈信息确定方法、装置、电子设备及存储介质
WO2020222539A1 (en) 2019-05-02 2020-11-05 Samsung Electronics Co., Ltd. Hub device, multi-device system including the hub device and plurality of devices, and method of operating the same
KR102354964B1 (ko) * 2019-10-11 2022-01-24 주식회사 케이티앤지 교체 가능한 카트리지를 추천하는 에어로졸 생성 장치 및 에어로졸 생성 시스템
CN110826436A (zh) * 2019-10-23 2020-02-21 上海能塔智能科技有限公司 情绪数据传输及处理方法、装置、终端设备、云平台
CN111145912B (zh) * 2019-12-23 2023-04-18 浙江大学 一种基于机器学习的个性化超促排卵方案的预测装置
CN111222044A (zh) * 2019-12-31 2020-06-02 深圳Tcl数字技术有限公司 基于情绪感知的信息推荐方法、设备及存储介质
US11272314B2 (en) 2020-01-07 2022-03-08 Kyndryl, Inc. Geofence selection and modification
KR20220006926A (ko) * 2020-07-09 2022-01-18 삼성전자주식회사 요약 비디오를 생성하는 디바이스 및 방법
RU2768551C1 (ru) * 2020-10-07 2022-03-24 Самсунг Электроникс Ко., Лтд. Способ локального генерирования и представления потока обоев и вычислительное устройство, реализующее его
KR20220054067A (ko) * 2020-10-23 2022-05-02 삼성전자주식회사 전자 장치 및 서버를 포함하는 시스템, 및 그 시스템을 이용한 컨텐츠 추천 방법
CN112398952A (zh) * 2020-12-09 2021-02-23 英华达(上海)科技有限公司 电子资源推送方法、系统、设备及存储介质
CN112667762B (zh) * 2020-12-25 2023-04-25 贵州北斗空间信息技术有限公司 一种零编程快速构建gis系统的方法
CN113760388A (zh) * 2021-02-08 2021-12-07 北京沃东天骏信息技术有限公司 一种信息处理方法、装置、电子设备和存储介质
WO2023073956A1 (ja) * 2021-10-29 2023-05-04 Vie Style株式会社 プログラム、情報処理方法、及び情報処理装置
KR20230081026A (ko) * 2021-11-30 2023-06-07 삼성전자주식회사 장애인을 위한 시청각 콘텐츠 제공 장치 및 방법
US12020560B2 (en) 2021-11-30 2024-06-25 Samsung Electronics Co., Ltd. Device and method of providing audiovisual content for the disabled
US11895368B2 (en) * 2022-03-04 2024-02-06 Humane, Inc. Generating, storing, and presenting content based on a memory metric
GB2617385A (en) * 2022-04-07 2023-10-11 Sony Interactive Entertainment Inc Game launching system and method
CN115375001A (zh) * 2022-07-11 2022-11-22 重庆旅游云信息科技有限公司 一种用于景区的游客情绪评估方法及装置
CN117593058A (zh) * 2023-12-05 2024-02-23 北京鸿途信达科技股份有限公司 基于情绪识别的广告匹配系统

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005032167A (ja) 2003-07-11 2005-02-03 Sony Corp 情報検索装置、情報検索方法、情報検索システム、クライアント装置およびサーバ装置
JP4794846B2 (ja) 2004-10-27 2011-10-19 キヤノン株式会社 推定装置、及び推定方法
US7539533B2 (en) * 2006-05-16 2009-05-26 Bao Tran Mesh network monitoring appliance
US20080320037A1 (en) * 2007-05-04 2008-12-25 Macguire Sean Michael System, method and apparatus for tagging and processing multimedia content with the physical/emotional states of authors and users
JP5083033B2 (ja) 2008-05-23 2012-11-28 株式会社豊田中央研究所 感情推定装置及びプログラム
US10482333B1 (en) * 2017-01-04 2019-11-19 Affectiva, Inc. Mental state analysis using blink rate within vehicles
CN102404680B (zh) 2010-09-09 2015-12-09 三星电子(中国)研发中心 基于位置识别的启动应用的方法以及使用该方法的手持设备
US20120143693A1 (en) * 2010-12-02 2012-06-07 Microsoft Corporation Targeting Advertisements Based on Emotion
US20130159228A1 (en) 2011-12-16 2013-06-20 Microsoft Corporation Dynamic user experience adaptation and services provisioning
JP5752070B2 (ja) 2012-02-17 2015-07-22 エヌ・ティ・ティ・コミュニケーションズ株式会社 関連情報表示システム、関連情報表示制御装置、端末装置、プログラム、及び関連情報表示方法
US20140324749A1 (en) * 2012-03-21 2014-10-30 Alexander Peters Emotional intelligence engine for systems
WO2013157015A2 (en) * 2012-04-16 2013-10-24 Chunilal Rathod Yogesh A method and system for display dynamic & accessible actions with unique identifiers and activities.
CN102929660A (zh) 2012-10-09 2013-02-13 广东欧珀移动通信有限公司 一种终端设备心情主题的控制方法及其终端设备
US9378655B2 (en) * 2012-12-03 2016-06-28 Qualcomm Incorporated Associating user emotion with electronic media
CN103093752A (zh) 2013-01-16 2013-05-08 华南理工大学 一种基于手机语音的情感分析方法及其系统
KR20140094336A (ko) 2013-01-22 2014-07-30 삼성전자주식회사 사용자 감정 추출이 가능한 전자기기 및 전자기기의 사용자 감정 추출방법
US9015737B2 (en) 2013-04-18 2015-04-21 Microsoft Technology Licensing, Llc Linked advertisements
CN105339926A (zh) * 2013-08-06 2016-02-17 英特尔公司 情绪相关的查询处理
US9264770B2 (en) 2013-08-30 2016-02-16 Rovi Guides, Inc. Systems and methods for generating media asset representations based on user emotional responses
CN103697900A (zh) * 2013-12-10 2014-04-02 郭海锋 一种情感车载机器人通过增强现实进行危险预警的方法
US20150178915A1 (en) * 2013-12-19 2015-06-25 Microsoft Corporation Tagging Images With Emotional State Information
US20150257706A1 (en) 2014-03-17 2015-09-17 Htc Corporation Portable electronic device and method for physiological measurement
JP6054902B2 (ja) 2014-03-20 2016-12-27 ヤフー株式会社 感情推定装置、感情推定方法、及び感情推定プログラム
KR101598601B1 (ko) 2014-05-14 2016-03-02 전자부품연구원 상황 기반 서비스 지원 기술
CN104063427A (zh) * 2014-06-06 2014-09-24 北京搜狗科技发展有限公司 一种基于语义理解的表情输入方法和装置
US9805381B2 (en) * 2014-08-21 2017-10-31 Affectomatics Ltd. Crowd-based scores for food from measurements of affective response
US10540348B2 (en) * 2014-09-22 2020-01-21 At&T Intellectual Property I, L.P. Contextual inference of non-verbal expressions
JP6365229B2 (ja) 2014-10-23 2018-08-01 株式会社デンソー 多感覚インタフェースの制御方法および多感覚インタフェース制御装置、多感覚インタフェースシステム
CN104409085A (zh) * 2014-11-24 2015-03-11 惠州Tcl移动通信有限公司 一种车载智能音乐播放器及其音乐播放方法
CN104597825B (zh) 2014-12-11 2020-02-04 小米科技有限责任公司 信息推送方法和装置
US10592926B2 (en) * 2014-12-18 2020-03-17 Nbcuniversal Media, Llc System and method for multimedia content composition
JP2016136294A (ja) 2015-01-23 2016-07-28 セイコーエプソン株式会社 情報処理システム、サーバーシステム、情報処理装置及び情報処理方法
US10223459B2 (en) * 2015-02-11 2019-03-05 Google Llc Methods, systems, and media for personalizing computerized services based on mood and/or behavior information from multiple data sources
CN104699972A (zh) * 2015-03-18 2015-06-10 小米科技有限责任公司 情绪识别提醒方法及装置
CN104809221B (zh) * 2015-04-30 2018-06-19 努比亚技术有限公司 音乐信息的推荐方法及装置
CN105045916A (zh) 2015-08-20 2015-11-11 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种手机游戏推荐系统及其推荐方法
CN105791692B (zh) * 2016-03-14 2020-04-07 腾讯科技(深圳)有限公司 一种信息处理方法、终端及存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10960173B2 (en) 2018-11-02 2021-03-30 Sony Corporation Recommendation based on dominant emotion using user-specific baseline emotion and emotion analysis

Also Published As

Publication number Publication date
EP3293691A1 (en) 2018-03-14
KR20180028939A (ko) 2018-03-19
CN107807947B (zh) 2022-06-10
CN107807947A (zh) 2018-03-16
KR102013493B1 (ko) 2019-08-22
US11049147B2 (en) 2021-06-29
JP2018041460A (ja) 2018-03-15
US20180075490A1 (en) 2018-03-15

Similar Documents

Publication Publication Date Title
JP6547977B2 (ja) 感情状態検出に基づいて電子デバイス上で推奨を提供するためのシステム及び方法
US11924576B2 (en) Dynamic activity-based image generation
US11252274B2 (en) Messaging application sticker extensions
US11227626B1 (en) Audio response messages
US11294545B2 (en) Interface to display shared user groups
US9936127B2 (en) Systems and methods for providing attention directing functions in an image capturing device
US10960173B2 (en) Recommendation based on dominant emotion using user-specific baseline emotion and emotion analysis
KR102327203B1 (ko) 전자 장치 및 그 동작 방법
US10979752B1 (en) Generating media content items based on location information
JP6452443B2 (ja) データ・ネットワーク・サービスを介した感情共有のためのバイオセンサーの使用
US10346480B2 (en) Systems, apparatus, and methods for social graph based recommendation
US20150334772A1 (en) Contextual information usage in systems that include accessory devices
KR102384311B1 (ko) 이미지 기반으로 사용자 정보를 관리하는 디바이스 및 그 방법
US20220365748A1 (en) Device control using audio data
EP3555840A1 (en) Wearable device control with inferred insights
US12047660B2 (en) Information processing apparatus, information processing method, and program
US20180270178A1 (en) Method and apparatus for sharing materials in accordance with a context

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190529

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190611

R151 Written notification of patent or utility model registration

Ref document number: 6547977

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151