JPWO2010001512A1 - 印象度抽出装置および印象度抽出方法 - Google Patents

印象度抽出装置および印象度抽出方法 Download PDF

Info

Publication number
JPWO2010001512A1
JPWO2010001512A1 JP2009531116A JP2009531116A JPWO2010001512A1 JP WO2010001512 A1 JPWO2010001512 A1 JP WO2010001512A1 JP 2009531116 A JP2009531116 A JP 2009531116A JP 2009531116 A JP2009531116 A JP 2009531116A JP WO2010001512 A1 JPWO2010001512 A1 JP WO2010001512A1
Authority
JP
Japan
Prior art keywords
emotion
impression
information
value
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009531116A
Other languages
English (en)
Inventor
文利 張
文利 張
江村 恒一
恒一 江村
浦中 祥子
祥子 浦中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Publication of JPWO2010001512A1 publication Critical patent/JPWO2010001512A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/162Authorising the user terminal, e.g. by paying; Registering the use of a subscription channel, e.g. billing
    • H04N7/163Authorising the user terminal, e.g. by paying; Registering the use of a subscription channel, e.g. billing by receiver means only

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Television Signal Processing For Recording (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

ユーザに特に負担を掛けることなく、精度良く印象度を抽出することができる印象度抽出装置。コンテンツ編集装置(100)は、測定期間にユーザに生起した感情を示す測定感情特性を取得する測定感情特性取得部(341)と、基準期間にユーザに生起した感情を示す基準感情特性と測定感情特性との比較により、測定期間にユーザが受けた印象の強さを示す度合いである印象度を算出する印象度算出部(340)とを有する。印象度算出部(340)は、第2の感情特性を基準として、第1の感情特性との差異が大きいほど、印象度を高く算出する。

Description

本発明は、ユーザが受けた印象の強さを示す度合いである印象度を抽出する印象度抽出装置および印象度抽出方法に関する。
大量の撮影画像の中から保存画像を取捨選択する場合や、ゲームで選択的な操作を行う場合等において、ユーザが受けた印象の強弱に基づいて選択が行われることが多い。ところが、対象物の数が多い場合、その選択作業はユーザにとって負担となる。
例えば、近年注目されているウェアラブルタイプのビデオカメラは、丸一日というように、撮影を長時間継続して行うことが容易である。ところが、このような長時間撮影が行われる場合、大量に記録される映像データの中から、ユーザにとって重要な部分をどのように選び出すかが、大きな問題となる。ユーザにとって重要な部分は、ユーザの主観的な感性に基づいて決定されるべきものである。したがって、映像の全てを確認しながら、重要な部分の検索および要約を行う作業が必要となる。
そこで、ユーザの覚醒水準に基づいて映像を自動で取捨選択する技術が、例えば特許文献1に記載されている。特許文献1記載の技術では、映像撮影と同期してユーザの脳波を記録し、ユーザの覚醒水準が予め定められた基準値よりも高い区間の撮影映像を抽出して、映像の自動編集を行う。これにより、映像の取捨選択を自動化することができ、ユーザの負担を軽減することができる。
特開2002−204419号公報
しかしながら、覚醒水準と基準値との比較では、興奮、注意、および集中の度合いしか判定することができず、喜怒哀楽といったより高度な感情状態を判定することは難しい。また、取捨選択の分かれ目となる覚醒水準のレベルには個人差がある。また、ユーザが受けた印象の強さは、覚醒水準のレベルではなく覚醒水準の変化の仕方として現れる場合もある。したがって、特許文献1記載の技術では、ユーザが受けた印象の強さを示す度合い(以下「印象度」という)を精度良く抽出することができず、ユーザが満足する選択結果を得られない可能性が高い。例えば、上記した撮影映像の自動編集では、印象に残るシーンを正確に抽出することが困難である。この場合、ユーザが選択結果を確認しながら手動で取捨選択のやり直しを行う必要が生じ、結果として、ユーザに負担が掛かるおそれがある。
本発明の目的は、ユーザに特に負担を掛けることなく、精度良く印象度を抽出することができる印象度抽出装置および印象度抽出方法を提供することである。
本発明の印象度抽出装置は、第1の期間にユーザに生起した感情の特性を示す第1の感情特性を取得する第1の感情特性取得部と、前記第1の期間とは異なる第2の期間に前記ユーザに生起した感情の特性を示す第2の感情特性と前記第1の感情特性との比較により、前記第1の期間に前記ユーザが受けた印象の強さを示す度合いである印象度を算出する印象度算出部とを有する。
本発明の印象度抽出方法は、第1の期間にユーザに生起した感情の特性を示す第1の感情特性を取得するステップと、前記第1の期間とは異なる第2の期間に前記ユーザに生起した感情の特性を示す第2の感情特性と前記第1の感情特性との比較により、前記第1の期間に前記ユーザが受けた印象の強さを示す度合いである印象度を算出するステップとを有する。
本発明によれば、第2の期間に実際にユーザが受けた印象の強さを比較基準として、第1の期間の印象度を算出することができるので、ユーザに特に負担を掛けることなく、精度良く印象度を抽出することができる。
本発明の実施の形態1に係る印象度抽出装置を含むコンテンツ編集装置のブロック図 実施の形態1に係るコンテンツ編集装置において用いられる2次元感情モデルの一例を示す図 実施の形態1における感情実測値を説明するための図 実施の形態1における感情の時間変化の様子を示す図 実施の形態1における感情量を説明するための図 実施の形態1における感情遷移方向を説明するための図 実施の形態1における感情遷移速度を説明するための図 実施の形態1に係るコンテンツ編集装置の全体動作の一例を示すシーケンス図 実施の形態1における感情情報取得処理の一例を示すフローチャート 実施の形態1における感情情報履歴の内容の一例を示す図 実施の形態1における基準感情特性取得処理を示すフローチャート 実施の形態1における感情遷移情報取得処理を示すフローチャート 実施の形態1における基準感情特性の内容の一例を示す図 実施の形態1における感情情報データの内容の一例を示す図 実施の形態1における印象度算出処理を示すフローチャート 実施の形態1における差異算出処理の一例を示すフローチャート 実施の形態1における印象度情報の内容の一例を示す図 実施の形態1における体験映像編集処理の一例を示すフローチャート 本発明の実施の形態2に係る印象度抽出装置を含むゲーム端末のブロック図 実施の形態2におけるコンテンツ操作処理の一例を示すフローチャート 本発明の実施の形態3に係る印象度抽出装置を含む携帯電話機のブロック図 実施の形態3における画面デザイン変更処理の一例を示すフローチャート 本発明の実施の形態4に係る印象度抽出装置を含む通信システムのブロック図 実施の形態4におけるアクセサリ変更処理の一例を示すフローチャート 本発明の実施の形態5に係る印象度抽出装置を含むコンテンツ編集装置のブロック図 本実施の形態5におけるユーザ入力画面の一例を示す図 本実施の形態5における効果を説明するための図
以下、本発明の各実施の形態について、図面を参照して詳細に説明する。
(実施の形態1)
図1は、本発明の実施の形態1に係る印象度抽出装置を含むコンテンツ編集装置のブロック図である。本発明の実施の形態は、遊園地または旅行先でウェアラブルビデオカメラを用いて映像撮影を行い、撮像された映像(以下適宜「体験映像コンテンツ」という)を編集する装置に適用した例である。
図1において、コンテンツ編集装置100は、大きく分けて、感情情報生成部200、印象度抽出部300、および体験映像コンテンツ取得部400を有する。
感情情報生成部200は、ユーザに生起した感情を示す感情情報を、ユーザの生体情報から生成する。ここで、感情とは、喜怒哀楽といった情動のみならず、リラックス等の気分をも含む精神状態全般を指す。感情の生起とは、ある精神状態から異なる精神状態へと遷移することを含む。感情情報は、印象度抽出部300における印象度算出の対象となるものであり、その詳細については後述する。感情情報生成部200は、生体情報測定部210および感情情報取得部220を有する。
生体情報測定部210は、センサおよびディジタルカメラ等の検出装置(図示せず)に接続され、ユーザの生体情報を測定する。生体情報は、例えば、心拍数、脈拍、体温、顔の筋電変化、音声の少なくともいずれか1つを含む。
感情情報取得部220は、生体情報測定部210によって得られたユーザの生体情報から、感情情報を生成する。
印象度抽出部300は、感情情報取得部220において生成された感情情報に基づいて、印象度を算出する。ここで、印象度は、過去の、ユーザの感情情報の基準となる期間(以下「基準期間」という)にユーザが受けた印象の強さを基準としたときの、任意の期間にユーザが受けた印象の強さを示す度合いである。すなわち、印象度は、基準期間の印象の強さを基準としたときの、相対的な印象の強さである。したがって、基準時間をユーザが平常状態にあった期間または十分に長い期間とすることによって、印象度は、そのユーザにとっての、平常時とは違う特別さの度合いを示す値となる。本実施の形態では、体験映像コンテンツを記録している期間を、印象度算出の対象となる期間(以下「測定期間」という)とする。印象度抽出部300は、履歴格納部310、基準感情特性取得部320、感情情報記憶部330、および印象度算出部340を有する。
履歴格納部310は、感情情報生成部200によって過去に得られた感情情報を、感情情報履歴として蓄積する。
基準感情特性取得部320は、履歴格納部310に格納された感情情報履歴から、基準期間の感情情報を読み出し、読み出した感情情報から、基準期間におけるユーザの感情情報の特性を示す情報(以下「基準感情特性」という)を生成する。
感情情報記憶部330は、感情情報生成部200によって測定期間に得られた感情情報を記憶する。
印象度算出部340は、測定期間におけるユーザの感情情報の特性を示す情報(以下「測定感情特性」)と、基準感情特性取得部320によって算出された基準感情特性との差異に基づいて、印象度を算出する。印象度算出部340は、感情情報記憶部330に記憶された感情情報から測定感情特性を生成する測定感情特性取得部341を有する。印象度の詳細については後述する。
体験映像コンテンツ取得部400は、体験映像コンテンツを記録し、記録している間(測定期間)の感情情報から算出された印象度に基づいて、体験映像コンテンツの編集を行う。体験映像コンテンツ取得部400は、コンテンツ記録部410およびコンテンツ編集部420を有する。
コンテンツ記録部410は、ディジタルビデオカメラ等の映像入力装置(図示せず)に接続され、映像入力装置において撮影された体験映像を、体験映像コンテンツとして記録する。
コンテンツ編集部420は、例えば、印象度抽出部300により得られた印象度と、コンテンツ記録部410により記録された体験映像コンテンツとを、時間軸上で対応させて比較し、印象度が高い期間に対応するシーンを抽出して、体験映像コンテンツの要約映像を生成する。
コンテンツ編集装置100は、例えば、CPU(central processing unit)、制御プログラムを格納したROM(read only memory)等の記憶媒体、RAM(random access memory)等の作業用メモリ等を有する。この場合には、上記各部の機能は、CPUが制御プログラムを実行することで実現される。
このようなコンテンツ編集装置100によれば、生体情報に基づく特性値の比較により印象度を算出するので、ユーザに特に負担を掛けることなく印象度を抽出することができる。また、基準期間におけるユーザ自身の生体情報から得られた基準感情特性を基準として印象度を算出するので、印象度を精度良く抽出することができる。また、印象度に基づいて、体験映像コンテンツの中からシーンを選択して要約映像を生成するので、ユーザが満足するシーンのみをピックアップして、体験映像コンテンツを編集することができる。また、印象度を精度良く抽出するので、ユーザがより満足するコンテンツ編集結果を得ることができ、ユーザが再編集を行う必要性を低減することができる。
ここで、コンテンツ編集装置100の動作説明の前に、コンテンツ編集装置100において用いられる各種情報について説明する。
まず、感情情報を定量的に定義する際に用いられる感情モデルについて説明する。
図2は、コンテンツ編集装置100において用いられる2次元感情モデルの一例を示す図である。
図2に示す2次元感情モデル500は、LANG感情モデルと呼ばれる感情モデルである。2次元感情モデル500は、快と不快(または正感情と負感情)の度合いである快度を示す横軸と、興奮、緊張またはリラックスを含む度合いである覚醒度を示す縦軸の2軸により形成される。2次元感情モデル500の2次元空間は、縦軸と横軸との関係から、「興奮(Excited)」、「沈静(Relaxed)」、「哀しみ(Sad)」等、感情種別ごとに領域が定義されている。2次元感情モデル500を用いることにより、縦軸の値と横軸の値との組合せで、感情を簡単に表現することができる。本実施の形態における感情情報は、この2次元感情モデル500における座標値であり、間接的に感情を表現する。
ここでは、例えば、座標値(4,5)は「興奮」という感情種別の領域内に位置し、座標値(−4,−2)は「哀しみ」という感情種別の領域内に位置している。したがって、座標値(4,5)の感情期待値および感情実測値は「興奮」という感情を示し、座標値(−4,−2)の感情期待値および感情実測値は「哀しみ」という感情種別を示す。2次元感情モデル500において、感情期待値と感情実測値との距離が短い場合、それぞれが示す感情は類似したものであるといえる。本実施の形態の感情情報とは、感情実測値に、その基となった生体情報が測定された時刻を付加した情報をいうものとする。
なお、感情モデルとして、2次元以上のモデルまたはLANG感情モデル以外のモデルを用いてもよい。例えば、コンテンツ編集装置100は、感情モデルとして、3次元感情モデル(快/不快、興奮/沈静、緊張/弛緩)、または、6次元感情モデル(怒り、恐れ、哀しみ、喜び、嫌悪、驚き)を用いてもよい。このようなより高次元の感情モデルを用いた場合には、感情種別をより細分化して表現することができる。
次に、図3から図7を用いて、基準感情特性および測定感情特性を構成するパラメタの種別について説明する。基準感情特性および測定感情特性を構成するパラメタ種別は、同一であり、感情実測値、感情量、および感情遷移情報を含む。感情遷移情報は、感情遷移方向および感情遷移速度を含む。以下、記号eは、基準感情特性および測定感情特性を構成するパラメタであることを示す。また、記号iは、以下、測定感情特性に関するパラメタであることを示す記号であるとともに、個々の測定感情特性を識別するための変数である。記号jは、基準感情特性に関するパラメタであることを示す記号であるとともに、個々の基準感情特性を識別するための変数である。
図3は、感情実測値を説明するための図である。感情実測値eiα、ejαは、図2に示す2次元感情モデル500における座標値であり、(x,y)により表わされる。基準感情特性と測定感情特性との間の感情実測値の差異rαは、図3に示すように、基準感情特性の感情実測値ejαの座標を(x,y)、測定感情特性の感情実測値eiαの座標を(x,y)とすると、以下の式(1)により求められる値である。
Figure 2010001512
すなわち、感情実測値の差異rαは、感情モデル空間における距離、つまり、感情の差異の大きさを示す。
図4は、感情の時間変化の様子を示す図である。ここでは、感情の状態を示す特性の1つとして、感情実測値のうち覚醒度の値y(以下適宜「感情強度」という)に着目する。図4に示すように、感情強度yは、時間の経過と共に変化する。感情強度yは、ユーザが興奮または緊張しているときには高い値となり、ユーザがリラックスしているときには低い値となる。また、ユーザが長い時間継続して興奮または緊張しているときには、感情強度yが高い値で長い時間持続する。同じ感情強度でも、長い時間継続しているほうが、より強い興奮状態にあるといえる。したがって、本実施の形態では、感情強度を時間積分した感情量を、印象値の算出に用いる。
図5は、感情量を説明するための図である。感情量eiβ、ejβは、感情強度yを時間積分した値である。感情量eiβは、例えば、同一の感情強度yが時間tだけ継続した場合には、y×tにより表わされる。図5において、基準感情特性と測定感情特性との間の感情量の差異rβは、基準感情特性の感情量をy×t、測定感情特性の感情量をy×tとすると、以下の式(2)により求められる値である。
Figure 2010001512
すなわち、感情量の差異rβは、感情強度の積分値の差異、つまり、感情の強さの差異を示す。
図6は、感情遷移方向を説明するための図である。感情遷移方向eidir、ejdirは、感情実測値が遷移するときの遷移方向を、遷移の前後における2組の感情実測値を用いて示す情報である。遷移の前後における2組の感情実測値とは、例えば、所定の時間間隔で取得された2組の感情実測値であり、ここでは連続して得られる2組の感情実測値とする。図6では、覚醒度(感情強度)にのみ着目して、感情遷移方向eidir、ejdirを図示している。感情遷移方向eidirは、例えば、処理の対象となっている感情実測値をeiAfter、1つ前の感情実測値をeiBeforeとすると、以下の式(3)により求められる値である。
Figure 2010001512
同様に、感情実測値ejdirも、感情実測値ejAfter、ejBeforeから求めることができる。
図7は、感情遷移速度を説明するための図である。感情遷移速度eivel、ejvelは、感情実測値が遷移するときの遷移速度を、遷移の前後における2組の感情実測値を用いて示す情報である。図7では、覚醒度(感情強度)にのみ着目して、また、測定感情特性に関するパラメータにのみ着目して、図示を行っている。感情遷移方向eivelは、例えば、感情強度の遷移幅をΔhとし、遷移に要した時間をΔt(感情実測値の取得間隔)とすると、以下の式(4)により求められる値である。
Figure 2010001512
同様に、感情遷移方向ejvelも、感情実測値ejAfter、ejBeforeから求めることができる。
感情遷移情報は、感情遷移方向と感情遷移速度とを重み付けした上で加算した値である。感情遷移情報eiδは、感情遷移方向eidirの重みをwidir、感情遷移速度eivelの重みをwivelとしたとき、以下の式(5)により求められる値である。
Figure 2010001512
同様に、感情遷移情報ejδも、感情遷移方向ejdirおよびその重みwidirと、感情遷移速度ejvelおよびその重みをwjvelとから求めることができる。
基準感情特性と測定感情特性との間の感情遷移情報の差異rδは、以下の式(6)により求められる値である。
Figure 2010001512
すなわち、感情遷移情報の差異rδは、感情遷移の仕方による違いの程度を示す。
このような感情実測値の差異rα、感情量の差異rβ、および感情遷移情報の差異rδを算出することにより、基準期間と測定期間との間の感情の差異を高い精度で判定することができる。例えば、喜怒哀楽といった高度な感情状態、感情が高ぶっている状態の継続時間、普段落ち着いている人が急に興奮する状態、「悲しみ」の状態から「喜び」の状態への移行等、強い印象を受けたときの特徴的な精神状態を、検出することが可能となる。
以下、コンテンツ編集装置100の全体動作について説明する。
図8は、コンテンツ編集装置100の全体動作の一例を示すシーケンス図である。
コンテンツ編集装置100の動作は、大別して、基準感情特性の基となる感情情報を蓄積する段階(以下「感情情報蓄積段階」という)と、リアルタイムで測定される感情情報に基づいてコンテンツを編集する段階(以下「コンテンツ編集段階」という)の、2つの段階から成る。図8では、ステップS1100〜S1300が、感情情報蓄積段階の処理であり、ステップS1400〜S2200が、コンテンツ編集段階の処理である。
まず、感情情報蓄積段階の処理について説明する。
処理に先立って、ユーザから必要な生体情報を検出するためのセンサと、映像を撮影するためのディジタルビデオカメラとがセッティングされる。セッティングが完了した後、コンテンツ編集装置100の動作が開始される。
まず、ステップS1100で、生体情報測定部210は、ユーザの生体情報を測定し、取得した生体情報を、感情情報取得部220に出力する。生体情報測定部210は、生体情報として、例えば、脳波、皮膚電気抵抗値、皮膚コンダクタンス、皮膚温度、心電図周波数、心拍数、脈拍、体温、筋電、顔画像、音声等の少なくともいずれか1つを検出する。
そして、ステップS1200で、感情情報取得部220は、感情情報取得処理を開始する。感情情報取得処理は、予め設定された時間ごとに生体情報を解析し、感情情報を生成して、印象度抽出部300に出力する処理である。
図9は、感情情報取得処理の一例を示すフローチャートである。
まず、ステップS1210で、感情情報取得部220は、生体情報測定部210から、所定の時間間隔(ここでは、n秒間隔とする)で生体情報を取得する。
そして、ステップS1220で、感情情報取得部220は、生体情報に基づいて感情実測値を取得し、感情実測値から感情情報を生成して印象度抽出部300に出力する。
ここで、生体情報から感情実測値を取得する具体的手法と、感情実測値が表わす内容とについて説明する。
人間の生理的信号は、人間の感情の変化に応じて変化することが知られている。感情情報取得部220は、この感情の変化と生理的信号の変化との関係を用いて、生体情報から感情実測値を取得する。
例えば、人間は、よりリラックスした状態にあるほど、アルファ(α)波成分の割合が大きくなることが知られている。また、驚き、恐怖、または心配によって皮膚電気抵抗値が上昇すること、喜びの感情が大きく生起すると皮膚温度および心電図周波数が上がること、心理的・精神的に安定している場合には心拍数および脈拍はゆっくりとした変化を示すこと等が知られている。また、上記した生理的指標以外にも、喜怒哀楽等の感情に応じて、泣く、笑う、怒る等により、表情および音声の種類が変化することが知られている。更に、落ち込んでいるときには声が小さくなり、怒ったり喜んだりしているときには声が大きくなる傾向があることも知られている。
したがって、皮膚電気抵抗値、皮膚温度、心電図周波数、心拍数、脈拍、音声レベルを検出したり、脳波から脳波のα波成分の割合を解析したり、顔の筋電変化または顔の画像から表情認識を行ったり、音声認識を行う等して生体情報を取得し、生体情報から感情を解析することが可能である。
具体的には、例えば、上記各生体情報の値を図2に示す2次元感情モデル500の座標値に変換するための変換テーブルまたは変換式を、感情情報取得部220に予め用意する。そして、感情情報取得部220は、生体情報測定部210から入力された生体情報を、変換テーブルまたは変換式を用いて2次元感情モデル500の2次元空間にマッピングし、該当する座標値を感情実測値として取得する。
例えば、皮膚コンダクタンス信号(skin conductance)は、覚醒度(arousal)に応じて増加し、筋電信号(electromyography:EMG)は、快度に応じて変化する。したがって、感情情報取得部220は、ユーザの体験映像撮影時の体験内容(デートまたは旅行等)に対する好ましさの程度に対応付けて、予め皮膚コンダクタンスを測定しておく。これにより、2次元感情モデル500において、皮膚コンダクタンス信号の値を覚醒度として示す縦軸に、筋電信号の値を快度として示す横軸に、それぞれ対応付けることができる。この対応付けを変換テーブルまたは変換式として予め用意しておき、皮膚コンダクタンス信号と筋電信号とを検出することにより、簡単に感情実測値を取得することができる。
生体情報を感情モデル空間にマッピングする具体的手法は、例えば、“Emotion Recognition from Electromyography and Skin Conductance”(Arturo Nakasone,Helmut Prendinger,Mitsuru Ishizuka,The Fifth International Workshop on Biosignal Interpretation,BSI−05,Tokyo,Japan,2005,pp.219−222)に記載されている。
このマッピング手法では、まず、生理的信号として皮膚コンダクタンスと筋電信号とを利用して、覚醒度および快度との関連付けを行う。マッピングは、その関連付けの結果に基づいて、確率モデル(Bayesian network)と2次元Lang感情空間モデルとを利用して行い、このマッピングにより、ユーザの感情推定を行う。より具体的には、人間の覚醒度の度合いに応じて直線的に増加する皮膚コンダクタンス信号と、筋肉活動を示し快度(valance)と関連のある筋電信号とを、ユーザが平常状態にあるときに測定し、測定結果をベースライン値とする。つまり、ベースライン値は、平常状態時の生体情報を表す。次に、ユーザの感情を測定する時に、皮膚コンダクタンス信号がベースライン値を超えた度合いに基づいて、覚醒度の値を決める。例えば、皮膚コンダクタンス信号が、ベースライン値より15%〜30%超えた場合には、覚醒度は非常に高い値(very high)であると判定する。一方、筋電信号がベースライン値を超えた度合いに基づいて、快度の値を決める。例えば、筋電信号がベースライン値を3倍以上超えた場合には、快度は高い値(high)であると判定し、筋電信号がベースライン値の3倍以下の場合には、快度は平均的な値(normal)であると判定する。そして、算出された覚醒度の値と快度の値とを、確率モデルと2次元LANG感情空間モデルを利用してマッピングを行い、ユーザの感情推定を行う。
図9のステップS1230で、感情情報取得部220は、次のn秒後の生体情報が、生体情報測定部210により取得されているか否かを判断する。感情情報取得部220は、次の生体情報が取得されている場合には(S1230:YES)、ステップS1240に進み、次の生体情報が取得されていない場合には(S1230:NO)、ステップS1250に進む。
ステップS1250で、感情情報取得部220は、生体情報の取得に異常が発生した旨をユーザに通知する等の所定の処理を実行し、一連の処理を終了する。
一方、ステップS1240で、感情情報取得部220は、感情情報取得処理の終了が指示されたか否かを判断し、終了が指示されていない場合には(S1240:NO)、ステップS1210に戻り、終了が指示された場合には(S1240:YES)、ステップS1260に進む。
ステップS1260で、感情情報取得部220は、感情マージ処理を実行し、その後、一連の処理を終了する。感情マージ処理とは、同じ感情実測値が連続して測定された場合に、それらの感情実測値をマージして1つの感情情報にまとめる処理である。なお、感情マージ処理は必ずしも行う必要はない。
このような感情情報取得処理により、印象度抽出部300には、マージ処理が行われる場合には感情実測値が変化するごとに、マージ処理が行われない場合にはn秒ごとに、感情情報が入力される。
図8のステップS1300で、履歴格納部310は、入力される感情情報を蓄積し、感情情報履歴を生成する。
図10は、感情情報履歴の内容の一例を示す図である。
図10に示すように、履歴格納部310は、入力された感情情報に他の情報を付加したレコードから成る感情情報履歴510を生成する。感情情報履歴510は、感情履歴情報ナンバー(No.)511、感情測定日[年/月/日]512、感情生起開始時間[時:分:秒]513、感情生起終了時間[時:分:秒]514、感情実測値515、イベント516a、および場所516bを含む。
感情測定日512には、測定が行われた日が記述される。感情情報履歴510に、感情測定日512として、例えば「2008/03/25」から「2008/07/01」までが記述されている場合、この期間(ここでは約3ヶ月間)に取得された感情情報が蓄積されていることを示す。
感情生起開始時間513には、同一の感情実測値(感情実測値515に記述されている感情実測値)が継続して測定された場合に、その測定時間、つまり、その感情実測値が示す感情が生起している時間の開始時刻が記述される。具体的には、例えば、感情実測値が、別の感情実測値から変化して感情実測値515に記述されている感情実測値に到達した時刻である。
感情生起終了時間514には、同一の感情実測値(感情実測値515に記述されている感情実測値)が継続して測定された場合に、その測定時間、つまり、その感情実測値が示す感情が生起している時間の終了時刻が記述される。具体的には、例えば、感情実測値が、感情実測値515に記述されている感情実測値から別の感情実測値に変化した時刻である。
感情実測値515には、生体情報に基づいて得られた感情実測値が記述される。
イベント516aおよび場所516bには、感情生起開始時間513から感情生起終了時間514までの期間の外界情報が記述される。具体的には、例えば、イベント516aには、ユーザが参加したイベントまたはユーザの周囲に発生したイベントを示す情報が記述され、場所516bには、ユーザの居る場所に関する情報が記述される。外界情報は、ユーザが入力してもよいし、移動通信網またはGPS(global positioning system)により外部から受信した情報から取得してもよい。
例えば、「0001」という感情履歴情報ナンバー511が示す感情情報として、「2008/03/25」という感情測定日512、「12:10:00」という感情生起開始時間513、「12:20:00」という感情生起終了時間514、「(−4,−2)」という感情実測値515、「コンサート」というイベント516a、および「屋外」という場所516bが記述されている。これは、2008年3月25日の、12時10分から12時20分までの間、ユーザが屋外のコンサート会場に居て、ユーザから感情実測値(−4,−2)が測定されたこと、つまり、ユーザに悲しいという感情が生起していたということを示す。
感情情報履歴510の生成は、例えば、以下のようにして行われるようにしてもよい。履歴格納部310は、感情情報取得部220から入力される感情実測値(感情情報)と、外界情報とを監視し、いずれかに変化があるごとに、直前に変化があった時刻から現在までに得られた感情実測値および外界情報に基づいて、1つのレコードを作成する。このとき、同一の感情実測値および外界情報が長時間継続する場合を考慮して、レコードの生成間隔の上限を設定してもよい。
以上が、感情情報蓄積段階の処理である。このような感情情報蓄積段階を経て、コンテンツ編集装置100には、過去の感情情報が、感情情報履歴として蓄積される。
次に、コンテンツ編集段階の処理について説明する。
上述のセンサおよびディジタルビデオカメラのセッティング等が行われ、セッティングが完了した後、コンテンツ編集装置100の動作が開始される。
図8のステップS1400で、コンテンツ記録部410は、ディジタルビデオカメラにより連続撮影される体験映像コンテンツの記録と、記録した体験映像コンテンツをコンテンツ編集部420に対して出力することを開始する。
そして、ステップS1500で、基準感情特性取得部320は、基準感情特性取得処理を実行する。基準感情情報算出処理は、基準時間の感情情報履歴に基づいて、基準感情特性を算出する処理である。
図11は、基準感情特性取得処理を示すフローチャートである。
まず、ステップS1501で、基準感情特性取得部320は、基準感情特性期間情報を取得する。基準感情特性期間情報は、基準期間を指定するものである。
基準期間は、ユーザが平常状態にあった期間、または、ユーザの状態を平均すると平常状態とみなすことができるような十分に長い期間が設定されることが望ましい。具体的には、基準時間は、例えば、ユーザが体験映像を撮影する時点(現在)から、一週間、半年、一年等の予め定められた時間長さだけ遡った時点までの期間が設定される。この時間長さは、例えば、ユーザにより指定されてもよいし、予め設定されたデフォルト値であってもよい。
また、基準期間は、現在と隔たった過去の任意期間が設定されてもよい。例えば、基準期間は、他の日の体験映像を撮影する時間帯と同じ時間帯、または、過去に体験映像の撮影場所と同じ場所に居たときの期間とすることができる。具体的には、例えば、測定期間にユーザが参加しているイベントとその場所に、イベント516aおよび場所516bが最もよく一致するような期間である。また、基準時間の決定は、これら以外の各種情報に基づいて行うことができる。例えば、イベントが昼間行われたか夜行われたか等の時間帯に関する外界情報も一致するような期間を、基準時間に決定する。
そして、ステップS1502で、基準感情特性取得部320は、履歴格納部310に格納された感情情報履歴のうち、基準感情特性期間に該当する全ての感情情報を取得する。具体的には、基準感情特性取得部320は、所定の時間間隔の各時点について、感情情報履歴から該当する時点のレコードを取得する。
そして、ステップS1503で、基準感情特性取得部320は、取得した複数のレコードに対して、感情種別についてのクラスタリングを行う。クラスタリングは、例えばK−means等の既知のクラスタリング手法を用いて、レコードを図2において説明した感情種別またはこれに順ずる種別(以下「クラスタ」という)に分類することにより行われる。これにより、基準期間中のレコードの感情実測値を、時間成分を取り除いた状態で、感情モデル空間に反映させることができる。
そして、ステップS1504で、基準感情特性取得部320は、クラスタリングの結果から、感情基本成分パターンを取得する。ここで、感情基本成分パターンとは、クラスタごとに計算される複数のクラスタメンバー(ここではレコード)の集合であり、どのクラスタにどのレコードが該当するかを示す情報である。クラスタを識別するための変数をc(初期値は1)、クラスタをp、クラスタの個数をNとそれぞれ置くと、感情基本成分パターンPは、以下の式(7)で表わされる。
Figure 2010001512
但し、クラスタpは、クラスタメンバーの代表点の座標(つまり感情実測値)(x,y)と、クラスタメンバーの感情情報履歴ナンバーNumから成り、該当するレコードの個数(つまりクラスタメンバーの個数)をmと置くと、以下の式(8)で表わされる。
Figure 2010001512
基準感情特性取得部320は、該当するレコードの個数mが所定の閾値よりも少ないクラスタについては、感情基本成分パターンPのクラスタとして採用しないようにしてもよい。これにより、例えば、後続の処理の負荷を軽減したり、感情が遷移する過程において通過しただけの感情種別を処理対象から除外したりすることができる。
そして、ステップS1505で、基準感情特性取得部320は、代表感情実測値を算出する。代表感情実測値は、基準期間の感情実測値を代表する感情実測値であり、例えば、クラスタメンバーの数が最も多いクラスタ、または後述の持続時間が最も長いクラスタの座標(x,y)である。
そして、ステップS1506で、基準感情特性取得部320は、取得した感情基本成分パターンPのクラスタごとに、持続時間Tを算出する。持続時間Tは、クラスタごとに算出される感情実測値の持続時間(つまり感情生起開始時間と感情生起終了時間との差)の平均値tの集合であり、以下の式(9)により表わされる。
Figure 2010001512
また、クラスタpの持続時間の平均値tは、クラスタメンバーの持続時間をtcmと置くと、例えば、以下の式(10)により算出される。
Figure 2010001512
なお、持続時間の平均値tは、クラスタメンバーの中から代表点を決定し、決定した代表点に該当する感情の持続時間としてもよい。
そして、ステップS1507で、基準感情特性取得部320は、感情基本成分パターンPのクラスタごとに、感情強度Hを算出する。感情強度Hは、クラスタごとに算出される感情強度を平均した平均値hの集合であり、以下の式(11)により表わされる。
Figure 2010001512
また、感情強度の平均値hは、クラスタメンバーの感情強度をycmと置くと、例えば、以下の式(12)により表わされる。
Figure 2010001512
また、感情実測値が、3次元感情モデル空間の座標値(xcm,ycm,zcm)として表わされる場合には、例えば、感情強度を、以下の式(13)により算出される値としてもよい。
Figure 2010001512
なお、感情強度の平均値hは、クラスタメンバーの中から代表点を決定し、決定した代表点に該当する感情強度を採用してもよい。
そして、ステップS1508で、基準感情特性取得部320は、図5において説明した感情量を生成する。具体的には、算出した持続時間Tと感情強度Hとを用いて、基準期間における感情量の時間積分を行う。
そして、ステップS1510で、基準感情特性取得部320は、感情遷移情報取得処理を行う。感情遷移情報取得処理は、感情遷移情報を取得する処理である。
図12は、感情遷移情報取得処理を示すフローチャートである。
まず、ステップS1511で、基準感情特性取得部320は、クラスタpのクラスタメンバーのそれぞれについて、前の感情情報を取得する。前の感情情報とは、クラスタpの個々のクラスタメンバーにおける遷移前の感情情報、つまり、1つ前のレコードである。以下、着目しているクラスタpに関する情報を「処理対象の」と表現し、1つ前のレコードに関する情報を「前の」と表現する。
そして、ステップS1512で、基準感情特性取得部320は、取得した前の感情情報に対して、図11のステップS1503と同様のクラスタリングを行うとともに、図1のステップS1504と同様に前の感情基本成分パターンを取得する。
そして、ステップS1513で、基準感情特性取得部320は、前の感情情報の最大クラスタを取得する。最大クラスタとは、例えば、クラスタメンバーの数の最も多いクラスタ、または持続時間Tが最も長いクラスタである。
そして、ステップS1514で、基準感情特性取得部320は、前の感情実測値eαBeforeを算出する。前の感情実測値eαBeforeとは、取得した前の感情情報の最大クラスタにおける代表点の感情実測値である。
そして、ステップS1515で、基準感情特性取得部320は、前の遷移時間を算出する。前の遷移時間とは、クラスタメンバーの遷移時間の平均値である。
そして、ステップS1516で、基準感情特性取得部320は、前の感情強度を算出する。前の感情強度とは、取得した前の感情情報についての感情強度であり、図11のステップS1507と同様の手法により算出される。
そして、ステップS1517で、基準感情特性取得部320は、図11のステップS1507と同様の手法により、または、図11のステップS1507の算出結果から、クラスタ内の感情強度を取得する。
そして、ステップS1518で、基準感情特性取得部320は、前の感情強度差を算出する。前の感情強度差とは、前の感情強度(ステップ1516で算出された感情強度)に対する、処理対象の感情強度(図11のステップS1507で算出された感情強度)の差分である。感情強度差ΔHは、前の感情強度をHBefore、処理対象の感情強度をHと置くと、以下の式(14)により算出される。
Figure 2010001512
そして、ステップS1519で、基準感情特性取得部320は、前の感情遷移速度を算出する。前の感情遷移速度とは、前の感情種別から処理対象の感情種別に遷移する際の単位時間当たりの感情強度の変化である。前の感情遷移速度evelBeforeは、遷移時間をΔTと置くと、以下の式(15)により算出される。
Figure 2010001512
そして、ステップS1520で、基準感情特性取得部320は、図11のステップS1505と同様の手法により、または、図11のステップS1505の算出結果から、処理対象の感情情報の代表感情実測値を取得する。
ここで、後の感情情報とは、クラスタpのクラスタメンバーにおける遷移後の感情情報、つまり、クラスタpのクラスタメンバーにおいて、レコードの1つ後のレコードをいい、1つ後のレコードに関する情報を「後の」と表現するものとする。
ステップS1521〜S1528で、基準感情特性取得部320は、ステップS1511〜S1519の処理と同様にして、後の感情情報、後の感情情報の最大クラスタ、後の感情実測値、後の遷移時間、後の感情強度、後の感情強度差、および後の感情遷移速度を取得する。これは、ステップS1511〜S1519における処理を、処理対象の感情情報を前の感情情報に置き換え、後の感情情報を新たに処理対象の感情情報に置き換えて実行することにより可能となる。
そして、ステップS1529で、基準感情特性取得部320は、pのクラスタに関する感情遷移情報を内部的に格納して、図11の処理に戻る。
図11のステップS1531で、基準感情特性取得部320は、変数cに1を加算した値が、クラスタの個数Nを超えているか否かを判断し、上記値が個数Nを超えていない場合には(S1531:NO)、ステップS1532に進む。
ステップS1532で、基準感情特性取得部320は、変数cを1増加させ、ステップS1510に戻り、次のクラスタを処理対象として、感情遷移情報取得処理を実行する。
一方、変数cに1を加算した値が、クラスタの個数Nを超えた場合、つまり、基準期間の全ての感情情報に対する感情遷移情報取得処理が完了すると(S1531:YES)、ステップS1533に進む。
ステップS1533で、基準感情特性取得部320は、感情遷移情報取得処理により得られた情報に基づいて、基準感情特性を生成し、図8の処理に戻る。基準感情特性のセットは、クラスタの個数だけ生成されることになる。
図13は、基準感情特性の内容の一例を示す図である。
図13に示すように、基準感情特性520は、感情特性期間521、イベント522a、場所522b、代表感情実測値523、感情量524、および感情遷移情報525を含む。感情量524は、感情実測値526、感情強度527、および感情実測値の持続時間528を含む。感情遷移情報525は、感情実測値529、感情遷移方向530、および感情遷移速度531を含む。感情遷移方向530は、前の感情実測値532と後の感情実測値533との組から構成される。感情遷移速度531は、前の感情遷移速度534と後の感情遷移速度535との組から構成される。
代表感情実測値は、図3において説明した感情実測値の差異rαを求める際に用いられる。感情量は、図5において説明した感情量の差異rβを求める際に用いられる。感情遷移情報は、図6および図7において説明した感情遷移情報の差異rδを求める際に用いられる。
図8のステップS1600で、基準感情特性取得部320は、算出した基準感情特性を記録する。
なお、基準時間が固定の場合には、ステップS1100〜S1600の処理を予め実行しておき、生成された基準感情特性を、基準感情特性取得部320または印象度算出部340に蓄積しておいてもよい。
そして、ステップS1700で、生体情報測定部210は、ステップS1100と同様に、体験映像を撮影している時のユーザの生体情報を測定し、取得した生体情報を感情情報取得部220に出力する。
そして、ステップS1800で、感情情報取得部220は、ステップ1200と同様に、図9に示す感情情報取得処理を開始する。なお、感情情報取得部220は、ステップS1200、S1800を通して感情情報取得処理を継続して実行してもよい。
そして、ステップS1900で、感情情報記憶部330は、n秒ごとに入力される感情情報のうち、現在から、所定の単位時間だけ遡った時点までの感情情報を、感情情報データとして記憶する。
図14は、図8のステップS1900において記憶される、感情情報データの内容を示す一例の図である。
図14に示すように、感情情報記憶部330は、入力された感情情報に他の情報を付加したレコードから成る感情情報データ540を生成する。感情情報データ540は、図10に示す感情情報履歴510と同様の構成となっている。感情情報データ540は、感情情報ナンバー541、感情測定日[年/月/日]542、感情生起開始時間[時:分:秒]543、感情生起終了時間[時:分:秒]544、感情実測値545、イベント546a、および場所546bを含む。
感情情報データ540の生成は、例えば、感情情報履歴と同様に、n秒ごとの感情情報の記録および感情マージ処理により行われる。または、感情情報データ540の生成は、例えば、以下のようにして行われる。感情情報記憶部330は、感情情報取得部220から入力される感情実測値(感情情報)と、外界情報とを監視し、いずれかに変化があるごとに、直前に変化があった時刻から現在までに得られた感情実測値および外界情報に基づいて、感情情報データ540の1つのレコードを作成する。このとき、同一の感情実測値および外界情報が長時間継続する場合を考慮して、レコードの生成間隔の上限を設定してもよい。
感情情報データ540のレコード数は、感情情報履歴510のレコード数に比べて少なく、最新の測定感情特性を算出するのに必要な数に抑えられている。具体的には、感情情報記憶部330は、予め定められたレコード数の上限を超えないように、新たなレコードの追加に対応して最も古いレコードを削除し、各レコードの感情情報ナンバー541を更新する。これにより、データサイズの増大を防ぐとともに、感情情報ナンバー541を基準とした処理を行うことができる。
図8のステップS2000で、印象度算出部340は、印象度算出処理を開始する。印象度算出処理は、基準感情特性520と感情情報データ540とに基づいて、印象度を算出する処理である。
図15は、印象度算出処理を示すフローチャートである。
まず、ステップS2010で、印象度算出部340は、基準感情特性を取得する。
そして、ステップS2020で、印象度算出部340は、ユーザから測定された感情情報データ540を、感情情報記憶部330から取得する。
そして、ステップS2030で、印象度算出部340は、感情情報データ540のうち、i−1番目の感情情報と、i番目の感情情報と、i+1番目の感情情報とを取得する。なお、印象度算出部340は、i−1番目の感情情報またはi+1番目の感情情報が存在しない場合には、取得結果を表わす値をNULLにする。
そして、ステップS2040で、印象度算出部340は、測定感情特性取得部341において、測定感情特性を生成する。測定感情特性は、図13に示す基準感情特性と同一の項目の情報から構成される。測定感情特性取得部341は、図12と同様の処理を、処理対象を感情情報データに置き換えて実行することにより、測定感情特性を算出する。
そして、ステップS2050で、印象度算出部340は、差異算出処理を実行する。差異算出処理は、基準感情特性に対する測定感情特性の差異を、印象度の候補値として算出する処理である。
図16は、差異算出処理の一例を示すフローチャートである。
まず、ステップS2051で、印象度算出部340は、i番目の感情情報について算出された測定感情特性から、代表感情実測値eiα、感情量eiβ、および感情遷移情報eiδを取得する。
そして、ステップS2052で、印象度算出部340は、k番目の感情情報について算出された基準感情特性から、代表感情実測値ekα、感情量ekβ、および感情遷移情報ekδを取得する。kは、感情情報を識別するための変数、つまり、クラスタを識別するための変数である。その初期値は1である。
そして、ステップS2053で、印象度算出部340は、測定感情特性のi番目の代表感情実測値eiαと、基準感情特性のk番目の代表感情実測値ekαとを比較し、比較結果として、図5において説明した感情実測値の差異rαを取得する。
そして、ステップS2054で、印象度算出部340は、測定感情特性のi番目の感情量eiβと、基準感情特性のk番目の感情量ekβとを比較し、比較結果として、図3において説明した感情量の差異rβを取得する。
そして、ステップS2055で、印象度算出部340は、測定感情特性のi番目の感情遷移情報eiδと、基準感情特性のk番目の感情遷移情報ekδとを比較し、比較結果として、図6および図7において説明した感情遷移情報の差異rδを取得する。
そして、ステップS2056で、印象度算出部340は、差異値を算出する。差異値とは、感情実測値の差異rα、感情量の差異rβ、および感情遷移情報の差異rδを統合して、感情情報の差異の程度を表わす値である。具体的には、例えば、差異値は、感情実測値の差異rα、感情量の差異rβ、および感情遷移情報の差異rδに、それぞれ重みを掛けた値を和算したうちの最大値である。差異値Rは、感情実測値の差異rα、感情量の差異rβ、および感情遷移情報の差異rδの重みをそれぞれw、w、wと置くと、以下の式(16)により算出される。
Figure 2010001512
重みw、w、wは、固定値でもよいし、ユーザが調整できる値としてもよいし、学習により決定するようにしてもよい。
そして、ステップS2057で、印象度算出部340は、変数kを1増加させる。
そして、ステップS2058で、印象度算出部340は、変数kが、クラスタの個数Nを超えたか否かを判断する。印象度算出部340は、変数kがクラスタの個数Nを超えていない場合には(S2058:NO)ステップ2052に戻り、変数kがクラスタの個数Nを超えた場合には(S2058:YES)、図15の処理に戻る。
このように、差異算出処理により、変数kを変化させたときの差異値のうち、最も大きい値が、最終的に差異値Riとして取得される。
図15のステップS2060で、印象度算出部340は、取得した差異値Riが、予め定められた印象度閾値以上であるか否かを判断する。印象度閾値は、ユーザが強い印象を受けていると判断すべき差異値Riの最小値である。なお、印象度閾値は、固定値でもよいし、ユーザが調整できる値としてもよいし、経験または学習により決定するようにしてもよい。印象度算出部340は、差異値Riが印象度閾値以上である場合には(S2060:YES)、ステップS2070に進み、差異値Riが印象度閾値未満である場合には(S2060:NO)、ステップS2080に進む。
ステップS2070で、印象度算出部340は、差異値Riを、印象値IMP[i]に設定する。印象値IMP[i]は、結果的に、基準期間にユーザが受けた印象の強さに対して、測定時にユーザが受けた印象の強さを示す度合いである値となる。しかも、印象値IMP[i]は、感情実測値の差異、感情量の差異、および感情遷移情報の差異を反映させた値となる。
ステップS2080で、印象度算出部340は、変数iに1を加算した値が、感情情報の個数Nを超えたか否か、つまり、測定期間の全ての感情情報について処理が終了したか否かを判断する。次に、上記値が個数Nを超えていない場合には(S2080:NO)、ステップS2090に進む。
ステップS2090で、印象度算出部340は、変数iを1増加させて、ステップS2030に戻る。
ステップS2030〜ステップS2090を繰り返して、変数iに1を加算した値が情情報の個数Nを超えた場合には(S2080:YES)、ステップS2100に進む。
ステップS2100で、印象度算出部340は、コンテンツ記録部410の動作が終了するなどして印象度算出処理の終了が指示されたか否かを判断し、終了を指示されていない場合には(S2100:NO)、ステップS2110に進む。
ステップS2110で、印象度算出部340は、変数iを初期値1に戻し、前回ステップS2020の処理を実行してから所定の単位時間が経過したとき、ステップS2020に戻る。
一方、印象度算出処理の終了を指示された場合には(S2100:YES)、印象度算出部340は、一連の処理を終了する。
このような印象度算出処理により、ユーザが強い印象を受けた区間について、所定の単位時間ごとに印象値が算出される。印象度算出部340は、算出した印象値に、印象値算出の基となった感情情報の測定時刻を対応付けた印象度情報を生成する。
図17は、印象度情報の内容の一例を示す図である。
図17に示すように、印象度情報550は、印象度情報ナンバー551、印象度開始時間552、印象度終了時間553、および印象値554を含む。
印象度開始時間には、同一の印象値(印象値554に記述されている印象値)が継続して測定された場合に、その測定時間の開始時刻が記述される。
印象度終了時間には、同一の印象値(印象値554に記述されている印象値)が継続して測定された場合に、その測定時間の終了時刻が記述される。
印象値554には、印象度算出処理により算出された印象値IMP[i]が記述される。
ここでは、例えば、「0001」という印象度情報ナンバー551のレコードにおいて、「2008/03/26/08:10:00」という印象度開始時間552と、「2008/03/26/08:20:00」という印象度終了時間553に対応して、「0.9」という印象値554が記述されている。これは、2008年3月26日8時10分から、2008年3月26日8時20分までの期間に、ユーザが受けた印象の度合いが、印象値「0.9」に対応するということを示す。また、「0002」という印象度情報ナンバー551のレコードにおいて、「2008/03/26/08:20:01」という印象度開始時間552と、「2008/03/26/08:30:04」という印象度終了時間553に対応して、「0.7」という印象値554が記述されている。これは、2008年3月26日8時20分1秒から、2008年3月26日8時30分4秒までの期間に、ユーザが受けた印象の度合いが、印象値「0.7」に対応するということを示す。印象値は、基準感情特性と測定感情特性との差が大きければ大きいほど、大きな値となる。したがって、この印象度情報550は、「0001」という印象度情報ナンバー551に対応する区間のほうが、「0002」という印象度情報ナンバー551に対応する区間よりも、ユーザがより強い印象を受けたことを示している。
このような印象度情報を参照することにより、各時点について、ユーザが受けた印象の度合いを即座に判定することが可能となる。印象度算出部340は、生成した印象度情報を、コンテンツ編集部420から参照可能な状態で格納する。または、印象度算出部340は、印象度情報550のレコードを作成するごとにレコードをコンテンツ編集部420に出力したり、コンテンツの記録が終了した後に、印象度情報550をコンテンツ編集部420に出力したりする。
以上の処理により、コンテンツ編集部420には、コンテンツ記録部410で記録された体験映像コンテンツと、印象度算出部340により生成された印象度情報とが入力される。
図8のステップS2200で、コンテンツ編集部420は、体験映像編集処理を実行する。体験映像編集処理は、印象度情報に基づいて、体験映像コンテンツの中から、印象度の高い期間、つまり、印象値554が所定の閾値よりも高い期間に対応するシーンを抽出して、体験映像コンテンツの要約映像を生成する処理である。
図18は、体験映像編集処理の一例を示すフローチャートである。
まず、ステップS2210で、コンテンツ編集部420は、印象度情報を取得する。以下、印象度情報のレコードを識別するための変数をqとし、印象度情報のレコード数をNとする。qの初期値は1である。
そして、ステップS2220で、コンテンツ編集部420は、q番目のレコードの印象値を取得する。
そして、ステップS2230で、コンテンツ編集部420は、取得した印象値を用いて、体験映像コンテンツのうち、q番目のレコードの期間に該当する区間のシーンに対し、ラベル付けを行う。具体的には、コンテンツ編集部420は、例えば、印象値のレベルを、シーンの重要度を示す情報として、各シーンに付加する。
そして、ステップS2240で、コンテンツ編集部420は、変数qに1を加算した値が、レコード数Nを超えたか否かを判断し、超えていない場合には(S2240:NO)、ステップS2250に進み、超えた場合には(S2240:YES)、ステップS2260に進む。
ステップS2250で、コンテンツ編集部420は、変数qを1増加させ、ステップS2220に戻る。
一方、ステップS2260で、コンテンツ編集部420は、ラベル付けされた体験映像コンテンツの映像区間を分割して、分割した映像区間を、ラベルに基づいて繋ぎ合わせる。そして、コンテンツ編集部420は、繋ぎ合わせた映像を要約映像として、例えば記録媒体に出力し、一連の処理を終了する。具体的には、コンテンツ編集部420は、例えば、シーンの重要度が高いことを示すラベルが付された映像区間のみをピックアップして、ピックアップした映像区間を、基の体験映像コンテンツにおける時間の順序で繋ぎ合わせる。
このようにして、コンテンツ編集装置100は、体験映像コンテンツの中から、ユーザが強く印象を受けたシーンを、高い精度で選択し、選択したシーンから要約映像を生成することができる。
以上説明したように、本実施の形態によれば、生体情報に基づく特性値の比較により印象度を算出するので、ユーザに特に負担を掛けることなく印象度を抽出することができる。また、基準期間におけるユーザ自身の生体情報から得られた基準感情特性を基準として印象度を算出するので、印象度を精度良く抽出することができる。また、印象度に基づいて、体験映像コンテンツの中からシーンを選択して要約映像を生成するので、ユーザが満足するシーンのみをピックアップして、体験映像コンテンツを編集することができる。また、印象度を精度良く抽出するので、ユーザがより満足するコンテンツ編集結果を得ることができ、ユーザが再編集を行う必要性を低減することができる。
また、比較の対象となる感情実測値、感情量、および感情遷移情報の差異を考慮して、基準期間と測定期間との間の感情の差異を判定するので、印象度を高い精度で判定することができる。
なお、コンテンツの取得場所および抽出された印象度の用途は、上記内容に限定されるものではない。例えば、ホテルまたはレストラン等を利用する顧客に生体情報センサを装着させ、サービスを受けているときの顧客の体験をカメラで撮影しながら、印象値が変化したときの状況を記録するようにしてもよい。この場合には、記録結果から、ホテルまたはレストラン側でサービスの質の分析を行うことが容易となる。
(実施の形態2)
本発明の実施の形態2として、ポータブル型のゲーム端末の、選択的な動作を行うゲームコンテンツに本発明を適用した場合について説明する。本実施の形態の印象度抽出装置は、ポータブル型のゲーム端末に備えられている。
図19は、本発明の実施の形態2に係る印象度抽出装置を含むゲーム端末のブロック図であり、実施の形態1の図1に対応するものである。図1と同一部分には同一符号を付し、これについての説明を省略する。
図19において、ゲーム端末100aは、図1の体験映像コンテンツ取得部400に代えて、ゲームコンテンツ実行部400aを有する。
ゲームコンテンツ実行部400aは、選択的な動作を行うゲームコンテンツを実行する。ゲームコンテンツは、ここでは、ユーザが仮想的にペットを飼育し、操作内容に応じてペットの反応および成長が異なるようなゲームであるものとする。ゲームコンテンツ実行部400aは、コンテンツ処理部410aおよびゲームコンテンツ操作部420aを有する。
コンテンツ処理部410aは、ゲームコンテンツを実行するための各種処理を行う。
コンテンツ操作部420aは、印象度抽出部300により抽出された印象度に基づいて、コンテンツ処理部410aに対する選択操作を行う。具体的には、コンテンツ操作部420aには、印象値に対応付けたゲームコンテンツに対する操作内容が予め設定されている。そして、コンテンツ操作部420aは、コンテンツ処理部410aによりゲームコンテンツが開始され、印象度抽出部300により印象値の算出が開始されると、ユーザが受けた印象の度合いに応じてコンテンツの操作を自動で行うコンテンツ操作処理を開始する。
図20は、コンテンツ操作処理の一例を示すフローチャートである。
まず、ステップS3210で、コンテンツ操作部420aは、印象値IMP[i]を、印象度抽出部300から取得する。実施の形態1と異なり、コンテンツ操作部420aは、印象度抽出部300から、最新の生体情報から得られた印象値のみを取得するようにすればよい。
そして、ステップS3220で、コンテンツ操作部420aは、取得した印象値に対応する操作内容を、コンテンツ処理部410aに出力する。
そして、ステップS3230で、コンテンツ操作部420aは、処理の終了が指示されたかを判断し、指示されていない場合には(S3230:NO)、ステップS3210に戻り、指示された場合には(S3230:YES)、一連の処理を終了する。
このように、本実施の形態によれば、ユーザが手動で操作を行わなくても、ユーザが受けている印象の度合いに応じた選択操作がゲームコンテンツに対して行われる。例えば、普段よく笑うユーザが笑っても、印象値はそれほど高くならずにペットの成長は普通となるが、ほとんど笑わないようなユーザが笑った場合には、印象値が高くなりペットが急成長するといったように、ユーザごとに異なるユニークなコンテンツ操作を行うことが可能となる。
(実施の形態3)
本発明の実施の形態3として、携帯電話機の待ち受け画面の編集に本発明を適用した場合について説明する。本実施の形態の印象度抽出装置は、携帯電話機に備えられている。
図21は、本発明の実施の形態3に係る印象度抽出装置を含む携帯電話機のブロック図であり、実施の形態1の図1に対応するものである。図1と同一部分には同一符号を付し、これについての説明を省略する。
図21において、携帯電話機100bは、図1の体験映像コンテンツ取得部400に代えて、携帯電話部400bを有する。
携帯電話部400bは、液晶ディスプレイ(図示せず)の待ち受け画面の表示制御を含めた携帯電話機の機能を実現する。携帯電話部400bは、画面デザイン格納部410bおよび画面デザイン変更部420bを有する。
画面デザイン格納部410bは、待ち受け画面用の画面デザインのデータを複数格納している。
画面デザイン変更部420bは、印象度抽出部300により抽出された印象度に基づいて、待ち受け画面の画面デザインを変更する。具体的には、画面デザイン変更部420bは、画面デザイン格納部410bに格納された画面デザインと印象値とを予め対応付けている。そして、画面デザイン変更部420bは、最新の印象値に対応する画面デザインを画面デザイン格納部410bから選択して待ち受け画面に採用する、画面デザイン変更処理を実行する。
図22は、画面デザイン変更処理の一例を示すフローチャートである。
まず、ステップS4210で、画面デザイン変更部420bは、印象値IMP[i]を、印象度抽出部300から取得する。画面デザイン変更部420bは、実施の形態1のコンテンツ編集部420と異なり、印象度抽出部300から、最新の生体情報から得られた印象値のみを取得するようにすればよい。なお、最新の印象値の取得は、任意の時間ごと、または、印象値が変化するごとに取得しても良い。
そして、ステップS4220で、画面デザイン変更部420bは、画面デザインを変更すべきか否か、つまり、取得した印象値に対応する画面デザインが、現在待ち受け画面として設定されている画面デザインと異なるか否かを判断する。画面デザイン変更部420bは、画面デザインを変更すべきと判断した場合は(S4220:YES)、ステップS4230に進み、変更すべきではないと判断した場合は(S4220:NO)、ステップS4240に進む。
ステップS4230で、画面デザイン変更部420bは、画面デザイン格納部410bから、最新の印象値に対応する待ち受け画面のデザインを取得し、最新の印象値に対応する画面デザインに変更する。具体的には、画面デザイン変更部420bは、最新の印象値に対応付けられた画面デザインのデータを画面デザイン格納部410bから取得し、取得したデータに基づいて、液晶ディスプレイの画面の描画を行う。
そして、ステップS4240で、画面デザイン変更部420bは、処理の終了が指示されたかを判断し、指示されていない場合には(S4240:NO)、ステップS4210に戻り、指示された場合には(S4240:YES)、一連の処理を終了する。
このように、本実施の形態によれば、ユーザが手動で操作を行わなくても、携帯電話機の待ち受け画面が、ユーザが受けている印象の度合いに応じた画面デザインに切り替わる。なお、待ち受け画面以外の画面デザイン、またはLED(light emitting diode)を用いた発光部の発光色等を、印象度に応じて変更するようにしてもよい。
(実施の形態4)
本発明の実施の形態4として、デザインが可変のアクセサリに本発明を適用した場合について説明する。本実施の形態の印象度抽出装置は、ペンダントヘッド等のアクセサリと、このアクセサリに対して無線通信により印象値を送信する携帯端末とから成る通信システムに備えられている。
図23は、本発明の実施の形態4に係る印象度抽出装置を含む通信システムのブロック図である。図1と同一部分には同一符号を付し、これについての説明を省略する。
図23において、通信システム100cは、図1の体験映像コンテンツ取得部400に代えて、アクセサリ制御部400cを有する。
アクセサリ制御部400cは、アクセサリ(図示せず)に内蔵され、別の携帯端末に備えられた印象度抽出部300から無線通信により印象度を取得して、取得した印象度に基づいてアクセサリの外観を制御する。アクセサリは、例えば、複数のLEDを有し、点灯させる色または点灯パターンを変化させたり、模様を変化させたりすることが可能となっている。アクセサリ制御部400cは、変化パターン格納部410cおよびアクセサリ変化部420cを有する。
変化パターン格納部410cは、アクセサリの外観の変化パターンを複数格納している。
アクセサリ変化部420cは、印象度抽出部300により抽出された印象度に基づいて、アクセサリの外観を変化させる。具体的には、アクセサリ変化部420cは、変化パターン格納部410cに格納された変化パターンと印象値とを予め対応付けている。そして、アクセサリ変化部420cは、最新の印象値に対応する変化パターンを変化パターン格納部410cから選択して、選択した変化パターンの通りにアクセサリの外観を変化させるアクセサリ変更処理を実行する。
図24は、アクセサリ変更処理の一例を示すフローチャートである。
まず、ステップS5210で、アクセサリ変化部420cは、印象値IMP[i]を、印象度抽出部300から取得する。実施の形態1と異なり、アクセサリ変化部420cは、印象度抽出部300から、最新の生体情報から得られた印象値のみを取得するようにすればよい。なお、最新の印象値の取得は、任意の時間ごと、または、印象値が変化するごとに取得しても良い。
そして、ステップS5220で、アクセサリ変化部420cは、アクセサリの外観を変化させるべきか否か、つまり、取得した印象値に対応する変化パターンが、現在適用されている変化パターンと異なるか否かを判断する。アクセサリ変化部420cは、アクセサリの外観を変化させるべきと判断した場合は(S5220:YES)、ステップS5230に進み、変化させるべきではないと判断した場合は(S5220:NO)、ステップS5240に進む。
ステップS5230で、アクセサリ変化部420cは、印象度抽出部300から、最新の印象値に対応する変化パターンを取得し、アクセサリの外観に、最新の印象値に対応する変化パターンを適用する。
そして、ステップS5240で、アクセサリ変化部420cは、処理の終了が指示されたかを判断し、指示されていない場合には(S5240:NO)、ステップS5210に戻り、指示された場合には(S5240:YES)、一連の処理を終了する。
このように、本実施の形態によれば、ユーザが手動で操作を行わなくても、ユーザが受けている印象の度合いに合わせて、アクセサリの外観を変化させることができる。なお、また、印象度に、感情種別等、他の感情特性を組み合わせることにより、ユーザの気分をも反映させて、アクセサリの外観を変化させることができる。また、本発明は、ペンダントヘッド以外にも、指輪、ネックレス、腕時計等の他のアクセサリにも適用することができる。更に、本発明は、携帯電話機、バッグ等の各種携行品にも適用することができる。
(実施の形態5)
本発明の実施の形態5として、印象度だけでなく測定感情特性を用いてコンテンツを編集する場合について説明する。
図25は、本発明の実施の形態5に係る印象度抽出装置を含むコンテンツ編集装置のブロック図であり、実施の形態1の図1に対応するものである。図1と同一部分には同一符号を付し、これについての説明を省略する。
図25において、コンテンツ編集装置100dの体験映像コンテンツ取得部400dは、図1のコンテンツ編集部420とは異なる体験映像編集処理を実行するコンテンツ編集部420dを有し、更に、編集条件設定部430dを有する。
編集条件設定部430dは、測定感情特性取得部341から測定感情特性を取得し、測定感情特性に関連付けた編集条件の設定を、ユーザから受け付ける。編集条件は、ユーザが編集を希望する期間の条件である。編集条件設定部430dは、この編集条件の設定の受け付けを、グラフィカルユーザインタフェースであるユーザ入力画面を用いて行う。
図26は、ユーザ入力画面の一例を示す図である。
図26に示すように、ユーザ入力画面600は、期間指定欄610、場所指定欄620、参加イベント指定欄630、代表感情実測値指定欄640、感情量指定欄650、感情遷移情報指定欄660、および決定ボタン670を有する。欄610〜660は、プルダウンメニューまたはテキスト入力欄を有し、ユーザのキーボードやマウス等の入力装置(図示せず)の操作による、項目の選択またはテキストの入力を受け付ける。すなわち、ユーザ入力画面600で設定可能な項目は、測定感情特性の項目に対応している。
期間指定欄610は、時刻のプルダウンメニューにより、測定期間の中から、編集対象となる期間の指定を受け付ける。場所指定欄620は、テキスト入力により、編集対象である場所の属性を指定する入力を受け付ける。参加イベント指定欄630は、テキスト入力により、参加イベントの属性の中から編集対象であるイベントの属性を指定する入力を受け付ける。代表感情実測値指定欄640は、代表感情実測値に対応する感情種別のプルメニューにより、編集対象となる感情種別の指定を受け付ける。
感情量指定欄650は、感情実測値指定欄651、感情強度指定欄652、および持続時間指定欄653により構成される。なお、感情実測値指定欄651は、感情実測値指定欄640と連動して構成することも出来る。感情強度指定欄652は、数値のプルダウンメニューにより、編集対象である感情強度の最小値を指定する入力を受け付ける。持続時間指定欄653は、数値のプルダウンメニューにより、感情強度が指定された最小値を超えた状態を持続している時間について、編集対象である持続時間の最小値を指定する入力を受け付ける。
感情遷移情報指定欄660は、感情実測値指定欄661、感情遷移方向指定欄662、および感情遷移速度指定欄663により構成される。なお、感情実測値指定欄661は、感情実測値指定欄640と連動して構成することも出来る。感情遷移方向指定欄662は、感情種別のプルダウンメニューにより、前の感情実測値および後の感情実測値の指定を、編集対象となる感情遷移方向の指定として受け付ける。感情遷移速度指定欄663により構成される。数値のプルダウンメニューにより、前の感情遷移速度および後の感情遷移速度の指定を、編集対象となる感情遷移速度の指定として受け付ける。
ユーザは、このようなユーザ入力画面600を操作することにより、ユーザが思い出に残ると思う箇所の条件を、測定感情特性に関連付けて指定することができる。編集条件設定部430dは、決定ボタン670がユーザ操作により押下されると、その時点の画面の設定内容を、編集条件として、コンテンツ編集部420dに出力する。
コンテンツ編集部420dは、印象度算出部340から印象度情報を取得するだけでなく、測定感情特性取得部341から、測定感情特性を取得する。そして、コンテンツ編集部420dは、印象度情報と、測定感情特性と、編集条件設定部430dから入力された編集条件とに基づいて体験映像コンテンツの要約映像を生成する体験映像編集処理を行う。具体的には、コンテンツ編集部420dは、印象値が所定の閾値よりも高い期間のうち、編集条件に適合する期間に対応するシーンのみを抽出して、体験映像コンテンツの要約映像を生成する。
または、コンテンツ編集部420dは、編集条件に適合する期間か否かに応じて、印象度算出部340から入力された印象値を補正し、補正後の印象値が所定の閾値よりも高い期間のシーンのみを抽出して、体験映像コンテンツの要約映像を生成してもよい。
図27は、編集対象を制限することによる効果を説明するための図である。
図27に示すように、第1の区間710では、感情種別「興奮」の感情強度が5である区間が1秒ずつ持続し、残りの区間の感情強度は低いとする。また、この持続時間は、平常時に一時的に感情強度が高くなるときと同程度に短いとする。このような場合、第1の区間710は、編集対象外とすべきである。一方、第2の区間720では、感情強度がである区間が6秒持続するとする。感情強度は低いが、その持続時間は、平常時の持続時間よりも長いとする。この場合、第2の区間720は、編集対象とすべきである。
そこで、例えば、ユーザは、図26に示すユーザ入力画面600において、代表感情実測値指定欄640に「興奮」、感情量指定欄650の感情強度652に「3」、感情量指定欄650の持続時間653に「3」を設定し、決定ボタン670を押下する。この場合、第1の区間710は、編集条件を満たさないため、編集対象外となり、第2の区間720は、編集条件を満たすため、編集対象となる。
このように、本実施の形態によれば、ユーザが思い出に残ると思う箇所をピックアップして、コンテンツを自動編集することができる。また、ユーザが、測定感情特性と関連付けて編集条件を指定することができるので、ユーザの主観的な感性を、コンテンツの編集に、より的確に反映させることができる。また、編集条件に基づいて印象値を補正する場合には、印象度の抽出の精度を更に向上させることができる。
なお、編集条件設定部430dは、測定感情特性と直接には関連しない条件を、編集条件に含めてもよい。具体的には、例えば、編集条件設定部430dは、要約映像における上限時間の指定を受け付ける。そして、コンテンツ編集部420dは、編集対象となる感情種別の持続時間や感情遷移速度を、指定された範囲内で変化させ、上限時間に最も近くなる条件を採用する。この場合、編集条件設定部430dは、他の条件を満たす期間の合計時間が上限時間に満たないときには、より低い重要度(印象値)のシーンを要約映像に含めるようにしてもよい。
また、測定感情特性等を用いて印象値の補正またはコンテンツの編集を行う手法は、実施の形態2〜実施の形態4にも適用することが可能である。
本発明は、以上、説明した各実施の形態以外にも、ユーザの感情に基づいて、電子機器における各種の選択処理を行うことに適用することができる。例えば、携帯電話機において、着信音の種類の選択、着信可否状態の選択、または情報配信サービスにおけるサービス種別の選択である。
また、例えば、車載カメラと運転者に装着させた生体情報センサとから得られた情報を対応付けて記憶するレコーダに、本発明を適用することにより、運転者の印象値の変化から注意力が散漫となっているときにこれを検出することができる。そして、注意力が散漫となっているときに、音声等により運転者に注意喚起を行ったり、事故等が発生した場合にそのときの映像を取り出して原因分析を行ったりすることが容易となる。
また、感情情報生成部は、基準感情特性を算出するためのものと、測定感情特性を算出するためのものとで、別個に設けてもよい。
2008年7月3日出願の特願2008−174763の日本出願に含まれる明細書、図面および要約書の開示内容は、すべて本願に援用される。
本発明に係る印象度抽出装置および印象度抽出方法は、ユーザに特に負担を掛けることなく、精度良く印象度を抽出することができる印象度抽出装置および印象度抽出方法として有用である。本発明に係る印象度抽出装置および印象度抽出方法は、心理状態変化に基づいた印象度算出を行うことにより、ユーザのいつもと違う感情の自動判別を行うことができ、ユーザに特に手間を掛けることなく、ユーザの感情特性に忠実に印象度の自動算出を行うことができる。また、その算出結果は、体験映像の自動要約、ゲーム、携帯電話機等のモバイル機器、アクセサリのデザイン、自動車関連、顧客管理システム等、様々な応用アプリケーションで利用可能である。
本発明は、ユーザが受けた印象の強さを示す度合いである印象度を抽出する印象度抽出装置および印象度抽出方法に関する。
大量の撮影画像の中から保存画像を取捨選択する場合や、ゲームで選択的な操作を行う場合等において、ユーザが受けた印象の強弱に基づいて選択が行われることが多い。ところが、対象物の数が多い場合、その選択作業はユーザにとって負担となる。
例えば、近年注目されているウェアラブルタイプのビデオカメラは、丸一日というように、撮影を長時間継続して行うことが容易である。ところが、このような長時間撮影が行われる場合、大量に記録される映像データの中から、ユーザにとって重要な部分をどのように選び出すかが、大きな問題となる。ユーザにとって重要な部分は、ユーザの主観的な感性に基づいて決定されるべきものである。したがって、映像の全てを確認しながら、重要な部分の検索および要約を行う作業が必要となる。
そこで、ユーザの覚醒水準に基づいて映像を自動で取捨選択する技術が、例えば特許文献1に記載されている。特許文献1記載の技術では、映像撮影と同期してユーザの脳波を記録し、ユーザの覚醒水準が予め定められた基準値よりも高い区間の撮影映像を抽出して、映像の自動編集を行う。これにより、映像の取捨選択を自動化することができ、ユーザの負担を軽減することができる。
特開2002−204419号公報
しかしながら、覚醒水準と基準値との比較では、興奮、注意、および集中の度合いしか判定することができず、喜怒哀楽といったより高度な感情状態を判定することは難しい。また、取捨選択の分かれ目となる覚醒水準のレベルには個人差がある。また、ユーザが受けた印象の強さは、覚醒水準のレベルではなく覚醒水準の変化の仕方として現れる場合もある。したがって、特許文献1記載の技術では、ユーザが受けた印象の強さを示す度合い(以下「印象度」という)を精度良く抽出することができず、ユーザが満足する選択結果を得られない可能性が高い。例えば、上記した撮影映像の自動編集では、印象に残るシーンを正確に抽出することが困難である。この場合、ユーザが選択結果を確認しながら手動で取捨選択のやり直しを行う必要が生じ、結果として、ユーザに負担が掛かるおそれがある。
本発明の目的は、ユーザに特に負担を掛けることなく、精度良く印象度を抽出することができる印象度抽出装置および印象度抽出方法を提供することである。
本発明の印象度抽出装置は、第1の期間にユーザに生起した感情の特性を示す第1の感情特性を取得する第1の感情特性取得部と、前記第1の期間とは異なる第2の期間に前記ユーザに生起した感情の特性を示す第2の感情特性と前記第1の感情特性との比較により、前記第1の期間に前記ユーザが受けた印象の強さを示す度合いである印象度を算出する
印象度算出部とを有する。
本発明の印象度抽出方法は、第1の期間にユーザに生起した感情の特性を示す第1の感情特性を取得するステップと、前記第1の期間とは異なる第2の期間に前記ユーザに生起した感情の特性を示す第2の感情特性と前記第1の感情特性との比較により、前記第1の期間に前記ユーザが受けた印象の強さを示す度合いである印象度を算出するステップとを有する。
本発明によれば、第2の期間に実際にユーザが受けた印象の強さを比較基準として、第1の期間の印象度を算出することができるので、ユーザに特に負担を掛けることなく、精度良く印象度を抽出することができる。
本発明の実施の形態1に係る印象度抽出装置を含むコンテンツ編集装置のブロック図 実施の形態1に係るコンテンツ編集装置において用いられる2次元感情モデルの一例を示す図 実施の形態1における感情実測値を説明するための図 実施の形態1における感情の時間変化の様子を示す図 実施の形態1における感情量を説明するための図 実施の形態1における感情遷移方向を説明するための図 実施の形態1における感情遷移速度を説明するための図 実施の形態1に係るコンテンツ編集装置の全体動作の一例を示すシーケンス図 実施の形態1における感情情報取得処理の一例を示すフローチャート 実施の形態1における感情情報履歴の内容の一例を示す図 実施の形態1における基準感情特性取得処理を示すフローチャート 実施の形態1における感情遷移情報取得処理を示すフローチャート 実施の形態1における基準感情特性の内容の一例を示す図 実施の形態1における感情情報データの内容の一例を示す図 実施の形態1における印象度算出処理を示すフローチャート 実施の形態1における差異算出処理の一例を示すフローチャート 実施の形態1における印象度情報の内容の一例を示す図 実施の形態1における体験映像編集処理の一例を示すフローチャート 本発明の実施の形態2に係る印象度抽出装置を含むゲーム端末のブロック図 実施の形態2におけるコンテンツ操作処理の一例を示すフローチャート 本発明の実施の形態3に係る印象度抽出装置を含む携帯電話機のブロック図 実施の形態3における画面デザイン変更処理の一例を示すフローチャート 本発明の実施の形態4に係る印象度抽出装置を含む通信システムのブロック図 実施の形態4におけるアクセサリ変更処理の一例を示すフローチャート 本発明の実施の形態5に係る印象度抽出装置を含むコンテンツ編集装置のブロック図 本実施の形態5におけるユーザ入力画面の一例を示す図 本実施の形態5における効果を説明するための図
以下、本発明の各実施の形態について、図面を参照して詳細に説明する。
(実施の形態1)
図1は、本発明の実施の形態1に係る印象度抽出装置を含むコンテンツ編集装置のブロ
ック図である。本発明の実施の形態は、遊園地または旅行先でウェアラブルビデオカメラを用いて映像撮影を行い、撮像された映像(以下適宜「体験映像コンテンツ」という)を編集する装置に適用した例である。
図1において、コンテンツ編集装置100は、大きく分けて、感情情報生成部200、印象度抽出部300、および体験映像コンテンツ取得部400を有する。
感情情報生成部200は、ユーザに生起した感情を示す感情情報を、ユーザの生体情報から生成する。ここで、感情とは、喜怒哀楽といった情動のみならず、リラックス等の気分をも含む精神状態全般を指す。感情の生起とは、ある精神状態から異なる精神状態へと遷移することを含む。感情情報は、印象度抽出部300における印象度算出の対象となるものであり、その詳細については後述する。感情情報生成部200は、生体情報測定部210および感情情報取得部220を有する。
生体情報測定部210は、センサおよびディジタルカメラ等の検出装置(図示せず)に接続され、ユーザの生体情報を測定する。生体情報は、例えば、心拍数、脈拍、体温、顔の筋電変化、音声の少なくともいずれか1つを含む。
感情情報取得部220は、生体情報測定部210によって得られたユーザの生体情報から、感情情報を生成する。
印象度抽出部300は、感情情報取得部220において生成された感情情報に基づいて、印象度を算出する。ここで、印象度は、過去の、ユーザの感情情報の基準となる期間(以下「基準期間」という)にユーザが受けた印象の強さを基準としたときの、任意の期間にユーザが受けた印象の強さを示す度合いである。すなわち、印象度は、基準期間の印象の強さを基準としたときの、相対的な印象の強さである。したがって、基準時間をユーザが平常状態にあった期間または十分に長い期間とすることによって、印象度は、そのユーザにとっての、平常時とは違う特別さの度合いを示す値となる。本実施の形態では、体験映像コンテンツを記録している期間を、印象度算出の対象となる期間(以下「測定期間」という)とする。印象度抽出部300は、履歴格納部310、基準感情特性取得部320、感情情報記憶部330、および印象度算出部340を有する。
履歴格納部310は、感情情報生成部200によって過去に得られた感情情報を、感情情報履歴として蓄積する。
基準感情特性取得部320は、履歴格納部310に格納された感情情報履歴から、基準期間の感情情報を読み出し、読み出した感情情報から、基準期間におけるユーザの感情情報の特性を示す情報(以下「基準感情特性」という)を生成する。
感情情報記憶部330は、感情情報生成部200によって測定期間に得られた感情情報を記憶する。
印象度算出部340は、測定期間におけるユーザの感情情報の特性を示す情報(以下「測定感情特性」)と、基準感情特性取得部320によって算出された基準感情特性との差異に基づいて、印象度を算出する。印象度算出部340は、感情情報記憶部330に記憶された感情情報から測定感情特性を生成する測定感情特性取得部341を有する。印象度の詳細については後述する。
体験映像コンテンツ取得部400は、体験映像コンテンツを記録し、記録している間(測定期間)の感情情報から算出された印象度に基づいて、体験映像コンテンツの編集を行
う。体験映像コンテンツ取得部400は、コンテンツ記録部410およびコンテンツ編集部420を有する。
コンテンツ記録部410は、ディジタルビデオカメラ等の映像入力装置(図示せず)に接続され、映像入力装置において撮影された体験映像を、体験映像コンテンツとして記録する。
コンテンツ編集部420は、例えば、印象度抽出部300により得られた印象度と、コンテンツ記録部410により記録された体験映像コンテンツとを、時間軸上で対応させて比較し、印象度が高い期間に対応するシーンを抽出して、体験映像コンテンツの要約映像を生成する。
コンテンツ編集装置100は、例えば、CPU(central processing unit)、制御プログラムを格納したROM(read only memory)等の記憶媒体、RAM(random access memory)等の作業用メモリ等を有する。この場合には、上記各部の機能は、CPUが制御プログラムを実行することで実現される。
このようなコンテンツ編集装置100によれば、生体情報に基づく特性値の比較により印象度を算出するので、ユーザに特に負担を掛けることなく印象度を抽出することができる。また、基準期間におけるユーザ自身の生体情報から得られた基準感情特性を基準として印象度を算出するので、印象度を精度良く抽出することができる。また、印象度に基づいて、体験映像コンテンツの中からシーンを選択して要約映像を生成するので、ユーザが満足するシーンのみをピックアップして、体験映像コンテンツを編集することができる。また、印象度を精度良く抽出するので、ユーザがより満足するコンテンツ編集結果を得ることができ、ユーザが再編集を行う必要性を低減することができる。
ここで、コンテンツ編集装置100の動作説明の前に、コンテンツ編集装置100において用いられる各種情報について説明する。
まず、感情情報を定量的に定義する際に用いられる感情モデルについて説明する。
図2は、コンテンツ編集装置100において用いられる2次元感情モデルの一例を示す図である。
図2に示す2次元感情モデル500は、LANG感情モデルと呼ばれる感情モデルである。2次元感情モデル500は、快と不快(または正感情と負感情)の度合いである快度を示す横軸と、興奮、緊張またはリラックスを含む度合いである覚醒度を示す縦軸の2軸により形成される。2次元感情モデル500の2次元空間は、縦軸と横軸との関係から、「興奮(Excited)」、「沈静(Relaxed)」、「哀しみ(Sad)」等、感情種別ごとに領域が定義されている。2次元感情モデル500を用いることにより、縦軸の値と横軸の値との組合せで、感情を簡単に表現することができる。本実施の形態における感情情報は、この2次元感情モデル500における座標値であり、間接的に感情を表現する。
ここでは、例えば、座標値(4,5)は「興奮」という感情種別の領域内に位置し、座標値(−4,−2)は「哀しみ」という感情種別の領域内に位置している。したがって、座標値(4,5)の感情期待値および感情実測値は「興奮」という感情を示し、座標値(−4,−2)の感情期待値および感情実測値は「哀しみ」という感情種別を示す。2次元感情モデル500において、感情期待値と感情実測値との距離が短い場合、それぞれが示す感情は類似したものであるといえる。本実施の形態の感情情報とは、感情実測値に、その基となった生体情報が測定された時刻を付加した情報をいうものとする。
なお、感情モデルとして、2次元以上のモデルまたはLANG感情モデル以外のモデルを用いてもよい。例えば、コンテンツ編集装置100は、感情モデルとして、3次元感情モデル(快/不快、興奮/沈静、緊張/弛緩)、または、6次元感情モデル(怒り、恐れ、哀しみ、喜び、嫌悪、驚き)を用いてもよい。このようなより高次元の感情モデルを用いた場合には、感情種別をより細分化して表現することができる。
次に、図3から図7を用いて、基準感情特性および測定感情特性を構成するパラメタの種別について説明する。基準感情特性および測定感情特性を構成するパラメタ種別は、同一であり、感情実測値、感情量、および感情遷移情報を含む。感情遷移情報は、感情遷移方向および感情遷移速度を含む。以下、記号eは、基準感情特性および測定感情特性を構成するパラメタであることを示す。また、記号iは、以下、測定感情特性に関するパラメタであることを示す記号であるとともに、個々の測定感情特性を識別するための変数である。記号jは、基準感情特性に関するパラメタであることを示す記号であるとともに、個々の基準感情特性を識別するための変数である。
図3は、感情実測値を説明するための図である。感情実測値eiα、ejαは、図2に示す2次元感情モデル500における座標値であり、(x,y)により表わされる。基準感情特性と測定感情特性との間の感情実測値の差異rαは、図3に示すように、基準感情特性の感情実測値ejαの座標を(x,y)、測定感情特性の感情実測値eiαの座標を(x,y)とすると、以下の式(1)により求められる値である。
Figure 2010001512
すなわち、感情実測値の差異rαは、感情モデル空間における距離、つまり、感情の差異の大きさを示す。
図4は、感情の時間変化の様子を示す図である。ここでは、感情の状態を示す特性の1つとして、感情実測値のうち覚醒度の値y(以下適宜「感情強度」という)に着目する。図4に示すように、感情強度yは、時間の経過と共に変化する。感情強度yは、ユーザが興奮または緊張しているときには高い値となり、ユーザがリラックスしているときには低い値となる。また、ユーザが長い時間継続して興奮または緊張しているときには、感情強度yが高い値で長い時間持続する。同じ感情強度でも、長い時間継続しているほうが、より強い興奮状態にあるといえる。したがって、本実施の形態では、感情強度を時間積分した感情量を、印象値の算出に用いる。
図5は、感情量を説明するための図である。感情量eiβ、ejβは、感情強度yを時間積分した値である。感情量eiβは、例えば、同一の感情強度yが時間tだけ継続した場合には、y×tにより表わされる。図5において、基準感情特性と測定感情特性との間の感情量の差異rβは、基準感情特性の感情量をy×t、測定感情特性の感情量をy×tとすると、以下の式(2)により求められる値である。
Figure 2010001512
すなわち、感情量の差異rβは、感情強度の積分値の差異、つまり、感情の強さの差異を示す。
図6は、感情遷移方向を説明するための図である。感情遷移方向eidir、ejdirは、感情実測値が遷移するときの遷移方向を、遷移の前後における2組の感情実測値を用いて示す情報である。遷移の前後における2組の感情実測値とは、例えば、所定の時間間隔で取得された2組の感情実測値であり、ここでは連続して得られる2組の感情実測値とする。図6では、覚醒度(感情強度)にのみ着目して、感情遷移方向eidir、ejdirを図示している。感情遷移方向eidirは、例えば、処理の対象となっている感情実測値をeiAfter、1つ前の感情実測値をeiBeforeとすると、以下の式(3)により求められる値である。
Figure 2010001512
同様に、感情実測値ejdirも、感情実測値ejAfter、ejBeforeから求めることができる。
図7は、感情遷移速度を説明するための図である。感情遷移速度eivel、ejvelは、感情実測値が遷移するときの遷移速度を、遷移の前後における2組の感情実測値を用いて示す情報である。図7では、覚醒度(感情強度)にのみ着目して、また、測定感情特性に関するパラメータにのみ着目して、図示を行っている。感情遷移方向eivelは、例えば、感情強度の遷移幅をΔhとし、遷移に要した時間をΔt(感情実測値の取得間隔)とすると、以下の式(4)により求められる値である。
Figure 2010001512
同様に、感情遷移方向ejvelも、感情実測値ejAfter、ejBeforeから求めることができる。
感情遷移情報は、感情遷移方向と感情遷移速度とを重み付けした上で加算した値である。感情遷移情報eiδは、感情遷移方向eidirの重みをwidir、感情遷移速度eivelの重みをwivelとしたとき、以下の式(5)により求められる値である。
Figure 2010001512
同様に、感情遷移情報ejδも、感情遷移方向ejdirおよびその重みwidirと、感情遷移速度ejvelおよびその重みをwjvelとから求めることができる。
基準感情特性と測定感情特性との間の感情遷移情報の差異rδは、以下の式(6)により求められる値である。
Figure 2010001512
すなわち、感情遷移情報の差異rδは、感情遷移の仕方による違いの程度を示す。
このような感情実測値の差異rα、感情量の差異rβ、および感情遷移情報の差異rδを算出することにより、基準期間と測定期間との間の感情の差異を高い精度で判定するこ
とができる。例えば、喜怒哀楽といった高度な感情状態、感情が高ぶっている状態の継続時間、普段落ち着いている人が急に興奮する状態、「悲しみ」の状態から「喜び」の状態への移行等、強い印象を受けたときの特徴的な精神状態を、検出することが可能となる。
以下、コンテンツ編集装置100の全体動作について説明する。
図8は、コンテンツ編集装置100の全体動作の一例を示すシーケンス図である。
コンテンツ編集装置100の動作は、大別して、基準感情特性の基となる感情情報を蓄積する段階(以下「感情情報蓄積段階」という)と、リアルタイムで測定される感情情報に基づいてコンテンツを編集する段階(以下「コンテンツ編集段階」という)の、2つの段階から成る。図8では、ステップS1100〜S1300が、感情情報蓄積段階の処理であり、ステップS1400〜S2200が、コンテンツ編集段階の処理である。
まず、感情情報蓄積段階の処理について説明する。
処理に先立って、ユーザから必要な生体情報を検出するためのセンサと、映像を撮影するためのディジタルビデオカメラとがセッティングされる。セッティングが完了した後、コンテンツ編集装置100の動作が開始される。
まず、ステップS1100で、生体情報測定部210は、ユーザの生体情報を測定し、取得した生体情報を、感情情報取得部220に出力する。生体情報測定部210は、生体情報として、例えば、脳波、皮膚電気抵抗値、皮膚コンダクタンス、皮膚温度、心電図周波数、心拍数、脈拍、体温、筋電、顔画像、音声等の少なくともいずれか1つを検出する。
そして、ステップS1200で、感情情報取得部220は、感情情報取得処理を開始する。感情情報取得処理は、予め設定された時間ごとに生体情報を解析し、感情情報を生成して、印象度抽出部300に出力する処理である。
図9は、感情情報取得処理の一例を示すフローチャートである。
まず、ステップS1210で、感情情報取得部220は、生体情報測定部210から、所定の時間間隔(ここでは、n秒間隔とする)で生体情報を取得する。
そして、ステップS1220で、感情情報取得部220は、生体情報に基づいて感情実測値を取得し、感情実測値から感情情報を生成して印象度抽出部300に出力する。
ここで、生体情報から感情実測値を取得する具体的手法と、感情実測値が表わす内容とについて説明する。
人間の生理的信号は、人間の感情の変化に応じて変化することが知られている。感情情報取得部220は、この感情の変化と生理的信号の変化との関係を用いて、生体情報から感情実測値を取得する。
例えば、人間は、よりリラックスした状態にあるほど、アルファ(α)波成分の割合が大きくなることが知られている。また、驚き、恐怖、または心配によって皮膚電気抵抗値が上昇すること、喜びの感情が大きく生起すると皮膚温度および心電図周波数が上がること、心理的・精神的に安定している場合には心拍数および脈拍はゆっくりとした変化を示すこと等が知られている。また、上記した生理的指標以外にも、喜怒哀楽等の感情に応じ
て、泣く、笑う、怒る等により、表情および音声の種類が変化することが知られている。更に、落ち込んでいるときには声が小さくなり、怒ったり喜んだりしているときには声が大きくなる傾向があることも知られている。
したがって、皮膚電気抵抗値、皮膚温度、心電図周波数、心拍数、脈拍、音声レベルを検出したり、脳波から脳波のα波成分の割合を解析したり、顔の筋電変化または顔の画像から表情認識を行ったり、音声認識を行う等して生体情報を取得し、生体情報から感情を解析することが可能である。
具体的には、例えば、上記各生体情報の値を図2に示す2次元感情モデル500の座標値に変換するための変換テーブルまたは変換式を、感情情報取得部220に予め用意する。そして、感情情報取得部220は、生体情報測定部210から入力された生体情報を、変換テーブルまたは変換式を用いて2次元感情モデル500の2次元空間にマッピングし、該当する座標値を感情実測値として取得する。
例えば、皮膚コンダクタンス信号(skin conductance)は、覚醒度(arousal)に応じて増加し、筋電信号(electromyography:EMG)は、快度に応じて変化する。したがって、感情情報取得部220は、ユーザの体験映像撮影時の体験内容(デートまたは旅行等)に対する好ましさの程度に対応付けて、予め皮膚コンダクタンスを測定しておく。これにより、2次元感情モデル500において、皮膚コンダクタンス信号の値を覚醒度として示す縦軸に、筋電信号の値を快度として示す横軸に、それぞれ対応付けることができる。この対応付けを変換テーブルまたは変換式として予め用意しておき、皮膚コンダクタンス信号と筋電信号とを検出することにより、簡単に感情実測値を取得することができる。
生体情報を感情モデル空間にマッピングする具体的手法は、例えば、“Emotion
Recognition from Electromyography and Skin Conductance”(Arturo Nakasone,Helmut Prendinger,Mitsuru Ishizuka,The Fifth International Workshop on Biosignal Interpretation,BSI−05,Tokyo,Japan,2005,pp.219−222)に記載されている。
このマッピング手法では、まず、生理的信号として皮膚コンダクタンスと筋電信号とを利用して、覚醒度および快度との関連付けを行う。マッピングは、その関連付けの結果に基づいて、確率モデル(Bayesian network)と2次元Lang感情空間モデルとを利用して行い、このマッピングにより、ユーザの感情推定を行う。より具体的には、人間の覚醒度の度合いに応じて直線的に増加する皮膚コンダクタンス信号と、筋肉活動を示し快度(valance)と関連のある筋電信号とを、ユーザが平常状態にあるときに測定し、測定結果をベースライン値とする。つまり、ベースライン値は、平常状態時の生体情報を表す。次に、ユーザの感情を測定する時に、皮膚コンダクタンス信号がベースライン値を超えた度合いに基づいて、覚醒度の値を決める。例えば、皮膚コンダクタンス信号が、ベースライン値より15%〜30%超えた場合には、覚醒度は非常に高い値(very high)であると判定する。一方、筋電信号がベースライン値を超えた度合いに基づいて、快度の値を決める。例えば、筋電信号がベースライン値を3倍以上超えた場合には、快度は高い値(high)であると判定し、筋電信号がベースライン値の3倍以下の場合には、快度は平均的な値(normal)であると判定する。そして、算出された覚醒度の値と快度の値とを、確率モデルと2次元LANG感情空間モデルを利用してマッピングを行い、ユーザの感情推定を行う。
図9のステップS1230で、感情情報取得部220は、次のn秒後の生体情報が、生
体情報測定部210により取得されているか否かを判断する。感情情報取得部220は、次の生体情報が取得されている場合には(S1230:YES)、ステップS1240に進み、次の生体情報が取得されていない場合には(S1230:NO)、ステップS1250に進む。
ステップS1250で、感情情報取得部220は、生体情報の取得に異常が発生した旨をユーザに通知する等の所定の処理を実行し、一連の処理を終了する。
一方、ステップS1240で、感情情報取得部220は、感情情報取得処理の終了が指示されたか否かを判断し、終了が指示されていない場合には(S1240:NO)、ステップS1210に戻り、終了が指示された場合には(S1240:YES)、ステップS1260に進む。
ステップS1260で、感情情報取得部220は、感情マージ処理を実行し、その後、一連の処理を終了する。感情マージ処理とは、同じ感情実測値が連続して測定された場合に、それらの感情実測値をマージして1つの感情情報にまとめる処理である。なお、感情マージ処理は必ずしも行う必要はない。
このような感情情報取得処理により、印象度抽出部300には、マージ処理が行われる場合には感情実測値が変化するごとに、マージ処理が行われない場合にはn秒ごとに、感情情報が入力される。
図8のステップS1300で、履歴格納部310は、入力される感情情報を蓄積し、感情情報履歴を生成する。
図10は、感情情報履歴の内容の一例を示す図である。
図10に示すように、履歴格納部310は、入力された感情情報に他の情報を付加したレコードから成る感情情報履歴510を生成する。感情情報履歴510は、感情履歴情報ナンバー(No.)511、感情測定日[年/月/日]512、感情生起開始時間[時:分:秒]513、感情生起終了時間[時:分:秒]514、感情実測値515、イベント516a、および場所516bを含む。
感情測定日512には、測定が行われた日が記述される。感情情報履歴510に、感情測定日512として、例えば「2008/03/25」から「2008/07/01」までが記述されている場合、この期間(ここでは約3ヶ月間)に取得された感情情報が蓄積されていることを示す。
感情生起開始時間513には、同一の感情実測値(感情実測値515に記述されている感情実測値)が継続して測定された場合に、その測定時間、つまり、その感情実測値が示す感情が生起している時間の開始時刻が記述される。具体的には、例えば、感情実測値が、別の感情実測値から変化して感情実測値515に記述されている感情実測値に到達した時刻である。
感情生起終了時間514には、同一の感情実測値(感情実測値515に記述されている感情実測値)が継続して測定された場合に、その測定時間、つまり、その感情実測値が示す感情が生起している時間の終了時刻が記述される。具体的には、例えば、感情実測値が、感情実測値515に記述されている感情実測値から別の感情実測値に変化した時刻である。
感情実測値515には、生体情報に基づいて得られた感情実測値が記述される。
イベント516aおよび場所516bには、感情生起開始時間513から感情生起終了時間514までの期間の外界情報が記述される。具体的には、例えば、イベント516aには、ユーザが参加したイベントまたはユーザの周囲に発生したイベントを示す情報が記述され、場所516bには、ユーザの居る場所に関する情報が記述される。外界情報は、ユーザが入力してもよいし、移動通信網またはGPS(global positioning system)により外部から受信した情報から取得してもよい。
例えば、「0001」という感情履歴情報ナンバー511が示す感情情報として、「2008/03/25」という感情測定日512、「12:10:00」という感情生起開始時間513、「12:20:00」という感情生起終了時間514、「(−4,−2)」という感情実測値515、「コンサート」というイベント516a、および「屋外」という場所516bが記述されている。これは、2008年3月25日の、12時10分から12時20分までの間、ユーザが屋外のコンサート会場に居て、ユーザから感情実測値(−4,−2)が測定されたこと、つまり、ユーザに悲しいという感情が生起していたということを示す。
感情情報履歴510の生成は、例えば、以下のようにして行われるようにしてもよい。履歴格納部310は、感情情報取得部220から入力される感情実測値(感情情報)と、外界情報とを監視し、いずれかに変化があるごとに、直前に変化があった時刻から現在までに得られた感情実測値および外界情報に基づいて、1つのレコードを作成する。このとき、同一の感情実測値および外界情報が長時間継続する場合を考慮して、レコードの生成間隔の上限を設定してもよい。
以上が、感情情報蓄積段階の処理である。このような感情情報蓄積段階を経て、コンテンツ編集装置100には、過去の感情情報が、感情情報履歴として蓄積される。
次に、コンテンツ編集段階の処理について説明する。
上述のセンサおよびディジタルビデオカメラのセッティング等が行われ、セッティングが完了した後、コンテンツ編集装置100の動作が開始される。
図8のステップS1400で、コンテンツ記録部410は、ディジタルビデオカメラにより連続撮影される体験映像コンテンツの記録と、記録した体験映像コンテンツをコンテンツ編集部420に対して出力することを開始する。
そして、ステップS1500で、基準感情特性取得部320は、基準感情特性取得処理を実行する。基準感情情報算出処理は、基準時間の感情情報履歴に基づいて、基準感情特性を算出する処理である。
図11は、基準感情特性取得処理を示すフローチャートである。
まず、ステップS1501で、基準感情特性取得部320は、基準感情特性期間情報を取得する。基準感情特性期間情報は、基準期間を指定するものである。
基準期間は、ユーザが平常状態にあった期間、または、ユーザの状態を平均すると平常状態とみなすことができるような十分に長い期間が設定されることが望ましい。具体的には、基準時間は、例えば、ユーザが体験映像を撮影する時点(現在)から、一週間、半年、一年等の予め定められた時間長さだけ遡った時点までの期間が設定される。この時間長
さは、例えば、ユーザにより指定されてもよいし、予め設定されたデフォルト値であってもよい。
また、基準期間は、現在と隔たった過去の任意期間が設定されてもよい。例えば、基準期間は、他の日の体験映像を撮影する時間帯と同じ時間帯、または、過去に体験映像の撮影場所と同じ場所に居たときの期間とすることができる。具体的には、例えば、測定期間にユーザが参加しているイベントとその場所に、イベント516aおよび場所516bが最もよく一致するような期間である。また、基準時間の決定は、これら以外の各種情報に基づいて行うことができる。例えば、イベントが昼間行われたか夜行われたか等の時間帯に関する外界情報も一致するような期間を、基準時間に決定する。
そして、ステップS1502で、基準感情特性取得部320は、履歴格納部310に格納された感情情報履歴のうち、基準感情特性期間に該当する全ての感情情報を取得する。具体的には、基準感情特性取得部320は、所定の時間間隔の各時点について、感情情報履歴から該当する時点のレコードを取得する。
そして、ステップS1503で、基準感情特性取得部320は、取得した複数のレコードに対して、感情種別についてのクラスタリングを行う。クラスタリングは、例えばK−means等の既知のクラスタリング手法を用いて、レコードを図2において説明した感情種別またはこれに順ずる種別(以下「クラスタ」という)に分類することにより行われる。これにより、基準期間中のレコードの感情実測値を、時間成分を取り除いた状態で、感情モデル空間に反映させることができる。
そして、ステップS1504で、基準感情特性取得部320は、クラスタリングの結果から、感情基本成分パターンを取得する。ここで、感情基本成分パターンとは、クラスタごとに計算される複数のクラスタメンバー(ここではレコード)の集合であり、どのクラスタにどのレコードが該当するかを示す情報である。クラスタを識別するための変数をc(初期値は1)、クラスタをp、クラスタの個数をNとそれぞれ置くと、感情基本成分パターンPは、以下の式(7)で表わされる。
Figure 2010001512
但し、クラスタpは、クラスタメンバーの代表点の座標(つまり感情実測値)(x,y)と、クラスタメンバーの感情情報履歴ナンバーNumから成り、該当するレコードの個数(つまりクラスタメンバーの個数)をmと置くと、以下の式(8)で表わされる。
Figure 2010001512
基準感情特性取得部320は、該当するレコードの個数mが所定の閾値よりも少ないクラスタについては、感情基本成分パターンPのクラスタとして採用しないようにしてもよい。これにより、例えば、後続の処理の負荷を軽減したり、感情が遷移する過程において通過しただけの感情種別を処理対象から除外したりすることができる。
そして、ステップS1505で、基準感情特性取得部320は、代表感情実測値を算出する。代表感情実測値は、基準期間の感情実測値を代表する感情実測値であり、例えば、
クラスタメンバーの数が最も多いクラスタ、または後述の持続時間が最も長いクラスタの座標(x,y)である。
そして、ステップS1506で、基準感情特性取得部320は、取得した感情基本成分パターンPのクラスタごとに、持続時間Tを算出する。持続時間Tは、クラスタごとに算出される感情実測値の持続時間(つまり感情生起開始時間と感情生起終了時間との差)の平均値tの集合であり、以下の式(9)により表わされる。
Figure 2010001512
また、クラスタpの持続時間の平均値tは、クラスタメンバーの持続時間をtcmと置くと、例えば、以下の式(10)により算出される。
Figure 2010001512
なお、持続時間の平均値tは、クラスタメンバーの中から代表点を決定し、決定した代表点に該当する感情の持続時間としてもよい。
そして、ステップS1507で、基準感情特性取得部320は、感情基本成分パターンPのクラスタごとに、感情強度Hを算出する。感情強度Hは、クラスタごとに算出される感情強度を平均した平均値hの集合であり、以下の式(11)により表わされる。
Figure 2010001512
また、感情強度の平均値hは、クラスタメンバーの感情強度をycmと置くと、例えば、以下の式(12)により表わされる。
Figure 2010001512
また、感情実測値が、3次元感情モデル空間の座標値(xcm,ycm,zcm)として表わされる場合には、例えば、感情強度を、以下の式(13)により算出される値としてもよい。
Figure 2010001512
なお、感情強度の平均値hは、クラスタメンバーの中から代表点を決定し、決定した代表点に該当する感情強度を採用してもよい。
そして、ステップS1508で、基準感情特性取得部320は、図5において説明した感情量を生成する。具体的には、算出した持続時間Tと感情強度Hとを用いて、基準期間における感情量の時間積分を行う。
そして、ステップS1510で、基準感情特性取得部320は、感情遷移情報取得処理を行う。感情遷移情報取得処理は、感情遷移情報を取得する処理である。
図12は、感情遷移情報取得処理を示すフローチャートである。
まず、ステップS1511で、基準感情特性取得部320は、クラスタpのクラスタメンバーのそれぞれについて、前の感情情報を取得する。前の感情情報とは、クラスタpの個々のクラスタメンバーにおける遷移前の感情情報、つまり、1つ前のレコードである。以下、着目しているクラスタpに関する情報を「処理対象の」と表現し、1つ前のレコードに関する情報を「前の」と表現する。
そして、ステップS1512で、基準感情特性取得部320は、取得した前の感情情報に対して、図11のステップS1503と同様のクラスタリングを行うとともに、図1のステップS1504と同様に前の感情基本成分パターンを取得する。
そして、ステップS1513で、基準感情特性取得部320は、前の感情情報の最大クラスタを取得する。最大クラスタとは、例えば、クラスタメンバーの数の最も多いクラスタ、または持続時間Tが最も長いクラスタである。
そして、ステップS1514で、基準感情特性取得部320は、前の感情実測値eαBeforeを算出する。前の感情実測値eαBeforeとは、取得した前の感情情報の最大クラスタにおける代表点の感情実測値である。
そして、ステップS1515で、基準感情特性取得部320は、前の遷移時間を算出する。前の遷移時間とは、クラスタメンバーの遷移時間の平均値である。
そして、ステップS1516で、基準感情特性取得部320は、前の感情強度を算出する。前の感情強度とは、取得した前の感情情報についての感情強度であり、図11のステップS1507と同様の手法により算出される。
そして、ステップS1517で、基準感情特性取得部320は、図11のステップS1507と同様の手法により、または、図11のステップS1507の算出結果から、クラスタ内の感情強度を取得する。
そして、ステップS1518で、基準感情特性取得部320は、前の感情強度差を算出する。前の感情強度差とは、前の感情強度(ステップ1516で算出された感情強度)に対する、処理対象の感情強度(図11のステップS1507で算出された感情強度)の差分である。感情強度差ΔHは、前の感情強度をHBefore、処理対象の感情強度をHと置くと、以下の式(14)により算出される。
Figure 2010001512
そして、ステップS1519で、基準感情特性取得部320は、前の感情遷移速度を算出する。前の感情遷移速度とは、前の感情種別から処理対象の感情種別に遷移する際の単位時間当たりの感情強度の変化である。前の感情遷移速度evelBeforeは、遷移時間をΔTと置くと、以下の式(15)により算出される。
Figure 2010001512
そして、ステップS1520で、基準感情特性取得部320は、図11のステップS1505と同様の手法により、または、図11のステップS1505の算出結果から、処理対象の感情情報の代表感情実測値を取得する。
ここで、後の感情情報とは、クラスタpのクラスタメンバーにおける遷移後の感情情報、つまり、クラスタpのクラスタメンバーにおいて、レコードの1つ後のレコードをいい、1つ後のレコードに関する情報を「後の」と表現するものとする。
ステップS1521〜S1528で、基準感情特性取得部320は、ステップS1511〜S1519の処理と同様にして、後の感情情報、後の感情情報の最大クラスタ、後の感情実測値、後の遷移時間、後の感情強度、後の感情強度差、および後の感情遷移速度を取得する。これは、ステップS1511〜S1519における処理を、処理対象の感情情報を前の感情情報に置き換え、後の感情情報を新たに処理対象の感情情報に置き換えて実行することにより可能となる。
そして、ステップS1529で、基準感情特性取得部320は、pのクラスタに関する感情遷移情報を内部的に格納して、図11の処理に戻る。
図11のステップS1531で、基準感情特性取得部320は、変数cに1を加算した値が、クラスタの個数Nを超えているか否かを判断し、上記値が個数Nを超えていない場合には(S1531:NO)、ステップS1532に進む。
ステップS1532で、基準感情特性取得部320は、変数cを1増加させ、ステップS1510に戻り、次のクラスタを処理対象として、感情遷移情報取得処理を実行する。
一方、変数cに1を加算した値が、クラスタの個数Nを超えた場合、つまり、基準期間の全ての感情情報に対する感情遷移情報取得処理が完了すると(S1531:YES)、ステップS1533に進む。
ステップS1533で、基準感情特性取得部320は、感情遷移情報取得処理により得られた情報に基づいて、基準感情特性を生成し、図8の処理に戻る。基準感情特性のセットは、クラスタの個数だけ生成されることになる。
図13は、基準感情特性の内容の一例を示す図である。
図13に示すように、基準感情特性520は、感情特性期間521、イベント522a、場所522b、代表感情実測値523、感情量524、および感情遷移情報525を含
む。感情量524は、感情実測値526、感情強度527、および感情実測値の持続時間528を含む。感情遷移情報525は、感情実測値529、感情遷移方向530、および感情遷移速度531を含む。感情遷移方向530は、前の感情実測値532と後の感情実測値533との組から構成される。感情遷移速度531は、前の感情遷移速度534と後の感情遷移速度535との組から構成される。
代表感情実測値は、図3において説明した感情実測値の差異rαを求める際に用いられる。感情量は、図5において説明した感情量の差異rβを求める際に用いられる。感情遷移情報は、図6および図7において説明した感情遷移情報の差異rδを求める際に用いられる。
図8のステップS1600で、基準感情特性取得部320は、算出した基準感情特性を記録する。
なお、基準時間が固定の場合には、ステップS1100〜S1600の処理を予め実行しておき、生成された基準感情特性を、基準感情特性取得部320または印象度算出部340に蓄積しておいてもよい。
そして、ステップS1700で、生体情報測定部210は、ステップS1100と同様に、体験映像を撮影している時のユーザの生体情報を測定し、取得した生体情報を感情情報取得部220に出力する。
そして、ステップS1800で、感情情報取得部220は、ステップ1200と同様に、図9に示す感情情報取得処理を開始する。なお、感情情報取得部220は、ステップS1200、S1800を通して感情情報取得処理を継続して実行してもよい。
そして、ステップS1900で、感情情報記憶部330は、n秒ごとに入力される感情情報のうち、現在から、所定の単位時間だけ遡った時点までの感情情報を、感情情報データとして記憶する。
図14は、図8のステップS1900において記憶される、感情情報データの内容を示す一例の図である。
図14に示すように、感情情報記憶部330は、入力された感情情報に他の情報を付加したレコードから成る感情情報データ540を生成する。感情情報データ540は、図10に示す感情情報履歴510と同様の構成となっている。感情情報データ540は、感情情報ナンバー541、感情測定日[年/月/日]542、感情生起開始時間[時:分:秒]543、感情生起終了時間[時:分:秒]544、感情実測値545、イベント546a、および場所546bを含む。
感情情報データ540の生成は、例えば、感情情報履歴と同様に、n秒ごとの感情情報の記録および感情マージ処理により行われる。または、感情情報データ540の生成は、例えば、以下のようにして行われる。感情情報記憶部330は、感情情報取得部220から入力される感情実測値(感情情報)と、外界情報とを監視し、いずれかに変化があるごとに、直前に変化があった時刻から現在までに得られた感情実測値および外界情報に基づいて、感情情報データ540の1つのレコードを作成する。このとき、同一の感情実測値および外界情報が長時間継続する場合を考慮して、レコードの生成間隔の上限を設定してもよい。
感情情報データ540のレコード数は、感情情報履歴510のレコード数に比べて少な
く、最新の測定感情特性を算出するのに必要な数に抑えられている。具体的には、感情情報記憶部330は、予め定められたレコード数の上限を超えないように、新たなレコードの追加に対応して最も古いレコードを削除し、各レコードの感情情報ナンバー541を更新する。これにより、データサイズの増大を防ぐとともに、感情情報ナンバー541を基準とした処理を行うことができる。
図8のステップS2000で、印象度算出部340は、印象度算出処理を開始する。印象度算出処理は、基準感情特性520と感情情報データ540とに基づいて、印象度を算出する処理である。
図15は、印象度算出処理を示すフローチャートである。
まず、ステップS2010で、印象度算出部340は、基準感情特性を取得する。
そして、ステップS2020で、印象度算出部340は、ユーザから測定された感情情報データ540を、感情情報記憶部330から取得する。
そして、ステップS2030で、印象度算出部340は、感情情報データ540のうち、i−1番目の感情情報と、i番目の感情情報と、i+1番目の感情情報とを取得する。なお、印象度算出部340は、i−1番目の感情情報またはi+1番目の感情情報が存在しない場合には、取得結果を表わす値をNULLにする。
そして、ステップS2040で、印象度算出部340は、測定感情特性取得部341において、測定感情特性を生成する。測定感情特性は、図13に示す基準感情特性と同一の項目の情報から構成される。測定感情特性取得部341は、図12と同様の処理を、処理対象を感情情報データに置き換えて実行することにより、測定感情特性を算出する。
そして、ステップS2050で、印象度算出部340は、差異算出処理を実行する。差異算出処理は、基準感情特性に対する測定感情特性の差異を、印象度の候補値として算出する処理である。
図16は、差異算出処理の一例を示すフローチャートである。
まず、ステップS2051で、印象度算出部340は、i番目の感情情報について算出された測定感情特性から、代表感情実測値eiα、感情量eiβ、および感情遷移情報eiδを取得する。
そして、ステップS2052で、印象度算出部340は、k番目の感情情報について算出された基準感情特性から、代表感情実測値ekα、感情量ekβ、および感情遷移情報ekδを取得する。kは、感情情報を識別するための変数、つまり、クラスタを識別するための変数である。その初期値は1である。
そして、ステップS2053で、印象度算出部340は、測定感情特性のi番目の代表感情実測値eiαと、基準感情特性のk番目の代表感情実測値ekαとを比較し、比較結果として、図5において説明した感情実測値の差異rαを取得する。
そして、ステップS2054で、印象度算出部340は、測定感情特性のi番目の感情量eiβと、基準感情特性のk番目の感情量ekβとを比較し、比較結果として、図3において説明した感情量の差異rβを取得する。
そして、ステップS2055で、印象度算出部340は、測定感情特性のi番目の感情遷移情報eiδと、基準感情特性のk番目の感情遷移情報ekδとを比較し、比較結果として、図6および図7において説明した感情遷移情報の差異rδを取得する。
そして、ステップS2056で、印象度算出部340は、差異値を算出する。差異値とは、感情実測値の差異rα、感情量の差異rβ、および感情遷移情報の差異rδを統合して、感情情報の差異の程度を表わす値である。具体的には、例えば、差異値は、感情実測値の差異rα、感情量の差異rβ、および感情遷移情報の差異rδに、それぞれ重みを掛けた値を和算したうちの最大値である。差異値Rは、感情実測値の差異rα、感情量の差異rβ、および感情遷移情報の差異rδの重みをそれぞれw、w、wと置くと、以下の式(16)により算出される。
Figure 2010001512
重みw、w、wは、固定値でもよいし、ユーザが調整できる値としてもよいし、学習により決定するようにしてもよい。
そして、ステップS2057で、印象度算出部340は、変数kを1増加させる。
そして、ステップS2058で、印象度算出部340は、変数kが、クラスタの個数Nを超えたか否かを判断する。印象度算出部340は、変数kがクラスタの個数Nを超えていない場合には(S2058:NO)ステップ2052に戻り、変数kがクラスタの個数Nを超えた場合には(S2058:YES)、図15の処理に戻る。
このように、差異算出処理により、変数kを変化させたときの差異値のうち、最も大きい値が、最終的に差異値Riとして取得される。
図15のステップS2060で、印象度算出部340は、取得した差異値Riが、予め定められた印象度閾値以上であるか否かを判断する。印象度閾値は、ユーザが強い印象を受けていると判断すべき差異値Riの最小値である。なお、印象度閾値は、固定値でもよいし、ユーザが調整できる値としてもよいし、経験または学習により決定するようにしてもよい。印象度算出部340は、差異値Riが印象度閾値以上である場合には(S2060:YES)、ステップS2070に進み、差異値Riが印象度閾値未満である場合には(S2060:NO)、ステップS2080に進む。
ステップS2070で、印象度算出部340は、差異値Riを、印象値IMP[i]に設定する。印象値IMP[i]は、結果的に、基準期間にユーザが受けた印象の強さに対して、測定時にユーザが受けた印象の強さを示す度合いである値となる。しかも、印象値IMP[i]は、感情実測値の差異、感情量の差異、および感情遷移情報の差異を反映させた値となる。
ステップS2080で、印象度算出部340は、変数iに1を加算した値が、感情情報の個数Nを超えたか否か、つまり、測定期間の全ての感情情報について処理が終了したか否かを判断する。次に、上記値が個数Nを超えていない場合には(S2080:NO)、ステップS2090に進む。
ステップS2090で、印象度算出部340は、変数iを1増加させて、ステップS2030に戻る。
ステップS2030〜ステップS2090を繰り返して、変数iに1を加算した値が情情報の個数Nを超えた場合には(S2080:YES)、ステップS2100に進む。
ステップS2100で、印象度算出部340は、コンテンツ記録部410の動作が終了するなどして印象度算出処理の終了が指示されたか否かを判断し、終了を指示されていない場合には(S2100:NO)、ステップS2110に進む。
ステップS2110で、印象度算出部340は、変数iを初期値1に戻し、前回ステップS2020の処理を実行してから所定の単位時間が経過したとき、ステップS2020に戻る。
一方、印象度算出処理の終了を指示された場合には(S2100:YES)、印象度算出部340は、一連の処理を終了する。
このような印象度算出処理により、ユーザが強い印象を受けた区間について、所定の単位時間ごとに印象値が算出される。印象度算出部340は、算出した印象値に、印象値算出の基となった感情情報の測定時刻を対応付けた印象度情報を生成する。
図17は、印象度情報の内容の一例を示す図である。
図17に示すように、印象度情報550は、印象度情報ナンバー551、印象度開始時間552、印象度終了時間553、および印象値554を含む。
印象度開始時間には、同一の印象値(印象値554に記述されている印象値)が継続して測定された場合に、その測定時間の開始時刻が記述される。
印象度終了時間には、同一の印象値(印象値554に記述されている印象値)が継続して測定された場合に、その測定時間の終了時刻が記述される。
印象値554には、印象度算出処理により算出された印象値IMP[i]が記述される。
ここでは、例えば、「0001」という印象度情報ナンバー551のレコードにおいて、「2008/03/26/08:10:00」という印象度開始時間552と、「2008/03/26/08:20:00」という印象度終了時間553に対応して、「0.9」という印象値554が記述されている。これは、2008年3月26日8時10分から、2008年3月26日8時20分までの期間に、ユーザが受けた印象の度合いが、印象値「0.9」に対応するということを示す。また、「0002」という印象度情報ナンバー551のレコードにおいて、「2008/03/26/08:20:01」という印象度開始時間552と、「2008/03/26/08:30:04」という印象度終了時間553に対応して、「0.7」という印象値554が記述されている。これは、2008年3月26日8時20分1秒から、2008年3月26日8時30分4秒までの期間に、ユーザが受けた印象の度合いが、印象値「0.7」に対応するということを示す。印象値は、基準感情特性と測定感情特性との差が大きければ大きいほど、大きな値となる。したがって、この印象度情報550は、「0001」という印象度情報ナンバー551に対応する区間のほうが、「0002」という印象度情報ナンバー551に対応する区間よりも、ユーザがより強い印象を受けたことを示している。
このような印象度情報を参照することにより、各時点について、ユーザが受けた印象の
度合いを即座に判定することが可能となる。印象度算出部340は、生成した印象度情報を、コンテンツ編集部420から参照可能な状態で格納する。または、印象度算出部340は、印象度情報550のレコードを作成するごとにレコードをコンテンツ編集部420に出力したり、コンテンツの記録が終了した後に、印象度情報550をコンテンツ編集部420に出力したりする。
以上の処理により、コンテンツ編集部420には、コンテンツ記録部410で記録された体験映像コンテンツと、印象度算出部340により生成された印象度情報とが入力される。
図8のステップS2200で、コンテンツ編集部420は、体験映像編集処理を実行する。体験映像編集処理は、印象度情報に基づいて、体験映像コンテンツの中から、印象度の高い期間、つまり、印象値554が所定の閾値よりも高い期間に対応するシーンを抽出して、体験映像コンテンツの要約映像を生成する処理である。
図18は、体験映像編集処理の一例を示すフローチャートである。
まず、ステップS2210で、コンテンツ編集部420は、印象度情報を取得する。以下、印象度情報のレコードを識別するための変数をqとし、印象度情報のレコード数をNとする。qの初期値は1である。
そして、ステップS2220で、コンテンツ編集部420は、q番目のレコードの印象値を取得する。
そして、ステップS2230で、コンテンツ編集部420は、取得した印象値を用いて、体験映像コンテンツのうち、q番目のレコードの期間に該当する区間のシーンに対し、ラベル付けを行う。具体的には、コンテンツ編集部420は、例えば、印象値のレベルを、シーンの重要度を示す情報として、各シーンに付加する。
そして、ステップS2240で、コンテンツ編集部420は、変数qに1を加算した値が、レコード数Nを超えたか否かを判断し、超えていない場合には(S2240:NO)、ステップS2250に進み、超えた場合には(S2240:YES)、ステップS2260に進む。
ステップS2250で、コンテンツ編集部420は、変数qを1増加させ、ステップS2220に戻る。
一方、ステップS2260で、コンテンツ編集部420は、ラベル付けされた体験映像コンテンツの映像区間を分割して、分割した映像区間を、ラベルに基づいて繋ぎ合わせる。そして、コンテンツ編集部420は、繋ぎ合わせた映像を要約映像として、例えば記録媒体に出力し、一連の処理を終了する。具体的には、コンテンツ編集部420は、例えば、シーンの重要度が高いことを示すラベルが付された映像区間のみをピックアップして、ピックアップした映像区間を、基の体験映像コンテンツにおける時間の順序で繋ぎ合わせる。
このようにして、コンテンツ編集装置100は、体験映像コンテンツの中から、ユーザが強く印象を受けたシーンを、高い精度で選択し、選択したシーンから要約映像を生成することができる。
以上説明したように、本実施の形態によれば、生体情報に基づく特性値の比較により印
象度を算出するので、ユーザに特に負担を掛けることなく印象度を抽出することができる。また、基準期間におけるユーザ自身の生体情報から得られた基準感情特性を基準として印象度を算出するので、印象度を精度良く抽出することができる。また、印象度に基づいて、体験映像コンテンツの中からシーンを選択して要約映像を生成するので、ユーザが満足するシーンのみをピックアップして、体験映像コンテンツを編集することができる。また、印象度を精度良く抽出するので、ユーザがより満足するコンテンツ編集結果を得ることができ、ユーザが再編集を行う必要性を低減することができる。
また、比較の対象となる感情実測値、感情量、および感情遷移情報の差異を考慮して、基準期間と測定期間との間の感情の差異を判定するので、印象度を高い精度で判定することができる。
なお、コンテンツの取得場所および抽出された印象度の用途は、上記内容に限定されるものではない。例えば、ホテルまたはレストラン等を利用する顧客に生体情報センサを装着させ、サービスを受けているときの顧客の体験をカメラで撮影しながら、印象値が変化したときの状況を記録するようにしてもよい。この場合には、記録結果から、ホテルまたはレストラン側でサービスの質の分析を行うことが容易となる。
(実施の形態2)
本発明の実施の形態2として、ポータブル型のゲーム端末の、選択的な動作を行うゲームコンテンツに本発明を適用した場合について説明する。本実施の形態の印象度抽出装置は、ポータブル型のゲーム端末に備えられている。
図19は、本発明の実施の形態2に係る印象度抽出装置を含むゲーム端末のブロック図であり、実施の形態1の図1に対応するものである。図1と同一部分には同一符号を付し、これについての説明を省略する。
図19において、ゲーム端末100aは、図1の体験映像コンテンツ取得部400に代えて、ゲームコンテンツ実行部400aを有する。
ゲームコンテンツ実行部400aは、選択的な動作を行うゲームコンテンツを実行する。ゲームコンテンツは、ここでは、ユーザが仮想的にペットを飼育し、操作内容に応じてペットの反応および成長が異なるようなゲームであるものとする。ゲームコンテンツ実行部400aは、コンテンツ処理部410aおよびゲームコンテンツ操作部420aを有する。
コンテンツ処理部410aは、ゲームコンテンツを実行するための各種処理を行う。
コンテンツ操作部420aは、印象度抽出部300により抽出された印象度に基づいて、コンテンツ処理部410aに対する選択操作を行う。具体的には、コンテンツ操作部420aには、印象値に対応付けたゲームコンテンツに対する操作内容が予め設定されている。そして、コンテンツ操作部420aは、コンテンツ処理部410aによりゲームコンテンツが開始され、印象度抽出部300により印象値の算出が開始されると、ユーザが受けた印象の度合いに応じてコンテンツの操作を自動で行うコンテンツ操作処理を開始する。
図20は、コンテンツ操作処理の一例を示すフローチャートである。
まず、ステップS3210で、コンテンツ操作部420aは、印象値IMP[i]を、印象度抽出部300から取得する。実施の形態1と異なり、コンテンツ操作部420aは
、印象度抽出部300から、最新の生体情報から得られた印象値のみを取得するようにすればよい。
そして、ステップS3220で、コンテンツ操作部420aは、取得した印象値に対応する操作内容を、コンテンツ処理部410aに出力する。
そして、ステップS3230で、コンテンツ操作部420aは、処理の終了が指示されたかを判断し、指示されていない場合には(S3230:NO)、ステップS3210に戻り、指示された場合には(S3230:YES)、一連の処理を終了する。
このように、本実施の形態によれば、ユーザが手動で操作を行わなくても、ユーザが受けている印象の度合いに応じた選択操作がゲームコンテンツに対して行われる。例えば、普段よく笑うユーザが笑っても、印象値はそれほど高くならずにペットの成長は普通となるが、ほとんど笑わないようなユーザが笑った場合には、印象値が高くなりペットが急成長するといったように、ユーザごとに異なるユニークなコンテンツ操作を行うことが可能となる。
(実施の形態3)
本発明の実施の形態3として、携帯電話機の待ち受け画面の編集に本発明を適用した場合について説明する。本実施の形態の印象度抽出装置は、携帯電話機に備えられている。
図21は、本発明の実施の形態3に係る印象度抽出装置を含む携帯電話機のブロック図であり、実施の形態1の図1に対応するものである。図1と同一部分には同一符号を付し、これについての説明を省略する。
図21において、携帯電話機100bは、図1の体験映像コンテンツ取得部400に代えて、携帯電話部400bを有する。
携帯電話部400bは、液晶ディスプレイ(図示せず)の待ち受け画面の表示制御を含めた携帯電話機の機能を実現する。携帯電話部400bは、画面デザイン格納部410bおよび画面デザイン変更部420bを有する。
画面デザイン格納部410bは、待ち受け画面用の画面デザインのデータを複数格納している。
画面デザイン変更部420bは、印象度抽出部300により抽出された印象度に基づいて、待ち受け画面の画面デザインを変更する。具体的には、画面デザイン変更部420bは、画面デザイン格納部410bに格納された画面デザインと印象値とを予め対応付けている。そして、画面デザイン変更部420bは、最新の印象値に対応する画面デザインを画面デザイン格納部410bから選択して待ち受け画面に採用する、画面デザイン変更処理を実行する。
図22は、画面デザイン変更処理の一例を示すフローチャートである。
まず、ステップS4210で、画面デザイン変更部420bは、印象値IMP[i]を、印象度抽出部300から取得する。画面デザイン変更部420bは、実施の形態1のコンテンツ編集部420と異なり、印象度抽出部300から、最新の生体情報から得られた印象値のみを取得するようにすればよい。なお、最新の印象値の取得は、任意の時間ごと、または、印象値が変化するごとに取得しても良い。
そして、ステップS4220で、画面デザイン変更部420bは、画面デザインを変更すべきか否か、つまり、取得した印象値に対応する画面デザインが、現在待ち受け画面として設定されている画面デザインと異なるか否かを判断する。画面デザイン変更部420bは、画面デザインを変更すべきと判断した場合は(S4220:YES)、ステップS4230に進み、変更すべきではないと判断した場合は(S4220:NO)、ステップS4240に進む。
ステップS4230で、画面デザイン変更部420bは、画面デザイン格納部410bから、最新の印象値に対応する待ち受け画面のデザインを取得し、最新の印象値に対応する画面デザインに変更する。具体的には、画面デザイン変更部420bは、最新の印象値に対応付けられた画面デザインのデータを画面デザイン格納部410bから取得し、取得したデータに基づいて、液晶ディスプレイの画面の描画を行う。
そして、ステップS4240で、画面デザイン変更部420bは、処理の終了が指示されたかを判断し、指示されていない場合には(S4240:NO)、ステップS4210に戻り、指示された場合には(S4240:YES)、一連の処理を終了する。
このように、本実施の形態によれば、ユーザが手動で操作を行わなくても、携帯電話機の待ち受け画面が、ユーザが受けている印象の度合いに応じた画面デザインに切り替わる。なお、待ち受け画面以外の画面デザイン、またはLED(light emitting diode)を用いた発光部の発光色等を、印象度に応じて変更するようにしてもよい。
(実施の形態4)
本発明の実施の形態4として、デザインが可変のアクセサリに本発明を適用した場合について説明する。本実施の形態の印象度抽出装置は、ペンダントヘッド等のアクセサリと、このアクセサリに対して無線通信により印象値を送信する携帯端末とから成る通信システムに備えられている。
図23は、本発明の実施の形態4に係る印象度抽出装置を含む通信システムのブロック図である。図1と同一部分には同一符号を付し、これについての説明を省略する。
図23において、通信システム100cは、図1の体験映像コンテンツ取得部400に代えて、アクセサリ制御部400cを有する。
アクセサリ制御部400cは、アクセサリ(図示せず)に内蔵され、別の携帯端末に備えられた印象度抽出部300から無線通信により印象度を取得して、取得した印象度に基づいてアクセサリの外観を制御する。アクセサリは、例えば、複数のLEDを有し、点灯させる色または点灯パターンを変化させたり、模様を変化させたりすることが可能となっている。アクセサリ制御部400cは、変化パターン格納部410cおよびアクセサリ変化部420cを有する。
変化パターン格納部410cは、アクセサリの外観の変化パターンを複数格納している。
アクセサリ変化部420cは、印象度抽出部300により抽出された印象度に基づいて、アクセサリの外観を変化させる。具体的には、アクセサリ変化部420cは、変化パターン格納部410cに格納された変化パターンと印象値とを予め対応付けている。そして、アクセサリ変化部420cは、最新の印象値に対応する変化パターンを変化パターン格納部410cから選択して、選択した変化パターンの通りにアクセサリの外観を変化させるアクセサリ変更処理を実行する。
図24は、アクセサリ変更処理の一例を示すフローチャートである。
まず、ステップS5210で、アクセサリ変化部420cは、印象値IMP[i]を、印象度抽出部300から取得する。実施の形態1と異なり、アクセサリ変化部420cは、印象度抽出部300から、最新の生体情報から得られた印象値のみを取得するようにすればよい。なお、最新の印象値の取得は、任意の時間ごと、または、印象値が変化するごとに取得しても良い。
そして、ステップS5220で、アクセサリ変化部420cは、アクセサリの外観を変化させるべきか否か、つまり、取得した印象値に対応する変化パターンが、現在適用されている変化パターンと異なるか否かを判断する。アクセサリ変化部420cは、アクセサリの外観を変化させるべきと判断した場合は(S5220:YES)、ステップS5230に進み、変化させるべきではないと判断した場合は(S5220:NO)、ステップS5240に進む。
ステップS5230で、アクセサリ変化部420cは、印象度抽出部300から、最新の印象値に対応する変化パターンを取得し、アクセサリの外観に、最新の印象値に対応する変化パターンを適用する。
そして、ステップS5240で、アクセサリ変化部420cは、処理の終了が指示されたかを判断し、指示されていない場合には(S5240:NO)、ステップS5210に戻り、指示された場合には(S5240:YES)、一連の処理を終了する。
このように、本実施の形態によれば、ユーザが手動で操作を行わなくても、ユーザが受けている印象の度合いに合わせて、アクセサリの外観を変化させることができる。なお、また、印象度に、感情種別等、他の感情特性を組み合わせることにより、ユーザの気分をも反映させて、アクセサリの外観を変化させることができる。また、本発明は、ペンダントヘッド以外にも、指輪、ネックレス、腕時計等の他のアクセサリにも適用することができる。更に、本発明は、携帯電話機、バッグ等の各種携行品にも適用することができる。
(実施の形態5)
本発明の実施の形態5として、印象度だけでなく測定感情特性を用いてコンテンツを編集する場合について説明する。
図25は、本発明の実施の形態5に係る印象度抽出装置を含むコンテンツ編集装置のブロック図であり、実施の形態1の図1に対応するものである。図1と同一部分には同一符号を付し、これについての説明を省略する。
図25において、コンテンツ編集装置100dの体験映像コンテンツ取得部400dは、図1のコンテンツ編集部420とは異なる体験映像編集処理を実行するコンテンツ編集部420dを有し、更に、編集条件設定部430dを有する。
編集条件設定部430dは、測定感情特性取得部341から測定感情特性を取得し、測定感情特性に関連付けた編集条件の設定を、ユーザから受け付ける。編集条件は、ユーザが編集を希望する期間の条件である。編集条件設定部430dは、この編集条件の設定の受け付けを、グラフィカルユーザインタフェースであるユーザ入力画面を用いて行う。
図26は、ユーザ入力画面の一例を示す図である。
図26に示すように、ユーザ入力画面600は、期間指定欄610、場所指定欄620、参加イベント指定欄630、代表感情実測値指定欄640、感情量指定欄650、感情遷移情報指定欄660、および決定ボタン670を有する。欄610〜660は、プルダウンメニューまたはテキスト入力欄を有し、ユーザのキーボードやマウス等の入力装置(図示せず)の操作による、項目の選択またはテキストの入力を受け付ける。すなわち、ユーザ入力画面600で設定可能な項目は、測定感情特性の項目に対応している。
期間指定欄610は、時刻のプルダウンメニューにより、測定期間の中から、編集対象となる期間の指定を受け付ける。場所指定欄620は、テキスト入力により、編集対象である場所の属性を指定する入力を受け付ける。参加イベント指定欄630は、テキスト入力により、参加イベントの属性の中から編集対象であるイベントの属性を指定する入力を受け付ける。代表感情実測値指定欄640は、代表感情実測値に対応する感情種別のプルメニューにより、編集対象となる感情種別の指定を受け付ける。
感情量指定欄650は、感情実測値指定欄651、感情強度指定欄652、および持続時間指定欄653により構成される。なお、感情実測値指定欄651は、感情実測値指定欄640と連動して構成することも出来る。感情強度指定欄652は、数値のプルダウンメニューにより、編集対象である感情強度の最小値を指定する入力を受け付ける。持続時間指定欄653は、数値のプルダウンメニューにより、感情強度が指定された最小値を超えた状態を持続している時間について、編集対象である持続時間の最小値を指定する入力を受け付ける。
感情遷移情報指定欄660は、感情実測値指定欄661、感情遷移方向指定欄662、および感情遷移速度指定欄663により構成される。なお、感情実測値指定欄661は、感情実測値指定欄640と連動して構成することも出来る。感情遷移方向指定欄662は、感情種別のプルダウンメニューにより、前の感情実測値および後の感情実測値の指定を、編集対象となる感情遷移方向の指定として受け付ける。感情遷移速度指定欄663により構成される。数値のプルダウンメニューにより、前の感情遷移速度および後の感情遷移速度の指定を、編集対象となる感情遷移速度の指定として受け付ける。
ユーザは、このようなユーザ入力画面600を操作することにより、ユーザが思い出に残ると思う箇所の条件を、測定感情特性に関連付けて指定することができる。編集条件設定部430dは、決定ボタン670がユーザ操作により押下されると、その時点の画面の設定内容を、編集条件として、コンテンツ編集部420dに出力する。
コンテンツ編集部420dは、印象度算出部340から印象度情報を取得するだけでなく、測定感情特性取得部341から、測定感情特性を取得する。そして、コンテンツ編集部420dは、印象度情報と、測定感情特性と、編集条件設定部430dから入力された編集条件とに基づいて体験映像コンテンツの要約映像を生成する体験映像編集処理を行う。具体的には、コンテンツ編集部420dは、印象値が所定の閾値よりも高い期間のうち、編集条件に適合する期間に対応するシーンのみを抽出して、体験映像コンテンツの要約映像を生成する。
または、コンテンツ編集部420dは、編集条件に適合する期間か否かに応じて、印象度算出部340から入力された印象値を補正し、補正後の印象値が所定の閾値よりも高い期間のシーンのみを抽出して、体験映像コンテンツの要約映像を生成してもよい。
図27は、編集対象を制限することによる効果を説明するための図である。
図27に示すように、第1の区間710では、感情種別「興奮」の感情強度が5である
区間が1秒ずつ持続し、残りの区間の感情強度は低いとする。また、この持続時間は、平常時に一時的に感情強度が高くなるときと同程度に短いとする。このような場合、第1の区間710は、編集対象外とすべきである。一方、第2の区間720では、感情強度がである区間が6秒持続するとする。感情強度は低いが、その持続時間は、平常時の持続時間よりも長いとする。この場合、第2の区間720は、編集対象とすべきである。
そこで、例えば、ユーザは、図26に示すユーザ入力画面600において、代表感情実測値指定欄640に「興奮」、感情量指定欄650の感情強度652に「3」、感情量指定欄650の持続時間653に「3」を設定し、決定ボタン670を押下する。この場合、第1の区間710は、編集条件を満たさないため、編集対象外となり、第2の区間720は、編集条件を満たすため、編集対象となる。
このように、本実施の形態によれば、ユーザが思い出に残ると思う箇所をピックアップして、コンテンツを自動編集することができる。また、ユーザが、測定感情特性と関連付けて編集条件を指定することができるので、ユーザの主観的な感性を、コンテンツの編集に、より的確に反映させることができる。また、編集条件に基づいて印象値を補正する場合には、印象度の抽出の精度を更に向上させることができる。
なお、編集条件設定部430dは、測定感情特性と直接には関連しない条件を、編集条件に含めてもよい。具体的には、例えば、編集条件設定部430dは、要約映像における上限時間の指定を受け付ける。そして、コンテンツ編集部420dは、編集対象となる感情種別の持続時間や感情遷移速度を、指定された範囲内で変化させ、上限時間に最も近くなる条件を採用する。この場合、編集条件設定部430dは、他の条件を満たす期間の合計時間が上限時間に満たないときには、より低い重要度(印象値)のシーンを要約映像に含めるようにしてもよい。
また、測定感情特性等を用いて印象値の補正またはコンテンツの編集を行う手法は、実施の形態2〜実施の形態4にも適用することが可能である。
本発明は、以上、説明した各実施の形態以外にも、ユーザの感情に基づいて、電子機器における各種の選択処理を行うことに適用することができる。例えば、携帯電話機において、着信音の種類の選択、着信可否状態の選択、または情報配信サービスにおけるサービス種別の選択である。
また、例えば、車載カメラと運転者に装着させた生体情報センサとから得られた情報を対応付けて記憶するレコーダに、本発明を適用することにより、運転者の印象値の変化から注意力が散漫となっているときにこれを検出することができる。そして、注意力が散漫となっているときに、音声等により運転者に注意喚起を行ったり、事故等が発生した場合にそのときの映像を取り出して原因分析を行ったりすることが容易となる。
また、感情情報生成部は、基準感情特性を算出するためのものと、測定感情特性を算出するためのものとで、別個に設けてもよい。
2008年7月3日出願の特願2008−174763の日本出願に含まれる明細書、図面および要約書の開示内容は、すべて本願に援用される。
本発明に係る印象度抽出装置および印象度抽出方法は、ユーザに特に負担を掛けることなく、精度良く印象度を抽出することができる印象度抽出装置および印象度抽出方法として有用である。本発明に係る印象度抽出装置および印象度抽出方法は、心理状態変化に基
づいた印象度算出を行うことにより、ユーザのいつもと違う感情の自動判別を行うことができ、ユーザに特に手間を掛けることなく、ユーザの感情特性に忠実に印象度の自動算出を行うことができる。また、その算出結果は、体験映像の自動要約、ゲーム、携帯電話機等のモバイル機器、アクセサリのデザイン、自動車関連、顧客管理システム等、様々な応用アプリケーションで利用可能である。

Claims (9)

  1. 第1の期間にユーザに生起した感情の特性を示す第1の感情特性を取得する第1の感情特性取得部と、
    前記第1の期間とは異なる第2の期間に前記ユーザに生起した感情の特性を示す第2の感情特性と前記第1の感情特性との比較により、前記第1の期間に前記ユーザが受けた印象の強さを示す度合いである印象度を算出する印象度算出部と、
    を有する印象度抽出装置。
  2. 前記印象度算出部は、
    前記第2の感情特性を基準として、前記第1の感情特性との差異が大きいほど、前記印象度を高く算出する、
    請求項1記載の印象度抽出装置。
  3. 前記印象度に基づいて、コンテンツの編集を行うコンテンツ編集部、を更に有する、
    請求項1記載の印象度抽出装置。
  4. 前記ユーザの生体情報を測定する生体情報測定部と、
    前記第2の感情特性を取得する第2の感情特性取得部と、を更に有し、
    前記第1の感情特性取得部は、
    前記生体情報から前記第1の感情特性を取得し、
    前記第2の感情特性取得部は、
    前記生体情報から前記第2の感情特性を取得する、
    請求項1記載の印象度抽出装置。
  5. 前記第2の感情特性および前記第1の感情特性は、感情の覚醒度または快度を含む感情の強さを数値によって示す感情実測値と、前記感情実測値を時間積分した感情量と、前記感情実測値の変化の方向または速度を含む感情遷移情報と、の少なくともいずれか1つを含む、
    請求項1記載の印象度抽出装置。
  6. 前記第2の期間は、ユーザが平常状態にある期間、または前記第1の期間に得られた外界情報と同一の外界情報が得られた期間である、
    請求項1記載の印象度抽出装置。
  7. 前記生体情報は、ユーザの心拍数、脈拍、体温、顔の筋電、音声、脳波、皮膚電気抵抗、皮膚コンダクタンス、皮膚温度、心電図周波数、および顔画像の少なくともいずれか1つを含む、
    請求項4記載の印象度抽出装置。
  8. 前記コンテンツは、前記第1の期間に記録された映像コンテンツであり、前記編集は、前記映像コンテンツの中から印象度の高いシーンを抽出して要約映像を生成する処理である、
    請求項3記載の印象度抽出装置。
  9. 第1の期間にユーザに生起した感情の特性を示す第1の感情特性を取得するステップと、
    前記第1の期間とは異なる第2の期間に前記ユーザに生起した感情の特性を示す第2の感情特性と前記第1の感情特性との比較により、前記第1の期間に前記ユーザが受けた印象の強さを示す度合いである印象度を算出するステップと、
    を有する印象度抽出方法。
JP2009531116A 2008-07-03 2009-04-14 印象度抽出装置および印象度抽出方法 Pending JPWO2010001512A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2008174763 2008-07-03
JP2008174763 2008-07-03
PCT/JP2009/001723 WO2010001512A1 (ja) 2008-07-03 2009-04-14 印象度抽出装置および印象度抽出方法

Publications (1)

Publication Number Publication Date
JPWO2010001512A1 true JPWO2010001512A1 (ja) 2011-12-15

Family

ID=41465622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009531116A Pending JPWO2010001512A1 (ja) 2008-07-03 2009-04-14 印象度抽出装置および印象度抽出方法

Country Status (4)

Country Link
US (1) US20110105857A1 (ja)
JP (1) JPWO2010001512A1 (ja)
CN (1) CN102077236A (ja)
WO (1) WO2010001512A1 (ja)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9305238B2 (en) 2008-08-29 2016-04-05 Oracle International Corporation Framework for supporting regular expression-based pattern matching in data streams
US8326002B2 (en) * 2009-08-13 2012-12-04 Sensory Logic, Inc. Methods of facial coding scoring for optimally identifying consumers' responses to arrive at effective, incisive, actionable conclusions
US8959106B2 (en) 2009-12-28 2015-02-17 Oracle International Corporation Class loading using java data cartridges
US9430494B2 (en) 2009-12-28 2016-08-30 Oracle International Corporation Spatial data cartridge for event processing systems
US9305057B2 (en) 2009-12-28 2016-04-05 Oracle International Corporation Extensible indexing framework using data cartridges
WO2011153318A2 (en) 2010-06-02 2011-12-08 Q-Tec Systems Llc Method and apparatus for monitoring emotion in an interactive network
US9220444B2 (en) * 2010-06-07 2015-12-29 Zephyr Technology Corporation System method and device for determining the risk of dehydration
US8713049B2 (en) 2010-09-17 2014-04-29 Oracle International Corporation Support for a parameterized query/view in complex event processing
US20130212119A1 (en) * 2010-11-17 2013-08-15 Nec Corporation Order determination device, order determination method, and order determination program
US9189280B2 (en) 2010-11-18 2015-11-17 Oracle International Corporation Tracking large numbers of moving objects in an event processing system
WO2012089906A1 (en) * 2010-12-30 2012-07-05 Nokia Corporation Method, apparatus and computer program product for emotion detection
US8990416B2 (en) 2011-05-06 2015-03-24 Oracle International Corporation Support for a new insert stream (ISTREAM) operation in complex event processing (CEP)
US20120324491A1 (en) * 2011-06-17 2012-12-20 Microsoft Corporation Video highlight identification based on environmental sensing
US9329975B2 (en) 2011-07-07 2016-05-03 Oracle International Corporation Continuous query language (CQL) debugger in complex event processing (CEP)
KR101801327B1 (ko) * 2011-07-29 2017-11-27 삼성전자주식회사 감정 정보 생성 장치, 감정 정보 생성 방법 및 감정 정보 기반 기능 추천 장치
CN103258556B (zh) * 2012-02-20 2016-10-05 联想(北京)有限公司 一种信息处理方法及装置
US20130237867A1 (en) * 2012-03-07 2013-09-12 Neurosky, Inc. Modular user-exchangeable accessory for bio-signal controlled mechanism
JP6124239B2 (ja) 2012-08-07 2017-05-10 国立研究開発法人科学技術振興機構 情動認識装置、情動認識方法、及び情動認識プログラム
US20140047316A1 (en) * 2012-08-10 2014-02-13 Vimbli, Inc. Method and system to create a personal priority graph
JP6087086B2 (ja) * 2012-08-31 2017-03-01 国立研究開発法人理化学研究所 心理データ収集装置、心理データ収集プログラムおよび心理データ収集方法
US9247225B2 (en) * 2012-09-25 2016-01-26 Intel Corporation Video indexing with viewer reaction estimation and visual cue detection
US9563663B2 (en) 2012-09-28 2017-02-07 Oracle International Corporation Fast path evaluation of Boolean predicates
US9361308B2 (en) 2012-09-28 2016-06-07 Oracle International Corporation State initialization algorithm for continuous queries over archived relations
US9477993B2 (en) 2012-10-14 2016-10-25 Ari M Frank Training a predictor of emotional response based on explicit voting on content and eye tracking to verify attention
US9104467B2 (en) 2012-10-14 2015-08-11 Ari M Frank Utilizing eye tracking to reduce power consumption involved in measuring affective response
US20140153900A1 (en) * 2012-12-05 2014-06-05 Samsung Electronics Co., Ltd. Video processing apparatus and method
US10956422B2 (en) 2012-12-05 2021-03-23 Oracle International Corporation Integrating event processing with map-reduce
US9712800B2 (en) 2012-12-20 2017-07-18 Google Inc. Automatic identification of a notable moment
EP2939439A4 (en) * 2012-12-31 2016-07-20 Google Inc AUTOMATIC IDENTIFICATION OF A SPECIAL MOMENT
US10298444B2 (en) 2013-01-15 2019-05-21 Oracle International Corporation Variable duration windows on continuous data streams
US9098587B2 (en) * 2013-01-15 2015-08-04 Oracle International Corporation Variable duration non-event pattern matching
US9390135B2 (en) 2013-02-19 2016-07-12 Oracle International Corporation Executing continuous event processing (CEP) queries in parallel
US9047249B2 (en) 2013-02-19 2015-06-02 Oracle International Corporation Handling faults in a continuous event processing (CEP) system
US9418113B2 (en) 2013-05-30 2016-08-16 Oracle International Corporation Value based windows on relations in continuous data streams
US9681186B2 (en) * 2013-06-11 2017-06-13 Nokia Technologies Oy Method, apparatus and computer program product for gathering and presenting emotional response to an event
KR101535432B1 (ko) 2013-09-13 2015-07-13 엔에이치엔엔터테인먼트 주식회사 콘텐츠 평가 시스템 및 이를 이용한 콘텐츠 평가 방법
US9934279B2 (en) 2013-12-05 2018-04-03 Oracle International Corporation Pattern matching across multiple input data streams
JP5662549B1 (ja) * 2013-12-18 2015-01-28 佑太 国安 記憶再生装置
US9934793B2 (en) * 2014-01-24 2018-04-03 Foundation Of Soongsil University-Industry Cooperation Method for determining alcohol consumption, and recording medium and terminal for carrying out same
US9244978B2 (en) 2014-06-11 2016-01-26 Oracle International Corporation Custom partitioning of a data stream
US9712645B2 (en) 2014-06-26 2017-07-18 Oracle International Corporation Embedded event processing
KR101689010B1 (ko) * 2014-09-16 2016-12-22 상명대학교 서울산학협력단 신체 움직임 기반 친밀도 판단 방법 및 시스템
US9886486B2 (en) 2014-09-24 2018-02-06 Oracle International Corporation Enriching events with dynamically typed big data for event processing
US10120907B2 (en) 2014-09-24 2018-11-06 Oracle International Corporation Scaling event processing using distributed flows and map-reduce operations
JP6589880B2 (ja) * 2014-11-07 2019-10-16 ソニー株式会社 情報処理システム、制御方法、および記憶媒体
KR20160065670A (ko) * 2014-12-01 2016-06-09 삼성전자주식회사 컨텐트를 제공하는 방법 및 디바이스
JP6388824B2 (ja) * 2014-12-03 2018-09-12 日本電信電話株式会社 感情情報推定装置、感情情報推定方法及び感情情報推定プログラム
JP6678392B2 (ja) * 2015-03-31 2020-04-08 パイオニア株式会社 ユーザ状態予測システム
WO2017018901A1 (en) 2015-07-24 2017-02-02 Oracle International Corporation Visually exploring and analyzing event streams
CN105320748B (zh) * 2015-09-29 2022-02-22 耀灵人工智能(浙江)有限公司 一种匹配用户的主观标准的检索方法与检索系统
JP6985005B2 (ja) * 2015-10-14 2021-12-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 感情推定方法、感情推定装置、及び、プログラムを記録した記録媒体
WO2017135838A1 (en) 2016-02-01 2017-08-10 Oracle International Corporation Level of detail control for geostreaming
WO2017135837A1 (en) 2016-02-01 2017-08-10 Oracle International Corporation Pattern based automated test data generation
CN108885494B (zh) * 2016-04-27 2022-01-25 索尼公司 信息处理设备、信息处理方法和计算机可读存储介质
JP6688179B2 (ja) * 2016-07-06 2020-04-28 日本放送協会 シーン抽出装置およびそのプログラム
CA3028986A1 (en) 2016-07-11 2018-01-18 Philip Morris Products S.A. Hydrophobic capsule
WO2019031621A1 (ko) * 2017-08-08 2019-02-14 라인 가부시키가이샤 통화 중 감정을 인식하여 인식된 감정을 활용하는 방법 및 시스템
JP7141680B2 (ja) * 2018-01-29 2022-09-26 株式会社Agama-X 情報処理装置、情報処理システム及びプログラム
JP7385892B2 (ja) * 2019-05-14 2023-11-24 学校法人 芝浦工業大学 感情推定システム、および感情推定装置
JP7260505B2 (ja) * 2020-05-08 2023-04-18 ヤフー株式会社 情報処理装置、情報処理方法、情報処理プログラム及び端末装置
JP7444820B2 (ja) * 2021-08-05 2024-03-06 Necパーソナルコンピュータ株式会社 感情判定装置、感情判定方法、及びプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6102846A (en) * 1998-02-26 2000-08-15 Eastman Kodak Company System and method of managing a psychological state of an individual using images
US6718561B2 (en) * 2001-04-30 2004-04-13 John Dondero Goggle for protecting eyes with a movable lens and methods for using the goggle
US7039959B2 (en) * 2001-04-30 2006-05-09 John Dondero Goggle for protecting eyes with movable single-eye lenses and methods for using the goggle
DE60115653T2 (de) * 2001-10-05 2006-08-10 Sony Deutschland Gmbh Verfahren zur Detektion von Emotionen, unter Verwendung von Untergruppenspezialisten
JP3979351B2 (ja) * 2003-06-30 2007-09-19 ソニー株式会社 通信装置及び通信方法
US7200875B2 (en) * 2001-11-06 2007-04-10 John Dondero Goggle for protecting eyes with movable lenses and methods for making and using the goggle
JP2005128884A (ja) * 2003-10-24 2005-05-19 Sony Corp 情報コンテンツの編集装置及び編集方法
AU2003276661A1 (en) * 2003-11-05 2005-05-26 Nice Systems Ltd. Apparatus and method for event-driven content analysis
US20080065468A1 (en) * 2006-09-07 2008-03-13 Charles John Berg Methods for Measuring Emotive Response and Selection Preference
JP2009118420A (ja) * 2007-11-09 2009-05-28 Sony Corp 情報処理装置、情報処理方法、プログラム、記録媒体及び情報処理システム
WO2009064473A1 (en) * 2007-11-13 2009-05-22 Wavesynch Technologies, Inc. A method for monitoring attentiveness and productivity in a subject

Also Published As

Publication number Publication date
CN102077236A (zh) 2011-05-25
US20110105857A1 (en) 2011-05-05
WO2010001512A1 (ja) 2010-01-07

Similar Documents

Publication Publication Date Title
WO2010001512A1 (ja) 印象度抽出装置および印象度抽出方法
JP6636792B2 (ja) 刺激提示システム、刺激提示方法、コンピュータ、および制御方法
US11481946B2 (en) Information processing apparatus, information processing method, program, and information processing system for reinforcing target behavior
EP1522256B1 (en) Information recording device and information recording method
CN105791692B (zh) 一种信息处理方法、终端及存储介质
JP4367663B2 (ja) 画像処理装置、画像処理方法、プログラム
US6520905B1 (en) Management of physiological and psychological state of an individual using images portable biosensor device
JP5315694B2 (ja) 映像生成装置、映像生成方法および映像生成プログラム
CN102483767B (zh) 对象关联装置、对象关联方法、程序及记录介质
US9646046B2 (en) Mental state data tagging for data collected from multiple sources
CN106580346A (zh) 情绪推定方法和情绪推定装置
JP2004178593A (ja) 画像処理方法及びシステム
US20030009078A1 (en) Management of physiological and psychological state of an individual using images congnitive analyzer
JP6154044B2 (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP2015089112A (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
US9934425B2 (en) Collection of affect data from multiple mobile devices
CN103154953A (zh) 测量具有上网功能的应用程序的情感数据
CN107825429A (zh) 对话装置和方法
JP7154024B2 (ja) ペット動画解析装置、ペット動画解析システム、ペット動画解析方法、及びプログラム
CN110970105A (zh) 体检报告播报方法、装置、电子设备及存储介质
JP2014053672A (ja) 再生システム
JP2009290842A (ja) 画像合成装置、画像合成方法及びプログラム
CN109272414A (zh) 生活日志利用系统、生活日志利用方法和记录介质
JP4407198B2 (ja) 記録再生装置、再生装置、記録再生方法および再生方法
US10902829B2 (en) Method and system for automatically creating a soundtrack to a user-generated video