JP7234930B2 - 情報処理装置、情報処理方法及び情報処理システム - Google Patents

情報処理装置、情報処理方法及び情報処理システム Download PDF

Info

Publication number
JP7234930B2
JP7234930B2 JP2019547920A JP2019547920A JP7234930B2 JP 7234930 B2 JP7234930 B2 JP 7234930B2 JP 2019547920 A JP2019547920 A JP 2019547920A JP 2019547920 A JP2019547920 A JP 2019547920A JP 7234930 B2 JP7234930 B2 JP 7234930B2
Authority
JP
Japan
Prior art keywords
information
reaction
user
unit
reaction information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019547920A
Other languages
English (en)
Other versions
JPWO2019073661A1 (ja
Inventor
至 清水
允 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2019073661A1 publication Critical patent/JPWO2019073661A1/ja
Application granted granted Critical
Publication of JP7234930B2 publication Critical patent/JP7234930B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/02Reservations, e.g. for tickets, services or events
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/053Measuring electrical impedance or conductance of a portion of the body
    • A61B5/0531Measuring skin impedance
    • A61B5/0533Measuring galvanic skin response
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/12Healthy persons not otherwise provided for, e.g. subjects of a marketing survey
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Description

本開示は、情報処理装置、情報処理方法及び情報処理システに関する。
催し物に参加した出席者を撮影してその結果を解析し、催し物に対する評価を行う装置が提案されている(例えば、下記特許文献1を参照のこと)。
特開2004-272529号公報
このような分野では、催し物が行われている最中に出席者を撮影等する必要があるが、出席者の撮影等が勝手に行われてしまうことは個人情報の保護の観点から望ましくない。
そこで、本開示は、所定の提示情報に対するユーザの反応を示す反応情報を、当該ユーザが許諾した場合に利用する情報処理装置等を提供することを目的の一つとする。
本開示は、例えば、
提示情報に対するユーザの反応を示す反応情報を取得する反応情報取得部と、
反応情報の利用が許諾されている場合に、当該反応情報に基づく二次情報を生成する反応情報利用部と、
を有し、
反応情報取得部は、センサ部から出力されるセンサ情報に基づき反応情報を推定する反応情報推定部を有する
情報処理装置である。
本開示は、例えば、
反応情報取得部が、提示情報に対するユーザの反応を示す反応情報を取得し、
反応情報利用部が、反応情報の利用が許諾されている場合に、当該反応情報に基づく二次情報を生成し、
反応情報推定部が、センサ部から出力されるセンサ情報に基づき反応情報を推定する
情報処理方法である。
本開示は、例えば、
提示情報に対するユーザの反応を示す反応情報を取得する反応情報取得部と、
反応情報の利用が許諾されている場合に、当該反応情報に基づく二次情報を生成する反応情報利用部と、
を有し、
反応情報取得部は、センサ部から出力されるセンサ情報に基づき反応情報を推定する反応情報推定部を有する
情報処理システムである。
本開示の少なくとも実施形態によれば、ユーザが許諾した場合に当該ユーザの反応情報が利用される情報処理装置等を提供することができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれの効果であっても良い。また、例示された効果により本開示の内容が限定して解釈されるものではない。
図1は、一実施形態に係る情報処理システムの構成例を示すブロック図である。 図2は、一実施形態に係る情報処理システムにおける処理の流れを示すフローチャートである。 図3は、一実施形態に係る予約処理の流れを示すフローチャートである。 図4は、一実施形態に係る予約処理における画面の例を示す図である。 図5は、一実施形態に係る予約処理における画面の例を示す図である。 図6は、一実施形態に係る予約処理における画面の例を示す図である。 図7は、一実施形態に係る予約処理における画面の例を示す図である。 図8は、一実施形態に係る予約処理における画面の例を示す図である。 図9は、一実施形態に係る予約処理における画面の例を示す図である。 図10A及び図10Bは、一実施形態に係るカメラモジュールの配置例を説明するための図である。 図11は、一実施形態に係るカメラモジュールの他の配置例を説明するための図である。 図12A及び図12Bは、一実施形態に係るカメラモジュールの設定例を説明するための図である。 図13は、一実施形態に係る生体センサの配置例を説明するための図である。 図14A~図14Cは、一実施形態に係る感情推定部による感情推定方法の複数の例を説明するための図である。 図15は、感情情報の一例を示す図である。 図16は、映画の視聴後に行われる処理の流れを示すフローチャートである。 図17は、一実施形態に係るサービス情報を生成する処理を説明するための図である。 図18A~図18Cは、サービス情報の複数の例を説明するための図である。 図19は、サービス情報の他の例を説明するための図である。 図20A及び図20Bは、サービス情報の他の例を説明するための図である。 図21は、変形例を説明するための図である。
以下、本開示の実施形態等について図面を参照しながら説明する。なお、説明は以下の順序で行う。
<1.一実施形態>
1.情報処理システム
1-1.用語に関する説明
1-2.システムの構成例
1-3.予約端末の構成例
1-4.サーバの構成例
1-5.反応情報取得装置の構成例
1-6.情報処理システムにおける処理の概要
2.予約処理
2-1.予約処理の流れ
2-2.予約処理における画面例
3.映画視聴時における感情情報の取得
3-1.センサ部の配置例
3-2.感情推定部の動作
4.サービス情報の生成
4-1.映画視聴後の処理の流れ
4-2.サービス情報生成部の動作例
4-3.サービス情報の具体例
5.反応情報の利用の許諾がない場合の処理
<2.変形例>
なお、以下に説明する実施形態等は本開示の好適な具体例であり、本開示の内容がこれらの実施形態等に限定されるものではない。
<1.一実施形態>
[1.情報処理システム]
(1-1.用語に関する説明)
始めに、本実施形態で使用される主な用語について説明する。
「提示情報」とは、ユーザに提示され、ユーザにより視聴、鑑賞、観戦等される情報をいう。本実施形態では、提示情報としてコンテンツより具体的には映画を例にして説明する。
「センサ情報」とは、カメラモジュールや生体センサ等のセンサ装置によって得られる情報(データ)をいう。
「反応情報」とは、提示情報に対するユーザの反応を示す情報をいい、具体的には、センサ情報を解析することにより得られる情報をいう。本実施形態では、反応情報として感情に対応する情報を用いている。したがって、「反応情報」を「感情情報」と称する場合もある。但し、「反応情報」は、感情だけでなく反応の有無やユーザの状態変化を含み、「感情情報」より広い概念である。
「許諾情報」とは、「反応情報」の利用に関する許諾の有無を示す情報をいう。
「サービス情報」とは、「反応情報」の利用を許諾したユーザに提示される情報をいう。
(1-2.システムの構成例)
図1は、本実施形態に係る情報処理システム(情報処理システム100)の構成例を示している。情報処理システム100は、例えば、予約端末1と、情報処理装置の一例であるサーバ2と、反応情報取得装置3とを有している。例えば、予約端末1及びサーバ2により予約システムが構成されている。
(1-3.予約端末の構成例)
続いて、各装置の概略的な構成例について説明する。始めに、予約端末1の構成例について説明する。予約端末1は、公共の場や店舗に設置される端末であっても良いし、ユーザUが有するパーソナルコンピュータやスマートフォン、タブレットコンピュータ等であっても良い。本実施形態では、予約端末1が、ユーザUが有するスマートフォンを例にして説明する。
表示装置の一例である予約端末1は、例えば、表示制御部の一例である予約端末制御部11と、表示部12と、通信部13とを有している。予約端末制御部11は、例えばCPU(Central Processing Unit)により構成されており、予約端末1の各部を制御する。表示部12は、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)パネル等により構成されている。本実施形態に係る表示部12は、表示部12に対する操作入力を受付可能なタッチスクリーンとして構成されている。通信部13は、インターネット等を介してサーバ2等と通信を行うものである。なお、予約端末1が、上述した構成の他に公知の構成を有していても良い。
(1-4.サーバの構成例)
サーバ2は、例えば、サーバ制御部21と、予約情報管理部22と、反応情報利用部の一例であるサービス情報生成部23と、通信部24とを有している。サーバ制御部21は、例えばCPUにより構成されており、サーバ2の各部を制御する。
予約情報管理部22は、予約端末1に入力された情報に基づく予約情報を管理する記憶部等である。予約情報管理部22は、例えば、ユーザUのIDと、ユーザUの属性情報と、当該ユーザUが予約した座席を示す座席情報と、許諾情報とを対応付けて管理する。ユーザUの属性情報とは、ユーザUの属性を示す情報であり、例えば、当該ユーザUの性別、国籍、居住地域、人種、年齢等である。なお、ユーザUの属性情報は、座席の予約時に入力されたものでも良いし、予約前に予め登録されたものでも良い。
本実施形態に係る反応情報は、映画に対する当該ユーザUの反応を示す情報であり、より具体的には、映画の鑑賞時におけるユーザUの感情である。感情は、喜怒哀楽などの他、眠気、共感、リラックス、興奮、集中などの精神状態を含む概念である。感情は、センサ情報として直接検出されるものに限らず、当該センサ情報に基づき推定されるものであっても良い。例えば、複数の感情をマッピングしたモデルとして、ラッセルの感情円環モデルが知られている。ラッセルの感情円環モデルでは、快状態と覚醒状態の2つの指標に基づき、多様な感情を推定している。このような感情推定モデルに従って感情が区分されても良い。
サービス情報生成部23は、反応情報の利用を許諾したユーザUに提供されるサービス情報を生成する。サービス情報は、ユーザUの反応情報に基づいて生成される。サービス情報の詳細については後述する。反応情報の利用を許諾したユーザUは、例えば映画の視聴中や視聴後にサービス情報を得ることができる。通信部24は、インターネット等を介して予約端末1や反応情報取得装置3等と通信を行うものである。
(1-5.反応情報取得装置の構成例)
反応情報取得装置3は、制御部31と、センサ部32と、感情推定部33と、通信部34とを有している。例えば、センサ部32と感情推定部33とにより反応情報推定部が構成される。制御部31は、例えばCPUにより構成されており、反応情報取得装置3の各部を制御する。センサ部32は、例えば映画の視聴時におけるユーザUの状態(反応)を計測するセンサである。本実施形態に係るセンサ部32は、例えば、カメラモジュール32Aと、生体センサ32Bとを有しているが、カメラモジュール32Aのみに基づく構成や、生体センサ32Bのみに基づく構成であっても良い。カメラモジュール32Aは、映画を鑑賞するユーザUを撮影する装置であり、レンズ321と、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等からなるイメージセンサ322と、画像処理部323と、カメラモジュール32A全体を制御するカメラ制御部324とを含む構成を有している。生体センサ32Bは、ユーザUの生体情報を測定するセンサである。ユーザUの生体情報としては、ユーザUの体温、心拍、脈拍、血圧、発汗、脳波、体の動き等が挙げられる。
感情推定部33は、センサ部32により測定されたセンサ情報に基づいて、ユーザUの感情を推定(解析)する。通信部34は、インターネット等を介してサーバ2等と通信を行うものである。
(1-6.情報処理システムにおける処理の概要)
情報処理システム100で行われる処理について、図2に示すフローチャートを参照して概略的に説明する。ステップST1では、ユーザが予約端末1を利用して映画の予約を行う予約処理が行われる。ユーザUは、視聴対象の映画を指定すると共に視聴位置である座席を指定する。ユーザUは、さらに、反応情報の利用を許諾するか否かを示す許諾情報の入力を行う。反応情報の利用とは、例えば、反応情報が新規顧客の開拓や映画の嗜好傾向の把握、映画の関連商品販売等のマーケティング情報として利用されることをいう。予約端末1を介して入力された予約情報が、通信によりサーバ2に送信される。サーバ2は、予約端末1から送信された予約情報を管理する。そして、処理がステップST2に進む。
ステップST2では、ユーザUが予約した映画を映画館で視聴する。映画の視聴時におけるユーザUの反応が映画館に設置された反応情報取得装置3によって推定される。そして、推定結果が反応情報取得装置3からサーバ2に送信される。そして、処理がステップST3に進む。
ステップST3では、ユーザUが反応情報の利用を許諾したか否かが判断される。この判断処理において、ユーザUが反応情報の利用を許諾していない場合には、処理が終了する。一方、ユーザUが反応情報の利用を許諾している場合には、処理がステップST4に進む。
ステップST4では、サーバ2が座席情報及び許諾情報を参照し、反応情報の利用を許諾したユーザUに対するサービス情報を生成する。このサービス情報がユーザUに提示される。そして、処理が終了する。
[2.予約処理]
(2-1.予約処理の流れ)
次に、各処理の具体的な内容について説明する。図3は、本実施形態に係る予約処理の流れを示すフローチャートである。ステップST11では、予約端末1の表示部12にログイン画面が表示される。そして、処理がステップST12に進む。ステップST12では、映画及び上映時間の指定がなされる。そして、処理がステップST13に進む。ステップST13では、座席の選択がなされる。そして、処理がステップST14に進む。ステップST14では、反応情報の利用を許諾することにより想定されるユーザへの影響が表示され、特にユーザが得られる利点(メリット)が表示される。そして、処理がステップST15に進む。ステップST15では、許諾の有無が確認される。そして、処理がステップST16に進む。ステップST16では、映画の予約が完了する。
(2-2.予約処理における画面例)
各処理の具体例について説明する。ここでは、予約処理における画面例について説明する。以下に説明する画面例は、予約端末制御部11の制御に応じて表示部12に表示される。
ユーザUは、予約端末1を使用して専用サイトまたは特定のアプリケーションを利用して予約ページに接続する。図4は、ステップST11において予約端末1の表示部12に表示されるログイン画面41の一例を示している。ログイン画面41では、例えば、会員用の入力項目41Aと、非会員用の入力項目41Bとが表示される。会員用の入力項目41Aは、会員番号を入力するための表示410Aと、パスワードを入力するための表示410Bとを含む。なお、本実施形態では、会員の場合には予め当該会員の属性情報が登録されており、会員でログインした場合には、非会員に要求される属性情報の入力を省略することができる。ユーザUは、ログイン画面41に必要な入力をした後、「次へ」との表示410Cを選択する。
ログイン画面41において非会員すなわちログインしないで購入が選択された場合には、例えば、図5に示す購入者情報入力画面42が表示される。図5に例示する購入者情報入力画面42では、映画の購入に必要な情報を入力するための名前、電話番号、メールアドレス等の連絡先、支払い方法等を入力するための欄が表示される。さらに、購入者情報入力画面42では、ユーザUの属性情報(例えば、性別や年齢)を入力するための欄が表示される。
図6は、ステップST12における映画を指定するための映画選択画面43の一例を示している。映画選択画面43では、例えば、映画館名(例えば、東京映画館AB)、映画名(映画AAA)、上映日(5月1日(月))、複数の上映開始時間、上映時間、予約可能の有無等を含む情報が表示される。映画選択画面43を使用してユーザUは予約可能な映画を選択する。
図7は、ステップST13における座席選択の処理の際に表示部12に表示される座席選択画面44の一例を示している。座席選択画面44では、例えば、座席の配置、予約可能な空席の位置及び選択済の座席等を含む座席表示44Aが表示される。ユーザUは、座席表示44Aを参照して希望する座席を選択し予約する。なお、ログインしたユーザUによって、より具体的には当該ユーザUに対応する1のアカウントに対応して複数の座席が予約されても良い。複数の座席が予約された場合には、当該座席を利用する複数のユーザU間に所定の関係が存在するものと推定されても良い。例えば、1のアカウントで2座席が予約された場合には、それぞれの座席を利用するユーザUは、恋人、夫婦または友人であると推定され、1のアカウントで3座席以上が予約された場合には、それぞれの座席を利用するユーザUは、家族または友人であると推定されても良い。なお、1のアカウントで2以上の座席を予約する場合には、アカウントを有するユーザUだけでなく、当該予約に関する他のユーザUの属性情報の入力を求めることもできる。
図8は、ステップST13の処理の際に表示部12に表示される画面の一例(画面45)を示している。画面45では、サービス情報として、映画の視聴後に性格診断、具体的には、視聴タイプ診断、視聴中感情マップ、相性チェック等が提供できる旨の表示45Aが表示される。表示45Aの中から所望のサービス情報をユーザUが選択する。なお、相性チェックは、1アカウントで複数の座席が予約された場合に選択可能とされても良い。
画面45では、サービス情報を生成するために、映画の視聴時にユーザUの感情推定が行われることにより感情情報が取得され、感情情報がマーケティング情報に活用され得る旨の表示45Bが表示される。より具体的に、ユーザUが撮影されたり、生体情報の測定がなされたりすることが表示されても良い。また、画面45では、目的外使用を行わない旨の説明や、統計処理によりユーザUとは紐づかない形での情報利用がされる旨の説明等の免責事項に関する表示や、ユーザUの同意がない場合には、感情推定が行われず、サービス情報が提示されない旨の表示を含む表示45Cが表示される。
ユーザUの中には、映画の視聴時に撮影されたり、生体情報を取得されることに心理的な抵抗感を感じるユーザUも存在し得る。そこで、ユーザUに対して、サービス情報の提示に加え、感情情報の利用の許諾を促す表示(インセンティブに関する表示)が表示されることが好ましい。本実施形態に係る画面45では、例えば、感情情報の利用を許諾した場合に、サービス情報の提示の他に100のポイントが付加される表示45Dが表示される。
もちろん、映画の視聴時における感情推定は、ユーザUに強制されるものではない。サービス情報の提示を希望しない場合には、同意しない旨の表示45Eに含まれるチェックボックスをチェックすれば良い。また、この他に、サービス情報の提示に関するサービスを受ける場合にも、ユーザU個人を具体的に特定する個人情報を取らない旨が表示されても良い。
また、サービス情報に関する画面45は、図9に示すように、映画に関するクイズ等の試遊画面でも良い。図9に示す画面例46では、映画の中で一番盛り上がるシーンを予測するクイズが表示される。クイズの答えは、映画の視聴中における複数のユーザUの感情情報に基づいて決定され、その結果が感情情報の利用を許諾したユーザUに対して、映画の視聴後にフィードバックされる。図8や図9に示す画面例は、時系列に又は同時に表示されても良い。また、映画に関するクイズではなく、映画に対する事前の期待の入力を促す内容等が表示されても良い。映画視聴前に試遊画面を設けることで、ユーザUに対して感情情報の利用の許諾を促す効果を期待できるとともに、映画視聴中の感情推定に基づく反応を映画視聴後に提示するにあたり、視聴前の期待値との比較等を提示でき、よりユーザUの興味を引くことができる。さらに、視聴前の期待や予測等と、実際の感情推定の結果との比較情報は、前述のマーケティングの観点でも有用な情報となる。
予約端末1を使用して入力された予約情報が、通信部13から送信される。そして予約情報がサーバ2の通信部24により受信され、サーバ2の予約情報管理部22により管理される。
[3.映画視聴時における感情情報の取得]
(3-1.センサ部の配置例)
予約処理の後に、ユーザUは実際に映画を視聴する。図10A及び図10Bは、センサ部32のカメラモジュール32Aの配置例を示している。カメラモジュール32Aは、映画館における所定の劇場51内に配置される。例えば、図10Aに示すように、カメラモジュール32Aは、劇場51の前方(スクリーン側)から観客席52側に向けて配置される。図10Bに示すように、観客席52を複数のエリア(例えば、2エリア)に分担して、エリア毎にカメラモジュール32Aが配置されていても良い。これによりカメラモジュール1台の撮影対象となるユーザ毎の解像度を担保することができる。また、複数台のカメラモジュール32Aが異なる角度から共通するエリアを撮影するようにしても良い。これによりユーザに動きがあった場合でも、正確に表情等の認識を行うことができる。1エリアについて複数のカメラモジュール32Aがアレイ状に近接して配置されたものが使用されても良い。カメラモジュール32Aにより得られた画像に基づいて、撮影範囲に存在するユーザUが撮影され、ユーザUの顔認識等がなされる。
カメラモジュール32Aは、図11に示すように座席毎に設けられても良い。図11では、全座席のうちの座席52A及びその前方の座席52Bが示されている。一般に、映画館の座席は、後方側の座席52Aの高さが高くなるように設けられている。座席52Bの背もたれ付近にカメラモジュール32Aが設けられ、当該カメラモジュール32Aにより座席52AのユーザUが撮影されるようにしても良い。なお、カメラモジュール32Aは座席毎に複数台設けられていても良い。カメラモジュール32Aを座席毎に設けることで、より正確にユーザの表情等を検出することができる。
カメラモジュール32Aの設定値は、固定でも良いし、映画の進行に同期して可変とされても良い。カメラモジュール32Aの設定値を可変とする場合の一例として、例えば、図12に示すようにして、映画の明度に応じて設定値を変更することができる。設定値としては、例えばダイナミックレンジを挙げられる。図12Aは、映画の進行に伴って変化する明度を模式的に示した図であり、横軸は時間を示し縦軸は明度を示している。図12Bは、図12Aに時間的に対応する図であり、明度の変化に伴って変更されるダイナミックレンジを示している。例えば、明度が閾値THを上回った場合にカメラ制御部324の制御に応じてダイナミックレンジを拡大する処理が行われる。これにより、映画のシーンによって明度が変化しても、正確にユーザUの表情等を検出できる。なお、カメラモジュール32Aは、センサ等によりリアルタイムに明度の変化を検出しても良いし、撮影画像に基づいて明度の変化を検出しても良いし、映画のテスト再生等の機会で予め測定され、記憶された明度の変化を読み出すようにしても良い。
設定値は、ダイナミックレンジに限定されることはなく、イメージセンサ322の感度、イメージセンサ322のフレームレート、シャッタースピード、解像度、又はこれらの組み合わせ等でも良い。明度以外の変化としては、例えばユーザの動きが考えられ、ユーザの動きが検出された場合に、設定値としてシャッタースピードを変化させることができる。また、映画の再生中、カメラモジュール32Aが常に撮影を行う必要は無く、設定された期間のみ撮影を行うようにしても良い。また、撮影はカラーではなく単色でも良いし、赤外線を検出するものであっても良い。
生体センサ32Bは、ユーザUの体温、心拍、脈拍、血圧、発汗、脳波、体の動き等を検出するものである。図13に示すように、生体センサ32Bは、例えば、映画館で貸与される3D用の眼鏡53Aに内蔵されている。生体センサ32Bに搭載されるセンサとしては、例えば体温、脈拍、発汗、脳波、体動等の検出が好適である。生体センサ32Bは、座席53Bに内蔵されたものであり、例えば圧力センサ、体温センサ、脈波センサ、心拍センサ、脳波センサ、及びこれらを組み合わせたものであっても良い。また、生体センサ32Bは、反応情報の利用を許諾したユーザUに対して貸与される機器であっても良い。図11に示したカメラモジュール32Aのように、生体センサ32Bは、前方の座席に設けられたもの(例えば、サーモグラフィや、電波の反射を利用したセンサ)であっても良い。また、近年、ユーザUが有するリストバンドやスマートフォン等の機器、シャツ等の衣服の中にはユーザUの生体情報を測定する機能を有するものがある。反応情報取得装置3がそのような機器からユーザUの生体情報を近距離無線通信等により取得するようにしても良い。ユーザが常用している他の感情推定サービスのログが使用されても良い。この場合、ユーザUに対して、ユーザUが有する機器と反応情報取得装置3との接続を促す指示を提示しても良いし、ユーザUが有する機器と、反応情報取得装置3を構成する座席等との近接に応じて近距離無線通信を確立し、近距離無線通信を介してユーザUの生体情報を自動的に取得するようにしても良い。
(3-2.感情推定部の動作)
カメラモジュール32A及び生体センサ32Bにより得られたセンサ情報が感情推定部33に供給される。感情推定部33は、センサ情報に基づいてユーザの感情を推定する。センサ情報に基づいて感情を推定する方法は、公知の方法を適用することができる。例えば、感情推定部33は、センサ情報に含まれる、撮影されたユーザの顔の特徴点や姿勢から当該ユーザUの感情を推定する。より具体的には、感情推定部33は、センサ情報に基づく顔認識と、認識された顔の表情解析を行い、その結果から、感情推定に必要な要素値を求める。例えば笑顔の程度を示す笑顔度を求め、その絶対値をある感情(例えば「喜び」)の程度と推定することや、笑顔度が所定の閾値を超えた場合に、ユーザがある「喜び」の状態にあると判定してもよい。あるいは、複数の要素感情の割合や、複数の要素感情における支配的な要素感情を特定することによって、最終的な感情を推定してもよい。あるいは、要素感情によらず、機械学習等を用いて認識された顔の表情から直接任意の感情を推定してもよい。ここで感情を推定する際に、センサ情報に含まれる生体情報を参照することにより、より的確に感情を推定することができる。あるいは、カメラモジュール32Aによる撮影を行わず、生体センサ32Bの情報のみに基づいて感情推定を行うこともできる。
図14A~図14Cは、感情推定部33による感情推定の結果の例を示している。例えば、図14Aに示すように、ある感情(例えば、驚き)に対応する推定値の変化が感情推定の結果とされる。なお、図14A~図14Cでは驚きを例に説明するが、同様にして、他の感情の変化も推定される。感情推定の結果は所定のフレームレート毎に、リアルタイムに推定することができ、例えば図14Aに示すような曲線として、その感情の度合いの強さが導出される。感情推定の結果の提示方法は、感情の度合いの変化に限定されることはない。例えば、図14Bに示すように、驚きの感情に対応する推定値が、基準値STA(図14A参照)を上回った期間について、驚きの状態にあると提示されても良い。このように提示することで、驚きの状態にあるか否かの2値で感情推定結果を参照することができる。また、図14Cに示すように、シーン毎に驚きの感情に対応する推定値の平均値が感情推定の結果とされても良い。このように提示することで、シーン毎にユーザUの感情を評価することができる。このとき、図14Aに示す基準値STAは、シーン毎に異なるようにしても良い。
ある感情に対応する推定値は、映画のあるシーンに対する全ユーザの平均に対する相対値であってもよい。比較対象となる平均値は、例えば、映画において一般的に特定の感情を想起しやすくなるとされる特定シーン(基準シーン)に対応して得られる値である。基準シーンは推定対象となる感情毎にそれぞれ設けられていても良い。例えば、「喜び」については、多くのユーザUが喜びの感情を抱きやすいと判断された所定のシーンを基準シーンとし、「悲しみ」については、多くのユーザUが悲しみの感情を抱きやすいと判断された所定のシーンを基準シーンとすることができる。また、ある感情に対応する推定値は、シーン毎ではなく単位時間内における平均値や単位時間内における変動値でも良い。
なお、ユーザUの姿勢、格好等によっては、センサ情報に基づく感情推定が適切に行えない場合もあり得る。例えば、カメラモジュール32AによりユーザUの顔が撮影される場合に、帽子やサングラス等によりユーザの顔が隠れている場合には、感情推定部33による感情推定を適切に行うことができない。このような場合には、感情推定ができなかったことを示すメタデータが、対応するシーンに対応付けて記憶される。あるいは、感情推定の精度を示すメタデータが記憶されていてもよい。
感情推定部33による感情推定の結果、感情情報が得られる。図15は、感情情報の例の一部を示している。感情情報は、例えば、映画(コンテンツの種別)、シーン、座席情報、所定の感情に対応する推定値が対応付けられたデータである。図15に示す具体例では、映画を特定する情報としてAA3が記述され、シーン番号1,2,3が記述され、座席情報として0035が記述され、驚きの感情に対応する推定値(例えば、82.2)が記述され、悲しみの感情に対応する推定値(例えば、20.5)が記述されている。感情推定部33は、感情情報を通信部34に供給する。通信部34は、供給された感情情報をサーバ2に供給する。
なお、時系列に得られた反応情報が、シーンとは異なるタイムスタンプに対応付けられても良い。また、時系列に得られた反応情報が、映画の時間情報ではなく、他のメタデータ(例えばチャプタや、映画制作者の制作意図情報)に対応付けられても良い。
[4.サービス情報の生成]
(4-1.映画視聴後の処理の流れ)
図16は、ユーザUが映画を視聴した後に行われる処理の流れを示すフローチャートである。ステップST21では映画の視聴が終了する。ユーザUの映画の視聴時におけるセンサ情報に基づいて感情情報が推定され、感情情報がサーバ2に送信される。感情情報を送信する際に、セキュリティを確保するためにランダムデータを重畳しても良い(差分プライバシー等と称される場合もある。)。そして、処理がステップST22に進む。
ステップST22では、サーバ2のサービス情報生成部23が感情情報に基づいてサービス情報を生成する。そして、処理がステップST23に進む。ステップST23は、生成されたサービス情報が配信される。例えば、生成されたサービス情報が予約端末1に配信される。予約端末1への配信は、例えば、予約端末1に対するサービス情報に関する案内をメールにより送信し、当該案内に記載されたネットワーク上のアドレスにユーザUがアクセスすることによりなされる。映画視聴後に、ユーザが映画館に設置された端末に予約端末1をかざすことにより予約端末1の表示部12にサービス情報が表示されるようにしても良いし、特定のアプリケーションを利用してサービス情報の配信が行われても良い。また、電子的な媒体に限定されることはなく、紙に印刷されたサービス情報がユーザUに提供されるようにしても良い。
(4-2.サービス情報生成部の動作例)
映画視聴後における処理について具体的に説明する。反応情報取得装置3からサーバ2に対して感情情報が送信され、当該感情情報がサーバ2の通信部24により受信される。感情情報が通信部24からサービス情報生成部23に供給される。
図17は、反応情報取得装置3から送信された感情情報の一例と予約情報管理部22で管理される予約情報の一例とを示している。感情情報については図15に例示したものと同様であるので、重複した説明を省略する。予約情報は、例えば、ユーザUによって予約された座席を示す座席情報と、当該座席を予約したユーザUの属性と、許諾情報と、連絡先とが対応付けられた情報である。許諾情報は、例えば、論理的な値である「1」、「0」のフラグであり、本実施形態では「1」を反応情報の利用に関する許諾が「有」とし「0」を反応情報の利用に関する許諾が「無」としている。連絡先は、例えば、予約端末1のメールアドレスであるが、他の装置のメールアドレス等でも良い。また、座席情報等に対して予約処理の際に使用されたユーザUのアカウント情報が対応付けられていても良い。
例えば、予約された座席の座席情報0035には、ユーザUの属性として「20代未満」、「男性」が対応付けられ、許諾情報として「1」が対応付けられ、所定のメールアドレスが対応付けられている。例えば、予約された座席の座席情報0036には、ユーザUの属性として「30代」、「女性」が対応付けられ、許諾情報として「0」が対応付けられ、所定のメールアドレスが対応付けられている。
サービス情報生成部23は、予約情報を参照して、感情情報の中から許諾有りに対応する座席情報を抽出する。そして、例えば同一の座席情報に対応する感情情報と、予約情報に記述されたユーザUの属性とを用いて、マーケティング情報を生成する。マーケティング情報は、例えば、どのような属性のユーザUがどのような映画のどのシーンで如何なる感情を示していたかを示す情報である。このようなマーケティング情報により、映画制作者が、どの地域や属性に対してどのような映画やシーンが受け入れられ易いか認識することができるので、マーケティング情報を次の映画の制作に反映させることができる。特に、本実施形態では、一般に公開された映画について感情情報を推定し、且つ、感情情報の利用を許諾することによりメリットが得られるようにしているので、多くの感情情報を利用できる可能性が大きく、有意なマーケティング情報を簡単に得ることができる。なお、一般に公開された映画ではなく、試写会等の限られた環境において、本実施形態のサービスを提供することでも、ユーザの映画に対する嗜好を感情情報と併せて取得できるという効果が得られる。ここでマーケティング情報には、後述するサービス情報に相当する情報を含めることもできる。
(4-3.サービス情報の具体例)
本実施形態では、感情情報の利用を許諾することによりメリットとしてユーザに対してサービス情報を提供するようにしている。サービス情報生成部23は、予約情報を参照して、感情情報の中から許諾有りに対応する座席情報を抽出し、当該座席情報に対応する感情情報を利用してサービス情報を生成する。サービス情報は、例えば、反応情報に基づくユーザUの特性である。サービス情報の具体的な例について図18A~図18Cを参照して説明する。
図18Aに示すサービス情報は、映画の時系列に対して、感情A、感情B及び感情Cの変化、より具体的には各感情の推定値の変化を示すグラフを対応付けたものである。なお、感情A~感情Cは、喜び、驚き等、何でも良い。映画の時系列は、時間情報によって示しても良いが、ユーザUにとってわかりやすくするため、本例では、代表的なシーン(シーン1~4)をサムネイル画像(縮小画像)IM1~IM4により表示している。なお、グラフは、線の変化でなく色の強弱の変化で示すヒートマップ表示等と称されるものでも良い。また、グラフは図14Bまたは図14Cのように、ある基準値を超えた場合に所定の感情が抱かれたと提示したり、シーン毎に提示したりしても良い。このような提示を行うことで、ユーザUは映画の時系列やシーンに結び付けて、自身の感情の変化を振り返ることができる。
図18Bに例示するサービス情報は図18Aに示すサービス情報と略同様のものであるが、感情の変化を示すグラフでなく、感情に対応するアイコン(例えば、顔の表情を示すアイコン)を用いている。
サービス情報は、感情が高揚したシーンをランキング形式で表示したものであっても良い。例えば、図18Cに例示するように、驚きの感情に対応する推定値が高かった上位3個のシーンと、楽しさの感情に対応する推定値が高かった上位3個のシーンとがサービス情報として提示される。各シーンは、サムネイル画像IM5~IM10によってそれぞれ示される。
図18に示した例は、あるユーザUに関する感情情報のみに基づく絶対的な特性であったが、提示情報は、他のユーザUの感情情報における自身の感情情報の位置付けのように相対的な特性であっても良い。例えば、図19に例示すような感情マップであっても良い。図19の感情マップでは、一例として6個の感情(怒り、驚き、悲しみ、興奮、不快、楽しい)が規定されており、当該感情マップに、映画の視聴時にユーザUが感じた各感情の程度がグラフ61によりマッピングされている。また、感情マップには、他のユーザUが感じた各感情の程度の平均がグラフ62によりマッピングされている。この感情マップを見ることで、あるユーザUは、他のユーザUの映画に対する感じ方の違いを認識することができる。比較対象のデータは、ユーザUと同じ属性を有するユーザの感情情報でも良いし、全体の感情情報であっても良く、その両方であっても良い。また、サービス情報は、感情マップに限定されることなく、ユーザUが顕著に反応したシーンと他のユーザUが顕著に反応したシーンとを対比的に示したものでも良い。なお、図18や図19に例示したサービス情報が併せて表示されても良い。なお、こうした他のユーザとの比較は、図18A乃至Cの提示方法において行われても良い。
図18及び図19に示すサービス情報に付加的な情報が含まれても良い。このような付加的な情報としては、感情情報に基づくおすすめの映画の提示が挙げられる。ここでおすすめの映画は、映画と感情情報とを対照し、そのような感情を抱くユーザが好むと推定されるカテゴリから選択することができる。例えば、映画の視聴中に怒りを多く感じたユーザUについて、同様の感情を抱くユーザがアクション映画を好む傾向にある場合には、ユーザUに対してもアクション映画をおすすめの映画として提示する。同様に、悲しみを多く感じたユーザUには恋愛映画をおすすめ映画として提示することができる。付加的な情報は、性格診断の結果として提示されても良い。例えば、悲しみを多く感じたユーザUに対しては「情に厚い」との性格診断結果が、付加的な情報として提示されても良い。また、感情の変化があまり無いユーザUに対しては「冷静である」との性格診断結果が、付加的な情報として提示されても良い。
サービス情報に対するフィードバックが可能とされても良い。例えば、図20Aに示すように、感情情報に基づいてユーザUが最も驚いたシーンに対応するサムネイル画像IM11がサービス情報として表示部12に表示される。表示されたシーンが、本当にユーザUが最も驚いたシーンであるかを選択する表示71がサムネイル画像IM11に近接する箇所に表示される。ユーザUは、サービス情報により示される結果が自身の主観的認知と合っているか否を例えば予約端末1を用いて選択する。選択結果がフィードバック情報として予約端末1からサーバ2に対して送信される。なお、この選択はユーザUに強制されるものではなく選択されなくても良い。サーバ2に対して送信されたフィードバック情報は、対応する感情情報に対応付けられる。フィードバック情報が得られた場合には、感情情報がフィードバック情報により補正されるようにしても良い。また、フィードバック情報は、対応するユーザUや、当該ユーザUと同じ属性を有するユーザUの感情情報を予測するための学習モデルの改善などの処理に活用されても良い。
上述したように、あるユーザUが有する1個のアカウントで、例えば2座席が予約された場合には、恋人同士や夫婦で映画を視聴する可能性が高い。このような場合には、2座席のそれぞれを利用するユーザUに関連する情報をサービス情報として提示しても良い。図20A及び図20Bは、そのようなサービス情報の一例を示している。例えば、2座席のそれぞれについて感情情報が推定され、各座席におけるユーザUの感情の傾向が同じ若しくは近似したシーンが共感したシーンとしてサムネイル画像IM12~IM14により表示される。また、各ユーザUが別々に反応した(ある感情を強く抱いた)シーンがサムネイル画像IM15及びIM16によりそれぞれ示される。さらに、相性の良さに関する表示72が表示される。例えば、共感したシーンの数が多いほど相性の良さの高くなる確率(%)が表示される。
なお、2人のユーザUは恋人や夫婦ではなく、友人や親子の場合もあり得る。そこで、グループの関係性(夫婦、恋人、友人、親子等)を併せて表示して、実際に該当する関係性をユーザが選択できるようにしても良い。選択結果に応じて異なるアルゴリズムにより相性の診断が行われても良い。この他にも、お互いのユーザUが共感できると考えられる映画や、お互いを理解するために好ましいと考えられる映画を感情情報に基づいて抽出し、その結果をサービス情報として提示しても良い。
予約処理時に、映画に関する事前の予想クイズが行われた場合には、それに対する回答がサービス情報として提示されても良い。
以上説明したように、ユーザUは、感情情報の利用を許諾することによりサービス情報の提示を受けることができる。サービス情報の提供を受けることによりユーザUは映画の視聴時における自己の感情の変化を振り返ることが可能となる。また、ユーザUは、映画に対する自身が抱いた感情の特徴や、相手との相性等、サービス情報に応じた様々な情報を得ることができる。このように、取得する感情情報について、これらに代表されるサービス情報としてユーザに提供することで、ユーザに対して感情情報の利用を許諾することの動機付けを与えることができ、より多くのユーザに対して、感情情報の利用の許諾を促すことができる。もちろん、ユーザはサービス情報を欲しない場合には、予約処理において感情情報の利用を許諾しなければ良い。
[5.反応情報の利用の許諾がない場合の処理]
ここで、反応情報の利用の許諾がない場合に行われる処理について説明する。反応情報の利用の許諾がない場合には、対応するデータは破棄される。例えば、サーバ2のサービス情報生成部23は、予約情報を参照して許諾情報が「0」に対応する座席情報を読み出し、当該座席情報に対応する感情情報のデータを破棄する(消去する)。また、サーバ2は、許諾情報「1」が紐付けられた座席情報に対応する感情情報のデータのみを利用するようにしても良い。また、サーバ2は、許諾された情報のみを使用するようにしても良い。
予約情報がサーバ2から反応情報取得装置3に供給されても良い。そして、感情推定部33が、予約情報を参照し、許諾情報が「1」の座席情報に対応して設けられたセンサ部32から供給されるセンサ情報のみに対して感情推定を行いその結果を出力しても良い。また、予約情報がセンサ部32に供給されても良い。そして、センサ部32が、自身が設けられた座席に対応する許諾情報が「1」の場合のみに、センサ情報を感情推定部33に出力するようにしても良い。反応情報取得装置3において許諾情報の内容を判断することにより、センサ部32や感情推定部33における処理の負荷を低減することができる。
なお、反応情報をユーザの属性とは結び付けずに、他のデータに混ぜて保存する、換言すれば、個人情報としてはわからない形で(無意味化して)保存しても良い(個人情報非連結化)。あるいは、得られた情報について統計化処理することでも、個人情報とは結びつかない形でのデータ利用を行うことができる。このように、許諾しなかったユーザに関する反応情報を必ずしも破棄する必要はない。このとき、反応情報の利用を許諾したユーザに関しては属性情報と連結しての情報利用を行い、許諾をしなかったユーザに関しては上述のように個人情報とは紐づかない形での情報利用を行うなど、許諾したユーザと許諾しなかったユーザとの反応情報との間の取り扱いに差を設けてもよい。
<2.変形例>
以上、本開示の一実施形態について具体的に説明したが、本開示の内容は上述した一実施形態に限定されるものではなく、本開示の技術的思想に基づく各種の変形が可能である。
上述した一実施形態では、提示情報の一例として映画を例にしたが、これに限定されるものではない。例えば、提示情報は、演劇、寄席、ライブパフォーマンス、スポーツ観戦、映画の本編再生前の宣伝、美術品の展示会等でも良い。特に、美術品の展示会等に対しても本技術を提供することができ、美術家は、鑑賞者がどの作品にどのような感情を抱いたのかを知ることができる。この場合、例えば、鑑賞チケットの購入時に許諾情報の入力がなされる。
また、本開示は、映画等のコンテンツ提示型イベントではなく、参加型イベントに対しても適用することができる。参加型イベントしては、競馬、競輪の観戦やテーマパークのアトラクションを挙げることができる。例えば、観客の反応情報に基づいて、図21に示すようなスタジアムにおける反応情報の分布を作成する。例えば、ハッチング81が付された箇所の観客は気分が高揚し、反対にハッチング82が付された箇所の観客の気分は落ち着いたことが示される。このように、応援チームや応援する対象(競馬なら馬)、観客の属性毎に反応情報が可視化される。これにより、例えば、年齢が10代の観客は盛り上がっているが30代の観客は冷静でいる状態を可視化することができる。反応情報を使用して、これまでの観客の興奮の時間的変化や、客席における反応情報のヒートマップが作成されても良い。可視化された反応情報は、スタジアムにおけるスクリーンに表示されたり、反応情報の利用を許諾したユーザが有する携帯端末にリアルタイムに配信されたりする。これにより、ユーザUは、スタジアムやテーマパークにおける盛り上がり状況を認識することができる。
上述した一実施形態における情報処理システム100における各機能は、任意の装置が担うことができる。例えば、サーバ2が感情推定部33を有するようにし、サーバ2において感情情報が推定されるようにしても良い。この場合、センサ情報のみが反応情報取得装置3からサーバ2に送信される。通信における帯域を低減するために、センサ情報のうち特徴的なデータ(例えば、顔認識における特徴点等)のみが送信されるようにしても良い。
また、サービス情報生成部23を反応情報取得装置3が有する構成でも良い。そして反応情報取得装置3がサービス情報を生成し、生成したサービス情報を予約端末1に送信しても良い。さらに、サーバ2の全ての機能を反応情報取得装置3が有する構成でも良く、情報処理システム100が予約端末1及び反応情報取得装置3からなる構成でも良い。このように構成を適宜変更することにより、反応情報取得装置3が情報処理装置として機能する場合もあり得る。
BD(Blu-ray Disc)(登録商標)、DVD(Digital Versatile Disc)等を再生する再生機器には、本編を短縮して再生するダイジェスト再生と称される機能を有するものがある。ディスク制作者は、利用が許諾された反応情報を使用してダイジェスト再生する箇所や本編における区切り(チャプタ)を決定してディスクを制作しても良い。例えば、多くのユーザが驚いた箇所、興奮した箇所、感動した箇所を中心にダイジェスト再生が行われるようにディスクが作成されても良い。反応情報の利用を許諾したユーザが、自身の反応情報を反映させたディスクを作成できるようにしても良い。ディスクに限らず、ネットワークを経由して配信されるコンテンツの再生において反応情報が反映されても良い。
上述した一実施形態におけるカメラモジュール32Aは、映画館に備え付けられるものでなく、ユーザUが有するスマートフォン、携帯電話、タブレットコンピュータ等の撮像装置でも良い。このような撮像装置を、例えば前方の席に設けられた支持器具に装着することによりユーザUの撮影が行われるようにしても良い。撮像装置により撮影された画像が通信により感情推定部33に供給される。なお、そのような支持器具に撮像装置が装着されたことをもって、反応情報の利用が許諾されたものと判断されても良い。
感情推定部33は、驚きや感動等の特定の感情をターゲットとし、ターゲットである感情の有無を判定しても良い。映画のシーン毎にターゲットとする感情を変更しても良いし、提示情報の内容に応じてターゲットとする感情を変更しても良い。
サービス情報が表示に代えて、若しくは、表示と共に音声により提示されても良い。
本開示は、複数の装置からなるシステム、当該システムを構成する装置として実現することも可能である他、方法、プログラム等により実現することもできる。
本開示は、以下の構成も採ることができる。
(1)
提示情報に対するユーザの反応を示す反応情報を、当該反応情報の利用が許諾されている場合に利用する反応情報利用部を有する
情報処理装置。
(2)
前記反応情報を取得する反応情報取得部を有する(1)に記載の情報処理装置。
(3)
前記反応情報取得部は、センサ部と、前記センサ部から出力されるセンサ情報に基づいて、前記反応情報を推定する反応情報推定部とを有する(2)に記載の情報処理装置。
(4)
前記センサ部は、所定範囲に存在するユーザを監視し、当該ユーザが前記反応情報の利用を許諾している場合に、当該ユーザに関する前記センサ情報を前記反応情報推定部に出力する(3)に記載の情報処理装置。
(5)
前記反応情報推定部は、所定範囲に存在する全ユーザのセンサ情報を使用してユーザ毎の前記反応情報を推定し、前記許諾したユーザの前記反応情報のみを出力する(3)又は(4)に記載の情報処理装置。
(6)
前記反応情報利用部は、前記反応情報の利用を許諾したユーザに対してのみ提示されるサービス情報を生成する(1)から(5)までの何れかに記載の情報処理装置。
(7)
前記サービス情報は、前記ユーザの反応情報に基づく特性である(6)に記載の情報処理装置。
(8)
前記サービス情報は、前記ユーザの反応情報に基づく特性及び他のユーザの反応情報に対する相対的な特性の少なくとも一方である(6)に記載の情報処理装置。
(9)
前記許諾の有無を示す許諾情報が、前記ユーザが予約した座席情報に対応付けられている(1)から(8)までの何れかに記載の情報処理装置。
(10)
所定のユーザに対応する前記座席情報が複数存在し、且つ、前記許諾情報が許諾有りを示す場合には、前記反応情報利用部は、前記座席情報に位置する複数のユーザの前記反応情報を利用して、当該ユーザ間に関連する情報を生成する(9)に記載の情報処理装置。
(11)
前記反応情報は、前記ユーザの感情に対応する情報である(1)から(10)までの何れかに記載の情報処理装置。
(12)
前記提示情報は、前記ユーザが視聴するコンテンツ、前記ユーザが観戦するスポーツ及び前記ユーザが鑑賞する芸術の何れかである(1)から(11)までの何れかに記載の情報処理装置。
(13)
反応情報利用部が、提示情報に対するユーザの反応を示す反応情報を、当該反応情報の利用が許諾されている場合に利用する
情報処理方法。
(14)
提示情報に対するユーザの反応を示す反応情報を取得する反応情報取得部と、
前記反応情報の利用が許諾されている場合に前記反応情報を利用する反応情報利用部を有する
情報処理システム。
(15)
前記反応情報取得部は、センサ部と、前記センサ部から出力されるセンサ情報に基づいて、反応情報を推定する反応情報推定部とを有する(14)に記載の情報処理システム。
(16)
座席情報により示される座席を予約するための一連の予約処理において、所定の提示情報を鑑賞する際の座席情報と、前記提示情報を鑑賞する際のユーザの反応を示す反応情報の利用を許諾するか否かの入力画面と、前記許諾を促すための情報とを表示部に表示する制御を行う表示制御部を有する
表示装置。
(17)
(16)に記載の表示装置と、前記表示装置に接続される情報処理装置とを有し、
前記情報処理装置は、前記表示装置から出力される前記許諾の有無を示す許諾情報と、予約された前記座席情報とを対応付けて管理する予約情報管理部を有する
予約システム。
1・・・予約端末、2・・・サーバ、3・・・反応情報取得装置、11・・・予約端末制御部、12・・・通信部、22・・・予約情報管理部、23・・・サービス情報生成部、32・・・センサ部、33・・・感情推定部

Claims (12)

  1. 提示情報に対するユーザの反応を示す反応情報を取得する反応情報取得部と、
    前記反応情報の利用が許諾されている場合に、当該反応情報に基づく二次情報を生成する反応情報利用部と、
    を有し、
    前記反応情報取得部は、センサ部から出力されるセンサ情報に基づき前記反応情報を推定する反応情報推定部を有する
    情報処理装置。
  2. 前記センサ部は、所定範囲に存在するユーザを監視し、当該ユーザが前記反応情報の利用を許諾している場合に、当該ユーザに関する前記センサ情報を前記反応情報推定部に出力する請求項に記載の情報処理装置。
  3. 前記反応情報推定部は、所定範囲に存在する全ユーザのセンサ情報を使用してユーザ毎の前記反応情報を推定し、前記許諾したユーザの前記反応情報のみを出力する請求項に記載の情報処理装置。
  4. 前記反応情報利用部は、前記二次情報として、前記反応情報の利用を許諾したユーザに対してのみ提示されるサービス情報を生成する請求項1に記載の情報処理装置。
  5. 前記サービス情報は、前記ユーザの反応情報に基づく特性である請求項に記載の情報処理装置。
  6. 前記サービス情報は、前記ユーザの反応情報に基づく特性及び他のユーザの反応情報に対する相対的な特性の少なくとも一方である請求項に記載の情報処理装置。
  7. 前記許諾の有無を示す許諾情報が、前記ユーザが予約した座席情報に対応付けられている請求項1に記載の情報処理装置。
  8. 所定のユーザに対応する前記座席情報が複数存在し、且つ、前記許諾情報が許諾有りを示す場合には、前記反応情報利用部は、前記座席情報に位置する複数のユーザの前記反応情報を利用して、当該ユーザ間に関連する情報を生成する請求項に記載の情報処理装置。
  9. 前記反応情報は、前記ユーザの感情に対応する情報である請求項1に記載の情報処理装置。
  10. 前記提示情報は、前記ユーザが視聴するコンテンツ、前記ユーザが観戦するスポーツ及び前記ユーザが鑑賞する芸術の何れかである請求項1に記載の情報処理装置。
  11. 反応情報取得部が、提示情報に対するユーザの反応を示す反応情報を取得し、
    反応情報利用部が、前記反応情報の利用が許諾されている場合に、当該反応情報に基づく二次情報を生成し、
    反応情報推定部が、センサ部から出力されるセンサ情報に基づき前記反応情報を推定する
    情報処理方法。
  12. 提示情報に対するユーザの反応を示す反応情報を取得する反応情報取得部と、
    前記反応情報の利用が許諾されている場合に、当該反応情報に基づく二次情報を生成する反応情報利用部と、
    を有し、
    前記反応情報取得部は、センサ部から出力されるセンサ情報に基づき前記反応情報を推定する反応情報推定部を有する
    情報処理システム。
JP2019547920A 2017-10-13 2018-07-30 情報処理装置、情報処理方法及び情報処理システム Active JP7234930B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017199063 2017-10-13
JP2017199063 2017-10-13
PCT/JP2018/028439 WO2019073661A1 (ja) 2017-10-13 2018-07-30 情報処理装置、情報処理方法、情報処理システム、表示装置及び予約システム

Publications (2)

Publication Number Publication Date
JPWO2019073661A1 JPWO2019073661A1 (ja) 2020-11-05
JP7234930B2 true JP7234930B2 (ja) 2023-03-08

Family

ID=66101332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019547920A Active JP7234930B2 (ja) 2017-10-13 2018-07-30 情報処理装置、情報処理方法及び情報処理システム

Country Status (4)

Country Link
US (1) US20210158228A1 (ja)
JP (1) JP7234930B2 (ja)
CN (1) CN110959166B (ja)
WO (1) WO2019073661A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11023729B1 (en) * 2019-11-08 2021-06-01 Msg Entertainment Group, Llc Providing visual guidance for presenting visual content in a venue
JP7395429B2 (ja) * 2020-06-16 2023-12-11 住友電気工業株式会社 感情解析装置、感情解析システム、感情解析方法、及びコンピュータプログラム
JPWO2022208723A1 (ja) * 2021-03-31 2022-10-06
WO2023053278A1 (ja) * 2021-09-29 2023-04-06 住友電気工業株式会社 提供システム、提供方法、及びコンピュータプログラム
WO2023203961A1 (ja) * 2022-04-18 2023-10-26 パナソニックIpマネジメント株式会社 心理状態表示システム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008027301A (ja) 2006-07-24 2008-02-07 Nec System Technologies Ltd 座席予約システム、座席予約装置、座席予約方法、及びプログラム
WO2014192457A1 (ja) 2013-05-30 2014-12-04 ソニー株式会社 クライアント装置、制御方法、システム、およびプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8825482B2 (en) * 2005-09-15 2014-09-02 Sony Computer Entertainment Inc. Audio, video, simulation, and user interface paradigms
US20070066916A1 (en) * 2005-09-16 2007-03-22 Imotions Emotion Technology Aps System and method for determining human emotion by analyzing eye properties
US7889073B2 (en) * 2008-01-31 2011-02-15 Sony Computer Entertainment America Llc Laugh detector and system and method for tracking an emotional response to a media presentation
JP2010225082A (ja) * 2009-03-25 2010-10-07 Noritsu Koki Co Ltd 画像データ管理システムおよび画像データ管理方法
JP2013020365A (ja) * 2011-07-08 2013-01-31 Namco Bandai Games Inc ゲームシステム、プログラム、及び情報記憶媒体
KR101819791B1 (ko) * 2012-03-08 2018-01-17 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 모바일 디바이스와 연관된 경험의 품질 측정
JP2013223038A (ja) * 2012-04-13 2013-10-28 Olympus Imaging Corp 撮像装置及び撮像のための照明方法
US9721010B2 (en) * 2012-12-13 2017-08-01 Microsoft Technology Licensing, Llc Content reaction annotations
JP2014130467A (ja) * 2012-12-28 2014-07-10 Sony Corp 情報処理装置、情報処理方法及びコンピュータプログラム
JP2014134922A (ja) * 2013-01-09 2014-07-24 Sony Corp 情報処理装置、情報処理方法およびプログラム
KR20150126196A (ko) * 2014-05-02 2015-11-11 삼성전자주식회사 사용자 감성 활동 기반 데이터 처리 장치 및 방법
CN105787574A (zh) * 2014-12-26 2016-07-20 阿里巴巴集团控股有限公司 提供座位信息的方法及装置
CN107995477A (zh) * 2016-10-26 2018-05-04 中联盛世文化(北京)有限公司 图像展示方法、客户端及系统、图像发送方法及服务器
US11291796B2 (en) * 2016-12-29 2022-04-05 Huawei Technologies Co., Ltd Method and apparatus for adjusting user emotion
US10348658B2 (en) * 2017-06-15 2019-07-09 Google Llc Suggested items for use with embedded applications in chat conversations

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008027301A (ja) 2006-07-24 2008-02-07 Nec System Technologies Ltd 座席予約システム、座席予約装置、座席予約方法、及びプログラム
WO2014192457A1 (ja) 2013-05-30 2014-12-04 ソニー株式会社 クライアント装置、制御方法、システム、およびプログラム

Also Published As

Publication number Publication date
WO2019073661A1 (ja) 2019-04-18
CN110959166A (zh) 2020-04-03
US20210158228A1 (en) 2021-05-27
CN110959166B (zh) 2024-04-30
JPWO2019073661A1 (ja) 2020-11-05

Similar Documents

Publication Publication Date Title
JP7234930B2 (ja) 情報処理装置、情報処理方法及び情報処理システム
CN105339969B (zh) 链接的广告
JP6752819B2 (ja) 感情検出システム
Carah et al. Algorithmic hotness: Young women’s “promotion” and “reconnaissance” work via social media body images
TWI581128B (zh) 基於媒體反應來控制媒體節目的方法、系統及電腦可讀取儲存記憶體
JP7440020B2 (ja) 情報処理方法、端末装置、情報処理装置、及び情報処理システム
US8873851B2 (en) System for presenting high-interest-level images
US20170315699A1 (en) Novel system for capture, transmission, and analysis of emotions, perceptions, and sentiments with real-time responses
US9014509B2 (en) Modifying digital images to increase interest level
US20130151333A1 (en) Affect based evaluation of advertisement effectiveness
TW201301177A (zh) 經由觀眾回饋的廣告選擇
KR20140045412A (ko) 환경 센싱에 기초한 비디오 하이라이트 식별 기법
US20140003648A1 (en) Determining an interest level for an image
US20140002644A1 (en) System for modifying images to increase interestingness
US20120083675A1 (en) Measuring affective data for web-enabled applications
KR20180132063A (ko) 개인의 생활 스토리 시뮬레이션 시스템
JP2014511620A (ja) 感情に基づく映像推薦
US10755487B1 (en) Techniques for using perception profiles with augmented reality systems
CN103621104A (zh) 基于兴趣的视频流
JP7155248B2 (ja) 記憶の協調的回想の適応提示のためのキュー・データ・モデルの実装
US20130102854A1 (en) Mental state evaluation learning for advertising
US20130218663A1 (en) Affect based political advertisement analysis
JP7343660B2 (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
Vermeulen et al. Heartefacts: augmenting mobile video sharing using wrist-worn heart rate sensors
JP7260505B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム及び端末装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230206

R151 Written notification of patent or utility model registration

Ref document number: 7234930

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151