JP6589880B2 - 情報処理システム、制御方法、および記憶媒体 - Google Patents

情報処理システム、制御方法、および記憶媒体 Download PDF

Info

Publication number
JP6589880B2
JP6589880B2 JP2016557472A JP2016557472A JP6589880B2 JP 6589880 B2 JP6589880 B2 JP 6589880B2 JP 2016557472 A JP2016557472 A JP 2016557472A JP 2016557472 A JP2016557472 A JP 2016557472A JP 6589880 B2 JP6589880 B2 JP 6589880B2
Authority
JP
Japan
Prior art keywords
information
reproduction
unit
reproduction information
content data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016557472A
Other languages
English (en)
Other versions
JPWO2016072120A1 (ja
Inventor
宮島 靖
靖 宮島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2016072120A1 publication Critical patent/JPWO2016072120A1/ja
Application granted granted Critical
Publication of JP6589880B2 publication Critical patent/JP6589880B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2353Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63JDEVICES FOR THEATRES, CIRCUSES, OR THE LIKE; CONJURING APPLIANCES OR THE LIKE
    • A63J25/00Equipment specially adapted for cinemas

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Computer Security & Cryptography (AREA)
  • Library & Information Science (AREA)
  • Business, Economics & Management (AREA)
  • Environmental Sciences (AREA)
  • Remote Sensing (AREA)
  • Environmental & Geological Engineering (AREA)
  • Emergency Management (AREA)
  • Ecology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本開示は、情報処理システム、制御方法、および記憶媒体に関する。
従来の動画は映像と音声のみを記録し、記録した映像および音声を再生することで鑑賞者に視聴覚的な刺激を与えていた。また、近年は、視聴覚以外の刺激を提示することで、鑑賞者に高臨場感での画像鑑賞を可能とするシステムが提案されている。
例えば、下記特許文献1では、ユーザ端末を把持して画像を参照する際に、画面上の動きと合った振動情報を与える情報提供装置が開示されている。また、下記特許文献2〜4では、車や船、馬に乗っている感じや、歩行している感じを疑似体験させるために、画像データの解析により動きベクトルを検出し、台座を駆動する駆動装置に出力する情報処理装置が開示されている。
特開2006−270711号公報 特開2002−44623号公報 特開2002−35437号公報 特開2000−214755号公報
しかしながら、上記特許文献2〜4に開示されている技術では、動画から得られた振動をそのまま再現するための専用の椅子が必要であり、ウェアラブル端末やモバイルデバイスに振動情報を送っても動画から得た振動を再現することはできなかった。
また、より高度な臨場感の再現には、振動以外にも視聴空間全体の照明や、温度、被写体の肌触り、被写体の重さ、被写体と撮影者との関係など様々な要素が影響するが、これらの要素を再現することについては、上記特許文献1〜4では考慮されていなかった。
また、動画から得られた振動等の生データをそのまま再現するためには、専用のデバイスを再生側で備えることが必要であるが、専用のデバイスを備えることは困難であった。
そこで、本開示では、抽象化した臨場感再現情報を生成することで、再生側のデバイスの特性に合わせた再現を行うことが可能な情報処理システム、制御方法、および記憶媒体を提案する。
本開示によれば、コンテンツデータから抽出された特徴に応じて、抽象化された臨場感再現情報を生成する生成部と、前記生成部により生成された臨場感再現情報を、前記コンテンツデータに関連付けて記憶するよう制御する記憶制御部と、を備える情報処理システムを提案する。
本開示によれば、コンテンツデータに基づいて生成された臨場感再現情報を取得する取得部と、前記臨場感再現情報が表すコンテキストを再現するための効果を特定する効果特定部と、前記特定された効果を付与して前記コンテンツデータを再生する再生制御部と、を備える情報処理システムを提案する。
本開示によれば、コンテンツデータから抽出された特徴に応じて、抽象化された臨場感再現情報を生成する生成部と、前記臨場感再現情報が表すコンテキストを再現するための効果を特定する効果特定部と、前記特定された効果を付与して前記コンテンツデータを再生する再生制御部と、を備える情報処理システムを提案する。
本開示によれば、コンテンツデータから抽出された特徴に応じて、抽象化された臨場感再現情報を生成することと、前記生成された臨場感再現情報を、前記コンテンツデータに関連付けて記憶するよう制御することと、を含む制御方法を提案する。
本開示によれば、コンピュータを、コンテンツデータに基づいて生成された臨場感再現情報を取得する取得部と、前記臨場感再現情報が表すコンテキストを再現するための効果を特定する効果特定部と、前記特定された効果を付与して前記コンテンツデータを再生する再生制御部と、として機能させるためのプログラムが記憶された、記憶媒体を提案する。
以上説明したように本開示によれば、抽象化した臨場感再現情報を生成することで、再生側のデバイスの特性に合わせた再現を行うことが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態による臨場感再現システムの概要を説明する図である。 本実施形態による再現情報生成装置の構成の一例を示すブロック図である。 本実施形態による臨場感再現情報の生成について説明する図である。 図3に示す対象動画から生成される臨場感再現情報のデータ構造の一例を示す図である。 本実施形態による臨場感再現情報の他の例を示す図である。 本実施形態による感性サーバの構成の一例を示すブロック図である。 本実施形態による再生制御装置の構成の一例を示すブロック図である。 本実施形態による屋内用の再生デバイスの一例を説明する図である。 本実施形態によるウェアラブルタイプの再生デバイスの一例を説明する図である。 本実施形態による臨場感再現のための画像エフェクトの一例を示す図である。 本実施形態による臨場感再現のための画像エフェクトの一例を示す図である。 本実施形態による臨場感再現情報生成処理を示すフローチャートである。 本実施形態による感性値取得処理を示すフローチャートである。 本実施形態による被写体認識について説明する図である。 本実施形態によるインタラクション評価のデータ例を示す図である。 図15に示すインタラクション評価のデータ例から感性値算出に用いるデータを抜き出したデータ例を示す図である。 本実施形態による再生処理を示すフローチャートである。 本実施形態による感性値を利用した再生処理を示すフローチャートである。 本実施形態による感性値に応じて各被写体に対応するよう配置される画像エフェクトの一例を示す図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による臨場感再現システムの概要
2.基本構成
2−1.再現情報生成装置
2−2.感性サーバ
2−3.再生制御装置
3.動作処理
3−1.再現情報生成処理
3−2.再生処理
4.まとめ
<<1.本開示の一実施形態による臨場感再現システムの概要>>
まず、本開示の一実施形態による臨場感再現システム1の概要を図1に示して説明する。図1に示すように、本実施形態による臨場感再現システム1は、取得したコンテンツデータから臨場感再現情報を生成する再現情報生成装置3と、臨場感再現情報に基づいてコンテンツデータを再生する際に鑑賞者(ユーザ)にコンテンツデータ生成時の臨場感を再現する再生制御装置35とを有する。再現情報生成装置3と再生制御装置35はネットワークを介して接続され得る。
再現情報生成装置3は、例えば動画等のコンテンツデータを解析して抽出された特徴量に応じて、コンテンツデータ生成時のコンテキスト(具体的には振動、気候、ロケーション・状態、照明、場の雰囲気等)を推定し、推定したコンテキストを再現するための抽象化された臨場感再現情報を生成する。また、本実施形態による再現情報生成装置3は、コンテンツデータ生成者(例えば撮影者)の被写体に対する気持ちや関係性を示す所定の指標を用いて、被写体への気持ちを表す新たな演出を加えるための臨場感再現情報を生成することも可能である。所定の指標とは、対象人物が他の人物や物に対して行ったインタラクション(行為)の評価履歴に基づいて算出される感性値である。再現情報生成装置3は、被写体や撮影者のオブジェクトIDに基づいて、感性サーバ2から両者間で行われたインタラクションの評価を取得し、感性値を算出する。
ここで、抽象化された臨場感再現情報とは、画像から取得した振動等の生データに基づいて生成されるものであって、例えば振動等のパターンから「大型船に乗っている」「小型ボートに乗っている」「車に乗っている」「自転車に乗っている」といった乗り物の種類を示す情報が、抽象化された臨場感再現情報として生成される。
再生制御装置35は、コンテンツデータに紐付けられた臨場感再現情報に基づいて、コンテンツデータを再生する際に、コンテンツデータ生成時の振動、気候、ロケーション、行動、照明、場の雰囲気等を再現することで、ユーザに臨場感を与える。コンテンツデータに紐付けられている臨場感再現情報は、上述したように抽象化されたものであるため、再生制御装置35は、利用可能なデバイスの特性に応じた再現処理を行うことができる。例えば臨場感再現情報が乗り物の種類を示す情報である場合、再生制御装置35は、振動を発生させる振動装置により対象の乗り物に乗っているかのような振動をユーザに与えてもよいし、風を発生させる風出力装置により対象の乗り物に乗っている際に受ける風をユーザに与えてもよい。また、振動装置の制御では、動画から得られた振動等の生データをそのまま再現することなく、当該振動装置により可能な振動制御において対象の乗り物に乗っているかのような振動をユーザに与えられればよい。これにより、従来は動画から得られた振動等の生データをそのまま再現するために専用のデバイスを再現側で備えることが必要であったが、本実施形態では専用のデバイスがなくとも、抽象化された臨場感再現情報に従って再現側が備えるデバイスの特性に応じて臨場感を再現することができる。
以上、本開示の一実施形態による臨場感再現システムの概要について説明した。本実施形態では、動画等のコンテンツデータに基づいて、抽象度の高い臨場感再現情報を生成することで、再生側のデバイスの特性に合わせた再現を行うことができる。続いて、本実施形態の臨場感再現システム1に含まれる各装置の基本構成について説明する。
<<2.基本構成>>
<2−1.再現情報生成装置>
図2は、本実施形態による再現情報生成装置3の構成の一例を示すブロック図である。図2に示すように、再現情報生成装置3は、制御部30、通信部31、コンテンツ記憶部32、および臨場感再現情報記憶部33を有する。
(制御部)
制御部30は、再現情報生成装置3の各構成を制御する。制御部30は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、および不揮発性メモリを備えたマイクロコンピュータにより実現される。具体的には、制御部30は、図2に示すように、コンテンツ解析部30a、コンテンツ付加情報抽出部30b、天候・場所詳細情報検索部30c、被写体認識部30d、感性値取得部30e、臨場感再現情報生成部30f、および記憶制御部gとしても機能する。
コンテンツ解析部30aは、動画等のコンテンツデータに対して画像解析や音声解析を行う。コンテンツデータは、コンテンツ記憶部32に記憶されていてもよいし、通信部31を介して受信してもよい。コンテンツ解析部30aは、画像特徴量抽出部301と、振動特徴量抽出部302と、音声特徴量抽出部303を有する。
画像特徴量抽出部301は、画像解析に基づいて画像特徴量を抽出する機能を有する。振動特徴量抽出部302は、画像解析に基づいて振動特徴量を抽出する機能を有する。また、音声特徴量抽出部303は、音声解析に基づいて音声特徴量を抽出する機能を有する。これらの特徴量は、動画のフレーム毎に抽出してもよいし、所定フレーム数毎に抽出してもよい。コンテンツ解析部30aは、解析結果に基づいて各抽出部により抽出した特徴量を、被写体認識部30d、および臨場感再現情報生成部30fに出力する。
コンテンツ付加情報抽出部30bは、コンテンツデータから付加情報を抽出する。付加情報とは、当該コンテンツデータの生成時(動画の場合は撮影時)に記憶された情報であって、例えばコンテンツデータの日付情報(動画の場合は撮影日)、時刻情報、位置情報(緯度経度、高度)、その他コンテンツデータ生成時に取得されたセンサ情報等が挙げられる。付加情報は、コンテンツデータにメタデータとして埋め込まれていることを想定する。コンテンツ付加情報抽出部30bは、抽出した付加情報を、天候・場所詳細情報検索部30c、および臨場感再現情報生成部30fに出力する。
天候・場所詳細情報検索部30cは、コンテンツ付加情報抽出部30bにより抽出されたコンテンツデータの日時、場所に基づいて、コンテンツ生成場所の天候詳細情報や場所詳細情報を検索する。天候詳細情報としては、天候、温度、湿度、風向き、風力、雨量、等が挙げられる。場所詳細情報としては、駅名、施設名、地名、建物種類等が挙げられる。天候・場所詳細情報検索部30cは、このような天候・場所の詳細情報を、ネットワーク上の検索サーバ(逆ジオコーディングシステムや、イベントカレンダーサーバ等)にアクセスして検索する。また、天候・場所詳細情報検索部30cは、検索した天候・場所詳細情報を、臨場感再現情報生成部30fに出力する。
被写体認識部30dは、コンテンツ解析部30aの画像特徴量抽出部301により抽出された画像特徴量、または音声特徴量抽出部303により抽出された音声特徴量に基づいて、コンテンツデータの被写体を認識する。例えば、被写体認識部30dは、コンテンツデータが動画である場合、フレームの画像特徴量に基づいて、フレーム中における被写体(人物、モノ)の種類、画像中の位置、領域、輪郭を認識する。被写体認識部30dは、認識した被写体の情報を感性値取得部30eに出力する。
感性値取得部30eは、コンテンツデータ生成者(動画の場合は撮影者)と被写体との感性値を取得する。具体的には、感性値取得部30eは、生成者のオブジェクトIDと、被写体のオブジェクトIDとに基づいて感性サーバ2に対して感性値の取得を要求する。感性サーバ2から生成者と被写体との間のインタラクションの評価が送信された場合、感性値取得部30eは、当該インタラクション評価に基づいて、被写体に対する生成者の相対的感性値(被写体に対して生成者がどのような気持ちを抱いているかを示す指標)を算出する。なお感性値の算出は感性サーバ2で行われてもよく、この場合、感性値取得部30eは、感性サーバ2から通信部31を介して、算出された感性値を取得する。
生成者のオブジェクトIDは、コンテンツデータにメタデータとして埋め込まれ、コンテンツ付加情報抽出部30bにより抽出されてもよい。被写体のオブジェクトIDは、コンテンツデータにメタデータとして埋め込まれ、コンテンツ付加情報抽出部30bにより抽出されてもよい。若しくは、被写体のオブジェクトIDは、被写体認識部30dにより認識された被写体の特徴量に基づいて取得されてもよい。被写体特徴量とオブジェクトIDとの対応付けは、再現情報生成装置3の記憶部(不図示)に記憶されていてもよいし、感性サーバ2のオブジェクトDB22に記憶されていてもよい。感性値取得部30eは、被写体特徴量を感性サーバ2に送信して被写体のオブジェクトIDを取得することが可能である。感性値取得部30eは、取得した感性値を臨場感再現情報生成部30fに出力する。
臨場感再現情報生成部30fは、コンテンツデータを再生する際に、コンテンツデータの臨場感を鑑賞者(ユーザ)に与えるための情報を生成する。臨場感再現情報生成部30fは、生成した臨場感再現情報を記憶制御部30gに出力する。ここで、本実施形態により生成される臨場感再現情報について、図3〜図5を参照して具体的に説明する。
図3は、本実施形態による臨場感再現情報の生成について説明する図である。図3に示すように、例えばコンテンツデータがボートで川下りをしている動画の場合、臨場感再現情報生成部30fは、コンテンツ解析部30aによる画像解析で抽出された画像特徴量から、振動情報、速度情報、乗り物の種類等を臨場感再現情報として生成する。振動情報は、例えば映像のフレーム間差分を利用して撮影者が撮影時に受けている振動を抽出することが可能である。また、動画から振動成分を取り除いた後、画面全体のパンニングやズーミングの量によって上下左右前後の移動速度が推定できる。振動の情報は上下左右前後方向の平行移動速度と回転角速度の時間変化で表される。振動情報を予め測定しておいた様々な乗り物や動きの振動情報と比較することで、波形そのもの(生データ)ではなく、同じような波形を出力する乗り物や動きを表す抽象的なデータ(例えば乗り物の種類、動きの種類)に置き換えることができる。なお波形の特徴は揺れの大きさ、周波数、時間的な変化量のパターンなどで取得し得る。
また、臨場感再現情報生成部30fは、コンテンツ付加情報抽出部30bにより抽出された動画撮影の日時・位置情報に基づいて天候・場所詳細情報検索部30cによりインターネットを経由して所定のサーバやシステムに問い合わせて検索された動画撮影日の気候(環境)や撮影場所の名称などを、臨場感再現情報としてもよい。また、映像解析と組み合わせることで、天候・場所詳細情報をより正確に取得することができる。例えばGPS(Global Positioning System)による位置情報は常に正確とは限らず、例えば川辺にいることになっていても実際は水上でボートに乗っている場合もあるし、川岸でバーベキューをしている場合もあるので、映像解析結果を参照することで、境界線近くにおける正確な場所の推定が可能となる。
また、臨場感再現情報生成部30fは、コンテンツ解析部30aによる音声や画像の解析結果(音声特徴量、画像特徴量)から、場所の詳細や、場の雰囲気、盛り上がり等を臨場感再現情報として生成してもよい。例えば、臨場感再現情報生成部30fは、音声特徴量から、室内なのか、屋外なのか、また室内の場合には部屋の大きさや材質等、場所の詳細の推定や、場の雰囲気、盛り上がりの推定が可能である。また、映像解析と組み合わせることで、これらの推定の精度を上げることができる。
また、臨場感再現情報生成部30fは、コンテンツ解析部30aによる解析結果、天候・場所詳細情報検索部30cにより検索された天候・場所の詳細情報、およびコンテンツ付加情報抽出部30bにより抽出された付加情報に基づいて、コンテンツデータ生成時のロケーション・行動を推定し、臨場感再現情報としてもよい。コンテンツデータ生成時のロケーション・行動とは、屋内/屋外、場所、温度、明るさ、行動内容等であって、これらが臨場感再現情報として生成される。
また、臨場感再現情報生成部30fは、感性値取得部30eにより取得された感性値に基づいて、各被写体に対する撮影者の感性値を臨場感再現情報として生成してもよい。
図4は、図3に示す対象動画から生成される臨場感再現情報のデータ構造の一例を示す図である。本実施形態による臨場感再現情報生成部30fは、特定のフォーマットに整形したデータ構造を作成する。具体的には、図4に示すように、所定の格納形式に沿ったフォーマットに従って、イベント(すなわちコンテキスト)毎のデータ列が生成される。なお、格納される臨場感再現情報には、抽象的な再現情報の他、生データを付随させてもよい。
例えば振動の臨場感再現情報としては、動画コンテンツの0m0sec〜8m13secに、振動方向:横回転±20°、振動強さ:1.8Gといった振動の生データと、何により生じている振動(動き)であるかを示す抽象的なデータ「乗り物種類:小型ボート」が生成される。かかる振動の臨場感再現情報は、振動特徴量抽出部302により抽出された振動特徴量に基づいて生成され得る。
また、気候の臨場感再現情報としては、動画コンテンツの0m0sec〜8m13secに、天気、気温、湿度、風力といった天候の生データと、これらの天候データから推定される快適さを示す抽象的なデータ「快適さ:暖かく心地よい」が生成される。かかる気候の臨場感再現情報は、天候・場所詳細情報検索部30cにより検索された天候・場所の詳細情報に基づいて生成され得る。また、快適さは、動画撮影者により手動で入力された主観的な快適さに基づいて生成してもよい。このような主観データが入力されないことを考慮して、天気、気温、湿度、風力等の気候の生データが付随情報として付けられる。
また、ロケーション・状態の臨場感再現情報としては、動画コンテンツの0m0sec〜8m13secに、緯度経度、高度といった地理的生データと、これらの地理情報から検索される抽象的なロケーションデータ「場所名:○○川、場所の属性:川、屋内外:屋外」と、そこで行われていることを示す抽象的な状態データ「状態:川下り」が生成される。かかるロケーション・状態の臨場感再現情報は、コンテンツ付加情報抽出部30bにより抽出された付加情報や、天候・場所詳細情報検索部30cにより検索された天候・場所の詳細情報に基づいて生成され得る。また、場所の属性とは、川、海、市街地、郊外、舗装道路、砂利道等の地理的な属性や、デパート、体育館、学校、駅などの構造物の属性が相当する。
また、照明・明るさの臨場感再現情報としては、動画コンテンツの0m0sec〜8m13secに、色、明るさの生データと、これらの情報から推定される抽象的な明るさの種類や属性データ「種類:太陽光、属性:点灯」が生成される。かかる照明・明るさの臨場感再現情報は、コンテンツ付加情報抽出部30bにより抽出された付加情報や、天候・場所詳細情報検索部30cにより検索された天候・場所の詳細情報に基づいて生成され得る。明るさの属性は、「点灯」以外に「点滅」や「回転」などが挙げられる。
また、場の雰囲気の臨場感再現情報としては、動画コンテンツの4m32sec〜4m43secに、抽象的な場の雰囲気データ「Positive:5.2、盛り上がり:8」が生成される。かかる場の雰囲気の臨場感再現情報は、コンテンツ解析部30aによる解析結果(特に画像特徴量、音声特徴量)や、被写体認識部30dによる被写体認識結果に基づいて生成され得る。場の雰囲気は、Positive/Negativeの度合いや、盛り上がり/静かの度合い等が挙げられる。
以上、図3に示す対象動画から生成される臨場感再現情報の一例について説明した。なお、1つのコンテンツデータに対して同一種類のイベントを複数付与してもよい。途中で天候が変わった場合等に対応するためである。
また、図4に示す臨場感再現情報は、対象動画コンテンツ全体に対して生成されているが、フレーム毎に生成されてもよい。また、図4ではイベント毎に臨場感再現情報のデータ列を付与するフォーマットを示したが、本実施形態による臨場感再現情報のフォーマットは図4に示す例に限定されず、例えば動画コンテンツの簡易的な時系列データにおいて、大きく変化のあった時間帯に対象の臨場感再現情報を付加するフォーマットであってもよい。
また、図4に示す臨場感再現情報は一例であって、さらに様々な種類のイベントの臨場感再現情報が生成され得る。以下、図5を参照して説明する。
図5は、本実施形態による臨場感再現情報の他の例を示す図である。図5に示す「振動」、「気候」、「ロケーションと状態」、「照明・明るさ」、「場の雰囲気」の臨場感再現情報については、図4を参照して内容説明を行ったため、ここでの説明は省略する。以下、その他の臨場感再現情報について説明する。
図5に示すように、匂いの臨場感再現情報としては、動画コンテンツの12m34sec〜22m43secに、何の匂いであるかを示す抽象的なデータ「種類:バラ」が生成される。かかる匂いの臨場感再現情報は、コンテンツ解析部30aによる解析結果(特に画像特徴量)や、天候・場所詳細情報検索部30cの検索結果に基づいて生成され得る。また、同一時刻に複数の匂いがある場合、匂いイベントを複数付与してもよい。
また、感性値の臨場感再現情報としては、動画コンテンツの12m34sec〜22m43secに、被写体に対する撮影者の相対的感性値から推定される抽象的な主観表現「奥さん:大切、赤ちゃん:とても大切、可愛い、愛情大、姑:苦手、ソファ:お気に入り」が生成される。かかる感性値の臨場感再現情報は、感性値取得部30eにより取得された感性値に基づいて生成され得る。また、抽象的な主観表現の他、取得された各被写体に対する撮影者の相対的感性値を生データとして付随させてもよい。
また、重さの臨場感再現情報としては、動画コンテンツの6m02sec〜6m17secに、被写体が持っている物の抽象的な重さの表現「魚:両手でしっかり持つ必要がある重さ」が生成される。かかる重さの臨場感再現情報は、コンテンツ解析部30aによる解析結果と被写体認識部30dによる被写体認識結果に基づいて生成され得る。例えば、臨場感再現情報生成部30fは、画像特徴量に基づいて被写体が持っている物体を認識し、認識した物体の一般的な重さ情報と認識した物体の大きさから、当該物体の重さを推定してもよいし、音声特徴量に基づいて、例えば「重い!」という被写体の発声から重さを推定してもよい。また、抽象的な重さの表現の他、推定された物の重さの値を生データとして付随させてもよい。
また、手触りの臨場感再現情報としては、動画コンテンツの6m02sec〜6m17secに、被写体が持っている物の手触りの抽象的な表現「魚:ぬるぬる」が生成される。かかる手触りの臨場感再現情報は、コンテンツ解析部30aによる解析結果と被写体認識部30dによる被写体認識結果に基づいて生成され得る。例えば、臨場感再現情報生成部30fは、画像特徴量に基づいて被写体が持っている物体を認識し、認識した物体の一般的な手触り情報から、当該物体の手触りを推定してもよいし、音声特徴量に基づいて、例えば「ぬるぬるだ!」という被写体の発声から手触りを推定してもよい。
また、温度の臨場感再現情報としては、動画コンテンツの6m02sec〜6m17secに、被写体が持っている物の温度の抽象的な表現「魚:生ぬるい」が生成される。かかる温度の臨場感再現情報は、コンテンツ解析部30aによる解析結果と被写体認識部30dによる被写体認識結果に基づいて生成され得る。例えば、臨場感再現情報生成部30fは、画像特徴量に基づいて被写体が持っている物体を認識し、認識した物体の一般的な温度情報から、当該物体の温度を推定してもよいし、音声特徴量に基づいて、例えば「生ぬるいなー」という被写体の発声から持っている物の温度を推定してもよい。
また、味の臨場感再現情報としては、動画コンテンツの21m59sec〜23m31secに、被写体が食べている料理の抽象的な味の表現「焼き魚:しょっぱい」が生成される。かかる味の臨場感再現情報は、コンテンツ解析部30aによる解析結果と被写体認識部30dによる被写体認識結果に基づいて生成され得る。例えば、臨場感再現情報生成部30fは、画像特徴量に基づいて被写体が食べている料理を認識し、認識した料理の一般的な味情報から、当該料理の味を推定してもよいし、音声特徴量に基づいて、例えば「しょっぱいなー」という被写体の発声から食べている料理の味を推定してもよい。また、コンテンツ付加情報抽出部30bにより、動画撮影時に取得された味情報(料理を食べる時に使う器具に設けられた味センサの検知情報等)が動画コンテンツのメタデータから抽出された場合、当該味情報に基づいて、抽象的な味の表現が付与されてもよい。
記憶制御部30gは、臨場感再現情報生成部30fにより生成された臨場感再現情報を、コンテンツ記憶部32に記憶されているコンテンツデータに埋め込んでもよいし、コンテンツデータに紐付けて別ファイルとして臨場感再現情報記憶部33に保存してもよい。
(通信部)
通信部31は、外部装置とデータの送受信を行う。例えば通信部31は、感性サーバ2と接続し、オブジェクトIDに対応するインタラクション評価を受信する。また、通信部31は、再生制御装置35と接続し、臨場感再現情報が埋め込まれたコンテンツデータ、またはコンテンツデータと当該コンテンツデータに紐付けられた臨場感再現情報を送信する。
(コンテンツ記憶部)
コンテンツ記憶部32は、コンテンツデータを格納する。格納するコンテンツデータは、通信部31により受信したものであってもよい。
(臨場感再現情報記憶部)
臨場感再現情報記憶部33は、コンテンツデータに紐付けて別ファイルとして生成された臨場感再現情報を格納する。
<2−2.感性サーバ>
図6は、本実施形態による感性サーバ2の構成の一例を示すブロック図である。図6に示すように、感性サーバ2は、通信部21、制御部20、オブジェクトDB22、および感性情報DB24を有する。
通信部21は、ネットワークを介して再現情報生成装置3と接続し、再現情報生成装置3から指定された対象ユーザのオブジェクトIDに紐付けられたインタラクション評価を返信する。また、通信部21は、各オブジェクト(人物、物体)に装着/搭載されたセンシングデバイス(不図示)から、インタラクション情報を受信する。
制御部20は、感性サーバ2の各構成を制御する。また、制御部20は、CPU、ROM、RAM、および不揮発性メモリを備えたマイクロコンピュータにより実現される。さらに、本実施形態による制御部20は、インタラクション記憶制御部20a、評価部20b、オブジェクト管理部20c、および関連オブジェクト検索部20dとして機能する。
インタラクション記憶制御部20aは、オブジェクトに装着/搭載されたセンシングデバイスから受信したインタラクション情報を感性情報DB24に記憶するよう制御する。センシングデバイスは、湿度センサ、温度センサ、振動センサ、赤外線センサ、カメラ、触覚センサ、またはジャイロセンサ等により実現され、オブジェクトに対する他のオブジェクトからのインタラクションを検知する。
評価部20bは、感性情報DB24に記憶したインタラクションの評価を行う。インタラクションの評価方法については特に限定しないが、例えば評価部20bは、インタラクションを受けたオブジェクトにとって好ましいインタラクションである程高く評価し、具体的には−1.0〜1.0の点数を付ける。評価結果は、インタラクションに対応付けて感性情報DB24に記憶される。
オブジェクト管理部20cは、オブジェクトDB22に記憶されているオブジェクトに関する情報の登録、変更、削除等の管理を行う。
関連オブジェクト検索部20dは、要求されたオブジェクトIDとの間にインタラクションが発生した他のオブジェクトを関連オブジェクトとしてオブジェクトDB22や感性情報DB24から検索する。
オブジェクトDB22は、各オブジェクトのオブジェクトIDを格納する記憶部である。また、オブジェクトDB22には、オブジェクトIDの他、商品名、商品種類、メーカー名(またはID)、型番、製造日時等の、オブジェクトに関する多々の情報が格納されている。
感性情報DB24は、オブジェクト間のインタラクションや、インタラクションの評価を格納する記憶部である。
<2−3.再生制御装置>
続いて、再生側の構成について説明する。再生側では、再現情報生成装置3により生成された臨場感再現情報に記述された抽象的な振動情報、例えば「乗り物の種類:ボート」「動き:激しい」などの抽象的な情報に基づいて、再生側が備えるデバイスの特性に応じて自由に再現方法を決めることができる。これにより、振動等の生データをそのまま再現するための専用のデバイスを備えていなくとも、臨場感をユーザに与えることができる。
図7は、本実施形態による再生制御装置35の構成の一例を示すブロック図である。図7に示すように、再生制御装置35は、コンテンツ取得部351、臨場感再現情報取得部352、臨場感再現効果特定部353、画像エフェクト生成部354、音声エフェクト生成部355、デバイス制御部356、デコード部357、およびコンテンツ出力制御部358を有する。
コンテンツ取得部351は、再生するコンテンツデータを取得する。例えば、コンテンツ取得部351は、クラウド上(例えば再現情報生成装置3のコンテンツ記憶部32)からコンテンツデータを取得する。
臨場感再現情報取得部352は、再生するコンテンツデータに対応する臨場感再現情報を取得する。例えば、臨場感再現情報は、コンテンツデータに埋め込まれている場合と、コンテンツデータとは別ファイルとしてクラウド上に保存されている場合とが想定される。臨場感再現情報取得部352は、コンテンツ取得部351により取得されたコンテンツデータに埋め込まれているメタデータから臨場感再現情報を取得したり、クラウド上(例えば再現情報生成装置3の臨場感再現情報記憶部33)から当該コンテンツデータに紐付けられた臨場感再現情報を取得したりする。
臨場感再現効果特定部353は、臨場感再現情報取得部352により取得された臨場感再現情報と、再生側が備えるデバイスの特性とに応じて、どのデバイスで臨場感(臨場感再現情報で表されているコンテキスト)の再現を行うかを特定する。また、臨場感再現効果特定部353は、特定したデバイスでどのような再現方法にするかを決定する。
ここで、再生側が備えるデバイスの一例について、図8、図9を参照して説明する。図8は、本実施形態による屋内用の再生デバイス(アクチュエータ)の一例を説明する図である。図8に示すように、屋内でコンテンツデータを再生する場合、再生制御装置35は、画像および音声を出力するテレビジョン装置36、エアーコンディショナー装置37a、香り噴霧装置37b、振動装置37c、照明装置37d、または送風装置37eを利用し得る。
例えば臨場感再現情報に記述された気候を再現する場合、臨場感再現効果特定部353は、エアーコンディショナー装置37aや送風装置37eにより、実際に風を起こしたり、温度を調整したりすることができる。また、臨場感再現効果特定部353は、臨場感再現情報に記述された匂いを再現する場合は香り噴霧装置37bを制御し、振動を再現する場合は振動装置37cを制御し、ロケーションや照明・明るさを再現する場合は照明装置37dを制御することができる。
また、デバイスは図8に示す例に限定されず、例えば加湿装置、味覚提示装置、触覚提示装置、または重さ提示装置等を備えることも想定される。
再生側に備えられるデバイスの特性、性能、種類は各家庭で異なる場合も想定されるため、臨場感再現効果特定部353は、臨場感再現情報を直接再現できるデバイスがない場合、他の表現方式に変換して提示することも可能である。
図9は、本実施形態によるウェアラブルタイプの再生デバイスの一例を説明する図である。図9に示すように、ウェアラブルタイプの再生デバイスとしては、例えばHMD(Head Mounted Display)により実現される再生制御装置35’と、ウェアラブルデバイス38a、38bが挙げられる。
再生制御装置35’は、図7に示す各構成を有し、さらに表示出力機能、音声出力機能、温度制御機能、前庭電気刺激機能(傾き錯覚)、香り噴霧機能等を有する。また、ウェアラブルデバイス38aは、図9に示すように腕輪型であって、例えば温度制御機能、筋肉締め付け機能、振動機能、電気刺激機能等を有する。また、ウェアラブルデバイス38bは、図9に示すように胴体に装着され、例えば温度制御機能、筋肉締め付け機能、振動機能、電気刺激機能等を有する。なお、上述した温度制御機能は、例えばペルチェ素子により実現される。
ウェアラブルタイプの再生デバイスの場合、屋外でも利用できる点で屋内用の再生デバイスに比べて利便性が高いが、屋内用の再生デバイスに比べると機能が十分でない場合も想定される。例えば、ウェアラブルデバイス38a、38bにより振動を与える場合、腕や腰等に対して部分的に弱い刺激しか与えられず、臨場感再現情報に記述されているイベントを十分に再現できない場合が考えられる。この場合、臨場感再現効果特定部353は、例えばウェアラブルデバイス38a、38bにより振動を与えると共に、後述する画像エフェクト生成部354や音声エフェクト生成部355によりエフェクトを加えることで、より十分に臨場感を与えることができる。
画像エフェクト生成部354は、臨場感再現効果特定部353の指示に従って、臨場感を再現するための画像エフェクトを生成する。
音声エフェクト生成部355は、臨場感再現効果特定部353の指示に従って、臨場感を再現するための音声エフェクトを生成する。
デバイス制御部356は、臨場感再現効果特定部353の指示に従って各種デバイスを制御し、ユーザ(鑑賞者)に臨場感を与える。例えば、デバイス制御部356は、エアーコンディショナー装置37a、香り噴霧装置37b、振動装置37c、照明装置37d、または送風装置37eの少なくともいずれかを制御する。
デコード部357は、コンテンツ取得部351により取得されたコンテンツデータをデコードし、コンテンツ出力制御部358に出力する。
コンテンツ出力制御部358は、デコード部357でデコードされたコンテンツデータを出力する。具体的には、例えばコンテンツ出力制御部358は、コンテンツデータが動画の場合、テレビジョン装置36から再生するよう制御する。また、コンテンツ出力制御部358は、画像エフェクト生成部354により生成された画像エフェクトと共に動画を再生したり、音声エフェクト生成部355により生成された音声エフェクトを出力したりする。
ここで、本実施形態による臨場感再現のための画像エフェクトの一例を図10および図11に示す。図10左に示すエフェクト画像40では、効果線と擬態語により速度感が表現され、図10右に示すエフェクト画像41では、効果線により振動している様子が表現されている。また、図11左に示すエフェクト画像42では、効果線と擬態語により熱気が表現され、図11右に示すエフェクト画像43では、蜃気楼(逃げ水)により同じく熱気が表現されている。なお図10、図11に示す画像エフェクトは一例であって、この他、例えば擬声語を用いて場の盛り上がりを表現してもよい、陽炎により熱気(暑さ)を表現してもよい。
以上、本実施形態による再生制御装置35の構成について具体的に説明した。続いて、本実施形態による臨場感再現システム1の再現情報生成処理および再生処理について順次説明する。
<<3.動作処理>>
<3−1.再現情報生成処理>
図12は、本実施形態による臨場感再現情報生成処理を示すフローチャートである。図12に示すように、まず、ステップS103において、再現情報生成装置3の画像特徴量抽出部301は、コンテンツの画像解析を行って画像特徴量を抽出する。
次に、ステップS106において、音声特徴量抽出部303は、コンテンツの音声解析を行って音声特徴量を抽出する。
次いで、ステップS109において、振動特徴量抽出部302は、コンテンツの画像解析を行ってフレーム差分から振動特徴量を抽出する。
次に、ステップS112において、臨場感再現情報生成部30fは、振動特徴量抽出部302により抽出された振動特徴量に基づいて、何の振動であるのか、乗り物の種類や動きを推定する。
次いで、ステップS115において、コンテンツ付加情報抽出部30bは、コンテンツの付加情報を抽出する。コンテンツの付加情報とは、コンテンツ生成時に付加された情報であって、例えば撮影日付、撮影位置情報、レンズ情報、露出情報、その他センサ情報等が挙げられる。
続いて、ステップS118において、天候・場所詳細情報検索部30cは、コンテンツ付加情報抽出部30bにより抽出された付加情報に含まれる日付、位置情報に基づいて、撮影時の天気、気温、湿度、風力等の天候詳細情報を取得する。
また、ステップS121において、天候・場所詳細情報検索部30cは、コンテンツ付加情報抽出部30bにより抽出された付加情報に含まれる位置情報に基づいて、撮影場所の名称や属性等の場所詳細情報を取得する。
次いで、ステップS124において、臨場感再現情報生成部30fは、コンテンツ解析部30aにより抽出された各特徴量や、コンテンツ付加情報抽出部30bにより抽出された付加情報、天候・場所詳細情報検索部30cにより検索された天候・場所の詳細情報に基づいて、総合的な撮影状況を推定する。具体的には、ロケーション(屋内/屋外判定、場所属性等)、状態(ショッピング、川下り等)、場の雰囲気(盛り上がり等)、照明・明るさ等が推定される。
次に、ステップS127において、感性値取得部30eは、被写体認識部30dによる認識結果に基づいて、被写体の感性値を取得する。被写体の感性値の取得については、図13を参照して詳述する。
次いで、ステップS130において、臨場感再現情報生成部30fは、臨場感再現情報の格納形式に沿ったフォーマットで、イベント毎のデータ列を臨場感再現情報として生成する。
そして、ステップS133において、臨場感再現情報生成部30fは、生成した臨場感再現情報を、コンテンツに埋め込む、またはコンテンツと紐付けて別ファイルとして保存する。
続いて、上記S127に示す感性値取得処理について図13を参照して説明する。図13は、本実施形態による感性値取得処理を示すフローチャートである。図13では、コンテンツデータが動画の場合について説明する。
まず、ステップS143において、感性値取得部30eは、動画の先頭フレームを取得する。
次に、ステップS146において、感性値取得部30eは、被写体認識部30dから対象フレームの被写体認識結果を取得する。被写体認識部30dは、対象フレームの画像解析により抽出された画像特徴量に基づいて、フレーム内の被写体認識を行う。例えば、図14に示すように、撮影者Pが撮影を行って生成した動画のフレーム45を画像解析し、被写体S1、S2、S3を認識する。
次いで、ステップS149において、感性値取得部30eは、被写体認識部30dにより認識された対象フレームの被写体に対応するオブジェクトIDを取得する。被写体のオブジェクトIDは、例えば動画に埋め込まれたメタデータから取得されてもよいし、再現情報生成装置3が有するオブジェクトID記憶部(不図示)から取得されてもよい。
なお、被写体のオブジェクトIDが取得できなかった場合(S149において/No)、ステップS152において、感性値取得部30eは、撮影者のオブジェクトIDおよび被写体の属性を感性サーバ2に送信する。被写体の属性は、被写体認識結果により得られるものであって、例えば被写体が人物であるかモノであるか、人物である場合は性別、推定年齢、顔特徴等、モノである場合は色、大きさ、種別等が挙げられる。
次いで、ステップS155において、感性値取得部30eは、感性サーバ2から被写体のオブジェクトIDの候補を受信する。感性サーバ2では、関連オブジェクト検索部20dにより、例えば撮影者がインタラクションを起こした履歴のあるオブジェクトから、被写体の属性と同じまたは似ている関連オブジェクトを検索し、そのオブジェクトIDを候補として再現情報生成装置3に返信する。
次に、感性サーバ2から返信されたオブジェクトID候補が複数ある場合(S158において「Yes」)、ステップS161において、感性値取得部30eは、複数の候補から被写体に対応するオブジェクトIDを1つ選択する。オブジェクトIDの選択は、ユーザが行ってもよいし、インタラクション履歴に基づいて自動で行ってもよい。例えば、車の玩具のオブジェクトIDが3つ返信された場合、そのうち撮影者からのインタラクションを最も多く受けている車の玩具のオブジェクトIDを選択する。
続いて、ステップS164において、感性値取得部30eは、被写体のオブジェクトIDを感性サーバ2に送信する。
次に、ステップS167において、感性値取得部30eは、撮影者と被写体間の相対的感性値を取得し、取得した相対的感性値をフレーム内の被写体の位置に紐付けて記憶する。影者と被写体間の相対的感性値は、感性サーバ2において算出されてもよいし、感性値取得部30eが、感性サーバ2から受信した撮影者と被写体間のインタラクション評価に基づいて算出してもよい。
次いで、対象フレーム内に他の被写体がある場合(S170において「Yes」)、上記ステップS149からの処理が繰り返される。これにより、例えば図14に示す被写体S1(妻、オブジェクトID:105384093)、被写体S2(子供、オブジェクトID:15122014)、および被写体S3(玩具、オブジェクトID:101960)の各々に対する撮影者P(父親、オブジェクトID:312039)の感情や気持ちを示す相対的感性値が取得される。
ここで、感性値取得部30eによる相対的感性値の算出について、図15、図16を参照して具体的に説明する。図15は、本実施形態によるインタラクション評価のデータ例を示す図である。図15に示すインタラクション評価は、感性値取得部30eにより指定された撮影者のオブジェクトIDと各被写体のオブジェクトIDに基づいて、感性サーバ2から返信されたインタラクション評価である。
例えば、図15に示すデータ例の1行目では、撮影者P(オブジェクトID:312039)が、2013年12月24日に、被写体S1の妻(オブジェクトID:105384093)に対して行った「アクセサリーを贈与した」というインタラクションに対して評価0.7が付与されている。また、2行目では、被写体S1の妻(オブジェクトID:105384093)が、2013年12月24日に、撮影者P(オブジェクトID:312039)から行われた「アクセサリーを贈与された」というインタラクションに対して評価1.00が付与されている。このように、一方のオブジェクトから他方のオブジェクトに対して行われたインタラクションは、一方のオブジェクト側と、他方のオブジェクト側の両方で検知され得る。
検知されるインタラクション種類は、上記贈与の他、図15に示すように、保管、スキンシップ、会話、遊ぶ等が挙げられる。
贈与のインタラクションは、例えばクレジットカードの使用履歴やネットショッピングの購入履歴、メールやソーシャルメディアの書き込み内容、部屋やオブジェクトに備えられたカメラによる撮像画像の認識、部屋やオブジェクトに備えられたマイクロホンによる音声の認識等から検知される。贈与のインタラクション評価は、感性サーバ2の評価部20bにより行われる。例えば、評価部20bは、贈与した人の普段の購入履歴や収入に対するプレゼント金額の割合に応じた奮発度、店員との会話認識に基づくプレゼントに対するポジティブ度、ネット購入時におけるWebページの閲覧時間やページの遷移から品物を選ぶまで時間に基づく真剣度等を抽出し、これらの値に各々所定の重み付けを行い、-1.0〜1.0に正規化して評価値とする。
また、保管のインタラクションは、例えばオブジェクトの位置や、移動履歴、部屋やオブジェクトに備えられたカメラによる撮像画像の認識等から検知される。評価部20bは、保管場所、保管場所の湿度、大気中の埃の分量等に重み付けを行い、-1.0〜1.0に正規化して評価値とする。
また、スキンシップのインタラクションは、例えば互いのウェアラブルデバイスを経由した人体通信による接触判定、カメラによる画像認識、両者の加速度センサの動きパターン等に基づいて検知される。評価部20bは、笑顔認識による笑顔度、音声認識による笑い声や会話の内容から取得した各種指標に重み付けを行い、-1.0〜1.0に正規化して評価値とする。
また、会話のインタラクションは、例えば音声認識、声のトーン、メールやソーシャルメディアへの書き込み内容の解析(構文解析、意味解析)等に基づいて検知される。評価部20bは、会話に含まれる単語、文脈、声のトーン等を利用して会話内容のポジティブ/ネガティブ度を判定し、単語の数や会話内容によって評価の総和が変わるため、最終的に-1.0〜1.0に正規化して評価値とする。
また、遊びのインタラクションは、例えば玩具に設けられた近接無線通信チップと子供に装着された近接無線通信チップとの接続確認や、両者の加速度センサの動き等に基づいて検知される。接続確認と動きからは「遊ぶ」の認識ができない場合、他方のオブジェクトが玩具であれば、玩具は遊ぶためのものであるため、「遊ぶ」というインタラクションと認識される。評価部20bは、両者のインタラクション時間の計測結果と撮像画像や音声による笑顏検出や笑い声検出に基づいて、子供の玩具に対する評価値を求める。また、玩具側から見た場合の評価値は、加速度センサのデータを元にどれくらい乱暴に扱われたか、本来の玩具としての使い方を逸脱していたかを計測して求められてもよい。なお、乳幼児が玩具を乱暴に扱っている場合も、玩具から見た場合の評価値は低くなるが、最終的な感性値を求める段階で、相手が乳幼児である場合、玩具から見た評価値の重み付け係数を小さくしたり、補正したりすることで、評価値を調整することが可能である。
次いで、感性値取得部30eにより各被写体に対する撮影者の感情や気持ちを示す相対的感性値を算出する場合、感性値取得部30eは、図15に示すインタラクション評価のデータから、撮影者と被写体間のインタラクション評価だけを抜き出す。図16は、図15に示すインタラクション評価のデータ例から感性値算出に用いるデータを抜き出したデータ例を示す図である。図16に示すように、撮影者(オブジェクトID:312039)と、各被写体S1〜S3(オブジェクトID:105384093、15122014、101960)間のインタラクション評価が抜き出される。
感性値取得部30eは、撮影者と被写体との相対的感性値を、例えば対象被写体の評価の総和、または対象被写体のインタラクション種類毎に重み係数を乗じてから対象被写体の評価を加算した総和、若しくは総和をインタラクション数で割った平均値により求められる。
次に、図13に戻り、ステップS173において、感性値取得部30eは、フレーム全体の感性値を算出する。具体的には、例えばフレーム内の各被写体の相対的感性値の総和、または総和を被写体数で割った平均により求められる。
次いで、ステップS176において、感性値取得部30eは、対象フレームの感性値(各被写体の相対的感性値、およびフレーム全体の感性値)を記憶する。
そして、ステップS179において、処理対象のフレームを一つ進め、まだ新しいフレームがある場合は(S182において「Yes」)、上記ステップS146からの処理が繰り返される。
以上、本実施形態による感性値の算出について説明した。なお、以上説明した実施形態では、各被写体と撮影者間の相対的感性値を算出したが、本開示はこれに限定されず、必要に応じて各被写体の絶対的感性値を算出してもよいし、被写体同士の相対的感性値を算出してもよい。
各被写体の絶対的感性値は、被写体の全てのインタラクション評価を加算した総和、またはインタラクション種類毎に重み係数を乗じてから対象被写体の全ての評価を加算した総和、若しくは総和をインタラクション数で割った平均値により求められる。
また、被写体同士の相対的感性値は、被写体間のインタラクション評価の総和、またはインタラクション種類毎に重み係数を乗じてから被写体間のインタラクション評価を加算した総和、若しくは総和をインタラクション数で割った平均値により求められる。
<3−2.再生処理>
続いて、本実施形態による再生側の動作処理について、図17を参照して説明する。図17は、本実施形態による再生処理を示すフローチャートである。
図17に示すように、まず、ステップS203において、再生制御装置35の臨場感再現情報取得部352は、コンテンツ取得部351により取得したコンテンツデータに臨場感再現情報が埋め込まれているか否かを判断する。
次に、コンテンツデータに臨場感再現情報が埋め込まれている場合(S203において「Yes」)、ステップS206において、臨場感再現情報取得部352は、コンテンツデータから臨場感再現情報を取得する。
一方、コンテンツデータに臨場感再現情報が埋め込まれていない場合(S203において「No」)、ステップS209において、臨場感再現情報取得部352は、サーバ上(クラウド)に、対応する臨場感再現情報が別ファイルとして保存されているか否かを判断する。
サーバ上に臨場感再現情報がある場合(S209において「Yes」)、ステップS212において、臨場感再現情報取得部352は、サーバ上(クラウド)から臨場感再現情報を取得する。
一方、サーバ上に臨場感再現情報がない場合(S209において「No」)、ステップS215において、再生制御装置35は、エラー通知、あるいは臨場感再現無しでコンテンツデータの再生制御を行う。
次いで、ステップS218において、コンテンツ出力制御部358は、コンテンツ取得部351により取得され、デコード部357でデコードされた動画(コンテンツデータの一例)の再生を開始する。具体的には、コンテンツ出力制御部358は、テレビジョン装置36(図8参照)を制御して動画の再生を行う。また、コンテンツ出力制御部358は、動画の再生中に、次に説明する臨場感再現処理を行う。
具体的には、臨場感再現効果特定部353により、臨場感再現情報取得部352で取得された臨場感再現情報に基づいて、臨場感再現のためにデバイス制御が必要と判断された場合(ステップS221において「Yes」)、ステップS224において、デバイス制御部356は、デバイスの制御を行う。臨場感再現効果特定部353は、臨場感再現情報に記述された抽象的な臨場感を再現するための再現方法を、各デバイスの特性に応じて決定する。デバイス制御部356は、臨場感再現効果特定部353の指示に従って、エアーコンディショナー装置37a、香り噴霧装置37b、振動装置37c、照明装置37d、または送風装置37e等を制御して、臨場感の再現(小型ボートに乗っているような振動、小型ボート上で受ける風、暖かく心地よい気候、屋外のような明るさ、太陽光の再現、川辺の匂い等)を行う。
次に、臨場感再現効果特定部353により、臨場感再現情報取得部352で取得された臨場感再現情報に基づいて、臨場感再現のために画像エフェクトが必要と判断された場合(ステップS227において「Yes」)、ステップS230において、画像エフェクト生成部354は画像エフェクトの生成を行い、コンテンツ出力制御部358は生成された画像エフェクトを出力する(図10および図11参照)。
次いで、臨場感再現効果特定部353により、臨場感再現情報取得部352で取得された臨場感再現情報に基づいて、臨場感再現のために音声エフェクトが必要と判断された場合(ステップS233において「Yes」)、ステップS236において、音声エフェクト生成部355は音声エフェクトの生成を行い、コンテンツ出力制御部358は生成された音声エフェクトをテレビジョン装置36のスピーカから出力する。
そして、動画再生が最後に到達するまで、上記S221〜S223の処理が繰り返される(S239)。また、上述した臨場感再現制御は、臨場感再現情報が紐付けられているフレーム再生時や、図4に示すフォーマットの場合は「Time」により紐付けられている動画再生時間時のタイミングで行われる。
また、本実施形態による臨場感の再現では、臨場感再現情報に記述された感性値に応じた演出を行うことも可能である。臨場感再現情報には、上述したように、被写体に対する撮影者の感情や気持ちを示す相対的感性値が含まれている。本実施形態では、再生側において当該相対的感性値に応じた演出を行うことで、撮影者が被写体に対してどのような思いを持っているのか、撮影者の気持ちになって鑑賞するといった新たな鑑賞体験を提供することができる。以下、このような感性値に応じた再生処理について図18を参照して説明する。
図18は、本実施形態による感性値を利用した再生処理を示すフローチャートである。図18に示すように、まず、ステップS303において、臨場感再現効果特定部353は、現在の再生フレーム全体の感性値Tを取得する。再生フレーム全体の感性値Tは、臨場感再現情報取得部352により取得された臨場感再現情報から取得し得る。再生フレーム全体の感性値Tは、図13のステップS173で説明した対象フレーム全体の感性値に相当する。
次に、ステップS306において、臨場感再現効果特定部353は、前のフレーム全体の感性値T’と、現在のフレーム全体の感性値Tとの差が所定値以上であるか否かを判断する。
次いで、感性値の差が所定値以上である場合(S306において「Yes」)、ステップS309において、臨場感再現効果特定部353は、デバイス制御の最低適用時間を越えているか否かを判断する。デバイス制御が短い時間で切り替えられてしまうことも回避するためである。
次に、デバイス制御の最低適用時間を越えている場合(S309において「Yes」)、ステップS312において、臨場感再現効果特定部353は、感性値Tの値に応じたデバイス制御を行うようデバイス制御部356に指示する。例えば、振動の発生、スモークの噴出、照明の変更等の、感性値に応じた物理的な演出を行う。
次いで、ステップS315において、臨場感再現効果特定部353は、画像エフェクトの最低適用時間を越えているか否かを判断する。画像エフェクトが短い時間で切り替えられてしまうことも回避するためである。
次に、画像エフェクトの最低適用時間を越えている場合(S315において「Yes」)、ステップS318において、臨場感再現効果特定部353は、感性値Tの値に応じた画像全体のエフェクトを適用するよう、画像エフェクト生成部354に指示する。画像全体のエフェクトとは、例えば画像のトーン全体を明るくしたり、画像の色合いを少し赤くしたりする演出である。
次いで、ステップS321において、臨場感再現効果特定部353は、BGM(Background Music)の最低適用時間を越えているか否かを判断する。BGMが短い時間で切り替えられてしまうことも回避するためである。
次に、BGMの最低適用時間を越えている場合(S321において「Yes」)、ステップS324において、臨場感再現効果特定部353は、感性値Tの値に応じたBGMを再生するよう、音声エフェクト生成部355に指示する。例えば、感性値Tが高い場合は楽しく明るいBGMを再生し、感性値Tが低い場合は暗いBGMを再生する。
続いて、ステップS327において、臨場感再現効果特定部353は、現在の再生フレームから認識される被写体毎の感性値と、各被写体の画面上の位置(すなわちフレーム内での位置)を取得する。被写体毎の感性値は、臨場感再現情報に含まれる、各被写体に対する撮影者の相対的感性値である。
次に、ステップS330において、臨場感再現効果特定部353は、被写体の種類と感性値に応じた画像エフェクトや重畳画像を選択するよう画像エフェクト生成部354に指示し、さらに、選択された画像エフェクトを被写体に対応する位置に表示するようコンテンツ出力制御部358に指示する制御する。ここで、感性値に応じて各被写体に対応するよう配置される画像エフェクトの一例について図19を参照して説明する。
臨場感再現効果特定部353は、図19左に示すフレーム45から認識される被写体S1、S2、S3の相対的感性値に応じて、図19右に示すフレーム46のように、画像エフェクトE1〜E3を、各被写体S1〜S3に対応して配置する。例えば被写体S1が母親、被写体S2が子供、被写体S3が玩具である場合、家族用や子供用の画像エフェクトが選択される。また、相対的感性値が高い場合、楽しく明るい画像エフェクトが選択される。また、被写体に対応した配置とは、例えば被写体の周囲に、被写体と重ならないよう配置することが挙げられる。これにより、撮影者がどのような気持ちで撮影を行っていたのか、撮影時はどのような雰囲気であったかなどが、新たに追加された演出で表され、撮影時の臨場感が再現される。
なお、上記S312、S318、S324、S330では、感性値の値に応じた演出(デバイス制御、画像エフェクト、BGM)を行う旨を説明したが、本実施形態はこれに限定されず、臨場感再現情報に、被写体の相対的感性値から推定された抽象的な撮影者の主観表現が記述されていた場合、当該主観表現に応じた演出を行うことも可能である。
そして、動画終了位置まで再生されていない場合(ステップS333において「No」)、上記S303〜S330の処理が繰り返される。
以上、本実施形態による再現処理について具体的に説明した。
<<4.まとめ>>
上述したように、本開示の実施形態による臨場感再現システムでは、抽象化した臨場感再現情報を生成することで、再生側のデバイスの特性に合わせた再現を行うことを可能とする。
具体的には、コンテンツ解析により動画から視聴覚以外の感覚に関する情報を抽出し、その情報を元に抽象化した臨場感再現情報を生成し、当該抽象化した臨場感再現情報に基づいて、再生側が備えるデバイスの特性に応じた臨場感の再現を行い、視聴覚刺激以外のさまざまな刺激を与える映像再生が可能となる。例えば、撮影者が受けていたと推定される振動、体感温度、風、匂い等の情報(臨場感再現情報)を生成し、生成した情報に基づいて、動画鑑賞時に部屋全体、椅子、HMD等に設けられた様々なデバイスを用いて撮影時の臨場感を再現することができる。これにより、コンテンツをより楽しい物にするだけでなく、撮影者と鑑賞者間の情報量が増加することで、より深いコミュニケーションが可能となる。また、自分自身が映像を振り返る場合においても、想い出想起の助けとなる。
また、臨場感再現情報には、被写体と撮影者の感性的な繋がりを示す指標である感性値も含まれ、映像再生を行う際に感性値に応じた演出を行うことで被写体に対する撮影者の気持ちや感情を再現し、鑑賞者に新しい臨場感を与えることができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上述した感性サーバ2、再現情報生成装置3、または再生制御装置35に内蔵されるCPU、ROM、およびRAM等のハードウェアに、感性サーバ2、再現情報生成装置3、または再生制御装置35の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
また、図1に示す臨場感再現システム1では、再現情報生成装置3と再生制御装置35とを別の装置として説明したが、本実施形態はこれに限定されず、再現情報生成装置3と再生制御装置35とが一体化した装置であってもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、本技術は以下のような構成も取ることができる。
(1)
コンテンツデータから抽出された特徴に応じて、抽象化された臨場感再現情報を生成する生成部と、
前記生成部により生成された臨場感再現情報を、前記コンテンツデータに関連付けて記憶するよう制御する記憶制御部と、
を備える、情報処理システム。
(2)
前記生成部は、前記コンテンツデータから抽出された特徴に応じて、当該コンテンツデータの生成時のコンテキストを推定し、推定したコンテキストを表す臨場感再現情報を生成する、前記(1)に記載の情報処理システム。
(3)
前記生成部は、前記コンテンツデータとしての画像データの撮影時における撮影者の動きを推定する、前記(2)に記載の情報処理システム。
(4)
前記生成部は、前記撮影者の動きを起こさせている乗り物の種類、または移動手段を推定する、前記(3)に記載の情報処理システム。
(5)
前記生成部は、前記コンテキストとしての感性値を推定し、当該感性値を表す抽象化された臨場感再現情報を生成する、前記(2)に記載の情報処理システム。
(6)
前記生成部は、前記コンテンツデータを生成したユーザ、または前記コンテンツデータに含まれるオブジェクトに応じて、前記感性値を推定する、前記(5)に記載の情報処理システム。
(7)
前記コンテンツデータには、当該コンテンツデータが生成された日時、および場所を表す情報が紐づけられ、
前記生成部は、前記日時、および場所を表す情報に対応する環境を前記臨場感再現情報として生成し、
前記記憶制御部は、前記環境を表す臨場感再現情報を、前記コンテンツデータに関連付けて記憶するよう制御する、前記(1)に記載の情報処理システム。
(8)
コンテンツデータに基づいて生成された臨場感再現情報を取得する取得部と、
前記臨場感再現情報が表すコンテキストを再現するための効果を特定する効果特定部と、
前記特定された効果を付与して前記コンテンツデータを再生する再生制御部と、
を備える、情報処理システム。
(9)
前記取得部は、前記コンテンツデータと一体化された前記臨場感再現情報を前記コンテンツデータから抽出して取得、または前記コンテンツデータとは別に保存された前記臨場感再現情報をネットワーク上から受信して取得する、前記(8)に記載の情報処理システム。
(10)
前記再生制御部は、
前記特定された効果に対応する刺激を発生するデバイス制御部と;
前記コンテンツデータを出力する出力制御部と;を有する、前記(8)または(9)に記載の情報処理システム。
(11)
前記再生制御部は、
前記特定された効果に対応する加工を行う加工部と;
前記加工が施されたコンテンツデータを出力する出力制御部と;を有する、前記(8)または(9)に記載の情報処理システム。
(12)
コンテンツデータから抽出された特徴に応じて、抽象化された臨場感再現情報を生成する生成部と、
前記臨場感再現情報が表すコンテキストを再現するための効果を特定する効果特定部と、
前記特定された効果を付与して前記コンテンツデータを再生する再生制御部と、
を備える、情報処理システム。
(13)
コンテンツデータから抽出された特徴に応じて、抽象化された臨場感再現情報を生成することと、
前記生成された臨場感再現情報を、前記コンテンツデータに関連付けて記憶するよう制御することと、
を含む、制御方法。
(14)
コンピュータを、
コンテンツデータに基づいて生成された臨場感再現情報を取得する取得部と、
前記臨場感再現情報が表すコンテキストを再現するための効果を特定する効果特定部と、
前記特定された効果を付与して前記コンテンツデータを再生する再生制御部と、
として機能させるためのプログラムが記憶された、記憶媒体。
1 臨場感再現システム
2 感性サーバ
20 制御部
20a インタラクション記憶制御部
20b 評価部
20c オブジェクト管理部
20d 関連オブジェクト検索部
21 通信部
22 オブジェクトDB
24 感性情報DB
3 再現情報生成装置
30 制御部
30a コンテンツ解析部
30b コンテンツ付加情報抽出部
30c 天候・場所詳細情報検索部
30d 被写体認識部
30e 感性値取得部
30f 臨場感再現情報生成部
30g 記憶制御部
31 通信部
32 コンテンツ記憶部
33 臨場感再現情報記憶部
35 再生制御装置
351 コンテンツ取得部
352 臨場感再現情報取得部
353 臨場感再現効果特定部
354 画像エフェクト生成部
355 音声エフェクト生成部
356 デバイス制御部
357 デコード部
358 コンテンツ出力制御部

Claims (8)

  1. コンテンツデータの画像解析または音声解析により抽出された特徴量データを抽象化した臨場感再現情報を生成する生成部と、
    前記生成された前記臨場感再現情報と、再現側が備えるデバイスの特性とに応じて、前記臨場感再現情報が表すコンテキストを再現するための効果を特定する効果特定部と、
    前記特定された効果を前記デバイスで付与して前記コンテンツデータを再生する再生制御部と、
    を備え
    前記生成部は、前記コンテンツデータの被写体に対する撮影者の相対的な感性値を抽象化して前記臨場感再現情報を生成する、情報処理システム。
  2. 前記臨場感再現情報は、前記コンテンツデータから抽出された前記特徴量データに基づいて推定される、振動、気候、ロケーション・行動、照明・明るさ、匂い、場の雰囲気、感性値、重さ、手触り、温度、および味、の少なくともいずれかのコンテキストを抽象的に表現するものである、請求項1に記載の情報処理システム。
  3. 前記生成部は、前記コンテンツデータの画像解析結果から、撮影者の動きデータを抽出し、抽出した動きデータに基づいて、前記撮影者が乗車している乗り物の種類、または前記撮影者の移動手段を推定し、前記臨場感再現情報とする、請求項1または2に記載の情報処理システム。
  4. 前記コンテンツデータには、当該コンテンツデータが生成された日時および場所を表す情報が付加され、
    前記生成部は、前記日時および場所を表す情報に基づいて取得した環境情報を、前記臨場感再現情報とする、請求項1〜のいずれか1項に記載の情報処理システム。
  5. 前記再生制御部は、前記特定された効果に対応する刺激を発生するデバイスの制御と共に、前記コンテンツデータを出力する制御と、を行う、請求項1〜のいずれか1項に記載の情報処理システム。
  6. 前記再生制御部は、前記特定された効果に対応する加工を前記コンテンツデータに対して行い、前記加工したコンテンツデータを出力するよう制御する、請求項1〜のいずれか1項に記載の情報処理システム。
  7. プロセッサが、
    コンテンツデータの画像解析または音声解析により抽出された特徴量データを抽象化した臨場感再現情報を生成することと、
    前記コンテンツデータの被写体に対する撮影者の相対的な感性値を抽象化して前記臨場感再現情報を生成することと、
    前記生成された前記臨場感再現情報と、再現側が備えるデバイスの特性とに応じて、前記臨場感再現情報が表すコンテキストを再現するための効果を特定することと、
    前記特定された効果を前記デバイスで付与して前記コンテンツデータを再生することと、
    を含む、制御方法。
  8. コンピュータを、
    コンテンツデータの画像解析または音声解析により抽出された特徴量データを抽象化した臨場感再現情報を生成する生成部と、
    前記生成された前記臨場感再現情報と、再現側が備えるデバイスの特性とに応じて、前記臨場感再現情報が表すコンテキストを再現するための効果を特定する効果特定部と、
    前記特定された効果を前記デバイスで付与して前記コンテンツデータを再生する再生制御部と、
    として機能させるためのプログラムが記憶された、記憶媒体であって、
    前記生成部は、前記コンテンツデータの被写体に対する撮影者の相対的な感性値を抽象化して前記臨場感再現情報を生成する、記憶媒体。
JP2016557472A 2014-11-07 2015-08-05 情報処理システム、制御方法、および記憶媒体 Active JP6589880B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014227007 2014-11-07
JP2014227007 2014-11-07
PCT/JP2015/072218 WO2016072120A1 (ja) 2014-11-07 2015-08-05 情報処理システム、制御方法、および記憶媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019169507A Division JP6773190B2 (ja) 2014-11-07 2019-09-18 情報処理システム、制御方法、および記憶媒体

Publications (2)

Publication Number Publication Date
JPWO2016072120A1 JPWO2016072120A1 (ja) 2017-08-17
JP6589880B2 true JP6589880B2 (ja) 2019-10-16

Family

ID=55908852

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016557472A Active JP6589880B2 (ja) 2014-11-07 2015-08-05 情報処理システム、制御方法、および記憶媒体
JP2019169507A Active JP6773190B2 (ja) 2014-11-07 2019-09-18 情報処理システム、制御方法、および記憶媒体

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019169507A Active JP6773190B2 (ja) 2014-11-07 2019-09-18 情報処理システム、制御方法、および記憶媒体

Country Status (3)

Country Link
US (1) US10298876B2 (ja)
JP (2) JP6589880B2 (ja)
WO (1) WO2016072120A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10382804B2 (en) * 2015-08-31 2019-08-13 Orcam Technologies Ltd. Systems and methods for identifying exposure to a recognizable item
CN106562792B (zh) * 2015-10-08 2021-08-06 松下电器(美国)知识产权公司 信息提示装置的控制方法和信息提示装置
WO2017159003A1 (ja) * 2016-03-17 2017-09-21 ソニー株式会社 画像処理装置と画像処理方法およびプログラム
JP2020057029A (ja) * 2017-02-02 2020-04-09 テルモ株式会社 電子システム
CN107169430B (zh) * 2017-05-02 2020-12-01 哈尔滨工业大学深圳研究生院 基于图像处理语义分析的阅读环境音效增强系统及方法
KR20210038537A (ko) * 2018-07-24 2021-04-07 소니 주식회사 정보 처리 장치 및 방법, 그리고 프로그램
US10997410B2 (en) * 2018-08-31 2021-05-04 Ricoh Company, Ltd. Information processing device and information processing system
WO2021005757A1 (ja) * 2019-07-10 2021-01-14 日本電信電話株式会社 コンテンツ再生装置、コンテンツ再生方法及びコンテンツ再生プログラム
EP4050909A4 (en) * 2019-10-23 2022-12-28 Sony Group Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND ARTIFICIAL INTELLIGENCE SYSTEM
JP7452558B2 (ja) 2020-02-10 2024-03-19 日本電気株式会社 処理装置、処理方法及びプログラム
WO2022254941A1 (ja) * 2021-06-01 2022-12-08 パナソニックIpマネジメント株式会社 コンテンツ再生装置、コンテンツ再生方法、及びコンテンツ再生プログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4672094B2 (ja) 1999-01-22 2011-04-20 ソニー株式会社 画像処理装置および方法、並びに記録媒体
JP4427699B2 (ja) 2000-07-21 2010-03-10 ソニー株式会社 情報処理装置および方法、並びに揺動提示システム
JP4465830B2 (ja) 2000-07-21 2010-05-26 ソニー株式会社 情報処理装置および方法、情報処理システム、並びに記録媒体
JP4052556B2 (ja) * 2002-05-07 2008-02-27 日本放送協会 外部機器連動型コンテンツ生成装置、その方法及びそのプログラム
JP2006270711A (ja) 2005-03-25 2006-10-05 Victor Co Of Japan Ltd 情報提供装置及び情報提供装置の制御用プログラム
US7676543B2 (en) * 2005-06-27 2010-03-09 Scenera Technologies, Llc Associating presence information with a digital image
JP4736653B2 (ja) * 2005-09-09 2011-07-27 ソニー株式会社 動揺装置、動揺方法及び視聴覚システム
WO2007052395A1 (ja) * 2005-10-31 2007-05-10 Sharp Kabushiki Kaisha 視聴環境制御システム
JP2008005297A (ja) * 2006-06-23 2008-01-10 Fujifilm Corp 画像撮影再生システム
CN102077236A (zh) * 2008-07-03 2011-05-25 松下电器产业株式会社 印象度提取装置和印象度提取方法
KR100961718B1 (ko) * 2008-09-25 2010-06-10 한국전자통신연구원 엠펙4 단일 미디어 기반 멀티 디바이스 동영상 송/수신장치및 방법
JP2010226484A (ja) * 2009-03-24 2010-10-07 Nikon Corp 画像表示装置およびデジタルカメラ
US8989792B1 (en) * 2010-01-22 2015-03-24 Amazon Technologies, Inc. Using inertial sensors to trigger transmit power management
JP2011155532A (ja) * 2010-01-28 2011-08-11 Sharp Corp 体感効果再生装置
JP5617697B2 (ja) * 2011-03-04 2014-11-05 株式会社ニコン 電子機器、画像表示システム及び画像選択方法
WO2014171200A1 (ja) * 2013-04-16 2014-10-23 ソニー株式会社 情報処理装置及び情報処理方法、表示装置及び表示方法、並びに情報処理システム
WO2014181326A1 (en) * 2013-05-08 2014-11-13 Geva Ran Motion-based message display

Also Published As

Publication number Publication date
US10298876B2 (en) 2019-05-21
JPWO2016072120A1 (ja) 2017-08-17
JP2019213231A (ja) 2019-12-12
JP6773190B2 (ja) 2020-10-21
US20170244928A1 (en) 2017-08-24
WO2016072120A1 (ja) 2016-05-12

Similar Documents

Publication Publication Date Title
JP6773190B2 (ja) 情報処理システム、制御方法、および記憶媒体
JP6888096B2 (ja) ロボット、サーバおよびヒューマン・マシン・インタラクション方法
JP6561996B2 (ja) 情報処理装置、制御方法、および記憶媒体
JP6574937B2 (ja) 通信システム、制御方法、および記憶媒体
JP2017010516A (ja) 人工知能に基づくヒューマンコンピュータインターアクションの方法、装置及び端末機器
TWI752502B (zh) 一種分鏡效果的實現方法、電子設備及電腦可讀儲存介質
CN104298722A (zh) 多媒体交互系统及其方法
JP2011215964A (ja) サーバ装置、クライアント装置、コンテンツ推薦方法及びプログラム
US20210204023A1 (en) Methods and systems for improving user experience
JP2011118710A (ja) 楽曲推薦システム、情報処理装置、および情報処理方法
KR101727592B1 (ko) 감성추론 기반 사용자 맞춤형 실감미디어 재현 장치 및 방법
US20150339301A1 (en) Methods and systems for media synchronization
JP2011239141A (ja) 情報処理方法、情報処理装置、情景メタデータ抽出装置、欠損補完情報生成装置及びプログラム
Yoon et al. MPEG-V: Bridging the virtual and real world
US11176966B2 (en) Systems and methods for generating and presenting virtual experiences
US20180027090A1 (en) Information processing device, information processing method, and program
JP2016100033A (ja) 再生制御装置
CN111128103A (zh) 一种沉浸式ktv智能点唱系统
US20230128721A1 (en) Custom video workout programs for execution on an exercise machine
JP7136099B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2021026261A (ja) 情報処理システム、方法およびプログラム
JP2014142876A (ja) データ生成装置、コンテンツ再生装置、および記憶媒体
US11593426B2 (en) Information processing apparatus and information processing method
JP7027300B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
WO2022102550A1 (ja) 情報処理装置及び情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180619

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190212

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190405

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190528

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190902

R151 Written notification of patent or utility model registration

Ref document number: 6589880

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151