JP2020005150A - 録画再生装置及びプログラム - Google Patents

録画再生装置及びプログラム Download PDF

Info

Publication number
JP2020005150A
JP2020005150A JP2018123840A JP2018123840A JP2020005150A JP 2020005150 A JP2020005150 A JP 2020005150A JP 2018123840 A JP2018123840 A JP 2018123840A JP 2018123840 A JP2018123840 A JP 2018123840A JP 2020005150 A JP2020005150 A JP 2020005150A
Authority
JP
Japan
Prior art keywords
person
data
unit
surrounding
recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018123840A
Other languages
English (en)
Other versions
JP7065708B2 (ja
Inventor
裕之 川喜田
Hiroyuki Kawakita
裕之 川喜田
健介 久富
Kensuke Hisatomi
健介 久富
半田 拓也
Takuya Handa
拓也 半田
森田 寿哉
Hisaya Morita
寿哉 森田
賢充 原澤
Masamitsu Harasawa
賢充 原澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2018123840A priority Critical patent/JP7065708B2/ja
Publication of JP2020005150A publication Critical patent/JP2020005150A/ja
Application granted granted Critical
Publication of JP7065708B2 publication Critical patent/JP7065708B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】過去に視聴した番組について、そのときと同じ視聴体験を得ることが可能な録画再生装置を提供する。【解決手段】録画再生装置1−1の受信部10は、番組映像音声信号を記録部15に記録し、受信部11は、360度映像音声信号を360度映像信号及び360度音声信号に分離する。人物抽出部12は、360度映像信号から人物映像信号を抽出して記録部15に記録し、テレビ位置検出部13は、360度映像信号からテレビ位置を検出してテレビ位置データを記録部15に記録する。人物音声抽出部14は、360度音声信号に番組音声信号が含まれるか否かを判定して番組を特定し、360度音声信号と特定した番組の番組音声信号との間の差分を求め、差分信号を人物音声信号として記録部15に記録する。送信部16は、記録部15から番組映像音声信号、人物映像信号等を読み出し、これらのデータを再生機器3へ送信する。【選択図】図1

Description

本発明は、テレビ放送番組及び視聴環境を録画及び再生する録画再生装置及びプログラムに関する。
従来、人が知覚する現実環境をコンピュータにより拡張する技術として、AR(Augmented Reality:拡張現実)及びVR(Virtual Reality:仮想現実)が知られており、これらに関連するハードウェアの市場が将来に向けて拡大するものと予想される。
例えば、全方位撮影可能な360度カメラ(例えば特許文献1,2を参照。)、ユーザに装備されるウェアラブル360度カメラ(例えば非特許文献1を参照。)等が知られている。これらのカメラにより撮影された360度映像を録画し、録画したコンテンツの全部または一部を用いてARまたはVRの体験サービスを提供することができる。
特開2011−182003号公報 特開2011−160442号公報
FITT360-The First 360°Neckband Wearable Camera、[online]、Kickstarter、[平成30年4月28日検索]、インターネット<https://www.kickstarter.com/projects/467094941/fitt360-the-first-360-neckband-wearable-camera?lang=ja>
テレビ放送番組(以下、「番組」という。)を視聴するユーザは、その番組を録画再生装置に録画しておくことで、何時でも何度でも気軽に過去の番組へアクセスすることができる。
ここで、ユーザは、過去に視聴した番組について、そのときの感情を想起したいことがある。ユーザは、録画再生装置を用いて、過去に視聴した番組を再生することで、そのときの感情を想起することができる。
しかしながら、ユーザだけでなく、ユーザ本人以外の家族または友人等も一緒に番組を視聴していた場合には、同じ番組の再生だけでは、必ずしもそのときと同じ感情を想起できるとは限らない。
つまり、録画再生装置を用いて同じ番組を再生するだけでは、必ずしも同じ視聴体験を得ることができるとは限らない。なぜならば、視聴体験は、一緒に視聴していた家族または友人等のそのときのしぐさ、反応、会話等が重要な要素になるからである。
そこで、本発明は前記課題を解決するためになされたものであり、その目的は、過去に視聴した番組について、そのときと同じ視聴体験を得ることが可能な録画再生装置及びプログラムを提供することにある。
前記課題を解決するために、請求項1の録画再生装置は、テレビに再生した番組の映像及び音声を含む番組映像音声信号を記録部に記録し、前記番組を再生機器にて視聴するユーザの操作に従い、前記記録部から前記番組映像音声信号を読み出して前記再生機器へ送信する録画再生装置において、前記番組映像音声信号を受信し、当該番組映像音声信号をメインコンテンツとして前記記録部に記録する第1の受信部と、前記ユーザの周囲に存在する人物の映像、及び前記番組が再生されている前記テレビの映像を含む周囲映像信号を受信すると共に、前記ユーザの周囲から収音した周囲音声信号を受信する第2の受信部と、前記第2の受信部により受信された前記周囲映像信号から前記人物を抽出し、人物毎の人物映像信号を生成し、人物毎の前記人物映像信号をサブコンテンツとして前記記録部に記録する人物抽出部と、前記第2の受信部により受信された前記周囲映像信号から前記テレビの位置を検出し、前記番組映像音声信号における番組映像信号が前記再生機器により再生される位置を示すテレビ位置データを生成し、当該テレビ位置データを前記サブコンテンツとして前記記録部に記録するテレビ位置検出部と、前記記録部に記録された前記番組映像音声信号、及び前記第2の受信部により受信された前記周囲音声信号に基づいて、前記周囲音声信号に含まれる番組音声信号に対応する前記番組を特定し、前記周囲音声信号と、前記番組の前記番組映像音声信号における番組音声信号との間の差分を求め、前記ユーザの周囲に存在する前記人物の人物音声信号を生成し、当該人物音声信号を前記サブコンテンツとして前記記録部に記録する人物音声抽出部と、前記記録部から前記メインコンテンツ及び前記サブコンテンツを読み出し、当該メインコンテンツ及び当該サブコンテンツを前記再生機器へ送信する送信部と、を備えたことを特徴とする。
また、請求項2の録画再生装置は、請求項1に記載の録画再生装置において、前記人物抽出部の代わりに人物3D(3次元)生成部を備え、さらに、周囲3D生成部を備え、前記人物3D生成部が、前記第2の受信部により受信された前記周囲映像信号から前記人物を抽出し、人物毎の人物映像を生成し、前記周囲映像信号に含まれる前記人物の姿勢を推定し、前記人物の姿勢を示す人物毎のボーンデータを生成し、前記人物映像信号及び前記ボーンデータに基づいて、前記人物の3次元CGアニメーションのデータとして人物3Dデータを生成し、人物毎の前記人物3Dデータを前記サブコンテンツとして前記記録部に記録し、前記周囲3D生成部が、前記第2の受信部により受信された前記周囲映像信号からオブジェクトを抽出し、当該オブジェクトの3次元CGのデータを含む周囲3Dデータを生成し、当該周囲3Dデータを前記サブコンテンツとして前記記録部に記録し、前記記録部には、前記番組映像音声信号が前記メインコンテンツとして記録され、人物毎の前記人物3Dデータ、前記周囲3Dデータ、前記テレビ位置データ及び前記人物音声信号が前記サブコンテンツとして記録される、ことを特徴とする。
また、請求項3の録画再生装置は、請求項2に記載の録画再生装置において、さらに、第3の受信部、視線検出部及び補正部を備え、前記第3の受信部が、前記第2の受信部により受信された前記周囲映像信号とは異なる映像信号であって、前記ユーザの周囲に存在する前記人物を含む俯瞰映像信号を受信し、前記人物3D生成部が、前記周囲映像信号から前記人物を抽出し、人物毎の前記人物映像を生成し、前記周囲映像信号に含まれる前記人物の姿勢を推定すると共に、前記第3の受信部により受信された前記俯瞰映像信号に含まれる前記人物の姿勢を推定し、前記周囲映像信号及び前記俯瞰映像信号からそれぞれ推定した前記人物の姿勢に基づいて、前記人物の姿勢を示す人物毎の前記ボーンデータを生成し、前記人物映像信号及び前記ボーンデータに基づいて、前記人物3Dデータを生成し、前記視線検出部が、前記人物の視線を検出し、人物毎の視線方向データを生成し、前記補正部が、前記人物3D生成部により生成された前記人物3Dデータの視線方向が、前記視線検出部により生成された前記視線方向データの示す視線方向と一致するように、前記人物3Dデータを補正し、人物毎の補正後の前記人物3Dデータを前記サブコンテンツとして前記記録部に記録する、ことを特徴とする。
また、請求項4の録画再生装置は、請求項2に記載の録画再生装置において、前記人物3D生成部が、予め設定された人物毎の前記人物の3Dデータを入力し、前記周囲映像信号に含まれる前記人物の姿勢を推定し、前記人物の姿勢を示す人物毎の前記ボーンデータを生成し、前記3Dデータ及び前記ボーンデータに基づいて、前記人物の3次元CGアニメーションのデータとして事前人物3Dデータを生成し、当該事前人物3Dデータに、前記周囲映像信号に含まれる前記人物の映像を投影して上書きし、前記人物3Dデータを生成し、人物毎の前記人物3Dデータを前記サブコンテンツとして前記記録部に記録する、ことを特徴とする。
また、請求項5の録画再生装置は、請求項3に記載の録画再生装置において、前記人物3D生成部が、予め設定された人物毎の前記人物の3Dデータを入力し、前記周囲映像信号に含まれる前記人物の姿勢を推定すると共に、前記俯瞰映像信号に含まれる前記人物の姿勢を推定し、前記周囲映像信号及び前記俯瞰映像信号からそれぞれ推定した前記人物の姿勢に基づいて、前記人物の姿勢を示す人物毎の前記ボーンデータを生成し、前記3Dデータ及び前記ボーンデータに基づいて、前記人物の3次元CGアニメーションのデータとして事前人物3Dデータを生成し、当該事前人物3Dデータに、前記周囲映像信号に含まれる前記人物の映像を投影して上書きし、前記人物3Dデータを生成し、人物毎の前記人物3Dデータを前記サブコンテンツとして前記記録部に記録する、ことを特徴とする。
また、請求項6の録画再生装置は、請求項2から5までのいずれか一項に記載の録画再生装置において、前記周囲3D生成部が、予め設定された、前記ユーザの周囲の3Dデータを事前周囲3Dデータとして入力し、前記周囲映像信号から前記オブジェクトを抽出してオブジェクト映像を生成し、前記事前周囲3Dデータに含まれるオブジェクトに、対応する前記オブジェクト映像を投影して上書きし、前記周囲3Dデータを生成し、当該周囲3Dデータを前記サブコンテンツとして前記記録部に記録する、ことを特徴とする。
また、請求項7のプログラムは、コンピュータを、請求項1から6までのいずれか一項に記載の録画再生装置として機能させることを特徴とする。
以上のように、本発明によれば、過去に視聴した番組について、そのときと同じ視聴体験を得ることができる。
実施例1の録画再生装置の構成例を示すブロック図である。 実施例1の録画再生装置の処理例を示すフローチャートである。 人物音声抽出部の構成例を示すブロック図である。 実施例2の録画再生装置の構成例を示すブロック図である。 実施例2の録画再生装置の処理例を示すフローチャートである。 実施例2の第1変形例における人物3D生成部の構成例を示すブロック図である。 実施例2の第2変形例における周囲3D生成部の構成例を示すブロック図である。 実施例3の録画再生装置の構成例を示すブロック図である。
以下、本発明を実施するための形態について図面を用いて詳細に説明する。本発明は、ユーザである視聴者本人(第一者)等が視聴する番組の映像音声に加え、その番組を一緒に視聴する周囲の人物の反応等を含む部屋内の環境(視聴環境)の映像音声も記録することを特徴とする。ここで、第一者は、視聴体験を再現したい視聴者である。
これにより、番組の映像音声及び視聴環境の映像音声を再生することで、第一者は、過去に視聴した番組について、そのときと同じ視聴体験を得ることができる。例えば、視聴環境そのものを記録及び再生可能なARまたはVR技術によるサービスを実現することができる。
以下に説明する実施例1は、番組映像音声に加え、第一者から見た周囲の人物の2D(Dimension:次元)映像及び音声を記録する例である。実施例1では、例えばARグラスを用いることにより、番組映像音声及び周囲の人物の映像音声を2次元CGにて重ね合わせて再生することができる。
また、実施例2は、番組映像音声に加え、第一者から見た周囲の人物の3D(3次元)映像及び音声等を記録する例である。実施例2では、例えばARグラスを用いることにより、番組映像音声及び周囲の人物の映像音声を重ね合わせて再生することができる。また、例えばVRのHMD(Head Mounted Display)を用いることにより、周囲の人物等を3次元CGにて重ね合わせて再生することができる。
また、実施例3は、実施例2において、周囲の人物について精度の高い3D映像を記録する例である。実施例3では、周囲の人物についてリアリティ感の高い3次元CGにて再生することができる。
〔実施例1〕
まず、実施例1について説明する。前述のとおり、実施例1は、番組映像音声に加え、第一者から見た周囲の人物の2D映像及び音声を記録する例である。実施例1では、例えばARグラスを用いることにより、番組映像音声及び周囲の人物の映像音声を2次元CGにて重ね合わせて再生することができる。
図1は、実施例1の録画再生装置の構成例を示すブロック図であり、図2は、実施例1の録画再生装置の処理例を示すフローチャートである。この録画再生装置1−1は、受信部10,11、人物抽出部12、テレビ位置検出部13、人物音声抽出部14、記録部15及び送信部16を備えている。
第一者及び周囲の人物は、テレビに再生された番組を視聴しているものとする。受信部10は、第一者及び周囲の人物が視聴している番組について、その番組映像音声信号を受信する(ステップS201)。そして、受信部10は、番組映像音声信号をメインコンテンツとして記録部15に記録する(ステップS202)。番組映像音声信号は、番組映像信号及び番組音声信号を含んで構成される。
受信部11は、ウェアラブル360度カメラ2から、360度映像音声信号を受信する(ステップS203)。360度映像音声信号は、第一者を中心とした周囲の映像信号、及び第一者の位置にて収音した音声信号を含んで構成される。以下、説明の便宜上、前者の映像信号を360度映像信号といい、後者の音声信号を360度音声信号という。
360度映像信号は、第一者の周囲にいる人物の映像、番組が再生されているテレビの映像等を含む横方向の映像の周囲映像信号であり、360度音声信号は、第一者の周囲の人物の音声を含む、周囲から収音した周囲音声信号である。
ここで、ウェアラブル360度カメラ2は、第一者に着用され、第一者の周囲の360度映像を撮影すると共に、音声を収音し、360度映像及び音声が同期した360度映像音声信号を生成し、360度映像音声信号を録画再生装置1−1へ送信する。
受信部11は、360度映像音声信号を360度映像信号と360度音声信号とに分離する(ステップS204)。そして、受信部11は、360度映像信号を人物抽出部12及びテレビ位置検出部13に出力し、360度音声信号を人物音声抽出部14に出力する。
尚、受信部11は、ウェアラブル360度カメラ2から、同期した360度映像信号及び360度音声信号をそれぞれ受信するようにしてもよい。
人物抽出部12は、受信部11から360度映像信号を入力し、360度映像信号を所定の人物抽出処理にて解析し、360度映像信号の映像から、第一者の周囲にいる人物の映像を抽出する。そして、人物抽出部12は、人物毎の映像信号(人物映像信号)をサブコンテンツとして記録部15に記録する(ステップS205)。
人物抽出部12による人物抽出処理は既知であり、例えば以下の技術が用いられる。この人物抽出処理は、CNN(Convolutional Neural Network:畳み込みニューラルネットワーク)を用いたセグメンテーション技術によるものであり、360度映像信号を人物のいる前景と人物のいない背景とに分離する処理である。
“Google(登録商標)、CNNを用いて人物などの前景と背景を分離するモバイルベースのリアルタイムビデオセグメント技術を発表。YouTube(登録商標)に統合”、[online]、[平成30年5月11日検索]、インターネット<http://shiropen.com/2018/03/02/32805>
テレビ位置検出部13は、受信部11から360度映像信号を入力し、360度映像信号を所定のオブジェクト抽出処理及びテレビ位置(姿勢を含む)検出処理にて解析する。そして、テレビ位置検出部13は、360度映像信号の映像からテレビの映像を抽出し、映像全体の中でテレビの位置(姿勢を含む)を特定し、テレビの位置を示すテレビ位置データを生成する。テレビ位置検出部13は、テレビ位置データをサブコンテンツとして記録部15に記録する(ステップS206)。
テレビ位置検出部13によるオブジェクト抽出処理及びテレビ位置(姿勢を含む)検出処理は既知であり、例えば以下の技術が用いられる。
“携帯端末のカメラによるTV画面の位置と姿勢の推定方法”、情報処理学会論文誌(CDS:コンシューマ・デバイス&システム)、vol.5、no.4、2015、p.61-69
“家庭内リビングにおけるテレビ位置検出手法に関する一検討”、2016年映像情報メディア学会冬季大会講演予稿集、22B-6、2016
テレビ位置データは、後述する再生機器3であるARグラスまたはVRのHMD(Head Mounted Display:頭部装着ディスプレイ)が番組映像信号を再生する位置を示すデータである。また、テレビ位置データは、再生機器3が人物毎の人物映像信号を再生する際に、その再生位置を特定する基準となるデータとして用いることができる。
人物音声抽出部14は、受信部11から360度音声信号を入力すると共に、記録部15からメインコンテンツである番組映像音声信号を読み出す。そして、人物音声抽出部14は、番組映像音声信号から番組音声信号を分離し、360度音声信号を所定の番組音声特定処理にて解析し、360度音声信号に番組音声信号が含まれるか否かを判定する。人物音声抽出部14は、360度音声信号に含まれる番組音声信号に対応する番組を特定する。
人物音声抽出部14は、360度音声信号と特定した番組の番組音声信号との間の差分を求め、第一者の周囲にいる人物の音声信号(人物音声信号)を生成することで、360度音声信号から人物音声信号を抽出する。そして、人物音声抽出部14は、人物音声信号をサブコンテンツとして記録部15に記録する(ステップS207)。この人物音声信号は、視聴環境の環境音に相当する。
人物音声抽出部14による番組音声特定処理は既知であり、例えば以下の技術が用いられる。この番組音声特定処理は、ACR(Automatic Contents Recognition:自動コンテンツ認識)技術によるものであり、360度音声信号及び番組音声信号の特徴点を抽出し、両信号間で特徴点のパターンを比較するマッチングを行い、360度音声信号から番組音声信号に対応する番組を特定する処理である。
“Evixar ACR(自動コンテンツ認識)、音センシング”、[online]、[平成30年5月11日検索]、インターネット<https://www.evixar.com/evixaracr>
図3は、人物音声抽出部14の構成例を示すブロック図である。この人物音声抽出部14は、番組特定部40及び減算部41を備えている。
番組特定部40は、受信部11から360度音声信号を入力すると共に、記録部15からメインコンテンツである番組映像音声信号を読み出し、番組映像音声信号から番組音声信号を分離する。そして、番組特定部40は、前述のACR技術により、360度音声信号と番組音声信号との間で特徴点のパターンを比較するマッチングを行い、360度音声信号に番組音声信号が含まれるか否かを判定する。
番組特定部40は、360度音声信号に番組音声信号が含まれると判定した場合、当該番組音声信号の番組を、360度音声信号に含まれる番組音声信号の番組として特定し、360度音声信号内の位置を特定する。そして、番組特定部40は、特定した番組の番組音声信号を減算部41に出力する。
一方、番組特定部40は、360度音声信号に番組音声信号が含まれていないと判定した場合、すなわち360度音声信号に含まれる番組音声信号に対応する番組を特定できない場合、記録部15から他の番組映像音声信号を読み出す。そして、番組特定部40は、360度音声信号に番組音声信号が含まれるか否かを判定する。
このように、番組特定部40により、360度音声信号に含まれる番組及びその位置が特定され、その番組の番組音声信号が減算部41に出力される。
減算部41は、受信部11から360度音声信号を入力すると共に、番組特定部40から番組音声信号を入力する。そして、減算部41は、360度音声信号における特定された位置を基準として、360度音声信号から番組音声信号を減算することで差分信号を求め、これを人物音声信号とする。減算部41は、人物音声信号をサブコンテンツとして記録部15に記録する。
図1及び図2に戻って、ステップS201〜S207により、記録部15には、メインコンテンツとして複数の番組映像音声信号が記録される。また、サブコンテンツとして、複数の番組映像音声のそれぞれに対応する、第一者の周囲にいる人物に関する人物映像信号、人物音声信号及びテレビ位置データが記録される。
ここで、ユーザである第一者は、ARグラス(再生機器3)を着用し、記録部15に記録されたメインコンテンツ等を視聴するものとする。この場合、第一者は、メインコンテンツ等が記録部15に記録されたときと同じ部屋の同じ位置で視聴を行う必要がある。再生機器3は、第一者の操作に従って所定のアプリを起動し、第一者の選択操作に従い、複数のメインコンテンツから再生対象のメインコンテンツを選択する。
そうすると、送信部16は、記録部15から、選択されたメインコンテンツである番組映像音声信号を読み出すと共に、当該番組映像音声信号に対応するサブコンテンツである人物毎の人物映像信号、人物音声信号及びテレビ位置データを読み出す。
送信部16は、メインコンテンツである番組映像音声信号、並びにサブコンテンツである人物毎の人物映像信号、人物音声信号及びテレビ位置データを、メインコンテンツ及びサブコンテンツを再生するためのデータとして再生機器3へ送信する(ステップS208)。
再生機器3は、例えばAR用の再生機器である。再生機器3は、録画再生装置1−1から、メインコンテンツである番組映像音声信号、並びにサブコンテンツである人物毎の人物映像信号、人物音声信号及びテレビ位置データを受信し、番組映像音声信号を番組映像信号及び番組音声信号に分離する。
再生機器3は、テレビ位置データの示す位置に、メインコンテンツの番組映像信号を再生する。また、再生機器3は、第一者の周囲の所定位置(テレビ位置データの示す位置を基準とした人物毎の所定位置)に、サブコンテンツの人物毎の人物映像信号をそれぞれ再生し、さらに、番組音声信号及び人物音声信号を再生する。
この場合、人物映像信号が再生される所定位置は、人物毎の位置データとして、第一者により予め設定されるようにしてもよい。再生機器3は、予め設定された人物毎の位置データに従い、それぞれの位置に、人物毎の人物映像信号を再生する。
また、人物映像信号が再生される所定位置は、再生機器3が録画再生装置1−1から受信するようにしてもよい。具体的には、録画再生装置1−1の人物抽出部12は、360度映像信号の映像から人物映像を抽出する際に、テレビ位置検出部13により検出されたテレビ位置データを基準として、その人物映像の位置を特定する。そして、人物抽出部12は、人物映像信号に位置データを付加して記録部15に記録する。送信部16は、人物映像信号及び位置データを再生機器3へ送信する。
再生機器3は、録画再生装置1−1から、人物毎の人物映像信号と共に位置データも受信し、人物毎の位置データに従い、テレビの位置を基準としたそれぞれの位置に、人物毎の人物映像信号をそれぞれ再生する。
以上のように、実施例1の録画再生装置1−1によれば、受信部10は、番組映像信号をメインコンテンツとして記録部15に記録し、受信部11は、360度映像音声信号を360度映像信号及び360度音声信号に分離する。
人物抽出部12は、360度映像信号の映像から人物映像を抽出し、人物毎の人物映像信号をサブコンテンツとして記録部15に記録する。また、テレビ位置検出部13は、360度映像信号からテレビ位置を検出し、テレビ位置データをサブコンテンツとして記録部15に記録する。
人物音声抽出部14は、記録部15から読み出した番組映像音声信号から番組音声信号を分離し、360度音声信号に番組音声信号が含まれるか否かを判定し、番組を特定する。そして、人物音声抽出部14は、360度音声信号と特定した番組の番組音声信号との間の差分を求めることで、360度音声信号から人物音声信号を抽出する。人物音声抽出部14は、人物音声信号をサブコンテンツとして記録部15に記録する。
送信部16は、第一者であるユーザの操作に従い、記録部15からメインコンテンツである番組映像音声信号、当該番組映像音声信号に対応するサブコンテンツである人物毎の人物映像信号、人物音声信号及びテレビ位置データを読み出す。そして、送信部16は、これらのデータを再生機器3へ送信する。
これにより、例えば第一者が再生機器3であるARグラスを着用している場合、ARグラスには、メインコンテンツがテレビ画面上にオーバーレイ表示されると共にその音声が再生され、同時に、サブコンテンツである周囲の人物の映像及び音声が再生される。第一者は、ARグラスにて、人物以外の周囲について再生時の周囲環境を見ることとなる。
このように、ARグラスを用いることにより、メインコンテンツが再生されると共に、第一者の周囲にいる人物の反応等が再現されるから、過去に視聴した番組について、そのときと同じ視聴体験を得ることができる。また、従来のメインコンテンツだけの再生に比べ、より再現性の高い視聴体験を得ることができる。
〔実施例2〕
次に、実施例2について説明する。前述のとおり、実施例2は、番組映像音声に加え、第一者から見た周囲の人物の3D映像及び音声等を記録する例である。実施例2では、例えばARグラスを用いることにより、番組映像音声及び周囲の人物の映像音声を重ね合わせて再生することができる。また、例えばVRのHMDを用いることにより、周囲の人物等を3次元CGにて重ね合わせて再生することができる。
図4は、実施例2の録画再生装置の構成例を示すブロック図であり、図5は、実施例2の録画再生装置の処理例を示すフローチャートである。この録画再生装置1−2は、受信部10,11、人物3D生成部20、周囲3D生成部21、テレビ位置検出部13、人物音声抽出部14、記録部15及び送信部16を備えている。
受信部10は、図1に示した実施例1と同様に、番組映像音声信号を受信し(ステップS501)、番組映像音声信号をメインコンテンツとして記録部15に記録する(ステップS502)。
受信部11は、図1に示した実施例1と同様に、ウェアラブル360度カメラ2から360度映像音声信号を受信し(ステップS503)、360度映像音声信号を360度映像信号及び360度音声信号に分離する(ステップS504)。そして、受信部11は、360度映像信号を人物3D生成部20、周囲3D生成部21及びテレビ位置検出部13に出力し、360度音声信号を人物音声抽出部14に出力する。
人物3D生成部20は、受信部11から360度映像信号を入力し、360度映像信号の映像から人物映像を抽出すると共に、人物の姿勢を示すボーンデータを推定する。そして、人物3D生成部20は、人物映像信号及びボーンデータに基づいて人物3Dデータを生成し、人物毎の人物3Dデータをサブコンテンツとして記録部15に記録する(ステップS505)。人物3Dデータは、人物の3次元CGアニメーションのデータである。
人物3D生成部20は、人物抽出部12、姿勢推定部22及び生成部23を備えている。人物抽出部12は、図1に示した実施例1と同様に、受信部11から360度映像信号を入力し、360度映像信号を所定の人物抽出処理にて解析し、360度映像信号から人物映像信号のテクスチャ情報を抽出する。そして、人物抽出部12は、人物毎の人物映像信号のテクスチャ情報を生成部23に出力する。
姿勢推定部22は、受信部11から360度映像信号を入力し、360度映像信号を所定の姿勢推定処理にて解析し、360度映像信号に含まれる人物映像の体、手、顔等の部位を検出し、人物毎の姿勢を推定する。姿勢推定部22は、人物毎の姿勢を示すボーンデータを生成し、人物毎のボーンデータを生成部23に出力する。
姿勢推定部22による姿勢推定処理は既知であり、例えば以下の技術が用いられる。この姿勢推定処理は、スケルトン検出アルゴリズムによるものであり、360度映像信号に含まれる人物映像の体、手、顔等の部位を検出し、関節等のキーポイントを基準として、所定のキーポイントを接続した直線で表すことで、人物毎の姿勢を推定する処理である。
“SMPLify: 3D Human Pose and Shape from a Single Image (ECCV 2016)”、[online]、[平成30年5月11日検索]、インターネット<https://www.youtube.com/watch?v=eUnZ2rjxGaE>
生成部23は、人物抽出部12から人物毎の人物映像信号を入力すると共に、姿勢推定部22から人物毎のボーンデータを入力する。そして、生成部23は、対応する人物映像信号及びボーンデータを所定の人物3Dデータ生成処理にて解析する。生成部23は、ボーンデータ(ボーンデータから得られる人物の3次元モデル)に人物映像信号を投影して上書きし、人物3Dデータ(人物の3次元CGアニメーション)を生成する。生成部23は、人物毎の人物3Dデータをサブコンテンツとして記録部15に記録する。
生成部23による人物3Dデータ生成処理は既知であり、例えば以下の技術が用いられる。この人物3Dデータ生成処理は、人物映像信号及びボーンデータの合成技術によるものであり、ボーンデータに対して人物映像信号を貼り付ける処理である。
“SMPLify: 3D Human Pose and Shape from a Single Image (ECCV 2016)”、[online]、[平成30年5月11日検索]、インターネット<https://www.youtube.com/watch?v=eUnZ2rjxGaE>
“単眼カメラで撮影した映像を入力に、人の姿勢推定から着用する衣服まで再構築するマーカレスパフォーマンスキャプチャ技術を発表” 、[online]、[平成30年6月15日検索]、インターネット<https://shiropen.com/seamless/vr-monoperfcap>
周囲3D生成部21は、受信部11から360度映像信号を入力し、360度映像信号を所定の周囲3Dデータ生成処理にて解析し、360度映像信号に基づいて、第一者の周囲にあるオブジェクト(第一者の周囲にいる人物及び周囲に存在する物)の3Dデータを含む周囲3Dデータを生成する。周囲3D生成部21は、周囲3Dデータをサブコンテンツとして記録部15に記録する(ステップS506)。周囲3Dデータは、オブジェクトの3次元CGを含む周囲の映像に関するデータである。
周囲3D生成部21による周囲3Dデータ生成処理は既知であり、例えば以下の技術が用いられる。この周囲3Dデータ生成処理は、フォトグラメトリー(写真測量法)によるものであり、360度映像信号に含まれるオブジェクトを検出し、オブジェクトの複数の映像信号に基づいて、オブジェクトの3Dデータを生成する処理である。フォトグラメトリーは、3Dの物体を複数の観測点から撮影して得た2次元画像から、視差情報を解析して寸法及び形状を求める写真測量法である。
““フォトグラメトリー”を駆使して現実を3Dで再現「長崎の教会群」VRコンテンツ公開”、[online]、[平成30年5月11日検索]、インターネット<http://www.moguravr.com/hacosco-nagasaki-vr/>
“3DF Zephyr”、[online]、[平成30年5月11日検索]、インターネット<https://www.3dflow.net/3df-zephyr-pro-3d-models-from-photos/>
テレビ位置検出部13は、図1に示した実施例1と同様に、受信部11から360度映像信号を入力し、360度映像信号の映像からテレビの映像を抽出する。そして、テレビ位置検出部13は、映像全体の中でテレビの位置を特定し、テレビの位置を示すテレビ位置データを生成し、テレビ位置データをサブコンテンツとして記録部15に記録する(ステップS507)。
人物音声抽出部14は、図1に示した実施例1と同様に、受信部11から360度音声信号を入力すると共に、記録部15からメインコンテンツである番組映像音声信号を読み出す。そして、人物音声抽出部14は、番組映像音声信号から番組音声信号を分離し、番組を特定する。人物音声抽出部14は、360度音声信号と特定した番組の番組音声信号との間の差分を求め、人物音声信号を生成することで、360度音声信号から人物音声信号を抽出する。人物音声抽出部14は、人物音声信号をサブコンテンツとして記録部15に記録する(ステップS508)。
これにより、記録部15には、メインコンテンツとして複数の番組映像音声が記録される。また、記録部15には、サブコンテンツとして、複数の番組映像音声のそれぞれに対応する、第一者の周囲にいる人物に関する人物毎の人物3Dデータ、第一者の周囲の周囲3Dデータ、人物音声信号及びテレビ位置データが記録される。
ここで、ユーザである第一者は、再生機器3であるARグラスまたはVRのHMDを着用し、記録部15に記録されたメインコンテンツ等を視聴するものとする。再生機器3は、第一者の操作に従って所定のアプリを起動し、第一者の選択操作に従い、複数のメインコンテンツから再生対象のメインコンテンツを選択する。
そうすると、送信部16は、記録部15から、選択されたメインコンテンツである番組映像音声信号を読み出すと共に、当該番組映像音声信号に対応するサブコンテンツである人物毎の人物3Dデータ、周囲3Dデータ、人物音声信号及びテレビ位置データを読み出す。
送信部16は、メインコンテンツである番組映像音声信号、並びにサブコンテンツである人物毎の人物3Dデータ、周囲3Dデータ、人物音声信号及びテレビ位置データを、メインコンテンツ及びサブコンテンツを再生するためのデータとして再生機器3へ送信する(ステップS509)。
再生機器3は、例えばAR用の再生機器またはVR用の再生機器である。再生機器3は、録画再生装置1−2から、メインコンテンツである番組映像音声信号、並びにサブコンテンツである人物毎の人物3Dデータ、周囲3Dデータ、人物音声信号及びテレビ位置データを受信し、番組映像音声信号を番組映像信号及び番組音声信号に分離する。
再生機器3がAR用の再生機器である場合、再生機器3は、実施例1と同様に、テレビ位置データの示す位置に、メインコンテンツの番組映像信号を再生する。また、再生機器3は、第一者の周囲の所定位置に、サブコンテンツの人物3Dデータを再生すると共に、番組音声信号及び人物音声信号を再生する。人物3Dデータが再生される所定位置の位置データは、実施例1と同様に、第一者により予め設定されるようにしてもよいし、再生機器3が録画再生装置1−2から受信するようにしてもよい。
再生機器3がVR用の再生機器である場合、再生機器3は、サブコンテンツの周囲3Dデータを再生すると共に、周囲3Dデータからテレビを検出し、その位置にメインコンテンツの番組映像信号を再生する。また、再生機器3は、周囲3Dデータから人物を検出し、その位置にサブコンテンツの人物3Dデータを再生し、番組音声信号及び人物音声信号を再生する。
以上のように、実施例2の録画再生装置1−2によれば、受信部10は、番組映像信号をメインコンテンツとして記録部15に記録し、受信部11は、360度映像音声信号を360度映像信号及び360度音声信号に分離する。
人物3D生成部20は、人物抽出部12にて360度映像信号の映像から人物映像を抽出し、姿勢推定部22にて360度映像信号から人物のボーンデータを推定し、生成部23にて人物映像信号及びボーンデータに基づいて人物3Dデータを生成する。そして、人物3D生成部20は、人物毎の人物3Dデータをサブコンテンツとして記録部15に記録する。
周囲3D生成部21は、360度映像信号から周囲のオブジェクトの3Dデータを含む周囲3Dデータを生成し、周囲3Dデータをサブコンテンツとして記録部15に記録する。テレビ位置検出部13は、360度映像信号からテレビ位置を検出し、テレビ位置データをサブコンテンツとして記録部15に記録する。
人物音声抽出部14は、記録部15から読み出した番組映像音声信号から番組音声信号を分離し、360度音声信号に番組音声信号が含まれるか否かを判定し、番組を特定する。そして、人物音声抽出部14は、360度音声信号と特定した番組の番組音声信号との間の差分を求めることで、360度音声信号から人物音声信号を抽出する。人物音声抽出部14は、人物音声信号をサブコンテンツとして記録部15に記録する。
送信部16は、第一者であるユーザの操作に従い、記録部15からメインコンテンツである番組映像音声信号、当該番組映像音声信号に対応するサブコンテンツである人物毎の人物3Dデータ、周囲3Dデータ、人物音声信号及びテレビ位置データを読み出す。そして、送信部16は、これらのデータを再生機器3へ送信する。
これにより、例えば第一者が再生機器3であるARグラスを着用している場合、ARグラスには、メインコンテンツがテレビ画面上にオーバーレイ表示されると共にその音声が再生される。また、ARグラスには、同時にサブコンテンツである人物3Dデータによる映像が周囲の人物の3次元アニメーションとして再生され、人物の音声が再生される。第一者は、ARグラスにて、人物以外の周囲について再生時の周囲環境を見ることとなる。
また、例えば第一者がVRのHMDである再生機器3を着用している場合、VRのHMDには、サブコンテンツである周囲3Dデータによる周囲の人物以外のオブジェクトが3次元CGとして再生される。また、VRのHMDには、メインコンテンツがテレビ画面上にオーバーレイ表示されると共にその音声が再生される。さらに、VRのHMDには、人物以外の3次元CGと共に、サブコンテンツである人物3Dデータによる映像が周囲の人物の3次元アニメーションとして再生され、人物の音声が再生される。
つまり、VRのHMDには、サブコンテンツである周囲3Dデータによる人物以外の3次元CGを背景として、サブコンテンツである人物3Dデータによる人物の3次元CGアニメーション及びメインコンテンツがオーバーレイ表示される。
このように、ARグラスまたはVRのHMDを用いることにより、メインコンテンツが再生されると共に、第一者の周囲にいる人物の反応等が再現されるから、過去に視聴した番組について、そのときと同じ視聴体験及び新たな視聴体験を得ることができる。
ARグラスを用いた場合には、任意の視点に移動することができ、新たな視聴体験を得ることができる。さらに、再生時には、第一者の周囲の映像のうち人物以外の映像は再生時(現在)の周囲状況であるから、記録時の過去の状況と再生時の現在の状況との差を強調した視聴体験を得ることができる。
また、VRのHMDを用いた場合も、任意の視点に移動することができ、新たな視聴体験を得ることができる。また、視聴環境全体の再生が可能であるから、任意の場所で再生することができる。
〔実施例2の第1変形例〕
次に、実施例2の第1変形例について説明する。実施例2の第1変形例は、実施例2において人物3Dデータを生成する際に、事前の撮影により得られた人物の3Dデータ(事前人物3Dデータ)を用いる例である。
実施例2の録画再生装置1−2と実施例2の第1変形例の録画再生装置1−2とを比較すると、実施例2の第1変形例の録画再生装置1−2は、実施例2の人物3D生成部20とは異なる人物3D生成部20’を備えている点で相違する。
図6は、実施例2の第1変形例における人物3D生成部の構成例を示すブロック図である。この人物3D生成部20’は、姿勢推定部22、事前人物3D生成部24及び生成部25を備えている。
人物3D生成部20’は、受信部11から360度映像信号を入力し、360度映像信号から、人物の姿勢を示すボーンデータを推定し、予め設定された事前人物3Dデータ及び推定したボーンデータに基づいて、人物毎の事前人物3Dデータを生成する。そして、人物3D生成部20’は、事前人物3Dデータに、360度映像信号に含まれる人物映像の信号を投影して上書きすることで、人物3Dデータを生成し、人物毎の人物3Dデータをサブコンテンツとして記録部15に記録する。
人物3D生成部20’の姿勢推定部22は、図4に示した実施例2と同様に、受信部11から360度映像信号を入力し、人物毎の姿勢を推定する。そして、姿勢推定部22は、人物毎の姿勢を示すボーンデータを事前人物3D生成部24に出力する。
事前人物3D生成部24は、姿勢推定部22から人物毎のボーンデータを入力すると共に、予め設定された人物毎の事前人物3Dデータを入力する。そして、事前人物3D生成部24は、事前人物3Dデータ及びボーンデータを所定の人物3Dデータ生成処理にて解析し、基本となる人物の3次元モデルを示す人物毎の事前人物3Dデータを生成する。
事前人物3D生成部24による人物3Dデータ生成処理は既知であり、例えば以下の技術が用いられる。この人物3Dデータ生成処理は、事前人物3Dデータにボーンデータをセットアップした後に、人物の動きを付けるための仕組み(リグ)を生成するリギング処理である。
“クイックリグ(Quick Rig)ツール”、[online]、[平成30年6月15日検索]、インターネット<https://knowledge.autodesk.com/ja/support/maya/learn-explore/caas/CloudHelp/cloudhelp/2018/JPN/Maya-CharacterAnimation/files/GUID-DC29C982-D04F-4C20-9DBA-4BBB33E027EF-htm.html>
予め設定された事前人物3Dデータは、第一者の周囲にいる人物について、3D全身スキャン処理または単眼カメラによる3Dモデリング処理により構築された3Dデータであり、人物の3次元CGアニメーションのデータである。
3D全身スキャン処理は既知であり、例えば以下の技術が用いられる。
“SHUN’X 全身高速3Dスキャナーシステム”、[online]、[平成30年5月11日検索]、インターネット<https:// http://www.vrcjp.com/home.jsf>
また、単眼カメラによる3Dモデリング処理は既知であり、例えば以下の技術が用いられる。
“ブラウンシュヴァイク工科大学ら、1台の単眼カメラから人体3Dアバターを4.5mm精度で生成する機械学習を用いた手法を発表”、[online]、[平成30年5月11日検索]、インターネット<https://shiropen.com/seamless/ai-3d-people-models>
生成部25は、受信部11から360度映像信号を入力すると共に、事前人物3D生成部24から人物毎の事前人物3Dデータを入力し、図4に示した人物抽出部12と同様に、360度映像信号の映像から人物映像を抽出する。そして、生成部25は、人物映像信号と事前人物3Dデータとをマッチング処理にて対応付ける。
生成部25は、所定の投影処理により、事前人物3Dデータに、対応する人物映像信号を投影して上書きすることで、人物3Dデータを生成し、人物毎の人物3Dデータをサブコンテンツとして記録部15に記録する。
これにより、事前の撮影により事前人物3Dデータが得られたときの過去の人物映像ではなく、第一者が番組を視聴しているときの現在の人物映像が反映された人物3Dデータが得られる。
生成部25による投影処理は既知であり、例えば以下の技術が用いられる。この投影処理は、一般的な投影マッピングによるものであり、オブジェクトである事前人物3Dデータに、マテリアルである人物映像信号を投影する処理である。
“プロジェクター”、[online]、[平成30年5月11日検索]、インターネット<https://docs.unity3d.com/ja/current/Manual/class-Projector.html>
“Easy Decal 大きな凹凸がある表面でもデカールが貼れる!Terrainでも大丈夫!動的に変化可能なデカールシステム”、[online]、[平成30年5月11日検索]、インターネット<http://www.asset-sale.net/entry/Easy_Decal>
以上のように、実施例2の第1変形例の録画再生装置1−2によれば、人物3D生成部20’は、360度映像から、人物の姿勢を示すボーンデータを推定し、予め設定された事前人物3Dデータ及び推定したボーンデータに基づいて、事前人物3Dデータを生成する。そして、人物3D生成部20’は、事前人物3Dデータに、360度映像信号に含まれる人物映像信号を投影して上書きすることで人物3Dデータを生成し、人物毎の人物3Dデータをサブコンテンツとして記録部15に記録する。
これにより、実施例2よりも精度の高い人物3Dデータが記録部15に記録されるから、再生時には、人物3Dデータによる周囲の人物が3次元アニメーションとして、より現実に近い状態で再生することができる。
〔実施例2の第2変形例〕
次に、実施例2の第2変形例について説明する。実施例2の第2変形例は、実施例2において周囲3Dデータを生成する際に、事前の撮影により得られた第一者の周囲の3Dデータ(事前周囲3Dデータ)を用いる例である。
実施例2の録画再生装置1−2と実施例2の第2変形例の録画再生装置1−2とを比較すると、実施例2の第2変形例の録画再生装置1−2は、実施例2の周囲3D生成部21とは異なる周囲3D生成部21’を備えている点で相違する。
図7は、実施例2の第2変形例における周囲3D生成部の構成例を示すブロック図である。この周囲3D生成部21’は生成部26を備えている。
生成部26は、受信部11から360度映像信号を入力すると共に、予め設定された事前周囲3Dデータを入力する。そして、生成部26は、360度映像信号からオブジェクトを抽出し、オブジェクト映像信号を生成する。
生成部26は、事前周囲3Dデータからオブジェクトを抽出し、360度映像信号から抽出したオブジェクトと、事前周囲3Dデータから抽出したオブジェクトとをマッチング処理にて対応付ける。そして、生成部26は、事前周囲3Dデータのオブジェクトに、対応するオブジェクト映像信号を投影して上書きすることで、周囲3Dデータを生成し、周囲3Dデータをサブコンテンツとして記録部15に記録する。
これにより、事前の撮影により事前周囲3Dデータが得られたときの過去のオブジェクト映像ではなく、第一者が番組を視聴しているときの現在のオブジェクト映像が反映された周囲3Dデータが得られる。
予め設定された事前周囲3Dデータは、ウェアラブル360度カメラ2等を用いて事前に視聴が行われる部屋内を移動しながら撮影し、撮影した複数の映像を用いて、前述の周囲3Dデータ生成処理のフォトグラメトリーにより構築された3Dデータである。この事前周囲3Dデータには、撮影されたオブジェクトが3次元CGで表された3Dデータが含まれる。
以上のように、実施例2の第2変形例の録画再生装置1−2によれば、周囲3D生成部21’は、事前周囲3Dデータに、360度映像信号に含まれるオブジェクトの映像を投影して上書きすることで、周囲3Dデータを生成する。そして、周囲3D生成部21’は、周囲3Dデータをサブコンテンツとして記録部15に記録する。
これにより、実施例2よりも精度の高い周囲3Dデータが記録部15に記録されるから、再生時には、周囲3Dデータによる周囲の人物以外のオブジェクトを3次元CGとして、より現実に近い状態で再生することができる。
〔実施例3〕
次に、実施例3について説明する。前述のとおり、実施例3は、実施例2において、周囲の人物について精度の高い3D映像を記録する例である。実施例3では、周囲の人物についてリアリティ感の高い3次元CGにて再生することができる。
図8は、実施例3の録画再生装置の構成例を示すブロック図である。この録画再生装置1−3は、受信部10,11,30、人物3D生成部32、周囲3D生成部21、テレビ位置検出部13、人物音声抽出部14、視線検出部31、補正部33、記録部15及び送信部16を備えている。
図4に示した実施例2の録画再生装置1−2とこの録画再生装置1−3とを比較すると、両録画再生装置1−2,1−3は、受信部10,11、周囲3D生成部21、テレビ位置検出部13、人物音声抽出部14、記録部15及び送信部16を備えている点で同一である。一方、録画再生装置1−3は、録画再生装置1−2の人物3D生成部20とは異なる人物3D生成部32を備え、さらに、受信部30、視線検出部31及び補正部33を備えている点で相違する。
録画再生装置1−3は、図5に示したステップS501〜S504,S506〜509と同一の処理を行う。録画再生装置1−3は、ステップS505において、360度映像信号、人物の俯瞰映像信号及び視線方向データに基づいて、人物3Dデータを生成し、人物毎の人物3Dデータをサブコンテンツとして記録部15に記録する。
受信部10は、図4に示した実施例2と同様に、番組映像音声信号を受信し、番組映像音声信号をメインコンテンツとして記録部15に記録する。
受信部11は、図4に示した実施例2と同様に、ウェアラブル360度カメラ2から360度映像音声信号を受信し、360度映像音声信号を360度映像信号及び360度音声信号に分離する。そして、受信部11は、360度映像信号を人物3D生成部32、周囲3D生成部21及びテレビ位置検出部13に出力し、360度音声信号を人物音声抽出部14に出力する。
受信部30は、俯瞰カメラ4から人物の俯瞰映像信号を受信し、俯瞰映像信号を人物3D生成部32に出力する。俯瞰カメラ4は、視聴が行われる部屋に設置され、第一者の周囲の人物を俯瞰した状態で撮影し、人物の俯瞰映像信号を録画再生装置1−3へ送信する。
この俯瞰カメラ4は、人物3D生成部32にて高精度のボーンデータを生成するために用いられ、結果として高精度の人物3Dデータを生成するために用いられる。俯瞰映像信号は、受信部11から出力される360度映像信号とは異なる信号であり、360度映像信号とは異なる角度から人物が撮影された信号である。
人物3D生成部32は、受信部11から360度映像信号を入力すると共に、受信部30から人物の俯瞰映像信号を入力し、360度映像信号の映像から人物の映像を抽出し、人物映像信号を生成する。人物3D生成部32は、人物映像信号及び人物の俯瞰映像信号から、人物の姿勢を示す人物毎のボーンデータを推定する。そして、人物3D生成部32は、人物映像信号及びボーンデータに基づいて人物3Dデータを生成し、人物毎の人物3Dデータを補正部33に出力する。
人物3D生成部32は、人物抽出部12、姿勢推定部27及び生成部23を備えている。人物抽出部12は、図4に示した実施例2と同様に、受信部11から360度映像信号を入力し、360度映像信号から人物映像信号のテクスチャ情報を抽出する。そして、人物抽出部12は、人物毎の人物映像信号のテクスチャ情報を生成部23に出力する。
姿勢推定部27は、受信部11から360度映像信号を入力すると共に、受信部30から人物の俯瞰映像信号を入力する。そして、姿勢推定部27は、図4に示した姿勢推定部22と同様に、360度映像信号を所定の姿勢推定処理にて解析し、360度映像信号に含まれる人物映像の体、手、顔等の部位を検出し、人物毎の姿勢を推定する。姿勢推定部27は、360度映像信号と同様に、俯瞰映像信号を所定の姿勢推定処理にて解析し、俯瞰映像信号に含まれる人物映像の体、手、顔等の部位を検出し、人物毎の姿勢を推定する。
姿勢推定部27は、360度映像信号から推定した姿勢及び俯瞰映像信号から推定した姿勢を用いて、関節が外れたり不自然な角度になったりしないで姿勢の自然さを最適化するように、三角測量の要領で3次元位置を特定し、人物毎の姿勢を示すボーンデータを生成する。そして、姿勢推定部27は、人物毎のボーンデータを生成部23に出力する。これにより、ボーンデータは、人物の姿勢が高精度に反映されたデータとなり、後段の生成部23にて、高精度な人物3Dデータを生成することができる。
姿勢推定部27による姿勢推定処理は既知であり、前述の姿勢推定部22と同様の「SMPLify」の技術、または以下の「OpenPose」の技術が用いられる。
“OpenPose:Real-time multi-person keypoint detection library for body, face, and hands estimation”、[online]、[平成30年5月11日検索]、インターネット<https://github.com/CMU-Perceptual-Computing-Lab/openpose>
生成部23は、人物抽出部12から人物毎の人物映像信号のテクスチャ情報を入力すると共に、姿勢推定部27から人物毎のボーンデータを入力する。そして、生成部23は、図4に示した実施例2と同様に、ボーンデータに人物映像信号を投影して上書きし、人物3Dデータを生成する。生成部23は、人物毎の人物3Dデータを補正部33に出力する。
視線検出部31は、第一者の周囲にいる各人物がウェアラブルな視線検出グラス(図示せず)を着用している状態で、視線検出グラスのカメラにより検出された眼球画像に基づいて、各人物の視線を検出し、人物毎の視線方向データを生成する。そして、視線検出部31は、人物毎の視線方向データを補正部33に出力する。
視線方向の検出処理は既知であるから、ここでは詳細な説明を省略する。視線検出グラスとしては、例えば以下のサイトで紹介されているグラスが用いられる。
“Tobii Pro グラス2”、[online]、[平成30年5月11日検索]、インターネット<https://www.tobiipro.com/ja/product-listing/tobii-pro-glasses-2/>
補正部33は、人物3D生成部32から人物毎の人物3Dデータを入力すると共に、視線検出部31から人物毎の視線方向データを入力する。そして、補正部33は、人物毎に、視線方向データに基づいて人物がどこを見ていたかを示す視線方向を求める。補正部33は、人物3Dデータの視線方向が視線方向データから求めた視線方向と一致するように、人物3Dデータにおける黒目の位置を補正することで、人物3Dデータを補正する。補正部33は、黒目の位置を補正した人物毎の人物3Dデータをサブコンテンツとして記録部15に記録する。
これにより、補正後の人物3Dデータによる人物の視線方向は正確な方向となり、高精度の人物3Dデータを生成することができる。
テレビ位置検出部13、人物音声抽出部14、記録部15及び送信部16は、図4に示した構成部と同様であるから、ここでは説明を省略する。
これにより、記録部15には、メインコンテンツとして複数の番組映像音声が記録される。また、記録部15には、サブコンテンツとして、複数の番組映像音声のそれぞれに対応する、第一者の周囲にいる人物に関する人物毎の人物3Dデータ、第一者の周囲にあるオブジェクトに関する周囲3Dデータ、人物音声信号及びテレビ位置データが記録される。人物3Dデータは、実施例2よりも高精度のデータである。
以上のように、実施例3の録画再生装置1−3によれば、人物3D生成部32は、人物抽出部12にて360度映像信号の映像から人物映像を抽出し、姿勢推定部27にて、360度映像信号及び人物の俯瞰映像から人物毎のボーンデータを推定する。そして、人物3D生成部32は、生成部23にて、人物映像信号及びボーンデータに基づいて人物毎の人物3Dデータを生成する。
視線検出部31は、人物毎の視線を検出して視線方向データを生成し、補正部33は、視線方向データに基づいて人物3Dデータの黒目の位置を補正し、補正後の人物毎の人物3Dデータをサブコンテンツとして記録部15に記録する。
これにより、実施例2よりも高精度の人物3Dデータが記録部15に記録されるから、再生時には、周囲の人物が人物3Dデータによる3次元アニメーションとして、より現実に近い状態で再生することができる。
このように、ARグラスまたはVRのHMDを用いることにより、メインコンテンツが再生されると共に、第一者の周囲にいる人物の反応等が再現されるから、過去に視聴した番組について、そのときと同じ視聴体験及び新たな視聴体験を得ることができる。
尚、録画再生装置1−3は、人物抽出部12、姿勢推定部27及び生成部23を備えた人物3D生成部32にて、360度映像信号及び俯瞰映像信号に基づいて、人物毎の人物3Dデータを生成するようにした。この場合、録画再生装置1−3は、人物3D生成部32の代わりに、図6に示した事前人物3Dデータを用いる人物3D生成部20’を備えるようにしてもよい。
録画再生装置1−3の人物3D生成部20’は、図6に示した実施例2の第1変形例と同様に、姿勢推定部22、事前人物3D生成部24及び生成部25を備えている。この場合の姿勢推定部22は、図8に示した姿勢推定部27と同様に、360度映像信号に加え、受信部30から俯瞰映像信号を入力し、ボーンデータを生成して事前人物3D生成部24に出力する。
また、録画再生装置1−3は、周囲3D生成部21にて、360度映像信号に基づいて周囲3Dデータを生成するようにした。この場合、録画再生装置1−3は、周囲3D生成部21の代わりに、図7に示した実施例2の第2変形例と同様に、事前周囲3Dデータを用いる周囲3D生成部21’を備えるようにしてもよい。周囲3D生成部21’は、前述のとおり、360度映像信号及び事前周囲3Dデータに基づいて、周囲3Dデータを生成する。
以上、実施例1,2,3を挙げて本発明を説明したが、本発明は前記実施例1,2,3に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。例えば実施例3の録画再生装置1−3は、俯瞰カメラ4により撮影された人物毎の映像の俯瞰映像信号を用いる人物3D生成部32、人物毎の視線を検出する視線検出部31を備えるようにした。これに対し、録画再生装置1−3は、さらに、人物の顔の表情を検出する表情検出部を備えるようにしてもよい。
この場合、表情検出部は、表情検出デバイスにより検出された人物の表情について、表情データを生成し、これを補正部33に出力する。補正部33は、表情検出部から人物毎の表情データを入力し、人物毎に、人物3Dデータの顔に表情データを反映する。そして、補正部33は、人物毎の新たな人物3Dデータをサブコンテンツとして記録部15に記録する。
表情検出部による表情検出処理は既知であり、例えば以下の技術が用いられる。
“人間の視線や表情をVR空間のアバターへ瞬時に反映--360Channelが「FACE」を開発”、[online]、[平成30年5月11日検索]、インターネット<https://japan.cnet.com/article/35101852/>
表情検出グラスとしては、例えば以下のサイトで紹介されているグラスが用いられる。
“AffectiveWear:装着者の日常的な表情を認識する眼鏡型装置”、[online]、[平成30年5月11日検索]、インターネット<https://www.jstage.jst.go.jp/article/tvrsj/21/2/21_385/_pdf>
尚、本発明の実施例1,2,3の録画再生装置1−1,1−2,1−3によるハードウェア構成としては、通常のコンピュータを使用することができる。録画再生装置1−1,1−2,1−3は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。
録画再生装置1−1に備えた受信部10,11、人物抽出部12、テレビ位置検出部13、人物音声抽出部14、記録部15及び送信部16の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。また、録画再生装置1−2に備えた受信部10,11、人物3D生成部20、周囲3D生成部21、テレビ位置検出部13、人物音声抽出部14、記録部15及び送信部16の各機能も、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。また、録画再生装置1−3に備えた受信部10,11,30、人物3D生成部32、周囲3D生成部21、テレビ位置検出部13、人物音声抽出部14、視線検出部31、補正部33、記録部15及び送信部16の各機能も、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。
これらのプログラムは、前記記憶媒体に格納されており、CPUに読み出されて実行される。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもでき、ネットワークを介して送受信することもできる。
1 録画再生装置
2 ウェアラブル360度カメラ
3 再生機器
4 俯瞰カメラ
10,11,30 受信部
12 人物抽出部
13 テレビ位置検出部
14 人物音声抽出部
15 記録部
16 送信部
20,20’,32 人物3D生成部
21,21’ 周囲3D生成部
22,27 姿勢推定部
23 生成部
24 事前人物3D生成部
25,26 生成部
31 視線検出部
33 補正部
40 番組特定部
41 減算部

Claims (7)

  1. テレビに再生した番組の映像及び音声を含む番組映像音声信号を記録部に記録し、前記番組を再生機器にて視聴するユーザの操作に従い、前記記録部から前記番組映像音声信号を読み出して前記再生機器へ送信する録画再生装置において、
    前記番組映像音声信号を受信し、当該番組映像音声信号をメインコンテンツとして前記記録部に記録する第1の受信部と、
    前記ユーザの周囲に存在する人物の映像、及び前記番組が再生されている前記テレビの映像を含む周囲映像信号を受信すると共に、前記ユーザの周囲から収音した周囲音声信号を受信する第2の受信部と、
    前記第2の受信部により受信された前記周囲映像信号から前記人物を抽出し、人物毎の人物映像信号を生成し、人物毎の前記人物映像信号をサブコンテンツとして前記記録部に記録する人物抽出部と、
    前記第2の受信部により受信された前記周囲映像信号から前記テレビの位置を検出し、前記番組映像音声信号における番組映像信号が前記再生機器により再生される位置を示すテレビ位置データを生成し、当該テレビ位置データを前記サブコンテンツとして前記記録部に記録するテレビ位置検出部と、
    前記記録部に記録された前記番組映像音声信号、及び前記第2の受信部により受信された前記周囲音声信号に基づいて、前記周囲音声信号に含まれる番組音声信号に対応する前記番組を特定し、前記周囲音声信号と、前記番組の前記番組映像音声信号における番組音声信号との間の差分を求め、前記ユーザの周囲に存在する前記人物の人物音声信号を生成し、当該人物音声信号を前記サブコンテンツとして前記記録部に記録する人物音声抽出部と、
    前記記録部から前記メインコンテンツ及び前記サブコンテンツを読み出し、当該メインコンテンツ及び当該サブコンテンツを前記再生機器へ送信する送信部と、
    を備えたことを特徴とする録画再生装置。
  2. 請求項1に記載の録画再生装置において、
    前記人物抽出部の代わりに人物3D(3次元)生成部を備え、さらに、周囲3D生成部を備え、
    前記人物3D生成部は、
    前記第2の受信部により受信された前記周囲映像信号から前記人物を抽出し、人物毎の人物映像を生成し、前記周囲映像信号に含まれる前記人物の姿勢を推定し、前記人物の姿勢を示す人物毎のボーンデータを生成し、前記人物映像信号及び前記ボーンデータに基づいて、前記人物の3次元CGアニメーションのデータとして人物3Dデータを生成し、人物毎の前記人物3Dデータを前記サブコンテンツとして前記記録部に記録し、
    前記周囲3D生成部は、
    前記第2の受信部により受信された前記周囲映像信号からオブジェクトを抽出し、当該オブジェクトの3次元CGのデータを含む周囲3Dデータを生成し、当該周囲3Dデータを前記サブコンテンツとして前記記録部に記録し、
    前記記録部には、
    前記番組映像音声信号が前記メインコンテンツとして記録され、人物毎の前記人物3Dデータ、前記周囲3Dデータ、前記テレビ位置データ及び前記人物音声信号が前記サブコンテンツとして記録される、ことを特徴とする録画再生装置。
  3. 請求項2に記載の録画再生装置において、
    さらに、第3の受信部、視線検出部及び補正部を備え、
    前記第3の受信部は、
    前記第2の受信部により受信された前記周囲映像信号とは異なる映像信号であって、前記ユーザの周囲に存在する前記人物を含む俯瞰映像信号を受信し、
    前記人物3D生成部は、
    前記周囲映像信号から前記人物を抽出し、人物毎の前記人物映像を生成し、前記周囲映像信号に含まれる前記人物の姿勢を推定すると共に、前記第3の受信部により受信された前記俯瞰映像信号に含まれる前記人物の姿勢を推定し、前記周囲映像信号及び前記俯瞰映像信号からそれぞれ推定した前記人物の姿勢に基づいて、前記人物の姿勢を示す人物毎の前記ボーンデータを生成し、前記人物映像信号及び前記ボーンデータに基づいて、前記人物3Dデータを生成し、
    前記視線検出部は、
    前記人物の視線を検出し、人物毎の視線方向データを生成し、
    前記補正部は、
    前記人物3D生成部により生成された前記人物3Dデータの視線方向が、前記視線検出部により生成された前記視線方向データの示す視線方向と一致するように、前記人物3Dデータを補正し、人物毎の補正後の前記人物3Dデータを前記サブコンテンツとして前記記録部に記録する、ことを特徴とする録画再生装置。
  4. 請求項2に記載の録画再生装置において、
    前記人物3D生成部は、
    予め設定された人物毎の前記人物の3Dデータを入力し、前記周囲映像信号に含まれる前記人物の姿勢を推定し、前記人物の姿勢を示す人物毎の前記ボーンデータを生成し、前記3Dデータ及び前記ボーンデータに基づいて、前記人物の3次元CGアニメーションのデータとして事前人物3Dデータを生成し、当該事前人物3Dデータに、前記周囲映像信号に含まれる前記人物の映像を投影して上書きし、前記人物3Dデータを生成し、人物毎の前記人物3Dデータを前記サブコンテンツとして前記記録部に記録する、ことを特徴とする録画再生装置。
  5. 請求項3に記載の録画再生装置において、
    前記人物3D生成部は、
    予め設定された人物毎の前記人物の3Dデータを入力し、前記周囲映像信号に含まれる前記人物の姿勢を推定すると共に、前記俯瞰映像信号に含まれる前記人物の姿勢を推定し、前記周囲映像信号及び前記俯瞰映像信号からそれぞれ推定した前記人物の姿勢に基づいて、前記人物の姿勢を示す人物毎の前記ボーンデータを生成し、前記3Dデータ及び前記ボーンデータに基づいて、前記人物の3次元CGアニメーションのデータとして事前人物3Dデータを生成し、当該事前人物3Dデータに、前記周囲映像信号に含まれる前記人物の映像を投影して上書きし、前記人物3Dデータを生成し、人物毎の前記人物3Dデータを前記サブコンテンツとして前記記録部に記録する、ことを特徴とする録画再生装置。
  6. 請求項2から5までのいずれか一項に記載の録画再生装置において、
    前記周囲3D生成部は、
    予め設定された、前記ユーザの周囲の3Dデータを事前周囲3Dデータとして入力し、前記周囲映像信号から前記オブジェクトを抽出してオブジェクト映像を生成し、前記事前周囲3Dデータに含まれるオブジェクトに、対応する前記オブジェクト映像を投影して上書きし、前記周囲3Dデータを生成し、当該周囲3Dデータを前記サブコンテンツとして前記記録部に記録する、ことを特徴とする録画再生装置。
  7. コンピュータを、請求項1から6までのいずれか一項に記載の録画再生装置として機能させるためのプログラム。
JP2018123840A 2018-06-29 2018-06-29 録画再生装置及びプログラム Active JP7065708B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018123840A JP7065708B2 (ja) 2018-06-29 2018-06-29 録画再生装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018123840A JP7065708B2 (ja) 2018-06-29 2018-06-29 録画再生装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2020005150A true JP2020005150A (ja) 2020-01-09
JP7065708B2 JP7065708B2 (ja) 2022-05-12

Family

ID=69100823

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018123840A Active JP7065708B2 (ja) 2018-06-29 2018-06-29 録画再生装置及びプログラム

Country Status (1)

Country Link
JP (1) JP7065708B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024014197A1 (ja) * 2022-07-14 2024-01-18 ソニーグループ株式会社 映像処理装置、映像処理方法およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004139305A (ja) * 2002-10-17 2004-05-13 Nippon Telegr & Teleph Corp <Ntt> 仮想空間における複数メディア表示方法、仮想空間における複数メディア表示端末装置、仮想空間管理サーバ装置、仮想空間における複数メディア表示プログラム及びこのプログラムを記録した記録媒体
JP2005236428A (ja) * 2004-02-17 2005-09-02 Fuji Xerox Co Ltd コミュニケーション装置、システムおよび表示方法
JP2012089186A (ja) * 2010-10-18 2012-05-10 Sharp Corp コンテンツ管理装置及びコンテンツ再生装置
JP2014038523A (ja) * 2012-08-17 2014-02-27 Institute Of Physical & Chemical Research 代替現実システム制御装置、代替現実システム、代替現実システム制御方法、プログラム、および記録媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004139305A (ja) * 2002-10-17 2004-05-13 Nippon Telegr & Teleph Corp <Ntt> 仮想空間における複数メディア表示方法、仮想空間における複数メディア表示端末装置、仮想空間管理サーバ装置、仮想空間における複数メディア表示プログラム及びこのプログラムを記録した記録媒体
JP2005236428A (ja) * 2004-02-17 2005-09-02 Fuji Xerox Co Ltd コミュニケーション装置、システムおよび表示方法
JP2012089186A (ja) * 2010-10-18 2012-05-10 Sharp Corp コンテンツ管理装置及びコンテンツ再生装置
JP2014038523A (ja) * 2012-08-17 2014-02-27 Institute Of Physical & Chemical Research 代替現実システム制御装置、代替現実システム、代替現実システム制御方法、プログラム、および記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024014197A1 (ja) * 2022-07-14 2024-01-18 ソニーグループ株式会社 映像処理装置、映像処理方法およびプログラム

Also Published As

Publication number Publication date
JP7065708B2 (ja) 2022-05-12

Similar Documents

Publication Publication Date Title
JP7396341B2 (ja) 映像音響処理装置および方法、並びにプログラム
CN109891189B (zh) 策划的摄影测量
US20230402067A1 (en) Integration of audio into a multi-view interactive digital media representation
US20130215229A1 (en) Real-time compositing of live recording-based and computer graphics-based media streams
US11037321B2 (en) Determining size of virtual object
US20220385721A1 (en) 3d mesh generation on a server
JP2008140271A (ja) 対話装置及びその方法
JP2019101795A (ja) 生成装置、生成方法及びプログラム
JP2018113616A (ja) 情報処理装置、情報処理方法、およびプログラム
JP7441926B2 (ja) 映像コーディングを行うコンピュータプログラム
JP5833526B2 (ja) 映像コミュニケーションシステム及び映像コミュニケーション方法
JP2020520576A5 (ja)
US20230179756A1 (en) Information processing device, information processing method, and program
JPWO2017141584A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JP5731462B2 (ja) 映像コミュニケーションシステム及び映像コミュニケーション方法
KR101773891B1 (ko) 실시간 환경객체 선택을 통한 합성동영상 재생 시스템 및 컴퓨터 구현 방법
JP7065708B2 (ja) 録画再生装置及びプログラム
WO2017022296A1 (ja) 情報管理装置及び情報管理方法、並びに映像再生装置及び映像再生方法
JP5894505B2 (ja) 画像コミュニケーションシステム、画像生成装置及びプログラム
US11287658B2 (en) Picture processing device, picture distribution system, and picture processing method
JP5833525B2 (ja) 映像コミュニケーションシステム及び映像コミュニケーション方法
JP4379594B2 (ja) 追体験空間生成装置
KR20190112407A (ko) 홀로포테이션 컨텐츠 운용 방법
US12026823B2 (en) Volumetric imaging
JP2019096926A (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210430

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220401

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220426

R150 Certificate of patent or registration of utility model

Ref document number: 7065708

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150