JP7319172B2 - 画像処理装置、画像処理方法及び画像処理システム - Google Patents

画像処理装置、画像処理方法及び画像処理システム Download PDF

Info

Publication number
JP7319172B2
JP7319172B2 JP2019205261A JP2019205261A JP7319172B2 JP 7319172 B2 JP7319172 B2 JP 7319172B2 JP 2019205261 A JP2019205261 A JP 2019205261A JP 2019205261 A JP2019205261 A JP 2019205261A JP 7319172 B2 JP7319172 B2 JP 7319172B2
Authority
JP
Japan
Prior art keywords
image
unit
emotion
area
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019205261A
Other languages
English (en)
Other versions
JP2021077255A (ja
Inventor
昌弘 寺田
大輔 林
研司 牧野
俊太 江郷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2019205261A priority Critical patent/JP7319172B2/ja
Publication of JP2021077255A publication Critical patent/JP2021077255A/ja
Priority to JP2023118238A priority patent/JP2023133397A/ja
Application granted granted Critical
Publication of JP7319172B2 publication Critical patent/JP7319172B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、画像処理方法及び画像処理システムに関する。
特許文献1には、コンサートなどのイベントを撮影した画像をリアルタイムに配信するシステムにおいて、コンテンツの提供を受けるユーザー(視聴者)が、視野を自由に変えて画像を視聴できるシステムが記載されている。
また、特許文献2には、イベントを撮影した画像をリアルタイムに配信するシステムにおいて、会場に設置されたディスプレイに視聴者のアバターを観客のような様子で表示するシステムが記載されている。
国際公開第2016/009865号 特開2013-020389号公報
本開示の技術に係る1つの実施形態は、現場にいる人物のプラバシーを保護しつつ、現場の雰囲気を伝えられる画像処理装置、画像処理方法及び画像処理システムを提供する。
(1)特定エリアを含んだ第1画像を入力する第1画像入力部と、第1画像に基づいて、特定エリア内の人物の表情及び/又は感情を推定する第1推定部と、人物がアバターで表わされた特定エリアの画像であって、少なくとも第1推定部で推定した表情及び/又は感情をアバターに反映させた画像を第2画像として生成する第2画像生成部と、第1画像の特定エリアに第2画像を合成して第3画像を生成する第3画像生成部と、を備えた画像処理装置。
(2)第2画像生成部は、特定エリアを複数に分割し、分割エリアごとに1体のアバターを配置して、第2画像を生成する、(1)の画像処理装置。
(3)第1推定部による推定結果に基づいて、分割エリアを代表する表情及び/又は感情を決定する第1決定部を更に備え、第2画像生成部は、第1決定部で決定された表情及び/又は感情を各分割エリアのアバターに反映させて、第2画像を生成する、(2)の画像処理装置。
(4)第1決定部は、分割エリアに属する人物の表情及び/又は感情の標準値に基づいて、分割エリアを代表する表情及び/又は感情を決定する、(3)の画像処理装置。
(5)第1画像に基づいて、特定エリア内の人物の属性を推定する第2推定部と、第2推定部による推定結果に基づいて、分割エリアを代表する属性を決定する第2決定部と、を更に備え、第2画像生成部は、第2決定部で決定された属性を各分割エリアのアバターに反映させて、第2画像を生成する、(2)から(4)のいずれか一の画像処理装置。
(6)属性は、年齢及び性別の少なくとも一方を含む、(5)の画像処理装置。
(7)特定エリアは、分割エリアが人数に応じて分割される、(2)から(6)のいずれか一の画像処理装置。
(8)第2画像生成部は、第1推定部で推定した各人物の表情及び/又は感情を一人に付き複数体のアバターに反映させて、第2画像を生成する、(1)の画像処理装置。
(9)第1画像は、周囲360°の範囲を撮影した画像である、(1)から(8)のいずれか一の画像処理装置。
(10)第1画像は、イベント会場を撮影した画像であり、特定エリアは、イベント会場において観客がいるエリアである、(1)から(9)のいずれか一の画像処理装置。
(11)第1推定部は、複数種類の表情及び/又は感情のそれぞれの度合いを数値化して、表情及び/又は感情を推定する、(1)から(10)のいずれか一の画像処理装置。
(12)(1)から(11)のいずれか一の画像処理装置と、画像処理装置で生成された第3画像を再生する再生装置と、を備え、再生装置は、第3画像を入力する第3画像入力部と、第3画像の一部を切り出して、表示用の第4画像を生成する第4画像生成部と、表示範囲の切り替えを指示する指示部と、第4画像を出力する第4画像出力部と、を備え、第4画像生成部は、指示部の指示に応じて、第3画像から画像を切り出す範囲を切り替えて、第4画像を生成する、画像処理システム。
(13)再生装置は、ヘッドマウントディスプレイであり、本体の動きを検出する検出部を備え、指示部は、検出部で検出される本体の動きに応じて、表示範囲の切り替えを指示する、(12)の画像処理システム。
(14)特定エリアを含んだ第1画像を入力するステップと、第1画像に基づいて、特定エリア内の人物の表情及び/又は感情を推定するステップと、人物がアバターで表わされた特定エリアの画像であって、少なくとも推定した表情及び/又は感情をアバターに反映させた画像を第2画像として生成するステップと、第1画像の特定エリアに第2画像を合成して第3画像を生成するステップと、を含む画像処理方法。
(15)第3画像の一部を切り出して、表示用の第4画像を生成するステップと、第4画像を出力するステップと、を更に含み、第4画像を生成するステップは、表示範囲の切り替えの指示を受け付け、受け付けた指示に応じて、第3画像から画像を切り出す範囲を切り替えて、第4画像を生成する、(14)の画像処理方法。
画像処理システムのシステム構成の概略を示す図 撮影装置の設置の一例を示す図 撮影装置の撮影範囲の一例を示す図 画像処理装置のハードウェア構成の一例を示すブロック図 画像処理装置が実現する機能のブロック図 感情推定部の機能ブロック図 顔の検出の概念図 顔の画像に基づく感情認識の概念図 観客エリアの分割の一例を示す図 分割エリアを代表する感情の求め方の概念図 感情を反映させたアバターの一例を示す図 撮影画像の一部の一例を示す図 観客エリアの画像レイヤーの一例を示す図 CG画像の一例を示す図 再生装置の構成例を示すブロック図 再生装置の制御部が実現する機能のブロック図 画像処理システムの処理の流れを示すフローチャート 画像処理装置の機能ブロック図 画像処理装置が実現する機能のブロック図 イベント会場の一例を示す平面図 撮影画像の一部の一例を示す図 観客エリアのCG画像の一例を示す図
以下、添付図面に従って本発明の好ましい実施の形態について詳説する。
[第1の実施の形態]
[概要]
コンサートなどのイベントを撮影した画像をリアルタイムに配信するシステムにおいて、コンテンツの提供を受けるユーザー(視聴者)が、視野を自由に変えて画像を視聴できるシステムが知られている。この種のシステムでは、より鮮明な画像を提供するため、配信する画像が高精細化している。
しかし、配信する画像が高精細化すると、個々の観客の識別も可能になり、観客のプライバシーが侵害されるおそれがある。
本実施の形態では、コンサートなどのイベントを撮影した画像をリアルタイムに配信するシステムにおいて、会場にいる観客のプライバシーを保護しつつ、現場である会場の雰囲気を伝えられるシステムを提供する。
[画像処理システムの構成]
図1は、本実施の形態の画像処理システムのシステム構成の概略を示す図である。
本実施の形態の画像処理システム1は、コンサート、演劇、演芸、オペラ、バレエ及びスポーツなどのイベントを撮影した画像を配信するシステムである。
図1に示すように、画像処理システム1は、イベントを撮影する撮影装置10、撮影装置10で撮影した画像から配信用の画像を生成する画像処理装置100、画像処理装置100で生成された画像を配信する配信装置200、及び、配信装置200から配信される画像を再生する再生装置300を備える。
[撮影装置]
撮影装置10は、イベント会場において、イベントを撮影する。撮影装置10は、定位置で撮影する。また、撮影装置10は、少なくとも一部の観客を含む範囲を撮影する。本実施の形態では、撮影装置10が周囲360°の範囲を撮影する。
図2は、撮影装置の設置の一例を示す図である。同図は、コンサート会場(イベント会場の一例)において、コンサート(イベントの一例)を撮影する場合の例を示している。また、同図は、コンサート会場の平面図を示している。
コンサート会場2は、ステージエリア3及び観客エリア4を有する。ステージエリア3は、パフォーマーがパフォーマンスを行うエリアである。ステージエリア3には、ステージ5が備えられる。観客エリア4は、観客が配置されるエリアである。観客エリアは、特定エリアの一例である。観客は、特定エリア内の人物の一例である。観客エリア4には、複数の座席6が備えられる。座席6は、階段状に設置される。観客は、座席6でパフォーマンスを観覧する。
撮影装置10は、定位置で撮影する。図2では、ステージエリア3と観客エリア4との間に撮影位置P(撮影装置10の設置位置)を設定した場合の例を示している。
図3は、撮影装置の撮影範囲の一例を示す図である。
撮影装置10は、撮影位置Pにおいて、周囲360°の範囲を撮影する。より具体的には、半球状の範囲(水平方向に360°、垂直方向に180°の範囲)を撮影する。したがって、ステージエリア3と観客エリア4の双方が同時に撮影される。なお、この種の撮影装置(周囲360°の範囲を撮影可能な撮影装置)は、公知のものであるため、その具体的な構成についての説明は省略する(たとえば、広角レンズを使用して1台で周囲360°の範囲を撮影する構成のもの、複数台のカメラを放射状に配置し、各カメラで撮影された画像を合成して、周囲360°の範囲を撮影した画像を得る構成のもの等)。
撮影装置10は、あらかじめ定められたフレームレートで画像を撮影する。すなわち、動画として撮影する。撮影装置10は、撮影した画像を画像処理装置100に順次出力する。撮影装置10と画像処理装置100との間の接続形態(通信形態)は、特に限定されない。
[画像処理装置]
画像処理装置100は、撮影装置10で撮影された画像を入力し、配信用の画像を生成する。撮影装置10は、動画として画像を撮影するので、画像処理装置100は、フレーム単位で画像を処理し、配信用の画像(動画)を生成する。
配信用の画像は、一部をCG画像(コンピューターグラフィックス(Computer Graphics,CG)による画像をいう。)で置き替えた画像が生成される。より具体的には、実写画像(撮影装置10で撮影された画像)の観客エリア4の部分をCG画像で置き替えた画像が生成される。CG画像は、観客をアバター(観客の分身となるキャラクター)で表わした画像で構成される。
図4は、画像処理装置のハードウェア構成の一例を示すブロック図である。
画像処理装置100は、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、HDD(Hard Disk Drive)104、操作部(たとえば、キーボード及びマウス等)105、表示部(たとえば、液晶ディスプレイ(Liquid Crystal Display,LCD)、有機エレクトロルミネッセンスディスプレイ(Organic Electro-Luminescence Display、OELD)等)106、入力インターフェース(interface,I/F)107及び出力インターフェース108等を備えたコンピューターで構成される。撮影装置10で撮影された画像は、入力インターフェース107を介して画像処理装置100に入力される。画像処理装置100で生成された配信用の画像は、出力インターフェース108を介して配信装置200に出力される。
図5は、画像処理装置が実現する機能のブロック図である。
同図に示すように、画像処理装置100は、撮影画像入力部111、感情推定部112、代表感情決定部113、CG画像生成部114、合成画像生成部115及び画像出力部116の機能を有する。各機能は、プロセッサであるCPU101が、所定のプログラムを実行することにより実現される。このプログラムは、たとえば、ROM102又はHDD104に記憶される。
撮影画像入力部111は、撮影装置10から出力される画像(撮影画像)を入力する。上記のように、本実施の形態の撮影装置10は、周囲360°の範囲を撮影する。したがって、その撮影画像には、観客エリア4の画像が含まれる。撮影画像は、第1画像の一例である。撮影画像入力部111は、第1画像入力部の一例である。
感情推定部112は、撮影画像を解析し、観客エリア4にいる各観客の感情を推定する。本実施の形態では、観客の顔の画像から感情を推定する。感情推定部112は、第1推定部の一例である。
図6は、本実施の形態の感情推定部の機能ブロック図である。
同図に示すように、感情推定部112は、人物の顔を検出する顔検出部112A、及び、顔の画像から感情を認識する感情認識部112Bを有する。
顔検出部112Aは、撮影画像から観客エリア4にいる観客の顔を検出する。図7は、顔の検出の概念図である。同図は、撮影画像の一部(観客エリアの方向で撮影される画像の一部)を示している。顔は、撮影画像内での位置(撮影画像に対して設定される座標上での位置)が特定されて検出される。顔の位置は、たとえば、検出した顔を囲う矩形状の枠Fの中心の位置(座標位置(x,y))で特定される。顔の検出には、公知の技術が採用される。
感情認識部112Bは、顔検出部112Aで検出された各観客の顔の画像に基づいて、各観客の感情を認識する。図8は、顔の画像に基づく感情認識の概念図である。本実施の形態では、感情を「怒り(anger)」、「嫌悪(disgust)」、「恐怖(fear)」、「喜び(happiness)」、「悲しみ(sadness)」及び「驚き(surprise)」の6種類に分類し、各感情の度合いを顔の画像から求めて、観客の感情を認識する。より具体的には、各感情の度合い(感情らしさともいう)を数値化して、感情を認識する。各感情の度合いは、感情スコアとして数値化される。感情スコアは、たとえば、百分率で表わされる。この種の感情認識の技術は、公知の技術である。本実施の形態の感情認識部112Bも公知の技術(たとえば、機械学習、深層学習等により生成した画像認識モデルを用いて感情を認識する手法等)を採用して、顔の画像から感情を認識する。感情の認識結果は、たとえば、各感情の感情スコアを要素値とする感情ベクトルE(Eanger,Edisgust,Efear,Ehappiness,Esadness,Esurprise)を用いて表わすことができる。感情認識部112Bは、感情の認識結果として、感情ベクトルEを出力する。
なお、すべてのフレームですべての観客の顔を検出できるとは限らない。感情認識部112Bは、顔が検出された観客を対象にして、感情の認識処理を実行する。
感情推定部112は、感情認識部112Bによる感情の認識結果(感情ベクトルE)を感情の推定結果として出力する。各観客の感情の推定結果は、各観客の顔の位置に関連付けられて出力される。
代表感情決定部113は、観客エリア4を複数のエリアに分割し、分割された各エリア(分割エリア)を代表する感情を決定する。代表感情決定部113は、第1決定部の一例である。
図9は、観客エリアの分割の一例を示す図である。同図は、観客エリア4を12の分割エリア4A~4Lに分割する場合の例を示している。また、同図は、すべて分割エリア4A~4Lで座席の数が同じになるように分割する場合の例(すべて分割エリア4A~4Lで観客の数がほぼ同じになるように分割する場合の例)を示している。
図10は、分割エリアを代表する感情の求め方の概念図である。同図に示すように、分割エリアにいる観客の感情ベクトルEの集合から当該分割エリアを代表する感情を求める。本実施の形態では、分割エリアにいる観客の感情ベクトルEの集合から感情ベクトルEの平均値(感情ベクトルEを構成する要素値ごとの平均値)EAVを求め、求めた平均値EAVに基づいて、当該分割エリアを代表する感情を求める。具体的には、最も高い要素値の感情を特定して、当該分割エリアを代表する感情を求める。図10に示す例では、感情ベクトルの平均値EAVが、EAV(EAVanger,EAVdisgust,EAVfear,EAVhappiness,EAVsadness,EAVsurprise)=EAV(3,1,3,88,2,10)であり、最も高い要素値は、EAVhappiness=88である。したがって、図10に示す分割エリアを代表する感情は「喜び」となる。感情ベクトルEの平均値は、標準値の一例である。
CG画像生成部114は、観客エリア4のCG画像を生成する。この画像は、観客エリア4にいる観客をアバター(観客の分身となるキャラクター)で表わした画像で構成される。本実施の形態では、観客エリア4を複数のエリアに分割し、分割したエリアごとに1体のアバターを配置して、観客エリア4のCG画像を生成する。分割のパターンは、代表感情決定部113による分割のパターンと同じである(図9参照)。CG画像生成部114は、代表感情決定部113で決定した各分割エリアの感情(各分割エリアを代表する感情)を、各分割エリアに配置するアバターに反映させて、観客エリア4のCG画像を生成する。感情をアバターに反映させるとは、感情をアバターの表現に反映させることをいう。図11は、感情を反映させたアバターの一例を示す図である。同図に示すように、本実施の形態では、アバターの顔の表情に感情を反映させる。
観客エリア4のCG画像は、たとえば、観客エリアを模した画像(観客エリアの画像レイヤー)の上にアバターを配置して生成される。以下、このCG画像の生成の概略について説明する。
図12は、撮影画像(実写画像)の一部の一例を示す図である。同図は、観客エリア4の方向(図2において矢印Rで示す方向(真後ろの方向))を撮影した場合に得られる画像を示している。この画像部分は、合成画像を生成する際にCG画像で置き替えられる部分である。なお、同図は、理解を容易にするため、デフォルメして示している。上記のように、撮影装置10は、定位置で撮影する。このため、観客エリア4が、撮影装置10によって、どのように撮影されるかは、あらかじめ知ることができる。まず、事前に撮影した画像からベースとなる観客エリアの画像レイヤーを生成する。この画像は、必ずしも実際の観客エリアと同じ画像である必要はない。たとえば、実際の観客エリアをデフォルメした画像を観客エリアの画像レイヤーとして生成できる。図13は、観客エリアの画像レイヤーの一例を示す図である。観客エリアの画像レイヤーのデータは、たとえば、HDD104に記憶される。観客エリア4のCG画像は、観客エリアの画像レイヤーの上にアバターを配置して生成される。図14は、CG画像の一例を示す図である。アバターは、各分割エリアの位置に対応する位置に配置され、かつ、各分割エリアに1体配置される。また、各分割エリアに配置するアバターは、各分割エリアを代表する感情を反映させたアバターが配置される。図14は、分割エリア4Aを代表する感情が「驚き」、分割エリア4Bを代表する感情が「喜び」、分割エリア4Cを代表する感情が「喜び」、分割エリア4Dを代表する感情が「喜び」、分割エリア4Eを代表する感情が「喜び」、分割エリア4Fを代表する感情が「喜び」、分割エリア4Gを代表する感情が「喜び」、分割エリア4Hを代表する感情が「喜び」、分割エリア4Iを代表する感情が「驚き」、分割エリア4Jを代表する感情が「驚き」、分割エリア4Kを代表する感情が「喜び」、分割エリア4Lを代表する感情が「喜び」の場合の例を示している。この場合、同図に示すように、分割エリア4A、4I及び4Jに「驚き」の感情のアバターが配置され、かつ、分割エリア4B、4C、4D、4E、4F、4G、4H、4Kに「喜び」の感情のアバターが配置されて、観客エリアのCG画像が生成される。なお、各感情に対応したアバターが複数用意される場合(図11参照)、使用するアバターがランダムに選択される。あるいは、あらかじめ定められた順序で使用される。また、各分割エリア4A~4Lに配置されるアバターは、あらかじめ定められたサイズに調整されて表示される。図14に示す例では、撮影位置からの距離に応じて、各分割エリア4A~4Lに表示するアバターのサイズを変えている。すなわち、遠近感を調整して表示している。
CG画像生成部114で生成されたCG画像は、合成画像生成部115に加えられる。CG画像生成部114は、第2画像生成部の一例である。また、CG画像生成部114で生成される観客エリアのCG画像は、第2画像の一例である。
合成画像生成部115は、CG画像生成部114で生成されたCG画像を撮影画像(実写画像)に合成して、合成画像を生成する。合成画像生成部115は、撮影画像内の観客エリアの画像部分にCG画像を合成して、合成画像を生成する。これにより、観客エリアの部分がCG画像で構成された画像(合成画像)が生成される。
合成画像生成部115で生成された合成画像は、画像出力部116に加えられる。合成画像生成部115は、第3画像生成部の一例である。また、合成画像生成部115で生成される合成画像は、第3画像の一例である。
画像出力部116は、合成画像生成部115で生成された合成画像を配信用の画像として、配信装置200に出力する。画像処理装置100と配信装置200との間の接続形態(通信形態)は、特に限定されない。
[配信装置]
配信装置200は、画像処理装置100で生成された配信用の画像(動画)を再生装置300に送信する。配信装置200は、いわゆる動画配信サーバーであり、クライアントである再生装置300からの要求に応じて、再生装置300に配信用の画像を送信する。配信装置200は、コンピューターで構成され、コンピューターが所定のプログラムを実行することにより、配信装置200として機能する。すなわち、動画配信サーバーとして機能する。この種の配信装置は、公知のものであるため、その具体的な構成についての説明は省略する。なお、配信装置200と再生装置300との間の接続形態(通信形態)は、特に限定されない。たとえば、インターネット等のネットワークを介して相互に通信する形態を採用できる。
[再生装置]
再生装置300は、配信装置200から送信される画像(動画)を再生する。再生装置300は、配信装置200から送信される画像の一部を切り出して再生する。したがって、ユーザー(視聴者)は、360°を撮影した画像の一部を見ることになる。たとえば、図3において、破線で示す領域VAが、画像の表示範囲である。画像の表示範囲(=画像を切り出す範囲)は、ユーザーからの指示に応じて切り替えられる。
本実施の形態では、再生装置300がヘッドマウントディスプレイで構成される。ヘッドマウントディスプレイでは、装着したユーザーの頭部の姿勢が検出され、検出された頭部の姿勢に応じて、画像の表示範囲が切り替えられる。より具体的には、検出された頭部の姿勢から推測される視線の方向に応じて、画像の表示範囲が切り替えられる。
図15は、再生装置の構成例を示すブロック図である。
同図に示すように、ヘッドマウントディスプレイで構成される本実施の形態の再生装置300は、通信部301、検出部302、操作部303、表示部304及び制御部306等を備える。
通信部301は、配信装置200との間で相互に通信する。配信装置200から送信される画像(動画)は、この通信部301を介して受信される。
検出部302は、再生装置本体(頭部に装着される部分)の動き(姿勢)を検出して、再生装置300を装着したユーザーの頭部の動き(姿勢)を検出する。検出部302は、加速度センサ及び角速度センサなどのヘッドトラッキング用のセンサを備えて構成される。
操作部303は、再生装置本体に備えられた複数の操作ボタン等で構成される。再生装置300に対して行う操作は、この操作部303を介して行われる。
表示部304は、液晶ディスプレイ、有機エレクトロルミネッセンスディスプレイ等で構成される。表示部304は、第4画像出力部の一例である。画像は、この表示部304に表示(出力)される。
制御部306は、再生装置300の全体の動作を制御する。制御部306は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を備えたマイクロコンピューターで構成され、所定のプログラムを実行することにより、各種機能を実現する。
図16は、再生装置の制御部が実現する機能のブロック図である。
同図に示すように、制御部306は、再生画像入力部306A、視野特定部306B、表示制御部306C等の機能が実現される。
再生画像入力部306Aは、通信部301を制御して、配信装置200から送信される画像を受信し、再生装置300で再生する画像(再生画像)を入力する。配信装置200から送信される画像は、画像処理装置100で生成される合成画像(第3画像)である。したがって、再生画像は第3画像の一例でもある。再生画像入力部306Aは、第3画像入力部の一例である。入力された画像(再生画像)は、表示制御部306Cに加えられる。
視野特定部306Bは、検出部302の検出結果に基づいて、ユーザーの視野を特定する。「視野」は、ユーザーが見ている範囲であり、表示部304に表示される画像の範囲(表示範囲)に相当する。視野特定部306Bは、検出部302で検出されるユーザーの頭部の動き(姿勢)から視野を特定する。視野特定部306Bで特定された視野の情報は、表示制御部306Cに加えられる。
表示制御部306Cは、再生画像入力部306Aに入力された画像から表示用の画像を生成し、表示部304に表示させる。表示用の画像は、再生画像入力部306Aに入力された画像(再生画像)から一部を切り出した画像であり、視野に相当する画像である。表示制御部306Cは、視野特定部306Bで特定された視野に応じて、画像を切り出す範囲を切り替えて、表示用の画像を生成する。表示用の画像は、第4画像の一例である。また、表示制御部306Cは、第4画像生成部の一例である。なお、本実施の形態では、視野特定部306Bで特定された視野に応じて画像の切り出し範囲が切り替えられるので、視野特定部306Bは指示部の一例である。
[画像処理システムの動作]
図17は、本実施の形態の画像処理システムの処理の流れを示すフローチャートである。
まず、イベント会場に設置された撮影装置10で撮影が行われる(ステップS11)。撮影装置10は、定位置でイベントを撮影する。撮影装置10で撮影された画像(撮影画像)は、画像処理装置100に出力される(ステップS12)。この画像は、周囲360°の範囲を撮影した画像であり、観客エリアを含む画像である。
画像処理装置100は、撮影装置10から出力される画像(撮影画像)を入力し(ステップS21)、所定の処理を行って、配信用の画像を生成する。まず、入力した撮影画像から各観客の感情を推定する処理が行われる(ステップS22)。観客の感情は、観客の顔の画像に基づいて推定される。次に、各観客の感情の推定結果に基づいて、各分割エリアを代表する感情が決定される(ステップS23)。次に、観客エリアのCG画像が生成される(ステップS24)。このCG画像は、観客エリアにいる観客をアバターで表わした画像であり、観客エリアを模した画像(観客エリアの画像レイヤー)の上にアバターを配置して生成される。アバターは、各分割エリアに1体配置され、各分割エリアの位置に対応して配置される。また、各分割エリアに配置されるアバターは、各分割エリアを代表する感情を反映させたアバターが配置される。CG画像が生成されると、合成画像が生成される(ステップS25)。合成画像は、撮影画像(実写画像)の一部にCG画像を合成して生成される。CG画像は、撮影画像の観客エリアの部分に合成される。これにより、撮影画像(実写画像)において、観客が写された部分がCG画像でマスクされる。生成された合成画像は、配信用の画像として配信装置200に出力される(ステップS26)。
配信装置200は、画像処理装置100から出力される画像(配信用の画像)を入力し(ステップS31)、再生装置300に送信する(ステップS32)。
再生装置300は、配信装置200から送信される配信用の画像を受信し(ステップS41)、所定の処理を行って、表示部304に出力する。すなわち、表示部304に表示させる。表示部304に表示する画像は、受信した画像の一部を切り出した画像である。再生装置300は、受信した画像から表示用の画像を生成し(ステップS42)、表示部304に表示させる(ステップS43)。
画像を切り出す範囲(表示範囲)は、ユーザーからの指示に応じて切り替えられる。本実施の形態では、再生装置300が、ヘッドマウントディスプレイで構成されることから、頭部の動き(姿勢)に応じて、切り出す範囲が切り替えられる。
以上説明したように、本実施の形態の画像処理システム1によれば、撮影された画像の一部がCG画像に置き替えられて配信される。CG画像に置き替えられる部分は、観客が写されたエリアの部分である。これにより、観客のプライバシーを適切に保護できる。また、置き替えるCG画像は、観客をアバターで表わした画像であり、各アバターは、対応する位置の観客の感情が反映されている。これにより、会場いる観客の反応及び雰囲気をユーザー(視聴者)に伝えることができる。また、これにより、現場である会場の雰囲気を共有できる。
また、本実施の形態の画像処理システム1では、実際の観客の数よりも少ない数のアバターで置き替えられて、観客エリアのCG画像が生成される。これにより、実際の画像では、遠くて小さく映る観客の感情を分かりやすく表現できる。したがって、実際の画像(実写画像)を見るよりも、現場である会場の雰囲気をユーザー(視聴者)に伝えやすくできる。特に、大きな会場で行われるイベントでは、実際の画像を見るよりも、適切に現場である会場の雰囲気を伝えることができる。
[変形例]
[各分割エリアを代表する感情の決定方法の変形例]
上記実施の形態では、各分割エリアにいる観客の感情ベクトルの平均値を求めて、各分割エリアを代表する感情を決定しているが、各分割エリアを代表する感情の決定方法は、これに限定されるものではない。たとえば、各分割エリアから一人の観客を抽出し、抽出した観客の感情によって、各分割エリアの感情を代表させてもよい。この場合、観客はランダムに抽出してもよいし、あらかじめ位置(客席)を定めて、抽出してもよい。また、感情ベクトルの中央値、最頻値等を求めて、各分割エリアを代表する感情を求めてもよい。
また、平均値から各分割エリアを代表する感情を決定する場合、必ずしもすべての観客を対象として平均値を求める必要はない。たとえば、各分割エリアにおいて、ランダムに抽出した観客の感情ベクトルの平均値を求めて、各分割エリアを代表する感情を求める構成としてもよい。あるいは、各分割エリアにおいて、あらかじめ定めた位置(客席)にいる観客の感情ベクトルの平均値を求めて、各分割エリアを代表する感情を求める構成としてもよい。
[アバターへの感情の反映の変形例]
上記実施の形態では、6種類の感情(「怒り」、「嫌悪」、「恐怖」、「喜び」、「悲しみ」及び「驚き」)の一つをアバターに反映させているが、アバターに反映させる感情は、これに限定されるものではない。
また、分割エリアを代表する感情の度合い(感情スコア)が閾値以下の場合、感情をアバターに反映させずに、アバターを表示させてもよい。この場合、いわゆる真顔の状態(感情が表出していない状態(無感情、無表情ともいう))のアバターが表示される。あるいは、あらかじめ定めた表情のアバターが表示される。
また、上記実施の形態では、一種類の感情をアバターに反映させているが、複数種類の感情を組み合わせて、1体のアバターに反映させてもよい。また、感情の度合いもアバターに反映させてもよい。
また、上記実施の形態では、撮影画像から観客の感情を推定し、推定した感情(上記実施の形態では、分割エリアを代表する感情)をアバターに反映させる構成としているが、撮影画像から観客の表情を推定し、推定した表情をアバターに反映させる構成としてもよい(分割エリアを代表する表情を求めて、アバターに反映させる場合を含む)。また、撮影画像から観客の感情及び表情を推定し、推定した感情及び表情をアバターに反映させる構成としてもよい(分割エリアを代表する感情及び表情を求めて、アバターに反映させる場合を含む)。
なお、表情の種類は、感情を示す語によって表わすこともできる。この場合、表情及び感情の両方が特定される。
[アバターの表示の変形例]
アバターには、各分割エリアを代表する属性(性別、年齢、人種(骨格、皮膚、毛髪などの形質的特徴等)等)を反映させてもよい。
図18は、アバターに各分割エリアを代表する属性を反映させて配信用の画像を生成する場合の画像処理装置の機能ブロック図である。同図に示すように、属性推定部121及び代表属性決定部122が更に備えられる。
属性推定部121は、撮影画像入力部111から撮影画像を取得し、取得した撮影画像を解析して、観客エリア4にいる各観客の属性を推定する。たとえば、各観客の性別及び年齢を推定する。画像から人物の属性を推定する技術は、公知の技術である。本実施の形態の属性推定部121も公知の技術(たとえば、学習済みの画像認識モデルを用いて人物の属性を認識する手法等)を採用する。属性推定部121は、第2推定部の一例である。
代表属性決定部122は、各分割エリアを代表する属性を決定する。たとえば、性別については、人数の多い方の性別を代表する性別として特定する(いわゆる多数決)。また、年齢については、平均を求めて、代表する年齢を特定する。この他、中央値、最頻値等を求めて、代表する属性を決定する。代表属性決定部122は、第2決定部の一例である。
CG画像生成部114は、観客エリア4のCG画像を生成する際、各分割エリアに配置するアバターに、各分割エリアを代表する感情及び属性を反映させて、観客エリア4のCG画像を生成する。
このように、アバターに属性を反映させることにより、ユーザーに対して、会場の雰囲気をよりリアルに伝えることができる。
なお、上記の例では、撮影画像から観客の感情を推定する処理と属性を推定する処理とを別の処理部(感情推定部112及び属性推定部121)で行う構成としているが、一つの処理部で行う構成とすることもできる。たとえば、学習済みの画像認識モデルを用いて、撮影画像から観客の感情及び属性を推定する構成とすることもできる。
[観客エリアのCG画像の変形例]
上記実施の形態では、観客エリアを模した画像(観客エリアの画像レイヤー)の上にアバターを配置して、観客エリアのCG画像を生成しているが、観客エリアのCG画像の構成は、これに限定されるものではない。ベースとする観客エリアの画像(観客エリアの画像レイヤー)は、必ずしも実際の観客エリアを模した画像である必要はない。たとえば、架空の観客エリアの画像を用意し、この画像をベースの画像レイヤーとして使用してもよい。
[観客エリアの分割の変形例]
上記実施の形態では、観客エリアを12のエリアに分割する構成としているが、分割の態様は、これに限定されるものではない。人数に応じて分割できる。
また、上記実施の形態では、すべて分割エリアで座席の数が同じになるように、観客エリアを分割しているが、観客エリアの分割の態様は、これに限定されるものではない。たとえば、撮影位置からの距離に応じて、座席の数が多くなるように分割してもよい。すなわち、撮影位置から離れるほど多くの観客が含まれるように分割してもよい。
この他、観客エリア全体の顔を検出した後、近傍の顔をグルーピングして、観客エリアを分割することもできる。
[撮影装置の変形例]
上記実施の形態では、周囲360°の範囲として、半球状の範囲(水平方向に360°、垂直方向に180°の範囲)を撮影する構成としているが、全球状の範囲(水平及び垂直方向に360°の範囲)を撮影する構成としてもよい。
一方、撮影範囲は、必ずしも周囲360°の範囲である必要はない。撮影される範囲の一部に観客エリア(プライバシーを保護すべき人物がいるエリア)が含まれていればよい。
[再生装置の変形例]
上記実施の形態では、再生装置がヘッドマウントディスプレイで構成される場合を例に説明したが、再生装置の構成は、これに限定されるものではない。この他、たとえば、スマートフォン、タブレット端末、パーソナルコンピュータ等の電子機器で再生装置を構成することもできる。これらの電子機器は、画面にタッチパネルを備え、そのタッチパネルへのタッチ操作で表示範囲の切り替えなどを指示できる。更に、これらの電子機器が備える加速度センサ、ジャイロセンサ、コンパス等を利用して操作指示をすることもできる。またフロントカメラ、顔認証カメラ等を使ってゼスチャーにより操作指示をすることもできる。
[画像の配信の変形例]
上記実施の形態では、イベントを撮影した画像をリアルタイムに配信する場合を例に説明したが、撮影済みの画像を配信する場合にも本発明は適用できる。
[その他の変形例]
上記実施の形態では、特に音声の配信については言及していないが、画像の撮影と同時に会場内の音声を集音し、配信する構成とすることもできる。
[第2の実施の形態]
[概要]
イベントの画像を配信する場合において、会場にいる観客の数が少ないと、コンテンツの提供を受けるユーザー(視聴者)の気分の盛り上がりも低下する。
本実施の形態の画像処理システムでは、一人の観客から複数のアバターを生成して観客エリアのCG画像を生成し、配信用の画像(合成画像)を生成する。
これにより、観客の少ないイベントでも、会場にいる観客の反応(感情)を増幅してユーザーに伝えることができ、娯楽性を高めることができる。
なお、本実施の形態の画像処理システムは、配信用の画像の生成処理が、上記第1の実施の形態の画像処理システム1と異なるだけであるので、以下においては、画像処理装置の構成についてのみ説明する。
[画像処理装置の構成]
ハードウェア構成は、上記第1の実施の形態の画像処理システム1の画像処理装置100と同じである(図4参照)。すなわち、コンピューターで構成され、CPUが所定のプログラムを実行することにより、画像処理装置として機能する。
図19は、本実施の形態の画像処理装置が実現する機能のブロック図である。
同図に示すように、本実施の形態の画像処理装置100Aは、撮影画像入力部131、感情推定部132、CG画像生成部134、合成画像生成部135及び画像出力部136の機能を有する。各機能は、プロセッサであるCPU101が、所定のプログラムを実行することにより実現される。このプログラムは、たとえば、ROM102又はHDD104に記憶される。
撮影画像入力部131は、撮影装置10から出力される画像(撮影画像)を入力する。この画像は、観客エリアを一部に含む画像(たとえば、定位置において周囲360°の範囲を撮影した画像)である。
感情推定部132は、撮影画像を解析し、観客エリアにいる各観客の感情を推定する。感情推定部132は、撮影画像から観客エリアにいる各観客の顔を検出し、検出した顔の画像から観客エリアにいる各観客の感情を推定する。この点は、上記第1の実施の形態の感情推定部112と同じである。
CG画像生成部134は、観客エリアのCG画像を生成する。この画像は、観客エリアにいる観客をアバターで表わした画像で構成される。本実施の形態では、実際の観客の数よりも多い数のアバターを用いて、観客エリアのCG画像が生成される。具体的には、一人の観客から複数体のアバターを生成し、生成した複数体のアバターをベースとなる画像レイヤー(たとえば、観客エリアを模した画像)の上に配置して、観客エリアのCG画像が生成される。以下に一例を挙げて、観客エリアのCG画像の生成について説明する。
図20は、イベント会場の一例を示す平面図である。
ここでは、講演会(イベントの一例)を撮影した画像を配信する場合を例に説明する。講演会場(イベント会場の一例)400は、教壇エリア410及び観客エリア420を有する。教壇エリア410は、講師が講演するエリアである。教壇エリア410には、教壇411及び教卓412等が備えられる。観客エリア420は、観客(聴講者)が配置されるエリアである。観客エリア420には、複数の座席421及び机422が備えられる。座席421及び机422は、階段状に設置される。撮影装置10は、教壇エリア410と観客エリア420との間に設定された撮影位置Pで撮影する。
図21は、撮影画像(実写画像)の一部の一例を示す図である。同図は、観客エリア420の方向(図20において矢印Rで示す方向(真後ろの方向))を撮影した場合に得られる画像を示している。この画像部分は、合成画像を生成する際に、CG画像で置き替えられる部分である。なお、同図は、理解を容易にするため、デフォルメして示している。同図に示すように、撮影画像には、実際に観客エリアにいる観客500が写される。同図では、8人の観客500がいる場合の例を示している。
図22は、観客エリアのCG画像の一例を示す図である。
同図に示すように、CG画像では、観客がアバター600で表示される。上記のように、本実施の形態では、一人の観客が複数体のアバター600に置き替えられて表示される。図22は、一人の観客から10体のアバター600を生成して表示する場合の例を示している。実際の観客は8人であるので、80体のアバター600が生成されて表示される。各アバター600は、生成元の観客の感情が反映される。したがって、同じ観客から生成されるアバター600は、同じ感情が表現されたアバター600となる。アバター600は、ベースとなる画像レイヤーの上にランダムに配置される。
このように、CG画像生成部134では、一人の観客から複数体のアバターを生成し、生成した複数体のアバターをベースとなる画像レイヤーの上に配置して、観客エリアのCG画像を生成する。
合成画像生成部135は、CG画像生成部134で生成されたCG画像を撮影画像(実写画像)に合成して、合成画像を生成する。これにより、観客エリアの部分がCG画像で構成された画像(合成画像)が生成される。
画像出力部136は、合成画像生成部135で生成された合成画像を配信用の画像として、配信装置200に出力する。
[画像処理装置の動作]
画像処理装置100は、撮影装置10から出力される画像(撮影画像)を入力し、所定の処理を行って、配信用の画像を生成する。
まず、入力した撮影画像から各観客の顔が検出され、検出された顔の画像に基づいて、各観客の感情が推定される。次に、観客エリアのCG画像が生成される。このCG画像は、観客エリアにいる観客をアバターで表わした画像である。アバターは、一人の観客から複数体生成される。各アバターは、生成元の観客の感情が反映される。CG画像は、ベースとなる画像レイヤーの上にアバターを配置して生成される。CG画像が生成されると、合成画像が生成される。合成画像は、撮影画像(実写画像)の一部にCG画像を合成して生成される。CG画像は、撮影画像の観客エリアの部分に合成される。これにより、撮影画像(実写画像)において、観客が写された部分がCG画像でマスクされる。生成された合成画像は、配信用の画像として配信装置200に出力される。
以上説明したように、本実施の形態の画像処理装置によれば、一人の観客から複数体のアバターを生成して、合成用のCG画像が生成される。これにより、たとえば、数十人の反応を数百人の観客の反応に増幅でき、娯楽性を高めることができる。
[変形例]
[アバターの配置の変形例]
上記実施の形態では、一人の観客から生成した複数体のアバターをランダムに配置してCG画像を生成する場合を例に説明したが、アバターの配置は、これに限定されるものではない。たとえば、あらかじめ定めた規則に従って配置する構成とすることもできる。
[生成するアバターの数]
一人の観客から生成するアバターの数は、ユーザーが任意に設定できる構成としてもよいし、自動で設定する構成としてもよい。自動で設定する構成の場合は、たとえば、あらかじめCG画像に表示するアバターの数を設定しておき、その数から逆算して、一人の観客から生成するアバターの数を決定する構成とすることができる。たとえば、生成するCG画像に表示するアバターの数を100とする。この場合、たとえば、撮影画像(実写画像)から検出される観客の数が10人であるとすると、一人の観客から生成するアバターの数は10体となる。また、たとえば、撮影画像(実写画像)から検出される観客の数が9人であるとすると、一人の観客から生成するアバターの数は11体となる(小数点以下切り捨て)。
[一人の観客から生成するアバター]
一人の観客から生成するアバターは、異なるキャラクターで構成することがより好ましい。
[観客エリアのCG画像の変形例]
ベースとする観客エリアの画像(観客エリアの画像レイヤー)は、必ずしも実際の観客エリアを模した画像である必要はない。たとえば、架空の観客エリアの画像を用意し、この画像をベースの画像レイヤーとして使用してもよい。
[その他の実施の形態]
[CG画像の生成の変形例]
観客エリアのCG画像は、顔が検出されたすべての観客を個別にアバターに置き替えてを生成してもよい。すなわち、顔が検出できた観客を一対一でアバターに置き替えて、観客エリアのCG画像を生成する。この場合、顔が検出された観客の数だけアバターが表示される。
また、上記実施の形態では、アバターの顔の表情に感情を反映させているが、アバターの動き(身振り、手振り等)に感情を反映させてもよい。また、顔の表情と動きの双方に感情を反映させてもよい。
また、上記実施の形態では、フレーム単位で撮影画像を処理し、フレーム単位でCG画像を生成する構成としているが、あらかじめ定めたフレーム間隔でCG画像を生成する構成としてもよい。この場合、配信用の画像は、あらかじめ定められたフレーム間隔で観客エリアの画像部分、すなわち、CG画像の部分が切り替わる。
[システム構成]
上記実施の形態では、撮影装置10で撮影した画像から配信用の画像を生成する機能(画像処理装置100の機能)と、画像を配信する機能(配信装置200の機能)を別の装置で実現しているが、一つの装置で実現する構成とすることもできる。
[画像処理装置に関して]
画像処理装置の一部又は全部の機能は、各種のプロセッサ(processor)で実現できる。各種のプロセッサには、プログラムを実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。プログラムは、ソフトウェアと同義である。
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサで構成されてもよい。たとえば、1つの処理部は、複数のFPGA、或いは、CPUとFPGAの組み合わせによって構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
1 画像処理システム
2 コンサート会場
3 ステージエリア
4 観客エリア
4A~4L 分割エリア
5 ステージ
6 座席
10 撮影装置
100 画像処理装置
100A 画像処理装置
101 CPU
102 ROM
104 HDD
107 入力インターフェース
108 出力インターフェース
111 撮影画像入力部
112 感情推定部
112A 顔検出部
112B 感情認識部
113 代表感情決定部
114 CG画像生成部
115 合成画像生成部
116 画像出力部
121 属性推定部
122 代表属性決定部
131 撮影画像入力部
132 感情推定部
134 CG画像生成部
135 合成画像生成部
136 画像出力部
200 配信装置
300 再生装置
301 通信部
302 検出部
303 操作部
304 表示部
306 制御部
306A 再生画像入力部
306B 視野特定部
306C 表示制御部
410 教壇エリア
411 教壇
412 教卓
420 観客エリア
421 座席
422 机
500 観客
600 アバター
F 検出した顔を囲う枠
P 撮影位置
R 方向を示す矢印
S11~S43 画像処理システムの処理手順
VA 再生装置での画像の表示範囲

Claims (15)

  1. 特定エリアを含んだ第1画像を入力する第1画像入力部と、
    前記第1画像に基づいて、前記特定エリア内の人物の表情及び/又は感情を推定する第1推定部と、
    人物がアバターで表わされた前記特定エリアの画像であって、少なくとも前記第1推定部で推定した表情及び/又は感情を前記アバターに反映させた画像を第2画像として生成する第2画像生成部と、
    前記第1画像の前記特定エリアに前記第2画像を合成して第3画像を生成する第3画像生成部と、
    を備え
    前記第2画像生成部は、前記特定エリアを複数に分割し、分割エリアごとに1体の前記アバターを配置して、前記第2画像を生成する、
    像処理装置。
  2. 前記第1推定部による推定結果に基づいて、前記分割エリアを代表する表情及び/又は感情を決定する第1決定部を更に備え、
    前記第2画像生成部は、前記第1決定部で決定された表情及び/又は感情を各前記分割エリアの前記アバターに反映させて、前記第2画像を生成する、
    請求項に記載の画像処理装置。
  3. 前記第1決定部は、前記分割エリアにいる人物の表情及び/又は感情の標準値に基づいて、前記分割エリアを代表する表情及び/又は感情を決定する、
    請求項に記載の画像処理装置。
  4. 前記第1画像に基づいて、前記特定エリア内の人物の属性を推定する第2推定部と、
    前記第2推定部による推定結果に基づいて、前記分割エリアを代表する属性を決定する第2決定部と、
    を更に備え、
    前記第2画像生成部は、前記第2決定部で決定された属性を各前記分割エリアの前記アバターに反映させて、前記第2画像を生成する、
    請求項1から3のいずれか1項に記載の画像処理装置。
  5. 前記属性は、年齢及び性別の少なくとも一方を含む、
    請求項に記載の画像処理装置。
  6. 前記特定エリアは、前記分割エリアが人数に応じて分割される、
    請求項1から5のいずれか1項に記載の画像処理装置。
  7. 特定エリアを含んだ第1画像を入力する第1画像入力部と、
    前記第1画像に基づいて、前記特定エリア内の人物の表情及び/又は感情を推定する第1推定部と、
    人物がアバターで表わされた前記特定エリアの画像であって、少なくとも前記第1推定部で推定した表情及び/又は感情を前記アバターに反映させた画像を第2画像として生成する第2画像生成部と、
    前記第1画像の前記特定エリアに前記第2画像を合成して第3画像を生成する第3画像生成部と、
    を備え
    前記第2画像生成部は、前記第1推定部で推定した各人物の表情及び/又は感情を一人に付き複数体の前記アバターに反映させて、前記第2画像を生成する、
    像処理装置。
  8. 前記第1画像は、周囲360°の範囲を撮影した画像である、
    請求項1からのいずれか1項に記載の画像処理装置。
  9. 前記第1画像は、イベント会場を撮影した画像であり、前記特定エリアは、前記イベント会場において観客がいるエリアである、
    請求項1からのいずれか1項に記載の画像処理装置。
  10. 前記第1推定部は、複数種類の表情及び/又は感情のそれぞれの度合いを数値化して、表情及び/又は感情を推定する、
    請求項1からのいずれか1項に記載の画像処理装置。
  11. 請求項1から10のいずれか1項に記載の画像処理装置と、
    前記画像処理装置で生成された前記第3画像を再生する再生装置と、
    を備え、
    前記再生装置は、
    前記第3画像を入力する第3画像入力部と、
    前記第3画像の一部を切り出して、表示用の第4画像を生成する第4画像生成部と、
    表示範囲の切り替えを指示する指示部と、
    前記第4画像を出力する第4画像出力部と、
    を備え、前記第4画像生成部は、前記指示部の指示に応じて、前記第3画像から画像を切り出す範囲を切り替えて、前記第4画像を生成する、
    画像処理システム。
  12. 前記再生装置は、ヘッドマウントディスプレイであり、
    本体の動きを検出する検出部を備え、
    前記指示部は、前記検出部で検出される前記本体の動きに応じて、前記表示範囲の切り替えを指示する、
    請求項11に記載の画像処理システム。
  13. 特定エリアを含んだ第1画像を入力するステップと、
    前記第1画像に基づいて、前記特定エリア内の人物の表情及び/又は感情を推定するステップと、
    人物がアバターで表わされた前記特定エリアの画像であって、少なくとも推定した表情及び/又は感情を前記アバターに反映させた画像を第2画像として生成するステップであって、前記特定エリアを複数に分割し、分割エリアごとに1体の前記アバターを配置して、前記第2画像を生成するステップと、
    前記第1画像の前記特定エリアに前記第2画像を合成して第3画像を生成するステップと、
    を含む画像処理方法。
  14. 特定エリアを含んだ第1画像を入力するステップと、
    前記第1画像に基づいて、前記特定エリア内の人物の表情及び/又は感情を推定するステップと、
    人物がアバターで表わされた前記特定エリアの画像であって、少なくとも推定した表情及び/又は感情を前記アバターに反映させた画像を第2画像として生成するステップであって、前記第1画像に基づいて推定した前記特定エリア内の各人物の表情及び/又は感情を一人に付き複数体の前記アバターに反映させて、前記第2画像を生成するステップと、
    前記第1画像の前記特定エリアに前記第2画像を合成して第3画像を生成するステップと、
    を含む画像処理方法。
  15. 前記第3画像の一部を切り出して、表示用の第4画像を生成するステップと、
    前記第4画像を出力するステップと、
    を更に含み、
    前記第4画像を生成するステップは、表示範囲の切り替えの指示を受け付け、受け付けた指示に応じて、前記第3画像から画像を切り出す範囲を切り替えて、前記第4画像を生成する、
    請求項13又は14に記載の画像処理方法。
JP2019205261A 2019-11-13 2019-11-13 画像処理装置、画像処理方法及び画像処理システム Active JP7319172B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019205261A JP7319172B2 (ja) 2019-11-13 2019-11-13 画像処理装置、画像処理方法及び画像処理システム
JP2023118238A JP2023133397A (ja) 2019-11-13 2023-07-20 画像処理装置、画像処理方法及び画像処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019205261A JP7319172B2 (ja) 2019-11-13 2019-11-13 画像処理装置、画像処理方法及び画像処理システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023118238A Division JP2023133397A (ja) 2019-11-13 2023-07-20 画像処理装置、画像処理方法及び画像処理システム

Publications (2)

Publication Number Publication Date
JP2021077255A JP2021077255A (ja) 2021-05-20
JP7319172B2 true JP7319172B2 (ja) 2023-08-01

Family

ID=75897939

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019205261A Active JP7319172B2 (ja) 2019-11-13 2019-11-13 画像処理装置、画像処理方法及び画像処理システム
JP2023118238A Pending JP2023133397A (ja) 2019-11-13 2023-07-20 画像処理装置、画像処理方法及び画像処理システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023118238A Pending JP2023133397A (ja) 2019-11-13 2023-07-20 画像処理装置、画像処理方法及び画像処理システム

Country Status (1)

Country Link
JP (2) JP7319172B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021124958A (ja) * 2020-02-05 2021-08-30 パナソニックIpマネジメント株式会社 観客分析装置、観客分析方法、及び、コンピュータプログラム
WO2023188462A1 (ja) * 2022-03-28 2023-10-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理装置および情報処理方法
JP7452591B1 (ja) 2022-08-31 2024-03-19 大日本印刷株式会社 画像生成システム及び画像生成方法
WO2024080135A1 (ja) * 2022-10-13 2024-04-18 ソニーグループ株式会社 表示制御装置、表示制御方法および表示制御プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001067482A (ja) 1999-08-30 2001-03-16 Atr Media Integration & Communications Res Lab 人物の反応認識装置およびそのためのプログラムを記録したコンピュータ読取可能な記録媒体
JP2013197740A (ja) 2012-03-16 2013-09-30 Toshiba Corp 電子機器、電子機器の制御方法、電子機器の制御プログラム
JP2015210547A (ja) 2014-04-23 2015-11-24 博司 佐久田 遠隔見守りシステム
JP2019126101A (ja) 2014-07-18 2019-07-25 ソニー株式会社 情報処理装置及び方法、表示制御装置及び方法、プログラム、並びに情報処理システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001067482A (ja) 1999-08-30 2001-03-16 Atr Media Integration & Communications Res Lab 人物の反応認識装置およびそのためのプログラムを記録したコンピュータ読取可能な記録媒体
JP2013197740A (ja) 2012-03-16 2013-09-30 Toshiba Corp 電子機器、電子機器の制御方法、電子機器の制御プログラム
JP2015210547A (ja) 2014-04-23 2015-11-24 博司 佐久田 遠隔見守りシステム
JP2019126101A (ja) 2014-07-18 2019-07-25 ソニー株式会社 情報処理装置及び方法、表示制御装置及び方法、プログラム、並びに情報処理システム

Also Published As

Publication number Publication date
JP2021077255A (ja) 2021-05-20
JP2023133397A (ja) 2023-09-22

Similar Documents

Publication Publication Date Title
CN111148554B (zh) 现实世界空间的虚拟现实呈现
JP7319172B2 (ja) 画像処理装置、画像処理方法及び画像処理システム
US11436803B2 (en) Insertion of VR spectator in live video of a live event
JP6725038B2 (ja) 情報処理装置及び方法、表示制御装置及び方法、プログラム、並びに情報処理システム
JP2022111224A (ja) 広範囲同時遠隔ディジタル提示世界
US10516870B2 (en) Information processing device, information processing method, and program
JP2019510321A (ja) 仮想現実用パススルーカメラのユーザインターフェイス要素
WO2016014233A1 (en) Real-time immersive mediated reality experiences
US20200326831A1 (en) Augmented reality experience creation via tapping virtual surfaces in augmented reality
US11521346B2 (en) Image processing apparatus, image processing method, and storage medium
US20220270302A1 (en) Content distribution system, content distribution method, and content distribution program
JP6609078B1 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
CN113632498A (zh) 内容发布系统、内容发布方法、以及内容发布程序
JP2021057017A (ja) コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム
JP7344084B2 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
JP7044149B2 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2023105750A1 (ja) 情報処理システムおよび情報処理方法
EP4099275A1 (en) Information processing device, information processing system, and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230720

R150 Certificate of patent or registration of utility model

Ref document number: 7319172

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150