JP2021064920A - 画像提示プログラム、画像提示方法及び画像提示装置 - Google Patents

画像提示プログラム、画像提示方法及び画像提示装置 Download PDF

Info

Publication number
JP2021064920A
JP2021064920A JP2019190277A JP2019190277A JP2021064920A JP 2021064920 A JP2021064920 A JP 2021064920A JP 2019190277 A JP2019190277 A JP 2019190277A JP 2019190277 A JP2019190277 A JP 2019190277A JP 2021064920 A JP2021064920 A JP 2021064920A
Authority
JP
Japan
Prior art keywords
image
subject
size
orientation
comment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019190277A
Other languages
English (en)
Inventor
山口 伸康
Nobuyasu Yamaguchi
伸康 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019190277A priority Critical patent/JP2021064920A/ja
Publication of JP2021064920A publication Critical patent/JP2021064920A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】自習時に第1の被写体及び第2の被写体の比較が容易な提示を実現すること。【解決手段】画像提示プログラムは、第1の被写体及び第2の被写体ごとに所定のレッスンが行われる3次元空間上の位置、大きさ及び向きを取得し、第1の被写体の3次元空間上の位置、大きさ及び向きに基づいて基準とする向きおよび大きさで第1の被写体の画像が生成される第1の仮想カメラの位置を設定すると共に、第2の被写体の3次元空間上の位置、大きさおよび向きに基づいて基準とする向きおよび大きさで第2の被写体の画像が生成される第2の仮想カメラの位置を設定し、3次元空間を撮像する複数のカメラにより同一時刻に撮像された複数の画像を用いて、第1の仮想カメラの位置に対応する第1の被写体の画像を生成すると共に、第2の仮想カメラの位置に対応する第2の被写体の画像を生成し、第1の被写体の画像および第2の被写体の画像を提示する、処理をコンピュータに実行させる。【選択図】図4

Description

本発明は、画像提示プログラム、画像提示方法及び画像提示装置に関する。
ダンスやスポーツ、体操などの各種のスタジオレッスンが知られている。例えば、スタジオレッスンでは、1人の先生につき複数の生徒が付き、スタジオで同じ内容のレッスンを一斉に行うグループレッスンが採用されることがある。
ところが、スタジオレッスンには、時間的余裕および経済的余裕が十分になければ、高頻度に通うことが困難である場合がある。このようにレッスンの頻度が低頻度になりやすい上、グループレッスンでは、1人の先生が受け持つ生徒の数が多いので、個々の生徒への指導が行き届かないことも多い。これらの要因が重なって、生徒の技量がなかなか上達しにくい側面があるので、レッスンの継続が困難である生徒も多く、生徒の定着率が下がる要因となっている。
このことから、欠席時のレッスン内容を閲覧したり、さらには技能の習得に有効な映像閲覧が可能な映像配信システムが提案されている。例えば、映像配信システムでは、ダンスクラスのレッスン空間において第1の被写体(例えばインストラクター)を撮影する第1カメラと、同じレッスン空間で第2の被写体(例えば生徒全体)を撮影する第2カメラとを設置する。そして、第1カメラの撮影映像である第1の映像コンテンツおよび第2カメラの撮影映像である第2の映像コンテンツの各々を、クラス及び日時に関する同一の属性情報を関連づけて保存する。その上で、外部端末(ユーザ端末)から受け付けた閲覧要求のユーザ情報に対応する属性情報が関連付けられた第1の映像コンテンツおよび第2の映像コンテンツのうち、外部端末からの指定情報で指定された映像コンテンツを外部端末に配信する。
特開2010−166322号公報 特開2014−183560号公報 特開2018−55644号公報 特開2014−4045号公報
しかしながら、上記の技術では、第1の被写体及び第2の被写体が異なる向き及び/又は大きさで映る映像コンテンツが配信されるので、第1の被写体及び第2の被写体の比較が困難である。
すなわち、上記の映像配信システムでは、第1カメラにより撮影される第1の被写体の向き及び大きさと、第2カメラにより撮影される第2の被写体の向き及び大きさとが異なる。このため、第1の被写体及び第2の被写体の互いの向き及び大きさが異なる第1の映像コンテンツ及び第2の映像コンテンツが表示されたとしても、第1の被写体及び第2の被写体の姿勢や動作などの差分を確認することは困難である。このような差分が確認できなければ、改善のポイントが把握できないので、課外での自習に有効活用することも困難である。
1つの側面では、本発明は、自習時に第1の被写体及び第2の被写体の比較が容易な提示を実現できる画像提示プログラム、画像提示方法及び画像提示装置を提供することを目的とする。
一態様では、画像提示プログラムは、第1の被写体及び第2の被写体ごとに所定のレッスンが行われる3次元空間上の位置、大きさ及び向きを取得し、前記第1の被写体の3次元空間上の位置、大きさ及び向きに基づいて基準とする向きおよび大きさで前記第1の被写体の画像が生成される第1の仮想カメラの位置を設定すると共に、前記第2の被写体の3次元空間上の位置、大きさおよび向きに基づいて前記基準とする向きおよび大きさで前記第2の被写体の画像が生成される第2の仮想カメラの位置を設定し、前記3次元空間を撮像する複数のカメラにより同一時刻に撮像された複数の画像を用いて、前記第1の仮想カメラの位置に対応する第1の被写体の画像を生成すると共に、前記第2の仮想カメラの位置に対応する第2の被写体の画像を生成し、前記第1の被写体の画像および前記第2の被写体の画像を提示する、処理をコンピュータに実行させる。
自習時に第1の被写体及び第2の被写体の比較が容易な提示を実現できる。
図1は、実施例1に係るシステムの構成例を示す図である。 図2Aは、カメラの配置パターンの一例を示す図である。 図2Bは、カメラの配置パターンの一例を示す図である。 図2Cは、カメラの配置パターンの一例を示す図である。 図3Aは、画像の一例を示す図である。 図3Bは、Visual Hullの一例を示す図である。 図3Cは、レンダリングの一例を示す図である。 図4は、生徒端末の表示画面の一例を示す図である。 図5は、実施例1に係る画像提示装置の機能的構成の一例を示すブロック図である。 図6は、実施例1に係る3次元形状の算出処理の手順を示すフローチャートである。 図7は、実施例1に係る画像提示処理の制御シーケンスを示す図である。 図8は、実施例1に係る画像生成処理の手順を示すフローチャートである。 図9は、実施例2に係る画像提示装置の機能的構成の一例を示す図である。 図10は、生徒端末の表示画面の一例を示す図である。 図11Aは、コメントデータの一例を示す図である。 図11Bは、コメントデータの一例を示す図である。 図12は、生徒端末の表示画面の一例を示す図である。 図13は、ハードウェア構成の一例を示す図である。
以下に添付図面を参照して本願に係る画像提示プログラム、画像提示方法及び画像提示装置について説明する。なお、この実施例は開示の技術を限定するものではない。そして、各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
[レッスンの一例]
以下、レッスンのあくまで一例として、ダンスレッスンを例に挙げるが、ヨガやピラティスなどの体操のレッスンであってもよいし、ゴルフやテニスなどのスポーツのレッスンであってもかまわない。さらに、ダンスレッスンには、1人の先生につき複数の生徒が付き、スタジオで同じ内容のレッスンを一斉に行うグループレッスンが採用される場合を例示する。
ここで言う「先生」及び「生徒」は、レッスンにおける役割を識別するラベルに過ぎない。すなわち、上記の「先生」とは、レッスンにおいて教える側の者を総称するラベルであり、例えば、インストラクタやコーチ、これらに類する呼称などもその範疇に含まれ得る。また、上記の「生徒」とは、レッスンにおいて教わる側の者を総称するラベルであり、例えば、受講者やこれに類する呼称などもその範疇に含まれ得る。
[レッスンの現状]
スタジオレッスンには、時間的余裕および経済的余裕が十分になければ、高頻度に通うことが困難である。このようにレッスンの頻度が低頻度になりやすい上、グループレッスンでは、1人の先生が受け持つ生徒の数が多いので、個々の生徒への指導が行き届かないことも多い。これらの要因が重なって、生徒の技量がなかなか上達しにくい側面があるので、レッスンの継続が困難である生徒も多く、生徒の定着率が下がる要因となっている。
ダンスレッスンの場合、初心者には難しいプログラムであるが、インストラクタ等の先生の指導が行き届かず、生徒の技量がなかなかうまくなれない。例えば、インストラクタの指示に疑問点や不明点がある場合であっても、他の生徒を前にしてレッスンの最中にインストラクタへの質問を行うハードルは高い。さらに、ダンスの技量をスコア等の数値によって評価することは困難であるので、生徒が自分の上達具合を実感するのが難しい。
このようなことから、ダンスレッスンの教室通いが続かない要因を次のように整理できる。
(1)インストラクタは全員を見られない=指導が行き届かない
(2)分からないことだらけで、置いてけぼりになりやすい
(3)その場でインストラクタに聞く勇気は無い
これら(1)〜(3)の要因によって、「どうすれば良いか分からない、不安だらけで楽しくない」といった心理状態に陥りやすくなる。
(イ)初心者コースのはずが既にハイレベル
(ロ)基礎が不十分なうちにいきなり振り付け中心のレッスンになる
(ハ)週1回の低頻度のレッスンでは絶対的に練習時間が足りない
上記(ロ)を補足すれば、ダンスレッスンのプログラムがはじまりの挨拶、ウォーミングアップ、基礎練習、振り付け練習、終わりの挨拶といったスケジュールが定められていたとしても、振り付け練習によってその他の練習時間が圧迫される場合がある。
これら(イ)〜(ハ)の要因によって、「通ってもうまくならない、うまくなっていることを実感できない」といった心理状態に陥りやすくなる。これらの心理状態が相まって、生徒の定着率が下がる要因となっている。このことから、ダンスの上達を早め、レッスンを継続できるソリューションが求められている。
[従来技術]
このような現状においてレッスン中の映像を提供する技術が提案されている。例えば、欠席時のレッスン内容を閲覧したり、さらには技能の習得に有効な映像閲覧が可能な映像配信システムが提案されている。映像配信システムでは、ダンスクラスのレッスン空間において第1の被写体(例えばインストラクター)を撮影する第1カメラと、同じレッスン空間で第2の被写体(例えば生徒全体)を撮影する第2カメラとを設置する。そして、第1カメラの撮影映像である第1の映像コンテンツおよび第2カメラの撮影映像である第2の映像コンテンツの各々を、クラス及び日時に関する同一の属性情報を関連づけて保存する。その上で、外部端末(ユーザ端末)から受け付けた閲覧要求のユーザ情報に対応する属性情報が関連付けられた第1の映像コンテンツおよび第2の映像コンテンツのうち、外部端末からの指定情報で指定された映像コンテンツを外部端末に配信する。
[課題の一側面]
しかしながら、上記の技術では、第1の被写体及び第2の被写体が異なる向き及び/又は大きさで映る映像コンテンツが配信されるので、第1の被写体及び第2の被写体の比較が困難である。
すなわち、上記の映像配信システムでは、第1カメラにより撮影される第1の被写体の向き及び大きさと、第2カメラにより撮影される第2の被写体の向き及び大きさとが異なる。このため、第1の被写体及び第2の被写体の互いの向き及び大きさが異なる第1の映像コンテンツ及び第2の映像コンテンツが表示されたとしても、第1の被写体及び第2の被写体の姿勢や動作などの差分を確認することは困難である。このような差分が確認できなければ、改善のポイントが把握できないので、課外での自習に有効活用することも困難である。
[課題解決のアプローチの一側面]
そこで、本実施例では、同時刻に複数のカメラで撮像される第1の被写体の第1画像と第2の被写体の第2画像を基準の方向および大きさに統一する補正を行い、補正後の第1画像と補正後の第2画像を提示する画像提示サービスを提供する。このような画像提示サービスの実現には、1つの側面として、視点が異なる複数のカメラが撮像する複数のカメラ画像を組み合わせることにより、任意の視点から3次元の被写体が観測される仮想視点の画像を生成する自由視点映像の技術が活用される。
このような画像提示サービスを提供するシステムの一例を示す。図1は、実施例1に係るシステムの構成例を示す図である。図1に示すように、システム1には、カメラ5A〜5Dと、画像提示装置10と、生徒端末30A〜30Cとが含まれ得る。なお、図1には、あくまで一例として、2人の生徒3S1及び3S2を例示したが、生徒の数は図示の例に限定されず、任意の数の生徒がレッスンを受けることとしてもかまわない。
以下では、カメラ5A〜5Dのことを「カメラ5」と記載すると共に、生徒端末30A〜30Cのことを「生徒端末30」と記載する場合がある。なお、図1には、あくまで一例として、4つのカメラ5及び3つの生徒端末30を図示したが、任意の数のカメラ5及び任意の数の生徒端末30がシステム1に含まれることとしてもかまわない。
カメラ5は、画像提示装置10に接続される。また、画像提示装置10及び生徒端末30の間は、所定のネットワークNWを介して接続される。例えば、ネットワークNWは、有線または無線を問わず、インターネット、LAN(Local Area Network)やVPN(Virtual Private Network)などの任意の種類の通信網により構築することができる。あくまで一例として、図1には、画像提示装置10がネットワークNWを経由して自由視点映像を提示する場合を例示するが、画像提示装置10及び生徒端末30の間で必ずしも双方向に通信が行われずともかまわない。例えば、ネットワークNWを経由せず、自由視点映像が放送波を介して画像提示装置10から生徒端末30へ提供されることとしてもかまわない。
カメラ5は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を搭載する撮像装置の一例である。
例えば、複数のカメラ5の撮影範囲が組み合わさることにより自由視点映像の生成対象とするスタジオSTの3次元空間の全域が複数のカメラ5の撮影範囲に収まる配置で各カメラ5が設置される。さらに、2つ以上のカメラ5により撮像されたカメラ画像から3次元空間上に存在する被写体3の3次元形状を算出する側面から、各カメラ5は、他のカメラ5との間で撮影範囲の一部が重複する状態で配置することができる。このような配置の下、複数のカメラ5がフレームごとに同期して撮像することにより、異なる視点ごとに同一のタイミングで撮像された複数の画像、すなわち多視点のカメラ画像がフレーム単位で得られる。なお、当然のことながら、各カメラ5が画像を撮像するフレームレートも同一のフレームレートに統一される。
図2A〜図2Cは、カメラ5の配置パターンの一例を示す図である。図2A〜図2Cには、あくまで一例として、直方体状に形成されたスタジオSTが例示されている。さらに、図2A〜図2Cには、第1の被写体の一例として、先生3Tが例示されると共に、第2の被写体の一例として、生徒3S1及び生徒3S2が例示されている。図2A〜図2Cに示すスタジオSTでは、先生3Tと生徒3S1及び生徒3S2とがスタジオSTの前方に設置されたミラーMに向ってダンスを行うことで、ミラーMに写る像を確認しながらレッスンを行う例が示されている。
例えば、図2Aには、スタジオSTの前方上部の2つのコーナーにカメラ5A及びカメラ5Bの2つのカメラが配置された例が示されている。また、図2Bには、図2Aに示されたカメラ5A及びカメラ5Bに加えて、スタジオSTの前方下部の2つのコーナーにカメラ5C及びカメラ5Dの2つのカメラがさらに配置された例が示されている。さらに、図2Cには、図2Cに示されたカメラ5A〜5Dに加えて、スタジオSTの後方上部および後方下部の4つのコーナーにカメラ5E〜5Hの4つのカメラがさらに配置された例が示されている。
これら3つのカメラ5の配置パターンの例で言えば、カメラ5の台数は、多いものから順に、図2Cに示された配置パターン、図2Bに示された配置パターン、図2Aに示された配置パターンとなる。このため、コストの一面から言えば、コストが低いものから順に、図2Aに示された配置パターン、図2Bに示された配置パターン、図2Cに示された配置パターンとなる。また、自由視点映像の画質の一面から言えば、画質が高いものから順に、図2Cに示された配置パターン、図2Bに示された配置パターン、図2Aに示された配置パターンとなる。このように例示された3つのカメラ5の配置パターン、あるいはその他のカメラ5の配置パターンの中から、コスト、画質あるいはその他の観点に基づいて1つの配置パターンを選択することができる。
画像提示装置10は、上記の画像提示サービスを提供するコンピュータの一例である。
一実施形態として、画像提示装置10は、パッケージソフトウェア又はオンラインソフトウェアとして、上記の画像提示サービスを実現する画像提示プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、画像提示装置10は、上記の画像提示サービスを提供するWebサーバとして実装することとしてもよいし、アウトソーシングによって上記の画像提示サービスを提供するクラウドとして実装することとしてもかまわない。
生徒端末30は、上記の画像提示サービスの提供を受けるコンピュータの一例である。
一実施形態として、上記の画像提示サービスの提供を受けるユーザの一例である生徒3S1や3S2により使用される任意のコンピュータが生徒端末30に対応する。例えば、生徒端末30には、スマートフォンや携帯電話機に代表される携帯端末装置などが該当しうる。このような携帯端末装置の他、生徒端末30は、パーソナルコンピュータやワークステーションなどのデスクトップ型のコンピュータ、あるいはラックトップ型のコンピュータであってかまわない。
[自由視点映像]
上記の画像提示サービスに活用する自由視点映像の技術について説明する。例えば、自由視点映像は、(1)前景背景分離、(2)3次元形状の算出、(3)レンダリングの3つの処理を実行することによって生成される。
(1)前景背景分離
上記の「前景背景分離」とは、各視点に対応するカメラ画像ごとに当該カメラ画像から前景と背景とを分離する処理を指す。ここで言う「前景」とは、スタジオSTの3次元空間に存在する物体の中でも先生3Tや生徒3S1及び3S2などの被写体に対応する一方で、「背景」とは、被写体の背後に存在する光景に対応する。この前景背景分離は、同一のフレームのカメラ画像ごとに並列して実行することもできれば、所定数ずつ順番に実行することもできる。
図3Aは、画像の一例を示す図である。図3Aには、ある視点p1に対応するカメラ画像200が示されると共に、視点p1のカメラ画像200から生成されたシルエット画像210が示されている。前景背景分離には、あくまで一例として、いわゆる背景差分をカメラ画像200に適用したり、あるいはカメラ画像200に2次元のグラフカットを適用したりする。これら背景差分やグラフカットを含む任意のアルゴリズムが適用されることによって、各画素が画素値を持つカメラ画像200から各画素に前景または背景の2値のラベルが割り当てられたシルエット画像210が生成される。このシルエット画像210では、図3Aに示すように、カメラ画像200に含まれる被写体3のシルエットおよび背景が分離される。
(2)3次元形状の算出
上記の「3次元形状の算出」には、一例として、Visual−Hullという技術が用いられる。Visual Hullでは、カメラ5の光学中心とシルエット画像上のシルエットとを結んでできるCone(視体積)が生成された上で、Cone同士が重なる3次元空間上の領域が被写体3の3次元形状として算出される。
図3Bは、Visual Hullの一例を示す図である。図3Bには、カメラ5A〜5Cの3つのカメラ5のシルエット画像210A〜210CがVisual Hullの算出に用いられる場合が示されている。図3Bに示すように、カメラ5A〜5Cの各視点に対応するシルエット画像210A〜210CごとにシルエットSA〜SCが3次元空間に投影される。すなわち、シルエットSAが投影された場合、カメラ5Aの光学中心およびシルエット画像210A上のシルエットSAを結ぶ視体積CAが得られる。さらに、シルエットSBが投影された場合、カメラ5Bの光学中心およびシルエット画像210B上のシルエットSBを結ぶ視体積CBが得られる。さらに、シルエットSCが投影された場合、カメラ5Cの光学中心およびシルエット画像210C上のシルエットSCを結ぶ視体積CCが得られる。これら視体積CA〜CCが重複するVisual Hull領域、すなわち図3Bに示す黒の塗り潰しの3次元モデルが被写体3の3次元形状として算出される。
(3)レンダリング
上記の「レンダリング」とは、仮想視点に対応するカメラ画像、いわゆる自由視点映像を多視点のカメラ画像を用いて生成する処理を指す。ここで言う「仮想視点」とは、仮想カメラに与えられる視点を指し、例えば、仮想カメラがスタジオSTの3次元空間上に配置される位置や姿勢などによって表される。例えば、仮想視点の位置は、カメラ5が配置される位置に限定されず、スタジオSTの3次元空間内の任意の位置であってよく、画像提示装置10によるシステム設定又は生徒端末30によるユーザ設定により指定される。
図3Cは、レンダリングの一例を示す図である。図3Cには、仮想カメラVcの位置がカメラ5Bおよびカメラ5Cの間に設定される場合が示されている。図3Cに示すように、仮想カメラVcに対応するカメラ画像の画素ごとに、仮想カメラVcの光学中心および画素を通る直線と、3次元形状が算出された3次元モデルとの交点の3次元空間上の位置が求められる(S1)。続いて、カメラ5の位置や姿勢などの外部パラメータ及びカメラ5の画角やレンズの歪みなどの内部パラメータが設定されたカメラパラメータにしたがって、上記の交点が各視点に対応するカメラ画像に投影される。ここでは、一例として、仮想カメラVcからの距離が近い所定数のカメラ5のカメラ画像、すなわちカメラ5BおよびカメラCの2つのカメラ画像200Bおよび200Cに上記の交点が投影される(S2B及びS2C)。これにより、仮想カメラVcの画素に対応するカメラ5Bの画素およびカメラ5Cの画素が特定される。
その後、カメラ5Bにより撮像されたカメラ画像のうち仮想カメラVcの画素に対応するカメラ5Bの画素が有する画素値と、カメラ5Cにより撮像されたカメラ画像のうちカメラ5Cの画素が有する画素値とが参照される(S3B及びS3C)。例えば、仮想カメラVcの画素に対応するカメラ5Bの画素の画素値と、仮想カメラVcの画素に対応するカメラ5Cの画素の画素値との統計値、例えば相加平均または仮想カメラVcとの距離を用いる加重平均などが仮想カメラVcの画素の画素値として決定される。
このように仮想カメラVcの画素ごとに画素値を決定することで、仮想視点に対応する自由視点映像がレンダリングされる。なお、ここでは、複数のカメラ5のカメラ画像を用いて自由視点映像がレンダリングされる場合を例示したが、仮想カメラVcとの距離が最も近い最寄りのカメラ5のカメラ画像に絞って自由視点映像のレンダリングに用いることもできる。
[画像提示サービスの提供例]
あくまで一例として、画像提示装置10は、カメラ5にレッスンの動画を撮像させる。例えば、スタジオSTで行われるレッスンの時間割りが登録されたスケジュール情報にしたがってレッスンの開始から終了までカメラ5ごとにスタジオSTで行われるレッスンの動画を撮像させる。このようにカメラ5ごとに撮像されたレッスンの動画の同一時刻のフレームに対応するカメラ画像ごとに(1)前景背景分離が行われる。これにより、第1の被写体の一例である先生のシルエットおよび第2の被写体の一例である生徒のシルエットを含むシルエット画像がカメラ5ごとに得られる。さらに、同一時刻のフレームごとに各シルエット画像を用いて(2)3次元形状の算出が行われる。これにより、同一時刻のフレームごとに先生および生徒の3次元空間上の位置、大きさ及び向きが算出された上で保存される。
このように各フレームにおける先生および生徒の3次元空間上の位置、大きさ及び向きが保存された状況の下、画像提示装置10は、生徒端末30から画像提示のリクエストを受け付けることができる。
あくまで一例として、生徒端末30から画像提示装置10へリクエストが行われる場合、上記の画像提示サービスのアカウントへのログインを受け付けた後に、ログイン認証に成功した生徒端末30から画像提示の対象とするレッスンの識別情報の指定を受け付ける。このレッスンの識別情報により、カメラ5が撮像するレッスンの動画のうち画像提示の対象とする動画を識別できると共に、当該レッスンで指導を行う先生を識別できる。さらに、上記の画像提示サービスのアカウントへのログインにより、レッスンに参加する生徒のうち画像提示の対象とする生徒を識別できる。
その後、画像提示装置10は、各カメラ5で撮像されたレッスンの動画に含まれる同一時刻のフレームごとに、次のような処理を行う。例えば、画像提示装置10は、画像提示の対象とする先生の3次元空間上の位置、大きさ及び向きに基づいて画像提示の対象とする先生が基準とする向きおよび大きさでレンダリングされる先生用の仮想カメラの位置を設定する。さらに、画像提示装置10は、画像提示の対象とする生徒の3次元空間上の位置、大きさ及び向きに基づいて画像提示の対象とする生徒が基準とする向きおよび基準とする大きさでレンダリングされる生徒用の仮想カメラの位置を設定する。
そして、画像提示装置10は、同一時刻のフレームごとに、次のような処理を行う。例えば、画像提示装置10は、先生用の仮想カメラの位置に基づいて画像提示の対象とする先生の画像をレンダリングする。さらに、画像提示装置10は、生徒用の仮想カメラの位置に基づいて画像提示の対象とする生徒の画像をレンダリングする。その上で、画像提示装置10は、同一時刻のフレームごとにレンダリングされた先生の画像および生徒の画像を生徒端末30へ提示する。
図4は、生徒端末30の表示画面の一例を示す図である。図4には、カメラ5Aにより撮像されたレッスンの動画のうちあるフレームにおけるカメラ画像200Aが示されている。さらに、図4には、レッスンに参加する2人の生徒のうち生徒3S2のアカウントのログイン認証が成功した生徒端末30に対し、上記の画像提示サービスにより提示される先生3Tの画像および生徒3S2の画像が示されている。
図4に示すように、カメラ画像200Aでは、生徒3S1および生徒3S2が映るサイズよりも先生3Tが映るサイズの方が大きい。図4には、カメラ5Aが撮像するカメラ画像200Aのみを図示したが、スタジオSTにおける先生3Tの立ち位置と、生徒3S1および生徒3S2の立ち位置とは前後方向にずれているので、異なる視点のカメラ5であっても両者は異なる大きさで映る。このように、カメラ画像200Aやその他の視点のカメラ画像が提示されたとしても、先生3Tおよび生徒3S2の間で大きさが異なるので、先生3Tおよび生徒3S2の姿勢や動作などの差分が確認しづらい。
また、カメラ画像200Aでは、先生3Tが映る向きと、生徒3S2が映る向きとが異なる。図4には、カメラ5Aが撮像するカメラ画像200Aのみを図示したが、異なる視点のカメラ5であっても両者は異なる向きで映る。このように、カメラ画像200Aやその他の視点のカメラ画像が提示されたとしても、先生3Tおよび生徒3S2の間で向きが異なるので、先生3Tおよび生徒3S2の姿勢や動作などの差分が確認しづらい。
さらに、カメラ画像200Aには、先生3Tや生徒3S2の他、生徒3S2のアカウントと無関係な他の生徒、すなわち生徒3S1も含まれる。このように他の生徒が混じったカメラ画像200Aやその他の視点のカメラ画像が提示されるのは、プライバシー侵害や個人情報の保護の観点から好ましくない。さらに、図4の例では、2名の生徒を例示したが、生徒数が増加するほど自分を見つけるのが困難となり、さらに、他の生徒に隠れて自分の視認性が低下する可能性が高くなる。
一方、本実施例に係る画像提示サービスを通じて生徒端末30に提示される先生3Tの画像31および生徒3S2の画像32によれば、先生3Tおよび生徒3S2の向きがいずれも正面に統一される。さらに、先生3Tおよび生徒3S2の大きさがいずれも同程度のサイズに統一される。このように、先生3Tおよび生徒3S2が同一の向きおよび同一の大きさで提示されるので、先生3Tおよび生徒3S2の姿勢や動作などの差分が確認しやすい。それ故、ダンスの改善のポイントを把握できる可能性が高まる。例えば、図4に示す例で言えば、先生3Tの右足の高さと、生徒3S2の右足の高さとの違いが確認しやすくなるので、右足を上げすぎないという改善ポイントを把握できる。
したがって、本実施例に係る画像提示装置10によれば、自習時に第1の被写体及び第2の被写体の比較が容易な提示を実現することが可能になる。この結果、課外での自習の支援を実現できる。さらに、本実施例に係る画像提示装置10によれば、上記の画像提示サービスの提供を受ける生徒以外の他の生徒が混じった画像の提示を抑制できる。このため、プライバシー侵害を抑制し、また、個人情報の保護のコンプライアンスを遵守できる。さらに、生徒数が増加しても自分を見つける手間を不要化すると共に、他の生徒に隠れて自分の視認性が低下する事態も抑制できる。
[画像提示装置10の構成]
図5は、実施例1に係る画像提示装置10の機能的構成の一例を示すブロック図である。図5に示すように、画像提示装置10は、通信インタフェイス11と、記憶部13と、制御部15とを有する。なお、図5には、上記の画像提示サービスに関連する機能部が抜粋して示されているに過ぎず、図示以外の機能部、例えば既存のコンピュータがデフォルトまたはオプションで装備する機能部が画像提示装置10に備わることを妨げない。
通信インタフェイス11は、他の装置、例えばカメラ5や生徒端末30との間で通信制御を行うインタフェイスである。
あくまで一例として、通信インタフェイス11には、LANカードなどのネットワークインタフェイスカードを採用することができる。例えば、通信インタフェイス11は、各カメラ5へ動画の撮像開始指示や撮像終了指示を通知したり、また、各カメラ5からレッスンの動画を受信したりする。また、通信インタフェイス11は、生徒端末30から画像提示のリクエストを受け付けたり、また、第1の被写体の画像及び第2の被写体の画像を含む自習用の動画を端末装置30へ配信したりする。
記憶部13は、制御部15で実行されるOS(Operating System)を始め、上記の画像提示プログラムなどの各種プログラムに用いられるデータを記憶するハードウェアに対応する。
一実施形態として、記憶部13は、画像提示装置10における補助記憶装置に対応する。例えば、HDD(Hard Disk Drive)、光ディスクやSSD(Solid State Drive)などが補助記憶装置に対応する。この他、EPROM(Erasable Programmable Read Only Memory)などのフラッシュメモリも補助記憶装置に対応し得る。
記憶部13は、制御部15で実行されるプログラムに用いられるデータの一例として、動画データ13Aと、3次元形状データ13Bとを記憶する。これら動画データ13A及び3次元形状データ13B以外にも、記憶部13は、各種のデータを記憶することができる。例えば、記憶部13は、レッスンごとに開始日時及び終了日時の時間割や先生及び生徒などの参加者の識別情報が対応付けられたレッスン情報の他、先生や生徒のアカウント情報を記憶することができる。これら先生及び生徒のアカウント情報には、先生や生徒の顔画像をさらに関連付けて保存することもできる。この他、記憶部13は、カメラ5の位置や向きなどの外部パラメータ及びカメラ5の画角やレンズの歪みなどの内部パラメータを含むカメラパラメータなども記憶することができる。なお、動画データ13A及び3次元形状データ13Bの説明は、各データの登録または参照が行われる制御部15の説明と合わせて行うこととする。
制御部15は、画像提示装置10の全体制御を行う処理部である。
一実施形態として、制御部15は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などのハードウェアプロセッサにより実装することができる。ここでは、プロセッサの一例として、CPUやMPUを例示したが、汎用型および特化型を問わず、任意のプロセッサにより実装することができる。この他、制御部15は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによって実現されることとしてもかまわない。
制御部15は、図示しない主記憶装置として実装されるDRAM(Dynamic Random Access Memory)などのRAMのワークエリア上に、上記の画像提示プログラムを展開することにより、下記の処理部を仮想的に実現する。なお、ここでは、上記の画像提示サービスに対応する機能がパッケージ化された画像提示プログラムが実行される例を挙げたが、これに限定されない。例えば、上記の画像提示サービスが提供する機能のうちの一部の機能、例えばレッスンの動画から3次元形状を算出するまでの機能や生徒端末30からのリクエストに従って第1の被写体の画像及び第2の被写体の画像を提示する機能などをモジュール化することもできる。この場合、各機能に対応するプログラムモジュールの実行主体は異なる事業者のコンピュータであってもかまわない。
制御部15は、図5に示すように、取得部15Aと、分離部15Bと、算出部15Cと、受付部15Dと、設定部15Eと、生成部15Fと、提示部15Gとを有する。
取得部15Aは、レッスンの動画を取得する処理部である。
一実施形態として、取得部15Aは、スタジオSTで行われるレッスンの時間割りが登録されたスケジュール情報(不図示)を参照して、各カメラ5に動画をレッスン単位で撮像させる。例えば、取得部15Aは、スケジュール情報に含まれるレッスンのいずれかの開始時間になると、各カメラ5にレッスンの動画の撮像開始指示を通知する。その後、取得部15Aは、上記のレッスンの終了時間になると、各カメラ5にレッスンの動画の撮像終了指示を通知する。これによって、レッスンの開始から終了までの動画がカメラ5ごとに取得される。このようにカメラ5ごとに取得されたレッスンの動画は、動画データ13Aとして記憶部13に保存される。この際、レッスンの動画に含まれる各フレームの画像には、色調を補正する色補正やカメラ5の内部パラメータを用いたレンズの歪み補正などが行われることとしてもかまわない。
以下では、あくまで一例として、分離部15Bによる前景背景分離がシングルスレッドで実行される例を挙げて説明するが、これに限定されない。例えば、カメラ5の視点ごとに、分離部15Bによる前景背景分離がマルチスレッドで並列処理されることとしてもかまわない。このようにマルチスレッドで並列処理される場合、分離部15Bは、カメラ5の視点の数に対応するスレッド数まで並列して動作させることができる。
分離部15Bは、前景背景分離を行う処理部である。
一実施形態として、分離部15Bは、取得部15Aにより取得されるレッスンの動画の同一時刻のフレームに対応するカメラ画像ごとに、いわゆる背景差分により前景に対応するシルエットを抽出する。例えば、時系列に取得されるカメラ画像のうち、前景が観測されない可能性が高いフレームの画像を背景画像として保存しておく。例えば、背景画像には、所定のフレーム数にわたってフレーム間の差分が検出されなかったフレームの画像などを用いることができる。このような背景画像が保存された下で、分離部15Bは、最新のフレームに対応するカメラ画像と背景画像との間で画素値の差が所定の閾値以上であるか否かにより、前景または背景のラベルを画素ごとに割り当てる。これによって、画素ごとに前景または背景のラベルが割り当てられたシルエット画像が得られる。なお、ここでは、一例として、背景差分により前景背景分離が行われる例を挙げたが、2次元または3次元のグラフカットにより前景背景分離を行うこととしてもかまわない。
算出部15Cは、3次元形状を算出する処理部である。
一実施形態として、算出部15Cは、レッスンの動画における同一時刻のフレームごとに、分離部15Bにより各カメラ5の視点ごとに生成されたシルエット画像を用いて、シルエット画像に含まれる各シルエットの3次元形状を算出することができる。この3次元形状の算出には、図3Bを用いて上述したVisual−Hullを適用することができる。Visual Hullでは、カメラ5の光学中心とシルエット画像上のシルエットとを結んでできるConeが生成された上で、Cone同士が重なる3次元空間上の領域が前景に対応する被写体3の3次元形状として算出される。例えば、図3Bに示すように、算出部15Cは、カメラ5A〜5Cの各視点に対応するシルエット画像210A〜210CごとにシルエットSA〜SCを3次元空間に投影する。例えば、シルエットSAが投影された場合、カメラ5Aの光学中心およびシルエット画像210A上のシルエットSAを結ぶ視体積CAが得られる。さらに、シルエットSBが投影された場合、カメラ5Bの光学中心およびシルエット画像210B上のシルエットSBを結ぶ視体積CBが得られる。さらに、シルエットSCが投影された場合、カメラ5Cの光学中心およびシルエット画像210C上のシルエットSCを結ぶ視体積CCが得られる。これら視体積CA〜CCが重複するVisual Hull領域、すなわち図3Bに示す黒の塗り潰しの3次元形状が被写体3の3次元モデルとして得られる。
このように3次元形状が算出された上で、算出部15Cは、シルエット画像のシルエットに対応する被写体ごとに3次元形状の共通座標系の被写体の位置、例えばスタジオSTの3次元空間上の被写体の位置を算出する。さらに、算出部15Cは、被写体ごとにスタジオSTの3次元空間における被写体の大きさ及び向きを算出する。例えば、被写体の大きさとして、被写体の身長などを算出することができる。また、被写体の向きとして、被写体の顔や胴体の正面が向いている方向などを算出することができる。その上で、算出部15Cは、各被写体の顔画像と、当該レッスンの参加者に対応する先生の顔画像及び各生徒の顔画像とを照合することにより、各被写体に対応する先生の識別情報または生徒の識別情報を特定する。その後、算出部15Cは、各フレームから抽出された各被写体の位置、大きさ、向き、及び、先生の識別情報または生徒の識別情報が当該レッスンの識別情報に対応付けられた3次元形状データ13Bを記憶部13に保存する。
受付部15Dは、生徒端末30から画像提示のリクエストを受け付ける処理部である。
一実施形態として、受付部15Dは、上記の画像提示サービスのアカウントのログイン認証に成功した生徒端末30から画像提示の対象とするレッスンの識別情報の指定を画像提示のリクエストとして受け付ける。続いて、受付部15Dは、上記の画像提示のリクエストで指定を受け付けたレッスンの識別情報から、記憶部13に保存された動画データ13Aに含まれるレッスンの動画のうち画像提示のリクエストに対応するレッスンの動画を特定する。さらに、受付部15Dは、上記の画像提示のリクエストで指定を受け付けたレッスンの識別情報から当該レッスンで指導を行う先生を第1の被写体として特定する。さらに、受付部15Dは、上記の画像提示のリクエストを行うアカウントから、当該レッスンに参加する生徒のうち画像提示のリクエストに対応する生徒を第2の被写体として特定する。
設定部15Eは、第1の被写体及び第2の被写体ごとに仮想カメラの位置を設定する処理部である。なお、設定部15Eは、取得部の一例にも対応する。
一実施形態として、設定部15Eは、画像提示のリクエストに対応するレッスンの動画に含まれるフレームごとに、次のような処理を行う。例えば、設定部15Eは、画像提示のリクエストに対応するレッスンの動画に含まれるフレームを1つ選択する。続いて、設定部15Eは、第1の被写体および第2の被写体ごとに、記憶部13に記憶された3次元形状データ13Bのうち選択中のフレームに対応する位置、大きさおよび向きを取得する。その上で、設定部15Eは、第1の被写体の3次元空間上の位置、大きさおよび向きに基づいて第1の被写体が基準とする向きおよび基準とする大きさでレンダリングされる第1の被写体用の仮想カメラの位置を設定すると共に、第2の被写体の3次元空間上の位置、大きさおよび向きに基づいて第2の被写体が基準とする向きおよび基準とする大きさでレンダリングされる第2の被写体用の仮想カメラの位置を設定する。例えば、基準とする向きの一例として、顔の真正面を採用することができる。また、基準とする大きさの一例として、身長に関する所定値、例えばシルエットの高さ方向のピクセル数の所定値を採用することができる。ここで挙げる基準の「向き」や「大きさ」は、あくまで一例に過ぎず、生徒端末30から基準の「向き」及び「大きさ」のユーザ設定を受け付けることができるのは言うまでもない。
生成部15Fは、第1の被写体の画像および第2の被写体の画像を生成する処理部である。
一実施形態として、生成部15Fは、画像提示のリクエストに対応するレッスンの動画に含まれるフレームごとに、次のような処理を行う。すなわち、生成部15Fは、図3Cを用いて説明した通り、第1の被写体用の仮想カメラの位置に対応する第1の被写体の自由視点映像をレンダリングすると共に、第2の被写体用の仮想カメラの位置に対応する第2の被写体の自由視点映像をレンダリングする。このとき、第1の被写体の画像および第2の被写体の画像として、第1の被写体のシルエットに対応する形状の第1の被写体の画像および第2の被写体のシルエットに対応する形状の第2の被写体の画像を生成することもできれば、第1の被写体および第2の被写体に加えてこれらの背景の一部を含めた矩形状又は楕円状の第1の被写体の画像及び第2の被写体の画像を生成することもできる。
提示部15Gは、第1の被写体の画像および第2の被写体の画像を提示する処理部である。
一実施形態として、提示部15Gは、生成部15Fによりレッスンの動画のフレームごとに生成された第1の被写体の動画および第2の被写体の動画が所定のレイアウトで埋め込まれた動画再生用画面を生徒端末30へ提示する。例えば、動画再生用画面には、第1の被写体の動画の再生領域および第2の被写体の動画の再生領域を左右に並べて配置することができる。このような動画再生用画面が提示された生徒端末30では、第1の被写体の動画および第2の被写体の動画のフレームを同期して再生を行うことができる。
[処理の流れ]
次に、本実施例に係る画像提示装置10の処理の流れについて説明する。ここでは、画像提示装置10により実行される(1)3次元形状の算出処理を説明した後に、画像提示装置10及び生徒端末30間で行われる(2)画像提示処理の制御シーケンス、画像提示処理のサブフローとして行われる(3)画像生成処理について説明する。
(1)3次元形状の算出処理
図6は、実施例1に係る3次元形状の算出処理の手順を示すフローチャートである。この処理は、あくまで一例として、取得部15Aによりレッスンの動画が取得された場合にレッスンの動画における同一時刻のフレームごとに行われる。
図6に示すように、分離部15Bは、取得部15Aにより取得されるレッスンの動画の同一時刻のフレームに対応するカメラ画像ごとに、背景差分等により前景に対応するシルエットを抽出することにより、シルエット画像を生成する(ステップS101)。
続いて、算出部15Cは、ステップS101でカメラ画像ごとに生成されたシルエット画像を用いて、シルエット画像に含まれる各シルエットの3次元形状を算出する(ステップS102)。
そして、算出部15Cは、ステップS101で生成されたシルエット画像のシルエットに対応する被写体ごとに3次元形状の共通座標系の被写体の位置、例えばスタジオSTの3次元空間上の被写体の位置を算出する(ステップS103)。さらに、算出部15Cは、被写体ごとにスタジオSTの3次元空間における被写体の大きさ及び向きを算出する(ステップS104及びステップS105)。
その上で、算出部15Cは、各被写体の顔画像と、当該レッスンの参加者に対応する先生の顔画像及び各生徒の顔画像とを照合することにより、各被写体に対応する先生の識別情報または生徒の識別情報を特定する(ステップS106)。
その後、算出部15Cは、フレームごとに当該フレームから抽出された各被写体の位置、大きさ、向き、及び、先生の識別情報または生徒の識別情報が対応付けられた3次元形状データ13Bを記憶部13に保存し(ステップS107)、処理を終了する。
(2)画像提示処理の制御シーケンス
図7は、実施例1に係る画像提示処理の制御シーケンスを示す図である。図7に示すように、上記の画像提示サービスのアカウントのログイン認証に成功した生徒端末30は、画像提示の対象とするレッスンの識別情報の指定を受け付ける(ステップS201)。そして、生徒端末30は、画像提示のリクエストを画像提示装置10へ通知する(ステップS202)。
一方、画像提示装置10は、生徒端末30から画像提示の対象とするレッスンの識別情報の指定を画像提示のリクエストとして受け付ける(ステップS203)。そして、画像提示装置10は、第1の被写体が基準とする向きおよび基準とする大きさでレンダリングされた第1の被写体の画像および第2の被写体が基準とする向きおよび基準とする大きさでレンダリングされた第2の被写体の画像をレッスンの動画のフレームごとに生成する「画像生成処理」を実行する(ステップS204)。
その後、画像提示装置10は、ステップS204でレッスンの動画のフレームごとに生成された第1の被写体の動画および第2の被写体の動画が所定のレイアウトで埋め込まれた動画再生用画面を生徒端末30へ提示する(ステップS205)。そして、動画再生用画面が提示された生徒端末30では、第1の被写体の動画および第2の被写体の動画のフレームを同期して再生する(ステップS206)。
(3)画像生成処理
図8は、実施例1に係る画像生成処理の手順を示すフローチャートである。この処理は、図7に示されたステップS204の処理に対応する。図8に示すように、受付部15Dは、ステップS201で指定を受け付けたレッスンの識別情報から、記憶部13に保存された動画データ13Aに含まれるレッスンの動画のうち画像提示のリクエストに対応するレッスンの動画を特定する(ステップS301)。
さらに、受付部15Dは、ステップS201で指定を受け付けたレッスンの識別情報から当該レッスンで指導を行う先生を第1の被写体として特定する(ステップS302)。さらに、受付部15Dは、ステップS202で画像提示のリクエストを行うアカウントから、当該レッスンに参加する生徒のうち画像提示のリクエストに対応する生徒を第2の被写体として特定する(ステップS303)。
続いて、設定部15Eは、ステップS301で特定されたレッスンの動画に含まれるフレームを1つ選択する(ステップS304)。そして、設定部15Eは、第1の被写体および第2の被写体ごとに、記憶部13に記憶された3次元形状データ13BのうちステップS304で選択されたフレームに対応する位置、大きさおよび向きを取得する(ステップS305)。
その上で、設定部15Eは、第1の被写体の3次元空間上の位置、大きさおよび向きに基づいて第1の被写体が基準とする向きおよび基準とする大きさでレンダリングされる第1の被写体用の仮想カメラの位置を設定すると共に、第2の被写体の3次元空間上の位置、大きさおよび向きに基づいて第2の被写体が基準とする向きおよび基準とする大きさでレンダリングされる第2の被写体用の仮想カメラの位置を設定する(ステップS306)。
その後、生成部15Fは、ステップS306で設定された第1の被写体用の仮想カメラの位置に対応する第1の被写体の自由視点映像をレンダリングすると共に、ステップS306で設定された第2の被写体用の仮想カメラの位置に対応する第2の被写体の自由視点映像をレンダリングする(ステップS307)。
そして、ステップS301で特定されたレッスンの動画に含まれる全てのフレームが選択されるまで(ステップS308No)、上記のステップS304から上記のステップS307までの処理が繰り返し実行される。その後、ステップS301で特定されたレッスンの動画に含まれる全てのフレームが選択された場合(ステップS308Yes)、処理を終了する。
[効果の一側面]
上述してきたように、本実施例に係る画像提示装置10によれば、自習時に第1の被写体及び第2の被写体の比較が容易な提示を実現することが可能である。この結果、課外での自習の支援を実現できる。さらに、本実施例に係る画像提示装置10によれば、上記の画像提示サービスの提供を受ける生徒以外の他の生徒が混じった画像の提示を抑制できる。このため、プライバシー侵害を抑制し、また、個人情報の保護のコンプライアンスを遵守できる。さらに、生徒数が増加しても自分を見つける手間を不要化すると共に、他の生徒に隠れて自分の視認性が低下する事態も抑制できる。
さて、本実施例では、上記の実施例1で説明した画像提示サービスに加えて、先生および生徒間のコミュニケーション機能を提供する例を説明する。
図9は、実施例2に係る画像提示装置20の機能的構成の一例を示す図である。図9に示すシステム2には、図5に示された生徒端末30に加えて、先生3Tにより使用される先生端末50がさらに含まれ得る。この先生端末50は、ネットワークNWを介して画像提示装置20へ接続され得る。
なお、図9には、画像提示装置20に追加される機能部を中心に図示を行う側面から、画像提示装置10が有する機能部のうち提示部15G以外の機能部の図示を省略しているが、図示を省略しただけに過ぎない。すなわち、図9に示す画像提示装置20にも、図5に示された画像提示装置10と同様、取得部15A、分離部15B、算出部15C、受付部15D、設定部15E及び生成部15Dなどの機能部も含まれることとして以下の説明を行う。
図9に示すように、画像提示装置20は、図5に示す画像提示装置10に比べて、質問受付部25A、質問通知部25B、回答受付部25Cおよび回答通知部25Dを制御部25がさらに有する点で異なる。さらに、画像提示装置20は、画像提示装置10に比べて、生徒端末30上のコメント表示に用いる生徒用のコメントデータ24A及び教師端末50上のコメント表示に用いるコメントデータ24Bを含むコメントデータ24が記憶部23に記憶される点で異なる。
質問受付部25Aは、生徒端末30から質問に関するコメントを受け付ける処理部である。以下、質問に関するコメントのことを「質問コメント」と記載する場合がある。
一実施形態として、質問受付部25Aは、第1の被写体の動画および第2の被写体の動画の再生時に質問コメントの投稿を受け付けることができる。図10は、生徒端末の表示画面の一例を示す図である。図10には、あくまで一例として、生徒端末30で先生3Tの画像31および生徒3S2の画像32が再生中であるタイミングで質問コメントc1「足を上げるとふらつくんですが」の投稿を受け付けた例が示されている。
このように動画の再生時に質問コメントの投稿を受け付けた場合、質問受付部25Aは、質問コメントが投稿された時点で生徒端末30に再生中である第1の被写体の画像および第2の被写体の画像のフレームに質問コメントを関連付けることができる。
例えば、質問受付部25Aは、動画の再生時に質問コメントの投稿を受け付けた場合、記憶部23に記憶されたコメントデータ24のうち生徒用のコメントデータ24Aに当該質問コメントに関する新規のエントリを追加する。このように生徒用のコメントデータ24Aに新規のエントリが追加された後、質問コメントは、生徒端末50のコメント表示に反映される。
図11Aは、コメントデータ24の一例を示す図である。図11Aには、3名の生徒分の生徒用のコメントデータ24Aが列挙して示されている。図11Aに示すように、生徒用のコメントデータ24Aには、生徒ID(IDentification)、レッスンID、日付ラベル、時刻ラベル、質問コメントおよび回答コメントが対応付けられたデータを採用できる。ここで言う「生徒ID」は、生徒の識別情報の一例であり、例えば、「生徒ID」のフィールドには、質問コメントの投稿を行う生徒の生徒IDが登録される。また、「レッスンID」は、レッスンの識別情報の一例であり、例えば、「レッスンID」のフィールドには、投稿時に表示されている動画のレッスンIDが登録される。さらに、「日付ラベル」のフィールドには、質問コメントの投稿を受け付けた日付が登録される。さらに、「時刻ラベル」のフィールドには、投稿時に表示されている動画のフレームの再生時刻が登録される。さらに、「質問コメント」のフィールドには、生徒端末30からの質問コメントのテキストが登録される。さらに、「回答コメント」のフィールドには、先生端末50からの回答コメントのテキストが登録される。なお、質問コメントが登録された時点では、回答コメントは未入力であるので、「回答」のフィールドには、ブランク、NULL値、あるいは未回答を示す文字列やフラグなどが登録される。
例えば、図10に示す質問コメントc1の投稿を受け付けた場合、質問受付部25Aは、図11Aの上から1番目に示された新規のエントリを生徒用のコメントデータ24Aに追加する。すなわち、生徒ID「NY」、レッスンID「ClassA」、日付ラベル「2019/1/17」、時刻ラベル「5分15秒」及び質問コメント「足を上げるとふらつくんですが」が対応付けられた新規のエントリが生徒用のコメントデータ24Aに追加される。
このように生徒用のコメントデータ24Aに新規のエントリが追加された後、質問受付部25Aは、記憶部23に記憶されたコメントデータ24のうち先生用のコメントデータ24Bをさらに更新する。例えば、質問受付部25Aは、当該新規のエントリを先生用のコメントデータ24Bに追加する。そして、質問受付部25Aは、先生用のコメントデータ24Bに含まれる旧エントリのうち当該新規のエントリの時刻ラベルから所定の期間、例えば前後5秒間以内である旧エントリを切り取った上で当該新規のエントリに隣接する位置に先に切り取った旧エントリを挿入する。これによって、新規のエントリの時刻ラベルと類似する時刻ラベルを持つ旧エントリを当該新規のエントリとグループ化することができる。
図11Bは、コメントデータ24の一例を示す図である。図11Bには、レッスンID「ClassA」に関するエントリが抜粋して示されている。図11Bに示すように、生徒ID「NY」、レッスンID「ClassA」、日付ラベル「2019/1/17」、時刻ラベル「5分15秒」及び質問コメント「足を上げるとふらつくんですが」が対応付けられた新規のエントリが最上段に追加される。さらに、新規エントリの時刻ラベル「5分15秒」から前後5秒間以内である時刻ラベル「5分13秒」の旧エントリ及び時刻ラベル「5分17秒」の旧エントリが切り取られた上で新規のエントリの直下に挿入される。
質問通知部25Bは、生徒端末30からの質問コメントを先生端末50へ通知する処理部である。
一実施形態として、質問通知部25Bは、先生用のコメントデータ24Bに新規のエントリが追加された場合、当該新規のエントリに関する質問コメントを先生端末50へ通知する。この際、質問通知部25Bは、当該新規のエントリとグループ化された旧エントリの質問コメント及び回答コメントをさらに先生端末50へ通知することができる。例えば、先生用のコメントデータ24Bに質問コメントc1「足を上げるとふらつくんですが」に関する新規のエントリが追加された場合、質問コメントc1「足を上げるとふらつくんですが」が先生端末50へ通知される。さらに、時刻ラベル「5分13秒」の旧エントリの質問コメント「バランスが取りにくいのですが。」及び回答コメント「右足を少し高く上げすぎているので挙げてバランスを取りやすくして」がさらに通知される。加えて、時刻ラベル「5分17秒」の旧エントリの質問コメント「足はどの位の高さに上げればよいですか?」及び回答コメント「膝からかかとまでは床に水平になる程度でいいです。」がさらに通知される。
このように、新規のエントリの時刻ラベルと類似する時刻ラベルを持つ旧エントリの質問コメントは、新規のエントリの質問コメントとの間で質問の内容が類似する可能性が高い。このため、旧エントリの回答コメントをコピーして新規のエントリの回答コメントを投稿したり、あるいは旧エントリの回答コメントにアレンジを加えて新規のエントリの回答コメントを投稿したりといったことが可能になる。この結果、先生による回答コメントの作成労力を削減することができる。
回答受付部25Cは、先生端末50からの回答コメントを受け付ける処理部である。
一実施形態として、回答受付部25Cは、新規の質問コメントに対する回答コメントの入力を受け付ける。例えば、回答受付部25Cは、回答コメントのテキストの入力を未入力の状態から受け付けることができる。この他、回答受付部25Cは、新規の質問コメントへの回答の参考として生徒端末50に表示される旧エントリの回答コメントをコピーする操作を受け付けたり、コピー後にテキストを編集する操作を受け付けたりすることができる。
あくまで一例として、図10に示された質問コメントc1「足を上げるとふらつくんですが」への回答コメントが行われる場合を例に挙げる。この場合、図10に示された質問コメントc1「足を上げるとふらつくんですが」と、図11Bに示された旧エントリの質問コメント「バランスが取りにくいのですが。」との間で質問の内容が類似する。このため、質問コメントc1への回答の参考として先生端末50に表示された旧エントリの回答コメント「右足を少し高く上げすぎているので挙げてバランスを取りやすくして」をコピーすることにより、回答コメントの投稿を受け付けることもできる。
このように回答コメントの投稿を受け付けた場合、回答受付部25Cは、当該投稿を受け付けた回答コメントを生徒用のコメントデータ24A及び先生用のコメントデータ24Bに登録する。このように先生用のコメントデータ24Bに回答コメントが登録された後、回答コメントは、先生端末50のコメント表示に反映される。
回答通知部25Dは、先生端末50からの回答コメントを生徒端末30へ通知する処理部である。
一実施形態として、回答通知部25Dは、生徒用のコメントデータ24Aに回答コメントが登録された場合、当該回答コメントを生徒端末30へ通知する。例えば、図10に示された質問コメントc1への回答コメント「右足を少し高く上げすぎているので挙げてバランスを取りやすくして」が生徒用のコメントデータ24Aに登録された場合、生徒端末30には、回答コメントc2「右足を少し高く上げすぎているので挙げてバランスを取りやすくして」の表示が反映される。
[効果の一側面]
上述してきたように、本実施例に係る画像提示装置20によれば、先生および生徒間のコミュニケーション機能を提供することが可能である。
さらに、本実施例に係る画像提示装置20は、動画の再生時に生徒端末30から新規の質問コメントの投稿を受け付けた場合、新規の質問コメントが投稿されたタイミングで再生中である画像のフレームの再生時刻と類似する再生時刻に投稿が行われていた質問コメント及び回答コメントを新規の質問コメントと共に先生端末50に表示させる。このため、本実施例に係る画像提示装置20によれば、先生による回答コメントの作成労力を削減することが可能である。
なお、上記の実施例2では、あくまで一例として、新規の質問コメント、例えば回答コメントが未入力である質問コメントを優先して先生端末50に表示させる例を挙げたが、必ずしも新規の質問コメントを優先して表示せずともかまわない。例えば、再生時刻の時間差が所定の閾値以内である質問コメント同士をグループ化し、グループごとに当該グループに含まれる質問コメントの数が多いグループから順に先生端末50に表示させることもできる。
さて、これまで開示の装置に関する実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施例を説明する。
[履歴との比較]
例えば、第1の被写体の画像および第2の被写体の画像を表示する際、過去に行われたレッスンにおける第2の被写体の画像をさらに並べて表示させることもできる。あくまで一例として、ダンスレッスンで行われる発表会等では、特定の楽曲のダンスレッスンが繰り返して行われることがある。この場合、同一の楽曲で行われるダンスが時系列に並べて表示させることで、生徒に自身の上達具合を実感させることが可能になる。
このように、実施時期が異なる複数のレッスンに関する第2の被写体の画像を提示する場合、複数のレッスンの間でプログラムの進行が必ずしも同一である訳ではないが、ダンスが行われる楽曲そのものは共通する。このため、複数のレッスンの動画ごとに同一の楽曲が再生される区間に絞って第2の被写体の画像を生成することにより、両者の比較が可能となる。すなわち、楽曲の長さは、複数のレッスンの間で同一であるので、各レッスンで楽曲の再生が開始されるタイミングを検出することができれば、2つ以上のレッスンごとに第2の被写体の画像の生成および提示を実現できる。
このように楽曲の再生が開始されるタイミングの検出方法の一例として、レッスンの動画として映像と共に記録される音声のデータの中から音声認識により楽曲の再生開始のタイミングを検出することができる。また、先生が発生する特定のキーワード、例えば楽曲の再生開始のかけ声となるワードが検出されたタイミングを楽曲の再生開始のタイミングとして検出することができる。例えば、同一の生徒が参加するレッスンの動画ごとに所定の楽曲に関する再生開始のタイミングを検出し、レッスンの動画ごとに当該楽曲が再生される楽曲再生区間を抽出する。その上で、レッスンの動画ごとに抽出された楽曲再生区間に図7に示されたステップS204の処理を実行することにより、第1の被写体の画像および第2の被写体の画像とともに過去のレッスンにおける第2の被写体の画像を並べて提示することができる。この場合、第1の被写体の画像が生成されるレッスンは必ずしも最新のレッスンでなくともかまわない。
図12は、生徒端末の表示画面の一例を示す図である。図12には、2018年7月15日のレッスンおよび2018年1月12日のレッスンにおける生徒の画像が並べて表示される例が示されている。図12に示すように、2018年7月15日のレッスンの動画から生成された先生3Tの画像31および生徒3S2の画像34と共に、2018年1月12日のレッスンの動画から生成された生徒3S2の画像33が生徒端末30に表示されている。このとき、生徒3S2の属性情報の変化も合わせて表示させることができる。例えば、図12の例で言えば、生徒3S2の2018年1月12日時点の体重と、2018年7月15日時点の体重とがさらに表示されている。このような表示によって、生徒3S2の上達具合や健康促進の効果などを実感させることができる。
[分散および統合]
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されておらずともよい。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、取得部15A、分離部15B、算出部15C、受付部15D、設定部15E、生成部15Fまたは提示部15Gを画像提示装置10の外部装置としてネットワーク経由で接続するようにしてもよい。また、取得部15A、分離部15B、算出部15C、受付部15D、設定部15E、生成部15Fまたは提示部15Gを別の装置がそれぞれ有し、ネットワーク接続されて協働することで、上記の画像提示装置10の機能を実現するようにしてもよい。
[画像提示プログラム]
また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図13を用いて、上記の実施例と同様の機能を有する画像提示プログラムを実行するコンピュータの一例について説明する。
図13は、実施例1及び実施例2に係る画像提示プログラムを実行するコンピュータのハードウェア構成例を示す図である。図13に示すように、コンピュータ100は、操作部110aと、スピーカ110bと、カメラ110cと、ディスプレイ120と、通信部130とを有する。さらに、このコンピュータ100は、CPU150と、ROM160と、HDD170と、RAM180とを有する。これら110〜180の各部はバス140を介して接続される。
HDD170には、図13に示すように、上記の実施例1で示した取得部15A、分離部15B、算出部15C、受付部15D、設定部15E、生成部15F及び提示部15Gと同様の機能を発揮する画像提示プログラム170aが記憶される。この画像提示プログラム170aは、図5に示した取得部15A、分離部15B、算出部15C、受付部15D、設定部15E、生成部15F及び提示部15Gの各構成要素と同様、統合又は分離してもかまわない。すなわち、HDD170には、必ずしも上記の実施例1で示した全てのデータが格納されずともよく、処理に用いるデータがHDD170に格納されればよい。
このような環境の下、CPU150は、HDD170から画像提示プログラム170aを読み出した上でRAM180へ展開する。この結果、画像提示プログラム170aは、図13に示すように、画像提示プロセス180aとして機能する。この画像提示プロセス180aは、RAM180が有する記憶領域のうち画像提示プロセス180aに割り当てられた領域にHDD170から読み出した各種データを展開し、この展開した各種データを用いて各種の処理を実行する。例えば、画像提示プロセス180aが実行する処理の一例として、図6〜図8に示す処理などが含まれる。なお、CPU150では、必ずしも上記の実施例1で示した全ての処理部が動作せずともよく、実行対象とする処理に対応する処理部が仮想的に実現されればよい。
なお、上記の画像提示プログラム170aは、必ずしも最初からHDD170やROM160に記憶されておらずともかまわない。例えば、コンピュータ100に挿入されるフレキシブルディスク、いわゆるFD、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に画像提示プログラム170aを記憶させる。そして、コンピュータ100がこれらの可搬用の物理媒体から画像提示プログラム170aを取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN、WANなどを介してコンピュータ100に接続される他のコンピュータまたはサーバ装置などに画像提示プログラム170aを記憶させておき、コンピュータ100がこれらから画像提示プログラム170aを取得して実行するようにしてもよい。
以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)第1の被写体及び第2の被写体ごとに所定のレッスンが行われる3次元空間上の位置、大きさ及び向きを取得し、
前記第1の被写体の3次元空間上の位置、大きさ及び向きに基づいて基準とする向きおよび大きさで前記第1の被写体の画像が生成される第1の仮想カメラの位置を設定すると共に、前記第2の被写体の3次元空間上の位置、大きさおよび向きに基づいて前記基準とする向きおよび大きさで前記第2の被写体の画像が生成される第2の仮想カメラの位置を設定し、
前記3次元空間を撮像する複数のカメラにより同一時刻に撮像された複数の画像を用いて、前記第1の仮想カメラの位置に対応する第1の被写体の画像を生成すると共に、前記第2の仮想カメラの位置に対応する第2の被写体の画像を生成し、
前記第1の被写体の画像および前記第2の被写体の画像を提示する、
処理をコンピュータに実行させる画像提示プログラム。
(付記2)前記複数の画像ごとに前記第1の被写体及び前記第2の被写体に対応するシルエットを分離し、
前記複数の画像ごとに分離された前記シルエットに基づいて前記第1の被写体及び前記第2の被写体の3次元空間上の位置、大きさ及び向きを算出する処理を前記コンピュータにさらに実行させる付記1に記載の画像提示プログラム。
(付記3)前記第1の被写体の画像および前記第2の被写体の画像が提示された端末から質問コメントを受け付けた場合、前記質問コメントが投稿された時点で前記端末に提示中である第1の被写体の画像および第2の被写体の画像のフレームの再生時刻に前記質問コメントを関連付ける処理を前記コンピュータにさらに実行させることを特徴とする付記1に記載の画像提示プログラム。
(付記4)第1の質問コメントが投稿された時点で提示中である第1の被写体の画像および第2の被写体の画像のフレームの再生時刻と類似する再生時刻に投稿が行われていた第2の質問コメント及び前記第2の質問コメントに対する回答コメントを前記第1の質問コメントと共に通知する処理を前記コンピュータにさらに実行させることを特徴とする付記3に記載の画像提示プログラム。
(付記5)前記再生時刻の時間差が所定の閾値以内である質問コメント同士をグループ化し、グループに含まれる質問コメントの数が多いグループから順に提示する処理を前記コンピュータにさらに実行させることを特徴とする付記3に記載の画像提示プログラム。
(付記6)前記取得する処理は、複数のレッスンにおける前記第2の被写体の3次元空間上の位置、大きさ及び向きを取得し、
前記設定する処理は、前記複数のレッスンごとに前記第2の仮想カメラの位置を設定し、
前記生成する処理は、前記複数のレッスンごとに前記第2の被写体の画像を生成することを特徴とする付記1に記載の画像提示プログラム。
(付記7)前記提示する処理は、前記第1の被写体の画像および前記第2の被写体の画像を同一の大きさ、または同じ向きで左右に並べて提示することを特徴とする付記1に記載の画像提示プログラム。
(付記8)第1の被写体及び第2の被写体ごとに所定のレッスンが行われる3次元空間上の位置、大きさ及び向きを取得し、
前記第1の被写体の3次元空間上の位置、大きさ及び向きに基づいて基準とする向きおよび大きさで前記第1の被写体の画像が生成される第1の仮想カメラの位置を設定すると共に、前記第2の被写体の3次元空間上の位置、大きさおよび向きに基づいて前記基準とする向きおよび大きさで前記第2の被写体の画像が生成される第2の仮想カメラの位置を設定し、
前記3次元空間を撮像する複数のカメラにより同一時刻に撮像された複数の画像を用いて、前記第1の仮想カメラの位置に対応する第1の被写体の画像を生成すると共に、前記第2の仮想カメラの位置に対応する第2の被写体の画像を生成し、
前記第1の被写体の画像および前記第2の被写体の画像を提示する、
処理をコンピュータが実行する画像提示方法。
(付記9)前記複数の画像ごとに前記第1の被写体及び前記第2の被写体に対応するシルエットを分離し、
前記複数の画像ごとに分離された前記シルエットに基づいて前記第1の被写体及び前記第2の被写体の3次元空間上の位置、大きさ及び向きを算出する処理を前記コンピュータがさらに実行する付記8に記載の画像提示方法。
(付記10)前記第1の被写体の画像および前記第2の被写体の画像が提示された端末から質問コメントを受け付けた場合、前記質問コメントが投稿された時点で前記端末に提示中である第1の被写体の画像および第2の被写体の画像のフレームの再生時刻に前記質問コメントを関連付ける処理を前記コンピュータがさらに実行することを特徴とする付記8に記載の画像提示方法。
(付記11)第1の質問コメントが投稿された時点で提示中である第1の被写体の画像および第2の被写体の画像のフレームの再生時刻と類似する再生時刻に投稿が行われていた第2の質問コメント及び前記第2の質問コメントに対する回答コメントを前記第1の質問コメントと共に通知する処理を前記コンピュータがさらに実行することを特徴とする付記10に記載の画像提示方法。
(付記12)前記再生時刻の時間差が所定の閾値以内である質問コメント同士をグループ化し、グループに含まれる質問コメントの数が多いグループから順に提示する処理を前記コンピュータがさらに実行することを特徴とする付記10に記載の画像提示方法。
(付記13)前記取得する処理は、複数のレッスンにおける前記第2の被写体の3次元空間上の位置、大きさ及び向きを取得し、
前記設定する処理は、前記複数のレッスンごとに前記第2の仮想カメラの位置を設定し、
前記生成する処理は、前記複数のレッスンごとに前記第2の被写体の画像を生成することを特徴とする付記8に記載の画像提示方法。
(付記14)前記提示する処理は、前記第1の被写体の画像および前記第2の被写体の画像を同一の大きさ、または同じ向きで左右に並べて提示することを特徴とする付記8に記載の画像提示方法。
(付記15)第1の被写体及び第2の被写体ごとに所定のレッスンが行われる3次元空間上の位置、大きさ及び向きを取得する取得部と、
前記第1の被写体の3次元空間上の位置、大きさ及び向きに基づいて基準とする向きおよび大きさで前記第1の被写体の画像が生成される第1の仮想カメラの位置を設定すると共に、前記第2の被写体の3次元空間上の位置、大きさおよび向きに基づいて前記基準とする向きおよび大きさで前記第2の被写体の画像が生成される第2の仮想カメラの位置を設定する設定部と、
前記3次元空間を撮像する複数のカメラにより同一時刻に撮像された複数の画像を用いて、前記第1の仮想カメラの位置に対応する第1の被写体の画像を生成すると共に、前記第2の仮想カメラの位置に対応する第2の被写体の画像を生成する生成部と、
前記第1の被写体の画像および前記第2の被写体の画像を提示する提示部と、
を有する画像提示装置。
(付記16)前記複数の画像ごとに前記第1の被写体及び前記第2の被写体に対応するシルエットを分離する分離部と、
前記複数の画像ごとに分離された前記シルエットに基づいて前記第1の被写体及び前記第2の被写体の3次元空間上の位置、大きさ及び向きを算出する算出部とをさらに有する付記15に記載の画像提示装置。
(付記17)前記第1の被写体の画像および前記第2の被写体の画像が提示された端末から質問コメントを受け付けた場合、前記質問コメントが投稿された時点で前記端末に提示中である第1の被写体の画像および第2の被写体の画像のフレームの再生時刻に前記質問コメントを関連付ける質問受付部をさらに有することを特徴とする付記15に記載の画像提示装置。
(付記18)第1の質問コメントが投稿された時点で提示中である第1の被写体の画像および第2の被写体の画像のフレームの再生時刻と類似する再生時刻に投稿が行われていた第2の質問コメント及び前記第2の質問コメントに対する回答コメントを前記第1の質問コメントと共に通知する回答通知部をさらに有することを特徴とする付記17に記載の画像提示装置。
(付記19)前記再生時刻の時間差が所定の閾値以内である質問コメント同士をグループ化し、グループに含まれる質問コメントの数が多いグループから順に提示する質問通知部をさらに有することを特徴とする付記17に記載の画像提示装置。
(付記20)前記取得部は、複数のレッスンにおける前記第2の被写体の3次元空間上の位置、大きさ及び向きを取得し、
前記設定部は、前記複数のレッスンごとに前記第2の仮想カメラの位置を設定し、
前記生成部は、前記複数のレッスンごとに前記第2の被写体の画像を生成することを特徴とする付記15に記載の画像提示装置。
1 システム
3 被写体
3T 先生
3S2,3S2 生徒
5A,5B,5C,5D カメラ
10 画像提示装置
11 通信インタフェイス
13 記憶部
13A 動画データ
13B 3次元形状データ
15 制御部
15A 取得部
15B 分離部
15C 算出部
15D 受付部
15E 設定部
15F 生成部
15G 提示部
30A,30B,30C 生徒端末

Claims (7)

  1. 第1の被写体及び第2の被写体ごとに所定のレッスンが行われる3次元空間上の位置、大きさ及び向きを取得し、
    前記第1の被写体の3次元空間上の位置、大きさ及び向きに基づいて基準とする向きおよび大きさで前記第1の被写体の画像が生成される第1の仮想カメラの位置を設定すると共に、前記第2の被写体の3次元空間上の位置、大きさおよび向きに基づいて前記基準とする向きおよび大きさで前記第2の被写体の画像が生成される第2の仮想カメラの位置を設定し、
    前記3次元空間を撮像する複数のカメラにより同一時刻に撮像された複数の画像を用いて、前記第1の仮想カメラの位置に対応する第1の被写体の画像を生成すると共に、前記第2の仮想カメラの位置に対応する第2の被写体の画像を生成し、
    前記第1の被写体の画像および前記第2の被写体の画像を提示する、
    処理をコンピュータに実行させる画像提示プログラム。
  2. 前記複数の画像ごとに前記第1の被写体及び前記第2の被写体に対応するシルエットを分離し、
    前記複数の画像ごとに分離された前記シルエットに基づいて前記第1の被写体及び前記第2の被写体の3次元空間上の位置、大きさ及び向きを算出する処理を前記コンピュータにさらに実行させる請求項1に記載の画像提示プログラム。
  3. 前記第1の被写体の画像および前記第2の被写体の画像が提示された端末から質問コメントを受け付けた場合、前記質問コメントが投稿された時点で前記端末に提示中である第1の被写体の画像および第2の被写体の画像のフレームの再生時刻に前記質問コメントを関連付ける処理を前記コンピュータにさらに実行させることを特徴とする請求項1または2に記載の画像提示プログラム。
  4. 第1の質問コメントが投稿された時点で提示中である第1の被写体の画像および第2の被写体の画像のフレームの再生時刻と類似する再生時刻に投稿が行われていた第2の質問コメント及び前記第2の質問コメントに対する回答コメントを前記第1の質問コメントと共に通知する処理を前記コンピュータにさらに実行させることを特徴とする請求項3に記載の画像提示プログラム。
  5. 前記再生時刻の時間差が所定の閾値以内である質問コメント同士をグループ化し、グループに含まれる質問コメントの数が多いグループから順に提示する処理を前記コンピュータにさらに実行させることを特徴とする請求項3に記載の画像提示プログラム。
  6. 第1の被写体及び第2の被写体ごとに所定のレッスンが行われる3次元空間上の位置、大きさ及び向きを取得し、
    前記第1の被写体の3次元空間上の位置、大きさ及び向きに基づいて基準とする向きおよび大きさで前記第1の被写体の画像が生成される第1の仮想カメラの位置を設定すると共に、前記第2の被写体の3次元空間上の位置、大きさおよび向きに基づいて前記基準とする向きおよび大きさで前記第2の被写体の画像が生成される第2の仮想カメラの位置を設定し、
    前記3次元空間を撮像する複数のカメラにより同一時刻に撮像された複数の画像を用いて、前記第1の仮想カメラの位置に対応する第1の被写体の画像を生成すると共に、前記第2の仮想カメラの位置に対応する第2の被写体の画像を生成し、
    前記第1の被写体の画像および前記第2の被写体の画像を提示する、
    処理をコンピュータが実行する画像提示方法。
  7. 第1の被写体及び第2の被写体ごとに所定のレッスンが行われる3次元空間上の位置、大きさ及び向きを取得する取得部と、
    前記第1の被写体の3次元空間上の位置、大きさ及び向きに基づいて基準とする向きおよび大きさで前記第1の被写体の画像が生成される第1の仮想カメラの位置を設定すると共に、前記第2の被写体の3次元空間上の位置、大きさおよび向きに基づいて前記基準とする向きおよび大きさで前記第2の被写体の画像が生成される第2の仮想カメラの位置を設定する設定部と、
    前記3次元空間を撮像する複数のカメラにより同一時刻に撮像された複数の画像を用いて、前記第1の仮想カメラの位置に対応する第1の被写体の画像を生成すると共に、前記第2の仮想カメラの位置に対応する第2の被写体の画像を生成する生成部と、
    前記第1の被写体の画像および前記第2の被写体の画像を提示する提示部と、
    を有する画像提示装置。
JP2019190277A 2019-10-17 2019-10-17 画像提示プログラム、画像提示方法及び画像提示装置 Pending JP2021064920A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019190277A JP2021064920A (ja) 2019-10-17 2019-10-17 画像提示プログラム、画像提示方法及び画像提示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019190277A JP2021064920A (ja) 2019-10-17 2019-10-17 画像提示プログラム、画像提示方法及び画像提示装置

Publications (1)

Publication Number Publication Date
JP2021064920A true JP2021064920A (ja) 2021-04-22

Family

ID=75486588

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019190277A Pending JP2021064920A (ja) 2019-10-17 2019-10-17 画像提示プログラム、画像提示方法及び画像提示装置

Country Status (1)

Country Link
JP (1) JP2021064920A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022215358A1 (ja) 2021-04-06 2022-10-13 三菱重工業株式会社 筐体及び電力変換装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022215358A1 (ja) 2021-04-06 2022-10-13 三菱重工業株式会社 筐体及び電力変換装置

Similar Documents

Publication Publication Date Title
US11178462B2 (en) Display control device and display control method
WO2018233398A1 (zh) 学习监控方法、装置及电子设备
TWI752502B (zh) 一種分鏡效果的實現方法、電子設備及電腦可讀儲存介質
US11627251B2 (en) Image processing apparatus and control method thereof, computer-readable storage medium
CN110610546B (zh) 视频画面显示方法、装置、终端及存储介质
WO2018000608A1 (zh) 一种虚拟现实系统中分享全景影像的方法和电子设备
JP2023133397A (ja) 画像処理装置、画像処理方法及び画像処理システム
KR20140090904A (ko) 전자 디스플레이를 활용한 당구코칭 시스템 및 방법
CN112528768A (zh) 视频中的动作处理方法、装置、电子设备及存储介质
JP2021064920A (ja) 画像提示プログラム、画像提示方法及び画像提示装置
JP2018170706A (ja) 映像情報送信プログラム、映像情報送信方法および映像情報送信装置
Gondo et al. Soccer tactics analysis supporting system displaying the player's actions in virtual space
US20230124466A1 (en) Information processing apparatus, information processing method, and information processing program
CN113515187B (zh) 一种虚拟现实场景的生成方法和网络侧设备
US20220174258A1 (en) Information processing device, information processing method, and program
CN105430513A (zh) 显示投票信息的方法和装置
JP2001051579A (ja) 映像表示方法、映像表示装置及び映像表示プログラムを記録した記録媒体
WO2020166352A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN110602450A (zh) 监护方法及其系统和计算机可读存储介质
CN111027348A (zh) 抽奖方法、装置、设备及存储介质
CN105578299A (zh) 显示投票信息的方法和装置
CN112245910B (zh) 一种基于Quest头显的建模、极限运动方法和系统
JP7072706B1 (ja) 表示制御装置、表示制御方法および表示制御プログラム
CN105516780A (zh) 显示投票信息的方法和装置
WO2023242981A1 (ja) ヘッドマウントディスプレイ、ヘッドマウントディスプレイシステム、および、ヘッドマウントディスプレイの表示方法