JP2021125834A - 視聴端末、視聴方法、視聴システム及びプログラム - Google Patents

視聴端末、視聴方法、視聴システム及びプログラム Download PDF

Info

Publication number
JP2021125834A
JP2021125834A JP2020019368A JP2020019368A JP2021125834A JP 2021125834 A JP2021125834 A JP 2021125834A JP 2020019368 A JP2020019368 A JP 2020019368A JP 2020019368 A JP2020019368 A JP 2020019368A JP 2021125834 A JP2021125834 A JP 2021125834A
Authority
JP
Japan
Prior art keywords
virtual space
image
viewing
desk
student
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020019368A
Other languages
English (en)
Other versions
JP6754908B1 (ja
Inventor
量生 川上
Kazuo Kawakami
量生 川上
進之介 岩城
Shinnosuke Iwaki
進之介 岩城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dwango Co Ltd
Virtual Cast Inc
Original Assignee
Dwango Co Ltd
Virtual Cast Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dwango Co Ltd, Virtual Cast Inc filed Critical Dwango Co Ltd
Priority to JP2020019368A priority Critical patent/JP6754908B1/ja
Priority to JP2020140003A priority patent/JP2021125209A/ja
Application granted granted Critical
Publication of JP6754908B1 publication Critical patent/JP6754908B1/ja
Priority to US17/791,486 priority patent/US20230043422A1/en
Priority to PCT/JP2021/003944 priority patent/WO2021157616A1/ja
Priority to CN202180009145.6A priority patent/CN115004281A/zh
Publication of JP2021125834A publication Critical patent/JP2021125834A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/08Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations
    • G09B5/14Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations with provision for individual teacher-student communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23412Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

【課題】HMDを装着したまま、現実空間の実体物を利用可能にする。
【解決手段】没入感のある仮想空間内で行われる授業を視聴するための生徒用端末30は、仮想空間情報に基づいて仮想空間を表示するVR機能部301と、授業を視聴する生徒の手の届く範囲の現実空間を撮影した映像を入力する入力部302を備える。VR機能部301は、映像から仮想空間内の机オブジェクトに対応する机の天板が写っている領域を抽出し、机オブジェクトの天板部分に領域内の映像をはめ込み合成する。
【選択図】図4

Description

本発明は、仮想空間内で行われる授業を視聴する技術に関する。
近年、テレビ・ラジオを用いた通信教育だけでなく、情報通信技術(ICT)を利用した通信教育システムが広まっている。
ICTを利用した通信教育システムの一つとして、没入感のある仮想現実(VR)技術を用い、例えば生徒がヘッドマウントディスプレイ(HMD)を装着し、仮想空間内で授業を行うことが考えられる。没入感のある仮想空間内での授業に参加することにより、外界の情報をシャットダウンでき、テレビやパーソナルコンピュータなどを用いたときに比べて授業に集中できる。
特開2012−203786号公報 特開2019−101945号公報
しかしながら、HMDなどにより視界を覆った没入感のある仮想空間では、現実空間の机上にある教科書、ノート、およびパソコンなどの実体物はHMDを外さなければ利用することができない。仮想空間内で行われる授業中に、HMDを着けたり外したりする動作は面倒である。
HMDを装着したユーザが下方向を向いたことを検知した場合、HMDの備えるカメラで撮影した映像を仮想空間内に表示する技術が知られている。この技術を用いると、HMDを外すことなく現実空間の教科書やノートを使うことができる。しかしながら、従来の方法は、仮想空間内に配置されたオブジェクトを考慮せず、仮想空間の下部に現実空間の映像を表示するものであり、せっかくの没入感が阻害されてしまうという問題がある。
特許文献1には、キャラクタを描画した仮想の画像と現実の画像とを合成し、キャラクタに現実の画像に含まれるフィギュアに合わせたリアリティのある動作をさせる技術が開示されている。特許文献1の技術は、現実空間に仮想のキャラクタを合成するものであって、仮想空間内に現実空間の実体物の映像を合成するものではない。
特許文献2には、仮想空間において手書きの文字を入力する技術が開示されている。特許文献2の技術は、現実空間にある操作板(アクリル板)に対応するオブジェクトを仮想空間内に表示する。ユーザが現実空間において指で操作板に文字を書くと、書いた文字が認識されて仮想空間内のオブジェクトに表示される。ユーザは、現実空間の操作板を用いて手書き文字を仮想空間内に入力できるが、現実空間の操作板に書いた文字が残されるものではなく、現実空間でのノートの作成には利用できない。
本発明は、上記に鑑みてなされたものであり、HMDを装着したまま、現実空間の実体物を利用可能にすることを目的とする。
本発明の一態様の視聴システムは、没入感のある仮想空間内で行われる授業を視聴するための視聴システムであって、前記授業を配信するサーバと前記授業を視聴する視聴端末とを備え、前記サーバは、前記授業を表示するための仮想空間情報を配信する配信部を備え、前記視聴端末は、前記仮想空間情報に基づいて前記仮想空間を表示する表示部と、前記授業を視聴する生徒の手の届く範囲を少なくとも含んだ現実空間を撮影した映像を入力する入力部と、前記表示部は、前記映像から前記生徒の手の届く範囲の領域を抽出し、前記仮想空間内に前記領域内の映像をはめ込み合成することを特徴とする。
本発明によれば、HMDを装着したまま、現実空間の実体物を利用可能にすることができる。
図1は、本実施形態の授業コンテンツの視聴システムの全体的な構成例を示すブロック図である。 図2は、授業コンテンツの配信元の教室を概念的に示す図である。 図3は、通信授業用サーバの構成例を示す機能ブロック図である。 図4は、生徒用端末の構成例を示す機能ブロック図である。 図5は、仮想空間内の机オブジェクトに現実空間の机上の画像をはめ込む処理の流れを示すフローチャートである。 図6は、映像をはめ込み合成する前の仮想空間の一例を示す図である。 図7は、現実空間の生徒の机の一例を示す図である。 図8は、図6の仮想空間に図7の机を撮影した映像をはめ込み合成した仮想空間の一例を示す図である。
[システム構成]
以下、本発明の一実施形態の授業コンテンツの視聴システムについて図面を用いて説明する。
本実施形態の授業コンテンツの視聴システムは、仮想現実(VR)を用いた授業コンテンツを配信するシステムである。図1に示す授業コンテンツの視聴システムは、通信授業用サーバ10および生徒用端末30を備える。通信授業用サーバ10と生徒用端末30は、通信回線20を介して接続されている。通信回線20は、インターネット等の任意の通信回線である。
図1では、生徒用端末30を1台のみ図示しているが、生徒用端末30の台数は任意である。生徒1人に対して1台の生徒用端末30を用意する。授業コンテンツが生放送で配信される場合は、多数の生徒用端末30が通信授業用サーバ10に同時に接続される。授業コンテンツがオンデマンドで配信される場合は、生徒用端末30と通信授業用サーバ10とを一対一で接続してもよい。
生徒用端末30は、VR機能を有する端末であれば、スマートフォンおよびパーソナルコンピュータなどの任意のコンピュータ機器を用いることができる。生徒用端末30には、HMD31およびカメラ32が接続される。カメラ32はHMD31が備えてもよいし、生徒がいる室内に固定されていてもよい。生徒用端末30とHMD31とカメラ32が一体となった装置を用いてもよい。
授業コンテンツを視聴する際、生徒はHMD31を装着する。生徒用端末30は、通信授業用サーバ10から仮想空間を構成するための情報を受信し、受信した情報に基づいて仮想空間を構成し、HMD31に仮想空間を撮影した映像を表示する。生徒用端末30は、仮想空間をレンダリングする際、カメラ32で撮影した生徒の机上の画像を仮想空間内の机オブジェクトにはめ込み合成する。
通信授業用サーバ10には、教室ディスプレイ11、中継カメラ12、教師用端末13、マイクロホン14、およびスピーカ15が接続される。スピーカ15は、ヘッドホン(イヤホン)を含む。通信授業用サーバ10は、接続された機器から受信した情報を元に、仮想空間内での授業コンテンツを作成する。
図2に示すように、教師40は、教室ディスプレイ11の前に立ち、教室ディスプレイ11および教師用端末13を用いて授業を行う。教室ディスプレイ11は、電子黒板と称される大画面ディスプレイである。教師40は、通信授業用サーバ10に記憶されている授業用データを教室ディスプレイ11に表示させて授業を行う。授業用データは、教師用端末13に表示されてもよい。教師40の発話に合わせて授業用データが遷移して表示されて授業が進行する。教師40は、教師用端末13を操作し、教室ディスプレイ11に表示する授業用データを選択してもよい。
教室ディスプレイ11に表示された授業用データは、仮想空間内に配置される黒板オブジェクトにも表示される。教室ディスプレイ11の代わりに黒板またはホワイトボードを用いてもよい。
中継カメラ12は、教師40による授業を撮影する。教師40を撮影した動画データは、通信授業用サーバ10に送信される。通信授業用サーバ10は、動画データから教師40の動きおよび姿勢を検出し、仮想空間内に配置される教師アバターに反映させるためのモーションデータを生成する。教師アバターとは、教師40の動きを反映させるコンピュータグラフィックス(CG)キャラクタである。例えば、通信授業用サーバ10は、動画データから教師40のボーン(骨格)を検出し、検出したボーンに基づいて教師アバターを動かす。通信授業用サーバ10は、ボーンに基づいて生成した教師アバターのモーションデータを生徒用端末30へ配信する。教師40を撮影した動画データから教師アバターのモーションデータを作成する代わりに、教師がHMDを装着し、コントローラを操作して、教師アバターを操作してもよい。
マイクロホン14は、教師40の発した音声を収音する。収音された音声データは、通信授業用サーバ10に送信される。通信授業用サーバ10は、音声データを生徒用端末30へ配信する。
スピーカ15は、例えば、撮影スタッフからの授業の進行に関する指示などを出力して教師40に伝える。授業が双方向の場合、スピーカ15は、生徒用端末30から送信された音声データを出力してもよい。
なお、授業を撮影した映像であれば、どのような映像を用いて授業コンテンツを作成してもよい。例えば、過去に録画された教育番組の映像から登場人物のボーンを検出し、検出したボーンに基づいて仮想空間内のアバターを動かしてもよい。
[サーバ構成]
図3を参照し、通信授業用サーバ10の構成について説明する。図3に示す通信授業用サーバ10は、入出力部101、制御部102、音声処理部103、記憶部104、および配信部105を備える。
入出力部101は、教室ディスプレイ11、中継カメラ12、教師用端末13、マイクロホン14、およびスピーカ15と接続し、授業用データを出力したり、動画データ、音声データ、および操作を入力したりする。
制御部102は、動画データから教師40の動きおよび姿勢を検出し、教師アバターのモーションデータを生成する。モーションデータは記憶部104に記憶される。制御部102は、教室ディスプレイ11に表示された情報および教師用端末13から入力された情報を記憶部104に記憶する。
音声処理部103は、マイクロホン14で受信した音声等を記憶部104に記憶する。
記憶部104は、授業が行われる仮想空間を構築するための情報を記憶する。仮想空間を構築するための情報としては、例えば、仮想空間内に配置されるオブジェクトのモデルデータ、オブジェクトの配置情報、アバターのモデルデータとモーションデータがある。仮想空間内に配置されるオブジェクトとしては、例えば、黒板オブジェクト、教室の壁・床・天井のオブジェクト、および生徒の机オブジェクトがある。記憶部104は、授業の進行に合わせて録音された音声データ、教室ディスプレイ11に表示された情報および教師用端末13から入力された情報を含む授業用データを記憶する。
配信部105は、授業が行われる仮想空間を構築するための仮想空間情報を配信する。例えば、配信部105は、授業の開始前に、仮想空間内の教室に配置されたオブジェクトおよびアバターのモデルデータを生徒用端末30へ配信しておく。配信部105は、授業が視聴されている間、教師アバターのモーションデータ、音声データ、黒板オブジェクトに描画される情報などの授業の進行に応じて変化するデータを生徒用端末30へ随時配信する。
[端末構成]
図4を参照し、生徒用端末30の構成について説明する。図4に示す生徒用端末30は、VR機能部301、入力部302、測定部303、調整部304、および記憶部305を備える。
VR機能部301は、通信授業用サーバ10から仮想空間を構築するための仮想空間情報を受信して仮想空間を構築する。VR機能部301は、HMD31で検出した生徒の頭の動きに基づいて仮想カメラを制御して、仮想空間をレンダリングする。生徒の見る映像は、仮想空間内の生徒アバターの視点から見える仮想空間である。生徒アバターとは、授業を視聴する生徒の仮想空間内のCGキャラクタである。
VR機能部301は、仮想空間をレンダリングする際、カメラ32で撮影した現実空間の映像を解析し、映像内から机上部分の領域を抽出し、抽出した領域内の映像を仮想空間内の机オブジェクトの天板にはめ込み合成する。これにより、仮想空間内の机オブジェクトに現実空間の机上の映像が融合されて表示される。映像をはめ込み合成した机オブジェクトの天板以外は仮想空間をレンダリングした映像であるので、没入感が損なわれることがない。
生徒アバターつまり生徒が机オブジェクトを見ることで、生徒はHMD31を装着したまま、机オブジェクトの天板に投影された現実空間の机上を見ることができる。生徒は、仮想空間内において、現実空間の机上の教科書、ノート、パソコン等を見ることができる。生徒が現実空間のノートに書いた文字等は、机オブジェクトに投影されるので、生徒はHMD31を装着したまま現実空間のノートを作成できる。カメラ32で撮影する現実空間の映像は、生徒の手の届く範囲を少なくとも含む現実空間を撮影した映像である。生徒は、仮想空間に融合された現実空間の映像を見ながら現実空間の実体物を利用できる。なお、机オブジェクト以外の仮想空間内に、映像から抽出した生徒の手の届く範囲の領域をはめ込み合成してもよい。
なお、生徒が机の引き出しを開けたとき、VR機能部301は、映像内から引き出し部分の領域を抽出し、机オブジェクトを引き出しを開けた状態にして、机オブジェクトに引き出し部分の領域をはめ込み合成してもよい。映像をはめ込み合成する机は学習机に限らず、サイドテーブル、サイドワゴン、あるいはサイドチェストなどの家具であってもよい。机オブジェクトは、これらの家具に対応するオブジェクトも含む。
VR機能部301は、仮想空間内の生徒アバターのモーションデータを生成し、通信授業用サーバ10へ送信してもよい。生徒は、コントローラを操作して生徒アバターのモーションを制御してもよい。
入力部302は、カメラ32で撮影した映像を入力する。入力部302は、HMD31で検出した生徒の頭の動きおよびコントローラの操作内容を入力してもよい。入力部302にマイクロホンを接続して生徒の音声を入力し、入力した音声データを通信授業用サーバ10へ送信してもよい。
測定部303は、生徒が授業コンテンツを視聴する前に、生徒の利用する机が置かれた現実空間の3次元空間情報を測定し、得られた3次元空間情報に基づいて現実空間の机の天板を検出する。例えば、カメラ32を動かしながら現実空間の動画を撮影し、単眼カメラを用いたマーカーレスARの技術により、撮影場所の3次元空間情報を測定できる。測定部303は、例えば、得られた3次元空間情報に基づき、所定の範囲内の高さにあり、所定の広さを持った平面を机の天板として検出する。
測定部303が天板の候補となる平面をいくつか生徒に提示し、生徒が天板を示す平面を選択してもよい。具体的には、例えば、カメラ32を備えたHMD31を生徒が装着し、カメラ32で撮影した映像をHMD31に表示する。生徒は、カメラ32のフレーム内に机の天板が収まるように頭(カメラ32)を動かす。測定部303は、映像から3次元空間情報を測定して平面を検出する。測定部303は、平面を検出できたときは、カメラ32の撮影した映像に検出できた平面を示す枠を重ねて表示する。生徒は、平面を示す枠が机の天板と一致したときに、コントローラを操作するなどの決定操作を行う。
調整部304は、現実空間でのHMD31と机の天板との位置関係に基づき、仮想空間内の机オブジェクトの天板の位置を調整する。HMD31の位置が生徒アバターの頭部に相当する。調整部304は、机オブジェクトの天板の大きさを現実空間の机の天板の大きさに調整してもよい。調整部304が机オブジェクトの位置や大きさを現実空間の机に合わせて調製することで、生徒が生徒アバターで机オブジェクトの天板に触れると、現実空間においても机の天板に触れることができる。生徒アバターのサイズは生徒に合わせて調整しておく。仮想空間内に現実空間で触れることができるオブジェクトが表示される。
記憶部305は、VR機能部301が仮想空間をレンダリングするのに必要な情報、測定部303が測定した3次元空間情報、および調整部304が調整した調整後の机オブジェクトの情報を保持する。記憶部305は、カメラ32で撮影された映像など入力部302が入力した情報を保存してもよい。
なお、授業コンテンツを視聴するための生徒用の専用ブースを用意する場合、生徒の利用する机が写るようにカメラ32を固定して配置してもよい。机には決められた大きさのものを用い、決められた位置に配置する。これにより、カメラ32および机の位置は固定されるので、測定部303による天板の検出が不要である。机の大きさも決められているので、調整部304による机オブジェクトの調整も不要である。また、生徒の自室において、カメラ32を固定して配置してもよい。自室の机に応じて机オブジェクトを一度調整しておけば、2度目から調整が不要である。
通信授業用サーバ10および生徒用端末30には、例えば、中央演算処理装置(CPU)、メモリ、ストレージ、通信装置、および入出力装置とを備える汎用的なコンピュータシステムを用いることができる。このコンピュータシステムにおいて、CPUがメモリ上にロードされた所定のプログラムを実行することにより、通信授業用サーバ10および生徒用端末30が実現される。このプログラムは磁気ディスク、光ディスク、半導体メモリ等のコンピュータ読み取り可能な記録媒体に記録することも、ネットワークを介して配信することもできる。
通信授業用サーバ10が仮想空間をレンダリングしてもよい。例えば、生徒用端末30は、HMD31で検出した生徒の頭の動きを通信授業用サーバ10へ送信する。通信授業用サーバ10は、生徒の頭の動きに基づいて仮想カメラを制御し、仮想空間をレンダリングする。生徒用端末30はレンダリング後の映像を受信して表示する。
[はめ込み合成処理]
図5を参照し、はめ込み合成を行う処理の流れについて説明する。
ステップS11にて、測定部303は、現実空間の机の位置および大きさを検出する。
ステップS12にて、調整部304は、現実空間の机の位置および大きさに基づいて仮想空間内の机オブジェクトの位置および大きさを調整する。例えば、HMD31から机の天板までの距離を基準として生徒アバターの視点位置から机オブジェクトの天板までの距離を調整し、さらに、机オブジェクトの天板の大きさを調整する。
調整で304による机オブジェクトの調整後、生徒は、HMD31を装着して仮想空間内に机オブジェクトを表示させ、手を動かして、仮想空間内での机オブジェクトの位置および大きさが現実空間の机の位置および大きさに対応しているか否か確認し、机オブジェクトの位置および大きさを微調整してもよい。
以上のステップS11およびステップS12の処理により、仮想空間の机オブジェクトを現実空間の机に対応させることができる。
ステップS13にて、カメラ32で撮影した映像から机上の領域を抽出し、抽出した領域内の映像を仮想空間内の机オブジェクトの天板にはめ込み合成する。これにより、生徒は、HMD31を装着したまま仮想空間内で現実空間の机上を見ることができる。
生徒が、現実空間において机上のノートに記入する場合、机上を撮影した映像には生徒の手や腕が映る。この場合、生徒アバターの手および腕を非表示にしたり、透明にしたりしてもよい。
VR機能部301は、オブジェクトをレンダリングする際、現実空間の実体物と対応が取れている部分を強調表示してもよい。例えば、現実空間の実体物と対応がとれている机の天板について、VR機能部301は、机オブジェクトの天板の端を枠で囲って強調表示する。これにより、生徒は、仮想空間で枠で囲われた部分は現実空間において実体物が存在することを認識できる。
生徒の頭部が揺動した場合でも、現実空間の映像がオブジェクトに対して揺れずに合成されるようにする。
現実空間の映像をはめ込み合成する機能をオン/オフできてもよいし、現実空間の映像に透明度を設定してはめ込み合成してもよい。現実空間の映像をはめ込み合成しない場合でも、仮想空間内の机オブジェクトの位置および大きさは、現実空間の机に対応させておく。
[はめ込み合成例]
図6ないし8を参照し、机オブジェクトに映像をはめ込む合成例について説明する。
図6は、映像をはめ込み合成する前の仮想空間の一例を示す図である。同図では、教師アバター400、机オブジェクト500、および黒板オブジェクト600を図示している。床・天井・壁など図示したもの以外のオブジェクトを仮想空間内に配置してもよい。
複数の生徒で授業を受ける場合あるいは複数の生徒で授業を受けているように演出する場合は、他の生徒のアバターおよび机オブジェクトを配置してもよい。他の生徒の机オブジェクトは、机上を撮影した映像をはめ込み合成した机オブジェクトでもよいし、映像をはめ込み合成しない机オブジェクトでもよい。
教師アバター400は、教師40の動きを反映して授業を進行するCGキャラクタである。生徒用端末30は、通信授業用サーバ10から受信したモーションデータに基づき、教師アバター400を制御する。
図6に示す机オブジェクト500は、現実空間の机の位置および大きさに対応するように調整していない。机オブジェクト500の手前に生徒アバター(図示せず)が存在する。机オブジェクト500の天板500Aに映像をはめ込み合成する。
黒板オブジェクト600は、教師40が授業の進行に応じて用いるオブジェクトである。教室ディスプレイ11に表示された情報を表示したり、教師用端末13から入力した情報を表示したりする。
図7は、現実空間の生徒の机の一例を示す図である。机700は、授業を視聴する生徒の手の届く範囲にある机である。生徒用端末30は、生徒が授業コンテンツを視聴中、カメラ32で机700を撮影した映像から机700の天板700Aの領域を抽出する。
図8は、図6の仮想空間に図7の机を撮影した映像をはめ込み合成した仮想空間の一例を示す図である。図8では、図7の天板700Aの領域内の映像を仮想空間内の机オブジェクト500の天板500Aにはめ込み合成している。また、天板500Aの位置を少し高くし、天板500Aの大きさを現実空間の天板700Aに合わせて調整している。現実空間の机700に置かれたパソコンやノートも仮想空間内の机オブジェクトに投影されている。現実空間の映像をはめ込み合成した天板500Aを囲う枠を表示してもよい。
なお、机オブジェクトに現実空間の映像をはめ込み合成するだけでなく、例えば、現実空間のパソコンのモニタの画面を仮想空間内のオブジェクトに投影してもよい。具体的には、パソコンのキーボードやマウスは机上に置いて操作できるようにする。パソコンのモニタをカメラで撮影する。仮想空間内にパソコンのモニタに対応するモニタオブジェクトを配置する。現実空間のモニタを撮影した映像からモニタの表示領域を抽出して仮想空間内のモニタオブジェクトにはめ込み合成する。生徒は、現実空間のパソコンを操作しながら、仮想空間内でモニタオブジェクトに写る表示を確認できる。モニタオブジェクトは生徒が触れるものではないので、仮想空間内での位置や大きさは任意に設定してもよい。
また、生徒の自室を360度の映像が撮影可能な全天球カメラで撮影し、仮想空間の教室の壁・床・天井に撮影した映像をはめ込み合成してもよい。
以上説明したように、本実施形態の授業コンテンツの視聴システムは、仮想空間内で行われる授業を配信する通信授業用サーバ10と授業を視聴するための生徒用端末30を備える。通信授業用サーバ10は、仮想空間内で行われる授業を表示するための仮想空間情報を配信する配信部105を備える。生徒用端末30は、仮想空間情報に基づいて仮想空間を表示するVR機能部301と、授業を視聴する生徒の手の届く範囲の現実空間を撮影した映像を入力する入力部302と、を備える。VR機能部301は、映像から机700の天板700Aが写っている領域を抽出し、机オブジェクト500の天板500Aに領域内の映像をはめ込み合成する。これにより、生徒は、HMD31を外すことなく、生徒の使用する机上を見ることができ、さらに、机上の教科書、ノート、パソコンなどを利用することもできる。
10…通信授業用サーバ
101…入出力部
102…制御部
103…音声処理部
104…記憶部
105…配信部
11…教室ディスプレイ
12…中継カメラ
13…教師用端末
14…マイクロホン
15…スピーカ
20…通信回線
30…生徒用端末
301…VR機能部
302…入力部
303…測定部
304…調整部
305…記憶部
31…HMD
32…カメラ
本発明の一態様の視聴システムは、没入感のある仮想空間内で行われる授業を視聴するための視聴システムであって、前記授業を配信するサーバと前記授業を視聴する視聴端末とを備え、前記サーバは、前記授業を表示するための仮想空間情報を配信する配信部を備え、前記視聴端末は、前記仮想空間情報に基づいて前記仮想空間を表示する表示部と、前記授業を視聴する生徒のを少なくとも含んだ現実空間を撮影した映像を入力する入力部と、を備え、前記表示部は、前記映像から生徒の机の天板を撮影した領域を抽出し、前記仮想空間内の机オブジェクトの天板に前記生徒の机の天板を撮影した領域内の映像をはめ込み合成することを特徴とする。

Claims (7)

  1. 没入感のある仮想空間内で行われる授業を視聴するための視聴端末であって、
    仮想空間情報に基づいて前記仮想空間を表示する表示部と、
    前記授業を視聴する生徒の手の届く範囲を少なくとも含んだ現実空間を撮影した映像を入力する入力部と、を備え、
    前記表示部は、前記映像から前記生徒の手の届く範囲の領域を抽出し、前記仮想空間内に前記領域内の映像をはめ込み合成する
    ことを特徴とする視聴端末。
  2. 請求項1に記載の視聴端末であって、
    前記表示部は、前記映像から生徒の机を撮影した領域を抽出し、前記仮想空間内の机オブジェクトに前記領域内の映像をはめ込み合成する
    ことを特徴とする視聴端末。
  3. 請求項2に記載の視聴端末であって、
    前記机オブジェクトに対応する現実空間内の実体物の位置および大きさを測定する測定部と、
    前記測定部の測定結果に基づいて前記机オブジェクトの位置および大きさを調整する調整部と、を備える
    ことを特徴とする視聴端末。
  4. 請求項1ないし3のいずれかに記載の視聴端末であって、
    前記表示部は、カメラを備えるヘッドマウントディスプレイであり、
    前記入力部は、前記カメラが撮影した映像を入力する
    ことを特徴とする視聴端末。
  5. 没入感のある仮想空間内で行われる授業を視聴するための視聴端末による視聴方法であって、
    仮想空間情報に基づいて前記仮想空間を表示するステップと、
    前記授業を視聴する生徒の手の届く範囲を少なくとも含んだ現実空間を撮影した映像を入力するステップと、を有し、
    前記表示するステップでは、前記映像から前記生徒の手の届く範囲の領域を抽出し、前記仮想空間内に前記領域内の映像をはめ込み合成する
    ことを特徴とする視聴方法。
  6. 没入感のある仮想空間内で行われる授業を視聴するための視聴システムであって、
    前記授業を配信するサーバと前記授業を視聴する視聴端末とを備え、
    前記サーバは、
    前記授業を表示するための仮想空間情報を配信する配信部を備え、
    前記視聴端末は、
    前記仮想空間情報に基づいて前記仮想空間を表示する表示部と、
    前記授業を視聴する生徒の手の届く範囲を少なくとも含んだ現実空間を撮影した映像を入力する入力部と、を備え、
    前記表示部は、前記映像から前記生徒の手の届く範囲の領域を抽出し、前記仮想空間内に前記領域内の映像をはめ込み合成する
    ことを特徴とする視聴システム。
  7. コンピュータを、没入感のある仮想空間内で行われる授業を視聴するための視聴端末として動作させるプログラムであって、
    仮想空間情報に基づいて前記仮想空間を表示する処理と、
    前記授業を視聴する生徒の手の届く範囲を少なくとも含んだ現実空間を撮影した映像を入力する処理と、を前記コンピュータに実行させ、
    前記表示する処理では、前記映像から前記生徒の手の届く範囲の領域を抽出し、前記仮想空間内に前記領域内の映像をはめ込み合成する処理
    を前記コンピュータに実行させるプログラム。
JP2020019368A 2020-02-07 2020-02-07 視聴端末、視聴方法、視聴システム及びプログラム Active JP6754908B1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020019368A JP6754908B1 (ja) 2020-02-07 2020-02-07 視聴端末、視聴方法、視聴システム及びプログラム
JP2020140003A JP2021125209A (ja) 2020-02-07 2020-08-21 視聴端末、視聴方法、視聴システム及びプログラム
US17/791,486 US20230043422A1 (en) 2020-02-07 2021-02-03 Viewing terminal, viewing method, viewing system, and program
PCT/JP2021/003944 WO2021157616A1 (ja) 2020-02-07 2021-02-03 視聴端末、視聴方法、視聴システム及びプログラム
CN202180009145.6A CN115004281A (zh) 2020-02-07 2021-02-03 视听终端、视听方法、视听系统以及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020019368A JP6754908B1 (ja) 2020-02-07 2020-02-07 視聴端末、視聴方法、視聴システム及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020140003A Division JP2021125209A (ja) 2020-02-07 2020-08-21 視聴端末、視聴方法、視聴システム及びプログラム

Publications (2)

Publication Number Publication Date
JP6754908B1 JP6754908B1 (ja) 2020-09-16
JP2021125834A true JP2021125834A (ja) 2021-08-30

Family

ID=72432322

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020019368A Active JP6754908B1 (ja) 2020-02-07 2020-02-07 視聴端末、視聴方法、視聴システム及びプログラム
JP2020140003A Pending JP2021125209A (ja) 2020-02-07 2020-08-21 視聴端末、視聴方法、視聴システム及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020140003A Pending JP2021125209A (ja) 2020-02-07 2020-08-21 視聴端末、視聴方法、視聴システム及びプログラム

Country Status (4)

Country Link
US (1) US20230043422A1 (ja)
JP (2) JP6754908B1 (ja)
CN (1) CN115004281A (ja)
WO (1) WO2021157616A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023096339A1 (ko) * 2021-11-29 2023-06-01 삼성전자 주식회사 외부 디스플레이 장치와 연동하여 컨텐츠를 제공하는 전자 장치 및 그 컨텐츠 제공 방법

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040104935A1 (en) * 2001-01-26 2004-06-03 Todd Williamson Virtual reality immersion system
JP2004061783A (ja) * 2002-07-29 2004-02-26 Fujitsu Ltd 語学教育装置
JP2005128877A (ja) * 2003-10-24 2005-05-19 Canon Inc 複合現実感提示システム及び方法、情報処理装置及び方法、並びにコンピュータプログラム
WO2014119098A1 (ja) * 2013-02-01 2014-08-07 ソニー株式会社 情報処理装置、端末装置、情報処理方法及びプログラム
US20160300392A1 (en) * 2015-04-10 2016-10-13 VR Global, Inc. Systems, media, and methods for providing improved virtual reality tours and associated analytics
CN106781755A (zh) * 2017-01-18 2017-05-31 广州远大信息发展有限公司 一种基于虚拟现实的教学系统及方法
KR101788248B1 (ko) * 2017-03-02 2017-10-20 주식회사 미래엔 가상 현실과 증강 현실을 이용한 온라인 학습 시스템 및 방법
CN108010394B (zh) * 2017-12-20 2020-11-03 杭州埃欧哲建设工程咨询有限公司 一种基于vr的虚拟教学方法、控制终端、虚拟教学系统
CN108319373A (zh) * 2018-04-13 2018-07-24 北京理工大学 一种用于虚拟现实的虚实融合食物摄入系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023096339A1 (ko) * 2021-11-29 2023-06-01 삼성전자 주식회사 외부 디스플레이 장치와 연동하여 컨텐츠를 제공하는 전자 장치 및 그 컨텐츠 제공 방법

Also Published As

Publication number Publication date
US20230043422A1 (en) 2023-02-09
CN115004281A (zh) 2022-09-02
WO2021157616A1 (ja) 2021-08-12
JP2021125209A (ja) 2021-08-30
JP6754908B1 (ja) 2020-09-16

Similar Documents

Publication Publication Date Title
JP6683864B1 (ja) コンテンツ制御システム、コンテンツ制御方法、およびコンテンツ制御プログラム
US20070035511A1 (en) Compact haptic and augmented virtual reality system
TWI647593B (zh) 模擬環境顯示系統及方法
US20220375358A1 (en) Class system, viewing terminal, information processing method, and program
CN112616048B (zh) Ar眼镜及其显示方法和系统、图像处理方法及设备
WO2021157616A1 (ja) 視聴端末、視聴方法、視聴システム及びプログラム
US11961190B2 (en) Content distribution system, content distribution method, and content distribution program
JP6892478B2 (ja) コンテンツ制御システム、コンテンツ制御方法、およびコンテンツ制御プログラム
JP2021105879A (ja) プログラム、情報処理装置及び方法
JP2021009351A (ja) コンテンツ制御システム、コンテンツ制御方法、およびコンテンツ制御プログラム
JP7161200B2 (ja) カラオケ演出システム
WO2020188721A1 (ja) ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム
JP2021086606A (ja) 授業システム、視聴端末、情報処理方法及びプログラム
JP2021005052A (ja) 授業コンテンツの配信方法、授業コンテンツの配信システム、端末及びプログラム
JP2021009348A (ja) コンテンツ制御システム、コンテンツ制御方法、およびコンテンツ制御プログラム
JP7011746B1 (ja) コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム
JP7047168B1 (ja) コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム
US11907434B2 (en) Information processing apparatus, information processing system, and information processing method
JP7072706B1 (ja) 表示制御装置、表示制御方法および表示制御プログラム
KR102622709B1 (ko) 2차원 영상에 기초하여 3차원 가상객체를 포함하는 360도 영상을 생성하는 방법 및 장치
WO2021261587A1 (ja) エンターテインメントシステム、処理方法及び情報記憶媒体
Schäfer Improving Essential Interactions for Immersive Virtual Environments with Novel Hand Gesture Authoring Tools
JP2020167654A (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200207

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200207

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200824

R150 Certificate of patent or registration of utility model

Ref document number: 6754908

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250