JP6971932B2 - 映像操作装置、映像操作方法、及び映像操作プログラム - Google Patents

映像操作装置、映像操作方法、及び映像操作プログラム Download PDF

Info

Publication number
JP6971932B2
JP6971932B2 JP2018141395A JP2018141395A JP6971932B2 JP 6971932 B2 JP6971932 B2 JP 6971932B2 JP 2018141395 A JP2018141395 A JP 2018141395A JP 2018141395 A JP2018141395 A JP 2018141395A JP 6971932 B2 JP6971932 B2 JP 6971932B2
Authority
JP
Japan
Prior art keywords
information
video information
video
user
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018141395A
Other languages
English (en)
Other versions
JP2020017202A (ja
Inventor
愛 磯貝
英明 木全
大介 越智
拓郎 中尾
ユン スエン パイ
クンツェ カイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Keio University
Original Assignee
Nippon Telegraph and Telephone Corp
Keio University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, Keio University filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018141395A priority Critical patent/JP6971932B2/ja
Publication of JP2020017202A publication Critical patent/JP2020017202A/ja
Application granted granted Critical
Publication of JP6971932B2 publication Critical patent/JP6971932B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、映像操作装置、映像操作方法、及び映像操作プログラムに関する。
近年、AR(Augumented Reality:拡張現実)を実現するための視聴デバイスの普及が進んでいる。ARは、実在する空間(以下、実空間という)の一部を変化させることにより、拡張した空間を表現する技術である。AR用の視聴デバイスとして、例えば、実空間を透過させながら情報を表示するシースルーグラスや、カメラで実空間を撮影し、撮影した実空間の映像に実空間の一部を変化させた拡張空間を重ねて表示するビデオシースルーなどがある。
このような視聴デバイスが普及し始めると、利用者が、視聴するだけでなく、更に高度な機能、例えば、利用者が見ている物体の位置を自由に動かしたり、利用者が見ている場所の時間を過去に戻して、過去の出来事を見たりする機能を求めるようになってきている。
このような機能を備えることにより、例えば、サッカー場などの競技場において試合を見ている利用者が、以下のようなことを行うことが可能となる。例えば、手前に存在する選手によって奥に存在する選手が隠されるために、奥に存在する選手の動きがよく見えない場合、手前の選手の位置を変えることで、奥に存在する選手の動きを見ることができるようになる。また、ゴールのような試合展開を決定付ける重要なシーンが生じた場合、利用者がゴールの周辺の空間の時間を任意の過去の時間に戻すことにより、もう一度、当該シーンを視聴することができるようになる。
古井 貞熙、"音声認識技術の実用化への取り組み"、2010年11月、情報処理、Vol.51、No.11、pp1387-1393
ARの分野において、物体の位置を自由に動かしたり、時間を自由に戻したりする操作手法に関する技術が提案されているが、従来の手法には、下記のような問題がある。例えば、ARにおいて、利用者が視聴している物体を操作する手法として、視聴デバイスに装着されたマイクで収音した音声データを認識し、その認識結果に応じて操作を行う操作手法がある。当該操作手法は、会話という自然な動作であるものの、例えば、サッカー場のような雑音が多い環境では、音声データの認識が困難であるという問題があり、また、周囲に人が存在するような環境において音声操作をすることに抵抗を感じる人が多いという問題がある(例えば、非特許文献1参照)。
また、人の動作において最も自然である手指を利用する操作手法も提案されている。当該手法では、例えば、視聴デバイスや周囲に設置されたカメラによって、手指を動かすジェスチャを撮影し、撮影した手指の動きの方向や移動量に応じて映像を変化させて表示する。しかしながら、サッカーのように複数選手が動いているスポーツの場合、試合を見ながら、任意の選手を手指の動きのみで選択することは困難であるという問題がある。
上記事情に鑑み、本発明は、実空間、または実空間を撮影した映像を見ている利用者が、容易に操作対象を選択することができ、かつ、抵抗感なく操作対象を写した映像を操作することができる技術の提供を目的としている。
本発明の一態様は、実空間を撮影装置によって撮影することにより得られる映像情報を取得する映像情報取得部と、画面において利用者が選択する位置を示す選択位置情報を前記利用者の視線に基づいて検出する選択位置検出部と、前記視線を動かす以外の前記利用者が行う動作に基づいて、前記映像情報に対して行う操作を示す操作情報を検出する操作情報検出部と、前記選択位置情報に基づいて前記操作の対象である選択領域を設定し、前記映像情報取得部が取得する前記映像情報から前記選択領域に含まれる前記映像情報を切り出し、切り出した前記映像情報に対して前記操作情報に基づく操作を行うことにより重畳映像情報を生成する映像情報レンダリング部と、前記重畳映像情報を出力して前記画面に表示させる映像情報出力部と、を備える映像操作装置である。
本発明の一態様は、上記の映像操作装置であって、前記利用者は、透過する前記画面を介して前記実空間を見ているか、または、前記実空間を前記撮影装置によって撮影することにより得られる前記映像情報の映像が表示される前記画面を見ており、前記映像情報出力部は、前記利用者が、前記透過する画面を介して前記実空間を見ている場合、前記重畳映像情報を前記画面に表示させ、前記利用者が、前記実空間を前記撮影装置によって撮影することにより得られる前記映像情報の映像が表示される前記画面を見ている場合、前記画面に表示される前記映像情報に重ねて前記重畳映像情報を表示させる。
本発明の一態様は、上記の映像操作装置であって、前記操作情報検出部は、前記視線を動かす以外の前記利用者が行う動作である前記利用者の口腔内における舌の動きに基づいて、前記操作情報を検出する。
本発明の一態様は、上記の映像操作装置であって、前記実空間は、複数の前記撮影装置によって撮影されており、前記操作情報による操作は、前記選択範囲に含まれる前記映像情報の位置を変更する操作であり、前記映像情報取得部は、前記利用者の位置に最も近い前記撮影装置が撮影した前記映像情報を取得し、前記映像情報レンダリング部は、前記操作情報にしたがって前記切り出した映像情報の位置を変更し、位置を変更した後の前記切り出した映像情報を第1の前記重畳映像情報とし、前記切り出した映像情報を撮影した前記撮影装置以外の前記撮影装置の中から、前記切り出した映像情報の映像に写っている物によって隠されている背景を撮影した前記撮影装置を選択し、選択した前記撮影装置が撮影した前記映像情報に基づいて、前記選択領域の前記背景の映像情報を第2の前記重畳映像情報として生成し、前記映像情報出力部は、前記第1及び第2の重畳映像情報を出力して前記画面に表示させる。
本発明の一態様は、上記の映像操作装置であって、前記操作情報による操作は、前記選択領域に含まれる前記映像情報の再生範囲を定める操作であり、前記映像情報取得部は、前記利用者によって指定される再生範囲の終了時刻以前の過去の前記映像情報を取得し、前記映像情報レンダリング部は、前記選択領域に含まれる前記過去の映像情報を切り出して部分過去映像情報とし、前記操作情報に基づいて前記再生範囲の開始時刻を算出し、前記開始時刻と前記終了時刻により定められる前記再生範囲の前記部分過去映像情報を第3の前記重畳映像情報として生成し、前記映像情報出力部は、前記第3の重畳映像情報を出力して前記画面に表示させる。
本発明の一態様は、実空間を撮影装置によって撮影することにより得られる映像情報を取得し、画面において利用者が選択する位置を示す選択位置情報を前記利用者の視線に基づいて検出し、前記視線を動かす以外の前記利用者が行う動作に基づいて、前記映像情報に対して行う操作を示す操作情報を検出し、前記選択位置情報に基づいて前記操作の対象である選択領域を設定し、取得した前記映像情報から前記選択領域に含まれる前記映像情報を切り出し、切り出した前記映像情報に対して前記操作情報に基づく操作を行うことにより重畳映像情報を生成し、生成した前記重畳映像情報を出力して前記画面に表示する映像操作方法である。
本発明の一態様は、上記の映像操作装置としてコンピュータを実行させるための映像操作プログラムである。
本発明により、実空間、または実空間を撮影した映像を見ている利用者が、容易に操作対象を選択することができ、かつ、抵抗感なく操作対象を写した映像を操作することが可能となる。
第1の実施形態の映像表示システムの構成を示すブロック図である。 同実施形態において利用者の顔に顔センサを配置する例を示す図である。 同実施形態における顔センサリストテーブルのデータ構成を示す図である。 同実施形態における利用者情報テーブルのデータ構成を示す図である。 同実施形態おける世界座標、利用者座標、カメラ座標の関係を示す図である。 同実施形態における利用者表示装置の内部構成を示すブロック図である。 同実施形態における配信サーバ装置の内部構成、及び配信サーバ装置とカメラとの接続関係を示すブロック図である。 同実施形態におけるカメラリストテーブルのデータ構成を示す図である。 同実施形態における利用者リストテーブルのデータ構成を示す図である。 同実施形態における映像操作装置の処理の流れを示すフローチャートである。 同実施形態における顔センサの電圧変化を示すグラフの一例を示す図である。 同実施形態における選択領域、注視対象物映像情報、第1の重畳映像情報、及び第2の重畳映像情報の一例を示す図である。 第2の実施形態の映像表示システムの構成を示すブロック図である。 同実施形態における利用者情報テーブルのデータ構成を示す図である。 同実施形態における利用者表示装置の内部構成を示すブロック図である。 同実施形態における配信サーバ装置の内部構成、及び配信サーバ装置とカメラとの接続関係を示すブロック図である。 同実施形態における映像操作装置の処理の流れを示すフローチャートである。
(第1の実施形態)
以下、本発明の実施形態について図面を参照して説明する。図1は、第1の実施形態の映像表示システム1の構成を示すブロック図である。第1の実施形態では、利用される状況として、例えば、競技場においてサッカーの試合を見ている映像表示システム1の利用者20が、複数の選手がある場所に集中しているために、手前に存在する選手の後ろに存在する選手が保持しているサッカーボールが見えない状況を想定している。この状況において、利用者20が、映像表示システム1を利用することにより、手前の選手を移動させて、当該選手の後ろに存在する選手が保持するサッカーボールが見えるようになる。
映像表示システム1は、例えば、ビデオシースルー型のARのシステムであり、映像操作装置10と、眼球センサ21と、顔センサユニット22と、位置姿勢センサ23と、利用者表示装置30と、配信サーバ装置40と、カメラ50−1,50−2,50−3と、通信ネットワーク60とを備える。
映像表示システム1において、通信ネットワーク60は、例えば、インターネット網や専用回線により構築される通信網であり、通信ネットワーク60への接続は、有線接続であっても、無線接続であってもよい。
カメラ50−1,50−2,50−3は、動画像を撮影する撮影装置であり、予め定められる位置や姿勢で固定的に配置され、例えば、サッカーの競技場等の実空間を撮影する。
なお、図1では、一例として、3台のカメラ50−1,50−2,50−3を示しているが、台数は、3台に限られず、少なくとも2台以上あればよい。第1の実施形態では、映像操作装置10の映像情報レンダリング部17による処理において、複数の方向から撮影された映像情報が必要となるため、撮影する実空間の広さ等に応じて、適切な台数のカメラ50−1,50−2,…が配置されるものとする。
また、カメラ50−1,50−2,50−3の各々は、内部に、例えば、時計等の計時手段を備えており、全ての計時手段の時刻は、現在時刻になるように同期している。また、カメラ50−1,50−2,50−3の各々は、計時手段から得られる時刻の情報を撮影により得られた動画像のフレームごとに付与して映像情報を生成する。また、カメラ50−1,50−2,50−3の各々には、それぞれ異なるカメラ識別情報が予め割り当てられており、カメラ50−1,50−2,50−3の各々は、生成した映像情報に、各々に割り当てられているカメラ識別情報を付与して配信サーバ装置40に出力する。
眼球センサ21は、利用者20の左右の眼球の視線方向、及び左右の視線方向がなす輻輳角θを一定の周期で繰り返し検出するセンサであり、例えば、利用者表示装置30の内部に装着される。また、眼球センサ21は、内部に無線通信手段を備えており、検出した左右の眼球の視線方向と、輻輳角θとを含む時系列データを無線通信により映像操作装置10に送信する。
顔センサユニット22は、図2に示すように、例えば、4個の顔センサ220−A,220−B,220−C,220−Dを含んでいる。4個の顔センサ220−A,220−B,220−C,220−Dは、人が筋肉を動かすときに生じる電圧を計測するEMG(Electromyography:筋電位、筋電図)センサである。
また、4個の顔センサ220−A,220−B,220−C,220−Dは、図2に示すように、利用者20の顔の頬や上唇に装着される。また、4個の顔センサ220−A,220−B,220−C,220−Dは、利用者20が、口腔内において舌を頬に押し付けた状態で、舌を動かした際の隆起位置の変化を電圧値として一定の周期で繰り返し検出する。
また、4個の顔センサ220−A,220−B,220−C,220−Dの各々には、それぞれ異なるセンサ識別情報が予め割り当てられている。また、4個の顔センサ220−A,220−B,220−C,220−Dの各々は、内部に無線通信手段を備えており、検出した電圧値に、各々に割り当てられているセンサ識別情報を付与して時系列データとして無線通信により映像操作装置10に送信する。
位置姿勢センサ23は、既存のキャリブレーション処理を行う機能を備えており、利用者20の位置と、姿勢を示す角度を一定の周期で繰り返し検出するセンサであり、例えば、利用者表示装置30の内部に装着される。また、位置姿勢センサ23は、内部に無線通信手段を備えており、検出した利用者20の位置の情報と、姿勢を示す角度の情報とを含む時系列データを無線通信により映像操作装置10に送信する。
(映像操作装置の構成)
映像操作装置10は、計時部11、記憶部12、選択位置検出部13、操作情報検出部14、モード切替部15、映像情報取得部16、映像情報レンダリング部17、映像情報出力部18、位置姿勢情報更新部19、及び無線通信部20を備える。映像操作装置10において、無線通信部20は、眼球センサ21、顔センサユニット22、位置姿勢センサ23、及び利用者表示装置30との間で無線通信を行う。
計時部11は、例えば、要求を受けて時刻情報を出力する時計である。計時部11の時計の時刻は、カメラ50−1〜50−3の各々が内部に備える計時手段の時刻に同期するように予め設定される。
記憶部12は、図3に示す顔センサリストテーブル121を予め記憶する。顔センサリストテーブル121は、「センサ識別情報」、及び「センサ位置情報」の項目を有する。「センサ識別情報」の項目には、顔センサ220−A,220−B,220−C,220−Dの各々のセンサ識別情報が書き込まれる。図3は、顔センサ220−A,220−B,220−C,220−Dのセンサ識別情報が、それぞれ「A」,「B」,「C」,「D」である例を示している。
「センサ位置情報」の項目には、顔センサ220−A,220−B,220−C,220−Dの各々の利用者20の顔における位置を示す情報が書き込まれる。顔における位置を示す情報は、例えば、図2に示すように、利用者20の顔において、口角を結ぶ直線を水平軸、すなわちx軸とし、口角の中間を原点座標としたxy座標によって示される。
顔センサ220−A,220−B,220−C,220−Dの各々の位置を、当該xy座標における座標値(x,y)として表すことができ、各々の座標値(x,y)が、「センサ位置情報」の項目の各々に対応する行に予め書き込まれる。図3は、顔センサ220−A,220−B,220−C,220−Dのセンサ位置情報が、それぞれ(−100,0),(−50,0),(50,0),(100,0)である例を示している。
また、記憶部12は、図4に示す利用者情報テーブル122を予め記憶する。利用者情報テーブル122は、「利用者識別情報」、「モード種別」、「移動スケール」、「位置・姿勢」、「位置情報」の項目を有する。「利用者識別情報」の項目には、利用者表示装置30に予め割り当てられている利用者識別情報が予め書き込まれる。
ここで、利用者識別情報とは、配信サーバ装置40に接続する利用者表示装置30に対して予め割り当てられる識別情報であり、複数の利用者表示装置30が接続する場合、それぞれに異なる利用者識別情報が割り当てられる。図4は、利用者識別情報として「1」が書き込まれている例を示している。なお、1台の映像操作装置10に接続する利用者表示装置30は1台であるため、利用者情報テーブル122の「利用者識別情報」の項目は、接続する1台の利用者表示装置30の利用者識別情報のみを記憶する。
「モード種別」の項目には、モード切替部15によってモード種別を示す情報が書き込まれる。図4は、モード種別を示す情報として、移動操作モード種別を示す「移動操作」が書き込まれている例を示している。
「移動スケール」の項目には、移動スケールの値が予め書き込まれる。ここで、移動スケールとは、顔センサリストテーブル121の「センサ位置情報」の項目が記憶する座標値の座標、すなわち、図2を参照して説明した利用者20の顔において定義した座標と、カメラ50−1〜50−3が撮影する動画像の座標のスケールを補正する値である。図4は、移動スケールとして、「1」が書き込まれている例を示している。移動スケールの値が、「1」の場合、両座標のスケールは一致する。なお、以下の説明において、移動スケールを、移動スケールαともいう。
「位置・姿勢」の項目には、位置姿勢情報更新部19が、位置姿勢センサ23から受信する利用者20の位置及び姿勢を示す角度の情報に基づいて算出する利用者座標Mにおける利用者20の回転行列Rと並進ベクトルtの情報が書き込まれる。「位置情報」の項目には、位置姿勢情報更新部19が、位置姿勢センサ23から受信する利用者20の位置を示す情報に基づいて算出する世界座標Mにおける利用者座標Mの原点の位置を示す情報が書き込まれる。
ここで、利用者座標、世界座標等の用語について、図5を参照しつつ説明する。図5は、利用者20と、カメラ50−1,50−2,50−3の位置関係を示す一例であり、世界座標Mとは、空間全体を表す座標系である。利用者座標Mは、利用者20の位置を原点とする座標系である。カメラ座標Mc1,Mc2,Mc3は、それぞれカメラ50−1,50−2,50−3の位置を原点とする座標系である。
世界座標Mと、利用者座標Mと、カメラ座標Mc1,Mc2,Mc3の各々は、原点が異なるが、X軸、Y軸、Z軸の方向は同一の座標である。なお、Y軸は、紙面に垂直な軸であって、手前から奥に向かう方向が正の方向である軸である。
利用者20の位置の情報、及び姿勢を示す角度の情報は、位置姿勢センサ23が一定の周期で繰り返し検出するため、利用者20の動きに応じて変化する情報である。これに対して、カメラ50−1,50−2,50−3の位置や姿勢は、上述したように、固定されているため、既存のキャリブレーション技術によって、各々の座標系ごとに原点の位置情報や位置や姿勢を示す回転行列や並進ベクトルが予め求められている。
図1に戻り、選択位置検出部13は、無線通信部20を介して眼球センサ21から左右の眼球の視線方向と、輻輳角θとを含む時系列データを受信する。また、選択位置検出部13は、時系列データに含まれる左右の眼球の視線方向と、輻輳角θとに基づいて利用者20が、注視している注視点の実空間における3次元位置を算出する。また、選択位置検出部13は、算出した3次元位置を示す座標情報(以下、3次元位置座標情報という)を選択位置情報として、映像情報レンダリング部17に出力する。
操作情報検出部14は、無線通信部20を介して顔センサユニット22に含まれる顔センサ220−A,220−B,220−C,220−Dの各々から、センサ識別情報が付与された電圧値の時系列データを受信する。また、操作情報検出部14は、受信したセンサ識別情報が付与された電圧値の時系列データと、記憶部12の顔センサリストテーブル121が記憶する顔センサ220−A,220−B,220−C,220−Dの位置情報に基づいて、利用者20の舌の動きを示す情報である移動ベクトルを算出する。
顔や口腔内の形状、舌を押し当てる位置等は、利用者20ごとに異なるため、電圧値の変化パターンや大きさも利用者20ごとに異なることになる。そのため、操作情報検出部14は、学習手段を有しており、ある1人の利用者20が頬に舌を押し当てて移動させた際の電圧値の変化を事前に学習手段を用いて学習する。操作情報検出部14は、移動方向の分類精度や、移動量の検出精度が高められた状態で、実際の運用に適用される。
また、操作情報検出部14は、算出した移動ベクトルを操作情報として映像情報レンダリング部17に出力する。なお、以下の説明において、移動ベクトルを、移動ベクトルvともいう。
位置姿勢情報更新部19は、無線通信部20を介して位置姿勢センサ23から利用者20の位置及び姿勢を示す角度の情報を含む時系列データを受信する。また、位置姿勢情報更新部19は、受信した時系列データに含まれる利用者20の位置及び姿勢を示す角度の情報に基づいて、利用者座標Mにおける利用者20の回転行列Rと並進ベクトルtと、世界座標Mにおける利用者座標Mの原点の位置を示す情報とを算出する。
また、位置姿勢情報更新部19は、算出した利用者座標Mにおける利用者20の回転行列Rと並進ベクトルtを、利用者情報テーブル122の「位置・姿勢」の項目に書き込んで更新する。また、位置姿勢情報更新部19は、算出した世界座標Mにおける利用者座標Mの原点の位置を示す情報を、利用者情報テーブル122の「位置情報」の項目に書き込んで更新する。
また、位置姿勢情報更新部19は、利用者情報テーブル122の「利用者識別情報」の項目から利用者識別情報を読み出す。また、位置姿勢情報更新部19は、通信ネットワーク60に接続しており、算出した利用者座標Mにおける利用者20の回転行列Rと並進ベクトルt、及び世界座標Mにおける利用者座標Mの原点の位置を示す情報に対して、読み出した利用者識別情報を付与して配信サーバ装置40に送信する。
モード切替部15は、利用者表示装置30が利用者20の操作を受けて送信する移動操作モード通知を無線通信部20を介して受信し、受信した際に移動操作モード種別を示す情報を利用者情報テーブル122の「モード種別」の項目に書き込んで記憶させる。また、モード切替部15は、利用者表示装置30が利用者20の操作を受けて送信する終了モード通知を無線通信部20を介して受信し、受信した際に終了モード種別を示す情報を利用者情報テーブル122の「モード種別」の項目に書き込んで記憶させる。
また、モード切替部15は、移動操作モード通知を受信した場合、移動操作モード種別を示す情報と、利用者情報テーブル122が記憶する利用者識別情報と、計時部11に要求して取得する時刻情報とを含む情報を映像情報取得部16に出力する。また、モード切替部15は、終了モード通知を受信した場合、終了モード種別を示す情報と、利用者情報テーブル122が記憶する利用者識別情報とを含む情報を映像情報取得部16に出力する。
映像情報取得部16は、通信ネットワーク60を介して配信サーバ装置40に接続する。また、映像情報取得部16は、モード切替部15から移動操作モード種別を示す情報と、利用者識別情報と、時刻情報とを含む情報を受けた場合、利用者識別情報と、時刻情報とを含む配信要求情報を生成して配信サーバ装置40に送信する。なお、配信要求情報が含む時刻情報は、配信映像の開始時刻を示しており、以下、配信サーバ装置40に対して配信を要求する映像の開始時刻を、配信映像の開始時刻情報s_Timeともいう。
また、映像情報取得部16は、配信要求情報を受信した配信サーバ装置40が送信する映像情報と、利用者識別情報と、カメラリスト情報とを受信する。ここで、カメラリスト情報とは、配信サーバ装置40の映像情報記憶部42が記憶するカメラリストテーブル421の「カメラ識別情報」、「位置・姿勢」、「位置情報」の項目の全ての内容を含む情報である。なお、カメラリスト情報において、カメラリスト情報と共に受信する映像情報に対応するカメラ識別情報のレコードには、当該映像情報とカメラ識別情報の関係が特定できるようにフラグが立てられているものとする。
また、映像情報取得部16は、受信した利用者識別情報が、利用者情報テーブル122の「利用者識別情報」の項目の情報に一致する場合、受信した利用者識別情報と、映像情報と、カメラリスト情報とを取り込む。また、映像情報取得部16は、取り込んだ利用者識別情報と、映像情報と、カメラリスト情報とに対して、利用者情報テーブル122が記憶するモード種別を示す情報を付与して映像情報レンダリング部17に出力する。
なお、映像情報取得部16が配信サーバ装置40から受信する映像情報は、配信映像の開始時刻情報s_Time以降の連続した映像情報である。第1の実施形態では、配信映像の開始時刻情報s_Timeとして指定する時刻は、計時部11から取得した時刻である。そのため、第1の実施形態において配信映像の開始時刻情報s_Timeとして指定される時刻は、映像操作装置10や配信サーバ装置40の内部処理による遅延があるため厳密には、実時間、すなわち「リアルタイム」ではないが、以下、説明の便宜上、配信映像の開始時刻情報s_Time以降の連続した映像情報をリアルタイム映像情報という。
また、映像情報取得部16は、モード切替部15から終了モード種別を示す情報と、利用者識別情報を含む情報を受けた場合、当該情報に含まれる利用者識別情報を含む終了命令情報を生成して配信サーバ装置40に送信する。
映像情報レンダリング部17は、選択位置検出部13が出力する選択位置情報を用いて、選択領域を設定し、設定した選択領域に含まれるリアルタイム映像情報の位置を、操作情報検出部14が出力する操作情報に基づいて変更する操作を行う。
映像情報レンダリング部17は、選択位置検出部13が出力する選択位置情報である3次元位置座標情報と、操作情報検出部14が出力する操作情報である移動ベクトルvを取り込む。また、映像情報レンダリング部17は、映像情報取得部16が出力する利用者識別情報と、リアルタイム映像情報と、カメラリスト情報と、モード種別を示す情報とを取り込む。また、映像情報レンダリング部17は、記憶部12が記憶する利用者情報テーブル122の「移動スケール」の項目から移動スケールαの値を読み出し、「位置・姿勢」の項目から利用者座標Mにおける利用者20の回転行列R、並進ベクトルtを読み出し、「位置情報」から利用者座標Mの原点の位置情報を読み出す。
また、映像情報レンダリング部17は、取り込んだモード種別を示す情報が移動操作モード種別を示す場合、取り込んだリアルタイム映像情報から、カメラリスト情報と、3次元位置座標情報とに基づいて定める選択領域の映像情報を切り出す。また、映像情報レンダリング部17は、切り出した映像情報を移動ベクトルv及び移動スケールαにしたがって移動させて第1の重畳映像情報を生成する。
また、映像情報レンダリング部17は、選択領域において切り出した映像情報に人物等の物が写っているために、当該物によって隠されている背景を写した映像の映像情報を生成する。そのために、映像情報レンダリング部17は、利用者座標Mにおける利用者20の回転行列R、並進ベクトルt、及び利用者座標Mの原点の位置情報と、受信したカメラリスト情報とに基づいて、当該背景を写した映像の映像情報を撮影したカメラ50−1〜50−3のカメラ識別情報を検出する。
また、映像情報レンダリング部17は、通信ネットワーク60に接続しており、通信ネットワーク60を介して配信サーバ装置40に対して、検出したカメラ識別情報と、映像情報取得部16から受けた利用者識別情報とを含む追加配信要求情報を送信する。また、映像情報レンダリング部17は、当該追加配信要求情報を受けて配信サーバ装置40が送信する映像情報を受信し、受信した映像情報と、カメラリスト情報と、利用者座標Mにおける利用者20の回転行列R及び並進ベクトルtと、利用者座標Mの原点の位置情報とに基づいて、選択領域内の背景を写した映像の映像情報である第2の重畳映像情報を生成する。
また、映像情報レンダリング部17は、生成した第1の重畳映像情報と、第2の重畳映像情報とに対して、各々の中心位置を示す情報を付与して映像情報出力部18に出力する。映像情報出力部18は、映像情報レンダリング部17が出力する第1及び第2の重畳映像情報と、第1及び第2の重畳映像情報の各々の中心位置を示す情報とを取り込み、取り込んだ情報を無線通信部20を介して利用者表示装置30に送信する。
(利用者表示装置の構成)
利用者表示装置30は、例えば、ARの視聴デバイスであり、図6に示すように、映像情報表示処理部31、表示部32、記憶部33、計時部34、情報送信部35、及び操作部36を備える。利用者表示装置30において、記憶部33は、利用者表示装置30に予め割り当てられている利用者識別情報を予め記憶する。計時部34は、例えば、時計であり、要求を受けて時刻情報を出力する。計時部34の時計の時刻は、カメラ50−1〜50−3の各々が内部に備える計時手段の時刻、及び計時部11の時刻に同期するように予め設定されている。
映像情報表示処理部31は、通信ネットワーク60を介して配信サーバ装置40に接続する際、記憶部33が記憶する利用者識別情報と、計時部34から取得した時刻情報とを含むリアルタイム映像配信要求情報を配信サーバ装置40に送信する。また、映像情報表示処理部31は、当該リアルタイム映像配信要求情報を受けて配信サーバ装置40が送信するリアルタイム映像情報を通信ネットワーク60を介して受信して表示部32に出力する。
また、映像情報表示処理部31は、無線通信手段を備えており、映像操作装置10の映像情報出力部18が無線通信部20を介して送信する第1及び第2の重畳映像情報と、第1及び第2の重畳映像情報の各々の中心位置を示す情報とを受信する。また、映像情報表示処理部31は、受信した第1及び第2の重畳映像情報と、第1及び第2の重畳映像情報の各々の中心位置を示す情報とを表示部32に出力する。
表示部32は、例えば、LCD(Liquid Crystal Display)等の画面を備えており、映像情報表示処理部31が出力するリアルタイム映像情報を取り込んで画面に表示する。また、表示部32は、映像情報表示処理部31が出力する第1及び第2の重畳映像情報と、第1及び第2の重畳映像情報の各々の中心位置を示す情報とを取り込み、第1及び第2の重畳映像情報の各々の中心位置を示す情報に応じた画面の位置に、リアルタイム映像情報に重ねて第1及び第2の重畳映像情報を表示する。ここで、リアルタイム映像情報に重ねて表示するとは、第1及び第2の重畳映像情報を重ねた領域においてリアルタイム映像情報が利用者20から見えなくなるように第1及び第2の重畳映像情報を表示することである。
操作部36は、移動操作モードボタン部36−1と、終了モードボタン部36−2とを備える。移動操作モードボタン部36−1及び終了モードボタン部36−2の各々は、利用者20によって操作を受けるボタンを備えており、当該ボタンが押下された場合、当該ボタンが押下されたことを示す情報を情報送信部35に出力する。
情報送信部35は、移動操作モードボタン部36−1からボタンが押下されたことを示す情報を受けた場合、移動操作モード通知を映像操作装置10のモード切替部15に送信する。また、情報送信部35は、終了モードボタン部36−2からボタンが押下されたことを示す情報を受けた場合、終了モード通知を映像操作装置10のモード切替部15に送信する。
(配信サーバ装置の構成)
配信サーバ装置40は、図7に示す内部構成を有しており、映像情報取込部41、映像情報記憶部42、映像情報配信処理部43、記憶部44、及び情報更新部45を備える。配信サーバ装置40において、映像情報記憶部42は、図8に示すカメラリストテーブル421を記憶する。
カメラリストテーブル421は、「カメラ識別情報」、「位置・姿勢」、「位置情報」、「映像情報」の項目を有している。「カメラ識別情報」の項目には、カメラ50−1〜50−3に割り当てられているカメラ識別情報が書き込まれる。図8は、カメラ50−1,50−2,50−3に割り当てられているカメラ識別情報が、それぞれ「1」,「2」,「3」である例を示している。
「位置・姿勢」の項目には、カメラ50−1〜50−3の各々に対応するカメラ座標Mc1,Mc2,Mc3におけるカメラ50−1〜50−3の位置及び姿勢を示す情報である回転行列と並進ベクトルが書き込まれる。図8は、「カメラ識別情報」が「1」のレコードの「位置・姿勢」の項目に、カメラ座標Mc1におけるカメラ50−1の回転行列Rc1と、並進ベクトルtc1が書き込まれている例を示している。同様に、「カメラ識別情報」が「2」,「3」のレコードの「位置・姿勢」の項目に、カメラ座標Mc2,Mc3におけるカメラ50−2,50−3の回転行列Rc2,Rc3と、並進ベクトルtc2,tc3が書き込まれている。
「位置情報」の項目には、カメラ50−1〜50−3に対応するカメラ座標Mc1,Mc2,Mc3の原点の世界座標Mにおける座標情報が書き込まれる。図8は、カメラ座標Mc1,Mc2,Mc3の原点の世界座標Mにおける位置がそれぞれ(−100,100,−100),(0,100,−100),(100,100,−100)である例を示している。
「映像情報」の項目には、カメラ50−1〜50−3の各々が撮影した映像情報が書き込まれる。図8に示す例は、「カメラ識別情報」が「1」に対応する「映像情報」の項目に、カメラ50−1が撮影した「映像情報1」というファイル名称の映像情報が書き込まれている例を示している。同様に、「カメラ識別情報」が「2」,「3」に対応する「映像情報」の項目に、カメラ50−2,50−3が撮影した「映像情報2」,「映像情報3」というファイル名称の映像情報が書き込まれている。
映像情報取込部41は、カメラ50−1,50−2,50−3の各々が出力するカメラ識別情報が付与された映像情報のフレームを取り込む。また、映像情報取込部41は、取り込んだ映像情報のフレームに付与されているカメラ識別情報に対応するカメラリストテーブル421のレコードの「映像情報」の項目が記憶する映像情報に対して、取り込んだ映像情報のフレームを追加して映像情報を更新する。
記憶部44は、図9に示す利用者リストテーブル441を記憶する。利用者リストテーブル441は、「利用者識別情報」、「位置・姿勢」、「位置情報」の項目を有している。「利用者識別情報」の項目には、配信サーバ装置40に接続している利用者表示装置30に割り当てられている利用者識別情報が書き込まれる。複数の利用者表示装置30が接続している場合、利用者リストテーブル441は、複数の利用者表示装置30ごとの複数のレコードを有することになる。
「位置・姿勢」の項目には、利用者表示装置30を利用する利用者20の利用者座標Mにおける利用者20の位置及び姿勢を示す情報である回転行列Rと並進ベクトルtが書き込まれる。「位置情報」の項目には、利用者座標Mの原点の世界座標Mにおける座標情報が書き込まれる。図9に示す例は、利用者座標Mの原点の世界座標Mにおける位置が(0,0,0)である例、すなわち世界座標Mと、利用者座標Mとが一致している例を示している。
情報更新部45は、通信ネットワーク60に接続しており、通信ネットワーク60を介して映像操作装置10の位置姿勢情報更新部19から利用者識別情報と、利用者座標Mにおける利用者20の回転行列R及び並進ベクトルtと、世界座標Mにおける利用者座標Mの原点の位置情報とを受信する。また、情報更新部45は、受信した利用者識別情報に対応する利用者リストテーブル441のレコードを検出する。また、情報更新部45は、検出したレコードの「位置・姿勢」の項目に、受信した利用者座標Mにおける利用者20の回転行列R及び並進ベクトルtを書き込み、当該レコードの「位置情報」の項目に、受信した世界座標Mにおける利用者座標Mの原点の位置情報を書き込んで更新する。
映像情報配信処理部43は、通信ネットワーク60に接続されており、通信ネットワーク60を介して接続する利用者表示装置30から利用者識別情報と、時刻情報と含むリアルタイム映像配信要求情報を受信する。また、映像情報配信処理部43は、リアルタイム映像配信要求情報に含まれる利用者識別情報に対応する利用者リストテーブル441の「位置情報」の項目が記憶する利用者座標Mの原点の位置情報を読み出す。また、映像情報配信処理部43は、読み出した利用者座標Mの原点の位置情報と、カメラリストテーブル421の「位置情報」の項目が記憶する各カメラ50−1〜50−3のカメラ座標の原点の位置情報とを対比し、利用者表示装置30の位置に最も近いいずれか1つのカメラ50−1〜50−3のレコードを検出する。また、映像情報配信処理部43は、検出したレコードの「映像情報」の項目からリアルタイム映像配信要求情報に含まれる時刻情報以降の映像情報を読み出してリアルタイム映像情報とし、利用者表示装置30に対するリアルタイム映像情報の送信を開始する。
また、映像情報配信処理部43は、通信ネットワーク60を介して接続する映像操作装置10の映像情報取得部16から配信要求情報を受信する。また、映像情報配信処理部43は、配信要求情報に含まれる利用者識別情報と、利用者リストテーブル441と、カメラリストテーブル421とに基づいて、利用者表示装置30の位置に最も近いいずれか1つのカメラ50−1〜50−3のレコードをカメラリストテーブル421から検出する。また、映像情報配信処理部43は、検出したレコードの「映像情報」の項目から配信要求情報に含まれる配信映像情報の開始時刻情報s_Time以降の映像情報を読み出してリアルタイム映像情報とする。
また、映像情報配信処理部43は、映像情報記憶部42が記憶するカメラリストテーブル421の「カメラ識別情報」、「位置・姿勢」、「位置情報」の項目が記憶する全ての情報を読み出し、読み出した情報に基づいてカメラリスト情報を生成する。なお、映像情報配信処理部43は、カメラリスト情報を生成する際、当該カメラリスト情報と共に送信する映像情報に対応するカメラ識別情報のレコードに、当該映像情報とカメラ識別情報の関係が特定できるようにフラグを立てて生成する。また、映像情報配信処理部43は、読み出した映像情報と、カメラリスト情報と、配信要求情報に含まれる利用者識別情報とを映像情報取得部16に送信する。
また、映像情報配信処理部43は、通信ネットワーク60を介して接続する映像操作装置10の映像情報レンダリング部17から追加配信要求情報を受信する。また、映像情報配信処理部43は、追加配信要求情報に含まれるカメラ識別情報に対応する最新の映像情報をカメラリストテーブル421から読み出す。また、映像情報配信処理部43は、読み出した映像情報を映像情報レンダリング部17に送信する。
また、映像情報配信処理部43は、利用者識別情報、及び送信先の装置に関連付けて送信している映像情報を管理しており、映像操作装置10から終了命令情報を受信した場合、終了命令情報に含まれる利用者識別情報に対応する送信中の映像情報を検出する。また、映像情報配信処理部43は、検出した利用者識別情報に対応する送信中の映像情報のうち、終了命令情報の送信元の映像操作装置10の映像情報取得部16及び映像情報レンダリング部17に対する映像情報の送信を停止する。
(第1の実施形態の映像操作装置の処理)
図10は、第1の実施形態の映像操作装置10による処理の流れを示すフローチャートである。以下の処理の前提として、利用者表示装置30の記憶部33が記憶する利用者識別情報は、「1」であるとし、映像操作装置10の記憶部12が記憶する利用者情報テーブル122の「利用者識別情報」の項目にも「1」が記憶され、「位置・姿勢」及び「位置情報」の項目は、位置姿勢情報更新部19によって順次更新されている。
また、配信サーバ装置40の記憶部44が記憶する利用者リストテーブル441の「利用者識別情報」の項目にも「1」が記憶され、「位置・姿勢」及び「位置情報」の項目は、情報更新部45によって順次更新されている。また、カメラリストテーブル421は、図8に示す例の情報を記憶しており、図9に示した利用者リストテーブル441の例の通り、世界座標Mと、利用者座標Mとが一致しているものとして説明する。
図10に示す処理が開始される前に、利用者表示装置30と配信サーバ装置40とが通信ネットワーク60を介して接続し、利用者表示装置30が配信サーバ装置40からリアルタイム映像情報の受信を開始しているものとする。すなわち、利用者表示装置30は、配信サーバ装置40に対してリアルタイム映像配信要求情報を送信し、配信サーバ装置40は、利用者20の位置に最も近いカメラ50−1〜50−3が撮影したリアルタイム映像情報を通信ネットワーク60を介して利用者表示装置30に送信する。
ここでは、図4の利用者情報テーブル122及び図9の利用者リストテーブル441に示す例の通り、利用者20の位置は「(0,0,0)」であり、図8のカメラリストテーブル421に示す例の通りであるため、カメラ50−2が利用者20の最も近くに存在することになる。
利用者表示装置30の映像情報表示処理部31は、配信サーバ装置40が送信するカメラ50−2が撮影したリアルタイム映像情報を受信して表示部32に出力し、表示部32が画面にリアルタイム映像情報の映像を表示する。利用者20は、利用者表示装置30の画面に表示される映像を視聴している。なお、表示部32の画面の座標は、左上が原点であり、右方向の水平軸が、x軸の正方向、下方向の垂直軸が、y軸の正方向となる。
利用者20は、画面に表示される映像を視聴しながら移動させたい物、例えば、選手等の対象物を見つけると、当該対象物を注視して、利用者表示装置30の操作部36の移動操作モードボタン部36−1のボタンを押下する。移動操作モードボタン部36−1は、ボタンが押下されたことを示す情報を情報送信部35に出力する。情報送信部35は、移動操作モードボタン部36−1が出力するボタンが押下されたことを示す情報を受けて、無線通信により、移動操作モード通知を映像操作装置10のモード切替部15に対して送信する。モード切替部15は、無線通信部20を介して移動操作モード通知を受信する(ステップS101)。
モード切替部15は、移動操作モード通知を受信すると、記憶部12が記憶する利用者情報テーブル122の「モード種別」の項目に、移動操作モード種別を示す情報、例えば、「移動操作」を書き込む。モード切替部15は、計時部11から時刻情報を取得する。ここでは、例えば、モード切替部15が、「11時30分10秒」の時刻情報を取得したとする。
モード切替部15は、取得した時刻情報「11時30分10秒」と、移動操作モード種別を示す情報と、利用者情報テーブル122の「利用者識別情報」の項目が記憶する利用者識別情報「1」とを映像情報取得部16に送信する。
映像情報取得部16は、モード切替部15から時刻情報と、移動操作モード種別を示す情報と、利用者識別情報とを含む情報を受けると、時刻情報と、利用者識別情報とを含む配信要求情報を生成する。映像情報取得部16は、生成した配信要求情報を通信ネットワーク60を介して配信サーバ装置40に送信する(ステップS102)。
配信サーバ装置40の映像情報配信処理部43は、映像情報取得部16が送信した配信要求情報を受信し、受信した配信要求情報に含まれる利用者識別情報を読み出す。映像情報配信処理部43は、記憶部44の利用者リストテーブル441を参照し、読み出した利用者識別情報に対応するレコードの「位置情報」の項目を読み出す。ここでは、利用者識別情報は「1」であるため、映像情報配信処理部43は、利用者リストテーブル441を参照し、図9に示す例の通り「位置情報」として「(0,0,0)」を読み出す。
映像情報配信処理部43は、映像情報記憶部42が記憶するカメラリストテーブル421の「位置情報」の項目を参照し、読み出した位置情報「(0,0,0)」に最も近い「(0,100,−100)」を検出する。位置情報が「(0,100,−100)」のレコードは、カメラ識別情報が「2」であり、「映像情報」の項目の「映像情報2」というファイル名称の映像情報は、カメラ50−2が撮影した映像情報である。
映像情報配信処理部43は、配信要求情報に含まれる配信映像情報の開始時刻情報s_Timeが示す時刻、すなわち「11時30分10秒」以降のカメラ50−2が撮影したリアルタイム映像情報を読み出す。映像情報配信処理部43は、カメラリストテーブル421から「カメラ識別情報」、「位置・姿勢」、「位置情報」の全ての情報を読み出し、読み出した情報に基づいてカメラリスト情報を生成する。映像情報配信処理部43は、カメラリスト情報を生成する際、送信するリアルタイム映像情報を撮影したカメラ50−2に対応するカメラ識別情報「2」に対してフラグを立ててカメラリスト情報を生成する。
映像情報配信処理部43は、読み出したリアルタイム映像情報と、カメラリスト情報と、配信要求情報に含まれる利用者識別情報とを通信ネットワーク60を介して映像情報取得部16に送信する。映像情報取得部16は、通信ネットワーク60を介してリアルタイム映像情報と、カメラリスト情報と、利用者識別情報とを含む情報を受信する。
映像情報取得部16は、受信した情報に含まれる利用者識別情報が、利用者情報テーブル122の「利用者識別情報」の項目の情報に一致する場合、受信したリアルタイム映像情報と、カメラリスト情報と、利用者識別情報とを取り込む。ここでは、映像情報取得部16が受信した利用者識別情報が「1」であり、利用者情報テーブル122の「利用者識別情報」の項目が記憶する「1」と一致するため、映像情報取得部16は、リアルタイム映像情報と、カメラリスト情報と、利用者識別情報とを取り込む(ステップS103)。
映像情報取得部16は、取り込んだリアルタイム映像情報と、カメラリスト情報と、利用者識別情報とに対して、利用者情報テーブル122が記憶するモード種別を示す情報、すなわち「移動操作」を付与して映像情報レンダリング部17に出力する。
映像情報レンダリング部17は、映像情報取得部16が出力するリアルタイム映像情報と、カメラリスト情報と、利用者識別情報と、モード種別を示す情報とを取り込む。映像情報レンダリング部17は、取り込んだモード種別を示す情報が移動操作モード種別を示す場合、以下の処理により、当該リアルタイム映像情報において選択領域を設定する。
ステップS101において、利用者20は、移動させたい対象物を注視して、移動操作モードボタン部36−1のボタンを押下している。選択位置検出部13は、眼球センサ21が出力する利用者20の左右の眼球の視線方向と、輻輳角θとを含む時系列データを取り込む。
選択位置検出部13は、取り込んだ時系列データに含まれる利用者20の左右の眼球の視線方向と、輻輳角θとに基づいて、例えば、下記の参考文献に示される手法により、利用者20が、表示部32の画面において注視している注視点の実空間における3次元位置座標情報P=(X1,Y1,Z1)を算出する。
「参考文献:満上,浮田,木戸出,“視線情報を用いた注視点の3次元位置推定,”電子情報通信学会技術研究報告PRMU,102(554),1-6,2003」
例えば、利用者20が、正面にある奥行き5mの位置にある対象物を見ている場合、3次元位置座標情報Pが示す位置は、(0,0,5)となる。選択位置検出部13は、算出した3次元位置座標情報Pを選択位置情報として映像情報レンダリング部17に出力する。
映像情報レンダリング部17は、選択位置検出部13が出力する選択位置情報である3次元位置座標情報Pの位置に対応する、二次元の画面上の位置の座標m=(x,y)を次式(1)に基づいて算出する。
sm=A(RwcP+twc)・・・(1)
式(1)において、sは、スカラー係数であり、Aは、内部パラメータである。また、Rwcとtwcは、世界座標Mにおけるリアルタイム映像情報を撮影したカメラ50−1〜50−3の回転行列と並進ベクトルである。
映像情報レンダリング部17は、取り込んだカメラリスト情報においてフラグが立てられているカメラ50−2のカメラ座標Mcにおける回転行列Rc2と、並進ベクトルtc2とを読み出す。映像情報レンダリング部17は、読み出した回転行列Rc2と、並進ベクトルtc2を世界座標Mに変換し、世界座標Mにおけるカメラ50−2の回転行列Rwc2と、並進ベクトルtwc2を算出して、式(1)のRwcと、twcに代入して演算を行う。
ここでは、映像情報レンダリング部17が、式(1)に基づいて3次元位置座標情報P=(0,0,5)に対応する、画面上の位置として、m=(1920,1000)を算出したとする。上述したように、利用者表示装置30の画面は、左上が原点であり、右方向の水平軸が、x軸の正方向、下方向の垂直軸が、y軸の正方向となる。
例えば、利用者20が注視している対象物(以下、注視対象物という)が存在する領域を矩形形状の領域とし、当該矩形形状の領域の幅w=100とし、高さh=100とする。矩形形状の選択領域を、(x,y,w,h)で表すと、(1920,1000,100,100)となる。映像情報レンダリング部17は、選択領域として(1920,1000,100,100)を設定する(ステップS104)。なお、選択領域の各要素の単位は、映像情報において指定するため、pixelである。
操作情報検出部14は、顔センサユニット22に含まれる顔センサ220−A,220−B,220−C,220−Dが出力する電圧値と、記憶部12が記憶する顔センサリストテーブル121とに基づいて移動ベクトルvを算出する。操作情報検出部14は、例えば、以下の手順により、移動ベクトルvを算出する。
例えば、利用者20が、頬の舌を押し付けた状態で、口角横から右方向に舌を移動させると、顔センサ220−A,220−B,220−C,220−Dが検出する電圧値が変化する。図11は、(a),(b),(c),(d)の順に顔センサ220−A,220−B,220−C,220−Dが検出した電圧値の変化の一例を示すグラフである。当該グラフにおいて、横軸が時間であり、縦軸が電圧値である。また、図11に示す(a),(b),(c),(d)のグラフの横方向の破線は、閾値を示している。閾値は、図11(a),(b),(c),(d)において同一値であり、操作情報検出部14が予め記憶する。
図11(b)のグラフが示すように、時刻t1において、顔センサ220−Bが検出した電圧値が閾値を超えたことを、操作情報検出部14が検出し、顔センサ220−Bの位置(−50,0)が始点となる。利用者20が、舌を右方向に動かすにしたがって、顔センサ220−Aが検出する電圧値において、図11(a)のグラフが示すような変化が発生する。時刻t2において、顔センサ220−Aが検出した電圧値が閾値を超えたことを、操作情報検出部14が検出し、顔センサ220−Aの位置(−100,0)が終点となる。
操作情報検出部14は、始点の座標値(−50,0)と、終点の座標値(−100,0)とに基づいて、移動ベクトルvとして(−50,0)を算出する。操作情報検出部14は、算出した移動ベクトルvの(−50,0)を映像情報レンダリング部17に出力する。映像情報レンダリング部17は、移動ベクトルvを操作情報として取り込む(ステップS105)。
映像情報レンダリング部17は、記憶部12の利用者情報テーブル122の「移動スケール」の項目から移動スケールαとして「1」を読み出す。映像情報レンダリング部17は、操作情報検出部14が出力する移動ベクトルvの(−50,0)と、読み出した移動スケールαの「1」とにしたがって、切り出した注視対象物映像情報の中心位置を移動させ、移動後の注視対象物映像情報を第1の重畳映像情報とする。
上記の例では、注視対象物映像情報の中心位置の座標が、m=(1920,1000)であり、移動スケールαは「1」であるため、移動ベクトルvの値をそのまま適用して、x軸方向に「−50」pixel移動させることにより、移動後の注視対象物映像情報の中心位置の座標は、(1870,1000)となる。
図12(a)は、映像情報取得部16が配信サーバ装置40から受信したリアルタイム映像情報によって表示される映像の例を示した図である。例えば、図12(a)に示すように、映像情報レンダリング部17が、選択領域170を設定し、選択領域170に含まれるリアルタイム映像情報から注視対象物映像情報171として切り出す。
図12(b)は、利用者表示装置30の表示部32の画面に表示される映像の例を示した図である。図12(b)に示すように、映像情報レンダリング部17は、移動ベクトルvと、移動スケールαにしたがって、切り出した注視対象物映像情報171の中心位置を移動させて、第1の重畳映像情報172とする(ステップS106)。
映像情報レンダリング部17は、選択領域170において、注視対象物映像情報171に含まれる対象物を移動させた後の背景を写した映像を撮影したカメラ50−1〜50−3をカメラリスト情報に基づいて検出する。映像情報レンダリング部17は、利用者情報テーブル122から利用者座標Mにおける利用者20の回転行列R及び並進ベクトルtと、利用者座標Mの原点の位置情報とを読み出す。
例えば、上記の例では、リアルタイム映像情報を撮像したカメラは、カメラ50−2である。そのため、映像情報レンダリング部17は、残りのカメラ50−1、カメラ50−3の各々のカメラ座標Mc1,Mc3における回転行列Rc1,Rc3と、並進ベクトルtc1,tc3と、カメラ座標Mc1,Mc3の各々の原点の位置情報(−100,100,−100)、(100,100,−100)と、読み出した利用者座標Mにおける利用者20の回転行列R及び並進ベクトルtと、利用者座標Mの原点の位置情報とに基づいて、背景を写した映像を撮影しているいずれか一方のカメラ50−1、カメラ50−3を検出する。
なお、映像情報レンダリング部17による背景を写した映像を撮影したカメラを選択する手法は、残りのカメラ50−1,50−2と、利用者20との位置関係に基づいて選択したり、カメラ50−1,50−2の光軸の方向と、利用者20の視線の方向に基づいて選択したりするといった様々な手法がある。これらの手法として、例えば、特願2017−020583、特願2017−020584の出願において開示されている手法等がある。
ここでは、映像情報レンダリング部17は、背景を写した映像を撮影したカメラとしてカメラ50−1を検出したとする。映像情報レンダリング部17は、検出したカメラ50−1に対応するカメラ識別情報「1」と、映像情報取得部16から受けた利用者識別情報とを含む追加配信要求情報を通信ネットワーク60を介して配信サーバ装置40の映像情報配信処理部43に送信する。
映像情報配信処理部43は、追加配信要求情報を受信すると、追加配信要求情報に含まれているカメラ識別情報を読み出し、読み出したカメラ識別情報に対応する最新の映像情報をカメラリストテーブル421から読み出す。映像情報配信処理部43は、読み出した映像情報を通信ネットワーク60を介して映像情報レンダリング部17に送信する。
映像情報レンダリング部17は、当該追加配信要求情報を受けて映像情報配信処理部43が送信するカメラ50−1が撮影した最新の映像情報を受信する。最新の映像情報の時刻は、リアルタイム映像情報の時刻に一致している場合もあるが、一致していない場合もあるため、映像情報レンダリング部17は、受信した最新の映像情報の時刻を、第1の重畳映像情報の時刻、すなわちリアルタイム映像情報の時刻に一致させる。
映像情報レンダリング部17は、カメラリスト情報から、カメラ座標Mc1におけるカメラ50−1の回転行列Rc1及び並進ベクトルtc1と、カメラ座標Mc1の原点の位置情報とを読み出す。
映像情報レンダリング部17は、時刻を一致させた後のカメラ50−1が撮影した映像情報と、読み出した回転行列Rc1及び並進ベクトルtc1と、カメラ座標Mc1の原点の位置情報と、利用者座標Mにおける利用者20の回転行列R及び並進ベクトルtと、利用者座標Mの原点の位置情報とに基づいて、選択領域170内の背景を写した映像の映像情報として第2の重畳映像情報を生成する(ステップS107)。
例えば、映像情報レンダリング部17は、第2の重畳映像情報として、図12(b)に示すように、注視対象物映像情報171に含まれる注視対象物の選手が移動した後に見えるサッカーボールの映像を含んだ第2の重畳映像情報173を生成する。
映像情報レンダリング部17は、第1の重畳映像情報172に当該第1の重畳映像情報172の中心位置を示す情報、すなわち(1870,1000)を付与し、第2の重畳映像情報173に、当該第2の重畳映像情報172の中心位置を示す情報、すなわち(1920,1000)を付与する。映像情報レンダリング部17は、中心位置の情報を付与した第1の重畳映像情報172と、第2の重畳映像情報173とを映像情報出力部18に出力する。
映像情報出力部18は、映像情報レンダリング部17が出力する第1及び第2の重畳映像情報と、第1及び第2の重畳映像情報の各々の中心位置を示す情報とを取り込み、取り込んだ情報を無線通信部20を介して利用者表示装置30に送信する。
利用者表示装置30の映像情報表示処理部31は、第1及び第2の重畳映像情報と、第1及び第2の重畳映像情報の各々の中心位置を示す情報とを受信する。映像情報表示処理部31は、受信した第1及び第2の重畳映像情報と、第1及び第2の重畳映像情報の各々の中心位置を示す情報とを表示部32に出力する。
表示部32は、第1及び第2の重畳映像情報の各々の中心位置を示す情報に応じた画面の位置に、リアルタイム映像情報に重ねて第1及び第2の重畳映像情報を表示する(ステップS108)。これにより、例えば、表示部32の画面には、図12(b)に示すような映像が表示されることになる。
モード切替部15が、利用者表示装置30から終了モード通知を受信しない間(ステップS109、No)、ステップS108の処理が継続する。利用者20が、利用者表示装置30の操作部36の終了モードボタン部36−2のボタンを押下すると、終了モードボタン部36−2は、ボタンが押下されたことを示す情報を情報送信部35に出力する。
情報送信部35は、終了モードボタン部36−2が出力するボタンが押下されたことを示す情報を受けて、無線通信により終了モード通知をモード切替部15に送信する。モード切替部15は、終了モード通知を受信すると、記憶部12の利用者情報テーブル122の「モード種別」の項目に終了モード種別を示す情報、例えば、「終了」を書き込む。モード切替部15は、終了モード種別を示す情報と、利用者情報テーブル122が記憶する利用者識別情報とを含む情報を映像情報取得部16に出力する。映像情報取得部16は、モード切替部15から終了モード種別を示す情報と、利用者識別情報を含む情報を受けた場合、当該情報に含まれる利用者識別情報を含む終了命令情報を生成して通信ネットワーク60を介して配信サーバ装置40に送信する。
配信サーバ装置40の映像情報配信処理部43は、映像操作装置10から終了命令情報を受信した場合、送信先が映像操作装置10であって終了命令情報に含まれる利用者識別情報に対応する映像情報、すなわち映像操作装置10の映像情報取得部16及び映像情報レンダリング部17への映像情報の送信を停止する(ステップS109、Yes)。これにより、第1及び第2の重畳映像情報が画面から消えるため、利用者表示装置30の表示部32の画面には、配信サーバ装置40から直接受信しているリアルタイム映像情報のみが表示されることになる。
(第2の実施形態)
図13は、第2の実施形態の映像表示システム1aの構成を示すブロック図である。第2の実施形態では、利用される状況として、例えば、競技場においてサッカーの試合を見ている映像表示システム1aの利用者20が、試合の途中で、当該試合の序盤において、ある選手が決めたゴールのシーンをもう一度見たくなった状況を想定している。この状況において、利用者20が、映像表示システム1aを利用することにより、過去に起きた当該シーンをもう一度視聴することができるようになる。
第2の実施形態において、第1の実施形態と同一の構成については、同一の符号を付し、以下、異なる構成について説明する。映像表示システム1aは、例えば、ビデオシースルー型のARのシステムであり、映像操作装置10aと、眼球センサ21と、顔センサユニット22と、位置姿勢センサ23と、利用者表示装置30aと、配信サーバ装置40aと、カメラ50−1,50−2,50−3と、通信ネットワーク60とを備える。第2の実施形態において、カメラ50−1,50−2,50−3の台数は、3台に限られず、1台以上であればよい。
(映像操作装置の構成)
映像操作装置10aは、記憶部12a、選択位置検出部13、操作情報検出部14、モード切替部15a、映像情報取得部16a、映像情報レンダリング部17a、映像情報出力部18、位置姿勢情報更新部19、及び無線通信部20を備える。
映像操作装置10aにおいて、記憶部12aは、図14に示す利用者情報テーブル122aを記憶する。利用者情報テーブル122aは、「利用者識別情報」、「モード種別」、「時間変化スケール」、「操作可能映像範囲時間長」、「位置・姿勢」、「位置情報」の項目を有する。「利用者識別情報」の項目には、利用者表示装置30aに予め割り当てられている利用者識別情報が予め書き込まれる。
「モード種別」の項目には、モード切替部15aによってモード種別を示す情報が書き込まれる。図14は、モード種別を示す情報として、時間操作モード種別を示す「時間操作」が書き込まれている例を示している。
「時間変化スケール」の項目には、操作情報検出部14が出力する移動ベクトルvに基づいて示される映像情報の時間の長さを補正する時間変化スケールが秒単位で予め書き込まれる。時間変化スケールの値が、「1」の場合、1秒を表す。図14は、時間変化スケールとして「0.1」が書き込まれている例を示している。なお、以下の説明において、時間変化スケールを、時間変化スケールγともいう。
「操作可能映像範囲時間長」の項目には、配信サーバ装置40aに対して要求する過去の映像情報の時間長を示す情報が秒単位で予め書き込まれる。図14は、操作可能映像範囲時間長を示す情報として、予め定められる30秒を示す「30」が書き込まれている例を示している。なお、30秒という値は一例であり、操作可能映像範囲時間長は、1秒以上であればどのような値であってもよい。なお、以下の説明において、任意の秒数の操作可能映像範囲時間長を、変数「N」を用いて、操作可能映像範囲N、または、単にN秒ともいう。
「位置・姿勢」の項目には、位置姿勢情報更新部19が、位置姿勢センサ23から受信する利用者20の位置及び姿勢を示す角度の情報に基づいて算出する利用者座標Mにおける利用者20の回転行列Rと並進ベクトルtの情報が書き込まれる。「位置情報」の項目には、位置姿勢情報更新部19が、位置姿勢センサ23から受信する利用者20の位置を示す情報に基づいて算出する世界座標Mにおける利用者座標Mの原点の位置を示す情報が書き込まれる。
モード切替部15aは、利用者表示装置30aが利用者20の操作を受けて送信する時間操作モード通知を無線通信部20を介して受信し、受信した際に時間操作モード種別を示す情報を利用者情報テーブル122aの「モード種別」の項目に書き込んで記憶させる。また、モード切替部15aは、利用者表示装置30aが利用者20の操作を受けて送信する終了モード通知を無線通信部20を介して受信し、受信した際に終了モード種別を示す情報を利用者情報テーブル122aの「モード種別」の項目に書き込んで記憶させる。
また、モード切替部15aは、時間操作モード通知を受信した場合、時間操作モード通知に含まれている時刻情報を読み出す。また、モード切替部15aは、時間操作モード種別を示す情報と、読み出した時刻情報と、利用者情報テーブル122aが記憶する利用者識別情報とを含む情報を映像情報取得部16aに出力する。
また、モード切替部15aは、終了モード通知を受信した場合、終了モード種別を示す情報と、利用者情報テーブル122aが記憶する利用者識別情報とを含む情報を映像情報取得部16aに出力する。
映像情報取得部16aは、通信ネットワーク60を介して配信サーバ装置40aに接続する。また、映像情報取得部16aは、モード切替部15aから時間操作モード種別を示す情報と、時刻情報と、利用者識別情報とを受けた場合、時間操作モードにおいて必要となる、操作可能映像範囲Nを利用者情報テーブル122aの「操作可能映像範囲時間長」の項目から読み出す。
また、映像情報取得部16aは、モード切替部15aから受けた時刻情報及び利用者識別情報と、読み出した操作可能映像範囲Nとを含む配信要求情報を生成して配信サーバ装置40aに送信する。なお、配信要求情報が含む時刻情報は、配信映像の終了時刻を示しており、配信要求情報により配信サーバ装置40aが送信する映像情報は、配信映像の終了時刻からN秒前を開始時刻とし、当該終了時刻までのN秒間の映像情報である。以下、配信サーバ装置40aに対して配信を要求する映像の終了時刻を、配信映像の終了時刻情報e_Timeともいう。
また、映像情報取得部16aは、配信要求情報を受信した配信サーバ装置40aが送信する映像情報と、当該映像情報に対応するカメラ情報と、利用者識別情報とを受信する。ここで、カメラ情報とは、映像情報取得部16aが受信する映像情報を撮影したカメラ50−1〜50−3に対応する、カメラリストテーブル421の「カメラ識別情報」、「位置・姿勢」、「位置情報」の項目の内容を含んだ情報である。
また、映像情報取得部16aは、受信した利用者識別情報が、利用者情報テーブル122aの「利用者識別情報」の項目の情報に一致する場合、受信した映像情報と、カメラ情報とを取り込む。また、映像情報取得部16aは、取り込んだ映像情報と、カメラ情報とに対して利用者情報テーブル122aが記憶するモード種別を示す情報を付与して映像情報レンダリング部17aに出力する。
なお、映像情報取得部16aが配信サーバ装置40aから受信する映像情報は、上述したように、配信映像の終了時刻情報e_TimeよりN秒前から配信映像の終了時刻情報e_TimeまでのN秒の長さの映像情報である。第2の実施形態では、配信映像の終了時刻情報e_Timeとして、利用者20が、利用者表示装置30aにおいて指定する時刻は、過去の時刻である。そのため、以下、説明の便宜のため、第2の実施形態において、映像情報取得部16aが配信サーバ装置40aから受信するN秒の長さの映像情報を、以下、過去映像情報という。
また、映像情報取得部16aは、モード切替部15aから終了モード種別を示す情報と、利用者識別情報を含む情報を受けた場合、当該情報に含まれる利用者識別情報を含む終了命令情報を配信サーバ装置40aに送信する。
映像情報レンダリング部17aは、選択位置検出部13が出力する選択位置情報を用いて、選択領域を設定し、設定した選択領域に対して表示する過去映像情報の開始時刻を、操作情報検出部14が出力する操作位置情報に基づいて変更する操作を行う。
映像情報レンダリング部17aは、選択位置検出部13が出力する選択位置情報である3次元位置座標情報と、操作情報検出部14が出力する操作情報である移動ベクトルvを取り込む。また、映像情報レンダリング部17aは、映像情報取得部16aが出力する過去映像情報と、カメラ情報と、モード種別を示す情報とを取り込む。また、映像情報レンダリング部17aは、記憶部12aが記憶する利用者情報テーブル122aの「時間変化スケール」の項目から時間変化スケールγの値を読み出す。
また、映像情報レンダリング部17aは、取り込んだモード種別を示す情報が時間操作モード種別を示す場合、取り込んだ過去映像情報から、カメラ情報と、3次元位置座標情報とに基づいて定める選択領域の映像情報を切り出す。また、映像情報レンダリング部17aは、移動ベクトルv及び時間変化スケールγにしたがって、切り出した過去映像情報の再生開始時刻を算出する。
また、映像情報レンダリング部17aは、算出した再生開始時刻から最後まで、すなわち配信映像の終了時刻情報e_Timeまでを再生範囲とし、切り出した過去映像情報から当該再生範囲を選択して第3の重畳映像情報とする。また、映像情報レンダリング部17aは、第3の重畳映像情報に対して、第3の重畳映像情報の中心位置を示す情報を付与して映像情報出力部18に出力する。
(利用者表示装置の構成)
利用者表示装置30aは、例えば、ARの視聴デバイスであり、図15に示すように、映像情報表示処理部31、表示部32、記憶部33、計時部34、情報送信部35a、及び操作部36aを備える。利用者表示装置30aにおいて、操作部36aは、時間操作モードボタン部36−3と、時刻指定部36−4と、終了モードボタン部36−2とを備える。時間操作モードボタン部36−3は、利用者20によって操作を受けるボタンを備えており、当該ボタンが押下された場合、当該ボタンが押下されたことを示す情報を情報送信部35aに出力する。時刻指定部36−4は、利用者20の時刻情報の指定操作を受けて、配信映像の終了時刻情報e_Timeとなる時刻情報を情報送信部35aに出力する。
情報送信部35aは、時間操作モードボタン部36−3からボタンが押下されたことを示す情報を受けた場合、時刻指定部36−4が時刻情報を出力するまで待機する。また、情報送信部35aは、時刻指定部36−4が時刻情報を出力した場合、出力した時刻情報を取り込み、取り込んだ時刻情報を含む時間操作モード通知を生成する。また、情報送信部35aは、生成した時間操作モード通知を映像操作装置10aのモード切替部15aに送信する。また、情報送信部35aは、終了モードボタン部36−2からボタンが押下されたことを示す情報を受けた場合、終了モード通知を映像操作装置10aのモード切替部15aに送信する。
(配信サーバ装置の構成)
配信サーバ装置40aは、図16に示す内部構成を有しており、映像情報取込部41、映像情報記憶部42、映像情報配信処理部43a、記憶部44、及び情報更新部45を備える。
配信サーバ装置40aにおいて、映像情報配信処理部43aは、通信ネットワーク60に接続されており、通信ネットワーク60を介して接続する利用者表示装置30aから利用者識別情報と、時刻情報と含むリアルタイム映像配信要求情報を受信する。また、映像情報配信処理部43aは、第1の実施形態の映像情報配信処理部43aと同一の手順により、利用者20の位置に最も近いいずれか1つのカメラ50−1〜50−3が撮影したリアルタイム映像情報を利用者表示装置30aに送信する。
また、映像情報配信処理部43aは、通信ネットワーク60を介して接続する映像操作装置10aの映像情報取得部16aから配信要求情報を受信する。また、映像情報配信処理部43aは、配信要求情報に含まれる利用者識別情報と、利用者リストテーブル441と、カメラリストテーブル421とに基づいて、利用者表示装置30の位置に最も近いいずれか1つのカメラ50−1〜50−3のレコードをカメラリストテーブル421から検出する。また、映像情報配信処理部43aは、検出したカメラ50−1〜50−3に対応するカメラリストテーブル421の「カメラ識別情報」、「位置・姿勢」、「位置情報」の項目が記憶する情報を含むカメラ情報を生成する。
また、映像情報配信処理部43aは、配信要求情報に含まれる配信映像情報の終了時刻情報e_Timeと、操作可能映像範囲Nとを読み出し、検出したレコードの「映像情報」の項目から配信映像情報の終了時刻情報e_TimeのN秒前から、配信映像情報の終了時刻情報e_Timeまでの映像情報を読み出す。また、映像情報配信処理部43aは、読み出した映像情報と、生成したカメラ情報と、配信要求情報に含まれる利用者識別情報とを映像情報取得部16aに送信する。
また、映像情報配信処理部43aは、利用者識別情報、及び送信先の装置に関連付けて送信している映像情報を管理しており、映像操作装置10aから終了命令情報を受信した場合、終了命令情報に含まれる利用者識別情報に対応する送信中の映像情報を検出する。また、映像情報配信処理部43aは、検出した利用者識別情報に対応する送信中の映像情報のうち、終了命令情報の送信元の映像操作装置10aの映像情報取得部16に対する映像情報の送信を停止する。
(第2の実施形態の映像操作装置の処理)
図17は、第2の実施形態の映像操作装置10aによる処理の流れを示すフローチャートである。以下の処理の前提として、利用者表示装置30aの記憶部33が記憶する利用者識別情報は、「1」であるとし、映像操作装置10aの記憶部12aが記憶する利用者情報テーブル122aの「利用者識別情報」の項目にも「1」が記憶され、「位置・姿勢」及び「位置情報」の項目は、位置姿勢情報更新部19によって順次更新されている。
また、配信サーバ装置40aの記憶部44が記憶する利用者リストテーブル441の「利用者識別情報」の項目にも「1」が記憶され、「位置・姿勢」及び「位置情報」の項目は、情報更新部45によって順次更新されている。また、カメラリストテーブル421は、図8に示す例の情報を記憶しており、図9に示した利用者リストテーブル441の例の通り、世界座標Mと、利用者座標Mとが一致しているものとして説明する。
図17に示す処理が開始される前に、利用者表示装置30aと配信サーバ装置40aとが通信ネットワーク60を介して接続し、利用者表示装置30aが配信サーバ装置40aからリアルタイム映像情報の受信を開始しているものとする。すなわち、利用者表示装置30aは、配信サーバ装置40aに対してリアルタイム映像配信要求情報を送信し、配信サーバ装置40aは、利用者20の位置に最も近いカメラ50−1〜50−3が撮影したリアルタイム映像情報を通信ネットワーク60を介して利用者表示装置30aに送信する。
ここでは、図14の利用者情報テーブル122a及び図9の利用者リストテーブル441に示す例の通り、利用者20の位置は「(0,0,0)」であり、図8のカメラリストテーブル421に示す例の通りであり、カメラ50−2が利用者20の最も近くに存在することになる。
利用者表示装置30aの映像情報表示処理部31は、配信サーバ装置40aが送信するカメラ50−2が撮影したリアルタイム映像情報を受信して表示部32に出力し、表示部32が画面にリアルタイム映像情報に基づく映像を表示する。利用者20は、利用者表示装置30aの画面に表示される映像を視聴している。なお、表示部32の画面の座標は、左上が原点であり、右方向の水平軸が、x軸の正方向、下方向の垂直軸が、y軸の正方向となる。
利用者20は、画面に表示される映像、例えば、試合の映像を視聴しながら、当該試合において既に発生した出来事をもう一度みたくなり、当該出来事が発生した場所を注視して、利用者表示装置30aの操作部36aの時間操作モードボタン部36−3のボタンを押下する。時間操作モードボタン部36−3は、ボタンが押下されたことを示す情報を情報送信部35aに出力する。
情報送信部35aは、操作部36aの時刻指定部36−4が時刻情報を出力するのを待機する。利用者20は、操作部36aの時刻指定部36−4を操作して時刻の指定を行う。例えば、指定を行う際の計時部34の時刻が「11時30分10秒」である場合、当該時刻より前の時刻の指定が可能であり、ここでは、利用者は、「11時30分00秒」を指定する操作をしたとする。時刻指定部36−4は、利用者20の指定操作を受けて「11時30分00秒」の時刻情報を情報送信部35aに出力する。
情報送信部35aは、時刻指定部36−4が時刻情報を出力すると、時刻指定部36−4が出力する時刻情報を取り込み、取り込んだ時刻情報を含む時間操作モード通知を生成する。情報送信部35aは、生成した時間操作モード通知を映像操作装置10aのモード切替部15aに対して送信する。モード切替部15aは、無線通信部20を介して時間操作モード通知を受信する(ステップS201)。
モード切替部15aは、時間操作モード通知を受信すると、記憶部12aが記憶する利用者情報テーブル122aの「モード種別」の項目に、時間操作モード種別を示す情報、例えば、「時間操作」を書き込む。
モード切替部15aは、受信した時間操作モード通知に含まれている時刻情報を読み出し、読み出した時刻情報と、時間操作モード種別を示す情報と、利用者情報テーブル122の「利用者識別情報」の項目が記憶する利用者識別情報「1」とを映像情報取得部16aに送信する。
映像情報取得部16aは、モード切替部15aから時刻情報と、時間操作モード種別を示す情報と、利用者識別情報とを含む情報を受信する。映像情報取得部16aは、受信した情報に時間操作モード種別を示す情報が含まれていることを検出すると、時間操作モードにおいて必要となる記憶部12aの利用者情報テーブル122aの「操作可能映像範囲時間長」の項目に記憶されている操作可能映像範囲Nの情報を読み出す(ステップS202)。ここでは、映像情報取得部16aは、図14に示した利用者情報テーブル122aの例の通り、30秒を示す「30」を読み出す。
映像情報取得部16aは、読み出した操作可能映像範囲Nと、時刻情報と、利用者識別情報とを含む配信要求情報を生成する。映像情報取得部16aは、生成した配信要求情報を通信ネットワーク60を介して配信サーバ装置40aに送信する(ステップS203)。
配信サーバ装置40aの映像情報配信処理部43aは、映像情報取得部16aが送信した配信要求情報を受信し、受信した配信要求情報に含まれる利用者識別情報を読み出す。映像情報配信処理部43aは、記憶部44の利用者リストテーブル441を参照し、読み出した利用者識別情報に対応するレコードの「位置情報」の項目を読み出す。ここでは、利用者識別情報は「1」であるため、映像情報配信処理部43aは、利用者リストテーブル441を参照し、図9に示す例の通り「位置情報」として「(0,0,0)」を読み出す。
映像情報配信処理部43aは、映像情報記憶部42が記憶するカメラリストテーブル421の「位置情報」の項目を参照し、読み出した位置情報「(0,0,0)」に最も近い「(0,100,−100)」を検出する。位置情報が「(0,100,−100)」のレコードは、カメラ識別情報が「2」であり、「映像情報」の項目の「映像情報2」というファイル名称の映像情報は、カメラ50−2が撮影した映像情報である。
映像情報配信処理部43aは、検出したカメラ50−2に対応するカメラリストテーブル421の「カメラ識別情報」、「位置・姿勢」、「位置情報」の項目が記憶する情報を含むカメラ情報を生成する。
映像情報配信処理部43aは、配信要求情報に含まれる配信映像情報の終了時刻情報e_Timeが示す時刻、すなわち「11時30分00秒」と、操作可能映像範囲N、すなわち「30」とを読み出す。映像情報配信処理部43aは、読み出した配信映像情報の終了時刻情報e_Timeの時刻と、操作可能映像範囲Nとに基づいて、終了時刻情報e_Timeの時刻のN秒前から終了時刻情報e_Timeまでのカメラ50−2が撮影した過去映像情報を読み出す。すなわち、過去映像情報は、「11時29分30秒」から「11時30分00秒」までの30秒の映像情報となる。
映像情報配信処理部43aは、読み出した過去映像情報と、生成したカメラ情報と、配信要求情報に含まれる利用者識別情報とを通信ネットワーク60を介して映像情報取得部16aに送信する。映像情報取得部16aは、通信ネットワーク60を介して過去映像情報と、カメラ情報と、利用者識別情報とを含む情報を受信する。
映像情報取得部16aは、受信した情報に含まれる利用者識別情報が、利用者情報テーブル122aの「利用者識別情報」の項目の情報に一致する場合、受信した過去映像情報と、カメラ情報と、利用者識別情報とを取り込む。ここでは、映像情報取得部16aが受信した利用者識別情報が「1」であり、利用者情報テーブル122aの「利用者識別情報」の項目が記憶する「1」と一致するため、映像情報取得部16aは、過去映像情報と、カメラ情報と、利用者識別情報とを取り込む(ステップS204)。
映像情報取得部16aは、取り込んだ過去映像情報と、カメラ情報とに対して、利用者情報テーブル122aが記憶するモード種別を示す情報、すなわち「時間操作」を付与して映像情報レンダリング部17aに出力する。映像情報レンダリング部17aは、映像情報取得部16aが出力する過去映像情報と、カメラ情報と、モード種別を示す情報とを取り込む。
映像情報レンダリング部17aは、選択位置検出部13が出力する、利用者20が注視している場所の位置を示す3次元位置座標情報P=(X1,Y1,Z1)を取り込む。映像情報レンダリング部17aは、取り込んだ過去映像情報と、カメラ情報と、モード種別を示す情報と、3次元位置座標情報Pとに基づいて、第1の実施形態の映像情報レンダリング部17のステップS104の処理と、同一の処理を行うことにより、当該過去映像情報を対象とした選択領域を設定する(ステップS205)。
なお、上記式(1)において必要となるRwcとtwcは、映像情報レンダリング部17aが、取り込んだカメラ情報に基づいて算出する。映像情報レンダリング部17aが取り込んだカメラ情報には、カメラ50−2に対応する情報が含まれている。そのため、映像情報レンダリング部17aは、カメラ情報に含まれるカメラ座標Mc2におけるカメラ50−2の回転行列Rc2と、並進ベクトルtc2とを世界座標Mに変換して世界座標Mにおける回転行列Rwc2と、並進ベクトルtwc2を算出して式(1)に適用する。
ステップS205の処理結果として、第1の実施形態と同様に、第2の実施形態においても、映像情報レンダリング部17aは、選択領域として(1920,1000,100,100)を設定したとする。
映像情報レンダリング部17aは、第1の実施形態のステップS105と、同一の処理を経て、第1の実施形態の映像情報レンダリング部17と同様に、操作情報検出部14が出力する移動ベクトルvを操作情報として取り込む(ステップS206)。
映像情報レンダリング部17aは、設定した選択領域に基づいて、過去映像情報から座標m=(1920,1000)を中心として、幅w=100、高さh=100の部分過去映像情報を切り出す。映像情報レンダリング部17aは、記憶部12aの利用者情報テーブル122aの「時間変化スケール」の項目に記憶されている時間変化スケールγの「0.1」を読み出す。
映像情報レンダリング部17aは、移動ベクトルv(−50,0)の量である「50」に対して、時間変化スケールγの「0.1」を乗算して、「5」の値を算出する。映像情報レンダリング部17aは、部分過去映像情報の終了時刻である「11時30分00秒」の5秒前である「11時29分55秒」から「11時30分00秒」までを再生範囲とし、部分過去映像情報から当該再生範囲を選択し、選択した部分過去映像情報の一部を第3の重畳映像情報として生成する(ステップS207)。
映像情報レンダリング部17aは、第3の重畳映像情報に当該第3の重畳映像情報の中心位置を示す情報、すなわち(1920,1000)を付与して映像情報出力部18に出力する。映像情報出力部18は、映像情報レンダリング部17aが出力する第3の重畳映像情報と、第3の重畳映像情報の中心位置を示す情報とを取り込み、取り込んだ情報を無線通信部20を介して利用者表示装置30aに送信する。
利用者表示装置30aの映像情報表示処理部31は、第3の重畳映像情報と、第3の重畳映像情報の中心位置を示す情報とを受信する。映像情報表示処理部31は、受信した第3の重畳映像情報と、第3の重畳映像情報の中心位置を示す情報とを表示部32に出力する。表示部32は、第3の重畳映像情報の各々の中心位置を示す情報に応じた画面の位置に、リアルタイム映像情報に重ねて第3の重畳映像情報を表示する(ステップS208)。
モード切替部15aが、利用者表示装置30から終了モード通知を受信しない間(ステップS209、No)であって、第3の重畳映像情報が終了していない間(ステップS210、No)、ステップS208の処理が継続する。第3の重畳映像情報の表示が終了すると(ステップS210、Yes)、利用者表示装置30の表示部32の画面には、配信サーバ装置40から直接受信しているリアルタイム映像情報のみが表示されることになる。
また、利用者20が、利用者表示装置30aの操作部36の終了モードボタン部36−2のボタンを押下すると、終了モードボタン部36−2は、ボタンが押下されたことを示す情報を情報送信部35aに出力する。
情報送信部35aは、終了モードボタン部36−2が出力するボタンが押下されたことを示す情報を受けて、無線通信により終了モード通知をモード切替部15aに送信し、配信サーバ装置40aは、第1の実施形態と同様に、終了命令情報を受信して、映像操作装置10aの映像情報取得部16aへの映像情報の送信を停止する(ステップS209、Yes)。これにより、第3の重畳映像情報が画面から消えるため、利用者表示装置30aの表示部32の画面には、配信サーバ装置40aから直接受信しているリアルタイム映像情報のみが表示されることになる。
なお、上記の第2の実施形態において、映像操作装置10aの記憶部12aの利用者情報テーブル122aの「位置・姿勢」の項目、及び配信サーバ装置40aの記憶部44の利用者リストテーブル441の「位置・姿勢」の項目が、利用者座標系Mにおける利用者20の回転行列Rと並進ベクトルtとを記憶するようにしている。また、映像操作装置10aの記憶部12aの利用者情報テーブル122aの「位置情報」の項目が、利用者座標Mの世界座標Mにおける原点の位置を記憶するようにしている。しかしながら、第2の実施形態では、これらの項目が記憶する情報を参照しないため、これらの項目を有さない構成であってもよい。
上記の第1及び第2の実施形態の構成により、映像操作装置10,10aにおいて、映像情報取得部16,16aは、実空間をカメラ50−1〜50−3によって撮影することにより得られる映像情報を取得する。選択位置検出部13は、利用者表示装置30,30aの表示部32の画面において利用者20が選択する位置を示す選択位置情報を利用者20の視線に基づいて検出する。操作情報検出部14は、視線を動かす以外の利用者20が行う動作に基づいて、映像情報に対して行う操作を示す操作情報を検出する。映像情報レンダリング部17,17aは、選択位置情報に基づいて操作の対象である選択領域を設定し、映像情報取得部16,16aが取得する映像情報から選択領域に含まれる映像情報を切り出し、切り出した映像情報に対して操作情報に基づく操作を行うことにより重畳映像情報を生成する。映像情報出力部18は、重畳映像情報を出力して利用者表示装置30,30aの表示部32の画面に表示させる。これにより、利用者20が、画面における操作対象の映像を含む領域を選択する選択工程と、選択した領域に対して操作を行う操作工程とを分けることが可能となる。
選択工程では、3次元空間内で利用者20が見ているどの対象物やどの場所を操作対象にするかを特定する必要がある。選択位置検出部13は、上記の参考文献に示されている技術に基づいて、利用者20の左右の眼球の視線方向と、輻輳角θとに基づいて3次元空間内のどの位置を注視しているのかを検出し、検出した位置を選択位置情報として出力する。映像情報レンダリング部17,17aは、選択位置情報に基づいて、対象物や場所を含むと推定される選択領域を設定する。
操作工程では、選択領域の映像に対して行う位置や時間を変化させる操作における変化の方向と、変化の量を与える。このとき、利用者20が、視線を変える等して、視聴体験を妨げないように変化の方向と、変化の量を得る必要がある。そのため、操作情報検出部14は、視線を動かすことなく、利用者20が自由に動かすことができる体の一部を用いた動作に基づいて、変化の方向と、変化の量を検出する。上記の第1及び第2の実施形態では、操作情報検出部14は、周囲の人が見ても目立たない、利用者20の口腔内における舌の動きに基づいて、変化の方向と、変化の量を検出する。なお、視線を動かす以外の利用者20の動作であればどのような動作であってもよく、例えば、利用者20の手指や足の動きによって変化の方向と、変化の量を検出するようにしてもよい。
したがって、上記の第1及び第2の実施形態の構成により、サッカー場等の広い空間で行われるスポーツをARを用いて観戦する際、視線と舌という頭部における自然な操作で、注視している選手等の対象物を見失ったり、操作によって視聴体験を妨げたりすることなく、対象物や場所を選択して操作することが可能となる。すなわち、実空間、または実空間を撮影した映像を見ている利用者20が、容易に操作対象を選択することができ、かつ、抵抗感なく操作対象を写した映像を操作することが可能となる。
なお、上記の第1及び第2の実施形態において、映像情報レンダリング部17,17aが出力する第1、第2、及び第3の重畳映像情報の解像度と、利用者表示装置30,30aの表示部32の画面解像度とが一致している場合、映像情報出力部18は、第1、第2、及び第3の重畳映像情報を表示部32の正しい位置に表示させることができる。
これに対して、第1、第2、及び第3の重畳映像情報の解像度と、利用者表示装置30,30aの表示部32の画面解像度とが、一致していない場合、予め定められる解像度補正係数βを用いて、第1、第2、及び第3の重畳映像情報の補正を行う。第1、第2、及び第3の重畳映像情報の横方向の解像度が「3840」であり、縦方向の解像度が「2160」であるとする。一方、利用者表示装置30,30aの表示部32の横方向の解像度が「1920」であり、縦方向の解像度が「1080」であるとする。この場合、解像度補正係数β=1920/3840=0.5となる。
第1の重畳映像情報の大きさは、幅が「100」であり、高さが「100」であり、中心位置は、(1870,1000)である。また、第2及び第3の重畳映像情報の大きさは、幅が「100」であり、高さが「100」であり、中心位置は、(1920,1000)である。映像情報出力部18が、第1、第2、及び第3の重畳映像情報に対して、解像度補正係数β=0.5を適用することにより、第1、第2、及び第3の重畳映像情報の幅は「50」となり、高さも「50」となる。また、第1の重畳映像情報の中心位置は、(935,500)となり、第2及び第3の重畳映像情報(960,500)となる。
映像情報出力部18は、サイズが縮小された第1、第2、及び第3の重畳映像情報と、変更された中心位置を示す(935,500),(960,500)とを無線通信部20を介して利用者表示装置30,30aに送信する。
利用者表示装置30,30aの映像情報表示処理部31は、第1、第2、及び第3の重畳映像情報と、第1、第2、及び第3の重畳映像情報の各々の中心位置を示す情報とを受信する。利用者表示装置30,30aの表示部32の画面には、既に、映像情報表示処理部31が配信サーバ装置40,40aから受信して、画面の解像度に一致させたリアルタイム映像情報の映像が表示されている。
映像情報表示処理部31は、映像情報出力部18から受信した第1、第2、及び第3の重畳映像情報を、第1、第2、及び第3の重畳映像情報の各々の中心位置を示す情報に基づいて表示部32に出力し、表示部32が表示するリアルタイム映像情報に重ねて表示させる。これにより、表示部32の画面解像度と一致するため、第1、第2、及び第3の重畳映像情報は、画面の正しい位置に正しい大きさで表示されることになる。
また、上記の第1の実施形態は、移動操作モード、または終了モードを選択する構成であり、第2の実施形態は、時間操作モード、または終了モードを選択する構成であるが、第1及び第2の実施形態を組み合わせて、移動操作モード、時間操作モード、または終了モードを選択する構成にしてもよい。この場合、映像操作装置10,10aを組み合わせるため、モード切替部15,15aが組み合わされた構成、映像情報取得部16,16aが組み合わされた構成、映像情報レンダリング部17,17aが組み合わされた構成には、移動操作モード、時間操作モード、または終了モードを判定する構成が追加されることになる。
また、上記の第1及び第2の実施形態において、映像情報レンダリング部17,17aが設定する選択領域の形状を矩形形状であるとし、矩形形状の幅w=100、高さh=100としているが、本発明の構成は、当該実施の形態に限られない。幅や高さの大きさは任意に変更することができ、また、選択領域の形状として、映像に含まれる対象物を検出する物体検出手法等を適用して、矩形形状以外の任意の形状を適用するようにしてもよい。
また、上記の第1及び第2の実施形態では、利用者表示装置30,30aは、配信サーバ装置40,40aからリアルタイム映像情報を受信して表示部32の画面に表示する、いわゆるビデオシースルー型の視聴デバイスになっているが、本発明の構成は、当該実施の形態に限られない。表示部32の画面が透過する画面であり、利用者20が画面を通して実空間を見るようなシースルーグラス型の視聴デバイスあってもよい。この場合、利用者表示装置30,30aの映像情報表示処理部31は、配信サーバ装置40,40aからリアルタイム映像情報を受信しない構成となる。なお、上記の第1及び第2の実施形態では、利用者20は、映像情報の映像を視聴、すなわち見たり聞いたりするとしているが、音を含まない映像を見ているだけであってもよい。
また、上記の第1及び第2の実施形態において、図8に示したカメラリストテーブル421の「位置・姿勢」の項目には、カメラ座標Mc1,Mc2,Mc3における各カメラ50−1〜50−3の回転行列Rc1,Rc2,Rc3と、並進ベクトルtc1,tc2,tc3が書き込まれるとしているが、本発明の構成は、当該実施の形態に限られない、世界座標Mにおける各カメラ50−1,50−2,50−3の回転行列Rwc1,Rwc2,Rwc3と、並進ベクトルtwc1,twc2,twc3が書き込まれてもよく、その場合、「位置情報」の項目を含めなくてもよい。この場合、式(1)に対して適用する際、映像情報レンダリング部17,17aは、カメラ座標Mc1,Mc2,Mc3から世界座標Mへの変換を行う必要がない。
同様に、図4及び図14に示した利用者情報テーブル122,122a、並びに図9に示した利用者リストテーブル441の「位置・姿勢」の項目には、利用者座標Mにおける利用者座標Mにおける利用者20の回転行列Rと、並進ベクトルtが書き込まれるとしているが、本発明の構成は、当該実施の形態に限られない、世界座標Mにおける利用者20の回転行列Rwuと、並進ベクトルtが書き込まれてもよく、その場合、「位置情報」の項目を含めなくてもよい。
また、上記の第1及び第2の実施形態では、世界座標Mと、利用者座標Mの原点が一致している例について説明しているが、世界座標Mの原点と、利用者座標Mの原点が一致していない場合、映像情報レンダリング部17,17aは、世界座標Mの原点と、利用者座標Mの原点との距離を考慮して演算を行うことになる。
また、上記の第1及び第2の実施形態において、映像操作装置10,10aは、通信ネットワーク60を介して配信サーバ装置40,40aに接続する構成になっているが、本発明の構成は、当該実施の形態に限られない。配信サーバ装置40,40aが、映像操作装置10,10aを内部に備えて一体となっている構成であってもよい。
また、上記の第1及び第2の実施形態において、カメラ50−1〜50−3が、内部に計時手段を備えて、映像情報のフレームごとに時刻情報を付与する構成としているが、本発明の構成は、当該実施の形態に限られない。例えば、配信サーバ装置40,40aの内部に計時手段を備え、映像情報取込部41が、計時手段から取得した時刻情報を映像情報のフレームごとに付与するようにしてもよい。
また、上記の第1及び第2の実施形態において、眼球センサ21、及び位置姿勢センサ23は、利用者表示装置30の内部に備えられる構成としているが、利用者表示装置30の外部に備えられていてもよい。
また、上記の第1及び第2の実施形態において、眼球センサ21、顔センサユニット22、及び位置姿勢センサ23は、無線通信により映像操作装置10,10aに接続する構成としているが、本発明の構成は、当該実施の形態に限られない。例えば、眼球センサ21、顔センサユニット22、または位置姿勢センサ23のいずれか、または、全てが、有線接続により映像操作装置10,10aに接続され、映像操作装置10,10aの一部の構成になっていてもよい。
また、上記の第1及び第2の実施形態において、利用者表示装置30,30aは、無線通信により、映像操作装置10,10aに接続する構成としているが、有線接続により映像操作装置10,10aに接続されていてもよい。
また、上記の第1及び第2の実施形態において、利用者表示装置30,30a、眼球センサ21、顔センサユニット22、及び位置姿勢センサ23の全てが、有線接続により映像操作装置10,10aに接続され、映像操作装置10,10aの一部の構成になっていてもよい。
また、上記の第1及び第2の実施形態において、顔センサ220−A,220−B,220−C,220−Dの各々の位置を示す座標として、利用者20の顔において、口角を結ぶ直線を水平軸、すなわちx軸とし、口角の中間を原点座標としたxy座標を適用する例を示したが、当該xy座標は一例であり、原点の位置や、x軸の方向を任意に定めるようにしてもよい。
また、上記の第1及び第2の実施形態において、顔センサユニット22は、4個の顔センサ220−A,220−B,220−C,220−Dを備えるとしているが、4個以上備えるようにしてもよい。
また、上記の第1及び第2の実施形態において、操作部36,36aの移動操作モードボタン部36−1、終了モードボタン部36−2、時間操作モードボタン部36−3、及び時刻指定部36−4は、利用者表示装置30,30aの内部に備えられるとしているが、本発明の構成は、当該実施の形態に限られない。移動操作モードボタン部36−1、終了モードボタン部36−2、時間操作モードボタン部36−3、及び時刻指定部36−4が、利用者表示装置30,30aの外部に備えられ、有線接続、または、無線接続により利用者表示装置30,30aに接続するようにしてもよい。
なお、上記の第1の実施形態の図10に示した映像操作装置10による処理において、ステップS104と、ステップS105の順番は入れ替わってもよく、また、ステップS106と、ステップS107の順番は入れ替わってもよい。また、第2の実施形態の図17に示した映像操作装置10aによる処理において、ステップS205と、ステップS206の順番は入れ替わってもよい。
上述した第1及び第2の実施形態における映像操作装置10,10aをコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
1…映像表示システム,10…映像操作装置,11…計時部,12…記憶部,13…選択位置検出部,14…操作情報検出部,15…モード切替部,16…映像情報取得部,17…映像情報レンダリング部,18…映像情報出力部,19…位置姿勢情報更新部,20…無線通信部,21…眼球センサ,22…顔センサユニット,23…位置姿勢センサ,30…利用者表示装置,40…配信サーバ装置,50−1〜50−3…カメラ,60…通信ネットワーク

Claims (7)

  1. 実空間を撮影装置によって撮影することにより得られる映像情報を取得する映像情報取得部と、
    画面において利用者が選択する位置を示す選択位置情報を前記利用者の視線に基づいて検出する選択位置検出部と、
    前記視線を動かす以外の前記利用者が行う動作に基づいて、前記映像情報に対して行う操作を示す操作情報を検出する操作情報検出部と、
    前記選択位置情報に基づいて前記操作の対象である選択領域を設定し、前記映像情報取得部が取得する前記映像情報から前記選択領域に含まれる前記映像情報を切り出し、切り出した前記映像情報に対して前記操作情報に基づく操作を行うことにより重畳映像情報を生成する映像情報レンダリング部と、
    前記重畳映像情報を出力して前記画面に表示させる映像情報出力部と、
    を備え
    前記実空間は、複数の前記撮影装置によって撮影されており、
    前記操作情報による操作は、前記選択領域に含まれる前記映像情報の位置を変更する操作であり、
    前記映像情報取得部は、
    前記利用者の位置に最も近い前記撮影装置が撮影した前記映像情報を取得し、
    前記映像情報レンダリング部は、
    前記操作情報にしたがって前記切り出した映像情報の位置を変更し、位置を変更した後の前記切り出した映像情報を第1の前記重畳映像情報とし、
    前記切り出した映像情報を撮影した前記撮影装置以外の前記撮影装置の中から、前記切り出した映像情報の映像に写っている物によって隠されている背景を撮影した前記撮影装置を選択し、選択した前記撮影装置が撮影した前記映像情報に基づいて、前記選択領域の前記背景の映像情報を第2の前記重畳映像情報として生成し、
    前記映像情報出力部は、
    第1及び第2の前記重畳映像情報を出力して前記画面に表示させる映像操作装置。
  2. 実空間を撮影装置によって撮影することにより得られる映像情報を取得する映像情報取得部と、
    画面において利用者が選択する位置を示す選択位置情報を前記利用者の視線に基づいて検出する選択位置検出部と、
    前記視線を動かす以外の前記利用者が行う動作に基づいて、前記映像情報に対して行う操作を示す操作情報を検出する操作情報検出部と、
    前記選択位置情報に基づいて前記操作の対象である選択領域を設定し、前記映像情報取得部が取得する前記映像情報から前記選択領域に含まれる前記映像情報を切り出し、切り出した前記映像情報に対して前記操作情報に基づく操作を行うことにより重畳映像情報を生成する映像情報レンダリング部と、
    前記重畳映像情報を出力して前記画面に表示させる映像情報出力部と、
    を備え
    前記操作情報による操作は、前記選択領域に含まれる前記映像情報の再生範囲を定める操作であり、
    前記映像情報取得部は、
    前記利用者によって指定される再生範囲の終了時刻以前の過去の前記映像情報を取得し、
    前記映像情報レンダリング部は、
    前記選択領域に含まれる前記過去の映像情報を切り出して部分過去映像情報とし、前記操作情報に基づいて前記再生範囲の開始時刻を算出し、前記開始時刻と前記終了時刻により定められる前記再生範囲の前記部分過去映像情報を第3の前記重畳映像情報として生成し、
    前記映像情報出力部は、
    第3の前記重畳映像情報を出力して前記画面に表示させる映像操作装置。
  3. 前記利用者は、透過する前記画面を介して前記実空間を見ているか、または、前記実空間を前記撮影装置によって撮影することにより得られる前記映像情報の映像が表示される前記画面を見ており、
    前記映像情報出力部は、
    前記利用者が、前記透過する画面を介して前記実空間を見ている場合、前記重畳映像情報を前記画面に表示させ、前記利用者が、前記実空間を前記撮影装置によって撮影することにより得られる前記映像情報の映像が表示される前記画面を見ている場合、前記画面に表示される前記映像情報に重ねて前記重畳映像情報を表示させる、請求項1又は2に記載の映像操作装置。
  4. 前記操作情報検出部は、
    前記視線を動かす以外の前記利用者が行う動作である前記利用者の口腔内における舌の動きに基づいて、前記操作情報を検出する、請求項1から3のいずれか一項に記載の映像操作装置。
  5. 実空間を撮影装置によって撮影することにより得られる映像情報を取得し、
    画面において利用者が選択する位置を示す選択位置情報を前記利用者の視線に基づいて検出し、
    前記視線を動かす以外の前記利用者が行う動作に基づいて、前記映像情報に対して行う操作を示す操作情報を検出し、
    前記選択位置情報に基づいて前記操作の対象である選択領域を設定し、取得した前記映像情報から前記選択領域に含まれる前記映像情報を切り出し、切り出した前記映像情報に対して前記操作情報に基づく操作を行うことにより重畳映像情報を生成し、
    生成した前記重畳映像情報を出力して前記画面に表示し、
    前記実空間は、複数の前記撮影装置によって撮影されており、
    前記操作情報による操作は、前記選択領域に含まれる前記映像情報の位置を変更する操作であり、
    前記利用者の位置に最も近い前記撮影装置が撮影した前記映像情報を取得し、
    前記操作情報にしたがって前記切り出した映像情報の位置を変更し、位置を変更した後の前記切り出した映像情報を第1の前記重畳映像情報とし、
    前記切り出した映像情報を撮影した前記撮影装置以外の前記撮影装置の中から、前記切り出した映像情報の映像に写っている物によって隠されている背景を撮影した前記撮影装置を選択し、選択した前記撮影装置が撮影した前記映像情報に基づいて、前記選択領域の前記背景の映像情報を第2の前記重畳映像情報として生成し、
    第1及び第2の前記重畳映像情報を出力して前記画面に表示する映像操作方法。
  6. 実空間を撮影装置によって撮影することにより得られる映像情報を取得し、
    画面において利用者が選択する位置を示す選択位置情報を前記利用者の視線に基づいて検出し、
    前記視線を動かす以外の前記利用者が行う動作に基づいて、前記映像情報に対して行う操作を示す操作情報を検出し、
    前記選択位置情報に基づいて前記操作の対象である選択領域を設定し、取得した前記映像情報から前記選択領域に含まれる前記映像情報を切り出し、切り出した前記映像情報に対して前記操作情報に基づく操作を行うことにより重畳映像情報を生成し、
    生成した前記重畳映像情報を出力して前記画面に表示し、
    前記操作情報による操作は、前記選択領域に含まれる前記映像情報の再生範囲を定める操作であり、
    前記利用者によって指定される再生範囲の終了時刻以前の過去の前記映像情報を取得し、
    前記選択領域に含まれる前記過去の映像情報を切り出して部分過去映像情報とし、前記操作情報に基づいて前記再生範囲の開始時刻を算出し、前記開始時刻と前記終了時刻により定められる前記再生範囲の前記部分過去映像情報を第3の前記重畳映像情報として生成し、
    第3の前記重畳映像情報を出力して前記画面に表示する映像操作方法。
  7. 請求項1からのいずれか一項に記載の映像操作装置としてコンピュータを実行させるための映像操作プログラム。
JP2018141395A 2018-07-27 2018-07-27 映像操作装置、映像操作方法、及び映像操作プログラム Active JP6971932B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018141395A JP6971932B2 (ja) 2018-07-27 2018-07-27 映像操作装置、映像操作方法、及び映像操作プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018141395A JP6971932B2 (ja) 2018-07-27 2018-07-27 映像操作装置、映像操作方法、及び映像操作プログラム

Publications (2)

Publication Number Publication Date
JP2020017202A JP2020017202A (ja) 2020-01-30
JP6971932B2 true JP6971932B2 (ja) 2021-11-24

Family

ID=69580473

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018141395A Active JP6971932B2 (ja) 2018-07-27 2018-07-27 映像操作装置、映像操作方法、及び映像操作プログラム

Country Status (1)

Country Link
JP (1) JP6971932B2 (ja)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007003355A (ja) * 2005-06-23 2007-01-11 Shinku Rei:Kk パルス光伝播時間計測装置および仮想マウス等の応用装置
JP2011029947A (ja) * 2009-07-27 2011-02-10 Hitachi Consumer Electronics Co Ltd 画像合成装置および画像合成方法
JP5924724B2 (ja) * 2011-05-09 2016-05-25 国立大学法人岩手大学 顎口腔運動状態の推定方法及び顎口腔運動状態の推定装置
US10013053B2 (en) * 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
JP2014096661A (ja) * 2012-11-08 2014-05-22 International Business Maschines Corporation 動画撮影中において動画中の動体オブジェクトをリアルタイムに隠消するための方法、並びに、その動画撮影機器及び当該動画撮影機器のためのプログラム
JP2016033763A (ja) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 表示装置、表示装置の制御方法、および、プログラム
JP2016115965A (ja) * 2014-12-11 2016-06-23 ソニー株式会社 医療用眼鏡型表示装、情報処理装置及び情報処理方法
JP6273243B2 (ja) * 2015-10-19 2018-01-31 株式会社コロプラ 仮想現実空間のオブジェクトと対話するための装置、方法、及びプログラム
JP6778912B2 (ja) * 2016-02-03 2020-11-04 パナソニックIpマネジメント株式会社 映像表示方法及び映像表示装置

Also Published As

Publication number Publication date
JP2020017202A (ja) 2020-01-30

Similar Documents

Publication Publication Date Title
US11592668B2 (en) Image generation apparatus and image generation method using frequency lower than display frame rate
KR102581453B1 (ko) 헤드 마운티드 디스플레이(Head Mounted Display: HMD) 디바이스를 위한 이미지 처리
US9654734B1 (en) Virtual conference room
KR101171660B1 (ko) 증강현실의 포인팅 장치
US8860847B2 (en) Computer-readable storage medium having stored thereon image generation program, capturing apparatus, capturing system, and image generation method for creating an image
KR20190112712A (ko) 헤드 마운트 디스플레이(hmd)를 이용한 화상회의를 위한 개선된 방법 및 시스템
US20210217248A1 (en) Information processing device, information processing method, and program
JP6559871B1 (ja) 動画合成装置、動画合成方法及び動画合成プログラム
JP7317024B2 (ja) 画像生成装置および画像生成方法
WO2020110322A1 (ja) 動画合成装置、動画合成方法及び記録媒体
US10582190B2 (en) Virtual training system
JP6768933B2 (ja) 情報処理装置、情報処理システム、および画像処理方法
JP6775669B2 (ja) 情報処理装置
JP6609078B1 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
JP6971932B2 (ja) 映像操作装置、映像操作方法、及び映像操作プログラム
JP2002032788A (ja) 仮想現実提供方法、仮想現実提供装置及び仮想現実提供プログラムを記録した記録媒体
JP2023065528A (ja) ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム
JP5759439B2 (ja) 映像コミュニケーションシステム及び映像コミュニケーション方法
US11287658B2 (en) Picture processing device, picture distribution system, and picture processing method
JP2020005150A (ja) 録画再生装置及びプログラム
WO2022107688A1 (ja) 画像生成装置、画像生成方法、およびプログラム
US20240153226A1 (en) Information processing apparatus, information processing method, and program
TWI794512B (zh) 用於擴增實境之系統及設備及用於使用一即時顯示器實現拍攝之方法
US11907434B2 (en) Information processing apparatus, information processing system, and information processing method
WO2023119557A1 (ja) アバター表示装置、アバター生成装置及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180730

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211102

R150 Certificate of patent or registration of utility model

Ref document number: 6971932

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150