JP2013175048A - 情報表示装置、及び情報表示方法 - Google Patents

情報表示装置、及び情報表示方法 Download PDF

Info

Publication number
JP2013175048A
JP2013175048A JP2012039147A JP2012039147A JP2013175048A JP 2013175048 A JP2013175048 A JP 2013175048A JP 2012039147 A JP2012039147 A JP 2012039147A JP 2012039147 A JP2012039147 A JP 2012039147A JP 2013175048 A JP2013175048 A JP 2013175048A
Authority
JP
Japan
Prior art keywords
image
unit
hmd
processing unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012039147A
Other languages
English (en)
Other versions
JP6074894B2 (ja
Inventor
Satoshi Ejima
聡 江島
Shigeru Kato
茂 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012039147A priority Critical patent/JP6074894B2/ja
Publication of JP2013175048A publication Critical patent/JP2013175048A/ja
Application granted granted Critical
Publication of JP6074894B2 publication Critical patent/JP6074894B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】端末同士のコミュニケーションのミスを低減できる情報表示装置、及び情報表示方法を提供することを目的とする。
【解決手段】画像を表示する表示部と、ユーザーの操作を検出する入力部と、入力部で操作が行われた場合、表示部に表示されている画像を一時停止し、一時停止させた画像に入力部での操作に基づく画像を重畳する画像合成部と、を備える。
【選択図】図7

Description

本発明は、情報表示装置、及び情報表示方法に関する。
配信する映像に手書きの書き込みができるテレビ会議システムが知られている。このようなテレビ会議システムでは、パソコンから出力された画像、またはカメラで撮像された画像を表示装置に表示し、表示装置上に入力ペンなどで書き込みを行う。
また、特許文献1では、2台の電子カメラを、通信回線を介して相互に接続して、テレビ会議に用いることが開示されている。送信者側の電子カメラは、撮像した画像を受信者側の電子カメラに送信する。送信者側の電子カメラは、タッチタブレット上に送信者が描いたメモ画像(線画)を、自電子カメラの表示部に表示するとともに、受信者側の電子カメラにも送信する。受信者側の電子カメラは、受信した画像に、メモ画像を重ねて表示する。
特許第4349371号公報
しかしながら、特許文献1の技術では、カメラの撮影方向が移動した場合、表示装置に表示される映像と重畳された線画との関係がずれてしまうため、画像が指し示すものが何であるかが判らなくなくなるという問題があった。このように、特許文献1の技術では、コミュニケーションのミスが発生するという課題があった。
本発明は、上記の事情に鑑み成されたものであって、端末同士のコミュニケーションのミスを低減できる情報表示装置、及び情報表示方法を提供することを目的とする。
上記目的を達成するため、本発明の一態様に係る情報表示装置は、画像を表示する表示部と、ユーザーの操作を検出する入力部と、前記入力部で操作が行われた場合、前記表示部に表示されている画像を一時停止し、一時停止させた前記画像に、前記入力部での操作に基づく画像を重畳する画像合成部と、を備えることを特徴としている。
上記目的を達成するため、本発明の一態様に係る情報表示方法は、情報表示装置における情報表示方法であって、表示部が、画像を表示する表示手順と、入力部が、ユーザーの操作を検出する入力手順と、前記入力手順で操作が行われた場合、前記表示部に表示されている画像を一時停止し、一時停止させた前記画像に、前記入力手順での操作に基づく画像を重畳する画像合成手順と、を含むことを特徴としている。
本実施形態に係る情報表示装置は、画像を一時停止させ静止画としてから、一時停止させた画像に対して線画などを重畳する。この結果、本実施形態によれば、たとえ撮影者が撮影する方向が変わったとしても、正確に画面の画像と線画とを重ねることが可能となるため、端末同士のコミュニケーションのミスを低減できる。
本実施形態に係るヘッドマウントディスプレイの斜視図である。 本実施形態に係るヘッドマウントディスプレイを背面側から見た斜視図である。 本実施形態に係るヘッドマウントディスプレイの装着形態を示す図である。 本実施形態に係るディスプレイ本体の水平断面図である。 本実施形態に係るリモコンを示す斜視図である。 本実施形態に係るヘッドマウントディスプレイの機能ブロック図である。 本実施形態に係る処理部の機能ブロック図である。 本実施形態に係るヘッドマウントディスプレイを含む通信システムのシステム構成図である。 本実施形態に係る処理手順の一例を示すフローチャートである。 本実施形態に係る処理手順の一例を示すフローチャートである。 本実施形態に係る処理手順の一例を示すフローチャートである。 本実施形態に係る処理手順の一例を示すフローチャートである。 本実施形態に係る処理手順の一例を示すフローチャートである。 本実施形態に係る処理手順の一例を示すフローチャートである。 本実施形態に係る処理手順の一例を示すフローチャートである。 本実施形態に係る処理手順の一例を示すフローチャートである。 本実施形態に係る処理手順の一例を示すフローチャートである。 本実施形態に係る処理手順の一例を示すフローチャートである。 本実施形態に係る処理手順の一例を示すフローチャートである。 本実施形態に係るアバターの表示例を示す図である。 本実施形態に係るLCDまたは表示部に表示される画像の構成の一例を説明する図である。 本実施形態に係るカーソルが表示された画像の一例である。 本実施形態に係る線画の一例である。 本実施形態に係るグリッドの一例を示す図である。 本実施形態に係るグリッドの他の例を示す図である。
本実施形態の情報表示装置は、複数の装置間で映像に対して画面に基づくコミュニケーションを行う場合、映像を一時停止させ静止画としてから、その画像に対して線画などを重畳する。
また、本情報表示装置は、最初に静止画を要求した端末がキャプチャーした画像が全端末に配信する。
以下、情報出力装置をヘッドマウントディスプレイに適用した例について説明するが、本発明はこれに限られない。
以下、本発明の実施形態について図面を参照しながら説明するが、本発明はこれに限定されない。以下の説明においては、必要に応じてXYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ各部の位置関係について説明する。水平面内の所定方向をX軸方向、水平面内においてX軸方向と直交する方向をY軸方向、X軸方向及びY軸方向のそれぞれと直交する方向(すなわち鉛直方向)をZ軸方向とする。また、X軸、Y軸、及びZ軸まわりの回転(傾斜)方向をそれぞれ、θX、θY、及びθZ方向とする。
図1は、本実施形態のヘッドマウントディスプレイの斜視図である。図2は、本実施形態のヘッドマウントディスプレイを背面側から見た斜視図である。図3は、本実施形態のヘッドマウントディスプレイの装着形態を示す図である。
ヘッドマウントディスプレイ(頭部装着装置)1は、ディスプレイ本体20と、ユーザーの頭部に装着されディスプレイ本体20を支持するヘッドバンド40と、を備えた単眼式のヘッドマウントディスプレイである。本実施形態のヘッドマウントディスプレイ1は、図3に示すように、両眼どちらでも使用可能である。図3(A)には、ユーザーが右眼で表示部60を見ている状態、図3(B)には左眼で見ている状態が示されている。また図2に示すように、ディスプレイ本体20とヘッドバンド40とは、連結ピン41を介して着脱可能に構成されている。
なお、図1及び図2では、ディスプレイ本体20の長手方向をY軸方向、ヘッドバンド40がユーザーの頭部を挟持する方向をX軸方向としている。
以下、ヘッドマウントディスプレイ1の各部の構成について詳細に説明する。
ディスプレイ本体20は、主要回路を内蔵するとともに操作部や各種インターフェースを備えた装置本体部21と、装置本体部21の先端に連結された表示部60とを有する。
装置本体部21は、図4に示す概略板状の筐体21Aを有する。本実施形態では、装置本体部21においてヘッドバンド40との接続部が設けられている側の端部(+Y側の端部)を基端部とし、この基端部と反対側の端部(−Y側の端部)を先端部とする。また、装置本体部21をヘッドバンド40に装着した状態で、装置本体部21のヘッドバンド40側(+X側)を内側、ヘッドバンド40と反対側(−X側)を外側とする。
装置本体部21の外面には、図1に示すように、メインスイッチ28と、タッチスイッチ34(入力部)と、集音マイク24とが、筐体21Aの長手方向に沿って配置されている。
メインスイッチ28はディスプレイ本体20の電源のオンオフ操作を行うスイッチである。タッチスイッチ34は、表面に手指等で触れることによりヘッドマウントディスプレイ1の各種操作を行うことができるタッチパネルである。集音マイク24は、環境音を収集する外部マイクである。
装置本体部21内面の基端部側に、図2に示すように、耳元スピーカー23と、オーディオコネクター26と、連結孔31を有するヘッドバンドヒンジ32とが設けられている。装置本体部21内面の中央部に心拍数センサー137が設けられている。装置本体部21の内側面の先端部には通話マイク37が設けられている。
耳元スピーカー23は、ユーザーの耳の近傍に配置される。耳元スピーカー23からユーザーに音声情報が伝えられる。オーディオコネクター26は、例えば図示しないイヤホンが接続される音声入出力端子である。ヘッドバンドヒンジ32はヘッドバンド40とのジョイント部である。通話マイク37にはユーザーの音声が入力される。
心拍数センサー137は、ユーザーの顔の表面に接触させることでユーザーの心拍数を測定するセンサーである。心拍数センサー137は、発光ダイオード等を備えた発光部と、ユーザーの皮膚内部で反射した光を検知する受光部とを有する。心拍数センサー137は、血流の変化による反射光量の変化を検出することで心拍数をカウントする。心拍数センサー137はユーザーの目の近くに配置されるが、発光部から赤外域の光を射出させる構成とすればユーザーにまぶしさを感じさせることはない。
装置本体部21の基端部側の側端面には、USBコネクター25と、操作スイッチ30と、ビデオコネクター27とが設けられている。
USBコネクター25はUSB(Universal Serial Bus)デバイスの接続端子である。本実施形態では、例えば図5に示すリモコン(リモートコントローラー)140が接続される。
操作スイッチ30は、例えばトラックボールやスティックなどのポインティングデバイスである。操作スイッチ30は表示部60に表示される画面に正対するように設けられている。これにより、操作スイッチ30における操作の左右方向と、上記画面の左右方向とが一致するので、ユーザーは画面を見ながら直感的に操作スイッチ30を操作することが可能である。
ビデオコネクター27は映像入出力端子である。
図4は、本実施形態のディスプレイ本体20の水平断面図である。
図4に示すように、装置本体部21には、筐体21Aの長手方向に沿って延びる板状の回路基板29と、バッテリー33とが内蔵されている。回路基板29には、図示略の制御回路、電源回路等が実装されており、図示略の配線を介してディスプレイ本体20の各部と電気的に接続されている。
装置本体部21の外面に露出するタッチスイッチ34の内側には、液晶パネルからなる表示パネル36と、バックライト35とが配置されている。本実施形態では、表示パネル36の表示画像がタッチスイッチ34を透過して表示される。表示パネル36及びバックライト35を、有機ELパネルや電気泳動パネルとしてもよい。
ヘッドバンドヒンジ32は、筐体21Aに設けられた凹曲面状の収容部32aと、収容部32aに嵌合された球状部32bとからなるボールジョイントである。球状部32bは、球面状の側面部と、この側面部を挟むように互いに平行に形成された2つの平面部を有する。2つの平面部を垂直に貫くように連結孔31が形成されている。連結孔31は軸方向視で六角形状に形成されている。連結孔31にヘッドバンド40の連結ピン41が挿入されることによりディスプレイ本体20とヘッドバンド40とが連結される。
ヘッドバンドヒンジ32を備えていることで、ディスプレイ本体20は、図1に示したA方向(ヘッドバンドヒンジ32を中心とするX軸回り)に回動させることができる。本実施形態において、ディスプレイ本体20の回転可能範囲は270°程度とされる。このX軸回りの回転動作により、図3(A)に示す右眼で画像を観察する形態と、図3(B)に示す左眼で画像を観察する形態との切替機能が実現される。
またヘッドバンドヒンジ32はボールジョイントであるため、ディスプレイ本体20は図1に示すB方向(ヘッドバンドヒンジ32を中心とするZ軸回り)に揺動させることもできる。この揺動操作により、ディスプレイ本体20のユーザーの目や耳に対する位置を調整することができる。
ヘッドバンドヒンジ32近傍の心拍数センサー137は、装置本体部21の内面から突出するように設けられ、ヘッドマウントディスプレイ1の装着時にユーザーの顔の表面に当接可能とされている。バッテリー33は一次電池、二次電池のいずれであってもよい。
表示部60は、図1及び図2に示すように、装置本体部21の先端部に連結されている。本実施形態において、表示部60のヘッドバンド40側を内側、ヘッドバンド40と反対側を外側とする。表示部60は、上面視(Z軸視)において湾曲した形状を有するアーム部材であり、装置本体部21との連結部から先端側へ向かうに従って内側へ湾曲する形状を有する。表示部60の内面に、ファインダー開口部67が設けられている。表示部60の外面には、カメラ64(撮像部)が設けられている。
図4に示すように、表示部60は、ディスプレイヒンジ61を介して装置本体部21と連結されている。ディスプレイヒンジ61は、表示部60の筐体60Aに形成された凹曲面状の収容部61aと、装置本体部21に形成され収容部61aに嵌合された球状部61bとからなるボールジョイントである。
装置本体部21の球状部61bは、装置本体部21の外面先端部に形成された筐体21Aの長手方向に対して斜めに延びる傾斜面に、この傾斜面の法線方向(図4のY’軸方向)に突出するようにして設けられている。
表示部60は、ディスプレイヒンジ61の球状部61bに対してY’軸回りに自由に回転させることができる。本実施形態では、ディスプレイヒンジ61が装置本体部21の上記傾斜面に設けられており、表示部60が内側に湾曲した形状を有している。
また、ディスプレイヒンジ61がボールジョイントであることから、表示部60は、Y’軸回りの回転面に対して直交する方向(概ねX’軸に沿う方向)の揺動も可能である。この揺動動作により、ユーザーによるファインダー開口部67の位置調整が容易になる。表示部60と装置本体部21との間隔を大きくすれば、表示部60の揺動幅を大きくすることができる。
すなわち、本実施形態によれば、保持部であるディスプレイヒンジ61は、表示部60を、少なくとも1つ以上の軸周りに揺動が可能である。
ディスプレイヒンジ61の球状部61bには、球状部61bを高さ方向(Y’軸方向)に貫通する貫通孔61cが形成されている。貫通孔61cを介して、表示部60の内部と装置本体部21の内部とが連通されている。貫通孔61cには不図示のケーブルが挿通される。挿通されたケーブルを介して回路基板29と表示部60の各部とが電気的に接続される。
表示部60の内部には、バックライト62と、表示パネル63(表示部)と、カメラ64(撮像部)と、プリズム65と、反射ミラー66と、前方ライト68と、前方スピーカー70と、結像レンズ71と、撮像素子72とが設けられている。
プリズム65は、上面視(Z軸視)で略三角形状の第1プリズム65aと第2プリズム65bとを互いの面で貼り合わせた構成を有する。この貼り合わせ面以外の第1プリズム65aの他の二面のうち、一方の面に対向する位置に、液晶パネルからなる表示パネル63が設けられている。表示パネル63の背面に表示パネル63を透過照明するバックライト62が配置されている。第1プリズム65aの他方の面に対向する位置に反射ミラー66が配置されている。反射ミラー66は、ファインダー開口部67のほぼ正面に位置する。
第2プリズム65bの貼り合わせ面以外の他の二面のうち、一方の面はファインダー開口部67に配置されたファインダー接眼面である。第2プリズム65bの他方の面に対向する位置には結像レンズ71を介して撮像素子72が対向配置されている。
表示部60において、表示パネル63に表示された画像は、第1プリズム65a、反射ミラー66、第2プリズム65bを介してファインダー開口部67から射出され、ユーザーに観察される。また、ファインダー開口部67を見ているユーザーの目元は、第2プリズム65b及び結像レンズ71を介して撮像素子72上に結像される。撮像素子72を介して取得された目元の画像は、ユーザーの視線の方向や瞬き、表情の解析に用いられる。バックライト62は、撮像素子72による目元撮影の照明装置としても利用される。
カメラ64は、例えば500万画素〜1000万画素の撮像素子を有し、オートフォーカス動作が可能に構成される。
本実施形態の場合、カメラ64の撮影方向は、ユーザーの視線方向と一致するように設定される。撮影方向と視線方向との調整は、機械的に行ってもよく、画像処理により行ってもよい。例えば、カメラ64を広角の映像を取得可能に構成し、ユーザーの目元画像から取得した視線方向の情報に基づいて、電気的に捕らえた映像の一部を、視線方向の映像として抜き出して表示パネル63に表示させる。これにより、カメラ64に調整機構を設けることなくユーザー正面の映像の撮影、表示が可能となる。
前方ライト68は、例えばLEDライトである。前方ライト68は、赤、緑、青の各色の発光素子を有し、任意の色を任意のタイミングで発光させることが可能に構成してもよい。前方ライト68は、発光色や発光タイミングにより外部に対して情報を表示する装置として用いてもよく、カメラ64で撮影する際の照明装置として用いてもよい。
また、図4では図示を省略したが、本実施形態に係る表示部60にはレーザー発信器が設けられている。レーザー発信器は、例えば前方ライト68の近傍に設けることができる。レーザー発信器から射出される例えば赤色レーザー光を前方に照射することで、レーザー光によるポインティング(指標の表示)が可能である。
次に、ヘッドバンド40について、図2を参照しつつ説明する。
ヘッドバンド40は、図2に示すように、ユーザーの頭部を挟持する一対のヘッドパット(装着部材)46、47と、第1ヘッドバンド43と、第2ヘッドバンド44と、回動機構56、57とを備えている。
第1ヘッドバンド43は、全体として円弧状を成す弾性部材である。第1ヘッドバンド43の頂部に、第1ヘッドバンド43を折り曲げるためのジョイント部43aが設けられている。第1ヘッドバンド43の両端には、回動機構56、57を構成する軸受部43b、43cがそれぞれ設けられている。軸受部43b、43cよりもさらにバンド先端側に、ヘッドパット46、47が接続される軸受部43d、43eが設けられている。
第2ヘッドバンド44は、全体として円弧状を成す弾性部材である。第2ヘッドバンド44の頂部には、第2ヘッドバンド44を折り曲げるためのジョイント部44aが設けられている。第2ヘッドバンド44の両端には、それぞれ回動機構56、57を構成する軸部材44b、44cが設けられている。
また本実施形態において、第2ヘッドバンド44は、ステンレス等の金属からなるバネ部材48の表面を樹脂等の柔軟な材料で被覆した構成を有する。この第2ヘッドバンド44のバネ部材48においてユーザーの頭部を挟持するバネ力を発生させる。また第2ヘッドバンド44は第1ヘッドバンド43と比較して広い幅に形成されている。ジョイント部44aの形成部分は他のバンド部分よりもさらに広く形成された標章表示部49とされている。標章表示部49には、シールや印刷により製品タグ等が付される。なお、第2ヘッドバンド44の全体を金属で形成してもよい。
ヘッドパット46は、板状の支持板46aと、支持板46aの一面側に設けられた断面アーチ状の弾性部材46bとを有する。支持板46aの弾性部材46bと反対側の面に、当該面に垂直な姿勢で概略六角柱状の連結ピン41が立設されている。連結ピン41は、第1ヘッドバンド43の一方の先端に設けられた軸受部43dに軸支されている。これにより、ヘッドパット46は連結ピン41回りに回転可能である。
ヘッドパット47は、板状の支持板47aと、支持板47aの一方の面に設けられた断面アーチ状の弾性部材47bとを有する。支持板47aの弾性部材47bと反対側の面には、軸部材47cが設けられている。軸部材47cは、第1ヘッドバンド43の先端に設けられた軸受部43eに軸支されている。これにより、ヘッドパット47は、軸部材47c回りに回転可能である。
この構成により、第2ヘッドバンド44は、回動機構56によって第1ヘッドバンド43から離れる方向に回動付勢される一方、回動機構57によって第1ヘッドバンド43に対して所定角度以内の範囲に回動規制される。これにより、第2ヘッドバンド44は第1ヘッドバンド43に対して所定の角度となるように保持される。したがって、回動機構56、57は、ヘッドバンド40における角度保持機構として機能する。
図5は、本実施形態のリモコンを示す斜視図である。
リモコン140は、筐体140Aと、タッチパッド141と、操作スイッチ147と、USBコネクター142と、インジケーター143a、143b、143cと、取付クリップ144と、インジケータースイッチ150と、を備えている。
リモコン140は、USBケーブル148の一方の端子をUSBコネクター142に接続し、他方の端子を装置本体部21のUSBコネクター25に接続することで、装置本体部21と電気的に接続される。USBケーブル148としては市販のUSBケーブルを用いることができる。本実施形態の場合、USBケーブル148の途中に複数のクリップ149が設けられている。複数のクリップ149は、例えばUSBケーブル148を第2ヘッドバンド44に沿わせた状態で固定するために用いることができる。
リモコン140には、ディスプレイ本体20や他の電子機器と無線通信を行うための通信回路が内蔵されている。通信回路の通信方式としては、例えば、Bluetooth(登録商標)、無線LAN、赤外線通信、UWB(Ultra Wide Band)、Transfer Jetなどを用いることができる。かかる通信回路により、USBケーブル148を接続していなくてもディスプレイ本体20との通信が可能である。
リモコン140には、Gセンサーや加速度センサー、方位センサーが内蔵されていてもよい。これらのセンサーで検出した情報についても、上記した通信回路を介してディスプレイ本体20へ通信可能である。
タッチパッド141は筐体140Aの一方の主面に設けられている。タッチパッド141は、ユーザーがタッチすることによりディスプレイ本体20を操作するための操作部である。タッチパッド141の背面側の筐体140A内部には、装置本体部21のタッチスイッチ34と同様に表示パネルやバックライトが設けられていてもよい。
操作スイッチ147は、リモコン140やディスプレイ本体20を手動操作するためのスイッチである。操作スイッチ147は、必要に応じて設けられていればよい。筐体140Aの側面に設けられたインジケータースイッチ150は、インジケーター143a〜143cを利用した所定動作を行わせるためのスイッチである。
USBコネクター142は、装置本体部21との接続のほか、リモコン140が充電式のバッテリーを内蔵している場合にはリモコン140の充電端子や、PCとの接続にも用いられる。
またリモコン140がバッテリーを内蔵している場合には、装置本体部21への給電端子として用いることもできる。リモコン140のバッテリーを補助電源として使用可能にすることで、装置本体部21のバッテリー容量を小さくでき、装置本体部21を小型軽量化することができる。
インジケーター143a、143b、143cは、タッチパッド141の周囲に配置されている。本実施形態では、タッチパッド141の一辺に沿う位置にインジケーター143aが配置され、インジケーター143aに対してタッチパッド141を挟んだ反対側にインジケーター143bとインジケーター143cとが配置されている。
インジケーター143a〜143cはLED等の発光素子を備えている。本実施形態では、インジケーター143aは緑色の発光素子、インジケーター143bはオレンジ色の発光素子、インジケーター143cは青色の発光素子をそれぞれ備えている。これらの発光素子は制御されたタイミングでパターン発光可能に構成されている。インジケーター143a〜143cの上記パターン発光は、筐体140A側面のインジケータースイッチ150を操作することでオンオフすることができる。
インジケーター143a〜143cのパターン発光は、例えばリモコン140の状態(例えばリモコン140の上下左右の傾き状態)を示すものである。かかるパターン発光を装置本体部21のカメラ64で撮影し、取得した画像を解析することにより、リモコン140の状態を装置本体部21に伝達することが可能である。インジケーター143a〜143cを利用した情報伝達方式は、Bluetooth(登録商標)などの無線通信を用いた場合と比較して電力消費を抑えることができる。
取付クリップ144は、筐体140Aのタッチパッド141と反対側の面に設けられている。本実施形態の場合、取付クリップ144は、一端を筐体140Aに固定された側面視S形のバネ板部材である。取付クリップ144により、リモコン140をユーザーの衣服やベルト等に装着することができる。
図6は、本実施形態のヘッドマウントディスプレイ(以下、HMDと称す)1の機能ブロック図である。
HMD1には、処理部123を中心として種々の電気回路が備えられている。処理部123は、CPU(Central Processing Unit)であり、HMD1の各種回路と接続されるとともに、HMD1を総合的に制御する。
バッテリー33は、電力を電源回路120に供給する。
電源回路120は、バッテリー33から供給された電力を、処理部123の制御によりHMD1の各部に供給する。
本実施形態の場合、処理部123には、エンコーダー129及びデコーダー121、電源回路120、BLドライバ126、操作スイッチ30、フラッシュメモリー122、BT通信回路130、WiFi通信回路131、加速度センサー132、地磁気センサー133、前方ライト68、3G/LTE通信回路138、レーザー発信器73、角速度センサー134、GPSセンサー135、温湿度センサー136、心拍数センサー137、メモリー127、メインスイッチ28、タッチスイッチ34が接続されている。
エンコーダー129は音声信号及び映像信号を所定方式の音声データ及び映像データにエンコード(符号化)する。エンコーダー129には、カメラ64、撮像素子72、集音マイク24、通話マイク37、オーディオコネクター26、ビデオコネクター27が接続されている。
エンコーダー129には、集音マイク24及び通話マイク37から入力される音声信号、カメラ64から入力される映像信号、オーディオコネクター26から入力される音声信号、ビデオコネクター27から入力される映像信号、及び、ユーザーの目元を撮影する撮像素子72の映像信号が入力される。エンコーダー129に入力された音声信号及び映像信号は音声データ及び映像データにエンコードされた後、処理部123に入力される。入力された音声データ及び映像データは、処理部123による再生動作に用いられたり、フラッシュメモリー122に記録される。
デコーダー121は、音声データ及び映像データを音声信号及び映像信号にデコード(復号化)する。デコーダー121には、LCDドライバ125、スピーカーアンプ162、オーディオコネクター26、及びビデオコネクター27が接続されている。LCDドライバ125は液晶パネル用の駆動制御装置であり、表示パネル36及び表示パネル63に接続されている。スピーカーアンプ162は音声信号を増幅してスピーカーに出力する装置であり、耳元スピーカー23及び前方スピーカー70に接続されている。
映像データを再生する場合、フラッシュメモリー122に記録された映像データ、あるいはエンコーダー129から入力される映像データは、処理部123を介してデコーダー121に入力される。デコーダー121に入力された映像データは、映像信号にデコードされた後、LCDドライバ125を介して表示パネル36、63に供給される。そして、映像信号が入力された表示パネル36又は表示パネル63に映像データに基づく映像が表示される。また、デコーダー121からビデオコネクター27に出力される映像信号は、ビデオコネクター27を介して外部機器に出力される。
また映像の表示に際して、処理部123は、必要に応じて表示パネル36用のバックライト35、及び表示パネル63用のバックライト62を点灯させる。BLドライバ126は、バックライト用の駆動制御装置であり、バックライト35及びバックライト62に接続されている。処理部123は、BLドライバ126に駆動信号を送信し、BLドライバ126はバックライト35、62を個々に点灯させる。
音声データを再生する場合、フラッシュメモリー122に記録された音声データ、あるいはエンコーダー129から入力される音声データは、処理部123を介してデコーダー121に入力される。デコーダー121に入力された音声データは、音声信号にデコードされた後、スピーカーアンプ162を介して耳元スピーカー23及び前方スピーカー70のいずれか一方、又は両方に出力される。そして、音声信号を入力された耳元スピーカー23又は前方スピーカー70から音声が出力される。また、デコーダー121からオーディオコネクター26に出力される音声信号は、オーディオコネクター26を介して不図示のステレオイヤホンに出力される。
本実施形態の場合、耳元スピーカー23及び前方スピーカー70は、モノラル音声の使用を想定しており、耳元スピーカー23及び前方スピーカー70からは左右の音声信号が合成された音が発せられる。
一方、図示しないステレオイヤホンに音声信号が出力される場合、左右のスピーカーに、それぞれ左チャンネル又は右チャンネルの音が出力される。
メモリー127には、処理部123によって実行される制御プログラムが記憶されている。
全体の電源のオンオフを行うメインスイッチ28や、画面内でのポインティング操作を行うための操作スイッチ30、あるいはタッチ操作により各種操作を行うタッチスイッチ34がユーザーに操作されると、これらのスイッチから操作に基づく制御信号が処理部123へ出力される。処理部123は、制御信号により操作を検出し、上記の制御プログラムに規定された動作を実行する。
BT通信回路130は、他の機器とのBluetooth(登録商標)通信を行うための通信回路である。WiFi通信回路131は、他の機器との無線LAN通信(IEEE 802.11)を行うための通信回路である。3G/LTE通信回路138は、他の機器との移動通信を行うための通信回路である。
加速度センサー132はHMD1の傾き検出に用いられる。地磁気センサー133はHMD1の方角検出に用いられる。角速度センサー(ジャイロセンサー)134はHMD1の回転検出に用いられる。GPSセンサー135はGPS(Global Positioning System)を利用した測位検出に用いられる。温湿度センサー136は環境の温度、湿度の検出に用いられる。心拍数センサー137はユーザーの頬に接触し、ユーザーの心拍数を検出する。
図7は、本実施形態の処理部123の機能ブロック図である。
図7に示すように、処理部123は、入力検出部301(入力部)、画像切替部302、送受信部303、線画生成部304、カーソル生成部305、アバター選択部306、アバター記憶部307、及び画像合成部308を備えている。なお、図7において、WiFi通信回路131、及び3G/LTE通信回路を総称して、通信インタフェース(131、138)を称する。
入力検出部301は、タッチスイッチ34上で行われた操作の種類を判別し、判別した結果に基づく制御信号を、画像切替部302、送受信部303、アバター選択部306、及び画像合成部308に出力する。タッチスイッチ34上で行われた操作の種類とは、発信の指示、受信の指示、カーソル表示の指示、線画表示の指示等である。入力検出部301は、タッチスイッチ34上の所定の領域がタッチされた場合、タッチされた領域に基づいて、これらの操作の種類を判別する。また、入力検出部301は、カーソル表示時、または線画表示時には、タッチスイッチ34上での指の動きを検出する。
入力検出部301は、カーソル表示の場合、指の動きに応じた位置を示す情報を、カーソル生成部305に出力する。入力検出部301は、線画表示の場合、指の動きに応じた位置を示す情報を、線画生成部304に出力する。
画像切替部302は、入力検出部301が出力した制御信号に基づき、フラッシュメモリー122から読み出した画像データ、またはエンコーダー129が出力した画像データを画像合成部308に出力する。画像切替部302は、送受信部303が出力した受信信号から画像切替信号を抽出する。画像切替部302は、抽出した画像切替信号に基づき、フラッシュメモリー122から読み出した画像データ、またはエンコーダー129が出力した画像データを画像合成部308に出力する。また、画像切替部302は、入力検出部301が出力した制御信号に基づき、エンコーダー129から出力された画像データ、またはフラッシュメモリー122から読み出した画像データの解像度を変換し、変換した画像データを画像合成部308に出力する。
送受信部303は、入力検出部301が出力した制御信号に基づき、画像合成部308が出力した画像データを、通信インタフェース(131、138)を介して送信する。送受信部303は、通信インタフェース(131、138)を介して受信した受信信号を、画像切替部302、線画生成部304、及びカーソル生成部305に出力する。
線画生成部304は、入力検出部301が出力した指の動きに応じた位置を示す情報に基づき、指の動きに応じた軌跡を伴う線画データを生成する。線画生成部304は、生成した線画データを、画像合成部308に出力する。線画生成部304は、送受信部303が出力した受信信号から線画データを抽出し、抽出した線画データを、画像合成部308に出力する。
カーソル生成部305は、入力検出部301が出力した指の動きに応じた位置を示す情報に基づき、指の動きに応じた軌跡を伴わないカーソル画像データを生成する。カーソル生成部305は、生成したカーソル画像データを、画像合成部308に出力する。カーソル生成部305は、送受信部303が出力した受信信号から位置情報を伴うカーソル画像データを抽出し、抽出したカーソル画像データを、画像合成部308に出力する。
アバター選択部306は、入力検出部301が出力した制御信号に基づき、HMD1のユーザーに対して予め設定されているアバター画像データを、アバター記憶部307から読み出す。アバター選択部306は、送受信部303が出力する受信信号から他のユーザーのアバターを示す情報を抽出する。アバター選択部306は、抽出した他のユーザーのアバターを示す情報に基づき、そのユーザーに対応するアバター画像データを、アバター記憶部307から読み出す。
なお、アバターとは、例えば、HMD1のユーザー、及びHMD1と送受信を行っているユーザーの顔等をイラスト化したものである。アバター選択部306は、読み出したアバターを示す画像データを、画像合成部308に出力する。アバター選択部306は、各種センサー(加速度センサー132、地磁気センサー133、角速度センサー134、GPSセンサー135、温湿度センサー136、心拍数センサー137など)の出力に基づき、HMD1が使用されている環境に関する情報である環境情報を、画像合成部308に出力する。
また、アバター選択部306は、送受信部303が出力する受信信号に基づき、各端末を呼び出し中であることを示す各画像情報(以下、呼び出し中の画像情報ともいう)を生成し、生成した呼び出し中の画像情報を、画像合成部308に出力する。
アバター記憶部307には、例えば、予め複数のアバター画像データが記憶されている。
画像合成部308は、画像切替部302が出力した画像データと、線画生成部304が出力した線画データと、カーソル生成部305が出力した位置情報を伴うカーソル画像データと、アバター選択部306が出力したアバターを示す画像データとに基づき、画像を合成する。
画像合成部308は、入力検出部301が出力する制御信号が線画表示の指示(第2モード)の場合、表示パネル63に表示されている映像を一時停止して静止画を生成する。画像切替部302は、生成した静止画の画像データ、アバター選択部306から入力された環境情報を、送受信部303、ビデオコネクター27、及びLCDドライバ125に出力する。
なお、表示パネル63に表示される映像とは、フラッシュメモリー122から読み出した画像データ、またはエンコーダー129が出力した画像データ、送受信部303が出力した受信信号に含まれる他端末からの映像データである。
一時停止して生成する画像の解像度は、映像を送信しているときの解像度より高解像度である。静止画の解像度とは、例えば、横が2500画素、縦が1875画素の画像である。なお、画像合成部308は、一時停止の代わりに、ユーザーが線画を描写している期間、または、線画を用いて説明を行っている期間以上のコマ送りをするようにしてもよい。
画像合成部308は、入力検出部301が出力する制御信号がカーソル表示の指示(第1モード)の場合、表示パネルに表示されている映像を一時停止せず、合成した画像データ、及びアバター選択部306から入力された環境情報を、送受信部303、ビデオコネクター27、及びLCDドライバ125に出力する。
次に、HMD1が、他のユーザーが使用しているヘッドマウントディスプレイ500(以下、HMD500という)、PC210、及びPC220と通信を行う場合の手順について説明する。
図8は、本実施形態に係るヘッドマウントディスプレイ1を含む通信システムのシステム構成図である。図9から図19は、本実施形態に係る処理手順の一例を示すフローチャートである。
図8に示すように、通信システムは、HMD1、HMD500、PC210、PC220、及びサーバー200から構成される。HMD1、HMD500、PC210、PC220、及びサーバー200は、ネットワーク230に接続されている。ネットワーク230は、無線LAN(Local Area Network)、3G回線、LTE回線等を介して接続されているインターネットなどのネットワークである。
図8において、HMD1は、図6で説明した構成であるが、処理手順を説明する上で必要な機能部のみを示している。なお、HMD1の表示パネル63を、以後、LCD63という。
HMD500は、図8に示すように、主にフラッシュメモリー522、処理部523、通信インタフェース(531、538)、地磁気センサー533、タッチスイッチ534、表示パネル(表示部)563(以後、LCD563という)、カメラ564を備えている。HMD500の各機能部は、HMD1の各機能部と同等である。
次に、サーバー200の構成について説明する。
図8に示すように、サーバー200は、処理部201、記憶部202、及び通信インタフェース203を備えている。
サーバー200の処理部201は、各端末(HMD1、HMD500、PC210、及びPC220)から通信インタフェース203を介して受信した画像データ(動画、静止画、線画等)、音声データ、各端末の環境情報、及び各端末からの要求等の通信記録を、記憶部202に記録する。処理部201は、各端末の要求に応じて、記憶部202に記録してある画像データを読み出し、読み出した画像データを、各端末に送信する。
記憶部202には、各端末から受信した画像データ(動画、静止画)、音声データ、各端末の環境情報、及び各端末からの要求等の通信記録が記録されている。
通信インタフェース203は、例えば、WiFi通信回路、3G通信回路、LTE通信回路、有線LAN回路等を備えている。
次に、PC210及びPC220の構成について説明する。PC210及びPC220は、例えば、パーソナルコンピュータである。
PC210は、処理部211、記憶部212、通信インタフェース213、入力部214、表示部215、及びカメラ216を備えている。
PC220は、処理部221、記憶部222、通信インタフェース223、入力部224、表示部225、及びカメラ226を備えている。PC220の各機能部は、PC210の各機能部と同等である。
PC210の処理部211は、CPU(中央演算装置)及びGPU(Graphics Processing Unit)等である。処理部211は、通信インタフェース213、入力部214、表示部215、及びカメラ216を制御する。処理部211は、記憶部212に記憶されている画像データ、通信インタフェース213を介して取得した画像データ、カメラ216で撮像された画像データを、後述するように通信インタフェース213介して取得した画像切替信号に基づいて切り替える。処理部211は、切り替えた画像データを通信インタフェース213及びネットワーク230に出力する。処理部211は、記憶部212に記憶されているPC210に対応付けて記憶されているアバター画像データと、通信インタフェース223を介して取得した他の装置のアバター画像データ、および画像切替信号に基づいて切り替えた画像データを合成する。処理部211は、合成した画像データを表示部215に出力する。処理部211は、入力部214の操作に基づき、表示部215上に、カーソル画像、または線画画像を表示するように制御する。処理部211は、通信インタフェース213を介して取得した受信情報に基づき、表示部215上に、カーソル画像、または線画画像を表示するように制御する。
なお、以下、各装置に対応したアバターを、例えば、PC210のアバターという。
記憶部212は、例えば、メモリー、HDD(ハードディスク)である。記憶部212には、PC210のOS(オペレーション・システム)、HMD1、HMD500及びPC220と通信を行うためのアプリケーション、PC210のユーザーに対して予め設定されているアバター画像データ等が記憶されている。
通信インタフェース213は、例えば、無線LAN、または有線LAN、3G回線、LTE回線等の通信を行うインタフェースである。通信インタフェース213は、ネットワーク230を介して受信した情報を処理部211に出力する。通信インタフェース213は、処理部211が出力した情報を、ネットワーク230を介して、HMD1、HMD500、PC220、及びサーバー200に送信する。
入力部214は、例えば、キーボード、マウス、タブレットと操作ペン等である。入力部214は、入力された情報を、処理部211に出力する。なお、表示部215がタッチパネル機能を有する場合、表示部215は入力部214の機能を兼ねるようにしてもよい。
表示部215は、処理部211が出力した画像データに基づく画像を表示する。
一例として、表示部215には、HMD1が撮像した画像、HMD1のアバター、HMD500のアバター、PC220のアバター、PC210の入力部214の操作に応じた線画画像が合成されて表示される。
カメラ216は、例えば500万画素〜1000万画素の撮像素子を有するCMOS(相補型金属酸化膜半導体)、またはCCD(Charge Coupled Device)である。
次にHMD1、HMD500、PC210、及びPC220間で行う通信手順について説明する。なお、図9〜図19の処理において、各端末(HMD1、HMD500、PC210、PC220、及びサーバー200)は、各々の通信インタフェース(131、138、531、538、213、223、及び203)とネットワーク230を介して、通信を行う。
まず、HMD1から他の端末に発信する手順について説明する。
(ステップS1)図9に示すように、HMD1のユーザーは、HMD500、PC210、PC220と通信を行うため、HMD1のタッチスイッチ34を操作する。HMD1の処理部123は、タッチスイッチ34が出力した制御信号に基づき、HMD500、PC210、PC220に通信を開始することを示す発信操作を行う。
(ステップS2)HMD1の処理部123は、HMD1のアバター、HMD500のアバター、PC210のアバター、及びPC220のアバターに、アバター付加情報を付加して、LCD63に表示する。
なお、HMD1のLCD63に表示される画像は、受信した映像と、アバター(含むアバター付加情報)とが、別のレイヤー(層)に表示される。
具体的には、処理部123のアバター選択部306は、HMD1のアバター画像データ、HMD500のアバター画像データ、PC210のアバター画像データ、及びPC220のアバター画像データを、アバター記憶部307から読み出す。次に、アバター選択部306は、送受信部303が出力する受信信号に基づき、HMD500、PC210、及びPC220の各端末に対する呼び出し中の画像情報を生成する。次に、アバター選択部306は、読み出した各アバター画像データ、及び生成した呼び出し中の画像情報を関連付けて画像合成部308に出力する。次に、画像合成部308は、アバター選択部306が出力した画像データを、LCDドライバ125を介して、LCD63に表示する。すなわち、HMD1のLCD63には、HMD1のアバター、HMD500のアバターと呼び出し中の画像、PC210のアバターと呼び出し中の画像、及びPC220のアバターと呼び出し中の画像が表示される。
なお、表示されるアバターは、予めHMD1のユーザーが設定されたもの、もしくはデフォルトであらかじめ設定されたものである。
以下の処理においても、アバター及び、アバター付加情報の表示を処理部123の各部が行う。
次に、HMD500の処理部523は、受信した受信信号から、呼び出し情報を抽出する。次に、処理部523は、抽出した呼び出し情報に基づき、処理部523の記憶部からHMD1のアバター画像データを読み出す。次に、処理部221は、抽出した呼び出し情報に基づき、呼び出し中の画像情報を生成する。次に、処理部523は、読み出したHMD1のアバター画像データ、及び生成した呼び出し中の画像情報に基づく画像を、LCD563に表示する。
次に、PC210の処理部211は、受信した受信信号から、呼び出し情報を抽出する。次に、処理部211は、抽出した呼び出し情報に基づき、記憶部212からHMD1のアバター画像データを読み出す。次に、処理部211は、抽出した呼び出し情報に基づき、呼び出し中を示す画像情報を生成する。次に、処理部211は、読み出したHMD1のアバター画像データ、及び生成した呼び出し中を示す画像情報に基づく画像を、表示部215に表示する。
次に、PC220の処理部221は、PC210と同様の処理を行い、記憶部222から読み出たHMD1のアバター画像データ、及び生成した呼び出し中を示す画像情報に基づく画像を、表示部225に表示する。
次に、サーバー200の処理部201は、受信した受信信号から、呼び出し情報を抽出する。次に、処理部201は、抽出した呼び出し情報に基づき、HMD1からの呼び出しがあったことを示す呼び出し情報を、例えば時刻情報と関連付けて、記憶部202に記録する。
(ステップS3)HMD1の処理部123は、カメラ64が撮像した映像(動画)をLCD63に表示するように制御する。
(ステップS4)PC210のユーザーは、表示部215に表示された呼び出し中を示す画像を確認し、入力部214を操作して、通話に参加する。PC210の処理部211は、入力部214から入力された情報に基づき、通話に参加することを示す情報(以下、通話参加情報という)を、HMD1、HMD500、PC220、及びサーバー200に送信する。次に、処理部211は、表示部215上に、HMD1のアバター、及びPC210のアバターを表示する。
(ステップS5)HMD1の処理部123は、PC210から受信した通話参加情報に基づき、PC210に対する呼び出し中であることを示す画像情報を、LCD63から消去する。
次に、サーバー200の処理部201は、PC210から受信した通話参加情報に基づき、PC210が通話に参加していることを示す情報を記憶部202に記録する。
(ステップS6)HMD500のユーザーは、LCD563に表示された呼び出し中を示す画像を確認し、タッチスイッチ534を操作して、通話に参加する。なお、この状態において、LCD563上には、HMD1のアバター、及びHMD500のアバターが表示されている。次に、HMD500の処理部523は、タッチスイッチ534から出力された制御信号に基づき、通話参加情報を、HMD1、PC210、及びサーバー200に送信する。
(ステップS7)HMD500の処理部523は、LCD563にPC210のアバターを追加して表示する。
次に、HMD1の処理部123は、HMD500から受信した通話参加情報に基づき、HMD500に対する呼び出し中であることを示す画像情報を、LCD63から消去する。
次に、PC210の処理部211は、HMD500から受信した通話参加情報に基づき、HMD500のアバターを表示部215に表示する。
次に、サーバー200の処理部201は、HMD500から受信した通話参加情報に基づき、HMD500が通話に参加していることを示す情報を記憶部202に記録する。
ここで、各端末(HMD1、HMD500、PC210、及びPC220)のLCD(63、563)、表示部(215、225)に2つ以上のアバターが表示される場合、各端末の処理部(123、523、211、及び221)は、アバターの表示を、環境情報から経度を算出する。そして、各端末の処理部は、最も東に位置する端末のアバターより右側から順に横に表示するようにしてもよい。
図20は、本実施形態に係るアバターの表示例を示す図である。図20に示した例は、3者が通話に参加している例である。図20に示すように、例えば、HMD1のLCD63上には、画像400が表示される。画像400は、左から順番に、PC220のアバター401、PC210のアバター402、HMD500のアバター403が、画像400の下に表示された例である。図20に示した画像400の例では、HMD500の位置情報が一番、東であったため、HMD500のアバター403が、一番右に表示されている。
されに3者で会話がなされた場合、各端末の各処理部は、右のアバターに対応する発話者の音声が、右から聞こえるように制御してもよい。すなわち右耳用のスピーカーの方が、左用のスピーカーよりも大きな音が聞こえる。また、各端末の各処理部は、左のアバターの音声が、逆に左側から聞こえるように、左耳用のスピーカーの方がより大きな音を再生するようにしてもよい。このことで、視覚的にも聴覚的にも会話をしている相手の位置を把握できることで、コミュニケーションのしやすい環境を提供している。
なお、本実施形態では、アバターを横に並べて表示する例を説明したが、アバターを縦に並べて表示するようにしてもよい。アバターを上下に表示する場合には、各端末の各処理部は、緯度に従って、北に位置する端末のアバターより上から順に縦に、表示するようにしてもよい。
この場合、各端末の各処理部は、上に配置されたアバターからの音声は右側から、下側のアバターからの音声は左側から聞こえるように制御するようにしてもよい。または、各端末の各処理部は、上に配置されたアバターに対応する発話者の音声が上から、下に配置されたアバターに対応する発話者の音声が、下から聞こえるように、音響特性を変えてもよい。
また、各端末に位置情報の取得手段がない場合、各端末の各処理部は、相手端末のIPアドレスや電話の局番に応じた位置情報を代用するようにしてもよい。相手端末のIPアドレスや電話の局番に応じた位置情報を代用できない場合、各端末の各処理部は、通話に参加した時間順に、各アバターの位置を設定するようにしてもよい。
さらに、各端末の各処理部は、各端末の使用者が発話すると、対応するアバターの口も動くように制御してもよい。
このことで、視覚的にも発話者の認識ができるので、各端末のユーザーは、情報が理解しやすくなるとともに、似た声質の発話者をご認識することも無くなる。
次に、HMD1によって撮影された映像を、他の端末に送信する手順を説明する。
(ステップS8)図8に戻って、HMD1のユーザーは、カメラ64が撮像した映像を他の端末に送信するために、タッチスイッチ34の所定の領域をタッチする。なお、送信される映像は、初期状態において低解像度に予め設定されている。低解像度とは、例えば、横が320画素、縦が240画素、1秒あたり30フレームである。なお、低解像度の映像を送信する理由は、限られた、通信インフラの整わない、転送速度の遅いネットワーク環境においても、HMD1のユーザーの首の動きによる映像のブレ等があっても、ある程度追従する画像を送信するためである。
(ステップS9)図10に移って、HMD1の処理部123の画像切替部302は、タッチスイッチ34から入力された制御信号に基づき、カメラ64が撮像した画像を低解像度に変換する。処理部123は、変換した低解像度の映像信号、及びHMD1の環境情報を、通話に参加しているHMD500、PC210、及びサーバー200に送信する。
(ステップS10)各端末(HMD500、及びPC210)の各処理部(523、及び211)は、HMD1から受信した環境情報に基づき、HMD1のカメラ64が向いている方向(方位)を算出する。各処理部は、算出した方位と、HMD1から受信した映像信号を、LCD563、表示部215に表示する。
サーバー200の処理部201は、HMD1から受信した環境情報に基づき、HMD1のカメラ64が向いている方向(方位)を算出する。処理部201は、算出した方位と、HMD1から受信した映像データを記憶部202に記録する。
(ステップS11)端末HMD1の処理部123は、ステップS4及びS6の通話参加情報に基づき、PC210、及びHMD500との3者通話を開始する。
次に、HMD500の処理部523は、ステップS1、及びS4に基づき、HMD1、及びPC210との3者通話を開始する。
次に、PC210の処理部211は、ステップS1、及びS6に基づき、HMD1、及びHMD500との3者通話を開始する。
次に、サーバー200の処理部201は、ステップS1、S4、及びS6に基づき、3者通話の内容(音声データ、映像データ)の記録を開始する。
(ステップS12)HMD1のユーザーは、カメラ64で撮像された映像の特定の箇所を、通話に参加しているユーザーに示すために、タッチスイッチ34上で予め定められている指の動作を行う。なお、タッチスイッチ34を操作する代わりに、HMD1のユーザーは、例えば2回続けて瞬ききをしても良い。このことはHMD1の撮像素子72によって検出され、タッチスイッチ34への操作と同等として処理される。
(ステップS13)HMD1の処理部123の画像切替部302は、タッチスイッチ34から入力された制御信号に基づき、カメラ64が撮像した映像信号を中解像度に変換する。
次に、処理部123は、変換した中解像度の映像データ、及び環境情報を通話に参加しているHMD500、PC210、及びサーバー200に送信する。なお、中解像度の映像とは、例えば、横が800画素、縦が600画素である。中解像度の映像を送信する場合、HMD1のユーザーは、他の端末のユーザーに対して、映像を送信することを目的としているため、HMDを装着しているユーザーの首の動きが少なく、すなわち、カメラ64のブレが少ない。このため、処理部123は、ステップS9で設定した低解像度から解像度を中解像度に上げて、他のユーザーが見やすい映像を送信することを目的として、中解像度の映像に切り替える。
なお、通信インフラの環境が悪く、解像度を横が800画素、縦が600画素、30フレーム/秒で送信するだけの通信速度の確保が難しい場合、処理部123は、カメラのブレが少ないと判断されるこの状況において、フレームレートを落とし、例えば8フレーム/秒としてもよい。
また、HMD1の角速度センサー134によって使用者の首の回転が大きいと判断される場合、処理部123は、首の回転による映像の流れに追従するためにフレームレートを30フレーム/秒に保持すると共に、解像度を横が320画素、縦が240画素として送信するようにしてもよい。
(ステップS14)HMD1の処理部123は、タッチスイッチ34から入力された制御信号に基づいて、ユーザーの指の動きに合わせて、図22に示すような水色のカーソル410の画像を、LCD63に表示する。なお、各端末(HMD1、HMD500、及びPC210)のLCD(63、563)、表示部215に表示される画像は、受信した映像と、カーソル画像とが、別のレイヤー(層)に表示、及び記録される。
具体的には、処理部123のカーソル生成部305は、入力検出部301から出力された制御信号に基づいて、カーソル画像データ、及びカーソル位置情報を生成する。カーソル生成部305は、生成したカーソル画像データ、及びカーソル位置情報を、画像合成部308に出力する。画像合成部308は、入力されたカーソル画像データ、及びカーソル位置情報に基づいて、カメラ64が撮像した画像、または通信インタフェース(131、138)を介して他の端末から受信した画像に、カーソルの画像を重畳して、重畳した画像をLCD63に表示する。
以下の処理においても、カーソル画像の表示を処理部123の各部が行う。
図21は、本実施形態に係るLCDまたは表示部に表示される画像の構成の一例を説明する図である。図21に示した例では、レイヤー1(800A)には、受信または送信している画像(映像、または静止画)が表示される。レイヤー2(800B)には、アバターが表示される。レイヤー3(800C)には、HMD1によるカーソル画像が表示され、レイヤー4(800D)には、HMD500による線画が表示され、レイヤー5(800E)には、PC210による線画が表示される。また、各端末(含むサーバー)のフラッシュメモリー(122、522)、記憶部(212、221、及び202)にも、画像は、図21に示したレイヤー構成の画像が、記録される。なお、図21に示したレイヤーの例は一例であり、レイヤーの順番は、この順でなくてもよく、例えば、操作された順にレイヤーに表示するようにしてもよい。
図22は、本実施形態に係るカーソルが表示された画像の一例である。図22に示すように、例えば、各端末(HMD1、HMD500、PC210、及びPC220)のLCD(63、563)、表示部(215、225)には、画像400aにおいて、指が指し示している形状のカーソル410が表示される。なお、カーソルの形状は、一例であり、他の形状であってもよい。図22に示した例では、HMD1のユーザーは、画像400a中、値札411を、カーソル410で、指し示している状態である。
なお、HMD1から送信されている画像が動画であるため、HMD1のユーザーが首を動かしてしまうと、送信している映像もずれる。このため、HMD1のユーザーは、カーソルの指し示す位置を変えるために、カーソルの位置を変える場合もある。このため、各装置のLCD、及び表示部に、軌跡の残らないカーソルを表示する。
なお、カーソルの色は、端末毎に、予め定めておくようにしてもよい。本実施例では、HMD1のカーソルが水色、PC210のカーソルが緑、HMD500のカーソルが青に定められている。このように各端末に応じて、カーソルが色分けされるので、コミュニケーションにおけるミスが発生しにくいようになっている。
次に、処理部123は、カーソルを表示する位置情報、カーソルの色情報を、HMD500、PC210、及びサーバー200に送信する。
次に、HMD500の処理部523は、受信したカーソルを表示する位置情報、カーソルの色情報に基づき、LCD563上に水色のカーソルの画像を表示する。なお、処理部523は、予め端末毎にカーソルの表示色を定めておくようにしてもよい。この場合、処理部523は、カーソルを表示する位置情報のみを取得し、送信元がHMD1であるため水色のカーソルを表示するようにしてもよい。
次に、PC210の処理部211は、受信したカーソルを表示する位置情報、カーソルの色情報に基づき、表示部225上に水色のカーソルの画像を表示する。
次に、サーバー200の処理部201は、受信したカーソルを表示する位置情報に基づき、HMD1のカーソルの位置情報を記憶部202に記録する。
次に、PC210が、受信した映像を一時停止させ、一時停止させた画像上に線画を描く手順について説明する。
(ステップS15)図11に移って、PC210ユーザーは、表示部215上にPC210のカーソル画像が表示されるように、入力部214のマウスを操作する。次に、PC210のユーザーは、静止画を見たいとき、マウスをクリックする。
(ステップS16)PC210の処理部211は、入力部214から入力された情報に基づき、受信している映像を一時停止する。次に、処理部211は、一時停止した静止画を、記憶部212に記録し、さらにHMD1、HMD500、及びサーバー200に送信する。
映像を一時停止する理由は、通信環境によってはHMD1から配信される映像が特定の端末では遅延して表示されていることも想定されるためである。このため、静止画を重畳するには、すべての端末で同じ静止画が表示される必要がある。一時停止した画像を送信することにより、全ての端末で同じ静止画を観察することが可能となる。また、各端末は、静止画に各々線画を重畳しても、線画と静止画との関係が全ての端末で同じになるので、コミュニケーションのミスを減らすことが可能である。
通信速度が十分に早いことが判っている環境においては、ステップS15におけるPC210の操作に対応して、各端末が映像を、一時停止して静止画として表示してもよい。
また、一時停止の操作は、PC210によって行われている例を示しているが、映像の発信元であるHMD1からでも、HMD1と同じ構成要素を有し受信を行っているHMD500からでも可能である。例えば、HMD1から静止画が配信される場合、HMD1のLCD63に表示されている映像の一コマが配信される。
(ステップS17)HMD1の処理部123は、PC210から送信された静止画データを受信し、受信した静止画データをHMD1のフラッシュメモリー122に記録する。
次に、HMD500の処理部523は、PC210から送信された静止画データを受信し、受信した静止画データをHMD500のフラッシュメモリー522に記録する。
次に、サーバー200の処理部201は、PC210から送信された静止画データを受信し、受信した静止画データを記憶部202に記録する。
(ステップS18)PC210のユーザーは、静止画上に線画を表示させるために、例えば、マウスをクリックしたまま、カーソルを表示部225内で移動させることで線画を描く。このとき、表示部225には、例えば、鉛筆のような形状のカーソルが表示されているようにしてもよい。
次に、PC210の処理部211は、入力部214から入力された情報に基づき、緑色の軌跡を伴った線画を、表示部225上に表示する。次に、処理部211は、カーソルの位置情報を、順次、記憶部212に記録する。次に、処理部211は、カーソルの位置情報を、順次、HMD1、HMD500、及びサーバー200に送信する。
なお、PC210による線画の色は、端末毎に予め定めておいてもよく、あるいは、色情報をPC210から他の端末へ送信するようにしてもよい。
具体的には、処理部123の線画生成部304は、入力検出部301から出力された制御信号に基づいて、線画データを生成する。線画生成部304は、生成した線画データを、画像合成部308に出力する。画像合成部308は、カメラ64が撮像した画像データ、または通信インタフェース(131、138)を介して他の端末から受信した画像データに、入力された線画データを重畳して、重畳した画像データに基づく画像を、LCD63に表示する。
以下の処理においても、線画の表示を処理部123の各部が行う。
(ステップS19)HMD1の処理部123は、受信したカーソルの位置情報に基づき、LCD63上に、緑色の線画を表示する。次に、処理部123は、カーソルの位置情報に基づき線画データを生成し、生成した線画データを、フラッシュメモリー122に記録する。
次に、HMD500の処理部523は、通受信したカーソルの位置情報に基づき、LCD563上に、緑色の線画を表示する。次に、処理部523は、カーソルの位置情報に基づき線画データを生成し、生成した線画データを、フラッシュメモリー522に記録する。
次に、サーバー200の処理部201は、受信したカーソルの位置情報に基づき、線画データを生成し、生成した線画データを、記憶部202に記録する。
図23は、本実施形態に係る線画の一例である。図23に示した例では、画像400bに、矢印421a、及び文字「OK!」421bが表示されている。この矢印421a、及び文字421bは、PC210のユーザーが、マウスを用いて描写した線画である。また、図23は、例えば、図22において、HMD1のユーザーが、他の端末のユーザーに対して値札411をカーソル410で指し示したが、PC210のユーザーが話題にしたいのは、矢印421aが指し示す先の値札422であることを示している。
このように、線画をカメラ映像に重畳して描画する際には、カメラ映像は静止画であることが望ましい。すなわち、PC210のユーザーの意図に反して、HMD1のユーザーが首を動かしてしまうと、画像が動いてしまい、線画で指し示す被写体の位置が画面上で相対的にずれてしまうからである。しかしながら、静止画が表示されていれば、画像に線画を重畳していっても画像と線画が相対的にずれることはない。このため、HMD1のユーザーが首を動かないように、静止している必要はなく、使いやすいシステムが提供できる。
なお、線画と静止画とは別のレイヤーに記録されており、いつでも線画のみ消去することは可能である。
また、PC210のみではなく、全ての端末は、線画の描画と同時に動画が静止画することが可能である。
次に、画像に重畳されるグリッドを変更する手順を説明する。
(ステップS20)図11に戻って、PC210のユーザーは、入力部214を用いてグリッドの種類を選択する。PC210の処理部211は、入力部214から入力された信号に基づき、選択されたグリッドの種類を示す情報を、HMD1、HMD5、及びサーバー200に送信する。グリッドを表示している理由は、例えば、PC210のユーザーは、画像中の特定の領域について説明を行うためである。
図24は、本実施形態に係るグリッドの一例を示す図である。図25は、本実施形態に係るグリッドの他の例を示す図である。
図24に示した例では、画像400cにおいて、縦線と横線による升目状のグリッド431が表示されている例である。図25に示した例では、画像400dにおいて、縦線と横線、及び同心円によるグリッド441が表示されている例である。なお、図24及び図25において、グリッドを実線で示したが、グリッドは、点線、破線等であってもよい。
このように、PC210のユーザーが、グリッドを変更した場合、他の端末に変更したグリッドの情報を送信する理由は、ユーザーの端末毎にグリッドが異なってしまうとコミュニケーションミスを防ぐためである。
なお、図24、及び図25に示したグリッドは1例であって、他のグリッドを表示するようにしてもよい。また、各端末のLCD、または表示部に表示されるグリッドは、動画や静止画とは別のレイヤーに表示される。
(ステップS21)PC210の処理部211は、選択されたグリッドに表示を変更する。
次に、HMD1の処理部123は、受信した信号に基づいて、選択されたグリッドに表示を変更する。
次に、HMD5の処理部523は、受信した信号に基づいて、選択されたグリッドに表示を変更する。
次に、サーバー200の処理部201は、受信した信号に基づいて、グリッドの変更を記録する。
次に、途中からPC220が通話に参加した場合の処理手順について説明する。
(ステップS22)図12に移って、PC220のユーザーは、表示部225に表示された呼び出し中を示す画像を確認し、入力部224を操作して、通話に参加する。PC220の処理部221は、入力部224から入力された情報に基づき、通話参加情報を、サーバー200に送信する。
次に、処理部221は、表示部225にPC220のアバターを表示するように制御する。
(ステップS23)サーバー200の処理部201は、PC220から受信した通話参加情報に基づいて、HMD1、HMD500、PC210、及びPC220に対して、PC220の通話参加処理を行う。具体的には、処理部201は、PC220に他のLCD及び表示部に表示されている画像(含む線画、カーソル、グリッド)と同じ画像データを送信する。処理部221は、HMD1、HMD500、及びPC210に、PC220が通話参加したことを示す情報と、PC220のアバターを表示する指示を送信する。処理部201は、PC220に、HMD1、HMD500、及びPC210のアバターを表示する指示を送信する。
次に、処理部201は、PC220が通話に参加したことを示す情報を、記憶部202に記録する。
(ステップS24)PC220の処理部221は、サーバー200から受信した画像データに基づく画像を、表示部225に表示する。
(ステップS25)HMD1の処理部123は、サーバー200から受信したPC220のアバターを表示する指示に基づいて、LCD63上にPC220のアバターを追加して表示し、PC220に対する呼び出し中であることを示す画像情報を消去する。
次に、HMD500の処理部523は、サーバー200から受信したPC220のアバターを表示する指示に基づいて、LCD563上にPC220のアバターを追加して表示する。
次に、PC210の処理部211は、サーバー200から受信したPC220のアバターを表示する指示に基づいて、表示部215上にPC220のアバターを追加して表示する。
次に、PC220の処理部221は、サーバー200から受信したHMD1、HMD500、及びPC210のアバターを表示する指示に基づいて、表示部225上にHMD1、HMD500、及びPC210のアバターを追加して表示する。
なお、ここで各端末のLCD、表示部に表示されるアバターの表示は、PC220の参加に伴い、各端末の所在地に応じて、右から東経に応じて東に位置する端末より右よりに再度表示し直されるようにしてもよい。
次に、異なる端末がカーソルや線画を共通の画像上に表示する手順について説明する。
(ステップS26)HMD500のユーザーは、線画を描写するために、タッチスイッチ534上で予め定められている指の動作を行う。HMD500の処理部523は、タッチスイッチ534から入力された制御信号に基づいて、HMD500による線画を表示する指示を、HMD1、PC210、PC220、及びサーバー200に送信する。
(ステップS27)各端末(HMD1、PC210、及びPC220)の処理部(123、211、及び221)は、HMD500から受信した受信信号に基づいて、LCD63、表示部(215、225)上に、赤色の線画を表示する。HMD500の処理部523は、タッチスイッチ534から入力された制御信号に基づいて、LCD563上に、赤色の線画を表示する。すなわち、PC210の線画(緑色)とは、異なる色で表示する。
次に、各端末の処理部は、HMD500から受信した受信信号に基づいて、カーソルの位置情報を、順次、フラッシュメモリー122、記憶部(212、222、202)に記録する。HDM500の処理部523は、タッチスイッチ534から入力された制御信号に基づいて、カーソルの位置情報を、順次、フラッシュメモリー522、記憶部(212、222、202)に記録する。
または、各処理部(123、523、211、221、及び201)は、HMD500のユーザーが描写した線画の画像データをフラッシュメモリー(122、522)、記憶部(212、222、202)に記録する。
なお、各端末のLCD(63、563)、表示部(215、225)には、ステップS16で、PC210により一時停止された画像に、HMD500のユーザーが、タッチスイッチ534で指を動かして描写した線画が重畳されて表示される。
また、HMD500による線画は、送信された画像、及び他の端末が描写した線画と異なるレイヤー情報として、各端末、サーバーに記憶される。
(ステップS28)HMD1のユーザーは、線画を描写するために、タッチスイッチ34上で予め定められている指の動作を行う。HMD1の処理部123は、HMD1による線画を表示する指示を、HMD500、PC210、PC220、及びサーバー200に送信する。
(ステップS29)各端末の処理部(523,211、及び221)は、HMD1から受信した受信信号に基づいて、LCD563、表示部(215、225)上に、青色の線画を表示する。HMD1の処理部123は、タッチスイッチ34から入力された制御信号に基づいて、LCD63上に、青色の線画を表示する。
次に、各端末の処理部(523、211、221、及び201)は、HMD1から受信した受信信号に基づいて、カーソルの位置情報を、順次、フラッシュメモリー522、記憶部(212、222、202)に記録する。HMD1の処理部123は、タッチスイッチ34から入力された制御信号に基づいて、カーソルの位置情報を、順次、フラッシュメモリー122に記録する。または、処理部(123、523、211、221、及び201)は、HMD1のユーザーが描写した線画の画像データをフラッシュメモリー(122、522)、記憶部(212、222、202)に記録する。
なお、各端末のLCD(63、563)、表示部(215、225)には、ステップS16で、PC210により一時停止された画像に、ステップS18でPC210が描写した緑色の線画、並びにステップS26でHMD500が描画した赤色の線画が、重畳されて表示される。
HMD1による線画を青色(R:0、G:0、B:255)にする理由は、カーソルを水色(R:100、G:100、B:255)で表示したため、同系色で表示することで、どのユーザーが捜査しているかを視覚的にわかりやすくするためである。
次に、他の端末のユーザーの要望によって別の端末の映像を要望された場合、映像が静止画として撮影されて画像情報が共有される場合の処理手順について説明する。
(ステップS30)図13に移って、例えば、HMD500のユーザーが、HMD500の通話マイクを介して、HMD1のカメラ64で撮像された映像の送信を要求する。
次に、HMD1のユーザーは、HMD500のユーザーの要求に応じて、カメラ64が撮像した映像を低解像度で、他の端末に送信するために、タッチスイッチ34の所定の領域をタッチする。なお、初期設定では、映像の送信時の解像度が、低解像度に設定されているが、タッチスイッチ34の操作により、解像度を変更することも可能である。
(ステップS31)HMD1の処理部123は、ステップS29まで表示されていた画像を消去し、LCD63にカメラ64が撮像した画像を表示する。
(ステップS32)HMD1の処理部123は、タッチスイッチ34から出力された制御信号に基づき、カメラ64が撮像した映像を低解像度に変換する。処理部123は、変換した低解像度の映像データ、及びHMD1の環境情報を、通話に参加しているHMD500、PC210、PC220及びサーバー200に送信する。
(ステップS33)各端末(HMD500、PC210、及びPC220)の処理部(523、211、及び221)は、HMD1から受信した受信信号に基づいて、LCD563、表示部(215、225)に表示されていた画像と線画の表示を消す。
(ステップS34)各端末(HMD500、PC210、及びPC220)の処理部(523、211、及び221)は、HMD1から受信した受信信号に基づいて、LCD563、表示部(215、225)にHMD1から受信した低解像度の映像データに基づく映像を表示する。
次に、サーバー200の処理部201は、HMD1から受信した受信信号に基づいて、HMD1から受信した低解像度の映像データを、記憶部202に記録する。
(ステップS35)HMD500のユーザーは、HMD1に詳細な画像を見るために高解像度の静止画を送信する要求を行うために、タッチスイッチ534の所定の領域をタッチする。次に、HMD500の処理部523は、タッチスイッチ534から入力された制御信号に基づいて、高解像度の静止画を送信する要求を、HMD1に送信する。
(ステップS36)HMD1の処理部123は、HMD500から受信した高解像度の静止画を送信する要求を示す情報を、LCD63に表示する。なお、高解像度の静止画とは、例えば、横が2500画素、縦が1875画素の画像である。
(ステップS37)HMD1の処理部123は、HMD500からの受信信号に基づいて、例えば、HMD1の前方が暗い場合、照明のため前方ライト68を点灯する。
(ステップS38)図15に移って、HMD1の処理部123は、HMD500からの受信信号に基づいて自動的にカメラ64が撮像した高解像度の静止画データを環境情報と合わせて、HMD500、PC210、PC220、及びサーバー200に送信する。
(ステップS39)各端末(HMD500、PC210、及びPC220)の処理部(523、211、及び221)は、HMD1から受信した受信信号に基づいて、LCD563、表示部(215、225)にHMD1から受信した高解像度の静止画と環境情報に基づいた情報を表示する。
次に、サーバー200の処理部201は、HMD1から受信した受信信号に基づいて、HMD1から受信した高解像度の静止画を、記憶部202に記録する。
このように、動画での配信が難しい高解像度の映像は、他の端末からの操作に応じて高精細に撮影され、静止画として各端末に配信される。このことで、HMD1が使用されている環境の分析が他者より容易に行うことが可能である。
(ステップS40)PC210のユーザーは、入力部214を操作して、HMD1から受信した静止画を表示部215で拡大表示する。PC210の処理部211は、入力部214から入力された制御信号に基づいて、表示画像を拡大する指示を、HMD1、HMD500、PC220、及びサーバー200に送信する。
(ステップS41)各端末(HMD1、HMD500、及びPC220)の処理部(123、523、及び221)は、PC210から受信した受信信号に基づいて、LCD(63、563)、表示部225上の画像を拡大表示する。
次に、サーバー200の処理部201は、PC210から受信した受信信号に基づいて、拡大された画像データと、画像が拡大されたことを示す情報を記憶部202に記録する。
このように、HMD1から高解像度の静止画データが送られているので、拡大しても画質が劣化することのない画像が各端末に表示される。そして、この高解像度の静止画を一台の端末の操作だけで各端末の画像が自動的に拡大でき、この画像に対して詳細なコミュニケーションを行うことが可能である。
次に、中解像度の映像を送信する処理について説明する。
(ステップS42)HMD500のユーザーは、HMD1に中解像度の映像を送信してもらう要求を行うために、タッチスイッチ534の所定の領域をタッチする。次に、HMD500の処理部523は、タッチスイッチ534から入力された制御信号に基づいて、中解像度の映像を送信する要求を、HMD1に送信する。
この場合、HMD1のLCD63には、中解像度の映像を要望されている旨の表示がなされる。または、音声通話により要求が送信されるようにしてもよい。この要求に応じる場合、HMD1のユーザーは、画像がブレないようにする必要がある。すなわち、HMD1のユーザーは、あまり首を動かさないように、安定して被写体に対してカメラを向けることが要望されていることが分かる。
このように、各端末のユーザーは、各端末からの映像の要求のレベル(静止画か動画か)が判る。このため、各端末のユーザーは、どのようにしてカメラ64を被写体に対して向ければ良いかがユーザーが分かるため、使いやすいシステムとなっている。
このように、中解像度の映像を送信できるのは、HMD1のユーザーが、比較的安定して被写体に対してカメラ64を向けていられる状態に限られる。このため、中解像度の映像の送信が好ましくないと判断した場合、HMD1のユーザーは、別途音声などによってこれを断ってもよい。このように、HMD1のユーザーの了解を得ることで、HMD1のユーザーがいる環境の画像をそのまま送信することを防ぐこともできる。すなわち、HMD1のユーザーの了解を得ることで、HMD1のユーザーのプライバシーを保護することもできる。
なお、HMD1のユーザーが中解像度の映像の送信を承認したとしても、実際に同ユーザーが移動している最中などで、カメラ64のブレが激しい場合もあるため、HMD1の処理部123は、角速度センサー134によって送信する映像の解像度を設定するようにしてもよい。例えば、角速度センサー134の出力が予め定められている値より大きい場合、HMD1の処理部123は、中解像度の要望が来ても、低解像度かつ高フレームレートで送信を行ってもよい。
(ステップS43)HMD1の処理部123は、HMD500から受信した中解像度の映像を送信する要求を示す情報を、LCD63に表示する。次に、HMD1のユーザーは、LCD63の表示を確認し、HMD500からの要求を承諾するために、タッチスイッチ34の所定の領域をタッチする。
(ステップS44)HMD1の処理部123は、カメラ64が撮像した中解像度の映像データを環境情報と合わせて、HMD500、PC210、PC220、及びサーバー200に送信する。
次に、一つの端末が、別の端末からの画像に対して情報を付加して、完成した状態で他の端末に配信する手順を説明する。
(ステップS45)各端末(HMD500、PC210、及びPC220)の処理部(523、211、及び221)は、HMD1から受信した受信信号に基づいて、LCD563、表示部(215、225)にHMD1から受信した中解像度の映像を表示する。
次に、サーバー200の処理部201は、HMD1から受信した受信信号に基づいて、HMD1から受信した中解像度の映像データを、記憶部202に記録する。
(ステップS46)図15に移って、HMD500のユーザーは、HMD1から受信している映像の静止画を記録するために、タッチスイッチ34の所定の領域をタッチする。
(ステップS47)HMD500の処理部523は、タッチスイッチ534から入力された制御信号に基づいて、HMD1から受信している映像の静止画の画像データを、フラッシュメモリー522に記録する。
(ステップS48)HMD500のユーザーは、静止画に線画を重畳して表示するために、タッチスイッチ534の所定の領域をタッチする。次に、HMD500のユーザーは、タッチスイッチ534上で、指を動かして、線画を描写する。処理部523は、描写された線画を静止画に重畳して、LCD563上に表示する。処理部523は、線画を静止画に重畳した画像データを、フラッシュメモリー522に記録する。
(ステップS49)HMD500のユーザーは、フラッシュメモリー522に記録した静止画に線画を重畳した画像データを、HMD1、PC210、PC220、及びサーバー200に送信するために、タッチスイッチ534の所定の領域をタッチする。
(ステップS50)HMD500の処理部523は、タッチスイッチ534から入力された制御信号に基づいて、フラッシュメモリー522に記録させた静止画に線画を重畳した画像データを、HMD1、PC210、PC220、及びサーバー200に送信する。
(ステップS51)各端末(HMD1、PC210、及びPC220)の処理部(123、211、及び221)は、受信したHMD500から受信した受信信号に基づいて、LCD63、表示部(215、225)にHMD500から受信した静止画に線画が重畳された画像データに基づく画像を表示する。
次に、サーバー200の処理部201は、受信したHMD500から受信した受信信号に基づいて、HMD500から受信した静止画に線画が重畳された画像データを、記憶部202に記録する。
次に、別の端末からの映像も切り替える処理、その場合に低解像度の映像をデフォルトで送信する処理について説明する。
(ステップS52)HMD1のユーザーは、HMD500のカメラ564が撮像した映像を閲覧するために、タッチスイッチ34の所定の領域をタッチする。次に、HMD1の処理部123は、HMD500に映像の閲覧要求を送信する。
(ステップS53)HMD500の処理部523は、HMD1から受信した映像を送信する要求を示す情報を、LCD563に表示する。次に、HMD500のユーザーは、LCD563の表示を確認し、HMD1からの要求を承諾するために、タッチスイッチ534の所定の領域をタッチする。
(ステップS54)図16に移って、HMD500の処理部523は、カメラ564が撮像した映像を低解像度に変換する。処理部523は、変換した低解像度の映像信号とHMD500の環境情報とを合わせて、HMD1、PC210、PC220、及びサーバー200に送信する。すなわち、他の端末から、カメラで撮像した画像の送信要求があった場合、各端末の処理部は、まず低解像度の映像を送信する。その後、各端末のユーザーの要求に応じて、解像度を切り替える。
(ステップS55)各端末(HMD1、PC210、及びPC220)の処理部(123、211、及び221)は、受信したHMD500からの受信信号に基づいて、LCD63、表示部(215、225)に、HMD500から受信した低解像度の映像データに基づく映像を表示する。次に、各端末(HMD1、PC210、及びPC220)の処理部(123、211、及び221)は、HMD500からの受信信号に基づいて、HMD500から受信した環境情報に基づいて撮像した方向を算出し、算出した撮像した方向を、LCD63、表示部(215、225)に表示する。
次に、サーバー200の処理部201は、受信したHMD500からの受信信号に基づいて、HMD500から受信した静止画に低解像度の映像データと環境情報とを、記憶部202に記録する。
次に、特定の端末が通話を終了する手順を説明する。
(ステップS56)PC210のユーザーは、接続を終了するために、入力部214を操作する。次に、PC210の処理部211は、入力部214から入力された制御信号に基づいて、接続の終了を示す情報を、HMD1、HMD500、PC220、及びサーバー200に送信する。
(ステップS57)各端末(HMD1、HMD500、及びPC220)の処理部(123、523、及び221)は、PC210から受信した受信信号に基づいて、LCD(63、563)、表示部225に表示されていたPC210のアバターを消去する。
次に、サーバー200の処理部201は、PC210から受信した受信信号に基づいて、PC210の接続終了を記憶部202に記録する。
(ステップS58)HMD500のユーザーは、接続を終了するために、タッチスイッチ534を操作する。次に、HMD500の処理部523は、入力部214から入力された制御信号に基づいて、接続の終了を示す情報を、HMD1、HMD500、PC220、及びサーバー200に送信する。
(ステップS59)各端末(HMD1、及びHMD500)の処理部(123、及び523)は、HMD500から受信した受信信号に基づいて、LCD63、表示部225に表示されていたHMD500のアバターを消去する。
次に、サーバー200の処理部201は、HMD500から受信した受信信号に基づいて、HMD500の接続終了を記憶部202に記録する。
次に、各端末のユーザーが、サーバー200に記録された画像(映像、静止画)を呼び出して利用する処理の手順を説明する。
(ステップS60)PC220のユーザーは、サーバー200に記録されている画像を選択するために、入力部224を操作、例えば、キーボードの所定のキーを押す。
(ステップS61)図17に移って、PC220の表示部225には、サーバー200に記録されている画像の縮小された画像であるサムネイルの一覧表が表示されているとする。PC220のユーザーは、サーバー200に記録されている画像を選択するために、入力部224を操作、例えば、キーボードの所定のキーを押す。なお、サムネイルの一覧表は、PC220のユーザーが、キーボードの所定のキー、マウスの操作により、サーバー200から読み込んで表示するようにしてもよい。
(ステップS62)PC220の処理部221は、入力部224から入力された制御信号に基づいて、選択した画像を示す情報を、サーバー200に送信する。
(ステップS63)サーバー200の処理部201は、PC220から受信した受信信号に基づいて、選択された映像とその映像に関連付けられて記憶部202に記録されている環境情報を読み出す。処理部201は、読み出した環境情報に基づいて、方位を算出する。処理部201は、読み出した映像データと算出した方位情報とを、HMD1、及びPC220に送信する。
(ステップS64)サーバー200の処理部201は、HMD1、及びPC220に映像データを送信したことを、記憶部202に記録する。
次に、HMD1及びPC220の各処理部(123、及び221)は、サーバー200から受信した映像データと方位情報とに基づく画像を、各々、LCD63、及び表示部225に表示する。
(ステップS65)HMD1のユーザーは、サーバー200から送信されている映像に線画を描写するために、タッチスイッチ34の所定の領域をタッチ(第1操作)する。次に、HMD1の処理部123は、タッチスイッチ34から入力された制御信号に基づいて、送信されている映像を一時停止する要求を、サーバー200に送信する。すなわち、サーバー200から読み出した映像に対して、線画を描写する場合においても、映像を一時停止して静止画を得る。そして、各端末は、この静止画に線画を重畳することができる。
(ステップS66)サーバー200の処理部201は、HMD1から受信した受信信号に基づいて、送信中の映像データを一時停止する。次に、処理部201は、送信中の映像データを一時停止したことを示す情報を、HMD1、及びPC220に送信する。
(ステップS67)HMD1、及びPC220の各処理部(123、及び221)は、サーバー200から受信した受信信号に基づいて、一時停止した静止画を、各々、フラッシュメモリー122、記憶部222に記録する。なお、HMD1の処理部123は、ステップS65において、ユーザーがタッチスイッチ34をタッチしたことに基づいて、一時停止した静止画を、フラッシュメモリー122に記録するようにしてもよい。
(ステップS68)図18に移って、HMD1のユーザーは、静止画に線画を重畳して表示するために、タッチスイッチ34の所定の領域をタッチする。次に、HMD1のユーザーは、タッチスイッチ34上で、指を動かして、線画を描写する。次に、HMD1の処理部123は、タッチスイッチ34の指の動きに応じて、カーソルの位置を、順次、PC200、及びサーバー200に送信する。
(ステップS69)HMD1、及びPC220の各処理部(123、及び221)は、描写された青色の線画を静止画に重畳して、各々、LCD63、表示部225上に表示する。次に、各処理部(123、及び221)は、青色の線画を静止画に重畳した画像データを、各々、フラッシュメモリー122、記憶部222に記録する。
(ステップS70)HMD1のユーザーは、一時停止を解除して、映像の送信を再開するために、タッチスイッチ34の所定の領域をタッチする。次に、HMD1の処理部123は、一時停止を解除して、映像の送信を再開する要求を、サーバー200に送信する。
(ステップS71)サーバー200の処理部201は、HMD1から受信した受信信号に基づいて、一時停止を解除し、映像データの送信を再開する。次に、処理部201は、ステップS69で描写された線画の表示を消去する指示を、HMD1、及びPC220に送信する。
(ステップS72)HMD1、及びPC220の各処理部(123、及び221)は、サーバー200から受信した受信信号に基づいて、各々、LCD63、表示部225に表示されていた青色の線画を消去する。次に、HMD1、及びPC220の各処理部(123、及び221)は、サーバー200から受信した受信信号に基づいて、各々、LCD63、表示部225に送信が再開された映像データと方位情報に基づく画像を表示する。
次に、HMD1のユーザーの指示により、HMD1自ら撮影した映像に対して自らが線画を重畳する手順を説明する。
(ステップS73)HMD1のユーザーは、線画を描写して送信するために、タッチスイッチ34上の所定の位置で指を動かす。この場合、線画を送信するため、HMD1の処理部123は、カメラ64が撮像した映像を、低解像度から中解像度に切り替える。
(ステップS74)図19に移って、HMD1の処理部123は、カメラ64が撮像した動画を中解像度の映像に変換し、変換した中解像度の映像データを、PC220、及びサーバー200に送信する。
(ステップS75)HMD1のユーザーは、送信中の映像を一時停止するために、タッチスイッチ34の所定の位置をタッチする。次に、HMD1のユーザーは、一時停止させた静止画上に線画を描写するために、タッチスイッチ34上で指を動かす。
次に、HMD1の処理部123は、タッチスイッチ34がタッチされたことに基づいて、送信中の映像を一時停止する指示を、PC220、及びサーバー200に送信する。
次に、処理部123は、タッチスイッチ34上の指の動きに応じて、順次、カーソルの位置を示す情報を、PC220、及びサーバー200に送信する。
(ステップS76)HMD1の処理部123は、タッチスイッチ34上の指の動きに応じて、静止画上に青色の線画を重畳して表示する。
次に、PC220の処理部221は、HMD1から受信した受信信号に基づいて、映像を一時停止する。次に、処理部221は、HMD1から受信した受信信号に基づいて、一時停止した静止画に青色の線画を重畳して、表示部225に表示する。
次に、サーバー200の処理部201は、HMD1から受信した受信信号に基づいて、映像データを一時停止し、停止したときの静止画を記憶部202に記録する。次に、処理部201は、HMD1から受信した受信信号に基づいて、青色の線画を、記憶部202に記録する。
次に、ステップS1で通話を開始したHMD1により、全ての通話相手との通話を終了する処理について説明する。
(ステップS77)HMD1のユーザーは、全ての端末との通話を完了するため、タッチスイッチ34の所定の位置をタッチする。次に、HMD1の処理部123は、タッチスイッチ34から入力された制御信号に基づいて、通話を完了する指示を、ステップS77で通話に参加しているPC220、及びサーバー200に送信する。次に、処理部123は、PC220、及びサーバー200との通話を終了する。
(ステップS78)PC220の処理部221は、HMD1から受信した受信信号に基づいて、HMD1からの通話処理を終了する。
次に、サーバー200の処理部201は、HMD1から受信した受信信号に基づいて、HMD1及びPC220との接続が終了したことを示す情報を、記憶部202に記録する。
なお、図9〜図19に示した例において、各端末からの画像データの送信、線画の描写等の順序は、一例であり、各端末のユーザーの指示に応じた順序で行われる。
以上のように、複数の端末間で動画に対して画面に基づくコミュニケーションを行いたい場合、各端末の各処理部は、映像を一時停止させ静止画としてから、その画像に対して線画などを重畳する。この結果、本実施形態によれば、たとえ撮影者が撮影する方向が変わったとしても、正確に画面の画像と線画とを重ねることが可能となる。
また、本実施形態によれば、最初に静止画を要求した端末がキャプチャーした画像が全端末に配信されるので、その後に線画を重畳しても線画と静止画とが各端末でズレが発生することがないので、コミュニケーションでのミスが削減できる。
また、本実施形態では、各端末の各処理部は、映像を一時停止させ静止画としてから、その画像に対して線画などを重畳することで、例えば、映像中を移動している物体や人についても静止した画像を用いることができる。このため、説明したい画像中の対象物と線画とのズレを防ぐ効果もある。
また、本実施形態では、通信環境の厳しい場合にそなえて、画面の解像度を落としてもフレームレートの高い画像を送る第1のモードと、画像の解像度は高くてもフレームレートの低い第2のモードを用意する。そして、本実施形態によれば、線画を重畳する場合、第二のモードで画像を送るようにすることで、観察者にとっても見やすい画像を送信できて、状況をより正確に伝えることが可能となっている。
なお、本実施形態では、アバター記憶部307に予め複数のアバターを示す情報が記憶されている例を説明したが、これに限られない。例えば、HMD1の処理部123は、HMD1と通話を行っているユーザーのアバターを示す情報を、通信インタフェース(131、138)を介して受信するようにしてもよい。
なお、本実施形態では、カーソルの色と、線画の色とを同系色にする例を説明したが、さらにアバターの色も同系色にするようにしてもよい。例えば、HMD500のLCD563に表示されるHDM1によるカーソルが水色、線画が青色の場合、HMD1のアバターの服の色、及び髪の毛の色を、青色系にするようにしてもよい。これにより、どのユーザーが、カーソルの操作や線画を描写しているのかを、さらに視覚的に認識しやすくなる。
なお、本実施形態では、ユーザー毎に、カーソルの表示色、線画の表示色を変える例を説明したが、これに限られない。例えば、ユーザー毎にカーソルの形状、線画に用いる線の種類(実線、点線、破線)、及び線画に用いる線の太さを変えるようにしてもよい。
なお、本実施形態では、HMD1、及びHMD500のユーザーが、タッチスイッチ(34、534)を操作して、各種の操作を行う例を示したが、これに限られない。例えば、リモコン140を介して操作を行うようにしてもよい。あるいは、切り替えや選択等の操作においては、各端末(HMD1、及びHMD500)の処理部(122、及び522)は、ユーザーの瞬きの回数を検出し、検出した瞬きの回数に基づいて、例えば、カーソル表示、線画の描写等を切り替えるように制御してもよい。
なお、本実施形態では、各端末が画像に線画を描写する例を示したが、これに限られない。例えば、PC210の入力部214のキーボードから入力されたコメントを、受信している画像に重畳するようにしてもよい。この場合においても、コメントは、各端末、及びサーバーにおいて、受信している画像と異なるレイヤーに表示、及び記憶される。このため、コメントのみの表示、削除を行うことができる。
なお、本実施形態では、映像(動画)を、初期状態では、低解像度で送信し、ユーザーからの要求に応じて、中解像度等に切り替える例を示したが、これに限られない。解像度の種類は、さらに多くてもよい。また、ユーザーがタッチスイッチ34を用いて、解像度及びフレームレートを設定するようにしてもよい。具体的には、低解像度における解像度及び第1フレームレートの第1設定、低解像度における解像度及び第2フレームレートの第2設定、中解像度における解像度及び第3フレームレートの第3設定、等である。
ただし、ユーザーが解像度を設定した場合、他の端末のユーザーの端末においても同じ解像度で、通話のやりとりを行う必要があるため、通話開始時等に、用いる解像度を示す情報を送信しておくようにしてもよい。
また、送信する画像は、利用する用途に応じて、白黒であっても、カラーであってもよく、カラーの場合、用途に応じて8ビットカラー、16ビットカラー等であってもよい。
なお、本実施形態の図9〜図19の例では、HMD1のユーザーを含めて4者で通話を行い、全てのユーザー間で同じ画像を共有する例を説明したが、これに限られない。例えば、画像をリクエストされた端末は、リクエストした端末のみに画像情報を、送信するようにしてもよい。または、送信元で、送信先を限定したり、グループ化してあるメンバーのみに画像情報を、送信するようにしてもよい。
また、画像に限らず、音声信号についても、リクエストされた端末は、リクエストした端末のみに音声信号を送信するようにしてもよい。または、送信元で、送信先を限定したり、グループ化してあるメンバーのみに、音声信号を送信するようにしてもよい。
また、ユーザーが使用している端末の表示解像度、カメラの撮影解像度が異なっている場合もある。この場合、通話開始時に、各端末の表示解像度、カメラの撮影解像度を、他の端末、およびサーバー200に送信する。そして、これらの情報に基づいて、例えば、サーバー200が、通話に使用する共通の解像度を設定して、設定した共通の解像度を、各端末に送信するようにしてもよい。共通の解像度を設置した後に、さらに別の端末が通話に参加した場合においても、後から通話に参加した端末からの情報に基づいて、例えば、サーバー200が、共通の解像度を再設定して、再設定した共通の解像度を、各端末に送信するようにしてもよい。
なお、複数の通話相手と通話を行う場合、1人のユーザーが使用している端末(HMD)のLCDまたは表示部が白黒表示であり、カメラ64が白黒撮像しかできない場合、他の端末の処理部は、この端末に合わせて、白黒の画像を送信するようにしてもよい。この場合、送信するデータを軽減できる効果もある。あるいは、カラーで撮像した画像を送信し、端末側で、白黒に変換して表示するようにしてもよい。
なお、本実施形態では、PC210のユーザーが、入力部214を操作して、HMD1から受信した静止画を表示部215で拡大表示(図14、ステップS40)する例を説明したが、画像の拡大は、HMD1側で行うようにしてもよい。例えば、HMD1が備えるカメラ64にズーム機能を有する場合、PC210のユーザーは、拡大表示の要求を、HMD1に送信する。そして、HMD1の処理部123は、受信した拡大要求に応じて、ズーム機能を用いて撮像した画像を、通話中の端末に送信するようにしてもよい。
なお、本実施形態では、画像を送信する例を説明したが、動画には音声信号が含まれているようにしてもよく、環境によって周囲雑音が多い場合、画像のみを送信するようにしてもよい。
また、画像の送信時、処理部123は、例えば、撮影日時、端末の機種情報、撮影条件(シャッタースピード、感度、絞り値、レンズの焦点距離)等の情報を付加、もしくは埋め込んで送信するようにしてもよい。
また、送信する画像のフォーマットは、予め端末が再生可能なフォーマットをサーバー200に登録しておき、サーバー200が登録されている情報に基づいて決定するようにしてもよい。この結果、端末側で、フォーマット変換を行う必要がないので、通話を行っているユーザー同士が、ほぼ同時刻に同じ画像を観測することができるので、コミュニケーションのミスを軽減できる効果がある。
なお、処理部123は、送信する画像を、通話に参加していない人に搾取されてしまうことを防ぐため、例えば、公知の技術を用いて、暗号化して送信するようにしてもよい。また、処理部123は、送信する画像に、公知の技術を用いて、例えば「すかし」を埋めこんで送信するようにしてもよい。
なお、本実施形態では、各端末のユーザーを示す情報として、アバターを用いる例を示したが、例えば、ユーザーの顔写真であってもよい。この場合、例えば、各端末のカメラ(64、564、216、及び226)が撮像した顔写真を、予めサーバー200の記憶部202に記録しておくようにしてもよい。そして、通話を行うとき、通話に参加しているユーザーの顔写真を、サーバー200が、各端末に送信するようにしてもよい。または、各端末から、他の端末に顔写真を送信するようにしてもよい。PC210のカメラ216のように、通話中、顔全体を撮像できる場合、顔写真ではなく、ユーザーの顔を撮像した映像を、他の端末に送信するようにしてもよい。この場合、送信される顔の映像は、ユーザーを特定できる程度の解像度であればよい。
なお、HMD1のLCD63は、裸眼による3次元表示が可能な表示部であってもよい。
また、カメラ64は、3次元撮像が可能なものを備えるようにしてもよい。カメラ64が、3次元撮影が可能な場合、他の端末に送信する画像情報は、他の端末が全て3次元表示可能な表示部を備えていることが予め分かっていれば、3次元の画像情報を、送信するようにしてもよい。
なお、本実施形態では、ディスプレイ本体20をヘッドバンド40に装着して使用する例を説明したが、これに限られない。ユーザーは、ディスプレイ本体20をヘッドバンド40に装着せずに、単体で使用してもよい。
なお、本実施形態では、情報表示装置が、入出力検出部(入力部)と、画像合成部部とを備える例を説明したが、これに限られない。例えば、各部を備える装置を有するシステムであってもよい。
なお、本発明の技術範囲は上記の実施形態に限定されるものではない。上記の実施形態で説明した要件のうち少なくとも1つの要件は、省略される場合がある。上記の実施形態で説明した各要件は、適宜、組み合わせることができる。
なお、上述のHMD1(含む500)は、内部にコンピュータシステム(例えば、処理部123、523)を有している。そして、各機能部の動作の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータシステムが読み出して実行することによって、上記処理が行われる。ここでいうコンピュータシステムとは、CPU及び各種メモリーやOS、周辺機器等のハードウェアを含むものである。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバーやクライアントとなるコンピュータシステム内部の揮発性メモリーのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
1…ヘッドマウントディスプレイ、20…ディスプレイ本体、34…タッチスイッチ、60…表示部、63…表示パネル(表示部)、64…カメラ、72…撮像素子、123…処理部、130…BT通信回路、131…WiFi通信回路、132…加速度センサー、133…地磁気センサー、137…心拍数センサー、138…3G/LTE通信回路、140…リモコン、301…入力検出部、302…画像切替部、303…送受信部、304…線画生成部、305…カーソル生成部、306…アバター選択部、307…アバター記憶部、308…画像合成部

Claims (9)

  1. 画像を表示する表示部と、
    ユーザーの操作を検出する入力部と、
    前記入力部で操作が行われた場合、前記表示部に表示されている画像を一時停止し、一時停止させた前記画像に、前記入力部での操作に基づく画像を重畳する画像合成部と、
    を備えることを特徴とする情報表示装置。
  2. 前記入力部で操作が行われた場合、一時停止させた前記画像を、他の端末へ送信する送受信部
    を備えることを特徴とする請求項1に記載の情報表示装置。
  3. 画像を撮像する撮像部
    を備え、
    前記画像合成部は、前記入力部で操作が行われた場合、前記撮像部が撮像して表示部に表示された前記画像を一時停止させる
    ことを特徴とする請求項1または請求項2に記載の情報表示装置。
  4. 前記画像合成部は、軌跡が残らないカーソルを重畳する第1モードの場合、前記表示部に表示されている画像を一時停止せずに、当該画像に前記入力部での操作に基づく画像を重畳する
    ことを特徴とする請求項1から請求項3のいずれか1項に記載の情報表示装置。
  5. 前記画像合成部は、
    軌跡を残す線画を重畳する第2モードの場合、前記表示部に表示される画像を一時停止し、一時停止させた当該画像に前記入力部での操作に基づく画像を重畳する
    ことを特徴とする請求項1から請求項3のいずれか1項に記載の情報表示装置。
  6. 前記画像合成部は、
    前記入力部から出力されたユーザーの操作に基づいて、他の端末に送信する画像の解像度、フレームレートのいずれか1つを切り替えて、切り替え後の画像を前記他の端末に送信する
    ことを特徴とする請求項2から請求項5のいずれか1項に記載の情報表示装置。
  7. 前記画像合成部は、前記表示部に表示されている画像を一時停止し、一時停止させた前記画像に、他の端末の入力部での操作に基づく画像を重畳する
    ことを特徴とする請求項2から請求項5のいずれか1項に記載の情報表示装置。
  8. 前記画像合成部は、軌跡を残す線画を表示する色と、軌跡を残さないカーソルを表示する色とを同系色にする
    ことを特徴とする請求項1から請求項7のいずれか1項に記載の情報表示装置。
  9. 情報表示装置における情報表示方法であって、
    表示部が、画像を表示する表示手順と、
    入力部が、ユーザーの操作を検出する入力手順と、
    前記入力手順で操作が行われた場合、前記表示部に表示されている画像を一時停止し、一時停止させた前記画像に、前記入力手順での操作に基づく画像を重畳する画像合成手順と、
    を含むことを特徴とする情報表示方法。
JP2012039147A 2012-02-24 2012-02-24 情報表示装置 Active JP6074894B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012039147A JP6074894B2 (ja) 2012-02-24 2012-02-24 情報表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012039147A JP6074894B2 (ja) 2012-02-24 2012-02-24 情報表示装置

Publications (2)

Publication Number Publication Date
JP2013175048A true JP2013175048A (ja) 2013-09-05
JP6074894B2 JP6074894B2 (ja) 2017-02-08

Family

ID=49267895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012039147A Active JP6074894B2 (ja) 2012-02-24 2012-02-24 情報表示装置

Country Status (1)

Country Link
JP (1) JP6074894B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017068381A (ja) * 2015-09-28 2017-04-06 キヤノン株式会社 リモート支援システム、情報処理装置、画像処理装置、それらの制御方法、及びプログラム
WO2017138153A1 (ja) * 2016-02-12 2017-08-17 富士通株式会社 端末装置、管理方法、制御方法、管理プログラム、及び制御プログラム
WO2019082366A1 (ja) * 2017-10-26 2019-05-02 サン電子株式会社 会議システム
JP2020101886A (ja) * 2018-12-20 2020-07-02 株式会社ガゾウ 頭部装着型情報機器及びプログラム
US11003350B2 (en) 2017-09-19 2021-05-11 Canon Kabushiki Kaisha Control apparatus, control method, and storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002507027A (ja) * 1998-03-13 2002-03-05 シーメンス コーポレイト リサーチ インコーポレイテツド 協調的ダイナミックビデオコメント作成装置および作成方法
JP2006211659A (ja) * 2006-01-23 2006-08-10 Nikon Corp 情報処理装置、情報処理方法、および、記録媒体
JP2007042073A (ja) * 2005-07-01 2007-02-15 Canon Inc 映像提示システム、映像提示方法、該映像提示方法をコンピュータに実行させるためのプログラム、および記憶媒体
JP2008310269A (ja) * 2007-06-18 2008-12-25 Konami Digital Entertainment:Kk 画像処理装置、画像処理方法、ならびに、プログラム
JP2009239646A (ja) * 2008-03-27 2009-10-15 Fuji Xerox Co Ltd テレビ会議システムおよびテレビ会議装置および画像処理プログラム
JP2011210051A (ja) * 2010-03-30 2011-10-20 Sharp Corp ネットワークシステム、通信方法、および通信端末

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002507027A (ja) * 1998-03-13 2002-03-05 シーメンス コーポレイト リサーチ インコーポレイテツド 協調的ダイナミックビデオコメント作成装置および作成方法
JP2007042073A (ja) * 2005-07-01 2007-02-15 Canon Inc 映像提示システム、映像提示方法、該映像提示方法をコンピュータに実行させるためのプログラム、および記憶媒体
JP2006211659A (ja) * 2006-01-23 2006-08-10 Nikon Corp 情報処理装置、情報処理方法、および、記録媒体
JP2008310269A (ja) * 2007-06-18 2008-12-25 Konami Digital Entertainment:Kk 画像処理装置、画像処理方法、ならびに、プログラム
JP2009239646A (ja) * 2008-03-27 2009-10-15 Fuji Xerox Co Ltd テレビ会議システムおよびテレビ会議装置および画像処理プログラム
JP2011210051A (ja) * 2010-03-30 2011-10-20 Sharp Corp ネットワークシステム、通信方法、および通信端末

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017068381A (ja) * 2015-09-28 2017-04-06 キヤノン株式会社 リモート支援システム、情報処理装置、画像処理装置、それらの制御方法、及びプログラム
WO2017138153A1 (ja) * 2016-02-12 2017-08-17 富士通株式会社 端末装置、管理方法、制御方法、管理プログラム、及び制御プログラム
JPWO2017138153A1 (ja) * 2016-02-12 2018-11-22 富士通株式会社 端末装置、管理方法、制御方法、管理プログラム、及び制御プログラム
US11003350B2 (en) 2017-09-19 2021-05-11 Canon Kabushiki Kaisha Control apparatus, control method, and storage medium
WO2019082366A1 (ja) * 2017-10-26 2019-05-02 サン電子株式会社 会議システム
JPWO2019082366A1 (ja) * 2017-10-26 2020-11-19 サン電子株式会社 会議システム
US11212488B2 (en) 2017-10-26 2021-12-28 Suncorporation Conference system
JP2020101886A (ja) * 2018-12-20 2020-07-02 株式会社ガゾウ 頭部装着型情報機器及びプログラム
JP7224018B2 (ja) 2018-12-20 2023-02-17 株式会社ガゾウ 頭部装着型情報機器及びプログラム

Also Published As

Publication number Publication date
JP6074894B2 (ja) 2017-02-08

Similar Documents

Publication Publication Date Title
JP2013175929A (ja) 情報出力装置、及び情報出力方法
JP7379907B2 (ja) 情報処理装置、情報処理プログラム、情報処理システム、情報処理方法
RU2670784C9 (ru) Ориентация и визуализация виртуального объекта
US9380207B1 (en) Enabling multiple field of view image capture within a surround image mode for multi-lense mobile devices
US9426379B2 (en) Photographing unit, cooperative photographing method, and recording medium having recorded program
US9245389B2 (en) Information processing apparatus and recording medium
US8768141B2 (en) Video camera band and system
US7880807B2 (en) Camera system with mirror arrangement for generating self-portrait panoramic pictures
US20090219224A1 (en) Head tracking for enhanced 3d experience using face detection
JP7164831B2 (ja) 通信管理システム、通信システム、通信方法、及びプログラム
US20100208029A1 (en) Mobile immersive display system
JP6074894B2 (ja) 情報表示装置
JP2014021707A (ja) 情報入出力装置、及び情報入出力方法
KR20190013308A (ko) 이동 단말기 및 그 제어 방법
KR102240639B1 (ko) 글래스 타입 단말기 및 그것의 제어 방법
JP2010524295A (ja) 第1の携帯可能な通信装置
KR20190008610A (ko) 이동 단말기 및 그 제어 방법
JP2014011624A (ja) 情報入出力装置、及び頭部装着表示装置
JP6096654B2 (ja) 画像の記録方法、電子機器およびコンピュータ・プログラム
KR20180040409A (ko) 이동 단말기 및 그 제어방법
JP2014212473A (ja) 通信装置、及び頭部装着表示装置
JP2020014114A (ja) 表示制御装置、表示制御装置の制御方法、プログラム、記憶媒体
KR20160020860A (ko) 이동 단말기 및 그 제어 방법
JP2013174730A (ja) 情報表示装置
JP2023140922A (ja) 表示端末、情報処理システム、通信システム、表示方法、情報処理方法、通信方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161226

R150 Certificate of patent or registration of utility model

Ref document number: 6074894

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250