JP2013175048A - 情報表示装置、及び情報表示方法 - Google Patents
情報表示装置、及び情報表示方法 Download PDFInfo
- Publication number
- JP2013175048A JP2013175048A JP2012039147A JP2012039147A JP2013175048A JP 2013175048 A JP2013175048 A JP 2013175048A JP 2012039147 A JP2012039147 A JP 2012039147A JP 2012039147 A JP2012039147 A JP 2012039147A JP 2013175048 A JP2013175048 A JP 2013175048A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- hmd
- processing unit
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 239000000203 mixture Substances 0.000 claims abstract description 34
- 230000005540 biological transmission Effects 0.000 claims description 35
- 238000003384 imaging method Methods 0.000 claims description 11
- 230000002194 synthesizing effect Effects 0.000 claims 1
- 238000004891 communication Methods 0.000 description 80
- 101100347655 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) NAB3 gene Proteins 0.000 description 60
- 230000015654 memory Effects 0.000 description 32
- 238000001514 detection method Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 17
- 230000005236 sound signal Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 11
- 210000003128 head Anatomy 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 230000007246 mechanism Effects 0.000 description 8
- 239000000284 extract Substances 0.000 description 7
- 230000005057 finger movement Effects 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000005452 bending Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000001962 electrophoresis Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 229910001220 stainless steel Inorganic materials 0.000 description 1
- 239000010935 stainless steel Substances 0.000 description 1
Landscapes
- User Interface Of Digital Computer (AREA)
- Information Transfer Between Computers (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【解決手段】画像を表示する表示部と、ユーザーの操作を検出する入力部と、入力部で操作が行われた場合、表示部に表示されている画像を一時停止し、一時停止させた画像に入力部での操作に基づく画像を重畳する画像合成部と、を備える。
【選択図】図7
Description
また、本情報表示装置は、最初に静止画を要求した端末がキャプチャーした画像が全端末に配信する。
以下、情報出力装置をヘッドマウントディスプレイに適用した例について説明するが、本発明はこれに限られない。
なお、図1及び図2では、ディスプレイ本体20の長手方向をY軸方向、ヘッドバンド40がユーザーの頭部を挟持する方向をX軸方向としている。
ディスプレイ本体20は、主要回路を内蔵するとともに操作部や各種インターフェースを備えた装置本体部21と、装置本体部21の先端に連結された表示部60とを有する。
メインスイッチ28はディスプレイ本体20の電源のオンオフ操作を行うスイッチである。タッチスイッチ34は、表面に手指等で触れることによりヘッドマウントディスプレイ1の各種操作を行うことができるタッチパネルである。集音マイク24は、環境音を収集する外部マイクである。
USBコネクター25はUSB(Universal Serial Bus)デバイスの接続端子である。本実施形態では、例えば図5に示すリモコン(リモートコントローラー)140が接続される。
操作スイッチ30は、例えばトラックボールやスティックなどのポインティングデバイスである。操作スイッチ30は表示部60に表示される画面に正対するように設けられている。これにより、操作スイッチ30における操作の左右方向と、上記画面の左右方向とが一致するので、ユーザーは画面を見ながら直感的に操作スイッチ30を操作することが可能である。
ビデオコネクター27は映像入出力端子である。
図4に示すように、装置本体部21には、筐体21Aの長手方向に沿って延びる板状の回路基板29と、バッテリー33とが内蔵されている。回路基板29には、図示略の制御回路、電源回路等が実装されており、図示略の配線を介してディスプレイ本体20の各部と電気的に接続されている。
すなわち、本実施形態によれば、保持部であるディスプレイヒンジ61は、表示部60を、少なくとも1つ以上の軸周りに揺動が可能である。
本実施形態の場合、カメラ64の撮影方向は、ユーザーの視線方向と一致するように設定される。撮影方向と視線方向との調整は、機械的に行ってもよく、画像処理により行ってもよい。例えば、カメラ64を広角の映像を取得可能に構成し、ユーザーの目元画像から取得した視線方向の情報に基づいて、電気的に捕らえた映像の一部を、視線方向の映像として抜き出して表示パネル63に表示させる。これにより、カメラ64に調整機構を設けることなくユーザー正面の映像の撮影、表示が可能となる。
ヘッドバンド40は、図2に示すように、ユーザーの頭部を挟持する一対のヘッドパット(装着部材)46、47と、第1ヘッドバンド43と、第2ヘッドバンド44と、回動機構56、57とを備えている。
リモコン140は、筐体140Aと、タッチパッド141と、操作スイッチ147と、USBコネクター142と、インジケーター143a、143b、143cと、取付クリップ144と、インジケータースイッチ150と、を備えている。
またリモコン140がバッテリーを内蔵している場合には、装置本体部21への給電端子として用いることもできる。リモコン140のバッテリーを補助電源として使用可能にすることで、装置本体部21のバッテリー容量を小さくでき、装置本体部21を小型軽量化することができる。
HMD1には、処理部123を中心として種々の電気回路が備えられている。処理部123は、CPU(Central Processing Unit)であり、HMD1の各種回路と接続されるとともに、HMD1を総合的に制御する。
電源回路120は、バッテリー33から供給された電力を、処理部123の制御によりHMD1の各部に供給する。
一方、図示しないステレオイヤホンに音声信号が出力される場合、左右のスピーカーに、それぞれ左チャンネル又は右チャンネルの音が出力される。
全体の電源のオンオフを行うメインスイッチ28や、画面内でのポインティング操作を行うための操作スイッチ30、あるいはタッチ操作により各種操作を行うタッチスイッチ34がユーザーに操作されると、これらのスイッチから操作に基づく制御信号が処理部123へ出力される。処理部123は、制御信号により操作を検出し、上記の制御プログラムに規定された動作を実行する。
図7に示すように、処理部123は、入力検出部301(入力部)、画像切替部302、送受信部303、線画生成部304、カーソル生成部305、アバター選択部306、アバター記憶部307、及び画像合成部308を備えている。なお、図7において、WiFi通信回路131、及び3G/LTE通信回路を総称して、通信インタフェース(131、138)を称する。
入力検出部301は、カーソル表示の場合、指の動きに応じた位置を示す情報を、カーソル生成部305に出力する。入力検出部301は、線画表示の場合、指の動きに応じた位置を示す情報を、線画生成部304に出力する。
なお、アバターとは、例えば、HMD1のユーザー、及びHMD1と送受信を行っているユーザーの顔等をイラスト化したものである。アバター選択部306は、読み出したアバターを示す画像データを、画像合成部308に出力する。アバター選択部306は、各種センサー(加速度センサー132、地磁気センサー133、角速度センサー134、GPSセンサー135、温湿度センサー136、心拍数センサー137など)の出力に基づき、HMD1が使用されている環境に関する情報である環境情報を、画像合成部308に出力する。
また、アバター選択部306は、送受信部303が出力する受信信号に基づき、各端末を呼び出し中であることを示す各画像情報(以下、呼び出し中の画像情報ともいう)を生成し、生成した呼び出し中の画像情報を、画像合成部308に出力する。
画像合成部308は、入力検出部301が出力する制御信号が線画表示の指示(第2モード)の場合、表示パネル63に表示されている映像を一時停止して静止画を生成する。画像切替部302は、生成した静止画の画像データ、アバター選択部306から入力された環境情報を、送受信部303、ビデオコネクター27、及びLCDドライバ125に出力する。
なお、表示パネル63に表示される映像とは、フラッシュメモリー122から読み出した画像データ、またはエンコーダー129が出力した画像データ、送受信部303が出力した受信信号に含まれる他端末からの映像データである。
一時停止して生成する画像の解像度は、映像を送信しているときの解像度より高解像度である。静止画の解像度とは、例えば、横が2500画素、縦が1875画素の画像である。なお、画像合成部308は、一時停止の代わりに、ユーザーが線画を描写している期間、または、線画を用いて説明を行っている期間以上のコマ送りをするようにしてもよい。
画像合成部308は、入力検出部301が出力する制御信号がカーソル表示の指示(第1モード)の場合、表示パネルに表示されている映像を一時停止せず、合成した画像データ、及びアバター選択部306から入力された環境情報を、送受信部303、ビデオコネクター27、及びLCDドライバ125に出力する。
図8は、本実施形態に係るヘッドマウントディスプレイ1を含む通信システムのシステム構成図である。図9から図19は、本実施形態に係る処理手順の一例を示すフローチャートである。
HMD500は、図8に示すように、主にフラッシュメモリー522、処理部523、通信インタフェース(531、538)、地磁気センサー533、タッチスイッチ534、表示パネル(表示部)563(以後、LCD563という)、カメラ564を備えている。HMD500の各機能部は、HMD1の各機能部と同等である。
図8に示すように、サーバー200は、処理部201、記憶部202、及び通信インタフェース203を備えている。
通信インタフェース203は、例えば、WiFi通信回路、3G通信回路、LTE通信回路、有線LAN回路等を備えている。
PC210は、処理部211、記憶部212、通信インタフェース213、入力部214、表示部215、及びカメラ216を備えている。
PC220は、処理部221、記憶部222、通信インタフェース223、入力部224、表示部225、及びカメラ226を備えている。PC220の各機能部は、PC210の各機能部と同等である。
なお、以下、各装置に対応したアバターを、例えば、PC210のアバターという。
一例として、表示部215には、HMD1が撮像した画像、HMD1のアバター、HMD500のアバター、PC220のアバター、PC210の入力部214の操作に応じた線画画像が合成されて表示される。
(ステップS1)図9に示すように、HMD1のユーザーは、HMD500、PC210、PC220と通信を行うため、HMD1のタッチスイッチ34を操作する。HMD1の処理部123は、タッチスイッチ34が出力した制御信号に基づき、HMD500、PC210、PC220に通信を開始することを示す発信操作を行う。
なお、HMD1のLCD63に表示される画像は、受信した映像と、アバター(含むアバター付加情報)とが、別のレイヤー(層)に表示される。
なお、表示されるアバターは、予めHMD1のユーザーが設定されたもの、もしくはデフォルトであらかじめ設定されたものである。
以下の処理においても、アバター及び、アバター付加情報の表示を処理部123の各部が行う。
次に、PC220の処理部221は、PC210と同様の処理を行い、記憶部222から読み出たHMD1のアバター画像データ、及び生成した呼び出し中を示す画像情報に基づく画像を、表示部225に表示する。
次に、サーバー200の処理部201は、PC210から受信した通話参加情報に基づき、PC210が通話に参加していることを示す情報を記憶部202に記録する。
次に、HMD1の処理部123は、HMD500から受信した通話参加情報に基づき、HMD500に対する呼び出し中であることを示す画像情報を、LCD63から消去する。
次に、PC210の処理部211は、HMD500から受信した通話参加情報に基づき、HMD500のアバターを表示部215に表示する。
次に、サーバー200の処理部201は、HMD500から受信した通話参加情報に基づき、HMD500が通話に参加していることを示す情報を記憶部202に記録する。
図20は、本実施形態に係るアバターの表示例を示す図である。図20に示した例は、3者が通話に参加している例である。図20に示すように、例えば、HMD1のLCD63上には、画像400が表示される。画像400は、左から順番に、PC220のアバター401、PC210のアバター402、HMD500のアバター403が、画像400の下に表示された例である。図20に示した画像400の例では、HMD500の位置情報が一番、東であったため、HMD500のアバター403が、一番右に表示されている。
この場合、各端末の各処理部は、上に配置されたアバターからの音声は右側から、下側のアバターからの音声は左側から聞こえるように制御するようにしてもよい。または、各端末の各処理部は、上に配置されたアバターに対応する発話者の音声が上から、下に配置されたアバターに対応する発話者の音声が、下から聞こえるように、音響特性を変えてもよい。
さらに、各端末の各処理部は、各端末の使用者が発話すると、対応するアバターの口も動くように制御してもよい。
このことで、視覚的にも発話者の認識ができるので、各端末のユーザーは、情報が理解しやすくなるとともに、似た声質の発話者をご認識することも無くなる。
(ステップS8)図8に戻って、HMD1のユーザーは、カメラ64が撮像した映像を他の端末に送信するために、タッチスイッチ34の所定の領域をタッチする。なお、送信される映像は、初期状態において低解像度に予め設定されている。低解像度とは、例えば、横が320画素、縦が240画素、1秒あたり30フレームである。なお、低解像度の映像を送信する理由は、限られた、通信インフラの整わない、転送速度の遅いネットワーク環境においても、HMD1のユーザーの首の動きによる映像のブレ等があっても、ある程度追従する画像を送信するためである。
サーバー200の処理部201は、HMD1から受信した環境情報に基づき、HMD1のカメラ64が向いている方向(方位)を算出する。処理部201は、算出した方位と、HMD1から受信した映像データを記憶部202に記録する。
次に、HMD500の処理部523は、ステップS1、及びS4に基づき、HMD1、及びPC210との3者通話を開始する。
次に、PC210の処理部211は、ステップS1、及びS6に基づき、HMD1、及びHMD500との3者通話を開始する。
次に、サーバー200の処理部201は、ステップS1、S4、及びS6に基づき、3者通話の内容(音声データ、映像データ)の記録を開始する。
次に、処理部123は、変換した中解像度の映像データ、及び環境情報を通話に参加しているHMD500、PC210、及びサーバー200に送信する。なお、中解像度の映像とは、例えば、横が800画素、縦が600画素である。中解像度の映像を送信する場合、HMD1のユーザーは、他の端末のユーザーに対して、映像を送信することを目的としているため、HMDを装着しているユーザーの首の動きが少なく、すなわち、カメラ64のブレが少ない。このため、処理部123は、ステップS9で設定した低解像度から解像度を中解像度に上げて、他のユーザーが見やすい映像を送信することを目的として、中解像度の映像に切り替える。
また、HMD1の角速度センサー134によって使用者の首の回転が大きいと判断される場合、処理部123は、首の回転による映像の流れに追従するためにフレームレートを30フレーム/秒に保持すると共に、解像度を横が320画素、縦が240画素として送信するようにしてもよい。
以下の処理においても、カーソル画像の表示を処理部123の各部が行う。
なお、HMD1から送信されている画像が動画であるため、HMD1のユーザーが首を動かしてしまうと、送信している映像もずれる。このため、HMD1のユーザーは、カーソルの指し示す位置を変えるために、カーソルの位置を変える場合もある。このため、各装置のLCD、及び表示部に、軌跡の残らないカーソルを表示する。
なお、カーソルの色は、端末毎に、予め定めておくようにしてもよい。本実施例では、HMD1のカーソルが水色、PC210のカーソルが緑、HMD500のカーソルが青に定められている。このように各端末に応じて、カーソルが色分けされるので、コミュニケーションにおけるミスが発生しにくいようになっている。
次に、HMD500の処理部523は、受信したカーソルを表示する位置情報、カーソルの色情報に基づき、LCD563上に水色のカーソルの画像を表示する。なお、処理部523は、予め端末毎にカーソルの表示色を定めておくようにしてもよい。この場合、処理部523は、カーソルを表示する位置情報のみを取得し、送信元がHMD1であるため水色のカーソルを表示するようにしてもよい。
次に、PC210の処理部211は、受信したカーソルを表示する位置情報、カーソルの色情報に基づき、表示部225上に水色のカーソルの画像を表示する。
次に、サーバー200の処理部201は、受信したカーソルを表示する位置情報に基づき、HMD1のカーソルの位置情報を記憶部202に記録する。
(ステップS15)図11に移って、PC210ユーザーは、表示部215上にPC210のカーソル画像が表示されるように、入力部214のマウスを操作する。次に、PC210のユーザーは、静止画を見たいとき、マウスをクリックする。
映像を一時停止する理由は、通信環境によってはHMD1から配信される映像が特定の端末では遅延して表示されていることも想定されるためである。このため、静止画を重畳するには、すべての端末で同じ静止画が表示される必要がある。一時停止した画像を送信することにより、全ての端末で同じ静止画を観察することが可能となる。また、各端末は、静止画に各々線画を重畳しても、線画と静止画との関係が全ての端末で同じになるので、コミュニケーションのミスを減らすことが可能である。
通信速度が十分に早いことが判っている環境においては、ステップS15におけるPC210の操作に対応して、各端末が映像を、一時停止して静止画として表示してもよい。
また、一時停止の操作は、PC210によって行われている例を示しているが、映像の発信元であるHMD1からでも、HMD1と同じ構成要素を有し受信を行っているHMD500からでも可能である。例えば、HMD1から静止画が配信される場合、HMD1のLCD63に表示されている映像の一コマが配信される。
次に、HMD500の処理部523は、PC210から送信された静止画データを受信し、受信した静止画データをHMD500のフラッシュメモリー522に記録する。
次に、サーバー200の処理部201は、PC210から送信された静止画データを受信し、受信した静止画データを記憶部202に記録する。
次に、PC210の処理部211は、入力部214から入力された情報に基づき、緑色の軌跡を伴った線画を、表示部225上に表示する。次に、処理部211は、カーソルの位置情報を、順次、記憶部212に記録する。次に、処理部211は、カーソルの位置情報を、順次、HMD1、HMD500、及びサーバー200に送信する。
なお、PC210による線画の色は、端末毎に予め定めておいてもよく、あるいは、色情報をPC210から他の端末へ送信するようにしてもよい。
以下の処理においても、線画の表示を処理部123の各部が行う。
次に、HMD500の処理部523は、通受信したカーソルの位置情報に基づき、LCD563上に、緑色の線画を表示する。次に、処理部523は、カーソルの位置情報に基づき線画データを生成し、生成した線画データを、フラッシュメモリー522に記録する。
次に、サーバー200の処理部201は、受信したカーソルの位置情報に基づき、線画データを生成し、生成した線画データを、記憶部202に記録する。
このように、線画をカメラ映像に重畳して描画する際には、カメラ映像は静止画であることが望ましい。すなわち、PC210のユーザーの意図に反して、HMD1のユーザーが首を動かしてしまうと、画像が動いてしまい、線画で指し示す被写体の位置が画面上で相対的にずれてしまうからである。しかしながら、静止画が表示されていれば、画像に線画を重畳していっても画像と線画が相対的にずれることはない。このため、HMD1のユーザーが首を動かないように、静止している必要はなく、使いやすいシステムが提供できる。
なお、線画と静止画とは別のレイヤーに記録されており、いつでも線画のみ消去することは可能である。
また、PC210のみではなく、全ての端末は、線画の描画と同時に動画が静止画することが可能である。
(ステップS20)図11に戻って、PC210のユーザーは、入力部214を用いてグリッドの種類を選択する。PC210の処理部211は、入力部214から入力された信号に基づき、選択されたグリッドの種類を示す情報を、HMD1、HMD5、及びサーバー200に送信する。グリッドを表示している理由は、例えば、PC210のユーザーは、画像中の特定の領域について説明を行うためである。
図24は、本実施形態に係るグリッドの一例を示す図である。図25は、本実施形態に係るグリッドの他の例を示す図である。
図24に示した例では、画像400cにおいて、縦線と横線による升目状のグリッド431が表示されている例である。図25に示した例では、画像400dにおいて、縦線と横線、及び同心円によるグリッド441が表示されている例である。なお、図24及び図25において、グリッドを実線で示したが、グリッドは、点線、破線等であってもよい。
このように、PC210のユーザーが、グリッドを変更した場合、他の端末に変更したグリッドの情報を送信する理由は、ユーザーの端末毎にグリッドが異なってしまうとコミュニケーションミスを防ぐためである。
なお、図24、及び図25に示したグリッドは1例であって、他のグリッドを表示するようにしてもよい。また、各端末のLCD、または表示部に表示されるグリッドは、動画や静止画とは別のレイヤーに表示される。
次に、HMD1の処理部123は、受信した信号に基づいて、選択されたグリッドに表示を変更する。
次に、HMD5の処理部523は、受信した信号に基づいて、選択されたグリッドに表示を変更する。
次に、サーバー200の処理部201は、受信した信号に基づいて、グリッドの変更を記録する。
(ステップS22)図12に移って、PC220のユーザーは、表示部225に表示された呼び出し中を示す画像を確認し、入力部224を操作して、通話に参加する。PC220の処理部221は、入力部224から入力された情報に基づき、通話参加情報を、サーバー200に送信する。
次に、処理部221は、表示部225にPC220のアバターを表示するように制御する。
次に、処理部201は、PC220が通話に参加したことを示す情報を、記憶部202に記録する。
次に、HMD500の処理部523は、サーバー200から受信したPC220のアバターを表示する指示に基づいて、LCD563上にPC220のアバターを追加して表示する。
次に、PC210の処理部211は、サーバー200から受信したPC220のアバターを表示する指示に基づいて、表示部215上にPC220のアバターを追加して表示する。
次に、PC220の処理部221は、サーバー200から受信したHMD1、HMD500、及びPC210のアバターを表示する指示に基づいて、表示部225上にHMD1、HMD500、及びPC210のアバターを追加して表示する。
なお、ここで各端末のLCD、表示部に表示されるアバターの表示は、PC220の参加に伴い、各端末の所在地に応じて、右から東経に応じて東に位置する端末より右よりに再度表示し直されるようにしてもよい。
(ステップS26)HMD500のユーザーは、線画を描写するために、タッチスイッチ534上で予め定められている指の動作を行う。HMD500の処理部523は、タッチスイッチ534から入力された制御信号に基づいて、HMD500による線画を表示する指示を、HMD1、PC210、PC220、及びサーバー200に送信する。
次に、各端末の処理部は、HMD500から受信した受信信号に基づいて、カーソルの位置情報を、順次、フラッシュメモリー122、記憶部(212、222、202)に記録する。HDM500の処理部523は、タッチスイッチ534から入力された制御信号に基づいて、カーソルの位置情報を、順次、フラッシュメモリー522、記憶部(212、222、202)に記録する。
または、各処理部(123、523、211、221、及び201)は、HMD500のユーザーが描写した線画の画像データをフラッシュメモリー(122、522)、記憶部(212、222、202)に記録する。
なお、各端末のLCD(63、563)、表示部(215、225)には、ステップS16で、PC210により一時停止された画像に、HMD500のユーザーが、タッチスイッチ534で指を動かして描写した線画が重畳されて表示される。
また、HMD500による線画は、送信された画像、及び他の端末が描写した線画と異なるレイヤー情報として、各端末、サーバーに記憶される。
次に、各端末の処理部(523、211、221、及び201)は、HMD1から受信した受信信号に基づいて、カーソルの位置情報を、順次、フラッシュメモリー522、記憶部(212、222、202)に記録する。HMD1の処理部123は、タッチスイッチ34から入力された制御信号に基づいて、カーソルの位置情報を、順次、フラッシュメモリー122に記録する。または、処理部(123、523、211、221、及び201)は、HMD1のユーザーが描写した線画の画像データをフラッシュメモリー(122、522)、記憶部(212、222、202)に記録する。
なお、各端末のLCD(63、563)、表示部(215、225)には、ステップS16で、PC210により一時停止された画像に、ステップS18でPC210が描写した緑色の線画、並びにステップS26でHMD500が描画した赤色の線画が、重畳されて表示される。
HMD1による線画を青色(R:0、G:0、B:255)にする理由は、カーソルを水色(R:100、G:100、B:255)で表示したため、同系色で表示することで、どのユーザーが捜査しているかを視覚的にわかりやすくするためである。
(ステップS30)図13に移って、例えば、HMD500のユーザーが、HMD500の通話マイクを介して、HMD1のカメラ64で撮像された映像の送信を要求する。
次に、HMD1のユーザーは、HMD500のユーザーの要求に応じて、カメラ64が撮像した映像を低解像度で、他の端末に送信するために、タッチスイッチ34の所定の領域をタッチする。なお、初期設定では、映像の送信時の解像度が、低解像度に設定されているが、タッチスイッチ34の操作により、解像度を変更することも可能である。
次に、サーバー200の処理部201は、HMD1から受信した受信信号に基づいて、HMD1から受信した低解像度の映像データを、記憶部202に記録する。
次に、サーバー200の処理部201は、HMD1から受信した受信信号に基づいて、HMD1から受信した高解像度の静止画を、記憶部202に記録する。
このように、動画での配信が難しい高解像度の映像は、他の端末からの操作に応じて高精細に撮影され、静止画として各端末に配信される。このことで、HMD1が使用されている環境の分析が他者より容易に行うことが可能である。
次に、サーバー200の処理部201は、PC210から受信した受信信号に基づいて、拡大された画像データと、画像が拡大されたことを示す情報を記憶部202に記録する。
このように、HMD1から高解像度の静止画データが送られているので、拡大しても画質が劣化することのない画像が各端末に表示される。そして、この高解像度の静止画を一台の端末の操作だけで各端末の画像が自動的に拡大でき、この画像に対して詳細なコミュニケーションを行うことが可能である。
(ステップS42)HMD500のユーザーは、HMD1に中解像度の映像を送信してもらう要求を行うために、タッチスイッチ534の所定の領域をタッチする。次に、HMD500の処理部523は、タッチスイッチ534から入力された制御信号に基づいて、中解像度の映像を送信する要求を、HMD1に送信する。
このように、各端末のユーザーは、各端末からの映像の要求のレベル(静止画か動画か)が判る。このため、各端末のユーザーは、どのようにしてカメラ64を被写体に対して向ければ良いかがユーザーが分かるため、使いやすいシステムとなっている。
なお、HMD1のユーザーが中解像度の映像の送信を承認したとしても、実際に同ユーザーが移動している最中などで、カメラ64のブレが激しい場合もあるため、HMD1の処理部123は、角速度センサー134によって送信する映像の解像度を設定するようにしてもよい。例えば、角速度センサー134の出力が予め定められている値より大きい場合、HMD1の処理部123は、中解像度の要望が来ても、低解像度かつ高フレームレートで送信を行ってもよい。
(ステップS45)各端末(HMD500、PC210、及びPC220)の処理部(523、211、及び221)は、HMD1から受信した受信信号に基づいて、LCD563、表示部(215、225)にHMD1から受信した中解像度の映像を表示する。
次に、サーバー200の処理部201は、HMD1から受信した受信信号に基づいて、HMD1から受信した中解像度の映像データを、記憶部202に記録する。
次に、サーバー200の処理部201は、受信したHMD500から受信した受信信号に基づいて、HMD500から受信した静止画に線画が重畳された画像データを、記憶部202に記録する。
(ステップS52)HMD1のユーザーは、HMD500のカメラ564が撮像した映像を閲覧するために、タッチスイッチ34の所定の領域をタッチする。次に、HMD1の処理部123は、HMD500に映像の閲覧要求を送信する。
次に、サーバー200の処理部201は、受信したHMD500からの受信信号に基づいて、HMD500から受信した静止画に低解像度の映像データと環境情報とを、記憶部202に記録する。
(ステップS56)PC210のユーザーは、接続を終了するために、入力部214を操作する。次に、PC210の処理部211は、入力部214から入力された制御信号に基づいて、接続の終了を示す情報を、HMD1、HMD500、PC220、及びサーバー200に送信する。
次に、サーバー200の処理部201は、PC210から受信した受信信号に基づいて、PC210の接続終了を記憶部202に記録する。
次に、サーバー200の処理部201は、HMD500から受信した受信信号に基づいて、HMD500の接続終了を記憶部202に記録する。
(ステップS60)PC220のユーザーは、サーバー200に記録されている画像を選択するために、入力部224を操作、例えば、キーボードの所定のキーを押す。
次に、HMD1及びPC220の各処理部(123、及び221)は、サーバー200から受信した映像データと方位情報とに基づく画像を、各々、LCD63、及び表示部225に表示する。
(ステップS73)HMD1のユーザーは、線画を描写して送信するために、タッチスイッチ34上の所定の位置で指を動かす。この場合、線画を送信するため、HMD1の処理部123は、カメラ64が撮像した映像を、低解像度から中解像度に切り替える。
次に、HMD1の処理部123は、タッチスイッチ34がタッチされたことに基づいて、送信中の映像を一時停止する指示を、PC220、及びサーバー200に送信する。
次に、処理部123は、タッチスイッチ34上の指の動きに応じて、順次、カーソルの位置を示す情報を、PC220、及びサーバー200に送信する。
次に、PC220の処理部221は、HMD1から受信した受信信号に基づいて、映像を一時停止する。次に、処理部221は、HMD1から受信した受信信号に基づいて、一時停止した静止画に青色の線画を重畳して、表示部225に表示する。
次に、サーバー200の処理部201は、HMD1から受信した受信信号に基づいて、映像データを一時停止し、停止したときの静止画を記憶部202に記録する。次に、処理部201は、HMD1から受信した受信信号に基づいて、青色の線画を、記憶部202に記録する。
(ステップS77)HMD1のユーザーは、全ての端末との通話を完了するため、タッチスイッチ34の所定の位置をタッチする。次に、HMD1の処理部123は、タッチスイッチ34から入力された制御信号に基づいて、通話を完了する指示を、ステップS77で通話に参加しているPC220、及びサーバー200に送信する。次に、処理部123は、PC220、及びサーバー200との通話を終了する。
次に、サーバー200の処理部201は、HMD1から受信した受信信号に基づいて、HMD1及びPC220との接続が終了したことを示す情報を、記憶部202に記録する。
また、本実施形態によれば、最初に静止画を要求した端末がキャプチャーした画像が全端末に配信されるので、その後に線画を重畳しても線画と静止画とが各端末でズレが発生することがないので、コミュニケーションでのミスが削減できる。
ただし、ユーザーが解像度を設定した場合、他の端末のユーザーの端末においても同じ解像度で、通話のやりとりを行う必要があるため、通話開始時等に、用いる解像度を示す情報を送信しておくようにしてもよい。
また、送信する画像は、利用する用途に応じて、白黒であっても、カラーであってもよく、カラーの場合、用途に応じて8ビットカラー、16ビットカラー等であってもよい。
また、画像に限らず、音声信号についても、リクエストされた端末は、リクエストした端末のみに音声信号を送信するようにしてもよい。または、送信元で、送信先を限定したり、グループ化してあるメンバーのみに、音声信号を送信するようにしてもよい。
また、画像の送信時、処理部123は、例えば、撮影日時、端末の機種情報、撮影条件(シャッタースピード、感度、絞り値、レンズの焦点距離)等の情報を付加、もしくは埋め込んで送信するようにしてもよい。
また、送信する画像のフォーマットは、予め端末が再生可能なフォーマットをサーバー200に登録しておき、サーバー200が登録されている情報に基づいて決定するようにしてもよい。この結果、端末側で、フォーマット変換を行う必要がないので、通話を行っているユーザー同士が、ほぼ同時刻に同じ画像を観測することができるので、コミュニケーションのミスを軽減できる効果がある。
また、カメラ64は、3次元撮像が可能なものを備えるようにしてもよい。カメラ64が、3次元撮影が可能な場合、他の端末に送信する画像情報は、他の端末が全て3次元表示可能な表示部を備えていることが予め分かっていれば、3次元の画像情報を、送信するようにしてもよい。
Claims (9)
- 画像を表示する表示部と、
ユーザーの操作を検出する入力部と、
前記入力部で操作が行われた場合、前記表示部に表示されている画像を一時停止し、一時停止させた前記画像に、前記入力部での操作に基づく画像を重畳する画像合成部と、
を備えることを特徴とする情報表示装置。 - 前記入力部で操作が行われた場合、一時停止させた前記画像を、他の端末へ送信する送受信部
を備えることを特徴とする請求項1に記載の情報表示装置。 - 画像を撮像する撮像部
を備え、
前記画像合成部は、前記入力部で操作が行われた場合、前記撮像部が撮像して表示部に表示された前記画像を一時停止させる
ことを特徴とする請求項1または請求項2に記載の情報表示装置。 - 前記画像合成部は、軌跡が残らないカーソルを重畳する第1モードの場合、前記表示部に表示されている画像を一時停止せずに、当該画像に前記入力部での操作に基づく画像を重畳する
ことを特徴とする請求項1から請求項3のいずれか1項に記載の情報表示装置。 - 前記画像合成部は、
軌跡を残す線画を重畳する第2モードの場合、前記表示部に表示される画像を一時停止し、一時停止させた当該画像に前記入力部での操作に基づく画像を重畳する
ことを特徴とする請求項1から請求項3のいずれか1項に記載の情報表示装置。 - 前記画像合成部は、
前記入力部から出力されたユーザーの操作に基づいて、他の端末に送信する画像の解像度、フレームレートのいずれか1つを切り替えて、切り替え後の画像を前記他の端末に送信する
ことを特徴とする請求項2から請求項5のいずれか1項に記載の情報表示装置。 - 前記画像合成部は、前記表示部に表示されている画像を一時停止し、一時停止させた前記画像に、他の端末の入力部での操作に基づく画像を重畳する
ことを特徴とする請求項2から請求項5のいずれか1項に記載の情報表示装置。 - 前記画像合成部は、軌跡を残す線画を表示する色と、軌跡を残さないカーソルを表示する色とを同系色にする
ことを特徴とする請求項1から請求項7のいずれか1項に記載の情報表示装置。 - 情報表示装置における情報表示方法であって、
表示部が、画像を表示する表示手順と、
入力部が、ユーザーの操作を検出する入力手順と、
前記入力手順で操作が行われた場合、前記表示部に表示されている画像を一時停止し、一時停止させた前記画像に、前記入力手順での操作に基づく画像を重畳する画像合成手順と、
を含むことを特徴とする情報表示方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012039147A JP6074894B2 (ja) | 2012-02-24 | 2012-02-24 | 情報表示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012039147A JP6074894B2 (ja) | 2012-02-24 | 2012-02-24 | 情報表示装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013175048A true JP2013175048A (ja) | 2013-09-05 |
JP6074894B2 JP6074894B2 (ja) | 2017-02-08 |
Family
ID=49267895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012039147A Active JP6074894B2 (ja) | 2012-02-24 | 2012-02-24 | 情報表示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6074894B2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017068381A (ja) * | 2015-09-28 | 2017-04-06 | キヤノン株式会社 | リモート支援システム、情報処理装置、画像処理装置、それらの制御方法、及びプログラム |
WO2017138153A1 (ja) * | 2016-02-12 | 2017-08-17 | 富士通株式会社 | 端末装置、管理方法、制御方法、管理プログラム、及び制御プログラム |
WO2019082366A1 (ja) * | 2017-10-26 | 2019-05-02 | サン電子株式会社 | 会議システム |
JP2020101886A (ja) * | 2018-12-20 | 2020-07-02 | 株式会社ガゾウ | 頭部装着型情報機器及びプログラム |
US11003350B2 (en) | 2017-09-19 | 2021-05-11 | Canon Kabushiki Kaisha | Control apparatus, control method, and storage medium |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002507027A (ja) * | 1998-03-13 | 2002-03-05 | シーメンス コーポレイト リサーチ インコーポレイテツド | 協調的ダイナミックビデオコメント作成装置および作成方法 |
JP2006211659A (ja) * | 2006-01-23 | 2006-08-10 | Nikon Corp | 情報処理装置、情報処理方法、および、記録媒体 |
JP2007042073A (ja) * | 2005-07-01 | 2007-02-15 | Canon Inc | 映像提示システム、映像提示方法、該映像提示方法をコンピュータに実行させるためのプログラム、および記憶媒体 |
JP2008310269A (ja) * | 2007-06-18 | 2008-12-25 | Konami Digital Entertainment:Kk | 画像処理装置、画像処理方法、ならびに、プログラム |
JP2009239646A (ja) * | 2008-03-27 | 2009-10-15 | Fuji Xerox Co Ltd | テレビ会議システムおよびテレビ会議装置および画像処理プログラム |
JP2011210051A (ja) * | 2010-03-30 | 2011-10-20 | Sharp Corp | ネットワークシステム、通信方法、および通信端末 |
-
2012
- 2012-02-24 JP JP2012039147A patent/JP6074894B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002507027A (ja) * | 1998-03-13 | 2002-03-05 | シーメンス コーポレイト リサーチ インコーポレイテツド | 協調的ダイナミックビデオコメント作成装置および作成方法 |
JP2007042073A (ja) * | 2005-07-01 | 2007-02-15 | Canon Inc | 映像提示システム、映像提示方法、該映像提示方法をコンピュータに実行させるためのプログラム、および記憶媒体 |
JP2006211659A (ja) * | 2006-01-23 | 2006-08-10 | Nikon Corp | 情報処理装置、情報処理方法、および、記録媒体 |
JP2008310269A (ja) * | 2007-06-18 | 2008-12-25 | Konami Digital Entertainment:Kk | 画像処理装置、画像処理方法、ならびに、プログラム |
JP2009239646A (ja) * | 2008-03-27 | 2009-10-15 | Fuji Xerox Co Ltd | テレビ会議システムおよびテレビ会議装置および画像処理プログラム |
JP2011210051A (ja) * | 2010-03-30 | 2011-10-20 | Sharp Corp | ネットワークシステム、通信方法、および通信端末 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017068381A (ja) * | 2015-09-28 | 2017-04-06 | キヤノン株式会社 | リモート支援システム、情報処理装置、画像処理装置、それらの制御方法、及びプログラム |
WO2017138153A1 (ja) * | 2016-02-12 | 2017-08-17 | 富士通株式会社 | 端末装置、管理方法、制御方法、管理プログラム、及び制御プログラム |
JPWO2017138153A1 (ja) * | 2016-02-12 | 2018-11-22 | 富士通株式会社 | 端末装置、管理方法、制御方法、管理プログラム、及び制御プログラム |
US11003350B2 (en) | 2017-09-19 | 2021-05-11 | Canon Kabushiki Kaisha | Control apparatus, control method, and storage medium |
WO2019082366A1 (ja) * | 2017-10-26 | 2019-05-02 | サン電子株式会社 | 会議システム |
JPWO2019082366A1 (ja) * | 2017-10-26 | 2020-11-19 | サン電子株式会社 | 会議システム |
US11212488B2 (en) | 2017-10-26 | 2021-12-28 | Suncorporation | Conference system |
JP2020101886A (ja) * | 2018-12-20 | 2020-07-02 | 株式会社ガゾウ | 頭部装着型情報機器及びプログラム |
JP7224018B2 (ja) | 2018-12-20 | 2023-02-17 | 株式会社ガゾウ | 頭部装着型情報機器及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6074894B2 (ja) | 2017-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013175929A (ja) | 情報出力装置、及び情報出力方法 | |
JP7379907B2 (ja) | 情報処理装置、情報処理プログラム、情報処理システム、情報処理方法 | |
RU2670784C9 (ru) | Ориентация и визуализация виртуального объекта | |
US9380207B1 (en) | Enabling multiple field of view image capture within a surround image mode for multi-lense mobile devices | |
US9426379B2 (en) | Photographing unit, cooperative photographing method, and recording medium having recorded program | |
US9245389B2 (en) | Information processing apparatus and recording medium | |
US8768141B2 (en) | Video camera band and system | |
US7880807B2 (en) | Camera system with mirror arrangement for generating self-portrait panoramic pictures | |
US20090219224A1 (en) | Head tracking for enhanced 3d experience using face detection | |
JP7164831B2 (ja) | 通信管理システム、通信システム、通信方法、及びプログラム | |
US20100208029A1 (en) | Mobile immersive display system | |
JP6074894B2 (ja) | 情報表示装置 | |
JP2014021707A (ja) | 情報入出力装置、及び情報入出力方法 | |
KR20190013308A (ko) | 이동 단말기 및 그 제어 방법 | |
KR102240639B1 (ko) | 글래스 타입 단말기 및 그것의 제어 방법 | |
JP2010524295A (ja) | 第1の携帯可能な通信装置 | |
KR20190008610A (ko) | 이동 단말기 및 그 제어 방법 | |
JP2014011624A (ja) | 情報入出力装置、及び頭部装着表示装置 | |
JP6096654B2 (ja) | 画像の記録方法、電子機器およびコンピュータ・プログラム | |
KR20180040409A (ko) | 이동 단말기 및 그 제어방법 | |
JP2014212473A (ja) | 通信装置、及び頭部装着表示装置 | |
JP2020014114A (ja) | 表示制御装置、表示制御装置の制御方法、プログラム、記憶媒体 | |
KR20160020860A (ko) | 이동 단말기 및 그 제어 방법 | |
JP2013174730A (ja) | 情報表示装置 | |
JP2023140922A (ja) | 表示端末、情報処理システム、通信システム、表示方法、情報処理方法、通信方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160328 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160926 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6074894 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |