JP2005099064A - 表示システム、表示制御装置、表示装置、表示方法、およびユーザインタフェイス装置 - Google Patents

表示システム、表示制御装置、表示装置、表示方法、およびユーザインタフェイス装置 Download PDF

Info

Publication number
JP2005099064A
JP2005099064A JP2003310780A JP2003310780A JP2005099064A JP 2005099064 A JP2005099064 A JP 2005099064A JP 2003310780 A JP2003310780 A JP 2003310780A JP 2003310780 A JP2003310780 A JP 2003310780A JP 2005099064 A JP2005099064 A JP 2005099064A
Authority
JP
Japan
Prior art keywords
display
user
display device
unit
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003310780A
Other languages
English (en)
Other versions
JP3880561B2 (ja
Inventor
Akira Suzuki
章 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2003310780A priority Critical patent/JP3880561B2/ja
Priority to EP03020114A priority patent/EP1396781A3/en
Priority to US10/655,736 priority patent/US20040125044A1/en
Publication of JP2005099064A publication Critical patent/JP2005099064A/ja
Application granted granted Critical
Publication of JP3880561B2 publication Critical patent/JP3880561B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/045Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using resistive elements, e.g. a single continuous surface or two parallel surfaces put in contact
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2300/00Aspects of the constitution of display devices
    • G09G2300/02Composition of display devices
    • G09G2300/026Video wall, i.e. juxtaposition of a plurality of screens to create a display screen of bigger dimensions

Abstract

【課題】 簡便な構成で高視野角映像を効果的に表示することが可能な表示システムを提供する。
【解決手段】 ユーザを取り囲むような形式で表現された映像データを、ユーザ20の周囲に配された複数の表示装置30a、30b、30c、30d、および30eに分割して表示するにあたり、表示制御装置100は、それぞれの表示装置30の位置を示す情報を位置センサ32から取得し、ユーザ20から見てその表示装置30の方向に見えるべき映像を生成し、その表示装置30に表示せしめる。
【選択図】 図1

Description

本発明は、複数の表示装置に映像を表示する技術に関し、特に、高視野角映像をユーザの周囲に配された複数の表示装置に分割して表示する技術に関する。
近年、コンピュータグラフィクスや特殊映像効果など、映像を生成または加工する技術が飛躍的に向上し、さらに、映像を配信するインフラの整備、各種映像を再生するための装置やアプリケーションの普及などの要因が相まって、放送ないし映像配信の世界は、新たな時代を迎えようとしている。そうした状況下、次世代の映像コンテンツとして、360度カメラなどにより撮影された超パノラマ映像や、仮想的な三次元空間をコンピュータグラフィクスなどの技術により表現した仮想現実空間の映像などが注目を集めるようになっている。このような高視野角の映像は、既に電子商取引などの場面で取り入れられつつあり、たとえば、不動産物件の内部をウォークスルーすることが可能なコンテンツなどが提供されている。
これらの高視野角映像は、本来、ユーザの正面のみならず、ユーザを取り囲むような映像情報を有しているから、それを表示する表示装置も、ユーザを取り囲むような大画面の表示装置ないし球形のスクリーンなどにすることで、より高い臨場感が得られる。しかしながら、このような表示装置は、装置自体が大きく高価であるから、設置条件が限られ、家庭などへの導入は難しい。
本発明はこうした事情に鑑みてなされたものであり、その目的は、比較的簡便な構成で高視野角映像を効果的に表示する技術を提供することにある。また別の目的は、高視野角映像を楽しむためのシステムを導入する際の手間とコストを低減し、広く家庭等に普及させることのできる技術を提供することにある。
このような課題を解決するために、本発明では、仮想現実(バーチャルリアリティ)などの三次元空間映像や、パノラマ映像など、ユーザを取り囲むような形式で表現された映像データを、ユーザの周囲に配された複数の表示装置に分割して表示するにあたって、それぞれの表示装置の位置を示す情報を適宜取得し、ユーザから見てその表示装置の方向に見えるべき映像を生成し、その表示装置に表示せしめる。
この表示技術は、複数の表示装置と、少なくとも一つの表示制御装置とを含む表示システムにより実現される。表示装置は、自己の位置を検知するための検知部と、検知部により検知された自己の位置を示す情報を表示制御装置に通知する通知部と、を含む。表示制御装置は、通知部から表示装置の位置を示す情報を取得する位置情報取得部と、前記位置情報取得部が取得した表示装置の位置を示す情報に基づいて、その表示装置に表示すべき映像を生成し、その表示装置に送信する映像生成部と、を含む。複数の表示装置は、それぞれ映像生成部から取得した映像を表示する。
本発明によれば、比較的簡便な構成で高視野角映像を効果的に表示する技術を提供することができる。また、高視野角映像を楽しむためのシステムを導入する際の手間とコストを低減し、広く家庭等に普及させることのできる技術を提供することができる。
(第1の実施の形態)
本実施の形態に係る表示システムは、複数の表示装置をユーザの周囲に配し、これらの表示装置が連動して一つの超パノラマ空間映像や三次元仮想現実空間映像を表示するものである。それぞれの表示装置の画面は、ユーザの周囲に展開される超パノラマ空間または三次元仮想現実空間を見るための「窓」の役割を果たす。ユーザは、これらの「窓」から、自身を取り囲む仮想空間の映像および音声を受け取ることにより、実際に自身が超パノラマ空間または三次元仮想現実空間の中に存在しているかのような高い臨場感と没入感を得ることができる。
図1は、第1の実施の形態に係る表示システム10の全体構成を模式的に示す。表示システム10は、ユーザ20の周囲に配置された複数の表示装置30a、30b、30c、30d、30eと、表示制御装置100とを含む。これらの装置はネットワーク40を介して接続されている。ネットワーク40は、各装置を接続するケーブルであってもよいし、LAN、WAN、インターネット、電源線などを利用したホームネットワークなどであってもよい。また、図1では有線のネットワーク40を利用した例を示しているが、もちろん無線のネットワークであってもよい。以下、表示システム10により表示される超パノラマ空間映像、三次元仮想現実映像などをまとめて「高視野角映像」ともいう。表示システム10は、ユーザ20が所持するリモートコントローラ80により操作される。
表示装置30は、それぞれ、その表示装置の位置を検知するための検知部の一例としての位置センサ32、表示画面34、およびスピーカ36を含む。位置センサ32により取得された表示装置30の位置情報は、ネットワーク40を介して表示制御装置100に送られる。表示制御装置100は、各表示装置30の位置、方向、画面の大きさなどの情報に基づいて、高視野角映像のうちユーザ20から見てその表示装置30の表示画面34に見えるはずの映像を生成し、それぞれの表示装置30に送る。同様に、表示制御装置100は、表示装置30の方向から聞こえるはずの音声を生成し、それぞれの表示装置30に送る。表示装置30は、表示制御装置100から送られた映像を表示画面34に、音声をスピーカ36に出力する。これにより、ユーザを取り囲むような映像および音声情報が、実際にユーザを取り囲むように配置された複数の表示装置30により表現される。
従来、映像を表示装置30に表示する際、一般的には、表示装置の画面の大きさにかかわらず同じ映像を表示していたが、本実施の形態の表示システム10では、表示装置30が置かれた位置、方向、画面の大きさ、ユーザ20の位置、視線方向などに応じて、高視野角映像の一部を切り取って表示装置30に表示する。高視野角映像の例として、3次元CGを本表示システム10により表示する場合、3次元CGにおけるワールド座標を、実際に映像を鑑賞している実世界の座標に対応づけてもよい。このとき、複数の表示装置30のそれぞれが、CGの座標変換処理に用いられるビューフラスタム(四角錘台)に相当することになる。
表示装置30としては、テレビジョン表示装置のほか、パーソナルコンピュータ、ノート型、タブレット型、携帯型、テーブル型などの各種情報端末の表示装置、携帯電話の表示画面、プロジェクタ、HMD(Head Mount Display)など、任意の表示装置を利用可能である。複数の表示装置に高視野角映像を分割して表示するため、必ずしも巨大な画面を有する表示装置を用意する必要がない。したがって、比較的安価にシステムを構築することが可能である。また、図2に示すように、画面の中央付近の領域22を液晶表示装置などにより高精細に表示し、その周囲の領域24をプロジェクタなどの大画面表示に適した表示装置により表示してもよい。この場合、プロジェクタによる投影映像が液晶表示装置に重ならないように、プロジェクタの画面中央付近を遮光してもよいし、意図的に映像を重ね合わせて表示してもよい。ここで、領域22の位置は、必ずしも領域24の中心付近でなくてもよい。表示制御装置100は、領域22の表示画面位置と領域24の表示画面位置とを取得可能であるから、それらの位置に合わせて、上述したように、領域24に表示する画像に領域22に表示する画像をはめ込んだり、重ね合わせたりすることができる。
それぞれの表示装置は、通常は個々の用途において使用し、高視野角映像を表示する際に本システムに接続してもよい。本システムのネットワーク40による通信に対応した通信制御機能を有する専用の表示装置30を利用してもよいし、既存の表示装置を本システムに接続して利用してもよい。後者の場合、たとえば、既存の表示装置に位置センサ32を取り付け、位置情報を無線などにより表示制御装置100に送り、表示制御装置100からの映像を表示装置の映像入力端子に、音声を音声入力端子に供給する構成にしてもよい。このような構成によれば、特別な表示装置を必要としないため、導入が容易であり、費用対効果も高い。また、位置センサ32を取り付ける代わりに、表示装置30の位置情報の入力をユーザから受け付けてもよいし、ユーザに表示装置30の位置を調整させてもよい。
図3は、表示装置30内に設けられた制御部の内部構成を示す。制御部31は、位置センサ32、装置情報保持部33、通知部37、表示部38、および音声出力部39を含む。これらの構成は、ハードウエア的にはコンピュータのCPUやメモリなどの構成で実現でき、ソフトウエア的にはプログラムなどによって実現できるが、本図ではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウエア、ソフトウエアの組合せによっていろいろなかたちで実現できる。
位置センサ32は、表示装置30の位置情報を検知する。位置センサ32としては、磁気、赤外線、超音波、その他の原理による各種センサを利用可能である。たとえば、表示制御装置100、ユーザ20の所有するリモートコントローラ80、主画面となる表示装置30a、または本システムが設置された部屋の壁や天井などに磁気、光、音波などの信号の発信機を設け、各表示装置30にその信号の受信機を設けてもよい。位置センサ32として、磁場発生器からの磁気信号を受信する磁気センサを利用する場合、磁場発生器と磁気センサとの間で同期をとるための通信経路を設けてもよい。広い範囲で高精度の位置情報を検知するために、複数の磁気発生器を分散して配置し、それらの磁気発生器から各位置センサ32が受信した信号を統合的に解析することにより、各表示装置30の位置情報を算出してもよい。また、それぞれの位置センサ32が発信機および受信機の機能を有し、相互の通信により相対位置を検知してもよい。たとえば、微弱電波による近距離無線通信システムを応用して、電波強度から互いの装置間の距離を推測してもよいし、ブルートゥースなどの技術を用いてもよい。この場合、たとえば表示制御装置100が、それぞれの表示装置30から装置間の距離情報を収集し、三角測量等の技術を用いて、それぞれの表示装置30の位置を算出してもよい。
位置センサ32は、その他、GPS衛星からの信号を受信するセンサであってもよいし、測距機能を有する撮像装置であってもよい。GPS受信機を位置センサ32として利用する場合は、個々の表示装置30が、自身の位置情報を取得することができる。また、測距機能を有する撮像装置を位置センサ32として利用する場合は、個々の表示装置30が、自身と、ユーザ20または他の表示装置30との間の相対位置を取得することができる。後述するように、表示制御装置100ではなく、個々の表示装置30が自身の表示画面に表示する映像をそれぞれ生成する場合は、このように表示装置30自身が単独で位置情報を取得可能な技術を利用してもよい。
表示装置30の三次元位置を取得する方法として、複数のカメラにより表示装置30を撮像して視差により三次元位置を検知する方法を用いてもよいし、測距機能を有する撮像装置により表示装置30を撮像して三次元位置を検知してもよい。これらの場合、各表示装置30に位置センサ32を設けなくてもよい。各表示装置30に赤外線LEDを設けておき、所定位置、たとえば表示制御装置100又は部屋の天井に設けられた単数または複数の赤外線カメラで赤外線LEDを撮影して、各表示装置30の位置を取得してもよい。この場合、各表示装置30の赤外線LEDの明滅パターンにより装置を識別してもよい。赤外線カメラの撮影速度が比較的遅い場合は、赤外線LEDと赤外線カメラとの間で同期をとり、赤外線LEDの明滅パターンを正確に識別できるようにしてもよい。
プロジェクタによりスクリーンや壁に映像を投影する場合は、たとえば、赤外線などの不可視光を投影し、それをカメラなどで撮影して画像認識することにより、投影画面の位置情報を取得してもよい。このとき、投影面の形状をも考慮すべく、可視光または不可視光によるキャリブレーションパターンをプロジェクタから投影し、ステレオビデオカメラなどにより投影面の位置、方向、および形状を認識し、それに基づいて投影映像を歪ませるなどの処理を行ってもよい。
各表示装置30に表示すべき映像を生成するためには、その表示装置30の三次元位置情報だけでなく、表示画面の向きも必要である。位置センサ32がジャイロを有している場合は、そのジャイロの基準位置からの3軸の傾き角を検出することができるので、三次元空間中における表示画面34の方向を算出することができる。また、位置及び角度の6自由度を検知可能なセンサを用いてもよい。これらの場合、各表示装置30には1つの位置センサ32を設ければよい。その他、表示画面34の方向を検知する方法として、一つの表示装置30に複数の位置センサ32を設けておいてもよいし、重力を検知可能な加速度センサ、地磁気センサなど、表示画面34の傾き角を検知可能なセンサを別途設けてもよい。また、外部に複数の撮像装置を設けて表示装置30を撮影することにより各表示装置30の位置を検知する場合は、撮影した画像から表示装置30の表示画面34の方向を取得してもよい。
装置情報保持部33は、表示装置30の表示画面のサイズ、アスペクト比、画素数、γ値などの色特性、表示部38などの処理能力、装置のID、メーカ名、型式などの識別情報等、表示装置30に固有な特性情報を保持する。これらの情報は、表示制御装置100に通知され、表示装置30に表示する映像を生成するために利用される。別の例では、装置情報保持部33は、ネットワークにより表示制御装置100と接続された任意の装置に保持されてもよく、要は、表示制御装置100が、本表示システム10に参加している表示装置30の特性情報を取得できるように構成されていればよい。たとえば、表示装置30の製造主体により運営されるウェブサイトに表示装置30の特性情報を掲載しておき、そのウェブサイトから表示装置30の特性情報を取得してもよい。これによれば、情報の追加、変更、修正などのメンテナンスが容易であり、かつ、装置情報保持部33が設けられていない表示装置30であっても、本表示システム10に参加させることが可能となるので、拡張性に優れている。
通知部37は、位置センサ32により検知された表示装置30の位置を示す情報と、装置情報保持部33に保持された表示装置30の特性情報を表示制御装置100に通知する。表示装置30の特性情報は、たとえば、表示装置30がネットワークに接続されたとき、表示システム10の起動時、初期化時、などに表示制御装置100に通知されてもよい。表示画面のサイズ、画素数など、変更されない情報については、表示制御装置30に一度通知されれば十分である。表示画面の輝度、彩度などの色特性やアスペクト比などの表示に関する特性情報や、スピーカの音量などの音声出力に関する特性情報が変更可能に構成されている場合は、変更を検知したときに、表示制御装置100に変更された情報を通知してもよい。表示装置30の位置を示す情報は、所定の時間間隔で通知されてもよいし、表示装置30の位置、方向などが変更されたことを検知したときに通知されてもよい。
表示部38は、表示制御装置100により表示装置30の位置に応じて生成された映像を取得して表示画面34に表示するための処理を行う。音声出力部39は、表示制御装置100により生成された音声を取得してスピーカ36に出力するための処理を行う。
通知部37は、位置センサ32が受信した信号を各表示装置30内で処理し三次元位置情報を算出して表示制御装置100に送信してもよいし、信号情報のみを表示制御装置100に送り表示制御装置100側で各表示装置30の三次元位置情報を算出してもよい。前者の場合、表示装置30は、図示しないセンサ位置情報算出部を有する。本実施の形態では、表示制御装置100側で位置情報を算出するものとする。
図4は、表示制御装置100の内部構成を示す。これらの機能ブロックも、ハードウエア、ソフトウエアの組合せによっていろいろなかたちで実現できる。
センサ位置情報取得部110は、各表示装置30の通知部37から、位置センサ32が受信した信号情報を取得する。装置情報取得部112は、各表示装置30の通知部37から、装置情報保持部33に保持された表示装置30の特性情報を取得する。別の例では、表示装置30の特性情報は、予め表示制御装置100に登録されてもよい。また、ネットワーク40を介して各表示装置30の識別情報を取得し、表示装置30の特性情報を掲載したウェブページなどにアクセスして、特性情報を入手してもよい。また、装置情報取得部112は、特性情報取得部の機能を有してもよく、この場合、表示装置30の通知部37から表示装置30の表示又は音声出力に関する特性情報を取得する。画面位置情報算出部120は、センサ位置情報取得部110により取得された情報と、装置情報取得部112により取得された各表示装置30における位置センサ32の搭載位置、表示画面34の幅および高さなどの情報をもとに、各表示装置30の表示画面34の位置および方向を算出する。
視点位置情報算出部130は、センサ位置情報取得部110により取得された情報をもとにユーザの視点位置を算出する。ユーザ20が、携帯可能な表示装置、HMD、リモートコントローラなどを所持している場合は、その位置を算出して視点位置としてもよいし、主画面となる表示装置から所定の距離の位置を視点位置としてもよいし、複数の表示装置30の中心または重心位置としてもよいし、固定の視点位置を予め登録しておいてもよい。すなわち、ここで算出する視点位置は、必ずしも現実のユーザ20の視点位置と一致していなくてもよいが、できる限り近いことが望ましい。視線方向については、カメラなどによりユーザを撮影して、画像処理によりユーザの顔の向きを検出して決定してもよいし、主画面を予め決めておき、視点位置から主画面を臨む方向を視線方向としてもよいし、予め固定的に決めておいてもよい。複数のユーザが視聴している場合は、ユーザの中から基準となるユーザを選択して、そのユーザの顔や目の位置または方向を検出してもよい。多眼視差映像表示機能を有し、裸眼立体視が可能な表示装置は、ユーザの位置に応じて異なる画像が見えるので、複数のユーザが視聴する場合に好適である。
視聴中に表示装置30やユーザ20が移動する場合を考慮して、センサ位置情報取得部110および視点位置情報算出部130は、表示システム10の起動時または初期化時だけでなく、たとえば所定の時間間隔で表示装置30やユーザ20の位置を検知し、現在位置を的確に把握するのが好ましい。
透視変換マトリクス算出部140は、各表示画面34の位置情報をもとに、視点位置からその表示画面34を通して高視野角映像を見たときの映像を得るための透視変換マトリクスを算出する。座標変換マトリクス算出部150は、視点位置の移動情報や、高視野角映像の拡大縮小を行うスケーリング情報などを、透視変換マトリクスに作用させ、三次元空間データから画面座標データへの変換を行うための座標変換マトリクスを算出する。ユーザ20が、リモートコントローラなどのユーザインタフェイスを介して、視点位置を移動させたり、映像を拡大縮小させたりすることが可能な構成としてもよい。その場合、ユーザから指示が入力されると、座標変換マトリクス算出部150が指示にしたがって座標変換マトリクスを更新する。映像生成部160は、高視野角映像を表現する三次元空間映像データに対して座標変換マトリクスを適応し、各表示装置30に表示すべき映像を生成する。生成された映像は各表示装置30に送られ、表示画面34に表示される。透視変換マトリクスおよび座標変換マトリクスを算出し、映像データに作用させて映像を得る方法については、既知の計算原理による画像処理技術を利用可能である。
音声生成部170は、各表示装置30の位置および視点位置をもとに、用意された音声データに三次元音場を生成するための音響処理を適応して、その表示装置に内蔵されたスピーカ36に供給すべき音声を生成する。音響処理についても同様に既知の技術を利用可能である。スピーカ36を表示装置30とは別に設ける場合は、スピーカ36にも位置センサ32を設けるなどして、別途スピーカ36の位置情報を取得してもよい。位置センサ付きのスピーカ46を多数ユーザの周囲に配置し、それぞれに対して位置を考慮した最適な音声信号を配信することにより、大幅に臨場感を向上させることができる。一般的な、2つのスピーカからなるステレオスピーカでは、最適なユーザ視聴位置が限定されるが、複数のスピーカを用いることにより、最適なユーザ視聴位置を広げることができる。さらに、ユーザの位置を取得して音声信号に反映させることにより、常に最適な音声信号を生成することができる。
映像生成部160および音声生成部170における演算処理のもととなる映像データおよび音声データは、ネットワーク配信や放送波などから取得されてもよいし、CD、DVD、ビデオテープなどの記録媒体から読み出されてもよい。映像生成部160により生成された映像、および音声生成部170により生成された音声は、ネットワーク40を介して各表示装置30に伝達されてもよいし、専用のケーブルを用いて、表示装置30の映像入力端子および音声入力端子を介して伝達されてもよい。
特性情報決定部190は、表示システム10に参加している複数の表示装置30の表示又は音声出力の特性を統一すべく、特性情報取得部の一例である装置情報取得部112が取得した各表示装置30の特性情報に基づいて、複数の表示装置30の表示又は音声出力の特性を決定し、各表示装置30に通知する。各表示装置30は、特性情報決定部190から通知された特性に設定を変更する。たとえば、ユーザがある表示装置30に対して個別に輝度、コントラスト、カラーバランスなど画質に影響を与える特性の調整を行ったとき、その調整値を他の表示装置30にも反映させて、表示システム10に参加している複数の表示装置30の間で画質をそろえる処理を行ってもよい。これにより、ユーザに均一な視聴環境を提供することができる。
参加・退出処理部180は、表示装置30の表示システム10への参加、退出に関する処理を行う。参加・退出処理部180は、表示システム10の初期化時、または起動時に、ネットワーク40に接続されている表示装置30を検知し、それらの表示装置30の位置情報を取得するようセンサ位置情報取得部110に指示し、それらの表示装置30の特性情報を取得するよう装置情報取得部112に指示する。表示装置30の位置情報および特性情報を取得すると、参加・退出処理部180は、表示装置30を表示システム10に参加させるか否かを判断する。たとえば、表示装置30が位置センサ32を搭載していない場合は、表示システム10に参加させないと判断してもよい。ただし、撮像装置により表示装置30を撮影することにより表示装置30の位置を検知する場合は、位置センサ32を搭載していない表示装置30を表示システム10に参加させてもよい。前述したプロジェクタの投影面を検出する手法と同様の手法により、表示装置30の表示画面の位置を検知することも可能である。
参加・退出処理部180は、表示装置30の表示画面の向きを取得し、表示画面の向きがユーザの視線方向から大きく外れている場合は、表示システム10に参加させないと判断してもよい。たとえば、図5に示した例では、ネットワーク40に接続された表示装置30のうち、表示装置30cは、画面34cの向きがユーザ20の視線方向から大きく外れており、高視野角映像の一部を表示装置30cに表示したとしても、ユーザ20は表示装置30cの画面34cをほとんど見ることができない。この場合、参加・退出処理部180は、表示装置30cを表示システム10に参加させないと判断してもよい。
また、参加・退出処理部180は、ネットワーク40に接続されている全ての表示装置30の位置および画面の向きと、ユーザの位置とを把握し、表示装置30をグループ化してもよい。たとえば、図6に示した例では、ユーザ20aの周囲には、表示装置30a、30b、30c、30d、および30eが配置されており、ユーザ20bの周囲には、表示装置30f、30g、30h、30i、および30jが配置されている。この場合、参加・退出処理部180は、表示装置30a、30b、30c、30d、および30eをグループ化し、表示装置30f、30g、30h、30i、および30jをグループ化して、それぞれのグループごとに高視野角映像を提供する。このとき、視点位置情報算出部130は、表示装置30a、30b、30c、30d、および30eのグループのための視点位置を、ユーザ20aを基準にして設定し、表示装置30f、30g、30h、30i、および30jのグループのための視点位置を、ユーザ20bを基準にして設定する。この例は、ユーザ20aとユーザ20bとがネットワーク40を介して対戦ゲームを行うような場合に好適である。
参加・退出処理部180は、表示システム10の起動中、所定の時間間隔でネットワーク40に接続確認用の信号を送出し、その応答信号を表示装置30から取得することにより、ネットワーク40に接続中の表示装置30を検知してもよい。ネットワーク40に表示装置30が新たに接続された場合は、参加・退出処理部180は、表示システム10の起動時と同様の処理により、その表示装置30を表示システム10に参加させるか否かを判断し、参加させると判断した場合は、映像生成部160および音声生成部170に、その表示装置30に送る映像情報および音声情報を生成させる。また、表示システム10に参加していた表示装置30がネットワーク40から切断された場合、参加・退出処理部180は、その表示装置30を表示システム10から退出させ、以降、その表示装置30のための映像情報および音声情報を生成させない。上述した例では、参加・退出処理部180は、ネットワーク40を介して、表示装置30の存在を確認したが、別の例では、撮像装置によりユーザの周囲を撮影して、表示装置30の追加、撤去、移動などを検知してもよい。また、ブルートゥースその他の微弱電波による近距離無線を用いてもよい。
このように、本実施の形態の表示システム10では、参加・退出処理部180により、ネットワーク40に接続した表示装置30を自動的に検知するとともに、各表示装置30の位置をセンサで検知することにより、高視野角映像のうち、その表示装置30の位置に表示すべき映像を生成する。したがって、表示装置30を新たに設置するときや、位置を変更するときに、画面の位置合わせなど煩雑な作業をユーザに強いることがなく、容易に本システムを構築することができる。ユーザは自身の生活環境に合わせて、それぞれ独立に表示画面を有する複数の表示装置を自由に配置することができるため、設置条件の自由度も高い。また、表示装置の追加も容易であるから、ユーザの予算に合わせて徐々に追加していくことも可能である。このように、本システムでは、従来の大画面ディスプレーを利用した表示システムに比べて、導入時のコストや手間が大幅に軽減されるので、家庭や、レストランなどの小規模店舗などへの普及の促進が期待できる。
HMDや小型ディスプレーなど、移動可能な表示装置を使用している場合は、その位置をリアルタイムに検知し、表示装置の移動に合わせて表示される映像を移動させてもよい。とくに、HMDを使用する場合、ユーザの位置や頭の向きに応じて、その位置からその向きに見えるはずの映像をリアルタイムに表示することができるので、より臨場感の高い環境を提供することができる。
つづいて、表示システム10にユーザ20からの指示を入力するための構成について説明する。本実施の形態では、ユーザ20の指示を入力するためのボタンや方向キーなどの構成を備えたリモートコントローラ80により、表示システム10に属する複数の表示装置30および表示制御装置100に対して、ユーザからの指示を伝達する。リモートコントローラ80は、無線により信号を伝達してもよいし、有線のネットワークにより信号を伝達してもよい。表示装置30の一つをリモートコントローラ80として機能させてもよく、たとえば、ユーザが所持して操作可能な携帯ゲーム機、PDA、携帯電話機などをリモートコントローラ80として機能させてもよい。リモートコントローラ80から送信される信号は、表示制御装置100、ユーザ20の正面に位置する主たる表示装置30(たとえば図1における表示装置30a)、または図示しないホームサーバなどが一括して受信し、一括受信した装置(以下、「受信装置」ともいう)から各表示装置30に必要な指示を伝達してもよいし、各表示装置30および表示制御装置100が自身に向けて発信された信号を受信してもよい。前者の場合、リモートコントローラ80からの信号を受信した受信装置は、ネットワーク40を介して、各表示装置30および表示制御装置100に指示を伝達してもよいし、天井などに設けられた赤外線発生器などを介して指示を伝達してもよい。なお、リモートコントローラ80は、表示装置30や表示制御装置100だけでなく、オーディオ機器、冷暖房機、照明、電動ブラインド、ドアホン等、他の家電製品に対してもユーザの指示を入力可能に構成されてもよい。
複数の操作対象機器の多様な機能に対する操作を実現するために、リモートコントローラ80に操作用のプログラムを実行するためのCPUなどの構成を設けてもよい。操作用プログラムは、予めROMなどのメモリに記録されていてもよいし、ユーザの操作に先立って操作対象機器などからダウンロードしてもよい。後者の場合、実際には使用しないプログラムを保持することを避けることができるので、メモリなどの構成を節減することができるとともに、多数の機器を操作する場合、または、多機能の操作を実現するために容量の大きいプログラムを実行させる場合であっても、リモートコントローラ80に搭載されている有限のメモリを効率よく利用して操作を行うことができる。また、プログラムの追加、変更、改変などへの対応が容易となる。使用頻度の高いプログラムを、機器側またはリモートコントローラ80側のメモリに保持しておき、操作時または所定の時間間隔ごとに、プログラムのバージョン番号などを利用して、機器のメーカのウェブサイトなどにプログラムのバージョンアップの有無を照会し、バージョンアップがあったときに、メーカのウェブサイトから最新のプログラムをダウンロードするようにしてもよい。受信装置は、たとえば前述の参加・退出処理部180により、本システムに参加して操作対象となりうる機器を把握可能であるから、それらの機器の操作用プログラムを予めリモートコントローラ80に転送してもよい。
リモートコントローラ80には、ユーザにグラフィカル・ユーザ・インタフェイス(GUI)を提供するための表示装置を設けてもよい。この表示装置に、タッチパネルなどの入力デバイスをさらに設けてもよい。または、ユーザの位置を検知するために表示システム10がユーザを撮影する撮像装置を備える場合は、その撮像装置によりユーザの動作を検知してユーザからの指示を判別するゼスチュラルインタフェイスを採用してもよい。
別の例では、リモートコントローラ80側にはCPUやメモリなどの構成を設けず、十字キー、選択ボタン、取消ボタン、確定ボタンなど、ユーザの指示を入力するための構成を設けておき、操作プログラムは機器側または表示制御装置100やホームサーバなどの受信装置側で実行するようにしてもよい。これにより、リモートコントローラ80を小型で簡素な構成にすることができる。この場合、表示装置30などに操作のためのGUIを表示し、ユーザがリモートコントローラ80のボタンなどによりGUIを操作するように構成してもよい。GUIは、ユーザのレベルに応じて実現可能な機能を変更してもよいし、言語、年齢、性別、嗜好などに応じて画面をカスタマイズできるようにしてもよい。
GUIを表示する装置は、操作対象機器であってもよいし、操作対象機器が表示装置を有していない場合は、表示システム10の表示装置30のいずれかにGUIを表示してもよい。後者の場合、操作プログラムは操作対象機器が実行し、表示データのみを表示装置30に送ってGUIを表示させてもよいし、表示のためのプログラムを表示装置30側で実行してもよい。表示システム10の表示装置30にGUIを表示する場合、ユーザの正面に存在する表示装置30にGUIを表示してもよいし、ユーザが見ている方向に存在する表示装置30に表示してもよいし、リモートコントローラ80が向いている方向に存在する表示装置30に表示してもよい。また、電源が起動している表示装置30を優先的に選択してGUIを表示してもよい。逆に、コンテンツの視聴を妨げないように、電源がオフになっている表示装置30を選択して、その表示装置30の電源をオンにしてGUIを表示してもよい。この場合、操作終了時、または所定時間以上操作が行われなかった時に、GUIを表示した表示装置30の電源をオフに戻してもよい。電源がオンになっている表示装置30であっても、たとえば環境映像などのユーザが注視する必要のない映像が表示されている場合は、その表示装置30にGUIを表示してもよい。また、映像を表示中の表示装置30にGUIを表示する場合は、視聴の妨げを最小限に抑えるために、アルファブレンディングなどの技術を用いて、GUIを半透明にして表示してもよい。部屋の天井などに首振り機構を備えたインテリジェントプロジェクタを設けておき、インテリジェントプロジェクタからユーザの手元などにGUIを投影表示してもよい。なお、上述の技術は、GUIだけでなく、字幕やテロップなどを表示する場合にも適用可能である。
操作対象機器を切り替える場合、リモートコントローラ80が向いている方向に存在する機器を判別して操作対象機器としてもよいし、ユーザが操作対象機器を指定できるようにしてもよい。表示システム10が、表示装置30の位置や画面の向きを取得するための撮像装置を備えている場合は、その撮像装置によりリモートコントローラ80を撮影し、リモートコントローラ80の向きを検知して、操作対象機器を特定してもよい。または、リモートコントローラ80に方向角センサを設け、リモートコントローラ80が向いている方向を検知して、操作対象機器を特定してもよい。これらの場合、操作対象機器の特定は、表示制御装置100などの受信装置が行ってもよい。また、リモコンコントローラ80に撮像装置を搭載して、機器に設置したLEDの点滅からのID認識その他の方法によりリモートコントローラ80の向いている方向にある機器を識別してもよい。受信装置は、リモートコントローラ80からの信号を受信すると、撮像装置からの画像などによりリモートコントローラ80の向きを検知し、各機器に設けられた位置センサからの位置情報や、各機器の大きさや形状などの情報に基づいて、リモートコントローラ80が指し示す半直線と交わる位置にある機器を特定する。このときの計算を容易にするために、機器の形状などを分類しておいてもよい。たとえば、パネル型、ボックス型、ポインタ型などに機器を分類し、いずれのタイプであるかを示す機器タイプIDを割り当てておき、その機器タイプIDに基づいて当たり判定を行ってもよい。
上述したような方法により操作対象機器が特定されると、LEDの明滅や点灯、音声、画像の表示などにより、現在操作対象となっている機器をユーザに知らせてもよい。たとえば、操作対象となっている表示装置30に、現在操作対象となっていることを示すアイコンやイラストを表示してもよいし、GUI上に操作対象機器を示す画像を表示してもよい。アニメーションなどの動画を表示することにより、ユーザの注意を喚起してもよい。また、操作により機器の動作状態が変わった場合に、表示中の画像を変化させて、ユーザの誤操作を防ぐようにしてもよい。
以上説明した構成による表示システム10の操作系の動作について説明する。まず、表示システム10が起動されると、表示装置30や表示制御装置100などの各機器は、メーカサイトなどにアクセスして、操作プログラムのバージョンをチェックし、必要であれば最新の操作プログラムをダウンロードしておく。メーカサイトとの間のネットワークが十分に高速である場合は、リモートコントローラ80による操作対象機器となったときに、操作プログラムをダウンロードしてもよい。これにより、メモリなどの資源を節約することができる。
つづいて、リモートコントローラ80からの指示を受信する受信装置は、同一のネットワーク40上に存在する機器の位置を把握する。ネットワーク40に接続されていたとしても、ユーザのいる部屋に機器があるとは限らないので、ユーザのいる部屋にある機器の位置を予め把握しておく。これにより、操作対象機器を特定する際の計算を容易にすることができる。赤外線LEDの明滅や、適切な電波強度による通信などにより、近傍に存在する機器を把握してもよい。
ユーザがリモートコントローラ80を操作したい機器の方向に向け、操作対象機器を選択するための機器選択ボタンを押下すると、受信装置は、リモートコントローラ80の向きを検知して、操作対象機器を特定する。操作対象機器が特定されると、LEDの明滅や点灯、確認音やメッセージの出力、画像表示などにより、操作対象機器をユーザに提示する。また、GUIに操作対象機器を示す画像などを表示する。この画像は、JPEG、MotionJPEG、三次元ポリゴンデータ、三次元ポリゴンデータ用MIMeデータなど、任意の形式の画像データであってよい。ユーザがリモートコントローラ80の方向を変えたときに、その方向に存在する機器を操作対象候補とし、ユーザが確定ボタンなどを押下することにより、操作対象機器として確定してもよい。この場合、操作対象機器を提示する音声、画像などは、候補として選択されている段階と、確定された段階の、2種類を用意してもよい。また、複数の機器で類似した提示を行うと、かえってユーザの混乱を招くため、数種類を用意しておきユーザが選択可能としてもよいし、機器側で色などを変更可能としてもよい。ユーザが誤って操作対象機器を選択したときに、直前に選択されていた機器に操作対象を戻すための取消ボタンなどを用意してもよい。
リモートコントローラ80側で操作プログラムを実行する場合は、操作対象機器が特定されると、操作対象機器からリモートコントローラ80に操作プログラムをダウンロードする。このために、APIを標準化してもよい。リモートコントローラ80がGUIを表示するための表示装置を有している場合は、リモートコントローラ80側のGUI上で操作に関する処理を行い、最終的な指示のみを機器側に送信してもよい。また、機器側で操作プログラムを実行し、表示データや表示プログラムをリモートコントローラ80に送信して表示させてもよい。機器とリモートコントローラ80の構成に応じて、いずれで処理を行うかを選択し、適切に負荷を分散してもよい。リモートコントローラ80が表示装置を有していない場合は、前述したように、表示装置30にGUIを表示してもよい。この場合も、たとえば、いずれの機器が操作対象となっているかなどの情報を提示するために、リモートコントローラ80に簡易な表示装置を備えてもよい。
ユーザが操作を終了するための終了ボタンを押下したとき、所定時間以上操作が行われなかったとき、またはユーザがリモートコントローラ80から手を離したことを検知可能なセンサによりユーザの操作の終了を判定したときに、以下の終了処理を行う。表示装置を有するリモートコントローラ80の場合は、表示用のバックライトを消灯するなど、省電力モードに移行させる。表示装置30にGUIを表示した場合は、GUIを消去して、もとの映像の表示状態に戻す。この場合、操作終了時に早急にもとの映像の表示状態に戻すために、リモートコントローラ80に終了ボタンを設けておくのが好ましい。また、電源がオフであった表示装置30にGUIを表示した場合は、表示装置30の電源をオフに戻す。なお、終了処理を行ったあと、再びリモートコントローラ80による操作が行われたとき、操作対象機器を切り替えず、直前に操作された機器を操作対象機器としてもよい。また、タイマー機能などを利用して、所定の時間に自動的にある機器を操作対象とするように設定可能としてもよい。機器が所定の時間に自動的に起動するようにタイマー設定されている場合、リモートコントローラ80による操作対象機器も、自動的にその機器に切り替わるようにしてもよい。
図7は、本表示システム10により表示される映像データの例を模式的に示す。図7では、高視野角映像データの一例として、三次元CG画像の例を示している。三次元空間内に視点50が設定され、その周囲に、仮想の表示画面34a、34c、34eが配置されている。ここで、それぞれの仮想の表示画面34a、34c、34eは、現実のユーザの視点位置と表示画面との間の相対位置関係を反映するように、視点50の周囲に配置されている。表示画面34cには、視点50から見て表示画面34cの方向に存在する「家」が表示される。表示画面34eには、視点50から見て表示画面34eの方向に存在する「木」が表示される。
図8は、視点50の位置が移動する様子を示す。ユーザが移動したり、リモートコントローラ80などにより視点を移動する指示を入力したとき、視点位置情報算出部130が新たな視点位置を設定し、透視変換マトリクス算出部140および座標変換マトリクス算出部150がそれぞれマトリクスを更新する。そして、映像生成部160が更新されたマトリクスに基づいてそれぞれの表示画面に表示すべき映像を生成する。すなわち、個々の表示装置30ごとに映像を変更するのではなく、ユーザによる視点移動指示により、全ての表示装置30の映像が連動して変更される。
図9は、視点50と表示画面34a、34c、34eが同時に移動する様子を示す。表示画面を、部屋の外部に展開される三次元空間を覗く窓とみなしたとき、図8に示した例は、部屋の内部をユーザが移動する場合に相当し、図9に示した例は、部屋全体が三次元空間中を移動する場合に相当する。ユーザの移動やリモートコントローラ80による入力が発生したときに、上記いずれの方法で映像を更新するかを予め設定するための構成を設けてもよい。また、たとえば、コントローラ80の操作により図9に示した視点及び表示画面位置の移動を実行しつつ、センサにより検出したユーザの視点位置の移動を反映して図8に示した視点位置の移動を実行するなど、両者を同時に行ってもよい。もちろん上記の動作は、コントローラなどによるユーザの自発的な操作により実行されるだけでなく、演出目的でゲームや映像コンテンツ制作者によって決められた再生型のものでもよい。
図10は、表示装置30cが移動したときの様子を示す。表示装置30cが移動すると、センサ位置情報取得部110が新たな位置情報を取得し、画面位置情報算出部120が表示画面34cの位置と向きを算出する。そして、移動した表示装置30cについて、透視変換マトリクスおよび座標変換マトリクスが更新され、映像が生成される。
このように、高視野角映像として、3次元CG画像を表示する場合は、視点や視線方向の変更指示があったときに、計算により各表示装置30に表示すべき映像を生成することができるが、パノラマ映像を表示システム10により表示する場合は、話はそう単純ではない。ある一点を中心として放射方向に設置された複数の撮像装置を含むカメラシステムによりパノラマ映像を撮像する場合は、円筒形または半球形のパノラマ映像が得られ、360度全方位を一時に撮影可能なパノラマカメラによりパノラマ映像を撮像する場合は、球形のパノラマ映像が得られる。このとき、撮像装置が奥行き方向の情報を取得する機能を有していない場合は、パノラマ映像は二次元画像であり、ユーザ20の位置と表示装置30の位置に応じて、パノラマ映像の一部が切り取られて表示装置30に表示されることになる。音声についても同様に、撮影位置の周囲の音声に対してユーザ20の位置とスピーカ36の位置に応じた処理が施される。
1カ所のみで撮影された単一のパノラマ映像では、基本的には、ユーザに与えられる自由度は回転のみである。ユーザは、リモートコントローラ80により、映像を回転させ、表示装置30に表示される部分を変更することができるが、視点を移動させることはできない。しかし、たとえば、ある方向にユーザが視点を移動するよう指示したときに、その方向の映像を拡大表示し、その方向と逆方向の映像を縮小表示し、その方向と直交する方向の映像を横に移動させることで、簡便に視点移動を実現することができる。
さらに精度のよい視点移動を可能とするために、図11に示すように、複数点に設置された複数のカメラシステムによりパノラマ映像を撮影してもよい。この場合、カメラシステムの設置位置とは異なる位置に視点が移動されたときには、その周囲で撮影されたパノラマ映像をもとに、合成処理や補間処理により映像を生成してもよいし、アルファブレンディングやぼかしなどの画像処理技術を利用してもよい。また、上述した単一のパノラマ映像に対する視点移動の処理を併用してもよい。
視点移動を可能とするための他の例として、図12に示すように、移動体にカメラシステムを搭載して、移動しながら複数の位置においてパノラマ映像を撮影してもよい。この場合、移動経路に沿って自由に視点を移動することができる。移動経路に沿わずに視点を移動させたい場合は、図13に示すように、移動可能な範囲を網羅するようにジグザグにカメラシステムを移動させながらパノラマ映像を撮影してもよい。いずれの場合にしても、視点の移動に伴って撮影時刻も変化してしまうので、時間変化のない、または時間変化の少ない対象物を撮影して表示する場合に特に適している。
なお、複数の表示装置30により高視野角映像を表示しているときに、ズームインまたはズームアウトを行う場合、たとえば全ての表示装置30の画面を連動して拡大すると、画面間で画像が重なったりして矛盾が生じる恐れがある。この場合、ある方向へのズームインは、その方向への視点移動として実現してもよい。すなわち、ある表示装置30に表示中の映像を拡大したいときは、その方向の映像を拡大表示し、逆方向の映像を縮小表示し、その方向と直交する方向の映像を横に移動させる。または、ユーザが指定した表示装置30の映像のみを局所的に拡大縮小してもよい。これは、望遠鏡や双眼鏡などでその方向を覗いたことに相当する。
以下、本表示システム10の応用例について説明する。以下に挙げた、表示システム10をゲームに応用した例において、ゲームプログラムは表示制御装置100により実行され、表示制御装置100により生成された映像データおよび音声データが各表示装置30に送られる。表示制御装置100は、リモートコントローラ80の位置、動き、ボタン操作などを取得して、それに応じたイベントを実行し、映像および音声に反映させる。なお、後述するように、表示装置30が表示制御装置100の機能を有し、映像データ及び音声データを生成する場合は、各表示装置30がゲームプログラムを実行して映像データ及び音声データを生成してもよい。このとき、リモートコントローラ80が表示画面を有している場合は、リモートコントローラ80自身も表示装置30の一形態としてゲームプログラムを実行し、自身の表示画面に表示する映像データを生成してもよい。
1.格闘ゲーム
ユーザの周囲を取り囲むようなCGによる仮想世界を構築し、ユーザの周囲に敵を配して、ユーザがリモートコントローラ80を剣や銃などとして用い、敵を倒していくゲームを提供する。たとえば、ユーザがリモートコントローラ80のボタンを押下したときに、ゲーム内のキャラクタが銃を発射するイベントを実行してもよい。また、ユーザがリモートコントローラ80を上から下へ振り下ろしたときに、ゲーム内のキャラクタが剣を振り下ろすイベントを実行してもよい。リモートコントローラ80の位置や動きは、位置センサにより取得してもよいし、外部の撮像装置により撮影して取得してもよい。複数の表示装置30を用いて、ユーザの周囲に構築された仮想世界を表示することにより、周囲から敵が迫るような臨場感を与えることができる。また、いずれの表示装置30に表示された敵に向かってユーザが攻撃しているかは、リモートコントローラ80の向きにより検知可能であるから、ユーザは特別な操作を必要とすることなく、周囲の敵を攻撃することができる。ユーザの位置を取得することにより、ユーザの動きを反映することもできる。たとえば、ユーザが表示装置30に表示されたオブジェクトの物陰に隠れたり、敵に近づいたりすることができるようにしてもよい。ユーザの位置は、リモートコントローラ80の位置で代用してもよい。
2.球技ゲーム
ユーザが所持したリモートコントローラ80をテニスのラケットや野球のバットなどに見立てて、テニス、エアホッケー、野球などの球技ゲームを提供する。ユーザは、表示装置30に表示された玉を、仮想的な反射板として機能するリモートコントローラ80を移動させて打つことにより、現実の球技に似た体感を得ることができる。また、周囲に配置された表示装置30に、ゲーム世界における周囲の状況が表示されるので、より高い臨場感が得られる。表示画面を備えたリモートコントローラ80を用いる場合、ユーザの手元のリモートコントローラ80の表示画面を用いて、ラケットやバットにボールが当たる瞬間を表示してもよい。これにより、より臨場感が増す。リモートコントローラ80または携帯ゲーム機の傾きや上下方向の移動を検知することにより、スピンやスライスなどの細かい操作を反映させることもできる。また、リモートコントローラ80のボタン操作により、球種などを選択可能としてもよく、この場合、表示制御装置100は、リモートコントローラ80からボタン操作を受け付けて、その操作をゲームプログラムに反映させる。
3.1対1対戦ゲーム
広いゲームフィールドのうち一部を表示画面を備えたリモートコントローラ80の表示画面に表示し、ユーザの操作によりゲームフィールド中を移動可能とすることにより、リモートコントローラ80を広いゲームフィールドの一部を覗く窓として機能させる。ユーザの位置を検知して反映させることにより、ユーザがゲームフィールドを実際に動き回りながらゲームを行うような臨場感を与えることができる。この場合、自陣と敵陣の境界が明確なテニスなどのゲームだけでなく、格闘ゲームなどにおいて、たとえば敵の背後に回り込むなど、ゲームフィールド内を自由に移動しながらゲームを楽しむことが可能となる。
4.多対多対戦ゲーム
各ユーザが、位置センサを搭載したリモートコントローラ80を所持して自由に動き回り、その位置をゲームフィールド中のユーザのキャラクタ位置に反映させることにより、臨場感の高いゲームを提供する。ユーザは、自身の動きにより、会話したり連携したり攻撃したりする相手を選択したり、敵に対する位置の移動などを行うことができる。
5.カードゲーム
位置センサを搭載したリモートコントローラ80を用いたカード交換ゲームを提供することにより、より自然な操作感を実現することができる。さらに、傾きセンサなどを利用することにより、たとえば、相手のリモートコントローラ80の方向に自身のリモートコントローラ80を傾けることで、カードを相手に渡したり、周囲の表示装置の画面にカードを置いたりするなど、自然で分かりやすい操作を実現することができる。
図14は、本実施の形態の表示システムを複数機器間のユーザインタフェイスに応用した例を示す。表示装置の一例としての携帯端末30fおよび30gは、ネットワーク40を介して表示制御装置100に接続されている。携帯端末30fのデスクトップに表示されたデータファイルを、携帯端末30gに転送する場合を例にとって説明する。
携帯端末30fの表示画面34fに、データファイルを表すアイコン60が表示されており、マウス又はタッチパネルなどの入力デバイスによりドラッグ操作を行うことでファイルを転送できるものとする。転送元の携帯端末30fと転送先の携帯端末30gを並置し、携帯端末30f上でアイコン60を携帯端末30gの方向にドラッグする。ポインタ62が画面端に達すると、表示制御装置100は、携帯端末30fから見てドラッグ方向に存在する表示装置、すなわち携帯端末30gにポインタ62を表示するよう指示する。ここで、ポインタ62の制御は携帯端末30gへ移り、携帯端末30gの表示画面34gにポインタ62が出現する。そして、転送先の携帯端末30gの表示画面34g上でアイコン60をドロップすると、ファイルデータが転送される。
従来は、ネットワークに接続された機器はネットワークアドレスなどにより識別されていたため、ファイルを転送する場合は、転送先の機器のネットワークアドレスを指定する必要があった。しかし、本実施の形態では、各機器の相対位置関係が分かっているため、現実の位置関係により各機器を識別することができ、より自然な操作が可能なユーザインタフェイスを提供することができる。
本実施の形態では、表示制御装置を表示装置とは別体に設けたが、いずれかの表示装置に表示制御装置の機能を含ませてもよい。表示制御装置の機能を、三次元の映像処理が可能なPC、ビデオ録画装置、ゲーム機、ホームサーバなどに設けてもよい。表示制御装置の機能の一部または全部がLSIにより実現されてもよい。表示制御装置の機能を有したLSIを表示装置に搭載する場合、LSIの中に位置センサを設けてもよい。
(第2の実施の形態)
図15は、第2の実施の形態に係る表示システム10の全体構成を示す。本実施の形態の表示システム10は、複数の表示装置30f、30g、30h、および30iと、表示装置のそれぞれに対して設けられた複数の表示制御装置100f、100g、100h、および100iとを備える。第1の実施の形態では、一つの表示制御装置がシステム全体を統括的に制御したが、本実施の形態では、複数の表示制御装置が連動して表示の制御を行う。表示装置30の内部構成は図3に示した第1の実施の形態の表示装置と同様であり、表示制御装置100の内部構成は図4に示したものと同様である。表示制御装置100は、表示制御装置100fおよび100gのように、表示装置30と一体的に設けられてもよいし、表示制御装置100hおよび100iのように、表示装置30とは別に設けられてもよい。
図15に示した表示システム10において、各表示制御装置100は、ネットワーク40を介して映像データおよび音声データを取得し、自身に接続された表示装置30の位置情報に合わせて、その表示装置30の表示画面34に表示すべき映像を生成し、スピーカに出力すべき音声を生成する。表示画面34の位置情報を取得して表示映像を生成する手法は第1の実施の形態と同様である。視点および視線の情報については、いずれかの表示制御装置100が取得して他の表示制御装置100にブロードキャストしてもよいし、それぞれの表示制御装置100に予め登録しておいてもよい。本実施の形態の表示システム10によれば、表示制御装置100における処理負荷が分散されるので、処理負荷の高い映像データであっても、高速に映像を生成して表示することができる。本実施の形態では、ネットワーク40を介して映像データおよび音声データを各表示制御装置100に供給したが、映像データおよび音声データを格納した記録媒体を各表示制御装置100に接続することによりデータを供給してもよい。この場合、各表示制御装置100は、同期信号をやり取りするなどして、表示のタイミングを同期させてもよい。また、表示システム10によりゲームなどを提供する場合、各表示制御装置100間で、ネットワーク40を介して、ゲームにおいて使用されるパラメータなどの情報をやり取りして共有してもよい。
各表示制御装置100が、映像データを分散して保持してもよい。たとえば、仮想都市を表現した3次元仮想現実世界を表示システム10により提供する場合、各表示制御装置100が、都市の一部の映像データをそれぞれ保持し、全体として仮想都市が構築されてもよい。この場合、映像の再生を開始するときに、それぞれの表示制御装置100が自身の保持する映像データを他の表示制御装置100へ供給して、全ての表示制御装置100が全体の映像データを取得するようにしてもよいし、ユーザの移動に連動して、表示すべき映像データを保持する表示制御装置100が映像データを他の表示制御装置100に供給するようにしてもよい。これにより、処理負荷を分散できるだけでなく、映像データを保持する記憶領域を分散させることができるので、個々の表示制御装置100に搭載すべきメモリの量を低減することができる。
(第3の実施の形態)
図16は、第3の実施の形態に係る表示システム10の全体構成を示す。本実施の形態の表示システム10は、複数の表示制御装置と複数の表示装置を備え、表示装置30jは表示制御装置100jに、表示装置30kは表示制御装置100kに、表示装置30lおよび表示装置30mは表示制御装置100lに、それぞれ接続されている。本実施の形態の表示システム10では、第1の実施の形態に示した複数の表示装置30を統括的に制御する表示制御装置100lと、第2の実施の形態に示した1つの表示装置30を個別に制御する表示制御装置100jおよび100kが混在している。表示装置30の内部構成は図3に示した第1の実施の形態の表示装置と同様であり、表示制御装置100の内部構成は図4に示したものと同様である。
図16に示した表示システム10において、各表示制御装置100は、ネットワーク40を介して映像データおよび音声データを取得し、自身に接続された表示装置30の位置情報に合わせて、その表示装置30の表示画面34に表示すべき映像を生成し、スピーカに出力すべき音声を生成する。具体的には、表示制御装置100jは表示装置30jの、表示制御装置100kは表示装置30kの、表示制御装置100lは表示装置30lおよび30mの映像を生成する。表示画面34の位置情報を取得して表示映像を生成する手法は第1の実施の形態と同様である。視点および視線の情報については、いずれかの表示制御装置100が取得して他の表示制御装置100にブロードキャストしてもよいし、それぞれの表示制御装置100に予め登録しておいてもよい。本実施の形態の表示システム10によれば、表示制御装置100における処理負荷が分散されるとともに、ユーザの環境に合わせて柔軟にシステムを構成することが可能となる。
(第4の実施の形態)
第1から第3の実施の形態は、より自然なユーザインタフェイスを提供する。それに合わせて、第4から第6の実施の形態では、より触感に優れたユーザインタフェイス装置を提供する技術について説明する。たとえば、第1から第3の実施の形態におけるリモートコントローラ80として、以下に示す第4または第5の実施の形態に係るユーザインタフェイス装置を利用可能である。また、第1から第3の実施の形態における表示装置30として、以下に示す第6の実施の形態におけるディスプレイ装置を利用可能である。
第4から第6の実施の形態は、ユーザインタフェイス装置およびディスプレイ装置に関し、特に、手指などにより入力を行うことのできるユーザインタフェイス装置および汚れの付着しにくいディスプレイ装置に関する。
コンピュータの標準操作デバイスであるキーボードやマウスに加えて、近年、操作がより自然で容易な指による入力を実現するユーザインタフェイス装置が増えつつある。その代表として、現金自動預払機や携帯情報端末などに採用されている、タッチ入力式の装置がある。この装置では、液晶表示装置等の表示面上に透明なパネル状のタッチ入力装置が設けられ、ユーザは表示された画面を参照しながら項目を選択したり、所定領域を指でなぞることにより文字等を入力する。たとえば、以下の非特許文献が参考となる。
(非特許文献1)Jun Rekimoto、SmartSkin: An Infrastructure for Freehand Manipulation on Interactive Surfaces、[online]、[平成14年8月28日検索]、インターネット<URL: http://www.csl.sony.co.jp/person/rekimoto/papers/chi02.pdf>
こうした装置を操作する場合、ユーザはタッチ入力装置の一部である透明板、またはその装置の保護フィルムに直接触れることにより入力を行う。しかし、こうした透明板や保護フィルムは通常ガラス製またはPET(ポリエチレンテレフタレート)などの樹脂製であるため、指と過度に密着することがあり、指紋等の汚れが付着して表示の視認性に影響を及ぼすことがあった。視認性のみならず、そうした汚れにより、ユーザによっては不特定多数の人が利用する銀行のATMなどの利用をためらうことがあった。また、透明板などの表面を指でなでるドラッグ操作を行う場合、指が表面に引っ掛かりがちで、正確な操作が阻害されることがあった。さらに、指との過度の密着による触感は必ずしも好ましいものではなかった。また、入力機能を備えず表示機能のみを有するディスプレイ装置においても、指紋等の汚れにより視認性が低下することがあった。
第4から第6の実施の形態の目的は、良好な視認性と操作性を備え、優れた触感を伴ったタッチ入力が可能なユーザインタフェイス装置を提供することにある。また別の目的は、不特定多数の人が利用する場合でも、心理的な抵抗感を軽減できるユーザインタフェイス装置を提供することにある。さらに別の目的は、外見上の汚れを低減するユーザインタフェイス装置およびディスプレイ装置を提供することにある。
本実施の形態のある態様は、ユーザインタフェイス装置に関する。この装置は、表示ユニットと、その表示ユニットの前面に設けられ、ユーザが前記表示ユニットを透視しながら表面に触れることにより入力を行う入力装置と、を備え、前記入力装置の前面に、透明な粒子を固着せしめることにより微細な凹凸形状を表面に形成した透明な層を貼設したことを特徴としている。
本実施の形態の別の態様のユーザインタフェイス装置は、前記入力装置の前面に、多数の透明な極細繊維が植毛されてなる層を貼設したことを特徴としている。
本実施の形態のさらに別の態様は、ディスプレイ装置に関する。このディスプレイ装置は、表示ユニットと、その表示ユニットの前面に設けられ、透明な粒子を固着せしめることにより微細な凹凸形状を表面に形成した透明な層とを含むことを特徴としている。
本実施の形態の別の態様のディスプレイ装置は、表示ユニットと、その表示ユニットの前面に設けられ、多数の透明な極細繊維が植毛されてなる層とを、含むことを特徴としている。
これらのユーザインタフェイス装置およびディスプレイ装置の表面には、微細な凹凸形状が形成され、あるいは多数の極細繊維が植毛されているため、表面と指との密着を低減できる。
本実施の形態のユーザインタフェイス装置およびディスプレイ装置によれば次の効果が得られる。第一に、指紋等の汚れが表面に付着しにくくなるため、良好な視認性を確保でき、ユーザに与える不快感を低減できる。第二に、ユーザは表面にふれることにより心地よい触感を得ることができる。さらに、ユーザインタフェイス装置においては、心地よい触感を伴ったスムーズで正確な入力を行うことができる。
図17は、本実施の形態にかかるユーザインタフェイス装置200の断面の模式図である。透明入力装置215の一方の面に表示ユニット210が、他方の面に凹凸層216が配されている。凹凸層216は、透明バインダー218により固定された透明粒子217を含み、表面に微細な凹凸形状を有している。透明入力装置215は、内側にそれぞれ透明導電性薄膜213a、213bが設けられた2枚の透明板212a、212bが対向配置されてなっている。2枚の透明板212a、212bは、図示しない箇所で絶縁スペーサを介して固定される。2枚の透明導電性薄膜213a、213bの間には微小間隙214が確保され、非接触状態が保たれている。なお、透明導電性薄膜213a、213bは、例えばスパッタリング法により設けたITO薄膜とすることができる。
ユーザは、表示ユニット210の映像を透視しつつ、凹凸層216の表面を指で触れることによりユーザインタフェイス装置200を操作する。ユーザーが凹凸層216を介して凹凸層216側の透明板212bの所定の箇所を押圧すると、特定箇所において2枚の透明導電性薄膜213a、213bが接触して導通し、信号が発生する。操作の際、凹凸層216の凹凸形状により、指と表面との密着が抑えられる。そのため、指紋等が付着しにくくなるなど、前述の目的を達する。
これらの効果を安定的に生じさせるために、透明粒子217の平均粒径は1〜500μmとすることが好ましい。また、より良好な触感を出すためには、平均粒径を5〜50μmとすることが好ましい。これにより、凹凸層216の表面にスウェード調の触感を出すことができ、操作の際に心地良い触感を伴うユニークな装置が実現する。
透明粒子217としては樹脂製ビーズを用いることができる。ビーズの材質としては、ウレタン系樹脂、アクリル系樹脂、シリコーン系樹脂、メラミン系樹脂などが挙げられる。例えばウレタンビーズであるUB200(十条ケミカル社製)などを利用してもよい。これら樹脂製ビーズを選択することにより、凹凸層216の表面に良好な触感を生じさせることができる。
凹凸層216は次の方法により形成することができる。ポリエステルウレタン系樹脂などの透明バインダー218を溶剤、例えば、トルエン:酢酸エチル:メチルエチルケトン=2:1:1(重量比)中に溶解させ、この溶液に透明粒子217を分散させて塗布液を調製する。このとき、透明粒子217、透明バインダー218および溶剤の配合比は、例えば15:20:65(重量比)とする。透明板212bとしてPETなど樹脂製のものを用いる場合は、例えばロールコート法、ナイフコート法、ダイコート法などの公知の方法により、上記の塗布液を直接透明板212bに塗布し乾燥して凹凸層216とする。塗布液の塗布量は、15〜50g/mとすることが好ましい。これにより十分な凹凸を表面に有する凹凸層216を実現することができる。
凹凸層216側の透明板212bとしてガラス製のものを用いる場合や、透明板212bが既に透明入力装置215の一部として組み込まれている場合など、透明板212bに塗布液を直接塗布することが困難な場合は、次の方法を用いることができる。図18のごとく、耐溶剤性を有するポリプロピレン製などの樹脂シート219の一方の面に、上記方法により凹凸層216を形成した後、他方の面と凹凸層216側の透明板212bとを接着層220を介して固定する。接着層220としては、例えばポリウレタン系接着剤などの透明な接着剤を用いる。
図17の表示ユニット210の種類は特に限定されず、例えばブラウン管ディスプレイ、液晶ディスプレイ、プラズマディスプレイ、有機エレクトロルミネッセンスディスプレイ、レーザーによるディスプレイ、LEDによるディスプレイなど様々な表示装置を用いることができる。透明入力装置215として、2枚の透明板212a、212bの内側に、それぞれ透明導電性薄膜213a、213bを備えたものを例示したが、これに限定されるわけではなく、他のタイプの入力装置を用いてもよい。例えば、上記論文、「SmartSkin: An Infrastructure for Freehand Manipulation on Interactive Surfaces」中に開示されているセンサーを入力装置として用いてもよい。このセンサーは、格子状に配置されたウレタン被覆銅線などからなる送受信用電極と信号処理回路から構成されている。このセンサーに手指を近づけると、帯電している静電気によって手指の位置を二次元的に検知できる。この情報を入力信号として利用することで、このセンサーを入力装置として利用できる。
また、本実施の形態においては、透明な粒子として樹脂製の粒子を用いた例について説明したが、これに限られず、例えばガラス製の粒子などを使用することもできる。なお、図17において、透明入力装置215を省き、凹凸層216を表示ユニット210上に直接設けることもできる。この場合、指紋等汚れが付着しにくいディスプレイ装置が実現する。
表示ユニット210から放射される光が、できるだけ凹凸層216を透過ようにするために、透明粒子217は、低屈折率な素材により構成されるのが好ましく、透明バインダー218は、高屈折率な素材により構成されるのが好ましい。たとえば、透明粒子217は、屈折率が1.43程度の光学用低屈折率ガラス(人工蛍石)などの素材により構成されてもよく、透明バインダー218は、屈折率が1.63程度の光硬化樹脂などの素材により構成されてもよい。表面を凹凸処理するだけの場合は、凸部と凹部の混在により、多方向への光の散乱が発生して、映像がぼけるなどの弊害が起こる可能性があるが、本実施の形態のように、同程度の粒径の透明粒子217を散在させて凹凸層216を構成する場合、同様のレンズが敷き詰められた構造となるため、適切な屈折率に設定すれば散乱は起こりにくく、触感の良さと明瞭な表示を両立することができる。
本実施の形態の変形例として、透明粒子217を透明バインダー218により固定するのではなく、図19に示すように、メッシュ状の保持部230により透明粒子217を回動自在に保持してもよい。これにより、ユーザがユーザインタフェイス装置200の表面に手指で触れる際のすべりが良くなり、ドラッグ操作などをスムーズに行うことができる。
(第5の実施の形態)
本実施の形態のユーザインタフェイス装置は、上記透明な極細繊維として光ファイバーを用いることを特徴としている。
図20は、本実施の形態にかかるユーザインタフェイス装置300の断面の模式図である。透明入力装置335の一方の面に表示ユニット330が、他方の面に光ファイバー層336が配されている。光ファイバー337は接着層338に対して垂直に植え込まれ、光ファイバー層336の表面には、多数の光ファイバー337が立毛している。接着層338の上には、後述の理由により遮光層339が設けられている。透明入力装置335は、内側にそれぞれ透明導電性薄膜333a、333bが設けられた2枚の透明板332a、332bが対向配置されてなっている。2枚の透明板332a、332bは、図示しない箇所で絶縁スペーサを介して固定されている。2枚の透明導電性薄膜333a、333bの間には微小間隙334が確保され、非接触状態が保たれている。
光ファイバー337は、表示ユニット330より照射された光を図中上方へ透過することにより表示画素として機能する。したがってユーザは、表示ユニット330の映像と同様の映像を光ファイバー層336の表面に見ることができる。ユーザは、映像を見ながら光ファイバー層336の表面を指で触れることにより操作を行う。ユーザーが光ファイバー層336を介して透明板332bの所定の箇所を押圧すると、特定箇所において、2枚の透明導電性薄膜333a、333bが接触して導通し、信号が発生する。操作の際、表面には多数の光ファイバー337が植毛されていることから、表面と指との間に過度な密着は生じない。したがって、指紋等が付着しにくくなるなど、前述の目的を達する。
これらの効果を安定的に得るためには、光ファイバー337の直径は100〜1000μmとすることが好ましい。また、光ファイバー層336に良質な画像を表示させるという観点からは、100〜500μmとすることが好ましい。こうした光ファイバーとして、エスカ(登録商標)CK−10(三菱レイヨン社製)などを使用することができる。光ファイバー337の長さは特に制限されないが、例えば0.5〜5mmとすることができる。
光ファイバー層336において高解像度の映像を得るためには、光ファイバー337を十分に密集させて植毛する必要がある。これを実現する一法として、静電植毛機、例えば、CP−40(栄進空調社製)を用いる。まず、酢酸ビニル樹脂エマルジョン接着剤などを透明板332b上にコーティングして接着層338を形成する。接着層338が硬化する前に、光ファイバー337を静電植毛機により植毛する。この方法は、静電気を利用して接着層338の面全体に光ファイバー337を垂直に植え込む手法である。形成された光ファイバー層336の表面は、絨毯に触れたときのような心地よい触感をもたらす。
なお、図20のように接着層338の上にさらに遮光層339を設けてもよい。これにより光ファイバー337間の隙間から漏れ出す光を遮断し、より鮮明な映像が得られる。遮光層339は、例えば遮光性塗料などを接着層338上に吹き付けて乾燥させることにより設けることができる。ただし、光ファイバー337の先端部にも遮光性塗料が付着するため、乾燥後に先端部を切り取る必要がある。
光ファイバー層336は、必ずしも光ファイバー層336側の透明板332b上に直接設ける必要はない。図21に示されるように、例えばポリプロピレン製などの樹脂シート340の一方の面に光ファイバー層336を設けた後、他方の面と光ファイバー層336側の透明板332bとを接着層341を介して固定してもよい。
本実施の形態においては、透明な極細繊維として光ファイバーを用いたが、例えばPETなどのポリエステル系繊維を使用してもよい。また、例えば特開平2−6648号公報において教示されている方法などにより、極細繊維の先端を先割れ加工することにより触感を向上させることもできる。図20中の表示ユニット330および透明入力装置335の種類は、第一の実施の形態と同様、特に限定されず、様々な装置を用いることができる。なお、図20において、透明入力装置335を省き、光ファイバー層336を表示ユニット330上に直接設けることもできる。この場合、指紋等汚れが付着しにくいディスプレイ装置が実現する。
本実施の形態の変形例として、光ファイバー層336に代えて、テレビ石(ウレックサイト)や、光ファイバーを用いた人工テレビ石などを設けてもよい。テレビ石や人工テレビ石を設けることにより、表示ユニット330の表面ではなく、テレビ石または人工テレビ石の表面に映像を浮き出して表示することができる。これを利用して、たとえば、立体的なボタンを画面に配置するなど、特殊な効果を得ることができる。テレビ石や人工テレビ石は、光ファイバー層336と異なり、表面が堅いので、ボタンなどとして設けるのに適している。
(第6の実施の形態)
本実施の形態のディスプレイ装置は、上記透明な極細繊維として光ファイバーを用い、その先端が、柔軟性を有するシート状部材に貫通した状態で固着されていることを特徴としている。
図22および図23は、それぞれ本実施の形態にかかるディスプレイ装置400の斜視図および断面図である。表示ユニット450の上に接着層451を介して光ファイバー452の一端が固定されている。光ファイバー452の他端である光ファイバー先端部454は、柔軟性を有するシート状部材453を貫通している。光ファイバー452とシート状部材453とは、この状態で固定されている。
光ファイバー452は、表示ユニット450より照射された光を図中上方へ透過することにより表示画素として機能する。したがってユーザは、表示ユニット450の映像と同様の映像をシート状部材453上に見ることができる。また、シート状部材453を変形させることにより、様々な形状の表示画面を有するディスプレイ装置を実現できる。例えば、図24のようにシート状部材453を曲げて配置することにより、半球形の表示画面とすることができる。さらに、例えば図25のように、半球形の形状を有する物の表面を覆うようにしてシート状部材453を配設することもできる。また、ぬいぐるみやクッションなどに適用すれば、手触りのよい、弾力性に富む立体的なディスプレイ装置を得ることができる。
図22および図23において、シート状部材453上には多数の光ファイバー先端部454が突出しているため、指などで触れても密着しない。したがって、指紋等が付着しにくくなるなど、前述の目的を達する。
表示ユニット450、接着層451、光ファイバー452としては、第5の実施の形態におけるものと同様のものを用いることができる。光ファイバー452の長さについては、特に制限されず、用途に応じて適宜選択できる。シート状部材453としては、例えばポリエチレンなどの樹脂フィルム、布などの柔軟性を有する材料を用いることができる。これらの材料には、像のコントラストを向上させるために、例えば塗料を塗布するなど遮光処理をすることが好ましい。
光ファイバー452が比較的長い場合、第5の実施の形態で示した静電植毛を利用することは困難である。このような場合は、接着層451が硬化する前に、専用の治具などを用いて1本ずつ固着する。光ファイバー452の他端については、シート状部材453に貫通させ、光ファイバー先端部454が、例えば0.5〜5mm突出した状態とする。この状態で、光ファイバー452およびシート状部材453を接着剤等で固定する。もちろん、これらディスプレイ装置に前述のような入力機能を付加してユーザインタフェイス装置とすることもできる。
以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、各構成要素や各処理プロセスの組合せにいろいろな変形が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
第1の実施の形態に係る表示システムの全体構成を模式的に示す図である。 表示画面を複数の領域に分割して、それぞれの領域を異なる表示装置により表示する例を示す図である。 実施の形態に係る表示装置の内部構成を示す図である。 実施の形態に係る表示制御装置の内部構成を示す図である。 表示システムの全体構成の別の例を示す図である。 表示システムの全体構成のさらに別の例を示す図である。 表示システムにより表示される映像データの例を模式的に示す図である。 視点の位置が移動する様子を示す図である。 視点と表示画面が同時に移動する様子を示す図である。 表示装置が移動する様子を示す図である。 複数点において同時にパノラマ映像を撮影する例を示す図である。 移動しながら複数点においてパノラマ映像を撮影する例を示す図である。 移動しながら複数点においてパノラマ映像を撮影する他の例を示す図である。 実施の形態に係る表示システムを複数機器間のユーザインタフェイスに応用した例を示す図である。 第2の実施の形態に係る表示システムの全体構成を示す図である。 第3の実施の形態に係る表示システムの全体構成を示す図である。 第4の実施の形態のユーザインタフェイス装置の断面を表す模式図である。 凹凸層を固定する方法について説明するための図である。 凹凸層の他の例を示す図である。 第5の実施の形態のユーザインタフェイス装置の断面を表す模式図である。 光ファイバー層を固定する方法について説明するための図である。 第6の実施の形態のディスプレイ装置の斜視図である。 第6の実施の形態のディスプレイ装置の断面図である。 第6の実施の形態のディスプレイ装置の応用例を示す図である。 第6の実施の形態のディスプレイ装置の応用例を示す図である。
符号の説明
10 表示システム、 30 表示装置、 32 位置センサ、 33 装置情報保持部、 34 表示画面、 36 スピーカ、 37 通知部、 38 表示部、 39 音声出力部、 40 ネットワーク、 100 表示制御装置、 110 センサ位置情報取得部、 112 装置情報取得部、 120 画面位置情報算出部、 130 視点位置情報算出部、 160 映像生成部、 170 音声生成部、 180 参加・退出処理部、 190 特性情報決定部、 210,330,450 表示ユニット、 212a,212b,332a,332b 透明板、 213a,213b,333a,333b 透明導電性薄膜、 214,334 微小間隙、 215,335 透明入力装置、 216 凹凸層、 217 透明粒子、 218 透明バインダー、 219 樹脂シート、 220,338,341,451 接着層、 336,452 光ファイバー層、 337 光ファイバー、 339 遮光層、 340 樹脂シート、 453 シート状部材、 454 光ファイバー先端部、 200,300 ユーザインタフェイス装置、 400 ディスプレイ装置。

Claims (21)

  1. 複数の表示装置と、少なくとも一つの表示制御装置と、を含み、
    前記表示装置は、
    自己の位置を検知するための検知部と、
    前記検知部により検知された自己の位置を示す情報を前記表示制御装置に通知する通知部と、を含み、
    前記表示制御装置は、
    前記通知部から表示装置の位置を示す情報を取得する位置情報取得部と、
    前記位置情報取得部が取得した表示装置の位置を示す情報に基づいて、その表示装置に表示すべき映像を生成し、その表示装置に送信する映像生成部と、を含み、
    前記複数の表示装置は、それぞれ前記映像生成部から取得した映像を表示することを特徴とする表示システム。
  2. 前記映像生成部は、前記複数の表示装置が連動して一つの映像データを表示するように、それぞれの表示装置に表示すべき映像を前記映像データから生成することを特徴とする請求項1に記載の表示システム。
  3. 前記映像データは、三次元空間を表現したものであることを特徴とする請求項1または2に記載の表示システム。
  4. 前記表示制御装置は、ユーザの視点位置を取得する視点位置取得部をさらに含み、
    前記映像生成部は、前記ユーザの視点と前記表示装置との相対位置に基づいて、前記三次元空間内に設定された視点からそれぞれの表示装置の方向に見えるべき映像を生成することを特徴とする請求項3に記載の表示システム。
  5. 複数のスピーカをさらに含み、
    前記表示制御装置は、前記スピーカの位置を示す情報に基づいて、そのスピーカから出力すべき音声を生成し、そのスピーカに送信する音声生成部をさらに含むことを特徴とする請求項1から4のいずれかに記載の表示システム。
  6. 前記表示装置または前記表示制御装置にユーザの指示を入力するための入力装置をさらに含み、
    前記入力装置が向いている方向に存在する前記表示装置または前記表示制御装置が、前記入力装置からの信号を取得して、前記指示を受け付けることを特徴とする請求項1から5のいずれかに記載の表示システム。
  7. 前記表示装置または前記表示制御装置にユーザの指示を入力するための入力装置をさらに含み、
    前記表示制御装置が、前記入力装置からの信号を一括して取得し、適宜、前記指示を前記表示装置に伝達することを特徴とする請求項1から5のいずれかに記載の表示システム。
  8. 前記複数の表示装置のうち少なくとも一つに、前記入力装置によるユーザの指示入力を支援するためのインタフェイス画面を表示することを特徴とする請求項6または7に記載の表示システム。
  9. 前記入力装置が向いている方向に存在する表示装置に、前記インタフェイス画面を表示することを特徴とする請求項8に記載の表示システム。
  10. 前記入力装置は、ユーザの指示入力を支援するためのインタフェイス画面を表示するための表示画面を有することを特徴とする請求項6から9のいずれかに記載の表示システム。
  11. 前記入力装置は、前記インタフェイス画面を表示し、ユーザから指示入力を受け付けるためのプログラムを実行する実行部を含むことを特徴とする請求項10に記載の表示システム。
  12. 前記入力装置は、ユーザからの指示入力の受付に先立って、前記プログラムを、前記表示制御装置または前記表示装置から取得することを特徴とする請求項11に記載の表示システム。
  13. 前記表示装置、前記表示制御装置、または前記入力装置は、前記入力装置による操作の対象となっている装置をユーザに提示する提示部を含むことを特徴とする請求項6から12のいずれかに記載の表示システム。
  14. 複数の表示装置の位置を示す情報を取得する位置情報取得部と、
    前記位置情報取得部が取得した表示装置の位置を示す情報に基づいて、前記複数の表示装置のそれぞれに表示すべき映像を生成し、その表示装置に送信する映像生成部と、
    を備えることを特徴とする表示制御装置。
  15. 自己の位置を検知するための検知部と、
    前記検知部により検知された自己の位置を示す情報を表示制御装置に通知する通知部と、
    前記表示制御装置により前記位置に応じて生成された映像を取得して表示する表示部と、
    を備えることを特徴とする表示装置。
  16. ユーザを取り囲むような形式で表現される映像データを、ユーザの周囲に配された複数の表示装置に分割して表示するにあたって、それぞれの表示装置の位置を示す情報を適宜取得し、ユーザから見てその表示装置の方向に見えるべき映像を生成し、その表示装置に表示せしめることを特徴とする表示方法。
  17. 表示ユニットと、その表示ユニットの前面に設けられ、ユーザが前記表示ユニットを透視しながら表面に触れることにより入力を行う入力装置と、を備え、
    前記入力装置の前面に、透明な粒子を固着せしめることにより微細な凹凸形状を表面に形成した透明な層を貼設したことを特徴とするユーザインタフェイス装置。
  18. 前記透明な粒子が樹脂製の粒子であることを特徴とする請求項17に記載のユーザインタフェイス装置。
  19. 表示ユニットと、その表示ユニットの前面に設けられ、ユーザが前記表示ユニットを透視しながら表面に触れることにより入力を行う入力装置と、を備え、
    前記入力装置の前面に、多数の透明な極細繊維が植毛されてなる層を貼設したことを特徴とするユーザインタフェイス装置。
  20. 前記極細繊維が光ファイバーであることを特徴とする請求項19に記載のユーザインタフェイス装置。
  21. 複数の表示装置と、少なくとも一つの表示制御装置と、を含み、
    前記表示装置は、
    当該表示装置の表示又は音声出力に関する特性情報を前記表示制御装置に通知する通知部を含み、
    前記表示制御装置は、
    前記通知部から前記特性情報を取得する特性情報取得部と、
    前記複数の表示装置の表示又は音声出力の特性を統一すべく、前記特性情報取得部が取得した各表示装置の特性情報に基づいて、前記複数の表示装置の表示又は音声出力の特性を決定し、各表示装置に通知する特性情報決定部と、を含み、
    前記複数の表示装置は、それぞれ前記特性情報決定部から通知された特性に設定を変更することを特徴とする表示システム。
JP2003310780A 2002-09-05 2003-09-02 表示システム Expired - Fee Related JP3880561B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2003310780A JP3880561B2 (ja) 2002-09-05 2003-09-02 表示システム
EP03020114A EP1396781A3 (en) 2002-09-05 2003-09-04 Display system, display control apparatus, display apparatus, display method and user interface device
US10/655,736 US20040125044A1 (en) 2002-09-05 2003-09-05 Display system, display control apparatus, display apparatus, display method and user interface device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2002259967 2002-09-05
JP2002263413 2002-09-09
JP2003299392 2003-08-22
JP2003310780A JP3880561B2 (ja) 2002-09-05 2003-09-02 表示システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006104658A Division JP2006294032A (ja) 2002-09-05 2006-04-05 表示システム、表示制御装置、表示装置、表示方法、およびユーザインタフェイス装置

Publications (2)

Publication Number Publication Date
JP2005099064A true JP2005099064A (ja) 2005-04-14
JP3880561B2 JP3880561B2 (ja) 2007-02-14

Family

ID=31721689

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003310780A Expired - Fee Related JP3880561B2 (ja) 2002-09-05 2003-09-02 表示システム

Country Status (3)

Country Link
US (1) US20040125044A1 (ja)
EP (1) EP1396781A3 (ja)
JP (1) JP3880561B2 (ja)

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005233984A (ja) * 2004-02-17 2005-09-02 Sony Corp コンテンツ提供方法、コンテンツ提供方法のプログラム、コンテンツ提供方法のプログラムを記録した記録媒体及びコンテンツ提供装置
JP2006352539A (ja) * 2005-06-16 2006-12-28 Sharp Corp 広視野映像システム
JP2007025111A (ja) * 2005-07-14 2007-02-01 Sharp Corp 映像呈示システム及び映像呈示方法並びに映像呈示プログラムとその記録媒体
JP2007045329A (ja) * 2005-08-10 2007-02-22 Toyota Motor Corp 車両状態リモート確認システム
JP2007264633A (ja) * 2006-03-28 2007-10-11 Seiko Epson Corp サラウンド・ビジュアル・フィールド・システム、入力ストリームに関連するサラウンド・ビジュアル・フィールドを生成する方法およびサラウンド・ビジュアル・フィールド・コントローラ
WO2007135776A1 (ja) * 2006-05-23 2007-11-29 Nec Corporation 表示装置、これを含んだ機器、プログラム及び表示方法
JP2008096464A (ja) * 2006-10-05 2008-04-24 Fujitsu Ltd 表示装置および表示装置ユニット並びに表示書き換え方法
JP2009536058A (ja) * 2006-05-05 2009-10-08 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド 表示装置および方法
JP2009238218A (ja) * 2008-03-25 2009-10-15 Fuji Xerox Co Ltd 情報可視化システム、方法およびプログラム
JP2010171889A (ja) * 2009-01-26 2010-08-05 Canon Inc 再生装置、その制御方法及びプログラム
JP2010197487A (ja) * 2009-02-23 2010-09-09 Seiko Epson Corp 表示装置
JP2011512575A (ja) * 2008-01-25 2011-04-21 マイクロソフト コーポレーション 対話型凹凸ディスプレイへのグラフィックオブジェクトの投影
JP2012048066A (ja) * 2010-08-27 2012-03-08 Toshiba Corp 映像表示装置
JP2012128854A (ja) * 2010-12-09 2012-07-05 Korea Electronics Telecommun 増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォーム及び運営方法
JP2012137581A (ja) * 2010-12-27 2012-07-19 Canon Marketing Japan Inc 画像表示制御サーバ
WO2012147292A1 (en) 2011-04-25 2012-11-01 Sony Corporation Communication apparatus, communication control method, and computer-readable storage medium
WO2012160894A1 (ja) * 2011-05-26 2012-11-29 株式会社ダイセル ディスプレイ用透明積層フィルム及びその使用方法並びにタッチパネル
JP2013003742A (ja) * 2011-06-14 2013-01-07 Sharp Corp データ送信操作機器、および、データ送信制御方法
JP2013509647A (ja) * 2009-10-30 2013-03-14 イマージョン コーポレーション データ特徴の触覚表示方法
JP2013250838A (ja) * 2012-06-01 2013-12-12 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2014509759A (ja) * 2011-03-02 2014-04-21 マイクロソフト コーポレーション 没入型ディスプレイエクスペリエンス
US8762863B2 (en) 2010-03-17 2014-06-24 Sony Corporation Method and apparatus for gesture manipulation across multiple devices
US9047793B2 (en) 2009-10-20 2015-06-02 Sharp Kabushiki Kaisha Three dimensional video display device
CN105045378A (zh) * 2014-05-02 2015-11-11 三星电子株式会社 显示设备及其控制方法
JP2015219634A (ja) * 2014-05-15 2015-12-07 株式会社リコー 画像処理プログラム、画像処理方法および画像処理装置
US9218116B2 (en) 2008-07-25 2015-12-22 Hrvoje Benko Touch interaction with a curved display
KR101612437B1 (ko) 2014-09-30 2016-04-14 김현태 촬영 영상 처리 장치 및 방법
JP2016538968A (ja) * 2013-09-03 2016-12-15 シゼイ シジブイ カンパニー リミテッド 多面上映システムのシミュレーションのためのシミュレーションシステム
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
JP2017227659A (ja) * 2016-06-20 2017-12-28 カシオ計算機株式会社 出力制御装置、出力制御方法及びプログラム
JP2018010657A (ja) * 2013-06-08 2018-01-18 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイにおいて、透過モードと非透過モードとの間を移行するシステム及び方法
JP2020010318A (ja) * 2018-05-28 2020-01-16 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH 一群のデバイスにより視覚コンテンツ及び又はオーディオコンテンツを同期的に再生するための方法およびシステム
JP2020035455A (ja) * 2015-08-04 2020-03-05 ノキア テクノロジーズ オーユー 媒介現実コンテンツの共有
JP2020036121A (ja) * 2018-08-28 2020-03-05 株式会社Nttドコモ 情報処理装置及び投影装置
CN111052044A (zh) * 2017-08-23 2020-04-21 索尼公司 信息处理装置、信息处理方法和程序
WO2020241299A1 (ja) * 2019-05-29 2020-12-03 ソニー株式会社 制御装置、制御方法、制御プログラム及び制御システム
JP2020202499A (ja) * 2019-06-11 2020-12-17 国立大学法人静岡大学 画像観察システム
US20220360623A1 (en) * 2006-09-07 2022-11-10 Rateze Remote Mgmt Llc Voice operated control device
US11729461B2 (en) 2006-09-07 2023-08-15 Rateze Remote Mgmt Llc Audio or visual output (A/V) devices registering with a wireless hub system

Families Citing this family (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7312764B2 (en) * 2003-09-26 2007-12-25 The General Electric Company Methods and apparatus for displaying images on mixed monitor displays
TWI234938B (en) * 2004-02-12 2005-06-21 Intervideo Digital Technology Architecture of operating system sharing application program with a remote-control feature and its method
US20070044028A1 (en) * 2004-04-01 2007-02-22 Dunn Michael H Virtual flip chart method and apparatus
US7834819B2 (en) * 2004-04-01 2010-11-16 Polyvision Corporation Virtual flip chart method and apparatus
US7948448B2 (en) 2004-04-01 2011-05-24 Polyvision Corporation Portable presentation system and methods for use therewith
US20050231469A1 (en) * 2004-04-14 2005-10-20 Mike Wittig Force reflecting interface system for games
DE102005020871B4 (de) * 2004-06-07 2013-03-28 Siemens Aktiengesellschaft Verfahren zur Darstellung von medizinischen Bildinformationen auf einem Anzeigemedium
CN100510623C (zh) * 2004-07-15 2009-07-08 阿莫善斯有限公司 移动终端装置
KR100683850B1 (ko) * 2004-08-20 2007-02-16 삼성전자주식회사 파노라마 촬영 기능을 지원하는 촬영기기 및 촬영방법
WO2006040770A2 (en) * 2004-10-12 2006-04-20 Arie Traupianski Visual elements array information display and road safety system
JP2006277283A (ja) * 2005-03-29 2006-10-12 Fuji Xerox Co Ltd 情報処理システムおよび情報処理方法
US7884848B2 (en) * 2005-05-25 2011-02-08 Ginther Mark E Viewing environment and recording system
WO2007001730A1 (en) * 2005-06-27 2007-01-04 Exxonmobil Chemical Patents Inc. Process for manufacture of silicoaluminophosphate molecular sieves
JP2007012136A (ja) * 2005-06-29 2007-01-18 Toshiba Corp 映像表示装置とその記録媒体の記録再生制御方法
JP5144260B2 (ja) * 2005-07-11 2013-02-13 シャープ株式会社 映像送信装置、映像表示装置、映像送信方法、及び映像表示方法
US8708822B2 (en) 2005-09-01 2014-04-29 Nintendo Co., Ltd. Information processing system and program
JP4907129B2 (ja) * 2005-09-01 2012-03-28 任天堂株式会社 情報処理システムおよびプログラム
JP4859433B2 (ja) * 2005-10-12 2012-01-25 任天堂株式会社 位置検出システムおよび位置検出プログラム
US20070126864A1 (en) * 2005-12-05 2007-06-07 Kiran Bhat Synthesizing three-dimensional surround visual field
KR101249988B1 (ko) * 2006-01-27 2013-04-01 삼성전자주식회사 사용자의 위치에 따른 영상을 디스플레이하는 장치 및 방법
JP4643484B2 (ja) * 2006-03-29 2011-03-02 株式会社東芝 画面送信装置および画面表示方法
US8346612B2 (en) * 2006-03-30 2013-01-01 Mark W Miles Business models for immersive environments
KR101246293B1 (ko) * 2006-04-24 2013-03-21 삼성전자주식회사 홈 네트워크에서 사용자 인터페이스 방법 및 장치와 그전자기기 및 저장 매체
JP2007304666A (ja) 2006-05-08 2007-11-22 Sony Computer Entertainment Inc 情報出力システム及び情報出力方法
DE102006048143A1 (de) * 2006-10-10 2008-04-17 Endress + Hauser Wetzer Gmbh + Co. Kg Vorrichtung zur Darstellung von Daten
US20080118178A1 (en) * 2006-11-20 2008-05-22 Way Olan C Display systems and methods for eliminating mullions
US20080136973A1 (en) * 2006-12-08 2008-06-12 Ellis Park Portable projector system
US8144453B2 (en) 2007-03-15 2012-03-27 F-Origin, Inc. Integrated feature for friction less movement of force sensitive touch screen
US20080320126A1 (en) * 2007-06-25 2008-12-25 Microsoft Corporation Environment sensing for interactive entertainment
US8111241B2 (en) * 2007-07-24 2012-02-07 Georgia Tech Research Corporation Gestural generation, sequencing and recording of music on mobile devices
DE102007034608A1 (de) * 2007-07-25 2009-01-29 Robert Bosch Gmbh Kamera
JP4998156B2 (ja) * 2007-08-30 2012-08-15 ソニー株式会社 情報提示システム、情報提示装置、情報提示方法、プログラム並びにプログラムを記録した記録媒体
US20090107736A1 (en) * 2007-10-30 2009-04-30 N-Trig Ltd. Laminated digitizer sensor
TW200935972A (en) * 2007-11-06 2009-08-16 Koninkl Philips Electronics Nv Light management system with automatic identification of light effects available for a home entertainment system
CA2643570C (en) * 2007-11-08 2013-01-22 Carole Moquin Virtual environment simulating travel by various modes of transportation
WO2009091026A1 (ja) * 2008-01-18 2009-07-23 Nec Corporation 利用者情報提供装置、利用者情報提示システム、及び利用者情報提示方法
US8270148B2 (en) * 2008-03-14 2012-09-18 David Griffith Suspension for a pressure sensitive touch display or panel
US20150020003A1 (en) * 2008-03-24 2015-01-15 Google Inc. Interactions Between Users in a Virtual Space
US20090278655A1 (en) * 2008-05-06 2009-11-12 The Abraham Joshua Heschel School Method for inhibiting egress from a chamber containing contaminants
WO2009141741A2 (en) * 2008-05-21 2009-11-26 William Jack Mutlow A laptop computer
DE102008026517A1 (de) * 2008-06-03 2009-12-10 Zumtobel Lighting Gmbh Beleuchtungs- und Anzeigevorrichtung
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
JP5376874B2 (ja) * 2008-09-05 2013-12-25 任天堂株式会社 画像処理プログラムおよび画像処理装置
US20100073328A1 (en) * 2008-09-25 2010-03-25 Brian Lynch Anisotropic optical cover for touch panel display
US8893026B2 (en) * 2008-11-05 2014-11-18 Pierre-Alain Lindemann System and method for creating and broadcasting interactive panoramic walk-through applications
JP4849121B2 (ja) * 2008-12-16 2012-01-11 ソニー株式会社 情報処理システムおよび情報処理方法
US20100309391A1 (en) * 2009-06-03 2010-12-09 Honeywood Technologies, Llc Multi-source projection-type display
US8269691B2 (en) * 2009-06-26 2012-09-18 Sony Computer Entertainment Inc. Networked computer graphics rendering system with multiple displays for displaying multiple viewing frustums
US20100328354A1 (en) * 2009-06-26 2010-12-30 Sony Computer Entertainment, Inc. Networked Computer Graphics Rendering System with Multiple Displays
WO2011022014A1 (en) * 2009-08-20 2011-02-24 Displaylink Corporation Configuration of additional display devices
DE102009045452B4 (de) * 2009-10-07 2011-07-07 Winter, York, 10629 Anordnung und Verfahren zur Durchführung einer interaktiven Simulation sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium
US8672763B2 (en) 2009-11-20 2014-03-18 Sony Computer Entertainment Inc. Controller for interfacing with a computing program using position, orientation, or motion
US20110181587A1 (en) * 2010-01-22 2011-07-28 Sony Corporation Image display device having imaging device
US8842113B1 (en) * 2010-05-26 2014-09-23 Google Inc. Real-time view synchronization across multiple networked devices
EP3263058A1 (en) * 2010-06-28 2018-01-03 Brainlab AG Generating images for at least two displays in image-guided surgery
FR2965943B1 (fr) * 2010-10-11 2012-11-02 Peugeot Citroen Automobiles Sa Chambre d'immersion pour equipement de realite virtuelle de type immersif et equipement correspondant
KR101702563B1 (ko) 2010-10-15 2017-02-03 삼성전자 주식회사 직관적인 선택에 기초해 디바이스에 액세스하는 방법 및 장치
US20120127012A1 (en) * 2010-11-24 2012-05-24 Samsung Electronics Co., Ltd. Determining user intent from position and orientation information
JP5879713B2 (ja) * 2010-12-09 2016-03-08 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
US8963694B2 (en) * 2010-12-17 2015-02-24 Sony Corporation System and method for remote controlled device selection based on device position data and orientation data of a user
KR101723642B1 (ko) 2011-01-31 2017-04-19 삼성전자주식회사 파노라마 이미지를 촬영하는 촬영 기기 및 그 파노라마 촬영 방법
JP5918618B2 (ja) * 2011-06-03 2016-05-18 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
CN102915218A (zh) * 2011-08-01 2013-02-06 富泰华工业(深圳)有限公司 图像显示方法与电子设备
JP5367034B2 (ja) * 2011-08-24 2013-12-11 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
US20130181901A1 (en) * 2012-01-12 2013-07-18 Kanye Omari West Multiple Screens for Immersive Audio/Video Experience
KR20130091220A (ko) * 2012-02-07 2013-08-16 삼성디스플레이 주식회사 입체 영상 표시 장치
US9691241B1 (en) * 2012-03-14 2017-06-27 Google Inc. Orientation of video based on the orientation of a display
WO2014041872A1 (ja) * 2012-09-12 2014-03-20 ソニー株式会社 画像表示装置
DE102012108626B4 (de) 2012-09-14 2018-11-15 Fujitsu Technology Solutions Intellectual Property Gmbh Anzeigevorrichtung mit einem richtungsabhängigen Sensor
JPWO2015011758A1 (ja) * 2013-07-22 2017-03-02 株式会社東芝 表示システム
KR101511520B1 (ko) * 2013-09-03 2015-04-13 씨제이씨지브이 주식회사 다면 상영 시스템의 시뮬레이션 영상을 제공하기 위한 시뮬레이션 영상 관리 시스템 및 방법
JP6039594B2 (ja) 2014-02-20 2016-12-07 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
US20170134651A1 (en) * 2014-04-22 2017-05-11 Mei-Ling Lo Portable Device for Generating Wide Angle Images
CN105573687B (zh) * 2014-10-10 2019-10-15 鸿富锦精密工业(深圳)有限公司 显示控制装置、电子设备及显示控制方法
KR20160087703A (ko) * 2015-01-14 2016-07-22 한국전자통신연구원 다중 디스플레이 장치의 공간정보를 이용한 다중 디스플레이 제어장치 및 그 방법
US10162590B2 (en) * 2015-05-04 2018-12-25 Brendan Jacob Ritter Video wall system and method of making and using same
US10515482B2 (en) 2015-08-24 2019-12-24 Pcms Holdings, Inc. Systems and methods for enhancing augmented reality experience with dynamic output mapping
US10545717B2 (en) 2015-10-08 2020-01-28 Pcms Holdings, Inc. Methods and systems of automatic calibration for dynamic display configurations
US10021373B2 (en) * 2016-01-11 2018-07-10 Microsoft Technology Licensing, Llc Distributing video among multiple display zones
CN105824593B (zh) * 2016-03-09 2018-11-13 京东方科技集团股份有限公司 拼接屏显示系统及拼接显示方法
JP6922170B2 (ja) * 2016-08-25 2021-08-18 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JP6760008B2 (ja) * 2016-11-21 2020-09-23 富士通株式会社 コンテンツ制御装置、コンテンツ制御プログラムおよびコンテンツ制御方法
US10264213B1 (en) 2016-12-15 2019-04-16 Steelcase Inc. Content amplification system and method
FR3065091B1 (fr) 2017-04-07 2021-09-03 Ark Systeme d'affichage interactif et procede de fonctionnement d'un tel systeme
WO2020181065A1 (en) 2019-03-07 2020-09-10 Alibaba Group Holding Limited Method, apparatus, medium, terminal, and device for processing multi-angle free-perspective data
US20230021589A1 (en) * 2022-09-30 2023-01-26 Intel Corporation Determining external display orientation using ultrasound time of flight

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07184115A (ja) * 1993-12-24 1995-07-21 Oyo Keisoku Kenkyusho:Kk 画像表示装置
JPH1055165A (ja) * 1996-08-12 1998-02-24 Fujitsu Ltd 画像表示装置,画像表示制御装置および画像表示システム
JPH1185117A (ja) * 1997-09-05 1999-03-30 Namco Ltd 画像生成装置
JPH11134087A (ja) * 1997-08-29 1999-05-21 Xerox Corp データ転送用タイリング可能な複数デバイス、デバイスのダイナミックアレイ及びタイリング可能なディスプレイシステム
US20010056574A1 (en) * 2000-06-26 2001-12-27 Richards Angus Duncan VTV system
JP2002032788A (ja) * 2000-07-14 2002-01-31 Nippon Telegr & Teleph Corp <Ntt> 仮想現実提供方法、仮想現実提供装置及び仮想現実提供プログラムを記録した記録媒体
JP2002123840A (ja) * 2000-10-17 2002-04-26 Nippon Telegr & Teleph Corp <Ntt> 臨場感型仮想現実提供処理方法および装置
JP2003195843A (ja) * 2001-12-28 2003-07-09 Sony Corp 表示装置および制御方法、プログラムおよび記録媒体、並びに表示システム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2378252A (en) * 1942-06-30 1945-06-12 Eastman Kodak Co Projection screen
US3552822A (en) * 1968-06-07 1971-01-05 Gerald Altman Rear projection screen
US4931782A (en) * 1988-06-24 1990-06-05 E. I. Du Pont De Nemours And Company Touch screen overlay with improved conductor durability
GB8926647D0 (en) * 1989-11-24 1990-01-17 Hillen Sean Video display
US5181130A (en) * 1990-01-09 1993-01-19 Hewlett-Packard Company Fiber optic faceplate liquid crystal display
FR2658642B1 (fr) * 1990-02-20 1994-06-10 Rousseau Codes Procede et dispositif d'entrainement a la conduite de vehicules terrestres.
US5396351A (en) * 1991-12-20 1995-03-07 Apple Computer, Inc. Polarizing fiber-optic faceplate of stacked adhered glass elements in a liquid crystal display
GB2272556A (en) * 1992-11-14 1994-05-18 Eev Ltd Display with a fibrous surface
JPH07146671A (ja) * 1993-06-16 1995-06-06 Mitsubishi Electric Corp 大型映像表示装置
US5563738A (en) * 1993-09-03 1996-10-08 Jenmar Visual Systems Light transmitting and dispersing filter having low reflectance
JPH0772801A (ja) * 1993-09-03 1995-03-17 Tokyo Houraishiya:Kk 表示パネル
WO1999039328A1 (en) * 1998-01-31 1999-08-05 Don William Lindsay Multiscreen display system and method
JPH11295802A (ja) * 1998-04-10 1999-10-29 Minolta Co Ltd カメラ
CA2278832A1 (en) * 1999-01-06 2000-07-06 Vtech Communications, Ltd. Touch screen overlay apparatus
US6327091B1 (en) * 1999-01-18 2001-12-04 Fuji Photo Film Co., Ltd. Collimating plate and backlight system
JP2000211406A (ja) * 1999-01-27 2000-08-02 Three Bond Co Ltd 計器パネル
WO2000057266A1 (en) * 1999-03-23 2000-09-28 British Telecommunications Public Limited Company Computer input device
US20010051876A1 (en) * 2000-04-03 2001-12-13 Seigel Ronald E. System and method for personalizing, customizing and distributing geographically distinctive products and travel information over the internet
WO2001097203A2 (en) * 2000-06-15 2001-12-20 Light Management Group Inc. Fiber optic display screen
US20030069693A1 (en) * 2001-01-16 2003-04-10 Snapp Douglas N. Geographic pointing device
US6459388B1 (en) * 2001-01-18 2002-10-01 Hewlett-Packard Company Electronic tour guide and photo location finder
US6526351B2 (en) * 2001-07-09 2003-02-25 Charles Lamont Whitham Interactive multimedia tour guide
JP3801049B2 (ja) * 2002-01-22 2006-07-26 ソニー株式会社 情報処理装置及び情報処理方法並びに情報処理プログラム
US7091926B2 (en) * 2002-02-08 2006-08-15 Kulas Charles J Computer display system using multiple screens

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07184115A (ja) * 1993-12-24 1995-07-21 Oyo Keisoku Kenkyusho:Kk 画像表示装置
JPH1055165A (ja) * 1996-08-12 1998-02-24 Fujitsu Ltd 画像表示装置,画像表示制御装置および画像表示システム
JPH11134087A (ja) * 1997-08-29 1999-05-21 Xerox Corp データ転送用タイリング可能な複数デバイス、デバイスのダイナミックアレイ及びタイリング可能なディスプレイシステム
JPH1185117A (ja) * 1997-09-05 1999-03-30 Namco Ltd 画像生成装置
US20010056574A1 (en) * 2000-06-26 2001-12-27 Richards Angus Duncan VTV system
JP2002032788A (ja) * 2000-07-14 2002-01-31 Nippon Telegr & Teleph Corp <Ntt> 仮想現実提供方法、仮想現実提供装置及び仮想現実提供プログラムを記録した記録媒体
JP2002123840A (ja) * 2000-10-17 2002-04-26 Nippon Telegr & Teleph Corp <Ntt> 臨場感型仮想現実提供処理方法および装置
JP2003195843A (ja) * 2001-12-28 2003-07-09 Sony Corp 表示装置および制御方法、プログラムおよび記録媒体、並びに表示システム

Cited By (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005233984A (ja) * 2004-02-17 2005-09-02 Sony Corp コンテンツ提供方法、コンテンツ提供方法のプログラム、コンテンツ提供方法のプログラムを記録した記録媒体及びコンテンツ提供装置
JP4661058B2 (ja) * 2004-02-17 2011-03-30 ソニー株式会社 コンテンツ提供方法、コンテンツ提供方法のプログラム、コンテンツ提供方法のプログラムを記録した記録媒体及びコンテンツ提供装置
JP2006352539A (ja) * 2005-06-16 2006-12-28 Sharp Corp 広視野映像システム
JP2007025111A (ja) * 2005-07-14 2007-02-01 Sharp Corp 映像呈示システム及び映像呈示方法並びに映像呈示プログラムとその記録媒体
JP2007045329A (ja) * 2005-08-10 2007-02-22 Toyota Motor Corp 車両状態リモート確認システム
JP2007264633A (ja) * 2006-03-28 2007-10-11 Seiko Epson Corp サラウンド・ビジュアル・フィールド・システム、入力ストリームに関連するサラウンド・ビジュアル・フィールドを生成する方法およびサラウンド・ビジュアル・フィールド・コントローラ
JP2009536058A (ja) * 2006-05-05 2009-10-08 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド 表示装置および方法
WO2007135776A1 (ja) * 2006-05-23 2007-11-29 Nec Corporation 表示装置、これを含んだ機器、プログラム及び表示方法
US20220360623A1 (en) * 2006-09-07 2022-11-10 Rateze Remote Mgmt Llc Voice operated control device
US11729461B2 (en) 2006-09-07 2023-08-15 Rateze Remote Mgmt Llc Audio or visual output (A/V) devices registering with a wireless hub system
US11570393B2 (en) 2006-09-07 2023-01-31 Rateze Remote Mgmt Llc Voice operated control device
US11968420B2 (en) 2006-09-07 2024-04-23 Rateze Remote Mgmt Llc Audio or visual output (A/V) devices registering with a wireless hub system
JP2008096464A (ja) * 2006-10-05 2008-04-24 Fujitsu Ltd 表示装置および表示装置ユニット並びに表示書き換え方法
JP2011512575A (ja) * 2008-01-25 2011-04-21 マイクロソフト コーポレーション 対話型凹凸ディスプレイへのグラフィックオブジェクトの投影
US8884883B2 (en) 2008-01-25 2014-11-11 Microsoft Corporation Projection of graphical objects on interactive irregular displays
JP2009238218A (ja) * 2008-03-25 2009-10-15 Fuji Xerox Co Ltd 情報可視化システム、方法およびプログラム
US9459784B2 (en) 2008-07-25 2016-10-04 Microsoft Technology Licensing, Llc Touch interaction with a curved display
US9218116B2 (en) 2008-07-25 2015-12-22 Hrvoje Benko Touch interaction with a curved display
JP2010171889A (ja) * 2009-01-26 2010-08-05 Canon Inc 再生装置、その制御方法及びプログラム
JP2010197487A (ja) * 2009-02-23 2010-09-09 Seiko Epson Corp 表示装置
US9047793B2 (en) 2009-10-20 2015-06-02 Sharp Kabushiki Kaisha Three dimensional video display device
JP2013509647A (ja) * 2009-10-30 2013-03-14 イマージョン コーポレーション データ特徴の触覚表示方法
US9417694B2 (en) 2009-10-30 2016-08-16 Immersion Corporation System and method for haptic display of data transfers
US8762863B2 (en) 2010-03-17 2014-06-24 Sony Corporation Method and apparatus for gesture manipulation across multiple devices
JP2012048066A (ja) * 2010-08-27 2012-03-08 Toshiba Corp 映像表示装置
JP2012128854A (ja) * 2010-12-09 2012-07-05 Korea Electronics Telecommun 増強型3次元立体映像を提示するための混合現実ディスプレイプラットフォーム及び運営方法
JP2012137581A (ja) * 2010-12-27 2012-07-19 Canon Marketing Japan Inc 画像表示制御サーバ
JP2014509759A (ja) * 2011-03-02 2014-04-21 マイクロソフト コーポレーション 没入型ディスプレイエクスペリエンス
WO2012147292A1 (en) 2011-04-25 2012-11-01 Sony Corporation Communication apparatus, communication control method, and computer-readable storage medium
US9274689B2 (en) 2011-04-25 2016-03-01 Sony Corporation Communication apparatus, communication control method, and computer-readable storage medium
WO2012160894A1 (ja) * 2011-05-26 2012-11-29 株式会社ダイセル ディスプレイ用透明積層フィルム及びその使用方法並びにタッチパネル
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
JP2013003742A (ja) * 2011-06-14 2013-01-07 Sharp Corp データ送信操作機器、および、データ送信制御方法
US9473699B2 (en) 2012-06-01 2016-10-18 Nintendo Co., Ltd. Storage medium storing information processing program, information processing device, information processing system, and information processing method
JP2013250838A (ja) * 2012-06-01 2013-12-12 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2018010657A (ja) * 2013-06-08 2018-01-18 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイにおいて、透過モードと非透過モードとの間を移行するシステム及び方法
JP2016538968A (ja) * 2013-09-03 2016-12-15 シゼイ シジブイ カンパニー リミテッド 多面上映システムのシミュレーションのためのシミュレーションシステム
CN105045378A (zh) * 2014-05-02 2015-11-11 三星电子株式会社 显示设备及其控制方法
JP2015219634A (ja) * 2014-05-15 2015-12-07 株式会社リコー 画像処理プログラム、画像処理方法および画像処理装置
KR101612437B1 (ko) 2014-09-30 2016-04-14 김현태 촬영 영상 처리 장치 및 방법
US10999412B2 (en) 2015-08-04 2021-05-04 Nokia Technologies Oy Sharing mediated reality content
JP2020035455A (ja) * 2015-08-04 2020-03-05 ノキア テクノロジーズ オーユー 媒介現実コンテンツの共有
JP2017227659A (ja) * 2016-06-20 2017-12-28 カシオ計算機株式会社 出力制御装置、出力制御方法及びプログラム
US11417135B2 (en) 2017-08-23 2022-08-16 Sony Corporation Information processing apparatus, information processing method, and program
CN111052044A (zh) * 2017-08-23 2020-04-21 索尼公司 信息处理装置、信息处理方法和程序
JP7069085B2 (ja) 2018-05-28 2022-05-17 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハー 一群のデバイスにより視覚コンテンツ及び又はオーディオコンテンツを同期的に再生するための方法およびシステム
JP2020010318A (ja) * 2018-05-28 2020-01-16 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH 一群のデバイスにより視覚コンテンツ及び又はオーディオコンテンツを同期的に再生するための方法およびシステム
JP7246146B2 (ja) 2018-08-28 2023-03-27 株式会社Nttドコモ 情報処理装置及び映像投影システム
JP2020036121A (ja) * 2018-08-28 2020-03-05 株式会社Nttドコモ 情報処理装置及び投影装置
WO2020241299A1 (ja) * 2019-05-29 2020-12-03 ソニー株式会社 制御装置、制御方法、制御プログラム及び制御システム
JP2020202499A (ja) * 2019-06-11 2020-12-17 国立大学法人静岡大学 画像観察システム
JP7356697B2 (ja) 2019-06-11 2023-10-05 国立大学法人静岡大学 画像観察システム

Also Published As

Publication number Publication date
US20040125044A1 (en) 2004-07-01
EP1396781A2 (en) 2004-03-10
EP1396781A3 (en) 2006-06-21
JP3880561B2 (ja) 2007-02-14

Similar Documents

Publication Publication Date Title
JP3880561B2 (ja) 表示システム
JP2006294032A (ja) 表示システム、表示制御装置、表示装置、表示方法、およびユーザインタフェイス装置
EP3396511B1 (en) Information processing device and operation reception method
US10356398B2 (en) Method for capturing virtual space and electronic device using the same
WO2019201047A1 (zh) 在虚拟环境中进行视角调整的方法、装置及可读存储介质
JP7344974B2 (ja) マルチ仮想キャラクターの制御方法、装置、およびコンピュータプログラム
CN108710525B (zh) 虚拟场景中的地图展示方法、装置、设备及存储介质
US20180348969A1 (en) Information processing apparatus and operation reception method
CN109803154B (zh) 棋类比赛的直播方法、设备及存储介质
JP7191210B2 (ja) 仮想環境の観察方法、デバイス及び記憶媒体
CN109917910B (zh) 线型技能的显示方法、装置、设备及存储介质
JP7309913B2 (ja) 視点回転の方法、装置、端末およびコンピュータプラグラム
US11675488B2 (en) Method and apparatus for constructing building in virtual environment, device, and storage medium
CN112245912B (zh) 虚拟场景中的声音提示方法、装置、设备及存储介质
CN111541928B (zh) 直播显示方法、装置、设备及存储介质
CN109474786A (zh) 一种预览图像生成方法及终端
US20220291791A1 (en) Method and apparatus for determining selected target, device, and storage medium
WO2022237076A1 (zh) 虚拟对象的控制方法、装置、设备及计算机可读存储介质
CN113194329B (zh) 直播互动方法、装置、终端及存储介质
CN110597392B (zh) 一种基于vr模拟世界的交互方法
WO2024037565A1 (zh) 人机交互方法、基于虚拟现实空间的显示处理方法、模型显示方法、装置、设备及介质
CN116962737A (zh) 直播处理方法、装置、计算机设备和计算机可读存储介质
CN116233513A (zh) 虚拟现实直播间虚拟礼物特效播放处理方法、装置和设备
TWM605560U (zh) 模擬全景系統
JP2023528119A (ja) 仮想オブジェクトの制御方法、装置、機器及びコンピュータプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061107

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091117

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101117

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111117

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121117

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121117

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131117

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees