JP2006294032A - Display system, display control device, display apparatus, display method, and user interface device - Google Patents

Display system, display control device, display apparatus, display method, and user interface device Download PDF

Info

Publication number
JP2006294032A
JP2006294032A JP2006104658A JP2006104658A JP2006294032A JP 2006294032 A JP2006294032 A JP 2006294032A JP 2006104658 A JP2006104658 A JP 2006104658A JP 2006104658 A JP2006104658 A JP 2006104658A JP 2006294032 A JP2006294032 A JP 2006294032A
Authority
JP
Japan
Prior art keywords
display
display device
user
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006104658A
Other languages
Japanese (ja)
Inventor
Akira Suzuki
章 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2006104658A priority Critical patent/JP2006294032A/en
Publication of JP2006294032A publication Critical patent/JP2006294032A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a display system which can effectively display high viewing angle image with simple constitution. <P>SOLUTION: When displaying image data represented in such a manner as to surround a user separately on a plurality of display apparatuses 30a, 30b, 30c, 30d, and 30e arranged around a user 20, a display control apparatus 100 acquires information indicative of positions of the respective display apparatuses 30 from position sensors 32, generates images that must be seen in the direction of the display apparatus 30 as viewed from the user 20, and displays the generated images on the display apparatuses 30. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、複数の表示装置に映像を表示する技術に関し、特に、高視野角映像をユーザの周囲に配された複数の表示装置に分割して表示する技術に関する。   The present invention relates to a technique for displaying an image on a plurality of display devices, and more particularly to a technology for dividing and displaying a high viewing angle image on a plurality of display devices arranged around a user.

近年、コンピュータグラフィクスや特殊映像効果など、映像を生成または加工する技術が飛躍的に向上し、さらに、映像を配信するインフラの整備、各種映像を再生するための装置やアプリケーションの普及などの要因が相まって、放送ないし映像配信の世界は、新たな時代を迎えようとしている。そうした状況下、次世代の映像コンテンツとして、360度カメラなどにより撮影された超パノラマ映像や、仮想的な三次元空間をコンピュータグラフィクスなどの技術により表現した仮想現実空間の映像などが注目を集めるようになっている。このような高視野角の映像は、既に電子商取引などの場面で取り入れられつつあり、たとえば、不動産物件の内部をウォークスルーすることが可能なコンテンツなどが提供されている。   In recent years, technologies for generating or processing images such as computer graphics and special image effects have dramatically improved. In addition, there are factors such as the development of infrastructure for distributing images and the spread of devices and applications for reproducing various images. Together, the world of broadcasting or video distribution is about to enter a new era. Under such circumstances, as next-generation video content, super panoramic video shot with a 360-degree camera or the like, and video in a virtual reality space that expresses a virtual three-dimensional space with technologies such as computer graphics will attract attention. It has become. Such high-viewing-angle images are already being taken in scenes such as electronic commerce, and for example, content that can walk through the interior of real estate properties is provided.

これらの高視野角映像は、本来、ユーザの正面のみならず、ユーザを取り囲むような映像情報を有しているから、それを表示する表示装置も、ユーザを取り囲むような大画面の表示装置ないし球形のスクリーンなどにすることで、より高い臨場感が得られる。しかしながら、このような表示装置は、装置自体が大きく高価であるから、設置条件が限られ、家庭などへの導入は難しい。   Since these high viewing angle videos originally have video information surrounding the user as well as the front of the user, the display device for displaying the video also has a large screen display device surrounding the user. By using a spherical screen, you can get a higher sense of realism. However, since such a display device is large and expensive, installation conditions are limited, and it is difficult to introduce it into a home.

本発明はこうした事情に鑑みてなされたものであり、その目的は、比較的簡便な構成で高視野角映像を効果的に表示する技術を提供することにある。また別の目的は、高視野角映像を楽しむためのシステムを導入する際の手間とコストを低減し、広く家庭等に普及させることのできる技術を提供することにある。   The present invention has been made in view of such circumstances, and an object thereof is to provide a technique for effectively displaying a high viewing angle image with a relatively simple configuration. Another object is to provide a technique that can reduce the labor and cost of introducing a system for enjoying a high viewing angle video and can be widely spread to homes and the like.

このような課題を解決するために、本発明では、仮想現実(バーチャルリアリティ)などの三次元空間映像や、パノラマ映像など、ユーザを取り囲むような形式で表現された映像データを、ユーザの周囲に配された複数の表示装置に分割して表示するにあたって、それぞれの表示装置の位置を示す情報を適宜取得し、ユーザから見てその表示装置の方向に見えるべき映像を生成し、その表示装置に表示せしめる。   In order to solve such a problem, in the present invention, video data expressed in a form surrounding the user, such as a three-dimensional spatial image such as virtual reality or a panoramic image, is displayed around the user. When dividing and displaying on a plurality of arranged display devices, information indicating the position of each display device is appropriately acquired, and an image that should be seen in the direction of the display device when viewed from the user is generated. Display.

この表示技術は、複数の表示装置と、少なくとも一つの表示制御装置とを含む表示システムにより実現される。表示装置は、自己の位置を検知するための検知部と、検知部により検知された自己の位置を示す情報を表示制御装置に通知する通知部と、を含む。表示制御装置は、通知部から表示装置の位置を示す情報を取得する位置情報取得部と、前記位置情報取得部が取得した表示装置の位置を示す情報に基づいて、その表示装置に表示すべき映像を生成し、その表示装置に送信する映像生成部と、を含む。複数の表示装置は、それぞれ映像生成部から取得した映像を表示する。   This display technology is realized by a display system including a plurality of display devices and at least one display control device. The display device includes a detection unit for detecting its own position and a notification unit for notifying the display control device of information indicating its own position detected by the detection unit. The display control device should display on the display device based on the position information acquisition unit that acquires information indicating the position of the display device from the notification unit, and the information indicating the position of the display device acquired by the position information acquisition unit. A video generation unit that generates a video and transmits the generated video to the display device. The plurality of display devices each display the video acquired from the video generation unit.

本発明によれば、比較的簡便な構成で高視野角映像を効果的に表示する技術を提供することができる。また、高視野角映像を楽しむためのシステムを導入する際の手間とコストを低減し、広く家庭等に普及させることのできる技術を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the technique which displays a high viewing angle image | video effectively with a comparatively simple structure can be provided. In addition, it is possible to provide a technique that can reduce labor and cost when introducing a system for enjoying a high viewing angle image and can be widely used in homes and the like.

(第1の実施の形態)
本実施の形態に係る表示システムは、複数の表示装置をユーザの周囲に配し、これらの表示装置が連動して一つの超パノラマ空間映像や三次元仮想現実空間映像を表示するものである。それぞれの表示装置の画面は、ユーザの周囲に展開される超パノラマ空間または三次元仮想現実空間を見るための「窓」の役割を果たす。ユーザは、これらの「窓」から、自身を取り囲む仮想空間の映像および音声を受け取ることにより、実際に自身が超パノラマ空間または三次元仮想現実空間の中に存在しているかのような高い臨場感と没入感を得ることができる。
(First embodiment)
In the display system according to the present embodiment, a plurality of display devices are arranged around a user, and these display devices work together to display one super panoramic space image or three-dimensional virtual reality space image. The screen of each display device serves as a “window” for viewing a super panoramic space or a three-dimensional virtual reality space developed around the user. By receiving video and audio of the virtual space that surrounds these “windows”, the user can feel as if they are actually in a hyper-panoramic space or a three-dimensional virtual reality space. I can get an immersive feeling.

図1は、第1の実施の形態に係る表示システム10の全体構成を模式的に示す。表示システム10は、ユーザ20の周囲に配置された複数の表示装置30a、30b、30c、30d、30eと、表示制御装置100とを含む。これらの装置はネットワーク40を介して接続されている。ネットワーク40は、各装置を接続するケーブルであってもよいし、LAN、WAN、インターネット、電源線などを利用したホームネットワークなどであってもよい。また、図1では有線のネットワーク40を利用した例を示しているが、もちろん無線のネットワークであってもよい。以下、表示システム10により表示される超パノラマ空間映像、三次元仮想現実映像などをまとめて「高視野角映像」ともいう。表示システム10は、ユーザ20が所持するリモートコントローラ80により操作される。   FIG. 1 schematically shows the overall configuration of a display system 10 according to the first embodiment. The display system 10 includes a plurality of display devices 30 a, 30 b, 30 c, 30 d, 30 e disposed around the user 20, and the display control device 100. These devices are connected via a network 40. The network 40 may be a cable connecting each device, or may be a home network using a LAN, WAN, Internet, power line, or the like. 1 shows an example in which a wired network 40 is used, a wireless network may be used. Hereinafter, the super panoramic space video, the three-dimensional virtual reality video, and the like displayed by the display system 10 are collectively referred to as “high viewing angle video”. The display system 10 is operated by a remote controller 80 possessed by the user 20.

表示装置30は、それぞれ、その表示装置の位置を検知するための検知部の一例としての位置センサ32、表示画面34、およびスピーカ36を含む。位置センサ32により取得された表示装置30の位置情報は、ネットワーク40を介して表示制御装置100に送られる。表示制御装置100は、各表示装置30の位置、方向、画面の大きさなどの情報に基づいて、高視野角映像のうちユーザ20から見てその表示装置30の表示画面34に見えるはずの映像を生成し、それぞれの表示装置30に送る。同様に、表示制御装置100は、表示装置30の方向から聞こえるはずの音声を生成し、それぞれの表示装置30に送る。表示装置30は、表示制御装置100から送られた映像を表示画面34に、音声をスピーカ36に出力する。これにより、ユーザを取り囲むような映像および音声情報が、実際にユーザを取り囲むように配置された複数の表示装置30により表現される。   The display device 30 includes a position sensor 32, a display screen 34, and a speaker 36 as an example of a detection unit for detecting the position of the display device. The position information of the display device 30 acquired by the position sensor 32 is sent to the display control device 100 via the network 40. The display control device 100, based on information such as the position, direction, and screen size of each display device 30, images that should be visible on the display screen 34 of the display device 30 when viewed from the user 20 among the high viewing angle images. Are sent to the respective display devices 30. Similarly, the display control device 100 generates a sound that should be heard from the direction of the display device 30 and sends it to each display device 30. The display device 30 outputs the video sent from the display control device 100 to the display screen 34 and the sound to the speaker 36. Thus, video and audio information surrounding the user is expressed by the plurality of display devices 30 arranged to actually surround the user.

従来、映像を表示装置30に表示する際、一般的には、表示装置の画面の大きさにかかわらず同じ映像を表示していたが、本実施の形態の表示システム10では、表示装置30が置かれた位置、方向、画面の大きさ、ユーザ20の位置、視線方向などに応じて、高視野角映像の一部を切り取って表示装置30に表示する。高視野角映像の例として、3次元CGを本表示システム10により表示する場合、3次元CGにおけるワールド座標を、実際に映像を鑑賞している実世界の座標に対応づけてもよい。このとき、複数の表示装置30のそれぞれが、CGの座標変換処理に用いられるビューフラスタム(四角錘台)に相当することになる。   Conventionally, when displaying an image on the display device 30, the same image is generally displayed regardless of the screen size of the display device. However, in the display system 10 of the present embodiment, the display device 30 includes the display device 30. Depending on the placed position, direction, screen size, user 20 position, line-of-sight direction, etc., a part of the high viewing angle image is cut out and displayed on the display device 30. As an example of a high viewing angle image, when a 3D CG is displayed by the display system 10, the world coordinates in the 3D CG may be associated with the coordinates of the real world where the image is actually being viewed. At this time, each of the plurality of display devices 30 corresponds to a view frustum (square pyramid) used for CG coordinate conversion processing.

表示装置30としては、テレビジョン表示装置のほか、パーソナルコンピュータ、ノート型、タブレット型、携帯型、テーブル型などの各種情報端末の表示装置、携帯電話の表示画面、プロジェクタ、HMD(Head Mount Display)など、任意の表示装置を利用可能である。複数の表示装置に高視野角映像を分割して表示するため、必ずしも巨大な画面を有する表示装置を用意する必要がない。したがって、比較的安価にシステムを構築することが可能である。また、図2に示すように、画面の中央付近の領域22を液晶表示装置などにより高精細に表示し、その周囲の領域24をプロジェクタなどの大画面表示に適した表示装置により表示してもよい。この場合、プロジェクタによる投影映像が液晶表示装置に重ならないように、プロジェクタの画面中央付近を遮光してもよいし、意図的に映像を重ね合わせて表示してもよい。ここで、領域22の位置は、必ずしも領域24の中心付近でなくてもよい。表示制御装置100は、領域22の表示画面位置と領域24の表示画面位置とを取得可能であるから、それらの位置に合わせて、上述したように、領域24に表示する画像に領域22に表示する画像をはめ込んだり、重ね合わせたりすることができる。   As the display device 30, in addition to a television display device, a display device of various information terminals such as a personal computer, a notebook type, a tablet type, a portable type, a table type, a display screen of a mobile phone, a projector, an HMD (Head Mount Display) Any display device can be used. Since a high viewing angle image is divided and displayed on a plurality of display devices, it is not always necessary to prepare a display device having a huge screen. Therefore, it is possible to construct a system at a relatively low cost. Further, as shown in FIG. 2, the region 22 near the center of the screen may be displayed with high definition by a liquid crystal display device or the like, and the surrounding region 24 may be displayed by a display device suitable for large screen display such as a projector. Good. In this case, the vicinity of the center of the screen of the projector may be shielded from light so that the projected image from the projector does not overlap the liquid crystal display device, or the image may be intentionally superimposed and displayed. Here, the position of the region 22 is not necessarily near the center of the region 24. Since the display control apparatus 100 can acquire the display screen position of the area 22 and the display screen position of the area 24, the image displayed in the area 24 is displayed in the area 22 according to these positions as described above. Images can be inserted or overlaid.

それぞれの表示装置は、通常は個々の用途において使用し、高視野角映像を表示する際に本システムに接続してもよい。本システムのネットワーク40による通信に対応した通信制御機能を有する専用の表示装置30を利用してもよいし、既存の表示装置を本システムに接続して利用してもよい。後者の場合、たとえば、既存の表示装置に位置センサ32を取り付け、位置情報を無線などにより表示制御装置100に送り、表示制御装置100からの映像を表示装置の映像入力端子に、音声を音声入力端子に供給する構成にしてもよい。このような構成によれば、特別な表示装置を必要としないため、導入が容易であり、費用対効果も高い。また、位置センサ32を取り付ける代わりに、表示装置30の位置情報の入力をユーザから受け付けてもよいし、ユーザに表示装置30の位置を調整させてもよい。   Each display device is typically used in an individual application and may be connected to the system when displaying a high viewing angle image. A dedicated display device 30 having a communication control function corresponding to communication by the network 40 of the system may be used, or an existing display device may be connected to the system and used. In the latter case, for example, the position sensor 32 is attached to an existing display device, position information is sent to the display control device 100 by radio or the like, video from the display control device 100 is input to the video input terminal of the display device, and audio is input to the display device. You may make it the structure supplied to a terminal. According to such a configuration, since a special display device is not required, introduction is easy and cost effectiveness is high. Further, instead of attaching the position sensor 32, input of position information of the display device 30 may be received from the user, or the user may adjust the position of the display device 30.

図3は、表示装置30内に設けられた制御部の内部構成を示す。制御部31は、位置センサ32、装置情報保持部33、通知部37、表示部38、および音声出力部39を含む。これらの構成は、ハードウエア的にはコンピュータのCPUやメモリなどの構成で実現でき、ソフトウエア的にはプログラムなどによって実現できるが、本図ではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウエア、ソフトウエアの組合せによっていろいろなかたちで実現できる。   FIG. 3 shows an internal configuration of a control unit provided in the display device 30. The control unit 31 includes a position sensor 32, a device information holding unit 33, a notification unit 37, a display unit 38, and an audio output unit 39. These configurations can be realized in terms of hardware such as a CPU and memory of a computer, and can be realized in terms of software by a program or the like. In this figure, functional blocks realized by their cooperation are depicted. . Therefore, these functional blocks can be realized in various ways by a combination of hardware and software.

位置センサ32は、表示装置30の位置情報を検知する。位置センサ32としては、磁気、赤外線、超音波、その他の原理による各種センサを利用可能である。たとえば、表示制御装置100、ユーザ20の所有するリモートコントローラ80、主画面となる表示装置30a、または本システムが設置された部屋の壁や天井などに磁気、光、音波などの信号の発信機を設け、各表示装置30にその信号の受信機を設けてもよい。位置センサ32として、磁場発生器からの磁気信号を受信する磁気センサを利用する場合、磁場発生器と磁気センサとの間で同期をとるための通信経路を設けてもよい。広い範囲で高精度の位置情報を検知するために、複数の磁気発生器を分散して配置し、それらの磁気発生器から各位置センサ32が受信した信号を統合的に解析することにより、各表示装置30の位置情報を算出してもよい。また、それぞれの位置センサ32が発信機および受信機の機能を有し、相互の通信により相対位置を検知してもよい。たとえば、微弱電波による近距離無線通信システムを応用して、電波強度から互いの装置間の距離を推測してもよいし、ブルートゥースなどの技術を用いてもよい。この場合、たとえば表示制御装置100が、それぞれの表示装置30から装置間の距離情報を収集し、三角測量等の技術を用いて、それぞれの表示装置30の位置を算出してもよい。   The position sensor 32 detects position information of the display device 30. As the position sensor 32, various sensors based on magnetism, infrared rays, ultrasonic waves, and other principles can be used. For example, the display controller 100, the remote controller 80 owned by the user 20, the display device 30a as the main screen, or a transmitter of signals such as magnetism, light, and sound waves on the wall or ceiling of the room where the system is installed. Each display device 30 may be provided with a receiver for the signal. When a magnetic sensor that receives a magnetic signal from a magnetic field generator is used as the position sensor 32, a communication path for synchronizing between the magnetic field generator and the magnetic sensor may be provided. In order to detect position information with high accuracy in a wide range, a plurality of magnetic generators are arranged in a distributed manner, and the signals received by the position sensors 32 from these magnetic generators are analyzed in an integrated manner. The position information of the display device 30 may be calculated. Moreover, each position sensor 32 may have a transmitter and a receiver function, and may detect a relative position by mutual communication. For example, a short-range wireless communication system using weak radio waves may be applied to estimate the distance between devices from the radio wave intensity, or a technology such as Bluetooth may be used. In this case, for example, the display control device 100 may collect distance information between the devices from each display device 30 and calculate the position of each display device 30 using a technique such as triangulation.

位置センサ32は、その他、GPS衛星からの信号を受信するセンサであってもよいし、測距機能を有する撮像装置であってもよい。GPS受信機を位置センサ32として利用する場合は、個々の表示装置30が、自身の位置情報を取得することができる。また、測距機能を有する撮像装置を位置センサ32として利用する場合は、個々の表示装置30が、自身と、ユーザ20または他の表示装置30との間の相対位置を取得することができる。後述するように、表示制御装置100ではなく、個々の表示装置30が自身の表示画面に表示する映像をそれぞれ生成する場合は、このように表示装置30自身が単独で位置情報を取得可能な技術を利用してもよい。   In addition, the position sensor 32 may be a sensor that receives a signal from a GPS satellite, or may be an imaging device having a distance measuring function. When a GPS receiver is used as the position sensor 32, each display device 30 can acquire its own position information. When an imaging device having a distance measuring function is used as the position sensor 32, each display device 30 can acquire a relative position between itself and the user 20 or another display device 30. As will be described later, when each of the display devices 30 rather than the display control device 100 generates an image to be displayed on its own display screen, the display device 30 itself can acquire position information independently as described above. May be used.

表示装置30の三次元位置を取得する方法として、複数のカメラにより表示装置30を撮像して視差により三次元位置を検知する方法を用いてもよいし、測距機能を有する撮像装置により表示装置30を撮像して三次元位置を検知してもよい。これらの場合、各表示装置30に位置センサ32を設けなくてもよい。各表示装置30に赤外線LEDを設けておき、所定位置、たとえば表示制御装置100又は部屋の天井に設けられた単数または複数の赤外線カメラで赤外線LEDを撮影して、各表示装置30の位置を取得してもよい。この場合、各表示装置30の赤外線LEDの明滅パターンにより装置を識別してもよい。赤外線カメラの撮影速度が比較的遅い場合は、赤外線LEDと赤外線カメラとの間で同期をとり、赤外線LEDの明滅パターンを正確に識別できるようにしてもよい。   As a method of acquiring the three-dimensional position of the display device 30, a method of imaging the display device 30 with a plurality of cameras and detecting the three-dimensional position with parallax may be used, or the display device may be displayed with an imaging device having a distance measuring function. 30 may be imaged to detect the three-dimensional position. In these cases, the position sensor 32 may not be provided in each display device 30. Each display device 30 is provided with an infrared LED, and the position of each display device 30 is acquired by photographing the infrared LED with a predetermined position, for example, the display control device 100 or one or a plurality of infrared cameras provided on the ceiling of the room. May be. In this case, the device may be identified by the blinking pattern of the infrared LED of each display device 30. When the imaging speed of the infrared camera is relatively slow, synchronization may be performed between the infrared LED and the infrared camera so that the blinking pattern of the infrared LED can be accurately identified.

プロジェクタによりスクリーンや壁に映像を投影する場合は、たとえば、赤外線などの不可視光を投影し、それをカメラなどで撮影して画像認識することにより、投影画面の位置情報を取得してもよい。このとき、投影面の形状をも考慮すべく、可視光または不可視光によるキャリブレーションパターンをプロジェクタから投影し、ステレオビデオカメラなどにより投影面の位置、方向、および形状を認識し、それに基づいて投影映像を歪ませるなどの処理を行ってもよい。   When projecting an image on a screen or a wall by a projector, for example, invisible light such as infrared rays may be projected, and the position information of the projection screen may be acquired by photographing the image with a camera or the like and recognizing the image. At this time, in order to take into account the shape of the projection surface, a calibration pattern by visible light or invisible light is projected from the projector, and the position, direction, and shape of the projection surface are recognized by a stereo video camera or the like, and the projection is performed based on this. Processing such as distorting the video may be performed.

各表示装置30に表示すべき映像を生成するためには、その表示装置30の三次元位置情報だけでなく、表示画面の向きも必要である。位置センサ32がジャイロを有している場合は、そのジャイロの基準位置からの3軸の傾き角を検出することができるので、三次元空間中における表示画面34の方向を算出することができる。また、位置及び角度の6自由度を検知可能なセンサを用いてもよい。これらの場合、各表示装置30には1つの位置センサ32を設ければよい。その他、表示画面34の方向を検知する方法として、一つの表示装置30に複数の位置センサ32を設けておいてもよいし、重力を検知可能な加速度センサ、地磁気センサなど、表示画面34の傾き角を検知可能なセンサを別途設けてもよい。また、外部に複数の撮像装置を設けて表示装置30を撮影することにより各表示装置30の位置を検知する場合は、撮影した画像から表示装置30の表示画面34の方向を取得してもよい。   In order to generate a video to be displayed on each display device 30, not only the three-dimensional position information of the display device 30 but also the orientation of the display screen is necessary. When the position sensor 32 has a gyro, the three-axis tilt angle from the reference position of the gyro can be detected, so the direction of the display screen 34 in the three-dimensional space can be calculated. A sensor capable of detecting six degrees of freedom of position and angle may be used. In these cases, each display device 30 may be provided with one position sensor 32. In addition, as a method of detecting the direction of the display screen 34, a plurality of position sensors 32 may be provided in one display device 30, or the inclination of the display screen 34 such as an acceleration sensor or a geomagnetic sensor that can detect gravity is used. A sensor capable of detecting a corner may be provided separately. Further, when the position of each display device 30 is detected by providing a plurality of imaging devices outside and photographing the display device 30, the direction of the display screen 34 of the display device 30 may be acquired from the captured image. .

装置情報保持部33は、表示装置30の表示画面のサイズ、アスペクト比、画素数、γ値などの色特性、表示部38などの処理能力、装置のID、メーカ名、型式などの識別情報等、表示装置30に固有な特性情報を保持する。これらの情報は、表示制御装置100に通知され、表示装置30に表示する映像を生成するために利用される。別の例では、装置情報保持部33は、ネットワークにより表示制御装置100と接続された任意の装置に保持されてもよく、要は、表示制御装置100が、本表示システム10に参加している表示装置30の特性情報を取得できるように構成されていればよい。たとえば、表示装置30の製造主体により運営されるウェブサイトに表示装置30の特性情報を掲載しておき、そのウェブサイトから表示装置30の特性情報を取得してもよい。これによれば、情報の追加、変更、修正などのメンテナンスが容易であり、かつ、装置情報保持部33が設けられていない表示装置30であっても、本表示システム10に参加させることが可能となるので、拡張性に優れている。   The device information holding unit 33 is a display screen size, aspect ratio, number of pixels, γ value and other color characteristics of the display device 30, processing capability of the display unit 38, identification information such as device ID, manufacturer name, model, etc. The characteristic information unique to the display device 30 is held. These pieces of information are notified to the display control device 100 and used to generate a video to be displayed on the display device 30. In another example, the device information holding unit 33 may be held in any device connected to the display control device 100 via a network. In short, the display control device 100 participates in the display system 10. What is necessary is just to be comprised so that the characteristic information of the display apparatus 30 can be acquired. For example, the characteristic information of the display device 30 may be posted on a website operated by the manufacturing entity of the display device 30, and the characteristic information of the display device 30 may be acquired from the website. According to this, maintenance such as addition, change, and correction of information is easy, and even the display device 30 that is not provided with the device information holding unit 33 can participate in the display system 10. Therefore, extensibility is excellent.

通知部37は、位置センサ32により検知された表示装置30の位置を示す情報と、装置情報保持部33に保持された表示装置30の特性情報を表示制御装置100に通知する。表示装置30の特性情報は、たとえば、表示装置30がネットワークに接続されたとき、表示システム10の起動時、初期化時、などに表示制御装置100に通知されてもよい。表示画面のサイズ、画素数など、変更されない情報については、表示制御装置100に一度通知されれば十分である。表示画面の輝度、彩度などの色特性やアスペクト比などの表示に関する特性情報や、スピーカの音量などの音声出力に関する特性情報が変更可能に構成されている場合は、変更を検知したときに、表示制御装置100に変更された情報を通知してもよい。表示装置30の位置を示す情報は、所定の時間間隔で通知されてもよいし、表示装置30の位置、方向などが変更されたことを検知したときに通知されてもよい。   The notification unit 37 notifies the display control device 100 of information indicating the position of the display device 30 detected by the position sensor 32 and the characteristic information of the display device 30 held in the device information holding unit 33. The characteristic information of the display device 30 may be notified to the display control device 100, for example, when the display device 30 is connected to a network, when the display system 10 is activated, at initialization, or the like. Information that is not changed, such as the size of the display screen and the number of pixels, need only be notified to the display control device 100 once. When it is configured to change the color information such as brightness and saturation of the display screen, the characteristic information related to the display such as the aspect ratio, and the characteristic information related to the audio output such as the volume of the speaker, when the change is detected, The display control device 100 may be notified of the changed information. Information indicating the position of the display device 30 may be notified at predetermined time intervals, or may be notified when it is detected that the position, direction, or the like of the display device 30 has been changed.

表示部38は、表示制御装置100により表示装置30の位置に応じて生成された映像を取得して表示画面34に表示するための処理を行う。音声出力部39は、表示制御装置100により生成された音声を取得してスピーカ36に出力するための処理を行う。   The display unit 38 performs processing for acquiring the video generated according to the position of the display device 30 by the display control device 100 and displaying the video on the display screen 34. The audio output unit 39 performs a process for acquiring the audio generated by the display control apparatus 100 and outputting it to the speaker 36.

通知部37は、位置センサ32が受信した信号を各表示装置30内で処理し三次元位置情報を算出して表示制御装置100に送信してもよいし、信号情報のみを表示制御装置100に送り表示制御装置100側で各表示装置30の三次元位置情報を算出してもよい。前者の場合、表示装置30は、図示しないセンサ位置情報算出部を有する。本実施の形態では、表示制御装置100側で位置情報を算出するものとする。   The notification unit 37 may process the signal received by the position sensor 32 in each display device 30 to calculate three-dimensional position information and transmit it to the display control device 100, or only the signal information may be sent to the display control device 100. The three-dimensional position information of each display device 30 may be calculated on the feed display control device 100 side. In the former case, the display device 30 includes a sensor position information calculation unit (not shown). In the present embodiment, position information is calculated on the display control apparatus 100 side.

図4は、表示制御装置100の内部構成を示す。これらの機能ブロックも、ハードウエア、ソフトウエアの組合せによっていろいろなかたちで実現できる。   FIG. 4 shows an internal configuration of the display control apparatus 100. These functional blocks can also be realized in various ways by a combination of hardware and software.

センサ位置情報取得部110は、各表示装置30の通知部37から、位置センサ32が受信した信号情報を取得する。装置情報取得部112は、各表示装置30の通知部37から、装置情報保持部33に保持された表示装置30の特性情報を取得する。別の例では、表示装置30の特性情報は、予め表示制御装置100に登録されてもよい。また、ネットワーク40を介して各表示装置30の識別情報を取得し、表示装置30の特性情報を掲載したウェブページなどにアクセスして、特性情報を入手してもよい。また、装置情報取得部112は、特性情報取得部の機能を有してもよく、この場合、表示装置30の通知部37から表示装置30の表示又は音声出力に関する特性情報を取得する。画面位置情報算出部120は、センサ位置情報取得部110により取得された情報と、装置情報取得部112により取得された各表示装置30における位置センサ32の搭載位置、表示画面34の幅および高さなどの情報をもとに、各表示装置30の表示画面34の位置および方向を算出する。   The sensor position information acquisition unit 110 acquires signal information received by the position sensor 32 from the notification unit 37 of each display device 30. The device information acquisition unit 112 acquires the characteristic information of the display device 30 held in the device information holding unit 33 from the notification unit 37 of each display device 30. In another example, the characteristic information of the display device 30 may be registered in the display control device 100 in advance. Further, the identification information of each display device 30 may be acquired via the network 40, and the characteristic information may be obtained by accessing a web page or the like on which the characteristic information of the display device 30 is posted. The device information acquisition unit 112 may have a function of a characteristic information acquisition unit. In this case, the device information acquisition unit 112 acquires characteristic information related to display or audio output of the display device 30 from the notification unit 37 of the display device 30. The screen position information calculation unit 120 includes the information acquired by the sensor position information acquisition unit 110, the mounting position of the position sensor 32 in each display device 30 acquired by the device information acquisition unit 112, and the width and height of the display screen 34. Based on such information, the position and direction of the display screen 34 of each display device 30 are calculated.

視点位置情報算出部130は、センサ位置情報取得部110により取得された情報をもとにユーザの視点位置を算出する。ユーザ20が、携帯可能な表示装置、HMD、リモートコントローラなどを所持している場合は、その位置を算出して視点位置としてもよいし、主画面となる表示装置から所定の距離の位置を視点位置としてもよいし、複数の表示装置30の中心または重心位置としてもよいし、固定の視点位置を予め登録しておいてもよい。すなわち、ここで算出する視点位置は、必ずしも現実のユーザ20の視点位置と一致していなくてもよいが、できる限り近いことが望ましい。視線方向については、カメラなどによりユーザを撮影して、画像処理によりユーザの顔の向きを検出して決定してもよいし、主画面を予め決めておき、視点位置から主画面を臨む方向を視線方向としてもよいし、予め固定的に決めておいてもよい。複数のユーザが視聴している場合は、ユーザの中から基準となるユーザを選択して、そのユーザの顔や目の位置または方向を検出してもよい。多眼視差映像表示機能を有し、裸眼立体視が可能な表示装置は、ユーザの位置に応じて異なる画像が見えるので、複数のユーザが視聴する場合に好適である。   The viewpoint position information calculation unit 130 calculates the user's viewpoint position based on the information acquired by the sensor position information acquisition unit 110. When the user 20 has a portable display device, HMD, remote controller, etc., the position may be calculated as a viewpoint position, or a position at a predetermined distance from the display device serving as the main screen The position may be the position, the center or the center of gravity of the plurality of display devices 30, or a fixed viewpoint position may be registered in advance. In other words, the viewpoint position calculated here does not necessarily coincide with the viewpoint position of the actual user 20, but is preferably as close as possible. The line-of-sight direction may be determined by photographing the user with a camera or the like and detecting the orientation of the user's face by image processing. Alternatively, the main screen may be determined in advance, and the direction in which the main screen is viewed from the viewpoint position may be determined. It may be the line-of-sight direction or may be fixedly determined in advance. When a plurality of users are viewing, a user serving as a reference may be selected from the users and the position or direction of the user's face or eyes may be detected. A display device having a multi-view parallax video display function and capable of autostereoscopic viewing is suitable for viewing by a plurality of users because different images can be seen depending on the position of the user.

視聴中に表示装置30やユーザ20が移動する場合を考慮して、センサ位置情報取得部110および視点位置情報算出部130は、表示システム10の起動時または初期化時だけでなく、たとえば所定の時間間隔で表示装置30やユーザ20の位置を検知し、現在位置を的確に把握するのが好ましい。   In consideration of the case where the display device 30 or the user 20 moves during viewing, the sensor position information acquisition unit 110 and the viewpoint position information calculation unit 130 are not limited to when the display system 10 is activated or initialized, It is preferable to detect the positions of the display device 30 and the user 20 at time intervals and accurately grasp the current position.

透視変換マトリクス算出部140は、各表示画面34の位置情報をもとに、視点位置からその表示画面34を通して高視野角映像を見たときの映像を得るための透視変換マトリクスを算出する。座標変換マトリクス算出部150は、視点位置の移動情報や、高視野角映像の拡大縮小を行うスケーリング情報などを、透視変換マトリクスに作用させ、三次元空間データから画面座標データへの変換を行うための座標変換マトリクスを算出する。ユーザ20が、リモートコントローラなどのユーザインタフェイスを介して、視点位置を移動させたり、映像を拡大縮小させたりすることが可能な構成としてもよい。その場合、ユーザから指示が入力されると、座標変換マトリクス算出部150が指示にしたがって座標変換マトリクスを更新する。映像生成部160は、高視野角映像を表現する三次元空間映像データに対して座標変換マトリクスを適応し、各表示装置30に表示すべき映像を生成する。生成された映像は各表示装置30に送られ、表示画面34に表示される。透視変換マトリクスおよび座標変換マトリクスを算出し、映像データに作用させて映像を得る方法については、既知の計算原理による画像処理技術を利用可能である。   The perspective transformation matrix calculation unit 140 calculates a perspective transformation matrix for obtaining a video when viewing a high viewing angle video from the viewpoint position through the display screen 34 based on the position information of each display screen 34. The coordinate conversion matrix calculation unit 150 causes the perspective conversion matrix to convert the viewpoint position movement information, scaling information for enlarging / reducing the high viewing angle image, and the like to perform conversion from the three-dimensional space data to the screen coordinate data. The coordinate transformation matrix is calculated. The user 20 may be configured to be able to move the viewpoint position and enlarge / reduce the video via a user interface such as a remote controller. In this case, when an instruction is input from the user, the coordinate conversion matrix calculation unit 150 updates the coordinate conversion matrix according to the instruction. The video generation unit 160 applies a coordinate transformation matrix to the three-dimensional spatial video data representing a high viewing angle video, and generates a video to be displayed on each display device 30. The generated video is sent to each display device 30 and displayed on the display screen 34. For a method of obtaining a video by calculating a perspective transformation matrix and a coordinate transformation matrix and applying them to video data, an image processing technique based on a known calculation principle can be used.

音声生成部170は、各表示装置30の位置および視点位置をもとに、用意された音声データに三次元音場を生成するための音響処理を適応して、その表示装置に内蔵されたスピーカ36に供給すべき音声を生成する。音響処理についても同様に既知の技術を利用可能である。スピーカ36を表示装置30とは別に設ける場合は、スピーカ36にも位置センサ32を設けるなどして、別途スピーカ36の位置情報を取得してもよい。位置センサ付きのスピーカ46を多数ユーザの周囲に配置し、それぞれに対して位置を考慮した最適な音声信号を配信することにより、大幅に臨場感を向上させることができる。一般的な、2つのスピーカからなるステレオスピーカでは、最適なユーザ視聴位置が限定されるが、複数のスピーカを用いることにより、最適なユーザ視聴位置を広げることができる。さらに、ユーザの位置を取得して音声信号に反映させることにより、常に最適な音声信号を生成することができる。   The sound generation unit 170 adapts acoustic processing for generating a three-dimensional sound field to the prepared sound data based on the position and viewpoint position of each display device 30, and a speaker built in the display device. The sound to be supplied to 36 is generated. Similarly, a known technique can be used for the acoustic processing. When the speaker 36 is provided separately from the display device 30, the position information of the speaker 36 may be acquired separately by providing the speaker 36 with the position sensor 32. By arranging the speakers 46 with position sensors around a large number of users and delivering optimal audio signals in consideration of the position to each of them, the sense of reality can be greatly improved. In a general stereo speaker including two speakers, an optimal user viewing position is limited, but by using a plurality of speakers, the optimal user viewing position can be expanded. Furthermore, an optimal audio signal can always be generated by acquiring the user's position and reflecting it in the audio signal.

映像生成部160および音声生成部170における演算処理のもととなる映像データおよび音声データは、ネットワーク配信や放送波などから取得されてもよいし、CD、DVD、ビデオテープなどの記録媒体から読み出されてもよい。映像生成部160により生成された映像、および音声生成部170により生成された音声は、ネットワーク40を介して各表示装置30に伝達されてもよいし、専用のケーブルを用いて、表示装置30の映像入力端子および音声入力端子を介して伝達されてもよい。   The video data and audio data that are the basis of the arithmetic processing in the video generation unit 160 and the audio generation unit 170 may be acquired from network distribution or broadcast waves, or read from a recording medium such as a CD, DVD, or video tape. May be issued. The video generated by the video generation unit 160 and the audio generated by the audio generation unit 170 may be transmitted to each display device 30 via the network 40, or may be transmitted to the display device 30 using a dedicated cable. It may be transmitted via a video input terminal and an audio input terminal.

特性情報決定部190は、表示システム10に参加している複数の表示装置30の表示又は音声出力の特性を統一すべく、特性情報取得部の一例である装置情報取得部112が取得した各表示装置30の特性情報に基づいて、複数の表示装置30の表示又は音声出力の特性を決定し、各表示装置30に通知する。各表示装置30は、特性情報決定部190から通知された特性に設定を変更する。たとえば、ユーザがある表示装置30に対して個別に輝度、コントラスト、カラーバランスなど画質に影響を与える特性の調整を行ったとき、その調整値を他の表示装置30にも反映させて、表示システム10に参加している複数の表示装置30の間で画質をそろえる処理を行ってもよい。これにより、ユーザに均一な視聴環境を提供することができる。   The characteristic information determination unit 190 obtains each display acquired by the device information acquisition unit 112, which is an example of the characteristic information acquisition unit, in order to unify the display or audio output characteristics of the plurality of display devices 30 participating in the display system 10. Based on the characteristic information of the devices 30, the display or audio output characteristics of the plurality of display devices 30 are determined and notified to each display device 30. Each display device 30 changes the setting to the characteristic notified from the characteristic information determination unit 190. For example, when a user individually adjusts characteristics that affect image quality such as brightness, contrast, and color balance for a certain display device 30, the adjustment value is reflected on the other display devices 30 to display the display system. 10 may be performed among a plurality of display devices 30 participating in the image processing. Thereby, a uniform viewing environment can be provided to the user.

参加・退出処理部180は、表示装置30の表示システム10への参加、退出に関する処理を行う。参加・退出処理部180は、表示システム10の初期化時、または起動時に、ネットワーク40に接続されている表示装置30を検知し、それらの表示装置30の位置情報を取得するようセンサ位置情報取得部110に指示し、それらの表示装置30の特性情報を取得するよう装置情報取得部112に指示する。表示装置30の位置情報および特性情報を取得すると、参加・退出処理部180は、表示装置30を表示システム10に参加させるか否かを判断する。たとえば、表示装置30が位置センサ32を搭載していない場合は、表示システム10に参加させないと判断してもよい。ただし、撮像装置により表示装置30を撮影することにより表示装置30の位置を検知する場合は、位置センサ32を搭載していない表示装置30を表示システム10に参加させてもよい。前述したプロジェクタの投影面を検出する手法と同様の手法により、表示装置30の表示画面の位置を検知することも可能である。   The participation / exit processing unit 180 performs processing related to participation / exit of the display device 30 in the display system 10. The participation / exit processing unit 180 detects the display devices 30 connected to the network 40 when the display system 10 is initialized or activated, and acquires sensor position information so as to acquire the position information of those display devices 30. The unit 110 is instructed to instruct the device information acquisition unit 112 to acquire the characteristic information of the display devices 30. When the position information and the characteristic information of the display device 30 are acquired, the participation / exit processing unit 180 determines whether or not the display device 30 is allowed to participate in the display system 10. For example, when the display device 30 does not include the position sensor 32, it may be determined not to participate in the display system 10. However, when the position of the display device 30 is detected by photographing the display device 30 with the imaging device, the display device 30 that is not equipped with the position sensor 32 may participate in the display system 10. It is also possible to detect the position of the display screen of the display device 30 by a method similar to the method of detecting the projection plane of the projector described above.

参加・退出処理部180は、表示装置30の表示画面の向きを取得し、表示画面の向きがユーザの視線方向から大きく外れている場合は、表示システム10に参加させないと判断してもよい。たとえば、図5に示した例では、ネットワーク40に接続された表示装置30のうち、表示装置30cは、画面34cの向きがユーザ20の視線方向から大きく外れており、高視野角映像の一部を表示装置30cに表示したとしても、ユーザ20は表示装置30cの画面34cをほとんど見ることができない。この場合、参加・退出処理部180は、表示装置30cを表示システム10に参加させないと判断してもよい。   The participation / exit processing unit 180 may acquire the orientation of the display screen of the display device 30 and may determine not to participate in the display system 10 when the orientation of the display screen is greatly deviated from the user's line-of-sight direction. For example, in the example illustrated in FIG. 5, among the display devices 30 connected to the network 40, the display device 30 c has a screen 34 c whose direction is greatly deviated from the line-of-sight direction of the user 20, and a part of the high viewing angle image Is displayed on the display device 30c, the user 20 can hardly see the screen 34c of the display device 30c. In this case, the participation / exit processing unit 180 may determine that the display device 30 c is not allowed to participate in the display system 10.

また、参加・退出処理部180は、ネットワーク40に接続されている全ての表示装置30の位置および画面の向きと、ユーザの位置とを把握し、表示装置30をグループ化してもよい。たとえば、図6に示した例では、ユーザ20aの周囲には、表示装置30a、30b、30c、30d、および30eが配置されており、ユーザ20bの周囲には、表示装置30f、30g、30h、30i、および30jが配置されている。この場合、参加・退出処理部180は、表示装置30a、30b、30c、30d、および30eをグループ化し、表示装置30f、30g、30h、30i、および30jをグループ化して、それぞれのグループごとに高視野角映像を提供する。このとき、視点位置情報算出部130は、表示装置30a、30b、30c、30d、および30eのグループのための視点位置を、ユーザ20aを基準にして設定し、表示装置30f、30g、30h、30i、および30jのグループのための視点位置を、ユーザ20bを基準にして設定する。この例は、ユーザ20aとユーザ20bとがネットワーク40を介して対戦ゲームを行うような場合に好適である。   Further, the participation / exit processing unit 180 may grasp the positions of all the display devices 30 connected to the network 40, the orientations of the screens, and the positions of the users, and group the display devices 30. For example, in the example shown in FIG. 6, display devices 30a, 30b, 30c, 30d, and 30e are arranged around the user 20a, and the display devices 30f, 30g, 30h, and the like are arranged around the user 20b. 30i and 30j are arranged. In this case, the participation / exit processing unit 180 groups the display devices 30a, 30b, 30c, 30d, and 30e, and groups the display devices 30f, 30g, 30h, 30i, and 30j. Provide viewing angle images. At this time, the viewpoint position information calculation unit 130 sets the viewpoint position for the group of the display devices 30a, 30b, 30c, 30d, and 30e with reference to the user 20a, and the display devices 30f, 30g, 30h, and 30i. , And 30j are set with reference to the user 20b. This example is suitable when the user 20a and the user 20b play a battle game via the network 40.

参加・退出処理部180は、表示システム10の起動中、所定の時間間隔でネットワーク40に接続確認用の信号を送出し、その応答信号を表示装置30から取得することにより、ネットワーク40に接続中の表示装置30を検知してもよい。ネットワーク40に表示装置30が新たに接続された場合は、参加・退出処理部180は、表示システム10の起動時と同様の処理により、その表示装置30を表示システム10に参加させるか否かを判断し、参加させると判断した場合は、映像生成部160および音声生成部170に、その表示装置30に送る映像情報および音声情報を生成させる。また、表示システム10に参加していた表示装置30がネットワーク40から切断された場合、参加・退出処理部180は、その表示装置30を表示システム10から退出させ、以降、その表示装置30のための映像情報および音声情報を生成させない。上述した例では、参加・退出処理部180は、ネットワーク40を介して、表示装置30の存在を確認したが、別の例では、撮像装置によりユーザの周囲を撮影して、表示装置30の追加、撤去、移動などを検知してもよい。また、ブルートゥースその他の微弱電波による近距離無線を用いてもよい。   The participation / exit processing unit 180 is connected to the network 40 by sending a connection confirmation signal to the network 40 at predetermined time intervals while the display system 10 is starting up, and acquiring the response signal from the display device 30. The display device 30 may be detected. When the display device 30 is newly connected to the network 40, the participation / exit processing unit 180 determines whether or not to cause the display device 30 to participate in the display system 10 by the same processing as when the display system 10 is activated. If it is determined to participate, the video generation unit 160 and the audio generation unit 170 are caused to generate video information and audio information to be sent to the display device 30. When the display device 30 that has participated in the display system 10 is disconnected from the network 40, the participation / exit processing unit 180 causes the display device 30 to exit the display system 10, and thereafter for the display device 30. Video information and audio information are not generated. In the example described above, the participation / exit processing unit 180 confirms the presence of the display device 30 via the network 40. However, in another example, the surroundings of the user are captured by the imaging device, and the display device 30 is added. , Removal, movement, etc. may be detected. Further, short-range radio using Bluetooth or other weak radio waves may be used.

このように、本実施の形態の表示システム10では、参加・退出処理部180により、ネットワーク40に接続した表示装置30を自動的に検知するとともに、各表示装置30の位置をセンサで検知することにより、高視野角映像のうち、その表示装置30の位置に表示すべき映像を生成する。したがって、表示装置30を新たに設置するときや、位置を変更するときに、画面の位置合わせなど煩雑な作業をユーザに強いることがなく、容易に本システムを構築することができる。ユーザは自身の生活環境に合わせて、それぞれ独立に表示画面を有する複数の表示装置を自由に配置することができるため、設置条件の自由度も高い。また、表示装置の追加も容易であるから、ユーザの予算に合わせて徐々に追加していくことも可能である。このように、本システムでは、従来の大画面ディスプレーを利用した表示システムに比べて、導入時のコストや手間が大幅に軽減されるので、家庭や、レストランなどの小規模店舗などへの普及の促進が期待できる。   As described above, in the display system 10 according to the present embodiment, the participation / exit processing unit 180 automatically detects the display device 30 connected to the network 40 and detects the position of each display device 30 with the sensor. Thus, an image to be displayed at the position of the display device 30 among the high viewing angle images is generated. Therefore, when newly installing the display device 30 or changing the position, the present system can be easily constructed without forcing the user to perform complicated operations such as screen alignment. Since the user can freely arrange a plurality of display devices each having a display screen according to his / her own living environment, the degree of freedom in installation conditions is also high. Further, since it is easy to add a display device, it can be gradually added according to the user's budget. In this way, this system greatly reduces the cost and effort at the time of introduction compared to a conventional display system using a large screen display. Therefore, it can be widely used in small stores such as homes and restaurants. Promotion can be expected.

HMDや小型ディスプレーなど、移動可能な表示装置を使用している場合は、その位置をリアルタイムに検知し、表示装置の移動に合わせて表示される映像を移動させてもよい。とくに、HMDを使用する場合、ユーザの位置や頭の向きに応じて、その位置からその向きに見えるはずの映像をリアルタイムに表示することができるので、より臨場感の高い環境を提供することができる。   When a movable display device such as an HMD or a small display is used, the position may be detected in real time, and the displayed image may be moved in accordance with the movement of the display device. In particular, when an HMD is used, an image that should be visible in that direction from the position can be displayed in real time according to the position of the user and the direction of the head, thereby providing a more realistic environment. it can.

つづいて、表示システム10にユーザ20からの指示を入力するための構成について説明する。本実施の形態では、ユーザ20の指示を入力するためのボタンや方向キーなどの構成を備えたリモートコントローラ80により、表示システム10に属する複数の表示装置30および表示制御装置100に対して、ユーザからの指示を伝達する。リモートコントローラ80は、無線により信号を伝達してもよいし、有線のネットワークにより信号を伝達してもよい。表示装置30の一つをリモートコントローラ80として機能させてもよく、たとえば、ユーザが所持して操作可能な携帯ゲーム機、PDA、携帯電話機などをリモートコントローラ80として機能させてもよい。リモートコントローラ80から送信される信号は、表示制御装置100、ユーザ20の正面に位置する主たる表示装置30(たとえば図1における表示装置30a)、または図示しないホームサーバなどが一括して受信し、一括受信した装置(以下、「受信装置」ともいう)から各表示装置30に必要な指示を伝達してもよいし、各表示装置30および表示制御装置100が自身に向けて発信された信号を受信してもよい。前者の場合、リモートコントローラ80からの信号を受信した受信装置は、ネットワーク40を介して、各表示装置30および表示制御装置100に指示を伝達してもよいし、天井などに設けられた赤外線発生器などを介して指示を伝達してもよい。なお、リモートコントローラ80は、表示装置30や表示制御装置100だけでなく、オーディオ機器、冷暖房機、照明、電動ブラインド、ドアホン等、他の家電製品に対してもユーザの指示を入力可能に構成されてもよい。   Next, a configuration for inputting an instruction from the user 20 to the display system 10 will be described. In the present embodiment, the remote controller 80 having a configuration such as a button or a direction key for inputting an instruction of the user 20 is used to control the plurality of display devices 30 and the display control device 100 belonging to the display system 10. Communicate instructions from The remote controller 80 may transmit a signal wirelessly or may transmit a signal via a wired network. One of the display devices 30 may function as the remote controller 80. For example, a portable game machine, a PDA, a mobile phone, or the like that the user can carry and operate may function as the remote controller 80. Signals transmitted from the remote controller 80 are received at once by the display control device 100, the main display device 30 (for example, the display device 30a in FIG. 1) located in front of the user 20, or a home server (not shown). Necessary instructions may be transmitted to each display device 30 from the received device (hereinafter also referred to as “reception device”), and the signals transmitted to the display devices 30 and the display control device 100 are received. May be. In the former case, the receiving device that has received the signal from the remote controller 80 may transmit an instruction to each display device 30 and the display control device 100 via the network 40 or generate infrared rays provided on the ceiling or the like. An instruction may be transmitted via a device. The remote controller 80 is configured not only to display the display device 30 and the display control device 100 but also to be able to input user instructions not only to audio devices, air conditioners, lighting, electric blinds, doorphones, and other home appliances. May be.

複数の操作対象機器の多様な機能に対する操作を実現するために、リモートコントローラ80に操作用のプログラムを実行するためのCPUなどの構成を設けてもよい。操作用プログラムは、予めROMなどのメモリに記録されていてもよいし、ユーザの操作に先立って操作対象機器などからダウンロードしてもよい。後者の場合、実際には使用しないプログラムを保持することを避けることができるので、メモリなどの構成を節減することができるとともに、多数の機器を操作する場合、または、多機能の操作を実現するために容量の大きいプログラムを実行させる場合であっても、リモートコントローラ80に搭載されている有限のメモリを効率よく利用して操作を行うことができる。また、プログラムの追加、変更、改変などへの対応が容易となる。使用頻度の高いプログラムを、機器側またはリモートコントローラ80側のメモリに保持しておき、操作時または所定の時間間隔ごとに、プログラムのバージョン番号などを利用して、機器のメーカのウェブサイトなどにプログラムのバージョンアップの有無を照会し、バージョンアップがあったときに、メーカのウェブサイトから最新のプログラムをダウンロードするようにしてもよい。受信装置は、たとえば前述の参加・退出処理部180により、本システムに参加して操作対象となりうる機器を把握可能であるから、それらの機器の操作用プログラムを予めリモートコントローラ80に転送してもよい。   In order to realize operations for various functions of a plurality of operation target devices, the remote controller 80 may be provided with a configuration such as a CPU for executing an operation program. The operation program may be recorded in advance in a memory such as a ROM, or may be downloaded from an operation target device or the like prior to a user operation. In the latter case, it is possible to avoid storing a program that is not actually used, so that the configuration of the memory and the like can be saved, and when operating a large number of devices or realizing a multifunctional operation. Therefore, even when a large-capacity program is executed, the operation can be performed by efficiently using a finite memory mounted on the remote controller 80. In addition, it becomes easy to deal with additions, changes, and modifications of programs. A frequently used program is stored in the memory on the device side or the remote controller 80 side, and the version number of the program is used at the time of operation or at a predetermined time interval to be used on the website of the device manufacturer. It is possible to inquire whether the program has been upgraded, and when the version is upgraded, the latest program may be downloaded from the manufacturer's website. For example, the above-described participation / exit processing unit 180 can recognize the devices that can participate in this system and can be operated, so that the receiving device can transfer the operation programs for these devices to the remote controller 80 in advance. Good.

リモートコントローラ80には、ユーザにグラフィカル・ユーザ・インタフェイス(GUI)を提供するための表示装置を設けてもよい。この表示装置に、タッチパネルなどの入力デバイスをさらに設けてもよい。または、ユーザの位置を検知するために表示システム10がユーザを撮影する撮像装置を備える場合は、その撮像装置によりユーザの動作を検知してユーザからの指示を判別するゼスチュラルインタフェイスを採用してもよい。   The remote controller 80 may be provided with a display device for providing a user with a graphical user interface (GUI). This display device may further be provided with an input device such as a touch panel. Alternatively, when the display system 10 includes an imaging device that captures the user in order to detect the position of the user, a graphical interface that detects the user's operation by the imaging device and discriminates an instruction from the user is employed. May be.

別の例では、リモートコントローラ80側にはCPUやメモリなどの構成を設けず、十字キー、選択ボタン、取消ボタン、確定ボタンなど、ユーザの指示を入力するための構成を設けておき、操作プログラムは機器側または表示制御装置100やホームサーバなどの受信装置側で実行するようにしてもよい。これにより、リモートコントローラ80を小型で簡素な構成にすることができる。この場合、表示装置30などに操作のためのGUIを表示し、ユーザがリモートコントローラ80のボタンなどによりGUIを操作するように構成してもよい。GUIは、ユーザのレベルに応じて実現可能な機能を変更してもよいし、言語、年齢、性別、嗜好などに応じて画面をカスタマイズできるようにしてもよい。   In another example, the remote controller 80 side is not provided with a configuration such as a CPU or a memory, but is provided with a configuration for inputting user instructions such as a cross key, a selection button, a cancel button, and a confirmation button. May be executed on the device side or on the receiving device side such as the display control device 100 or home server. Thereby, the remote controller 80 can be made small and simple. In this case, a GUI for operation may be displayed on the display device 30 or the like, and the user may operate the GUI with a button on the remote controller 80 or the like. The GUI may change functions that can be realized according to the level of the user, and may be able to customize the screen according to language, age, sex, preference, and the like.

GUIを表示する装置は、操作対象機器であってもよいし、操作対象機器が表示装置を有していない場合は、表示システム10の表示装置30のいずれかにGUIを表示してもよい。後者の場合、操作プログラムは操作対象機器が実行し、表示データのみを表示装置30に送ってGUIを表示させてもよいし、表示のためのプログラムを表示装置30側で実行してもよい。表示システム10の表示装置30にGUIを表示する場合、ユーザの正面に存在する表示装置30にGUIを表示してもよいし、ユーザが見ている方向に存在する表示装置30に表示してもよいし、リモートコントローラ80が向いている方向に存在する表示装置30に表示してもよい。また、電源が起動している表示装置30を優先的に選択してGUIを表示してもよい。逆に、コンテンツの視聴を妨げないように、電源がオフになっている表示装置30を選択して、その表示装置30の電源をオンにしてGUIを表示してもよい。この場合、操作終了時、または所定時間以上操作が行われなかった時に、GUIを表示した表示装置30の電源をオフに戻してもよい。電源がオンになっている表示装置30であっても、たとえば環境映像などのユーザが注視する必要のない映像が表示されている場合は、その表示装置30にGUIを表示してもよい。また、映像を表示中の表示装置30にGUIを表示する場合は、視聴の妨げを最小限に抑えるために、アルファブレンディングなどの技術を用いて、GUIを半透明にして表示してもよい。部屋の天井などに首振り機構を備えたインテリジェントプロジェクタを設けておき、インテリジェントプロジェクタからユーザの手元などにGUIを投影表示してもよい。なお、上述の技術は、GUIだけでなく、字幕やテロップなどを表示する場合にも適用可能である。   The device that displays the GUI may be an operation target device, or when the operation target device does not have a display device, the GUI may be displayed on any of the display devices 30 of the display system 10. In the latter case, the operation program is executed by the operation target device, and only the display data may be sent to the display device 30 to display the GUI, or the display program may be executed on the display device 30 side. When displaying the GUI on the display device 30 of the display system 10, the GUI may be displayed on the display device 30 existing in front of the user, or may be displayed on the display device 30 existing in the direction in which the user is looking. Alternatively, it may be displayed on the display device 30 that exists in the direction in which the remote controller 80 faces. Further, the GUI may be displayed by preferentially selecting the display device 30 that is activated. Conversely, the display device 30 that is turned off may be selected so that content viewing is not hindered, and the display device 30 may be turned on to display the GUI. In this case, when the operation ends or when the operation is not performed for a predetermined time or more, the display device 30 displaying the GUI may be turned off. Even if the display device 30 is turned on, for example, when an image such as an environmental image that the user does not need to watch is displayed, the GUI may be displayed on the display device 30. Further, when displaying a GUI on the display device 30 that is displaying an image, the GUI may be displayed in a semi-transparent manner using a technique such as alpha blending in order to minimize the hindrance to viewing. An intelligent projector having a swing mechanism may be provided on the ceiling of the room, and the GUI may be projected and displayed from the intelligent projector to the user's hand. Note that the above-described technique can be applied not only to GUI but also to displaying subtitles and telops.

操作対象機器を切り替える場合、リモートコントローラ80が向いている方向に存在する機器を判別して操作対象機器としてもよいし、ユーザが操作対象機器を指定できるようにしてもよい。表示システム10が、表示装置30の位置や画面の向きを取得するための撮像装置を備えている場合は、その撮像装置によりリモートコントローラ80を撮影し、リモートコントローラ80の向きを検知して、操作対象機器を特定してもよい。または、リモートコントローラ80に方向角センサを設け、リモートコントローラ80が向いている方向を検知して、操作対象機器を特定してもよい。これらの場合、操作対象機器の特定は、表示制御装置100などの受信装置が行ってもよい。また、リモコンコントローラ80に撮像装置を搭載して、機器に設置したLEDの点滅からのID認識その他の方法によりリモートコントローラ80の向いている方向にある機器を識別してもよい。受信装置は、リモートコントローラ80からの信号を受信すると、撮像装置からの画像などによりリモートコントローラ80の向きを検知し、各機器に設けられた位置センサからの位置情報や、各機器の大きさや形状などの情報に基づいて、リモートコントローラ80が指し示す半直線と交わる位置にある機器を特定する。このときの計算を容易にするために、機器の形状などを分類しておいてもよい。たとえば、パネル型、ボックス型、ポインタ型などに機器を分類し、いずれのタイプであるかを示す機器タイプIDを割り当てておき、その機器タイプIDに基づいて当たり判定を行ってもよい。   When switching the operation target device, a device existing in the direction in which the remote controller 80 is directed may be determined as the operation target device, or the user may be able to specify the operation target device. When the display system 10 includes an imaging device for acquiring the position of the display device 30 and the screen orientation, the remote controller 80 is photographed by the imaging device, the orientation of the remote controller 80 is detected, and the operation is performed. The target device may be specified. Alternatively, a direction angle sensor may be provided in the remote controller 80, and the operation target device may be specified by detecting the direction in which the remote controller 80 is facing. In these cases, the operation target device may be specified by a receiving device such as the display control device 100. Alternatively, an imaging device may be mounted on the remote controller 80, and the device in the direction that the remote controller 80 is facing may be identified by ID recognition or other methods from the blinking of the LED installed on the device. When the receiving device receives a signal from the remote controller 80, the receiving device detects the orientation of the remote controller 80 based on an image from the imaging device and the like, position information from a position sensor provided in each device, and the size and shape of each device. Based on such information, the device at the position that intersects with the half line indicated by the remote controller 80 is specified. In order to facilitate the calculation at this time, the shape of the device may be classified. For example, devices may be classified into a panel type, a box type, a pointer type, etc., a device type ID indicating which type is assigned, and a hit determination may be performed based on the device type ID.

上述したような方法により操作対象機器が特定されると、LEDの明滅や点灯、音声、画像の表示などにより、現在操作対象となっている機器をユーザに知らせてもよい。たとえば、操作対象となっている表示装置30に、現在操作対象となっていることを示すアイコンやイラストを表示してもよいし、GUI上に操作対象機器を示す画像を表示してもよい。アニメーションなどの動画を表示することにより、ユーザの注意を喚起してもよい。また、操作により機器の動作状態が変わった場合に、表示中の画像を変化させて、ユーザの誤操作を防ぐようにしてもよい。   When the operation target device is specified by the method as described above, the user may be notified of the device currently being operated by blinking or lighting the LED, displaying sound, displaying an image, or the like. For example, an icon or an illustration indicating that it is currently the operation target may be displayed on the display device 30 that is the operation target, or an image indicating the operation target device may be displayed on the GUI. You may call a user's attention by displaying animation, such as animation. Further, when the operation state of the device is changed by the operation, the displayed image may be changed to prevent an erroneous operation by the user.

以上説明した構成による表示システム10の操作系の動作について説明する。まず、表示システム10が起動されると、表示装置30や表示制御装置100などの各機器は、メーカサイトなどにアクセスして、操作プログラムのバージョンをチェックし、必要であれば最新の操作プログラムをダウンロードしておく。メーカサイトとの間のネットワークが十分に高速である場合は、リモートコントローラ80による操作対象機器となったときに、操作プログラムをダウンロードしてもよい。これにより、メモリなどの資源を節約することができる。   The operation of the operation system of the display system 10 having the above-described configuration will be described. First, when the display system 10 is activated, each device such as the display device 30 and the display control device 100 accesses the manufacturer site and the like, checks the version of the operation program, and if necessary, acquires the latest operation program. Download it. When the network with the manufacturer site is sufficiently fast, the operation program may be downloaded when the remote controller 80 becomes an operation target device. Thereby, resources such as memory can be saved.

つづいて、リモートコントローラ80からの指示を受信する受信装置は、同一のネットワーク40上に存在する機器の位置を把握する。ネットワーク40に接続されていたとしても、ユーザのいる部屋に機器があるとは限らないので、ユーザのいる部屋にある機器の位置を予め把握しておく。これにより、操作対象機器を特定する際の計算を容易にすることができる。赤外線LEDの明滅や、適切な電波強度による通信などにより、近傍に存在する機器を把握してもよい。   Subsequently, the receiving device that receives the instruction from the remote controller 80 grasps the position of the device existing on the same network 40. Even if it is connected to the network 40, it is not always true that there is a device in the room where the user is present, so the position of the device in the room where the user is present is known in advance. Thereby, the calculation at the time of specifying operation object apparatus can be made easy. You may grasp | ascertain the apparatus which exists in the vicinity by blinking of infrared LED, communication by appropriate radio field intensity, etc.

ユーザがリモートコントローラ80を操作したい機器の方向に向け、操作対象機器を選択するための機器選択ボタンを押下すると、受信装置は、リモートコントローラ80の向きを検知して、操作対象機器を特定する。操作対象機器が特定されると、LEDの明滅や点灯、確認音やメッセージの出力、画像表示などにより、操作対象機器をユーザに提示する。また、GUIに操作対象機器を示す画像などを表示する。この画像は、JPEG、MotionJPEG、三次元ポリゴンデータ、三次元ポリゴンデータ用MIMeデータなど、任意の形式の画像データであってよい。ユーザがリモートコントローラ80の方向を変えたときに、その方向に存在する機器を操作対象候補とし、ユーザが確定ボタンなどを押下することにより、操作対象機器として確定してもよい。この場合、操作対象機器を提示する音声、画像などは、候補として選択されている段階と、確定された段階の、2種類を用意してもよい。また、複数の機器で類似した提示を行うと、かえってユーザの混乱を招くため、数種類を用意しておきユーザが選択可能としてもよいし、機器側で色などを変更可能としてもよい。ユーザが誤って操作対象機器を選択したときに、直前に選択されていた機器に操作対象を戻すための取消ボタンなどを用意してもよい。   When the user presses a device selection button for selecting an operation target device in the direction of the device on which the remote controller 80 is to be operated, the receiving device detects the direction of the remote controller 80 and identifies the operation target device. When the operation target device is specified, the operation target device is presented to the user by blinking or lighting the LED, outputting a confirmation sound or message, displaying an image, or the like. In addition, an image indicating the operation target device is displayed on the GUI. This image may be image data in an arbitrary format such as JPEG, Motion JPEG, 3D polygon data, and 3D polygon data MIMe data. When the user changes the direction of the remote controller 80, a device existing in that direction may be set as an operation target candidate, and the user may confirm the operation target device by pressing a confirm button or the like. In this case, two types of voices, images, etc. for presenting the operation target device may be prepared: a stage selected as a candidate and a confirmed stage. In addition, if similar presentations are made on a plurality of devices, the user may be confused. Therefore, several types may be prepared so that the user can select them, or the color or the like can be changed on the device side. When the user selects the operation target device by mistake, a cancel button for returning the operation target to the device selected immediately before may be prepared.

リモートコントローラ80側で操作プログラムを実行する場合は、操作対象機器が特定されると、操作対象機器からリモートコントローラ80に操作プログラムをダウンロードする。このために、APIを標準化してもよい。リモートコントローラ80がGUIを表示するための表示装置を有している場合は、リモートコントローラ80側のGUI上で操作に関する処理を行い、最終的な指示のみを機器側に送信してもよい。また、機器側で操作プログラムを実行し、表示データや表示プログラムをリモートコントローラ80に送信して表示させてもよい。機器とリモートコントローラ80の構成に応じて、いずれで処理を行うかを選択し、適切に負荷を分散してもよい。リモートコントローラ80が表示装置を有していない場合は、前述したように、表示装置30にGUIを表示してもよい。この場合も、たとえば、いずれの機器が操作対象となっているかなどの情報を提示するために、リモートコントローラ80に簡易な表示装置を備えてもよい。   When the operation program is executed on the remote controller 80 side, when the operation target device is specified, the operation program is downloaded from the operation target device to the remote controller 80. For this purpose, the API may be standardized. When the remote controller 80 has a display device for displaying a GUI, processing related to the operation may be performed on the GUI on the remote controller 80 side, and only a final instruction may be transmitted to the device side. Alternatively, an operation program may be executed on the device side, and display data or a display program may be transmitted to the remote controller 80 for display. Depending on the configuration of the device and the remote controller 80, it may be selected which processing is performed, and the load may be appropriately distributed. When the remote controller 80 does not have a display device, the GUI may be displayed on the display device 30 as described above. Also in this case, for example, a simple display device may be provided in the remote controller 80 in order to present information such as which device is the operation target.

ユーザが操作を終了するための終了ボタンを押下したとき、所定時間以上操作が行われなかったとき、またはユーザがリモートコントローラ80から手を離したことを検知可能なセンサによりユーザの操作の終了を判定したときに、以下の終了処理を行う。表示装置を有するリモートコントローラ80の場合は、表示用のバックライトを消灯するなど、省電力モードに移行させる。表示装置30にGUIを表示した場合は、GUIを消去して、もとの映像の表示状態に戻す。この場合、操作終了時に早急にもとの映像の表示状態に戻すために、リモートコントローラ80に終了ボタンを設けておくのが好ましい。また、電源がオフであった表示装置30にGUIを表示した場合は、表示装置30の電源をオフに戻す。なお、終了処理を行ったあと、再びリモートコントローラ80による操作が行われたとき、操作対象機器を切り替えず、直前に操作された機器を操作対象機器としてもよい。また、タイマー機能などを利用して、所定の時間に自動的にある機器を操作対象とするように設定可能としてもよい。機器が所定の時間に自動的に起動するようにタイマー設定されている場合、リモートコントローラ80による操作対象機器も、自動的にその機器に切り替わるようにしてもよい。   When the user presses the end button for ending the operation, when the operation is not performed for a predetermined time or when the user releases the remote controller 80, the user's operation is terminated. When determined, the following termination process is performed. In the case of the remote controller 80 having a display device, the display backlight is turned off and the mode is shifted to the power saving mode. When the GUI is displayed on the display device 30, the GUI is erased and the original video display state is restored. In this case, it is preferable to provide an end button on the remote controller 80 in order to quickly return to the original video display state at the end of the operation. When the GUI is displayed on the display device 30 whose power is off, the power of the display device 30 is turned off. Note that when the operation by the remote controller 80 is performed again after the termination process, the device operated immediately before may be set as the operation target device without switching the operation target device. In addition, it is possible to use a timer function or the like so that a certain device is automatically set as an operation target at a predetermined time. When the timer is set so that the device automatically starts at a predetermined time, the device to be operated by the remote controller 80 may be automatically switched to the device.

図7は、本表示システム10により表示される映像データの例を模式的に示す。図7では、高視野角映像データの一例として、三次元CG画像の例を示している。三次元空間内に視点50が設定され、その周囲に、仮想の表示画面34a、34c、34eが配置されている。ここで、それぞれの仮想の表示画面34a、34c、34eは、現実のユーザの視点位置と表示画面との間の相対位置関係を反映するように、視点50の周囲に配置されている。表示画面34cには、視点50から見て表示画面34cの方向に存在する「家」が表示される。表示画面34eには、視点50から見て表示画面34eの方向に存在する「木」が表示される。   FIG. 7 schematically shows an example of video data displayed by the display system 10. FIG. 7 shows an example of a three-dimensional CG image as an example of the high viewing angle video data. A viewpoint 50 is set in the three-dimensional space, and virtual display screens 34a, 34c, and 34e are arranged around the viewpoint 50. Here, the respective virtual display screens 34a, 34c, 34e are arranged around the viewpoint 50 so as to reflect the relative positional relationship between the actual user viewpoint position and the display screen. On the display screen 34 c, “house” existing in the direction of the display screen 34 c as viewed from the viewpoint 50 is displayed. On the display screen 34e, “tree” existing in the direction of the display screen 34e as viewed from the viewpoint 50 is displayed.

図8は、視点50の位置が移動する様子を示す。ユーザが移動したり、リモートコントローラ80などにより視点を移動する指示を入力したとき、視点位置情報算出部130が新たな視点位置を設定し、透視変換マトリクス算出部140および座標変換マトリクス算出部150がそれぞれマトリクスを更新する。そして、映像生成部160が更新されたマトリクスに基づいてそれぞれの表示画面に表示すべき映像を生成する。すなわち、個々の表示装置30ごとに映像を変更するのではなく、ユーザによる視点移動指示により、全ての表示装置30の映像が連動して変更される。   FIG. 8 shows how the position of the viewpoint 50 moves. When the user moves or inputs an instruction to move the viewpoint using the remote controller 80 or the like, the viewpoint position information calculation unit 130 sets a new viewpoint position, and the perspective transformation matrix calculation unit 140 and the coordinate transformation matrix calculation unit 150 Update the matrix respectively. Then, the video generation unit 160 generates a video to be displayed on each display screen based on the updated matrix. That is, instead of changing the image for each individual display device 30, the images of all the display devices 30 are changed in conjunction with the viewpoint movement instruction from the user.

図9は、視点50と表示画面34a、34c、34eが同時に移動する様子を示す。表示画面を、部屋の外部に展開される三次元空間を覗く窓とみなしたとき、図8に示した例は、部屋の内部をユーザが移動する場合に相当し、図9に示した例は、部屋全体が三次元空間中を移動する場合に相当する。ユーザの移動やリモートコントローラ80による入力が発生したときに、上記いずれの方法で映像を更新するかを予め設定するための構成を設けてもよい。また、たとえば、コントローラ80の操作により図9に示した視点及び表示画面位置の移動を実行しつつ、センサにより検出したユーザの視点位置の移動を反映して図8に示した視点位置の移動を実行するなど、両者を同時に行ってもよい。もちろん上記の動作は、コントローラなどによるユーザの自発的な操作により実行されるだけでなく、演出目的でゲームや映像コンテンツ制作者によって決められた再生型のものでもよい。   FIG. 9 shows how the viewpoint 50 and the display screens 34a, 34c, and 34e move simultaneously. When the display screen is regarded as a window looking into the three-dimensional space developed outside the room, the example shown in FIG. 8 corresponds to the case where the user moves inside the room, and the example shown in FIG. This corresponds to the case where the entire room moves in a three-dimensional space. There may be provided a configuration for setting in advance which of the above methods is used to update the video when a user moves or an input is made by the remote controller 80. Further, for example, while the movement of the viewpoint and the display screen position shown in FIG. 9 is executed by the operation of the controller 80, the movement of the viewpoint position shown in FIG. 8 is reflected reflecting the movement of the viewpoint position of the user detected by the sensor. You may perform both simultaneously, such as executing. Of course, the above-described operation is not only executed by a user's voluntary operation by a controller or the like, but may be a reproduction type determined by a game or video content creator for the purpose of production.

図10は、表示装置30cが移動したときの様子を示す。表示装置30cが移動すると、センサ位置情報取得部110が新たな位置情報を取得し、画面位置情報算出部120が表示画面34cの位置と向きを算出する。そして、移動した表示装置30cについて、透視変換マトリクスおよび座標変換マトリクスが更新され、映像が生成される。   FIG. 10 shows a state when the display device 30c is moved. When the display device 30c moves, the sensor position information acquisition unit 110 acquires new position information, and the screen position information calculation unit 120 calculates the position and orientation of the display screen 34c. Then, regarding the moved display device 30c, the perspective transformation matrix and the coordinate transformation matrix are updated, and an image is generated.

このように、高視野角映像として、3次元CG画像を表示する場合は、視点や視線方向の変更指示があったときに、計算により各表示装置30に表示すべき映像を生成することができるが、パノラマ映像を表示システム10により表示する場合は、話はそう単純ではない。ある一点を中心として放射方向に設置された複数の撮像装置を含むカメラシステムによりパノラマ映像を撮像する場合は、円筒形または半球形のパノラマ映像が得られ、360度全方位を一時に撮影可能なパノラマカメラによりパノラマ映像を撮像する場合は、球形のパノラマ映像が得られる。このとき、撮像装置が奥行き方向の情報を取得する機能を有していない場合は、パノラマ映像は二次元画像であり、ユーザ20の位置と表示装置30の位置に応じて、パノラマ映像の一部が切り取られて表示装置30に表示されることになる。音声についても同様に、撮影位置の周囲の音声に対してユーザ20の位置とスピーカ36の位置に応じた処理が施される。   As described above, when a three-dimensional CG image is displayed as a high viewing angle image, an image to be displayed on each display device 30 can be generated by calculation when an instruction to change the viewpoint or line-of-sight direction is issued. However, when the panoramic video is displayed by the display system 10, the story is not so simple. When a panoramic image is captured by a camera system including a plurality of imaging devices installed in a radial direction around a certain point, a cylindrical or hemispherical panoramic image can be obtained, and 360 degrees can be photographed in all directions at once. When capturing a panoramic image with a panoramic camera, a spherical panoramic image is obtained. At this time, when the imaging device does not have a function of acquiring information in the depth direction, the panoramic video is a two-dimensional image, and a part of the panoramic video is determined according to the position of the user 20 and the position of the display device 30. Is cut off and displayed on the display device 30. Similarly, with respect to the sound, processing corresponding to the position of the user 20 and the position of the speaker 36 is performed on the sound around the shooting position.

1カ所のみで撮影された単一のパノラマ映像では、基本的には、ユーザに与えられる自由度は回転のみである。ユーザは、リモートコントローラ80により、映像を回転させ、表示装置30に表示される部分を変更することができるが、視点を移動させることはできない。しかし、たとえば、ある方向にユーザが視点を移動するよう指示したときに、その方向の映像を拡大表示し、その方向と逆方向の映像を縮小表示し、その方向と直交する方向の映像を横に移動させることで、簡便に視点移動を実現することができる。   In a single panoramic image taken at only one place, basically, the degree of freedom given to the user is only rotation. The user can rotate the video by using the remote controller 80 and change the portion displayed on the display device 30 but cannot move the viewpoint. However, for example, when the user instructs to move the viewpoint in a certain direction, the video in that direction is enlarged and displayed, the video in the opposite direction to that direction is reduced, and the video in the direction orthogonal to that direction is displayed horizontally. The viewpoint can be easily moved by moving to.

さらに精度のよい視点移動を可能とするために、図11に示すように、複数点に設置された複数のカメラシステムによりパノラマ映像を撮影してもよい。この場合、カメラシステムの設置位置とは異なる位置に視点が移動されたときには、その周囲で撮影されたパノラマ映像をもとに、合成処理や補間処理により映像を生成してもよいし、アルファブレンディングやぼかしなどの画像処理技術を利用してもよい。また、上述した単一のパノラマ映像に対する視点移動の処理を併用してもよい。   In order to enable more accurate viewpoint movement, panoramic images may be taken by a plurality of camera systems installed at a plurality of points as shown in FIG. In this case, when the viewpoint is moved to a position different from the installation position of the camera system, the video may be generated by synthesis processing or interpolation processing based on the panoramic video shot around the camera system, or alpha blending. Or image processing techniques such as blurring may be used. Further, the viewpoint movement process for the single panoramic image described above may be used in combination.

視点移動を可能とするための他の例として、図12に示すように、移動体にカメラシステムを搭載して、移動しながら複数の位置においてパノラマ映像を撮影してもよい。この場合、移動経路に沿って自由に視点を移動することができる。移動経路に沿わずに視点を移動させたい場合は、図13に示すように、移動可能な範囲を網羅するようにジグザグにカメラシステムを移動させながらパノラマ映像を撮影してもよい。いずれの場合にしても、視点の移動に伴って撮影時刻も変化してしまうので、時間変化のない、または時間変化の少ない対象物を撮影して表示する場合に特に適している。   As another example for enabling viewpoint movement, as shown in FIG. 12, a camera system may be mounted on a moving body, and panoramic images may be taken at a plurality of positions while moving. In this case, the viewpoint can be freely moved along the movement route. When it is desired to move the viewpoint without following the movement route, as shown in FIG. 13, panoramic video may be taken while moving the camera system in a zigzag so as to cover the movable range. In any case, since the photographing time changes with the movement of the viewpoint, the present invention is particularly suitable for photographing and displaying an object having no time change or little time change.

なお、複数の表示装置30により高視野角映像を表示しているときに、ズームインまたはズームアウトを行う場合、たとえば全ての表示装置30の画面を連動して拡大すると、画面間で画像が重なったりして矛盾が生じる恐れがある。この場合、ある方向へのズームインは、その方向への視点移動として実現してもよい。すなわち、ある表示装置30に表示中の映像を拡大したいときは、その方向の映像を拡大表示し、逆方向の映像を縮小表示し、その方向と直交する方向の映像を横に移動させる。または、ユーザが指定した表示装置30の映像のみを局所的に拡大縮小してもよい。これは、望遠鏡や双眼鏡などでその方向を覗いたことに相当する。   In addition, when zooming in or zooming out while displaying a high viewing angle image by a plurality of display devices 30, for example, if the screens of all the display devices 30 are enlarged in conjunction with each other, images may overlap between the screens. There is a risk of inconsistencies. In this case, zooming in in a certain direction may be realized as moving the viewpoint in that direction. That is, when an image being displayed on a certain display device 30 is to be enlarged, the image in that direction is enlarged, the image in the opposite direction is reduced, and the image in the direction orthogonal to that direction is moved horizontally. Alternatively, only the image of the display device 30 designated by the user may be locally enlarged or reduced. This is equivalent to looking in the direction with a telescope or binoculars.

以下、本表示システム10の応用例について説明する。以下に挙げた、表示システム10をゲームに応用した例において、ゲームプログラムは表示制御装置100により実行され、表示制御装置100により生成された映像データおよび音声データが各表示装置30に送られる。表示制御装置100は、リモートコントローラ80の位置、動き、ボタン操作などを取得して、それに応じたイベントを実行し、映像および音声に反映させる。なお、後述するように、表示装置30が表示制御装置100の機能を有し、映像データ及び音声データを生成する場合は、各表示装置30がゲームプログラムを実行して映像データ及び音声データを生成してもよい。このとき、リモートコントローラ80が表示画面を有している場合は、リモートコントローラ80自身も表示装置30の一形態としてゲームプログラムを実行し、自身の表示画面に表示する映像データを生成してもよい。   Hereinafter, application examples of the display system 10 will be described. In the following example in which the display system 10 is applied to a game, the game program is executed by the display control device 100, and video data and audio data generated by the display control device 100 are sent to each display device 30. The display control apparatus 100 acquires the position, movement, button operation, and the like of the remote controller 80, executes an event corresponding thereto, and reflects the event in video and audio. As will be described later, when the display device 30 has the function of the display control device 100 and generates video data and audio data, each display device 30 executes a game program to generate video data and audio data. May be. At this time, if the remote controller 80 has a display screen, the remote controller 80 itself may also execute a game program as one form of the display device 30 to generate video data to be displayed on its own display screen. .

1.格闘ゲーム
ユーザの周囲を取り囲むようなCGによる仮想世界を構築し、ユーザの周囲に敵を配して、ユーザがリモートコントローラ80を剣や銃などとして用い、敵を倒していくゲームを提供する。たとえば、ユーザがリモートコントローラ80のボタンを押下したときに、ゲーム内のキャラクタが銃を発射するイベントを実行してもよい。また、ユーザがリモートコントローラ80を上から下へ振り下ろしたときに、ゲーム内のキャラクタが剣を振り下ろすイベントを実行してもよい。リモートコントローラ80の位置や動きは、位置センサにより取得してもよいし、外部の撮像装置により撮影して取得してもよい。複数の表示装置30を用いて、ユーザの周囲に構築された仮想世界を表示することにより、周囲から敵が迫るような臨場感を与えることができる。また、いずれの表示装置30に表示された敵に向かってユーザが攻撃しているかは、リモートコントローラ80の向きにより検知可能であるから、ユーザは特別な操作を必要とすることなく、周囲の敵を攻撃することができる。ユーザの位置を取得することにより、ユーザの動きを反映することもできる。たとえば、ユーザが表示装置30に表示されたオブジェクトの物陰に隠れたり、敵に近づいたりすることができるようにしてもよい。ユーザの位置は、リモートコントローラ80の位置で代用してもよい。
1. Fighting game A game in which a virtual world by CG surrounding the user's surroundings is constructed, enemies are arranged around the user, and the user uses the remote controller 80 as a sword or a gun to defeat the enemies. For example, when the user presses a button on the remote controller 80, an event in which a character in the game fires a gun may be executed. Further, when the user swings down the remote controller 80 from the top to the bottom, an event in which the character in the game swings down the sword may be executed. The position and movement of the remote controller 80 may be acquired by a position sensor, or may be acquired by photographing with an external imaging device. By using a plurality of display devices 30 to display a virtual world constructed around the user, it is possible to give a sense of reality that an enemy approaches from the surroundings. In addition, since it can be detected by the direction of the remote controller 80 that the user is attacking the enemy displayed on which display device 30, the user does not need a special operation and the surrounding enemy is not required. Can attack. By acquiring the user's position, the user's movement can be reflected. For example, the user may be able to hide behind an object displayed on the display device 30 or approach an enemy. The position of the user may be substituted with the position of the remote controller 80.

2.球技ゲーム
ユーザが所持したリモートコントローラ80をテニスのラケットや野球のバットなどに見立てて、テニス、エアホッケー、野球などの球技ゲームを提供する。ユーザは、表示装置30に表示された玉を、仮想的な反射板として機能するリモートコントローラ80を移動させて打つことにより、現実の球技に似た体感を得ることができる。また、周囲に配置された表示装置30に、ゲーム世界における周囲の状況が表示されるので、より高い臨場感が得られる。表示画面を備えたリモートコントローラ80を用いる場合、ユーザの手元のリモートコントローラ80の表示画面を用いて、ラケットやバットにボールが当たる瞬間を表示してもよい。これにより、より臨場感が増す。リモートコントローラ80または携帯ゲーム機の傾きや上下方向の移動を検知することにより、スピンやスライスなどの細かい操作を反映させることもできる。また、リモートコントローラ80のボタン操作により、球種などを選択可能としてもよく、この場合、表示制御装置100は、リモートコントローラ80からボタン操作を受け付けて、その操作をゲームプログラムに反映させる。
2. Ball game game The remote controller 80 possessed by the user is regarded as a tennis racket or a baseball bat, and ball games such as tennis, air hockey, and baseball are provided. The user can obtain a bodily sensation similar to an actual ball game by moving the remote controller 80 that functions as a virtual reflector, and hitting the ball displayed on the display device 30. Moreover, since the surrounding situation in the game world is displayed on the display devices 30 arranged around, a higher sense of realism can be obtained. When using the remote controller 80 provided with a display screen, the moment when the ball hits the racket or bat may be displayed using the display screen of the remote controller 80 at hand. Thereby, a sense of reality increases more. By detecting the tilt or vertical movement of the remote controller 80 or the portable game machine, it is possible to reflect fine operations such as spin and slice. In addition, it is possible to select a ball type or the like by button operation of the remote controller 80. In this case, the display control device 100 receives the button operation from the remote controller 80 and reflects the operation in the game program.

3.1対1対戦ゲーム
広いゲームフィールドのうち一部を表示画面を備えたリモートコントローラ80の表示画面に表示し、ユーザの操作によりゲームフィールド中を移動可能とすることにより、リモートコントローラ80を広いゲームフィールドの一部を覗く窓として機能させる。ユーザの位置を検知して反映させることにより、ユーザがゲームフィールドを実際に動き回りながらゲームを行うような臨場感を与えることができる。この場合、自陣と敵陣の境界が明確なテニスなどのゲームだけでなく、格闘ゲームなどにおいて、たとえば敵の背後に回り込むなど、ゲームフィールド内を自由に移動しながらゲームを楽しむことが可能となる。
3. One-on-one battle game A part of the wide game field is displayed on the display screen of the remote controller 80 having a display screen, and the remote controller 80 can be widened by being movable in the game field by a user operation. It functions as a window to look into a part of the game field. By detecting and reflecting the position of the user, it is possible to give a sense of reality that the user plays a game while actually moving around the game field. In this case, it is possible to enjoy the game while freely moving in the game field, for example, in a fighting game or the like, not only in a game such as tennis where the boundary between the own team and the enemy team is clear, but also in the fighting game.

4.多対多対戦ゲーム
各ユーザが、位置センサを搭載したリモートコントローラ80を所持して自由に動き回り、その位置をゲームフィールド中のユーザのキャラクタ位置に反映させることにより、臨場感の高いゲームを提供する。ユーザは、自身の動きにより、会話したり連携したり攻撃したりする相手を選択したり、敵に対する位置の移動などを行うことができる。
4). Many-to-many multiplayer game Each user has a remote controller 80 equipped with a position sensor and freely moves around, and the position is reflected in the character position of the user in the game field, thereby providing a highly realistic game. . The user can select a partner to talk with, cooperate with, or attack with his / her movement, move the position of the enemy, and the like.

5.カードゲーム
位置センサを搭載したリモートコントローラ80を用いたカード交換ゲームを提供することにより、より自然な操作感を実現することができる。さらに、傾きセンサなどを利用することにより、たとえば、相手のリモートコントローラ80の方向に自身のリモートコントローラ80を傾けることで、カードを相手に渡したり、周囲の表示装置の画面にカードを置いたりするなど、自然で分かりやすい操作を実現することができる。
5. Card Game By providing a card exchange game using a remote controller 80 equipped with a position sensor, a more natural operation feeling can be realized. Further, by using an inclination sensor or the like, for example, by tilting the remote controller 80 in the direction of the remote controller 80 of the other party, the card is handed over to the other party, or the card is placed on the screen of the surrounding display device. It is possible to realize natural and easy-to-understand operations.

図14は、本実施の形態の表示システムを複数機器間のユーザインタフェイスに応用した例を示す。表示装置の一例としての携帯端末30fおよび30gは、ネットワーク40を介して表示制御装置100に接続されている。携帯端末30fのデスクトップに表示されたデータファイルを、携帯端末30gに転送する場合を例にとって説明する。   FIG. 14 shows an example in which the display system of the present embodiment is applied to a user interface between a plurality of devices. Mobile terminals 30 f and 30 g as examples of a display device are connected to the display control device 100 via a network 40. An example will be described in which a data file displayed on the desktop of the mobile terminal 30f is transferred to the mobile terminal 30g.

携帯端末30fの表示画面34fに、データファイルを表すアイコン60が表示されており、マウス又はタッチパネルなどの入力デバイスによりドラッグ操作を行うことでファイルを転送できるものとする。転送元の携帯端末30fと転送先の携帯端末30gを並置し、携帯端末30f上でアイコン60を携帯端末30gの方向にドラッグする。ポインタ62が画面端に達すると、表示制御装置100は、携帯端末30fから見てドラッグ方向に存在する表示装置、すなわち携帯端末30gにポインタ62を表示するよう指示する。ここで、ポインタ62の制御は携帯端末30gへ移り、携帯端末30gの表示画面34gにポインタ62が出現する。そして、転送先の携帯端末30gの表示画面34g上でアイコン60をドロップすると、ファイルデータが転送される。   An icon 60 representing a data file is displayed on the display screen 34f of the portable terminal 30f, and the file can be transferred by performing a drag operation with an input device such as a mouse or a touch panel. The transfer source portable terminal 30f and the transfer destination portable terminal 30g are juxtaposed, and the icon 60 is dragged in the direction of the portable terminal 30g on the portable terminal 30f. When the pointer 62 reaches the screen edge, the display control device 100 instructs the display device present in the drag direction as viewed from the mobile terminal 30f, that is, the mobile terminal 30g to display the pointer 62. Here, the control of the pointer 62 moves to the mobile terminal 30g, and the pointer 62 appears on the display screen 34g of the mobile terminal 30g. Then, when the icon 60 is dropped on the display screen 34g of the transfer destination portable terminal 30g, the file data is transferred.

従来は、ネットワークに接続された機器はネットワークアドレスなどにより識別されていたため、ファイルを転送する場合は、転送先の機器のネットワークアドレスを指定する必要があった。しかし、本実施の形態では、各機器の相対位置関係が分かっているため、現実の位置関係により各機器を識別することができ、より自然な操作が可能なユーザインタフェイスを提供することができる。   Conventionally, a device connected to a network has been identified by a network address or the like. Therefore, when transferring a file, it is necessary to specify a network address of a transfer destination device. However, in this embodiment, since the relative positional relationship of each device is known, each device can be identified by the actual positional relationship, and a user interface capable of more natural operation can be provided. .

本実施の形態では、表示制御装置を表示装置とは別体に設けたが、いずれかの表示装置に表示制御装置の機能を含ませてもよい。表示制御装置の機能を、三次元の映像処理が可能なPC、ビデオ録画装置、ゲーム機、ホームサーバなどに設けてもよい。表示制御装置の機能の一部または全部がLSIにより実現されてもよい。表示制御装置の機能を有したLSIを表示装置に搭載する場合、LSIの中に位置センサを設けてもよい。   In this embodiment, the display control device is provided separately from the display device. However, any display device may include the function of the display control device. The function of the display control device may be provided in a PC, a video recording device, a game machine, a home server, etc. capable of three-dimensional video processing. Part or all of the functions of the display control device may be realized by an LSI. When an LSI having a display control device function is mounted on a display device, a position sensor may be provided in the LSI.

(第2の実施の形態)
図15は、第2の実施の形態に係る表示システム10の全体構成を示す。本実施の形態の表示システム10は、複数の表示装置30f、30g、30h、および30iと、表示装置のそれぞれに対して設けられた複数の表示制御装置100f、100g、100h、および100iとを備える。第1の実施の形態では、一つの表示制御装置がシステム全体を統括的に制御したが、本実施の形態では、複数の表示制御装置が連動して表示の制御を行う。表示装置30の内部構成は図3に示した第1の実施の形態の表示装置と同様であり、表示制御装置100の内部構成は図4に示したものと同様である。表示制御装置100は、表示制御装置100fおよび100gのように、表示装置30と一体的に設けられてもよいし、表示制御装置100hおよび100iのように、表示装置30とは別に設けられてもよい。
(Second Embodiment)
FIG. 15 shows the overall configuration of the display system 10 according to the second embodiment. The display system 10 according to the present embodiment includes a plurality of display devices 30f, 30g, 30h, and 30i, and a plurality of display control devices 100f, 100g, 100h, and 100i provided for the respective display devices. . In the first embodiment, one display control apparatus controls the entire system in an integrated manner. However, in this embodiment, a plurality of display control apparatuses perform display control in conjunction with each other. The internal configuration of the display device 30 is the same as that of the first embodiment shown in FIG. 3, and the internal configuration of the display control device 100 is the same as that shown in FIG. The display control device 100 may be provided integrally with the display device 30 such as the display control devices 100f and 100g, or may be provided separately from the display device 30 such as the display control devices 100h and 100i. Good.

図15に示した表示システム10において、各表示制御装置100は、ネットワーク40を介して映像データおよび音声データを取得し、自身に接続された表示装置30の位置情報に合わせて、その表示装置30の表示画面34に表示すべき映像を生成し、スピーカに出力すべき音声を生成する。表示画面34の位置情報を取得して表示映像を生成する手法は第1の実施の形態と同様である。視点および視線の情報については、いずれかの表示制御装置100が取得して他の表示制御装置100にブロードキャストしてもよいし、それぞれの表示制御装置100に予め登録しておいてもよい。本実施の形態の表示システム10によれば、表示制御装置100における処理負荷が分散されるので、処理負荷の高い映像データであっても、高速に映像を生成して表示することができる。本実施の形態では、ネットワーク40を介して映像データおよび音声データを各表示制御装置100に供給したが、映像データおよび音声データを格納した記録媒体を各表示制御装置100に接続することによりデータを供給してもよい。この場合、各表示制御装置100は、同期信号をやり取りするなどして、表示のタイミングを同期させてもよい。また、表示システム10によりゲームなどを提供する場合、各表示制御装置100間で、ネットワーク40を介して、ゲームにおいて使用されるパラメータなどの情報をやり取りして共有してもよい。   In the display system 10 shown in FIG. 15, each display control device 100 acquires video data and audio data via the network 40, and displays the display device 30 in accordance with the position information of the display device 30 connected to the display control device 100. The video to be displayed on the display screen 34 is generated, and the audio to be output to the speaker is generated. The method for acquiring the position information of the display screen 34 and generating the display image is the same as in the first embodiment. The information on the viewpoint and the line of sight may be acquired by one of the display control devices 100 and broadcast to other display control devices 100, or may be registered in advance in each display control device 100. According to the display system 10 of the present embodiment, the processing load on the display control device 100 is distributed, so even video data with a high processing load can be generated and displayed at high speed. In the present embodiment, video data and audio data are supplied to each display control device 100 via the network 40. However, data is stored by connecting a recording medium storing video data and audio data to each display control device 100. You may supply. In this case, each display control device 100 may synchronize the display timing by exchanging synchronization signals. Further, when a game or the like is provided by the display system 10, information such as parameters used in the game may be exchanged and shared between the display control devices 100 via the network 40.

各表示制御装置100が、映像データを分散して保持してもよい。たとえば、仮想都市を表現した3次元仮想現実世界を表示システム10により提供する場合、各表示制御装置100が、都市の一部の映像データをそれぞれ保持し、全体として仮想都市が構築されてもよい。この場合、映像の再生を開始するときに、それぞれの表示制御装置100が自身の保持する映像データを他の表示制御装置100へ供給して、全ての表示制御装置100が全体の映像データを取得するようにしてもよいし、ユーザの移動に連動して、表示すべき映像データを保持する表示制御装置100が映像データを他の表示制御装置100に供給するようにしてもよい。これにより、処理負荷を分散できるだけでなく、映像データを保持する記憶領域を分散させることができるので、個々の表示制御装置100に搭載すべきメモリの量を低減することができる。   Each display control device 100 may hold the video data in a distributed manner. For example, when the display system 10 provides a three-dimensional virtual reality world representing a virtual city, each display control device 100 may hold a part of the video data of the city, and the virtual city may be constructed as a whole. . In this case, when the reproduction of the video is started, each display control device 100 supplies the video data held by itself to the other display control devices 100, and all the display control devices 100 acquire the entire video data. Alternatively, the display control apparatus 100 that holds the video data to be displayed may supply the video data to another display control apparatus 100 in conjunction with the movement of the user. Thereby, not only the processing load can be distributed, but also the storage area for holding the video data can be distributed, so that the amount of memory to be mounted on each display control device 100 can be reduced.

(第3の実施の形態)
図16は、第3の実施の形態に係る表示システム10の全体構成を示す。本実施の形態の表示システム10は、複数の表示制御装置と複数の表示装置を備え、表示装置30jは表示制御装置100jに、表示装置30kは表示制御装置100kに、表示装置30lおよび表示装置30mは表示制御装置100lに、それぞれ接続されている。本実施の形態の表示システム10では、第1の実施の形態に示した複数の表示装置30を統括的に制御する表示制御装置100lと、第2の実施の形態に示した1つの表示装置30を個別に制御する表示制御装置100jおよび100kが混在している。表示装置30の内部構成は図3に示した第1の実施の形態の表示装置と同様であり、表示制御装置100の内部構成は図4に示したものと同様である。
(Third embodiment)
FIG. 16 shows the overall configuration of the display system 10 according to the third embodiment. The display system 10 of the present embodiment includes a plurality of display control devices and a plurality of display devices. The display device 30j is the display control device 100j, the display device 30k is the display control device 100k, the display device 30l, and the display device 30m. Are respectively connected to the display control device 100l. In the display system 10 of the present embodiment, the display control device 100l that controls the plurality of display devices 30 shown in the first embodiment and the one display device 30 shown in the second embodiment. Display control devices 100j and 100k for individually controlling the display. The internal configuration of the display device 30 is the same as that of the first embodiment shown in FIG. 3, and the internal configuration of the display control device 100 is the same as that shown in FIG.

図16に示した表示システム10において、各表示制御装置100は、ネットワーク40を介して映像データおよび音声データを取得し、自身に接続された表示装置30の位置情報に合わせて、その表示装置30の表示画面34に表示すべき映像を生成し、スピーカに出力すべき音声を生成する。具体的には、表示制御装置100jは表示装置30jの、表示制御装置100kは表示装置30kの、表示制御装置100lは表示装置30lおよび30mの映像を生成する。表示画面34の位置情報を取得して表示映像を生成する手法は第1の実施の形態と同様である。視点および視線の情報については、いずれかの表示制御装置100が取得して他の表示制御装置100にブロードキャストしてもよいし、それぞれの表示制御装置100に予め登録しておいてもよい。本実施の形態の表示システム10によれば、表示制御装置100における処理負荷が分散されるとともに、ユーザの環境に合わせて柔軟にシステムを構成することが可能となる。   In the display system 10 illustrated in FIG. 16, each display control device 100 acquires video data and audio data via the network 40, and displays the display device 30 in accordance with position information of the display device 30 connected to the display control device 100. The video to be displayed on the display screen 34 is generated, and the audio to be output to the speaker is generated. Specifically, the display control device 100j generates an image of the display device 30j, the display control device 100k generates an image of the display device 30k, and the display control device 100l generates an image of the display devices 30l and 30m. The method for acquiring the position information of the display screen 34 and generating the display image is the same as in the first embodiment. The information on the viewpoint and the line of sight may be acquired by one of the display control devices 100 and broadcast to other display control devices 100, or may be registered in advance in each display control device 100. According to the display system 10 of the present embodiment, the processing load on the display control apparatus 100 is distributed, and the system can be configured flexibly according to the user's environment.

(第4の実施の形態)
第1から第3の実施の形態は、より自然なユーザインタフェイスを提供する。それに合わせて、第4から第6の実施の形態では、より触感に優れたユーザインタフェイス装置を提供する技術について説明する。たとえば、第1から第3の実施の形態におけるリモートコントローラ80として、以下に示す第4または第5の実施の形態に係るユーザインタフェイス装置を利用可能である。また、第1から第3の実施の形態における表示装置30として、以下に示す第6の実施の形態におけるディスプレイ装置を利用可能である。
(Fourth embodiment)
The first to third embodiments provide a more natural user interface. Accordingly, in the fourth to sixth embodiments, techniques for providing a user interface device with a better tactile feeling will be described. For example, the user interface device according to the fourth or fifth embodiment described below can be used as the remote controller 80 in the first to third embodiments. Further, as the display device 30 in the first to third embodiments, the display device in the sixth embodiment described below can be used.

第4から第6の実施の形態は、ユーザインタフェイス装置およびディスプレイ装置に関し、特に、手指などにより入力を行うことのできるユーザインタフェイス装置および汚れの付着しにくいディスプレイ装置に関する。   The fourth to sixth embodiments relate to a user interface device and a display device, and more particularly, to a user interface device that can be input with a finger or the like and a display device that is less likely to be soiled.

コンピュータの標準操作デバイスであるキーボードやマウスに加えて、近年、操作がより自然で容易な指による入力を実現するユーザインタフェイス装置が増えつつある。その代表として、現金自動預払機や携帯情報端末などに採用されている、タッチ入力式の装置がある。この装置では、液晶表示装置等の表示面上に透明なパネル状のタッチ入力装置が設けられ、ユーザは表示された画面を参照しながら項目を選択したり、所定領域を指でなぞることにより文字等を入力する。たとえば、以下の非特許文献が参考となる。
(非特許文献1)Jun Rekimoto、SmartSkin: An Infrastructure for Freehand Manipulation on Interactive Surfaces、[online]、[平成14年8月28日検索]、インターネット<URL: http://www.csl.sony.co.jp/person/rekimoto/papers/chi02.pdf>
In addition to the keyboard and mouse, which are standard operation devices for computers, in recent years, user interface devices that realize finger input that is more natural and easy to operate are increasing. As a representative example, there is a touch input type device adopted in an automatic teller machine or a portable information terminal. In this device, a transparent panel-like touch input device is provided on a display surface such as a liquid crystal display device, and a user selects an item while referring to the displayed screen, or by tracing a predetermined area with a finger. Enter etc. For example, the following non-patent documents are helpful.
(Non-Patent Document 1) Jun Rekimoto, SmartSkin: An Infrastructure for Freehand Manipulation on Interactive Surfaces, [online], [August 28, 2002 search], Internet <URL: http://www.csl.sony.co .jp / person / rekimoto / papers / chi02.pdf>

こうした装置を操作する場合、ユーザはタッチ入力装置の一部である透明板、またはその装置の保護フィルムに直接触れることにより入力を行う。しかし、こうした透明板や保護フィルムは通常ガラス製またはPET(ポリエチレンテレフタレート)などの樹脂製であるため、指と過度に密着することがあり、指紋等の汚れが付着して表示の視認性に影響を及ぼすことがあった。視認性のみならず、そうした汚れにより、ユーザによっては不特定多数の人が利用する銀行のATMなどの利用をためらうことがあった。また、透明板などの表面を指でなでるドラッグ操作を行う場合、指が表面に引っ掛かりがちで、正確な操作が阻害されることがあった。さらに、指との過度の密着による触感は必ずしも好ましいものではなかった。また、入力機能を備えず表示機能のみを有するディスプレイ装置においても、指紋等の汚れにより視認性が低下することがあった。   When operating such a device, the user inputs by directly touching a transparent plate that is a part of the touch input device or a protective film of the device. However, since these transparent plates and protective films are usually made of glass or resin such as PET (polyethylene terephthalate), they may be in close contact with fingers, and dirt such as fingerprints may adhere to display visibility. It was sometimes affected. Not only the visibility but also such dirt, some users hesitate to use ATMs of banks used by an unspecified number of people. In addition, when performing a drag operation of stroking the surface of a transparent plate or the like with a finger, the finger tends to get caught on the surface, and the accurate operation may be hindered. Furthermore, tactile sensation due to excessive adhesion with the finger is not always preferable. Further, even in a display device that does not have an input function and has only a display function, visibility may be deteriorated due to dirt such as fingerprints.

第4から第6の実施の形態の目的は、良好な視認性と操作性を備え、優れた触感を伴ったタッチ入力が可能なユーザインタフェイス装置を提供することにある。また別の目的は、不特定多数の人が利用する場合でも、心理的な抵抗感を軽減できるユーザインタフェイス装置を提供することにある。さらに別の目的は、外見上の汚れを低減するユーザインタフェイス装置およびディスプレイ装置を提供することにある。   An object of the fourth to sixth embodiments is to provide a user interface device that has good visibility and operability and enables touch input with excellent tactile sensation. Another object is to provide a user interface device that can reduce psychological resistance even when used by an unspecified number of people. Yet another object is to provide a user interface device and a display device that reduce the appearance of dirt.

本実施の形態のある態様は、ユーザインタフェイス装置に関する。この装置は、表示ユニットと、その表示ユニットの前面に設けられ、ユーザが前記表示ユニットを透視しながら表面に触れることにより入力を行う入力装置と、を備え、前記入力装置の前面に、透明な粒子を固着せしめることにより微細な凹凸形状を表面に形成した透明な層を貼設したことを特徴としている。   An aspect of the present embodiment relates to a user interface device. The device includes a display unit, and an input device that is provided on a front surface of the display unit, and that allows a user to input by touching the surface while seeing through the display unit, and is transparent on the front surface of the input device. It is characterized by sticking a transparent layer having fine irregularities formed on the surface by fixing the particles.

本実施の形態の別の態様のユーザインタフェイス装置は、前記入力装置の前面に、多数の透明な極細繊維が植毛されてなる層を貼設したことを特徴としている。   The user interface device according to another aspect of the present embodiment is characterized in that a layer formed by flocking a large number of transparent ultrafine fibers is pasted on the front surface of the input device.

本実施の形態のさらに別の態様は、ディスプレイ装置に関する。このディスプレイ装置は、表示ユニットと、その表示ユニットの前面に設けられ、透明な粒子を固着せしめることにより微細な凹凸形状を表面に形成した透明な層とを含むことを特徴としている。   Yet another aspect of the present embodiment relates to a display device. This display device is characterized by including a display unit and a transparent layer provided on the front surface of the display unit and having fine irregularities formed on the surface by fixing transparent particles.

本実施の形態の別の態様のディスプレイ装置は、表示ユニットと、その表示ユニットの前面に設けられ、多数の透明な極細繊維が植毛されてなる層とを、含むことを特徴としている。   A display device according to another aspect of the present embodiment includes a display unit and a layer provided on the front surface of the display unit and in which a large number of transparent ultrafine fibers are implanted.

これらのユーザインタフェイス装置およびディスプレイ装置の表面には、微細な凹凸形状が形成され、あるいは多数の極細繊維が植毛されているため、表面と指との密着を低減できる。   Since the surface of these user interface devices and display devices is formed with fine irregularities or a large number of ultrafine fibers are implanted, adhesion between the surface and the finger can be reduced.

本実施の形態のユーザインタフェイス装置およびディスプレイ装置によれば次の効果が得られる。第一に、指紋等の汚れが表面に付着しにくくなるため、良好な視認性を確保でき、ユーザに与える不快感を低減できる。第二に、ユーザは表面にふれることにより心地よい触感を得ることができる。さらに、ユーザインタフェイス装置においては、心地よい触感を伴ったスムーズで正確な入力を行うことができる。   According to the user interface device and the display device of the present embodiment, the following effects can be obtained. First, since dirt such as fingerprints is less likely to adhere to the surface, good visibility can be secured, and discomfort given to the user can be reduced. Second, the user can obtain a pleasant tactile sensation by touching the surface. Furthermore, in the user interface device, smooth and accurate input with a pleasant tactile sensation can be performed.

図17は、本実施の形態にかかるユーザインタフェイス装置200の断面の模式図である。透明入力装置215の一方の面に表示ユニット210が、他方の面に凹凸層216が配されている。凹凸層216は、透明バインダー218により固定された透明粒子217を含み、表面に微細な凹凸形状を有している。透明入力装置215は、内側にそれぞれ透明導電性薄膜213a、213bが設けられた2枚の透明板212a、212bが対向配置されてなっている。2枚の透明板212a、212bは、図示しない箇所で絶縁スペーサを介して固定される。2枚の透明導電性薄膜213a、213bの間には微小間隙214が確保され、非接触状態が保たれている。なお、透明導電性薄膜213a、213bは、例えばスパッタリング法により設けたITO薄膜とすることができる。   FIG. 17 is a schematic cross-sectional view of the user interface device 200 according to the present embodiment. A display unit 210 is disposed on one surface of the transparent input device 215, and an uneven layer 216 is disposed on the other surface. The uneven layer 216 includes transparent particles 217 fixed by a transparent binder 218, and has a fine uneven shape on the surface. In the transparent input device 215, two transparent plates 212a and 212b each provided with transparent conductive thin films 213a and 213b are arranged to face each other. The two transparent plates 212a and 212b are fixed via insulating spacers at locations not shown. A minute gap 214 is secured between the two transparent conductive thin films 213a and 213b, and a non-contact state is maintained. The transparent conductive thin films 213a and 213b can be ITO thin films provided by sputtering, for example.

ユーザは、表示ユニット210の映像を透視しつつ、凹凸層216の表面を指で触れることによりユーザインタフェイス装置200を操作する。ユーザーが凹凸層216を介して凹凸層216側の透明板212bの所定の箇所を押圧すると、特定箇所において2枚の透明導電性薄膜213a、213bが接触して導通し、信号が発生する。操作の際、凹凸層216の凹凸形状により、指と表面との密着が抑えられる。そのため、指紋等が付着しにくくなるなど、前述の目的を達する。   The user operates the user interface device 200 by touching the surface of the concavo-convex layer 216 with a finger while seeing through the image of the display unit 210. When the user presses a predetermined part of the transparent plate 212b on the concave / convex layer 216 side via the concave / convex layer 216, the two transparent conductive thin films 213a and 213b come into contact with each other at a specific part to generate a signal. During operation, the uneven shape of the uneven layer 216 suppresses adhesion between the finger and the surface. For this reason, the above-mentioned purpose is achieved, for example, it is difficult for fingerprints to adhere.

これらの効果を安定的に生じさせるために、透明粒子217の平均粒径は1〜500μmとすることが好ましい。また、より良好な触感を出すためには、平均粒径を5〜50μmとすることが好ましい。これにより、凹凸層216の表面にスウェード調の触感を出すことができ、操作の際に心地良い触感を伴うユニークな装置が実現する。   In order to produce these effects stably, the average particle diameter of the transparent particles 217 is preferably 1 to 500 μm. Moreover, in order to give a better tactile sensation, the average particle size is preferably 5 to 50 μm. As a result, a suede-like tactile sensation can be provided on the surface of the uneven layer 216, and a unique device with a pleasant tactile sensation during operation is realized.

透明粒子217としては樹脂製ビーズを用いることができる。ビーズの材質としては、ウレタン系樹脂、アクリル系樹脂、シリコーン系樹脂、メラミン系樹脂などが挙げられる。例えばウレタンビーズであるUB200(十条ケミカル社製)などを利用してもよい。これら樹脂製ビーズを選択することにより、凹凸層216の表面に良好な触感を生じさせることができる。   Resin beads can be used as the transparent particles 217. Examples of the material of the beads include urethane resin, acrylic resin, silicone resin, and melamine resin. For example, urethane beads such as UB200 (manufactured by Jujo Chemical Co.) may be used. By selecting these resin beads, a good tactile sensation can be generated on the surface of the uneven layer 216.

凹凸層216は次の方法により形成することができる。ポリエステルウレタン系樹脂などの透明バインダー218を溶剤、例えば、トルエン:酢酸エチル:メチルエチルケトン=2:1:1(重量比)中に溶解させ、この溶液に透明粒子217を分散させて塗布液を調製する。このとき、透明粒子217、透明バインダー218および溶剤の配合比は、例えば15:20:65(重量比)とする。透明板212bとしてPETなど樹脂製のものを用いる場合は、例えばロールコート法、ナイフコート法、ダイコート法などの公知の方法により、上記の塗布液を直接透明板212bに塗布し乾燥して凹凸層216とする。塗布液の塗布量は、15〜50g/mとすることが好ましい。これにより十分な凹凸を表面に有する凹凸層216を実現することができる。 The uneven layer 216 can be formed by the following method. A transparent binder 218 such as polyester urethane resin is dissolved in a solvent, for example, toluene: ethyl acetate: methyl ethyl ketone = 2: 1: 1 (weight ratio), and transparent particles 217 are dispersed in this solution to prepare a coating solution. . At this time, the blending ratio of the transparent particles 217, the transparent binder 218, and the solvent is, for example, 15:20:65 (weight ratio). When a resin plate such as PET is used as the transparent plate 212b, the above-mentioned coating solution is directly applied to the transparent plate 212b and dried by a known method such as a roll coating method, a knife coating method, or a die coating method. 216. The coating amount of the coating solution is preferably 15 to 50 g / m 2 . Thereby, the uneven layer 216 having sufficient unevenness on the surface can be realized.

凹凸層216側の透明板212bとしてガラス製のものを用いる場合や、透明板212bが既に透明入力装置215の一部として組み込まれている場合など、透明板212bに塗布液を直接塗布することが困難な場合は、次の方法を用いることができる。図18のごとく、耐溶剤性を有するポリプロピレン製などの樹脂シート219の一方の面に、上記方法により凹凸層216を形成した後、他方の面と凹凸層216側の透明板212bとを接着層220を介して固定する。接着層220としては、例えばポリウレタン系接着剤などの透明な接着剤を用いる。   When the transparent plate 212b on the uneven layer 216 side is made of glass, or when the transparent plate 212b is already incorporated as a part of the transparent input device 215, the coating liquid can be directly applied to the transparent plate 212b. If it is difficult, the following method can be used. As shown in FIG. 18, after forming the uneven layer 216 on one surface of a resin sheet 219 made of polypropylene having solvent resistance by the above method, the other surface and the transparent plate 212b on the uneven layer 216 side are bonded to the adhesive layer. It is fixed via 220. As the adhesive layer 220, for example, a transparent adhesive such as a polyurethane adhesive is used.

図17の表示ユニット210の種類は特に限定されず、例えばブラウン管ディスプレイ、液晶ディスプレイ、プラズマディスプレイ、有機エレクトロルミネッセンスディスプレイ、レーザーによるディスプレイ、LEDによるディスプレイなど様々な表示装置を用いることができる。透明入力装置215として、2枚の透明板212a、212bの内側に、それぞれ透明導電性薄膜213a、213bを備えたものを例示したが、これに限定されるわけではなく、他のタイプの入力装置を用いてもよい。例えば、上記論文、「SmartSkin: An Infrastructure for Freehand Manipulation on Interactive Surfaces」中に開示されているセンサーを入力装置として用いてもよい。このセンサーは、格子状に配置されたウレタン被覆銅線などからなる送受信用電極と信号処理回路から構成されている。このセンサーに手指を近づけると、帯電している静電気によって手指の位置を二次元的に検知できる。この情報を入力信号として利用することで、このセンサーを入力装置として利用できる。   The type of the display unit 210 in FIG. 17 is not particularly limited, and various display devices such as a cathode ray tube display, a liquid crystal display, a plasma display, an organic electroluminescence display, a laser display, and an LED display can be used. The transparent input device 215 is illustrated as having the transparent conductive thin films 213a and 213b inside the two transparent plates 212a and 212b, respectively, but is not limited to this, and other types of input devices. May be used. For example, a sensor disclosed in the above paper, “SmartSkin: An Infrastructure for Freehand Manipulation on Interactive Surfaces” may be used as an input device. This sensor is composed of transmission / reception electrodes and signal processing circuits made of urethane-coated copper wires or the like arranged in a grid pattern. When a finger is brought close to this sensor, the position of the finger can be detected two-dimensionally by charged static electricity. By using this information as an input signal, this sensor can be used as an input device.

また、本実施の形態においては、透明な粒子として樹脂製の粒子を用いた例について説明したが、これに限られず、例えばガラス製の粒子などを使用することもできる。なお、図17において、透明入力装置215を省き、凹凸層216を表示ユニット210上に直接設けることもできる。この場合、指紋等汚れが付着しにくいディスプレイ装置が実現する。   Moreover, in this Embodiment, although the example using the resin-made particle | grains as a transparent particle was demonstrated, it is not restricted to this, For example, glass-made particles etc. can also be used. In FIG. 17, the transparent input device 215 can be omitted, and the uneven layer 216 can be provided directly on the display unit 210. In this case, a display device in which dirt such as fingerprints hardly adheres is realized.

表示ユニット210から放射される光が、できるだけ凹凸層216を透過ようにするために、透明粒子217は、低屈折率な素材により構成されるのが好ましく、透明バインダー218は、高屈折率な素材により構成されるのが好ましい。たとえば、透明粒子217は、屈折率が1.43程度の光学用低屈折率ガラス(人工蛍石)などの素材により構成されてもよく、透明バインダー218は、屈折率が1.63程度の光硬化樹脂などの素材により構成されてもよい。表面を凹凸処理するだけの場合は、凸部と凹部の混在により、多方向への光の散乱が発生して、映像がぼけるなどの弊害が起こる可能性があるが、本実施の形態のように、同程度の粒径の透明粒子217を散在させて凹凸層216を構成する場合、同様のレンズが敷き詰められた構造となるため、適切な屈折率に設定すれば散乱は起こりにくく、触感の良さと明瞭な表示を両立することができる。   In order for light emitted from the display unit 210 to pass through the uneven layer 216 as much as possible, the transparent particles 217 are preferably made of a material having a low refractive index, and the transparent binder 218 is made of a material having a high refractive index. It is preferable that it is comprised. For example, the transparent particles 217 may be made of a material such as an optical low refractive index glass (artificial fluorite) having a refractive index of about 1.43, and the transparent binder 218 has a refractive index of about 1.63. You may comprise with raw materials, such as cured resin. If the surface is only roughened, there is a possibility that light will be scattered in multiple directions due to the mixture of convex parts and concave parts, which may cause adverse effects such as blurred images. In addition, when the concave / convex layer 216 is formed by interspersing transparent particles 217 having the same particle size, the structure is such that the same lenses are spread out. Both good and clear display can be achieved.

本実施の形態の変形例として、透明粒子217を透明バインダー218により固定するのではなく、図19に示すように、メッシュ状の保持部230により透明粒子217を回動自在に保持してもよい。これにより、ユーザがユーザインタフェイス装置200の表面に手指で触れる際のすべりが良くなり、ドラッグ操作などをスムーズに行うことができる。   As a modification of the present embodiment, instead of fixing the transparent particles 217 with the transparent binder 218, as shown in FIG. 19, the transparent particles 217 may be rotatably held by a mesh-shaped holding portion 230. . Thereby, the slip when the user touches the surface of the user interface device 200 with a finger is improved, and a drag operation or the like can be performed smoothly.

(第5の実施の形態)
本実施の形態のユーザインタフェイス装置は、上記透明な極細繊維として光ファイバーを用いることを特徴としている。
(Fifth embodiment)
The user interface device of the present embodiment is characterized in that an optical fiber is used as the transparent ultrafine fiber.

図20は、本実施の形態にかかるユーザインタフェイス装置300の断面の模式図である。透明入力装置335の一方の面に表示ユニット330が、他方の面に光ファイバー層336が配されている。光ファイバー337は接着層338に対して垂直に植え込まれ、光ファイバー層336の表面には、多数の光ファイバー337が立毛している。接着層338の上には、後述の理由により遮光層339が設けられている。透明入力装置335は、内側にそれぞれ透明導電性薄膜333a、333bが設けられた2枚の透明板332a、332bが対向配置されてなっている。2枚の透明板332a、332bは、図示しない箇所で絶縁スペーサを介して固定されている。2枚の透明導電性薄膜333a、333bの間には微小間隙334が確保され、非接触状態が保たれている。   FIG. 20 is a schematic diagram of a cross section of the user interface device 300 according to the present embodiment. A display unit 330 is disposed on one surface of the transparent input device 335 and an optical fiber layer 336 is disposed on the other surface. The optical fiber 337 is implanted perpendicular to the adhesive layer 338, and a large number of optical fibers 337 are raised on the surface of the optical fiber layer 336. A light shielding layer 339 is provided on the adhesive layer 338 for reasons described later. In the transparent input device 335, two transparent plates 332a and 332b each provided with transparent conductive thin films 333a and 333b are arranged to face each other. The two transparent plates 332a and 332b are fixed via insulating spacers at locations not shown. A minute gap 334 is secured between the two transparent conductive thin films 333a and 333b, and a non-contact state is maintained.

光ファイバー337は、表示ユニット330より照射された光を図中上方へ透過することにより表示画素として機能する。したがってユーザは、表示ユニット330の映像と同様の映像を光ファイバー層336の表面に見ることができる。ユーザは、映像を見ながら光ファイバー層336の表面を指で触れることにより操作を行う。ユーザーが光ファイバー層336を介して透明板332bの所定の箇所を押圧すると、特定箇所において、2枚の透明導電性薄膜333a、333bが接触して導通し、信号が発生する。操作の際、表面には多数の光ファイバー337が植毛されていることから、表面と指との間に過度な密着は生じない。したがって、指紋等が付着しにくくなるなど、前述の目的を達する。   The optical fiber 337 functions as a display pixel by transmitting light emitted from the display unit 330 upward in the drawing. Therefore, the user can view an image similar to the image of the display unit 330 on the surface of the optical fiber layer 336. The user performs an operation by touching the surface of the optical fiber layer 336 with a finger while viewing the video. When the user presses a predetermined portion of the transparent plate 332b through the optical fiber layer 336, the two transparent conductive thin films 333a and 333b are brought into contact with each other at a specific portion, and a signal is generated. During the operation, since a large number of optical fibers 337 are implanted on the surface, no excessive adhesion occurs between the surface and the finger. Therefore, the above-mentioned purpose is achieved, for example, it becomes difficult for fingerprints to adhere.

これらの効果を安定的に得るためには、光ファイバー337の直径は100〜1000μmとすることが好ましい。また、光ファイバー層336に良質な画像を表示させるという観点からは、100〜500μmとすることが好ましい。こうした光ファイバーとして、エスカ(登録商標)CK−10(三菱レイヨン社製)などを使用することができる。光ファイバー337の長さは特に制限されないが、例えば0.5〜5mmとすることができる。   In order to stably obtain these effects, the diameter of the optical fiber 337 is preferably 100 to 1000 μm. Further, from the viewpoint of displaying a good quality image on the optical fiber layer 336, the thickness is preferably 100 to 500 μm. As such an optical fiber, ESCA (registered trademark) CK-10 (manufactured by Mitsubishi Rayon Co., Ltd.) or the like can be used. The length of the optical fiber 337 is not particularly limited, but can be 0.5 to 5 mm, for example.

光ファイバー層336において高解像度の映像を得るためには、光ファイバー337を十分に密集させて植毛する必要がある。これを実現する一法として、静電植毛機、例えば、CP−40(栄進空調社製)を用いる。まず、酢酸ビニル樹脂エマルジョン接着剤などを透明板332b上にコーティングして接着層338を形成する。接着層338が硬化する前に、光ファイバー337を静電植毛機により植毛する。この方法は、静電気を利用して接着層338の面全体に光ファイバー337を垂直に植え込む手法である。形成された光ファイバー層336の表面は、絨毯に触れたときのような心地よい触感をもたらす。   In order to obtain a high-resolution image in the optical fiber layer 336, the optical fibers 337 need to be densely packed to be implanted. As a method for realizing this, an electrostatic flocking machine, for example, CP-40 (manufactured by Rongjin Air Conditioning Co., Ltd.) is used. First, the adhesive layer 338 is formed by coating a vinyl acetate resin emulsion adhesive or the like on the transparent plate 332b. Before the adhesive layer 338 is cured, the optical fiber 337 is implanted by an electrostatic flocking machine. In this method, the optical fiber 337 is implanted vertically over the entire surface of the adhesive layer 338 using static electricity. The surface of the formed optical fiber layer 336 provides a pleasant tactile sensation as when touching a carpet.

なお、図20のように接着層338の上にさらに遮光層339を設けてもよい。これにより光ファイバー337間の隙間から漏れ出す光を遮断し、より鮮明な映像が得られる。遮光層339は、例えば遮光性塗料などを接着層338上に吹き付けて乾燥させることにより設けることができる。ただし、光ファイバー337の先端部にも遮光性塗料が付着するため、乾燥後に先端部を切り取る必要がある。   Note that a light shielding layer 339 may be further provided on the adhesive layer 338 as shown in FIG. Thereby, the light leaking from the gap between the optical fibers 337 is blocked, and a clearer image can be obtained. The light shielding layer 339 can be provided, for example, by spraying a light shielding paint or the like on the adhesive layer 338 and drying it. However, since the light-shielding paint also adheres to the tip of the optical fiber 337, it is necessary to cut off the tip after drying.

光ファイバー層336は、必ずしも光ファイバー層336側の透明板332b上に直接設ける必要はない。図21に示されるように、例えばポリプロピレン製などの樹脂シート340の一方の面に光ファイバー層336を設けた後、他方の面と光ファイバー層336側の透明板332bとを接着層341を介して固定してもよい。   The optical fiber layer 336 is not necessarily provided directly on the transparent plate 332b on the optical fiber layer 336 side. As shown in FIG. 21, after providing an optical fiber layer 336 on one surface of a resin sheet 340 made of polypropylene, for example, the other surface and the transparent plate 332b on the optical fiber layer 336 side are fixed via an adhesive layer 341. May be.

本実施の形態においては、透明な極細繊維として光ファイバーを用いたが、例えばPETなどのポリエステル系繊維を使用してもよい。また、例えば特開平2−6648号公報において教示されている方法などにより、極細繊維の先端を先割れ加工することにより触感を向上させることもできる。図20中の表示ユニット330および透明入力装置335の種類は、第一の実施の形態と同様、特に限定されず、様々な装置を用いることができる。なお、図20において、透明入力装置335を省き、光ファイバー層336を表示ユニット330上に直接設けることもできる。この場合、指紋等汚れが付着しにくいディスプレイ装置が実現する。   In the present embodiment, an optical fiber is used as the transparent ultrafine fiber. However, for example, a polyester fiber such as PET may be used. In addition, for example, the tactile sensation can be improved by subjecting the tip of the ultrafine fiber to a tip cracking process by the method taught in JP-A-2-6648. The types of the display unit 330 and the transparent input device 335 in FIG. 20 are not particularly limited as in the first embodiment, and various devices can be used. In FIG. 20, the transparent input device 335 can be omitted and the optical fiber layer 336 can be provided directly on the display unit 330. In this case, a display device in which dirt such as fingerprints hardly adheres is realized.

本実施の形態の変形例として、光ファイバー層336に代えて、テレビ石(ウレックサイト)や、光ファイバーを用いた人工テレビ石などを設けてもよい。テレビ石や人工テレビ石を設けることにより、表示ユニット330の表面ではなく、テレビ石または人工テレビ石の表面に映像を浮き出して表示することができる。これを利用して、たとえば、立体的なボタンを画面に配置するなど、特殊な効果を得ることができる。テレビ石や人工テレビ石は、光ファイバー層336と異なり、表面が堅いので、ボタンなどとして設けるのに適している。   As a modification of the present embodiment, a television stone (Urecsite), an artificial television stone using an optical fiber, or the like may be provided instead of the optical fiber layer 336. By providing a TV stone or an artificial TV stone, an image can be displayed by being raised on the surface of the TV stone or the artificial TV stone instead of the surface of the display unit 330. Using this, for example, special effects such as arranging a three-dimensional button on the screen can be obtained. Unlike the optical fiber layer 336, the TV stone and the artificial TV stone have a hard surface and are suitable for being provided as buttons.

(第6の実施の形態)
本実施の形態のディスプレイ装置は、上記透明な極細繊維として光ファイバーを用い、その先端が、柔軟性を有するシート状部材に貫通した状態で固着されていることを特徴としている。
(Sixth embodiment)
The display device of the present embodiment is characterized in that an optical fiber is used as the transparent ultrafine fiber, and the tip is fixed in a state of penetrating through a flexible sheet-like member.

図22および図23は、それぞれ本実施の形態にかかるディスプレイ装置400の斜視図および断面図である。表示ユニット450の上に接着層451を介して光ファイバー452の一端が固定されている。光ファイバー452の他端である光ファイバー先端部454は、柔軟性を有するシート状部材453を貫通している。光ファイバー452とシート状部材453とは、この状態で固定されている。   22 and 23 are a perspective view and a cross-sectional view, respectively, of the display device 400 according to the present embodiment. One end of an optical fiber 452 is fixed on the display unit 450 via an adhesive layer 451. An optical fiber tip 454 that is the other end of the optical fiber 452 passes through a sheet-like member 453 having flexibility. The optical fiber 452 and the sheet-like member 453 are fixed in this state.

光ファイバー452は、表示ユニット450より照射された光を図中上方へ透過することにより表示画素として機能する。したがってユーザは、表示ユニット450の映像と同様の映像をシート状部材453上に見ることができる。また、シート状部材453を変形させることにより、様々な形状の表示画面を有するディスプレイ装置を実現できる。例えば、図24のようにシート状部材453を曲げて配置することにより、半球形の表示画面とすることができる。さらに、例えば図25のように、半球形の形状を有する物の表面を覆うようにしてシート状部材453を配設することもできる。また、ぬいぐるみやクッションなどに適用すれば、手触りのよい、弾力性に富む立体的なディスプレイ装置を得ることができる。   The optical fiber 452 functions as a display pixel by transmitting light emitted from the display unit 450 upward in the drawing. Therefore, the user can view an image similar to the image of the display unit 450 on the sheet-like member 453. Further, by deforming the sheet-like member 453, display devices having display screens with various shapes can be realized. For example, a hemispherical display screen can be obtained by bending and arranging the sheet-like member 453 as shown in FIG. Furthermore, as shown in FIG. 25, for example, a sheet-like member 453 can be disposed so as to cover the surface of an object having a hemispherical shape. Further, when applied to stuffed animals, cushions, etc., it is possible to obtain a three-dimensional display device that is easy to touch and rich in elasticity.

図22および図23において、シート状部材453上には多数の光ファイバー先端部454が突出しているため、指などで触れても密着しない。したがって、指紋等が付着しにくくなるなど、前述の目的を達する。   22 and 23, since a large number of optical fiber tip portions 454 protrude on the sheet-like member 453, they do not adhere to each other even if they are touched with a finger or the like. Therefore, the above-mentioned purpose is achieved, for example, it becomes difficult for fingerprints to adhere.

表示ユニット450、接着層451、光ファイバー452としては、第5の実施の形態におけるものと同様のものを用いることができる。光ファイバー452の長さについては、特に制限されず、用途に応じて適宜選択できる。シート状部材453としては、例えばポリエチレンなどの樹脂フィルム、布などの柔軟性を有する材料を用いることができる。これらの材料には、像のコントラストを向上させるために、例えば塗料を塗布するなど遮光処理をすることが好ましい。   As the display unit 450, the adhesive layer 451, and the optical fiber 452, those similar to those in the fifth embodiment can be used. The length of the optical fiber 452 is not particularly limited and can be appropriately selected depending on the application. As the sheet-like member 453, for example, a flexible material such as a resin film such as polyethylene or cloth can be used. These materials are preferably subjected to a light-shielding treatment, for example, by applying a paint in order to improve the contrast of the image.

光ファイバー452が比較的長い場合、第5の実施の形態で示した静電植毛を利用することは困難である。このような場合は、接着層451が硬化する前に、専用の治具などを用いて1本ずつ固着する。光ファイバー452の他端については、シート状部材453に貫通させ、光ファイバー先端部454が、例えば0.5〜5mm突出した状態とする。この状態で、光ファイバー452およびシート状部材453を接着剤等で固定する。もちろん、これらディスプレイ装置に前述のような入力機能を付加してユーザインタフェイス装置とすることもできる。   When the optical fiber 452 is relatively long, it is difficult to use the electrostatic flocking shown in the fifth embodiment. In such a case, the adhesive layer 451 is fixed one by one using a dedicated jig before the adhesive layer 451 is cured. The other end of the optical fiber 452 is made to penetrate the sheet-like member 453, and the optical fiber tip 454 protrudes, for example, by 0.5 to 5 mm. In this state, the optical fiber 452 and the sheet-like member 453 are fixed with an adhesive or the like. Of course, it is also possible to add the input function as described above to these display devices to form a user interface device.

以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、各構成要素や各処理プロセスの組合せにいろいろな変形が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described based on the embodiments. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to each component and combination of each processing process, and such modifications are within the scope of the present invention.

第1の実施の形態に係る表示システムの全体構成を模式的に示す図である。It is a figure which shows typically the whole structure of the display system which concerns on 1st Embodiment. 表示画面を複数の領域に分割して、それぞれの領域を異なる表示装置により表示する例を示す図である。It is a figure which shows the example which divides | segments a display screen into several area | regions and displays each area | region with a different display apparatus. 実施の形態に係る表示装置の内部構成を示す図である。It is a figure which shows the internal structure of the display apparatus which concerns on embodiment. 実施の形態に係る表示制御装置の内部構成を示す図である。It is a figure which shows the internal structure of the display control apparatus which concerns on embodiment. 表示システムの全体構成の別の例を示す図である。It is a figure which shows another example of the whole structure of a display system. 表示システムの全体構成のさらに別の例を示す図である。It is a figure which shows another example of the whole structure of a display system. 表示システムにより表示される映像データの例を模式的に示す図である。It is a figure which shows typically the example of the video data displayed by a display system. 視点の位置が移動する様子を示す図である。It is a figure which shows a mode that the position of a viewpoint moves. 視点と表示画面が同時に移動する様子を示す図である。It is a figure which shows a mode that a viewpoint and a display screen move simultaneously. 表示装置が移動する様子を示す図である。It is a figure which shows a mode that a display apparatus moves. 複数点において同時にパノラマ映像を撮影する例を示す図である。It is a figure which shows the example which image | photographs a panoramic image simultaneously in several points. 移動しながら複数点においてパノラマ映像を撮影する例を示す図である。It is a figure which shows the example which image | photographs a panoramic image in several points, moving. 移動しながら複数点においてパノラマ映像を撮影する他の例を示す図である。It is a figure which shows the other example which image | photographs a panoramic image in multiple points, moving. 実施の形態に係る表示システムを複数機器間のユーザインタフェイスに応用した例を示す図である。It is a figure which shows the example which applied the display system which concerns on embodiment to the user interface between several apparatuses. 第2の実施の形態に係る表示システムの全体構成を示す図である。It is a figure which shows the whole structure of the display system which concerns on 2nd Embodiment. 第3の実施の形態に係る表示システムの全体構成を示す図である。It is a figure which shows the whole structure of the display system which concerns on 3rd Embodiment. 第4の実施の形態のユーザインタフェイス装置の断面を表す模式図である。It is a schematic diagram showing the cross section of the user interface apparatus of 4th Embodiment. 凹凸層を固定する方法について説明するための図である。It is a figure for demonstrating the method to fix an uneven | corrugated layer. 凹凸層の他の例を示す図である。It is a figure which shows the other example of an uneven | corrugated layer. 第5の実施の形態のユーザインタフェイス装置の断面を表す模式図である。It is a schematic diagram showing the cross section of the user interface apparatus of 5th Embodiment. 光ファイバー層を固定する方法について説明するための図である。It is a figure for demonstrating the method to fix an optical fiber layer. 第6の実施の形態のディスプレイ装置の斜視図である。It is a perspective view of the display apparatus of 6th Embodiment. 第6の実施の形態のディスプレイ装置の断面図である。It is sectional drawing of the display apparatus of 6th Embodiment. 第6の実施の形態のディスプレイ装置の応用例を示す図である。It is a figure which shows the application example of the display apparatus of 6th Embodiment. 第6の実施の形態のディスプレイ装置の応用例を示す図である。It is a figure which shows the application example of the display apparatus of 6th Embodiment.

符号の説明Explanation of symbols

1 表示システム、 30 表示装置、 32 位置センサ、 33 装置情報保持部、 34 表示画面、 36 スピーカ、 37 通知部、 38 表示部、 39 音声出力部、 40 ネットワーク、 100 表示制御装置、 110 センサ位置情報取得部、 112 装置情報取得部、 120 画面位置情報算出部、 130 視点位置情報算出部、 160 映像生成部、 170 音声生成部、 180 参加・退出処理部、 190 特性情報決定部、 210,330,450 表示ユニット、 212a,212b,332a,332b 透明板、 213a,213b,333a,333b 透明導電性薄膜、 214,334 微小間隙、 215,335 透明入力装置、 216 凹凸層、 217 透明粒子、 218 透明バインダー、 219 樹脂シート、 220,338,341,451 接着層、 336,452 光ファイバー層、 337 光ファイバー、 339 遮光層、 340 樹脂シート、 453 シート状部材、 454 光ファイバー先端部、 200,300 ユーザインタフェイス装置、 400 ディスプレイ装置。
DESCRIPTION OF SYMBOLS 1 Display system, 30 Display apparatus, 32 Position sensor, 33 Apparatus information holding part, 34 Display screen, 36 Speaker, 37 Notification part, 38 Display part, 39 Audio | voice output part, 40 Network, 100 Display control apparatus, 110 Sensor position information Acquisition unit, 112 device information acquisition unit, 120 screen position information calculation unit, 130 viewpoint position information calculation unit, 160 video generation unit, 170 audio generation unit, 180 participation / exit processing unit, 190 characteristic information determination unit, 210, 330, 450 display unit, 212a, 212b, 332a, 332b transparent plate, 213a, 213b, 333a, 333b transparent conductive thin film, 214, 334 micro gap, 215, 335 transparent input device, 216 uneven layer, 217 transparent particle, 218 transparent binder 219 Resin sheet 220,338 341,451 adhesive layer, 336,452 fiber layer, 337 an optical fiber, 339 light-shielding layer, 340 the resin sheet, 453 sheet-454 fiber tip, 200 and 300 the user interface device, 400 display device.

Claims (5)

表示ユニットと、その表示ユニットの前面に設けられ、ユーザが前記表示ユニットを透視しながら表面に触れることにより入力を行う入力装置と、を備え、
前記入力装置の前面に、透明な粒子を固着せしめることにより微細な凹凸形状を表面に形成した透明な層を貼設したことを特徴とするユーザインタフェイス装置。
A display unit, and an input device that is provided on the front surface of the display unit and that allows a user to input by touching the surface while seeing through the display unit;
A user interface device, characterized in that a transparent layer having fine irregularities formed on the surface thereof is pasted on the front surface of the input device by fixing transparent particles.
前記透明な粒子が樹脂製の粒子であることを特徴とする請求項1に記載のユーザインタフェイス装置。   The user interface device according to claim 1, wherein the transparent particles are resin particles. 表示ユニットと、その表示ユニットの前面に設けられ、ユーザが前記表示ユニットを透視しながら表面に触れることにより入力を行う入力装置と、を備え、
前記入力装置の前面に、多数の透明な極細繊維が植毛されてなる層を貼設したことを特徴とするユーザインタフェイス装置。
A display unit, and an input device that is provided on the front surface of the display unit and that allows a user to input by touching the surface while seeing through the display unit;
A user interface device comprising a front surface of the input device and a layer in which a large number of transparent ultrafine fibers are implanted.
前記極細繊維が光ファイバーであることを特徴とする請求項3に記載のユーザインタフェイス装置。   The user interface device according to claim 3, wherein the ultrafine fiber is an optical fiber. 複数の表示装置と、少なくとも一つの表示制御装置と、を含み、
前記表示装置は、
当該表示装置の表示又は音声出力に関する特性情報を前記表示制御装置に通知する通知部を含み、
前記表示制御装置は、
前記通知部から前記特性情報を取得する特性情報取得部と、
前記複数の表示装置の表示又は音声出力の特性を統一すべく、前記特性情報取得部が取得した各表示装置の特性情報に基づいて、前記複数の表示装置の表示又は音声出力の特性を決定し、各表示装置に通知する特性情報決定部と、を含み、
前記複数の表示装置は、それぞれ前記特性情報決定部から通知された特性に設定を変更することを特徴とする表示システム。

A plurality of display devices, and at least one display control device,
The display device
Including a notification unit for notifying the display control device of characteristic information related to display or audio output of the display device;
The display control device includes:
A characteristic information acquisition unit for acquiring the characteristic information from the notification unit;
In order to unify the display or audio output characteristics of the plurality of display devices, the display or audio output characteristics of the plurality of display devices are determined based on the characteristic information of each display device acquired by the characteristic information acquisition unit. And a characteristic information determination unit for notifying each display device,
Each of the plurality of display devices changes a setting to a characteristic notified from the characteristic information determination unit.

JP2006104658A 2002-09-05 2006-04-05 Display system, display control device, display apparatus, display method, and user interface device Pending JP2006294032A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006104658A JP2006294032A (en) 2002-09-05 2006-04-05 Display system, display control device, display apparatus, display method, and user interface device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2002259967 2002-09-05
JP2002263413 2002-09-09
JP2003299392 2003-08-22
JP2006104658A JP2006294032A (en) 2002-09-05 2006-04-05 Display system, display control device, display apparatus, display method, and user interface device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2003310780A Division JP3880561B2 (en) 2002-09-05 2003-09-02 Display system

Publications (1)

Publication Number Publication Date
JP2006294032A true JP2006294032A (en) 2006-10-26

Family

ID=37414473

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006104658A Pending JP2006294032A (en) 2002-09-05 2006-04-05 Display system, display control device, display apparatus, display method, and user interface device

Country Status (1)

Country Link
JP (1) JP2006294032A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2031479A2 (en) 2007-08-30 2009-03-04 Sony Corporation Information presentation system, information presentation apparatus, information presentation method, program, and recording medium on which such program is recorded
JP2010147529A (en) * 2008-12-16 2010-07-01 Sony Corp Information processing system and information processing method
JP2012068709A (en) * 2010-09-21 2012-04-05 Kddi Corp Multiscreen system and display method
JP5659303B1 (en) * 2013-05-22 2015-01-28 株式会社東芝 DEVICE CONTROL METHOD, DEVICE CONTROL DEVICE, PROGRAM, AND ELECTRONIC DEVICE
JP2015507263A (en) * 2011-12-19 2015-03-05 マイクロソフト コーポレーション Sensor fusion interface for multiple sensor inputs
JP2016095614A (en) * 2014-11-13 2016-05-26 ソフトバンク株式会社 Display control device and program
JP2017004545A (en) * 2016-08-03 2017-01-05 株式会社コロプラ Screen operation system, program and method in conjunction with head-mounted display and controller
JP2017059196A (en) * 2015-12-22 2017-03-23 株式会社コロプラ Virtual reality space video display method and program
JP2019016111A (en) * 2017-07-05 2019-01-31 株式会社デンソーテン Input device and touch panel display
JP2020058724A (en) * 2018-10-12 2020-04-16 トヨタ自動車株式会社 Entertainment system and program

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2031479A2 (en) 2007-08-30 2009-03-04 Sony Corporation Information presentation system, information presentation apparatus, information presentation method, program, and recording medium on which such program is recorded
US8218856B2 (en) 2007-08-30 2012-07-10 Sony Corporation Information presentation system, information presentation apparatus, information presentation method, program, and recording medium on which such program is recorded
JP2010147529A (en) * 2008-12-16 2010-07-01 Sony Corp Information processing system and information processing method
US8644531B2 (en) 2008-12-16 2014-02-04 Sony Corporation Information processing system and information processing method
JP2012068709A (en) * 2010-09-21 2012-04-05 Kddi Corp Multiscreen system and display method
JP2015507263A (en) * 2011-12-19 2015-03-05 マイクロソフト コーポレーション Sensor fusion interface for multiple sensor inputs
JP2017215970A (en) * 2011-12-19 2017-12-07 マイクロソフト テクノロジー ライセンシング,エルエルシー Sensor fusion interface for multiple sensor inputs
US10409836B2 (en) 2011-12-19 2019-09-10 Microsoft Technology Licensing, Llc Sensor fusion interface for multiple sensor input
JP5659303B1 (en) * 2013-05-22 2015-01-28 株式会社東芝 DEVICE CONTROL METHOD, DEVICE CONTROL DEVICE, PROGRAM, AND ELECTRONIC DEVICE
JP2016095614A (en) * 2014-11-13 2016-05-26 ソフトバンク株式会社 Display control device and program
JP2017059196A (en) * 2015-12-22 2017-03-23 株式会社コロプラ Virtual reality space video display method and program
JP2017004545A (en) * 2016-08-03 2017-01-05 株式会社コロプラ Screen operation system, program and method in conjunction with head-mounted display and controller
JP2019016111A (en) * 2017-07-05 2019-01-31 株式会社デンソーテン Input device and touch panel display
JP2020058724A (en) * 2018-10-12 2020-04-16 トヨタ自動車株式会社 Entertainment system and program
JP7124624B2 (en) 2018-10-12 2022-08-24 トヨタ自動車株式会社 entertainment systems and programs

Similar Documents

Publication Publication Date Title
JP3880561B2 (en) Display system
JP2006294032A (en) Display system, display control device, display apparatus, display method, and user interface device
EP3396511B1 (en) Information processing device and operation reception method
US10356398B2 (en) Method for capturing virtual space and electronic device using the same
JP7344974B2 (en) Multi-virtual character control method, device, and computer program
WO2019153750A1 (en) Method, apparatus and device for view switching of virtual environment, and storage medium
CN108710525B (en) Map display method, device, equipment and storage medium in virtual scene
CN109529319B (en) Display method and device of interface control and storage medium
CN109729411B (en) Live broadcast interaction method and device
CN109803154B (en) Live broadcast method, equipment and storage medium for chess game
JP7191210B2 (en) Virtual environment observation method, device and storage medium
CN111921197B (en) Method, device, terminal and storage medium for displaying game playback picture
CN109917910B (en) Method, device and equipment for displaying linear skills and storage medium
US11675488B2 (en) Method and apparatus for constructing building in virtual environment, device, and storage medium
CN112245912B (en) Sound prompting method, device, equipment and storage medium in virtual scene
CN111541928B (en) Live broadcast display method, device, equipment and storage medium
CN109474786A (en) A kind of preview image generation method and terminal
JP2022531599A (en) Viewpoint rotation methods, devices, terminals and computer programs
US20220291791A1 (en) Method and apparatus for determining selected target, device, and storage medium
CN117085322A (en) Interactive observation method, device, equipment and medium based on virtual scene
WO2022237076A1 (en) Method and apparatus for controlling avatar, and device and computer-readable storage medium
WO2023207174A1 (en) Display method and apparatus, display device, head-mounted device, and storage medium
CN113194329B (en) Live interaction method, device, terminal and storage medium
CN116962737A (en) Live broadcast processing method, live broadcast processing device, computer equipment and computer readable storage medium
CN116233513A (en) Virtual gift special effect playing processing method, device and equipment in virtual reality live broadcasting room

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080703

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081125