JP2023025515A - Image display system, control unit, and data processing method - Google Patents

Image display system, control unit, and data processing method Download PDF

Info

Publication number
JP2023025515A
JP2023025515A JP2021130810A JP2021130810A JP2023025515A JP 2023025515 A JP2023025515 A JP 2023025515A JP 2021130810 A JP2021130810 A JP 2021130810A JP 2021130810 A JP2021130810 A JP 2021130810A JP 2023025515 A JP2023025515 A JP 2023025515A
Authority
JP
Japan
Prior art keywords
data
cross
shape data
image
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021130810A
Other languages
Japanese (ja)
Inventor
数樹 永井
Kazuki Nagai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2021130810A priority Critical patent/JP2023025515A/en
Publication of JP2023025515A publication Critical patent/JP2023025515A/en
Pending legal-status Critical Current

Links

Images

Abstract

To perform three-dimensional display with a plurality of screens by using three-dimensional shape data.SOLUTION: A data processing method includes: receiving the number of data sets in processing of generating cross-sectional shape data from three-dimensional shape data; generating a plurality of pieces of cross-sectional shape data from the three-dimensional shape data based on the number of data sets; generating a plurality of pieces of image data based on the plurality of pieces of cross-sectional shape data; and transmitting the plurality of pieces of image data to projectors projecting images on screens with light transmissivity.SELECTED DRAWING: Figure 1

Description

本発明は、画像表示システム、制御装置、及び、データ処理方法に関する。 The present invention relates to an image display system, control device, and data processing method.

従来、複数のプロジェクターとスクリーンとを組み合わせて画像を表示するシステムが知られている。特許文献1には、プロジェクターの投写画像を表示するスクリーン装置が、光を透過する光透過性と光を拡散する光拡散性とを有する光拡散手段を備える構成が開示されている。特許文献1には、複数のプロジェクターがスクリーン装置に対して互いに異なる方向から画像を投写することによって、立体感のある画像を表現できる、と記載がある。 2. Description of the Related Art Conventionally, a system that displays an image by combining a plurality of projectors and screens is known. Japanese Unexamined Patent Application Publication No. 2002-200000 discloses a configuration in which a screen device for displaying a projected image of a projector includes a light diffusing means having a light transmissive property for transmitting light and a light diffusing property for diffusing light. Japanese Patent Application Laid-Open No. 2002-200000 describes that an image with a three-dimensional effect can be expressed by projecting images onto a screen device from different directions by a plurality of projectors.

特開2008-268859号公報JP 2008-268859 A

特許文献1記載のシステムは文字等を含む平面画像をスクリーン装置に投写することによって、立体感のある表示を行う。これに対し、3次元形状データを利用して、より立体的な表示を行うことが望まれていた。 The system described in Japanese Patent Laid-Open No. 2002-200003 projects a plane image including characters and the like onto a screen device to display a stereoscopic image. On the other hand, it has been desired to perform more stereoscopic display using three-dimensional shape data.

本開示の一態様は、透光性を有する複数のスクリーンと、前記複数のスクリーンの各々に画像を投写する複数のプロジェクターと、前記複数のプロジェクターの各々に接続され、複数の画像データを前記複数のプロジェクターの各々に送信する制御装置と、を備え、前記制御装置は、3次元形状データと、前記3次元形状データから複数の断面形状データを生成する処理におけるデータセット数と、を受け付けることと、前記データセット数に基づいて、前記3次元形状データから前記複数の断面形状データを生成することと、前記複数の断面形状データに基づいて前記複数の画像データを生成することと、前記複数の画像データを前記複数のプロジェクターの各々に送信することと、を実行する、画像表示システムである。 According to one aspect of the present disclosure, a plurality of translucent screens, a plurality of projectors that project images onto each of the plurality of screens, a plurality of projectors connected to each of the plurality of projectors, and a a control device for transmitting to each of the projectors, wherein the control device receives three-dimensional shape data and the number of data sets in a process of generating a plurality of cross-sectional shape data from the three-dimensional shape data; , generating the plurality of cross-sectional shape data from the three-dimensional shape data based on the number of data sets; generating the plurality of image data based on the plurality of cross-sectional shape data; and transmitting image data to each of the plurality of projectors.

本開示の別の一態様は、3次元形状データから断面形状データを生成する処理におけるデータセット数を受け付けることと、前記データセット数に基づいて、前記3次元形状データから複数の前記断面形状データを生成することと、複数の前記断面形状データに基づいて、複数の画像データを生成することと、複数の前記画像データを、透光性を有するスクリーンに画像を投写する複数のプロジェクターに送信することと、を含む、制御装置である。 Another aspect of the present disclosure is to receive a number of data sets in a process of generating cross-sectional shape data from three-dimensional shape data, and based on the number of data sets, a plurality of cross-sectional shape data from the three-dimensional shape data , generating a plurality of image data based on the plurality of cross-sectional shape data, and transmitting the plurality of image data to a plurality of projectors that project an image on a translucent screen. and a control device.

本開示のさらに別の一態様は、3次元形状データから断面形状データを生成する処理におけるデータセット数を受け付けることと、前記データセット数に基づいて、前記3次元形状データから複数の前記断面形状データを生成することと、複数の前記断面形状データに基づいて、複数の画像データを生成することと、複数の前記画像データを、透光性を有するスクリーンに画像を投写するプロジェクターに送信することと、を含む、データ処理方法である。 Yet another aspect of the present disclosure is to receive a number of data sets in a process of generating cross-sectional shape data from three-dimensional shape data, and based on the number of data sets, a plurality of cross-sectional shapes from the three-dimensional shape data generating data; generating a plurality of image data based on the plurality of cross-sectional shape data; and transmitting the plurality of image data to a projector that projects an image onto a translucent screen. and a data processing method.

本開示のさらに別の一態様は、複数のスクリーンが第2スクリーンを含み、複数のスクリーンの各々に対応し、複数のスクリーンの各々に対するユーザーの操作を検出する複数の検出装置をさらに備え、制御装置は、操作が第1スクリーンに対する操作であると判定した場合に、操作に基づいて第1画像データを生成することと、操作が第2スクリーンに対する操作であると判定した場合に、操作に基づいて複数の画像データのうち一つである第2画像データを生成することと、を含む請求項2に記載の画像表示システムである。 Yet another aspect of the present disclosure further comprises a plurality of detection devices, wherein the plurality of screens includes a second screen, corresponds to each of the plurality of screens, and detects a user's operation on each of the plurality of screens; The device generates first image data based on the operation when it is determined that the operation is for the first screen, and generates the first image data based on the operation when it is determined that the operation is for the second screen. generating second image data, which is one of the plurality of image data, using the image display system of claim 2.

第1実施形態の画像表示システムの概略構成を示す図。1 is a diagram showing a schematic configuration of an image display system according to a first embodiment; FIG. 第1実施形態の制御装置の構成図。The block diagram of the control apparatus of 1st Embodiment. 断面形状データを生成する処理の説明図。Explanatory drawing of the process which produces|generates cross-sectional shape data. 第1実施形態の画像表示システムの動作を示すフローチャート。4 is a flowchart showing the operation of the image display system of the first embodiment; 第2実施形態に係る画像表示システムの概略構成を示す図。The figure which shows schematic structure of the image display system which concerns on 2nd Embodiment. 第2実施形態の制御装置の構成図。The block diagram of the control apparatus of 2nd Embodiment. 第2実施形態の画像表示システムの動作を示すフローチャート。8 is a flowchart showing the operation of the image display system of the second embodiment;

[1.第1実施形態]
[1-1.画像表示システムの構成]
図1は、第1実施形態に係る画像表示システム1の概略構成を示す図である。画像表示システム1は、複数のスクリーン15、複数のプロジェクター10、及び、制御装置5を備える。図1には、画像表示システム1が5つのプロジェクター10A、10B、10C、10D、10E、及び、5つのスクリーン15A、15B、15C、15D、15Eを備える例を示す。
[1. First Embodiment]
[1-1. Configuration of image display system]
FIG. 1 is a diagram showing a schematic configuration of an image display system 1 according to the first embodiment. The image display system 1 includes multiple screens 15 , multiple projectors 10 , and a control device 5 . FIG. 1 shows an example in which the image display system 1 includes five projectors 10A, 10B, 10C, 10D and 10E and five screens 15A, 15B, 15C, 15D and 15E.

図1に示す画像20A~20Eは、プロジェクター10A~10Eにより投写される投写画像である。制御装置5は、プロジェクター10A~10Eの各々に画像データD1、D2、D3、D4、D5を送信する。プロジェクター10Aは、制御装置5から画像データD1を受信し、画像データD1に基づきスクリーン15Aに画像20Aを投写する。同様に、プロジェクター10B、10C、10D、10Eは、それぞれ、画像データD2、D3、D4、D5に基づき、スクリーン15B、15C、15D、15Eに画像20B、20C、20D、20Eを投写する。 Images 20A to 20E shown in FIG. 1 are projected images projected by the projectors 10A to 10E. The control device 5 transmits image data D1, D2, D3, D4 and D5 to each of the projectors 10A to 10E. The projector 10A receives image data D1 from the control device 5 and projects an image 20A on the screen 15A based on the image data D1. Similarly, projectors 10B, 10C, 10D and 10E project images 20B, 20C, 20D and 20E onto screens 15B, 15C, 15D and 15E based on image data D2, D3, D4 and D5, respectively.

図1及び後述する図3、図5において、スクリーン15A~15Eが設置された設置空間における位置をX-Y-Z直交座標で示す。X軸はスクリーン15の水平方向に平行であり、Y軸はスクリーン15A~15Eが並ぶ方向に平行であり、Z軸はスクリーン15の垂直方向に平行である。このX-Y-Z直交座標における原点は任意に設定可能である。本実施形態では、スクリーン15Aの下端の一隅を原点とする。スクリーン15の設置空間において、スクリーン15の面内における位置はX-Z座標で表される。スクリーン15A~15Eが並ぶ方向における位置はY座標で表される。 In FIG. 1 and FIGS. 3 and 5, which will be described later, the positions in the installation space where the screens 15A to 15E are installed are shown by XYZ orthogonal coordinates. The X-axis is parallel to the horizontal direction of the screen 15, the Y-axis is parallel to the direction in which the screens 15A to 15E are arranged, and the Z-axis is parallel to the vertical direction of the screen 15. FIG. The origin of the XYZ orthogonal coordinates can be set arbitrarily. In this embodiment, one corner of the lower end of the screen 15A is set as the origin. In the installation space of the screen 15, the position within the plane of the screen 15 is represented by XZ coordinates. The position in the direction in which the screens 15A to 15E are arranged is represented by the Y coordinate.

以下の説明において、プロジェクター10A~10Eを区別しない場合はプロジェクター10と記載する。同様に、スクリーン15A~15Eを区別しない場合はスクリーン15と記載する。また、画像20A~20Eを区別しない場合は画像20と記載し、画像データD1~D5を区別しない場合は画像データDと記載する。 In the following description, the projectors 10A to 10E are referred to as the projector 10 when not distinguished. Similarly, screens 15A to 15E are referred to as screen 15 when not distinguished. Further, when the images 20A to 20E are not distinguished, they are referred to as image 20, and when the image data D1 to D5 are not distinguished, they are referred to as image data D.

画像表示システム1では、画像を表示することの一例として、プロジェクター10によってスクリーン15に画像を投写することを示す。すなわち、本実施形態で説明する画像の投写は、表示の一例である。 In the image display system 1, projection of an image onto the screen 15 by the projector 10 is shown as an example of displaying an image. That is, projection of an image described in this embodiment is an example of display.

画像表示システム1が有するスクリーン15の数は5つに限られない。また、プロジェクター10の数は5つに限られない。図1では、一つのプロジェクター10が一つのスクリーン15に画像20を投写する例を示したが、プロジェクター10とスクリーン15との対応は、図1の例に制限されない。例えば、一つのプロジェクター10が、複数のスクリーン15に画像20を投写してもよい。この場合、プロジェクター10は、画像20を投写するスクリーン15を単位時間毎に切り替えることによって、時分割で画像を投写する。例えば、プロジェクター10Aが、スクリーン15A、15B、15C、15D、15Eに、順に、画像20A、20B、20C、20D、20Eを投写する。 The number of screens 15 that the image display system 1 has is not limited to five. Also, the number of projectors 10 is not limited to five. Although FIG. 1 shows an example in which one projector 10 projects an image 20 onto one screen 15, the correspondence between the projector 10 and the screen 15 is not limited to the example in FIG. For example, one projector 10 may project images 20 onto multiple screens 15 . In this case, the projector 10 projects the image in a time division manner by switching the screen 15 on which the image 20 is projected every unit time. For example, the projector 10A projects images 20A, 20B, 20C, 20D and 20E onto the screens 15A, 15B, 15C, 15D and 15E in order.

画像データD1~D5は、例えば、一つの3次元形状データOから生成されるデータである。3次元形状データOは、立体図形等の形状を示す3次元データである。例えば、3次元形状データOは、3D-CAD(Computer-Aided Design)アプリケーションプログラムで作成されたデータが挙げられる。3次元形状データOのデータ形式は、制限されない。例えば、STLデータやOBJデータであってもよい。 The image data D1 to D5 are data generated from one piece of three-dimensional shape data O, for example. The three-dimensional shape data O is three-dimensional data representing a shape such as a solid figure. For example, the three-dimensional shape data O includes data created by a 3D-CAD (Computer-Aided Design) application program. The data format of the three-dimensional shape data O is not restricted. For example, it may be STL data or OBJ data.

画像20A~20Eは、3次元形状データOから生成された画像であるため、全体として1つの立体形状を表しており、画像表示システム1は複数のスクリーン15に画像20を投写することによって、立体投写を実現する。
3次元形状データOから画像データD1~D5を生成する処理については後述する。
Since the images 20A to 20E are images generated from the three-dimensional shape data O, they represent one stereoscopic shape as a whole. Realize projection.
Processing for generating the image data D1 to D5 from the three-dimensional shape data O will be described later.

スクリーン15は、透光性を有する。詳細には、スクリーン15は、可視光における少なくとも一部の波長域を透過させる特性を有する。スクリーン15の可視光の透過率は100%であってもよいし、100%より少なくてもよい。例えば、スクリーン15Aは、少なくとも画像20Bを、スクリーン15Aを透過してユーザーUが視認できる程度の透光性を有する。スクリーン15B~15Eも同様に、透光性を有する。ユーザーUが、スクリーン15A~15Dは、スクリーン15Aを透過して、画像20B、20C、20D、20Eのうち複数を視認できる程度の透光性を有することが好ましい。また、ユーザーUが、スクリーン15Eを透過して、画像20D、20C、20B、20Aのうち複数を視認できることが好ましい。 The screen 15 has translucency. Specifically, the screen 15 has a property of transmitting at least part of the wavelength range of visible light. The visible light transmittance of the screen 15 may be 100% or less than 100%. For example, the screen 15A has translucency such that at least the image 20B can be seen by the user U through the screen 15A. The screens 15B-15E also have translucency. The screens 15A to 15D preferably have translucency to the extent that the user U can see a plurality of the images 20B, 20C, 20D, and 20E through the screen 15A. Moreover, it is preferable that the user U can see more than one of the images 20D, 20C, 20B, and 20A through the screen 15E.

[1-2.制御装置の構成]
図2は、制御装置5の構成図である。
制御装置5は、CPU25(Central Processing Unit)、RAM38(Random Access Memory)、ROM40(Read Only Memory)、記憶部42、入力部53、表示部54、及び、送信部55を有する。制御装置5を構成する各部はバス56により相互に接続される。
[1-2. Configuration of control device]
FIG. 2 is a configuration diagram of the control device 5. As shown in FIG.
The control device 5 has a CPU 25 (Central Processing Unit), a RAM 38 (Random Access Memory), a ROM 40 (Read Only Memory), a storage section 42 , an input section 53 , a display section 54 and a transmission section 55 . Each unit constituting the control device 5 is interconnected by a bus 56 .

制御装置5は、例えば、PC(Personal Computer)、スマートフォン、タブレット型PC等で構成される情報端末装置である。本実施形態では、制御装置5がプロジェクター10とは互いに独立した装置であり、制御装置5から見てプロジェクター10が外部装置となる構成を説明する。制御装置5は、プロジェクター10とは独立した装置である必要はなく、例えば、プロジェクター10と一体となった装置が含むプロセッサーによって制御装置5の機能が実現される構成としてもよい。 The control device 5 is an information terminal device including, for example, a PC (Personal Computer), a smart phone, a tablet PC, or the like. In the present embodiment, a configuration will be described in which the control device 5 is a device independent of the projector 10 and the projector 10 is an external device when viewed from the control device 5 . The control device 5 does not need to be a device independent of the projector 10 , and for example, may be configured such that the functions of the control device 5 are realized by a processor included in a device integrated with the projector 10 .

CPU25は、1つ又は複数のプロセッサーで構成され、記憶部42が記憶する制御プログラムを実行することにより、制御装置5の各種機能を実現する。RAM38は揮発性の半導体記憶素子であり、CPU25のワークエリアを形成する。ROM40は、半導体記憶素子であり、CPU25によって実行されるプログラム、及び、CPU25が処理するデータ等を不揮発的に記憶する。 The CPU 25 is composed of one or more processors, and implements various functions of the control device 5 by executing control programs stored in the storage unit 42 . A RAM 38 is a volatile semiconductor memory element and forms a work area for the CPU 25 . The ROM 40 is a semiconductor memory device, and non-volatilely stores programs executed by the CPU 25, data processed by the CPU 25, and the like.

記憶部42は、記憶媒体を備える。記憶媒体は例えばハードディスク、光ディスク装置、或いは、SSD(Solid State Drive)等の半導体記憶デバイスである。記憶部42は、CPU25が実行するプログラム、及び、CPU25が処理するデータ等を不揮発的に記憶する。 The storage unit 42 includes a storage medium. The storage medium is, for example, a hard disk, an optical disk device, or a semiconductor storage device such as an SSD (Solid State Drive). The storage unit 42 nonvolatilely stores programs executed by the CPU 25, data processed by the CPU 25, and the like.

記憶部42は、3次元形状データ記憶領域44、データセット数情報記憶領域46、位置情報記憶領域48、断面形状データ記憶領域50、及び、画像データ記憶領域52を有する。これらの記憶領域は、例えば、記憶部42を構成する記憶媒体の記憶領域に設けられる論理的な記憶領域である。3次元形状データ記憶領域44は、3次元形状データOを記憶する。データセット数情報記憶領域46は、データセット数情報を記憶する。ここで、データセット数とは、1つの3次元形状データOから生成される断面形状データCDの数をいう。位置情報記憶領域48は、画像表示システム1が備える複数のスクリーン15の位置を示すスクリーン位置情報を記憶する。断面形状データ記憶領域50は、断面形状データCDを記憶する。画像データ記憶領域52は、画像データDを記憶する。 The storage unit 42 has a three-dimensional shape data storage area 44 , a data set number information storage area 46 , a position information storage area 48 , a cross-sectional shape data storage area 50 and an image data storage area 52 . These storage areas are, for example, logical storage areas provided in storage areas of a storage medium that constitutes the storage unit 42 . The three-dimensional shape data storage area 44 stores three-dimensional shape data O. FIG. The data set number information storage area 46 stores data set number information. Here, the number of data sets means the number of cross-sectional shape data CD generated from one piece of three-dimensional shape data O. FIG. The position information storage area 48 stores screen position information indicating the positions of the multiple screens 15 included in the image display system 1 . The cross-sectional shape data storage area 50 stores cross-sectional shape data CD. The image data storage area 52 stores the image data D. FIG.

入力部53は、データが入力されるインターフェイスを備える。入力部53は、例えば、LANインターフェイス、無線通信インターフェイス等の通信インターフェイスを備える。この場合、制御装置5は、入力部53に接続された外部のコンピューターとデータ通信を実行し、3次元形状データOやデータセット数情報を含む各種のデータを受信する。また、入力部53は、USB(Universal Serial Bus)インターフェイスを備えてもよい。この場合、制御装置5は、入力部53に接続された外部のコンピューターやUSBメモリーから、3次元形状データOやデータセット数情報を含む各種のデータを取得する。また、入力部53は、入力デバイスを備えてもよい。入力デバイスは、キーボードやマウスが挙げられる。制御装置5は、ユーザーUや制御装置5を設定するオペレーターが入力デバイスを操作することによって、データセット数情報等の情報を入力した場合に、入力された情報を取得する。 The input unit 53 has an interface through which data is input. The input unit 53 includes a communication interface such as a LAN interface, wireless communication interface, or the like. In this case, the control device 5 performs data communication with an external computer connected to the input unit 53, and receives various data including the three-dimensional shape data O and data set number information. The input unit 53 may also include a USB (Universal Serial Bus) interface. In this case, the control device 5 acquires various data including the three-dimensional shape data O and data set number information from an external computer or USB memory connected to the input unit 53 . Also, the input unit 53 may include an input device. Input devices include keyboards and mice. When the user U or an operator who sets up the control device 5 inputs information such as data set number information by operating an input device, the control device 5 acquires the input information.

表示部54は、液晶表示パネルや有機EL(Electro-Luminescence)パネル等の表示パネルを有する。表示部54は、CPU25の制御に従って、画像表示システム1の動作状態や受付部30が受け付けた各種情報を表示する。また、表示部54は、制御装置5の操作を行うための操作画面を表示してもよい。入力部53は、表示部54と一体化されたタッチパネルであってもよい。 The display unit 54 has a display panel such as a liquid crystal display panel or an organic EL (Electro-Luminescence) panel. The display unit 54 displays the operating state of the image display system 1 and various information received by the reception unit 30 under the control of the CPU 25 . Moreover, the display unit 54 may display an operation screen for operating the control device 5 . The input unit 53 may be a touch panel integrated with the display unit 54 .

送信部55は、LANインターフェイス、無線通信インターフェイス等の通信インターフェイスを備える。また、送信部55は、HDMI(High-Definition Multimedia Interface)等の画像出力インターフェイスを備えてもよい。ここで、HDMIは登録商標である。
送信部55は、プロジェクター10に接続され、CPU25の制御に従って、プロジェクター10に画像データDを送信する。具体的には、送信部55は、プロジェクター10A、10B、10C、10D、10Eの各々に接続される。CPU25は、送信部55により、プロジェクター10Aに画像データD1を送信する。同様に、CPU25は、送信部55により、プロジェクター10B、10C、10D、10Eに画像データD2、D3、D4、D5を送信する。
The transmission unit 55 has a communication interface such as a LAN interface and a wireless communication interface. The transmission unit 55 may also include an image output interface such as HDMI (High-Definition Multimedia Interface). Here, HDMI is a registered trademark.
The transmission unit 55 is connected to the projector 10 and transmits image data D to the projector 10 under the control of the CPU 25 . Specifically, the transmitter 55 is connected to each of the projectors 10A, 10B, 10C, 10D, and 10E. The CPU 25 transmits the image data D1 to the projector 10A through the transmission unit 55. FIG. Similarly, the CPU 25 transmits the image data D2, D3, D4 and D5 to the projectors 10B, 10C, 10D and 10E through the transmission unit 55. FIG.

CPU25は、記憶部42が記憶する不図示の制御プログラムを実行することによって、受付部30、断面データ生成部32、画像データ生成部34、及び、送信制御部36の機能を実現する。受付部30は、入力部53によって、3次元形状データO、及び、データセット数情報を受け付ける。 The CPU 25 implements the functions of the reception unit 30 , the cross-sectional data generation unit 32 , the image data generation unit 34 , and the transmission control unit 36 by executing a control program (not shown) stored in the storage unit 42 . The receiving unit 30 receives the three-dimensional shape data O and data set number information through the input unit 53 .

受付部30は、入力部53から入力される3次元形状データOを取得し、取得した3次元形状データOを3次元形状データ記憶領域44に記憶させる。3次元形状データOは、予め3次元形状データ記憶領域44に記憶されていてもよい。また、CPU25が入力部53以外の手段によって3次元形状データOを取得し、3次元形状データ記憶領域44に記憶させてもよい。 The reception unit 30 acquires the three-dimensional shape data O input from the input unit 53 and stores the acquired three-dimensional shape data O in the three-dimensional shape data storage area 44 . The three-dimensional shape data O may be stored in the three-dimensional shape data storage area 44 in advance. Alternatively, the CPU 25 may acquire the three-dimensional shape data O by means other than the input unit 53 and store it in the three-dimensional shape data storage area 44 .

受付部30は、他のコンピューターから入力部53に入力されるデータ、または、入力部53の入力デバイスの操作に基づき、データセット数情報を取得する。受付部30は、取得したデータセット数情報をデータセット数情報記憶領域46に記憶させる。 The reception unit 30 acquires data set number information based on data input to the input unit 53 from another computer or operation of the input device of the input unit 53 . The reception unit 30 stores the acquired data set number information in the data set number information storage area 46 .

データセット数情報は、3次元形状データOから複数の断面形状データCDを生成し、断面形状データCDをもとに画像データDを生成する処理において参照されるパラメーターである。データセット数情報は、3次元形状データOから生成される断面形状データCDのデータセット数を示す。 The data set number information is a parameter referred to in the process of generating a plurality of cross-sectional shape data CD from the three-dimensional shape data O and generating the image data D based on the cross-sectional shape data CD. The data set number information indicates the number of data sets of the cross-sectional shape data CD generated from the three-dimensional shape data O. FIG.

データセット数情報は、3次元形状データOに対応付けられる。例えば、受付部30は、3次元形状データOを受け付けた後、データセット数情報を受け付けた場合に、これらの3次元形状データOとデータセット数情報とを対応付ける処理を行う。受付部30は、3次元形状データOと、データセット数情報とを対応させて、3次元形状データ記憶領域44及びデータセット数情報記憶領域46に記憶させる。
また、データセット数情報が3次元形状データOに対応付けられない構成であってもよい。例えば、1つのデータセット数情報が、断面データ生成部32が処理する全ての3次元形状データOに適用される構成であってもよい。
Data set number information is associated with the three-dimensional shape data O. FIG. For example, when receiving the data set number information after receiving the three-dimensional shape data O, the receiving unit 30 performs a process of associating the three-dimensional shape data O with the data set number information. The reception unit 30 associates the three-dimensional shape data O with the data set number information and stores them in the three-dimensional shape data storage area 44 and the data set number information storage area 46 .
Further, the data set number information may not be associated with the three-dimensional shape data O. FIG. For example, one piece of data set number information may be applied to all three-dimensional shape data O processed by the cross-sectional data generation unit 32 .

断面データ生成部32は、3次元形状データ記憶領域44に記憶された3次元形状データOをもとに、断面形状データCDを生成する。この処理において、断面データ生成部32は、データセット数情報記憶領域46に記憶されたデータセット数情報、及び、位置情報記憶領域48が記憶する位置情報を参照する。断面データ生成部32は、生成した断面形状データCDを、スクリーン位置情報に対応づけて断面形状データ記憶領域50に記憶させる。 The cross-sectional data generator 32 generates cross-sectional shape data CD based on the three-dimensional shape data O stored in the three-dimensional shape data storage area 44 . In this process, the cross-sectional data generator 32 refers to the data set number information stored in the data set number information storage area 46 and the position information stored in the position information storage area 48 . The cross-sectional data generator 32 stores the generated cross-sectional shape data CD in the cross-sectional shape data storage area 50 in association with the screen position information.

スクリーン位置情報は、スクリーン15A、15B、15C、15D、15Eの各々の位置を示す情報である。スクリーン位置情報は、スクリーン15A、15B、15C、15D、15Eの相互の相対位置を示す情報であってもよい。また、スクリーン位置情報は、スクリーン15の設置空間に設定された原点を基準とする、スクリーン15A、15B、15C、15D、15Eの絶対位置を示す情報であってもよい。本実施形態では一例として、上述したX-Y-Z直交座標における各スクリーン15A、15B、15C、15D、15EのY座標を、スクリーン位置情報として位置情報記憶領域48に記憶する。 The screen position information is information indicating the position of each of the screens 15A, 15B, 15C, 15D and 15E. The screen position information may be information indicating relative positions of the screens 15A, 15B, 15C, 15D, and 15E. Further, the screen position information may be information indicating the absolute positions of the screens 15A, 15B, 15C, 15D, and 15E with reference to the origin set in the installation space of the screen 15. FIG. In this embodiment, as an example, the Y coordinates of the screens 15A, 15B, 15C, 15D, and 15E in the XYZ orthogonal coordinates described above are stored in the position information storage area 48 as screen position information.

スクリーン位置情報は、例えば、受付部30によって入力部53を利用して受け付けられる。スクリーン位置情報は、3次元形状データOに含まれ、或いは、3次元形状データOに付加されていてもよく、この場合、受付部30は、3次元形状データOとともに位置情報を受け付けて、位置情報記憶領域48に記憶させる。また、スクリーン位置情報を制御装置5が生成する構成であっても良い。例えば、受付部30は、スクリーン15の設置空間を撮影した撮影画像を取得し、撮影画像からスクリーン15の画像を抽出することによって、各々のスクリーン15の位置を特定する。この場合、撮影画像データから各スクリーン15の位置を示すスクリーン位置情報を容易に得ることができる。 The screen position information is received by the receiving unit 30 using the input unit 53, for example. The screen position information may be included in the three-dimensional shape data O, or may be added to the three-dimensional shape data O. In this case, the reception unit 30 receives the position information together with the three-dimensional shape data O, It is stored in the information storage area 48 . Alternatively, the screen position information may be generated by the control device 5 . For example, the receiving unit 30 acquires a photographed image of the installation space of the screens 15 and extracts the image of the screens 15 from the photographed image to specify the position of each screen 15 . In this case, screen position information indicating the position of each screen 15 can be easily obtained from the captured image data.

画像データ生成部34は、断面データ生成部32が生成する断面形状データCDをもとに、画像データDを生成する。画像データ生成部34が生成する画像データDの数と、断面形状データCDの数とは一致してもよいし、異なる数であってもよい。すなわち、画像データ生成部34は、1つの断面形状データCDから複数の画像データDを生成してもよいし、1つの断面形状データCDを1つの画像データDに変換する処理を行ってもよい。画像データ生成部34は、断面形状データCDをもとに、各々のプロジェクター10に対応する画像データDを生成する。詳細には、画像データ生成部34は、画像データD1、D2、D3、D4、D5を生成し、それぞれの画像データDを、プロジェクター10A~10Eに対応付けて、画像データ記憶領域52に記憶させる。 The image data generator 34 generates image data D based on the cross-sectional shape data CD generated by the cross-sectional data generator 32 . The number of image data D generated by the image data generator 34 and the number of cross-sectional shape data CD may be the same or may be different. That is, the image data generation unit 34 may generate a plurality of image data D from one cross-sectional shape data CD, or may perform processing for converting one cross-sectional shape data CD into one image data D. . The image data generator 34 generates image data D corresponding to each projector 10 based on the cross-sectional shape data CD. Specifically, the image data generation unit 34 generates image data D1, D2, D3, D4, and D5, and stores the respective image data D in the image data storage area 52 in association with the projectors 10A to 10E. .

画像データDのフォーマットは、静止画像データ用の公知のフォーマットを採用できる。例えば、GIF(Graphics Interchange Format)、JPEG(Joint Photographic Experts Group)、PNG(Portable Network Graphics)が挙げられる。 The format of the image data D can adopt a known format for still image data. Examples include GIF (Graphics Interchange Format), JPEG (Joint Photographic Experts Group), and PNG (Portable Network Graphics).

送信制御部36は、画像データ記憶領域52が記憶する画像データDを、各々の画像データDに対応付けられたプロジェクター10に送信する。例えば、送信制御部36は、画像データD1をプロジェクター10Aに送信し、画像データD2~D5を、それぞれプロジェクター10B~10Eに送信する。 The transmission control unit 36 transmits the image data D stored in the image data storage area 52 to the projectors 10 associated with each image data D. As shown in FIG. For example, the transmission control unit 36 transmits the image data D1 to the projector 10A, and transmits the image data D2 to D5 to the projectors 10B to 10E, respectively.

[1-3.断面形状データの生成]
図3は、断面形状データCDを生成する処理の説明図である。
3次元形状データOは、例えば立体図形のデータであり、図3の例で立体形状は円錐である。断面データ生成部32は、円錐の3次元形状データOから、円錐の断面を示す断面形状データCDを生成する。図3において、P1、P2、P3、P4、P5は、それぞれ、3次元形状データOから切り出される断面である。断面P1~P5の位置は、断面データ生成部32が3次元形状データOの切り出しを行う位置に対応する。
[1-3. Generation of cross-sectional shape data]
FIG. 3 is an explanatory diagram of the process of generating cross-sectional shape data CD.
The three-dimensional shape data O is, for example, three-dimensional figure data, and the three-dimensional shape is a cone in the example of FIG. The cross-sectional data generator 32 generates cross-sectional shape data CD representing a cross section of the cone from the three-dimensional shape data O of the cone. In FIG. 3, P1, P2, P3, P4, and P5 are cross sections cut out from the three-dimensional shape data O, respectively. The positions of the cross sections P1 to P5 correspond to the positions where the cross section data generator 32 cuts out the three-dimensional shape data O. FIG.

断面データ生成部32が3次元形状データOから生成する断面形状データCDの数は、データセット数情報記憶領域46に記憶されているデータセット数情報により決定される。ここでは、データセット数情報が示す断面形状データCDの数、すなわちデータセット数が5である例を示す。この例では、データセット数情報が示すデータセット数がスクリーン15の数と一致する。 The number of pieces of cross-sectional shape data CD generated from the three-dimensional shape data O by the cross-sectional data generator 32 is determined by the data set number information stored in the data set number information storage area 46 . Here, an example is shown in which the number of cross-sectional shape data CD indicated by the data set number information, that is, the number of data sets is five. In this example, the number of data sets indicated by the data set number information matches the number of screens 15 .

断面データ生成部32は、3次元形状データOを、スクリーン15の設置空間に定義されたX-Y-Z直交座標に対応付ける。さらに、断面データ生成部32は、スクリーン位置情報に基づき、スクリーン15A~15Eの各々の座標を決定する。断面データ生成部32は、スクリーン15A~15Eの各々の位置に基づき、断面P1~P5の位置を決定する。例えば、断面P1~P5の位置は、スクリーン15A~15Eの各々の位置に対応する。 The cross-sectional data generator 32 associates the three-dimensional shape data O with the XYZ orthogonal coordinates defined in the installation space of the screen 15 . Further, the cross-sectional data generator 32 determines the coordinates of each of the screens 15A-15E based on the screen position information. The slice data generator 32 determines the positions of the slices P1 to P5 based on the positions of the screens 15A to 15E. For example, the positions of cross-sections P1-P5 correspond to the positions of each of screens 15A-15E.

ここで、断面データ生成部32は、スクリーン15A~15Eの各々の少なくともY座標を決定する。また、スクリーン位置情報が、スクリーン15の設置空間に対応する情報を含まない場合、受付部30は、スクリーン位置情報をY軸に対応付ける処理を行う。例えば、スクリーン位置情報が、スクリーン15A~15Eの相対位置のみを規定する情報である場合、受付部30は、スクリーン15AのY座標を決定する。さらに、受付部30は、決定した座標と、スクリーン15Aに対するスクリーン15B~15Eの相対位置とに基づいて、スクリーン15B~15Eの各々のY座標を決定する。 Here, the cross-sectional data generator 32 determines at least the Y coordinate of each of the screens 15A-15E. Further, when the screen position information does not include information corresponding to the installation space of the screen 15, the reception unit 30 performs processing for associating the screen position information with the Y axis. For example, if the screen position information is information specifying only the relative positions of the screens 15A to 15E, the reception unit 30 determines the Y coordinate of the screen 15A. Furthermore, reception unit 30 determines the Y coordinates of each of screens 15B to 15E based on the determined coordinates and the relative positions of screens 15B to 15E with respect to screen 15A.

断面データ生成部32は、3次元形状データOから画像を切り出す断面P1の位置を、スクリーン15AのY座標に基づき決定する。例えば、断面P1のY座標はスクリーン15AのY座標に等しい。同様に、断面データ生成部32は、断面P2~P5の位置を、スクリーン15B~15EのY座標に基づき決定する。 The cross-sectional data generator 32 determines the position of the cross-section P1 for cutting out the image from the three-dimensional shape data O based on the Y coordinate of the screen 15A. For example, the Y coordinate of cross section P1 is equal to the Y coordinate of screen 15A. Similarly, the slice data generator 32 determines the positions of the slices P2 to P5 based on the Y coordinates of the screens 15B to 15E.

データセット数情報が示す断面形状データCDのデータセット数がスクリーン15の数と一致しない場合、断面データ生成部32は、スクリーン15のY座標とは無関係に断面PのY座標を決定する。例えば、断面データ生成部32は、3次元形状データOとY座標が重なる範囲において、Y座標が最も小さい断面Pの位置と、Y座標が最も大きい断面Pの位置とを決定する。これら2つの断面Pを両端の断面Pとする。図3の例では、断面P1と断面P5が両端の断面に相当する。断面データ生成部32は、データセット数情報に対応して、両端の断面Pの間において複数の断面Pの位置を決定する。これら複数の断面Pの位置は、例えば、両端の断面Pの間を、等しい距離で分割した位置に決定される。この方法によれば、3次元形状データOに重なるように、複数の断面Pが等間隔となるように、断面Pの位置が決定される。 If the number of data sets of the cross-sectional shape data CD indicated by the data set number information does not match the number of screens 15 , the cross-sectional data generator 32 determines the Y coordinate of the cross section P regardless of the Y coordinate of the screen 15 . For example, the cross-sectional data generation unit 32 determines the position of the cross-section P with the smallest Y-coordinate and the position of the cross-section P with the largest Y-coordinate in the range where the three-dimensional shape data O and the Y coordinate overlap. Let these two cross sections P be the cross sections P of both ends. In the example of FIG. 3, the cross section P1 and the cross section P5 correspond to cross sections at both ends. The cross-sectional data generator 32 determines the positions of a plurality of cross-sections P between the cross-sections P at both ends in accordance with the data set number information. The positions of these cross sections P are determined, for example, at positions obtained by dividing the cross sections P at both ends by equal distances. According to this method, the positions of the cross-sections P are determined so that the cross-sections P are arranged at equal intervals so as to overlap the three-dimensional shape data O. FIG.

また、受付部30は、データセット数情報とともに、或いは、データセット数情報に代えて、断面Pの位置を指定する分割位置情報を受け付けてもよい。受付部30は、分割位置情報を、3次元形状データOに対応付けてデータセット数情報記憶領域46に記憶する。分割位置情報は、例えば、3次元形状データOに対する分割位置の相対位置を指定する情報、或いは、3次元形状データOの座標に対応付けられる分割位置の座標を示す情報である。断面データ生成部32が複数の断面Pで3次元形状データOを切り出す場合、分割位置情報は、複数の断面Pの位置をそれぞれ指定する情報である。この場合、断面データ生成部32は、データセット数情報記憶領域46に記憶された分割位置情報を参照して、断面Pの位置を決定する。また、分割位置情報が3次元形状データOに対応付けられない構成であってもよい。例えば、1組の分割位置情報が、断面データ生成部32が処理する全ての3次元形状データOに適用されてもよい。 Further, the receiving unit 30 may receive division position information specifying the position of the cross section P together with the data set number information or instead of the data set number information. The reception unit 30 stores the division position information in the data set number information storage area 46 in association with the three-dimensional shape data O. FIG. The division position information is, for example, information specifying the relative position of the division position with respect to the three-dimensional shape data O, or information indicating the coordinates of the division position associated with the coordinates of the three-dimensional shape data O. FIG. When the cross-sectional data generation unit 32 cuts out the three-dimensional shape data O with a plurality of cross-sections P, the division position information is information specifying the positions of the plurality of cross-sections P, respectively. In this case, the cross-sectional data generator 32 determines the position of the cross-section P by referring to the division position information stored in the data set number information storage area 46 . Moreover, the division|segmentation position information may be the structure which is not matched with the three-dimensional shape data O. FIG. For example, one set of division position information may be applied to all three-dimensional shape data O processed by the cross-sectional data generator 32 .

断面データ生成部32は、3次元形状データOを断面P1で切り出した平面画像のデータである断面形状データCD1を生成する。断面形状データCD1は、断面P1に相当するX-Z平面における平面画像のデータであり、X座標及びZ座標を用いて表現されるベクトル画像データ、或いは、ラスター画像データである。同様に、断面データ生成部32は、3次元形状データOを断面P2~P5の各位置で切り出した平面画像のデータである断面形状データCD2~CD5を生成し、断面形状データ記憶領域50に記憶させる。 The cross-sectional data generation unit 32 generates cross-sectional shape data CD1, which is planar image data obtained by cutting out the three-dimensional shape data O at the cross-section P1. The cross-sectional shape data CD1 is plane image data on the XZ plane corresponding to the cross section P1, and is vector image data expressed using X and Z coordinates, or raster image data. Similarly, the cross-sectional data generator 32 generates cross-sectional shape data CD2 to CD5, which are planar image data obtained by cutting out the three-dimensional shape data O at respective positions of cross-sections P2 to P5, and stores them in the cross-sectional shape data storage area 50. Let

画像データ生成部34は、断面形状データ記憶領域50をもとに、例えば、GIF、JPEG、PNG等のデータフォーマットを有する画像データDを生成する。断面形状データCDのデータセット数がスクリーン15の数に等しい場合、画像データDは、断面形状データCDを、プロジェクター10が処理可能なデータフォーマットに変換したデータである。断面形状データCDのデータセット数がスクリーン15の数と異なる場合、画像データ生成部34は、スクリーン15と近いY座標を有する複数の断面形状データCDから、スクリーン15とY座標が一致する断面形状データCDを補間演算等により生成する。ここで、画像データ生成部34は、生成した断面形状データCDのデータフォーマットを変換することによって画像データDを生成する。 The image data generator 34 generates image data D having a data format such as GIF, JPEG, PNG, etc. based on the cross-sectional shape data storage area 50 . When the number of data sets of the cross-sectional shape data CD is equal to the number of screens 15 , the image data D is data obtained by converting the cross-sectional shape data CD into a data format that can be processed by the projector 10 . When the number of data sets of the cross-sectional shape data CD is different from the number of screens 15, the image data generator 34 selects a cross-sectional shape whose Y-coordinate matches that of the screen 15 from a plurality of cross-sectional shape data CDs having Y-coordinates close to the screen 15. Data CD is generated by interpolation calculation or the like. Here, the image data generator 34 generates the image data D by converting the data format of the generated cross-sectional shape data CD.

画像データDは、3次元形状データOをスクリーン15のY座標で切り出した画像の画像データである。このため、複数の画像データDを、複数のプロジェクター10によって、複数のスクリーン15に投写することにより、画像20の集合を表示する。画像20の集合は、3次元形状データOに対応する立体的な画像である。また、スクリーン15は透光性を有するため、ユーザーUは、複数のスクリーン15に形成された複数の画像20を、同時に視認できる。これにより、画像表示システム1は、画像20の集合によって3次元形状データOを再現し、ユーザーUに立体的な画像を視認させることができる。 The image data D is image data of an image obtained by cutting out the three-dimensional shape data O at the Y coordinate of the screen 15 . Therefore, a set of images 20 is displayed by projecting a plurality of image data D onto a plurality of screens 15 by a plurality of projectors 10 . A set of images 20 is a stereoscopic image corresponding to the three-dimensional shape data O. FIG. Further, since the screen 15 is translucent, the user U can simultaneously view the multiple images 20 formed on the multiple screens 15 . As a result, the image display system 1 can reproduce the three-dimensional shape data O by a set of the images 20 and allow the user U to visually recognize the three-dimensional image.

[1-4.画像表示システムの動作]
図4は、画像表示システム1の動作を示すフローチャートである。
ステップS1で、受付部30は、入力部53に入力されるデータセット数情報を受け付けて、データセット数情報記憶領域46に記憶させる。また、ステップS2で、受付部30は、スクリーン位置情報を受け付けて、位置情報記憶領域48に記憶させる。ステップS1の動作とステップS2の動作は同時に、或いは、逆の順序で実行されてもよい。
[1-4. Operation of Image Display System]
FIG. 4 is a flow chart showing the operation of the image display system 1. As shown in FIG.
In step S<b>1 , the reception unit 30 receives data set number information input to the input unit 53 and stores it in the data set number information storage area 46 . Further, in step S2, the reception unit 30 receives the screen position information and stores it in the position information storage area 48. FIG. The operations of step S1 and step S2 may be performed simultaneously or in reverse order.

ステップS3で、断面データ生成部32は、3次元形状データ記憶領域44から3次元形状データOを読み出し、図3を参照して説明したように、データセット数情報記憶領域46に記憶されたデータセット数情報を参照して、断面形状データCDを生成する。断面データ生成部32は、生成した断面形状データCDを断面形状データ記憶領域50に記憶させる。 In step S3, the cross-sectional data generator 32 reads the three-dimensional shape data O from the three-dimensional shape data storage area 44, and, as described with reference to FIG. The cross-sectional shape data CD is generated by referring to the number of sets information. The cross-sectional data generator 32 stores the generated cross-sectional shape data CD in the cross-sectional shape data storage area 50 .

ステップS4で、画像データ生成部34は、断面形状データ記憶領域50に記憶された断面形状データCDを読み出し、断面形状データCDをもとに画像データDを生成する。画像データ生成部34は、生成した画像データDを画像データ記憶領域52に記憶させる。 In step S4, the image data generator 34 reads the cross-sectional shape data CD stored in the cross-sectional shape data storage area 50, and generates image data D based on the cross-sectional shape data CD. The image data generator 34 stores the generated image data D in the image data storage area 52 .

ステップS5で、送信制御部36は、画像データ記憶領域52に記憶された画像データDを、送信部55によってプロジェクター10に送信する。
これにより、ステップS6で、プロジェクター10は、画像データDに基づく画像20をスクリーン15に表示する。
In step S<b>5 , the transmission control unit 36 transmits the image data D stored in the image data storage area 52 to the projector 10 via the transmission unit 55 .
Thereby, the projector 10 displays the image 20 based on the image data D on the screen 15 in step S6.

送信制御部36は、画像データ記憶領域52から画像データDを読み出し、読み出した画像データDが対応するプロジェクター10を選択し、選択したプロジェクター10に画像データDを送信する。これにより、画像データDと対応する位置に設置されたスクリーン15に、画像データDに基づく画像20が表示される。 The transmission control unit 36 reads the image data D from the image data storage area 52 , selects the projector 10 to which the read image data D corresponds, and transmits the image data D to the selected projector 10 . Accordingly, an image 20 based on the image data D is displayed on the screen 15 installed at a position corresponding to the image data D. FIG.

[1-5.第1実施形態の作用]
以上説明したように、画像表示システム1は、透光性を有する複数のスクリーン15と、複数のスクリーン15の各々に画像を投写する複数のプロジェクター10とを備える。画像表示システム1は、複数のプロジェクター10の各々に接続され、複数の画像データを複数のプロジェクター10の各々に送信する制御装置5を備える。制御装置5は、3次元形状データと、3次元形状データから複数の断面形状データを生成する処理におけるデータセット数と、を受け付ける。制御装置5は、データセット数に基づいて、3次元形状データから複数の断面形状データを生成することと、複数の断面形状データに基づいて複数の画像データを生成することと、複数の画像データを複数のプロジェクターの各々に送信すること、とを実行する。
[1-5. Action of the first embodiment]
As described above, the image display system 1 includes a plurality of translucent screens 15 and a plurality of projectors 10 that project images onto each of the plurality of screens 15 . The image display system 1 includes a control device 5 that is connected to each of the multiple projectors 10 and that transmits multiple image data to each of the multiple projectors 10 . The control device 5 receives the three-dimensional shape data and the number of data sets in the process of generating a plurality of pieces of cross-sectional shape data from the three-dimensional shape data. Based on the number of data sets, the control device 5 generates a plurality of cross-sectional shape data from the three-dimensional shape data, generates a plurality of image data based on the plurality of cross-sectional shape data, and generates a plurality of image data. to each of a plurality of projectors.

制御装置5は、3次元形状データOから断面形状データCDを生成する処理におけるデータセット数を受け付けることと、データセット数に基づいて、3次元形状データOから複数の断面形状データCDを生成することと、複数の断面形状データCDに基づいて、複数の画像データDを生成することと、複数の画像データDを、透光性を有するスクリーンに画像を投写する複数のプロジェクター10に送信することと、を含む。 The control device 5 receives the number of data sets in the process of generating cross-sectional shape data CD from the three-dimensional shape data O, and generates a plurality of cross-sectional shape data CD from the three-dimensional shape data O based on the number of data sets. generating a plurality of image data D based on the plurality of cross-sectional shape data CD; and transmitting the plurality of image data D to a plurality of projectors 10 that project images onto a translucent screen. and including.

本実施形態に係るデータ処理方法は、3次元形状データOから断面形状データCDを生成する処理におけるデータセット数を受け付けることと、データセット数に基づいて、3次元形状データOから複数の断面形状データCDを生成することと、複数の断面形状データCDに基づいて、複数の画像データDを生成することと、複数の画像データDを、透光性を有するスクリーン15に画像を投写するプロジェクター10に送信することと、を含む。 The data processing method according to the present embodiment includes receiving the number of data sets in the process of generating cross-sectional shape data CD from the three-dimensional shape data O, and obtaining a plurality of cross-sectional shapes from the three-dimensional shape data O based on the number of data sets. A projector 10 for generating a data CD, generating a plurality of image data D based on the plurality of cross-sectional shape data CD, and projecting the plurality of image data D onto a translucent screen 15. and sending to.

画像表示システム1は、複数のスクリーン15が第1スクリーンを含み、制御装置5は、第1スクリーンの位置を示すスクリーン位置情報を受け付けることと、データセット数に基づいて、3次元形状データO上の切り出しを行う位置を決定し、位置に対応する断面形状データCDを生成することと、位置に対応する断面形状データCDとスクリーン位置情報とに基づいて、複数の画像データDのうち一つである第1画像データを生成することと、を実行する。 In the image display system 1, the plurality of screens 15 includes a first screen, and the control device 5 accepts screen position information indicating the position of the first screen, and based on the number of data sets, the three-dimensional shape data O Determining the position to cut out, generating cross-sectional shape data CD corresponding to the position, and based on the cross-sectional shape data CD corresponding to the position and screen position information, one of the plurality of image data D Generating some first image data.

上記構成によれば、3次元形状データOの断面を切り出して生成される複数の画像データDが、複数のプロジェクター10によって、透光性を有する複数のスクリーン15に表示される。これにより、3次元形状データOの断面を示す複数の画像によって、3次元形状データOの形状を再現した表示を行うことができる。スクリーン15が有する透光性によって、ユーザーUは、複数のプロジェクター10が表示する複数の画像を同時に視認することができる。従って、3次元形状データOに基づいて立体感に富む画像の表示を行うことができる。 According to the above configuration, a plurality of image data D generated by cutting out a cross section of the three-dimensional shape data O are displayed on a plurality of translucent screens 15 by a plurality of projectors 10 . As a result, a plurality of images representing cross sections of the three-dimensional shape data O can be used to reproduce the shape of the three-dimensional shape data O. FIG. The translucency of the screen 15 allows the user U to simultaneously view multiple images displayed by the multiple projectors 10 . Therefore, based on the three-dimensional shape data O, an image rich in stereoscopic effect can be displayed.

上記構成において、制御装置5は、複数のスクリーン15の位置を示すスクリーン位置情報を受け付ける。断面データ生成部32は、データセット数情報が示すデータセット数に基づいて、3次元形状データOの切り出しを行う断面の位置を決定する。断面データ生成部32は、決定した位置の断面形状データCDを生成し、画像データ生成部34は、断面の位置とスクリーン位置情報とに基づいて、画像データDを生成する。 In the above configuration, the control device 5 receives screen position information indicating the positions of the multiple screens 15 . The cross-sectional data generation unit 32 determines the position of the cross-section from which the three-dimensional shape data O is extracted based on the number of data sets indicated by the number-of-data-sets information. The cross-sectional data generator 32 generates cross-sectional shape data CD of the determined position, and the image data generator 34 generates image data D based on the position of the cross-section and the screen position information.

これにより、3次元形状データOの複数の位置で、3次元形状データOの断面を示す断面形状データCDが生成されるので、3次元形状データOを良好に再現する、立体的な表示を実現できる。 As a result, the cross-sectional shape data CD representing the cross-section of the three-dimensional shape data O is generated at a plurality of positions of the three-dimensional shape data O, so that a three-dimensional display that reproduces the three-dimensional shape data O well is realized. can.

画面表示システムが含む制御装置5は、データセット数と、スクリーン15の数とが一致する場合、スクリーン位置情報に基づき位置を決定する。この場合、スクリーン15の数に適した画像データDが生成される。このため、画像データDに基づいてプロジェクター10が表示を行うことによって、立体的な表示を実現できる。 The controller 5 included in the screen display system determines the position based on the screen position information when the number of data sets and the number of screens 15 match. In this case, image data D suitable for the number of screens 15 is generated. Therefore, when the projector 10 performs display based on the image data D, stereoscopic display can be realized.

制御装置5は、データセット数と、スクリーン15の数とが一致しない場合、データセット数に対応する断面を3次元形状データO上に等間隔に配置することによって位置を決定する。この場合、スクリーン15の数に依存せずに断面形状データCDを生成する処理を行うことができ、スクリーン15の数の変更等に対応可能である。 If the number of data sets and the number of screens 15 do not match, the control device 5 determines the positions by arranging cross sections corresponding to the number of data sets on the three-dimensional shape data O at regular intervals. In this case, the process of generating the cross-sectional shape data CD can be performed without depending on the number of screens 15, and the number of screens 15 can be changed.

[2.第2実施形態]
[2-1.画像表示システムの構成]
図5は、第2実施形態に係る画像表示システム1Aの概略構成を示す図である。
画像表示システム1Aは、第1実施形態で説明した画像表示システム1において、制御装置5の代わりに制御装置5Aを備えた構成である。また、図5には、説明の便宜のため、3つのプロジェクター10A、10B、10Cを備え、3つのスクリーン15A、15B、15Cに画像を投写する画像表示システム1Aの構成を例示する。画像表示システム1Aが備えるプロジェクター10の数およびスクリーン15の数は制限されない。第2実施形態において、第1実施形態と共通する構成には同符号を付して説明を省略する。
[2. Second Embodiment]
[2-1. Configuration of image display system]
FIG. 5 is a diagram showing a schematic configuration of an image display system 1A according to the second embodiment.
The image display system 1A has a configuration including a control device 5A instead of the control device 5 in the image display system 1 described in the first embodiment. For convenience of explanation, FIG. 5 also illustrates the configuration of an image display system 1A that includes three projectors 10A, 10B, and 10C and projects images onto three screens 15A, 15B, and 15C. The number of projectors 10 and the number of screens 15 included in the image display system 1A are not limited. In 2nd Embodiment, the same code|symbol is attached|subjected to the structure which is common in 1st Embodiment, and description is abbreviate|omitted.

画像表示システム1Aは、スクリーン15に対するユーザーUによる操作を検出する。ユーザーUは、指や棒状の指示デバイス等の指示体UDを利用して、スクリーン15に対する操作を行う。例えば、ユーザーUは、指示体UDをスクリーン15に接触させて、指示体を移動させる操作を行う。 The image display system 1A detects an operation by the user U on the screen 15. FIG. The user U operates the screen 15 using an indicator UD such as a finger or a stick-shaped pointing device. For example, the user U brings the indicator UD into contact with the screen 15 and performs an operation of moving the indicator.

検出装置60は、指示体UDの位置を検出する装置である。以下では指示体UDの先端の位置を、指示体UDの位置と呼ぶ。検出装置60が指示体UDの位置を検出可能な検出範囲は、スクリーン15の設置空間を含み、少なくとも複数のスクリーン15を含む範囲である。 The detection device 60 is a device that detects the position of the pointer UD. The position of the tip of the indicator UD is hereinafter referred to as the position of the indicator UD. A detection range in which the detection device 60 can detect the position of the pointer UD is a range that includes the installation space of the screens 15 and includes at least a plurality of screens 15 .

検出装置60は、例えば、可視光を撮影するカメラである。この場合、検出装置60は、撮影画像を解析して指示体UDの像を抽出することによって、指示体UDの先端の位置を検出する。検出装置60の検出範囲は、検出装置60を構成するカメラの撮影範囲、すなわち画角である。この構成において、検出装置60は、撮影範囲が異なる複数のカメラを備えてもよい。例えば、検出装置60は、画像表示システム1Aが備える複数のスクリーン15のそれぞれに対応するカメラを備えてもよい。 The detection device 60 is, for example, a camera that captures visible light. In this case, the detection device 60 detects the position of the tip of the pointer UD by analyzing the captured image and extracting the image of the pointer UD. The detection range of the detection device 60 is the imaging range of the camera that constitutes the detection device 60, that is, the angle of view. In this configuration, the detection device 60 may include multiple cameras with different imaging ranges. For example, the detection device 60 may include cameras corresponding to each of the multiple screens 15 included in the image display system 1A.

検出装置60は、赤外光や紫外光など可視領域外の光を撮影するカメラであってもよい。この構成は、プロジェクター10の投写光が指示体UDの検出に影響しにくい点で有利である。この場合、指示体UDは、その先端から、検出装置60が検出可能な波長域の光を発する光源を備える装置が挙げられる。また、指示体UDとしてユーザーUの指を使用する場合、不図示の光照射装置によって検出装置60が検出可能な波長域の検出光を検出範囲に照射し、検出光が指示体UDに反射した反射光を検出装置60が検出する構成が挙げられる。この構成において、検出装置60は、複数の光照射装置を備えてもよい。また、検出装置60は、撮影範囲が異なる複数のカメラを備えてもよい。例えば、検出装置60は、画像表示システム1Aが備える複数のスクリーン15のそれぞれに対応する光照射装置とカメラとを備えてもよい。 The detection device 60 may be a camera that captures light outside the visible range, such as infrared light and ultraviolet light. This configuration is advantageous in that the projection light of the projector 10 hardly affects the detection of the pointer UD. In this case, the pointer UD may be a device that includes a light source that emits light in a wavelength range that can be detected by the detection device 60 from its tip. When the finger of the user U is used as the indicator UD, a light irradiation device (not shown) irradiates the detection range with detection light in a wavelength range detectable by the detection device 60, and the detection light is reflected by the indicator UD. A configuration in which the detection device 60 detects the reflected light may be used. In this configuration, the detection device 60 may comprise a plurality of light irradiation devices. Moreover, the detection device 60 may include a plurality of cameras with different imaging ranges. For example, the detection device 60 may include a light irradiation device and a camera corresponding to each of the plurality of screens 15 included in the image display system 1A.

また、検出装置60は、スクリーン15に対する指示体UDの接触を検出する感圧式または静電容量式の接触センサーを備え、スクリーン15における指示体UDの接触位置を検出する構成であってもよい。この場合、検出装置60は、画像表示システム1Aが備える複数のスクリーン15のそれぞれに配置されるセンサーを含む。 Further, the detection device 60 may include a pressure-sensitive or capacitive contact sensor that detects contact of the indicator UD with the screen 15 and may be configured to detect the contact position of the indicator UD on the screen 15 . In this case, the detection device 60 includes sensors arranged on each of the plurality of screens 15 included in the image display system 1A.

検出装置60は、例えば、指示体UDのX座標、Y座標、及びZ座標を検出する。検出装置60は、予め設定されたサンプリング周期で指示体UDの位置を検出する構成とすることができる。この場合、画像表示システム1Aは、検出装置60が検出した指示体UDの位置の軌跡を得ることができる。例えば、図5に示すようにユーザーUが指示体UDをスクリーン15Aに沿って動かした場合、画像表示システム1Aは、スクリーン15Aの表面における指示体UDの軌跡Qを検出する。 The detection device 60 detects, for example, the X-coordinate, Y-coordinate, and Z-coordinate of the pointer UD. The detection device 60 can be configured to detect the position of the pointer UD at a preset sampling period. In this case, the image display system 1A can obtain the trajectory of the position of the pointer UD detected by the detection device 60 . For example, when the user U moves the indicator UD along the screen 15A as shown in FIG. 5, the image display system 1A detects the trajectory Q of the indicator UD on the surface of the screen 15A.

[2-2.制御装置の構成]
図6は、第2実施形態の制御装置5Aの構成図である。
制御装置5Aの構成においては、上述のように、第1実施形態で説明した制御装置5と共通する構成については同符号を付して説明を省略する。
[2-2. Configuration of control device]
FIG. 6 is a configuration diagram of the control device 5A of the second embodiment.
In the configuration of the control device 5A, as described above, the same reference numerals are given to the configurations common to the control device 5 described in the first embodiment, and the description thereof is omitted.

制御装置5Aは、接続部66を備える。接続部66は、検出装置60に接続されるインターフェイスである。接続部66は、例えば、LANインターフェイス、無線通信インターフェイス等の通信インターフェイス、或いは、USBインターフェイス等のデバイス接続用インターフェイスである。 5 A of control apparatuses are provided with the connection part 66. FIG. The connection unit 66 is an interface connected to the detection device 60 . The connection unit 66 is, for example, a communication interface such as a LAN interface or a wireless communication interface, or a device connection interface such as a USB interface.

制御装置5Aは、判定部62、及び、演算部64を備える。判定部62及び演算部64は、CPU25が制御プログラムを実行することによって、ハードウェアとソフトウェアとの協働により実現される。 The control device 5A has a determination section 62 and a calculation section 64 . The determination unit 62 and the calculation unit 64 are implemented by cooperation of hardware and software when the CPU 25 executes the control program.

判定部62は、検出装置60が検出する指示体UDの位置を取得する。判定部62は、指示体UDの位置に基づき、指示体UDの操作の対象となったスクリーン15を判定する。例えば、判定部62は、検出装置60が検出した指示体UDの位置の座標と、スクリーン15A、15B、15CのY座標とを比較することにより、判定を行う。図5の構成例において、判定部62は、指示体UDの操作の対象がスクリーン15A、15B、15Cのいずれであるかを判定する。 The determination unit 62 acquires the position of the pointer UD detected by the detection device 60 . The determination unit 62 determines the screen 15 operated by the pointer UD based on the position of the pointer UD. For example, the determination unit 62 performs determination by comparing the coordinates of the position of the pointer UD detected by the detection device 60 and the Y coordinates of the screens 15A, 15B, and 15C. In the configuration example of FIG. 5, the determination unit 62 determines which one of the screens 15A, 15B, and 15C is the operation target of the pointer UD.

演算部64は、検出装置60が検出した指示体UDの位置を、プロジェクター10の投写画像に反映させる処理を行う。演算部64は、判定部62が判定したスクリーン15に画像20を投写するプロジェクター10を特定する。演算部64は、特定したプロジェクター10が投写する投写画像に、指示体UDによる操作を反映する。例えば、演算部64は、検出装置60が検出した指示体UDの位置の軌跡Qに基づき、表示オブジェクトを生成し、生成した表示オブジェクトをプロジェクター10によって画像20とともに表示させる。 The calculation unit 64 performs processing for reflecting the position of the pointer UD detected by the detection device 60 in the projection image of the projector 10 . The calculation unit 64 identifies the projector 10 that projects the image 20 on the screen 15 determined by the determination unit 62 . The calculation unit 64 reflects the operation by the pointer UD on the projection image projected by the specified projector 10 . For example, the calculation unit 64 generates a display object based on the trajectory Q of the position of the pointer UD detected by the detection device 60 and causes the projector 10 to display the generated display object together with the image 20 .

図5に示すようにユーザーUが指示体UDによって、スクリーン15Aに、軌跡Qを描く操作を行う例を想定する。この例において、検出装置60は、軌跡Qを描く指示体UDの位置を検出し、接続部66に出力する。判定部62は、指示体UDを利用した操作の対象がスクリーン15Aであると判定する。演算部64は、接続部66が出力する指示体UDの位置に基づいて軌跡Qを生成する。演算部64は、軌跡Qを示す線分を生成する処理、或いは、軌跡Qを文字に置き換える処理を行い、画像または文字を含む表示オブジェクトを生成する。演算部64は、操作の対象であるスクリーン15Aに画像20を投写するプロジェクター10が、プロジェクター10Aであることを特定する。演算部64は、プロジェクター10Aに対し、画像20Aとともに表示オブジェクトを表示させる。具体的には、演算部64は、プロジェクター10Aに対応する画像データD1に、軌跡Qに基づき生成した表示オブジェクトの画像データを合成し、合成後の画像データD1を送信部55によってプロジェクター10Aに送信させる。 As shown in FIG. 5, an example is assumed in which the user U draws a trajectory Q on the screen 15A using the pointer UD. In this example, the detection device 60 detects the position of the pointer UD that draws the trajectory Q, and outputs the position to the connection unit 66 . The determination unit 62 determines that the target of the operation using the pointer UD is the screen 15A. The calculation unit 64 generates the trajectory Q based on the position of the pointer UD output by the connection unit 66 . The calculation unit 64 performs a process of generating a line segment indicating the trajectory Q or a process of replacing the trajectory Q with characters, thereby generating a display object including an image or characters. The computing unit 64 identifies that the projector 10 that projects the image 20 onto the screen 15A that is the operation target is the projector 10A. The calculation unit 64 causes the projector 10A to display the display object together with the image 20A. Specifically, the calculation unit 64 combines the image data D1 corresponding to the projector 10A with the image data of the display object generated based on the trajectory Q, and the transmission unit 55 transmits the combined image data D1 to the projector 10A. Let

[2-3.画像表示システムの動作]
図7は、画像表示システム1Aの動作を示すフローチャートである。図7に示す動作において、ステップS1~S6は、図4を参照して説明した動作と共通であるため、ここでは説明を省略する。
[2-3. Operation of Image Display System]
FIG. 7 is a flow chart showing the operation of the image display system 1A. In the operation shown in FIG. 7, steps S1 to S6 are common to the operation explained with reference to FIG. 4, so the explanation is omitted here.

ステップS11において、検出装置60は、ユーザーUが指示体UDを用いて行う操作を検出する。具体的には、検出装置60は、指示体UDの位置を検出する。
次に、ステップS12において、判定部62は、検出装置60が検出した操作の対象となっているスクリーン15を判定する。ステップS13において、演算部64は、判定部62が判定したスクリーン15に対応する画像データDに、検出装置60が検出した操作を反映させ、画像データDを更新する。例えば、演算部64は、上述したように表示オブジェクトを生成して、画像データDに表示オブジェクトを含ませる。また、例えば、演算部64は、検出装置60が検出した操作に基づいて画像20を変形させるように画像データDを編集する処理を行ってもよい。
In step S11, the detection device 60 detects an operation performed by the user U using the indicator UD. Specifically, the detection device 60 detects the position of the pointer UD.
Next, in step S<b>12 , the determination unit 62 determines the screen 15 that is the operation target detected by the detection device 60 . In step S<b>13 , the calculation unit 64 updates the image data D by reflecting the operation detected by the detection device 60 in the image data D corresponding to the screen 15 determined by the determination unit 62 . For example, the calculation unit 64 generates the display object as described above and causes the image data D to include the display object. Further, for example, the calculation unit 64 may edit the image data D so as to deform the image 20 based on the operation detected by the detection device 60 .

ステップS14において、演算部64は、更新後の画像データDを、判定部62が判定したスクリーン15に対応するプロジェクター10に、送信部55から送信させる。ステップS15において、プロジェクター10は、更新後の画像データDに基づく画像をスクリーン15に投写する。 In step S<b>14 , the calculation unit 64 causes the transmission unit 55 to transmit the updated image data D to the projector 10 corresponding to the screen 15 determined by the determination unit 62 . In step S<b>15 , the projector 10 projects an image based on the updated image data D onto the screen 15 .

[2-4.第2実施形態の作用]
第2実施形態で説明した画像表示システム1Aによれば、画像表示システム1と同様の作用を得ることができる。
さらに、画像表示システム1Aは、スクリーン15に対するユーザーの操作を検出する検出装置60を備える。制御装置5Aは、操作に基づいて画像データを変更する演算部64と、複数のスクリーン15のうち操作が行われたスクリーン15を判定する判定部62と、を有する。画像表示システム1Aは、複数のスクリーン15として第1スクリーン及び第2スクリーンを含む。
画像表示システム1Aは、複数のスクリーン15が第2スクリーンを含み、複数のスクリーン15の各々に対応し、複数のスクリーン15の各々に対するユーザーUの操作を検出する複数の検出装置60をさらに備え、制御装置5は、操作が第1スクリーンに対する操作であると判定した場合に、操作に基づいて第1画像データを生成することと、操作が第2スクリーンに対する操作であると判定した場合に、操作に基づいて複数の画像データDのうち一つである第2画像データを生成することと、を含む。
[2-4. Operation of Second Embodiment]
According to the image display system 1A described in the second embodiment, effects similar to those of the image display system 1 can be obtained.
Further, the image display system 1A includes a detection device 60 that detects user's operation on the screen 15 . The control device 5A has a calculation unit 64 that changes image data based on an operation, and a determination unit 62 that determines the screen 15 on which an operation has been performed among the plurality of screens 15 . The image display system 1A includes a first screen and a second screen as multiple screens 15 .
The image display system 1A includes a plurality of screens 15 including a second screen, corresponding to each of the plurality of screens 15, and further comprising a plurality of detection devices 60 for detecting user U's operation on each of the plurality of screens 15, The control device 5 generates the first image data based on the operation when it is determined that the operation is for the first screen, and performs the operation when it is determined that the operation is for the second screen. generating second image data, which is one of the plurality of image data D based on.

この構成によれば、複数のスクリーン15によって立体的な表示を実現し、この表示に対するユーザーUの操作を表示画像に反映させることができる。このため、ユーザーUに対し、インタラクティブな新奇の映像体験を提供できる。 According to this configuration, a stereoscopic display can be realized by a plurality of screens 15, and the operation of the user U on this display can be reflected in the displayed image. Therefore, the user U can be provided with a novel interactive video experience.

[3.他の実施形態]
上記各実施形態は本発明を適用した一具体例を示すものであり、本発明はこれに限定されるものではない。
[3. Other embodiments]
Each of the above embodiments shows a specific example to which the present invention is applied, and the present invention is not limited to this.

例えば、上記各実施形態において、画像20A~20Eの画像の輝度を異ならせてもよい。具体的な例として、ユーザーUがスクリーン15Aとスクリーン15Bの間に居て、画像表示システム1、1Aによる投写画像を視認する場合を想定する。この場合に、スクリーン15Cに投写される画像20Cの輝度が、画像20A、20B、20D、20Eよりも明るくなるように、制御装置5によって各プロジェクター10を制御してもよい。この想定によれば、ユーザーUは、画像20Cを、スクリーン15Bを透過して視認するので、画像20A、20Bに比べて画像20Cが暗いと感じる可能性がある。この場合に、画像20Cの輝度を明るくすることによって、ユーザーUが感じる明るさの違いを軽減することができ、より没入感の強い映像体験を提供できる。この構成は、例えば、スクリーン15に対するユーザーUの位置を検出する装置を、画像表示システム1、1Aに設けることで、より容易に実現可能である。この種の装置としては、例えば、可視光カメラや赤外光カメラによってユーザーUを検出する装置が挙げられる。 For example, in each of the above embodiments, the brightness of the images 20A to 20E may be different. As a specific example, it is assumed that the user U is between the screens 15A and 15B and visually recognizes images projected by the image display systems 1 and 1A. In this case, the controller 5 may control each projector 10 so that the image 20C projected onto the screen 15C is brighter than the images 20A, 20B, 20D, and 20E. According to this assumption, the user U sees the image 20C through the screen 15B, and thus may feel that the image 20C is darker than the images 20A and 20B. In this case, by brightening the luminance of the image 20C, it is possible to reduce the difference in brightness perceived by the user U, thereby providing a more immersive video experience. This configuration can be more easily realized by providing the image display systems 1 and 1A with a device that detects the position of the user U with respect to the screen 15, for example. This type of device includes, for example, a device that detects the user U using a visible light camera or an infrared light camera.

また、上記各実施形態において、断面P1~断面P5は互いに平行でなくてもよい。また、隣接する断面Pの間の距離が均等でなくてもよい。 Further, in each of the above embodiments, the cross sections P1 to P5 do not have to be parallel to each other. Also, the distances between adjacent cross sections P may not be uniform.

また、図2及び図6に示した各機能部は、機能的構成を示すものであって、具体的な実装形態を制限しない。例えば、制御装置5、5Aにおいて、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記各実施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、或いは、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。その他、画像表示システム1、1Aの他の各部の具体的な細部構成についても、趣旨を逸脱しない範囲で任意に変更可能である。 Moreover, each functional unit shown in FIGS. 2 and 6 shows a functional configuration, and does not limit a specific implementation form. For example, in the control devices 5 and 5A, it is not necessary to implement hardware corresponding to each functional unit individually, and the configuration is such that one processor executes a program to realize the functions of a plurality of functional units. Of course, it is also possible. Further, part of the functions realized by software in each of the above embodiments may be realized by hardware, or part of the functions realized by hardware may be realized by software. In addition, the specific detailed configurations of other parts of the image display systems 1 and 1A can be arbitrarily changed without departing from the scope.

また、例えば、図4、及び図7に示す動作のステップ単位は、画像表示システム1、1Aの動作の理解を容易にするために、主な処理内容に応じて分割したものであり、処理単位の分割の仕方や名称によって、本開示が限定されることはない。処理内容に応じて、多くのステップ単位に分割してもよい。また、1つのステップ単位が多くの処理を含むように分割してもよい。また、そのステップの順番は、本開示の趣旨に支障のない範囲で適宜に入れ替えてもよい。 Further, for example, the step units of the operations shown in FIGS. 4 and 7 are divided according to the main processing contents in order to facilitate understanding of the operations of the image display systems 1 and 1A. The present disclosure is not limited by the division method or names of the . It may be divided into many steps depending on the processing contents. Also, one step unit may be divided so as to include many processes. Also, the order of the steps may be changed as appropriate within the scope of the present disclosure.

1、1A…画像表示システム、5、5A…制御装置、10A~10E…プロジェクター、15A~15E…スクリーン、20A~20E…画像、25…CPU、30…受付部、32…断面データ生成部、34…画像データ生成部、36…送信制御部、38…RAM、40…ROM、42…記憶部、44…3次元形状データ記憶領域、46…データセット数情報記憶領域、48…位置情報記憶領域、50…断面形状データ記憶領域、52…画像データ記憶領域、53…入力部、55…送信部、56…バス、60…検出装置、62…判定部、64…演算部、66…接続部、CD…断面形状データ、D…画像データ、P…断面、UD…指示体。 Reference Signs List 1, 1A... Image display system, 5, 5A... Control device, 10A to 10E... Projector, 15A to 15E... Screen, 20A to 20E... Image, 25... CPU, 30... Reception unit, 32... Cross-sectional data generation unit, 34 ... image data generation section 36 ... transmission control section 38 ... RAM 40 ... ROM 42 ... storage section 44 ... three-dimensional shape data storage area 46 ... data set number information storage area 48 ... position information storage area 50... Cross-sectional shape data storage area, 52... Image data storage area, 53... Input unit, 55... Transmission unit, 56... Bus, 60... Detection device, 62... Judgment unit, 64... Operation unit, 66... Connection unit, CD : cross-sectional shape data, D: image data, P: cross section, UD: indicator.

Claims (7)

透光性を有する複数のスクリーンと、
前記複数のスクリーンの各々に画像を投写する複数のプロジェクターと、
前記複数のプロジェクターの各々に接続され、複数の画像データを前記複数のプロジェクターの各々に送信する制御装置と、
を備え、
前記制御装置は、
3次元形状データと、前記3次元形状データから複数の断面形状データを生成する処理におけるデータセット数と、を受け付けることと、
前記データセット数に基づいて、前記3次元形状データから前記複数の断面形状データを生成することと、
前記複数の断面形状データに基づいて前記複数の画像データを生成することと、
前記複数の画像データを前記複数のプロジェクターの各々に送信することと、
を実行する、画像表示システム。
a plurality of translucent screens;
a plurality of projectors that project images onto each of the plurality of screens;
a control device connected to each of the plurality of projectors and configured to transmit a plurality of image data to each of the plurality of projectors;
with
The control device is
receiving three-dimensional shape data and the number of data sets in a process of generating a plurality of cross-sectional shape data from the three-dimensional shape data;
generating the plurality of cross-sectional shape data from the three-dimensional shape data based on the number of data sets;
generating the plurality of image data based on the plurality of cross-sectional shape data;
transmitting the plurality of image data to each of the plurality of projectors;
image display system.
前記複数のスクリーンは第1スクリーンを含み、
前記制御装置は、前記第1スクリーンの位置を示すスクリーン位置情報を受け付けることと、
前記データセット数に基づいて、前記3次元形状データ上の切り出しを行う位置を決定し、前記位置に対応する断面形状データを生成することと、
前記位置に対応する断面形状データと前記スクリーン位置情報とに基づいて、前記複数の画像データのうち一つである第1画像データを生成することと、を実行する請求項1記載の画像表示システム。
the plurality of screens includes a first screen;
The control device receives screen position information indicating the position of the first screen;
Determining a position for clipping on the three-dimensional shape data based on the number of data sets, and generating cross-sectional shape data corresponding to the position;
2. The image display system according to claim 1, wherein first image data, which is one of the plurality of image data, is generated based on the cross-sectional shape data corresponding to the position and the screen position information. .
前記制御装置は、前記データセット数と、前記スクリーンの数とが一致する場合、前記スクリーン位置情報に基づき前記位置を決定する、請求項2に記載の画像表示システム。 3. The image display system of claim 2, wherein the controller determines the position based on the screen position information when the number of data sets and the number of screens match. 前記制御装置は、前記データセット数と、前記スクリーンの数とが一致しない場合、データセット数に対応する断面を前記3次元形状データ上に等間隔に配置することによって前記位置を決定する、請求項2に記載の画像表示システム。 wherein, when the number of data sets and the number of screens do not match, the control device determines the positions by arranging cross sections corresponding to the number of data sets at equal intervals on the three-dimensional shape data. Item 3. The image display system according to item 2. 前記複数のスクリーンは第2スクリーンを含み、
前記複数のスクリーンの各々に対応し、前記複数のスクリーンの各々に対するユーザーの操作を検出する複数の検出装置をさらに備え、
前記制御装置は、

前記操作が前記第1スクリーンに対する操作であると判定した場合に、前記操作に基づいて前記第1画像データを生成することと、
前記操作が前記第2スクリーンに対する操作であると判定した場合に、前記操作に基づいて前記複数の画像データのうち一つである第2画像データを生成することと、を含む請求項2に記載の画像表示システム。
the plurality of screens includes a second screen;
Further comprising a plurality of detection devices corresponding to each of the plurality of screens and detecting a user operation on each of the plurality of screens,
The control device is

generating the first image data based on the operation when determining that the operation is an operation on the first screen;
3. The method according to claim 2, comprising generating second image data, which is one of the plurality of image data, based on the operation when determining that the operation is an operation on the second screen. image display system.
3次元形状データから断面形状データを生成する処理におけるデータセット数を受け付けることと、
前記データセット数に基づいて、前記3次元形状データから複数の前記断面形状データを生成することと、
複数の前記断面形状データに基づいて、複数の画像データを生成することと、
複数の前記画像データを、透光性を有するスクリーンに画像を投写する複数のプロジェクターに送信することと、
を含む、制御装置。
Receiving the number of data sets in the process of generating cross-sectional shape data from three-dimensional shape data;
generating a plurality of pieces of cross-sectional shape data from the three-dimensional shape data based on the number of data sets;
generating a plurality of image data based on the plurality of cross-sectional shape data;
transmitting a plurality of the image data to a plurality of projectors that project images onto a translucent screen;
a controller, including
3次元形状データから断面形状データを生成する処理におけるデータセット数を受け付けることと、
前記データセット数に基づいて、前記3次元形状データから複数の前記断面形状データを生成することと、
複数の前記断面形状データに基づいて、複数の画像データを生成することと、
複数の前記画像データを、透光性を有するスクリーンに画像を投写するプロジェクターに送信することと、
を含む、データ処理方法。
Receiving the number of data sets in the process of generating cross-sectional shape data from three-dimensional shape data;
generating a plurality of pieces of cross-sectional shape data from the three-dimensional shape data based on the number of data sets;
generating a plurality of image data based on the plurality of cross-sectional shape data;
transmitting the plurality of image data to a projector that projects an image onto a translucent screen;
data processing methods, including
JP2021130810A 2021-08-10 2021-08-10 Image display system, control unit, and data processing method Pending JP2023025515A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021130810A JP2023025515A (en) 2021-08-10 2021-08-10 Image display system, control unit, and data processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021130810A JP2023025515A (en) 2021-08-10 2021-08-10 Image display system, control unit, and data processing method

Publications (1)

Publication Number Publication Date
JP2023025515A true JP2023025515A (en) 2023-02-22

Family

ID=85251530

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021130810A Pending JP2023025515A (en) 2021-08-10 2021-08-10 Image display system, control unit, and data processing method

Country Status (1)

Country Link
JP (1) JP2023025515A (en)

Similar Documents

Publication Publication Date Title
EP2996017B1 (en) Method, apparatus and computer program for displaying an image of a physical keyboard on a head mountable display
US10007351B2 (en) Three-dimensional user interface device and three-dimensional operation processing method
US20160357491A1 (en) Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system
US8929628B2 (en) Measuring device and measuring method
EP2458486A1 (en) Information processing device, information processing method, and program
US9268410B2 (en) Image processing device, image processing method, and program
US9501810B2 (en) Creating a virtual environment for touchless interaction
US20070216642A1 (en) System For 3D Rendering Applications Using Hands
US8441480B2 (en) Information processing apparatus, information processing system, and computer readable medium
CN111344663B (en) Rendering device and rendering method
CN110326292B (en) Image display device, image display method, and storage medium
US20170229102A1 (en) Techniques for descriptor overlay superimposed on an asset
KR100736040B1 (en) Method and apparatus for displaying movement of input device in OSD area
EP2702464B1 (en) Laser diode modes
CN108038916B (en) Augmented reality display method
US10591986B2 (en) Remote work supporting system, remote work supporting method, and program
US20160321968A1 (en) Information processing method and electronic device
CN113672078A (en) Information presentation system, information presentation method, and computer-readable medium
WO2014061310A1 (en) Display object control system, display object control method, and program
JP2023025515A (en) Image display system, control unit, and data processing method
CN107133028B (en) Information processing method and electronic equipment
JP5175794B2 (en) Information processing apparatus, information processing method, and program
CN108255317B (en) Cursor control method and device
US20210027750A1 (en) Display apparatus, display system, and display method
KR101075420B1 (en) Tabletop interface apparatus, collaboration control apparatus, tabletop interface based collaboration system and its method