JP2010087548A - Information processor and program - Google Patents

Information processor and program Download PDF

Info

Publication number
JP2010087548A
JP2010087548A JP2008250947A JP2008250947A JP2010087548A JP 2010087548 A JP2010087548 A JP 2010087548A JP 2008250947 A JP2008250947 A JP 2008250947A JP 2008250947 A JP2008250947 A JP 2008250947A JP 2010087548 A JP2010087548 A JP 2010087548A
Authority
JP
Japan
Prior art keywords
image
information
image forming
image data
window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008250947A
Other languages
Japanese (ja)
Other versions
JP5181980B2 (en
Inventor
Yuji Teraoka
祐次 寺岡
Hidehiko Kawanishi
秀彦 河西
Shinichi Kagaya
真一 加賀谷
Yuichiro Kondo
雄一郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2008250947A priority Critical patent/JP5181980B2/en
Publication of JP2010087548A publication Critical patent/JP2010087548A/en
Application granted granted Critical
Publication of JP5181980B2 publication Critical patent/JP5181980B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • Projection Apparatus (AREA)
  • Image Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To change an interior of a room at lower costs. <P>SOLUTION: An information processor includes: a device information acquisition means for acquiring device information for identifying an image-forming device and an external device corresponding to the image-forming device; an image acquisition means for acquiring image data that indicate images and include parameters for controlling the external device; an image processing means for processing the image data acquired by the image acquisition means according to the device information; an image output means for outputting the image data processed by the image processing means to the image-forming device identified by the device information; and a control signal output means for outputting a control signal for controlling the external device to the external device according to the parameters included in the image data acquired by the image acquisition means. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、情報処理装置およびプログラムに関する。   The present invention relates to an information processing apparatus and a program.

レストランのような飲食店やパチンコ店のような遊技場において、内装の改装は新たな顧客を吸引する効果がある。しかし一方で改装にはコストがかかるという問題があった。そこで、改装する代わりに壁にかける絵を変更することが行われている。
ここで、例えば特許文献1には、3次元仮想空間内で任意の画像を抽出するシステムが、特許文献2には、スクリーンに全体画像を投影する際に複数の部分画像に分けて投影する技術が開示されている。
In restaurants such as restaurants and amusement halls such as pachinko parlors, interior refurbishment has the effect of attracting new customers. However, on the other hand, there was a problem that the renovation was expensive. Therefore, instead of refurbishing, the painting on the wall is changed.
Here, for example, Patent Document 1 discloses a system for extracting an arbitrary image in a three-dimensional virtual space, and Patent Document 2 discloses a technique for projecting an entire image on a screen by dividing it into a plurality of partial images. Is disclosed.

特開平9−212686号公報JP-A-9-212686 特開2004−349984号公報JP 2004-349984 A

特許文献1および2に記載された技術によっても、店舗等の部屋の内観を変更することはできなかった。
これに対し本発明は、より低コストで部屋の内観を変更する技術を提供する。
Even with the techniques described in Patent Documents 1 and 2, the inside view of a room such as a store cannot be changed.
In contrast, the present invention provides a technique for changing the interior of a room at a lower cost.

本発明は、画像形成装置と、前記画像形成装置に対応する外部装置とを特定する装置情報を取得する装置情報取得手段と、画像を示し、前記外部装置を制御するパラメータを含む画像データを取得する画像取得手段と、前記画像取得手段により取得された画像データを、前記装置情報に応じて加工をする画像加工手段と、前記画像加工手段により加工された画像データを、前記装置情報により特定される画像形成装置に出力する画像出力手段と、前記画像取得手段により取得された画像データに含まれるパラメータに応じて、前記外部装置を制御する制御信号を前記外部装置に出力する制御信号出力手段とを有する情報処理装置を提供する。
この情報処理装置によれば、画像形成装置により形成される画像と同期して、室内の状態を変化させる外部装置が制御される。
The present invention acquires apparatus information acquisition means for acquiring apparatus information for specifying an image forming apparatus and an external apparatus corresponding to the image forming apparatus, and acquires image data indicating parameters and parameters for controlling the external apparatus The image acquisition means, the image processing means for processing the image data acquired by the image acquisition means in accordance with the device information, and the image data processed by the image processing means are specified by the device information. Image output means for outputting to the image forming apparatus, and control signal output means for outputting a control signal for controlling the external apparatus to the external apparatus in accordance with parameters included in the image data obtained by the image obtaining means. An information processing apparatus having
According to this information processing apparatus, the external apparatus that changes the indoor state is controlled in synchronization with the image formed by the image forming apparatus.

好ましい態様において、前記情報処理装置は、1つのスクリーンとn個(n≧1)の画像形成装置とを対応させる対応情報を取得する対応情報取得手段を有し、前記装置情報が、前記1つのスクリーンと前記n個の画像形成装置との位置関係を示す位置情報を含み、前記加工手段は、前記加工として、前記画像のうちそれぞれ前記位置情報に対応した部分を含むn個の画像データを生成し、前記画像出力手段は、前記生成されたn個の画像データをそれぞれ対応する画像形成装置に出力してもよい。
この情報処理装置によれば、n個の画像形成装置により1つのスクリーンに画像が形成される。
In a preferred aspect, the information processing apparatus includes correspondence information acquisition means for acquiring correspondence information for associating one screen with n (n ≧ 1) image forming apparatuses, and the apparatus information is the one information item. Position information indicating a positional relationship between the screen and the n image forming apparatuses is included, and the processing unit generates n image data including a portion corresponding to the position information in the image as the processing. The image output means may output the generated n pieces of image data to corresponding image forming apparatuses.
According to this information processing apparatus, an image is formed on one screen by n image forming apparatuses.

別の好ましい態様において、前記加工手段は、前記加工として、前記画像を、それぞれ前記位置情報に対応した部分を示すn個の画像データに分割してもよい。
この情報処理装置によれば、各画像形成装置は、分割された画像を形成する。
In another preferred aspect, the processing means may divide the image into n pieces of image data each indicating a portion corresponding to the position information as the processing.
According to this information processing apparatus, each image forming apparatus forms a divided image.

さらに別の好ましい態様において、前記加工手段は、前記加工として、前記スクリーンと前記画像形成装置とがなす角度に応じて前記分割された画像を変形してもよい。
この情報処理装置によれば、各画像形成装置は、スクリーンとなす角度に応じて変形された画像を形成する。
In still another preferred aspect, the processing unit may deform the divided image according to an angle formed by the screen and the image forming apparatus as the processing.
According to this information processing apparatus, each image forming apparatus forms an image deformed according to an angle formed with the screen.

さらに別の好ましい態様において、前記外部装置は、風を発生する装置であってもよい。
この情報処理装置によれば、画像形成装置により形成される画像と同期して、風が発生される。
In still another preferred embodiment, the external device may be a device that generates wind.
According to this information processing apparatus, wind is generated in synchronization with an image formed by the image forming apparatus.

また、本発明は、コンピュータ装置に、画像形成装置と、前記画像形成装置に対応する外部装置とを特定する装置情報を取得するステップと、画像を示し、前記外部装置を制御するパラメータを含む画像データを取得するステップと、前記取得された画像データを、前記装置情報に応じて加工をするステップと、前記加工された画像データを、前記装置情報により特定される画像形成装置に出力するステップと、前記取得された画像データに含まれるパラメータに応じて、前記外部装置を制御する制御信号を前記外部装置に出力するステップとを実行させるプログラムを提供する。
このプログラムによれば、画像形成装置により形成される画像と同期して、室内の状態を変化させる外部装置が制御される。
According to another aspect of the invention, there is provided a computer device for acquiring device information for identifying an image forming device and an external device corresponding to the image forming device, and an image including parameters indicating the image and controlling the external device Acquiring data, processing the acquired image data in accordance with the apparatus information, and outputting the processed image data to an image forming apparatus specified by the apparatus information; And a step of outputting a control signal for controlling the external device to the external device according to a parameter included in the acquired image data.
According to this program, an external apparatus that changes the indoor state is controlled in synchronization with an image formed by the image forming apparatus.

1.構成
図1は、本発明の一実施形態に係る画像形成システム1の構成を示すブロック図である。画像形成システム1は、いわゆるデジタルサイネージシステムである。画像形成システム1は、店舗等の所定の部屋の中に画像を形成する。画像形成システム1は、複数の画像形成装置40(画像形成装置40−1、画像形成装置40−2、画像形成装置40−3、画像形成装置40−4、画像形成装置40−5、画像形成装置40−6、画像形成装置40−7)と、複数のスクリーン50(スクリーン50−1、スクリーン50−2、スクリーン50−3)と、複数のセンサ60(センサ60−1、センサ60−2、センサ60−3)と、複数の外部装置70(外部装置70−1、外部装置70−2、外部装置70−3)と、情報処理装置10と、サーバ20とを有する。
1. Configuration FIG. 1 is a block diagram showing a configuration of an image forming system 1 according to an embodiment of the present invention. The image forming system 1 is a so-called digital signage system. The image forming system 1 forms an image in a predetermined room such as a store. The image forming system 1 includes a plurality of image forming apparatuses 40 (image forming apparatus 40-1, image forming apparatus 40-2, image forming apparatus 40-3, image forming apparatus 40-4, image forming apparatus 40-5, image forming apparatus). Device 40-6, image forming device 40-7), a plurality of screens 50 (screen 50-1, screen 50-2, screen 50-3), and a plurality of sensors 60 (sensor 60-1, sensor 60-2). , Sensor 60-3), a plurality of external devices 70 (external device 70-1, external device 70-2, external device 70-3), information processing device 10, and server 20.

画像形成装置40およびスクリーン50は、レストランの店舗等、所定の部屋の中に設置されている。n個(nは、n≧1を満たす自然数)の画像形成装置40が、1つのスクリーン50に対応している。情報処理装置10とサーバ20とは、ネットワーク30(例えばインターネット)を介して接続されている。この例で、部屋の壁に設けられた窓がスクリーン50として用いられる。   The image forming apparatus 40 and the screen 50 are installed in a predetermined room such as a restaurant store. N (n is a natural number satisfying n ≧ 1) image forming apparatuses 40 correspond to one screen 50. The information processing apparatus 10 and the server 20 are connected via a network 30 (for example, the Internet). In this example, a window provided on the wall of the room is used as the screen 50.

1−1.情報処理装置10
図2は、情報処理装置10の機能構成を示す図である。情報処理装置10は、複数の画像形成装置40を制御する、画像処理装置の一例である。装置情報取得手段11は、装置情報を取得する。「装置情報」とは、画像形成装置40と、画像形成装置40に対応する外部装置70とを特定する情報をいう。画像取得手段12は、画像を示す画像データを取得する。ここで、画像データは、外部装置70を制御するパラメータを含んでいる。加工手段13は、画像取得手段12により取得された画像データに対して、装置情報に応じた加工をする。画像出力手段14は、加工手段13により加工された画像データを、前記装置情報により特定される画像形成装置に出力する。制御信号出力手段15は、画像取得手段12により取得された画像データに含まれるパラメータに応じて、外部装置70を制御する制御信号を外部装置70に出力する。
1-1. Information processing apparatus 10
FIG. 2 is a diagram illustrating a functional configuration of the information processing apparatus 10. The information processing apparatus 10 is an example of an image processing apparatus that controls a plurality of image forming apparatuses 40. The device information acquisition unit 11 acquires device information. “Device information” refers to information that identifies the image forming device 40 and the external device 70 corresponding to the image forming device 40. The image acquisition unit 12 acquires image data indicating an image. Here, the image data includes parameters for controlling the external device 70. The processing unit 13 processes the image data acquired by the image acquisition unit 12 according to the device information. The image output unit 14 outputs the image data processed by the processing unit 13 to the image forming apparatus specified by the apparatus information. The control signal output unit 15 outputs a control signal for controlling the external device 70 to the external device 70 in accordance with the parameters included in the image data acquired by the image acquisition unit 12.

対応情報取得手段16は対応情報を取得する。「対応情報」とは、1つのスクリーン50とn個の画像形成装置40とを対応させる情報をいう。画像形成装置40は、窓の枠を通して見える位置に画像を形成する。「窓の枠を通して見える位置に画像を形成する」とは、部屋の内部から窓を見たときに、画像形成装置40により形成される画像の少なくとも一部が、窓の枠の中に形成されることをいう。この例で、装置情報は、位置情報を含んでいる。「位置情報」とは、1つのスクリーン50とn個の画像形成装置40との位置関係を示す情報をいう。加工手段13は、加工として、画像取得手段12により取得された画像データから、n個の画像データを生成する。n個の画像データはn個の画像形成装置40と1対1に対応する。各画像データは、画像のうち、対応する画像形成装置40の位置情報に対応した部分を含んでいる。より詳細には、加工手段13は、加工として、画像を、それぞれ位置情報に対応した部分を示すn個の画像を示すデータに分割する。画像出力手段14は、生成されたn個の画像データを、それぞれ対応する画像形成装置40に出力する。   Correspondence information acquisition means 16 acquires correspondence information. “Correspondence information” refers to information that associates one screen 50 with n image forming apparatuses 40. The image forming apparatus 40 forms an image at a position that can be seen through the window frame. “To form an image at a position that can be seen through the window frame” means that at least a part of the image formed by the image forming apparatus 40 is formed in the window frame when the window is viewed from the inside of the room. That means. In this example, the device information includes position information. “Position information” refers to information indicating the positional relationship between one screen 50 and n image forming apparatuses 40. The processing unit 13 generates n pieces of image data from the image data acquired by the image acquisition unit 12 as processing. The n image data corresponds to the n image forming apparatuses 40 on a one-to-one basis. Each image data includes a portion of the image corresponding to the position information of the corresponding image forming apparatus 40. More specifically, the processing unit 13 divides the image into data indicating n images each indicating a portion corresponding to the position information, as processing. The image output unit 14 outputs the generated n pieces of image data to the corresponding image forming apparatuses 40.

この例で、加工手段13は、加工として、スクリーン50と画像形成装置40とがなす角度に応じて分割された画像を変形する処理をさらに行う。外部装置70は、風を発生する装置、例えば、送風機、扇風機、エアコンなどである。記憶手段S1は、プログラムやデータを記憶する。この例で、装置情報取得手段11および対応情報取得手段16は、記憶手段S1から装置情報および対応情報を取得する。画像取得手段12は、サーバ20から画像データを取得する。   In this example, the processing unit 13 further performs a process of deforming the divided image according to the angle formed by the screen 50 and the image forming apparatus 40 as processing. The external device 70 is a device that generates wind, for example, a blower, a fan, an air conditioner, or the like. The storage means S1 stores programs and data. In this example, the device information acquisition unit 11 and the correspondence information acquisition unit 16 acquire the device information and the correspondence information from the storage unit S1. The image acquisition unit 12 acquires image data from the server 20.

また、図2には示してないが、情報処理装置10は、以下の機能を有する。画像取得手段は、あらかじめ決められた大きさおよび形状を有する仮想スクリーン上に描かれる画像(以下、「全体画像」という)を示すデータを取得する。窓情報取得手段は、窓情報を取得する。「窓情報」とは、仮想スクリーンと所定の位置関係にある部屋の壁に設けられた窓の位置および形状を特定する情報である。特定点情報取得手段は、特定点情報を取得する。「特定点情報」とは、その部屋の中に存在する特定点の位置を特定する情報である。「特定点」とは、所定の対象物を代表する点である。画像抽出手段は、画像取得手段により取得された画像に対して特定点情報により特定される特定点を光源としたときの窓における射影を示す画像を抽出する。以下、この射影を示す画像を「射影画像」という。   Although not shown in FIG. 2, the information processing apparatus 10 has the following functions. The image acquisition means acquires data indicating an image drawn on a virtual screen having a predetermined size and shape (hereinafter referred to as “whole image”). The window information acquisition unit acquires window information. “Window information” is information that specifies the position and shape of a window provided on the wall of a room that has a predetermined positional relationship with the virtual screen. The specific point information acquisition unit acquires specific point information. “Specific point information” is information for specifying the position of a specific point existing in the room. A “specific point” is a point that represents a predetermined object. The image extraction means extracts an image showing a projection in the window when a specific point specified by the specific point information is used as a light source for the image acquired by the image acquisition means. Hereinafter, an image showing this projection is referred to as a “projection image”.

この例で、特定点情報取得手段は、室内に設けられたセンサ60から特定点情報を取得する。画像抽出手段は、特定点情報により示される特定点の位置が変化すると、射影画像を抽出する。特定点情報は、特定点を基準とする向きを示す情報を含んでおり、画像抽出手段は、窓の位置が特定点およびその向きと所定の条件を満たす場合に、射影画像を抽出する。   In this example, the specific point information acquisition unit acquires specific point information from the sensor 60 provided in the room. The image extraction means extracts a projected image when the position of the specific point indicated by the specific point information changes. The specific point information includes information indicating a direction with respect to the specific point, and the image extraction unit extracts a projected image when the position of the window satisfies the specific point and its direction and a predetermined condition.

さらにこの例で、画像生成手段は、仮想スクリーン上に描かれる画像を生成する。画像抽出手段は、前記画像生成手段により生成された画像から、射影画像を抽出する。記憶手段は、システムの動作に用いられるプログラムやデータを記憶する。通信手段は、ネットワーク30を介した通信を行う。   Furthermore, in this example, the image generation means generates an image drawn on the virtual screen. The image extraction unit extracts a projected image from the image generated by the image generation unit. The storage means stores programs and data used for system operation. The communication means performs communication via the network 30.

図3は、情報処理装置10のハードウェア構成を示す図である。この例で、情報処理装置10はいわゆるパーソナルコンピュータである。CPU(Central Processing Unit)110は、情報処理装置10の構成要素を制御する制御装置である。ROM(Read Only Memory)120は、情報処理装置10の起動に必要なデータおよびプログラムを記憶する記憶装置である。RAM(Random Access Memory)130は、CPU110がプログラムを実行する際の作業領域として機能する記憶装置である。I/F(Interface)140は、種々の入出力装置や記憶装置との間でデータおよび制御信号の入出力をするインターフェースである。HDD(Hard Disk Drive)150は、各種プログラムおよびデータを記憶する記憶装置である。キーボード・マウス160は、ユーザが情報処理装置10に対して指示入力を行うのに用いられる入力装置である。ディスプレイ170は、データの内容あるいは処理の状況などを表示する出力装置である。ネットワークIF180は、ネットワーク30を介して接続された他の装置との間でデータの送受信を行うためのインターフェースである。USB(Universal Serial Bus)−IF185は、USB規格に従ったインターフェースである。バス190は、データの伝送路である。CPU110、ROM120、RAM130、およびI/F140は、バス190を介して接続されている。   FIG. 3 is a diagram illustrating a hardware configuration of the information processing apparatus 10. In this example, the information processing apparatus 10 is a so-called personal computer. A CPU (Central Processing Unit) 110 is a control device that controls components of the information processing apparatus 10. A ROM (Read Only Memory) 120 is a storage device that stores data and programs necessary for starting the information processing apparatus 10. A RAM (Random Access Memory) 130 is a storage device that functions as a work area when the CPU 110 executes a program. An I / F (Interface) 140 is an interface for inputting / outputting data and control signals to / from various input / output devices and storage devices. An HDD (Hard Disk Drive) 150 is a storage device that stores various programs and data. The keyboard / mouse 160 is an input device used by a user to input instructions to the information processing apparatus 10. The display 170 is an output device that displays data contents or processing status. The network IF 180 is an interface for transmitting and receiving data to and from other devices connected via the network 30. The USB (Universal Serial Bus) -IF 185 is an interface according to the USB standard. The bus 190 is a data transmission path. CPU 110, ROM 120, RAM 130, and I / F 140 are connected via a bus 190.

情報処理装置10は、USB−IF185を介して画像形成装置40と接続されている。情報処理装置10は、USB−IF185を介して、画像形成装置40にデータおよび制御信号を出力する。   The information processing apparatus 10 is connected to the image forming apparatus 40 via the USB-IF 185. The information processing apparatus 10 outputs data and control signals to the image forming apparatus 40 via the USB-IF 185.

HDD150は、情報処理装置10を制御する制御プログラムを記憶している。CPU110が制御プログラムを実行することにより、図2に示される機能が情報処理装置10に実装される。この例で、制御プログラムを実行しているCPU110は、装置情報取得手段11、画像取得手段12、加工手段13、および対応情報取得手段16の一例である。制御プログラムは複数のプログラムモジュールまたはサブルーチンを有し、各プログラムモジュールまたはサブルーチンが、各機能構成要素に対応する。CPU110と共働しているUSB−IF185は、画像出力手段14および制御信号出力手段15の一例である。ROM120、RAM130、およびHDD150は、記憶手段S1の一例である。ネットワークIF180は、通信手段の一例である。   The HDD 150 stores a control program for controlling the information processing apparatus 10. When the CPU 110 executes the control program, the functions shown in FIG. In this example, the CPU 110 executing the control program is an example of the apparatus information acquisition unit 11, the image acquisition unit 12, the processing unit 13, and the correspondence information acquisition unit 16. The control program has a plurality of program modules or subroutines, and each program module or subroutine corresponds to each functional component. The USB-IF 185 cooperating with the CPU 110 is an example of the image output unit 14 and the control signal output unit 15. The ROM 120, the RAM 130, and the HDD 150 are examples of the storage unit S1. The network IF 180 is an example of a communication unit.

1−2.サーバ20
図4は、サーバ20の機能構成を示す図である。記憶手段S2は、全体画像の生成に用いられるデータを記憶している。「全体画像の生成に用いられるデータ」とは、全体画像そのもの、あるいは、全体画像の素材を示すデータ(以下、「素材データ」という)である。「全体画像の素材」は、背景画像および前景画像を含む。「前景画像」は複数のオブジェクトを含む。例えば、背景画像は海の中の風景(海底、岩、海水など)を示す画像であり、前景画像は、海の中で動いているもの(魚、海藻など)を示す画像である。「画像」は静止画および動画を含む概念である。選択手段22は、あらかじめ決められたアルゴリズムに従って、選択手段22に記憶されているデータの中から、情報処理装置10に出力するデータを選択する。このアルゴリズムは、例えば、情報処理装置10のリクエストに応じてデータを選択するものである。あるいは、このアルゴリズムは、情報処理装置10の属性(情報処理装置10が設置されている場所、設置されている部屋の大きさまたは用途、情報処理装置10が設置されている場所の時刻など)に応じてデータを選択するものである。出力手段23は、選択手段22により選択されたデータを情報処理装置10に出力する。
1-2. Server 20
FIG. 4 is a diagram illustrating a functional configuration of the server 20. The storage unit S2 stores data used for generating the entire image. “Data used to generate the entire image” is the entire image itself or data indicating the material of the entire image (hereinafter referred to as “material data”). The “entire image material” includes a background image and a foreground image. The “foreground image” includes a plurality of objects. For example, the background image is an image showing a landscape in the sea (the seabed, rocks, seawater, etc.), and the foreground image is an image showing what is moving in the sea (a fish, seaweed, etc.). “Image” is a concept including still images and moving images. The selection unit 22 selects data to be output to the information processing apparatus 10 from the data stored in the selection unit 22 according to a predetermined algorithm. This algorithm selects data in response to a request from the information processing apparatus 10, for example. Alternatively, this algorithm is based on attributes of the information processing apparatus 10 (location where the information processing apparatus 10 is installed, size or usage of the installed room, time of the place where the information processing apparatus 10 is installed, etc.). Data is selected accordingly. The output unit 23 outputs the data selected by the selection unit 22 to the information processing apparatus 10.

図5は、サーバ20のハードウェア構成を示す図である。CPU210は、サーバ20の構成要素を制御する制御装置である。ROM220は、サーバ20の起動に必要なデータおよびプログラムを記憶する記憶装置である。RAM230は、CPU210がプログラムを実行する際の作業領域として機能する記憶装置である。I/F240は、種々の入出力装置や記憶装置との間でデータおよび制御信号の入出力をするインターフェースである。HDD250は、各種プログラムおよびデータを記憶する記憶装置である。キーボード・マウス260は、ユーザがサーバ20に対して指示入力を行うのに用いられる入力装置である。ディスプレイ270は、データの内容あるいは処理の状況などを表示する出力装置である。ネットワークIF280は、ネットワーク30を介して接続された他の装置との間でデータの送受信を行うためのインターフェースである。バス290は、データの伝送路である。CPU210、ROM220、RAM230、およびI/F240は、バス290を介して接続されている。   FIG. 5 is a diagram illustrating a hardware configuration of the server 20. The CPU 210 is a control device that controls the components of the server 20. The ROM 220 is a storage device that stores data and programs necessary for starting the server 20. The RAM 230 is a storage device that functions as a work area when the CPU 210 executes a program. The I / F 240 is an interface for inputting / outputting data and control signals to / from various input / output devices and storage devices. The HDD 250 is a storage device that stores various programs and data. The keyboard / mouse 260 is an input device used when a user inputs an instruction to the server 20. The display 270 is an output device that displays data contents or processing status. The network IF 280 is an interface for transmitting and receiving data to and from other devices connected via the network 30. The bus 290 is a data transmission path. CPU 210, ROM 220, RAM 230, and I / F 240 are connected via a bus 290.

HDD250は、サーバ20を制御する制御プログラムを記憶している。CPU210が制御プログラムを実行することにより、図4に示される機能がサーバ20に実装される。この例で、制御プログラムを実行しているCPU210は、選択手段22、および出力手段23の一例である。ROM220、RAM230、およびHDD250は、記憶手段S2の一例である。制御プログラムは複数のプログラムモジュールまたはサブルーチンを有し、各プログラムモジュールまたはサブルーチンが、各機能構成要素に対応する。   The HDD 250 stores a control program for controlling the server 20. The function shown in FIG. 4 is implemented in the server 20 by the CPU 210 executing the control program. In this example, the CPU 210 executing the control program is an example of the selection unit 22 and the output unit 23. The ROM 220, the RAM 230, and the HDD 250 are examples of the storage unit S2. The control program has a plurality of program modules or subroutines, and each program module or subroutine corresponds to each functional component.

1−3.画像形成装置40
画像形成装置40は、スクリーン50に画像を形成する装置である。この例で、画像形成装置40は、スクリーン50に映像を投射するプロジェクタである。画像形成装置40はUSB−IF185を介して情報処理装置10に接続されている。情報処理装置10は、形成する画像を示すデータを、USB−IF185を介して画像形成装置40に供給する。
1-3. Image forming apparatus 40
The image forming apparatus 40 is an apparatus that forms an image on the screen 50. In this example, the image forming apparatus 40 is a projector that projects an image on the screen 50. The image forming apparatus 40 is connected to the information processing apparatus 10 via the USB-IF 185. The information processing apparatus 10 supplies data indicating the image to be formed to the image forming apparatus 40 via the USB-IF 185.

図6は、画像形成装置40とスクリーン50との位置関係を例示する図である。この例で、部屋は壁71により仕切られている。壁71の内部にはさらに壁72が設けられている。壁72には、窓枠73が設けられている。壁71は窓枠73の外側に位置し、スクリーン50として機能する。画像形成装置40は、壁71と壁72の間に設置されている。このような配置により、室内にいるユーザから画像形成装置40が見えない(あるいは見えにくい)状態になり、室内の美観が損なわれない。   FIG. 6 is a diagram illustrating the positional relationship between the image forming apparatus 40 and the screen 50. In this example, the room is partitioned by a wall 71. A wall 72 is further provided inside the wall 71. A window frame 73 is provided on the wall 72. The wall 71 is located outside the window frame 73 and functions as the screen 50. The image forming apparatus 40 is installed between the wall 71 and the wall 72. With such an arrangement, the image forming apparatus 40 becomes invisible (or difficult to see) from the user in the room, and the indoor aesthetics are not impaired.

1−4.センサ60
センサ60は、室内の状態をセンシングする装置である。この例で、センサ60はカメラすなわち画像センサである。センサ60は、室内の所定の位置に複数設置されている。センサ60はUSB−IF185を介して情報処理装置10に接続されている。情報処理装置10は、カメラが取得した画像を、USB−IF185を介して取得する。
1-4. Sensor 60
The sensor 60 is a device that senses indoor conditions. In this example, sensor 60 is a camera or image sensor. A plurality of sensors 60 are installed at predetermined positions in the room. The sensor 60 is connected to the information processing apparatus 10 via the USB-IF 185. The information processing apparatus 10 acquires an image acquired by the camera via the USB-IF 185.

1−5.外部装置70
外部装置70は、情報処理装置10からの制御信号に従って動作する装置である。この例で、外部装置70は風を発生させる装置すなわち送風機である。外部装置70はUSB−IF185を介して情報処理装置10に接続されている。情報処理装置10は、USB−IF185を介して、外部装置70に制御信号を出力する。
1-5. External device 70
The external device 70 is a device that operates according to a control signal from the information processing device 10. In this example, the external device 70 is a device that generates wind, that is, a blower. The external device 70 is connected to the information processing apparatus 10 via the USB-IF 185. The information processing apparatus 10 outputs a control signal to the external device 70 via the USB-IF 185.

2.動作
続いて、画像形成システム1の動作を説明する。ここでは、部屋がレストランの店舗であり、店舗内の窓に映像を投影する例について説明する。また、この例で仮想スクリーンは半球のドーム状の形状を有している。この半球は、中心が店舗の床の重心と一致するように設定されている。
2. Operation Next, the operation of the image forming system 1 will be described. Here, an example in which a room is a restaurant store and an image is projected onto a window in the store will be described. In this example, the virtual screen has a hemispherical dome shape. The hemisphere is set so that the center coincides with the center of gravity of the store floor.

図7は、画像形成システム1のうち、特に情報処理装置10の動作を示すフローチャートである。図7のフローは、例えばユーザが情報処理装置10に対し制御プログラムの実行を指示したことを契機として開始される。CPU110が制御プログラムを実行することにより、以下の処理が行われる。   FIG. 7 is a flowchart showing the operation of the information processing apparatus 10 in the image forming system 1. The flow in FIG. 7 is started when, for example, the user instructs the information processing apparatus 10 to execute the control program. The following processing is performed by the CPU 110 executing the control program.

ステップS100において、CPU110は、全体画像を取得する。この例で、制御プログラムは、全体画像を生成するモジュールを有しており、CPU110は、このモジュールを実行した結果得られるデータを全体画像として取得する。   In step S100, the CPU 110 acquires an entire image. In this example, the control program has a module that generates an entire image, and the CPU 110 acquires data obtained as a result of executing this module as an entire image.

全体画像を生成するモジュールの機能は以下のとおりである。CPU110は、サーバ20から、全体画像の素材データを取得する。素材データは、背景画像のデータおよび前景画像のデータを含んでいる。いま、背景画像として海中の風景の画像が、前景画像として魚の画像が用いられる例について説明する。   The function of the module that generates the entire image is as follows. The CPU 110 acquires material data of the entire image from the server 20. The material data includes background image data and foreground image data. Now, an example in which an underwater landscape image is used as a background image and a fish image is used as a foreground image will be described.

HDD150は、仮想スクリーンの位置および大きさを特定するパラメータ(例えば、球の中心の座標および球の半径)を記憶している。CPU110は、このパラメータをHDD150から読み出す。CPU110は、読み出したパラメータにより特定される仮想スクリーンに相当する記憶領域を、RAM130上に確保する。この記憶領域は、背景用記憶領域、前景用記憶領域および合成用記憶領域を含んでいる。CPU110は、背景用記憶領域に背景画像のデータを書き込み、前景用記憶領域に前景画像のデータを書き込む。この例で、前景画像は動画である。また、前景画像は、複数のオブジェクト(例えば、複数の魚の画像)を含む。前景画像はオブジェクトを単位として更新される。すなわち、複数の魚が1匹づつ異なる動きをするように、前景画像が更新される。オブジェクトの変化のさせ方(例えば魚の動き)は、あらかじめプログラムされている。CPU110は、所定の時間間隔で、前景画像を書き替える。これにより、例えば魚が泳いで移動する様子が表現される。CPU110は、前景画像と背景画像を合成した画像のデータを合成用記憶領域に書き込む。こうして、全体画像が生成される。   The HDD 150 stores parameters (for example, the coordinates of the center of the sphere and the radius of the sphere) that specify the position and size of the virtual screen. CPU 110 reads this parameter from HDD 150. The CPU 110 secures a storage area on the RAM 130 corresponding to the virtual screen specified by the read parameter. This storage area includes a background storage area, a foreground storage area, and a composition storage area. The CPU 110 writes the background image data in the background storage area, and writes the foreground image data in the foreground storage area. In this example, the foreground image is a moving image. The foreground image includes a plurality of objects (for example, a plurality of fish images). The foreground image is updated in units of objects. That is, the foreground image is updated so that a plurality of fish move differently one by one. How to change the object (for example, fish movement) is programmed in advance. The CPU 110 rewrites the foreground image at predetermined time intervals. Thereby, for example, a state where a fish swims and moves is expressed. The CPU 110 writes image data obtained by combining the foreground image and the background image into the combining storage area. In this way, an entire image is generated.

ステップS110において、CPU110は、窓情報を取得する。この例で、窓情報はHDD150にあらかじめ記憶されており、CPU110は、HDD150から窓情報を読み出すことにより、窓情報を取得する。   In step S110, the CPU 110 acquires window information. In this example, the window information is stored in advance in the HDD 150, and the CPU 110 acquires the window information by reading the window information from the HDD 150.

図8は、窓情報を例示する図である。この例で、窓情報は、窓を特定する識別子(窓ID)と、窓枠の頂点の座標とを含む。   FIG. 8 is a diagram illustrating window information. In this example, the window information includes an identifier (window ID) that identifies the window and the coordinates of the vertex of the window frame.

再び図7を参照する。ステップS120において、CPU110は、対応情報を取得する。この例で、対応情報はHDD150にあらかじめ記憶されており、CPU110は、HDD150から対応情報を読み出すことにより、対応情報を取得する。   Refer to FIG. 7 again. In step S120, the CPU 110 acquires correspondence information. In this example, the correspondence information is stored in advance in the HDD 150, and the CPU 110 acquires the correspondence information by reading the correspondence information from the HDD 150.

図9は、対応情報を例示する図である。この例で、対応情報は、窓IDと、その窓に画像を形成する画像形成装置40の識別子(画像形成装置ID)とを含む。すなわち、対応情報は、複数の画像形成装置40と複数の窓とを一対一に対応させる情報を含む。   FIG. 9 is a diagram illustrating correspondence information. In this example, the correspondence information includes a window ID and an identifier (image forming apparatus ID) of the image forming apparatus 40 that forms an image in the window. That is, the correspondence information includes information that makes the plurality of image forming apparatuses 40 and the plurality of windows correspond one-to-one.

再び図7を参照する。ステップS130において、CPU110は、特定点情報を取得する。この例で、特定点情報として、カメラ(センサ60)により取得された画像を示す画像データが用いられる。また、この例で、制御プログラムは、画像データを用いて特定点の座標を算出するモジュールを有しており、CPU110は、このモジュールを実行した結果から特定点の座標を取得する。   Refer to FIG. 7 again. In step S130, the CPU 110 acquires specific point information. In this example, image data indicating an image acquired by the camera (sensor 60) is used as the specific point information. In this example, the control program has a module that calculates the coordinates of the specific point using the image data, and the CPU 110 acquires the coordinates of the specific point from the result of executing this module.

図10は、特定点の座標を算出する処理を示すフローチャートである。ステップS131において、CPU110は、カメラから画像データを取得する。画像データの取得は、所定のタイミングで(例えば、所定の時間間隔、あるいは所定のイベントをトリガとして)行われる。CPU110は、カメラを特定する識別子(カメラID)とともに、得られた画像データをRAM130に記憶する。カメラはアングルが固定されており、店内の所定の座席に座っている客を撮影できる位置に設置されている。その座席に客が座っていれば、客の顔の画像が取得される。その座席が空席であれば、得られた画像に人間は写っていない。   FIG. 10 is a flowchart showing a process for calculating the coordinates of a specific point. In step S131, the CPU 110 acquires image data from the camera. Acquisition of image data is performed at a predetermined timing (for example, a predetermined time interval or a predetermined event as a trigger). CPU 110 stores the obtained image data in RAM 130 together with an identifier (camera ID) that identifies the camera. The camera has a fixed angle and is installed at a position where it can take a picture of a customer sitting in a predetermined seat in the store. If the customer is sitting on the seat, an image of the customer's face is acquired. If the seat is vacant, no person is shown in the obtained image.

ステップS132において、CPU110は、取得した画像に対して顔認識処理を行う。顔認識処理には、公知のアルゴリズムが用いられる。座席に客が座っていた場合、顔認識処理により、その客の目の位置が特定される。ステップS133において、CPU110は、顔認識処理の結果を用いて、店舗内における客の目の位置(より詳細には、2つの目の中点の位置)の座標を算出する。HDD150は、カメラIDとカメラにより撮影される領域の座標(例えば、カメラのフレームの端点または中心の座標)を対応させる情報をあらかじめ記憶している。CPU110は、HDD150からこの情報を読み出し、顔認識処理の結果とあわせて、店舗内における客の目の位置を、特定点の座標として算出する。CPU110は、算出した特定点の座標を現在の特定点の座標としてRAM130に記憶する。さらに、CPU110は、1サイクル前に算出した特定点の座標を前回の特定点の座標としてRAM130に記憶する。   In step S132, the CPU 110 performs face recognition processing on the acquired image. A known algorithm is used for the face recognition process. When a customer is sitting on the seat, the position of the customer's eyes is specified by face recognition processing. In step S133, the CPU 110 calculates the coordinates of the customer's eye position (more specifically, the position of the middle point of the two eyes) in the store using the result of the face recognition process. The HDD 150 stores in advance information that associates the camera ID with the coordinates of the area photographed by the camera (for example, the coordinates of the end point or center of the camera frame). The CPU 110 reads this information from the HDD 150 and calculates the position of the customer's eyes in the store as the coordinates of the specific point together with the result of the face recognition process. The CPU 110 stores the calculated coordinates of the specific point in the RAM 130 as the coordinates of the current specific point. Further, the CPU 110 stores the coordinates of the specific point calculated one cycle before in the RAM 130 as the coordinates of the previous specific point.

ステップS134において、CPU110は、顔における目の位置に基づいて、視線の向きを算出する。すなわち、画像データは、目の位置を基準として視線の向きを示す方向ベクトルを算出する。このように画像から視線の向きが算出されるので、画像データは、特定点を基準とする向きを示す情報を含んでいるといえる。CPU110は、算出した方向ベクトルをRAM130に記憶する。   In step S134, the CPU 110 calculates the direction of the line of sight based on the position of the eyes in the face. That is, the image data calculates a direction vector indicating the direction of the line of sight with reference to the eye position. Since the line-of-sight direction is thus calculated from the image, it can be said that the image data includes information indicating the direction with reference to the specific point. CPU 110 stores the calculated direction vector in RAM 130.

再び図7を参照する。ステップS140において、CPU110は、現在の特定点の位置と前回の特定点の位置の差が所定の範囲(誤差の範囲)を超えたか、すなわち特定点の位置が変化したか判断する。特定点の位置が変化したと判断された場合(S140:YES)、CPU110は、処理をステップS150に移行する。特定点の位置が変化していないと判断された場合(S140:NO)、CPU110は、処理をステップS130に移行する。ステップS150で説明する射影画像の抽出は、所定の時間間隔で繰り返し行われるが、それに加えて特定点が変化したというような特定のイベントが起こったときにも、射影画像の抽出が行われる。   Refer to FIG. 7 again. In step S140, the CPU 110 determines whether the difference between the current specific point position and the previous specific point position exceeds a predetermined range (error range), that is, whether the specific point position has changed. When it is determined that the position of the specific point has changed (S140: YES), the CPU 110 shifts the processing to step S150. When it is determined that the position of the specific point has not changed (S140: NO), the CPU 110 shifts the processing to step S130. The projection image extraction described in step S150 is repeatedly performed at predetermined time intervals. In addition, the projection image is also extracted when a specific event such as a specific point change occurs.

ステップS150において、CPU110は、全体画像から射影画像を抽出する。射影画像の抽出は、窓を単位として、すなわち窓毎に行われる。詳細には以下のとおりである。まず、CPU110は、あらかじめ決められたアルゴリズムに従って、処理対象となる窓(以下「対象窓」という)を特定する。この例で、CPU110は、まず、特定点および方向ベクトルに対して所定の位置関係を満たす窓、より具体的には、特定点を基準とし、方向ベクトルとなす角度が所定の角度(例えば、人間の視野角に相当する角度)内にある窓を対象窓の候補として特定する。さらに、CPU110は、対象窓の候補として絞り込んだ窓の中から、特定点を基準とし、方向ベクトルとなす角度が小さい窓から1つずつ順番に対象窓を特定する。CPU110は、特定点を光源とし、仮想スクリーン上に対象窓を射影したときの射影の頂点の座標を算出する。   In step S150, CPU 110 extracts a projected image from the entire image. Projection images are extracted in units of windows, that is, for each window. Details are as follows. First, the CPU 110 specifies a window to be processed (hereinafter referred to as “target window”) according to a predetermined algorithm. In this example, the CPU 110 first satisfies a predetermined positional relationship with respect to a specific point and a direction vector. More specifically, the CPU 110 uses a specific point as a reference and the angle formed with the direction vector is a predetermined angle (for example, human A window within an angle) corresponding to the viewing angle of the target window. Further, the CPU 110 specifies the target windows one by one from the windows that have been narrowed as the direction vector with reference to the specific point from among the windows narrowed down as candidates for the target window. The CPU 110 calculates the coordinates of the projection vertex when the target window is projected onto the virtual screen using the specific point as the light source.

図11は、特定点を光源とし、仮想スクリーン上への対象窓の射影を例示する図である。特定点PSから対象窓Wの窓枠の頂点の座標を結ぶ直線と仮想スクリーンが交わる点P1、P2、P3、およびP4が、射影の頂点の座標である。CPU110は、仮想スクリーン上において射影により切り取られる画像を、対象窓にマッピングする。マッピングにより得られた画像が、射影画像である。 FIG. 11 is a diagram illustrating projection of a target window onto a virtual screen using a specific point as a light source. P 1 point straight and the virtual screen intersect connecting vertex coordinates of the window frame of the target window W from a particular point P S, P 2, P 3 , and P 4 are the coordinates of the vertices of the projection. The CPU 110 maps an image cut out by projection on the virtual screen to the target window. An image obtained by mapping is a projected image.

再び図7を参照する。ステップS160において、CPU110は、得られた射影画像を、対象窓に対応する画像形成装置40に出力する。さらに、CPU110は、射影画像の出力と同期して、外部装置70に制御信号を出力する。対象窓に対応する画像形成装置40は、対応情報により特定される。特に図7には示していないが、前景画像または背景画像が動画である場合に、ステップS130−160の処理は、所定の時間間隔で繰り返し行われる。   Refer to FIG. 7 again. In step S160, the CPU 110 outputs the obtained projected image to the image forming apparatus 40 corresponding to the target window. Further, the CPU 110 outputs a control signal to the external device 70 in synchronization with the output of the projected image. The image forming apparatus 40 corresponding to the target window is specified by the correspondence information. Although not particularly shown in FIG. 7, when the foreground image or the background image is a moving image, the processing in steps S130-160 is repeatedly performed at predetermined time intervals.

図12は、ステップS160における射影画像を画像形成装置40に出力する処理の詳細を示すフローチャートである。ステップS161において、CPU110は、装置情報を取得する。この例で、装置情報は、あらかじめHDD150に記憶されている。CPU110は、HDD150から読み出すことにより、装置情報を取得する。CPU110は、読み出した装置情報をRAM130に記憶する。   FIG. 12 is a flowchart showing details of the process of outputting the projected image to the image forming apparatus 40 in step S160. In step S161, the CPU 110 acquires device information. In this example, the device information is stored in the HDD 150 in advance. The CPU 110 acquires device information by reading from the HDD 150. The CPU 110 stores the read device information in the RAM 130.

図13は、装置情報を例示する図である。装置情報は、外部装置70と画像形成装置40との対応関係を示す情報と、スクリーン50と画像形成装置40との位置関係を示す情報とを含んでいる。具体的には、装置情報は、外部装置IDと、画像形成措置IDと、画像形成装置の位置情報とを含んでいる。外部装置IDは、複数の外部装置70の中から1つの外部装置70を特定する識別子である。画像形成装置の位置情報は、スクリーン50との相対位置を示す情報である。図13の例で、外部装置IDがF1の外部装置70は、画像形成装置IDがP1およびP2の画像形成装置40と対応することが示されている。また、外部装置IDがF2の外部装置70は、画像形成装置IDがP3およびP4の画像形成装置40と対応することが示されている。画像形成装置IDがP5の画像形成装置40と対応する外部装置は、存在しない。画像形成装置IDがP1の画像形成装置40は、窓IDがW1の窓の右上の領域と対応することが示されている。以下、窓IDがWxの窓を単に「窓Wx」という。「窓W1」は窓IDがW1の窓を指す。   FIG. 13 is a diagram illustrating device information. The device information includes information indicating a correspondence relationship between the external device 70 and the image forming device 40 and information indicating a positional relationship between the screen 50 and the image forming device 40. Specifically, the device information includes an external device ID, an image forming measure ID, and position information of the image forming device. The external device ID is an identifier that identifies one external device 70 from among the plurality of external devices 70. The position information of the image forming apparatus is information indicating a relative position with respect to the screen 50. In the example of FIG. 13, the external device 70 whose external device ID is F1 is shown to correspond to the image forming device 40 whose image forming device IDs are P1 and P2. Further, it is shown that the external device 70 whose external device ID is F2 corresponds to the image forming device 40 whose image forming device IDs are P3 and P4. There is no external device corresponding to the image forming apparatus 40 having the image forming apparatus ID P5. It is shown that the image forming apparatus 40 with the image forming apparatus ID P1 corresponds to the upper right area of the window with the window ID W1. Hereinafter, the window having the window ID Wx is simply referred to as “window Wx”. “Window W1” refers to a window whose window ID is W1.

装置情報はさらに、画像形成装置40とスクリーン50との位置関係を詳細に特定する情報として、画像形成装置40の代表点(例えば、レンズの中心)の座標と、画像形成装置の向き(例えば、レンズの向き)を示す方向ベクトルとを含んでいる。図13の例で、画像形成装置IDがP1の画像形成装置40は、座標系上において点(x1a,y1a,z1a)に位置し、ベクトル(x1b,y1b,z1b)で規定される方向を向いている。ここで用いられる座標系は、図8の窓情報に用いられた座標系と同じものである。したがって、窓情報を併用することにより、画像形成装置40とスクリーン50との詳細な位置関係が特定される。   The apparatus information further includes coordinates of the representative point (for example, the center of the lens) of the image forming apparatus 40 and the orientation of the image forming apparatus (for example, as the information for specifying the positional relationship between the image forming apparatus 40 and the screen 50 in detail). A direction vector indicating the direction of the lens). In the example of FIG. 13, the image forming apparatus 40 having the image forming apparatus ID P1 is located at the point (x1a, y1a, z1a) on the coordinate system and faces the direction defined by the vector (x1b, y1b, z1b). ing. The coordinate system used here is the same as the coordinate system used for the window information in FIG. Therefore, the detailed positional relationship between the image forming apparatus 40 and the screen 50 is specified by using the window information together.

再び図12を参照する。ステップS162において、CPU110は、画像データに対して、装置情報に応じた加工をする。詳細には以下のとおりである。まず、CPU110は、あらかじめ決められたアルゴリズムに従って、処理対象となる射影画像を特定する。このアルゴリズムは、例えば、窓IDに従って1つずつ順番に処理対象となる射影画像を特定するものである。ここでは、窓W1に対応する射影画像が処理対象となった場合を例に説明する。   Refer to FIG. 12 again. In step S162, the CPU 110 processes the image data according to the device information. Details are as follows. First, the CPU 110 specifies a projection image to be processed according to a predetermined algorithm. This algorithm specifies, for example, projection images to be processed one by one in order according to the window ID. Here, a case where a projected image corresponding to the window W1 is a processing target will be described as an example.

次に、CPU110は、処理対象の射影画像を、n個に分割する。分割の数および方法は、装置情報に基づいて定められる。図13の例によれば、窓W1に対応する窓の数は4つ、すなわちn=4であることが示されている。また、窓W1は、右上、右下、左上、左下の4つの領域に分割されることが示されている。したがって、CPU110は、射影画像を、上下方向に2分割、左右方向に2分割し、合計4つの領域に分割する。   Next, the CPU 110 divides the projection image to be processed into n pieces. The number and method of division is determined based on the device information. According to the example of FIG. 13, the number of windows corresponding to the window W1 is four, that is, n = 4. Further, it is shown that the window W1 is divided into four regions, upper right, lower right, upper left, and lower left. Therefore, the CPU 110 divides the projected image into two areas in the vertical direction and two areas in the horizontal direction, for a total of four areas.

次に、CPU110は、分割された射影画像に対し、台形補正処理を行う。CPU110は、装置情報により示される、画像形成装置40とスクリーン50との詳細な位置関係から、台形補正のパラメータを算出する(この例で、装置情報はレンズの投射角等、台形補正に必要な情報も含んでいる)。CPU110は、分割された射影画像を、算出されたパラメータを用いて変形させることにより、台形補正処理をする。すなわち、CPU110は、スクリーン50と画像形成装置40(より正確には、画像形成装置40のレンズの光軸)とがなす角度に応じて前記分割された画像を変形する。   Next, the CPU 110 performs trapezoid correction processing on the divided projected images. The CPU 110 calculates trapezoidal correction parameters from the detailed positional relationship between the image forming apparatus 40 and the screen 50 indicated by the apparatus information (in this example, the apparatus information is necessary for keystone correction such as the projection angle of the lens). Including information). The CPU 110 performs trapezoidal correction processing by deforming the divided projected image using the calculated parameters. That is, the CPU 110 deforms the divided image according to an angle formed by the screen 50 and the image forming apparatus 40 (more precisely, the optical axis of the lens of the image forming apparatus 40).

ステップS163において、CPU110は、加工された画像データを、画像形成装置40に出力する。加工された画像データと画像形成装置40とは、一対一に対応している。CPU110は、各画像データを、対応する画像形成装置40に出力する。   In step S <b> 163, the CPU 110 outputs the processed image data to the image forming apparatus 40. The processed image data and the image forming apparatus 40 have a one-to-one correspondence. The CPU 110 outputs each image data to the corresponding image forming apparatus 40.

ステップS164において、CPU110は、外部装置に制御信号を出力する。サーバ20から送られてくる画像データは、外部装置70の制御に用いられるパラメータを含んでいる。この例で、外部装置の制御に用いられるパラメータは、対象となる外部装置を特定する情報、並びに風を発生させるタイミングおよび風の強さを示す情報を含んでいる。外部装置を特定する情報は、例えば、「右」や「上」など、スクリーン50との相対的位置関係を示す情報である。例えば、外部装置を特定する情報として「右」が与えられると、CPU110は、図13の装置情報を参照し、窓W1のうち「右」に対応する外部装置として、外部装置IDがF1(「右上」および「右下」という位置情報に対応)の外部装置70を特定する。別の例で、外部装置を特定する情報として「左下」が与えられると、CPU110は、図13の装置情報を参照し、窓W1のうち「左下」に対応する外部装置として、外部装置IDがF2の外部装置70を特定する。CPU110は、画像データからこれらのパラメータを抽出し、抽出したパラメータに従って制御信号を生成する。CPU110は、生成した制御信号を、USB−IF185を介して外部装置70に出力する。   In step S164, CPU 110 outputs a control signal to the external device. The image data sent from the server 20 includes parameters used for controlling the external device 70. In this example, the parameters used for controlling the external device include information for specifying the target external device, and information indicating the timing for generating the wind and the strength of the wind. The information specifying the external device is information indicating a relative positional relationship with the screen 50 such as “right” and “up”. For example, when “right” is given as the information for specifying the external device, the CPU 110 refers to the device information in FIG. 13, and the external device ID is F1 (“ Corresponding to the position information of “upper right” and “lower right”). In another example, when “lower left” is given as information for specifying an external device, the CPU 110 refers to the device information in FIG. 13 and sets the external device ID as the external device corresponding to “lower left” in the window W1. The external device 70 of F2 is specified. The CPU 110 extracts these parameters from the image data, and generates a control signal according to the extracted parameters. The CPU 110 outputs the generated control signal to the external device 70 via the USB-IF 185.

CPU110は、対象となる射影画像を順次更新して、図12のフローを繰り返し実行する。   The CPU 110 sequentially updates the target projected image and repeatedly executes the flow of FIG.

図14は、画像形成システム1により形成される画像を例示する図である。この例で、窓と窓の間には壁がある。仮想スクリーンには海の中を魚が泳いでいる画像が描かれ、窓には客の視点から見た射影画像が形成される。したがって、客から見ると窓にはあたかも自分が海中にいるような画像が形成される。例えば魚が窓と窓の間を泳いでいる途中では壁に隠れて魚の姿が見えなくなるので、店舗の内部によりリアルな画像が提供される。レストランやパチンコ店の改装にはコストと時間がかかるが、画像形成システム1によればコストと時間をかけずに、店の内観を変えることができる。   FIG. 14 is a diagram illustrating an image formed by the image forming system 1. In this example, there is a wall between the windows. On the virtual screen, an image of fish swimming in the sea is drawn, and a projected image viewed from the customer's viewpoint is formed on the window. Therefore, when viewed from the customer, an image is formed on the window as if you were in the sea. For example, while the fish is swimming between the windows, it is hidden behind the wall and the fish can no longer be seen, so a realistic image is provided inside the store. Renovation of a restaurant or pachinko store takes cost and time, but the image forming system 1 can change the interior of the store without cost and time.

3.他の実施形態
本発明は上述の実施形態に限定されるものではなく、これ以外の態様でも実施が可能である。以下、変形例をいくつか説明する。以下で説明する変形例のうち2つ以上のものが組み合わせて用いられてもよい。以下において、上述の実施形態と共通する事項については説明を省略し、また、共通する要素には共通の参照符号を用いて説明する。
3. Other Embodiments The present invention is not limited to the above-described embodiments, and can be implemented in other modes. Hereinafter, some modifications will be described. Two or more of the modifications described below may be used in combination. In the following, description of matters common to the above-described embodiment will be omitted, and common elements will be described using common reference numerals.

3−1.変形例1
ステップS162における画像の加工は、実施形態で説明したものに限定されない。n個の画像形成装置40に対応する画像データを生成するものであれば、サイズの変更、色空間の変更、解像度の変更、変形、画像の合成、分割、切り取りまたは抽出、もしくはこれらの組み合わせなどどのような処理が行われてもよい。
3-1. Modification 1
The image processing in step S162 is not limited to that described in the embodiment. If image data corresponding to n image forming apparatuses 40 is to be generated, size change, color space change, resolution change, deformation, image composition, division, cropping or extraction, or a combination thereof Any processing may be performed.

実施形態では、隣接する2つの画像形成装置40に出力される画像データが示す画像は、重なっている部分が無かった。しかし、隣接する2つの画像形成装置40に出力される画像データが示す画像は、オーバーラップする部分を有していてもよい。   In the embodiment, the image indicated by the image data output to the two adjacent image forming apparatuses 40 has no overlapping portion. However, the image indicated by the image data output to the two adjacent image forming apparatuses 40 may have an overlapping portion.

3−2.変形例2
情報処理装置10は、全体画像を生成する機能、すなわち画像生成手段を有していなくてもよい。この場合、情報処理装置10は、通信手段を介して、サーバ20から全体画像を取得する。またこの場合、サーバ20は、全体画像を生成する機能を有する。サーバ20は、情報処理装置10に対していわゆるストリーミング配信の技術を用いて、全体画像を送信する。
3-2. Modification 2
The information processing apparatus 10 may not have a function of generating an entire image, that is, an image generation unit. In this case, the information processing apparatus 10 acquires the entire image from the server 20 via the communication unit. In this case, the server 20 has a function of generating an entire image. The server 20 transmits the entire image to the information processing apparatus 10 using a so-called streaming distribution technique.

3−3.変形例3
変形例2の場合において、情報処理装置10は、全体画像のうち一部のみをサーバ20から取得してもよい。この場合、まず情報処理装置10は、窓情報をサーバ20に送信する。サーバ20は、受信した窓情報を記憶する。サーバ20は、全体情報から、窓情報により特定される窓の位置に応じて全体画像の一部を切り出し、切り出した部分を情報処理装置10に送信する。
3-3. Modification 3
In the case of the modification 2, the information processing apparatus 10 may acquire only a part of the entire image from the server 20. In this case, the information processing apparatus 10 first transmits window information to the server 20. The server 20 stores the received window information. The server 20 cuts out a part of the whole image from the whole information according to the position of the window specified by the window information, and transmits the cut out part to the information processing apparatus 10.

窓の位置に応じて全体画像から一部を切り出すアルゴリズムとしては、例えば、窓との距離が所定の範囲内にある部分を切り出すアルゴリズムが採用される。実際に画像形成装置40により形成されるのは窓の部分の画像だけであるから、窓の近傍の画像だけを送信すれば、ネットワークのトラフィックおよび処理すべきデータ量が削減される。   As an algorithm for cutting out a part from the entire image according to the position of the window, for example, an algorithm for cutting out a part whose distance from the window is within a predetermined range is adopted. Since only the image of the window portion is actually formed by the image forming apparatus 40, if only the image in the vicinity of the window is transmitted, the network traffic and the amount of data to be processed are reduced.

3−4.変形例4
特定点情報は向きを示す情報を含んでいなくてもよい。あるいは、特定点情報が向きを示す情報を含んでいた場合でも、情報処理装置10は、向きを示す情報に応じた処理をしなくてもよい。すなわち、図10のステップS134の処理は省略されてもよい。この場合、CPU110は、視線の向きに応じた対象窓の絞り込みを行わなくてもよい。
3-4. Modification 4
The specific point information may not include information indicating the direction. Alternatively, even when the specific point information includes information indicating the direction, the information processing apparatus 10 may not perform processing according to the information indicating the direction. That is, the process of step S134 of FIG. 10 may be omitted. In this case, the CPU 110 does not have to narrow down the target window according to the direction of the line of sight.

3−5.変形例5
射影画像の抽出を行うタイミングは、実施形態で説明したものに限定されない。図7のステップS140の割り込み判定が行わなくてもよい。この場合、射影画像は、所定の時間間隔で定期的に抽出される。
3-5. Modification 5
The timing for extracting the projected image is not limited to that described in the embodiment. The interrupt determination in step S140 in FIG. 7 may not be performed. In this case, the projected image is periodically extracted at a predetermined time interval.

3−6.変形例6
情報処理装置10に特定点情報を供給するセンサ60は、実施形態で説明したカメラに限定されない。特定点情報を供給できるものであれば、どのようなセンサが用いられてもよい。例えば、センサ60としてRFID(Radio Frequency IDentification)リーダが用いられてもよい。この場合、客はRFIDタグを身に付ける。RFIDリーダをレストランのフロアやテーブルに一定の間隔で配置することにより、客の位置を特定することができる。その他、光センサ、温度センサ、タッチセンサ、静電センサなどが用いられてもよい。
3-6. Modification 6
The sensor 60 that supplies the specific point information to the information processing apparatus 10 is not limited to the camera described in the embodiment. Any sensor that can supply the specific point information may be used. For example, an RFID (Radio Frequency IDentification) reader may be used as the sensor 60. In this case, the customer wears an RFID tag. By arranging RFID readers on a restaurant floor or table at regular intervals, it is possible to specify the position of the customer. In addition, an optical sensor, a temperature sensor, a touch sensor, an electrostatic sensor, or the like may be used.

また、センサの配置は、特定点の位置を、システムが要求する精度で特定できるものであれば、どのような配置であってもよい。例えば、一つのテーブルを囲むように複数のカメラを配置してもよいし、スクリーン50の周辺に1台のカメラを配置してもよい。   The sensor may be arranged in any arrangement as long as the position of the specific point can be specified with the accuracy required by the system. For example, a plurality of cameras may be arranged so as to surround one table, or one camera may be arranged around the screen 50.

3−7.変形例7
特定点情報の取得元は、センサ60に限定されない。特定点情報取得手段は、RAM130等の記憶手段S1から特定点情報を取得してもよい。この場合、店員が特定点情報として客の位置を情報処理装置10にマニュアルで入力し、情報処理装置10のCPU110は、入力された特定点情報をRAM130に記憶する。図7のステップS130において、CPU110は、RAM130から特定点情報を読み出すことにより、特定点情報を取得する。別の例で、特定点の位置は、システムの設計上ある位置に固定されていてもよい。この場合、特定点情報は、システムのパラメータとしてHDD150に記憶されている。CPU110は、HDD150から特定点情報を読み出すことにより、特定点情報を取得する。
3-7. Modification 7
The acquisition source of the specific point information is not limited to the sensor 60. The specific point information acquisition unit may acquire the specific point information from the storage unit S1 such as the RAM 130. In this case, the store clerk manually inputs the customer's position into the information processing apparatus 10 as specific point information, and the CPU 110 of the information processing apparatus 10 stores the input specific point information in the RAM 130. In step S <b> 130 of FIG. 7, the CPU 110 acquires the specific point information by reading the specific point information from the RAM 130. In another example, the position of the specific point may be fixed at a certain position in the system design. In this case, the specific point information is stored in the HDD 150 as a system parameter. The CPU 110 acquires specific point information by reading the specific point information from the HDD 150.

3−8.変形例8
仮想スクリーンは、実施形態で説明したものに限定されない。あらかじめ決められた大きさおよび形状を有し、部屋(窓)との位置関係が規定されているものであれば、どのような仮想スクリーンが用いられてもよい。例えば、仮想スクリーンの形状は半球でなく、球、直方体、多角形、またはこれらの組み合わせなど、どのような形状でもよい。また、図11では仮想スクリーンが部屋の外側にある例を説明したが、仮想スクリーンはその一部または全部が部屋の中にあってもよい。
3-8. Modification 8
The virtual screen is not limited to that described in the embodiment. Any virtual screen may be used as long as it has a predetermined size and shape and a positional relationship with the room (window) is defined. For example, the shape of the virtual screen is not a hemisphere, but may be any shape such as a sphere, a rectangular parallelepiped, a polygon, or a combination thereof. Further, although an example in which the virtual screen is outside the room has been described with reference to FIG. 11, a part or all of the virtual screen may be inside the room.

3−9.変形例9
画像形成装置40とスクリーン50の位置関係は、図6で説明したものに限定されない。店舗の壁が一枚であり、店舗内にある画像形成装置40から窓に画像を投射する構成としてもよい。あるいは、壁や窓以外のものがスクリーン50として用いられてもよい。
3-9. Modification 9
The positional relationship between the image forming apparatus 40 and the screen 50 is not limited to that described with reference to FIG. A single store wall may be used, and an image may be projected onto the window from the image forming apparatus 40 in the store. Alternatively, anything other than a wall or window may be used as the screen 50.

3−10.変形例10
画像形成装置40はプロジェクタに限定されない。スクリーン50に画像を形成できるのであれば、どのような装置であってもよい。また、画像形成装置40は、スクリーン50を内蔵していてもよい。例えば、画像形成装置40は、リアプロジェクションディスプレイ、液晶ディスプレイ、有機EL(Electro-Luminescence)ディスプレイ、プラズマディスプレイであってもよい。
3-10. Modification 10
The image forming apparatus 40 is not limited to a projector. Any device that can form an image on the screen 50 may be used. Further, the image forming apparatus 40 may incorporate a screen 50. For example, the image forming apparatus 40 may be a rear projection display, a liquid crystal display, an organic EL (Electro-Luminescence) display, or a plasma display.

3−11.変形例11
本稿でいう「窓」は、現実および仮想の窓の双方を含む。「現実の窓」とは、物理的な構造体としての窓をいう。この場合、図6のように窓枠とスクリーン50とが異なる面に形成される構造であってもよいし、スクリーン50が窓枠と同じ面(すなわち窓枠の中)に形成される構造であってもよい。「仮想の窓」とは、物理的な構造体としての窓ではないスクリーン50に窓枠も含めた画像を形成したもの、すなわち壁に窓枠も含めた画像を形成したものをいう。
3-11. Modification 11
“Window” in this paper includes both real and virtual windows. “Real window” means a window as a physical structure. In this case, as shown in FIG. 6, the window frame and the screen 50 may be formed on different surfaces, or the screen 50 may be formed on the same surface as the window frame (that is, in the window frame). There may be. The “virtual window” refers to an image in which an image including a window frame is formed on a screen 50 that is not a window as a physical structure, that is, an image in which an image including a window frame is formed on a wall.

3−12.変形例12
窓情報の取得元は、HDD150に限定されない。窓情報取得手段12は、情報処理装置10以外の他の装置から窓情報を取得してもよい。特に、仮想の窓が用いられ、窓の位置が変化する場合に、窓の位置を検出する装置から窓情報を取得してもよい。また、窓情報の形式は、図8に例示されるものに限定されない。例えば、窓の形状があらかじめ決められたものに限定されている場合、その形状に応じたパラメータが窓情報として用いられる。具体的には、窓の形状が円であれば、中心の座標および半径が窓情報として用いられる。あるいは、窓の形状が長方形であれば、対角線の端点の座標が窓情報として用いられる。
3-12. Modification 12
The acquisition source of the window information is not limited to the HDD 150. The window information acquisition unit 12 may acquire window information from a device other than the information processing device 10. In particular, when a virtual window is used and the position of the window changes, the window information may be acquired from a device that detects the position of the window. Further, the format of the window information is not limited to that illustrated in FIG. For example, when the shape of the window is limited to a predetermined one, a parameter corresponding to the shape is used as the window information. Specifically, if the shape of the window is a circle, the coordinates and radius of the center are used as window information. Or if the shape of a window is a rectangle, the coordinate of the end point of a diagonal will be used as window information.

さらに、装置情報の取得元も、HDD150に限定されない。装置情報取得手段11は、情報処理装置10以外の他の装置から窓情報を取得してもよい。   Further, the device information acquisition source is not limited to the HDD 150. The device information acquisition unit 11 may acquire window information from a device other than the information processing device 10.

3−13.変形例13
全体画像、窓情報、対応情報、および特定点情報を取得する順番は図7に示されるものに限定されない。射影画像を抽出する時点で処理に用いられる情報が取得できていれば、これらの情報がどのような順番で取得されてもよい。
また、画像データおよび制御信号を出力する順番は図12に示されるものに限定されない。画像形成装置40に画像データを、外部装置70に制御信号を出力するものであれば、これらのデータ、信号がどのような順番で出力されてもよい。
3-13. Modification 13
The order of acquiring the whole image, window information, correspondence information, and specific point information is not limited to that shown in FIG. As long as information used for processing can be acquired at the time of extracting the projected image, these pieces of information may be acquired in any order.
Further, the order of outputting the image data and the control signal is not limited to that shown in FIG. As long as image data is output to the image forming apparatus 40 and a control signal is output to the external apparatus 70, these data and signals may be output in any order.

3−14.変形例14
外部装置70は、実施形態で説明したものに限定されない。情報処理装置10からの制御信号に従って動作するものであれば、どのような装置が外部装置70として用いられてもよい。例えば、窓近傍の物理状態(風量、温度、光量、湿度、音など)を変化させるもの(扇風機、エアコン、照明器具、スピーカーなど)が用いられてもよい。
3-14. Modification 14
The external device 70 is not limited to that described in the embodiment. Any device may be used as the external device 70 as long as it operates in accordance with a control signal from the information processing device 10. For example, a device (such as a fan, an air conditioner, a lighting device, or a speaker) that changes the physical state (air volume, temperature, light intensity, humidity, sound, etc.) near the window may be used.

3−15.他の変形例
情報処理装置10のハードウェア構成は図3で示されるものに限定されない。必要な機能構成を実現できるものであれば、どのようなハードウェア構成を有する装置が用いられてもよい。また、情報処理装置10の機能構成とハードウェア構成の対応関係は、実施形態で説明したものに限定されない。例えば上述の実施形態では、制御プログラムを実行しているCPU110が、画像取得手段12、対応情報取得手段13、対応情報取得手段13、特定点情報取得手段14、画像抽出手段15、および画像生成手段17としての機能を兼ね備えていたが、これらのうち1つ以上の機能が、CPU110以外のプロセッサにより実装されてもよい。また、各機能構成要素は、汎用プロセッサとプログラムの協働により実装されてもよいし、ASIC(Application Specific Integrated Circuit)のように特定の機能を有するプロセッサとして実装されてもよい。あるいは、物理的に別体の複数のプロセッサが協働して、これらの要素として機能してもよい。サーバ20についても同様である。
3-15. Other Modifications The hardware configuration of the information processing apparatus 10 is not limited to that shown in FIG. An apparatus having any hardware configuration may be used as long as the necessary functional configuration can be realized. The correspondence relationship between the functional configuration and the hardware configuration of the information processing apparatus 10 is not limited to that described in the embodiment. For example, in the above-described embodiment, the CPU 110 executing the control program includes the image acquisition unit 12, the correspondence information acquisition unit 13, the correspondence information acquisition unit 13, the specific point information acquisition unit 14, the image extraction unit 15, and the image generation unit. However, one or more of these functions may be implemented by a processor other than the CPU 110. Each functional component may be implemented by cooperation of a general-purpose processor and a program, or may be implemented as a processor having a specific function such as an ASIC (Application Specific Integrated Circuit). Alternatively, a plurality of physically separate processors may cooperate to function as these elements. The same applies to the server 20.

画像形成装置40が、情報処理装置10としての機能を兼ね備えていてもよい。   The image forming apparatus 40 may have a function as the information processing apparatus 10.

実施形態では部屋に複数の窓が存在する例について説明したが、部屋の窓の数はひとつであってもよい。   In the embodiment, an example in which a plurality of windows exist in a room has been described, but the number of windows in a room may be one.

上述の実施形態においてCPU110またはCPU210によって実行されるプログラムは、磁気記録媒体(磁気テープ、磁気ディスク(HDD(Hard Disk Drive)、FD(Flexible Disk))など)、光記録媒体(光ディスク(CD(Compact Disk)、DVD(Digital Versatile Disk))など)、光磁気記録媒体、半導体メモリ(フラッシュROMなど)などのコンピュータ読取り可能な記録媒体に記憶した状態で提供されてもよい。また、このプログラムは、インターネットのようなネットワーク経由でダウンロードされてもよい。   In the above-described embodiment, the program executed by the CPU 110 or the CPU 210 is a magnetic recording medium (magnetic tape, magnetic disk (HDD (Hard Disk Drive), FD (Flexible Disk), etc.)), optical recording medium (optical disk (CD (Compact)). Disk), DVD (Digital Versatile Disk), etc.), magneto-optical recording medium, semiconductor memory (flash ROM, etc.), etc. The program may be downloaded via a network such as the Internet.

一実施形態に係る画像形成システム1の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image forming system 1 according to an embodiment. 情報処理装置10の機能構成を示す図である。2 is a diagram illustrating a functional configuration of the information processing apparatus 10. FIG. 情報処理装置10のハードウェア構成を示す図である。2 is a diagram illustrating a hardware configuration of the information processing apparatus 10. FIG. サーバ20の機能構成を示す図である。2 is a diagram illustrating a functional configuration of a server 20. FIG. サーバ20のハードウェア構成を示す図である。2 is a diagram illustrating a hardware configuration of a server 20. FIG. 画像形成装置40とスクリーン50との位置関係を例示する図である。2 is a diagram illustrating a positional relationship between an image forming apparatus 40 and a screen 50. FIG. 情報処理装置10の動作を示すフローチャートである。3 is a flowchart showing the operation of the information processing apparatus 10. 窓情報を例示する図である。It is a figure which illustrates window information. 対応情報を例示する図である。It is a figure which illustrates correspondence information. 特定点の座標を算出する処理を示すフローチャートである。It is a flowchart which shows the process which calculates the coordinate of a specific point. 仮想スクリーン上への対象窓の射影を例示する図である。It is a figure which illustrates the projection of the object window on a virtual screen. 射影画像を出力する処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the process which outputs a projected image. 装置情報を例示する図である。It is a figure which illustrates apparatus information. 画像形成システム1により形成される画像を例示する図である。2 is a diagram illustrating an image formed by the image forming system 1. FIG.

符号の説明Explanation of symbols

S1…記憶手段、1…画像形成システム、S2…記憶手段、10…情報処理装置、11…装置情報取得手段、12…画像取得手段、13…加工手段、14…画像出力手段、15…制御信号出力手段、16…対応情報取得手段、20…サーバ、22…選択手段、23…出力手段、30…ネットワーク、40…画像形成装置、50…スクリーン、60…センサ、70…外部装置、71…壁、72…壁、73…窓枠、110…CPU、120…ROM、130…RAM、140…I/F、150…HDD、160…キーボード・マウス、170…ディスプレイ、180…ネットワークIF、185…USB−IF、190…バス、210…CPU、220…ROM、230…RAM、240…I/F、250…HDD、260…キーボード・マウス、270…ディスプレイ、280…ネットワークIF、290…バス DESCRIPTION OF SYMBOLS S1 ... Memory | storage means, 1 ... Image forming system, S2 ... Memory | storage means, 10 ... Information processing apparatus, 11 ... Apparatus information acquisition means, 12 ... Image acquisition means, 13 ... Processing means, 14 ... Image output means, 15 ... Control signal Output means, 16 ... corresponding information acquisition means, 20 ... server, 22 ... selection means, 23 ... output means, 30 ... network, 40 ... image forming apparatus, 50 ... screen, 60 ... sensor, 70 ... external device, 71 ... wall 72 ... Wall 73 ... Window frame 110 ... CPU 120 ... ROM 130 ... RAM 140 ... I / F 150 ... HDD 160 ... Keyboard / mouse 170 ... Display 180 ... Network IF 185 ... USB -IF, 190 ... bus, 210 ... CPU, 220 ... ROM, 230 ... RAM, 240 ... I / F, 250 ... HDD, 260 ... keyboard / mouse 270 ... display, 280 ... network IF, 290 ... bus

Claims (6)

画像形成装置と、前記画像形成装置に対応する外部装置とを特定する装置情報を取得する装置情報取得手段と、
前記外部装置を制御するパラメータを含む画像データを取得する画像取得手段と、
前記画像取得手段により取得された画像データに対して、前記装置情報に応じた加工をする加工手段と、
前記加工手段により加工された画像データを、前記装置情報により特定される画像形成装置に出力する画像出力手段と、
前記画像取得手段により取得された画像データに含まれるパラメータに応じて、前記外部装置を制御する制御信号を前記外部装置に出力する制御信号出力手段と
を有する情報処理装置。
Device information acquisition means for acquiring device information for specifying an image forming device and an external device corresponding to the image forming device;
Image acquisition means for acquiring image data including parameters for controlling the external device;
Processing means for processing the image data acquired by the image acquisition means according to the device information;
Image output means for outputting the image data processed by the processing means to an image forming apparatus specified by the apparatus information;
An information processing apparatus comprising: control signal output means for outputting a control signal for controlling the external apparatus to the external apparatus according to a parameter included in the image data acquired by the image acquisition means.
1つのスクリーンとn個(n≧1)の画像形成装置とを対応させる対応情報を取得する対応情報取得手段を有し、
前記装置情報が、前記1つのスクリーンと前記n個の画像形成装置との位置関係を示す位置情報を含み、
前記加工手段は、前記画像のうちそれぞれ前記位置情報に対応した部分を含むn個の画像データを生成し、
前記画像出力手段は、前記生成されたn個の画像データをそれぞれ対応する画像形成装置に出力する
ことを特徴とする請求項1に記載の情報処理装置。
Correspondence information obtaining means for obtaining correspondence information for associating one screen with n (n ≧ 1) image forming apparatuses;
The apparatus information includes position information indicating a positional relationship between the one screen and the n image forming apparatuses;
The processing means generates n pieces of image data each including a portion corresponding to the position information in the image,
The information processing apparatus according to claim 1, wherein the image output unit outputs the generated n pieces of image data to corresponding image forming apparatuses.
前記加工手段は、前記画像を、それぞれ前記位置情報に対応した部分を示すn個の画像データに分割する
ことを特徴とする請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2, wherein the processing unit divides the image into n pieces of image data each indicating a portion corresponding to the position information.
前記加工手段は、前記スクリーンと前記画像形成装置とがなす角度に応じて前記分割された画像を変形する
ことを特徴とする請求項3に記載の情報処理装置。
The information processing apparatus according to claim 3, wherein the processing unit deforms the divided image according to an angle formed by the screen and the image forming apparatus.
前記外部装置は、風を発生する装置である
ことを特徴とする請求項1−3のいずれかの項に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the external device is a device that generates wind.
コンピュータ装置に、
画像形成装置と、前記画像形成装置に対応する外部装置とを特定する装置情報を取得するステップと、
画像を示し、前記外部装置を制御するパラメータを含む画像データを取得するステップと、
前記取得された画像データを、前記装置情報に応じて加工をするステップと、
前記加工された画像データを、前記装置情報により特定される画像形成装置に出力するステップと、
前記取得された画像データに含まれるパラメータに応じて、前記外部装置を制御する制御信号を前記外部装置に出力するステップと
を実行させるプログラム。
Computer equipment,
Obtaining device information for identifying an image forming device and an external device corresponding to the image forming device;
Obtaining image data including an image and including parameters for controlling the external device;
Processing the acquired image data according to the device information;
Outputting the processed image data to an image forming apparatus specified by the apparatus information;
And a step of outputting a control signal for controlling the external device to the external device according to a parameter included in the acquired image data.
JP2008250947A 2008-09-29 2008-09-29 Information processing apparatus and program Expired - Fee Related JP5181980B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008250947A JP5181980B2 (en) 2008-09-29 2008-09-29 Information processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008250947A JP5181980B2 (en) 2008-09-29 2008-09-29 Information processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2010087548A true JP2010087548A (en) 2010-04-15
JP5181980B2 JP5181980B2 (en) 2013-04-10

Family

ID=42251108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008250947A Expired - Fee Related JP5181980B2 (en) 2008-09-29 2008-09-29 Information processing apparatus and program

Country Status (1)

Country Link
JP (1) JP5181980B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105513009A (en) * 2015-12-23 2016-04-20 联想(北京)有限公司 Information processing method and electronic device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0354984U (en) * 1989-10-04 1991-05-28
JP2004151496A (en) * 2002-10-31 2004-05-27 Msk Corp Device and method for image display

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0354984U (en) * 1989-10-04 1991-05-28
JP2004151496A (en) * 2002-10-31 2004-05-27 Msk Corp Device and method for image display

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105513009A (en) * 2015-12-23 2016-04-20 联想(北京)有限公司 Information processing method and electronic device
CN105513009B (en) * 2015-12-23 2019-09-24 联想(北京)有限公司 A kind of information processing method and electronic equipment

Also Published As

Publication number Publication date
JP5181980B2 (en) 2013-04-10

Similar Documents

Publication Publication Date Title
US10725297B2 (en) Method and system for implementing a virtual representation of a physical environment using a virtual reality environment
US20190033989A1 (en) Virtual reality environment boundaries using depth sensors
JP2020024752A (en) Information processing device, control method thereof, and program
JP7423683B2 (en) image display system
JP2016539398A (en) Augmented reality content generation for unknown objects
US10634918B2 (en) Internal edge verification
WO2018113759A1 (en) Detection system and detection method based on positioning system and ar/mr
US20200342671A1 (en) Information processing apparatus, information processing method, and program
TW201921318A (en) Apparatus and method for generating a tiled three-dimensional image representation of a scene
EP3669252A1 (en) Techniques for predictive prioritization of image portions in processing graphics
JP2021136017A (en) Augmented reality system using visual object recognition and stored geometry to create and render virtual objects
JP5304148B2 (en) Information processing apparatus and program
CN112912936A (en) Mixed reality system, program, mobile terminal device, and method
JP5120181B2 (en) Image processing apparatus and program
JP5181980B2 (en) Information processing apparatus and program
JP2014071277A (en) Head-mounted display device, method of actuating the same and program
WO2018179254A1 (en) Image generation device, image generation method, and program
WO2015141214A1 (en) Processing device for label information for multi-viewpoint images and processing method for label information
US11918928B2 (en) Virtual presentation of a playset
JP2010091728A (en) Information processor and program
WO2022185719A1 (en) Information processing device, information processing method, and display device
KR20140133764A (en) Controlling machine for multi display and method for providing contents
TWI759764B (en) Superimpose virtual object method based on optical communitation device, electric apparatus, and computer readable storage medium
WO2023032321A1 (en) Information processing device, information processing method, and program
WO2024038733A1 (en) Image processing device, image processing method and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121231

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160125

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees