JP6620979B2 - Portable terminal, projection system, control method and program for projection system - Google Patents

Portable terminal, projection system, control method and program for projection system Download PDF

Info

Publication number
JP6620979B2
JP6620979B2 JP2015208851A JP2015208851A JP6620979B2 JP 6620979 B2 JP6620979 B2 JP 6620979B2 JP 2015208851 A JP2015208851 A JP 2015208851A JP 2015208851 A JP2015208851 A JP 2015208851A JP 6620979 B2 JP6620979 B2 JP 6620979B2
Authority
JP
Japan
Prior art keywords
image
video data
projector
mapping information
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015208851A
Other languages
Japanese (ja)
Other versions
JP2017085234A (en
Inventor
橋本 浩幸
浩幸 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015208851A priority Critical patent/JP6620979B2/en
Publication of JP2017085234A publication Critical patent/JP2017085234A/en
Application granted granted Critical
Publication of JP6620979B2 publication Critical patent/JP6620979B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、プロジェクションマッピングに関する。   The present invention relates to projection mapping.

構造体の表面に映像を投写する、いわゆるプロジェクションマッピングといわれる技術が知られている(例えば特許文献1)。一般にプロジェクションマッピングにおいては、映像を投写する構造体の立体形状を示す三次元情報を用いて、投写される映像を写像変換してコンテンツを作成している。したがって、プロジェクションマッピング用のコンテンツの作成には、構造体すなわちプロジェクションマッピングを行う環境の厳密な計測や、映像編集ソフトウェアの操作を行うことが要求される。   A so-called projection mapping technique for projecting an image on the surface of a structure is known (for example, Patent Document 1). Generally, in projection mapping, content is created by mapping and transforming a projected image using three-dimensional information indicating the three-dimensional shape of a structure that projects the image. Therefore, the creation of the content for projection mapping requires the strict measurement of the structure, that is, the environment for performing the projection mapping, and the operation of the video editing software.

特開2013−192189号公報JP 2013-192189 A

従来、プロジェクションマッピング用コンテンツの作成には多くの時間と作業工程を要していた。多くの機材と工数を要するため、例えば小規模なプロジェクションマッピングを手軽に行うことは困難であった。また、従来、プロジェクションマッピングを鑑賞する場所とプロジェクターの設置場所とが異なるため,投写する画像の補正に際しては、鑑賞場所に応じた画像補正を行う必要があった。その結果として後日にプロジェクターの設置位置や鑑賞場所を変更することが困難であった。   Conventionally, the creation of projection mapping content has required a lot of time and work steps. Since a lot of equipment and man-hours are required, for example, it was difficult to carry out small-scale projection mapping easily. Conventionally, since the location where the projection mapping is viewed is different from the installation location of the projector, it is necessary to perform image correction according to the viewing location when correcting the projected image. As a result, it was difficult to change the installation position and viewing location of the projector at a later date.

これに対し本発明は、より簡易にプロジェクションマッピングを行う技術を提供する。   In contrast, the present invention provides a technique for performing projection mapping more easily.

本発明は、プロジェクターにより映像が投写される構造体の映像を撮影する撮影手段と、前記プロジェクターにより所定のテストパターンが投写されているときに前記撮影手段により撮影された映像を用いて得られた、前記構造体における映像の歪みを示す写像情報を用いて生成された映像データを取得する取得手段と、前記取得手段により取得された前記映像データを前記プロジェクターに送信する第1送信手段とを有する携帯端末を提供する。
この携帯端末によれば、より簡易にプロジェクションマッピングを行うことができる。
The present invention is obtained using an imaging unit that captures an image of a structure on which an image is projected by a projector, and an image that is captured by the imaging unit when a predetermined test pattern is projected by the projector. , An acquisition means for acquiring video data generated using mapping information indicating video distortion in the structure, and a first transmission means for transmitting the video data acquired by the acquisition means to the projector. Provide mobile devices.
According to this portable terminal, projection mapping can be performed more easily.

この携帯端末は、前記プロジェクターにより前記テストパターンが投写されているときに前記撮影手段により撮影された映像を、当該映像から前記写像情報を計算する計算手段を有するサーバーに送信する第2送信手段を有し、前記取得手段は、前記サーバーにより計算された写像情報を用いて生成された映像データを取得してもよい。
この携帯端末によれば、携帯端末が計算手段を有する場合と比較して携帯端末の負荷を軽減することができる。
The portable terminal includes: a second transmission unit configured to transmit a video captured by the imaging unit when the test pattern is projected by the projector to a server having a calculation unit that calculates the mapping information from the video. And the acquisition means may acquire video data generated using mapping information calculated by the server.
According to this portable terminal, it is possible to reduce the load on the portable terminal as compared with the case where the portable terminal has a calculation means.

この携帯端末は、前記写像情報を計算する計算手段を有し、前記取得手段は、前記計算手段により計算された写像情報を用いて生成された映像データを取得してもよい。
この携帯端末によれば、サーバーが計算手段を有する場合と比較してサーバーの負荷および通信量を軽減することができる。
The portable terminal may include a calculation unit that calculates the mapping information, and the acquisition unit may acquire video data generated using the mapping information calculated by the calculation unit.
According to this portable terminal, the load on the server and the communication amount can be reduced as compared with the case where the server has calculation means.

前記携帯端末は、前記写像情報を、当該写像情報を用いて映像データを生成する生成手段を有するサーバーに送信する第3送信手段を有し、前記取得手段は、前記サーバーから前記映像データを取得してもよい。   The portable terminal has a third transmission unit that transmits the mapping information to a server having a generation unit that generates video data using the mapping information, and the acquisition unit acquires the video data from the server. May be.

この携帯端末は、前記写像情報を用いて映像データを生成する生成手段を有し、前記取得手段は、前記生成手段から前記映像データを取得してもよい。
この携帯端末によれば、サーバーが生成手段を有する場合と比較してサーバーの負荷を軽減することができる。
The portable terminal may include a generation unit that generates video data using the mapping information, and the acquisition unit may acquire the video data from the generation unit.
According to this portable terminal, it is possible to reduce the load on the server as compared with the case where the server has a generation unit.

この携帯端末は、前記撮影手段により撮影された映像を表示する表示手段を有してもよい。
この携帯端末によれば、撮影された映像をより簡単に確認することができる。
The portable terminal may include display means for displaying the video imaged by the imaging means.
According to this portable terminal, the captured video can be confirmed more easily.

この携帯端末は、前記表示手段に表示されている映像のうち少なくとも一部の領域の指定を受け付ける第1受け付け手段を有し、前記取得手段は、前記第1受け付け手段により指定が受け付けられた領域の座標を用いて計算された写像情報を用いて生成された映像を取得してもよい。
この携帯端末によれば、指定した領域に所望の映像を投写することができる。
The portable terminal includes first receiving means for receiving designation of at least a part of the image displayed on the display means, and the acquisition means is an area for which designation is accepted by the first receiving means. You may acquire the image | video produced | generated using the mapping information calculated using these coordinates.
According to this portable terminal, a desired image can be projected onto a designated area.

この携帯端末は、前記表示手段に表示されている映像に重畳される画像オブジェクトの描画指示を受け付ける第2受け付け手段を有し、前記取得手段は、前記第2受け付け手段により受け付けられた描画指示に係る画像オブジェクトを含む映像を表示するための映像データを取得してもよい。
この携帯端末によれば、表示手段に表示される映像を見ながらマッピングする画像オブジェクトを編集することができる。
The portable terminal has a second accepting unit that accepts a drawing instruction of an image object to be superimposed on the video displayed on the display unit, and the obtaining unit receives the drawing instruction accepted by the second accepting unit. Video data for displaying a video including such an image object may be acquired.
According to this portable terminal, the image object to be mapped can be edited while viewing the video displayed on the display means.

前記テストパターンは、複数の特徴点を含んでもよい。
この携帯端末によれば、複数の特徴点により構造体の形状に関する情報を取得することができる。
The test pattern may include a plurality of feature points.
According to this portable terminal, information regarding the shape of the structure can be acquired from a plurality of feature points.

また、本発明は、所定のテストパターンの映像を構造体に投写する投写手段と、前記テストパターンが前記構造体に投写されているときに携帯端末で撮影された映像を用いて得られた、前記構造体における映像の歪みを示す写像情報を用いて生成された映像を受信する受信手段と、前記受信手段により受信された映像を前記投写手段に投写させる制御手段とを有するプロジェクターを提供する。
このプロジェクターによれば、より簡易にプロジェクションマッピングを行うことができる。
Further, the present invention is obtained using projection means for projecting an image of a predetermined test pattern onto a structure, and an image taken with a portable terminal when the test pattern is projected onto the structure, There is provided a projector including a receiving unit that receives an image generated using mapping information indicating image distortion in the structure, and a control unit that causes the projection unit to project the image received by the receiving unit.
According to this projector, projection mapping can be performed more easily.

さらに、本発明は、プロジェクターと、前記プロジェクターと通信する携帯端末とを有し、前記プロジェクターは、所定のテストパターンの映像を構造体に投写する投写手段を有し、前記携帯端末は、前記構造体の映像を撮影する撮影手段と、前記プロジェクターにより所定のテストパターンが投写されているときに前記撮影手段により撮影された映像を用いて得られた、前記構造体における映像の歪みを示す写像情報を用いて生成された映像データを取得する取得手段と、前記取得手段により取得された前記映像データを前記プロジェクターに送信する通信手段とを有し、前記プロジェクターはさらに、前記通信手段により送信された前記映像データを受信する受信手段と、前記受信手段により受信された前記映像データにより示される映像を前記投写手段に投写させる制御手段とを有する投写システムを提供する。
この投写システムによれば、より簡易にプロジェクションマッピングを行うことができる。
Furthermore, the present invention includes a projector and a portable terminal that communicates with the projector, the projector includes a projecting unit that projects an image of a predetermined test pattern onto a structure, and the portable terminal includes the structure Mapping information indicating distortion of the image in the structure obtained by using an imaging unit that captures an image of the body and an image captured by the imaging unit when a predetermined test pattern is projected by the projector Acquisition means for acquiring video data generated using the communication means, and communication means for transmitting the video data acquired by the acquisition means to the projector, wherein the projector is further transmitted by the communication means. Receiving means for receiving the video data; and a video indicated by the video data received by the receiving means. The to provide a projection system and a control means for projecting the projection means.
According to this projection system, projection mapping can be performed more easily.

さらに、本発明は、プロジェクターが、所定のテストパターンの映像を構造体に投写するステップと、携帯端末の撮影手段が、前記構造体の映像を撮影するステップと、前記携帯端末が、前記テストパターンが投写されているときに前記撮影手段により撮影された映像を用いて得られた、前記構造体における映像の歪みを示す写像情報を取得するステップと、前記携帯端末が、前記写像情報を用いて生成された映像データを取得するステップと、前記携帯端末が、前記取得された前記映像データを前記プロジェクターに送信するステップと、前記プロジェクターが、前記送信された前記映像データを受信するステップと、前記プロジェクターが、前記受信された前記映像データにより示される映像を投写するステップとを有する投写システムの制御方法を提供する。
この制御方法によれば、より簡易にプロジェクションマッピングを行うことができる。
Further, the present invention is directed to a step in which the projector projects an image of a predetermined test pattern onto the structure, a step in which a photographing unit of the portable terminal photographs an image of the structure, Obtaining the mapping information indicating the distortion of the image in the structure obtained using the image captured by the imaging means when the image is projected, and the portable terminal using the mapping information Acquiring the generated video data; the portable terminal transmitting the acquired video data to the projector; the projector receiving the transmitted video data; A projection system in which a projector projects an image indicated by the received image data. To provide a control method.
According to this control method, projection mapping can be performed more easily.

さらに、本発明は、映像を撮影する撮影手段を有するコンピューターに、プロジェクターにより映像が投写される構造体の映像を前記撮影手段が撮影するステップと、前記プロジェクターにより所定のテストパターンが投写されているときに前記撮影手段により撮影された映像を用いて得られた、前記構造体における映像の歪みを示す写像情報を用いて生成された映像データを取得するステップと、前記取得された前記映像データを前記プロジェクターに送信するステップとを実行させるためのプログラムを提供する。
このプログラムによれば、より簡易にプロジェクションマッピングを行うことができる。
Further, according to the present invention, a step in which the photographing unit photographs an image of a structure on which a video is projected by a projector is projected on a computer having a photographing unit for photographing an image, and a predetermined test pattern is projected by the projector. A step of acquiring video data generated by using mapping information indicating a distortion of the video in the structure, which is sometimes obtained using the video shot by the shooting means, and the acquired video data And a program for executing the step of transmitting to the projector.
According to this program, projection mapping can be performed more easily.

第1実施形態に係る投写システム1の構成を例示する図。1 is a diagram illustrating a configuration of a projection system 1 according to a first embodiment. プロジェクター10のハードウェア構成を例示する図。2 is a diagram illustrating a hardware configuration of the projector 10. FIG. 携帯端末20のハードウェア構成を例示する図。The figure which illustrates the hardware constitutions of the portable terminal 20. サーバー30のハードウェア構成を例示する図。The figure which illustrates the hardware constitutions of the server 30. 投写システム1の第1実施形態に係る動作を例示するシーケンスチャート。3 is a sequence chart illustrating an operation according to the first embodiment of the projection system 1. 表示される映像を例示する図。The figure which illustrates the image | video displayed. 領域の指定を例示する図。The figure which illustrates designation | designated of an area | region. マッピング映像データに従った映像が投写された構造体を例示する図。The figure which illustrates the structure by which the picture according to mapping picture data was projected. 第2実施形態に係る投写システム2の構成を例示する図。The figure which illustrates the structure of the projection system 2 which concerns on 2nd Embodiment. 投写システム2の第2実施形態に係る動作を例示するシーケンスチャート。10 is a sequence chart illustrating an operation according to the second embodiment of the projection system 2; UI画面を例示する図。The figure which illustrates UI screen. マッピング映像データに従った映像が投写された構造体を例示する図。The figure which illustrates the structure by which the picture according to mapping picture data was projected.

1.第1実施形態
1−1.構成
図1は、第1実施形態に係る投写システム1の構成を例示する図である。投写システム1は、プロジェクションマッピングを行うためのシステムである。投写システム1は、プロジェクター10、携帯端末20、およびサーバー30を有する。プロジェクター10は、映像を投写する。携帯端末20は、プロジェクター10が投写するコンテンツすなわち映像データを生成するための装置であり、投写システム1におけるクライアント装置である。サーバー30は、携帯端末20と協働して映像データを生成する装置であり、投写システム1におけるサーバー装置である。
1. First embodiment 1-1. Configuration FIG. 1 is a diagram illustrating a configuration of a projection system 1 according to the first embodiment. The projection system 1 is a system for performing projection mapping. The projection system 1 includes a projector 10, a mobile terminal 20, and a server 30. The projector 10 projects an image. The mobile terminal 20 is a device for generating content projected by the projector 10, that is, video data, and is a client device in the projection system 1. The server 30 is a device that generates video data in cooperation with the mobile terminal 20, and is a server device in the projection system 1.

投写システム1は、投写手段11、受信手段12、制御手段13、撮影手段21、表示手段22、受け付け手段23、送信手段24、取得手段25、送信手段26、計算手段31、取得手段32、記憶手段33、生成手段34、および送信手段35を有する。この例で、投写手段11、受信手段12、および制御手段13はプロジェクター10に、撮影手段21、表示手段22、受け付け手段23、送信手段24、取得手段25、および送信手段26は携帯端末20に、計算手段31、取得手段32、記憶手段33、生成手段34、および送信手段35はサーバー30に、それぞれ実装されている。   The projection system 1 includes a projection unit 11, a reception unit 12, a control unit 13, a photographing unit 21, a display unit 22, a reception unit 23, a transmission unit 24, an acquisition unit 25, a transmission unit 26, a calculation unit 31, an acquisition unit 32, and a storage. Means 33, generation means 34, and transmission means 35 are provided. In this example, the projection unit 11, the reception unit 12, and the control unit 13 are in the projector 10, and the imaging unit 21, the display unit 22, the reception unit 23, the transmission unit 24, the acquisition unit 25, and the transmission unit 26 are in the portable terminal 20. The calculation unit 31, the acquisition unit 32, the storage unit 33, the generation unit 34, and the transmission unit 35 are mounted on the server 30, respectively.

プロジェクター10の投写手段11は、所定のテストパターンの映像を構造体(図示略。)に投写する。構造体とは、物理的に実体のあるオブジェクトをいい、例えばビルや家などの建築物、およびブロックや箱など移動可能な物体の少なくとも一方を含む。携帯端末20の撮影手段21は、プロジェクター10によりテストパターンが投写された構造体の映像を撮影する。表示手段22は、撮影手段が撮影した映像を表示する。受け付け手段23(第1受け付け手段の一例)は、ユーザーの操作入力、例えば、表示手段22に表示されている映像のうち少なくとも一部の領域の指定を受け付ける。送信手段24(第2送信手段の一例)は、撮影手段21により撮影された映像を示す映像データ、および受け付け手段23が指定を受け付けた領域を特定する情報(以下「領域情報」という)をサーバー30に送信する。   The projection unit 11 of the projector 10 projects an image of a predetermined test pattern onto a structure (not shown). The structure refers to a physically substantial object, and includes at least one of a building such as a building or a house and a movable object such as a block or a box. The photographing unit 21 of the portable terminal 20 photographs an image of the structure on which the test pattern is projected by the projector 10. The display means 22 displays the video imaged by the imaging means. The accepting unit 23 (an example of the first accepting unit) accepts a user operation input, for example, designation of at least a part of the image displayed on the display unit 22. The transmission unit 24 (an example of the second transmission unit) stores video data indicating the video imaged by the imaging unit 21 and information (hereinafter referred to as “region information”) for specifying an area that the reception unit 23 has received designation. 30.

サーバー30の計算手段31は、携帯端末20から送信された映像データおよび領域情報を用いて写像情報を計算する。写像情報とは、構造体における映像の歪みを示す情報をいう。取得手段32は、計算手段31により計算された写像情報を取得する。記憶手段33は、プロジェクションマッピングの基となる映像データを記憶している。この映像データは、例えば、動画または静止画を示すデータである。この映像データは、平面に投写されたときに意図したとおりに写る映像を示すデータである。生成手段34は、記憶手段33に記憶されている映像データを、取得手段32が取得した写像情報を用いて、構造体の歪みに応じて変換する。すなわち、生成手段34は、プロジェクションマッピング用の映像データを生成する。送信手段35は、生成手段34により生成された映像データを、携帯端末20に送信する。   The calculation means 31 of the server 30 calculates mapping information using the video data and area information transmitted from the mobile terminal 20. The mapping information refers to information indicating image distortion in the structure. The acquisition unit 32 acquires the mapping information calculated by the calculation unit 31. The storage means 33 stores video data that is the basis of projection mapping. This video data is, for example, data indicating a moving image or a still image. This video data is data indicating a video that is projected as intended when projected onto a plane. The generation unit 34 converts the video data stored in the storage unit 33 according to the distortion of the structure using the mapping information acquired by the acquisition unit 32. That is, the generation unit 34 generates video data for projection mapping. The transmission unit 35 transmits the video data generated by the generation unit 34 to the mobile terminal 20.

携帯端末20の取得手段25は、サーバー30からプロジェクションマッピング用の映像データを取得する。送信手段26(第1送信手段の一例)は、取得手段25が取得した映像データをプロジェクター10に送信する。プロジェクター10の受信手段12は、携帯端末20から映像データを受信する。制御手段13は、受信手段12により受信された映像データに従った映像を投写するよう、投写手段11を制御する。   The acquisition unit 25 of the portable terminal 20 acquires video data for projection mapping from the server 30. The transmission unit 26 (an example of a first transmission unit) transmits the video data acquired by the acquisition unit 25 to the projector 10. The receiving unit 12 of the projector 10 receives video data from the mobile terminal 20. The control unit 13 controls the projection unit 11 to project an image according to the video data received by the reception unit 12.

図2は、プロジェクター10のハードウェア構成を例示する図である。プロジェクター10は、CPU(Central Processing Unit)100、ROM(Read Only Memory)101、RAM(Random Access Memory)102、IF部104、画像処理回路105、投写ユニット106、および操作パネル107を有する。   FIG. 2 is a diagram illustrating a hardware configuration of the projector 10. The projector 10 includes a CPU (Central Processing Unit) 100, a ROM (Read Only Memory) 101, a RAM (Random Access Memory) 102, an IF unit 104, an image processing circuit 105, a projection unit 106, and an operation panel 107.

CPU100は、プロジェクター10の各部を制御する制御装置である。ROM101は、各種プログラムおよびデータを記憶した不揮発性の記憶装置である。RAM102は、データを記憶する揮発性の記憶装置であり、CPU100が処理を実行する際のワークエリアとして機能する。   The CPU 100 is a control device that controls each unit of the projector 10. The ROM 101 is a non-volatile storage device that stores various programs and data. The RAM 102 is a volatile storage device that stores data, and functions as a work area when the CPU 100 executes processing.

IF部104は、外部装置と信号またはデータのやりとりを仲介するインターフェースである。IF部104は、外部装置と信号またはデータのやりとりをするための端子(例えば、VGA端子、USB端子、有線LANインターフェース、S端子、RCA端子、HDMI(High-Definition Multimedia Interface:登録商標)端子、マイクロフォン端子など)および無線LANインターフェースを含む。これらの端子は、映像入力端子に加え、映像出力端子を含んでもよい。IF部104は、異なる複数の映像供給装置から映像信号の入力を受け付けてもよい。   The IF unit 104 is an interface that mediates exchange of signals or data with an external device. The IF unit 104 is a terminal (for example, VGA terminal, USB terminal, wired LAN interface, S terminal, RCA terminal, HDMI (High-Definition Multimedia Interface: registered trademark) terminal) for exchanging signals or data with an external device. Microphone terminal) and a wireless LAN interface. These terminals may include a video output terminal in addition to the video input terminal. The IF unit 104 may accept input of video signals from a plurality of different video supply devices.

画像処理回路105は、入力された映像信号(以下「入力映像信号」という)に所定の画像処理(例えばサイズ変更、台形補正等)を施す。   The image processing circuit 105 performs predetermined image processing (eg, size change, keystone correction, etc.) on the input video signal (hereinafter referred to as “input video signal”).

投写ユニット106は、画像処理が施された映像信号に従って、スクリーンまたは壁面等の投写面に画像を投写する。投写ユニット106は、光源、光変調器、および光学系(いずれも図示略)を有する。光源は、高圧水銀ランプ、ハロゲンランプ、もしくはメタルハライドランプなどのランプ、またはLED(Light Emitting Diode)もしくはレーザーダイオードなどの固体光源、およびこれらの駆動回路を含む。光変調器は、光源から照射された光を映像信号に応じて変調する装置であり、例えば液晶パネルまたはDMD(Digital Mirror Device)、およびこれらの駆動回路を有する。なお、液晶パネルは、透過型および反射型のいずれの方式であってもよい。光学系は、光変調器により変調された光をスクリーンに投写する素子などで構成されており、例えばミラー、レンズ、およびプリズムを有する。光源および光変調器は色成分毎に設けられていてもよい。   The projection unit 106 projects an image on a projection surface such as a screen or a wall surface in accordance with a video signal subjected to image processing. The projection unit 106 includes a light source, an optical modulator, and an optical system (all not shown). The light source includes a lamp such as a high-pressure mercury lamp, a halogen lamp, or a metal halide lamp, or a solid light source such as an LED (Light Emitting Diode) or a laser diode, and a drive circuit thereof. The optical modulator is a device that modulates light emitted from a light source according to a video signal, and includes, for example, a liquid crystal panel or a DMD (Digital Mirror Device) and a drive circuit thereof. The liquid crystal panel may be either a transmission type or a reflection type. The optical system includes an element that projects light modulated by the light modulator onto a screen, and includes, for example, a mirror, a lens, and a prism. A light source and a light modulator may be provided for each color component.

操作パネル107は、ユーザーがプロジェクター10に対し指示を入力するための入力装置であり、例えば、キーパッド、ボタン、またはタッチパネルを含む。   The operation panel 107 is an input device for a user to input an instruction to the projector 10 and includes, for example, a keypad, buttons, or a touch panel.

プロジェクター10において、CPU100がROM101に記憶されているプログラムを実行することにより、図1に示した機能が実装される。投写ユニット106は、投写手段11の一例である。IF部104は、受信手段12の一例である。CPU100は、制御手段13の一例である。   In the projector 10, the functions shown in FIG. 1 are implemented when the CPU 100 executes a program stored in the ROM 101. The projection unit 106 is an example of the projection unit 11. The IF unit 104 is an example of the receiving unit 12. The CPU 100 is an example of the control unit 13.

図3は、携帯端末20のハードウェア構成を例示する図である。携帯端末20は、CPU200、メモリー201、ストレージ202、入力装置203、表示装置204、通信IF205、およびカメラ206を有するコンピューター装置、例えば、スマートフォンまたはタブレット端末である。CPU200は、各種演算を行い、また他のハードウェア要素を制御する装置である。メモリー201は、CPU200が処理を実行する際に用いられるコードおよびデータを記憶する記憶装置であり、例えばROMおよびRAMを含む。ストレージ202は、各種のデータおよびプログラムを記憶する不揮発性の記憶装置であり、例えばHDD(Hard Disk Drive)またはフラッシュメモリーを含む。入力装置203は、CPU200に情報を入力するための装置であり、例えばタッチスクリーンおよびボタンを含んでいる。表示装置204は、映像を出力する装置であり、例えば液晶ディスプレイまたは有機ELディスプレイを含む。通信IF205は、ネットワーク(図示略)を介してサーバー30と通信を行うインターフェースである。このネットワークは、例えば、インターネット、無線LAN、および移動通信網の少なくとも1つを含む。カメラ206は、映像を撮影する装置であり、例えば、レンズ、CMOSセンサー、および画像処理回路を含む。   FIG. 3 is a diagram illustrating a hardware configuration of the mobile terminal 20. The portable terminal 20 is a computer device having a CPU 200, a memory 201, a storage 202, an input device 203, a display device 204, a communication IF 205, and a camera 206, for example, a smartphone or a tablet terminal. The CPU 200 is a device that performs various calculations and controls other hardware elements. The memory 201 is a storage device that stores codes and data used when the CPU 200 executes processing, and includes, for example, a ROM and a RAM. The storage 202 is a non-volatile storage device that stores various data and programs, and includes, for example, an HDD (Hard Disk Drive) or a flash memory. The input device 203 is a device for inputting information to the CPU 200, and includes, for example, a touch screen and buttons. The display device 204 is a device that outputs an image, and includes, for example, a liquid crystal display or an organic EL display. The communication IF 205 is an interface that communicates with the server 30 via a network (not shown). This network includes, for example, at least one of the Internet, a wireless LAN, and a mobile communication network. The camera 206 is a device that captures an image, and includes, for example, a lens, a CMOS sensor, and an image processing circuit.

この例で、ストレージ202は、コンピューター装置を投写システム1におけるクライアント装置として機能させるためのプログラム(以下「クライアントプログラム」という)を記憶している。CPU200がクライアントプログラムを実行することにより、図1に示した機能が実装される。クライアントプログラムを実行しているCPU200により制御されるカメラ206は撮影手段21の一例であり、表示装置204は表示手段22の一例であり、入力装置203は受け付け手段23の一例であり、通信IF205は送信手段24、取得手段25、および送信手段26の一例である。   In this example, the storage 202 stores a program for causing a computer device to function as a client device in the projection system 1 (hereinafter referred to as “client program”). The functions shown in FIG. 1 are implemented by the CPU 200 executing the client program. The camera 206 controlled by the CPU 200 executing the client program is an example of the photographing unit 21, the display device 204 is an example of the display unit 22, the input device 203 is an example of the receiving unit 23, and the communication IF 205 is It is an example of the transmission means 24, the acquisition means 25, and the transmission means.

図4は、サーバー30のハードウェア構成を例示する図である。サーバー30は、CPU300、メモリー301、ストレージ302、および通信IF305を有するコンピューター装置である。CPU300は、各種演算を行い、また他のハードウェア要素を制御する装置である。メモリー301は、CPU300が処理を実行する際に用いられるコードおよびデータを記憶する記憶装置であり、例えばROMおよびRAMを含む。ストレージ302は、各種のデータおよびプログラムを記憶する不揮発性の記憶装置であり、例えばHDD(Hard Disk Drive)またはフラッシュメモリーを含む。通信IF305は、ネットワーク(図示略)を介して携帯端末20と通信を行うインターフェースである。   FIG. 4 is a diagram illustrating a hardware configuration of the server 30. The server 30 is a computer device having a CPU 300, a memory 301, a storage 302, and a communication IF 305. The CPU 300 is a device that performs various calculations and controls other hardware elements. The memory 301 is a storage device that stores codes and data used when the CPU 300 executes processing, and includes, for example, a ROM and a RAM. The storage 302 is a non-volatile storage device that stores various data and programs, and includes, for example, an HDD (Hard Disk Drive) or a flash memory. The communication IF 305 is an interface that communicates with the mobile terminal 20 via a network (not shown).

この例で、ストレージ302は、コンピューター装置を投写システム1におけるサーバー装置として機能させるためのプログラム(以下「サーバープログラム」という)を記憶している。CPU300がサーバープログラムを実行することにより、図1に示した機能が実装される。サーバープログラムを実行しているCPU300は、計算手段31、取得手段32、および生成手段34の一例であり、サーバープログラムを実行しているCPU300により制御される通信IF305は送信手段35の一例であり、メモリー301またはストレージ302は記憶手段33の一例である。   In this example, the storage 302 stores a program for causing a computer device to function as a server device in the projection system 1 (hereinafter referred to as “server program”). The functions shown in FIG. 1 are implemented when the CPU 300 executes the server program. The CPU 300 executing the server program is an example of the calculating unit 31, the acquiring unit 32, and the generating unit 34. The communication IF 305 controlled by the CPU 300 executing the server program is an example of the transmitting unit 35. The memory 301 or the storage 302 is an example of the storage unit 33.

1−2.動作
図5は、投写システム1の第1実施形態に係る動作を例示するシーケンスチャートである。以下の説明において、携帯端末20の処理はクライアントプログラムによるものであり、サーバー30の処理はサーバープログラムによるものである。図5のシーケンスの開始前において、プロジェクター10はある構造体に映像を投写する位置に設置されている。
1-2. Operation FIG. 5 is a sequence chart illustrating an operation according to the first embodiment of the projection system 1. In the following description, the processing of the mobile terminal 20 is based on the client program, and the processing of the server 30 is based on the server program. Before the start of the sequence of FIG. 5, the projector 10 is installed at a position where an image is projected onto a certain structure.

ステップS10において、プロジェクター10の投写ユニット106は、テストパターンの映像を構造体に投写する。テストパターンは、映像が投写される面の形状に起因する映像の歪みを補正するための映像であり、具体的には、格子模様等、複数の特徴点を含む静止画の映像である。テストパターンの映像データは、ROM101に記憶されている。あるいは、テストパターンの映像データは、携帯端末20から供給されてもよい。   In step S10, the projection unit 106 of the projector 10 projects a test pattern image on the structure. The test pattern is an image for correcting distortion of the image due to the shape of the surface on which the image is projected. Specifically, the test pattern is a still image image including a plurality of feature points such as a lattice pattern. The video data of the test pattern is stored in the ROM 101. Alternatively, the test pattern video data may be supplied from the mobile terminal 20.

ステップS11において、携帯端末20のクライアントプログラムは、構造体に投写されたテストパターンの映像を、カメラ206を用いて撮影する。ここで撮影される映像は静止画である。ステップS12において、クライアントプログラムは、撮影した映像を表示装置204に表示する。ステップS13において、クライアントプログラムは、表示されている映像において、プロジェクションマッピングを行う領域の指定を受け付ける。   In step S <b> 11, the client program of the mobile terminal 20 captures an image of the test pattern projected on the structure using the camera 206. The video imaged here is a still image. In step S <b> 12, the client program displays the captured video on the display device 204. In step S <b> 13, the client program accepts designation of an area for performing projection mapping in the displayed video.

図6Aは表示される映像を例示する図であり、図6Bは領域の指定を例示する図である。カメラ206により撮影された映像には、構造体Oおよびその周辺の構造体に投写されたテストパターンが含まれている。ユーザーは、この映像のうちプロジェクションマッピングを行う領域として領域Aを指定している。領域Aは、タッチスクリーンを用いて指定される。   FIG. 6A is a diagram illustrating an image to be displayed, and FIG. 6B is a diagram illustrating designation of a region. An image photographed by the camera 206 includes a test pattern projected on the structure O and the surrounding structures. The user designates area A as an area for projection mapping in the video. Region A is specified using a touch screen.

再び図5を参照する。ステップS14において、クライアントプログラムは、撮影された映像を示す映像データ(以下「撮影映像データ」という)および領域Aを特定する情報(以下「領域情報」という)をサーバー30に送信する。   Refer to FIG. 5 again. In step S <b> 14, the client program transmits video data indicating the captured video (hereinafter referred to as “captured video data”) and information specifying the region A (hereinafter referred to as “region information”) to the server 30.

ステップS15において、サーバー30のサーバープログラムは、携帯端末20から受信した撮影映像データおよび領域情報に基づいて、写像情報を計算する。写像情報は、入力映像(表示したい映像)と出力映像(プロジェクター10が投写する映像)との画素の対応関係を示す情報であれば、どのような形式のものであってもよい。   In step S <b> 15, the server program of the server 30 calculates mapping information based on the captured video data and area information received from the mobile terminal 20. The mapping information may be in any format as long as it is information indicating the correspondence between pixels of the input video (video to be displayed) and the output video (video projected by the projector 10).

ステップS16において、サーバープログラムは、データベースに記憶している映像データ(以下「コンテンツ映像データ」という)の中から選択された一のコンテンツ映像データにより示される映像を、ステップS15で計算した写像情報を用いて射影変換し、プロジェクションマッピング用の映像データ(以下「マッピング映像データ」という)を生成する。ステップS17において、サーバープログラムは、生成されたマッピング映像データを、撮影映像データの送信元である携帯端末20に送信する。   In step S16, the server program uses the mapping information calculated in step S15 for the video indicated by one content video data selected from the video data (hereinafter referred to as “content video data”) stored in the database. Projection conversion is performed to generate video data for projection mapping (hereinafter referred to as “mapping video data”). In step S17, the server program transmits the generated mapping video data to the mobile terminal 20 that is the transmission source of the captured video data.

ステップS17において、携帯端末20のクライアントプログラムは、サーバー30からマッピング映像データを受信する。クライアントプログラムは、受信したマッピング映像データを、プロジェクター10が処理可能な形態のデータに変換する。ステップS18において、クライアントプログラムは、変換したマッピング映像データをプロジェクター10に送信する。   In step S <b> 17, the client program of the mobile terminal 20 receives the mapping video data from the server 30. The client program converts the received mapping video data into data that can be processed by the projector 10. In step S <b> 18, the client program transmits the converted mapping video data to the projector 10.

ステップS19において、プロジェクター10は、携帯端末20から受信したマッピング映像データに従って映像を投写する。   In step S <b> 19, the projector 10 projects an image according to the mapping image data received from the mobile terminal 20.

図7は、マッピング映像データに従った映像が投写された構造体を例示する図である。携帯端末20の位置から見ると、映像は正しく(歪みが低減されて)表示されている。このように本実施形態によれば、特定の鑑賞位置からの映像を歪みの無い形状に調整することができる。   FIG. 7 is a diagram illustrating a structure on which an image according to the mapping image data is projected. When viewed from the position of the mobile terminal 20, the image is displayed correctly (with reduced distortion). As described above, according to the present embodiment, an image from a specific viewing position can be adjusted to a shape without distortion.

2.第2実施形態
2−1.構成
図8は、第2実施形態に係る投写システム2の構成を例示する図である。投写システム2において構造体に投写される映像はあらかじめサーバー30に記憶されていたが、第2実施形態において、携帯端末20は画像オブジェクトの描画指示を受け付け、プロジェクター10はこの画像オブジェクトを含む映像を投写する。以下の説明においては、第1実施形態と相違する要素を中心に説明する。
2. Second embodiment 2-1. Configuration FIG. 8 is a diagram illustrating a configuration of the projection system 2 according to the second embodiment. The image projected on the structure in the projection system 2 is stored in the server 30 in advance. However, in the second embodiment, the mobile terminal 20 receives an image object drawing instruction, and the projector 10 displays the image including the image object. Project. In the following description, it demonstrates centering on the element which is different from 1st Embodiment.

投写システム2は、投写手段11、受信手段12、制御手段13、撮影手段21、表示手段22、送信手段24、取得手段25、計算手段31、送信手段36、受け付け手段27、および生成手段28を有する。この例で、投写手段11、受信手段12、および制御手段13はプロジェクター10に、撮影手段21、表示手段22、送信手段24、取得手段25、受け付け手段27、および生成手段28は携帯端末20に、計算手段31および送信手段36はサーバー30に、それぞれ実装されている。   The projection system 2 includes a projection unit 11, a reception unit 12, a control unit 13, a photographing unit 21, a display unit 22, a transmission unit 24, an acquisition unit 25, a calculation unit 31, a transmission unit 36, a reception unit 27, and a generation unit 28. Have. In this example, the projection unit 11, the reception unit 12, and the control unit 13 are in the projector 10, and the imaging unit 21, the display unit 22, the transmission unit 24, the acquisition unit 25, the reception unit 27, and the generation unit 28 are in the portable terminal 20. The calculation means 31 and the transmission means 36 are mounted on the server 30, respectively.

携帯端末20の送信手段24は、撮影手段21により撮影された映像を示す映像データ(「撮影映像データ」)をサーバー30に送信する。サーバー30の計算手段31は、携帯端末20から送信された映像データを用いて写像情報を計算する。送信手段36は、計算手段31により計算された写像情報を、携帯端末20に送信する。   The transmission unit 24 of the portable terminal 20 transmits video data (“photographed video data”) indicating the video captured by the imaging unit 21 to the server 30. The calculation means 31 of the server 30 calculates mapping information using the video data transmitted from the mobile terminal 20. The transmission unit 36 transmits the mapping information calculated by the calculation unit 31 to the portable terminal 20.

携帯端末20の受け付け手段27(第2受け付け手段の一例)は、ユーザーによる画像オブジェクトの描画指示を受け付ける。画像オブジェクトとは画像要素の集合をいう。画像要素とは、点、線、領域、およびこれらの色をいう。画像オブジェクトは、例えば、多角形、楕円、または線である。あるいは、画像オブジェクトは、手書きの線画を含んでもよい。   The receiving unit 27 (an example of the second receiving unit) of the mobile terminal 20 receives an image object drawing instruction from the user. An image object is a set of image elements. Image elements refer to points, lines, regions, and their colors. The image object is, for example, a polygon, an ellipse, or a line. Alternatively, the image object may include a handwritten line drawing.

生成手段28は、受け付け手段27により描画が受け付けられた画像オブジェクトを含む映像データを、サーバー30から受信した写像情報を用いて生成する。取得手段25は、生成手段28により生成された映像データを取得する。   The generation unit 28 generates video data including the image object whose drawing has been received by the reception unit 27 using the mapping information received from the server 30. The acquisition unit 25 acquires the video data generated by the generation unit 28.

2−2.動作
図9は、投写システム2の第2実施形態に係る動作を例示するシーケンスチャートである。ステップS20において、プロジェクター10の投写ユニット106は、テストパターンの映像を構造体に投写する。ステップS21において、携帯端末20のクライアントプログラムは、構造体に投写されたテストパターンの映像を、カメラ206を用いて撮影する。ステップS22において、クライアントプログラムは、撮影した映像を表示装置204に表示する。ステップS23において、クライアントプログラムは、撮影データをサーバーに送信する。
2-2. Operation FIG. 9 is a sequence chart illustrating an operation according to the second embodiment of the projection system 2. In step S20, the projection unit 106 of the projector 10 projects the test pattern image on the structure. In step S <b> 21, the client program of the mobile terminal 20 captures an image of the test pattern projected on the structure using the camera 206. In step S <b> 22, the client program displays the captured video on the display device 204. In step S23, the client program transmits the shooting data to the server.

ステップS24において、サーバー30のサーバープログラムは、携帯端末20から受信した撮影データを用いて写像情報を計算する。ステップS25において、サーバープログラムは、計算された写像情報を携帯端末20に送信する。ステップS26において、携帯端末20のクライアントプログラムは、画像オブジェクトの描画を受け付ける。   In step S <b> 24, the server program of the server 30 calculates mapping information using the shooting data received from the mobile terminal 20. In step S <b> 25, the server program transmits the calculated mapping information to the mobile terminal 20. In step S26, the client program of the portable terminal 20 accepts drawing of an image object.

図10はUI画面を例示する図である。カメラ206を用いて撮影された映像が表示されているところに、ユーザーは自信の指やスタイラスペンPを用いて撮影映像の上に(撮影映像に重畳して)画像オブジェクトを描画することができる。あるいは、ユーザーは、規定の画像オブジェクトを、その位置、大きさ、および向きを指定して撮影映像の上に貼り付けることができる。ここでの画像オブジェクトの編集には、公知の画像編集ソフトウェアの技術を用いることができる。   FIG. 10 is a diagram illustrating a UI screen. Where an image captured using the camera 206 is displayed, the user can draw an image object on the captured image (superimposed on the captured image) using his / her confidence finger or stylus pen P. . Alternatively, the user can specify the position, size, and orientation of the prescribed image object and paste it on the captured video. For editing the image object here, a known image editing software technique can be used.

再び図9を参照する。ステップS27において、クライアントプログラムは、UI画面を介して入力された指示に応じて描画された画像オブジェクトを含むマッピング映像データを生成する。このマッピング映像データは、サーバー30から受信した写像情報を用いて写像変換された画像オブジェクトを含んでいる。   Refer to FIG. 9 again. In step S27, the client program generates mapping video data including an image object drawn in accordance with an instruction input via the UI screen. This mapping video data includes an image object that has undergone mapping conversion using mapping information received from the server 30.

ステップS28において、クライアントプログラムは、携帯端末20にマッピング映像データを送信する。ステップS29において、プロジェクター10は、携帯端末20から受信したマッピング映像データに従って映像を表示する。ここで表示される映像は、ステップS26においてユーザーの操作入力に応じて編集された画像オブジェクトを含んでいる。この画像オブジェクトは、背景(構造体O)との位置関係やサイズの関係もUI画面を介して指定されている。すなわち、ユーザーが携帯端末20を介して描画した画像オブジェクトが、ほぼインタラクティブに実際にプロジェクションマッピングされる。   In step S <b> 28, the client program transmits mapping video data to the mobile terminal 20. In step S <b> 29, the projector 10 displays a video according to the mapping video data received from the mobile terminal 20. The video displayed here includes the image object edited in response to the user's operation input in step S26. This image object also has a positional relationship and a size relationship with the background (structure O) specified via the UI screen. That is, the image object drawn by the user via the mobile terminal 20 is actually projection mapped almost interactively.

図11は、マッピング映像データに従った映像が投写された構造体を例示する図である。携帯端末20の位置から見ると、映像は正しく(歪みが低減されて)表示されている。このように本実施形態によれば、構造体に対してプロジェクションマッピングする画像オブジェクトをインタラクティブに編集することができる。またこのとき、本実施形態によれば、特定の鑑賞位置からの映像を歪みの無い形状に調整することができる。   FIG. 11 is a diagram illustrating a structure on which an image according to the mapping image data is projected. When viewed from the position of the mobile terminal 20, the image is displayed correctly (with reduced distortion). As described above, according to the present embodiment, it is possible to interactively edit an image object to be projection mapped to a structure. At this time, according to the present embodiment, it is possible to adjust an image from a specific viewing position to a shape without distortion.

3.変形例
本発明は上述の実施形態に限定されるものではなく、種々の変形実施が可能である。以下、変形例をいくつか説明する。以下の変形例のうち2つ以上のものが組み合わせて用いられてもよい。
3. Modifications The present invention is not limited to the above-described embodiments, and various modifications can be made. Hereinafter, some modifications will be described. Two or more of the following modifications may be used in combination.

携帯端末20およびサーバー30における機能の分担は第1実施形態および第2実施形態で例示したものに限定されない。携帯端末20およびサーバー30が有する機能には、写像情報を計算する機能およびマッピング映像データを生成する機能が含まれる。第1実施形態においてはサーバー30がこれら2つの機能(計算手段31および生成手段34)を有する例を説明した。第2実施形態においては携帯端末20が生成手段28を、サーバー30が計算手段31を有する例を説明した。例えば、これら2つの機能はいずれも携帯端末20に集約されていてもよい。あるいは、写像情報を計算する機能を携帯端末20が有し、マッピング映像データを生成する機能をサーバー30が有していてもよい。なお、写像情報を計算する機能およびマッピング映像データを生成する機能がいずれも携帯端末20以外の装置に実装されている場合、これら2つの機能はそれぞれ異なる2台のサーバーに実装されていてもよい。なお、写像情報を計算する機能を携帯端末20が有する場合、携帯端末20は、この写像情報をサーバー30に送信する送信手段(第3送信手段の一例)を有する。   The sharing of functions in the mobile terminal 20 and the server 30 is not limited to those exemplified in the first embodiment and the second embodiment. The functions of the portable terminal 20 and the server 30 include a function of calculating mapping information and a function of generating mapping video data. In the first embodiment, the example in which the server 30 has these two functions (the calculation unit 31 and the generation unit 34) has been described. In the second embodiment, the example in which the mobile terminal 20 includes the generation unit 28 and the server 30 includes the calculation unit 31 has been described. For example, these two functions may be integrated in the mobile terminal 20. Alternatively, the mobile terminal 20 may have a function of calculating mapping information, and the server 30 may have a function of generating mapping video data. When both the function for calculating mapping information and the function for generating mapping video data are implemented in a device other than the mobile terminal 20, these two functions may be implemented in two different servers. . When the mobile terminal 20 has a function of calculating mapping information, the mobile terminal 20 includes a transmission unit (an example of a third transmission unit) that transmits the mapping information to the server 30.

マッピング映像データにより示される映像は、第1実施形態および第2実施形態で例示したものに限定されない。第1実施形態において領域の指定に加えて画像オブジェクトの描画の指示が受け付けられ、この指示に基づいてサーバー30がマッピング映像データを生成してもよい。また、第2実施形態において、携帯端末20に記憶されている動画や静止画を表示する領域をUI画面上で指定し、その領域に動画や静止画を表示するマッピング映像データを携帯端末20が生成してもよい。   The video shown by the mapping video data is not limited to those exemplified in the first embodiment and the second embodiment. In the first embodiment, an instruction to draw an image object may be accepted in addition to the area designation, and the server 30 may generate mapping video data based on this instruction. In the second embodiment, the mobile terminal 20 designates an area for displaying a moving image or a still image stored in the mobile terminal 20 on the UI screen, and the mobile terminal 20 displays mapping video data for displaying the moving image or the still image in the area. It may be generated.

実施形態においては撮影映像が静止画である例を説明したが、撮影映像は動画であってもよい。すなわち、携帯端末20は構造体Oの映像を動画で撮影し続け、表示装置に204にリアルタイムで撮影画像を表示してもよい。   Although an example in which the captured video is a still image has been described in the embodiment, the captured video may be a moving image. That is, the mobile terminal 20 may continue to capture the video of the structure O as a moving image and display the captured image on the display device 204 in real time.

第2実施形態において、UI画面上で描画した画像オブジェクトを含むマッピング映像データをプロジェクター10に送信した後は、クライアントプログラムは、携帯端末20上で描画された画像オブジェクトの表示を停止してもよい。例えば、カメラ206を介して構造体Oの映像を(動画で)撮影し続けているような場合、構造体Oに投写された画像と、UI画面で描画された画像とが重なってしまうことがあるが、この例によればこの事態が避けられる。   In the second embodiment, after transmitting the mapping video data including the image object drawn on the UI screen to the projector 10, the client program may stop displaying the image object drawn on the mobile terminal 20. . For example, in the case where the video of the structure O is being continuously captured via the camera 206 (as a moving image), the image projected on the structure O and the image drawn on the UI screen may overlap. Yes, this example avoids this situation.

プロジェクター10は、携帯端末20から受信したマッピング映像データをRAM102等に記憶してもよい。この例によれば、携帯端末20との接続が切断された後も映像を投写することができる。   The projector 10 may store the mapping video data received from the mobile terminal 20 in the RAM 102 or the like. According to this example, an image can be projected even after the connection with the mobile terminal 20 is disconnected.

マッピング映像データを生成する機能がネットワーク上のサーバーに実装されている場合、プロジェクター10は、携帯端末20を介さずにマッピング映像データを取得してもよい。例えば、携帯端末20は、マッピング映像データをダウンロードするためのURLをプロジェクター10に通知し、プロジェクター10はこのURLからマッピング映像データを取得してもよい。   When the function for generating the mapping video data is implemented in a server on the network, the projector 10 may acquire the mapping video data without using the mobile terminal 20. For example, the mobile terminal 20 may notify the projector 10 of a URL for downloading the mapping video data, and the projector 10 may acquire the mapping video data from this URL.

投写システムを構成する装置のハードウェア構成は実施形態で例示したものに限定されない。例えば、携帯端末20はカメラを内蔵しておらず、外部装置であるカメラから撮影映像を取得してもよい。   The hardware configuration of the apparatus constituting the projection system is not limited to that exemplified in the embodiment. For example, the mobile terminal 20 may not have a camera built therein, and may acquire a captured video from a camera that is an external device.

プロジェクター10、携帯端末20、およびサーバー30において実行されるプログラムは、光ディスク、半導体メモリー等の各種記憶された状態で提供されてもよい。あるいは、これらのプログラムは、インターネット等のネットワークを介してダウンロードおよびインストールされてもよい。   Programs executed in the projector 10, the portable terminal 20, and the server 30 may be provided in various stored states such as an optical disk and a semiconductor memory. Alternatively, these programs may be downloaded and installed via a network such as the Internet.

1…投写システム、2…投写システム、10…プロジェクター、11…投写手段、12…受信手段、13…制御手段、20…携帯端末、21…撮影手段、22…表示手段、23…受け付け手段、24…送信手段、25…取得手段、26…送信手段、27…受け付け手段、28…生成手段、30…サーバー、31…計算手段、32…取得手段、33…記憶手段、34…生成手段、100…CPU、101…ROM、102…RAM、104…IF部、105…画像処理回路、106…投写ユニット、107…操作パネル、200…CPU、201…メモリー、202…ストレージ、203…入力装置、204…表示装置、205…通信IF、206…カメラ、300…CPU、301…メモリー、302…ストレージ、306…通信IF DESCRIPTION OF SYMBOLS 1 ... Projection system, 2 ... Projection system, 10 ... Projector, 11 ... Projection means, 12 ... Reception means, 13 ... Control means, 20 ... Portable terminal, 21 ... Photographing means, 22 ... Display means, 23 ... Acceptance means, 24 ... Transmission means 25 ... Acquisition means 26 ... Transmission means 27 ... Reception means 28 ... Generation means 30 ... Server 31 ... Calculation means 32 ... Acquisition means 33 ... Storage means 34 ... Generation means 100 ... CPU ... 101 ... ROM 102 ... RAM 104 ... IF unit 105 ... Image processing circuit 106 ... Projection unit 107 ... Operation panel 200 ... CPU 201 ... Memory 202 ... Storage 203 ... Input device 204 ... Display device, 205 ... communication IF, 206 ... camera, 300 ... CPU, 301 ... memory, 302 ... storage, 306 ... communication IF

Claims (13)

プロジェクターにより映像が投写される構造体の映像を撮影する撮影手段と、
前記プロジェクターにより所定のテストパターンが投写されているときに前記撮影手段により撮影された映像を用いて得られた、前記構造体における映像の歪みを示す写像情報を用いて生成された映像データを取得する取得手段と、
前記取得手段により取得された前記映像データを前記プロジェクターに送信する第1送信手段と
前記プロジェクターにより前記テストパターンが投写されているときに前記撮影手段により撮影された映像を、当該映像から前記写像情報を計算する計算手段を有するサーバーに送信する第2送信手段と
を有し、
前記取得手段は、前記サーバーにより計算された写像情報を用いて生成された映像データを取得する
携帯端末。
Photographing means for photographing the image of the structure on which the image is projected by the projector;
Acquire video data generated using mapping information indicating video distortion in the structure obtained using video captured by the imaging means when a predetermined test pattern is projected by the projector Acquisition means to
First transmission means for transmitting the video data acquired by the acquisition means to the projector ;
The image captured by the imaging means when said test pattern is projected by the projector, have a second transmitting means for transmitting to a server having a calculating means for calculating the mapping information from the video,
The acquisition means is a portable terminal that acquires video data generated using mapping information calculated by the server .
プロジェクターにより映像が投写される構造体の映像を撮影する撮影手段と、
前記プロジェクターにより所定のテストパターンが投写されているときに前記撮影手段により撮影された映像を用いて得られた、前記構造体における映像の歪みを示す写像情報を用いて生成された映像データを取得する取得手段と、
前記取得手段により取得された前記映像データを前記プロジェクターに送信する第1送信手段と
前記写像情報を計算する計算手段と、
前記写像情報を、当該写像情報を用いて映像データを生成する生成手段を有するサーバーに送信する第3送信手段と
を有し、
前記取得手段は、前記計算手段により計算された写像情報を用いて生成された映像データを前記サーバーから取得する
携帯端末。
Photographing means for photographing the image of the structure on which the image is projected by the projector;
Acquire video data generated using mapping information indicating video distortion in the structure obtained using video captured by the imaging means when a predetermined test pattern is projected by the projector Acquisition means to
First transmission means for transmitting the video data acquired by the acquisition means to the projector ;
Calculation means for calculating the mapping information;
Third transmission means for transmitting the mapping information to a server having generation means for generating video data using the mapping information;
Have
The acquisition unit is a portable terminal that acquires video data generated using the mapping information calculated by the calculation unit from the server .
前記写像情報を用いて映像データを生成する生成手段を有し、
前記取得手段は、前記生成手段から前記映像データを取得する
ことを特徴とする請求項に記載の携帯端末。
Generating means for generating video data using the mapping information;
The portable terminal according to claim 1 , wherein the acquisition unit acquires the video data from the generation unit.
前記撮影手段により撮影された映像を表示する表示手段を有する
ことを特徴とする請求項1ないしのいずれか一項に記載の携帯端末。
The mobile terminal according to any one of claims 1 to 3 , further comprising display means for displaying an image photographed by the photographing means.
前記表示手段に表示されている映像のうち少なくとも一部の領域の指定を受け付ける第1受け付け手段を有し、
前記取得手段は、前記第1受け付け手段により指定が受け付けられた領域の座標を用いて計算された写像情報を用いて生成された映像を取得する
ことを特徴とする請求項に記載の携帯端末。
First receiving means for receiving designation of at least a part of the image displayed on the display means;
The portable terminal according to claim 4 , wherein the acquisition unit acquires a video generated using mapping information calculated using coordinates of a region whose designation is received by the first reception unit. .
前記表示手段に表示されている映像に重畳される画像オブジェクトの描画指示を受け付ける第2受け付け手段を有し、
前記取得手段は、前記第2受け付け手段により受け付けられた描画指示に係る画像オブジェクトを含む映像を表示するための映像データを取得する
ことを特徴とする請求項またはに記載の携帯端末。
Second receiving means for receiving a drawing instruction of an image object to be superimposed on the video displayed on the display means;
The portable terminal according to claim 4 or 5 , wherein the acquisition unit acquires video data for displaying a video including an image object related to a drawing instruction received by the second reception unit.
前記テストパターンは、複数の特徴点を含む
ことを特徴とする請求項1ないしのいずれか一項に記載の携帯端末。
The portable terminal according to any one of claims 1 to 4 , wherein the test pattern includes a plurality of feature points.
プロジェクターと、
前記プロジェクターと通信する携帯端末と
を有し、
前記プロジェクターは、
所定のテストパターンの映像を構造体に投写する投写手段
を有し、
前記携帯端末は、
前記構造体の映像を撮影する撮影手段と、
前記プロジェクターにより所定のテストパターンが投写されているときに前記撮影手段により撮影された映像を用いて得られた、前記構造体における映像の歪みを示す写像情報を用いて生成された映像データを取得する取得手段と、
前記取得手段により取得された前記映像データを前記プロジェクターに送信する通信手段と
前記プロジェクターにより前記テストパターンが投写されているときに前記撮影手段により撮影された映像を、当該映像から前記写像情報を計算する計算手段を有するサーバーに送信する第2送信手段と
を有し、
前記プロジェクターはさらに、
前記通信手段により送信された前記映像データを受信する受信手段と、
前記受信手段により受信された前記映像データにより示される映像を前記投写手段に投写させる制御手段と
を有し、
前記取得手段は、前記サーバーにより計算された写像情報を用いて生成された映像データを取得する
投写システム。
A projector,
A portable terminal that communicates with the projector,
The projector is
A projection means for projecting an image of a predetermined test pattern onto the structure;
The portable terminal is
Photographing means for photographing an image of the structure;
Acquire video data generated using mapping information indicating video distortion in the structure obtained using video captured by the imaging means when a predetermined test pattern is projected by the projector Acquisition means to
Communication means for transmitting the video data acquired by the acquisition means to the projector ;
A second transmission means for transmitting an image captured by the imaging means when the test pattern is projected by the projector to a server having a calculation means for calculating the mapping information from the image ;
The projector further includes:
Receiving means for receiving the video data transmitted by the communication means;
An image represented by the image data received by the receiving means have a control means for projecting the projection means,
The acquisition unit is a projection system that acquires video data generated using mapping information calculated by the server .
プロジェクターと、
前記プロジェクターと通信する携帯端末と
を有し、
前記プロジェクターは、
所定のテストパターンの映像を構造体に投写する投写手段
を有し、
前記携帯端末は、
前記構造体の映像を撮影する撮影手段と、
前記プロジェクターにより所定のテストパターンが投写されているときに前記撮影手段により撮影された映像を用いて得られた、前記構造体における映像の歪みを示す写像情報を用いて生成された映像データを取得する取得手段と、
前記取得手段により取得された前記映像データを前記プロジェクターに送信する通信手段と
前記写像情報を計算する計算手段と、
前記写像情報を、当該写像情報を用いて映像データを生成する生成手段を有するサーバーに送信する第3送信手段と
を有し、
前記取得手段は、前記計算手段により計算された写像情報を用いて生成された映像データを前記サーバーから取得する
投写システム。
A projector,
A portable terminal that communicates with the projector,
The projector is
A projection means for projecting an image of a predetermined test pattern onto the structure;
The portable terminal is
Photographing means for photographing an image of the structure;
Acquire video data generated using mapping information indicating video distortion in the structure obtained by using video captured by the imaging means when a predetermined test pattern is projected by the projector Acquisition means to
Communication means for transmitting the video data acquired by the acquisition means to the projector ;
Calculation means for calculating the mapping information;
Third transmission means for transmitting the mapping information to a server having generation means for generating video data using the mapping information;
Have
The projection system , wherein the acquisition unit acquires video data generated using the mapping information calculated by the calculation unit from the server .
プロジェクターが、所定のテストパターンの映像を構造体に投写するステップと、
携帯端末の撮影手段が、前記構造体の映像を撮影するステップと、
前記携帯端末が、前記テストパターンが投写されているときに前記撮影手段により撮影された映像を用いて得られた、前記構造体における映像の歪みを示す写像情報を取得するステップと、
前記携帯端末が、前記写像情報を用いて生成された映像データを取得するステップと、
前記携帯端末が、前記取得された前記映像データを前記プロジェクターに送信するステップと、
前記プロジェクターが、前記送信された前記映像データを受信するステップと、
前記プロジェクターが、前記受信された前記映像データにより示される映像を投写するステップと
前記携帯端末が、前記プロジェクターにより前記テストパターンが投写されているときに前記撮影手段により撮影された映像を、当該映像から前記写像情報を計算する計算手段を有するサーバーに送信するステップと
を有し、
前記映像データを取得するステップにおいて、前記携帯端末が、前記サーバーにより計算された写像情報を用いて生成された映像データを取得する
投写システムの制御方法。
A projector projecting an image of a predetermined test pattern onto the structure;
A photographing means of a portable terminal for photographing an image of the structure;
Obtaining the mapping information indicating the distortion of the image in the structure obtained using the image captured by the imaging means when the mobile terminal is projecting the test pattern;
The portable terminal obtaining video data generated using the mapping information;
The portable terminal transmitting the acquired video data to the projector;
The projector receiving the transmitted video data;
The projector projecting an image indicated by the received image data ;
Said portable terminal, said image taken by the imaging means, have a sending from the video server having a calculating means for calculating the mapping information when the test pattern by the projector is projected ,
A method for controlling a projection system , wherein in the step of acquiring the video data, the portable terminal acquires video data generated using mapping information calculated by the server .
プロジェクターが、所定のテストパターンの映像を構造体に投写するステップと、
携帯端末の撮影手段が、前記構造体の映像を撮影するステップと、
前記携帯端末が、前記テストパターンが投写されているときに前記撮影手段により撮影された映像を用いて得られた、前記構造体における映像の歪みを示す写像情報を取得するステップと、
前記携帯端末が、前記写像情報を用いて生成された映像データを取得するステップと、
前記携帯端末が、前記取得された前記映像データを前記プロジェクターに送信するステップと、
前記プロジェクターが、前記送信された前記映像データを受信するステップと、
前記プロジェクターが、前記受信された前記映像データにより示される映像を投写するステップと
前記携帯端末が、写像情報を計算するステップと、
前記携帯端末が、前記写像情報を、当該写像情報を用いて映像データを生成する生成手段を有するサーバーに送信するステップと
を有し、
前記映像データを取得するステップにおいて、前記携帯端末が、前記計算された写像情報を用いて生成された映像データを前記サーバーから取得する
投写システムの制御方法。
A projector projecting an image of a predetermined test pattern onto the structure;
A photographing means of a portable terminal for photographing an image of the structure;
Obtaining the mapping information indicating the distortion of the image in the structure obtained using the image captured by the imaging means when the mobile terminal is projecting the test pattern;
The portable terminal obtaining video data generated using the mapping information;
The portable terminal transmitting the acquired video data to the projector;
The projector receiving the transmitted video data;
The projector projecting an image indicated by the received image data ;
The portable terminal calculating mapping information;
The portable terminal transmitting the mapping information to a server having generating means for generating video data using the mapping information;
Have
A method for controlling a projection system , wherein, in the step of acquiring the video data, the mobile terminal acquires video data generated using the calculated mapping information from the server .
映像を撮影する撮影手段を有するコンピューターに、
プロジェクターにより映像が投写される構造体の映像を前記撮影手段が撮影するステップと、
前記プロジェクターにより所定のテストパターンが投写されているときに前記撮影手段により撮影された映像を用いて得られた、前記構造体における映像の歪みを示す写像情報を用いて生成された映像データを取得するステップと、
前記取得された前記映像データを前記プロジェクターに送信するステップと
前記プロジェクターにより前記テストパターンが投写されているときに前記撮影手段により撮影された映像を、当該映像から前記写像情報を計算する計算手段を有するサーバーに送信するステップと
を実行させるためのプログラムであって、
前記映像データを取得するステップにおいて、前記サーバーにより計算された写像情報を用いて生成された映像データが取得される
プログラム。
To a computer having a photographing means for photographing images,
A step of taking an image of a structure on which an image is projected by a projector;
Acquire video data generated using mapping information indicating video distortion in the structure obtained using video captured by the imaging means when a predetermined test pattern is projected by the projector And steps to
Transmitting the acquired video data to the projector ;
Met program for the video taken by the imaging means, and a step of transmitting from the video server having a calculating means for calculating the mapping information when the test pattern by the projector is projected hand,
A program for acquiring video data generated using mapping information calculated by the server in the step of acquiring the video data .
映像を撮影する撮影手段を有するコンピューターに、
プロジェクターにより映像が投写される構造体の映像を前記撮影手段が撮影するステップと、
前記プロジェクターにより所定のテストパターンが投写されているときに前記撮影手段により撮影された映像を用いて得られた、前記構造体における映像の歪みを示す写像情報を用いて生成された映像データを取得するステップと、
前記取得された前記映像データを前記プロジェクターに送信するステップと
写像情報を計算するステップと、
前記写像情報を、当該写像情報を用いて映像データを生成する生成手段を有するサーバーに送信するステップと
を実行させるためのプログラムであって、
前記映像データを取得するステップにおいて、前記計算された写像情報を用いて生成された映像データが前記サーバーから取得される
プログラム。
To a computer having a photographing means for photographing images,
A step of taking an image of a structure on which an image is projected by a projector;
Acquire video data generated using mapping information indicating video distortion in the structure obtained using video captured by the imaging means when a predetermined test pattern is projected by the projector And steps to
Transmitting the acquired video data to the projector ;
Calculating map information; and
Transmitting the mapping information to a server having generation means for generating video data using the mapping information ,
In the step of acquiring the video data, a program in which video data generated using the calculated mapping information is acquired from the server .
JP2015208851A 2015-10-23 2015-10-23 Portable terminal, projection system, control method and program for projection system Active JP6620979B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015208851A JP6620979B2 (en) 2015-10-23 2015-10-23 Portable terminal, projection system, control method and program for projection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015208851A JP6620979B2 (en) 2015-10-23 2015-10-23 Portable terminal, projection system, control method and program for projection system

Publications (2)

Publication Number Publication Date
JP2017085234A JP2017085234A (en) 2017-05-18
JP6620979B2 true JP6620979B2 (en) 2019-12-18

Family

ID=58711178

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015208851A Active JP6620979B2 (en) 2015-10-23 2015-10-23 Portable terminal, projection system, control method and program for projection system

Country Status (1)

Country Link
JP (1) JP6620979B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7380661B2 (en) 2021-09-21 2023-11-15 セイコーエプソン株式会社 Projection method and projection system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5970879B2 (en) * 2012-03-14 2016-08-17 株式会社リコー Projection system, projection method, program, and recording medium
JP2014003586A (en) * 2012-05-22 2014-01-09 Ricoh Co Ltd Image processing system, image processing method and program
JP6304618B2 (en) * 2013-11-05 2018-04-04 パナソニックIpマネジメント株式会社 Lighting device
JP2015139006A (en) * 2014-01-20 2015-07-30 株式会社リコー Information processing apparatus and program

Also Published As

Publication number Publication date
JP2017085234A (en) 2017-05-18

Similar Documents

Publication Publication Date Title
US10437545B2 (en) Apparatus, system, and method for controlling display, and recording medium
KR102328539B1 (en) Electronic device for acquiring image using plurality of cameras and method for processing image using the same
JP4729999B2 (en) Information processing system, information processing apparatus, information processing method, and computer program
JP6459194B2 (en) Projector and projected image control method
US10855916B2 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
US9774833B2 (en) Projector auto-focus correction with the aid of a camera
JP2017083550A (en) Information processing apparatus, image projection system, and program
TW201611569A (en) Image calibration system and calibration method of a stereo camera
JP2020134895A (en) Method for display and display system
US20190289206A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
CN114630089B (en) Projection method, projection system, and recording medium
WO2017179432A1 (en) Image projection method and image projection device for three-dimensional object for projection
JP2015043066A (en) Image projection device
JP2016085380A (en) Controller, control method, and program
JP2016014713A (en) Image projection device, image projection method, and control program of image projection device
CN103873762A (en) Photographing apparatus and method of controlling the same
JP2008005358A (en) Remote support apparatus, remote support system, and remote support method
US20150138512A1 (en) Information processing apparatus, image projecting apparatus, and method for providing distortion correction instruction
JP6620979B2 (en) Portable terminal, projection system, control method and program for projection system
CN113473094A (en) Setting support method and setting support device
JP5077698B2 (en) Presentation material distribution system and distribution system of designated position data on presentation material
CN114339179A (en) Projection correction method, projection correction device, storage medium and projection equipment
JP2017200021A (en) Information processing device, program and system
JP5742305B2 (en) Drawing image processing device
JP6614500B2 (en) Image reading apparatus, portable terminal, image reading method, and image reading program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191107

R150 Certificate of patent or registration of utility model

Ref document number: 6620979

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150