JP2017123589A - Information processing apparatus, information processing method, and video projection system - Google Patents

Information processing apparatus, information processing method, and video projection system Download PDF

Info

Publication number
JP2017123589A
JP2017123589A JP2016002328A JP2016002328A JP2017123589A JP 2017123589 A JP2017123589 A JP 2017123589A JP 2016002328 A JP2016002328 A JP 2016002328A JP 2016002328 A JP2016002328 A JP 2016002328A JP 2017123589 A JP2017123589 A JP 2017123589A
Authority
JP
Japan
Prior art keywords
projection
information
processing apparatus
viewer
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016002328A
Other languages
Japanese (ja)
Inventor
熊取谷 昭彦
Akihiko Kumatoriya
昭彦 熊取谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016002328A priority Critical patent/JP2017123589A/en
Publication of JP2017123589A publication Critical patent/JP2017123589A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To reduce missing of image on a projection plane, in a video projection system.SOLUTION: An information processing apparatus 200 includes acquisition means for acquiring first information including the information about the position of an object existing between a projection device (projector 300) and a projection plane to which an image is projected from the projection device. The information processing apparatus 200 includes determination means for determining whether or not an area, where the projection image is shielded by an object, exists on the projection plane, based on the first information, and determination means for determining second information including the information about the projection range of such a projection device that the projection image is projected to the shielded area without being shielded by the object, when a determination is made that the shielded area exists. Furthermore, the information processing apparatus 200 includes output means for outputting second information to the projection device.SELECTED DRAWING: Figure 8

Description

本発明は、投影装置を用いて被投影面に映像を投影するための情報処理装置、情報処理方法および映像投影システムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a video projection system for projecting an image on a projection surface using a projection apparatus.

従来、天井などの室内上部に複数のプロジェクタを配置し、これら複数のプロジェクタから壁面や床面に映像を投影する映像投影システムが知られている。このような映像投影システムでは、視聴者に対して臨場感のある映像やゲームを提供することができる。
特許文献1には、可動深度カメラを用いて室内の3次元モデルを生成し、生成した3次元モデルに応じた映像を投影するシステムが開示されている。このシステムでは、視聴者の動きをリアルタイムに追跡し、視聴者の動きに応じて投影内容を変化させる。
2. Description of the Related Art Conventionally, there has been known a video projection system in which a plurality of projectors are arranged on an upper part of a room such as a ceiling and images are projected from the plurality of projectors onto a wall surface or a floor surface. In such a video projection system, it is possible to provide a realistic video or game to the viewer.
Patent Document 1 discloses a system that generates a three-dimensional indoor model using a movable depth camera and projects an image corresponding to the generated three-dimensional model. In this system, the movement of the viewer is tracked in real time, and the projection content is changed according to the movement of the viewer.

米国特許第8570320号明細書U.S. Pat. No. 8,570,320

ところで、プロジェクタから被投影面へ映像を投影する場合、被投影面が視聴者の陰となり、視聴者の視界内において被投影面上の表示画像の一部が欠落してしまう場合がある。
特許文献1に記載の技術では、視聴者の動きに応じて投影内容を変化させることはできても、上記のような視聴者の陰となる領域には映像を表示することができない。そのため、プロジェクタから被投影面へ向けて臨場感の高い映像を投影しても、被投影面において適切に映像が表示されず没入感が阻害されてしまう。
そこで、本発明は、映像投影システムにおいて、被投影面上における映像の欠落を少なくすることを目的としている。
By the way, when projecting an image from a projector onto a projection surface, the projection surface may be behind the viewer, and a part of the display image on the projection surface may be lost in the viewer's field of view.
With the technique described in Patent Document 1, even though the projection content can be changed according to the movement of the viewer, the video cannot be displayed in the area behind the viewer as described above. For this reason, even when a highly realistic image is projected from the projector toward the projection surface, the image is not properly displayed on the projection surface and the immersive feeling is hindered.
SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to reduce image loss on a projection surface in a video projection system.

本発明に係る情報処理装置の一態様は、投影装置と前記投影装置から投影画像が投影される被投影面との間に存在するオブジェクトの位置に関する情報を含む第一の情報を取得する取得手段と、前記取得手段により取得された前記第一の情報に基づいて、前記被投影面上に、前記オブジェクトにより前記投影画像が遮蔽される遮蔽領域が存在するか否かを判定する判定手段と、前記判定手段により前記遮蔽領域が存在すると判定された場合に、前記オブジェクトにより遮蔽されずに前記投影画像が前記遮蔽領域に投影されるような前記投影装置の投影範囲に関する情報を含む第二の情報を決定する決定手段と、前記決定手段により決定された第二の情報を前記投影装置に出力する出力手段と、を備える。   One aspect of the information processing apparatus according to the present invention is an acquisition unit that acquires first information including information related to a position of an object existing between a projection apparatus and a projection surface onto which a projection image is projected from the projection apparatus. And determining means for determining whether or not a shielding area where the projection image is shielded by the object exists on the projection surface based on the first information obtained by the obtaining means; Second information including information related to a projection range of the projection device such that when the determination unit determines that the shielding area exists, the projection image is projected onto the shielding area without being shielded by the object. Determining means for determining the second information, and output means for outputting the second information determined by the determining means to the projection apparatus.

本発明によれば、映像投影システムにおいて、被投影面上における映像の欠落を少なくすることができる。   ADVANTAGE OF THE INVENTION According to this invention, the loss | missing of the image | video on a to-be-projected surface can be decreased in a video projection system.

映像投影システムの構成例である。1 is a configuration example of a video projection system. 情報処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of information processing apparatus. 情報処理装置のハードウェア構成図である。It is a hardware block diagram of information processing apparatus. プロジェクタの構成を示すブロック図である。It is a block diagram which shows the structure of a projector. プロジェクタの動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of a projector. プロジェクタの配置例を示す図である。It is a figure which shows the example of arrangement | positioning of a projector. 第一の実施形態における装置間の情報の流れを示すシーケンス図である。It is a sequence diagram which shows the flow of the information between apparatuses in 1st embodiment. 第一の実施形態における動作を説明する図である。It is a figure explaining the operation | movement in 1st embodiment. 第二の実施形態における情報処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the information processing apparatus in 2nd embodiment. 第二の実施形態における動作を説明する図である。It is a figure explaining the operation | movement in 2nd embodiment. 第二の実施形態における装置間の情報の流れを示すシーケンス図である。It is a sequence diagram which shows the flow of the information between apparatuses in 2nd embodiment.

以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正または変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
(第一の実施形態)
図1は、本実施形態における情報処理装置を備える映像投影システムの構成例である。本実施形態では、映像投影システムとして、天井などの室内上部に複数の投影装置(プロジェクタ)を配置し、これら複数のプロジェクタから被投影面(室内の壁面や床面)に映像(静止画像も含む)を投影するシステムについて説明する。
映像投影システム100は、情報処理装置200と、プロジェクタ300とを備える。情報処理装置200は、プロジェクタ300の位置や投影範囲を制御したり、プロジェクタ300が投影する映像コンテンツを制御したりする投影映像制御部である。情報処理装置200は、図1に示すように、プロジェクタ300に対してプロジェクタ情報や映像コンテンツを出力する。ここで、プロジェクタ情報は、プロジェクタ300の位置や投影範囲に関する情報を含む。プロジェクタ300の投影範囲に関する情報とは、プロジェクタ300の姿勢に関する情報である。
DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings.
The embodiment described below is an example as means for realizing the present invention, and should be appropriately modified or changed depending on the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment.
(First embodiment)
FIG. 1 is a configuration example of a video projection system including an information processing apparatus according to this embodiment. In the present embodiment, as a video projection system, a plurality of projection devices (projectors) are arranged in the upper part of a room such as a ceiling, and images (including still images) are projected from the plurality of projectors onto a projection surface (a wall surface or a floor surface in a room). ) Will be described.
The video projection system 100 includes an information processing device 200 and a projector 300. The information processing apparatus 200 is a projection video control unit that controls the position and projection range of the projector 300 and controls video content projected by the projector 300. As shown in FIG. 1, the information processing apparatus 200 outputs projector information and video content to the projector 300. Here, the projector information includes information related to the position of the projector 300 and the projection range. The information regarding the projection range of the projector 300 is information regarding the attitude of the projector 300.

プロジェクタ300は、情報処理装置200に対して視聴者情報を出力する。ここで、視聴者情報は、プロジェクタ300と被投影面との間に存在し、プロジェクタ300から投影され被投影面に表示される表示画像を視聴する視聴者(人物)の位置や姿勢(顔の向き)に関する情報を含む。また、視聴者情報は、被投影面に投影される投影画像を視聴者が遮っているかどうかを示す情報(遮蔽情報)を含んでいてもよい。遮蔽情報とは、換言すると、被投影面上に、視聴者の影に相当する領域(遮蔽領域)が存在するか否かを示す情報である。なお、本実施形態では、人物が映像と音声を知覚している場合の例を中心に説明するが、音声は出力されなくてもよい。   Projector 300 outputs viewer information to information processing apparatus 200. Here, the viewer information exists between the projector 300 and the projection surface, and the position and orientation (face of the face) of the viewer (person) who views the display image projected from the projector 300 and displayed on the projection surface. Orientation). Further, the viewer information may include information (blocking information) indicating whether or not the viewer blocks the projection image projected on the projection surface. In other words, the occlusion information is information indicating whether or not an area corresponding to the shadow of the viewer (the occlusion area) exists on the projection surface. In this embodiment, an example in which a person perceives video and audio will be mainly described. However, audio may not be output.

また、図1において、プロジェクタ300は、情報処理装置200に対して1台のみ接続されているが、プロジェクタ300の接続台数は図1に示す数に限定されない。本実施形態では、情報処理装置200に複数のプロジェクタ300を接続するものとする。この場合、情報処理装置200とプロジェクタ300との間で入出力される情報は、各プロジェクタ300に固有の情報となる。
図2は、情報処理装置200の構成を示すブロック図である。情報処理装置200は、視聴者情報入力部211と、プロジェクタ情報算出部212(以下、情報算出部212)と、プロジェクタ情報出力部213(以下、情報出力部213)とを備える。また、情報処理装置200は、映像コンテンツ入力部221(以下、映像入力部221)と、映像コンテンツ分割部222(以下、映像分割部222)と、映像コンテンツ出力部223(以下、映像出力部223)とを備える。
In FIG. 1, only one projector 300 is connected to the information processing apparatus 200, but the number of projectors 300 connected is not limited to the number shown in FIG. In the present embodiment, a plurality of projectors 300 are connected to the information processing apparatus 200. In this case, information input / output between the information processing apparatus 200 and the projector 300 is information unique to each projector 300.
FIG. 2 is a block diagram illustrating a configuration of the information processing apparatus 200. The information processing apparatus 200 includes a viewer information input unit 211, a projector information calculation unit 212 (hereinafter, information calculation unit 212), and a projector information output unit 213 (hereinafter, information output unit 213). In addition, the information processing apparatus 200 includes a video content input unit 221 (hereinafter, video input unit 221), a video content division unit 222 (hereinafter, video division unit 222), and a video content output unit 223 (hereinafter, video output unit 223). ).

視聴者情報入力部211は、プロジェクタ300から視聴者情報を入力する。情報算出部212は、視聴者情報入力部211から入力された視聴者情報に基づいて、プロジェクタ情報を算出する。具体的には、情報算出部212は、視聴者情報に含まれる遮蔽情報に基づいて、プロジェクタ300からの投影画像が視聴者によって遮られていないと判定した場合、プロジェクタ300の現在の位置および姿勢をそのまま採用してプロジェクタ情報を算出する。一方、情報算出部212は、プロジェクタ300からの投影画像が視聴者によって遮られていると判定した場合には、視聴者により遮蔽されずに投影画像が被投影面上の遮蔽領域に投影されるようなプロジェクタ情報を算出する。つまり、情報算出部212は、被投影面に表示される表示画像内に視聴者の影に相当する領域が存在しないように、プロジェクタ300の位置および姿勢(少なくとも姿勢(投影範囲))を算出する。情報出力部213は、情報算出部212によって算出されたプロジェクタ情報をプロジェクタ300へ出力する。
映像入力部221は、外部装置からオリジナルの映像コンテンツを入力する。映像分割部222は、映像入力部221から入力された映像コンテンツを、複数のプロジェクタ300からそれぞれ投影する映像コンテンツに分割する。映像出力部223は、映像分割部222によって分割された映像コンテンツをそれぞれ対応するプロジェクタ300へ出力する。
The viewer information input unit 211 inputs viewer information from the projector 300. The information calculation unit 212 calculates projector information based on the viewer information input from the viewer information input unit 211. Specifically, when the information calculation unit 212 determines that the projected image from the projector 300 is not blocked by the viewer based on the blocking information included in the viewer information, the current position and orientation of the projector 300 are determined. Is used as it is to calculate projector information. On the other hand, if the information calculation unit 212 determines that the projection image from the projector 300 is blocked by the viewer, the information calculation unit 212 projects the projection image onto the shielding area on the projection surface without being blocked by the viewer. Such projector information is calculated. That is, the information calculation unit 212 calculates the position and orientation (at least the orientation (projection range)) of the projector 300 so that there is no region corresponding to the shadow of the viewer in the display image displayed on the projection surface. . Information output unit 213 outputs the projector information calculated by information calculation unit 212 to projector 300.
The video input unit 221 inputs original video content from an external device. The video dividing unit 222 divides the video content input from the video input unit 221 into video content to be projected from each of the plurality of projectors 300. The video output unit 223 outputs the video content divided by the video dividing unit 222 to the corresponding projector 300.

図3は、情報処理装置200のハードウェア構成を示す図である。情報処理装置200は、CPU21と、ROM22と、RAM23と、外部メモリ24と、通信I/F25と、システムバス26とを備える。CPU21は、情報処理装置200における動作を統括的に制御するものであり、システムバス26を介して、各構成部(22〜25)を制御する。ROM22は、CPU21が処理を実行するために必要なプログラムを記憶する不揮発性メモリである。なお、当該プログラムは、外部メモリ24や着脱可能な記憶媒体(不図示)に記憶されていてもよい。RAM23は、CPU21の主メモリ、ワークエリアとして機能する。つまり、CPU21は、処理の実行に際してROM22から必要なプログラムをRAM23にロードし、ロードしたプログラムを実行することで各種の機能動作を実現する。   FIG. 3 is a diagram illustrating a hardware configuration of the information processing apparatus 200. The information processing apparatus 200 includes a CPU 21, a ROM 22, a RAM 23, an external memory 24, a communication I / F 25, and a system bus 26. The CPU 21 comprehensively controls the operation of the information processing apparatus 200 and controls each component (22 to 25) via the system bus 26. The ROM 22 is a non-volatile memory that stores a program necessary for the CPU 21 to execute processing. The program may be stored in the external memory 24 or a removable storage medium (not shown). The RAM 23 functions as a main memory and work area for the CPU 21. That is, the CPU 21 implements various functional operations by loading a necessary program from the ROM 22 into the RAM 23 and executing the loaded program.

外部メモリ24は、CPU21がプログラムを用いた処理を行う際に必要な各種データや各種情報を記憶している。また、外部メモリ24には、CPU21がプログラムを用いた処理を行うことにより得られる各種データや各種情報が記憶される。通信I/F25は、外部装置(プロジェクタ300など)と通信するためのインターフェースである。システムバス26は、CPU21、ROM22、RAM23、外部メモリ24および通信I/F25を通信可能に接続する。
図2に示す情報処理装置200の各部の機能は、CPU21がプログラムを実行することで実現することができる。ただし、図2に示す情報処理装置200の各部のうち少なくとも一部が専用のハードウェアとして動作するようにしてもよい。この場合、専用のハードウェアは、CPU21の制御に基づいて動作する。
The external memory 24 stores various data and various information necessary when the CPU 21 performs processing using a program. The external memory 24 stores various data and various information obtained by the CPU 21 performing processing using a program. The communication I / F 25 is an interface for communicating with an external device (such as the projector 300). The system bus 26 connects the CPU 21, ROM 22, RAM 23, external memory 24, and communication I / F 25 so that they can communicate with each other.
Functions of each unit of the information processing apparatus 200 illustrated in FIG. 2 can be realized by the CPU 21 executing a program. However, at least a part of each unit of the information processing apparatus 200 illustrated in FIG. 2 may operate as dedicated hardware. In this case, the dedicated hardware operates based on the control of the CPU 21.

図4は、プロジェクタ300の構成を示すブロック図である。プロジェクタ300は、撮像部311と、視聴者検出部312と、視聴者情報出力部313(以下、情報出力部313)と、プロジェクタ情報入力部321と、プロジェクタ位置制御部322(以下、位置制御部322)と、を備える。さらに、プロジェクタ300は、映像コンテンツ入力部331(以下、映像入力部331)と、映像コンテンツ変形部(以下、映像変形部332)と、投影部333と、を備える。
撮像部311は、プロジェクタ300の投影範囲およびその周辺を撮像する。撮像部311の撮像領域は、プロジェクタ情報に基づいて決定することができる。視聴者検出部312は、撮像部311の撮像画像に基づいて、視聴者を検出すると共に、視聴者の位置および姿勢を検出する。また、視聴者検出部312は、視聴者の位置および姿勢に基づいて、被投影面に投影される投影画像を視聴者が遮っているかどうか、より具体的には、視聴者の視界に入る被投影面に投影される投影画像を視聴者が遮っているかどうかを検出する。そして、視聴者検出部312は、これらの検出結果をもとに視聴者情報を生成する。情報出力部313は、視聴者検出部312によって生成された視聴者情報を、情報処理装置200へ出力する。
FIG. 4 is a block diagram illustrating the configuration of the projector 300. The projector 300 includes an imaging unit 311, a viewer detection unit 312, a viewer information output unit 313 (hereinafter, information output unit 313), a projector information input unit 321, and a projector position control unit 322 (hereinafter, position control unit). 322). Furthermore, the projector 300 includes a video content input unit 331 (hereinafter referred to as a video input unit 331), a video content deformation unit (hereinafter referred to as a video deformation unit 332), and a projection unit 333.
The imaging unit 311 images the projection range of the projector 300 and its surroundings. The imaging area of the imaging unit 311 can be determined based on projector information. The viewer detection unit 312 detects the viewer and the position and orientation of the viewer based on the captured image of the imaging unit 311. Further, the viewer detection unit 312 determines whether or not the viewer blocks the projection image projected on the projection surface based on the viewer's position and orientation, more specifically, the subject entering the viewer's field of view. It is detected whether or not the viewer blocks the projection image projected on the projection plane. And the viewer detection part 312 produces | generates viewer information based on these detection results. The information output unit 313 outputs the viewer information generated by the viewer detection unit 312 to the information processing apparatus 200.

プロジェクタ情報入力部321は、情報処理装置200から出力されたプロジェクタ情報を入力し、入力したプロジェクタ情報を撮像部311および位置制御部322へ出力する。位置制御部322は、プロジェクタ情報入力部321から入力されたプロジェクタ情報に基づいて、プロジェクタ300の位置および姿勢を制御する。また、位置制御部322は、プロジェクタ情報入力部321から入力されたプロジェクタ情報を映像変形部332に出力する。
映像入力部331は、情報処理装置200から投影用の映像コンテンツを入力し、入力した映像コンテンツを映像変形部332に出力する。映像変形部332は、映像入力部331が出力した映像コンテンツを、位置制御部322が出力したプロジェクタ情報をもとに変形処理し、被投影面上で歪みのない表示画像となるように投影画像を生成する。投影部333は、映像変形部332によって変形処理された映像コンテンツ(投影画像)を入力し、入力した映像コンテンツ(投影画像)を被投影面に投影する。
The projector information input unit 321 inputs the projector information output from the information processing apparatus 200 and outputs the input projector information to the imaging unit 311 and the position control unit 322. The position control unit 322 controls the position and orientation of the projector 300 based on the projector information input from the projector information input unit 321. Further, the position control unit 322 outputs the projector information input from the projector information input unit 321 to the video transformation unit 332.
The video input unit 331 inputs projection video content from the information processing apparatus 200 and outputs the input video content to the video transformation unit 332. The video transformation unit 332 transforms the video content output from the video input unit 331 based on the projector information output from the position control unit 322, so that a projected image is displayed on the projection surface without distortion. Is generated. The projection unit 333 receives the video content (projected image) transformed by the video transformation unit 332 and projects the input video content (projected image) onto the projection surface.

図4に示す各要素は、それぞれ専用のハードウェアとしてプロジェクタ300を構成することができる。この場合、プロジェクタ300のCPUの制御に基づいて、図4の各要素が別個のハードウェアとして動作する。ただし、図4に示す各要素の少なくとも一部の機能が上記のCPUによって実行されてもよい。
なお、本実施形態では、プロジェクタ300が撮像部311を備え、視聴者情報を生成する場合について説明するが、撮像部311の撮像画像をもとに視聴者情報を生成する視聴者検出部312は、情報処理装置200が備えていてもよい。また、視聴者の姿勢を検出するための撮像部は、プロジェクタ300に内蔵される撮像部とは別に専用で設けてもよい。この場合、視聴者の顔の向きをより適切に検出することができるので、視聴者の視界をより適切に把握することができる。さらに、視聴者が複数存在する場合は、視聴者ごとに姿勢を検出する専用の撮像部を設けてもよい。
Each element shown in FIG. 4 can constitute the projector 300 as dedicated hardware. In this case, each element in FIG. 4 operates as separate hardware based on the control of the CPU of the projector 300. However, at least some of the functions of the elements shown in FIG. 4 may be executed by the CPU.
In this embodiment, the projector 300 includes the imaging unit 311 and generates viewer information. However, the viewer detection unit 312 that generates viewer information based on the captured image of the imaging unit 311 is described below. The information processing apparatus 200 may be provided. In addition, an image capturing unit for detecting the posture of the viewer may be provided separately from the image capturing unit built in the projector 300. In this case, since the orientation of the viewer's face can be detected more appropriately, the viewer's field of view can be grasped more appropriately. Furthermore, when there are a plurality of viewers, a dedicated imaging unit that detects the posture of each viewer may be provided.

次に、プロジェクタ300の動作について、図5を参照しながら説明する。なお、本実施形態では、上述したように、図4で示す各要素がそれぞれ専用のハードウェアとして動作することで、図5の処理が実行される場合の例を中心に説明する。ただし、図4の各要素の少なくとも一部の機能が、プロジェクタ300のCPUにより実現されるようにしてもよい。この図5の処理は、例えばプロジェクタ300が起動されたときに開始される。ただし、図5の処理の開始タイミングは、上記のタイミングに限らない。
まずS1において、撮像部311は、プロジェクタ情報入力部321からプロジェクタ情報の初期値を入力する。S2では、撮像部311は、プロジェクタ情報に基づいて、プロジェクタ300の投影範囲およびその周辺を撮像する。S3では、視聴者検出部312は、S2において撮像された画像をもとに視聴者情報を生成し、情報出力部313は、視聴者検出部312により生成された視聴者情報を情報処理装置200へ出力する。このとき、情報処理装置200へ出力される視聴者情報には、視聴者の位置および姿勢に関する情報と、プロジェクタ300の投影画像が視聴者によって遮られていないかどうかを示す遮蔽情報とが含まれる。
Next, the operation of the projector 300 will be described with reference to FIG. Note that, in the present embodiment, as described above, an example in which each element illustrated in FIG. 4 operates as dedicated hardware and the processing in FIG. 5 is executed will be mainly described. However, at least some of the functions of the elements in FIG. 4 may be realized by the CPU of the projector 300. The process in FIG. 5 is started when the projector 300 is activated, for example. However, the start timing of the process in FIG. 5 is not limited to the above timing.
First, in S <b> 1, the imaging unit 311 inputs an initial value of projector information from the projector information input unit 321. In S2, the imaging unit 311 images the projection range of the projector 300 and its surroundings based on the projector information. In S3, the viewer detection unit 312 generates viewer information based on the image captured in S2, and the information output unit 313 uses the viewer information generated by the viewer detection unit 312 as the information processing apparatus 200. Output to. At this time, the viewer information output to the information processing apparatus 200 includes information on the position and orientation of the viewer and shielding information indicating whether or not the projection image of the projector 300 is blocked by the viewer. .

次にS4において、プロジェクタ情報入力部321は、S3において情報出力部313が出力した視聴者情報をもとに情報処理装置200が算出したプロジェクタ情報を入力する。また、映像入力部331は、情報処理装置200がプロジェクタ情報をもとに生成した投影用の映像コンテンツを入力する。S5では、位置制御部322は、S4において入力されたプロジェクタ情報に基づいてプロジェクタ300の位置および姿勢を移動する。
S6では、映像変形部332は、S4において入力された映像コンテンツに対して、S4において入力されたプロジェクタ情報をもとに変形処理を行う。S7では、投影部333は、S6において映像変形部332が変形処理した映像コンテンツを投影範囲に投影する。S8では、プロジェクタ300は、映像コンテンツが終了であるか否かを判定し、終了である場合は投影を終了し、映像コンテンツの投影が継続される場合はS2に戻る。
Next, in S4, the projector information input unit 321 inputs the projector information calculated by the information processing apparatus 200 based on the viewer information output by the information output unit 313 in S3. The video input unit 331 inputs video content for projection generated by the information processing apparatus 200 based on projector information. In S5, the position control unit 322 moves the position and orientation of the projector 300 based on the projector information input in S4.
In S6, the video transformation unit 332 performs transformation processing on the video content input in S4 based on the projector information input in S4. In S7, the projection unit 333 projects the video content transformed by the video transformation unit 332 in S6 onto the projection range. In S8, the projector 300 determines whether or not the video content is finished. If it is finished, the projector 300 finishes the projection, and returns to S2 if the projection of the video content is continued.

次に、情報処理装置200と複数のプロジェクタ300との間の情報の流れについて詳細に説明する。以下の説明では、図6に示すように、4台のプロジェクタ300(300A〜300D)が壁面を被投影面として画像を投影する場合について説明する。プロジェクタ300A、300B、300Cおよび300Dの投影範囲は、各々A、B、C、Dと表示された位置である。
図7に示すように、先ずS11において、情報処理装置200は、プロジェクタ300A〜300Dに対してそれぞれプロジェクタ情報を出力する。このとき、プロジェクタ300A〜300Dは、プロジェクタの位置と投影範囲(例えば、図6のA〜D)とに関する情報を取得する。
Next, the flow of information between the information processing apparatus 200 and the plurality of projectors 300 will be described in detail. In the following description, as shown in FIG. 6, a case where four projectors 300 (300A to 300D) project an image using a wall surface as a projection surface will be described. Projection ranges of projectors 300A, 300B, 300C, and 300D are positions where A, B, C, and D are displayed, respectively.
As shown in FIG. 7, first, in S11, the information processing apparatus 200 outputs projector information to the projectors 300A to 300D, respectively. At this time, the projectors 300A to 300D acquire information related to the position of the projector and the projection range (for example, A to D in FIG. 6).

次にS12において、プロジェクタ300A〜300Dは、それぞれ情報処理装置200から入力されたプロジェクタ情報に基づいて位置および姿勢を移動する。そして、S13において、プロジェクタ300A〜300Dは、各々の投影範囲およびその周辺を撮像し、撮像画像を解析する。このとき、図8(a)に示すように、プロジェクタ300Bの投影範囲B近傍に投影範囲A〜Dを視界に入れた視聴者Pが存在し、プロジェクタBからの投影画像の一部が視聴者Pによって遮られているものとする。この場合、被投影面上における投影範囲B内には、視聴者Pの影に相当する遮蔽領域が存在することになる。また、この場合、プロジェクタ300Bの撮像部311は視聴者Pを撮像し、プロジェクタ300Bの視聴者検出部312は、視聴者Pの位置および姿勢を検出して視聴者情報を生成する。なお、撮像画像をもとに視聴者が検出されなかった場合、視聴者情報は、視聴者が存在しないことを示す情報を含んでもよい。そして、S14では、プロジェクタ300A〜300Dは、それぞれ撮像部311の撮像画像をもとに生成された視聴者情報を情報処理装置200に出力する。   Next, in S <b> 12, the projectors 300 </ b> A to 300 </ b> D move their positions and orientations based on the projector information input from the information processing apparatus 200. In S <b> 13, the projectors 300 </ b> A to 300 </ b> D capture the respective projection ranges and the periphery thereof, and analyze the captured image. At this time, as shown in FIG. 8 (a), there is a viewer P who enters the projection ranges A to D in the vicinity of the projection range B of the projector 300B, and a part of the projection image from the projector B is the viewer. It is assumed that it is blocked by P. In this case, a shielding area corresponding to the shadow of the viewer P exists in the projection range B on the projection surface. In this case, the imaging unit 311 of the projector 300B images the viewer P, and the viewer detection unit 312 of the projector 300B detects the position and orientation of the viewer P and generates viewer information. If no viewer is detected based on the captured image, the viewer information may include information indicating that no viewer exists. In S <b> 14, the projectors 300 </ b> A to 300 </ b> D each output viewer information generated based on the captured image of the imaging unit 311 to the information processing apparatus 200.

すると情報処理装置200は、S15において、入力された視聴者情報に基づいて、投影範囲A〜D内に視聴者Pの影に相当する遮蔽領域が存在しないようにプロジェクタ300A〜300Dの位置および姿勢をそれぞれ算出する。図8(a)に示す例の場合、情報処理装置200は、視聴者Pにより遮蔽されずにプロジェクタ300Bの投影画像が投影範囲B内に存在する遮蔽領域に投影されるように、プロジェクタ300A〜300Dの位置および姿勢をそれぞれ算出する。そして、S16において、情報処理装置200は、S15において算出した新たなプロジェクタの位置および姿勢に関する情報を含むプロジェクタ情報を、プロジェクタ300A〜300Dにそれぞれ出力する。なお、プロジェクタ300A〜300Dから入力されるすべての視聴者情報に、視聴者が検出されていないことを示す情報が含まれる場合、プロジェクタ300A〜300Dの位置および姿勢を移動させる必要がないため、プロジェクタ情報は変化しない。   In step S15, the information processing apparatus 200 then determines the positions and orientations of the projectors 300A to 300D based on the input viewer information so that there is no shielding area corresponding to the shadow of the viewer P in the projection ranges A to D. Are calculated respectively. In the example illustrated in FIG. 8A, the information processing apparatus 200 projects the projectors 300 </ b> A to 300 </ b> A so that the projection image of the projector 300 </ b> B is projected on the shielding area existing in the projection range B without being shielded by the viewer P. The position and orientation of 300D are calculated. In S16, the information processing apparatus 200 outputs projector information including information on the position and orientation of the new projector calculated in S15 to the projectors 300A to 300D, respectively. If all the viewer information input from projectors 300A to 300D includes information indicating that no viewer is detected, the projectors 300A to 300D do not need to be moved in position and orientation. Information does not change.

プロジェクタ300A〜300Dは、情報処理装置200からプロジェクタ情報を入力すると、S17において、入力されたプロジェクタ情報に基づいて位置および姿勢を移動する。このとき、プロジェクタ300A〜300Dは、図8(a)に示す位置から図8(b)に示す位置に移動し、各々の投影範囲A、B、C、Dが、例えば投影範囲A’、B’、C’、D’に変更されるように姿勢(投影レンズの向きや位置)が変化する。
なお、上記の例ではプロジェクタ300A〜300Dの位置を移動する場合について説明しているが、プロジェクタ300A〜300Dの姿勢のみを移動させてもよい。例えば、プロジェクタ300Dが投影範囲Bに視聴者Pの影ができないように投影画像を投影できる場合には、プロジェクタ300Dから投影範囲Bに投影画像を投影するようにプロジェクタ300Dの姿勢を移動してもよい。ただし、この場合、投影範囲Dには、別のプロジェクタから投影画像を投影するようにする。
When projector information is input from information processing apparatus 200, projectors 300A to 300D move positions and orientations based on the input projector information in S17. At this time, the projectors 300A to 300D move from the position shown in FIG. 8A to the position shown in FIG. 8B, and the projection ranges A, B, C, and D are, for example, the projection ranges A ′ and B. The posture (direction and position of the projection lens) changes so as to be changed to ', C', D '.
In the above example, the case where the positions of the projectors 300A to 300D are moved is described. However, only the attitudes of the projectors 300A to 300D may be moved. For example, when the projector 300D can project a projection image so that the shadow of the viewer P cannot be projected on the projection range B, the attitude of the projector 300D may be moved so as to project the projection image from the projector 300D to the projection range B. Good. However, in this case, a projection image is projected from another projector to the projection range D.

情報処理装置200は、S18において、S16において算出された新たなプロジェクト情報に基づいて変化した投影範囲A’〜D’に対応する映像コンテンツを生成する。そして、情報処理装置200は、S19において、生成した映像コンテンツをプロジェクタ300A〜300Dへそれぞれ出力する。
プロジェクタ300A〜300Dは、それぞれ情報処理装置200から映像コンテンツを入力すると、S20において、入力した映像コンテンツを変形処理する。そして、プロジェクタ300A〜300Dは、S21において、変形処理された映像コンテンツを投影部333から投影範囲A’〜D’に投影する。これにより、プロジェクタ300A〜300Dの投影画像は、図8(b)に示すように、いずれも視聴者Pに遮られることなく適切に被投影面の投影範囲A’〜D’に投影される。つまり、視聴者Pの視界内において、被投影面に表示される表示画像が欠落することなく適切に表示される。
In S18, the information processing apparatus 200 generates video content corresponding to the projection ranges A ′ to D ′ changed based on the new project information calculated in S16. In step S19, the information processing apparatus 200 outputs the generated video content to the projectors 300A to 300D.
When each of the projectors 300A to 300D inputs video content from the information processing apparatus 200, the projector 300A to 300D transforms the input video content in S20. In S21, the projectors 300A to 300D project the transformed video content from the projection unit 333 to the projection ranges A ′ to D ′. As a result, the projection images of the projectors 300A to 300D are appropriately projected onto the projection ranges A ′ to D ′ of the projection surface without being blocked by the viewer P, as shown in FIG. That is, the display image displayed on the projection surface is appropriately displayed within the field of view of the viewer P without being lost.

S22においては、プロジェクタ300A〜300Dは、図8(b)に示す新たな配置位置において、投影範囲(A’〜D’)およびその周辺を再び撮像する。そして、プロジェクタ300A〜300Dは、S13と同様に撮像画像を解析し、視聴者情報を生成する。S23では、プロジェクタ300A〜300Dは、S14と同様に、視聴者情報を情報処理装置200に出力する。以降、S15〜S23の動作をフレーム毎に行う。
このように、情報処理装置200は、投影装置と投影装置から投影画像が投影される被投影面との間に存在するオブジェクトの位置に関する情報を含む第一の情報を取得する。本実施形態において、上記投影装置はプロジェクタ300である。ここで、第一の情報は、オブジェクトの姿勢に関する情報をさらに含んでいてもよい。本実施形態において、上記オブジェクトは、投影画像によって被投影面に表示される表示画像を視聴する視聴者である。つまり、情報処理装置200は、第一の情報として、視聴者の位置に関する情報と視聴者の姿勢に関する情報とを取得することができ、第一の情報を視聴者情報として取得することができる。ただし、上記オブジェクトは、視聴者以外の人物であってもよいし、人物以外の物(視聴者が持っている物、床に置いてある物など)であってもよい。
In S22, the projectors 300A to 300D again image the projection range (A ′ to D ′) and its surroundings at the new arrangement position shown in FIG. Then, the projectors 300A to 300D analyze the captured image as in S13, and generate viewer information. In S23, the projectors 300A to 300D output the viewer information to the information processing apparatus 200 as in S14. Thereafter, the operations of S15 to S23 are performed for each frame.
In this way, the information processing apparatus 200 acquires first information including information regarding the position of an object existing between the projection apparatus and the projection surface onto which the projection image is projected from the projection apparatus. In the present embodiment, the projection device is a projector 300. Here, the first information may further include information on the posture of the object. In the present embodiment, the object is a viewer who views a display image displayed on the projection surface by the projection image. That is, the information processing apparatus 200 can acquire information regarding the position of the viewer and information regarding the attitude of the viewer as the first information, and can acquire the first information as the viewer information. However, the object may be a person other than the viewer or an object other than the person (an object held by the viewer, an object placed on the floor, or the like).

そして、情報処理装置200は、第一の情報に基づいて、被投影面上に、オブジェクトにより投影画像が遮蔽された遮蔽領域が存在するか否かを判定する。また、情報処理装置200は、遮蔽領域が存在すると判定された場合に、オブジェクトにより遮蔽されずに投影画像が遮蔽領域に投影されるような投影装置の投影範囲に関する情報を含む第二の情報を決定し、第二の情報を投影装置に出力する。ここで、第二の情報は、投影装置の位置に関する情報をさらに含んでいてもよい。このとき、情報処理装置200は、オブジェクトの姿勢に関する情報として、視聴者の顔の向きに関する情報を取得し、視聴者の視界に入る被投影面上に、遮蔽領域が存在するか否かを判定することができる。つまり、情報処理装置200は、視聴者の視界に入る被投影面上に遮蔽領域が存在しないような第二の情報を決定することができる。
つまり、情報処理装置200は、視聴者情報に基づいて、第二の情報としてプロジェクタ300の位置および姿勢に関する情報を含むプロジェクタ情報を決定する。そして、情報処理装置200は、決定されたプロジェクタ情報をプロジェクタ300へ出力する。このときプロジェクタ300の位置制御部322は、プロジェクタ情報に基づいて、視聴者がプロジェクタ300の投影画像を遮らないようにプロジェクタ300の位置および姿勢を移動することができる。
Based on the first information, the information processing apparatus 200 determines whether there is a shielding area where the projection image is shielded by the object on the projection surface. In addition, the information processing apparatus 200 receives second information including information related to a projection range of the projection apparatus such that, when it is determined that the shielding area exists, the projection image is projected onto the shielding area without being shielded by the object. The second information is output to the projection apparatus. Here, the second information may further include information regarding the position of the projection device. At this time, the information processing apparatus 200 acquires information about the orientation of the viewer's face as information about the orientation of the object, and determines whether or not a shielding area exists on the projection surface that enters the viewer's field of view. can do. That is, the information processing apparatus 200 can determine the second information such that there is no shielding area on the projection surface that enters the viewer's field of view.
That is, the information processing apparatus 200 determines projector information including information regarding the position and orientation of the projector 300 as the second information based on the viewer information. Information processing apparatus 200 then outputs the determined projector information to projector 300. At this time, the position control unit 322 of the projector 300 can move the position and orientation of the projector 300 based on the projector information so that the viewer does not block the projection image of the projector 300.

これにより、プロジェクタ300の投影範囲が視聴者を含むオブジェクトの陰になり表示画像の一部が欠落することを回避することができる。具体的には、情報処理装置200は、視聴者の視界に入る被投影面に表示される表示画像内に、オブジェクトの影に相当する遮蔽領域が存在しないようにプロジェクタ300を制御することができる。したがって、視聴者の視界内の表示画像の欠落を確実に回避することができ、視聴者にとって違和感のない画像を表示することができる。また、視聴者の動きに追随してプロジェクタ300の投影範囲を移動することができるので、視聴者の視界の臨場感を常に確保することができる。   Thereby, it can be avoided that the projection range of the projector 300 is behind the object including the viewer and a part of the display image is lost. Specifically, the information processing apparatus 200 can control the projector 300 so that there is no shielding area corresponding to the shadow of the object in the display image displayed on the projection surface that enters the viewer's field of view. . Accordingly, it is possible to surely avoid the loss of the display image in the viewer's field of view, and it is possible to display an image that does not feel uncomfortable for the viewer. Further, since the projection range of the projector 300 can be moved following the movement of the viewer, it is possible to always ensure the presence of the viewer's field of view.

さらに、情報処理装置200は、撮像手段によって撮像された被投影面を含む領域の撮像画像に基づいて第一の情報を取得することができる。具体的には、プロジェクタ300が有する撮像部311が、プロジェクタ300の投影範囲およびその周辺を撮像し、視聴者検出部312が、撮像部311の撮像画像に基づいて視聴者の位置および姿勢を認識し、視聴者情報を生成する。そして、情報処理装置200は、視聴者検出部312が撮像画像に基づいて生成した視聴者情報を取得することができる。このように、視聴者を撮像した撮像画像から視聴者情報を取得することで、視聴者の位置や顔の向きを適切に把握することができる。   Furthermore, the information processing apparatus 200 can acquire the first information based on the captured image of the area including the projection surface captured by the imaging unit. Specifically, the imaging unit 311 included in the projector 300 images the projection range of the projector 300 and its surroundings, and the viewer detection unit 312 recognizes the position and orientation of the viewer based on the captured image of the imaging unit 311. And viewer information is generated. The information processing apparatus 200 can acquire the viewer information generated by the viewer detection unit 312 based on the captured image. Thus, by acquiring the viewer information from the captured image obtained by capturing the viewer, the viewer's position and face orientation can be appropriately grasped.

なお、情報処理装置200は、視聴者の位置に関する情報と、視聴者の姿勢に関する情報とを、それぞれ異なる撮像手段によって撮像された撮像画像に基づいて取得することもできる。この場合、視聴者の姿勢(顔の向き)に関する情報を取得するために、専用の撮像手段(カメラ等)を配置することができるので、視聴者の視界を適切に把握することができる。また、上記専用の撮像手段は、視聴者の動きに応じて撮像位置および撮像姿勢を変化させてもよい。これにより、より適切に視聴者の視界を把握することができる。
以上のように、映像投影システム100は、プロジェクタ300から投影され視聴者の視界に入る被投影面に表示される表示画像内に遮蔽領域を作らないように、プロジェクタ300の位置および姿勢を移動して画像を投影することができる。したがって、視聴者の没入感を阻害する要因を適切に排除し、臨場感のある映像投影が可能となる。
Note that the information processing apparatus 200 can also acquire information related to the viewer's position and information related to the viewer's posture based on captured images captured by different imaging units. In this case, in order to acquire information related to the posture (face orientation) of the viewer, dedicated imaging means (such as a camera) can be arranged, so that the viewer's field of view can be properly grasped. The dedicated imaging unit may change the imaging position and the imaging posture according to the movement of the viewer. Thereby, a viewer's view can be grasped more appropriately.
As described above, the video projection system 100 moves the position and orientation of the projector 300 so as not to create a shielding area in the display image displayed on the projection surface projected from the projector 300 and entering the viewer's field of view. Can project an image. Accordingly, it is possible to appropriately eliminate factors that hinder the viewer's immersive feeling, and to project a realistic image.

(第二の実施形態)
次に、本発明の第二の実施形態について説明する。
この第二の実施形態では、複数のプロジェクタ300からそれぞれ投影される複数の投影画像を投影前に解析し、視聴者が注目する投影範囲を把握してプロジェクタ300を制御する場合について説明する。
図9は、第二の実施形態における情報処理装置201の構成を示すブロック図である。この情報処理装置201は、図2に示す情報処理装置200に映像コンテンツ解析部231(以下、映像解析部231)が追加され、情報算出部212がプロジェクタ情報算出部232(以下、情報算出部232)に置換された構成を有する。
(Second embodiment)
Next, a second embodiment of the present invention will be described.
In the second embodiment, a case will be described in which a plurality of projection images respectively projected from a plurality of projectors 300 are analyzed before projection, and the projector 300 is controlled by grasping a projection range in which the viewer is focused.
FIG. 9 is a block diagram illustrating a configuration of the information processing apparatus 201 according to the second embodiment. In the information processing apparatus 201, a video content analysis unit 231 (hereinafter referred to as a video analysis unit 231) is added to the information processing apparatus 200 illustrated in FIG. 2, and an information calculation unit 212 is used as a projector information calculation unit 232 (hereinafter referred to as an information calculation unit 232). ).

映像解析部231は、映像入力部221から映像コンテンツを入力する。そして、映像解析部231は、入力された映像コンテンツを解析し、映像解析情報を生成する。ここで、映像解析情報は、映像コンテンツ中において特徴量が所定値以上である領域に関する情報を含む。上記特徴量としては、映像コンテンツのフレーム間の動き情報(動きベクトル情報)を用いることができ、特徴量が所定値以上である領域は、視聴者が注目する動き(主要な動き、目立った動き)のある領域として抽出することができる。なお、特徴量は動き情報に限定されるものではなく、視聴者が注目する領域を予測することができる特徴量であればよい。映像解析部231は、生成した映像解析情報を情報算出部232に出力する。
情報算出部232は、視聴者情報入力部211から入力された視聴者情報と、映像解析部231から入力された映像解析情報とに基づいて、プロジェクタ情報を算出する。ここで、プロジェクタ情報は、上述したプロジェクタ300の位置および姿勢に関する情報の他に、投影制限情報を含む。投影制限情報とは、プロジェクタ300からの投影を停止(制限)するかどうかを示す情報である。投影制限情報の詳細については後述する。
The video analysis unit 231 inputs video content from the video input unit 221. The video analysis unit 231 then analyzes the input video content and generates video analysis information. Here, the video analysis information includes information regarding a region in the video content whose feature amount is equal to or greater than a predetermined value. As the feature amount, motion information (motion vector information) between frames of video content can be used, and an area where the feature amount is equal to or greater than a predetermined value is a motion that the viewer is interested in (major motion, conspicuous motion). ) Can be extracted as a certain area. Note that the feature amount is not limited to the motion information, and may be any feature amount that can predict the region that the viewer is interested in. The video analysis unit 231 outputs the generated video analysis information to the information calculation unit 232.
The information calculation unit 232 calculates projector information based on the viewer information input from the viewer information input unit 211 and the video analysis information input from the video analysis unit 231. Here, the projector information includes projection restriction information in addition to the information on the position and orientation of the projector 300 described above. The projection restriction information is information indicating whether to stop (limit) the projection from the projector 300. Details of the projection restriction information will be described later.

次に、第二の実施形態における情報処理装置201とプロジェクタ300との間の情報の流れについて詳細に説明する。以下の説明では、図10(a)および図10(b)に示すように、8台のプロジェクタ300(300A〜300H)が壁面を被投影面として映像を投影する場合について説明する。プロジェクタ300A、300B、300Cおよび300Dの投影範囲は、図10(a)に示すように、各々A、B、C、Dと表示された位置である。また、プロジェクタ300E、300F、300Gおよび300Hの投影範囲は、図10(b)に示すように、各々E、F、G、Hと表示された位置である。
図11に示すように、先ずS31において、情報処理装置201は、プロジェクタ300A〜300Hに対してそれぞれプロジェクタ情報を出力する。このとき、プロジェクタ300A〜300Hは、各プロジェクタの位置と投影範囲(例えば、図10(a)および図10(b)のA〜H)に関する情報を取得する。
Next, the information flow between the information processing apparatus 201 and the projector 300 in the second embodiment will be described in detail. In the following description, as shown in FIGS. 10A and 10B, a case where eight projectors 300 (300A to 300H) project an image with a wall surface as a projection surface will be described. The projection ranges of the projectors 300A, 300B, 300C, and 300D are positions displayed as A, B, C, and D, respectively, as shown in FIG. Further, the projection ranges of the projectors 300E, 300F, 300G, and 300H are positions displayed as E, F, G, and H, respectively, as shown in FIG.
As shown in FIG. 11, first in S31, the information processing apparatus 201 outputs projector information to the projectors 300A to 300H, respectively. At this time, the projectors 300 </ b> A to 300 </ b> H acquire information related to the position and projection range of each projector (for example, A to H in FIGS. 10A and 10B).

次にS32において、プロジェクタ300A〜300Hは、それぞれ情報処理装置201から入力されたプロジェクタ情報に基づいて位置および姿勢を移動する。そして、S33において、プロジェクタ300A〜300Hは、各々の投影範囲およびその周辺を撮像し、撮像画像を解析する。このとき、図10(a)に示すように、投影範囲A〜Dを視界に入れた視聴者Pが、投影範囲A〜Hから離れた位置に存在し、プロジェクタ300A〜300Hの投影画像がいずれも視聴者Pによって遮られていないものとする。この場合、例えばプロジェクタ300Bの撮像部311が視聴者Pを撮像すると、プロジェクタ300Bの視聴者検出部312は、視聴者Pの位置および姿勢を検出して視聴者情報を生成する。そして、S34では、プロジェクタ300A〜300Hは、それぞれ撮像画像をもとに生成した視聴者情報を情報処理装置200に出力する。   Next, in S <b> 32, the projectors 300 </ b> A to 300 </ b> H move their positions and postures based on the projector information input from the information processing apparatus 201. In S <b> 33, the projectors 300 </ b> A to 300 </ b> H capture images of the respective projection ranges and the periphery thereof, and analyze the captured images. At this time, as shown in FIG. 10A, the viewer P who puts the projection ranges A to D in the field of view exists at a position away from the projection ranges A to H, and the projected images of the projectors 300A to 300H are Is not blocked by the viewer P. In this case, for example, when the imaging unit 311 of the projector 300B images the viewer P, the viewer detection unit 312 of the projector 300B detects the position and orientation of the viewer P and generates viewer information. In S <b> 34, projectors 300 </ b> A to 300 </ b> H each output viewer information generated based on the captured image to information processing apparatus 200.

情報処理装置201は、プロジェクタ300A〜300Hから視聴者情報を入力すると、S35において、オリジナルの映像コンテンツを先行して複数フレーム先まで解析する。そして、情報処理装置201は、映像コンテンツから視聴者が注目する主要な動きがある領域を抽出する。このとき、情報処理装置201は、投影範囲A〜Dに投影する映像コンテンツ(投影画像)に主要な動きが集中しており、投影範囲E〜Hに投影する映像コンテンツ(投影画像)には目立った動きがないという映像解析情報を得たものとする。   When the viewer information is input from the projectors 300A to 300H, the information processing apparatus 201 analyzes the original video content up to a plurality of frames ahead in S35. Then, the information processing apparatus 201 extracts an area having a main movement that is viewed by the viewer from the video content. At this time, the information processing apparatus 201 concentrates main motions on the video content (projected images) projected onto the projection ranges A to D, and is conspicuous on the video content (projected images) projected onto the projection ranges E to H. It is assumed that the video analysis information that there is no movement is obtained.

S36において、情報処理装置201は、S34において入力された視聴者情報と、S35において取得された映像解析情報とに基づいて、プロジェクタ300A〜300Hのプロジェクタ情報を算出する。図10(a)に示す例では、視聴者Pは投影範囲A〜Dの方を向いており、投影範囲A〜Dが視聴者Pの視界内に入っている。そのため、情報処理装置201は、プロジェクタ300A〜300Dの投影画像が視聴者Pによって遮られないように、プロジェクタ300A〜300Dのプロジェクタ情報を算出する。なお、図10(a)に示す例では、視聴者Pはプロジェクタ300A〜300Dの投影画像を遮っていない。そのため、この場合、情報処理装置201は、プロジェクタ300A〜300Dの現在の位置および姿勢を維持するようなプロジェクタ情報を算出する。つまり、情報処理装置20は、プロジェクタ300A〜300Dのプロジェクタ情報を変化させない。   In S36, the information processing apparatus 201 calculates projector information of the projectors 300A to 300H based on the viewer information input in S34 and the video analysis information acquired in S35. In the example shown in FIG. 10A, the viewer P faces the projection ranges A to D, and the projection ranges A to D are in the viewer P's field of view. Therefore, the information processing apparatus 201 calculates projector information of the projectors 300A to 300D so that the projected images of the projectors 300A to 300D are not blocked by the viewer P. In the example shown in FIG. 10A, the viewer P does not block the projection images of the projectors 300A to 300D. Therefore, in this case, the information processing apparatus 201 calculates projector information that maintains the current positions and orientations of the projectors 300A to 300D. That is, the information processing apparatus 20 does not change the projector information of the projectors 300A to 300D.

一方、視聴者Pは投影範囲E〜Hの方を向いていないため、仮にプロジェクタ300E〜300Hの投影画像の一部が視聴者Pによって遮られていたとしても、プロジェクタ300E〜300Hを移動させる必要はない。そのため、情報処理装置201は、プロジェクタ300E〜300Hの現在の位置および姿勢を維持するようなプロジェクタ情報を算出する。また、情報処理装置201は、映像解析情報に基づいて、今後、複数フレームに亘って投影範囲E〜Hに投影される映像コンテンツに目立った動きがなく、プロジェクタ300E〜300Hからの投影の必要性が低いと判断する。そこで、情報処理装置201は、プロジェクタ300E〜300Hの投影を停止してもよいことを示す投影制限情報を、プロジェクタ300E〜300Hのプロジェクタ情報に含める。そして、S37において、情報処理装置201は、S36において算出したプロジェクタ情報をプロジェクタ300A〜300Hに出力する。   On the other hand, since the viewer P is not facing the projection ranges E to H, even if a part of the projection image of the projectors 300E to 300H is blocked by the viewer P, it is necessary to move the projectors 300E to 300H. There is no. Therefore, the information processing apparatus 201 calculates projector information that maintains the current positions and orientations of the projectors 300E to 300H. Further, the information processing apparatus 201 has no need to project from the projectors 300E to 300H because there is no noticeable movement in the video content projected on the projection ranges E to H over a plurality of frames in the future based on the video analysis information. Is determined to be low. Therefore, the information processing apparatus 201 includes projection restriction information indicating that the projection of the projectors 300E to 300H may be stopped in the projector information of the projectors 300E to 300H. In step S37, the information processing apparatus 201 outputs the projector information calculated in step S36 to the projectors 300A to 300H.

情報処理装置201からプロジェクタ情報を入力したプロジェクタ300A〜300Dは、S38において、入力されたプロジェクタ情報に基づいてプロジェクタの位置および姿勢を移動する。なお、図10(a)に示す例では、情報処理装置201は、上述したようにプロジェクタ300A〜300Dの位置および姿勢を変化させないようなプロジェクタ情報を出力するため、プロジェクタ300A〜300Dは移動しない。また、プロジェクタ300E〜300Hも同じ位置および姿勢を維持する。ただし、プロジェクタ300E〜300Hは、情報処理装置201から投影を停止してもよいことを示す投影制限情報を含むプロジェクタ情報を入力するため、投影を停止する。
なお、本実施形態では、視聴者が注目しない投影画像を投影するプロジェクタ300からの投影を停止させる場合について説明するが、投影を制限するようにしてもよい。例えば、明るさを確保する程度の映像を投影するようにしてもよい。ただし、臨場感の確保のために、音声の出力は制限しないものとする。
In S <b> 38, projectors 300 </ b> A to 300 </ b> D that have input projector information from information processing apparatus 201 move the position and orientation of the projector based on the input projector information. In the example illustrated in FIG. 10A, the information processing apparatus 201 outputs projector information that does not change the positions and orientations of the projectors 300A to 300D as described above, and thus the projectors 300A to 300D do not move. The projectors 300E to 300H also maintain the same position and posture. However, the projectors 300 </ b> E to 300 </ b> H stop the projection in order to input projector information including projection restriction information indicating that the projection may be stopped from the information processing apparatus 201.
In the present embodiment, a case is described in which projection from the projector 300 that projects a projection image that the viewer does not pay attention to is stopped. However, the projection may be limited. For example, you may make it project the image | video of the grade which ensures brightness. However, in order to ensure a sense of reality, the output of audio is not restricted.

S39では、情報処理装置201は、各プロジェクタの映像コンテンツを生成する。ここで、情報処理装置201は、S36において、プロジェクタ300E〜300Hの投影を停止すると判断している。そのため、情報処理装置201は、S39において、プロジェクタ300A〜300Dの投影範囲A〜Dに対応する映像コンテンツのみを生成する。つまり、情報処理装置201は、プロジェクタ300E〜300Hの投影範囲E〜Hに対応する映像コンテンツは生成しない。そして、情報処理装置200は、S40において、生成した映像コンテンツをプロジェクタ300A〜300Dへそれぞれ出力する。
プロジェクタ300A〜300Dは、それぞれ情報処理装置201から映像コンテンツを入力すると、S41において、入力した映像コンテンツを変形処理する。そして、プロジェクタ300A〜300Dは、S42において、変形処理された映像コンテンツを投影部333から投影範囲A〜Dに投影する。このように、プロジェクタ300A〜300Dは、視聴者Pが注目する被投影面に表示される表示画像内に遮蔽領域を作らないような位置および姿勢にて、画像を投影することができる。
In S39, the information processing apparatus 201 generates video content for each projector. Here, the information processing apparatus 201 determines in S36 that the projection of the projectors 300E to 300H is stopped. Therefore, the information processing apparatus 201 generates only video content corresponding to the projection ranges A to D of the projectors 300A to 300D in S39. That is, the information processing apparatus 201 does not generate video content corresponding to the projection ranges E to H of the projectors 300E to 300H. In step S40, the information processing apparatus 200 outputs the generated video content to the projectors 300A to 300D.
When each of the projectors 300A to 300D inputs video content from the information processing apparatus 201, the projector 300A to 300D transforms the input video content in S41. In step S42, the projectors 300A to 300D project the transformed video content from the projection unit 333 to the projection ranges A to D. In this way, the projectors 300A to 300D can project images at positions and postures that do not create a shielding area in the display image displayed on the projection surface on which the viewer P pays attention.

なお、上記の例では、視聴者Pが注目する投影画像が投影される投影範囲A〜Dが、視聴者Pの視界内に入っている場合について説明した。しかしながら、視聴者Pの視界内に入っている投影範囲A〜D内に、視聴者Pが注目する投影画像が投影されない投影範囲が存在する場合であっても、情報処理装置200は上記と同様の動作を行う。つまり、主要な動きがあるか否かにかかわらず、視聴者Pの視界内に入っている被投影面上には遮蔽領域が存在しないようにプロジェクタ300を制御しておく。   In the above example, a case has been described in which the projection ranges A to D in which the projection image focused by the viewer P is projected are within the viewer P's field of view. However, the information processing apparatus 200 is similar to the above even when there is a projection range within the projection ranges A to D within the field of view of the viewer P where the projection image that the viewer P is interested in is not projected. Perform the operation. In other words, the projector 300 is controlled so that there is no shielding area on the projection surface within the field of view of the viewer P regardless of whether or not there is a main movement.

S43においては、プロジェクタ300A〜300Hは、それぞれ投影範囲(A〜H)およびその周辺を再び撮像する。そして、プロジェクタ300A〜300Hは、S33と同様に撮像画像を解析し、視聴者情報を生成する。このとき、視聴者Pの位置および姿勢が図10(a)に示す状態から変化がないものとすると、視聴者情報は、S33において生成された視聴者情報と同じになる。そして、S44では、プロジェクタ300A〜300Hは、S34と同様に、視聴者情報を情報処理装置201に出力する。
S45においては、情報処理装置201は、S35と同様に、オリジナルの映像コンテンツを先行して複数フレーム先まで解析する。このとき、情報処理装置201が、今後、映像コンテンツの主要な動きが投影範囲A〜Dから投影範囲E〜Hに移っていくという映像解析情報を得たものとする。すると、S46において、情報処理装置201は、このS45において取得された映像解析情報を用いて、プロジェクタ300A〜300Hのプロジェクタ情報を算出する。
In S43, the projectors 300A to 300H respectively pick up an image of the projection range (A to H) and its surroundings again. Then, the projectors 300A to 300H analyze the captured image as in S33 and generate viewer information. At this time, assuming that the position and orientation of the viewer P are not changed from the state shown in FIG. 10A, the viewer information is the same as the viewer information generated in S33. In S <b> 44, the projectors 300 </ b> A to 300 </ b> H output viewer information to the information processing apparatus 201 as in S <b> 34.
In S45, the information processing apparatus 201 analyzes the original video content up to a plurality of frames ahead as in S35. At this time, it is assumed that the information processing apparatus 201 has obtained video analysis information that the main movement of the video content will shift from the projection ranges A to D to the projection ranges E to H in the future. Then, in S46, the information processing apparatus 201 calculates projector information of the projectors 300A to 300H using the video analysis information acquired in S45.

視聴者Pの位置および姿勢は図10(a)に示す状態から変化がないため、このS45においては、情報処理装置201は、プロジェクタ300A〜300Dのプロジェクタ情報を変化させない。一方、情報処理装置201は、映像解析情報に基づいて、今後、映像コンテンツの中心が投影範囲E〜Hに移っていくため、プロジェクタ300E〜300Hからの投影が必要になると判断する。そこで、情報処理装置201は、プロジェクタ300E〜300Hの投影を再開する(投影の停止をやめる)ことを示す投影制限情報を、プロジェクタ300E〜300Hのプロジェクタ情報に含める。そして、S47において、情報処理装置201は、S46において算出したプロジェクタ情報をプロジェクタ300A〜300Hに出力する。   Since the position and orientation of the viewer P are not changed from the state shown in FIG. 10A, the information processing apparatus 201 does not change the projector information of the projectors 300A to 300D in S45. On the other hand, the information processing apparatus 201 determines that projection from the projectors 300E to 300H is necessary because the center of the video content will move to the projection ranges E to H based on the video analysis information. Therefore, the information processing apparatus 201 includes projection restriction information indicating that projection of the projectors 300E to 300H is resumed (stops the stop of projection) in the projector information of the projectors 300E to 300H. In step S47, the information processing apparatus 201 outputs the projector information calculated in step S46 to the projectors 300A to 300H.

情報処理装置201からプロジェクタ情報を入力したプロジェクタ300A〜300Hは、S48において、入力されたプロジェクタ情報に基づいてプロジェクタの位置および姿勢を移動する。なお、図10(a)に示す例では、視聴者Pの位置および姿勢に変化はないため、プロジェクタ300A〜300Dは移動しない。また、プロジェクタ300E〜300Hも同じ位置および姿勢を維持する。ただし、プロジェクタ300E〜300Hは、情報処理装置201から投影を再開することを示すプロジェクタ情報を入力するため、投影を再開するために映像コンテンツの入力待ち状態となる。
S49では、情報処理装置201は、プロジェクタ300A〜300Hの映像コンテンツを生成する。つまり、情報処理装置201は、S49において、プロジェクタ300A〜300Dの投影範囲A〜Dに対応する映像コンテンツと、プロジェクタ300E〜300Hの投影範囲E〜Hに対応する映像コンテンツとを生成する。そして、情報処理装置200は、S50において、生成した映像コンテンツをプロジェクタ300A〜300Hへそれぞれ出力する。
In S48, projectors 300A to 300H having input projector information from information processing apparatus 201 move the position and orientation of the projector based on the input projector information. In the example shown in FIG. 10A, the position and orientation of the viewer P are not changed, and thus the projectors 300A to 300D do not move. The projectors 300E to 300H also maintain the same position and posture. However, since the projectors 300E to 300H input projector information indicating that projection is to be resumed from the information processing apparatus 201, the projectors 300E to 300H enter a video content input waiting state in order to resume projection.
In S49, the information processing apparatus 201 generates video content of the projectors 300A to 300H. That is, in S49, the information processing device 201 generates video content corresponding to the projection ranges A to D of the projectors 300A to 300D and video content corresponding to the projection ranges E to H of the projectors 300E to 300H. In step S50, the information processing apparatus 200 outputs the generated video content to the projectors 300A to 300H, respectively.

プロジェクタ300A〜300Hは、それぞれ情報処理装置201から映像コンテンツを入力すると、S51において、入力した映像コンテンツを変形処理する。そして、プロジェクタ300A〜300Hは、S52において、変形処理された映像コンテンツを投影部333から投影範囲A〜Hに投影する。このように、視聴者Pが投影範囲E〜Hの方を向いていなくても、今後、投影範囲E〜Hに視聴者Pが注目するような投影画像が投影されると判断される場合には、先行して投影範囲E〜Hに画像を投影しておくことができる。つまり、情報処理装置201は、映像コンテンツの内容に基づいて視聴者Pの視界を予測し、各プロジェクタ300を制御することができる。したがって、情報処理装置201は、現時点において視聴者Pの視界内に入っていなくても、今後視聴者Pの視界内に入る可能性の高い投影範囲については、視聴者Pの影による欠陥領域が生じないようにプロジェクタ300を制御しておくことができる。
S53においては、プロジェクタ300A〜300Hは、それぞれ投影範囲(A〜H)およびその周辺を再び撮像する。そして、プロジェクタ300A〜300Hは、S43と同様に撮像画像を解析し、視聴者情報を生成する。S54においては、プロジェクタ300A〜300Hは、S44と同様に、視聴者情報を情報処理装置201に出力する。以降、S45〜S54の動作をフレーム毎に行う。
When each of the projectors 300A to 300H inputs video content from the information processing apparatus 201, in S51, the projector 300A to 300H transforms the input video content. In step S52, the projectors 300A to 300H project the transformed video content from the projection unit 333 to the projection ranges A to H. In this way, even when the viewer P is not facing the projection ranges E to H, when it is determined that a projection image that the viewer P will focus on the projection ranges E to H will be projected in the future. Can project images in the projection ranges E to H in advance. That is, the information processing apparatus 201 can predict the field of view of the viewer P based on the content of the video content and control each projector 300. Therefore, even if the information processing apparatus 201 is not currently within the field of view of the viewer P, a defective area due to the shadow of the viewer P is present in a projection range that is likely to enter the field of view of the viewer P in the future. The projector 300 can be controlled so as not to occur.
In S <b> 53, the projectors 300 </ b> A to 300 </ b> H again image the projection range (A to H) and its surroundings. Then, the projectors 300A to 300H analyze the captured image similarly to S43, and generate viewer information. In S54, the projectors 300A to 300H output the viewer information to the information processing apparatus 201 as in S44. Thereafter, the operations of S45 to S54 are performed for each frame.

このように、本実施形態では、情報処理装置201は、オリジナルの映像コンテンツを複数フレームに亘って先行して解析し、視聴者が注目するような主要な動きがある領域を抽出する。そして、情報処理装置201は、抽出した領域に対応する投影画像を投影するプロジェクタ300の位置および姿勢を、被投影面上の表示画像内に視聴者の影に相当する遮蔽領域が存在しないような位置および姿勢とする。つまり、情報処理装置201は、複数の投影装置からそれぞれ被投影面に投影される複数の投影画像を投影前に解析し、複数の投影画像のうち、特徴量が所定値以上である投影画像を少なくとも1つ選択する。そして、情報処理装置201は、選択された投影画像が投影される被投影面上に、遮蔽領域が存在するか否かを判定する。つまり、情報処理装置201は、視聴者が注目する被投影面上に遮蔽領域が存在しないようにプロジェクタ情報を決定し、必要最小限のプロジェクタ300の位置および姿勢を移動させることができる。したがって、不必要なプロジェクタ300の制御を削減することができる。   As described above, in the present embodiment, the information processing apparatus 201 analyzes the original video content in advance over a plurality of frames, and extracts a region having a main movement that is noticed by the viewer. Then, the information processing apparatus 201 sets the position and orientation of the projector 300 that projects the projection image corresponding to the extracted area so that there is no shielding area corresponding to the shadow of the viewer in the display image on the projection surface. Position and posture. That is, the information processing apparatus 201 analyzes a plurality of projection images projected from the plurality of projection apparatuses onto the projection surface, respectively, and projects a projection image having a feature amount equal to or greater than a predetermined value among the plurality of projection images. Select at least one. Then, the information processing apparatus 201 determines whether there is a shielding area on the projection surface on which the selected projection image is projected. That is, the information processing apparatus 201 can determine the projector information so that there is no shielding area on the projection surface to which the viewer pays attention, and can move the minimum position and orientation of the projector 300. Therefore, unnecessary control of the projector 300 can be reduced.

また、情報処理装置201は、複数の投影画像のうち、視聴者が注目する投影画像として選択されなかった投影画像を投影する投影装置からの投影を制限することができる。具体的には、情報処理装置201は、投影の制限として、投影を停止することができる。このように、情報処理装置201は、視聴者が注目するような主要な動きのない投影画像は、プロジェクタ300から投影しないようにすることができる。したがって、プロジェクタ300の投影範囲が冗長となることを抑制することができる。
さらに、情報処理装置201は、被投影面に投影画像を投影する複数の投影装置のうち、視聴者の視界外の被投影面に投影画像を投影する投影装置からの投影を制限することができる。具体的には、情報処理装置201は、投影の制限として、投影を停止することができる。このように、視聴者の背後など視界から外れる被投影面への投影画像は、プロジェクタ300から投影しないようにすることができる。したがって、プロジェクタ300の投影範囲が冗長となることを抑制することができる。
In addition, the information processing apparatus 201 can restrict projection from a projection apparatus that projects a projection image that is not selected as a projection image that is viewed by the viewer from among a plurality of projection images. Specifically, the information processing apparatus 201 can stop projection as a limitation of projection. As described above, the information processing apparatus 201 can prevent the projector 300 from projecting a projection image having no main movement as noted by the viewer. Therefore, it is possible to prevent the projection range of the projector 300 from becoming redundant.
Furthermore, the information processing apparatus 201 can restrict projection from a projection apparatus that projects a projection image onto a projection plane outside the viewer's field of view among a plurality of projection apparatuses that project the projection image onto the projection plane. . Specifically, the information processing apparatus 201 can stop projection as a limitation of projection. In this manner, a projection image on a projection surface that is out of view, such as behind the viewer, can be prevented from being projected from the projector 300. Therefore, it is possible to prevent the projection range of the projector 300 from becoming redundant.

以上のように、映像投影システム100は、視聴者が注目しないと予想される被投影面への投影を制限(停止)したり、今後視聴者が注目すると予想される被投影面へ先行して適切に画像を投影しておいたりすることができる。また、視聴者の背後など視界から外れる領域への投影を制限(停止)することもできる。したがって、冗長なプロジェクタ制御を抑制しつつ、視聴者の没入感を阻害する要因を適切に排除し、臨場感のある映像投影が可能となる。   As described above, the video projection system 100 restricts (stops) projection onto the projection surface that the viewer is expected not to pay attention to, or precedes the projection surface that the viewer is expected to pay attention in the future. An image can be projected appropriately. It is also possible to limit (stop) projection to a region outside the field of view such as behind the viewer. Accordingly, it is possible to appropriately eliminate a factor that hinders the viewer's immersive feeling while suppressing redundant projector control, and to perform realistic image projection.

(変形例)
上記各実施形態においては、撮像部により撮像された画像をもとに視聴者の位置および姿勢を検出する場合について説明したが、視聴者の位置および姿勢を検出する方法は撮像画像を用いる方法に限定されない。例えば、視聴者が携帯(装着)する機器や各種センサからの情報を受信することで視聴者の位置および姿勢を検出してもよい。
また、上記各実施形態においては、視聴者が1人である場合について説明したが、視聴者が複数人であってもよい。視聴者が複数人である場合、視聴者全員の視聴者情報を取得してプロジェクタ300を制御する。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Modification)
In each of the above embodiments, the case where the position and orientation of the viewer is detected based on the image captured by the imaging unit has been described. However, the method for detecting the position and orientation of the viewer is a method using a captured image. It is not limited. For example, the position and orientation of the viewer may be detected by receiving information from devices or various sensors that the viewer carries (wears).
In each of the above embodiments, the case where there is one viewer has been described, but there may be a plurality of viewers. When there are a plurality of viewers, the viewer information of all the viewers is acquired and the projector 300 is controlled.
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100…映像投影システム、200…情報処理装置、211…視聴者情報入力部、212…プロジェクタ情報算出部、213…プロジェクタ情報出力部、300…プロジェクタ、311…撮像部、312…視聴者検出部、313…視聴者情報出力部、321…プロジェクタ情報入力部、322…プロジェクタ位置制御部   DESCRIPTION OF SYMBOLS 100 ... Video projection system, 200 ... Information processing apparatus, 211 ... Viewer information input part, 212 ... Projector information calculation part, 213 ... Projector information output part, 300 ... Projector, 311 ... Imaging part, 312 ... Viewer detection part, 313 ... Viewer information output unit, 321 ... Projector information input unit, 322 ... Projector position control unit

Claims (11)

投影装置と前記投影装置から投影画像が投影される被投影面との間に存在するオブジェクトの位置に関する情報を含む第一の情報を取得する取得手段と、
前記取得手段により取得された前記第一の情報に基づいて、前記被投影面上に、前記オブジェクトにより前記投影画像が遮蔽された遮蔽領域が存在するか否かを判定する判定手段と、
前記判定手段により前記遮蔽領域が存在すると判定された場合に、前記オブジェクトにより遮蔽されずに前記投影画像が前記遮蔽領域に投影されるような前記投影装置の投影範囲に関する情報を含む第二の情報を決定する決定手段と、
前記決定手段により決定された第二の情報を前記投影装置に出力する出力手段と、を備えることを特徴とする情報処理装置。
Obtaining means for obtaining first information including information on a position of an object existing between a projection device and a projection surface onto which a projection image is projected from the projection device;
Determination means for determining whether or not a shielding area where the projection image is shielded by the object exists on the projection surface based on the first information obtained by the obtaining means;
Second information including information related to a projection range of the projection device such that when the determination unit determines that the shielding area exists, the projection image is projected onto the shielding area without being shielded by the object. A determination means for determining
And an output unit that outputs the second information determined by the determination unit to the projection device.
前記取得手段は、撮像手段によって撮像された前記被投影面を含む領域の撮像画像に基づいて前記第一の情報を取得することを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the acquisition unit acquires the first information based on a captured image of a region including the projection surface captured by the imaging unit. 前記第二の情報は、前記投影装置の位置に関する情報をさらに含むことを特徴とする請求項1または2に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the second information further includes information regarding a position of the projection apparatus. 前記第一の情報は、前記オブジェクトの姿勢に関する情報をさらに含むことを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。   The information processing apparatus according to any one of claims 1 to 3, wherein the first information further includes information related to an attitude of the object. 前記オブジェクトには、人物が含まれ、
前記取得手段は、前記オブジェクトの姿勢に関する情報として、前記人物の顔の向きに関する情報を取得し、
前記判定手段は、前記人物の視界に入る前記被投影面上に、前記遮蔽領域が存在するか否かを判定することを特徴とする請求項4に記載の情報処理装置。
The object includes a person,
The acquisition means acquires information about the orientation of the person's face as information about the posture of the object,
The information processing apparatus according to claim 4, wherein the determination unit determines whether or not the shielding area exists on the projection surface that enters the field of view of the person.
前記被投影面に前記投影画像を投影する複数の前記投影装置のうち、前記人物の視界外の前記被投影面に前記投影画像を投影する前記投影装置からの投影を制限する第一の制限手段をさらに備えることを特徴とする請求項5に記載の情報処理装置。   Of the plurality of projection devices that project the projection image onto the projection surface, first restriction means for restricting projection from the projection device that projects the projection image onto the projection surface outside the field of view of the person The information processing apparatus according to claim 5, further comprising: 複数の前記投影装置からそれぞれ前記被投影面に投影される複数の前記投影画像を投影前に解析し、前記複数の投影画像のうち、特徴量が所定値以上である前記投影画像を少なくとも1つ選択する選択手段をさらに備え、
前記判定手段は、前記選択手段により選択された前記投影画像が投影される前記被投影面上に、前記遮蔽領域が存在するか否かを判定することを特徴とする請求項1から6のいずれか1項に記載の情報処理装置。
The plurality of projection images projected from the plurality of projection devices to the projection surface are analyzed before projection, and at least one of the plurality of projection images has a feature amount equal to or greater than a predetermined value. And further comprising a selection means for selecting,
7. The determination unit according to claim 1, wherein the determination unit determines whether or not the shielding area exists on the projection surface on which the projection image selected by the selection unit is projected. The information processing apparatus according to claim 1.
前記選択手段により選択されなかった前記投影画像を投影する前記投影装置からの投影を制限する第二の制限手段をさらに備えることを特徴とする請求項7に記載の情報処理装置。   The information processing apparatus according to claim 7, further comprising second restriction means for restricting projection from the projection apparatus that projects the projection image not selected by the selection means. 請求項1から8のいずれか1項に記載の情報処理装置と、
前記投影装置と、を備えることを特徴とする映像投影システム。
The information processing apparatus according to any one of claims 1 to 8,
An image projection system comprising: the projection device.
投影装置と前記投影装置から投影画像が投影される被投影面との間に存在するオブジェクトの位置に関する情報を含む第一の情報を取得するステップと、
前記第一の情報に基づいて、前記被投影面上に、前記オブジェクトにより前記投影画像が遮蔽された遮蔽領域が存在するか否かを判定するステップと、
前記遮蔽領域が存在すると判定された場合に、前記遮蔽領域に前記投影画像を投影するような前記投影装置の投影範囲に関する情報を含む第二の情報を決定するステップと、
前記第二の情報を前記投影装置に出力するステップと、を含むことを特徴とする情報処理方法。
Obtaining first information including information on a position of an object existing between a projection device and a projection surface onto which a projection image is projected from the projection device;
Determining whether there is a shielding area in which the projection image is shielded by the object on the projection surface based on the first information;
Determining second information including information on a projection range of the projection device that projects the projection image on the shielding area when it is determined that the shielding area exists;
Outputting the second information to the projection apparatus.
コンピュータを、請求項1から8のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the information processing apparatus of any one of Claim 1 to 8.
JP2016002328A 2016-01-08 2016-01-08 Information processing apparatus, information processing method, and video projection system Pending JP2017123589A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016002328A JP2017123589A (en) 2016-01-08 2016-01-08 Information processing apparatus, information processing method, and video projection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016002328A JP2017123589A (en) 2016-01-08 2016-01-08 Information processing apparatus, information processing method, and video projection system

Publications (1)

Publication Number Publication Date
JP2017123589A true JP2017123589A (en) 2017-07-13

Family

ID=59305899

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016002328A Pending JP2017123589A (en) 2016-01-08 2016-01-08 Information processing apparatus, information processing method, and video projection system

Country Status (1)

Country Link
JP (1) JP2017123589A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019187501A1 (en) * 2018-03-29 2019-10-03 ソニー株式会社 Information processing device, information processing method, and recording medium
CN113794868A (en) * 2021-09-29 2021-12-14 中国联合网络通信集团有限公司 Projection method and system
CN114166448A (en) * 2022-02-10 2022-03-11 西南交通大学 Method, device and equipment for evaluating operation safety after high-speed rail earthquake and readable storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019187501A1 (en) * 2018-03-29 2019-10-03 ソニー株式会社 Information processing device, information processing method, and recording medium
CN113794868A (en) * 2021-09-29 2021-12-14 中国联合网络通信集团有限公司 Projection method and system
CN114166448A (en) * 2022-02-10 2022-03-11 西南交通大学 Method, device and equipment for evaluating operation safety after high-speed rail earthquake and readable storage medium

Similar Documents

Publication Publication Date Title
US11245806B2 (en) Method and apparatus for scanning and printing a 3D object
US10491830B2 (en) Information processing apparatus, control method therefor, and non-transitory computer-readable storage medium
US8007110B2 (en) Projector system employing depth perception to detect speaker position and gestures
KR102187974B1 (en) Information processing apparatus, method, and program for generation of virtual viewpoint images
JP2018142164A (en) Image processing apparatus, image generating method, and program
JP5645450B2 (en) Image processing apparatus and method
JP6882868B2 (en) Image processing equipment, image processing method, system
US10771761B2 (en) Information processing apparatus, information processing method and storing unit
US20220078385A1 (en) Projection method based on augmented reality technology and projection equipment
US11244423B2 (en) Image processing apparatus, image processing method, and storage medium for generating a panoramic image
CN108447105A (en) A kind of processing method and processing device of panoramic picture
JP2019152980A (en) Image processing system, image processing method and program
JP2017191492A (en) Information processing device, information processing method and video generation system
JP2017123589A (en) Information processing apparatus, information processing method, and video projection system
JP6896452B2 (en) Image processing equipment, image processing methods and programs
JP2011155477A (en) Video processing apparatus, video processing method, and program
JP2019175112A (en) Image processing device, photographing device, image processing method, and program
JP6579727B1 (en) Moving object detection device, moving object detection method, and moving object detection program
KR101414362B1 (en) Method and apparatus for space bezel interface using image recognition
KR101219126B1 (en) Control Method And System According to Image Motion Information Estimated with Image Characteristic
US11770551B2 (en) Object pose estimation and tracking using machine learning
WO2018173183A1 (en) Optical device control apparatus, optical device control method, and optical device control program
US20240144530A1 (en) Method, program, and system for 3d scanning
US20220408069A1 (en) Information processing apparatus, information processing method, and storage medium
US20230269478A1 (en) Information processing apparatus, method of generating moving path, and computer-readable medium storing program