JP2016092681A - Projection device, control method of projection device, and program - Google Patents

Projection device, control method of projection device, and program Download PDF

Info

Publication number
JP2016092681A
JP2016092681A JP2014227262A JP2014227262A JP2016092681A JP 2016092681 A JP2016092681 A JP 2016092681A JP 2014227262 A JP2014227262 A JP 2014227262A JP 2014227262 A JP2014227262 A JP 2014227262A JP 2016092681 A JP2016092681 A JP 2016092681A
Authority
JP
Japan
Prior art keywords
projection
projection plane
image
video
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014227262A
Other languages
Japanese (ja)
Inventor
今井 仁
Hitoshi Imai
仁 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014227262A priority Critical patent/JP2016092681A/en
Publication of JP2016092681A publication Critical patent/JP2016092681A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To permit an observer to visually recognize a video to be projected on a projection surface and inhibit another observer to visually recognize the video.SOLUTION: A projection device 1 includes video projection means 101 for projecting videos on a first projection surface 211 and a second projection surface 221, imaging means 103 for photographing the first projection surface 211 and second projection surface 221, position information calculation means 105 for calculating information on the position of the second projection surface 221 from a video photographed by the imaging means 103, and switching means for switching videos to be projected on the second projection surface 221 according to the information on the position of the second projection surface 221.SELECTED DRAWING: Figure 7

Description

本発明は、投影装置、投影装置の制御方法、プログラムに関する。特には、複数のスクリーンのそれぞれに映像を投影する投影装置と、この投影装置の制御方法と、この投影装置を制御するためのプログラムに関する。   The present invention relates to a projection apparatus, a control method for the projection apparatus, and a program. In particular, the present invention relates to a projection device that projects an image on each of a plurality of screens, a control method for the projection device, and a program for controlling the projection device.

スクリーンなどの投影面に映像を投影する投影装置について、特定の位置に存在する人物には特定の映像の内容が視認できるようにし、他の特定の位置に存在する人物には、特定の映像の内容が見えないようにしたいという要望がある。例えば、机など挟んで2人の人物が向かい合って座っているような状況で、一方の人物だけに提示したい情報がある場合がある。この場合には、机上に置かれた立体物のうち、前記一方の人物の側を向く投影面に、前述の情報を含む特定の映像を投影する。これにより、前記一方の人物にのみ、特定の情報を提示できる。   For projection devices that project images onto a projection surface such as a screen, the content of a specific image is visible to a person present at a specific position, and the specific image is displayed to a person present at another specific position. There is a desire to hide the contents. For example, there may be information that is desired to be presented to only one person in a situation where two persons are sitting facing each other across a desk or the like. In this case, among the three-dimensional objects placed on the desk, a specific image including the above-described information is projected onto a projection surface facing the one person. Thereby, specific information can be presented only to the one person.

しかしながら、このような構成では、他の特定の人物が立体物の投影面を自分の方に向けることで、前述の特定の映像の内容を見ることができる。また、立体物を移動させると、机の上面に前述の特定の映像が投影されるため、他の特定の人物はこの特定の映像を見ることができる。このように、従来の構成では、秘密の保持が不充分であった。また、特許文献1には、人の目とディスプレイとの位置関係からディスプレイの表示を切替える構成が開示されている。しかしながら、表示する映像のうちの特定の映像のみを切替える構成は開示されていない。   However, in such a configuration, the content of the specific video can be seen by another specific person pointing the projection surface of the three-dimensional object toward him / herself. Further, when the three-dimensional object is moved, the above-mentioned specific image is projected on the upper surface of the desk, so that another specific person can see this specific image. As described above, in the conventional configuration, confidentiality is insufficient. Patent Document 1 discloses a configuration in which the display on the display is switched based on the positional relationship between the human eye and the display. However, there is no disclosure of a configuration for switching only a specific image among displayed images.

特開2010−145763号公報JP 2010-145663 A

上記実情に鑑み、本発明が解決しようとする課題は、ある投影面に投影される映像について、特定の方向からは特定の映像を視認でき、他の特定の方向からは視認できないようにすることである。   In view of the above situation, the problem to be solved by the present invention is to make it possible to visually recognize a specific image from a specific direction and not from another specific direction for an image projected on a certain projection plane. It is.

上記課題を解決するため、本発明は、第1の投影面と第2の投影面に映像を投影する映像投影手段と、前記第1の投影面と前記第2の投影面を撮像する撮像手段と、前記撮像手段が撮像した前記映像から前記第2の投影面の位置情報を算出する位置情報算出手段と、前記第2の投影面の位置情報に応じて、前記第2の投影面に投影する映像を切替える切替手段と、を有することを特徴とする。   In order to solve the above problems, the present invention provides an image projection unit that projects an image on a first projection plane and a second projection plane, and an imaging unit that captures the first projection plane and the second projection plane. And position information calculating means for calculating position information of the second projection plane from the video imaged by the imaging means, and projecting on the second projection plane in accordance with the position information of the second projection plane Switching means for switching the video to be switched.

本発明によれば、第2の投影面に投影される映像について、特定の方向からは特定の映像を視認でき、他の特定の方向からは視認できないようにできる。   According to the present invention, with respect to an image projected on the second projection plane, a specific image can be viewed from a specific direction and cannot be viewed from another specific direction.

投影装置と第1のスクリーンと第2のスクリーンの構成例を模式的に示す外観斜視図である。It is an external appearance perspective view which shows typically the structural example of a projection apparatus, a 1st screen, and a 2nd screen. 投影装置の使用状態の例を模式的に示す外観斜視図である。It is an external appearance perspective view which shows the example of the use condition of a projection apparatus typically. 投影装置と可動式スクリーンとの位置関係や寸法の例を模式的に示す図である。It is a figure which shows typically the example of the positional relationship and dimension of a projection apparatus and a movable screen. 投影装置の構成例を示す機能ブロック図である。It is a functional block diagram which shows the structural example of a projection apparatus. 第1の実施形態の投影装置の動作を模式的に示す図である。It is a figure which shows typically operation | movement of the projection apparatus of 1st Embodiment. 投影装置の事前処理を示すフローチャートである。It is a flowchart which shows the preliminary process of a projection apparatus. 投影装置のメイン処理を示すフローチャートである。It is a flowchart which shows the main process of a projection apparatus. 投影装置の投影処理を示すフローチャートである。It is a flowchart which shows the projection process of a projector. 第1の実施形態の投影装置の動作を模式的に示す図である。It is a figure which shows typically operation | movement of the projection apparatus of 1st Embodiment. 第2の実施形態の投影装置の動作を模式的に示す図である。It is a figure which shows typically operation | movement of the projection apparatus of 2nd Embodiment. 第2の実施形態の投影処理を示すフローチャートである。It is a flowchart which shows the projection process of 2nd Embodiment. 第3の実施形態の投影装置の動作を模式的に示す図である。It is a figure which shows typically operation | movement of the projection apparatus of 3rd Embodiment. 第3の実施形態の投影処理を示すフローチャートである。It is a flowchart which shows the projection process of 3rd Embodiment. 投影装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of a projection apparatus.

(各実施形態に共通の構成)
以下、本発明を実施するための形態について、図面を用いて詳細に説明する。図1(a)は、本発明の各実施形態の投影装置1の構成例と、第1のスクリーン21の構成例を模式的に示す外観斜視図である。図1(b)は、第2のスクリーン22の構成例を模式的に示す外観斜視図である。
(Configuration common to each embodiment)
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. FIG. 1A is an external perspective view schematically showing a configuration example of the projection apparatus 1 according to each embodiment of the present invention and a configuration example of the first screen 21. FIG. 1B is an external perspective view schematically showing a configuration example of the second screen 22.

投影装置1は、プロジェクタ11とカメラ12とを有する。プロジェクタ11は、後述する映像投影手段101の例であり、第1のスクリーン21の第1の投影面211と、第1の投影面211に配置された第2のスクリーン22の第2の投影面221に映像を投影する。カメラ12は、後述する不可視光投射手段102と撮像手段103の例である。カメラ12は、可視光画像を撮像してRGB画像データ(可視光画像データ)を生成できる。また、カメラ12は、第1のスクリーン21などの物体に対して不可視光を投射し、物体で反射した不可視光を検出し、不可視光画像データを生成することができる。本発明の実施形態では、このカメラ12が生成した不可視光映像データを用い、TOF(タイム オブ フライト)方式により、第1のスクリーン21などの物体までの距離計測を行う。本実施形態では、不可視光の例として赤外線が適用される。そして、カメラ12は、TOF方式の距離計測に用いることができるように、赤外線を投射する高速赤外LEDなどの赤外線エミッタと、赤外線を検出できる撮像素子とを有し、検出した赤外線を含む波長帯域の映像データを生成する。なお、TOF方式による距離計測は公知であるため、説明を省略する。また、カメラ12は、プロジェクタ11が映像を投影できる範囲の全域に対して不可視光を投射でき、かつ、この範囲の全域を撮像できる。   The projection apparatus 1 includes a projector 11 and a camera 12. The projector 11 is an example of a video projection unit 101 to be described later, and includes a first projection surface 211 of the first screen 21 and a second projection surface of the second screen 22 arranged on the first projection surface 211. An image is projected on the screen 221. The camera 12 is an example of an invisible light projection unit 102 and an imaging unit 103 described later. The camera 12 can capture a visible light image and generate RGB image data (visible light image data). In addition, the camera 12 can project invisible light onto an object such as the first screen 21, detect the invisible light reflected by the object, and generate invisible light image data. In the embodiment of the present invention, the invisible light video data generated by the camera 12 is used to measure the distance to an object such as the first screen 21 by the TOF (Time of Flight) method. In the present embodiment, infrared light is applied as an example of invisible light. The camera 12 includes an infrared emitter such as a high-speed infrared LED that projects infrared rays and an image sensor that can detect infrared rays so that the camera 12 can be used for TOF distance measurement. Generate video data of bandwidth. In addition, since the distance measurement by the TOF method is well-known, description is abbreviate | omitted. In addition, the camera 12 can project invisible light over the entire range in which the projector 11 can project an image, and can capture the entire range.

第1のスクリーン21は、使用中はプロジェクタ11およびカメラ12との位置関係が固定される。第1のスクリーン21は、第1の投影面211を有する。投影装置1のプロジェクタ11は、第1のスクリーン21の第1の投影面211に映像を投影する。これにより、第1のスクリーン21の第1の投影面211に映像が表示される。使用者や使用者以外の観者などといった第1のスクリーン21の周囲に存在する人物は、第1の投影面211を見ることにより、プロジェクタ11が投影する映像(投影内容)を把握できる。なお、カメラ12は、第1のスクリーン21の第1の投影面211の全域に不可視光を投影でき、かつ、第1のスクリーン21の全域を撮像できる。   The positional relationship between the projector 11 and the camera 12 is fixed during use of the first screen 21. The first screen 21 has a first projection surface 211. The projector 11 of the projection device 1 projects an image on the first projection surface 211 of the first screen 21. As a result, an image is displayed on the first projection surface 211 of the first screen 21. A person existing around the first screen 21 such as a user or a viewer other than the user can grasp the image (projection content) projected by the projector 11 by looking at the first projection surface 211. The camera 12 can project invisible light over the entire area of the first projection surface 211 of the first screen 21 and can image the entire area of the first screen 21.

第2のスクリーン22は可搬型のスクリーンであり、使用中であっても、移動させて投影装置1との相対的な位置関係を変更することができる。第2のスクリーン22は、第2の投影面221を有する。第2のスクリーン22は、第1のスクリーン21の第1の投影面211に設置されて用いられる。第2の投影面221は、第1の投影面211と同様に、投影装置1のプロジェクタ11が投影する映像を受け、使用者や観者がそれを見て投影内容を把握できるようにするためのものである。第2のスクリーン22は立体形状を有している。そして、第2の投影面221は、第2のスクリーン22が設置される面に対して傾斜している。すなわち、第2のスクリーン22が第1の投影面211に設置されると、第2の投影面221は、第1の投影面211に対して、ある角度をもって傾斜する。このため、第2の投影面221が向く方向に存在する人物は、第2の投影面221に投影された映像を見ることができる。一方、第2の投影面221の向いていない方向に存在する人物は、第2の投影面221を見ることができず、第2の投影面221に投影される映像を見ることはできない。   The second screen 22 is a portable screen and can be moved to change the relative positional relationship with the projection apparatus 1 even during use. The second screen 22 has a second projection surface 221. The second screen 22 is installed and used on the first projection surface 211 of the first screen 21. Similarly to the first projection surface 211, the second projection surface 221 receives an image projected by the projector 11 of the projection apparatus 1 so that a user or a viewer can see the image and grasp the projection contents. belongs to. The second screen 22 has a three-dimensional shape. The second projection surface 221 is inclined with respect to the surface on which the second screen 22 is installed. That is, when the second screen 22 is installed on the first projection surface 211, the second projection surface 221 is inclined at an angle with respect to the first projection surface 211. For this reason, a person who exists in the direction in which the second projection plane 221 faces can see an image projected on the second projection plane 221. On the other hand, a person who exists in a direction in which the second projection plane 221 is not facing cannot see the second projection plane 221 and cannot see an image projected on the second projection plane 221.

第2のスクリーン22には、投影装置1が第2の投影面221の位置や向きを検出するためのマーカー222が設けられる。図1(b)に示すように、例えば第2の投影面221が四辺形である場合には、マーカー222は、第2の投影面221の四隅部に設けられる。なお、マーカー222の位置および数は、図1(b)に示す構成に限定されるものではない。また、マーカー222は、カメラ12で撮影した際に検出しやすい形状であればよい。   The second screen 22 is provided with a marker 222 for the projection apparatus 1 to detect the position and orientation of the second projection surface 221. As shown in FIG. 1B, for example, when the second projection plane 221 is a quadrilateral, the markers 222 are provided at the four corners of the second projection plane 221. Note that the position and number of the markers 222 are not limited to the configuration shown in FIG. Further, the marker 222 may have any shape that can be easily detected when the image is taken by the camera 12.

図2は、投影装置1の使用状態の例を模式的に示す図であり、第1のスクリーン21の第1の投影面211に、第2のスクリーン22を設置した状態を模式的に示す。第2のスクリーン22は、プロジェクタ11が映像を投影できる範囲(すなわち、第1の投影面211)に配置されて使用される。図2中のP1は、第1の投影面211に投影される映像を示す。第1の投影面211には、第1のスクリーン21の周囲に存在する全ての人物に見られてもよい映像を投影する。説明の便宜上、このような映像を、「第1の映像P1」と称する。第1のスクリーン21の周囲に存在する人物は、第1の投影面211からの方向によらず、第1の映像P1を視認できる。図2中のP2は、プロジェクタ11により第2の投影面221に投影される映像を示す。第2のスクリーン22の第2の投影面221には、特定の人物にのみ見せ、それ以外の人物には見せたくない映像である。説明の便宜上、このような映像を、「第2の映像P2」と称する。前述のとおり、第2の投影面221は、第1の投影面211に対して傾斜している。このため、第1の投影面211の周囲のうち、第2の投影面221が向く側からは、第2の投影面221に投影される第2の映像P2を視認できる。一方、その反対側からは第2の投影面221が見えず、第2の映像P2を視認できない。 FIG. 2 is a diagram schematically illustrating an example of a usage state of the projection apparatus 1, and schematically illustrates a state in which the second screen 22 is installed on the first projection surface 211 of the first screen 21. The second screen 22 is arranged and used in a range where the projector 11 can project an image (that is, the first projection surface 211). P 1 in FIG. 2 indicates an image projected on the first projection plane 211. On the first projection surface 211, an image that may be seen by all persons present around the first screen 21 is projected. For convenience of explanation, such a video is referred to as “first video P 1 ”. A person existing around the first screen 21 can visually recognize the first image P 1 regardless of the direction from the first projection plane 211. P 2 in FIG. 2 indicates an image projected on the second projection plane 221 by the projector 11. The second projection surface 221 of the second screen 22 is an image that is shown only to a specific person and not to be shown to other persons. For convenience of explanation, such a video is referred to as “second video P 2 ”. As described above, the second projection surface 221 is inclined with respect to the first projection surface 211. For this reason, the second image P 2 projected on the second projection surface 221 can be viewed from the side of the periphery of the first projection surface 211 facing the second projection surface 221. On the other hand, the second projection plane 221 cannot be seen from the opposite side, and the second image P 2 cannot be seen.

ここで、投影装置1と第2のスクリーン22の寸法と角度の例について、図3を参照して説明する。図3は、投影装置1と第2のスクリーン22の寸法や角度の一例を模式的に示す図である。第1の投影面211は、縦が400mmで横が600mmの四辺形である。プロジェクタ11とカメラ12は、第1の投影面211の中心真上400mmの位置に、アームなどの支持部材によって設置されている。なお、プロジェクタ11およびカメラ12と第1のスクリーン21の第1の投影面211との位置関係は固定されている。第2のスクリーン22の第2の投影面221は、第1のスクリーン21の第1の投影面211に設置した状態では、第1の投影面211に対して30°の角度で傾斜する。第1の投影面211および第2の投影面221がこのような寸法であると、第2のスクリーン22が第1の投影面211の最も端に設置された場合には、プロジェクタ11が第2の投影面221に映像を投影する角度は48°となる。このため、この場合でも、プロジェクタ11は、第2の投影面221に映像を投影できる。なお、投影装置1と第2のスクリーン22は、この構成に限られるものではない。ユースケースに応じて最適な寸法と角度を採用すればよい。   Here, an example of dimensions and angles of the projection device 1 and the second screen 22 will be described with reference to FIG. FIG. 3 is a diagram schematically illustrating an example of dimensions and angles of the projection device 1 and the second screen 22. The first projection plane 211 is a quadrangle having a length of 400 mm and a width of 600 mm. The projector 11 and the camera 12 are installed by a support member such as an arm at a position 400 mm directly above the center of the first projection surface 211. The positional relationship between the projector 11 and the camera 12 and the first projection surface 211 of the first screen 21 is fixed. The second projection surface 221 of the second screen 22 is inclined at an angle of 30 ° with respect to the first projection surface 211 in a state where the second projection surface 221 is installed on the first projection surface 211 of the first screen 21. When the first projection surface 211 and the second projection surface 221 have such dimensions, when the second screen 22 is installed at the extreme end of the first projection surface 211, the projector 11 is the second projection surface 211. The angle at which the image is projected onto the projection plane 221 is 48 °. For this reason, even in this case, the projector 11 can project an image on the second projection surface 221. The projector 1 and the second screen 22 are not limited to this configuration. What is necessary is just to employ | adopt the optimal dimension and angle according to a use case.

次に、投影装置1の構成例について、図4を参照して説明する。図4は、投影装置1の構成例を示す機能ブロック図である。図4に示すように、投影装置1は、映像投影手段101と、不可視光投射手段102と、撮像手段103と、制御手段104と、位置情報算出手段105と、補正手段106と、記憶手段107と、映像認識手段108と、映像データ生成手段109とを有する。さらに、投影装置1は、操作手段110と、入出力制御手段111とを有する。本発明の実施形態では、プロジェクタ11が映像投影手段101として機能し、カメラ12が撮像手段103および不可視光投射手段102として機能する例を示す。   Next, a configuration example of the projection apparatus 1 will be described with reference to FIG. FIG. 4 is a functional block diagram illustrating a configuration example of the projection apparatus 1. As shown in FIG. 4, the projection apparatus 1 includes a video projection unit 101, an invisible light projection unit 102, an imaging unit 103, a control unit 104, a position information calculation unit 105, a correction unit 106, and a storage unit 107. And a video recognition means 108 and a video data generation means 109. Further, the projection apparatus 1 includes an operation unit 110 and an input / output control unit 111. In the embodiment of the present invention, an example in which the projector 11 functions as the video projection unit 101 and the camera 12 functions as the imaging unit 103 and the invisible light projection unit 102 is shown.

制御手段104は、投影装置1の各部を制御する。映像投影手段101は、制御手段104による制御にしたがい、第1の投影面211に第1の映像P1を投影し、第2の投影面221に第2の映像P2を投影する。不可視光投射手段102は、制御手段104による制御にしたがい、撮像手段103の撮像範囲(第1の投影面211を含む範囲)に不可視光を投影する。撮像手段103は、第1の投影面211(第2の投影面221を含む)を撮像し、RGB映像データを生成する。また、撮像手段103は、不可視光投射手段102が第1のスクリーン21や第2のスクリーン22などの物体に投射して反射した不可視光を検出し、不可視光映像データを生成する。位置情報算出手段105は、撮像手段103が生成した不可視光映像データから、第1の投影面211と第2の投影面221の位置情報(三次元座標)を算出する。補正手段106は、第1の補正手段の例として機能し、第1の投影面211に投影される第1の映像P1に歪みが生じないように、第1の映像P1の映像データを補正する。また、補正手段106は、第2の補正手段の例として機能し、第2の投影面221に投影される第2の映像P2に歪みが生じないように、第2の映像P2の映像データを補正する。記憶手段107は、各種データを記憶する。映像認識手段108は、撮像手段103が生成したRGB映像データに対して、画像認識処理を行う。映像データ生成手段109は、映像投影手段101が投影する映像データを生成する。例えば、映像データ生成手段109は、第1の映像P1の映像データに、第2の投影面221に対応する範囲に第2の映像P2の映像データを重ね合わせることによって、映像投影手段101が映像の投影に用いる映像データを生成する。操作手段110は、使用者等が投影装置1を操作したり、各種情報を入力したりする際に用いられる。入出力制御手段111は、外部機器9とのデータの送受信を行う。 The control means 104 controls each part of the projection apparatus 1. The video projection unit 101 projects the first video P 1 on the first projection plane 211 and the second video P 2 on the second projection plane 221 under the control of the control unit 104. The invisible light projection unit 102 projects invisible light onto the imaging range (a range including the first projection surface 211) of the imaging unit 103 according to control by the control unit 104. The imaging means 103 images the first projection plane 211 (including the second projection plane 221), and generates RGB video data. The imaging unit 103 detects invisible light reflected by the invisible light projecting unit 102 projected onto an object such as the first screen 21 or the second screen 22, and generates invisible light image data. The position information calculation unit 105 calculates position information (three-dimensional coordinates) of the first projection plane 211 and the second projection plane 221 from the invisible light video data generated by the imaging unit 103. Correcting means 106 functions as an example of the first correction means, so that the first distortion in the image P 1 to be projected on the first projection surface 211 does not occur, the first image data of the image P 1 to correct. The correcting unit 106 functions as an example of the second correcting unit, and the video of the second video P 2 so that the second video P 2 projected on the second projection plane 221 is not distorted. Correct the data. The storage unit 107 stores various data. The video recognition unit 108 performs image recognition processing on the RGB video data generated by the imaging unit 103. The video data generation unit 109 generates video data to be projected by the video projection unit 101. For example, the video data generation unit 109 superimposes the video data of the second video P 2 on the range corresponding to the second projection plane 221 on the video data of the first video P 1 , thereby the video projection unit 101. Generates video data used for video projection. The operation unit 110 is used when a user or the like operates the projection apparatus 1 or inputs various types of information. The input / output control unit 111 transmits / receives data to / from the external device 9.

本実施形態では、投影装置1は、第1の映像P1の映像データと第2の映像P2の映像データを、外部機器9から入出力制御手段111を介して受信する。なお、外部機器9としては、例えばパーソナルコンピュータなどといった、映像データを出力する機器が適用される。 In the present embodiment, the projection apparatus 1 receives the video data of the first video P 1 and the video data of the second video P 2 from the external device 9 via the input / output control unit 111. As the external device 9, a device that outputs video data, such as a personal computer, is used.

(第1の実施形態)
次に、第1の実施形態の処理について説明する。図5(a)(b)は、第1の実施形態の動作を示す図である。具体的には、図5(a)は、第2の投影面221が特定の人物HBの側を向いている状態を模式的に示す図である。図5(b)は、第2の投影面221が特定の人物HBの側を向いていない状態を模式的に示す図である。第1の実施形態の処理は、第2の投影面221に対向する側に存在する人物HBには第2の映像P2を見せ、第2の投影面221とは反対側に存在する人物HAには第2の映像P2を見せない機能を実現する処理である。
(First embodiment)
Next, the processing of the first embodiment will be described. FIGS. 5A and 5B are diagrams illustrating the operation of the first embodiment. Specifically, FIG. 5 (a), a state where the second projection surface 221 is facing the side of the specific person H B is a diagram schematically illustrating. FIG. 5 (b), a state where the second projection surface 221 does not face the side of the specific person H B is a diagram schematically illustrating. In the process of the first embodiment, the person H B present on the side facing the second projection plane 221 shows the second video P 2 and the person present on the side opposite to the second projection plane 221. the H a is a process for realizing the functions not show the second image P 2.

図5(a)(b)に示すように、人物HAと人物HBとが第1の投影面211を挟んで向き合っているものとする。そして、第2の映像P2を人物HAには見せたくなく、人物HBにのみに見せたいユースケースを例に示して説明する。この場合には、使用者等(例えば、人物HB)は、図5(a)に示すように、第2のスクリーン22を、映像投影手段101が映像を投影できる範囲内(ここでは第1の投影面211)に、第2の投影面221が人物HBの方向を向くように設置する。そして、図5(a)に示すように、第2の投影面221が人物HBの側を向いている場合には、投影装置1は、第2の投影面221に第2の映像P2を投影する。これにより、第2の投影面221には、第2の映像P2が表示される。これに対し、図5(b)に示すように、第2の投影面221が人物HBの側を向いていない場合には、投影装置1は、第2の投影面221に第2の映像P2を投影しない。このため、人物HAから第2の投影面221が見える場合であっても、この人物HAは第2の映像P2を見ることはできない。 As shown in FIGS. 5A and 5B, it is assumed that the person H A and the person H B face each other with the first projection plane 211 interposed therebetween. Then, a use case in which the second video P 2 is not desired to be shown to the person H A but only to the person H B will be described as an example. In this case, as shown in FIG. 5A, the user or the like (for example, the person H B ) places the second screen 22 within a range in which the video projection unit 101 can project a video (here, the first screen). on the projection plane 211), a second projection surface 221 is disposed so as to face the direction of the person H B. Then, as shown in FIG. 5A, when the second projection plane 221 faces the person H B , the projection apparatus 1 displays the second image P 2 on the second projection plane 221. Project. As a result, the second video image P 2 is displayed on the second projection surface 221. On the other hand, as shown in FIG. 5B, when the second projection surface 221 does not face the person H B , the projection device 1 displays the second image on the second projection surface 221. It does not project a P 2. Therefore, even when the second projection surface 221 is visible from the person H A, the person H A can not see the second picture P 2.

本発明の実施形態では、第2の映像P2を見ることを想定する位置をあらかじめ設定する。この位置を「観察位置」と称する。そして、第2の投影面221と観察位置との位置関係が、第2の投影面221を観察位置から視認できるが観察位置以外の位置からは視認できないという条件を充足するか否かを判断する。そしてこの条件を充足した場合には、第2の投影面221に第2の映像P2を投影する。一方、この条件を充足しない場合には、第2の投影面221に第2の映像P2を投影しない。 In the embodiment of the present invention, a position assumed to view the second video P 2 is set in advance. This position is referred to as an “observation position”. Then, it is determined whether or not the positional relationship between the second projection plane 221 and the observation position satisfies a condition that the second projection plane 221 can be visually recognized from the observation position but cannot be viewed from any position other than the observation position. . If this condition is satisfied, the second image P 2 is projected onto the second projection plane 221. On the other hand, if this condition is not satisfied, the second image P 2 is not projected onto the second projection plane 221.

本発明の実施形態では、前述の条件を充足するか否か、すなわち、第2の投影面221が人物HBから見える範囲にあるか否かを、第2の投影面221の位置情報に基づいて判断する。そして、この第2の投影面221の位置情報として、第2の投影面221と人物HBとを結ぶ直線Aと第2の投影面221が向く方向との角度θを用いる。具体的には、制御手段104は、上面視(第1の投影面211の法線方向視)において、第2の投影面221の中心と人物HBとを結ぶ直線Aを算出する。さらに、制御手段104は、上面視において、第2の投影面221が向く方向を示す直線Bを算出する。この直線Bは、第2の投影面221の中心を通過する第2の投影面221の法線を、第1の投影面211に投影した直線である。制御手段104は、直線Aと直線Bとがなす角度θを算出する。そして、制御手段104は、条件判断手段の例として機能し、角度θの値が所定範囲内であるか否かを判断する。角度θの値が所定範囲内であれば、前述の条件を充足すると判断する。この場合には、制御手段104は映像投影手段101を、第2の投影面221に第2の映像P2(人物HBに見せ、人物HAには見せないことを想定した映像)を投影するように制御する。一方、前述の条件を充足しない場合(この角度θが所定範囲内にない場合)には、制御手段104は、第2の投影面221が人物HBから見える範囲にないと判断する。この場合には、制御手段104は映像投影手段101を、第2の投影面221に第2の映像P2を投影しないように制御する。このように、制御手段104は、切替手段の例として機能し、第2の投影面221の位置情報に応じて、第2の投影面221に投影する映像を切替える。なお、この角度θの所定範囲は特に限定されるものではないが、例えばこの角度θの所定範囲には30°以内が適用できる。 In the embodiment of the present invention, whether or not the above-described condition is satisfied, that is, whether or not the second projection plane 221 is in a range visible from the person H B is based on the positional information on the second projection plane 221. Judgment. Then, as the position information of the second projection plane 221, an angle θ between the straight line A connecting the second projection plane 221 and the person H B and the direction in which the second projection plane 221 faces is used. Specifically, the control unit 104 calculates a straight line A that connects the center of the second projection surface 221 and the person H B in the top view (viewed in the normal direction of the first projection surface 211). Further, the control unit 104 calculates a straight line B indicating the direction in which the second projection surface 221 faces in the top view. This straight line B is a straight line obtained by projecting the normal line of the second projection plane 221 passing through the center of the second projection plane 221 onto the first projection plane 211. The control means 104 calculates an angle θ formed by the straight line A and the straight line B. The control unit 104 functions as an example of a condition determination unit, and determines whether or not the value of the angle θ is within a predetermined range. If the value of the angle θ is within the predetermined range, it is determined that the above condition is satisfied. In this case, the control means 104 projects the video projection means 101 onto the second projection plane 221 with the second video P 2 (video assuming that it is shown to the person H B but not to the person H A ). Control to do. On the other hand, when the above condition is not satisfied (when the angle θ is not within the predetermined range), the control unit 104 determines that the second projection plane 221 is not within the range where the person H B can see. In this case, the control unit 104 controls the video projection unit 101 so that the second video P 2 is not projected onto the second projection plane 221. As described above, the control unit 104 functions as an example of a switching unit, and switches an image to be projected on the second projection surface 221 in accordance with position information on the second projection surface 221. Note that the predetermined range of the angle θ is not particularly limited. For example, the predetermined range of the angle θ can be within 30 °.

直線Aを算出する方法としては、次のような方法が適用できる。使用者等(人物HB等)が操作手段110を介して人物HBの第1の投影面211に対する位置(観察位置)を入力する。人物HBは、この観察位置から第2の投影面221を観察することになる。制御手段104は、入力された観察位置と検出した第2の投影面221(マーカー222)とから直線Aを算出する。また、投影装置1が近距離通信アンテナを備えており、人物HBが身に付けている無線タグを検出することができる構成であってもよい。この場合には、制御手段104は、無線タグの検出結果に基づいて、第1の投影面211に対する人物HBが存在する位置(すなわち、観察位置)を算出する。そして、制御手段104は、その算出結果と第2の投影面221の検出結果から直線Aを算出する。 As a method for calculating the straight line A, the following method can be applied. A user or the like (person H B or the like) inputs the position (observation position) of the person H B with respect to the first projection plane 211 via the operation unit 110. The person H B observes the second projection plane 221 from this observation position. The control means 104 calculates a straight line A from the input observation position and the detected second projection plane 221 (marker 222). The projection apparatus 1 is equipped with a near field communication antennas may be configured to person H B can detect radio tags worn. In this case, the control unit 104 calculates the position (that is, the observation position) where the person H B is present with respect to the first projection plane 211 based on the detection result of the wireless tag. Then, the control unit 104 calculates the straight line A from the calculation result and the detection result of the second projection plane 221.

次に、上述の機能を実現するための処理の内容およびフローについて説明する。上述の機能を実現するための処理には、図6に示す事前処理と、図7に示すメイン処理とが含まれる。また、メイン処理には、図8に示す投影処理が含まれる。なお、投影装置1は、CPU131とRAM134とROM135とHDD137とを含むコントロールコンピュータ13を有する(後述。図14参照)。そして、ROM135またはHDD137には、図6〜図8に示す処理を含め、投影装置1を制御するためのコンピュータプログラムや各種パラメータが格納されている。CPU131は、ROM135またはHDD137からこのコンピュータプログラムを読み出し、RAM134に展開して実行する。これにより、コントロールコンピュータ13は、制御手段104、位置情報算出手段105、補正手段106、記憶手段107、映像認識手段108などの投影装置1の各手段として機能し、後述の処理が実現する。   Next, the content and flow of processing for realizing the above-described functions will be described. The process for realizing the above-described functions includes a pre-process shown in FIG. 6 and a main process shown in FIG. The main process includes the projection process shown in FIG. The projection apparatus 1 includes a control computer 13 including a CPU 131, a RAM 134, a ROM 135, and an HDD 137 (described later, see FIG. 14). The ROM 135 or the HDD 137 stores computer programs and various parameters for controlling the projection apparatus 1 including the processes shown in FIGS. The CPU 131 reads out this computer program from the ROM 135 or the HDD 137, expands it in the RAM 134 and executes it. Thereby, the control computer 13 functions as each unit of the projection apparatus 1 such as the control unit 104, the position information calculation unit 105, the correction unit 106, the storage unit 107, and the image recognition unit 108, and realizes the processing described later.

図6は、事前処理の例を示すフローチャートである。プロジェクタ11は、固定された光学系を有する。そこで、プロジェクタ11が第1の投影面211に投影する映像に歪が生じないようにするために、所定の補正パラメータを用いて映像データを補正する。本発明の実施形態では、所定の補正パラメータとして射影変換行列を用い、投影する映像の映像データに対して射影変換を施す。事前処理は、この補正パラメータ(本発明の実施形態では射影変換行列)を算出するキャリブレーション処理である。なお、射影変換行列は、次の式で表される。   FIG. 6 is a flowchart illustrating an example of pre-processing. The projector 11 has a fixed optical system. Therefore, in order to prevent distortion from occurring in the image projected by the projector 11 on the first projection surface 211, the image data is corrected using a predetermined correction parameter. In the embodiment of the present invention, the projective transformation matrix is used as the predetermined correction parameter, and the projective transformation is performed on the video data of the projected video. The pre-processing is calibration processing for calculating this correction parameter (projection transformation matrix in the embodiment of the present invention). The projective transformation matrix is expressed by the following equation.

Figure 2016092681
Figure 2016092681

ステップS601で、不可視光投射手段102は、制御手段104による制御にしたがい、撮像手段103の撮像範囲の全体に対して不可視光(本発明の実施形態では赤外線)を投射する。そして、撮像手段103は制御手段104による制御にしたがい、撮像範囲の全体を撮像し、不可視光映像データとRGB映像データを生成する。生成した不可視光映像データとRGB映像データは、記憶手段107に記憶される。   In step S <b> 601, the invisible light projection unit 102 projects invisible light (infrared rays in the embodiment of the present invention) to the entire imaging range of the imaging unit 103 in accordance with control by the control unit 104. Then, the imaging unit 103 captures the entire imaging range under the control of the control unit 104, and generates invisible light video data and RGB video data. The generated invisible light video data and RGB video data are stored in the storage means 107.

ステップS602で、位置情報算出手段105は、制御手段104による制御にしたがい、撮像手段103が生成した映像データから不可視光映像データを抽出する。そして、位置情報算出手段105は、抽出した不可視光映像データを用いて、撮像範囲の全体についてTOF法による距離計測を行う。そして、位置情報算出手段105は、撮像範囲の全体(不可視光映像データに写っている範囲の全体)について、三次元座標情報を生成する。具体的には、位置情報算出手段105は、撮像範囲の三次元空間に三次元座標系を設定し、不可視光映像データに写っている物体の三次元座標を算出する。位置情報算出手段105は、これらの三次元座標系および三次元座標を三次元座標情報(位置情報)として生成し、生成した三次元座標情報を記憶手段107に記憶させる。その後、ステップS603に進む。   In step S <b> 602, the position information calculation unit 105 extracts invisible light video data from the video data generated by the imaging unit 103 in accordance with control by the control unit 104. And the positional information calculation means 105 performs distance measurement by TOF method about the whole imaging range using the extracted invisible light image data. Then, the position information calculating unit 105 generates three-dimensional coordinate information for the entire imaging range (the entire range shown in the invisible light video data). Specifically, the position information calculation unit 105 sets a three-dimensional coordinate system in the three-dimensional space of the imaging range, and calculates the three-dimensional coordinates of the object shown in the invisible light video data. The position information calculation unit 105 generates the three-dimensional coordinate system and the three-dimensional coordinates as three-dimensional coordinate information (position information), and causes the storage unit 107 to store the generated three-dimensional coordinate information. Thereafter, the process proceeds to step S603.

ステップS603で、位置情報算出手段105は、ステップS602で生成した三次元座標情報から、第1の投影面211の三次元座標を算出する。そして、補正手段106は、第1の投影面211と映像投影手段101の三次元座標から、第1の補正パラメータの例である第1の射影変換行列を算出する。そして、ステップS604に進む。   In step S603, the position information calculation unit 105 calculates the three-dimensional coordinates of the first projection plane 211 from the three-dimensional coordinate information generated in step S602. Then, the correction unit 106 calculates a first projective transformation matrix, which is an example of the first correction parameter, from the three-dimensional coordinates of the first projection surface 211 and the video projection unit 101. Then, the process proceeds to step S604.

ステップS604で、制御手段104は、ステップS603で補正手段106が算出した第1の射影変換行列を、記憶手段107に記憶する。上記ステップを経て、事前処理を終了する。   In step S604, the control unit 104 stores the first projective transformation matrix calculated by the correction unit 106 in step S603 in the storage unit 107. Through the above steps, the pre-processing is terminated.

次に、メイン処理の例について説明する。図7は、メイン処理の例を示すフローチャートである。図8は、メイン処理に含まれる投影処理の例を示すフローチャートである。   Next, an example of the main process will be described. FIG. 7 is a flowchart illustrating an example of main processing. FIG. 8 is a flowchart illustrating an example of the projection process included in the main process.

ステップS701で、制御手段104は、観察位置を設定する。観察位置は、第2の映像P2を見ることが想定される位置であり、ここでは、人物HBが存在する位置である。観察位置の設定方法は、前述のとおりである。そして、制御手段104は、設定した観察位置を記憶手段107に記憶する。 In step S701, the control unit 104 sets an observation position. Observation position is a position to see the second video P 2 is assumed, here, a position where there is a person H B. The method for setting the observation position is as described above. Then, the control unit 104 stores the set observation position in the storage unit 107.

ステップS702で、不可視光投射手段102は、制御手段104による制御にしたがい、撮像範囲の全体に向けて不可視光を投射する。撮像手段103は、制御手段104による制御にしたがい、撮像範囲の全体を撮像し、撮像範囲の全体が写った不可視光映像データとRGB映像データを生成する。そして、ステップS703に進む。   In step S <b> 702, the invisible light projection unit 102 projects invisible light toward the entire imaging range in accordance with the control by the control unit 104. Under the control of the control unit 104, the imaging unit 103 captures the entire imaging range, and generates invisible light video data and RGB video data showing the entire imaging range. Then, the process proceeds to step S703.

ステップS703で、位置情報算出手段105は、撮像手段103がステップS702で撮影して生成した映像データから、不可視光映像データを抽出する。そして、位置情報算出手段105は、抽出した不可視光映像データを用いてTOF法による距離計測を行い、撮影範囲の全体に写り込んでいる物体の三次元座標情報を生成する。そして、生成した三次元座標情報を記憶手段107に記憶する。そして、ステップS704に進む。   In step S703, the position information calculation unit 105 extracts invisible light video data from the video data generated by the imaging unit 103 in step S702. Then, the position information calculation unit 105 performs distance measurement by the TOF method using the extracted invisible light image data, and generates three-dimensional coordinate information of the object reflected in the entire imaging range. Then, the generated three-dimensional coordinate information is stored in the storage unit 107. Then, the process proceeds to step S704.

ステップS704で、補正手段106は、事前処理において記憶手段107に記憶した第1の射影変換行列を読み出す。そして、ステップS705に進む。   In step S704, the correction unit 106 reads the first projective transformation matrix stored in the storage unit 107 in the pre-processing. Then, the process proceeds to step S705.

ステップS705で、補正手段106は第1の補正手段の例として機能し、第1の映像P1の映像データを補正する。すなわち、映像データ生成手段109は、第1の映像P1の映像データに対して、読み出した第1の射影変換行列を用いて射影変換を行う。そして、ステップS706に進む。 In step S705, the correcting means 106 functions as an example of the first correction means corrects the first image data of the image P 1. That is, the video data generation unit 109 performs projective transformation on the video data of the first video P 1 using the read first projection transformation matrix. Then, the process proceeds to step S706.

ステップS706で、映像認識手段108は、撮像手段103が生成した映像データからRGB映像データ(可視光映像データ)を抽出する。そして、映像認識手段108は、抽出したRGB映像データに、第2の投影面221に設けられるマーカー222が写り込んでいるか否かを検索する。RGB映像データに写っているマーカー222は、第2の投影面221の位置などを示す特徴情報となる。そして、ステップS707に進む。   In step S706, the video recognition unit 108 extracts RGB video data (visible light video data) from the video data generated by the imaging unit 103. Then, the video recognition unit 108 searches whether or not the marker 222 provided on the second projection surface 221 is reflected in the extracted RGB video data. The marker 222 shown in the RGB video data is characteristic information indicating the position of the second projection plane 221 and the like. Then, the process proceeds to step S707.

ステップS707で、制御手段104は、RGB映像データから、特徴情報であるマーカー222が検出されたか否かを判断する。特徴情報を検出できた場合にはステップS708に進み、特徴情報を検出できていなければステップS712に進む。   In step S707, the control unit 104 determines whether or not the marker 222, which is feature information, is detected from the RGB video data. If feature information has been detected, the process proceeds to step S708. If feature information has not been detected, the process proceeds to step S712.

ステップS708で、位置情報算出手段105は、ステップS706で検出したマーカー222と、ステップS703で生成した三次元座標情報から、第2の投影面221の三次元座標を算出する。また、補正手段106は、第2の補正手段として機能し、第2の投影面221の三次元座標と映像投影手段101の三次元座標から、第2の補正パラメータの例である第2の射影変換行列を算出する。そして、ステップS709に進む。   In step S708, the position information calculation unit 105 calculates the three-dimensional coordinates of the second projection plane 221 from the marker 222 detected in step S706 and the three-dimensional coordinate information generated in step S703. The correction unit 106 functions as a second correction unit, and a second projection that is an example of a second correction parameter is calculated from the three-dimensional coordinates of the second projection surface 221 and the three-dimensional coordinates of the image projection unit 101. A transformation matrix is calculated. Then, the process proceeds to step S709.

ステップS709で、制御手段104は、ステップS701で設定されて記憶された観察位置を、記憶手段107から読み出す。そして、位置情報算出手段105は、観察位置の三次元座標と第2の投影面221の三次元座標から、観察位置と第2の投影面221のなす角度θを算出する。そして、ステップS710に進む。   In step S709, the control unit 104 reads the observation position set and stored in step S701 from the storage unit 107. Then, the position information calculation unit 105 calculates an angle θ between the observation position and the second projection plane 221 from the three-dimensional coordinates of the observation position and the three-dimensional coordinates of the second projection plane 221. Then, the process proceeds to step S710.

ステップS710で、制御手段104は、S709で算出した角度θが所定範囲内であるか否かを判断する。制御手段104は、角度θが所定範囲内である場合にはステップS711に進む。そうでない場合にはステップS713に進む。   In step S710, the control unit 104 determines whether or not the angle θ calculated in S709 is within a predetermined range. If the angle θ is within the predetermined range, the control means 104 proceeds to step S711. Otherwise, the process proceeds to step S713.

ステップS711で、補正手段106は、第2の補正手段として機能し、第2の映像P2の映像データを補正する。具体的には、補正手段106は、第2の映像P2の映像データに対して、第2の射影変換行列を用いた射影変換を行う。そして、ステップS714に進む。 In step S711, the correction unit 106 functions as a second correcting means corrects the second image data of the image P 2. Specifically, the correction unit 106 performs the second image P 2 of the image data, a projective transformation using the second projective transformation matrix. Then, the process proceeds to step S714.

ステップS707でマーカー222が検出されなかった場合には、第1のスクリーン21に第2のスクリーン22が設置されていないことになる。この場合には、ステップS712に進む。ステップS712では、制御手段104は、第2のスクリーン22の設置を促す処理を実行する。例えば、制御手段104は、映像投影手段101を制御し、第1のスクリーン21に、第2のスクリーン22の設置を促すメッセージを投影する。また、投影装置1がスピーカーなどの拡声手段を有する構成であれば、制御手段104は、拡声手段を制御して、第2のスクリーン22の設置を促す音声を発する。そして、ステップS714に進む。   If the marker 222 is not detected in step S707, the second screen 22 is not installed on the first screen 21. In this case, the process proceeds to step S712. In step S <b> 712, the control unit 104 executes processing for prompting the installation of the second screen 22. For example, the control unit 104 controls the video projection unit 101 to project a message prompting the installation of the second screen 22 on the first screen 21. If the projection apparatus 1 has a loudspeaker such as a speaker, the control unit 104 controls the loudspeaker to emit a sound that prompts the user to install the second screen 22. Then, the process proceeds to step S714.

ステップS710で角度θが所定範囲内でないと判断された場合は、第2のスクリーン22の第2の投影面221が観察位置以外の位置からも見えるおそれがある状態である。この場合には、ステップS713に進む。ステップS713では、制御手段104は、第2のスクリーン22の向きの確認や修正を促す処理を実行する。例えば、制御手段104は、映像投影手段101を制御し、第2のスクリーン22の向きの確認や修正を促すメッセージを投影する。また、投影装置1がスピーカーなどの拡声手段を有する構成であれば、制御手段104は、拡声手段を制御して、第2のスクリーン22の向きの確認や修正を促す音声を発する。そして、ステップS714に進む。   If it is determined in step S710 that the angle θ is not within the predetermined range, the second projection surface 221 of the second screen 22 may be visible from a position other than the observation position. In this case, the process proceeds to step S713. In step S713, the control unit 104 executes processing for prompting confirmation and correction of the orientation of the second screen 22. For example, the control unit 104 controls the video projection unit 101 to project a message that prompts confirmation and correction of the orientation of the second screen 22. If the projection apparatus 1 has a loudspeaker such as a speaker, the control unit 104 controls the loudspeaker to emit a sound that prompts confirmation and correction of the orientation of the second screen 22. Then, the process proceeds to step S714.

ステップS714で、制御手段104は、図8のステップS801に示す投影処理を行う。この投影処理では、映像データ生成手段109は、制御手段104による制御にしたがい、映像投影手段101が投影する映像の映像データを生成する。例えば、映像データ生成手段109は、第1の映像P1の映像データに第2の映像P2の映像データを重ね合わせることによって、映像投影手段101が投影する映像データを生成する。この際、第2の映像P2の映像データを、第2の投影面221に対応する位置(範囲)に重ね合わせる。そして、映像投影手段101は、制御手段104による制御にしたがい、映像を投影する。前述の映像データを用いることにより、第1の投影面211に第1の映像P1が投影され、第2の投影面221に第2の映像P2が投影される。 In step S714, the control unit 104 performs the projection process shown in step S801 of FIG. In this projection processing, the video data generation unit 109 generates video data of the video projected by the video projection unit 101 under the control of the control unit 104. For example, the video data generating unit 109 generates video data to be projected by the video projecting unit 101 by superimposing the video data of the second video P 2 on the video data of the first video P 1 . At this time, the video data of the second video P 2 is superimposed on a position (range) corresponding to the second projection plane 221. Then, the video projection unit 101 projects a video according to the control by the control unit 104. By using the video data described above, the first video P 1 is projected on the first projection plane 211, and the second video P 2 is projected on the second projection plane 221.

なお、ステップS712またはステップS713を経由してこのステップS714に進んだ場合には、このステップS714において、第1の映像P1のみを投影し、第2の映像P2は投影しない。例えば、映像投影手段101は、第1の映像P1の映像データを用いて映像の投影を行う。このような構成によれば、第2のスクリーン22が設置されていない場合や、第2のスクリーン22の第2の投影面221と観察位置との位置関係が前述の条件を充足していない場合には、第2の映像P2は投影されない。 If the process proceeds to step S714 via step S712 or step S713, only the first video P 1 is projected and the second video P 2 is not projected in step S714. For example, the video projection unit 101 projects video using video data of the first video P 1 . According to such a configuration, when the second screen 22 is not installed, or when the positional relationship between the second projection surface 221 of the second screen 22 and the observation position does not satisfy the above-described conditions. the second picture P 2 is not projected.

そして、ステップS702に戻り、以降、ステップS702〜S714を繰り返す。   Then, the process returns to step S702, and thereafter, steps S702 to S714 are repeated.

上述の処理では、ステップS710で特定の人物HBと第2の投影面221のなす角度θが所定範囲内にあるか否かを判断し、ステップS711でこの判断結果に応じて第2の映像データを生成するか否かを決定している。ただし、本発明の処理は、この構成に限定されない。このような判断を行わなくても、次のように簡易的に目的を達成することも可能である。 In the above-described processing, it is determined in step S710 whether or not the angle θ formed by the specific person H B and the second projection plane 221 is within a predetermined range. In step S711, the second video is determined according to the determination result. Decide whether to generate data. However, the processing of the present invention is not limited to this configuration. Even without making such a determination, the object can be simply achieved as follows.

図9(a)(b)に示すように、投影装置1の撮像手段103が、特定の人物HBが存在する側(観察位置の側)に配置される。そしてこの構成では、図7のステップS710が省略され、ステップS709の次にステップS711に進む。なお、図9(a)は、第2の投影面221が特定の人物HB(観察位置)の方向を向いている状態における動作の概念を模式的に示す図である。また、図9(b)は、第2の投影面221が特定の人物HBの側(観察位置の側)を向いていない状態を模式的に示す図である。 As shown in FIGS. 9A and 9B, the imaging means 103 of the projection apparatus 1 is arranged on the side where the specific person H B is present (the observation position side). In this configuration, step S710 in FIG. 7 is omitted, and the process proceeds to step S711 after step S709. FIG. 9A is a diagram schematically showing the concept of the operation in a state where the second projection plane 221 faces the direction of the specific person H B (observation position). Further, FIG. 9 (b) is a diagram showing a state where the second projection surface 221 does not face the side (the side of the observation position) of the specific person H B schematically.

図7のステップS707で、映像認識手段108は、観察位置の側に配置された撮像手段103により生成されたRGB映像データから、特徴情報であるマーカー222を検出する。観察位置の側に配置される撮像手段103により撮像される映像にマーカー222が写っていることは、観察位置からは第2の投影面221が視認でき、他の位置からは第2の投影面221が視認できないことを示している。すなわち、前述の角度θが所定範囲内にある場合と同等の状態であるとみなせる。そこで、このような構成においては、ステップS710を省略してもよい。すなわち、この構成では、ステップS707で、制御手段104は、条件判断手段として機能する。そして、制御手段104は、マーカー222が検出された場合には、直線Aと直線Bの角度θが所定範囲内にあると判断し、マーカー222が検出されない場合には、角度θが所定範囲内にないと判断する。   In step S707 in FIG. 7, the video recognition unit 108 detects the marker 222 that is feature information from the RGB video data generated by the imaging unit 103 arranged on the observation position side. The fact that the marker 222 is reflected in the video imaged by the imaging means 103 arranged on the observation position side indicates that the second projection plane 221 can be visually recognized from the observation position and the second projection plane from other positions. 221 indicates that it cannot be visually recognized. That is, it can be considered that the angle θ is in a state equivalent to the case where the angle θ is within the predetermined range. Therefore, in such a configuration, step S710 may be omitted. That is, in this configuration, in step S707, the control unit 104 functions as a condition determination unit. When the marker 222 is detected, the control unit 104 determines that the angle θ between the straight line A and the straight line B is within a predetermined range. When the marker 222 is not detected, the angle θ is within the predetermined range. Judge that it is not.

図9(a)に示す状態では、第2の投影面221が観察位置の側を向いているため、撮像手段103により生成されるRGB映像データにマーカー222が写る。このため、映像認識手段108によって、RGB映像データからマーカー222が検出される。この場合には、ステップS708,S709,S711を経て、ステップS714に進む。そして、ステップS714では、第1の投影面211に第1の映像P1が投影され、第2の投影面221に第2の映像P2が投影される。 In the state shown in FIG. 9A, since the second projection surface 221 faces the observation position, the marker 222 appears in the RGB video data generated by the imaging means 103. For this reason, the marker 222 is detected from the RGB video data by the video recognition means 108. In this case, the process proceeds to step S714 through steps S708, S709, and S711. In step S <b> 714, the first video P 1 is projected on the first projection plane 211, and the second video P 2 is projected on the second projection plane 221.

図9(b)に示す状態では、第2の投影面221が観察位置の側を向いていないため、図7のステップS707では、マーカー222が検出されないという判断結果が得られる。この場合には、制御手段104は条件判断手段として機能し、角度θが所定範囲内にはないと判断する。そして、ステップS712を経てステップS714に進む。このため、ステップS714では、映像投影手段101は、第1の投影面211に第1の映像P1を投影し、第2の投影面221には第2の映像P2を投影しない。 In the state shown in FIG. 9B, since the second projection plane 221 does not face the observation position, a determination result that the marker 222 is not detected is obtained in step S707 in FIG. In this case, the control unit 104 functions as a condition determination unit and determines that the angle θ is not within the predetermined range. Then, the process proceeds to step S714 through step S712. For this reason, in step S <b> 714, the video projection unit 101 projects the first video P 1 on the first projection plane 211 and does not project the second video P 2 on the second projection plane 221.

以上説明したとおり、本実施形態においては、第2の投影面221と観察位置との位置関係に応じて、第2の投影面221に投影する映像を切替えることができる。したがって、特定の人物に見せることを想定し、それ以外の人物に見せないことを想定した映像について、当該他の人物に見せないようにできる。   As described above, in the present embodiment, the image projected on the second projection plane 221 can be switched according to the positional relationship between the second projection plane 221 and the observation position. Therefore, it is possible to prevent a video image that is assumed to be shown to a specific person and not to be shown to other persons from being shown to the other person.

また、本実施形態によれば、第1の映像P1の映像データと、第2の映像P2の映像データについて、それぞれ別々に歪の補正を行う。このため、第1の投影面211に投影する第1の映像P1と、第2の投影面221に投影する第2の映像P2の両方について、投影された状態で歪が表示内容に補正できる。さらに、プロジェクタ11と第2の投影面221との位置関係が変わったとしても、第1の投影面211と第2の投影面221のいずれにも歪のない映像を投影できる。 Further, according to the present embodiment, distortion correction is separately performed on the video data of the first video P 1 and the video data of the second video P 2 . Therefore, for both the first video P 1 projected onto the first projection plane 211 and the second video P 2 projected onto the second projection plane 221, distortion is corrected to display contents in the projected state. it can. Furthermore, even if the positional relationship between the projector 11 and the second projection plane 221 changes, an image without distortion can be projected on either the first projection plane 211 or the second projection plane 221.

(第2の実施形態)
次に、第2の実施形態の処理について説明する。第2の実施形態の処理は、第2の投影面221に第2の映像P2を投影している間において、マーカー222が認識できなくなった場合に、第2の映像P2の投影を停止する処理である。例えば、第2のスクリーン22が動かされると、撮像手段103が撮像している映像にブレが発生し、映像認識手段108によりマーカー222を認識できなくなることがある。その場合には、特定の人物HBにのみ見せる第2の映像P2が第2の投影面221を外れ、第1の投影面211に投影されるおそれがある。そこで、このような事態が発生しないよう、第2の投影面221が静止している時のみ第2の投影面221へ第2の映像P2の投影を行い、第2の投影面221が動いている最中は、第2の映像P2を第2の投影面221へ投影しないようにする。なお、第1の実施形態と共通の構成については説明を省略する。
(Second Embodiment)
Next, the processing of the second embodiment will be described. The process of the second embodiment stops the projection of the second video P 2 when the marker 222 cannot be recognized while the second video P 2 is being projected onto the second projection plane 221. It is processing to do. For example, when the second screen 22 is moved, the video captured by the imaging unit 103 may be blurred and the video recognition unit 108 may not be able to recognize the marker 222. In that case, there is a possibility that the second video P 2 shown only to the specific person H B deviates from the second projection plane 221 and is projected onto the first projection plane 211. Therefore, in order to prevent such a situation from occurring, the second image P 2 is projected onto the second projection surface 221 only when the second projection surface 221 is stationary, and the second projection surface 221 moves. During this time, the second image P 2 is not projected onto the second projection plane 221. Note that description of the configuration common to the first embodiment is omitted.

図10は、第2の投影面221が静止している状態と動いている状態での処理を模式的に示す図である。図10中のX1は、第2のスクリーン22(第2の投影面221)が静止している状態を示す。この状態においては、投影装置1は第2の投影面221に第2の映像P2を投影する。図10中のX2は、第2のスクリーン22(第2の投影面221)が移動中の状態を示す。この状態においては、投影装置1は、第2の投影面221に第2の映像P2を投影しない。図10中のX3は、第2のスクリーン22(第2の投影面221)が再度静止した状態を示す。この状態では、投影装置1は、第2の投影面221に第2の映像P2を投影する。 FIG. 10 is a diagram schematically illustrating processing in a state where the second projection surface 221 is stationary and in a moving state. X 1 in FIG. 10 indicates a state where the second screen 22 (second projection plane 221) is stationary. In this state, the projection apparatus 1 projects the second image P 2 on the second projection surface 221. X 2 in FIG. 10 indicates a state in which the second screen 22 (second projection plane 221) is moving. In this state, the projection device 1 does not project the second image P 2 on the second projection surface 221. X 3 in FIG. 10 indicates a state in which the second screen 22 (second projection surface 221) is stationary again. In this state, the projection device 1 projects the second image P 2 on the second projection surface 221.

図11は、上述の動作を実現するための処理の内容を示すフローチャートであり、図7のステップS714の投影処理の内容の詳細を示す。   FIG. 11 is a flowchart showing the contents of the process for realizing the above-described operation, and shows details of the contents of the projection process in step S714 of FIG.

ステップS1101で、制御手段104は、メイン処理のステップS703(図7参照)で算出した第2の投影面221の現在の三次元座標を、記憶手段107に記憶する。そして、S1102に進む。   In step S1101, the control unit 104 stores the current three-dimensional coordinates of the second projection plane 221 calculated in step S703 (see FIG. 7) of the main process in the storage unit 107. Then, the process proceeds to S1102.

ステップS1102で、制御手段104は、前回のステップS1101で記憶した第2の投影面221の三次元座標を読み出す。そして、S1103に進む。   In step S1102, the control unit 104 reads the three-dimensional coordinates of the second projection plane 221 stored in the previous step S1101. Then, the process proceeds to S1103.

S1103で、制御手段104は、第2の投影面221の前回と今回(現在)の三次元座標の差分を算出する。そして、S1104に進む。   In step S <b> 1103, the control unit 104 calculates a difference between the previous and current (current) three-dimensional coordinates of the second projection plane 221. Then, the process proceeds to S1104.

S1104で、制御手段104は、ステップS1103で算出した差分が0でない値であるか否かを判断する。差分が0でなければ、第2の投影面221は移動したことを示し、差分が0であれば第2の投影面221は移動していないことを示す。差分が0でない値であればステップS1105に進み、差分が0であればS1106に進む。   In step S1104, the control unit 104 determines whether the difference calculated in step S1103 is a non-zero value. If the difference is not 0, it indicates that the second projection plane 221 has moved, and if the difference is 0, it indicates that the second projection plane 221 has not moved. If the difference is not 0, the process proceeds to step S1105, and if the difference is 0, the process proceeds to S1106.

ステップS1105で、映像投影手段101は、制御手段104による制御にしたがい、第1の投影面211に対して第1の映像P1を投影する。そして、本処理を終了する。 In step S <b> 1105, the video projection unit 101 projects the first video P 1 on the first projection surface 211 in accordance with the control by the control unit 104. Then, this process ends.

一方、ステップS1106で、映像投影手段101は、制御手段104による制御にしたがい、第1の映像P1を第1の投影面211に投影するとともに、第2の映像P2を第2の投影面221に投影する。具体的には、映像データ生成手段109は、第1の映像P1の映像データの第2の投影面221に対応する領域に、第2の映像P2の映像データの内容を上書きすることにより、映像投影手段101が投影する映像の映像データを生成する。そして、映像投影手段101は、このように生成された映像データを用いて、第2のスクリーン22(第2の投影面221)が載置された第1の投影面211に向けて映像を投影する。これにより、第1の投影面211には第1の映像P1が投影され、第2の投影面221には第2の映像P2が投影される。 On the other hand, in step S1106, the video projection unit 101 projects the first video P 1 on the first projection surface 211 and the second video P 2 on the second projection surface according to the control by the control unit 104. 221 projected. Specifically, the video data generation unit 109 overwrites the content of the video data of the second video P 2 on the area corresponding to the second projection plane 221 of the video data of the first video P 1. Then, video data of the video projected by the video projection unit 101 is generated. Then, the video projection unit 101 projects the video toward the first projection plane 211 on which the second screen 22 (second projection plane 221) is placed, using the video data generated in this way. To do. As a result, the first image P 1 is projected onto the first projection surface 211, and the second image P 2 is projected onto the second projection surface 221.

本実施形態によれば、例えば第2のスクリーン22が移動している間には第2の投影面221に対して第2の映像P2を投影しない。これにより、第2の映像P2が第2の投影面221を外れて第1の投影面211に投影されることを防止できる。 According to the present embodiment, for example, the second image P 2 is not projected onto the second projection surface 221 while the second screen 22 is moving. Thereby, it is possible to prevent the second video image P 2 from being projected on the first projection surface 211 outside the second projection surface 221.

(第3の実施形態)
次に、第3の実施形態の処理について説明する。第3の実施形態の処理は、映像投影手段101から第2の投影面221に至る光路の近傍領域に物体が存在する場合に、第2の投影面221への第2の映像P2の投影を停止する処理である。映像投影手段101は、自身から離れた位置にある第1の投影面211および第2の投影面221に対して映像を投影する。このため、映像投影手段101と第2の投影面221の間に、例えば白紙などといった光路を妨げるものをかざすと、この白紙に第2の映像P2が投影される。したがって、特定の人物HBが存在する側(観察位置の側)以外の側から第2の映像P2の内容を見ることが可能になる。本実施形態では、このような場合に、第2の映像P2を特定の人物HBだけに見せ、他の人物HAに見られないようにする。このような機能を実現するため、映像投影手段101と第2の投影面221の間の光路を妨げるおそれがある物体を検出した際には、第2の投影面221への第2の映像P2の投影を行わないようにする。
(Third embodiment)
Next, the processing of the third embodiment will be described. The process of the third embodiment is to project the second video P 2 onto the second projection plane 221 when an object exists in the vicinity of the optical path from the video projection unit 101 to the second projection plane 221. Is a process of stopping the process. The image projection unit 101 projects an image on the first projection surface 211 and the second projection surface 221 that are located away from the image projection unit 101. Therefore, between the image projection unit 101 of the second projection surface 221, for example, holds the preclude the optical path, such as white paper, the second image P 2 is projected on the white paper. Accordingly, it is possible to view the content of the second video P 2 from a side other than the side where the specific person H B exists (the observation position side). In this embodiment, in such a case, the second video P 2 is shown only to a specific person H B and is not seen by other persons H A. In order to realize such a function, when an object that may interfere with the optical path between the image projection unit 101 and the second projection surface 221 is detected, the second image P on the second projection surface 221 is detected. Do not perform 2 projection.

図12は、映像投影手段101と第2の投影面221との間の光路に物体S(例えば白紙など)が差し込まれた際の動作概念を模式的に示す図である。制御手段104は、映像投影手段101と第2の投影面221との間の光路の近傍領域に物体Sが存在していると判断した場合には、第2の投影面221へ第2の映像P2を投影しない。光路の近傍領域としては、例えば、映像投影手段101と第2の投影面221の中心とを通過する直線Lを中心とする円柱形状の領域Nが適用される。なお、この円柱形状の領域Nの半径は特に限定されるものではなく、第2の投影面221のサイズ等に応じて適宜設定される。例えば、第2の投影面221のサイズが前述のとおりであれば、この領域Nの半径は例えば約50mmが適用できる。さらに、前記光路の近傍領域は、このような円柱形状の領域Nに限られるものではない。例えば、映像投影手段101と第2の投影面221の四隅部を結ぶ四角錐形状の領域などであってもよい。 FIG. 12 is a diagram schematically illustrating an operation concept when an object S (for example, a blank sheet) is inserted into the optical path between the video projection unit 101 and the second projection surface 221. When the control unit 104 determines that the object S exists in the vicinity of the optical path between the image projection unit 101 and the second projection surface 221, the second image is displayed on the second projection surface 221. It does not project a P 2. As the vicinity region of the optical path, for example, a cylindrical region N centering on a straight line L passing through the video projection unit 101 and the center of the second projection surface 221 is applied. Note that the radius of the cylindrical region N is not particularly limited, and is appropriately set according to the size of the second projection surface 221 and the like. For example, if the size of the second projection surface 221 is as described above, the radius of the region N can be applied, for example, about 50 mm. Furthermore, the region near the optical path is not limited to such a columnar region N. For example, it may be a quadrangular pyramid area that connects the video projection unit 101 and the four corners of the second projection plane 221.

図13は、本実施形態における投影処理の例を示すフローチャートであり、図7のステップS714の投影処理の内容を示す。   FIG. 13 is a flowchart showing an example of the projection processing in this embodiment, and shows the contents of the projection processing in step S714 in FIG.

S1301で、制御手段104は、映像投影手段101と第2の投影面221の三次元座標から、映像投影手段101と第2の投影面221の中心とを結ぶ直線Lの方程式を算出する。そして、S1602に進む。なお、映像投影手段101の座標を(x1,y1,z1)とし、第2の投影面221の中心座標を(x2,y2,z2)とすると、この直線Lの方程式は以下のように表わされる。 In step S <b> 1301, the control unit 104 calculates an equation of a straight line L connecting the video projection unit 101 and the center of the second projection plane 221 from the three-dimensional coordinates of the video projection unit 101 and the second projection plane 221. Then, the process proceeds to S1602. If the coordinates of the video projection means 101 are (x 1 , y 1 , z 1 ) and the center coordinates of the second projection plane 221 are (x 2 , y 2 , z 2 ), the equation of this straight line L is It is expressed as follows.

Figure 2016092681
Figure 2016092681

ステップS1302で、映像認識手段108は、物体検出手段の例として機能し、メイン処理のステップS703(図7参照)で生成した三次元座標情報を用い、直線Lから所定距離内に存在する物体(オブジェクト)を検索する。そして、ステップS1303に進む。   In step S1302, the image recognizing unit 108 functions as an example of an object detecting unit, and uses the three-dimensional coordinate information generated in step S703 (see FIG. 7) of the main process to detect an object (within a predetermined distance from the straight line L). Object). Then, the process proceeds to step S1303.

ステップS1303で、制御手段104は、映像認識手段108(物体検出手段)による検索結果に基づき、光路の近傍領域(本実施形態では、直線Lを中心とする円柱形状の領域N)に物体が存在するかどうかを判断する。物体が存在すると判断した場合にはS1304に進み、物体が存在しないと判断した場合にはS1305に進む。   In step S1303, the control unit 104 determines that an object exists in the vicinity region of the optical path (in this embodiment, the cylindrical region N centered on the straight line L) based on the search result by the video recognition unit 108 (object detection unit). Determine whether to do. If it is determined that an object is present, the process proceeds to S1304. If it is determined that no object is present, the process proceeds to S1305.

ステップS1304で、映像投影手段101は、制御手段104による制御にしたがい、第1の投影面211に第1の映像P1を投影する。ただし、映像投影手段101は、第2の投影面221に第2の映像P2を投影しない。例えば、映像データ生成手段109は、第1の映像P1の映像データに第2の映像P2の映像データを重ねた映像データを生成せず、映像投影手段101は、補正された第1の映像P1の映像データを用いて、映像を投影する。これにより、第1の投影面211には第1の映像P1が投影されるが、第2の投影面221には第2の映像P2が投影されない。そして、この処理を終了する。 In step S <b> 1304, the video projection unit 101 projects the first video P 1 on the first projection surface 211 under the control of the control unit 104. However, the image projection unit 101 does not project the second image P 2 on the second projection surface 221. For example, the video data generation unit 109 does not generate video data obtained by superimposing the video data of the second video P 2 on the video data of the first video P 1 , and the video projection unit 101 does not generate the corrected first video P 1. The video is projected using the video data of the video P 1 . As a result, the first image P 1 is projected on the first projection surface 211, but the second image P 2 is not projected on the second projection surface 221. Then, this process ends.

ステップS1305で、映像投影手段101は、制御手段104による制御にしたがい、第1の投影面211に第1の映像P1を投影し、第2の投影面221に第2の映像P2を投影する。例えば、映像データ生成手段109は、第1の映像P1の映像データに第2の映像P2の映像データを上書きすることにより、映像投影手段101が投影する映像の映像データを生成する。これにより、第1の投影面211には第1の映像P1が投影され、第2の投影面221には第2の映像P2が投影される。そして、この処理を終了する。 In step S <b> 1305, the video projection unit 101 projects the first video P 1 on the first projection surface 211 and projects the second video P 2 on the second projection surface 221 according to the control by the control unit 104. To do. For example, the video data generation unit 109 generates video data of the video projected by the video projection unit 101 by overwriting the video data of the second video P 2 on the video data of the first video P 1 . As a result, the first image P 1 is projected onto the first projection surface 211, and the second image P 2 is projected onto the second projection surface 221. Then, this process ends.

本実施形態によれば、映像投影手段101から第2の投影面221に至る光路の近傍領域に物体を接近させると、第2の映像P2の投影を停止するため、見せたくない映像を見せないようにできる。 According to this embodiment, when the close of the object region near the optical path from the image projection unit 101 to the second projection surface 221, for stopping the second projection image P 2, a picture which do not want to show show I can not.

次に、投影装置1のハードウェア構成例について、図14を参照して説明する。図14は、投影装置1のハードウェア構成例を模式的に示す図である。投影装置1は、プロジェクタ11と、カメラ12と、コントロールコンピュータ13とを有する。   Next, a hardware configuration example of the projection apparatus 1 will be described with reference to FIG. FIG. 14 is a diagram schematically illustrating a hardware configuration example of the projection apparatus 1. The projection apparatus 1 includes a projector 11, a camera 12, and a control computer 13.

プロジェクタ11は、映像投影手段101の例である。プロジェクタ11は使用者等に視覚的に知らせるべき情報を可視光の映像により投影する。プロジェクタ11は、コントロールコンピュータ13のI/Oコントローラ136およびグラフィックコントローラ132との間でデータの送受信を行う。なお、プロジェクタ11には、公知の各種プロジェクタが適用できる。   The projector 11 is an example of the video projection unit 101. The projector 11 projects information to be visually notified to the user or the like by an image of visible light. The projector 11 transmits and receives data to and from the I / O controller 136 and the graphic controller 132 of the control computer 13. Various known projectors can be applied to the projector 11.

カメラ12は、不可視光投射手段102および撮像手段103の例である。このようなカメラ12としては、例えば、赤外線エミッタ内蔵カメラが適用される。赤外線エミッタ内蔵カメラは、撮影した撮像映像をRGB輝度情報のデジタル信号であるRGB映像データに変換する。また、赤外線エミッタ内蔵カメラは赤外線の撮像素子を備えている。そして、赤外線エミッタ内蔵カメラは、内蔵された赤外線エミッタから赤外線を投射してその反射光を撮影し、不可視光映像データを生成する。カメラ12は、I/Oコントローラ136との間でデータの送受信を行う。前述のとおり、投影装置1は、赤外線エミッタ内蔵カメラによる赤外線投射時刻と反射光の撮影時刻から、TOF(タイム オブ フライト)方式の距離計測により、カメラ12と被写体(物体)との距離を計測する。なお、TOF法式の距離計測は公知であるため、説明を省略する。   The camera 12 is an example of the invisible light projection unit 102 and the imaging unit 103. As such a camera 12, for example, an infrared emitter built-in camera is applied. The camera with a built-in infrared emitter converts the captured image to RGB image data that is a digital signal of RGB luminance information. The camera with a built-in infrared emitter includes an infrared image sensor. The infrared emitter built-in camera projects infrared light from the built-in infrared emitter and shoots the reflected light to generate invisible light image data. The camera 12 transmits and receives data to and from the I / O controller 136. As described above, the projection apparatus 1 measures the distance between the camera 12 and the subject (object) by the TOF (time of flight) distance measurement from the infrared projection time by the camera with built-in infrared emitter and the photographing time of the reflected light. . In addition, since the distance measurement of the TOF method is known, the description is omitted.

コントロールコンピュータ13は、CPU131と、メモリコントローラ133と、RAM134と、ROM135と、グラフィックコントローラ132と、I/Oコントローラ136と、HDD137と、内部バス138とを有するコンピュータである。メモリコントローラ133は、RAM134やROM135に対するアクセスなどを統括する。RAM134は、高速アクセス可能な揮発性のメモリであり、CPU131が所定の演算処理を行う際のワークエリアとして用いられる。HDD137またはROM135には、ブートローダプログラムおよび投影装置1を制御するためのプログラムが格納されている。内部バス138は、メモリコントローラ133とI/Oコントローラ136で情報の伝達が出来るよう、電気信号を送受信する。I/Oコントローラ136は、HDD137、プロジェクタ11、カメラ12と、内部バス138を介して接続しているメモリコントローラ133などとの間で、データの送受信を行う。グラフィックコントローラ132は、プロジェクタ11による映像の投影を制御する。   The control computer 13 is a computer having a CPU 131, a memory controller 133, a RAM 134, a ROM 135, a graphic controller 132, an I / O controller 136, an HDD 137, and an internal bus 138. The memory controller 133 controls access to the RAM 134 and ROM 135. The RAM 134 is a volatile memory that can be accessed at high speed, and is used as a work area when the CPU 131 performs predetermined arithmetic processing. The HDD 137 or the ROM 135 stores a boot loader program and a program for controlling the projection apparatus 1. The internal bus 138 transmits and receives electrical signals so that the memory controller 133 and the I / O controller 136 can transmit information. The I / O controller 136 transmits and receives data between the HDD 137, the projector 11, and the camera 12 and the memory controller 133 connected via the internal bus 138. The graphic controller 132 controls the projection of video by the projector 11.

投影装置1の電源が投入されると、CPU131は、ROM135またはHDD137に格納されるブートローダプログラムを読み出して実行し、次いで、投影装置1を制御するためのコンピュータプログラムを読み出してRAM134に展開する。そして、CPU131は、RAM134に展開したこのコンピュータプログラムを実行する。これにより、コントロールコンピュータ13は、図4に示す投影装置1の各手段として機能し、前述の処理が実現する。   When the power of the projection apparatus 1 is turned on, the CPU 131 reads out and executes a boot loader program stored in the ROM 135 or the HDD 137, and then reads out a computer program for controlling the projection apparatus 1 and develops it in the RAM 134. Then, the CPU 131 executes this computer program developed on the RAM 134. Thereby, the control computer 13 functions as each unit of the projection apparatus 1 shown in FIG. 4 and realizes the processing described above.

また、コントロールコンピュータ13が映像データ生成手段109として機能する際には、CPU131は、第1の映像P1の映像データをRAM134のフレームバッファに格納し、第2の映像P2の映像データを、前記フレームバッファに上書きする。これにより、プロジェクタ11が投影する映像の映像データが生成される。プロジェクタ11は、このフレームバッファに格納される映像データを用いて映像を投影する。 When the control computer 13 functions as the video data generation unit 109, the CPU 131 stores the video data of the first video P 1 in the frame buffer of the RAM 134 and the video data of the second video P 2 . Overwrite the frame buffer. Thereby, video data of a video projected by the projector 11 is generated. The projector 11 projects an image using the image data stored in the frame buffer.

以上、本発明の各実施形態について、図面を参照して詳細に説明したが、前記各実施形態は、本発明の実施にあたっての具体例を示したに過ぎない。本発明の技術的範囲は、前記各実施形態に限定されるものではない。本発明は、その趣旨を逸脱しない範囲において、種々の変更が可能であり、それらも本発明の技術的範囲に含まれる。   As mentioned above, although each embodiment of this invention was described in detail with reference to drawings, each said embodiment only showed the specific example in implementation of this invention. The technical scope of the present invention is not limited to the above embodiments. The present invention can be variously modified without departing from the spirit thereof, and these are also included in the technical scope of the present invention.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

1:投影装置
11:プロジェクタ
12:カメラ
101:映像投影手段
102:不可視光投射手段
103:撮像手段
104:制御手段
105:位置情報算出手段
106:補正手段
107:記憶手段
108:映像認識手段
109:映像データ生成手段
110:操作手段
111:入出力制御手段
1: Projector 11: Projector 12: Camera 101: Video projection means 102: Invisible light projection means 103: Imaging means 104: Control means 105: Position information calculation means 106: Correction means 107: Storage means 108: Video recognition means 109: Video data generation means 110: operation means 111: input / output control means

Claims (12)

第1の投影面と第2の投影面に映像を投影する映像投影手段と、
前記第1の投影面と前記第2の投影面を撮像する撮像手段と、
前記撮像手段が撮像した前記映像から前記第2の投影面の位置情報を算出する位置情報算出手段と、
前記第2の投影面の位置情報に応じて、前記第2の投影面に投影する映像を切替える切替手段と、
を有することを特徴とする投影装置。
Image projection means for projecting an image on the first projection surface and the second projection surface;
Imaging means for imaging the first projection plane and the second projection plane;
Position information calculating means for calculating position information of the second projection plane from the video imaged by the imaging means;
Switching means for switching an image projected on the second projection plane in accordance with position information of the second projection plane;
A projection apparatus comprising:
前記撮像手段が撮像した映像から前記第2の投影面に関する特徴情報を抽出し、
前記位置情報算出手段は、前記特徴情報に基づいて前記第2の投影面の位置情報を算出することを特徴とする請求項1に記載の投影装置。
Extracting feature information related to the second projection plane from the video imaged by the imaging means;
The projection apparatus according to claim 1, wherein the position information calculation unit calculates position information of the second projection plane based on the feature information.
不可視光を投影する不可視光投射手段をさらに有し、
前記撮像手段は、前記不可視光投射手段が投影した不可視光からなる不可視光映像を撮像し、
前記位置情報算出手段は、前記不可視光映像に基づいて前記第2の投影面の位置情報を算出することを特徴とする請求項1または2に記載の投影装置。
Further comprising invisible light projection means for projecting invisible light,
The imaging means captures an invisible light image composed of invisible light projected by the invisible light projection means,
The projection apparatus according to claim 1, wherein the position information calculation unit calculates position information of the second projection plane based on the invisible light image.
前記第2の投影面とあらかじめ設定された観察位置との位置関係が所定の条件を充足するか否かを判断する条件判断手段をさらに有し、
前記切替手段は、前記所定の条件を充足すると判断された場合には、前記第2の投影面に投影すべき映像を前記第2の投影面に投影させ、前記所定の条件を充足しないと判断された場合には、前記第2の投影面に投影すべき映像を投影させないことを特徴とする請求項1から3のいずれか1項に記載の投影装置。
A condition determining means for determining whether or not a positional relationship between the second projection plane and a preset observation position satisfies a predetermined condition;
When it is determined that the predetermined condition is satisfied, the switching unit projects an image to be projected on the second projection plane onto the second projection plane, and determines that the predetermined condition is not satisfied. 4. The projection apparatus according to claim 1, wherein in the case of being performed, an image to be projected is not projected on the second projection plane. 5.
前記条件判断手段は、前記第1の投影面の法線方向視において、前記第2の投影面の中心を通過する法線と、前記第2の投影面と前記観察位置とを結ぶ直線とのなす角が所定範囲内である場合には、前記所定の条件を充足すると判断し、前記角が所定範囲内でない場合には、前記所定の条件を充足しないと判断することを特徴とする請求項4に記載の投影装置。   The condition determining means includes a normal passing through the center of the second projection plane and a straight line connecting the second projection plane and the observation position in the normal direction view of the first projection plane. The determination is made that the predetermined condition is satisfied when an angle formed is within a predetermined range, and it is determined that the predetermined condition is not satisfied when the angle is not within the predetermined range. 5. The projection device according to 4. 前記条件判断手段は、前記観察位置から前記第2の投影面を認識できた場合には、前記所定の条件を充足すると判断し、前記観察位置から前記第2の投影面を認識できない場合には、前記所定の条件を充足しないと判断することを特徴とする請求項4または5に記載の投影装置。   The condition determining means determines that the predetermined condition is satisfied when the second projection plane can be recognized from the observation position, and when the second projection plane cannot be recognized from the observation position. The projection apparatus according to claim 4, wherein it is determined that the predetermined condition is not satisfied. 前記切替手段は、前記第2の投影面が前記第1の投影面に対して移動している間は、前記第2の投影面に投影すべき映像を前記第2の投影面に投影させ、前記所定の条件を充足しない場合には、前記第2の投影面に投影すべき映像を投影させないことを特徴とする請求項4から6のいずれか1項に記載の投影装置。   The switching unit projects an image to be projected on the second projection plane onto the second projection plane while the second projection plane moves relative to the first projection plane, 7. The projection apparatus according to claim 4, wherein when the predetermined condition is not satisfied, an image to be projected on the second projection plane is not projected. 7. 前記投影手段から前記第2の投影面に至る光路から所定範囲内に存在する物体を検出する物体検出手段をさらに有し、
前記切替手段は、前記物体検出手段により物体が検出された場合には、前記第2の投影面に投影すべき映像を前記第2の投影面に投影させ、前記所定の条件を充足しないと判断された場合には、前記第2の投影面に投影すべき映像を投影させないことを特徴とする請求項1から7のいずれか1項に記載の投影装置。
An object detection means for detecting an object existing within a predetermined range from an optical path from the projection means to the second projection plane;
The switching means, when an object is detected by the object detection means, projects an image to be projected on the second projection plane onto the second projection plane, and determines that the predetermined condition is not satisfied. The projection apparatus according to any one of claims 1 to 7, wherein in the case of being performed, an image to be projected is not projected on the second projection plane.
前記第1の投影面に投影する映像を第1の補正パラメータを用いて補正する第1の補正手段と、
前記第2の投影面に投影する映像を第2の補正パラメータを用いて補正する第2の補正手段と、
をさらに有することを特徴とする請求項1から8のいずれか1項に記載の投影装置。
First correction means for correcting an image projected on the first projection plane using a first correction parameter;
Second correction means for correcting an image projected on the second projection plane using a second correction parameter;
The projection apparatus according to claim 1, further comprising:
前記第1の補正手段は、前記映像投影手段と前記第1の投影面との位置情報に基づいて前記第1の補正パラメータを算出し、
前記第2の補正手段は、前記映像投影手段と前記第2の投影面との位置情報に基づいて前記第2のパラメータを算出することを特徴とする請求項9に記載の投影装置。
The first correction unit calculates the first correction parameter based on positional information between the video projection unit and the first projection plane,
The projection apparatus according to claim 9, wherein the second correction unit calculates the second parameter based on positional information between the video projection unit and the second projection plane.
第1の投影面と第2の投影面に映像を投影する映像投影手段を有する投影装置の制御方法であって、
前記第1の投影面と前記第2の投影面を撮像するステップと、
前記第1の投影面と前記第2の投影面を撮像した映像から前記第2の投影面の位置情報を算出するステップと、
算出した第2の投影面の位置情報に応じて、前記第2の投影面に投影する映像を切替えるステップと、
を有することを特徴とする投影装置の制御方法。
A method for controlling a projection apparatus having image projection means for projecting an image on a first projection plane and a second projection plane,
Imaging the first projection plane and the second projection plane;
Calculating positional information of the second projection plane from an image obtained by imaging the first projection plane and the second projection plane;
Switching the image projected on the second projection plane according to the calculated position information of the second projection plane;
A control method for a projection apparatus, comprising:
コンピュータを、請求項1から10のいずれか1項に記載の各手段として機能させることを特徴とするプログラム。   A program for causing a computer to function as each means according to any one of claims 1 to 10.
JP2014227262A 2014-11-07 2014-11-07 Projection device, control method of projection device, and program Pending JP2016092681A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014227262A JP2016092681A (en) 2014-11-07 2014-11-07 Projection device, control method of projection device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014227262A JP2016092681A (en) 2014-11-07 2014-11-07 Projection device, control method of projection device, and program

Publications (1)

Publication Number Publication Date
JP2016092681A true JP2016092681A (en) 2016-05-23

Family

ID=56019918

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014227262A Pending JP2016092681A (en) 2014-11-07 2014-11-07 Projection device, control method of projection device, and program

Country Status (1)

Country Link
JP (1) JP2016092681A (en)

Similar Documents

Publication Publication Date Title
CN109739361B (en) Visibility improvement method based on eye tracking and electronic device
CN106846410B (en) Driving environment imaging method and device based on three dimensions
KR102114377B1 (en) Method for previewing images captured by electronic device and the electronic device therefor
US9064293B2 (en) Vehicle surroundings monitoring device
US10026207B2 (en) Image display device, image display method and storage medium
CN106605195B (en) Communication apparatus and control method of communication apparatus
JP6075122B2 (en) System, image projection apparatus, information processing apparatus, information processing method, and program
JP6249248B2 (en) Projection device
WO2013146269A1 (en) Image capturing device, image processing method, and program
KR20150113889A (en) Image processing apparatus, image processing method, and storage medium
JP6494239B2 (en) Control device, control method, and program
JP2013076924A5 (en)
JP2015212898A (en) Image processor, information processing method and program
EP3381180B1 (en) Photographing device and method of controlling the same
JP2016085380A (en) Controller, control method, and program
WO2017187694A1 (en) Region of interest image generating device
WO2021238564A1 (en) Display device and distortion parameter determination method, apparatus and system thereof, and storage medium
US20160328201A1 (en) Display control system, display control apparatus, display control method, and storage medium
KR102314943B1 (en) Information processing apparatus, information processing method, and recording medium
JPWO2018150569A1 (en) Gesture recognition device, gesture recognition method, projector including gesture recognition device, and video signal supply device
US11589001B2 (en) Information processing apparatus, information processing method, and program
US20190318503A1 (en) Non-transitory computer-readable storage medium, display apparatus, head-mounted display apparatus, and marker
JP2016092681A (en) Projection device, control method of projection device, and program
JP2015159460A (en) Projection system, projection device, photographing device, method for generating guide frame, and program
JP6057407B2 (en) Touch position input device and touch position input method